JP2001061164A - Transmission method of stereoscopic video signal - Google Patents

Transmission method of stereoscopic video signal

Info

Publication number
JP2001061164A
JP2001061164A JP11232825A JP23282599A JP2001061164A JP 2001061164 A JP2001061164 A JP 2001061164A JP 11232825 A JP11232825 A JP 11232825A JP 23282599 A JP23282599 A JP 23282599A JP 2001061164 A JP2001061164 A JP 2001061164A
Authority
JP
Japan
Prior art keywords
depth
image
information
unit
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11232825A
Other languages
Japanese (ja)
Inventor
Toru Sugiyama
徹 杉山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP11232825A priority Critical patent/JP2001061164A/en
Publication of JP2001061164A publication Critical patent/JP2001061164A/en
Pending legal-status Critical Current

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PROBLEM TO BE SOLVED: To compress transmission value of stereoscopic video signals in consideration of the stereoscopic visual characteristics by coding the depth value so as to preferentially assign the transmission value to the frequency component of high perception sensitivity according to the time and space characteristics defined to the visual depth change, when an image sent from the visual point direction and the depth value corresponding to the image are transmitted. SOLUTION: Information on the left eye images 11 of an input terminal are inputted to a coding part 103 and a depth estimating part 101, and the information on the right eye images 12 are inputted to the part 101 via the input terminal. The part 101 estimates the depth value, corresponding to every pixel of the left eye image information by referring to the right and left image information. A depth information compression part 102 performs processing to compress the depth information in consideration of the visual characteristics. In regard to the configuration of the part 102, a post-quantization step of the DCT processing is controlled to compress the quantity of information. Otherwise, the quantity of information may be compressed after the direct filter processing is applied with respect to the depth value in the space direction.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、立体映像信号の
伝送方法に関するもので、特に1視点からの2次元映像
と、その2次元映像の各画像に対応した奥行き値または
視差量を伝送する場合、伝送量を圧縮する手法に関する
ものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for transmitting a stereoscopic video signal, and more particularly to a method for transmitting a two-dimensional video from one viewpoint and a depth value or a parallax amount corresponding to each image of the two-dimensional video. And a method for compressing the amount of transmission.

【0002】[0002]

【従来の技術】立体映像情報を伝送する場合、例えば左
右の眼に対応する2枚の映像の映像情報を伝送する必要
がある。このときの2枚の映像は、観察者が左右の眼で
別々に観察した場合、立体像が知覚されるように視差を
もつ映像である。立体映像が2枚の映像から構成される
場合、そのまま伝送すると従来の2次元映像に比べて2
倍の伝送量が必要となる。そのため伝送量を低減する方
法が検討されている。その方法の1つとして視差補償方
式と呼ばれる伝送方式がある(例えば”立体画像符号化
における視差推定手法に関する検討”NHK技研R&D
No.47 1997年11月参照)。
2. Description of the Related Art When transmitting stereoscopic video information, it is necessary to transmit video information of two images corresponding to, for example, left and right eyes. The two images at this time are images having parallax such that a stereoscopic image is perceived when the observer observes with the left and right eyes separately. When a stereoscopic image is composed of two images, if it is transmitted as it is, it is 2 times smaller than a conventional 2D image.
Double the amount of transmission is required. Therefore, methods for reducing the amount of transmission are being studied. As one of the methods, there is a transmission method called a disparity compensation method (for example, “Study on disparity estimation method in stereoscopic image coding” NHK Giken R & D
No. 47 Nov 1997).

【0003】視差補償方式のブロック構成を示すと、図
20に示すような構成である。
[0003] The block configuration of the parallax compensation system is as shown in FIG.

【0004】入力は左眼映像情報と右眼映像情報の2系
統である。左眼映像情報はそのまま伝送する。右眼映像
情報に関しては、視差推定と補償部において、左眼映像
情報との相関を利用して伝送量を圧縮する。例えば右眼
映像をサブブロックに分割し、各サブブロック毎に左眼
映像の中で最も近いサブブロックを見つけ出し、その位
置ずれ量(視差ベクトル)を求める。次に求めた視差ベ
クトルと左眼映像を用いて右眼映像を予測し、予測した
映像とオリジナルの右眼映像との残差(補償誤差)を求
める。左眼映像、視差ベクトル、補償誤差を適当な圧縮
方式で圧縮し伝送する。
[0004] There are two inputs, left eye image information and right eye image information. The left eye image information is transmitted as it is. For the right eye image information, the parallax estimation and compensation unit compresses the transmission amount using the correlation with the left eye image information. For example, the right-eye image is divided into sub-blocks, the closest sub-block is found in the left-eye image for each sub-block, and the positional shift amount (disparity vector) is obtained. Next, a right-eye image is predicted using the obtained disparity vector and the left-eye image, and a residual (compensation error) between the predicted image and the original right-eye image is obtained. The left-eye image, the disparity vector, and the compensation error are compressed and transmitted by an appropriate compression method.

【0005】視差補償方式においては、視差ベクトル
は、サブブロックを代表する1つの視差に相当する。補
償誤差は、視差ベクトルのみでは表現できない視差、及
び左眼映像には遮蔽領域として存在せず右眼映像のみに
存在する映像の情報を含んでいると考えてよい。
In the parallax compensation system, a parallax vector corresponds to one parallax representing a sub-block. The compensation error may be considered to include disparity that cannot be expressed only by the disparity vector, and information of an image that does not exist as a blocking area in the left-eye image but exists only in the right-eye image.

【0006】立体映像伝送方法の別の方法として、1視
点からの映像と、その映像の各画素に対応した距離(奥
行き値または視差)を伝送する方法が考えられている。
この方法を視差補償方式に置き換える場合、各画素毎に
視差ベクトルを求めて伝送していると見ることができ
る。
As another method of transmitting a stereoscopic video, a method of transmitting a video from one viewpoint and a distance (depth value or parallax) corresponding to each pixel of the video has been considered.
When this method is replaced with a parallax compensation method, it can be seen that a parallax vector is obtained and transmitted for each pixel.

【0007】上記の2つの方法は、視点間(例えば左右
間)の映像の相関を利用して伝送量の圧縮をおこなって
いるが、必ずしも立体視における人間の視覚特性を考慮
しているとは言えない。立体視における人間の視覚特性
を考慮した伝送方式として、次のようなものがある。左
眼映像情報は、そのまま伝送する。そして右眼映像情報
に関しては、左眼映像情報との差分をとり、その差分情
報をサブサンプル化して圧縮するというものである。立
体視の視覚特性として時間軸方向で奥行きが急激に変化
する場合、その変化を知覚できないという特性があり、
前記方法はこの特性を利用したものだが、この方法で
は、映像の差分情報をサブサンプルするため、奥行きが
変化している部分では水平解像度も低下するという現象
が現れる。
In the above two methods, the amount of transmission is compressed by utilizing the correlation between images between viewpoints (for example, between left and right). However, it is not necessarily considered that human visual characteristics in stereoscopic vision are considered. I can not say. There are the following transmission methods in consideration of human visual characteristics in stereoscopic vision. The left eye image information is transmitted as it is. Then, regarding the right eye image information, a difference from the left eye image information is obtained, and the difference information is subsampled and compressed. As a visual characteristic of stereoscopic vision, when the depth changes rapidly in the time axis direction, there is a characteristic that the change cannot be perceived,
The above method utilizes this characteristic, but in this method, since the difference information of the video is sub-sampled, a phenomenon that the horizontal resolution is reduced in a portion where the depth is changed appears.

【0008】[0008]

【発明が解決しようとする課題】上記したように、従来
の立体映像情報の伝送方法の場合、立体視における人間
の視覚特性を十分に利用した伝送量の圧縮技術はない。
As described above, in the conventional method of transmitting stereoscopic video information, there is no technique for compressing the amount of transmission that makes full use of human visual characteristics in stereoscopic vision.

【0009】そこでこの発明は、立体映像情報の伝送を
行う場合、立体視における視覚特性を考慮した伝送量の
圧縮を行うことができる立体映像信号伝送方法を提供す
ることを目的とする。
SUMMARY OF THE INVENTION It is therefore an object of the present invention to provide a stereoscopic video signal transmission method capable of compressing a transmission amount in consideration of visual characteristics in stereoscopic viewing when transmitting stereoscopic video information.

【0010】[0010]

【課題を解決するための手段】この発明は上記の目的を
達成するために、1視点方向からの映像と、その映像に
対応した奥行き値とを伝送する場合、視覚の奥行き変化
に対する時間及び空間周波数特性に従い、知覚感度の高
い周波数成分に対して優先的に伝送量を割り当てるよう
に奥行き値を符号化するものである。
SUMMARY OF THE INVENTION In order to achieve the above object, the present invention provides a method for transmitting an image from one viewpoint direction and a depth value corresponding to the image in a time and space with respect to a change in visual depth. According to the frequency characteristic, the depth value is encoded such that the transmission amount is preferentially allocated to the frequency component having a high perceptual sensitivity.

【0011】つまり本発明では、立体映像を伝送する場
合、立体視における以下の視覚特性のいずれかまたは複
数を利用して立体映像の伝送量の削減を図るものであ
る。
That is, according to the present invention, when transmitting a stereoscopic video, the transmission amount of the stereoscopic video is reduced by using one or more of the following visual characteristics in stereoscopic vision.

【0012】(a) ある一定量の奥行き以下は奥行き
を知覚できない(この値を奥行き弁別閾と呼ぶ)。また
奥行き弁別閾は、映像の空間周波数成分で変化し、映像
の空間周波数が高いほど奥行き弁別閾は小さい。
(A) The depth cannot be perceived below a certain amount of depth (this value is called a depth discrimination threshold). Further, the depth discrimination threshold changes with the spatial frequency component of the image, and the higher the spatial frequency of the image, the smaller the depth discrimination threshold.

【0013】(b)奥行きを時間軸で周期的に変化させ
ると時間周波数が一定量以上で奥行きが知覚できない
(この値を奥行き変化の臨界周波数と呼ぶ)。また奥行
き変化の臨界周波数は映像の空間周波数成分で変化し、
映像の空間周波数が高いほど奥行き変化の臨界周波数は
低くなる。
(B) When the depth is changed periodically on the time axis, the depth cannot be perceived when the time frequency exceeds a certain amount (this value is called a critical frequency of the depth change). Also, the critical frequency of the depth change changes with the spatial frequency component of the image,
The higher the spatial frequency of the image, the lower the critical frequency of the depth change.

【0014】(c)奥行き弁別閾は、映像のコントラス
トで変化し、映像のコントラストが低いと奥行き弁別閾
は大きくなる。
(C) The depth discrimination threshold changes depending on the contrast of the image. When the contrast of the image is low, the depth discrimination threshold increases.

【0015】(d)映像が輝度成分からなる場合と色成
分からなる場合とでは奥行き弁別閾は輝度成分からなる
場合の方が小さい。
(D) The depth discrimination threshold between a case where the image is composed of a luminance component and a case where the image is composed of a color component is smaller when the image is composed of a luminance component.

【0016】[0016]

【発明の実施の形態】以下、この発明の実施の形態を図
面を参照して説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0017】図1はこの発明の一実施の形態である。こ
こでは立体映像としては、例えば左右2枚の映像を仮定
している。左眼映像情報はそのまま伝送するか、または
MPEG規格により符号化して伝送する。図では、入力
端子11の左眼映像情報は、符号化部103に入力され
るとともに、奥行き推定部101に入力される。
FIG. 1 shows an embodiment of the present invention. Here, for example, two left and right images are assumed as stereoscopic images. The left-eye image information is transmitted as it is, or is encoded and transmitted according to the MPEG standard. In the figure, the left-eye image information of the input terminal 11 is input to the encoding unit 103 and also to the depth estimation unit 101.

【0018】右眼映像情報は、入力端子12を介して奥
行き推定部101に入力される。奥行き推定部101で
は、左右映像情報を参照して、左眼映像情報の各画素に
対応する奥行き値(視差)を推定する。
The right eye image information is input to the depth estimating unit 101 via the input terminal 12. The depth estimating unit 101 estimates a depth value (parallax) corresponding to each pixel of the left eye image information with reference to the left and right image information.

【0019】奥行き値を推定する方法としては、例えば
ブロックマッチングを使って左右画像情報間で対応する
各画素の移動量を求め、その値を奥行き値とする。次に
求めた奥行き値に対して奥行き情報圧縮部102で人間
の視覚特性を考慮した処理を行い情報量を圧縮する。
As a method of estimating the depth value, for example, the movement amount of each corresponding pixel between the left and right image information is obtained using block matching, and the value is used as the depth value. Next, the depth information compression unit 102 performs processing on the determined depth value in consideration of human visual characteristics to compress the information amount.

【0020】立体視における視覚特性の例が、文献1”
3次元映像の基礎” NHK放送技術研究編 オーム社
1995)と文献2”Binocular Vision and Ster
eopsis ”Ian P.Howard 他 Oxford University
Press 1995 )に示されている。文献1の28
頁の図2.16は、奥行きが水平方向で変化する場合の
奥行き弁別閾を示したもので、実験に用いた刺激は、こ
の文献1の第27頁の図2.15に示されている。文献
2の第164頁の図5.13は奥行きが垂直方向に変化
する場合の奥行き弁別閾を示している。実験に用いた刺
激は(a)に、その結果が(b)に示されている。これ
より視差が一定量以下では立体視できないこと、またこ
の値(奥行き弁別閾)は奥行き変化の空間周波数に対し
てバンドパス型の特性を示し、高空間周波数では立体視
できないことを示している。
An example of visual characteristics in stereoscopic vision is disclosed in Reference 1 ".
Basics of 3D Video "NHK Broadcasting Technology Research, Ohmsha 1995) and Reference 2" Binocular Vision and Ster
eopsis "Ian P. Howard et al. Oxford University
Press 1995). Reference 1, 28
FIG. 2.16 on the page shows the depth discrimination threshold when the depth changes in the horizontal direction. The stimulus used for the experiment is shown in FIG. 2.15 on page 27 of this document. . FIG. 5.13 on page 164 of document 2 shows the depth discrimination threshold when the depth changes in the vertical direction. The stimuli used in the experiment are shown in (a) and the results are shown in (b). This indicates that stereoscopic vision cannot be performed when the parallax is equal to or less than a certain amount, and that this value (depth discrimination threshold) shows bandpass characteristics with respect to the spatial frequency of the depth change, indicating that stereoscopic vision cannot be performed at high spatial frequencies. .

【0021】文献1の第32頁の図2.21は、奥行き
が時間軸方向で周期的に変化する場合の奥行き弁別閾を
示したものである。奥行き弁別閾が時間周波数に対して
バンドパス型の特性を示し、高時間周波数は立体視でき
ないことを示している。
FIG. 2.21 on page 32 of Document 1 shows a depth discrimination threshold when the depth periodically changes in the time axis direction. The depth discrimination threshold shows a band-pass characteristic with respect to the time frequency, and the high time frequency indicates that stereoscopic viewing is not possible.

【0022】奥行き圧縮部102では、視覚特性を考慮
して奥行き情報の圧縮がなされるように処理を行う。図
2には奥行き情報圧縮処理部102の構成例を示してい
る。
The depth compression section 102 performs processing so that depth information is compressed in consideration of visual characteristics. FIG. 2 shows a configuration example of the depth information compression processing unit 102.

【0023】例えば離散コサイン変換(DCT)部20
2では、入力する奥行き値に対して画面を一定面積のブ
ロックに分割し、各ブロック毎に空間軸方向でのDCT
処理を行う。
For example, a discrete cosine transform (DCT) unit 20
In step 2, the screen is divided into blocks of a fixed area with respect to the input depth value, and DCT in the spatial axis direction is performed for each block.
Perform processing.

【0024】DCT処理後の各周波数成分に対して立体視
が知覚できないような高空間周波数成分に関してはその
除去が行われる。また他の周波数成分に関しては奥行き
弁別閾の小さい周波数に対しては量子化ステップが細か
くなるように量子化ステップを制御する。この方法とし
ては、例えば視覚特性を考慮した量子化テーブルを予め
作成しておき、量子化テーブル204に格納しておけば
よい。量子化テーブル204は例えば図2(B)に示す
奥行き解像度を示す特性グラフに従って作成する。
The high spatial frequency components for which the stereoscopic vision cannot be perceived for each frequency component after the DCT processing are removed. For other frequency components, the quantization step is controlled so that the quantization step becomes finer for a frequency having a small depth discrimination threshold. As this method, for example, a quantization table in consideration of visual characteristics may be created in advance and stored in the quantization table 204. The quantization table 204 is created in accordance with, for example, a characteristic graph indicating the depth resolution shown in FIG.

【0025】量子化部203では、量子化テーブル20
4の値を参照して、量子化を行う。これにより視覚特性
を考慮した高空間周波数成分の除去を及び量子化を実現
することになる。また時間軸方向でDCT処理を行う場
合には、空間周波数に対して行った処理と同様に高時間
周波数成分の除去と量子化ステップの制御を行う。
In the quantization section 203, the quantization table 20
With reference to the value of 4, quantization is performed. As a result, removal and quantization of high spatial frequency components in consideration of visual characteristics are realized. When the DCT process is performed in the time axis direction, removal of a high time frequency component and control of the quantization step are performed in the same manner as the process performed on the spatial frequency.

【0026】奥行き情報圧縮部102の構成に関して
は、上記の例ではDCT処理の後、量子化ステップを制
御して情報量の圧縮を行ったが、奥行き値に対してその
まま時空間方向でフィルタ処理を行って情報量を圧縮し
ても構わない。圧縮した奥行き値は、左眼映像情報とと
もに符号化器103で符号化され伝送する。
With respect to the configuration of the depth information compression unit 102, in the above example, after the DCT processing, the quantization step is controlled to compress the amount of information, but the depth value is directly filtered in the spatio-temporal direction. May be performed to compress the amount of information. The compressed depth value is encoded and transmitted by the encoder 103 together with the left eye image information.

【0027】上記第1の実施の形態では立体映像は左右
2枚の映像から構成されたが、立体映像が複数枚の映像
でもこの実施形態の考え方を適用できることは勿論であ
る。
In the first embodiment, the three-dimensional image is composed of two left and right images. However, the concept of this embodiment can be applied to a plurality of three-dimensional images.

【0028】図3にはこの発明の第2の実施の形態を示
している。
FIG. 3 shows a second embodiment of the present invention.

【0029】第1の実施の形態では、左眼映像情報と奥
行き値のみを伝送した。しかし例えば左眼映像では遮蔽
されて存在せず、右眼映像のみに存在する映像がある。
この様子を図4に示している。第2の実施の形態ではこ
の映像の分を補償誤差情報として伝送する。奥行き推定
及び補償部301では、第1の実施の形態と同様に各画
素の奥行き値を推定し、奥行き値を奥行き情報圧縮部1
02に与える。
In the first embodiment, only the left eye image information and the depth value are transmitted. However, for example, there is an image that is not shielded in the left-eye image and exists only in the right-eye image.
This is shown in FIG. In the second embodiment, this video is transmitted as compensation error information. The depth estimating and compensating unit 301 estimates the depth value of each pixel as in the first embodiment, and converts the depth value into the depth information compressing unit 1.
Give to 02.

【0030】また奥行き及び補償部301では、各画素
の奥行き値を推定した後、左眼映像情報と各画素の奥行
き値から右眼映像を予測する。予測した右眼画像情報と
オリジナルの右眼映像情報との差分を補償誤差情報とし
て補償誤差圧縮部302へ与える。
After estimating the depth value of each pixel, the depth and compensation unit 301 predicts the right eye image from the left eye image information and the depth value of each pixel. The difference between the predicted right-eye image information and the original right-eye video information is provided to the compensation error compression unit 302 as compensation error information.

【0031】補償誤差圧縮部302では、圧縮した奥行
き値にもとづき補償誤差を圧縮している。図4からわか
るように、補償誤差情報は奥行きが水平方向で変化する
場合に、特に奥行き変化の高い空間周波数成分が存在す
る付近で発生すると考えることができる。この領域を以
後、遮蔽領域と呼ぶ。そのため奥行き情報圧縮部102
から入力する奥行き値に従い、奥行き変化の水平方向の
空間周波数成分の高い領域を遮蔽領域として抽出し、遮
蔽領域以外の領域に補償誤差が存在する場合にはノイズ
として除去する。
The compensation error compression section 302 compresses the compensation error based on the compressed depth value. As can be seen from FIG. 4, when the depth changes in the horizontal direction, it can be considered that the compensation error information is generated particularly in the vicinity where there is a spatial frequency component having a high depth change. This area is hereinafter referred to as a shielding area. Therefore, the depth information compression unit 102
In accordance with the depth value input from, an area having a high spatial frequency component of the depth change in the horizontal direction is extracted as an occluded area, and if a compensation error exists in an area other than the occluded area, it is removed as noise.

【0032】図5には、補償誤差圧縮部302の構成例
を示している。
FIG. 5 shows a configuration example of the compensation error compression section 302.

【0033】補償誤差圧縮部には、奥行き推定及び補償
部301から補償誤差が与えられ、奥行き情報圧縮部1
02からは奥行き値が入力する。奥行き値に関しては周
波数成分の形で入力すると仮定している。
The compensation error compression unit is provided with a compensation error from the depth estimation and compensation unit 301, and
From 02, a depth value is input. It is assumed that the depth value is input in the form of a frequency component.

【0034】周波数抽出部502は、水平方向の空間周
波数の高い成分のみを抽出する。この成分に対して逆量
子化部503で逆量子化、次に逆DCT部504で逆D
CT処理を行う。逆DCT処理された出力は、2値化処
理部505において、絶対値として一定値以上かどうか
比較され、一定値以上であれば、その領域は遮蔽領域で
あると判定して抽出する。この結果は、ノイズ除去部5
06に与えられる。
The frequency extracting section 502 extracts only a component having a high spatial frequency in the horizontal direction. This component is inversely quantized by an inverse quantization unit 503, and then inversely inversed by an inverse DCT unit 504.
Perform CT processing. The output subjected to the inverse DCT processing is compared in a binarization processing section 505 as to whether or not the absolute value is equal to or more than a predetermined value. If the output is equal to or more than the predetermined value, the area is determined to be a shielding area and extracted. This result is obtained by the noise elimination unit 5
06.

【0035】ノイズ除去部506では、入力する補償誤
差情報に対して、遮蔽領域以外の補償誤差はノイズとし
て除去する。奥行き情報圧縮部102から入力する奥行
き値は、奥行き弁別閾以下の奥行き値は除去されている
ので、奥行き弁別閾以下の奥行きのみによって生じる補
償誤差もノイズとして除去される。ノイズ除去した補償
誤差情報は、従来の視差補償方式と同様に、DCT処
理、量子化処理をを経て符号化部303に入力され、奥
行き値、左眼映像情報とともに符号化され伝送される。
The noise removal unit 506 removes compensation errors other than the shielding area from the inputted compensation error information as noise. Since the depth value input from the depth information compression unit 102 has a depth value less than the depth discrimination threshold removed, a compensation error generated only by the depth less than the depth discrimination threshold is also removed as noise. The compensation error information from which noise has been removed is input to the encoding unit 303 through DCT processing and quantization processing as in the case of the conventional parallax compensation method, and is encoded and transmitted together with the depth value and left-eye image information.

【0036】次に、この発明の第3の実施の形態につい
て説明する。
Next, a third embodiment of the present invention will be described.

【0037】第3の実施の形態では左眼映像情報の空間
周波数成分にしたがって奥行き値を圧縮する。映像の空
間周波数と奥行き弁別閾との関係は、文献2の第157
頁の図5.7に示されている。この特性では映像の空間
周波数成分が低くなるにしたがって奥行き弁別閾が大き
くなることを示している。また映像の空間周波数と時間
周波数との視覚特性の関係については、低空間周波数で
は高時間周波数に感度が高く、高空間周波数では、低時
間周波数に感度が高いことが知られている。
In the third embodiment, the depth value is compressed according to the spatial frequency component of the left eye image information. The relationship between the spatial frequency of an image and the depth discrimination threshold is described in reference
This is shown in Figure 5.7 of the page. This characteristic indicates that the depth discrimination threshold increases as the spatial frequency component of the image decreases. As for the relationship between visual characteristics and spatial frequency and temporal frequency of video, it is known that sensitivity is high at high spatial frequencies at low spatial frequencies and high at low spatial frequencies at high spatial frequencies.

【0038】図6は、第3の実施の形態である。図1と
同一部分には同一符号を付している。左眼映像情報は、
奥行き推定部101に入力すると共に、空間周波数解析
部601、符号化部103に入力する。空間周波数解析
部601では左眼映像の空間周波数成分を解析する。空
間周波数の解析は、例えばサイズの異なるGaborフィル
タの左眼映像に対する畳み込み演算で行う。このフィル
タの特性形状を図7に示す。図7(A)は空間軸対レベ
ルの関係を示し、図7(B)は周波数軸対レベルの関係
を示している。フィルタ特性は、S(x)=exp(−
(x−2)/(xσ−2))*cos(2πFx)で表
わされる。
FIG. 6 shows a third embodiment. 1 are given the same reference numerals. Left eye image information
The data is input to the depth estimating unit 101, and is also input to the spatial frequency analyzing unit 601 and the encoding unit 103. The spatial frequency analysis unit 601 analyzes a spatial frequency component of the left eye image. The analysis of the spatial frequency is performed, for example, by a convolution operation on the left-eye image using Gabor filters having different sizes. FIG. 7 shows the characteristic shape of this filter. FIG. 7A shows the relationship between the space axis and the level, and FIG. 7B shows the relationship between the frequency axis and the level. The filter characteristic is expressed as S (x) = exp (−
(X−2) / (xσ−2)) * cos (2πFx).

【0039】図8には上記の空間周波数解析部601の
構成例を示している。左眼映像情報は、フィルタ演算部
802、803、804に入力され、それぞれの演算部
出力は、空間周波数決定部805に入力される。フィル
タ演算部802,803,804は例えばフィルタ中心
周波数がf、2f、4fとなるように設定されている。
空間周波数決定部805には、3種類のフィルタ結果の
うち最大出力のえられるものを1つを選択し、量子化パ
ラメータとして結果を奥行き情報圧縮部602へ出力し
ている。
FIG. 8 shows a configuration example of the spatial frequency analysis unit 601 described above. The left eye image information is input to the filter operation units 802, 803, and 804, and the output of each operation unit is input to the spatial frequency determination unit 805. The filter calculation units 802, 803, and 804 are set so that, for example, the filter center frequencies are f, 2f, and 4f.
The spatial frequency determination unit 805 selects one of the three types of filter results that gives the maximum output, and outputs the result to the depth information compression unit 602 as a quantization parameter.

【0040】奥行き情報圧縮部602には、奥行き推定
部101からの奥行き値が入力されている。奥行き情報
圧縮部602は、例えば図9(A)に示すような構成で
ある。DCT処理部202と、量子化部903と、量子
化テーブル902により構成されている。量子化テーブ
ル902では、左眼映像情報の空間周波数成分にしたが
った複数種類の量子化テーブルを予め作成し格納してお
く。
The depth information compression section 602 receives the depth value from the depth estimation section 101. The depth information compression unit 602 has a configuration as shown in FIG. 9A, for example. It includes a DCT processing unit 202, a quantization unit 903, and a quantization table 902. In the quantization table 902, a plurality of types of quantization tables according to the spatial frequency components of the left-eye video information are created and stored in advance.

【0041】図9(B)は上記の量子化テーブル902
の内容の例を示している。量子化テーブル902は、入
力する量子化パラメータにしたがって使用する量子化パ
ラメータを選択する。量子化部903では、量子化テー
ブルの値を参照して量子化を行うことで映像の空間周波
数と視覚特性を考慮した奥行き情報の圧縮を行うことが
できる。
FIG. 9B shows the quantization table 902 described above.
Shows an example of the contents. The quantization table 902 selects a quantization parameter to be used according to an input quantization parameter. The quantization unit 903 can compress depth information in consideration of the spatial frequency and visual characteristics of an image by performing quantization with reference to the value of the quantization table.

【0042】図10は、第4の実施の形態であり、上記
の第3の実施の形態に第2の実施の形態を適用した例を
示している。
FIG. 10 shows a fourth embodiment, and shows an example in which the second embodiment is applied to the third embodiment.

【0043】次に第5の実施の形態について説明する。
この実施の形態では、左眼映像情報のコントラストにし
たがって奥行き値を圧縮する。コントラストと奥行き弁
別閾との関係は、文献2の図5.16に示されている。
この関係は、コントラストが低くなるにしたがって奥行
き弁別閾が大きくなる関係である。
Next, a fifth embodiment will be described.
In this embodiment, the depth value is compressed according to the contrast of the left eye image information. The relationship between the contrast and the depth discrimination threshold is shown in FIG.
This relationship is such that the depth discrimination threshold increases as the contrast decreases.

【0044】図11(A)は第5の実施の形態である。
左眼映像情報は、奥行き推定部101と、コントラスト
解析部1101と、符号化部103に入力される。奥行
き推定部101は、左眼映像情報と右眼映像情報とから
奥行き値を算出する。コントラスト解析部1101は、
左眼映像情報のコントラストを算出する。算出した結果
は量子化パラメータとして奥行き情報圧縮部1102へ
出力する。量子化テーブル902には、左眼映像情報の
コントラストに従った複数種類の量子化テーブルを予め
作成して格納しておく。例えばコントラストが低くなる
にしたがって量子化ステップが粗くなるように作成して
おく(図11(B)参照)。
FIG. 11A shows a fifth embodiment.
The left eye image information is input to the depth estimation unit 101, the contrast analysis unit 1101, and the encoding unit 103. The depth estimating unit 101 calculates a depth value from left-eye image information and right-eye image information. The contrast analysis unit 1101
Calculate the contrast of the left eye image information. The calculated result is output to the depth information compression unit 1102 as a quantization parameter. In the quantization table 902, a plurality of types of quantization tables according to the contrast of the left-eye video information are created and stored in advance. For example, it is created so that the quantization step becomes coarser as the contrast becomes lower (see FIG. 11B).

【0045】量子化テーブル902は、入力する量子化
パラメータに従って、量子化テーブルを選択する。以後
の動作は、第3の実施の形態と同様である。これにより
映像のコントラストと視覚特性を考慮した奥行き情報の
圧縮を行うことができる。
The quantization table 902 selects a quantization table according to an input quantization parameter. Subsequent operations are the same as in the third embodiment. As a result, it is possible to compress the depth information in consideration of the contrast and the visual characteristics of the video.

【0046】図12には、第5の実施形態に第2の実施
形態を適用した第6の実施形態を示している。各部の機
能及び動作は先に説明した通りである。
FIG. 12 shows a sixth embodiment in which the second embodiment is applied to the fifth embodiment. The function and operation of each unit are as described above.

【0047】図13には第7の実施の形態を示してい
る。
FIG. 13 shows a seventh embodiment.

【0048】この実施の形態では、左眼映像情報が輝度
コントラストから成るか、色コントラストから成るかに
したがって奥行き値を圧縮する。輝度と色と奥行き弁別
閾との関係が文献2の208頁の図6.12に示されて
いる。この図6.12では、輝度コントラストからなる
映像の奥行き弁別閾に対して色コントラストからなる奥
行き弁別閾のほうが大きいことを示している。また色コ
ントラストに対して輝度コントラストのほうが時間周波
数に対する奥行き弁別閾のピークが高周波数側にシフト
している。また文献の第207頁から第208頁の記述
において、色コントラストが赤―緑から成る場合と、青
―黄から成る場合とでは、青―黄からなる奥行き弁別閾
のほうが大きいことが述べられている。
In this embodiment, the depth value is compressed according to whether the left-eye image information consists of luminance contrast or color contrast. The relationship between luminance, color and depth discrimination threshold is shown in FIG. FIG. 6.12 shows that the depth discrimination threshold composed of the color contrast is larger than the depth discrimination threshold of the video composed of the luminance contrast. Further, the luminance contrast has a peak in the depth discrimination threshold with respect to the time frequency shifted to the higher frequency side with respect to the color contrast. Further, in the description on pages 207 to 208 of the document, it is stated that the depth discrimination threshold composed of blue-yellow is larger when the color contrast is composed of red-green and when the color contrast is composed of blue-yellow. I have.

【0049】図13において、左眼映像情報は、奥行き
推定部101と輝度及び色成分解析部1301と、符号
化部103とに入力される。奥行き推定部101は、左
眼映像情報と右眼映像情報とから奥行き値を算出する。
輝度及び色成分解析部1301は、例えば図14に示す
ような構成である。
In FIG. 13, left eye image information is input to a depth estimating unit 101, a luminance and color component analyzing unit 1301, and an encoding unit 103. The depth estimating unit 101 calculates a depth value from left-eye image information and right-eye image information.
The luminance and color component analysis unit 1301 has, for example, a configuration as shown in FIG.

【0050】図14(A)において、例えば左眼映像情
報がRGBの形式で入力する場合、色変換部1402で
輝度(L),赤―緑(r−g),黄―青(y−b)の形
式に変換する。それぞれの成分について成分抽出部14
03から1405で例えばコントラストを抽出する。そ
れぞれの成分のコントラストは、量子化パラメータ決定
部1406に入力する。量子化パラメータ決定部140
5では、それぞれのコントラストを比較し、輝度コント
ラストが一定値以上なら0を、輝度コントラストが一定
値より小さくかつ赤―緑コントラストが一定値以上なら
1を、奥行き圧縮部1302へ出力する。輝度コントラ
スが一定値以下かつ赤―緑コントラストが一定値以下か
つ黄―緑コントラストが一定値以上なら2を、奥行き圧
縮部1302へ出力する。全てのコントラストが一定値
以下なら3を、量子化パラメータとして奥行き圧縮部1
302へ出力する。
In FIG. 14A, for example, when the left eye image information is input in RGB format, the luminance (L), red-green (r-g), yellow-blue (y-b) ) Format. Component extraction unit 14 for each component
From 03 to 1405, for example, a contrast is extracted. The contrast of each component is input to the quantization parameter determination unit 1406. Quantization parameter determination unit 140
At 5, the contrasts are compared, and 0 is output to the depth compression unit 1302 if the luminance contrast is equal to or more than a certain value, and 1 if the luminance contrast is smaller than the certain value and the red-green contrast is equal to or more than a certain value. If the luminance contrast is equal to or less than a certain value, the red-green contrast is equal to or less than a certain value, and the yellow-green contrast is equal to or more than a certain value, 2 is output to the depth compression unit 1302. If all the contrasts are equal to or less than a certain value, 3 is used as a quantization parameter and the depth compression unit 1
Output to 302.

【0051】奥行き圧縮部1302内において、量子化
テーブル902は、量子化パラメータに従った複数種類
の量子化テーブルを予め作成して格納しておく。量子化
テーブルの例は、図14(B)に示されている。量子化
テーブル902は、入力する量子化パラメータに従って
量子化テーブルを選択する。以後の動作は、先の第3の
実施の形態の場合と同様である。これにより映像の輝度
成分及び色成分と、視覚特性を考慮した奥行き情報の圧
縮を行うことができる。
In the depth compression section 1302, as the quantization table 902, a plurality of types of quantization tables according to the quantization parameters are created and stored in advance. FIG. 14B shows an example of the quantization table. The quantization table 902 selects a quantization table according to an input quantization parameter. Subsequent operations are the same as those of the third embodiment. This makes it possible to compress the depth information in consideration of the luminance component and color component of the video and the visual characteristics.

【0052】図15は、上記の第7の実施の形態に第2
の実施の形態を適用した、第8の実施の形態を示してい
る。各部の機能及び動作は先に説明した通りである。
FIG. 15 shows a second embodiment of the seventh embodiment.
An eighth embodiment to which the eighth embodiment is applied is shown. The function and operation of each unit are as described above.

【0053】図16は、第9の実施の形態である。この
実施の形態は、第1、第2、第3、第4、第5の各実施
の形態を組み合わせたさ例である。先の実施の形態のブ
ロックと対応するブロックには同一符号を付している。
左眼映像情報は、奥行き推定部及び補償部301と、画
像解析部1601と、符号化部303に入力される。奥
行き推定部301からは奥行き値と補償誤差を出力す
る。補償誤差は、補償誤差圧縮部302に入力される。
奥行き値は、奥行き情報圧縮部1602に入力される。
奥行き情報圧縮部1602には、画像解析部1601か
らの解析結果が入力される。
FIG. 16 shows a ninth embodiment. This embodiment is an example in which the first, second, third, fourth, and fifth embodiments are combined. Blocks corresponding to those in the previous embodiment are denoted by the same reference numerals.
The left eye image information is input to the depth estimating unit and compensating unit 301, the image analyzing unit 1601, and the encoding unit 303. The depth estimation unit 301 outputs a depth value and a compensation error. The compensation error is input to compensation error compression section 302.
The depth value is input to the depth information compression unit 1602.
An analysis result from the image analysis unit 1601 is input to the depth information compression unit 1602.

【0054】画像解析部1601は、例えば図17に示
すように構成されている。画像解析部1607に入力す
る左眼映像情報は、色変換部1702でRGBから輝度
(L),赤−緑(r−g)、黄−青(y−b)の形式に
変換する。このあと、先の実施の形態(図8)で述べた
特性を持つフィルタ演算部1703〜1705でそれぞ
れの入力に対して空間周波数成分を求める。この結果
は、量子化パラメータ決定部1706に入力される。量
子化パラメータ決定部1706では、輝度と色成分の各
周波数成分から量子化パラメータを決定する。量子化パ
ラメータの決定は、以下のように行う。例えば量子化ス
テップ幅を決定する際には、まず小さい奥行きを知覚す
るために必要な周波数成分を一定量以上含むかどうか探
索する。含む場合には、量子化ステップを”細かい”で
設定する。含まない場合には続いてより大きい奥行きを
知覚するために必要は周波数成分を一定量以上含むかど
うかを探索する。含む場合には量子化ステップを”中”
で設定し、含まない場合には”粗い”を設定する。
The image analyzer 1601 is configured as shown in FIG. 17, for example. The left-eye image information input to the image analysis unit 1607 is converted from RGB into luminance (L), red-green (r-g), and yellow-blue (y-b) by the color conversion unit 1702. Thereafter, the spatial frequency components are obtained for the respective inputs by the filter operation units 1703 to 1705 having the characteristics described in the above embodiment (FIG. 8). This result is input to the quantization parameter determination unit 1706. The quantization parameter determination unit 1706 determines a quantization parameter from each frequency component of luminance and color components. The determination of the quantization parameter is performed as follows. For example, when determining the quantization step width, first, it is searched whether or not a certain amount of frequency components necessary for perceiving a small depth is included. If it is included, the quantization step is set to “fine”. If it does not contain a certain amount of frequency components, it is necessary to perceive a greater depth. If included, set the quantization step to “medium”
If not, set "Coarse".

【0055】図18は上記の設定の様子をフローチャー
トで示している。次に奥行き値の時間周波数成分での再
現範囲を決定する。まず奥行きの高時間周波数を知覚す
るために必要な周波数成分を一定量以上含むかどうかを
探索する。含む場合には時間周波数の再現範囲を”低中
高”で設定する。続いてより低い時間周波数を知覚する
ために必要な周波数成分を一定量以上含むかどうかを探
索する。
FIG. 18 is a flowchart showing the above setting. Next, a reproduction range of the time value component of the depth value is determined. First, a search is performed to determine whether or not a certain amount of frequency components necessary for perceiving a high time frequency in the depth is included. If it is included, the reproduction range of the time frequency is set to “low, middle, and high”. Subsequently, a search is performed to determine whether or not a certain amount or more of a frequency component necessary for perceiving a lower time frequency is included.

【0056】含む場合には、時間周波数の再現範囲を”
低中”で設定する。含まない場合”低”とする。
In the case of including, the reproduction range of the time frequency is set to "
Set to “low / medium.” If not included, set to “low.”

【0057】図19には、上記の設定の様子をフローチ
ャートで示している。決定した量子化パラメータは奥行
き情報圧縮部1602へ出力する。奥行き圧縮部160
2内において、量子化テーブル1202では、量子化パ
ラメータに従った複数種類の量子化テーブルを予め作成
し格納しておく。例えば量子化テーブルは第1の実施の
形態の視覚特性を基本とし、量子化パラメータにより補
正されるように作成しておく。
FIG. 19 is a flowchart showing the above setting. The determined quantization parameter is output to depth information compression section 1602. Depth compression unit 160
2, in the quantization table 1202, a plurality of types of quantization tables according to the quantization parameters are created and stored in advance. For example, the quantization table is created based on the visual characteristics of the first embodiment so as to be corrected by the quantization parameter.

【0058】以後の動作はこれまでのべた実施の形態と
同様である。これにより映像の空間周波数成分、コント
ラスト、輝度成分色成分と視覚特性を考慮した奥行き情
報の圧縮を行うことができる。
The subsequent operation is the same as in the above embodiments. As a result, it is possible to compress the depth information in consideration of the spatial frequency component, the contrast, the luminance component, the color component, and the visual characteristics of the video.

【0059】[0059]

【発明の効果】以上説明したようにこの発明によると、
立体映像信号を伝送する際、立体視における人間の視覚
特性を考慮し、人間が知覚できない奥行き情報を圧縮す
ることにより、立体映像信号伝送量の圧縮を行うことが
できる。
As described above, according to the present invention,
When transmitting a stereoscopic video signal, it is possible to compress the transmission amount of the stereoscopic video signal by compressing depth information that cannot be perceived by a human in consideration of human visual characteristics in stereoscopic vision.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の第1の実施形態を示す図。FIG. 1 is a diagram showing a first embodiment of the present invention.

【図2】図1の奥行き情報圧縮部の構成と、奥行き変化
に対する空間周波数及び時間周波数との量子化ステップ
の関係を示す図。
FIG. 2 is a diagram illustrating a configuration of a depth information compression unit in FIG. 1 and a relation between a quantization step and a spatial frequency and a time frequency with respect to a change in depth.

【図3】この発明の第2の実施の形態を示す図。FIG. 3 is a diagram showing a second embodiment of the present invention.

【図4】奥行きと映像との関係を示す説明図。FIG. 4 is an explanatory diagram showing the relationship between depth and video.

【図5】図3の補償誤差圧縮部の具体的構成例を示す
図。
FIG. 5 is a diagram showing a specific configuration example of a compensation error compression unit in FIG. 3;

【図6】この発明の第3の実施の形態を示す図。FIG. 6 is a diagram showing a third embodiment of the present invention.

【図7】第3の実施の形態に用いるフィルタの特性例を
示す図。
FIG. 7 is a diagram illustrating a characteristic example of a filter used in the third embodiment.

【図8】図6の空間周波数解析部の構成例を示す図。FIG. 8 is a diagram showing a configuration example of a spatial frequency analysis unit in FIG. 6;

【図9】奥行き情報圧縮部の構成とそこで用いられる量
子化テーブルの例を示す説明図。
FIG. 9 is an explanatory diagram showing a configuration of a depth information compression unit and an example of a quantization table used therein.

【図10】この発明の第4の実施の形態を示す図。FIG. 10 is a diagram showing a fourth embodiment of the present invention.

【図11】この発明の第5の実施の形態の構成と、そこ
で用いられる量子化テーブルの例を示す説明図。
FIG. 11 is an explanatory diagram showing a configuration of a fifth embodiment of the present invention and an example of a quantization table used therein.

【図12】この発明の第6の実施の形態を示す図。FIG. 12 is a diagram showing a sixth embodiment of the present invention.

【図13】この発明の第7の実施の形態を示す図。FIG. 13 is a diagram showing a seventh embodiment of the present invention.

【図14】図13の輝度及び色成分解析部の構成と、そ
こで用いられる量子化テーブルの例を示す説明図。
FIG. 14 is an explanatory diagram showing a configuration of a luminance and color component analysis unit in FIG. 13 and an example of a quantization table used therein.

【図15】この発明の第8の実施の形態を示す図。FIG. 15 is a diagram showing an eighth embodiment of the present invention.

【図16】この発明の第9の実施の形態を示す図。FIG. 16 is a diagram showing a ninth embodiment of the present invention.

【図17】図16の画像解析部の構成例を示す図。FIG. 17 is a diagram illustrating a configuration example of an image analysis unit in FIG. 16;

【図18】図16の実施の形態において量子化パラメー
タを決定する場合の手順の例を示すフローチャート。
FIG. 18 is a flowchart illustrating an example of a procedure for determining a quantization parameter in the embodiment of FIG. 16;

【図19】図16の実施の形態において量子化パラメー
タを決定する場合の手順の別の例を示すフローチャー
ト。
FIG. 19 is a flowchart showing another example of the procedure for determining a quantization parameter in the embodiment of FIG. 16;

【図20】従来の立体映像圧縮方法の説明図。FIG. 20 is an explanatory diagram of a conventional stereoscopic video compression method.

【符号の説明】[Explanation of symbols]

101…奥行き推定部、102…奥行き情報圧縮部、1
03…符号化部、202…DCT部、203…量子化
部、204…量子化テーブル、301…奥行き推定及び
補償部、302…補償誤差圧縮部、601…空間周波数
解析部、602…奥行き情報圧縮部、1101…コント
ラスト解析部、1102…奥行き情報圧縮部、1301
…輝度及び色成分解析部、1601…画像解析部、16
02…奥行き情報圧縮部。
101: depth estimation unit, 102: depth information compression unit, 1
03: coding unit, 202: DCT unit, 203: quantization unit, 204: quantization table, 301: depth estimation and compensation unit, 302: compensation error compression unit, 601: spatial frequency analysis unit, 602: depth information compression Section, 1101... Contrast analysis section, 1102... Depth information compression section, 1301
... luminance and color component analysis unit, 1601 ... image analysis unit, 16
02: Depth information compression unit.

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 1視点方向からの映像と、その映像に対
応した奥行き値とを伝送する場合、 視覚の奥行き変換に対する時間及び空間周波数特性に従
い、奥行き知覚感度の高い周波数成分に対して優先的に
伝送量を割り当てるようにした奥行き値を符号化するこ
とを特徴とする立体映像信号伝送方法。
When transmitting an image from one viewpoint direction and a depth value corresponding to the image, priority is given to a frequency component having a high depth perception sensitivity in accordance with time and space frequency characteristics for visual depth conversion. A stereoscopic video signal transmission method, which encodes a depth value to which a transmission amount is assigned.
【請求項2】 1視点方向からの映像と、その映像に対
応した奥行き値と、1視点方向からの映像とその映像に
対応した奥行き値から予測される1視点以外の映像と実
際の1視点以外の映像との補償誤差とを伝送する場合、 視覚の奥行き変化に対する時間及び空間周波数特性に従
い,奥行き知覚度の高い補償誤差を符号化することを特
徴とする立体映像伝送方法。
2. An image from one viewpoint direction, a depth value corresponding to the image, an image from one viewpoint direction and an image other than one viewpoint predicted from the depth value corresponding to the image, and one actual viewpoint. A stereoscopic video transmission method comprising: encoding a compensation error having a high degree of depth perception in accordance with temporal and spatial frequency characteristics with respect to a change in visual depth when transmitting a compensation error with a video other than the above.
【請求項3】 映像の特徴量を求め、映像の特徴量と奥
行き変化に対する時間及び空間周波数特性との関係に従
い、奥行き知覚感度の高い周波数成分に優先的に伝送量
を割り当てることを特徴とする請求項1または2記載の
立体映像伝送方法。
3. The method according to claim 1, wherein a characteristic amount of the image is obtained, and a transmission amount is preferentially allocated to a frequency component having a high depth perception sensitivity in accordance with a relationship between the characteristic amount of the image and a temporal and spatial frequency characteristic with respect to a depth change. The stereoscopic video transmission method according to claim 1.
【請求項4】 前記特徴量は、映像の輝度の空間周波数
成分、または色の空間周波数成分、または映像のコント
ラストのうち少なくともいずれか1つであることを特徴
とする請求項3記載の立体映像伝送方法。
4. The three-dimensional image according to claim 3, wherein the feature amount is at least one of a spatial frequency component of luminance of the image, a spatial frequency component of color, and a contrast of the image. Transmission method.
JP11232825A 1999-08-19 1999-08-19 Transmission method of stereoscopic video signal Pending JP2001061164A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11232825A JP2001061164A (en) 1999-08-19 1999-08-19 Transmission method of stereoscopic video signal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11232825A JP2001061164A (en) 1999-08-19 1999-08-19 Transmission method of stereoscopic video signal

Publications (1)

Publication Number Publication Date
JP2001061164A true JP2001061164A (en) 2001-03-06

Family

ID=16945381

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11232825A Pending JP2001061164A (en) 1999-08-19 1999-08-19 Transmission method of stereoscopic video signal

Country Status (1)

Country Link
JP (1) JP2001061164A (en)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004227231A (en) * 2003-01-22 2004-08-12 Nippon Telegr & Teleph Corp <Ntt> Method, device, and program for burying three-dimensional information to image data
JP2006191357A (en) * 2005-01-06 2006-07-20 Victor Co Of Japan Ltd Reproduction device and reproduction program
US7403201B2 (en) 2003-01-20 2008-07-22 Sanyo Electric Co., Ltd. Three-dimensional video providing method and three-dimensional video display device
JP2009055112A (en) * 2007-08-23 2009-03-12 Otsuka Denshi Co Ltd Method and apparatus for evaluating moving video characteristic
JP2010028261A (en) * 2008-07-16 2010-02-04 Sony Corp Transmission device, three dimensional image data transmission method, reception device, and three dimensional image data reception method
WO2010073513A1 (en) * 2008-12-26 2010-07-01 日本ビクター株式会社 Image encoding device, image encoding method, program thereof, image decoding device, image decoding method, and program thereof
JP2010157823A (en) * 2008-12-26 2010-07-15 Victor Co Of Japan Ltd Image encoder, image encoding method, and program of the same
JP2010157826A (en) * 2008-12-26 2010-07-15 Victor Co Of Japan Ltd Image decoder, image encoding/decoding method, and program of the same
JP2010157822A (en) * 2008-12-26 2010-07-15 Victor Co Of Japan Ltd Image decoder, image encoding/decoding method, and program of the same
JP2010157821A (en) * 2008-12-26 2010-07-15 Victor Co Of Japan Ltd Image encoder, image encoding method, and program of the same
JP2010157824A (en) * 2008-12-26 2010-07-15 Victor Co Of Japan Ltd Image encoder, image encoding method, and program of the same
JP2010157825A (en) * 2008-12-26 2010-07-15 Victor Co Of Japan Ltd Image encoder, image encoding method, and program of the same
US7817181B2 (en) 2004-01-20 2010-10-19 Sejong Industry - Academy Cooperation Foundation Method, medium, and apparatus for 3-dimensional encoding and/or decoding of video
KR20110059531A (en) * 2009-11-27 2011-06-02 소니 주식회사 Image processing apparatus, image processing method and program
JP2011120261A (en) * 2009-06-29 2011-06-16 Sony Corp Stereoscopic image data transmitter, stereoscopic image data transmitting method, stereoscopic image data receiver and stereoscopic image data receiving method
JP2012065327A (en) * 2010-09-20 2012-03-29 Lg Electronics Inc Mobile terminal and method of controlling the operation of the mobile terminal
JP2012124766A (en) * 2010-12-09 2012-06-28 Sony Corp Image processing system, image processing method, and program
JP2012135019A (en) * 2012-02-20 2012-07-12 Nippon Telegr & Teleph Corp <Ntt> Encoding method of distance information, decoding method, encoding device, decoding device, encoding program and decoding program,
JP2012529787A (en) * 2009-06-05 2012-11-22 クゥアルコム・インコーポレイテッド Encoding of 3D conversion information performed with 2D video sequence (ENCODINGOFTHREE-DIMENSIONALCONVERSIONIONFORMATIONWITHWO-DIMENSIONALVIDEODEEQUENCE)
JP2013509022A (en) * 2009-10-14 2013-03-07 トムソン ライセンシング Filtering and edge coding
JP2013131928A (en) * 2011-12-21 2013-07-04 Toshiba Corp Image encoding device and image encoding method
CN103559701A (en) * 2013-09-26 2014-02-05 哈尔滨商业大学 Two-dimensional single-view image depth estimation method based on DCT coefficient entropy
JP2014209759A (en) * 2014-06-13 2014-11-06 ソニー株式会社 Transmitter and transmission method
US8970680B2 (en) 2006-08-01 2015-03-03 Qualcomm Incorporated Real-time capturing and generating stereo images and videos with a monoscopic low power mobile device

Cited By (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7403201B2 (en) 2003-01-20 2008-07-22 Sanyo Electric Co., Ltd. Three-dimensional video providing method and three-dimensional video display device
JP2004227231A (en) * 2003-01-22 2004-08-12 Nippon Telegr & Teleph Corp <Ntt> Method, device, and program for burying three-dimensional information to image data
US7817181B2 (en) 2004-01-20 2010-10-19 Sejong Industry - Academy Cooperation Foundation Method, medium, and apparatus for 3-dimensional encoding and/or decoding of video
JP2006191357A (en) * 2005-01-06 2006-07-20 Victor Co Of Japan Ltd Reproduction device and reproduction program
US9509980B2 (en) 2006-08-01 2016-11-29 Qualcomm Incorporated Real-time capturing and generating viewpoint images and videos with a monoscopic low power mobile device
US8970680B2 (en) 2006-08-01 2015-03-03 Qualcomm Incorporated Real-time capturing and generating stereo images and videos with a monoscopic low power mobile device
JP2009055112A (en) * 2007-08-23 2009-03-12 Otsuka Denshi Co Ltd Method and apparatus for evaluating moving video characteristic
US9807363B2 (en) 2008-07-16 2017-10-31 Sony Corporation Transmitting apparatus, stereo image data transmitting method, receiving apparatus, and stereo image data receiving method
US9762887B2 (en) 2008-07-16 2017-09-12 Sony Corporation Transmitting apparatus, stereo image data transmitting method, receiving apparatus, and stereo image data receiving method
US9451235B2 (en) 2008-07-16 2016-09-20 Sony Corporation Transmitting apparatus, stereo image data transmitting method, receiving apparatus, and stereo image data receiving method
RU2522424C2 (en) * 2008-07-16 2014-07-10 Сони Корпорейшн Transmitting apparatus, stereo image data transmitting method, receiving apparatus and stereo image data receiving method
US9185385B2 (en) 2008-07-16 2015-11-10 Sony Corporation Transmitting apparatus, stereo image data transmitting method, receiving apparatus, and stereo image data receiving method
US10015468B2 (en) 2008-07-16 2018-07-03 Sony Corporation Transmitting apparatus, stereo image data transmitting method, receiving apparatus, and stereo image data receiving method
JP2010028261A (en) * 2008-07-16 2010-02-04 Sony Corp Transmission device, three dimensional image data transmission method, reception device, and three dimensional image data reception method
JP2010157824A (en) * 2008-12-26 2010-07-15 Victor Co Of Japan Ltd Image encoder, image encoding method, and program of the same
JP2010157823A (en) * 2008-12-26 2010-07-15 Victor Co Of Japan Ltd Image encoder, image encoding method, and program of the same
JP2010157821A (en) * 2008-12-26 2010-07-15 Victor Co Of Japan Ltd Image encoder, image encoding method, and program of the same
JP2010157822A (en) * 2008-12-26 2010-07-15 Victor Co Of Japan Ltd Image decoder, image encoding/decoding method, and program of the same
WO2010073513A1 (en) * 2008-12-26 2010-07-01 日本ビクター株式会社 Image encoding device, image encoding method, program thereof, image decoding device, image decoding method, and program thereof
US8750632B2 (en) 2008-12-26 2014-06-10 JVC Kenwood Corporation Apparatus and method for encoding images from multiple viewpoints and associated depth information
JP2010157826A (en) * 2008-12-26 2010-07-15 Victor Co Of Japan Ltd Image decoder, image encoding/decoding method, and program of the same
JP2010157825A (en) * 2008-12-26 2010-07-15 Victor Co Of Japan Ltd Image encoder, image encoding method, and program of the same
JP2012529787A (en) * 2009-06-05 2012-11-22 クゥアルコム・インコーポレイテッド Encoding of 3D conversion information performed with 2D video sequence (ENCODINGOFTHREE-DIMENSIONALCONVERSIONIONFORMATIONWITHWO-DIMENSIONALVIDEODEEQUENCE)
JP2015046899A (en) * 2009-06-05 2015-03-12 クゥアルコム・インコーポレイテッドQualcomm Incorporated Encoding of three-dimensional conversion information with two-dimensional video sequence
US9124874B2 (en) 2009-06-05 2015-09-01 Qualcomm Incorporated Encoding of three-dimensional conversion information with two-dimensional video sequence
JP2011120261A (en) * 2009-06-29 2011-06-16 Sony Corp Stereoscopic image data transmitter, stereoscopic image data transmitting method, stereoscopic image data receiver and stereoscopic image data receiving method
JP2013509022A (en) * 2009-10-14 2013-03-07 トムソン ライセンシング Filtering and edge coding
US10198792B2 (en) 2009-10-14 2019-02-05 Dolby Laboratories Licensing Corporation Method and devices for depth map processing
US10417748B2 (en) 2009-10-14 2019-09-17 Dolby Laboratories Licensing Corporation Filtering and edge encoding and decoding for depth maps
JP2016146655A (en) * 2009-10-14 2016-08-12 トムソン ライセンシングThomson Licensing Filtering and edge encoding
KR101656887B1 (en) * 2009-11-27 2016-09-22 소니 주식회사 Image processing apparatus, image processing method and computer readable recording medium storing program
KR20110059531A (en) * 2009-11-27 2011-06-02 소니 주식회사 Image processing apparatus, image processing method and program
US9934575B2 (en) 2009-11-27 2018-04-03 Sony Corporation Image processing apparatus, method and computer program to adjust 3D information based on human visual characteristics
JP2012065327A (en) * 2010-09-20 2012-03-29 Lg Electronics Inc Mobile terminal and method of controlling the operation of the mobile terminal
US8896670B2 (en) 2010-12-09 2014-11-25 Sony Corporation Image processing device, image processing method, and program
CN102572469A (en) * 2010-12-09 2012-07-11 索尼公司 Image processing device, image processing method, and program
JP2012124766A (en) * 2010-12-09 2012-06-28 Sony Corp Image processing system, image processing method, and program
JP2013131928A (en) * 2011-12-21 2013-07-04 Toshiba Corp Image encoding device and image encoding method
JP2012135019A (en) * 2012-02-20 2012-07-12 Nippon Telegr & Teleph Corp <Ntt> Encoding method of distance information, decoding method, encoding device, decoding device, encoding program and decoding program,
CN103559701A (en) * 2013-09-26 2014-02-05 哈尔滨商业大学 Two-dimensional single-view image depth estimation method based on DCT coefficient entropy
JP2014209759A (en) * 2014-06-13 2014-11-06 ソニー株式会社 Transmitter and transmission method

Similar Documents

Publication Publication Date Title
JP2001061164A (en) Transmission method of stereoscopic video signal
US11770558B2 (en) Stereoscopic video encoding and decoding methods and apparatus
Shao et al. Asymmetric coding of multi-view video plus depth based 3-D video for view rendering
KR101365329B1 (en) Depth coding as an additional channel to video sequence
JP6178017B2 (en) Improved depth recognition for stereo video
KR102472533B1 (en) Multi-view signal codec
KR101345303B1 (en) Dynamic depth control method or apparatus in stereo-view or multiview sequence images
De Silva et al. Display dependent preprocessing of depth maps based on just noticeable depth difference modeling
EP2106668B2 (en) Image processing system for processing combined image data and depth data
US20110164110A1 (en) Method and system for detecting compressed stereoscopic frames in a digital video signal
Shao et al. Stereoscopic video coding with asymmetric luminance and chrominance qualities
KR20150036261A (en) Apparatus for coding a bit stream representing a three-dimensional video
Liu et al. Sparse dyadic mode for depth map compression
EP2387244A2 (en) Apparatus and method of encoding 3D image
TWI511525B (en) Method for generating, transmitting and receiving stereoscopic images, and related devices
Pająk et al. Perceptual depth compression for stereo applications
Karlsson et al. Region-of-interest 3D video coding based on depth images
Banitalebi-Dehkordi et al. A human visual system-based 3D video quality metric
KR100656783B1 (en) Apparatus and its method of transmitting an image associated with a depth and apparatus and its method of rendering stereoscopic images using it
Joachimiak et al. Evaluation of depth-based super resolution on compressed mixed resolution 3d video
Al Boridi et al. Wavelet decomposition-based stereoscopic 3-D video watermarking—A comparative study
Fezza et al. Asymmetric coding using binocular just noticeable difference and depth information for stereoscopic 3D
Chung et al. Quality-efficient upsampling method for asymmetric resolution stereoscopic video coding with interview motion compensation and error compensation
Ding et al. Depth map pre-processing algorithm for compression based on 3D-HEVC scheme
Fezza et al. Asymmetric coding of stereoscopic 3D based on perceptual significance