JPH02298169A - Picture encoding method - Google Patents

Picture encoding method

Info

Publication number
JPH02298169A
JPH02298169A JP1117235A JP11723589A JPH02298169A JP H02298169 A JPH02298169 A JP H02298169A JP 1117235 A JP1117235 A JP 1117235A JP 11723589 A JP11723589 A JP 11723589A JP H02298169 A JPH02298169 A JP H02298169A
Authority
JP
Japan
Prior art keywords
image
picture
signal
parameter
section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP1117235A
Other languages
Japanese (ja)
Other versions
JP2614918B2 (en
Inventor
Tsuyoshi Fujimoto
強 藤本
Hajime Suzuki
元 鈴木
Yoshimasa Kimura
木村 義政
Mineo Masamitsu
峰夫 正満
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP11723589A priority Critical patent/JP2614918B2/en
Publication of JPH02298169A publication Critical patent/JPH02298169A/en
Application granted granted Critical
Publication of JP2614918B2 publication Critical patent/JP2614918B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To attain the encoding of a moving picture in a real time attended with a change in the camera position and the efficient transmission by employing a parameter representing a visual point and a visual line and a difference signal for the information used for the transmission. CONSTITUTION:A picture input device 202 picks up a scene 201 at a present point of time continuously and a parameter 203 representing a view point and a visual line is inputted from a parameter input/detection section 204. A difference extraction section 206 obtains a difference between a picture generated by a picture generating section 205 and a picture inputted by the picture input section 202, it is multiplexed by a difference signal encoding section 207 and the encoded signal and the parameter are multiplexed by a multiplex circuit 208 and sent through a communication network 209. A receiver side uses a demultiplex circuit 210 to demultiplex the signal into a difference signal and a parameter and a picture generating section 212 generates the same picture signal as the signal generated by the picture generating section 205 at the sender side and a picture signal adder section 213 takes a sum with the decoded difference signal to obtain a final decoded picture.

Description

【発明の詳細な説明】 (産業上の利用分野) 本発明は、情景のようにほとんど静止した対象をカメラ
などの画像入力装置により撮影する時にもっばら画像入
力装置の動きにより画像の変化が生じている動画像の符
号化伝送において、画像入力装置の視点および視線を表
わす情報を利用することにより効率的に符号化伝送する
ための画像符号方法に関するものである。
DETAILED DESCRIPTION OF THE INVENTION (Field of Industrial Application) The present invention is useful for photographing an almost stationary object, such as a scene, with an image input device such as a camera, in which changes in the image occur most often due to movement of the image input device. The present invention relates to an image encoding method for efficiently encoding and transmitting moving images by using information representing the viewpoint and line of sight of an image input device.

(従来の技v#) 従来1画像信号符号化装置で用いられてきた画像符号化
方法においては、画像信号を2次元の情報源としてとら
え、それらの情報源に適した符号化方法が用いられてき
た。この情報源は以下のように大きく3つに大別される
(A、に、J A I N :“^dvances i
n Mathematical Models for
 In+agaProcessing” procee
ding of The IEEE Vol、69゜N
o、5 May 1981)。
(Conventional technique v#) In the image encoding method conventionally used in a single image signal encoding device, the image signal is regarded as a two-dimensional information source, and an encoding method suitable for that information source is used. It's here. This information source can be broadly divided into three types as follows (A, ni, J A I N: “^dances i
n Mathematical Models for
In+agaProcessing” process
ding of The IEEE Vol, 69°N
o, 5 May 1981).

(a)級数展開モデル (b)確率過程による表現 (c)線型予測モデル 高圧縮率が必要な符号化方法によく用いられている、(
アダプティブ)離散コサイン符号化方式(%式% 1977)などの変換符号化方法は、級数展開モデル(
a)を利用している。また動画像信号の符号化に用いら
れる差分パルスコード変調(D P CM)は、線型予
測モデル(c)を利用している。また、これらのモデル
は単独で用いられるのみならず、ハイブリッド・コーデ
ィング(Hybrid Codj、ng)のように2つ
以上のモデルが同時に用いられることもある。  ′ さらに、情報源の量子化を行う際に、1つのシンボルの
みを量子化するのではなく、複数個のシンボルの組から
なる多次元のベクトルを量子化することにより性能の向
上をはかる方法にベクトル量子化がある。
(a) Series expansion model (b) Representation by stochastic process (c) Linear prediction model Often used in encoding methods that require high compression rates.
Transform coding methods such as the adaptive) discrete cosine coding method (1977) are based on the series expansion model (
a) is used. Further, differential pulse code modulation (DPCM) used for encoding moving image signals utilizes a linear prediction model (c). Furthermore, these models are not only used alone, but also two or more models may be used simultaneously, such as in hybrid coding (Hybrid Codj, ng). 'Furthermore, when quantizing an information source, instead of quantizing only one symbol, we have developed a method that improves performance by quantizing a multidimensional vector consisting of a set of multiple symbols. There is vector quantization.

また、動画像の符号化においては、上記画像モデルを利
用した画像符号化方法に対し、動き補償やコマ落としな
どの、時間軸を考慮した符号化方法が用いられている。
Furthermore, in the encoding of moving images, in contrast to the image encoding method using the above-described image model, encoding methods that take the time axis into consideration, such as motion compensation and frame dropping, are used.

(発明が解決しようとする課題) これらの画像モデルにおいて、すなわち画像符号化方法
においては、画像は2次元の情報源としてしかどらえら
ておらず、情報を構成している対象の3次元的な位置と
形状を表わすモデルを有していないため、動画像を符号
化する際に動き補償などの認識技術を使用しなければな
らなかった(A、NetravalL et al、 
: ”Motion compensatedtele
vision coding: Part 1 、 ”
 B S T J + Vol。
(Problems to be Solved by the Invention) In these image models, that is, in image encoding methods, images are only considered as two-dimensional information sources, and the three-dimensional Without a model representing position and shape, recognition techniques such as motion compensation had to be used when encoding video images (A, Netraval et al.
: ”Motion compensatedtele
vision coding: Part 1,”
B S T J + Vol.

58、 No、3 March 1979)。このため
、認識に要する計算量が多く、さらに、完全には認識し
きれないため、補償が十分に行われず、復号画質が劣化
する、などといった問題点を有していた。
58, No. 3 March 1979). Therefore, the amount of calculation required for recognition is large, and furthermore, since complete recognition is not possible, compensation is not performed sufficiently, resulting in problems such as deterioration of decoded image quality.

(発明の目的) 本発明は、これらの問題点を解決し、送信側及び受信側
のそれぞれに情景を表わす3次元モデルを備える。もし
くは事前に送信側から受信側に伝送するようにして、復
号画質の劣化を防止することを目的とする。
(Objective of the Invention) The present invention solves these problems and includes a three-dimensional model representing a scene on each of the transmitting side and the receiving side. Alternatively, the purpose is to prevent deterioration of decoded image quality by transmitting it from the transmitting side to the receiving side in advance.

(発明の構成) (発明の特徴と従来技術との差異) 本発明は、送信側の画像入力装置により情景を入力する
と同時に、パラメータ入力/検出部により画像入力装置
の視点の3次元座標と視点を表わす情報を入力するか、
もしくは入力された画像から得られたパラメータ1と、
その情景の3次元モデルからその時点における入力画像
を模倣した画像1を生成する。画像入力装置から入力さ
れた画像と画像1の差分信号を画像2とし、パラメータ
と画像2をそれぞれ符号化し、かつ多重化して送出する
(Structure of the Invention) (Characteristics of the Invention and Differences from the Prior Art) The present invention is capable of inputting a scene using an image input device on the transmitting side, and at the same time using a parameter input/detection section to determine the three-dimensional coordinates of the viewpoint of the image input device and the viewpoint. Enter the information that represents or
Or parameter 1 obtained from the input image,
An image 1 imitating the input image at that point in time is generated from a three-dimensional model of the scene. The difference signal between the image input from the image input device and image 1 is used as image 2, and the parameters and image 2 are each encoded, multiplexed, and sent out.

受信側では、まず多重化された信号からパラメータ1と
画像2を復号し、パラメータ1と、受信側が具備してい
る、もしくは事前に伝送された情景の3次元モデルから
、送信側において画像2を得るために用いられた画像1
と同じ画像3を生成する。このようにパラメータから生
成された画像:画像3と伝送されてきた差分信号:画像
2の和をとることにより、復号画像を得ることを最も大
きな特徴とする。
On the receiving side, first, parameter 1 and image 2 are decoded from the multiplexed signal, and image 2 is decoded on the transmitting side from parameter 1 and a 3D model of the scene that the receiving side has or has been transmitted in advance. Image 1 used to obtain
The same image 3 is generated. The most significant feature is that a decoded image is obtained by adding the image 3, which is the image generated from the parameters, and the transmitted difference signal, image 2, as described above.

本発明では、符号化においてあらかじめわかっている知
識である情景の3次元モデル、及び視点。
In the present invention, a three-dimensional model of the scene, which is knowledge known in advance in encoding, and a viewpoint.

視線を表わす情報を用いる点が従来の技術とは異なる。This method differs from conventional techniques in that it uses information representing the line of sight.

第1図は、本発明の動作原理の説明図である。FIG. 1 is an explanatory diagram of the operating principle of the present invention.

図において、Sば3次元の情景である。Mは情景を表わ
す3次元の位置と形状を表わすモデルであり、送信側と
受信側で同じものを具備している、もしくは事前に伝送
している。撮像装置Cからは2撮像装置の視点、視線を
表わしているパラメータ1と、映像信号が出力される。
In the figure, S represents a three-dimensional scene. M is a model that represents the three-dimensional position and shape of a scene, and the transmitting and receiving sides either have the same model or have transmitted it in advance. The imaging device C outputs a parameter 1 representing the viewpoint and line of sight of the second imaging device and a video signal.

また、パラメータ1は、撮像装置からの映像信号から検
知されることもある。
Further, parameter 1 may be detected from a video signal from an imaging device.

パラメータ1とモデルMにより、情景Sを模倣した両像
1がZバッファーなどの画像生成部CG(コンピュータ
ーグラフィックス)により生成される0画像1と撮像装
置からの映像信号の差分:画像2と、パラメータ1が送
信側から受信側へ伝送される。受信側では、画像2とパ
ラメータ1から画像生成部CGなどにより画像3が生成
される。
With parameter 1 and model M, both images 1 that imitate the scene S are generated by an image generation unit CG (computer graphics) such as a Z buffer, and the difference between image 1 and the video signal from the imaging device: image 2. Parameter 1 is transmitted from the sender to the receiver. On the receiving side, image 3 is generated from image 2 and parameter 1 by an image generation unit CG or the like.

この画像3は画像1とまったく同じものである。This image 3 is exactly the same as image 1.

復元画像は、画像3と画像2の和をとることにより得ら
れる。
The restored image is obtained by adding up image 3 and image 2.

撮像装置が動くと、送信側では撮像装置の位置、向きを
検知し、パラメータ1として伝送する。受信側では、視
点・視線を表わすパラメータ1を、具備している、もし
くは事前に伝送されたモデルMにより、撮像装置が移動
した時点での模倣画像を生成し、伝送される差分信号を
低減するように動作する。
When the imaging device moves, the transmitting side detects the position and orientation of the imaging device and transmits it as parameter 1. On the receiving side, using the model M that is equipped with the parameter 1 representing the viewpoint/line of sight or that has been transmitted in advance, an imitation image is generated at the time when the imaging device moves, and the transmitted difference signal is reduced. It works like this.

(実施例1) 第2図は第1図に示す本発明の動作原理を実現するため
の一実施例のブロック図である。図において、201〜
208は送信側、210〜214は受信側、の各装置を
示し1通信網209で接続される。図の201は現時点
での情景、202は画像入力部、203は視点・視線を
表わすパラメータ、204はパラメータ入力/検出部、
205は画像生成部、206は差分抽出部、207は差
分信号符号化部、208は多重化回路、209は通信網
、210は分離回路、211は差分信号復号部、212
は画像生成部、213は画像信号加算部、214はディ
スプレイである。
(Embodiment 1) FIG. 2 is a block diagram of an embodiment for realizing the operating principle of the present invention shown in FIG. 1. In the figure, 201~
Reference numeral 208 indicates devices on the transmitting side, and 210 to 214 indicate devices on the receiving side, which are connected by one communication network 209. In the figure, 201 is the current scene, 202 is an image input unit, 203 is a parameter representing the viewpoint/line of sight, 204 is a parameter input/detection unit,
205 is an image generation unit, 206 is a difference extraction unit, 207 is a difference signal encoding unit, 208 is a multiplexing circuit, 209 is a communication network, 210 is a separation circuit, 211 is a difference signal decoding unit, 212
213 is an image signal addition section, and 214 is a display.

次に動作を説明すると、送信側では、まず画像入力装置
202により、現時点における情景201が連続的に撮
影される。これとともに、画像入力部202に対応した
視点と視線を表わすパラメータ203をパラメータ人力
/検出部204から入力する。画像生成部205では、
入力されたパラメータと、送信側で具備しているモデル
により、画像入力部202から入力した画像を模倣した
画像を生成する。
Next, the operation will be described. On the transmitting side, first, the image input device 202 continuously photographs the scene 201 at the current moment. At the same time, a parameter 203 representing the viewpoint and line of sight corresponding to the image input section 202 is input from the parameter human power/detection section 204 . In the image generation unit 205,
An image imitating the image input from the image input unit 202 is generated using the input parameters and the model provided on the sending side.

差分抽出部206では、画像生成部205で生成された
画像と1画像入力部202で入力された画像の差分を求
める。該差分信号は、差分信号符号化部207により符
号化される。差分信号符号化部207で符号化された信
号と、パラメータ人力/検出部204で入力されたパラ
メータは、多重化回路208で多重化され1通信網20
9を介して伝送される。
The difference extraction unit 206 calculates the difference between the image generated by the image generation unit 205 and the image input by the single image input unit 202. The difference signal is encoded by the difference signal encoding section 207. The signal encoded by the differential signal encoding section 207 and the parameters inputted by the parameter manual/detection section 204 are multiplexed by a multiplexing circuit 208 and sent to one communication network 20.
9.

受信側では1通信網209を介して伝送されてくる多重
化された信号を、分離回路210により差分信号とパラ
メータに分離する。分離されたパラメータと、受信側で
有しているモデルから1画像生成部212で、送信側の
画像生成部205で生成される信号と同じ画像信号を生
成する。画像信号加算部213において、復号化された
差分信号と生成された画像信号の和をとり、最終的な復
号画像を得る。
On the receiving side, the multiplexed signal transmitted via one communication network 209 is separated into a difference signal and a parameter by a separation circuit 210. The one-image generation unit 212 generates the same image signal as the signal generated by the image generation unit 205 on the transmission side from the separated parameters and the model possessed on the reception side. In the image signal addition unit 213, the decoded difference signal and the generated image signal are summed to obtain a final decoded image.

復号画像は、ディスプレイ214で表示される。The decoded image is displayed on display 214.

本実施例においては、パラメータは別途入力される例に
ついて述べたが、画像入力部202から入力された映像
倍量から検出することも可能である。
In this embodiment, an example in which the parameters are input separately has been described, but it is also possible to detect them from the image magnification input from the image input unit 202.

本発明においては、伝送に用いる情報は、視点と視線を
表わすパラメータと、差分信号であり、小容量である。
In the present invention, the information used for transmission is a parameter representing a viewpoint and line of sight, and a difference signal, and has a small capacity.

このため、カメラの位置の変化に伴う動画像の符号化を
実時間で行うことができ、画質も従来技術より向上させ
うる。
Therefore, it is possible to encode a moving image in real time as the position of the camera changes, and the image quality can also be improved compared to the conventional technology.

(実施例2) 実施例1での3次元モデルとして、複数のポリゴンを用
いた例について説明する。その動作原理図は第1図と同
じであり、また装置のブロック構成は第2図と同じであ
る。実施例2においては。
(Example 2) An example using a plurality of polygons as the three-dimensional model in Example 1 will be described. The operating principle diagram is the same as that in FIG. 1, and the block configuration of the device is the same as that in FIG. 2. In Example 2.

画像の生成方法についてのみ説明する。Only the image generation method will be explained.

第3図は、本発明の一実施例における画像生成の説明図
である。31は視点1におけるカメラ、32は視点2に
おけるカメラ、33は物体を複数のポリゴンにより表現
した3次元モデル、34は視点1のカメラにより撮影さ
れた画像、35は視点2のカメラにより撮影された画像
である。
FIG. 3 is an explanatory diagram of image generation in one embodiment of the present invention. 31 is a camera at viewpoint 1, 32 is a camera at viewpoint 2, 33 is a three-dimensional model expressing an object using a plurality of polygons, 34 is an image taken by the camera at viewpoint 1, and 35 is an image taken by the camera at viewpoint 2. It is an image.

第4図は、上記第3図における3次元モデルと視点の位
置関係に合わせた写像の説明図である。
FIG. 4 is an explanatory diagram of mapping according to the positional relationship between the three-dimensional model and the viewpoint in FIG. 3 above.

41は3次元モデル、42はカメラにより撮像された画
像が撮影されるスクリーン、43はカメラの視点、44
は3次元モデル41がスクリーン42に投影された画像
である。
41 is a three-dimensional model; 42 is a screen on which the image taken by the camera is taken; 43 is the viewpoint of the camera; 44
is an image of the three-dimensional model 41 projected onto the screen 42.

3次元座標により表現される4つの点よりなるポリゴン
Aは、3次元空間における点からスクリーン42におけ
る点への写像 f :(xy y+ z)→(s t t )°により
、投影画像44アポリゴンA′へ写像される。
A polygon A consisting of four points expressed by three-dimensional coordinates is transformed into a projected image 44 by mapping f : (xy y+ z) → (s t t )° from a point in the three-dimensional space to a point on the screen 42. ′.

ここで、X+ y+Zは3次元空間における座標であり
、s、tはスクリーン42における座標である。
Here, X+y+Z are coordinates in the three-dimensional space, and s and t are coordinates on the screen 42.

いまカメラが第3図の視点1の位置にあるとき、3次元
モデル33のポリゴンA、B、Cは、それぞれ画像34
のA’、 B’、 C’に対応する。 A’、 B’。
When the camera is now located at viewpoint 1 in FIG. 3, polygons A, B, and C of the three-dimensional model 33 are respectively
Corresponds to A', B', and C'. A', B'.

C′は、複数のポリゴンよりなる3次元モデル33と、
カメラの視点:視点1の位置関係に合わせた、第4図に
示すような写像により生成される。
C' is a three-dimensional model 33 made up of a plurality of polygons,
Camera viewpoint: Generated by mapping as shown in FIG. 4 in accordance with the positional relationship of viewpoint 1.

一方、カメラが視点2の位置にあるとき、3次元モデル
33のポリゴンA、B、Cは、それぞれ画像35のA”
、B”、C”に対応する。A”、B”、C”は、複数の
ポリゴンよりなる3次元モデル33と、カメラの視点:
視点2より同様に生成される。視点1.視点2において
カメラから撮影された画像は、それぞれ画像34、画像
35に対応している。
On the other hand, when the camera is at viewpoint 2, polygons A, B, and C of the three-dimensional model 33 are respectively A'' of the image 35.
, B", and C". A", B", and C" are a three-dimensional model 33 made up of multiple polygons and a camera viewpoint:
It is generated in the same way from viewpoint 2. Viewpoint 1. Images taken from the camera at viewpoint 2 correspond to images 34 and 35, respectively.

このように、カメラの視点に応じた画像を生成すること
が可能なので、実際にカメラにより撮影された画像との
差分信号が微弱なものとなり、動画像の効率的な伝送が
可能である。
In this way, since it is possible to generate an image according to the viewpoint of the camera, the difference signal from the image actually taken by the camera becomes weak, and efficient transmission of moving images is possible.

なお、本実施例においては物体の3次元モデルに、複数
のポリゴンを用いたが、コンストラクション、フリット
、ジェオメトリ(CS G)を用いることにより、本実
施例同様、動画像の効率的な伝送が可能である。
Although multiple polygons were used in the three-dimensional model of the object in this example, by using construction, frit, and geometry (CSG), efficient transmission of moving images is possible as in this example. It is.

(発明の効果) 以上説明したように本発明によれば、伝送に用いる情報
は、視点と視線を表わすパラメータと、差分信号である
ので小容量である。この結果、カメラの位置変化に伴な
う動画像の符号化を実時間で行ない、かつ効率的な伝送
が可能であるので、復号画質を従来より著しく向上させ
ることができる。
(Effects of the Invention) As described above, according to the present invention, the information used for transmission is a parameter representing a viewpoint and a line of sight, and a difference signal, and therefore has a small capacity. As a result, it is possible to encode moving images in real time as the position of the camera changes and to transmit them efficiently, so that decoded image quality can be significantly improved compared to the conventional technique.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の動作原理を説明する図、第2図は本発
明の実施例1のブロック構成図、第3図及び第4図は本
発明の実施例2の画像生成及び3次元モデルと視点の位
置関係を説明する図である。 201・・・現時点での情景、202・・・画像入力部
、203・・・パラメータ、204・・・パラメータ人
力/検出部、205.212・・・画、 像生成部、2
06・・・差分抽出部、207・・・差分信号符号化部
、208・・・多重化回路、209・・・通信網、21
0・・・分離回路、211・・・差分信号復号化部、2
13・・・画像信号加算部、214・・・ディスプレイ
。 特許出願人 日本電信電話株式会社 代理人 星 野 恒 司□j′、。 ・こ02
FIG. 1 is a diagram explaining the operating principle of the present invention, FIG. 2 is a block diagram of the first embodiment of the present invention, and FIGS. 3 and 4 are image generation and three-dimensional models of the second embodiment of the present invention. FIG. 201...Current scene, 202...Image input unit, 203...Parameter, 204...Parameter human power/detection unit, 205.212...Image, image generation unit, 2
06... Difference extractor, 207... Difference signal encoder, 208... Multiplexing circuit, 209... Communication network, 21
0... Separation circuit, 211... Differential signal decoding unit, 2
13... Image signal addition unit, 214... Display. Patent applicant: Hisashi Hoshino, agent for Nippon Telegraph and Telephone Corporation.・ko02

Claims (1)

【特許請求の範囲】 情景を画像入力装置で撮影し、視点の移動により生成さ
れる動画像信号を符号化し、送信側と受信側で情景を表
現する3次元モデルを有し、送信側においては、前記画
像入力装置により実際に撮像された入力画像信号と、前
記3次元モデル及び視点を表わすパラメータにより生成
された画像信号との差分信号を生成し、該差分信号を符
号化し、視点を表わすパラメータとともに多重化した信
号を伝送し、 受信側においては、前記多重化された信号を、差分信号
および視点を表わすパラメータに分離し、該視点を表わ
すパラメータと、受信側の有する情景を表現する3次元
モデルから生成される画像信号と、前記分離された差分
信号との和を求めることにより、投影された情景の画信
号を復号することを特徴とする画像符号化方法。
[Claims] A scene is photographed by an image input device, a moving image signal generated by moving the viewpoint is encoded, and a three-dimensional model representing the scene is provided on the transmitting side and the receiving side. , generate a difference signal between an input image signal actually captured by the image input device and an image signal generated by the three-dimensional model and a parameter representing a viewpoint, encode the difference signal, and encode a parameter representing the viewpoint; On the receiving side, the multiplexed signal is separated into a difference signal and a parameter representing a viewpoint, and a parameter representing the viewpoint and a three-dimensional signal representing a scene held by the receiving side are transmitted. An image encoding method characterized in that an image signal of a projected scene is decoded by calculating the sum of an image signal generated from a model and the separated difference signal.
JP11723589A 1989-05-12 1989-05-12 Image coding method Expired - Fee Related JP2614918B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11723589A JP2614918B2 (en) 1989-05-12 1989-05-12 Image coding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11723589A JP2614918B2 (en) 1989-05-12 1989-05-12 Image coding method

Publications (2)

Publication Number Publication Date
JPH02298169A true JPH02298169A (en) 1990-12-10
JP2614918B2 JP2614918B2 (en) 1997-05-28

Family

ID=14706729

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11723589A Expired - Fee Related JP2614918B2 (en) 1989-05-12 1989-05-12 Image coding method

Country Status (1)

Country Link
JP (1) JP2614918B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030049642A (en) * 2001-12-17 2003-06-25 한국전자통신연구원 Camera information coding/decoding method for composition of stereoscopic real video and computer graphic
JP2007323481A (en) * 2006-06-02 2007-12-13 Sony Corp Video data transmission system and method, transmission processing apparatus and method, and reception processing apparatus and method
JP2017530626A (en) * 2014-09-09 2017-10-12 クゥアルコム・インコーポレイテッドQualcomm Incorporated Simultaneous localization and mapping for video coding

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030049642A (en) * 2001-12-17 2003-06-25 한국전자통신연구원 Camera information coding/decoding method for composition of stereoscopic real video and computer graphic
JP2007323481A (en) * 2006-06-02 2007-12-13 Sony Corp Video data transmission system and method, transmission processing apparatus and method, and reception processing apparatus and method
JP2017530626A (en) * 2014-09-09 2017-10-12 クゥアルコム・インコーポレイテッドQualcomm Incorporated Simultaneous localization and mapping for video coding
US10484697B2 (en) 2014-09-09 2019-11-19 Qualcomm Incorporated Simultaneous localization and mapping for video coding

Also Published As

Publication number Publication date
JP2614918B2 (en) 1997-05-28

Similar Documents

Publication Publication Date Title
EP3751857A1 (en) A method, an apparatus and a computer program product for volumetric video encoding and decoding
EP2384001A1 (en) Providing of encoded video applications in a network environment
KR100361398B1 (en) Systems and methods for producing compressed video graphics images, and centralized interactive graphics systems using them
US6111979A (en) System for encoding/decoding three-dimensional images with efficient compression of image data
JP3776595B2 (en) Multi-viewpoint image compression encoding apparatus and decompression decoding apparatus
JP3769850B2 (en) Intermediate viewpoint image generation method, parallax estimation method, and image transmission method
CN114079779B (en) Image processing method, intelligent terminal and storage medium
EP0843857A4 (en) Multi-viewpoint digital video encoding
KR100800653B1 (en) Apparatus and method for encoding a stereoscopic 3d image
CN111147868A (en) Free viewpoint video guide system
CN115359173A (en) Virtual multi-view video generation method and device, electronic equipment and storage medium
EP0937367B1 (en) Real-time mobile video communication with low power terminals
JP7171169B2 (en) Method and Apparatus for Encoding Signals Representing Lightfield Content
JP7440546B2 (en) Point cloud data processing device and method
KR19990057669A (en) Apparatus and method for three-dimensional image conversion of two-dimensional continuous image using virtual stereo image
JPH02298169A (en) Picture encoding method
KR100780840B1 (en) A temporal prediction apparatus and method for coding multi-view video based on layer-depth image
JP3733358B2 (en) Image transmission apparatus, transmission apparatus, reception apparatus, transmission method, and reception method
WO2022151972A1 (en) Video encoding method and apparatus, device, and storage medium
CN113469930B (en) Image processing method and device and computer equipment
KR20200108548A (en) A system of compressing the sequence of 3D point clouds and the method thereof
Lien et al. Skeleton-based data compression for multi-camera tele-immersion system
JP3950211B2 (en) Motion vector encoding device
KR100761022B1 (en) Haptic rendering method based on depth image, device therefor, and haptic broadcasting system using them
JP2887272B2 (en) 3D image device

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees