JPS6268384A - Picture communicating system - Google Patents

Picture communicating system

Info

Publication number
JPS6268384A
JPS6268384A JP60208164A JP20816485A JPS6268384A JP S6268384 A JPS6268384 A JP S6268384A JP 60208164 A JP60208164 A JP 60208164A JP 20816485 A JP20816485 A JP 20816485A JP S6268384 A JPS6268384 A JP S6268384A
Authority
JP
Japan
Prior art keywords
image
picture
transmitting
database
receiving side
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP60208164A
Other languages
Japanese (ja)
Inventor
Hideya Ichihara
市原 英也
Shinichi Murakami
伸一 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP60208164A priority Critical patent/JPS6268384A/en
Publication of JPS6268384A publication Critical patent/JPS6268384A/en
Pending legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)

Abstract

PURPOSE:To efficiently transmit the moving picture at the low transmitting speed by recognizing the picture element of respective parts to constitute the transmitting object picture at the transmitting side, extracting and sending the feature quantity of the part picture and synthesizing and displaying it at the receiving side. CONSTITUTION:An object 12 is photographed by a picture input device 1, taken out as the television signal waveform, fetched into a picture accumulating memory 3 through a recognizing processor 2 and an outline extracting operator is operated to the luminance value of the picture element. The changing point discontinuous to the color information of the picture element is searched, the outline is extracted, pattern matching with the outline picture accumulated as a data base 4 is executed and respective parts are recognized. Next, the obtained feature parameter is sent through a transmitting device 5 to a transmission line 6, received by a receiving device 7, in accordance with the received feature parameter to the picture data in a data base 10 at the receiving side, deformation is given to respective feature parts by a reproducing processing device 8, synthesizing is executed, the luminance value and the color value of the picture element are written to a displaying memory 9, a synthetic picture is converted to the television signal and sent to the displaying device.

Description

【発明の詳細な説明】 (1)発明の属する技術分野 本発明は1画像通信方式、特に人物と背景画像とを含む
動画像などに対して画像処理技術を適用して当該動画像
などを効率的に伝送する画像通信方式に関するものであ
る。
DETAILED DESCRIPTION OF THE INVENTION (1) Technical field to which the invention pertains The present invention relates to a single-image communication method, in particular, to efficiently process moving images by applying image processing technology to moving images including people and background images. This relates to an image communication method for digitally transmitting images.

(2)従来の技術 従来の画像通信方式においては、送信側で、伝送対象画
像をラスク走査して得られるテレビ信号波形を対象に、
信号波形の時間的変化を符号化して送出し、受信側では
、その符号を復号化し1元のテレビ信号波形を再生する
ことによって通信するようにされていて、信号波形の符
号化においては、動画像信号の冗長度圧縮を行う帯域圧
縮符号化が行なわれていた。この帯域圧縮符号化法とし
ては、隣接する画素間の空間的相関性を利用して。
(2) Conventional technology In conventional image communication systems, on the transmitting side, the television signal waveform obtained by scanning the image to be transmitted is
The temporal changes in the signal waveform are encoded and transmitted, and the receiving side decodes the code and reproduces the original television signal waveform for communication. Bandwidth compression encoding was used to compress the redundancy of image signals. This band compression encoding method utilizes the spatial correlation between adjacent pixels.

符号量を低減させる方法、隣接するフレーム間画素の時
間的相関性を利用して符号量を低減させる方法等が行な
われているが、いずれも画素対応の処理を行って符号化
を行なっており、その符号量の圧縮には限界があった。
There are methods to reduce the amount of code, and methods to reduce the amount of code by using the temporal correlation of pixels between adjacent frames, but all of them perform encoding using pixel-based processing. However, there was a limit to the compression of the amount of code.

(3)発明の目的 本発明の目的は、テレビジョンカメラより得た映像信号
が意味する画面を対象に、その画像内容を認識すること
によって、その画像の特fitを抽出し、その特徴パラ
メータを伝送することにより。
(3) Purpose of the Invention The purpose of the present invention is to extract the characteristic fit of the image by recognizing the image content of the screen represented by the video signal obtained from the television camera, and to calculate its characteristic parameters. By transmitting.

非常に低い伝送速度で動画像を効率的に伝送する画像通
信方式を提供することにある。
An object of the present invention is to provide an image communication method that efficiently transmits moving images at a very low transmission rate.

(4)発明の構成 (4−1)発明の特徴と従来の技術との差異本発明は、
送信側で伝送対象画像を構成する各部分画像要素を認識
し、その部分画像の特徴量を抽出して送出し、受信側で
合成・表示するもので。
(4) Structure of the invention (4-1) Differences between the characteristics of the invention and the conventional technology The present invention has the following features:
The transmitting side recognizes each partial image element that makes up the image to be transmitted, extracts and transmits the feature values of the partial images, and synthesizes and displays them on the receiving side.

このとき送信側と受信側とで画像データベースを用い画
像認識・再生を行い、動画像伝送に要する情報量を圧縮
することを最も主要な特徴とする。
At this time, the most important feature is that image recognition and reproduction are performed using an image database on the transmitting side and the receiving side, and the amount of information required for moving image transmission is compressed.

従来の符号化技術では1画像を画素対応に符号化してお
り、必要となる符号量は画素数に比例する事となってい
た。これに対し2本発明においては。
In conventional encoding techniques, one image is encoded pixel-by-pixel, and the required amount of code is proportional to the number of pixels. On the other hand, in the present invention.

用意する画像データベースとして1画面の構成要素対応
に用意し、伝送対象画像とそれらとの対応を示す関係を
符号化する事とするので、符号量は画素の数に関係なく
できる。また用意するデータベースの量は符号の長さの
ベキ乗で増加させることができるので、符号長のベキ乗
で符号化画像の精度を上げる事が可能である。
Since the image database is prepared corresponding to the constituent elements of one screen, and the relationship indicating the correspondence between the transmission target image and these is encoded, the amount of code can be made regardless of the number of pixels. Furthermore, the amount of database to be prepared can be increased by increasing the code length to the power of the code length, so it is possible to increase the accuracy of the encoded image by increasing the code length to the power of the power.

(4−2)実施例 以下2図面を用いて本発明の詳細な説明する。(4-2) Example The present invention will be described in detail below using two drawings.

第1図は本発明の一実施例を説明する図であって、1は
テレビカメラ等の画像入力装置で、被写体12より画像
を得るものである。2は認識処理装置で、3の画像蓄積
メモリと4の画像データベースを用いてその画像の特@
量を認識し、パラメータとして抽出する装置である。こ
のパラメータは5の送信装置で信号として送出され、6
の伝送路を通して伝送される。伝送されてきた特徴パラ
メータは受信装置7で受信され、8の再生処理装置に送
られる。この装置では10の画像データベースを用いて
受信した特徴パラメータから画像を合成し、9の表示メ
モリに書き込みを行なう。11は表示装置で、12は伝
送の対象となる人物である。
FIG. 1 is a diagram illustrating an embodiment of the present invention, in which numeral 1 denotes an image input device such as a television camera, which obtains an image from a subject 12. In FIG. 2 is a recognition processing device that uses the image storage memory 3 and the image database 4 to perform special @
This is a device that recognizes quantities and extracts them as parameters. This parameter is sent out as a signal by the transmitter at 5, and
It is transmitted through the transmission path. The transmitted characteristic parameters are received by a receiving device 7 and sent to a reproduction processing device 8. In this device, an image is synthesized from the received feature parameters using 10 image databases, and is written into a 9 display memory. 11 is a display device, and 12 is a person to whom transmission is performed.

第2図は伝送対象とする人物画像の一例を示す図で、1
00は人物像の頭部、101は眉、102は目、103
は鼻、104は口、105は胸。
Figure 2 is a diagram showing an example of a person image to be transmitted.
00 is the head of the human figure, 101 is the eyebrow, 102 is the eye, 103
is the nose, 104 is the mouth, and 105 is the chest.

106は腕を示している。106 indicates an arm.

第3図は画像の輪郭線を抽出するためのラプラシアン演
算子のとり方の一例を示す図であり、 (i、j)画素
のラプラシアンを求めるために、 (i+  J)画素
の周囲4画素、つまり(i−1,j)、  (i、j−
1)、  (t、j+1)、  (i+1゜j)の4画
素を用いて、演算子を構成する。第4図は顔の部分画像
である目の特徴量を示す図であり、IIは目の長さ、1
2は目の幅、l、は瞳の直径、14.(1,は瞳の位置
を示す数値である。
Figure 3 is a diagram showing an example of how to use the Laplacian operator to extract the contour of an image. (i-1,j), (i,j-
An operator is constructed using four pixels: 1), (t, j+1), and (i+1°j). FIG. 4 is a diagram showing the feature amount of the eye, which is a partial image of the face, where II is the length of the eye, 1
2 is the width of the eye, l is the diameter of the pupil, 14. (1, is a numerical value indicating the position of the pupil.

第5図は元の画像を再生・表示する際の変形の一例を説
明する図で、実線は変形を加える前の目の輪郭線と瞳の
位置1点線は変形を加えた後の目の輪郭と瞳の位置を示
している。/、、  ff4.  l。
Figure 5 is a diagram explaining an example of deformation when playing back and displaying the original image, where the solid line is the eye contour before deformation and the pupil position.The dotted line is the eye contour after deformation. indicates the position of the eyes. /,, ff4. l.

は変形前の特徴パラメータ+  ’2’+  ’4Z 
 β5′は変形後の特徴パラメータの値である。また、
第6図は画像データベースに蓄積される画像の例を説明
する図で、aは頭部、bは眉、Cは目、dは胸。
is the feature parameter before transformation + '2' + '4Z
β5' is the value of the feature parameter after transformation. Also,
FIG. 6 is a diagram illustrating an example of images stored in the image database, where a represents the head, b represents the eyebrows, C represents the eyes, and d represents the chest.

eは腕の画像であり、抽出・認識された各部分ごとに別
々に蓄積される。
e is an image of an arm, which is stored separately for each extracted and recognized part.

次に、第1図から第4図を用いて本発明の画像認識動作
例について説明する。第1図において。
Next, an example of the image recognition operation of the present invention will be explained using FIGS. 1 to 4. In FIG.

対象物体である人物12は画像入力装置1により撮影さ
れ、テレビ信号波形としてとり出されて認識処理装置2
を経由して画像蓄積メモリ3に取り込まれる。このとき
人物像を示すテレビ信号波形は対象画面上にとられた正
方格子をなす画素対応に標本化され1画素の輝度値、そ
のカラー値として画像メモリに蓄積される。即ち伝送対
象となる人物像は蓄積メモリ3内において第2図に示す
形で各画像構成要素が画素に対応して、その輝度値・カ
ラー値として記憶されることになる。
A person 12, which is a target object, is photographed by an image input device 1, extracted as a television signal waveform, and sent to a recognition processing device 2.
The image is taken into the image storage memory 3 via the. At this time, the television signal waveform representing the human image is sampled into pixels corresponding to a square lattice taken on the target screen and stored in the image memory as the luminance value of one pixel and its color value. That is, the human image to be transmitted is stored in the storage memory 3 in the form shown in FIG. 2, with each image component corresponding to a pixel, and its luminance value and color value.

この人物画像から人物の頭・目・鼻・口等の部分画像を
認識して特徴部分、及び、特徴パラメータを抽出する動
作について説明する。蓄積メモリ3の内部にとり込まれ
た画像に対し画像構成要素の輪郭線を抽出するには、蓄
積メモリ3内の画素の輝度値に対して輪郭抽出演算子(
例えば′ラプラシアン演算子等)を作用させ、また画素
の色情報に対して不連続な変化点を捜すことによって輪
郭線を抽出することができる。このラプラシアン演算子
とは、第3図に示すように(t、j)画素に対して各画
素の輝度値をf  (i、j)のようにあられすことに
すると2例えば v”f(t、j) =f(i−1,j)+f(i、j+1)+f(t+1.
j)+f(i、j+1)−4f(i、j) のように定義することができ、  (t、j)画素とそ
の周囲の画素との輝度の差が大きい時画素(i。
The operation of recognizing partial images of a person's head, eyes, nose, mouth, etc. from this person image and extracting characteristic parts and characteristic parameters will be explained. In order to extract the contour line of the image component from the image taken into the storage memory 3, the contour extraction operator (
For example, the contour line can be extracted by applying a 'Laplacian operator, etc.) and searching for discontinuous change points on the color information of the pixels. As shown in FIG. 3, if the luminance value of each pixel is expressed as f (i, j) for pixel (t, j), then , j) =f(i-1,j)+f(i,j+1)+f(t+1.
j)+f(i, j+1)-4f(i, j) When the difference in luminance between the (t, j) pixel and its surrounding pixels is large, the pixel (i.

j)に大きな関数値を与える関数で、その値の大きさに
よって画像中の輪郭線を検出することができる演算子で
ある。このようにして抽出された輪郭線画像から1例え
ば眉・目・口等を特徴部分として認識するには1次のよ
うにパターンマツチングの方法を用いて行えばよい。
j) is a function that gives a large function value, and is an operator that can detect contour lines in an image based on the magnitude of that value. For example, eyebrows, eyes, mouth, etc. may be recognized as characteristic parts from the contour image extracted in this manner by using a pattern matching method as described below.

即ち、あらかじめ対象とする人物の顔を画像として撮影
し、その輪郭線を上記と同様の方法で抽出し、そのうち
目・鼻・口等に当る顔の部分画像の輪郭線形状をシステ
ム構成者が認識・指定し。
That is, the face of the target person is photographed in advance as an image, its outline is extracted using the same method as above, and the system constructor extracts the shape of the outline of the partial image of the face corresponding to the eyes, nose, mouth, etc. Recognize and specify.

それらを各々データベースとして第6図のような形で蓄
えておく。次に前記の様にして抽出された人物の顔に対
する輪郭線画像と上記層・目・口等のデータベースとし
て蓄えられている各部分画像の輪郭線画像とのパターン
マツチングを行う事く形状の類似度を計算する)により
入力画像の眉・目・口等の各部の認識を行う。このとき
、眉・目・口等の各部分の形状が基となるデータベース
画像の眉・目・口等の画像から変形している度合を。
Each of them is stored as a database in the form shown in Figure 6. Next, pattern matching is performed between the contour line image of the human face extracted as described above and the contour line image of each partial image stored as a database of the layers, eyes, mouth, etc. Each part of the input image, such as the eyebrows, eyes, and mouth, is recognized by calculating the degree of similarity. At this time, the degree to which the shape of each part such as eyebrows, eyes, mouth, etc. is deformed from the image of eyebrows, eyes, mouth, etc. in the database image as a base is determined.

その画像の特徴パラメータとして抽出する。これらの処
理技術は2通常計算機による画像処理技術として知られ
ているものであり、その実現は既存の画像処理装置を応
用すれば容易に達成することができる。第4図は眉・目
・口といった特徴部分から得られる特徴パラメータの一
例を図示したもので、目の長さ’++ 目の幅12とい
った特徴パラメータが特徴部分の位置を検出することに
より即座に得られる。以上の認識・抽出処理は5通常の
ディジタル計算機と同様の構成である認識処理装置2の
制御の下で行なわれる。対象画像の頭取外の胸・腕・等
の認識も上記と同様の方法で行う事ができることは明ら
かであろう。
Extract it as a feature parameter of that image. These processing techniques are known as image processing techniques using ordinary computers, and can be easily realized by applying existing image processing devices. Figure 4 shows an example of characteristic parameters obtained from characteristic parts such as eyebrows, eyes, and mouth.The characteristic parameters such as eye length '++ and eye width 12 can be instantly determined by detecting the position of the characteristic parts. can get. The above recognition/extraction processing is performed under the control of a recognition processing device 2 having a configuration similar to that of a typical digital computer. It is clear that recognition of the chest, arms, etc. other than the head of the target image can also be performed in the same manner as described above.

上記のようにして得られた特徴パラメータは。The feature parameters obtained as above are.

送信装置5を経由して伝送路6に送出され、受信装置7
で受信される。
It is sent to the transmission path 6 via the transmitting device 5, and is sent to the receiving device 7.
received at

次に、第5図、第6図を用いて受信装置で受信された特
徴パラメータから元の画像を再生する動作例について説
明する。受信側のデータベース10には、送信側のデー
タベース4と同じデータがあらかじめ入力されている。
Next, an example of operation for reproducing the original image from the feature parameters received by the receiving device will be described using FIGS. 5 and 6. The receiving side database 10 has the same data input in advance as the sending side database 4.

このデータベース10内の画像データに対して、受信し
た特徴パラメータに従い、再生処理装置8で各特徴部分
に対して変形を加える。目の変形を例にして説明すると
The image data in the database 10 is transformed into each characteristic part by the reproduction processing device 8 according to the received characteristic parameters. Let's explain this using eye deformation as an example.

受信した特徴パラメータl、、12から目の開き具合が
わかり、この特徴パラメータに従って変形を加えるが、
目の下の輪郭線については変化させず、上の輪郭線につ
いて目の中央部でその幅がjl!2となるように新しい
輪郭線を例えば円弧で近似的に補間を行なって発生させ
る。このようにすれば目を開いたり閉じたりする様子が
再現できる。また瞳については、特徴パラメータ+’4
+’5で与えられた中心の位置を+  !!4’、  
JS’に移動し。
The degree of eye opening can be determined from the received feature parameter l,,12, and deformation is applied according to this feature parameter.
The contour line under the eye remains unchanged, and the width of the upper contour line at the center of the eye is jl! 2, a new contour line is generated by approximately interpolating, for example, a circular arc. In this way, you can simulate opening and closing your eyes. Also, for the eyes, the feature parameter + '4
The center position given by +'5 is +! ! 4',
Move to JS'.

直径e、の円とすることによって瞳の移動を再現するこ
とができる。、この変形された画像を他の特徴部分と合
成して表示メモリ9に画素の輝度値・カラー値を書き込
み2合成された画像をテレビジョン信号に変換し9表示
装置に送出する。これらのデータベース検索・変形・合
成等の処理は再生処理装置8の制御の下に行なわれる。
By using a circle with a diameter of e, the movement of the pupil can be reproduced. , this transformed image is combined with other characteristic parts, and the brightness values and color values of the pixels are written in the display memory 9. 2 The combined image is converted into a television signal and 9 is sent to the display device. Processing such as database search, transformation, and synthesis is performed under the control of the reproduction processing device 8.

表示装置11は、送られてきたテレビジョン信号を画像
として表示する装置であり、既存の画像出力装置を用い
ればよい。
The display device 11 is a device that displays the sent television signal as an image, and an existing image output device may be used.

以上説明したような作用をするため、伝送に必要となる
情報は特徴パラメータのみであり、この結果から明らか
なように従来の技術°に比べて非常に低い伝送速度で動
画像を効率的に伝送することが可能となる点で改善があ
った。
In order to operate as explained above, the information required for transmission is only the characteristic parameters, and as is clear from this result, moving images can be efficiently transmitted at a much lower transmission speed than conventional technology. There has been an improvement in the ability to

(5)発明の詳細 な説明したように本発明によれば、送信側で画像を認識
することにより、特徴・量のパラメータを抽出・伝送し
、受信側で伝送されて来たパラメータから元の画像を合
成・表示するようにしており、伝送に必要な情報はいわ
ば特徴量のみであるから、情報量を高能率に圧縮するこ
とが可能となり3非常に低い伝送速度で動画像を伝送す
ることが可能となる。
(5) As described in detail, according to the present invention, the transmitting side extracts and transmits the parameters of features and quantities by recognizing the image, and the receiving side extracts the original parameters from the transmitted parameters. Images are synthesized and displayed, and the information required for transmission is only the feature amount, so it is possible to compress the amount of information with high efficiency. 3 It is possible to transmit moving images at a very low transmission speed. becomes possible.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の一実施例構成、第2図は伝送対象の人
物画像の一例、第3図は輪郭線抽出の際に用いる演算子
を説明する図、第4図は目についての特徴パラメータを
説明する図、第5図は目の変形を説明する図、第6図は
データベースに蓄積される画像の例を説明する図である
。 1・・・画像入力装置、2・・・認識処理装置、3・・
・画像蓄積メモリ、4・・・画像データベース、5・・
・送信装置、6・・・伝送路、7・・・受信装置、8・
・・再生処理装置、9・・・表示メモリ、10・・・画
像データベース。 11・・・表示装置、12・・・人物像、100・・・
人物像の頭部、101・・・眉、102・・・目、10
3・・・鼻。 104・・・口、105・・・胸、106・・・腕、a
・・・頭部。 b・・・眉、C・・・目、d・・・胸、e・・・腕。 特許出願人   日本電信電話株式会社代理人弁理士 
   森 1) 寛 EZIE(’)浄書(内容に変更なしン第 1 図 第 6 図 手続主甫正書(方式) 昭和60年12月13日 昭和60年特許願第208164号 2、発明の名称 画像通信方式 3、補正をする者 事件との関係 特許出願人 住所 東京都千代田区内幸町1丁口1番6号氏名 (4
22)日本電信電話株式会社代表者 真 藤 恒 4、代理人
Fig. 1 shows the configuration of an embodiment of the present invention, Fig. 2 shows an example of a human image to be transmitted, Fig. 3 is a diagram explaining operators used in contour extraction, and Fig. 4 shows features of eyes. FIG. 5 is a diagram for explaining the parameters, FIG. 5 is a diagram for explaining the deformation of the eye, and FIG. 6 is a diagram for explaining an example of images stored in the database. 1... Image input device, 2... Recognition processing device, 3...
・Image storage memory, 4...Image database, 5...
- Transmitting device, 6... Transmission path, 7... Receiving device, 8.
. . . Reproduction processing device, 9 . . . Display memory, 10 . . . Image database. 11... Display device, 12... Person image, 100...
Head of a human figure, 101... Eyebrows, 102... Eyes, 10
3...Nose. 104...mouth, 105...chest, 106...arm, a
···head. b...eyebrows, C...eyes, d...chest, e...arms. Patent applicant: Nippon Telegraph and Telephone Corporation, patent attorney
Mori 1) Kan EZIE (') engraving (no changes to the content) Figure 1 Figure 6 Figure 6 Procedural author's manuscript (method) December 13, 1985 Patent Application No. 208164 2, 1985 Title image of the invention Communication method 3, relationship with the case of the person making the amendment Patent applicant address: 1-6 Uchisaiwai-cho, Chiyoda-ku, Tokyo Name (4)
22) Nippon Telegraph and Telephone Corporation Representative Tsune Shinfuji 4, Agent

Claims (1)

【特許請求の範囲】[Claims] 画像情報を含む情報を伝送する画像通信方式において、
送信側に、画像入力装置、画像の一時蓄積メモリ、伝送
対象画像に対する画像データベース、入力画像と画像デ
ータベース内の画像情報とを比較して伝送対象画像の特
徴量を抽出する認識処理装置、および伝送装置を有する
と共に、受信側に、受信装置、画像データベース、およ
び受信した特徴量と画像データベース内の情報とから元
の画像を合成・表示する再生処理装置を有し、送信側で
前記入力画像の特徴量をパラメータとして伝送路を介し
て受信側に送出し、受信側で当該パラメータを用いて元
の画像を再生するようにしたことを特徴とする画像通信
方式。
In image communication methods that transmit information including image information,
On the transmission side, there is an image input device, a temporary image storage memory, an image database for the image to be transmitted, a recognition processing device that compares the input image and image information in the image database to extract the feature amount of the image to be transmitted, and a transmission device. In addition, the receiving side has a receiving device, an image database, and a reproduction processing device that synthesizes and displays the original image from the received feature amount and information in the image database, and the transmitting side An image communication method characterized in that a feature quantity is sent as a parameter to a receiving side via a transmission path, and the receiving side uses the parameter to reproduce an original image.
JP60208164A 1985-09-20 1985-09-20 Picture communicating system Pending JPS6268384A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP60208164A JPS6268384A (en) 1985-09-20 1985-09-20 Picture communicating system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP60208164A JPS6268384A (en) 1985-09-20 1985-09-20 Picture communicating system

Publications (1)

Publication Number Publication Date
JPS6268384A true JPS6268384A (en) 1987-03-28

Family

ID=16551711

Family Applications (1)

Application Number Title Priority Date Filing Date
JP60208164A Pending JPS6268384A (en) 1985-09-20 1985-09-20 Picture communicating system

Country Status (1)

Country Link
JP (1) JPS6268384A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02132562A (en) * 1988-11-11 1990-05-22 Matsushita Electric Ind Co Ltd Moving image generating device
US5657415A (en) * 1993-12-28 1997-08-12 Nec Corporation Apparatus for reproducing moving pictures from motion parameters and moving picture coding and decoding system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02132562A (en) * 1988-11-11 1990-05-22 Matsushita Electric Ind Co Ltd Moving image generating device
US5657415A (en) * 1993-12-28 1997-08-12 Nec Corporation Apparatus for reproducing moving pictures from motion parameters and moving picture coding and decoding system

Similar Documents

Publication Publication Date Title
Anwar et al. Image colorization: A survey and dataset
US10628700B2 (en) Fast and robust face detection, region extraction, and tracking for improved video coding
US8798168B2 (en) Video telecommunication system for synthesizing a separated object with a new background picture
EP0225729B1 (en) Image encoding and synthesis
KR950030647A (en) Video communication device
CN106851386B (en) Method and device for realizing augmented reality in television terminal based on Android system
US6014625A (en) Method and apparatus for producing lip-movement parameters in a three-dimensional-lip-model
CN111696039B (en) Image processing method and device, storage medium and electronic equipment
WO2021067032A1 (en) Audio/video electronic device
CN111491187A (en) Video recommendation method, device, equipment and storage medium
WO2020062998A1 (en) Image processing method, storage medium, and electronic device
JP6203188B2 (en) Similar image search device
JP6340675B1 (en) Object extraction device, object recognition system, and metadata creation system
US11895308B2 (en) Video encoding and decoding system using contextual video learning
JPH10164483A (en) Image data storage device
JPH05316491A (en) Portrait image encoding system
JP2840816B2 (en) Facial expression detection device
CN116703995B (en) Video blurring processing method and device
JPS6268384A (en) Picture communicating system
WO2022262659A1 (en) Image processing method and apparatus, storage medium, and electronic device
WO2014132816A1 (en) Image processing device, method, and program
CN111034187A (en) Dynamic image generation method and device, movable platform and storage medium
JPH0714208B2 (en) Video transmission system
US7065248B2 (en) Content-based multimedia searching system using color distortion data
KR100457302B1 (en) Auto tracking and auto zooming method of multi channel by digital image processing