JPH09182043A - Visual telephone having movement tracking function - Google Patents

Visual telephone having movement tracking function

Info

Publication number
JPH09182043A
JPH09182043A JP33655095A JP33655095A JPH09182043A JP H09182043 A JPH09182043 A JP H09182043A JP 33655095 A JP33655095 A JP 33655095A JP 33655095 A JP33655095 A JP 33655095A JP H09182043 A JPH09182043 A JP H09182043A
Authority
JP
Japan
Prior art keywords
image
frame
area
picture
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP33655095A
Other languages
Japanese (ja)
Inventor
Shoichi Masaki
彰一 正木
Akio Kurobe
彰夫 黒部
Mayumi Shinoda
真由美 篠田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP33655095A priority Critical patent/JPH09182043A/en
Publication of JPH09182043A publication Critical patent/JPH09182043A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To always keep a moving object in a sharp area and to suppress the useless information by deciding a new sharp area based on the motion vector of the block that is previously decided in the original sharp area. SOLUTION: An image encoding part 14 encodes an image frame stored in a frame storage part 12 and detects the motion vector of the block forming the image frame. A sharp area decision part 16 sets a boundary between a sharp area and other areas (deteriorated areas) based on the motion vector of a prescribed block among those motion vectors of a detected object and then outputs the position information of the boundary. An encoding control part 15 colors as designated to the background part (deteriorated area) of the image frame via a background input part 13 and based on the position information of the preceding boundary. At the same time, a correction code of high correction capability is given to the sharp area with a correction code of low correction capability given to the deteriorated area via an error correction control part 17 respectively. Otherwise, the control is carried out not to encode the image frame and the quantity of information to be transferred can be reduced.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、テレビ電話に関
し、より特定的には、被写体の動きに応じて画面内の鮮
明領域を移動する、動き追跡機能付きテレビ電話に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a videophone, and more particularly to a videophone with a motion tracking function that moves a clear area in a screen according to the movement of a subject.

【0002】[0002]

【従来の技術】[Prior art]

(第1の従来例)以下には、画像フレームを鮮明領域と
劣化領域とに分割して、通話相手のテレビ電話に送信す
る、従来のテレビ電話について説明する。画面内を被写
体部分と背景部分とに予め区別しておき、背景部分の帯
域幅を被写体部分の帯域幅よりも狭くすることにより、
背景部分での発生情報量を減らすことができる。背景部
分で発生情報量を減らした分だけ被写体部分の情報量を
多くすることにより、被写体部分の動きを滑らかにする
動画像信号の処理方法およびその装置(特開平2−20
6293号公報)が考案されている。図19は、上記動
画像信号処理装置の構成を示す図である。図19におい
て、動画像信号処理装置は、制御回路と、時間フィルタ
ーと、符号器とを備えている。制御回路は、予め定めら
れ、かつROMに蓄えられた背景パターンの中から選択
された背景パターンを、入力される動画像信号に同期さ
せて時間フィルターに与える。この際、制御回路は、背
景部分に関しては強力な帯域制限を行うように、被写体
部分に関しては比較的軽い帯域制限を行うように、時間
フィルターを制御する。これにより、注目点以外の、背
景などの動きにより発生する無駄な情報を抑制すること
ができ、代わりに注目点である被写体の動きを滑らかに
することができる。
(First Conventional Example) A conventional videophone in which an image frame is divided into a clear area and a degraded area and transmitted to the videophone of the other party will be described below. By preliminarily distinguishing the inside of the screen into the subject portion and the background portion, and making the bandwidth of the background portion narrower than the bandwidth of the subject portion,
The amount of information generated in the background portion can be reduced. A method and apparatus for processing a moving image signal that smoothes the motion of a subject part by increasing the amount of information of the subject part by reducing the amount of information generated in the background part (Japanese Patent Laid-Open No. 2-20).
6293) has been devised. FIG. 19 is a diagram showing the structure of the moving image signal processing apparatus. In FIG. 19, the moving image signal processing device includes a control circuit, a time filter, and an encoder. The control circuit applies a background pattern, which is predetermined and selected from the background patterns stored in the ROM, to the temporal filter in synchronization with the input moving image signal. At this time, the control circuit controls the time filter such that the background part is strongly band-limited and the subject part is relatively lightly band-limited. As a result, it is possible to suppress useless information generated by movement of the background or the like other than the point of interest, and instead smooth the movement of the subject that is the point of interest.

【0003】(第2の従来例)以下には、非接触操作に
よる操作命令入力を行う機能を備えた、従来のテレビ電
話について説明する。画面を見るだけで情報処理装置へ
の入力を可能にする視点監視入力装置(特開平5−20
4526号公報)や、仮想現実画像が形成されている空
間において、操作者がある仮想現実画像に手をふれた場
合に、この仮想現実画像が選択されたことを示す信号を
出力することにより、非接触入力を可能とする仮想現実
空間データ入力装置(特開平6−274270号公報)
が考案されている。図20は、上記視点監視入力装置の
構成を示す図である。図20において、視点監視入力装
置は、映像装置1と、表示装置2と、画像処理装置3
と、制御装置4とを備えている。図20の視点監視入力
装置は、表示装置2の画面を見ている操作者の目を映像
装置1により映し出し、映し出した映像を画像処理装置
3で解析することによって操作者の視点の位置を検出
し、操作者が表示画面の中のどの位置を選択したかを特
定する。そして、その位置に表示された表示情報を、制
御装置4が操作者の入力意志を示す情報に変換し、情報
処理を行う装置に送信する。なお、操作者の現在の視点
の位置および入力直前の情報は、表示装置2の画面に表
示される。
(Second Conventional Example) A conventional videophone having a function of inputting an operation command by a non-contact operation will be described below. Point-of-view monitoring input device that enables input to the information processing device only by looking at the screen
No. 4526), or when the operator touches a virtual reality image in a space where the virtual reality image is formed, by outputting a signal indicating that this virtual reality image is selected, Virtual reality space data input device capable of non-contact input (Japanese Patent Laid-Open No. 6-274270)
Has been devised. FIG. 20 is a diagram showing the configuration of the viewpoint monitoring input device. 20, the viewpoint monitoring input device includes a video device 1, a display device 2, and an image processing device 3.
And a control device 4. The viewpoint monitoring input device in FIG. 20 detects the position of the operator's viewpoint by displaying the operator's eyes looking at the screen of the display device 2 with the video device 1 and analyzing the projected image with the image processing device 3. Then, it specifies which position on the display screen the operator has selected. Then, the control device 4 converts the display information displayed at that position into information indicating the input intention of the operator, and transmits the information to the device that performs information processing. The position of the operator's current viewpoint and the information immediately before the input are displayed on the screen of the display device 2.

【0004】図21は、上記仮想現実空間データ入力装
置の構成を示す図である。図21において、仮想現実空
間データ入力装置は、ディスプレイユニット5と、画像
入力装置6と、3D制御装置7と、3Dアイセット8と
で構成されている。図21のディスプレイユニット5
は、表示画面5Aにカラー画像データを表示する。画像
入力装置6の画像入力ユニットは、人工網膜素子と光学
レンズとを備えており、表示画面5Aの前方にある前方
エリア5Bの画像を上方から取り込み、操作者の指を認
識して、指の位置を特定する。3Dアイセット8は、3
D制御装置7に接続されており、操作者の目視画像を制
御する。3D制御装置7は、ディスプレイユニット5が
表示する画像および3Dアイセット6の透過光線量をそ
れぞれ制御することにより、操作者に仮想現実画像を視
認させる。そして、操作者の指が仮想現実空間において
指し示した選択項目が、選択信号として出力される。
FIG. 21 is a diagram showing the configuration of the virtual reality space data input device. In FIG. 21, the virtual reality space data input device includes a display unit 5, an image input device 6, a 3D control device 7, and a 3D eyeset 8. Display unit 5 of FIG.
Displays color image data on the display screen 5A. The image input unit of the image input device 6 includes an artificial retina element and an optical lens, captures an image of the front area 5B in front of the display screen 5A from above, recognizes the operator's finger, and detects the finger of the operator. Identify the location. 3D eye set 8 has 3
It is connected to the D control device 7 and controls the visual image of the operator. The 3D control device 7 causes the operator to visually recognize the virtual reality image by controlling the image displayed by the display unit 5 and the transmitted light amount of the 3D eyeset 6, respectively. Then, the selection item pointed by the operator's finger in the virtual reality space is output as a selection signal.

【0005】(第3の従来例)従来のピクチャインピク
チャ機能を有するテレビ電話は、多くの場合、相手から
受信した映像を親画面に表示し、自分が送信している映
像等は、親画面内の、予め決められた位置にある子画面
に表示する。
(Third conventional example) In many cases, a conventional videophone having a picture-in-picture function displays an image received from the other party on the main screen, and an image transmitted by itself is displayed on the main screen. It is displayed on a sub-screen at a predetermined position within.

【0006】[0006]

【発明が解決しようとする課題】[Problems to be Solved by the Invention]

(第1の従来例における課題)上記第1の従来例におけ
るテレビ電話では、以下に示す課題が存在する。画面内
を鮮明領域と劣化領域とに予め分離し、それらの位置を
固定しているため、被写体の動きや手振れなどによって
被写体が鮮明領域からはみでてしまった場合、すなわ
ち、被写体が劣化領域に移動してしまった場合には、被
写体は強度に帯域制限され、画質が劣化してしまう。
(Problems in First Conventional Example) The following problems exist in the video telephone in the first conventional example. The screen is divided into a clear area and a degraded area in advance, and their positions are fixed, so if the subject moves out of the clear area due to movement of the subject or camera shake, that is, the subject moves to the degraded area. If this happens, the intensity of the subject is band-limited and the image quality deteriorates.

【0007】従って、本発明の目的は、被写体の動きに
応じて鮮明領域を移動させることにより、被写体を常に
鮮明領域内に捉えることができるテレビ電話を提供する
ことである。
Therefore, an object of the present invention is to provide a videophone capable of always capturing a subject within the clear region by moving the clear region according to the movement of the subject.

【0008】(第2の従来例における課題)上記第2の
従来例におけるテレビ電話では、以下に示す二つの課題
が存在する。第1の課題は、次の通りである。上記の非
接触操作による操作命令入力を行う機能を備えたテレビ
電話において、映像装置1は、表示装置2の画面を見て
いる操作者の目に構図やピントを合わせておく必要があ
るために、通常は操作者の上半身全体を映すテレビ電話
用のカメラを視点監視の目的にも併用することは困難で
ある。従って、当該テレビ電話は専用の映像装置1を必
要とする。また、専用の映像装置1を備えた場合にも、
操作者は映像装置1の前の予め決められた位置にじっと
している必要がある。特に、本テレビ電話が携帯型のテ
レビ電話である場合には、操作者の目と映像装置1と
を、常に決められた位置関係に保つのは困難である。ま
た、上記仮想現実空間データ入力装置は、高価な人工網
膜素子使用した画像入力装置を備える必要がある。第2
の課題は、次の通りである。上記視点入力装置において
は、映された映像から操作者の視点の位置を特定するた
めに、画像処理装置3を必要としている。また、上記仮
想現実空間データ入力装置では、人工網膜素子が操作者
の指を認識するが、人工網膜素子は認識のための特別な
画像処理を行っている。
(Problems in Second Conventional Example) The video telephone in the second conventional example has the following two problems. The first problem is as follows. In the videophone having the function of inputting the operation command by the non-contact operation, the image device 1 needs to compose and focus on the eyes of the operator who is looking at the screen of the display device 2. Normally, it is difficult to use a videophone camera that shows the entire upper half of the operator's upper body together for the purpose of viewpoint monitoring. Therefore, the videophone requires the dedicated video device 1. In addition, even when the dedicated video device 1 is provided,
The operator needs to stay still at a predetermined position in front of the video device 1. In particular, when the present videophone is a portable videophone, it is difficult to always keep the operator's eyes and the video device 1 in a predetermined positional relationship. Further, the virtual reality space data input device needs to include an image input device using an expensive artificial retina element. Second
The challenges of are as follows. The viewpoint input device requires the image processing device 3 in order to specify the position of the operator's viewpoint from the projected image. In the virtual reality space data input device, the artificial retina element recognizes the operator's finger, but the artificial retina element performs special image processing for recognition.

【0009】従って、本発明の他の目的は、専用の映像
入力装置を備えたり、特別な画像処理を行うことなく、
一般的なテレビ電話が有する画像入力装置や画像圧縮装
置の機能を利用して、非接触操作的に命令の入力を行う
ことができる非接触操作入力装置を提供することであ
る。
Therefore, another object of the present invention is to provide a dedicated video input device and perform no special image processing,
An object of the present invention is to provide a non-contact operation input device capable of inputting a command in a non-contact operation by utilizing the functions of an image input device and an image compression device included in a general videophone.

【0010】(第3の従来例における課題)上記第3の
従来例におけるテレビ電話では、以下に示す課題が存在
する。子画面の表示位置が固定されているため、ピクチ
ャインピクチャ機能を有するテレビ電話において、鮮明
領域を移動する場合には、鮮明領域が子画面に隠れてし
まうことがある。
(Problems in Third Conventional Example) The video telephone in the third conventional example has the following problems. Since the display position of the small screen is fixed, in a videophone having a picture-in-picture function, when the clear area is moved, the clear area may be hidden by the small screen.

【0011】従って、本発明の他の目的は、鮮明領域を
移動する場合にも、当該鮮明領域が子画面に隠れてしま
わないような、ピクチャインピクチャ機能を有するテレ
ビ電話を提供することである。
Therefore, another object of the present invention is to provide a videophone having a picture-in-picture function so that the clear area is not hidden by the small screen even when the clear area is moved. .

【0012】[0012]

【課題を解決するための手段および発明の効果】以下に
は、上記目的を達成するための本発明の構成を示すが、
後述する実施形態との対応関係を明確にするために、本
発明で採用される各構成要素には、対応する部分の参照
番号を付しておく。ただし、この参照番号は、あくまで
も理解を容易にするためおよび参考のために付されるの
であって、本発明の請求の範囲を限定的に解釈するもの
ではないことを予め指摘しておく。
Means for Solving the Problems and Effects of the Invention The structure of the present invention for achieving the above object will be described below.
In order to clarify the correspondence relationship with the embodiments described later, each constituent element adopted in the present invention is provided with the corresponding reference numeral. However, it should be pointed out in advance that the reference numbers are given only for easy understanding and for reference, and do not limit the scope of the claims of the present invention.

【0013】第1の発明は、鮮明領域内の、予め決めら
れたブロックの動きベクトルに基づいて、新たな鮮明領
域を決定することにより、移動する被写体を、常に鮮明
領域内に捉えることができる動き追跡機能付きテレビ電
話であって、動画像の入力を行う画像入力手段(11)
と、画像入力手段(11)により入力された画像フレー
ムを格納するフレーム格納手段(12)と、フレーム格
納手段(12)に格納された画像フレームを符号化し、
かつ当該フレームを構成しているブロックの動きベクト
ルを検出する画像符号化手段(14)と、画像符号化手
段(14)が検出した動きベクトルのうち、予め決めら
れたブロックの動きベクトルに基づいて、フレーム格納
手段(12)に格納されている画像フレーム内の所定の
領域を、被写体を表示するための鮮明領域に決定して、
当該フレームの鮮明領域/劣化領域の位置情報を出力す
る鮮明領域決定手段(16)と、鮮明領域決定手段(1
6)が出力した位置情報に基づいて、当該フレームの劣
化領域を鮮明領域よりも画質を劣化させて符号化するよ
う、画像符号化手段(14)を制御する符号化制御手段
(15)と、画像符号化手段(14)により符号化され
た画像フレームを送信する通信手段(18)とを備えて
いる。
According to the first aspect of the present invention, a moving object can always be captured in a clear area by determining a new clear area based on a motion vector of a predetermined block in the clear area. An image input means (11) for inputting a moving image, which is a videophone with a motion tracking function.
A frame storage means (12) for storing an image frame input by the image input means (11), and an image frame stored in the frame storage means (12) are encoded,
Further, based on the image coding means (14) for detecting the motion vector of the block forming the frame and the motion vector of the predetermined block among the motion vectors detected by the image coding means (14). , A predetermined area in the image frame stored in the frame storage means (12) is determined as a clear area for displaying the subject,
A clear area determination means (16) for outputting position information of a clear area / degraded area of the frame, and a clear area determination means (1
6) encoding control means (15) for controlling the image encoding means (14) so as to encode the deteriorated area of the frame with the image quality deteriorated more than that of the clear area; And a communication unit (18) for transmitting the image frame encoded by the image encoding unit (14).

【0014】上記のように、第1の発明では、画像入力
手段は、被写体および背景部分からなる画像フレームの
入力を行う。フレーム格納手段は、画像入力手段により
入力された画像フレームを格納する。画像符号化手段
は、フレーム格納手段に格納されたフレームを符号化
し、かつ当該フレームを構成しているブロックの動きベ
クトルを検出する。鮮明領域決定手段は、画像符号化手
段が検出した動きベクトルのうち、鮮明領域内の予め決
められたブロックの動きベクトルに基づいて、新たな鮮
明領域を決定し、鮮明領域/劣化領域の位置情報を出力
する。符号化制御手段は、鮮明領域決定手段が出力した
位置情報に基づいて、画像符号化手段を制御する。画像
符号化手段は、符号化制御手段の制御に応じて、劣化領
域を鮮明領域よりも画質を劣化させて符号化する。通信
手段は、画像符号化手段が符号化した画像フレームを送
信する。
As described above, according to the first aspect of the invention, the image input means inputs the image frame including the subject and the background portion. The frame storage means stores the image frame input by the image input means. The image encoding means encodes the frame stored in the frame storage means and detects a motion vector of a block forming the frame. The sharp area determination means determines a new clear area based on the motion vector of a predetermined block in the clear area among the motion vectors detected by the image coding means, and position information of the clear area / degraded area. Is output. The encoding control means controls the image encoding means based on the position information output by the clear area determination means. The image encoding means encodes the deteriorated area with the image quality deteriorated as compared with the clear area under the control of the encoding control means. The communication means transmits the image frame encoded by the image encoding means.

【0015】このように、画像フレームを鮮明領域/劣
化領域に区別することで、劣化領域からの情報発生量を
減らすことができる。また、鮮明領域内の所定のブロッ
クの動きベクトルに基づいて、新たな鮮明領域を決定す
ることにより、被写体が移動する場合にも、当該被写体
を常に鮮明領域内にとどめることができる。
As described above, the amount of information generated from the deteriorated area can be reduced by distinguishing the image frame into the clear area / the deteriorated area. Further, by determining a new clear region based on the motion vector of a predetermined block in the clear region, even when the subject moves, the subject can always be kept in the clear region.

【0016】第2の発明は、第1の発明において、符号
化制御手段(15)は、画像符号化手段(14)が、当
該フレームの劣化領域を符号化しないよう制御すること
を特徴としている。
A second invention is characterized in that, in the first invention, the coding control means (15) controls the image coding means (14) so as not to code the deteriorated area of the frame. .

【0017】上記のように、第2の発明は、第1の発明
において、符号化制御手段は、画像符号化手段が劣化領
域を符号化しないように制御する。これにより、劣化領
域が符号化されないため、発生情報量をさらに削減でき
る。また、背景部分を伝送しないため、通話者のプライ
バシーを保護できる。
As described above, in the second invention according to the first invention, the coding control means controls the image coding means so as not to code the deteriorated area. As a result, since the deteriorated area is not encoded, the amount of generated information can be further reduced. Also, since the background portion is not transmitted, the privacy of the caller can be protected.

【0018】第3の発明は、第1の発明において、フレ
ーム格納手段(12)に格納された画像フレームに、色
付けをする背景色入力手段(13)をさらに備え、符号
化制御手段(15)は、さらに、背景色入力手段(1
3)が、鮮明領域決定手段(16)が出力した位置情報
に基づいて、当該フレームの劣化領域に色付けするよう
制御することを特徴としている。
In a third aspect based on the first aspect, a background color input means (13) for coloring the image frame stored in the frame storage means (12) is further provided, and an encoding control means (15). Is the background color input means (1
3) is characterized by performing control so that the deteriorated area of the frame is colored based on the position information output by the clear area determination means (16).

【0019】上記のように、第3の発明は、第1の発明
に加えて、さらに背景色入力手段を備えている。符号化
制御手段は、さらに、背景色入力手段が、劣化領域を色
付けするよう制御する。このように、背景部分を同一色
で塗りつぶすことで、発生情報量を減らすことができ
る。また、背景部分は、指定された色で埋められるた
め、画面の見かけを良くできるとともに、通話者のプラ
イバシーを保護できる。
As described above, in addition to the first invention, the third invention further comprises background color input means. The encoding control means further controls the background color input means to color the degraded area. Thus, by filling the background portion with the same color, the amount of generated information can be reduced. Further, since the background portion is filled with the designated color, the appearance of the screen can be improved and the privacy of the caller can be protected.

【0020】第4の発明は、第1〜3の発明において、
画像符号化手段(14)により符号化された画像データ
に、誤り訂正符号を付加する誤り訂正制御手段(17)
をさらに備え、符号化制御手段(15)は、さらに、誤
り訂正制御手段(17)が、鮮明領域決定手段(16)
が出力した位置情報に基づいて、鮮明領域に対して誤り
訂正能力の高い誤り訂正符号を、劣化領域に対しては誤
り訂正能力の低い誤り訂正符号を、それぞれ付加するよ
う制御することを特徴としている。
A fourth invention is the same as the first to third inventions,
Error correction control means (17) for adding an error correction code to the image data coded by the image coding means (14)
The coding control means (15) further includes an error correction control means (17), and a sharp area determination means (16).
Based on the position information output by, the control is performed such that an error correction code with high error correction ability is added to a clear area and an error correction code with low error correction ability is added to a deteriorated area. There is.

【0021】上記のように、第4の発明は、第1〜3の
発明に加えて、さらに誤り訂正制御手段を備えている。
符号化制御手段は、さらに、誤り訂正制御手段が、鮮明
領域の画像データに誤り訂正能力の高い誤り訂正符号
を、劣化領域の画像データには誤り訂正能力の低い誤り
訂正符号を符号を、それぞれ付加するよう制御する。こ
のように、符号化された画像データに、誤り訂正符号を
付加することで、伝送路で誤りが発生した場合でも、鮮
明領域だけは画質が劣化するのを防ぐことができる。ま
た、劣化領域には、鮮明領域よりも誤り訂正能力の低
い、すなわち、短い訂正符号を付加することで、伝送す
る情報量を少なくできる。
As described above, the fourth invention further comprises error correction control means in addition to the first to third inventions.
In the encoding control means, the error correction control means further applies an error correction code having a high error correction ability to the image data in the clear area and an error correction code having a low error correction ability to the image data in the deteriorated area. Control to add. In this way, by adding the error correction code to the encoded image data, it is possible to prevent the image quality from being deteriorated only in the clear area even when an error occurs in the transmission path. In addition, the amount of information to be transmitted can be reduced by adding a correction code having a lower error correction capability than the clear region, that is, by adding a short correction code to the degraded region.

【0022】第5の発明は、第1〜4の発明において、
鮮明領域決定手段(16)が動きベクトルを取得するブ
ロックの、鮮明領域内における位置は、画像フレーム内
における当該鮮明領域の位置に関連して定められること
を特徴としている。
A fifth aspect of the invention is the same as the first to fourth aspects of the invention.
The position in the clear region of the block from which the clear region determining means (16) acquires the motion vector is determined in relation to the position of the clear region in the image frame.

【0023】上記のように、第5の発明では、第1〜4
の発明において、鮮明領域決定手段が画像符号化手段を
介して動きベクトルを取得するブロックの、鮮明領域内
での位置は、当該鮮明領域での画像フレームの位置に応
じて、被写体が鮮明領域内に常に保持されるような位置
に定められている。これにより、被写体が移動する場合
にも、鮮明領域は、被写体を常に自己の内部に捉えなが
ら、被写体の動きに追従できる。
As described above, in the fifth invention, the first to fourth
In the invention, the position within the clear region of the block for which the clear region determining means acquires the motion vector via the image coding means is such that the object is within the clear region according to the position of the image frame in the clear region. It is set in such a position that it will always be held. Accordingly, even when the subject moves, the clear area can follow the movement of the subject while always capturing the subject inside itself.

【0024】第6の発明は、第1〜4の発明において、
鮮明領域決定手段(16)が動きベクトルを取得するブ
ロックの、鮮明領域内における位置は、当該鮮明領域
が、画像フレームの右端に位置する場合は、当該鮮明領
域の左端に、画像フレームの左端に位置する場合は、当
該鮮明領域の右端に、画像フレームの上端に位置する場
合は、当該鮮明領域の下端に、画像フレームの下端に位
置する場合は、当該鮮明領域の上端に定められることを
特徴としている。
A sixth aspect of the invention is the same as the first to fourth aspects of the invention.
The position in the clear region of the block for which the clear region determining means (16) acquires a motion vector is located at the left end of the clear region and at the left end of the image frame when the clear region is located at the right end of the image frame. If it is located, it is defined at the right end of the clear area, at the lower end of the clear area if it is located at the upper edge of the image frame, and at the upper end of the clear area if it is located at the lower edge of the image frame. I am trying.

【0025】上記のように、第6の発明では、第1〜4
の発明において、鮮明領域決定手段が動きベクトルを取
得するブロックの鮮明領域内での位置は、被写体が画像
フレームの中央付近から画像フレームの右端へ移動し、
さらに画像フレームの右外側にはみ出して、再びフレー
ムの右外側からフレーム内に戻る場合に対応するため
に、鮮明領域の左端に定められる。すなわち、被写体の
動きに応じて、鮮明領域は、画像フレームの右端にあ
る。このとき、動きベクトルを検出するブロックが鮮明
領域の中央にあれば、右側からフレーム内に戻る被写体
の左端の動きベクトルを検出して、移動を開始してしま
う。従って、鮮明領域は、被写体の左端のみを捉えた状
態で被写体の動きに追従する。
As described above, in the sixth invention, the first to fourth
In the invention, the position within the clear region of the block for which the clear region determining means obtains the motion vector is such that the subject moves from near the center of the image frame to the right end of the image frame,
Further, it is defined at the left end of the sharp area in order to correspond to the case of protruding outside the right side of the image frame and returning to the inside from the right outside of the frame again. That is, the clear region is at the right end of the image frame according to the movement of the subject. At this time, if the block for detecting the motion vector is in the center of the clear region, the motion vector at the left end of the subject returning from the right side into the frame is detected and the movement is started. Therefore, the clear region follows the movement of the subject while capturing only the left end of the subject.

【0026】そこで、上記の場合には、動きベクトルを
検出するブロックを鮮明領域の左端に定めれば、被写体
を常に鮮明領域の中央に捕捉できる。被写体が、画像フ
レームの左外側、上外側および下外側にはみ出した場合
も同様に、上記のような位置に動きベクトルを検出する
ブロックを設定すれば、常に鮮明領域の中央に被写体を
捉えることができる。
Therefore, in the above case, if the block for detecting the motion vector is set at the left end of the clear area, the object can be always captured in the center of the clear area. Similarly, even if the subject extends to the left outer side, the upper outer side, and the lower outer side of the image frame, setting the block for detecting the motion vector at the position as described above will always capture the subject in the center of the clear area. it can.

【0027】第7の発明は、受信した画像フレームの鮮
明領域のみを、画質を劣化させずに表示し、劣化領域に
ついては、色付けして表示する受信側の動き追跡機能付
きテレビ電話であって、符号化された画像フレームを受
信する通信手段(18)と、通信手段(18)が受信し
た、符号化された画像フレームを復号化し、かつ当該フ
レームを構成しているブロックの動きベクトルを検出す
る画像復号化手段(701)と、画像復号化手段(70
1)の復号化により得られた画像フレームを格納するフ
レーム格納手段(12)と、画像復号化手段(701)
が検出した動きベクトルに基づいて、フレーム格納手段
(12)に格納された画像フレームの鮮明領域を判定し
て、当該フレームの鮮明領域/劣化領域の位置情報を出
力する鮮明領域判定手段(704)と、フレーム格納手
段(12)に格納された画像フレームを、指定された色
で色付けする背景色入力手段(13)と、鮮明領域判定
手段(704)が出力した位置情報に基づいて、当該フ
レームの劣化領域を色付けするよう、背景色入力手段
(13)を制御する復号化制御手段(703)と、フレ
ーム格納手段(12)に格納された画像フレームを表示
する画像表示手段(702)とを備えている。
A seventh aspect of the present invention is a videophone with a motion tracking function on the receiving side, which displays only a clear area of a received image frame without degrading the image quality and displays the deteriorated area in color. A communication means (18) for receiving the coded image frame, decoding the coded image frame received by the communication means (18), and detecting a motion vector of a block forming the frame. Image decoding means (701) and image decoding means (70)
Frame storing means (12) for storing the image frame obtained by the decoding of 1), and image decoding means (701)
A clear area determination means (704) for determining a clear area of the image frame stored in the frame storage means (12) on the basis of the motion vector detected by, and outputting position information of the clear area / degraded area of the frame. And a background color input means (13) for coloring the image frame stored in the frame storage means (12) with a designated color, and the position information output by the clear area determination means (704). A decoding control means (703) for controlling the background color input means (13) and an image display means (702) for displaying the image frames stored in the frame storage means (12) so as to color the deteriorated area of I have it.

【0028】上記のように、第7の発明では、通信手段
は、送信側端末が送信した画像フレームを受信する。画
像復号化手段は、通信手段が受信した画像フレームを復
号化し、かつ画像フレームを構成するブロックの動きベ
クトルを検出する。フレーム格納手段は、画像復号化手
段が復号化した画像フレームを格納する。鮮明領域判定
手段は、画像復号化手段が検出した動きベクトルに基づ
いて、鮮明領域/劣化領域の位置情報を出力する。復号
化制御手段は、鮮明領域判定手段が出力した位置情報に
基づいて、背景色入力手段を制御する。背景色入力手段
は、復号化制御手段の制御により、フレーム格納手段に
格納されたフレームの劣化領域に対して色付けする。表
示手段は、画像フレーム格納手段に格納された画像フレ
ームを表示する。
As described above, in the seventh aspect, the communication means receives the image frame transmitted by the transmitting side terminal. The image decoding means decodes the image frame received by the communication means and detects a motion vector of a block forming the image frame. The frame storage means stores the image frame decoded by the image decoding means. The clear area determination means outputs the position information of the clear area / degraded area based on the motion vector detected by the image decoding means. The decoding control means controls the background color input means based on the position information output by the clear area determination means. The background color input means colors the deteriorated area of the frame stored in the frame storage means under the control of the decoding control means. The display means displays the image frame stored in the image frame storage means.

【0029】このように、背景部分は、指定された色で
埋められるため、画面の見かけをよくできるとともに、
通話者のプライバシーを保護できる。また、色付けを受
信側で行うことで、送信側での符号化の処理を軽減でき
る。さらに、鮮明領域のみを符号化して伝送する動き追
跡機能付きテレビ電話と接続されている場合、受信側の
テレビ電話が劣化領域を色付けするため、劣化領域の色
に関する情報を伝送する必要がない。従って、送信側の
テレビ電話が色付けを行うよりも、伝送される情報量が
少なくなる。
As described above, since the background portion is filled with the designated color, the appearance of the screen can be improved and
The privacy of the caller can be protected. Also, by performing coloring on the receiving side, the coding processing on the transmitting side can be reduced. Furthermore, when connected to a videophone with a motion tracking function that encodes and transmits only the clear area, the receiving side videophone colors the degraded area, and therefore it is not necessary to transmit information regarding the color of the degraded area. Therefore, the amount of information to be transmitted is smaller than that in which the transmitting videophone performs coloring.

【0030】第8の発明は、受信した画像フレームに子
画面を重ねて表示するピクチャインピクチャ機能を有す
るテレビ電話であって、符号化された画像フレームを受
信する通信手段(18)と、通信手段(18)が受信し
た、符号化された画像フレームを復号化し、かつ当該フ
レームを構成しているブロックの動きベクトルを検出す
る画像復号化手段(701)と、画像復号化手段(70
1)が検出した動きベクトルに基づいて、画像復号化手
段(701)が復号化した画像フレーム内の鮮明領域を
判定して、当該フレームの鮮明領域の位置情報を出力す
る鮮明領域判定手段(704)と、鮮明領域判定手段
(704)が出力した位置情報に基づいて、子画面の位
置を決定して、当該子画面の位置情報を出力するピクチ
ャインピクチャ位置決定手段(1303)と、子画面に
表示される画像と、相手のテレビ電話端末に送信される
画像とを入力する画像入力手段(11)と、鮮明領域判
定手段(704)が出力した位置情報と、ピクチャイン
ピクチャ位置決定手段(1303)が出力した位置情報
とに基づいて、画像復号化手段(701)が復号化して
得られた画像フレームと、画像入力手段(11)が入力
した、子画面に表示される画像とを合成して、ピクチャ
インピクチャ位置決定手段(1303)が決定した位置
に子画面を含むピクチャインピクチャ画像を作成するピ
クチャインピクチャ作成手段(1301)と、ピクチャ
インピクチャ作成手段(1301)が作成したピクチャ
インピクチャ画像を表示する画像表示手段(702)と
を備えている。
An eighth aspect of the present invention is a videophone having a picture-in-picture function for superimposing a small screen on a received image frame and displaying the image frame, and communicates with a communication means (18) for receiving the encoded image frame. An image decoding means (701) for decoding the encoded image frame received by the means (18) and detecting a motion vector of a block forming the frame, and an image decoding means (70).
Based on the motion vector detected by 1), the image decoding means (701) determines the clear area in the image frame decoded, and the clear area determining means (704) outputs the position information of the clear area of the frame. ) And the picture-in-picture position determining means (1303) that determines the position of the child screen based on the position information output by the clear area determination means (704) and outputs the position information of the child screen. Image input means (11) for inputting the image displayed on the screen and the image transmitted to the other party's videophone terminal, the position information output by the clear area determination means (704), and the picture-in-picture position determination means ( The image frame obtained by decoding by the image decoding means (701) based on the position information output by 1303) and displayed on the child screen input by the image input means (11). Picture-in-picture creating means (1301) and a picture-in-picture creating means (1301) for creating a picture-in-picture image including a child screen at the position determined by the picture-in-picture position determining means (1303). Image display means (702) for displaying the picture-in-picture image created by the above (1).

【0031】上記のように、第8の発明では、通信手段
は、送信側のテレビ電話により送信された、符号化され
た画像フレームを受信する。画像復号化手段は、通信手
段により受信された、符号化された画像フレームを復号
化し、かつ当該フレームを構成するブロックの動きベク
トルを検出する。鮮明領域判定手段は、画像復号化手段
が検出した動きベクトルに基づいて、鮮明領域を判定
し、当該鮮明領域の位置情報を出力する。画像入力手段
は、子画面に表示される画像と、相手のテレビ電話端末
に送信される画像とを入力する。ピクチャインピクチャ
位置決定手段は、鮮明領域判定手段が出力した位置情報
に基づいて、画像フレーム内の子画面の位置を決定す
る。ピクチャインピクチャ作成手段は、ピクチャインピ
クチャ位置決定手段が出力した子画面の位置情報に基づ
いて、画像復号化手段が復号化した画像フレーム(親画
面)と、画像入力手段により入力された、子画面に表示
される画像とを合成して、ピクチャインピクチャ位置決
定手段が決定した位置に子画面を含むピクチャインピク
チャ画像を出力する。画像表示手段は、ピクチャインピ
クチャ作成手段が作成したピクチャインピクチャ画像を
表示する。このように、鮮明領域の位置に応じて、子画
面の表示位置を移動することにより、鮮明領域が子画面
に隠れるのを防ぐことができる。
As described above, in the eighth aspect of the invention, the communication means receives the encoded image frame transmitted by the transmitting videophone. The image decoding means decodes the coded image frame received by the communication means and detects a motion vector of a block forming the frame. The clear area determination means determines a clear area based on the motion vector detected by the image decoding means, and outputs position information of the clear area. The image input means inputs an image displayed on the child screen and an image transmitted to the other party's videophone terminal. The picture-in-picture position determining means determines the position of the child screen within the image frame based on the position information output by the clear area determining means. The picture-in-picture creating means, based on the position information of the child screen output by the picture-in-picture position determining means, the image frame (parent screen) decoded by the image decoding means, and the child input by the image input means. The image displayed on the screen is combined with each other to output a picture-in-picture image including the child screen at the position determined by the picture-in-picture position determining means. The image display means displays the picture-in-picture image created by the picture-in-picture creating means. In this way, by moving the display position of the small screen in accordance with the position of the clear region, it is possible to prevent the clear region from being hidden by the small screen.

【0032】第9の発明は、受信した画像フレームに子
画面を重ねて表示するピクチャインピクチャ機能を有す
るテレビ電話であって、符号化された画像フレームを受
信する通信手段(18)と、通信手段(18)が受信し
た、符号化された画像フレームを復号化する画像復号化
手段(701)と、画像復号化手段(701)が復号化
した画像フレームを構成しているブロックが、それぞれ
差分情報を有するか否かを判定し、差分情報を有する場
合は、当該ブロックを有効マクロブロックと判別して、
当該ブロックの位置情報を出力する有効マクロブロック
判別手段(1302)と、有効マクロブロック判別手段
(1302)が出力した有効マクロブロックの位置情報
に基づいて、子画面の位置を決定し、当該子画面の位置
情報を出力するピクチャインピクチャ位置決定手段(1
303)と、子画面に表示される画像と、相手のテレビ
電話端末に送信される画像とを入力する画像入力手段
(11)と、有効マクロブロック判別手段(1302)
が出力する位置情報と、ピクチャインピクチャ位置決定
手段(1303)が出力する位置情報とに基づいて、画
像復号化手段(701)が復号化して得られた画像フレ
ームと、画像入力手段(11)が入力した、子画面に表
示される画像とを合成して、ピクチャインピクチャ位置
決定手段(1303)が決定した位置に子画面を含むピ
クチャインピクチャ画像を作成するピクチャインピクチ
ャ作成手段(1301)と、ピクチャインピクチャ作成
手段(1301)が作成したピクチャインピクチャ画像
を表示する画像表示手段(702)とを備えている。
A ninth aspect of the present invention is a videophone having a picture-in-picture function for superimposing a small screen on a received image frame and displaying the image frame, and communicates with a communication means (18) for receiving the encoded image frame. The image decoding means (701) for decoding the encoded image frame received by the means (18) and the blocks constituting the image frame decoded by the image decoding means (701) are different from each other. It is determined whether or not the information is included, and when the difference information is included, the block is determined as a valid macroblock,
Based on the effective macroblock discriminating means (1302) which outputs the positional information of the block and the effective macroblock positional information which is output by the effective macroblock discriminating means (1302), the position of the small screen is determined, In-picture position determining means (1
303), an image displayed on the child screen, and an image transmitted to the other party's videophone terminal, image input means (11), and effective macroblock discrimination means (1302).
The image frame obtained by decoding by the image decoding means (701) based on the position information output by the image in-picture position determining means (1303) and the position information output by the picture-in-picture position determining means (1303), and the image input means (11). A picture-in-picture creating unit (1301) that creates a picture-in-picture image including the child screen at the position determined by the picture-in-picture position determining unit (1303) by combining the image displayed on the child screen input by And an image display means (702) for displaying the picture-in-picture image created by the picture-in-picture creating means (1301).

【0033】上記のように、第9の発明では、通信手段
は、送信側のテレビ電話により送信され、かつ符号化さ
れた画像フレームを受信する。画像復号化手段は、通信
手段により受信された、符号化された画像フレームを復
号化する。有効マクロブロック判別手段は、画像復号化
手段が復号化した画像フレームを構成している各ブロッ
クが、差分情報を有するか否かをを判定し、差分情報を
有するブロックを有効マクロブロックと判別して、その
ブロックの位置情報を出力する。画像入力手段は、子画
面に表示される画像と、相手のテレビ電話に送信される
画像とを入力する。ピクチャインピクチャ位置決定手段
は、有効マクロブロック判別手段が出力した有効マクロ
ブロックの位置情報に基づいて、画像フレーム内の子画
面の位置を決定する。ピクチャインピクチャ作成手段
は、ピクチャインピクチャ位置決定手段が出力した位置
情報に基づいて、画像復号化手段が復号化した画像フレ
ーム(親画面)と、画像入力手段により入力された、子
画面に表示される画像とを合成して、ピクチャインピク
チャ位置決定手段が決定した位置に子画面を含むピクチ
ャインピクチャ画像を出力する。画像表示手段は、ピク
チャインピクチャ作成手段が作成したピクチャインピク
チャ画像を表示する。有効マクロブロックは、被写体の
位置でその多くが検出されるため、このように、有効マ
クロブロックの位置に応じて、子画面の表示位置を移動
することにより、被写体が子画面に隠れるのを防ぐこと
ができる。
As described above, in the ninth invention, the communication means receives the image frame transmitted and encoded by the transmitting videophone. The image decoding means decodes the encoded image frame received by the communication means. The effective macroblock determination means determines whether or not each block forming the image frame decoded by the image decoding means has difference information, and determines that the block having difference information is an effective macroblock. Then, the position information of the block is output. The image input means inputs an image displayed on the small screen and an image transmitted to the other party's videophone. The picture-in-picture position determining means determines the position of the child screen in the image frame based on the position information of the valid macroblock output by the valid macroblock determining means. The picture-in-picture creating means displays the image frame (parent screen) decoded by the image decoding means on the basis of the position information output by the picture-in-picture position determining means, and the child screen input by the image inputting means. The picture-in-picture image including the child screen is output at the position determined by the picture-in-picture position determining means. The image display means displays the picture-in-picture image created by the picture-in-picture creating means. Since many effective macroblocks are detected at the position of the subject, by thus moving the display position of the sub-screen according to the position of the effective macroblock, the subject is prevented from being hidden by the sub-screen. be able to.

【0034】第10の発明は、画像フレーム内の予め定
められた位置にある画素を、操作者の動作に追従して移
動する鮮明領域が含むことにより、操作者は、当該画素
に対応する入力項目を非接触的に選択することができる
非接触操作入力装置であって、動画像の入力を行う画像
入力手段(11)と、画像入力手段(11)により入力
された画像フレームを格納するフレーム格納手段(1
2)と、フレーム格納手段(12)に格納された画像フ
レームを符号化し、かつ当該フレームを構成するブロッ
クの動きベクトルを検出する画像符号化手段(14)
と、画像符号化手段(14)が出力する動きベクトルに
基づいて、フレーム格納手段(12)に格納された画像
フレーム内の所定の領域を、被写体を表示するための鮮
明領域に決定して、当該フレームの鮮明領域の位置情報
を出力する鮮明領域決定手段(16)と、画像フレーム
内の1以上の画素の位置情報を格納し、当該画素の位置
情報と、鮮明領域決定手段(16)によって出力される
位置情報とに基づいて、鮮明領域が当該画素を含むか否
かを判定し、含む場合は、当該画素の位置情報を出力す
る領域位置判定手段(905)と、領域位置判定手段
(905)が出力した位置情報に応じて、操作命令を選
択する操作制御手段(906)とを備えている。
According to a tenth aspect of the present invention, the pixel located at a predetermined position in the image frame is included in a clear region which moves following the motion of the operator, so that the operator can make an input corresponding to the pixel. A non-contact operation input device capable of non-contact selection of items, the image input unit (11) for inputting a moving image, and a frame for storing an image frame input by the image input unit (11). Storage means (1
2) and an image coding means (14) for coding the image frame stored in the frame storage means (12) and detecting a motion vector of a block forming the frame.
And a predetermined area in the image frame stored in the frame storage means (12) is determined as a clear area for displaying the subject based on the motion vector output from the image encoding means (14), A clear area determining unit (16) that outputs position information of a clear area of the frame, and position information of one or more pixels in the image frame are stored, and the position information of the pixel and the clear area determining unit (16) are used. Based on the output position information, it is determined whether or not the clear region includes the pixel, and if it includes, the region position determining unit (905) that outputs the position information of the pixel and the region position determining unit ( Operation control means (906) for selecting an operation command in accordance with the position information output by (905).

【0035】上記のように、第10の発明では、画像入
力手段は、動画像の入力を行う。フレーム格納手段は、
画像入力手段により入力された画像フレームを格納す
る。画像符号化手段は、フレーム格納手段が格納してい
る画像フレームを符号化し、かつ当該画像フレーム構成
するブロックの動きベクトルを検出する。鮮明領域決定
手段は、画像符号化手段が検出した動きベクトルに基づ
いて、フレーム格納手段に格納されたフレームの所定の
領域を鮮明領域に決定し、その位置情報を出力する。領
域位置判定手段は、鮮明領域決定手段が出力した鮮明領
域の位置情報と、自己の格納している画像フレーム内の
特定の画素の位置情報とを比較して、鮮明領域が特定の
画素を含むか否かを判定し、含む場合には、当該画素の
位置情報を出力する。操作制御手段は、領域位置判定手
段が出力した位置情報に応じて、操作命令を選択する。
このように、操作者の動きに応じて鮮明領域を移動し
て、鮮明領域が特定の画素を含むようにする。このとき
に、当該画素の位置情報を送信することにより、当該画
素の位置情報に対応する命令を、非接触操作的に入力す
ることができる。
As described above, in the tenth aspect, the image input means inputs a moving image. The frame storage means
The image frame input by the image input means is stored. The image encoding means encodes the image frame stored in the frame storage means and detects a motion vector of a block constituting the image frame. The clear area determination means determines a predetermined area of the frame stored in the frame storage means as a clear area based on the motion vector detected by the image coding means, and outputs the position information. The area position determination means compares the position information of the clear area output by the clear area determination means with the position information of the specific pixel in the image frame stored in itself, and the clear area includes the specific pixel. If it is included, the position information of the pixel is output. The operation control means selects an operation command according to the position information output by the area position determination means.
In this way, the clear area is moved according to the movement of the operator so that the clear area includes a specific pixel. At this time, by transmitting the position information of the pixel, a command corresponding to the position information of the pixel can be input in a non-contact operation.

【0036】第11の発明は、第10の発明において、
鮮明領域決定手段(16)が出力した位置情報と、領域
位置判定手段(905)が格納している画素の位置情報
とに基づいて、当該画素を含む位置に、入力項目を表現
する文字/図形情報が、鮮明領域の位置には、鮮明領域
/劣化領域の境界線が表示された操作画面を作成して、
当該操作画面を出力する操作画面出力手段(902)
と、操作画面出力手段(902)が出力する操作画面を
表示する画像表示手段(702)とをさらに備えてい
る。
An eleventh invention is the tenth invention, wherein
A character / graphic representing an input item at a position including the pixel based on the position information output by the clear area determination unit (16) and the position information of the pixel stored in the region position determination unit (905). For information, create an operation screen that displays the boundary of the clear area / degraded area at the position of the clear area,
Operation screen output means (902) for outputting the operation screen
And an image display unit (702) for displaying the operation screen output by the operation screen output unit (902).

【0037】上記のように、第11の発明では、第10
の発明において、操作面出力手段と画像表示手段とをさ
らに備えている。操作画面出力手段は、鮮明領域決定手
段が出力した鮮明領域の位置情報と、領域位置判定手段
が格納している、特定の画素の位置情報に基づいて、特
定の画素の位置に入力命令を表す文字や図形を表示し、
さらに、それらの文字や図形を選ぶための選択領域も重
ねて表示した操作画面を作成する。画像表示手段は、操
作画面出力手段が作成した操作画面を表示する。これに
より、操作者の入力操作を視覚化することができ、従っ
て、非接触入力をより容易に行うことができる。
As described above, in the eleventh invention, the tenth invention is provided.
The invention further includes an operation surface output means and an image display means. The operation screen output means represents an input command at the position of a specific pixel based on the position information of the clear area output by the clear area determination means and the position information of the specific pixel stored in the area position determination means. Display characters and figures,
Further, an operation screen is also displayed in which selection areas for selecting those characters and figures are displayed in an overlapping manner. The image display means displays the operation screen created by the operation screen output means. Thereby, the input operation of the operator can be visualized, and thus the non-contact input can be performed more easily.

【0038】[0038]

【発明の実施の形態】BEST MODE FOR CARRYING OUT THE INVENTION

(第1の実施形態)以下には、本発明の第1の実施形態
について、図面を参照しながら説明する。図1は、本発
明の第1の実施形態に係る動き追跡機能付きテレビ電話
の構成を示す図である。図1において、動き追跡機能付
きテレビ電話は、画像入力部11、フレーム格納部1
2、背景色入力部13、画像符号化部14、符号化制御
部15、鮮明領域決定部16、誤り訂正制御部17およ
び通信部18を備えている。
(First Embodiment) A first embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a diagram showing the configuration of a videophone with a motion tracking function according to the first embodiment of the present invention. In FIG. 1, a videophone with a motion tracking function includes an image input unit 11 and a frame storage unit 1.
2, a background color input unit 13, an image coding unit 14, a coding control unit 15, a clear area determination unit 16, an error correction control unit 17, and a communication unit 18.

【0039】図1の画像入力部11は、画像フレームの
入力を行う。フレーム格納部12は、画像入力部11か
ら入力された画像フレームを格納する。背景色入力部1
3は、フレーム格納部12に格納されている画像フレー
ムの背景部分(劣化領域)に、指定された色で色付けを
行う。すなわち、フレーム格納部12に格納されている
画像フレームを構成しているブロックのうち、劣化領域
に該当するブロックに、指定された色を表わす情報を格
納する。画像符号化部14は、フレーム格納部12に格
納されている画像フレームを符号化し、かつ当該フレー
ムを構成するブロックの動きベクトルを検出する。ここ
では、ITU勧告H.261で定められた符号化方法を
想定している。鮮明領域決定部16は、画像符号化部1
4が出力する動きベクトルのうち、予め決められたブロ
ックの動きベクトルに基づいて、鮮明領域とそれ以外の
領域(劣化領域)との境界を設定し、その位置情報を出
力する。誤り訂正制御部17は、鮮明領域に誤り訂正能
力の高い誤り訂正符号を、劣化領域には誤り訂正能力の
低い誤り訂正符号を付加する。符号化制御部15は、鮮
明領域決定部16が出力する位置情報に基づいて、背景
色入力部13、画像符号化部14および誤り訂正制御部
17が、鮮明領域/劣化領域に応じた適切な処理を行う
よう制御する。通信部18は、指定された伝送レート
で、誤り訂正制御部17が出力する画像データの送信を
行う。
The image input section 11 in FIG. 1 inputs an image frame. The frame storage unit 12 stores the image frame input from the image input unit 11. Background color input section 1
In No. 3, the background portion (deteriorated area) of the image frame stored in the frame storage unit 12 is colored with the designated color. That is, the information representing the designated color is stored in the block corresponding to the deteriorated area among the blocks forming the image frame stored in the frame storage unit 12. The image encoding unit 14 encodes the image frame stored in the frame storage unit 12 and detects a motion vector of a block forming the frame. Here, ITU Recommendation H.264. The encoding method defined by H.261 is assumed. The clear area determination unit 16 includes the image encoding unit 1
Based on the motion vector of a predetermined block among the motion vectors output by 4, the boundary between the clear region and the other region (deteriorated region) is set, and the position information is output. The error correction control unit 17 adds an error correction code having a high error correction ability to the clear area and an error correction code having a low error correction ability to the deteriorated area. The encoding control unit 15 determines whether the background color input unit 13, the image encoding unit 14, and the error correction control unit 17 are suitable for the clear region / deteriorated region based on the position information output by the clear region determination unit 16. Control to perform processing. The communication unit 18 transmits the image data output by the error correction control unit 17 at the designated transmission rate.

【0040】以下には、図1の画像符号化部14の符号
化方法について、図2を用いて説明する。図2は、図1
の画像符号化部14の構成を示す図である。図2におい
て、動画像入力端子141から、時間的に連続する複数
のフレームで構成される、ディジタル化された動画像信
号が入力される。変換部142は、画像信号入力端子1
41から入力される動画像フレームを8画素*8画素の
ブロックに分割して、ブロック単位で出力する。これに
より、1フレームは、X方向22*Y方向18(画像サ
イズをQCIF:Quater Common Int
ermediate Formatとした場合)のブロ
ックに分割される。以下の処理では、カラー画像の場合
には、6つのブロック(輝度情報を持つ4つの輝度ブロ
ックおよび色差情報を持つ2つの色差ブロック)からな
るマクロブロックを処理の単位とする。以下では、この
マクロブロックを単にブロックと呼ぶ。
The coding method of the image coding unit 14 of FIG. 1 will be described below with reference to FIG. FIG. 2 shows FIG.
It is a figure which shows the structure of the image coding part 14 of FIG. In FIG. 2, a digitized moving image signal composed of a plurality of temporally continuous frames is input from a moving image input terminal 141. The conversion unit 142 uses the image signal input terminal 1
The moving image frame input from 41 is divided into blocks of 8 pixels * 8 pixels and output in block units. As a result, one frame includes 22 in the X direction and 18 in the Y direction (the image size is QCIF: Quater Common Int
ermediate Format). In the following processing, in the case of a color image, a macro block including six blocks (four luminance blocks having luminance information and two color difference blocks having color difference information) is used as a processing unit. Hereinafter, this macro block is simply called a block.

【0041】フレームメモリ14dは、2フレーム分の
画像を記憶する記憶領域を有している。このうちの1フ
レーム分の記憶領域に、加算部14bから出力される、
現在符号化されているフレームをブロック単位で記憶
し、もう1フレーム分の記憶領域には、上記フレームの
1つ前の再生フレーム(参照フレーム)を記憶する。動
きベクトル探索部14eは、フレームメモリ14dが記
憶している参照フレームから、変換部142が出力する
ブロックと最もよく似ているブロック(すなわち、差分
誤差が最も小さいブロック)を検索し、検索したブロッ
クを指し示すベクトル(動きベクトル)を出力する。ち
なみに、ITU勧告H.261では、動きベクトルの探
索範囲は、符号化対象ブロックの周囲±15画素の範囲
内と規定されている。
The frame memory 14d has a storage area for storing images for two frames. Output from the adder 14b to the storage area for one frame of these,
The currently encoded frame is stored in block units, and the reproduction frame (reference frame) immediately preceding the above frame is stored in the storage area for another frame. The motion vector search unit 14e searches the reference frame stored in the frame memory 14d for a block most similar to the block output by the conversion unit 142 (that is, a block having the smallest difference error), and the searched block. The vector (motion vector) that points to is output. By the way, ITU Recommendation H.264. In H.261, the motion vector search range is defined to be within ± 15 pixels around the target block.

【0042】動き補償部14fは、動きベクトル探索部
14eが出力した動きベクトルに基づいて、フレームメ
モリ14dに記憶された参照フレーム内のどのブロック
が、現在符号化されているブロックに相当するかを予測
し、予測したブロックの画像データ(予測値)を、差分
部144および加算部14bに対して出力する。差分部
144は、変換部142が出力する符号化対象ブロック
の画像データと、動き補償部14fから与えられる予測
値との差分を求め、求めた差分を直交変換部146に出
力する。上記差分は、符号化対象ブロックの画像データ
と予測値との差分であることから、予測誤差と呼ばれ
る。直交変換部146は、差分部144が出力した予測
誤差を直交変換して、量子化部147に出力する。量子
化部147は、直交変換された予測誤差を量子化して、
逆量子化部148および可変長符号化部14aに対して
出力する。逆量子化部148は、量子化された予測誤差
を逆量子化して、逆直交変換部149に対して出力す
る。逆直交変換部149は、直交変換された予測誤差を
逆直交変換して、加算部14bに出力する。
The motion compensation unit 14f determines which block in the reference frame stored in the frame memory 14d corresponds to the currently encoded block based on the motion vector output from the motion vector search unit 14e. The image data (predicted value) of the predicted and predicted block is output to the difference unit 144 and the addition unit 14b. The difference unit 144 obtains the difference between the image data of the encoding target block output by the transform unit 142 and the prediction value provided from the motion compensation unit 14f, and outputs the obtained difference to the orthogonal transform unit 146. The difference is called a prediction error because it is the difference between the image data of the block to be encoded and the prediction value. The orthogonal transformation unit 146 orthogonally transforms the prediction error output by the difference unit 144 and outputs the prediction error to the quantization unit 147. The quantizer 147 quantizes the orthogonally transformed prediction error,
It outputs to the inverse quantization unit 148 and the variable length coding unit 14a. The dequantization unit 148 dequantizes the quantized prediction error and outputs the dequantized prediction error to the inverse orthogonal transform unit 149. The inverse orthogonal transformation unit 149 inversely orthogonally transforms the prediction error that has been subjected to the orthogonal transformation, and outputs it to the addition unit 14b.

【0043】加算部14bは、逆直交変換部149が出
力した予測誤差と、動き補償部14fが出力した予測値
とを加算することによって、符号化対象ブロックを再生
し、再生した符号化対象ブロックをフレームメモリ14
dに出力する。可変長符号化部14aは、量子化部14
7が出力する、直行変換され、かつ量子化された予測誤
差を可変長符号化して、多重化部14iに出力する。差
分動きベクトル検出部14gは、動きベクトル探索部1
4eが出力する符号化対象ブロックの動きベクトルと、
その左隣のブロックの動きベクトルとの差分を求めて、
動きベクトル可変長符号化部14hに出力する。動きベ
クトル可変長符号化部14hは、差分動きベクトル検出
部14gが出力する差分動きベクトルを可変長符号化し
て、多重化部14iに出力する。
The adding unit 14b reproduces the coding target block by adding the prediction error output from the inverse orthogonal transforming unit 149 and the prediction value output from the motion compensating unit 14f, and the reproduced coding target block. The frame memory 14
Output to d. The variable length coding unit 14a includes a quantization unit 14
The orthogonally-transformed and quantized prediction error output from 7 is variable-length coded and output to the multiplexing unit 14i. The differential motion vector detection unit 14g includes the motion vector search unit 1
4e outputs the motion vector of the encoding target block,
Find the difference with the motion vector of the block to the left of it,
It outputs to the motion vector variable length coding unit 14h. The motion vector variable length coding unit 14h performs variable length coding on the differential motion vector output by the differential motion vector detection unit 14g, and outputs the variable motion vector to the multiplexing unit 14i.

【0044】符号化制御部143は、差分部144が出
力する予測誤差の大きさによって、スイッチ145およ
びスイッチ14cの接続を切り替える。すなわち、符号
化制御部143は、出力された予測誤差が予め設定され
ている値よりも大きい場合は、スイッチ145を1−3
の接続に、スイッチ14cを1−3の接続に、それぞれ
切り換える。このとき、画像符号化部14は、フレーム
内モードで符号化対象ブロックを符号化することにな
る。予測誤差が予め設定されている値よりも小さい場合
には、スイッチ145を2−3の接続に、スイッチ14
cを1−2の接続に、それぞれ切り換える。このときに
は、画像符号化部14は、フレーム間モードで符号化対
象ブロックを符号化することになる。
The coding control unit 143 switches the connection between the switch 145 and the switch 14c according to the magnitude of the prediction error output by the difference unit 144. That is, the encoding control unit 143 sets the switch 145 to 1-3 if the output prediction error is larger than a preset value.
Connection, and switch 14c is switched to connection 1-3. At this time, the image encoding unit 14 encodes the encoding target block in the intraframe mode. If the prediction error is smaller than the preset value, switch 145 to 2-3 connection, switch 14
c is switched to connection 1-2. At this time, the image encoding unit 14 encodes the encoding target block in the interframe mode.

【0045】符号化制御部143は、符号化対象ブロッ
クを符号化する時点での様々な要因を考慮して量子化値
を設定し、設定した量子化値を量子化部147に出力す
るとともに、当該ブロックをフレーム間モードで符号化
したのか、フレーム内モードで符号化したのかを示す符
号化モード識別符号や、量子化値などのサイド情報を多
重化部14iに出力する。多重化部14iは、可変長符
号化部14aが出力する予測誤差と、動きベクトル可変
長符号化部14hが出力する可変長符号化された差分動
きベクトルと、符号化制御部143が出力するサイド情
報とを多重化して、符号出力端子14jに出力する。
The coding control unit 143 sets the quantized value in consideration of various factors at the time of coding the target block, and outputs the set quantized value to the quantizing unit 147. The side information such as the coding mode identification code indicating whether the block is coded in the inter-frame mode or the intra-frame mode and the quantized value are output to the multiplexing unit 14i. The multiplexing unit 14i includes a prediction error output from the variable length encoding unit 14a, a variable length encoded difference motion vector output from the motion vector variable length encoding unit 14h, and a side output from the encoding control unit 143. Information is multiplexed and output to the code output terminal 14j.

【0046】以下には、図1の鮮明領域決定部16が鮮
明領域を決定する方法について、図1、3および4を参
照しながら説明する。図3は、図1の鮮明領域決定部1
6の構成を示す図である。図3において、鮮明領域決定
部16は、鮮明領域制御部161と動きベクトル格納部
162とを備えている。図4は、図3の動きベクトル格
納部162の格納内容を示す図である。図4に示すよう
に、動きベクトル格納部162は、各ブロックのブロッ
クアドレスおよび動きベクトルを格納する。
A method of determining the clear area by the clear area determining unit 16 of FIG. 1 will be described below with reference to FIGS. FIG. 3 shows the clear area determination unit 1 of FIG.
It is a figure which shows the structure of 6. In FIG. 3, the clear area determination unit 16 includes a clear area control unit 161 and a motion vector storage unit 162. FIG. 4 is a diagram showing the storage contents of the motion vector storage unit 162 of FIG. As shown in FIG. 4, the motion vector storage unit 162 stores the block address and motion vector of each block.

【0047】図3において、鮮明領域制御部161は、
画像符号化部14から鮮明領域の移動に用いるブロック
の動きベクトルが入力されると、当該ブロックの動きベ
クトルに基づいて鮮明領域を移動するか否かを判定し、
鮮明領域の移動が必要ならば、新たに鮮明領域と劣化領
域との境界を設定して、その位置情報を符号化制御部1
5に通知する。画像符号化部14は、符号化制御部15
の制御に応じて、各ブロックを符号化すると、各ブロッ
クの符号化モード識別符号、動きベクトルおよびブロッ
クアドレスを鮮明領域決定部16に対して出力する。鮮
明領域決定部16は、鮮明領域制御部161を介して、
画像符号化部14が出力した各ブロックの符号化モード
識別符号、動きベクトルおよびブロックアドレスのう
ち、ブロックアドレスおよび動きベクトルを動きベクト
ル格納部162に格納する。
In FIG. 3, the clear area control section 161
When the motion vector of the block used for moving the clear area is input from the image coding unit 14, it is determined whether or not to move the clear area based on the motion vector of the block,
If it is necessary to move the clear area, a new boundary between the clear area and the deteriorated area is newly set, and the position information thereof is encoded by the encoding control unit 1.
Notify 5 The image encoding unit 14 includes an encoding control unit 15
When each block is coded under the control of 1, the coding mode identification code, the motion vector, and the block address of each block are output to the clear area determination unit 16. The clear area determination unit 16 uses the clear area control unit 161 to
Of the coding mode identification code, the motion vector and the block address of each block output from the image coding unit 14, the block address and the motion vector are stored in the motion vector storage unit 162.

【0048】次に、鮮明領域が被写体の動きに追従する
様子を、鮮明領域の移動に用いるブロックをフレーム内
モードで符号化した場合と、フレーム間モードで符号化
した場合とに分けて、図5および6を参照しながら説明
する。図5は、鮮明領域の移動に用いるブロックをフレ
ーム内モードで符号化した場合の、フレーム内を鮮明領
域が移動する様子を、図6は、鮮明領域の移動に用いる
ブロックをフレーム間モードで符号化した場合の、フレ
ーム内を鮮明領域が移動する様子をそれぞれ示す図であ
る。なお、ここでは簡単のために、動きベクトルの方向
を右向きに限定する。また、図5および6において、網
掛けをしている領域は、鮮明領域の移動に用いるブロッ
クを表わしている。
Next, the manner in which the clear area follows the movement of the object is divided into two cases, one is when the block used for moving the clear area is encoded in the intra-frame mode and the other is encoded in the inter-frame mode. A description will be given with reference to 5 and 6. FIG. 5 shows a state in which the clear region moves within the frame when the block used for moving the clear region is encoded in the intra-frame mode, and FIG. 6 shows the block used for moving the clear region in the inter-frame mode. It is a figure which respectively shows a mode that a clear region moves in a frame in the case of being converted. Here, for simplicity, the direction of the motion vector is limited to the right. Further, in FIGS. 5 and 6, a shaded area represents a block used for moving the clear area.

【0049】図5に示すように、鮮明領域の移動に用い
るブロックがフレーム内モードで符号化さている場合
は、当該ブロックでは動きベクトルが発生しないため、
鮮明領域の移動ができない。そこで、鮮明領域の移動に
用いるブロックよりも以前のブロックの動きベクトルに
基づいて、移動の方向を決定する。すなわち、図3の動
きベクトル格納部162に格納された、鮮明領域の移動
に用いるブロックよりも以前のブロックの動きベクトル
の平均によって被写体の動きを検出して、鮮明領域を移
動する。
As shown in FIG. 5, when the block used for moving the clear region is coded in the intra-frame mode, no motion vector is generated in the block.
The clear area cannot be moved. Therefore, the moving direction is determined based on the motion vector of the block before the block used for moving the clear region. That is, the motion of the subject is detected by the average of the motion vectors of the blocks stored in the motion vector storage unit 162 of FIG. 3 and used for moving the clear region, and the clear region is moved.

【0050】また、図6に示すように、鮮明領域の移動
に用いるブロックがフレーム間モードで符号化されてい
る場合には、当該ブロックの動きベクトルの合計が所定
のしきい値を越えた時点で鮮明領域を移動する。ITU
勧告H.261では、一つのブロック(マクロブロッ
ク)の領域を16*16画素と規定しているため、当該
しきい値を±15に設定する。図6の(1)、(2)お
よび(3)は、時間的に連続した画像フレームであり、
鮮明領域の移動に用いるブロックの動きベクトルは、そ
れぞれ+3、+10および+5であるとする。従って、
(2)で、当該フロックの動きベクトルの合計は+13
となり、被写体は+13画素移動したことになる。しき
い値を±15画素と設定しているため、(2)の時点で
は鮮明領域の移動を行わない。(3)では、動きベクト
ルの合計が+18となるため、この時点で、鮮明領域を
1ブロック右へ移動する。鮮明領域を移動した時点で、
動きベクトルの合計は0にリセットされる。
Further, as shown in FIG. 6, when the block used for moving the clear area is coded in the inter-frame mode, the time when the total motion vector of the block exceeds a predetermined threshold value. Use to move the clear area. ITU
Recommendation H. In H.261, since the area of one block (macro block) is defined as 16 * 16 pixels, the threshold value is set to ± 15. (1), (2) and (3) of FIG. 6 are temporally consecutive image frames,
The motion vectors of the blocks used for moving the clear region are +3, +10, and +5, respectively. Therefore,
In (2), the total motion vector of the flock is +13.
Therefore, the subject has moved by +13 pixels. Since the threshold value is set to ± 15 pixels, the clear area is not moved at the time of (2). In (3), since the total motion vector is +18, the clear region is moved to the right by one block at this point. When you move the clear area,
The motion vector sum is reset to zero.

【0051】以下には、動きベクトルに基づいて鮮明領
域を被写体の動きに追随させる方法について、図7、
8、9および10を参照しながら説明する。図7は、被
写体を捉えた鮮明領域が、被写体の動きに追従する様子
を示す図である。図7において、鮮明領域内にある黒く
塗りつぶした領域は、鮮明領域の移動に用いる動きベク
トルが検出される領域を示している。なお、図8、9お
よび10においても同様である。以下では、この領域を
単に検出領域と呼ぶ。図8は、図7のように移動した被
写体が、さらに移動していったん画面の右側にはみ出
し、その後再び画面内に戻る際に、鮮明領域が被写体の
動きに応じて移動する様子を示す図である。鮮明領域
は、検出領域の動きベクトルに応じて移動するため、図
7のように被写体が鮮明領域内に捉えられている場合
は、鮮明領域は被写体を捉えた状態で被写体の動きに追
従する。
A method of making a clear region follow the movement of a subject based on a motion vector will be described below with reference to FIG.
A description will be given with reference to 8, 9 and 10. FIG. 7 is a diagram showing how a clear area that captures a subject follows the movement of the subject. In FIG. 7, a black-painted area within the clear area indicates an area in which a motion vector used for moving the clear area is detected. The same applies to FIGS. 8, 9 and 10. Hereinafter, this area is simply referred to as a detection area. FIG. 8 is a diagram showing a state in which the clear region moves in accordance with the movement of the subject when the subject moved as shown in FIG. 7 further moves, once protrudes to the right side of the screen, and then returns to the inside of the screen again. is there. Since the clear area moves according to the motion vector of the detection area, when the object is captured within the clear area as shown in FIG. 7, the clear area follows the movement of the object while capturing the object.

【0052】ところが、図8のように、被写体がいった
ん画面の右側にはみ出しはみ出した場合には、次の課題
が存在する。図8において、鮮明領域は被写体の移動に
ともなって右端に移動してしており、被写体はさらに画
像フレームの右側にみだしている。被写体が画像フレー
ムの右側から再び画像フレーム内に戻って来ると、被写
体の左端の動きベクトルを検出してしまい、そのため、
鮮明領域は、被写体を十分に捉えないまま被写体に追従
する。すなわち、鮮明領域が被写体から逃げるように移
動してしまう。
However, as shown in FIG. 8, when the subject once protrudes to the right side of the screen, there are the following problems. In FIG. 8, the clear region is moving to the right end along with the movement of the subject, and the subject further extends to the right side of the image frame. When the subject comes back into the image frame from the right side of the image frame, the motion vector at the left end of the subject is detected, so
The clear area follows the subject without sufficiently capturing the subject. That is, the clear area moves so as to escape from the subject.

【0053】そこで、上記の課題を解決する方法を、図
9および10を用いて説明する。図9は、画像フレーム
内における鮮明領域の位置と、鮮明領域内における検出
領域の位置との関係を示す図である。図9に示すよう
に、鮮明領域が画像フレームの右端に位置する場合は、
検出領域を鮮明領域の左端に設定する。同様に、鮮明領
域が画像フレームの左端にある場合には、鮮明領域の右
端に、鮮明領域が画像フレームの上端にある場合には、
鮮明領域の下端に、鮮明領域が画像フレームの下端にあ
る場合には、鮮明領域の上端に、鮮明領域がそれ以外の
位置にある場合は、鮮明領域の中央に、それぞれ検出領
域を設定する。
Therefore, a method for solving the above problems will be described with reference to FIGS. FIG. 9 is a diagram showing the relationship between the position of the clear area in the image frame and the position of the detection area in the clear area. As shown in FIG. 9, when the clear region is located at the right end of the image frame,
Set the detection area to the left edge of the clear area. Similarly, if the sharp area is at the left edge of the image frame, it is at the right edge of the sharp area, and if the sharp area is at the top edge of the image frame,
When the clear region is at the lower end of the clear region and at the lower end of the image frame, the detection region is set at the upper end of the clear region, and when the clear region is at any other position, the detection region is set at the center of the clear region.

【0054】図10は、上記のように鮮明領域を設定す
る場合において、図8と同様に、鮮明領域が画像フレー
ムの右端にあり、被写体はフレームの右外側から鮮明領
域内に現われる場合の、鮮明領域の動きを示す図であ
る。図10では、鮮明領域が被写体を十分に捉える
(3)の時点で、被写体の左端が検出領域にさしかか
り、このとき鮮明領域の移動を開始する。従って、鮮明
領域は、被写体を十分捉えた状態で被写体の動きに追従
することができる。(4)では、鮮明領域は画像フレー
ムの右端から離れるため、検出領域は、鮮明領域の中央
に再設定される。
FIG. 10 shows a case where the sharp area is set at the right end of the image frame and the object appears in the clear area from the right outer side of the frame, as in FIG. It is a figure which shows the movement of a clear area. In FIG. 10, the left edge of the subject approaches the detection region at the time of (3) when the clear region sufficiently captures the subject, and at this time, the movement of the clear region is started. Therefore, the clear region can follow the movement of the subject while sufficiently capturing the subject. In (4), since the clear area is separated from the right end of the image frame, the detection area is reset to the center of the clear area.

【0055】以上のように、本実施形態では、画像フレ
ームを鮮明領域/劣化領域に分割し、劣化領域を符号化
しないため、発生する情報量を減らすことができる。ま
た、鮮明領域を被写体の動きに追従させるため、被写体
が移動して画面の中央部からはずれても、被写体が不鮮
明になることがない。さらに、画像フレーム内における
鮮明領域の位置に応じて、鮮明領域の移動に用いるブロ
ックを変更することにより、被写体を常に鮮明領域内に
保持した状態で、被写体の動きに鮮明領域を追従させる
ことができる。
As described above, in the present embodiment, since the image frame is divided into the clear area / deteriorated area and the deteriorated area is not coded, the amount of information generated can be reduced. Further, since the clear region is made to follow the movement of the subject, the subject does not become unclear even if the subject moves and deviates from the center of the screen. Furthermore, by changing the block used for moving the clear region according to the position of the clear region in the image frame, the clear region can be made to follow the movement of the subject while the subject is always held in the clear region. it can.

【0056】なお、本実施形態では、鮮明領域の移動に
用いるブロックは1ブロックとしたが、複数のブロック
を用い、これらブロックの動きベクトルの平均に基づい
て、鮮明領域を移動してもよい。
In this embodiment, one block is used for moving the clear area, but a plurality of blocks may be used and the clear area may be moved based on the average of the motion vectors of these blocks.

【0057】また、本実施形態では、鮮明領域を移動す
る際、ブロック単位で移動させているが、画素単位で移
動させてもよい。
Further, in this embodiment, when the clear region is moved, it is moved in block units, but it may be moved in pixel units.

【0058】また、本実施形態では、劣化領域を所定の
色で色付けして送信したが、劣化領域を送信しなくても
よく、また、劣化領域の画質を劣化させて送信してもよ
い。
Further, in this embodiment, the deteriorated area is colored with a predetermined color and transmitted, but the deteriorated area may not be transmitted, and the image quality of the deteriorated area may be deteriorated and transmitted.

【0059】また、本実施形態では、鮮明領域の移動に
用いるブロックがフレーム内モードで符号化される場合
は、当該ブロックよりも以前のブロックの動きベクトル
の平均に基づいて鮮明領域を移動するとしたが、単純な
平均ではなく、各動きベクトルに適当な重みを乗じて算
出した平均に基づいて移動することもできる。
Further, in the present embodiment, when the block used for moving the clear area is coded in the intra-frame mode, the clear area is moved based on the average of the motion vectors of the blocks prior to the block. However, instead of a simple average, it is also possible to move based on an average calculated by multiplying each motion vector by an appropriate weight.

【0060】さらに、本実施形態では、鮮明領域の移動
に用いるブロックがフレーム内モードで符号化される場
合は、当該ブロックよりも以前のブロックの動きベクト
ルの平均に基づいて鮮明領域を移動するとしたが、当該
ブロックの周囲のブロックの動きベクトルの平均に基づ
いて、鮮明領域を移動してもよい。さらにこの場合も、
当該ブロックの周囲のブロックの動きベクトルの単純な
平均ではなく、各動きベクトルに適当な重みを乗じた平
均に基づいて、鮮明領域を移動してもよい。
Further, in the present embodiment, when the block used for moving the clear area is encoded in the intra-frame mode, the clear area is moved based on the average of the motion vectors of the blocks prior to the block. However, the clear region may be moved based on the average of the motion vectors of blocks around the block. Also in this case,
The clear region may be moved based on an average obtained by multiplying each motion vector by an appropriate weight, instead of a simple average of motion vectors of blocks around the block.

【0061】(第2の実施形態)以下には、本発明の第
2の実施形態について、図面を参照しながら説明する。
図11は、本実施形態に係る動き追跡機能付きテレビ電
話の、送信側および受信側の端末の構成を示す図であ
る。図11において、エンコーダ71が送信側の動き追
跡機能付きテレビ電話、デコーダ72は受信側の動き追
跡機能付きテレビ電話である。エンコーダ71は、図1
の動き追跡機能付きテレビ電話の構成から、背景色入力
部13および誤り訂正制御部17を除いた構成である。
デコーダ72は、通信部18、画像復号化部701、画
像表示部702、フレーム格納部12、背景色入力部1
3、復号化制御部703および鮮明領域判定部704を
備えている。なお、これらの構成要素のうち、図1で示
したものと同様の構成要素については、詳細な説明を省
略する。
(Second Embodiment) A second embodiment of the present invention will be described below with reference to the drawings.
FIG. 11 is a diagram showing a configuration of a transmission side terminal and a reception side terminal of the videophone with the motion tracking function according to the present embodiment. In FIG. 11, an encoder 71 is a transmitting side videophone with a motion tracking function, and a decoder 72 is a receiving side videophone with a motion tracking function. The encoder 71 is shown in FIG.
This is a configuration in which the background color input unit 13 and the error correction control unit 17 are removed from the configuration of the videophone with the motion tracking function.
The decoder 72 includes a communication unit 18, an image decoding unit 701, an image display unit 702, a frame storage unit 12, a background color input unit 1.
3, a decoding control unit 703 and a clear area determination unit 704. It should be noted that, of these constituent elements, detailed description of constituent elements similar to those shown in FIG. 1 will be omitted.

【0062】デコーダ72において、画像復号化部70
1は、通信部18が受信した、符号化された画像フレー
ムを復号化し、かつ当該フレームを構成しているブロッ
クの動きベクトルを検出する。鮮明領域判定部704
は、画像復号化部701が検出した動きベクトルに基づ
いて、フレーム格納部12に格納された画像フレームの
鮮明領域を判定して、その位置情報を出力する。復号化
制御部703は、鮮明領域判定部704が出力する位置
情報に基づいて、背景色入力部13を制御する。画像表
示部72は、フレーム格納部12に格納されている画像
フレームを表示する。
In the decoder 72, the image decoding unit 70
1 decodes the coded image frame received by the communication unit 18 and detects the motion vector of the block forming the frame. Clear area determination unit 704
Determines the clear region of the image frame stored in the frame storage unit 12 based on the motion vector detected by the image decoding unit 701, and outputs the position information. The decoding control unit 703 controls the background color input unit 13 based on the position information output by the clear area determination unit 704. The image display unit 72 displays the image frame stored in the frame storage unit 12.

【0063】以下には、図11の画像復号化部701
の、符号化された画像フレームを復号化する方法につい
て、図12を用いて説明する。なお、画像復号化部70
1が復号化する画像フレームは、図2の画像符号化部1
4が符号化した画像フレームである。図12は、図11
の画像復号化部701の構成を示す図である。図12に
おいて、分離部7012は、エンコーダ71から受信し
た、多重化された画像データを、予測誤差と、動きベク
トルと、サイド情報とに分離して、予測誤差は可変長復
号化部7014へ、動きベクトルは動きベクトル可変長
復号化部7015へ、サイド情報は復号化制御部701
3へ、それぞれ出力する。
The image decoding unit 701 of FIG. 11 will be described below.
The method of decoding the coded image frame will be described with reference to FIG. The image decoding unit 70
The image frame that 1 decodes is the image frame 1 shown in FIG.
4 is an encoded image frame. FIG.
7 is a diagram showing a configuration of an image decoding unit 701 of FIG. In FIG. 12, a separation unit 7012 separates the multiplexed image data received from the encoder 71 into a prediction error, a motion vector, and side information, and the prediction error is sent to the variable length decoding unit 7014. The motion vector is sent to the motion vector variable length decoding unit 7015, and the side information is sent to the decoding control unit 701.
To 3 respectively.

【0064】可変長復号化部7014は、分離部701
2が出力する、符号化された予測誤差を可変長復号化し
て、逆量子化部148に出力する。逆量子化部148
は、可変長復号化部が出力する、量子化された予測誤差
を逆量子化して、逆直交変換部149に出力する。逆直
交変換部149は、逆量子化部148が出力する、直交
変換された予測誤差を逆直交変換して、加算部14bに
出力する。動きベクトル可変長復号化部7015は、分
離部7012が出力する、可変長符号化された動きベク
トルを可変長復号化して、動き補償部14fに出力す
る。
The variable length decoding unit 7014 has a separating unit 701.
2 performs variable length decoding on the coded prediction error output by 2 and outputs the result to the inverse quantization unit 148. Inverse quantizer 148
Dequantizes the quantized prediction error output from the variable length decoding unit and outputs the dequantized prediction error to the inverse orthogonal transform unit 149. The inverse orthogonal transformation unit 149 inversely orthogonally transforms the orthogonally transformed prediction error output from the inverse quantization unit 148, and outputs the result to the addition unit 14b. The motion vector variable length decoding unit 7015 performs variable length decoding on the variable length encoded motion vector output from the separation unit 7012, and outputs the variable length decoded motion vector to the motion compensation unit 14f.

【0065】受信フレームメモリ7016は、2フレー
ム分の記憶領域を有し、1フレーム分の記憶領域には、
現在、復号化の対象となっているフレームを記憶し、ま
た、もう1フレーム分の記憶領域には、当該フレームの
1つ前の再生フレーム(参照フレーム)を記憶してい
る。動き補償部14fは、動きベクトル可変長復号化部
7015から出力される動きベクトルに基づいて、参照
フレームの中のどのブロックが現在の復号化の対象のブ
ロックに相当するかを予測し、予測したブロックの画像
データ(予測値)を出力する。
The reception frame memory 7016 has a storage area for two frames, and a storage area for one frame has
At present, a frame to be decoded is stored, and a reproduction frame (reference frame) immediately before the frame is stored in the storage area for another frame. The motion compensation unit 14f predicts and predicts which block in the reference frame corresponds to the current decoding target block, based on the motion vector output from the motion vector variable length decoding unit 7015. The image data (predicted value) of the block is output.

【0066】加算部14bは、逆直交変換部149が出
力する予測誤差と、動き補償部14fが出力する予測値
とを加算することにより、復号化対象ブロックを再生し
て、受信フレームメモリ7016に出力する。復号化制
御部7013は、サイド情報に基づいて、スイッチ70
1bの接続を切り替える。すなわち、受信した画像デー
タがフレーム内モードで符号化されていれば、スイッチ
701bを1−3の接続に、フレーム間モードで符号化
されているならば、1−2の接続に切り換える。図11
の画像復号化部701は、スイッチ701bの接続が1
−3の場合は、受信した画像データをフレーム内モード
で復号化し、1−2の場合には、フレーム間モードで復
号化する。
The adding unit 14b adds the prediction error output from the inverse orthogonal transforming unit 149 and the prediction value output from the motion compensating unit 14f to reproduce the decoding target block and stores it in the reception frame memory 7016. Output. The decoding control unit 7013, based on the side information, switches 70
Switch connection of 1b. That is, if the received image data is encoded in the intra-frame mode, the switch 701b is switched to the connection of 1-3, and if it is encoded in the inter-frame mode, it is switched to the connection of 1-2. FIG.
The image decoding unit 701 of the
In the case of -3, the received image data is decoded in the intra-frame mode, and in the case of 1-2, it is decoded in the inter-frame mode.

【0067】以下には、エンコーダ71およびデコーダ
72の間で、画像フレームの送受信を行う方法を、図1
1を用いて説明する。図11において、エンコーダ71
の鮮明領域決定部16は、第1の実施形態において説明
したものと同様にして、鮮明領域を決定し、決定した鮮
明領域とそれ以外の領域(劣化領域)との境界を示す情
報を出力する。符号化制御部15は、鮮明領域決定部1
6が出力した情報に基づき、劣化領域を符号化しないよ
う画像符号化部14を制御する。画像符号化部14は、
符号化制御部15の制御によって、劣化領域を符号化せ
ず、鮮明領域だけを符号化する。通信部18は、符号化
手段14が符号化した画像フレームを、デコーダ72に
対して送信する。
A method of transmitting and receiving an image frame between the encoder 71 and the decoder 72 will be described below with reference to FIG.
1 will be described. In FIG. 11, the encoder 71
The clear area determination unit 16 determines the clear area and outputs information indicating the boundary between the determined clear area and the other area (deteriorated area) in the same manner as described in the first embodiment. . The encoding control unit 15 uses the clear area determination unit 1
The image coding unit 14 is controlled so that the degraded area is not coded based on the information output by the device 6. The image encoding unit 14
Under the control of the encoding control unit 15, only the clear region is encoded without encoding the deteriorated region. The communication unit 18 transmits the image frame encoded by the encoding unit 14 to the decoder 72.

【0068】デコーダ72の通信部18は、エンコーダ
71の通信部18が送信した、符号化された画像フレー
ムを受信する。画像復号化部701は、通信部18が受
信した、符号化された画像フレームを復号化し、かつ当
該フレームを構成するブロックの動きベクトルを検出す
る。フレーム格納部12は、画像復号化部701が復号
化した画像フレームを格納する。鮮明領域判定部704
は、画像復号化部701が出力する各ブロックの動きベ
クトルに基づいて、鮮明領域を判定し、判定した鮮明領
域と劣化領域との境界を示す情報を出力する。復号化制
御部703は、鮮明領域判定部704が与える、鮮明領
域と劣化領域との境界を示す情報に基づいて、フレーム
格納部12に格納された画像フレームの劣化領域を色付
けするよう背景色入力部13を制御する。背景色入力部
13は、フレーム格納部12に格納されている画像フレ
ームの劣化領域を指定された色で色付けする。すなわ
ち、劣化領域に該当するブロックに、指定された色を表
わす情報を格納する。画像表示部702は、フレーム格
納部12が格納している画像フレームを表示する。
The communication section 18 of the decoder 72 receives the encoded image frame transmitted by the communication section 18 of the encoder 71. The image decoding unit 701 decodes the coded image frame received by the communication unit 18 and detects the motion vector of the block forming the frame. The frame storage unit 12 stores the image frame decoded by the image decoding unit 701. Clear area determination unit 704
Determines a clear region based on the motion vector of each block output from the image decoding unit 701 and outputs information indicating the boundary between the determined clear region and the degraded region. The decoding control unit 703 inputs the background color so as to color the deteriorated area of the image frame stored in the frame storage unit 12 based on the information given by the clear area determination unit 704 and indicating the boundary between the clear area and the deteriorated area. The part 13 is controlled. The background color input unit 13 colors the deteriorated area of the image frame stored in the frame storage unit 12 with a designated color. That is, information representing the designated color is stored in the block corresponding to the deteriorated area. The image display unit 702 displays the image frame stored in the frame storage unit 12.

【0069】以上のように、本実施形態では、エンコー
ダ71が劣化領域を符号化しないため、発生する総情報
量を大幅に削減できる。また、このように削減した情報
量だけ、鮮明領域の情報量を増加することで、鮮明領域
の画質を向上させることもできる。
As described above, in this embodiment, since the encoder 71 does not code the deteriorated area, the total amount of information generated can be greatly reduced. Further, by increasing the amount of information in the clear region by the amount of information thus reduced, the image quality in the clear region can be improved.

【0070】また、エンコーダ71は劣化領域を色付け
しない代わりに、デコーダ72が劣化領域を色付けする
ため、エンコーダ71の処理を軽減し、さらに、エンコ
ーダ71側の通話者のプライバシーを守ることができ
る。
Further, since the encoder 72 does not color the deteriorated area but the decoder 72 colors the deteriorated area, the processing of the encoder 71 can be reduced and the privacy of the caller on the encoder 71 side can be protected.

【0071】なお、本実施形態では、エンコーダ71は
劣化領域を符号化しないとしたが、エンコーダ71は画
質を落として劣化領域を符号化して、鮮明領域と共にデ
コーダ72に送信するとしてもよい。
In this embodiment, the encoder 71 does not encode the deteriorated area. However, the encoder 71 may encode the deteriorated area by degrading the image quality and transmit the deteriorated area to the decoder 72 together with the clear area.

【0072】(第3の実施形態)以下には、本発明の第
3の実施形態について、図面を参照しながら説明する。
図13は、本実施形態に係る非接触操作入力装置の構成
を示す図である。図13において、本実施形態の非接触
操作入力装置は、画像入力部11、フレーム格納部1
2、画像符号化部14、符号化制御部15、鮮明領域決
定部16、通信部18、画像復号化部701、操作画面
出力部902、画像表示部702、領域位置判定部90
5、システム制御部906およびスイッチ903を備え
ている。
(Third Embodiment) A third embodiment of the present invention will be described below with reference to the drawings.
FIG. 13 is a diagram showing the configuration of the non-contact operation input device according to the present embodiment. In FIG. 13, the non-contact operation input device according to the present embodiment includes an image input unit 11 and a frame storage unit 1.
2, image coding unit 14, coding control unit 15, clear region determination unit 16, communication unit 18, image decoding unit 701, operation screen output unit 902, image display unit 702, region position determination unit 90
5, a system control unit 906 and a switch 903.

【0073】図13の通信部18は、符号化された画像
フレームの送受信を行う。操作画面出力部902は、入
力命令を表現する記号、文字または図表からなる複数の
入力項目と、それらのうちの一項目を選択するための選
択領域とを表示する。なお、ここでの選択領域は、鮮明
領域決定部16が出力する、鮮明領域と劣化領域との境
界線である。領域位置判定部905は、上記入力項目の
数だけ、操作画面出力部902が出力する画像フレーム
内の画素を登録しており、これらの画素を含む位置に上
記各入力項目が表示される。領域位置判定部905は、
登録しているいずれかの画素が、上記選択領域内に含ま
れるか否かを判断し、含まれる場合には、どの画素が含
まれているのかを示す選択情報を出力する。
The communication unit 18 in FIG. 13 transmits / receives encoded image frames. The operation screen output unit 902 displays a plurality of input items including symbols, characters, or charts that represent input commands, and a selection area for selecting one of those items. The selected area here is a boundary line between the clear area and the degraded area, which is output by the clear area determining unit 16. The area position determination unit 905 registers the pixels in the image frame output by the operation screen output unit 902 as many as the input items, and the input items are displayed at positions including these pixels. The area position determination unit 905
It is determined whether or not any of the registered pixels is included in the selection area, and if it is included, selection information indicating which pixel is included is output.

【0074】スイッチ903は、フレーム格納部12に
格納する画像フレームとして、画像復号化部701が出
力する画像、または操作画面出力部902が出力する画
像のいずれかを選択する。システム制御部906は、領
域位置判定部905が出力する選択情報に基づいて、テ
レビ電話装置全体を制御する。例えば、選択情報がオー
トダイヤル1であればオートダイヤル1に登録された相
手先に発呼する。なお、第1および第2の実施形態にお
いて説明したものと同様の構成要素については、詳細な
説明を省略する。
The switch 903 selects either the image output by the image decoding unit 701 or the image output by the operation screen output unit 902 as the image frame stored in the frame storage unit 12. The system control unit 906 controls the entire videophone device based on the selection information output by the area position determination unit 905. For example, if the selection information is auto dial 1, the call is made to the other party registered in auto dial 1. Detailed description of the same components as those described in the first and second embodiments will be omitted.

【0075】以下には、図13の非接触操作入力装置の
動作の一例を、図13および14を用いて説明する。図
14は、図13の画像表示部702の表示画面の一例を
示す図である。図14において、表示画面は、選択され
るとオートダイヤル1に発呼する旨を表示する文字10
02、選択されるとオートダイヤル2に発呼する旨を表
示する文字1003、選択されるとオートダイヤル3に
発呼する旨を表示する文字1004、選択されると手動
ダイヤルを選択する旨を表示する文字1005およびこ
れらの文字を選択するための選択領域1001を表示し
ている。
An example of the operation of the non-contact operation input device of FIG. 13 will be described below with reference to FIGS. 13 and 14. FIG. 14 is a diagram showing an example of a display screen of the image display unit 702 of FIG. In FIG. 14, the display screen has a character 10 that indicates that the automatic dial 1 is called when selected.
02, a character 1003 that indicates that a call is made to the auto dial 2 when selected, a character 1004 that indicates that a call is made to the auto dial 3 when selected, and a message that a manual dial is selected when selected A character 1005 to be selected and a selection area 1001 for selecting these characters are displayed.

【0076】図13のスイッチ903の接続は、操作画
面出力部902側が選択されている。操作画面出力部9
02は、上記1001〜1005の各文字および選択領
域を出力する。鮮明領域決定部16は、第1の実施形態
で説明したように、被写体、すなわち操作者の手の動き
に応じて鮮明領域を移動し、その位置情報を操作画面出
力部902および領域位置判定部905に対して出力す
る。ここでは、鮮明領域決定部16が決定する鮮明領域
が、選択領域1001である。領域位置判定部905
は、上記の画素として、1002が表示されている位置
にある画素、1003が表示されている位置にある画
素、1004が表示されている位置にある画素、および
1005が表示されている位置にある画素をあらかじめ
登録している。
For connection of the switch 903 in FIG. 13, the operation screen output unit 902 side is selected. Operation screen output section 9
02 outputs the characters 1001 to 1005 and the selected area. As described in the first embodiment, the clear area determination unit 16 moves the clear area according to the movement of the subject, that is, the operator's hand, and the position information thereof is displayed on the operation screen output unit 902 and the area position determination unit. Output to 905. Here, the clear area determined by the clear area determination unit 16 is the selected area 1001. Area position determination unit 905
Is the pixel at the position where 1002 is displayed, the pixel at the position where 1003 is displayed, the pixel at the position where 1004 is displayed, and the position where 1005 is displayed as the above pixels. Pixels are registered in advance.

【0077】領域位置判定部905は、登録している画
素のいずれかが、選択領域1001の内部に含まれるか
否かを判定し、含まれる場合には、どの画素が含まれる
かを示す選択情報を、システム制御部906に対して出
力する。例えば、画像入力手段11の前に手をかざし、
その手を上方に動かせば選択領域1001は画面上を上
に移動し、やがて、オートダイヤル1の文字を包含す
る。この時、領域位置判定部905は、1001の位置
にある画素が選択された旨を、システム制御部906に
通知する。通知を受けたシステム制御部906は、オー
トダイヤル1に登録された電話番号に対して発呼するよ
う、テレビ電話装置を制御する。
The area position determining unit 905 determines whether or not any of the registered pixels is included in the selected area 1001, and if so, a selection indicating which pixel is included. The information is output to the system control unit 906. For example, place your hand in front of the image input means 11,
When the hand is moved upward, the selection area 1001 moves up on the screen and eventually includes the characters of the auto dial 1. At this time, the area position determination unit 905 notifies the system control unit 906 that the pixel at the position 1001 has been selected. Upon receiving the notification, the system control unit 906 controls the videophone device so that the telephone number registered in the auto dial 1 is called.

【0078】以上のように、本実施形態によれば、一般
的なTV電話が有する画像入力装置や画像圧縮装置を利
用して、非接触的な操作入力を簡単に実現できる。
As described above, according to this embodiment, non-contact operation input can be easily realized by using the image input device and the image compression device of a general TV telephone.

【0079】なお、本実施形態では、操作入力項目数を
4としたが、領域位置判定部905に登録する画素の数
を増やすことにより、または、操作画面を階層化するこ
とにより、入力項目数をより多くすることができる。
Although the number of operation input items is 4 in this embodiment, the number of input items is increased by increasing the number of pixels registered in the area position determination unit 905 or by hierarchizing the operation screen. Can be more.

【0080】(第4の実施形態)以下には、本発明の第
4の実施形態について、図面を参照しながら説明する。
図15は、本実施形態に係る動き追跡機能付テレビ電話
の構成を示す図である。図15において、本実施形態の
動き追跡機能付テレビ電話は、通信部18、画像復号化
部701、画像表示部702、PIP(ピクチャインピ
クチャ)作成部1301、有効マクロブロック判別部1
302、PIP位置決定部1303および画像入力部1
1を備えている。
(Fourth Embodiment) A fourth embodiment of the present invention will be described below with reference to the drawings.
FIG. 15 is a diagram showing the configuration of a videophone with a motion tracking function according to this embodiment. 15, the videophone with the motion tracking function of the present embodiment includes a communication unit 18, an image decoding unit 701, an image display unit 702, a PIP (picture in picture) creation unit 1301, and an effective macroblock determination unit 1.
302, PIP position determination unit 1303, and image input unit 1
1 is provided.

【0081】有効マクロブロック判別部1302は、参
照フレームに基づいて、画像復号化部701が復号化す
る画像フレームを構成しているブロックのうち、差分情
報を有するブロックを有効マクロブロック、差分情報の
なかったブロックを無効マクロブロックと判別して、有
効マクロブロックの位置情報を出力する。
The effective macroblock discriminating unit 1302 determines the block having the difference information among the blocks forming the image frame to be decoded by the image decoding unit 701 based on the reference frame as the effective macroblock and the difference information. The block that did not exist is determined as an invalid macroblock, and the position information of the valid macroblock is output.

【0082】画像入力部11は、子画面に表示される画
像(例えば自分の映像)を入力する。PIP位置決定部
1303は、有効マクロブロック判別部1302が出力
する有効マクロブロックの位置情報に基づいて、子画面
の表示位置を決定する。PIP作成部1301は、画像
入力部11により入力された子画面と、画像復号部70
1が出力する画像フレーム(例えば通話相手の映像)と
を合成して、PIP位置決定部1303が決定した位置
に子画面が表示されたPIP画像を作成する。画像表示
部702は、PIP作成部1301が作成したPIP画
像を表示する。
The image input unit 11 inputs an image (for example, a picture of himself) displayed on the child screen. The PIP position determination unit 1303 determines the display position of the child screen based on the position information of the valid macro block output by the valid macro block determination unit 1302. The PIP creating unit 1301 includes the child screen input by the image input unit 11 and the image decoding unit 70.
1 is combined with the image frame (for example, the video image of the other party) output by 1 to create a PIP image in which the child screen is displayed at the position determined by the PIP position determination unit 1303. The image display unit 702 displays the PIP image created by the PIP creating unit 1301.

【0083】以下には、図15の動き追跡機能付テレビ
電話が、有効マクロブロックの位置に応じて、子画面の
表示位置を移動する方法を、図16および17を用いて
説明する。図16は、図15の画像表示部702の表示
画面内において、子画面が表示される位置を示す図であ
る。図16に示すように、子画面の表示位置の候補は
(A)および(B)の2通りあり、現在の子画面の位置
は(A)であるとする。図17は、図15の画像表示部
702の、子画面を含む表示画面内に、被写体が表示さ
れている様子を示す図、および、その際の有効マクロブ
ロックの位置を示す図である。
A method of moving the display position of the child screen in accordance with the position of the effective macroblock in the videophone with the motion tracking function shown in FIG. 15 will be described below with reference to FIGS. 16 and 17. FIG. 16 is a diagram showing a position where a small screen is displayed in the display screen of the image display unit 702 of FIG. As shown in FIG. 16, it is assumed that there are two display position candidates for the small screen (A) and (B), and the current position of the small screen is (A). FIG. 17 is a diagram showing a state in which a subject is displayed in a display screen including a child screen of the image display unit 702 of FIG. 15 and a diagram showing the position of an effective macroblock at that time.

【0084】被写体部分に有効マクロブロックが集中す
るため、有効マクロブロックを検出すれば、被写体の動
きを知ることができる。従って、図17のように、被写
体部分が子画面に重なったとすると、有効マクロブロッ
ク判別部1302が出力する有効マクロブロックの位置
情報に基づいて、PIP位置決定部1303は、子画面
の表示位置を、図16の(A)の位置から(B)の位置
に移動する。
Since the effective macroblocks concentrate on the subject portion, the movement of the subject can be known by detecting the effective macroblocks. Therefore, if the subject portion overlaps the child screen as shown in FIG. 17, the PIP position determination unit 1303 determines the display position of the child screen based on the position information of the effective macroblock output by the effective macroblock determination unit 1302. , And moves from the position (A) in FIG. 16 to the position (B).

【0085】以上のように、本実施形態によれば、有効
マクロブロックの位置を検出し、有効マクロブロックが
子画面に重なった場合には、子画面の位置を移動する。
有効マクロブロックは、被写体部分に集中するため、被
写体が子画面に隠れるのを防ぐことができる。
As described above, according to the present embodiment, the position of the effective macroblock is detected, and when the effective macroblock overlaps the small screen, the position of the small screen is moved.
Since the effective macro blocks concentrate on the subject portion, the subject can be prevented from being hidden by the small screen.

【0086】(第5の実施形態)以下には、本発明の第
5の実施形態について、図面を参照しながら説明する。
図18は、本実施形態に係る動き追跡機能付テレビ電話
の構成を示す図である。図18の動き追跡機能付テレビ
電話は、図15の動き追跡機能付テレビ電話において、
有効マクロブロック判別部1302に代えて、鮮明領域
判定部704を備えている。図18の鮮明領域判定部7
04は、第2の実施形態において説明したものと同様に
して、鮮明領域を判定する。PIP位置決定部1303
は、第4の実施形態において説明したものと同様にし
て、鮮明領域判定部704が出力する鮮明領域の位置情
報に基づいて、鮮明領域が子画面に重なった場合に子画
面を移動する。
(Fifth Embodiment) A fifth embodiment of the present invention will be described below with reference to the drawings.
FIG. 18 is a diagram showing a configuration of a videophone with a motion tracking function according to this embodiment. The videophone with motion tracking function of FIG. 18 is the same as the videophone with motion tracking function of FIG.
A clear region determination unit 704 is provided instead of the effective macroblock determination unit 1302. Clear area determination unit 7 in FIG.
04 determines the clear area in the same manner as described in the second embodiment. PIP position determination unit 1303
In the same manner as described in the fourth embodiment, moves the sub screen when the clear region overlaps the sub screen based on the position information of the clear region output by the clear region determination unit 704.

【0087】上記のように、本実施形態では、ピクチャ
インピクチャ機能を有するテレビ電話において鮮明領域
の移動を行う場合にも、鮮明領域の位置情報に基づいて
子画面の位置を移動することにより、鮮明領域が子画面
に隠れるのを防ぐことができる。
As described above, according to the present embodiment, even when the clear area is moved in the videophone having the picture-in-picture function, the position of the small screen is moved based on the position information of the clear area. It is possible to prevent the clear area from being hidden by the inset screen.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施形態に係る動き追跡機能付
きテレビ電話の構成を示す図である。
FIG. 1 is a diagram showing a configuration of a videophone with a motion tracking function according to a first embodiment of the present invention.

【図2】図1の動き追跡機能付きテレビ電話の、画像符
号化部14の構成を示す図である。
FIG. 2 is a diagram showing a configuration of an image coding unit 14 of the videophone with the motion tracking function of FIG.

【図3】図1の動き追跡機能付きテレビ電話の、鮮明領
域決定部16の構成を示す図である。
FIG. 3 is a diagram showing a configuration of a clear area determination unit 16 of the videophone with the motion tracking function shown in FIG.

【図4】図3の動きベクトル格納部162の格納内容を
示す図である。
4 is a diagram showing storage contents of a motion vector storage unit 162 of FIG.

【図5】鮮明領域の移動に用いるブロックがフレーム内
モードで符号化される場合に、図1の鮮明領域決定部1
6が鮮明領域を決定する方法を説明するための図であ
る。
5 is a diagram illustrating a clear region determination unit 1 of FIG. 1 when a block used for moving a clear region is encoded in an intra-frame mode.
6 is a diagram for explaining a method of determining a clear area. FIG.

【図6】鮮明領域の移動に用いるブロックがフレーム間
モードで符号化される場合に、図1の鮮明領域決定部1
6が鮮明領域を決定する方法を説明するための図であ
る。
6 is a diagram illustrating a clear region determining unit 1 of FIG. 1 when a block used for moving a clear region is encoded in an interframe mode.
6 is a diagram for explaining a method of determining a clear area. FIG.

【図7】被写体を捉えた鮮明領域が、被写体の動きに応
じて移動する様子を示す図である。
FIG. 7 is a diagram showing a state in which a clear area capturing a subject moves in accordance with the movement of the subject.

【図8】いったん画面の外側にはみ出した被写体が、再
び画面内にもどる際に、鮮明領域が被写体の動きに応じ
て移動する様子を示す図である。
FIG. 8 is a diagram showing how a clear region moves according to the movement of the subject when the subject once protruding outside the screen returns to the inside of the screen.

【図9】画像フレーム内における鮮明領域の位置と、鮮
明領域内における検出領域の位置との関係を示す図であ
る。
FIG. 9 is a diagram showing the relationship between the position of a clear area in an image frame and the position of a detection area in the clear area.

【図10】図9のように検出領域が設定された場合の、
鮮明領域の移動の様子を示す図である。
FIG. 10 shows a case where a detection area is set as shown in FIG.
It is a figure which shows the mode of movement of a clear area.

【図11】本発明の第2の実施形態に係る動き追跡機能
付きテレビ電話の構成を示す図である。
FIG. 11 is a diagram showing a configuration of a videophone with a motion tracking function according to a second embodiment of the present invention.

【図12】図11の画像復号化部701の構成を示す図
である。
12 is a diagram showing a configuration of an image decoding unit 701 of FIG.

【図13】本発明の第3の実施形態に係る非接触操作入
力装置の構成を示す図である。
FIG. 13 is a diagram showing a configuration of a non-contact operation input device according to a third embodiment of the present invention.

【図14】図13の画像表示部702の、表示画面の一
例を示す図である。
14 is a diagram showing an example of a display screen of the image display unit 702 of FIG.

【図15】本発明の第4の実施形態に係る動き追跡機能
付テレビ電話の構成を示す図である。
FIG. 15 is a diagram showing a configuration of a videophone with a motion tracking function according to a fourth embodiment of the present invention.

【図16】図15の動き追跡機能付テレビ電話の、表示
画面における子画面の位置を示す図である。
16 is a diagram showing the position of a child screen on the display screen of the videophone with the motion tracking function of FIG.

【図17】図15の動き追跡機能付テレビ電話の、子画
面が表示された表示画面内に被写体を表示している様
子、およびその際の有効マクロブロックの検出位置を示
す図である。
17 is a diagram showing a state in which a subject is displayed in a display screen on which a child screen is displayed and a detection position of an effective macro block at that time in the videophone with the motion tracking function of FIG.

【図18】本発明の第5の実施形態に係る動き追跡機能
付テレビ電話の構成を示す図である。
FIG. 18 is a diagram showing a configuration of a videophone with a motion tracking function according to a fifth embodiment of the present invention.

【図19】従来の動画像信号処理装置の構成の一例を示
す図である。
FIG. 19 is a diagram showing an example of a configuration of a conventional moving image signal processing device.

【図20】従来の視点監視入力装置の構成の一例を示す
図である。
FIG. 20 is a diagram showing an example of a configuration of a conventional viewpoint monitoring input device.

【図21】従来の仮想現実空間データ入力装置の構成の
一例を示す図である。
FIG. 21 is a diagram showing an example of a configuration of a conventional virtual reality space data input device.

【符号の説明】[Explanation of symbols]

11 画像入力部 12 フレーム格納部 13 背景色入力部 14 画像符号化部 15 符号化制御部 16 鮮明領域決定部 17 誤り訂正制御部 18 通信部 701 画像復号化部 702 画像表示部 704 鮮明領域判定部 902 操作画面出力部 905 領域位置判定部 906 システム制御部 1301 PIP作成部 1302 有効マクロブロック判別部 1303 PIP位置決定部 Reference Signs List 11 image input unit 12 frame storage unit 13 background color input unit 14 image coding unit 15 coding control unit 16 sharp region determination unit 17 error correction control unit 18 communication unit 701 image decoding unit 702 image display unit 704 sharp region determination unit 902 Operation screen output unit 905 Area position determination unit 906 System control unit 1301 PIP creation unit 1302 Effective macroblock determination unit 1303 PIP position determination unit

Claims (11)

【特許請求の範囲】[Claims] 【請求項1】 鮮明領域内の、予め決められたブロック
の動きベクトルに基づいて、新たな鮮明領域を決定する
ことにより、移動する被写体を、常に鮮明領域内に捉え
ることができる動き追跡機能付きテレビ電話であって、 動画像の入力を行う画像入力手段と、 前記画像入力手段により入力された画像フレームを格納
するフレーム格納手段と、 前記フレーム格納手段に格納された画像フレームを符号
化し、かつ当該フレームを構成しているブロックの動き
ベクトルを検出する画像符号化手段と、 前記画像符号化手段が検出した動きベクトルのうち、予
め決められたブロックの動きベクトルに基づいて、前記
フレーム格納手段に格納されている画像フレーム内の所
定の領域を、被写体を表示するための鮮明領域に決定し
て、当該フレームの鮮明領域/劣化領域の位置情報を出
力する鮮明領域決定手段と、 前記鮮明領域決定手段が出力した位置情報に基づいて、
当該フレームの劣化領域を鮮明領域よりも画質を劣化さ
せて符号化するよう、前記画像符号化手段を制御する符
号化制御手段と、 前記画像符号化手段により符号化された画像フレームを
送信する通信手段とを備える、動き追跡機能付きテレビ
電話。
1. A motion tracking function capable of always catching a moving object in a clear area by determining a new clear area based on a motion vector of a predetermined block in the clear area. A videophone, an image input unit for inputting a moving image, a frame storage unit for storing an image frame input by the image input unit, an image frame stored in the frame storage unit, and An image coding unit that detects a motion vector of a block that constitutes the frame, and a motion vector detected by the image coding unit, based on a motion vector of a predetermined block, in the frame storage unit. A predetermined area in the stored image frame is determined as a clear area for displaying the subject, and the freshness of the frame is determined. And sharpness area determining means for outputting position information of the region / degradation region, on the basis of the position information where the clear area determining means has outputted,
Encoding control means for controlling the image encoding means so as to encode the deteriorated area of the frame with image quality deteriorated as compared with the clear area, and communication for transmitting the image frame encoded by the image encoding means. A videophone with a motion tracking function, including means.
【請求項2】 前記符号化制御手段は、前記画像符号化
手段が、当該フレームの劣化領域を符号化しないよう制
御することを特徴とする、請求項1に記載の動き追跡機
能付きテレビ電話。
2. The videophone with a motion tracking function according to claim 1, wherein the encoding control unit controls the image encoding unit so as not to encode the deteriorated area of the frame.
【請求項3】 前記フレーム格納手段に格納された画像
フレームに、色付けをする背景色入力手段をさらに備
え、 前記符号化制御手段は、さらに、前記背景色入力手段
が、前記鮮明領域決定手段が出力した位置情報に基づい
て、当該フレームの劣化領域に色付けするよう制御する
ことを特徴とする、請求項1に記載の追跡機能付きテレ
ビ電話。
3. An image frame stored in said frame storing means is further provided with a background color inputting means for coloring, said encoding control means, further, said background color inputting means, said clear area determining means. The videophone with a tracking function according to claim 1, wherein control is performed so that the deteriorated area of the frame is colored based on the output position information.
【請求項4】 前記画像符号化手段により符号化された
画像データに、誤り訂正符号を付加する誤り訂正制御手
段をさらに備え、 前記符号化制御手段は、さらに、前記誤り訂正制御手段
が、前記鮮明領域決定手段が出力した位置情報に基づい
て、鮮明領域に対して誤り訂正能力の高い誤り訂正符号
を、劣化領域に対しては誤り訂正能力の低い誤り訂正符
号を、それぞれ付加するよう制御することを特徴とす
る、請求項1〜3のいずれかに記載の動き追跡機能付き
テレビ電話。
4. An error correction control means for adding an error correction code to the image data coded by the image coding means, wherein the coding control means further comprises the error correction control means. Based on the position information output by the sharp area determination means, control is performed so as to add an error correction code having a high error correction ability to the clear area and an error correction code having a low error correction ability to the deteriorated area. The videophone with a motion tracking function according to claim 1, wherein the videophone has a motion tracking function.
【請求項5】 前記鮮明領域決定手段が動きベクトルを
取得するブロックの、鮮明領域内における位置は、画像
フレーム内における当該鮮明領域の位置に関連して定め
られることを特徴とする、請求項1〜4のいずれかに記
載の動き追跡機能付きテレビ電話。
5. The position in the clear region of the block from which the clear region determining means obtains the motion vector is determined in relation to the position of the clear region in the image frame. A videophone with a motion tracking function according to any one of to 4.
【請求項6】 前記鮮明領域決定手段が動きベクトルを
取得するブロックの、鮮明領域内における位置は、当該
鮮明領域が、 画像フレームの右端に位置する場合は、当該鮮明領域の
左端に、 画像フレームの左端に位置する場合は、当該鮮明領域の
右端に、 画像フレームの上端に位置する場合は、当該鮮明領域の
下端に、 画像フレームの下端に位置する場合は、当該鮮明領域の
上端に定められることを特徴とする、請求項1〜4のい
ずれかに記載の動き追跡機能付きテレビ電話。
6. The position of the block for obtaining the motion vector by the clear region determining means in the clear region is such that, when the clear region is located at the right end of the image frame, the position of the block is set at the left end of the clear region. If it is located at the left edge of the clear area, it is defined at the right edge of the clear area, if it is located at the top edge of the image frame, it is at the bottom edge of the clear area, and if it is located at the bottom edge of the image frame, it is defined at the top edge of the clear area. The videophone with a motion tracking function according to any one of claims 1 to 4, characterized in that:
【請求項7】 受信した画像フレームの鮮明領域のみ
を、画質を劣化させずに表示し、劣化領域については、
色付けして表示する受信側の動き追跡機能付きテレビ電
話であって、 符号化された画像フレームを受信する通信手段と、 前記通信手段が受信した、符号化された画像フレームを
復号化し、かつ当該フレームを構成しているブロックの
動きベクトルを検出する画像復号化手段と、 前記画像復号化手段の復号化により得られた画像フレー
ムを格納するフレーム格納手段と、 前記画像復号化手段が検出した動きベクトルに基づい
て、前記フレーム格納手段に格納された画像フレームの
鮮明領域を判定して、当該フレームの鮮明領域/劣化領
域の位置情報を出力する鮮明領域判定手段と、 前記フレーム格納手段に格納された画像フレームを、指
定された色で色付けする背景色入力手段と、 前記鮮明領域判定手段が出力した位置情報に基づいて、
当該フレームの劣化領域を色付けするよう、前記背景色
入力手段を制御する復号化制御手段と、 前記フレーム格納手段に格納された画像フレームを表示
する画像表示手段とを備える、受信側の動き追跡機能付
きテレビ電話。
7. A clear area of a received image frame is displayed without deterioration of image quality, and the deteriorated area is
A videophone with a motion tracking function on the receiving side for displaying in color, the communication means receiving an encoded image frame, decoding the encoded image frame received by the communication means, and An image decoding means for detecting a motion vector of a block forming a frame, a frame storing means for storing an image frame obtained by the decoding of the image decoding means, and a motion detected by the image decoding means. Based on the vector, a clear region determination unit that determines the clear region of the image frame stored in the frame storage unit and outputs position information of the clear region / degraded region of the frame, and stores the sharp region in the frame storage unit. A background color input means for coloring the image frame with a designated color, and based on the position information output by the clear area determination means,
A motion tracking function on the receiving side, which comprises a decoding control means for controlling the background color input means so as to color the deteriorated area of the frame, and an image display means for displaying the image frame stored in the frame storage means. Videophone.
【請求項8】 受信した画像フレームに子画面を重ねて
表示するピクチャインピクチャ機能を有するテレビ電話
であって、 符号化された画像フレームを受信する通信手段と、 前記通信手段が受信した、符号化された画像フレームを
復号化し、かつ当該フレームを構成しているブロックの
動きベクトルを検出する画像復号化手段と、 前記画像復号化手段が検出した動きベクトルに基づい
て、前記画像復号化手段が復号化した画像フレーム内の
鮮明領域を判定し、当該フレームの鮮明領域の位置情報
を出力する鮮明領域判定手段と、 前記鮮明領域判定手段が出力した位置情報に基づいて、
子画面の位置を決定して、当該子画面の位置情報を出力
するピクチャインピクチャ位置決定手段と、 子画面に表示される画像と、相手のテレビ電話端末に送
信される画像とを入力する画像入力手段と、 前記鮮明領域判定手段が出力した位置情報と、前記ピク
チャインピクチャ位置決定手段が出力した位置情報とに
基づいて、前記画像復号化手段が復号化して得られた画
像フレームと、前記画像入力手段が入力した、子画面に
表示される画像とを合成して、前記ピクチャインピクチ
ャ位置決定手段が決定した位置に子画面を含むピクチャ
インピクチャ画像を作成するピクチャインピクチャ作成
手段と、 前記ピクチャインピクチャ作成手段が作成したピクチャ
インピクチャ画像を表示する画像表示手段とを備える、
動き追跡機能付きテレビ電話。
8. A videophone having a picture-in-picture function for displaying a received image frame by superimposing a child screen, the communication means receiving the encoded image frame, and the code received by the communication means. An image decoding means for decoding the encoded image frame and detecting a motion vector of a block forming the frame; and based on the motion vector detected by the image decoding means, the image decoding means Determining a clear area in the decoded image frame, based on the position information output by the clear area determination means for outputting the position information of the clear area of the frame, the clear area determination means,
Picture-in-picture position determining means for deciding the position of the small screen and outputting the position information of the small screen, an image for inputting the image displayed on the small screen and the image transmitted to the other party's videophone terminal An image frame obtained by decoding by the image decoding means on the basis of input means, position information output by the clear area determination means, and position information output by the picture-in-picture position determination means; Picture-in-picture creating means for creating a picture-in-picture image including the child screen at the position determined by the picture-in-picture position determining means by combining with the image displayed on the child screen input by the image input means; Image display means for displaying the picture-in-picture image created by the picture-in-picture creating means,
Videophone with motion tracking function.
【請求項9】 受信した画像フレームに子画面を重ねて
表示するピクチャインピクチャ機能を有するテレビ電話
であって、 符号化された画像フレームを受信する通信手段と、 前記通信手段が受信した、符号化された画像フレームを
復号化する画像復号化手段と、 前記画像復号化手段が復号化した画像フレームを構成し
ているブロックが、それぞれ差分情報を有するか否かを
判定し、差分情報を有する場合は、当該ブロックを有効
マクロブロックと判別して、当該ブロックの位置情報を
出力する有効マクロブロック判別手段と、 前記有効マクロブロック判別手段が出力した有効マクロ
ブロックの位置情報に基づいて、子画面の位置を決定
し、当該子画面の位置情報を出力するピクチャインピク
チャ位置決定手段と、 子画面に表示される画像と、相手のテレビ電話端末に送
信される画像とを入力する画像入力手段と、 前記有効マクロブロック判別手段が出力する位置情報
と、前記ピクチャインピクチャ位置決定手段が出力する
位置情報とに基づいて、前記画像復号化手段が復号化し
て得られた画像フレームと、前記画像入力手段により入
力された、子画面に表示される画像とを合成して、前記
ピクチャインピクチャ位置決定手段が決定した位置に子
画面を含むピクチャインピクチャ画像を作成するピクチ
ャインピクチャ作成手段と、 前記ピクチャインピクチャ作成手段が作成したピクチャ
インピクチャ画像を表示する画像表示手段とを備える、
動き追跡機能付きテレビ電話。
9. A videophone having a picture-in-picture function of displaying a child screen in an overlapping manner on a received image frame, the communication means receiving the encoded image frame, and the code received by the communication means. The image decoding means for decoding the converted image frame and the blocks forming the image frame decoded by the image decoding means determine whether or not each has difference information, and have the difference information In this case, the sub-screen is determined based on the position information of the effective macro block which is determined by the effective macro block determining unit that determines the block as the effective macro block and outputs the position information of the block. A picture-in-picture position determining means for determining the position of the child screen and outputting position information of the child screen, and an image displayed on the child screen. Based on image input means for inputting an image to be transmitted to the other party's videophone terminal, position information output by the valid macroblock determination means, and position information output by the picture-in-picture position determination means, The image frame obtained by decoding by the image decoding means and the image displayed on the child screen, which is input by the image inputting means, are combined, and the child is placed at the position determined by the picture-in-picture position determining means. A picture-in-picture creating unit that creates a picture-in-picture image including a screen; and an image display unit that displays the picture-in-picture image created by the picture-in-picture creating unit.
Videophone with motion tracking function.
【請求項10】 画像フレーム内の予め定められた位置
にある画素を、操作者の動作に追従して移動する鮮明領
域が含むことにより、操作者は、当該画素に対応する入
力項目を非接触的に選択することができる非接触操作入
力装置であって、 動画像の入力を行う画像入力手段と、 前記画像入力手段により入力された画像フレームを格納
するフレーム格納手段と、 前記フレーム格納手段に格納された画像フレームを符号
化し、かつ当該フレームを構成するブロックの動きベク
トルを検出する画像符号化手段と、 前記画像符号化手段が出力する動きベクトルに基づい
て、前記フレーム格納手段に格納された画像フレーム内
の所定の領域を、被写体を表示するための鮮明領域に決
定して、当該フレームの鮮明領域の位置情報を出力する
鮮明領域決定手段と、 画像フレーム内の1以上の画素の位置情報を格納し、当
該画素の位置情報と、前記鮮明領域決定手段によって出
力される位置情報とに基づいて、鮮明領域が当該画素を
含むか否かを判定し、含む場合は、当該画素の位置情報
を出力する領域位置判定手段と、 前記領域位置判定手段が出力した位置情報に応じて、操
作命令を選択する操作制御手段とを備える、非接触操作
入力装置。
10. The operator does not touch the input item corresponding to the pixel by including a pixel located at a predetermined position in the image frame in a clear region that moves following the motion of the operator. A non-contact operation input device that can be selectively selected, including image input means for inputting a moving image, frame storage means for storing an image frame input by the image input means, and the frame storage means. An image encoding unit that encodes the stored image frame and detects a motion vector of a block forming the frame, and an image encoding unit that is stored in the frame storage unit based on the motion vector output from the image encoding unit. A clear area determination that determines a predetermined area in the image frame as a clear area for displaying the subject and outputs position information of the clear area of the frame. Means for storing the position information of one or more pixels in the image frame, and based on the position information of the pixel and the position information output by the sharp region determining means, whether the sharp region includes the pixel. In the case of including and determining whether or not it includes an area position determining unit that outputs position information of the pixel, and an operation control unit that selects an operation command according to the position information output by the area position determining unit. Touch operation input device.
【請求項11】 前記鮮明領域決定手段が出力した位置
情報と、前記領域位置判定手段が格納している画素の位
置情報とに基づいて、当該画素を含む位置に、入力項目
を表現する文字/図形情報が、鮮明領域の位置には、鮮
明領域/劣化領域の境界線が表示された操作画面を作成
して、当該操作画面を出力する操作画面出力手段と、 前記操作画面出力手段が出力する操作画面を表示する画
像表示手段とをさらに備える、請求項10に記載の非接
触操作入力装置。
11. A character / character representing an input item at a position including the pixel based on the position information output by the clear area determination unit and the position information of the pixel stored by the area position determination unit. The graphic information creates an operation screen in which a boundary between the clear area and the deteriorated area is displayed at the position of the clear area and outputs the operation screen, and the operation screen output means outputs the operation screen. The non-contact operation input device according to claim 10, further comprising image display means for displaying an operation screen.
JP33655095A 1995-12-25 1995-12-25 Visual telephone having movement tracking function Pending JPH09182043A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP33655095A JPH09182043A (en) 1995-12-25 1995-12-25 Visual telephone having movement tracking function

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP33655095A JPH09182043A (en) 1995-12-25 1995-12-25 Visual telephone having movement tracking function

Publications (1)

Publication Number Publication Date
JPH09182043A true JPH09182043A (en) 1997-07-11

Family

ID=18300302

Family Applications (1)

Application Number Title Priority Date Filing Date
JP33655095A Pending JPH09182043A (en) 1995-12-25 1995-12-25 Visual telephone having movement tracking function

Country Status (1)

Country Link
JP (1) JPH09182043A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004187023A (en) * 2002-12-04 2004-07-02 Nec Corp Moving image encoding device and moving image decoding device
JP2011519220A (en) * 2008-04-25 2011-06-30 トムソン ライセンシング Encoding and decoding method, coder and decoder
JP2011172291A (en) * 2011-06-06 2011-09-01 Fujifilm Corp Image processing device, image processing method, and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004187023A (en) * 2002-12-04 2004-07-02 Nec Corp Moving image encoding device and moving image decoding device
JP2011519220A (en) * 2008-04-25 2011-06-30 トムソン ライセンシング Encoding and decoding method, coder and decoder
US8755436B2 (en) 2008-04-25 2014-06-17 Thomson Licensing Method of coding, decoding, coder and decoder
JP2011172291A (en) * 2011-06-06 2011-09-01 Fujifilm Corp Image processing device, image processing method, and program

Similar Documents

Publication Publication Date Title
KR100881526B1 (en) Data transmission method, apparatus using same, and data transmission system
US5150432A (en) Apparatus for encoding/decoding video signals to improve quality of a specific region
US11895299B2 (en) Encoder, encoding method, decoder, and decoding method
US11800093B2 (en) Encoder, encoding method, decoder, and decoding method
US11729398B2 (en) Encoder, encoding method, decoder, and decoding method
US11375207B2 (en) Encoder, encoding method, decoder, and decoding method
US11064200B2 (en) Encoding apparatus, decoding apparatus, encoding method, and decoding method
JPH04219089A (en) Image encoding device
EP1494481B1 (en) Motion picture receiving device, motion picture transmitting device, and program
JP2004179997A (en) Interactive communication system, video image communication device, and image data distribution method for the same
JPH09182043A (en) Visual telephone having movement tracking function
JP2001189932A (en) Image transmission system and image transmission method
JPH0730888A (en) Moving image transmitter and moving image receiver
JPH10229558A (en) Coder for moving image information
JPH09261530A (en) Video recorder
JP2001128173A (en) Object encoding device
JPH09275550A (en) Video conference system
AU2019274735B2 (en) Encoder, decoder, encoding method, decoding method, and picture compression program
US20220360805A1 (en) Encoder, decoder, encoding method, decoding method, and medium
JP5573385B2 (en) Moving picture coding apparatus and moving picture coding method
JPH06233292A (en) Picture signal transmitting device
JPH09307893A (en) Image communication system, image communication equipment display device
JPH0690446A (en) Visual telephone equipment
JPH09233470A (en) Image communication method and image communication terminal equipment

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040723

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040913

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050125