JP2000059772A - Video displaying system - Google Patents

Video displaying system

Info

Publication number
JP2000059772A
JP2000059772A JP22095798A JP22095798A JP2000059772A JP 2000059772 A JP2000059772 A JP 2000059772A JP 22095798 A JP22095798 A JP 22095798A JP 22095798 A JP22095798 A JP 22095798A JP 2000059772 A JP2000059772 A JP 2000059772A
Authority
JP
Japan
Prior art keywords
video
distance
user
audio
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP22095798A
Other languages
Japanese (ja)
Inventor
Kensuke Uehara
堅助 上原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP22095798A priority Critical patent/JP2000059772A/en
Publication of JP2000059772A publication Critical patent/JP2000059772A/en
Pending legal-status Critical Current

Links

Landscapes

  • Television Receiver Circuits (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a video displaying system for automatically compressing a displaying video or varying a volume at outputting of voice, in matching with the situation of a user. SOLUTION: A distance between the display part 102 of a terminal on a receiving side 100 and a user is measured by a distance measuring sensor 101 to vary the displaying image quality of the part 102 or the volume of voice outputted from a load speaker 103 corresponding to the distance, thereby as a result the volume and screen display according to the situation of the user is realized and the transmission quantity of video data sent from a transmission side is reduced.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、テレビ電話及びマ
ルチメディアパソコン等の情報端末において、通信回線
を介して伝送された映像と音声を、ユーザーの操作状況
に合わせて自動的に、表示映像を圧縮し、または音声出
力の際の音量を変化させる映像表示方式に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information terminal such as a videophone or a multimedia personal computer, which automatically converts a video and a sound transmitted via a communication line into a display video according to a user's operation status. The present invention relates to a video display method for compressing or changing the volume at the time of audio output.

【0002】[0002]

【従来の技術】従来、表示部及び音声出力部を有するパ
ソコン等の携帯端末において、伝送された映像を表示す
る際に、ユーザーが表示画面から顔を離して漫然と画面
を見ている状態でも、一定の画素数で表示している。ま
た、音声を出力する際も、最初に設定された音量で出力
している。
2. Description of the Related Art Conventionally, in a portable terminal such as a personal computer having a display unit and an audio output unit, when displaying a transmitted image, even if a user looks away at the display screen with his / her face away from the display screen, It is displayed with a fixed number of pixels. Also, when outputting sound, the sound is output at the initially set volume.

【0003】[0003]

【発明が解決しようとする課題】しかし、表示画面を見
ている状態は、表示内容が重要でない限り、内容を真剣
に見ている時間はそれほど長くない。例えば、テレビ電
話などでは相手の顔を長時間にわたって詳細に観測する
ことが少ない。ある程度の時間がたつと画面から顔を離
し、表示内容を漠然と見ていることが多くなる。
However, in the state of looking at the display screen, the time for seriously looking at the contents is not so long unless the displayed contents are important. For example, in a videophone or the like, it is rare to observe the other party's face in detail for a long time. After a certain amount of time, the user often turns his / her face off the screen and looks at the displayed content vaguely.

【0004】このような状態になると、表示画面を見る
ことより、相手が発声している音声を聞き漏らさないよ
うに注意することが多くなる。しかし、顔を画面から離
すと顔と画面の距離が長くなるため音声が小さくなり聞
きづらくなる。そこで、機器側のボリユームコントロー
ルを手動で操作して、音量を上げて聴きやすくすること
が行われている。
In such a state, more attention is paid not to overlook the voice uttered by the other party than to look at the display screen. However, when the face is separated from the screen, the distance between the face and the screen becomes longer, so that the voice becomes smaller and it becomes difficult to hear. Therefore, it has been practiced to manually operate the volume control on the device side to increase the volume and make it easier to listen.

【0005】また、表示画面を漫然と見ていても、真剣
に見ていても、画面は高精細に表示され、送信側から送
られてくる映像の転送レートも変わらず、過剰な映像伝
送が行われている。
[0005] Further, whether the user is looking at the display screen at random or seriously, the screen is displayed with high definition, the transfer rate of the video sent from the transmission side does not change, and excessive video transmission is performed. Have been done.

【0006】本発明は、このような従来の問題点に鑑み
為されたもので、ユーザーの状況に合わせて自動的に、
表示映像を圧縮し、または音声出力の際の音量を変化さ
せる映像表示方式を提供することを目的とする。
The present invention has been made in view of such a conventional problem, and automatically adjusts to a user's situation.
It is an object of the present invention to provide a video display method for compressing a display video or changing a volume at the time of audio output.

【0007】[0007]

【課題を解決するための手段】本発明に係る映像表示方
式は、映像と音声を圧縮する圧縮手段と、この圧縮手段
により圧縮された映像を伸長して表示画面に表示する表
示手段と、圧縮手段により圧縮された音声を伸長して出
力する音声出力手段と、表示画面に対向するユーザーと
表示画面との距離を求める手段と、この手段により求め
た距離に応じて、映像の圧縮率と出力される音声の音量
の少なくとも一方を変える手段とを具備することを特徴
とする。
According to the present invention, there is provided a video display system comprising: a compression means for compressing a video and an audio; a display means for expanding a video compressed by the compression means and displaying the video on a display screen; Means for expanding and outputting the sound compressed by the means, means for determining the distance between the user facing the display screen and the display screen, and compression and output of the video according to the distance determined by the means. Means for changing at least one of the volume of the sound to be reproduced.

【0008】このような構成により、ユーザーの状況に
合わせた映像の圧縮率と出力される音声の音量を制御す
ることができる。そして、映像と音声を、通信回線を介
して伝送する場合、通信回線が多チャネルに渡って複数
のユーザーに対して通信サービスを行っている場合に
は、一人当たりの伝送容量が低下することにより、より
多くのユーザーのサービスに供することが可能となる。
With such a configuration, it is possible to control the compression ratio of the video and the volume of the output audio according to the situation of the user. If video and audio are transmitted via a communication line, and if the communication line provides communication services to multiple users over multiple channels, the transmission capacity per person decreases. , It is possible to provide services for more users.

【0009】ここで、距離が所定以上の長さになった場
合、表示手段と音声出力手段の少なくとも一方の動作を
停止する手段を設けることもできる。また、本発明に係
る映像表示方式は、映像と音声を圧縮する手段と、この
手段により圧縮された映像と音声を多チャネルの通信回
線を介して伝送する伝送手段と、この伝送手段により伝
送された圧縮された映像を伸長して表示画面に表示する
表示手段と、伝送手段により伝送された圧縮された音声
を伸長して出力する音声出力手段と、前記表示画面に対
向するユーザーと前記表示画面との距離を求める手段
と、この手段により求めた距離に応じて、映像の圧縮率
と出力される音声の音量の少なくとも一方を変える手段
と、映像の圧縮率が低下して、該当チャネルで所定の通
信容量増加分を確保できなかった場合、一時的に確保で
きた通信容量分で映像を伝送するように制御する制御手
段とを具備することを特徴とする。
Here, means for stopping the operation of at least one of the display means and the sound output means when the distance becomes longer than a predetermined length may be provided. Further, the video display system according to the present invention includes a means for compressing video and audio, a transmission means for transmitting the video and audio compressed by this means via a multi-channel communication line, and a transmission means for transmitting the video and audio. Display means for expanding the compressed video and displaying it on a display screen, audio output means for expanding and outputting the compressed audio transmitted by the transmission means, a user facing the display screen, and the display screen Means for determining the distance between the video signal and the means for changing at least one of the video compression rate and the volume of the output audio in accordance with the distance determined by the means. And control means for controlling transmission of video with the temporarily secured communication capacity when the increased communication capacity cannot be secured.

【0010】更に、本発明に係る映像表示方式は、映像
と音声を圧縮する手段と、この手段により圧縮された映
像と音声を多チャネルの通信回線を介して伝送する伝送
手段と、この伝送手段により伝送された圧縮された映像
を伸長して表示画面に表示する表示手段と、この伝送手
段により伝送された圧縮された音声を伸長して出力する
音声出力手段と、表示画面に対向するユーザーと表示画
面との距離を求める手段と、この手段により求めた距離
に応じて、映像の圧縮率と出力された音声の音量の少な
くとも一方を変える手段と、通信回線中の複数のチャネ
ルで映像の圧縮率が低下して、所定の通信容量増加分を
確保できなかった場合、複数のチャネル間で距離に応じ
て優先度をつけて通信容量を確保する手段とを具備する
ことを特徴とする。
Further, according to the video display system of the present invention, there are provided means for compressing video and audio, transmission means for transmitting the video and audio compressed by this means via a multi-channel communication line, and this transmission means. Display means for expanding the compressed video transmitted by the transmission means and displaying the same on a display screen; audio output means for expanding and outputting the compressed audio transmitted by the transmission means; and a user facing the display screen. Means for determining the distance from the display screen, means for changing at least one of the video compression ratio and the volume of the output audio according to the distance determined by the means, and compression of the video on a plurality of channels in the communication line. Means for securing a communication capacity by assigning a priority according to the distance between a plurality of channels when the rate decreases and a predetermined increase in the communication capacity cannot be secured.

【0011】また、表示画面に対向するユーザーと表示
画面との距離を求める手段が、ユーザーの顔を含む映像
を撮影する手段と、この手段により撮影された映像から
顔領域を抽出する手段と、この手段により抽出された顔
領域の面積からユーザーとの間の距離を算出する手段と
を具備したものとすることもできる。
The means for determining the distance between the user facing the display screen and the display screen includes: means for capturing an image including the user's face; means for extracting a face area from the image captured by the means; Means for calculating the distance to the user from the area of the face region extracted by this means.

【0012】[0012]

【発明の実施の形態】以下、図面を参照して本発明の実
施形態について詳細に説明する。なお、以下の図におい
て、同符号は同一部分または対応部分を示す。まず、以
下に説明する実施形態1及び実施形態2に共通する受信
側端末及び送信側端末の構成とその動作について説明す
る。
Embodiments of the present invention will be described below in detail with reference to the drawings. In the following drawings, the same symbols indicate the same or corresponding parts. First, the configuration and operation of a receiving terminal and a transmitting terminal common to Embodiments 1 and 2 described below will be described.

【0013】図1は実施形態1及び実施形態2における
受信側端末100の外観図である。受信側端末100
は、パソコン、携帯端末あるいはテレビ電話など、送信
側端末と接続され、送信側から伝送された映像を表示
し、音声を出力する用途に関わるものなら、何れのもの
であってもよい。
FIG. 1 is an external view of a receiving terminal 100 according to the first and second embodiments. Receiving terminal 100
May be connected to a terminal on the transmitting side, such as a personal computer, a mobile terminal, or a videophone, and may be of any type as long as it relates to the purpose of displaying an image transmitted from the transmitting side and outputting audio.

【0014】同図に示すように、受信側端末100に、
距離計測センサー101、表示部102、及びスピーカ
103が取り付けられている。受信側端末100の前に
ユーザーが顔を向けていて、表示部102を眺めている
際に、距離計測センサー101から赤外線あるいは超音
波を出力し、ユーザーの顔で反射した赤外線あるいは超
音波を捕捉して、出力時と受信時の時間差から表示部1
02とユーザーの顔との間の距離を測定している。
As shown in FIG.
A distance measurement sensor 101, a display unit 102, and a speaker 103 are attached. When the user faces his / her face in front of the receiving side terminal 100 and looks at the display unit 102, the distance measuring sensor 101 outputs infrared rays or ultrasonic waves, and captures infrared rays or ultrasonic waves reflected by the user's face. Then, based on the time difference between output and reception, the display unit 1
02 and the distance between the user's face.

【0015】図2は、実施形態1及び実施形態2におけ
る受信側端末100と送信側端末112の回路構成を示
すブロック図である。まず、受信側端末100について
説明すると、105は圧縮された音声を伸長する音声復
号化部で、104は伸長され、再現された音声を出力す
る音声出力部で、音声はスピーカ103から出力され
る。107は圧縮された映像を伸長して、元の映像を再
現する映像復号化部で、伸長された映像は表示部102
で表示される。106はマイコンなどで構成され、受信
側端末100全体を制御する制御部Aである。108は
送信側端末112から伝送され多重化された映像信号と
音声信号から映像信号と音声信号を分離する多重分離部
である。110は前記多重化された映像信号と音声信号
を受信する受信部Aである。109は受信側端末100
から送信側端末112に対して制御情報を送信するため
の送信部Aである。
FIG. 2 is a block diagram showing a circuit configuration of the receiving terminal 100 and the transmitting terminal 112 in the first and second embodiments. First, the receiving side terminal 100 will be described. Reference numeral 105 denotes an audio decoding unit for expanding compressed audio, 104 denotes an audio output unit for outputting expanded and reproduced audio, and audio is output from the speaker 103. . Reference numeral 107 denotes a video decoding unit that expands the compressed video and reproduces the original video.
Is displayed with. Reference numeral 106 denotes a control unit A which is configured by a microcomputer or the like and controls the entire receiving terminal 100. Reference numeral 108 denotes a demultiplexing unit that separates a video signal and an audio signal from the multiplexed video signal and audio signal transmitted from the transmitting terminal 112. Reference numeral 110 denotes a receiving unit A that receives the multiplexed video signal and audio signal. 109 is the receiving terminal 100
Is a transmission unit A for transmitting control information to the transmission side terminal 112 from the transmission side.

【0016】受信側端末100と送信側端末112は通
信回線111で接続されていて、映像信号と音声信号が
多重化された信号及び制御情報が相互に伝送される。次
に、送信側端末112の構成について説明する。118
は音声を入力するマイクロホンである。117は入力し
た音声を圧縮する音声符号化部である。120はテレビ
カメラなど映像を入力する映像入力部である。121は
映像入力部120から入力した映像について複数フレー
ムに渡って動きを観察して、評価値を出力する動き検出
部である。116はマイコンなどで構成され、送信側端
末112全体を制御する制御部Bである。115は圧縮
された音声と映像を多重化する多重化部である。114
は多重化した音声と映像を送信する送信部Bである。1
13は受信側端末100から伝送された制御情報を受信
する受信部Bである。
The receiving terminal 100 and the transmitting terminal 112 are connected by a communication line 111, and a signal in which a video signal and an audio signal are multiplexed and control information are mutually transmitted. Next, the configuration of the transmitting terminal 112 will be described. 118
Is a microphone for inputting voice. Reference numeral 117 denotes an audio encoding unit that compresses input audio. Reference numeral 120 denotes an image input unit for inputting an image such as a television camera. Reference numeral 121 denotes a motion detection unit that observes motion of a video input from the video input unit 120 over a plurality of frames and outputs an evaluation value. Reference numeral 116 denotes a control unit B which is configured by a microcomputer or the like and controls the entire transmission side terminal 112. A multiplexing unit 115 multiplexes the compressed audio and video. 114
Is a transmission unit B for transmitting multiplexed audio and video. 1
Reference numeral 13 denotes a receiving unit B that receives control information transmitted from the receiving terminal 100.

【0017】図3は、図2の映像符号化部119の詳細
な回路構成を示すブロック図である。なお、本実施形態
の映像符号化部119では、画面毎に前フレーム(予測
値)との差分を符号化するINTERモードと、差分を
とらずにその画面内で符号化するINTRAモードを選
択できる。例えば、動きの少ない映像や静止画ではIN
TERモードを使用し、動きの大きな映像や、動きが少
ない映像でもシーン・チェンジの際にはINTRAモー
ドを使用する。
FIG. 3 is a block diagram showing a detailed circuit configuration of the video encoder 119 shown in FIG. Note that the video encoding unit 119 according to the present embodiment can select an INTER mode in which a difference from a previous frame (prediction value) is encoded for each screen, or an INTRA mode in which encoding is performed in the screen without taking a difference. . For example, for video or still images with little motion, IN
The TER mode is used, and the INTRA mode is used for a scene change even for a video having a large motion or a video having a small motion.

【0018】また、発生する符号化データ量に応じて量
子化ステップ・サイズも変更し、必要により駒落とし
(フレーム・スキップ)を行なう。図3において、12
4は、映像入力部120からの画素値と当該画素値の予
測誤差との間のエネルギー比較結果及び外部制御信号に
従い、INTRAモード又はINTERモードを選択す
る符号化モード選択回路である。符号化モード選択回路
124は、INTRAモードでは映像入力部120から
の画素値をそのまま出力し、INTERモードでは、そ
の符号化ブロックであるマクロブロック単位で予測値
(前フレーム)との差分(予測誤差)を出力する。
Also, the quantization step size is changed according to the amount of coded data to be generated, and frame skipping (frame skipping) is performed if necessary. In FIG.
Reference numeral 4 denotes an encoding mode selection circuit for selecting an INTRA mode or an INTER mode according to an energy comparison result between a pixel value from the video input unit 120 and a prediction error of the pixel value and an external control signal. In the INTRA mode, the encoding mode selection circuit 124 outputs the pixel value from the video input unit 120 as it is, and in the INTER mode, the difference (prediction error) from the predicted value (previous frame) in macroblock units as the encoded block. ) Is output.

【0019】122は量子化テーブルを記憶する量子化
テーブル記憶回路、123はハフマン・テーブルを記憶
するハフマン・テーブル記憶回路、125は、符号化モ
ード選択回路124の出力を離散コサイン変換し、DC
T係数データを出力する離散コサイン変換回路(DCT
回路)、126は、離散コサイン変換回路(DCT回
路)125から出力されるDCT係数データを、量子化
テーブル記憶回路122で指定された量子化ステップ・
サイズで量子化する量子化回路、127は、量子化回路
126の出力をハフマン・テーブル記憶回路123を参
照してハフマン符号化するハフマン符号化回路、128
はハフマン符号化回路127の出力をバッファリングす
る送信バッファであり、送信バッファ128の出力は多
重化部115に接続されている。
Reference numeral 122 denotes a quantization table storage circuit for storing a quantization table; 123, a Huffman table storage circuit for storing a Huffman table; 125, a discrete cosine transform of the output of an encoding mode selection circuit 124;
Discrete cosine transform circuit (DCT) that outputs T coefficient data
, 126 converts the DCT coefficient data output from the discrete cosine transform circuit (DCT circuit) 125 into a quantization step designated by the quantization table storage circuit 122.
A Huffman coding circuit 127 for performing Huffman coding on the output of the quantization circuit 126 with reference to the Huffman table storage circuit 123;
Is a transmission buffer for buffering the output of the Huffman encoding circuit 127, and the output of the transmission buffer 128 is connected to the multiplexing unit 115.

【0020】130は、量子化回路126の出力を逆量
子化する逆量子化回路、131は逆量子化回路130の
出力を逆離散コサイン変換する逆離散コサイン変換回路
(逆DCT回路)である。132は、INTERモード
で逆離散コサイン変換回路(逆DCT回路)131の出
力に予測値を加算して出力し、INTRAモードでは逆
離散コサイン変換回路(逆DCT回路)131の出力を
そのまま出力する加算器である。133は、動き補償フ
レーム間予測のためのフレーム・メモリであり、加算器
132の出力(局部復号値)を記憶する。136は、映
像入力部120から入力する映像信号とフレーム・メモ
リ133に記憶される前フレームの映像信号とをマクロ
ブロック単位で比較して動きベクトルを検出する動きベ
クトル検出回路である。
Reference numeral 130 denotes an inverse quantization circuit that inversely quantizes the output of the quantization circuit 126, and 131 denotes an inverse discrete cosine transform circuit (an inverse DCT circuit) that performs an inverse discrete cosine transform on the output of the inverse quantization circuit 130. An adder 132 adds the predicted value to the output of the inverse discrete cosine transform circuit (inverse DCT circuit) 131 in the INTER mode and outputs the result, and outputs the output of the inverse discrete cosine transform circuit (inverse DCT circuit) 131 as it is in the INTRA mode. It is a vessel. Reference numeral 133 denotes a frame memory for motion-compensated inter-frame prediction, which stores the output (local decoded value) of the adder 132. A motion vector detection circuit 136 detects a motion vector by comparing the video signal input from the video input unit 120 with the video signal of the previous frame stored in the frame memory 133 on a macroblock basis.

【0021】135は、動きベクトル検出回路136に
より検出された動きベクトルに従い、フレーム・メモリ
133からの前フレームのデータをマクロブロック単位
で画面内で移動させて動きを相殺する動き補償回路であ
る。なお、動きベクトル検出回路136の検出結果は、
図2の動き検出部121にも印加される。134は動き
補償回路135の出力をマクロブロック単位でフィルタ
リングするローパス・フィルタである。ローパス・フィ
ルタ134の出力がフレーム間予測の予測値になり、加
算器132及び減算器129に印加される。
Reference numeral 135 denotes a motion compensating circuit for canceling the motion by moving the data of the previous frame from the frame memory 133 within the screen in units of macro blocks in accordance with the motion vector detected by the motion vector detecting circuit 136. Note that the detection result of the motion vector detection circuit 136 is
It is also applied to the motion detection unit 121 in FIG. Reference numeral 134 denotes a low-pass filter for filtering the output of the motion compensation circuit 135 on a macroblock basis. The output of the low-pass filter 134 becomes a predicted value of the inter-frame prediction, and is applied to the adder 132 and the subtractor 129.

【0022】減算器129は、映像入力部120からの
画素データとローパス・フィルタ134の出力(予測
値)との予測誤差を算出して、符号化モード選択回路1
24に供給する。
The subtractor 129 calculates the prediction error between the pixel data from the video input unit 120 and the output (predicted value) of the low-pass filter 134, and calculates the coding mode selection circuit 1
24.

【0023】ここで、図3の動作を説明する。映像入力
部120から映像データが入力する。映像入力部120
に入力する映像データは符号化モード選択回路124、
減算器129及び動きベクトル検出回路136に印加さ
れる。
Here, the operation of FIG. 3 will be described. Video data is input from the video input unit 120. Video input unit 120
Are input to the encoding mode selection circuit 124,
It is applied to the subtractor 129 and the motion vector detection circuit 136.

【0024】減算器129は、映像入力部120からの
画素データと、ローパス・フィルタ134から出力され
る予測値との差分(予測誤差)を算出し、符号化モード
選択回路124に印加する。符号化モード選択回路12
4は、映像入力部120からの画素値と、減算器129
からの予測誤差とをエネルギー比較し、その比較結果及
び制御部B116からの制御信号に従い符号化モードを
選択する。
The subtractor 129 calculates the difference (prediction error) between the pixel data from the video input unit 120 and the predicted value output from the low-pass filter 134, and applies the difference to the coding mode selection circuit 124. Encoding mode selection circuit 12
4 is a pixel value from the video input unit 120 and a subtractor 129
Is compared with the prediction error, and the encoding mode is selected according to the comparison result and the control signal from the control unit B116.

【0025】そして、INTRAモードでは映像入力部
120からの入力画素値をそのまま離散コサイン変換回
路(DCT回路)125に出力し、INTERモードで
は、映像入力部120からの画素値と減算器129から
の予測誤差を離散コサイン変換回路(DCT回路)12
5に出力する。離散コサイン変換回路(DCT回路)1
25は、符号化モード選択回路124からのデータをブ
ロック単位で離散コサイン(DCT)変換し、DCT係
数データを量子化回路126に出力する。
In the INTRA mode, the input pixel value from the video input unit 120 is directly output to the discrete cosine transform circuit (DCT circuit) 125. In the INTER mode, the pixel value from the video input unit 120 and the subtractor 129 are output. The prediction error is converted into a discrete cosine transform circuit (DCT circuit) 12
5 is output. Discrete cosine transform circuit (DCT circuit) 1
Reference numeral 25 performs discrete cosine (DCT) conversion on the data from the encoding mode selection circuit 124 in block units, and outputs DCT coefficient data to the quantization circuit 126.

【0026】量子化回路126は、離散コサイン変換回
路(DCT回路)125からのDCT係数データを量子
化テーブル記憶回路122で指定される量子化ステップ
・サイズで量子化する。ハフマン符号化回路127は、
ハフマン・テーブル記憶回路123を参照しながら有意
ブロックを判定し、量子化DCT係数をハフマン符号化
する。
The quantization circuit 126 quantizes the DCT coefficient data from the discrete cosine transform circuit (DCT circuit) 125 at a quantization step size specified by the quantization table storage circuit 122. The Huffman encoding circuit 127
A significant block is determined with reference to the Huffman table storage circuit 123, and the quantized DCT coefficients are Huffman-coded.

【0027】送信バッファ128は、ハフマン符号化回
路127によるハフマン符号化データをバッファリング
して多重化部115に出力すると共に、バッファ蓄積量
を制御部B116に伝達する。送信バッファ128と多
重化部115との間に誤り訂正符号化回路を接続しても
よい。
The transmission buffer 128 buffers the Huffman coded data from the Huffman coding circuit 127 and outputs it to the multiplexing unit 115, and transmits the buffer accumulation amount to the control unit B116. An error correction coding circuit may be connected between the transmission buffer 128 and the multiplexing unit 115.

【0028】逆量子化回路130は、量子化回路126
で選択されたのと同じ量子化ステップ・サイズで、量子
化回路126の出力を逆量子化し、DCT係数の代表値
を出力する。逆離散コサイン変換回路(逆DCT回路)
131は、逆量子化回路130の出力を逆離散コサイン
変換する。
The inverse quantization circuit 130 includes a quantization circuit 126
The inverse quantization of the output of the quantization circuit 126 is performed with the same quantization step size as that selected in step (1), and the representative value of the DCT coefficient is output. Inverse discrete cosine transform circuit (Inverse DCT circuit)
131 performs an inverse discrete cosine transform on the output of the inverse quantization circuit 130.

【0029】加算器132は、INTERモードでは、
逆離散コサイン変換回路(逆DCT回路)131の出力
に予測値(ローパス・フィルタ134の出力)を加算
し、INTRAモードでは逆離散コサイン変換回路(逆
DCT回路)131の出力をそのまま出力する。加算器
132の出力は、フレーム・メモリ133に格納され
る。フレーム・メモリ133は少なくとも2フレーム分
の記憶容量を具備し、加算器132の出力画素値(即
ち、局部復号値)を記憶する。
In the INTER mode, the adder 132
The prediction value (the output of the low-pass filter 134) is added to the output of the inverse discrete cosine transform circuit (inverse DCT circuit) 131, and the output of the inverse discrete cosine transform circuit (inverse DCT circuit) 131 is output as it is in the INTRA mode. The output of the adder 132 is stored in the frame memory 133. The frame memory 133 has a storage capacity for at least two frames, and stores an output pixel value of the adder 132 (that is, a locally decoded value).

【0030】動きベクトル検出回路136は、映像入力
部120からの現フレームの画素データとフレーム・メ
モリ133に記憶される前フレームの画素データとを比
較し、映像の動きを検出する。具体的には、現フレーム
の処理中のマクロブロック付近を動きベクトル・サーチ
・ウィンドウとして前フレームの画素データをフレーム
・メモリ133から読み出し、ブロック・マッチング演
算して動きベクトルを検出する。
The motion vector detection circuit 136 compares the pixel data of the current frame from the video input unit 120 with the pixel data of the previous frame stored in the frame memory 133 to detect the motion of the video. Specifically, the pixel data of the previous frame is read from the frame memory 133 as a motion vector search window near the macroblock being processed in the current frame, and a motion vector is detected by performing a block matching operation.

【0031】動き補償回路135は、動きベクトル検出
回路136で検出された動きベクトルに従い、その動き
を相殺するようにフレーム・メモリ133からの前フレ
ームの画素データを画面方向に移動する。ローパス・フ
ィルタ134は、動き補償回路135により動き補償さ
れた前フレームの画素データに対し、ブロック境界にお
ける不連続性を緩和するフィルタ処理を施し、処理デー
タを減算器129及び加算器132に予測値として供給
する。
The motion compensation circuit 135 moves the pixel data of the previous frame from the frame memory 133 in the screen direction according to the motion vector detected by the motion vector detection circuit 136 so as to cancel the motion. The low-pass filter 134 applies filter processing to alleviate the discontinuity at the block boundary to the pixel data of the previous frame that has been motion-compensated by the motion compensation circuit 135, and sends the processed data to the subtractor 129 and the adder 132 with the predicted value. Supply as

【0032】制御部B116は、画質制御信号、及び送
信バッファ128のデータ蓄積量に応じて、映像符号化
部119の全般を制御する。具体的には、送信バッファ
128がオーバーフローしないように、送信バッファ1
28のデータ蓄積量を基に、入力映像の変化、シーン・
チェンジ及び通信者の画質設定に応じて適応的に、量子
化回路126の量子化ステップ・サイズ、符号化モード
選択回路124におけるモード選択、ハフマン符号化回
路127における有意ブロック判定、及び駒落とし(フ
レーム・スキップ)を制御する。
The control section B 116 controls the entire video encoding section 119 according to the image quality control signal and the amount of data stored in the transmission buffer 128. Specifically, the transmission buffer 1 is set so that the transmission buffer 128 does not overflow.
Changes in input video, scenes,
The quantization step size of the quantization circuit 126, the mode selection in the coding mode selection circuit 124, the significant block determination in the Huffman coding circuit 127, and the dropping of frames (frame・ Skip) is controlled.

【0033】動き検出部121は、映像符号化部119
の動きベクトル検出回路136から出力される動きベク
トルを複数フレームにわたって記憶する。記憶する動き
ベクトルは、フレームを構成する全ブロック、又はフレ
ーム内の所定位置の一部のブロックの検出値でよい。動
き検出部121は、このように記憶した複数フレームに
わたる動きベクトルの絶対値の加算値(又は平均値)な
どの評価値に基づいて、映像入力部120の撮影視野内
の物体の動きの大きさと頻度を判定する。判定結果を予
め設定した閾値と比較し、当該閾値以上であるときに、
動き検知信号を制御部B116に出力する。
The motion detecting section 121 includes a video encoding section 119
The motion vector output from the motion vector detection circuit 136 is stored over a plurality of frames. The motion vector to be stored may be a detected value of all blocks constituting the frame or a part of blocks at a predetermined position in the frame. The motion detection unit 121 determines the magnitude of the motion of the object in the field of view of the video input unit 120 based on the evaluation value such as the added value (or the average value) of the absolute values of the motion vectors over a plurality of frames stored as described above. Determine the frequency. The determination result is compared with a preset threshold, and when the determination result is equal to or greater than the threshold,
The motion detection signal is output to the control unit B116.

【0034】図4は、映像復号化部107のブロック図
である。同図において、139は逆離散コサイン変換回
路(逆DCT回路)、140は逆量子化回路、141は
ハフマン復号化回路であり、137は逆量子化回路14
0が利用する量子化テーブルを記憶する量子化テーブル
記憶回路、138はハフマン復号化回路141が利用す
るハフマン・テーブルを記憶するハフマン・テーブル記
憶回路である。
FIG. 4 is a block diagram of the video decoding unit 107. In the figure, 139 is an inverse discrete cosine transform circuit (inverse DCT circuit), 140 is an inverse quantization circuit, 141 is a Huffman decoding circuit, and 137 is an inverse quantization circuit 14
A quantization table storage circuit 138 stores a quantization table used by 0, and a Huffman table storage circuit 138 stores a Huffman table used by the Huffman decoding circuit 141.

【0035】以下に映像符号化部119及び映像復号化
部107の動作を説明する。まず、圧縮時には、図3に
おいて、量子化テーブル記憶回路122及びハフマン・
テーブル記憶回路123には、それぞれ量子化回路12
6での量子化及びハフマン符号化回路127での符号化
に必要な量子化テーブル及びハフマン・テーブルが制御
部B116からロードされる。
The operation of the video encoder 119 and the video decoder 107 will be described below. First, at the time of compression, the quantization table storage circuit 122 and the Huffman
The table storage circuit 123 has a quantization circuit 12
The quantization table and the Huffman table necessary for the quantization in H.6 and the encoding in the Huffman encoding circuit 127 are loaded from the control unit B116.

【0036】離散コサイン変換回路(DCT回路)12
5には、映像情報を画面内で8×8画素の正方形の画素
ブロックに分割して得られる符号化ブロック毎の映像デ
ータが入力する。離散コサイン変換回路(DCT回路)
125は、入力映像データを離散コサイン変換し、量子
化回路126は、量子化テーブル記憶回路122に記憶
された量子化テーブルに従い、離散コサイン変換回路
(DCT回路)125から出力される変換係数データを
量子化する。
A discrete cosine transform circuit (DCT circuit) 12
5 is input with video data for each coding block obtained by dividing the video information into square pixel blocks of 8 × 8 pixels in the screen. Discrete cosine transform circuit (DCT circuit)
Reference numeral 125 denotes a discrete cosine transform of the input video data. A quantization circuit 126 converts transform coefficient data output from the discrete cosine transform circuit (DCT circuit) 125 in accordance with the quantization table stored in the quantization table storage circuit 122. Quantize.

【0037】ハフマン符号化回路127はハフマン・テ
ーブル記憶回路123に記憶されたハフマン・テーブル
を参照して、量子化回路126からの量子化変換係数デ
ータをハフマン符号化する。ハフマン符号化回路127
から出力される符号化データは、圧縮映像データとして
多重化部115に出力される。
The Huffman coding circuit 127 refers to the Huffman table stored in the Huffman table storage circuit 123 and performs Huffman coding on the quantized transform coefficient data from the quantization circuit 126. Huffman encoding circuit 127
Is output to the multiplexing unit 115 as compressed video data.

【0038】伸長時には、図4により量子化テーブル記
憶回路137及びハフマン・テーブル記憶回路138に
は、圧縮時に使用された量子化テーブル及びハフマン・
テーブルが制御部A106からロードされる。
At the time of decompression, the quantization table and the Huffman table used at the time of compression are stored in the quantization table storage circuit 137 and the Huffman table storage circuit 138 according to FIG.
The table is loaded from the control unit A106.

【0039】多重分離部108から印加された圧縮デー
タは、ハフマン復号化回路141に入力される。ハフマ
ン復号化回路141はハフマン・テーブル記憶回路13
8に記憶されたハフマン・テーブルを参照して、圧縮映
像データをハフマン復号化する。逆量子化回路140は
ハフマン復号化回路141から出力されたデータを量子
化テーブル記憶回路137に記憶された量子化テーブル
を参照して逆量子化してから、逆離散コサイン変換回路
(逆DCT回路)139で逆離散コサイン変換する。逆
離散コサイン変換されたデータは、圧縮映像データが復
元されたものとして表示部102に出力される。以下に
本発明の複数の実施形態について説明する。
The compressed data applied from the demultiplexer 108 is input to the Huffman decoding circuit 141. The Huffman decoding circuit 141 is used for the Huffman table storage circuit 13.
With reference to the Huffman table stored in 8, the compressed video data is Huffman-decoded. The inverse quantization circuit 140 inversely quantizes the data output from the Huffman decoding circuit 141 with reference to the quantization table stored in the quantization table storage circuit 137, and then performs an inverse discrete cosine transform circuit (an inverse DCT circuit) At 139, inverse discrete cosine transform is performed. The data subjected to the inverse discrete cosine transform is output to the display unit 102 as the restored compressed video data. Hereinafter, a plurality of embodiments of the present invention will be described.

【0040】(実施形態1)まず、実施形態1について
説明する。送信側端末112でソースとなる映像と音声
を生成する。映像については、映像入力部120でデジ
タル映像が作成される。例えば、テレビ電話システムに
適用した場合、映像入力部120はテレビカメラに相当
し、送信側でのユーザーの上半身像などを撮影する。映
像を映像入力部120で撮影するのと同時にマイクロホ
ン118でユーザーの音声を聴取する。
(Embodiment 1) First, Embodiment 1 will be described. The transmitting terminal 112 generates video and audio as a source. As for the video, a digital video is created by the video input unit 120. For example, when applied to a video phone system, the video input unit 120 corresponds to a TV camera, and captures an upper body image of the user on the transmission side. At the same time as the video is captured by the video input unit 120, the user's voice is heard by the microphone 118.

【0041】デジタル映像は映像符号化部119に入力
する。制御部B116はシステムの初期状態なので、こ
のシステムで圧縮率が最も低い量子化テーブル及びハフ
マン・テーブルをそれぞれ量子化テーブル記憶回路12
2、及びハフマン・テーブル記憶回路123にセットす
る。
The digital video is input to the video encoder 119. Since the control unit B116 is in the initial state of the system, the quantization table and the Huffman table with the lowest compression ratio in this system are stored in the quantization table storage circuit 12 respectively.
2, and set in the Huffman table storage circuit 123.

【0042】制御部B116は映像符号化部119を使
って、入力された映像を圧縮する。その際、映像符号化
部119は量子化テーブル記憶回路122、及びハフマ
ン・テーブル記憶回路123にセットされたテーブルを
使って映像を圧縮処理する。
The control unit B116 uses the video encoding unit 119 to compress the input video. At this time, the video encoding unit 119 compresses the video using the tables set in the quantization table storage circuit 122 and the Huffman table storage circuit 123.

【0043】一方、マイクロホン118から出力した音
声は音声符号化部117で圧縮される。そして、映像符
号化部119で圧縮処理された映像データと音声符号化
部117で圧縮処理された音声データは多重化部115
に出力されて、両データは同期化されて送信部B114
に送られる。
On the other hand, the sound output from the microphone 118 is compressed by the sound coding unit 117. Then, the video data compressed by the video encoding unit 119 and the audio data compressed by the audio encoding unit 117 are combined by the multiplexing unit 115.
, And the two data are synchronized and transmitted by the transmitting unit B114.
Sent to

【0044】送信部B114は後述のように伝送すべき
映像データのビットレートが頻繁に変化するため、伝送
の際に適宜必要とする通信容量を容易に確保でき、音声
データを伝送するために、遅延量が少ない方式が必要と
される。
Since the bit rate of the video data to be transmitted frequently changes as will be described later, the transmission unit B114 can easily secure the required communication capacity at the time of transmission easily. A scheme with a small amount of delay is required.

【0045】多重化された映像データと音声データは通
信回線111を介して受信側端末100の受信部A11
0に印加される。そして、多重化された映像データと音
声データは多重分離部108で音声データと映像データ
に分離される。音声データは音声復号化部105で元の
音声データに伸長され、音声出力部104でパワーアッ
プされてスピーカ103から出力される。
The multiplexed video data and audio data are transmitted to the receiving section A11 of the receiving terminal 100 via the communication line 111.
0 is applied. Then, the multiplexed video data and audio data are separated by the demultiplexer 108 into audio data and video data. The audio data is expanded into the original audio data by the audio decoding unit 105, powered up by the audio output unit 104, and output from the speaker 103.

【0046】一方、映像データは映像復号化部107に
印加される。映像復号化部107では、制御部A106
から量子化テーブル記憶回路137、ハフマン・テーブ
ル記憶回路138に圧縮時使用された量子化テーブル及
びハフマン・テーブルがセットされてから、伸長処理が
行われる。伸長された映像データは表示部102で表示
される。
On the other hand, the video data is applied to the video decoding unit 107. In the video decoding unit 107, the control unit A106
After the quantization table and the Huffman table used at the time of compression are set in the quantization table storage circuit 137 and the Huffman table storage circuit 138, decompression processing is performed. The decompressed video data is displayed on the display unit 102.

【0047】ここで、この実施形態においては、距離計
測センサー101で測定したユーザーの顔と表示部10
2との距離に対応して、表示部102に表示される映像
の解像度を変えるのと、同時にスピーカ103から出力
される音声の出力も変えることを特徴としている。そこ
で、ユーザーの顔と表示部102との間の距離を図5の
ように3段階に分けて、各段階でユーザーが表示部10
2と対面した状況に合わせて映像の解像度及び音量を適
切に設定することを目的としている。
Here, in this embodiment, the user's face measured by the distance measurement sensor 101 and the display unit 10
It is characterized in that the resolution of the video displayed on the display unit 102 is changed and the output of the sound output from the speaker 103 is changed at the same time in accordance with the distance to the display unit 102. Therefore, the distance between the user's face and the display unit 102 is divided into three stages as shown in FIG.
The purpose of the present invention is to appropriately set the resolution and volume of a video image in accordance with the situation where the video camera 2 faces.

【0048】図5(A)〜(E)の横軸は、表示部10
2とユーザーの顔との距離を示している。A点が表示部
102の位置である。表示部102からの距離は近距離
域(表示部102からの距離α以内)、中距離域(表示
部102からの距離α以上で、β以内)、遠距離域(表
示部102からの距離β以上)の3段階に分けている。
The horizontal axes in FIGS. 5A to 5E correspond to the display unit 10.
2 shows the distance between the user and the user's face. Point A is the position of the display unit 102. The distance from the display unit 102 is a short distance range (within a distance α from the display unit 102), a medium distance range (more than a distance α from the display unit 102 and within β), and a long distance range (a distance β from the display unit 102) Above).

【0049】近距離域はユーザーが画面の近くに居て、
画面の内容を詳細に観察していて、画面も高解像度で表
示している。中距離域はユーザーが画面の表示内容をそ
れほど重要でないと判断し、目を休めるために画面から
顔を離している。しかし、出力される音声を聞き漏らさ
ないように聴取している状態である。遠距離域はユーザ
ーが画面から遠ざかるかあるいは完全に離れてしまった
状態で、ユーザーが遠くから画面を見ていて画面のシー
ンが変わったとか、音声に何か変化があったとかが判断
できればよい程度であり、高圧縮率の画面でよく、音量
も小さくしてもよい。
In the short range, the user is near the screen,
He observes the contents of the screen in detail, and also displays the screen at high resolution. In the middle range, the user determines that the content displayed on the screen is not so important, and removes his / her face from the screen to take a rest. However, the user is listening to the output voice so as not to miss it. The far range is a state where the user has moved away from the screen or completely separated, and it is only necessary to be able to judge whether the screen scene has changed or the sound has changed something when the user is looking at the screen from a distance. The screen may have a high compression rate and the volume may be reduced.

【0050】前記、表示部102とユーザーの顔をどの
程度の距離で分割して近距離域、中距離域及び遠距離域
に区分けするかは実際の運用状態で変化する。表示部1
02の面積、表示部102の最大の表示能力、ユーザー
の年齢などで変わってくる。従って、実際のシステムに
合わせて試行して決める必要がある。
The distance by which the display unit 102 and the user's face are divided into the short range, the medium range, and the long range varies depending on the actual operation state. Display 1
02, the maximum display capacity of the display unit 102, the age of the user, and the like. Therefore, it is necessary to determine it by trial according to the actual system.

【0051】図5(A)と図5(C)の縦軸は表示部1
02とユーザーの顔との距離に対応した表示部102に
表示される映像の圧縮率の設定状態を示している。圧縮
率はレベル1、レベル2、及びレベル3の3段階に分け
ている。
The vertical axis in FIGS. 5A and 5C indicates the display unit 1.
The setting state of the compression ratio of the video displayed on the display unit 102 corresponding to the distance between the user 02 and the user's face is shown. The compression ratio is divided into three levels: level 1, level 2, and level 3.

【0052】図5(B)と図5(D)の縦軸は表示部1
02とユーザーの顔との距離に対応した表示部102に
表示される映像のフレーム数の変化を示している。フレ
ーム数もレベル1、レベル2、及びレベル3の3段階に
分けている。
The vertical axis in FIG. 5B and FIG.
11 shows a change in the number of frames of a video image displayed on the display unit 102 corresponding to the distance between 02 and the user's face. The number of frames is also divided into three levels: level 1, level 2, and level 3.

【0053】図5(E)の縦軸は、表示部102とユー
ザーの顔との距離に対してスピーカ103から出力され
る音量の設定状態を示している。音量もレベル1、レベ
ル2及びレベル3の3段階に分けている。
The vertical axis of FIG. 5E shows the setting of the volume output from the speaker 103 with respect to the distance between the display unit 102 and the user's face. The volume is also divided into three levels: level 1, level 2 and level 3.

【0054】図5(A)と図5(B)は、表示部102
に表示される映像の動きが大きい場合に、表示される映
像の圧縮率とフレーム数の設定状態を示している。すな
わち、圧縮率は中距離域で近距離域よりレベル1からレ
ベル2まで上げるが、フレーム数は近距離域と同じレベ
ル3に設定して、できるだけ画面の動きに追従できるよ
うにしている。同様に、遠距離域も圧縮率はレベル3に
設定するが、フレーム数は中距離域よりレベルを1ラン
ク下げてレベル2に設定している。
FIGS. 5A and 5B show the display unit 102.
3 shows the setting state of the compression ratio and the number of frames of the displayed video when the motion of the displayed video is large. In other words, the compression ratio is increased from level 1 to level 2 in the medium range in comparison with the short range, but the number of frames is set to level 3 which is the same as in the short range so as to follow the movement of the screen as much as possible. Similarly, the compression ratio is set to level 3 in the long distance region, but the number of frames is set to level 2 by lowering the level by one rank from the middle distance region.

【0055】また、符号化で量子化テーブル記憶回路1
22に、復号化で量子化テーブル記憶回路137に設定
する量子化テーブルは近距離域ではA1、中距離域では
A2、遠距離域ではA3としている。符号化でハフマン
・テーブル記憶回路123に、復号化でハフマン・テー
ブル記憶回路138に設定するハフマン・テーブルは近
距離域ではB1、中距離域ではB2、遠距離域ではB3
としている。
The quantization table storage circuit 1 for encoding
22, the quantization table set in the quantization table storage circuit 137 for decoding is A1 in the short range, A2 in the middle range, and A3 in the long range. The Huffman table set in the Huffman table storage circuit 123 for encoding and the Huffman table storage circuit 138 for decoding is B1 in the short range, B2 in the medium range, and B3 in the long range.
And

【0056】図5(C)と図5(D)は、表示部102
に表示される映像の動きが小さい場合に、表示される映
像の圧縮率とフレーム数の設定状態を示している。すな
わち、圧縮率は画質を重視するため中距離域と近距離域
を同じレベル1にしている。しかし、画面の動きが少な
いため、フレーム数は中距離域について近距離域よりを
1ランク下げてレベル2にしている。また、遠距離域で
は圧縮率を中距離域より1ランク上げてレベル2とし、
フレーム数は中距離域より1ランク下げてレベル3にし
ている。また、符号化で量子化テーブル記憶回路12
2、復号化で量子化テーブル記憶回路137に設定する
量子化テーブルは近距離域ではA1、中距離域ではA
1、遠距離域ではA2としている。符号化でハフマン・
テーブル記憶回路123、復号化でハフマン・テーブル
記憶回路138に設定するハフマン・テーブルは近距離
域ではB1、中距離域ではB1、遠距離域ではB2とし
ている。
FIGS. 5C and 5D show the display unit 102.
4 shows the setting state of the compression ratio and the number of frames of the displayed video when the motion of the displayed video is small. That is, the compression ratio is set to the same level 1 in the middle distance region and the short distance region in order to emphasize the image quality. However, since the movement of the screen is small, the number of frames is set to level 2 by lowering the number of frames in the middle range by one rank than in the short range. In the long distance range, the compression ratio is raised by one rank from the middle distance range to Level 2,
The number of frames is set at level 3 which is one rank lower than the middle distance range. In addition, the quantization table storage circuit 12
2. The quantization table set in the quantization table storage circuit 137 for decoding is A1 in the short range and A in the middle range.
1, A2 in the long distance range. Huffman encoding
The Huffman table set in the table storage circuit 123 and the Huffman table storage circuit 138 for decoding is B1 in the short range, B1 in the middle range, and B2 in the long range.

【0057】ここで、フレーム数は、上述したように送
信バッファ128のデータ蓄積量を制御して駒落しを行
い、規定のフレーム数に設定している。例えば、図5
(D)のように中距離域で量子化テーブルA1、ハフマ
ン・テーブルB1で、近距離域のフレーム数レベル3か
ら駒落しでフレーム数をレベル2まで落としている。
Here, the number of frames is set to a specified number of frames by performing frame dropping by controlling the amount of data stored in the transmission buffer 128 as described above. For example, FIG.
As shown in (D), in the quantization table A1 and the Huffman table B1 in the middle range, the number of frames is reduced from level 3 in the short range to level 2 by dropping frames.

【0058】そして、中距離域及び遠距離域で映像の動
きが大きい場合(図5(A)、及び(B))と映像の動
きが小さい場合(図5(C)、及び(D))で、通信回
線111を介して伝送されるビットレートを同じになる
ように、圧縮率の各レベル及びフレーム数の各レベルを
合わせている。
Then, when the motion of the image is large (FIGS. 5A and 5B) and when the motion of the image is small (FIGS. 5C and 5D) in the middle distance range and the long distance range. Therefore, each level of the compression ratio and each level of the number of frames are matched so that the bit rate transmitted via the communication line 111 is the same.

【0059】図5(E)は、スピーカ103から出力さ
れる音量の設定状態を示している。近距離域はユーザー
が画面の側に位置しているため中程度の音量でレベル
2、中距離域はユーザーが画面を注視せず、音声を注意
深く聞いているため音量を大きくしてレベル3、遠距離
域はユーザーが画面常時見ていなく、音声も聞いていな
い状態のため音量は最低のレベル1に設定している。
FIG. 5E shows a setting state of the volume output from the speaker 103. In the short range, the user is located on the side of the screen, and the level is 2 at a medium volume. In the middle range, the user does not gaze at the screen and listens carefully to the voice. In the long distance range, the volume is set to the lowest level 1 because the user does not always watch the screen and does not listen to the voice.

【0060】図6は、図5における表示部102とユー
ザーの顔との距離に応じた表示映像の圧縮率、フレーム
数、及び音量の設定過程をフローチャートで示したもの
で、主に受信側端末100の動作状態を示している。
FIG. 6 is a flowchart showing a process of setting the compression rate, the number of frames, and the volume of the display image according to the distance between the display unit 102 and the face of the user in FIG. 100 shows an operating state.

【0061】受信側端末100では、表示部102と、
これに対向するユーザーの顔との間の距離を距離計測セ
ンサー101で測定して、距離が前記近距離域、中距離
域及び遠距離域のどの領域であるか、またユーザーの顔
が移動して、前記領域間を移動した場合に、このこと
を、送信側端末112に知らせる。
At the receiving terminal 100, a display unit 102,
The distance between the user and the opposing user's face is measured by the distance measurement sensor 101, and the distance is any of the short, medium, and long distance areas. Then, when the user moves between the areas, it notifies the transmitting terminal 112 of this fact.

【0062】図6で、フラグFL1は、ユーザーの顔が
近距離域、中距離域、及び遠距離域のどこに位置してい
るかを示している。FL1=1の場合は近距離域、FL
1=2の場合は中距離域、FL1=3の場合は遠距離域
を示している。
In FIG. 6, a flag FL1 indicates where the user's face is located in the short range, the middle range, and the long range. When FL1 = 1, short range, FL
When 1 = 2, it indicates a middle range, and when FL1 = 3, it indicates a long range.

【0063】また、フラグFL2はユーザーの顔がどの
ような状態にあるかを示している。すなわち、FL2=
0の場合、ユーザーの顔が動かず、近距離域、中距離
域、遠距離域に留まっている。FL2=1の場合、ユー
ザーの顔が表示部102に近づいた状態を示している。
即ち、中距離域から近距離域への顔の移動、あるいは遠
距離域から中距離域への顔の移動を示している。FL2
=2の場合、ユーザーの顔が表示部102から遠ざかっ
た状態を示している。即ち、近距離域から中距離域への
顔の移動あるいは中距離域から遠距離域への顔の移動を
示している。
The flag FL2 indicates the state of the user's face. That is, FL2 =
In the case of 0, the user's face does not move and stays in the short range, middle range, and long range. When FL2 = 1, it indicates a state in which the user's face approaches the display unit 102.
In other words, the movement of the face from the middle range to the short range or the movement of the face from the far range to the middle range is shown. FL2
In the case of = 2, it indicates that the user's face has moved away from the display unit 102. That is, the movement of the face from the short range to the middle range or the movement of the face from the middle range to the long range is shown.

【0064】まず、FL1とFL2を初期化する(S0
1、S02)。距離計測センサー101で表示部102
とユーザーの顔との間の距離を測定する(S03)。測
定した距離が近距離域、中距離域、あるいは遼距離域か
調べる(S04、S06)。顔の位置が現在近距離域
で、前の顔の位置を調べる(S05)。前の顔の位置が
近距離域ならば顔は移動なしとして、FL2=0とする
(S08)。顔が中距離域から近距離域に近づいた揚
合、FL2=1とする(S07)。現在の距離領域値を
FL1=1として設定する(S19)。
First, FL1 and FL2 are initialized (S0
1, S02). Display unit 102 with distance measurement sensor 101
The distance between the user and the user's face is measured (S03). It is checked whether the measured distance is a short range, a middle range, or a Liao range (S04, S06). The position of the face is currently in the short range, and the position of the previous face is checked (S05). If the position of the previous face is in the short distance range, the face is determined not to move and FL2 = 0 (S08). When the face approaches the short distance range from the middle distance range, FL2 = 1 is set (S07). The current distance area value is set as FL1 = 1 (S19).

【0065】顔の位置が現在中距離域で、前の顔の位置
状態を調べる(S09、S11)。前の顔の位置が中距
離域で移動が無ければFL2=0とする(S14)。前
の顔の位置が近距離域で中距離域に移動した場合、FL
2=2とする(S13)。前の顔の位置が遠距離域で中
距離域に移動した場合、FL2=1とする(S12)。
現在の距離領域値をFL1=2として設定する(S2
0)。
The position of the face is currently in the middle distance range, and the position of the previous face is checked (S09, S11). If the position of the previous face has not moved in the middle distance range, FL2 = 0 is set (S14). When the position of the previous face moves to the middle range in the short range, FL
2 = 2 (S13). When the position of the previous face has moved to the middle range in the long range, FL2 = 1 is set (S12).
The current distance area value is set as FL1 = 2 (S2
0).

【0066】顔の位置が現在遠距離域で、前の顔の位置
状態を調べる(S10)。前の顔の位置が遠距離域で移
動が無ければFL2=0とする(S18)。前の顔の位
置が中距離域で遠距離域に移動した場合、FL2=2と
する(S16)。現在の距離領域値をFL1=3として
設定する(S21)。
If the position of the face is currently in the long distance area, the position of the previous face is checked (S10). If the position of the previous face has not moved in the long distance area, FL2 = 0 is set (S18). When the position of the previous face has moved to the long distance area in the middle distance area, FL2 = 2 is set (S16). The current distance area value is set as FL1 = 3 (S21).

【0067】次に、ユーザーの顔が移動したか調べる
(S22)。移動しない場合、ループの先頭(S03)
に戻る。移動した場合、FL1とFL2の値を送信部A
109、通信回線111、受信部B113を介して制御
部B116に送る(S23)。
Next, it is checked whether the user's face has moved (S22). If not moved, the beginning of the loop (S03)
Return to When moving, the values of FL1 and FL2 are
The data is sent to the control unit B116 via the communication unit 109, the communication line 111, and the receiving unit B113 (S23).

【0068】尚、図6の、距離計測センサー101で表
示部102とユーザーの顔との間の距離を測定してFL
1及びFL2を設定するシーケンスは、タイマーなどで
周期的にループするように制御部A106で制御する。
The distance between the display unit 102 and the user's face is measured by the distance measuring sensor 101 in FIG.
The sequence for setting 1 and FL2 is controlled by the control unit A106 so as to periodically loop with a timer or the like.

【0069】図7は、送信側端末112において、受信
側でユーザーの顔が表示部102に近づいた場合の処理
シーケンスである。まず、ユーザーの顔が移動しない場
合、処理がに移る(S24)。ユーザーの顔が遠ざか
った場合、処理がに移る(S25)。ユーザーの顔が
近づいた場合、表示部102に表示される映像の圧縮率
が低下し、送信側端末112から受信側端末100に伝
送する映像データが増加するため、通信回線のデータ伝
送量が増加する。そして、急には、今まで確保していた
通信回線の容量が確保できないことがある。そこで、通
信容量の確保ができたかどうかをチェックし(S2
6)、確保できない場合、シーケンスの先頭(S24)
に戻り、容量が確保できるまで、ループして表示部10
2に表示する映像の解像度を前のままにしておく。
FIG. 7 shows a processing sequence in the case where the face of the user approaches the display unit 102 on the receiving side in the transmitting terminal 112. First, if the user's face does not move, the process proceeds to (S24). If the user's face has moved away, the process proceeds to (S25). When the user's face approaches, the compression rate of the video displayed on the display unit 102 decreases, and the video data transmitted from the transmitting terminal 112 to the receiving terminal 100 increases, so that the data transmission amount of the communication line increases. I do. Suddenly, the capacity of the communication line that has been secured may not be secured. Therefore, it is checked whether the communication capacity has been secured (S2).
6) If not secured, start of sequence (S24)
And loop until the capacity can be secured.
The resolution of the video to be displayed on the display 2 remains unchanged.

【0070】そして、容量が確保できた場合、現在ユー
ザーの顔がどの距離領域に位置しているか調べる(S2
7)。ユーザーの顔が中距離域から近距離域に移動した
場合、フラグFLCを1、FLFを3、FLVを2に設
定する(S29)。フラグFLCは図5(A)、(C)
における圧縮率のレベルの設定状態を示している。すな
わちレベル1の場合は、FLCは1に設定される。同様
にFLFは図5(B)、(D)におけるフレーム数のレ
ベルの設定状態を示している。FLVは図5(E)にお
ける音量のレベルの設定状態を示している。
When the capacity is secured, it is checked in which distance area the user's face is currently located (S2).
7). When the user's face has moved from the middle range to the short range, the flag FLC is set to 1, the FLF is set to 3, and the FLV is set to 2 (S29). The flag FLC is shown in FIGS.
2 shows the setting state of the compression ratio level in FIG. That is, in the case of level 1, FLC is set to 1. Similarly, FLF indicates the setting state of the level of the number of frames in FIGS. 5B and 5D. FLV indicates the setting state of the volume level in FIG.

【0071】そして制御部B116から前記圧縮率と、
フレーム数の映像生成用の量子化テーブルとハフマン・
テーブルについて、量子化テーブル記憶回路122に量
子化テーブルA1、ハフマン・テーブル記憶回路123
にハフマン・テーブルB1を設定する(S32)。
Then, from the control unit B 116,
A quantization table and a Huffman
Regarding the table, the quantization table A1 and the Huffman table storage circuit 123 are stored in the quantization table storage circuit 122.
The Huffman table B1 is set (S32).

【0072】そして、FLC、FLF及びFLVは、制
御部B116から多重化部115、送信部B114、通
信回線111、受信部A110を介して制御部A106
に送られる(S35)。
The FLC, FLF, and FLV are transmitted from the control unit B 116 to the control unit A 106 via the multiplexing unit 115, the transmission unit B 114, the communication line 111, and the reception unit A 110.
(S35).

【0073】そして、前記で設定された量子化テーブル
A1及びハフマン・テーブルB1により映像符号化部1
19で圧縮処理が行われ、同時に、マイクロホン118
から入力した音声は音声符号化部117で圧縮される
(S36)。
Then, the video encoding unit 1 uses the quantization table A1 and the Huffman table B1 set as described above.
The compression process is performed at 19 and at the same time, the microphone 118
Is compressed by the voice encoding unit 117 (S36).

【0074】前記圧縮した映像データと音声データは多
重化部115で多重化され、送信部B114、通信回線
111及び受信部A110を介して多重分離部108に
送られる(S37)。多重分離部108で、映像データ
と音声データは分離され、映像データは映像復号化部1
07、音声データは音声復号化部105に印加される。
The compressed video data and audio data are multiplexed by the multiplexing unit 115 and sent to the demultiplexing unit 108 via the transmitting unit B114, the communication line 111 and the receiving unit A110 (S37). The video data and the audio data are separated by the demultiplexer 108, and the video data is separated by the video decoder 1
07, the audio data is applied to the audio decoding unit 105.

【0075】S27で、ユーザーの顔の位置が遠距離域
から中距離域へ移動した場合、これから受信側端末10
0に送ろうとしている映像の動きを調べる(S28)。
映像の動きは動き検出部121で調べられ、動きが大き
い場合、フレーム数をできるだけ大きくし近距離域と同
じフレーム数に設定するためFLFを3、代わりに圧縮
率を近距離域より大きくするため、FLCを2、音声は
近距離域より音量を大きくしてFLVを3とする(S3
0)。量子化テーブル記憶回路122とハフマン・テー
ブル記憶回路123に対して量子化テーブルA2、ハフ
マン・テーブルB2が設定される(S33)。
In step S27, if the position of the user's face has moved from the long range to the middle range, the receiving terminal 10
The motion of the video to be sent to 0 is checked (S28).
The motion of the video is examined by the motion detection unit 121. If the motion is large, the FLF is set to 3 in order to increase the number of frames as much as possible and set the same as the number of frames in the short range, and in order to increase the compression ratio instead of the short range. , FLC is set to 2 and the sound volume of the voice is set to be larger than that in the short range to set the FLV to 3 (S3
0). The quantization table A2 and the Huffman table B2 are set in the quantization table storage circuit 122 and the Huffman table storage circuit 123 (S33).

【0076】また、動きが小さい場合、圧縮率は近距離
域と同じにするためFLCを1、代わりにフレーム数を
小さくしてFLFを2とし、音声は近距離域より音量を
大きくしてFLVを3とする(S31)。量子化テーブ
ル記憶回路122とハフマン・テーブル記憶回路123
に対して量子化テーブルA1、ハフマン・テーブルB1
が設定される(S34)。
When the motion is small, the FLC is set to 1 in order to make the compression ratio the same as that in the short range, the FLF is set to 2 by reducing the number of frames, and the sound volume is set to be larger than the FLV in the short range. Is set to 3 (S31). Quantization table storage circuit 122 and Huffman table storage circuit 123
, Quantization table A1, Huffman table B1
Is set (S34).

【0077】次に、図7のS24でFL2=0すなわち
ユーザーの顔が動かない場合(処理がに移る場合)、
図8のシーケンスに移る。まず、ユーザーの顔と表示部
102との間の距離が近距離域かどうかをチェックする
(S39)。近距離域の場合、処理を行わず、ループの
先頭(図7の)に戻る。前記距離が近距離域でない場
合、中距離域かどうかをチェックする(S40)。中距
離域の場合、動き検出部121で映像の動きをチェック
する(S44)。以下の処理は図7のS28からのシー
ケンスと同様の処理を行い、FLC,FLF及びFLV
の設定を行い(S45、S46)、量子化テーブル記憶
回路122とハフマン・テーブル記憶回路123に対し
て量子化テーブル、ハフマン・テーブルを設定する(S
47、S48)。
Next, in step S24 of FIG. 7, when FL2 = 0, that is, when the user's face does not move (when the processing shifts to),
It moves to the sequence of FIG. First, it is checked whether the distance between the user's face and the display unit 102 is in a short distance range (S39). In the case of the short range, the process returns to the beginning of the loop (FIG. 7) without performing the processing. If the distance is not in the short range, it is checked whether it is in the middle range (S40). In the case of the middle distance range, the motion detection unit 121 checks the motion of the video (S44). In the following processing, the same processing as the sequence from S28 in FIG. 7 is performed, and FLC, FLF, and FLV
Are set (S45, S46), and a quantization table and a Huffman table are set in the quantization table storage circuit 122 and the Huffman table storage circuit 123 (S45).
47, S48).

【0078】そして、FLC、FLF及びFLVは、制
御部B116から多重化部115、送信部B114、通
信回線111、受信部A110を介して制御部A106
に送られる(S51)。
The FLC, FLF, and FLV are transmitted from the control unit B 116 to the control unit A 106 via the multiplexing unit 115, the transmission unit B 114, the communication line 111, and the reception unit A 110.
(S51).

【0079】そして、前記で設定された量子化テーブル
A1及びハフマン・テーブルB1により映像符号化部1
19で圧縮処理が行われ、同時に、マイクロホン118
から入力した音声は音声符号化部117で圧縮される
(S52)。
Then, the video encoding unit 1 uses the quantization table A1 and the Huffman table B1 set as described above.
The compression process is performed at 19 and at the same time, the microphone 118
Is compressed by the voice coding unit 117 (S52).

【0080】前記圧縮した映像データと音声データは多
重化部115で多重化され、送信部B114、通信回線
111及び受信部A110を介して多重分離部108に
送られる(S53)。多重分離部108で、映像データ
と音声データは分離され、映像データは映像復号化部1
07、音声データは音声復号化部105に印加される。
The compressed video data and audio data are multiplexed by the multiplexing unit 115 and sent to the demultiplexing unit 108 via the transmitting unit B114, the communication line 111, and the receiving unit A110 (S53). The video data and the audio data are separated by the demultiplexer 108, and the video data is separated by the video decoder 1
07, the audio data is applied to the audio decoding unit 105.

【0081】図8でFL1=3の場合、すなわち遠距離
域において、動き検出部121で映像の動きをチェック
する(S41)。動きが大きい場合、FLCを3、FL
Fを2、FLVを1とする(S42)。量子化テーブル
記憶回路122とハフマン・テーブル記憶回路123に
対して量子化テーブルA3、ハフマン・テーブルB3が
設定される(S49)。
In FIG. 8, when FL1 = 3, that is, in the long distance range, the motion of the video is checked by the motion detecting section 121 (S41). If the movement is large, FLC is 3, FL
F is set to 2 and FLV is set to 1 (S42). The quantization table A3 and the Huffman table B3 are set in the quantization table storage circuit 122 and the Huffman table storage circuit 123 (S49).

【0082】また、動きが小さい場合、FLCを2、代
わりにフレーム数を小さくしてFLFを1とし、FLV
を1とする(S43)。量子化テーブル記憶回路122
とハフマン・テーブル記憶回路123に対して量子化テ
ーブルA2、ハフマン・テーブルB2が設定される(S
50)。
When the motion is small, FLC is set to 2, instead of FLC, FLF is set to 1 and FLV is set to 1.
Is set to 1 (S43). Quantization table storage circuit 122
And the Huffman table storage circuit 123 are set with the quantization table A2 and the Huffman table B2 (S
50).

【0083】図7のS25で、FL2=1すなわちユー
ザーの顔が遠ざかった場合(処理がに移る場合)、図
9のシーケンスに移る。移動した先をチェックする(S
55)。中距離領域の場合、図7のS28以下と同様の
処理を行う(S59〜S63、S66〜S68)。移動
した先が遠距離の場合(S56)、図8のS41以下と
同様の処理を行う(S57、S58、S64、S65、
S66〜S68)。
If FL2 = 1 in step S25 in FIG. 7, that is, if the user's face has moved away (the process proceeds to step S25), the process proceeds to the sequence in FIG. Check the destination (S
55). In the case of the middle distance area, the same processing as S28 and subsequent steps in FIG. 7 is performed (S59 to S63, S66 to S68). If the destination is a long distance (S56), the same processing as S41 and subsequent steps in FIG. 8 is performed (S57, S58, S64, S65,
S66 to S68).

【0084】図10は、送信側端末112から送られて
きたフラグFLC、FLF、及びFLVを受信側端末1
00の制御部A106で入力した後の処理シーケンスで
ある。まず制御部A106でFLC、FLF、及びFL
Vを受信する(S71)。FLCの内容をチェックする
(S72、S73)。
FIG. 10 shows that the flags FLC, FLF, and FLV sent from the transmitting terminal 112 are stored in the receiving terminal 1.
This is the processing sequence after input by the control unit A106 of FIG. First, FLC, FLF, FL
V is received (S71). The contents of FLC are checked (S72, S73).

【0085】FLCが1の場合、量子化テーブルA1、
ハフマン・テーブルB1を量子化テーブル記憶回路13
7及びハフマン・テーブル記憶回路138に設定する
(S74)。FLCが2の場合、量子化テーブルA2、
ハフマン・テーブルB2を量子化テーブル記憶回路13
7及びハフマン・テーブル記憶回路138に設定する
(S75)。FLCが3の場合、量子化テーブルA3、
ハフマン・テーブルB3を量子化テーブル記憶回路13
7及びハフマン・テーブル記憶回路138に設定する
(S76)。
When FLC is 1, the quantization table A1,
The Huffman table B1 is stored in the quantization table storage circuit 13
7 and the Huffman table storage circuit 138 (S74). When FLC is 2, the quantization table A2,
The Huffman table B2 is stored in the quantization table storage circuit 13
7 and the Huffman table storage circuit 138 (S75). If FLC is 3, the quantization table A3,
The Huffman table B3 is stored in the quantization table storage circuit 13.
7 and the Huffman table storage circuit 138 (S76).

【0086】FLFの内容をチェックする(S77、S
78)。FLFが1の場合、フレーム数をレベル1に設
定する(S79)。FLFが2の場合、フレーム数をレ
ベル2に設定する(S80)。FLFが3の場合、フレ
ーム数をレベル3に設定する(S81)。
Check the contents of the FLF (S77, S
78). If the FLF is 1, the number of frames is set to level 1 (S79). If the FLF is 2, the number of frames is set to level 2 (S80). If the FLF is 3, the number of frames is set to level 3 (S81).

【0087】FLVの内容をチェックする(S82、S
83)。FLVが1の場合、音量をレベル1に設定する
(S84)。FLVが2の場合、音量をレベル2に設定
する(S85)。FLVが3の場合、音量をレベル3に
設定する(S86)。
Check the contents of the FLV (S82, S
83). If the FLV is 1, the volume is set to level 1 (S84). If the FLV is 2, the volume is set to level 2 (S85). If the FLV is 3, the volume is set to level 3 (S86).

【0088】送信側端末112から送られてきた、映像
データ及び音声データを受信する(S87)。そして、
上記により量子化テーブル記憶回路137及びハフマン
・テーブル記憶回路138に設定された量子化テーブル
とハフマン・テーブルとフレーム数により、映像復号化
部107で映像データを伸長する。また音声データも音
声復号化部105で伸長される(S88)。伸長された
映像データは表示部102で表示される。一方、伸長さ
れた音声データも音声出力部104で上記の音量に設定
されスピーカ103から出力される(S89)。
The video data and the audio data transmitted from the transmitting terminal 112 are received (S87). And
The video decoder 107 expands the video data based on the quantization table, the Huffman table, and the number of frames set in the quantization table storage circuit 137 and the Huffman table storage circuit 138 as described above. The audio data is also expanded by the audio decoding unit 105 (S88). The decompressed video data is displayed on the display unit 102. On the other hand, the expanded audio data is also set to the above-mentioned volume by the audio output unit 104 and output from the speaker 103 (S89).

【0089】ここで、図7のS26で通信容量が確保で
きない場合、映像の品質をそのままにしていて、確保で
きた時点で映像の品質を上げるようにしている。例えば
図11(A)、(B)のように中距離域で圧縮率がレベ
ル2(a)、フレーム数がレベル3(b)で、ユーザー
が顔を表示部102に近づけて近距離域に移動したが、
通信容量を確保できない状態を仮定する。このような場
合、図11(C)、(D)のようにとりあえず、圧縮率
はレベル2より下げレベル1(c)とし、フレーム数を
レベル3より下げて、通信容量が確保できるフレーム数
(d)とし、映像を表示しておく。そして、図11
(E)、(F)のように通信容量が確保できた時点で、
フレーム数を本来設定すべきレベル3(f)にするとよ
い。
Here, if the communication capacity cannot be secured in S26 of FIG. 7, the quality of the video is kept as it is, and the quality of the video is increased when the communication capacity is secured. For example, as shown in FIGS. 11A and 11B, the compression ratio is level 2 (a) and the number of frames is level 3 (b) in the middle distance range, and the user brings the face closer to the display unit 102 to reduce the distance to the short range. Moved,
It is assumed that the communication capacity cannot be secured. In such a case, as shown in FIGS. 11C and 11D, the compression ratio is lowered from level 2 to level 1 (c), the number of frames is lowered from level 3, and the number of frames (communication capacity is secured) The image is displayed in advance as d). And FIG.
When the communication capacity is secured as in (E) and (F),
The number of frames may be set to level 3 (f), which should be originally set.

【0090】(実施形態2)次に本発明の実施形態2に
ついて説明する。この実施形態は近距離域及び中距離域
において、圧縮率、フレーム数、及び音量を、連続的に
変えるようにしたものである。
Embodiment 2 Next, Embodiment 2 of the present invention will be described. In this embodiment, the compression ratio, the number of frames, and the volume are continuously changed in the short range and the middle range.

【0091】実施形態1は、圧縮率、フレーム数、及び
音量について、ユーザーの顔と表示部102の距離を近
距離域、中距離域、及び遠距離域の3段階に分けてい
た。しかし、圧縮率、フレーム数、及び音量について、
細かく制御する必要がある場合、図12(A)、
(B)、(C)のように近距離域及び中距離域につい
て、圧縮率、フレーム数、及び音量を、連続的に変えて
設定し、遠距離域では上記と同様に一定値に設定しても
よい。
In the first embodiment, the distance between the user's face and the display unit 102 is divided into three stages of a short range, a medium range, and a long range with respect to the compression ratio, the number of frames, and the volume. However, for compression ratio, number of frames, and volume,
When fine control is necessary, FIG.
As shown in (B) and (C), the compression ratio, the number of frames, and the sound volume are continuously changed in the short range and the middle range, and are set to the same values in the long range as described above. You may.

【0092】(実施形態3)次に本発明の実施形態3に
ついて説明する。この実施形態における受信側端末10
0の外観を図13に、また受信側端末100と送信側端
末112の回路構成を図14に示す。
(Embodiment 3) Next, Embodiment 3 of the present invention will be described. Receiving terminal 10 in this embodiment
13 is shown in FIG. 13, and the circuit configuration of the receiving terminal 100 and the transmitting terminal 112 is shown in FIG.

【0093】実施形態1、及び実施形態2では距離計測
センサー101に赤外線センサー等を使用し、赤外線等
を出力し、ユーザーの顔で反射した赤外線等を捕捉し
て、出力時と受信時の時間差により表示部102とユー
ザーの顔との間の距離を測定していた。
In the first and second embodiments, an infrared sensor or the like is used as the distance measuring sensor 101 to output infrared light and the like, capture infrared light reflected by the user's face, and obtain a time difference between the output time and the reception time. Has measured the distance between the display unit 102 and the user's face.

【0094】しかし、マルチメディアパソコン、あるい
はテレビ電話システム等においては、受信側端末100
にも映像入力部が取り付けられている。受信側ではユー
ザーの顔あるいは受信側の任意な景色を撮影して映像と
して送信側に伝送して、送信側で、受信側で撮影した映
像を観察している。
However, in a multimedia personal computer or a video telephone system, the receiving terminal 100
Is also equipped with a video input unit. On the receiving side, the user's face or an arbitrary scenery on the receiving side is photographed and transmitted as an image to the transmitting side, and the transmitting side observes the image photographed on the receiving side.

【0095】そこで、この実施形態においては、距離計
測センサー101の代わりに、図13のようにCCDカ
メラ等からなる映像入力部A142を取り付け、映像入
力部A142で撮影したユーザーの顔から、表示部10
2とユーザーの顔との間の距離を測定する。
In this embodiment, instead of the distance measuring sensor 101, an image input unit A142 comprising a CCD camera or the like is attached as shown in FIG. 10
Measure the distance between 2 and the user's face.

【0096】図14において、CCDカメラ等の映像入
力部A142から入力した映像は顔領域抽出部143で
人物の顔領域を抽出する。顔領域抽出には例えば、特開
平9−281605号の方法が適用できる。本方法は映
像入力部A142から入力した映像データの各画素につ
いて色相値と彩度値を求め、映像全体での色相値と彩度
値の2次元ヒストグラムを作成する。そして、2次元ヒ
ストグラムを山毎にクラスタリングする。分割された山
を群毎に合わせることにより、人物の顔の候補となる領
域を抽出する。更に顔候補領域として抽出された領域の
面積を判断して微少領域を除去してナンバリングし直
し、顔候補領域を正確に抽出している。
In FIG. 14, an image input from an image input section A 142 such as a CCD camera extracts a face area of a person by a face area extraction section 143. For example, the method of JP-A-9-281605 can be applied to the face region extraction. In this method, a hue value and a saturation value are obtained for each pixel of the video data input from the video input unit A142, and a two-dimensional histogram of the hue value and the saturation value of the entire video is created. Then, the two-dimensional histogram is clustered for each mountain. By combining the divided mountains for each group, a region that is a candidate for a human face is extracted. Further, the area of the region extracted as the face candidate region is determined, the minute region is removed and renumbered, and the face candidate region is accurately extracted.

【0097】本方法は、複数の人物の顔が映像に写って
いても全ての顔領域を抽出できることを特徴としてい
る。従って、例えば、図15のように2人の人物が表示
部102を見ている場合、最も前方に位置している顔領
域144を抽出してその領域の面積を求めるとよい。
The present method is characterized in that all face regions can be extracted even if the faces of a plurality of persons appear in the video. Therefore, for example, when two persons are looking at the display unit 102 as shown in FIG. 15, it is preferable to extract the face area 144 located at the forefront and obtain the area of the area.

【0098】顔領域144は曲線であるが、近似的に曲
線に接した短径aと長径bとを求めて、面積をa×bと
している。そして、面積が大きい場合、ユーザーが表示
部102に近づいており、面積が小さいとユーザーが表
示部102より遠ざかっていることになる。
Although the face area 144 is a curve, the minor axis a and the major axis b which are approximately in contact with the curve are obtained, and the area is set to a × b. When the area is large, the user is approaching the display unit 102, and when the area is small, the user is far from the display unit 102.

【0099】そして、図5における横軸をユーザーの顔
領域の面積と置き換えることで実施形態1、実施形態2
と同様な効果が期待できる。そして、顔領域が抽出でき
なかった場合、ユーザーは実施形態1での遠距離域に位
置しているとしてもよい。
Then, the horizontal axis in FIG. 5 is replaced with the area of the face area of the user, and the first and second embodiments are replaced.
The same effect can be expected. Then, when the face area cannot be extracted, the user may be located in the long distance area in the first embodiment.

【0100】(変形例)実施形態1で、遠距離域ではユ
ーザーが表示部102と対面していないため、画面を見
ず、音声も正確に聴取している可能性が少ない。そこ
で、映像を最大限に圧縮し、音量も最低に下げていた。
しかし、音声の音量も変えるのと同時に音声も圧縮して
何か発声している様子が分かればよい程度で済ますこと
もできる。
(Modification) In the first embodiment, since the user does not face the display unit 102 in a long-distance region, there is little possibility that the user does not look at the screen and listens to the sound correctly. Therefore, the video was compressed to the maximum and the volume was reduced to the minimum.
However, at the same time as changing the volume of the voice, the voice can also be compressed, and it is only necessary to know how the speech is being made.

【0101】更に、ユーザーが画面から所定以上遠く離
れている場合は映像の表示と音声出力を停止してもよ
い。特に、音声出力と映像の表示を停止すると消費電力
の節約になり、送信側端末112から受信側端末100
に映像を伝送する必要も無いので、通信回線の容量に余
裕が出てきて、他のチャネルのために通信を更に多く割
り当てることができる。
Further, when the user is far from the screen by a predetermined distance or more, the display of the video and the output of the sound may be stopped. In particular, when the audio output and the display of the video are stopped, the power consumption is saved, and the transmission side terminal 112 transmits the reception side terminal 100 to the reception side terminal 100.
Since there is no need to transmit the video to the communication channel, there is a margin in the capacity of the communication line, and more communication can be allocated for another channel.

【0102】そして、映像あるいは音声のどちらかだけ
でも残しておくこともできる。例えば、映像の表示を停
止して音声のみ出力しておけば、ユーザーは画面から遠
く離れて作業していても、音声が聞こえていればある程
度内容が把握できることがある。また、反対に映像を表
示して音声出力を停止しておいてもよい。画面の内容が
時々一瞥できる距離にユーザーが居れば、音声出力はう
るさいが、画面を表示しておくほうが、都合がよい。ユ
ーザーが画面表示あるいは音声出力を適宜選択できるよ
うにするとよい。
Then, only either video or audio can be left. For example, if the display of the video is stopped and only the audio is output, the user may be able to understand the content to some extent if the user can hear the audio even when working far away from the screen. Alternatively, the video may be displayed and the audio output may be stopped. If the user is at a distance where the contents of the screen can be glimpsed from time to time, the voice output is noisy, but it is more convenient to display the screen. It is preferable that the user can appropriately select screen display or audio output.

【0103】また、実施形態1では、距離領域を3段階
に分けていたが、近距離域と遠距離域というように、大
雑把に2段階に別けてもよい。すなわち、ユーザーが映
像を見ているときは、高精細で表示し、表示部102か
ら離れて映像を見なくなった場合は、低精細で表示し、
音声出力を下げてもよい。そして、遠距離域では上記の
ように表示と音声出力を停止してもかまわない。
In the first embodiment, the distance area is divided into three steps. However, the distance area may be roughly divided into two steps such as a short distance area and a long distance area. That is, when the user is watching the image, the image is displayed in high definition. When the user is away from the display unit 102 and cannot see the image, the image is displayed in low definition.
The audio output may be reduced. Then, in the long distance range, the display and the sound output may be stopped as described above.

【0104】上記実施形態はユーザーの顔と表示部10
2との距離に応じて表示映像の圧縮程度と出力音声の音
量を同時に変えていた。しかし、音量を大き目にしてお
いて多少離れても聞こえるように一定にしておいて、画
質だけ距離に応じて変えてもよい。反対に通信容量が常
時十分に確保できれば、画質を一定にして、音量だけ距
離に応じて変えるようにしてもよい。
In the above embodiment, the user's face and the display 10
2, the degree of compression of the displayed video and the volume of the output sound were simultaneously changed in accordance with the distance from the display device. However, the sound volume may be set to be large so that the sound can be heard even if the sound is slightly away, and only the image quality may be changed according to the distance. Conversely, if the communication capacity can always be sufficiently ensured, the image quality may be fixed and the sound volume may be changed according to the distance.

【0105】また上記実施形態で、ユーザーの顔が遠距
離域から中距離域、あるいは中距離域から近距離域に近
づいた場合、通信回線の通信容量が増加して、容量を確
保できない場合、確保できるまで待っていて、確保でき
次第表示映像を高精細化していた。しかし、多チャネル
に渡って通信を行っていて、通信容量が逼迫した場合
に、チャネル確保の優先度を設定するようにしてもよ
い。
In the above embodiment, when the user's face approaches from the long range to the middle range or from the middle range to the short range, the communication capacity of the communication line increases and the capacity cannot be secured. They waited until they could be secured, and as soon as they could be secured, the displayed images were being refined. However, when communication is performed over multiple channels and the communication capacity becomes tight, the priority of channel reservation may be set.

【0106】例えば、中距離域から近距離域に容量を増
やす必要のある第一のユーザー、遠距離域から中距離域
に容量を増やす必要のある第二のユーザーが同時に発生
したと仮定する。第一のユーザーの場合、中距離域から
近距離域に近づいたことで、画面に重要な表示がされて
真剣に画面を見る必要が生じたと推定される。一方、第
二のユーザーは、今まで画面の側に居ない状態から画面
に向かい、とりあえず画面の内容を把握するのは二の次
と推定される。そこで、通信容量について、第一のユー
ザーを第二のユーザーより優先させて確保するとよい。
For example, it is assumed that a first user who needs to increase the capacity from the middle range to the short range and a second user who needs to increase the capacity from the long range to the middle range occur at the same time. In the case of the first user, it is presumed that an important display is displayed on the screen and that the user needs to look seriously at the screen as the user approaches the short-range from the middle-range. On the other hand, it is presumed that the second user goes to the screen from the state where he has not been on the screen side and grasps the contents of the screen for the time being. Therefore, it is preferable to secure the communication capacity by giving the first user priority over the second user.

【0107】また、第一のユーザーがどうしても通信容
量を確保できない場合、現在中距離域で通信を行ってい
る他のユーザーをとりあえず遠距離域に対応する状態に
して、余った通信容量を第一のユーザーのために振り向
けてもよい。
If the first user cannot secure the communication capacity by any means, the other users who are currently communicating in the middle range are set to correspond to the long range, and the surplus communication capacity is reduced to the first. May be redirected for users.

【0108】更に、上記実施形態の距離計測センサー1
01の使用目的はユーザーが表示部102の前に顔を向
けた場合、ユーザーの顔と表示部102との間の距離を
測定することを目的としている。ここで、距離計測セン
サー101から放射される赤外線等の指向性が鋭いと、
顔を画面から少しそらしても赤外線が当たらず、顔の検
出ができない。そこで、赤外線はブロードな指向性で放
出すると確実にユーザーに当たる。しかし、赤外線はユ
ーザーの顔に当たらず胸に当たったりすることもある。
顔以外の個所に当たって、距離を計測しても、正確に顔
に当たって計測した距離との誤差は許容される範囲にな
る可能牲がある。そこで、距離計測センサー101は赤
外線の放出の際に指向性を比較的ブロードにして、ユー
ザーのどこかに当たった赤外線を捕捉することで、距離
を計測するようにしてもかまわない。
Furthermore, the distance measuring sensor 1 of the above embodiment
The purpose of use 01 is to measure the distance between the user's face and the display unit 102 when the user turns his / her face in front of the display unit 102. Here, if the directivity of infrared rays and the like emitted from the distance measurement sensor 101 is sharp,
Even if the face is slightly deviated from the screen, infrared rays do not shine and the face cannot be detected. Therefore, when the infrared rays are emitted with a broad directivity, they surely hit the user. However, infrared light may hit the user's face instead of the face.
Even if the distance is measured at a location other than the face, there is a possibility that an error from the distance measured accurately at the face may be within an allowable range. Therefore, the distance measurement sensor 101 may measure the distance by making the directivity relatively broad at the time of emission of infrared rays and capturing the infrared rays that have hit somewhere of the user.

【0109】[0109]

【発明の効果】以上説明したように、本発明の映像表示
方式によれば、受信側端末でユーザーが表示部で表示さ
れた映像を見る際に、表示部とユーザーの顔との距離に
応じて、表示映像の圧縮率と出力される音声の音量の少
なくとも一方を変えることにより、過剰な画質の映像を
表示せず、前記距離に応じた適切な音量で音声を出力す
ることが可能になり、ひいては受信側端末の操作性の向
上と、送信側から送られる映像データの伝送量の縮小に
つながる。
As described above, according to the video display method of the present invention, when the user views the video displayed on the display unit at the receiving terminal, the user can change the distance between the display unit and the user's face. Therefore, by changing at least one of the compression ratio of the display video and the volume of the output audio, it is possible to output the audio at an appropriate volume according to the distance without displaying an image with excessive image quality. As a result, the operability of the receiving terminal is improved, and the transmission amount of the video data transmitted from the transmitting side is reduced.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の実施形態1及び実施形態2における
受信側端末の外観を示す斜視図。
FIG. 1 is a perspective view showing the appearance of a receiving terminal according to Embodiments 1 and 2 of the present invention.

【図2】 本発明の実施形態1及び実施形態2における
受信側端末及び送信側端末を含めたシステムの構成を示
すブロック図。
FIG. 2 is a block diagram showing a configuration of a system including a receiving terminal and a transmitting terminal according to the first and second embodiments of the present invention.

【図3】 図2に示す送信側端末の映像符号化部の詳細
な構成を示すブロック図。
FIG. 3 is a block diagram showing a detailed configuration of a video encoding unit of the transmitting terminal shown in FIG. 2;

【図4】 図2に示す受信側端末の映像復号化部の詳細
な構成を示すブロック図。
FIG. 4 is a block diagram showing a detailed configuration of a video decoding unit of the receiving terminal shown in FIG. 2;

【図5】 本発明の実施形態1における表示部とユーザ
ーとの距離に応じた表示映像の圧縮率、フレーム数及び
出力音声の音量の設定状態を示した図。
FIG. 5 is a diagram illustrating a setting state of a compression ratio of a display image, a number of frames, and a volume of an output sound according to a distance between a display unit and a user according to the first embodiment of the present invention.

【図6】 本発明の実施形態1における送信側端末の動
作シーケンスを示したフローチャート。
FIG. 6 is a flowchart showing an operation sequence of the transmitting terminal according to the first embodiment of the present invention.

【図7】 本発明の実施形態1における受信側端末でユ
ーザーの顔が表示部に近づいた場合の動作シーケンスを
示したフローチャート。
FIG. 7 is a flowchart showing an operation sequence when a user's face approaches a display unit in the receiving terminal according to the first embodiment of the present invention.

【図8】 本発明の実施形態1における受信側端末でユ
ーザーの顔が静止している場合の動作シーケンスを示し
たフローチャート。
FIG. 8 is a flowchart showing an operation sequence when the user's face is stationary at the receiving terminal according to the first embodiment of the present invention.

【図9】 本発明の実施形態1における受信側端末でユ
ーザーの顔が表示部から遠ざかった場合の動作シーケン
スを示したフローチャート。
FIG. 9 is a flowchart showing an operation sequence when the user's face moves away from the display unit at the receiving terminal according to the first embodiment of the present invention.

【図10】 本発明の実施形態1における受信側端末の
処理シーケンスを示したフローチャート。
FIG. 10 is a flowchart illustrating a processing sequence of a receiving terminal according to the first embodiment of the present invention.

【図11】 本発明の実施形態1におけるユーザーの顔
が表示部に近づいても通信回線の容量が確保できなかっ
た場合の表示映像の圧縮率、フレーム数及び出力音声の
音量の設定状態を示した図。
FIG. 11 illustrates a setting state of a compression ratio of a display image, the number of frames, and a volume of an output sound when a communication line capacity cannot be secured even when a user's face approaches a display unit according to the first embodiment of the present invention. Figure.

【図12】 本発明の実施形態2における表示部とユー
ザーとの距離に応じた表示映像の圧縮率、フレーム数、
及び出力音声の音量の設定状態を示した図。
FIG. 12 shows a compression ratio, a number of frames, and the like of a display image according to a distance between a display unit and a user according to the second embodiment of the present invention.
FIG. 6 is a diagram illustrating a setting state of a volume of an output sound.

【図13】 本発明の実施形態3における受信側端末の
外観を示す斜視図。
FIG. 13 is a perspective view showing the appearance of a receiving terminal according to a third embodiment of the present invention.

【図14】 本発明の実施形態3における受信側端末及
び送信側端末を含めたシステムの構成を示すブロック
図。
FIG. 14 is a block diagram illustrating a configuration of a system including a receiving terminal and a transmitting terminal according to a third embodiment of the present invention.

【図15】 本発明の実施形態3における顔領域抽出部
で抽出された顔領域の一例を示した説明図。
FIG. 15 is an explanatory diagram showing an example of a face area extracted by a face area extraction unit according to the third embodiment of the present invention.

【符号の説明】[Explanation of symbols]

100…受信側端末 101…距離計測センサー 102…表示部 103…スピーカ 104…音声出力部 105…音声復号化部 106…制御部A 107…映像復号化部 108…多重分離部 109…送信部A 110…受信部A 111…通信回線 112…送信側端末 113…受信部B 114…送信部B 115…多重化部 116…制御部B 117…音声符号化部 118…マイクロホン 119…映像符号化部 120…映像入力部 121…動き検出部 122…量子化テーブル記憶回路 123…ハフマン・テーブル記憶回路 124…符号化モード選択回路 125…離散コサイン変換回路(DCT回路) 126…量子化回路 127…ハフマン符号化回路 128…送信バッファ 129…減算器 130…逆量子化回路 131…逆離散コサイン変換回路(逆DCT回路) 132…加算器 133…フレーム・メモリ 134…ローパス・フィルタ 135…動き補償回路 136…動きベクトル検出回路 137…量子化テーブル記憶回路 138…ハフマン・テーブル記憶回路 139…逆離散コサイン変換回路(逆DCT回路) 140…逆量子化回路 141…ハフマン復号化回路 142…映像入力部A 143…顔領域抽出部 Reference Signs List 100 receiving terminal 101 distance measuring sensor 102 display unit 103 speaker 104 audio output unit 105 audio decoding unit 106 control unit A 107 video decoding unit 108 demultiplexing unit 109 transmission unit A 110 ... Receiving unit A 111 communication line 112 transmitting terminal 113 receiving unit B 114 transmitting unit B 115 multiplexing unit 116 control unit B 117 audio encoding unit 118 microphone 119 video encoding unit 120 Image input unit 121: Motion detection unit 122: Quantization table storage circuit 123: Huffman table storage circuit 124: Coding mode selection circuit 125: Discrete cosine transform circuit (DCT circuit) 126: Quantization circuit 127: Huffman coding circuit 128 transmission buffer 129 subtracter 130 inverse quantization circuit 131 inverse discrete cosine transform Conversion circuit (inverse DCT circuit) 132 ... Adder 133 ... Frame memory 134 ... Low-pass filter 135 ... Motion compensation circuit 136 ... Motion vector detection circuit 137 ... Quantization table storage circuit 138 ... Huffman table storage circuit 139 ... Inverse discrete Cosine transform circuit (inverse DCT circuit) 140 ... Inverse quantization circuit 141 ... Huffman decoding circuit 142 ... Video input unit A 143 ... Face region extraction unit

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5C026 DA05 DA14 5C059 KK15 KK33 KK47 MA01 MA23 MC11 MC14 MC31 MC38 ME02 NN01 NN21 NN28 NN41 PP04 PP14 RA01 RF04 RF05 RF19 SS07 TA07 TA17 TA18 TA21 TA41 TA45 TA47 TA50 TA57 TA58 TA62 TA65 TA68 TB07 TC08 TC11 TC18 TC20 TC36 TC38 TC45 TD03 TD06 UA02 UA05 UA11 UA34 5C064 AA01 AA02 AC01 AC02 AC06 AC11 AC12 AC16 AC22 AD02 AD14  ──────────────────────────────────────────────────続 き Continued on front page F term (reference) 5C026 DA05 DA14 5C059 KK15 KK33 KK47 MA01 MA23 MC11 MC14 MC31 MC38 ME02 NN01 NN21 NN28 NN41 PP04 PP14 RA01 RF04 RF05 RF19 SS07 TA07 TA17 TA18 TA21 TA41 TA45 TA47 TA50 TA57 TA58 TA62 TA65 TB07 TC08 TC11 TC18 TC20 TC36 TC38 TC45 TD03 TD06 UA02 UA05 UA11 UA34 5C064 AA01 AA02 AC01 AC02 AC06 AC11 AC12 AC16 AC22 AD02 AD14

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】映像と音声を圧縮する圧縮手段と、この圧
縮手段により圧縮された映像を伸長して表示画面に表示
する表示手段と、前記圧縮手段により圧縮された音声を
伸長して出力する音声出力手段と、前記表示画面に対向
するユーザーと前記表示画面との距離を求める手段と、
この手段により求めた距離に応じて、前記映像の圧縮率
と出力される音声の音量の少なくとも一方を変える手段
とを具備することを特徴とする映像表示方式。
1. A compression means for compressing video and audio, a display means for decompressing a video compressed by the compression means and displaying it on a display screen, and expanding and outputting the audio compressed by the compression means. Audio output means, and means for determining the distance between the user facing the display screen and the display screen,
Means for changing at least one of the compression ratio of the video and the volume of the output audio in accordance with the distance obtained by the means.
【請求項2】前記距離が所定以上の長さになった場合、
前記表示手段と前記音声出力手段の少なくとも一方の動
作を停止する手段を具備することを特徴とする請求項1
に記載の映像表示方式。
2. When the distance is longer than a predetermined length,
2. The apparatus according to claim 1, further comprising a unit configured to stop an operation of at least one of the display unit and the audio output unit.
Video display system described in 1.
【請求項3】映像と音声を圧縮する手段と、この手段に
より圧縮された映像と音声を多チャネルの通信回線を介
して伝送する伝送手段と、この伝送手段により伝送され
た圧縮された映像を伸長して表示画面に表示する表示手
段と、この伝送手段により伝送された圧縮された音声を
伸長して出力する音声出力手段と、前記表示画面に対向
するユーザーと前記表示画面との距離を求める手段と、
この手段により求めた距離に応じて、前記映像の圧縮率
と前記出力される音声の音量の少なくとも一方を変える
手段と、前記映像の圧縮率が低下して、該当チャネルで
所定の通信容量増加分を確保できなかった場合、一時的
に確保できた通信容量分で映像を伝送するように制御す
る制御手段とを具備することを特徴とする映像表示方
式。
3. A means for compressing video and audio, a transmission means for transmitting the video and audio compressed by the means via a multi-channel communication line, and a means for compressing the compressed video transmitted by the transmission means. Display means for decompressing and displaying on a display screen, sound output means for decompressing and outputting the compressed sound transmitted by the transmission means, and determining a distance between a user facing the display screen and the display screen Means,
Means for changing at least one of the compression rate of the video and the volume of the output audio in accordance with the distance obtained by the means; And a control means for controlling transmission of a video with the temporarily secured communication capacity when the communication cannot be secured.
【請求項4】映像と音声を圧縮する手段と、この手段に
より圧縮された映像と音声を多チャネルの通信回線を介
して伝送する伝送手段と、この伝送手段により伝送され
た圧縮された映像を伸長して表示画面に表示する表示手
段と、この伝送手段により伝送された圧縮された音声を
伸長して出力する音声出力手段と、前記表示画面に対向
するユーザーと前記表示画面との距離を求める手段と、
この手段により求めた距離に応じて、前記映像の圧縮率
と前記出力される音声の音量の少なくとも一方を変える
手段と、前記通信回線中の複数のチャネルで前記映像の
圧縮率が低下して、所定の通信容量増加分を確保できな
かった場合、前記複数のチャネル間で前記距離に応じて
優先度をつけて通信容量を確保する手段とを具備するこ
とを特徴とする映像表示方式。
4. A means for compressing video and audio, a transmission means for transmitting the video and audio compressed by the means via a multi-channel communication line, and a means for compressing the compressed video transmitted by the transmission means. Display means for decompressing and displaying on a display screen, sound output means for decompressing and outputting the compressed sound transmitted by the transmission means, and determining a distance between a user facing the display screen and the display screen Means,
According to the distance obtained by this means, means for changing at least one of the compression rate of the video and the volume of the output audio, the compression rate of the video is reduced in a plurality of channels in the communication line, Means for securing a communication capacity by assigning a priority between the plurality of channels according to the distance when a predetermined increase in the communication capacity cannot be secured.
【請求項5】前記表示画面に対向するユーザーと前記表
示画面との距離を求める手段が、前記ユーザーの顔を含
む映像を撮影する手段と、この手段により撮影された前
記映像から顔領域を抽出する手段と、この手段により抽
出された前記顔領域の面積からユーザーとの間の距離を
算出する手段とを具備したものであることを特徴とする
請求項1乃至請求項4のいずれかに記載の映像表示方
式。
5. A means for determining a distance between a user facing the display screen and the display screen, comprising: means for capturing an image including a face of the user; and extracting a face area from the image captured by the means. 5. The apparatus according to claim 1, further comprising: a unit configured to calculate a distance to a user from an area of the face region extracted by the unit. 6. Video display system.
JP22095798A 1998-08-05 1998-08-05 Video displaying system Pending JP2000059772A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP22095798A JP2000059772A (en) 1998-08-05 1998-08-05 Video displaying system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP22095798A JP2000059772A (en) 1998-08-05 1998-08-05 Video displaying system

Publications (1)

Publication Number Publication Date
JP2000059772A true JP2000059772A (en) 2000-02-25

Family

ID=16759214

Family Applications (1)

Application Number Title Priority Date Filing Date
JP22095798A Pending JP2000059772A (en) 1998-08-05 1998-08-05 Video displaying system

Country Status (1)

Country Link
JP (1) JP2000059772A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005202208A (en) * 2004-01-16 2005-07-28 Nec Corp Portable terminal and display control method
JP2009246528A (en) * 2008-03-28 2009-10-22 Nec Corp Voice communication system with image, voice communication method with image, and program
JP2010273276A (en) * 2009-05-25 2010-12-02 Car Mate Mfg Co Ltd Television control device
JP2010279010A (en) * 2009-04-28 2010-12-09 Sharp Corp Video display apparatus, video display method, and program
JP2011035795A (en) * 2009-08-05 2011-02-17 Hitachi Consumer Electronics Co Ltd Image processing apparatus and image processing method
JP2012186805A (en) * 2011-03-07 2012-09-27 Ricoh Co Ltd Automated selection and switching of displayed information
JP5321060B2 (en) * 2006-07-13 2013-10-23 株式会社ニコン Display control device, display system, and television set
JP2014081204A (en) * 2012-10-12 2014-05-08 Asahi Kasei Electronics Co Ltd Infrared sensor device and far or near determination device
WO2014069407A1 (en) * 2012-10-29 2014-05-08 京セラ株式会社 Device with videophone function, program and method for controlling device with videophone function
CN105872770A (en) * 2016-04-29 2016-08-17 钱涵翀 Sound volume adjusting method and system
JP2017055355A (en) * 2015-09-11 2017-03-16 大和ハウス工業株式会社 System and method for image display
WO2017043661A1 (en) * 2015-09-11 2017-03-16 大和ハウス工業株式会社 Image display system and image display method

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005202208A (en) * 2004-01-16 2005-07-28 Nec Corp Portable terminal and display control method
JP5321060B2 (en) * 2006-07-13 2013-10-23 株式会社ニコン Display control device, display system, and television set
JP2009246528A (en) * 2008-03-28 2009-10-22 Nec Corp Voice communication system with image, voice communication method with image, and program
JP2010279010A (en) * 2009-04-28 2010-12-09 Sharp Corp Video display apparatus, video display method, and program
JP2010273276A (en) * 2009-05-25 2010-12-02 Car Mate Mfg Co Ltd Television control device
JP2011035795A (en) * 2009-08-05 2011-02-17 Hitachi Consumer Electronics Co Ltd Image processing apparatus and image processing method
JP2012186805A (en) * 2011-03-07 2012-09-27 Ricoh Co Ltd Automated selection and switching of displayed information
JP2014081204A (en) * 2012-10-12 2014-05-08 Asahi Kasei Electronics Co Ltd Infrared sensor device and far or near determination device
WO2014069407A1 (en) * 2012-10-29 2014-05-08 京セラ株式会社 Device with videophone function, program and method for controlling device with videophone function
JP2014090230A (en) * 2012-10-29 2014-05-15 Kyocera Corp Apparatus having television telephone function, program, and control method for apparatus having television telephone function
US9426187B2 (en) 2012-10-29 2016-08-23 Kyocera Corporation Device with TV phone function, non-transitory computer readable storage medium, and control method of device with TV phone function
JP2017055355A (en) * 2015-09-11 2017-03-16 大和ハウス工業株式会社 System and method for image display
WO2017043661A1 (en) * 2015-09-11 2017-03-16 大和ハウス工業株式会社 Image display system and image display method
JP2017055354A (en) * 2015-09-11 2017-03-16 大和ハウス工業株式会社 System and method for image display
WO2017043662A1 (en) * 2015-09-11 2017-03-16 大和ハウス工業株式会社 Image display system and image display method
CN105872770A (en) * 2016-04-29 2016-08-17 钱涵翀 Sound volume adjusting method and system

Similar Documents

Publication Publication Date Title
KR100973216B1 (en) Method and device for indicating quantizer parameters in a video coding system
US6690881B1 (en) Digital camera apparatus and recording method thereof
US20040158719A1 (en) Video encoder capable of differentially encoding image of speaker during visual call and method for compressing video signal using the same
JP2000059772A (en) Video displaying system
EP1280356A2 (en) Apparatus and method for compressing multiplexed video signals
JPH10178639A (en) Image codec part and image data encoding method
JPH0795566A (en) Method and device for encoding image
JP3382362B2 (en) Image signal generator
EP1301038A1 (en) Multimedia communication terminal
JP2008005349A (en) Video encoder, video transmission apparatus, video encoding method, and video transmission method
EP0893923A1 (en) Video communication system
JP3317327B2 (en) Moving picture coding method and apparatus
JPH0730888A (en) Moving image transmitter and moving image receiver
JPH10229558A (en) Coder for moving image information
US20070031050A1 (en) Method and apparatus for bit rate control for image encoding
JP3239583B2 (en) Imaging device and videophone device having imaging device
JP2003179893A (en) Mobile information terminal system and mobile information terminal
JP4032507B2 (en) Video phone equipment
JPH09261530A (en) Video recorder
JPH0884329A (en) Image communication terminal equipment
JPH05130602A (en) Terminal equipment
JP2001028755A (en) Image coder and image coding method
JPH06233292A (en) Picture signal transmitting device
JP3346448B2 (en) Video encoding device
JPH06165148A (en) Dynamic picture communicate equipment

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20050414

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20050606