JPH06233292A - Picture signal transmitting device - Google Patents

Picture signal transmitting device

Info

Publication number
JPH06233292A
JPH06233292A JP3257193A JP3257193A JPH06233292A JP H06233292 A JPH06233292 A JP H06233292A JP 3257193 A JP3257193 A JP 3257193A JP 3257193 A JP3257193 A JP 3257193A JP H06233292 A JPH06233292 A JP H06233292A
Authority
JP
Japan
Prior art keywords
eye
area
image
transmission information
transmission
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP3257193A
Other languages
Japanese (ja)
Inventor
Yoshinobu Hayashi
美延 林
Ichiro Kubota
一郎 窪田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP3257193A priority Critical patent/JPH06233292A/en
Publication of JPH06233292A publication Critical patent/JPH06233292A/en
Withdrawn legal-status Critical Current

Links

Abstract

PURPOSE:To obtain picture quality which sufficiently fulfills a function as a video telephone even at the same transmission bit rate as the conventional one by preferentially assigning transmission information quantity to the face area of a person, specially, an eye part. CONSTITUTION:In addition to the standard information source coder of H.261, a picture signal transmitting device is provided with a quantization equipment control part 4 which extracts the face area through the use of a macroblock from which a movement vector is detected, detects the eye part from within the face area through the use of a DCT output and lets a quantization step size for the eye area be small at the time of quantization by a quantization equipment 5. Then, transmission information quantity is preferentially assigned to the face part, specifically, eyes and a mouth, being more important information for the other reception party so as to make picture quality superior. Transmission information quantity is preferentially assigned to the face area, specifically, the eye part, of the person and transmission to let the picture quality of the face area, specifically, the eye area, be high quality can be enabled. Therefore, even in low bit rate transmission, the subjectively preferable picture for which an expression is easy to be understood is obtained.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、テレビ電話等の画像に
よる1対1コミュニケーションに好適な画像信号伝送装
置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image signal transmission apparatus suitable for one-to-one communication with images such as a videophone.

【0002】[0002]

【従来の技術】テレビ電話、テレビ会議用動画像符号化
方式としては、例えばH.261がCCITT(国際電
信電話諮問委員会:International Telegraph and Tele
phoneConsultative)より勧告されている。
2. Description of the Related Art Video coding systems for videophones and videoconferences include, for example, H.264. 261 is CCITT (International Telegraph and Tele
phoneConsultative).

【0003】上記勧告H.261の動画像符号化方式で
は、ビデオフォーマットの信号はCIF(Common Inter
mediate Format)またはQCIFフォーマットに変換さ
れ、この変換された信号は複数画素からなる小ブロック
の集合であるマクロブロック(MB)毎にINTRA
(イントラ)モードとINTER(インター)モードの
何れかが指定される。なお、上記INTRAモードでは
フレーム内データに対して小ブロック単位でDCT(離
散コサイン変換:Discrete Cosine Transform )を施
し、上記INTERモードではフレーム間差分データに
対して小ブロック単位でDCTを施す。また、当該動画
像符号化方式では、上記マクロブロック(MB)毎に動
き検出により動きベクトルが求められ、動き補償がなさ
れる。さらに、上記DCTを施した後のDCT係数は量
子化され、マクロブロック(MB)のアドレス(マクロ
ブロックアドレス),タイプ(マクロブロックタイプ)
や動きベクトル等のサイド情報と共に、可変長符号化さ
れた後に伝送情報として出力される。
The above Recommendation H.264. In the H.261 moving image encoding system, the video format signal is a CIF (Common Inter
mediate format) or QCIF format, and the converted signal is INTRA for each macro block (MB) which is a set of small blocks composed of a plurality of pixels.
Either (intra) mode or INTER (inter) mode is designated. In the INTRA mode, DCT (Discrete Cosine Transform) is applied to the intra-frame data in small block units, and in the INTER mode, the DCT is applied to the inter-frame difference data in small block units. Further, in the moving image coding method, a motion vector is obtained by motion detection for each macro block (MB), and motion compensation is performed. Further, the DCT coefficient after the above DCT is quantized, and the macroblock (MB) address (macroblock address) and type (macroblock type) are quantized.
And side information such as a motion vector and the like are output as transmission information after variable length coding.

【0004】[0004]

【発明が解決しようとする課題】ところで、上記伝送情
報は、一旦、伝送データ用バッファ内に蓄えられるよう
になっている。このため、上記DCT係数を量子化する
時の量子化ステップは、当該伝送データ用バッファ内の
データ量の多少によって決定されるようになっており、
当該量子化の際に画像の内容についての考慮はなされて
いない。
By the way, the above transmission information is once stored in the transmission data buffer. Therefore, the quantization step when quantizing the DCT coefficient is determined by the amount of data in the transmission data buffer.
No consideration is given to the content of the image in the quantization.

【0005】また、一般に動画像情報を伝送する場合に
は、伝送情報を多く割り当てるほど(多くの画像情報を
伝送可能とするほど)後に復号化された画像の画質は良
くなる。すなわち、上記量子化の際の量子化ステップを
細かくし、当該細かい量子化ステップでの量子化により
得られた伝送情報を伝送すれば、後に復号化される画像
の画質は良くなる。ところが、通常は回線(電話回線
等)容量によって伝搬可能なビット数が制限されている
ため、復号化後に良好な画質を得るための充分な伝送情
報量を確保することができず、従来のテレビ電話等では
低画質を余儀無くされている。
In general, when transmitting moving image information, the more the transmission information is assigned (the more image information can be transmitted), the better the image quality of the decoded image will be. That is, if the quantization step at the time of the above quantization is made fine and the transmission information obtained by the quantization at the fine quantization step is transmitted, the image quality of the image decoded later becomes good. However, since the number of bits that can be propagated is usually limited by the capacity of the line (telephone line, etc.), it is not possible to secure a sufficient amount of transmission information to obtain a good image quality after decoding, and the conventional TV cannot be used. Low quality is unavoidable in telephones.

【0006】そこで、本発明は、上述のような実情に鑑
みて提案されたものであり、従来と同じ伝送ビットレー
トであっても(伝送可能なビット数が制限されていて
も)、テレビ電話としての機能を充分に果たし得る画質
を得ることを可能とする画像信号伝送装置を提供するこ
とを目的とするものである。
Therefore, the present invention has been proposed in view of the above-mentioned circumstances, and even if the transmission bit rate is the same as the conventional one (even if the number of bits that can be transmitted is limited), it is a videophone. It is an object of the present invention to provide an image signal transmission device capable of obtaining an image quality capable of sufficiently performing the above function.

【0007】[0007]

【課題を解決するための手段】本発明の画像信号伝送装
置は、上述の目的を達成するために提案されたものであ
り、例えばいわゆるテレビ電話のように人物の上半身が
目的である入力画像の画像信号を圧縮符号化して伝送す
る画像信号伝送装置であって、人物の上半身の画像のう
ちの顔領域及び目領域を抽出し、前記顔領域のうちの目
領域の画像の伝送情報量を他の領域の画像の伝送情報量
よりも多く割り当てる伝送情報量制御手段を有してなる
ものである。
The image signal transmission apparatus of the present invention has been proposed to achieve the above-mentioned object, for example, in the case of a so-called videophone, the input image of the input image whose upper body is the object. An image signal transmission device for compressing and encoding and transmitting an image signal, comprising extracting a face area and an eye area from an image of an upper half of a person, and transmitting the amount of transmission information of the image of the eye area of the face area to another. It is provided with a transmission information amount control means for allocating more than the transmission information amount of the image of the area.

【0008】ここで、上記伝送情報量制御手段は、顔領
域のうちで伝送情報量を多く割り当てる順番を、目領
域、口領域、鼻領域及び顎領域の順とする。また、上記
伝送情報量制御手段は、連続する全てのフレームについ
て上記目領域を検出し、現フレームで検出した目領域の
位置が当該現フレームの1つ前の前フレームで検出した
目領域の位置に対して急激に変化する場合には、現フレ
ームの目領域の検出結果を無効とし、上記前フレームの
目領域の検出結果を用いるようにする。
Here, the transmission information amount control means sets the order of allocating the transmission information amount in the face region in the order of the eye region, the mouth region, the nose region and the chin region. Further, the transmission information amount control means detects the eye area for all consecutive frames, and the position of the eye area detected in the current frame is the position of the eye area detected in the immediately preceding frame of the current frame. On the other hand, if it changes abruptly, the detection result of the eye area of the current frame is invalidated and the detection result of the eye area of the previous frame is used.

【0009】[0009]

【作用】本発明によれば、人物の顔領域、特に目部分に
優先的に伝送情報量が割り当てられることにより、低ビ
ットレート伝送においても表情の分かり易い主観的に好
ましい画像を得ることができる。
According to the present invention, the transmission information amount is preferentially assigned to the face area of a person, particularly the eye portion, so that a subjectively preferable image whose facial expression is easy to understand can be obtained even in low bit rate transmission. .

【0010】[0010]

【実施例】以下、本発明の実施例について図面を参照し
ながら説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0011】本発明実施例の画像信号伝送装置は、図1
に示すように、人物の上半身が目的である入力画像の画
像信号を圧縮符号化して伝送する装置であって、人物の
上半身の画像のうちの顔領域及び目領域を抽出し、前記
顔領域のうちの目領域の画像の伝送情報量を他の領域の
画像の伝送情報量よりも多く割り当てる伝送情報量制御
手段としての量子化器制御部4を有してなるものであ
る。
The image signal transmitting apparatus of the embodiment of the present invention is shown in FIG.
As shown in FIG. 2, a device for compressing and encoding and transmitting an image signal of an input image intended for the upper half of the person, extracting the face area and the eye area from the image of the upper half of the person, The quantizer control unit 4 is provided as a transmission information amount control means for allocating the transmission information amount of the image in one of the eye regions to be larger than the transmission information amount of the image in the other regions.

【0012】ここで、上記量子化器制御部4は、顔領域
のうちで伝送情報量を多く割り当てる順番を、目領域、
口領域、鼻領域及び顎領域の順とする。また、上記量子
化器制御部4は、連続する全てのフレームについて上記
目領域を検出し、現フレームで検出した目領域の位置が
当該現フレームの1つ前の前フレームで検出した目領域
の位置に対して急激に変化する場合には、現フレームの
目領域の検出結果を無効とし、上記前フレームの目領域
の検出結果を用いるようにする。
Here, the quantizer control section 4 assigns the order of allocating a large amount of transmission information in the face area to the eye area,
The mouth area, nose area, and jaw area are in this order. Further, the quantizer control unit 4 detects the eye area in all consecutive frames, and the position of the eye area detected in the current frame is the position of the eye area detected in the immediately preceding frame of the current frame. If the position changes abruptly, the detection result of the eye area of the current frame is invalidated, and the detection result of the eye area of the previous frame is used.

【0013】なお、本実施例では、画像信号の圧縮符号
化の方式としては、前述したテレビ電話、テレビ会議用
動画像符号化方式の勧告H.261を適用した例を挙げ
ている。
In this embodiment, as the compression encoding method of the image signal, the above-mentioned recommendation H.264 of the moving image encoding method for the videophone and videoconference is used. An example in which H.261 is applied is given.

【0014】以下、この勧告H.261を適用した本実
施例の画像信号伝送装置(画像信号符号化装置)につい
て具体的に述べる。
Hereinafter, this Recommendation H. An image signal transmission device (image signal encoding device) of this embodiment to which H.261 is applied will be specifically described.

【0015】図1において、端子10は、入力ビデオデ
ータが供給される入力端子である。この入力ビデオデー
タは、動き補償用画像メモリ8に送られる。当該動き補
償用画像メモリ8は、画像メモリ(フレームメモリ)と
しての機能と共に、動き補償用の可変遅延機能をも有し
ているものである。上記入力ビデオデータは、この動き
補償用画像メモリ8において前フレームのデータと比較
され、動き補償フレーム間予測が行われる。また、当該
動き補償用画像メモリ8で検出された動きベクトルは、
端子18を介して後段の構成に送られる。
In FIG. 1, a terminal 10 is an input terminal to which input video data is supplied. This input video data is sent to the motion compensation image memory 8. The motion compensation image memory 8 has a function as an image memory (frame memory) as well as a variable delay function for motion compensation. The input video data is compared with the data of the previous frame in the motion compensation image memory 8 to perform motion compensation interframe prediction. Further, the motion vector detected by the motion compensation image memory 8 is
It is sent to the subsequent stage via the terminal 18.

【0016】上記入力ビデオデータは、変換器1にも送
られる。当該変換器1は、上記入力ビデオデータのマク
ロブロック(MB)を構成する小ブロック(ブロック)
単位の画像データに対してDCTを施す。変換器2は、
ループフィルタ9を介して動き補償用画像メモリ8から
供給される予測画像データと上記端子10からの入力ビ
デオデータとが減算器11で減算されて求められた差分
データ(予測誤差データ)を、上記変換器1同様にDC
Tする。上記変換器1の出力が前記INTRAモードの
DCT係数データとなり、上記変換器2の出力が前記I
NTERモードのDCT係数データとなる。これら係数
データが後に詳述する量子化器制御部4に送られる。
The input video data is also sent to the converter 1. The converter 1 is a small block that constitutes a macroblock (MB) of the input video data.
DCT is applied to the unit image data. The converter 2 is
The difference data (prediction error data) obtained by subtracting the prediction image data supplied from the motion compensation image memory 8 via the loop filter 9 and the input video data from the terminal 10 by the subtracter 11 DC as converter 1
T. The output of the converter 1 becomes the DCT coefficient data in the INTRA mode, and the output of the converter 2 becomes the I
It becomes the DCT coefficient data in the NTER mode. These coefficient data are sent to the quantizer control unit 4, which will be described in detail later.

【0017】当該量子化器制御部4の次の量子化器5で
は、上記量子化器制御部4からの出力データに対して量
子化を施す。この量子化器5の出力データは、量子化係
数出力端子17から出力されると共に、局部復号器の構
成に送られる。
The quantizer 5 next to the quantizer controller 4 quantizes the output data from the quantizer controller 4. The output data of the quantizer 5 is output from the quantization coefficient output terminal 17 and is sent to the configuration of the local decoder.

【0018】当該局部復号化の構成に送られた量子化さ
れたDCT係数データは、上記量子化器5とは逆の量子
化を行う逆量子化器6を介し、さらに上記DCTの逆変
換を行うIDCT変換器7を介して加算器13の一方の
データ入力端子に送られる。
The quantized DCT coefficient data sent to the local decoding structure is passed through an inverse quantizer 6 which performs the inverse quantization of the quantizer 5, and the inverse transform of the DCT is performed. The data is sent to one data input terminal of the adder 13 via the IDCT converter 7.

【0019】当該加算器13の他方のデータ入力端子
は、INTRAモードのときには接地された被切換端子
bが選ばれINTERモードのときには被切換端子a側
が選ばれる切換スイッチ12の共通端子と接続されてい
る。なお、上記被切換端子aにはループ内フィルタを介
した動き補償用画像メモリ8からの出力データが供給さ
れるようになっている。上記加算器13の出力データ
が、上記動き補償用画像メモリ8に送られる。なお、ル
ープ内フィルタ9のON/OFF情報は、端子19を介
して出力される。
The other data input terminal of the adder 13 is connected to the common terminal of the changeover switch 12 in which the grounded switched terminal b is selected in the INTRA mode and the switched terminal a side is selected in the INTER mode. There is. The output terminal from the motion compensation image memory 8 is supplied to the switched terminal a via the in-loop filter. The output data of the adder 13 is sent to the motion compensation image memory 8. The ON / OFF information of the in-loop filter 9 is output via the terminal 19.

【0020】ここで、符号化制御部3は、より伝送情報
量が少なくなるモードを選ぶことによりINTER/I
NTRA判別を行うものである。なお、上記小ブロック
単位でのINTER/INTRA判別は、前記勧告H.
261に示される情報源符号器に従った場合、DCTを
行う前の画像平面上で行われるが、低ビットレート伝送
においてはDCTを行う演算器の演算能力には余裕があ
り、また送信バッファ制御が安定するという理由から、
DCT後のINTER/INTRA判別を行うことが提
案されている。本実施例では、画像の人物の顔の領域か
らの目の部分の抽出の際に、全ての小ブロックについて
INTRAのDCT出力が必要であるという理由から後
者を用いている。当該符号化制御部3での符号化モード
選択情報は端子14を介して後段の構成に送られ、伝送
/非伝送の情報は端子15から出力される。また、当該
符号化制御部3のINTER/INTRA判別データ
は、上記量子化器制御部4に送られるようになってい
る。
Here, the coding control unit 3 selects INTER / I by selecting a mode in which the amount of transmission information is smaller.
NTRA discrimination is performed. It should be noted that the INTER / INTRA discrimination in the small block unit is performed according to the recommendation H.
When the information source encoder 261 is used, it is performed on the image plane before performing DCT, but in low bit rate transmission, there is a margin in the computing capacity of the computing unit that performs DCT, and transmission buffer control Is stable,
It has been proposed to perform INTER / INTRA discrimination after DCT. In the present embodiment, the latter is used because it is necessary to output the INTRA DCT for all the small blocks when extracting the eye portion from the human face area of the image. The coding mode selection information in the coding control unit 3 is sent to the subsequent stage configuration via the terminal 14, and the transmission / non-transmission information is output from the terminal 15. Also, the INTER / INTRA discrimination data of the encoding control unit 3 is sent to the quantizer control unit 4.

【0021】当該量子化器制御部4には、上記動き補償
用画像メモリ8において検出された動きベクトルのデー
タも供給される。当該量子化器制御部4では、上記動き
ベクトルが検出されたマクロブロック(MB)のアドレ
スを蓄え、1フレーム分についてそれらがあるしきい値
を越える数のマクロブロック(MB)の塊となっていれ
ば、その位置に人物の頭部があるとみなすようにしてい
る。逆に、上記あるしきい値を越える数のマクロブロッ
ク(MB)の塊すなわち人物の頭部が検出されなかった
場合には、前のフレームの結果が引き継がれる。
The quantizer control unit 4 is also supplied with the data of the motion vector detected in the motion compensation image memory 8. The quantizer control unit 4 stores the addresses of the macroblocks (MB) in which the motion vectors have been detected, and the number of macroblocks (MB) in one frame exceeds the threshold value. If so, it is assumed that the person's head is at that position. On the contrary, when the number of macroblocks (MB) that exceeds the certain threshold value, that is, the head of the person is not detected, the result of the previous frame is succeeded.

【0022】また、当該量子化器制御部4では、上記変
換器1のDCT係数データ(INTRAのDCT係数デ
ータ)から、画像の人物の(顔幅×目の縦幅)にあたる
小ブロック(ブロック)の塊を単位として、目の部分が
多く含む周波数成分のDCT係数の総和を求めて、それ
を頭部領域の中でスキャンして行き、後述する図7に示
すようにその中で最も係数和の大きい目の領域の候補
(小ブロックの塊)の中から顔幅の両端部分の下方のマ
クロブロック(MB)のDCT係数和が最小となるもの
を目の領域として決定するようにしている。
Further, the quantizer control section 4 uses the DCT coefficient data (DCT coefficient data of INTRA) of the converter 1 as a small block corresponding to (face width × vertical width of eyes) of the person in the image. The sum of the DCT coefficients of the frequency components including a lot of eye parts is obtained in the unit of the lump, and the sum is scanned in the head region, and as shown in FIG. Among the candidates for the large eye region (a group of small blocks), the one in which the sum of the DCT coefficients of the macro blocks (MB) below both ends of the face width is the smallest is determined as the eye region.

【0023】なお、当該目の領域は、連続する全てのフ
レームについて求まるが、誤検出の影響を軽減するた
め、前フレームにおける目の位置から急に離れた位置に
次のフレーム(現フレーム)における目の位置が検出さ
れた場合には、そのフレーム(現フレーム)の検出結果
を無効にし、上記前フレームの結果(目の位置)を再度
使用することとする。
The eye area is obtained for all consecutive frames, but in order to reduce the effect of erroneous detection, the eye area in the next frame (current frame) is suddenly separated from the eye position in the previous frame. When the eye position is detected, the detection result of the frame (current frame) is invalidated, and the result (eye position) of the previous frame is used again.

【0024】また、顔領域の中で、目の下は鼻、口、顎
というようになっているので、それらの各位置を、上記
目の位置と頭部領域とから求める。そしてそれらの領域
に対して、1番が目、2番が口、3番が鼻及び顎という
ような優先順位に従って小さい量子化ステップサイズを
割り当てる。すなわち、目領域の量子化ステップサイズ
を最も細かくし、順次、口、鼻及び顎と量子化ステップ
サイズを大きくしていくような割り当てを行う。その他
の部分は、伝送データバッファ内のデータ量の多少によ
って変化させるものとする。
In the face area, below the eyes are the nose, mouth, and chin, and their respective positions are obtained from the eye position and the head area. Then, to these regions, a small quantization step size is assigned according to the priority order such that the first is the eye, the second is the mouth, the third is the nose, and the chin. That is, the quantization step size of the eye region is set to be the smallest, and the mouth, the nose, and the jaw are sequentially increased in size. The other parts are changed depending on the amount of data in the transmission data buffer.

【0025】このようにして求めた量子化特性(各領域
毎の量子化ステップサイズ)に従って、INTER又は
INTRAモードのDCT係数データが上記量子化器5
において量子化され、この量子化データが図示を省略す
る後段の構成としての可変長符号化器によって可変長符
号化されて伝送情報となる。なお、上記量子化特性も、
端子16から次段の構成に送られる。
According to the thus obtained quantization characteristic (quantization step size for each area), the DCT coefficient data in the INTER or INTRA mode is converted into the quantizer 5 described above.
In the above, the quantized data is variable-length coded by a variable-length coder as a later-stage configuration (not shown) to be transmission information. The above quantization characteristics are also
It is sent from the terminal 16 to the next-stage configuration.

【0026】次に、図2,図3のフローチャートを使用
して、上記量子化器制御部4における動きベクトルの検
出されたマクロブロック群(マクロブロックの塊)から
頭部領域を求める処理を上述の説明よりも詳しく述べ
る。
Next, referring to the flowcharts of FIGS. 2 and 3, the above-mentioned processing for obtaining the head area from the macroblock group (macroblock group) in which the motion vector is detected in the quantizer control section 4 is described above. More detailed than the explanation.

【0027】この図2,図3において、先ず、ステップ
S10では、前記勧告H.261の動画像符号化方式に
おけるGOB(グループオブピクチャ)アドレスgn、
マクロブロックアドレスmn、動きベクトルの検出され
たマクロブロック群の識別ラベルlabel、ライン・
マクロブロック平面のライン番号ln及びマクロブロッ
ク番号lmnを、それぞれ0に初期化し、さらに、頭部
の大きさ(マクロブロック個数)のしきい値をMBTと
設定する。ここで、総GOB数をGN、1GOBあたり
の総マクロブロック数をMN、総ライン数をLN、1ラ
インあたりの総マクロブロック数をLMNとする。本実
施例では、CN=12,MN=33,LN=18PLM
N=22とする。
2 and 3, first, in step S10, the recommendation H. GOB (group of picture) address gn in the H.261
Macroblock address mn, identification label of the macroblock group in which the motion vector is detected, label, line
The line number ln and the macroblock number lmn of the macroblock plane are each initialized to 0, and the threshold value of the head size (the number of macroblocks) is set to MBT. Here, the total number of GOBs is GN, the total number of macroblocks per GOB is MN, the total number of lines is LN, and the total number of macroblocks per line is LMN. In this embodiment, CN = 12, MN = 33, LN = 18PLM
Let N = 22.

【0028】次に、ステップS11及びステップS12
では、動きベクトルの検出されたマクロブロックの隣接
状態を知るため図4のA及びBに示すように、GOBア
ドレス及びマクロブロックアドレス(GOB・MBアド
レス)から、ライン番号及びマクロブロックアドレス
(ライン・MBアドレス)に変換する動作LMNライン
分行う。
Next, step S11 and step S12
Then, in order to know the adjacency state of the macroblock in which the motion vector is detected, as shown in A and B of FIG. 4, from the GOB address and the macroblock address (GOB.MB address), the line number and the macroblock address (line. The operation for converting to the MB address) is performed for the LMN line.

【0029】そして、ステップS13では、ラインln
において動きベクトルの検出されたマクロブロックの塊
の端点(始点および終点位置)を検出すると共に、その
塊がどのマクロブロック群に属しているかを上のライン
のマクロブロック塊のラベルと比較することにより判断
してラベル付けを行い、もしも処理中のラインの塊が新
しいマクロブロック群の頂上ならばlabel番号を1
増やしそのライン番号をlnt(label)とする。
このステップS13では、同じラベルを持つ動きベクト
ルの検出されたマクロブロックに挟まれたマクロブロッ
クも頭部領域として補間される。
Then, in step S13, the line ln
By detecting the end points (start point and end point position) of the block of the detected macroblock of the motion vector and comparing which macroblock group the block belongs to with the label of the macroblock block of the above line. Judge and label. If the block of lines being processed is the top of a new macroblock group, label number 1
The line number is increased to lnt (label).
In this step S13, the macroblock sandwiched between the macroblocks having the same label and having the detected motion vector is also interpolated as the head region.

【0030】ステップS14ではln=ln+1とし、
ステップS15ではラインlnが最終ラインLNより大
きくなっていなければステップS16でlmnを0にし
てステップS11に戻り、大きければそのフレーム分の
処理が終わったことになるので、そのフレームにおける
頭部領域検出処理に進む。
In step S14, ln = ln + 1 is set,
If the line ln is not larger than the final line LN in step S15, lmn is set to 0 in step S16 and the process returns to step S11. If it is larger, the processing for that frame is completed, and therefore the head area detection in that frame is performed. Go to processing.

【0031】上記頭部領域検出処理に進むと、ステップ
S17では、検出された各ラベルのマクロブロック群の
大きさを調べるために用いるラベル変数labと顔領域
が検出されたか否かを示すフラグfaceとを0に設定
し、図3に示すステップ18でlabを1増やす。
Upon proceeding to the head area detection processing, in step S17, a label variable lab used for checking the size of the detected macroblock group of each label and a flag face indicating whether or not a face area is detected. And are set to 0, and lab is incremented by 1 in step 18 shown in FIG.

【0032】次のステップS19では、labが全ラベ
ル数labelよりも小さかったらば、ステップS20
に進む。このステップS20では、labというラベル
のマクロブロック群の大きさ(マクロブロックの総数)
とMBTとの大小を判定し、マクロブロック群の大きさ
がMBTよりも小さければステップS18に戻り、大き
ければステップS21に進む。
In the next step S19, if lab is smaller than the total label number label, step S20.
Proceed to. In this step S20, the size of the macroblock group labeled "lab" (total number of macroblocks)
And MBT are determined, and if the size of the macroblock group is smaller than MBT, the process returns to step S18, and if it is larger, the process proceeds to step S21.

【0033】このステップS21では、faceを1に
し、頭部領域とみなされたマクロブロック群の識別ラベ
ルflabelをlabにして頭部とみなされるマクロ
ブロック群のラベルを残し、その後ステップS18に戻
る。
In this step S21, face is set to 1, the identification label of the macroblock group regarded as the head region is set to lab, and the label of the macroblock group regarded as the head is left, and then the process returns to step S18.

【0034】また、上記ステップS19でlabがla
belよりも大きいと判定されればステップS22に進
む。このステップS22では、faceが1かどうかを
判別し、1ならばステップS24に進む。このステップ
S24では、flabelの各ラインlの端点flm
(l)、frm(l)を現在処理中のフレームの結果と
してメモリに格納する。これに対し、上記ステップS2
2で1でないと判断されたならば、ステップS23に進
む。このステップS23では、前フレームの各ラインの
端点、塊の頂点と参考に現在のフレームの端点と頂点を
比較して、2つの検出結果の和が最終的な結果となるよ
うに端点と頂点のデータを修正し、メモリに格納する。
In step S19, lab is la
If it is determined that it is larger than bel, the process proceeds to step S22. In step S22, it is determined whether face is 1, and if it is 1, the process proceeds to step S24. In this step S24, the end point flm of each line l of the label
(L) and frm (l) are stored in the memory as a result of the frame currently being processed. On the other hand, the above step S2
If it is determined in 2 that it is not 1, the process proceeds to step S23. In this step S23, the end points and vertices of the current frame are compared with reference to the end points and lump vertices of the previous frame, and the end points and the vertices are combined so that the sum of the two detection results becomes the final result. Correct the data and store it in memory.

【0035】次に、図5を用いて頭部領域中に目領域を
求める処理のフローチャートについて説明する。
Next, a flow chart of the processing for obtaining the eye area in the head area will be described with reference to FIG.

【0036】この図5において、先ず、ステップS25
において、頭部とみなされた動きベクトルの検出された
マクロブロックの塊の横幅から顔幅fw、目の縦幅e
h、頭頂と鼻の間の距離fhを小ブロック(ブロック)
単位で求める。
In FIG. 5, first, step S25.
, The face width fw and the eye vertical width e from the horizontal width of the block of macroblocks in which the motion vector regarded as the head is detected.
h, a small block (block) for the distance fh between the crown and nose
Calculate in units.

【0037】ステップS26では、小ブロックが例えば
2行2列で4個並んだマクロブロック単位の処理から、
当該小ブロック単位の処理に移るため、マクロブロック
アドレスからブロックアドレスに変換した頭頂点、端点
を求めるために、頭頂ライン番号をlntb=lnt
(flabel)×2、ブロックアドレスでのラインl
の左端をfl(l)=flm(l/2)×2、右端をf
r(l)=frm(l/2)×2とし、頭部からの目領
域抽出処理に移る。
In step S26, from the processing in macro block units in which four small blocks are arranged in two rows and two columns, for example,
In order to move to the processing in units of the small blocks, in order to obtain the top vertex and the end point converted from the macro block address to the block address, the top line number is lntb = lnt.
(Flabel) × 2, line l at block address
Fl (l) = flm (l / 2) × 2 at the left end and f at the right end
r (l) = frm (l / 2) × 2 is set, and the process proceeds to the eye area extraction process from the head.

【0038】ステップS27では、ラインlがlntb
+fhよりも小さければステップS28に進む。当該ス
テップS28では、頭部領域内でfw×eh個のブロッ
ク群を1ブロックずつずらしてスキャンする際に、その
ブロック群の左上端の位置を示すの変数le(l)を、
le(l)=fl(l)とする。次のステップS29で
は、このle(l)を左上端としてfw×eh小ブロッ
ク分の目が多く含む周波数成分のDCT係数の総和sm
fを求める。
In step S27, the line l is lntb.
If it is smaller than + fh, the process proceeds to step S28. In step S28, when scanning the fw × eh block groups in the head region while shifting them by one block, the variable le (l) indicating the position of the upper left end of the block group is changed to
Let le (l) = fl (l). In the next step S29, the sum sm of the DCT coefficients of the frequency components including many fw × eh small blocks with this le (l) as the upper left corner sm.
Find f.

【0039】ここで、図6のA,Bには、どの周波数成
分のDCT係数を選ぶかについての例を示している。こ
れは目の上下瞼及び眉は横縞形状でかつ皮膚との輝度差
も大きいため、y方向に周波数の大きい部分を探すこと
により良い認識率が得られるという理由による。すなわ
ち、この図6の例の場合は、同図Aに示す8×8画素の
ブロックをDCTして得られた同図Bに示す8×8のD
CT係数からなるブロックについて、同図Bの図中斜線
で示す部分のDCT係数の和を比較して目の位置を検出
する。なお、図6の例におけるDCTは、数1に示す数
式(1) で求めることができる。
Here, FIGS. 6A and 6B show examples of which frequency component DCT coefficient is selected. This is because the upper and lower eyelids and eyebrows have horizontal stripes and a large difference in brightness from the skin, so that a good recognition rate can be obtained by searching for a portion having a large frequency in the y direction. That is, in the case of the example of FIG. 6, the 8 × 8 D shown in FIG. 9B obtained by DCT of the 8 × 8 pixel block shown in FIG.
With respect to the block made up of CT coefficients, the sum of the DCT coefficients in the hatched portion of FIG. The DCT in the example of FIG. 6 can be obtained by the mathematical expression (1) shown in the equation 1.

【0040】[0040]

【数1】 [Equation 1]

【0041】次に、ステップS30では、処理中の小ブ
ロック群のsmfの大きさを今まで算出したsmfの上
位M個と比較して、M位までに入っていればその順位に
登録する。ステップS31ではle(l)=le(l)
+1として、ステップS32に進む。
Next, in step S30, the size of smf of the small block group being processed is compared with the upper M pieces of smf calculated so far, and if it is in the Mth rank, it is registered in that rank. In step S31, le (l) = le (l)
The value is incremented by 1, and the process proceeds to step S32.

【0042】当該ステップS32では、le(l)をf
r(l)−fw+1と比較し、le(l)の方が大きけ
ればステップS35でl=l+1とした後にステップS
27に戻り、小さければステップS29に戻る。
In step S32, le (l) is changed to f
r (l) -fw + 1 is compared, and if le (l) is larger, step S35 sets l = l + 1, and then step S
27, and if smaller, returns to step S29.

【0043】一方、上記ステップS27でlがlntb
+fhよりも大きいと判断された場合には、ステップS
33に進む。このステップS33では、図7に示すよう
に、M個の目候補の小ブロックbの群の中でその小ブロ
ックbの群の真下に位置する数ブロック(図中斜線で示
す小ブロックb)のDCT係数和最小のものを目領域と
決定する。これは、目の候補の中に高周波成分の多い耳
と鼻のかかった小ブロック群が選ばれ易い傾向があり、
鼻の下には高周波成分を含む口があるが、目の下は頬で
あり、ほとんどが直流分であるため、このようにするこ
とにより最終的に選ばれる小ブロック群が目の部分であ
る確率が高くなるためである。量子化ステップはマクロ
ブロック毎に決定するので、その小ブロック群を含む全
てのマクロブロックを目領域として細かく量子化する。
On the other hand, in step S27, l is lntb.
If it is determined that it is larger than + fh, step S
Proceed to 33. In this step S33, as shown in FIG. 7, among several groups of small blocks b of M eye candidates, several blocks (small blocks b indicated by diagonal lines in the figure) located directly below the group of small blocks b are selected. The smallest sum of DCT coefficients is determined as the eye area. This is because there is a tendency that a small block group with a lot of high frequency components such as ears and nose is easily selected among the eye candidates.
Although there is a mouth containing high-frequency components under the nose, since the cheeks are under the eyes and most of them are DC components, the probability that the small block group finally selected is the eye part by doing this Because it will be higher. Since the quantization step is determined for each macroblock, all the macroblocks including the small block group are finely quantized as eye regions.

【0044】次のステップS34では、目領域の誤検出
による影響を軽減するため、前フレームで検出された目
の位置に比べて今回のフレームの結果が上下、左右に2
マクロブロック分以上離れていればその結果は保留に
し、前フレームの結果を目領域として使用する。また、
次のフレームの検出結果が今処理したフレームの保留し
た結果と近ければその時にはその結果は採用する。
In the next step S34, in order to reduce the influence of the erroneous detection of the eye region, the result of the current frame is vertically and horizontally 2 compared with the position of the eye detected in the previous frame.
If the result is more than a macroblock away, the result is reserved and the result of the previous frame is used as the eye area. Also,
If the detection result of the next frame is close to the pending result of the frame just processed, then that result is adopted.

【0045】目領域は1フレーム分の処理の最後に求め
られるため、この検出結果は次のフレームの量子化ステ
ップ制御に用いられる。
Since the eye area is obtained at the end of the processing for one frame, this detection result is used for the quantization step control of the next frame.

【0046】上述したように、本実施例の画像信号伝送
装置によれば、H.261の標準的な情報源符号器に加
え、動きベクトルの検出されたマクロブロックを用いて
顔領域を抽出し、さらにその顔領域内からDCT出力を
用いて目の部分を検出し、量子化器5での量子化の際に
この目の領域に対する量子化ステップサイズを小さくす
るような量子化器制御部4を備えてなることにより、人
物の顔領域、特に目部分に優先的に伝送情報量が割り当
てられるようになり(顔領域、特に目領域の画質を高画
質とする伝送が可能となり)したがって、低ビットレー
ト伝送においても表情の分かり易い主観的に好ましい画
像を得ることができるようになる。
As described above, according to the image signal transmission device of the present embodiment, the H. In addition to the standard information source encoder of H.261, a face area is extracted using a macro block in which a motion vector is detected, and an eye portion is detected from the face area using a DCT output, and a quantizer is used. By including the quantizer control unit 4 that reduces the quantization step size for the eye region at the time of quantization in 5, the amount of transmission information is preferentially applied to the human face region, particularly the eye region. Will be assigned (the face area, especially the eye area can be transmitted with high image quality). Therefore, even in low bit rate transmission, it is possible to obtain a subjectively preferable image with an easy-to-understand expression. .

【0047】すなわち、本実施例装置においては、勧告
H.261に準拠していると共にその符号化過程で算出
される結果を利用することによる簡単な方法で、受信相
手にとってより重要な情報である顔領域、特に目と口に
優先的に伝送情報量を割り当てて画質を良くすることに
より、顔以外の領域に多少の画質劣化がみられても、同
じ符号化方式と伝送ビットレートである場合と比較し
て、全体としての主観的画質を向上させることができる
ようになる。
That is, in the apparatus of this embodiment, the recommendation H.264 is used. 261 and a simple method by using the result calculated in the encoding process, the face area, which is more important information to the receiving party, especially the transmission information amount is preferentially applied to the eyes and mouth. By allocating to improve the image quality, the overall subjective image quality can be improved compared to the case where the same encoding method and transmission bit rate are used even if the image quality is slightly degraded in areas other than the face. Will be able to.

【0048】また、テレビ電話としては重要でない背景
等の部分には、伝送情報の割り当て量を少なくすること
で、定められた伝送ビットレートを越えることがない。
Further, by reducing the allocation amount of transmission information in the background and the like, which is not important for the videophone, the predetermined transmission bit rate will not be exceeded.

【0049】[0049]

【発明の効果】本発明の画像信号伝送装置においては、
人物の顔領域、特に目部分に優先的に伝送情報量を割り
当てることにより、従来と同じ伝送ビットレートであっ
ても(伝送可能なビット数が制限されていても)、例え
ばいわゆるテレビ電話としての機能を充分に果たし得る
画質を得ることが可能となる。
According to the image signal transmitting apparatus of the present invention,
By preferentially allocating the amount of transmission information to the face area of a person, particularly the eye part, even if the transmission bit rate is the same as before (even if the number of bits that can be transmitted is limited), for example, as a so-called videophone. It is possible to obtain an image quality that can sufficiently fulfill the function.

【図面の簡単な説明】[Brief description of drawings]

【図1】実施例の概略構成を示すブロック回路図であ
る。
FIG. 1 is a block circuit diagram showing a schematic configuration of an embodiment.

【図2】頭部領域を検出する処理の前半を示すフローチ
ャートである。
FIG. 2 is a flowchart showing a first half of a process of detecting a head region.

【図3】頭部領域を検出する処理の後半を示すフローチ
ャートである。
FIG. 3 is a flowchart showing the latter half of the process of detecting the head region.

【図4】図2のステップS11でのGOBアドレス,マ
クロブロックアドレスから、ラインアドレス,マクロブ
ロックアドレスへの変換を説明するための図である。
FIG. 4 is a diagram for explaining the conversion from a GOB address / macroblock address to a line address / macroblock address in step S11 of FIG. 2;

【図5】目領域を検出する処理を示すフローチャートで
ある。
FIG. 5 is a flowchart showing a process of detecting an eye area.

【図6】目の位置を検出する際に用いる周波数成分を示
す図である。
FIG. 6 is a diagram showing frequency components used when detecting eye positions.

【図7】M個の目の候補となるブロック群から1つを決
定するための処理を示す図である。
FIG. 7 is a diagram showing a process for determining one from a block group that is a candidate for M eyes.

【符号の説明】[Explanation of symbols]

1・・・・・・INTRA用DCT変換器 2・・・・・・INTER用DCT変換器 3・・・・・・符号化制御部 4・・・・・・量子化器制御部 5・・・・・・量子化器 6・・・・・・逆量子化器 7・・・・・・IDCT変換器 8・・・・・・動き補償用可変遅延機能を持つ画像メモ
リ 9・・・・・・ループ内フィルタ 11・・・・・減算器 12・・・・・切換スイッチ 13・・・・・加算器
1 --- INTRA DCT converter 2 ...- INTER DCT converter 3--Encoding control unit 4--Quantizer control unit 5--・ ・ ・ Quantizer 6 ・ ・ ・ Dequantizer 7 ・ ・ ・ ・ IDCT converter 8 ・ ・ ・ ・ Image memory with variable delay function for motion compensation 9 ・ ・ ・..In-loop filter 11 ... Subtractor 12 ... Changeover switch 13 ... Adder

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 人物の上半身が目的である入力画像の画
像信号を伝送する画像信号伝送装置において、 人物の上半身の画像のうちの顔領域及び目領域を抽出
し、前記顔領域のうちの目領域の画像の伝送情報量を他
の領域の画像の伝送情報量よりも多く割り当てる伝送情
報量制御手段を有してなることを特徴とする画像信号伝
送装置。
1. An image signal transmitting apparatus for transmitting an image signal of an input image intended for the upper half of a person, wherein a face area and an eye area of an image of the upper half of a person are extracted, and eyes of the face area are extracted. An image signal transmission apparatus comprising: a transmission information amount control means for allocating a larger amount of transmission information amount of an image of an area than that of an image of another region.
【請求項2】 上記伝送情報量制御手段は、顔領域のう
ちで伝送情報量を多く割り当てる順番を、目領域、口領
域、鼻領域及び顎領域の順とすることを特徴とする請求
項1記載の画像信号伝送装置。
2. The transmission information amount control means sets the order of allocating a large amount of transmission information in the face region in the order of eye region, mouth region, nose region and chin region. The image signal transmission device described.
【請求項3】 上記伝送情報量制御手段は、連続する全
てのフレームについて上記目領域を検出し、現フレーム
で検出した目領域の位置が該現フレームの1つ前の前フ
レームで検出した目領域の位置に対して急激に変化する
場合には、現フレームの目領域の検出結果を無効とし、
上記前フレームの目領域の検出結果を用いることを特徴
とする請求項1記載の画像信号伝送装置。
3. The transmission information amount control means detects the eye area for all consecutive frames, and the position of the eye area detected in the current frame is detected in the previous frame immediately before the current frame. If it changes abruptly with respect to the position of the area, invalidate the detection result of the eye area of the current frame,
The image signal transmission device according to claim 1, wherein the detection result of the eye area of the previous frame is used.
JP3257193A 1993-01-29 1993-01-29 Picture signal transmitting device Withdrawn JPH06233292A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3257193A JPH06233292A (en) 1993-01-29 1993-01-29 Picture signal transmitting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3257193A JPH06233292A (en) 1993-01-29 1993-01-29 Picture signal transmitting device

Publications (1)

Publication Number Publication Date
JPH06233292A true JPH06233292A (en) 1994-08-19

Family

ID=12362592

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3257193A Withdrawn JPH06233292A (en) 1993-01-29 1993-01-29 Picture signal transmitting device

Country Status (1)

Country Link
JP (1) JPH06233292A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6864909B1 (en) * 2001-08-10 2005-03-08 Polycom, Inc. System and method for static perceptual coding of macroblocks in a video frame
JP2008028528A (en) * 2006-07-19 2008-02-07 Matsushita Electric Ind Co Ltd Image coding apparatus, method and system
WO2011045875A1 (en) * 2009-10-14 2011-04-21 パナソニック株式会社 Image processing method, image processing device, and image capturing system
JP2017163228A (en) * 2016-03-07 2017-09-14 パナソニックIpマネジメント株式会社 Surveillance camera

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6864909B1 (en) * 2001-08-10 2005-03-08 Polycom, Inc. System and method for static perceptual coding of macroblocks in a video frame
JP2008028528A (en) * 2006-07-19 2008-02-07 Matsushita Electric Ind Co Ltd Image coding apparatus, method and system
JP4714102B2 (en) * 2006-07-19 2011-06-29 パナソニック株式会社 Image coding apparatus, method and system
WO2011045875A1 (en) * 2009-10-14 2011-04-21 パナソニック株式会社 Image processing method, image processing device, and image capturing system
JP2017163228A (en) * 2016-03-07 2017-09-14 パナソニックIpマネジメント株式会社 Surveillance camera

Similar Documents

Publication Publication Date Title
CN111971962B (en) Video encoding and decoding device and method
CN1225914C (en) Video encoder capable of differentially encoding image of speaker during visual call and method for compressing video signal
JP4611640B2 (en) Method for encoding motion in a video sequence
JP3258840B2 (en) Video encoding device and region extraction device
US8780970B2 (en) Motion wake identification and control mechanism
JPH04196976A (en) Image encoding device
US6987889B1 (en) System and method for dynamic perceptual coding of macroblocks in a video frame
JP2000504911A (en) Facsimile compliant image compression method and system
JP2001522174A (en) Digital image processing method and processing apparatus
KR100211916B1 (en) Method for determination of coding type and mode in the object coding based on shape information
JP3046379B2 (en) Image coding device
JPH0795566A (en) Method and device for encoding image
JP4341078B2 (en) Encoding device for moving picture information
JPH06233292A (en) Picture signal transmitting device
CN113973202A (en) Video encoding method, device, equipment and storage medium
JPH09214965A (en) Method and device for encoding moving image
KR100493702B1 (en) Image communication system and operating method thereof
JP3927606B2 (en) Image communication apparatus and system, image receiving apparatus and received image data processing method
JP3604266B2 (en) Dynamic control device of digital filter for video signal
JPH09275550A (en) Video conference system
JPH09107543A (en) Quantizer control system
JPH06165148A (en) Dynamic picture communicate equipment
JP3652889B2 (en) Video encoding method, video encoding device, recording medium, and video communication system
JPH0281590A (en) Moving picture encoding system
JPH08126004A (en) Image coder

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20000404