JP3927606B2 - Image communication apparatus and system, image receiving apparatus and received image data processing method - Google Patents

Image communication apparatus and system, image receiving apparatus and received image data processing method Download PDF

Info

Publication number
JP3927606B2
JP3927606B2 JP17921394A JP17921394A JP3927606B2 JP 3927606 B2 JP3927606 B2 JP 3927606B2 JP 17921394 A JP17921394 A JP 17921394A JP 17921394 A JP17921394 A JP 17921394A JP 3927606 B2 JP3927606 B2 JP 3927606B2
Authority
JP
Japan
Prior art keywords
image
area
unit
voice
encoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP17921394A
Other languages
Japanese (ja)
Other versions
JPH0846973A (en
Inventor
誠 千田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP17921394A priority Critical patent/JP3927606B2/en
Priority to US08/507,983 priority patent/US6313863B1/en
Publication of JPH0846973A publication Critical patent/JPH0846973A/en
Application granted granted Critical
Publication of JP3927606B2 publication Critical patent/JP3927606B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【産業上の利用分野】
本発明は画像通信装置及びシステムに関し、例えば、通信回線を介して画像データ等の送受信を行う画像通信装置及びシステムに関する。
【0002】
【従来の技術】
従来のアナログの電話回線の場合、例えば電話は音声のみ伝送可能であり、ファクシミリ装置等の画像通信装置においても低速でしか画像データを伝送できなかった。
【0003】
しかし、近年の通信技術や半導体技術、光技術の進歩にともない、デジタル回線が整備され、高速で大容量のデータの伝送が可能になった。
【0004】
特に、デジタル伝送の特徴としては、伝送による品質低下がなく同レベルの品質が保たれること、伝送データのメディアの特性に応じた伝送路を必要とせず、メディアの統合が図れること等があり、複合メディア端末間の伝送が可能になった。よって、従来の音声のみを伝送していた電話機に加え、映像をも同時に伝送可能な電話端末機、いわゆるTV電話装置が出現している。
【0005】
こうした状況の中、異なる複合端末間においても相互通信が可能になるよう、CCITT(国際電信電話諮問委員会)等による国際標準化が進められており、デジタル回線を用いたテレビ電話、テレビ会議システム等のAV(Audio Visual)サービスとしてのAVサービス用のサービス規定、プロトコル規定、マルチメディア多重化フレーム構成規定がCCITT勧告(または草案)H.320,H.242,H.221等として発表されている。
【0006】
H.221では、64Kbpsから1920KbpsまでのAVサービスにおけるフレーム構成及び端末能力の交換や通信モードのFAS(Frame Alignment Signal) 、BAS(Bit Allocation Signal) の符号割当が定義されている。また、H.242ではBASを用いたAV端末間での能力交換及び通信モード切り替えなどのプロトコルが定義され、H320ではAVサービス全般のシステム概要が定義されている。
【0007】
上記勧告(または勧告草案)においては、エンドツーエンドの物理コネクションの設定及びインチャネルでのFASによる同期確立後、インチャネルでBASを用いた端末能力の交換シーケンス、通信モードの指定によるモード切り替えシーケンスなどの手順により端末間で画像,音声,データなどのマルチメディア通信を行うための方法が規定されている。
【0008】
但し、各端末において自己の端末能力を状況に応じて変化させたり、変換された能力の範囲内でどの通信モードを用いるかは規定の範囲外である。
【0009】
画像、音声及びデータを同時に通信するマルチメディア通信における各メディアの情報転送速度は、音声情報は音声符号化方式を指定することで決定され、データ情報は、その使用の有無、使用する場合の転送速度を指定することにより決定され、設定した通信路全体の情報転送速度から、音声情報の転送速度とデータ情報の転送速度を引いた残りが画像情報の転送速度となる。
【0010】
【発明が解決しようとする課題】
しかしながら、上述した従来のTV電話装置によれば、符号化するための送信画像フォーマットが規定されているために、例えば用途に応じて画像フォーマットを変更することができない。
【0011】
例えば、ITU−TS(旧CCITT)のH.261勧告に対しては、CIF(Common Intermediate Format)とQCIF(Quarter CIF )の2種類の規定フォーマットしかないために、通常の画質と更に高精細な画質との2種類の解像度の切り替えのみしか行えず、最適な解像度に可変に設定することができないという問題がある。
【0012】
また、送信したい画像の入力画像フォーマットと規定フォーマットが合わない時に、入力画像フォーマットを規定フォーマットの大きさに合わせるために入力画像フォーマットを拡大あるいは縮小したり、受信した規定フォーマットと出力画像のフォーマットが合わない時に、規定フォーマットを出力画像フォーマットに合わせるために、規定画像フォーマットを拡大あるいは縮小せねばならない。よって、無駄な変倍処理を必要としたり、変倍処理に伴って画質の低下を引き起こしてしまう等の問題がある。
【0013】
例えば、静止画像に動画像をはめ込んで画面を表示する形式で送受信を行う場合には、送信側ではまず静止画像を規定のフォーマットで送信し、次いで動画像を規定のフォーマットで送信する。即ち、2フレームの送信を行い、受信側では受信した動画像フレームの画像を縮小変倍して、先に受信した静止画像にはめ込む処理を行うことにより、1フレーム分の画像を生成していた。
【0014】
従って本発明は上述した課題を解決するために、画像フォーマットが固定であっても、柔軟に画像を分割して任意のサイズで動画像を、更に効率良く送受信可能な画像通信装置及びシステムの提供を目的とする。
【0015】
【課題を解決するための手段】
本発明は上述した目的を達成するために、以下の構成を備える。
【0016】
即ち、本発明の画像通信装置は、1画面中の画像が送信される第1の所要領域と、動画像領域として前記第1の所要領域中の所望の第2の所要領域とを指定する領域指定手段と、前記領域指定手段による指定に基づいて前記第2の所要領域の動画像と、前記第2の所要領域を除く前記第1の所要領域の静止画像とを組み合わせる組み合せ手段と、前記組み合せ手段により組み合わされた画像データを符号化する符号化手段と、前記符号化手段によって符号化された画像データと、前記領域指定手段によって指定された前記第1の所要領域の領域位置情報および前記第1の所要領域内の動画像の領域の位置を示す前記第2の所要領域の領域位置情報を他の画像通信装置に送信する送信手段とを有することを特徴とする。
【0018】
更に、符号化された画像データと、前記第1の所要領域の領域位置情報および前記第2の所要領域の領域位置情報を受信する受信手段と、前記受信手段により受信した画像データを復号する復号手段と、前記第1の所要領域の領域位置情報および前記第2の所要領域の領域位置情報に基づいて、前記第2の所要領域の動画像を表示処理するために、前記復号手段により復号された画像データから動画像を抽出する抽出手段とを有することを特徴とする。
【0019】
例えば、前記符号化手段は画像データをブロック単位で符号化し、前記領域指定手段は前記ブロック単位で領域を指定することを特徴とする。
【0020】
例えば、前記組み合せ手段は前記領域指定手段により少なくとも2領域が指定された場合に、それぞれ異なる動画像を組み合わせることを特徴とする。
【0021】
例えば、前記静止画像は前記動画像の一部であることを特徴とする。
【0023】
例えば、前記符号化手段はフレーム間差分による符号化を行うことを特徴とする。
【0024】
更に、音声処理を行う音声処理部と、前記音声処理部で処理された音声データを符号化する音声符号化部と、前記音声符号化部で符号化された音声データを送信する音声送信手段とを有することを特徴とする。
【0025】
また、本発明の画像通信システムにおいて、第1の画像通信装置は、1画面中の画像が送信される第1の所要領域と、動画像領域として前記第1の所要領域中の所望の第2の所要領域とを指定する領域指定手段と、前記領域指定手段による指定に基づいて前記第2の所要領域の動画像と、前記第2の所要領域を除く前記第1の所要領域の静止画像とを組み合わせる組み合せ手段と、前記組み合せ手段により組み合わされた画像データを符号化する符号化手段と、前記符号化手段によって符号化された画像データと、前記領域指定手段によって指定された前記第1の所要領域の領域位置情報および前記第1の所要領域内の動画像の領域の位置を示す前記第2の所要領域の領域位置情報を他の画像通信装置に送信する送信手段とを有し、第2の画像通信装置は、前記符号化された画像データと、前記第1の所要領域の領域位置情報および前記第2の所要領域の領域位置情報を受信する受信手段と、前記受信手段により受信した画像データを復号する復号手段と、前記第1の所要領域の領域位置情報および前記第2の所要領域の領域位置情報に基づいて、前記第2の所要領域の動画像を表示処理するために、前記復号手段により復号された画像データから動画像を抽出する抽出手段とを有することを特徴とする。
【0026】
【作用】
以上の構成において、更に効率良く符号化して送信することが可能となる。また、受信した複数の画像を抽出して選択表示あるいは同時表示することが可能となるという特有の作用効果が得られる。
【0027】
【実施例】
以下、本発明に係る一実施例について、図面を参照して詳細に説明する。
【0028】
図1は本実施例のTV電話装置の構成を示すブロック図である。図1において、1はマイク、2はスピーカ、3はシステム制御部14の指示により、音量レベル調整のための利得調整機能、音声入出力手段としてマイク1とスピーカ2を使用した時にエコーを消去するためのエコーキャンセル機能、ダイヤルトーン,呼出トーン,ビジートーン,着信音などのトーン生成機能等をもつ音声処理部、4はシステム制御部14の指示により、64kbpsPCM(A−law)、64kbpsPCM(μ−law)、7kHzオーディオ(SB−ADPCM)、32kbpsADPCM,16kbps(たとえば、APC−AB)8kbpsなどの音声符号化/復号化アルゴリズムにしたがって、送信音声信号をA/D変換し符号化する機能、受信音声信号を復号化してD/A変換する機能をもつ音声コーデック部、5は標準装備されており人物等を撮像するカメラ、6はカメラ5よりの入力画像や相手装置からの受信画像、及びシステム制御部14からの画像を表示するモニタ、7は各種画像編集処理を行う画像処理部、8は送信画像編集部、9は受信画像編集部である。尚、送信画像編集部8の詳細構成は後述する図2に、受信画像編集部9の詳細構成は後述する図3に示す。18は領域判別部であり、画像処理部7において後述する各種画像領域を判別するための領域情報を作成、又は解読する。
【0029】
また、図1において10はシステム制御部14内の特定画像管理テーブルに基づいて、画像に挿入するテキストデータやグラフィックデータをビットマップデータに変換し、画像処理部7に転送する特定画像生成部、11は送信画像を符号化する機能、受信画像を復号化する機能をもつ画像コーデック部である。画像コーデック部11は、大容量の画像の生データに対して動き補償,コマ落とし,フレーム間予測及びフレーム間補償,DCT変換,ベクトル量子化変換などの種々の手法によって帯域圧縮を行い、画像データがデジタル回線で伝送可能となるように小容量化している。尚、現在ISDN回線の基本インターフェースは64kbpsであるが、この伝送速度で伝送可能な画像の符号化方式としては、ITU−TS勧告のH.261がある。
【0030】
図1において12は音声コーデック部4からの音声データ、画像コーデック部11からの画像データ、システム制御部14からのBASを送信フレーム単位に多重化するとともに、受信フレームを構成単位である各メディアに分離し、各部に通知する多重分離部であり、CCITT勧告としてH.221がある。
【0031】
また、13はISDNユーザ網インターフェースに従って回線を制御する回線インターフェース、14はCPU,ROM,RAM,補助記憶装置,キャラクタジェネレータ,画像信号生成回路などを備え、装置の各部の状態を監視し、装置全体の制御,状態に応じた操作/表示画面作成およびアプリケーションプログラムの実行などを行うシステム制御部、15は送信画像編集部8と受信画像編集部9における画像メモリのアドレス指定を管理する領域指定管理テーブル、16は特定画像データを管理する特定画像管理テーブル、17は本装置の制御をするために操作者が領域指定情報や制御情報入力に使用するキーボード,タッチパネル等よりなる操作部である。本実施例における各領域指定情報は予め操作者により操作パネル17から入力されており、領域指定管理テーブル15に格納されている。
【0032】
以下、図2を参照して、送信画像編集部8について詳細に説明する。図2は送信画像編集部8の詳細構成を示すブロック図である。
【0033】
図2において、21は画像データを入力してコンポジット信号であればYC分離し、更にC信号については復調してCr,Cb信号に分離し、RGB信号が必要であれば色変換する機能を有する入力処理部、22は入力画像データの画像フォーマットを必要な画像フォーマットに変倍する変倍処理部、23は同期を取るために画像データを一時的に蓄積しておくバッファ、24は送信画像処理部35の指示に従って、メモリ27に書き込む静止画像を設定する静止画像設定部、25は入力された画像データと、静止画像設定部24からの静止画像データと、画像制御部35からの特定画像データとのうち、どのデータを画像メモリ27に書き込むかを選択する選択部である。尚、静止画像設定部24は送信画像制御部35の指示に従って各種静止画像を格納するメモリをその内部に有しており、画像メモリ27から画像データを静止画像として取り込むことも可能である。
【0034】
また、26は画像メモリ27への書き込みアドレスを発生し、かつ選択部25を制御するメモリライト制御部、27は画像メモリ、28,29,30はメモリライト制御部26に対して、画像メモリ27への領域指定とその領域でどのデータの選択をするかを設定する領域指定部a,b,c、31は画像メモリ27からの読み出しアドレス信号を発生するメモリリード制御部、32,33,34はメモリリード制御部31に対して、画像メモリ27への領域指定とその領域で画像コーデック部11へ転送する画像の領域を設定する領域指定部d,e,f、35は特定画像データや静止画像データの設定や、メモリライト制御部26とメモリリード制御部31への領域指定データを、各領域指定部28〜30,32〜34に設定する送信画像制御部である。
【0035】
以下、図3を参照して、受信画像編集部9について詳細に説明する。図3は受信画像編集部9の詳細構成を示すブロック図である。
【0036】
図3において、41は画像メモリ45への書き込みアドレス信号を発生するメモリライト制御部、42,43,44はメモリライト制御部41に対して、画像メモリ45への領域指定を設定する領域指定部a,b,c、45は画像メモリ、46は画像メモリ45からの読み出しアドレス信号を発生するメモリリード制御部、47,48,49はメモリリード制御部46に対して、画像メモリ45への領域指定を設定する領域指定部d,e,f、50は画像フォーマットを必要な画像フォーマットに変倍する変倍処理部、51は変倍処理部50からの画像データと受信画像制御部54からの特定画像データとを合成する合成部、52は受信画像制御部54からの指示により、合成部51に対してその合成の切り替えタイミングを制御するオーバーアレイコントローラ、53は合成部51から出力された画像データをデジタル信号からアナログ信号に変換するDAC(Digital Analog Converter)、54は特定画像データの出力やメモリライト制御部41とメモリリード制御部42への領域指定データを各領域指定部42〜44,47〜49に設定する、あるいは、オーバーアレイコントローラ52へのオーバーアレイ切り替え制御を設定する受信画像制御部である。
【0037】
以上説明した構成により、図1に示すカメラ5から入力された符号化前の画像に対して、送信画像編集部8で送信画像領域に入力された画像をはめ込むのはもちろんのこと、送信領域の一部または全部に静止画像データや送信画像制御部35で生成された特定画像データをはめ込むことができる。
【0038】
また、受信した後に画像コーデック部11で復号化された画像に対して、受信画像編集部9で受信画像領域から任意に領域を選択し、その画像の一部または全部を抽出し、受信画像制御部54で生成した特定画像データと上記画像とを重ねてモニタ6に表示することが可能となる。
【0039】
尚、上述した図2に示す送信画像制御部35及び図3に示す受信画像制御部54とは、図1に示すシステム制御部14によって制御されており、システム制御部14内の領域指定管理テーブル15の内容に従って、それぞれの画像メモリ27,45へのアクセスを制御する。
【0040】
また、送信画像編集部8において合成された送信画像内の各領域情報、及び受信画像編集部9において受信された受信画像内の各領域情報は、図1に示す領域判別部18において管理され、送信画像制御部35及び受信画像制御部54にその制御を委ねる。また、領域判別部18において生成された領域情報は、符号化された画像データの送受信に先だって各TV電話機間で送受信される。
【0041】
以下、上述した送信画像へのデータはめ込み処理や、受信画像の重ね処理の具体例を図4に示し、説明する。
【0042】
図4の(a)は、送信画像制御部35から例えば領域指定部a28に対して、4角を(x2,y2),(x2,y3),(x3,y2),(x3,y3)で示される領域を指定し、その領域を動画像領域と定めた例を示す。この場合メモリライト制御部26は、画像メモリ27へのアクセスがその領域に達した場合には選択部25をバッファ23からの入力画像に切り替えて、画像メモリ27にその入力画像、即ち動画像の対応するデータを書き込む。更に、図4の(a)では、送信画像制御部35から例えば他の領域指定部b29に対して、(x0,y0),(x0,y1 ),(x1,y0),(x1,y1)で示される領域を指定し、その領域内を静止画像領域と定めた例も同時に示す。メモリライト制御部26は画像メモリ27へのアクセスがその領域に達した場合には、選択部25を静止画像設定部24からの静止画像データに切り替えて、画像メモリ27にその静止画像データの対応するデータを書き込む。尚、領域指定部28〜30は互いに重なって使用されることがなければ、どちらを使用するようにしてもよい。
【0043】
図4の(b)は、図4の(a)で示される画像に対して更に送信画像制御部35から発生される特定画像データをはめ込んだ例を示す。この特定画像データの領域指定は、上述した例と同様にまず領域指定部28〜30のどれか一つに対して領域の指定を行い、メモリライト制御部26はその領域に達した場合に、特定画像データの対応するデータを画像メモリ27に書き込む。
【0044】
上述したようにして送信画像編集部8において生成された画像データは、画像コーデック部11に転送される。
【0045】
次に、図5を参照して、本実施例における領域指定の方法について説明する。図5は本実施例における各種の領域指定方法を示す図である。
【0046】
図5の(a)は、カメラ5から2人の人物の映像が入力されている場合に、2人のメインとなる画像部分のみをそれぞれ動画像として画像メモリ27に取り込み、それ以外の部分は、静止画像データを取り込んだ例を示す。この場合には、動画像として送信する必要のない部分には画像コーデック部11で符号化データが発生しないようにし、領域指定した重要な2箇所の画像データのみに符号化データを割り当てるようにして、画像データの転送効率を向上させることができる。また、この2つの動画像領域を全く独立した画像として扱うことにより、1つのカメラ5からマルチの画像入力が可能となる。
【0047】
図5の(b)は、例えばカメラ5をa,b,cの複数台備え、画像入力をa,b,cで順次切り替えながら画像メモリ27に書き込むことにより、マルチ画像入力を実現している例を示す。
【0048】
この場合のマルチ画像の入力方法としては、同期信号を送信画像制御部35で発生して各カメラa〜cに送出し、各カメラa〜cはその同期に合わせて入力画像を送信画像編集部8に転送し、送信画像編集部8で各カメラa〜cの画像データを順に切り替えながら画像メモリ27に書き込む方法と、各カメラa〜cの入力画像をすべて同時かつ非同期に受信し、バッファ23で一担バッファリングして、送信画像制御部35で発生した同期に合わせて各カメラa〜cの入力画像を順に画像メモリ27に書き込む方法とがある。
【0049】
その画像の書き込み領域の指定は上述した方法と同様に、各カメラa〜c毎に領域指定部28〜29のいずれかにその領域を設定し、処理が設定された領域に達した場合に、その領域を指定されたカメラからの入力画像を画像メモリ27に書き込む。こうすることにより、複数のカメラからの入力をひとつの画像メモリに書き込むことが可能となり、また残りの不要部分は特定画像データや静止画像データを書き込むことにより、符号化の割り当てを必要部分に集中させて画像データの転送効率を向上させることができる。
【0050】
図5の(c)は、静止画像を送信画像フォーマットの全領域に指定し、その一部にカメラ5から入力された動画像を領域指定してはめ込んだ場合の例を示す。
【0051】
図5の(c)において、静止画像はカメラ5からの入力画像の一部が、静止画像設定部24において取り出されて設定されている。また、新規に生成した静止画像を全領域に指定することももちろん可能である。
【0052】
この場合も、静止画像として扱う領域分のデータは一度送信してしまうとその後は動画像としての差分データが発生しなくなるため、送信画像の符号化が動画像部分のみに集中して、画像データの転送効率が向上する。
【0053】
以下、図1に示す画像コーデック部11における符号化処理について図6を参照して説明する。図6はコーデック部11における符号化処理を行う詳細構成を示すブロック図である。
【0054】
図6において、60は符号化処理を行う符号化処理部、61はシステム制御部14からの指示に従って、符号化処理部60を構成する各部への制御をしたり、必要な情報の生成を行う符号化制御部、62は符号化対象となる画像フレームを間引くことにより発生符号量を抑制するコマ落し処理部、63は前フレームと現フレームの同一のマクロブロック(以下、MB)についてフレーム間の平均二乗誤差やフレーム内の分散等を算出して、符号化対象を前フレームと現フレームの画像の差分値(INTER)とするか又は現フレームの原画像値INTRAとするかを判別するINTER/INTRA判別処理部、64は対象となる現フレームのブロックが前フレームのある範囲内をサーチしてパターンマッチングするかどうか、つまり動き補償(MC)するか否かを判別するMC判別部、65はMC判別部64の判別結果によって動き補償の有無と動きベクトル(方向,大きさ)を指示することにより、MC制御を行うMC制御部、66はINTER/INTRA判別部63の判別結果によりINTER/INTRA処理を行うINTER/INTRA処理部、67は動き補償した後にフィルタ処理を行うフィルタ処理部、68は同一のMBに対してINTERのフレームが続くと受信側で量子化誤差が累積する、あるいは伝送エラーなどによる複合画像の乱れが生じた場合に復旧できない等の問題が生じるために、ある期間でINTRAフレームを発生させてリフレッシュを行うためのリフレッシュ周期カウンタ、69は量子化した際のデータの発生効率をよくするためにしきい値を制御し、ある値以下のデータは0値としてデータを発生しないようにする量子化しきい値制御部、70は送信バッファ81のデータ蓄積量に応じて量子化ステップサイズを制御する量子化ステップサイズ制御部、71は送信バッファ81の蓄積量を検出する送信量検出部、72はフレームヘッダ,GOB(Group of Block)ヘッダ,MBヘッダを生成するヘッダ情報生成部である。
【0055】
73はフレームメモリ、74,75はINTER/INTRA処理を選択するスイッチ、76はINTER処理の際の前フレームと現フレームとの差分をとる減算器、77は直交変換により空間領域から周波数領域に変換するDCT変換(不可逆符号化)部、78は量子化器、79は発生したデータを可変長符号化するVLC(可逆符号化)部、80は多重化部、81は送信バッファ、82は誤り訂正フレームを生成するBCH部、83は逆量子化器、84は逆DCT変換部、85は前フレームと現フレームとを加算する加算器、86,87は読みだしフレームと書込みフレームとを交互に切換えるスイッチ、88,89はフレームメモリ、90はスイッチ86,87とフレームメモリ88,89を制御するFM制御部、91は前フレームをサーチして現フレームとのパターンマッチングを検出する動き補償部、92,93はフィルタ処理部94のON/OFFを選択するスイッチ、94はフィルタ処理部、95はFIFOメモリ96へのデータの入力をON/OFFするスイッチ、96はFIFOメモリである。
【0056】
尚、図6において、実線は画像信号の入出力を、破線は制御信号の入出力方向を示す
次に、上述した図6に示す構成により符号化処理を施される1画面(1フレーム)の画像データの構成について、図7を参照して詳細に説明する。図7の(a)に、1画面の画像フォーマット例を示す。尚、以下、A画素×BラインをA×Bで表わす。
【0057】
ITU−TS勧告H.261においては、取り扱うビデオ信号としては、NTSC,PAL,デジタルテレビ(HDTV)規格等の異なった複数の規格が存在するため、お互いに通信ができるように世界共通のビデオ信号フォーマットを採用している。
【0058】
これをCIFと称し、標本数が輝度Yは352×288、色差Cr,Cbは176×144で規定されている。
【0059】
標本点(サンプリング点)については、図7の(b)に示すように、色差(Cr,Cb)は、輝度4地点(Y1,Y2,Y3,Y4)の等距離にある点と定められている。
【0060】
更に、CIFを水平、垂直共に1/2とした1/4のフォーマットをQCIFと称し、標本数が輝度Yは176×144、色差Cr,Cbは、88×72で定義されている。
【0061】
図7に示すように、上記CIF,QCIFの各フォーマットは、GOBフォーマット複数個で構成され、GOBフォーマットはMBフォーマット33個で構成される。更に、MBフォーマットはY1,Y2,Y3,Y4の4個の8×8の輝度ブロックと、8×8の色差ブロックCr,Cbの合計6ブロックで構成されており、階層構造になっている。
【0062】
図7に示す画像データの階層構造により、符号化をMB単位で行うことが可能となる。
【0063】
GOBは、その標本数を輝度Yが176×48、色差Cr,Cbが88×24に定義され、CIFの1/12,QCIFの1/3に相当する。また、CIFがGOB1〜GOB12で構成されるとすると、QCIFはGOB1,GOB3,GOB5で構成される。
【0064】
符号化された画像データは図6に示す多重化部80において多重化され、多重化フレーム構成となる。以下、符号化された画像データのフレーム構成を図8に示す。尚、図8においては説明の都合上、フレームヘッダ(FH)を付加したまま説明を行う。
【0065】
図8において、上段はGOBによるフレーム構成を示している。1フレームのデータの先頭にFHが付加され、1フレームの画面を12分割した1ブロックをGOBとして、GOB1からGOB12までが順次伝送される。
【0066】
フレームを構成する各GOBは、図8の下段に示すように分割される。図8の下段は、上段で示すFH及びGOBの詳細構成を示している。
【0067】
FHは、図6で示したヘッダ情報生成部72において生成され、後述するPSC,TR,PTYPEで構成されている。PSCはフレーム開始符号あり、20ビットの“0000 0000 0000 0001 0000”である。TRはフレーム番号で、5ビットの“1”から“30”までの値を使用する。PTYPEはタイプ情報で6ビットで、スプリット・スクリーン指示情報,書画カメラ指示情報,画面凍結解除,情報源フォーマット指示情報(CIF,QCIF)が含まれている。
【0068】
また、GOBヘッダもヘッダ情報生成部72において生成され、後述するGBSC,GN,GQUANTで構成されている。GBSCはGOB開始符号であり、16ビットの“0000 0000 0000 0001”である。GNはGOB番号で、4ビットの“1”から“12”までの値を使用する。GNが“0”である場合には、FHのPSCとして使用されているので、FHのPSCとGOBのGBSC+GNは、共に20ビットの連続した値と見なすことができる。また、GQUANTは量子化特性情報で、図6に示す量子化ステップサイズ制御部70において決定された5ビットの量子化ステップサイズ情報Qを含む。
【0069】
MBヘッダもヘッダ情報生成部72において生成され、後述するMBA,MTYPE,MQUANT,MVD,CBPで構成されている。MBAはMBの位置を表すマクロブロックアドレスであり、1GOBを構成する33個のMBのうちの先頭MBのみが絶対値で、以降のMBにおいては、その差分の可変長符号である。MTYPEはMBのタイプ情報であり、INTRA(フレーム内符号化)、INTER(フレーム間差分符号化)、MC(動き補償付きフレーム間差分符号化)、FIL(フィルタ)等、そのMBのデータに施した処理タイプを示す。MQUANTは量子化特性情報であり、上述したGQUANTと同じ情報を持つ。MVDは動きベクトル情報Vである。CBPは差分値が有意である有意ブロックパターンであり、MBを構成する4個のYブロックとCr,Cbのうち、有効とする画素ブロックの番号を情報として含む。尚、CBPにおいて、MBを構成するブロックのうちYには1から4まで、Cbには5、Crには6の番号が割当てられている。
【0070】
MBヘッダの後には、圧縮符号化した画像データTCOEFFが続く。TCOEFFには、上述したように、Y4個及びCr,Cbのうち、CBPにおいて有意ブロックとして指定された画素ブロックが圧縮されて入っている。そして画素ブロックの終端には、EOBが付加されている。
【0071】
上述したように符号化された画像データは、BCH82において誤り訂正フレームビットが付加されて、誤り訂正フレームとして実際に回線上に伝送される。この誤り訂正フレームの構成について、図9を参照して説明する。
【0072】
図9において、1フレームは、誤り訂正の有無を示す誤り訂正フレームビットSnが1ビット、動画像データであるか否かを示すフィル識別子Fiが1ビット、BCH符号化が施された画像データが492ビット、誤り訂正パリティが18ビットの512ビットで構成されている。更に、8フレームで1マルチフレームを構成している。
【0073】
以上説明した画像の圧縮方法は、ITU―TSのH.261として勧告化されており、この勧告に準拠していれば、同勧告に準拠した他のTV電話との相互通信が可能となる。
【0074】
以下、本実施例における符号化方法について簡単に説明する。本実施例では、以下に挙げる方法を組み合わせることにより、効率的な符号化を行っている。
【0075】
▲1▼自然界の映像には画素間の相関が強いことや、周波数成分が低周波に集中し、高周波は小さいこと等を利用して、フレーム内のデータを8×8のブロックとし、2次元DCT変換するフレーム内符号化方法。
【0076】
▲2▼前フレームと現フレームの同位置の画像ブロックにおいて両者の相関が強い時にフレーム間の差分を取り、その差分値に対して8×8のブロックを2次元DCT変換するフレーム間符号化方法。
【0077】
▲3▼前フレームから現フレームへ類似した画像ブロックが相対的に隣接移動した場合に、これを検知してその画像ブロックの移動量と移動方向の情報を送るのみで画像データそのものを送らずに済ませることで発生データ量を減らす動き補償。
【0078】
▲4▼DCT変換後の各周波数ごとの係数値が低周波領域では値が発生するが、高周波領域では値が発生しにくくゼロ値が続くことを利用したゼロランレングス符号化方法。
【0079】
▲5▼データの発生量に応じてデータの量子化ステップ幅を変更することでデータの発生量を調整する量子化方法。
【0080】
▲6▼発生頻度の高いデータパターンに対しては短い符号値を、発生頻度の低いデータパターンに対しては長い符号値を割当てることで、トータル的に発生したデータ量よりも少ないデータ量に変換する可変長符号化方法。
【0081】
▲7▼フレームをスキップして、画像データそのものを落してしまう駒落し方法。
【0082】
以上説明した複数の符号化方法を効果的に使用して画像データを圧縮し、低レートの通信においても動画像を通信可能としている。
【0083】
また、本実施例においては、図4の(b)に示した動画像データと特定画像データと静止画像データの各指定領域の境界を、符号化する最小単位(8×8)のブロックの境界にあわせる。従って、符号化されるブロック毎に上記の各種データの領域指定を行なうことが可能となる。また、動画像データの符号化と、特定画像データを含む静止画像データの符号化とを、上述したようにMBヘッダ内のMTYPE等の情報によりブロック単位に明確に分けて行うことができるため、画像に応じた最適な符号化が可能となる。
【0084】
また、静止画像の場合には、初めの1フレームをINTRAモードで送信し、後続のフレームはINTERモードで送信することにより、数フレーム目には差分値が発生しなくなり、最終的にはそのブロックはデータを送る必要がなくなる。したがって、非常に効率の良い符号化が可能となる。
【0085】
以下、図10を参照して本実施例のTV電話機を用いた画像通信システムについて説明する。図10は、本実施例の画像通信システムにおける送信端末と受信端末間(TV電話機間)の画像データ、及びその画像データの有効領域を指定する指定領域情報の一例を模式的に示した図である。図10においては、本実施例におけるTV電話機を送信端末及び受信端末の2台用意し、その間における画像通信の様子を示している。
【0086】
図10の(a)は、画像データを送信する送信端末において、領域判別部18で指定領域情報を作成して、受信端末に転送する例を示す。まず、送信端末が符号化する指定領域を、(x0,y0)と(x1,y1)を結んだ線分を対角線にもつ四角形(以下、[(x0, y0),(x1,y1)]と表記する)として設定し、その指定領域に特定画像データ又は静止画像データを書き込む。次にその符号化する指定領域内で、動画像をはめ込む指定領域を[(x2,y2),(x3,y3)]として設定し、その指定領域に、カメラから入力した動画像データをはめ込む。
【0087】
送信端末では、以上のようにして生成された指定領域[(x0,y0),(x1,y1)]の画像データを符号化して、まず指定領域[(x0,y0),(x1,y1)]及び[(x2,y2),(x3,y3)]の領域情報を送信し、次いでその符号化された画像データを送信する。
【0088】
受信端末では、送信端末から送信された指定領域情報と符号化された画像データとを受信して画像データを復号化してメモリに書き込み、受信した指定領域情報から動画像の指定領域を認識する。そして、動画像領域のみをモニタに表示したい場合には、その指定領域[(x2,y2),(x3,y3)]から動画像データを抽出して、モニタに表示する。尚、モニタに表示する際のモニタ上における指定領域は、受信端末側で自由に設定することがもちろん可能である。
【0089】
次に、図10の(b)に、受信端末が指定領域情報を作成して送信端末に転送する例を示す。まず、受信端末が符号化すべき指定領域[(x0,y0),(x1,y1)]を設定し、その指定領域に特定画像データ又は静止画像データを書き込む。次に、その符号化する指定領域内で、動画像をはめ込む指定領域[(x2,y2),(x3,y3)]を設定する。そして、指定領域[(x0,y0),(x1,y1)],[(x2,y2),(x3,y3)]の指定領域情報を送信端末側に送信する。
【0090】
送信端末は、受信端末から送られた指定領域情報を受信してメモリに書き込む。送信端末はその指定領域情報に基づいて、符号化する指定領域[(x0,y0),(x1,y1)]を設定し、その指定領域に特定画像データ又は静止画像データを書き込む。そして、その符号化する指定領域内で動画像をはめ込む指定領域[(x2,y2),(x3,y3)]を設定し、その指定領域に、カメラから入力した動画像データをはめ込む。送信端末では、このようにして生成された指定領域[(x0,y0),(x1,y1)]の画像データを符号化し、符号化された画像データのみを受信端末へ送信する。
【0091】
そして受信端末は符号化された画像データを受信し、復号化してメモリに書き込み、自ら作成した指定領域情報から動画像の指定領域を認識する。そしてその動画像領域のみをモニタに表示したい場合には、指定領域[(x2,y2),(x3,y3)]から動画像データを抽出して、モニタに表示する。尚、モニタに表示する際のモニタ上における指定領域は、受信端末側で自由に設定することがもちろん可能である。
【0092】
尚、上述したような動画像の指定領域は、図1に示すシステム制御部14内の領域指定管理テーブル15に書き込まれることにより、管理される。
【0093】
以上説明したように、本実施例のTV電話機を用いた画像通信システムにおいては、符号化の際の画像フォーマットが固定であっても、その画像サイズより小さな任意のサイズで動画像を符号化して送信することが可能であり、同様に受信してモニタに表示することが可能である。
【0094】
尚、本実施例においては図1に示すように音声情報と画像情報とが処理可能なTV電話機を例にして説明を行ったが、本発明はこのようなTV電話機に限定されるものではなく、動画像を通信する装置及び方法及びシステムであれば、何でもよい。
【0095】
尚、本発明は、複数の機器から構成されるシステムに適用しても、1つの機器から成る装置に適用しても良い。また、本発明はシステム或は装置にプログラムを供給することによって達成される場合にも適用できることは言うまでもない。
【0096】
【発明の効果】
以上説明したように本発明によれば、符号化の際の画像フォーマットが固定であっても、その画像サイズより小さなサイズに最小の画像ブロックを単位として動画像をはめ込み、それ以外の領域には静止画像を埋め込んでという様に、動画像と静止画像とを組み合わせて符号化することができる。更に、符号化データを送信し、受信側ではその動画像領域のみを抜き取ってモニタに表示することで、任意のサイズで動画像を符号化して送信することが可能となる。従って、用途や状況に応じて画像サイズを変化させて、最適な符号化処理を実行させることが可能となり、最適な画質で画像通信が行えるという特有の効果が得られる。
【0097】
また、静止画像の差分値データについてはいずれ収束してなくなってしまうため、符号化の対象が動画像領域に集中し、動画像の転送効率が向上するという効果も得られる。
【0098】
また、静止画像領域に動画像領域を含ませることにより、静止画像に動画像をはめ込んで表示した画像を送信することも可能であり、操作者の利便性が飛躍的に向上する。
【0099】
また、受信側で生成した静止画像に送信側から送信された動画像をはめ込んで表示する際に、受信側から動画像をはめ込む位置を指定し、送信側がその指定された位置に動画像をはめ込んで送信することにより、受信側でははめ込み処理と動画像の変倍処理を行う必要がなくなるため、画像通信システムが経済的に構築でき、かつ画質も良好な状態で得られるという効果がある。
【0100】
【図面の簡単な説明】
【図1】本発明に係る一実施例のTV電話機のブロック構成図である。
【図2】本実施例における送信画像編集部の詳細構成を示すブロック図である。
【図3】本実施例における受信画像編集部の詳細構成を示すブロック図である。
【図4】本実施例における送信画像へのデータはめ込み処理や受信画像の重ね処理を説明するための図である。
【図5】本実施例における領域指定方法を説明するための図である。
【図6】本実施例における画像コーデック部の詳細構成を示すブロック図である。
【図7】本実施例における画像フォーマットを示す図である。
【図8】本実施例における画像データの多重化フレーム構成を示す図である。
【図9】本実施例における誤り訂正フレーム同期を示す図である。
【図10】本実施例における通信方法の例を示す図である。
【符号の説明】
1 マイク
2 スピーカ
3 音声処理部
4 音声コーデック部
5 カメラ
6 モニタ
7 画像処理部
8 送信画像編集部
9 受信画像編集部
10 特定画像生成部
11 画像コーデック部
12 多重分離部
13 回線インターフェース部
14 システム制御部
15 領域指定管理テーブル
16 特定画像管理テーブル
17 操作部
[0001]
[Industrial application fields]
The present invention relates to an image communication apparatus and system. To For example, an image communication apparatus and system for transmitting and receiving image data and the like via a communication line. To Related.
[0002]
[Prior art]
In the case of a conventional analog telephone line, for example, a telephone can only transmit voice, and an image communication apparatus such as a facsimile apparatus can transmit image data only at a low speed.
[0003]
However, with recent advances in communication technology, semiconductor technology, and optical technology, digital lines have been established, enabling high-speed and large-capacity data transmission.
[0004]
In particular, the characteristics of digital transmission include the same level of quality without degradation due to transmission, and the integration of media without requiring a transmission path according to the characteristics of the media of the transmission data. Transmission between composite media terminals is now possible. Therefore, in addition to conventional telephones that transmit only voice, telephone terminals that can simultaneously transmit video, so-called TV telephone devices, have appeared.
[0005]
Under these circumstances, international standardization by CCITT (International Telegraph and Telephone Consultative Committee) etc. is being promoted so that mutual communication between different composite terminals is possible, such as videophones and videoconferencing systems using digital lines. The service specifications, protocol specifications, and multimedia multiplexed frame configuration specifications for AV services as AV (Audio Visual) services of CCITT Recommendation (or Draft) 320, H.I. 242, H.M. It is announced as 221 etc.
[0006]
H. 221 exchanges frame configurations and terminal capabilities in AV services from 64 Kbps to 1920 Kbps, and FAS (Fram e Code allocation of Alignment Signal) and BAS (Bit Allocation Signal) is defined. H. Protocols such as capability exchange and communication mode switching between AV terminals using BAS are defined in 242, and a system overview of AV services in general is defined in H320.
[0007]
In the above recommendation (or draft recommendation), after setting up an end-to-end physical connection and establishing synchronization by FAS in the in-channel, a terminal capability exchange sequence using the BAS in the in-channel, and a mode switching sequence by specifying the communication mode A method for performing multimedia communication such as images, sounds, and data between terminals is defined by such procedures.
[0008]
However, it is out of the specified range to change the terminal capability of each terminal according to the situation and which communication mode is used within the range of the converted capability.
[0009]
The information transfer speed of each medium in multimedia communication that simultaneously communicates images, sounds, and data is determined by designating the sound encoding method for sound information, and whether or not the data information is used and transferred when used. The remaining information obtained by subtracting the transfer speed of the audio information and the transfer speed of the data information from the set information transfer speed of the entire communication path is the transfer speed of the image information.
[0010]
[Problems to be solved by the invention]
However, according to the above-described conventional TV telephone apparatus, since the transmission image format for encoding is defined, the image format cannot be changed according to the application, for example.
[0011]
For example, ITU-TS (formerly CCITT) H.264. For the H.261 recommendation, there are only two types of prescribed formats, CIF (Common Intermediate Format) and QCIF (Quarter CIF). High-definition However, there is a problem that only two types of resolutions such as a good image quality can be switched, and the optimum resolution cannot be variably set.
[0012]
Also, when the input image format of the image to be transmitted and the specified format do not match, the input image format is enlarged or reduced to match the size of the specified format, or the received specified format and the output image format are When it does not fit, the specified image format must be enlarged or reduced in order to match the specified format to the output image format. Therefore, there are problems such as requiring useless scaling processing and causing deterioration in image quality due to scaling processing.
[0013]
For example, when transmitting and receiving in a format in which a moving image is inserted into a still image and displaying a screen, the transmitting side first transmits the still image in a specified format, and then transmits the moving image in a specified format. That is, two frames are transmitted, and the reception side generates an image for one frame by performing a process of reducing and scaling the received moving image frame and inserting it into the previously received still image. .
[0014]
Therefore, in order to solve the above-described problems, the present invention provides an image communication apparatus and system that can divide an image flexibly and transmit and receive a moving image at an arbitrary size even if the image format is fixed. Of For the purpose of provision.
[0015]
[Means for Solving the Problems]
In order to achieve the above-described object, the present invention has the following configuration.
[0016]
That is, the image communication apparatus according to the present invention includes one screen. Image Send Be done An area designating unit for designating a first required area and a desired second required area in the first required area as a moving image area; Of the second required area Video and , The first required area excluding the second required area Combination means for combining still images, encoding means for encoding the image data combined by the combination means, and image data encoded by the encoding means When, The first required area specified by the area specifying means The region position information and the position of the region of the moving image within the first required region Area of the second required area position information When Transmission means for transmitting the image to another image communication apparatus.
[0018]
Furthermore, encoded image data When, Said first required area Region position information and Area of the second required area position information When Receiving means for receiving the image data, decoding means for decoding the image data received by the receiving means, and the first required area Region position information and Area of the second required area position Based on the information, the moving image of the second required area is display In order to perform processing, the image processing apparatus includes extraction means for extracting a moving image from the image data decoded by the decoding means.
[0019]
For example, the encoding unit encodes image data in units of blocks, and the region specifying unit specifies regions in units of blocks.
[0020]
For example, the combination means combines different moving images when at least two areas are designated by the area designation means.
[0021]
For example, the still image is a part of the moving image.
[0023]
For example, the encoding means performs encoding using inter-frame differences.
[0024]
A speech processing unit that performs speech processing; a speech encoding unit that encodes speech data processed by the speech processing unit; and a speech transmission unit that transmits speech data encoded by the speech encoding unit; It is characterized by having.
[0025]
Further, in the image communication system of the present invention, the first image communication apparatus has one screen. Image Send Be done An area designating unit for designating a first required area and a desired second required area in the first required area as a moving image area; Of the second required area Video and , The first required area excluding the second required area Combination means for combining still images, encoding means for encoding the image data combined by the combination means, and image data encoded by the encoding means When, The first required area specified by the area specifying means The region position information and the position of the region of the moving image within the first required region Area of the second required area position information When Transmitting means for transmitting the image data to another image communication device, wherein the second image communication device is configured to transmit the encoded image data. When, Said first required area Region position information and Area of the second required area position information When Receiving means for receiving the image data, decoding means for decoding the image data received by the receiving means, and the first required area Region position information and Area of the second required area position Based on the information, the moving image of the second required area is display In order to perform processing, the image processing apparatus includes extraction means for extracting a moving image from the image data decoded by the decoding means.
[0026]
[Action]
In the above configuration, it is possible to encode and transmit more efficiently. Further, it is possible to obtain a specific effect that a plurality of received images can be extracted and selectively displayed or simultaneously displayed.
[0027]
【Example】
Hereinafter, an embodiment according to the present invention will be described in detail with reference to the drawings.
[0028]
FIG. 1 is a block diagram showing the configuration of the TV telephone apparatus of this embodiment. In FIG. 1, 1 is a microphone, 2 is a speaker, 3 is a gain adjustment function for adjusting a volume level, and an echo is erased when the microphone 1 and the speaker 2 are used as audio input / output means, according to an instruction from the system control unit 14. A voice processing unit having an echo canceling function, a dial tone, a ringing tone, a busy tone, a tone generation function such as a ringing tone, and the like, 4 is 64 kbps PCM (A-law), 64 kbps PCM (μ-law) according to an instruction from the system control unit ), 7 kHz audio (SB-ADPCM), 32 kbps ADPCM, 16 kbps (for example, APC-AB) 8 kbps, etc., according to a voice encoding / decoding algorithm, a function of A / D converting and encoding a transmission voice signal, a received voice signal Codec with the function of decoding and D / A conversion , 5 is a standard camera that captures a person, 6 is a monitor that displays an input image from the camera 5, a received image from the partner device, and an image from the system control unit 14. An image processing unit for processing, 8 is a transmission image editing unit, and 9 is a reception image editing unit. The detailed configuration of the transmission image editing unit 8 is shown in FIG. 2 described later, and the detailed configuration of the reception image editing unit 9 is shown in FIG. 3 described later. Reference numeral 18 denotes an area discriminating unit, which creates or decodes area information for discriminating various image areas described later in the image processing unit 7.
[0029]
In FIG. 1, reference numeral 10 denotes a specific image generation unit that converts text data or graphic data to be inserted into an image into bitmap data based on a specific image management table in the system control unit 14 and transfers the bitmap data to the image processing unit 7. Reference numeral 11 denotes an image codec unit having a function of encoding a transmission image and a function of decoding a reception image. The image codec unit 11 performs band compression on the raw data of a large-capacity image by various methods such as motion compensation, frame dropping, inter-frame prediction and inter-frame compensation, DCT conversion, vector quantization conversion, and the like. Is reduced in size so that it can be transmitted through a digital line. Currently, the basic interface of the ISDN line is 64 kbps. As an image encoding method that can be transmitted at this transmission speed, H.264 recommended by ITU-TS is used. There are 261.
[0030]
In FIG. 1, 12 multiplexes audio data from the audio codec unit 4, image data from the image codec unit 11, and BAS from the system control unit 14 in units of transmission frames, and receives frames to each medium that is a unit of configuration. This is a demultiplexing unit that separates and notifies each unit. There are 221.
[0031]
13 is a line interface for controlling the line according to the ISDN user network interface, 14 is provided with a CPU, a ROM, a RAM, an auxiliary storage device, a character generator, an image signal generation circuit, etc. A system control unit 15 for performing control of the image, creation of an operation / display screen according to the state, execution of an application program, and the like, 15 is an area designation management table for managing address designation of image memory in the transmission image editing unit 8 and the reception image editing unit 9 , 16 is a specific image management table for managing specific image data, and 17 is an operation unit including a keyboard, a touch panel, and the like used by an operator for inputting area designation information and control information in order to control the apparatus. Each area designation information in this embodiment is input in advance from the operation panel 17 by the operator and stored in the area designation management table 15.
[0032]
Hereinafter, the transmission image editing unit 8 will be described in detail with reference to FIG. FIG. 2 is a block diagram showing a detailed configuration of the transmission image editing unit 8.
[0033]
In FIG. 2, 21 has a function of inputting image data and performing YC separation if it is a composite signal, further demodulating and separating the C signal into Cr and Cb signals, and performing color conversion if RGB signals are necessary. An input processing unit 22 is a scaling processing unit that scales the image format of input image data to a required image format, 23 is a buffer that temporarily stores image data for synchronization, and 24 is a transmission image processing A still image setting unit for setting a still image to be written in the memory 27 according to an instruction from the unit 35, 25 is input image data, still image data from the still image setting unit 24, and specific image data from the image control unit 35 The selection unit selects which data is to be written into the image memory 27. The still image setting unit 24 has a memory for storing various still images in accordance with an instruction from the transmission image control unit 35, and image data can be taken in from the image memory 27 as a still image.
[0034]
Reference numeral 26 denotes a memory write control unit that generates a write address to the image memory 27 and controls the selection unit 25. Reference numeral 27 denotes an image memory. Reference numerals 28, 29, and 30 denote an image memory 27 for the memory write control unit 26. The area designation units a, b, c, 31 for setting the area designation and the data to be selected in the area are memory read control units 32, 33, 34 for generating read address signals from the image memory 27. The area designation units d, e, f, and 35 for setting the area designation to the image memory 27 and the area of the image to be transferred to the image codec unit 11 in the area for the memory read control unit 31 are specific image data and still image The transmission image control for setting the image data and the area designation data to the memory write control unit 26 and the memory read control unit 31 in the area designation units 28 to 30 and 32 to 34. It is a part.
[0035]
Hereinafter, the received image editing unit 9 will be described in detail with reference to FIG. FIG. 3 is a block diagram showing a detailed configuration of the received image editing unit 9.
[0036]
In FIG. 3, reference numeral 41 denotes a memory write control unit that generates a write address signal to the image memory 45, and reference numerals 42, 43, and 44 denote area designation units that set area designation to the image memory 45 for the memory write control unit 41. Reference numerals a, b, c, and 45 denote image memories, 46 denotes a memory read control unit that generates a read address signal from the image memory 45, and 47, 48, and 49 denote areas to the image memory 45 with respect to the memory read control unit 46. The area designating parts d, e, f, 50 for setting the designation are a scaling process part for scaling the image format to a required image format, and 51 is the image data from the scaling process part 50 and the received image control part 54. A combining unit 52 that combines the specific image data with an instruction from the received image control unit 54 controls the combining unit 51 to control the switching timing of the combination. An array controller 53 is a DAC (Digital Analog Converter) that converts the image data output from the combining unit 51 from a digital signal to an analog signal, and 54 is an output of specific image data and the memory write control unit 41 and the memory read control unit 42. This area designation data is set in each of the area designation units 42 to 44, 47 to 49, or over-array switching control to the over-array controller 52 is set.
[0037]
With the configuration described above, the image input to the transmission image area by the transmission image editing unit 8 is inserted into the image before encoding input from the camera 5 shown in FIG. Still image data or specific image data generated by the transmission image control unit 35 can be fitted in part or all.
[0038]
Further, with respect to an image decoded by the image codec unit 11 after reception, the received image editing unit 9 arbitrarily selects a region from the received image region, extracts a part or all of the image, and receives image control The specific image data generated by the unit 54 and the image can be displayed on the monitor 6 in an overlapping manner.
[0039]
2 and the received image control unit 54 shown in FIG. 3 are controlled by the system control unit 14 shown in FIG. 1, and an area designation management table in the system control unit 14 is used. According to the contents of 15, the access to the respective image memories 27 and 45 is controlled.
[0040]
Further, each area information in the transmission image synthesized by the transmission image editing unit 8 and each area information in the reception image received by the reception image editing unit 9 are managed by the area determination unit 18 shown in FIG. The transmission image control unit 35 and the reception image control unit 54 are entrusted with the control. The area information generated in the area discriminating unit 18 is transmitted / received between the TV telephones prior to transmission / reception of the encoded image data.
[0041]
Hereinafter, a specific example of the above-described data fitting process to the transmission image and the received image superimposing process will be described with reference to FIG.
[0042]
In FIG. 4A, the four corners are (x2, y2), (x2, y3), (x3, y2), (x3, y3) from the transmission image control unit 35 to the region designation unit a28, for example. An example is shown in which an area to be displayed is designated and the area is defined as a moving image area. In this case, the memory write control unit 26 switches the selection unit 25 to the input image from the buffer 23 when the access to the image memory 27 reaches the area, and the image memory 27 stores the input image, that is, the moving image. Write the corresponding data. Further, in (a) of FIG. 4, (x0, y0), (x0, y1), (x1, y0), (x1, y1) are transmitted from the transmission image control unit 35 to, for example, another region specifying unit b29. An example in which an area indicated by is designated and the area is defined as a still image area is also shown. When the access to the image memory 27 reaches the area, the memory write control unit 26 switches the selection unit 25 to the still image data from the still image setting unit 24, and the image memory 27 corresponds to the still image data. Write data to be used. In addition, as long as the area | region designation | designated parts 28-30 are not used mutually overlapping, you may use either.
[0043]
FIG. 4B shows an example in which specific image data generated from the transmission image control unit 35 is further inserted into the image shown in FIG. In the area designation of the specific image data, the area designation is first performed for one of the area designation units 28 to 30 as in the above-described example, and when the memory write control unit 26 reaches that area, Data corresponding to the specific image data is written into the image memory 27.
[0044]
The image data generated in the transmission image editing unit 8 as described above is transferred to the image codec unit 11.
[0045]
Next, with reference to FIG. 5, a method for specifying an area in the present embodiment will be described. FIG. 5 is a diagram showing various area designation methods in the present embodiment.
[0046]
FIG. 5A shows that when two people's images are input from the camera 5, only the main image portions of the two people are taken into the image memory 27 as moving images, and the other portions are the same. An example of capturing still image data will be shown. In this case, encoded data is prevented from being generated by the image codec unit 11 in a portion that does not need to be transmitted as a moving image, and the encoded data is allocated only to two important image data whose areas are designated. The transfer efficiency of image data can be improved. Further, by handling these two moving image areas as completely independent images, multiple images can be input from one camera 5.
[0047]
In FIG. 5B, for example, a plurality of cameras 5 a, b, and c are provided, and multi-image input is realized by writing the image input to the image memory 27 while sequentially switching the image input between a, b, and c. An example is shown.
[0048]
As a multi-image input method in this case, a transmission signal control unit 35 generates a synchronization signal and sends it to each camera a to c. Each camera a to c transmits an input image to the transmission image editing unit in accordance with the synchronization. 8 and the transmission image editing unit 8 writes the image data of each camera a to c in the image memory 27 while sequentially switching, and receives all the input images of each camera a to c simultaneously and asynchronously. In this method, the input images of the cameras a to c are sequentially written in the image memory 27 in synchronization with the synchronization generated by the transmission image control unit 35.
[0049]
As in the method described above, the image writing area is designated by setting the area in any of the area designating units 28 to 29 for each camera a to c, and when the processing reaches the set area, The input image from the camera whose area is designated is written into the image memory 27. In this way, it is possible to write input from multiple cameras into one image memory, and write the specific image data or still image data for the remaining unnecessary parts, thereby concentrating the encoding assignment on the necessary parts. Thus, the transfer efficiency of image data can be improved.
[0050]
FIG. 5C shows an example in which a still image is designated as the entire area of the transmission image format, and a moving image input from the camera 5 is designated as a part of the still picture and is inserted.
[0051]
In FIG. 5C, a still image is set by extracting a part of an input image from the camera 5 in the still image setting unit 24. It is of course possible to designate a newly generated still image for the entire area.
[0052]
Also in this case, once the data for the area treated as a still image is transmitted once, difference data as a moving image does not occur after that, so encoding of the transmission image is concentrated only on the moving image portion, and the image data Transfer efficiency is improved.
[0053]
Hereinafter, the encoding process in the image codec unit 11 shown in FIG. 1 will be described with reference to FIG. FIG. 6 is a block diagram showing a detailed configuration for performing the encoding process in the codec unit 11.
[0054]
In FIG. 6, reference numeral 60 denotes an encoding processing unit that performs an encoding process, and reference numeral 61 denotes control of each unit constituting the encoding processing unit 60 or generation of necessary information in accordance with an instruction from the system control unit 14. An encoding control unit 62 is a frame drop processing unit that suppresses the amount of generated code by thinning out image frames to be encoded, and 63 is an inter-frame processing for the same macroblock (hereinafter referred to as MB) of the previous frame and the current frame. INTER / which calculates the mean square error, the variance within the frame, etc., and determines whether the encoding target is the difference value (INTER) between the image of the previous frame and the current frame or the original image value INTRA of the current frame The INTRA discrimination processing unit 64 checks whether the current frame block of interest searches within a certain range of the previous frame and performs pattern matching, that is, motion compensation. (MC) MC discriminating unit for discriminating whether or not to perform MC control by instructing the presence / absence of motion compensation and a motion vector (direction and size) according to the discrimination result of the MC discriminating unit 64 , 66 is an INTER / INTRA processing unit that performs INTER / INTRA processing based on the determination result of the INTER / INTRA determining unit 63, 67 is a filter processing unit that performs filter processing after motion compensation, and 68 is an INTER frame for the same MB. If the error persists, the quantization error accumulates on the receiving side, or a problem such as being unable to recover when a composite image is disturbed due to a transmission error or the like occurs. Therefore, an INTRA frame is generated in a certain period and refreshed. The refresh cycle counter 69 is a threshold for improving the efficiency of data generation when quantized. Quantization threshold value control unit for controlling data such that data below a certain value is set to 0 value so as not to generate data, and 70 is a quantization step size for controlling the quantization step size according to the data accumulation amount of the transmission buffer 81 A control unit 71 is a transmission amount detection unit that detects an accumulation amount of the transmission buffer 81, and 72 is a header information generation unit that generates a frame header, a GOB (Group of Block) header, and an MB header.
[0055]
73 is a frame memory, 74 and 75 are switches for selecting INTER / INTRA processing, 76 is a subtractor that takes the difference between the previous frame and the current frame at the time of INTER processing, and 77 is converted from the spatial domain to the frequency domain by orthogonal transformation. DCT transform (irreversible encoding) unit, 78 is a quantizer, 79 is a VLC (lossless encoding) unit that variable-length encodes the generated data, 80 is a multiplexing unit, 81 is a transmission buffer, and 82 is error correction BCH unit for generating a frame, 83 is an inverse quantizer, 84 is an inverse DCT conversion unit, 85 is an adder for adding the previous frame and the current frame, and 86 and 87 are alternately switched between a read frame and a write frame. Switches, 88 and 89 are frame memories, 90 is an FM controller for controlling the switches 86 and 87 and the frame memories 88 and 89, and 91 is a previous frame. Motion compensation units for detecting pattern matching with the current frame, 92 and 93 are switches for selecting ON / OFF of the filter processing unit 94, 94 is a filter processing unit, and 95 is an input of data to the FIFO memory 96. A switch 96 for turning ON / OFF the FIFO is a FIFO memory.
[0056]
In FIG. 6, the solid line indicates the input / output of the image signal, and the broken line indicates the input / output direction of the control signal.
Next, the configuration of the image data of one screen (one frame) subjected to the encoding process with the configuration shown in FIG. 6 will be described in detail with reference to FIG. FIG. 7A shows an image format example of one screen. Hereinafter, A pixel × B line is represented by A × B.
[0057]
ITU-TS recommendation H. In H.261, since there are a plurality of different standards such as NTSC, PAL, and digital television (HDTV) standards as video signals to be handled, a video signal format common to the world is adopted so that they can communicate with each other. .
[0058]
This is called CIF, and the number of samples is defined as luminance Y of 352 × 288 and color differences Cr and Cb of 176 × 144.
[0059]
As for the sample point (sampling point), as shown in FIG. 7B, the color difference (Cr, Cb) is determined to be an equidistant point of four luminance points (Y1, Y2, Y3, Y4). Yes.
[0060]
Further, a quarter format in which CIF is halved both horizontally and vertically is called QCIF, and the number of samples is defined as 176 × 144 for luminance Y, and 88 × 72 for color differences Cr and Cb.
[0061]
As shown in FIG. 7, each of the CIF and QCIF formats is composed of a plurality of GOB formats, and the GOB format is composed of 33 MB formats. Further, the MB format is composed of four 8 × 8 luminance blocks Y1, Y2, Y3, and Y4 and a total of six blocks of 8 × 8 color difference blocks Cr and Cb, and has a hierarchical structure.
[0062]
The hierarchical structure of the image data shown in FIG. 7 enables encoding to be performed in MB units.
[0063]
In GOB, the number of samples is defined as luminance Y of 176 × 48 and color differences Cr and Cb of 88 × 24, which corresponds to 1/12 of CIF and 1/3 of QCIF. If the CIF is composed of GOB1 to GOB12, the QCIF is composed of GOB1, GOB3, and GOB5.
[0064]
The encoded image data is multiplexed in the multiplexing unit 80 shown in FIG. 6 to have a multiplexed frame configuration. Hereinafter, the frame structure of the encoded image data is shown in FIG. In FIG. 8, for the convenience of description, the description is made with the frame header (FH) added.
[0065]
In FIG. 8, the upper part shows the frame structure by GOB. FH is added to the head of one frame of data, and GOB1 to GOB12 are sequentially transmitted with one block obtained by dividing the screen of one frame into 12 blocks as GOB.
[0066]
Each GOB constituting the frame is divided as shown in the lower part of FIG. The lower part of FIG. 8 shows the detailed configuration of the FH and GOB shown in the upper part.
[0067]
The FH is generated by the header information generation unit 72 shown in FIG. 6 and is composed of PSC, TR, and PTYPE described later. PSC has a frame start code and is 20 bits “0000 0000 0000 0001 0000”. TR is a frame number, and uses a 5-bit value from “1” to “30”. PTYPE is 6-bit type information and includes split screen instruction information, document camera instruction information, screen freeze release, and information source format instruction information (CIF, QCIF).
[0068]
The GOB header is also generated by the header information generation unit 72, and is composed of GBSC, GN, and GQUANT described later. GBSC is a GOB start code and is 16 bits “0000 0000 0000 0001”. GN is a GOB number and uses a 4-bit value from “1” to “12”. When GN is “0”, since it is used as the FH PSC, both the FH PSC and the GOB GBSC + GN can be regarded as continuous values of 20 bits. GQUANT is quantization characteristic information, and includes 5-bit quantization step size information Q determined by the quantization step size control unit 70 shown in FIG.
[0069]
The MB header is also generated by the header information generation unit 72, and is composed of MBA, MTYPE, MQUANT, MVD, and CBP, which will be described later. The MBA is a macroblock address representing the position of the MB, and only the first MB of the 33 MBs constituting one GOB is an absolute value, and the subsequent MBs are variable length codes of the difference. MTYPE is MB type information, and is applied to the MB data such as INTRA (intra-frame coding), INTER (inter-frame differential coding), MC (inter-frame differential coding with motion compensation), FIL (filter), and the like. Indicates the type of processing performed. MQUANT is quantization characteristic information, GQUANT mentioned above With the same information. MVD is motion vector information V. CBP is a significant block pattern having a significant difference value, and includes the number of valid pixel blocks among the four Y blocks and Cr, Cb constituting the MB as information. In the CBP, numbers 1 to 4 are assigned to Y, 5 is assigned to Cb, and 6 is assigned to Cr.
[0070]
The MB header is followed by compression-encoded image data TCOEFF. In the TCOEFF, as described above, the pixel block designated as a significant block in the CBP out of Y4 and Cr, Cb is compressed and entered. An EOB is added to the end of the pixel block.
[0071]
The image data encoded as described above is added with an error correction frame bit in the BCH 82 and is actually transmitted on the line as an error correction frame. The configuration of this error correction frame will be described with reference to FIG.
[0072]
In FIG. 9, in one frame, an error correction frame bit Sn indicating the presence / absence of error correction is 1 bit, a fill identifier Fi is 1 bit indicating whether or not it is moving image data, and image data subjected to BCH encoding is displayed. It consists of 512 bits with 492 bits and error correction parity of 18 bits. Furthermore, one multiframe is composed of 8 frames.
[0073]
The image compression method described above is based on the ITU-TS H.264 standard. If it complies with this recommendation, it is possible to perform mutual communication with other TV phones that comply with this recommendation.
[0074]
Hereinafter, the encoding method in the present embodiment will be briefly described. In the present embodiment, efficient encoding is performed by combining the following methods.
[0075]
(1) Two-dimensional data in a frame is made into an 8 × 8 block by taking advantage of the fact that the correlation between pixels is strong in a natural image, the frequency components are concentrated in a low frequency, and the high frequency is small. Intraframe coding method for DCT conversion.
[0076]
(2) An inter-frame coding method in which a difference between frames is taken in an image block at the same position in the previous frame and the current frame, and an 8 × 8 block is subjected to two-dimensional DCT conversion with respect to the difference value. .
[0077]
(3) When an image block similar to the current frame moves relatively adjacently from the previous frame, this is detected and only the information on the amount and direction of movement of the image block is sent, and the image data itself is not sent. Motion compensation that reduces the amount of generated data.
[0078]
(4) A zero-run length encoding method using the fact that coefficient values for each frequency after DCT conversion are generated in the low frequency region, but the values are less likely to be generated in the high frequency region and the zero value continues.
[0079]
(5) A quantization method for adjusting the data generation amount by changing the data quantization step width according to the data generation amount.
[0080]
(6) A short code value is assigned to a frequently occurring data pattern, and a long code value is assigned to a less frequently occurring data pattern, thereby converting the data amount to a smaller amount than the total generated data amount. A variable length encoding method.
[0081]
(7) A frame dropping method that skips frames and drops image data itself.
[0082]
The plurality of encoding methods described above are effectively used to compress the image data so that moving images can be communicated even in low-rate communication.
[0083]
In this embodiment, the boundaries of the designated areas of the moving image data, the specific image data, and the still image data shown in FIG. 4B are the minimum unit (8 × 8) block boundaries to be encoded. To suit. Therefore, it is possible to specify the above-mentioned various data areas for each block to be encoded. In addition, since the encoding of moving image data and the encoding of still image data including specific image data can be clearly divided into blocks by information such as MTYPE in the MB header as described above, Optimal encoding according to the image becomes possible.
[0084]
In the case of a still image, the first frame is transmitted in the INTRA mode, and the subsequent frames are transmitted in the INTER mode, so that a difference value does not occur in the several frames, and finally the block No longer needs to send data. Therefore, very efficient encoding is possible.
[0085]
Hereinafter, an image communication system using the TV telephone of the present embodiment will be described with reference to FIG. FIG. 10 is a diagram schematically showing an example of image data between a transmission terminal and a reception terminal (between a TV phone) and designation area information for designating an effective area of the image data in the image communication system of the present embodiment. is there. In FIG. 10, two videophones according to the present embodiment are prepared, that is, a transmission terminal and a reception terminal, and the state of image communication between them is shown.
[0086]
(A) of FIG. 10 shows an example in which designated area information is created by the area discriminating unit 18 and transmitted to the receiving terminal in the transmitting terminal that transmits image data. First, the designated area to be encoded by the transmitting terminal is a quadrangle having diagonal lines (hereinafter referred to as [(x0, y0), (x1, y1)]) connecting (x0, y0) and (x1, y1). The specific image data or still image data is written in the designated area. Next, in the designated area to be encoded, a designated area for inserting a moving image is set as [(x2, y2), (x3, y3)], and the moving image data input from the camera is fitted into the designated area.
[0087]
The transmitting terminal encodes the image data of the designated area [(x0, y0), (x1, y1)] generated as described above, and first designates the designated areas [(x0, y0), (x1, y1). ] And [(x2, y2), (x3, y3)] are transmitted, and then the encoded image data is transmitted.
[0088]
The receiving terminal receives the designated area information and the encoded image data transmitted from the transmitting terminal, decodes the image data, writes them in the memory, and recognizes the designated area of the moving image from the received designated area information. When only the moving image area is to be displayed on the monitor, moving image data is extracted from the designated area [(x2, y2), (x3, y3)] and displayed on the monitor. Of course, the designated area on the monitor when displayed on the monitor can be freely set on the receiving terminal side.
[0089]
Next, FIG. 10B shows an example in which the receiving terminal creates designated area information and transfers it to the transmitting terminal. First, a designated area [(x0, y0), (x1, y1)] to be encoded by the receiving terminal is set, and specific image data or still image data is written in the designated area. Next, in the designated area to be encoded, a designated area [(x2, y2), (x3, y3)] for inserting a moving image is set. Then, the designated area information of the designated areas [(x0, y0), (x1, y1)], [(x2, y2), (x3, y3)] is transmitted to the transmitting terminal side.
[0090]
The transmitting terminal receives the specified area information sent from the receiving terminal and writes it in the memory. Based on the specified area information, the transmitting terminal sets a specified area [(x0, y0), (x1, y1)] to be encoded, and writes specific image data or still image data in the specified area. Then, a designated area [(x2, y2), (x3, y3)] for fitting a moving picture is set within the designated area to be encoded, and the moving picture data input from the camera is fitted into the designated area. The transmitting terminal encodes the image data of the designated area [(x0, y0), (x1, y1)] generated in this way, and transmits only the encoded image data to the receiving terminal.
[0091]
The receiving terminal receives the encoded image data, decodes it, writes it in the memory, and recognizes the designated area of the moving image from the designated area information created by itself. When it is desired to display only the moving image area on the monitor, moving image data is extracted from the designated area [(x2, y2), (x3, y3)] and displayed on the monitor. Of course, the designated area on the monitor when displayed on the monitor can be freely set on the receiving terminal side.
[0092]
It should be noted that the moving image designation area as described above is managed by being written in the area designation management table 15 in the system control unit 14 shown in FIG.
[0093]
As described above, in the image communication system using the videophone of this embodiment, even if the image format at the time of encoding is fixed, the moving image is encoded with an arbitrary size smaller than the image size. It can be transmitted, and similarly received and displayed on a monitor.
[0094]
In the present embodiment, the description has been given by taking as an example a TV phone capable of processing audio information and image information as shown in FIG. 1, but the present invention is not limited to such a TV phone. Any device, method, and system for communicating moving images may be used.
[0095]
The present invention may be applied to a system composed of a plurality of devices or an apparatus composed of a single device. Needless to say, the present invention can also be applied to a case where the present invention is achieved by supplying a program to a system or apparatus.
[0096]
【The invention's effect】
As described above, according to the present invention, even if the image format at the time of encoding is fixed, a moving image is inserted in units of the smallest image block in a size smaller than the image size, and in other regions A moving image and a still image can be combined and encoded as if a still image is embedded. Furthermore, by transmitting the encoded data and extracting only the moving image area on the receiving side and displaying it on the monitor, the moving image can be encoded and transmitted in an arbitrary size. Therefore, it is possible to change the image size according to the application and situation, and to execute the optimum encoding process, and to obtain a specific effect that the image communication can be performed with the optimum image quality.
[0097]
Further, since the difference value data of the still image will eventually be converged, the encoding target is concentrated in the moving image area, and the effect that the transfer efficiency of the moving image is improved is also obtained.
[0098]
In addition, by including a moving image area in the still image area, it is possible to transmit an image displayed by inserting a moving image in the still image, and the convenience for the operator is greatly improved.
[0099]
In addition, when displaying a moving image transmitted from the transmission side in a still image generated on the reception side, the position where the moving image is inserted is specified from the reception side, and the transmission side inserts the moving image at the specified position. Thus, there is no need to perform the fitting process and the moving image scaling process on the receiving side, so that the image communication system can be economically constructed and the image quality can be obtained in a good state.
[0100]
[Brief description of the drawings]
FIG. 1 is a block diagram of a videophone according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating a detailed configuration of a transmission image editing unit in the present embodiment.
FIG. 3 is a block diagram showing a detailed configuration of a received image editing unit in the present embodiment.
FIG. 4 is a diagram for explaining a process for fitting data into a transmission image and a process for superimposing a reception image in the present embodiment.
FIG. 5 is a diagram for explaining a region designation method in the present embodiment.
FIG. 6 is a block diagram illustrating a detailed configuration of an image codec unit in the present embodiment.
FIG. 7 is a diagram illustrating an image format in the present embodiment.
FIG. 8 is a diagram showing a multiplexed frame configuration of image data in the present embodiment.
FIG. 9 is a diagram showing error correction frame synchronization in the present embodiment.
FIG. 10 is a diagram illustrating an example of a communication method in the present embodiment.
[Explanation of symbols]
1 microphone
2 Speaker
3 Voice processing part
4 Audio codec section
5 Camera
6 Monitor
7 Image processing section
8 Transmission image editor
9 Received image editing section
10 Specific image generator
11 Image codec section
12 Demultiplexer
13 Line interface section
14 System controller
15 Area specification management table
16 Specific image management table
17 Operation unit

Claims (13)

1画面中の画像が送信される第1の所要領域と、動画像領域として前記第1の所要領域中の所望の第2の所要領域とを指定する領域指定手段と、
前記領域指定手段による指定に基づいて前記第2の所要領域の動画像と、前記第2の所要領域を除く前記第1の所要領域の静止画像とを組み合わせる組み合せ手段と、
前記組み合せ手段により組み合わされた画像データを符号化する符号化手段と、
前記符号化手段によって符号化された画像データと、前記領域指定手段によって指定された前記第1の所要領域の領域位置情報および前記第1の所要領域内の動画像の領域の位置を示す前記第2の所要領域の領域位置情報を他の画像通信装置に送信する送信手段とを有することを特徴とする画像通信装置。
Area designating means for designating a first required area in which an image in one screen is transmitted and a desired second required area in the first required area as a moving image area;
Combination means for combining the moving image of the second required area and the still image of the first required area excluding the second required area based on the designation by the area designating means;
Encoding means for encoding the image data combined by the combination means;
And image data encoded by said encoding means, the first indicating the position of the region of the moving image of the area specifying unit required region area position information and the first of the designated first prescribed region by image communication apparatus characterized by a transmission means for transmitting the area position information of the two prescribed region to another image communication apparatus.
符号化された画像データと、前記第1の所要領域の領域位置情報および前記第2の所要領域の領域位置情報を受信する受信手段と、
前記受信手段により受信した画像データを復号する復号手段と、
前記第1の所要領域の領域位置情報および前記第2の所要領域の領域位置情報に基づいて、前記第2の所要領域の動画像を表示処理するために、前記復号手段により復号された画像データから動画像を抽出する抽出手段とを更に有することを特徴とする請求項1記載の画像通信装置。
And coded image data receiving means for receiving the area location information of the first predetermined region of the area position information and the second predetermined area,
Decoding means for decoding the image data received by the receiving means;
Based on said first area location information prescribed region and the region position information of the second predetermined area, for displaying process a moving image of the second predetermined area, the decoded image data by said decoding means 2. The image communication apparatus according to claim 1, further comprising extraction means for extracting a moving image from the image.
前記符号化手段は画像データをブロック単位で符号化し、前記領域指定手段は前記ブロック単位で領域を指定することを特徴とする請求項1記載の画像通信装置。  2. The image communication apparatus according to claim 1, wherein the encoding unit encodes image data in units of blocks, and the region specifying unit specifies regions in units of the blocks. 前記組み合せ手段は前記領域指定手段により少なくとも2領域が指定された場合に、それぞれ異なる動画像を組み合わせることを特徴とする請求項1記載の画像通信装置。  2. The image communication apparatus according to claim 1, wherein the combination means combines different moving images when at least two areas are designated by the area designation means. 前記静止画像は前記動画像の一部であることを特徴とする請求項1記載の画像通信装置。  The image communication apparatus according to claim 1, wherein the still image is a part of the moving image. 前記符号化手段はフレーム間差分による符号化を行うことを特徴とする請求項1記載の画像通信装置。  The image communication apparatus according to claim 1, wherein the encoding unit performs encoding based on an inter-frame difference. 音声処理を行う音声処理部と、
前記音声処理部で処理された音声データを符号化する音声符号化部と、
前記音声符号化部で符号化された音声データを送信する音声送信手段とを更に有することを特徴とする請求項2記載の画像通信装置。
An audio processing unit for performing audio processing;
A voice encoding unit that encodes the voice data processed by the voice processing unit;
The image communication apparatus according to claim 2, further comprising voice transmission means for transmitting voice data encoded by the voice encoding unit.
第1の画像通信装置は、
1画面中の画像が送信される第1の所要領域と、動画像領域として前記第1の所要領域中の所望の第2の所要領域とを指定する領域指定手段と、
前記領域指定手段による指定に基づいて前記第2の所要領域の動画像と、前記第2の所要領域を除く前記第1の所要領域の静止画像とを組み合わせる組み合せ手段と、
前記組み合せ手段により組み合わされた画像データを符号化する符号化手段と、
前記符号化手段によって符号化された画像データと、前記領域指定手段によって指定された前記第1の所要領域の領域位置情報および前記第1の所要領域内の動画像の領域の位置を示す前記第2の所要領域の領域位置情報を他の画像通信装置に送信する送信手段とを有し、
第2の画像通信装置は、
前記符号化された画像データと、前記第1の所要領域の領域位置情報および前記第2の所要領域の領域位置情報を受信する受信手段と、
前記受信手段により受信した画像データを復号する復号手段と、
前記第1の所要領域の領域位置情報および前記第2の所要領域の領域位置情報に基づいて、前記第2の所要領域の動画像を表示処理するために、前記復号手段により復号された画像データから動画像を抽出する抽出手段とを有することを特徴とする画像通信システム。
The first image communication apparatus
Area designating means for designating a first required area in which an image in one screen is transmitted and a desired second required area in the first required area as a moving image area;
Combination means for combining the moving image of the second required area and the still image of the first required area excluding the second required area based on the designation by the area designating means;
Encoding means for encoding the image data combined by the combination means;
And image data encoded by said encoding means, the first indicating the position of the region of the moving image of the area specifying unit required region area position information and the first of the designated first prescribed region by and a region position information of the second predetermined region and a transmission means for transmitting to another image communication apparatus,
The second image communication apparatus
And image data the encoded receiving means for receiving the area location information of the first predetermined region of the area position information and the second predetermined area,
Decoding means for decoding the image data received by the receiving means;
Based on said first area location information prescribed region and the region position information of the second predetermined area, for displaying process a moving image of the second predetermined area, the decoded image data by said decoding means An image communication system comprising: extraction means for extracting a moving image from the image.
前記符号化手段は画像データをブロック単位で符号化し、前記領域指定手段は前記ブロック単位で領域を指定することを特徴とする請求項8記載の画像通信システム。  9. The image communication system according to claim 8, wherein the encoding unit encodes image data in units of blocks, and the region specifying unit specifies regions in units of the blocks. 前記組み合せ手段は前記領域指定手段により少なくとも2領域が指定された場合に、それぞれ異なる動画像を組み合わせることを特徴とする請求項8記載の画像通信システム。  9. The image communication system according to claim 8, wherein the combination means combines different moving images when at least two areas are designated by the area designation means. 前記静止画像は前記動画像の一部であることを特徴とする請求項8記載の画像通信システム。  The image communication system according to claim 8, wherein the still image is a part of the moving image. 前記符号化手段はフレーム間差分による符号化を行うことを特徴とする請求項8記載の画像通信システム。  9. The image communication system according to claim 8, wherein the encoding means performs encoding based on an inter-frame difference. 前記第1の画像通信装置は、
音声データを入力して音声処理をおこなう音声入力部と、
前記音声入力部で入力された音声データを符号化する音声符号化部と、
前記音声符号化部で符号化された音声データを送信する音声送信手段とを更に有し、
前記第2の画像通信装置は、
前記音声符号化部で符号化された音声データを受信する音声受信手段と、
前記音声受信手段で受信した音声データを復号する音声復号部と、
前記音声復号部で復号された音声データを処理して出力する音声出力部とを更に有することを特徴とする請求項8記載の画像通信システム。
The first image communication apparatus includes:
A voice input unit that inputs voice data and performs voice processing;
A voice encoding unit that encodes the voice data input by the voice input unit;
Voice transmission means for transmitting the voice data encoded by the voice encoding unit;
The second image communication apparatus includes:
Voice receiving means for receiving voice data encoded by the voice encoding unit;
A voice decoding unit for decoding voice data received by the voice receiving means;
9. The image communication system according to claim 8, further comprising: an audio output unit that processes and outputs the audio data decoded by the audio decoding unit.
JP17921394A 1994-07-29 1994-07-29 Image communication apparatus and system, image receiving apparatus and received image data processing method Expired - Fee Related JP3927606B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP17921394A JP3927606B2 (en) 1994-07-29 1994-07-29 Image communication apparatus and system, image receiving apparatus and received image data processing method
US08/507,983 US6313863B1 (en) 1994-07-29 1995-07-27 Image communication apparatus and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP17921394A JP3927606B2 (en) 1994-07-29 1994-07-29 Image communication apparatus and system, image receiving apparatus and received image data processing method

Publications (2)

Publication Number Publication Date
JPH0846973A JPH0846973A (en) 1996-02-16
JP3927606B2 true JP3927606B2 (en) 2007-06-13

Family

ID=16061917

Family Applications (1)

Application Number Title Priority Date Filing Date
JP17921394A Expired - Fee Related JP3927606B2 (en) 1994-07-29 1994-07-29 Image communication apparatus and system, image receiving apparatus and received image data processing method

Country Status (1)

Country Link
JP (1) JP3927606B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3584787B2 (en) * 1999-07-01 2004-11-04 松下電器産業株式会社 Multimedia data playback / transmission device
EP2131583A1 (en) * 2007-03-29 2009-12-09 Sharp Kabushiki Kaisha Video transmitter, video receiver, video recorder, video reproducer, and video display
KR101433157B1 (en) * 2007-10-26 2014-08-22 삼성전자주식회사 Mobile terminal and method for transmitting image thereof
KR20110036479A (en) 2009-10-01 2011-04-07 삼성전자주식회사 Device and method for handling harq feedback in wireless communication system

Also Published As

Publication number Publication date
JPH0846973A (en) 1996-02-16

Similar Documents

Publication Publication Date Title
US6313863B1 (en) Image communication apparatus and system
JPH11234654A (en) Multi-image composition method and multi-image composition system
JPH07162830A (en) Control method for video conference communication equipment
EP0805600A2 (en) Compressed video text overlay
WO2005079068A1 (en) Arrangement and method for generating continuous presence images
US5953505A (en) Communication apparatus and method for reading out stored function information in response to identifying information
US5691767A (en) Video conferencing system with high resolution still image capability
JPH11234644A (en) Multi-point conference system
US5903734A (en) Multimedia information communication apparatus which stores received information in an encoded state
US5675393A (en) Image processing apparatus with generating unit for generating image data and decoding unit for decoding image data
US6560280B1 (en) Video transmission system
JP3927606B2 (en) Image communication apparatus and system, image receiving apparatus and received image data processing method
JPH06125539A (en) Image encoder
JPH07203434A (en) Image transmitter
JPH11234639A (en) Video telephone set
JPH07162831A (en) Control method for video conference communication equipment
JPH09205628A (en) Image information transmitter
JPH10285588A (en) Image communication terminal equipment and image communication method
JPH0846928A (en) Picture encoding pre-processor
JPH0846792A (en) Image communication equipment and its system
JPH11239331A (en) Multi-point communications system
JP3521986B2 (en) Video encoding device
JP3437191B2 (en) Terminal device and control method of terminal device
JPH0723377A (en) Picture transmitter
JPH1028260A (en) Method for transmitting video data and multipoint video conference device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040730

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040928

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050318

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050518

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20050524

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20050812

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070305

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100309

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110309

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120309

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130309

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140309

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees