JP3625070B2 - Data transmission device - Google Patents

Data transmission device Download PDF

Info

Publication number
JP3625070B2
JP3625070B2 JP08789393A JP8789393A JP3625070B2 JP 3625070 B2 JP3625070 B2 JP 3625070B2 JP 08789393 A JP08789393 A JP 08789393A JP 8789393 A JP8789393 A JP 8789393A JP 3625070 B2 JP3625070 B2 JP 3625070B2
Authority
JP
Japan
Prior art keywords
data
input
image
serial data
circuit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP08789393A
Other languages
Japanese (ja)
Other versions
JPH06276336A (en
Inventor
泰 野口
泰司 荻野
邦昭 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP08789393A priority Critical patent/JP3625070B2/en
Publication of JPH06276336A publication Critical patent/JPH06276336A/en
Application granted granted Critical
Publication of JP3625070B2 publication Critical patent/JP3625070B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【目次】
以下の順序で本発明を説明する。
産業上の利用分野
従来の技術
発明が解決しようとする課題
課題を解決するための手段(図2、図34、図36、図37、図43、図44、図47及び図48)
作用(図2、図34、図36、図37、図43、図44、図47及び図48)
実施例
(1)全体構成(図1)
(1−1)プロセツサ(図2)
(1−2)バスコントローラ(図7〜図9)
(1−3)テレライテイングの制御(図2、図5、図6、図10〜図15)
(1−4)画像データの処理(図16〜図30)
(1−5)データ伝送(図31〜図52)
(2)実施例の効果
(3)他の実施例
発明の効果
【0002】
【産業上の利用分野】
本発明はデータ伝送装置に関し、例えば画像データをデータ圧縮して音声データ等共に伝送するテレビ会議装置に適用し得る。
【0003】
【従来の技術】
従来、テレビ会議装置においては、所望の伝送対象との間でオーデイオデータ、画像データ等を送受することにより、遠隔地の通話対象との間でコミユニケーシヨンを図り得るようになされている(特開昭62−245889 号公報)。
【0004】
すなわちこの種のテレビ会議装置は、所定の撮像装置を介して会議に出席する人物の撮像画像を得、この撮像画像を取り込んでデータ圧縮した後、通話対象に送出する。
さらにテレビ会議装置は、この出席者の音声信号を併せて通話対象に送出すると共に、通話対象から到来する画像データをデータ伸長して所定の表示装置に表示する。
【0005】
さらにテレビ会議装置は、ユーザの操作に応動してタブレツト等を介して入力される線画データを通話対象に送出し、またこれに代えてイメージスキヤナ等を介して入力した静止画を通話対象に送出する。
このため従来のテレビ会議装置は、専用のテレビ会議室等に設置して大容量のデータを送受し得るように通話対象との間で例えば光フアイバ等の回線を接続して使用するようになされていた。
【0006】
【発明が解決しようとする課題】
ところでこの種のテレビ会議装置を必要に応じて運搬してテレビ会議室以外の場所で自由に使用することができれば、この種のテレビ会議装置の使い勝手を向上し得、便利であると考えられる。またこの種のテレビ会議装置の適用分野も拡大することができる。
【0007】
このためにはこの種のテレビ会議装置を専用の光フアイバ回線だけでなく、例えば一般に普及したサービス統合デイジタル通信網(ISDN:integrated service digital network)にも接続し得るようにする必要がある。さらに単にこの種の回線に接続し得るだけでなく、全体構成も簡略化する必要がある。
さらに装置自体の操作も簡略化し、専用のオペレータだけでなく、操作に不慣れなユーザでも、簡易に操作し得るようにする必要がある。
【0008】
本発明は以上の点を考慮してなされたもので、ISDN回線の複数チヤンネルを適宜利用して動画や音声等のデータ転送を行う際、複数チャンネル間の時間ずれを補正して確実にデータを伝送できる、テレビ会議装置等のデータ転送装置を提案しようとするものである。
【0009】
【課題を解決するための手段】
かかる課題を解決するため本発明においては、所定の入力チヤンネルを介して入力される入力シリアルデータをデータ処理するデータ伝送装置1において、入力シリアルデータDMUは、フレーム単位で、所定の識別ビツト割り当て期間の間、所定ビツト周期で、所定値の識別ビツトが順次割り当てられ、識別ビツト割り当て期間の識別ビツトで所定のビツトパターン(FAW)を形成し、データ伝送装置1は、ビツト周期のビツトを単位にして、入力シリアルデータDMUを取り込んでビツトパターン(FAW)を検出し、ビツトパターンが複数フレームで検出されると、検出信号DFAWを出力するビツトパターン検出手段83と、検出信号DFAWを基準にして、入力シリアルデータDMUのアドレスデータBWNを生成するアドレスデータ生成手段84と、アドレスデータBWNを基準にして入力シリアルデータDMUを順次入力して処理するデータ処理手段86、87とを備え、ビツトパターン検出手段83は、識別ビツトが割り当てられるビツト周期で、入力シリアルデータDMUを取り込む複数系統のデータ入力手段96A〜96Fと、複数系統のデータ入力手段96A〜96Fに対応した複数系統の識別データ検出手段97とを有し、複数系統のデータ入力手段96A〜96Fは、それぞれ異なるタイミングで順次入力される入力シリアルデータDMUを取り込んで識別ビツト割り当て期間に相当する期間の間保持し、複数系統の識別データ検出手段97は、対応するデータ入力手段96A〜96Fに保持された入力シリアルデータDMUがビツトパターン(FAW)に一致するか否か判断する。
【0012】
さらに第2の発明においては、複数の入力チヤンネルを介して入力される入力シリアルデータDMUをデータ処理するデータ伝送装置1において、入力シリアルデータDMUは、フレーム単位で、所定の識別ビツト割り当て期間の間、所定ビツト毎に、所定値の識別ビツトが順次割り当てられ、識別ビツト割り当て期間の識別ビツトで所定のビツトパターン(FAW)を形成し、データ伝送装置1は、入力シリアルデータDMUの伝送速度を変換して所定ビツト単位で選択的に出力することにより、複数チヤンネルの入力シリアルデータがビツト単位で連続する変換シリアルデータDTを生成するシリアルデータ生成手段82と、ビツト単位で、入力チヤンネル毎に変換シリアルデータDTを取り込んでビツトパターン(FAW)を検出し、ビツトパターンが複数フレームで検出されると、検出信号を出力するビツトパターン検出手段83と、検出信号を基準にして、入力シリアルデータDMUのアドレスデータBWNを生成するアドレスデータ生成手段84と、アドレスデータBWNを基準にして変換シリアルデータDTのデータ配列を変換して入力チヤンネル間の位相ずれを補正する位相補正手段86とを備え、アドレスデータ生成手段84は、複数の入力チヤンネルに対応する複数のカウンタ回路106、110、111を有し、カウンタ回路106、110、111は、検出信号を基準にして、入力シリアルデータDMUに同期したクロツクCK80をカウントしてアドレスデータBWNを生成する自走式のカウンタ回路でなり、ビツトパターン検出手段83は、変換シリアルデータDTを取り込むチヤンネルを順次切り換えて、入力チヤンネル毎に、順次検出結果を出力し、アドレスデータ生成手段84は、ビツトパターン検出手段83の検出結果を、複数のカウンタ回路106、110、111に順次入力して、各入力チヤンネルの入力シリアルデータDMUに対応するカウンタ回路106、110、111のカウント動作を同期させる。
【0013】
さらに第3の発明において、アドレスデータ生成手段84は、カウント動作の同期はずれを検出する同期はずれ検出回路113を有し、カウント動作の同期がはずれと、該同期のはずれたカウンタ回路106、110、111にビツトパターン検出手段83の検出結果を入力してカウント動作を同期させる。
【0014】
さらに第4の発明において、複数の入力チヤンネルを介して入力される入力シリアルデータDMUをデータ処理するデータ伝送装置1において、入力シリアルデータDMUは、フレーム単位で、所定の識別データ割り当て期間の間、所定ビツト毎に、所定値の識別ビツトが順次割り当てられ、識別データ割り当て期間の識別ビツトで所定のビツトパターン(FAW)を形成し、データ伝送装置1は、入力シリアルデータDMUの伝送速度を変換して所定ビツト単位で選択的に出力することにより、複数チヤンネルの入力シリアルデータDMUがビツト単位で連続する変換シリアルデータDTを生成するシリアルデータ生成手段82と、ビツト単位で、入力チヤンネル毎に変換シリアルデータDTを取り込んでビツトパターン(FAW)を検出し、ビツトパターン(FAW)が複数フレームで検出されると、検出信号を出力するビツトパターン検出手段83と、検出信号を基準にして、入力シリアルデータDMUのアドレスデータBWNを生成するアドレスデータ生成手段84と、アドレスデータBWNを基準にして変換シリアルデータDTのデータ配列を変換して入力チヤンネル間の位相ずれを補正する位相補正手段86とを備え、位相補正手段86は、アドレスデータBWNを基準にして変換シリアルデータDTを順次格納すると共に基準アドレスデータを基準にして格納した変換シリアルデータDTを所定順序で出力するメモリ回路86と、アドレスデータBWNを基準にして基準アドレスデータを生成する基準アドレス生成手段46、117、118とを有し、基準アドレス生成手段46、117、118は、複数の入力チヤンネルに対応する複数のアドレスデータBWNの中から2つのアドレスデータBWNを順次取り込んで比較結果を得ることにより、複数の入力シリアルデータDMUの中から最も位相の遅れた入力シリアルデータDMUを検出し、該検出した入力シリアルデータDMUのアドレスデータBWNを基準にして基準アドレスデータを生成する。
【0015】
さらに第5の発明において、入力シリアルデータDMUは、ビツトパターン(FAW)に加えて各入力シリアルデータDMUのチヤンネルを表すチヤンネルデータ(L1、L2、L3)が割り当てられ、位相補正手段86は、チヤンネルデータ(L1、L2、L3)に基づいて、格納した変換シリアルデータDTの配列をチヤンネルが連続するように変換して出力する。
【0016】
さらに第6の発明において、シリアルデータ生成手段82は、所定のタイムスロツトに各入力チヤンネルの入力シリアルデータDMUを割り当てて変換シリアルデータDTを生成し、入力チヤンネルのチヤンネル数及び又は入力シリアルデータの伝送速度が切り換わると、入力シリアルデータDMUが占有するタイムスロツトを切り換え、入力チヤンネルのチヤンネル数及び又は入力シリアルデータDMUの伝送速度が切り換わつても、変換シリアルデータDTの伝送速度を一定値に保持する。
【0018】
【作用】
入力シリアルデータDMUを複数系統のデータ入力手段96A〜96Fで取り込んで識別ビツト割り当て期間に相当する期間の間保持し、対応する識別データ検出手段97でそれぞれビツトパターンを検出すれば、何れのビツト列にビツトパターン(FAW)が存在する場合でも、短い時間で、簡易かつ確実にビツトパターン(FAW)を検出することができる。
【0020】
複数の入力チヤンネルに対応する複数の自走式のカウンタ回路106、110、111で、アドレスデータBWNを生成し、ビツトパターン検出手段83の検出対象でなる入力チヤンネルを順次切り換えて各カウンタ回路106、110、111を順次同期させれば、1系統のビツトパターン検出手段83を切り換えて使用し得、その分全体構成を簡略化することができる。
【0021】
このときカウント動作の同期がはずれと、該同期のはずれたカウンタ回路106、110、111にビツトパターン検出手段83の検出結果を入力してカウント動作を同期させることにより、確実にカウント動作を同期させることができる。
【0022】
アドレスデータBWNを基準にして変換シリアルデータDTを順次格納した後、所定の基準アドレスデータBWNを基準にして格納した変換シリアルデータDTを所定順序で出力してチヤンネル間の位相ずれを補正し、複数の入力チヤンネルに対応する複数のアドレスデータBWNの中から2つのアドレスデータBWNを順次取り込んで比較結果を得、複数の入力シリアルデータDMUの中から最も位相の遅れた入力シリアルデータDMUを検出し、該検出した入力シリアルデータDMUのアドレスデータBWNを基準にして基準アドレスデータを生成することにより、簡易に基準アドレスデータを設定することができる。
【0023】
チヤンネルデータ(L1、L2、L3)に基づいて、変換シリアルデータDTの配列をチヤンネルが連続するように変換して、併せてチヤンネルの配列も補正することができる。
【0025】
【実施例】
以下図面について、本発明の一実施例を詳述する。
【0026】
(1)全体構成
図1において、1は全体としてテレビ会議装置を示し、所定の収納台2にプロセツサ3を収納すると共に、この収納台2の上部にモニタ装置4を配置し、このモニタ装置4の上部に撮像部5を配置する。
これによりテレビ会議装置1は、モニタ装置4の前に並ぶ会議の出席者を撮像部5で撮像し、その撮像結果でなるビデオ信号をプロセツサ3で処理して動画の形式で通話対象に送出し、また通話対象から伝送された動画の画像データをプロセツサ3で受信処理してモニタ装置4に表示する。
【0027】
さらにテレビ会議装置1は、プロセツサ3にプリンタを接続して通話対象から伝送された画像等を出力し得るようになされ、さらにイメージスキヤナ及び書画撮像装置をプロセツサ3に接続してこれらの機器を介して入力した2値画像(以下ドキユメント画像と呼ぶ)及びカラー静止画像(以下自然画と呼ぶ)を通話対象に送出し得るようになされている。
さらにテレビ会議装置1は、画像データの場合と同様に、プロセツサ3を介して音声信号を変復調して通話対象との間で送受し、この音声信号を直接外部機器との間で入出力すると共に、この音声信号を撮像部5とリモートコマンダ6との間で送受する。
【0028】
この撮像部5とリモートコマンダ6間で送受される音声信号は、赤外線L1を介して送受され、これによりテレビ会議装置1は、このリモートコマンダ6にマイク8を接続して会議の出席者の音声を集音し得るようになされ、またリモートコマンダ6に設けられたスピーカを介して通話対象の音声をモニタし得るようになされている。
さらにテレビ会議装置1は、撮像部5及びリモートコマンダ6間で、この音声信号に加えてプロセツサ3及び撮像部5の遠隔制御信号を送受し、これによりリモートコマンダ6を操作してモニタ装置4の表示画面下部に表示されたメニユーを選択することにより、全体の動作モード、撮像部5の倍率等を切り換え得るようになされている。
これによりテレビ会議装置1は、簡易な操作で動作モード等を切り換え得るようになされ、全体の使い勝手を向上し得るようになされている。
【0029】
さらにこの実施例において、リモートコマンダ6は、タブレツトを接続し得るようなされ、このタブレツトを介して入力される2次元座標データを撮像部5に送出し、撮像部5は、この座標データをプロセツサ3に出力する。これによりテレビ会議装置1は、タブレツトを操作して入力した線画データを通話対象に送出すると共に、必要に応じてモニタし得るようになされている。
【0030】
(1−1)プロセツサ
図2に示すようにプロセツサ3は、撮像部5を介して入力されるビデオ信号SVを画像入出力部10に入力し、ここでビデオ信号SVをデイジタル信号に変換してデイジタルビデオ信号を生成し、このデイジタルビデオ信号をエンコーダ/デコーダ部11でデータ圧縮する。
この処理においてエンコーダ/デコーダ部11は、CCITT(comite consultaif international telegraphique et telephoniqe)、H.261に規定されたフオーマツトに従つてこのデイジタルビデオ信号をデータ圧縮し、その結果得られる画像データD1を主処理部12に出力する。
これによりテレビ会議装置1は、撮像部5の撮像結果を動画の形式で効率良く伝送し得るようになされている。
【0031】
これに対して通話対象から回線Lを介して伝送された画像データのうち、CCITT、H.261に規定されたフオーマツトに従つてデータ圧縮された動画の画像データD1は、主処理部12からエンコーダ/デコーダ部11に入力され、ここでデータ伸長処理された後、画像入出力部10でビデオ信号SVOに変換され、モニタ装置4に出力される。
【0032】
これに対して書画撮像装置13で書画を撮像してその撮像画像を伝送する場合、プロセツサ3は、書画撮像装置13から出力されるビデオ信号を画像入出力部10でデイジタルビデオ信号に変換した後、画像データ処理部14でデータ圧縮して主処理部12から通話対象に送出する。
これによりテレビ会議装置1は、書画撮像装置13を介して自然画を入力し、必要に応じて通話対象に伝送し得るようになされている。
【0033】
このとき画像データ処理部14は、静止画について規定された所定フオーマツトのデータ圧縮の手法(JPEG:joint photgraphic experts group )を適用して取り込んだ自然画をデータ圧縮し、その結果得られる画像データD2を主処理部12を介して通話対象に送出する。
【0034】
これに対してプロセツサ3は、イメージスキヤナ15を介して入力したドキユメント画像を通話対象に伝送する場合、画像データ処理部14にこのドキユメント画像の画像データを入力し、ここでフアクシミリについて規定された処理手順に従つてデータ圧縮する。
さらにテレビ会議装置1は、このデータ圧縮した画像データD2を主処理部12を介して通話対象に送出し、これによりテレビ会議装置1は、ドキユメント画像についても、効率良く伝送し得るようになされている。
【0035】
これに対して画像データ処理部14は、通話対象から自然画及びドキユメント画像の画像データが伝送された場合、この画像データD2を主処理部12を介して受け、データ伸長して元の画像を再現した後、ユーザの操作に応動してプリンタ16に出力し、またデイジタルビデオ信号に変換して画像入出力部10に出力し、ここでビデオ信号に変換してモニタ装置4に出力する。
これによりテレビ会議装置1は、通話対象の動画に代えて又はこの動画に加えて、通話対象から静止画の形式で伝送された自然画、ドキユメント画像をモニタ装置4でモニタし得るようになされ、また必要に応じてプリンタ16に出力し得るようになされている。
【0036】
さらに自然画及びドキユメント画像を取り込んでデータ圧縮した後、通話対象に送出する一連の処理において、画像データ処理部14は、この自然画及びドキユメント画像を画像入出力部10を介してモニタ装置4に出力し得るようになされ、これによりテレビ会議装置1は、必要に応じて取り込んだ自然画、ドキユメント画像をモニタし得るようになされている。
さらに通話対象との間で送受する自然画及びドキユメント画像をモニタ装置4でモニタする際、画像データ処理部14は、タブレツト17を介して入力された線画の画像を自然画及びドキユメント画像に重ねて表示し得るようになされ、これによりドキユメント画像及び自然画の表示画面上でドローイング等の処理を実行し得るようになされている。
【0037】
すなわち主処理部12は、リモートコマンダ6にタブレツト17を接続し、これにより送受信部19を介して座標データを取り込み得るようになされている。
さらに主処理部12は、この座標データを線画データDWの形式で通話対象に送出する。
さらに主処理部12はこの線画データDWに基づいてタブレツト17上でユーザが入力した線画の画像を再現した後、この画像データをデイジタルビデオ信号の形式で画像データ処理部14から画像入出力部10に出力し、ここで自然画、ドキユメント画像上にスーパーインポーズしてモニタ装置4に表示する。
【0038】
これによりテレビ会議装置1は、通話対象と同一のドキユメント画像又は自然画をモニタしながら、このドキユメント画像又は自然画上で相互に線画等を入力してコミユニケーシヨンし得るようになされている(すなわちテレライテイングでなる)
【0039】
さらにプロセツサ3は、外部機器との間で直接入出力する音声信号、送受信部19との間で入出力する音声信号をオーデイオ処理部18で処理する。
すなわちテレビ会議装置1は、撮像部5に内蔵した送受信部19でリモートコマンダ6から送出された赤外線L1を受光し、ここで音声信号及び制御コマンドを復調する。
オーデイオ処理部18は、この送受信部19で受信した音声信号SA及び外部機器から直接入力される音声信号をデイジタル信号の形式で入力し、CCITT、G.711及びG.722に規定されたフオーマツトに従つてデータ圧縮した後、主処理部12に出力する。
【0040】
さらにオーデイオ処理部18は、主処理部12を介して通話対象側から伝送されるオーデイオデータを入力し、ここでデータ伸長して送受信部19に出力すると共に直接外部機器に出力する。
これによりテレビ会議装置1においては、プロセツサ3との間でいちいちケーブルを接続しなくても、簡易にマイク8をリモートコマンダ6に接続して通話対象と通話し得るようになされている。
【0041】
主処理部12は、このようにして入力される画像データ、オーデイオデータをCCITT、H.221に規定されたフオーマツトに従つて通話対象に送出し、また通話対象からこのフオーマツトに従つて伝送されるデータを画像データ、オーデイオデータ等に分離して各回路ブロツクに出力する。
すなわちこの実施例において、プロセツサ3は、背面に光フアイバ接続用のコネクタと、サービス統合デイジタル通信網の接続用コネクタとを配置し、これにより光フアイバを介して384 〔kbps〕の回線(すなわちHチヤンネルでなる)を最大2回線接続して、また1536〔kbps〕、1920〔kbps〕の回線(すなわちH11チヤンネル及びH12チヤンネルでなる)を接続して通話対象と通話し得るようになされ、また必要に応じてサービス統合デイジタル通信網の1つでなるINSネツト64(information network system net 64 )の64〔kbps〕の回線を2回線から最大6回線の範囲で同時に接続して通話し得るようになされている。
【0042】
主処理部12は、この回線Lを介して通話対象との間でデータを入出力すると共に、送受信部19から入力する制御コマンド、通話対象から伝送される制御コマンドDCに応動してバスBUSに制御コマンドを出力し、これにより必要に応じて各回路ブロツクの動作を切り換え得るようになされている。
すなわちエンコーダ/デコーダ部11、画像データ処理部14、オーデイオ処理部18は、主処理部12からバスBUSを介して出力される制御コマンドに応動して動作を切り換え、これによりテレビ会議装置1は、必要に応じてモニタ装置4の表示画像を切り換え、さらに通話対象に送出するデータの種類等を切り換え得るようになされている。
【0043】
この制御コマンドの伝送に対して、プロセツサ3は、主処理部12とエンコーダ/デコーダ部11、画像データ処理部14、オーデイオ処理部18との間で入出力する画像データ、オーデイオデータを専用の接続ラインを介して入出力するようになされ、これにより一連のデータ圧縮等を高速度で処理し得るようになされている。
【0044】
(1−1−1)画像入出力部
図3に示すように、画像入出力部10は、NTSC方式のビデオ信号SVIを撮像部5及び書画撮像装置13からデコーダ20に入力し、ここで輝度信号及び色差信号に変換する。
アナログデイジタル変換回路(A/D)21は、この輝度信号及び色差信号をデイジタル信号に変換した後、マトリツクス回路22を介してエンコーダ/デコーダ部11又は画像データ処理部14に出力する。
これにより画像入出力部10は、必要に応じて撮像部5から動画の画像データを取り込み得るようになされ、また書画撮像装置13から自然画の画像データを取り込み得るようになされている。
【0045】
さらに画像入出力部10は、通話対象から伝送された動画の画像データD及びモニタ装置4に表示するメニユーの画像データDMEをエンコーダ/デコーダ部11からマトリツクス回路22に受け、さらに画像データ処理部14から出力される画像データDMAをマトリツクス回路22に受け、このマトリツクス回路22の出力データをデイジタルアナログ変換回路(D/A)23に出力する。
このときマトリツクス回路22は、ユーザの操作に応動して画像データD、DME、DMAを選択出力し、またこれらの画像データD、DME、DMAを選択的に合成して出力する。
【0046】
デイジタルアナログ変換回路23は、この画像データをアナログ信号でなる輝度信号及び色差信号に変換し、この輝度信号及び色差信号をエンコーダ25でNTSC方式のビデオ信号SVOに変換してモニタ装置4に出力する。
これにより画像入出力部10は、マトリツクス回路22で通話対象から伝送された動画の画像データDとメニユーの画像データDMEとを選択した場合、通話対象の出席者等をメニユーと共に表示し得るようになされている。
【0047】
またこれに代えてマトリツクス回路22において、画像データ処理部14から出力される画像データDMAを画像データDMEと共に選択した場合、画像入出力部10は、通話対象から伝送された自然画、ドキユメント画像、さらにはこのテレビ会議装置1で取り込んだ自然画、ドキユメント画像をメニユーと共に表示し得るようになされ、さらにドキユメント画像を必要に応じて線画の画像と共に表示し得るようになされている。
【0048】
さらにユーザが子画面表示のモードを選択した場合、マトリツクス回路22は、子画面に選択した画像データを子画面作成回路(PINP)24を介してデイジタルアナログ変換回路23に出力する。
これによりテレビ会議装置1は、必要に応じて主の表示画面の中に小さな子画面を表示して、例えば動画とドキユメント画像、さらには動画と自然画とを同時にモニタし得るようになされている。
【0049】
また画像入出力部10は、これに代えて電源投入後の立ち上がり時、画像データDMEをマトリツクス回路22で選択し、これにより初期画面を表示して選択可能なメニユーを表示するようになされている。
なおこの実施例において、画像入出力部10は、デコーダ20に入力するビデオ信号を直接モニタ装置4に出力し得るようになされ、これにより撮像部5の撮像結果をもモニタし得るようになされている。
【0050】
(1−1−2)エンコーダ/デコーダ部及びオーデイオ処理部
図4に示すように、オーデイオ処理部18は、送受信部19又は外部機器から入力される音声信号SAをエコーキヤンセラ27でデイジタル信号に変換した後、オーデイオデータ処理回路28でCCITT、G.711及びG.722に規定されたフオーマツトに従つてデータ圧縮して主処理部12に出力する。
さらにオーデイオ処理部18は、主処理部12から出力されるオーデイオデータDAをオーデイオデータ処理回路28に受け、ここで送信時とは逆にデータ伸長して元のオーデイオデータを復元した後、エコーキヤンセラ27を介してアナログ信号に変換して出力する。
【0051】
このときエコーキヤンセラ27は、通話対象に送出するオーデイオデータを所定のデータ蓄積手段に一時格納して遅延させ、通話対象から到来するオーデイオデータとの間で減算処理するようになされ、これにより静止衛星を使用して音声信号を送受する場合に発生するエコーを低減するようになされている。
【0052】
これに対してエンコーダ/デコーダ部11は、撮像部5で撮像した動画の画像データDを画像入出力部10を介して画像変換回路29に受け、ここで画像変換処理する。
この画像変換処理において、画像変換回路29は、NTSCフオーマツトの水平走査線数及びフレーム周波数で、かつ輝度信号及び色差信号の形式で形成されたこの画像データDを、水平走査線数280 本、基本のフレーム周波数が30〔Hz〕の画像データDCIF に変換し、これによりH.261で規定された処理対象の画像データDCIF を生成する。
これに対してエンコーダ/デコーダ30は、この画像データDCIF をH.261で規定されたフオーマツトに従つてデータ圧縮し、その結果得られる画像データを誤り訂正回路31に出力して誤り訂正符号を付加した後、主処理部12に出力する。
【0053】
これによりテレビ会議装置1は、撮像部5を介して入力される動画の画像データについてはCCITT勧告で規定されたH.261フオーマツトに従つてデータ圧縮するようになされている。
さらに誤り訂正回路31は、通話対象から送出された画像データD1を主処理部12から受け、誤り訂正処理してエンコーダ/デコーダ30に出力し、エンコーダ/デコーダ30は、この画像データDCIF をデータ伸長して画像変換回路29に出力する。
【0054】
画像変換回路29は、この画像データDCIF を補間処理することにより、送出時とは逆にこの画像データDCIF の水平走査線数及びフレーム周波数をNTSCフオーマツトの水平走査線数及びフレーム周波数に変換して画像入出力部10に出力する。
これによりテレビ会議装置1は、H.261フオーマツトに従つて伝送された動画の画像データをモニタし得るようになされている。
【0055】
メニユープレーン32は、画像データを格納したメモリ回路で形成され、主処理部12からバスBUSを介して入力される制御コマンドに応動して格納した画像データDMEを選択的に画像入出力部10に出力し、これによりテレビ会議装置1は、必要に応じてモニタ装置4の表示画面に選択可能なメニユーを表示し得るようになされ、このメニユーをリモートコマンダ6で選択し得るようになされている。
【0056】
(1−1−3)画像データ処理部
図5に示すように、画像データ処理部14は、バスコントローラ35を介してバスBUSにローカルバスLBUSを接続し、プロセツサ3は、このバスBUSに主処理部12を接続する。
これに対して画像データ処理部14は、ローカルバスLBUSに静止画処理回路36、2値画像処理回路37、画像インターフエース回路(画像IF回路)38、インターフエース回路(IF)39を接続する。
【0057】
これにより画像データ処理部14は、バスコントローラ35を介して主処理部12からローカルバスLBUSに制御コマンドが入力されると、ローカルバスLBUSをバスBUSから切り離し、これによりそれぞれ静止画処理回路36、2値画像処理回路37、画像インターフエース回路38、インターフエース回路39が独自に演算メモリ40をアクセスして所定のデータ処理を実行し得るようになされている。
【0058】
すなわちインターフエース回路39は、SCSI(small computer system interface )方式のデータ入出力回路でなり、イメージスキヤナ15を介して入力されるドキユメント画像の画像データを順次入力して演算メモリ40に格納し、また演算メモリ40に格納したドキユメント画像等の画像データをプリンタ16に出力する。
【0059】
2値画像処理回路37は、コントローラ41を駆動して演算メモリ40をアクセスすることにより、演算メモリ40に格納したドキユメント画像の画像データをフアクシミリについて規定されたフオーマツトに従つてデータ圧縮し、その結果得られる画像データを画像インターフエース回路38に出力する。
【0060】
またこれとは逆に2値画像処理回路37は、画像インターフエース回路38から出力される通話対象側の画像データを順次取り込んでデータ伸長し、これによりデータ圧縮されて伝送されたドキユメント画像の画像データを復元し、この復元した画像データを演算メモリ40に格納する。
【0061】
これに対して静止画処理回路36は、演算メモリ40に格納した自然画の画像データを上述の自然画について規定されたデータ圧縮の手法を適用してデータ圧縮し、その結果得られる画像データを画像インターフエース回路38に出力する。
またこれとは逆に静止画処理回路36は、画像インターフエース回路38から通話対象の画像データを取り込んでデータ伸長し、これによりデータ圧縮されて伝送された自然画の画像データを復元して演算メモリ40に格納する。
【0062】
これによりテレビ会議装置1は、演算メモリ40を自然画及びドキユメント画像とで切り換えて使用し、自然画及びドキユメント画像をデータ圧縮、データ伸長するようになされている。
【0063】
画像インターフエース回路38は、静止画処理回路36、2値画像処理回路37と主処理部12との間で自然画及びドキユメント画像の画像データD2を入出力し、このとき通信手順のプロトコルに従つて画像データD2を入出力することにより、通話対象から送出された再送要求に応じて画像データD2を再送する。さらに画像インターフエース回路38は、この再送要求の判断に必要なリスタートマーカーコード等をこの画像データD2を付加して主処理部12に出力し、さらに通話対象から到来する画像データD2については、このリスタートマーカーコードを検出して必要に応じて再送要求を出力する。
【0064】
コントローラ41は、静止画処理回路36、2値画像処理回路37の要求に応じて演算メモリ40を制御し、これにより静止画処理回路36、2値画像処理回路37と演算メモリ40との間で所望の画像データを入出力し得るようになされている。
さらにコントローラ41は、主処理部12からバスBUSを介して入力される制御コマンドに応動して動作を切り換え、これにより演算メモリ40の画像データをメモリ回路でなる画像FIFO(first in first out)42を介して画像入出力部10に出力し、演算メモリ40に格納した自然画、ドキユメント画像等をモニタし得るようになされている。
【0065】
このドキユメント画像等を画像入出力部10に出力する際、メモリコントローラ41は、主処理部12から出力される制御コマンドに応動してアドレスデータを切り換えて生成するようになされ、これにより演算メモリ40に格納されたドキユメント画像等を所望の倍率で表示し、さらにスクロール、回転してモニタ装置4に表示し得るようになされている。
これによりテレビ会議装置1は、通話対象から伝送された制御コマンドに応動して、さらにユーザのリモートコマンダ6の操作に応動して、ドキユメント画像等の表示を自由に切り換え得るようになされている。
【0066】
このドキユメント画像等を画像入出力部10に出力する際、画像FIFO42は、マトリツクス回路43を介して画像データを出力し、マトリツクス回路43は、テレライテイングの動作モードでドローイングプレーン44に格納された線画の画像データと、この画像FIFO42から出力される画像データとを加算して出力する。
これによりテレビ会議装置1は、自然画、ドキユメント画像上で線画の画像を併せて表示し得るようになされている。
【0067】
すなわちこのドローイングプレーン44は、タブレツトを介して入力された線画データ及び通話対象から伝送された線画データに基づいて、主処理部12が画像データを書き込むことにより、この線画の画像を格納するようになされている。
これによりテレビ会議装置1は、ドキユメント画像及び自然画上でテレライテイングし得るようになされている。
【0068】
さらにコントローラ41は、画像FIFO42の動作を切り換えることにより、画像入出力部10を介して入力される書画撮像装置13の撮像結果を順次画像FIFO42を介して演算メモリ40に取り込み、これによりこの画像データを静止画処理回路36でデータ圧縮して伝送し得るようになされている。
【0069】
(1−1−4)主処理部
図6に示すように主処理部12は、メモリ回路45に格納した処理手順をシステムコントローラ46で実行してテレビ会議装置1全体の動作を制御する。
すなわちシステムコントローラ46は、インターフエース回路(IF)47を介してリモートコマンダ6の操作を検出することにより、ユーザの選択操作に応動して回線インターフエース回路(回線IF)48を駆動し、これにより所望の通話対象との間で回線を接続する。
【0070】
すなわち回線インターフエース回路48は、プロセツサ3の背面に配置したコネクタと接続され、これにより通話対象との間で所望のデータを送受し得るようになされている。
さらにシステムコントローラ46は、この状態で通話対象との間で所定の通信プロトコルを実行して伝送するデータのフオーマツトを設定すると、続いてエンコーダ/デコーダ部11、画像データ処理部14、オーデイオ処理部18等に制御コマンドを発行して通話を開始する。
【0071】
このときシステムコントローラ46は、多重化回路49を動作状態に立ち上げ、これによりエンコーダ/デコーダ部11、画像データ処理部14、オーデイオ処理部18から出力される画像データD1、D2、オーデイオデータDAを多重化回路49でH.221のフオーマツトに従つて多重化して多重化データDMUを生成し、この多重化データDMUを回線インターフエース回路48を介して通話対象に送出する。
さらに多重化回路49は、これとは逆に通話対象から伝送される多重化データDMUを回線インターフエース回路48を介して入力し、これを画像データD1、D2、オーデイオデータDAに分離して各回路ブロツクに出力する。
【0072】
さらにシステムコントローラ46は、この通話対象との通話中にユーザが動作モードの切り換えを指定すると、また通話対象から到来する多重化データDMUをモニタして通話対象側で動作モードを切り換えると、この切り換えに応動してエンコーダ/デコーダ部11、画像データ処理部14、オーデイオ処理部18の動作を切り換え、これにより動画に代えて自然画等を伝送し得るようになされ、また必要に応じて線画データ等も相互に送受し得るようになされている。
【0073】
このためシステムコントローラ46は、全体の動作を制御すると共に、タブレツト17を操作して入力される2次元の座標データを所定周期で取り込むことにより、この座標データの連続で直線等の線画を表現するようになされ、この線画データDWを画像データ処理部14に出力してモニタ装置4に表示すると共に、多重化回路49に出力する。
これによりテレビ会議装置1は、多重化データDMUの一部にこの線画データDWを割り当てて相互に送受し得るようになされている。
【0074】
なおこの実施例において、主処理部12は、外部バスインターフエース回路(外部バスIF)50を介してRS232Cインターフエースの外部機器を接続することにより、この外部機器を介して全体の動作を制御し得るようになされ、これによりテレビ会議装置1は、必要に応じて別途コントローラを接続して全体の動作を制御し得るようになされている。
【0075】
(1−2)バスコントローラ
ところでこのように1つのシステムコントローラ46で全体の動作を制御する方法として例えば図7に示すように、静止画処理回路36、2値画像処理回路37等でなる処理回路にダイレクトメモリアクセスコントローラ(DMAC)54、55を接続し、システムコントローラでなる中央処理ユニツト(CPU)56とこのダイレクトメモリアクセスコントローラ54、55を接続する方法が考えられる(特開昭62−67653号公報)。
すなわち中央処理ユニツト56は、ダイレクトメモリアクセスコントローラ54、55と共通のバスに接続され、ダイレクトメモリアクセスコントローラ54、55はバス使用要求HOLD1、HOLD2を中央処理ユニツト56に発行してバス占有の許可を求める。
【0076】
ダイレクトメモリアクセスコントローラ54、55は、このバス使用要求HOLD1、HOLD2をレジスタ回路(R)57、58に一旦格納してオア回路59A、59Bを介して出力し、オア回路59A、59Bは、このバス使用要求HOLD1、HOLD2を1つのバス使用要求にまとめて中央処理ユニツト56に出力する。
中央処理ユニツト56は、このバス使用要求HOLD1、HOLD2に応答してバスの占有を認めるとき、所定の遅延回路(すなわちデイジーチエーン回路(D)でなる)D1、D2を介してバス使用許可信号HOLDAをダイレクトメモリアクセスコントローラ54、55に出力する。
【0077】
ところがこの手法を適用しても、結局、システムコントローラ46と、静止画処理回路36等の回路ブロツクとがバスBUSを時分割で交互に占有して動作することになり、その分全体の処理時間が遅延するようになる。
すなわち例えば静止画処理回路36で自然画を処理する間、システムコントローラ46は、バスBUSをアクセスし得なくなり、例えばシステムコントローラ46でタブレツト17から入力された座標データを処理する場合には、その分座標データの処理に時間を要するようになる。
【0078】
この問題を解決する1つの方法として、ローカルバスLBUSに別途専用の中央処理ユニツトを割り当てる方法が考えられるが、この場合中央処理ユニツトが2チツプになり、その分全体構成が煩雑化、大型化する。
【0079】
このためこの実施例においては、図8に示すように、システムコントローラ46と静止画処理回路36、2値画像処理回路37等との間でローカルバスLBUSの占有を切り換えることにより、1つの中央処理ユニツト(すなわちシステムコントローラ46でなる)で全体の動作を制御し得るようにする。
【0080】
すなわち静止画処理回路36、2値画像処理回路37、画像インターフエース回路38、インターフエース回路39は、それぞれダイレクトメモリアクセスコントローラを有し、これによりそれぞれローカルバスLBUSを介して演算メモリ40を直接アクセスし得るようになされている。
これにより静止画処理回路36、2値画像処理回路37、画像インターフエース回路38、インターフエース回路39は、それぞれシステムコントローラ46から制御コマンドが入力されて動作状態に立ち上がると、独自に演算メモリ40をアクセスして制御コマンドに応答したデータ処理を実行し得るようになされている。
【0081】
バスコントローラ35は、静止画処理回路36、2値画像処理回路37、画像インターフエース回路38、インターフエース回路39の何れもがローカルバスLBUSを使用していないとき、システムコントローラ46と静止画処理回路36、2値画像処理回路37、画像インターフエース回路38、インターフエース回路39との何れもがこのローカルバスLBUSを使用し得るように、ローカルバスLBUSとバスBUSを接続状態に保持する。
この状態で静止画処理回路36、2値画像処理回路37、画像インターフエース回路38、インターフエース回路39の何れかをアクセスするアクセス要求ACSがシステムコントローラ46から入力されると、バスコントローラ35は、ホールドアクト信号HOLDACK1〜HOLDACK4を出力し、これによりアクセス要求に対応する静止画処理回路36、2値画像処理回路37、画像インターフエース回路38又はインターフエース回路39以外の回路ブロツクを待機状態に設定する。
【0082】
この状態でアクセス要求ACSで指定される回路ブロツクが続く制御コマンドに応答して動作状態に立ち上がり、この回路ブロツクからローカルバスLBUSの占有要求HOLD1〜HOLD4が出力されると、バスコントローラ35は、バスBUSとローカルバスLBUSの接続を切離し、これにより動作状態に立ち上がつた回路ブロツクにローカルバスLBUSを占有させる。
これによりシステムコントローラ46は、静止画処理回路36にコマンドを発行して自然画の処理を開始すると、又は2値画像処理回路37にコマンドを発行してドキユメント画像の処理を開始すると、さらには画像インターフエース回路38及びインターフエース回路39が画像データの入出力を開始すると、バスBUSとローカルバスLBUSの接続が切り離されることにより、別途これらの処理と並列的に種々の処理を実行することができる。
【0083】
従つてテレビ会議装置1は、1つの中央処理ユニツトで全体の動作を制御して全体構成を簡略化、小型化し得、さらに処理速度の遅延も未然に防止することができる。
またシステムコントローラ46は、静止画処理回路36等の動作に制約を受けることなく自由に種々の処理を実行し得、その分システムコントローラ46のメモリマツプの割り当てを自由に選定し得、設計の自由度を向上することができる。
【0084】
ところで、この種の処理においては、システムコントローラ46で必要に応じて各回路ブロツクの処理状況を監視する必要がある。
ところが動作状態に立ち上がつた回路ブロツクに一連の処理が完了するまでローカルバスLBUSの占有を許していたのでは、処理状況を監視することが困難になる。
ちなみに自然画を処理する場合、約500 〔Kbyte 〕ものデータ転送を必要とし、一連の処理が完了するまでローカルバスLBUSの占有を許していたのでは、その間システムコントローラ46は、静止画処理回路36等をアクセスし得なくなる。
【0085】
このため図9に示すように、各回路ブロツク36〜39は、1〔byte〕単位でローカルバスLBUS(図9(A))を占有してデータ処理するのに対し、バスコントローラ35は、システムコントローラ46からアクセス要求ACSが入力されると(図9(B))、システムコントローラ46にウエイトWAITの信号を送出し(図9(C))、システムコントローラ46を待機状態に保持する。
【0086】
この状態で各回路ブロツク36〜39で1〔byte〕単位のデータ処理が完了すると、各回路ブロツク36〜39は、ホールド信号HOLD1〜4を立ち下げ、バスコントローラ35は、このホールド信号HOLD1〜4が立ち下がると、ウエイトWAITの信号を立ち上げてシステムコントローラ46のアクセスを許可する。
同時に、バスコントローラ35は、ホールドアクト信号HOLDACKを立ち上げて動作中の回路ブロツクを待機状態に設定し(図9(D))、バスBUSとローカルバスLBUSを接続する。
【0087】
これによりシステムコントローラ46は、例えば静止画処理回路36をアクセスしてどの程度までデータ処理が完了したか、また正常に動作しているか否か等を判断し得、アクセスが完了すると、アクセス要求ACSを立ち上げる。
これによりバスコントローラ35は、ホールドアクト信号HOLDACKを立ち下げて動作中の回路ブロツクの待機状態を解除し、この回路ブロツクは、続く処理を再開する。
【0088】
(1−3)テレライテイングの制御
この実施例においてシステムコントローラ46は、ユーザがリモートコマンダ6に接続したマウスを操作して、表示画面上でドローイングのメニユーにカーソルを合わせてクリツクすると、全体の動作モードをドローイングモードに切り換える。
このドローイングモードに切り換わる際、システムコントローラ46は、通話対象と同一のドキユメント画像又は自然画をモニタ装置4で表示している場合、テレライテイングの動作モードに切り換わることになり、続いて通話対象との間で相互に入力される線画データをこのドキユメント画像又は自然画上に表示し、これにより通話対象との間でドキユメント画像又は自然画上で線画を描いて協議し得るようになされている。
【0089】
すなわちシステムコントローラ46は、ユーザの選択操作に応動して通話対象との間でドキユメント画像又は自然画を送受し、共通のドキユメント画像又は自然画を演算メモリ40に格納している場合、予め演算メモリ40に格納した画像データを画像FIFO42に出力し、これによりモニタ装置4にドキユメント画像又は自然画を表示する。
このドキユメント画像又は自然画の表示は、通話対象のユーザの操作に応動して通話対象のテレビ会議装置から送出された制御コマンドに応動して、またリモートコマンダ6の操作に応動して、システムコントローラ46がコントローラ41に制御コマンドを発行することにより実行される。
【0090】
さらにシステムコントローラ46は、ドキユメント画像又は自然画を表示した後、メニユープレーン32に制御コマンドを発行して同時にメニユー画面を表示し、このときドキユメント画像を表示している場合、拡大、縮小、スクロール、回転のメニユーを選択し得るようにする。
これによりシステムコントローラ46は、この拡大、縮小、スクロール、回転のメニユーが通話対象又はこのテレビ会議装置1側で選択されると、コントローラ41に制御コマンドを発行してアドレスデータを切り換えて演算メモリ40をアクセスし、この演算メモリ40の画像データを再び画像FIFO42に転送して選択したメニユーに対応する拡大、縮小、スクロール、回転したドキユメント画像を画像FIFO42に格納する。
これによりテレビ会議装置1は、必要に応じてドキユメント画像の表示を切り換えて使い勝手を向上し得るようになされている。
【0091】
これに対してドローイングモードにおいて、システムコントローラ46は、タブレツト17を介して入力される座標データを所定周期で(例えば1秒間に20サンプリングの周期でなる)取り込むことにより、ユーザがタブレツト17上で描いた直線等の線画を点座標の連続で入力する。
さらにシステムコントローラ46は、この取り込んだ座標データに所定の制御コードを付加して線画データDWに変換し、この線画データDWを多重化回路49に出力する。
これによりシステムコントローラ46は、この線画データDWを通話対象に伝送するようになされている。
【0092】
さらにシステムコントローラ46は、この線画データDWに基づいて、ドローイングプレーン44に画像データを入力し、これによりユーザの入力した線画の画像をモニタ装置4に表示する。
これによりテレビ会議装置1は、予めドキユメント画像又は自然画を表示している場合、このドキユメント画像及び自然画上に線画を表示し得るようになされている。
【0093】
さらにシステムコントローラ46は、通話対象から到来する線画データDWを多重化回路49を介して入力し、タブレツト17を介して入力された線画データDWと同様にこの通話対象から到来する線画データDWに基づいて線画の画像を形成し、これにより同一のドキユメント画像及び自然画上で相互に線画を入力表示し、テレライテイングし得るようになされている。
このときドキユメント画像の表示を拡大、縮小、回転、スクロールし得ることにより、必要に応じてドキユメント画像の表示を切り換えてテレライテイングし得、これによりテレビ会議装置1は、従来に比して一段と使い勝手を向上し得るようになされている。
【0094】
ところでこのようにテレライテイングにおいてドキユメント画像を拡大、回転等し得るようにすると、テレビ会議装置1側のユーザが線画入力している場合に、通話対象側でドキユメント画像の表示を切り換える場合が考えられる。
例えば図10に示すような回路図でなるドキユメント画像を表示している際に、通話対象側でドキユメント画像をスクロールさせた場合、このテレビ会議装置1側ではドキユメント画像上でトランジスタを指示するように矢印を入力したにもかかわらず、図11に示すように、通話対象側においては、この矢印を表す線画データがドキユメント画像をスクロールさせた後に到達する場合もあり、この場合通話対象ではトランジスタではなくコンデンサの出力端を矢印が指定することになる。
【0095】
さらにこの場合、同様の状態がこのテレビ会議装置1側でも発生し、さらに画面のスクロールだけでなくドキユメント画像を拡大、縮小、回転した場合も同様の状態が発生する。
すなわちこのようにテレライテイングにおいてドキユメント画像を拡大、縮小、回転等し得るようにすると、ドキユメント画像とユーザの入力した線画等が一致しなくなる状態が発生する。
これでは操作に不慣れなユーザでは、このテレビ会議装置1を自由に使用し得なくなる。
【0096】
このためこの実施例においてシステムコントローラ46は、図12に示すように、ユーザがドキユメント画像の表示の切り換えを指示すると、即座にドキユメント画像の表示を切り換えることなく、ドキユメント画像の切り換え要求でなるドキユメント制御要求コマンドREQAを通話対象に送出し(図12(A))、このドキユメント制御要求コマンドREQAに応答する応答コマンドACKが通話対象AIから入力されるのを待ち受ける(図12(B))。
【0097】
さらにドキユメント制御要求コマンドREQAから応答コマンドACKが入力されるまでの期間T1の間、通話対象AIから入力される線画データDW等(以下テレライテイング情報と呼ぶ)は、通話対象AI側で元のドキユメント画像上で入力されたテレライテイング情報でなることにより、システムコントローラ46は、この期間T1の間、通話対象AIから到来するテレライテイング情報は有効なものと判断し、このテレライテイング情報に基づいてドローイングプレーン44の画像データを更新し、これにより通話対象AIから送信された線画データを表示切り換え前のドキユメント画像上に表示する。
【0098】
これによりテレビ会議装置1は、ドキユメント画像の表示を切り換える際、通話対象AIから確認が得られるまで元のドキユメント画像を表示し、この間通話対象AIから入力されるテレライテイング情報を元のドキユメント画像上に表示するようになされ、これによりドキユメント画像とユーザの入力した線画等の不一致を有効に回避し得るようになされている。
【0099】
さらにシステムコントローラ46は、この期間T1の間、座標データの入力を中断してテレライテイング情報のタブレツト17からの入力を中止し、応答コマンドACKが通話対象AI側から伝送されると、ドキユメント制御要求コマンドREQAに対応するように、ドキユメント画像の表示を続く期間T3で切り換える。
これによりシステムコントローラ46は、ユーザの操作に応答してドキユメント画像の表示を切り換えた後、テレライテイング情報の入力を再開して通話対象AIに送出する。
【0100】
これによりテレビ会議装置1側においては、ドキユメント画像の表示を切り換えた場合でも、ドキユメント画像とユーザの入力した線画の不一致を有効に回避することができる。
さらにこのドキユメント画像の表示を切り換える期間T3の間、システムコントローラ46は、通話対象AI側から伝送されるテレライテイング情報をバツフアメモリに一時格納して保持し、表示の切り換えが完了すると、一時保持したテレライテイング情報に基づいてドローイングプレーン44の画像データを更新し、これにより通話対象AIから送信された線画データを切り換え後のドキユメント画像上に表示する。
【0101】
すなわち応答コマンドACKが入力された後、続いて通話対象から入力されるテレライテイング情報は、表示を切り換えたドキユメント画像上で入力されたテレライテイング情報と判断することができ、これによりシステムコントローラ46は、表示切り換え後のドキユメント画像上にこの線画の画像を重ねて表示してドキユメント画像とユーザの入力した線画の不一致を有効に回避することができる。
【0102】
これに対して通話対象からドキユメント制御要求コマンドREQが入力された場合(この場合図12においては、テレビ会議装置1が通話対象AI側の場合でなる)、システムコントローラ46は、応答コマンドACKを発行した後、座標データの入力を中断してテレライテイング情報の入力を中止し、続いてドキユメント制御要求コマンドREQAに対応するようにドキユメント画像の表示を切り換え、その後テレライテイング情報の入力を再開して通話対象に送出する。
【0103】
すなわちこのように表示を切り換えると、ユーザが線画を入力している途中に突然ドキユメント画像の表示が切り換わる場合も考えられ、操作に不慣れなユーザにおいては、線画入力を誤る場合も考えられる。
このためこの実施例において、システムコントローラ46は、ドキユメント画像の表示を切り換えた後、所定期間T2の間、線画のデータDWの入力を中止し、これによりユーザが誤操作した場合でも、この誤操作したデータDWの無駄な入力を未然に防止し得るようになされている。
【0104】
このドキユメント制御要求コマンドREQAを入力してドキユメント画像の表示切り換えを完了するまでの期間T2の間、システムコントローラ46は、通話対象側から伝送されるテレライテイング情報をバツフアメモリに一時格納して保持し、ドキユメント画像の表示の切り換えが完了すると、一時保持したテレライテイング情報に基づいてドローイングプレーン44の画像データを更新し、これにより通話対象AIから送信された線画データを表示する。
【0105】
すなわちドキユメント制御要求コマンドREQAが入力された後、続いて入力されるテレライテイング情報は、表示を切り換えたドキユメント画像上で入力されたテレライテイング情報と判断し得、これによりシステムコントローラ46は、ドキユメント制御要求コマンドREQAが入力されると表示を切り換えた後、この表示画像上にテレライテイング情報を表示して、ドキユメント画像とユーザの入力した線画の不一致を有効に回避することができる。
【0106】
これによりテレビ会議装置を自由に運搬して、操作に不慣れなユーザでも自由に使用することができる。
さらにこのドキユメント画像の切り換えの際、テレライテイング情報を一時バツフアメモリに格納することにより、表示切り換えに時間を要する場合でも、通話対象との対話を途切ることなくテレライテイングし得、その分使い勝手を向上することができる。
【0107】
このようにして通話対象との間でテレライテイングする場合、システムコントローラ46は、図13に示す処理手順を実行して全体の動作を制御する。
すなわちシステムコントローラ46は、電源が投入されると、ステツプSP1からステツプSP2に移り、ここで初期画面でなるメインメニユーを表示する。
【0108】
このメインメニユーは、通話対象を選択するために予め登録した通話対象の一覧表を表示するもので、システムコントローラ46は、ユーザが通話対象を選択してマウスをクリツクすると、回線インターフエース回路48を駆動してこの通話対象との間で回線Lを接続し、続いて動作モード選択の為のメニユーを表示する。この状態でユーザ又は通話対象が動作モードを指定すると、システムコントローラ46は、指定された動作モードに全体の動作モードを切り換える。
【0109】
これによりシステムコントローラ46は、ユーザ又は通話対象がドキユメント画像又は自然画の伝送表示を選択した場合、ドキユメント画像又は自然画を演算メモリ40に取り込んだ後、このドキユメント画像又は自然画の画像データを通話対象に伝送し、またこれに代えて通話対象から伝送されたドキユメント画像又は自然画の画像データを演算メモリ40に格納する。
【0110】
さらにシステムコントローラ46は、コントローラ41に制御コマンドを出力し、モニタ装置4にこのドキユメント画像又は自然画を表示した後、ステツプSP3に移り、ユーザがドローイング(図13においてDRAWで表す)の動作モードを選択したか否か判断する。
ここで否定結果が得られると、システムコントローラ46は、ステツプSP3を繰り返し、このとき動画の伝送等の動作モードをユーザが選択すると、全体の動作を対応する動作モードに切り換える。
【0111】
これに対してユーザがドローイングのメニユーを選択した場合、システムコントローラ46は、ステツプSP3において、肯定結果が得られることにより、ステツプSP4に移り、モニタ装置4のメニユー画面をドローイングのメニユー画面に切り換えた後、ステツプSP5に移る。
【0112】
ここでシステムコントローラ46は、ユーザが直線の入力、曲線の入力、線画消去等のメニユーを選択し、これに対応してドローイング描画要求がリモートコマンダ6から入力されたか否か判断し、ここで否定結果が得られると、直接ステツプSP6に移るのに対し、ここで肯定結果が得られると、ステツプSP7に移る。
このステツプSP7においてシステムコントローラ46は、ユーザの選択したメニユーに応じて順次入力される座標データに制御コードを付加してテレライテイング情報DWを生成し、このテレライテイング情報DWを通話対象に送出すると共に、このテレライテイング情報にDWに基づいてドローイングプレーンの画像データを更新する。
【0113】
これによりシステムコントローラ46は、ドローイング描画処理を実行し、この処理の際、通話対象からドキユメント制御要求コマンドREQAが入力されると、図12について上述した通信手順を実行し、これによりドキユメント画像とユーザの入力した線画の不一致を有効に回避する。
続いてユーザが線画の入力を中止すると、システムコントローラ46は、続くステツプSP6に移り、ここで通話対象のユーザが直線の入力、曲線の入力、線画消去等のメニユーを選択し、これによりドローイング描画要求が通話対象から入力されたか否か判断する。
【0114】
ここで否定結果が得られると、システムコントローラ46は、直接ステツプSP8に移るのに対し、ここで肯定結果が得られると、ステツプSP9に移る。
このステツプSP9においてシステムコントローラ46は、続いて通話対象から入力されるテレライテイング情報DWに基づいてドローイングプレーンの画像データを更新し、これにより通話対象で制御される遠隔制御のドローイング描画処理を実行してステツプSP8に移る。
【0115】
続いてシステムコントローラ46は、拡大、スクロール、回転等のメニユーでなる画面制御キーが選択されたか否か判断し、ここで否定結果が得られると、直接ステツプSP10に移るのに対し、ここで肯定結果が得られると、ステツプSP11に移る。
このステツプSP11において、システムコントローラ46は、図14に示す画面制御キー処理を実行し、これにより図12について上述した通信手順を実行する。
【0116】
すなわちシステムコントローラ46は、ステツプSP12からステツプSP13に移り、ここで通話対象にドキユメント制御要求コマンドREQAを送出した後、ステツプSP14に移り、ここでドローイング描画要求が通話対象から入力されたか否か判断する。
ここで否定結果が得られると、システムコントローラ46は、直接ステツプSP15に移るのに対し、ここで肯定結果が得られると、ステツプSP16に移り、リモートコントロールのドローイング描画処理を実行する。
【0117】
すなわちシステムコントローラ46は、通話対象AIから到来するテレライテイング情報が有効なものと判断し、このテレライテイング情報に基づいてドローイングプレーン44の画像データを更新し、これにより通話対象AIから送信された線画データを表示切り換え前のドキユメント画像上に表示する。
これにより期間T1の間、通話対象から到来するテレライテイング情報を処理した後、システムコントローラ46は、ステツプSP15に移り、ここで通話対象から応答コマンドACKが入力したか否か判断する。
【0118】
ここで否定結果が得られると、システムコントローラ46は、ステツプSP14に戻るのに対し、ここで肯定結果が得られると、ステツプSP17に移り、画面制御キーの操作に対応してドキユメント画像の表示を切り換え、続くステツプSP18でこの処理手順を完了する。
【0119】
この画面制御キー処理が完了すると、システムコントローラ46は、ステツプSP10に移り、通話対象からドキユメント制御要求コマンドREQAが入力されたか否か判断し、ここで否定結果が得られると、ステツプSP19に移るのに対し、ここで肯定結果が得られると、ステツプSP20に移る。
このステツプSP20において、システムコントローラ46は、図15に示す画面制御要求処理を実行し、これにより図12について上述した通信手順を実行する。
【0120】
すなわちシステムコントローラ46は、ステツプSP21からステツプSP22に移り、ここで通話対象に応答コマンドACKを送出した後、続くステツプSP23でドキユメント制御要求コマンドREQAに応答してドキユメント画像の表示を切り換えた後、ステツプSP24に移つてこの処理手順を終了する。
これによりシステムコントローラ46は、続くステツプSP19でこのドローイングモードの終了を指示する終了(EXIT)のメニユーが選択されたか否か判断し、ここで否定結果が得られるとステツプSP7に移るのに対し、肯定結果が得られるとステツプSP2に戻る。
【0121】
(1−4)画像データの処理
(1−4−1)演算メモリ
この実施例において、画像データ処理部14は、自然画、ドキユメント画像で演算メモリ40を共用することにより、全体構成を簡略化し得るようになされている。
すなわち図16に示すように、演算メモリ40は、8ビツト128 〔kbite 〕のメモリ40A〜40Hを8個用いて形成され、メモリコントローラ41を形成するアドレス生成回路41A、41Bでアドレスデータを切り換えることにより、自然画、ドキユメント画像を格納し得るようになされている。
【0122】
すなわち図17に示すように、NTSC方式の輝度信号を格納する場合、演算メモリ40は、水平方向に704 画素分、垂直方向に480 画素分、画像データを格納する領域が必要となる。
これに対してPAL方式の輝度信号を格納する場合、演算メモリ40は、水平方向に704 画素分、垂直方向に576 画素分、画像データを格納する領域が必要になる。
これに対して色差信号は、輝度信号に比して視覚的に解像度の劣化が認識されないことにより、U及びV成分について、それぞれ輝度信号で求められる画素数の1/2の画素数分、画像データを格納する領域が必要になる。
【0123】
すなわちNTSC方式及びPAL方式の自然画を格納する場合、演算メモリ40は、輝度信号Y及び色差信号U、V用にそれぞれ8ビツト×704 ×576 ×2のメモリ容量が必要になる。
これに対してこの実施例の場合、ドキユメント画像を8〔本/mm〕の解像度でA4版の大きさまで取り込むことにより、水平方向2376ドツト×垂直方向1728ドツトのメモリ容量が必要になる。
【0124】
このためこの実施例において、演算メモリ40は、自然画を格納する場合、自然画の水平方向及び垂直方向に対応するように1024×480 のメモリ空間を割り当て、これにより奥行き16ビツトのメモリ空間を形成し、輝度信号及び色差信号の画像データを取り込む。
さらにこのようにメモリ空間を割り当てて不足する垂直方向のメモリ空間に、矢印aで示すように、水平方向に余分に割り当てたメモリ空間を割り当て、これによりPAL方式及びNTSC方式の何れの画像データをも格納し得るようにする。
【0125】
これに対して図18に示すように、ドキユメント画像を格納する場合、演算メモリ40は、8個のメモリを奥行き1ビツトで平面的に配置するようにメモリ空間を形成し、これにより最大4096×2048画素の2値画像データを格納する。
これによりテレビ会議装置1は、演算メモリ40のアドレスデータを切り換えて自然画及びドキユメント画像を格納し、演算メモリ40を自然画及びドキユメント画像で共用し得るようになされている。
【0126】
このためアドレス生成回路41A及び41Bは、それぞれ表示画像の奇数フイールド及び偶数フイールドに対応するアドレスデータを順次生成し、このとき自然画及びドキユメント画像でアドレスデータを切り換えることにより、予め設定されたメモリ空間に対応する画像データを格納する。
すなわち自然画において、アドレス生成回路41A及び41Bは、図19に示すように、輝度信号Yについては、順次ラスタ走査の順序で入力される画像データに対して、奇数フイールドで第1及び第2のメモリ40A及び40Bが交互に連続して画像データを格納するように、メモリ40A〜40Hのアドレスデータを生成し、偶数フイールドで第5及び第6のメモリ40E及び40Fが交互に連続して画像データを格納するように、メモリ40A〜40Hのアドレスデータを生成する。
【0127】
これに対してアドレス生成回路41A及び41Bは、色差信号については、順次ラスタ走査の順序で入力される画像データに対して、奇数フイールドでU成分及びV成分の画像データをそれぞれ第3及び第4のメモリ40C及び40Dに格納するように、メモリ40A〜40Hのアドレスデータを生成し、偶数フイールドでU成分及びV成分の画像データをそれぞれ第7及び第8のメモリ40G及び40Hに格納するように、メモリ40A〜40Hのアドレスデータを生成する。これによりアドレス生成回路41A及び41Bは、画像FIFO42に画像データを転送して表示画像を形成する際、静止画処理回路36に画像データを転送してデータ圧縮する際、さらには画像FIFO42又は静止画処理回路36を介して画像データを取り込む際、簡易にアドレスデータを生成し得るようになされている。
【0128】
これに対してドキユメント画像の場合、アドレス生成回路41A及び41Bは、図20に示すように、ドキユメント画像の各ラインに順次循環的に第1〜第8のメモリ40A〜40Hを割り当てるようにアドレスデータを生成する。
これによりアドレス生成回路41A及び41Bは、2値画像処理回路37との間で画像データを入出力する際、画像FIFO42に画像データを転送して表示画像を形成する際、さらにイメージスキヤナ15を介して画像データを取り込む際、簡易にアドレスデータを生成し得るようになされている。
【0129】
さらにアドレス生成回路41A及び41Bは、それぞれ表示画像の垂直方向及び水平方向に対応する2系統のアドレス生成回路を有し、これによりこのアドレス生成回路を相補的に切り換えてアドレスデータを生成することにより、画像データを画像FIFO42に転送して表示画像を形成する際、縦横90度回転した表示画像を簡易に形成し得るようになされている。
【0130】
これに対して画像FIFO42は、輝度信号の奇数フイールド用及び偶数フイールド用のFIFO42Y1及び42Y2と、色差信号の奇数フイールド用及び偶数フイールド用のFIFO42C1及び42C2で形成され、自然画を表示する際、この4つのFIFO42Y1〜42C2に対応する画像データを演算メモリ40から転送して格納し、さらにアナログデイジタル変換回路21から転送して格納するようになされ、この格納した画像データをコントローラ41Y及び41Cを介してマトリツクス回路43に出力して表示画像を形成し得るようになされている。
【0131】
これに対してドキユメント画像を表示する場合、画像FIFO42は、対応する2値の画像データをコントローラ41Yで8ビツトの画像データに変換して輝度信号用のFIFO42Y1〜42Y2に格納する。
さらにドキユメント画像を表示する場合、画像FIFO42は、残つた色差信号用のFIFO42C1及び42C2に1ライン分遅延して画像データを蓄積し、これにより色差信号用のFIFO42C1及び42C2に格納した画像データを輝度信号用のFIFO42Y1及び42Y2に格納した対応する画像データより1ライン分遅延したタイミングで順次出力し、画像FIFO42から連続する3ラインの画像データを同時に出力し得るようになされている。
【0132】
これにより画像データ処理部14は、この3ラインの画像データをフリツカ低減回路(コントローラ41に内蔵されている)で加算処理して出力することにより、表示画像のフリツカを低減し得るようになされている。
このためコントローラ41の一部を形成するコントローラ42Y及び42Cは、それぞれ輝度信号用及び色差信号のFIFO42Y1、42Y2及び42C1、42C2の動作を制御し得るようになされている。
【0133】
さらにコントローラ42Y及び42Cは、FIFO42Y1、42Y2及び42C1、42C2の出力データを入力側に帰還し、内蔵のデータ処理回路で演算メモリ40の出力データとの間で演算処理して再び格納し得るようになされ、これによりPAL方式又はNTSC方式で伝送された自然画をNTSC方式又はPAL方式に変換して表示画像を形成し得るようになされている。
【0134】
さらにコントローラ42Y及び42Cは、ドキユメント画像においてこの帰還処理及び加算処理を実行することにより、PAL方式及びNTSC方式の何れのモニタ装置4を接続した場合でも、表示画像の縦横の倍率を一定値に保持し得るようになされている。
すなわちこの種のテレビ会議装置1は、テレライテイングする際に通話対象ではPAL方式のモニタ装置を使用し、こちら側ではNTSC方式のモニタ装置4を使用している場合がある。
【0135】
この場合、テレビ会議装置1は、表示画像の縦横の倍率を通話対象と同一に保持し、同一の表示画像を形成する必要がある。
このためこの実施例において、テレビ会議装置1は、通話対象がPAL方式のモニタ装置で表示画像を形成している場合、接続されたNTSC方式のモニタ装置4に通話対象と同一表示画像を形成するように、表示画像の表示を切り換え、これにより通話対象と表示画面の縦横比を同一に保持する。
【0136】
同様にこの変換処理を利用してテレビ会議装置1は、通話対象がNTSC方式のモニタ装置で表示画像を形成している場合において、PAL方式のモニタ装置4が接続された場合、通話対象と同一表示画像を形成するように、表示画像の縦横比を一定値に保持する。
かくしてこのテレビ会議装置1は、このように画像FIFO42でNTSC方式及びPAL方式の画像変換処理を実行し得ることにより、画像変換回路29の動作モードを切り換えると共に、画像入出力部10の回路基板を交換して、簡易にPAL方式及びNTSC方式のモニタ装置4及び撮像部5を自由に接続し得るようになされ、その分使い勝手を向上し得るようになされている。
【0137】
(1−4−2)ドキユメント画像の処理
図21に示すように、演算メモリ40は、インターフエース回路39を介してイメージスキヤナ15からライン順次で入力される画像データを順次入力して格納した後、所定順序で格納した画像データを2値画像処理回路37に出力することにより、ドキユメント画像をデータ圧縮して通話対象に送出する。
さらに通話対象から伝送されたドキユメント画像の画像データを2値画像処理回路37でデータ伸長して順次格納し、所定のタイミングでインターフエース回路39に出力し、これによりこのドキユメント画像をプリンタ16に出力する。
【0138】
これに対してこのドキユメント画像を表示する場合、演算メモリ40は、アドレス生成回路41A及び41Bで生成されるアドレスデータに基づいて順次画像データを画像FIFO42に出力する。
このときアドレス生成回路41A及び41Bは、生成するアドレスデータを切り換えることにより、ドキユメント画像を所定の倍率で表示し、また回転、スクロールして表示し得るようになされている。
【0139】
このときドキユメント画像に比してモニタ装置4の画素数が少ないことにより、演算メモリ40は、データ変換回路41Dで画素数を低減して画像データをFIFO42に格納し、このときデータ変換回路41Dで2値データを多値データに変換し、これにより違和感のない表示画像を形成し得るようになされている。すなわちこのように画素数を低減して表示画像を形成する場合、画像データを間引いて不足する解像度を補う方法も考えられるが、この場合斜めの直線等がギザギザに表示され、表示画像が不自然に表示される欠点がある。
【0140】
このためこの実施例においては、画素数が低減して劣化する解像度を階調で補うことにより、直線等を滑らかに表示し、自然な表示画像を表示し得るようになされている。
【0141】
すなわちドキユメント画像を表示する場合、アドレス生成回路41A及び41Bは、ユーザの選択した倍率等の表示態様に応じて順次アドレスデータを生成し、これによりFIFO42との間でリアルタイムで画像データを転送する。
このときデータ変換回路41Dは、ドキユメント画像の16画素を表示画面の1画素に割り当てるように、16個の2値画像データを1個の多値画像データに変換することにより、表示画面一杯にA4サイズのドキユメント画像を表示し、これにより倍率1倍の表示画像を形成する。
【0142】
これに対して図22に示すように、ユーザが倍率2倍の表示態様を選択した場合、データ変換回路41Dは、ドキユメント画像の4画素を表示画面の1画素に割り当てるように、4個の2値画像データを1個の多値画像データに変換し、これによりモニタ装置4にドキユメント画像の一部を表示し、倍率2倍の表示画像を形成する。
さらにユーザが倍率4倍の表示態様を選択した場合、データ変換回路41Dは、ドキユメント画像の1画素と表示画面の1画素とが対応するように、入力された1個の2値画像データを1個の多値画像データに変換し、これにより表示画面にドキユメント画像の一部を表示して倍率4倍の表示画像を形成する。
【0143】
このとき図22に対応して図23に示すように、例えば2倍の倍率で表示画像を形成する場合、データ変換回路41Dは、表示画面の1画素に変換する4画素分の2値画像データを加算し、この4画素中に白レベルの画素が何画素存在するかを検出する。
さらにデータ変換回路41Dは、この加算結果を正規化することにより、4画素全てが白レベルの場合、対応する多値画像データの輝度レベルを白レベル(すなわち100 〔%〕の輝度レベルでなる)に設定する(図23(A))。
【0144】
これに対してデータ変換回路41Dは、4画素中の3画素が白レベルの場合(図23(B))、全体の画素数に対する白レベルの画素数に対応するように、対応する多値画像データの輝度レベルを75〔%〕の輝度レベルに設定し、4画素中の2画素が白レベルの場合(図23(C))、同様に対応する多値画像データの輝度レベルを50〔%〕の輝度レベルに設定する。
さらに4画素中の1画素が白レベルの場合(図23(D))、さらに4画素全てが黒レベルの場合、それぞれ対応する多値画像データの輝度レベルを25〔%〕及び0〔%〕の輝度レベルに設定し、これにより2値画像データを多値画像データに変換処理して出力する。
【0145】
さらに1倍の表示モードの場合、16個の2値画像データを1つの多値画像データに変換することにより、データ変換回路41Dは、この16個の画像データを加算して正規化し、16個の2値画像データを16階調の多値画像データに変換する。さらに4倍の倍率で表示画像を形成する場合、1個の2値画像データを1つの多値画像データに変換することにより、データ変換回路41Dは、この2値画像データがそれぞれ白レベルを黒レベルのとき、対応する多値画像データを100 〔%〕及び0〔%〕の輝度レベルに設定する。
【0146】
これにより画像データ処理部14は、ドキユメント画像を表示する際、表示画面の1画素に対応する画像データを加算、正規化処理することにより、滑らかに連続する表示画像を形成し得るようになされ、これにより不足するモニタ装置の解像度を階調で補つて自然な表示画像を表示し得るようになされている。
【0147】
ところで図20について上述したように、この実施例の場合、ドキユメント画像の画像データを順次ライン単位で8個のメモリ40A〜40Hに順次循環的に割り当てたことにより、アドレス生成回路41A及び41Bは、この8個のメモリ40A〜40Hを選択して共通のアドレスデータを出力することにより、連続する8ラインの画像データを同時に読み出すことができる。
さらにドキユメント画像の場合、画像データが2値データで形成されることにより、8ビツトのメモリ40A〜40Hからそれぞれ1度に8画素分の画像データを読み出すことができる。
【0148】
これにより図24に示すように、演算メモリ40は、ドキユメント画像の矩形形状一部領域64画素分の画像データを同時に出力することができる。なお図24においては、それぞれメモリ40A〜40Hに対応する画素を記号A〜Hで表し、出力される各ビツトに対応する画素を記号D〜Dで表す。
【0149】
これによりアドレス生成回路41A及び41Bは、一度に64画素分の画像データを一括してデータ変換回路41Dに出力し、データ変換回路41Dは、ユーザの選択した倍率に応じて、16画素×4ブロツクで形成されるこの64画素の画像データを4画素×4ブロツクの多値画像データ、1画素×4ブロツクの多値画像データに変換して出力する。
すなわちデータ変換回路41Dは、ユーザが倍率4倍の表示態様を選択した場合、1ブロツク16画素の2値画像データを16画素の多値画像データに割り当てるのに対し、ユーザが倍率2倍の表示態様を選択した場合、16画素の1ブロツクを4画素×4ブロツクの領域に分割し、各ブロツク4画素の2値画像データを表示画面の1画素に割り当てる。
さらにユーザが倍率1倍の表示態様を選択した場合、16画素の1ブロツクを表示画面の1画素に割り当てる。
【0150】
これによりアドレス生成回路41A及び41Bは、単にアドレスデータの生成開始の値を切り換えるだけで、表示画面に割り当てるドキユメント画像の領域を切り換え得、さらにこの開始の値を順次切り換えて表示画面をスクロールし得、またデータ変換回路41Dの処理速度に対応して順次アドレスデータを更新するだけでドキユメント画像を所望の倍率で表示することができる。
これに対してデータ変換回路41Dは、順次入力される画像データを選択的に入力して多値データに変換するだけで所望の倍率の表示画像を形成することができる。
【0151】
これにより画像データ処理部14は、このアドレス生成回路41A、41B及びデータ変換回路41Dを論理回路で簡易に形成し得、これにより2値画像データをリアルタイムで多値画像データに変換して処理し得、またテレビ会議装置1においては、その分全体として簡易な構成で所望のドキユメント画像を表示することができる。
なお2値画像処理回路37及びインターフエース回路39との間でドキユメント画像の画像データを入出力する場合、アドレス生成回路41A及び41Bは、順次第1〜第8のメモリ40A〜40Hを選択して循環的にアドレスデータを生成することにより、簡易にアドレスデータを生成してライン順次で順次画像データを入出力し得るようになされている。
【0152】
(1−4−3)画像変換
ところで上述したように、この種のテレビ会議装置1では、通話対象がPAL方式の表示画面でドキユメント画像を表示している場合もあり、この実施例においては、この通話対象と同一の表示画像をモニタ装置4に表示するため、データ補間回路41Eで補間演算処理を実行する。
すなわちPAL方式及びNTSC方式においては、それぞれ576 本及び480 本の垂直ライン数で有効画面が形成されることにより、PAL方式で6ラインの表示画像がNTSC方式の5ラインで表示されることになる。
【0153】
従つて通話対象と同一のドキユメント画像をモニタし、かつ通話対象及びテレビ会議装置1がそれぞれPAL方式及びNTSC方式のモニタ装置でこのドキユメント画像をモニタしているとき、補間演算の手法を適用して演算メモリ40から出力される6ライン分の画像データを5ライン分の画像データに変換してFIFO42に格納することにより、通話対象と同一の縦横比で表示画面を形成し得る。
これとは逆に通話対象及びテレビ会議装置1がそれぞれNTSC方式及びPAL方式のモニタ装置で同一のドキユメント画像をモニタしているとき、演算メモリ40から出力される5ライン分の画像データを6ライン分の画像データに変換してFIFO42に格納することにより、通話対象と同一の縦横比で表示画面を形成し得る。
【0154】
このように通話対象とモニタ装置の方式が異なる場合でも、同一の縦横比で表示画像を形成することができれば、表示されたドキユメント画像でテレライテイングする際、別途伝送する絵画データの表示位置を気にすることなくスムーズに対話を図り得、テレビ会議装置1の使い勝手を向上し得る。
【0155】
すなわちデータ変換回路41Dは、上述の手法を適用して2値画像データを多値画像データに変換する際、隣接する2ラインの画像データを同時に多値画像データに変換して出力する。
【0156】
図25においてそれぞれNTSC方式からPAL方式及びPAL方式からNTSC方式に画像データの変化を矢印で示すように、補間回路41Eは、通話対象がNTSC方式又はPAL方式のモニタ装置で、テレビ会議装置1にPAL方式又はNTSC方式のモニタ装置が接続されている場合、重み付け係数を切り換えて隣接する2ラインの画像データを重み付け加算し、これによりそれぞれ通話対象と同一画面を表示し得るように、PAL方式又はNTSC方式の画像データを生成する。
【0157】
すなわち通話対象がNTSC方式のモニタ装置で、テレビ会議装置1にPAL方式のモニタ装置が接続されている場合、補間回路41Eは、奇数フイールド(記号Oで表す)第1のラインについては、データ変換回路41Dの出力データをそのままFIFO42に格納するのに対し、続く偶数フイールド(記号Eで表す)第1のラインについては、奇数フイールド第1ラインと偶数フイールド第1ラインの画像データを0.125 :0.875 の重み付け加算比で重み付け加算して画像データを生成する。
【0158】
これとは逆に通話対象がPAL方式のモニタ装置で、テレビ会議装置1にNTSC方式のモニタ装置が接続されている場合、補間回路41Eは、奇数フイールド第1のラインについては、データ変換回路41Dの出力データをそのままFIFO42に格納するのに対し、続く偶数フイールド第1のラインについては、偶数フイールド第1ラインと奇数フイールド第2ラインの画像データを0.750 :0.250 の重み付け加算比で重み付け加算して画像データを生成する。
【0159】
このようにして重み付け加算して画像データを生成してFIFO42に格納する際、図26に示すように、補間回路41Eは、始の1フイールドの期間の間、奇数フイールドの画像データだけを生成し、この画像データをFIFO42に格納する(図26(A))。
これに対して続く1フイールドの期間の間、補間回路41Eは、偶数フイールドの画像データだけ補間演算処理して生成し、この画像データをFIFO42に格納する(図26(B))。
これに対応してFIFO42は、始の1フイールドの期間の間、補間回路41Eから出力される奇数フイールドの画像データを順次格納し、続く1フイールドの期間の間、補間回路41Eから出力される偶数フイールドの画像データを順次入力すると共に、格納した奇数フイールドの画像データを入力側に帰還して順次改めて格納する。
【0160】
これにより画像データ処理部14は、画像データのライン数を変換すると共に、その結果得られる画像データを1フイールドの期間の間でFIFO42に蓄積するようになされ、これにより順次演算メモリ40Eから出力される画像データをリアルタイムで処理して簡易にライン数を変換し得るようになされている。
すなわち64個の画像データを演算メモリ40から一度に読み出すことにより、データ変換回路41Dは、2ライン分の多値画像データをFIFO42の書き込みのタイミングに同期して同時に生成し得る。
【0161】
これにより補間回路41Eは、この2ライン分の多値画像データを並列的に入力して補間処理することにより、FIFO42の書き込みのタイミングに同期して偶数及び奇数フイールドの画像データを1フイールド単位で交互に生成することができる。
【0162】
これに対してFIFO42から出力される画像データは、インターレースのタイミングで奇数フイールド及び偶数フイールドの画像データを交互に出力して表示画像を形成することにより、各ラインの画像データを奇数フイールド及び偶数フイールドで交互にFIFO42に書き込んで、この方式変換の処理を実行しない場合と同一の待ち時間で表示画像を形成し得る。
【0163】
ちなみにこのように方式変換の処理を実行しない場合、補間回路41Eは、データ変換回路41Dから同時並列的に出力される2ラインの画像データをそのまま画像FIFO42に出力し、画像FIFO42は、この2ラインの画像データを同時並列的に入出力し、フリツカ低減回路41Fで選択出力することにより、偶数フイールド及び奇数フイールドの画像データを選択的に出力し得るようになされている。
【0164】
さらにこの種の重み付け加算処理は、論理回路を形成して簡易に形成し得ることにより、論理回路で補間回路41Eを形成して演算メモリ40の出力データをリアルタイムでFIFO42に転送し得、これによりテレビ会議装置1全体として簡易な構成で使い勝手を向上することができる。
【0165】
また画像データ処理部14は、このライン数の変換が完了すると、演算メモリ40からの書き込みを中断するのに対し、順次FIFO42の画像データを出力を継続し、このときFIFO42の出力データを入力側に帰還して再び格納することにより、継続して表示画像を表示し得るようになされている。
これによりテレビ会議装置1は、ユーザが改めてスクロール等の表示切り換えの指示を入力しない限り、FIFO42の画像データを帰還して順次循環的に出力するようになされ、表示を継続すると共に、必要に応じて演算メモリ40を他の処理に使用し得るようになされている。
【0166】
ところでこのようにFIFO42の出力データを入力側に帰還して再び格納すると、FIFO42に格納した画像データのうち、表示画像の一部領域についてだけ演算メモリ40に格納した画像データでFIFO42の画像データを更新することができる。
この原理を利用してコントローラ41Y及び41Cは、ユーザがウンドウ表示のモードを選択した場合、ユーザの指定入力した領域の画像データだけ帰還してFIFO42に再び格納し、残りの領域を演算メモリ40の画像データで書き換える。
【0167】
これにより画像データ処理部14は、PAL−NTSC方式の変換手段を流用して必要に応じてドキユメント画像の一部領域だけ拡大等して表示する。
またこのとき演算メモリ40に順次ドキユメント画像を取り込み直してFIFO42の一部領域を順次更新することにより、マルチ画面のように複数のドキユメント画像をインデツクス状に表示し得るようになされ、これにより簡易な構成で使い勝手を一段と向上し得るようになされている。
【0168】
ところでこのようにPAL方式及びNTSC方式との間でライン数を変換する場合、画像変換回路29と同様に中間フオーマツトでなるCIFに規定された画像を生成し、この画像をPAL方式及びNTSC方式の画像に変換する方法が考える。ところがこの方法の場合、一旦中間フオーマツトの画像を形成することにより、その分画質が劣化する特徴がある。
かくしてこの実施例の場合、画像データ処理部14は、このような中間フオーマツトの画像を形成することなく、直接PAL方式及びNTSC方式との間でライン数を変換することにより、画質劣化を有効に回避し得るようになされている。
【0169】
(1−4−4)フリツカの低減
ところでこのようにドキユメント画像を表示する場合、奇数フイールドの1ラインが黒色が表示され、これに隣接する偶数フイールドのラインが白色に表示される場合があり、この場合フリツカが発生する。
特にPAL方式においては、フレーム周波数がNTSC方式に比して低いことにより、このフリツカが目立つ欠点がある。
さらにこの種のドキユメント画像は、解像度が極めて高いことにより、隣接するライン間で輝度レベルが急激に変化する特徴があり、フリツカが目立つ特徴がある。
【0170】
このためこの実施例において、画像データ処理部14は、フリツカ低減回路41Fでこのフリツカを低減するようになされている。
このフリツカ低減の原理は、図27に示すように、連続する3ラインの画像データを重み付け加算することにより、上下に隣接する2ラインの輝度成分を中心のラインに混入させ、これにより偶数及び奇数フイールド間で急激な輝度レベルの変化を低減する。
【0171】
このため補間回路41Eは、画像データを輝度信号用のFIFO42Y1及びY2に出力する際、連続する2ラインの画像データに加えて別途1ライン遅延した画像データDLを生成し、この画像データDLを色差信号用のFIFO42C1及び42C2に格納する。
これによりFIFO42は、この1ライン分遅延して格納した画像データと、奇数及び偶数フイールドの連続する2ラインの画像データを同時にフリツカ低減回路41Fに出力することになり、連続する3ラインの画像データを順次ラスタ走査の順序で出力する。
【0172】
フリツカ低減回路41Fは、この3ラインの画像データを1:2:1の割合で重み付け加算することにより、上下ラインの輝度成分を25〔%〕づつ中央ラインの輝度成分に混入させて中央ラインの画像データを生成し、この中央ラインの画像データを出力する。
なお、この中央ラインの画像データを生成することにより、ライン数の変換処理を実行しない場合、同時並列的にFIFO42から出力される画像データを選択出力することになる。
【0173】
これに対してライン数の変換処理を実行する場合、フリツカ低減回路41Fは、最初のフイールドについては、フリツカ低減処理を中断することにより、FIFO42の出力データから奇数フイールドの画像データを選択的に出力し、続くフイールドからこのフリツカ低減処理を実行することになる。
これにより画像データ処理部14は、ドキユメント画像を表示する場合でも、隣接するライン間の急激な輝度レベルの変化を低減し、フリツカを有効に低減し得るようになされている。
【0174】
ところでこのようにして隣接するライン間で急激な輝度変化を低減する方法の1つとして図28に示すように、隣接する2ライン間で輝度成分を混合する方法も考えられるが、この方法の場合、解像度が1/2に低下することを避け得ない。
かくしてこの実施例のように、隣接する3ライン間で輝度成分を混合してフリツカを低減することにより、垂直解像度の低下を有効に回避してフリツカを低減することができる。
【0175】
(1−4−5)線画の記録
ところでこの実施例のようにテレライテイングの際、ドローイングプレーン44の画像とFIFO42の画像とを重ねて表示すると、テレビ会議装置1又は通話対象側で表示画像の倍率を切り換えた場合、さらに表示画面をスクロールさせた場合、それまで入力した線画とドキユメント画像の表示とが一致しなくなる欠点がある。
【0176】
この問題を解決する1つの方法としてドキユメント画像と同一のメモリ空間をドローイングプレーン44に形成し、ドキユメント画像の拡大、スクロールに追従してこのドローイングプレーン44の画像を拡大、スクロールする方法が考えられるが、この場合ドローイングプレーン44の構成が大型化し、またドローイングプレーン44の周辺回路が煩雑になる。
このためこの実施例において、システムコントローラ46は、ドローイングプレーン44に線画の画像が入力された状態でユーザが表示画面の倍率を切り換えると、さらに表示画面をスクロール、回転させると、図21において破線で示すように、ドローイングプレーン44に格納された線画の画像データを演算メモリ40に出力し、このドキユメント画像上にこの線画を上書する。
【0177】
すなわちシステムコントローラ46は、ドローイングプレーン44から線画等の画像データを順次読み出し、ドキユメント画像表示倍率、表示位置に応じてアドレス生成回路41H(図16)を制御し、これによりこの画像データの座標を変換して演算メモリ40に格納し、演算メモリ40に全ての画像を格納すると、ドローイングプレーン44の内容をクリアする。
これによりテレビ会議装置1は、ドキユメント画像を拡大、スクロール、回転させた場合でも、それまで入力した線画を元のドキユメント画像上の表示位置にそのまま表示し得、これにより使い勝手を向上することができる。
【0178】
さらにこのようにドキユメント画像を拡大、スクロール、回転させるまで、線画の画像データをドローイングプレーン44に保持することにより、必要に応じてドローイングプレーン44の内容を更新して自由に線画を消去、書き直すことができ、その分使い勝手を向上することができる。
【0179】
(1−4−6)自然画の処理
これに対して自然画を処理する場合、図29に示すように、画像データ処理部14は、アナログデイジタル変換回路21から入力されるデイジタルビデオ信号を補間回路41Eを介して順次FIFO42に入力する。
このときFIFO42は、出力データを補間回路41Eに帰還するようになされ、また補間回路41Eは、この帰還された画像データと、アナログデイジタル変換回路21から出力される画像データとの間で順次加算平均して画像データを生成し、この加算平均化した画像データを順次FIFO42に出力する。
【0180】
これによりFIFO42は、自然画を撮像した際にフイールド間で信号レベルが変化するノイズ成分を除去し得るようになされ、この帰還処理を繰り返してノイズを低減した画像データを格納し得るようになされている。
【0181】
かくして画像データ処理部14は、このFIFO42に格納した画像データをコントローラ41Y及び41Cを介してデイジタルアナログ変換回路23に出力し、これにより取り込んだ自然画をモニタし得るようになされ、さらに演算メモリ40を介して静止画処理回路36に出力して通話対象に送出し得るようになされている。
これに対して通話対象から送出された自然画の画像データの場合、画像データ処理部14は、静止画処理回路36を介して一旦この画像データを演算メモリ40に格納した後、ドキユメント画像の場合と同様にリアルタイムでFIFO42に転送して表示画像を形成し得るようになされている。
【0182】
ここでこの種の静止画処理回路36は、直交変換の手法を適用して8画素×8画素単位で画像データを切り出して処理する。
このためこの実施例において、アドレス生成回路41A及び41Bは、自然画の画像データを静止画処理回路36に転送する場合、第1及び第2のメモリ40A及び40Bを交互に選択して水平方向に8画素分、輝度信号の画像データを静止画処理回路36に転送した後、続いて第5及び第6のメモリ40E及び40Fを交互に選択して続くラインの水平方向に8画素分、輝度信号の画像データを静止画処理回路36に転送する(図19)。
【0183】
この8画素単位の画像データの転送を垂直方向8ライン繰り返すと、続いてアドレス生成回路41A及び41Bは、第3のメモリ40Cを選択して水平方向に4個の画像データ(輝度信号の8画素分に相当する)を静止画処理回路36に転送し、続いて第7のメモリ40Gを選択して水平方向に4個の画像データを静止画処理回路36に転送する。
この第3及び第7のメモリ40C及び40Gを交互に切り換えて垂直方向8ライン分の画像データを転送すると、同様に第4及び第8のメモリ40D及び40Hを交互に切り換えて垂直方向8ライン分の画像データを静止画処理回路36に転送する。
【0184】
これにより画像データ処理部14は、自然画及びドキユメント画像でアドレスデータを切り換えて処理する場合でも、簡易にアドレスデータを生成して8画素×8画素単位で自然画の画像データを静止画処理回路36に出力し得るようになされている。
これにより静止画処理回路36は、順次入力される画像データを時系列で取り込んで処理し得、その分構成を簡略化することができ、また画像データ処理部14全体としても簡易にアドレスデータを生成し得ることにより、その分構成を簡略化することができる。
【0185】
これに対して静止画処理回路36から出力される画像データを入力する場合、アドレス生成回路41A及び41Bは、静止画処理回路36に画像データを出力する場合と同様にアドレスデータを生成し、これにより画像データ処理部14は、静止画処理回路36で順次復調された画像データを時系列で演算メモリ40に格納し得るようになされ、その分全体構成を簡略化し得るようになされている。
【0186】
これに対して図30に示すように、通話対象から送出されて演算メモリ40に格納した画像データを表示する場合、画像データ処理部14は、連続する2ラインの画像データを同時に選択して補間回路41Eに出力する。
ここでシステムコントローラ46は、通話対象から伝送された自然画の画像データがモニタ装置4の方式と異なる場合、ドキユメント画像についてPAL−NTSC方式の画像変換処理を実行した場合と同様にこの2個の画像データを重み付け加算する。
【0187】
FIFO42は、同様にドキユメント画像についてPAL−NTSC方式の画像変換処理を実行した場合と同様にこの画像データを奇数フイールド及び偶数フイールド毎に処理する。
これによりテレビ会議装置1は、ドキユメント画像のライン数を変換して表示する場合と同様に、自然画についてPAL−NTSC方式の画像を変換処理し得、これにより全体構成をさらに一段と簡略化することができる。
【0188】
さらにテレビ会議装置1は、自然画についても、FIFO42の出力データを帰還して再び格納するようになされ、これによりドキユメント画像の場合と同様にして自然画についてもマルチ画面、ウインドウの表示画面を形成し得るようになされ、またシステムコントローラ46から線画の画像を演算メモリ40に格納して自然画に線画を重ね書きし得るようになされている。
従つて操作に不慣れなユーザにおいても、自然画及びドキユメント画像を区別することなく操作し得、その分簡易に運搬して使い勝手を向上することができる。
【0189】
(1−5)データ伝送
(1−5−1)伝送データのフオーマツト
ここでこのテレビ会議装置1に適用するCCITT、H.221に規定されたフオーマツトは、伝送速度に応じて規定され、何れも125 〔μsec 〕で連続するフレームを単位としてオーデイオデータ等を伝送する。
すなわちこのフオーマツトは、伝送速度64〔kbps〕の回線を複数使用する場合、各回線のチヤンネルをBチヤンネルと規定し、伝送速度384 〔kbps〕の回線を複数使用する場合、この回線をHチヤンネルと規定し、伝送速度1536〔kbps〕、1920〔kbps〕の回線を使用する場合、それぞれH11チヤンネル及びH12チヤンネルと規定する。
【0190】
このフオーマツトにおいて各チヤンネルは、16個のフレームが連続して1つのマルチフレームを形成し、さらにマルチフレームが2個連続してサブマルチフレームを形成し、このサブマルチフレームが8個単位で順次循環的に連続して1つのチヤンネルを形成する。
このうち図31に示すように、Bチヤンネルにおいては、125 〔μsec 〕周期で8ビツトのシリアルデータが10〔msec〕連続して1フレームのデータを形成し、この8ビツト単位のデータをオクテツト番号で表すのに対し、この8ビツトの各ビツト列をサブチヤンネルで表すようになされている。
【0191】
このうち第8サブチヤンネルは、サービスチヤンネル(SC)と呼ばれ、動画の画像データ及びオーデイオデータを伝送する場合、フレーム同期信号(FAS)、ビツトレート割当信号(BAS)、暗号化制御信号(ECS)、残りの容量で形成されるようになされている。
このうち暗号化制御信号は、必要に応じてサービスチヤンネルの第17〜第24ビツトに割り当てられ、暗号化したデータを伝送する際にその制御コードとして使用し得るようになされている。
【0192】
これに対してビツトレート割当信号は、サービスチヤンネルの第9〜第16ビツトに割り当てられ、複数チヤンネルを使用してデータ伝送する場合にその構造化を表すようになされ、これによりこの種のデータを伝送するデータ伝送装置は、このビツトレート割当信号を基準にして伝送されたデータを確実に受信し得るようになされている。なおこのビツトレート割当信号は、制御及び通知のためにも使用し得るようになされている。
これに対してフレーム同期信号は、サービスチヤンネルの第1〜第8ビツトに割り当てられ、マルチフレーム、サブマルチフレーム及びフレームの識別データと回線の識別データに割り当てられ、これにより複数チヤンネルを使用してデータ伝送した場合のチヤンネル間の時間ずれ等を補正し得るようになされ、また各フレーム内データのビツトバウンダリを正しく検出し得るようになされている。
【0193】
これによりBチヤンネルを使用してデータ伝送する場合、テレビ会議装置1は、最大6回線の範囲で、所望の回線数だけ回線を接続し、この接続した回線に同時並列的に64〔kbps〕のデータを送出し、これにより全体として簡易にISDN回線等に接続して種々の伝送速度で簡易にデータ伝送し得るようになされている。
【0194】
これに対して図32に示すように、Hチヤンネルは、1フレームがBチヤンネルの6フレームに相当するように形成され、125 〔μsec 〕周期で48ビツト(8ビツト×6でなる)のシリアルデータが10〔msec〕連続して1フレームのデータを形成し、この48ビツト×6個の各ビツト列をサブチヤンネルで表すようになされている。
さらにHチヤンネルは、第8サブチヤンネルをサービスチヤンネルに割り当て、このサービスチヤンネルの第1ビツトから第8ビツトにフレーム同期信号、第9ビツトから第16ビツトにビツトレート割当信号を割り当てるようになされている。
【0195】
これによりHチヤンネルは、Bチヤンネルの場合と同様に複数回線接続して所望のデータを伝送し得るようになされ、この実施例のテレビ会議装置1の場合、最大で2回線接続し得るようになされている。
これに対してH11チヤンネル及びH12チヤンネルは、Hチヤンネルの場合と同様に、それぞれ1フレームがBチヤンネルの24フレーム及び30フレームに相当するように形成され、125 〔μsec 〕周期で192 ビツト及び240 ビツトのシリアルデータが10〔msec〕連続して1フレームのデータを形成し、これにより1536〔kbps〕、1920〔kbps〕の伝送速度でデータ伝送し得るようになされている。
【0196】
この各フレームに対してテレビ会議装置1は、動画の画像データ、オーデイオデータ、低速転送用データ(以下LSDデータと呼ぶ)、高速転送用データ(以下HSDデータと呼ぶ)の領域を割り当て、さらにこの領域を動作モードに応じて切り換え、これにより自然画、ドキユメント画像の画像データ、線画データ等を伝送する。
すなわちテレビ会議装置1は、自然画、ドキユメント画像、線画データをHSDデータに割り当てて伝送し、外部バスIF回路50を介して入力されるパソコン等のデータをLSDデータに割り当てる。
なおテレビ会議装置1は、ドローイングの際の制御コマンド、動作モード切り換えの制御コマンド等については、第8サブチヤンネルのビツトレート割当信号以下のビツトを使用して伝送するようになされている。
【0197】
このデータ領域の切り換えは、図33に示すように、Bチヤンネルを2回線使用してデータ伝送する場合、H.221で規定されたフオーマツトに従つてオーデイオデータ及び動画の画像データ(ビデオで表す)の領域を割り当て、残りの領域をユーザの操作、通話対象から送出された制御コマンドに応じて切り換える。なおこの場合、記号CPUは、システムコントローラ46と通話対象のシステムコントローラとの間で送受するデータを表す(図33(A)〜(C))。
これに対して図34に示すように、Bチヤンネルを3回線使用してデータ伝送する場合、H.221で規定されたフオーマツトに従つてオーデイオデータ及び動画の画像データを第1及び第2の回線(1B及び2Bで表す)に割り当て、残りの回線(3Bで表す)を動画の画像データ又はHSDデータに割り当てる(図34(A)及び(B))。
【0198】
さらに図35に示すように、Bチヤンネルを6回線使用してデータ伝送する場合、H.221で規定されたフオーマツトに従つて第1及び第2の回線1B及び2Bにオーデイオデータ及び動画の画像データを割り当て、残りの回線にHSDデータに割り当て(図35(A)及び(B))、さらにHチヤンネル、H11チヤンネル及びH12チヤンネルの場合も同様にデータを割り当てる。
これによりテレビ会議装置1は、必要に応じて動作モードを切り換えて、種々のデータを伝送し得るようになされている。
【0199】
ところでこの種のデータ通信回線を複数回線使用する場合、回線が混雑している場合等においては、複数回線が別々のルートを経由して通話対象と結ばれる場合がある。
すなわち複数回線の1つは、海底ケーブルを介して接続され、他の回線は、静止衛星を介して接続される場合があり、静止衛星を介して接続される場合にあつては、例えば米国との間で回線を接続する場合でも、インド洋上の静止衛星、大西洋上の静止衛星を順次介して接続される場合もある。
従つて複数回線を使用してデータ伝送する場合、通話対象から伝送されてくるデータは、回線間で大きく位相ずれしている場合がある。
【0200】
これに対してH.221は、動画の画像データ及びオーデイオデータを伝送する場合、フレーム同期信号を使用してチヤンネル間で位相ずれを補正し得る。
ところが動画の画像データ及びオーデイオデータ以外のデータを伝送する場合、回線毎に独立したデータを伝送することを前提としているため、フレーム同期信号等が規定されていない特徴がある。
【0201】
従つてこの実施例のテレビ会議装置1のように、HSDデータにドキユメント画像の画像データを割り当てて複数回線で伝送する場合、位相ずれを補正することが困難になり、また回線自体を識別することが困難になり、正しいドキユメント画像を再現し得なくなる恐れがある。
このためこの実施例においては、動画の画像データ及びオーデイオデータ以外のデータを伝送する場合でも、動画の画像データ及びオーデイオデータを伝送する場合と同様にフレーム同期信号、ビツトレート割当信号、暗号化制御信号を割り当ててフレームを形成する。
【0202】
これにより動画の画像データ及びオーデイオデータ以外のデータを複数回線を使用して種々のデータを伝送する場合でも、確実に位相ずれを補正し得、さらに伝送した回線を識別して正しくデータを復元することができる。
【0203】
(1−5−2)多重化回路
(1−5−2−1)多重化データの生成
ところでこのように種々の回線を接続する場合、テレビ会議装置1は、接続する回線に応じて64〔kbps〕から最大1920〔kbps〕の範囲で伝送するデータの伝送速度を切り換える必要がある。
これに対してテレビ会議装置1は、動作モードに応じて各フレームのデータマツピングを切り換えて画像データ、オーデイオデータ等を多重化する必要がある。
この場合、この伝送速度に応じて多重化処理のクロツクの周波数を切り換えるようにすると、その分構成が煩雑になり、また処理に要する時間も増大する。
【0204】
このためこの実施例において、テレビ会議装置1は、タイムスロツトを形成して伝送に供するデータを多重化処理することにより、単一周波数のクロツクを用いて画像データ等を多重化し得るようになされ、これにより全体構成を簡略化し得るようになされている。
すなわち図36に示すように、多重化回路49は、回線インターフエース回路48からビツトクロツク及びオクテツトクロツクCK1を基準クロツク切り換え回路(基準CLK切換)60に与え、ここでアドレスデコーダ61の出力データで基準クロツク切り換え回路60の動作を切り換える。
【0205】
これにより多重化回路49は、基準クロツク切り換え回路60の出力信号でPLL回路62を駆動し、これにより種々の伝送速度の回線を接続した場合でも、この回線のビツトクロツクに同期した所定周波数のクロツクCKを生成する。
ここでこの実施例の場合、このクロツクCKの周波数は、Bチヤンネルのビツトクロツク64〔kHz〕の32倍でなる周波数2048〔kHz〕に選定され、これにより多重化回路49は、このクロツクCKを基準にして動作して多重化処理のために必要なクロツクの周波数を単一の周波数に保持する。
【0206】
すなわち図37に示すように、多重化回路49は、このクロツクCKを基準にして動作することにより、125 〔μsec 〕の期間の間で32個連続するようにタイムスロツトTS1〜TS32を形成し、各タイムスロツトTS1〜TS32にそれぞれBチヤンネル各フレームの1オクテツトに対応する8ビツトのデータを割り当てる。
これにより多重化回路49は、Bチヤンネルの回線を6回線接続した場合、タイムスロツトTS1〜TS32のうちの第1〜第6のタイムスロツトTS1〜TS6に順次画像データ等を8ビツト単位でマツピングして多重化した1つのシリアルデータを生成し、このシリアルデータを順次各回線に切り換えて出力することにより、多重化処理した画像データ等を所定の回線に切り換えて出力する。
【0207】
これに対してHチヤンネルの場合、図38に示すように、多重化回路49は、125 〔μsec 〕の期間の間で48ビツトのデータを送出することにより、第1〜第6のタイムスロツトTS1〜TS6を第1チヤンネルの回線に割り当て、続く第7〜第12のタイムスロツトTS7〜TS12を第2チヤンネルの回線に割り当てる。
この場合多重化回路49は、このタイムスロツトTS1〜TS12に順次8ビツト単位でデータをマツピングして1つのシリアルデータを生成し、Bチヤンネルの場合と同様に、このシリアルデータを順次各回線に切り換えて出力し、これにより多重化処理した画像データ等を所定の回線に出力する。
さらにH11チヤンネル及びH12チヤンネルの場合、多重化回路49は、それぞれ第1〜第24のタイムスロツトTS1〜TS24及び第1〜第30のタイムスロツトTS1〜TS30を回線に割り当てて画像データ等をマツピングしたシリアルデータを生成し、このシルアルデータを回線に出力して多重化処理した画像データ等を出力する。
【0208】
すなわち多重化回路49は、125 〔μsec 〕の期間の間で32個のタイムスロツトTS1〜TS32を形成し、回線に出力するデータの伝送速度に応じてこのタイムスロツトTS1〜TS32に8ビツト単位でデータを割り当て1つのシリアルデータを生成することにより、回線に出力するデータの転送速度を切り換える場合、データが占有するタイムスロツトを切り換えてデータの転送速度を切り換えるようになされ、これにより単一のクロツクCKで駆動してデータの転送速度を簡易に切り換え得るようになされている。
従つてテレビ会議装置1においては、その分全体構成を簡略化、小型化することができる。
【0209】
このためタイミング生成回路63は、この周波数2048〔kHz〕のクロツクCKを基準にして各タイムスロツトにデータを取り込むための基準信号を生成し、この基準信号に基づいて速度変換回路64、データ時分割回路65、CRC計算回路68の動作を制御する。
これに対してデータ時分割回路65は、上述のタイムスロツト形成のためのメモリ空間を有し、マツピングメモリ66から出力されるマツピングデータDMAPを基準にして順次画像データ等を取り込んでマツピング処理し、これにより動画の画像データ等を順次タイムスロツトに割り当てて多重化したシリアルデータを生成する。
【0210】
このときマツピングメモリ66は、アドレスデコーダ61から出力される制御データに基づいてマツピングデータDMAPを切り換えるのに対し、アドレスデコーダ61は、システムコントローラ46から出力される制御コマンドに応動してこの制御データを切り換える。
これにより多重化回路49は、接続した回線に応じて、さらにテレビ会議装置1の動作モードに応動してデータ時分割回路65のマツピングを切り換えるようになされている。
【0211】
データ生成回路67は、フレーム同期信号、ビツトレート割当信号のデータをシステムコントローラ46から入力し、所定のタイミングでデータ時分割回路65に出力し、これによりサービスチヤンネルに対応する所定位置にこのフレーム同期信号、ビツトレート割当信号をマツピングする。
データ時分割回路65は、それぞれオーデイオデータ及び画像データをマイツピングするタイミングでオーデイオデータ処理部18及びエンコーダ/デコーダ部11にクロツクCLKを送出し、オーデイオデータ処理部18及びエンコーダ/デコーダ部11は、このクロツクCLKを基準にしてオーデイオデータ及び画像データをデータ時分割回路65に出力する。
【0212】
これに対して速度変換回路64は、ランダムアクセスメモリ回路で構成され、画像データ処理部14、外部バスインターフエース回路50等から入力される線画データDW、自然画及びドキユメント画像の画像データD2等をHSDデータ及びLSDデータとして入力し、伝送速度を変換してデータ時分割回路65のマツピングのタイミングで出力する。
このときタイミング生成回路63は、アドレスデコーダ61の出力データに基づいて速度変換回路64の動作を切り換え、これにより対応するタイムスロツトにHSDデータ及びLSDデータをマツピング出力する。
【0213】
データ時分割回路65は、このようにしてタイムスロツトに必要なデータをマツピングすると共に、タイミング生成回路63から出力されるクロツクを基準にしてオクテツト番号の単位で、第1〜第32のタイムスロツトの順にマツピングしたデータを順次循環的に出力する。
CRC計算回路68は、この出力データを取り込んで巡回符号でなるCRC誤り訂正符号を生成し、この誤り訂正符号をバスBUS、システムコントローラ46を介してデータ生成回路67に出力し、データ生成回路67は、フレーム同期信号、ビツトレート割当信号のデータをデータ時分割回路65にマツピングする際、併せてこの誤り訂正符号をマツピングする。
【0214】
これにより多重化回路49は、回線に応じてCRC計算回路68の動作のタイミングを切り換えて誤り訂正符号を生成し得、単一の周波数でCRC計算回路68を駆動し得ることにより、その分全体構成を簡略化することができる。
因みにこのCRC誤り訂正符号は、データが割り当てられていないタイムスロツトの空き時間を利用して生成処理されるようになされている。
【0215】
これによりテレビ会議装置1は、最大30個の必要なタイムスロツトに対して32個のタイムスロツトを形成して空き時間を確保するようになされ、またこの空き時間を有効に利用してCRC誤り訂正符号を生成して、伝送速度を切り換える場合でも全体として簡易な構成でデータ処理し得るようになされている。
チヤンネル分離回路70は、このデータ時分割回路65の出力データを回線に応じたチヤンネルに切り換えて出力し、チヤンネル切換回路71は、ユーザの設定したチヤンネルにこのチヤンネル分離回路70の出力データを切り換えて出力し、このとき出力データの伝送速度を各チヤンネルの伝送速度に変換して出力する。
【0216】
これにより多重化回路49は、所定のビツトバウンダリで画像データ等を多重化して多重化データDMUを生成し、この多重化データDMUを回線インターフエース回路48から出力する。
このとき多重化回路49は、マツピングメモリ66から出力されるマツピングデータDMAPを切り換えてマツピングを切り換え得るようになされ、これにより動作モードに応じて動画の画像データ、HSDデータ等のマツピングを切り換え得るようになされている。
【0217】
さらにマツピングメモリ66は、この動作モードの切り換えに追従してマツピングを速やかに切り換え得るように、第1及び第2のメモリ空間を有し、この第1及び第2のメモリ空間を切り換えてマツピングデータDMAPの出力を切り換えることにより、マツピングを切り換え得るようになされている。
【0218】
(1−5−2−2)多重化データの分離
これに対して通話対象から伝送されて回線インターフエース回路48を介して入力される多重化データについて、多重化回路49は、送信時とは逆にこの多重化データをタイムスロツトに割り当てて1個のシリアルデータを生成した後、各回路ブロツクに分離して出力し、これにより多重化データDMUを分離する場合でも、単一周波数のクロツクで動作して全体構成を簡略化し得るようになされている。
なお多重化回路49は、Bチヤンネルを6回線接続する場合、さらにはHチヤンネルを2回線接続する場合、図37及び図38について上述した場合と同様にタイムスロツトを形成する。
【0219】
これにより図39及び図40に示すように、それぞれBチヤンネル及びHチヤンネルを1回線接続する場合、それぞれ第1のタイムスロツトTS1及び第1〜第6のタイムスロツトTS1〜TS6に多重化データDMUが割り当てられて画像データ等に分離されるのに対し、図41及び図42に示すように、H11チヤンネル及びH12チヤンネルを接続する場合、それぞれ第1〜第24のタイムスロツトTS1〜TS24及び第1〜第30のタイムスロツトTS1〜TS30に多重化データDMUが割り当てられて画像データ等に分離されることになる。
【0220】
(1−5−2−3)位相ずれ検出の原理
ところで複数回線を使用してデータ伝送する場合、通話対象から伝送されてくるデータは、回線間で大きくずれた位相を補正する必要がある。
このためには所定の基準を設け、この基準と各回線の位相ずれを回線毎に検出し、位相ずれを補正する方法が考えられるが、この方法の場合、全体構成が複雑化する。
【0221】
このため図43に示すように、多重化回路49は、位相ずれ補正回路80でこの種の位相ずれを補正した後、マツピング回路81でタイムスロツトを形成してデータ分離する。
【0222】
ここで図44に示すように、H.221の規定されるフレーム同期信号は、偶数フレームの第2〜第8オクテツトに値「0011011」のデータを割り当てるように規定され、これにより連続するデータ列を8ビツト周期でサンプリングしてこの値「0011011」のビツトパターンを検出することにより、偶数フレームのフレーム同期信号のタイミングを検出し得るようになされている。
これによりH.221の規定されるフレーム同期信号は、このタイミング検出結果に基づいて、各フレーム内データのバイトバウンダリを検出し得るようになされ、さらに例えば2つの回線間でこのタイミング検出結果を得、このタイミング検出結果に基づいて位相補正して最大10〔msec〕の位相ずれを補正し得るようになされている。
【0223】
さらに図45に示すようにフレーム同期信号をマルチフレームを単位にして並べると、H.221の規定されるフレーム同期信号は、奇数フレームの第1オクテツトが、第1のサブマルチフレームから値「001011」で連続するように規定され、これにより連続するフレーム間でサービスチヤンネルの第1オクテツトをサンプリングしてこの値「001011」を検出して、マルチフレーム内における各フレームのタイミングを検出し得るようになされている。
【0224】
これによりH.221の規定されるフレーム同期信号は、例えば2つの回線間でこのタイミング検出結果を得、このタイミング検出結果に基づいて位相補正して最大80〔msec〕の位相ずれを補正し得るようになされている。
さらにH.221の規定されるフレーム同期信号は、偶数フレーム第1オクテツトが、第1のサブマルチフレームから「N1、N2、N3、N4」で連続し、この5ビツトのデータで規定される値がマルチフレーム毎に順次循環的に切り換わるように規定されている。
【0225】
これによりH.221の規定されるフレーム同期信号は、この偶数フレーム第1オクテツトを検出して値を検出することにより、16個のマルチフレームの間でマルチフレームのタイミングを検出し得るようになされ、これにより最大1、28〔sec 〕の位相ずれを補正し得るようになされている。
実際上、この種のデータ通信において、最大1、28〔sec 〕の位相ずれを補正することができれば、確実に位相ずれを補正することができる。
【0226】
この位相ずれ検出原理に基づいて、多重化回路49は、複数回線間の位相ずれを検出し、その位相ずれを補正する。
なお、以下このフレーム同期信号に割り当てられた位相ずれ検出用のデータをFAWと呼ぶ。
【0227】
(1−5−2−4)位相ずれの補正
図43において多重化回路49は、回線インターフエース回路48から出力される多重化データDMUをデータ変換回路82に入力し、ここで所定のチヤンネルのデータが8ビツト単位で所定順序で連続するように出力し、これによりタイムスロツトを形成して各回線の入力データをシリアルデータに変換する。
このときデータ変換回路82は、複数回線が接続されている場合、そのうちの1つを基準にしてデユーテイ比50〔%〕のクロツクを形成し、このクロツクを基準にして残りの回線をサンプリングし、これにより各回線のデータをこのクロツクを基準にして取り込む。
【0228】
さらにこのとき変換回路82は、この残りの回線の論理レベルが切り換わるタイミングと、各回線のデータをサンプリングするタイミングとを検出し、このタイミングが近接している場合、クロツクの立ち下がりと立ち上がりとの間でサンプリングのタイミングを切り換え、これにより伝送されたデータを確実に取り込み得るようになされている。
すなわちこの種の回線を介して伝送されるデータは、回線間で同期がずれない反面、位相がずれる特徴があり、このようにクロツクの立ち下がりと立ち上がりとの間でタイミングを切り換えてデータを取り込むことにより、一旦このタイミングを設定して確実にデータを取り込むことができる。
【0229】
ちなみに、このような位相ずれを補正する場合、FIFO構成のメモリを使用することにより、1つのクロツクに各回線のデータの位相を合わせることができるが、この方法の場合全体構成が煩雑化する欠点があり、かくしてこの実施例の場合簡易な構成で確実に各回線のデータを取り込むことができる。
さらにこのデータを取り込む際、変換回路82は、データを取り込む回線がISDN回線の場合、バイトバウンダリを検出することにより、ここでビツト並びを予め補正して取り込むようになされている。
【0230】
これに対してFAW検出回路83は、この8ビツト単位で連続するデータ列からFAWを検出し、カウンタ84は、このFAW検出結果を基準にして所定のリングカウンタを各回線毎に駆動する。
これにより多重化回路49は、このカウンタ回路でそれぞれ各回線を介して入力されるデータのオクテツト番号、ビツトバウンダリを検出する。
【0231】
ビツト切換回路85は、このビツトバウンダリの検出結果に基づいて、各回線毎に同一オプテクト番号のデータが8ビツト単位で連続するようにデータ変換回路82の出力データを補正し、補正したデータをバツフアメモリ86に格納する。
このときバツフアメモリ86は、オプテクト番号の検出結果に基づいて順次データを入力すると共に、セレクタ87を介して入力される基準データを基準にして順次格納したデータを出力するようになされ、これによりチヤンネル順に、同一オプテクト番号のデータが8ビツト単位で連続するようにデータ出力し、さらに各チヤンネル間の位相ずれを補正する。
【0232】
このときバツフアメモリ86は、タイムスロツト単位でデータを入出力することにより、8ビツトパラレルデータの形式で位相ずれを補正し、パラレルシリアル変換回路(P/S)88で元のシリアルデータの形式に変換する。
誤り訂正回路89は、ビツトレート割当信号等ついて誤り訂正処理し、CRC誤り訂正回路90は、送出時に付加した誤り訂正符号に基づいて、全体のデータを誤り訂正処理する。
【0233】
このとき誤り訂正回路90は、データが割り当てられていないタイムスロツトの空き時間を使用して誤り訂正処理するようになされ、これによりテレビ会議装置1は、伝送速度を切り換えてデータを送受する場合でも、簡易な構成で誤り訂正処理し得るようになされている。
BAS検出回路91は、ビツトレート割当信号を検出してシステムコントローラ46に出力し、これによりシステムコントローラ46は、通話対象から送出された制御コマンド等を受信し得るようになされている。
【0234】
マツピング回路81は、このパラレルシリアル変換回路88の出力データをシステムコントローラ46から出力されるマツピングデータに基づいて選択的に出力し、これにより多重化回路49は、多重化されて伝送されたオーデイオデータ等を分離して対応する各回路ブロツクに出力する。
このとき多重化回路49は、外部バスインターフエース回路50等を介して出力するユーザデータにおいては、速度調整回路92を介して伝送速度を変換して出力する。
【0235】
図46に示すように、FAW検出回路83は、データ変換回路82の出力データDTをシリアルパラレル変換回路(S/P)95に受け、ここで先ず第1のタイムスロツトに割り当てられた8ビツトのデータをパラレルデータに変換して出力する。
レジスタ(R)96A〜96Fは、直列接続され、この第1のタイムスロツトが繰り返される周期で8ビツトのパラレルデータを順次転送し、パターン検出回路97は、シリアルパラレル変換回路95の出力データと、このレジスタ96A〜96Fの出力データを並列的に入力する。
【0236】
これによりパターン検出回路97は、第1のチヤンネルに割り当てられたデータから連続する8ビツトのデータを7バイト切り出して入力し、この7バイトの各ビツトが値「0011011」で連続するか否か検出する。
すなわちパターン検出回路97は、この8ビツト×7バイトのデータ列を切り出した後、フレーム同期信号に割り当てた偶数フレームの第2〜第8オクテツトの値「0011011」と一致するタイミングを検出する。
【0237】
パターン検出回路97は、このタイミングを検出する際、値「0011011」の8系統のマスクに、シリアルパラレル変換回路95及びレジスタ96A〜96Fの出力データを、それぞれ各ビツト列毎に入力して比較結果を得ることにより、同時に8系統でFAWを検出するようになされ、一致したビツトに対応するように、8ビツトの出力データを立ち下げて検出結果DFAWを出力する。
これによりパターン検出回路97は、1つのタイムスロツトの第1ビツト〜第8ビツトのそれぞれについて、同時並列的にFAWを検出するようになされ、短い時間で、簡易かつ確実にFAWを検出し得るようになされている。
【0238】
ところでこの種の画像データ、オーデイオデータは、図44ついて上述したようにフレームを形成した際、縦方向に並ぶ7ビツトのデータがFAWのパターンと同一の値で連続する場合がある。
従つて単にこの値「0011011」のビツトパターンを検出しただけでは、正しいFAWを検出し得たか否か判断し得ない特徴がある。
このためこの実施例において、パターン検出回路97は、検出結果でなる8ビツトの出力データをそれぞれ1ビツトづつFAW決定回路98A〜98Hに出力し、ここで正しいFAW検出結果か否か判断する。
【0239】
図47に示すように、FAW決定回路98A〜98Hは、検出結果DFAWに対応するように同一の回路構成で8系統形成され、それぞれFAW検出結果DFAWの各ビツトDFAW1〜DFAW8を80進カウンタ99に入力し、このビツトDFAW1〜DFAW8に対応するように、ラツチ回路95Fの出力データの各ビツトFAW8(FAW81〜FAW88)をセレクタ100に入力する。
80進カウンタ99は、80進のリングカウンタで形成され、このビツトDFAW1〜DFAW8の論理レベルが立ち下がると、タイムスロツトの形成周期に同期した周波数8〔kHz〕のクロツクCK80のカウントを開始し、カウント値が値80になるとキヤリー信号CARRYを立ち上げる。
【0240】
これにより80進カウンタ99は、FAW検出結果DFAWが得られると、該当する入力データから同一タイムスロツトのデータを80ビツト単位でカウントし、カウント結果をキヤリー信号CARRYとして出力するようになされている。
2進カウンタ101は、クロツクCK80を基準にして動作する2進のカウンタで形成され、キヤリー信号CARRYをカウントすることにより、FAW検出結果DFAWが得られたタイミングから2フレームの期間が経過すると出力の論理レベルを立ち上げる。
これによりFAW決定回路98A〜98Hは、FAW検出結果DFAW1が正しい場合、2進カウンタ101の論理レベルが立ち上がるタイミングで再びFAW検出結果DFAW1を得ることができ、またキヤリー信号CARRYの論理レベルが立ち上がるタイミングで奇数フレーム、サービスチヤンネル、オクテツト番号2のデータを検出することができる。
【0241】
ここでH.221の規定では、奇数フレーム、サービスチヤンネル、オクテツト番号2のデータは、常に値「1」に保持されるように規定されていることにより(図45)、FAW検出結果DFAW1が正しい場合、キヤリー信号CARRYの論理レベルが立ち上がると、セレクタ100の入力データFAW81〜FAW82も同時に立ち上がることになる。
これによりセレクタ100は、2進カウンタ101の論理レベルが切り換わるタイミングでFAW検出結果DFAW1及びセレクタ100の入力データFAW81〜FAW82を交互に出力し、これにより正しいFAW検出結果DFAW1が得られた場合、連続して論理レベルが値「1」に保持された選択結果を出力する。
【0242】
6段保護回路103は、この選択結果の論理レベルが連続して6回、値「1」に保持されると、正しいFAW検出結果DFAW1が得られたと判断してシステムコントローラ46に検出結果を出力する。
実際上、H.221で規定されたFAWのビツトパターンが6フレーム連続した場合、確実に正しいパターンを検出し得たと判断することができ、これにより確実にフレーム同期信号を検出することができる。
【0243】
これに対して選択結果の論理レベルが連続して6回立ち上がらない場合、6段保護回路103は、80進カウンタ99及びカウンタ101にリセツト信号を出力し、これによりFAW検出回路83は、このビツトについて改めてFAWの検出処理を再開することになる。
かくしてこの実施例の場合、同時並列的に8系統FAWを検出し、各系統毎にFAW決定回路98A〜98Hで正しいFAW検出結果か否か判断することにより、1つのFAW検出結果DFAW1(DFAW2〜DFAW8)が誤つている場合でも、同時に他のビツト列について正しいFAW検出結果か否か同時並列的に判断することになり、これにより短い時間で簡易かつ確実にFAWを検出することができる。
【0244】
このようにしてFAW検出結果が得られると、システムコントローラ46は、カウンタ84の動作を立ち上げる。
ここでカウンタ84は、図48に示す構成を6系統有し、各系統でそれぞれ各回線のオクテツト番号を検出する。
【0245】
すなわち6系統のカウンタ84は、8系統のFAW検出回路83から各キヤリー信号CARRY1〜8をセレクタ105に受け、ここでシステムコントローラ46を介して出力される選択信号に基づいて、1系統のFAW検出回路83から出力されるキヤリー信号CARRY1〜8を選択入力する。
このためシステムコントローラ46は、第1のタイムスロツトについて正しいFAW検出結果が得られると、正しい検出結果が得られらたFAW検出回路83から第1のカウンタ84にキヤリー信号CARRYを選択入力するように、所定の基準信号生成回路を介して選択信号SELを出力する。
【0246】
このようにしてキヤリー信号CARRY1を選択すると、カウンタ84は、周波数8〔kHz〕のクロツクCK80で動作する160 進のリングカウンタ106にこのキヤリー信号CARRY1をロードする。
これによりカウンタ84は、リングカウンタ106で、サブマルチフレーム単位のオクテツト番号に対応するカウント値を生成するようになされている。
【0247】
シリアルパラレル変換回路107は、データ変換回路82の出力データでなるタイムスロツト化したシリアルデータDTをパラレルデータに変換して出力する。
セレクタ108は、選択信号SELに応動して動作を開始し、FAW検出結果の得られたタイムスロツトに対応するように、このパラレルデータから1つのタイムスロツトのデータを選択的に出力する。
【0248】
検出回路109は、リングカウンタ106のカウント結果を基準にしてセレクタ108の出力データの中から各フレーム当たり1ビツトのデータを選択的に入力し、これによりサービスチヤンネルのオクテツト番号1のデータを選択入力する(図44)。
さらに検出回路109は、奇数フレームから得られるこのオクテツト番号1のデータをモニタし、ここで値「001011」の連続が検出されると、サブマルチフレーム(SMF)カウンタ110をリセツトする(図45)。
【0249】
サブマルチフレームカウンタ110は、カウンタ106のカウント結果をカウントする16進のリングカウンタで形成され、これによりフレーム単位でカウント値をインクリメントしてマルチフレーム周期でカウント値をリセツトする。
これによりサブマルチフレームカウンタ110は、マルチフレーム単位で、各フレームのカウント値を出力するようになされている。
【0250】
さらに検出回路109は、第1〜第5のサブマルチフレーム、偶数フレームのオクテツト番号1のデータを検出し、所定のタイミングでこの検出結果をMFカウンタ111に出力する。
MFカウンタ111は、サブマルチフレームカウンタ110のカウント結果を基準にして動作する16進のリングカウンタで形成され、検出回路109の検出結果をロードして動作することにより、偶数フレーム、オクテツト番号1のデータ「N1、N2、N3、N4」に対応するカウント値を出力する。
【0251】
これによりカウンタ84は、FAW検出結果に基づいて、検出対象の回線について、16個のマルチフレームを単位にしたオクテツト番号検出結果BWNを出力するようになされている。
さらに検出回路109は、第6のサブマルチフレーム、偶数フレームのオクテツト番号1のデータと第7のサブマルチフレーム、偶数フレーム及び奇数フレームのオクテツト番号1のデータ「L1、L2、L3」を検出し(図45)、所定のタイミングでこの検出結果をラツチ回路で形成されたCH番号検出回路112に出力する。
【0252】
ここでH.221のフオーマツトは、データ「L1、L2、L3」に回線のチヤンネル番号を割り当てて伝送するようになされ、CH番号検出回路112にラツチしてチヤンネル検出結果を保持すると共に、このチヤンネル番号検出結果をカウンタ106〜112のカウント値と共に出力するようになされている。
【0253】
さらに検出回路109は、カウンタ106で検出されるビツトアロケーシヨンを基準にして、偶数フレーム、サービスチヤンネル、オクテツト番号2〜8のデータを検出して前後段保護回路113に出力し、前後段保護回路113は、このデータが値「0011011」か否か判断する。
ここで否定結果が得られると、この場合同期がはずれた場合と考えられることにより、前後段保護回路113は、システムコントローラ46に同期はずれ信号ISを出力する。
【0254】
すなわちシステムコントローラ46は、一旦カウンタ106〜111、CH番号検出回路112が16個のマルチフレームを単位にしたオクテツト番号の検出結果BWNを出力するようになると、選択信号SELを切り換えてFAW検出回路83からカウンタ84を切り離す。
これによりシステムコントローラ46は、FAW検出回路83の検出対象を続く第2のタイムスロツトに切り換え、同時に2系統目のカウンタ84にFAW検出結果を出力し得るように、この2系統目のカウンタ84に選択信号SELを出力する。
【0255】
これに対してFAW検出回路83を切り離した1系統目のカウンタ84は、一旦同期したタイミングで動作を開始してタイムスロツトの形成周期に同期したクロツクCK80をカウントし続けることにより(すなわちカウンタ106〜111が自走することになる)、継続してオクテツト番号の検出結果BWNを出力することができる。
これによりテレビ会議装置1は、FAW検出回路83の検出対象を順次切り換えてFAW検出結果を得るようになされ、その分全体構成を簡略化し得るようになされている。
【0256】
すなわちこのテレビ会議装置1は、Bチヤンネルで最も多い回線数を接続することにより、最大6つのタイムスロツトについてそれぞれ位相ずれを補正すればよい。
ちなみに、Hチヤンネルにおいては、2回線接続した場合、2つのタイムスロツトについて位相ずれを検出し、この検出結果に基づいて全ての位相ずれを補正し得、H11及びH12チヤンネルにおいては、それぞれ1回線で伝送されることにより、位相ずれ補正の必要がないことがわかる。
これにより6系統のカウンタ回路を用意するだけで、位相ずれを検出し得ることがわかる。
【0257】
ところでこの種の回線においては、送信側の機器の異常等により通信中にビツトずれが発生する場合もあり、この場合、自走するカウンタ106〜111のカウント値との間で同期がはずれた状態になる。
このため位相ずれ補正回路80は、前後段保護回路113でこの同期ずれを検出し、同期がはずれると、FAW検出回路83の検出対象を切り換えると共に、同期がはずれたカウンタ84にFAW検出結果を出力し得るように選択信号SELを出力し、これにより改めてFAWを検出して同期を取り直し、オクテツト番号の検出結果BWNを出力するようになされている。
【0258】
図49及び図50に示すように、ビツト切り換え回路85は、カウンタ84の系統にそれぞれ対応する6系統のビツトずれ修正回路115A〜115Fで形成され、このビツトずれ修正回路115A〜115Fにデータ変換回路82の出力データDTを入力する(図50(A))。
ビツトずれ修正回路115A〜115Fは、それぞれ2系統の8ビツトラツチ回路で形成され、それぞれ対応するタイムスロツトの8ビツトのデータDTを2系統の8ビツトラツチ回路で交互にラツチすると共に、システムコントローラ46の出力データを基準にして所定のタイミングでラツチ結果を切り出して出力する。
【0259】
ここでシステムコントローラ46は、カウンタ84でオクテツト番号の検出結果BWNが得られると、対応する回線のFAW検出結果DFAWを入力し、このFAW検出結果DFAWを対応するビツトずれ修正回路115A〜115Fに出力する。
これによりビツトずれ修正回路115A〜115Fは、カウンタ84及びFAW検出回路83の検出結果に基づいてラツチ結果を切り出して出力し、これにより順次入力される出力データDTから連続する同一オクテツトのデータが各タイムスロツト内で連続するようにデータDTの配列を変換して出力する(図50(B))。
例えばこの場合、第5チヤンネルのデータ「1」及び「2」と、続くタイムスロツトの第5チヤンネルのデータ「3」〜「8」とが結合されて、1つのタイムスロツトが形成されたことがわかる。
【0260】
これによりテレビ会議装置1においては、最大で6回線接続することにより、位相ずれ補正回路80は、6系統のビツトずれ修正回路115A〜115Fでそれぞれタイムスロツト内に同一オクテツトのデータが連続するように、各回線の位相ずれを補正する。
なおビツトずれ修正回路115A〜115Fは、ラツチ回路の出力データを送出する際、入力データDTに同期したタイミングでパラレルデータの形式で出力するようになされ、図50(B)においては、入力データDTとの対応を示すため出力データDT1を略線的にシリアルデータの形式で表す。
【0261】
ビツトずれ修正回路115A〜115Fは、この出力データDT1をバツフアメモリ86に出力し、アドレスセレクタ116は、この出力データDT1のタイミングに同期して対応するオクテツト番号検出結果BWN、チヤンネル番号検出結果をバツフアメモリ86に出力する。
これによりバツフアメモリ86は、オクテツト番号検出結果BWN、チヤンネル番号検出結果をアドレスデータにして、順次入力データDT1を格納するようになされている。
【0262】
これに対してシステムコントローラ46は、ラツチ回路117を介してオクテツト番号検出結果BWNを入力し、位相ずれを補正するための基準となるタイムスロツトを検出する。
ここでこのように6つの回線について、位相ずれを補正する場合、最も遅延したタイムスロツトを検出し、このタイムスロツトを基準に設定することになる。
【0263】
ところがこのように順次循環的に値が変化するオクテツト番号検出結果BWNに基づいて、6個のタイムスロツトの中から最も遅延したタイムスロツトを検出する場合、処理が煩雑になる。
このためこの実施例において、システムコントローラ46は、ラツチ回路(R)117を介して2系統のオクテツト番号検出結果BWNを入力し、このオクテツト番号検出結果BWNの比較結果を検出する。
これによりシステムコントローラ46は、この2つのタイムスロツトの中から遅延した回線を検出し、続いてこの遅延した回線と、残り4つの回線の1つについてオクテツト番号検出結果BWNを入力して比較結果を検出する。
【0264】
これによりシステムコントローラ46は、順次2系統のオクテツト番号検出結果BWNを取り込んで比較結果を検出することにより、この処理を最大5回繰り返して最も遅延した回線を検出する。かくしてラツチ回路117は、オクテツト番号検出結果BWNを2系統同時に取り込み得るようになされている。
さらにシステムコントローラ46は、セレクタ118に切り換え信号を出力し、最も遅延した回線のオクテツト番号検出結果BWNをアドレスセレクタ116に選択出力する。
【0265】
これによりアドレスセレクタ116は、この最も遅延したオクテツト番号検出結果BWNを読み出しアドレスとしてバツフアメモリ86に出力し、これによりバツフアメモリ86は、格納したデータを順次出力して位相ずれを補正する。
このときアドレスセレクタ116は、順次チヤンネル番号が連続するように、順次値の循環するチヤンネル番号のデータをアドレスデータとしてバツフアメモリ86に出力する。
【0266】
これにより位相ずれ補正回路80は、回線間の位相ずれを補正する共に、チヤンネル番号が順次連続するようにデータDTの配列を並べ代えて出力し(図50(C))、パラレルシリアル変換回路88で元のシリアルデータの形式に変換して出力する。
かくしてタイムスロツトに各回線のデータを割り当てて処理することにより、位相ずれを補正する場合でも、処理を簡略化することができる。
【0267】
さらにHSDデータにもフレーム同期信号等を割り当てて伝送することにより、ドキユメント画像等についても、位相ずれを補正して正しいチヤンネルの配列で受信し得、これによりドキユメント画像も正しく再現することができる。
【0268】
(1−5−2−5)マツピングメモリの更新
ところでマツピングメモリ66及びマツピング回路81は、それぞれマツピングデータを更新することにより、各フレームに割り当てるデータを切り換え、これによりテレビ会議装置1は、動作モードに応じて種々のデータを切り換えて伝送し得るようになされている。
このデータを切り換えるためには、マツピングメモリ66を更新する必要があり、この更新処理を簡略化することができれば、システムコントローラ46がこの更新処理に要する時間を短縮し得、その分全体構成を簡略化することができる。
【0269】
さらにデータをタイムスロツトにマツピングする際、またデータを分離して各回路ブロツクに出力する際、多重化回路47でこのマツピングメモリ66を参照することになり、この参照の作業を簡略化することができれば、その分全体の処理時間を短縮化し得、また構成も簡略化することができる。
【0270】
このため図51に示すように、マツピングメモリ66は、第1及び第2のマツピングRAM120及び121にそれぞれタイムスロツトに対応するメモリ空間を形成し、このメモリ空間に各フレームのデータ配列に対応するアドレス空間を形成し、このアドレス空間にマツピングデータを格納する。
【0271】
これにより図52に示すように、マツピングメモリ66は、Bチヤンネル回線を2回線使用してデータ伝送する場合、第1チヤンネル及び第2チヤンネルのフレームに対応して格納するデータの種類を表すデータをマツピングデータとして格納するようになされ、データ時分割回路65は、このマツピングデータデータで指定されるオーデイオデータ、動画の画像データ等を順次入力するようになされている。
なお図52においては、オーデイオデータを記号Aで、動画の画像データを記号Vで、フレーム同期信号及びビツト識別信号のデータをそれぞれ記号F及びBで表す。
【0272】
さらにマツピングメモリ66は、切り換え回路122及び123を所定のタイミングで相補的に切り換えて、マツピングRAM120及び121をそれぞれシステムコントローラ46又はデータ時分割回路65に接続するようになされ、これによりデータ時分割回路65が1方のマツピングRAM120又は121をアクセスしてマツピングデータDMAPを参照している期間の間、他方のマツピングRAM121又は120のマツピングデータDMAPを更新し得るようになされている。
【0273】
これによりテレビ会議装置1は、切り換え回路122及び123の接続を所定のタイミングで切り換えて、簡易に動作モードを切り換え得るようになされている。
ここで図53に示すようにマツピングデータDMAPは、8ビツトのデータで構成され、下位6ビツトのデータで動画の画像データ、オーデイオデータ等の種類を指定するようになされている。
【0274】
すなわちマツピングデータDMAPは、オーデイオデータを割り当てる場合、この6ビツトのうち最下位ビツトだけ値1に立ち上げるのに対し、動画の画像データを割り当てる場合、続く第2ビツトだけ値1に立ち上げる。
これに対応してデータ時分割回路65は、この下位6ビツトのデータを基準にしてオーデイオデータ、動画の画像データ、HSBデータ等を選択入力し、これにより予め設定されたデータをタイムスロツトに順次割り当てて出力する。
さらにマツピングデータDMAPは、最上位ビツトD7に識別データBMを割り当て、この識別データBMでデータ時分割回路65のマツピングデータアクセス動作を切り換える。
【0275】
すなわちこの実施例の場合、各フレームは、同一種類のデータを割り当てたサブフレーム(図52においては、第1〜第7のサブフレームが相当する)と、異なるデータを割り当てたサブフレーム(図52においては、第8のサブフレームが相当する)とで形成される。
これによりシステムコントローラ46は、続いて読み出すサブフレームに同一種類のデータを割り当てた場合(すなわちこの場合、ラスタ走査するようにマツピングデータをアクセスすることにより、それぞれ第1〜第6のサブフレーム及び第8のサブフレームのマツピングデータが相当する)、この識別データBMを値1に立ち上げる。
【0276】
これに対応してデータ時分割回路65は、アクセスしたマツピングデータDMAPのうち、オクテツト番号1に対応するマツピングデータDMAPを保持する。
さらにデータ時分割回路65は、指定されたデータをマツピングする際、識別データBMを検出し、識別データBMが値1に立ち上がつているとき、続くマツピングデータDMAPのアクセスを中止し、この保持したマツピングデータDMAPで指定されるデータをマツピングする。
【0277】
このようにすれば、マツピングメモリ66のアクセス回数を各段的に低減し得、その分処理時間を短縮し得、さらにマツピングメモリ66の容量も小型化し得、これによりテレビ会議装置1の全体構成を簡略化、小型化することができる。
さらにこのようにすれば、このアクセスを中止するマツピングデータDMAPについては、マツピングメモリ66に書き込む必要がないことにより、システムコントローラ46は、その分マツピングメモリ66の更新処理を短時間で完了し得、その分システムコントローラ46の負担を低減することができる。
【0278】
これに対してマツピング回路81(図43)は、このデータ時分割回路65と逆にマツピングメモリをアクセスしてマツピングデータを得、このマツピングデータに基づいて多重化データDTを分離し、対応する回路ブロツク11、18等に分離したデータを出力する。
これにより受信したデータを分離処理する場合でも、全体として簡易な構成で確実に元のデータに分離することができる。
【0279】
(2)実施例の効果
以上の構成によれば、タイムスロツトを形成して多重化処理し、また多重化して伝送されたデータを分離することにより、回線を切り換えた場合でも単一周波数のクロツクで処理し得、その分全体構成を簡略化することができる。
さらに位相ずれを補正する際、8系統のFAW検出回路で同時並列的にFAWを検出し、さらにFAW検出回路を切り換えて各回線に同期するようにカウンタ回路84の動作を設定することにより、また2つのアドレス検出結果を順次比較して読み出し基準のアドレスデータを選定することにより、全体として簡易な構成で、迅速に位相ずれを補正し得る。さらにこの位相を補正する際、併せて回線の並びを補正することにより、全体構成を簡略化することができる。
【0280】
(3)他の実施例
なお上述の実施例においては、8系統のFAW検出回路を同時並列的に使用して1つのタイムスロツトに割り当てた入力データのFAWを検出する場合に場合について述べたが、本発明はこれに限らず、例えば1つの回線で伝送されるデータのビツトパターンを検出する場合に広く適用することができる。
【0281】
さらに上述の実施例においては、8系統のFAW検出回路を同時並列的に使用してなるパターン検出回路を切り換えてカウンタ回路の動作を同期させる場合について述べたが、本発明はこれに限らず、種々のパターン検出回路を広く適用することができる。
【0282】
さらに上述の実施例においては、位相ずれと共に併せてチヤンネルの並びを補正する場合について述べたが、本発明はこれに限らず、必要に応じて位相ずれだけを補正するようにしてもよい。
【0283】
さらに上述の実施例においては、2つのチヤンネルを比較して読み出し用の基準アドレスデータを生成する場合について述べたが、本発明はこれに限らず、例えば読み出し基準のアドレスデータを別途生成してこれを基準にしてもよい。
【0284】
【発明の効果】
上述のように本発明によれば、複数系統のデータ入力手段に入力シリアルデータを取り込んで識別データ割り当て期間に相当する期間の間保持し、各系統毎にそれぞれビツトパターンを検出することにより、同時並列的にビツトパターンを検出し得、簡易かつ確実にビツトパターンを検出することができる。さらに複数チヤンネルでデータを入出力する際、タイムスロツトに割り当ててデータ処理することにより、このデータが占有するタイムスロツトを切り換えてチヤンネル数及び又は伝送速度が切り換わつても、変換シリアルデータの伝送速度を一定値に保持して処理することができ、その分全体構成を簡略化することができる。
【0285】
また、複数の入力チヤンネルに対応する複数の自走式のカウンタ回路に入力チヤンネルを順次同期させれば、1系統のビツトパターン検出手段で各チヤンネルを同期させることができ、その分全体構成を簡略化することができ、このときカウント動作の同期がはずれと、該同期のはずれたカウンタ回路のカウント動作を改めて同期させることにより、確実にカウント動作を同期させることができる。
【0286】
さらに変換シリアルデータを順次格納した後、所定順序で出力してチヤンネル間の位相ずれを補正する際、複数の入力チヤンネルを順次比較して最も位相の遅れた入力シリアルデータを検出し、該検出した入力シリアルデータのアドレスデータを基準にして読み出し基準の基準アドレスデータを生成することにより、簡易に基準アドレスデータを設定することができ、さらにこのときチヤンネルデータに基づいて、格納した変換シリアルデータDTの配列をチヤンネルが連続するように変換して、併せててチヤンネルの配列も補正することができ、これにより簡易な構成で確実にチヤンネル間の位相ずれを補正して確実にデータを伝送することができるデータ伝送装置を得ることができる。
【図面の簡単な説明】
【図1】本発明の一実施例によるテレビ会議装置を示す正面図である。
【図2】その全体構成を示すブロツク図である。
【図3】画像入出力部を示すブロツク図である。
【図4】エンコーダ/デコーダ部を示すブロツク図である。
【図5】画像データ処理部を示すブロツク図である。
【図6】主処理部を示すブロツク図である。
【図7】中央処理ユニツトの処理の説明に供するブロツク図である。
【図8】バスの切り換えの説明に供するブロツク図である。
【図9】その動作の説明に供する信号波形図である。
【図10】テレライテイングの動作の説明に供する略線図である。
【図11】そのドキユメント画像と線画の不一致状態を示す略線図である。
【図12】ドキユメント画像と線画の不一致を解消するための通信手順を示す略線図である。
【図13】そのための処理手順を示すフローチヤートである。
【図14】その画面制御キー処理の説明に供するフローチヤートである。
【図15】その画面制御要求処理の説明に供するフローチヤートである。
【図16】演算メモリの周辺回路を示すブロツク図である。
【図17】自然画の場合のメモリ空間の割り当ての説明に供する略線図である。
【図18】ドキユメント画像の場合のメモリ空間の割り当ての説明に供する略線図である。
【図19】自然画のメモリの割り当ての説明に供する略線図である。
【図20】ドキユメント画像のメモリの割り当ての説明に供する略線図である。
【図21】ドキユメント画像の処理の説明に供するブロツク図である。
【図22】ドキユメント画像の表示の説明に供する略線図である。
【図23】2値データを多値データに変換する説明に供する略線図である。
【図24】ドキユメント画像の拡大表示の説明に供する略線図である。
【図25】PAL−NTSC方式の画像変換の説明に供する略線図である。
【図26】そのFIFOの画像データの格納の説明に供する略線図である。
【図27】フリツカ低減の説明に供する略線図である。
【図28】フリツカ低減を2ラインで実行する場合の説明に供する略線図である。
【図29】自然画の入出力の説明に供するブロツク図である。
【図30】自然画の表示の説明に供するブロツク図である。
【図31】Bチヤンネルの構造を示す略線図である。
【図32】Hチヤンネルの構造を示す略線図である。
【図33】Bチヤンネルを2回線使用する場合のデータ伝送の説明に供する略線図である。
【図34】Bチヤンネルを3回線使用する場合のデータ伝送の説明に供する略線図である。
【図35】Bチヤンネルを6回線使用する場合のデータ伝送の説明に供する略線図である。
【図36】多重化回路の送信側を示すブロツク図である。
【図37】Bチヤンネルを6回線使用する場合のタイムスロツトの説明に供する略線図である。
【図38】Hチヤンネルを2回線使用する場合のタイムスロツトの説明に供する略線図である。
【図39】Bチヤンネルを1回線使用する場合のタイムスロツトの説明に供する略線図である。
【図40】Hチヤンネルを1回線使用する場合のタイムスロツトの説明に供する略線図である。
【図41】H11チヤンネルを使用する場合のタイムスロツトの説明に供する略線図である。
【図42】H12チヤンネルを使用する場合のタイムスロツトの説明に供する略線図である。
【図43】多重化回路の受信側を示すブロツク図である。
【図44】FASの説明に供する略線図である。
【図45】そのフレーム間のFASの説明に供する略線図である。
【図46】FAW検出回路を示すブロツク図である。
【図47】FAW決定回路を示すブロツク図である。
【図48】カウンタ回路を示すブロツク図である。
【図49】ビツト切換回路を示すブロツク図である。
【図50】位相ずれ補正の説明に供する略線図である。
【図51】マツピングメモリを示すブロツク図である。
【図52】その説明に供する略線図である。
【図53】マツピングデータを示す略線図である。
【符号の説明】
1……テレビ会議装置、3……プロセツサ、4……モニタ装置、6……リモートコマンダ、10……画像入出力部、11……エンコーダ/デコーダ部、12……主処理部、14……画像データ処理部、18……オーデイオ処理部、エンコーダ/デコーダ、35……バスコントローラ、36……静止画処理回路、37……2値画像処理回路、38……画像インターフエース回路、40……演算メモリ、42……画像FIFO、44……ドローイングプレーン、46……システムコントローラ、49……多重化回路。
[0001]
【table of contents】
The present invention will be described in the following order.
Industrial application fields
Conventional technology
Problems to be solved by the invention
Means for Solving the Problems (FIGS. 2, 34, 36, 37, 43, 44, 47, and 48)
Action (FIGS. 2, 34, 36, 37, 43, 44, 47 and 48)
Example
(1) Overall configuration (Fig. 1)
(1-1) Processor (Figure 2)
(1-2) Bus controller (FIGS. 7 to 9)
(1-3) Telelighting control (FIGS. 2, 5, 6, 10 to 15)
(1-4) Image data processing (FIGS. 16 to 30)
(1-5) Data transmission (FIGS. 31-52)
(2) Effects of the embodiment
(3) Other embodiments
The invention's effect
[0002]
[Industrial application fields]
The present invention relates to a data transmission apparatus, and can be applied to, for example, a video conference apparatus that compresses image data and transmits it together with audio data.
[0003]
[Prior art]
2. Description of the Related Art Conventionally, video conferencing apparatuses can communicate with a remote call target by transmitting and receiving audio data, image data, and the like with a desired transmission target (specialty). (Kai Sho 62-245889).
[0004]
That is, this type of video conference device obtains a captured image of a person attending the conference via a predetermined imaging device, captures this captured image, compresses the data, and then transmits the captured image.
Furthermore, the video conference apparatus sends the attendee's voice signal together to the call target, and decompresses the image data coming from the call target and displays it on a predetermined display device.
[0005]
Furthermore, the video conference device sends line drawing data input via a tablet or the like in response to a user's operation to the call target, and instead of this, a still image input via an image scanner or the like is set as the call target. Send it out.
For this reason, the conventional video conference apparatus is installed in a dedicated video conference room or the like so that it can be used by connecting a line such as an optical fiber to the call target so that a large amount of data can be transmitted and received. It was.
[0006]
[Problems to be solved by the invention]
By the way, if this type of video conference apparatus can be transported as necessary and used freely in a place other than the video conference room, it is considered that the convenience of this type of video conference apparatus can be improved and it is convenient. In addition, the application field of this type of video conference apparatus can be expanded.
[0007]
For this purpose, it is necessary to be able to connect this type of video conferencing apparatus not only to a dedicated optical fiber line but also to, for example, a widely used integrated service digital network (ISDN). Furthermore, it is necessary not only to be able to connect to this kind of line but also to simplify the overall configuration.
Furthermore, it is necessary to simplify the operation of the apparatus itself so that not only a dedicated operator but also a user unfamiliar with the operation can easily operate.
[0008]
The present invention has been made in consideration of the above points, and when transferring data such as moving images and voices by appropriately using a plurality of channels of the ISDN line, the time lag between the plurality of channels is corrected to ensure data transfer. It is intended to propose a data transfer device such as a video conference device that can transmit.
[0009]
[Means for Solving the Problems]
In order to solve such a problem, in the present invention, in the data transmission apparatus 1 that processes input serial data input via a predetermined input channel, the input serial data DMU includes a predetermined identification bit allocation period in units of frames. During this period, identification bits having a predetermined value are sequentially assigned in a predetermined bit period, and a predetermined bit pattern (FAW) is formed by the identification bits in the identification bit allocation period. The data transmission apparatus 1 uses the bit of the bit period as a unit. The bit pattern (FAW) is detected by taking in the input serial data DMU, and when the bit pattern is detected in a plurality of frames, the bit pattern detection means 83 for outputting the detection signal DFAW and the detection signal DFAW are used as a reference. Address for generating address data BWN of input serial data DMU Data generation means 84 and data processing means 86 and 87 for sequentially inputting and processing the input serial data DMU with reference to the address data BWN. The bit pattern detection means 83 has a bit cycle to which identification bits are assigned. A plurality of systems of data input means 96A to 96F for taking in the input serial data DMU, and a plurality of systems of identification data detection means 97 corresponding to the plurality of systems of data input means 96A to 96F, and a plurality of systems of data input means 96A. To 96F take in the input serial data DMU sequentially input at different timings and hold them for a period corresponding to the identification bit allocation period, and the plurality of systems of identification data detection means 97 correspond to the corresponding data input means 96A to 96F. The input serial data DMU stored in the bit pattern (FA ) To match determines whether.
[0012]
Furthermore, in the second invention, in the data transmission apparatus 1 for processing the input serial data DMU input through a plurality of input channels, the input serial data DMU is transmitted in units of frames during a predetermined identification bit allocation period. A predetermined value identification bit is sequentially allocated for each predetermined bit, and a predetermined bit pattern (FAW) is formed by the identification bit of the identification bit allocation period, and the data transmission apparatus 1 converts the transmission rate of the input serial data DMU. Then, by selectively outputting in predetermined bit units, serial data generating means 82 for generating conversion serial data DT in which input serial data of a plurality of channels is continuous in bit units, and conversion serial for each input channel in bit units The data DT is taken in and a bit pattern (FAW) is detected. When a pattern is detected in a plurality of frames, a bit pattern detection unit 83 that outputs a detection signal, an address data generation unit 84 that generates address data BWN of input serial data DMU based on the detection signal, and address data Phase correction means 86 for correcting the phase shift between the input channels by converting the data array of the converted serial data DT with reference to BWN, and the address data generation means 84 includes a plurality of counters corresponding to the plurality of input channels. Circuits 106, 110, and 111. The counter circuits 106, 110, and 111 count the clock CK 80 synchronized with the input serial data DMU on the basis of the detection signal, and generate address data BWN. The bit pattern detecting means 83 is composed of a circuit, The channel for fetching the data DT is sequentially switched, and the detection result is sequentially output for each input channel. The address data generation means 84 sequentially outputs the detection result of the bit pattern detection means 83 to the plurality of counter circuits 106, 110, 111. The count operation of the counter circuits 106, 110, 111 corresponding to the input serial data DMU of each input channel is synchronized.
[0013]
Further, in the third invention, the address data generating means 84 has an out-of-synchronization detection circuit 113 for detecting out-of-synchronization of the count operation, and the counter circuits 106, 110, The detection result of the bit pattern detection means 83 is input to 111 to synchronize the counting operation.
[0014]
In the fourth aspect of the invention, in the data transmission apparatus 1 that processes input serial data DMU input via a plurality of input channels, the input serial data DMU is in units of frames during a predetermined identification data allocation period. A predetermined value of identification bits is sequentially allocated for each predetermined bit, and a predetermined bit pattern (FAW) is formed by the identification bits of the identification data allocation period. The data transmission apparatus 1 converts the transmission rate of the input serial data DMU. The serial data generation means 82 for generating the conversion serial data DT in which the input serial data DMU of a plurality of channels is continuous in units of bits by selectively outputting in units of predetermined bits, and the conversion serial for each input channel in units of bits. Detect bit pattern (FAW) by importing data DT When a bit pattern (FAW) is detected in a plurality of frames, a bit pattern detection unit 83 that outputs a detection signal and an address data generation unit 84 that generates address data BWN of the input serial data DMU based on the detection signal. And phase correction means 86 for correcting the phase shift between the input channels by converting the data array of the converted serial data DT with reference to the address data BWN. The phase correction means 86 is based on the address data BWN. A memory circuit 86 for sequentially storing the converted serial data DT and outputting the converted serial data DT stored with reference to the reference address data in a predetermined order, and a reference address generating means for generating the reference address data with reference to the address data BWN 46, 117, 118 and the reference address The generating means 46, 117, and 118 sequentially fetch the two address data BWN from the plurality of address data BWN corresponding to the plurality of input channels, and obtain the comparison result, thereby obtaining the most from the plurality of input serial data DMU. The input serial data DMU whose phase is delayed is detected, and reference address data is generated based on the address data BWN of the detected input serial data DMU.
[0015]
In the fifth aspect of the invention, the input serial data DMU is assigned channel data (L1, L2, L3) indicating the channel of each input serial data DMU in addition to the bit pattern (FAW). Based on the data (L1, L2, L3), the arrangement of the stored converted serial data DT is converted so that the channels are continuous and output.
[0016]
Further, in the sixth invention, the serial data generating means 82 allocates the input serial data DMU of each input channel to a predetermined time slot to generate the converted serial data DT, and transmits the number of input channels and / or the transmission of the input serial data. When the speed is switched, the time slot occupied by the input serial data DMU is switched, and the transmission speed of the converted serial data DT is kept constant even if the number of channels of the input channel and / or the transmission speed of the input serial data DMU is switched. Hold.
[0018]
[Action]
If the input serial data DMU is fetched by a plurality of systems of data input means 96A to 96F and held for a period corresponding to the identification bit allocation period, and a bit pattern is detected by the corresponding identification data detection means 97, any bit string Even if a bit pattern (FAW) exists, the bit pattern (FAW) can be detected easily and reliably in a short time.
[0020]
A plurality of self-propelled counter circuits 106, 110, 111 corresponding to a plurality of input channels generate address data BWN, and sequentially switch the input channels to be detected by the bit pattern detection means 83 to each counter circuit 106, If 110 and 111 are sequentially synchronized, one system of bit pattern detection means 83 can be switched and used, and the entire configuration can be simplified accordingly.
[0021]
At this time, the count operation is out of synchronization, and the count operation is synchronized by inputting the detection result of the bit pattern detecting means 83 to the counter circuits 106, 110, and 111 out of synchronization, thereby surely synchronizing the count operation. be able to.
[0022]
The conversion serial data DT is sequentially stored on the basis of the address data BWN, and then the conversion serial data DT stored on the basis of the predetermined reference address data BWN is output in a predetermined order to correct the phase shift between the channels. The two address data BWN are sequentially fetched from the plurality of address data BWN corresponding to the input channel of, the comparison result is obtained, and the input serial data DMU with the most delayed phase is detected from the plurality of input serial data DMU, By generating the reference address data based on the detected address data BWN of the input serial data DMU, the reference address data can be easily set.
[0023]
Based on the channel data (L1, L2, L3), the array of converted serial data DT can be converted so that the channels are continuous, and the array of channels can also be corrected.
[0025]
【Example】
Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
[0026]
(1) Overall configuration
In FIG. 1, reference numeral 1 denotes a video conference apparatus as a whole. A processor 3 is stored in a predetermined storage base 2, a monitor device 4 is disposed above the storage base 2, and an imaging unit is disposed above the monitor apparatus 4. 5 is arranged.
As a result, the video conference device 1 images the attendees of the conference lined up in front of the monitor device 4 with the imaging unit 5, processes the video signal as a result of the imaging with the processor 3, and sends the video signal to the call target in the form of a video. In addition, the image data of the moving image transmitted from the call target is received by the processor 3 and displayed on the monitor device 4.
[0027]
Further, the video conference apparatus 1 can connect a printer to the processor 3 to output an image transmitted from the object of the call, and further connect an image scanner and a document imaging apparatus to the processor 3 to connect these devices. A binary image (hereinafter referred to as a “document image”) and a color still image (hereinafter referred to as a “natural image”) that are input via the network can be transmitted to a call target.
Further, as in the case of image data, the video conference apparatus 1 modulates / demodulates the audio signal via the processor 3 and transmits / receives the audio signal to / from the call target, and directly inputs / outputs the audio signal to / from an external device. The audio signal is transmitted and received between the imaging unit 5 and the remote commander 6.
[0028]
The audio signal transmitted / received between the imaging unit 5 and the remote commander 6 is transmitted / received via the infrared ray L1. As a result, the video conference apparatus 1 connects the microphone 8 to the remote commander 6 and the audio of the conference attendee. Can be collected, and the voice of the call target can be monitored via a speaker provided in the remote commander 6.
Furthermore, the video conference apparatus 1 transmits and receives remote control signals for the processor 3 and the imaging unit 5 in addition to the audio signals between the imaging unit 5 and the remote commander 6, thereby operating the remote commander 6 to operate the monitor device 4. By selecting a menu displayed at the bottom of the display screen, the overall operation mode, the magnification of the imaging unit 5 and the like can be switched.
Accordingly, the video conference apparatus 1 can switch the operation mode and the like with a simple operation, and can improve the overall usability.
[0029]
Further, in this embodiment, the remote commander 6 is connected to a tablet, and sends out two-dimensional coordinate data input via this tablet to the imaging unit 5, and the imaging unit 5 sends the coordinate data to the processor 3. Output to. As a result, the video conference apparatus 1 is adapted to send the line drawing data input by operating the tablet to the object of call and to monitor it as necessary.
[0030]
(1-1) Processor
As shown in FIG. 2, the processor 3 inputs the video signal SV input via the image pickup unit 5 to the image input / output unit 10, and converts the video signal SV into a digital signal to generate a digital video signal. The digital video signal is compressed by the encoder / decoder unit 11.
In this process, the encoder / decoder unit 11 performs CCITT (commit consultative international telegraph and telephony), H.264, etc. The digital video signal is data-compressed according to the format defined in H.261, and the resulting image data D1 is output to the main processing unit 12.
Thereby, the video conference apparatus 1 can efficiently transmit the imaging result of the imaging unit 5 in the form of a moving image.
[0031]
On the other hand, among the image data transmitted through the line L from the call target, CCITT, H. The moving image data D1 compressed according to the format stipulated in H.261 is input from the main processing unit 12 to the encoder / decoder unit 11, where the data is decompressed, and then the image input / output unit 10 It is converted into a signal SVO and output to the monitor device 4.
[0032]
On the other hand, when the document imaging device 13 captures a document and transmits the captured image, the processor 3 converts the video signal output from the document imaging device 13 into a digital video signal by the image input / output unit 10. Then, the image data processing unit 14 compresses the data and sends the data from the main processing unit 12 to the call target.
As a result, the video conference device 1 can input a natural image via the document image capturing device 13 and transmit it to a call target as necessary.
[0033]
At this time, the image data processing unit 14 compresses a natural image captured by applying a data compression method (JPEG: joint photographic experts group) defined for a still image, and the resulting image data D2 Is sent to the call target via the main processing unit 12.
[0034]
On the other hand, the processor 3 inputs the image data of the document image to the image data processing unit 14 when transmitting the document image input via the image scanner 15 to the communication target, and the facsimile is defined here. Data compression is performed according to the processing procedure.
Furthermore, the video conference apparatus 1 sends the compressed image data D2 to the object of communication via the main processing unit 12, so that the video conference apparatus 1 can efficiently transmit the document image. Yes.
[0035]
On the other hand, when the image data of the natural image and the document image is transmitted from the call target, the image data processing unit 14 receives the image data D2 via the main processing unit 12, and decompresses the original image. After the reproduction, it is output to the printer 16 in response to the user's operation, converted into a digital video signal and output to the image input / output unit 10, where it is converted into a video signal and output to the monitor device 4.
Thereby, the video conference device 1 can monitor the natural image and the document image transmitted from the call target in the form of a still image on the monitor device 4 instead of or in addition to the video for the call, Further, it can be output to the printer 16 as required.
[0036]
Furthermore, in a series of processes in which a natural image and a document image are taken in and compressed, and then transmitted to the call target, the image data processing unit 14 sends the natural image and the document image to the monitor device 4 via the image input / output unit 10. Thus, the video conference apparatus 1 can monitor a natural image and a document image captured as necessary.
Further, when the monitor device 4 monitors the natural image and the document image transmitted / received to / from the call target, the image data processing unit 14 superimposes the line image input via the tablet 17 on the natural image and the document image. Thus, a process such as drawing can be executed on the display screen of the document image and the natural image.
[0037]
That is, the main processing unit 12 can connect the tablet 17 to the remote commander 6, and thereby can acquire the coordinate data via the transmission / reception unit 19.
Further, the main processing unit 12 sends the coordinate data to the call target in the form of line drawing data DW.
Further, the main processing unit 12 reproduces a line drawing image input by the user on the tablet 17 based on the line drawing data DW, and then converts the image data from the image data processing unit 14 to the image input / output unit 10 in the form of a digital video signal. And is superimposed on the natural image and the document image and displayed on the monitor device 4.
[0038]
As a result, the video conference apparatus 1 can input and communicate with each other on the document image or the natural image while monitoring the same document image or natural image as the call target ( (Telelighting)
[0039]
Further, the processor 3 processes the audio signal directly input / output with the external device and the audio signal input / output with the transmission / reception unit 19 by the audio processing unit 18.
That is, the video conference apparatus 1 receives the infrared ray L1 sent from the remote commander 6 by the transmission / reception unit 19 built in the imaging unit 5, and demodulates the audio signal and the control command here.
The audio processing unit 18 inputs the audio signal SA received by the transmission / reception unit 19 and the audio signal directly input from the external device in the form of a digital signal. 711 and G.E. The data is compressed according to the format specified in 722 and then output to the main processing unit 12.
[0040]
Furthermore, the audio processing unit 18 inputs audio data transmitted from the call target side via the main processing unit 12, decompresses the data here, outputs it to the transmission / reception unit 19, and directly outputs it to the external device.
Thereby, in the video conference apparatus 1, the microphone 8 can be simply connected to the remote commander 6 to make a call with the call target without connecting a cable to the processor 3 one by one.
[0041]
The main processing unit 12 converts the image data and audio data input in this way into CCITT, H.264. In accordance with the format stipulated in 221, the data is transmitted to the call target, and the data transmitted from the call target according to the format is separated into image data, audio data, etc., and output to each circuit block.
In other words, in this embodiment, the processor 3 has a connector for connecting an optical fiber and a connector for connecting an integrated service digital communication network on the back side, and thereby a 384 [kbps] line (that is, H) is connected via the optical fiber. 0 2 channels at the maximum, and 1536 [kbps] and 1920 [kbps] lines (ie H 11 Channel and H 12 64 kbps lines of INS network 64 (information network system 64), which is one of the integrated service digital communication networks, if necessary. Can be connected simultaneously in a range of 2 lines to a maximum of 6 lines.
[0042]
The main processing unit 12 inputs / outputs data to / from the call target via the line L, and responds to a control command input from the transmission / reception unit 19 and a control command DC transmitted from the call target to the bus BUS. A control command is output so that the operation of each circuit block can be switched as required.
That is, the encoder / decoder unit 11, the image data processing unit 14, and the audio processing unit 18 switch operations in response to a control command output from the main processing unit 12 via the bus BUS. The display image of the monitor device 4 can be switched as necessary, and the type of data to be transmitted to the call target can be switched.
[0043]
In response to the transmission of the control command, the processor 3 has a dedicated connection for image data and audio data input / output between the main processing unit 12, the encoder / decoder unit 11, the image data processing unit 14, and the audio processing unit 18. Input / output is performed via a line, so that a series of data compression and the like can be processed at a high speed.
[0044]
(1-1-1) Image input / output unit
As shown in FIG. 3, the image input / output unit 10 inputs an NTSC video signal SVI from the imaging unit 5 and the document imaging device 13 to the decoder 20 and converts it into a luminance signal and a color difference signal.
The analog digital conversion circuit (A / D) 21 converts the luminance signal and the color difference signal into a digital signal, and then outputs the digital signal to the encoder / decoder unit 11 or the image data processing unit 14 via the matrix circuit 22.
As a result, the image input / output unit 10 can capture moving image image data from the image capturing unit 5 as necessary, and can capture natural image data from the document image capturing device 13.
[0045]
Further, the image input / output unit 10 receives the moving image data D transmitted from the call target. V And menu image data D to be displayed on the monitor 4 ME Is received from the encoder / decoder unit 11 by the matrix circuit 22 and further output from the image data processing unit 14. MA Is received by the matrix circuit 22, and the output data of the matrix circuit 22 is output to the digital analog conversion circuit (D / A) 23.
At this time, the matrix circuit 22 responds to the user's operation and the image data D V , D ME , D MA And output these image data D V , D ME , D MA Are selectively synthesized and output.
[0046]
The digital-analog conversion circuit 23 converts the image data into a luminance signal and a color difference signal which are analog signals, converts the luminance signal and the color difference signal into an NTSC video signal SVO by the encoder 25 and outputs the video signal SVO to the monitor device 4. .
As a result, the image input / output unit 10 causes the image data D of the moving image transmitted from the communication target in the matrix circuit 22. V And menu image data D ME Is selected, the attendees to be called can be displayed together with the menu.
[0047]
Instead of this, in the matrix circuit 22, the image data D output from the image data processing unit 14 is used. MA The image data D ME When selected together, the image input / output unit 10 can display a natural image and a document image transmitted from the call target, and further display a natural image and a document image captured by the video conference apparatus 1 together with the menu. The document image can be displayed together with the line drawing image as necessary.
[0048]
Further, when the user selects the sub-screen display mode, the matrix circuit 22 outputs the image data selected for the sub-screen to the digital analog conversion circuit 23 via the sub-screen creation circuit (PINP) 24.
Thereby, the video conference apparatus 1 can display a small child screen on the main display screen as necessary, and can monitor, for example, a moving image and a document image, and further a moving image and a natural image at the same time. .
[0049]
Alternatively, the image input / output unit 10 replaces the image data D at the time of startup after power-on. ME Is selected by the matrix circuit 22, thereby displaying an initial screen and displaying a selectable menu.
In this embodiment, the image input / output unit 10 can output the video signal input to the decoder 20 directly to the monitor device 4, thereby monitoring the imaging result of the imaging unit 5. Yes.
[0050]
(1-1-2) Encoder / decoder unit and audio processing unit
As shown in FIG. 4, the audio processing unit 18 converts the audio signal SA input from the transmission / reception unit 19 or an external device into a digital signal by the echo canceller 27, and then the CCITT, G. 711 and G.E. The data is compressed in accordance with the format defined in 722 and output to the main processing unit 12.
Further, the audio processing unit 18 receives the audio data DA output from the main processing unit 12 in the audio data processing circuit 28, where the data is decompressed in reverse to the time of transmission, and the original audio data is restored. It is converted into an analog signal via the sera 27 and output.
[0051]
At this time, the echo canceller 27 temporarily stores the audio data sent to the call target in a predetermined data storage means, delays it, and subtracts it from the audio data arriving from the call target. An echo generated when an audio signal is transmitted and received using a satellite is reduced.
[0052]
On the other hand, the encoder / decoder unit 11 has the image data D of the moving image captured by the imaging unit 5. V Is received by the image conversion circuit 29 via the image input / output unit 10, and image conversion processing is performed here.
In this image conversion process, the image conversion circuit 29 has the image data D formed in the form of a luminance signal and a color difference signal with the number of horizontal scanning lines and the frame frequency of the NTSC format. V Image data D having 280 horizontal scanning lines and a basic frame frequency of 30 [Hz]. CIF To H. Image data D to be processed defined in H.261 CIF Is generated.
On the other hand, the encoder / decoder 30 performs this image data D CIF H. The data is compressed in accordance with the format defined by H.261, and the resulting image data is output to the error correction circuit 31 to which an error correction code is added, and then output to the main processing unit 12.
[0053]
As a result, the video conference apparatus 1 uses the H.264 standard defined in the CCITT recommendation for moving image data input via the imaging unit 5. Data compression is performed in accordance with the H.261 format.
Further, the error correction circuit 31 receives the image data D1 transmitted from the object of call from the main processing unit 12, performs error correction processing, and outputs it to the encoder / decoder 30. The encoder / decoder 30 CIF Is decompressed and output to the image conversion circuit 29.
[0054]
The image conversion circuit 29 receives the image data D CIF In contrast to the transmission, this image data D is interpolated. CIF The number of horizontal scanning lines and the frame frequency are converted into the number of horizontal scanning lines and the frame frequency of the NTSC format and output to the image input / output unit 10.
As a result, the video conference apparatus 1 The image data of the moving image transmitted according to the H.261 format can be monitored.
[0055]
The menu plane 32 is formed of a memory circuit storing image data, and stores image data D stored in response to a control command input from the main processing unit 12 via the bus BUS. ME Is selectively output to the image input / output unit 10, so that the video conference apparatus 1 can display a selectable menu on the display screen of the monitor device 4 as necessary, and this menu is displayed on the remote commander 6. It has been made so that you can choose.
[0056]
(1-1-3) Image data processing unit
As shown in FIG. 5, the image data processing unit 14 connects the local bus LBUS to the bus BUS via the bus controller 35, and the processor 3 connects the main processing unit 12 to this bus BUS.
On the other hand, the image data processing unit 14 connects a still image processing circuit 36, a binary image processing circuit 37, an image interface circuit (image IF circuit) 38, and an interface circuit (IF) 39 to the local bus LBUS.
[0057]
As a result, when a control command is input from the main processing unit 12 to the local bus LBUS via the bus controller 35, the image data processing unit 14 disconnects the local bus LBUS from the bus BUS, whereby the still image processing circuit 36, The binary image processing circuit 37, the image interface circuit 38, and the interface circuit 39 can independently access the arithmetic memory 40 and execute predetermined data processing.
[0058]
That is, the interface circuit 39 is a data input / output circuit of a SCSI (small computer system interface) system, sequentially inputs the image data of the document image input through the image scanner 15 and stores it in the arithmetic memory 40. Also, image data such as a document image stored in the arithmetic memory 40 is output to the printer 16.
[0059]
The binary image processing circuit 37 drives the controller 41 to access the calculation memory 40, thereby compressing the image data of the document image stored in the calculation memory 40 in accordance with the format specified for the facsimile, and the result The obtained image data is output to the image interface circuit 38.
[0060]
On the other hand, the binary image processing circuit 37 sequentially takes in the image data on the communication target side output from the image interface circuit 38 and decompresses the data, thereby compressing the data and transmitting the image of the document image. The data is restored, and the restored image data is stored in the arithmetic memory 40.
[0061]
On the other hand, the still image processing circuit 36 compresses the natural image data stored in the arithmetic memory 40 by applying the data compression method defined for the natural image, and the resulting image data is compressed. The image is output to the image interface circuit 38.
On the contrary, the still image processing circuit 36 takes in the image data to be talked from the image interface circuit 38 and decompresses the data, thereby restoring and calculating the natural image image data that has been compressed and transmitted. Store in memory 40.
[0062]
Thereby, the video conference apparatus 1 uses the arithmetic memory 40 by switching between the natural image and the document image, and compresses and decompresses the natural image and the document image.
[0063]
The image interface circuit 38 inputs and outputs image data D2 of natural images and document images between the still image processing circuit 36, the binary image processing circuit 37, and the main processing unit 12, and at this time, according to the protocol of the communication procedure. Then, by inputting / outputting the image data D2, the image data D2 is retransmitted in response to the retransmission request sent from the call target. Further, the image interface circuit 38 adds the restart marker code necessary for determining the retransmission request to the main processing unit 12 with the image data D2 added thereto. Further, for the image data D2 coming from the communication target, This restart marker code is detected and a retransmission request is output as necessary.
[0064]
The controller 41 controls the arithmetic memory 40 in response to a request from the still image processing circuit 36 and the binary image processing circuit 37, and thereby, between the still image processing circuit 36 and the binary image processing circuit 37 and the arithmetic memory 40. Desired image data can be input and output.
Further, the controller 41 switches the operation in response to a control command input from the main processing unit 12 via the bus BUS, whereby the image data in the arithmetic memory 40 is converted into an image FIFO (first in first out) 42 formed of a memory circuit. A natural image, a document image, and the like that are output to the image input / output unit 10 and stored in the arithmetic memory 40 can be monitored.
[0065]
When outputting the document image or the like to the image input / output unit 10, the memory controller 41 switches and generates address data in response to a control command output from the main processing unit 12. The document image or the like stored in is displayed at a desired magnification, and further scrolled and rotated to be displayed on the monitor device 4.
Thus, the video conference apparatus 1 can freely switch the display of the document image or the like in response to the control command transmitted from the call target and further in response to the user's operation of the remote commander 6.
[0066]
When outputting the document image or the like to the image input / output unit 10, the image FIFO 42 outputs image data via the matrix circuit 43, and the matrix circuit 43 stores the line drawing stored in the drawing plane 44 in the telelighting operation mode. And the image data output from the image FIFO 42 are added and output.
As a result, the video conference apparatus 1 can display a line drawing image on the natural image and the document image.
[0067]
That is, the drawing plane 44 stores the image of the line drawing by the main processing unit 12 writing the image data based on the line drawing data input via the tablet and the line drawing data transmitted from the call target. Has been made.
Thereby, the video conference apparatus 1 can be teleliteed on the document image and the natural image.
[0068]
Further, the controller 41 switches the operation of the image FIFO 42 to sequentially capture the imaging results of the document imaging device 13 input via the image input / output unit 10 into the arithmetic memory 40 via the image FIFO 42, thereby the image data Is compressed by the still image processing circuit 36 and transmitted.
[0069]
(1-1-4) Main processing unit
As shown in FIG. 6, the main processing unit 12 controls the operation of the entire video conference apparatus 1 by executing the processing procedure stored in the memory circuit 45 by the system controller 46.
That is, the system controller 46 detects the operation of the remote commander 6 via the interface circuit (IF) 47, thereby driving the line interface circuit (line IF) 48 in response to the user's selection operation. Connect the line to the desired call target.
[0070]
That is, the line interface circuit 48 is connected to a connector disposed on the back surface of the processor 3 so that desired data can be transmitted / received to / from a call target.
Further, when the system controller 46 sets a format of data to be transmitted by executing a predetermined communication protocol with the call target in this state, the encoder / decoder unit 11, the image data processing unit 14, and the audio processing unit 18 are subsequently set. A control command is issued to start a call.
[0071]
At this time, the system controller 46 activates the multiplexing circuit 49, and thereby the image data D1, D2 and audio data DA output from the encoder / decoder unit 11, the image data processing unit 14, and the audio processing unit 18 are stored. The multiplexing circuit 49 Multiplexed data DMU is generated by multiplexing according to the format 221, and this multiplexed data DMU is sent to the call target via the line interface circuit 48.
Further, the multiplexing circuit 49, on the contrary, inputs multiplexed data DMU transmitted from the call object via the line interface circuit 48, and separates it into image data D1, D2 and audio data DA. Output to circuit block.
[0072]
Further, when the user designates switching of the operation mode during a call with the call target, or when the multiplexed data DMU arriving from the call target is monitored and the operation mode is switched on the call target side, the system controller 46 The operation of the encoder / decoder unit 11, the image data processing unit 14, and the audio processing unit 18 is switched in response to the above, so that a natural image or the like can be transmitted instead of a moving image, and line drawing data or the like can be transmitted if necessary. Are designed to be able to send and receive each other.
[0073]
For this reason, the system controller 46 controls the overall operation and takes in the two-dimensional coordinate data input by operating the tablet 17 at a predetermined cycle, thereby expressing a line drawing such as a straight line by the coordinate data continuously. The line drawing data DW is output to the image data processing unit 14 and displayed on the monitor device 4, and is output to the multiplexing circuit 49.
Thus, the video conference apparatus 1 can allocate the line drawing data DW to a part of the multiplexed data DMU and transmit / receive it to / from each other.
[0074]
In this embodiment, the main processing unit 12 controls the overall operation via the external device by connecting the external device of the RS232C interface via the external bus interface circuit (external bus IF) 50. As a result, the video conference apparatus 1 can be connected to a separate controller as needed to control the overall operation.
[0075]
(1-2) Bus controller
By the way, as a method for controlling the overall operation by one system controller 46 as described above, as shown in FIG. 7, for example, a direct memory access controller (DMAC) is added to a processing circuit comprising a still image processing circuit 36, a binary image processing circuit 37, and the like. ) 54 and 55 are connected, and a central processing unit (CPU) 56 comprising a system controller and this direct memory access controller 54 and 55 can be connected (Japanese Patent Laid-Open No. 62-67653).
That is, the central processing unit 56 is connected to a common bus with the direct memory access controllers 54 and 55, and the direct memory access controllers 54 and 55 issue bus use requests HOLD1 and HOLD2 to the central processing unit 56 to grant permission to occupy the bus. Ask.
[0076]
The direct memory access controllers 54 and 55 temporarily store the bus use requests HOLD1 and HOLD2 in the register circuits (R) 57 and 58 and output them through the OR circuits 59A and 59B. The OR circuits 59A and 59B The use requests HOLD1 and HOLD2 are combined into one bus use request and output to the central processing unit 56.
When the central processing unit 56 recognizes the occupation of the bus in response to the bus use requests HOLD1 and HOLD2, the bus use permission signal HOLDA is transmitted via predetermined delay circuits (that is, daisy chain circuits (D)) D1 and D2. Is output to the direct memory access controllers 54 and 55.
[0077]
However, even if this method is applied, the system controller 46 and the circuit block such as the still image processing circuit 36 will eventually operate by occupying the bus BUS alternately in a time-sharing manner. Will be delayed.
That is, for example, while the natural image is processed by the still image processing circuit 36, the system controller 46 cannot access the bus BUS. For example, when the coordinate data input from the tablet 17 is processed by the system controller 46, the corresponding amount is not obtained. It takes time to process the coordinate data.
[0078]
One method for solving this problem is to assign a dedicated central processing unit to the local bus LBUS. In this case, the number of central processing units becomes two, and the overall configuration is complicated and enlarged accordingly. .
[0079]
Therefore, in this embodiment, as shown in FIG. 8, one central processing is performed by switching the occupation of the local bus LBUS between the system controller 46 and the still image processing circuit 36, the binary image processing circuit 37 and the like. The whole operation can be controlled by a unit (that is, composed of the system controller 46).
[0080]
That is, each of the still image processing circuit 36, the binary image processing circuit 37, the image interface circuit 38, and the interface circuit 39 has a direct memory access controller, thereby directly accessing the arithmetic memory 40 via the local bus LBUS. Has been made to get.
As a result, when the still image processing circuit 36, the binary image processing circuit 37, the image interface circuit 38, and the interface circuit 39 are each brought into an operating state when a control command is input from the system controller 46, the calculation memory 40 is uniquely set. Data processing can be executed in response to access and control commands.
[0081]
When none of the still image processing circuit 36, the binary image processing circuit 37, the image interface circuit 38, and the interface circuit 39 uses the local bus LBUS, the bus controller 35 and the system controller 46 and the still image processing circuit 36, the binary image processing circuit 37, the image interface circuit 38, and the interface circuit 39 hold the local bus LBUS and the bus BUS in a connected state so that the local bus LBUS can be used.
In this state, when an access request ACS for accessing any of the still image processing circuit 36, the binary image processing circuit 37, the image interface circuit 38, and the interface circuit 39 is input from the system controller 46, the bus controller 35 The hold act signals HOLDACK1 to HOLDACK4 are output, thereby setting a circuit block other than the still image processing circuit 36, the binary image processing circuit 37, the image interface circuit 38, or the interface circuit 39 corresponding to the access request to a standby state. .
[0082]
In this state, in response to a control command followed by the circuit block designated by the access request ACS, the operation state is started, and when the local bus LBUS occupation requests HOLD1 to HOLD4 are output from this circuit block, the bus controller 35 The connection between the BUS and the local bus LBUS is disconnected, and thereby the local bus LBUS is occupied by the circuit block that has started up in the operating state.
As a result, the system controller 46 issues a command to the still image processing circuit 36 to start processing of a natural image, or issues a command to the binary image processing circuit 37 to start processing of a document image. When the interface circuit 38 and the interface circuit 39 start input / output of image data, the connection between the bus BUS and the local bus LBUS is disconnected, so that various processes can be separately executed in parallel with these processes. .
[0083]
Therefore, the video conference apparatus 1 can control the entire operation with one central processing unit to simplify and downsize the entire configuration, and can prevent the processing speed from being delayed.
Further, the system controller 46 can freely execute various processes without being restricted by the operation of the still image processing circuit 36 and the like, and accordingly, the allocation of the memory map of the system controller 46 can be freely selected, and the degree of freedom of design can be selected. Can be improved.
[0084]
By the way, in this type of processing, the system controller 46 needs to monitor the processing status of each circuit block as necessary.
However, if the circuit block that has started up in the operating state is allowed to occupy the local bus LBUS until a series of processing is completed, it becomes difficult to monitor the processing status.
Incidentally, when processing a natural image, data transfer of about 500 [Kbytes] is required, and the occupation of the local bus LBUS is permitted until a series of processing is completed. Etc. cannot be accessed.
[0085]
For this reason, as shown in FIG. 9, each of the circuit blocks 36 to 39 occupies the local bus LBUS (FIG. 9A) in units of 1 [byte], whereas the bus controller 35 is a system controller. When an access request ACS is input from the controller 46 (FIG. 9B), a wait WAIT signal is sent to the system controller 46 (FIG. 9C), and the system controller 46 is held in a standby state.
[0086]
When data processing in units of 1 [byte] is completed in each circuit block 36 to 39 in this state, each circuit block 36 to 39 causes the hold signals HOLD1 to 4 to fall, and the bus controller 35 causes the hold signals HOLD1 to 4 to fall. , The wait WAIT signal is raised to permit the system controller 46 to access.
At the same time, the bus controller 35 raises the hold act signal HOLDACK to set the operating circuit block to the standby state (FIG. 9D), and connects the bus BUS and the local bus LBUS.
[0087]
As a result, the system controller 46 can determine, for example, how far the data processing has been completed by accessing the still image processing circuit 36 and whether or not it is operating normally. Launch.
As a result, the bus controller 35 lowers the hold act signal HOLDACK to cancel the standby state of the circuit block in operation, and the circuit block resumes the subsequent processing.
[0088]
(1-3) Teleliteing control
In this embodiment, the system controller 46 switches the overall operation mode to the drawing mode when the user operates the mouse connected to the remote commander 6 and moves the cursor to the drawing menu on the display screen and clicks.
When switching to this drawing mode, the system controller 46 switches to the teleliteing operation mode when the same document image or natural image as the call target is being displayed on the monitor device 4, and subsequently the call target. The line drawing data mutually input with the user is displayed on the document image or the natural picture, so that the line drawing data or the natural picture can be drawn and negotiated with the object to be called. .
[0089]
That is, when the system controller 46 transmits and receives a document image or a natural image to / from a call target in response to a user's selection operation, and stores the common document image or natural image in the arithmetic memory 40, the The image data stored in 40 is output to the image FIFO 42, thereby displaying a document image or a natural image on the monitor device 4.
The display of the document image or the natural image is performed in response to a control command sent from the video conference device to be talked in response to an operation of the user to be talked, or in response to an operation of the remote commander 6. 46 is executed by issuing a control command to the controller 41.
[0090]
Furthermore, after displaying the document image or the natural image, the system controller 46 issues a control command to the menu plane 32 to display the menu screen at the same time. When the document image is displayed at this time, the system controller 46 enlarges, reduces, scrolls, Allows you to select a rotation menu.
As a result, the system controller 46 issues a control command to the controller 41 to switch the address data when the enlargement / reduction / scroll / rotation menu is selected on the call target or on the video conference apparatus 1 side, and switches the address data. The image data in the arithmetic memory 40 is transferred again to the image FIFO 42, and the enlarged, reduced, scrolled and rotated document image corresponding to the selected menu is stored in the image FIFO 42.
Thereby, the video conference apparatus 1 can improve the usability by switching the display of the document image as necessary.
[0091]
On the other hand, in the drawing mode, the system controller 46 captures the coordinate data input via the tablet 17 at a predetermined period (for example, 20 sampling periods per second), so that the user draws on the tablet 17. A line drawing such as a straight line is input in continuous point coordinates.
Further, the system controller 46 adds a predetermined control code to the acquired coordinate data to convert it into line drawing data DW, and outputs this line drawing data DW to the multiplexing circuit 49.
As a result, the system controller 46 transmits the line drawing data DW to the call target.
[0092]
Further, the system controller 46 inputs image data to the drawing plane 44 based on the line drawing data DW, and thereby displays the line drawing image input by the user on the monitor device 4.
Thereby, the video conference apparatus 1 can display a line drawing on the document image and the natural image when the document image or the natural image is displayed in advance.
[0093]
Further, the system controller 46 inputs line drawing data DW coming from the calling object via the multiplexing circuit 49, and based on the line drawing data DW coming from the calling object in the same manner as the line drawing data DW inputted via the tablet 17. Thus, a line drawing image is formed, whereby the line drawing can be input and displayed on the same document image and natural picture, and teleliteed.
At this time, the display of the document image can be enlarged, reduced, rotated, and scrolled, so that the display of the document image can be switched and teleliteed as necessary. As a result, the video conference apparatus 1 can be used more easily than before. Has been made to improve.
[0094]
By the way, when the document image can be enlarged and rotated in telelighting as described above, when the user on the video conference apparatus 1 is performing line drawing input, the display of the document image may be switched on the call target side. .
For example, when a document image having a circuit diagram as shown in FIG. 10 is displayed, if the document image is scrolled on the call target side, the video conference apparatus 1 side instructs the transistor on the document image. Despite the input of an arrow, as shown in FIG. 11, the line drawing data representing this arrow may arrive after scrolling the document image on the call target side. In this case, the call target is not a transistor. The arrow indicates the output end of the capacitor.
[0095]
Further, in this case, the same state occurs on the video conference apparatus 1 side, and the same state occurs not only when the screen is scrolled but also when the document image is enlarged, reduced or rotated.
That is, if the document image can be enlarged, reduced, rotated, etc., in telelighting as described above, a state occurs in which the document image does not match the line drawing input by the user.
In this case, a user who is unfamiliar with the operation cannot use the video conference apparatus 1 freely.
[0096]
For this reason, in this embodiment, as shown in FIG. 12, when the user instructs to switch the display of the document image, the system controller 46 does not immediately switch the display of the document image, and the document control is a request for switching the document image. A request command REQA is sent to the call target (FIG. 12A), and a response command ACK responding to the document control request command REQA is input from the call target AI (FIG. 12B).
[0097]
Further, during a period T1 from the document control request command REQA until the response command ACK is input, the line drawing data DW and the like (hereinafter referred to as teleliteing information) input from the call target AI are the original document on the call target AI side. Due to the teleliteing information input on the image, the system controller 46 determines that the teleliteing information coming from the call target AI is valid during this period T1, and draws based on the teleliteing information. The image data of the plane 44 is updated, whereby the line drawing data transmitted from the call target AI is displayed on the document image before display switching.
[0098]
As a result, when switching the display of the document image, the video conference apparatus 1 displays the original document image until confirmation is obtained from the call target AI, and the teleliteing information input from the call target AI during this time is displayed on the original document image. Thus, a mismatch between the document image and the line drawing input by the user can be effectively avoided.
[0099]
Further, during this period T1, the system controller 46 interrupts the input of the coordinate data, stops the input of the telelighting information from the tablet 17, and when the response command ACK is transmitted from the call target AI side, the document control request The display of the document image is switched in the subsequent period T3 so as to correspond to the command REQA.
As a result, the system controller 46 switches the display of the document image in response to the user's operation, and then restarts the input of teleliteing information and sends it to the call target AI.
[0100]
Thereby, on the video conference device 1 side, even when the display of the document image is switched, the mismatch between the document image and the line drawing input by the user can be effectively avoided.
Further, during the period T3 during which the display of the document image is switched, the system controller 46 temporarily stores and stores the telelighting information transmitted from the call target AI side in the buffer memory. The image data of the drawing plane 44 is updated based on the lighting information, and thereby the line drawing data transmitted from the call target AI is displayed on the switched document image.
[0101]
That is, after the response command ACK is input, the teleliteing information that is subsequently input from the call target can be determined as the teleliteing information that is input on the document image whose display has been switched. Thus, it is possible to effectively avoid the mismatch between the document image and the line drawing input by the user by displaying the line drawing image superimposed on the document image after switching the display.
[0102]
On the other hand, when the document control request command REQ is input from the call target (in this case, the video conference apparatus 1 is on the call target AI side in FIG. 12), the system controller 46 issues a response command ACK. After that, the input of the coordinate data is interrupted to stop the input of the telelighting information, and then the display of the document image is switched so as to correspond to the document control request command REQA, and then the input of the telelighting information is resumed to make a call. Send to target.
[0103]
That is, when the display is switched in this way, the display of the document image may suddenly change while the user is inputting the line drawing, and the user who is unfamiliar with the operation may mistake the line drawing input.
For this reason, in this embodiment, the system controller 46 stops the input of the line drawing data DW for a predetermined period T2 after switching the display of the document image, and this erroneously operated data even if the user makes an erroneous operation. The wasteful input of DW can be prevented in advance.
[0104]
During a period T2 from when the document control request command REQA is input until the display switching of the document image is completed, the system controller 46 temporarily stores and holds the teleliteing information transmitted from the call target side in the buffer memory, When the switching of the display of the document image is completed, the image data of the drawing plane 44 is updated based on the temporarily stored telelighting information, thereby displaying the line drawing data transmitted from the call target AI.
[0105]
That is, after the document control request command REQA is input, the teleliteing information subsequently input can be determined as the telelighting information input on the document image whose display has been switched, whereby the system controller 46 can control the document control. When the request command REQA is input, the display is switched, and then teleliteing information is displayed on the display image, so that the mismatch between the document image and the line image input by the user can be effectively avoided.
[0106]
Thereby, a video conference apparatus can be carried freely and even a user unfamiliar with the operation can use it freely.
Furthermore, when switching document images, teleliteing information is stored in a temporary buffer memory, so that even if it takes time to switch the display, teleliteing can be performed without interrupting the conversation with the target of the call, improving usability accordingly. can do.
[0107]
When teleliteing with the call target in this way, the system controller 46 executes the processing procedure shown in FIG. 13 and controls the overall operation.
That is, when the power is turned on, the system controller 46 moves from step SP1 to step SP2, and displays the main menu as an initial screen here.
[0108]
This main menu displays a list of call targets registered in advance for selecting the call target. When the user selects the call target and clicks the mouse, the system controller 46 opens the line interface circuit 48. It is driven to connect the line L to this call object, and then a menu for selecting an operation mode is displayed. In this state, when the user or the call target designates the operation mode, the system controller 46 switches the entire operation mode to the designated operation mode.
[0109]
As a result, when the user or the object of the call selects the transmission display of the document image or the natural image, the system controller 46 takes the document image or the natural image into the calculation memory 40 and then calls the image data of the document image or the natural image. The image data of the document image or the natural image that is transmitted to the target and is transmitted from the target of the call instead is stored in the arithmetic memory 40.
[0110]
Further, the system controller 46 outputs a control command to the controller 41, displays the document image or natural image on the monitor device 4, and then moves to step SP3, where the user sets the operation mode of drawing (shown as DRAW in FIG. 13). It is determined whether or not it has been selected.
If a negative result is obtained here, the system controller 46 repeats step SP3, and when the user selects an operation mode such as moving image transmission at this time, the entire operation is switched to the corresponding operation mode.
[0111]
On the other hand, when the user selects the drawing menu, the system controller 46 proceeds to step SP4 when a positive result is obtained in step SP3, and switches the menu screen of the monitor device 4 to the drawing menu screen. Thereafter, the process proceeds to step SP5.
[0112]
Here, the system controller 46 determines whether or not a drawing drawing request is input from the remote commander 6 in response to the user selecting a menu such as input of a straight line, input of a curve, or line drawing erasure. If a result is obtained, the process directly proceeds to step SP6, whereas if a positive result is obtained here, the process proceeds to step SP7.
In this step SP7, the system controller 46 adds the control code to the coordinate data sequentially input according to the menu selected by the user to generate the telelighting information DW, and sends this telelighting information DW to the call target. Then, the image data of the drawing plane is updated based on the DW in the telelighting information.
[0113]
As a result, the system controller 46 executes the drawing drawing process. When a document control request command REQA is input from the call target during this process, the system controller 46 executes the communication procedure described above with reference to FIG. This effectively avoids inconsistencies between the input line drawings.
Subsequently, when the user stops the input of the line drawing, the system controller 46 moves to the following step SP6, where the user to be called selects a menu such as input of a straight line, input of a curve, deletion of a line drawing, and thereby drawing drawing. It is determined whether or not the request is input from the call target.
[0114]
If a negative result is obtained here, the system controller 46 proceeds directly to step SP8, whereas if a positive result is obtained here, the system controller 46 proceeds to step SP9.
In this step SP9, the system controller 46 subsequently updates the drawing plane image data based on the teleliteing information DW inputted from the calling object, thereby executing the remote drawing drawing process controlled by the calling object. Then go to step SP8.
[0115]
Subsequently, the system controller 46 determines whether or not a screen control key consisting of a menu such as enlargement, scrolling, and rotation has been selected. If a negative result is obtained here, the process directly proceeds to step SP10, but here affirmative. When the result is obtained, the process proceeds to step SP11.
In step SP11, the system controller 46 executes the screen control key process shown in FIG. 14, thereby executing the communication procedure described above with reference to FIG.
[0116]
That is, the system controller 46 moves from step SP12 to step SP13, where it sends a document control request command REQA to the call target, and then moves to step SP14, where it determines whether or not a drawing drawing request has been input from the call target. .
If a negative result is obtained here, the system controller 46 proceeds directly to step SP15. If a positive result is obtained here, the system controller 46 proceeds to step SP16 and executes a drawing drawing process of the remote control.
[0117]
That is, the system controller 46 determines that the telelighting information coming from the call target AI is valid, updates the image data of the drawing plane 44 based on this telelighting information, and thereby the line drawing transmitted from the call target AI. Display the data on the document image before switching the display.
Thus, after processing the teleliteing information coming from the call target during the period T1, the system controller 46 proceeds to step SP15, where it determines whether or not a response command ACK has been input from the call target.
[0118]
If a negative result is obtained here, the system controller 46 returns to step SP14, whereas if an affirmative result is obtained here, the system controller 46 proceeds to step SP17 to display a document image corresponding to the operation of the screen control key. This processing procedure is completed in the switching and subsequent step SP18.
[0119]
When this screen control key process is completed, the system controller 46 proceeds to step SP10, determines whether or not the document control request command REQA is input from the object to be called, and if a negative result is obtained here, the system controller 46 proceeds to step SP19. On the other hand, if a positive result is obtained here, the process proceeds to step SP20.
In step SP20, the system controller 46 executes the screen control request process shown in FIG. 15, thereby executing the communication procedure described above with reference to FIG.
[0120]
That is, the system controller 46 moves from step SP21 to step SP22, where it sends a response command ACK to the call target, and then switches the display of the document image in response to the document control request command REQA in the subsequent step SP23. Moving to SP24, this processing procedure is terminated.
As a result, the system controller 46 determines whether or not the end (EXIT) menu for instructing the end of the drawing mode is selected in the following step SP19. If a negative result is obtained here, the process proceeds to step SP7. If a positive result is obtained, the process returns to step SP2.
[0121]
(1-4) Image data processing
(1-4-1) Operation memory
In this embodiment, the image data processing unit 14 can simplify the overall configuration by sharing the arithmetic memory 40 for natural images and document images.
That is, as shown in FIG. 16, the arithmetic memory 40 is formed by using eight 8-bit 128 [kbit] memories 40A to 40H, and the address data is switched by the address generation circuits 41A and 41B forming the memory controller 41. Thus, a natural image and a document image can be stored.
[0122]
That is, as shown in FIG. 17, when storing the NTSC luminance signal, the arithmetic memory 40 requires an area for storing image data of 704 pixels in the horizontal direction and 480 pixels in the vertical direction.
On the other hand, when storing a PAL luminance signal, the arithmetic memory 40 requires an area for storing image data of 704 pixels in the horizontal direction and 576 pixels in the vertical direction.
On the other hand, since the color difference signal is not visually perceived as being degraded in resolution as compared with the luminance signal, the U and V components have the same number of pixels as the number of pixels determined by the luminance signal. An area to store data is required.
[0123]
That is, when storing NTSC and PAL natural images, the arithmetic memory 40 requires a memory capacity of 8 bits × 704 × 576 × 2 for the luminance signal Y and the color difference signals U and V, respectively.
On the other hand, in the case of this embodiment, a memory capacity of 2376 dots in the horizontal direction × 1728 dots in the vertical direction is required by taking the document image up to the size of the A4 size with a resolution of 8 [lines / mm].
[0124]
Therefore, in this embodiment, when storing the natural image, the arithmetic memory 40 allocates a memory space of 1024 × 480 so as to correspond to the horizontal direction and the vertical direction of the natural image, thereby reducing the memory space having a depth of 16 bits. The image data of the luminance signal and the color difference signal is captured.
Further, the memory space allocated in the horizontal direction as shown by the arrow a is allocated to the memory space in the vertical direction which is insufficient by allocating the memory space in this way, and thereby any image data of the PAL system and the NTSC system is allocated. Can also be stored.
[0125]
On the other hand, as shown in FIG. 18, in the case of storing a document image, the arithmetic memory 40 forms a memory space so that eight memories are arranged in a plane with a depth of 1 bit, whereby a maximum of 4096 × Binary data of 2048 pixels is stored.
As a result, the video conference apparatus 1 can switch the address data of the calculation memory 40 to store the natural image and the document image, and can share the calculation memory 40 with the natural image and the document image.
[0126]
Therefore, the address generation circuits 41A and 41B sequentially generate address data corresponding to the odd field and even field of the display image, respectively, and at this time, by switching the address data between the natural image and the document image, a preset memory space is set. The image data corresponding to is stored.
That is, in the natural image, the address generation circuits 41A and 41B, as shown in FIG. 19, for the luminance signal Y, the first and second odd-numbered fields are input to the image data input in the order of raster scanning. The address data of the memories 40A to 40H is generated so that the memories 40A and 40B store image data alternately and continuously, and the fifth and sixth memories 40E and 40F alternately and continuously store image data in even fields. So as to store the address data of the memories 40A to 40H.
[0127]
On the other hand, for the color difference signals, the address generation circuits 41A and 41B output the U component and V component image data in the odd field to the third and fourth, respectively, with respect to the image data input in the order of raster scanning. The address data of the memories 40A to 40H is generated so as to be stored in the memories 40C and 40D, and the U component and V component image data are stored in the seventh and eighth memories 40G and 40H, respectively, in an even field. The address data of the memories 40A to 40H are generated. As a result, the address generation circuits 41A and 41B transfer the image data to the image FIFO 42 to form a display image, transfer the image data to the still image processing circuit 36 and compress the data, and further the image FIFO 42 or the still image. When the image data is taken in via the processing circuit 36, address data can be easily generated.
[0128]
On the other hand, in the case of a document image, the address generation circuits 41A and 41B, as shown in FIG. 20, address data so as to sequentially and sequentially assign the first to eighth memories 40A to 40H to each line of the document image. Is generated.
As a result, the address generation circuits 41A and 41B further switch the image scanner 15 when inputting / outputting image data to / from the binary image processing circuit 37, transferring image data to the image FIFO 42, and forming a display image. The address data can be easily generated when the image data is taken in via.
[0129]
Further, the address generation circuits 41A and 41B each have two systems of address generation circuits corresponding to the vertical direction and horizontal direction of the display image, respectively, thereby generating address data by switching the address generation circuits in a complementary manner. When a display image is formed by transferring image data to the image FIFO 42, a display image rotated 90 degrees vertically and horizontally can be easily formed.
[0130]
On the other hand, the image FIFO 42 is formed by FIFO 42Y1 and 42Y2 for the odd and even fields of the luminance signal and FIFOs 42C1 and 42C2 for the odd and even fields of the color difference signal. The image data corresponding to the four FIFOs 42Y1 to 42C2 is transferred from the arithmetic memory 40 and stored, and further transferred from the analog digital conversion circuit 21 and stored. The stored image data is transferred via the controllers 41Y and 41C. A display image can be formed by outputting to the matrix circuit 43.
[0131]
On the other hand, when displaying a document image, the image FIFO 42 converts the corresponding binary image data into 8-bit image data by the controller 41Y and stores it in the FIFOs 42Y1 to 42Y2 for luminance signals.
Further, when displaying the document image, the image FIFO 42 accumulates the image data delayed by one line in the remaining color difference signal FIFOs 42C1 and 42C2, and thereby the image data stored in the color difference signal FIFOs 42C1 and 42C2 is luminance. The corresponding image data stored in the signal FIFOs 42Y1 and 42Y2 are sequentially output at a timing delayed by one line, and continuous three lines of image data can be simultaneously output from the image FIFO 42.
[0132]
As a result, the image data processing unit 14 can reduce flicker of the display image by adding and outputting the three lines of image data by the flicker reduction circuit (built in the controller 41). Yes.
Therefore, the controllers 42Y and 42C forming part of the controller 41 can control the operations of the FIFOs 42Y1, 42Y2 and 42C1, 42C2 for the luminance signal and the color difference signal, respectively.
[0133]
Further, the controllers 42Y and 42C can feed back the output data of the FIFOs 42Y1, 42Y2, 42C1, and 42C2 to the input side, perform arithmetic processing with the output data of the arithmetic memory 40 by the built-in data processing circuit, and store the data again. Thus, a natural image transmitted by the PAL system or the NTSC system can be converted into the NTSC system or the PAL system to form a display image.
[0134]
Furthermore, the controllers 42Y and 42C execute the feedback process and the addition process on the document image, so that the vertical and horizontal magnifications of the display image are maintained at a constant value regardless of whether the monitor device 4 of the PAL system or the NTSC system is connected. It is made to be able to do.
In other words, this type of video conference apparatus 1 may use a PAL monitor device as a call target when teleliteing, and may use an NTSC monitor device 4 on this side.
[0135]
In this case, it is necessary for the video conference apparatus 1 to maintain the same vertical and horizontal magnification of the display image as that of the call target and to form the same display image.
For this reason, in this embodiment, the video conference device 1 forms the same display image as the call target on the connected NTSC monitor device 4 when the call target forms a display image on the PAL monitor device. In this way, the display image display is switched so that the aspect ratio of the call target and the display screen is kept the same.
[0136]
Similarly, by using this conversion process, the video conference device 1 is the same as the call target when the call target is an NTSC monitor device and a display image is formed and the PAL monitor device 4 is connected. The aspect ratio of the display image is held at a constant value so as to form a display image.
Thus, the video conference apparatus 1 can perform the NTSC system and PAL system image conversion processing by the image FIFO 42 in this way, thereby switching the operation mode of the image conversion circuit 29 and the circuit board of the image input / output unit 10. The PAL system and the NTSC system monitor device 4 and the imaging unit 5 can be easily connected to each other, and the usability can be improved accordingly.
[0137]
(1-4-2) Document image processing
As shown in FIG. 21, the arithmetic memory 40 sequentially inputs and stores the image data input in a line sequence from the image scanner 15 via the interface circuit 39, and then stores the image data stored in a predetermined order by 2 By outputting to the value image processing circuit 37, the document image is data-compressed and transmitted to the call target.
Further, the image data of the document image transmitted from the object of the call is decompressed by the binary image processing circuit 37 and sequentially stored, and is output to the interface circuit 39 at a predetermined timing, whereby the document image is output to the printer 16. To do.
[0138]
On the other hand, when displaying the document image, the arithmetic memory 40 sequentially outputs the image data to the image FIFO 42 based on the address data generated by the address generation circuits 41A and 41B.
At this time, the address generation circuits 41A and 41B can display the document image at a predetermined magnification, and rotate and scroll by switching the address data to be generated.
[0139]
At this time, since the number of pixels of the monitor device 4 is smaller than that of the document image, the arithmetic memory 40 reduces the number of pixels by the data conversion circuit 41D and stores the image data in the FIFO 42. At this time, the data conversion circuit 41D By converting binary data into multi-value data, a display image without a sense of incongruity can be formed. That is, when forming a display image with a reduced number of pixels in this way, a method of thinning out the image data to compensate for the insufficient resolution is also conceivable. There are drawbacks displayed.
[0140]
For this reason, in this embodiment, by compensating the resolution which is deteriorated by reducing the number of pixels with gradation, a straight line or the like can be displayed smoothly and a natural display image can be displayed.
[0141]
That is, when displaying a document image, the address generation circuits 41A and 41B sequentially generate address data according to a display mode such as a magnification selected by the user, and thereby transfer image data to and from the FIFO 42 in real time.
At this time, the data conversion circuit 41D converts the 16 binary image data into a single multi-value image data so that 16 pixels of the document image are allocated to one pixel of the display screen, so that the A4 fills the display screen. A size document image is displayed, thereby forming a display image with a magnification of 1 ×.
[0142]
On the other hand, as shown in FIG. 22, when the user selects a display mode with a magnification of 2 ×, the data conversion circuit 41 </ b> D has four pieces of 2 so as to assign four pixels of the document image to one pixel of the display screen. The value image data is converted into one piece of multi-value image data, whereby a part of the document image is displayed on the monitor device 4 and a display image with a magnification of 2 is formed.
Further, when the user selects a display mode with a magnification of 4 times, the data conversion circuit 41D converts the input binary image data into 1 so that one pixel of the document image corresponds to one pixel of the display screen. This is converted into multi-valued image data, whereby a part of the document image is displayed on the display screen to form a display image with a magnification of 4 times.
[0143]
At this time, as shown in FIG. 23 corresponding to FIG. 22, for example, when a display image is formed at a magnification of 2 ×, the data conversion circuit 41 </ b> D has binary image data for four pixels to be converted into one pixel on the display screen. And the number of white level pixels among these four pixels is detected.
Further, the data conversion circuit 41D normalizes this addition result, and when all four pixels are at the white level, the luminance level of the corresponding multi-value image data is set to the white level (that is, the luminance level is 100 [%]). (FIG. 23A).
[0144]
On the other hand, when three of the four pixels are at the white level (FIG. 23B), the data conversion circuit 41D corresponds to the multilevel image corresponding to the number of pixels at the white level relative to the total number of pixels. When the luminance level of data is set to a luminance level of 75 [%] and two of the four pixels are at the white level (FIG. 23C), the luminance level of the corresponding multi-value image data is similarly set to 50 [%]. ] Is set to the brightness level.
Further, when one of the four pixels is at the white level (FIG. 23D), and when all the four pixels are at the black level, the luminance levels of the corresponding multi-valued image data are respectively set to 25 [%] and 0 [%]. Thus, the binary image data is converted into multi-value image data and output.
[0145]
Further, in the case of the 1 × display mode, by converting 16 binary image data into one multi-value image data, the data conversion circuit 41D adds and normalizes the 16 image data to obtain 16 pieces. Are converted into multi-level image data of 16 gradations. Further, when a display image is formed at a magnification of 4 times, by converting one binary image data into one multi-value image data, the data conversion circuit 41D allows each of the binary image data to have a black level. At the level, the corresponding multi-valued image data is set to luminance levels of 100 [%] and 0 [%].
[0146]
As a result, when displaying the document image, the image data processing unit 14 can form a smooth continuous display image by adding and normalizing the image data corresponding to one pixel of the display screen, This makes it possible to display a natural display image by compensating the lacking resolution of the monitor device with gradation.
[0147]
As described above with reference to FIG. 20, in the case of this embodiment, the image data of the document image is sequentially and cyclically allocated to the eight memories 40A to 40H in units of lines, whereby the address generation circuits 41A and 41B By selecting these eight memories 40A to 40H and outputting common address data, it is possible to simultaneously read image data of eight continuous lines.
Further, in the case of a document image, image data of 8 pixels can be read at a time from the 8-bit memories 40A to 40H by forming the image data as binary data.
[0148]
As a result, as shown in FIG. 24, the arithmetic memory 40 can simultaneously output image data for 64 pixels of the rectangular partial area of the document image. In FIG. 24, the pixels corresponding to the memories 40A to 40H are represented by symbols A to H, respectively, and the pixels corresponding to the output bits are represented by the symbol D. 0 ~ D 7 Represented by
[0149]
As a result, the address generation circuits 41A and 41B collectively output the image data for 64 pixels to the data conversion circuit 41D at a time, and the data conversion circuit 41D has 16 pixels × 4 blocks according to the magnification selected by the user. The 64-pixel image data formed in step 4 is converted into multi-value image data of 4 pixels × 4 blocks and output as multi-value image data of 1 pixel × 4 blocks.
In other words, the data conversion circuit 41D assigns binary image data of 16 pixels per block to multi-valued image data of 16 pixels when the user selects a display mode of 4 times magnification, whereas the user performs display at a magnification of 2 times. When the mode is selected, one block of 16 pixels is divided into a region of 4 pixels × 4 blocks, and binary image data of each block of 4 pixels is assigned to one pixel of the display screen.
Further, when the user selects the display mode with a magnification of 1 ×, one block of 16 pixels is assigned to one pixel of the display screen.
[0150]
As a result, the address generation circuits 41A and 41B can switch the area of the document image to be assigned to the display screen by simply switching the generation start value of the address data, and can sequentially switch the start value to scroll the display screen. In addition, the document image can be displayed at a desired magnification simply by sequentially updating the address data in accordance with the processing speed of the data conversion circuit 41D.
On the other hand, the data conversion circuit 41D can form a display image with a desired magnification simply by selectively inputting sequentially input image data and converting it into multi-value data.
[0151]
As a result, the image data processing unit 14 can easily form the address generation circuits 41A and 41B and the data conversion circuit 41D with logic circuits, thereby converting the binary image data into multivalued image data in real time for processing. In addition, the video conference apparatus 1 can display a desired document image with a simple configuration as a whole.
When inputting / outputting document image data between the binary image processing circuit 37 and the interface circuit 39, the address generation circuits 41A and 41B sequentially select the first to eighth memories 40A to 40H. By generating the address data in a cyclic manner, the address data can be easily generated, and the image data can be input / output sequentially in a line sequential manner.
[0152]
(1-4-3) Image conversion
As described above, in this type of video conference apparatus 1, there is a case where a call target displays a document image on a PAL display screen. In this embodiment, the same display image as the call target is displayed. In order to display on the monitor device 4, the data interpolation circuit 41E executes interpolation calculation processing.
That is, in the PAL system and the NTSC system, an effective screen is formed with the number of vertical lines of 576 and 480, respectively, so that a display image of 6 lines is displayed in 5 lines of the NTSC system in the PAL system. .
[0153]
Therefore, when the same document image as the call target is monitored, and the call target and the video conference apparatus 1 monitor the document image with the monitor device of the PAL system and the NTSC system, respectively, the interpolation calculation method is applied. By converting the image data for 6 lines output from the arithmetic memory 40 into image data for 5 lines and storing it in the FIFO 42, a display screen can be formed with the same aspect ratio as that of the call target.
On the other hand, when the object to be called and the video conference device 1 are monitoring the same document image by the monitor device of the NTSC system and the PAL system, respectively, the image data for 5 lines output from the arithmetic memory 40 is 6 lines. By converting the image data into the image data and storing it in the FIFO 42, a display screen can be formed with the same aspect ratio as that of the call target.
[0154]
As described above, even if the communication target and the monitor device are different, if the display image can be formed with the same aspect ratio, the display position of the picture data to be transmitted separately is important when teleliting with the displayed document image. It is possible to achieve a smooth dialogue without making the video conference apparatus 1 easier to use.
[0155]
That is, when converting the binary image data to multi-value image data by applying the above-described method, the data conversion circuit 41D simultaneously converts adjacent two lines of image data into multi-value image data and outputs the multi-value image data.
[0156]
In FIG. 25, the interpolation circuit 41E is a monitor device of the NTSC system or the PAL system, and the video conference device 1 is connected to the video communication device 1 as indicated by arrows in the image data change from the NTSC system to the PAL system and from the PAL system to the NTSC system. When a PAL or NTSC monitor device is connected, the weighting coefficient is switched and the adjacent two lines of image data are weighted and added, so that the same screen as the call target can be displayed respectively. NTSC image data is generated.
[0157]
That is, when the subject of the call is an NTSC monitor device and a PAL monitor device is connected to the video conference device 1, the interpolation circuit 41E performs data conversion for the odd-numbered field (represented by the symbol O) for the first line. While the output data of the circuit 41D is stored in the FIFO 42 as it is, the image data of the odd-numbered first line and the even-numbered first line is 0.125 for the first line of the following even field (represented by the symbol E): Image data is generated by weighted addition with a weighted addition ratio of 0.875.
[0158]
On the other hand, when the subject of the call is a PAL system monitor device and an NTSC system monitor device is connected to the video conference device 1, the interpolation circuit 41E is the data conversion circuit 41D for the odd field first line. Output data is stored in the FIFO 42 as it is. For the subsequent even field first line, the image data of the even field first line and the odd field second line is weighted at a ratio of 0.750: 0.250. Image data is generated by weighted addition.
[0159]
When the image data is generated by weighted addition and stored in the FIFO 42 in this way, as shown in FIG. 26, the interpolation circuit 41E generates only the odd field image data during the first one field period. The image data is stored in the FIFO 42 (FIG. 26A).
On the other hand, during the subsequent one-field period, the interpolation circuit 41E generates and generates only even-field image data, and stores this image data in the FIFO 42 (FIG. 26B).
Correspondingly, the FIFO 42 sequentially stores the odd field image data output from the interpolation circuit 41E during the first one field period, and the even number output from the interpolation circuit 41E during the subsequent one field period. The field image data is sequentially input, and the stored odd field image data is fed back to the input side and sequentially stored again.
[0160]
As a result, the image data processing unit 14 converts the number of lines of the image data, and stores the resulting image data in the FIFO 42 for a period of one field, which is sequentially output from the arithmetic memory 40E. The number of lines can be easily converted by processing real-time image data.
That is, by reading 64 pieces of image data from the arithmetic memory 40 at a time, the data conversion circuit 41D can simultaneously generate multi-value image data for two lines in synchronization with the write timing of the FIFO 42.
[0161]
As a result, the interpolation circuit 41E inputs the multi-level image data for the two lines in parallel and performs interpolation processing, thereby synchronizing the even and odd field image data in units of one field in synchronization with the write timing of the FIFO 42. It can be generated alternately.
[0162]
On the other hand, the image data output from the FIFO 42 is formed by alternately outputting the image data of the odd field and the even field at the interlace timing to form the display image, thereby converting the image data of each line into the odd field and the even field. The display image can be formed with the same waiting time as when the processing is not executed by alternately writing to the FIFO 42.
[0163]
By the way, when the method conversion process is not executed in this way, the interpolation circuit 41E outputs the two lines of image data output simultaneously and in parallel from the data conversion circuit 41D to the image FIFO 42, and the image FIFO 42 outputs the two lines. The image data of the even field and the odd field can be selectively output by inputting / outputting the image data simultaneously in parallel and selectively outputting the image data by the flicker reduction circuit 41F.
[0164]
Further, this type of weighted addition processing can be easily formed by forming a logic circuit, so that the interpolation circuit 41E can be formed by the logic circuit and the output data of the arithmetic memory 40 can be transferred to the FIFO 42 in real time. Usability can be improved with a simple configuration as the entire video conference apparatus 1.
[0165]
Further, when the conversion of the number of lines is completed, the image data processing unit 14 continually outputs the image data of the FIFO 42 while interrupting the writing from the arithmetic memory 40. At this time, the output data of the FIFO 42 is input to the input side. The display image can be continuously displayed by returning to and storing again.
As a result, the video conference apparatus 1 is configured to feed back the image data of the FIFO 42 and sequentially output it in a cyclic manner unless the user again inputs a display switching instruction such as scrolling. Thus, the arithmetic memory 40 can be used for other processes.
[0166]
By the way, when the output data of the FIFO 42 is returned to the input side and stored again in this way, the image data of the FIFO 42 is stored with the image data stored in the arithmetic memory 40 only for a partial area of the display image among the image data stored in the FIFO 42. Can be updated.
Using this principle, when the user selects the window display mode, the controllers 41Y and 41C feed back only the image data of the area designated by the user and store it again in the FIFO 42, and store the remaining area in the arithmetic memory 40. Rewrite with image data.
[0167]
Thereby, the image data processing unit 14 diverts and displays only a partial area of the document image as necessary by diverting the PAL-NTSC conversion means.
At this time, by sequentially retrieving the document images into the arithmetic memory 40 and sequentially updating a partial area of the FIFO 42, a plurality of document images can be displayed in an index form like a multi-screen. Usability can be further improved with the configuration.
[0168]
By the way, when the number of lines is converted between the PAL system and the NTSC system in this way, an image defined in the CIF having an intermediate format is generated in the same manner as the image conversion circuit 29, and this image is converted into the PAL system and NTSC system. Consider how to convert to an image. However, this method has a feature that the image quality is deteriorated by forming an intermediate format image once.
Thus, in the case of this embodiment, the image data processing unit 14 converts the number of lines directly between the PAL method and the NTSC method without forming such an intermediate format image, thereby effectively reducing the image quality. It can be avoided.
[0169]
(1-4-4) Reduction of flicker
By the way, when displaying a document image in this way, one odd-numbered field line may be displayed in black, and an even-numbered field line adjacent thereto may be displayed in white. In this case, flicker occurs.
In particular, the PAL system has a disadvantage that the flicker is conspicuous because the frame frequency is lower than that of the NTSC system.
Furthermore, this type of document image has a feature that the brightness level changes abruptly between adjacent lines due to extremely high resolution, and flicker is conspicuous.
[0170]
Therefore, in this embodiment, the image data processing section 14 is configured to reduce the flicker by the flicker reduction circuit 41F.
As shown in FIG. 27, this flicker reduction principle is performed by weighting and adding consecutive three lines of image data, thereby mixing the luminance components of two adjacent upper and lower lines into the center line. Reduces sudden changes in brightness levels between fields.
[0171]
Therefore, when outputting the image data to the luminance signal FIFOs 42Y1 and Y2, the interpolation circuit 41E generates image data DL that is delayed by one line in addition to the continuous two lines of image data. Store in the signal FIFOs 42C1 and 42C2.
As a result, the FIFO 42 outputs the image data stored after being delayed by one line and the image data of two consecutive lines of odd and even fields to the flicker reduction circuit 41F at the same time. Are sequentially output in the order of raster scanning.
[0172]
The flicker reduction circuit 41F weights and adds the three lines of image data at a ratio of 1: 2: 1 so that the luminance components of the upper and lower lines are mixed into the luminance component of the central line by 25 [%]. Image data is generated, and the image data of the center line is output.
By generating the image data of the center line, when the line number conversion process is not executed, the image data output from the FIFO 42 is selected and output simultaneously and in parallel.
[0173]
On the other hand, when the line number conversion process is executed, the flicker reduction circuit 41F selectively outputs the odd field image data from the output data of the FIFO 42 by interrupting the flicker reduction process for the first field. The flicker reduction processing is executed from the subsequent field.
As a result, even when displaying a document image, the image data processing unit 14 can reduce a sudden change in luminance level between adjacent lines and effectively reduce flicker.
[0174]
By the way, as shown in FIG. 28, as a method for reducing a sudden change in luminance between adjacent lines in this way, a method of mixing luminance components between two adjacent lines can be considered. The resolution is inevitably reduced to ½.
Thus, as in this embodiment, the luminance component is mixed between three adjacent lines to reduce flicker, thereby effectively avoiding a reduction in vertical resolution and reducing flicker.
[0175]
(1-4-5) Line drawing recording
By the way, when teleliteing as in this embodiment, when the image of the drawing plane 44 and the image of the FIFO 42 are displayed in an overlapping manner, when the magnification of the display image is switched on the video conference device 1 or the call target side, the display screen is further displayed. When scrolling, there is a drawback that the line drawing input so far does not match the display of the document image.
[0176]
One method for solving this problem is to form the same memory space as the document image on the drawing plane 44, and to enlarge and scroll the image on the drawing plane 44 following the enlargement and scrolling of the document image. In this case, the configuration of the drawing plane 44 becomes large, and the peripheral circuit of the drawing plane 44 becomes complicated.
Therefore, in this embodiment, when the user switches the magnification of the display screen while the line drawing image is input to the drawing plane 44, the system controller 46 further scrolls and rotates the display screen. As shown, the image data of the line drawing stored in the drawing plane 44 is output to the arithmetic memory 40, and this line drawing is overwritten on the document image.
[0177]
That is, the system controller 46 sequentially reads image data such as line drawings from the drawing plane 44 and controls the address generation circuit 41H (FIG. 16) according to the document image display magnification and display position, thereby converting the coordinates of the image data. When all the images are stored in the calculation memory 40, the contents of the drawing plane 44 are cleared.
Thus, even when the document image is enlarged, scrolled, or rotated, the video conference apparatus 1 can display the line drawing input so far as it is at the display position on the original document image, thereby improving the usability. .
[0178]
Furthermore, by holding the line drawing image data in the drawing plane 44 until the document image is enlarged, scrolled, and rotated in this way, the contents of the drawing plane 44 can be updated as necessary to freely erase and rewrite the line drawing. It is possible to improve usability accordingly.
[0179]
(1-4-6) Natural image processing
On the other hand, when processing a natural image, as shown in FIG. 29, the image data processing unit 14 sequentially inputs the digital video signal input from the analog digital conversion circuit 21 to the FIFO 42 via the interpolation circuit 41E.
At this time, the FIFO 42 feeds back output data to the interpolation circuit 41E, and the interpolation circuit 41E sequentially adds and averages between the fed back image data and the image data output from the analog digital conversion circuit 21. Then, image data is generated, and the image data obtained by the averaging is sequentially output to the FIFO 42.
[0180]
As a result, the FIFO 42 can remove a noise component whose signal level changes between fields when a natural image is captured, and can store image data with reduced noise by repeating this feedback processing. Yes.
[0181]
Thus, the image data processing unit 14 can output the image data stored in the FIFO 42 to the digital-analog conversion circuit 23 via the controllers 41Y and 41C, and monitor the captured natural image. The image can be output to the still image processing circuit 36 and sent to the call target.
On the other hand, in the case of image data of a natural image sent from a call target, the image data processing unit 14 temporarily stores this image data in the arithmetic memory 40 via the still image processing circuit 36, and then in the case of a document image. In the same manner as described above, a display image can be formed by transferring to the FIFO 42 in real time.
[0182]
Here, this type of still image processing circuit 36 cuts out and processes image data in units of 8 pixels × 8 pixels by applying a method of orthogonal transformation.
Therefore, in this embodiment, the address generation circuits 41A and 41B select the first and second memories 40A and 40B alternately in the horizontal direction when transferring natural image data to the still image processing circuit 36. After the image data of the luminance signal for 8 pixels is transferred to the still image processing circuit 36, the fifth and sixth memories 40E and 40F are selected alternately, and the luminance signal for 8 pixels in the horizontal direction of the subsequent line is obtained. Is transferred to the still image processing circuit 36 (FIG. 19).
[0183]
When the transfer of the image data in units of 8 pixels is repeated for 8 lines in the vertical direction, the address generation circuits 41A and 41B subsequently select the third memory 40C and four image data in the horizontal direction (8 pixels of the luminance signal). Is transferred to the still image processing circuit 36. Subsequently, the seventh memory 40G is selected and four image data are transferred to the still image processing circuit 36 in the horizontal direction.
When the third and seventh memories 40C and 40G are alternately switched to transfer image data for eight lines in the vertical direction, the fourth and eighth memories 40D and 40H are similarly switched alternately for eight lines in the vertical direction. Are transferred to the still image processing circuit 36.
[0184]
Thus, even when the address data is switched between the natural image and the document image for processing, the image data processing unit 14 simply generates the address data and converts the natural image image data in units of 8 pixels × 8 pixels into the still image processing circuit. 36 can be output.
As a result, the still image processing circuit 36 can capture and process sequentially input image data in time series, simplify the configuration accordingly, and the image data processing unit 14 as a whole can easily receive address data. By being able to generate, the configuration can be simplified accordingly.
[0185]
On the other hand, when inputting image data output from the still image processing circuit 36, the address generation circuits 41A and 41B generate address data in the same manner as when outputting image data to the still image processing circuit 36. Thus, the image data processing unit 14 can store the image data sequentially demodulated by the still image processing circuit 36 in the arithmetic memory 40 in time series, and can simplify the entire configuration accordingly.
[0186]
On the other hand, as shown in FIG. 30, when displaying the image data transmitted from the call target and stored in the arithmetic memory 40, the image data processing unit 14 simultaneously selects and interpolates two consecutive lines of image data. Output to the circuit 41E.
Here, when the image data of the natural image transmitted from the object of the call is different from the method of the monitor device 4, the system controller 46 performs the two processes in the same manner as when the PAL-NTSC image conversion process is performed on the document image. Weighted addition of image data.
[0187]
Similarly, the FIFO 42 processes this image data for each odd field and even field in the same manner as when the PAL-NTSC image conversion process is performed on the document image.
As a result, the video conference apparatus 1 can convert the PAL-NTSC format image for the natural image, similarly to the case where the number of lines of the document image is converted and displayed, thereby further simplifying the overall configuration. Can do.
[0188]
Further, the video conference apparatus 1 also feeds back the output data of the FIFO 42 for the natural image and stores it again, thereby forming a multi-screen and a window display screen for the natural image in the same manner as in the case of the document image. In addition, a line drawing image can be stored in the arithmetic memory 40 from the system controller 46 and the line drawing can be overwritten on the natural picture.
Therefore, even a user who is unfamiliar with the operation can operate the natural image and the document image without distinguishing them, and the user can easily transport and improve the usability.
[0189]
(1-5) Data transmission
(1-5-1) Transmission data format
Here, CCITT, H.C. The format defined in 221 is defined in accordance with the transmission speed, and all transmit audio data or the like in units of continuous frames of 125 [μsec].
That is, in this format, when a plurality of lines with a transmission rate of 64 [kbps] are used, the channel of each line is defined as a B channel, and when a plurality of lines with a transmission rate of 384 [kbps] are used, 0 If the channel is defined as a channel and transmission speeds of 1536 [kbps] and 1920 [kbps] are used, H 11 Channel and H 12 It is defined as a channel.
[0190]
In this format, in each channel, 16 frames are continuously formed to form one multiframe, and two multiframes are continuously formed to form a submultiframe. The submultiframe is sequentially circulated in units of eight. Thus, one channel is continuously formed.
Of these, as shown in FIG. 31, in the B channel, 8 bits of serial data form 10 frames in 125 [μsec] cycles to form one frame of data, and the data in units of 8 bits is converted into octet numbers. On the other hand, each 8-bit column is represented by a subchannel.
[0191]
Of these, the 8th subchannel is called a service channel (SC). When transmitting moving image data and audio data, a frame synchronization signal (FAS), a bit rate allocation signal (BAS), and an encryption control signal (ECS) are transmitted. The remaining capacity is formed.
Among these, the encryption control signal is assigned to the 17th to 24th bits of the service channel as required, and can be used as a control code when transmitting the encrypted data.
[0192]
On the other hand, the bit rate assignment signal is assigned to the 9th to 16th bits of the service channel and represents the structure when data is transmitted using a plurality of channels, thereby transmitting this kind of data. The data transmission apparatus that receives the data reliably transmits the data transmitted on the basis of the bit rate assignment signal. The bit rate assignment signal can be used for control and notification.
On the other hand, the frame synchronization signal is assigned to the first to eighth bits of the service channel, and is assigned to multi-frame, sub-multi-frame, frame identification data and line identification data, thereby using a plurality of channels. A time lag between channels when data is transmitted can be corrected, and a bit boundary of data in each frame can be correctly detected.
[0193]
Thus, when data transmission is performed using the B channel, the video conference apparatus 1 connects a desired number of lines within a range of a maximum of 6 lines, and 64 [kbps] simultaneously in parallel to the connected lines. Data is sent out, so that it can be easily connected as a whole to an ISDN line or the like and easily transmitted at various transmission speeds.
[0194]
On the other hand, as shown in FIG. 0 The channel is formed so that one frame corresponds to 6 frames of the B channel, and serial data of 48 bits (consisting of 8 bits × 6) with a period of 125 [μsec] is 10 [msec] one frame of data. The 48 bit × 6 bit rows are represented by subchannels.
Furthermore H 0 The channel assigns the eighth subchannel to the service channel, and assigns the frame synchronization signal from the first bit to the eighth bit of this service channel, and the bit rate assignment signal from the ninth bit to the sixteenth bit.
[0195]
As a result, H 0 As in the case of the B channel, the channel can be connected to a plurality of lines so that desired data can be transmitted, and in the case of the video conference apparatus 1 of this embodiment, a maximum of two lines can be connected.
On the other hand, H 11 Channel and H 12 Channel is H 0 As in the case of the channel, each frame is formed so as to correspond to the 24 and 30 frames of the B channel, and serial data of 192 bits and 240 bits is continuously 10 [msec] in a cycle of 125 [μsec]. Frame data is formed so that data can be transmitted at transmission speeds of 1536 [kbps] and 1920 [kbps].
[0196]
For each frame, the video conference apparatus 1 allocates areas for moving image data, audio data, low-speed transfer data (hereinafter referred to as LSD data), and high-speed transfer data (hereinafter referred to as HSD data). The area is switched in accordance with the operation mode, whereby natural images, image data of document images, line drawing data, etc. are transmitted.
That is, the video conference apparatus 1 assigns natural images, document images, and line drawing data to HSD data and transmits them, and assigns data from a personal computer or the like input via the external bus IF circuit 50 to LSD data.
The video conferencing apparatus 1 transmits a control command for drawing, a control command for switching the operation mode, and the like using bits below the bit rate allocation signal of the eighth subchannel.
[0197]
As shown in FIG. 33, this data area switching is performed when the data transmission is performed using two lines of the B channel. The areas of the audio data and the moving image data (represented by video) are allocated in accordance with the format defined in 221, and the remaining areas are switched according to the user's operation and control commands sent from the call target. In this case, the symbol CPU represents data transmitted and received between the system controller 46 and the system controller to be called (FIGS. 33A to 33C).
In contrast to this, as shown in FIG. Audio data and moving image data are assigned to the first and second lines (represented by 1B and 2B) in accordance with the format defined in 221 and the remaining lines (represented by 3B) are allocated to moving image data or HSD data. (FIGS. 34A and 34B).
[0198]
Further, as shown in FIG. 35, when data transmission is performed using 6 B channel lines, Audio data and video image data are allocated to the first and second lines 1B and 2B in accordance with the format defined in H.221, and HSD data is allocated to the remaining lines (FIGS. 35A and 35B). Furthermore H 0 Channel, H 11 Channel and H 12 In the case of channel, data is allocated in the same way.
As a result, the video conference apparatus 1 can transmit various data by switching the operation mode as necessary.
[0199]
By the way, when a plurality of data communication lines of this type are used, and when the lines are congested, the plurality of lines may be connected to a call target via different routes.
That is, one of the multiple lines may be connected via a submarine cable, and the other line may be connected via a geosynchronous satellite. Even when a line is connected between them, a geostationary satellite on the Indian Ocean and a geostationary satellite on the Atlantic Ocean may be connected sequentially.
Therefore, when data is transmitted using a plurality of lines, the data transmitted from the call target may be greatly out of phase between the lines.
[0200]
On the other hand, H.C. In the case of transmitting moving image data and audio data 221, a phase shift can be corrected between channels using a frame synchronization signal.
However, when transmitting data other than moving image data and audio data, it is assumed that independent data is transmitted for each line, and therefore, there is a feature that a frame synchronization signal or the like is not defined.
[0201]
Therefore, when the image data of the document image is assigned to the HSD data and transmitted through a plurality of lines as in the video conference apparatus 1 of this embodiment, it becomes difficult to correct the phase shift, and the line itself is identified. May become difficult, and a correct document image may not be reproduced.
Therefore, in this embodiment, even when data other than moving image data and audio data is transmitted, the frame synchronization signal, bit rate allocation signal, encryption control signal are transmitted in the same manner as when moving image data and audio data are transmitted. To form a frame.
[0202]
As a result, even when various types of data other than moving image data and audio data are transmitted using a plurality of lines, the phase shift can be reliably corrected, and the transmitted lines are identified and the data is correctly restored. be able to.
[0203]
(1-5-2) Multiplexing circuit
(1-5-2-1) Generation of multiplexed data
By the way, when connecting various lines in this way, the video conference apparatus 1 needs to switch the transmission rate of data to be transmitted in the range from 64 [kbps] to a maximum of 1920 [kbps] according to the connected line.
On the other hand, the video conference apparatus 1 is required to multiplex image data, audio data, etc. by switching data mapping of each frame according to the operation mode.
In this case, if the clock frequency of the multiplexing process is switched according to the transmission speed, the configuration becomes complicated and the time required for the process increases.
[0204]
For this reason, in this embodiment, the video conference apparatus 1 can multiplex image data or the like using a single frequency clock by multiplexing data to be transmitted by forming a time slot. As a result, the overall configuration can be simplified.
That is, as shown in FIG. 36, the multiplexing circuit 49 supplies the bit clock and octet clock CK1 from the line interface circuit 48 to the reference clock switching circuit (reference CLK switching) 60, where the output data of the address decoder 61 is used as a reference. The operation of the clock switching circuit 60 is switched.
[0205]
As a result, the multiplexing circuit 49 drives the PLL circuit 62 with the output signal of the reference clock switching circuit 60, so that even when lines with various transmission speeds are connected, the clock CK having a predetermined frequency synchronized with the bit clock of this line. Is generated.
In this embodiment, the frequency of the clock CK is selected to be a frequency 2048 [kHz] which is 32 times the bit clock 64 [kHz] of the B channel, so that the multiplexing circuit 49 uses the clock CK as a reference. The clock frequency required for the multiplexing process is maintained at a single frequency.
[0206]
That is, as shown in FIG. 37, the multiplexing circuit 49 operates on the basis of the clock CK, thereby forming time slots TS1 to TS32 so as to be 32 consecutive during a period of 125 [μsec]. 8-bit data corresponding to one octet of each frame of the B channel is allocated to each of the time slots TS1 to TS32.
Thus, when six B channel lines are connected, the multiplexing circuit 49 sequentially maps image data, etc. in units of 8 bits to the first to sixth time slots TS1 to TS6 of the time slots TS1 to TS32. Then, one multiplexed serial data is generated, and the serial data is sequentially switched to each line and output, whereby the multiplexed image data is switched to a predetermined line and output.
[0207]
On the other hand, H 0 In the case of the channel, as shown in FIG. 38, the multiplexing circuit 49 transmits the 48-bit data during the period of 125 [μsec], thereby converting the first to sixth time slots TS1 to TS6 into the first. Allocation is made to the channel of the channel, and the subsequent seventh to twelfth time slots TS7 to TS12 are assigned to the channel of the second channel.
In this case, the multiplexing circuit 49 sequentially maps the data in the time slots TS1 to TS12 in units of 8 bits to generate one serial data, and switches the serial data to each line sequentially as in the case of the B channel. Thus, the multiplexed image data and the like are output to a predetermined line.
Furthermore H 11 Channel and H 12 In the case of the channel, the multiplexing circuit 49 assigns the first to twenty-fourth time slots TS1 to TS24 and the first to thirtyth time slots TS1 to TS30, respectively, to generate serial data mapping image data and the like. The serial data is output to the line and the multiplexed image data is output.
[0208]
That is, the multiplexing circuit 49 forms 32 time slots TS1 to TS32 during a period of 125 [μsec], and the time slots TS1 to TS32 are provided in units of 8 bits in accordance with the transmission speed of data output to the line. When switching the transfer rate of data to be output to the line by assigning data and generating one serial data, the time slot occupied by the data is switched to switch the transfer rate of the data. The data transfer speed can be easily switched by driving with CK.
Therefore, in the video conference apparatus 1, the entire configuration can be simplified and downsized accordingly.
[0209]
Therefore, the timing generation circuit 63 generates a reference signal for taking in data in each time slot with reference to the clock CK having the frequency of 2048 [kHz], and based on this reference signal, the speed conversion circuit 64 and the data time division. The operation of the circuit 65 and the CRC calculation circuit 68 is controlled.
On the other hand, the data time division circuit 65 has a memory space for time slot formation as described above, and sequentially captures image data and the like with reference to the mapping data DMAP output from the mapping memory 66. Thus, serial data is generated by sequentially assigning and multiplexing the image data of moving images to the time slots.
[0210]
At this time, the mapping memory 66 switches the mapping data DMAP based on the control data output from the address decoder 61, whereas the address decoder 61 performs this control in response to a control command output from the system controller 46. Switch data.
As a result, the multiplexing circuit 49 switches the mapping of the data time division circuit 65 in accordance with the operation mode of the video conference apparatus 1 according to the connected line.
[0211]
The data generation circuit 67 inputs the data of the frame synchronization signal and the bit rate allocation signal from the system controller 46, and outputs the data to the data time division circuit 65 at a predetermined timing, thereby this frame synchronization signal at a predetermined position corresponding to the service channel. The bit rate allocation signal is mapped.
The data time division circuit 65 sends the clock CLK to the audio data processing unit 18 and the encoder / decoder unit 11 at the timing of mapping the audio data and the image data, respectively. The audio data processing unit 18 and the encoder / decoder unit 11 Audio data and image data are output to the data time division circuit 65 based on the clock CLK.
[0212]
On the other hand, the speed conversion circuit 64 is composed of a random access memory circuit, and receives line drawing data DW input from the image data processing unit 14, the external bus interface circuit 50, image data D2 of natural images and document images, and the like. Input as HSD data and LSD data, convert the transmission rate, and output at the timing of mapping of the data time division circuit 65.
At this time, the timing generation circuit 63 switches the operation of the speed conversion circuit 64 based on the output data of the address decoder 61, thereby mapping out the HSD data and LSD data in the corresponding time slot.
[0213]
The data time division circuit 65 maps the data necessary for the time slot in this way, and the first to thirty-second time slots in units of octet numbers based on the clock output from the timing generation circuit 63. The sequentially mapped data is output sequentially and cyclically.
The CRC calculation circuit 68 takes in the output data, generates a CRC error correction code that is a cyclic code, outputs the error correction code to the data generation circuit 67 via the bus BUS and the system controller 46, and the data generation circuit 67. When mapping the data of the frame synchronization signal and the bit rate allocation signal to the data time division circuit 65, the error correction code is also mapped.
[0214]
As a result, the multiplexing circuit 49 can generate an error correction code by switching the operation timing of the CRC calculation circuit 68 according to the line, and can drive the CRC calculation circuit 68 at a single frequency. The configuration can be simplified.
Incidentally, this CRC error correction code is generated and processed using the free time of the time slot to which no data is assigned.
[0215]
As a result, the video conference apparatus 1 forms 32 time slots with respect to a maximum of 30 required time slots to ensure free time, and also uses this free time to correct CRC error. Even when a code is generated and the transmission speed is switched, data processing can be performed with a simple configuration as a whole.
The channel separation circuit 70 switches the output data of the data time division circuit 65 to the channel corresponding to the line and outputs it. The channel switching circuit 71 switches the output data of the channel separation circuit 70 to the channel set by the user. At this time, the transmission rate of the output data is converted into the transmission rate of each channel and output.
[0216]
As a result, the multiplexing circuit 49 generates multiplexed data DMU by multiplexing the image data and the like using a predetermined bit boundary, and outputs the multiplexed data DMU from the line interface circuit 48.
At this time, the multiplexing circuit 49 can switch the mapping data DMAP output from the mapping memory 66, thereby switching the mapping of the moving image data, HSD data, etc. according to the operation mode. Has been made to get.
[0217]
Further, the mapping memory 66 has first and second memory spaces so that the mapping can be quickly switched following the switching of the operation mode, and the first and second memory spaces are switched to switch the map. The mapping can be switched by switching the output of the ping data DMAP.
[0218]
(1-5-2-2) Separation of multiplexed data
On the other hand, with respect to the multiplexed data that is transmitted from the call target and is input via the line interface circuit 48, the multiplexing circuit 49 assigns this multiplexed data to the time slot as opposed to the time of transmission. After the serial data is generated, it is separated and output to each circuit block, so that even when the multiplexed data DMU is separated, the entire configuration can be simplified by operating with a single frequency clock. .
In addition, the multiplexing circuit 49 is further connected to the H channel when six B channels are connected. 0 When two channels are connected, a time slot is formed as in the case described above with reference to FIGS.
[0219]
As a result, as shown in FIGS. 39 and 40, the B channel and the H channel respectively. 0 When one channel is connected, the multiplexed data DMU is allocated to the first time slot TS1 and the first to sixth time slots TS1 to TS6, respectively, and is separated into image data, etc. As shown in FIG. 11 Channel and H 12 When the channels are connected, the multiplexed data DMU is assigned to the first to twenty-fourth time slots TS1 to TS24 and the first to thirtyth time slots TS1 to TS30, respectively, and separated into image data and the like.
[0220]
(1-5-2-3) Principle of phase shift detection
By the way, when data is transmitted using a plurality of lines, it is necessary to correct the phase of the data transmitted from the communication target that is greatly shifted between the lines.
For this purpose, a method of setting a predetermined reference, detecting the phase shift between the reference and each line for each line, and correcting the phase shift is conceivable. However, in this method, the overall configuration is complicated.
[0221]
Therefore, as shown in FIG. 43, the multiplexing circuit 49 corrects this type of phase shift by the phase shift correction circuit 80 and then forms a time slot by the mapping circuit 81 to separate the data.
[0222]
Here, as shown in FIG. The specified frame synchronization signal 221 is specified to assign the data “0011011” to the second to eighth octets of the even frame, whereby a continuous data string is sampled at an 8-bit period and this value “ By detecting the bit pattern “0011011”, the timing of the frame synchronization signal of the even frame can be detected.
As a result, H.C. The frame synchronization signal 221 defined is capable of detecting the byte boundary of the data in each frame based on this timing detection result. Further, for example, this timing detection result is obtained between two lines, and this timing detection is performed. Based on the result, the phase can be corrected to correct a maximum phase shift of 10 [msec].
[0223]
Further, when the frame synchronization signals are arranged in units of multiframes as shown in FIG. The frame synchronization signal 221 is defined such that the first octet of the odd-numbered frame is continuous with the value “001011” from the first sub-multiframe, whereby the first octet of the service channel is set between consecutive frames. And the value “001011” is detected to detect the timing of each frame in the multi-frame.
[0224]
As a result, H.C. The frame synchronization signal 221 is defined such that, for example, this timing detection result is obtained between two lines, and phase correction is performed based on this timing detection result to correct a maximum phase shift of 80 [msec]. Yes.
Further H. In the frame synchronization signal 221 defined, the first octet of the even frame is continued from the first sub-multiframe by “N1, N2, N3, N4”, and the value defined by the 5-bit data is the multiframe. It is stipulated that it switches cyclically every time.
[0225]
As a result, H.C. The frame synchronization signal defined by 221 can detect the timing of the multi-frame among the 16 multi-frames by detecting the value by detecting the first octet of the even-numbered frame. The phase shift of 1, 28 [sec] can be corrected.
In practice, in this type of data communication, if a maximum phase shift of 1, 28 [sec] can be corrected, the phase shift can be reliably corrected.
[0226]
Based on this phase shift detection principle, the multiplexing circuit 49 detects a phase shift between a plurality of lines and corrects the phase shift.
Hereinafter, the data for detecting the phase shift assigned to the frame synchronization signal is referred to as FAW.
[0227]
(1-5-2-4) Correction of phase shift
In FIG. 43, the multiplexing circuit 49 inputs the multiplexed data DMU output from the line interface circuit 48 to the data conversion circuit 82, where the data of a predetermined channel is continuous in a predetermined order in units of 8 bits. In this way, a time slot is formed to convert the input data of each line into serial data.
At this time, when a plurality of lines are connected, the data conversion circuit 82 forms a clock with a duty ratio of 50% on the basis of one of them, and samples the remaining lines on the basis of this clock. As a result, the data of each line is fetched with reference to this clock.
[0228]
Further, at this time, the conversion circuit 82 detects the timing at which the logic level of the remaining line is switched and the timing at which the data of each line is sampled. If this timing is close, the falling and rising edges of the clock are detected. The sampling timing is switched between the two, so that the transmitted data can be reliably captured.
In other words, the data transmitted through this type of line is not out of synchronization between lines, but has the feature of being out of phase. Thus, the data is captured by switching the timing between the falling edge and rising edge of the clock. Thus, the timing can be set once and data can be reliably fetched.
[0229]
Incidentally, when correcting such a phase shift, the phase of the data of each line can be adjusted to one clock by using the memory of the FIFO structure. However, in this method, the whole structure becomes complicated. Thus, in the case of this embodiment, the data of each line can be reliably fetched with a simple configuration.
Further, when the data is taken in, the conversion circuit 82 detects the byte boundary when the line into which the data is taken in is an ISDN line, so that the bit arrangement is corrected and taken in here.
[0230]
On the other hand, the FAW detection circuit 83 detects the FAW from the continuous data string in units of 8 bits, and the counter 84 drives a predetermined ring counter for each line on the basis of the FAW detection result.
As a result, the multiplexing circuit 49 detects the octet number and bit boundary of the data input via each line by the counter circuit.
[0231]
Based on the detection result of the bit boundary, the bit switching circuit 85 corrects the output data of the data conversion circuit 82 so that the data of the same optic number is continuous in units of 8 bits for each line, and the corrected data is stored in the buffer memory. 86.
At this time, the buffer memory 86 sequentially inputs the data based on the detection result of the optic number, and outputs the data sequentially stored with reference to the reference data input via the selector 87, and thereby, in the order of the channels. The data is output so that the data of the same optic number is continuous in units of 8 bits, and the phase shift between the channels is corrected.
[0232]
At this time, the buffer memory 86 corrects the phase shift in the 8-bit parallel data format by inputting / outputting data in units of time slots, and the parallel serial conversion circuit (P / S) 88 converts the data to the original serial data format. To do.
The error correction circuit 89 performs error correction processing on the bit rate assignment signal and the like, and the CRC error correction circuit 90 performs error correction processing on the entire data based on the error correction code added at the time of transmission.
[0233]
At this time, the error correction circuit 90 is configured to perform error correction processing using the idle time of the time slot to which no data is allocated, so that the video conference apparatus 1 can transmit and receive data even when the transmission speed is switched. The error correction process can be performed with a simple configuration.
The BAS detection circuit 91 detects a bit rate assignment signal and outputs it to the system controller 46, so that the system controller 46 can receive a control command and the like sent from the call target.
[0234]
The mapping circuit 81 selectively outputs the output data of the parallel-serial conversion circuit 88 based on the mapping data output from the system controller 46, whereby the multiplexing circuit 49 causes the multiplexed audio signal to be transmitted. Data and the like are separated and output to corresponding circuit blocks.
At this time, the multiplexing circuit 49 converts the transmission speed via the speed adjustment circuit 92 and outputs the user data output via the external bus interface circuit 50 or the like.
[0235]
As shown in FIG. 46, the FAW detection circuit 83 receives the output data DT of the data conversion circuit 82 in the serial / parallel conversion circuit (S / P) 95, and first, the 8-bit assigned to the first time slot. Data is converted into parallel data and output.
The registers (R) 96A to 96F are connected in series and sequentially transfer 8-bit parallel data in a cycle in which the first time slot is repeated. The pattern detection circuit 97 outputs the output data of the serial / parallel conversion circuit 95, Output data of these registers 96A to 96F are inputted in parallel.
[0236]
As a result, the pattern detection circuit 97 inputs 7 bytes of continuous 8-bit data extracted from the data assigned to the first channel, and detects whether each 7-byte bit is continuous with the value “00111011”. To do.
That is, the pattern detection circuit 97 cuts out this 8-bit × 7-byte data string, and then detects a timing that matches the value “0011011” of the second to eighth octets assigned to the frame synchronization signal.
[0237]
When detecting this timing, the pattern detection circuit 97 inputs the output data of the serial / parallel conversion circuit 95 and the registers 96A to 96F into the eight masks of the value “00111011” for each bit string, and compares the result. As a result, the FAW is detected in 8 systems at the same time, and the output data of 8 bits is lowered and the detection result DFAW is output so as to correspond to the matched bits.
As a result, the pattern detection circuit 97 detects the FAW in parallel for each of the first to eighth bits of one time slot, so that the FAW can be detected easily and reliably in a short time. Has been made.
[0238]
By the way, in this type of image data and audio data, when a frame is formed as described above with reference to FIG. 44, 7-bit data arranged in the vertical direction may continue with the same value as the FAW pattern.
Therefore, it is not possible to determine whether or not a correct FAW has been detected simply by detecting a bit pattern having this value “0011011”.
For this reason, in this embodiment, the pattern detection circuit 97 outputs 8-bit output data as a detection result to the FAW determination circuits 98A to 98H one bit at a time, and determines whether or not the result is a correct FAW detection result.
[0239]
As shown in FIG. 47, the FAW determination circuits 98A to 98H are formed in eight systems with the same circuit configuration so as to correspond to the detection result DFAW, and the respective bits DFAW1 to DFAW8 of the FAW detection result DFAW are respectively used as the octal counter 99. Each bit FAW8 (FAW81 to FAW88) of the output data of the latch circuit 95F is input to the selector 100 so as to correspond to the bits DFAW1 to DFAW8.
The 80-adic counter 99 is formed of an 80-adic ring counter. When the logic levels of the bits DFAW1 to DFAW8 fall, the count of the clock CK80 having a frequency of 8 [kHz] synchronized with the time slot formation cycle is started. When the count value reaches 80, the carry signal CARRY is raised.
[0240]
As a result, when the FAW detection result DFAW is obtained, the 80-adic counter 99 counts data of the same time slot from the corresponding input data in units of 80 bits, and outputs the count result as a carry signal CARRY.
The binary counter 101 is formed of a binary counter that operates with reference to the clock CK80. By counting the carry signal CARRY, the output of the binary counter 101 is output when a period of 2 frames elapses from the timing when the FAW detection result DFAW is obtained. Raise the logic level.
Thus, when the FAW detection result DFAW1 is correct, the FAW determination circuits 98A to 98H can obtain the FAW detection result DFAW1 again at the timing when the logic level of the binary counter 101 rises, and the timing when the logic level of the carry signal CARRY rises. Thus, it is possible to detect data of an odd frame, a service channel, and octet number 2.
[0241]
Here H. According to the definition of 221, the odd frame, service channel, and octet number 2 data are always held at the value “1” (FIG. 45). If the FAW detection result DFAW1 is correct, the carrier signal When the CARRY logic level rises, the input data FAW81 to FAW82 of the selector 100 also rises simultaneously.
Accordingly, the selector 100 alternately outputs the FAW detection result DFAW1 and the input data FAW81 to FAW82 of the selector 100 at the timing when the logic level of the binary counter 101 is switched, and when the correct FAW detection result DFAW1 is obtained as a result, The selection result in which the logic level is continuously held at the value “1” is output.
[0242]
The six-stage protection circuit 103 determines that the correct FAW detection result DFAW1 has been obtained and outputs the detection result to the system controller 46 when the logic level of this selection result is continuously held at the value “1” six times. To do.
In practice, H. If the FAW bit pattern defined by H.221 continues for 6 frames, it can be determined that the correct pattern has been detected reliably, and thus the frame synchronization signal can be reliably detected.
[0243]
On the other hand, if the logic level of the selection result does not rise continuously 6 times, the 6-stage protection circuit 103 outputs a reset signal to the 80-digit counter 99 and the counter 101, whereby the FAW detection circuit 83 The FAW detection process is restarted for.
Thus, in this embodiment, eight FAWs are detected simultaneously in parallel, and one FAW detection result DFAW1 (DFAW2 to DFAW2) is determined by determining whether the FAW determination circuits 98A to 98H are correct FAW detection results for each system. Even if the DFAW 8) is erroneous, it is simultaneously determined in parallel whether or not the other FAW detection result is the correct FAW detection result, so that the FAW can be detected easily and reliably in a short time.
[0244]
When the FAW detection result is obtained in this way, the system controller 46 starts up the operation of the counter 84.
Here, the counter 84 has six systems shown in FIG. 48, and detects the octet number of each line in each system.
[0245]
That is, the six-system counter 84 receives the carry signals CARRY 1 to 8 from the eight-system FAW detection circuit 83 to the selector 105, and detects one-system FAW detection based on a selection signal output via the system controller 46. The carrier signals CARRY 1 to 8 output from the circuit 83 are selectively input.
Therefore, when the correct FAW detection result is obtained for the first time slot, the system controller 46 selects and inputs the carry signal CARRY to the first counter 84 from the FAW detection circuit 83 that has obtained the correct detection result. The selection signal SEL is output through a predetermined reference signal generation circuit.
[0246]
When the carrier signal CARRY1 is selected in this way, the counter 84 loads the carrier signal CARRY1 into the 160-digit ring counter 106 operating with the clock CK80 having a frequency of 8 [kHz].
Accordingly, the counter 84 is configured to generate a count value corresponding to the octet number in sub-multiframe units by the ring counter 106.
[0247]
The serial / parallel conversion circuit 107 converts the time slotted serial data DT, which is output data of the data conversion circuit 82, into parallel data and outputs the parallel data.
The selector 108 starts to operate in response to the selection signal SEL, and selectively outputs one time slot data from the parallel data so as to correspond to the time slot from which the FAW detection result is obtained.
[0248]
The detection circuit 109 selectively inputs 1-bit data per frame from the output data of the selector 108 based on the count result of the ring counter 106, thereby selectively inputting the data of the octet number 1 of the service channel. (FIG. 44).
Further, the detection circuit 109 monitors the data of this octet number 1 obtained from the odd frame, and when the continuation of the value “001011” is detected here, the sub-multiframe (SMF) counter 110 is reset (FIG. 45). .
[0249]
The sub-multiframe counter 110 is formed of a hexadecimal ring counter that counts the count result of the counter 106, thereby incrementing the count value in units of frames and resetting the count value in a multiframe cycle.
As a result, the sub-multiframe counter 110 outputs the count value of each frame in units of multiframes.
[0250]
Further, the detection circuit 109 detects data of octet number 1 in the first to fifth sub-multiframes and even frames, and outputs the detection result to the MF counter 111 at a predetermined timing.
The MF counter 111 is formed of a hexadecimal ring counter that operates on the basis of the count result of the sub-multiframe counter 110. The MF counter 111 loads the detection result of the detection circuit 109 and operates to load even frames and octet numbers 1. A count value corresponding to the data “N1, N2, N3, N4” is output.
[0251]
As a result, the counter 84 outputs an octet number detection result BWN in units of 16 multiframes for the detection target line based on the FAW detection result.
Further, the detection circuit 109 detects octet number 1 data of the sixth sub-multiframe and even frame and data “L1, L2, L3” of octet number 1 of the seventh sub-multiframe, even frame and odd frame. (FIG. 45) At a predetermined timing, this detection result is output to the CH number detection circuit 112 formed by a latch circuit.
[0252]
Here H. In the format 221, the channel number is assigned to the data “L 1, L 2, L 3” and transmitted, and the channel number detection circuit 112 is latched to hold the channel detection result, and the channel number detection result is also displayed. It is output together with the count values of the counters 106-112.
[0253]
Further, the detection circuit 109 detects the data of even frames, service channels, and octet numbers 2 to 8 based on the bit allocation detected by the counter 106 and outputs the data to the front and rear stage protection circuit 113 to protect the front and rear stages. The circuit 113 determines whether or not this data is a value “0011011”.
If a negative result is obtained here, it is considered that the synchronization is lost in this case, so that the front-rear protection circuit 113 outputs an out-of-synchronization signal IS to the system controller 46.
[0254]
In other words, the system controller 46 switches the selection signal SEL to change the FAW detection circuit 83 once the counters 106 to 111 and the CH number detection circuit 112 output the octet number detection result BWN in units of 16 multiframes. The counter 84 is separated from the counter.
As a result, the system controller 46 switches the detection target of the FAW detection circuit 83 to the second time slot that follows and simultaneously outputs the FAW detection result to the counter 84 of the second system. A selection signal SEL is output.
[0255]
On the other hand, the counter 84 of the first system from which the FAW detection circuit 83 has been disconnected starts to operate once at a synchronized timing and continues to count the clock CK80 synchronized with the time slot formation cycle (that is, the counters 106 to 106). 111 will continue to run), and the octet number detection result BWN can be output continuously.
As a result, the video conference apparatus 1 can sequentially switch the detection target of the FAW detection circuit 83 to obtain the FAW detection result, and the entire configuration can be simplified accordingly.
[0256]
That is, the video conference apparatus 1 may correct the phase shift for each of up to six time slots by connecting the largest number of lines in the B channel.
By the way, H 0 In the channel, when two lines are connected, the phase shift can be detected for two time slots, and all the phase shifts can be corrected based on the detection result. 11 And H 12 In the channel, it is understood that there is no need for phase shift correction because each channel is transmitted through one line.
Thus, it is understood that the phase shift can be detected only by preparing six counter circuits.
[0257]
By the way, in this type of line, there may be a bit shift during communication due to an abnormality in the transmission side device. In this case, the state is out of synchronization with the count values of the self-running counters 106 to 111. become.
Therefore, the phase shift correction circuit 80 detects this synchronization shift by the front and rear stage protection circuit 113, and when the synchronization is lost, switches the detection target of the FAW detection circuit 83 and outputs the FAW detection result to the counter 84 that has lost synchronization. Thus, the selection signal SEL is output so that the FAW is detected again to synchronize again, and the detection result BWN of the octet number is output.
[0258]
As shown in FIGS. 49 and 50, the bit switching circuit 85 is formed of six bit shift correction circuits 115A to 115F corresponding to the system of the counter 84, and the bit shift correction circuits 115A to 115F are connected to the data conversion circuit. The output data DT 82 is input (FIG. 50A).
The bit shift correction circuits 115A to 115F are each formed by two 8-bit latch circuits, and each 8-bit data DT of the corresponding time slot is latched alternately by the two 8-bit latch circuits, and the output of the system controller 46 is also output. The latch result is cut out and output at a predetermined timing with reference to the data.
[0259]
Here, when the octet number detection result BWN is obtained by the counter 84, the system controller 46 inputs the FAW detection result DFAW of the corresponding line, and outputs the FAW detection result DFAW to the corresponding bit shift correction circuits 115A to 115F. To do.
As a result, the bit shift correction circuits 115A to 115F cut out and output the latch results based on the detection results of the counter 84 and the FAW detection circuit 83, so that the data of the same octet consecutive from the sequentially input output data DT is obtained. The arrangement of the data DT is converted so as to be continuous within the time slot and output (FIG. 50B).
For example, in this case, the data “1” and “2” of the fifth channel and the data “3” to “8” of the fifth channel of the subsequent time slot are combined to form one time slot. Understand.
[0260]
As a result, in the video conference apparatus 1, by connecting 6 lines at maximum, the phase shift correction circuit 80 causes the 6 bit shift correction circuits 115 </ b> A to 115 </ b> F so that data of the same octet is continuous in each time slot. The phase shift of each line is corrected.
The bit shift correcting circuits 115A to 115F output the latch circuit output data in the form of parallel data at a timing synchronized with the input data DT. In FIG. 50B, the input data DT is output. Output data DT1 is shown in a serial data format in a substantially linear manner.
[0261]
The bit shift correction circuits 115A to 115F output the output data DT1 to the buffer memory 86, and the address selector 116 displays the corresponding octet number detection result BWN and channel number detection result in synchronization with the timing of the output data DT1. Output to.
As a result, the buffer memory 86 stores the input data DT1 sequentially using the octet number detection result BWN and the channel number detection result as address data.
[0262]
On the other hand, the system controller 46 inputs the octet number detection result BWN via the latch circuit 117, and detects a time slot serving as a reference for correcting the phase shift.
Here, when the phase shift is corrected for the six lines in this way, the most delayed time slot is detected, and the time slot is set as a reference.
[0263]
However, when the most delayed time slot is detected from the six time slots based on the octet number detection result BWN whose value sequentially and cyclically changes in this way, the processing becomes complicated.
Therefore, in this embodiment, the system controller 46 inputs the two octet number detection results BWN via the latch circuit (R) 117 and detects the comparison result of the octet number detection results BWN.
As a result, the system controller 46 detects the delayed line from the two time slots, and then inputs the octet number detection result BWN for the delayed line and one of the remaining four lines and compares the result. To detect.
[0264]
As a result, the system controller 46 detects the most delayed line by repeating this process up to five times by sequentially fetching two octet number detection results BWN and detecting the comparison result. In this way, the latch circuit 117 can fetch two octet number detection results BWN simultaneously.
Further, the system controller 46 outputs a switching signal to the selector 118, and selectively outputs the octet number detection result BWN of the most delayed line to the address selector 116.
[0265]
As a result, the address selector 116 outputs the most delayed octet number detection result BWN to the buffer memory 86 as a read address, whereby the buffer memory 86 sequentially outputs the stored data to correct the phase shift.
At this time, the address selector 116 outputs the data of the channel numbers in which the values sequentially circulate to the buffer memory 86 as address data so that the channel numbers are successively arranged.
[0266]
As a result, the phase shift correction circuit 80 corrects the phase shift between the lines, rearranges the arrangement of the data DT so that the channel numbers are successively arranged (FIG. 50C), and outputs the parallel / serial conversion circuit 88. To convert to the original serial data format and output.
Thus, by assigning and processing the data of each line to the time slot, the processing can be simplified even when the phase shift is corrected.
[0267]
Further, by assigning a frame synchronization signal or the like to the HSD data and transmitting it, it is possible to receive the document image or the like with a correct channel arrangement by correcting the phase shift, and thus the document image can also be correctly reproduced.
[0268]
(1-5-2-5) Updating mapping memory
By the way, the mapping memory 66 and the mapping circuit 81 respectively update the mapping data to switch the data to be assigned to each frame, so that the video conference apparatus 1 switches and transmits various data according to the operation mode. Has been made to get.
In order to switch this data, it is necessary to update the mapping memory 66. If this update process can be simplified, the time required for the system controller 46 to perform this update process can be shortened, and the overall configuration can be reduced accordingly. It can be simplified.
[0269]
Further, when the data is mapped to the time slot, or when the data is separated and output to each circuit block, the multiplexing circuit 47 refers to the mapping memory 66, and this reference operation is simplified. If it can, the processing time of the whole can be shortened and the configuration can be simplified.
[0270]
Therefore, as shown in FIG. 51, the mapping memory 66 forms memory spaces corresponding to time slots in the first and second mapping RAMs 120 and 121, respectively, and corresponds to the data arrangement of each frame in this memory space. An address space is formed, and mapping data is stored in this address space.
[0271]
As a result, as shown in FIG. 52, the mapping memory 66, when transmitting data using two B channel lines, indicates the type of data stored corresponding to the frames of the first channel and the second channel. Are stored as mapping data, and the data time division circuit 65 sequentially inputs audio data specified by the mapping data data, moving image data, and the like.
In FIG. 52, the audio data is represented by symbol A, the moving image data is represented by symbol V, and the data of the frame synchronization signal and the bit identification signal are represented by symbols F and B, respectively.
[0272]
Further, the mapping memory 66 switches the switching circuits 122 and 123 in a complementary manner at a predetermined timing to connect the mapping RAMs 120 and 121 to the system controller 46 or the data time division circuit 65, respectively. While the circuit 65 accesses one mapping RAM 120 or 121 and refers to the mapping data DMAP, the mapping data DMAP in the other mapping RAM 121 or 120 can be updated.
[0273]
Thus, the video conference apparatus 1 can easily switch the operation mode by switching the connection of the switching circuits 122 and 123 at a predetermined timing.
Here, as shown in FIG. 53, the mapping data DMAP is composed of 8-bit data, and the lower-order 6-bit data designates the types of moving image data, audio data, and the like.
[0274]
That is, the mapping data DMAP rises to the value 1 only for the least significant bit among the 6 bits when the audio data is assigned, whereas it rises to the value 1 only for the subsequent second bit when the image data of the moving image is assigned.
Corresponding to this, the data time division circuit 65 selects and inputs audio data, moving image data, HSB data, etc., based on the lower 6 bits of data, thereby sequentially setting the preset data in the time slot. Assign and output.
Further, the mapping data DMAP assigns the identification data BM to the most significant bit D7, and the mapping data access operation of the data time division circuit 65 is switched by this identification data BM.
[0275]
That is, in this embodiment, each frame is a subframe to which the same type of data is assigned (in FIG. 52, the first to seventh subframes correspond) and a subframe to which different data is assigned (FIG. 52). 8 corresponds to the eighth subframe).
As a result, the system controller 46 assigns the same type of data to the subframes to be subsequently read (that is, in this case, by accessing the mapping data so as to perform raster scanning, the first to sixth subframes and This corresponds to mapping data of the eighth subframe), and this identification data BM is raised to a value of 1.
[0276]
Correspondingly, the data time division circuit 65 holds the mapping data DMAP corresponding to the octet number 1 among the accessed mapping data DMAP.
Further, when mapping the designated data, the data time division circuit 65 detects the identification data BM. When the identification data BM rises to the value 1, the data time division circuit 65 stops accessing the subsequent mapping data DMAP. The data specified by the held mapping data DMAP is mapped.
[0277]
In this way, the number of accesses of the mapping memory 66 can be reduced step by step, the processing time can be shortened accordingly, and the capacity of the mapping memory 66 can be reduced. The overall configuration can be simplified and reduced in size.
Further, in this way, the mapping data DMAP for which the access is to be stopped need not be written in the mapping memory 66, so that the system controller 46 completes the updating process of the mapping memory 66 in a short time. In addition, the burden on the system controller 46 can be reduced accordingly.
[0278]
On the other hand, the mapping circuit 81 (FIG. 43) accesses the mapping memory in reverse to the data time division circuit 65 to obtain the mapping data, and separates the multiplexed data DT based on the mapping data, The separated data is output to the corresponding circuit block 11, 18 or the like.
Thus, even when the received data is separated, it can be reliably separated into the original data with a simple configuration as a whole.
[0279]
(2) Effects of the embodiment
According to the above configuration, the time slot is formed and multiplexed, and the multiplexed and transmitted data is separated, so that even when the line is switched, the single frequency clock can be processed. The overall configuration can be simplified.
Further, when correcting the phase shift, the FAW detection circuit of the eight systems simultaneously detects the FAW in parallel, and further switches the FAW detection circuit to set the operation of the counter circuit 84 to synchronize with each line. By sequentially comparing the two address detection results and selecting the read reference address data, the phase shift can be quickly corrected with a simple configuration as a whole. Further, when this phase is corrected, the overall configuration can be simplified by correcting the line arrangement together.
[0280]
(3) Other embodiments
In the above-described embodiment, the case where the FAW of the input data allocated to one time slot is detected by using eight FAW detection circuits simultaneously in parallel has been described. However, the present invention is not limited to this. For example, the present invention can be widely applied when detecting a bit pattern of data transmitted through one line.
[0281]
Furthermore, in the above-described embodiment, the case where the pattern detection circuit formed by using the eight FAW detection circuits simultaneously and in parallel is switched to synchronize the operation of the counter circuit is described, but the present invention is not limited to this. Various pattern detection circuits can be widely applied.
[0282]
Furthermore, in the above-described embodiment, the case where the arrangement of channels is corrected together with the phase shift has been described. However, the present invention is not limited to this, and only the phase shift may be corrected as necessary.
[0283]
Furthermore, in the above-described embodiment, the case where the reference address data for reading is generated by comparing two channels has been described. However, the present invention is not limited to this, and for example, the address data for reading reference is generated separately. May be used as a reference.
[0284]
【The invention's effect】
As described above, according to the present invention, input serial data is taken into a plurality of systems of data input means, held for a period corresponding to the identification data allocation period, and a bit pattern is detected for each system, thereby simultaneously The bit pattern can be detected in parallel, and the bit pattern can be detected easily and reliably. In addition, when data is input / output with multiple channels, data is assigned to the time slot and processed, so that even if the time slot occupied by this data is switched and the number of channels and / or the transmission speed is changed, the transmission of converted serial data Processing can be performed while maintaining the speed at a constant value, and the entire configuration can be simplified accordingly.
[0285]
In addition, if the input channels are sequentially synchronized with a plurality of self-propelled counter circuits corresponding to the plurality of input channels, each channel can be synchronized with one bit pattern detection means, and the overall configuration is simplified accordingly. At this time, the count operation can be reliably synchronized by re-synchronizing the count operation of the counter circuit that is out of synchronization with the count operation of the counter circuit out of synchronization.
[0286]
Further, after sequentially storing the converted serial data, when outputting a predetermined order to correct the phase shift between the channels, a plurality of input channels are sequentially compared to detect the input serial data with the most delayed phase, and the detected By generating the reference address data of the read reference based on the address data of the input serial data, the reference address data can be easily set. At this time, based on the channel data, the stored conversion serial data DT is stored. The arrangement can be converted so that the channels are continuous, and the arrangement of the channels can be corrected at the same time. This makes it possible to reliably correct the phase shift between the channels with a simple configuration and reliably transmit the data. A data transmission device that can be used can be obtained.
[Brief description of the drawings]
FIG. 1 is a front view showing a video conference apparatus according to an embodiment of the present invention.
FIG. 2 is a block diagram showing the overall configuration.
FIG. 3 is a block diagram showing an image input / output unit.
FIG. 4 is a block diagram showing an encoder / decoder unit.
FIG. 5 is a block diagram showing an image data processing unit.
FIG. 6 is a block diagram showing a main processing unit.
FIG. 7 is a block diagram for explaining the processing of the central processing unit.
FIG. 8 is a block diagram for explaining bus switching.
FIG. 9 is a signal waveform diagram for explaining the operation;
FIG. 10 is a schematic diagram for explaining teleliteing operation;
FIG. 11 is a schematic diagram illustrating a mismatch state between the document image and the line drawing.
FIG. 12 is a schematic diagram illustrating a communication procedure for eliminating a mismatch between a document image and a line drawing.
FIG. 13 is a flowchart showing a processing procedure for that purpose.
FIG. 14 is a flowchart for explaining the screen control key process.
FIG. 15 is a flowchart for explaining the screen control request process;
FIG. 16 is a block diagram showing a peripheral circuit of the arithmetic memory.
FIG. 17 is a schematic diagram for explaining allocation of memory space in the case of a natural image.
FIG. 18 is a schematic diagram for explaining allocation of memory space in the case of a document image.
FIG. 19 is a schematic diagram for explaining the allocation of natural image memory;
FIG. 20 is a schematic diagram for explaining memory allocation of a document image.
FIG. 21 is a block diagram for explaining processing of a document image.
FIG. 22 is a schematic diagram for explaining display of a document image;
FIG. 23 is a schematic diagram for explaining conversion of binary data into multi-value data.
FIG. 24 is a schematic diagram for explaining enlarged display of a document image;
FIG. 25 is a schematic diagram for explaining image conversion in the PAL-NTSC system.
FIG. 26 is a schematic diagram for explaining storage of image data in the FIFO;
FIG. 27 is a schematic diagram for explaining flicker reduction.
FIG. 28 is a schematic diagram for explaining the case where flicker reduction is performed with two lines.
FIG. 29 is a block diagram for explaining input / output of a natural image.
FIG. 30 is a block diagram for explaining display of a natural image.
FIG. 31 is a schematic diagram showing the structure of a B channel.
FIG. 32: H 0 It is a basic diagram which shows the structure of channel.
FIG. 33 is a schematic diagram for explaining data transmission when two lines of B channel are used.
FIG. 34 is a schematic diagram for explaining data transmission when three lines of B channel are used.
FIG. 35 is a schematic diagram for explaining data transmission when 6 lines of B channel are used.
FIG. 36 is a block diagram showing the transmission side of the multiplexing circuit.
FIG. 37 is a schematic diagram for explaining a time slot when 6 lines of B channel are used.
FIG. 38: H 0 It is an approximate line figure used for explanation of a time slot in case two channels are used.
FIG. 39 is a schematic diagram for explanation of a time slot when one line of B channel is used.
FIG. 40: H 0 It is an approximate line figure used for explanation of a time slot in case one channel is used.
FIG. 41 H 11 It is an approximate line figure used for explanation of a time slot in the case of using a channel.
FIG. 42 H 12 It is an approximate line figure used for explanation of a time slot in the case of using a channel.
FIG. 43 is a block diagram showing the receiving side of the multiplexing circuit.
FIG. 44 is a schematic diagram for explaining FAS;
FIG. 45 is a schematic diagram for explaining FAS between the frames;
FIG. 46 is a block diagram showing a FAW detection circuit.
FIG. 47 is a block diagram showing a FAW determination circuit.
FIG. 48 is a block diagram showing a counter circuit.
FIG. 49 is a block diagram showing a bit switching circuit.
FIG. 50 is a schematic diagram for explaining phase shift correction.
FIG. 51 is a block diagram showing a mapping memory.
FIG. 52 is a schematic diagram for explanation.
FIG. 53 is a schematic diagram showing mapping data.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Video conference apparatus, 3 ... Processor, 4 ... Monitor apparatus, 6 ... Remote commander, 10 ... Image input / output part, 11 ... Encoder / decoder part, 12 ... Main processing part, 14 ... Image data processing unit, 18 ... Audio processing unit, encoder / decoder, 35 ... Bus controller, 36 ... Still image processing circuit, 37 ... Binary image processing circuit, 38 ... Image interface circuit, 40 ... Arithmetic memory 42... Image FIFO 44... Drawing plane 46. System controller 49.

Claims (6)

所定の入力チヤンネルを介して入力される入力シリアルデータをデータ処理するデータ伝送装置において、
上記入力シリアルデータは、フレーム単位で、所定の識別ビツト割り当て期間の間、所定ビツト周期で、所定値の識別ビツトが順次割り当てられ、上記識別ビツト割り当て期間の上記識別ビツトで所定のビツトパターンを形成し、
上記データ伝送装置は、
上記ビツト周期のビツトを単位にして、上記入力シリアルデータを取り込んで上記ビツトパターンを検出し、上記ビツトパターンが上記複数フレームで検出されると、検出信号を出力するビツトパターン検出手段と、
上記検出信号を基準にして、上記入力シリアルデータのアドレスデータを生成するアドレスデータ生成手段と、
上記アドレスデータを基準にして上記入力シリアルデータを順次入力して処理するデータ処理手段と
を具え、
上記ビツトパターン検出手段は、
上記識別ビツトが割り当てられるビツト周期で、上記入力シリアルデータを取り込む複数系統のデータ入力手段と、上記複数系統のデータ入力手段に対応した複数系統の識別データ検出手段とを有し、
上記複数系統のデータ入力手段は、それぞれ異なるタイミングで順次入力される上記入力シリアルデータを取り込んで上記識別ビツト割り当て期間に相当する期間の間保持し、
上記複数系統の識別データ検出手段は、対応する上記データ入力手段に保持された上記入力シリアルデータが上記ビツトパターンに一致するか否か判断する
ことを特徴とするデータ伝送装置。
In a data transmission apparatus that processes input serial data input via a predetermined input channel,
In the input serial data, a predetermined value of identification bits is sequentially allocated in a predetermined bit period during a predetermined identification bit allocation period in a frame unit, and a predetermined bit pattern is formed by the identification bits in the identification bit allocation period. And
The data transmission device is
Bit pattern detecting means for detecting the bit pattern by taking the input serial data in units of bits of the bit period and outputting a detection signal when the bit pattern is detected in the plurality of frames;
Address data generating means for generating address data of the input serial data with reference to the detection signal;
Data processing means for sequentially inputting and processing the input serial data on the basis of the address data;
The bit pattern detection means includes:
A plurality of systems of data input means for capturing the input serial data in a bit cycle to which the identification bits are assigned, and a plurality of systems of identification data detection means corresponding to the plurality of systems of data input means,
The plurality of systems of data input means take in the input serial data sequentially input at different timings and hold them for a period corresponding to the identification bit allocation period,
The plurality of systems of identification data detection means determine whether or not the input serial data held in the corresponding data input means matches the bit pattern.
複数の入力チヤンネルを介して入力される入力シリアルデータをデータ処理するデータ伝送装置において、
上記入力シリアルデータは、フレーム単位で、所定の識別ビツト割り当て期間の間、所定ビツト毎に、所定値の識別ビツトが順次割り当てられ、上記識別ビツト割り当て期間の上記識別ビツトで所定のビツトパターンを形成し、
上記データ伝送装置は、
上記入力シリアルデータの伝送速度を変換して上記所定ビツト単位で選択的に出力することにより、上記複数チヤンネルの入力シリアルデータが上記ビツト単位で連続する変換シリアルデータを生成するシリアルデータ生成手段と、
上記ビツト単位で、上記入力チヤンネル毎に上記変換シリアルデータを取り込んで上記ビツトパターンを検出し、上記ビツトパターンが上記複数フレームで検出されると、検出信号を出力するビツトパターン検出手段と、
上記検出信号を基準にして、上記入力シリアルデータのアドレスデータを生成するアドレスデータ生成手段と、
上記アドレスデータを基準にして上記変換シリアルデータのデータ配列を変換して上記入力チヤンネル間の位相ずれを補正する位相補正手段と
を具え、
上記アドレスデータ生成手段は、
上記複数の入力チヤンネルに対応する複数のカウンタ回路を有し、
上記カウンタ回路は、上記検出信号を基準にして、上記入力シリアルデータに同期したクロツクをカウントして上記アドレスデータを生成する自走式のカウンタ回路でなり、
上記ビツトパターン検出手段は、
上記変換シリアルデータを取り込むチヤンネルを順次切り換えて、上記入力チヤンネル毎に、順次検出結果を出力し、
上記アドレスデータ生成手段は、
上記ビツトパターン検出手段の上記検出結果を、上記複数のカウンタ回路に順次入力して、上記各入力チヤンネルの上記入力シリアルデータに対応する上記カウンタ回路のカウント動作を同期させる
ことを特徴とするデータ伝送装置。
In a data transmission apparatus that processes input serial data input via a plurality of input channels,
In the input serial data, a predetermined value of identification bits is sequentially allocated for each predetermined bit in a frame unit during a predetermined identification bit allocation period, and a predetermined bit pattern is formed by the identification bits in the identification bit allocation period. And
The data transmission device is
Serial data generating means for generating converted serial data in which the input serial data of the plurality of channels is continuous in the bit unit by converting the transmission speed of the input serial data and selectively outputting the data in units of the predetermined bit;
Bit pattern detection means for detecting the bit pattern by fetching the converted serial data for each input channel in units of the bit, and outputting a detection signal when the bit pattern is detected in the plurality of frames;
Address data generating means for generating address data of the input serial data with reference to the detection signal;
Phase correction means for correcting the phase shift between the input channels by converting the data array of the converted serial data on the basis of the address data;
The address data generating means
A plurality of counter circuits corresponding to the plurality of input channels;
The counter circuit is a self-running counter circuit that generates the address data by counting clocks synchronized with the input serial data with reference to the detection signal.
The bit pattern detection means includes:
The channel for taking in the converted serial data is sequentially switched, and the detection result is sequentially output for each input channel.
The address data generating means
A data transmission characterized in that the detection result of the bit pattern detection means is sequentially inputted to the plurality of counter circuits, and the counting operation of the counter circuit corresponding to the input serial data of each input channel is synchronized. apparatus.
上記アドレスデータ生成手段は、
上記カウント動作の同期はずれを検出する同期はずれ検出回路を有し、
上記カウント動作の同期がはずれと、該同期のはずれた上記カウンタ回路に上記ビツトパターン検出手段の上記検出結果を入力してカウント動作を同期させる
ことを特徴とする請求項に記載のデータ伝送装置。
The address data generating means
A synchronization error detection circuit for detecting a synchronization error of the counting operation;
3. The data transmission apparatus according to claim 2 , wherein when the count operation is out of synchronization, the count result is synchronized by inputting the detection result of the bit pattern detection means to the counter circuit out of synchronization. .
複数の入力チヤンネルを介して入力される入力シリアルデータをデータ処理するデータ伝送装置において、
上記入力シリアルデータは、フレーム単位で、所定の識別データ割り当て期間の間、所定ビツト毎に、所定値の識別ビツトが順次割り当てられ、上記識別データ割り当て期間の上記識別ビツトで所定のビツトパターンを形成し、
上記データ伝送装置は、
上記入力シリアルデータの伝送速度を変換して上記所定ビツト単位で選択的に出力することにより、上記複数チヤンネルの入力シリアルデータが上記ビツト単位で連続する変換シリアルデータを生成するシリアルデータ生成手段と、
上記所定ビツト単位で、上記入力チヤンネル毎に上記変換シリアルデータを取り込んで上記ビツトパターンを検出し、上記ビツトパターンが上記複数フレームで検出されると、検出信号を出力するビツトパターン検出手段と、
上記検出信号を基準にして、上記入力シリアルデータのアドレスデータを生成するアドレスデータ生成手段と、
上記アドレスデータを基準にして上記変換シリアルデータのデータ配列を変換して上記入力チヤンネル間の位相ずれを補正する位相補正手段と
を具え、
上記位相補正手段は、
上記アドレスデータを基準にして上記変換シリアルデータを順次格納すると共に基準アドレスデータを基準にして格納した上記変換シリアルデータを所定順序で出力するメモリ回路と、
上記アドレスデータを基準にして上記基準アドレスデータを生成する基準アドレス生成手段とを有し、
上記基準アドレス生成手段は、
上記複数の入力チヤンネルに対応する複数の上記アドレスデータの中から2つのアドレスデータを順次取り込んで比較結果を得ることにより、上記複数の入力シリアルデータの中から最も位相の遅れた変換シリアルデータを検出し、該検出した入力シリアルデータの上記アドレスデータを基準にして上記基準アドレスデータを生成する
ことを特徴とするデータ伝送装置。
In a data transmission apparatus that processes input serial data input via a plurality of input channels,
In the input serial data, a predetermined value of identification bits is sequentially allocated for each predetermined bit during a predetermined identification data allocation period, and a predetermined bit pattern is formed by the identification bits in the identification data allocation period. And
The data transmission device is
Serial data generating means for generating converted serial data in which the input serial data of the plurality of channels is continuous in the bit unit by converting the transmission speed of the input serial data and selectively outputting the data in units of the predetermined bit;
Bit pattern detection means for detecting the bit pattern by fetching the converted serial data for each input channel in units of the predetermined bit, and outputting a detection signal when the bit pattern is detected in the plurality of frames;
Address data generating means for generating address data of the input serial data with reference to the detection signal;
Phase correction means for correcting the phase shift between the input channels by converting the data array of the converted serial data on the basis of the address data;
The phase correction means is
A memory circuit that sequentially stores the converted serial data with reference to the address data and outputs the converted serial data stored with reference to the reference address data in a predetermined order;
Reference address generation means for generating the reference address data with reference to the address data,
The reference address generating means includes
Detects the converted serial data with the most delayed phase from the plurality of input serial data by sequentially taking two address data from the plurality of address data corresponding to the plurality of input channels and obtaining a comparison result. And generating the reference address data based on the address data of the detected input serial data.
上記入力シリアルデータは、
上記ビツトパターンに加えて各入力シリアルデータのチヤンネルを表すチヤンネルデータが割り当てられ、
上記位相補正手段は、
上記チヤンネルデータに基づいて、格納した上記変換シリアルデータの配列を上記チヤンネルが連続するように変換して出力する
ことを特徴とする請求項、請求項又は請求項に記載のデータ伝送装置。
The above input serial data is
In addition to the above bit pattern, channel data representing the channel of each input serial data is assigned,
The phase correction means is
Based on the channel data, the data transmission device according to the conversion sequence of serial data stored in claim 2, claim 3 or claim 4, characterized in that for converting so that the channel is continuous .
上記シリアルデータ生成手段は、
所定のタイムスロツトに上記各入力チヤンネルの入力シリアルデータを割り当てて上記変換シリアルデータを生成し、上記入力チヤンネルのチヤンネル数及び又は上記入力シリアルデータの伝送速度が切り換わると、上記入力シリアルデータが占有する上記タイムスロツトを切り換え、上記入力チヤンネルのチヤンネル数及び又は上記入力シリアルデータの伝送速度が切り換わつても、上記変換シリアルデータの伝送速度を一定値に保持する
ことを特徴とする請求項、請求項、請求項又は請求項に記載のデータ伝送装置。
The serial data generating means is
Input serial data of each input channel is assigned to a predetermined time slot to generate the converted serial data. When the number of input channel channels and / or the transmission speed of the input serial data are switched, the input serial data is occupied. to switching the time slots, channel number and or connexion automatically turn the transmission rate of the input serial data of the input channels also claim 2, characterized in that to hold the transmission rate of the converted serial data to a constant value The data transmission device according to claim 3 , claim 4, or claim 5 .
JP08789393A 1993-03-22 1993-03-22 Data transmission device Expired - Fee Related JP3625070B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP08789393A JP3625070B2 (en) 1993-03-22 1993-03-22 Data transmission device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP08789393A JP3625070B2 (en) 1993-03-22 1993-03-22 Data transmission device

Publications (2)

Publication Number Publication Date
JPH06276336A JPH06276336A (en) 1994-09-30
JP3625070B2 true JP3625070B2 (en) 2005-03-02

Family

ID=13927570

Family Applications (1)

Application Number Title Priority Date Filing Date
JP08789393A Expired - Fee Related JP3625070B2 (en) 1993-03-22 1993-03-22 Data transmission device

Country Status (1)

Country Link
JP (1) JP3625070B2 (en)

Also Published As

Publication number Publication date
JPH06276336A (en) 1994-09-30

Similar Documents

Publication Publication Date Title
US7092012B2 (en) Image processing apparatus and method, storage medium, and communication system
US4888795A (en) Videotelephone apparatus for transmitting high and low resolution video signals over telephone exchange lines
EP0394606B1 (en) Cyclic video region transmission for videoconferencing systems
US6417886B1 (en) Image transmission apparatus and method and image transmission system
JPH03147491A (en) Audio-video communication device and its interface device
US6249324B1 (en) Transmission processing apparatus, television conference system, transmission processing method and memory medium
WO1987007462A1 (en) Telecommunications interface
EP0572277A1 (en) Image communication apparatus
KR100288201B1 (en) Image processing apparatus
KR100678169B1 (en) System and method for transmitting data between two terminal equipments distant from each other
JPH08228329A (en) System and terminal equipment for communication conference
US7844765B2 (en) KVM switch and method for controlling the same
JPH06276335A (en) Data processor
JP3625070B2 (en) Data transmission device
JPH09224081A (en) Information communication equipment for home use
JPH06276518A (en) Picture processor
AU702541B2 (en) Image processor
JPH06276516A (en) Data processor
JPH06276517A (en) Picture processor
JPH06276519A (en) Picture processor
JPH06276192A (en) Data transmitter
JP2793679B2 (en) Drawing processing device
JPH06339139A (en) Data transmission equipment
JP2000287188A (en) System and unit for inter-multi-point video audio communication
JP3122445B2 (en) Communication device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040312

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040511

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20041125

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071210

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081210

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091210

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees