JP3759216B2 - Television camera communication device and multipoint connection device - Google Patents

Television camera communication device and multipoint connection device Download PDF

Info

Publication number
JP3759216B2
JP3759216B2 JP34508195A JP34508195A JP3759216B2 JP 3759216 B2 JP3759216 B2 JP 3759216B2 JP 34508195 A JP34508195 A JP 34508195A JP 34508195 A JP34508195 A JP 34508195A JP 3759216 B2 JP3759216 B2 JP 3759216B2
Authority
JP
Japan
Prior art keywords
moving image
video conference
pointing object
communication terminal
conference communication
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP34508195A
Other languages
Japanese (ja)
Other versions
JPH09163336A (en
Inventor
耕二郎 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP34508195A priority Critical patent/JP3759216B2/en
Publication of JPH09163336A publication Critical patent/JPH09163336A/en
Application granted granted Critical
Publication of JP3759216B2 publication Critical patent/JP3759216B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、テレビ会議システムを構成するテレビ会議通信端末への適用も可能なテレビカメラ通信装置及び多地点接続装置に関する。
【0002】
【従来の技術】
本願発明に関連する従来技術としては、特開平06−217301号公報、特開平01−228387号公報、特開平04−123121号公報、特開平04−123122号公報、特開平05−260379号公報、及び、特開平05−204534号公報を挙げることができる。
【0003】
特開平06−217301号公報に記載の技術は、相手側とやりとりする画像にカーソルを合成して送信できるようにするものである。
特開平01−228387号公報に記載の技術は、撮影した画像から位置を示す情報を得ようとするものである。
特開平04−123121号公報に記載の技術は、撮影した指標部材をカーソルとして表示しようとするものである。
特開平04−123122号公報に記載の技術は、指標部材の位置をセンサにより検知する事で指標部材の位置を示す情報を得ようとするものである。
特開平05−260379号公報に記載の技術は、指標部材を撮影した画像から位置を示す情報を得てビデオテープ記録用のタイトル入力に応用したものである。
特開平05−204534号公報に記載の技術は、相手側から送信されてくる画像上の位置をタッチパネルで指定し、その指定された位置情報を、座標データとして相手側に転送して遠隔ポインティングを行うというものである。
【0004】
【発明が解決しようとする課題】
しかし、上記各公報記載の従来技術では、テレビカメラで撮影した情報に基づいて、相手装置を遠隔制御することはできない、という問題があった。
【0005】
本発明は係る事情に鑑みてなされたものであり、相手装置側のテレビカメラで撮影された情報に基づいて自装置側が位置・動き情報を得て遠隔制御されることを可能とするテレビカメラ通信装置及び多地点接続装置を提供することを目的とする。
【0006】
【課題を解決するための手段】
請求項1記載のテレビカメラ通信装置は、相手装置との間で動画像のやりとりを行うテレビカメラ通信装置において、指示物体を撮影し所定の処理がされた動画像を相手装置から受信する通信制御手段と、受信した前記動画像から相手側での指示物体の位置を識別する位置識別手段と、受信した前記動画像から相手側での指示物体の動きを識別する動き識別手段と、識別された指示物体の位置及び動きに基づ所定の画情報を指示対象である動画像に合成する動画像合成手段とを備え、前記動画像合成手段により合成された動画像を前記相手装置に送信することを特徴とする。
【0007】
請求項2記載のテレビカメラ通信装置は、請求項1記載のテレビカメラ通信装置において、前記所定の処理、動画像の圧縮処理であることを特徴とする。
【0008】
請求項3記載の多地点接続装置は、複数の相手装置に接続され、それらの相手装置との間で動画像のやりとりを行う多地点接続装置において、指示物体を撮影し所定の処理がされた動画像を前記複数の相手装置のうちの所定の相手装置から受信する通信制御手段と、受信した前記動画像から相手側での指示物体の位置を識別する位置識別手段と、受信した前記動画像から相手側での指示物体の動きを識別する動き識別手段と、識別された指示物体の位置及び動きに基づ所定の画情報を指示対象である動画像に合成する動画像合成手段とを備え、前記動画像合成手段により合成された動画像を前記複数の相手装置に送信することを特徴とする。
【0009】
請求項4記載の多地点接続装置は、請求項3に記載の多地点接続装置において、前記所定の処理、動画像の圧縮処理であることを特徴とする。
【0010】
請求項5記載のテレビカメラ通信装置は、相手装置との間で動画像のやりとりを行うテレビカメラ通信装置において、指示物体を撮影し所定の処理がされた動画像を相手装置から受信する通信制御手段と、受信した前記動画像から相手側での指示物体の位置を識別する位置識別手段と、受信した前記動画像から相手側での指示物体の動きを識別する動き識別手段と、画像を撮影するテレビカメラとを備え、識別された指示物体の位置または動きに基づいて前記テレビカメラの向きを制御すると共に前記テレビカメラにより撮影された画像を前記相手装置に送信することを特徴とする。
【0011】
請求項6記載のテレビカメラ通信装置は、請求項5に記載のテレビカメラ通信装置において、前記所定の処理、動画像の圧縮処理であることを特徴とする。
【0012】
請求項7記載のテレビカメラ通信装置は、請求項5または6のいずれかに記載のテレビカメラ通信装置において、前記識別された指示物体の位置または動きに基づいて行われる前記テレビカメラの向きの制御は、画像中の指示物体の上下又は左右の変位に応じて前記テレビカメラの向きを上下又は左右に変位させる制御であることを特徴とする請求項5または6のいずれかに記載のテレビカメラ通信装置。
【0013】
請求項8記載のテレビカメラ通信装置は、請求項1、2,5,6または7のいずれかに記載のテレビカメラ通信装置において、前記相手装置との動画像のやりとりは所定のITU−T勧告に準拠して行われることを特徴とする。
【0014】
請求項9記載の多地点接続装置は、請求項3または4のいずれかに記載の多地点接続装置において、前記相手装置との動画像のやりとりは所定のITU−T勧告に準拠して行われることを特徴とする。
【0015】
【発明の実施の形態】
以下、添付図面を参照しながら、本発明の実施の形態を詳細に説明する。
【0016】
図1は、本発明の一実施例に係るテレビ会議システムを構成するテレビ会議通信端末(テレビカメラ通信装置)の基本構成を示している。同図において、テレビカメラ1は、動画像を入力する手段である。マイク2は、音声を入力する手段である。テレビモニタ3は、相手側のテレビ会議通信端末からの動画像や、テレビカメラ1で撮影した自画像を表示出力する手段である。スピーカ4は、前記相手側テレビ会議通信端末からの音声を出力する手段である。制御装置5は、上記各機器を制御すると共に、動画像・音声の圧縮・再生・通信処理等を行うものである。
【0017】
図2は、それぞれが図1に示した基本構成を備えたテレビ会議通信端末A及びBが、回線網を介して相互に会議通信を行い、その一局面としてテレビ会議通信端末Aがそのテレビカメラ1で実物Aを撮影して得た動画像Aを自身のテレビモニタ3に表示すると共にテレビ会議通信端末Bに送信し、テレビ会議通信端末Bがその受信した動画像Aを自身のテレビモニタ3に表示することにより、テレビ会議通信端末A及びBが同一動画像として動画像Aを表示している状態を示している。
【0018】
この場合、テレビ会議通信端末A側の会議参加者は、動画像A中の特定部位をテレビ会議通信端末B側の会議参加者に注目させたい場合には、動画像Aとしてテレビカメラ1で撮影されている実物Aはテレビ会議通信端末A側にあるため、その実物Aを直接手や指等で指し示すことにより、動画像Aの一部として手や指が撮影されるようにすればよい。
【0019】
しかし、テレビ会議通信端末B側の会議参加者が、動画像A中の特定部位をテレビ会議通信端末A側の会議参加者に注目させたい場合は、動画像Aとしてテレビカメラ1で撮影されている実物Aはテレビ会議通信端末A側にあるため、その実物Aを直接手や指等で指し示すことはできない。
【0020】
そこで、テレビ会議通信端末Aの制御装置5を本発明の一実施例として図3に示す構成とする。
【0021】
同図において、端末Bからの動画像は、通信制御部31により受信される。その受信される端末Bからの動画像は、図2に示されるように、無地の背景内に位置指示物体としての鉛筆Pを含む動画像をテレビカメラ1で撮影して得られる画面Bである。
【0022】
その端末Bからの動画像としての画面Bは、通信制御部31から、指示物体認識部32へ送られる。指示物体認識部32は、指示・描画認識部35と協働して画面B中の鉛筆Pを識別し、指示物体位置情報抽出部33及び指示物体動き情報抽出部36は、指示物体認識部32で認識された鉛筆Pの画像上の位置及びその動きを識別する。
【0023】
なお、画像中の特定物体を認識してその位置、及び、その位置の変化としての動きを抽出する手法としては、特開平5−174146号公報記載の動画処理装置や、同公報の「従来の技術」に列記された公知の技術を適用することができる。
【0024】
さて、指示物体位置情報抽出部33及び指示物体動き情報抽出部36で識別された鉛筆Pの位置・動き情報は、位置・動き合成部34に送られ、位置・動き合成部34は、鉛筆Pの位置・動き情報に基づいて、矢印形状のポインタPをテレビカメラ1で撮影された動画像Aに重畳して、そのポインタPを重畳した動画像を通信制御部31を介してテレビ会議通信端末Bへの動画像として送信する。また、ポインタPを重畳した動画像は、テレビ会議通信端末Aのテレビモニタ3にも同時に表示される。
【0025】
図4は、その様子を示し、同図において、テレビ会議通信端末B側の会議参加者は、テレビ会議通信端末B側のテレビモニタ3に表示されたポインタPの位置を確認しながら、手に持った鉛筆Pを画面B中で移動させる。その画面B中の鉛筆Pの位置は、テレビ会議通信端末A側で抽出され、対応する動画像A中の位置にポインタPが重畳されて、テレビ会議通信端末A側で表示されると共にテレビ会議通信端末B側に送信されてテレビ会議通信端末B側でも表示される。
【0026】
これにより、画面B中の鉛筆Pの位置に対応して、テレビ会議通信端末A及びBのテレビモニタ3に表示される動画像AにポインタPが重畳表示され、テレビ会議通信端末B側の会議参加者が、動画像A中の特定部位をテレビ会議通信端末A側の会議参加者に注目させることができる。
【0027】
また、そのために、テレビ会議通信端末B側が新たな構成を備える必要はなく、テレビ会議通信端末A側が図3に示した構成を備えていればよいため、テレビ会議通信端末Aと会議通信を行うテレビ会議通信端末がITU−T勧告H・320準拠した動画像・音声のみを扱える基本的な構成のテレビ会議通信端末であったり、別メーカまたは別機種のテレビ会議通信端末で動画像・音声以外のデータに互換性がなくても、いわゆるテレポインティングを行うことができる。
【0028】
なお、鉛筆Pの画面B中の位置に対応する動画像A中にポインタを重畳するのではなく、鉛筆Pの画面B中の移動軌跡(位置の変化)に対応して動画像A中に線画を重畳すれば、いわゆるテレライティングを行うことも可能である。
【0029】
さて、上記の実施例は、テレビ会議通信端末(テレビ会議通信端末A)側にある指し示したい実物(物体A)を、本発明の一実施例に係る機能を備えていないテレビ会議通信端末(テレビ会議通信端末B)側から指し示すことを可能とするものであったが、次に説明する実施例は、その逆で、指し示したい実物がない側のテレビ会議通信端末が本発明の一実施例に係る機能を備える場合である。
【0030】
図5は、それぞれ図1に示した基本構成を備えたテレビ会議通信端末A及びBが、回線網を介して相互に会議通信を行い、その一局面としてテレビ会議通信端末Aがそのテレビカメラ1で実物Aを撮影して得た動画像Aを自身のテレビモニタ3に表示すると共にテレビ会議通信端末Bに送信し、テレビ会議通信端末Bがその受信した動画像Aを自身のテレビモニタ3に表示することにより、テレビ会議通信端末A及びBが同一動画像として動画像Aを表示している状態を示している。
【0031】
この場合、テレビ会議通信端末A側の会議参加者は、動画像A中の特定部位をテレビ会議通信端末B側の会議参加者に注目させたい場合には、動画像Aとしてテレビカメラ1で撮影されている実物Aはテレビ会議通信端末A側にあるため、その実物Aを直接手や指等で指し示すことにより、動画像Aの一部として手や指が撮影されるようにすればよい。
【0032】
しかし、テレビ会議通信端末B側の会議参加者が、動画像A中の特定部位をテレビ会議通信端末A側の会議参加者に注目させたい場合は、動画像Aとしてテレビカメラ1で撮影されている実物Aはテレビ会議通信端末A側にあるため、その実物Aを直接手や指等で指し示すことはできない。
【0033】
そこで、本発明の別の一実施例では、テレビ会議通信端末Bの制御装置5を図6に示す構成とする。
【0034】
同図において、端末Aからの動画像は、通信制御部41により受信される。その受信される端末Aからの動画像は、図5に示されるように、実物Aを撮影して得られる動画像Aである。
【0035】
その端末Aからの動画像Aは、通信制御部41から、動画像・位置・動き合成部42へ送られる。動画像・位置・動き合成部42は、ポインティング・描画デバイス43からの位置・動き情報に基づいて矢印形状のポインタPを端末Aからの動画像Aに重畳してそのポインタPを重畳した動画像Aを通信制御部31を介してテレビ会議通信端末Aへの動画像として送信する。また、ポインタPを重畳した動画像Aは、テレビ会議通信端末Bのテレビモニタ3にも同時に表示される。
【0036】
図7は、その様子を示し、同図において、テレビ会議通信端末B側の会議参加者は、テレビ会議通信端末B側のテレビモニタ3に表示されたポインタPの位置を確認しながら、マウス等のポインティング・描画デバイス43を操作することにより、対応する動画像A中の位置にポインタPが重畳されて、テレビ会議通信端末B側で表示されると共にテレビ会議通信端末A側に送信されてテレビ会議通信端末A側でも表示される。
【0037】
これにより、ポインティング・描画デバイス43の位置に対応して、テレビ会議通信端末A及びBのテレビモニタ3に表示される動画像AにポインタPが重畳表示され、テレビ会議通信端末B側の会議参加者が、動画像A中の特定部位をテレビ会議通信端末A側の会議参加者に注目させることができる。
【0038】
また、そのために、テレビ会議通信端末A側が新たな構成を備える必要はなく、テレビ会議通信端末B側が図6に示した構成を備えていればよいため、テレビ会議通信端末Bと会議通信を行うテレビ会議通信端末がITU−T勧告H・320準拠した動画像・音声のみを扱える基本的な構成のテレビ会議通信端末であったり、別メーカまたは別機種のテレビ会議通信端末で動画像・音声以外のデータに互換性がなくても、いわゆるテレポインティングを行うことができる。
【0039】
なお、ポインティング・描画デバイス43の位置に対応する動画像A中の位置にポインタPを重畳するのではなく、ポインティング・描画デバイス43の移動軌跡(位置の変化)に対応して動画像A中に線画を重畳すれば、いわゆるテレライティング行うことも可能である。またポインティング・描画デバイス43としては、マウス等の従来のポインティング・描画デバイスではなく、前述の一実施例に示したような、画面中を移動する位置指示物体の位置を認識して位置情報を抽出する構成としてもよい。そうすれば、テレビ会議通信端末として必須な構成要素であるテレビモニタを用いてポインティング・描画デバイスを構成でき、マウス等のポインティング・描画デバイスを別に設ける必要がなくなる。
【0040】
さて、上記各実施例は、実施例に係る機能を備えたテレビ会議通信端末と、実施例に係る機能を必ずしも備えていないテレビ会議通信端末との間でテレポインティングまたはテレライティングを行うものであったが、次に説明する一実施例は、複数のテレビ会議通信端末に介在する多地点接続装置が当該実施例に係る機能を備える場合である。
【0041】
図8は、それぞれ図1に示した基本構成を備えたテレビ会議通信端末A、B及びCが、回線網を経由して多地点接続装置100を介して相互に会議通信を行う場合を示している。
【0042】
この接続形態において、テレビ会議通信端末A、B及びCは、画像・音声のみに対応した基本的な構成のテレビ会議通信端末であり、そのままでは、互いにテレポインティングやテレライティングを行うことはできない。そこで、この実施例では、多地点接続装置100を図9に示す構成とする。
【0043】
いま、テレビ会議通信端末A、BまたはCのうちのいずかれの端末がテレポインティングを行うために、位置指示物体である鉛筆Pa、PbまたはPcをそれぞれ含む画面A、BまたはCを多地点接続装置100に送信すると、多地点接続装置100は、図9に示すように、通信制御部51a、bまたはcにより受信する。
【0044】
その端末A、BまたはCからの画面A、BまたはCは、それぞれ通信制御部51a、bまたはcから、指示物体A認識部52a、指示物体B認識部52bまたは指示物体C認識部52cへ送られる。指示物体認識部52a、bまたはcは、それぞれ指示・描画認識部55a、bまたはcと協働して画面A、BまたはC中の鉛筆a、bまたはcを識別し、指示物体位置情報抽出部53a、bまたはc、及び、指示物体動き情報抽出部56a、bまたはcは、それぞれ指示物体認識部52a、bまたはcで認識された鉛筆Pa、bまたはcの画面A、BまたはC上の位置及びその動きを識別する。
【0045】
指示物体位置情報抽出部53A、BまたはC、及び、指示物体動き情報抽出部56A、BまたはCでそれぞれ識別された鉛筆Pa、bまたはcの位置・動き情報は、動画・音声・位置・動き合成部54に送られ、動画・音声・位置・動き合成部54は、鉛筆Pa、bまたはcの位置・動き情報に基づいて、矢印形状のポインタPを、テレビカメラ装置A、B及びCに送信している動画像Xに重畳して、そのポインタPを重畳した動画像Xを通信制御部51a、bまたはc介してそれぞれテレビ会議通信端末A、BまたはCへの動画像として送信する。
【0046】
図8は、その様子を示し、同図において、テレビ会議通信端末A、BまたはCのうちのいずれかの会議参加者は、当該テレビ会議通信端末のテレビモニタ3に表示されたポインタPの位置を確認しながら、手に持った鉛筆Pa、bまたはcを画面A、BまたはC中で移動させる。その画面A、BまたはC中の鉛筆Pa、bまたはcの位置は、多地点接続装置100側で抽出され、対応する動画像X中の位置にポインタPが重畳されて、テレビ会議通信端末A、B及びCに送信されてテレビ会議通信端末A、B及びC側で表示される。
【0047】
これにより、画面A、BまたはC中の鉛筆Pa、bまたはcの位置に対応して、テレビ会議通信端末A、B及びCのテレビモニタ3に表示される動画像XにポインタPが重畳表示され、テレビ会議通信端末A、BまたはCのいずれかの会議参加者が、動画像X中の特定部位を当該テレビ会議通信端末以外のテレビ会議通信端末の会議参加者に注目させることができる。
【0048】
また、そのために、テレビ会議通信端末A、BまたはCが新たな構成を備える必要はなく、多地点接続装置100側が図9に示した構成を備えていればよいため、テレビ会議通信端末A、B及びCがITU−T勧告H・320準拠した動画像・音声のみを扱える基本的な構成のテレビ会議通信端末であったり、別メーカまたは別機種のテレビ会議通信端末で動画像・音声以外のデータに互換性がなくても、いわゆるテレポインティングを行うことができる。
【0049】
なお、鉛筆Pa、bまたはcの画面A、BまたはC中の位置に対応する動画像X中にポインタを重畳するのではなく、鉛筆A、BまたはCの画面a、bまたはc中の移動軌跡(位置の変化)に対応して動画像X中に線画を重畳すれば、いわゆるテレライティングを行うことも可能である。
【0050】
次に、本発明に係る機能を持たないテレビ会議通信端末から、本発明に係る機能を備えたテレビ会議通信端末のモニタカメラの位置を遠隔制御する別の一実施例について説明する。
【0051】
いま、図2に示すように、実施例に係る機能を持たないテレビ会議通信端末Bで位置指示物体としての鉛筆Pを含む範囲をテレビカメラ1で撮影して得られる画面Bを、実施例に係る機能を備え、その制御装置5が図10に示す構成であるテレビ会議通信端末Aに送信する。
【0052】
その端末Bからの動画像としての画面Bは、図10に示すテレビ会議通信端末Aの制御装置5の通信制御部61で受信され、指示物体認識部62へ送られる。指示物体認識部62は、指示・描画認識部65と協働して画面B中の鉛筆Pを識別し、指示物体位置情報抽出部63及び指示物体動き情報抽出部66は、指示物体認識部62で認識された鉛筆Pの画面上の位置及びその動きを識別する。
【0053】
指示物体位置情報抽出部63及び指示物体動き情報抽出部66で識別された鉛筆Pの位置・動き情報は、カメラ動き制御部64に送られ、カメラ動き制御部64は、鉛筆Pの位置・動き情報に基づいて、テレビカメラ1の向きを制御する。
【0054】
その場合のテレビカメラ1の向きの制御方法としては、鉛筆Pの画面B中での上下左右の変位に応じて、テレビカメラ1の向きを上下左右に変位させるのが、直感的にわかり易い。
【0055】
図2は、その様子を示し、同図において、テレビ会議通信端末B側の会議参加者は、テレビ会議通信端末A側のテレビカメラ1で撮影されてテレビ会議通信端末Bに送信されてテレビモニタ3に表示された動画像Aを確認しながら手に持った鉛筆Pを画面B中で移動させる。その画面B中の鉛筆Pの位置・動きは、テレビ会議通信端末A側で抽出され、その抽出された位置・動きに対応する向きにモニタカメラ1の向きが制御される。
【0056】
これにより、テレビ会議通信端末B側からテレビ会議通信端末A側のモニタカメラ1の遠隔制御が可能となる。
【0057】
また、そのために、テレビ会議通信端末B側が新たな構成を備える必要はなく、テレビ会議通信端末A側が図10に示した構成を備えていればよいため、テレビ会議通信端末Aと会議通信を行うテレビ会議通信端末がITU−T勧告H・320準拠した動画像・音声のみを扱える基本的な構成のテレビ会議通信端末であったり、別メーカまたは別機種のテレビ会議通信端末で動画像・音声以外のデータに互換性がなくても、モニタカメラの位置の遠隔制御が可能となる。
【0058】
次に別の一実施例について説明する。いま、図2に示すように、実施例に係る機能を持たないテレビ会議通信端末Bで位置指示物体としての鉛筆Pを含む範囲をテレビカメラ1で撮影して得られる画面Bを、実施例に係る機能を備え、その制御装置5が図11に示す構成であるテレビ会議通信端末Aに送信する。
【0059】
図11において、端末Bからの動画像は、通信制御部71により受信される。その受信される端末Bからの動画像は、図2に示されるように、位置指示物体としての鉛筆Pを含む範囲をテレビカメラ1で撮影して得られる画面Bである。
【0060】
その端末Bからの動画像としての画面Bは、通信制御部71から、動画像合成前処理部72で送られ、所定の前処理を施されて動画像合成処理部73へ送られる。動画像合成処理部73は、テレビカメラ1で撮影され、動画像合成前処理部76で所定の処理が施された動画像Aに、画面Bを合成する。
【0061】
その合成動画像は、動画像合成後処理部74で所定の後処理を施された後、テレビ会議通信端末A側のテレビモニタに表示されると共に、通信制御部31を介してテレビ会議通信端末Bへの動画像として送信される。
【0062】
図12は、その様子を示し、同図において、テレビ会議通信端末B側の会議参加者は、テレビ会議通信端末B側のテレビモニタ3に表示された鉛筆Pの、動画像Aに対する位置を確認しながら、手に持った鉛筆Pを画面B中で移動させる。また、その移動する鉛筆Pは、テレビ会議通信端末A側でも動画像Aに合成されて表示されている。
【0063】
これにより、画面B中の鉛筆Pの位置に対応して、テレビ会議通信端末A及びBのテレビモニタ3に表示される動画像Aに鉛筆Pがそのまま合成表示され、テレビ会議通信端末B側の会議参加者が、動画像A中の特定部位をテレビ会議通信端末A側の会議参加者に注目させることができる。
【0064】
また、そのために、テレビ会議通信端末B側が新たな構成を備える必要はなく、テレビ会議通信端末A側が図11に示した構成を備えていればよいため、テレビ会議通信端末Aと会議通信を行うテレビ会議通信端末がITU−T勧告H・320準拠した動画像・音声のみを扱える基本的な構成のテレビ会議通信端末であったり、別メーカまたは別機種のテレビ会議通信端末で動画像・音声以外のデータに互換性がなくても、いわゆるテレポインティングを行うことができる。また、位置指示物体である鉛筆Pを撮影した画面をそのまま目的動画像に合成するため、鉛筆Pの画面上の位置や動きを検出する必要がない。
【0065】
次に別の一実施例について説明する。
【0066】
図13は、それぞれが図1に示した基本構成を備えたテレビ会議通信端末A、B及びCが、回線網を経由して多地点接続装置100を介して相互に会議通信を行う場合を示している。
【0067】
この接続形態において、テレビ会議通信端末A、B及びCは、画像・音声のみに対応した基本的な構成のテレビ会議通信端末である。いま、テレビ会議通信端末A側の会議参加者が動画像(実物)Aの特定の部位を、テレビ会議通信端末BまたはC側の会議参加者に対して指し示したい場合は、その実物Aを直接指差して、実物Aと、その指差している手とが撮影された動画像を多地点接続装置100を介してテレビ会議通信端末B及びCに送信することにより行える。しかし、テレビ会議通信端末B及びCの側の会議参加者が、実物Aの特定部位を指し示す(テレポインティング)ことは、そのままではできない。また、実物がテレビ会議通信端末BやCの側に在る場合も、その他のテレビ会議通信端末側からは当該実物を指し示すことができない。そこで、この実施例では、多地点接続装置100を図14に示す構成とする。
【0068】
いま、テレビ会議通信端末BまたはCのうちのいずかれの端末が実物Aに対してテレポインティングを行うために、位置指示物体である鉛筆PbまたはPcをそれぞれ含む画面BまたはCを多地点接続装置100に送信すると、多地点接続装置100は、図14に示すように、通信制御部51bまたはcにより受信する。なお、この場合は、テレビ会議通信端末Aの側にある実物Aに対するテレポインティングであるため、多地点接続装置100にテレビ会議通信端末Aからの位置指示物体を含む画面は送信されないが、テレビ会議通信端末Aから他のテレビ会議通信端末に対してテレポインティングを行う場合もあるのはいうまでもない。
【0069】
さて、端末BまたはCからの画面BまたはCは、それぞれ通信制御部bまたはcから、動画像合成前処理部bまたはcへ送られ、所定の前処理が施された後動画・音声合成部83に送られる。一方、端末Aからの動画像Aは、通信制御部Aで受信されて、動画像前処理部82aで所定の前処理が施された後動画・音声合成部83に送られる。
【0070】
動画・音声合成部83は、動画像Aに画面BまたはCを合成する。その合成動画像は、動画像合成後処理部84a、bまたはcで所定の後処理が施された後それぞれ通信制御部81a、bまたはcを介して端末A、BまたはCに送信される。
【0071】
図13は、その様子を示し、同図において、テレビ会議通信端末BまたはCのうちのいずれかの会議参加者は、当該テレビ会議通信端末のテレビモニタ3に表示された鉛筆Pの位置を確認しながら、手に持った鉛筆Pbまたはcを画面BまたはC中で移動させる。その画面BまたはC中の鉛筆Pbまたはcは、多地点接続装置100側で動画像Aに合成され、テレビ会議通信端末A、B及びCに送信されてテレビ会議通信端末A、B及びC側で表示される。
【0072】
これにより、画面BまたはC中の鉛筆Pbまたはcの位置に対応して、テレビ会議通信端末A、B及びCのテレビモニタ3に表示される動画像Aに鉛筆Pがそのまま合成表示され、テレビ会議通信端末BまたはCのいずれかの会議参加者が、動画像A中の特定部位を当該テレビ会議通信端末以外のテレビ会議通信端末側の会議参加者に注目させることができる。
【0073】
また、そのために、テレビ会議通信端末A、BまたはCが新たな構成を備える必要はなく、多地点接続装置100側が図14に示した構成を備えていればよいため、テレビ会議通信端末A、B及びCがITU−T勧告H・320準拠した動画像・音声のみを扱える基本的な構成のテレビ会議通信端末であったり、別メーカまたは別機種のテレビ会議通信端末で動画像・音声以外のデータに互換性がなくても、いわゆるテレポインティングを行うことができる。また、位置指示物体である鉛筆Pbまたはcを撮影した画面をそのまま目的動画像(動画像A)に合成するため、鉛筆Pbまたはcの画面上の位置や動きを検出する必要がない。
【0074】
【発明の効果】
本発明によれば、相手装置側のテレビカメラで撮影された動画像に基づいて自装置側が位置・動き情報を得て遠隔制御されることが可能となり、当該相手装置側から見れば、自装置側のテレビカメラで撮影した動画像に基づいて、相手装置(本発明に係る装置)を遠隔制御することが可能となるため、前記相手装置が最低限動画像を扱えれば自装置を遠隔制御させることが可能となる効果が得られる。また、前記相手装置において指示物体を撮影した動画像を圧縮された動画像として受信して位置・動きを認識するようにすることで、位置情報の伝送のために伝送容量の一部を割く必要がない利点もある。
【図面の簡単な説明】
【図1】 本発明の一実施例に係るテレビ会議通信端末の基本構成を示す図である。
【図2】 回線網を介して会議通信を行うテレビ会議通信端末を示す図である。
【図3】 本発明の一実施例に係る制御装置のブロック構成図である。
【図4】 本発明の一実施例に係るポインタの表示例である。
【図5】 回線網を介して会議通信を行うテレビ会議通信端末を示す図である。
【図6】 本発明の一実施例に係る制御装置のブロック構成図である。
【図7】 本発明の一実施例に係るポインタの表示例である。
【図8】 回線網を経由し多地点接続装置を介して会議通信を行うテレビ会議通信端末を示す図である。
【図9】 本発明の一実施例に係る多地点接続装置のブロック構成図である。
【図10】 本発明の一実施例に係る制御装置のブロック構成図である。
【図11】 本発明の一実施例に係る制御装置のブロック構成図である。
【図12】 本発明の一実施例に係るポインタ(位置指示用物体)の表示例である。
【図13】 回線網を経由し多地点接続装置を介して会議通信を行うテレビ会議通信端末を示す図である。
【図14】 本発明の一実施例に係る多地点接続装置のブロック構成図である。
【符号の説明】
1 テレビカメラ
2 マイク
3 テレビモニタ
4 スピーカ
5 制御装置
31、41、51a、51b、51c、61、71、81a、81b、81c 通信制御部
32、62 指示物体認識部
33、63 指示物体位置情報抽出部
34 位置・動き合成部
35、65 指示・描画認識部
36、66 指示物体動き情報抽出部
42 動画像・位置・動き合成部
43 ポインティング・描画デバイス
52a、52b、52c 指示物体認識部
53a、53b、53c 指示物体位置情報抽出部
54 動画・音声・位置・動き合成部
55a、55b、55c 指示・描画認識部
56a、56b、56c 指示物体動き情報抽出部
64 カメラ動き制御部
72、76、82a、82b、82c 動画像合成前処理部
73 動画像合成処理部
74、84a、84b、84c 動画像合成後処理部
83 動画・音声合成部
100 多地点接続装置
P ポインタ、鉛筆
[0001]
BACKGROUND OF THE INVENTION
  The present invention relates to a television camera communication device and a multipoint connection device that can be applied to a video conference communication terminal that constitutes a video conference system.
[0002]
[Prior art]
  As conventional techniques related to the present invention, there are disclosed JP-A 06-217301, JP-A 01-228387, JP-A 04-123121, JP-A 04-123122, JP-A 05-260379, And JP-A-05-204534.
[0003]
  The technique described in Japanese Patent Application Laid-Open No. 06-217301 enables a cursor to be combined with an image exchanged with the other party and transmitted.
  The technique described in Japanese Patent Laid-Open No. 01-228387 is intended to obtain information indicating a position from a photographed image.
  The technique described in Japanese Patent Laid-Open No. 04-123121 attempts to display a photographed index member as a cursor.
  The technique described in Japanese Patent Application Laid-Open No. 04-123122 seeks to obtain information indicating the position of the index member by detecting the position of the index member with a sensor.
  The technique described in Japanese Patent Laid-Open No. 05-260379 is applied to title input for videotape recording by obtaining information indicating a position from an image obtained by photographing an index member.
  In the technique described in Japanese Patent Application Laid-Open No. 05-204534, the position on the image transmitted from the partner side is designated on the touch panel, and the designated position information is transferred as coordinate data to the partner side for remote pointing. Is to do.
[0004]
[Problems to be solved by the invention]
  However, the prior art described in each of the above publications has a problem that the counterpart device cannot be remotely controlled based on information captured by the television camera.
[0005]
  The present invention has been made in view of such circumstances, and TV camera communication that enables the own apparatus side to obtain position / motion information based on information photographed by the TV camera on the other apparatus side and be remotely controlled. An object is to provide a device and a multipoint connection device.
[0006]
[Means for Solving the Problems]
  The television camera communication device according to claim 1 is a television camera communication device that exchanges moving images with a partner device.ShootPredetermined processing was performedVideoCommunication control means for receiving from the counterpart device, and the receivedFrom videoPosition identification means for identifying the position of the pointing object on the other side, and the receivedFrom videoA movement identifying means for identifying the movement of the pointing object on the other side, and based on the position and movement of the identified pointing object;ThePredetermined image informationThe targetMoving image synthesizing means for synthesizing with the moving image, and transmitting the moving image synthesized by the moving image synthesizing means to the counterpart device.
[0007]
  The television camera communication device according to claim 2 is the television camera communication device according to claim 1, wherein:Predetermined processingIs, DynamicimageCompression processingIt is characterized by being.
[0008]
  The multipoint connection device according to claim 3, wherein the pointing object is connected to a plurality of counterpart devices and exchanges moving images with the counterpart devices.ShootPredetermined processing was performedVideoCommunication control means for receiving from a predetermined partner device of the plurality of partner devices, and the receivedFrom videoPosition identification means for identifying the position of the pointing object on the other side, and the receivedFrom videoA movement identifying means for identifying the movement of the pointing object on the other side, and based on the position and movement of the identified pointing object;ThePredetermined image informationThe targetMoving image synthesizing means for synthesizing with the moving image, and transmitting the moving image synthesized by the moving image synthesizing means to the plurality of counterpart devices.
[0009]
  The multipoint connection device according to claim 4, wherein the multipoint connection device according to claim 3,Predetermined processingIs, DynamicimageCompression processingIt is characterized by being.
[0010]
  6. The television camera communication device according to claim 5, wherein the pointing object is a television camera communication device for exchanging moving images with a partner device.ShootPredetermined processing was performedVideoCommunication control means for receiving from the counterpart device, and the receivedFrom videoPosition identification means for identifying the position of the pointing object on the other side, and the receivedFrom videoA motion identification means for identifying the movement of the pointing object on the other side and a television camera for taking an image, and controlling the orientation of the television camera based on the position or movement of the identified pointing object and the television camera The image captured by the method is transmitted to the counterpart device.
[0011]
  The television camera communication device according to claim 6 is the television camera communication device according to claim 5, whereinPredetermined processingIs, DynamicimageCompression processingIt is characterized by being.
[0012]
  The television camera communication device according to claim 7 is the television camera communication device according to claim 5 or 6, wherein the orientation of the television camera is controlled based on the position or movement of the identified pointing object. 7. The TV camera communication according to claim 5, wherein the TV camera communication is a control for displacing the direction of the TV camera vertically or horizontally according to the vertical or horizontal displacement of the pointing object in the image. apparatus.
[0013]
  The television camera communication device according to claim 8 is the television camera communication device according to any one of claims 1, 2, 5, 6 or 7, wherein the exchange of moving images with the counterpart device is a predetermined ITU-T recommendation. It is performed according to.
[0014]
  The multipoint connection device according to claim 9 is the multipoint connection device according to claim 3 or 4, wherein the exchange of moving images with the counterpart device is performed in accordance with a predetermined ITU-T recommendation. It is characterized by that.
[0015]
DETAILED DESCRIPTION OF THE INVENTION
  Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
[0016]
  FIG. 1 shows a basic configuration of a video conference communication terminal (TV camera communication device) constituting a video conference system according to an embodiment of the present invention. In the figure, a television camera 1 is means for inputting a moving image. The microphone 2 is a means for inputting sound. The TV monitor 3 is a means for displaying and outputting a moving image from the other party's video conference communication terminal and a self-portrait taken by the TV camera 1. The speaker 4 is means for outputting sound from the counterpart video conference communication terminal. The control device 5 controls each of the above devices and performs compression / reproduction / communication processing of moving images / sounds.
[0017]
  FIG. 2 shows that video conference communication terminals A and B each having the basic configuration shown in FIG. 1 perform conference communication with each other via a circuit network. 1 displays the moving image A obtained by photographing the real object A on its own TV monitor 3 and transmits it to the TV conference communication terminal B. The TV conference communication terminal B receives the received moving image A on its own TV monitor 3. The video conference communication terminals A and B are displaying the moving image A as the same moving image.
[0018]
  In this case, when a conference participant on the video conference communication terminal A side wants the conference participant on the video conference communication terminal B side to pay attention to a specific part in the video image A, the video camera 1 captures the video image as the video image A. Since the actual object A is on the video conference communication terminal A side, the hand or finger may be photographed as a part of the moving image A by pointing the actual object A directly with a hand or finger.
[0019]
  However, if the conference participant on the video conference communication terminal B side wants the conference participant on the video conference communication terminal A side to pay attention to the specific part in the video image A, the video camera 1 captures the video image A as the video image A. Since the actual object A is on the video conference communication terminal A side, the actual object A cannot be pointed directly with a hand or a finger.
[0020]
  Therefore, the control device 5 of the video conference communication terminal A is configured as shown in FIG. 3 as an embodiment of the present invention.
[0021]
  In the figure, the moving image from the terminal B is received by the communication control unit 31. The received moving image from the terminal B is a screen B obtained by photographing the moving image including the pencil P as the position indicating object in the plain background with the television camera 1, as shown in FIG. .
[0022]
  The screen B as a moving image from the terminal B is sent from the communication control unit 31 to the pointing object recognition unit 32. The pointing object recognition unit 32 identifies the pencil P in the screen B in cooperation with the pointing / drawing recognition unit 35, and the pointing object position information extraction unit 33 and the pointing object motion information extraction unit 36 include the pointing object recognition unit 32. The position of the pencil P recognized on the image and its movement are identified.
[0023]
  As a technique for recognizing a specific object in an image and extracting its position and movement as a change in the position, a moving image processing apparatus described in Japanese Patent Laid-Open No. 5-174146, or “conventional” Known techniques listed in “Technology” can be applied.
[0024]
  The position / motion information of the pencil P identified by the pointing object position information extraction unit 33 and the pointing object motion information extraction unit 36 is sent to the position / motion synthesis unit 34, and the position / motion synthesis unit 34 Based on the position / motion information, the pointer P having an arrow shape is superimposed on the moving image A photographed by the television camera 1, and the moving image on which the pointer P is superimposed is connected via the communication control unit 31 to the video conference communication terminal. Transmit as a moving image to B. In addition, the moving image on which the pointer P is superimposed is simultaneously displayed on the television monitor 3 of the video conference communication terminal A.
[0025]
  FIG. 4 shows the situation, in which the conference participant on the video conference communication terminal B side holds the position of the pointer P displayed on the TV monitor 3 on the video conference communication terminal B side while holding the hand. The held pencil P is moved in the screen B. The position of the pencil P in the screen B is extracted on the video conference communication terminal A side, and the pointer P is superimposed on the corresponding position in the moving image A to be displayed on the video conference communication terminal A side, and also in the video conference. It is transmitted to the communication terminal B side and displayed on the video conference communication terminal B side.
[0026]
  Accordingly, the pointer P is superimposed on the moving image A displayed on the TV monitor 3 of the video conference communication terminals A and B corresponding to the position of the pencil P in the screen B, and the conference on the video conference communication terminal B side is displayed. A participant can make a specific part in the moving image A pay attention to the conference participant on the video conference communication terminal A side.
[0027]
  For this purpose, the video conference communication terminal B does not need to have a new configuration, and the video conference communication terminal A only has to have the configuration shown in FIG. The video conference communication terminal is a video conference communication terminal having a basic configuration capable of handling only moving images / sound compliant with ITU-T recommendation H.320, or other than a video / sound with a video conference communication terminal of another manufacturer or model. Even if the data is not compatible, so-called telepointing can be performed.
[0028]
  The pointer is not superimposed on the moving image A corresponding to the position in the screen B of the pencil P, but the line drawing in the moving image A corresponding to the movement locus (change in position) in the screen B of the pencil P. If so, so-called telewriting can be performed.
[0029]
  In the embodiment described above, an actual object (object A) to be pointed on the video conference communication terminal (video conference communication terminal A) side is replaced with a video conference communication terminal (TV) that does not have the function according to the embodiment of the present invention. The conference communication terminal B) can be pointed from the side, but the embodiment described below is the opposite, and the video conference communication terminal on the side having no real thing to be pointed to is one embodiment of the present invention. This is the case with such a function.
[0030]
  5 shows that video conference communication terminals A and B each having the basic configuration shown in FIG. 1 perform conference communication with each other via a network, and as one aspect, the video conference communication terminal A has its TV camera 1. The moving image A obtained by photographing the real object A is displayed on its own TV monitor 3 and transmitted to the video conference communication terminal B. The video conference communication terminal B receives the received moving image A on its own TV monitor 3. By displaying, the video conference communication terminals A and B are displaying the moving image A as the same moving image.
[0031]
  In this case, when a conference participant on the video conference communication terminal A side wants the conference participant on the video conference communication terminal B side to pay attention to a specific part in the video image A, the video camera 1 captures the video image as the video image A. Since the actual object A is on the video conference communication terminal A side, the hand or finger may be photographed as a part of the moving image A by pointing the actual object A directly with a hand or finger.
[0032]
  However, if the conference participant on the video conference communication terminal B side wants the conference participant on the video conference communication terminal A side to pay attention to the specific part in the video image A, the video camera 1 captures the video image A as the video image A. Since the actual object A is on the video conference communication terminal A side, the actual object A cannot be pointed directly with a hand or a finger.
[0033]
  Therefore, in another embodiment of the present invention, the control device 5 of the video conference communication terminal B is configured as shown in FIG.
[0034]
  In the figure, a moving image from the terminal A is received by the communication control unit 41. The received moving image from the terminal A is a moving image A obtained by photographing the real object A as shown in FIG.
[0035]
  The moving image A from the terminal A is sent from the communication control unit 41 to the moving image / position / motion synthesis unit 42. The moving image / position / motion synthesis unit 42 superimposes an arrow-shaped pointer P on the moving image A from the terminal A based on the position / motion information from the pointing / drawing device 43 and superimposes the pointer P on the moving image A. A is transmitted as a moving image to the video conference communication terminal A via the communication control unit 31. Also, the moving image A on which the pointer P is superimposed is simultaneously displayed on the television monitor 3 of the video conference communication terminal B.
[0036]
  FIG. 7 shows the situation, in which the conference participant on the video conference communication terminal B side confirms the position of the pointer P displayed on the TV monitor 3 on the video conference communication terminal B side, By operating the pointing / drawing device 43, the pointer P is superimposed on the position in the corresponding moving image A, displayed on the video conference communication terminal B side, and transmitted to the video conference communication terminal A side. Also displayed on the conference communication terminal A side.
[0037]
  Accordingly, the pointer P is superimposed on the moving image A displayed on the TV monitor 3 of the video conference communication terminals A and B corresponding to the position of the pointing / drawing device 43, and the conference participation on the video conference communication terminal B side is displayed. A person can cause a conference participant on the video conference communication terminal A side to pay attention to a specific part in the moving image A.
[0038]
  For this purpose, the video conference communication terminal A does not need to have a new configuration, and the video conference communication terminal B only has to have the configuration shown in FIG. The video conference communication terminal is a video conference communication terminal having a basic configuration capable of handling only moving images / sound compliant with ITU-T recommendation H.320, or other than a video / sound with a video conference communication terminal of another manufacturer or model. Even if the data is not compatible, so-called telepointing can be performed.
[0039]
  Note that the pointer P is not superimposed on the position in the moving image A corresponding to the position of the pointing / drawing device 43, but in the moving image A corresponding to the movement locus (change in position) of the pointing / drawing device 43. If line drawings are superimposed, so-called telewriting can be performed. The pointing / drawing device 43 is not a conventional pointing / drawing device such as a mouse, but extracts the position information by recognizing the position of the position indicating object moving in the screen as shown in the above-mentioned one embodiment. It is good also as composition to do. Then, a pointing / drawing device can be configured using a television monitor that is an essential component as a video conference communication terminal, and there is no need to separately provide a pointing / drawing device such as a mouse.
[0040]
  In each of the above embodiments, telepointing or telewriting is performed between the video conference communication terminal having the function according to the embodiment and the video conference communication terminal not necessarily having the function according to the embodiment. However, one embodiment described below is a case where a multipoint connection apparatus interposed in a plurality of video conference communication terminals has the function according to the embodiment.
[0041]
  FIG. 8 shows a case where video conference communication terminals A, B, and C each having the basic configuration shown in FIG. 1 perform conference communication with each other via the multipoint connection device 100 via the network. Yes.
[0042]
  In this connection mode, the video conference communication terminals A, B, and C are video conference communication terminals having a basic configuration that supports only images and sounds, and cannot be telepointed or telewritten with each other as they are. Therefore, in this embodiment, the multipoint connection device 100 is configured as shown in FIG.
[0043]
  Now, in order for any of the video conference communication terminals A, B, or C to perform telepointing, the screens A, B, or C including the pencils Pa, Pb, or Pc, which are position pointing objects, are multipointed. When transmitted to the connection device 100, the multipoint connection device 100 receives the communication control unit 51a, b, or c as shown in FIG.
[0044]
  The screen A, B, or C from the terminal A, B, or C is sent from the communication control unit 51a, b, or c to the pointing object A recognition unit 52a, the pointing object B recognition unit 52b, or the pointing object C recognition unit 52c, respectively. It is done. The pointing object recognition unit 52a, b, or c identifies the pencil a, b, or c in the screen A, B, or C in cooperation with the pointing / drawing recognition unit 55a, b, or c, and extracts pointing object position information. The units 53a, b or c and the pointing object movement information extraction units 56a, b or c are respectively displayed on the screen A, B or C of the pencil Pa, b or c recognized by the pointing object recognition unit 52a, b or c. And the position of the movement.
[0045]
  The position / motion information of the pencil Pa, b, or c identified by the pointing object position information extraction unit 53A, B, or C and the pointing object movement information extraction unit 56A, B, or C, respectively, is a moving image, sound, position, or motion. Based on the position / motion information of the pencil Pa, b or c, the moving image / sound / position / motion composition unit 54 sends the arrow-shaped pointer P to the TV camera devices A, B, and C. Superimposing on the moving image X being transmitted, the moving image X with the pointer P superimposed thereon is transmitted as a moving image to the video conference communication terminal A, B or C via the communication control unit 51a, b or c, respectively.
[0046]
  FIG. 8 shows this state, in which one of the conference participants among the video conference communication terminals A, B, or C indicates the position of the pointer P displayed on the TV monitor 3 of the video conference communication terminal. , The pencil Pa, b or c held in the hand is moved in the screen A, B or C. The position of the pencil Pa, b, or c in the screen A, B, or C is extracted on the multipoint connection device 100 side, and the pointer P is superimposed on the corresponding position in the moving image X, so that the video conference communication terminal A , B and C and displayed on the video conference communication terminals A, B and C side.
[0047]
  Accordingly, the pointer P is superimposed on the moving image X displayed on the TV monitor 3 of the video conference communication terminals A, B, and C in correspondence with the position of the pencil Pa, b, or c on the screen A, B, or C. Thus, the conference participant of any of the video conference communication terminals A, B, or C can make a particular part in the moving image X focus on the conference participants of the video conference communication terminals other than the video conference communication terminal.
[0048]
  For this purpose, the video conference communication terminal A, B, or C does not have to have a new configuration, and the multipoint connection device 100 only has to have the configuration shown in FIG. B and C are video conference communication terminals having a basic configuration capable of handling only moving images / sound conforming to ITU-T Recommendation H.320, or other manufacturers or models of video conference communication terminals other than video / sound Even if the data is not compatible, so-called telepointing can be performed.
[0049]
  It should be noted that the movement of the pencil A, B or C on the screen a, b or c is not performed on the moving image X corresponding to the position on the screen A, B or C of the pencil Pa, b or c. If a line drawing is superimposed on the moving image X corresponding to the locus (change in position), so-called telewriting can be performed.
[0050]
  Next, another embodiment in which the position of the monitor camera of the video conference communication terminal having the function according to the present invention is remotely controlled from the video conference communication terminal not having the function according to the present invention will be described.
[0051]
  Now, as shown in FIG. 2, a screen B obtained by photographing a range including a pencil P as a position indicating object with a video conference communication terminal B that does not have the function according to the embodiment with the television camera 1 is used in the embodiment. The control device 5 has such a function, and transmits it to the video conference communication terminal A having the configuration shown in FIG.
[0052]
  The screen B as a moving image from the terminal B is received by the communication control unit 61 of the control device 5 of the video conference communication terminal A shown in FIG. 10 and sent to the pointing object recognition unit 62. The pointing object recognition unit 62 identifies the pencil P in the screen B in cooperation with the pointing / drawing recognition unit 65, and the pointing object position information extraction unit 63 and the pointing object movement information extraction unit 66 include the pointing object recognition unit 62. The position of the pencil P recognized on the screen and its movement are identified.
[0053]
  The position / motion information of the pencil P identified by the pointing object position information extraction unit 63 and the pointing object movement information extraction unit 66 is sent to the camera movement control unit 64, and the camera movement control unit 64 detects the position / movement of the pencil P. Based on the information, the orientation of the television camera 1 is controlled.
[0054]
  As a method for controlling the orientation of the television camera 1 in that case, it is intuitively easy to understand that the orientation of the television camera 1 is displaced up, down, left, and right in accordance with the up, down, left, and right displacement in the screen B of the pencil P.
[0055]
  FIG. 2 shows this state. In FIG. 2, a conference participant on the video conference communication terminal B side is photographed by the video camera 1 on the video conference communication terminal A side and transmitted to the video conference communication terminal B to be displayed on the TV monitor. The pencil P held in the hand is moved in the screen B while checking the moving image A displayed in FIG. The position / movement of the pencil P in the screen B is extracted on the video conference communication terminal A side, and the direction of the monitor camera 1 is controlled to the direction corresponding to the extracted position / movement.
[0056]
  This enables remote control of the monitor camera 1 on the video conference communication terminal A side from the video conference communication terminal B side.
[0057]
  For this purpose, the video conference communication terminal B does not need to have a new configuration, and the video conference communication terminal A only has to have the configuration shown in FIG. The video conference communication terminal is a video conference communication terminal having a basic configuration capable of handling only moving images / sound compliant with ITU-T recommendation H.320, or other than a video / sound with a video conference communication terminal of another manufacturer or model. Even if the data is not compatible, it is possible to remotely control the position of the monitor camera.
[0058]
  Next, another embodiment will be described. Now, as shown in FIG. 2, a screen B obtained by photographing a range including a pencil P as a position indicating object with a video conference communication terminal B that does not have the function according to the embodiment with the television camera 1 is used in the embodiment. The control device 5 having such a function transmits the video conference communication terminal A having the configuration shown in FIG.
[0059]
  In FIG. 11, the moving image from the terminal B is received by the communication control unit 71. The received moving image from the terminal B is a screen B obtained by photographing the range including the pencil P as the position indicating object with the television camera 1, as shown in FIG.
[0060]
  The screen B as a moving image from the terminal B is sent from the communication control unit 71 by the moving image composition preprocessing unit 72, subjected to predetermined preprocessing, and sent to the moving image composition processing unit 73. The moving image composition processing unit 73 synthesizes the screen B with the moving image A shot by the television camera 1 and subjected to predetermined processing by the moving image composition preprocessing unit 76.
[0061]
  The synthesized moving image is subjected to predetermined post-processing by the moving image composition post-processing unit 74 and then displayed on the television monitor on the video conference communication terminal A side, and is also displayed on the video conference communication terminal via the communication control unit 31. B is transmitted as a moving image to B.
[0062]
  FIG. 12 shows this state, in which the conference participant on the video conference communication terminal B side confirms the position of the pencil P displayed on the video monitor 3 on the video conference communication terminal B side with respect to the moving image A. Meanwhile, the pencil P held in the hand is moved in the screen B. Further, the moving pencil P is synthesized and displayed on the moving image A on the video conference communication terminal A side.
[0063]
  Thereby, the pencil P is synthesized and displayed as it is on the moving image A displayed on the TV monitor 3 of the video conference communication terminals A and B corresponding to the position of the pencil P in the screen B, and the video conference communication terminal B side A conference participant can make the conference participant on the video conference communication terminal A side pay attention to a specific part in the moving image A.
[0064]
  For this purpose, the video conference communication terminal B does not need to have a new configuration, and the video conference communication terminal A only has to have the configuration shown in FIG. The video conference communication terminal is a video conference communication terminal having a basic configuration capable of handling only moving images / sound compliant with ITU-T recommendation H.320, or other than a video / sound with a video conference communication terminal of another manufacturer or model. Even if the data is not compatible, so-called telepointing can be performed. In addition, since the screen on which the pencil P that is the position indicating object is photographed is directly combined with the target moving image, it is not necessary to detect the position or movement of the pencil P on the screen.
[0065]
  Next, another embodiment will be described.
[0066]
  FIG. 13 shows a case in which video conference communication terminals A, B, and C each having the basic configuration shown in FIG. 1 perform conference communication with each other via the multipoint connection device 100 via the circuit network. ing.
[0067]
  In this connection mode, the video conference communication terminals A, B, and C are video conference communication terminals having a basic configuration that supports only images and sounds. If the conference participant on the video conference communication terminal A side wants to point a specific part of the moving image (actual) A to the conference participant on the video conference communication terminal B or C side, the actual participant A is directly selected. This can be done by pointing and transmitting a moving image in which the real A and the pointing hand are photographed to the video conference communication terminals B and C via the multipoint connection device 100. However, it is impossible for the conference participants on the video conference communication terminals B and C side to point to a specific part of the real object A (telepointing) as it is. In addition, even when the actual product is on the video conference communication terminal B or C side, the other actual video conference communication terminal cannot point to the actual product. Therefore, in this embodiment, the multipoint connection device 100 is configured as shown in FIG.
[0068]
  Now, in order for any of the video conference communication terminals B or C to telepoint the real object A, the screens B or C each including the pencil Pb or Pc, which is a position indicating object, are connected at multiple points. When transmitted to the apparatus 100, the multipoint connection apparatus 100 receives the communication control unit 51b or c as shown in FIG. In this case, since the telepointing is performed with respect to the actual object A on the video conference communication terminal A side, the screen including the position indicating object from the video conference communication terminal A is not transmitted to the multipoint connection device 100. Needless to say, telepointing may be performed from the communication terminal A to another video conference communication terminal.
[0069]
  Now, the screen B or C from the terminal B or C is sent from the communication control unit b or c to the moving image synthesis pre-processing unit b or c, respectively, and after being subjected to predetermined pre-processing, the moving image / voice synthesis unit 83. On the other hand, the moving image A from the terminal A is received by the communication control unit A, subjected to predetermined preprocessing by the moving image preprocessing unit 82a, and then sent to the moving image / voice synthesis unit 83.
[0070]
  The moving image / sound synthesis unit 83 synthesizes the screen B or C with the moving image A. The synthesized moving image is transmitted to the terminal A, B, or C via the communication control unit 81a, b, or c after being subjected to predetermined post-processing by the moving image synthesis post-processing unit 84a, b, or c.
[0071]
  FIG. 13 shows the situation, in which the conference participant of either the video conference communication terminal B or C confirms the position of the pencil P displayed on the TV monitor 3 of the video conference communication terminal. Meanwhile, the pencil Pb or c held in the hand is moved in the screen B or C. The pencil Pb or c in the screen B or C is combined with the moving image A on the multipoint connection device 100 side and transmitted to the video conference communication terminals A, B, and C, and the video conference communication terminals A, B, and C side. Is displayed.
[0072]
  Thereby, the pencil P is synthesized and displayed as it is on the moving image A displayed on the TV monitor 3 of the video conference communication terminals A, B, and C corresponding to the position of the pencil Pb or c in the screen B or C, and the TV The conference participant of either the conference communication terminal B or C can cause the conference participant on the video conference communication terminal side other than the video conference communication terminal to pay attention to the specific part in the moving image A.
[0073]
  For this purpose, the video conference communication terminal A, B, or C does not need to have a new configuration, and the multipoint connection device 100 only has to have the configuration shown in FIG. B and C are video conference communication terminals having a basic configuration capable of handling only moving images / sound conforming to ITU-T Recommendation H.320, or other manufacturers or models of video conference communication terminals other than video / sound Even if the data is not compatible, so-called telepointing can be performed. Further, since the screen where the pencil Pb or c as the position indicating object is photographed is synthesized as it is with the target moving image (moving image A), it is not necessary to detect the position or movement of the pencil Pb or c on the screen.
[0074]
【The invention's effect】
  According to the present invention, the image was taken by the television camera on the partner device side.VideoBased on this, the own device side can obtain position / motion information and can be remotely controlled.VideoBased on the above, it becomes possible to remotely control the counterpart device (the device according to the present invention)Because, beforeIf the communication partner apparatus can handle a moving image at a minimum, it is possible to remotely control the own apparatus.Also,Photograph the pointing object in the counterpart device.VideoIs received as a compressed video to recognize the position and motion, so that it is not necessary to occupy a part of the transmission capacity for the transmission of position information.There are also advantages.
[Brief description of the drawings]
FIG. 1 is a diagram showing a basic configuration of a video conference communication terminal according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating a video conference communication terminal that performs conference communication via a line network.
FIG. 3 is a block diagram of a control device according to an embodiment of the present invention.
FIG. 4 is a display example of a pointer according to an embodiment of the present invention.
FIG. 5 is a diagram illustrating a video conference communication terminal that performs conference communication via a line network.
FIG. 6 is a block configuration diagram of a control device according to an embodiment of the present invention.
FIG. 7 is a display example of a pointer according to an embodiment of the present invention.
FIG. 8 is a diagram showing a video conference communication terminal that performs conference communication via a multipoint connection device via a line network.
FIG. 9 is a block diagram of a multipoint connection apparatus according to an embodiment of the present invention.
FIG. 10 is a block diagram of a control device according to an embodiment of the present invention.
FIG. 11 is a block configuration diagram of a control device according to an embodiment of the present invention.
FIG. 12 is a display example of a pointer (position indicating object) according to an embodiment of the present invention.
FIG. 13 is a diagram showing a video conference communication terminal that performs conference communication via a multipoint connection device via a circuit network.
FIG. 14 is a block diagram of a multipoint connection apparatus according to an embodiment of the present invention.
[Explanation of symbols]
  1 TV camera
  2 Microphone
  3 TV monitor
  4 Speaker
  5 Control device
  31, 41, 51a, 51b, 51c, 61, 71, 81a, 81b, 81c Communication control unit
  32, 62 Pointed object recognition unit
  33, 63 Pointed object position information extraction unit
  34 Position / Motion Synthesis Unit
  35, 65 Instruction / drawing recognition unit
  36, 66 Pointed object motion information extraction unit
  42 Moving Image / Position / Motion Synthesis Unit
  43 pointing and drawing devices
  52a, 52b, 52c Pointed object recognition unit
  53a, 53b, 53c Pointed object position information extraction unit
  54 Animation / Speech / Position / Motion Synthesis
  55a, 55b, 55c Instruction / drawing recognition unit
  56a, 56b, 56c Pointed object motion information extraction unit
  64 Camera motion controller
  72, 76, 82a, 82b, 82c Moving image composition pre-processing unit
  73 Moving Image Composition Processing Unit
  74, 84a, 84b, 84c Moving image composition post-processing unit
  83 Video / speech synthesis unit
  100 Multipoint connection device
  P Pointer, pencil

Claims (9)

相手装置との間で動画像のやりとりを行うテレビカメラ通信装置において、
指示物体を撮影し所定の処理がされた動画像を相手装置から受信する通信制御手段と、
受信した前記動画像から相手側での指示物体の位置を識別する位置識別手段と、
受信した前記動画像から相手側での指示物体の動きを識別する動き識別手段と、
識別された指示物体の位置及び動きに基づ所定の画情報を指示対象である動画像に合成する動画像合成手段とを備え、
前記動画像合成手段により合成された動画像を前記相手装置に送信することを特徴とするテレビカメラ通信装置。
In a TV camera communication device that exchanges moving images with a partner device,
Communication control means for capturing a moving image obtained by photographing a pointing object and subjected to predetermined processing;
Position identifying means for identifying the position of the pointing object on the other side from the received moving image ;
Movement identification means for identifying the movement of the pointing object on the other side from the received moving image ;
Rather based on the position and movement of the identified pointing object and a moving image combining means for combining the video image is a referent predetermined image information,
A television camera communication apparatus, wherein the moving picture synthesized by the moving picture synthesizing means is transmitted to the counterpart apparatus.
前記所定の処理、動画像の圧縮処理であることを特徴とする請求項1に記載のテレビカメラ通信装置。Wherein the predetermined processing, the TV camera communication apparatus according to claim 1, characterized in that the compression of the dynamic image. 複数の相手装置に接続され、それらの相手装置との間で動画像のやりとりを行う多地点接続装置において、
指示物体を撮影し所定の処理がされた動画像を前記複数の相手装置のうちの所定の相手装置から受信する通信制御手段と、
受信した前記動画像から相手側での指示物体の位置を識別する位置識別手段と、
受信した前記動画像から相手側での指示物体の動きを識別する動き識別手段と、
識別された指示物体の位置及び動きに基づ所定の画情報を指示対象である動画像に合成する動画像合成手段とを備え、
前記動画像合成手段により合成された動画像を前記複数の相手装置に送信することを特徴とする多地点接続装置。
In a multipoint connection device that is connected to multiple counterpart devices and exchanges moving images with those counterpart devices,
Communication control means for receiving a moving image obtained by photographing a pointing object and subjected to predetermined processing from a predetermined partner device among the plurality of partner devices;
Position identifying means for identifying the position of the pointing object on the other side from the received moving image ;
Movement identification means for identifying the movement of the pointing object on the other side from the received moving image ;
Rather based on the position and movement of the identified pointing object and a moving image combining means for combining the video image is a referent predetermined image information,
A multipoint connection device, wherein the moving image synthesized by the moving image synthesizing means is transmitted to the plurality of counterpart devices.
前記所定の処理、動画像の圧縮処理であることを特徴とする請求項3に記載の多地点接続装置。Wherein the predetermined processing, multipoint control unit according to claim 3, characterized in that the compression of the dynamic image. 相手装置との間で動画像のやりとりを行うテレビカメラ通信装置において、
指示物体を撮影し所定の処理がされた動画像を相手装置から受信する通信制御手段と、
受信した前記動画像から相手側での指示物体の位置を識別する位置識別手段と、
受信した前記動画像から相手側での指示物体の動きを識別する動き識別手段と、
画像を撮影するテレビカメラとを備え、
識別された指示物体の位置または動きに基づいて前記テレビカメラの向きを制御すると共に前記テレビカメラにより撮影された画像を前記相手装置に送信することを特徴とするテレビカメラ通信装置。
In a TV camera communication device that exchanges moving images with a partner device,
Communication control means for capturing a moving image obtained by photographing a pointing object and subjected to predetermined processing;
Position identifying means for identifying the position of the pointing object on the other side from the received moving image ;
Movement identification means for identifying the movement of the pointing object on the other side from the received moving image ;
A TV camera for taking images,
A television camera communication device, wherein the orientation of the television camera is controlled based on the position or movement of the identified pointing object and an image photographed by the television camera is transmitted to the counterpart device.
前記所定の処理、動画像の圧縮処理であることを特徴とする請求項5に記載のテレビカメラ通信装置。Wherein the predetermined processing, the TV camera communication apparatus according to claim 5, characterized in that the compression of the dynamic image. 前記識別された指示物体の位置または動きに基づいて行われる前記テレビカメラの向きの制御は、画像中の指示物体の上下又は左右の変位に応じて前記テレビカメラの向きを上下又は左右に変位させる制御であることを特徴とする請求項5または6のいずれかに記載のテレビカメラ通信装置。  The control of the direction of the television camera performed based on the position or movement of the identified pointing object displaces the direction of the television camera vertically or horizontally according to the vertical or horizontal displacement of the pointing object in the image. The television camera communication device according to claim 5, wherein the television camera communication device is control. 前記相手装置との動画像のやりとりは所定のITU−T勧告に準拠して行われることを特徴とする請求項1、2,5,6または7のいずれかに記載のテレビカメラ通信装置。  8. The television camera communication apparatus according to claim 1, wherein the exchange of moving images with the counterpart apparatus is performed in accordance with a predetermined ITU-T recommendation. 前記相手装置との動画像のやりとりは所定のITU−T勧告に準拠して行われることを特徴とする請求項3または4のいずれかに記載の多地点接続装置。  5. The multipoint connection device according to claim 3, wherein the exchange of moving images with the counterpart device is performed in accordance with a predetermined ITU-T recommendation.
JP34508195A 1995-12-08 1995-12-08 Television camera communication device and multipoint connection device Expired - Fee Related JP3759216B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP34508195A JP3759216B2 (en) 1995-12-08 1995-12-08 Television camera communication device and multipoint connection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP34508195A JP3759216B2 (en) 1995-12-08 1995-12-08 Television camera communication device and multipoint connection device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2003374472A Division JP4223922B2 (en) 2003-11-04 2003-11-04 TV camera communication device

Publications (2)

Publication Number Publication Date
JPH09163336A JPH09163336A (en) 1997-06-20
JP3759216B2 true JP3759216B2 (en) 2006-03-22

Family

ID=18374159

Family Applications (1)

Application Number Title Priority Date Filing Date
JP34508195A Expired - Fee Related JP3759216B2 (en) 1995-12-08 1995-12-08 Television camera communication device and multipoint connection device

Country Status (1)

Country Link
JP (1) JP3759216B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002165196A (en) * 2000-11-27 2002-06-07 Sumitomo Electric Ind Ltd Apparatus and method of interactive information exchange
JP2006041884A (en) 2004-07-27 2006-02-09 Sony Corp Information processing apparatus and method therefor, recording medium and program
JP5058042B2 (en) * 2008-03-24 2012-10-24 シャープ株式会社 Image communication system and image communication method
JP6343897B2 (en) * 2013-09-30 2018-06-20 株式会社リコー Transmission terminal, transmission method, and program
JP2020043507A (en) * 2018-09-12 2020-03-19 シャープ株式会社 Video display device and video processing device
WO2020162154A1 (en) * 2019-02-04 2020-08-13 ソニー株式会社 Information processing device and information processing method

Also Published As

Publication number Publication date
JPH09163336A (en) 1997-06-20

Similar Documents

Publication Publication Date Title
JP4770178B2 (en) Camera control apparatus, camera system, electronic conference system, and camera control method
US6208373B1 (en) Method and apparatus for enabling a videoconferencing participant to appear focused on camera to corresponding users
US20080239061A1 (en) First portable communication device
US7643064B1 (en) Predictive video device system
CN103945117A (en) Photographing unit, cooperative photographing method, and recording medium having recorded program
US20210264671A1 (en) Panoramic augmented reality system and method thereof
JP4539015B2 (en) Image communication apparatus, image communication method, and computer program
WO2017222258A1 (en) Multilateral video communication system and method using 3d depth camera
CN107682638A (en) Generation, the method and device of display panoramic picture
JP2005092657A (en) Image display device and method
JP2007158680A (en) Tracking imaging apparatus and tracking imaging system utilizing it
JP2009089324A (en) Video conference system and program, and recoding medium
JP3759216B2 (en) Television camera communication device and multipoint connection device
WO2017141584A1 (en) Information processing apparatus, information processing system, information processing method, and program
US7986336B2 (en) Image capture apparatus with indicator
CN111163280A (en) Asymmetric video conference system and method thereof
JP2005117285A (en) Information input device, communication terminal and communication method
JP4223922B2 (en) TV camera communication device
JP6004978B2 (en) Subject image extraction device and subject image extraction / synthesis device
JP7190594B1 (en) IMAGING DEVICE AND CONTROL METHOD THEREOF, IMAGE PROCESSING DEVICE AND IMAGE PROCESSING SYSTEM
JP3449939B2 (en) Video display method and recording medium recording the program
KR101393147B1 (en) Mobile Terminal and Shooting method thereof
JP2010004480A (en) Imaging apparatus, control method thereof and program
JP2005142765A (en) Apparatus and method for imaging
JP2013232830A (en) Image processing system, image processing device, image processing method, and image processing program

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20031202

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040204

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20040209

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20040227

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051228

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100113

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110113

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120113

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130113

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140113

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees