JP2004171356A - Shared information operation device, shared information operation method, shared information operation program, and computer readable recording medium with shared information operation program recorded thereon - Google Patents

Shared information operation device, shared information operation method, shared information operation program, and computer readable recording medium with shared information operation program recorded thereon Download PDF

Info

Publication number
JP2004171356A
JP2004171356A JP2002337776A JP2002337776A JP2004171356A JP 2004171356 A JP2004171356 A JP 2004171356A JP 2002337776 A JP2002337776 A JP 2002337776A JP 2002337776 A JP2002337776 A JP 2002337776A JP 2004171356 A JP2004171356 A JP 2004171356A
Authority
JP
Japan
Prior art keywords
information
shared information
operator
input
shared
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002337776A
Other languages
Japanese (ja)
Inventor
Ikuo Kitagishi
郁雄 北岸
Takashi Yagi
貴史 八木
Akira Nakayama
彰 中山
Satoshi Iwaki
敏 岩城
Minoru Kobayashi
稔 小林
Satoshi Ishibashi
聡 石橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2002337776A priority Critical patent/JP2004171356A/en
Publication of JP2004171356A publication Critical patent/JP2004171356A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To realize presentation similar to a real world in a teleconference system. <P>SOLUTION: The shared information operation device is provided with an operation purpose discrimination means for discriminating an operator's operation purpose from information inputted to shared information by an operator by using an operation input means and an operation information control means for displaying an image expressed on the basis of the discrimination result of the operation purpose discrimination means and indicating the operator's information operation purpose on a display device of a terminal. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、共有情報操作システムに関し、特に、通信網を介した遠隔会議システムを支援するための装置として好適な共有情報操作システムに関する。
【0002】
【従来の技術】
一般に、ネットワーク機能や計算機の支援を得て行なわれる分散型の遠隔会議における参加者などは、通信網を介して、電子資料などの情報を共有する。この共有される電子資料などの情報は遠隔会議の参加者などにより指し示される場合があるが、この際、誰が何処を指し示しているかを直感的に判別できれば、参加者などが自己の意見などを他の参加者などに容易に伝達することができる。
【0003】
このため、従来は、誰が電子資料などの何処を指し示しているのかを判別できるようにすべく、電子資料などを指し示すカーソルの色や大きさや形などの表示方式を参加者ごとに変える方法、または、表示情報上に各参加者の意見を提示したりする方法を採用していた(特許文献1、特許文献2)。
【0004】
【特許文献1】
特開平7−244637号公報(共同作業支援システム)
【特許文献2】
特開平10−105365号公報(通信端末、サーバ装置、共同作業システムおよびポインタ表示制御方法)
【0005】
【発明が解決しようとする課題】
しかしながら、これら従来の方法では、誰が何処を指し示しているのかを知らしめることはできても、カーソルの動きが予測し難く、また表示方式に操作者の個性が感じられ難いため、聞き手の視線をポインティング位置にスムースに誘導することができず、また、話し手と聞き手の間に社会的相互作用が生じ難かった。
【0006】
このため、これら従来の方法では、参加者が、プレゼンテーションの内容を理解し難い、表示画面への没入感覚が低い場に引き込まれ難い、疲れるなどの問題があった。
【0007】
したがって、これら従来の方法では、遠隔会議システムにおいて、現実世界と同様のプレゼンテーションを実現できなかった。
【0008】
そこで、本発明は、かかる事情に鑑み、遠隔会議システムにおいて、現実世界と同様のプレゼンテーションを実現できる、共有情報操作装置、共有情報操作方法、共有情報操作プログラム、共有情報操作プログラムを記録したコンピュータ読み取り可能な記録媒体を提供することを目的とする。
【0009】
【課題を解決するための手段】
本発明によれば、上記課題は、前記特許請求の範囲に記載の手段により解決される。
【0010】
すなわち、請求項1に記載の発明は、複数の端末間における共有情報、および、該共有情報を操作者が該端末の操作入力手段を用いて操作、指示、変更した際の該操作、指示、変更の情報を、該複数の端末の表示装置に表示する共有情報操作装置において、前記操作者が前記操作入力手段を用いて前記共有情報上に入力した情報から、前記操作者の操作意図を判別する操作意図判別手段と、前記操作意図判別手段の判別結果に基づいて表現された前記操作者の情報操作意図の画像を、前記端末の表示装置に表示する操作情報制御手段と、を具備することを特徴とする共有情報操作装置である。
【0011】
請求項2に記載の発明は、前記操作意図判別手段は、前記操作者が前記操作入力手段を用いて前記共有情報上に入力した情報から、前記共有情報上の所望の位置での操作と前記共有情報上の所望の位置から所望の位置へ至る繋ぎの操作とを判別する動作判別手段を有することを特徴とする請求項1記載の共有情報操作装置である。
【0012】
請求項3に記載の発明は、前記操作意図判別手段は、さらに、前記操作者が前記操作入力手段を用いて前記共有情報上に入力した情報、または、1人以上の音声入力情報、または、その両方の情報から、話者を一意に特定する話者特定手段を有することを特徴とする請求項2記載の共有情報操作装置である。
【0013】
請求項4に記載の発明は、前記操作意図判別手段は、さらに、前記操作者が前記操作入力手段を用いて前記共有情報上に入力した情報、または、1人以上の音声入力情報、または、その両方の情報から各発話状態を判定する発話状態判定手段を有することを特徴とする請求項3記載の共有情報操作装置である。
【0014】
請求項5に記載の発明は、前記操作情報制御手段は、前記話者の発話状態、または、前記操作者が前記操作入力手段を用いて前記共有情報上に入力した情報、または、その両方の情報に基づいて、前記操作者が擬人化されたテレポインタの表示方式を変更することを特徴とする請求項1〜請求項4のいずれか1項に記載の共有情報操作装置である。
【0015】
請求項6に記載の発明は、前記操作情報制御手段は、前記操作者が擬人化されたテレポインタを話者の実映像と少なくとも1つ以上の自由度を有するCG(コンピュータグラフィック)で構成されたテレポインタで表示することを特徴とする請求項5記載の共有情報操作装置である。
【0016】
請求項7に記載の発明は、前記操作情報制御手段は、前記話者の実映像における視点方向と前記CG(コンピュータグラフィック)のポインティング方向とが一致するように、前記操作者が前記操作入力手段を用いて前記共有情報上に入力したポインティングの位置を制御する手段を有することを特徴とする請求項6記載の共有情報操作装置である。
【0017】
請求項8に記載の発明は、前記操作情報制御手段は、前記端末の表示装置における前記共有情報の表示に関する情報と前記テレポインタの表示に関する情報と前記操作者が前記操作入力手段を用いて前記共有情報上に入力した情報とから、前記共有情報上のポインティングの位置の近傍に前記テレポインタの表示が被らないように、前記テレポインタの表示を制御する手段を有することを特徴とする請求項1〜請求項7のいずれか1項に記載の共有情報操作装置である。
【0018】
請求項9に記載の発明は、複数の端末間における共有情報、および、該共有情報を操作者が該端末の操作入力手段を用いて操作、指示、変更した際の該操作、指示、変更の情報を、該複数の端末の表示装置に表示する共有情報操作方法であって、前記操作者が前記操作入力手段を用いて前記共有情報上に入力した情報から、前記操作者の操作意図を判別する操作意図判別ステップと、前記操作意図判別ステップの判別結果に基づいて表現された前記操作者の情報操作意図の画像を、前記端末の表示装置に表示する操作情報制御ステップと、を有することを特徴とする共有情報操作方法である。
【0019】
請求項10に記載の発明は、前記操作意図判別ステップにおいては、前記操作者が前記操作入力手段を用いて前記共有情報上に入力した情報から、前記共有情報上の所望の位置での操作と前記共有情報上の所望の位置から所望の位置へ至る繋ぎの操作とが判別されることを特徴とする請求項9記載の共有情報操作方法である。
【0020】
請求項11に記載の発明は、前記操作意図判別ステップにおいては、さらに、前記操作者が前記操作入力手段を用いて前記共有情報上に入力した情報、または、1人以上の音声入力情報、または、その両方の情報から、話者が一意に特定されることを特徴とする請求項10記載の共有情報操作方法である。
【0021】
請求項12に記載の発明は、前記操作意図判別ステップにおいては、さらに、前記操作者が前記操作入力手段を用いて前記共有情報上に入力した情報、または、1人以上の音声入力情報、または、その両方の情報から、話者が発話中か、発話息継ぎ中か、発話終了かの各発話状態が判定されることを特徴とする請求項11記載の共有情報操作方法である。
【0022】
請求項13に記載の発明は、前記操作情報制御ステップにおいては、前記話者の発話中、発話息継ぎ中、発話終了の各発話状態、または、前記操作者が前記操作入力手段を用いて前記共有情報上に入力した情報、または、その両方の情報に基づいて、前記操作者が擬人化されたテレポインタの表示方式が変更されることを特徴とする請求項9〜請求項12のいずれか1項に記載の共有情報操作方法である。
【0023】
請求項14に記載の発明は、前記操作情報制御ステップにおいては、前記操作者が擬人化されたテレポインタが、話者の実映像と少なくとも1つ以上の自由度を有するCG(コンピュータグラフィック)で構成されたテレポインタで表示されることを特徴とする請求項13記載の共有情報操作方法である。
【0024】
請求項15に記載の発明は、前記操作情報制御ステップにおいては、前記話者の実映像における視点方向と前記CG(コンピュータグラフィック)のポインティング方向とが一致するように、前記操作者が前記操作入力手段を用いて前記共有情報上に入力したポインティングの位置が制御されることを特徴とする請求項14記載の共有情報操作方法である。
【0025】
請求項16に記載の発明は、前記操作情報制御ステップにおいては、前記端末の表示装置における前記共有情報の表示位置およびサイズに関する情報と前記テレポインタの表示位置に関する情報と前記操作者が前記操作入力手段を用いて前記共有情報上に入力した情報とから、前記共有情報上のポインティングの位置の近傍に前記テレポインタの表示が被らないように、前記テレポインタの動作と表示位置とが制御されることを特徴とする請求項9〜請求項15のいずれか1項に記載の共有情報操作方法。
【0026】
請求項17に記載の発明は、複数の端末間における共有情報、および、該共有情報を操作者が該端末の操作入力手段を用いて操作、指示、変更した際の該操作、指示、変更の情報を、該複数の端末の表示装置に表示する共有情報操作装置に、前記操作者が前記操作入力手段を用いて前記共有情報上に入力した情報、または、1人以上の音声入力情報、または、その両方の情報から、話者を一意に特定する話者特定ステップと、前記操作者が前記操作入力手段を用いて前記共有情報上に入力した情報から、前記共有情報上の所望の位置での操作と前記共有情報上の所望の位置から所望の位置へ至る繋ぎの操作とを判別する動作判別ステップと、前記操作者が前記操作入力手段を用いて前記共有情報上に入力した情報、または、1人以上の音声入力情報、または、その両方の情報から、話者が発話中か、発話息継ぎ中か、発話終了かの各発話状態を判定する発話状態判定ステップと、前記話者の発話中、発話息継ぎ中、発話終了の各発話状態、または、前記操作者が前記操作入力手段を用いて前記共有情報上に入力した情報、または、その両方の情報に基づいて、前記操作者が擬人化されたテレポインタの表示方式を変更するステップと、前記操作者が擬人化されたテレポインタを話者の実映像と少なくとも1つ以上の自由度を有するCG(コンピュータグラフィック)で構成されたテレポインタで表示するステップと、前記話者の実映像における視点方向と前記CG(コンピュータグラフィック)のポインティング方向とが一致するように、前記操作者が前記操作入力手段を用いて前記共有情報上に入力したポインティングの位置を制御するステップと、前記端末の表示装置における前記共有情報の表示位置およびサイズに関する情報と前記テレポインタの表示位置に関する情報と前記操作者が前記操作入力手段を用いて前記共有情報上に入力した情報とから、前記共有情報上のポインティングの位置の近傍に前記テレポインタの表示が被らないように、前記テレポインタの動作と表示位置とを制御するステップと、を実行させることを特徴とする共有情報操作プログラムである。
【0027】
請求項18に記載の発明は、請求項17に記載の共有情報操作プログラムを記録したコンピュータ読み取り可能な記録媒体である。
【0028】
【発明の実施の形態】
以下に、添付した図面を参照しつつ、本発明の好適な実施の形態を詳細に説明する。
【0029】
図1は、本発明の第1の実施の形態に係る共有情報操作システムを示す図である。
【0030】
図1に示すように、本発明の第1の実施の形態に係る共有情報操作システムは、共有情報を表示・操作する複数の端末1−1〜1−nと、この端末1−1〜1−nからの入力情報、表示情報を取得・処理・制御・配信すると同時に会議を管理・制御する共有情報操作装置2と、通信網3とで構成されている。なお、nは、2以上の整数である。
【0031】
図2は、図1に示す端末のハードウェア構成とこの端末に接続された表示装置上の画面のイメージとを示す図である。
【0032】
図2に示すように、端末1−mは、端末本体1−m−1と、これに接続される通信装置や入出力装置などの各種デバイスから構成される。なお、mは、1≦m≦nの関係を満たす数である。
【0033】
この端末本体1−m−1には、モニタなどの表示装置1−m−2と、マイクロフォン等の音声入力装置1−m−3と、スピーカ等の音声出力装置1−m−4と、カメラ等の映像入力装置1−m−5と、キーボード1−m−6やマウス1−m−7やモーションキャプチャ1−m−8や磁気センサ(図示せず)やジャイロセンサ(図示せず)などの操作入力装置と、が接続されている。
【0034】
表示装置1−m−2の画面1−m−2−1には、図2に示す、共有情報を表示するウィンドウ1−m−2−1−1や、話し手の映像や話し手の代理となる擬人化エージェント(プレゼンタ)1−m−2−1−2や、聞き手の映像や聞き手の代理となる擬人化エージェント(オーディエンス)1−m−2−1−3などのほか、たとえば、チャットを行なうためのウィンドウ1−m−2−1−4などが表示される。
【0035】
なお、擬人化エージェント(プレゼンタ)1−m−2−1−2または擬人化エージェント(オーディエンス)1−m−2−1−3は、たとえば、実映像、または、エージェント、または、実映像とエージェントとを組み合わしたものなどで実現化することができる。
【0036】
図3は、端末1−mと共有情報操作装置2との間における信号の流れを示すブロック図である。
【0037】
端末1−mを構成する図2に記載の各入力装置から入力されたデータは、たとえば、USB(Universal Serial Bus)やマイクロフォン端子やPCIバス(Peripheral Component Interconnect バス)等に接続されたインタフェースボードやシリアル等のI/Oポート(Input/Output ポート)などのIF(インタフェース)を介して、端末本体1−m−1に入力される。
【0038】
この端末本体1−m−1に入力された信号は、シリアルポートやLANポート(Local Area Network ポート)などに代表される他の端末とデータを送受信するための通信部1−m−9を介して、IP(インターネット)や地域IP網などの通信網3に送信される。
【0039】
この送信されたデータは、共有情報操作装置2の通信部2−1で受信される。この通信部2−1は、シリアルポートやLANポートなどに代表される他の端末とデータを送受信するためのポートなどによって実現できる。
この通信部2−1で受信されたデータは、操作意図判別手段2−2に入力される。
【0040】
操作意図判別手段2−2は、入力されたデータに基づいて、操作者の操作意図を判別し、その結果を判別情報として操作情報制御手段2−3に送信する。
【0041】
操作情報制御手段2−3では、操作意図判別手段2−2から送信された判別情報に基づいて、共有情報に対するポインティングの表示方式を変更するための制御データを生成する。
【0042】
操作情報制御手段2−3は、この生成した制御データを通信部2−1に入力し、通信部2−1は、この入力された制御データを通信網3に送信する。
【0043】
この通信網3に送信された制御データは、端末本体1−m−1の通信部1−m−9で受信された後、表示装置1−m−2に入力される。
【0044】
そして、表示装置1−m−2は、これら入力された制御データに基づいて画面1−m−2−1におけるテレポインタの表示を変更する。
【0045】
図4は、図3の操作意図判別手段2−2における信号の流れを示すブロック図であり、図5は、図3の操作意図判別手段2−2における信号の流れを示すフローチャートである。
【0046】
図3の通信部2−1から入力された操作入力データ、音声データ、画像データは、それぞれ、動作判別部2−2−1、話者特定部2−2−2、発話状態判別部2−2−3に入力される。
【0047】
話者特定部2−2−2は、音声データを取得し(ステップS1)、話者が1人でない場合には、この取得した音声データの音圧レベルから最もレベルの高い音圧レベルを検出し、(ステップS2)、この検出した最もレベルの高い音圧レベル話者を話者として一意に特定する(ステップS3)。
【0048】
動作判別部2−2−1は、操作入力データや映像データを取得し(ステップS4)、この取得した操作入力データや映像データに基づいて、操作入力装置であるマウスやモーションキャプチャやカメラなどの各種センサで取得された時系列的な座標値や角度値等の入力情報を算出する(ステップS5)。
【0049】
動作判別部2−2−1は、この算出した入力情報から微小時間間隔ΔTごとの動作を求め、これらをベクトルとみなしたときのそれらベクトルの内積、外積を算出する(ステップS6)。
【0050】
動作判別部2−2−1は、この内積が一定の閾値以上であるか、この外積の大きさ成分が一定の閾値以下であるか、を判断する(ステップS7)。
【0051】
その結果、この内積が一定の閾値以上である場合、または、この外積の大きさ成分が一定の閾値以下である場合には、動作判別部2−2−1は、その動作が目的を持った動作であると判別する(ステップS8)。
【0052】
他方、この内積が一定の閾値以下であり、かつ、この外積の大きさ成分が一定の閾値以上である場合には、動作判別部2−2−1は、その動作が目的を持たない繋ぎの動作であると判別する(ステップS8)。
【0053】
発話状態判別部2−2−3は、音声入出力IFから取得した音声データを音声認識処理して(ステップS9)、話中か息継ぎをしているのか発話終了か、指示語が存在するのか(ステップS10)を判別する。
【0054】
動作判別部2−2−1、話者特定部2−2−2、発話状態判定部2−2−3が、それぞれ出力する判別情報は、操作情報制御手段2−3へ入力される。
【0055】
図6は、操作情報制御手段2−3による前記端末1−mの表示装置1−m−2の画面1−m−2−1上に表示する会議参加者や共有情報の表示方式の例を示した図である。
【0056】
図6に示すように、画面1−m−2−1上には、話者代理映像(話し手の映像、または、少なくとも1以上の自由度を有するソフトウェアエージェント、または、話し手の映像と1以上の自由度を有するソフトウェアエージェントとが混合されたもの)1−m−2−1−11と、共有情報1−m−2−1−12と、が表示される。
【0057】
話者代理映像1−m−2−1−11と共有情報1−m−2−1−12との表示方式は、操作入力装置からの入力情報と操作意図判別手段からの判別情報とに基づいて変更される。
【0058】
図7は、話者代理映像1−m−2−1−11と共有情報1−m−2−1−12とが表示された画面1−m−2−1の具体例を示す図である。
【0059】
1−m−2−2は、一定時間の間に音声入力や操作入力情報が無い時の表示状態を示しており、このとき、話者代理映像は、画面に対して正対している。
【0060】
1−m−2−3は、音声入力レベルが一定値を上回った時における表示状態を示しており、このとき、話者代理映像は、拡大表示されている。
【0061】
1−m−2−4と1−m−2−5とは、共有情報に対する話し手の操作やポインティングが指示動作である時の表示状態を示しており、このとき、話者代理映像は、身体動作と視線でポインティング位置を指し示し注視している。
【0062】
1−m−2−6と1−m−2−7とは、共有情報に対する話し手の操作やポインティングが指示動作と指示動作を繋ぐ繋ぎ動作である時の表示状態を示しており、このとき、話者代理映像は、指示位置から指示位置への移動をポインティング位置の移動と視線の移動によって直線的且つ滑らかに行なう。
【0063】
図8は、本発明の第2の実施の形態における、端末と共有情報操作装置との間における信号の流れを示すブロック図であり、図9は、図8の操作意図判別手段における信号の流れを示すブロック図である。
【0064】
第2の実施の形態は、操作意図判別手段と操作情報制御手段とが端末側にある点で、操作意図判別手段と操作情報制御手段とが会議を管理・制御する共有情報操作装置側にある上記第1の実施の形態と相違する。
【0065】
第2の実施の形態においては、たとえば、端末から出力された複数の音声データが多重化されて一つの音声データとして流通していても、各端末において復号化することにより、各端末から音声データを分離できる。
【0066】
したがって、第2の実施の形態によれば、端末から出力された複数の音声データが多重化されて一つの音声データとして流通している場合であっても、上記第1の実施の形態と同様に処理することが可能である。
【0067】
また、第2の実施の形態は、データの送受信がN:Nとなる接続形態のみならず、1:1や1:Nとなる接続形態にも適応可能である。
【0068】
なお、以上説明した本発明の実施の形態は、コンピュータとプログラムによっても実現できるが、この実施の形態を実現するプログラムは、CD−ROMやCD−RWなどのコンピュータ読み取り可能な記録媒体に記録して頒布することができる。また、このプログラムは、上記のような記録媒体に記録して頒布できるのみならず、ネットワークを通して提供することもできる。
【0069】
【発明の効果】
以上説明したように、本発明によれば、遠隔会議システムにおいて、聞き手や話し手の身体の動作や表情、視線、発話の中断、呼吸等の様々なモダリティ情報をテレポインタで可視化できる。
【0070】
したがって、本発明によれば、このテレポインタという可視化されたモダリティ情報を手掛かりとして、ポインティングの位置へ滑らかな視線の誘導や場への引き込みが実現可能となる。
【0071】
よって、本発明によれば、遠隔会議システムにおいて、現実世界と同様のプレゼンテーションを実現できる。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態に係る共有情報操作システムを示す図である。
【図2】図1に示す端末のハードウェア構成とこの端末に接続された表示装置の画面のイメージとを示す図である。
【図3】端末1−mと制御装置2との間における信号の流れを示すブロック図である。
【図4】図3の操作意図判別手段2−2における信号の流れを示すブロック図である。
【図5】図3の操作意図判別手段2−2における信号の流れを示すフローチャートである。
【図6】操作情報制御手段2−3による前記端末1−mの表示装置1−m−2の画面1−m−2−1上に表示する会議参加者や共有情報の表示方式の例を示した図である。
【図7】話者代理映像1−m−2−1−11と共有情報1−m−2−1−12とが表示された画面1−m−2−1の具体例を示す図である。
【図8】本発明の第2の実施の形態における、端末と共有情報操作装置との間における信号の流れを示すブロック図である。
【図9】図8の操作意図判別手段における信号の流れを示すブロック図である。
【符号の説明】
1−1〜1−m〜1−n 端末
1−m−1 端末本体
1−m−2 モニタなどの表示装置
1−m−2−1 表示装置1−m−2の画面
1−m−2−1−1 共有情報を表示するウィンドウ
1−m−2−1−2 擬人化エージェント(プレゼンタ)
1−m−2−1−3 擬人化エージェント(オーディエンス)
1−m−2−1−4 チャットを行なうためのウィンドウ
1−m−2−1−11 話者代理映像
1−m−2−1−12 共有情報
1−m−2−2 画面1−m−2−1の具体例
1−m−2−3 画面1−m−2−1の具体例
1−m−2−4 画面1−m−2−1の具体例
1−m−2−5 画面1−m−2−1の具体例
1−m−2−6 画面1−m−2−1の具体例
1−m−2−7 画面1−m−2−1の具体例
1−m−3 マイクロフォン等の音声入力装置
1−m−4 スピーカ等の音声出力装置
1−m−5 カメラ等の映像入力装置
1−m−6 キーボード
1−m−7 マウス
1−m−8 モーションキャプチャ
1−m−9 端末1−mの通信部
2 共有情報操作装置
2−1 共有情報操作装置2の通信部
2−2 操作意図判別手段
2−2−1 動作判別部
2−2−2 話者特定部
2−2−3 発話状態判別部
3 通信網
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a shared information operation system, and more particularly, to a shared information operation system suitable as a device for supporting a remote conference system via a communication network.
[0002]
[Prior art]
2. Description of the Related Art In general, participants in a distributed teleconference performed with the support of a network function or a computer share information such as electronic materials via a communication network. This shared information such as electronic materials may be indicated by participants in the remote conference, etc. At this time, if it is possible to intuitively identify who is pointing where, the participants etc. can express their own opinions etc. It can be easily communicated to other participants.
[0003]
For this reason, conventionally, in order to be able to determine who is pointing to an electronic material or the like, a method of changing a display method such as a color, a size or a shape of a cursor pointing to the electronic material for each participant, or And a method of presenting the opinion of each participant on the display information (Patent Documents 1 and 2).
[0004]
[Patent Document 1]
JP-A-7-244637 (Collaborative work support system)
[Patent Document 2]
JP-A-10-105365 (communication terminal, server device, collaborative work system, and pointer display control method)
[0005]
[Problems to be solved by the invention]
However, in these conventional methods, although it is possible to tell who is pointing where, the movement of the cursor is difficult to predict and the display method does not allow the operator's individuality to be felt. It was not possible to smoothly navigate to the pointing position, and social interaction between the speaker and the listener was unlikely to occur.
[0006]
For this reason, these conventional methods have problems such as difficulty in understanding the contents of the presentation, difficulty in being drawn into a place where the sense of immersion in the display screen is low, and fatigue.
[0007]
Therefore, these conventional methods cannot realize a presentation similar to the real world in the remote conference system.
[0008]
In view of such circumstances, the present invention provides a shared information operating device, a shared information operating method, a shared information operating program, and a computer-readable recording of a shared information operating program capable of realizing a presentation similar to the real world in a remote conference system. It is an object to provide a possible recording medium.
[0009]
[Means for Solving the Problems]
According to the present invention, the above-mentioned object is solved by the means described in the claims.
[0010]
That is, the invention according to claim 1 provides shared information between a plurality of terminals, and the operation, instruction, and change when the operator operates, instructs, and changes the shared information using an operation input unit of the terminal. In a shared information operation device that displays change information on a display device of the plurality of terminals, determining an operation intention of the operator from information input on the shared information by the operator using the operation input unit Operation intention determining means, and operation information control means for displaying, on a display device of the terminal, an image of the information operation intention of the operator expressed based on the determination result of the operation intention determining means. Is a shared information operation device.
[0011]
According to a second aspect of the present invention, the operation intention determination unit is configured to perform an operation at a desired position on the shared information based on information input on the shared information by the operator using the operation input unit. 2. The shared information operating device according to claim 1, further comprising an operation determining unit configured to determine a connection operation from a desired position on the shared information to a desired position.
[0012]
According to a third aspect of the present invention, the operation intention determination unit further includes information input by the operator on the shared information using the operation input unit, or one or more voice input information, or 3. The shared information operation device according to claim 2, further comprising speaker identification means for uniquely identifying a speaker from both information.
[0013]
The invention according to claim 4, wherein the operation intention determining means further includes information input by the operator on the shared information using the operation input means, or one or more voice input information, or 4. The shared information operation device according to claim 3, further comprising an utterance state determination unit that determines each utterance state from both pieces of information.
[0014]
According to a fifth aspect of the present invention, the operation information control means may include an utterance state of the speaker, information input by the operator on the shared information using the operation input means, or both. The shared information operation device according to any one of claims 1 to 4, wherein the operator changes a display method of a personified telepointer based on information.
[0015]
According to a sixth aspect of the present invention, the operation information control means is constituted by a CG (computer graphic) having a telephoto pointer anthropomorphized by the operator and a real image of the speaker and at least one degree of freedom. 6. The shared information operation device according to claim 5, wherein the information is displayed by a telepointer.
[0016]
The invention according to claim 7, wherein the operation information control means is configured to allow the operator to perform the operation input means so that a viewpoint direction in the real video of the speaker matches a pointing direction of the CG (computer graphic). 7. The shared information operating device according to claim 6, further comprising means for controlling a position of a pointing input on the shared information by using.
[0017]
The invention according to claim 8 is characterized in that the operation information control means uses the operation input means, wherein the information related to the display of the shared information and the information related to the display of the tele pointer on the display device of the terminal are used by the operator using the operation input means. Means for controlling the display of the telepointer from information input on the shared information so that the display of the telepointer is not placed near a pointing position on the shared information. A shared information operating device according to any one of claims 1 to 7.
[0018]
According to a ninth aspect of the present invention, when the operator operates, instructs, or changes the shared information between a plurality of terminals using the operation input means of the terminal, the operation, the instruction, and the change of the shared information are performed. A shared information operation method for displaying information on a display device of the plurality of terminals, the method further comprising: determining an operation intention of the operator from information input on the shared information by the operator using the operation input unit. Operation intention determining step, and an operation information control step of displaying, on a display device of the terminal, an image of the information operation intention of the operator expressed based on the determination result of the operation intention determining step. This is a shared information operation method that is a feature.
[0019]
According to a tenth aspect of the present invention, in the operation intention determination step, an operation at a desired position on the shared information is performed based on information input on the shared information by the operator using the operation input unit. The shared information operation method according to claim 9, wherein a connection operation from a desired position on the shared information to a desired position is determined.
[0020]
In the invention according to claim 11, in the operation intention determining step, information input by the operator on the shared information using the operation input unit, or one or more voice input information, or The shared information operation method according to claim 10, wherein a speaker is uniquely specified from both of the information.
[0021]
According to a twelfth aspect of the present invention, in the operation intention determining step, information input by the operator on the shared information using the operation input unit, or one or more voice input information, or 12. The shared information operation method according to claim 11, wherein each of the utterance states of whether the speaker is uttering, taking a breath, or ending the utterance is determined from both information.
[0022]
In the invention according to claim 13, in the operation information control step, each of the utterance states of the speaker during utterance, breath taking, and ending of utterance, or the operator uses the operation input means to perform the sharing. 13. The display method of a telepointer in which the operator is anthropomorphized is changed based on information input on the information or both of the information. It is a shared information operation method described in the section.
[0023]
According to a fourteenth aspect of the present invention, in the operation information control step, the telepointer in which the operator is personified is a CG (computer graphic) having a real image of a speaker and at least one degree of freedom. 14. The shared information operation method according to claim 13, wherein the shared information is displayed by a configured telepointer.
[0024]
The invention according to claim 15 is characterized in that in the operation information control step, the operator performs the operation input so that a viewpoint direction in a real video of the speaker matches a pointing direction of the CG (computer graphic). 15. The shared information operation method according to claim 14, wherein a pointing position input on the shared information is controlled using a unit.
[0025]
In the invention according to claim 16, in the operation information control step, information on a display position and a size of the shared information on a display device of the terminal, information on a display position of the telepointer, and the operator input the operation input. The operation and display position of the telepointer are controlled based on the information input on the shared information using the means so that the display of the telepointer does not cover the position of the pointing on the shared information. The method according to any one of claims 9 to 15, wherein:
[0026]
The invention according to claim 17 is the information of sharing between a plurality of terminals, and the operation, instruction, and change when the operator operates, instructs, and changes the shared information using the operation input means of the terminal. Information, on the shared information operating device that displays on the display device of the plurality of terminals, information that the operator has input on the shared information using the operation input means, or one or more voice input information, or A speaker identification step of uniquely identifying a speaker from both information, and information input by the operator on the shared information using the operation input means, at a desired position on the shared information. Operation determining step of determining the operation of and the operation of connecting from a desired position on the shared information to a desired position, information input on the shared information by the operator using the operation input means, or , One or more voices An utterance state determining step of determining each utterance state whether the speaker is uttering, taking a breath, or ending the utterance from the information or both information; and Display of a telepointer in which the operator is personified based on each utterance state of the end, or information input by the operator on the shared information using the operation input means, or both information. Changing the method, and displaying the anthropomorphized telepointer by the operator with a real image of the speaker and a telepointer composed of CG (computer graphic) having at least one degree of freedom. The operator uses the operation input means so that the viewpoint direction in the real image of the speaker matches the pointing direction of the CG (computer graphic). Controlling the position of the pointing input on the shared information; information on the display position and size of the shared information on the display device of the terminal; information on the display position of the telepointer; and the operator controls the operation input means. Controlling the operation and the display position of the telepointer so that the display of the telepointer does not cover the vicinity of the pointing position on the shared information from the information input on the shared information using , Is executed.
[0027]
According to an eighteenth aspect of the present invention, there is provided a computer-readable recording medium storing the shared information operation program according to the seventeenth aspect.
[0028]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
[0029]
FIG. 1 is a diagram showing a shared information operation system according to the first embodiment of the present invention.
[0030]
As shown in FIG. 1, a shared information operation system according to the first embodiment of the present invention includes a plurality of terminals 1-1 to 1-n for displaying and operating shared information, and the terminals 1-1 to 1-n. A shared information operating device 2 for acquiring, processing, controlling, and distributing input information and display information from -n and simultaneously managing and controlling a conference, and a communication network 3. Note that n is an integer of 2 or more.
[0031]
FIG. 2 is a diagram illustrating a hardware configuration of the terminal illustrated in FIG. 1 and an image of a screen on a display device connected to the terminal.
[0032]
As shown in FIG. 2, the terminal 1-m includes a terminal body 1-m-1 and various devices such as a communication device and an input / output device connected thereto. Here, m is a number that satisfies the relationship of 1 ≦ m ≦ n.
[0033]
The terminal body 1-m-1 includes a display device 1-m-2 such as a monitor, a voice input device 1-m-3 such as a microphone, a voice output device 1-m-4 such as a speaker, and a camera. Video input device 1-m-5, keyboard 1-m-6, mouse 1-m-7, motion capture 1-m-8, magnetic sensor (not shown), gyro sensor (not shown), etc. And the operation input device are connected.
[0034]
On the screen 1-m-2-1 of the display device 1-m-2, a window 1-m-2-1-1 for displaying shared information shown in FIG. In addition to an anthropomorphic agent (presenter) 1-m-2-1-2 and an anthropomorphic agent (audience) 1-m-2-1-3 acting as a listener's image or a listener, for example, chatting is performed. Window 1-m-2-1-4 or the like is displayed.
[0035]
Note that the personification agent (presenter) 1-m-2-1-2 or the personification agent (audience) 1-m-2-1-3 is, for example, a real video, an agent, or a real video and an agent. And the like can be realized.
[0036]
FIG. 3 is a block diagram showing a signal flow between the terminal 1-m and the shared information operation device 2.
[0037]
The data input from each of the input devices shown in FIG. 2 constituting the terminal 1-m is, for example, an interface board connected to a USB (Universal Serial Bus), a microphone terminal, a PCI bus (Peripheral Component Interconnect bus), or the like. The data is input to the terminal main unit 1-m-1 via an IF (interface) such as an I / O port (Input / Output port) such as a serial port.
[0038]
A signal input to the terminal main unit 1-m-1 is transmitted via a communication unit 1-m-9 for transmitting and receiving data to and from another terminal represented by a serial port or a LAN port (Local Area Network port). Is transmitted to a communication network 3 such as an IP (Internet) or a regional IP network.
[0039]
The transmitted data is received by the communication unit 2-1 of the shared information operation device 2. The communication unit 2-1 can be realized by a port for transmitting and receiving data to and from another terminal such as a serial port or a LAN port.
The data received by the communication unit 2-1 is input to the operation intention determination unit 2-2.
[0040]
The operation intention determination unit 2-2 determines the operation intention of the operator based on the input data, and transmits the result to the operation information control unit 2-3 as determination information.
[0041]
The operation information control means 2-3 generates control data for changing the pointing display method for the shared information based on the determination information transmitted from the operation intention determination means 2-2.
[0042]
The operation information control unit 2-3 inputs the generated control data to the communication unit 2-1, and the communication unit 2-1 transmits the input control data to the communication network 3.
[0043]
The control data transmitted to the communication network 3 is received by the communication unit 1-m-9 of the terminal main unit 1-m-1, and then input to the display device 1-m-2.
[0044]
Then, the display device 1-m-2 changes the display of the telepointer on the screen 1-m-2-1 based on the input control data.
[0045]
FIG. 4 is a block diagram showing a signal flow in the operation intention determining means 2-2 of FIG. 3, and FIG. 5 is a flowchart showing a signal flow in the operation intention determining means 2-2 of FIG.
[0046]
The operation input data, voice data, and image data input from the communication unit 2-1 in FIG. 3 are respectively an operation determination unit 2-2-1, a speaker identification unit 2-2-2, and an utterance state determination unit 2- Input to 2-3.
[0047]
The speaker specifying unit 2-2-2 acquires the audio data (step S1), and when there is not one speaker, detects the highest sound pressure level from the sound pressure level of the acquired audio data. Then (step S2), the detected speaker with the highest sound pressure level is uniquely specified as a speaker (step S3).
[0048]
The operation determination unit 2-2-1 acquires operation input data and video data (step S4), and based on the acquired operation input data and video data, operates the operation input device such as a mouse, a motion capture, a camera, or the like. Input information such as time-series coordinate values and angle values acquired by various sensors is calculated (step S5).
[0049]
The motion discriminating unit 2-2-1 obtains the motion at each minute time interval ΔT from the calculated input information, and calculates an inner product and an outer product of these vectors when these are regarded as vectors (step S6).
[0050]
The motion determining unit 2-2-1 determines whether the inner product is equal to or greater than a certain threshold or whether the magnitude component of the outer product is equal to or less than a certain threshold (step S7).
[0051]
As a result, when the inner product is equal to or greater than a certain threshold, or when the magnitude component of the outer product is equal to or less than a certain threshold, the operation determining unit 2-2-1 determines that the operation has a purpose. It is determined that the operation is performed (step S8).
[0052]
On the other hand, when the inner product is equal to or smaller than a certain threshold and the magnitude component of the outer product is equal to or larger than a certain threshold, the operation determining unit 2-2-1 determines whether the operation has no purpose. It is determined that the operation is performed (step S8).
[0053]
The utterance state determination unit 2-2-3 performs voice recognition processing on the voice data obtained from the voice input / output IF (step S9), and determines whether the voice is busy, breathing is over, the utterance is ended, or an instruction word is present. (Step S10) is determined.
[0054]
The discrimination information output by the motion discriminating unit 2-2-1, the speaker specifying unit 2-2-2, and the utterance state discriminating unit 2-2-3 are input to the operation information control unit 2-3.
[0055]
FIG. 6 shows an example of a display method of conference participants and shared information displayed on the screen 1-m-2-1 of the display device 1-m-2 of the terminal 1-m by the operation information control means 2-3. FIG.
[0056]
As shown in FIG. 6, on the screen 1-m-2-1, a speaker proxy image (a speaker image, a software agent having at least one degree of freedom, or a speaker image and one or more A mixture of software agents having a degree of freedom) 1-m-2-1-11 and shared information 1-m-2-1-12 are displayed.
[0057]
The display method of the speaker proxy video 1-m-2-1-11 and the shared information 1-m-2-1-12 is based on the input information from the operation input device and the discrimination information from the operation intention discrimination means. Changed.
[0058]
FIG. 7 is a diagram illustrating a specific example of a screen 1-m-2-1 on which a speaker proxy video 1-m-2-1-11 and shared information 1-m-2-1-12 are displayed. .
[0059]
1-m-2-2 shows a display state when there is no voice input or operation input information for a certain period of time, and at this time, the speaker's substitute video faces the screen.
[0060]
1-m-2-3 shows a display state when the audio input level exceeds a certain value, and at this time, the speaker substitute image is displayed in an enlarged manner.
[0061]
1-m-2-4 and 1-m-2-5 show display states when the speaker's operation or pointing to the shared information is an instruction operation. He points to the pointing position with his movement and his line of sight, and he is watching closely.
[0062]
1-m-2-6 and 1-m-2-7 indicate display states when the speaker's operation or pointing to the shared information is a connecting operation that connects the instruction operation and the instruction operation. The speaker surrogate video moves from the designated position to the designated position linearly and smoothly by moving the pointing position and moving the line of sight.
[0063]
FIG. 8 is a block diagram showing a signal flow between the terminal and the shared information operation device according to the second embodiment of the present invention, and FIG. 9 is a signal flow in the operation intention determining means of FIG. FIG.
[0064]
The second embodiment is different from the first embodiment in that the operation intention determination unit and the operation information control unit are located on the terminal side, and the operation intention determination unit and the operation information control unit are located on the shared information operation device side that manages and controls a conference. This is different from the first embodiment.
[0065]
In the second embodiment, for example, even if a plurality of audio data output from a terminal are multiplexed and distributed as one audio data, the audio data is decoded from each terminal by decoding at each terminal. Can be separated.
[0066]
Therefore, according to the second embodiment, even when a plurality of audio data output from the terminal are multiplexed and distributed as one audio data, the same as in the first embodiment described above. Can be processed.
[0067]
Further, the second embodiment is applicable not only to a connection mode in which data transmission / reception is N: N, but also to a connection mode in which data transmission / reception is 1: 1 or 1: N.
[0068]
Note that the embodiment of the present invention described above can be realized by a computer and a program. However, the program for realizing this embodiment is recorded on a computer-readable recording medium such as a CD-ROM or a CD-RW. Can be distributed. Further, this program can be provided not only by being recorded on the above-described recording medium and distributed, but also through a network.
[0069]
【The invention's effect】
As described above, according to the present invention, in a teleconferencing system, various modality information such as body movements and expressions of listeners and speakers, gaze, interruption of speech, breathing, and the like can be visualized with a telepointer.
[0070]
Therefore, according to the present invention, using the visualized modality information called the telepointer as a clue, it is possible to realize smooth guidance of the line of sight to the pointing position and pulling into the field.
[0071]
Therefore, according to the present invention, a presentation similar to the real world can be realized in the remote conference system.
[Brief description of the drawings]
FIG. 1 is a diagram showing a shared information operation system according to a first embodiment of the present invention.
FIG. 2 is a diagram illustrating a hardware configuration of a terminal illustrated in FIG. 1 and an image of a screen of a display device connected to the terminal.
FIG. 3 is a block diagram showing a signal flow between a terminal 1-m and a control device 2.
FIG. 4 is a block diagram showing a signal flow in the operation intention determining means 2-2 of FIG. 3;
FIG. 5 is a flowchart showing a signal flow in the operation intention determining means 2-2 of FIG. 3;
FIG. 6 shows an example of a display method of conference participants and shared information displayed on a screen 1-m-2-1 of a display device 1-m-2 of the terminal 1-m by an operation information control means 2-3. FIG.
FIG. 7 is a diagram showing a specific example of a screen 1-m-2-1 on which a speaker proxy video 1-m-2-1-11 and shared information 1-m-2-1-12 are displayed. .
FIG. 8 is a block diagram showing a signal flow between a terminal and a shared information operation device according to the second embodiment of the present invention.
FIG. 9 is a block diagram showing a signal flow in the operation intention determining means of FIG. 8;
[Explanation of symbols]
1-1 to 1-m to 1-n Terminal 1-m-1 Terminal main unit 1-m-2 Display device 1-m-2-1 such as monitor Screen 1-m-2 of display device 1-m-2 -1-1 Window displaying shared information 1-m-2-1-2 Personification agent (presenter)
1-m-2-1-3 Personification agent (audience)
1-m-2-1-4 Window for chatting 1-m-2-1-11 Speaker proxy video 1-m-2-1-12 Shared information 1-m-2-2 Screen 1-m -2-1 Specific Example 1-m-2-3 Specific Example 1-m-2-4 of Screen 1-m-2-1 Specific Example 1-m-2-5 of Screen 1-m-2-1 Specific example 1-m-2-6 of screen 1-m-2-1 Specific example 1-m-2-7 of screen 1-m-2-1 Specific example 1-m of screen 1-m-2-1 -3 Audio input device such as a microphone 1-m-4 Audio output device 1-m-5 such as a speaker Video input device 1-m-6 such as a camera Keyboard 1-m-7 Mouse 1-m-8 Motion capture 1 -M-9 Communication unit 2 of terminal 1-m Shared information operation device 2-1 Communication unit 2-2 of shared information operation device 2 Operation intention determination unit 2-2-1 Operation determination unit 2-2-2 User identification unit 2-2-3 utterance state judgment unit 3 communication network

Claims (18)

複数の端末間における共有情報、および、該共有情報を操作者が該端末の操作入力手段を用いて操作、指示、変更した際の該操作、指示、変更の情報を、該複数の端末の表示装置に表示する共有情報操作装置において、
前記操作者が前記操作入力手段を用いて前記共有情報上に入力した情報から、前記操作者の操作意図を判別する操作意図判別手段と、
前記操作意図判別手段の判別結果に基づいて表現された前記操作者の情報操作意図の画像を、前記端末の表示装置に表示する操作情報制御手段と、
を具備することを特徴とする共有情報操作装置。
The information of the operation, the instruction, and the change when the operator operates, instructs, and changes the shared information among the plurality of terminals and the operator uses the operation input unit of the terminal to display the information of the plurality of terminals. In the shared information operation device displayed on the device
An operation intention determining unit configured to determine an operation intention of the operator from information input on the shared information by the operator using the operation input unit;
An operation information control unit that displays an image of the information operation intention of the operator based on the determination result of the operation intention determination unit on a display device of the terminal,
A shared information operation device comprising:
前記操作意図判別手段は、前記操作者が前記操作入力手段を用いて前記共有情報上に入力した情報から、前記共有情報上の所望の位置での操作と前記共有情報上の所望の位置から所望の位置へ至る繋ぎの操作とを判別する動作判別手段を有することを特徴とする請求項1記載の共有情報操作装置。The operation intention determination unit is configured to perform an operation at a desired position on the shared information and a desired position on the shared information from information input on the shared information by the operator using the operation input unit. 2. The shared information operating device according to claim 1, further comprising an operation determining unit configured to determine an operation of connecting to a position of the shared information. 前記操作意図判別手段は、さらに、前記操作者が前記操作入力手段を用いて前記共有情報上に入力した情報、または、1人以上の音声入力情報、または、その両方の情報から、話者を一意に特定する話者特定手段を有することを特徴とする請求項2記載の共有情報操作装置。The operation intention determining means further includes a step of, based on information input by the operator on the shared information using the operation input means, one or more voice input information, or both of the information, 3. The shared information operation device according to claim 2, further comprising speaker identification means for uniquely identifying the information. 前記操作意図判別手段は、さらに、前記操作者が前記操作入力手段を用いて前記共有情報上に入力した情報、または、1人以上の音声入力情報、または、その両方の情報から各発話状態を判定する発話状態判定手段を有することを特徴とする請求項3記載の共有情報操作装置。The operation intention determination unit further determines each utterance state from information input on the shared information by the operator using the operation input unit, or one or more voice input information, or both. The shared information operation device according to claim 3, further comprising an utterance state determination unit that determines. 前記操作情報制御手段は、前記話者の発話状態、または、前記操作者が前記操作入力手段を用いて前記共有情報上に入力した情報、または、その両方の情報に基づいて、前記操作者が擬人化されたテレポインタの表示方式を変更することを特徴とする請求項1〜請求項4のいずれか1項に記載の共有情報操作装置。The operation information control means, based on the utterance state of the speaker, or information input on the shared information by the operator using the operation input means, or both information, The shared information operation device according to any one of claims 1 to 4, wherein a display method of a personified telepointer is changed. 前記操作情報制御手段は、前記操作者が擬人化されたテレポインタを話者の実映像と少なくとも1つ以上の自由度を有するCG(コンピュータグラフィック)で構成されたテレポインタで表示することを特徴とする請求項5記載の共有情報操作装置。The operation information control means displays the telepointer anthropomorphized by the operator with a telepointer composed of a real image of the speaker and CG (computer graphic) having at least one degree of freedom. The shared information operation device according to claim 5, wherein 前記操作情報制御手段は、前記話者の実映像における視点方向と前記CG(コンピュータグラフィック)のポインティング方向とが一致するように、前記操作者が前記操作入力手段を用いて前記共有情報上に入力したポインティングの位置を制御する手段を有することを特徴とする請求項6記載の共有情報操作装置。The operation information control means is configured to allow the operator to input on the shared information using the operation input means such that a viewpoint direction of the speaker in a real image matches a pointing direction of the CG (computer graphic). 7. The shared information operating device according to claim 6, further comprising: means for controlling the position of the pointing. 前記操作情報制御手段は、前記端末の表示装置における前記共有情報の表示に関する情報と前記テレポインタの表示に関する情報と前記操作者が前記操作入力手段を用いて前記共有情報上に入力した情報とから、前記共有情報上のポインティングの位置の近傍に前記テレポインタの表示が被らないように、前記テレポインタの表示を制御する手段を有することを特徴とする請求項1〜請求項7のいずれか1項に記載の共有情報操作装置。The operation information control unit includes information on display of the shared information on the display device of the terminal, information on display of the telepointer, and information input on the shared information by the operator using the operation input unit. 8. The apparatus according to claim 1, further comprising means for controlling the display of the telepointer so that the display of the telepointer does not cover the vicinity of the pointing position on the shared information. Item 2. The shared information operation device according to item 1. 複数の端末間における共有情報、および、該共有情報を操作者が該端末の操作入力手段を用いて操作、指示、変更した際の該操作、指示、変更の情報を、該複数の端末の表示装置に表示する共有情報操作方法であって、
前記操作者が前記操作入力手段を用いて前記共有情報上に入力した情報から、前記操作者の操作意図を判別する操作意図判別ステップと、
前記操作意図判別ステップの判別結果に基づいて表現された前記操作者の情報操作意図の画像を、前記端末の表示装置に表示する操作情報制御ステップと、
を有することを特徴とする共有情報操作方法。
The information of the operation, the instruction, and the change when the operator operates, instructs, and changes the shared information among the plurality of terminals and the operator uses the operation input unit of the terminal to display the information of the plurality of terminals. A method of operating shared information to be displayed on a device,
An operation intention determining step of determining an operation intention of the operator from information input on the shared information by the operator using the operation input unit;
An operation information control step of displaying an image of the information operation intention of the operator expressed based on the determination result of the operation intention determination step on a display device of the terminal,
A method for operating shared information, comprising:
前記操作意図判別ステップにおいては、前記操作者が前記操作入力手段を用いて前記共有情報上に入力した情報から、前記共有情報上の所望の位置での操作と前記共有情報上の所望の位置から所望の位置へ至る繋ぎの操作とが判別されることを特徴とする請求項9記載の共有情報操作方法。In the operation intention determining step, from information input on the shared information by the operator using the operation input unit, an operation at a desired position on the shared information and a desired position on the shared information are performed. 10. The shared information operation method according to claim 9, wherein a connection operation to reach a desired position is determined. 前記操作意図判別ステップにおいては、さらに、前記操作者が前記操作入力手段を用いて前記共有情報上に入力した情報、または、1人以上の音声入力情報、または、その両方の情報から、話者が一意に特定されることを特徴とする請求項10記載の共有情報操作方法。In the operation intention determining step, the information input by the operator on the shared information using the operation input unit, or one or more voice input information, or both of the information, the speaker 11. The shared information operation method according to claim 10, wherein is uniquely specified. 前記操作意図判別ステップにおいては、さらに、前記操作者が前記操作入力手段を用いて前記共有情報上に入力した情報、または、1人以上の音声入力情報、または、その両方の情報から、話者が発話中か、発話息継ぎ中か、発話終了かの各発話状態が判定されることを特徴とする請求項11記載の共有情報操作方法。In the operation intention determining step, the information input by the operator on the shared information using the operation input unit, or one or more voice input information, or both of the information, the speaker 12. The shared information operation method according to claim 11, wherein each utterance state of utterance, utterance breathing, and utterance termination is determined. 前記操作情報制御ステップにおいては、前記話者の発話中、発話息継ぎ中、発話終了の各発話状態、または、前記操作者が前記操作入力手段を用いて前記共有情報上に入力した情報、または、その両方の情報に基づいて、前記操作者が擬人化されたテレポインタの表示方式が変更されることを特徴とする請求項9〜請求項12のいずれか1項に記載の共有情報操作方法。In the operation information control step, during the utterance of the speaker, during breath taking, each utterance state of utterance end, or information input on the shared information by the operator using the operation input means, or 13. The shared information operation method according to claim 9, wherein a display method of a telepointer in which the operator is anthropomorphized is changed based on both pieces of information. 前記操作情報制御ステップにおいては、前記操作者が擬人化されたテレポインタが、話者の実映像と少なくとも1つ以上の自由度を有するCG(コンピュータグラフィック)で構成されたテレポインタで表示されることを特徴とする請求項13記載の共有情報操作方法。In the operation information control step, the telepointer anthropomorphizing the operator is displayed as a telepointer composed of a real image of the speaker and CG (computer graphic) having at least one degree of freedom. 14. The method of operating shared information according to claim 13, wherein: 前記操作情報制御ステップにおいては、前記話者の実映像における視点方向と前記CG(コンピュータグラフィック)のポインティング方向とが一致するように、前記操作者が前記操作入力手段を用いて前記共有情報上に入力したポインティングの位置が制御されることを特徴とする請求項14記載の共有情報操作方法。In the operation information control step, the operator uses the operation input means to display the shared information on the shared information so that the viewpoint direction of the speaker's real image matches the pointing direction of the CG (computer graphic). 15. The shared information operation method according to claim 14, wherein a position of the input pointing is controlled. 前記操作情報制御ステップにおいては、前記端末の表示装置における前記共有情報の表示位置およびサイズに関する情報と前記テレポインタの表示位置に関する情報と前記操作者が前記操作入力手段を用いて前記共有情報上に入力した情報とから、前記共有情報上のポインティングの位置の近傍に前記テレポインタの表示が被らないように、前記テレポインタの動作と表示位置とが制御されることを特徴とする請求項9〜請求項15のいずれか1項に記載の共有情報操作方法。In the operation information control step, the information on the display position and size of the shared information on the display device of the terminal, the information on the display position of the telepointer, and the operator use the operation input means to display the shared information on the shared information. 10. The operation and display position of the telepointer are controlled based on the input information so that the display of the telepointer does not appear near the pointing position on the shared information. The shared information operation method according to any one of claims 15 to 15. 複数の端末間における共有情報、および、該共有情報を操作者が該端末の操作入力手段を用いて操作、指示、変更した際の該操作、指示、変更の情報を、該複数の端末の表示装置に表示する共有情報操作装置に、
前記操作者が前記操作入力手段を用いて前記共有情報上に入力した情報、または、1人以上の音声入力情報、または、その両方の情報から、話者を一意に特定する話者特定ステップと、
前記操作者が前記操作入力手段を用いて前記共有情報上に入力した情報から、前記共有情報上の所望の位置での操作と前記共有情報上の所望の位置から所望の位置へ至る繋ぎの操作とを判別する動作判別ステップと、
前記操作者が前記操作入力手段を用いて前記共有情報上に入力した情報、または、1人以上の音声入力情報、または、その両方の情報から、話者が発話中か、発話息継ぎ中か、発話終了かの各発話状態を判定する発話状態判定ステップと、
前記話者の発話中、発話息継ぎ中、発話終了の各発話状態、または、前記操作者が前記操作入力手段を用いて前記共有情報上に入力した情報、または、その両方の情報に基づいて、前記操作者が擬人化されたテレポインタの表示方式を変更するステップと、
前記操作者が擬人化されたテレポインタを話者の実映像と少なくとも1つ以上の自由度を有するCG(コンピュータグラフィック)で構成されたテレポインタで表示するステップと、
前記話者の実映像における視点方向と前記CG(コンピュータグラフィック)のポインティング方向とが一致するように、前記操作者が前記操作入力手段を用いて前記共有情報上に入力したポインティングの位置を制御するステップと、
前記端末の表示装置における前記共有情報の表示位置およびサイズに関する情報と前記テレポインタの表示位置に関する情報と前記操作者が前記操作入力手段を用いて前記共有情報上に入力した情報とから、前記共有情報上のポインティングの位置の近傍に前記テレポインタの表示が被らないように、前記テレポインタの動作と表示位置とを制御するステップと、
を実行させることを特徴とする共有情報操作プログラム。
The information of the operation, the instruction, and the change when the operator operates, instructs, and changes the shared information among the plurality of terminals and the operator uses the operation input unit of the terminal to display the information of the plurality of terminals. The shared information operation device displayed on the device
A speaker identification step of uniquely identifying a speaker from information input on the shared information by the operator using the operation input unit, or one or more voice input information, or both of the information; ,
An operation at a desired position on the shared information and a connection operation from a desired position on the shared information to a desired position on the shared information from information input on the shared information by the operator using the operation input unit. An operation determining step of determining
The information that the operator has entered on the shared information using the operation input means, or one or more voice input information, or from both information, whether the speaker is speaking, speaking or breathing, An utterance state determination step of determining each utterance state as to whether the utterance has ended,
During the utterance of the speaker, during breath taking, during each utterance state of utterance, or based on information entered by the operator on the shared information using the operation input means, or both, Changing the display method of the anthropomorphized telepointer by the operator;
The operator displaying the anthropomorphized telepointer with a real image of the speaker and a telepointer composed of CG (computer graphic) having at least one degree of freedom;
The position of the pointing input by the operator on the shared information using the operation input unit is controlled so that the viewpoint direction in the real video of the speaker matches the pointing direction of the CG (computer graphic). Steps and
The information on the display position and size of the shared information on the display device of the terminal, the information on the display position of the telepointer, and the information input on the shared information by the operator using the operation input means are used for the sharing. Controlling the operation and display position of the telepointer so that the display of the telepointer is not placed near the position of the pointing on the information;
And a shared information operation program.
請求項17に記載の共有情報操作プログラムを記録したコンピュータ読み取り可能な記録媒体。A computer-readable recording medium recording the shared information operation program according to claim 17.
JP2002337776A 2002-11-21 2002-11-21 Shared information operation device, shared information operation method, shared information operation program, and computer readable recording medium with shared information operation program recorded thereon Withdrawn JP2004171356A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002337776A JP2004171356A (en) 2002-11-21 2002-11-21 Shared information operation device, shared information operation method, shared information operation program, and computer readable recording medium with shared information operation program recorded thereon

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002337776A JP2004171356A (en) 2002-11-21 2002-11-21 Shared information operation device, shared information operation method, shared information operation program, and computer readable recording medium with shared information operation program recorded thereon

Publications (1)

Publication Number Publication Date
JP2004171356A true JP2004171356A (en) 2004-06-17

Family

ID=32701190

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002337776A Withdrawn JP2004171356A (en) 2002-11-21 2002-11-21 Shared information operation device, shared information operation method, shared information operation program, and computer readable recording medium with shared information operation program recorded thereon

Country Status (1)

Country Link
JP (1) JP2004171356A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015082207A (en) * 2013-10-22 2015-04-27 キヤノンマーケティングジャパン株式会社 Information processing device, information processing system, control method therefor, and program
US11539915B2 (en) 2021-03-20 2022-12-27 International Business Machines Corporation Transmission confirmation in a remote conference

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015082207A (en) * 2013-10-22 2015-04-27 キヤノンマーケティングジャパン株式会社 Information processing device, information processing system, control method therefor, and program
US11539915B2 (en) 2021-03-20 2022-12-27 International Business Machines Corporation Transmission confirmation in a remote conference

Similar Documents

Publication Publication Date Title
JP7379907B2 (en) Information processing device, information processing program, information processing system, information processing method
US10075491B2 (en) Directing communications using gaze interaction
JP7039900B2 (en) Methods and systems, computing devices, programs to provide feedback on the qualities of teleconferencing participants
US5491743A (en) Virtual conference system and terminal apparatus therefor
EP3430802B1 (en) Selectable interaction elements in a 360-degree video stream
WO2009104564A1 (en) Conversation server in virtual space, method for conversation and computer program
Nguyen et al. A survey of communication and awareness in collaborative virtual environments
JP2009077380A (en) Method, system and program for modifying image
WO2001010121A1 (en) Method and apparatus for enabling a videoconferencing participant to appear focused on camera to corresponding users
JP2006302047A (en) Meeting-supporting program, meeting-supporting device, and meeting-supporting method
US20220291752A1 (en) Distributed Application Platform Projected on a Secondary Display for Entertainment, Gaming and Learning with Intelligent Gesture Interactions and Complex Input Composition for Control
US8937635B2 (en) Device, method and system for real-time screen interaction in video communication
US20230093298A1 (en) Voice conference apparatus, voice conference system and voice conference method
Tanaka et al. Appearance, motion, and embodiment: unpacking avatars by fine‐grained communication analysis
JP2004171356A (en) Shared information operation device, shared information operation method, shared information operation program, and computer readable recording medium with shared information operation program recorded thereon
JP2005244744A (en) Video conference apparatus
JP3449772B2 (en) Multipoint conference equipment
JP6859807B2 (en) Information processing equipment, information processing methods and information processing programs
JP3625549B2 (en) Multipoint video conferencing system
JP2003339034A (en) Network conference system, network conference method, and network conference program
JP2947108B2 (en) Cooperative work interface controller
JP7062126B1 (en) Terminals, information processing methods, programs, and recording media
JP7178015B2 (en) online meeting system
JP2011228998A (en) Remote conference apparatus, remote conference method, and remote conference program
JP4768578B2 (en) Video conference system and control method in video conference system

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060207