JP6429640B2 - 遠隔コミュニケーションで用いられるコミュニケーションシステム - Google Patents

遠隔コミュニケーションで用いられるコミュニケーションシステム Download PDF

Info

Publication number
JP6429640B2
JP6429640B2 JP2015009705A JP2015009705A JP6429640B2 JP 6429640 B2 JP6429640 B2 JP 6429640B2 JP 2015009705 A JP2015009705 A JP 2015009705A JP 2015009705 A JP2015009705 A JP 2015009705A JP 6429640 B2 JP6429640 B2 JP 6429640B2
Authority
JP
Japan
Prior art keywords
display
document image
image
unit
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015009705A
Other languages
English (en)
Other versions
JP2016134851A (ja
Inventor
伊藤 祥晴
祥晴 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015009705A priority Critical patent/JP6429640B2/ja
Priority to US14/980,711 priority patent/US10477145B2/en
Publication of JP2016134851A publication Critical patent/JP2016134851A/ja
Application granted granted Critical
Publication of JP6429640B2 publication Critical patent/JP6429640B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • H04L12/1813Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • H04L12/1813Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
    • H04L12/1822Conducting the conference, e.g. admission, detection, selection or grouping of participants, correlating users to one or more conference sessions, prioritising transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/1066Session management
    • H04L65/1083In-session procedures
    • H04L65/1089In-session procedures by adding media; by removing media
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/401Support for services or applications wherein the services involve a main real-time session and one or more additional parallel real-time or time sensitive sessions, e.g. white board sharing or spawning of a subconference
    • H04L65/4015Support for services or applications wherein the services involve a main real-time session and one or more additional parallel real-time or time sensitive sessions, e.g. white board sharing or spawning of a subconference where at least one of the additional parallel sessions is real time or time sensitive, e.g. white board sharing, collaboration or spawning of a subconference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/403Arrangements for multi-party communication, e.g. for conferences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0383Remote input, i.e. interface arrangements in which the signals generated by a pointing device are transmitted to a PC at a remote location, e.g. to a PC in a LAN
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04804Transparency, e.g. transparent or translucent windows

Description

本発明は、拠点ごとに存在するコミュニケーションシステムを用いて遠隔コミュニケーションを行なう技術に関する。より具体的には、各拠点の様子を撮影した画像と電子文書などの画像とを重畳表示しながら、コミュニケーションを行う技術に関する。
自拠点において遠隔地にある他拠点との会議を行うためにテレビ会議システムが利用されることがある。テレビ会議システムではカメラやマイクを備えた表示装置が用いられ、表示装置の前にいる人物の映像を撮影したり音声を集音したりしてデータ化してネットワークを介して他拠点へ送信する。このデータを受信した他拠点ではデータ化された映像を表示装置へ表示したり、音声をスピーカーで再生したりする。このような処理をお互いの拠点で行なうことで、相手の表情を見ながら遠隔地にいる人と会議をすることが可能である。
また特許文献1では人物映像に加えて電子文書の画像も送受信し合い、人物と電子文書との画像を重畳表示し電子文書の画像をそれぞれの拠点で参照しながらコミュニケーションすることで意思疎通をよりスムーズに行えるシステムが提案されている。
スペイン特許第2399263号明細書(ES2399263,B1)
特許文献1の技術では、後述するように、自拠点において電子文書の表示位置を変更した場合、他拠点においても連動して電子文書の表示位置が変更されてしまう。従って、各拠点で自由な位置に電子文書を表示することができないという課題がある。
本発明にかかるコミュニケーションシステムは、他の拠点の鏡像の映像と、資料画像とを重畳して表示手段に投影する投影手段と、ユーザーの指示を検出する検出手段と、前記表示手段の表示面と対向する位置にいる前記ユーザーを撮影する撮影手段とを有するコミュニケーションシステムであって、前記表示手段に投影されている前記資料画像の表示位置を移動する指示を前記検出手段が検出した場合、前記資料画像の移動する方向及び移動量を取得する取得手段と、前記取得手段で取得した方向に、前記投影手段で投影している映像と資料画像とを前記取得手段で取得した移動量に相当する量だけ移動させる制御手段と、前記取得手段で取得した前記移動する方向及び移動量を前記他の拠点に送信する送信手段とを有することを特徴とする。
本発明によれば、各拠点で自由な位置に電子文書を表示しつつ、矛盾のない重畳表示を行うことが可能になる。
人物映像と資料画像とを重畳表示する技術の説明を行う図である。 実施例に係るコミュニケーションシステムの構成を示す図である。 実施例1における接続先候補リストを含む画面の例である。 実施例1における人物映像の投影処理を説明する図である。 実施例1における資料表示処理の画面の例である。 実施例1における資料画像の移動前後の様子を示す図である。 実施例1における、表示している資料画像の移動処理を説明するフローチャートである。 実施例1における、資料画像の移動後の重畳表示に矛盾がないことを示す図である。 実施例2における資料画像の移動モードの切り替え処理を説明するフローチャートである。 実施例2における連動移動モード時の資料画像表示の移動処理を説明するフローチャートである。 実施例3における資料画像表示の拡大縮小処理を説明するフローチャートである。 実施例3における拡大縮小処理を行った場合の投影画面の例である。
以下、本発明を実施するための形態について説明する。なお、実施例の具体的な説明の前に、後述する実施例2でも部分的に使用することになる特許文献1の技術を説明することにする。また、この特許文献1の技術で起こり得る問題点についても説明する。
特許文献1のシステムでは、各拠点に実在する人物(以下、リアル人物という)の位置と、スクリーンに映し出される人物(以下、表示人物という)の位置と、電子文書の画像の位置との位置関係が重要である。特許文献1のシステムでは、特許文献1のFig.2やFig.3に示されるように、カメラとプロジェクタとが半透明スクリーンの背面に設けられる。カメラは半透明スクリーン前面にいる人物を撮影するために用いられ、プロジェクタは、他拠点の人物を撮影した映像及び電子文書(以下、資料画像という)を投影するために用いられる。他の拠点においても同様の構成を設ける。このような構成においては、自拠点の半透明スクリーンに投影される、他拠点の表示人物は、鏡像となる。つまり、他拠点にいるリアル人物が左手を挙げている場合、そのリアル人物に対応する、自拠点の半透明スクリーン上で表示されている他拠点の表示人物は右手を挙げていることになる。
また、各拠点のリアル人物と正対している半透明スクリーン面の左上をそれぞれ原点として右及び下に向かうにつれてX値、Y値が増える半透明スクリーン座標系を定義すると、資料画像は、それぞれの拠点の同じ座標位置に表示される。
すなわち、このシステムでは、お互いの拠点で、例えば半透明スクリーンの中央に人物が位置し、半透明スクリーンの左側に資料を表示し、その表示された資料をそれぞれの拠点のリアル人物がそれぞれ左手で指し示した場合を想定する。この場合、あたかも鏡のように半透明スクリーン上の相手と同じ位置の資料画像を指し示しているようなことが可能となる。
以下、図1を用いてある拠点1と拠点2とでコミュニケーションをしている例を詳しく説明する。
図1(a)は、拠点1にある半透明スクリーン10に表示されている内容を示している。図1(a)には、拠点2にいるコミュニケーション相手であるリアル人物22aに対応する表示人物22bとコミュニケーションに使用している電子文書の資料画像11aとが表示されている。図1(b)は拠点2にある半透明スクリーン20に表示されている内容を示している。図1(b)には、拠点1にいるコミュニケーション相手であるリアル人物12aに対応する表示人物12bとコミュニケーションに使用している電子文書の資料画像21aとが表示されている。資料画像11aと資料画像21aとは同じ電子文書の画像である。図1(a)及び図1(b)に示すように、それぞれの拠点の半透明スクリーンに表示されている資料画像はスクリーン座標系で同じ位置に表示されている。
図1(c)は拠点1にいるリアル人物12aと半透明スクリーン10とを上から見た図である。また図1(c)では、半透明スクリーン10に表示されている拠点2の表示人物22bと資料画像11aとを仮想空間(斜線部分)に配置して上から見た様子も示している。表示人物22bとして、拠点2にいるリアル人物22aの鏡像が表示されている。同様に図1(d)は拠点2にいるリアル人物22aと半透明スクリーン20とを上から見た図である。また図1(c)では、半透明スクリーン20に表示されている拠点1の表示人物12bと資料画像21aとを仮想空間(斜線部分)に配置して上から見た様子も示している。
このとき、図1(e)に示すように、拠点1にいるリアル人物12aが資料画像11aの表示位置を、半透明スクリーン10に向かって左側から右側に変更したとする。具体的には、スクリーン座標系のX値を例えば、30から180に変更した座標位置に資料画像の表示位置を変更したものとする。この変更後の位置にある資料画像11cは、資料画像11aと同じ画像であるが、表示位置が変更されているものである。そして、一方で、拠点2で表示されている資料画像21aは拠点2のリアル人物22aによって表示位置が変更されなかった(即ち、図1(d)の状態のままである)状況を考える。
そうした状況下で、図1(e)にあるように、拠点1にいるリアル人物12aが半透明スクリーン10に向かって右側の位置にある資料画像11cを右手で指し示したとする。この時拠点2の表示が図1(f)に示す表示のようになると、各拠点での表示内容に不整合が生じてしまう。図1(f)では、半透明スクリーン20には拠点1にいるリアル人物12aに対応する表示人物12bが表示される。拠点1にいるリアル人物12aは右手で半透明スクリーン10の右側の資料画像を指しているが、半透明スクリーン20に表示される表示人物12bは鏡像であるので、表示人物12bは左手を挙げた映像となる。図1(f)に示すように、拠点2の半透明スクリーン20に表示されている資料画像21aは、スクリーン座標系のX値は30のままであるので、リアル人物22aから見てスクリーン左側に表示されたままである。つまり、拠点2のリアル人物22aから見ると、表示人物12bは、資料画像とは逆の位置を指し示している映像を見ることになる。
また、仮に図1(f)のような不整合が生じた場合には、逆に拠点2のリアル人物22aが資料21aを指し示した場合にも、拠点1のリアル人物12aから見ると、逆の方向の位置を指し示している映像を見ることになる。
そこで、特許文献1では、このような不整合を解消するために、図1(f)のような表示をするのではなく、図1(g)に示すような表示を行なう処理を開示している。図1(g)は、拠点1でリアル人物12aが前述のように資料画像のX座標の値を30から180に変更した場合に、拠点2で表示されている資料画像の表示位置も連動して変更する処理を行なった例を示している。つまり、拠点2のスクリーン20においても、資料画像の表示位置をリアル人物22aから見てスクリーンの左側から右側に変更する(移動する)。具体的には、拠点1で資料画像11cが表示されている位置と同じスクリーン座標の位置に、つまり、X値を30から180に変更した位置の半透明スクリーン20上に、資料画像21cを表示する。このように、一方の拠点で資料画像の表示位置が変更された場合に、他方の拠点での資料画像の表示位置も連動して変更することで、不整合が生じることを防止している。
しかしながら、このような特許文献1の技術では、人物映像と資料画像とを矛盾なく重畳表示することが可能であるが故に、各拠点で自由な位置に資料画像を表示することができないという問題があるのである。つまり、図1(e)に示すように、拠点1のリアル人物12aが資料画像の表示位置を変更する場合、拠点2のリアル人物22a側では、自分が望まない位置に資料画像の表示位置が変更されてしまう。以下の実施例では、矛盾のない重畳表示を行いつつ、各拠点で自由な位置に資料画像を表示することが可能な例を説明する。
[実施例1]
以下、本発明を実施するための形態について図面を用いて説明する。ただし、この実施形態に記載されている構成要素はあくまで例示であり、この発明の範囲をそれらに限定する趣旨のものではない。
<システムの機器構成>
図2に本実施例におけるコミュニケーションシステム30の構成を示す。図2に示すようなコミュニケーションシステム30は、遠隔コミュニケーションを行なう各拠点にそれぞれ備えられるものである。なお、遠隔とは単に離れていることを示しているに過ぎず、どのような距離であってもよい。極端な例では、隣同士の部屋にそれぞれコミュニケーションシステムを設置しているような形態であってもよい。
図2(a)はコミュニケーションシステムの全体構成を示した図であり、図2(b)は、ユーザーがコミュニケーションシステムを使用している様子を横から示した図である。
コミュニケーションシステム30は、システム全体を制御する制御部31、半透明スクリーン10、半透明スクリーン10の前に立つ人物を撮影する撮影部32を有する。また、コミュニケーションシステム30は、表示内容を半透明スクリーン10に投影する投影部33、人物が行う操作を検出するための検出部34を有する。
制御部31はプログラムを実行するためのCPU、プログラムを格納するためのRAMやROM、ハードディスクを備える。また、投影部33、撮影部32、検出部34との接続インターフェースを備える。また、電源スイッチ、他の拠点にあるシステムと接続を行うためのネットワークインターフェース等を備える。
撮影部32は、特許文献1のFig.2(a)(b)にあるような半透明スクリーンの奥にデジタルカメラ等を設置した構成になっている。本実施例の撮影部32は、特許文献1に記載の技術を用いて、半透明スクリーンに投影される映像を撮影せずに、半透明スクリーンより奥(図2(b)では半透明スクリーンよりも右側)の情報のみ(例えば、半透明スクリーンの前に立つ操作者)を撮影する。すなわち、半透明スクリーンの表示面に対向する位置にいる操作者を、半透明スクリーンの背面側から撮影する。
投影部33は、例えばプロジェクタで実現され、制御部31から投影画像を受信して半透明スクリーンに投影する。投影画像には、他拠点での人物を撮影した人物映像と、資料画像とが含まれる。なお、ここでは一台のプロジェクタが人物映像と資料画像とを重畳させた投影画像を投影する例を説明するが、複数台のプロジェクタを用意して、それぞれが人物映像と資料映像とを投影するような構成であってもよい。
検出部34は、例えばデジタイザで実現される。デジタイザは赤外光の送信器と受信器を有する。検出部34は、操作者が半透明スクリーンを指でタッチした際に送信器から投射した赤外光が指で反射して受信器に到達するまでの時間に基づいて半透明スクリーン上のタッチ位置を検出する。タッチ位置はスクリーンの座標系においてスクリーン座標系の原点からの相対的な位置で表現される。本実施例においては、前述のように、半透明スクリーンの左上の隅を原点とし、向かって右に行くに従いX座標の値が増加、向かって下方向に行くに従いY座標の値が増加するものとする。
<コミュニケーションシステムの概要>
図2に示すようなコミュニケーションシステムは、コミュニケーションを行う各拠点に設置されており、制御部31に含まれているネットワークインターフェース、ネットワーク通信路を経由して各々が接続されている。
本実施例では、拠点1と拠点2との間で遠隔コミュニケーションを行うものとする。以後、拠点1に設置されているコミュニケーションシステムの各構成を、制御部31−1、撮影部32−1、投影部33−1、検出部34−1と表記する。また、拠点2に設置されているコミュニケーションシステムの各構成を、制御部31−2、投影部P2、撮影部32−2、検出部34−2と記載する。
また本実施例においては、拠点1に設置されている半透明スクリーン10と、拠点2に設置されている半透明スクリーン20との幅、高さは同じものとする。
<電源投入からコミュニケーションの開始までの処理>
次に、本実施例で説明する遠隔コミュニケーションの動作開始に至る処理の概要を説明する。例えば拠点1にいる操作者から電源投入の指示を受けた拠点1の制御部31−1は、あらかじめハードディスクに格納されたプログラム読み出して処理の実行を開始する。本プログラムは複数の処理を並行して同時に実行することが可能なプログラムとしてもよい。
制御部31−1は、あらかじめハードディスクに格納されたコミュニケーション相手の接続先の候補を読み出す。制御部31−1は読み出した接続先候補の情報を用いて、ユーザーがタッチして接続先を選択できる表形式の接続先候補リストを含む画面を作成する。制御部31−1は、作成した接続先候補リストの投影指示を投影部33−1に対して行う。投影部33−1は投影指示を受けて、半透明スクリーン10に対して接続先候補リストを含む画面の投影を行う。
図3は半透明スクリーン10に接続先候補リスト350を含む画面を投影した結果を示した図である。操作者は半透明スクリーン10に投影された接続先候補リスト350を見て、その中から接続先を選び半透明スクリーン10に指でタッチすることで接続先を指定する。
拠点1の検出部34−1は、操作者が半透明スクリーン10をタッチしたことを検出し、その座標情報を制御部31−1へ送信する。制御部31−1は受信した座標情報を元に、接続先候補リスト350のなかから操作者が指定した接続先を決定する。制御部31−1は決定した接続先の情報を参照し、ネットワークインターフェースを経由して、拠点2にある制御部31−2に接続を要求する。
制御部31−2が接続待ち受け状態にあった場合には、制御部31−2が接続要求を受け、接続を確立した旨を制御部31−1に応答する。制御部31−1が接続を確立した旨の応答を検出できなかった場合には、一定時間待った後に制御部31−2への接続を再要求する。制御部31−1が一定回数の接続再要求を行ったにも関わらず、制御部31−2からの応答を検出できなかった場合は、制御部31−1は接続先候補リスト350を含む画面の投影処理に戻る。以上処理により制御部31−1から制御部31−2に対する通信が確立すると、データの送信が可能な状態になる。
また制御部31−1は上記処理と並行して、制御部31−2からの接続を待ち受ける処理も同時に実行している。このため拠点2にある端末でも、操作者が電源の投入操作、接続先の選択を行うことで制御部31−2から制御部31−1への接続処理が行われる。このとき制御部31−1が接続待ち受け状態にあれば通信が確立し、制御部31−2から制御部31−1に対してデータの送信が可能な状態になる。以上により、拠点1と拠点2でコミュニケーションが可能な状態になる。
<人物映像の投影処理>
図4は、人物を撮影した人物映像を説明するための図である。図4(a)は、拠点1にある半透明スクリーン10の前にリアル人物12aが立っている様子をリアル人物12aの後ろから見た図である。拠点1の撮影部32−1は、図2で示すように半透明スクリーン10を介して人物12aとは反対側から、半透明スクリーン10の前に立つ操作者であるリアル人物12aを撮影して人物映像を取得する。撮影範囲は半透明スクリーンの大きさと同じである。撮影部32−1はリアル人物12aから見て半透明スクリーンの奥に配置されているため、撮影される映像は図4(b)のように、リアル人物12aを前から見た映像になる。撮影部32−1はその人物映像をデータ化し制御部31−1へ送信する。制御部31−1は、受信した人物映像データを拠点2にある制御部31−2に送信する。
拠点2の制御部31−2は、拠点1から送信された人物映像データを受信する。前述の通り、この人物映像は、表示されるスクリーン20上では鏡像となっている必要がある。本実施例では、図2に示すように、撮影部と投影部とはスクリーンを介して反対側に位置する構成となっている。従って、制御部31−2は受信した人物映像を、図4(c)にあるように、表示用にその鏡像を内部で作成し、投影部33−2に投影指示を行う。投影部33−2は、投影指示を受けて半透明スクリーン20に対して人物映像を投影する。図11(d)は、拠点2の半透明スクリーン20に鏡像の表示人物12bが表示され、拠点2にいるリアル人物22aがそれを見ている様子を示している。
なお鏡像の作成は、制御部31−2で行うのではなく、あらかじめ制御部31−1で行ってから制御部31−2に送信する構成にしてもよい。また、図2と異なり撮影部と投影部とがどちらもスクリーンの奥側に配置されるような構成であれば、鏡像を作成する処理は不要である。また、一方が図2に示すような構成であり、他方が例えば特許文献1のFig.2、Fig.3に示すような構成である場合などでも必要に応じて鏡像の作成を行なえばよい。
以上処理を相互に行うことにより、拠点1で撮影された人物映像の鏡像が拠点2の半透明スクリーン20に、拠点2で撮影された人物映像の鏡像が拠点1の半透明スクリーン10に投影される。
なお、本実施例では説明の便宜上、他の拠点で撮影された映像のことを人物映像という表現で説明しているが、他の拠点の撮影部で撮影された映像であれば何でもよい。従って、人物に併せて背景部分も含まれていても良いし、必ずしも人物である必要もない。
また、ここでは実施例に関連する映像データのみを例に挙げて説明したが、音声データについても映像データと同様に他の拠点に送信される。音声データは、制御部に内蔵されているスピーカーや外部接続されたスピーカーなどを通じて出力される。
<資料画像の投影処理>
次に、資料画像の投影処理について図5を用いて説明する。例えば拠点1の操作者であるリアル人物12aからメニュー表示の指示を受けた検出部34−1は、メニュー表示指示と、指示があった座標情報とを制御部31−1に通知する。
制御部31−1は通知されたメニュー表示指示を受けてメニュー画面を内部で作成し、投影部33−1に、作成した画面を指示があった座標に対して投影するよう投影指示を行う。投影部33−1は投影指示を受けて、半透明スクリーンに対してメニュー画面の投影を行う。投影した結果の例を図5(a)に示す。図5(a)に示すように、操作者がタッチした位置を左上の頂点座標として、メニュー画面の投影が行なわれている。
操作者であるリアル人物12aは半透明スクリーン10に投影されたメニュー510を見て、その中から資料を表示するための項目を半透明スクリーンに指でタッチすることで指定する。
検出部34−1は、操作者が半透明スクリーン10をタッチしたことを検出し、その座標情報を制御部31−1へ送信する。制御部31−1は受信した座標情報と内部で生成したメニュー画面の情報とを比較して、メニュー画面の中から操作者が資料表示を指定したことを検出する。制御部31−1はあらかじめ格納された資料を一覧表示するための資料一覧リストを含む画面を内部で作成し、投影部33−1へ作成した画面を、メニュー表示指示があった座標(最初にタッチされた座標)に対して投影するよう投影指示を行う。投影部33−1は投影指示を受けて、図5(b)に示すように半透明スクリーン10に対して資料一覧520を含む画面の投影を行う。
操作者は半透明スクリーン10に投影された資料一覧520を見て、その中から表示したい資料を選び半透明スクリーン10を指でタッチすることで指定する。検出部34−1は、操作者が半透明スクリーン10をタッチしたことを検出し、その座標情報を制御部31−1へ送信する。制御部31−1は受信した座標情報と内部で生成した資料一覧を含む画面の情報とを比較して、資料一覧の中から操作者が指定した資料を特定する。制御部31−1は特定された資料をハードディスクから読み出し、資料画像を内部で作成し、投影部33−1に、作成した画面をメニュー表示指示があった座標に対して投影するよう投影指示を行う。投影部33−1は投影指示を受けて、図5(c)に示すように、半透明スクリーンに対して資料画像の投影を行う。
制御部31−1は、資料画像を拠点2の半透明スクリーン20に表示するために、制御部31−2にも同じ資料画像と座標情報とを送信し投影の依頼を行う。制御部31−2は拠点1から送信された資料画像と座標情報とを受信する。制御部31−2は、受信した座標情報と同じ座標に受信した資料画像を投影する。
制御部31−2は、投影部33−2に、受信した資料画像を受信した座標情報が示す座標に対して投影するよう投影指示を行う。投影部33−2は投影指示を受けて、半透明スクリーン20に対して資料画像の投影を行う。
以上により、拠点1で表示の開始を指示した資料画像が拠点1及び拠点2のスクリーン上でそれぞれ表示される。同様の操作、処理を拠点2で行うことで、拠点2で表示の開始を指示した資料画像が拠点1及び拠点2でそれぞれ表示されることが可能である。
なお、本実施例では、人物映像に重畳表示されるものを説明の便宜上、資料画像と呼んでいるが、人物映像と同様に、資料映像であってもよい。すなわち、静止画像ではなく動画像であってもよい。つまり、別の拠点で撮影した人物映像を鏡像で表示し、一方で、鏡像ではない画像または映像を、その人物映像に重畳表示するような形態であればどのようなものであってもよい。
<資料画像の移動処理>
次に、資料画像の移動処理について図を用いて説明する。図6は、資料画像の移動処理の前後の様子を示す図である。図6(a)は移動処理前後の、拠点1にいるリアル人物12aと半透明スクリーン10を上から見た図である。また、図6(a)は、半透明スクリーン10に表示されているコミュニケーション相手である表示人物22bと資料画像11aとを仮想空間(斜線部分)に配置して上から見た様子も示している。図6(a)の表示人物22bと資料画像11aは、移動処理前の位置に表示されている表示人物と資料画像とをそれぞれ示している。つまり移動処理前の状態においては、図6(a)は図1(c)で示す図と同じ状態であるものとする。
図6(c)は、移動処理前後の、拠点2にいるリアル人物22aと半透明スクリーン20を上から見た図である。また、図6(c)は、半透明スクリーン20に表示されているコミュニケーション相手である表示人物12bと資料画像21aとを仮想空間(斜線部分)に配置して上から見た様子も示している。図6(c)の表示人物12bと資料画像21aは、移動処理前の位置に表示されている表示人物と資料画像とをそれぞれ示している。つまり移動処理前の状態においては、図6(c)は図1(d)で示す図と同じ状態であるものとする。
拠点1にいるリアル人物12aが半透明スクリーン10をタッチしたことを検出した検出部34−1は、その座標情報を制御部31−1に送信する。制御部31−1は受信した座標情報と表示中の資料画像11aのスクリーン上の座標情報とを比較し、タッチ位置が資料画像の表示範囲に入っているかを判定する。制御部31−1はタッチ位置が資料画像11aの表示範囲に入っていないと判定した場合には、以下の図7を参照して説明する処理は行わずに処理を終了する。
制御部31−1は、タッチ位置が資料画像11aの表示範囲に入っていると判定した場合には、資料画像の移動処理を開始したと判定し以下の図7に示す繰り返し処理の実行を開始する。なお、この資料画像の移動処理の開始判定は、検出部34−1により、リアル人物12aが長時間資料画像11aの位置に相当する座標を一定時間のあいだ触れ続けていることを条件にしてもよい。
図7は、表示されている資料画像の移動処理を示す図である。図7(a)は拠点1にある制御部31−1が実行する処理であり、図7(b)は拠点2にある制御部31−2が実行する処理のフローチャートである。
制御部31−1は、資料画像の移動処理を開始したと判定した場合、図7(a)に示すステップS701の処理を行なう。ステップS701において制御部31−1は、資料画像が操作者によって移動された座標の差分を求める。半透明スクリーン10のタッチを検出したまま座標情報が更新されたことを検出した検出部34−1は、その更新された座標情報を制御部31−1に送信する。制御部31−1は更新前と更新後の座標情報を元にX座標とY座標の差分を算出する。なお、移動された座標情報は次のようにして検出部34−1が検出することができる。すなわち、資料画像内の座標を例えば操作者が一定時間の間触れ続けていると、資料が選択状態となり、その後、移動先のスクリーン上の位置を操作者がタッチした位置を移動先の座標情報として検出できる。
次に、ステップS702において制御部31−1は、表示している資料画像の移動を行なう。制御部31−1はステップS701で算出したX座標とY座標の差分を元に、スクリーン10に表示中の資料画像11aの表示位置を更新する。そして、投影部33−1へ更新した座標に資料画像を投影するよう投影指示を行う。投影部33−1は投影指示を受けて、半透明スクリーン10に対して表示位置の座標が更新された資料画像の投影を行う。なお、表示位置を変更した資料画像を制御部31−1が生成し、投影部33−1は、単に制御部31−1から投影指示を受けた画像を投影する構成でもよい。
ステップS702の処理による効果を図6(a)で表している。すなわち、図6(a)では、移動後の半透明スクリーン10上では、資料11aの代わりに資料11cが表示されていることを示している。なお、資料11aと資料11cとは同じ資料画像であり、表示されている位置が異なっている。
次に、ステップS703において制御部31−1は、半透明スクリーン10に表示している表示人物22bの移動を行う。制御部31−1は、ステップS701で算出したX座標とY座標の差分を元に、表示人物22bの表示座標を更新する。そして、投影部33−1へ更新した座標に表示人物を投影するよう投影指示を行う。投影部33−1は投影指示を受けて、半透明スクリーン10に対して表示位置の座標が更新された表示人物の投影を行う。すなわち、表示人物22bを含む人物映像を投影する位置を、更新された表示座標に基づいて変更する。
ステップS703の処理による効果を図6(a)でしている。すなわち、図6(a)では、移動後の半透明スクリーン10上では、表示人物22bの代わりに表示人物22cが表示されていることを示している。なお、表示人物22bと表示人物22cとは同じ人物であり、表示されている位置が異なっている。
このように、本実施例の処理では、資料画像の表示位置を移動した拠点のスクリーンでは、資料画像の表示位置の移動と合わせて表示人物も資料画像と同じ方向、同じ移動量だけ移動する。なお、説明の便宜上、表示人物が移動するとして説明したが、実際には表示人物を含む人物映像そのものがスクリーン上で移動することになる。
この資料画像と人物映像の移動処理により、拠点1の半透明スクリーン10に表示される内容は図6(b)のようになる。図6(b)の斜線部分は、人物映像を資料画像の右方向の移動に合わせて右方向に移動させたことにより半透明スクリーン10の左側に表示可能な領域が新たに生じたものの、撮影部32−2の撮影範囲を超えているため表示すべき映像が無い領域である。
ステップS704において制御部31−1はステップS701で算出したX座標とY座標の差分を遠隔コミュニケーションを行なっている拠点2の制御部31−2に送信する。
なお、ここでは、資料画像の移動の後の処理で人物映像の移動の処理を行なうような処理で説明しているが、これは説明の便宜上、切り分けて説明しているものに過ぎない。すなわち、ステップS702とS703とは並行して処理が行なわれてもよい。また、ステップS704に示す座標の差分の送信処理もステップS702及びステップS703と並行して行なってよい。
拠点2の制御部31−2は、ステップS751において、拠点1の制御部31−1からX座標とY座標の差分を受信する。
ステップS752において制御部31−2は、受信したX座標とY座標の差分を用いて表示人物12bの表示座標を更新して表示人物12bを移動する。制御部31−2は、受信したX座標とY座標の差分を元に、方向だけ逆に表示人物12bの表示座標を更新する。具体的には、X座標及びY座標の差分値の符号を反転させて加算する。そして、制御部31−2は、投影部33−2へ更新した座標に表示人物を投影するよう投影指示を行う。投影部33−2は投影指示を受けて、半透明スクリーンに対して表示位置の変更された人物映像の投影を行う。この処理による効果を図6(c)で表している。すなわち、図6(c)では、表示人物移動後の半透明スクリーン20上では、資料21aはスクリーン上で移動していない。代わりに、表示人物12bの代わりに表示人物12cが表示されている。なお、表示人物12bと表示人物12cは同じ表示人物であり、表示されている位置が異なっている。
この人物映像の移動処理により、拠点2の半透明スクリーン20に表示される内容は図6(d)のようになる。図6(d)の斜線部分は、人物映像を、拠点1での資料の移動方向である右方向とは逆の方向の左方向に移動させたことにより右側に表示可能な領域が新たに生じたものの、撮影部32−1の撮影範囲を超えているため表示すべき映像が無い領域である。
このような処理の効果について補足する。まず、移動前の処理においては、拠点1のリアル人物12aは、スクリーン左手に表示される資料画像を見ている状態である。拠点2のリアル人物22aは、同じくスクリーン左手に表示されている資料画像を見ている状態である。つまり、どちらもスクリーン左手に表示されている資料画像を左手で指し示す場合には、あたかも鏡のように互いに同じ位置の資料画像を表示しているような表示人物がそれぞれの拠点のスクリーン上に表示されていることになる。
ここで、拠点1のリアル人物12aが資料画像をスクリーン右手に移動させたことに伴い、図6(a)や図6(b)に示すような移動がなされたとする。この状況下において、拠点1のリアル人物12aは、今度は右手でスクリーン右側に表示されている資料画像を指し示したとする。図8(a)及び(b)は、このときの拠点の様子を仮想空間を含めて上から見た図である。注目すべきは、半透明スクリーン10と半透明スクリーン20とで資料画像の表示位置が異なっている点である。これは拠点1で資料画像11aを資料画像11cに変更したのに対して、拠点2で表示されているのは資料画像21aのままであるからである。しかしながら、人物映像と資料画像との重畳表示に矛盾が生じていないことがわかる。つまり、それぞれの拠点のリアル人物は、それぞれの半透明スクリーン上で同じ位置を指し示したまま状態を保っている。その一方で、拠点2のリアル人物22aは資料画像を元々表示されていた位置、すなわち、スクリーンの左手に位置させた状態を維持することができている。
このように、資料画像の移動に合わせて、一方の拠点では資料画像と人物映像の両方を移動させ、他方の拠点では人物映像を逆方向に移動させることで、矛盾のない重畳表示を行いつつ、任意の位置に資料画像の表示位置を変更することが実現できる。
操作者が半透明スクリーンのタッチをやめたことを検出した検出部34−1は、手が離れたことを制御部31−1に通知する。通知を受けた制御部31−1は、資料画像の移動処理が終了したと判定し、制御部31−2へ通知する。制御部31−1は以上の繰り返し処理の実行を終了する。
以上により、拠点1での資料画像移動の指示に対して、拠点1では資料画像と人物映像が同じ方向かつ同じ距離だけ移動するよう表示され、拠点2では表示されている人物映像のみ逆方向かつ同じ距離だけ移動するよう表示される。その結果、各拠点で自由な位置に電子文書を表示しつつ、矛盾のない重畳表示を行うことが可能になる。
なお、上記の例では、資料画像の移動量としてX座標とY座標の差分を元に各拠点の人物映像または資料画像の移動量を決定する例を説明した。しかしながら、例えばX座標の差分のみに基づいて移動量を決定してもよい。例えば、上下方向に資料を動かした場合に上下方向に表示人物が同様に上下方向に移動するのは不自然な映像になる場合がある。その一方で、資料を上下方向に動かしたにも関わらず表示人物が移動しないと矛盾した重畳表示にある恐れもある。そこで、例えば所定の閾値を設けてY座標の差分が閾値よりも少ない場合には、Y座標の差分を考慮せずにX座標の差分のみを用いて移動量を決定するような処理を行なってもよい。
[実施例2]
実施例1では、各拠点で任意の位置に操作者が資料画像を表示しつつ、矛盾のない重畳表示を行うことが可能な例を説明した。一方で、ユーザーによっては他拠点での資料画像の表示位置の変更に伴い、自拠点の資料画像の表示位置が変更になってもよい、あるいは、むしろ変更した方がよいという場合もある。そこで、実施例2では、資料画像の移動指示を行った時の動作を選択するメニューを設け、資料画像移動時の動作モードの切り替え可能にした場合を説明する。
各拠点のコミュニケーションシステムの構成、電源投入からコミュニケーションの開始までの処理、人物映像の投影処理、資料画像の投影処理については実施例1記載と同様であるため説明を省略する。
<資料画像移動モードの切替え処理>
本実施例において資料画像の移動モードとして「個別移動モード」と「連動移動モード
」との2つのモードを持つものとする。「個別移動モード」とは実施例1で説明したように、資料画像の表示位置が操作者の移動指示によって各拠点で連動せず、それぞれで任意の位置に移動可能なモードである。「連動移動モード」とは資料画像の表示位置が一方の操作者の移動指示によって各拠点で資料画像の表示位置が連動するモードである。すなわち、各拠点のスクリーン座標上での表示位置が連動するモードであり、例えば図1(g)のような動作を行なうモードである。
本実施例において操作者からメニュー表示の指示を受けた検出部34−1は、メニュー表示指示と指示があった座標情報とを制御部31−1に通知する。制御部31−1はメニュー表示指示を受けてメニュー画面を内部で作成し、投影部33−1へ作成した画面を指示があった座標に対して投影するよう投影指示を行う。投影部33−1は投影指示を受けて、半透明スクリーンに対してメニュー画面の投影を行う。
操作者は半透明スクリーンに投影されたメニュー画面を見て、その中から資料画像移動モードの切替えを選び半透明スクリーンに指でタッチすることで指定する。例えば図5(a)に示すメニュー画面のうち、「動作モード切り替え」の表示領域を指でタッチすることで指定する。検出部34−1は、操作者が半透明スクリーンをタッチしたことを検出し、その座標情報を制御部31−1へ送信する。制御部31−1は受信した座標情報を元に、メニュー画面の中から操作者が資料画像の動作モードの切り替えを指定したことを検出する。制御部31−1は前述の「個別移動モード」か「連動移動モード」かを操作者が選択するための画面を内部で作成し、投影部33−1へ作成した画面を、メニュー表示指示のタッチがあった座標に対して投影するよう投影指示を行う。
その後、操作者は半透明スクリーンに投影されたメニュー画面を見て、「個別移動モード」か「連動移動モード」かを半透明スクリーンに指でタッチすることで指定する。検出部34−1は、操作者が半透明スクリーンをタッチしたことを検出し、その座標情報を制御部31−1へ送信する。制御部31−1は受信した座標情報を元に、メニュー画面の中から操作者が指定した資料画像の移動モードを検出する。制御部31−1は検出した資料画像移動モードを保持しておく。この資料画像移動モードの値は、メニューで指定されるたびに個別移動モードを表す値と連動移動モードを表す値がトグルで切り替わるよう動作する。
なお、ここではメニュー画面は、資料表示の場合も動作モードの切り替えの場合も同じ操作(タッチ操作)によって表示される例を説明したが、これに限られるものではない。資料表示のメニューと動作モードの切り替えのメニューとが別の動作によって表示される形態でもよい。
<資料画像の移動処理>
資料画像の移動処理について図を用いて説明する。図9は拠点1にある制御部31−1が実行する処理である。実施例1で説明したように、拠点1の制御部31−1は、検出部34−1による操作者のタッチ位置の座標情報と表示している資料画像の座標情報とに基づいて資料画像の移動処理が開始したかを判定し、移動処理が開始したと判定した場合、図9の処理に進む。
ステップS901において制御部31−1は、資料画像の移動モードの判定を行う。制御部31−1は、操作者によってメニュー画面を介して設定されている移動モードの設定値を参照して現在の動作モードを判定する。制御部31−1は資料画像の移動モードが「個別移動モード」であると判定した場合には、ステップS902に進む。移動モードが拠点ごとに異なってしまうと重畳表示に矛盾が生じてしまう。そこで、ステップS902では制御部31−1は、拠点2の制御部31−2に現在の資料画像の移動モードが「個別移動モード」であることを示す情報を通知する。ステップS903では、実施例1で説明したものと同様の処理を行う。すなわち、資料画像の移動処理と人物映像の移動処理とを、資料画像の移動をした拠点か、資料画像の移動がされた拠点かに応じて行なう。
一方、制御部31−1は資料画像の移動モードが「連動移動モード」であると判定した場合に、ステップS904に進む。ステップS904で制御部31−1は、拠点2の制御部31−2に現在の資料画像の移動モードが「連動移動モード」であることを通知する。ステップS905において制御部31−1は資料画像の移動処理を行なう。ステップS903の処理の詳細を図10を用いて説明する。
図10は、実施例2における連動移動モード時の処理のフローを示す図である。図10(a)は拠点1にある制御部31−1が実行する処理、図10(b)は拠点2にある制御部31−2が実行する処理のフローチャートである。
ステップS1001において制御部31−1は資料画像の連動移動を開始したことを、制御部31−2に通知する。制御部31−2は資料画像の移動処理の開始通知を受けて、資料画像移動処理を開始する。
以下、ステップS1002、S1003、S1004の処理は、実施例1で説明したステップS701、S702、S704の処理とそれぞれ同じであるので説明を省略する。なお、実施例1のステップS703で説明した人物映像の移動処理は図10には含まれない。
拠点2においては、ステップS1051制御部31−2は、拠点1の制御部31−1からX座標とY座標の差分を受信する。
ステップS1052において制御部31−2は資料画像の移動モードの判定を行う。ここでは、図9のステップS902またはステップS904で拠点1の制御部31−1から通知された移動モードに基づいて判定が行なわれる。図10では、連動移動モードの場合を例に挙げているので、制御部31−2は、ステップS1053に処理を進める。なお、個別移動モードであると判定した場合には、ステップS1054に処理を進める。ステップS1054の処理は実施例1で説明したステップS752と同様の処理である。
ステップS1053において制御部31−2は、受信したX座標とY座標の差分を元に、資料画像の表示座標を更新する。具体的には、現在の資料画像の表示座標に、X座標とY座標の差分値を加算すればよい。すなわち、拠点1の半透明スクリーン10上での資料画像の表示座標と同じ表示座標に拠点2の資料画像の表示位置を更新する。なお、ここではX座標とY座標の差分を用いる例を説明したが、移動後のX座標、Y座標そのものの座標情報を用いても良い。そして、制御部31−2は、投影部33−2へ更新した座標に対して資料画像を投影するよう投影指示を行う。投影部33−2は投影指示を受けて、半透明スクリーンに対して資料画像の投影を行う。
以上のように、ステップS1003とステップS1053による資料画像の移動の様子は、前述のように図1の(e)及び(g)に示すとおりである。
その後、ステップS1005において操作者が半透明スクリーンのタッチをやめたことを検出した検出部34−1は、手が離れたことを制御部31−1に通知する。通知を受けた制御部31−1は、資料画像の移動処理が終了したと判定し、制御部31−2へ通知する。通知を受けた制御部31−2は、移動対象になる資料画像の特定を破棄する。制御部31−1は繰り返し処理の実行を終了する。
以上により、資料画像の移動モードをユーザーが任意に切り替えることができるので、利用形態に適した移動モードを実現することができる。
[実施例3]
実施例1及び実施例2では資料画像の移動指示として、資料画像の表示サイズはそのままで表示位置(表示座標)を変更する例を説明した。しかしながら、資料画像の移動指示としては、資料画像の表示サイズを変更する処理、すなわち、資料画像の拡大縮小処理も考えられる。本実施例では資料画像の拡大縮小指示があった場合の処理について述べる。
端末の機器構成、システム構成、電源投入からコミュニケーションの開始までの処理、人物映像の投影処理、資料画像の投影処理については実施例1もしくは実施例2記載と同様であるため説明を省略する。
<拡大縮小表示>
操作者が半透明スクリーンを2点でタッチしたことを検出した検出部34−1は、その座標情報を制御部31−1に送信する。制御部31−1は受信した座標情報と表示中の資料画像の座標情報を比較し、2点とも資料画像の表示範囲に入っているかを判定する。制御部31−1は資料画像の表示範囲に入っていないと判定した場合には、以下の処理は行わずに処理を終了する。この資料画像の拡大縮小処理の開始判定は、検出部34−1により、操作者1が長時間資料画像の表示位置に相当する2点の座標を一定時間のあいだ触れ続けていることを条件にしてもよい。
図11は、実施例3における資料拡大(または縮小)時の処理のフローを示す図である。図11(a)は拠点1にある制御部31−1が実行する処理、図11(b)は拠点2にある制御部31−2が実行する処理のフローチャートである。
ステップS1101において、半透明スクリーン10が2点でタッチされたまま座標情報が更新されたことを検出した検出部34−1は、その更新された座標情報を制御部31−1に送信する。制御部31−1は更新前と更新後の2点の座標情報を元に拡大縮小量を算出する。
ステップS1102において制御部31−1は、算出した拡大縮小量を元に、表示中の資料画像の中心座標を起点にして資料画像の表示サイズを更新し、投影部33−1へ更新した表示サイズで資料画像を投影するよう投影指示を行う。投影部33−1は投影指示を受けて、半透明スクリーンに対して資料画像の投影を行う。この処理に因る効果を図で示すと、図1(a)にある資料画像11aが図12(a)の資料画像11dのように拡大表示される。
ステップS1103において制御部31−1は資料画像を拡大縮小させた量と同じだけ、資料画像の中心座標を起点にして表示中の人物映像の表示サイズを更新し、投影部33−1へ更新した表示サイズで人物映像を投影するよう投影指示を行う。投影部33−1は投影指示を受けて、半透明スクリーンに対して人物映像の投影を行う。この処理に因る効果を図で示すと、図1(a)にある表示人物22bが図12(a)の表示人物22cに示すように拡大表示される。
ステップS1104において制御部31−1は算出した拡大縮小量を拠点2の制御部31−2に送信する。
ステップS1151において、拠点2の制御部31−2は、拠点1の制御部31−1から拡大縮小量を受信する。制御部31−2は、制御部31−1が資料画像を拡大縮小させた量の逆数を用いて、資料画像の中心座標を起点にして人物映像の表示サイズを更新し、投影部33−2へ更新した表示サイズで人物映像を投影するよう投影指示を行う。投影部33−2は投影指示を受けて、半透明スクリーンに対して人物映像の投影を行う。この処理に因る効果を図で示すと、図1(b)にある表示人物12bが図12(b)の表示人物12cにあるように縮小表示される。図12(b)の斜線部分は、人物映像を縮小表示させたことにより外周部分に表示可能な領域が新たに生じたものの、撮影部32−2の撮影範囲を超えているため表示すべき映像が無い領域である。なお、図12(b)において表示されている資料画像21aの表示座標とサイズは図1(b)から変更されていない。
操作者が半透明スクリーンの2点でのタッチをやめたことを検出した検出部34−1は、手が離れたことを制御部31−1に通知する。通知を受けた制御部31−1は、資料画像の拡大縮小処理が終了したと判定し、制御部31−2へ通知する。制御部31−1は以上の繰り返し処理の実行を終了する。
<資料画像の移動処理>
本実施例において資料画像の移動処理を指示された場合には、実施例1で説明した資料画像の移動処理を行う時に、その移動量を拡大縮小率を乗じた量に変更して移動処理を行うことで矛盾のない重畳表示が可能になる。
以上により、拠点1での資料画像の拡大縮小の指示に対して、拠点1では資料画像と人物映像とが同じだけ拡大縮小が行われたよう表示される。また拠点1で資料画像を拡大表示させた場合は拠点2では人物映像だけが縮小表示される。逆に、拠点1で資料画像を縮小表示させた場合は拠点2では人物映像だけが拡大表示される。
その結果、各拠点で自由なサイズで電子文書の資料画像を表示しつつ、矛盾のない重畳表示を行うことが可能になる。
<その他の実施例>
実施例3記載の拡大縮小表示処理についても、実施例2記載の資料画像移動のモード切り替え処理と同様の処理を付加することにより、実施例3記載の効果に加えて拠点1と拠点2で表示されている資料画像のサイズが連動して変更されることが可能になる。
なお、上記の各実施例では、資料画像の移動処理(拡大縮小も含む)を行なった拠点1から別の拠点である拠点2に対して資料画像の移動の方向と移動量とが伝達される例を説明した。そして、これを受けて拠点2では、資料画像の移動の方向とは逆方向に人物映像をその移動量だけ移動させる処理を行なう例を説明した。しかしながらこのような処理に限られるものではない。例えば拠点1から拠点2に対して送られる情報は資料画像の移動の方向と移動量でなくてもよい。すなわち、個別移動モードである場合には、拠点1の制御部31−1は、拠点2で行なうべき処理は、資料画像の移動ではなく、人物映像の移動処理であると判定することができる。そして、拠点1の制御部31−1は、その判定結果に基づいて、拠点2の制御部31−2に対して人物映像の移動指示と、その移動方向及び移動量とを伝達する処理を行なってもよい。つまり、拠点1の制御部31−1は、自拠点の資料画像の移動に関する情報を拠点2に伝達する処理ではなく、他拠点の人物映像の移動に関する情報を拠点2に伝達するような処理を行なってもよい。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。

Claims (13)

  1. 他の拠点の鏡像の映像と、資料画像とを重畳して表示手段に投影する投影手段と、
    ユーザーの指示を検出する検出手段と、
    前記表示手段の表示面と対向する位置にいる前記ユーザーを撮影する撮影手段と
    を有するコミュニケーションシステムであって、
    前記表示手段に投影されている前記資料画像の表示位置を移動する指示を前記検出手段が検出した場合、前記資料画像の移動する方向及び移動量を取得する取得手段と、
    前記取得手段で取得した方向に、前記投影手段で投影している映像と資料画像とを前記取得手段で取得した移動量に相当する量だけ移動させる制御手段と、
    前記取得手段で取得した前記移動する方向及び移動量を前記他の拠点に送信する送信手段と
    を有することを特徴とするコミュニケーションシステム。
  2. 前記取得手段は、資料画像の表示位置を個別に設定する第1のモードか、資料画像の表示位置の移動に伴い、前記他の拠点で資料画像を連動して移動させる第2のモードかを示す情報をさらに取得し、
    前記制御手段は、前記取得手段で取得した情報が第1のモードを示す場合、前記取得手段で取得した方向に、前記投影手段で投影している映像と資料画像とを前記取得手段で取得した移動量に相当する量だけ移動させることを特徴とする請求項1に記載のコミュニケーションシステム。
  3. 前記取得手段は、資料画像の表示位置を個別に設定する第1のモードか、資料画像の表示位置の移動に伴い、前記他の拠点で資料画像を連動して移動させる第2のモードかを示す情報をさらに取得し、
    前記制御手段は、前記取得手段で取得した情報が第2のモードを示す場合、前記取得手段で取得した方向に、前記投影手段で投影している資料画像を、前記取得手段で取得した移動量に相当する量だけ移動させることを特徴とする請求項1に記載のコミュニケーションシステム。
  4. 他の拠点の鏡像の映像と、資料画像とを重畳して表示手段に投影する投影手段と、
    ユーザーの指示を検出する検出手段と、
    前記表示手段の表示面と対向する位置にいる前記ユーザーを撮影する撮影手段と
    を有するコミュニケーションシステムであって、
    前記他の拠点から、資料画像の表示位置を移動する方向及び移動量を受信する受信手段と、
    前記投影手段で投影している映像を、前記受信手段で取得した方向とは逆の方向に、前記受信手段で受信した移動量に相当する量だけ移動させる制御手段と
    を有することを特徴とするコミュニケーションシステム。
  5. 前記受信手段は、資料画像の表示位置を個別に設定する第1のモードか、資料画像の表示位置の移動に伴い、前記他の拠点で資料画像を連動して移動させる第2のモードかを示す情報をさらに受信し、
    前記制御手段は、前記受信手段で受信した情報が第1のモードを示す場合、前記投影手段で投影している映像を、前記受信手段で受信した方向とは逆の方向に、前記受信手段で取得した移動量に相当する量だけ移動させることを特徴とする請求項4に記載のコミュニケーションシステム。
  6. 前記受信手段は、資料画像の表示位置を個別に設定する第1のモードか、資料画像の表示位置の移動に伴い、前記他の拠点で資料画像を連動して移動させる第2のモードかを示す情報をさらに受信し、
    前記制御手段は、前記受信手段で受信した情報が第2のモードを示す場合、前記投影手段で投影している資料画像を、前記受信手段で受信した方向と同じ方向に、前記受信手段で取得した移動量に相当する量だけ移動させることを特徴とする請求項4に記載のコミュニケーションシステム。
  7. 前記移動は、前記表示手段で表示される前記資料画像または前記映像の表示座標を変更することを含むことを特徴とする請求項1から6のいずれか一項に記載のコミュニケーションシステム。
  8. 前記移動は、前記表示手段で表示される前記資料画像または前記映像の表示サイズを変更することを含むことを特徴とする請求項1から7のいずれか一項に記載のコミュニケーションシステム。
  9. 前記表示手段は半透明スクリーンであり、
    前記撮影手段は、前記半透明スクリーンの前記ユーザーと対向しない背面側から前記半透明スクリーンを介して前記ユーザーを撮影することを特徴とする請求項1から8のいずれか一項に記載のコミュニケーションシステム。
  10. 第2の拠点の鏡像の映像と、資料画像とを重畳して第1の表示手段に投影する第1の投影手段と、ユーザーの指示を検出する第1の検出手段と、前記第1の表示手段の表示面と対向する位置にいる前記ユーザーを撮影する第1の撮影手段とを有する第1の拠点のシステムと、
    第1の拠点の鏡像の映像と、資料画像とを重畳して第2の表示手段に投影する第2の投影手段と、ユーザーの指示を検出する第2の検出手段と、前記第2の表示手段の表示面と対向する位置にいる前記ユーザーを撮影する第2の撮影手段とを有する第2の拠点のシステムとを有するコミュニケーションシステムであって、
    第1の拠点のシステムは、
    前記第1の表示手段に投影されている前記資料画像の表示位置を移動する指示を前記第1の検出手段が検出した場合、前記資料画像の移動する方向及び移動量を取得する取得手段と、
    前記取得手段で取得した方向に、前記第1の投影手段で投影している映像と資料画像とを前記取得手段で取得した移動量に相当する量だけ移動させる第1の制御手段と、
    前記第2の投影手段で投影される前記第1の拠点の鏡像の映像を前記取得手段で取得した方向とは逆の方向に前記取得手段で取得した移動量に相当する量だけ移動させる指示を送信する第1の送信手段と
    を有し、
    前記第2の拠点のシステムは、
    前記1の拠点の前記第1の送信手段から送信される前記指示を受信する受信手段と、
    前記受信手段で受信した指示に基づいて前記第2の投影手段で投影している映像を移動させる第2の制御手段と
    を有することを特徴とするコミュニケーションシステム。
  11. 他の拠点の鏡像の映像と、資料画像とを重畳して表示手段に投影する投影手段と、
    ユーザーの指示を検出する検出手段と、
    前記表示手段の表示面と対向する位置にいる前記ユーザーを撮影する撮影手段と
    を有するシステムを用いた制御方法であって、
    前記表示手段に投影されている前記資料画像の表示位置を移動する指示を前記検出手段が検出した場合、前記資料画像の移動する方向及び移動量を取得する取得ステップと、
    前記取得ステップで取得した方向に、前記投影手段で投影している映像と資料画像とを前記取得ステップで取得した移動量に相当する量だけ移動させる移動ステップと、
    前記取得ステップで取得した前記移動する方向及び移動量を前記他の拠点に送信する送信ステップと
    を有することを特徴とする制御方法。
  12. 他の拠点の鏡像の映像と、資料画像とを重畳して表示手段に投影する投影手段と、
    ユーザーの指示を検出する検出手段と、
    前記表示手段の表示面と対向する位置にいる前記ユーザーを撮影する撮影手段と
    を有するシステムを用いた制御方法であって、
    前記他の拠点から、資料画像の表示位置を移動する方向及び移動量を受信する受信ステップと、
    前記投影手段で投影している映像を、前記受信ステップで取得した方向とは逆の方向に、前記受信ステップで受信した移動量に相当する量だけ移動させる移動ステップと
    を有することを特徴とする制御方法。
  13. コンピュータを、請求項1から8のいずれか一項に記載のコミュニケーションシステムの各手段として機能させるためプログラム。
JP2015009705A 2015-01-21 2015-01-21 遠隔コミュニケーションで用いられるコミュニケーションシステム Expired - Fee Related JP6429640B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015009705A JP6429640B2 (ja) 2015-01-21 2015-01-21 遠隔コミュニケーションで用いられるコミュニケーションシステム
US14/980,711 US10477145B2 (en) 2015-01-21 2015-12-28 Communication system for remote communication

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015009705A JP6429640B2 (ja) 2015-01-21 2015-01-21 遠隔コミュニケーションで用いられるコミュニケーションシステム

Publications (2)

Publication Number Publication Date
JP2016134851A JP2016134851A (ja) 2016-07-25
JP6429640B2 true JP6429640B2 (ja) 2018-11-28

Family

ID=56408778

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015009705A Expired - Fee Related JP6429640B2 (ja) 2015-01-21 2015-01-21 遠隔コミュニケーションで用いられるコミュニケーションシステム

Country Status (2)

Country Link
US (1) US10477145B2 (ja)
JP (1) JP6429640B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018013074A1 (en) * 2016-07-11 2018-01-18 Hewlett-Packard Development Company, L.P. Mirror display devices
JP2019079473A (ja) * 2017-10-27 2019-05-23 富士ゼロックス株式会社 情報処理装置及びプログラム
KR102271308B1 (ko) * 2017-11-21 2021-06-30 주식회사 하이퍼커넥트 영상통화 중에 상호작용 가능한 시각적 오브젝트를 제공하기 위한 방법, 및 이를 수행하는 상호작용 가능한 시각적 오브젝트 제공 시스템
JP7095361B2 (ja) * 2018-03-29 2022-07-05 株式会社リコー 通信端末、画像通信システム、表示方法、及びプログラム
JP7210892B2 (ja) * 2018-03-30 2023-01-24 株式会社リコー 通信端末、画像通信システム、表示方法、及びプログラム
WO2021161725A1 (ja) * 2020-02-10 2021-08-19 日本電気株式会社 プログラム、携帯端末の処理方法及び携帯端末
CN111917611B (zh) * 2020-08-20 2021-10-26 杭州迪普科技股份有限公司 半透明代理服务器的测试方法、装置及系统
WO2023191773A1 (en) * 2022-03-29 2023-10-05 Hewlett-Packard Development Company, L.P. Interactive regions of audiovisual signals

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7007236B2 (en) * 2001-09-14 2006-02-28 Accenture Global Services Gmbh Lab window collaboration
JP4194425B2 (ja) 2003-06-18 2008-12-10 キヤノン株式会社 画像処理装置及びデータ転送方法
US7697053B2 (en) * 2006-11-02 2010-04-13 Eastman Kodak Company Integrated display having multiple capture devices
US20090117209A1 (en) * 2007-11-02 2009-05-07 Hutchison Medipharma Enterprises Limited Andrographis paniculata extract
US20100032132A1 (en) * 2008-08-05 2010-02-11 Paul Brannon Collins Personal cooling systems and related methods
US20100153497A1 (en) * 2008-12-12 2010-06-17 Nortel Networks Limited Sharing expression information among conference participants
US8390718B2 (en) * 2009-01-28 2013-03-05 Hewlett-Packard Development Company, L.P. Methods and systems for performing visual collaboration between remotely situated participants
US8355038B2 (en) * 2009-01-28 2013-01-15 Hewlett-Packard Development Company, L.P. Systems for capturing images through a display
JP5113781B2 (ja) * 2009-02-17 2013-01-09 シャープ株式会社 テレビ電話装置
KR20100136616A (ko) * 2009-06-19 2010-12-29 삼성전자주식회사 휴대용 단말기에서 멀티 터치 입력 오류를 줄이기 위한 장치 및 방법
JP2011253367A (ja) * 2010-06-02 2011-12-15 Canon Inc データ処理装置およびデータ処理方法
US8908008B2 (en) * 2010-07-16 2014-12-09 Hewlett-Packard Development Company, L.P. Methods and systems for establishing eye contact and accurate gaze in remote collaboration
ES2399263B1 (es) 2010-10-22 2014-01-30 Ignacio Mondine Natucci Sistema de videoconferencia para colaboración remota bidireccional sobre una pantalla de ordenador.
US9595127B2 (en) * 2010-12-22 2017-03-14 Zspace, Inc. Three-dimensional collaboration
US8717381B2 (en) * 2011-01-11 2014-05-06 Apple Inc. Gesture mapping for image filter input parameters
US20140173463A1 (en) * 2011-07-29 2014-06-19 April Slayden Mitchell system and method for providing a user interface element presence indication during a video conferencing session
US20130132885A1 (en) * 2011-11-17 2013-05-23 Lenovo (Singapore) Pte. Ltd. Systems and methods for using touch input to move objects to an external display and interact with objects on an external display
US9325943B2 (en) * 2013-02-20 2016-04-26 Microsoft Technology Licensing, Llc Providing a tele-immersive experience using a mirror metaphor
US9219878B2 (en) * 2013-04-22 2015-12-22 Hewlett-Packard Development Company, L.P. Interactive window
JP6244846B2 (ja) * 2013-11-18 2017-12-13 株式会社リコー 情報処理端末、情報処理方法、プログラム、及び情報処理システム

Also Published As

Publication number Publication date
JP2016134851A (ja) 2016-07-25
US20160212379A1 (en) 2016-07-21
US10477145B2 (en) 2019-11-12

Similar Documents

Publication Publication Date Title
JP6429640B2 (ja) 遠隔コミュニケーションで用いられるコミュニケーションシステム
JP6566698B2 (ja) 表示制御装置および表示制御方法
KR102146858B1 (ko) 촬영 장치 및 촬영 장치의 비디오 생성방법
JP2016144089A (ja) 画像処理装置およびその制御方法
WO2022100712A1 (zh) 真实环境画面中虚拟道具的显示方法、系统及存储介质
CN111385669B (zh) 电子装置、控制方法和计算机可读介质
US11076125B2 (en) Information processing apparatus and information processing method
CN107256405B (zh) 显示系统和显示终端
JP7183033B2 (ja) 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体
JP6978826B2 (ja) 表示制御装置及びその制御方法、プログラム、並びに記憶媒体
JP7267764B2 (ja) 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体
JP7214523B2 (ja) 電子機器、電子機器の制御方法、プログラム
JP2021174317A (ja) 電子機器及びその制御方法
JP7208002B2 (ja) 電子機器及びその制御方法
JP7204482B2 (ja) 電子機器及びその制御方法
JP7327938B2 (ja) 電子機器およびその制御方法およびプログラムおよび記憶媒体
JP7214475B2 (ja) 電子機器及びその制御方法
JP7278774B2 (ja) 電子機器及びその制御方法
JP2013152642A (ja) 端末装置、表示システム、端末装置の制御方法、端末装置の制御プログラム、および、該制御プログラムを記録した記録媒体
JP7313822B2 (ja) 電子機器、その制御方法、プログラム及び記憶媒体
JP2020136821A (ja) 情報処理装置及びその制御方法、プログラム
CN110881102B (zh) 摄像设备、摄像设备的控制方法和计算机可读介质
JP6193180B2 (ja) プレゼンテーション用端末及びプレゼンテーション方法
JP7443100B2 (ja) 電子機器、電子機器の制御方法、プログラムおよび記憶媒体
JP7336200B2 (ja) 電子機器及びその制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180921

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181002

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181030

R151 Written notification of patent or utility model registration

Ref document number: 6429640

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees