JP6398630B2 - 可視像表示方法、第1デバイス、プログラム、及び、視界変更方法、第1デバイス、プログラム - Google Patents

可視像表示方法、第1デバイス、プログラム、及び、視界変更方法、第1デバイス、プログラム Download PDF

Info

Publication number
JP6398630B2
JP6398630B2 JP2014228644A JP2014228644A JP6398630B2 JP 6398630 B2 JP6398630 B2 JP 6398630B2 JP 2014228644 A JP2014228644 A JP 2014228644A JP 2014228644 A JP2014228644 A JP 2014228644A JP 6398630 B2 JP6398630 B2 JP 6398630B2
Authority
JP
Japan
Prior art keywords
view
field
camera device
camera
detection information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014228644A
Other languages
English (en)
Other versions
JP2016053935A (ja
Inventor
キンバー ドン
キンバー ドン
クラッツ スベン
クラッツ スベン
ファビアン プロップ パトリック
ファビアン プロップ パトリック
ジェイ. バック メアリベス
ジェイ. バック メアリベス
ビー イアン リュウ
イアン リュウ ビー
ダニガン アンソニー
ダニガン アンソニー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Publication of JP2016053935A publication Critical patent/JP2016053935A/ja
Application granted granted Critical
Publication of JP6398630B2 publication Critical patent/JP6398630B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/101Collaborative creation, e.g. joint development of products or services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • Physics & Mathematics (AREA)
  • Economics (AREA)
  • Theoretical Computer Science (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • Data Mining & Analysis (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本出願は、一般的に、可視像表示方法、第1デバイス、プログラム、及び、視界変更方法、第1デバイス、プログラムに関する。
コラボレーションは人々の間で以前から行われており、ビジネス及び他の試みにおいて通常行われている。チームで働き、互いにコラボレーションする人々は、より効率的に働くことが可能であり、作業のための有用なアイデアを生成するためのより多くの可能性を有する。技術の進歩はコラボレーションをより容易にし、物理的に長い距離を越えたコラボレーションを容易にする。
シンケ(Schinke)ら、「モバイル拡張現実におけるオフスクリーンオブジェクトの可視像(Visualization of Off-Screen Objects in Mobile Augmented Reality)、モバイルHCI抄録(Proceedings of Mobile HCI)、2014年9月 チタロ(Chittaro)ら、"仮想環境におけるナビゲーション支援としての3次元位置特定(3D Location-pointing as a Navigation Aid in Virtual Environments)"、[online]、2003年1月、[2014年11月5日検索]、インターネット(URL:http://web3d.dimi.uniud.it/publications/2004-10/) ブリガット(Burigat)ら、"モバイルデバイスにおけるオフスクリーンオブジェクトの位置の可視化:3つのアプローチの比較評価(Visualizing Locations of Off-Screen Objects on Mobile Devices: A Comparative Evaluation of Three Approaches)、[online]、2006年9月、[2014年11月5日検索]、インターネット(URL:http://frecce3d.uniud.it/publications/2006-08/)
しかしながら、コラボレーションを容易にするために採用される技術は、当該技術のためのチャレンジを要求する。チャレンジは、ローカルユーザとリモートユーザが1つの環境を見ているシナリオで現れる。リモートユーザは、その環境を見るためにローカルユーザの側に配置されているカメラに依存する。ローカルユーザは環境の特定の部分を見ているかもしれず、当該特定の部分にリモートユーザを導くことを所望しているかもしれない。しかしながら、リモートユーザにとって、カメラの視界が限定されているため、ローカルユーザが見ている場所を知覚することは困難である。さらに、ローカルユーザから何らかのガイダンスを得るために、環境とローカルユーザとの間で視界をコンスタントにシフトすることは退屈かもしれない。一方、環境の特定の部分を見ていて、当該部分を見るようにローカルユーザを導くリモートユーザも困難及び退屈を感じる可能性がある。
相互に離隔した環境におけるコラボレーションを容易にするための可視像を提供する。
第1態様は、可視像表示方法であって、ディスプレイを有する第1デバイスが、カメラデバイスから画像情報を受信し、前記画像情報は前記カメラデバイスに関連する第1視界に対応し、第2デバイスから検知情報を受信し、前記検知情報は前記第2デバイスに関連する第2視界に対応し、前記ディスプレイに、前記画像情報、及び、前記第1視界及び前記第2視界の少なくとも一方の可視像、を表示する。
第2態様は、第1態様の方法であって、前記第1視界の向きの変更、前記第2視界の向きの変更、及び、前記カメラデバイス及び第2デバイスの相対移動、の少なくとも1つによって前記可視像を更新する、ことをさらに含む。
第3態様は、第1または第2態様の方法であって、前記可視像は、前記カメラデバイス、前記第2デバイス、前記第1視界及び前記第2視界を表す鳥瞰表示を含む。
第4態様は、第1〜第3態様の何れかの方法であって、前記可視像は、前記第1視界、前記第2視界、及び前記第2デバイスの前記カメラデバイスへの相対位置を表す矩形を含む。
第5態様は、第1〜第4態様の何れかの方法であって、前記可視像は、前記第2視界の方向を示す第1アイコンを含む。
第6態様は、第5態様の方法であって、前記画像情報及び可視像を表示することは、前記画像情報上に前記第1アイコンを表示することを含む。
第7態様は、第5または第6態様の方法であって、前記可視像は、前記第2デバイスの前記カメラデバイスとの相対位置を示す第2アイコンを含む。
第8態様は、第1〜第4態様の何れかの方法であって、前記可視像は、前記第2視界の方向及び前記第1視界と前記第2視界の適合を示すアイコンの第1セットを含む。
第9態様は、第8態様の方法であって、前記可視像は、第2デバイスの前記カメラデバイスとの相対位置及び前記第1視界と前記第2デバイスの位置の適合を示すアイコンの第2セットを含む。
第10態様は、第1〜第9態様の方法であって、前記カメラデバイスは前記第1デバイスの遠隔にある。
第11態様は、第1〜第10態様の方法であって、前記カメラデバイスは、ユーザに固定されたカメラデバイス及び面に固定されたカメラデバイスの一方である。
第12態様は、第11態様の方法であって、前記カメラデバイス及びユーザの間の相対距離は一定である。
第13態様は、第1〜第12態様の方法であって、前記カメラデバイスの遠隔であって、前記第1デバイスの近傍にいるユーザから、前記カメラデバイスへの少なくとも1つの命令に対応するユーザ入力を受信し、前記ユーザ入力に従って、前記カメラデバイスへ前記命令を送信する、ことをさらに含む。
第14態様は、第1デバイスであって、ディスプレイと、メモリと、少なくとも1つのプロセッサと、前記メモリに保存され、前記少なくとも1つのプロセッサによって実行されるように構成されている少なくとも1つのプログラムと、を備え、前記少なくとも1つのプログラムは、カメラデバイスから画像情報を受信し、前記画像情報は前記カメラデバイスに関連する第1視界に対応し、第2デバイスから検知情報を受信し、前記検知情報は前記第2デバイスに関連する第2視界に対応し、前記ディスプレイに、前記画像情報、及び、前記第1視界及び前記第2視界の少なくとも一方の可視像、を表示する、ための命令を含む。
第15態様は、プログラムであって、カメラデバイスから画像情報を受信し、前記画像情報は前記カメラデバイスに関連する第1視界に対応し、第2デバイスから検知情報を受信し、前記検知情報は前記第2デバイスに関連する第2視界に対応し、ディスプレイに、前記画像情報、及び、前記第1視界及び前記第2視界の少なくとも一方の可視像、を表示する、ことをコンピュータに実行させる。
第16態様は、視界変更方法であって、第1デバイスが、カメラデバイスから画像情報を受信し、前記画像情報は前記カメラデバイスに関連する第1視界に対応し、第2デバイスから検知情報を受信し、前記第2デバイスは前記第1デバイスの遠隔であって、前記カメラデバイスの近傍にあり、ユーザ入力を受信し、前記ユーザ入力に応じて、前記検知情報に基づいて、前記第1視界の向きを変更するよう前記カメラデバイスに指示を送信する。
第17態様は、第16態様の方法であって、前記第2デバイスは第2視界と関連し、前記検知情報に基づいて前記第1視界の向きを変えるように前記カメラデバイスに指示を送信することは、前記第2視界と同じ方向に前記第1視界の向きを変えるように前記カメラデバイスに指示を送信することを含む。
第18態様は、第16態様の方法であって、前記第2デバイスはユーザによって装着され、もしくは保持され、前記検知情報に基づいて前記第1視界の向きを変えるように前記カメラデバイスに指示を送信することは、前記ユーザ及び前記第2デバイスの少なくとも一方を前記第1視界に含めるように前記第1視界の向きを変えるように前記カメラデバイスに指示を送信することを含む、
請求項16に記載の方法。
第19態様は、第16態様の方法であって、前記検知情報に基づいて前記第1視界の向きを変えるように前記カメラデバイスに指示を送信することは、前記第2デバイスに対してスレーブモードに入るように前記カメラデバイスに指示を送信することを含み、スレーブモードにおいて、前記カメラデバイスは、前記第2デバイスから受信した検知情報に基づいて前記第1視界の向きを継続的に変更する。
第20態様は、第16態様の方法であって、前記検知情報は、加速度計情報、ジャイロスコープ情報、磁力計情報及び位置検出情報の少なくとも1つを含む。
第21態様は、第1デバイスであって、メモリと、少なくとも1つのプロセッサと、前記メモリに保存され、前記少なくとも1つのプロセッサによって実行されるように構成されている少なくとも1つのプログラムと、を備え、前記少なくとも1つのプログラムは、カメラデバイスから画像情報を受信し、前記画像情報は前記カメラデバイスに関連する第1視界に対応し、第2デバイスから検知情報を受信し、前記第2デバイスは、前記第1デバイスの遠隔であって、前記カメラデバイスの近傍にあり、ユーザ入力を受信し、前記ユーザ入力に応じて、前記検知情報に基づいて、前記第1視界の向きを変更するよう前記カメラデバイスに指示を送信する。
第22の態様は、プログラムであって、カメラデバイスから画像情報を受信し、前記画像情報は前記カメラデバイスに関連する第1視界に対応し、第2デバイスから検知情報を受信し、前記第2デバイスは、第1デバイスの遠隔であって、前記カメラデバイスの近傍にあり、ユーザ入力を受信し、前記ユーザ入力に応じて、前記検知情報に基づいて、前記第1視界の向きを変更するよう前記カメラデバイスに指示を送信する。
相互に離隔した環境におけるコラボレーションを容易にするための可視像を提供する。
実施例のいくつかによるテレプレゼンス環境を例示するブロック図である。 実施例のいくつかによるリモートデバイスを例示するブロック図である。 実施例のいくつかによるカメラデバイスを例示するブロック図である。 実施例のいくつかによる検知デバイスを例示するブロック図である。 実施例のいくつかによるサーバシステムを例示するブロック図である。 実施例のいくつかによる視界の可視像を例示する。 実施例のいくつかによる他の視界の可視像を例示する。 実施例のいくつかによる視界情報及びカメラデバイスの向きを例示する。 実施例のいくつかによる視界情報及びカメラデバイスの向きを例示する。 実施例のいくつかによる視界情報及びカメラデバイスの向きを例示する。 実施例のいくつかによる視界情報を例示する。 実施例のいくつかによる視界情報を例示する。 実施例のいくつかによる視界情報を表示する方法のフローチャートを例示する。 実施例のいくつかによる視界情報を表示する方法のフローチャートを例示する。 実施例のいくつかによる視界情報を表示する方法のフローチャートを例示する。 実施例のいくつかによるカメラデバイスの向きを変える方法のフローチャートを例示する。
様々な実施例を詳細に参照する。実施例は、添付の図面を用いて説明される。図において、同様の参照符号は同様の要素を示す。以下の詳細な記述において、多くの特定の詳細が、発明及び説明される実施例の全体的な理解のために記載される。しかしながら、発明は特定の詳細を必要とせず実施可能である。また、周知の方法、プロシージャ、コンポーネント及び回路については、実施例を不必要に不明瞭にしないように、詳細を省略する。
図1は、実施例のいくつかによるテレプレゼンス環境100を例示する。テレプレゼンス環境100は検知デバイス106、カメラデバイス108、ディスプレイ116及び入力デバイス118を含むデバイス114、サーバもしくはサーバシステム120、及び1つもしくは複数の通信ネットワーク128を含む。図1は破線によって区切られている2つの異なるテレプレゼンス領域を示す。「ローカル(近傍)」として参照される破線の上の領域は、ユーザによって見られ使用され、また、ユーザとインタラクションするための画像及び他の情報を提供するために、1つもしくは複数のローカルユーザ102によって使用され、及び/または制御されるデバイスを含む。実施例のいくつかにおいて、「リモート(遠隔)」として参照される破線の下の領域は、ローカルユーザ102及び/もしくはデバイスによって提供される画像及び他の情報を見る、使用する、もしくは、当該画像及び他の情報とインタラクションするために、1つもしくは複数のリモートユーザ112によって使用され、及び/もしくは制御されるデバイスを含む。
通信ネットワーク128は、イントラネット、エクストラネット、もしくはインターネットなどの、有線もしくは無線のローカルエリアネットワーク(LAN)及び/もしくは、ワイドエリアネットワーク(WAN)であってよい。通信ネットワーク128は、サーバシステム120と、検知デバイス106、カメラデバイス108及びデバイス114と、の間をつなぐ通信能力を有せば十分である。
テレプレゼンス環境100において、環境101(「ローカル環境」)のユーザ102(「ローカルユーザ」)はローカル環境101を見ている(例えば、図示しないローカル環境101のオブジェクトを見ている)。ローカル環境101から離隔して位置するユーザ112(「リモートユーザ」)は、ローカルユーザ102及びローカル環境101の近傍にあるカメラデバイス108を通して、ローカル環境101を見ている。ローカルユーザ102は視界104(例えば、ローカルユーザの目、ローカルユーザが身に付けている、もしくはローカルユーザによって保持されているカメラ)を有し、カメラデバイス108は視界110を有する。ローカルユーザ102及びカメラデバイス108の視界は交差してもしなくてもよいし、同じ方向に向いていても向いていなくてもよい。ローカルユーザ102及びカメラデバイス108は同じオブジェクトもしくは同じ方向を見ていても見ていなくてもよい。実施例のいくつかにおいて、カメラデバイス108はリモートユーザ112によって操作可能に構成されている。例えば、リモートユーザ112は、カメラ視界110の向きを変更するためにカメラデバイス108のピッチもしくはヨーを調整することが可能である。
実施例のいくつかにおいて、カメラデバイス108はネットワーク128及びカメラデバイス108の位置及び/もしくは向き及び視界を判定可能とする1つもしくは複数の追加センサ(例えば、GPS(Global Positioning System)レシーバ、加速度計、ジャイロスコープ、磁力計など)に接続可能な画像取得デバイスのいずれかである。追加センサに接続可能であることは必須ではない。例えば、カメラデバイス108はカメラを有するスマートフォンもしくはカメラを有するタブレットデバイスであってよい。実施例のいくつかにおいて、ローカル環境101のビデオの提供に加えて、カメラデバイス108及び/もしくは検知デバイス106は、追加テレプレゼンス情報をローカルユーザ102に提供するマイクロフォン及び他のセンサ(例えば、温度計、高度計、気圧計など)を含む。その結果として、カメラデバイス108は音声、ビデオ及びミーティング、プレゼンテーション、ツアー及びミュージカルもしくはシアターパフォーマンスのための他の環境情報を提供することが可能である。これらは全てリモートデバイス114を通して、リモートユーザ112によって体験されることが可能である。これらのセンサの方向情報は、適用可能であれば、ここで記述されるビデオ情報とほぼ同様にリモートユーザ112に提示されてもよい。
実施例のいくつかにおいて、カメラデバイス108はローカルユーザ102によって装着されるか、保持される。例えば、カメラデバイス108は、ローカルユーザ102によって装着されたハーネスから伸びるアームもしくはブームに固定されてもよい。他の例として、カメラデバイス108はローカルユーザ102によって装着されるヘッドギア(例えば、ヘルメット、帽子など)に固定されてもよい。これらの実施例において、カメラデバイス108の絶対的な位置はユーザ102が移動すると変化するが、カメラデバイス108のローカルユーザ102との相対的な位置及び距離は変化しない。ローカルユーザ102との相対的な距離を同一に維持するほかの方法も存在する(例えば、ローカルユーザ102によって押されるカートもしくは他の搬送台車に固定する)。
実施例のいくつかにおいて、カメラデバイス108は静止プラットフォームに配置されるかもしくは固定される。例えば、カメラデバイス108はテーブルに配置される。これらの実施例において、カメラデバイス108の絶対的な位置は変化しないが、ローカルユーザ102とのカメラデバイス108の相対的な位置及び距離は、ローカルユーザ102が移動すると変化する。
実施例のいくつかにおいて、カメラデバイス108がローカルユーザ102との絶対的な位置を維持するか、相対的な位置を維持するかに関わらず、カメラデバイス108は、カメラデバイス108に360度自由な向きを許容するプラットフォームもしくは他のシステムを含む(例えば、カメラデバイスは当該プラットフォームもしくは他のシステムに固定される)。例えば、カメラデバイス108は自由な向きを許容するプラットフォームに固定されていてもよい。また、プラットフォームは腕/ブームもしくはヘッドギアに固定されており、もしくはテーブルに配置されている。
カメラデバイス108はローカル環境101の視界に対応する画像データをデバイス114に出力する。デバイス114(「リモートデバイス」)はリモートユーザ112の近傍(ローカル)にある(すなわち、ローカル環境101、ローカルユーザ102及びカメラデバイス108の遠隔(リモート)にある)。実施の形態のいくつかにおいて、リモートデバイス114はクライアントデバイス(例えば、デスクトップもしくはノートブックコンピュータ、スマートフォン、もしくはタブレットデバイス)である。
リモートデバイス114は、ディスプレイ116及び1つもしくは複数の入力デバイス118を含む(例えば、リモートデバイス114は、ディスプレイ116及び1つもしくは複数の入力デバイス118に接続されている)。デバイス114は、リモートユーザ112に表示するために、カメラデバイス108からの画像データに対応する画像(例えば、ビデオ)をディスプレイ116に出力する。リモートユーザ112は、カメラデバイス108を操作するためのコマンドを入力するために入力デバイス118を使用する。デバイス114はコマンドを受信し、カメラデバイス108に対応する制御信号を送信する。
実施例のいくつかにおいて、ローカルユーザ102は検知デバイス106を装着する。検知デバイス106は、ローカルユーザの頭の位置及び視界方向に調整されると、ローカルユーザの(視界の方向及び角度範囲を含む)視界104を判定するために使用され得るデータを出力する1つもしくは複数のセンサを含む。検知デバイス106はネットワーク128への接続を含む。実施例のいくつかにおいて、検知デバイス106はカメラデバイスを含み、カメラデバイスからの出力データはローカルユーザの視界を判定するために使用されてもよいが、カメラデバイスを含むことは必須ではない。実施例のいくつかにおいて、検知デバイス106はローカルユーザ102に情報を表示するディスプレイデバイスを含むが、ディスプレイデバイスを含むことは必須ではない。
実施例のいくつかにおいて、検知デバイス106はセンサを有する装着可能なヘッドギアである。検知デバイス106は、カメラデバイス、及びヘッドアップディスプレイもしくはヘッドマウントディスプレイもしくは他のディスプレイも有していてよいが、これらを有することは必須ではない。検知デバイス106の例は、ヘッドマウントディスプレイ、センサ、カメラを有するヘルメット及びグーグルのグーグルグラスを含むが、これらに限定されない。
検知デバイス106、カメラデバイス108、及びリモートデバイス114はサーバ120を介してデータを交換する。検知デバイス106、カメラデバイス108、リモートデバイス114及びサーバ120はネットワーク128を介して接続されている。実施例のいくつかにおいて、サーバシステム120は、データ交換を調整するテレプレゼンスコントロールモジュール(図5を用いて以下で詳細に説明する)及び検知デバイス106、カメラデバイス108及びリモートデバイス114の間の中継機能を含む。すなわち、検知デバイス106、カメラデバイス108及びリモートデバイス114はネットワーク128を介してサーバシステム120に接続し、サーバシステム120を介して相互にデータを送受信する。
実施例のいくつかにおいて、カメラデバイス108は画像データをサーバシステム120に送信する。センサデータ及びメタデータも送信してもよいが、必須ではない。検知デバイス106はセンサデータをサーバ120に送信する。画像データ及びメタデータも送信してよいが、必須ではない。リモートデバイス114はサーバ120に制御信号(例えば、カメラ108を操作するためのユーザコマンド)を送信する。サーバ120はカメラモジュール108から画像データを受信し、カメラデバイス画像データを表示のためにリモートデバイス114に送信する。サーバ120は検知デバイス106から画像データを受信し、検知デバイス画像データを表示のためにリモートデバイス114に送信してもよいが必須ではない。サーバ120はリモートデバイス114から制御信号を受信し、ユーザコマンドに従って、カメラデバイス108の操作のためにカメラデバイス108に制御信号を送信する。
サーバ120は、画像データ、センサデータ及びメタデータをカメラデバイス108から受信し、センサデータ、画像データ及びメタデータを検知デバイス106から受信する。実施例のいくつかにおいて、サーバ120は、視界の可視像及びカメラデバイス108及び検知デバイス106の相対位置を表示する可視像データを生成するためにデータを処理する。サーバ120は、表示するために、リモートデバイス114及び検知デバイス106に可視像データを送信する。他の実施例のいくつかにおいて、サーバ120はカメラデバイス108から検知デバイス106にデータを送信し、検知デバイス106からカメラデバイス108にデータを送信し、可視像データを生成するために、カメラデバイス108及び検知デバイス106は他方のデバイスからのデータを、自身の各々のデータと共に、各々処理する。
図2は実施例のいくつかによるリモートデバイス114を例示する。リモートデバイス114は、一般的に、1つもしくは複数の処理ユニット(CPU)202、1つもしくは複数のネットワークもしくは他の通信インターフェイス208、メモリ206及びこれらの構成要素を相互に接続する1つもしくは複数の通信バス204を含む。通信バス204は、システム構成要素を相互に接続し、システム構成要素間の通信を制御する回路(チップセットともいわれる)を含んでもよいが必須ではない。リモートデバイス114は、ディスプレイデバイス116及び1つもしくは複数の入力デバイス118を含むユーザインターフェイス210を含んでいてもよい。実施例のいくつかにおいて、入力デバイス118は、キーボード、マウス、タッチセンシティブ面(例えば、トラックパッド、タッチセンシティブディスプレイ)、ジョイスティック、及びトラックボールの1つもしくは複数を含む。実施例のいくつかにおいて、リモートデバイス114は、(図示しない)音声出力装置(例えば、スピーカ、ヘッドフォン)及び/もしくは音声入力装置(例えば、マイクロフォン)を含む。メモリ206は、DRAM、SRAM、DDR RAMもしくは他のランダムアクセスソリッドステートメモリデバイスなどの高速ランダムアクセスメモリを含む。メモリ206は、1つもしくは複数の磁気ディスクストレージデバイス、光ディスクストレージデバイス、フラッシュメモリデバイス、もしくは他の不揮発性ソリッドステートストレージデバイスなどの不揮発性メモリを含んでいてもよい。メモリ206はCPU202と遠隔して位置する一つもしくは複数のストレージデバイスを含んでいてもよいが必須ではない。メモリ206もしくは代替的にメモリ206の不揮発性メモリデバイスは非一時的コンピュータ可読ストレージ媒体を含む。実施例のいくつかにおいて、メモリ206もしくはメモリ206のコンピュータ可読ストレージ媒体は、オペレーティングシステム212、ネットワーク通信モジュール214、及びテレプレゼンスモジュール216を含む、以下のプログラム、モジュール及びデータ構造、もしくは、プログラム、モジュール及びデータ構造のサブセットを記憶する。
オペレーティングシステム212は、様々な基本システムを扱うため、及び、ハードウェア依存タスクを実行するためのプロシージャを含む。
ネットワーク通信モジュール214は他のデバイス、コンピュータ及びシステムとの1つもしくは複数の通信ネットワークインターフェイス208(有線もしくは無線)及びインターネット、他のワイドエリアネットワーク、ローカルエリアネットワーク、メトロポリタンエリアネットワークなどの1つもしくは複数の通信ネットワークを介した通信を促進する。
テレプレゼンスモジュール216(例えば、テレプレゼンスアプリケーション)は、他のテレプレゼンスデバイス(例えば、図1のカメラデバイス108、検知デバイス106)から受信したデータを処理し、表示し、リモートユーザ112によるカメラデバイス108の操作を促進する。実施例のいくつかにおいて、テレプレゼンスモジュール216は画像表示モジュール218、視界表示モジュール220及びカメラコントロールモジュール222を含む。画像表示モジュール218はカメラデバイス108から受信した画像データを処理し、ディスプレイ116に画像データ(例えば、ビデオ)を表示する。視界表示モジュール220はデータ(例えば、カメラデバイス108及び検知デバイス106からのセンサデータ、もしくは、カメラデバイス108及び検知デバイス106からのデータから生成されたサーバ120からの可視像データ)を受信し、データを処理し、視界及び相対位置の可視像としてデータをディスプレイ116に表示する。視界表示モジュール220は、カメラデバイス108へのコマンド(例えば、図8A〜図8Cのアイコン850、852、854)のためのユーザインターフェイスを表示する。ユーザは表示された可視像とインタラクションしてもよいが、必須ではない。カメラコントロールモジュール222は入力デバイス118で受信したユーザ入力を処理し、ユーザ入力に応じて、コマンド、命令及び/もしくは制御信号をサーバシステム120に送信する。制御信号はカメラデバイス108を操作するためにカメラデバイス108に送信される。
上記識別された構成要素の各々は、先に説明した1つもしくは複数のメモリデバイスに記憶されていてもよい。モジュールもしくはプログラムの各々は上記した機能を実行するための命令セットに対応する。命令セットは1つもしくは複数のプロセッサ(例えば、CPU202)によって実行され得る。上記識別されたモジュールもしくはプログラム(すなわち、命令セット)は別個のソフトウェアプログラム、プロシージャもしくはモジュールとして実装されなくてもよい。すなわち、これらのモジュールの様々なサブセットは結合されてもよいし、様々な実施形態で再配置されてもよい。実施例のいくつかにおいて、メモリ206は上記で識別されたモジュール及びデータ構造のサブセットを保存してもよい。また、メモリ206は上記しない他のモジュール及びデータ構造を記憶してもよい。
図2はリモートデバイスを示すが、図2は、ここで記載した実施形態の構造的な概要というよりは、リモートデバイスにあってもよい様々な特徴を機能的に示すことを意図している。実用的には、分離して示されるアイテムは結合されてもよいし、アイテムのいくつかは複数のアイテムに分けられてもよい。
図3は実施例のいくつかによるカメラデバイス108を例示するブロック図である。カメラデバイス108は、一般的に、1つもしくは複数の処理ユニット(CPU)302、1つもしくは複数のネットワークもしくはその他の通信インターフェイス310、メモリ306、画像取得デバイス308及び構成要素を相互に接続する通信バス304を含む。カメラデバイス108は1つもしくは複数のセンサ312を有していてもよいが、必須ではない。通信バス304はシステムコンポーネントを相互に接続する回路(チップセットともいう)を含みシステムコンポーネント間の通信を制御してもよいが、必須ではない。実施例のいくつかにおいて、センサ312は、加速度計、ジャイロスコープ、磁力計の1つもしくは複数を含む。実施例のいくつかにおいて、カメラデバイス108は(図示しない)音声出力デバイス(例えば、スピーカ、ヘッドフォン)及び/もしくは音声入力デバイス324(例えば、マイクロフォン)を含む。メモリ306は、DRAM、SRAM、DDR RAMもしくは他のランダムアクセスソリッドステートメモリデバイスなどの高速ランダムアクセスメモリを含む。メモリ306は、1つもしくは複数の磁気ディスクストレージデバイス、光ディスクストレージデバイス、フラッシュメモリデバイス、もしくは他の不揮発性ソリッドステートストレージデバイスなどのような不揮発性メモリを含んでもよい。メモリ306は、CPU302と遠隔して(リモートに)配置された1つもしくは複数のストレージデバイスを含んでもよいが、必須ではない。メモリ306、もしくは、代替的に、メモリ306の不揮発性メモリデバイスは、非一時的コンピュータ可読ストレージ媒体を含む。実施例のいくつかにおいて、メモリ306もしくはメモリ306のコンピュータ可読ストレージ媒体は、オペレーティングシステム314、ネットワーク通信モジュール316、カメラモジュール318、センサモジュール320及びコントロールモジュール322を含む以下のプログラム、モジュール及びデータ構造もしくは、プログラム、モジュール及びデータ構造のサブセットを記憶する。
オペレーティングシステム314は様々な基本システムサービスを扱うため、及びハードウェア依存タスクを実行するためのプロシージャを含む。
ネットワーク通信モジュール316は他のデバイス、コンピュータ及びシステムと、1つもしくは複数の通信ネットワークインターフェイス310(有線もしくは無線)及び、インターネット、他のワイドエリアネットワーク、ローカルエリアネットワーク、メトロポリタンエリアネットワークなどの1つもしくは複数の通信ネットワークを介した通信を促進する。
カメラモジュール318は、画像取得デバイス308を用いて画像(例えば、ビデオ)を取得し、取得した画像を画像データに符号化し、リモートデバイス114で表示するために、サーバシステム120を経由して、リモートデバイス114に画像データを送信する。
センサモジュール320はセンサ312が検出したデータを取得し、当該データをセンサデータに変換し、センサデータをサーバシステム120に送信する。
コントロールモジュール322はリモートデバイス114から(サーバシステム120を介して)制御信号を受信し、制御信号に応じて、オペレーション(例えば、カメラデバイス108を移動し、もしくは、カメラデバイス108の向きを変更する)を実行する。
実施例のいくつかにおいて、カメラデバイス108はカメラデバイス108の地理的な位置を判定する位置検出デバイス(例えば、GPSレシーバ)を含む。
上記識別された構成要素の各々は上記メモリデバイスの1つもしくは複数に保存され、モジュールもしくはプログラムの各々は上記機能を実行するための命令セットに対応する。命令セットは1つもしくは複数のプロセッサ(例えば、CPU302)によって実行され得る。上記識別されたモジュールもしくはプログラム(例えば、命令セット)は、別個のソフトウェアプログラム、プロシージャ、もしくはモジュールとして実装されなくてもよい。これらのモジュールの様々なサブセットは結合され、もしくは、様々な実施例に再配置されてもよい。実施例のいくつかにおいて、メモリ306は上記識別されたモジュール及びデータ構造のサブセットを保存する。また、メモリ306は、上記されていない追加的なモジュール及びデータ構造を保存してもよい。
図3はカメラデバイスを示すが、図3は、ここで記載した実施形態の構造的な概要というよりは、カメラデバイスにあってもよい様々な特徴を機能的に示すことを意図している。実用的には、分離して示されるアイテムは結合されてもよいし、アイテムのいくつかは複数のアイテムに分けられてもよい。
図4は、実施例のいくつかによる検知デバイス106を例示するブロック図である。検知デバイス106は、一般的に、1つもしくは複数の処理ユニット(CPU)402、1つもしくは複数のネットワークもしくは他の通信インターフェイス410、メモリ406、1つもしくは複数のセンサ418、及び構成要素を相互に接続する1つもしくは複数の通信バス404を含む。画像取得デバイス408、ユーザインターフェイス412を含んでもよいが、必須ではない。通信バス404は、システム構成要素間を相互に接続し、システム構成要素間の通信を制御する回路(チップセットともいう)を含んでもよいが、必須ではない。実施例のいくつかにおいて、センサ418は加速度計、ジャイロスコープ、磁力計の1つもしくは複数を含む。ユーザインターフェイス412は、ディスプレイデバイス414及び1つもしくは複数の入力デバイス416(例えば、1つもしくは複数のボタン、タッチセンシティブ面)を含む。実施例のいくつかにおいて、検知デバイス106は(図示しない)音声出力デバイス(例えば、スピーカ、ヘッドフォン)及び/もしくは音声入力デバイス(例えば、マイクロフォン)を含む。メモリ406は、DRAM、SRAM、DDR RAMもしくは他のランダムアクセスソリッドステートメモリデバイスなどの高速ランダムアクセスメモリを含む。メモリ406は、1つもしくは複数の磁気ディスクストレージデバイス、光ディスクストレージデバイス、フラッシュメモリデバイス、もしくは他の不揮発性ソリッドステートストレージデバイスなどのような不揮発性メモリを含んでもよい。メモリ406は、CPU402から遠隔して(リモートに)配置された1つもしくは複数のストレージデバイスを含んでもよいが、必須ではない。メモリ406、もしくは、代替的に、メモリ406の不揮発性メモリデバイスは、非一時的コンピュータ可読ストレージ媒体を含む。実施例のいくつかにおいて、メモリ406もしくはメモリ406のコンピュータ可読ストレージ媒体は、オペレーティングシステム420、ネットワーク通信モジュール422、カメラモジュール424、センサモジュール426及び視界表示モジュール428を含む以下のプログラム、モジュール及びデータ構造もしくは、プログラム、モジュール及びデータ構造のサブセットを記憶する。
オペレーティングシステム420は、様々な基本システムサービスを扱うため、及び、ハードウェア依存タスクを実行するためのプロシージャを含む。
ネットワーク通信モジュール422は、他のデバイス、コンピュータ及びシステムとの、1つもしくは複数の通信ネットワークインターフェイス410(有線もしくは無線)及び、インターネット、他のワイドエリアネットワーク、ローカルエリアネットワーク、メトロポリタンエリアネットワークなどの1つもしくは複数の通信ネットワークを介した、通信を促進する。
カメラモジュール424は、画像取得デバイス408を用いて画像(例えば、ビデオ)を取得し、取得した画像を画像データに符号化し、画像データをサーバシステム120に送信する。
センサモジュール426はセンサ418が検出したデータを取得し、当該データをセンサデータに変換し、センサデータをサーバシステム120に送信する。
視界表示モジュール428はサーバシステム120からの可視像データを受信し、ディスプレイ414に可視像データを表示する。例えば、実施例のいくつかにおいて、視界表示モジュール428は、ローカルユーザ102、カメラデバイス108及びリモートユーザ112の相対的な視界を示す1つもしくは複数の可視像をローカルユーザ102に表示するために検知デバイス106の表示を制御する。
実施例のいくつかにおいて、検知デバイス106は検知デバイス106の地理的位置を判定するための位置検出デバイス(例えば、GPSレシーバ)を含む。
上記識別された構成要素の各々は、上記メモリデバイスの1つもしくは複数に保存されていてもよく、モジュールもしくはプログラムの各々は上記機能を実行する命令セットに対応する。命令セットは1つもしくは複数のプロセッサ(例えば、CPU402)によって実行され得る。上記識別されたモジュールもしくはプログラム(すなわち、命令セット)は別個のソフトウェアプログラム、プロシージャもしくはモジュールとして実装されなくてもよい。すなわち、これらのモジュールの様々なサブセットは結合されてもよいし、様々な実施形態に再配置されてもよい。実施例のいくつかにおいて、メモリ406は上記識別されたモジュール及びデータ構造のサブセットを保存してもよい。さらに、メモリ406は上記されていない追加的なモジュール及びデータ構造を保存してもよい。
図4は検知デバイスを示すが、図4は、ここで記載した実施形態の構造的な概要というよりは、検知デバイスにあってもよい様々な特徴を機能的に示すことを意図している。実用的には、分離して示されるアイテムは結合されてもよいし、アイテムのいくつかは複数のアイテムに分けられてもよい。
図5は、実施例のいくつかによるサーバシステム120を例示するブロック図である。サーバシステム120は、一般的に、1つもしくは複数の処理ユニット(CPU)502、1つもしくは複数のネットワークもしくは他の通信インターフェイス508、メモリ506、及びこれらの構成要素を相互に接続する1つもしくは複数の通信バス504を含む。通信バス504はシステム構成要素間を相互に接続し、システム構成要素間の通信を制御する回路(チップセットともいう)を含んでもよいが、必須ではない。メモリ506は、DRAM、SRAM、DDR RAMもしくは他のランダムアクセスソリッドステートメモリデバイスなどの高速ランダムアクセスメモリを含む。メモリ506は、1つもしくは複数の磁気ディスクストレージデバイス、光ディスクストレージデバイス、フラッシュメモリデバイス、もしくは他の不揮発性ソリッドステートストレージデバイスなどのような不揮発性メモリを含んでもよい。メモリ506は、CPU502と遠隔して(リモートに)配置された1つもしくは複数のストレージデバイスを含んでもよいが、必須ではない。メモリ506、もしくは、代替的に、メモリ506の不揮発性メモリデバイスあるいは揮発性メモリデバイスは、非一時的コンピュータ可読ストレージ媒体を含む。実施例のいくつかにおいて、メモリ506もしくはメモリ506のコンピュータ可読ストレージ媒体は、オペレーティングシステム516、ネットワーク通信モジュール518、及びテレプレゼンスコントロールモジュール520を含む以下のプログラム、モジュール及びデータ構造もしくは、プログラム、モジュール及びデータ構造のサブセットを記憶する。
オペレーティングシステム516は、様々な基本システムサービスを扱うため、及びハードウェア依存タスクを実行するためのプロシージャを含む。
ネットワーク通信モジュール518は他のデバイス、コンピュータ及びシステムと、1つもしくは複数の通信ネットワークインターフェイス508(有線もしくは無線)及び、インターネット、他のワイドエリアネットワーク、ローカルエリアネットワーク、メトロポリタンエリアネットワークなどの1つもしくは複数の通信ネットワークを介した通信を促進する。
テレプレゼンスコントロールモジュール520は、カメラデバイス108、検知デバイス106、及びリモートデバイス114の間のデータ及び信号の交換を制御する。テレプレゼンスコントロールモジュール520は、カメラデバイス108及び検知デバイス106からデータを受信し、リモートデバイス114からの信号を制御し、宛先の各々にデータ及び信号(例えば、カメラデバイス108からリモートデバイス114への画像データ、リモートデバイス114からカメラデバイス108への制御信号)を送信する。テレプレゼンスコントロールモジュール520は、表示及び/もしくは処理のために宛先の各々にデータを向かわせる。
実施例のいくつかにおいて、テレプレゼンスコントロールモジュール520は可視像データモジュール522を含む。可視像データモジュール522はカメラデバイス108及び検知デバイス106から受信したデータを処理し、可視像データを生成する。可視像データは、リモートデバイス114及び検知デバイス106に表示のため送信される。
上記識別された構成要素の各々は上記メモリデバイスの1つもしくは複数に保存され、モジュールもしくはプログラムの各々は上記機能を実行するための命令セットに対応する。命令セットは1つもしくは複数のプロセッサ(例えば、CPU502)によって実行され得る。上記識別されたモジュールもしくはプログラム(例えば、命令セット)は、別個のソフトウェアプログラム、プロシージャ、もしくはモジュールとして実装されなくてもよい。様々な実施例において、これらのモジュールの様々なサブセットは結合され、もしくは再配置されてもよい。実施例のいくつかにおいて、メモリ506は上記識別されたモジュール及びデータ構造のサブセットを保存する。また、メモリ506は、上記されていない追加的なモジュール及びデータ構造を保存してもよい。
図5はサーバシステムを示すが、図5は、ここで記載した実施形態の構造的な概要というよりは、サーバシステムにあってもよい様々な特徴を機能的に示すことを意図している。実用的には、分離して示されるアイテムは結合されてもよいし、アイテムのいくつかは複数のアイテムに分けられてもよい。例えば、図5に別個に示されるアイテムのいくつか(例えば、オペレーティングシステム516及びネットワーク通信モジュール518)は単一のサーバに実装されてもよいし、単一のアイテムは1つもしくは複数のサーバに実装されてもよい。サーバシステム120を実装するために使用されるサーバの実際の数及びどのように機能が複数のサーバ間で割り当てられるのかについては、実施例毎に異なり、システムが、ピーク使用期間及び平均使用期間に扱う必要があるデータトラフィック量に部分的に依存してもよい。
実施例のいくつかにおいて、リモートデバイス114、カメラデバイス108、検知デバイス106、及びサーバシステム120のモジュールは、リモートデバイス114、カメラデバイス108、及び検知デバイス106の間の通信及び指示を交換するためのコマンドインターフェイスをサポートする。例えば、カメラコントロールモジュール222は、リモートユーザ112によるカメラデバイス108の操作を促進し、表示モジュール218及び220は画像及びカメラデバイス108及び検知デバイス106からのデータから導出された可視像を表示する。カメラデバイス108のコントロールモジュール322は、リモートデバイス114からのコマンド/命令/制御信号を受信し、コマンド/命令/制御信号による操作(例えば、カメラデバイス108の回転など)を実行する。リモートユーザ112及びローカルユーザ102はリモートデバイス114及び検知デバイス106の間で送信される音声及び/もしくは可視信号を用いて、互いに通信してもよい。サーバシステム120は、テレプレゼンスコントロールモジュールによって、テレプレゼンス環境100のカメラデバイス108、検知デバイス106及びリモートデバイス114の間で機能及びオペレーションを調整する。
図6は、実施例のいくつかによる視界の可視像を例示する。図6は、カメラデバイス108及びローカルユーザ102の互いに対する相対位置及び各々の視界110及び104の鳥瞰図を示す可視像600を例示する。実施例のいくつかにおいて、検知デバイス106および相対位置及び視界は、ローカルユーザ102の代理として働く。したがって、カメラデバイス108及び検知デバイス106及び視界の各々が可視像600に示されている。説明を容易にするために、特に言及しない限り、ローカルユーザ102の視界104は検知デバイス106の視界でもある。実施例のいくつかにおいて、可視像600はリモートデバイス114のディスプレイ116に表示される。例えば、リモートデバイス114で、可視像600がカメラデバイス108からのビデオと共に表示される。実施例のいくつかにおいて、可視像600(もしくは同様の可視像)が、リモートデバイス114と同様に、検知デバイス106ディスプレイ414に表示される。
可視像600において、マーカ602はカメラデバイス108の相対位置を示し、マーカ604はローカルユーザ102(もしくは、その代理である検知デバイス106)を示す。実施例のいくつかにおいて、カメラデバイス108はローカルユーザ102/検知デバイス106と相対的に一定の距離で配置されるか、もしくは、ローカルユーザ102/検知デバイス106に固定される(例えば、ローカルユーザ102によって装着されるハーネスから伸びるアームに固定される)ので、カメラデバイス108及びローカルユーザ102/検知デバイス106の相対位置は既知である。一定の距離は、サーバシステム120、リモートデバイス114、カメラデバイス108及び/もしくは検知デバイス106への初期入力及び/もしくは較正入力として提供されてもよい。
実施例のいくつかにおいて、カメラデバイス108の相対位置及びローカルユーザ102/検知デバイス106は、デバイス各々のセンサデータに基づいて判定される。実施例のいくつかにおいて、カメラデバイス108及び検知デバイス106は位置検出デバイス(例えば、GPSレシーバ、もしくは超音波システムなどの屋内測位)を含み、相対位置は位置検出デバイスを用いて判定される地理的位置に基づいて判定される。実施例のいくつかにおいて、ローカル環境101は1つもしくは複数の追跡カメラを含み(例えば、追跡カメラを備えた会議室)、ローカルユーザ102及びカメラデバイス108の位置はこれらの追跡カメラを用いたコンピュータビジョン追跡方法によって判定される。
可視像600において、領域606はカメラデバイス108の視界110を示し、領域608はローカルユーザ102/検知デバイス106の視界104を示す。実施例のいくつかにおいて、領域606及び/もしくは608は、既知のデバイスの能力に基づいて予め決定されている。例えば、カメラデバイス108の視界110のサイズは既知であってもよく、初期入力及び/もしくは較正入力として提供されてもよい。実施例のいくつかにおいて、領域606はカメラデバイス108の画像データに基づいて判定される。領域606はカメラデバイス108のセンサデータに基づいて判定されてもよいが、必須ではない。領域608は検知デバイス106のセンサデータに基づいて判定される。領域608は検知デバイス106の画像データに基づいて判定されてもよいが、必須ではない。実施例のいくつかにおいて、カメラデバイス108の視界110及びローカルユーザ102の視界104の方向は、磁力計及びジャイロスコープを用いた慣性測定ユニット(IMU)などのカメラデバイス108のセンサシステム及び検知デバイス106(例えば、センサ312、センサ418)を用いて判定される。実施例のいくつかにおいて、様々な視界を有するカメラデバイス108(例えば、ズーム機能を有するカメラ)について、カメラデバイス108の視界110はカメラデバイス108の画像メタデータもしくはアプリケーションプログラミングインターフェイス(API)を介して判定される。
ローカルユーザ102及び/もしくはカメラデバイス108が移動しても、カメラデバイス108はローカルユーザ102に対して一定の距離を有するならば(例えば、ローカルユーザ102はハーネスから伸びるアームに固定されたカメラデバイス108を有するハーネスを装着する)、マーカ602及び604は可視像において静止状態を継続する。カメラデバイス108がローカルユーザ102に対して一定の距離を有さない(例えば、カメラデバイス108がテーブル上にあり、ローカルユーザ102がモバイルである)場合、マーカ602もしくは604は移動する。可視像は、通信の際、リモートユーザ及びローカルユーザの双方にとってたいへん有用である。ローカルユーザがローカル環境に対してどのような向きを採るか、を示し、ローカルユーザがリモートユーザと関心点について通信することが可能であり、リモートユーザがリモートデバイス114でディスプレイ116に表される特定のオブジェクトにローカルユーザの注意を促すことが可能である参照フレームを提供する。
図7は、実施例のいくつかによる他の視覚の可視像を例示する。
図7は、カメラデバイス108の知覚から、ローカルユーザ102/検知デバイス106のカメラデバイス108に対する相対位置の第1のユーザの知覚及びカメラデバイス108の視界110及びローカルユーザ102/検知デバイス106の視界104を示す可視像700を例示する。実施例のいくつかにおいて、可視像700はリモートデバイス114のディスプレイ116に表示される。例えば、リモートデバイス114で、可視像700はカメラデバイス108からのビデオと共に表示される。実施例のいくつかにおいて、可視像700(もしくは同様の可視像)が、リモートデバイス114と同様に、検知デバイス106のディスプレイ414に表示される。
可視像700はカメラデバイス108の可能な視界を示す領域702を示す。領域702の中央はカメラデバイス108の中央前方方向704を示す。1つもしくは複数の領域が視界領域702に表示される。例えば、領域706はローカルユーザ102/検知デバイス106の視界104を示す。領域708はカメラデバイス108の実際の視界110を示す。領域710はカメラデバイス108と相対的なローカルユーザ102の位置を示す。
このように、カメラデバイス108からの画像及び可視像600もしくは700を見ることにより、リモートユーザ112は、カメラデバイス108の方向を変更するためにカメラデバイス108を操作することが可能である。これにより、ローカルユーザ102の視界104と同様の方向に、もしくは、ローカルユーザ102をカメラデバイス108の視界110に含めるように、カメラデバイス108の視界110は向く。以下に、その例を示す。
図8A〜図8Cは、実施例のいくつかによる視界情報及びカメラデバイスの向きの例を示す。視界情報800はリモートデバイス114に表示される。実施例のいくつかにおいて、視界情報800はカメラデバイス108からの画像データに対応するビデオ802及びビデオ802のインセット(嵌め込み)として表示される可視像806(例えば、可視像600もしくは700)を含む。図8A〜図8Cにおいて、可視像806は、図6を参照して上記した可視像600と同様のタイプである。実施例のいくつかにおいて、可視像700もしくは、可視像600もしくは700と同様の他の適切な可視像が、視界情報800の可視像806に代えて、表示されてもよい。可視像806はマーカ602及び604、図6を参照して上記した視界領域606及び608を含む。図8Aにおいて、ビデオ802はローカル環境101のオブジェクト804−Aを含む。オブジェクト804−Aはカメラデバイス108の視界110に存在する。視界領域606は、視界領域608とは異なる方向を向いている。オブジェクト804−Aはローカルユーザ102の視界104には存在しない。
実施例のいくつかにおいて、テレプレゼンスモジュール216は、ローカルユーザ102と同じ方向に、カメラデバイス108の向きを自動的に変更する、すなわち、カメラデバイス108の視界110をローカルユーザ102の視界104と同じ方向に変更する、所定のコマンドを含む。ユーザがこのコマンドを起動すると、カメラデバイス108の向きを、ローカルユーザ102の視界104と同じ方向に変更する。図8Bは、ローカルユーザ102の視界104と同じ方向に向きを変更した後の視界情報800の例を示す。可視像806を見ると、視界領域606及び608はの向きは同じ方向となる。異なるオブジェクト840−Bがビデオ802に現れ、オブジェクト804−Bはカメラデバイス108及びローカルユーザ102の視界110及び104に存在する。
実施例のいくつかにおいて、テレプレゼンスモジュール216はカメラデバイス108の視界110にローカルユーザ102を含ませるように、カメラデバイス108の向きを変更するための所定のコマンドを含む。ユーザがこのコマンドを起動すると、カメラデバイス108はローカルユーザ102に向けて向きを変更する。図8Cは、カメラデバイス108の視界110にローカルユーザ102を含ませるように向きを変更した後の視界情報800の例を示す。可視像806に見られるように、ローカルユーザ102に対応するマーカ604はカメラデバイス108の視界領域606に含まれる。ローカルユーザ102はビデオ802に表示される。
実施例のいくつかにおいて、カメラデバイス108は所定のコマンドを用いて、リモートユーザ112によってリモートデバイス114のスレーブモードにされてもよい。スレーブモードにある場合、カメラデバイス108は、ローカルユーザ102の視界領域608と同じ方向に自動的に向きを変える。すなわち、ローカルユーザ102が周囲を見渡すと、カメラデバイス108は自動的にローカルユーザ102の視界に追随する。可視像806の視界606は視界608と同じ方向に動く。
実施例のいくつかにおいて、リモートデバイス114で上記した所定のコマンドの1つをユーザが選択すると、リモートデバイス114のカメラコントロールモジュール222は、ユーザが選択し入力したコマンドを受信し、当該コマンドをサーバシステム120に送信する。サーバシステム120がリモートデバイス114から所定のコマンドを受信すると、サーバシステム120は、コマンドに応じて、カメラデバイス108の向きを変更するために必要とされるカメラデバイス108の動き、回転などを判定する。サーバシステム120は、必要とされる動きなどに対応する制御信号を生成し、当該制御信号をカメラデバイス108に送信する。カメラデバイス108で、制御信号は処理され、コントロールモジュール322によって働く。他の実施例のいくつかにおいて、カメラコントロールモジュール222はユーザが選択し入力したコマンドを受信し、コマンドを遂行するために必要とされるカメラデバイス102の動きなどを判定し、対応する制御信号を生成し、当該制御信号をサーバシステムに送信する。サーバシステム120はカメラデバイス108に制御信号を送信する。カメラデバイス108において、制御信号は処理され、コントロールモジュール322によって働く。他の実施例においても、カメラコントロールモジュール222は選択されたコマンドをサーバシステム120に送信する。サーバシステム120はカメラデバイス108にコマンドを送信する。カメラデバイス108において、コントロールモジュール322はコマンドを遂行するために必要とされる動きなどを判定するためにコマンドを処理し、コマンドを遂行する。
実施例のいくつかにおいて、リモートユーザ112は、視界104と同じ方向に向きを変更するか、もしくは、視界110にローカルユーザ102を含めるように、カメラデバイス108の向きを変更するために、(例えば、入力デバイス118を用いて)カメラを手動で操作してもよい。リモートユーザ112は視界情報800をガイダンスとして使用してもよい。リモートユーザが手動でカメラデバイス108を所望の向きに変更するように操作すると、カメラデバイス108の向きが変更され、視界情報800は更新される。カメラデバイス108の手動操作を遂行するためのコマンド及び制御信号などの送受信は、上記所定のコマンドと同様であり、上記した所定のコマンドと同様のモジュールを使用する。
実施例のいくつかにおいて、上記した所定のコマンドはリモートユーザ112によってリモートデバイス114で選択可能なメニューオプションである。代替的に、所定のコマンドは、ボタン、キーの組み合わせ、もしくは、ユーザが起動することが可能な他の(物理的もしくは仮想的)入力の各々に割り当てられる。例えば、仮想的ボタンもしくはアイコン850、852、854が視界情報上に表示される。アイコン850はカメラデバイス108の向きをローカルユーザ102の視界104の方向に変更するためのコマンドに対応する。アイコン852は、カメラデバイス108の視界110にローカルユーザ102を含ませるようにカメラデバイス108の向きを変更するためのコマンドに対応する。アイコン852は、カメラデバイス108をスレーブモードにするためのコマンドに対応する。ユーザは対応するコマンドを選択し起動するために、これらのアイコンのいずれかを選択する(例えば、所望のアイコンをクリックする、所望のアイコン上でタップジェスチャを実行する)ことが可能である。
図9A及び図9Bは実施例のいくつかによる視界情報の他の例を示す。視界情報800と同様に、リモートユーザ112はこれらの視界情報を、リモートユーザ112がカメラデバイス108を手動で、あるいは所定のコマンドで操作しながら、ガイダンスとして使用してもよい。図9Aはリモートデバイス114に表示される視界情報900を例示する。視界情報900はカメラデバイス108からのビデオ902を含む。ビデオ902はローカル環境101のオブジェクト904及び906を示す。実施例のいくつかにおいて、カメラデバイス108へのコマンドを発行するユーザインターフェイス(アイコン850、852、854)が視界情報900に表示される。視界情報900はハロ(輪)908を含む。ハロ908はローカルユーザ102の視界の方向を示し、ハロ901はカメラデバイス108の視界110にローカルユーザ102を含めるためのカメラデバイス108の向きを示す。図9Aにおいて、リモートユーザ112がローカルユーザ102を見ることを所望する場合、リモートユーザ112はカメラデバイス108を手動で右に操作する(例えば、パンする)か、もしくは、ローカルユーザ102が自動的に視界に入るように上記所定のコマンドを起動する。
図9Bはリモートデバイス114に表示される視界情報910を例示する。視界情報910はカメラデバイス108からのビデオ912を含む。ビデオ912はローカル環境101のオブジェクト914を示す。視界情報910は、ローカルユーザ102の視界の方向を示すマーカ916−A及び916−Bの第1セットを含む。(図9Bに示すように、)位置が適合しているマーカ916−A及び916−Bは、カメラデバイス108の視界110がローカルユーザ102の視界と同じ方向であることを示す。カメラデバイス108及びローカルユーザ102は同じオブジェクトを見ている。マーカ916−A及び916−Bの位置が適合していない場合、ユーザはローカルユーザ102と同じオブジェクトに向けてカメラデバイス108の向きを変更する必要がある。マーカ918−A及び918−Bの第2セットはローカルユーザ102を見るために視線を向ける場所を示す。(図9Bに示すように)位置が適合していないマーカ918−A及び918−Bはユーザがローカルユーザ102に向けてカメラデバイス108の方向を変える必要があることを示す。このように、視界情報910はリモートユーザ112にローカルユーザ102の視界104に合わせて、あるいは、ローカルユーザ102を見るために、カメラデバイス108の方向をどの程度変えるか、に関する情報、及びローカルユーザ102の視界104に合わせて、もしくは、ローカルユーザ102を見るためにカメラデバイス108の方向を変える一般的な方向を提供する。
図10A〜図10Cは実施例のいくつかによる視界情報を表示する方法のフローチャートを例示する。実施例のいくつかにおいて、方法はテレプレゼンス環境100のリモートデバイス114で実行される。
デバイスはカメラデバイスから画像情報を受信する(1002)。画像情報はカメラデバイスに関連する第1視界に対応する。リモートデバイス114はカメラデバイス108から画像データ(例えば、ビデオ)を受信する。画像データは、(例えば、可視像600の領域606もしくは可視像700の領域708として可視化されている)カメラデバイス108の視界110に対応する。
実装のいくつかにおいて、カメラデバイスは第1デバイスから遠隔(リモート)にある(1024)。例えば、テレプレゼンス環境100において、カメラデバイス108はリモートデバイス114から遠隔にある。カメラデバイス108はローカル環境101にあり、リモートデバイス114はローカル環境101から遠隔にある。
実施例のいくつかにおいて、カメラデバイスは、ユーザに固定されたカメラデバイス、及び面に固定されたカメラデバイスの1つである(1026)。カメラデバイス108は、ローカルユーザ102に固定されてもよい(例えば、ローカルユーザ102によって装着されたハーネスから伸びるアームもしくはブームに固定されてもよいし、ユーザによって装着されたヘッドギアに固定されてもよいし、ユーザによって直接保持されていてもよいし、ユーザによって保持されるアームもしくはブームに固定されていてもよい)し、面に固定されてもよい(例えば、テーブルに固定されるか、もしくは、載置されてもよいし、ビデオ会議画面の上部に固定されるか、もしくは、載置されてもよい)。
実施例のいくつかにおいて、カメラデバイス及びユーザの間の相対的な距離は一定である(1028)。カメラデバイス108がローカルユーザ102に固定されている場合、ローカルユーザ102及びカメラデバイス108の間の距離は一定である。例えば、ハーネスのアームもしくはブーム上のカメラデバイス108は、カメラデバイス108及びローカルユーザ102の間の距離を一定にして固定される。
デバイスは第2のデバイスから検知情報を受信する(1004)。検知情報は第2デバイスと関連する第2視界に対応する。リモートデバイス114は検知デバイス106からセンサデータを受信する。検知デバイス106は、ローカルユーザ102の視界104を判定するために使用され得るセンサデータ(例えば、頭部を回転したときのセンサ情報に基づいて、など)を収集するために較正される。実施例のいくつかにおいて、検知デバイス106はローカルユーザ102の代理として働く。
デバイスは、画像情報、第1視界及び第2視界の少なくとも一方の可視像をディスプレイに表示する(1006)。例えば、リモートデバイス114は視界情報800を表示する。視界情報800はカメラデバイス108からのビデオ802、カメラデバイス108の視界110及びローカルユーザ102の視界104の可視像806を含む。
実施例のいくつかにおいて、可視像はカメラデバイス、第2デバイス、第1視界、第2視界を示す鳥瞰表示を含む(1008)。
例えば、可視像600は(マーカ602によって示される)カメラデバイス108及び(マーカ604によって示される)ローカルユーザ102、ローカルユーザ102の視界104に対応する領域608及びカメラデバイス108の視界110に対応する領域606の相対位置の鳥瞰表示を示す。
実施例のいくつかにおいて、可視像は第1視界、第2視界及び第2デバイスのカメラデバイスとの相対位置を示す矩形を含む(1010)。例えば、可視像700は、カメラデバイス108の知覚から第1ユーザの知覚を示す。可視像700において、カメラデバイス108の視界110、ローカルユーザ102の視界104、及びローカルユーザ102の相対位置710が矩形領域(領域708、706、710)の各々によって示される。
実施例のいくつかにおいて、可視像は第2視界の方向を示す第1アイコンを含む(1012)。例えば、視界情報900は、ローカルユーザ102の視界104の方向を示すハロ908を含む。
実施例のいくつかにおいて、画像情報及び可視像を表示することは画像情報上に第1アイコンを表示することを含む(1014)。例えば、視界情報900において、ハロ908がビデオ902上に表示される。
実施例のいくつかにおいて、可視像は、第2デバイスのカメラデバイスとの相対位置を示す第2アイコンを含む(1016)。例えば、視界情報900は、ローカルユーザ102を見るためのカメラデバイス108の向きを示す、すなわち、ローカルユーザ102の相対位置を示す他のハロ901を含む。
実施例のいくつかにおいて、可視像は第2視界の方向及び第2視界と第1視界との適合を示す第1アイコンセットを含む(1018)。例えば、視界情報910は、ローカルユーザ102の視界104の方向、及び、カメラデバイス108の視界110はローカルユーザ102の視界104と適合しているか、を示すマーカ916−A及び916−Bを含む。
実施例のいくつかにおいて、可視像は第2デバイスのカメラデバイスとの相対位置及び第2デバイスの位置と第1視界との適合を示す(1020)。例えば、視界情報910は、ローカルユーザ102を見るためにカメラデバイス108が向く方向を示すマーカ918−A及び918−Bを含む。マーカ918−A及び918−Bが適合するまでの距離は、ローカルユーザ102を見るために、カメラデバイス108がどの程度方向を変える必要があるかを示す。
実施例のいくつかにおいて、デバイスは第1視界の向きの変更、第2視界の向きの変更、カメラデバイス及び第2デバイスの間の相対的移動、の1つもしくは複数によって可視像を更新する(1022)。カメラデバイス108が向きを変えると、もしくは、ローカルユーザ102が視界を変更すると(例えば、ローカルユーザ102が頭部の向きを変更すると)、もしくは、ローカルユーザ102が静止しているカメラデバイス108から遠ざかると、ビデオ802及び可視像806は、現在の視界及びカメラデバイス108とローカルユーザ102との相対位置を示すために更新される。
実施例のいくつかにおいて、デバイスは、カメラデバイスの遠隔であって第1デバイスの近傍にいるユーザから、カメラデバイスへの1つもしくは複数のコマンドに対応するユーザ入力を受信し(1030)、ユーザ入力に応じてカメラデバイスにコマンドを送信する(1032)。例えば、リモートデバイス114は、リモートユーザ112から、入力デバイス118で、所定のコマンドに対応するユーザ入力(例えば、ローカルユーザ102の視界と同じ方向に自動的に向きを変えるための所定のコマンド、ローカルユーザ102を視界に含めるための所定のコマンド、カメラデバイス108をスレーブモードにさせるための所定のコマンド)、もしくは、カメラデバイス108への手動操作コマンドを受信する。コマンドはカメラデバイス108に(例えば、サーバシステム120を介して)送信される。実施例のいくつかにおいて、コマンドは表示された画像データ及び可視像(例えば、画像データ及び可視像上に表示されたコマンドに対応する、インタラクティブに選択可能なユーザインターフェイスオブジェクト(例えば、アイコン850、852、854)を有するユーザインターフェイス)を介して入力される。
図11は、実施例のいくつかによるカメラデバイスの向きを変更する方法のフローチャートを示す。実施例のいくつかにおいて、テレプレゼンス環境100のリモートデバイス114で方法は実行される。
デバイスはカメラデバイスから画像情報を受信する(1102)。画像情報はカメラデバイスに関連する第1視界に対応する。リモートデバイス114はカメラデバイス108から画像データ(例えば、ビデオ)を受信する。画像データは、(例えば、可視像600の領域606もしくは可視像700の領域708として可視化された)カメラデバイス108の視界110に対応する。
デバイスは、第2デバイスから検知情報を受信する(1104)。第2デバイスは第1デバイスの遠隔(リモート)であって、カメラデバイスの近傍(ローカル)にある。リモートデバイス114は検知デバイス106からセンサデータを受信する。検知デバイス106はカメラデバイス108の近傍であって(双方ともローカル環境101にある)、リモートデバイス114の遠隔にある。検知デバイス106はローカルユーザ102の視界104を(例えば、頭部の向きを変えた際のセンサ信号に基づいて)判定するために使用され得るセンサデータを収集するために較正される。検知デバイス106はローカルユーザ102の代理として働く。
実施例のいくつかにおいて、検知情報は加速度計情報、ジャイロスコープ情報、磁力計情報、及び位置検出情報の1つもしくは複数を含む(1106)。検知デバイス106からのセンサデータは、加速度計情報、ジャイロスコープ情報及び磁力計情報を含んでよく、これらは、ローカルユーザの視界を判定するために使用される。また、検知デバイス106からのセンサデータは位置検出情報(例えば、GPS位置検出情報)を含んでよく、これは、ローカルユーザの地理的位置を判定するために使用される。カメラデバイス108の地理的位置が既知であるかもしくは(例えば、カメラデバイス108の位置検出情報から)決定される場合、カメラデバイス108及びローカルユーザ102の相対位置は決定され得る。
デバイス108はユーザ入力を受信する(1108)。リモートデバイス114は入力デバイス118のリモートユーザ112からユーザ入力を受信する。ユーザ入力は、以下に説明するようにカメラデバイス108の自動操作のための所定のコマンドを選択する。
ユーザ入力に応じて、デバイスは、検知情報に基づいて第1視界の向きを変えるようにカメラデバイスに指示を送信する(1110)。ユーザ入力に応じて、(例えば、パンなどによって、)視界110の向きを変えるように、リモートデバイス114はカメラデバイス108に制御信号を送信する。検知情報に基づいて、より詳細には、検知情報に基づいて判定される視界104及び/もしくはローカルユーザ102の相対位置に基づいて、向きを変える。
実施例のいくつかにおいて、第2デバイスは第2視界に関連付けられている。検知情報に基づいて第1視界の向きを変えるようにカメラデバイスに指示を送信することは、第2視界と同じ方向に第1視界の向きを変えるようにカメラデバイスに指示を送信することを含む(1112)。ローカルユーザ102/検知デバイス106は(例えば、領域608もしくは領域706として可視化された)視界104を有する。リモートユーザ112は、ローカルユーザ102の視界104と同じ方向にその向きを自動的に変えるようにカメラデバイス108に命令する。カメラデバイス108への制御信号は、(例えば、図8Bに示すように、)カメラデバイス108の視界110及びローカルユーザ102の視界104の方向を揃えるように、カメラデバイス108に命令する。この場合、ローカルユーザ102が(例えば、頭部の向きを変えることによって、)ローカルユーザ102の視界104を変更するならば、カメラデバイス108はリモートデバイス114からさらに命令がない限り、自動的に向きを変えることはない。ここで自動的に向きを変えることは1度限りの動作である。
実施例のいくつかにおいて、第2デバイスはユーザによって装着されるか保持される。検知情報に基づいて第1視界の向きを変更するようにカメラデバイスに指示を送信することは、ユーザ及び第2デバイスの少なくとも一方を第1視界に含めるよう向きを変更するようにカメラデバイスに指示を送信することを含む(1114)。検知デバイス106はローカルユーザ102によって装着されるかもしくは保持される。リモートユーザ112は、カメラデバイス108の視界110にローカルユーザ102を含めるようにその向きを自動的に変更するようカメラデバイス108に命令する。カメラデバイス108への制御信号は、(図8Cに示すように、)ローカルユーザ102に向けてその視界110の向きを変更するようにカメラデバイス108に指示する。
実施例のいくつかにおいて、検知情報に基づいて第1視界の向きを変えるようにカメラデバイスに指示を送信することは、第2デバイスに対してスレーブモードに入るようカメラデバイスに指示を送信することを含む。スレーブモードにおいて、第2デバイスから受信する検知情報に基づいて、カメラデバイスは継続的に第1視界の向きを変える。(1116)。リモートユーザ112はスレーブモードに入るようカメラデバイス108に命令する。スレーブモードにある間、(図8Bに示すように、)カメラデバイス108は、カメラデバイス108の視界110及びローカルユーザ102の視界104の方向を揃えるように、その向きを自動的に継続的に変える。
実施例のいくつかにおいて(例えば、カメラデバイス108が(例えば、テーブル上で)静止している実施例において)、スレーブモードにある間、カメラデバイス108は、カメラデバイス108の視界110にローカルユーザ102を含め続けるように、継続的にその向きを自動的に変える。
実施例のいくつかにおいて、ローカル環境には、(複数のリモートユーザ112のための)複数のカメラデバイス108及び/もしくは複数のローカルユーザ102及び検知デバイス106が存在する。テレプレゼンスコントロールモジュール520はこれらのデバイスのデータ交換を調整し、管理する。これらのデバイスの視界及び相対位置は、複数のリモートユーザ112及びローカルユーザ102に表示される。
実施例のいくつかにおいて、検知デバイス106は、ローカルユーザ102の視界104を判定するためのアイトラッキング機能を含む。
実施例のいくつかにおいて、リモートユーザ112及びローカルユーザ102の間のフィードバックがリモートデバイス114及び/もしくは検知デバイス106に表示される。例えば、ローカルユーザ102は、ローカル環境101のオブジェクトにリモートユーザ112の注意が向かうようにポインタもしくはカーソルを操作してもよい。リモートユーザ112及びローカルユーザ102のための相互に通信する他の方法は、音声通信及び触覚フィードバックを含む(例えば、検知デバイス106は、ある方向に向きを変えるようローカルユーザ102を導くために音声を出力する)。
実施例のいくつかにおいて、可視像600もしくは700は地理的マップ上に重畳される。これにより、リモートユーザ112及び/もしくはローカルユーザ102は、カメラデバイス108及びローカルユーザ102の地理的な位置を、相対的位置と同様、知ることが可能となる。
「第1」、「第2」などの用語は、限定を意図していない。これらの用語は、単に、要素を区別するために使用している。例えば、第1視界は、第2視界と呼ばれてもよく、第2視界は第1視界と呼ばれてもよい。
明らかに単数だけを示している場合を除いて、特に複数であることを記載していない要素は、単数の要素だけでなく、複数の要素も含むことを意図している。「及び/もしくは」は、1つもしくは複数の関連する要素の任意の及び全ての可能なコンビネーションを参照し、包含する。また、「含む」は、機能、数、ステップ、オペレーション、要素及び/もしくは構成要素の存在を特定するが、他の機能、数、ステップ、オペレーション、要素及び/もしくは構成要素の存在もしくは追加を排除するものではない。
添付の図面に例示される様々な実施例を詳細に参照した。発明及び実施例の理解を容易にするために多くの特定の実施例が詳細に記載された。しかしながら、発明はこれらの特定の詳細な設定なしに実施され得る。また、実施例の態様を不要に不明瞭にしないよう、周知の方法、プロシージャ、構成要素及び回路については詳細に記載されていない。
説明のための上記記載は、特定の実施例を参照している。しかしながら、上記の例示的な議論は開示された詳細な形態に発明を限定することを意図していない。多くの変更が上記教示の観点から可能である。発明の原理及びその実際的な応用をもっとも適切に説明するために実施形態は選択され記述されている。これにより、当業者であれば、本発明及び考えられる特定の使用に適した様々な変更を含む様々な実施例をもっとも適切に利用することが可能である。
100 テレプレゼンス環境
101 ローカル環境
102 ローカルユーザ
106 検知デバイス
108 カメラデバイス
112 リモートユーザ
114 リモートデバイス
120 サーバ
128 ネットワーク

Claims (25)

  1. ディスプレイを有する第1デバイスが、
    カメラデバイスから画像情報を受信し、
    前記画像情報は前記カメラデバイスに関連する第1視界に対応し、
    第2デバイスから検知情報を受信し、
    前記検知情報は前記第2デバイスに関連する第2視界に対応し、
    前記ディスプレイに、
    前記画像情報、及び、
    前記第1視界及び前記第2視界の少なくとも一方の可視像であって、前記第1視界、前記第2視界、及び前記第2デバイスの前記カメラデバイスへの相対位置を表す矩形を含む可視像
    を表示する、
    可視像表示方法。
  2. ディスプレイを有する第1デバイスが、
    カメラデバイスから画像情報を受信し、
    前記画像情報は前記カメラデバイスに関連する第1視界に対応し、
    第2デバイスから検知情報を受信し、
    前記検知情報は前記第2デバイスに関連する第2視界に対応し、
    前記ディスプレイに、
    前記画像情報、及び、
    前記第1視界及び前記第2視界の少なくとも一方の可視像であって、前記第2視界の方向及び前記第1視界と前記第2視界の適合を示すアイコンの第1セットを含む可視像、
    を表示する、
    可視像表示方法。
  3. 前記可視像は、第2デバイスの前記カメラデバイスとの相対位置及び前記第1視界と前記第2デバイスの位置の適合を示すアイコンの第2セットを含む、請求項に記載の方法。
  4. 前記可視像は、前記第1視界、前記第2視界、及び前記第2デバイスの前記カメラデバイスへの相対位置を表す矩形を含む、請求項2または3に記載の方法。
  5. 前記第1視界の向きの変更、前記第2視界の向きの変更、及び、前記カメラデバイス及び第2デバイスの相対移動、の少なくとも1つによって前記可視像を更新する、ことをさらに含む、請求項1〜4の何れか1項に記載の方法。
  6. 前記可視像は、前記カメラデバイス、前記第2デバイス、前記第1視界及び前記第2視界を表す鳥瞰表示を含む、請求項1〜5の何れか1項に記載の方法。
  7. 前記可視像は、前記第2視界の方向を示す第1アイコンを含む、請求項1〜の何れか1項に記載の方法。
  8. 前記画像情報及び可視像を表示することは、前記画像情報上に前記第1アイコンを表示することを含む、請求項に記載の方法。
  9. 前記可視像は、前記第2デバイスの前記カメラデバイスとの相対位置を示す第2アイコンを含む、請求項またはに記載の方法。
  10. 前記カメラデバイスは前記第1デバイスの遠隔にある、請求項1〜9の何れか1項に記載の方法。
  11. 前記カメラデバイスは、ユーザに固定されたカメラデバイス及び面に固定されたカメラデバイスの一方である、請求項1〜10の何れか1項に記載の方法。
  12. 前記カメラデバイス及びユーザの間の相対距離は一定である、請求項11に記載の方法。
  13. 前記カメラデバイスの遠隔であって、前記第1デバイスの近傍にいるユーザから、前記カメラデバイスへの少なくとも1つの命令に対応するユーザ入力を受信し、
    前記ユーザ入力に従って、前記カメラデバイスへ前記命令を送信する、
    ことをさらに含む、
    請求項1〜12の何れか1項に記載の方法。
  14. ディスプレイと、
    メモリと、
    少なくとも1つのプロセッサと、
    前記メモリに保存され、前記少なくとも1つのプロセッサによって実行されるように構成されている少なくとも1つのプログラムと、
    を備え、
    前記少なくとも1つのプログラムは、
    カメラデバイスから画像情報を受信し、
    前記画像情報は前記カメラデバイスに関連する第1視界に対応し、
    第2デバイスから検知情報を受信し、
    前記検知情報は前記第2デバイスに関連する第2視界に対応し、
    前記ディスプレイに、
    前記画像情報、及び、
    前記第1視界及び前記第2視界の少なくとも一方の可視像であって、前記第1視界、前記第2視界、及び前記第2デバイスの前記カメラデバイスへの相対位置を表す矩形を含む可視像
    を表示する、
    ための命令を含む、
    第1デバイス。
  15. ディスプレイと、
    メモリと、
    少なくとも1つのプロセッサと、
    前記メモリに保存され、前記少なくとも1つのプロセッサによって実行されるように構成されている少なくとも1つのプログラムと、
    を備え、
    前記少なくとも1つのプログラムは、
    カメラデバイスから画像情報を受信し、
    前記画像情報は前記カメラデバイスに関連する第1視界に対応し、
    第2デバイスから検知情報を受信し、
    前記検知情報は前記第2デバイスに関連する第2視界に対応し、
    前記ディスプレイに、
    前記画像情報、及び、
    前記第1視界及び前記第2視界の少なくとも一方の可視像であって、前記第2視界の方向及び前記第1視界と前記第2視界の適合を示すアイコンの第1セットを含む可視像、
    を表示する、
    ための命令を含む、
    第1デバイス。
  16. カメラデバイスから画像情報を受信し、
    前記画像情報は前記カメラデバイスに関連する第1視界に対応し、
    第2デバイスから検知情報を受信し、
    前記検知情報は前記第2デバイスに関連する第2視界に対応し、
    ディスプレイに、
    前記画像情報、及び、
    前記第1視界及び前記第2視界の少なくとも一方の可視像であって、前記第1視界、前記第2視界、及び前記第2デバイスの前記カメラデバイスへの相対位置を表す矩形を含む可視像
    を表示する、
    ことをコンピュータに実行させるためのプログラム。
  17. カメラデバイスから画像情報を受信し、
    前記画像情報は前記カメラデバイスに関連する第1視界に対応し、
    第2デバイスから検知情報を受信し、
    前記検知情報は前記第2デバイスに関連する第2視界に対応し、
    ディスプレイに、
    前記画像情報、及び、
    前記第1視界及び前記第2視界の少なくとも一方の可視像であって、前記第2視界の方向及び前記第1視界と前記第2視界の適合を示すアイコンの第1セットを含む可視像、
    を表示する、
    ことをコンピュータに実行させるためのプログラム。
  18. 第1デバイスが、
    カメラデバイスから画像情報を受信し、
    前記画像情報は前記カメラデバイスに関連する第1視界に対応し、
    第2デバイスから検知情報を受信し、
    前記第2デバイスは前記第1デバイスの遠隔であって、前記カメラデバイスの近傍にあり、
    ユーザ入力を受信し、
    前記ユーザ入力に応じて、前記検知情報に基づいて、前記第1視界の向きを変更するよう前記カメラデバイスに指示を送信し、
    前記第2デバイスは第2視界と関連し、
    前記検知情報に基づいて前記第1視界の向きを変えるように前記カメラデバイスに指示を送信することは、前記第2視界と同じ方向に前記第1視界の向きを変えるように前記カメラデバイスに指示を送信することを含む
    視界変更方法。
  19. 第1デバイスが、
    カメラデバイスから画像情報を受信し、
    前記画像情報は前記カメラデバイスに関連する第1視界に対応し、
    第2デバイスから検知情報を受信し、
    前記第2デバイスは前記第1デバイスの遠隔であって、前記カメラデバイスの近傍にあり、
    ユーザ入力を受信し、
    前記ユーザ入力に応じて、前記検知情報に基づいて、前記第1視界の向きを変更するよう前記カメラデバイスに指示を送信し、
    前記第2デバイスはユーザによって装着され、もしくは保持され、
    前記検知情報に基づいて前記第1視界の向きを変えるように前記カメラデバイスに指示を送信することは、前記ユーザ及び前記第2デバイスの少なくとも一方を前記第1視界に含めるように前記第1視界の向きを変えるように前記カメラデバイスに指示を送信することを含む、
    視界変更方法。
  20. 前記検知情報に基づいて前記第1視界の向きを変えるように前記カメラデバイスに指示を送信することは、前記第2デバイスに対してスレーブモードに入るように前記カメラデバイスに指示を送信することを含み、
    スレーブモードにおいて、前記カメラデバイスは、前記第2デバイスから受信した検知情報に基づいて前記第1視界の向きを継続的に変更する、
    請求項18または19に記載の方法。
  21. 前記検知情報は、加速度計情報、ジャイロスコープ情報、磁力計情報及び位置検出情報の少なくとも1つを含む、請求項18〜20の何れか1項に記載の方法。
  22. メモリと、
    少なくとも1つのプロセッサと、
    前記メモリに保存され、前記少なくとも1つのプロセッサによって実行されるように構成されている少なくとも1つのプログラムと、
    を備え、
    前記少なくとも1つのプログラムは、
    カメラデバイスから画像情報を受信し、
    前記画像情報は前記カメラデバイスに関連する第1視界に対応し、
    第2デバイスから検知情報を受信し、
    前記第2デバイスは、第1デバイスの遠隔であって、前記カメラデバイスの近傍にあり、
    ユーザ入力を受信し、
    前記ユーザ入力に応じて、前記検知情報に基づいて、前記第1視界の向きを変更するよう前記カメラデバイスに指示を送信し、
    前記第2デバイスは第2視界と関連し、
    前記検知情報に基づいて前記第1視界の向きを変えるように前記カメラデバイスに指示を送信することは、前記第2視界と同じ方向に前記第1視界の向きを変えるように前記カメラデバイスに指示を送信することを含む
    第1デバイス。
  23. メモリと、
    少なくとも1つのプロセッサと、
    前記メモリに保存され、前記少なくとも1つのプロセッサによって実行されるように構成されている少なくとも1つのプログラムと、
    を備え、
    前記少なくとも1つのプログラムは、
    カメラデバイスから画像情報を受信し、
    前記画像情報は前記カメラデバイスに関連する第1視界に対応し、
    第2デバイスから検知情報を受信し、
    前記第2デバイスは、第1デバイスの遠隔であって、前記カメラデバイスの近傍にあり、
    ユーザ入力を受信し、
    前記ユーザ入力に応じて、前記検知情報に基づいて、前記第1視界の向きを変更するよう前記カメラデバイスに指示を送信し、
    前記第2デバイスはユーザによって装着され、もしくは保持され、
    前記検知情報に基づいて前記第1視界の向きを変えるように前記カメラデバイスに指示を送信することは、前記ユーザ及び前記第2デバイスの少なくとも一方を前記第1視界に含めるように前記第1視界の向きを変えるように前記カメラデバイスに指示を送信することを含む、
    第1デバイス。
  24. カメラデバイスから画像情報を受信し、
    前記画像情報は前記カメラデバイスに関連する第1視界に対応し、
    第2デバイスから検知情報を受信し、
    前記第2デバイスは、第1デバイスの遠隔であって、前記カメラデバイスの近傍にあり、
    ユーザ入力を受信し、
    前記ユーザ入力に応じて、前記検知情報に基づいて、前記第1視界の向きを変更するよう前記カメラデバイスに指示を送信し、
    前記第2デバイスは第2視界と関連し、
    前記検知情報に基づいて前記第1視界の向きを変えるように前記カメラデバイスに指示を送信することは、前記第2視界と同じ方向に前記第1視界の向きを変えるように前記カメラデバイスに指示を送信することを含む
    ことをコンピュータに実行させるためのプログラム。
  25. カメラデバイスから画像情報を受信し、
    前記画像情報は前記カメラデバイスに関連する第1視界に対応し、
    第2デバイスから検知情報を受信し、
    前記第2デバイスは、第1デバイスの遠隔であって、前記カメラデバイスの近傍にあり、
    ユーザ入力を受信し、
    前記ユーザ入力に応じて、前記検知情報に基づいて、前記第1視界の向きを変更するよう前記カメラデバイスに指示を送信し、
    前記第2デバイスはユーザによって装着され、もしくは保持され、
    前記検知情報に基づいて前記第1視界の向きを変えるように前記カメラデバイスに指示を送信することは、前記ユーザ及び前記第2デバイスの少なくとも一方を前記第1視界に含めるように前記第1視界の向きを変えるように前記カメラデバイスに指示を送信することを含む、
    ことをコンピュータに実行させるためのプログラム。
JP2014228644A 2014-09-03 2014-11-11 可視像表示方法、第1デバイス、プログラム、及び、視界変更方法、第1デバイス、プログラム Active JP6398630B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/476,605 2014-09-03
US14/476,605 US10250813B2 (en) 2014-09-03 2014-09-03 Methods and systems for sharing views

Publications (2)

Publication Number Publication Date
JP2016053935A JP2016053935A (ja) 2016-04-14
JP6398630B2 true JP6398630B2 (ja) 2018-10-03

Family

ID=55404054

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014228644A Active JP6398630B2 (ja) 2014-09-03 2014-11-11 可視像表示方法、第1デバイス、プログラム、及び、視界変更方法、第1デバイス、プログラム

Country Status (2)

Country Link
US (1) US10250813B2 (ja)
JP (1) JP6398630B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10049473B2 (en) * 2015-04-27 2018-08-14 Splunk Inc Systems and methods for providing for third party visualizations
US11263461B2 (en) * 2015-10-05 2022-03-01 Pillar Vision, Inc. Systems and methods for monitoring objects at sporting events
US11568566B2 (en) * 2016-07-08 2023-01-31 Toyota Motor Engineering & Manufacturing North America. Inc. Aligning vision-assist device cameras based on physical characteristics of a user

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0715453B1 (en) * 1994-11-28 2014-03-26 Canon Kabushiki Kaisha Camera controller
US7116357B1 (en) * 1995-03-20 2006-10-03 Canon Kabushiki Kaisha Camera monitoring system
US6529234B2 (en) * 1996-10-15 2003-03-04 Canon Kabushiki Kaisha Camera control system, camera server, camera client, control method, and storage medium
JP3581560B2 (ja) * 1997-07-29 2004-10-27 キヤノン株式会社 カメラ制御システムおよびコンピュータ端末およびそれらの制御方法およびそれらの制御を実行するプログラムを記憶した記憶媒体
JP3941337B2 (ja) * 2000-05-12 2007-07-04 オムロン株式会社 ドアスイッチ
JP3673772B2 (ja) * 2002-06-21 2005-07-20 キヤノン株式会社 カメラ情報の表示装置および表示方法
JP2004165790A (ja) * 2002-11-11 2004-06-10 Yokogawa Bridge Corp カメラ制御システム
US7683937B1 (en) * 2003-12-31 2010-03-23 Aol Inc. Presentation of a multimedia experience
JP2006121580A (ja) * 2004-10-25 2006-05-11 Matsushita Electric Ind Co Ltd 画像処理装置
US7626569B2 (en) * 2004-10-25 2009-12-01 Graphics Properties Holdings, Inc. Movable audio/video communication interface system
US7796154B2 (en) * 2005-03-07 2010-09-14 International Business Machines Corporation Automatic multiscale image acquisition from a steerable camera
JP4738870B2 (ja) * 2005-04-08 2011-08-03 キヤノン株式会社 情報処理方法、情報処理装置および遠隔複合現実感共有装置
JP2009060201A (ja) * 2007-08-30 2009-03-19 Panasonic Corp マルチ画面監視システム
WO2009132677A1 (en) * 2008-05-02 2009-11-05 Tomtom International B.V. A navigation device and method for displaying map information
KR100886330B1 (ko) * 2008-06-11 2009-03-02 팅크웨어(주) 사용자 뷰 출력 시스템 및 방법
US8488001B2 (en) * 2008-12-10 2013-07-16 Honeywell International Inc. Semi-automatic relative calibration method for master slave camera control
US8896696B2 (en) * 2009-05-01 2014-11-25 Aai Corporation Method apparatus system and computer program product for automated collection and correlation for tactical information
JP4547040B1 (ja) * 2009-10-27 2010-09-22 パナソニック株式会社 表示画像切替装置及び表示画像切替方法
US8638371B2 (en) * 2010-02-12 2014-01-28 Honeywell International Inc. Method of manipulating assets shown on a touch-sensitive display
US20110222757A1 (en) * 2010-03-10 2011-09-15 Gbo 3D Technology Pte. Ltd. Systems and methods for 2D image and spatial data capture for 3D stereo imaging
US20120216129A1 (en) * 2011-02-17 2012-08-23 Ng Hock M Method and apparatus for providing an immersive meeting experience for remote meeting participants
US8970653B2 (en) * 2011-06-16 2015-03-03 Vtel Products Corporation, Inc. Video conference control system and method
JP5947568B2 (ja) * 2012-03-05 2016-07-06 Toa株式会社 カメラ制御装置及びそのコンピュータプログラム
KR102052553B1 (ko) * 2013-05-14 2019-12-05 삼성전자주식회사 이미징 시스템 및 그것의 자동초점 방법
KR101482655B1 (ko) * 2013-07-10 2015-01-16 한국과학기술원 탄소기반 자기조립층의 열처리를 통한 고품질 그래핀의 제조 방법
US9569669B2 (en) * 2013-11-27 2017-02-14 International Business Machines Corporation Centralized video surveillance data in head mounted device
US9298746B2 (en) * 2014-03-19 2016-03-29 International Business Machines Corporation Collaborative capture of photographic images
US9846811B2 (en) * 2014-04-24 2017-12-19 Conduent Business Services, Llc System and method for video-based determination of queue configuration parameters

Also Published As

Publication number Publication date
JP2016053935A (ja) 2016-04-14
US20160065858A1 (en) 2016-03-03
US10250813B2 (en) 2019-04-02

Similar Documents

Publication Publication Date Title
JP7268692B2 (ja) 情報処理装置、制御方法及びプログラム
TWI610097B (zh) 電子系統、可攜式顯示裝置及導引裝置
EP3250983B1 (en) Method and system for receiving gesture input via virtual control objects
US20180018792A1 (en) Method and system for representing and interacting with augmented reality content
JP6421670B2 (ja) 表示制御方法、表示制御プログラム、及び情報処理装置
US20140225814A1 (en) Method and system for representing and interacting with geo-located markers
US11609345B2 (en) System and method to determine positioning in a virtual coordinate system
JP6004051B2 (ja) 情報処理システム、その制御方法、及びプログラム、並びに、情報処理装置、その制御方法、及びプログラム
JP6711033B2 (ja) 表示制御方法、通信装置、表示制御プログラムおよび表示制御装置
US10832489B2 (en) Presenting location based icons on a device display
JP6398630B2 (ja) 可視像表示方法、第1デバイス、プログラム、及び、視界変更方法、第1デバイス、プログラム
US10338768B1 (en) Graphical user interface for finding and depicting individuals
JP6481456B2 (ja) 表示制御方法、表示制御プログラム、及び情報処理装置
KR20180060403A (ko) 영상 기반의 드론 제어장치
TWI639102B (zh) 一種指標顯示裝置、指標控制裝置、指標控制系統及其相關方法
JP7400810B2 (ja) 情報処理装置、情報処理方法、及び記録媒体
WO2023224033A1 (ja) 情報処理方法、情報処理装置、及び情報処理プログラム
WO2022269887A1 (ja) ウェアラブル端末装置、プログラムおよび画像処理方法
JP2016224809A (ja) 情報処理装置、情報処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170928

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180703

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180807

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180820

R150 Certificate of patent or registration of utility model

Ref document number: 6398630

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350