JP2006180278A - 遠隔コミュニケーションシステムとこのシステムで使用される方向提示方法及び方向提示プログラム - Google Patents

遠隔コミュニケーションシステムとこのシステムで使用される方向提示方法及び方向提示プログラム Download PDF

Info

Publication number
JP2006180278A
JP2006180278A JP2004372097A JP2004372097A JP2006180278A JP 2006180278 A JP2006180278 A JP 2006180278A JP 2004372097 A JP2004372097 A JP 2004372097A JP 2004372097 A JP2004372097 A JP 2004372097A JP 2006180278 A JP2006180278 A JP 2006180278A
Authority
JP
Japan
Prior art keywords
range
speaker
image information
space
viewing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004372097A
Other languages
English (en)
Other versions
JP4485933B2 (ja
Inventor
Hiroaki Kawada
博昭 河田
Satoshi Iwaki
敏 岩城
Yoshito Nanjo
義人 南條
Tamotsu Machino
保 町野
Yoshimasa Yanagihara
義正 柳原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2004372097A priority Critical patent/JP4485933B2/ja
Publication of JP2006180278A publication Critical patent/JP2006180278A/ja
Application granted granted Critical
Publication of JP4485933B2 publication Critical patent/JP4485933B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】話し手と聞き手との間で互いの視認対象を容易に一致させることができるようにし、これによりコミュニケーションをよりスムーズに行えるようにする。
【解決手段】サポート側システム2において、認識部24により、現場側システム1から伝送された全方位カメラ15の撮影画像情報からカメラ11の撮影範囲Ec及び現場作業員の目視範囲Epをそれぞれ認識してその座標中心を算出する。そして、その算出結果をもとに表示処理部25でカメラ11の撮影範囲Ecから現場作業員の目視範囲Epへの方向を示す方向提示コンテンツ画像Icを生成して、サポート側システム2の表示部22に表示する。またそれと共に、現場側システム1の表示処理部18により、現場作業員の目視範囲Epからカメラ11の撮影範囲Ecへの方向を示す方向提示コンテンツ画像Ipを生成して、これをプロジェクタ17により現場作業員の目視範囲Epへ投影する。
【選択図】 図3

Description

この発明は、例えば現場作業員の作業を遠隔地から画像通信を使用して支援する遠隔コミュニケーションシステムと、このシステムで使用される方向提示方法及び方向提示プログラムに関する。
例えば、現場作業員とその支援者との間で通信を利用して会話を行っている場合に、聞き手が題材となる対象物の形状や存在位置を把握することは、話し手の意図を理解する上で非常に重要である。しかし、対象物の形状や存在位置を話し手が口頭で正確に伝えることは一般に難しい。
そこで、聞き手側にカメラとレーザポインタを設置し、カメラにより聞き手側の実空間の状態を撮像してこれを音声画像通信により話し手側に送ってモニタ表示すると共に、その表示画像を見ながら話し手がレーザポインタの指示位置を遠隔操作して対象物又はそれを含む範囲をポインティングすることにより、聞き手が対象物を直に視認してその形状等を把握できるようにした技術が提案されている(例えば、特許文献1を参照)。
この技術を用いれば、話し手と聞き手との間で互いの視認対象物又は範囲を容易に一致させることができ、これにより話し手の説明負担が軽減されてよりスムーズな支援のためのコミュニケーションが可能となる。
特開2002−125024公報
ところが、前述した技術では、聞き手がポインティング対象物又は範囲から目をそらしている間に、話し手が別の対象物又は範囲にポインティング位置を移動させると、聞き手はポインティング位置を探し直さなければならなくなり、その間コミュニケーションの中断を余儀なくされるという問題がある。また、一般にカメラによる撮像範囲は聞き手側の実空間の一部に限られる。このため、聞き手が別の方向を向きその視野がカメラの撮像範囲から外れると、話し手は聞き手の視野をモニタ画面から把握することができなくなり、この場合にもコミュニケーションがスムーズに行えなくなる。
この発明は上記事情に着目してなされたもので、その目的とするところは、話し手と聞き手との間で互いの視認対象を容易に一致させることができるようにし、これによりコミュニケーションをよりスムーズに行えるようにした遠隔コミュニケーションシステムとこのシステムで使用される方向提示方法及びプログラムを提供することにある。
上記目的を達成するために第1の発明は、異なる空間に存在する第1の話者と第2の話者が、第1の話者が存在する空間内の任意の対象を撮影手段により撮影してその撮影画像情報を第2の話者が存在する空間に設置された表示手段に表示することにより、上記対象を共に目視しながらコミュニケーションを行う遠隔コミュニケーションシステムにおいて、第1の話者が存在する空間内における、上記撮影手段の撮影範囲及び第1の話者の目視範囲をそれぞれ検出する。そして、この検出された撮影範囲及び目視範囲をもとに当該目視範囲から撮影範囲への方向を判定し、この判定された方向を表す画像情報を生成して、この生成された画像情報を上記第1の話者の目視範囲内に投影するようにしたものである。
したがって第1の発明によれば、第1の話者が、第2の話者に提示されている撮像範囲とは異なる範囲を目視している場合に、当該目視範囲から撮影範囲への方向を表す画像情報が生成されてこの画像情報が第1の話者の目視範囲に投影される。このため、第1の話者は目前に投影された画像により、第2の話者が目視している撮像範囲の方向を容易に認識することができ、この認識結果をもとに自身の位置又は姿勢を変えることで、自身の目視範囲を第2の話者が目視している撮像範囲と円滑に一致させることが可能となる。
また第1の発明は、上記検出された撮影範囲及び目視範囲をもとに当該撮影範囲と目視範囲との距離をさらに算出し、上記判定された方向と上記算出された距離を表す画像情報を生成して、この生成された画像情報を上記第1の話者の目視範囲内に投影することも特徴とする。
このようにすると第1の話者は、第2の話者が目視している撮像範囲の方向と共に、現在の自身の目視範囲から上記撮像範囲までの距離を認識することが可能となる。したがって、この認識結果をもとに第1の話者は自身の位置又は姿勢を迅速かつ正確に変えることが可能となり、これにより自身の目視範囲を第2の話者が目視している撮像範囲に対しより一層スムーズに一致させることが可能となる。
一方、上記目的を達成するために第2の発明は、異なる空間に存在する第1の話者と第2の話者が、第1の話者が存在する空間内の任意の対象を撮影手段により撮像してその撮影画像情報を上記第2の話者が存在する空間に設置された表示手段に表示することにより、上記対象を共に目視しながらコミュニケーションを行う遠隔コミュニケーションシステムにおいて、上記第1の話者が存在する空間内における上記撮影手段の撮影範囲及び第1の話者の目視範囲をそれぞれ検出する。そして、この検出された撮影範囲及び目視範囲をもとに当該撮影範囲から目視範囲への方向を判定し、この判定された方向を表す画像情報を生成して、この生成された画像情報を上記撮影手段により得られる撮影画像情報と共に上記表示手段に表示させるようにしたものである。
したがって第2の発明によれば、撮影手段が、第1の話者の目視範囲とは異なる範囲を撮影している場合に、当該撮影範囲から第1の話者の目視範囲への方向を表す画像情報が生成されて、この画像情報が第2の話者が視認している表示手段に表示される。このため、第2の話者は表示された上記画像情報により、第1の話者の目視範囲の方向を容易に認識することができる。そして、この認識結果をもとに、例えば上記撮像手段の姿勢を遠隔的に制御することで、撮像手段の撮像範囲を第1の話者の目視範囲と円滑に一致させることが可能となる。
また第2の発明は、上記検出された撮影範囲及び目視範囲をもとに、当該撮影範囲と目視範囲との距離をさらに算出し、上記判定された方向と上記算出された距離を表す画像情報を生成して、この生成された画像情報を上記撮影手段により得られる撮影画像情報と共に上記表示手段に表示させることも特徴とする。
このようにすると、第2の話者は、第1の話者の目視範囲の方向と同時に、撮影手段による現在の撮影範囲から上記第1の話者の目視範囲までの距離を認識することができる。したがって、この認識結果をもとに第2の話者は撮影手段の姿勢を迅速かつ正確に変えることが可能となり、これにより撮影手段の撮影範囲を第1の話者の目視範囲に対しより一層スムーズに一致させることが可能となる。
さらに第1及び第2の発明において、上記検出手段は、上記第1の話者が存在する空間に上記撮影手段による撮影範囲を表す撮影範囲提示画像を投射する手段と、上記第1の話者が存在する空間に、当該第1の話者の目視範囲を表す目視範囲提示画像を投射する手段と、上記第1の話者が存在する空間を撮影する全方位撮影手段と、上記全方位撮影手段により得られる撮影画像情報から、上記撮影範囲提示画像及び目視範囲提示画像を検出する手段とを備えるように構成することも特徴とする。
このようにすると、第1の話者の目視範囲及び撮影手段の撮影範囲が、第1の話者が存在する空間内のどこにあっても、これらの位置を確実に検出することが可能となる。
要するにこの発明では、第1の話者が存在する空間内における上記撮影手段の撮影範囲及び第1の話者の目視範囲をそれぞれ検出し、この検出された撮影範囲及び目視範囲をもとに当該撮影範囲から目視範囲への方向を判定して、この判定された方向を表す画像情報を第1の話者の目視範囲内に投影するか、又は上記撮影手段により得られる撮影画像情報と共に上記表示手段に表示させるようにしている。
したがってこの発明によれば、話し手と聞き手との間で互いの視認対象を容易に一致させることができるようにし、これによりコミュニケーションをよりスムーズに行えるようにした遠隔コミュニケーションシステムとこのシステムで使用される方向提示方法及び方向提示プログラムを提供することができる。
以下、図面を参照してこの発明に係わる遠隔コミュニケーションシステムの一実施形態を説明する。この実施形態では、現場作業員の作業をサポート要員が遠隔地から通信ネットワークを介して支援する、いわゆる遠隔作業支援システムを例にとって説明する。
図1はこの実施形態に係わる遠隔作業支援システムの概要を説明するための図である。図示するごとくこのシステムは、現場側システム1とサポート側システム2との間を、通信ネットワークNWを介して接続したものである。
現場側システム1には撮影装置CMが設置されている。この撮影装置CMは撮影姿勢を可変することが可能な構成になっており、現場の作業空間の任意の範囲Ecを撮影してその撮影画像情報を通信ネットワークNWを介してサポートシステム2へ伝送するために使用される。また現場作業員の例えば頭部には投影装置PJが取着されている。この投影装置PJは、例えばサポート側システム2から送られる作業支援のための画像情報や文字情報を、現場作業員の目視範囲Epに投影するために使用される。
一方、サポート側システム2には支援用端末MTが設置されている。支援用端末MTは、例えばワークステーション又はパーソナル・コンピュータにより構成され、上記現場側システム1の撮影装置CMから通信ネットワークNWを介して伝送された撮影画像情報を受信して表示部に表示する。また、上記表示された撮影画像情報を見ながらサポート要員が入力した支援情報を、通信ネットワークNWを介して上記現場側システム1の投影装置PJに伝送し、これにより現場作業員の目視範囲Epに投影させる。
さらに、上記現場側システム1及びサポート側システム2はそれぞれ音声通話機能(図示せず)を備えており、これらの音声通話機能を使用して現場作業員とサポート要員との間で音声通話が可能となっている。この音声通話機能は、現場側システム1では例えば現場作業員が携帯する音声通信端末に設けられ、又サポート側システム2では例えば支援用端末MTに設けられる。
ところで、このような遠隔作業支援システムでは、現場作業員とサポート要員との間で音声通話が行われるとはいえ、現場作業員の目視範囲Epと撮影装置CMの撮影範囲Ecとは常に一致するとは限らない。
そこで、この実施形態に係わる遠隔作業支援システムは、現場作業員の目視方向及び撮影装置CMによる撮影方向を、それぞれ相手側のサポート要員及び現場作業員に知らせるための方向提示機能を備えている。
この方向提示機能は、例えば図2に示すように、現場側システムでは、投影装置PJにより現場作業員の目視範囲Epに方向提示コンテンツの画像Ipを投影することにより実現される。一方サポート側システム2では、支援用端末MTの表示部22に撮影装置CMの撮影画像情報GSに重ねて方向提示コンテンツの画像Icを表示することにより実現される。方向提示コンテンツの画像Ip,Icはいずれも、図示するごとく楕円型をなす横長の表示範囲31,41内に黒円32,42を表示したものであり、表示範囲31,41内における黒円32,42の位置により撮影装置CMによる撮影方向Fc及び現場作業員の目視方向Fpをそれぞれ提示する。
図3は、この実施形態に係わる遠隔作業支援システムを実現するための具体的な構成を示すブロック図である。
先ず現場側システム1には、撮影装置CMと、投影装置PJと、全方位カメラ15と、表示処理部18と、ネットワークインタフェース(ネットワークI/F)19が設けてある。撮影装置CMは、カメラ11と、カメラ11の撮影姿勢を可変するカメラ駆動部12と、駆動制御部13と、撮影範囲提示機14とを備える。このうち駆動制御部13は、支援用端末MTから送られる姿勢制御信号に従い上記カメラ駆動部12を駆動制御する。撮影範囲提示機14は例えばレーザポインタ又はプロジェクタからなり、上記カメラ11とともに一体動作する。そして、カメラ11の撮影範囲を示す枠パターンを撮影対象物Qに対し投影する。
投影装置PJは、プロジェクタ16と、投影範囲提示機17とを備える。プロジェクタ16は、現場作業員の目視範囲Epに画像情報又は文字情報を空間に投影する。投影範囲提示機17は例えばレーザポインタからなり、上記プロジェクタ16による投影範囲Epを表す枠パターンを空間に投影する。なお、上記枠パターンは上記プロジェクタ16から画像情報又は文字情報に重ねて投影するようにしてもよい。この場合には投影範囲提示機17を不要にできる。
全方位カメラ15は、現場の作業空間を全方位にわたり撮影する。図15はこの全方位カメラ15の概略構成図である。全方位カメラ15は、全周囲を写すことが可能な円錐形ミラー51と、この円錐形ミラー51により反射された全周囲画像を受光する受光部52とから構成される。そして、受光された全周囲画像を、図16に示すように円錐形ミラー51の角度αずつパノラマ化することにより全方位のパノラマ画像を得る。なお、全方位カメラとしては、必ずしも360°にわたり撮影が可能なものでなくてもよく、例えば180°にわたり撮影が可能なものでもよい。要するに、全方位カメラの撮像範囲は、現場システムの作業空間の範囲に応じて任意に選択可能である。
表示処理部18は、支援用端末MTから伝送された作業支援のための表示情報を上記プロジェクタ16に供給して投影させる。また、支援用端末MTからカメラ11の撮像範囲Ecの中心座標値及びプロジェクタ16の投影範囲Epの中心座標値が送られた場合に、これらの中心座標値をもとに、プロジェクタ16の投影範囲Epからカメラ11の撮像範囲Ecへの方向を表す方向提示コンテンツ画像Ipを生成する。そして、この生成された方向提示コンテンツ画像Ipを上記作業支援のための表示情報に合成したのち、上記プロジェクタ16に供給して投影させる。
一方、サポート側システム2に設置された支援用端末MTは、キーボードやマウス、ジョイスティック等を使用した入力部21と、液晶表示器(LCD)を使用した表示部22と、画像切替部26と、ネットワークインタフェース(ネットワークI/F)27とを備え、さらに入力データ処理部23と、認識部24と、表示処理部25とを備えている。このうち、入力データ処理部23、認識部24及び表示処理部25はいずれも、プログラムをマイクロコンピュータに実行させることにより実現される。
入力データ処理部23は、入力部21においてサポート要員がカメラの駆動操作を行った場合に、その操作に応じてカメラの姿勢を制御するためのカメラ駆動制御情報を生成する。そして、このカメラ駆動制御情報を通信ネットワークNWを介して現場側システム1の駆動制御部13に送信する。
認識部24は、現場側システム1から伝送された全方位カメラ15の撮影画像情報(パノラマ画像情報)を取り込み、このパノラマ画像情報中において、カメラ11の撮像範囲Ecを表す画像パターンと、プロジェクタ16の投影範囲Epを表す画像パターンをそれぞれ認識する。そして、この認識されたカメラ11の撮像範囲Ecを表す画像パターンの中心座標値CO(X1,Y1)を算出すると共に、プロジェクタ16の投影範囲Epを表す画像パターンの中心座標値PO(X2,Y2)を算出する。そして、この算出された各中心座標値CO(X1,Y1)、PO(X2,Y2)を表示処理部25に与えると共に、通信ネットワークNWを介して現場側システム1の表示処理部18へ送信する。
表示処理部25は、上記与えられた中心座標値CO(X1,Y1)、PO(X2,Y2)をもとに、カメラ11の撮像範囲Ecからプロジェクタ16の投影範囲Epへの方向を表す方向提示コンテンツ画像Icを生成する。そして、この生成された方向提示コンテンツ画像Icを、画像切替部26を介して表示部22に供給し表示させる。
画像切替部26は、カメラ11からの撮影画像情報と、全方位カメラ15からの撮影画像情報(パノラマ画像)とを択一的に切り替えて表示部22に供給するもので、入力部21においてサポート要員が切り替え操作を行うことで切り替わる。一般に、定常状態ではカメラ11側に固定され、サポート要員が作業空間全体の様子を確認したい場合や全方位カメラ15の動作点検を行う場合等、必要時にのみ全方位カメラ15側に切り替わる。
なお、ネットワークI/F19及び27は、現場側システム1とサポート側システム27との間で、通信ネットワークNWを介して撮影画像情報、表示情報及び制御情報の送受信を行う。通信ネットワークNWとしては、例えばIP(Internet Protocol)網と、このIP網にアクセスするための複数のアクセス網とから構成される。アクセス網としては、例えばDSL(Digital Subscriber Line)や光伝送路を使用する固定網、無線LAN網、PHS(Personal Handyphone System)(登録商標)網、PDC(Personal Digital Cellular)網やIMT2000(International Mobile Telecommunication 2000)網等の移動通信網が想定される。
次に、以上のように構成された遠隔作業支援システムの動作を説明する。図4はその制御手順と制御内容を示すフローチャートである。
支援用端末MTは、ステップ4aでサポート要員による終了イベントの入力を監視している。この状態で、終了イベントの入力がなければステップ4bに移行し、ここで画像切替部26が全方位カメラ15からの撮影画像情報を選択しているか、或いはカメラ11からの撮影画像情報を選択しているかを判定する。この判定の結果、画像切替部26がカメラ11からの撮影画像情報を選択している場合には、ステップ4cに移行してここで方向提示コンテンツ画像Ip,Icの表示処理を実行する。そして、この表示処理に続いてステップ4dにより入力部21の入力操作を監視し、入力操作を検出するとステップ4eに移行してここで入力操作に応じたカメラ11の駆動制御処理を実行する。
一方、画像切替部26が全方位カメラ15からの撮影画像情報を選択している場合には、上記方向提示コンテンツ画像Ip,Icの表示処理を省略してステップ4dに移行する。そして、このステップ4dにより入力部21の入力操作を監視し、入力操作を検出するとステップ4eにおいて上記入力操作に応じたカメラ11の駆動制御処理を実行する。
さて、上記方向提示コンテンツ画像Ip,Icの表示処理は次のように実行される。図5はその制御手順及び制御内容を示すフローチャートである。
現場側システム1では、作業空間に対しカメラ11の撮影範囲Ecを表す画像パターンが撮影範囲提示機14により投影され、さらにプロジェクタ16の投影範囲Epを表す画像パターンが投影提示機17により投影される。そして、これらの画像パターンが投影された作業空間が全方位カメラ15により撮影され、その撮影画像情報、つまりパノラマ画像情報が通信ネットワークNWを介してサポート側システム2の支援用端末MTに伝送される。
支援用端末MTは、先ず現場側システム1から全方位カメラ15により撮影されたパノラマ画像情報を通信ネットワークNWを介して取得する。そして、認識部24により、上記取得されたパノラマ画像情報において例えばパターン認識処理を行うことで、カメラ11の撮影範囲Ecをステップ5aで認識すると共に、プロジェクタ16の投影範囲Epをステップ5bで認識する。
続いてステップ5c,5dにおいて、認識部24により上記認識されたカメラ11の撮影範囲Ecと、プロジェクタ16の投影範囲Epとが重なっているか否かを判定する。そして、重なっていると判定された場合には、その旨の情報を現場側システム1の表示処理部18及びサポート側システム2の表示処理部25にそれぞれ通知する。表示処理部18,25は、ステップ5jにおいて上記通知された情報をもとにカメラ11の撮影範囲Ecと、プロジェクタ16の投影範囲Epとが重なっていることを表す方向提示コンテンツ画像Ip,Icを生成する。そして、生成された方向提示コンテンツ画像Ipをプロジェクタ16に供給して投影範囲Epに投影させ、また生成された方向提示コンテンツ画像Icを表示部22に供給して表示させる。このとき生成される方向提示コンテンツ画像Ip,Icは、例えば図13(b)の二点鎖線32′に示すように、黒円32を楕円範囲31の中央に配置したものとなる。
一方、上記認識されたカメラ11の撮影範囲Ecと、プロジェクタ16の投影範囲Epとが、図2に示すように重なっていなかったとする。この場合支援用端末MTは、ステップ5eに移行して、認識部24により上記認識されたカメラ11の撮像範囲Ecを表す画像パターンの中心座標値CO(X1,Y1)を算出すると共に、プロジェクタ16の投影範囲Epを表す画像パターンの中心座標値PO(X2,Y2)を算出する。
上記各中心座標値CO(X1,Y1)、PO(X2,Y2)の算出は次のように行われる。
すなわち、先ず全方位カメラ15の撮影範囲Eoを図11に示すように空間座標系X,Yで表す。このような空間座標系X,Yにより表されるパノラマ画像情報において、いま仮にカメラ11の撮像範囲Ec及びプロジェクタ16の投影範囲Epがそれぞれ図12(a)に示す位置に撮影されていたとする。
このとき、パノラマ画像の水平方向の長さをLX、垂直方向の長さをLYとし、さらに空間座標の基準点からカメラ11の撮像範囲Ecの端部までの距離をL1、プロジェクタの投影範囲Epの端部までの距離をL2とすると共に、カメラ11の撮像範囲Ecの水平方向の長さをLC、プロジェクタの投影範囲Epの水平方向の長さをLPとすると、カメラ11の撮像範囲Ecの中心座標値CO(X1,Y1)のX1と、プロジェクタ16の投影範囲Epの中心座標値PO(X2,Y2)のX2はそれぞれ、以下の式により算出される。
X1=L1+(LC/2)
X2=L2+(LP/2)
また、カメラ11の撮像範囲Ecの中心座標値CO(X1,Y1)のY1と、プロジェクタ16の投影範囲Epの中心座標値PO(X2,Y2)のY2についても、同様に算出される。
かくして、カメラ11の撮像範囲Ecの中心座標値CO(X1,Y1)と、プロジェクタ16の投影範囲Epの中心座標値PO(X2,Y2)が算出される。図12(b)にその算出結果の一例を示す。なお、上記空間座標上で表される各長さは、画像の大きさを表すものであるためここではピクセルにより表すが、画像の大きさを表す単位を統一的に用いるのであれば、如何なる単位を用いても問題はない。
次に、支援用端末MTはステップ5fに移行し、認識部24により上記算出された各中心座標値CO(X1,Y1)、PO(X2,Y2)を表示処理部25に供給すると共に、通信ネットワークNWを介して現場側システム1の表示処理部18へ送信する。上記各中心座標値CO(X1,Y1)、PO(X2,Y2)を受け取ると、現場側システム1の表示処理部18はステップ5gにより方向提示コンテンツ画像Ipを生成してプロジェクタ16に供給する。また、サポート側システムの表示処理部25は、ステップ5hにより方向提示コンテンツ画像Icを生成して表示部22に供給する。
以下、図13を用いて上記方向提示コンテンツ画像Ip,Icの生成手法を説明する。先ずプロジェクタ16の投影範囲Epにおける方向提示コンテンツ画像Ipの表示位置とその大きさ、及び表示部22のカメラ画像表示領域における方向提示コンテンツ画像Icの表示位置とその大きさは、予め設定される。
例えば、図13(a),(b)に示すように方向提示コンテンツ画像Ipの表示位置はプロジェクタ16の投影範囲Epの中央上端部に設定される。また、方向提示コンテンツ画像Ipの形状は人の目を模した楕円形状に設定される。方向提示コンテンツ画像Ipは、楕円形の範囲31内を白く描画し、その内部に人の目の黒目を模した黒円32を配置する。そして、提示方向に応じて、この黒円32の中心33が上記楕円範囲31内に設定された楕円軌跡34に沿って移動するように描画する。図14はその一例を示すもので、黒円32はその中心33が、白く描画した楕円形の中心(長軸と短軸との交点)O(Ox,Oy)とカメラ11撮影範囲Ecの座標中心CO(X1,Y1)とを結ぶ直線と、上記楕円形の軌跡34とが交差する点に位置するように描画される。
そして、上記のように生成された方向提示コンテンツ画像Ipは、ステップ5iにおいてプロジェクタ16により現場作業員の目視範囲Epに投影される。図9(a)は、その表示結果の一例を示すもので、カメラ11の撮影範囲Ecが現場作業員の目視範囲Epの右方向に位置する場合を示している。
したがって、現場作業員は上記方向提示コンテンツ画像Ipによりカメラ11の撮影範囲Ecの方向を把握することができる。そして、自身の頭の向きを右方向に回転させるか又は体ごと右方向へ平行移動すれば、自身の目視範囲Epをカメラ11の撮影範囲Ecに一致させることができる。図9(b)は上記移動に伴う方向提示コンテンツ画像Ipの変化の例を示すものである。
また、このときサポート側システム2の支援用端末MTにおいては、表示処理部25により黒円32の位置が左寄りに位置する方向提示コンテンツ画像Icが生成され、この生成された方向提示コンテンツ画像Icが表示部22の表示画面GSに表示される。図10(a)にその表示結果の一例を示す。そして、この状態で上記したように現場作業員が頭の向きを右方向に回転させるか又は体ごと右方向へ平行移動すると、この移動に伴い方向提示コンテンツ画像Icは図10(b)のように変化する。
一方、支援用端末MTの表示部22に、例えば図8(a)のように黒円32が楕円範囲31の左寄りに位置した方向提示コンテンツ画像Icが表示されると、サポート要員は上記方向提示コンテンツ画像Icにより、現場作業員の目視範囲Epがカメラ11の撮影範囲Ecの左方向にあると把握できる。
そして、この状態でサポート要員が入力部21のジョイスティックを操作すると、支援用端末MTは図4に示すようにステップ4dからステップ4eに移行し、ここで次のようにカメラ11の姿勢制御処理を実行する。図6はその制御手順と制御内容を示すフローチャートである。
すなわち、上記入力部21のジョイスティックが操作されると、入力データ処理部25において上記操作方向と操作量に応じてカメラ制御情報が生成される。このカメラ制御情報はステップ6aにより通信ネットワークNWを介して現場側システム1の駆動制御部13に伝送される。駆動制御部13は、上記伝送されたカメラ制御情報をもとにカメラの姿勢を可変制御するための駆動信号を発生し、この駆動信号をカメラ駆動部12に供給する(ステップ6b)。カメラ駆動部12は、ステップ6cにおいて上記駆動信号により動作してカメラ11の姿勢を変化させる。
かくして、カメラ11の撮影方向は左方向に移動し、この結果カメラ11の撮影範囲Ecは現場作業員の目視範囲Epと一致する。図8(b)は上記カメラ11の姿勢の変化に伴う方向提示コンテンツ画像Icの変化の例を示すものである。
また、このとき現場側システム1では、上記サポート要員によるカメラ11の左旋回操作Aにより、方向提示コンテンツ画像Ipは図7(a)に示す状態から図7(b)に示す状態に変化する。
以上述べたようにこの実施形態では、現場側システム1において、作業空間に、カメラ11の撮影範囲Ecを表す画像を撮影範囲提示機14により投影すると共に、現場作業員の目視範囲Epを示す画像を投影範囲提示機17により投影し、これらの画像が投影された作業空間を全方位カメラ15により撮影してその撮影画像情報を通信ネットワークNWを介してサポート側システム2へ伝送する。サポート側システム2では、認識部24により、上記伝送された全方位カメラ15の撮影画像情報から上記カメラ11の撮影範囲Ec及び現場作業員の目視範囲Epをそれぞれ認識してその座標中心を算出する。そして、その算出結果をもとに表示処理部25でカメラ11の撮影範囲Ecから現場作業員の目視範囲Epへの方向を示す方向提示コンテンツ画像Icを生成し、この生成された方向提示コンテンツ画像Icを表示部22に表示する。またそれと共に、上記座標中心の算出結果を通信ネットワークNWを介して現場側システム1の表示処理部18に伝送し、この表示処理部18により現場作業員の目視範囲Epからカメラ11の撮影範囲Ecへの方向を示す方向提示コンテンツ画像Ipを生成し、この生成された方向提示コンテンツ画像Ipをプロジェクタ17により現場作業員の目視範囲Epへ投影するようにしている。
したがって、現場作業員は自身の目視範囲Epに投影された方向提示コンテンツ画像Ipによりカメラ11の撮影範囲Ecの方向をスムーズに把握することができ、これにより例えば自身の頭の向きを右方向に回転させるか又は体ごと右方向へ平行移動することで、自身の目視範囲Epをカメラ11の撮影範囲Ecに迅速に一致させることができる。
また、サポート要員は上記表示部22に表示された方向提示コンテンツ画像Icにより、現場作業員の目視範囲Epの方向をスムーズに把握することができ、これにより例えばカメラ11の姿勢を遠隔操作することでカメラ11の撮影範囲Ecを現場作業員の目視範囲Epに迅速に一致させることができる。
さらにこの実施形態では、全方位カメラ15の撮影画像情報をもとにカメラ11の撮影範囲Ec及び現場作業員の目視範囲Epをそれぞれ認識するようにしているので、現場作業員が作業空間のどの方向を向いていても、またカメラ11が作業空間のどの方向を撮影していても、その方向を確実に検出して提示することができる。
なお、この発明は上記実施形態に限定されるものではない。例えば、全方位カメラ15の撮影画像情報から求めたカメラ11の撮影範囲Ec及び現場作業員の目視範囲Epの座標中心をもとに、カメラ11の撮影範囲Ecと現場作業員の目視範囲Epとの距離を算出する。そして、方向と上記算出された距離を表す方向提示コンテンツ画像を生成して投影及び表示するようにしてもよい。例えば、図13等に示したように人の目を模した方向提示コンテンツ画像Ip,Icを生成する場合には、楕円形範囲31の中心から黒丸32中心までの距離を上記算出された距離に比例して設定することにより、上記距離を表現する。なお、方向については前記実施形態と同じである。
このようにすると、現場作業員及びサポート要員はともに目視方向と同時に、カメラ11の撮影範囲Ecまでの距離、及び現場作業員の目視範囲Epまでの距離を認識することが可能となり、これにより現場作業員の目視範囲Ep及びカメラ11の撮影範囲Ecを迅速かつ正確に修正することが可能となる。
また、前記実施形態では人の目を模した方向提示コンテンツ画像Ic,Ipを生成し投影及び表示するようにしたが、矢印等の他のマークを用いてもよく、また文字による方向提示メッセージを生成して投影及び表示するようにしてもよい。さらに前記実施形態では、現場側システム1及びサポート側システム2の両方において方向提示コンテンツ画像Ic,Ipを投影及び表示するようにしたが、いずれか一方のみで投影又は表示するようにしてもよい。
さらに、現場作業員の目視範囲を検出する手段としては、例えば位置センサやジャイロなどを使用した方向センサを現場作業員に取着し、この方向センサにより現場作業員の目視方向を検出してその検出情報を通信ネットワークを介してサポート側システムに伝送するようにしてもよい。
さらに前記実施形態では、サポート側システム2の支援用端末MTにおいてカメラ11の撮影範囲Ec及び現場作業員の目視範囲Epをそれぞれ認識するようにしたが、例えば現場作業員が携帯する情報端末や、撮像装置或いは投影装置において認識するようにしてもよい。また方向提示コンテンツ画像Ic,Ipは、現場側システム1及びサポート側システム2で別々に生成せずに、現場側システム1またはサポート側システム2のいずれか一方で統括的に生成するようにしてもよい。
その他、遠隔コミュニケーションの目的や種類、システム構成、撮像装置の種類や構成、投影装置の種類や構成、通信ネットワークの種類や構成、方向判定手段等についても、この発明の要旨を逸脱しない範囲で種々変形して実施できる。
要するにこの発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。
この発明に係わる遠隔コミュニケーションシステムの一実施形態を示す概略構成図。 図1に示したシステムの要部を説明するための図。 図1に示したシステムを実現する構成の一例を示すブロック図。 図3に示したシステムによる方向提示制御の手順と内容を示すフローチャート。 図4に示した方向提示制御のうち表示処理の手順と内容を示すフローチャート。 図4に示した方向提示制御のうちカメラ駆動制御処理の手順と内容を示すフローチャート。 図3に示したシステムの現場側における方向提示動作の一例を説明するための図。 図3に示したシステムによるサポート側における方向提示動作の一例を説明するための図。 図3に示したシステムの現場側における方向提示動作の別の例を説明するための図。 図3に示したシステムのサポート側における方向提示動作の別の例を説明するための図。 図3に示したシステムにおける全方位カメラの撮影範囲を説明するための図。 図11に示した全方位カメラにより撮像された画像からカメラ撮影範囲及びプロジェクタ投影範囲の座標位置を計算する手法を説明するための図。 図12に示した方法により計算された座標値をもとに、方向提示コンテンツの投影画像及び表示画像を生成する動作を説明するための図。 図13により生成される方向提示コンテンツの投影画像及び表示画像における黒円の位置の設定手法を説明するための図。 図3に示したシステムで使用する全方位カメラの概略構成を説明するための図。 図3に示したシステムで使用する全方位カメラの動作原理を説明するための図。
符号の説明
1…現場側システム、2…サポート側システム、NW…通信ネットワーク、CM…撮影装置、PJ…投影装置、MT…支援用端末、11…カメラ、12…カメラ駆動部、13…駆動制御部、14…撮影範囲提示機、15…全方位カメラ、16…プロジェクタ、17…投影範囲提示機、18…表示処理部、19…現場システムのネットワークI/F、21…入力部、22…表示部、23…入力データ処理部、24…認識部、25…表示処理部、26…画像切替部、27…サポート側システムのネットワークI/F。

Claims (10)

  1. 異なる空間に存在する第1の話者と第2の話者が、第1の話者が存在する空間内の任意の対象を撮影手段により撮影してその撮影画像情報を第2の話者が存在する空間に設置された表示手段に表示することにより、上記対象を共に目視しながらコミュニケーションを行う遠隔コミュニケーションシステムにおいて、
    前記第1の話者が存在する空間内における、前記撮影手段の撮影範囲及び第1の話者の目視範囲をそれぞれ検出する検出手段と、
    前記検出された撮影範囲及び目視範囲をもとに、当該目視範囲から撮影範囲への方向を判定する判定手段と、
    前記判定された方向を表す画像情報を生成し、この生成された画像情報を前記第1の話者の目視範囲内に投影する投影手段と
    を具備することを特徴とする遠隔コミュニケーションシステム。
  2. 前記検出された撮影範囲及び目視範囲をもとに、当該撮影範囲と目視範囲との距離を算出する手段を、さらに具備し、
    前記投影手段は、前記判定された方向と前記算出された距離を表す画像情報を生成し、この生成された画像情報を前記第1の話者の目視範囲内に投影することを特徴とする請求項1記載の遠隔コミュニケーションシステム。
  3. 異なる空間に存在する第1の話者と第2の話者が、第1の話者が存在する空間内の任意の対象を撮影手段により撮像してその撮影画像情報を前記第2の話者が存在する空間に設置された表示手段に表示することにより、上記対象を共に目視しながらコミュニケーションを行う遠隔コミュニケーションシステムにおいて、
    前記第1の話者が存在する空間内における、前記撮影手段の撮影範囲及び第1の話者の目視範囲をそれぞれ検出する検出手段と、
    前記検出された撮影範囲及び目視範囲をもとに、当該撮影範囲から目視範囲への方向を判定する判定手段と、
    前記判定された方向を表す画像情報を生成し、この生成された画像情報を前記撮影手段により得られる撮影画像情報と共に前記表示手段に表示させる表示制御手段と
    を具備することを特徴とする遠隔コミュニケーションシステム。
  4. 前記検出された撮影範囲及び目視範囲をもとに、当該撮影範囲と目視範囲との距離を算出する手段を、さらに具備し、
    前記表示制御手段は、前記判定された方向と前記算出された距離を表す画像情報を生成し、この生成された画像情報を前記撮影手段により得られる撮影画像情報と共に前記表示手段に表示させることを特徴とする請求項3記載の遠隔コミュニケーションシステム。
  5. 前記検出手段は、
    前記第1の話者が存在する空間に、前記撮影手段による撮影範囲を表す撮影範囲提示画像を投射する手段と、
    前記第1の話者が存在する空間に、当該第1の話者の目視範囲を表す目視範囲提示画像を投射する手段と、
    前記第1の話者が存在する空間を撮影する全方位撮影手段と、
    前記全方位撮影手段により得られる撮影画像情報から、前記撮影範囲提示画像及び目視範囲提示画像を検出する手段と
    を備えることを特徴とする請求項1又は3記載の遠隔コミュニケーションシステム。
  6. 異なる空間に存在する第1の話者と第2の話者が、第1の話者が存在する空間内の任意の対象を撮影手段により撮影してその撮影画像情報を第2の話者が存在する空間に設置された表示手段に表示することにより、上記対象を共に目視しながらコミュニケーションを行う際に、
    前記第1の話者が存在する空間内における、前記撮影範囲及び第1の話者の目視範囲をそれぞれ検出する過程と、
    前記検出された撮影範囲及び目視範囲をもとに、当該目視範囲から撮影範囲への方向を判定する過程と、
    前記判定された方向を表す画像情報を生成し、この生成された画像情報を前記第1の話者の目視範囲内に投影する過程と
    を具備することを特徴とする方向提示方法。
  7. 異なる空間に存在する第1の話者と第2の話者が、第1の話者が存在する空間内の任意の対象を撮影手段により撮影してその撮影画像情報を第2の話者が存在する空間に設置された表示手段に表示することにより、上記対象を共に目視しながらコミュニケーションを行う際に、
    前記第1の話者が存在する空間内における、前記撮影手段の撮影範囲及び第1の話者の目視範囲をそれぞれ検出する過程と、
    前記検出された撮影範囲及び目視範囲をもとに、当該撮影範囲から目視範囲への方向を判定する過程と、
    前記判定された方向を表す画像情報を生成し、この生成された画像情報を前記撮影画像情報と共に前記表示手段に表示させる過程と
    を具備することを特徴とする方向提示方法。
  8. 前記検出する過程は、
    前記第1の話者が存在する空間に、前記撮影範囲を表す撮影範囲提示画像を投射する過程と、
    前記第1の話者が存在する空間に、当該第1の話者の目視範囲を表す目視範囲提示画像を投射する過程と、
    前記第1の話者が存在する空間の全方位を撮影する過程と、
    前記全方位の撮影により得られる撮影画像情報から、前記撮影範囲提示画像及び目視範囲提示画像を認識する過程と
    を備えることを特徴とする請求項6又は7記載の方向提示方法。
  9. 異なる空間に存在する第1の話者と第2の話者が、第1の話者が存在する空間内の任意の対象を撮影手段により撮影してその撮影画像情報を第2の話者が存在する空間に設置された表示手段に表示することにより、上記対象を共に目視しながらコミュニケーションを行い、かつ前記第1の話者の目視範囲に画像を投影する投影手段と、コンピュータとを備えた遠隔コミュニケーションシステムで使用される方向提示プログラムであって、
    前記第1の空間内における、前記撮影範囲及び第1の話者の目視範囲をそれぞれ検出する処理と、
    前記検出された撮影範囲及び目視範囲をもとに、当該目視範囲から撮影範囲への方向を判定する処理と、
    前記判定された方向を表す画像情報を生成する処理と、
    前記生成された画像情報を、前記投影手段により第1の話者の目視範囲に投影させる処理と
    を、前記コンピュータに実行させることを特徴とする方向提示プログラム。
  10. 異なる空間に存在する第1の話者と第2の話者が、第1の話者が存在する空間内の任意の対象を撮影手段により撮影してその撮影画像情報を第2の話者が存在する空間に設置された表示手段に表示することにより、上記対象を共に目視しながらコミュニケーションを行う、コンピュータを備えた遠隔コミュニケーションシステムで使用される方向提示プログラムであって、
    前記第1の空間内における、前記撮影手段の撮影範囲及び第1の話者の目視範囲をそれぞれ検出する処理と、
    前記検出された撮影範囲及び目視範囲をもとに、当該撮影範囲から目視範囲への方向を判定する処理と、
    前記判定された方向を表す画像情報を生成する処理と、
    前記生成された画像情報を、前記撮影手段により得られる撮影画像情報と共に前記表示手段に表示させる処理と
    を、前記コンピュータに実行させることを特徴とする方向提示プログラム。
JP2004372097A 2004-12-22 2004-12-22 遠隔コミュニケーションシステムとこのシステムで使用される方向提示方法及び方向提示プログラム Expired - Fee Related JP4485933B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004372097A JP4485933B2 (ja) 2004-12-22 2004-12-22 遠隔コミュニケーションシステムとこのシステムで使用される方向提示方法及び方向提示プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004372097A JP4485933B2 (ja) 2004-12-22 2004-12-22 遠隔コミュニケーションシステムとこのシステムで使用される方向提示方法及び方向提示プログラム

Publications (2)

Publication Number Publication Date
JP2006180278A true JP2006180278A (ja) 2006-07-06
JP4485933B2 JP4485933B2 (ja) 2010-06-23

Family

ID=36733946

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004372097A Expired - Fee Related JP4485933B2 (ja) 2004-12-22 2004-12-22 遠隔コミュニケーションシステムとこのシステムで使用される方向提示方法及び方向提示プログラム

Country Status (1)

Country Link
JP (1) JP4485933B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012137943A (ja) * 2010-12-27 2012-07-19 Shimizu Corp 施工状況記録システム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06253295A (ja) * 1993-02-24 1994-09-09 Nippon Telegr & Teleph Corp <Ntt> 空間走査撮像表示装置
JPH08275046A (ja) * 1995-03-29 1996-10-18 Canon Inc 撮像装置
JPH11298872A (ja) * 1998-04-07 1999-10-29 Toshiba Corp 映像通信システム
JP2003037840A (ja) * 2001-07-24 2003-02-07 Nippon Telegr & Teleph Corp <Ntt> レーザポインタの方向制御方法およびその装置
JP2003209832A (ja) * 2002-01-11 2003-07-25 National Institute Of Advanced Industrial & Technology 遠隔環境ガイド装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06253295A (ja) * 1993-02-24 1994-09-09 Nippon Telegr & Teleph Corp <Ntt> 空間走査撮像表示装置
JPH08275046A (ja) * 1995-03-29 1996-10-18 Canon Inc 撮像装置
JPH11298872A (ja) * 1998-04-07 1999-10-29 Toshiba Corp 映像通信システム
JP2003037840A (ja) * 2001-07-24 2003-02-07 Nippon Telegr & Teleph Corp <Ntt> レーザポインタの方向制御方法およびその装置
JP2003209832A (ja) * 2002-01-11 2003-07-25 National Institute Of Advanced Industrial & Technology 遠隔環境ガイド装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012137943A (ja) * 2010-12-27 2012-07-19 Shimizu Corp 施工状況記録システム

Also Published As

Publication number Publication date
JP4485933B2 (ja) 2010-06-23

Similar Documents

Publication Publication Date Title
US11089266B2 (en) Communication processing method, terminal, and storage medium
US10523871B2 (en) Imaging system and imaging control method with display of image with vertical alignment
JP2013206322A (ja) 情報処理装置、情報処理システム及び情報処理方法
CN110266941A (zh) 一种全景拍摄方法及终端设备
JP2021010101A (ja) 遠隔作業支援システム
JP2011152593A (ja) ロボット操作装置
JP2024113052A (ja) ヘッドマウントディスプレイ
US9438805B2 (en) Terminal device and image capturing method
JP4485933B2 (ja) 遠隔コミュニケーションシステムとこのシステムで使用される方向提示方法及び方向提示プログラム
US11212485B2 (en) Transparency system for commonplace camera
JP5571895B2 (ja) 情報表示装置
JP2017062650A (ja) 表示システム、表示装置、情報表示方法、及び、プログラム
JPH11298872A (ja) 映像通信システム
US11610343B2 (en) Video display control apparatus, method, and non-transitory computer readable medium
GB2582106A (en) Display device and display device control method
JP2010219989A (ja) コミュニケーション支援システム、表示制御装置および表示制御方法
JP2019012432A (ja) 作業支援システム、装置、方法、及びコンピュータプログラム
JP2018018315A (ja) 表示システム、表示装置、情報表示方法、及び、プログラム
JP6436606B1 (ja) 医療映像システム
US11831976B2 (en) Display apparatus
JP2006246352A (ja) 遠隔作業支援システムとその作業側装置及び移動ロボット
WO2017098999A1 (ja) 情報処理装置、情報処理システム、情報処理装置の制御方法、及び、コンピュータープログラム
JP2019140530A (ja) サーバ装置、表示装置、映像表示システム、及び映像表示方法
WO2022208600A1 (ja) ウェアラブル端末装置、プログラムおよび表示方法
WO2023080099A1 (ja) 会議システムの処理方法および会議システムの制御装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100105

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100323

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100325

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130402

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140402

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees