JP4485933B2 - Remote communication system, direction presentation method and direction presentation program used in this system - Google Patents
Remote communication system, direction presentation method and direction presentation program used in this system Download PDFInfo
- Publication number
- JP4485933B2 JP4485933B2 JP2004372097A JP2004372097A JP4485933B2 JP 4485933 B2 JP4485933 B2 JP 4485933B2 JP 2004372097 A JP2004372097 A JP 2004372097A JP 2004372097 A JP2004372097 A JP 2004372097A JP 4485933 B2 JP4485933 B2 JP 4485933B2
- Authority
- JP
- Japan
- Prior art keywords
- range
- speaker
- shooting
- space
- viewing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
この発明は、例えば現場作業員の作業を遠隔地から画像通信を使用して支援する遠隔コミュニケーションシステムと、このシステムで使用される方向提示方法及び方向提示プログラムに関する。 The present invention relates to a remote communication system that supports, for example, work of field workers from a remote location using image communication, and a direction presentation method and a direction presentation program used in this system.
例えば、現場作業員とその支援者との間で通信を利用して会話を行っている場合に、聞き手が題材となる対象物の形状や存在位置を把握することは、話し手の意図を理解する上で非常に重要である。しかし、対象物の形状や存在位置を話し手が口頭で正確に伝えることは一般に難しい。 For example, when a conversation is conducted between a field worker and their supporter using communication, the listener understands the intention of the speaker by grasping the shape and location of the target object. Is very important above. However, it is generally difficult for a speaker to verbally and accurately convey the shape and location of an object.
そこで、聞き手側にカメラとレーザポインタを設置し、カメラにより聞き手側の実空間の状態を撮像してこれを音声画像通信により話し手側に送ってモニタ表示すると共に、その表示画像を見ながら話し手がレーザポインタの指示位置を遠隔操作して対象物又はそれを含む範囲をポインティングすることにより、聞き手が対象物を直に視認してその形状等を把握できるようにした技術が提案されている(例えば、特許文献1を参照)。
この技術を用いれば、話し手と聞き手との間で互いの視認対象物又は範囲を容易に一致させることができ、これにより話し手の説明負担が軽減されてよりスムーズな支援のためのコミュニケーションが可能となる。
Using this technology, it is possible to easily match each other's visual objects or ranges between the speaker and the listener, thereby reducing the speaker's explanation burden and enabling smoother communication for support. Become.
ところが、前述した技術では、聞き手がポインティング対象物又は範囲から目をそらしている間に、話し手が別の対象物又は範囲にポインティング位置を移動させると、聞き手はポインティング位置を探し直さなければならなくなり、その間コミュニケーションの中断を余儀なくされるという問題がある。また、一般にカメラによる撮像範囲は聞き手側の実空間の一部に限られる。このため、聞き手が別の方向を向きその視野がカメラの撮像範囲から外れると、話し手は聞き手の視野をモニタ画面から把握することができなくなり、この場合にもコミュニケーションがスムーズに行えなくなる。 However, with the techniques described above, if the speaker moves the pointing position to another object or range while the listener is looking away from the pointing object or range, the listener must re-find the pointing position. In the meantime, there is a problem that communication is forced to be interrupted. In general, the imaging range of the camera is limited to a part of the real space on the listener side. For this reason, if the listener turns in a different direction and the field of view deviates from the imaging range of the camera, the speaker cannot grasp the listener's field of view from the monitor screen, and in this case, communication cannot be performed smoothly.
この発明は上記事情に着目してなされたもので、その目的とするところは、話し手と聞き手との間で互いの視認対象を容易に一致させることができるようにし、これによりコミュニケーションをよりスムーズに行えるようにした遠隔コミュニケーションシステムとこのシステムで使用される方向提示方法及びプログラムを提供することにある。 The present invention has been made paying attention to the above circumstances, and the purpose of the present invention is to make it possible to easily match each other's visual recognition target between a speaker and a listener, thereby making communication smoother. An object of the present invention is to provide a remote communication system that can be used and a direction presentation method and program used in this system.
上記目的を達成するために第1の発明は、異なる空間に存在する第1の話者と第2の話者が、第1の話者が存在する空間内の任意の対象を撮影手段により撮影してその撮影画像情報を第2の話者が存在する空間に設置された表示手段に表示することにより、上記対象を共に目視しながらコミュニケーションを行う遠隔コミュニケーションシステムにおいて、第1の話者が存在する空間内における、上記撮影手段の撮影範囲及び第1の話者の目視範囲をそれぞれ検出する。そして、この検出された撮影範囲及び目視範囲をもとに、当該目視範囲から撮影範囲への方向を判定すると共に、撮影範囲と目視範囲との距離を算出し、この判定された方向及び算出された距離を表す画像情報を生成して、この生成された画像情報を上記第1の話者の目視範囲内に投影するようにしたものである。 In order to achieve the above object, according to a first aspect of the present invention, a first speaker and a second speaker existing in different spaces photograph an arbitrary object in a space where the first speaker exists by a photographing means. In the remote communication system in which communication is performed while viewing both of the above objects by displaying the captured image information on the display means installed in the space where the second speaker exists, the first speaker exists. The shooting range of the shooting means and the viewing range of the first speaker in the space to be detected are respectively detected. Then, based on the detected imaging range and visual range, to determine the direction of the shooting range of the visual range, and calculates the distance between the shooting scope and visual range, it is the the determined direction and the calculated The image information representing the distance is generated, and the generated image information is projected within the visual range of the first speaker.
したがって第1の発明によれば、第1の話者が、第2の話者に提示されている撮像範囲とは異なる範囲を目視している場合に、当該目視範囲から撮影範囲への方向を表す画像情報が生成されてこの画像情報が第1の話者の目視範囲に投影される。このため、第1の話者は目前に投影された画像により、第2の話者が目視している撮像範囲の方向を容易に認識することができ、この認識結果をもとに自身の位置又は姿勢を変えることで、自身の目視範囲を第2の話者が目視している撮像範囲と円滑に一致させることが可能となる。 Therefore, according to the first invention, when the first speaker is viewing a range different from the imaging range presented to the second speaker, the direction from the viewing range to the imaging range is changed. Representing image information is generated and this image information is projected onto the viewing range of the first speaker. For this reason, the first speaker can easily recognize the direction of the imaging range viewed by the second speaker from the image projected in front of him, and his / her position based on the recognition result. Alternatively, by changing the posture, it is possible to smoothly match its own viewing range with the imaging range that the second speaker is viewing.
また第1の発明によれば、第1の話者は、第2の話者が目視している撮像範囲の方向と共に、現在の自身の目視範囲から上記撮像範囲までの距離を認識することが可能となる。したがって、この認識結果をもとに第1の話者は自身の位置又は姿勢を迅速かつ正確に変えることが可能となり、これにより自身の目視範囲を第2の話者が目視している撮像範囲に対しより一層スムーズに一致させることが可能となる。 According to the first invention , the first speaker can recognize the distance from the current viewing range to the imaging range along with the direction of the imaging range viewed by the second speaker. It becomes possible. Therefore, the first speaker can quickly and accurately change his / her position or posture based on the recognition result, and thereby the imaging range in which the second speaker is viewing his / her viewing range. It becomes possible to make it correspond even more smoothly.
一方、上記目的を達成するために第2の発明は、異なる空間に存在する第1の話者と第2の話者が、第1の話者が存在する空間内の任意の対象を撮影手段により撮像してその撮影画像情報を上記第2の話者が存在する空間に設置された表示手段に表示することにより、上記対象を共に目視しながらコミュニケーションを行う遠隔コミュニケーションシステムにおいて、上記第1の話者が存在する空間内における上記撮影手段の撮影範囲及び第1の話者の目視範囲をそれぞれ検出する。そして、この検出された撮影範囲及び目視範囲をもとに、当該撮影範囲から目視範囲への方向を判定すると共に、撮影範囲と目視範囲との距離を算出し、この判定された方向及び算出された距離を表す画像情報を生成して、この生成された画像情報を上記撮影手段により得られる撮影画像情報と共に上記表示手段に表示させるようにしたものである。 On the other hand, in order to achieve the above-mentioned object, the second invention provides a photographing means for photographing an arbitrary object in a space in which the first speaker and the second speaker existing in different spaces exist. In the remote communication system in which communication is performed while visually observing the target together by displaying the captured image information on the display means installed in the space where the second speaker is present. The photographing range of the photographing means and the visual range of the first speaker are detected in the space where the speaker is present. Then, based on the detected imaging range and visual range, to determine the direction of the visual range of the shooting range, and calculates the distance between the shooting scope and visual range, it is the the determined direction and the calculated Image information representing the measured distance is generated, and the generated image information is displayed on the display unit together with the captured image information obtained by the imaging unit.
したがって第2の発明によれば、撮影手段が、第1の話者の目視範囲とは異なる範囲を撮影している場合に、当該撮影範囲から第1の話者の目視範囲への方向を表す画像情報が生成されて、この画像情報が第2の話者が視認している表示手段に表示される。このため、第2の話者は表示された上記画像情報により、第1の話者の目視範囲の方向を容易に認識することができる。そして、この認識結果をもとに、例えば上記撮像手段の姿勢を遠隔的に制御することで、撮像手段の撮像範囲を第1の話者の目視範囲と円滑に一致させることが可能となる。 Therefore, according to the second invention, when the photographing means is photographing a range different from the visual range of the first speaker, the direction from the photographing range to the visual range of the first speaker is expressed. Image information is generated, and this image information is displayed on the display means being visually recognized by the second speaker. For this reason, the second speaker can easily recognize the direction of the visual range of the first speaker from the displayed image information. And based on this recognition result, for example, by remotely controlling the attitude of the imaging means, the imaging range of the imaging means can be smoothly matched with the visual range of the first speaker.
また、第2の発明によれば、第2の話者は、第1の話者の目視範囲の方向と同時に、撮影手段による現在の撮影範囲から上記第1の話者の目視範囲までの距離を認識することができる。したがって、この認識結果をもとに第2の話者は撮影手段の姿勢を迅速かつ正確に変えることが可能となり、これにより撮影手段の撮影範囲を第1の話者の目視範囲に対しより一層スムーズに一致させることが可能となる。 In addition, according to the second invention , the second speaker can measure the distance from the current shooting range by the shooting means to the first speaker's viewing range simultaneously with the direction of the first speaker's viewing range. Can be recognized. Therefore, the second speaker can quickly and accurately change the posture of the photographing means based on the recognition result, and thereby the photographing range of the photographing means is further increased with respect to the visual range of the first speaker. Smooth matching is possible.
さらに第1及び第2の発明において、上記検出手段は、上記第1の話者が存在する空間に上記撮影手段による撮影範囲を表す撮影範囲提示画像を投射する手段と、上記第1の話者が存在する空間に、当該第1の話者の目視範囲を表す目視範囲提示画像を投射する手段と、上記第1の話者が存在する空間を撮影する全方位撮影手段と、上記全方位撮影手段により得られる撮影画像情報から、上記撮影範囲提示画像及び目視範囲提示画像を検出する手段とを備えるように構成することも特徴とする。
このようにすると、第1の話者の目視範囲及び撮影手段の撮影範囲が、第1の話者が存在する空間内のどこにあっても、これらの位置を確実に検出することが可能となる。
Further, in the first and second inventions, the detection means projects a shooting range presentation image representing a shooting range by the shooting means into a space where the first speaker exists, and the first speaker. Means for projecting a visual range presenting image representing the visual range of the first speaker, a omnidirectional photographing means for photographing the space where the first speaker is present, and the omnidirectional photographing. It is also characterized by comprising means for detecting the photographing range presentation image and the visual range presentation image from the photographed image information obtained by the means.
In this way, it is possible to reliably detect the position of the first speaker's viewing range and the shooting range of the shooting means anywhere in the space where the first speaker exists. .
要するにこの発明では、第1の話者が存在する空間内における上記撮影手段の撮影範囲及び第1の話者の目視範囲をそれぞれ検出し、この検出された撮影範囲及び目視範囲をもとに当該撮影範囲から目視範囲への方向を判定すると共に、撮影範囲と目視範囲との距離を算出して、この判定された方向及び算出された距離を表す画像情報を第1の話者の目視範囲内に投影するか、又は上記撮影手段により得られる撮影画像情報と共に上記表示手段に表示させるようにしている。 In short, in the present invention, the photographing range of the photographing means and the visual range of the first speaker in the space where the first speaker is present are detected, respectively, and based on the detected photographing range and visual range, together determine the direction of the imaging range to visually range, by calculating the distance between the shooting scope and visual range, the image information representing the the determined direction and the calculated distance in the visual range of the first speaker Or is displayed on the display unit together with photographed image information obtained by the photographing unit.
したがってこの発明によれば、話し手と聞き手との間で互いの視認対象を容易に一致させることができるようにし、これによりコミュニケーションをよりスムーズに行えるようにした遠隔コミュニケーションシステムとこのシステムで使用される方向提示方法及び方向提示プログラムを提供することができる。 Therefore, according to the present invention, it is possible to easily match the visual recognition target between the speaker and the listener, and thereby use the remote communication system that can perform communication more smoothly. A direction presentation method and a direction presentation program can be provided.
以下、図面を参照してこの発明に係わる遠隔コミュニケーションシステムの一実施形態を説明する。この実施形態では、現場作業員の作業をサポート要員が遠隔地から通信ネットワークを介して支援する、いわゆる遠隔作業支援システムを例にとって説明する。
図1はこの実施形態に係わる遠隔作業支援システムの概要を説明するための図である。図示するごとくこのシステムは、現場側システム1とサポート側システム2との間を、通信ネットワークNWを介して接続したものである。
Hereinafter, an embodiment of a remote communication system according to the present invention will be described with reference to the drawings. In this embodiment, a description will be given of a so-called remote work support system in which a support worker supports the work of a field worker from a remote location via a communication network.
FIG. 1 is a diagram for explaining an outline of a remote work support system according to this embodiment. As shown in the figure, this system is a system in which a site-side system 1 and a support-side system 2 are connected via a communication network NW.
現場側システム1には撮影装置CMが設置されている。この撮影装置CMは撮影姿勢を可変することが可能な構成になっており、現場の作業空間の任意の範囲Ecを撮影してその撮影画像情報を通信ネットワークNWを介してサポートシステム2へ伝送するために使用される。また現場作業員の例えば頭部には投影装置PJが取着されている。この投影装置PJは、例えばサポート側システム2から送られる作業支援のための画像情報や文字情報を、現場作業員の目視範囲Epに投影するために使用される。 The on-site system 1 is provided with a photographing apparatus CM. The photographing apparatus CM is configured to be able to change the photographing posture, photographs an arbitrary range Ec of the work space on site, and transmits the photographed image information to the support system 2 via the communication network NW. Used for. A projection device PJ is attached to, for example, the head of a field worker. The projection device PJ is used, for example, to project image information and character information for work support sent from the support side system 2 onto the field worker's visual range Ep.
一方、サポート側システム2には支援用端末MTが設置されている。支援用端末MTは、例えばワークステーション又はパーソナル・コンピュータにより構成され、上記現場側システム1の撮影装置CMから通信ネットワークNWを介して伝送された撮影画像情報を受信して表示部に表示する。また、上記表示された撮影画像情報を見ながらサポート要員が入力した支援情報を、通信ネットワークNWを介して上記現場側システム1の投影装置PJに伝送し、これにより現場作業員の目視範囲Epに投影させる。 On the other hand, a support terminal MT is installed in the support side system 2. The support terminal MT is configured by, for example, a workstation or a personal computer, and receives photographed image information transmitted from the photographing apparatus CM of the field side system 1 via the communication network NW and displays it on the display unit. Further, the support information input by the support personnel while viewing the displayed photographed image information is transmitted to the projection device PJ of the on-site system 1 via the communication network NW, and thereby the viewing range Ep for the on-site worker. Project.
さらに、上記現場側システム1及びサポート側システム2はそれぞれ音声通話機能(図示せず)を備えており、これらの音声通話機能を使用して現場作業員とサポート要員との間で音声通話が可能となっている。この音声通話機能は、現場側システム1では例えば現場作業員が携帯する音声通信端末に設けられ、又サポート側システム2では例えば支援用端末MTに設けられる。 Further, each of the on-site system 1 and the support-side system 2 is provided with a voice call function (not shown), and a voice call can be made between a field worker and a support person using these voice call functions. It has become. This voice call function is provided, for example, in a voice communication terminal carried by a field worker in the field side system 1, and is provided, for example, in a support terminal MT in the support side system 2.
ところで、このような遠隔作業支援システムでは、現場作業員とサポート要員との間で音声通話が行われるとはいえ、現場作業員の目視範囲Epと撮影装置CMの撮影範囲Ecとは常に一致するとは限らない。
そこで、この実施形態に係わる遠隔作業支援システムは、現場作業員の目視方向及び撮影装置CMによる撮影方向を、それぞれ相手側のサポート要員及び現場作業員に知らせるための方向提示機能を備えている。
By the way, in such a remote work support system, although the voice call is performed between the field worker and the support staff, the field worker's visual range Ep and the photographing range Ec of the photographing apparatus CM always coincide with each other. Is not limited.
Therefore, the remote operation support system according to this embodiment has a direction presentation function for notifying the other side support personnel and the field worker of the viewing direction of the field worker and the photographing direction by the photographing apparatus CM, respectively.
この方向提示機能は、例えば図2に示すように、現場側システムでは、投影装置PJにより現場作業員の目視範囲Epに方向提示コンテンツの画像Ipを投影することにより実現される。一方サポート側システム2では、支援用端末MTの表示部22に撮影装置CMの撮影画像情報GSに重ねて方向提示コンテンツの画像Icを表示することにより実現される。方向提示コンテンツの画像Ip,Icはいずれも、図示するごとく楕円型をなす横長の表示範囲31,41内に黒円32,42を表示したものであり、表示範囲31,41内における黒円32,42の位置により撮影装置CMによる撮影方向Fc及び現場作業員の目視方向Fpをそれぞれ提示する。
For example, as shown in FIG. 2, this direction presentation function is realized by projecting an image Ip of the direction presentation content on the field worker's visual range Ep by the projection device PJ in the site side system. On the other hand, the support side system 2 is realized by displaying the image Ic of the direction presentation content on the
図3は、この実施形態に係わる遠隔作業支援システムを実現するための具体的な構成を示すブロック図である。
先ず現場側システム1には、撮影装置CMと、投影装置PJと、全方位カメラ15と、表示処理部18と、ネットワークインタフェース(ネットワークI/F)19が設けてある。撮影装置CMは、カメラ11と、カメラ11の撮影姿勢を可変するカメラ駆動部12と、駆動制御部13と、撮影範囲提示機14とを備える。このうち駆動制御部13は、支援用端末MTから送られる姿勢制御信号に従い上記カメラ駆動部12を駆動制御する。撮影範囲提示機14は例えばレーザポインタ又はプロジェクタからなり、上記カメラ11とともに一体動作する。そして、カメラ11の撮影範囲を示す枠パターンを撮影対象物Qに対し投影する。
FIG. 3 is a block diagram showing a specific configuration for realizing the remote operation support system according to this embodiment.
First, the on-site system 1 is provided with an imaging device CM, a projection device PJ, an omnidirectional camera 15, a
投影装置PJは、プロジェクタ16と、投影範囲提示機17とを備える。プロジェクタ16は、現場作業員の目視範囲Epに画像情報又は文字情報を空間に投影する。投影範囲提示機17は例えばレーザポインタからなり、上記プロジェクタ16による投影範囲Epを表す枠パターンを空間に投影する。なお、上記枠パターンは上記プロジェクタ16から画像情報又は文字情報に重ねて投影するようにしてもよい。この場合には投影範囲提示機17を不要にできる。
The projection device PJ includes a
全方位カメラ15は、現場の作業空間を全方位にわたり撮影する。図15はこの全方位カメラ15の概略構成図である。全方位カメラ15は、全周囲を写すことが可能な円錐形ミラー51と、この円錐形ミラー51により反射された全周囲画像を受光する受光部52とから構成される。そして、受光された全周囲画像を、図16に示すように円錐形ミラー51の角度αずつパノラマ化することにより全方位のパノラマ画像を得る。なお、全方位カメラとしては、必ずしも360°にわたり撮影が可能なものでなくてもよく、例えば180°にわたり撮影が可能なものでもよい。要するに、全方位カメラの撮像範囲は、現場システムの作業空間の範囲に応じて任意に選択可能である。
The omnidirectional camera 15 images the work space on the site in all directions. FIG. 15 is a schematic configuration diagram of the omnidirectional camera 15. The omnidirectional camera 15 includes a
表示処理部18は、支援用端末MTから伝送された作業支援のための表示情報を上記プロジェクタ16に供給して投影させる。また、支援用端末MTからカメラ11の撮像範囲Ecの中心座標値及びプロジェクタ16の投影範囲Epの中心座標値が送られた場合に、これらの中心座標値をもとに、プロジェクタ16の投影範囲Epからカメラ11の撮像範囲Ecへの方向を表す方向提示コンテンツ画像Ipを生成する。そして、この生成された方向提示コンテンツ画像Ipを上記作業支援のための表示情報に合成したのち、上記プロジェクタ16に供給して投影させる。
The
一方、サポート側システム2に設置された支援用端末MTは、キーボードやマウス、ジョイスティック等を使用した入力部21と、液晶表示器(LCD)を使用した表示部22と、画像切替部26と、ネットワークインタフェース(ネットワークI/F)27とを備え、さらに入力データ処理部23と、認識部24と、表示処理部25とを備えている。このうち、入力データ処理部23、認識部24及び表示処理部25はいずれも、プログラムをマイクロコンピュータに実行させることにより実現される。
On the other hand, a support terminal MT installed in the support system 2 includes an
入力データ処理部23は、入力部21においてサポート要員がカメラの駆動操作を行った場合に、その操作に応じてカメラの姿勢を制御するためのカメラ駆動制御情報を生成する。そして、このカメラ駆動制御情報を通信ネットワークNWを介して現場側システム1の駆動制御部13に送信する。
The input
認識部24は、現場側システム1から伝送された全方位カメラ15の撮影画像情報(パノラマ画像情報)を取り込み、このパノラマ画像情報中において、カメラ11の撮像範囲Ecを表す画像パターンと、プロジェクタ16の投影範囲Epを表す画像パターンをそれぞれ認識する。そして、この認識されたカメラ11の撮像範囲Ecを表す画像パターンの中心座標値CO(X1,Y1)を算出すると共に、プロジェクタ16の投影範囲Epを表す画像パターンの中心座標値PO(X2,Y2)を算出する。そして、この算出された各中心座標値CO(X1,Y1)、PO(X2,Y2)を表示処理部25に与えると共に、通信ネットワークNWを介して現場側システム1の表示処理部18へ送信する。
The recognizing unit 24 takes in the captured image information (panoramic image information) of the omnidirectional camera 15 transmitted from the field side system 1, and in this panoramic image information, an image pattern representing the imaging range Ec of the
表示処理部25は、上記与えられた中心座標値CO(X1,Y1)、PO(X2,Y2)をもとに、カメラ11の撮像範囲Ecからプロジェクタ16の投影範囲Epへの方向を表す方向提示コンテンツ画像Icを生成する。そして、この生成された方向提示コンテンツ画像Icを、画像切替部26を介して表示部22に供給し表示させる。
The
画像切替部26は、カメラ11からの撮影画像情報と、全方位カメラ15からの撮影画像情報(パノラマ画像)とを択一的に切り替えて表示部22に供給するもので、入力部21においてサポート要員が切り替え操作を行うことで切り替わる。一般に、定常状態ではカメラ11側に固定され、サポート要員が作業空間全体の様子を確認したい場合や全方位カメラ15の動作点検を行う場合等、必要時にのみ全方位カメラ15側に切り替わる。
The
なお、ネットワークI/F19及び27は、現場側システム1とサポート側システム27との間で、通信ネットワークNWを介して撮影画像情報、表示情報及び制御情報の送受信を行う。通信ネットワークNWとしては、例えばIP(Internet Protocol)網と、このIP網にアクセスするための複数のアクセス網とから構成される。アクセス網としては、例えばDSL(Digital Subscriber Line)や光伝送路を使用する固定網、無線LAN網、PHS(Personal Handyphone System)(登録商標)網、PDC(Personal Digital Cellular)網やIMT2000(International Mobile Telecommunication 2000)網等の移動通信網が想定される。
The network I /
次に、以上のように構成された遠隔作業支援システムの動作を説明する。図4はその制御手順と制御内容を示すフローチャートである。
支援用端末MTは、ステップ4aでサポート要員による終了イベントの入力を監視している。この状態で、終了イベントの入力がなければステップ4bに移行し、ここで画像切替部26が全方位カメラ15からの撮影画像情報を選択しているか、或いはカメラ11からの撮影画像情報を選択しているかを判定する。この判定の結果、画像切替部26がカメラ11からの撮影画像情報を選択している場合には、ステップ4cに移行してここで方向提示コンテンツ画像Ip,Icの表示処理を実行する。そして、この表示処理に続いてステップ4dにより入力部21の入力操作を監視し、入力操作を検出するとステップ4eに移行してここで入力操作に応じたカメラ11の駆動制御処理を実行する。
Next, the operation of the remote work support system configured as described above will be described. FIG. 4 is a flowchart showing the control procedure and control contents.
In
一方、画像切替部26が全方位カメラ15からの撮影画像情報を選択している場合には、上記方向提示コンテンツ画像Ip,Icの表示処理を省略してステップ4dに移行する。そして、このステップ4dにより入力部21の入力操作を監視し、入力操作を検出するとステップ4eにおいて上記入力操作に応じたカメラ11の駆動制御処理を実行する。
On the other hand, when the
さて、上記方向提示コンテンツ画像Ip,Icの表示処理は次のように実行される。図5はその制御手順及び制御内容を示すフローチャートである。
現場側システム1では、作業空間に対しカメラ11の撮影範囲Ecを表す画像パターンが撮影範囲提示機14により投影され、さらにプロジェクタ16の投影範囲Epを表す画像パターンが投影提示機17により投影される。そして、これらの画像パターンが投影された作業空間が全方位カメラ15により撮影され、その撮影画像情報、つまりパノラマ画像情報が通信ネットワークNWを介してサポート側システム2の支援用端末MTに伝送される。
Now, the display processing of the direction presentation content images Ip and Ic is executed as follows. FIG. 5 is a flowchart showing the control procedure and control contents.
In the on-site system 1, an image pattern representing the imaging range Ec of the
支援用端末MTは、先ず現場側システム1から全方位カメラ15により撮影されたパノラマ画像情報を通信ネットワークNWを介して取得する。そして、認識部24により、上記取得されたパノラマ画像情報において例えばパターン認識処理を行うことで、カメラ11の撮影範囲Ecをステップ5aで認識すると共に、プロジェクタ16の投影範囲Epをステップ5bで認識する。
The support terminal MT first acquires panoramic image information photographed by the omnidirectional camera 15 from the field side system 1 via the communication network NW. Then, the recognition unit 24 performs pattern recognition processing on the acquired panoramic image information, for example, thereby recognizing the shooting range Ec of the
続いてステップ5c,5dにおいて、認識部24により上記認識されたカメラ11の撮影範囲Ecと、プロジェクタ16の投影範囲Epとが重なっているか否かを判定する。そして、重なっていると判定された場合には、その旨の情報を現場側システム1の表示処理部18及びサポート側システム2の表示処理部25にそれぞれ通知する。表示処理部18,25は、ステップ5jにおいて上記通知された情報をもとにカメラ11の撮影範囲Ecと、プロジェクタ16の投影範囲Epとが重なっていることを表す方向提示コンテンツ画像Ip,Icを生成する。そして、生成された方向提示コンテンツ画像Ipをプロジェクタ16に供給して投影範囲Epに投影させ、また生成された方向提示コンテンツ画像Icを表示部22に供給して表示させる。このとき生成される方向提示コンテンツ画像Ip,Icは、例えば図13(b)の二点鎖線32′に示すように、黒円32を楕円範囲31の中央に配置したものとなる。
Subsequently, in
一方、上記認識されたカメラ11の撮影範囲Ecと、プロジェクタ16の投影範囲Epとが、図2に示すように重なっていなかったとする。この場合支援用端末MTは、ステップ5eに移行して、認識部24により上記認識されたカメラ11の撮像範囲Ecを表す画像パターンの中心座標値CO(X1,Y1)を算出すると共に、プロジェクタ16の投影範囲Epを表す画像パターンの中心座標値PO(X2,Y2)を算出する。
On the other hand, it is assumed that the recognized shooting range Ec of the
上記各中心座標値CO(X1,Y1)、PO(X2,Y2)の算出は次のように行われる。
すなわち、先ず全方位カメラ15の撮影範囲Eoを図11に示すように空間座標系X,Yで表す。このような空間座標系X,Yにより表されるパノラマ画像情報において、いま仮にカメラ11の撮像範囲Ec及びプロジェクタ16の投影範囲Epがそれぞれ図12(a)に示す位置に撮影されていたとする。
The calculation of the central coordinate values CO (X1, Y1) and PO (X2, Y2) is performed as follows.
That is, first, the imaging range Eo of the omnidirectional camera 15 is represented by spatial coordinate systems X and Y as shown in FIG. In such panoramic image information represented by the spatial coordinate systems X and Y, it is assumed that the imaging range Ec of the
このとき、パノラマ画像の水平方向の長さをLX、垂直方向の長さをLYとし、さらに空間座標の基準点からカメラ11の撮像範囲Ecの端部までの距離をL1、プロジェクタの投影範囲Epの端部までの距離をL2とすると共に、カメラ11の撮像範囲Ecの水平方向の長さをLC、プロジェクタの投影範囲Epの水平方向の長さをLPとすると、カメラ11の撮像範囲Ecの中心座標値CO(X1,Y1)のX1と、プロジェクタ16の投影範囲Epの中心座標値PO(X2,Y2)のX2はそれぞれ、以下の式により算出される。
X1=L1+(LC/2)
X2=L2+(LP/2)
また、カメラ11の撮像範囲Ecの中心座標値CO(X1,Y1)のY1と、プロジェクタ16の投影範囲Epの中心座標値PO(X2,Y2)のY2についても、同様に算出される。
At this time, the horizontal length of the panoramic image is LX, the vertical length is LY, the distance from the reference point of the spatial coordinates to the end of the imaging range Ec of the
X1 = L1 + (LC / 2)
X2 = L2 + (LP / 2)
Further, Y1 of the center coordinate value CO (X1, Y1) of the imaging range Ec of the
かくして、カメラ11の撮像範囲Ecの中心座標値CO(X1,Y1)と、プロジェクタ16の投影範囲Epの中心座標値PO(X2,Y2)が算出される。図12(b)にその算出結果の一例を示す。なお、上記空間座標上で表される各長さは、画像の大きさを表すものであるためここではピクセルにより表すが、画像の大きさを表す単位を統一的に用いるのであれば、如何なる単位を用いても問題はない。
Thus, the center coordinate value CO (X1, Y1) of the imaging range Ec of the
次に、支援用端末MTはステップ5fに移行し、認識部24により上記算出された各中心座標値CO(X1,Y1)、PO(X2,Y2)を表示処理部25に供給すると共に、通信ネットワークNWを介して現場側システム1の表示処理部18へ送信する。上記各中心座標値CO(X1,Y1)、PO(X2,Y2)を受け取ると、現場側システム1の表示処理部18はステップ5gにより方向提示コンテンツ画像Ipを生成してプロジェクタ16に供給する。また、サポート側システムの表示処理部25は、ステップ5hにより方向提示コンテンツ画像Icを生成して表示部22に供給する。
Next, the support terminal MT proceeds to step 5f, and supplies the center coordinate values CO (X1, Y1) and PO (X2, Y2) calculated by the recognition unit 24 to the
以下、図13を用いて上記方向提示コンテンツ画像Ip,Icの生成手法を説明する。先ずプロジェクタ16の投影範囲Epにおける方向提示コンテンツ画像Ipの表示位置とその大きさ、及び表示部22のカメラ画像表示領域における方向提示コンテンツ画像Icの表示位置とその大きさは、予め設定される。
Hereinafter, a method of generating the direction presentation content images Ip and Ic will be described with reference to FIG. First, the display position and size of the direction presentation content image Ip in the projection range Ep of the
例えば、図13(a),(b)に示すように方向提示コンテンツ画像Ipの表示位置はプロジェクタ16の投影範囲Epの中央上端部に設定される。また、方向提示コンテンツ画像Ipの形状は人の目を模した楕円形状に設定される。方向提示コンテンツ画像Ipは、楕円形の範囲31内を白く描画し、その内部に人の目の黒目を模した黒円32を配置する。そして、提示方向に応じて、この黒円32の中心33が上記楕円範囲31内に設定された楕円軌跡34に沿って移動するように描画する。図14はその一例を示すもので、黒円32はその中心33が、白く描画した楕円形の中心(長軸と短軸との交点)O(Ox,Oy)とカメラ11撮影範囲Ecの座標中心CO(X1,Y1)とを結ぶ直線と、上記楕円形の軌跡34とが交差する点に位置するように描画される。
For example, as shown in FIGS. 13A and 13B, the display position of the direction presentation content image Ip is set at the center upper end of the projection range Ep of the
そして、上記のように生成された方向提示コンテンツ画像Ipは、ステップ5iにおいてプロジェクタ16により現場作業員の目視範囲Epに投影される。図9(a)は、その表示結果の一例を示すもので、カメラ11の撮影範囲Ecが現場作業員の目視範囲Epの右方向に位置する場合を示している。
And the direction presentation content image Ip produced | generated as mentioned above is projected on the visual field Ep of a field worker by the
したがって、現場作業員は上記方向提示コンテンツ画像Ipによりカメラ11の撮影範囲Ecの方向を把握することができる。そして、自身の頭の向きを右方向に回転させるか又は体ごと右方向へ平行移動すれば、自身の目視範囲Epをカメラ11の撮影範囲Ecに一致させることができる。図9(b)は上記移動に伴う方向提示コンテンツ画像Ipの変化の例を示すものである。
Therefore, the field worker can grasp the direction of the shooting range Ec of the
また、このときサポート側システム2の支援用端末MTにおいては、表示処理部25により黒円32の位置が左寄りに位置する方向提示コンテンツ画像Icが生成され、この生成された方向提示コンテンツ画像Icが表示部22の表示画面GSに表示される。図10(a)にその表示結果の一例を示す。そして、この状態で上記したように現場作業員が頭の向きを右方向に回転させるか又は体ごと右方向へ平行移動すると、この移動に伴い方向提示コンテンツ画像Icは図10(b)のように変化する。
At this time, in the support terminal MT of the support side system 2, the
一方、支援用端末MTの表示部22に、例えば図8(a)のように黒円32が楕円範囲31の左寄りに位置した方向提示コンテンツ画像Icが表示されると、サポート要員は上記方向提示コンテンツ画像Icにより、現場作業員の目視範囲Epがカメラ11の撮影範囲Ecの左方向にあると把握できる。
On the other hand, when the direction presentation content image Ic in which the
そして、この状態でサポート要員が入力部21のジョイスティックを操作すると、支援用端末MTは図4に示すようにステップ4dからステップ4eに移行し、ここで次のようにカメラ11の姿勢制御処理を実行する。図6はその制御手順と制御内容を示すフローチャートである。
When the support staff operates the joystick of the
すなわち、上記入力部21のジョイスティックが操作されると、入力データ処理部25において上記操作方向と操作量に応じてカメラ制御情報が生成される。このカメラ制御情報はステップ6aにより通信ネットワークNWを介して現場側システム1の駆動制御部13に伝送される。駆動制御部13は、上記伝送されたカメラ制御情報をもとにカメラの姿勢を可変制御するための駆動信号を発生し、この駆動信号をカメラ駆動部12に供給する(ステップ6b)。カメラ駆動部12は、ステップ6cにおいて上記駆動信号により動作してカメラ11の姿勢を変化させる。
That is, when the joystick of the
かくして、カメラ11の撮影方向は左方向に移動し、この結果カメラ11の撮影範囲Ecは現場作業員の目視範囲Epと一致する。図8(b)は上記カメラ11の姿勢の変化に伴う方向提示コンテンツ画像Icの変化の例を示すものである。
また、このとき現場側システム1では、上記サポート要員によるカメラ11の左旋回操作Aにより、方向提示コンテンツ画像Ipは図7(a)に示す状態から図7(b)に示す状態に変化する。
Thus, the shooting direction of the
At this time, in the on-site system 1, the direction presentation content image Ip changes from the state shown in FIG. 7A to the state shown in FIG. 7B by the left turn operation A of the
以上述べたようにこの実施形態では、現場側システム1において、作業空間に、カメラ11の撮影範囲Ecを表す画像を撮影範囲提示機14により投影すると共に、現場作業員の目視範囲Epを示す画像を投影範囲提示機17により投影し、これらの画像が投影された作業空間を全方位カメラ15により撮影してその撮影画像情報を通信ネットワークNWを介してサポート側システム2へ伝送する。サポート側システム2では、認識部24により、上記伝送された全方位カメラ15の撮影画像情報から上記カメラ11の撮影範囲Ec及び現場作業員の目視範囲Epをそれぞれ認識してその座標中心を算出する。そして、その算出結果をもとに表示処理部25でカメラ11の撮影範囲Ecから現場作業員の目視範囲Epへの方向を示す方向提示コンテンツ画像Icを生成し、この生成された方向提示コンテンツ画像Icを表示部22に表示する。またそれと共に、上記座標中心の算出結果を通信ネットワークNWを介して現場側システム1の表示処理部18に伝送し、この表示処理部18により現場作業員の目視範囲Epからカメラ11の撮影範囲Ecへの方向を示す方向提示コンテンツ画像Ipを生成し、この生成された方向提示コンテンツ画像Ipをプロジェクタ17により現場作業員の目視範囲Epへ投影するようにしている。
As described above, in this embodiment, in the site-side system 1, an image representing the imaging range Ec of the
したがって、現場作業員は自身の目視範囲Epに投影された方向提示コンテンツ画像Ipによりカメラ11の撮影範囲Ecの方向をスムーズに把握することができ、これにより例えば自身の頭の向きを右方向に回転させるか又は体ごと右方向へ平行移動することで、自身の目視範囲Epをカメラ11の撮影範囲Ecに迅速に一致させることができる。
Accordingly, the field worker can smoothly grasp the direction of the shooting range Ec of the
また、サポート要員は上記表示部22に表示された方向提示コンテンツ画像Icにより、現場作業員の目視範囲Epの方向をスムーズに把握することができ、これにより例えばカメラ11の姿勢を遠隔操作することでカメラ11の撮影範囲Ecを現場作業員の目視範囲Epに迅速に一致させることができる。
Further, the support personnel can smoothly grasp the direction of the visual field Ep of the field worker from the direction presenting content image Ic displayed on the
さらにこの実施形態では、全方位カメラ15の撮影画像情報をもとにカメラ11の撮影範囲Ec及び現場作業員の目視範囲Epをそれぞれ認識するようにしているので、現場作業員が作業空間のどの方向を向いていても、またカメラ11が作業空間のどの方向を撮影していても、その方向を確実に検出して提示することができる。
Further, in this embodiment, since the shooting range Ec of the
なお、この発明は上記実施形態に限定されるものではない。例えば、全方位カメラ15の撮影画像情報から求めたカメラ11の撮影範囲Ec及び現場作業員の目視範囲Epの座標中心をもとに、カメラ11の撮影範囲Ecと現場作業員の目視範囲Epとの距離を算出する。そして、方向と上記算出された距離を表す方向提示コンテンツ画像を生成して投影及び表示するようにしてもよい。例えば、図13等に示したように人の目を模した方向提示コンテンツ画像Ip,Icを生成する場合には、楕円形範囲31の中心から黒丸32中心までの距離を上記算出された距離に比例して設定することにより、上記距離を表現する。なお、方向については前記実施形態と同じである。
The present invention is not limited to the above embodiment. For example, based on the coordinate range of the shooting range Ec of the
このようにすると、現場作業員及びサポート要員はともに目視方向と同時に、カメラ11の撮影範囲Ecまでの距離、及び現場作業員の目視範囲Epまでの距離を認識することが可能となり、これにより現場作業員の目視範囲Ep及びカメラ11の撮影範囲Ecを迅速かつ正確に修正することが可能となる。
In this way, both the field worker and the support staff can recognize the distance to the shooting range Ec of the
また、前記実施形態では人の目を模した方向提示コンテンツ画像Ic,Ipを生成し投影及び表示するようにしたが、矢印等の他のマークを用いてもよく、また文字による方向提示メッセージを生成して投影及び表示するようにしてもよい。さらに前記実施形態では、現場側システム1及びサポート側システム2の両方において方向提示コンテンツ画像Ic,Ipを投影及び表示するようにしたが、いずれか一方のみで投影又は表示するようにしてもよい。 In the above embodiment, the direction presentation content images Ic and Ip imitating human eyes are generated, projected, and displayed. However, other marks such as arrows may be used, and a direction presentation message using characters may be displayed. It may be generated and projected and displayed. Furthermore, in the said embodiment, although direction presentation content image Ic, Ip was projected and displayed in both the field side system 1 and the support side system 2, you may make it project or display only by either one.
さらに、現場作業員の目視範囲を検出する手段としては、例えば位置センサやジャイロなどを使用した方向センサを現場作業員に取着し、この方向センサにより現場作業員の目視方向を検出してその検出情報を通信ネットワークを介してサポート側システムに伝送するようにしてもよい。 Furthermore, as a means for detecting the visual range of the field worker, for example, a direction sensor using a position sensor or a gyroscope is attached to the field worker, and the visual direction of the field worker is detected by this direction sensor. The detection information may be transmitted to the support system via a communication network.
さらに前記実施形態では、サポート側システム2の支援用端末MTにおいてカメラ11の撮影範囲Ec及び現場作業員の目視範囲Epをそれぞれ認識するようにしたが、例えば現場作業員が携帯する情報端末や、撮像装置或いは投影装置において認識するようにしてもよい。また方向提示コンテンツ画像Ic,Ipは、現場側システム1及びサポート側システム2で別々に生成せずに、現場側システム1またはサポート側システム2のいずれか一方で統括的に生成するようにしてもよい。
Further, in the embodiment, the support terminal MT of the support system 2 recognizes the imaging range Ec of the
その他、遠隔コミュニケーションの目的や種類、システム構成、撮像装置の種類や構成、投影装置の種類や構成、通信ネットワークの種類や構成、方向判定手段等についても、この発明の要旨を逸脱しない範囲で種々変形して実施できる。 In addition, the purpose and type of remote communication, the system configuration, the type and configuration of the imaging device, the type and configuration of the projection device, the type and configuration of the communication network, the direction determination means, and the like are variously within the scope of the present invention. It can be implemented with deformation.
要するにこの発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。 In short, the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Further, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, you may combine suitably the component covering different embodiment.
1…現場側システム、2…サポート側システム、NW…通信ネットワーク、CM…撮影装置、PJ…投影装置、MT…支援用端末、11…カメラ、12…カメラ駆動部、13…駆動制御部、14…撮影範囲提示機、15…全方位カメラ、16…プロジェクタ、17…投影範囲提示機、18…表示処理部、19…現場システムのネットワークI/F、21…入力部、22…表示部、23…入力データ処理部、24…認識部、25…表示処理部、26…画像切替部、27…サポート側システムのネットワークI/F。 DESCRIPTION OF SYMBOLS 1 ... Site side system, 2 ... Support side system, NW ... Communication network, CM ... Imaging device, PJ ... Projection device, MT ... Supporting terminal, 11 ... Camera, 12 ... Camera drive part, 13 ... Drive control part, 14 DESCRIPTION OF SYMBOLS ... Shooting range presentation machine, 15 ... Omni-directional camera, 16 ... Projector, 17 ... Projection range presentation machine, 18 ... Display processing part, 19 ... Network system I / F of field system, 21 ... Input part, 22 ... Display part, 23 ... input data processing unit, 24 ... recognition unit, 25 ... display processing unit, 26 ... image switching unit, 27 ... network I / F of support side system.
Claims (6)
前記第1の話者が存在する空間内における、前記撮影手段の撮影範囲及び第1の話者の目視範囲をそれぞれ検出する検出手段と、
前記検出された撮影範囲及び目視範囲をもとに、当該目視範囲から撮影範囲への方向を判定する判定手段と、
前記検出された撮影範囲及び目視範囲をもとに、当該撮影範囲と目視範囲との距離を算出する手段と、
前記判定された方向及び前記算出された距離を表す画像情報を生成し、この生成された画像情報を前記第1の話者の目視範囲内に投影する投影手段と
を具備し、
かつ前記検出手段は、
前記第1の話者が存在する空間に、前記撮影手段による撮影範囲を表す撮影範囲提示画像を投射する手段と、
前記第1の話者が存在する空間に、当該第1の話者の目視範囲を表す目視範囲提示画像を投射する手段と、
前記第1の話者が存在する空間を撮影する全方位撮影手段と、
前記全方位撮影手段により得られる撮影画像情報から、前記撮影範囲提示画像及び目視範囲提示画像を検出する手段と
を備えることを特徴とする遠隔コミュニケーションシステム。 A first speaker and a second speaker existing in different spaces photograph an arbitrary object in the space where the first speaker exists by photographing means, and the second speaker captures the captured image information. In a remote communication system that communicates while viewing both of the above objects by displaying on a display means installed in an existing space,
Detecting means for detecting a shooting range of the shooting means and a visual range of the first speaker in a space where the first speaker exists;
Determination means for determining a direction from the visual range to the photographing range based on the detected photographing range and the visual range;
Based on the detected shooting range and viewing range, means for calculating the distance between the shooting range and the viewing range;
Projecting means for generating image information representing the determined direction and the calculated distance , and projecting the generated image information within the viewing range of the first speaker ;
And the detection means includes
Means for projecting a photographing range presentation image representing a photographing range by the photographing means to a space where the first speaker exists;
Means for projecting a visual range presentation image representing the visual range of the first speaker into a space where the first speaker exists;
Omnidirectional photographing means for photographing a space in which the first speaker exists;
Means for detecting the photographing range presentation image and the visual range presentation image from the photographed image information obtained by the omnidirectional photographing means;
Remote communication system, characterized in that it comprises a.
前記第1の話者が存在する空間内における、前記撮影手段の撮影範囲及び第1の話者の目視範囲をそれぞれ検出する検出手段と、
前記検出された撮影範囲及び目視範囲をもとに、当該撮影範囲から目視範囲への方向を判定する判定手段と、
前記検出された撮影範囲及び目視範囲をもとに、当該撮影範囲と目視範囲との距離を算出する手段と、
前記判定された方向及び前記算出された距離を表す画像情報を生成し、この生成された画像情報を前記撮影手段により得られる撮影画像情報と共に前記表示手段に表示させる表示制御手段と
を具備し、
かつ前記検出手段は、
前記第1の話者が存在する空間に、前記撮影手段による撮影範囲を表す撮影範囲提示画像を投射する手段と、
前記第1の話者が存在する空間に、当該第1の話者の目視範囲を表す目視範囲提示画像を投射する手段と、
前記第1の話者が存在する空間を撮影する全方位撮影手段と、
前記全方位撮影手段により得られる撮影画像情報から、前記撮影範囲提示画像及び目視範囲提示画像を検出する手段と
を備えることを特徴とする遠隔コミュニケーションシステム。 A first speaker and a second speaker existing in different spaces pick up an image of an arbitrary target in the space where the first speaker exists, and the captured image information is captured by the second speaker. In a remote communication system that performs communication while visually observing both of the above objects by displaying on a display means installed in a space where
Detecting means for detecting a shooting range of the shooting means and a visual range of the first speaker in a space where the first speaker exists;
Based on the detected shooting range and viewing range, a determination unit that determines a direction from the shooting range to the viewing range;
Based on the detected shooting range and viewing range, means for calculating the distance between the shooting range and the viewing range;
Display control means for generating image information representing the determined direction and the calculated distance, and displaying the generated image information on the display means together with photographed image information obtained by the photographing means ;
And the detection means includes
Means for projecting a photographing range presentation image representing a photographing range by the photographing means to a space where the first speaker exists;
Means for projecting a visual range presentation image representing the visual range of the first speaker into a space where the first speaker exists;
Omnidirectional photographing means for photographing a space in which the first speaker exists;
Means for detecting the photographing range presentation image and the visual range presentation image from the photographed image information obtained by the omnidirectional photographing means;
Remote communication system, characterized in that it comprises a.
前記第1の話者が存在する空間内における、前記撮影範囲及び第1の話者の目視範囲をそれぞれ検出する過程と、
前記検出された撮影範囲及び目視範囲をもとに、当該目視範囲から撮影範囲への方向を判定する過程と、
前記検出された撮影範囲及び目視範囲をもとに、当該撮影範囲と目視範囲との距離を算出する過程と、
前記判定された方向及び前記算出された距離を表す画像情報を生成し、この生成された画像情報を前記第1の話者の目視範囲内に投影する過程と
を具備し、
かつ前記検出する過程は、
前記第1の話者が存在する空間に、前記撮影範囲を表す撮影範囲提示画像を投射する過程と、
前記第1の話者が存在する空間に、当該第1の話者の目視範囲を表す目視範囲提示画像を投射する過程と、
前記第1の話者が存在する空間の全方位を撮影する過程と、
前記全方位の撮影により得られる撮影画像情報から、前記撮影範囲提示画像及び目視範囲提示画像を認識する過程と
を備えることを特徴とする方向提示方法。 A first speaker and a second speaker existing in different spaces photograph an arbitrary object in the space where the first speaker exists by photographing means, and the second speaker captures the captured image information. By displaying on the display means installed in the existing space, when communicating while viewing the above object together,
Detecting the shooting range and the viewing range of the first speaker in a space where the first speaker exists;
Based on the detected shooting range and viewing range, determining the direction from the viewing range to the shooting range;
Based on the detected shooting range and viewing range, a process of calculating the distance between the shooting range and the viewing range;
Generating image information representing the determined direction and the calculated distance , and projecting the generated image information within the viewing range of the first speaker ,
And the detecting process includes:
Projecting a shooting range presentation image representing the shooting range into a space where the first speaker exists;
Projecting a visual range presentation image representing the visual range of the first speaker into a space where the first speaker exists;
Photographing all directions of the space where the first speaker exists;
A process of recognizing the shooting range presentation image and the viewing range presentation image from the shooting image information obtained by shooting in all directions.
Direction presentation method, characterized in that it comprises a.
前記第1の話者が存在する空間内における、前記撮影手段の撮影範囲及び第1の話者の目視範囲をそれぞれ検出する過程と、
前記検出された撮影範囲及び目視範囲をもとに、当該撮影範囲から目視範囲への方向を判定する過程と、
前記検出された撮影範囲及び目視範囲をもとに、当該撮影範囲と目視範囲との距離を算出する過程と、
前記判定された方向及び前記算出された距離を表す画像情報を生成し、この生成された画像情報を前記撮影画像情報と共に前記表示手段に表示させる過程と
を具備し、
かつ前記検出する過程は、
前記第1の話者が存在する空間に、前記撮影範囲を表す撮影範囲提示画像を投射する過程と、
前記第1の話者が存在する空間に、当該第1の話者の目視範囲を表す目視範囲提示画像を投射する過程と、
前記第1の話者が存在する空間の全方位を撮影する過程と、
前記全方位の撮影により得られる撮影画像情報から、前記撮影範囲提示画像及び目視範囲提示画像を認識する過程と
を備えることを特徴とする方向提示方法。 A first speaker and a second speaker existing in different spaces photograph an arbitrary object in the space where the first speaker exists by photographing means, and the second speaker captures the captured image information. By displaying on the display means installed in the existing space, when communicating while viewing the above object together,
Detecting a shooting range of the shooting means and a viewing range of the first speaker in a space where the first speaker exists;
Based on the detected shooting range and viewing range, a process of determining the direction from the shooting range to the viewing range;
Based on the detected shooting range and viewing range, a process of calculating the distance between the shooting range and the viewing range;
Generating image information representing the determined direction and the calculated distance, and displaying the generated image information together with the captured image information on the display means,
And the detecting process includes:
Projecting a shooting range presentation image representing the shooting range into a space where the first speaker exists;
Projecting a visual range presentation image representing the visual range of the first speaker into a space where the first speaker exists;
Photographing all directions of the space where the first speaker exists;
A process of recognizing the shooting range presentation image and the viewing range presentation image from the shooting image information obtained by shooting in all directions.
Direction presentation method, characterized in that it comprises a.
前記第1の空間内における、前記撮影範囲及び第1の話者の目視範囲をそれぞれ検出する処理と、
前記検出された撮影範囲及び目視範囲をもとに、当該目視範囲から撮影範囲への方向を判定する処理と、
前記検出された撮影範囲及び目視範囲をもとに、当該撮影範囲と目視範囲との距離を算出する処理と、
前記判定された方向及び前記算出された距離を表す画像情報を生成する処理と、
前記生成された画像情報を、前記投影手段により第1の話者の目視範囲に投影させる処理と
を、前記コンピュータに実行させ、
かつ前記検出する処理では、
前記第1の話者が存在する空間に、前記撮影範囲を表す撮影範囲提示画像を投射する処理と、
前記第1の話者が存在する空間に、当該第1の話者の目視範囲を表す目視範囲提示画像を投射する処理と、
前記第1の話者が存在する空間の全方位を撮影する処理と、
前記全方位の撮影により得られる撮影画像情報から、前記撮影範囲提示画像及び目視範囲提示画像を認識する処理と
を、前記コンピュータに実行させることを特徴とする方向提示プログラム。 A first speaker and a second speaker existing in different spaces photograph an arbitrary object in the space where the first speaker exists by photographing means, and the second speaker captures the captured image information. Projecting means for performing communication while visually observing both of the objects by displaying on a display means installed in an existing space, and projecting an image on the viewing range of the first speaker, and a computer A direction presentation program used in a remote communication system,
A process for detecting the shooting range and the viewing range of the first speaker in the first space;
Based on the detected shooting range and viewing range, processing to determine the direction from the viewing range to the shooting range;
Based on the detected shooting range and viewing range, a process for calculating the distance between the shooting range and the viewing range;
Processing for generating image information representing the determined direction and the calculated distance ;
Causing the computer to execute a process of projecting the generated image information onto the viewing range of the first speaker by the projection unit ;
In the detection process,
A process of projecting a shooting range presentation image representing the shooting range in a space where the first speaker exists;
A process of projecting a visual range presentation image representing the visual range of the first speaker into a space where the first speaker exists;
A process of photographing all directions of the space where the first speaker exists;
Processing for recognizing the shooting range presentation image and the viewing range presentation image from the shooting image information obtained by shooting in all directions.
The direction presentation program characterized Rukoto is executed on the computer.
前記第1の空間内における、前記撮影手段の撮影範囲及び第1の話者の目視範囲をそれぞれ検出する処理と、
前記検出された撮影範囲及び目視範囲をもとに、当該撮影範囲から目視範囲への方向を判定する処理と、
前記検出された撮影範囲及び目視範囲をもとに、当該撮影範囲と目視範囲との距離を算出する処理と、
前記判定された方向及び前記算出された距離を表す画像情報を生成する処理と、
前記生成された画像情報を、前記撮影手段により得られる撮影画像情報と共に前記表示手段に表示させる処理と
を、前記コンピュータに実行させ、
かつ前記検出する処理では、
前記第1の話者が存在する空間に、前記撮影範囲を表す撮影範囲提示画像を投射する処理と、
前記第1の話者が存在する空間に、当該第1の話者の目視範囲を表す目視範囲提示画像を投射する処理と、
前記第1の話者が存在する空間の全方位を撮影する処理と、
前記全方位の撮影により得られる撮影画像情報から、前記撮影範囲提示画像及び目視範囲提示画像を認識する処理と
を、前記コンピュータに実行させることを特徴とする方向提示プログラム。 A first speaker and a second speaker existing in different spaces photograph an arbitrary object in the space where the first speaker exists by photographing means, and the second speaker captures the captured image information. A direction presenting program used in a remote communication system equipped with a computer that performs communication while visually observing both of the above objects by displaying on a display means installed in an existing space,
A process for detecting the shooting range of the shooting means and the viewing range of the first speaker in the first space;
Based on the detected shooting range and viewing range, processing to determine the direction from the shooting range to the viewing range;
Based on the detected shooting range and viewing range, a process for calculating the distance between the shooting range and the viewing range;
Processing for generating image information representing the determined direction and the calculated distance ;
Causing the computer to execute a process of displaying the generated image information on the display unit together with the captured image information obtained by the imaging unit ,
In the detection process,
A process of projecting a shooting range presentation image representing the shooting range in a space where the first speaker exists;
A process of projecting a visual range presentation image representing the visual range of the first speaker into a space where the first speaker exists;
A process of photographing all directions of the space where the first speaker exists;
Processing for recognizing the shooting range presentation image and the viewing range presentation image from the shooting image information obtained by shooting in all directions.
The direction presentation program characterized Rukoto is executed on the computer.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004372097A JP4485933B2 (en) | 2004-12-22 | 2004-12-22 | Remote communication system, direction presentation method and direction presentation program used in this system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004372097A JP4485933B2 (en) | 2004-12-22 | 2004-12-22 | Remote communication system, direction presentation method and direction presentation program used in this system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006180278A JP2006180278A (en) | 2006-07-06 |
JP4485933B2 true JP4485933B2 (en) | 2010-06-23 |
Family
ID=36733946
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004372097A Expired - Fee Related JP4485933B2 (en) | 2004-12-22 | 2004-12-22 | Remote communication system, direction presentation method and direction presentation program used in this system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4485933B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5637385B2 (en) * | 2010-12-27 | 2014-12-10 | 清水建設株式会社 | Construction status recording system |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003037840A (en) * | 2001-07-24 | 2003-02-07 | Nippon Telegr & Teleph Corp <Ntt> | Method of controlling direction of laser pointer and apparatus therefor |
JP2003209832A (en) * | 2002-01-11 | 2003-07-25 | National Institute Of Advanced Industrial & Technology | Remote environment guide apparatus |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06253295A (en) * | 1993-02-24 | 1994-09-09 | Nippon Telegr & Teleph Corp <Ntt> | Space scanning image pickup display device |
JPH08275046A (en) * | 1995-03-29 | 1996-10-18 | Canon Inc | Image pickup device |
JPH11298872A (en) * | 1998-04-07 | 1999-10-29 | Toshiba Corp | Video communication system |
-
2004
- 2004-12-22 JP JP2004372097A patent/JP4485933B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003037840A (en) * | 2001-07-24 | 2003-02-07 | Nippon Telegr & Teleph Corp <Ntt> | Method of controlling direction of laser pointer and apparatus therefor |
JP2003209832A (en) * | 2002-01-11 | 2003-07-25 | National Institute Of Advanced Industrial & Technology | Remote environment guide apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP2006180278A (en) | 2006-07-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10642564B2 (en) | Display system, display device, information display method, and program | |
US10523871B2 (en) | Imaging system and imaging control method with display of image with vertical alignment | |
JP5966510B2 (en) | Information processing system | |
US20070177013A1 (en) | Remote instruction system, remote instruction method, and program product for remote instruction | |
CN110266941A (en) | A kind of panorama shooting method and terminal device | |
JP2012029136A (en) | Control device for automatic tracking camera system, and automatic tracking camera system having the same | |
JP2021010101A (en) | Remote work support system | |
US20210400234A1 (en) | Information processing apparatus, information processing method, and program | |
US9438805B2 (en) | Terminal device and image capturing method | |
JP2005117285A (en) | Information input device, communication terminal and communication method | |
JP4485933B2 (en) | Remote communication system, direction presentation method and direction presentation program used in this system | |
JP5233768B2 (en) | COMMUNICATION SUPPORT SYSTEM, DISPLAY CONTROL DEVICE, AND DISPLAY CONTROL METHOD | |
JP2017062650A (en) | Display system, display unit, information display method, and program | |
JPH11298872A (en) | Video communication system | |
US11610343B2 (en) | Video display control apparatus, method, and non-transitory computer readable medium | |
JP2005303683A (en) | Image transceiver | |
JP2010015127A (en) | Information display apparatus | |
JP2019012432A (en) | Work support system, device, method, and computer program | |
JP2018018315A (en) | Display system, display unit, information display method, and program | |
JP6436606B1 (en) | Medical video system | |
CN111860213A (en) | Augmented reality system and control method thereof | |
JP2006246352A (en) | Remote work support system, apparatus on its work side, and mobile robot | |
WO2017098999A1 (en) | Information-processing device, information-processing system, method for controlling information-processing device, and computer program | |
US11831976B2 (en) | Display apparatus | |
JP2004320175A (en) | Monitoring camera system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070222 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20091224 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100105 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100218 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100323 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100325 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130402 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140402 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |