JP4485933B2 - Remote communication system, direction presentation method and direction presentation program used in this system - Google Patents

Remote communication system, direction presentation method and direction presentation program used in this system Download PDF

Info

Publication number
JP4485933B2
JP4485933B2 JP2004372097A JP2004372097A JP4485933B2 JP 4485933 B2 JP4485933 B2 JP 4485933B2 JP 2004372097 A JP2004372097 A JP 2004372097A JP 2004372097 A JP2004372097 A JP 2004372097A JP 4485933 B2 JP4485933 B2 JP 4485933B2
Authority
JP
Japan
Prior art keywords
range
speaker
shooting
space
viewing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004372097A
Other languages
Japanese (ja)
Other versions
JP2006180278A (en
Inventor
博昭 河田
敏 岩城
義人 南條
保 町野
義正 柳原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2004372097A priority Critical patent/JP4485933B2/en
Publication of JP2006180278A publication Critical patent/JP2006180278A/en
Application granted granted Critical
Publication of JP4485933B2 publication Critical patent/JP4485933B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

この発明は、例えば現場作業員の作業を遠隔地から画像通信を使用して支援する遠隔コミュニケーションシステムと、このシステムで使用される方向提示方法及び方向提示プログラムに関する。   The present invention relates to a remote communication system that supports, for example, work of field workers from a remote location using image communication, and a direction presentation method and a direction presentation program used in this system.

例えば、現場作業員とその支援者との間で通信を利用して会話を行っている場合に、聞き手が題材となる対象物の形状や存在位置を把握することは、話し手の意図を理解する上で非常に重要である。しかし、対象物の形状や存在位置を話し手が口頭で正確に伝えることは一般に難しい。   For example, when a conversation is conducted between a field worker and their supporter using communication, the listener understands the intention of the speaker by grasping the shape and location of the target object. Is very important above. However, it is generally difficult for a speaker to verbally and accurately convey the shape and location of an object.

そこで、聞き手側にカメラとレーザポインタを設置し、カメラにより聞き手側の実空間の状態を撮像してこれを音声画像通信により話し手側に送ってモニタ表示すると共に、その表示画像を見ながら話し手がレーザポインタの指示位置を遠隔操作して対象物又はそれを含む範囲をポインティングすることにより、聞き手が対象物を直に視認してその形状等を把握できるようにした技術が提案されている(例えば、特許文献1を参照)。
この技術を用いれば、話し手と聞き手との間で互いの視認対象物又は範囲を容易に一致させることができ、これにより話し手の説明負担が軽減されてよりスムーズな支援のためのコミュニケーションが可能となる。
特開2002−125024公報
Therefore, a camera and a laser pointer are installed on the listener side, the real space state on the listener side is imaged by the camera, and this is sent to the speaker side by voice image communication and displayed on the monitor. A technique has been proposed in which a listener can directly view an object and grasp its shape and the like by pointing the object or a range including the object by remotely operating the indicated position of the laser pointer (for example, , See Patent Document 1).
Using this technology, it is possible to easily match each other's visual objects or ranges between the speaker and the listener, thereby reducing the speaker's explanation burden and enabling smoother communication for support. Become.
JP 2002-125024 A

ところが、前述した技術では、聞き手がポインティング対象物又は範囲から目をそらしている間に、話し手が別の対象物又は範囲にポインティング位置を移動させると、聞き手はポインティング位置を探し直さなければならなくなり、その間コミュニケーションの中断を余儀なくされるという問題がある。また、一般にカメラによる撮像範囲は聞き手側の実空間の一部に限られる。このため、聞き手が別の方向を向きその視野がカメラの撮像範囲から外れると、話し手は聞き手の視野をモニタ画面から把握することができなくなり、この場合にもコミュニケーションがスムーズに行えなくなる。   However, with the techniques described above, if the speaker moves the pointing position to another object or range while the listener is looking away from the pointing object or range, the listener must re-find the pointing position. In the meantime, there is a problem that communication is forced to be interrupted. In general, the imaging range of the camera is limited to a part of the real space on the listener side. For this reason, if the listener turns in a different direction and the field of view deviates from the imaging range of the camera, the speaker cannot grasp the listener's field of view from the monitor screen, and in this case, communication cannot be performed smoothly.

この発明は上記事情に着目してなされたもので、その目的とするところは、話し手と聞き手との間で互いの視認対象を容易に一致させることができるようにし、これによりコミュニケーションをよりスムーズに行えるようにした遠隔コミュニケーションシステムとこのシステムで使用される方向提示方法及びプログラムを提供することにある。   The present invention has been made paying attention to the above circumstances, and the purpose of the present invention is to make it possible to easily match each other's visual recognition target between a speaker and a listener, thereby making communication smoother. An object of the present invention is to provide a remote communication system that can be used and a direction presentation method and program used in this system.

上記目的を達成するために第1の発明は、異なる空間に存在する第1の話者と第2の話者が、第1の話者が存在する空間内の任意の対象を撮影手段により撮影してその撮影画像情報を第2の話者が存在する空間に設置された表示手段に表示することにより、上記対象を共に目視しながらコミュニケーションを行う遠隔コミュニケーションシステムにおいて、第1の話者が存在する空間内における、上記撮影手段の撮影範囲及び第1の話者の目視範囲をそれぞれ検出する。そして、この検出された撮影範囲及び目視範囲をもとに当該目視範囲から撮影範囲への方向を判定すると共に、撮影範囲と目視範囲との距離を算出し、この判定された方向及び算出された距離を表す画像情報を生成して、この生成された画像情報を上記第1の話者の目視範囲内に投影するようにしたものである。 In order to achieve the above object, according to a first aspect of the present invention, a first speaker and a second speaker existing in different spaces photograph an arbitrary object in a space where the first speaker exists by a photographing means. In the remote communication system in which communication is performed while viewing both of the above objects by displaying the captured image information on the display means installed in the space where the second speaker exists, the first speaker exists. The shooting range of the shooting means and the viewing range of the first speaker in the space to be detected are respectively detected. Then, based on the detected imaging range and visual range, to determine the direction of the shooting range of the visual range, and calculates the distance between the shooting scope and visual range, it is the the determined direction and the calculated The image information representing the distance is generated, and the generated image information is projected within the visual range of the first speaker.

したがって第1の発明によれば、第1の話者が、第2の話者に提示されている撮像範囲とは異なる範囲を目視している場合に、当該目視範囲から撮影範囲への方向を表す画像情報が生成されてこの画像情報が第1の話者の目視範囲に投影される。このため、第1の話者は目前に投影された画像により、第2の話者が目視している撮像範囲の方向を容易に認識することができ、この認識結果をもとに自身の位置又は姿勢を変えることで、自身の目視範囲を第2の話者が目視している撮像範囲と円滑に一致させることが可能となる。   Therefore, according to the first invention, when the first speaker is viewing a range different from the imaging range presented to the second speaker, the direction from the viewing range to the imaging range is changed. Representing image information is generated and this image information is projected onto the viewing range of the first speaker. For this reason, the first speaker can easily recognize the direction of the imaging range viewed by the second speaker from the image projected in front of him, and his / her position based on the recognition result. Alternatively, by changing the posture, it is possible to smoothly match its own viewing range with the imaging range that the second speaker is viewing.

また第1の発明によれば、第1の話者は、第2の話者が目視している撮像範囲の方向と共に、現在の自身の目視範囲から上記撮像範囲までの距離を認識することが可能となる。したがって、この認識結果をもとに第1の話者は自身の位置又は姿勢を迅速かつ正確に変えることが可能となり、これにより自身の目視範囲を第2の話者が目視している撮像範囲に対しより一層スムーズに一致させることが可能となる。 According to the first invention , the first speaker can recognize the distance from the current viewing range to the imaging range along with the direction of the imaging range viewed by the second speaker. It becomes possible. Therefore, the first speaker can quickly and accurately change his / her position or posture based on the recognition result, and thereby the imaging range in which the second speaker is viewing his / her viewing range. It becomes possible to make it correspond even more smoothly.

一方、上記目的を達成するために第2の発明は、異なる空間に存在する第1の話者と第2の話者が、第1の話者が存在する空間内の任意の対象を撮影手段により撮像してその撮影画像情報を上記第2の話者が存在する空間に設置された表示手段に表示することにより、上記対象を共に目視しながらコミュニケーションを行う遠隔コミュニケーションシステムにおいて、上記第1の話者が存在する空間内における上記撮影手段の撮影範囲及び第1の話者の目視範囲をそれぞれ検出する。そして、この検出された撮影範囲及び目視範囲をもとに当該撮影範囲から目視範囲への方向を判定すると共に、撮影範囲と目視範囲との距離を算出し、この判定された方向及び算出された距離を表す画像情報を生成して、この生成された画像情報を上記撮影手段により得られる撮影画像情報と共に上記表示手段に表示させるようにしたものである。 On the other hand, in order to achieve the above-mentioned object, the second invention provides a photographing means for photographing an arbitrary object in a space in which the first speaker and the second speaker existing in different spaces exist. In the remote communication system in which communication is performed while visually observing the target together by displaying the captured image information on the display means installed in the space where the second speaker is present. The photographing range of the photographing means and the visual range of the first speaker are detected in the space where the speaker is present. Then, based on the detected imaging range and visual range, to determine the direction of the visual range of the shooting range, and calculates the distance between the shooting scope and visual range, it is the the determined direction and the calculated Image information representing the measured distance is generated, and the generated image information is displayed on the display unit together with the captured image information obtained by the imaging unit.

したがって第2の発明によれば、撮影手段が、第1の話者の目視範囲とは異なる範囲を撮影している場合に、当該撮影範囲から第1の話者の目視範囲への方向を表す画像情報が生成されて、この画像情報が第2の話者が視認している表示手段に表示される。このため、第2の話者は表示された上記画像情報により、第1の話者の目視範囲の方向を容易に認識することができる。そして、この認識結果をもとに、例えば上記撮像手段の姿勢を遠隔的に制御することで、撮像手段の撮像範囲を第1の話者の目視範囲と円滑に一致させることが可能となる。   Therefore, according to the second invention, when the photographing means is photographing a range different from the visual range of the first speaker, the direction from the photographing range to the visual range of the first speaker is expressed. Image information is generated, and this image information is displayed on the display means being visually recognized by the second speaker. For this reason, the second speaker can easily recognize the direction of the visual range of the first speaker from the displayed image information. And based on this recognition result, for example, by remotely controlling the attitude of the imaging means, the imaging range of the imaging means can be smoothly matched with the visual range of the first speaker.

また、第2の発明によれば、第2の話者は、第1の話者の目視範囲の方向と同時に、撮影手段による現在の撮影範囲から上記第1の話者の目視範囲までの距離を認識することができる。したがって、この認識結果をもとに第2の話者は撮影手段の姿勢を迅速かつ正確に変えることが可能となり、これにより撮影手段の撮影範囲を第1の話者の目視範囲に対しより一層スムーズに一致させることが可能となる。 In addition, according to the second invention , the second speaker can measure the distance from the current shooting range by the shooting means to the first speaker's viewing range simultaneously with the direction of the first speaker's viewing range. Can be recognized. Therefore, the second speaker can quickly and accurately change the posture of the photographing means based on the recognition result, and thereby the photographing range of the photographing means is further increased with respect to the visual range of the first speaker. Smooth matching is possible.

さらに第1及び第2の発明において、上記検出手段は、上記第1の話者が存在する空間に上記撮影手段による撮影範囲を表す撮影範囲提示画像を投射する手段と、上記第1の話者が存在する空間に、当該第1の話者の目視範囲を表す目視範囲提示画像を投射する手段と、上記第1の話者が存在する空間を撮影する全方位撮影手段と、上記全方位撮影手段により得られる撮影画像情報から、上記撮影範囲提示画像及び目視範囲提示画像を検出する手段とを備えるように構成することも特徴とする。
このようにすると、第1の話者の目視範囲及び撮影手段の撮影範囲が、第1の話者が存在する空間内のどこにあっても、これらの位置を確実に検出することが可能となる。
Further, in the first and second inventions, the detection means projects a shooting range presentation image representing a shooting range by the shooting means into a space where the first speaker exists, and the first speaker. Means for projecting a visual range presenting image representing the visual range of the first speaker, a omnidirectional photographing means for photographing the space where the first speaker is present, and the omnidirectional photographing. It is also characterized by comprising means for detecting the photographing range presentation image and the visual range presentation image from the photographed image information obtained by the means.
In this way, it is possible to reliably detect the position of the first speaker's viewing range and the shooting range of the shooting means anywhere in the space where the first speaker exists. .

要するにこの発明では、第1の話者が存在する空間内における上記撮影手段の撮影範囲及び第1の話者の目視範囲をそれぞれ検出し、この検出された撮影範囲及び目視範囲をもとに当該撮影範囲から目視範囲への方向を判定すると共に撮影範囲と目視範囲との距離を算出して、この判定された方向及び算出された距離を表す画像情報を第1の話者の目視範囲内に投影するか、又は上記撮影手段により得られる撮影画像情報と共に上記表示手段に表示させるようにしている。 In short, in the present invention, the photographing range of the photographing means and the visual range of the first speaker in the space where the first speaker is present are detected, respectively, and based on the detected photographing range and visual range, together determine the direction of the imaging range to visually range, by calculating the distance between the shooting scope and visual range, the image information representing the the determined direction and the calculated distance in the visual range of the first speaker Or is displayed on the display unit together with photographed image information obtained by the photographing unit.

したがってこの発明によれば、話し手と聞き手との間で互いの視認対象を容易に一致させることができるようにし、これによりコミュニケーションをよりスムーズに行えるようにした遠隔コミュニケーションシステムとこのシステムで使用される方向提示方法及び方向提示プログラムを提供することができる。   Therefore, according to the present invention, it is possible to easily match the visual recognition target between the speaker and the listener, and thereby use the remote communication system that can perform communication more smoothly. A direction presentation method and a direction presentation program can be provided.

以下、図面を参照してこの発明に係わる遠隔コミュニケーションシステムの一実施形態を説明する。この実施形態では、現場作業員の作業をサポート要員が遠隔地から通信ネットワークを介して支援する、いわゆる遠隔作業支援システムを例にとって説明する。
図1はこの実施形態に係わる遠隔作業支援システムの概要を説明するための図である。図示するごとくこのシステムは、現場側システム1とサポート側システム2との間を、通信ネットワークNWを介して接続したものである。
Hereinafter, an embodiment of a remote communication system according to the present invention will be described with reference to the drawings. In this embodiment, a description will be given of a so-called remote work support system in which a support worker supports the work of a field worker from a remote location via a communication network.
FIG. 1 is a diagram for explaining an outline of a remote work support system according to this embodiment. As shown in the figure, this system is a system in which a site-side system 1 and a support-side system 2 are connected via a communication network NW.

現場側システム1には撮影装置CMが設置されている。この撮影装置CMは撮影姿勢を可変することが可能な構成になっており、現場の作業空間の任意の範囲Ecを撮影してその撮影画像情報を通信ネットワークNWを介してサポートシステム2へ伝送するために使用される。また現場作業員の例えば頭部には投影装置PJが取着されている。この投影装置PJは、例えばサポート側システム2から送られる作業支援のための画像情報や文字情報を、現場作業員の目視範囲Epに投影するために使用される。   The on-site system 1 is provided with a photographing apparatus CM. The photographing apparatus CM is configured to be able to change the photographing posture, photographs an arbitrary range Ec of the work space on site, and transmits the photographed image information to the support system 2 via the communication network NW. Used for. A projection device PJ is attached to, for example, the head of a field worker. The projection device PJ is used, for example, to project image information and character information for work support sent from the support side system 2 onto the field worker's visual range Ep.

一方、サポート側システム2には支援用端末MTが設置されている。支援用端末MTは、例えばワークステーション又はパーソナル・コンピュータにより構成され、上記現場側システム1の撮影装置CMから通信ネットワークNWを介して伝送された撮影画像情報を受信して表示部に表示する。また、上記表示された撮影画像情報を見ながらサポート要員が入力した支援情報を、通信ネットワークNWを介して上記現場側システム1の投影装置PJに伝送し、これにより現場作業員の目視範囲Epに投影させる。   On the other hand, a support terminal MT is installed in the support side system 2. The support terminal MT is configured by, for example, a workstation or a personal computer, and receives photographed image information transmitted from the photographing apparatus CM of the field side system 1 via the communication network NW and displays it on the display unit. Further, the support information input by the support personnel while viewing the displayed photographed image information is transmitted to the projection device PJ of the on-site system 1 via the communication network NW, and thereby the viewing range Ep for the on-site worker. Project.

さらに、上記現場側システム1及びサポート側システム2はそれぞれ音声通話機能(図示せず)を備えており、これらの音声通話機能を使用して現場作業員とサポート要員との間で音声通話が可能となっている。この音声通話機能は、現場側システム1では例えば現場作業員が携帯する音声通信端末に設けられ、又サポート側システム2では例えば支援用端末MTに設けられる。   Further, each of the on-site system 1 and the support-side system 2 is provided with a voice call function (not shown), and a voice call can be made between a field worker and a support person using these voice call functions. It has become. This voice call function is provided, for example, in a voice communication terminal carried by a field worker in the field side system 1, and is provided, for example, in a support terminal MT in the support side system 2.

ところで、このような遠隔作業支援システムでは、現場作業員とサポート要員との間で音声通話が行われるとはいえ、現場作業員の目視範囲Epと撮影装置CMの撮影範囲Ecとは常に一致するとは限らない。
そこで、この実施形態に係わる遠隔作業支援システムは、現場作業員の目視方向及び撮影装置CMによる撮影方向を、それぞれ相手側のサポート要員及び現場作業員に知らせるための方向提示機能を備えている。
By the way, in such a remote work support system, although the voice call is performed between the field worker and the support staff, the field worker's visual range Ep and the photographing range Ec of the photographing apparatus CM always coincide with each other. Is not limited.
Therefore, the remote operation support system according to this embodiment has a direction presentation function for notifying the other side support personnel and the field worker of the viewing direction of the field worker and the photographing direction by the photographing apparatus CM, respectively.

この方向提示機能は、例えば図2に示すように、現場側システムでは、投影装置PJにより現場作業員の目視範囲Epに方向提示コンテンツの画像Ipを投影することにより実現される。一方サポート側システム2では、支援用端末MTの表示部22に撮影装置CMの撮影画像情報GSに重ねて方向提示コンテンツの画像Icを表示することにより実現される。方向提示コンテンツの画像Ip,Icはいずれも、図示するごとく楕円型をなす横長の表示範囲31,41内に黒円32,42を表示したものであり、表示範囲31,41内における黒円32,42の位置により撮影装置CMによる撮影方向Fc及び現場作業員の目視方向Fpをそれぞれ提示する。   For example, as shown in FIG. 2, this direction presentation function is realized by projecting an image Ip of the direction presentation content on the field worker's visual range Ep by the projection device PJ in the site side system. On the other hand, the support side system 2 is realized by displaying the image Ic of the direction presentation content on the display unit 22 of the support terminal MT so as to overlap the captured image information GS of the imaging apparatus CM. Both the images Ip and Ic of the direction presentation content are obtained by displaying black circles 32 and 42 in the horizontally long display ranges 31 and 41 having an elliptical shape as shown in the figure, and the black circles 32 in the display ranges 31 and 41 are displayed. , 42, the photographing direction Fc by the photographing device CM and the visual direction Fp of the field worker are respectively presented.

図3は、この実施形態に係わる遠隔作業支援システムを実現するための具体的な構成を示すブロック図である。
先ず現場側システム1には、撮影装置CMと、投影装置PJと、全方位カメラ15と、表示処理部18と、ネットワークインタフェース(ネットワークI/F)19が設けてある。撮影装置CMは、カメラ11と、カメラ11の撮影姿勢を可変するカメラ駆動部12と、駆動制御部13と、撮影範囲提示機14とを備える。このうち駆動制御部13は、支援用端末MTから送られる姿勢制御信号に従い上記カメラ駆動部12を駆動制御する。撮影範囲提示機14は例えばレーザポインタ又はプロジェクタからなり、上記カメラ11とともに一体動作する。そして、カメラ11の撮影範囲を示す枠パターンを撮影対象物Qに対し投影する。
FIG. 3 is a block diagram showing a specific configuration for realizing the remote operation support system according to this embodiment.
First, the on-site system 1 is provided with an imaging device CM, a projection device PJ, an omnidirectional camera 15, a display processing unit 18, and a network interface (network I / F) 19. The photographing apparatus CM includes a camera 11, a camera driving unit 12 that changes the photographing posture of the camera 11, a drive control unit 13, and a photographing range presentation device 14. Among them, the drive control unit 13 controls the drive of the camera drive unit 12 in accordance with the attitude control signal sent from the support terminal MT. The photographing range presenting device 14 is composed of, for example, a laser pointer or a projector and operates integrally with the camera 11. Then, a frame pattern indicating the shooting range of the camera 11 is projected onto the shooting target Q.

投影装置PJは、プロジェクタ16と、投影範囲提示機17とを備える。プロジェクタ16は、現場作業員の目視範囲Epに画像情報又は文字情報を空間に投影する。投影範囲提示機17は例えばレーザポインタからなり、上記プロジェクタ16による投影範囲Epを表す枠パターンを空間に投影する。なお、上記枠パターンは上記プロジェクタ16から画像情報又は文字情報に重ねて投影するようにしてもよい。この場合には投影範囲提示機17を不要にできる。   The projection device PJ includes a projector 16 and a projection range presenter 17. The projector 16 projects image information or character information onto a space within the field worker's visual range Ep. The projection range presenter 17 is composed of a laser pointer, for example, and projects a frame pattern representing the projection range Ep by the projector 16 onto the space. Note that the frame pattern may be projected from the projector 16 so as to overlap image information or character information. In this case, the projection range presenter 17 can be dispensed with.

全方位カメラ15は、現場の作業空間を全方位にわたり撮影する。図15はこの全方位カメラ15の概略構成図である。全方位カメラ15は、全周囲を写すことが可能な円錐形ミラー51と、この円錐形ミラー51により反射された全周囲画像を受光する受光部52とから構成される。そして、受光された全周囲画像を、図16に示すように円錐形ミラー51の角度αずつパノラマ化することにより全方位のパノラマ画像を得る。なお、全方位カメラとしては、必ずしも360°にわたり撮影が可能なものでなくてもよく、例えば180°にわたり撮影が可能なものでもよい。要するに、全方位カメラの撮像範囲は、現場システムの作業空間の範囲に応じて任意に選択可能である。   The omnidirectional camera 15 images the work space on the site in all directions. FIG. 15 is a schematic configuration diagram of the omnidirectional camera 15. The omnidirectional camera 15 includes a conical mirror 51 that can capture the entire periphery, and a light receiving unit 52 that receives the entire peripheral image reflected by the conical mirror 51. Then, the omnidirectional panoramic image is obtained by panning the received omnidirectional image by the angle α of the conical mirror 51 as shown in FIG. Note that the omnidirectional camera does not necessarily have to be capable of photographing over 360 °, and may be capable of photographing over, for example, 180 °. In short, the imaging range of the omnidirectional camera can be arbitrarily selected according to the range of the work space of the field system.

表示処理部18は、支援用端末MTから伝送された作業支援のための表示情報を上記プロジェクタ16に供給して投影させる。また、支援用端末MTからカメラ11の撮像範囲Ecの中心座標値及びプロジェクタ16の投影範囲Epの中心座標値が送られた場合に、これらの中心座標値をもとに、プロジェクタ16の投影範囲Epからカメラ11の撮像範囲Ecへの方向を表す方向提示コンテンツ画像Ipを生成する。そして、この生成された方向提示コンテンツ画像Ipを上記作業支援のための表示情報に合成したのち、上記プロジェクタ16に供給して投影させる。   The display processing unit 18 supplies display information for work support transmitted from the support terminal MT to the projector 16 for projection. When the center coordinate value of the imaging range Ec of the camera 11 and the center coordinate value of the projection range Ep of the projector 16 are sent from the support terminal MT, the projection range of the projector 16 is based on these center coordinate values. A direction presentation content image Ip representing the direction from Ep to the imaging range Ec of the camera 11 is generated. The generated direction presentation content image Ip is combined with the display information for work support, and then supplied to the projector 16 for projection.

一方、サポート側システム2に設置された支援用端末MTは、キーボードやマウス、ジョイスティック等を使用した入力部21と、液晶表示器(LCD)を使用した表示部22と、画像切替部26と、ネットワークインタフェース(ネットワークI/F)27とを備え、さらに入力データ処理部23と、認識部24と、表示処理部25とを備えている。このうち、入力データ処理部23、認識部24及び表示処理部25はいずれも、プログラムをマイクロコンピュータに実行させることにより実現される。   On the other hand, a support terminal MT installed in the support system 2 includes an input unit 21 using a keyboard, a mouse, a joystick, etc., a display unit 22 using a liquid crystal display (LCD), an image switching unit 26, A network interface (network I / F) 27 is provided, and an input data processing unit 23, a recognition unit 24, and a display processing unit 25 are further provided. Among these, the input data processing unit 23, the recognition unit 24, and the display processing unit 25 are all realized by causing a microcomputer to execute a program.

入力データ処理部23は、入力部21においてサポート要員がカメラの駆動操作を行った場合に、その操作に応じてカメラの姿勢を制御するためのカメラ駆動制御情報を生成する。そして、このカメラ駆動制御情報を通信ネットワークNWを介して現場側システム1の駆動制御部13に送信する。   The input data processing unit 23 generates camera drive control information for controlling the posture of the camera according to the operation when the support person performs a drive operation of the camera in the input unit 21. And this camera drive control information is transmitted to the drive control part 13 of the field side system 1 via the communication network NW.

認識部24は、現場側システム1から伝送された全方位カメラ15の撮影画像情報(パノラマ画像情報)を取り込み、このパノラマ画像情報中において、カメラ11の撮像範囲Ecを表す画像パターンと、プロジェクタ16の投影範囲Epを表す画像パターンをそれぞれ認識する。そして、この認識されたカメラ11の撮像範囲Ecを表す画像パターンの中心座標値CO(X1,Y1)を算出すると共に、プロジェクタ16の投影範囲Epを表す画像パターンの中心座標値PO(X2,Y2)を算出する。そして、この算出された各中心座標値CO(X1,Y1)、PO(X2,Y2)を表示処理部25に与えると共に、通信ネットワークNWを介して現場側システム1の表示処理部18へ送信する。   The recognizing unit 24 takes in the captured image information (panoramic image information) of the omnidirectional camera 15 transmitted from the field side system 1, and in this panoramic image information, an image pattern representing the imaging range Ec of the camera 11, and the projector 16. Each of the image patterns representing the projection range Ep is recognized. Then, the center coordinate value CO (X1, Y1) of the image pattern representing the recognized imaging range Ec of the camera 11 is calculated, and the center coordinate value PO (X2, Y2) of the image pattern representing the projection range Ep of the projector 16 is calculated. ) Is calculated. Then, the calculated center coordinate values CO (X1, Y1) and PO (X2, Y2) are given to the display processing unit 25 and transmitted to the display processing unit 18 of the site system 1 via the communication network NW. .

表示処理部25は、上記与えられた中心座標値CO(X1,Y1)、PO(X2,Y2)をもとに、カメラ11の撮像範囲Ecからプロジェクタ16の投影範囲Epへの方向を表す方向提示コンテンツ画像Icを生成する。そして、この生成された方向提示コンテンツ画像Icを、画像切替部26を介して表示部22に供給し表示させる。   The display processing unit 25 represents a direction representing the direction from the imaging range Ec of the camera 11 to the projection range Ep of the projector 16 based on the given center coordinate values CO (X1, Y1) and PO (X2, Y2). A presentation content image Ic is generated. Then, the generated direction presentation content image Ic is supplied to the display unit 22 via the image switching unit 26 and displayed.

画像切替部26は、カメラ11からの撮影画像情報と、全方位カメラ15からの撮影画像情報(パノラマ画像)とを択一的に切り替えて表示部22に供給するもので、入力部21においてサポート要員が切り替え操作を行うことで切り替わる。一般に、定常状態ではカメラ11側に固定され、サポート要員が作業空間全体の様子を確認したい場合や全方位カメラ15の動作点検を行う場合等、必要時にのみ全方位カメラ15側に切り替わる。   The image switching unit 26 selectively switches the captured image information from the camera 11 and the captured image information (panoramic image) from the omnidirectional camera 15 and supplies it to the display unit 22. It is switched when the personnel perform the switching operation. Generally, it is fixed to the camera 11 side in a steady state, and is switched to the omnidirectional camera 15 side only when necessary, for example, when a support person wants to check the state of the entire work space or to check the operation of the omnidirectional camera 15.

なお、ネットワークI/F19及び27は、現場側システム1とサポート側システム27との間で、通信ネットワークNWを介して撮影画像情報、表示情報及び制御情報の送受信を行う。通信ネットワークNWとしては、例えばIP(Internet Protocol)網と、このIP網にアクセスするための複数のアクセス網とから構成される。アクセス網としては、例えばDSL(Digital Subscriber Line)や光伝送路を使用する固定網、無線LAN網、PHS(Personal Handyphone System)(登録商標)網、PDC(Personal Digital Cellular)網やIMT2000(International Mobile Telecommunication 2000)網等の移動通信網が想定される。   The network I / Fs 19 and 27 transmit and receive captured image information, display information, and control information between the site-side system 1 and the support-side system 27 via the communication network NW. The communication network NW includes, for example, an IP (Internet Protocol) network and a plurality of access networks for accessing the IP network. Examples of the access network include a fixed network using DSL (Digital Subscriber Line) and an optical transmission line, a wireless LAN network, a PHS (Personal Handyphone System) (registered trademark) network, a PDC (Personal Digital Cellular) network, and an IMT2000 (International Mobile A mobile communication network such as the Telecommunication 2000) network is assumed.

次に、以上のように構成された遠隔作業支援システムの動作を説明する。図4はその制御手順と制御内容を示すフローチャートである。
支援用端末MTは、ステップ4aでサポート要員による終了イベントの入力を監視している。この状態で、終了イベントの入力がなければステップ4bに移行し、ここで画像切替部26が全方位カメラ15からの撮影画像情報を選択しているか、或いはカメラ11からの撮影画像情報を選択しているかを判定する。この判定の結果、画像切替部26がカメラ11からの撮影画像情報を選択している場合には、ステップ4cに移行してここで方向提示コンテンツ画像Ip,Icの表示処理を実行する。そして、この表示処理に続いてステップ4dにより入力部21の入力操作を監視し、入力操作を検出するとステップ4eに移行してここで入力操作に応じたカメラ11の駆動制御処理を実行する。
Next, the operation of the remote work support system configured as described above will be described. FIG. 4 is a flowchart showing the control procedure and control contents.
In step 4a, the support terminal MT monitors the input of the end event by the support personnel. In this state, if there is no input of an end event, the process proceeds to step 4b, where the image switching unit 26 selects photographed image information from the omnidirectional camera 15, or selects photographed image information from the camera 11. Judge whether it is. If the result of this determination is that the image switching unit 26 has selected photographed image information from the camera 11, the process proceeds to step 4c where display processing of the direction presentation content images Ip and Ic is executed. Then, following this display process, the input operation of the input unit 21 is monitored in step 4d. When the input operation is detected, the process proceeds to step 4e, where the drive control process of the camera 11 corresponding to the input operation is executed.

一方、画像切替部26が全方位カメラ15からの撮影画像情報を選択している場合には、上記方向提示コンテンツ画像Ip,Icの表示処理を省略してステップ4dに移行する。そして、このステップ4dにより入力部21の入力操作を監視し、入力操作を検出するとステップ4eにおいて上記入力操作に応じたカメラ11の駆動制御処理を実行する。   On the other hand, when the image switching unit 26 has selected the captured image information from the omnidirectional camera 15, the display processing of the direction presentation content images Ip and Ic is omitted, and the process proceeds to step 4d. In step 4d, the input operation of the input unit 21 is monitored. When the input operation is detected, the drive control process of the camera 11 corresponding to the input operation is executed in step 4e.

さて、上記方向提示コンテンツ画像Ip,Icの表示処理は次のように実行される。図5はその制御手順及び制御内容を示すフローチャートである。
現場側システム1では、作業空間に対しカメラ11の撮影範囲Ecを表す画像パターンが撮影範囲提示機14により投影され、さらにプロジェクタ16の投影範囲Epを表す画像パターンが投影提示機17により投影される。そして、これらの画像パターンが投影された作業空間が全方位カメラ15により撮影され、その撮影画像情報、つまりパノラマ画像情報が通信ネットワークNWを介してサポート側システム2の支援用端末MTに伝送される。
Now, the display processing of the direction presentation content images Ip and Ic is executed as follows. FIG. 5 is a flowchart showing the control procedure and control contents.
In the on-site system 1, an image pattern representing the imaging range Ec of the camera 11 is projected onto the work space by the imaging range presentation device 14, and an image pattern representing the projection range Ep of the projector 16 is projected by the projection presentation device 17. . Then, the work space on which these image patterns are projected is photographed by the omnidirectional camera 15, and the photographed image information, that is, panoramic image information, is transmitted to the support terminal MT of the support side system 2 via the communication network NW. .

支援用端末MTは、先ず現場側システム1から全方位カメラ15により撮影されたパノラマ画像情報を通信ネットワークNWを介して取得する。そして、認識部24により、上記取得されたパノラマ画像情報において例えばパターン認識処理を行うことで、カメラ11の撮影範囲Ecをステップ5aで認識すると共に、プロジェクタ16の投影範囲Epをステップ5bで認識する。   The support terminal MT first acquires panoramic image information photographed by the omnidirectional camera 15 from the field side system 1 via the communication network NW. Then, the recognition unit 24 performs pattern recognition processing on the acquired panoramic image information, for example, thereby recognizing the shooting range Ec of the camera 11 in step 5a and recognizing the projection range Ep of the projector 16 in step 5b. .

続いてステップ5c,5dにおいて、認識部24により上記認識されたカメラ11の撮影範囲Ecと、プロジェクタ16の投影範囲Epとが重なっているか否かを判定する。そして、重なっていると判定された場合には、その旨の情報を現場側システム1の表示処理部18及びサポート側システム2の表示処理部25にそれぞれ通知する。表示処理部18,25は、ステップ5jにおいて上記通知された情報をもとにカメラ11の撮影範囲Ecと、プロジェクタ16の投影範囲Epとが重なっていることを表す方向提示コンテンツ画像Ip,Icを生成する。そして、生成された方向提示コンテンツ画像Ipをプロジェクタ16に供給して投影範囲Epに投影させ、また生成された方向提示コンテンツ画像Icを表示部22に供給して表示させる。このとき生成される方向提示コンテンツ画像Ip,Icは、例えば図13(b)の二点鎖線32′に示すように、黒円32を楕円範囲31の中央に配置したものとなる。   Subsequently, in steps 5c and 5d, it is determined whether or not the imaging range Ec of the camera 11 recognized by the recognition unit 24 and the projection range Ep of the projector 16 overlap. When it is determined that they overlap, information to that effect is notified to the display processing unit 18 of the on-site system 1 and the display processing unit 25 of the support side system 2, respectively. The display processing units 18 and 25 display the direction presentation content images Ip and Ic indicating that the shooting range Ec of the camera 11 and the projection range Ep of the projector 16 overlap based on the information notified in step 5j. Generate. Then, the generated direction presentation content image Ip is supplied to the projector 16 and projected onto the projection range Ep, and the generated direction presentation content image Ic is supplied to the display unit 22 for display. The direction presentation content images Ip and Ic generated at this time are obtained by arranging a black circle 32 at the center of the ellipse range 31 as indicated by a two-dot chain line 32 'in FIG.

一方、上記認識されたカメラ11の撮影範囲Ecと、プロジェクタ16の投影範囲Epとが、図2に示すように重なっていなかったとする。この場合支援用端末MTは、ステップ5eに移行して、認識部24により上記認識されたカメラ11の撮像範囲Ecを表す画像パターンの中心座標値CO(X1,Y1)を算出すると共に、プロジェクタ16の投影範囲Epを表す画像パターンの中心座標値PO(X2,Y2)を算出する。   On the other hand, it is assumed that the recognized shooting range Ec of the camera 11 and the projection range Ep of the projector 16 do not overlap as shown in FIG. In this case, the support terminal MT proceeds to step 5e to calculate the center coordinate value CO (X1, Y1) of the image pattern representing the imaging range Ec of the camera 11 recognized by the recognition unit 24 and the projector 16 The center coordinate value PO (X2, Y2) of the image pattern representing the projection range Ep is calculated.

上記各中心座標値CO(X1,Y1)、PO(X2,Y2)の算出は次のように行われる。
すなわち、先ず全方位カメラ15の撮影範囲Eoを図11に示すように空間座標系X,Yで表す。このような空間座標系X,Yにより表されるパノラマ画像情報において、いま仮にカメラ11の撮像範囲Ec及びプロジェクタ16の投影範囲Epがそれぞれ図12(a)に示す位置に撮影されていたとする。
The calculation of the central coordinate values CO (X1, Y1) and PO (X2, Y2) is performed as follows.
That is, first, the imaging range Eo of the omnidirectional camera 15 is represented by spatial coordinate systems X and Y as shown in FIG. In such panoramic image information represented by the spatial coordinate systems X and Y, it is assumed that the imaging range Ec of the camera 11 and the projection range Ep of the projector 16 are respectively captured at the positions shown in FIG.

このとき、パノラマ画像の水平方向の長さをLX、垂直方向の長さをLYとし、さらに空間座標の基準点からカメラ11の撮像範囲Ecの端部までの距離をL1、プロジェクタの投影範囲Epの端部までの距離をL2とすると共に、カメラ11の撮像範囲Ecの水平方向の長さをLC、プロジェクタの投影範囲Epの水平方向の長さをLPとすると、カメラ11の撮像範囲Ecの中心座標値CO(X1,Y1)のX1と、プロジェクタ16の投影範囲Epの中心座標値PO(X2,Y2)のX2はそれぞれ、以下の式により算出される。
X1=L1+(LC/2)
X2=L2+(LP/2)
また、カメラ11の撮像範囲Ecの中心座標値CO(X1,Y1)のY1と、プロジェクタ16の投影範囲Epの中心座標値PO(X2,Y2)のY2についても、同様に算出される。
At this time, the horizontal length of the panoramic image is LX, the vertical length is LY, the distance from the reference point of the spatial coordinates to the end of the imaging range Ec of the camera 11 is L1, and the projection range Ep of the projector The distance to the end of the camera 11 is L2, the horizontal length of the imaging range Ec of the camera 11 is LC, and the horizontal length of the projection range Ep of the projector is LP. X1 of the central coordinate value CO (X1, Y1) and X2 of the central coordinate value PO (X2, Y2) of the projection range Ep of the projector 16 are respectively calculated by the following equations.
X1 = L1 + (LC / 2)
X2 = L2 + (LP / 2)
Further, Y1 of the center coordinate value CO (X1, Y1) of the imaging range Ec of the camera 11 and Y2 of the center coordinate value PO (X2, Y2) of the projection range Ep of the projector 16 are calculated in the same manner.

かくして、カメラ11の撮像範囲Ecの中心座標値CO(X1,Y1)と、プロジェクタ16の投影範囲Epの中心座標値PO(X2,Y2)が算出される。図12(b)にその算出結果の一例を示す。なお、上記空間座標上で表される各長さは、画像の大きさを表すものであるためここではピクセルにより表すが、画像の大きさを表す単位を統一的に用いるのであれば、如何なる単位を用いても問題はない。   Thus, the center coordinate value CO (X1, Y1) of the imaging range Ec of the camera 11 and the center coordinate value PO (X2, Y2) of the projection range Ep of the projector 16 are calculated. FIG. 12B shows an example of the calculation result. Each length represented on the spatial coordinates represents the size of the image, and is represented by a pixel here. However, if the unit representing the size of the image is used uniformly, any unit is used. There is no problem with using.

次に、支援用端末MTはステップ5fに移行し、認識部24により上記算出された各中心座標値CO(X1,Y1)、PO(X2,Y2)を表示処理部25に供給すると共に、通信ネットワークNWを介して現場側システム1の表示処理部18へ送信する。上記各中心座標値CO(X1,Y1)、PO(X2,Y2)を受け取ると、現場側システム1の表示処理部18はステップ5gにより方向提示コンテンツ画像Ipを生成してプロジェクタ16に供給する。また、サポート側システムの表示処理部25は、ステップ5hにより方向提示コンテンツ画像Icを生成して表示部22に供給する。   Next, the support terminal MT proceeds to step 5f, and supplies the center coordinate values CO (X1, Y1) and PO (X2, Y2) calculated by the recognition unit 24 to the display processing unit 25 and performs communication. The data is transmitted to the display processing unit 18 of the site system 1 via the network NW. When the center coordinate values CO (X1, Y1) and PO (X2, Y2) are received, the display processing unit 18 of the site side system 1 generates the direction presentation content image Ip in step 5g and supplies it to the projector 16. Further, the display processing unit 25 of the support side system generates the direction presentation content image Ic in step 5h and supplies it to the display unit 22.

以下、図13を用いて上記方向提示コンテンツ画像Ip,Icの生成手法を説明する。先ずプロジェクタ16の投影範囲Epにおける方向提示コンテンツ画像Ipの表示位置とその大きさ、及び表示部22のカメラ画像表示領域における方向提示コンテンツ画像Icの表示位置とその大きさは、予め設定される。   Hereinafter, a method of generating the direction presentation content images Ip and Ic will be described with reference to FIG. First, the display position and size of the direction presentation content image Ip in the projection range Ep of the projector 16 and the display position and size of the direction presentation content image Ic in the camera image display area of the display unit 22 are set in advance.

例えば、図13(a),(b)に示すように方向提示コンテンツ画像Ipの表示位置はプロジェクタ16の投影範囲Epの中央上端部に設定される。また、方向提示コンテンツ画像Ipの形状は人の目を模した楕円形状に設定される。方向提示コンテンツ画像Ipは、楕円形の範囲31内を白く描画し、その内部に人の目の黒目を模した黒円32を配置する。そして、提示方向に応じて、この黒円32の中心33が上記楕円範囲31内に設定された楕円軌跡34に沿って移動するように描画する。図14はその一例を示すもので、黒円32はその中心33が、白く描画した楕円形の中心(長軸と短軸との交点)O(Ox,Oy)とカメラ11撮影範囲Ecの座標中心CO(X1,Y1)とを結ぶ直線と、上記楕円形の軌跡34とが交差する点に位置するように描画される。   For example, as shown in FIGS. 13A and 13B, the display position of the direction presentation content image Ip is set at the center upper end of the projection range Ep of the projector 16. In addition, the shape of the direction presentation content image Ip is set to an elliptical shape imitating human eyes. The direction presentation content image Ip is drawn in white within an elliptical range 31, and a black circle 32 imitating the black eyes of a human eye is placed therein. Then, the drawing is performed so that the center 33 of the black circle 32 moves along the elliptical locus 34 set in the elliptical range 31 according to the presentation direction. FIG. 14 shows an example of this. The center 33 of the black circle 32 is the center of the ellipse drawn in white (intersection of the major axis and minor axis) O (Ox, Oy) and the coordinates of the camera 11 photographing range Ec. The straight line connecting the center CO (X1, Y1) and the elliptical trajectory 34 are drawn so as to be located at the intersection.

そして、上記のように生成された方向提示コンテンツ画像Ipは、ステップ5iにおいてプロジェクタ16により現場作業員の目視範囲Epに投影される。図9(a)は、その表示結果の一例を示すもので、カメラ11の撮影範囲Ecが現場作業員の目視範囲Epの右方向に位置する場合を示している。   And the direction presentation content image Ip produced | generated as mentioned above is projected on the visual field Ep of a field worker by the projector 16 in step 5i. FIG. 9A shows an example of the display result, and shows a case where the imaging range Ec of the camera 11 is located in the right direction of the field worker's visual range Ep.

したがって、現場作業員は上記方向提示コンテンツ画像Ipによりカメラ11の撮影範囲Ecの方向を把握することができる。そして、自身の頭の向きを右方向に回転させるか又は体ごと右方向へ平行移動すれば、自身の目視範囲Epをカメラ11の撮影範囲Ecに一致させることができる。図9(b)は上記移動に伴う方向提示コンテンツ画像Ipの変化の例を示すものである。   Therefore, the field worker can grasp the direction of the shooting range Ec of the camera 11 from the direction presentation content image Ip. Then, if the direction of the head of his / her head is rotated to the right or the whole body is translated to the right, the own viewing range Ep can be matched with the shooting range Ec of the camera 11. FIG. 9B shows an example of a change in the direction presentation content image Ip accompanying the movement.

また、このときサポート側システム2の支援用端末MTにおいては、表示処理部25により黒円32の位置が左寄りに位置する方向提示コンテンツ画像Icが生成され、この生成された方向提示コンテンツ画像Icが表示部22の表示画面GSに表示される。図10(a)にその表示結果の一例を示す。そして、この状態で上記したように現場作業員が頭の向きを右方向に回転させるか又は体ごと右方向へ平行移動すると、この移動に伴い方向提示コンテンツ画像Icは図10(b)のように変化する。   At this time, in the support terminal MT of the support side system 2, the display processing unit 25 generates a direction presentation content image Ic in which the position of the black circle 32 is located to the left, and the generated direction presentation content image Ic is It is displayed on the display screen GS of the display unit 22. FIG. 10A shows an example of the display result. In this state, when the field worker rotates the head in the right direction as described above or translates the whole body in the right direction, the direction presentation content image Ic is as shown in FIG. 10B. To change.

一方、支援用端末MTの表示部22に、例えば図8(a)のように黒円32が楕円範囲31の左寄りに位置した方向提示コンテンツ画像Icが表示されると、サポート要員は上記方向提示コンテンツ画像Icにより、現場作業員の目視範囲Epがカメラ11の撮影範囲Ecの左方向にあると把握できる。   On the other hand, when the direction presentation content image Ic in which the black circle 32 is located on the left side of the elliptical range 31 is displayed on the display unit 22 of the support terminal MT, for example, the support staff presents the direction. It can be understood from the content image Ic that the field worker's visual range Ep is in the left direction of the photographing range Ec of the camera 11.

そして、この状態でサポート要員が入力部21のジョイスティックを操作すると、支援用端末MTは図4に示すようにステップ4dからステップ4eに移行し、ここで次のようにカメラ11の姿勢制御処理を実行する。図6はその制御手順と制御内容を示すフローチャートである。   When the support staff operates the joystick of the input unit 21 in this state, the support terminal MT shifts from step 4d to step 4e as shown in FIG. 4, where the posture control processing of the camera 11 is performed as follows. Execute. FIG. 6 is a flowchart showing the control procedure and control contents.

すなわち、上記入力部21のジョイスティックが操作されると、入力データ処理部25において上記操作方向と操作量に応じてカメラ制御情報が生成される。このカメラ制御情報はステップ6aにより通信ネットワークNWを介して現場側システム1の駆動制御部13に伝送される。駆動制御部13は、上記伝送されたカメラ制御情報をもとにカメラの姿勢を可変制御するための駆動信号を発生し、この駆動信号をカメラ駆動部12に供給する(ステップ6b)。カメラ駆動部12は、ステップ6cにおいて上記駆動信号により動作してカメラ11の姿勢を変化させる。   That is, when the joystick of the input unit 21 is operated, camera control information is generated in the input data processing unit 25 according to the operation direction and the operation amount. This camera control information is transmitted to the drive control unit 13 of the site-side system 1 through the communication network NW in step 6a. The drive control unit 13 generates a drive signal for variably controlling the posture of the camera based on the transmitted camera control information, and supplies this drive signal to the camera drive unit 12 (step 6b). In step 6c, the camera driving unit 12 operates according to the driving signal to change the posture of the camera 11.

かくして、カメラ11の撮影方向は左方向に移動し、この結果カメラ11の撮影範囲Ecは現場作業員の目視範囲Epと一致する。図8(b)は上記カメラ11の姿勢の変化に伴う方向提示コンテンツ画像Icの変化の例を示すものである。
また、このとき現場側システム1では、上記サポート要員によるカメラ11の左旋回操作Aにより、方向提示コンテンツ画像Ipは図7(a)に示す状態から図7(b)に示す状態に変化する。
Thus, the shooting direction of the camera 11 moves to the left, and as a result, the shooting range Ec of the camera 11 coincides with the field worker's visual range Ep. FIG. 8B shows an example of the change in the direction presentation content image Ic accompanying the change in the posture of the camera 11.
At this time, in the on-site system 1, the direction presentation content image Ip changes from the state shown in FIG. 7A to the state shown in FIG. 7B by the left turn operation A of the camera 11 by the support staff.

以上述べたようにこの実施形態では、現場側システム1において、作業空間に、カメラ11の撮影範囲Ecを表す画像を撮影範囲提示機14により投影すると共に、現場作業員の目視範囲Epを示す画像を投影範囲提示機17により投影し、これらの画像が投影された作業空間を全方位カメラ15により撮影してその撮影画像情報を通信ネットワークNWを介してサポート側システム2へ伝送する。サポート側システム2では、認識部24により、上記伝送された全方位カメラ15の撮影画像情報から上記カメラ11の撮影範囲Ec及び現場作業員の目視範囲Epをそれぞれ認識してその座標中心を算出する。そして、その算出結果をもとに表示処理部25でカメラ11の撮影範囲Ecから現場作業員の目視範囲Epへの方向を示す方向提示コンテンツ画像Icを生成し、この生成された方向提示コンテンツ画像Icを表示部22に表示する。またそれと共に、上記座標中心の算出結果を通信ネットワークNWを介して現場側システム1の表示処理部18に伝送し、この表示処理部18により現場作業員の目視範囲Epからカメラ11の撮影範囲Ecへの方向を示す方向提示コンテンツ画像Ipを生成し、この生成された方向提示コンテンツ画像Ipをプロジェクタ17により現場作業員の目視範囲Epへ投影するようにしている。   As described above, in this embodiment, in the site-side system 1, an image representing the imaging range Ec of the camera 11 is projected onto the work space by the imaging range presenting device 14, and an image showing the visual range Ep of the field worker. Is projected by the projection range presenter 17, the work space on which these images are projected is photographed by the omnidirectional camera 15, and the photographed image information is transmitted to the support side system 2 via the communication network NW. In the support-side system 2, the recognition unit 24 recognizes the shooting range Ec of the camera 11 and the visual range Ep of the field worker from the transmitted captured image information of the omnidirectional camera 15 and calculates the coordinate center thereof. . Based on the calculation result, the display processing unit 25 generates the direction presentation content image Ic indicating the direction from the shooting range Ec of the camera 11 to the visual field Ep of the field worker, and the generated direction presentation content image. Ic is displayed on the display unit 22. At the same time, the calculation result of the coordinate center is transmitted to the display processing unit 18 of the site-side system 1 via the communication network NW, and the display processing unit 18 uses the field worker's visual range Ep to the imaging range Ec of the camera 11. The direction presentation content image Ip indicating the direction to the direction is generated, and the generated direction presentation content image Ip is projected by the projector 17 onto the visual field Ep of the field worker.

したがって、現場作業員は自身の目視範囲Epに投影された方向提示コンテンツ画像Ipによりカメラ11の撮影範囲Ecの方向をスムーズに把握することができ、これにより例えば自身の頭の向きを右方向に回転させるか又は体ごと右方向へ平行移動することで、自身の目視範囲Epをカメラ11の撮影範囲Ecに迅速に一致させることができる。   Accordingly, the field worker can smoothly grasp the direction of the shooting range Ec of the camera 11 from the direction presenting content image Ip projected on his / her viewing range Ep, and thereby, for example, the head direction of his / her head is set to the right direction. By rotating or translating the whole body in the right direction, the own viewing range Ep can be quickly matched with the shooting range Ec of the camera 11.

また、サポート要員は上記表示部22に表示された方向提示コンテンツ画像Icにより、現場作業員の目視範囲Epの方向をスムーズに把握することができ、これにより例えばカメラ11の姿勢を遠隔操作することでカメラ11の撮影範囲Ecを現場作業員の目視範囲Epに迅速に一致させることができる。   Further, the support personnel can smoothly grasp the direction of the visual field Ep of the field worker from the direction presenting content image Ic displayed on the display unit 22, and thereby, for example, remotely control the posture of the camera 11. Thus, the photographing range Ec of the camera 11 can be quickly matched with the visual field Ep of the field worker.

さらにこの実施形態では、全方位カメラ15の撮影画像情報をもとにカメラ11の撮影範囲Ec及び現場作業員の目視範囲Epをそれぞれ認識するようにしているので、現場作業員が作業空間のどの方向を向いていても、またカメラ11が作業空間のどの方向を撮影していても、その方向を確実に検出して提示することができる。   Further, in this embodiment, since the shooting range Ec of the camera 11 and the visual range Ep of the field worker are recognized based on the imaged image information of the omnidirectional camera 15, the field worker can identify which of the workspaces. Regardless of which direction the camera 11 is facing, and which direction the camera 11 is shooting, the direction can be reliably detected and presented.

なお、この発明は上記実施形態に限定されるものではない。例えば、全方位カメラ15の撮影画像情報から求めたカメラ11の撮影範囲Ec及び現場作業員の目視範囲Epの座標中心をもとに、カメラ11の撮影範囲Ecと現場作業員の目視範囲Epとの距離を算出する。そして、方向と上記算出された距離を表す方向提示コンテンツ画像を生成して投影及び表示するようにしてもよい。例えば、図13等に示したように人の目を模した方向提示コンテンツ画像Ip,Icを生成する場合には、楕円形範囲31の中心から黒丸32中心までの距離を上記算出された距離に比例して設定することにより、上記距離を表現する。なお、方向については前記実施形態と同じである。   The present invention is not limited to the above embodiment. For example, based on the coordinate range of the shooting range Ec of the camera 11 and the visual range Ep of the field worker obtained from the captured image information of the omnidirectional camera 15, the shooting range Ec of the camera 11 and the visual range Ep of the field worker The distance is calculated. Then, a direction presentation content image representing the direction and the calculated distance may be generated, projected, and displayed. For example, when generating the direction presentation content images Ip and Ic imitating human eyes as shown in FIG. 13 and the like, the distance from the center of the elliptical range 31 to the center of the black circle 32 is set to the calculated distance. The distance is expressed by setting in proportion. The direction is the same as that in the above embodiment.

このようにすると、現場作業員及びサポート要員はともに目視方向と同時に、カメラ11の撮影範囲Ecまでの距離、及び現場作業員の目視範囲Epまでの距離を認識することが可能となり、これにより現場作業員の目視範囲Ep及びカメラ11の撮影範囲Ecを迅速かつ正確に修正することが可能となる。   In this way, both the field worker and the support staff can recognize the distance to the shooting range Ec of the camera 11 and the distance to the field worker's visual range Ep simultaneously with the viewing direction. It is possible to quickly and accurately correct the worker's visual range Ep and the photographing range Ec of the camera 11.

また、前記実施形態では人の目を模した方向提示コンテンツ画像Ic,Ipを生成し投影及び表示するようにしたが、矢印等の他のマークを用いてもよく、また文字による方向提示メッセージを生成して投影及び表示するようにしてもよい。さらに前記実施形態では、現場側システム1及びサポート側システム2の両方において方向提示コンテンツ画像Ic,Ipを投影及び表示するようにしたが、いずれか一方のみで投影又は表示するようにしてもよい。   In the above embodiment, the direction presentation content images Ic and Ip imitating human eyes are generated, projected, and displayed. However, other marks such as arrows may be used, and a direction presentation message using characters may be displayed. It may be generated and projected and displayed. Furthermore, in the said embodiment, although direction presentation content image Ic, Ip was projected and displayed in both the field side system 1 and the support side system 2, you may make it project or display only by either one.

さらに、現場作業員の目視範囲を検出する手段としては、例えば位置センサやジャイロなどを使用した方向センサを現場作業員に取着し、この方向センサにより現場作業員の目視方向を検出してその検出情報を通信ネットワークを介してサポート側システムに伝送するようにしてもよい。   Furthermore, as a means for detecting the visual range of the field worker, for example, a direction sensor using a position sensor or a gyroscope is attached to the field worker, and the visual direction of the field worker is detected by this direction sensor. The detection information may be transmitted to the support system via a communication network.

さらに前記実施形態では、サポート側システム2の支援用端末MTにおいてカメラ11の撮影範囲Ec及び現場作業員の目視範囲Epをそれぞれ認識するようにしたが、例えば現場作業員が携帯する情報端末や、撮像装置或いは投影装置において認識するようにしてもよい。また方向提示コンテンツ画像Ic,Ipは、現場側システム1及びサポート側システム2で別々に生成せずに、現場側システム1またはサポート側システム2のいずれか一方で統括的に生成するようにしてもよい。   Further, in the embodiment, the support terminal MT of the support system 2 recognizes the imaging range Ec of the camera 11 and the visual field Ep of the field worker. For example, an information terminal carried by the field worker, You may make it recognize in an imaging device or a projection device. Further, the direction presentation content images Ic and Ip are not generated separately by the site-side system 1 and the support-side system 2, but may be generated comprehensively by either the site-side system 1 or the support-side system 2. Good.

その他、遠隔コミュニケーションの目的や種類、システム構成、撮像装置の種類や構成、投影装置の種類や構成、通信ネットワークの種類や構成、方向判定手段等についても、この発明の要旨を逸脱しない範囲で種々変形して実施できる。   In addition, the purpose and type of remote communication, the system configuration, the type and configuration of the imaging device, the type and configuration of the projection device, the type and configuration of the communication network, the direction determination means, and the like are variously within the scope of the present invention. It can be implemented with deformation.

要するにこの発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。   In short, the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Further, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, you may combine suitably the component covering different embodiment.

この発明に係わる遠隔コミュニケーションシステムの一実施形態を示す概略構成図。1 is a schematic configuration diagram showing an embodiment of a remote communication system according to the present invention. 図1に示したシステムの要部を説明するための図。The figure for demonstrating the principal part of the system shown in FIG. 図1に示したシステムを実現する構成の一例を示すブロック図。The block diagram which shows an example of a structure which implement | achieves the system shown in FIG. 図3に示したシステムによる方向提示制御の手順と内容を示すフローチャート。The flowchart which shows the procedure and content of direction presentation control by the system shown in FIG. 図4に示した方向提示制御のうち表示処理の手順と内容を示すフローチャート。The flowchart which shows the procedure and content of a display process among the direction presentation controls shown in FIG. 図4に示した方向提示制御のうちカメラ駆動制御処理の手順と内容を示すフローチャート。The flowchart which shows the procedure and content of a camera drive control process among the direction presentation controls shown in FIG. 図3に示したシステムの現場側における方向提示動作の一例を説明するための図。The figure for demonstrating an example of direction presentation operation | movement by the site side of the system shown in FIG. 図3に示したシステムによるサポート側における方向提示動作の一例を説明するための図。The figure for demonstrating an example of the direction presentation operation | movement by the side of the support by the system shown in FIG. 図3に示したシステムの現場側における方向提示動作の別の例を説明するための図。The figure for demonstrating another example of direction presentation operation | movement by the site side of the system shown in FIG. 図3に示したシステムのサポート側における方向提示動作の別の例を説明するための図。The figure for demonstrating another example of direction presentation operation | movement by the support side of the system shown in FIG. 図3に示したシステムにおける全方位カメラの撮影範囲を説明するための図。The figure for demonstrating the imaging | photography range of the omnidirectional camera in the system shown in FIG. 図11に示した全方位カメラにより撮像された画像からカメラ撮影範囲及びプロジェクタ投影範囲の座標位置を計算する手法を説明するための図。The figure for demonstrating the method of calculating the coordinate position of a camera imaging | photography range and a projector projection range from the image imaged with the omnidirectional camera shown in FIG. 図12に示した方法により計算された座標値をもとに、方向提示コンテンツの投影画像及び表示画像を生成する動作を説明するための図。The figure for demonstrating the operation | movement which produces | generates the projection image and display image of direction presentation content based on the coordinate value calculated by the method shown in FIG. 図13により生成される方向提示コンテンツの投影画像及び表示画像における黒円の位置の設定手法を説明するための図。The figure for demonstrating the setting method of the position of the black circle in the projection image of the direction presentation content produced | generated by FIG. 13, and a display image. 図3に示したシステムで使用する全方位カメラの概略構成を説明するための図。The figure for demonstrating schematic structure of the omnidirectional camera used with the system shown in FIG. 図3に示したシステムで使用する全方位カメラの動作原理を説明するための図。The figure for demonstrating the principle of operation of the omnidirectional camera used with the system shown in FIG.

符号の説明Explanation of symbols

1…現場側システム、2…サポート側システム、NW…通信ネットワーク、CM…撮影装置、PJ…投影装置、MT…支援用端末、11…カメラ、12…カメラ駆動部、13…駆動制御部、14…撮影範囲提示機、15…全方位カメラ、16…プロジェクタ、17…投影範囲提示機、18…表示処理部、19…現場システムのネットワークI/F、21…入力部、22…表示部、23…入力データ処理部、24…認識部、25…表示処理部、26…画像切替部、27…サポート側システムのネットワークI/F。   DESCRIPTION OF SYMBOLS 1 ... Site side system, 2 ... Support side system, NW ... Communication network, CM ... Imaging device, PJ ... Projection device, MT ... Supporting terminal, 11 ... Camera, 12 ... Camera drive part, 13 ... Drive control part, 14 DESCRIPTION OF SYMBOLS ... Shooting range presentation machine, 15 ... Omni-directional camera, 16 ... Projector, 17 ... Projection range presentation machine, 18 ... Display processing part, 19 ... Network system I / F of field system, 21 ... Input part, 22 ... Display part, 23 ... input data processing unit, 24 ... recognition unit, 25 ... display processing unit, 26 ... image switching unit, 27 ... network I / F of support side system.

Claims (6)

異なる空間に存在する第1の話者と第2の話者が、第1の話者が存在する空間内の任意の対象を撮影手段により撮影してその撮影画像情報を第2の話者が存在する空間に設置された表示手段に表示することにより、上記対象を共に目視しながらコミュニケーションを行う遠隔コミュニケーションシステムにおいて、
前記第1の話者が存在する空間内における、前記撮影手段の撮影範囲及び第1の話者の目視範囲をそれぞれ検出する検出手段と、
前記検出された撮影範囲及び目視範囲をもとに、当該目視範囲から撮影範囲への方向を判定する判定手段と、
前記検出された撮影範囲及び目視範囲をもとに、当該撮影範囲と目視範囲との距離を算出する手段と、
前記判定された方向及び前記算出された距離を表す画像情報を生成し、この生成された画像情報を前記第1の話者の目視範囲内に投影する投影手段と
を具備し、
かつ前記検出手段は、
前記第1の話者が存在する空間に、前記撮影手段による撮影範囲を表す撮影範囲提示画像を投射する手段と、
前記第1の話者が存在する空間に、当該第1の話者の目視範囲を表す目視範囲提示画像を投射する手段と、
前記第1の話者が存在する空間を撮影する全方位撮影手段と、
前記全方位撮影手段により得られる撮影画像情報から、前記撮影範囲提示画像及び目視範囲提示画像を検出する手段と
を備えることを特徴とする遠隔コミュニケーションシステム。
A first speaker and a second speaker existing in different spaces photograph an arbitrary object in the space where the first speaker exists by photographing means, and the second speaker captures the captured image information. In a remote communication system that communicates while viewing both of the above objects by displaying on a display means installed in an existing space,
Detecting means for detecting a shooting range of the shooting means and a visual range of the first speaker in a space where the first speaker exists;
Determination means for determining a direction from the visual range to the photographing range based on the detected photographing range and the visual range;
Based on the detected shooting range and viewing range, means for calculating the distance between the shooting range and the viewing range;
Projecting means for generating image information representing the determined direction and the calculated distance , and projecting the generated image information within the viewing range of the first speaker ;
And the detection means includes
Means for projecting a photographing range presentation image representing a photographing range by the photographing means to a space where the first speaker exists;
Means for projecting a visual range presentation image representing the visual range of the first speaker into a space where the first speaker exists;
Omnidirectional photographing means for photographing a space in which the first speaker exists;
Means for detecting the photographing range presentation image and the visual range presentation image from the photographed image information obtained by the omnidirectional photographing means;
Remote communication system, characterized in that it comprises a.
異なる空間に存在する第1の話者と第2の話者が、第1の話者が存在する空間内の任意の対象を撮影手段により撮像してその撮影画像情報を前記第2の話者が存在する空間に設置された表示手段に表示することにより、上記対象を共に目視しながらコミュニケーションを行う遠隔コミュニケーションシステムにおいて、
前記第1の話者が存在する空間内における、前記撮影手段の撮影範囲及び第1の話者の目視範囲をそれぞれ検出する検出手段と、
前記検出された撮影範囲及び目視範囲をもとに、当該撮影範囲から目視範囲への方向を判定する判定手段と、
前記検出された撮影範囲及び目視範囲をもとに、当該撮影範囲と目視範囲との距離を算出する手段と、
前記判定された方向及び前記算出された距離を表す画像情報を生成し、この生成された画像情報を前記撮影手段により得られる撮影画像情報と共に前記表示手段に表示させる表示制御手段と
を具備し、
かつ前記検出手段は、
前記第1の話者が存在する空間に、前記撮影手段による撮影範囲を表す撮影範囲提示画像を投射する手段と、
前記第1の話者が存在する空間に、当該第1の話者の目視範囲を表す目視範囲提示画像を投射する手段と、
前記第1の話者が存在する空間を撮影する全方位撮影手段と、
前記全方位撮影手段により得られる撮影画像情報から、前記撮影範囲提示画像及び目視範囲提示画像を検出する手段と
を備えることを特徴とする遠隔コミュニケーションシステム。
A first speaker and a second speaker existing in different spaces pick up an image of an arbitrary target in the space where the first speaker exists, and the captured image information is captured by the second speaker. In a remote communication system that performs communication while visually observing both of the above objects by displaying on a display means installed in a space where
Detecting means for detecting a shooting range of the shooting means and a visual range of the first speaker in a space where the first speaker exists;
Based on the detected shooting range and viewing range, a determination unit that determines a direction from the shooting range to the viewing range;
Based on the detected shooting range and viewing range, means for calculating the distance between the shooting range and the viewing range;
Display control means for generating image information representing the determined direction and the calculated distance, and displaying the generated image information on the display means together with photographed image information obtained by the photographing means ;
And the detection means includes
Means for projecting a photographing range presentation image representing a photographing range by the photographing means to a space where the first speaker exists;
Means for projecting a visual range presentation image representing the visual range of the first speaker into a space where the first speaker exists;
Omnidirectional photographing means for photographing a space in which the first speaker exists;
Means for detecting the photographing range presentation image and the visual range presentation image from the photographed image information obtained by the omnidirectional photographing means;
Remote communication system, characterized in that it comprises a.
異なる空間に存在する第1の話者と第2の話者が、第1の話者が存在する空間内の任意の対象を撮影手段により撮影してその撮影画像情報を第2の話者が存在する空間に設置された表示手段に表示することにより、上記対象を共に目視しながらコミュニケーションを行う際に、
前記第1の話者が存在する空間内における、前記撮影範囲及び第1の話者の目視範囲をそれぞれ検出する過程と、
前記検出された撮影範囲及び目視範囲をもとに、当該目視範囲から撮影範囲への方向を判定する過程と、
前記検出された撮影範囲及び目視範囲をもとに、当該撮影範囲と目視範囲との距離を算出する過程と、
前記判定された方向及び前記算出された距離を表す画像情報を生成し、この生成された画像情報を前記第1の話者の目視範囲内に投影する過程と
を具備し、
かつ前記検出する過程は、
前記第1の話者が存在する空間に、前記撮影範囲を表す撮影範囲提示画像を投射する過程と、
前記第1の話者が存在する空間に、当該第1の話者の目視範囲を表す目視範囲提示画像を投射する過程と、
前記第1の話者が存在する空間の全方位を撮影する過程と、
前記全方位の撮影により得られる撮影画像情報から、前記撮影範囲提示画像及び目視範囲提示画像を認識する過程と
を備えることを特徴とする方向提示方法。
A first speaker and a second speaker existing in different spaces photograph an arbitrary object in the space where the first speaker exists by photographing means, and the second speaker captures the captured image information. By displaying on the display means installed in the existing space, when communicating while viewing the above object together,
Detecting the shooting range and the viewing range of the first speaker in a space where the first speaker exists;
Based on the detected shooting range and viewing range, determining the direction from the viewing range to the shooting range;
Based on the detected shooting range and viewing range, a process of calculating the distance between the shooting range and the viewing range;
Generating image information representing the determined direction and the calculated distance , and projecting the generated image information within the viewing range of the first speaker ,
And the detecting process includes:
Projecting a shooting range presentation image representing the shooting range into a space where the first speaker exists;
Projecting a visual range presentation image representing the visual range of the first speaker into a space where the first speaker exists;
Photographing all directions of the space where the first speaker exists;
A process of recognizing the shooting range presentation image and the viewing range presentation image from the shooting image information obtained by shooting in all directions.
Direction presentation method, characterized in that it comprises a.
異なる空間に存在する第1の話者と第2の話者が、第1の話者が存在する空間内の任意の対象を撮影手段により撮影してその撮影画像情報を第2の話者が存在する空間に設置された表示手段に表示することにより、上記対象を共に目視しながらコミュニケーションを行う際に、
前記第1の話者が存在する空間内における、前記撮影手段の撮影範囲及び第1の話者の目視範囲をそれぞれ検出する過程と、
前記検出された撮影範囲及び目視範囲をもとに、当該撮影範囲から目視範囲への方向を判定する過程と、
前記検出された撮影範囲及び目視範囲をもとに、当該撮影範囲と目視範囲との距離を算出する過程と、
前記判定された方向及び前記算出された距離を表す画像情報を生成し、この生成された画像情報を前記撮影画像情報と共に前記表示手段に表示させる過程と
を具備し、
かつ前記検出する過程は、
前記第1の話者が存在する空間に、前記撮影範囲を表す撮影範囲提示画像を投射する過程と、
前記第1の話者が存在する空間に、当該第1の話者の目視範囲を表す目視範囲提示画像を投射する過程と、
前記第1の話者が存在する空間の全方位を撮影する過程と、
前記全方位の撮影により得られる撮影画像情報から、前記撮影範囲提示画像及び目視範囲提示画像を認識する過程と
を備えることを特徴とする方向提示方法。
A first speaker and a second speaker existing in different spaces photograph an arbitrary object in the space where the first speaker exists by photographing means, and the second speaker captures the captured image information. By displaying on the display means installed in the existing space, when communicating while viewing the above object together,
Detecting a shooting range of the shooting means and a viewing range of the first speaker in a space where the first speaker exists;
Based on the detected shooting range and viewing range, a process of determining the direction from the shooting range to the viewing range;
Based on the detected shooting range and viewing range, a process of calculating the distance between the shooting range and the viewing range;
Generating image information representing the determined direction and the calculated distance, and displaying the generated image information together with the captured image information on the display means,
And the detecting process includes:
Projecting a shooting range presentation image representing the shooting range into a space where the first speaker exists;
Projecting a visual range presentation image representing the visual range of the first speaker into a space where the first speaker exists;
Photographing all directions of the space where the first speaker exists;
A process of recognizing the shooting range presentation image and the viewing range presentation image from the shooting image information obtained by shooting in all directions.
Direction presentation method, characterized in that it comprises a.
異なる空間に存在する第1の話者と第2の話者が、第1の話者が存在する空間内の任意の対象を撮影手段により撮影してその撮影画像情報を第2の話者が存在する空間に設置された表示手段に表示することにより、上記対象を共に目視しながらコミュニケーションを行い、かつ前記第1の話者の目視範囲に画像を投影する投影手段と、コンピュータとを備えた遠隔コミュニケーションシステムで使用される方向提示プログラムであって、
前記第1の空間内における、前記撮影範囲及び第1の話者の目視範囲をそれぞれ検出する処理と、
前記検出された撮影範囲及び目視範囲をもとに、当該目視範囲から撮影範囲への方向を判定する処理と、
前記検出された撮影範囲及び目視範囲をもとに、当該撮影範囲と目視範囲との距離を算出する処理と、
前記判定された方向及び前記算出された距離を表す画像情報を生成する処理と、
前記生成された画像情報を、前記投影手段により第1の話者の目視範囲に投影させる処理と
を、前記コンピュータに実行させ
かつ前記検出する処理では、
前記第1の話者が存在する空間に、前記撮影範囲を表す撮影範囲提示画像を投射する処理と、
前記第1の話者が存在する空間に、当該第1の話者の目視範囲を表す目視範囲提示画像を投射する処理と、
前記第1の話者が存在する空間の全方位を撮影する処理と、
前記全方位の撮影により得られる撮影画像情報から、前記撮影範囲提示画像及び目視範囲提示画像を認識する処理と
を、前記コンピュータに実行させることを特徴とする方向提示プログラム。
A first speaker and a second speaker existing in different spaces photograph an arbitrary object in the space where the first speaker exists by photographing means, and the second speaker captures the captured image information. Projecting means for performing communication while visually observing both of the objects by displaying on a display means installed in an existing space, and projecting an image on the viewing range of the first speaker, and a computer A direction presentation program used in a remote communication system,
A process for detecting the shooting range and the viewing range of the first speaker in the first space;
Based on the detected shooting range and viewing range, processing to determine the direction from the viewing range to the shooting range;
Based on the detected shooting range and viewing range, a process for calculating the distance between the shooting range and the viewing range;
Processing for generating image information representing the determined direction and the calculated distance ;
Causing the computer to execute a process of projecting the generated image information onto the viewing range of the first speaker by the projection unit ;
In the detection process,
A process of projecting a shooting range presentation image representing the shooting range in a space where the first speaker exists;
A process of projecting a visual range presentation image representing the visual range of the first speaker into a space where the first speaker exists;
A process of photographing all directions of the space where the first speaker exists;
Processing for recognizing the shooting range presentation image and the viewing range presentation image from the shooting image information obtained by shooting in all directions.
The direction presentation program characterized Rukoto is executed on the computer.
異なる空間に存在する第1の話者と第2の話者が、第1の話者が存在する空間内の任意の対象を撮影手段により撮影してその撮影画像情報を第2の話者が存在する空間に設置された表示手段に表示することにより、上記対象を共に目視しながらコミュニケーションを行う、コンピュータを備えた遠隔コミュニケーションシステムで使用される方向提示プログラムであって、
前記第1の空間内における、前記撮影手段の撮影範囲及び第1の話者の目視範囲をそれぞれ検出する処理と、
前記検出された撮影範囲及び目視範囲をもとに、当該撮影範囲から目視範囲への方向を判定する処理と、
前記検出された撮影範囲及び目視範囲をもとに、当該撮影範囲と目視範囲との距離を算出する処理と、
前記判定された方向及び前記算出された距離を表す画像情報を生成する処理と、
前記生成された画像情報を、前記撮影手段により得られる撮影画像情報と共に前記表示手段に表示させる処理と
を、前記コンピュータに実行させ
かつ前記検出する処理では、
前記第1の話者が存在する空間に、前記撮影範囲を表す撮影範囲提示画像を投射する処理と、
前記第1の話者が存在する空間に、当該第1の話者の目視範囲を表す目視範囲提示画像を投射する処理と、
前記第1の話者が存在する空間の全方位を撮影する処理と、
前記全方位の撮影により得られる撮影画像情報から、前記撮影範囲提示画像及び目視範囲提示画像を認識する処理と
を、前記コンピュータに実行させることを特徴とする方向提示プログラム。
A first speaker and a second speaker existing in different spaces photograph an arbitrary object in the space where the first speaker exists by photographing means, and the second speaker captures the captured image information. A direction presenting program used in a remote communication system equipped with a computer that performs communication while visually observing both of the above objects by displaying on a display means installed in an existing space,
A process for detecting the shooting range of the shooting means and the viewing range of the first speaker in the first space;
Based on the detected shooting range and viewing range, processing to determine the direction from the shooting range to the viewing range;
Based on the detected shooting range and viewing range, a process for calculating the distance between the shooting range and the viewing range;
Processing for generating image information representing the determined direction and the calculated distance ;
Causing the computer to execute a process of displaying the generated image information on the display unit together with the captured image information obtained by the imaging unit ,
In the detection process,
A process of projecting a shooting range presentation image representing the shooting range in a space where the first speaker exists;
A process of projecting a visual range presentation image representing the visual range of the first speaker into a space where the first speaker exists;
A process of photographing all directions of the space where the first speaker exists;
Processing for recognizing the shooting range presentation image and the viewing range presentation image from the shooting image information obtained by shooting in all directions.
The direction presentation program characterized Rukoto is executed on the computer.
JP2004372097A 2004-12-22 2004-12-22 Remote communication system, direction presentation method and direction presentation program used in this system Expired - Fee Related JP4485933B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004372097A JP4485933B2 (en) 2004-12-22 2004-12-22 Remote communication system, direction presentation method and direction presentation program used in this system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004372097A JP4485933B2 (en) 2004-12-22 2004-12-22 Remote communication system, direction presentation method and direction presentation program used in this system

Publications (2)

Publication Number Publication Date
JP2006180278A JP2006180278A (en) 2006-07-06
JP4485933B2 true JP4485933B2 (en) 2010-06-23

Family

ID=36733946

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004372097A Expired - Fee Related JP4485933B2 (en) 2004-12-22 2004-12-22 Remote communication system, direction presentation method and direction presentation program used in this system

Country Status (1)

Country Link
JP (1) JP4485933B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5637385B2 (en) * 2010-12-27 2014-12-10 清水建設株式会社 Construction status recording system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003037840A (en) * 2001-07-24 2003-02-07 Nippon Telegr & Teleph Corp <Ntt> Method of controlling direction of laser pointer and apparatus therefor
JP2003209832A (en) * 2002-01-11 2003-07-25 National Institute Of Advanced Industrial & Technology Remote environment guide apparatus

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06253295A (en) * 1993-02-24 1994-09-09 Nippon Telegr & Teleph Corp <Ntt> Space scanning image pickup display device
JPH08275046A (en) * 1995-03-29 1996-10-18 Canon Inc Image pickup device
JPH11298872A (en) * 1998-04-07 1999-10-29 Toshiba Corp Video communication system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003037840A (en) * 2001-07-24 2003-02-07 Nippon Telegr & Teleph Corp <Ntt> Method of controlling direction of laser pointer and apparatus therefor
JP2003209832A (en) * 2002-01-11 2003-07-25 National Institute Of Advanced Industrial & Technology Remote environment guide apparatus

Also Published As

Publication number Publication date
JP2006180278A (en) 2006-07-06

Similar Documents

Publication Publication Date Title
US10642564B2 (en) Display system, display device, information display method, and program
US11089266B2 (en) Communication processing method, terminal, and storage medium
US10523871B2 (en) Imaging system and imaging control method with display of image with vertical alignment
US20070177013A1 (en) Remote instruction system, remote instruction method, and program product for remote instruction
JP2013206322A (en) Information processor, information processing system and information processing method
JP2012060216A (en) Panoramic image generation method
JP5632035B2 (en) Remote work support system and remote work support program
JP2021010101A (en) Remote work support system
JP2016082411A (en) Head-mounted display, image display method and program
US9438805B2 (en) Terminal device and image capturing method
JP4485933B2 (en) Remote communication system, direction presentation method and direction presentation program used in this system
US20210400234A1 (en) Information processing apparatus, information processing method, and program
US11212485B2 (en) Transparency system for commonplace camera
JP5571895B2 (en) Information display device
JPH11298872A (en) Video communication system
US11610343B2 (en) Video display control apparatus, method, and non-transitory computer readable medium
JP2005303683A (en) Image transceiver
JP2010219989A (en) Communication support system, display control apparatus, and display control method
JP2019012432A (en) Work support system, device, method, and computer program
JP2018018315A (en) Display system, display unit, information display method, and program
JP6436606B1 (en) Medical video system
CN111860213A (en) Augmented reality system and control method thereof
WO2017098999A1 (en) Information-processing device, information-processing system, method for controlling information-processing device, and computer program
US11831976B2 (en) Display apparatus
JP2004320175A (en) Monitoring camera system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100105

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100323

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100325

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130402

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140402

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees