JP2020005147A - Information processing apparatus, movable body, remote control system, information processing method, and program - Google Patents

Information processing apparatus, movable body, remote control system, information processing method, and program Download PDF

Info

Publication number
JP2020005147A
JP2020005147A JP2018123662A JP2018123662A JP2020005147A JP 2020005147 A JP2020005147 A JP 2020005147A JP 2018123662 A JP2018123662 A JP 2018123662A JP 2018123662 A JP2018123662 A JP 2018123662A JP 2020005147 A JP2020005147 A JP 2020005147A
Authority
JP
Japan
Prior art keywords
robot
unit
target point
image data
display terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018123662A
Other languages
Japanese (ja)
Other versions
JP7091880B2 (en
Inventor
伊藤 篤
Atsushi Ito
篤 伊藤
余平 哲也
Tetsuya Yohira
哲也 余平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2018123662A priority Critical patent/JP7091880B2/en
Publication of JP2020005147A publication Critical patent/JP2020005147A/en
Priority to JP2022096746A priority patent/JP7400882B2/en
Application granted granted Critical
Publication of JP7091880B2 publication Critical patent/JP7091880B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Manipulator (AREA)
  • Accessories Of Cameras (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

To make it possible to achieve smooth communication using a movable body.SOLUTION: An information processing apparatus according to one embodiment of the present invention is an information processing apparatus that adjusts the position of a robot 10 including a photographing device 21 that photographs a subject to acquire image data 200, acquires the image data 200 acquired by the photographing device 21, and calculates a target point indicating a movement destination of the robot 10 on the basis of the positions and directions of a plurality of people included in the image data 200. The information processing apparatus according to one embodiment of the present invention calculates the target point to move the robot 10 to the target point.SELECTED DRAWING: Figure 19

Description

本発明は、情報処理装置、移動体、遠隔制御システム、情報処理方法およびプログラムに関する。   The present invention relates to an information processing device, a moving object, a remote control system, an information processing method, and a program.

遠隔拠点に位置するテレプレゼンス・ロボット(以下、ロボットと称する)を、通信ネットワークを経由して他拠点に位置する表示端末を用いて遠隔操作する遠隔制御システムが知られている。この遠隔制御システムは、ロボットに備えられた撮影装置によって撮影された画像を、表示端末に表示させることで、ロボットが位置する拠点の情報を遠隔地から確認することができる。   2. Description of the Related Art A remote control system for remotely controlling a telepresence robot (hereinafter, referred to as a robot) located at a remote base via a communication network using a display terminal located at another base is known. This remote control system allows an image photographed by a photographing device provided in the robot to be displayed on a display terminal, so that information on a base where the robot is located can be confirmed from a remote place.

また、ロボットを用いてコミュニケーションを活性化させる方法も知られている。特許文献1には、人とロボットの配置情報(位置、体の向きおよび視線方向)を検出し、検出された配置情報に基づいて、ロボットの動作を制御する技術が開示されている。   A method of activating communication using a robot is also known. Patent Literature 1 discloses a technique for detecting arrangement information (position, body orientation, and line-of-sight direction) between a person and a robot and controlling the operation of the robot based on the detected arrangement information.

しかしながら、従来の方法では、遠隔地からロボット(例えば、移動体)を用いて複数の人とコミュニケーションを行う場合、複数の人の位置関係に基づく適切な位置に移動体を移動させることができないため、移動体を用いた円滑なコミュニケーションの妨げとなるという課題があった。   However, in the conventional method, when communicating with a plurality of people from a remote place using a robot (for example, a moving body), the moving body cannot be moved to an appropriate position based on a positional relationship between the plurality of people. However, there is a problem that it hinders smooth communication using a moving object.

請求項1に係る情報処理装置は、被写体を撮影して画像データを取得する撮影装置を備える移動体の位置を調整する情報処理装置であって、前記撮影装置によって取得された前記画像データを取得する取得手段と、前記取得された画像データに含まれる複数の人物の位置および向きに基づいて、前記移動体の移動先を示す目標点を算出する算出手段と、を備え、前記算出手段によって前記目標点を算出することで、前記移動体を前記目標点へ移動させる。   The information processing apparatus according to claim 1, wherein the information processing apparatus includes a photographing device that photographs a subject and acquires image data, and adjusts a position of a moving body, and acquires the image data acquired by the photographing device. Obtaining means, and calculating means for calculating a target point indicating a destination of the moving body based on the positions and orientations of the plurality of persons included in the obtained image data, and By calculating a target point, the moving body is moved to the target point.

本発明によれば、移動体を用いた円滑なコミュニケーションを実現することができる。   According to the present invention, smooth communication using a moving object can be realized.

実施形態に係る遠隔制御システムのシステム構成の一例を示す図である。It is a figure showing an example of the system configuration of the remote control system concerning an embodiment. 実施形態に係るロボットの構成の概略の一例を示す図である。FIG. 1 is a diagram illustrating an example of a schematic configuration of a robot according to an embodiment. 実施形態の変形例1に係るロボットの構成の概略を示す図である。It is a figure which shows the outline of a structure of the robot which concerns on the modification 1 of embodiment. 実施形態の変形例2に係るロボットの構成の概略を示す図である。It is a figure showing the outline of the composition of the robot concerning modification 2 of the embodiment. 実施形態に係るロボットのハードウエア構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a hardware configuration of the robot according to the embodiment. 実施形態に係る表示端末のハードウエア構成の一例を示す図である。FIG. 3 is a diagram illustrating an example of a hardware configuration of a display terminal according to the embodiment. 実施形態に係る管理サーバのハードウエア構成の一例を示す図である。FIG. 3 is a diagram illustrating an example of a hardware configuration of a management server according to the embodiment. 第1の実施形態に係る遠隔制御システムの機能構成の一例を示す図である。It is a figure showing an example of the functional composition of the remote control system concerning a 1st embodiment. 第1の実施形態に係るコマンドテーブルの一例を示す図である。FIG. 4 is a diagram illustrating an example of a command table according to the first embodiment. 第1の実施形態に係る条件テーブルの一例を示す図である。FIG. 4 is a diagram illustrating an example of a condition table according to the first embodiment. 第1の実施形態に係るユーザコマンドテーブルの一例を示す図である。FIG. 4 is a diagram illustrating an example of a user command table according to the first embodiment. (a)は認証管理DBの一例を示す概念図、(b)は端末管理DBの一例を示す概念図である。(A) is a conceptual diagram showing an example of an authentication management DB, and (b) is a conceptual diagram showing an example of a terminal management DB. (a)は宛先リスト管理DBの一例を示す概念図、(b)はセッション管理DBの一例を示す概念図である。(A) is a conceptual diagram showing an example of a destination list management DB, and (b) is a conceptual diagram showing an example of a session management DB. ロボットと表示端末との間でデータの送受信を開始する準備段階の処理の一例を示すシーケンス図である。FIG. 9 is a sequence diagram illustrating an example of a process in a preparation stage for starting transmission and reception of data between the robot and the display terminal. 第1の実施形態に係る表示端末に表示される宛先リスト画面の一例を示す図である。FIG. 5 is a diagram illustrating an example of a destination list screen displayed on the display terminal according to the first embodiment. 宛先候補の選択からデータの送受信を開始するまでの処理の一例を示すシーケンス図である。FIG. 9 is a sequence diagram illustrating an example of processing from selection of a destination candidate to start of data transmission / reception. 第1の実施形態に係る遠隔制御システムにおいて、表示端末からの要求コマンドに基づくロボットの制御処理の一例を説明するためのフローチャートである。5 is a flowchart for explaining an example of a robot control process based on a request command from a display terminal in the remote control system according to the first embodiment. (a)は第1の実施形態に係るロボットに表示される表示画面の画面例、(b)は第1の実施形態に係る表示端末に表示される表示画面の画面例を示す図である。FIG. 2A is a diagram illustrating a screen example of a display screen displayed on the robot according to the first embodiment, and FIG. 2B is a diagram illustrating a screen example of a display screen displayed on a display terminal according to the first embodiment. 第1の実施形態に係るロボットにおける目標点算出処理の一例を説明するためのフローチャートである。5 is a flowchart illustrating an example of a target point calculation process in the robot according to the first embodiment. (a)は、画像処理部によって抽出された人物の頭の画像を概略的に示した処理データ、(b)は、注目点算出部によって算出された人物の頭の画像(a1〜a4)の位置および大きさの値である。(A) is processing data schematically showing a human head image extracted by the image processing unit, and (b) is a human head image (a1 to a4) of the human head image calculated by the attention point calculation unit. Position and size values. (a)は、注目点算出部によって特定された相対位置を示す座標情報、(b)は、注目点算出部によって特定された人物の相対位置を概略的に示した処理データである。(A) is coordinate information indicating the relative position specified by the attention point calculation unit, and (b) is processing data schematically indicating the relative position of the person specified by the attention point calculation unit. (a)は、画像処理部によって抽出された人物の目と鼻の画像を概略的に示した処理データ、(b)は、注目点算出部によって特定された人物の向きである(A) is processing data schematically showing an image of a person's eyes and nose extracted by the image processing unit, and (b) is a direction of the person specified by the attention point calculation unit. (a)は、注目点算出部によって特定された相対位置および向きの情報、(b)注目点算出部によって特定された人物の相対位置と向きを概略的に示した処理データである。(A) is information on the relative position and orientation specified by the attention point calculation unit, and (b) processing data schematically indicating the relative position and orientation of the person identified by the attention point calculation unit. (a)は、ビーコンが拠点内に設置された場合における、ロボット10の周囲に位置する人の位置および向きを推定する処理の一例を説明するための図である。(b)は、(a)に示した方法によって特定された、人物(h1〜h4)の相対位置および向きの情報である。(A) is a diagram for explaining an example of processing for estimating the position and orientation of a person located around the robot 10 when a beacon is installed in a base. (B) is information on the relative positions and orientations of the persons (h1 to h4) specified by the method shown in (a). 注目点算出部によって特定された人物(h1〜h4)の相対位置から、注目点算出部によって特定された人物の向きの方向に伸ばした直線の交点を算出した算出結果である。It is a calculation result of calculating the intersection of a straight line extending in the direction of the direction of the person specified by the attention point calculation unit from the relative position of the person (h1 to h4) specified by the attention point calculation unit. (a)は、注目点算出部の処理によってまとめられた交点の位置を示す座標情報、(b)は、注目点算出部の処理によってまとめられた交点の位置を概略的に示した処理データである。(A) is the coordinate information indicating the position of the intersection summarized by the processing of the attention point calculation unit, and (b) is the processing data schematically indicating the position of the intersection summarized by the processing of the attention point calculation unit. is there. (a)は、目標点算出部によって特定された目標点の情報、(b)は、目標点算出部によって特定された目標点の位置を概略的に示した処理データである。(A) is information on the target point specified by the target point calculation unit, and (b) is processing data schematically indicating the position of the target point specified by the target point calculation unit. 第1の実施形態に係るロボットにおける移動処理の一例を説明するためのフローチャートである。5 is a flowchart illustrating an example of a movement process in the robot according to the first embodiment. 第1の実施形態に係るロボットにおける存在通知処理の一例を説明するためのフローチャートである。5 is a flowchart illustrating an example of a presence notification process in the robot according to the first embodiment. (a)(b)第1の実施形態に係るロボットの移動経路の一例を説明するための図である。(A) (b) It is a figure for explaining an example of the movement course of the robot concerning a 1st embodiment. (a)(b)(c)第1の実施形態に係るロボットにおいて目標点算出処理を開始するまでの処理の一例を説明するためのフローチャートである。6A is a flowchart illustrating an example of a process until a target point calculation process is started in the robot according to the first embodiment. 第2の実施形態に係る遠隔制御システムの機能構成の一例を示す図である。It is a figure showing an example of the functional composition of the remote control system concerning a 2nd embodiment. 第2の実施形態に係る遠隔制御システムにおけるロボットの制御処理の一例を説明するためのシーケンス図である。It is a sequence diagram for explaining an example of control processing of the robot in the remote control system according to the second embodiment. 第3の実施形態に係る遠隔制御システムのシステム構成の一例を示す図である。It is a figure showing an example of the system configuration of the remote control system concerning a 3rd embodiment. 第3の実施形態に係る遠隔制御システムの機能構成の一例を示す図である。It is a figure showing an example of the functional composition of the remote control system concerning a 3rd embodiment. 第3の実施形態に係る遠隔制御システムにおけるロボットの制御処理の一例を説明するためのシーケンス図である。It is a sequence diagram for explaining an example of control processing of the robot in the remote control system according to the third embodiment.

以下、図面を参照しながら、発明を実施するための形態を説明する。なお、図面の説明において同一要素には同一符号を付し、重複する説明は省略する。   Hereinafter, embodiments for carrying out the invention will be described with reference to the drawings. In the description of the drawings, the same elements will be denoted by the same reference symbols, without redundant description.

●実施形態●
●システム構成
図1は、実施形態に係る遠隔制御システムのシステム構成の一例を示す図である。図1に示す遠隔制御システムは、表示端末50を用いて、遠隔拠点に位置するロボット10を遠隔操作することによって、拠点内の装置の管理や保守作業等、または拠点内に位置する人の位置や動線の確認等を行うことができるシステムである。また、遠隔制御システム1aは、ロボット10側の拠点で撮影された画像(映像)と表示端末50側の拠点で撮影された画像(映像)とを双方向に送受信することによって、遠隔会議を実現することができるシステムである。
● Embodiment ●
System Configuration FIG. 1 is a diagram illustrating an example of a system configuration of a remote control system according to the embodiment. The remote control system shown in FIG. 1 uses a display terminal 50 to remotely control a robot 10 located at a remote site, thereby managing or maintaining a device at the site, or the position of a person located at the site. It is a system that can check the traffic flow and the like. Further, the remote control system 1a realizes a remote conference by bidirectionally transmitting and receiving an image (video) shot at the base of the robot 10 and an image (video) shot at the base of the display terminal 50. It is a system that can do.

遠隔制御システム1aは、複数の拠点(拠点A,拠点B、拠点C)のそれぞれに位置するロボット10(10A、10B、10C、以下、区別する必要のないときは、ロボット10とする。)、表示端末50および管理サーバ90によって構成される。ロボット10、表示端末50および管理サーバ90は、通信ネットワーク9を介して通信可能に接続されている。通信ネットワーク9は、例えば、LAN(Local Area Network)、専用線およびインターネット等によって構築される。通信ネットワーク9は、有線だけでなく、Wi−Fi(登録商標)等の無線による通信が行われる箇所があってもよい。   The remote control system 1a includes a robot 10 (10A, 10B, 10C, hereinafter referred to as a robot 10 when there is no need to distinguish between them) located at each of a plurality of bases (base A, base B, base C). It is composed of a display terminal 50 and a management server 90. The robot 10, the display terminal 50, and the management server 90 are communicably connected via the communication network 9. The communication network 9 is constructed by, for example, a LAN (Local Area Network), a dedicated line, the Internet, and the like. The communication network 9 may include a place where not only wired communication but also wireless communication such as Wi-Fi (registered trademark) is performed.

ロボット10は、各拠点(拠点A,拠点B、拠点C)に設置され、表示端末50からの遠隔操作によって自律走行する移動体である。ロボット10は、後述する撮影装置21によってロボット10の周囲の被写体を撮像しながら拠点内を移動し、撮影装置21によって取得された画像を表示端末50へ送信することで、表示端末50を用いてロボット10を操作する操作者に、拠点内の情報(画像)を提供する。ロボット10は、移動体の一例である。   The robot 10 is a mobile object installed at each base (base A, base B, base C) and autonomously running by remote operation from the display terminal 50. The robot 10 uses the display terminal 50 by moving within the base while capturing an object around the robot 10 with the imaging device 21 described below and transmitting the image acquired by the imaging device 21 to the display terminal 50. The information (image) in the base is provided to the operator who operates the robot 10. The robot 10 is an example of a moving object.

表示端末50は、各拠点(拠点A,拠点B、拠点C)に設置されたロボット10の遠隔操作を行うPC(Personal Computer)等の端末装置である。表示端末50は、ロボット10から送信されてきた画像を表示する。操作者は、表示端末50に表示された画像を見ながら、ロボット10の遠隔操作を行うことができる。   The display terminal 50 is a terminal device such as a PC (Personal Computer) that remotely controls the robot 10 installed at each base (base A, base B, base C). The display terminal 50 displays an image transmitted from the robot 10. The operator can remotely control the robot 10 while viewing the image displayed on the display terminal 50.

なお、表示端末50は、ロボット10から送信されてきた画像を表示する表示手段を備えたものであればよく、例えば、タブレット端末、携帯電話、スマートフォン、ヘッドマウウントディスプレイ(HMD)等のウェアラブル端末、広角スクリーン(円筒、全天球、半天球スクリーン等)を備えた通信端末、PDA(Personal Digital Assistant)等であってもよい。   The display terminal 50 may be any device that has a display unit that displays an image transmitted from the robot 10. For example, a wearable terminal such as a tablet terminal, a mobile phone, a smartphone, and a head-mounted display (HMD) may be used. A communication terminal having a wide-angle screen (cylindrical, spherical, semi-spherical, or the like), a PDA (Personal Digital Assistant), or the like may be used.

管理サーバ90は、各拠点に位置するロボット10と表示端末50との間の通信を管理するためのサーバコンピュータである。管理サーバ90は、通信ネットワーク9を介してロボット10および表示端末50と接続される。なお、管理サーバ90は、複数台のサーバコンピュータにより構成されてもよく、どのサーバコンピュータに機能を備えさせてもよい。   The management server 90 is a server computer for managing communication between the robot 10 located at each site and the display terminal 50. The management server 90 is connected to the robot 10 and the display terminal 50 via the communication network 9. The management server 90 may be composed of a plurality of server computers, and any server computer may have a function.

ロボット10が設置される拠点は、例えば、オフィス、倉庫、工場、学校等である。表示端末50を用いてロボット10を操作する操作者は、ロボット10から送信された拠点内の画像を確認することによって、拠点内の人の位置や動線の確認、拠点内に設置された装置の管理や保守等を行うことができる。また、ロボット10と表示端末50は、双方によって撮影された画像を送受信することで双方向のコミュニケーション(遠隔会議)を行うこともできる。   The base where the robot 10 is installed is, for example, an office, a warehouse, a factory, a school, or the like. The operator who operates the robot 10 using the display terminal 50 checks the image in the base transmitted from the robot 10 to confirm the position and the flow line of the person in the base, and the device installed in the base. Management and maintenance. The robot 10 and the display terminal 50 can also perform two-way communication (remote conference) by transmitting and receiving images captured by both.

なお、図1において、各拠点内に一台のロボット10が設置されている構成を説明したが、ロボット10は、一つの拠点に複数台設置されていてもよい。また、表示端末50は、複数の拠点に配置されたロボット10のそれぞれと通信する構成であってもよいし、一つの拠点に配置されたロボット10のみと通信する構成であってもよい。   Although FIG. 1 illustrates the configuration in which one robot 10 is installed in each site, a plurality of robots 10 may be installed in one site. The display terminal 50 may be configured to communicate with each of the robots 10 arranged at a plurality of bases, or may be configured to communicate only with the robot 10 arranged at one base.

●ロボット10の構成
ここで、図2乃至図4を用いて、図1で示したロボット10の具体的な構成を説明する。図2は、実施形態に係るロボットの構成の概略の一例を示す図である。
Configuration of Robot 10 Here, a specific configuration of the robot 10 shown in FIG. 1 will be described with reference to FIGS. FIG. 2 is a diagram illustrating an example of a schematic configuration of the robot according to the embodiment.

図2に示すロボット10は、ロボット10を移動させる移動機構17、ロボットの処理または動作を制御する制御装置30を備えた筐体15、表示端末50から送信された画像を表示させるディスプレイ306a、ディスプレイ306aを支持する支持部材13、支持部材13を回転させる回転軸12、ロボット10の周囲の被写体を撮影する撮影装置21、ロボット周囲の音を集音するためのマイク308aおよびスピーカ308bを備える。   The robot 10 shown in FIG. 2 includes a moving mechanism 17 for moving the robot 10, a housing 15 including a control device 30 for controlling the processing or operation of the robot, a display 306a for displaying an image transmitted from the display terminal 50, and a display. The apparatus includes a support member 13 for supporting the support member 306a, a rotating shaft 12 for rotating the support member 13, an imaging device 21 for photographing an object around the robot 10, a microphone 308a for collecting sounds around the robot, and a speaker 308b.

移動機構17は、ロボット10を移動させるユニットであり、車輪、走行モータ、走行エンコーダ、ステアリングモータ、ステアリングエンコーダ等で構成される。ロボット10の移動制御については、既存の技術であるため、詳細な説明は省略するが、ロボット10は、操作者(表示端末50)からの走行指示を受信し、移動機構17は、受信した走行指示に基づいてロボット10を移動させる。   The moving mechanism 17 is a unit that moves the robot 10, and includes wheels, a traveling motor, a traveling encoder, a steering motor, a steering encoder, and the like. Since the movement control of the robot 10 is an existing technology, a detailed description thereof will be omitted. However, the robot 10 receives a traveling instruction from an operator (display terminal 50), and the moving mechanism 17 The robot 10 is moved based on the instruction.

以下、移動機構17は、2つの車輪によって構成される例を説明するが、移動機構17は、二足歩行の足型や単輪のものであってもよい。また、ロボット10の形状は、図2に示すような車両型に限られず、例えば、二足歩行の人型、生物を模写した形態、特定のキャラクターを模写した形態等であってもよい。   Hereinafter, an example in which the moving mechanism 17 includes two wheels will be described. However, the moving mechanism 17 may be a bipedal footprint or a single wheel. Further, the shape of the robot 10 is not limited to the vehicle type as shown in FIG. 2 and may be, for example, a bipedal humanoid, a form imitating a living thing, a form imitating a specific character, or the like.

筐体15は、ロボット10の胴体部分に位置し、ロボット10の全体に必要な電源を供給する電源供給ユニットおよびロボット10の処理もしくは動作を制御する制御装置30等が内蔵されている。   The housing 15 is located at the body of the robot 10, and includes a power supply unit that supplies necessary power to the entire robot 10, a control device 30 that controls processing or operation of the robot 10, and the like.

撮影装置21は、ロボット10の正面に配置され、ロボット10の周囲の被写体を撮影して画像データ200を取得するためのカメラである。撮影装置21は、ロボット10の周囲の一部を撮影して平面画像を取得する撮影装置であってもよいし、ロボット10の周囲を撮影して全天球(360°)パノラマ画像を取得する特殊撮影装置であってもよい。また、画像データ200の画像は、動画であっても静止画であってもよく、動画と静止画の両方であってもよい。さらに、画像データ200の画像は、画像とともに音データを含んだ映像であってもよい。   The photographing device 21 is a camera arranged in front of the robot 10 and for photographing a subject around the robot 10 and acquiring image data 200. The image capturing device 21 may be an image capturing device that captures a part of the periphery of the robot 10 to obtain a planar image, or may capture an image of the periphery of the robot 10 to obtain a panoramic (360 °) panoramic image. It may be a special photographing device. Further, the image of the image data 200 may be a moving image or a still image, or may be both a moving image and a still image. Further, the image of the image data 200 may be a video including sound data together with the image.

支持部材13は、筐体15に固定され、ディスプレイ306aを支持している。支持部材13は、回転軸12によって回転することで、ディスプレイ306aの向きを変更する。支持部材13は、筐体15に固定されたポール等であってもよいし、筐体15に固定された台座であってもよい。また、ディスプレイ306aは、例えば、遠隔会議を行う相手先の表示端末50で撮影されて取得された画像が表示される。   The support member 13 is fixed to the housing 15 and supports the display 306a. The support member 13 changes the direction of the display 306a by being rotated by the rotation shaft 12. The support member 13 may be a pole fixed to the housing 15 or a pedestal fixed to the housing 15. Further, the display 306a displays, for example, an image captured and acquired by the display terminal 50 of the other party with which the remote conference is performed.

なお、ロボット10は、上記構成のほかに、ロボット10の移動以外の付加的動作を可能とする操作手段が設置される構成であってもよい。操作手段は、例えば、物をつかむハンド等である。   The robot 10 may have a configuration in which an operation unit that enables an additional operation other than the movement of the robot 10 is installed in addition to the above configuration. The operating means is, for example, a hand for grasping an object.

〇ロボット10の構成の変形例〇
〇変形例1
ここで、図3を用いて、ロボット10の構成の変形例1について説明する。図3に示すロボット10aは、ディスプレイ306aを、支持部材13を変えて可動アーム11上に配置している。可動アーム11は、ディスプレイ306aを特定の方向へ向けるために変形可能な可動部材である。これにより、ロボット10aは、回転軸12によってディスプレイ306aの向きを変えるほか、可動アーム11を変形させることによって、ディスプレイ306aの向きを変更することができる。
<< Modification of Robot 10 Configuration >> Modification 1
Here, a first modification of the configuration of the robot 10 will be described with reference to FIG. In the robot 10a shown in FIG. 3, the display 306a is arranged on the movable arm 11 by changing the support member 13. The movable arm 11 is a movable member that can be deformed to turn the display 306a in a specific direction. Thereby, the robot 10a can change the direction of the display 306a by changing the movable arm 11 in addition to changing the direction of the display 306a by the rotation shaft 12.

〇変形例2
次に、図4を用いて、ロボット10の構成の変形例2について説明する。図4に示すロボット10bは、図2に示した構成から移動機構17を取り除いた構成である。図4に示すロボット10bは、机の上等に置いて固定して利用される。ロボット10bは、伝送端末の一例である。
〇Modification 2
Next, a second modification of the configuration of the robot 10 will be described with reference to FIG. The robot 10b shown in FIG. 4 has a configuration obtained by removing the moving mechanism 17 from the configuration shown in FIG. The robot 10b shown in FIG. 4 is used by being fixed on a desk or the like. The robot 10b is an example of a transmission terminal.

●ハードウエア構成
次に、図5乃至図7を用いて、実施形態におけるロボット10、表示端末50および管理サーバ90のハードウエア構成を説明する。なお、図5乃至図7に示すハードウエア構成は、各実施形態において同様の構成を備えていてもよく、必要に応じて構成要素が追加または削除されてもよい。
Hardware Configuration Next, the hardware configurations of the robot 10, the display terminal 50, and the management server 90 in the embodiment will be described with reference to FIGS. The hardware configurations shown in FIGS. 5 to 7 may have the same configuration in each embodiment, and components may be added or deleted as needed.

〇ロボット10のハードウエア構成〇
まず、図5を用いて、ロボット10のハードウエア構成を説明する。図5は、実施形態に係るロボットのハードウエア構成の一例を示す図である。なお、図5に示すハードウエア構成は、必要に応じて構成要素が追加または削除されてもよい。ロボット10は、ロボット10の処理または動作を制御する制御装置30を備える。制御装置30は、上述のように、ロボット10の筐体15の内部に備えられている。なお、制御装置30は、ロボット10の筐体15の外部に設けられてもよく、またはロボット10とは別の装置として設けられていてもよい。制御装置30は、情報処理装置の一例である。
<< Hardware Configuration of Robot 10 >> First, the hardware configuration of the robot 10 will be described with reference to FIG. FIG. 5 is a diagram illustrating an example of a hardware configuration of the robot according to the embodiment. Note that the hardware configuration illustrated in FIG. 5 may have components added or deleted as needed. The robot 10 includes a control device 30 that controls processing or operation of the robot 10. The control device 30 is provided inside the housing 15 of the robot 10 as described above. The control device 30 may be provided outside the housing 15 of the robot 10 or may be provided as a device separate from the robot 10. The control device 30 is an example of an information processing device.

制御装置30は、CPU(Central Processing Unit)301、ROM(Read Only Memory)302、RAM(Random Access Memory)303、HDD(Hard Disk Drive)304、ネットワークインターフェース(I/F)305、入出力I/F306、メディアI/F307、音入出力I/F308、外部I/F309およびバスライン310を備える。   The control device 30 includes a CPU (Central Processing Unit) 301, a ROM (Read Only Memory) 302, a RAM (Random Access Memory) 303, an HDD (Hard Disk Drive) 304, a network interface (I / F) 305, an input / output I / O An F / F 306, a media I / F 307, a sound input / output I / F 308, an external I / F 309, and a bus line 310 are provided.

CPU301は、ロボット10全体の制御を行う。CPU301は、ROM302またはHD(Hard Disk)304a等に格納された、プログラムもしくはデータをRAM303上に読み出し、処理を実行することで、ロボット10の各機能を実現する演算装置である。遠隔制御システム1aは、例えば、本発明に係るプログラムの一部または全てをCPU301で実行することによって、本発明に係る情報処理方法を実現する。   The CPU 301 controls the entire robot 10. The CPU 301 is an arithmetic unit that realizes each function of the robot 10 by reading out a program or data stored in the ROM 302 or an HD (Hard Disk) 304 a onto the RAM 303 and executing the processing. The remote control system 1a realizes the information processing method according to the present invention by causing the CPU 301 to execute a part or all of the program according to the present invention, for example.

RAM303は、CPU301のワークエリア等として用いられる揮発性のメモリである。ROM302は、電源を切ってもプログラムまたはデータを保持することができる不揮発性のメモリである。HDD304は、CPU301の制御にしたがってHD304aに対する各種データの読み出し、または書き込みを制御する。HD304aは、プログラム等の各種データを記憶する。   The RAM 303 is a volatile memory used as a work area or the like of the CPU 301. The ROM 302 is a non-volatile memory that can retain programs or data even when the power is turned off. The HDD 304 controls reading or writing of various data to the HD 304 a under the control of the CPU 301. The HD 304a stores various data such as programs.

ネットワークI/F305は、通信ネットワーク9を経由して表示端末50と通信(接続)を行う通信インターフェースである。ネットワークI/F305は、例えば、有線または無線LAN(Local Area Network)等の通信インターフェースである。また、ネットワークI/F305は、3G(3rd Generation)、LTE(Long Term Evolution)、4G(4rd Generation)、5G(5rd Generation)、Zigbee(登録商標)、BLE(Bluetooth(登録商標)Low Energy)、ミリ波無線通信の通信インターフェースを備えてもよい。   The network I / F 305 is a communication interface that performs communication (connection) with the display terminal 50 via the communication network 9. The network I / F 305 is a communication interface such as a wired or wireless LAN (Local Area Network). The network I / F 305 includes 3G (3rd Generation), LTE (Long Term Evolution), 4G (4rd Generation), 5G (5rd Generation), Zigbee (registered trademark), BLE (Bluetooth (registered trademark) Low Energy), A communication interface for millimeter wave wireless communication may be provided.

入出力I/F306は、文字、数値、各種指示等を各種外部機器等との間で入出力するためのインターフェースである。入出力I/F306は、LCD(Liquid Crystal Display)等のディスプレイ306aに対するカーソル、メニュー、ウィンドウ、文字または画像等の各種情報の表示を制御する。ディスプレイ306aは、入力手段を備えたタッチパネルディスプレイであってもよい。また、入出力I/F306は、ディスプレイ306aのほかに、例えば、マウス、キーボード等の入力手段が接続されていてもよい。   The input / output I / F 306 is an interface for inputting and outputting characters, numerical values, various instructions, and the like to and from various external devices. The input / output I / F 306 controls display of various information such as a cursor, a menu, a window, characters, and images on a display 306a such as an LCD (Liquid Crystal Display). The display 306a may be a touch panel display including an input unit. The input / output I / F 306 may be connected to input means such as a mouse and a keyboard in addition to the display 306a.

メディアI/F307は、USB(Universal Serial Bus)メモリ、メモリカード、光学ディスクまたはフラッシュメモリ等の記録メディア307aに対するデータの読み出しまたは書き込み(記憶)を制御する。音入出力I/F308は、CPU301の制御に従ってマイク308aおよびスピーカ308bとの間で音信号の入出力を処理する回路である。外部I/F309は、制御装置30に他の装置を接続するためのインターフェースである。   The media I / F 307 controls reading or writing (storage) of data from or to a recording medium 307a such as a USB (Universal Serial Bus) memory, a memory card, an optical disk, or a flash memory. The sound input / output I / F 308 is a circuit that processes input / output of a sound signal between the microphone 308a and the speaker 308b under the control of the CPU 301. The external I / F 309 is an interface for connecting the control device 30 to another device.

バスライン310は、上記各構成要素を電気的に接続するためのアドレスバスやデータバス等であり、アドレス信号、データ信号、および各種制御信号等を伝送する。CPU301、ROM302、RAM303、HDD304、ネットワークI/F305、入出力I/F306、メディアI/F307、音入出力I/F308および外部I/F309は、バスライン310を介して相互に接続されている。   The bus line 310 is an address bus, a data bus, or the like for electrically connecting the above components, and transmits an address signal, a data signal, various control signals, and the like. The CPU 301, the ROM 302, the RAM 303, the HDD 304, the network I / F 305, the input / output I / F 306, the media I / F 307, the sound input / output I / F 308, and the external I / F 309 are interconnected via a bus line 310.

さらに、制御装置30には、外部I/F309を介して、移動モータ101、アクチュエータ102、加速度・方位センサ103、GPS受信部104、電源供給ユニット105、各種センサ106、タイマ107、および上述した撮影装置21が接続されている。   Further, the control device 30 is provided with a moving motor 101, an actuator 102, an acceleration / direction sensor 103, a GPS receiving unit 104, a power supply unit 105, various sensors 106, a timer 107, and the above-described imaging via an external I / F 309. The device 21 is connected.

移動モータ101は、CPU301からの命令に基づき、移動機構17を回転駆動させてロボット10を地面に沿って移動させる。アクチュエータ102は、CPU301からの命令に基づき、可動アーム11を変形させる。加速度・方位センサ103は、地磁気を検知する電子磁気コンパス、ジャイロコンパスおよび加速度センサ等のセンサである。GPS(Global Positioning System)受信部104は、GPS衛星からGPS信号を受信する。電源供給ユニット105は、ロボット10の全体に必要な電源を供給するユニットである。各種センサ106は、ロボット10の周囲の情報を検知可能なセンサデバイスである。各種センサ106は、例えば、気圧計、温度計、光度計、人感センサ、または照度計等である。タイマ107は、時間計測機能を有する計測装置である。タイマ107は、コンピュータによるソフトタイマであってもよい。   The moving motor 101 rotates the moving mechanism 17 based on a command from the CPU 301 to move the robot 10 along the ground. The actuator 102 deforms the movable arm 11 based on a command from the CPU 301. The acceleration / azimuth sensor 103 is a sensor such as an electronic magnetic compass, a gyro compass, and an acceleration sensor for detecting geomagnetism. A GPS (Global Positioning System) receiving unit 104 receives a GPS signal from a GPS satellite. The power supply unit 105 is a unit that supplies necessary power to the entire robot 10. The various sensors 106 are sensor devices that can detect information around the robot 10. The various sensors 106 are, for example, a barometer, a thermometer, a photometer, a human sensor, or an illuminometer. The timer 107 is a measuring device having a time measuring function. The timer 107 may be a soft timer by a computer.

〇表示端末50のハードウエア構成〇
続いて、図6を用いて、表示端末50のハードウエア構成について説明する。図6は、実施形態に係る表示端末のハードウエア構成の一例を示す図である。表示端末50は、CPU501、ROM502、RAM503、EEPROM(Electrically Erasable Programmable Read-Only Memory)504、撮像素子I/F505、CMOS(Complementary Metal Oxide Semiconductor)センサ505a、加速度・方位センサ506、メディアI/F507およびGPS受信部508を備えている。
<< Hardware Configuration of Display Terminal 50 >> Next, a hardware configuration of the display terminal 50 will be described with reference to FIG. FIG. 6 is a diagram illustrating an example of a hardware configuration of the display terminal according to the embodiment. The display terminal 50 includes a CPU 501, a ROM 502, a RAM 503, an EEPROM (Electrically Erasable Programmable Read-Only Memory) 504, an image sensor I / F 505, a CMOS (Complementary Metal Oxide Semiconductor) sensor 505a, an acceleration / azimuth sensor 506, a media I / F 507, A GPS receiver 508 is provided.

CPU501は、表示端末50全体の動作を制御する。CPU501は、ROM502等に格納されたプログラムまたはデータをRAM503上に読み出し、処理を実行することで、表示端末50の各機能を実現する演算装置である。遠隔制御システム1aは、例えば、本発明に係るプログラムの一部または全てをCPU501で実行することによって、本発明に係る情報処理方法を実現する。   The CPU 501 controls the operation of the entire display terminal 50. The CPU 501 is an arithmetic device that realizes each function of the display terminal 50 by reading out a program or data stored in the ROM 502 or the like onto the RAM 503 and executing a process. The remote control system 1a realizes the information processing method according to the present invention by causing the CPU 501 to execute a part or all of the program according to the present invention, for example.

ROM502は、IPL(Initial Program Loader)等のCPU501の駆動に用いられるプログラムを記憶する。RAM503は、CPU501のワークエリアとして使用される。EEPROM504は、CPU501の制御にしたがって、表示端末用プログラム等の各種データの読み出しまたは書き込みを行う。   The ROM 502 stores a program used for driving the CPU 501, such as an IPL (Initial Program Loader). The RAM 503 is used as a work area of the CPU 501. The EEPROM 504 reads or writes various data such as a display terminal program under the control of the CPU 501.

CMOSセンサ505aは、CPU501の制御に従って被写体(主に自画像)を撮像し画像データを得る。撮像素子I/F505は、CMOSセンサ505aの駆動を制御する回路である。加速度・方位センサ506は、地磁気を検知する電子磁気コンパス、ジャイロコンパスおよび加速度センサ等の各種センサである。メディアI/F507は、フラッシュメモリ等の記録メディア507aに対するデータの読み出しまたは書き込み(記憶)を制御する。GPS受信部508は、GPS衛星からGPS信号を受信する。   The CMOS sensor 505a captures a subject (mainly a self-portrait) under the control of the CPU 501 to obtain image data. The image sensor I / F 505 is a circuit that controls driving of the CMOS sensor 505a. The acceleration / azimuth sensor 506 is various sensors such as an electronic magnetic compass, a gyro compass, and an acceleration sensor for detecting geomagnetism. The media I / F 507 controls reading or writing (storage) of data from or to a recording medium 507a such as a flash memory. The GPS receiving unit 508 receives a GPS signal from a GPS satellite.

また、表示端末50は、遠距離通信回路510、遠距離通信回路510のアンテナ510a、音入出力I/F511、マイク511a、スピーカ511b、ディスプレイ512、外部機器接続I/F513、近距離通信回路514、近距離通信回路514のアンテナ514a、タッチパネル515、タイマ516および視線検出装置517を備えている。   The display terminal 50 includes a long-distance communication circuit 510, an antenna 510a of the long-distance communication circuit 510, a sound input / output I / F 511, a microphone 511a, a speaker 511b, a display 512, an external device connection I / F 513, and a short-distance communication circuit 514. , A short-range communication circuit 514, an antenna 514a, a touch panel 515, a timer 516, and a line-of-sight detection device 517.

遠距離通信回路510は、通信ネットワーク9を介して、他の機器と通信する回路である。マイク511aは、音声を入力する内蔵型の集音手段の一種である。音入出力I/F511は、CPU501の制御に従ってマイク511aおよびスピーカ511bとの間で音信号の入出力を処理する回路である。   The long-distance communication circuit 510 is a circuit that communicates with another device via the communication network 9. The microphone 511a is a type of a built-in sound collecting unit for inputting sound. The sound input / output I / F 511 is a circuit that processes input / output of a sound signal between the microphone 511a and the speaker 511b under the control of the CPU 501.

ディスプレイ512は、被写体の画像や各種アイコン等を表示する液晶や有機EL等の表示手段の一種である。外部機器接続I/F513は、各種の外部機器を接続するためのインターフェースである。近距離通信回路514は、Wi−Fi、NFC、またはBluetooth等の通信回路である。タッチパネル515は、利用者がディスプレイ512を押下することで、表示端末50を操作する入力手段の一種である。タイマ516は、時間計測機能を有する計測装置である。タイマ516は、コンピュータによるソフトタイマであってもよい。視線検出装置517は、ユーザの視線の位置を視線情報として連続的に検知する。視線検出装置517は、例えば、CMOSセンサ505aで撮像した画像を分析する画像処理装置を含む。視線検出装置517は、例えば、基準点を目頭とし、目頭と虹彩との位置関係から視線の方向を検知する。   The display 512 is a type of display means such as a liquid crystal display or an organic EL display that displays an image of a subject and various icons. The external device connection I / F 513 is an interface for connecting various external devices. The short-range communication circuit 514 is a communication circuit such as Wi-Fi, NFC, or Bluetooth. The touch panel 515 is a type of input unit that operates the display terminal 50 when the user presses the display 512. The timer 516 is a measuring device having a time measuring function. Timer 516 may be a soft timer by a computer. The gaze detection device 517 continuously detects the position of the gaze of the user as gaze information. The eye gaze detecting device 517 includes, for example, an image processing device that analyzes an image captured by the CMOS sensor 505a. The eye gaze detecting device 517 detects the direction of the eye gaze from the positional relationship between the eye and the iris, for example, with the reference point as the inner eye.

また、表示端末50は、バスライン509を備えている。バスライン509は、CPU501等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。   The display terminal 50 includes a bus line 509. The bus line 509 is an address bus, a data bus, and the like for electrically connecting each component such as the CPU 501.

〇管理サーバ90のハードウエア構成〇
続いて、図7を用いて、管理サーバ90のハードウエア構成について説明する。図7は、実施形態に係る管理サーバのハードウエア構成の一例を示す図である。管理サーバ90は、一般的なコンピュータによって構築されている。管理サーバ90は、CPU901、ROM902、RAM903、HDD905、メディアI/F907、ディスプレイ908、ネットワークI/F909、キーボード911、マウス912、CD−RW(Compact Disc-ReWritable)ドライブ914、タイマ915およびバスライン910を備えている。なお、管理サーバ90は、サーバとして機能するため、キーボード911やマウス912等の入力装置や、ディスプレイ908等の出力装置を備えていなくてもよい。
<< Hardware Configuration of Management Server 90 >> Subsequently, a hardware configuration of the management server 90 will be described with reference to FIG. FIG. 7 is a diagram illustrating an example of a hardware configuration of the management server according to the embodiment. The management server 90 is constructed by a general computer. The management server 90 includes a CPU 901, a ROM 902, a RAM 903, an HDD 905, a media I / F 907, a display 908, a network I / F 909, a keyboard 911, a mouse 912, a CD-RW (Compact Disc-ReWritable) drive 914, a timer 915, and a bus line 910. It has. In addition, since the management server 90 functions as a server, the management server 90 may not include an input device such as the keyboard 911 and the mouse 912 or an output device such as the display 908.

CPU901は、管理サーバ90全体の動作を制御する。ROM902は、CPU901の駆動に用いられるプログラムを記憶する。RAM903は、CPU901のワークエリアとして使用される。HDD905は、CPU901の制御にしたがってHD904に対する各種データの読み出し、または書き込みを制御する。HD904は、プログラム等の各種データを記憶する。メディアI/F907は、フラッシュメモリ等の記録メディア906に対するデータの読み出し、または書き込み(記憶)を制御する。   The CPU 901 controls the operation of the entire management server 90. The ROM 902 stores a program used for driving the CPU 901. The RAM 903 is used as a work area of the CPU 901. The HDD 905 controls reading or writing of various data from or to the HD 904 under the control of the CPU 901. The HD 904 stores various data such as programs. A media I / F 907 controls reading or writing (storage) of data from or to a recording medium 906 such as a flash memory.

ディスプレイ908は、カーソル、メニュー、ウィンドウ、文字、または画像等の各種情報を表示する。ネットワークI/F909は、通信ネットワーク9を利用してデータ通信をするためのインターフェースである。キーボード911は、文字、数値、各種指示等の入力のための複数のキーを備えた入力手段の一種である。マウス912は、各種指示の選択や実行、処理対象の選択、カーソルの移動等を行う入力手段の一種である。CD−RWドライブ914は、着脱可能な記録媒体の一例としてのCD−RW913に対する各種データの読み出し等を制御する。タイマ915は、時間計測機能を有する計測装置である。タイマ915は、コンピュータによるソフトタイマであってもよい。   The display 908 displays various information such as a cursor, a menu, a window, characters, and an image. The network I / F 909 is an interface for performing data communication using the communication network 9. The keyboard 911 is a type of input means having a plurality of keys for inputting characters, numerical values, various instructions, and the like. The mouse 912 is a type of input means for selecting and executing various instructions, selecting a processing target, moving a cursor, and the like. The CD-RW drive 914 controls reading of various data from a CD-RW 913 as an example of a removable recording medium. The timer 915 is a measuring device having a time measuring function. Timer 915 may be a computer soft timer.

また、管理サーバ90は、バスライン910を備えている。バスライン910は、図7に示すCPU901等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。   The management server 90 includes a bus line 910. The bus line 910 is an address bus, a data bus, and the like for electrically connecting each component such as the CPU 901 shown in FIG.

●第1の実施形態●
続いて、図8乃至図30を用いて、第1の実施形態に係る遠隔制御システムの構成について説明する。
● First embodiment ●
Next, a configuration of the remote control system according to the first embodiment will be described with reference to FIGS.

●機能構成
まず、図8を用いて、第1の実施形態に係る遠隔制御システムの機能構成について説明する。図8は、第1の実施形態に係る遠隔制御システムの機能構成の一例を示す図である。
First, the functional configuration of the remote control system according to the first embodiment will be described with reference to FIG. FIG. 8 is a diagram illustrating an example of a functional configuration of the remote control system according to the first embodiment.

〇制御装置30の機能構成〇
まず、図8を用いて、ロボット10の処理または動作を制御する制御装置30の機能構成について説明する。制御装置30によって実現される機能は、送受信部31、操作入力受付部32、表示制御部33、判断部34、撮影指示部35、画像取得部36、移動制御部37、向き調整部38、位置特定部39、画像処理部41、注目点算出部42、目標点算出部43、周辺情報検出部44、存在通知部45、記憶・読出部46および記憶部3000を含む。
<< Functional Configuration of Control Device 30 >> First, the functional configuration of the control device 30 that controls the processing or operation of the robot 10 will be described with reference to FIG. The functions realized by the control device 30 include a transmission / reception unit 31, an operation input reception unit 32, a display control unit 33, a determination unit 34, a shooting instruction unit 35, an image acquisition unit 36, a movement control unit 37, a direction adjustment unit 38, a position It includes a specifying unit 39, an image processing unit 41, a point of interest calculation unit 42, a target point calculation unit 43, a peripheral information detection unit 44, a presence notification unit 45, a storage / readout unit 46, and a storage unit 3000.

送受信部31は、通信ネットワーク9を介して、他の装置との間で各種データまたは情報の送受信を行う機能である。送受信部31は、例えば、画像取得部36によって取得された画像データ200を、通信ネットワーク9を介して、表示端末50へ送信する。また、送受信部31は、例えば、通信ネットワーク9を介して、表示端末50から送信されてきた要求コマンド(要求情報)を受信する。さらに、送受信部31は、例えば、表示端末50によって取得された画像である画像データ250を、通信ネットワーク9を介して、表示端末50から受信する。また、送受信部31は、目標点算出部43によって算出された目標点において撮影装置21によって取得された画像データ200を、通信ネットワーク9を介して、表示端末50へ送信する。送受信部31は、主に、図5に示したCPU301の処理、およびネットワークI/F305によって実現される。送受信部31は、第1の送信手段の一例である。   The transmission / reception unit 31 has a function of transmitting / receiving various data or information to / from another device via the communication network 9. The transmission / reception unit 31 transmits the image data 200 acquired by the image acquisition unit 36 to the display terminal 50 via the communication network 9, for example. The transmission / reception unit 31 receives, for example, a request command (request information) transmitted from the display terminal 50 via the communication network 9. Further, the transmitting / receiving unit 31 receives, for example, image data 250 that is an image acquired by the display terminal 50 from the display terminal 50 via the communication network 9. In addition, the transmission / reception unit 31 transmits the image data 200 obtained by the imaging device 21 at the target point calculated by the target point calculation unit 43 to the display terminal 50 via the communication network 9. The transmission / reception unit 31 is mainly realized by the processing of the CPU 301 illustrated in FIG. 5 and the network I / F 305. The transmission / reception unit 31 is an example of a first transmission unit.

操作入力受付部32は、ディスプレイ306a等の入力手段に対する操作入力を受け付ける機能である。操作入力受付部32は、主に、図5に示したCPU301の処理、および入出力I/F306によって実現される。表示制御部33は、ディスプレイ306aに各種画面を表示させる機能である。表示制御部33は、主に、図5に示したCPU301の処理、および入出力I/F306によって実現される。   The operation input receiving unit 32 has a function of receiving an operation input to an input unit such as the display 306a. The operation input receiving unit 32 is mainly realized by the processing of the CPU 301 and the input / output I / F 306 shown in FIG. The display control unit 33 has a function of displaying various screens on the display 306a. The display control unit 33 is realized mainly by the processing of the CPU 301 and the input / output I / F 306 shown in FIG.

判断部34は、表示端末50から送信されてきた要求コマンドに応じてロボット10が実行する処理または動作を判断する機能である。判断部34は、主に、図5に示したCPU301の処理によって実現される。   The determination unit 34 has a function of determining a process or an operation to be executed by the robot 10 in response to a request command transmitted from the display terminal 50. The determination unit 34 is mainly realized by the processing of the CPU 301 shown in FIG.

撮影指示部35は、撮影装置21に対する撮影処理を指示する機能である。撮影指示部35は、例えば、撮影装置21による撮影を指示するための指示情報を、撮影装置21へ送信する。撮影指示部35は、主に、図5に示したCPU301の処理、および外部I/F309によって実現される。   The imaging instruction unit 35 has a function of instructing the imaging device 21 to perform imaging processing. The imaging instruction unit 35 transmits, for example, instruction information for instructing the imaging device 21 to perform imaging, to the imaging device 21. The imaging instruction unit 35 is mainly realized by the processing of the CPU 301 illustrated in FIG. 5 and the external I / F 309.

画像取得部36は、撮影装置21によって取得された画像を取得する機能である。画像取得部36は、例えば、撮影装置21が被写体を撮影して取得した画像である画像データ200を、撮影装置21から取得する。画像取得部36は、主に、図5に示したCPU301の処理、および外部I/F309によって実現される。画像取得部36は、取得手段の一例である。   The image acquisition unit 36 has a function of acquiring an image acquired by the imaging device 21. The image acquiring unit 36 acquires, for example, image data 200 which is an image acquired by photographing the subject by the photographing device 21 from the photographing device 21. The image acquisition unit 36 is mainly realized by the processing of the CPU 301 illustrated in FIG. 5 and the external I / F 309. The image acquisition unit 36 is an example of an acquisition unit.

移動制御部37は、移動機構17を駆動させることによって、ロボット10の移動を制御する機能である。移動制御部37は、例えば、表示端末50から送信されてきた要求コマンドに応じて移動機構17の駆動を制御することで、ロボット10を移動させる。また、移動制御部37は、例えば、目標点算出部43によって算出された目標点へロボット10を移動させるように、移動機構17の駆動を制御する。移動制御部37は、主に、図5に示したCPU301の処理、および外部I/F309によって実現される。移動制御部37は、移動制御手段の一例である。   The movement control unit 37 has a function of controlling the movement of the robot 10 by driving the movement mechanism 17. The movement control unit 37 moves the robot 10 by controlling the driving of the movement mechanism 17 in response to a request command transmitted from the display terminal 50, for example. Further, the movement control unit 37 controls the driving of the moving mechanism 17 so as to move the robot 10 to the target point calculated by the target point calculation unit 43, for example. The movement control unit 37 is mainly realized by the processing of the CPU 301 illustrated in FIG. 5 and the external I / F 309. The movement control unit 37 is an example of a movement control unit.

向き調整部38は、ロボット10の向きを変更する機能である。向き調整部38は、例えば、目標点算出部43によって算出されたロボット10の移動先のロボット10の向きに応じて、移動機構17または回転軸12の駆動を制御することで、ロボット10の向きを変更する。向き調整部38は、主に、図5に示したCPU301の処理、および外部I/F309によって実現される。   The direction adjusting unit 38 has a function of changing the direction of the robot 10. The direction adjusting unit 38 controls the drive of the moving mechanism 17 or the rotating shaft 12 according to the direction of the robot 10 to which the robot 10 is moved, for example, calculated by the target point calculating unit 43. To change. The direction adjustment unit 38 is mainly realized by the processing of the CPU 301 illustrated in FIG. 5 and the external I / F 309.

位置特定部39は、ロボット10の現在位置を特定する機能である。位置特定部39は、例えば、加速度・方位センサ103またはGPS受信部104によって検出される各方位(方位角、磁北)の方向等の検出結果に基づいて、ロボット10の現在位置を特定する。各方位の方向等の検出結果は、ロボット10の所定時点における位置および向きを示す位置情報である。位置特定部39は、主に、図5に示したCPU301の処理、および外部I/F309によって実現される。位置特定部39は、位置検出手段の一例である。   The position specifying unit 39 has a function of specifying the current position of the robot 10. The position specifying unit 39 specifies the current position of the robot 10 based on a detection result of each direction (azimuth angle, magnetic north) detected by the acceleration / azimuth sensor 103 or the GPS receiving unit 104, for example. The detection result such as the direction of each direction is position information indicating the position and direction of the robot 10 at a predetermined time. The position specifying unit 39 is mainly realized by the processing of the CPU 301 illustrated in FIG. 5 and the external I / F 309. The position specifying unit 39 is an example of a position detecting unit.

画像処理部41は、画像取得部36によって取得された画像データ200に対する処理を行う機能である。画像処理部41は、例えば、画像取得部36によって取得された画像データ200に含まれる人物の頭の画像を抽出する。また、画像処理部41は、例えば、画像取得部36によって取得された人物の目と鼻の画像を抽出する。画像処理部41は、主に、図5に示したCPU301の処理によって実現される。   The image processing unit 41 has a function of performing processing on the image data 200 obtained by the image obtaining unit 36. The image processing unit 41 extracts, for example, an image of a person's head included in the image data 200 acquired by the image acquisition unit 36. The image processing unit 41 extracts, for example, the eyes and nose images of the person acquired by the image acquiring unit 36. The image processing unit 41 is realized mainly by the processing of the CPU 301 shown in FIG.

注目点算出部42は、画像処理部41によって処理された画像データに含まれる複数の人物の位置および向きに基づいて、複数の人が注目する注目点を特定する機能である。注目点は、ロボット10が設置された拠点において複数の人が注目している位置であり、例えば、ロボット10の周囲の複数の人が向いている方向の交点である。注目点は、例えば、遠隔会議において、ロボット10側の拠点での複数の参加者が向いている方向、すなわち、ある時点における話題の中心位置である。注目点算出部42は、主に、図5に示したCPU301の処理によって実現される。注目点算出部42は、算出手段の一例である。また、注目点算出部42は、推定手段の一例である。さらに、注目点算出部42は、注目点特定手段の一例である。   The attention point calculation unit 42 has a function of specifying an attention point to which a plurality of people pays attention based on the positions and orientations of the plurality of people included in the image data processed by the image processing unit 41. The point of interest is a position where a plurality of people are paying attention at the base where the robot 10 is installed, for example, an intersection in a direction in which a plurality of people around the robot 10 are facing. The point of interest is, for example, the direction in which a plurality of participants at the base on the robot 10 side are facing in the remote conference, that is, the center position of the topic at a certain point in time. The attention point calculation unit 42 is realized mainly by the processing of the CPU 301 shown in FIG. The attention point calculation unit 42 is an example of a calculation unit. In addition, the attention point calculation unit 42 is an example of an estimation unit. Furthermore, the attention point calculation unit 42 is an example of an attention point identification unit.

目標点算出部43は、注目点算出部42によって算出された注目点に基づいて、ロボット10の移動先となる目標点を特定する機能である。目標点算出部43によって特定される目標点は、ロボット10の移動先の目標位置Gを示す位置情報(座標情報)と、ロボット10の移動先のロボット10の向きを示す方向情報を含む。目標点算出部43は、主に、図5に示したCPU301の処理によって実現される。目標点算出部43は、算出手段の一例である。また、目標点算出部43は、目標点特定手段の一例である。   The target point calculation unit 43 has a function of specifying a target point to which the robot 10 moves based on the target point calculated by the target point calculation unit 42. The target point specified by the target point calculation unit 43 includes position information (coordinate information) indicating the target position G of the destination of the robot 10 and direction information indicating the direction of the robot 10 of the destination of the robot 10. The target point calculation unit 43 is realized mainly by the processing of the CPU 301 shown in FIG. The target point calculation unit 43 is an example of a calculation unit. The target point calculation unit 43 is an example of a target point specifying unit.

周辺情報検出部44は、撮影装置21によって取得された画像データ200または各種センサ106によって検出された検出結果等を用いて、ロボット10の周囲の情報を検出する機能である。周辺情報検出部44は、主に、図5に示したCPU301の処理、および外部I/F309によって実現される。   The peripheral information detection unit 44 has a function of detecting information around the robot 10 using the image data 200 acquired by the imaging device 21 or the detection results detected by various sensors 106. The peripheral information detection unit 44 is mainly realized by the processing of the CPU 301 illustrated in FIG. 5 and the external I / F 309.

存在通知部45は、予め定められた条件に基づいて、ロボット10の存在を通知する機能である。存在通知部45は、例えば、位置特定部39によって検出された現在位置と、目標点算出部43によって算出された目標点との距離が閾値以上または閾値より長い場合、ロボット10の存在を通知する通知情報を出力する。通知情報は、例えば、音信号であり、存在通知部45は、スピーカ308bから音信号を出力する。また、通知情報は、例えば、ロボット10の所定のジェスチャーであり、存在通知部45は、移動機構17、もしくは可動アーム11または回転軸12を駆動させる。なお、閾値は、予め記憶部3000に記憶されている。存在通知部45は、主に、図5に示したCPU301の処理、および外部I/F309によって実現される。存在通知部45は、存在通知手段の一例である。   The presence notification unit 45 has a function of notifying the presence of the robot 10 based on a predetermined condition. The presence notification unit 45 notifies the presence of the robot 10 when, for example, the distance between the current position detected by the position identification unit 39 and the target point calculated by the target point calculation unit 43 is equal to or greater than the threshold or longer than the threshold. Output notification information. The notification information is, for example, a sound signal, and the presence notification unit 45 outputs a sound signal from the speaker 308b. The notification information is, for example, a predetermined gesture of the robot 10, and the presence notification unit 45 drives the moving mechanism 17, the movable arm 11, or the rotating shaft 12. The threshold is stored in the storage unit 3000 in advance. The presence notification unit 45 is mainly realized by the processing of the CPU 301 illustrated in FIG. 5 and the external I / F 309. The presence notification unit 45 is an example of a presence notification unit.

記憶・読出部46は、記憶部3000に各種データを記憶させ、または記憶部3000から各種データを読み出す機能である。記憶・読出部46は、主に、図5に示したCPU301の処理によって実現される。記憶部3000は、主に、図5に示したROM302、HD304aおよび記録メディア307aによって実現される。   The storage / readout unit 46 has a function of storing various data in the storage unit 3000 or reading various data from the storage unit 3000. The storage / readout unit 46 is realized mainly by the processing of the CPU 301 shown in FIG. The storage unit 3000 is mainly realized by the ROM 302, the HD 304a, and the recording medium 307a illustrated in FIG.

また、記憶部3000は、画像取得部36によって撮影された画像データ200、および表示端末50から送信されてきた画像データ250を記憶している。さらに、記憶部3000は、コマンドテーブル3001および条件テーブル3002を記憶している。なお、記憶部3000に記憶されている画像データ200は、画像取得部36によって取得されてから所定の時間経過した場合に削除される構成であってもよいし、表示端末50へ送信されたデータが削除される構成であってもよい。同様に、記憶部3000に記憶されている画像データ250は、表示端末50から送信されてから所定の時間経過した場合に削除される構成であってもよい。   The storage unit 3000 stores image data 200 captured by the image acquisition unit 36 and image data 250 transmitted from the display terminal 50. Further, the storage unit 3000 stores a command table 3001 and a condition table 3002. The image data 200 stored in the storage unit 3000 may be deleted when a predetermined time has elapsed since the image data was acquired by the image acquisition unit 36, or the data transmitted to the display terminal 50 may be deleted. May be deleted. Similarly, the configuration may be such that the image data 250 stored in the storage unit 3000 is deleted when a predetermined time has elapsed since the image data 250 was transmitted from the display terminal 50.

〇コマンドテーブル3001
ここで、記憶部3000に記憶されたデータの詳細について説明する。図9は、第1の実施形態に係るコマンドテーブルの一例を示す図である。図9に示すコマンドテーブル3001は、表示端末50から送信されてきた要求コマンドに基づいてロボット10に実行される処理または動作を特定するためのものである。コマンドテーブル3001は、要求コマンドごとに、それぞれの要求コマンドに対応する処理内容を関連づけて記憶している。制御装置30の判断部34は、コマンドテーブル3001を用いて、表示端末50から送信されてきた要求コマンドに対応する処理を特定する。
〇 Command table 3001
Here, details of the data stored in the storage unit 3000 will be described. FIG. 9 is a diagram illustrating an example of the command table according to the first embodiment. The command table 3001 shown in FIG. 9 is for specifying a process or an operation to be executed by the robot 10 based on a request command transmitted from the display terminal 50. The command table 3001 stores the processing contents corresponding to each request command in association with each request command. Using the command table 3001, the determination unit 34 of the control device 30 specifies a process corresponding to the request command transmitted from the display terminal 50.

例えば、コマンドテーブル3001において、要求コマンド「FORWARD」に対応する処理は、ロボット10を一定量前進させる処理である。なお、それぞれのコマンドに対応する処理の内容は、これに限られず、表示端末50を用いてロボット10を操作する操作者またはロボット10の管理者等によって適宜修正・変更可能である。   For example, in the command table 3001, a process corresponding to the request command “FORWARD” is a process of moving the robot 10 forward by a certain amount. Note that the content of the processing corresponding to each command is not limited to this, and can be appropriately modified or changed by an operator who operates the robot 10 using the display terminal 50 or an administrator of the robot 10.

〇条件テーブル3002
図10は、第1の実施形態に係る撮影パラメータの一例を示す図である。図10に示す条件テーブル3002は、注目点に対する位置調整処理を開始するための条件を示したものである。条件テーブル3002は、拠点名で示される拠点ごとに、条件情報を関連づけて記憶している。条件情報は、一つ前の位置調整処理を行ってからの経過時間、人との距離、および位置調整処理の調整周期が含まれる。なお、条件情報に含まれる項目は、これに限られず、拠点ごとに一つの項目の条件が含まれていてもよいし、拠点ごとに複数の項目の条件が含まれていてもよい。
〇 Condition table 3002
FIG. 10 is a diagram illustrating an example of imaging parameters according to the first embodiment. A condition table 3002 shown in FIG. 10 shows conditions for starting a position adjustment process for a point of interest. The condition table 3002 stores condition information in association with each site indicated by the site name. The condition information includes an elapsed time since the previous position adjustment processing was performed, a distance to a person, and an adjustment cycle of the position adjustment processing. Note that the items included in the condition information are not limited thereto, and the condition of one item may be included for each site, or the condition of a plurality of items may be included for each site.

条件テーブル3002は、拠点ごとに条件情報を記憶することで、ロボット10が位置する拠点ごとに位置調整処理を行う頻度や条件を異ならせることができる。なお、条件テーブル3002は、拠点ごとに条件情報がそれぞれ関連づけられている例を説明したが、ロボット10ごとに条件情報を関連づけて記憶していてもよい。   The condition table 3002 stores the condition information for each site, so that the frequency and conditions for performing the position adjustment process can be changed for each site where the robot 10 is located. Although the condition table 3002 has described an example in which the condition information is associated with each base, the condition information may be stored in association with each robot 10.

〇表示端末50の機能構成〇
次に、図8を用いて、表示端末50の機能構成について説明する。表示端末50により実現される機能は、送受信部51、操作入力受付部52、表示制御部53、判断部54、要求コマンド生成部55、視線検出部56、記憶・読出部57および記憶部5000を含む。表示端末50は、ロボット10を遠隔操作するための専用のアプリケーションプログラムをインストールしている。表示端末50は、例えば、インストールされたアプリケーションプログラムをCPU501が実行することによって各機能を実現する。
<< Functional Configuration of Display Terminal 50 >> Next, a functional configuration of the display terminal 50 will be described with reference to FIG. The functions implemented by the display terminal 50 include a transmission / reception unit 51, an operation input reception unit 52, a display control unit 53, a determination unit 54, a request command generation unit 55, a line-of-sight detection unit 56, a storage / readout unit 57, and a storage unit 5000. Including. The display terminal 50 has installed a dedicated application program for remotely controlling the robot 10. The display terminal 50 realizes each function by the CPU 501 executing the installed application program, for example.

送受信部51は、通信ネットワーク9を介して、他の装置との間で各種データまたは情報の送受信を行う機能である。送受信部51は、例えば、ロボット10が備える撮影装置21によって取得された画像データ200を、通信ネットワーク9を介して、ロボット10から受信する。また、送受信部51は、例えば、CMOSセンサ505aによって撮影されて取得された画像である画像データ250を、通信ネットワーク9を介して、ロボット10へ送信する。送受信部51は、主に、図6に示したCPU501の処理、および遠距離通信回路510によって実現される。送受信部51は、受信手段の一例である。   The transmission / reception unit 51 has a function of transmitting / receiving various data or information to / from another device via the communication network 9. The transmission / reception unit 51 receives, for example, image data 200 acquired by the imaging device 21 included in the robot 10 from the robot 10 via the communication network 9. The transmitting / receiving unit 51 transmits, for example, image data 250 that is an image captured and acquired by the CMOS sensor 505a to the robot 10 via the communication network 9. The transmission / reception unit 51 is mainly realized by the processing of the CPU 501 illustrated in FIG. The transmitting / receiving unit 51 is an example of a receiving unit.

操作入力受付部52は、表示端末50への各種選択または操作入力を受け付ける機能である。操作入力受付部52は、主に、図6に示したCPU501の処理、およびタッチパネル515によって実現される。なお、タッチパネル515は、ディスプレイ512と共用であってもよい。また、操作入力受付部52は、タッチパネル以外の入力手段によって実現されてもよい。   The operation input receiving unit 52 has a function of receiving various selections or operation inputs to the display terminal 50. The operation input receiving unit 52 is mainly realized by the processing of the CPU 501 illustrated in FIG. Note that the touch panel 515 may be shared with the display 512. Further, the operation input receiving unit 52 may be realized by an input unit other than the touch panel.

表示制御部53は、表示端末50のディスプレイ512に各種画像を表示させる機能である。表示制御部53は、例えば、送受信部51によって受信された画像データ200を、表示手段の一例であるディスプレイ512に表示させる。表示制御部53は、主に、図6に示したCPU501の処理、およびディスプレイ512によって実現される。表示制御部53は、表示制御手段の一例である。   The display control unit 53 has a function of displaying various images on the display 512 of the display terminal 50. The display control unit 53 causes the display 512, which is an example of a display unit, to display the image data 200 received by the transmission / reception unit 51, for example. The display control unit 53 is mainly realized by the processing of the CPU 501 illustrated in FIG. The display control unit 53 is an example of a display control unit.

判断部54は、ロボット10へ要求する特定の処理を判断する機能である。判断部54は、例えば、操作入力受付部52によって受け付けられた操作入力に基づいて、ロボット10へ要求する特定の処理を判断する。判断部54は、主に、図6に示したCPU301の処理によって実現される。   The determination unit 54 has a function of determining a specific process requested to the robot 10. The determination unit 54 determines a specific process to request the robot 10 based on the operation input received by the operation input reception unit 52, for example. The determination unit 54 is mainly realized by the processing of the CPU 301 shown in FIG.

要求コマンド生成部55は、ロボット10に特定の処理を実行されるための実行要求である要求コマンドを生成する機能である。要求コマンド生成部55は、主に、図6に示したCPU501の処理によって実現される。   The request command generation unit 55 has a function of generating a request command that is an execution request for the robot 10 to execute a specific process. The request command generation unit 55 is realized mainly by the processing of the CPU 501 shown in FIG.

視線検出部56は、表示端末50を用いてロボット10を操作する操作者の視線を検出する機能である。視線検出部56は、主に、図6に示したCPU501の処理、および視線検出装置517によって実現される。   The gaze detection unit 56 has a function of detecting the gaze of the operator who operates the robot 10 using the display terminal 50. The line-of-sight detection unit 56 is mainly realized by the processing of the CPU 501 illustrated in FIG.

記憶・読出部57は、記憶部5000に各種データを記憶させ、または記憶部5000から各種データを読み出す機能である。記憶・読出部57は、主に、図6に示したCPU501の処理によって実現される。記憶部5000は、主に、図6に示したROM502、EEPROM504および記録メディア507によって実現される。   The storage / readout unit 57 has a function of storing various data in the storage unit 5000 or reading various data from the storage unit 5000. The storage / readout unit 57 is realized mainly by the processing of the CPU 501 shown in FIG. The storage unit 5000 is mainly realized by the ROM 502, the EEPROM 504, and the recording medium 507 illustrated in FIG.

また、記憶部5000は、送受信部51によって受信された画像データ200、およびCMOSセンサ505aによって撮影されて取得された画像データ250を記憶している。さらに、記憶部5000は、ユーザコマンドテーブル5001を記憶している。なお、記憶部5000に記憶されている画像データ200は、送受信部51によって受信されてから所定の時間経過した場合に削除される構成であってもよいし、操作入力受付部52によって受け付けられた、ユーザからの削除命令に基づいて削除される構成であってもよい。同様に、記憶部5000に記憶されている画像データ250は、CMOSセンサ505aによって取得されてから所定の時間経過した場合に削除される構成であってもよいし、操作入力受付部52によって受け付けられた、ユーザからの削除命令に基づいて削除される構成であってもよい。   The storage unit 5000 stores the image data 200 received by the transmission / reception unit 51 and the image data 250 captured and acquired by the CMOS sensor 505a. Further, the storage unit 5000 stores a user command table 5001. Note that the image data 200 stored in the storage unit 5000 may be deleted when a predetermined time has elapsed after being received by the transmission / reception unit 51, or may be received by the operation input reception unit 52. Alternatively, the configuration may be such that deletion is performed based on a deletion command from a user. Similarly, the image data 250 stored in the storage unit 5000 may be deleted when a predetermined time has elapsed since the image data 250 was acquired by the CMOS sensor 505a, or may be received by the operation input receiving unit 52. Alternatively, the configuration may be such that deletion is performed based on a deletion command from a user.

〇ユーザコマンドテーブル5001
図11は、第1の実施形態に係るユーザコマンドテーブルの一例を示す図である。図11に示すユーザコマンドテーブル5001は、操作入力受付部52によって受け付けられた操作入力に基づいて、ロボット10に対して要求する処理または動作の内容を特定するために用いられるものである。ユーザコマンドテーブル5001は、操作入力受付部52によって受け付けられた操作入力に対応する入力コマンドに、対応するコマンドの内容を関連づけて記憶している。
〇User command table 5001
FIG. 11 is a diagram illustrating an example of the user command table according to the first embodiment. The user command table 5001 shown in FIG. 11 is used to specify the content of a process or an operation requested to the robot 10 based on the operation input received by the operation input receiving unit 52. The user command table 5001 stores an input command corresponding to an operation input received by the operation input receiving unit 52 in association with the content of the corresponding command.

〇管理サーバ90の機能構成〇
次に、図8を用いて、管理サーバ90の機能構成について説明する。管理サーバ90によって実現される機能は、送受信部91、認証部92、判断部93、作成部94、記憶・読出部95および記憶部9000を含む。
<< Functional Configuration of Management Server 90 >> Next, a functional configuration of the management server 90 will be described with reference to FIG. The functions realized by the management server 90 include a transmission / reception unit 91, an authentication unit 92, a determination unit 93, a creation unit 94, a storage / readout unit 95, and a storage unit 9000.

送受信部91は、通信ネットワーク9を介して、他の装置との間で各種データまたは情報の送受信を行う機能である。送受信部91は、主に、図7に示したCPU901の処理、およびネットワークI/F909によって実現される。   The transmission / reception unit 91 has a function of transmitting / receiving various data or information to / from another device via the communication network 9. The transmission / reception unit 91 is mainly realized by the processing of the CPU 901 illustrated in FIG. 7 and the network I / F 909.

認証部92は、送受信部91によって受信されたログイン要求に基づいて、ログイン要求元の認証を行う機能である。認証部92は、例えば、送受信部91によって受信されたログイン要求に含まれている端末IDおよびパスワードを検索キーとし、記憶部9000の認証管理DB9001を検索する。そして、認証部92は、認証管理DB9001に同一の組の端末IDおよびパスワードが管理されているかを判断することによって端末認証を行う。認証部92は、主に、図7に示したCPU901の処理によって実現される。   The authentication unit 92 has a function of authenticating a login request source based on the login request received by the transmission / reception unit 91. The authentication unit 92 searches the authentication management DB 9001 of the storage unit 9000 using the terminal ID and the password included in the login request received by the transmission / reception unit 91 as search keys. The authentication unit 92 performs terminal authentication by determining whether the same set of terminal ID and password is managed in the authentication management DB 9001. The authentication unit 92 is realized mainly by the processing of the CPU 901 shown in FIG.

判断部93は、後述するセッション管理テーブルに、表示端末50の端末IDが管理されているかを判断する機能である。判断部93は、主に、図7に示したCPU901の処理によって実現される。   The determination unit 93 has a function of determining whether the terminal ID of the display terminal 50 is managed in a session management table described later. The determining unit 93 is mainly realized by the processing of the CPU 901 shown in FIG.

作成部94は、通信に使用されるセッションIDを作成する機能である。作成部94は、主に、図7に示したCPU901の処理によって実現される。   The creation unit 94 has a function of creating a session ID used for communication. The creating unit 94 is realized mainly by the processing of the CPU 901 shown in FIG.

記憶・読出部95は、記憶部9000に各種データを記憶させ、または記憶部9000から各種データを読み出す機能である。記憶・読出部95は、主に、図7に示したCPU901の処理によって実現される。記憶部9000は、主に、図7に示したROM902、HD904または記録メディア906によって実現される。また、この記憶部9000には、後述する図15に示す宛先リスト画面500における宛先リスト枠データ(図15に示すアイコン、「rA01」、「ロボット10A−1」等の宛先リスト内容情報は含まれない)が記憶されている。   The storage / readout unit 95 has a function of storing various data in the storage unit 9000 or reading various data from the storage unit 9000. The storage / readout unit 95 is realized mainly by the processing of the CPU 901 shown in FIG. The storage unit 9000 is mainly realized by the ROM 902, the HD 904, or the recording medium 906 illustrated in FIG. The storage unit 9000 also includes destination list frame data (address list content information such as icons, “rA01”, and “robot 10A-1” shown in FIG. 15) on a destination list screen 500 shown in FIG. Is not remembered.

〇認証管理テーブル
記憶部9000には、図12(a)に示すような認証管理テーブルによって構成されている認証管理DB9001が構築されている。この認証管理テーブルには、管理サーバ90によって管理される全ての表示端末50の各端末IDに対して、各パスワードが関連づけられた関連情報が管理されている。例えば、図12(a)に示されている認証管理テーブルでは、表示端末50Aの端末IDは「o01」で、パスワードは「aaaa」であることが表されている。
〇Authentication Management Table The storage unit 9000 has an authentication management DB 9001 configured by an authentication management table as shown in FIG. In this authentication management table, related information in which each password is associated with each terminal ID of all the display terminals 50 managed by the management server 90 is managed. For example, the authentication management table shown in FIG. 12A indicates that the terminal ID of the display terminal 50A is “o01” and the password is “aaaa”.

〇端末管理テーブル
また、記憶部9000には、図12(b)に示すような端末管理テーブルによって構成されている端末管理DB9002が構築されている。この端末管理テーブルには、各端末(ロボット10および表示端末50)の端末IDごとに、各端末の端末名、端末のIPアドレス、各端末の現在の稼動状態を示す稼動状態情報、および端末がロボット10である場合のロボット10が位置する拠点を示す拠点名が関連づけられた関連情報が管理されている。
Terminal management table In the storage unit 9000, a terminal management DB 9002 composed of a terminal management table as shown in FIG. In the terminal management table, for each terminal ID of each terminal (robot 10 and display terminal 50), the terminal name of each terminal, the IP address of the terminal, operating state information indicating the current operating state of each terminal, and the terminal In the case of the robot 10, related information in which a base name indicating a base where the robot 10 is located is managed.

例えば、図12(b)に示す端末管理テーブルにおいて、端末IDが「o01」の表示端末50は、端末名が「表示端末50A」で、この表示端末50のIPアドレスが「1.2.1.3」で、稼動状態が「オンライン(通話可能)」であることが示されている。また、端末IDが「rA01」のロボット10は、端末名が「ロボット10A−1」で、このロボット10のIPアドレスが「1.3.2.3」で、稼動状態が「オンライン(通話可能)」で、拠点名が「拠点A」であることが示されている。   For example, in the terminal management table shown in FIG. 12B, the display terminal 50 having the terminal ID “o01” has the terminal name “display terminal 50A” and the IP address of the display terminal 50 is “1.2.1”. ..3 "indicates that the operating state is" online (communicable) ". In addition, the robot 10 having the terminal ID “rA01” has the terminal name “robot 10A-1”, the IP address of the robot 10 is “1.3.2.3”, and the operation state is “online (communicable). ) "Indicates that the site name is" site A ".

〇宛先リスト管理テーブル
さらに、記憶部9000には、図13(a)に示すような宛先リスト管理テーブルによって構成されている宛先リスト管理DB9003が構築されている。この宛先リスト管理テーブルには、ロボット10の遠隔制御を行うための通信の開始を要求する開始端末としての表示端末50の端末IDごとに、宛先となるロボット10の候補として登録されている宛先候補のロボット10の端末IDが関連づけられた関連情報が管理されている。
{Destination List Management Table} Further, in the storage unit 9000, a destination list management DB 9003 configured by a destination list management table as shown in FIG. In this destination list management table, for each terminal ID of the display terminal 50 as a start terminal for requesting the start of communication for remote control of the robot 10, a destination candidate registered as a candidate for the robot 10 as a destination Related information associated with the terminal ID of the robot 10 is managed.

例えば、図13(a)に示す宛先リスト管理テーブルにおいて、端末IDが「o01a」である開始端末(表示端末50A)から通信の開始を要求することができる宛先候補は、端末IDが「rA01」のロボット10A−1、端末IDが「rA02」のロボット10A−2、端末IDが「rC01」のロボット10C−1等であることが示されている。なお、宛先候補のロボット10の端末IDは、任意の開始端末(表示端末50)から管理サーバ90に対する追加または削除の要請により、追加または削除されることで更新される。   For example, in the destination list management table shown in FIG. 13A, a destination candidate that can request a start of communication from a start terminal (display terminal 50A) whose terminal ID is “o01a” is a terminal ID “rA01”. The robot 10A-1 has a terminal ID of "rA02", the robot 10A-2 has a terminal ID of "rC01", and the like. Note that the terminal ID of the destination candidate robot 10 is updated by being added or deleted by a request for addition or deletion from the arbitrary start terminal (display terminal 50) to the management server 90.

〇セッション管理テーブル
さらに、記憶部9000には、図13(b)に示すようなセッション管理テーブルによって構成されているセッション管理DB9004が構築されている。このセッション管理テーブルには、ロボット10と表示端末50との間で通信する際に利用されるセッションを識別するためのセッションIDごとに、このセッションIDによって特定されるセッションを使用中のロボット10および表示端末50の端末IDが関連づけられた関連情報が管理されている。例えば、図13(b)に示すセッション管理テーブルにおいて、セッションID「se1」を用いて実行されたセッションを使用中の端末は、端末IDが「o01」の表示端末50A、端末IDが「rA01」のロボット10A−1、および端末IDが「rC01」のロボット10C−1であることが示されている。
{Session Management Table} Further, in the storage unit 9000, a session management DB 9004 including a session management table as shown in FIG. The session management table includes, for each session ID for identifying a session used when communicating between the robot 10 and the display terminal 50, the robot 10 using the session specified by the session ID, Related information associated with the terminal ID of the display terminal 50 is managed. For example, in the session management table shown in FIG. 13B, the terminal using the session executed using the session ID “se1” is the display terminal 50A with the terminal ID “o01” and the terminal ID is “rA01”. It is shown that the robot 10A-1 is the robot 10A-1 and the terminal ID is the robot 10C-1 of "rC01".

●第1の実施形態の処理または動作
〇セッション確立処理〇
続いて、図14乃至図30を用いて、第1の実施形態に係る遠隔制御システムの動作または処理について説明する。なお、以降の説明において、ロボット10が備える制御装置30によって実行される処理は、ロボット10によって実行される処理として説明する。
● Process or Operation of First Embodiment {Session Establishment Process} Next, the operation or process of the remote control system according to the first embodiment will be described with reference to FIGS. In the following description, the processing executed by the control device 30 included in the robot 10 will be described as the processing executed by the robot 10.

まず、図14乃至図16を用いて、ロボット10と表示端末50との間における通信セッションの確立処理について説明する。図14は、ロボットと表示端末との間でデータの送受信を開始する準備段階の処理の一例を示すシーケンス図である。ここでは、開始端末としての表示端末50Aと、宛先端末としてのロボット10A−1との間で、データの送受信を開始する前の準備段階における各管理情報の送受信処理について説明する。   First, a process of establishing a communication session between the robot 10 and the display terminal 50 will be described with reference to FIGS. FIG. 14 is a sequence diagram illustrating an example of a process in a preparation stage for starting transmission and reception of data between the robot and the display terminal. Here, a description will be given of a process of transmitting and receiving management information in a preparation stage before starting transmission and reception of data between the display terminal 50A as a start terminal and the robot 10A-1 as a destination terminal.

まず、ステップS11において、表示端末50Aの送受信部51は、通信ネットワーク9を介して、管理サーバ90へログイン要求を送信する。具体的には、表示端末50Aのユーザは、表示端末50Aにおける電源スイッチをONにすると、電源がONになる。そして、表示端末50Aの送受信部51は、上記電源ONを契機とし、送受信部51から通信ネットワーク9を介して、管理サーバ90へ、ログイン要求を送信する。これにより、管理サーバ90の送受信部91は、表示端末50Aから送信されたログイン要求を受信する。   First, in step S11, the transmission / reception unit 51 of the display terminal 50A transmits a login request to the management server 90 via the communication network 9. Specifically, when the user of the display terminal 50A turns on the power switch of the display terminal 50A, the power turns on. Then, the transmission / reception unit 51 of the display terminal 50A transmits a login request from the transmission / reception unit 51 to the management server 90 via the communication network 9 when the power is turned on. Thereby, the transmission / reception unit 91 of the management server 90 receives the login request transmitted from the display terminal 50A.

このログイン要求には、表示端末50Aとしての開始端末を識別するための端末ID、およびパスワードが含まれている。これら端末IDおよびパスワードは、記憶・読出部57によって記憶部5000から読み出されて、送受信部51に送られたデータである。なお、これら端末IDおよびパスワードは、これに限るものではなく、ユーザがタッチパネル515等の入力手段によって入力した端末IDやパスワードが送信されてもよい。また、表示端末50Aに接続されたSIM(Subscriber Identity Module Card)カードやSDカード等の記憶媒体から読み出された端末IDやパスワードが送信されてもよい。   This login request includes a terminal ID for identifying the start terminal as the display terminal 50A, and a password. The terminal ID and the password are data read from the storage unit 5000 by the storage / readout unit 57 and sent to the transmission / reception unit 51. Note that these terminal IDs and passwords are not limited to these, and terminal IDs and passwords input by the user through input means such as the touch panel 515 may be transmitted. Further, a terminal ID and a password read from a storage medium such as a SIM (Subscriber Identity Module Card) card or an SD card connected to the display terminal 50A may be transmitted.

また、表示端末50Aから管理サーバ90へログイン要求が送信される際は、受信側である管理サーバ90は、送信側である表示端末50AのIPアドレスを取得することができる。また、ログイン要求の開始は、必ずしも電源スイッチをONにすることを契機とする必要はなく、ユーザによるタッチパネル515等の入力手段への入力に応じて送信してもよい。   When a login request is transmitted from the display terminal 50A to the management server 90, the management server 90 on the receiving side can acquire the IP address of the display terminal 50A on the transmitting side. The start of the login request does not necessarily need to be triggered by turning on the power switch, and may be transmitted in response to an input to an input unit such as the touch panel 515 by the user.

次に、ステップS12において、管理サーバ90の認証部92は、送受信部91を介して受信したログイン要求に含まれている端末IDおよびパスワードを検索キーとして、記憶部9000の認証管理テーブル(図12(a)参照)を検索し、認証管理DB9001に同一の端末IDおよび同一のパスワードが管理されているかを判断することによって認証を行う。以下、表示端末50Aが認証部92によって正当な利用権限を有する端末であると判断された場合について説明する。   Next, in step S12, the authentication unit 92 of the management server 90 uses the terminal ID and the password included in the login request received via the transmission / reception unit 91 as a search key, as an authentication management table (FIG. 12). (A), and performs authentication by determining whether the same terminal ID and the same password are managed in the authentication management DB 9001. Hereinafter, a case will be described where the display unit 50A is determined by the authentication unit 92 to be a terminal having a valid use right.

ステップS13において、記憶・読出部95は、認証部92によって同一の端末ID及び同一のパスワードが管理されていることにより、正当な利用権限を有する開始端末からのログイン要求であると判断された場合、記憶部9000から宛先リスト枠データを読み出す。   In step S13, when the same terminal ID and the same password are managed by the authentication unit 92, the storage / readout unit 95 determines that the log-in request is from a start terminal having valid use authority. Then, the destination list frame data is read from the storage unit 9000.

ステップS14において、送受信部91は、認証部92によって得られた認証結果が示された認証結果情報を、通信ネットワーク9を介して、上記ログイン要求してきた表示端末50へ送信する。これにより、表示端末50Aの送受信部51は、認証結果情報を受信する。この認証結果情報には、上記ステップS13によって読み出された宛先リスト枠データが含まれている。そして、ステップS15において、表示端末50Aの記憶・読出部57は、上記ステップS14によって受信された宛先リスト枠データを、記憶部5000に記憶させる。   In step S14, the transmission / reception unit 91 transmits the authentication result information indicating the authentication result obtained by the authentication unit 92 to the display terminal 50 that has made the login request via the communication network 9. Thereby, the transmitting / receiving unit 51 of the display terminal 50A receives the authentication result information. This authentication result information includes the destination list frame data read out in step S13. Then, in step S15, the storage / readout unit 57 of the display terminal 50A causes the storage unit 5000 to store the destination list frame data received in step S14.

次に、ステップS16において、表示端末50Aの送受信部51は、正当な利用権限を有する端末であると判断された認証結果が示された認証結果情報を受信した場合、通信ネットワーク9を介して管理サーバ90へ、宛先リストの内容を要求する。これにより、管理サーバ90の送受信部91は、宛先リストの内容の要求を受信する。この要求には、表示端末50Aの端末IDが含まれている。   Next, in step S16, when the transmission / reception unit 51 of the display terminal 50A receives the authentication result information indicating the authentication result determined to be a terminal having a valid use right, the management unit 51 manages the information via the communication network 9. The server 90 requests the contents of the destination list. Thereby, the transmission / reception unit 91 of the management server 90 receives the request for the contents of the destination list. This request includes the terminal ID of the display terminal 50A.

次に、ステップS17において、管理サーバ90の記憶・読出部95は、上記ステップS16によって受信された表示端末50Aの端末ID「o01」を検索キーとして、宛先リスト管理テーブル(図13(a))参照を検索し、対応する全ての宛先候補の端末IDを読み出す。さらに、ステップS18において、記憶・読出部95は、ステップS17によって読み出した各端末IDを検索キーとして、端末管理テーブル(図12(b)参照)を検索し、対応する宛先候補の端末名、稼動状態情報および拠点名を読み出す。   Next, in step S17, the storage / readout unit 95 of the management server 90 uses the terminal ID “o01” of the display terminal 50A received in step S16 as a search key and a destination list management table (FIG. 13A). The reference is searched, and the terminal IDs of all corresponding destination candidates are read. Further, in step S18, the storage / readout unit 95 searches the terminal management table (see FIG. 12B) using each terminal ID read out in step S17 as a search key, and finds the corresponding terminal candidate terminal name, operation Read the status information and the site name.

次に、ステップS19において、管理サーバ90の送受信部91は、通信ネットワーク9を介して表示端末50Aへ、宛先リスト内容情報を送信する。これにより、表示端末50Aの送受信部51は、宛先リスト内容情報を受信する。この宛先リスト内容情報には、上記ステップS17,S18によって読み出された、宛先候補の端末ID、宛先候補の端末名、稼動状態情報および拠点名が含まれている。   Next, in step S19, the transmission / reception unit 91 of the management server 90 transmits the destination list content information to the display terminal 50A via the communication network 9. Thereby, the transmission / reception unit 51 of the display terminal 50A receives the destination list content information. The destination list content information includes the terminal ID of the destination candidate, the terminal name of the destination candidate, the operating state information, and the base name read out in steps S17 and S18.

次に、ステップS20において、表示端末50Aの表示制御部53は、上記ステップS15によって記憶部5000に記憶された宛先リスト枠データ、および上記ステップS19によって受信された宛先リスト内容情報を用いて作成された宛先リスト画面500を、ディスプレイ512に表示させる。   Next, in step S20, the display control unit 53 of the display terminal 50A is created using the destination list frame data stored in the storage unit 5000 in step S15 and the destination list content information received in step S19. The displayed destination list screen 500 is displayed on the display 512.

ディスプレイ512には、図15に示すような宛先リスト画面500が表示される。この宛先リスト画面500には、宛先候補ごとに、宛先候補の端末(ロボット10)の稼動状態を示したアイコン、宛先候補の端末の端末ID、宛先候補の宛先名、および宛先候補の端末が位置する拠点名が表されている。なお、上記ステップS19によって、管理サーバ9から送られてきた「端末名」は、図15に示す宛先リスト画面500では、「宛先名」として表示される。   On the display 512, a destination list screen 500 as shown in FIG. 15 is displayed. On the destination list screen 500, for each destination candidate, an icon indicating the operating status of the destination candidate terminal (robot 10), the terminal ID of the destination candidate terminal, the destination candidate destination name, and the destination candidate terminal are displayed. The name of the base to be used is displayed. The “terminal name” transmitted from the management server 9 in step S19 is displayed as a “destination name” on the destination list screen 500 shown in FIG.

続いて、図16を用いて、表示端末50における宛先候補の選択から画像データの送受信を開始するまでの処理を説明する。図16は、宛先候補の選択から画像データの送受信を開始するまでの処理を示したシーケンス図である。   Next, processing from selection of a destination candidate on the display terminal 50 to start of transmission / reception of image data will be described with reference to FIG. FIG. 16 is a sequence diagram showing a process from selection of a destination candidate to start of transmission / reception of image data.

まず、ステップS31において、表示端末50Aの操作入力受付部52は、ユーザから図15に示した宛先リスト画面の宛先候補(ここでは、ロボット10A−1)の選択を受け付ける。そして、ステップS32において、表示端末50Aの送受信部51は、管理サーバ90に対して、画像データ等の送受信を開始したい旨を示す開始要求を送信する。これにより、管理サーバ90の送受信部91は、開始要求を受信する。また、開始要求には、表示端末50Aの端末ID、および宛先候補の端末の端末IDが含まれている。   First, in step S31, the operation input receiving unit 52 of the display terminal 50A receives selection of a destination candidate (here, the robot 10A-1) on the destination list screen shown in FIG. 15 from the user. Then, in step S32, the transmission / reception unit 51 of the display terminal 50A transmits a start request indicating that transmission / reception of image data or the like is to be started to the management server 90. Thereby, the transmission / reception unit 91 of the management server 90 receives the start request. The start request includes the terminal ID of the display terminal 50A and the terminal ID of the destination candidate terminal.

次に、ステップS33において、管理サーバ90の判断部93は、上記ステップS32によって受信された表示端末50Aの端末IDがセッション管理テーブル(図13(b)参照)で管理されているか否かを判断する。ここでは、宛先端末(ロボット10A−1)の端末IDが管理されていない場合について、以下説明を続ける。   Next, in step S33, the determination unit 93 of the management server 90 determines whether or not the terminal ID of the display terminal 50A received in step S32 is managed in the session management table (see FIG. 13B). I do. Here, the case where the terminal ID of the destination terminal (robot 10A-1) is not managed will be described below.

ステップS34において、宛先候補の端末の端末IDが管理されていない場合、管理サーバ90の作成部94は、新たにセッションIDを作成する。そして、ステップS35において、記憶・読出部95は、セッション管理テーブル(図13(b)参照)に、上記ステップS34によって作成されたセッションID、並びに上記ステップS32によって受信された表示端末50Aの端末IDおよび宛先候補の端末の端末IDを関連づけた新たなレコードを追加記憶する。ここでは、図12(b)に示したように、新たなレコードが追加されることで、セッションID「se3」、および端末ID「o01」,「rA01」が関連づけて管理される。   In step S34, when the terminal ID of the terminal candidate terminal is not managed, the creating unit 94 of the management server 90 creates a new session ID. In step S35, the storage / readout unit 95 stores the session ID created in step S34 and the terminal ID of the display terminal 50A received in step S32 in the session management table (see FIG. 13B). And a new record in which the terminal ID of the destination candidate terminal is associated. Here, as shown in FIG. 12B, by adding a new record, the session ID “se3” and the terminal IDs “o01” and “rA01” are managed in association with each other.

次に、ステップS36において、管理サーバ90の送受信部91は、表示端末50Aに対して、上記ステップS34によって作成されたセッションIDが含まれたセッション開始指示を送信する。これにより、表示端末50Aの送受信部51は、セッション開始指示を受信する。   Next, in step S36, the transmitting and receiving unit 91 of the management server 90 transmits a session start instruction including the session ID created in step S34 to the display terminal 50A. Thereby, the transmitting / receiving unit 51 of the display terminal 50A receives the session start instruction.

次に、ステップS37において、管理サーバ90の記憶・読出部95は、上記ステップS32によって送られてきた宛先候補の端末(ロボット10A−1)の端末IDを検索キーとして端末管理テーブル(図12(b)参照)を検索することにより、対応するIPアドレスを読み出す。そして、ステップS38において、管理サーバ90の送受信部91は、上記ステップS37によって読み出されたIPアドレスに対して、上記ステップS33によって作成されたセッションIDが含まれたセッション開始指示を送信する。これにより、宛先端末(ロボット10A−1)の送受信部31は、セッション開始指示を受信する。   Next, in step S37, the storage / readout unit 95 of the management server 90 uses the terminal ID of the destination candidate terminal (robot 10A-1) sent in step S32 as a search key to create a terminal management table (FIG. b) to read out the corresponding IP address. Then, in step S38, the transmitting / receiving unit 91 of the management server 90 transmits a session start instruction including the session ID created in step S33 to the IP address read in step S37. Thereby, the transmission / reception unit 31 of the destination terminal (robot 10A-1) receives the session start instruction.

以上により、開始端末(表示端末50A)および宛先端末(ロボット10A−1)は、それぞれ管理サーバ90と通信セッションを確立する(ステップS39−1,S39−2)。   As described above, the start terminal (display terminal 50A) and the destination terminal (robot 10A-1) respectively establish communication sessions with the management server 90 (steps S39-1 and S39-2).

〇画像データの送信および表示〇
続いて、管理サーバ90との間で確立されたセッションを用いて、ロボット10から表示端末50へ送信されるデータ、および表示端末50によってロボット10の処理もしくは動作を制御する処理について説明する。図17は、第1の実施形態に係る遠隔制御システムにおいて、表示端末からの要求コマンドに基づくロボットの制御処理の一例を説明するためのフローチャートである。
<< Transmission and Display of Image Data >> Subsequently, using a session established with the management server 90, data transmitted from the robot 10 to the display terminal 50 and processing or operation of the robot 10 by the display terminal 50 are described. The control process will be described. FIG. 17 is a flowchart illustrating an example of a robot control process based on a request command from a display terminal in the remote control system according to the first embodiment.

ステップS51において、ロボット10の画像取得部36は、撮影装置21によって取得された画像データ200を取得する。ここで、ロボット10は、撮影指示部35から撮影装置21への撮影指示をトリガーとして、撮影装置21による撮影を開始する。ロボット10の画像取得部36は、撮影装置21によって取得された画像である画像データ200を、撮影装置21から取得する。   In step S51, the image acquisition unit 36 of the robot 10 acquires the image data 200 acquired by the imaging device 21. Here, the robot 10 starts photographing by the photographing device 21 with a photographing instruction from the photographing instruction unit 35 to the photographing device 21 as a trigger. The image acquisition unit 36 of the robot 10 acquires image data 200 that is an image acquired by the imaging device 21 from the imaging device 21.

ステップS52−1,52−2において、ロボット10の送受信部31は、確立された管理サーバ90との通信セッションを用いて、画像取得部36によって取得された画像データ200を、表示端末50へ送信する。これにより、表示端末50の送受信部51は、画像データ200を受信する。   In steps S52-1, 52-2, the transmission / reception unit 31 of the robot 10 transmits the image data 200 acquired by the image acquisition unit 36 to the display terminal 50 using the established communication session with the management server 90. I do. Thereby, the transmission / reception unit 51 of the display terminal 50 receives the image data 200.

ステップS53において、表示端末50の表示制御部53は、送受信部51によって受信された画像データ200を、ディスプレイ512の表示画面600に表示させる。これによって、表示端末50を用いてロボット10を遠隔操作する操作者は、ロボット10が位置する拠点の状況を、画像データ200が表示された表示画面600を見ながら確認することができる。なお、同様に、表示端末50は、表示端末50側の拠点が撮影された画像である画像データ250を、ロボット10へ送信する。そして、ロボット10の送受信部31は、画像データ250を受信し、表示制御部33は、受信された画像データ250を、ディスプレイ306aの表示画面400に表示させる。   In step S53, the display control unit 53 of the display terminal 50 displays the image data 200 received by the transmission / reception unit 51 on the display screen 600 of the display 512. Thus, the operator who remotely controls the robot 10 using the display terminal 50 can check the status of the base where the robot 10 is located while viewing the display screen 600 on which the image data 200 is displayed. Similarly, the display terminal 50 transmits, to the robot 10, image data 250 that is an image of a base on the display terminal 50 side. Then, the transmitting / receiving unit 31 of the robot 10 receives the image data 250, and the display control unit 33 displays the received image data 250 on the display screen 400 of the display 306a.

ここで、ロボット10および表示端末50に表示される表示画面について説明する。図18(a)は、第1の実施形態に係るロボットに表示される表示画面の画面例の一例を示す図である。ロボット10は、表示制御部33がディスプレイ306aに、図18(a)に示すような表示画面400を表示させる。この表示画面400には、表示端末50から送信された画像データ250を表示される。図18(a)に示すように、表示画面400には、例えば、表示端末50を用いてロボット10を操作する操作者の顔が表示され、表示画面400を見たロボット10の周囲の人は、誰がロボット10を操作しているのかを確認することができる。   Here, a display screen displayed on the robot 10 and the display terminal 50 will be described. FIG. 18A is a diagram illustrating an example of a screen example of a display screen displayed on the robot according to the first embodiment. In the robot 10, the display control unit 33 causes the display 306a to display a display screen 400 as shown in FIG. On the display screen 400, the image data 250 transmitted from the display terminal 50 is displayed. As shown in FIG. 18A, on the display screen 400, for example, the face of an operator who operates the robot 10 using the display terminal 50 is displayed. It is possible to confirm who is operating the robot 10.

図18(b)は、第1の実施形態に係る表示端末に表示される表示画面の画面例の一例を示す図である。表示端末50は、表示制御部53がディスプレイ512に、図18(b)に示すような表示画面600を表示させる。この表示画面600には、ロボット10から送信されてきた画像データ200を表示される。図18(b)に示すように、表示画面600には、例えば、ロボット10の周りにいる人々が表示されている。また、表示画面600は、画像データ200の画像の横に、ロボット10の水平方向(前進、後退、右回転、左回転)の移動を要求する場合に押下される移動指示キー601、入力領域603aに入力された位置へのロボット10の移動を要求する場合に押下される「移動」ボタン603b、入力領域605aに入力された向きへロボット10の向きを変更する場合に押下される「回転」ボタン605b、ロボット10を停止させる場合に押下される「停止」ボタン607、ロボット10のスピーカ308bから音を発する場合に押下される「♪」ボタン609を含む。表示端末50を用いてロボット10を操作する操作者は、表示画面600に表示された画像データ200を見て、移動指示キー601等への入力操作を行うことで、ロボット10の移動を制御する。   FIG. 18B is a diagram illustrating an example of a screen example of a display screen displayed on the display terminal according to the first embodiment. In the display terminal 50, the display control unit 53 causes the display 512 to display a display screen 600 as shown in FIG. On the display screen 600, the image data 200 transmitted from the robot 10 is displayed. As shown in FIG. 18B, for example, people around the robot 10 are displayed on the display screen 600. In addition, the display screen 600 displays a movement instruction key 601 and an input area 603a that are pressed when requesting horizontal movement (forward, backward, right rotation, left rotation) of the robot 10 beside the image of the image data 200. "Move" button 603b to be pressed when requesting movement of the robot 10 to the position input to the "Rotation" button pressed to change the direction of the robot 10 to the direction input to the input area 605a. 605b, a “stop” button 607 pressed to stop the robot 10, and a “♪” button 609 pressed to emit a sound from the speaker 308b of the robot 10. The operator who operates the robot 10 using the display terminal 50 controls the movement of the robot 10 by looking at the image data 200 displayed on the display screen 600 and performing an input operation on the movement instruction key 601 and the like. .

なお、図18(b)において、表示画面600に表示された移動指示キー601によってロボット10の移動を操作する例を説明したが、ロボット10の移動操作は、キーボード、またはジョイスティクを備えたゲームパッド等の専用コントローラ等で行われる構成であってもよい。   In FIG. 18B, an example in which the movement of the robot 10 is operated by the movement instruction key 601 displayed on the display screen 600 has been described, but the movement operation of the robot 10 is performed by a game provided with a keyboard or a joystick. The configuration may be performed by a dedicated controller such as a pad.

図17に戻り、ステップS54において、表示端末50の操作入力受付部52は、ディスプレイ512に表示された表示画面600に対する特定の操作入力を受け付ける。例えば、操作入力受付部52は、例えば、表示画面600に含まれる移動指示キー601のいずれかのキーに対する操作入力を受け付ける   Referring back to FIG. 17, in step S54, the operation input receiving unit 52 of the display terminal 50 receives a specific operation input on the display screen 600 displayed on the display 512. For example, the operation input receiving unit 52 receives an operation input to any one of the movement instruction keys 601 included in the display screen 600, for example.

ステップS55において、表示端末50の要求コマンド生成部55は、操作入力受付部52によって受け付けられた特定の操作入力に対応する要求コマンドを生成する。具体的には、操作入力受付部52によって特定の操作入力が受け付けられた場合、表示端末50の記憶・読出部57は、記憶部5000に記憶されたユーザコマンドテーブル5001(図11参照)を読み出す。表示端末50の判断部54は、記憶・読出部57によって読み出されたユーザコマンドテーブル5001を検索し、操作入力受付部52によって受け付けられた操作入力に対応する入力コマンドを特定する。そして、判断部54は、ユーザコマンドテーブル5001を検索し、特定した入力コマンドに対応するコマンドを抽出する。そして、要求コマンド生成部55は、抽出されたコマンドを含む要求コマンドを生成する。例えば、操作入力受付部52によって移動指示キー601の「↑(前進)」キーに対する入力が受け付けられた場合、判断部54は、入力コマンドとして「「↑(前進)」キーの押下」を特定する。そして、判断部54は、特定した入力コマンドに対応するコマンドとして、「FORWARD」を抽出する。そして、要求コマンド生成部55は、抽出されたコマンド「FORWARD」を含む要求コマンドを生成する。   In step S55, the request command generation unit 55 of the display terminal 50 generates a request command corresponding to a specific operation input received by the operation input reception unit 52. Specifically, when a specific operation input is received by operation input receiving unit 52, storage / read unit 57 of display terminal 50 reads user command table 5001 (see FIG. 11) stored in storage unit 5000. . The determination unit 54 of the display terminal 50 searches the user command table 5001 read by the storage / read unit 57 and specifies an input command corresponding to the operation input received by the operation input reception unit 52. Then, the determining unit 54 searches the user command table 5001 and extracts a command corresponding to the specified input command. Then, the request command generation unit 55 generates a request command including the extracted command. For example, when an input to the “↑ (forward)” key of the movement instruction key 601 is received by the operation input receiving unit 52, the determination unit 54 specifies “pressing the“ ↑ (forward) ”key” as an input command. . Then, the determining unit 54 extracts “FORWARD” as a command corresponding to the specified input command. Then, the request command generator 55 generates a request command including the extracted command “FORWARD”.

なお、ステップS55において、判断部54がユーザコマンドテーブル5001を用いて処理を抽出する例を説明したが、表示端末50は、移動指示キー605等の入力キーに付与されたイベントに基づいて、所定の処理を抽出または実行する構成であってもよい。   Although the example in which the determination unit 54 extracts the process using the user command table 5001 in step S55 has been described, the display terminal 50 performs the predetermined process based on the event given to the input key such as the movement instruction key 605. May be extracted or executed.

ステップS56−1,56−2において、表示端末50の送受信部51は、確立された管理サーバ90との通信セッションを用いて、要求コマンド生成部55によって生成された要求コマンドを、ロボット10へ送信する。これにより、ロボット10の送受信部31は、要求コマンドを受信する。   In steps S56-1 and 56-2, the transmission / reception unit 51 of the display terminal 50 transmits the request command generated by the request command generation unit 55 to the robot 10 using the established communication session with the management server 90. I do. Thereby, the transmission / reception unit 31 of the robot 10 receives the request command.

ステップS57において、ロボット10の記憶・読出部46は、記憶部3000に記憶されたコマンドテーブル3001(図9参照)を読み出す。ステップS58において、ロボット10の判断部34は、記憶・読出部46によって読み出されたコマンドテーブル3001を検索し、送受信部31によって受信された要求コマンドに対応する処理を抽出する。ステップS59において、ロボット10は、上記ステップS58によって抽出された処理を実行する。   In step S57, the storage / read unit 46 of the robot 10 reads the command table 3001 (see FIG. 9) stored in the storage unit 3000. In step S58, the determination unit 34 of the robot 10 searches the command table 3001 read by the storage / read unit 46, and extracts a process corresponding to the request command received by the transmission / reception unit 31. In step S59, the robot 10 executes the processing extracted in step S58.

例えば、送受信部31によって受信された要求コマンドが「FORWARDMOVE」である場合、判断部34は、コマンドテーブル3001を検索して、要求コマンド「FORWARD」に対応する処理を抽出する。この場合、抽出される処理は、「ロボット10を一定量前進させる」である。判断部34は、抽出した処理の実行要求を、移動制御部37へ通知する。そして、移動制御部37は、判断部34によって抽出された処理に基づいて、ロボット10の移動機構17を駆動させる。なお、判断部34によって抽出された処理によって実行要求の通知先は異なる。例えば、送受信部31によって受信された要求コマンドが「SOUND」の場合、実行要求の通知先は、存在通知部45である。   For example, when the request command received by the transmission / reception unit 31 is “FORWARDMOVE”, the determination unit 34 searches the command table 3001 and extracts a process corresponding to the request command “FORWARD”. In this case, the process to be extracted is “the robot 10 is advanced by a certain amount”. The determination unit 34 notifies the movement control unit 37 of the execution request of the extracted process. Then, the movement control unit 37 drives the movement mechanism 17 of the robot 10 based on the processing extracted by the determination unit 34. Note that the notification destination of the execution request differs depending on the process extracted by the determination unit 34. For example, when the request command received by the transmission / reception unit 31 is “SOUND”, the notification destination of the execution request is the presence notification unit 45.

これにより、遠隔制御システム1aは、ロボット10が備える撮影装置21によって取得された画像データ200を表示端末50に表示させることによって、表示端末50を用いてロボット10の遠隔操作を行う操作者に対して、ロボット10の周囲の情報をより正確に把握させることができる。また、遠隔制御システム1aは、画像データ200が表示された表示端末50に対する操作者による操作入力が行われることで、ロボット10の周囲の状況を確認しながらロボット10を移動させることができるため、表示端末50を用いてロボット10を操作する操作者にとっての操作性を向上させることができる。   Thereby, the remote control system 1a displays the image data 200 acquired by the photographing device 21 included in the robot 10 on the display terminal 50, and provides the operator who remotely controls the robot 10 using the display terminal 50. Thus, information around the robot 10 can be more accurately grasped. Further, the remote control system 1a can move the robot 10 while confirming the situation around the robot 10 by performing an operation input by the operator on the display terminal 50 on which the image data 200 is displayed. The operability for the operator who operates the robot 10 using the display terminal 50 can be improved.

〇ロボット10の位置調整処理〇
〇目標点算出処理
続いて、図19乃至図29を用いて、ロボット10の位置調整処理について説明する。ここで、ロボット10が設置された拠点と表示端末50が設置された拠点との間で遠隔会議が行われているものとする。ロボット10が設置された拠点において、複数の人が会議に参加している場合、会議中に参加者が移動したり話題が切り替わったりすると、複数の人(参加者)が注目する注目点が変わることがある。この場合、遠隔地に位置する表示端末50のユーザは、注目点が変わったとしても、注目点が変わる前の位置を撮影し続けた画像を見ることになるため、遠隔地のユーザが会議から取り残されてしまい、円滑なコミュニケーションの妨げとなる。そこで、遠隔制御システム1aは、ロボット10の周囲に位置する複数の人の注目点に基づいてロボット10を移動させることによって、遠隔地に位置する表示端末50のユーザとの円滑なコミュニケーションを図ることができる。
<< Position Adjustment Process of Robot 10 >> Target Point Calculation Process Next, the position adjustment process of the robot 10 will be described with reference to FIGS. Here, it is assumed that a remote conference is being held between the base where the robot 10 is installed and the base where the display terminal 50 is installed. At the base where the robot 10 is installed, when a plurality of people are participating in the conference, if the participants move or the topics are switched during the conference, the attention points to which the plurality of people (participants) pay attention change. Sometimes. In this case, even if the point of interest changes, the user of the display terminal 50 located in a remote place sees an image that continuously captures the position before the change in the point of interest. They are left behind and hinder smooth communication. Accordingly, the remote control system 1a moves the robot 10 based on the points of interest of a plurality of persons located around the robot 10 to achieve smooth communication with the user of the display terminal 50 located at a remote place. Can be.

図19は、第1の実施形態に係るロボットにおける目標点算出処理の一例を説明するためのフローチャートである。ステップS71において、ロボット10の画像取得部36は、撮影装置21によって取得された画像である画像データ200を取得する(取得ステップの一例)。ステップS72において、ロボット10の画像処理部41は、画像取得部36によって取得された画像データ200に含まれる人物の頭の画像を抽出する。具体的には、画像処理部41は、画像取得部36によって取得された画像データ200と、予め記憶された人物の頭の画像パターンとを照合し、類似する画像領域を、図20(a)に示すような人物の頭の画像として抽出する。図20(a)に示す処理データ800aには、a1〜a4の四つの人物の頭の画像が含まれる。   FIG. 19 is a flowchart illustrating an example of a target point calculation process in the robot according to the first embodiment. In step S71, the image acquisition unit 36 of the robot 10 acquires image data 200 that is an image acquired by the imaging device 21 (an example of an acquisition step). In step S72, the image processing unit 41 of the robot 10 extracts the image of the head of the person included in the image data 200 acquired by the image acquisition unit 36. Specifically, the image processing unit 41 collates the image data 200 obtained by the image obtaining unit 36 with a previously stored image pattern of the head of the person, and determines a similar image area in FIG. Is extracted as an image of the head of a person as shown in FIG. The processing data 800a shown in FIG. 20A includes images of the heads of four persons a1 to a4.

ステップS73において、ロボット10の注目点算出部42は、画像処理部41によって抽出された頭の画像の大きさ、および画像データ200内における人物の頭の画像の位置を算出する。具体的には、注目点算出部42は、画像処理部41によって処理された処理データ800aに基づいて、人物の頭の画像の大きさと、人物の頭の画像の位置を算出する。人物の頭の画像の位置は、例えば、画像データ200の中心の座標を(0,0)とし、右上の座標を(100,100)とし、左下の座標を(−100,−100)として算出される。例えば、図20(a)に示した処理データ800aにおける、注目点算出部42によって算出された人物の頭の画像(a1〜a4)の位置および大きさは、図20(b)示す値となる。   In step S73, the attention point calculation unit 42 of the robot 10 calculates the size of the head image extracted by the image processing unit 41 and the position of the person's head image in the image data 200. Specifically, the attention point calculation unit 42 calculates the size of the image of the person's head and the position of the image of the person's head based on the processing data 800a processed by the image processing unit 41. The position of the image of the person's head is calculated, for example, assuming that the coordinates of the center of the image data 200 are (0, 0), the coordinates of the upper right are (100, 100), and the coordinates of the lower left are (-100, -100). Is done. For example, in the processing data 800a shown in FIG. 20A, the position and size of the image (a1 to a4) of the head of the person calculated by the attention point calculation unit 42 are the values shown in FIG. .

ステップS74において、ロボット10の注目点算出部42は、画像データ200に含まれる人物の頭の画像の空間上の相対位置を特定する。例えば、注目点算出部42は、上記ステップS73において算出された画像データ200内の座標(X,Y)と頭の大きさrとを用いて、画像データ200内の人物の頭の画像の位置を、空間上の相対位置(x,y)に変換する。空間上の相対位置(x,y)への変換方法は、一例として、以下(1)および(2)のヒューリスティックスを用いる。   In step S74, the attention point calculation unit 42 of the robot 10 specifies the relative position in space of the image of the head of the person included in the image data 200. For example, the attention point calculation unit 42 uses the coordinates (X, Y) in the image data 200 and the head size r calculated in step S73 to calculate the position of the image of the head of the person in the image data 200. Is converted to a relative position (x, y) in space. As an example of the method of converting to the relative position (x, y) in space, the following heuristics (1) and (2) are used.

(1)頭の大きさrが小さいほど遠くにあるものとする(人による頭の大きさの差異は無視する)。
(2)遠近法を無視して、X座標の値がプラスであればロボット10の右側(マイナスであればロボット10の左側)、Y座標が大きければ奥にあるものとする。
(1) It is assumed that the smaller the head size r is, the farther it is (the difference in head size between people is ignored).
(2) Disregarding the perspective, it is assumed that if the value of the X coordinate is positive, it is on the right side of the robot 10 (if it is negative, it is on the left side of the robot 10), and if the Y coordinate is large, it is on the back.

上記(1)と(2)の条件に基づく算出式は、以下の(式1)のようになる。なお、k1,k2は所定の係数である。ここでは、k1=0.2,k2=1000とする。   The calculation formula based on the above conditions (1) and (2) is as shown in the following (Formula 1). Note that k1 and k2 are predetermined coefficients. Here, k1 = 0.2 and k2 = 1000.

注目点算出部42は、上記の(式1)を用いて、人物の頭の画像の空間上の相対位置(x,y)を特定する。特定された相対位置を示す座標情報(x,y)を、図21(a)に示す。また、図21(b)は、特定された相対位置を概略的に示した処理データ810である。図21(b)に示す処理データ810は、画像データ200の中心位置S(0,0)を基準とした、人物の頭の画像a1〜a4とロボットRとの相対位置を視覚化したものである。   The attention point calculation unit 42 specifies the relative position (x, y) in the space of the image of the head of the person using the above (Equation 1). FIG. 21A shows coordinate information (x, y) indicating the specified relative position. FIG. 21B is processing data 810 schematically showing the specified relative position. The processing data 810 shown in FIG. 21B is a visualization of the relative positions of the human head images a1 to a4 and the robot R based on the center position S (0,0) of the image data 200. is there.

ステップS75において、ロボット10の画像処理部41は、上記ステップ71によって取得された画像データ200に含まれる人物の目を鼻の画像を抽出する。具体的には、画像処理部41は、画像取得部36によって取得された画像データ200と、予め記憶された人物の目と鼻の画像パターンとを照合し、類似する画像領域を、図22(a)に示すような人物の目と鼻の画像として抽出する。図22(a)に示す処理データ800bには、ステップS72によって抽出された四つの人物の頭の画像(a1〜a4)に対する目と鼻の画像が含まれる。   In step S75, the image processing unit 41 of the robot 10 extracts an image of a person's eyes and nose included in the image data 200 acquired in step 71. Specifically, the image processing unit 41 compares the image data 200 acquired by the image acquiring unit 36 with the image patterns of the eyes and the nose of a person stored in advance, and determines a similar image region in FIG. The image is extracted as an image of a person's eyes and nose as shown in a). The processing data 800b shown in FIG. 22A includes the eyes and nose images of the head images (a1 to a4) of the four persons extracted in step S72.

ステップS76において、ロボット10の注目点算出部42は、画像処理部41によって抽出された目と鼻の位置から、それぞれの人物の向きを特定する。人物の向きの特定は、一例として、以下(1)および(2)のヒューリスティックスを用いる。   In step S76, the attention point calculation unit 42 of the robot 10 specifies the direction of each person from the positions of the eyes and the nose extracted by the image processing unit 41. The identification of the direction of the person uses, for example, the following heuristics (1) and (2).

(1)目が二つであれば正面(ロボット10の向きと逆方向)を、一つなら左右どちらかを、ゼロなら後ろ(ロボット10の向きと同じ方向)を向いているものとする。
(2)目が一つで鼻があれば、鼻のある方向を向いているものとする(向きは、正面を0°とし、時計回りに360°まで)。
(1) If the number of eyes is two, it is assumed that the face is facing the front (the direction opposite to the direction of the robot 10), if the number is one, the face is left or right, and if the number is zero, the face is facing the rear (the same direction as the direction of the robot 10).
(2) If there is only one eye and there is a nose, it is assumed that the nose is facing (the direction is 0 ° in front and 360 ° clockwise).

上記(1)と(2)の条件に基づいて、図22(b)に示すような人の向きの特定が行われる。例えば、a1は、目の数が一つで鼻が右方向に向いているため、a1の向き(θ)は、90°となる。   Based on the conditions (1) and (2), the direction of the person is specified as shown in FIG. For example, since a1 has one eye and the nose faces rightward, the direction (θ) of a1 is 90 °.

これによって、ロボット10の注目点算出部42は、画像データ200に対応する人物の相対位置と向きを近似的に求めることができる。図23(a)は、注目点算出部42によって特定された相対位置および向きの情報である。図23(b)は、それぞれの人物の相対位置(x,y)と向き(θ)を、概略的に示した処理データ820である。図23(a)に示すように、a1の相対位置(x,y)は、(0,60)であり、向き(θ)は、90°である。b1の相対位置(x,y)は、(90,76.7)であり、向き(θ)は、180°である。c1の相対位置(x,y)は、(−20,42)であり、向き(θ)は、0°である。d1の相対位置(x,y)は、(70,51)であり、向き(θ)は、0°である。   Thereby, the attention point calculation unit 42 of the robot 10 can approximately obtain the relative position and the direction of the person corresponding to the image data 200. FIG. 23A shows information on the relative position and the direction specified by the attention point calculation unit 42. FIG. 23B is processing data 820 schematically illustrating the relative position (x, y) and direction (θ) of each person. As shown in FIG. 23A, the relative position (x, y) of a1 is (0, 60), and the direction (θ) is 90 °. The relative position (x, y) of b1 is (90, 76.7), and the direction (θ) is 180 °. The relative position (x, y) of c1 is (−20, 42), and the direction (θ) is 0 °. The relative position (x, y) of d1 is (70, 51), and the direction (θ) is 0 °.

これにより、ロボット10は、ロボット10の周囲に位置する人の位置および向きを、簡易的に推定することができる。なお、ロボット10の周囲に位置する人の位置および向きの推定方法は、これに限られず、遠近法を取り入れたり、ステレオカメラによって撮影されたステレオ画像を用いたりする等の方法であってもよい。また、レーザ等の光線を用いて距離を測る方法や、拠点内にカメラを複数配置して複数の画像から人の位置および向き算出する等の方法であってもよい。   Thereby, the robot 10 can easily estimate the position and orientation of a person located around the robot 10. The method of estimating the position and orientation of a person located around the robot 10 is not limited to this, and may be a method of adopting a perspective method or using a stereo image captured by a stereo camera. . Further, a method of measuring a distance using a light beam such as a laser or a method of arranging a plurality of cameras in a base and calculating the position and orientation of a person from a plurality of images may be used.

ここで、ロボット10の周囲に位置する人の位置および向きの推定方法の別の例について説明する。ロボット10は、ロボット10が位置する拠点に設置されたビーコン等を用いて、ロボット10の周囲に位置する人の位置および向きを推定(算出)してもよい。図24(a)は、ビーコンが拠点内に設置された場合における、ロボット10の周囲に位置する人の位置および向きを推定する処理の一例を説明するための図である。   Here, another example of a method for estimating the position and orientation of a person located around the robot 10 will be described. The robot 10 may estimate (calculate) the position and orientation of a person located around the robot 10 using a beacon or the like installed at a base where the robot 10 is located. FIG. 24A is a diagram for explaining an example of a process of estimating the position and orientation of a person located around the robot 10 when the beacon is installed in the base.

図24に示す例において、拠点(例えば、閉じられた部屋等の空間)1100には、各所に、所定の電波を発信するビーコンが設置されている。拠点1100内に位置する会議等の参加者(h1〜h4)は、ビーコンから発信される電波の受信機能とジャイロセンサを有するスマートフォン等の通信端末を保持している。また、会議等の参加者(h1〜h4)は、胸ポケットや腰のベルト等の特定の位置に通信端末を身に着けるで、体の向きと通信端末の向きが連動するようにする。   In the example shown in FIG. 24, a beacon for transmitting a predetermined radio wave is installed at each location in a base (for example, a closed space such as a room) 1100. Participants (h1 to h4) of a conference or the like located in the base 1100 hold a communication terminal such as a smartphone having a function of receiving a radio wave transmitted from a beacon and a gyro sensor. The participants (h1 to h4) of the conference or the like wear the communication terminal at a specific position such as a breast pocket or a waist belt, so that the orientation of the body and the orientation of the communication terminal are linked.

これにより、会議等の参加者(h1〜h4)が保持する通信端末は、複数のビーコンから発信される電波の強度から通信端末(参加者)の位置を取得することができる。また、会議等の参加者(h1〜h4)が保持する通信端末は、ジャイロセンサかの情報から通信端末(参加者)の向きを取得することができる。そして、拠点1100内に位置するロボット10は、各参加者(h1〜h4)が保持する通信端末のそれぞれから送信される、参加者(h1〜h4)の位置と向きの情報を受信(取得)することができる。   Thereby, the communication terminal held by the participants (h1 to h4) of the conference or the like can acquire the position of the communication terminal (participant) from the intensity of the radio waves transmitted from the plurality of beacons. Further, the communication terminals held by the participants (h1 to h4) of the conference or the like can acquire the orientation of the communication terminal (participant) from the information on the gyro sensor. Then, the robot 10 located in the base 1100 receives (acquires) the information on the position and orientation of the participants (h1 to h4) transmitted from each of the communication terminals held by each of the participants (h1 to h4). can do.

図24(b)は、図24(a)に示した方法によって特定された、それぞれの人物(h1〜h4)の相対位置(x,y)および向き(θ)の情報である。図24(b)に示すように、h1の相対位置(x,y)は、(5,17)であり、向き(θ)は、45°である。h2の相対位置(x,y)は、(18,18)であり、向き(θ)は、240°である。h3の相対位置(x,y)は、(5,12)であり、向き(θ)は、60°である。h4の相対位置(x,y)は、(15,12)であり、向き(θ)は、330°である。   FIG. 24B shows information on the relative position (x, y) and direction (θ) of each person (h1 to h4) specified by the method shown in FIG. As shown in FIG. 24B, the relative position (x, y) of h1 is (5, 17), and the direction (θ) is 45 °. The relative position (x, y) of h2 is (18, 18), and the direction (θ) is 240 °. The relative position (x, y) of h3 is (5, 12), and the direction (θ) is 60 °. The relative position (x, y) of h4 is (15, 12), and the direction (θ) is 330 °.

なお、以下の説明において、注目点算出部42によって算出された相対位置を示す座標情報(x,y)および向き(θ)の値は、図24(b)に示した値を用いる。   In the following description, the values shown in FIG. 24B are used as the values of the coordinate information (x, y) and the direction (θ) indicating the relative position calculated by the attention point calculation unit 42.

図19に戻り、ロボット10による目標点算出処理の説明を続ける。ステップS77以降の処理において、ロボット10は、ロボット10の周囲の複数の人の注目点を算出する。注目点は、ロボット10が設置された拠点において複数の人が注目している位置であり、例えば、ロボット10の周囲の複数の人が向いている方向である。注目点は、例えば、遠隔会議において、ロボット10側の拠点での複数の参加者が向いている方向、すなわち、ある時点における話題の中心位置である。   Returning to FIG. 19, description of the target point calculation processing by the robot 10 will be continued. In the processing after step S77, the robot 10 calculates the points of interest of a plurality of persons around the robot 10. The point of interest is a position where a plurality of people are paying attention at the base where the robot 10 is installed, for example, a direction in which a plurality of people around the robot 10 are facing. The point of interest is, for example, the direction in which a plurality of participants at the base on the robot 10 side are facing in the remote conference, that is, the center position of the topic at a certain point in time.

ステップS77において、ロボット10の画像処理部41は、注目点算出部42によって特定されたそれぞれの人物(h1〜h4)の相対位置から、注目点算出部42によって特定されたそれぞれの人物(h1〜h4)の向き(θ)の方向に伸ばした直線の交点を算出する。算出された結果は、図25に示される。図25には、点の組合せと、交点の座標(x,y)が記載されている。なお、人物の向きの方向は、一方向なので、h1とh2、h2とh3の組合せのように、交点が無い場合もある。   In step S <b> 77, the image processing unit 41 of the robot 10 uses the relative positions of the persons (h 1 to h 4) specified by the attention point calculation unit 42 to calculate the respective persons (h 1 to h 1) specified by the attention point calculation unit 42. The intersection of the straight line extending in the direction (θ) of h4) is calculated. The calculated result is shown in FIG. FIG. 25 shows combinations of points and coordinates (x, y) of intersections. Since the direction of the person's direction is one direction, there may be no intersection like the combination of h1 and h2 and the combination of h2 and h3.

ステップS78において、ロボット10の注目点算出部42は、算出した交点のうち、最も多くの方向から得られた交点が複数存在する場合、処理をステップS79へ移行させる。一方で、注目点算出部42は、算出した交点のうち、最も多くの方向から得られた交点が一つの場合、処理をステップS80へ移行させる。   In step S78, the attention point calculation unit 42 of the robot 10 shifts the processing to step S79 when there are a plurality of intersections obtained from the largest number of directions among the calculated intersections. On the other hand, the attention point calculation unit 42 shifts the processing to step S80 when one of the calculated intersections is obtained from the largest number of directions.

具体的には、まず、注目点算出部42は、上記ステップS77によって算出された交点のうち距離が近い座標をまとめる。まとめられた結果の座標は、例えば、それぞれの交点の座標の平均値である。図26(a)は、上記処理によってまとめられた交点の位置を示す座標情報である。図26(b)は、上記処理によって、まとめられた交点の位置を、概略的に示した処理データ830である。図26(a)に示すように、h1とh3とh4から伸ばした直線の交点は、A(10.5,18)であり、h2とh4から伸ばした直線の交点は、B(14,12)である。   Specifically, first, the attention point calculation unit 42 puts together the coordinates having a short distance among the intersections calculated in step S77. The coordinates of the combined result are, for example, the average value of the coordinates of each intersection. FIG. 26A shows coordinate information indicating the positions of the intersections collected by the above processing. FIG. 26B is processing data 830 schematically showing the positions of intersections collected by the above processing. As shown in FIG. 26A, the intersection of the straight lines extending from h1, h3, and h4 is A (10.5, 18), and the intersection of the straight lines extending from h2 and h4 is B (14, 12). ).

そして、注目点算出部42は、距離の近い交点をまとめた点(交点)のうち、最も多くの方向から得られた交点を抽出する。図26(a)の場合、交点Aは、三つの方向(h1,h2,h3)から得られた交点であり、交点Bは、二つの方向(h2,h4)から得られた交点である。そのため、注目点算出部42は、最も多くの方向から得られた交点は、一つ(交点A)であるため、処理をステップS80へ移行させる。   Then, the attention point calculation unit 42 extracts the intersections obtained from the largest number of directions from the points (intersections) obtained by grouping the intersections having short distances. In the case of FIG. 26A, the intersection A is an intersection obtained from three directions (h1, h2, h3), and the intersection B is an intersection obtained from two directions (h2, h4). Therefore, the attention point calculation unit 42 shifts the processing to step S80 because the number of intersections obtained from the most directions is one (intersection A).

ステップS80において、注目点算出部42は、最も多くの方向から得られた交点である交点Aを、注目点として特定する。一方で、ステップS79において、注目点算出部42は、最も多くの方向から得られた複数の交点の間の中心位置の座標を、注目点として特定する。   In step S80, the attention point calculation unit 42 specifies the intersection A, which is the intersection obtained from the most directions, as the attention point. On the other hand, in step S79, the attention point calculation unit 42 specifies the coordinates of the center position between the plurality of intersections obtained from the most directions as the attention point.

なお、ステップ77において、注目点算出部42は、算出した交点のうち距離が近い交点の座標をまとめる処理を行ったが、算出した交点をそのまま用いて最も多くの方向から得られた交点を注目点として特定してもよい。   In step 77, the point-of-interest calculation unit 42 performs the process of summarizing the coordinates of the intersections having a shorter distance among the calculated intersections, but focuses on the intersections obtained from the largest number of directions using the calculated intersections as they are. It may be specified as a point.

これにより、遠隔制御システム1aは、ロボット10が備える撮影装置21によって取得された画像データ200を用いて、ロボット10の周囲に位置する複数の人が注目する注目点を算出することができる。そのため、遠隔制御システム1aは、例えば、ロボット10と表示端末50を用いた遠隔会議等において、ロボット10が設置された拠点側における複数の参加者が注目している箇所を把握することができる。   Thereby, the remote control system 1a can calculate a point of interest to which a plurality of persons located around the robot 10 pay attention, using the image data 200 acquired by the imaging device 21 provided in the robot 10. For this reason, the remote control system 1a can grasp a place where a plurality of participants on the base side where the robot 10 is installed is paying attention, for example, in a remote conference using the robot 10 and the display terminal 50.

続いて、注目点算出部42によって算出された注目点を用いて、ロボット10の移動先を特定する処理を説明する。ステップS81において、ロボット10の目標点算出部43は、注目点算出部42によって算出された注目点の位置に基づいて、ロボット10の移動先となる目標点を特定する。目標点は、例えば、ロボット10の移動先の目標位置G(X,Y)を示す位置情報と、ロボット10の移動先におけるロボット10の向き(θ)を示す方向情報を含む。具体的には、目標点算出部43は、図27(b)に示すように、注目点Aとロボット10の位置を結ぶ線上において、注目点Aからの距離pだけ離れた位置を目標位置G(X,Y)として算出する。ここで、距離pは、例えば、それぞれの人物(h1〜h4)の位置と注目点Aとの距離の平均値である。人物(h1〜h4)の位置は、注目点算出部42によって算出された相対位置(x,y)を用いる。また、目標点算出部43は、ロボット10の現在位置から見た注目点Aの方向を、ロボット10の向き(θ)として算出する。目標点算出部43によって特定された目標点(目標位置Gおよび向き)は、例えば、図27(a)に示す値になる。この場合、目標位置G(X,Y)は、(6,11)であり、ロボット10の向き(θ)は、35°である。   Next, a process of specifying the moving destination of the robot 10 using the attention point calculated by the attention point calculation unit 42 will be described. In step S81, the target point calculation unit 43 of the robot 10 specifies a target point to which the robot 10 moves based on the position of the target point calculated by the target point calculation unit 42. The target point includes, for example, position information indicating the target position G (X, Y) of the destination of the robot 10 and direction information indicating the direction (θ) of the robot 10 at the destination of the robot 10. Specifically, as shown in FIG. 27B, the target point calculation unit 43 determines a position that is separated from the target point A by a distance p on a line connecting the target point A and the position of the robot 10 to the target position G. It is calculated as (X, Y). Here, the distance p is, for example, an average value of the distance between the position of each person (h1 to h4) and the point of interest A. The relative positions (x, y) calculated by the attention point calculation unit 42 are used as the positions of the persons (h1 to h4). Further, the target point calculation unit 43 calculates the direction of the point of interest A viewed from the current position of the robot 10 as the direction (θ) of the robot 10. The target point (target position G and direction) specified by the target point calculation unit 43 is, for example, a value illustrated in FIG. In this case, the target position G (X, Y) is (6, 11), and the direction (θ) of the robot 10 is 35 °.

なお、目標点算出部43によって算出されるロボット10の向きは、注目点Aの方向に限られず、注目点算出部42によって算出された複数の人物の向きの平均方向としてもよい。   In addition, the direction of the robot 10 calculated by the target point calculation unit 43 is not limited to the direction of the attention point A, and may be an average direction of a plurality of persons calculated by the attention point calculation unit 42.

これにより、遠隔制御システム1aは、ロボット10の周囲に位置する複数の人が注目する注目点に基づいて、ロボット10の移動先である目標点を算出することができる。そのため、遠隔制御システム1aは、例えば、ロボット10と表示端末50を用いた遠隔会議等において、ロボット10が設置された拠点側における複数の参加者が注目している箇所に基づいて、ロボット10の移動先を特定することができる。   Thereby, the remote control system 1a can calculate a target point to which the robot 10 moves based on a point of interest of a plurality of persons located around the robot 10. Therefore, for example, in a remote conference or the like using the robot 10 and the display terminal 50, the remote control system 1a controls the robot 10 based on a location where a plurality of participants are paying attention on the base side where the robot 10 is installed. The destination can be specified.

〇目標点への移動処理
続いて、目標点算出部43によって特定された目標点へ向けてロボット10を移動させる処理について説明する。図28は、第1の実施形態に係るロボットにおける移動処理の一例を説明するためのフローチャートである。
Next, a process of moving the robot 10 toward the target point specified by the target point calculation unit 43 will be described. FIG. 28 is a flowchart illustrating an example of a movement process in the robot according to the first embodiment.

ステップS101において、ロボット10の目標点算出部43は、算出した目標位置G(X,Y)に向けての移動経路を算出する。   In step S101, the target point calculation unit 43 of the robot 10 calculates a moving path toward the calculated target position G (X, Y).

ステップS102において、ロボット10は、算出した移動経路に基づいて移動する。まず、ロボット10の向き調整部38は、目標点算出部43によって算出された移動経路に対する進行方向に対して、移動機構17の回転等を行うことによって、ロボット10の向きを変更する。そして、ロボット10の移動制御部37は、向き調整部38による進行方向への向きの変更が完了した場合、移動機構17を駆動させることによって、ロボット10を移動させる。移動制御部37は、目標点算出部43によって算出された移動経路に対応する移動コマンドを、移動機構17に対して随時発行(送信)することで、算出された移動経路に沿ってロボット10を移動させる。   In step S102, the robot 10 moves based on the calculated movement route. First, the direction adjusting unit 38 of the robot 10 changes the direction of the robot 10 by rotating the moving mechanism 17 with respect to the traveling direction on the moving path calculated by the target point calculating unit 43. Then, when the change of the direction in the traveling direction by the direction adjusting unit 38 is completed, the movement control unit 37 of the robot 10 moves the robot 10 by driving the movement mechanism 17. The movement control unit 37 issues (transmits) a movement command corresponding to the movement route calculated by the target point calculation unit 43 to the movement mechanism 17 as needed, thereby causing the robot 10 to move along the calculated movement route. Move.

ステップS103において、ロボット10の周辺情報検出部44は、ロボット10の移動中において、障害物を検出した場合、処理をステップS104へ移行させる。具体的には、周辺情報検出部44は、撮影装置21によって取得された画像データ200や各種センサ106によって検出された検出結果を用いて、ロボット10の移動経路に存在する障害物を検出する。障害物は、例えば、拠点内に設置された装置もしくは物体等、または拠点内に位置する人等である。ステップS104において、ロボット10の移動制御部37は、周辺情報検出部44によって障害物が検出された場合、ロボット10を停止させる。   In step S103, when the surrounding information detection unit 44 of the robot 10 detects an obstacle while the robot 10 is moving, the process proceeds to step S104. Specifically, the peripheral information detection unit 44 detects an obstacle existing on the movement route of the robot 10 using the image data 200 acquired by the imaging device 21 and the detection results detected by the various sensors 106. The obstacle is, for example, a device or an object installed in the base, or a person located in the base. In step S104, the movement controller 37 of the robot 10 stops the robot 10 when an obstacle is detected by the peripheral information detector 44.

これにより、ロボット10は、目標位置Gへ向けて移動している途中において、障害物を検出した場合、検出した障害物の手前で停止するため、障害物との接触を避けることができる。この場合、ロボット10は、一旦停止した後、周辺情報検出部44によって障害物がなくなったことが検出された場合、再び目標位置Gへ向けての移動を再開してもよい。また、ロボット10は、一旦停止した後、周辺情報検出部44によって検出された障害物が、所定の時間経過してもなくならない場合、目標点算出部43によって算出された移動経路を変更する構成であってもよい。   Accordingly, when the robot 10 detects an obstacle while moving toward the target position G, the robot 10 stops in front of the detected obstacle, and thus can avoid contact with the obstacle. In this case, the robot 10 may resume the movement toward the target position G again, once stopped, when the peripheral information detection unit 44 detects that the obstacle has disappeared. Further, the robot 10 changes the movement route calculated by the target point calculation unit 43 when the obstacle detected by the peripheral information detection unit 44 does not disappear after a predetermined time has elapsed after the robot 10 has stopped temporarily. It may be.

一方で、ステップS103において、周辺情報検出部44は、ロボット10の移動中において、障害物を検出しない場合、処理をステップS105へ移行させる。この場合、ロボット10の移動制御部37は、目標位置Gに向けてのロボット10の移動制御を継続する。   On the other hand, in step S103, when the peripheral information detection unit 44 does not detect an obstacle while the robot 10 is moving, the processing proceeds to step S105. In this case, the movement control unit 37 of the robot 10 continues the movement control of the robot 10 toward the target position G.

ステップS105において、ロボット10の移動制御部37は、ロボット10が目標位置Gに到達した場合、処理をステップS106へ移行させる。一方で、移動制御部37は、ロボット10が目標位置Gに到達していない場合、ステップS103からの処理を繰り返し、目標位置Gに向けてのロボット10の移動制御を継続する。   In step S105, when the robot 10 reaches the target position G, the movement control unit 37 of the robot 10 shifts the processing to step S106. On the other hand, when the robot 10 has not reached the target position G, the movement control unit 37 repeats the processing from step S103 and continues the movement control of the robot 10 toward the target position G.

ステップS106において、ロボット10の移動制御部37は、ロボット10が目標位置Gに到達した場合、ロボット10を停止させる。ステップS107において、ロボット10の向き調整部38は、目標点算出部43によって算出された向き(図27(a)参照)に、ロボット10の向きを変更する。具体的には、向き調整部38は、移動機構17の回転等を行うことによって、目標点算出部43によって算出された向き(θ)を示す方向情報に基づいて、ロボット10の向きを変更する。そして、ロボット10の送受信部31は、移動した目標点において撮影装置21によって撮影されて取得された画像データ200を、通信ネットワーク9を介して、表示端末50へ送信する。これによって、表示端末50は、ロボット10の移動先である目標点において、ロボット10の周囲を撮影して取得された画像データ200を表示することができる。   In step S106, the movement control unit 37 of the robot 10 stops the robot 10 when the robot 10 reaches the target position G. In step S107, the direction adjusting unit 38 of the robot 10 changes the direction of the robot 10 to the direction calculated by the target point calculating unit 43 (see FIG. 27A). Specifically, the direction adjusting unit 38 changes the direction of the robot 10 based on the direction information indicating the direction (θ) calculated by the target point calculating unit 43 by rotating the moving mechanism 17 or the like. . Then, the transmission / reception unit 31 of the robot 10 transmits the image data 200 captured and acquired by the imaging device 21 at the moved target point to the display terminal 50 via the communication network 9. Thereby, the display terminal 50 can display the image data 200 obtained by photographing the periphery of the robot 10 at the target point to which the robot 10 moves.

したがって、遠隔制御システム1aは、目標点算出部43によって算出された目標点へロボット10を移動させることができる。そのため、遠隔制御システム1aは、ロボット10が位置する拠点における複数の参加者の注目点に基づいて、ロボット10を移動させることができるとともに、遠隔地の表示端末50に注目点およびその近傍を撮影した画像を表示させることができるので、遠隔拠点間の円滑なコミュニケーションを実現することができる。   Therefore, the remote control system 1a can move the robot 10 to the target point calculated by the target point calculator 43. Therefore, the remote control system 1a can move the robot 10 based on the points of interest of a plurality of participants at the base where the robot 10 is located, and photograph the point of interest and the vicinity thereof on the display terminal 50 at a remote place. Since the displayed image can be displayed, smooth communication between the remote sites can be realized.

なお、図4に示したロボット10bのように移動機構17を有さない場合、ロボット10b(伝送端末)は、目標点算出部43によって算出された目標点のうち、人物の向き(θ)を示す方向情報のみを用いて、ロボット10bの向きを方向情報が示す変更先の向きに変更する構成であってもよい。   When the robot 10 b does not have the moving mechanism 17 as in the robot 10 b illustrated in FIG. 4, the robot 10 b (transmission terminal) determines the direction (θ) of the person among the target points calculated by the target point calculation unit 43. A configuration may be used in which the direction of the robot 10b is changed to the change destination direction indicated by the direction information using only the direction information indicated.

〇存在通知処理
続いて、ロボット10が目標点への移動している場合において、ロボット10から自らの存在を周囲に通知する処理を説明する。図29は、第1の実施形態に係るロボットにおける存在通知処理の一例を説明するためのフローチャートである。
〇Presence notification processing Next, a description will be given of processing in which the robot 10 notifies its surroundings of its own when the robot 10 is moving to a target point. FIG. 29 is a flowchart illustrating an example of a presence notification process in the robot according to the first embodiment.

ステップS121において、ロボット10の位置特定部39は、ロボット10の現在位置を特定する。具体的には、位置特定部39は、加速度・方位センサ103またはGPS受信部104によって検出される各方位(方位角、磁北)の方向等の検出結果に基づいて、ロボット10の現在位置を特定する。ステップS122において、ロボット10の位置特定部39は、特定したロボット10の現在位置と、注目点算出部42によって算出された注目点Aとの距離を算出する。   In step S121, the position specifying unit 39 of the robot 10 specifies the current position of the robot 10. Specifically, the position specifying unit 39 specifies the current position of the robot 10 based on the detection result of each direction (azimuth angle, magnetic north) detected by the acceleration / azimuth sensor 103 or the GPS receiving unit 104. I do. In step S122, the position specifying unit 39 of the robot 10 calculates the distance between the specified current position of the robot 10 and the attention point A calculated by the attention point calculation unit 42.

ステップS123において、ロボット10は、位置特定部39によって算出された距離が、所定の閾値以上または所定の閾値より長い場合、処理をステップS124に移行させる。一方で、ロボット10は、位置特定部39によって算出された距離が、所定の閾値より短いまたは所定の閾値以下の場合、ステップS121からの処理を繰り返す。   In step S123, if the distance calculated by the position specifying unit 39 is equal to or larger than the predetermined threshold or longer than the predetermined threshold, the robot 10 shifts the processing to step S124. On the other hand, when the distance calculated by the position specifying unit 39 is shorter than the predetermined threshold or equal to or smaller than the predetermined threshold, the robot 10 repeats the processing from step S121.

ステップS124において、ロボット10の存在通知部45は、ロボット10の存在を通知する通知情報を出力する。具体的には、存在通知部45は、通知情報として、スピーカ308bから音信号を出力する。また、存在通知部45は、通知情報として、移動機構17、もしくは可動アーム11または回転軸12を駆動させることにより、所定のジェスチャーを行う。なお、存在通知部45による通知情報の出力方法は、これに限られない。   In step S124, the presence notification unit 45 of the robot 10 outputs notification information for notifying the presence of the robot 10. Specifically, the presence notification unit 45 outputs a sound signal from the speaker 308b as notification information. The presence notification unit 45 performs a predetermined gesture as the notification information by driving the moving mechanism 17, the movable arm 11, or the rotating shaft 12. The method of outputting the notification information by the presence notification unit 45 is not limited to this.

これにより、ロボット10は、注目点から大きく離れている場合、ロボット10の存在を周囲の人に知らせながら注目点に近づくことで、ロボット10が急に現れたりすることによって周囲の人を驚かすことを防止することができる。また、ロボット10は、注目点に近づくことによる、会議等の進行を妨げることを予防することができる。   Accordingly, when the robot 10 is far away from the point of interest, the robot 10 approaches the point of interest while notifying the surrounding people of the existence of the robot 10, so that the robot 10 suddenly appears to surprise the surrounding people. Can be prevented. Further, the robot 10 can prevent the progress of a conference or the like from being hindered by approaching the point of interest.

なお、ロボット10の存在通知部45は、ロボット10の現在位置と注目点までの距離が、所定の閾値以下または所定の閾値より短くなった場合に、ロボットの存在を通知する構成にしてもよい。   Note that the presence notification unit 45 of the robot 10 may be configured to notify the presence of the robot when the distance between the current position of the robot 10 and the point of interest becomes equal to or smaller than a predetermined threshold or shorter than the predetermined threshold. .

以上説明したように、遠隔制御システム1aは、ロボット10の周囲に位置する複数の人(参加者)が注目する注目点に基づいて、ロボット10が自動的に適した位置に移動するため、ロボット10を用いて行われる遠隔コミュニケーションにおいて、参加者に感じさせる違和感や煩わしさを低減させることができるとともに、自然な形でロボット10を介した遠隔コミュニケーションを実現することができる。   As described above, since the remote control system 1a automatically moves the robot 10 to a suitable position based on a point of interest of a plurality of persons (participants) located around the robot 10, In the remote communication performed by using the remote control 10, it is possible to reduce a sense of incongruity and annoyance felt by a participant, and to realize the remote communication through the robot 10 in a natural manner.

従来の位置固定型のビデオ会議システムは、最初に置いた位置から動かされないため、例えば、話題の中心位置(注目点)が変わった場合、遠隔地から参加している人は、会話から取り残されたような印象を受ける。また、例えば、ロボット10の周囲にいる参加者は、遠隔地から参加している人が話題に関心がないと感じてしまい、遠隔地から参加している人を会話の対象から外してしまうおそれがある。結果として、遠隔コミュニケーションによる一体感が損なわれ、疎外感を生む原因となる。   Since the conventional fixed position video conferencing system is not moved from the position where it was initially placed, for example, when the center position (point of interest) of the topic changes, those who are participating from a remote place are left out of the conversation. I get the impression that Also, for example, a participant around the robot 10 may feel that a person who is participating from a remote place is not interested in the topic, and may exclude a person who is participating from a remote place from being a conversation target. There is. As a result, the sense of unity due to remote communication is impaired, which causes a feeling of alienation.

一方で、ロボット10は、話題の中心位置(注目点)に追従して、ロボット10の位置および向きを変更するため、遠隔地から参加している人(例えば、表示端末50を用いてロボット10を操作する操作者)は、ロボット10を通じて常にその話題に加わっている印象を得られる。一方で、ロボット10の周囲に位置する複数の参加者も、遠隔地にいる参加者が会議に参加して話を聞いている印象が得られる。これにより、遠隔制御システム1aは、ロボット10を用いて遠隔会議による円滑なコミュニケーションを実現することができる。   On the other hand, the robot 10 follows a central position (point of interest) of the topic and changes the position and orientation of the robot 10 in order to change the position and orientation of the robot 10 (for example, the robot 10 using the display terminal 50). Can be obtained through the robot 10. On the other hand, a plurality of participants located around the robot 10 also have an impression that a participant in a remote place is participating in a conference and listening to a story. Thereby, the remote control system 1a can realize smooth communication by the remote conference using the robot 10.

〇ロボット10の移動経路の例〇
ここで、目標点算出部43によって算出されるロボット10の移動経路について説明する。図30(a)に示す例は、ロボット10(R)が目標位置Gにまっすぐ向かうのではなく、人と人との間を見つけてそこに割り込む方法である。この方法は、ロボット10(R)が人に近づきすぎることによって、身体距離(プライベートな空間)が侵されないようにするために有効である。この場合、ロボット10(R)の目標点算出部43は、各参加者(h1〜h4)の位置のすべての組み合わせから、一定以上の距離が空いている位置を特定し、その中間距離にロボット10(R)を移動させるように移動経路を算出する。
<< Example of Moving Path of Robot 10 >> Here, the moving path of the robot 10 calculated by the target point calculating unit 43 will be described. The example shown in FIG. 30A is a method in which the robot 10 (R) does not head straight to the target position G, but finds between people and interrupts it. This method is effective to prevent the body distance (private space) from being affected by the robot 10 (R) coming too close to a person. In this case, the target point calculation unit 43 of the robot 10 (R) specifies a position having a certain distance or more from all combinations of positions of the participants (h1 to h4), and sets the robot to an intermediate distance between the positions. The moving route is calculated so as to move 10 (R).

図30(b)に示す例は、ロボット10(R)が目標位置Gにまっすぐ向かうのではなく、ロボット10(R)の現在位置から最も近い人の傍を通過する方法である。ロボット10(R)の目標点算出部43は、位置特定部39によって特定されたロボット10(R)の現在位置に最も近い参加者(例えば、h3)を特定し、特定した参加者の位置から一定距離離れた位置にロボット10(R)を移動させるように移動経路を算出する。なお、ロボット10(R)は、例えば、h3の位置から一定距離離れた位置を通過して目標位置Gへ移動してもよいし、h3の位置から一定距離は離れた位置で停止してもよい。この場合、ロボット10(R)は、図30(b)に示すように、注目点Aの方向を向くのではなく、h3と同じ方向を向くように、向き調整部38によってロボット10(R)の向きを変更してもよい。   The example shown in FIG. 30 (b) is a method in which the robot 10 (R) does not head straight to the target position G but passes by the person closest to the current position of the robot 10 (R). The target point calculation unit 43 of the robot 10 (R) specifies the participant (for example, h3) closest to the current position of the robot 10 (R) specified by the position specifying unit 39, and determines from the position of the specified participant. A movement path is calculated so as to move the robot 10 (R) to a position separated by a certain distance. For example, the robot 10 (R) may move to the target position G by passing through a position separated by a certain distance from the position of h3, or may stop at a position separated by a certain distance from the position of h3. Good. In this case, as shown in FIG. 30B, the robot 10 (R) is not turned in the direction of the point of interest A, but is turned in the same direction as h3 by the robot 10 (R). May be changed.

〇目標点算出処理を開始するまでの処理〇
ここで、図19に示した目標点算出処理を行う頻度またはタイミングについて説明する。会議等において、ロボット10の周囲の参加者の位置が頻繁に変わるような場合、その都度ロボット10が移動すると、参加者にとって逆に会議の妨げとなる場合がある。そこで、遠隔制御システム1aは、所定の条件を満たした場合に、ロボット10において図19に示した目標点算出処理を行う。
<< Process Before Starting Target Point Calculation Process >> Here, the frequency or timing of performing the target point calculation process shown in FIG. 19 will be described. In a meeting or the like, in a case where the position of a participant around the robot 10 changes frequently, if the robot 10 moves each time, the participant may interfere with the meeting. Therefore, the remote control system 1a performs the target point calculation processing shown in FIG. 19 in the robot 10 when a predetermined condition is satisfied.

図31(a)に示すフローチャートは、前回の目標点算出時からの経過時間に基づいて、目標点算出処理を行う例である。ステップS151aにおいて、ロボット10の判断部34は、タイマ107を用いて、前回の目標点算出時からの経過時間を測定する。ステップS152aにおいて、判断部34は、前回の目標点算出時からの経過時間が、設定された経過時間の条件を超過した場合、処理をステップS153aへ移行させる。具体的には、ロボット10の記憶・読出部46は、記憶部3000に記憶された条件テーブル3002(図10参照)を読み出す。判断部34は、記憶・読出部46によって読み出された条件テーブル3002を検索し、ロボット10が位置する拠点に対応する経過時間の条件を抽出する。例えば、ロボット10が拠点Aに位置する場合、判断部34は、拠点Aに対応する経過時間の条件として、「3min」を抽出する。そして、判断部34は、前回の目標点算出時からの経過時間が、抽出した条件を超過している場合、処理をステップS153aへ移行させる。一方で、ステップS152aにおいて、判断部34は、前回の目標点算出時からの経過時間が、設定された経過時間の条件を超過していない(設定された経過時間内である)場合、ステップS151aからの処理を繰り返す。   The flowchart shown in FIG. 31A is an example in which the target point calculation processing is performed based on the elapsed time from the previous calculation of the target point. In step S151a, the determination unit 34 of the robot 10 uses the timer 107 to measure the time elapsed since the previous calculation of the target point. In step S152a, when the elapsed time from the previous calculation of the target point exceeds the set elapsed time condition, the determination unit 34 shifts the processing to step S153a. Specifically, the storage / read unit 46 of the robot 10 reads the condition table 3002 (see FIG. 10) stored in the storage unit 3000. The determination unit 34 searches the condition table 3002 read by the storage / read unit 46, and extracts the condition of the elapsed time corresponding to the base where the robot 10 is located. For example, when the robot 10 is located at the base A, the determination unit 34 extracts “3 min” as a condition of the elapsed time corresponding to the base A. Then, when the elapsed time from the previous calculation of the target point exceeds the extracted condition, the determination unit 34 shifts the processing to step S153a. On the other hand, in step S152a, if the elapsed time from the previous calculation of the target point does not exceed the set elapsed time condition (is within the set elapsed time), the determination unit 34 determines in step S151a. Repeat the process from.

ステップS153aにおいて、ロボット10は、前回の目標点算出時から所定の時間経過した場合、図19に示した目標点算出処理を行う。これによって、ロボット10は、前回目標点算出処理を行ってからの経過時間に基づいて、ロボット10の移動先を示す目標点の算出処理を行うとともに、算出した目標点へロボット10を移動させるため、頻繁にロボット10が移動することによって、円滑なコミュニケーションが妨げられることを防止することができる。   In step S153a, the robot 10 performs the target point calculation processing shown in FIG. 19 when a predetermined time has elapsed since the previous target point calculation. Thereby, the robot 10 performs the process of calculating the target point indicating the destination of the robot 10 based on the elapsed time since the previous target point calculation process is performed, and moves the robot 10 to the calculated target point. In addition, it is possible to prevent smooth communication from being hindered by the frequent movement of the robot 10.

図31(b)に示すフローチャートは、ロボット10の周囲に位置する人(参加者)との距離に基づいて、目標点算出処理を行う例である。ステップS151bにおいて、ロボット10は、ロボット10の周囲に位置する人(参加者)との距離を測定する。具体的には、ロボット10の位置特定部39は、加速度・方位センサ103またはGPS受信部104によって検出される各方位(方位角、磁北)の方向等の検出結果に基づいて、ロボット10の現在位置を特定する。そして、位置特定部39は、特定したロボット10の現在位置と、注目点算出部42によって算出された人(参加者)との距離を算出する。   The flowchart shown in FIG. 31B is an example in which the target point calculation processing is performed based on the distance from a person (participant) located around the robot 10. In step S151b, the robot 10 measures the distance to a person (participant) located around the robot 10. Specifically, the position specifying unit 39 of the robot 10 determines the current position of the robot 10 based on the detection result of each direction (azimuth, magnetic north) detected by the acceleration / direction sensor 103 or the GPS receiving unit 104. Identify the location. Then, the position specifying unit 39 calculates the distance between the specified current position of the robot 10 and the person (participant) calculated by the attention point calculating unit 42.

ステップS152bにおいて、判断部34は、算出された人(参加者)との距離が設定された人との距離の条件を超過した場合、処理をステップS153bへ移行させる。具体的には、ロボット10の記憶・読出部46は、記憶部3000に記憶された条件テーブル3002(図10参照)を読み出す。判断部34は、記憶・読出部46によって読み出された条件テーブル3002を検索し、ロボット10が位置する拠点に対応する人との距離の条件を抽出する。例えば、ロボット10が拠点Aに位置する場合、判断部34は、拠点Aに対応する人との距離の条件として、「8m」を抽出する。そして、判断部34は、位置特定部39によって算出されたロボット10と人との距離の少なくとも一つが、抽出した条件を超過している場合、処理をステップS153bへ移行させる。一方で、ステップS152bにおいて、判断部34は、算出された人(参加者)との距離が設定された人との距離の条件を超過していない(ロボット10と全ての参加者とが所定の距離以内に存在する)場合、ステップS151bからの処理を繰り返す。   In step S152b, when the calculated distance to the person (participant) exceeds the set condition for the distance to the person, the determination unit 34 shifts the processing to step S153b. Specifically, the storage / read unit 46 of the robot 10 reads the condition table 3002 (see FIG. 10) stored in the storage unit 3000. The determination unit 34 searches the condition table 3002 read by the storage / read unit 46 and extracts the condition of the distance to the person corresponding to the base where the robot 10 is located. For example, when the robot 10 is located at the base A, the determination unit 34 extracts “8 m” as a condition for the distance to the person corresponding to the base A. Then, if at least one of the distances between the robot 10 and the person calculated by the position specifying unit 39 exceeds the extracted condition, the determining unit 34 shifts the processing to step S153b. On the other hand, in step S152b, the determination unit 34 determines that the calculated distance to the person (participant) does not exceed the condition of the distance to the set person (the robot 10 and all the participants have a predetermined distance). If it exists within the distance), the processing from step S151b is repeated.

ステップS153bにおいて、ロボット10は、人(参加者)との距離が所定の距離以上離れた場合、図19に示した目標点算出処理を行う。これによって、ロボット10は、ロボット10の周囲に位置する人(参加者)との距離が所定の距離以上離れた場合にのみ、ロボット10の移動先を示す目標点の算出処理を行うとともに、算出した目標点へロボット10を移動させるため、頻繁にロボット10が移動することによって、円滑なコミュニケーションが妨げられることを防止することができる。   In step S153b, when the distance from the person (participant) is greater than or equal to the predetermined distance, the robot 10 performs the target point calculation process illustrated in FIG. Accordingly, the robot 10 performs the process of calculating the target point indicating the destination of the robot 10 only when the distance from a person (participant) located around the robot 10 is greater than or equal to a predetermined distance. In order to move the robot 10 to the set target point, it is possible to prevent the smooth communication from being hindered by the frequent movement of the robot 10.

図31(c)に示すフローチャートは、設定された調整周期に基づいて、目標点算出処理を行う例である。ステップS151cにおいて、ロボット10の判断部34は、タイマ107を用いて、前回の目標点算出時からの経過時間を測定する。ステップS152cにおいて、判断部34は、前回の目標点算出時からの経過時間が、設定された調整周期の条件を超過した場合、処理をステップS153cへ移行させる。具体的には、ロボット10の記憶・読出部46は、記憶部3000に記憶された条件テーブル3002(図10参照)を読み出す。判断部34は、記憶・読出部46によって読み出された条件テーブル3002を検索し、ロボット10が位置する拠点に対応する調整周期の条件を抽出する。例えば、ロボット10が拠点Aに位置する場合、判断部34は、拠点Aに対応する調整周期の条件として、「5min」を抽出する。そして、判断部34は、前回の目標点算出時からの経過時間が、抽出した条件を超過している場合、処理をステップS153cへ移行させる。一方で、ステップS152cにおいて、判断部34は、前回の目標点算出時からの経過時間が、設定された調整周期の条件を超過していない(設定された調整周期の範囲内である)場合、ステップS151cからの処理を繰り返す。   The flowchart shown in FIG. 31C is an example in which the target point calculation processing is performed based on the set adjustment cycle. In step S151c, the determination unit 34 of the robot 10 uses the timer 107 to measure the elapsed time from the previous calculation of the target point. In step S152c, the determination unit 34 shifts the processing to step S153c when the elapsed time from the previous calculation of the target point exceeds the condition of the set adjustment cycle. Specifically, the storage / read unit 46 of the robot 10 reads the condition table 3002 (see FIG. 10) stored in the storage unit 3000. The determination unit 34 searches the condition table 3002 read by the storage / read unit 46, and extracts the condition of the adjustment cycle corresponding to the base where the robot 10 is located. For example, when the robot 10 is located at the site A, the determination unit 34 extracts “5 min” as a condition of the adjustment cycle corresponding to the site A. Then, when the elapsed time since the previous calculation of the target point exceeds the extracted condition, the determining unit 34 shifts the processing to step S153c. On the other hand, in step S152c, the determination unit 34 determines that the elapsed time from the previous calculation of the target point does not exceed the condition of the set adjustment cycle (is within the range of the set adjustment cycle). The processing from step S151c is repeated.

ステップS153cにおいて、ロボット10は、前回の目標点算出時から所定の調整周期を経過した場合、図19に示した目標点算出処理を行う。これによって、ロボット10は、設定された目標点の調整周期に基づいて、ロボット10の移動先を示す目標点の算出処理を行うとともに、算出した目標点へロボット10を移動させるため、頻繁にロボット10が移動することによって、円滑なコミュニケーションが妨げられることを防止することができる。   In step S153c, the robot 10 performs the target point calculation processing shown in FIG. 19 when a predetermined adjustment cycle has elapsed since the previous target point calculation. Accordingly, the robot 10 performs the process of calculating the target point indicating the destination of the robot 10 based on the set adjustment cycle of the target point, and frequently moves the robot 10 to the calculated target point. It is possible to prevent smooth communication from being hindered by the movement of 10.

したがって、遠隔制御システム1aは、図31(a)〜(c)のように、所定の条件に基づいて目標点算出処理を開始する頻度またはタイミングを決定するため、ロボット10が頻繁に移動することによって円滑なコミュニケーションが妨げられることを防止することができる。なお、図31(a)〜(c)に示した処理および図10に示した条件テーブル3002に含まれる条件は、一例であり、これに限られず、ロボット10の管理者または表示端末50を用いてロボット10を操作する操作者等によって適宜修正・変更可能である。   Therefore, as shown in FIGS. 31A to 31C, the remote control system 1a determines that the frequency or timing at which the target point calculation process is started based on a predetermined condition, so that the robot 10 frequently moves. Can prevent smooth communication from being hindered. The processing illustrated in FIGS. 31A to 31C and the conditions included in the condition table 3002 illustrated in FIG. 10 are examples, and are not limited thereto. Can be modified and changed by an operator or the like operating the robot 10 as needed.

また、遠隔制御システム1aは、ロボット10の周囲の人(参加者)の少なくとも一人が移動した場合に、目標点算出処理を行う構成であってもよい。この場合、ロボット10は注目点算出部42および目標点算出部43は、例えば、画像取得部36によって取得された画像データ200に含まれる複数の人物のうち少なくとも一つの人物の位置または向きが変化した場合、変化した人物の位置または向きに基づいて目標点を算出する。具体的には、ロボット10は注目点算出部42および目標点算出部43は、画像データ200に含まれる複数の人物のうち変化していない人物の位置または向きを固定値とし、変化した人物の位置または向きの変化量に基づいて目標点を算出する。   Further, the remote control system 1a may be configured to perform the target point calculation process when at least one person (participant) around the robot 10 moves. In this case, the robot 10 may change the position or direction of at least one of the plurality of persons included in the image data 200 acquired by the image acquisition unit 36, for example, by changing the attention point calculation unit 42 and the target point calculation unit 43. If so, the target point is calculated based on the changed position or orientation of the person. Specifically, the robot 10 sets the attention point calculation unit 42 and the target point calculation unit 43 to a fixed value of the position or orientation of a person who has not changed among a plurality of persons included in the image data 200, and A target point is calculated based on the amount of change in position or orientation.

●第1の実施形態の効果
以上説明したように、第1の実施形態に係る遠隔制御システム1aは、被写体を撮影して画像データ200を取得する撮影装置21を備えるロボット10(移動体の一例)と、ロボット10と通信ネットワーク9を介して通信可能であり、ロボット10を遠隔操作する表示端末50を備え、ロボット10と表示端末50との間において送受信される画像データを用いて遠隔コミュニケーションを実現する。
[Effects of the First Embodiment] As described above, the remote control system 1a according to the first embodiment includes the robot 10 (an example of a moving object) including the photographing device 21 that photographs the subject and acquires the image data 200. ), A display terminal 50 that can communicate with the robot 10 via the communication network 9 and remotely controls the robot 10, and performs remote communication using image data transmitted and received between the robot 10 and the display terminal 50. Realize.

ここで、第1の実施形態に係る遠隔制御システム1aにおいて、ロボット10(移動体の一例)が備える制御装置30は、本発明に係る情報処理装置の一例である。情報処理装置としての制御装置30は、撮影装置21によって取得された画像データ200を取得する画像取得部36(取得手段の一例)と、取得された画像データ200に含まれる複数の人物の位置および向きに基づいて、ロボット10の移動先を示す目標点を算出する注目点算出部42および目標点算出部43(算出手段の一例)とを備え、算出された目標点へロボット10を移動させる。そのため、第1の実施形態に係る情報処理装置としての制御装置30は、一方の拠点にいる複数の参加者の位置と向きに応じて、ロボット10を移動させることで、他方の拠点にいる参加者との遠隔コミュニケーションを活性化させることができる。   Here, in the remote control system 1a according to the first embodiment, the control device 30 included in the robot 10 (an example of a moving object) is an example of the information processing device according to the present invention. The control device 30 serving as the information processing device includes an image acquisition unit 36 (an example of an acquisition unit) that acquires the image data 200 acquired by the imaging device 21, a position of a plurality of persons included in the acquired image data 200, A target point calculation unit 42 and a target point calculation unit 43 (an example of a calculation unit) for calculating a target point indicating a destination of the robot 10 based on the direction are provided, and the robot 10 is moved to the calculated target point. For this reason, the control device 30 as the information processing device according to the first embodiment moves the robot 10 according to the positions and orientations of a plurality of participants at one base, thereby joining the participants at the other base. Can activate the remote communication with the person.

さらに、第1の実施形態に係るロボット10(移動体の一例)が備える制御装置30は、取得された画像データ200に含まれる複数の人物の位置および向きを推定し(推定手段の一例、推定された位置および向きに基づいて、画像データ200に含まれる複数の人物が注目する注目点を特定する(注目点特定手段の一例)注目点算出部42と、特定された注目点に基づいて、ロボット10の移動先を示す目標点を特定する目標点算出部43(目標点特定手段の一例)と、有する。そのため、第1の実施形態に係る情報処理装置としての制御装置30は、ロボット10の周囲に位置する複数の参加者が注目する注目点に基づいて、ロボット10を移動させることで、他方の拠点にいる参加者との遠隔コミュニケーションを活性化させることができる。   Further, the control device 30 included in the robot 10 (an example of a moving object) according to the first embodiment estimates the positions and orientations of a plurality of persons included in the acquired image data 200 (an example of an estimation unit, estimation Based on the specified position and orientation, a point of interest calculated by a plurality of persons included in the image data 200 (an example of a point of interest specifying unit) is specified. The control device 30 as an information processing device according to the first embodiment includes a target point calculation unit 43 (an example of a target point specifying unit) that specifies a target point indicating a destination of the robot 10. By moving the robot 10 based on a point of interest of a plurality of participants located around the, the remote communication with the participant at the other base can be activated. Kill.

●第2の実施形態●
次に、第2の実施形態に係る遠隔制御システムついて説明する。なお、第1の実施形態と同一構成および同一機能は、同一の符号を付して、その説明を省略する。第2の実施形態に係る遠隔制御システム1bは、ロボット10の位置調整処理を、ロボット10から送信されてきた画像データを表示する表示端末50が行う構成である。
● Second embodiment ●
Next, a remote control system according to a second embodiment will be described. Note that the same configurations and functions as those of the first embodiment are denoted by the same reference numerals, and description thereof will be omitted. The remote control system 1b according to the second embodiment has a configuration in which the position adjustment process of the robot 10 is performed by the display terminal 50 that displays the image data transmitted from the robot 10.

なお、第2の実施形態に係る遠隔制御システム1bを構成する装置または端末(ロボット10、表示端末50および管理サーバ90)のハードウエア構成は、第1の実施形態に係る遠隔制御システム1aを構成する装置または端末(ロボット10、表示端末50および管理サーバ90)と同様であるため、説明を省略する。   The hardware configuration of the devices or terminals (robot 10, display terminal 50, and management server 90) constituting the remote control system 1b according to the second embodiment is the same as that of the remote control system 1a according to the first embodiment. This is the same as the device or terminal (robot 10, display terminal 50, and management server 90) that performs the operation, and thus the description is omitted.

●機能構成
まず、図32を用いて、第2の実施形態に係る遠隔制御システムの機能構成について説明する。図32は、第2の実施形態に係る遠隔制御システムの機能構成の一例を示す図である。なお、第2の実施形態に係る管理サーバ90によって実現される機能は、第1の実施形態に係る管理サーバ90によって実現される機能(図8参照)と同様であるため、説明を省略する。
First, the functional configuration of the remote control system according to the second embodiment will be described with reference to FIG. FIG. 32 is a diagram illustrating an example of a functional configuration of the remote control system according to the second embodiment. Note that the functions implemented by the management server 90 according to the second embodiment are the same as the functions implemented by the management server 90 according to the first embodiment (see FIG. 8), and a description thereof will be omitted.

〇制御装置30の機能構成〇
まず、図32を用いて、第2の実施形態に係るロボット10の処理または動作を制御する制御装置30の機能構成について説明する。第2の実施形態に係る制御装置30は、第1の実施形態に係る制御装置30によって実現される機能(図8参照)から画像処理部41、注目点算出部42および目標点算出部43を除いた機能を実現する。具体的には、第2の実施形態に係る制御装置30によって実現される機能は、送受信部31、操作入力受付部32、表示制御部33、判断部34、撮影指示部35、画像取得部36、移動制御部37、向き調整部38、位置特定部39、周辺情報検出部44、存在通知部45、記憶・読出部46および記憶部3000を含む。第2の実施形態に係る制御装置30によって実現されるそれぞれの機能は、図8に示した内容と同様であるため、説明を省略する。
<< Functional Configuration of Control Device 30 >> First, the functional configuration of the control device 30 that controls the processing or operation of the robot 10 according to the second embodiment will be described with reference to FIG. The control device 30 according to the second embodiment controls the image processing unit 41, the attention point calculation unit 42, and the target point calculation unit 43 from the functions (see FIG. 8) realized by the control device 30 according to the first embodiment. Implement the excluded functions. Specifically, the functions realized by the control device 30 according to the second embodiment include a transmission / reception unit 31, an operation input reception unit 32, a display control unit 33, a determination unit 34, a shooting instruction unit 35, and an image acquisition unit 36. , A movement control unit 37, a direction adjustment unit 38, a position identification unit 39, a peripheral information detection unit 44, a presence notification unit 45, a storage / readout unit 46, and a storage unit 3000. The respective functions realized by the control device 30 according to the second embodiment are the same as those shown in FIG.

〇表示端末50の機能構成〇
次に、図32を用いて、表示端末50の機能構成について説明する。第2の実施形態に係る表示端末50によって実現される機能は、第1の実施形態に係る表示端末50によって実現される機能(図8参照)に加えて、画像処理部61、注目点算出部62および目標点算出部63を含む。具体的には、表示端末50により実現される機能は、送受信部51、操作入力受付部52、表示制御部53、判断部54、要求コマンド生成部55、視線検出部56、記憶・読出部57、画像処理部61、注目点算出部62、目標点算出部63および記憶部5000を含む。また、送受信部51は、撮影装置21によって取得された画像である画像データ200を受信(取得)する取得手段の一例である。さらに、送受信部51は、後述する目標点算出部63によって算出された目標点へロボット10を移動させるための要求コマンド(要求情報)を、ロボット10へ送信する第2の送信手段の一例である。
<< Functional Configuration of Display Terminal 50 >> Next, a functional configuration of the display terminal 50 will be described with reference to FIG. The functions realized by the display terminal 50 according to the second embodiment include, in addition to the functions realized by the display terminal 50 according to the first embodiment (see FIG. 8), an image processing unit 61 and a point-of-interest calculation unit. 62 and a target point calculation unit 63. Specifically, the functions realized by the display terminal 50 include a transmission / reception unit 51, an operation input reception unit 52, a display control unit 53, a determination unit 54, a request command generation unit 55, a line-of-sight detection unit 56, a storage / readout unit 57. , An image processing unit 61, an attention point calculation unit 62, a target point calculation unit 63, and a storage unit 5000. The transmission / reception unit 51 is an example of an acquisition unit that receives (acquires) image data 200 that is an image acquired by the imaging device 21. Further, the transmission / reception unit 51 is an example of a second transmission unit that transmits, to the robot 10, a request command (request information) for moving the robot 10 to a target point calculated by a target point calculation unit 63 described later. .

画像処理部61は、送受信部51によって受信(取得)された画像に対する処理を行う機能である。画像処理部61は、例えば、送受信部51によって取得された画像データ200に含まれる人物の頭の画像を抽出する。また、画像処理部61は、例えば、送受信部51によって取得された人物の目と鼻の画像を抽出する。画像処理部61は、主に、図6に示したCPU501の処理によって実現される。   The image processing unit 61 has a function of performing processing on an image received (acquired) by the transmission / reception unit 51. The image processing unit 61 extracts, for example, an image of a person's head included in the image data 200 acquired by the transmission / reception unit 51. The image processing unit 61 extracts, for example, images of the eyes and nose of a person acquired by the transmission / reception unit 51. The image processing unit 61 is realized mainly by the processing of the CPU 501 shown in FIG.

注目点算出部62は、画像処理部61によって処理された画像データに含まれる複数の人物の位置および向きに基づいて、複数の人が注目する注目点を特定する機能である。注目点算出部62が実現する機能は、図8に示した注目点算出部42と同様であるため、説明を省略する。注目点算出部62は、主に、図6に示したCPU501の処理によって実現される。注目点算出部62は、算出手段の一例である。また、注目点算出部62は、推定手段の一例である。さらに、注目点算出部62は、注目点特定手段の一例である。   The attention point calculation unit 62 has a function of specifying an attention point to which a plurality of people pays attention based on the positions and orientations of the plurality of people included in the image data processed by the image processing unit 61. The functions realized by the attention point calculation unit 62 are the same as those of the attention point calculation unit 42 shown in FIG. The attention point calculation unit 62 is realized mainly by the processing of the CPU 501 shown in FIG. The attention point calculation unit 62 is an example of a calculation unit. In addition, the attention point calculation unit 62 is an example of an estimation unit. Further, the attention point calculation unit 62 is an example of an attention point identification unit.

目標点算出部63は、注目点算出部62によって算出された注目点に基づいて、ロボット10の移動先となる目標点を特定する機能である。目標点算出部63が実現する機能は、図8に示した目標点算出部43と同様であるため、説明を省略する。目標点算出部63は、主に、図6に示したCPU501の処理によって実現される。目標点算出部63は、算出手段の一例である。また、目標点算出部63は、目標点特定手段の一例である。   The target point calculation unit 63 has a function of specifying a target point to which the robot 10 moves based on the target point calculated by the target point calculation unit 62. The functions realized by the target point calculation unit 63 are the same as those of the target point calculation unit 43 shown in FIG. The target point calculation unit 63 is realized mainly by the processing of the CPU 501 shown in FIG. The target point calculation unit 63 is an example of a calculation unit. Further, the target point calculation unit 63 is an example of a target point specifying unit.

●第2の実施形態の処理または動作
続いて、図33を用いて、第2の実施形態に係る遠隔制御システムにおけるロボットの処理または動作について説明する。なお、図33において、ロボット10が備える制御装置30によって実行される処理は、ロボット10によって実行される処理として説明する。図33は、第2の実施形態に係る遠隔制御システムにおけるロボットの制御処理の一例を説明するためのシーケンス図である。
-Processing or operation of the second embodiment Next, processing or operation of the robot in the remote control system according to the second embodiment will be described with reference to FIG. In FIG. 33, the processing executed by the control device 30 included in the robot 10 will be described as the processing executed by the robot 10. FIG. 33 is a sequence diagram illustrating an example of a control process of the robot in the remote control system according to the second embodiment.

ステップS201において、ロボット10の画像取得部36は、撮影装置21によって撮影された画像である画像データ200を取得する。   In step S201, the image acquisition unit 36 of the robot 10 acquires image data 200 that is an image captured by the imaging device 21.

ステップS202−1,S202−2において、ロボット10の送受信部31は、確立された管理サーバ90との通信セッションを用いて、画像取得部36によって取得された画像データ200を、表示端末50へ送信する。これにより、表示端末50の送受信部51は、撮影装置21によって取得された画像である画像データ200を受信(取得)する(取得ステップの一例)。   In steps S202-1 and S202-2, the transmission / reception unit 31 of the robot 10 transmits the image data 200 acquired by the image acquisition unit 36 to the display terminal 50 using the established communication session with the management server 90. I do. Thereby, the transmission / reception unit 51 of the display terminal 50 receives (acquires) the image data 200 which is an image acquired by the imaging device 21 (an example of an acquisition step).

ステップS203において、表示端末50の表示制御部53は、送受信部51によって受信された画像データ200を、ディスプレイ512の表示画面600(図18(b)参照)に表示させる。これによって、表示端末50を用いてロボット10を操作する操作者は、ロボット10が位置する拠点の状況を、画像データ200が表示された表示画面600を見ながら確認することができる。   In step S203, the display control unit 53 of the display terminal 50 displays the image data 200 received by the transmission / reception unit 51 on the display screen 600 of the display 512 (see FIG. 18B). Thus, the operator who operates the robot 10 using the display terminal 50 can check the status of the base where the robot 10 is located while viewing the display screen 600 on which the image data 200 is displayed.

ステップS204において、表示端末50は、ロボット10の移動先となる目標点の算出処理を実行する(算出ステップの一例)。表示端末50の画像処理部61、注目点算出部62および目標点算出部63による目標点算出処理は、図19に示した処理と同様であるため、説明を省略する。   In step S204, the display terminal 50 performs a process of calculating a target point to which the robot 10 moves (an example of a calculation step). The target point calculation processing by the image processing unit 61, the attention point calculation unit 62, and the target point calculation unit 63 of the display terminal 50 is the same as the processing illustrated in FIG.

ステップS205において、表示端末50の要求コマンド生成部55は、目標点算出部63によって算出された目標点に基づいて、ロボット10へ送信する要求コマンドを生成する。この場合、要求コマンド生成部55によって生成される要求コマンドは、目標点算出部63によって算出された目標位置Gの座標情報(X,Y)を変数とする「GO(X,Y)」コマンドを含む。また、要求コマンド生成部55によって生成される要求コマンドは、目標点算出部63によって算出されたロボット10の向き(θ)を変数とする「TURN(θ)」コマンドを含む。要求コマンド生成部55によって生成される要求コマンドは、目標点算出部63によって算出された目標点へロボット10を移動させるための要求情報の一例である。   In step S205, the request command generator 55 of the display terminal 50 generates a request command to be transmitted to the robot 10 based on the target point calculated by the target point calculator 63. In this case, the request command generated by the request command generation unit 55 is a “GO (X, Y)” command using the coordinate information (X, Y) of the target position G calculated by the target point calculation unit 63 as a variable. Including. The request command generated by the request command generator 55 includes a “TURN (θ)” command in which the direction (θ) of the robot 10 calculated by the target point calculator 63 is used as a variable. The request command generated by the request command generation unit 55 is an example of request information for moving the robot 10 to the target point calculated by the target point calculation unit 63.

ステップS206−1,S206−2において、表示端末50の送受信部31は、確立された管理サーバ90との通信セッションを用いて、要求コマンド生成部55によって生成された要求コマンド(「GO(X,Y)」,「TURN(θ)」)を、ロボット10へ送信する。これにより、ロボット10の送受信部31は、要求コマンド(「GO(X,Y)」,「TURN(θ)」)を受信する。   In steps S206-1 and S206-2, the transmission / reception unit 31 of the display terminal 50 uses the established communication session with the management server 90 to request the request command (“GO (X, Y), “TURN (θ)”) to the robot 10. Thereby, the transmission / reception unit 31 of the robot 10 receives the request command (“GO (X, Y)”, “TURN (θ)”).

ステップS207において、ロボット10の記憶・読出部46は、記憶部5000に記憶されたコマンドテーブル5001を読み出す。ステップS208において、ロボット10の判断部34は、記憶・読出部46によって読み出されたコマンドテーブル3001を検索し、送受信部31によって受信された要求コマンドに対応する処理を抽出する。この場合、送受信部31によって受信された要求コマンドが「GO(X,Y)」および「TURN(θ)」であるため、判断部34は、コマンドテーブル3001を検索して、要求コマンド「GO(X,Y)」および「TURN(θ)」に対応する処理を抽出する。抽出される処理は、「ロボット10を(X,Y)の位置まで移動させる」および「ロボット10を右のθ°回転させる」である。   In step S207, the storage / readout unit 46 of the robot 10 reads out the command table 5001 stored in the storage unit 5000. In step S208, the determination unit 34 of the robot 10 searches the command table 3001 read by the storage / read unit 46, and extracts a process corresponding to the request command received by the transmission / reception unit 31. In this case, since the request commands received by the transmission / reception unit 31 are “GO (X, Y)” and “TURN (θ)”, the determination unit 34 searches the command table 3001 and determines the request command “GO ( X, Y) ”and“ TURN (θ) ”. The extracted processes are "moving the robot 10 to the position (X, Y)" and "rotating the robot 10 to the right θ °".

ステップS209において、ロボット10は、上記ステップS208によって抽出された処理を実行する。具体的には、ロボット10の判断部34は、抽出した処理の実行要求を、移動制御部37へ通知する。そして、移動制御部37は、判断部34によって抽出された処理に基づいて、ロボット10を移動させる。ロボット10の移動処理は、図28で示した処理と同様であるため、説明を省略する。   In step S209, the robot 10 executes the processing extracted in step S208. Specifically, the determination unit 34 of the robot 10 notifies the movement control unit 37 of an execution request for the extracted processing. Then, the movement control unit 37 moves the robot 10 based on the processing extracted by the determination unit 34. The movement process of the robot 10 is the same as the process shown in FIG.

そして、ロボット10の送受信部31は、表示端末50から送信されてきた要求コマンドに含まれる目標点において撮影装置21によって撮影された画像データ200を、表示端末50へ送信する。表示端末50は、ロボット10から送信されてきた画像データ200を受信する。これによって、表示端末50は、要求コマンドに含まれる目標点において、ロボット10の周囲を撮影して取得された画像データ200を表示することができる。   Then, the transmission / reception unit 31 of the robot 10 transmits, to the display terminal 50, image data 200 captured by the imaging device 21 at the target point included in the request command transmitted from the display terminal 50. The display terminal 50 receives the image data 200 transmitted from the robot 10. Thereby, the display terminal 50 can display the image data 200 obtained by photographing the periphery of the robot 10 at the target point included in the request command.

●第2の実施形態の効果
以上説明したように、第2の実施形態に係る遠隔制御システム1bは、ロボット10(移動体の一例)の目標点算出処理を、通信ネットワーク9を介してロボット10を遠隔操作する表示端末50が行う。そのため、第2の実施形態に係る遠隔制御システム1bは、ロボット10の処理負担を低減させることができるとともに、ロボット10が位置する拠点と表示端末50との間における、ロボット10を用いた遠隔コミュニケーションを活性化させることができる。
[Effects of the Second Embodiment] As described above, the remote control system 1b according to the second embodiment performs the target point calculation processing of the robot 10 (an example of a moving object) through the communication network 9 through the robot 10 Is performed by the display terminal 50 that remotely controls the operation. Therefore, the remote control system 1b according to the second embodiment can reduce the processing load on the robot 10 and perform remote communication using the robot 10 between the base where the robot 10 is located and the display terminal 50. Can be activated.

ここで、第2の実施形態に係る遠隔制御システム1bにおいて、表示端末50は、本発明に係る情報処理装置の一例である。情報処理装置としての表示端末50は、撮影装置21によって取得された画像データ200を取得する送受信部51(取得手段の一例)と、取得された画像データ200に含まれる複数の人物の位置および向きに基づいて、ロボット10の移動先を示す目標点を算出する注目点算出部62および目標点算出部63(算出手段の一例)とを備え、算出された目標点へロボット10を移動させる。そのため、第2の実施形態に係る情報処理装置としての表示端末50は、一方の拠点の複数の参加者の位置と向きに基づいてロボット10の移動先を算出し、算出した移動先へロボット10を移動させることで、他方の拠点にいる参加者との遠隔コミュニケーションを活性化させることができる。   Here, in the remote control system 1b according to the second embodiment, the display terminal 50 is an example of the information processing device according to the present invention. The display terminal 50 as the information processing device includes a transmitting / receiving unit 51 (an example of an acquiring unit) that acquires the image data 200 acquired by the imaging device 21 and positions and orientations of a plurality of persons included in the acquired image data 200. , A target point calculation unit 62 and a target point calculation unit 63 (an example of a calculation unit) that calculate a target point indicating a destination of the robot 10 based on the target position, and move the robot 10 to the calculated target point. Therefore, the display terminal 50 as the information processing apparatus according to the second embodiment calculates the destination of the robot 10 based on the positions and orientations of a plurality of participants at one base, and sends the robot 10 to the calculated destination. By moving the, the remote communication with the participant at the other base can be activated.

●第3の実施形態●
次に、第3の実施形態に係る遠隔制御システムついて説明する。なお、第1の実施形態または第2の実施形態と同一構成および同一機能は、同一の符号を付して、その説明を省略する。第3の実施形態に係る遠隔制御システム1cは、ロボット10の位置調整処理を、ロボット10および表示端末50と通信ネットワーク9を介して通信可能な画像処理サーバ70が行う構成である。
● Third embodiment ●
Next, a remote control system according to a third embodiment will be described. The same configurations and the same functions as those in the first embodiment or the second embodiment are denoted by the same reference numerals, and description thereof will be omitted. The remote control system 1c according to the third embodiment is configured such that an image processing server 70 capable of communicating with the robot 10 and the display terminal 50 via the communication network 9 performs the position adjustment processing of the robot 10.

●システム構成
まずは、図34を用いて、第3の実施形態の遠隔制御システムの構成の概略について説明する。図34は、第3の実施形態に係る遠隔制御システムのシステム構成の一例を示す図である。図34に示すように、第3の実施形態の遠隔制御システム1cは、図1に示した構成に、画像処理サーバ70が追加されている。画像処理サーバ70は、通信ネットワーク9を介して、ロボット10、表示端末50および管理サーバ90と通信可能に接続されている。画像処理サーバ70は、管理サーバ90によって確立された通信セッションを用いて、ロボット10または表示端末50との間で、画像データの送受信を行う。
First, the outline of the configuration of the remote control system according to the third embodiment will be described with reference to FIG. FIG. 34 is a diagram illustrating an example of a system configuration of a remote control system according to the third embodiment. As shown in FIG. 34, in a remote control system 1c according to the third embodiment, an image processing server 70 is added to the configuration shown in FIG. The image processing server 70 is communicably connected to the robot 10, the display terminal 50, and the management server 90 via the communication network 9. The image processing server 70 transmits and receives image data to and from the robot 10 or the display terminal 50 using the communication session established by the management server 90.

画像処理サーバ70は、サーバコンピュータであり、複数台のサーバコンピュータで分散して画像処理を行なう場合も含まれる。画像処理サーバ70は、ロボット10の移動状態に応じて、ロボット10から送信されてきた画像データ200の画像処理を行い、処理データを表示端末50へ送信する。なお、画像処理サーバ70は、複数台のサーバコンピュータにより構成されてもよく、どのサーバコンピュータに機能を備えさせてもよい。画像処理サーバ70は、情報処理装置の一例である。   The image processing server 70 is a server computer, and includes a case where a plurality of server computers perform image processing in a distributed manner. The image processing server 70 performs image processing on the image data 200 transmitted from the robot 10 according to the moving state of the robot 10, and transmits the processed data to the display terminal 50. Note that the image processing server 70 may be configured by a plurality of server computers, and any server computer may have a function. The image processing server 70 is an example of an information processing device.

ここで、画像処理サーバ70と管理サーバ90は、サーバシステム7を構成する。画像処理サーバ70と管理サーバ90は、一台のサーバコンピュータにより構成されてもよい。また、表示端末50と画像処理サーバ70は、表示システム5を構成する。さらに、ロボット10(10A,10B,10C)と画像処理サーバ70は、移動体制御システム(伝送制御システム)3を構成する。   Here, the image processing server 70 and the management server 90 constitute the server system 7. The image processing server 70 and the management server 90 may be configured by one server computer. Further, the display terminal 50 and the image processing server 70 constitute the display system 5. Further, the robot 10 (10A, 10B, 10C) and the image processing server 70 constitute a moving object control system (transmission control system) 3.

なお、画像処理サーバ70のハードウエア構成は、図7に示した管理サーバ90のハードウエア構成と同様であるため、説明を省略する。以下、画像処理サーバ70は、図7に示したハードウエア構成を有するものとして説明する。   Note that the hardware configuration of the image processing server 70 is the same as the hardware configuration of the management server 90 shown in FIG. Hereinafter, the image processing server 70 will be described as having the hardware configuration shown in FIG.

●機能構成
図35は、第3の実施形態に係る遠隔制御システムの機能構成の一例を示す図である。画像処理サーバ70によって実現される機能は、送受信部71、判断部72、データ処理部73、画像処理部74、注目点算出部75、目標点算出部76、記憶・読出部77および記憶部7000を含む。
[Functional Configuration] FIG. 35 is a diagram illustrating an example of a functional configuration of the remote control system according to the third embodiment. The functions realized by the image processing server 70 include a transmission / reception unit 71, a determination unit 72, a data processing unit 73, an image processing unit 74, an attention point calculation unit 75, a target point calculation unit 76, a storage / readout unit 77, and a storage unit 7000. including.

送受信部71は、通信ネットワーク9を介して、他の装置(例えば、管理サーバ90、表示端末50またはロボット10)との間で各種データまたは情報の送受信を行う機能である。送受信部71は、例えば、撮影装置21によって取得された画像である画像データ200を受信(取得)する。また、送受信部71は、データ処理部73によって生成された要求データ(要求情報)を、通信ネットワーク9を介して、ロボット10へ送信する。送受信部71は、主に、図7に示したCPU901の処理、およびネットワークI/F909によって実現される。送受信部71は、取得手段の一例である。また、送受信部71は、第3の送信手段の一例である。   The transmission / reception unit 71 has a function of transmitting / receiving various data or information to / from another device (for example, the management server 90, the display terminal 50, or the robot 10) via the communication network 9. The transmission / reception unit 71 receives (acquires) image data 200 which is an image acquired by the imaging device 21, for example. Further, the transmission / reception unit 71 transmits the request data (request information) generated by the data processing unit 73 to the robot 10 via the communication network 9. The transmission / reception unit 71 is mainly realized by the processing of the CPU 901 illustrated in FIG. 7 and the network I / F 909. The transmission / reception unit 71 is an example of an acquisition unit. The transmitting / receiving unit 71 is an example of a third transmitting unit.

判断部72は、送受信部71によって送受信される各種データに対する処理の内容を判断する機能である。判断部72は、主に、図7に示したCPU901の処理によって実現される。   The determining unit 72 has a function of determining the contents of processing for various data transmitted and received by the transmitting and receiving unit 71. The determination unit 72 is realized mainly by the processing of the CPU 901 shown in FIG.

データ処理部73は、送受信部71によって送受信される各種データの処理を行う機能である。データ処理部73は、目標点算出部76によって算出された目標点へロボット10を移動させるための要求データ(要求情報)を生成する。データ処理部73は、主に、図15に示したCPU901の処理によって実現される。   The data processing unit 73 has a function of processing various data transmitted and received by the transmission and reception unit 71. The data processing unit 73 generates request data (request information) for moving the robot 10 to the target point calculated by the target point calculation unit 76. The data processing unit 73 is realized mainly by the processing of the CPU 901 shown in FIG.

画像処理部74は、送受信部71によって受信(取得)された画像に対する処理を行う機能である。画像処理部74は、例えば、送受信部71によって取得された画像データ200に含まれる人物の頭の画像を抽出する。また、画像処理部74は、例えば、送受信部71によって取得された人物の目と鼻の画像を抽出する。画像処理部74は、主に、図7に示したCPU901の処理によって実現される。   The image processing unit 74 has a function of performing processing on an image received (acquired) by the transmission / reception unit 71. The image processing unit 74 extracts, for example, an image of a person's head included in the image data 200 acquired by the transmission / reception unit 71. The image processing unit 74 extracts, for example, images of the eyes and nose of the person acquired by the transmission / reception unit 71. The image processing unit 74 is realized mainly by the processing of the CPU 901 shown in FIG.

注目点算出部75は、画像処理部74によって処理された画像データに含まれる複数の人物の位置および向きに基づいて、複数の人が注目する注目点を特定する機能である。注目点算出部75が実現する機能は、図8に示した注目点算出部42と同様であるため、説明を省略する。注目点算出部75は、主に、図7に示したCPU901の処理によって実現される。注目点算出部75は、算出手段の一例である。また、注目点算出部75は、推定手段の一例である。さらに、注目点算出部75は、注目点特定手段の一例である。   The attention point calculation unit 75 has a function of specifying an attention point to which a plurality of people pays attention based on the positions and orientations of the plurality of people included in the image data processed by the image processing unit 74. The function realized by the attention point calculation unit 75 is the same as that of the attention point calculation unit 42 illustrated in FIG. The attention point calculation unit 75 is realized mainly by the processing of the CPU 901 shown in FIG. The attention point calculation unit 75 is an example of a calculation unit. In addition, the attention point calculation unit 75 is an example of an estimation unit. Furthermore, the attention point calculation unit 75 is an example of an attention point identification unit.

目標点算出部76は、注目点算出部75によって算出された注目点に基づいて、ロボット10の移動先となる目標点を特定する機能である。目標点算出部76が実現する機能は、図8に示した目標点算出部43と同様であるため、説明を省略する。目標点算出部76は、主に、図7に示したCPU901の処理によって実現される。目標点算出部76は、算出手段の一例である。また、目標点算出部76は、目標点特定手段の一例である。   The target point calculation unit 76 has a function of specifying a target point to which the robot 10 moves based on the target point calculated by the target point calculation unit 75. The functions realized by the target point calculation unit 76 are the same as those of the target point calculation unit 43 shown in FIG. The target point calculation unit 76 is realized mainly by the processing of the CPU 901 shown in FIG. The target point calculation unit 76 is an example of a calculation unit. Further, the target point calculation unit 76 is an example of a target point specifying unit.

記憶・読出部77は、記憶部7000に各種データを記憶させ、または記憶部7000から各種データを読み出す機能である。記憶・読出部77は、主に、図7に示したCPU901の処理によって実現される。また、記憶部7000は、主に、図7に示したROM902、HD904または記録メディア906によって実現される。   The storage / readout unit 77 has a function of storing various data in the storage unit 7000 or reading various data from the storage unit 7000. The storage / readout unit 77 is mainly realized by the processing of the CPU 901 shown in FIG. The storage unit 7000 is mainly realized by the ROM 902, the HD 904, or the recording medium 906 illustrated in FIG.

また、記憶部7000は、送受信部71によって受信された画像データ200、および画像データ250を記憶している。さらに、記憶部7000は、条件テーブル7001を記憶している。なお、条件テーブル7001は、図11に示した条件テーブル3002と同様であるため、説明を省略する。また、記憶部7000に記憶されている画像データ200および画像データ250は、送受信部71によって受信されてから所定の時間経過した場合に削除される構成であってもよいし、操作入力受付部52によって受け付けられた、ユーザからの削除命令に基づいて削除される構成であってもよい。同様に、記憶部5000に記憶されている画像データ250は、CMOSセンサ505aによって取得されてから所定の時間経過した場合に削除される構成であってもよいし、ロボット10または表示端末50へ送信されたデータが削除される構成であってもよい。   The storage unit 7000 stores the image data 200 and the image data 250 received by the transmission / reception unit 71. Further, storage unit 7000 stores condition table 7001. Note that the condition table 7001 is the same as the condition table 3002 shown in FIG. Further, the image data 200 and the image data 250 stored in the storage unit 7000 may be deleted when a predetermined time has elapsed after being received by the transmission / reception unit 71, or the operation input reception unit 52 May be deleted based on a deletion command received from the user. Similarly, the image data 250 stored in the storage unit 5000 may be deleted when a predetermined time has elapsed since the image data 250 was acquired by the CMOS sensor 505a, or transmitted to the robot 10 or the display terminal 50. The deleted data may be deleted.

●第3の実施形態の処理または動作
続いて、図36を用いて、第3の実施形態に係る遠隔制御システムにおけるロボットの処理または動作について説明する。なお、図36において、ロボット10が備える制御装置30によって実行される処理は、ロボット10によって実行される処理として説明する。図36は、第3の実施形態に係る遠隔制御システムにおけるロボットの制御処理の一例を説明するためのシーケンス図である。
[Process or Operation of Third Embodiment] Next, the process or operation of the robot in the remote control system according to the third embodiment will be described with reference to FIG. In FIG. 36, the processing executed by the control device 30 included in the robot 10 will be described as the processing executed by the robot 10. FIG. 36 is a sequence diagram illustrating an example of a control process of the robot in the remote control system according to the third embodiment.

ステップS301において、ロボット10の画像取得部36は、撮影装置21によって取得された画像である画像データ200を取得する。   In step S301, the image acquisition unit 36 of the robot 10 acquires image data 200 that is an image acquired by the imaging device 21.

ステップS302−1,S302−2,S302−3において、ロボット10の送受信部31は、確立された管理サーバ90との通信セッションを用いて、画像取得部36によって取得された画像データ200を、表示端末50へ送信する。このうち、画像処理サーバ70の送受信部71は、ロボット10から送信されてきた、撮影装置21によって取得された画像である画像データ200を受信(取得)する(取得ステップの一例)。これにより、表示端末50の送受信部51は、画像データ200を受信する。   In steps S302-1, S302-2, and S302-3, the transmission / reception unit 31 of the robot 10 displays the image data 200 acquired by the image acquisition unit 36 using the established communication session with the management server 90. Send to terminal 50. The transmission / reception unit 71 of the image processing server 70 receives (acquires) the image data 200 transmitted from the robot 10 and acquired by the imaging device 21 (an example of an acquisition step). Thereby, the transmission / reception unit 51 of the display terminal 50 receives the image data 200.

ステップS303において、表示端末50の表示制御部53は、送受信部51によって受信された画像データ200を、ディスプレイ512の表示画面600(図18(b)参照)に表示させる。これによって、表示端末50を用いてロボット10を操作する操作者は、ロボット10が位置する拠点の状況を、画像データ200が表示された表示画面600を見ながら確認することができる。   In step S303, the display control unit 53 of the display terminal 50 displays the image data 200 received by the transmission / reception unit 51 on the display screen 600 of the display 512 (see FIG. 18B). Thus, the operator who operates the robot 10 using the display terminal 50 can check the status of the base where the robot 10 is located while viewing the display screen 600 on which the image data 200 is displayed.

ステップS304において、画像処理サーバ70は、ロボット10の移動先となる目標点の算出処理を実行する(算出ステップの一例)。画像処理サーバ70の画像処理部74、注目点算出部75および目標点算出部76による目標点算出処理は、図19に示した処理と同様であるため、説明を省略する。   In step S304, the image processing server 70 executes a process of calculating a target point to which the robot 10 moves (an example of a calculation step). The target point calculation processing by the image processing unit 74, the attention point calculation unit 75, and the target point calculation unit 76 of the image processing server 70 is the same as the processing illustrated in FIG.

ステップS305において、画像処理サーバ70のデータ処理部73は、目標点算出部76によって算出された目標点へロボット10を移動させるために、ロボット10へ送信する要求データ(要求情報)を生成する。この場合、データ処理部73によって生成される要求データは、目標点算出部63によって算出された目標位置G(X,Y)を示す位置情報、ロボット10の移動先におけるロボット10の向き(θ)を示す方向情報を含む。データ処理部73によって生成される要求データは、表示端末50の要求コマンド生成部55によって生成される要求コマンドに対応する。   In step S305, the data processing unit 73 of the image processing server 70 generates request data (request information) to be transmitted to the robot 10 in order to move the robot 10 to the target point calculated by the target point calculation unit 76. In this case, the request data generated by the data processing unit 73 includes position information indicating the target position G (X, Y) calculated by the target point calculation unit 63, and the direction (θ) of the robot 10 at the destination of the robot 10. Is included. The request data generated by the data processing unit 73 corresponds to the request command generated by the request command generation unit 55 of the display terminal 50.

ステップS306−1,S306−2において、画像処理サーバ70の送受信部71は、データ処理部73によって生成された要求データ(要求情報)を、ロボット10へ送信する。これにより、ロボット10の送受信部31は、要求データ(要求情報)を受信する。   In steps S306-1 and S306-2, the transmission / reception unit 71 of the image processing server 70 transmits the request data (request information) generated by the data processing unit 73 to the robot 10. Thereby, the transmission / reception unit 31 of the robot 10 receives the request data (request information).

ステップS307において、ロボット10の記憶・読出部46は、記憶部5000に記憶されたコマンドテーブル5001を読み出す。ステップS308において、ロボット10の判断部34は、記憶・読出部46によって読み出されたコマンドテーブル3001を検索し、送受信部31によって受信された要求データ(要求データに対応する要求コマンド)に対応する処理を抽出する。この場合、送受信部31によって受信された要求データに対応する要求コマンドが「GO(X,Y)」および「TURN(θ)」であるため、判断部34は、コマンドテーブル3001を検索して、要求コマンド「GO(X,Y)」および「TURN(θ)」に対応する処理を抽出する。抽出される処理は、「ロボット10を(X,Y)の位置まで移動させる」および「ロボット10を右のθ°回転させる」である。   In step S307, the storage / read unit 46 of the robot 10 reads the command table 5001 stored in the storage unit 5000. In step S308, the determination unit 34 of the robot 10 searches the command table 3001 read by the storage / read unit 46, and corresponds to the request data (request command corresponding to the request data) received by the transmission / reception unit 31. Extract processing. In this case, since the request commands corresponding to the request data received by the transmission / reception unit 31 are “GO (X, Y)” and “TURN (θ)”, the determination unit 34 searches the command table 3001 and The processing corresponding to the request commands “GO (X, Y)” and “TURN (θ)” is extracted. The extracted processes are "moving the robot 10 to the position (X, Y)" and "rotating the robot 10 to the right θ °".

ステップS309において、ロボット10は、上記ステップS308によって抽出された処理を実行する。具体的には、ロボット10の判断部34は、抽出した処理の実行要求を、移動制御部37へ通知する。そして、移動制御部37は、判断部34によって抽出された処理に基づいて、ロボット10を移動させる。ロボット10の移動処理は、図28で示した処理と同様であるため、説明を省略する。   In step S309, the robot 10 executes the processing extracted in step S308. Specifically, the determination unit 34 of the robot 10 notifies the movement control unit 37 of an execution request for the extracted processing. Then, the movement control unit 37 moves the robot 10 based on the processing extracted by the determination unit 34. The movement process of the robot 10 is the same as the process shown in FIG.

そして、ロボット10の送受信部31は、画像処理サーバ70から送信されてきた要求データに含まれる目標点において撮影装置21によって撮影された画像データ200を、表示端末50へ送信する。表示端末50は、ロボット10から送信されてきた画像データ200を受信する。これによって、表示端末50は、画像処理サーバ70によって生成された要求データに含まれる目標点において、ロボット10の周囲を撮影して取得された画像データ200を表示することができる。   Then, the transmission / reception unit 31 of the robot 10 transmits, to the display terminal 50, the image data 200 captured by the imaging device 21 at the target point included in the request data transmitted from the image processing server 70. The display terminal 50 receives the image data 200 transmitted from the robot 10. Accordingly, the display terminal 50 can display the image data 200 obtained by photographing the periphery of the robot 10 at the target point included in the request data generated by the image processing server 70.

●第3の実施形態の効果
以上説明したように、第3の実施形態に係る遠隔制御システム1cは、ロボット10(移動体の一例)の目標点算出処理を、通信ネットワーク9を介してロボット10および表示端末50と通信可能な画像処理サーバ70が行う構成である。そのため、第3の実施形態に係る遠隔制御システム1cは、ロボット10および表示端末50の処理負担を低減させることができるとともに、ロボット10が位置する拠点と表示端末50との間における、ロボット10を用いた遠隔コミュニケーションを活性化させることができる。
[Effects of Third Embodiment] As described above, the remote control system 1c according to the third embodiment performs the target point calculation process of the robot 10 (an example of a moving object) through the communication network 9 through the robot 10 And an image processing server 70 that can communicate with the display terminal 50. Therefore, the remote control system 1c according to the third embodiment can reduce the processing load on the robot 10 and the display terminal 50, and can control the robot 10 between the base where the robot 10 is located and the display terminal 50. The used remote communication can be activated.

ここで、第3の実施形態に係る遠隔制御システム1cにおいて、画像処理サーバ70は、本発明に係る情報処理装置の一例である。情報処理装置としての画像処理サーバ70は、撮影装置21によって取得された画像データ200を取得する送受信部71(取得手段の一例)と、取得された画像データ200に含まれる複数の人物の位置および向きに基づいて、ロボット10(移動体の一例)の移動先を示す目標点を算出する注目点算出部75および目標点算出部76(算出手段の一例)とを備え、算出された目標点へロボット10を移動させる。そのため、第3の実施形態に係る情報処理装置としての画像処理サーバ70は、一方の拠点の複数の参加者の位置と向きに基づいてロボット10の移動先を算出し、算出した移動先へロボット10を移動させることで、他方の拠点にいる参加者との遠隔コミュニケーションを活性化させることができる。   Here, in the remote control system 1c according to the third embodiment, the image processing server 70 is an example of the information processing device according to the present invention. The image processing server 70 as the information processing apparatus includes a transmitting / receiving unit 71 (an example of an acquiring unit) that acquires the image data 200 acquired by the photographing device 21, a position of a plurality of persons included in the acquired image data 200 and A target point calculation unit 75 and a target point calculation unit 76 (an example of a calculation unit) that calculate a target point indicating a destination of the robot 10 (an example of a moving object) based on the orientation are provided. The robot 10 is moved. Therefore, the image processing server 70 as the information processing apparatus according to the third embodiment calculates the destination of the robot 10 based on the positions and orientations of a plurality of participants at one base, and moves the robot 10 to the calculated destination. By moving 10, the remote communication with the participant at the other base can be activated.

●まとめ●
以上説明したように、本発明の一実施形態に係る情報処理装置は、被写体を撮影して画像データ200を取得する撮影装置21を備えるロボット10(移動体の一例)の位置を調整する情報処理装置であって、撮影装置21によって取得された画像データ200を取得する取得し、画像データ200に含まれる複数の人物の位置および向きに基づいて、ロボット10の移動先を示す目標点を算出する。そして、本発明の一実施形態に係る情報処理装置は、目標点を算出することで、ロボット10を目標点へ移動させる。そのため、本発明の一実施形態に係る情報処理装置は、ロボット10を用いた円滑なコミュニケーションを実現させることができる。
● Summary ●
As described above, the information processing apparatus according to the embodiment of the present invention adjusts the position of the robot 10 (an example of a moving object) including the image capturing device 21 that captures an image of a subject and acquires the image data 200. A device that obtains image data 200 obtained by the imaging device 21 and calculates a target point indicating a destination of the robot 10 based on the positions and orientations of a plurality of persons included in the image data 200 . Then, the information processing apparatus according to one embodiment of the present invention calculates the target point, and moves the robot 10 to the target point. Therefore, the information processing device according to the embodiment of the present invention can realize smooth communication using the robot 10.

また、本発明の一実施形態に係る遠隔制御システム1aは、被写体を撮影して画像データ200を取得する撮影装置21を備えるロボット10(移動体の一例)と、ロボット10と通信ネットワーク9を介して通信可能であり、ロボット10を遠隔操作する表示端末50と、を備える。そして、ロボット10は、撮影装置21によって取得された画像データ200を取得する画像取得部36(取得手段の一例)と、取得された画像データ200に含まれる複数の人物の位置および向きに基づいて、ロボット10の移動先を示す目標点を算出する注目点算出部42および目標点算出部43(算出手段の一例)と、算出された目標点へロボット10を移動させる移動制御部37(移動制御手段の一例)と、算出された目標点において撮影装置21によって取得された画像データ200を、表示端末50へ送信する送受信部31(第1の送信手段の一例)を備える。また、表示端末50は、ロボット10から送信された画像データ200を受信する送受信部51(受信手段の一例)と、受信された画像データ200を、ディスプレイ512(表示手段の一例)に表示させる表示制御部53(表示制御手段の一例)と、を備える。そのため、遠隔制御システム1aは、ロボット10が位置する拠点と表示端末50との間における、ロボット10を用いた遠隔コミュニケーションを活性化させることができる。   Further, the remote control system 1a according to the embodiment of the present invention includes a robot 10 (an example of a moving object) including an image capturing device 21 that captures an image of a subject and acquires image data 200, and a robot 10 and a communication network 9 via the communication network 9. And a display terminal 50 that can remotely control the robot 10. Then, the robot 10 is configured based on the image acquisition unit 36 (an example of an acquisition unit) that acquires the image data 200 acquired by the imaging device 21 and the positions and orientations of a plurality of persons included in the acquired image data 200. An attention point calculation unit 42 and a target point calculation unit 43 (an example of a calculation unit) that calculate a target point indicating a destination of the robot 10, and a movement control unit 37 (movement control) that moves the robot 10 to the calculated target point. And a transmission / reception unit 31 (an example of a first transmission unit) that transmits the image data 200 acquired by the imaging device 21 at the calculated target point to the display terminal 50. The display terminal 50 also includes a transmitting / receiving unit 51 (an example of a receiving unit) that receives the image data 200 transmitted from the robot 10 and a display that displays the received image data 200 on a display 512 (an example of a displaying unit). A control unit 53 (an example of a display control unit). Therefore, the remote control system 1a can activate the remote communication using the robot 10 between the base where the robot 10 is located and the display terminal 50.

さらに、本発明の一実施形態に係る遠隔制御システム1bは、被写体を撮影して画像データ200を取得する撮影装置21を備えるロボット10(移動体の一例)と、ロボット10と通信ネットワーク9を介して通信可能であり、ロボット10を遠隔操作する表示端末50と、を備える。そして、表示端末50は、撮影装置21によって取得された画像データ200を取得する送受信部51(取得手段の一例)と、取得された画像データ200に含まれる複数の人物の位置および向きに基づいて、ロボット10の移動先を示す目標点を算出する注目点算出部62および目標点算出部63(算出手段の一例)と、算出された目標点へロボット10を移動させるための要求コマンド(要求情報の一例)を、ロボット10を送信する送受信部51(第2の送信手段の一例)と、を備える。また、ロボット10は、算出された目標点へロボット10を移動させる移動制御部37(移動制御手段の一例)と、表示端末50から送信された要求コマンドに含まれる目標点において撮影装置21によって取得された画像データ200を、表示端末50へ送信する送受信部31(第1の送信手段の一例)と、を備える。さらに、表示端末50は、ロボット10から送信された画像データ200を受信する送受信部51(受信手段の一例)と、受信された画像データ200を、ディスプレイ512(表示手段の一例)に表示させる表示制御部53(表示制御手段の一例)と、を備える。そのため、遠隔制御システム1bは、ロボット10が位置する拠点と表示端末50との間における、ロボット10を用いた遠隔コミュニケーションを活性化させることができる。   Further, the remote control system 1b according to one embodiment of the present invention includes a robot 10 (an example of a moving object) including an image capturing device 21 that captures an image of a subject and acquires image data 200, and the robot 10 and the communication network 9 via the communication network 9. And a display terminal 50 that can remotely control the robot 10. Then, the display terminal 50 is configured to transmit and receive the image data 200 acquired by the imaging device 21 based on the position and orientation of a plurality of persons included in the acquired image data 200. A target point calculating unit 62 and a target point calculating unit 63 (an example of a calculating unit) for calculating a target point indicating a destination of the robot 10, and a request command (request information) for moving the robot 10 to the calculated target point. And a transmission / reception unit 51 (an example of a second transmission unit) for transmitting the robot 10. Further, the robot 10 acquires the movement control unit 37 (an example of a movement control unit) that moves the robot 10 to the calculated target point, and acquires the target point included in the request command transmitted from the display terminal 50 by the imaging device 21. And a transmission / reception unit 31 (an example of a first transmission unit) for transmitting the image data 200 to the display terminal 50. Further, the display terminal 50 includes a transmission / reception unit 51 (an example of a receiving unit) that receives the image data 200 transmitted from the robot 10 and a display that displays the received image data 200 on a display 512 (an example of a display unit). A control unit 53 (an example of a display control unit). Therefore, the remote control system 1b can activate the remote communication using the robot 10 between the base where the robot 10 is located and the display terminal 50.

また、本発明の一実施形態に係る遠隔制御システム1cは、被写体を撮影して画像データ200を取得する撮影装置21を備えるロボット10(移動体の一例)と、ロボット10と通信ネットワーク9を介して通信可能であり、ロボット10を遠隔操作する表示端末50と、ロボット10および表示端末50のそれぞれと通信ネットワーク9を介して通信可能な画像処理サーバ70(情報処理装置の一例)と、を備える。そして、画像処理サーバ70は、撮影装置21によって取得された画像データ200を取得する送受信部71(取得手段の一例)と、取得された画像データ200に含まれる複数の人物の位置および向きに基づいて、ロボット10の移動先を示す目標点を算出する注目点算出部75および目標点算出部76(算出手段の一例)と、算出された目標点へロボット10を移動させるための要求データ(要求情報の一例)を、ロボット10を送信する送受信部71(第3の送信手段の一例)と、を備える。また、ロボット10は、算出された目標点へロボット10を移動させる移動制御部37(移動制御手段の一例)と、画像処理サーバ70から送信された要求データに含まれる目標点において撮影装置21によって取得された画像データ200を、表示端末50へ送信する送受信部31(第1の送信手段の一例)と、を備える。さらに、表示端末50は、ロボット10から送信された画像データ200を受信する送受信部51(受信手段の一例)と、受信された画像データ200を、ディスプレイ512(表示手段の一例)に表示させる表示制御部53(表示制御手段の一例)と、を備える。そのため、遠隔制御システム1cは、ロボット10が位置する拠点と表示端末50との間における、ロボット10を用いた遠隔コミュニケーションを活性化させることができる。   Further, the remote control system 1c according to one embodiment of the present invention includes a robot 10 (an example of a moving object) including an image capturing device 21 that captures an image of a subject and acquires image data 200, and the robot 10 and the robot 10 via the communication network 9. And a display terminal 50 (an example of an information processing device) that can communicate with the robot 10 and that can communicate with each of the robot 10 and the display terminal 50 via the communication network 9. . The image processing server 70 is configured to transmit and receive the image data 200 acquired by the imaging device 21 based on the position and orientation of a plurality of persons included in the acquired image data 200. The target point calculation unit 75 and the target point calculation unit 76 (an example of a calculation unit) that calculate a target point indicating the destination of the robot 10, and request data (request data) for moving the robot 10 to the calculated target point And a transmission / reception unit 71 (an example of a third transmission unit) that transmits the information (an example of information) to the robot 10. In addition, the robot 10 is controlled by the movement control unit 37 (an example of a movement control unit) that moves the robot 10 to the calculated target point, and by the photographing device 21 at the target point included in the request data transmitted from the image processing server 70. A transmission / reception unit 31 (an example of a first transmission unit) that transmits the acquired image data 200 to the display terminal 50. Further, the display terminal 50 includes a transmission / reception unit 51 (an example of a receiving unit) that receives the image data 200 transmitted from the robot 10 and a display that displays the received image data 200 on a display 512 (an example of a display unit). A control unit 53 (an example of a display control unit). Therefore, the remote control system 1c can activate remote communication using the robot 10 between the base where the robot 10 is located and the display terminal 50.

●補足●
なお、各実施形態の機能は、アセンブラ、C、C++、C#、Java(登録商標)等のレガシープログラミング言語やオブジェクト指向プログラミング言語等で記述されたコンピュータ実行可能なプログラムにより実現でき、ROM、EEPROM、EPROM(Erasable Programmable Read-Only Memory)、フラッシュメモリ、フレキシブルディスク、CD−ROM、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、ブルーレイディスク、SDカード、MO(Magneto-Optical disc)等の装置可読な記録媒体に格納して、または電気通信回線を通じて頒布することができる。
● Supplement ●
The functions of each embodiment can be realized by a computer-executable program described in a legacy programming language such as assembler, C, C ++, C #, Java (registered trademark), or an object-oriented programming language. , EPROM (Erasable Programmable Read-Only Memory), flash memory, flexible disk, CD-ROM, CD-RW, DVD-ROM, DVD-RAM, DVD-RW, Blu-ray disk, SD card, MO (Magneto-Optical disc) And the like, or can be distributed via a telecommunication line.

また、各実施形態の機能の一部または全部は、例えばFPGA(Field Programmable Gate Array)等のプログラマブル・デバイス(PD)上に実装することができ、またはASICとして実装することができ、各実施形態の機能をPD上に実現するためにPDにダウンロードする回路構成データ(ビットストリームデータ)、回路構成データを生成するためのHDL(Hardware Description Language)、VHDL(Very High Speed Integrated Circuits Hardware Description Language)、Verilog−HDL等により記述されたデータとして記録媒体により配布することができる。   Further, a part or all of the functions of each embodiment can be implemented on a programmable device (PD) such as an FPGA (Field Programmable Gate Array), or can be implemented as an ASIC. Circuit configuration data (bit stream data) to be downloaded to the PD in order to realize the function of PD on the PD, HDL (Hardware Description Language) for generating the circuit configuration data, VHDL (Very High Speed Integrated Circuits Hardware Description Language), It can be distributed on a recording medium as data described in Verilog-HDL or the like.

これまで本発明の一実施形態に係る情報処理装置、移動体、遠隔制御システム、情報処理方法およびプログラムについて説明してきたが、本発明は上述した実施形態に限定されるものではなく、他の実施形態の追加、変更または削除等、当業者が想到することができる範囲内で変更することができ、いずれの態様においても本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。   Although the information processing apparatus, the moving object, the remote control system, the information processing method, and the program according to the embodiment of the present invention have been described above, the present invention is not limited to the above-described embodiment, and other embodiments are applicable. Additions, changes, or deletions of the forms can be made within a range that can be conceived by those skilled in the art, and any aspect is within the scope of the present invention as long as the functions and effects of the present invention are exhibited. is there.

1a、1b、1c 遠隔制御システム
10 ロボット(移動体の一例)
17 移動機構
21 撮影装置
30 制御装置(情報処理装置の一例)
31 送受信部(第1の送信手段の一例)
36 画像取得部(取得手段の一例)
37 移動制御部(移動制御手段の一例)
39 位置特定部(位置検出手段の一例)
41 画像処理部
42 注目点算出部(算出手段の一例、推定手段の一例、注目点特定手段の一例)
43 目標点算出部(算出手段の一例、目標点特定手段の一例)
45 存在通知部(存在通知手段の一例)
50 表示端末(情報処理装置の一例)
51 送受信部(取得手段の一例、受信手段の一例、第2の送信手段の一例)
53 表示制御部(表示制御手段の一例)
61 画像処理部
62 注目点算出部(算出手段の一例、推定手段の一例、注目点特定手段の一例)
63 目標点算出部(算出手段の一例、目標点特定手段の一例)
70 画像処理サーバ(情報処理装置の一例)
71 送受信部(取得手段の一例、第3の送信手段の一例)
74 画像処理部
75 注目点算出部(算出手段の一例、推定手段の一例、注目点特定手段の一例)
76 目標点算出部(算出手段の一例、目標点特定手段の一例)
90 管理サーバ
1a, 1b, 1c Remote control system 10 Robot (an example of a moving object)
17 Moving mechanism 21 Imaging device 30 Control device (an example of an information processing device)
31 Transmission / Reception Unit (Example of First Transmission Means)
36 Image acquisition unit (an example of an acquisition unit)
37 Movement control unit (an example of movement control means)
39 Position specifying unit (an example of a position detecting unit)
41 Image processing unit 42 Attention point calculation unit (an example of a calculation unit, an example of an estimation unit, and an example of an attention point identification unit)
43 Target point calculating unit (an example of a calculating unit, an example of a target point specifying unit)
45 Presence notification unit (an example of a presence notification unit)
50 display terminal (an example of an information processing device)
51 Transmission / Reception Unit (Example of Acquisition Unit, Example of Reception Unit, Example of Second Transmission Unit)
53 display control unit (example of display control means)
61 Image processing unit 62 Attention point calculation unit (an example of a calculation unit, an example of an estimation unit, and an example of an attention point identification unit)
63 Target point calculating unit (an example of a calculating unit, an example of a target point specifying unit)
70 Image processing server (an example of an information processing device)
71 Transmission / Reception Unit (Example of Acquisition Unit, Example of Third Transmission Unit)
74 Image processing unit 75 Attention point calculation unit (an example of a calculation unit, an example of an estimation unit, and an example of an attention point identification unit)
76 Target point calculating unit (an example of a calculating unit, an example of a target point specifying unit)
90 Management server

特開2012−161851号公報JP 2012-161851 A

Claims (15)

被写体を撮影して画像データを取得する撮影装置を備える移動体の位置を調整する情報処理装置であって、
前記撮影装置によって取得された前記画像データを取得する取得手段と、
前記取得された画像データに含まれる複数の人物の位置および向きに基づいて、前記移動体の移動先を示す目標点を算出する算出手段と、を備え、
前記算出手段によって前記目標点を算出することで、前記移動体を前記目標点へ移動させる情報処理装置。
An information processing device that adjusts the position of a moving object including a photographing device that photographs a subject and acquires image data,
Acquisition means for acquiring the image data acquired by the imaging device,
Based on the positions and orientations of a plurality of persons included in the acquired image data, a calculating unit that calculates a target point indicating a destination of the moving body,
An information processing apparatus for moving the moving body to the target point by calculating the target point by the calculating unit.
前記算出手段は、前記複数の人物のうち少なくとも一つの人物の位置または向きが変化した場合、変化した人物の位置または向きに基づいて、前記目標点を算出する、請求項1に記載の情報処理装置。   The information processing according to claim 1, wherein when the position or orientation of at least one of the plurality of persons changes, the calculation unit calculates the target point based on the changed position or orientation of the person. apparatus. 請求項1または2に記載の情報処理装置であって、
前記算出手段は、
前記取得された画像データに含まれる複数の人物の位置および向きを推定する推定手段と、
前記推定された位置および向きに基づいて、前記複数の人物が注目する注目点を特定する注目点特定手段と、
前記特定された注目点に基づいて、前記目標点を特定する目標点特定手段と、
を有する情報処理装置。
The information processing apparatus according to claim 1 or 2,
The calculating means,
Estimating means for estimating the position and orientation of a plurality of persons included in the obtained image data,
Attention point identification means for identifying an attention point to which the plurality of persons pay attention, based on the estimated position and orientation,
Target point specifying means for specifying the target point based on the specified point of interest,
Information processing device having
前記目標点は、前記移動先の目標位置を示す位置情報を含み、
前記目標点特定手段は、
前記推定された注目点から、前記注目点と前記複数の人物との距離の平均値だけ離れた位置を、前記目標位置として特定する請求項3に記載の情報処理装置。
The target point includes position information indicating a target position of the destination,
The target point specifying means,
The information processing apparatus according to claim 3, wherein a position separated from the estimated point of interest by an average value of a distance between the point of interest and the plurality of persons is specified as the target position.
前記目標点は、前記移動先における前記移動体の向きを示す方向情報を含み、
前記目標点特定手段は、
現在の移動体の位置から見た前記推定された注目点の方向を、前記移動体の向きとして特定する、請求項3または4に記載の情報処理装置。"
The target point includes direction information indicating an orientation of the moving body at the destination,
The target point specifying means,
The information processing apparatus according to claim 3, wherein a direction of the estimated point of interest viewed from a current position of the moving object is specified as a direction of the moving object. "
請求項1乃至5のいずれか一項に記載の情報処理装置と、
前記算出された目標点へ前記移動体を移動させる移動機構と、
を備えた移動体。
An information processing apparatus according to any one of claims 1 to 5,
A moving mechanism for moving the moving body to the calculated target point,
Mobile body equipped with.
請求項6に記載の移動体であって、更に、
前記移動体の現在位置を検出する位置検出手段と、
前記検出された現在位置と前記算出された目標点との距離が閾値以下または閾値より小さい場合、前記移動体の存在を通知する通知情報を出力する存在通知手段と、
を備える移動体。
The mobile object according to claim 6, further comprising:
Position detecting means for detecting a current position of the moving body,
When the distance between the detected current position and the calculated target point is equal to or less than a threshold, or is smaller than the threshold, presence notification means for outputting notification information for notifying the presence of the moving object,
A moving body comprising:
前記通知情報は、音信号であり、
前記存在通知手段は、検出された現在位置と前記算出された目標点との距離が閾値以上または閾値より長い場合、前記音信号を出力する、請求項7に記載の移動体。
The notification information is a sound signal,
The moving body according to claim 7, wherein the presence notification unit outputs the sound signal when a distance between the detected current position and the calculated target point is equal to or larger than a threshold or longer than the threshold.
被写体を撮影して画像データを取得する撮影装置を備える移動体と、前記移動体と通信ネットワークを介して通信可能であり、前記移動体を遠隔操作する表示端末と、を備える遠隔制御システムであって、
前記撮影装置によって取得された前記画像データを取得する取得手段と、
前記取得された画像データに含まれる複数の人物の位置および向きに基づいて、前記移動体の移動先を示す目標点を算出する算出手段と、
前記算出された目標点へ前記移動体を移動させる移動制御手段と、
を備える遠隔制御システム。
A remote control system comprising: a moving body including a photographing device for photographing a subject to acquire image data; and a display terminal capable of communicating with the moving body via a communication network and remotely controlling the moving body. hand,
Acquisition means for acquiring the image data acquired by the imaging device,
Calculating means for calculating a target point indicating a destination of the moving body, based on the positions and orientations of the plurality of persons included in the obtained image data,
Movement control means for moving the moving body to the calculated target point,
Remote control system comprising:
請求項9に記載の遠隔制御システムであって、
前記移動体は、
前記算出された目標点において前記撮影装置によって取得された画像データを、前記表示端末へ送信する第1の送信手段を備え、
前記表示端末は、
前記第1の送信手段によって送信された前記画像データを受信する受信手段と、
前記受信された画像データを、表示手段に表示させる表示制御手段と、を備える遠隔制御システム。
The remote control system according to claim 9,
The moving object is
Image data acquired by the imaging device at the calculated target point, the first transmission means for transmitting to the display terminal,
The display terminal,
Receiving means for receiving the image data transmitted by the first transmitting means;
A display control means for displaying the received image data on a display means.
請求項9に記載の遠隔制御システムであって、
前記表示端末は、
前記算出された目標点へ前記移動体を移動させるための要求情報を、前記移動体へ送信する第2の送信手段を備え、
前記移動体は、
前記第2の送信手段によって送信された前記要求情報に含まれる前記目標点において前記撮影装置によって取得された画像データを、前記表示端末へ送信する第1の送信手段を備え、
前記表示端末は、更に、
前記第1の送信手段によって送信された前記画像データを受信する受信手段と、
前記受信された画像データを、表示手段に表示させる表示制御手段と、を備える遠隔制御システム。
The remote control system according to claim 9,
The display terminal,
Requesting information for moving the moving body to the calculated target point, the second transmitting means for transmitting to the moving body,
The moving object is
First transmission means for transmitting image data acquired by the imaging device at the target point included in the request information transmitted by the second transmission means to the display terminal,
The display terminal further comprises:
Receiving means for receiving the image data transmitted by the first transmitting means;
A display control means for displaying the received image data on a display means.
請求項9に記載の遠隔制御システムであって、更に、
前記移動体および前記表示端末のそれぞれと前記通信ネットワークを介して通信可能な情報処理装置を備え、
前記情報処理装置は、
前記算出された目標点へ前記移動体を移動させるための要求情報を、前記移動体へ送信する第3の送信手段を備え、
前記移動体は、
前記第3の送信手段によって送信された前記要求情報に含まれる前記目標点において前記撮影装置によって取得された画像データを、前記表示端末へ送信する第1の送信手段を備え、
前記表示端末は、
前記第1の送信手段によって送信された前記画像データを受信する受信手段と、
前記受信された画像データを、表示手段に表示させる表示制御手段と、を備える遠隔制御システム。
The remote control system according to claim 9, further comprising:
An information processing device capable of communicating with each of the moving object and the display terminal via the communication network,
The information processing device,
A third transmission unit that transmits request information for moving the moving body to the calculated target point to the moving body,
The moving object is
A first transmission unit for transmitting image data acquired by the imaging device at the target point included in the request information transmitted by the third transmission unit to the display terminal;
The display terminal,
Receiving means for receiving the image data transmitted by the first transmitting means;
A display control means for displaying the received image data on a display means.
被写体を撮影して画像データを取得する撮影装置を備える移動体の位置を調整する情報処理装置が実行する情報処理方法であって、
前記撮影装置によって取得された前記画像データを取得する取得ステップと、
前記取得された画像データに含まれる複数の人物の位置および向きに基づいて、前記移動体の移動先を示す目標点を算出する算出ステップと、を実行し、
前記算出ステップによって前記目標点を算出することで、前記移動体を前記目標点へ移動させる情報処理方法。
An information processing method executed by an information processing apparatus that adjusts a position of a moving object including an imaging device that captures an image of a subject and obtains image data,
An acquisition step of acquiring the image data acquired by the imaging device;
Based on the positions and orientations of the plurality of persons included in the obtained image data, a calculating step of calculating a target point indicating a destination of the moving body,
An information processing method for moving the moving body to the target point by calculating the target point in the calculating step.
コンピュータに、請求項13に記載の方法を実行させるプログラム。   A program for causing a computer to execute the method according to claim 13. 被写体を撮影して画像データを取得する撮影装置を備える伝送端末の向きを調整する情報処理装置であって、
前記撮影装置によって取得された前記画像データを取得する取得手段と、
前記取得された画像データに含まれる複数の人物の位置および向きに基づいて、前記伝送端末の変更先の向きを算出する算出手段と、を備え、
前記算出手段によって前記変更先の向きを算出することで、前記伝送端末の向きを前記変更先の向きに変更させる情報処理装置。
An information processing device that adjusts the direction of a transmission terminal including a photographing device that photographs a subject and acquires image data,
Acquisition means for acquiring the image data acquired by the imaging device,
Based on the positions and orientations of a plurality of persons included in the obtained image data, and a calculating unit that calculates the direction of the destination of the transmission terminal,
An information processing apparatus for changing the direction of the transmission terminal to the direction of the change destination by calculating the direction of the change destination by the calculating means.
JP2018123662A 2018-06-28 2018-06-28 Information processing equipment, mobiles, remote control systems, information processing methods and programs Active JP7091880B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018123662A JP7091880B2 (en) 2018-06-28 2018-06-28 Information processing equipment, mobiles, remote control systems, information processing methods and programs
JP2022096746A JP7400882B2 (en) 2018-06-28 2022-06-15 Information processing device, mobile object, remote control system, information processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018123662A JP7091880B2 (en) 2018-06-28 2018-06-28 Information processing equipment, mobiles, remote control systems, information processing methods and programs

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022096746A Division JP7400882B2 (en) 2018-06-28 2022-06-15 Information processing device, mobile object, remote control system, information processing method and program

Publications (2)

Publication Number Publication Date
JP2020005147A true JP2020005147A (en) 2020-01-09
JP7091880B2 JP7091880B2 (en) 2022-06-28

Family

ID=69100641

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018123662A Active JP7091880B2 (en) 2018-06-28 2018-06-28 Information processing equipment, mobiles, remote control systems, information processing methods and programs
JP2022096746A Active JP7400882B2 (en) 2018-06-28 2022-06-15 Information processing device, mobile object, remote control system, information processing method and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022096746A Active JP7400882B2 (en) 2018-06-28 2022-06-15 Information processing device, mobile object, remote control system, information processing method and program

Country Status (1)

Country Link
JP (2) JP7091880B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114714321A (en) * 2022-04-06 2022-07-08 深圳市普渡科技有限公司 Robot and distribution method, control device and storage medium thereof
JP2022141639A (en) * 2018-06-28 2022-09-29 株式会社リコー Information processing apparatus, movable body, remote control system, information processing method, and program
CN116088580A (en) * 2023-02-15 2023-05-09 北京拙河科技有限公司 Flying object tracking method and device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008005208A (en) * 2006-06-22 2008-01-10 Nec Corp Camera automatic control system for athletics, camera automatic control method, camera automatic control unit, and program
JP2012076162A (en) * 2010-09-30 2012-04-19 Waseda Univ Conversation robot
JP2017188715A (en) * 2016-04-01 2017-10-12 富士通フロンテック株式会社 Video display system and video display method
JP2018085579A (en) * 2016-11-21 2018-05-31 シャープ株式会社 Imaging apparatus, control method, and information processing program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5219535B2 (en) 2008-02-07 2013-06-26 国立大学法人埼玉大学 Autonomous mobile wheelchair
JP7091880B2 (en) * 2018-06-28 2022-06-28 株式会社リコー Information processing equipment, mobiles, remote control systems, information processing methods and programs

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008005208A (en) * 2006-06-22 2008-01-10 Nec Corp Camera automatic control system for athletics, camera automatic control method, camera automatic control unit, and program
JP2012076162A (en) * 2010-09-30 2012-04-19 Waseda Univ Conversation robot
JP2017188715A (en) * 2016-04-01 2017-10-12 富士通フロンテック株式会社 Video display system and video display method
JP2018085579A (en) * 2016-11-21 2018-05-31 シャープ株式会社 Imaging apparatus, control method, and information processing program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022141639A (en) * 2018-06-28 2022-09-29 株式会社リコー Information processing apparatus, movable body, remote control system, information processing method, and program
CN114714321A (en) * 2022-04-06 2022-07-08 深圳市普渡科技有限公司 Robot and distribution method, control device and storage medium thereof
CN116088580A (en) * 2023-02-15 2023-05-09 北京拙河科技有限公司 Flying object tracking method and device
CN116088580B (en) * 2023-02-15 2023-11-07 北京拙河科技有限公司 Flying object tracking method and device

Also Published As

Publication number Publication date
JP7091880B2 (en) 2022-06-28
JP2022141639A (en) 2022-09-29
JP7400882B2 (en) 2023-12-19

Similar Documents

Publication Publication Date Title
JP7098001B2 (en) Distance information display method in a virtual scene and its terminal computer device and computer program
JP7400882B2 (en) Information processing device, mobile object, remote control system, information processing method and program
KR20200087260A (en) Method for indicating marker point location, electronic device, and computer readable storage medium
US10110830B2 (en) Multiple streaming camera navigation interface system
KR20180112599A (en) Mobile terminal and method for controlling the same
JP2020005146A (en) Output control device, display terminal, information processing apparatus, movable body, remote control system, output control method, program, and photographing control device
CN107113354A (en) Communication system including headset equipment
CN111246095B (en) Method, device and equipment for controlling lens movement and storage medium
KR20180023310A (en) Mobile terminal and method for controlling the same
JP2021520540A (en) Camera positioning methods and devices, terminals and computer programs
KR20150131815A (en) Mobile terminal and controlling method thereof
CN111050189A (en) Live broadcast method, apparatus, device, storage medium, and program product
JP7346830B2 (en) Communication terminals, programs, display methods, recording media, systems
CN110275655B (en) Lyric display method, device, equipment and storage medium
KR20170011194A (en) Mobile terminal and method for controlling the same
CN109806583B (en) User interface display method, device, equipment and system
CN110286839B (en) Message sending method, device, terminal and storage medium
CN111383243B (en) Method, device, equipment and storage medium for tracking target object
EP4113517A1 (en) Method and apparatus for processing videos
JP2023121636A (en) Information processing system, communication system, image sharing method, and program
CN112870712A (en) Method and device for displaying picture in virtual scene, computer equipment and storage medium
US20230308705A1 (en) Communication terminal, communication management system, remote operation method, processing method, and communication management method
US11413520B2 (en) Method and system for a personal interaction game platform
CN113225518B (en) Processing method, device, terminal and storage medium for conference recording file
JP2023140160A (en) Communication terminal, communication management system, remote-controlled moving device, communication system, remote control method, communication management method, control method, communication method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220530

R151 Written notification of patent or utility model registration

Ref document number: 7091880

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151