JP2022141639A - Information processing apparatus, movable body, remote control system, information processing method, and program - Google Patents

Information processing apparatus, movable body, remote control system, information processing method, and program Download PDF

Info

Publication number
JP2022141639A
JP2022141639A JP2022096746A JP2022096746A JP2022141639A JP 2022141639 A JP2022141639 A JP 2022141639A JP 2022096746 A JP2022096746 A JP 2022096746A JP 2022096746 A JP2022096746 A JP 2022096746A JP 2022141639 A JP2022141639 A JP 2022141639A
Authority
JP
Japan
Prior art keywords
robot
target point
unit
image data
display terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022096746A
Other languages
Japanese (ja)
Other versions
JP7400882B2 (en
Inventor
篤 伊藤
Atsushi Ito
哲也 余平
Tetsuya Yohira
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2022096746A priority Critical patent/JP7400882B2/en
Publication of JP2022141639A publication Critical patent/JP2022141639A/en
Application granted granted Critical
Publication of JP7400882B2 publication Critical patent/JP7400882B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To make it possible to achieve smooth communication using a movable body.
SOLUTION: An information processing apparatus according to one embodiment of the present invention is an information processing apparatus that adjusts the position of a robot 10 including a photographing device 21 that photographs a subject to acquire image data 200, acquires the image data 200 acquired by the photographing device 21, and calculates a target point indicating a movement destination of the robot 10 on the basis of the positions and directions of a plurality of people included in the image data 200. The information processing apparatus according to one embodiment of the present invention calculates the target point to move the robot 10 to the target point.
SELECTED DRAWING: Figure 19
COPYRIGHT: (C)2022,JPO&INPIT

Description

本発明は、情報処理装置、移動体、遠隔制御システム、情報処理方法およびプログラムに関する。 The present invention relates to an information processing device, a mobile object, a remote control system, an information processing method, and a program.

遠隔拠点に位置するテレプレゼンス・ロボット(以下、ロボットと称する)を、通信ネットワークを経由して他拠点に位置する表示端末を用いて遠隔操作する遠隔制御システムが知られている。この遠隔制御システムは、ロボットに備えられた撮影装置によって撮影された画像を、表示端末に表示させることで、ロボットが位置する拠点の情報を遠隔地から確認することができる。 A remote control system is known that remotely controls a telepresence robot (hereinafter referred to as a robot) located at a remote site using a display terminal located at another site via a communication network. This remote control system allows the user to remotely confirm information about the base where the robot is located by displaying on the display terminal an image captured by an imaging device provided on the robot.

また、ロボットを用いてコミュニケーションを活性化させる方法も知られている。特許文献1には、人とロボットの配置情報(位置、体の向きおよび視線方向)を検出し、検出された配置情報に基づいて、ロボットの動作を制御する技術が開示されている。 A method of activating communication using a robot is also known. Patent Literature 1 discloses a technique for detecting arrangement information (position, body orientation, and line-of-sight direction) of a person and a robot, and controlling the motion of the robot based on the detected arrangement information.

しかしながら、従来の方法では、遠隔地からロボット(例えば、移動体)を用いて複数の人とコミュニケーションを行う場合、複数の人の位置関係に基づく適切な位置に移動体を移動させることができないため、移動体を用いた円滑なコミュニケーションの妨げとなるという課題があった。 However, in the conventional method, when a robot (for example, a mobile body) is used to communicate with a plurality of people from a remote location, the mobile body cannot be moved to an appropriate position based on the positional relationship of the people. , there is a problem that it interferes with smooth communication using a moving body.

請求項1に係る情報処理装置は、被写体を撮影して画像データを取得する撮影装置を備える移動体の位置を調整する情報処理装置であって、前記撮影装置によって取得された前記画像データを取得する取得手段と、前記取得された画像データに含まれる複数の人物の位置および向きに基づいて、前記移動体の移動先を示す目標点を算出する算出手段と、を備え、前記算出手段によって前記目標点を算出することで、前記移動体を前記目標点へ移動させる。 An information processing apparatus according to claim 1 is an information processing apparatus that adjusts the position of a moving object, the image data obtained by the photographing apparatus being provided with a photographing apparatus that photographs a subject and obtains image data. and a calculation means for calculating a target point indicating a destination of the moving body based on the positions and orientations of the plurality of persons included in the acquired image data, wherein the calculation means uses the By calculating the target point, the moving body is moved to the target point.

本発明によれば、移動体を用いた円滑なコミュニケーションを実現することができる。 According to the present invention, it is possible to realize smooth communication using a mobile body.

実施形態に係る遠隔制御システムのシステム構成の一例を示す図である。It is a figure which shows an example of the system configuration|structure of the remote control system which concerns on embodiment. 実施形態に係るロボットの構成の概略の一例を示す図である。It is a figure showing an example of an outline of composition of a robot concerning an embodiment. 実施形態の変形例1に係るロボットの構成の概略を示す図である。It is a figure which shows the outline of a structure of the robot based on the modification 1 of embodiment. 実施形態の変形例2に係るロボットの構成の概略を示す図である。It is a figure which shows the outline of a structure of the robot based on the modification 2 of embodiment. 実施形態に係るロボットのハードウエア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of the robot which concerns on embodiment. 実施形態に係る表示端末のハードウエア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of the display terminal which concerns on embodiment. 実施形態に係る管理サーバのハードウエア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of the management server which concerns on embodiment. 第1の実施形態に係る遠隔制御システムの機能構成の一例を示す図である。It is a figure showing an example of functional composition of a remote control system concerning a 1st embodiment. 第1の実施形態に係るコマンドテーブルの一例を示す図である。It is a figure which shows an example of the command table which concerns on 1st Embodiment. 第1の実施形態に係る条件テーブルの一例を示す図である。It is a figure which shows an example of the condition table which concerns on 1st Embodiment. 第1の実施形態に係るユーザコマンドテーブルの一例を示す図である。4 is a diagram showing an example of a user command table according to the first embodiment; FIG. (a)は認証管理DBの一例を示す概念図、(b)は端末管理DBの一例を示す概念図である。(a) is a conceptual diagram which shows an example of authentication management DB, (b) is a conceptual diagram which shows an example of terminal management DB. (a)は宛先リスト管理DBの一例を示す概念図、(b)はセッション管理DBの一例を示す概念図である。3A is a conceptual diagram showing an example of a destination list management DB, and FIG. 3B is a conceptual diagram showing an example of a session management DB; FIG. ロボットと表示端末との間でデータの送受信を開始する準備段階の処理の一例を示すシーケンス図である。FIG. 10 is a sequence diagram showing an example of preparatory processing for starting transmission and reception of data between the robot and the display terminal; 第1の実施形態に係る表示端末に表示される宛先リスト画面の一例を示す図である。FIG. 5 is a diagram showing an example of a destination list screen displayed on the display terminal according to the first embodiment; FIG. 宛先候補の選択からデータの送受信を開始するまでの処理の一例を示すシーケンス図である。FIG. 11 is a sequence diagram showing an example of processing from selection of a destination candidate to initiation of data transmission/reception; 第1の実施形態に係る遠隔制御システムにおいて、表示端末からの要求コマンドに基づくロボットの制御処理の一例を説明するためのフローチャートである。4 is a flowchart for explaining an example of robot control processing based on a request command from a display terminal in the remote control system according to the first embodiment; (a)は第1の実施形態に係るロボットに表示される表示画面の画面例、(b)は第1の実施形態に係る表示端末に表示される表示画面の画面例を示す図である。3A is a diagram showing an example of a display screen displayed on the robot according to the first embodiment, and FIG. 3B is a diagram showing an example of a display screen displayed on the display terminal according to the first embodiment; FIG. 第1の実施形態に係るロボットにおける目標点算出処理の一例を説明するためのフローチャートである。4 is a flowchart for explaining an example of target point calculation processing in the robot according to the first embodiment; (a)は、画像処理部によって抽出された人物の頭の画像を概略的に示した処理データ、(b)は、注目点算出部によって算出された人物の頭の画像(a1~a4)の位置および大きさの値である。(a) is processed data schematically showing an image of a person's head extracted by the image processing unit; Position and magnitude values. (a)は、注目点算出部によって特定された相対位置を示す座標情報、(b)は、注目点算出部によって特定された人物の相対位置を概略的に示した処理データである。(a) is coordinate information indicating the relative position specified by the attention point calculation unit, and (b) is processed data schematically indicating the relative position of the person specified by the attention point calculation unit. (a)は、画像処理部によって抽出された人物の目と鼻の画像を概略的に示した処理データ、(b)は、注目点算出部によって特定された人物の向きである(a) is processed data schematically showing an image of a person's eyes and nose extracted by the image processing unit, and (b) is the orientation of the person specified by the attention point calculation unit. (a)は、注目点算出部によって特定された相対位置および向きの情報、(b)注目点算出部によって特定された人物の相対位置と向きを概略的に示した処理データである。(a) is information about the relative position and orientation specified by the attention point calculation unit, and (b) processed data schematically showing the relative position and orientation of the person specified by the attention point calculation unit. (a)は、ビーコンが拠点内に設置された場合における、ロボット10の周囲に位置する人の位置および向きを推定する処理の一例を説明するための図である。(b)は、(a)に示した方法によって特定された、人物(h1~h4)の相対位置および向きの情報である。(a) is a diagram for explaining an example of processing for estimating the position and orientation of a person positioned around the robot 10 when a beacon is installed in a base. (b) is information on the relative positions and orientations of the persons (h1 to h4) identified by the method shown in (a). 注目点算出部によって特定された人物(h1~h4)の相対位置から、注目点算出部によって特定された人物の向きの方向に伸ばした直線の交点を算出した算出結果である。It is the calculation result of calculating the intersection of straight lines extending in the direction of the direction of the person specified by the attention point calculation unit from the relative positions of the persons (h1 to h4) specified by the attention point calculation unit. (a)は、注目点算出部の処理によってまとめられた交点の位置を示す座標情報、(b)は、注目点算出部の処理によってまとめられた交点の位置を概略的に示した処理データである。(a) is coordinate information indicating the position of the intersection point compiled by the processing of the target point calculation unit, and (b) is processed data schematically showing the position of the intersection point compiled by the processing of the target point calculation unit. be. (a)は、目標点算出部によって特定された目標点の情報、(b)は、目標点算出部によって特定された目標点の位置を概略的に示した処理データである。(a) is information on the target point specified by the target point calculation unit, and (b) is processed data schematically showing the position of the target point specified by the target point calculation unit. 第1の実施形態に係るロボットにおける移動処理の一例を説明するためのフローチャートである。4 is a flowchart for explaining an example of movement processing in the robot according to the first embodiment; 第1の実施形態に係るロボットにおける存在通知処理の一例を説明するためのフローチャートである。7 is a flowchart for explaining an example of presence notification processing in the robot according to the first embodiment; (a)(b)第1の実施形態に係るロボットの移動経路の一例を説明するための図である。3A and 3B are diagrams for explaining an example of a moving route of the robot according to the first embodiment; FIG. (a)(b)(c)第1の実施形態に係るロボットにおいて目標点算出処理を開始するまでの処理の一例を説明するためのフローチャートである。4(a), 4(b), and 4(c) are flowcharts for explaining an example of processing up to the start of target point calculation processing in the robot according to the first embodiment; 第2の実施形態に係る遠隔制御システムの機能構成の一例を示す図である。It is a figure showing an example of functional composition of a remote control system concerning a 2nd embodiment. 第2の実施形態に係る遠隔制御システムにおけるロボットの制御処理の一例を説明するためのシーケンス図である。FIG. 11 is a sequence diagram for explaining an example of robot control processing in a remote control system according to a second embodiment; 第3の実施形態に係る遠隔制御システムのシステム構成の一例を示す図である。It is a figure which shows an example of the system configuration|structure of the remote control system which concerns on 3rd Embodiment. 第3の実施形態に係る遠隔制御システムの機能構成の一例を示す図である。It is a figure showing an example of functional composition of a remote control system concerning a 3rd embodiment. 第3の実施形態に係る遠隔制御システムにおけるロボットの制御処理の一例を説明するためのシーケンス図である。FIG. 12 is a sequence diagram for explaining an example of robot control processing in a remote control system according to a third embodiment;

以下、図面を参照しながら、発明を実施するための形態を説明する。なお、図面の説明において同一要素には同一符号を付し、重複する説明は省略する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments for carrying out the invention will be described with reference to the drawings. In the description of the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted.

●実施形態●
●システム構成
図1は、実施形態に係る遠隔制御システムのシステム構成の一例を示す図である。図1に示す遠隔制御システムは、表示端末50を用いて、遠隔拠点に位置するロボット10を遠隔操作することによって、拠点内の装置の管理や保守作業等、または拠点内に位置する人の位置や動線の確認等を行うことができるシステムである。また、遠隔制御システム1aは、ロボット10側の拠点で撮影された画像(映像)と表示端末50側の拠点で撮影された画像(映像)とを双方向に送受信することによって、遠隔会議を実現することができるシステムである。
●Embodiment●
●System Configuration FIG. 1 is a diagram showing an example of a system configuration of a remote control system according to an embodiment. The remote control system shown in FIG. 1 uses a display terminal 50 to remotely operate a robot 10 located at a remote site, thereby performing management and maintenance work of devices in the site, or controlling the position of a person located in the site. It is a system that can check the line of flow, etc. Further, the remote control system 1a realizes a teleconference by bidirectionally transmitting and receiving an image (video) taken at the base of the robot 10 and an image (video) taken at the base of the display terminal 50. It is a system that can

遠隔制御システム1aは、複数の拠点(拠点A,拠点B、拠点C)のそれぞれに位置するロボット10(10A、10B、10C、以下、区別する必要のないときは、ロボット10とする。)、表示端末50および管理サーバ90によって構成される。ロボット10、表示端末50および管理サーバ90は、通信ネットワーク9を介して通信可能に接続されている。通信ネットワーク9は、例えば、LAN(Local Area Network)、専用線およびインターネット等によって構築される。通信ネットワーク9は、有線だけでなく、Wi-Fi(登録商標)等の無線による通信が行われる箇所があってもよい。 The remote control system 1a includes robots 10 (10A, 10B, 10C, hereinafter referred to as robots 10 when there is no need to distinguish them) located at each of a plurality of bases (base A, base B, base C), It is composed of a display terminal 50 and a management server 90 . The robot 10 , the display terminal 50 and the management server 90 are communicably connected via the communication network 9 . The communication network 9 is constructed by, for example, a LAN (Local Area Network), a dedicated line, the Internet, or the like. The communication network 9 may include not only wired but also wireless communication such as Wi-Fi (registered trademark).

ロボット10は、各拠点(拠点A,拠点B、拠点C)に設置され、表示端末50からの遠隔操作によって自律走行する移動体である。ロボット10は、後述する撮影装置21によってロボット10の周囲の被写体を撮像しながら拠点内を移動し、撮影装置21によって取得された画像を表示端末50へ送信することで、表示端末50を用いてロボット10を操作する操作者に、拠点内の情報(画像)を提供する。ロボット10は、移動体の一例である。 The robot 10 is a mobile body that is installed at each site (site A, site B, and site C) and runs autonomously by remote control from the display terminal 50 . The robot 10 moves within the site while capturing an image of a subject around the robot 10 with the image capturing device 21 described later, and transmits the image acquired by the image capturing device 21 to the display terminal 50 . An operator who operates the robot 10 is provided with information (image) in the base. The robot 10 is an example of a mobile object.

表示端末50は、各拠点(拠点A,拠点B、拠点C)に設置されたロボット10の遠隔操作を行うPC(Personal Computer)等の端末装置である。表示端末50は、ロボット10から送信されてきた画像を表示する。操作者は、表示端末50に表示された画像を見ながら、ロボット10の遠隔操作を行うことができる。 The display terminal 50 is a terminal device such as a PC (Personal Computer) that remotely controls the robots 10 installed at each site (site A, site B, site C). The display terminal 50 displays the image transmitted from the robot 10 . The operator can remotely operate the robot 10 while viewing the image displayed on the display terminal 50 .

なお、表示端末50は、ロボット10から送信されてきた画像を表示する表示手段を備えたものであればよく、例えば、タブレット端末、携帯電話、スマートフォン、ヘッドマウウントディスプレイ(HMD)等のウェアラブル端末、広角スクリーン(円筒、全天球、半天球スクリーン等)を備えた通信端末、PDA(Personal Digital Assistant)等であってもよい。 Note that the display terminal 50 may be any device that has display means for displaying an image transmitted from the robot 10. For example, the display terminal 50 may be a wearable terminal such as a tablet terminal, a mobile phone, a smart phone, or a head mounted display (HMD). , a communication terminal equipped with a wide-angle screen (cylindrical, omnidirectional, half-spherical screen, etc.), PDA (Personal Digital Assistant), or the like.

管理サーバ90は、各拠点に位置するロボット10と表示端末50との間の通信を管理するためのサーバコンピュータである。管理サーバ90は、通信ネットワーク9を介してロボット10および表示端末50と接続される。なお、管理サーバ90は、複数台のサーバコンピュータにより構成されてもよく、どのサーバコンピュータに機能を備えさせてもよい。 The management server 90 is a server computer for managing communication between the robot 10 and the display terminal 50 located at each site. Management server 90 is connected to robot 10 and display terminal 50 via communication network 9 . Note that the management server 90 may be composed of a plurality of server computers, and any server computer may be provided with the function.

ロボット10が設置される拠点は、例えば、オフィス、倉庫、工場、学校等である。表示端末50を用いてロボット10を操作する操作者は、ロボット10から送信された拠点内の画像を確認することによって、拠点内の人の位置や動線の確認、拠点内に設置された装置の管理や保守等を行うことができる。また、ロボット10と表示端末50は、双方によって撮影された画像を送受信することで双方向のコミュニケーション(遠隔会議)を行うこともできる。 The site where the robot 10 is installed is, for example, an office, a warehouse, a factory, a school, or the like. An operator who operates the robot 10 using the display terminal 50 confirms the image of the inside of the base transmitted from the robot 10, thereby confirming the positions and flow lines of people in the base, and checking the devices installed in the base. management, maintenance, etc. Further, the robot 10 and the display terminal 50 can also perform two-way communication (remote conference) by transmitting and receiving images captured by both.

なお、図1において、各拠点内に一台のロボット10が設置されている構成を説明したが、ロボット10は、一つの拠点に複数台設置されていてもよい。また、表示端末50は、複数の拠点に配置されたロボット10のそれぞれと通信する構成であってもよいし、一つの拠点に配置されたロボット10のみと通信する構成であってもよい。 In addition, in FIG. 1, although the configuration in which one robot 10 is installed in each base has been described, a plurality of robots 10 may be installed in one base. Further, the display terminal 50 may be configured to communicate with each of the robots 10 placed at a plurality of sites, or may be configured to communicate only with the robot 10 placed at one site.

●ロボット10の構成
ここで、図2乃至図4を用いて、図1で示したロボット10の具体的な構成を説明する。図2は、実施形態に係るロボットの構成の概略の一例を示す図である。
Configuration of Robot 10 Here, a specific configuration of the robot 10 shown in FIG. 1 will be described with reference to FIGS. 2 to 4. FIG. FIG. 2 is a diagram illustrating an example of a schematic configuration of the robot according to the embodiment;

図2に示すロボット10は、ロボット10を移動させる移動機構17、ロボットの処理または動作を制御する制御装置30を備えた筐体15、表示端末50から送信された画像を表示させるディスプレイ306a、ディスプレイ306aを支持する支持部材13、支持部材13を回転させる回転軸12、ロボット10の周囲の被写体を撮影する撮影装置21、ロボット周囲の音を集音するためのマイク308aおよびスピーカ308bを備える。 The robot 10 shown in FIG. 2 includes a movement mechanism 17 for moving the robot 10, a housing 15 having a control device 30 for controlling processing or operation of the robot, a display 306a for displaying an image transmitted from the display terminal 50, a display 306a, a rotating shaft 12 for rotating the supporting member 13, a photographing device 21 for photographing a subject around the robot 10, a microphone 308a for collecting sounds around the robot, and a speaker 308b.

移動機構17は、ロボット10を移動させるユニットであり、車輪、走行モータ、走行エンコーダ、ステアリングモータ、ステアリングエンコーダ等で構成される。ロボット10の移動制御については、既存の技術であるため、詳細な説明は省略するが、ロボット10は、操作者(表示端末50)からの走行指示を受信し、移動機構17は、受信した走行指示に基づいてロボット10を移動させる。 The moving mechanism 17 is a unit that moves the robot 10, and includes wheels, a traveling motor, a traveling encoder, a steering motor, a steering encoder, and the like. Since the movement control of the robot 10 is an existing technology, a detailed description will be omitted. The robot 10 is moved based on the instruction.

以下、移動機構17は、2つの車輪によって構成される例を説明するが、移動機構17は、二足歩行の足型や単輪のものであってもよい。また、ロボット10の形状は、図2に示すような車両型に限られず、例えば、二足歩行の人型、生物を模写した形態、特定のキャラクターを模写した形態等であってもよい。 An example in which the moving mechanism 17 is composed of two wheels will be described below, but the moving mechanism 17 may have a bipedal foot type or a single wheel. Moreover, the shape of the robot 10 is not limited to the vehicle type shown in FIG.

筐体15は、ロボット10の胴体部分に位置し、ロボット10の全体に必要な電源を供給する電源供給ユニットおよびロボット10の処理もしくは動作を制御する制御装置30等が内蔵されている。 The housing 15 is located in the body portion of the robot 10, and incorporates a power supply unit that supplies necessary power to the entire robot 10, a control device 30 that controls the processing or operation of the robot 10, and the like.

撮影装置21は、ロボット10の正面に配置され、ロボット10の周囲の被写体を撮影して画像データ200を取得するためのカメラである。撮影装置21は、ロボット10の周囲の一部を撮影して平面画像を取得する撮影装置であってもよいし、ロボット10の周囲を撮影して全天球(360°)パノラマ画像を取得する特殊撮影装置であってもよい。また、画像データ200の画像は、動画であっても静止画であってもよく、動画と静止画の両方であってもよい。さらに、画像データ200の画像は、画像とともに音データを含んだ映像であってもよい。 The photographing device 21 is a camera arranged in front of the robot 10 for photographing a subject around the robot 10 and obtaining image data 200 . The imaging device 21 may be an imaging device that captures a part of the surroundings of the robot 10 to acquire a planar image, or captures the surroundings of the robot 10 to acquire an omnidirectional (360°) panoramic image. It may be a special photographing device. Also, the image of the image data 200 may be a moving image, a still image, or both a moving image and a still image. Furthermore, the image of the image data 200 may be a video containing sound data together with the image.

支持部材13は、筐体15に固定され、ディスプレイ306aを支持している。支持部材13は、回転軸12によって回転することで、ディスプレイ306aの向きを変更する。支持部材13は、筐体15に固定されたポール等であってもよいし、筐体15に固定された台座であってもよい。また、ディスプレイ306aは、例えば、遠隔会議を行う相手先の表示端末50で撮影されて取得された画像が表示される。 The support member 13 is fixed to the housing 15 and supports the display 306a. The support member 13 is rotated by the rotating shaft 12 to change the orientation of the display 306a. The support member 13 may be a pole or the like fixed to the housing 15 or a pedestal fixed to the housing 15 . Further, the display 306a displays, for example, an image captured by the display terminal 50 of the remote conference partner.

なお、ロボット10は、上記構成のほかに、ロボット10の移動以外の付加的動作を可能とする操作手段が設置される構成であってもよい。操作手段は、例えば、物をつかむハンド等である。 In addition to the configuration described above, the robot 10 may also have a configuration in which operation means for enabling additional actions other than the movement of the robot 10 are installed. The operating means is, for example, a hand or the like for grasping an object.

〇ロボット10の構成の変形例〇
〇変形例1
ここで、図3を用いて、ロボット10の構成の変形例1について説明する。図3に示すロボット10aは、ディスプレイ306aを、支持部材13を変えて可動アーム11上に配置している。可動アーム11は、ディスプレイ306aを特定の方向へ向けるために変形可能な可動部材である。これにより、ロボット10aは、回転軸12によってディスプレイ306aの向きを変えるほか、可動アーム11を変形させることによって、ディスプレイ306aの向きを変更することができる。
〇Modified example of configuration of robot 10 〇〇Modified example 1
Modification 1 of the configuration of the robot 10 will now be described with reference to FIG. In the robot 10a shown in FIG. 3, the display 306a is arranged on the movable arm 11 by changing the support member 13. As shown in FIG. Movable arm 11 is a movable member that can be deformed to orient display 306a in a specific direction. As a result, the robot 10a can change the orientation of the display 306a by changing the orientation of the display 306a using the rotating shaft 12 and by deforming the movable arm 11. FIG.

〇変形例2
次に、図4を用いて、ロボット10の構成の変形例2について説明する。図4に示すロボット10bは、図2に示した構成から移動機構17を取り除いた構成である。図4に示すロボット10bは、机の上等に置いて固定して利用される。ロボット10bは、伝送端末の一例である。
Modification 2
Next, a modified example 2 of the configuration of the robot 10 will be described with reference to FIG. A robot 10b shown in FIG. 4 has a configuration in which the movement mechanism 17 is removed from the configuration shown in FIG. The robot 10b shown in FIG. 4 is used by placing it on a desk or the like and fixing it. The robot 10b is an example of a transmission terminal.

●ハードウエア構成
次に、図5乃至図7を用いて、実施形態におけるロボット10、表示端末50および管理サーバ90のハードウエア構成を説明する。なお、図5乃至図7に示すハードウエア構成は、各実施形態において同様の構成を備えていてもよく、必要に応じて構成要素が追加または削除されてもよい。
●Hardware Configuration Next, hardware configurations of the robot 10, the display terminal 50, and the management server 90 in the embodiment will be described with reference to FIGS. 5 to 7. FIG. Note that the hardware configurations shown in FIGS. 5 to 7 may have similar configurations in each embodiment, and components may be added or deleted as necessary.

〇ロボット10のハードウエア構成〇
まず、図5を用いて、ロボット10のハードウエア構成を説明する。図5は、実施形態に係るロボットのハードウエア構成の一例を示す図である。なお、図5に示すハードウエア構成は、必要に応じて構成要素が追加または削除されてもよい。ロボット10は、ロボット10の処理または動作を制御する制御装置30を備える。制御装置30は、上述のように、ロボット10の筐体15の内部に備えられている。なお、制御装置30は、ロボット10の筐体15の外部に設けられてもよく、またはロボット10とは別の装置として設けられていてもよい。制御装置30は、情報処理装置の一例である。
◯ Hardware Configuration of Robot 10 ◯ First, the hardware configuration of the robot 10 will be described with reference to FIG. 5 . FIG. 5 is a diagram illustrating an example of the hardware configuration of the robot according to the embodiment; Note that components may be added or deleted from the hardware configuration shown in FIG. 5 as necessary. The robot 10 includes a control device 30 that controls processing or operations of the robot 10 . The control device 30 is provided inside the housing 15 of the robot 10 as described above. Note that the control device 30 may be provided outside the housing 15 of the robot 10 or may be provided as a separate device from the robot 10 . The control device 30 is an example of an information processing device.

制御装置30は、CPU(Central Processing Unit)301、ROM(Read Only Memory)302、RAM(Random Access Memory)303、HDD(Hard Disk Drive)304、ネットワークインターフェース(I/F)305、入出力I/F306、メディアI/F307、音入出力I/F308、外部I/F309およびバスライン310を備える。 The control device 30 includes a CPU (Central Processing Unit) 301, a ROM (Read Only Memory) 302, a RAM (Random Access Memory) 303, a HDD (Hard Disk Drive) 304, a network interface (I/F) 305, an input/output I/ F 306 , media I/F 307 , sound input/output I/F 308 , external I/F 309 and bus line 310 .

CPU301は、ロボット10全体の制御を行う。CPU301は、ROM302またはHD(Hard Disk)304a等に格納された、プログラムもしくはデータをRAM303上に読み出し、処理を実行することで、ロボット10の各機能を実現する演算装置である。遠隔制御システム1aは、例えば、本発明に係るプログラムの一部または全てをCPU301で実行することによって、本発明に係る情報処理方法を実現する。 The CPU 301 controls the robot 10 as a whole. The CPU 301 is an arithmetic unit that implements each function of the robot 10 by reading programs or data stored in a ROM 302 or HD (Hard Disk) 304a or the like onto a RAM 303 and executing processing. The remote control system 1a implements the information processing method according to the present invention, for example, by causing the CPU 301 to execute part or all of the program according to the present invention.

RAM303は、CPU301のワークエリア等として用いられる揮発性のメモリである。ROM302は、電源を切ってもプログラムまたはデータを保持することができる不揮発性のメモリである。HDD304は、CPU301の制御にしたがってHD304aに対する各種データの読み出し、または書き込みを制御する。HD304aは、プログラム等の各種データを記憶する。 A RAM 303 is a volatile memory used as a work area or the like for the CPU 301 . The ROM 302 is non-volatile memory that can retain programs or data even when the power is turned off. The HDD 304 controls reading or writing of various data to the HD 304 a under the control of the CPU 301 . The HD 304a stores various data such as programs.

ネットワークI/F305は、通信ネットワーク9を経由して表示端末50と通信(接続)を行う通信インターフェースである。ネットワークI/F305は、例えば、有線または無線LAN(Local Area Network)等の通信インターフェースである。また、ネットワークI/F305は、3G(3rd Generation)、LTE(Long Term Evolution)、4G(4rd Generation)、5G(5rd Generation)、Zigbee(登録商標)、BLE(Bluetooth(登録商標)Low Energy)、ミリ波無線通信の通信インターフェースを備えてもよい。 A network I/F 305 is a communication interface that communicates (connects) with the display terminal 50 via the communication network 9 . The network I/F 305 is, for example, a communication interface such as a wired or wireless LAN (Local Area Network). The network I/F 305 also supports 3G (3rd Generation), LTE (Long Term Evolution), 4G (4th Generation), 5G (5th Generation), Zigbee (registered trademark), BLE (Bluetooth (registered trademark) Low Energy), A communication interface for millimeter wave wireless communication may be provided.

入出力I/F306は、文字、数値、各種指示等を各種外部機器等との間で入出力するためのインターフェースである。入出力I/F306は、LCD(Liquid Crystal Display)等のディスプレイ306aに対するカーソル、メニュー、ウィンドウ、文字または画像等の各種情報の表示を制御する。ディスプレイ306aは、入力手段を備えたタッチパネルディスプレイであってもよい。また、入出力I/F306は、ディスプレイ306aのほかに、例えば、マウス、キーボード等の入力手段が接続されていてもよい。 The input/output I/F 306 is an interface for inputting/outputting characters, numerical values, various instructions, etc., to/from various external devices. The input/output I/F 306 controls display of various information such as cursors, menus, windows, characters or images on a display 306a such as an LCD (Liquid Crystal Display). The display 306a may be a touch panel display with input means. In addition to the display 306a, the input/output I/F 306 may be connected to input means such as a mouse and a keyboard.

メディアI/F307は、USB(Universal Serial Bus)メモリ、メモリカード、光学ディスクまたはフラッシュメモリ等の記録メディア307aに対するデータの読み出しまたは書き込み(記憶)を制御する。音入出力I/F308は、CPU301の制御に従ってマイク308aおよびスピーカ308bとの間で音信号の入出力を処理する回路である。外部I/F309は、制御装置30に他の装置を接続するためのインターフェースである。 A media I/F 307 controls reading or writing (storage) of data to a recording medium 307a such as a USB (Universal Serial Bus) memory, memory card, optical disk, or flash memory. Sound input/output I/F 308 is a circuit that processes input/output of sound signals between microphone 308a and speaker 308b under the control of CPU 301 . The external I/F 309 is an interface for connecting other devices to the control device 30 .

バスライン310は、上記各構成要素を電気的に接続するためのアドレスバスやデータバス等であり、アドレス信号、データ信号、および各種制御信号等を伝送する。CPU301、ROM302、RAM303、HDD304、ネットワークI/F305、入出力I/F306、メディアI/F307、音入出力I/F308および外部I/F309は、バスライン310を介して相互に接続されている。 A bus line 310 is an address bus, a data bus, or the like for electrically connecting the components described above, and transmits an address signal, a data signal, various control signals, and the like. CPU 301 , ROM 302 , RAM 303 , HDD 304 , network I/F 305 , input/output I/F 306 , media I/F 307 , sound input/output I/F 308 and external I/F 309 are interconnected via bus line 310 .

さらに、制御装置30には、外部I/F309を介して、移動モータ101、アクチュエータ102、加速度・方位センサ103、GPS受信部104、電源供給ユニット105、各種センサ106、タイマ107、および上述した撮影装置21が接続されている。 Further, the control device 30 includes a moving motor 101, an actuator 102, an acceleration/azimuth sensor 103, a GPS receiver 104, a power supply unit 105, various sensors 106, a timer 107, and the above-described photographing device via an external I/F 309. A device 21 is connected.

移動モータ101は、CPU301からの命令に基づき、移動機構17を回転駆動させてロボット10を地面に沿って移動させる。アクチュエータ102は、CPU301からの命令に基づき、可動アーム11を変形させる。加速度・方位センサ103は、地磁気を検知する電子磁気コンパス、ジャイロコンパスおよび加速度センサ等のセンサである。GPS(Global Positioning System)受信部104は、GPS衛星からGPS信号を受信する。電源供給ユニット105は、ロボット10の全体に必要な電源を供給するユニットである。各種センサ106は、ロボット10の周囲の情報を検知可能なセンサデバイスである。各種センサ106は、例えば、気圧計、温度計、光度計、人感センサ、または照度計等である。タイマ107は、時間計測機能を有する計測装置である。タイマ107は、コンピュータによるソフトタイマであってもよい。 The movement motor 101 rotationally drives the movement mechanism 17 based on a command from the CPU 301 to move the robot 10 along the ground. Actuator 102 deforms movable arm 11 based on a command from CPU 301 . The acceleration/azimuth sensor 103 is a sensor such as an electronic magnetic compass, a gyrocompass, an acceleration sensor, or the like that detects geomagnetism. A GPS (Global Positioning System) receiver 104 receives GPS signals from GPS satellites. The power supply unit 105 is a unit that supplies necessary power to the entire robot 10 . Various sensors 106 are sensor devices capable of detecting information around the robot 10 . Various sensors 106 are, for example, a barometer, a thermometer, a photometer, a motion sensor, or an illuminance meter. A timer 107 is a measuring device having a time measuring function. Timer 107 may be a computer soft timer.

〇表示端末50のハードウエア構成〇
続いて、図6を用いて、表示端末50のハードウエア構成について説明する。図6は、実施形態に係る表示端末のハードウエア構成の一例を示す図である。表示端末50は、CPU501、ROM502、RAM503、EEPROM(Electrically Erasable Programmable Read-Only Memory)504、撮像素子I/F505、CMOS(Complementary Metal Oxide Semiconductor)センサ505a、加速度・方位センサ506、メディアI/F507およびGPS受信部508を備えている。
◯ Hardware Configuration of Display Terminal 50 ◯ Subsequently, the hardware configuration of the display terminal 50 will be described with reference to FIG. 6 . 6 is a diagram illustrating an example of a hardware configuration of a display terminal according to the embodiment; FIG. The display terminal 50 includes a CPU 501, a ROM 502, a RAM 503, an EEPROM (Electrically Erasable Programmable Read-Only Memory) 504, an image sensor I/F 505, a CMOS (Complementary Metal Oxide Semiconductor) sensor 505a, an acceleration/azimuth sensor 506, a media I/F 507 and A GPS receiver 508 is provided.

CPU501は、表示端末50全体の動作を制御する。CPU501は、ROM502等に格納されたプログラムまたはデータをRAM503上に読み出し、処理を実行することで、表示端末50の各機能を実現する演算装置である。遠隔制御システム1aは、例えば、本発明に係るプログラムの一部または全てをCPU501で実行することによって、本発明に係る情報処理方法を実現する。 The CPU 501 controls the operation of the display terminal 50 as a whole. The CPU 501 is an arithmetic unit that implements each function of the display terminal 50 by reading programs or data stored in the ROM 502 or the like onto the RAM 503 and executing processing. The remote control system 1a realizes the information processing method according to the present invention by executing part or all of the program according to the present invention on the CPU 501, for example.

ROM502は、IPL(Initial Program Loader)等のCPU501の駆動に用いられるプログラムを記憶する。RAM503は、CPU501のワークエリアとして使用される。EEPROM504は、CPU501の制御にしたがって、表示端末用プログラム等の各種データの読み出しまたは書き込みを行う。 A ROM 502 stores a program such as an IPL (Initial Program Loader) that is used to drive the CPU 501 . A RAM 503 is used as a work area for the CPU 501 . The EEPROM 504 reads out or writes various data such as a display terminal program under the control of the CPU 501 .

CMOSセンサ505aは、CPU501の制御に従って被写体(主に自画像)を撮像し画像データを得る。撮像素子I/F505は、CMOSセンサ505aの駆動を制御する回路である。加速度・方位センサ506は、地磁気を検知する電子磁気コンパス、ジャイロコンパスおよび加速度センサ等の各種センサである。メディアI/F507は、フラッシュメモリ等の記録メディア507aに対するデータの読み出しまたは書き込み(記憶)を制御する。GPS受信部508は、GPS衛星からGPS信号を受信する。 Under the control of the CPU 501, the CMOS sensor 505a images a subject (mainly self-portrait) and obtains image data. The imaging device I/F 505 is a circuit that controls driving of the CMOS sensor 505a. The acceleration/azimuth sensor 506 is various sensors such as an electronic magnetic compass, a gyro compass, and an acceleration sensor for detecting geomagnetism. A media I/F 507 controls reading or writing (storage) of data to a recording medium 507a such as a flash memory. A GPS receiver 508 receives GPS signals from GPS satellites.

また、表示端末50は、遠距離通信回路510、遠距離通信回路510のアンテナ510a、音入出力I/F511、マイク511a、スピーカ511b、ディスプレイ512、外部機器接続I/F513、近距離通信回路514、近距離通信回路514のアンテナ514a、タッチパネル515、タイマ516および視線検出装置517を備えている。 The display terminal 50 includes a long-distance communication circuit 510, an antenna 510a of the long-distance communication circuit 510, a sound input/output I/F 511, a microphone 511a, a speaker 511b, a display 512, an external device connection I/F 513, and a short-distance communication circuit 514. , an antenna 514 a of a short-range communication circuit 514 , a touch panel 515 , a timer 516 and a line-of-sight detection device 517 .

遠距離通信回路510は、通信ネットワーク9を介して、他の機器と通信する回路である。マイク511aは、音声を入力する内蔵型の集音手段の一種である。音入出力I/F511は、CPU501の制御に従ってマイク511aおよびスピーカ511bとの間で音信号の入出力を処理する回路である。 Telecommunications circuit 510 is a circuit that communicates with other devices via communication network 9 . The microphone 511a is a type of built-in sound collecting means for inputting sound. Sound input/output I/F 511 is a circuit for processing input/output of sound signals between microphone 511a and speaker 511b under the control of CPU 501 .

ディスプレイ512は、被写体の画像や各種アイコン等を表示する液晶や有機EL等の表示手段の一種である。外部機器接続I/F513は、各種の外部機器を接続するためのインターフェースである。近距離通信回路514は、Wi-Fi、NFC、またはBluetooth等の通信回路である。タッチパネル515は、利用者がディスプレイ512を押下することで、表示端末50を操作する入力手段の一種である。タイマ516は、時間計測機能を有する計測装置である。タイマ516は、コンピュータによるソフトタイマであってもよい。視線検出装置517は、ユーザの視線の位置を視線情報として連続的に検知する。視線検出装置517は、例えば、CMOSセンサ505aで撮像した画像を分析する画像処理装置を含む。視線検出装置517は、例えば、基準点を目頭とし、目頭と虹彩との位置関係から視線の方向を検知する。 The display 512 is a type of display means such as liquid crystal or organic EL that displays an image of a subject, various icons, and the like. The external device connection I/F 513 is an interface for connecting various external devices. The short-range communication circuit 514 is a communication circuit such as Wi-Fi, NFC, or Bluetooth. The touch panel 515 is a type of input means for operating the display terminal 50 by the user pressing the display 512 . A timer 516 is a measuring device having a time measuring function. Timer 516 may be a computer implemented soft timer. The line-of-sight detection device 517 continuously detects the line-of-sight position of the user as line-of-sight information. The line-of-sight detection device 517 includes, for example, an image processing device that analyzes the image captured by the CMOS sensor 505a. The line-of-sight detection device 517 detects the line-of-sight direction from the positional relationship between the inner corner of the eye and the iris, for example, with the inner corner of the eye as a reference point.

また、表示端末50は、バスライン509を備えている。バスライン509は、CPU501等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 The display terminal 50 also has a bus line 509 . A bus line 509 is an address bus, a data bus, or the like for electrically connecting each component such as the CPU 501 .

〇管理サーバ90のハードウエア構成〇
続いて、図7を用いて、管理サーバ90のハードウエア構成について説明する。図7は、実施形態に係る管理サーバのハードウエア構成の一例を示す図である。管理サーバ90は、一般的なコンピュータによって構築されている。管理サーバ90は、CPU901、ROM902、RAM903、HDD905、メディアI/F907、ディスプレイ908、ネットワークI/F909、キーボード911、マウス912、CD-RW(Compact Disc-ReWritable)ドライブ914、タイマ915およびバスライン910を備えている。なお、管理サーバ90は、サーバとして機能するため、キーボード911やマウス912等の入力装置や、ディスプレイ908等の出力装置を備えていなくてもよい。
◯ Hardware Configuration of Management Server 90 ◯ Subsequently, the hardware configuration of the management server 90 will be described with reference to FIG. 7 . 7 is a diagram illustrating an example of a hardware configuration of a management server according to the embodiment; FIG. The management server 90 is constructed by a general computer. The management server 90 includes a CPU 901, a ROM 902, a RAM 903, an HDD 905, a media I/F 907, a display 908, a network I/F 909, a keyboard 911, a mouse 912, a CD-RW (Compact Disc-ReWritable) drive 914, a timer 915 and a bus line 910. It has Since the management server 90 functions as a server, it does not have to be equipped with input devices such as the keyboard 911 and the mouse 912 and output devices such as the display 908 .

CPU901は、管理サーバ90全体の動作を制御する。ROM902は、CPU901の駆動に用いられるプログラムを記憶する。RAM903は、CPU901のワークエリアとして使用される。HDD905は、CPU901の制御にしたがってHD904に対する各種データの読み出し、または書き込みを制御する。HD904は、プログラム等の各種データを記憶する。メディアI/F907は、フラッシュメモリ等の記録メディア906に対するデータの読み出し、または書き込み(記憶)を制御する。 The CPU 901 controls the operation of the management server 90 as a whole. The ROM 902 stores programs used to drive the CPU 901 . A RAM 903 is used as a work area for the CPU 901 . The HDD 905 controls reading or writing of various data to/from the HD 904 under the control of the CPU 901 . The HD 904 stores various data such as programs. A media I/F 907 controls reading or writing (storage) of data to a recording medium 906 such as a flash memory.

ディスプレイ908は、カーソル、メニュー、ウィンドウ、文字、または画像等の各種情報を表示する。ネットワークI/F909は、通信ネットワーク9を利用してデータ通信をするためのインターフェースである。キーボード911は、文字、数値、各種指示等の入力のための複数のキーを備えた入力手段の一種である。マウス912は、各種指示の選択や実行、処理対象の選択、カーソルの移動等を行う入力手段の一種である。CD-RWドライブ914は、着脱可能な記録媒体の一例としてのCD-RW913に対する各種データの読み出し等を制御する。タイマ915は、時間計測機能を有する計測装置である。タイマ915は、コンピュータによるソフトタイマであってもよい。 A display 908 displays various information such as cursors, menus, windows, characters, and images. A network I/F 909 is an interface for data communication using the communication network 9 . A keyboard 911 is a type of input means having a plurality of keys for inputting characters, numerical values, various instructions, and the like. A mouse 912 is a kind of input means for selecting and executing various instructions, selecting a processing target, moving a cursor, and the like. A CD-RW drive 914 controls reading of various data from a CD-RW 913 as an example of a removable recording medium. A timer 915 is a measuring device having a time measuring function. Timer 915 may be a computer soft timer.

また、管理サーバ90は、バスライン910を備えている。バスライン910は、図7に示すCPU901等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 The management server 90 also has a bus line 910 . A bus line 910 is an address bus, a data bus, or the like for electrically connecting each component such as the CPU 901 shown in FIG.

●第1の実施形態●
続いて、図8乃至図30を用いて、第1の実施形態に係る遠隔制御システムの構成について説明する。
●First Embodiment●
Next, the configuration of the remote control system according to the first embodiment will be described with reference to FIGS. 8 to 30. FIG.

●機能構成
まず、図8を用いて、第1の実施形態に係る遠隔制御システムの機能構成について説明する。図8は、第1の実施形態に係る遠隔制御システムの機能構成の一例を示す図である。
●Functional Configuration First, the functional configuration of the remote control system according to the first embodiment will be described with reference to FIG. FIG. 8 is a diagram illustrating an example of the functional configuration of the remote control system according to the first embodiment;

〇制御装置30の機能構成〇
まず、図8を用いて、ロボット10の処理または動作を制御する制御装置30の機能構成について説明する。制御装置30によって実現される機能は、送受信部31、操作入力受付部32、表示制御部33、判断部34、撮影指示部35、画像取得部36、移動制御部37、向き調整部38、位置特定部39、画像処理部41、注目点算出部42、目標点算出部43、周辺情報検出部44、存在通知部45、記憶・読出部46および記憶部3000を含む。
◯ Functional Configuration of Controller 30 ◯ First, the functional configuration of the controller 30 that controls the processing or operation of the robot 10 will be described with reference to FIG. 8 . Functions realized by the control device 30 include a transmission/reception unit 31, an operation input reception unit 32, a display control unit 33, a determination unit 34, a photographing instruction unit 35, an image acquisition unit 36, a movement control unit 37, an orientation adjustment unit 38, a position It includes a specifying unit 39 , an image processing unit 41 , an attention point calculating unit 42 , a target point calculating unit 43 , a peripheral information detecting unit 44 , an existence notifying unit 45 , a storing/reading unit 46 and a storage unit 3000 .

送受信部31は、通信ネットワーク9を介して、他の装置との間で各種データまたは情報の送受信を行う機能である。送受信部31は、例えば、画像取得部36によって取得された画像データ200を、通信ネットワーク9を介して、表示端末50へ送信する。また、送受信部31は、例えば、通信ネットワーク9を介して、表示端末50から送信されてきた要求コマンド(要求情報)を受信する。さらに、送受信部31は、例えば、表示端末50によって取得された画像である画像データ250を、通信ネットワーク9を介して、表示端末50から受信する。また、送受信部31は、目標点算出部43によって算出された目標点において撮影装置21によって取得された画像データ200を、通信ネットワーク9を介して、表示端末50へ送信する。送受信部31は、主に、図5に示したCPU301の処理、およびネットワークI/F305によって実現される。送受信部31は、第1の送信手段の一例である。 The transmission/reception unit 31 has a function of transmitting/receiving various data or information to/from another device via the communication network 9 . The transmission/reception unit 31 transmits the image data 200 acquired by the image acquisition unit 36 to the display terminal 50 via the communication network 9, for example. The transmitting/receiving unit 31 also receives a request command (request information) transmitted from the display terminal 50 via the communication network 9, for example. Furthermore, the transmission/reception unit 31 receives image data 250 , which is an image acquired by the display terminal 50 , from the display terminal 50 via the communication network 9 , for example. Further, the transmitting/receiving section 31 transmits the image data 200 acquired by the photographing device 21 at the target point calculated by the target point calculating section 43 to the display terminal 50 via the communication network 9 . Transmitting/receiving unit 31 is mainly realized by processing of CPU 301 and network I/F 305 shown in FIG. The transmitting/receiving section 31 is an example of first transmitting means.

操作入力受付部32は、ディスプレイ306a等の入力手段に対する操作入力を受け付ける機能である。操作入力受付部32は、主に、図5に示したCPU301の処理、および入出力I/F306によって実現される。表示制御部33は、ディスプレイ306aに各種画面を表示させる機能である。表示制御部33は、主に、図5に示したCPU301の処理、および入出力I/F306によって実現される。 The operation input receiving unit 32 has a function of receiving an operation input to input means such as the display 306a. The operation input reception unit 32 is mainly realized by the processing of the CPU 301 and the input/output I/F 306 shown in FIG. The display control unit 33 has a function of displaying various screens on the display 306a. The display control unit 33 is mainly realized by the processing of the CPU 301 and the input/output I/F 306 shown in FIG.

判断部34は、表示端末50から送信されてきた要求コマンドに応じてロボット10が実行する処理または動作を判断する機能である。判断部34は、主に、図5に示したCPU301の処理によって実現される。 The judgment unit 34 has a function of judging a process or operation to be executed by the robot 10 according to a request command transmitted from the display terminal 50 . The judgment unit 34 is mainly realized by the processing of the CPU 301 shown in FIG.

撮影指示部35は、撮影装置21に対する撮影処理を指示する機能である。撮影指示部35は、例えば、撮影装置21による撮影を指示するための指示情報を、撮影装置21へ送信する。撮影指示部35は、主に、図5に示したCPU301の処理、および外部I/F309によって実現される。 The photographing instruction unit 35 has a function of instructing the photographing device 21 to perform photographing processing. The photographing instruction unit 35 , for example, transmits instruction information for instructing photographing by the photographing device 21 to the photographing device 21 . The shooting instruction unit 35 is mainly realized by the processing of the CPU 301 and the external I/F 309 shown in FIG.

画像取得部36は、撮影装置21によって取得された画像を取得する機能である。画像取得部36は、例えば、撮影装置21が被写体を撮影して取得した画像である画像データ200を、撮影装置21から取得する。画像取得部36は、主に、図5に示したCPU301の処理、および外部I/F309によって実現される。画像取得部36は、取得手段の一例である。 The image acquisition unit 36 has a function of acquiring an image acquired by the imaging device 21 . The image acquisition unit 36 acquires from the imaging device 21, for example, image data 200, which is an image acquired by the imaging device 21 photographing a subject. The image acquisition unit 36 is mainly implemented by the processing of the CPU 301 shown in FIG. 5 and the external I/F 309 . The image acquisition unit 36 is an example of acquisition means.

移動制御部37は、移動機構17を駆動させることによって、ロボット10の移動を制御する機能である。移動制御部37は、例えば、表示端末50から送信されてきた要求コマンドに応じて移動機構17の駆動を制御することで、ロボット10を移動させる。また、移動制御部37は、例えば、目標点算出部43によって算出された目標点へロボット10を移動させるように、移動機構17の駆動を制御する。移動制御部37は、主に、図5に示したCPU301の処理、および外部I/F309によって実現される。移動制御部37は、移動制御手段の一例である。 The movement control unit 37 has a function of controlling movement of the robot 10 by driving the movement mechanism 17 . The movement control unit 37 moves the robot 10 by controlling driving of the movement mechanism 17 according to a request command transmitted from the display terminal 50, for example. Further, the movement control unit 37 controls driving of the movement mechanism 17 so as to move the robot 10 to the target point calculated by the target point calculation unit 43, for example. The movement control unit 37 is mainly realized by the processing of the CPU 301 and the external I/F 309 shown in FIG. The movement control unit 37 is an example of movement control means.

向き調整部38は、ロボット10の向きを変更する機能である。向き調整部38は、例えば、目標点算出部43によって算出されたロボット10の移動先のロボット10の向きに応じて、移動機構17または回転軸12の駆動を制御することで、ロボット10の向きを変更する。向き調整部38は、主に、図5に示したCPU301の処理、および外部I/F309によって実現される。 The orientation adjustment unit 38 has a function of changing the orientation of the robot 10 . The orientation adjustment unit 38 adjusts the orientation of the robot 10 by controlling the drive of the movement mechanism 17 or the rotary shaft 12 according to the orientation of the robot 10 to which the robot 10 moves calculated by the target point calculation unit 43, for example. to change The orientation adjustment unit 38 is mainly implemented by the processing of the CPU 301 shown in FIG. 5 and the external I/F 309 .

位置特定部39は、ロボット10の現在位置を特定する機能である。位置特定部39は、例えば、加速度・方位センサ103またはGPS受信部104によって検出される各方位(方位角、磁北)の方向等の検出結果に基づいて、ロボット10の現在位置を特定する。各方位の方向等の検出結果は、ロボット10の所定時点における位置および向きを示す位置情報である。位置特定部39は、主に、図5に示したCPU301の処理、および外部I/F309によって実現される。位置特定部39は、位置検出手段の一例である。 The position specifying unit 39 has a function of specifying the current position of the robot 10 . The position specifying unit 39 specifies the current position of the robot 10 on the basis of the detection result of the direction of each direction (azimuth angle, magnetic north) detected by the acceleration/direction sensor 103 or the GPS receiving unit 104, for example. The detection results such as the direction of each azimuth are position information indicating the position and orientation of the robot 10 at a predetermined point in time. The position specifying unit 39 is mainly implemented by the processing of the CPU 301 shown in FIG. 5 and the external I/F 309 . The position specifying unit 39 is an example of position detection means.

画像処理部41は、画像取得部36によって取得された画像データ200に対する処理を行う機能である。画像処理部41は、例えば、画像取得部36によって取得された画像データ200に含まれる人物の頭の画像を抽出する。また、画像処理部41は、例えば、画像取得部36によって取得された人物の目と鼻の画像を抽出する。画像処理部41は、主に、図5に示したCPU301の処理によって実現される。 The image processing unit 41 has a function of processing the image data 200 acquired by the image acquisition unit 36 . The image processing unit 41 extracts, for example, an image of a person's head included in the image data 200 acquired by the image acquiring unit 36 . The image processing unit 41 also extracts, for example, the image of the person's eyes and nose acquired by the image acquiring unit 36 . The image processing unit 41 is mainly implemented by the processing of the CPU 301 shown in FIG.

注目点算出部42は、画像処理部41によって処理された画像データに含まれる複数の人物の位置および向きに基づいて、複数の人が注目する注目点を特定する機能である。注目点は、ロボット10が設置された拠点において複数の人が注目している位置であり、例えば、ロボット10の周囲の複数の人が向いている方向の交点である。注目点は、例えば、遠隔会議において、ロボット10側の拠点での複数の参加者が向いている方向、すなわち、ある時点における話題の中心位置である。注目点算出部42は、主に、図5に示したCPU301の処理によって実現される。注目点算出部42は、算出手段の一例である。また、注目点算出部42は、推定手段の一例である。さらに、注目点算出部42は、注目点特定手段の一例である。 The point-of-interest calculation unit 42 has a function of identifying a point of interest that a plurality of persons pays attention to based on the positions and orientations of the persons included in the image data processed by the image processing unit 41 . A point of interest is a position that a plurality of people are paying attention to at a base where the robot 10 is installed, and is, for example, an intersection point of directions in which a plurality of people around the robot 10 are facing. The point of interest is, for example, the direction in which a plurality of participants at the base on the robot 10 side are facing in a teleconference, that is, the central position of the topic at a certain point in time. The point-of-interest calculator 42 is mainly realized by the processing of the CPU 301 shown in FIG. The point-of-interest calculator 42 is an example of a calculator. Also, the point-of-interest calculator 42 is an example of an estimator. Furthermore, the point-of-interest calculation unit 42 is an example of point-of-interest identification means.

目標点算出部43は、注目点算出部42によって算出された注目点に基づいて、ロボット10の移動先となる目標点を特定する機能である。目標点算出部43によって特定される目標点は、ロボット10の移動先の目標位置Gを示す位置情報(座標情報)と、ロボット10の移動先のロボット10の向きを示す方向情報を含む。目標点算出部43は、主に、図5に示したCPU301の処理によって実現される。目標点算出部43は、算出手段の一例である。また、目標点算出部43は、目標点特定手段の一例である。 The target point calculation unit 43 has a function of specifying a target point to which the robot 10 moves based on the target point calculated by the target point calculation unit 42 . The target point specified by the target point calculation unit 43 includes position information (coordinate information) indicating the target position G of the destination of the robot 10 and direction information indicating the orientation of the robot 10 of the destination of the robot 10 . The target point calculator 43 is mainly realized by the processing of the CPU 301 shown in FIG. The target point calculator 43 is an example of a calculator. Also, the target point calculation unit 43 is an example of target point specifying means.

周辺情報検出部44は、撮影装置21によって取得された画像データ200または各種センサ106によって検出された検出結果等を用いて、ロボット10の周囲の情報を検出する機能である。周辺情報検出部44は、主に、図5に示したCPU301の処理、および外部I/F309によって実現される。 The surrounding information detection unit 44 has a function of detecting information around the robot 10 using the image data 200 acquired by the photographing device 21 or the detection results detected by the various sensors 106 . The peripheral information detection unit 44 is mainly realized by the processing of the CPU 301 and the external I/F 309 shown in FIG.

存在通知部45は、予め定められた条件に基づいて、ロボット10の存在を通知する機能である。存在通知部45は、例えば、位置特定部39によって検出された現在位置と、目標点算出部43によって算出された目標点との距離が閾値以上または閾値より長い場合、ロボット10の存在を通知する通知情報を出力する。通知情報は、例えば、音信号であり、存在通知部45は、スピーカ308bから音信号を出力する。また、通知情報は、例えば、ロボット10の所定のジェスチャーであり、存在通知部45は、移動機構17、もしくは可動アーム11または回転軸12を駆動させる。なお、閾値は、予め記憶部3000に記憶されている。存在通知部45は、主に、図5に示したCPU301の処理、および外部I/F309によって実現される。存在通知部45は、存在通知手段の一例である。 The presence notification unit 45 has a function of notifying the presence of the robot 10 based on predetermined conditions. For example, the presence notification unit 45 notifies the presence of the robot 10 when the distance between the current position detected by the position specifying unit 39 and the target point calculated by the target point calculation unit 43 is greater than or equal to a threshold or longer than the threshold. Output notification information. The notification information is, for example, a sound signal, and the presence notification unit 45 outputs the sound signal from the speaker 308b. Also, the notification information is, for example, a predetermined gesture of the robot 10 , and the presence notification unit 45 drives the moving mechanism 17 or the movable arm 11 or the rotating shaft 12 . Note that the threshold is stored in the storage unit 3000 in advance. Presence notification unit 45 is mainly realized by the processing of CPU 301 and external I/F 309 shown in FIG. The presence notification unit 45 is an example of presence notification means.

記憶・読出部46は、記憶部3000に各種データを記憶させ、または記憶部3000から各種データを読み出す機能である。記憶・読出部46は、主に、図5に示したCPU301の処理によって実現される。記憶部3000は、主に、図5に示したROM302、HD304aおよび記録メディア307aによって実現される。 The storage/readout unit 46 has a function of storing various data in the storage unit 3000 or reading out various data from the storage unit 3000 . The storage/reading unit 46 is mainly implemented by the processing of the CPU 301 shown in FIG. Storage unit 3000 is mainly realized by ROM 302, HD 304a and recording medium 307a shown in FIG.

また、記憶部3000は、画像取得部36によって撮影された画像データ200、および表示端末50から送信されてきた画像データ250を記憶している。さらに、記憶部3000は、コマンドテーブル3001および条件テーブル3002を記憶している。なお、記憶部3000に記憶されている画像データ200は、画像取得部36によって取得されてから所定の時間経過した場合に削除される構成であってもよいし、表示端末50へ送信されたデータが削除される構成であってもよい。同様に、記憶部3000に記憶されている画像データ250は、表示端末50から送信されてから所定の時間経過した場合に削
除される構成であってもよい。
The storage unit 3000 also stores image data 200 captured by the image acquisition unit 36 and image data 250 transmitted from the display terminal 50 . Furthermore, storage unit 3000 stores command table 3001 and condition table 3002 . Note that the image data 200 stored in the storage unit 3000 may be deleted when a predetermined period of time has elapsed after being acquired by the image acquisition unit 36, or the data transmitted to the display terminal 50 may be deleted. may be deleted. Similarly, the image data 250 stored in the storage unit 3000 may be deleted when a predetermined time has passed since it was transmitted from the display terminal 50 .

〇コマンドテーブル3001
ここで、記憶部3000に記憶されたデータの詳細について説明する。図9は、第1の実施形態に係るコマンドテーブルの一例を示す図である。図9に示すコマンドテーブル3001は、表示端末50から送信されてきた要求コマンドに基づいてロボット10に実行される処理または動作を特定するためのものである。コマンドテーブル3001は、要求コマンドごとに、それぞれの要求コマンドに対応する処理内容を関連づけて記憶している。制御装置30の判断部34は、コマンドテーブル3001を用いて、表示端末50から送信されてきた要求コマンドに対応する処理を特定する。
O command table 3001
Details of the data stored in the storage unit 3000 will now be described. FIG. 9 is a diagram illustrating an example of a command table according to the first embodiment; A command table 3001 shown in FIG. 9 is for specifying a process or operation to be executed by the robot 10 based on a request command transmitted from the display terminal 50. FIG. The command table 3001 stores each request command in association with the processing content corresponding to each request command. The determination unit 34 of the control device 30 uses the command table 3001 to identify the process corresponding to the request command transmitted from the display terminal 50 .

例えば、コマンドテーブル3001において、要求コマンド「FORWARD」に対応する処理は、ロボット10を一定量前進させる処理である。なお、それぞれのコマンドに対応する処理の内容は、これに限られず、表示端末50を用いてロボット10を操作する操作者またはロボット10の管理者等によって適宜修正・変更可能である。 For example, in the command table 3001, the process corresponding to the request command "FORWARD" is the process of moving the robot 10 forward by a certain amount. The content of the processing corresponding to each command is not limited to this, and can be appropriately modified or changed by the operator who operates the robot 10 using the display terminal 50 or the administrator of the robot 10 .

〇条件テーブル3002
図10は、第1の実施形態に係る撮影パラメータの一例を示す図である。図10に示す条件テーブル3002は、注目点に対する位置調整処理を開始するための条件を示したものである。条件テーブル3002は、拠点名で示される拠点ごとに、条件情報を関連づけて記憶している。条件情報は、一つ前の位置調整処理を行ってからの経過時間、人との距離、および位置調整処理の調整周期が含まれる。なお、条件情報に含まれる項目は、これに限られず、拠点ごとに一つの項目の条件が含まれていてもよいし、拠点ごとに複数の項目の条件が含まれていてもよい。
O condition table 3002
FIG. 10 is a diagram showing an example of imaging parameters according to the first embodiment. A condition table 3002 shown in FIG. 10 indicates conditions for starting the position adjustment process for the point of interest. The condition table 3002 stores condition information in association with each site indicated by the site name. The condition information includes the elapsed time since the previous position adjustment process was performed, the distance to the person, and the adjustment cycle of the position adjustment process. Note that the items included in the condition information are not limited to the above, and each site may include one item of conditions, or each site may include multiple items of conditions.

条件テーブル3002は、拠点ごとに条件情報を記憶することで、ロボット10が位置する拠点ごとに位置調整処理を行う頻度や条件を異ならせることができる。なお、条件テーブル3002は、拠点ごとに条件情報がそれぞれ関連づけられている例を説明したが、ロボット10ごとに条件情報を関連づけて記憶していてもよい。 The condition table 3002 stores condition information for each base, so that the frequency and conditions for position adjustment processing can be varied for each base where the robot 10 is located. Although the condition table 3002 has been described as an example in which condition information is associated with each site, the condition information may be associated with each robot 10 and stored.

〇表示端末50の機能構成〇
次に、図8を用いて、表示端末50の機能構成について説明する。表示端末50により実現される機能は、送受信部51、操作入力受付部52、表示制御部53、判断部54、要求コマンド生成部55、視線検出部56、記憶・読出部57および記憶部5000を含む。表示端末50は、ロボット10を遠隔操作するための専用のアプリケーションプログラムをインストールしている。表示端末50は、例えば、インストールされたアプリケーションプログラムをCPU501が実行することによって各機能を実現する。
* Functional configuration of display terminal 50 * Next, the functional configuration of the display terminal 50 will be described with reference to FIG. 8 . Functions realized by the display terminal 50 include a transmission/reception unit 51 , an operation input reception unit 52 , a display control unit 53 , a determination unit 54 , a request command generation unit 55 , a line-of-sight detection unit 56 , a storage/readout unit 57 and a storage unit 5000 . include. The display terminal 50 is installed with a dedicated application program for remotely controlling the robot 10 . The display terminal 50 implements each function by the CPU 501 executing an installed application program, for example.

送受信部51は、通信ネットワーク9を介して、他の装置との間で各種データまたは情報の送受信を行う機能である。送受信部51は、例えば、ロボット10が備える撮影装置21によって取得された画像データ200を、通信ネットワーク9を介して、ロボット10から受信する。また、送受信部51は、例えば、CMOSセンサ505aによって撮影されて取得された画像である画像データ250を、通信ネットワーク9を介して、ロボット10へ送信する。送受信部51は、主に、図6に示したCPU501の処理、および遠距離通信回路510によって実現される。送受信部51は、受信手段の一例である。 The transmission/reception unit 51 has a function of transmitting/receiving various data or information to/from another device via the communication network 9 . The transmitting/receiving unit 51 receives image data 200 acquired by, for example, an imaging device 21 of the robot 10 from the robot 10 via the communication network 9 . The transmitting/receiving unit 51 also transmits image data 250 , which is an image captured by the CMOS sensor 505 a for example, to the robot 10 via the communication network 9 . Transmitting/receiving unit 51 is mainly realized by processing of CPU 501 shown in FIG. 6 and long-distance communication circuit 510 . The transmitting/receiving unit 51 is an example of receiving means.

操作入力受付部52は、表示端末50への各種選択または操作入力を受け付ける機能である。操作入力受付部52は、主に、図6に示したCPU501の処理、およびタッチパネル515によって実現される。なお、タッチパネル515は、ディスプレイ512と共用であってもよい。また、操作入力受付部52は、タッチパネル以外の入力手段によって実現されてもよい。 The operation input reception unit 52 has a function of receiving various selections or operation inputs to the display terminal 50 . Operation input reception unit 52 is mainly realized by the processing of CPU 501 shown in FIG. 6 and touch panel 515 . Note that the touch panel 515 may be shared with the display 512 . Further, the operation input reception unit 52 may be realized by input means other than the touch panel.

表示制御部53は、表示端末50のディスプレイ512に各種画像を表示させる機能である。表示制御部53は、例えば、送受信部51によって受信された画像データ200を、表示手段の一例であるディスプレイ512に表示させる。表示制御部53は、主に、図6に示したCPU501の処理、およびディスプレイ512によって実現される。表示制御部53は、表示制御手段の一例である。 The display control unit 53 has a function of displaying various images on the display 512 of the display terminal 50 . The display control unit 53 causes, for example, the image data 200 received by the transmission/reception unit 51 to be displayed on the display 512, which is an example of display means. The display control unit 53 is mainly realized by the processing of the CPU 501 and the display 512 shown in FIG. The display control unit 53 is an example of display control means.

判断部54は、ロボット10へ要求する特定の処理を判断する機能である。判断部54は、例えば、操作入力受付部52によって受け付けられた操作入力に基づいて、ロボット10へ要求する特定の処理を判断する。判断部54は、主に、図6に示したCPU301の処理によって実現される。 The determination unit 54 has a function of determining a specific process to be requested of the robot 10 . The determination unit 54 determines specific processing to be requested of the robot 10 based on the operation input received by the operation input reception unit 52, for example. The judgment unit 54 is mainly realized by the processing of the CPU 301 shown in FIG.

要求コマンド生成部55は、ロボット10に特定の処理を実行されるための実行要求である要求コマンドを生成する機能である。要求コマンド生成部55は、主に、図6に示したCPU501の処理によって実現される。 The request command generator 55 has a function of generating a request command, which is an execution request for the robot 10 to execute a specific process. The request command generator 55 is mainly implemented by the processing of the CPU 501 shown in FIG.

視線検出部56は、表示端末50を用いてロボット10を操作する操作者の視線を検出する機能である。視線検出部56は、主に、図6に示したCPU501の処理、および視線検出装置517によって実現される。 The line-of-sight detection unit 56 has a function of detecting the line of sight of the operator who operates the robot 10 using the display terminal 50 . The line-of-sight detection unit 56 is mainly implemented by the processing of the CPU 501 shown in FIG. 6 and the line-of-sight detection device 517 .

記憶・読出部57は、記憶部5000に各種データを記憶させ、または記憶部5000から各種データを読み出す機能である。記憶・読出部57は、主に、図6に示したCPU501の処理によって実現される。記憶部5000は、主に、図6に示したROM502、EEPROM504および記録メディア507によって実現される。 The storage/readout unit 57 has a function of storing various data in the storage unit 5000 or reading out various data from the storage unit 5000 . The storage/reading unit 57 is mainly realized by the processing of the CPU 501 shown in FIG. Storage unit 5000 is mainly implemented by ROM 502, EEPROM 504 and recording medium 507 shown in FIG.

また、記憶部5000は、送受信部51によって受信された画像データ200、およびCMOSセンサ505aによって撮影されて取得された画像データ250を記憶している。さらに、記憶部5000は、ユーザコマンドテーブル5001を記憶している。なお、記憶部5000に記憶されている画像データ200は、送受信部51によって受信されてから所定の時間経過した場合に削除される構成であってもよいし、操作入力受付部52によって受け付けられた、ユーザからの削除命令に基づいて削除される構成であってもよい。同様に、記憶部5000に記憶されている画像データ250は、CMOSセンサ505aによって取得されてから所定の時間経過した場合に削除される構成であってもよいし、操作入力受付部52によって受け付けられた、ユーザからの削除命令に基づいて削除される構成であってもよい。 The storage unit 5000 also stores the image data 200 received by the transmission/reception unit 51 and the image data 250 captured by the CMOS sensor 505a. Furthermore, the storage unit 5000 stores a user command table 5001. FIG. Note that the image data 200 stored in the storage unit 5000 may be deleted when a predetermined period of time has passed since it was received by the transmission/reception unit 51, or the image data 200 may be deleted when the operation input reception unit 52 receives the image data 200. , may be deleted based on a deletion instruction from the user. Similarly, the image data 250 stored in the storage unit 5000 may be deleted when a predetermined period of time has passed since it was acquired by the CMOS sensor 505a, or may be deleted when it is received by the operation input reception unit 52. Alternatively, it may be configured to be deleted based on a deletion instruction from the user.

〇ユーザコマンドテーブル5001
図11は、第1の実施形態に係るユーザコマンドテーブルの一例を示す図である。図11に示すユーザコマンドテーブル5001は、操作入力受付部52によって受け付けられた操作入力に基づいて、ロボット10に対して要求する処理または動作の内容を特定するために用いられるものである。ユーザコマンドテーブル5001は、操作入力受付部52によって受け付けられた操作入力に対応する入力コマンドに、対応するコマンドの内容を関連づけて記憶している。
o User command table 5001
FIG. 11 is a diagram showing an example of a user command table according to the first embodiment. The user command table 5001 shown in FIG. 11 is used to specify the content of the processing or motion requested to the robot 10 based on the operation input received by the operation input reception unit 52. FIG. The user command table 5001 stores an input command corresponding to an operation input received by the operation input receiving unit 52 in association with the contents of the corresponding command.

〇管理サーバ90の機能構成〇
次に、図8を用いて、管理サーバ90の機能構成について説明する。管理サーバ90によって実現される機能は、送受信部91、認証部92、判断部93、作成部94、記憶・読出部95および記憶部9000を含む。
* Functional Configuration of Management Server 90 * Next, the functional configuration of the management server 90 will be described with reference to FIG. 8 . Functions realized by the management server 90 include a transmission/reception unit 91 , an authentication unit 92 , a determination unit 93 , a creation unit 94 , a storage/readout unit 95 and a storage unit 9000 .

送受信部91は、通信ネットワーク9を介して、他の装置との間で各種データまたは情報の送受信を行う機能である。送受信部91は、主に、図7に示したCPU901の処理、およびネットワークI/F909によって実現される。 The transmission/reception unit 91 has a function of transmitting/receiving various data or information to/from another device via the communication network 9 . Transmitting/receiving unit 91 is mainly realized by processing of CPU 901 and network I/F 909 shown in FIG.

認証部92は、送受信部91によって受信されたログイン要求に基づいて、ログイン要求元の認証を行う機能である。認証部92は、例えば、送受信部91によって受信されたログイン要求に含まれている端末IDおよびパスワードを検索キーとし、記憶部9000の認証管理DB9001を検索する。そして、認証部92は、認証管理DB9001に同一の組の端末IDおよびパスワードが管理されているかを判断することによって端末認証を行う。認証部92は、主に、図7に示したCPU901の処理によって実現される。 The authentication unit 92 has a function of authenticating the login request source based on the login request received by the transmission/reception unit 91 . The authentication unit 92 searches the authentication management DB 9001 of the storage unit 9000 using, for example, the terminal ID and password included in the login request received by the transmission/reception unit 91 as a search key. Authentication unit 92 performs terminal authentication by determining whether the same set of terminal ID and password is managed in authentication management DB 9001 . The authentication unit 92 is mainly implemented by the processing of the CPU 901 shown in FIG.

判断部93は、後述するセッション管理テーブルに、表示端末50の端末IDが管理されているかを判断する機能である。判断部93は、主に、図7に示したCPU901の処理によって実現される。 The determination unit 93 has a function of determining whether the terminal ID of the display terminal 50 is managed in a session management table, which will be described later. The determination unit 93 is mainly implemented by the processing of the CPU 901 shown in FIG.

作成部94は、通信に使用されるセッションIDを作成する機能である。作成部94は、主に、図7に示したCPU901の処理によって実現される。 The creation unit 94 is a function that creates a session ID used for communication. The creating unit 94 is mainly implemented by the processing of the CPU 901 shown in FIG.

記憶・読出部95は、記憶部9000に各種データを記憶させ、または記憶部9000から各種データを読み出す機能である。記憶・読出部95は、主に、図7に示したCPU901の処理によって実現される。記憶部9000は、主に、図7に示したROM902、HD904または記録メディア906によって実現される。また、この記憶部9000には、後述する図15に示す宛先リスト画面500における宛先リスト枠データ(図15に示すアイコン、「rA01」、「ロボット10A-1」等の宛先リスト内容情報は含まれない)が記憶されている。 The storage/readout unit 95 has a function of storing various data in the storage unit 9000 or reading out various data from the storage unit 9000 . The storage/reading unit 95 is mainly implemented by the processing of the CPU 901 shown in FIG. Storage unit 9000 is mainly implemented by ROM 902, HD 904, or recording medium 906 shown in FIG. The storage unit 9000 also includes destination list frame data (icon shown in FIG. 15, destination list content information such as “rA01” and “robot 10A-1”) in the destination list screen 500 shown in FIG. 15 to be described later. not) is stored.

〇認証管理テーブル
記憶部9000には、図12(a)に示すような認証管理テーブルによって構成されている認証管理DB9001が構築されている。この認証管理テーブルには、管理サーバ90によって管理される全ての表示端末50の各端末IDに対して、各パスワードが関連づけられた関連情報が管理されている。例えば、図12(a)に示されている認証管理テーブルでは、表示端末50Aの端末IDは「o01」で、パスワードは「aaaa」であることが表されている。
〇Authentication Management Table In the storage unit 9000, an authentication management DB 9001 configured by an authentication management table as shown in FIG. 12A is constructed. This authentication management table manages related information in which each password is associated with each terminal ID of all the display terminals 50 managed by the management server 90 . For example, the authentication management table shown in FIG. 12A shows that the terminal ID of the display terminal 50A is "o01" and the password is "aaaa".

〇端末管理テーブル
また、記憶部9000には、図12(b)に示すような端末管理テーブルによって構成されている端末管理DB9002が構築されている。この端末管理テーブルには、各端末(ロボット10および表示端末50)の端末IDごとに、各端末の端末名、端末のIPアドレス、各端末の現在の稼動状態を示す稼動状態情報、および端末がロボット10である場合のロボット10が位置する拠点を示す拠点名が関連づけられた関連情報が管理されている。
O Terminal Management Table In addition, in the storage unit 9000, a terminal management DB 9002 configured by a terminal management table as shown in FIG. 12B is constructed. This terminal management table contains, for each terminal ID of each terminal (robot 10 and display terminal 50), the terminal name of each terminal, the IP address of the terminal, operating state information indicating the current operating state of each terminal, and terminal information. In the case of the robot 10, related information associated with a site name indicating the site where the robot 10 is located is managed.

例えば、図12(b)に示す端末管理テーブルにおいて、端末IDが「o01」の表示端末50は、端末名が「表示端末50A」で、この表示端末50のIPアドレスが「1.2.1.3」で、稼動状態が「オンライン(通話可能)」であることが示されている。また、端末IDが「rA01」のロボット10は、端末名が「ロボット10A-1」で、このロボット10のIPアドレスが「1.3.2.3」で、稼動状態が「オンライン(通話可能)」で、拠点名が「拠点A」であることが示されている。 For example, in the terminal management table shown in FIG. 12B, the display terminal 50 with the terminal ID "o01" has the terminal name "display terminal 50A" and the IP address of this display terminal 50 is "1.2.1. .3” indicates that the operating state is “online (call available)”. The robot 10 whose terminal ID is "rA01" has a terminal name of "robot 10A-1", an IP address of "1.3.2.3", and an operating state of "online (talk available)." )” indicates that the site name is “site A”.

〇宛先リスト管理テーブル
さらに、記憶部9000には、図13(a)に示すような宛先リスト管理テーブルによって構成されている宛先リスト管理DB9003が構築されている。この宛先リスト管理テーブルには、ロボット10の遠隔制御を行うための通信の開始を要求する開始端末としての表示端末50の端末IDごとに、宛先となるロボット10の候補として登録されている宛先候補のロボット10の端末IDが関連づけられた関連情報が管理されている。
Destination List Management Table Further, in the storage unit 9000, a destination list management DB 9003 configured by a destination list management table as shown in FIG. 13A is constructed. In this destination list management table, destination candidates are registered as candidates for the robot 10 to be the destination for each terminal ID of the display terminal 50 as the start terminal requesting the start of communication for remote control of the robot 10. Related information associated with the terminal IDs of the robots 10 is managed.

例えば、図13(a)に示す宛先リスト管理テーブルにおいて、端末IDが「o01a」である開始端末(表示端末50A)から通信の開始を要求することができる宛先候補は、端末IDが「rA01」のロボット10A-1、端末IDが「rA02」のロボット10A-2、端末IDが「rC01」のロボット10C-1等であることが示されている。なお、宛先候補のロボット10の端末IDは、任意の開始端末(表示端末50)から管理サーバ90に対する追加または削除の要請により、追加または削除されることで更新される。 For example, in the destination list management table shown in FIG. 13A, the destination candidate whose terminal ID is "rA01" can be requested to start communication from the start terminal (display terminal 50A) whose terminal ID is "o01a". robot 10A-1 with a terminal ID of "rA02", robot 10C-1 with a terminal ID of "rC01", and the like. Note that the terminal IDs of the robots 10 as destination candidates are updated by being added or deleted in response to an addition or deletion request to the management server 90 from an arbitrary start terminal (display terminal 50).

〇セッション管理テーブル
さらに、記憶部9000には、図13(b)に示すようなセッション管理テーブルによって構成されているセッション管理DB9004が構築されている。このセッション管理テーブルには、ロボット10と表示端末50との間で通信する際に利用されるセッションを識別するためのセッションIDごとに、このセッションIDによって特定されるセッションを使用中のロボット10および表示端末50の端末IDが関連づけられた関連情報が管理されている。例えば、図13(b)に示すセッション管理テーブルにおいて、セッションID「se1」を用いて実行されたセッションを使用中の端末は、端末IDが「o01」の表示端末50A、端末IDが「rA01」のロボット10A-1、および端末IDが「rC01」のロボット10C-1であることが示されている。
◯ Session Management Table Further, in the storage unit 9000, a session management DB 9004 configured by a session management table as shown in FIG. 13B is constructed. In this session management table, for each session ID for identifying a session used when communicating between the robot 10 and the display terminal 50, the robot 10 using the session identified by this session ID and Related information associated with the terminal ID of the display terminal 50 is managed. For example, in the session management table shown in FIG. 13B, the terminals currently using the session executed using the session ID "se1" are the display terminal 50A with the terminal ID "o01" and the terminal ID "rA01". , and robot 10C-1 whose terminal ID is "rC01".

●第1の実施形態の処理または動作
〇セッション確立処理〇
続いて、図14乃至図30を用いて、第1の実施形態に係る遠隔制御システムの動作または処理について説明する。なお、以降の説明において、ロボット10が備える制御装置30によって実行される処理は、ロボット10によって実行される処理として説明する。
● Processing or operation of the first embodiment ◯ Session establishment processing ◯ Subsequently, the operation or processing of the remote control system according to the first embodiment will be described with reference to Figs. 14 to 30 . In the following description, processing executed by the control device 30 included in the robot 10 will be described as processing executed by the robot 10 .

まず、図14乃至図16を用いて、ロボット10と表示端末50との間における通信セッションの確立処理について説明する。図14は、ロボットと表示端末との間でデータの送受信を開始する準備段階の処理の一例を示すシーケンス図である。ここでは、開始端末としての表示端末50Aと、宛先端末としてのロボット10A-1との間で、データの送受信を開始する前の準備段階における各管理情報の送受信処理について説明する。 First, processing for establishing a communication session between the robot 10 and the display terminal 50 will be described with reference to FIGS. 14 to 16. FIG. FIG. 14 is a sequence diagram showing an example of preparatory processing for starting transmission and reception of data between the robot and the display terminal. Here, transmission/reception processing of each piece of management information in a preparatory stage before starting transmission/reception of data between the display terminal 50A as the start terminal and the robot 10A-1 as the destination terminal will be described.

まず、ステップS11において、表示端末50Aの送受信部51は、通信ネットワーク9を介して、管理サーバ90へログイン要求を送信する。具体的には、表示端末50Aのユーザは、表示端末50Aにおける電源スイッチをONにすると、電源がONになる。そして、表示端末50Aの送受信部51は、上記電源ONを契機とし、送受信部51から通信ネットワーク9を介して、管理サーバ90へ、ログイン要求を送信する。これにより、管理サーバ90の送受信部91は、表示端末50Aから送信されたログイン要求を受信する。 First, in step S<b>11 , the transmitter/receiver 51 of the display terminal 50</b>A transmits a login request to the management server 90 via the communication network 9 . Specifically, when the user of the display terminal 50A turns on the power switch of the display terminal 50A, the power is turned on. Then, the transmission/reception unit 51 of the display terminal 50</b>A transmits a login request to the management server 90 via the communication network 9 when the power is turned on. Thereby, the transmission/reception unit 91 of the management server 90 receives the login request transmitted from the display terminal 50A.

このログイン要求には、表示端末50Aとしての開始端末を識別するための端末ID、およびパスワードが含まれている。これら端末IDおよびパスワードは、記憶・読出部57によって記憶部5000から読み出されて、送受信部51に送られたデータである。なお、これら端末IDおよびパスワードは、これに限るものではなく、ユーザがタッチパネル515等の入力手段によって入力した端末IDやパスワードが送信されてもよい。また、表示端末50Aに接続されたSIM(Subscriber Identity Module Card)カードやSDカード等の記憶媒体から読み出された端末IDやパスワードが送信されてもよい。 This login request includes a terminal ID for identifying the starting terminal as the display terminal 50A and a password. These terminal ID and password are data read out from the storage unit 5000 by the storage/readout unit 57 and sent to the transmission/reception unit 51 . Note that the terminal ID and password are not limited to these, and a terminal ID and password that the user has input using input means such as the touch panel 515 may be transmitted. Also, the terminal ID and password read from a storage medium such as a SIM (Subscriber Identity Module Card) card or SD card connected to the display terminal 50A may be transmitted.

また、表示端末50Aから管理サーバ90へログイン要求が送信される際は、受信側である管理サーバ90は、送信側である表示端末50AのIPアドレスを取得することができる。また、ログイン要求の開始は、必ずしも電源スイッチをONにすることを契機とする必要はなく、ユーザによるタッチパネル515等の入力手段への入力に応じて送信してもよい。 Also, when a login request is transmitted from the display terminal 50A to the management server 90, the management server 90 on the receiving side can acquire the IP address of the display terminal 50A on the transmitting side. In addition, the login request does not necessarily have to be triggered by turning on the power switch, and may be sent according to the user's input to the input means such as the touch panel 515 or the like.

次に、ステップS12において、管理サーバ90の認証部92は、送受信部91を介して受信したログイン要求に含まれている端末IDおよびパスワードを検索キーとして、記憶部9000の認証管理テーブル(図12(a)参照)を検索し、認証管理DB9001に同一の端末IDおよび同一のパスワードが管理されているかを判断することによって認証を行う。以下、表示端末50Aが認証部92によって正当な利用権限を有する端末であると判断された場合について説明する。 Next, in step S12, the authentication unit 92 of the management server 90 retrieves the authentication management table (FIG. 12) of the storage unit 9000 using the terminal ID and password included in the login request received via the transmission/reception unit 91 as search keys. (a)) is searched, and authentication is performed by determining whether the same terminal ID and the same password are managed in the authentication management DB 9001 . A case in which the display terminal 50A is determined by the authentication unit 92 to be a terminal having valid use authorization will be described below.

ステップS13において、記憶・読出部95は、認証部92によって同一の端末ID及び同一のパスワードが管理されていることにより、正当な利用権限を有する開始端末からのログイン要求であると判断された場合、記憶部9000から宛先リスト枠データを読み出す。 In step S13, when the storage/reading unit 95 determines that the login request is from the starting terminal having valid use authority because the authentication unit 92 manages the same terminal ID and the same password. , the destination list box data is read from the storage unit 9000 .

ステップS14において、送受信部91は、認証部92によって得られた認証結果が示された認証結果情報を、通信ネットワーク9を介して、上記ログイン要求してきた表示端末50へ送信する。これにより、表示端末50Aの送受信部51は、認証結果情報を受信する。この認証結果情報には、上記ステップS13によって読み出された宛先リスト枠データが含まれている。そして、ステップS15において、表示端末50Aの記憶・読出部57は、上記ステップS14によって受信された宛先リスト枠データを、記憶部5000に記憶させる。 In step S<b>14 , the transmitting/receiving section 91 transmits authentication result information indicating the authentication result obtained by the authentication section 92 to the display terminal 50 requesting the login via the communication network 9 . Thereby, the transmitting/receiving section 51 of the display terminal 50A receives the authentication result information. This authentication result information includes the destination list frame data read in step S13. Then, in step S15, the storage/readout unit 57 of the display terminal 50A causes the storage unit 5000 to store the destination list frame data received in step S14.

次に、ステップS16において、表示端末50Aの送受信部51は、正当な利用権限を有する端末であると判断された認証結果が示された認証結果情報を受信した場合、通信ネットワーク9を介して管理サーバ90へ、宛先リストの内容を要求する。これにより、管理サーバ90の送受信部91は、宛先リストの内容の要求を受信する。この要求には、表示端末50Aの端末IDが含まれている。 Next, in step S16, the transmitting/receiving unit 51 of the display terminal 50A receives the authentication result information showing the authentication result determined to be a terminal having valid use authority, and manages the terminal through the communication network 9. A request is made to the server 90 for the contents of the destination list. Thereby, the transmission/reception unit 91 of the management server 90 receives the request for the contents of the destination list. This request includes the terminal ID of the display terminal 50A.

次に、ステップS17において、管理サーバ90の記憶・読出部95は、上記ステップS16によって受信された表示端末50Aの端末ID「o01」を検索キーとして、宛先リスト管理テーブル(図13(a))参照を検索し、対応する全ての宛先候補の端末IDを読み出す。さらに、ステップS18において、記憶・読出部95は、ステップS17によって読み出した各端末IDを検索キーとして、端末管理テーブル(図12(b)参照)を検索し、対応する宛先候補の端末名、稼動状態情報および拠点名を読み出す。 Next, in step S17, the storage/readout unit 95 of the management server 90 stores the destination list management table (FIG. 13(a)) using the terminal ID "o01" of the display terminal 50A received in step S16 as a search key. Look up the references and retrieve the terminal IDs of all corresponding destination candidates. Further, in step S18, the storage/readout unit 95 searches the terminal management table (see FIG. 12B) using each terminal ID read out in step S17 as a search key, and finds the corresponding destination candidate terminal name, operating Read status information and site name.

次に、ステップS19において、管理サーバ90の送受信部91は、通信ネットワーク9を介して表示端末50Aへ、宛先リスト内容情報を送信する。これにより、表示端末50Aの送受信部51は、宛先リスト内容情報を受信する。この宛先リスト内容情報には、上記ステップS17,S18によって読み出された、宛先候補の端末ID、宛先候補の端末名、稼動状態情報および拠点名が含まれている。 Next, in step S19, the transmission/reception unit 91 of the management server 90 transmits the destination list content information to the display terminal 50A via the communication network 9. FIG. Thereby, the transmission/reception unit 51 of the display terminal 50A receives the destination list content information. This destination list content information includes the terminal ID of the destination candidate, the terminal name of the destination candidate, the operation status information and the site name read out in steps S17 and S18.

次に、ステップS20において、表示端末50Aの表示制御部53は、上記ステップS15によって記憶部5000に記憶された宛先リスト枠データ、および上記ステップS19によって受信された宛先リスト内容情報を用いて作成された宛先リスト画面500を、ディスプレイ512に表示させる。 Next, in step S20, the display control unit 53 of the display terminal 50A creates a destination list frame data stored in the storage unit 5000 in step S15 and the destination list content information received in step S19. The destination list screen 500 is displayed on the display 512 .

ディスプレイ512には、図15に示すような宛先リスト画面500が表示される。この宛先リスト画面500には、宛先候補ごとに、宛先候補の端末(ロボット10)の稼動状態を示したアイコン、宛先候補の端末の端末ID、宛先候補の宛先名、および宛先候補の端末が位置する拠点名が表されている。なお、上記ステップS19によって、管理サーバ9から送られてきた「端末名」は、図15に示す宛先リスト画面500では、「宛先名」として表示される。 A destination list screen 500 as shown in FIG. 15 is displayed on the display 512 . On this destination list screen 500, for each destination candidate, an icon indicating the operating state of the terminal (robot 10) of the destination candidate, the terminal ID of the terminal of the destination candidate, the destination name of the candidate of the destination, and the position of the terminal of the destination candidate are displayed. The name of the base to be used is shown. The "terminal name" sent from the management server 9 in step S19 is displayed as the "destination name" on the destination list screen 500 shown in FIG.

続いて、図16を用いて、表示端末50における宛先候補の選択から画像データの送受信を開始するまでの処理を説明する。図16は、宛先候補の選択から画像データの送受信を開始するまでの処理を示したシーケンス図である。 Next, processing from selection of a destination candidate on the display terminal 50 to initiation of transmission/reception of image data will be described with reference to FIG. 16 . FIG. 16 is a sequence diagram showing processing from selection of a destination candidate to initiation of transmission/reception of image data.

まず、ステップS31において、表示端末50Aの操作入力受付部52は、ユーザから図15に示した宛先リスト画面の宛先候補(ここでは、ロボット10A-1)の選択を受け付ける。そして、ステップS32において、表示端末50Aの送受信部51は、管理サーバ90に対して、画像データ等の送受信を開始したい旨を示す開始要求を送信する。これにより、管理サーバ90の送受信部91は、開始要求を受信する。また、開始要求には、表示端末50Aの端末ID、および宛先候補の端末の端末IDが含まれている。 First, in step S31, the operation input receiving unit 52 of the display terminal 50A receives selection of a destination candidate (here, the robot 10A-1) on the destination list screen shown in FIG. 15 from the user. Then, in step S32, the transmitting/receiving section 51 of the display terminal 50A transmits to the management server 90 a start request indicating that the transmission/reception of image data or the like is to be started. Thereby, the transmission/reception unit 91 of the management server 90 receives the start request. The start request also includes the terminal ID of the display terminal 50A and the terminal IDs of the destination candidate terminals.

次に、ステップS33において、管理サーバ90の判断部93は、上記ステップS32によって受信された表示端末50Aの端末IDがセッション管理テーブル(図13(b)参照)で管理されているか否かを判断する。ここでは、宛先端末(ロボット10A-1)の端末IDが管理されていない場合について、以下説明を続ける。 Next, in step S33, the determination unit 93 of the management server 90 determines whether or not the terminal ID of the display terminal 50A received in step S32 is managed in the session management table (see FIG. 13(b)). do. Here, the case where the terminal ID of the destination terminal (robot 10A-1) is not managed will be continued.

ステップS34において、宛先候補の端末の端末IDが管理されていない場合、管理サーバ90の作成部94は、新たにセッションIDを作成する。そして、ステップS35において、記憶・読出部95は、セッション管理テーブル(図13(b)参照)に、上記ステップS34によって作成されたセッションID、並びに上記ステップS32によって受信された表示端末50Aの端末IDおよび宛先候補の端末の端末IDを関連づけた新たなレコードを追加記憶する。ここでは、図12(b)に示したように、新たなレコードが追加されることで、セッションID「se3」、および端末ID「o01」,「rA01」が関連づけて管理される。 In step S34, if the terminal ID of the destination candidate terminal is not managed, the creation unit 94 of the management server 90 creates a new session ID. Then, in step S35, the storage/reading unit 95 adds the session ID created in step S34 and the terminal ID of the display terminal 50A received in step S32 to the session management table (see FIG. 13B). and a new record associated with the terminal ID of the destination candidate terminal is additionally stored. Here, as shown in FIG. 12B, by adding a new record, the session ID "se3" and the terminal IDs "o01" and "rA01" are associated and managed.

次に、ステップS36において、管理サーバ90の送受信部91は、表示端末50Aに対して、上記ステップS34によって作成されたセッションIDが含まれたセッション開始指示を送信する。これにより、表示端末50Aの送受信部51は、セッション開始指示を受信する。 Next, in step S36, the transmission/reception unit 91 of the management server 90 transmits a session start instruction including the session ID generated in step S34 to the display terminal 50A. Thereby, the transmission/reception unit 51 of the display terminal 50A receives the session start instruction.

次に、ステップS37において、管理サーバ90の記憶・読出部95は、上記ステップS32によって送られてきた宛先候補の端末(ロボット10A-1)の端末IDを検索キーとして端末管理テーブル(図12(b)参照)を検索することにより、対応するIPアドレスを読み出す。そして、ステップS38において、管理サーバ90の送受信部91は、上記ステップS37によって読み出されたIPアドレスに対して、上記ステップS33によって作成されたセッションIDが含まれたセッション開始指示を送信する。これにより、宛先端末(ロボット10A-1)の送受信部31は、セッション開始指示を受信する。 Next, in step S37, the storage/reading unit 95 of the management server 90 uses the terminal ID of the destination candidate terminal (robot 10A-1) sent in step S32 as a search key to retrieve the terminal management table (see FIG. 12 ( b) retrieve the corresponding IP address by looking up ref. Then, in step S38, the transmission/reception unit 91 of the management server 90 transmits a session start instruction including the session ID created in step S33 to the IP address read out in step S37. As a result, the transmission/reception unit 31 of the destination terminal (robot 10A-1) receives the session start instruction.

以上により、開始端末(表示端末50A)および宛先端末(ロボット10A-1)は、それぞれ管理サーバ90と通信セッションを確立する(ステップS39-1,S39-2)。 As described above, the start terminal (display terminal 50A) and the destination terminal (robot 10A-1) respectively establish communication sessions with the management server 90 (steps S39-1 and S39-2).

〇画像データの送信および表示〇
続いて、管理サーバ90との間で確立されたセッションを用いて、ロボット10から表示端末50へ送信されるデータ、および表示端末50によってロボット10の処理もしくは動作を制御する処理について説明する。図17は、第1の実施形態に係る遠隔制御システムにおいて、表示端末からの要求コマンドに基づくロボットの制御処理の一例を説明するためのフローチャートである。
◯ Transmission and display of image data The processing to be controlled will be explained. FIG. 17 is a flowchart for explaining an example of robot control processing based on a request command from a display terminal in the remote control system according to the first embodiment.

ステップS51において、ロボット10の画像取得部36は、撮影装置21によって取得された画像データ200を取得する。ここで、ロボット10は、撮影指示部35から撮影装置21への撮影指示をトリガーとして、撮影装置21による撮影を開始する。ロボット10の画像取得部36は、撮影装置21によって取得された画像である画像データ200を、撮影装置21から取得する。 In step S<b>51 , the image acquisition unit 36 of the robot 10 acquires the image data 200 acquired by the imaging device 21 . Here, the robot 10 starts photographing by the photographing device 21 with the photographing instruction from the photographing instruction unit 35 to the photographing device 21 as a trigger. The image acquisition unit 36 of the robot 10 acquires image data 200 , which is an image acquired by the imaging device 21 , from the imaging device 21 .

ステップS52-1,52-2において、ロボット10の送受信部31は、確立された管理サーバ90との通信セッションを用いて、画像取得部36によって取得された画像データ200を、表示端末50へ送信する。これにより、表示端末50の送受信部51は、画像データ200を受信する。 In steps S52-1 and S52-2, the transmission/reception unit 31 of the robot 10 transmits the image data 200 acquired by the image acquisition unit 36 to the display terminal 50 using the established communication session with the management server 90. do. Thereby, the transmitting/receiving unit 51 of the display terminal 50 receives the image data 200 .

ステップS53において、表示端末50の表示制御部53は、送受信部51によって受信された画像データ200を、ディスプレイ512の表示画面600に表示させる。これによって、表示端末50を用いてロボット10を遠隔操作する操作者は、ロボット10が位置する拠点の状況を、画像データ200が表示された表示画面600を見ながら確認することができる。なお、同様に、表示端末50は、表示端末50側の拠点が撮影された画像である画像データ250を、ロボット10へ送信する。そして、ロボット10の送受信部31は、画像データ250を受信し、表示制御部33は、受信された画像データ250を、ディスプレイ306aの表示画面400に表示させる。 In step S<b>53 , the display control unit 53 of the display terminal 50 displays the image data 200 received by the transmission/reception unit 51 on the display screen 600 of the display 512 . Thus, the operator who remotely operates the robot 10 using the display terminal 50 can check the status of the site where the robot 10 is located while looking at the display screen 600 on which the image data 200 is displayed. Similarly, the display terminal 50 transmits to the robot 10 image data 250 that is an image of the base on the display terminal 50 side. Then, the transmitting/receiving section 31 of the robot 10 receives the image data 250, and the display control section 33 displays the received image data 250 on the display screen 400 of the display 306a.

ここで、ロボット10および表示端末50に表示される表示画面について説明する。図18(a)は、第1の実施形態に係るロボットに表示される表示画面の画面例の一例を示す図である。ロボット10は、表示制御部33がディスプレイ306aに、図18(a)に示すような表示画面400を表示させる。この表示画面400には、表示端末50から送信された画像データ250を表示される。図18(a)に示すように、表示画面400には、例えば、表示端末50を用いてロボット10を操作する操作者の顔が表示され、表示画面400を見たロボット10の周囲の人は、誰がロボット10を操作しているのかを確認することができる。 Display screens displayed on the robot 10 and the display terminal 50 will now be described. FIG. 18A is a diagram showing an example of a display screen displayed on the robot according to the first embodiment. In the robot 10, the display control unit 33 causes the display 306a to display a display screen 400 as shown in FIG. 18(a). Image data 250 transmitted from the display terminal 50 is displayed on the display screen 400 . As shown in FIG. 18A, the display screen 400 displays, for example, the face of an operator who operates the robot 10 using the display terminal 50, and people around the robot 10 who see the display screen 400 , who is operating the robot 10 can be confirmed.

図18(b)は、第1の実施形態に係る表示端末に表示される表示画面の画面例の一例を示す図である。表示端末50は、表示制御部53がディスプレイ512に、図18(b)に示すような表示画面600を表示させる。この表示画面600には、ロボット10から送信されてきた画像データ200を表示される。図18(b)に示すように、表示画面600には、例えば、ロボット10の周りにいる人々が表示されている。また、表示画面600は、画像データ200の画像の横に、ロボット10の水平方向(前進、後退、右回転、左回転)の移動を要求する場合に押下される移動指示キー601、入力領域603aに入力された位置へのロボット10の移動を要求する場合に押下される「移動」ボタン603b、入力領域605aに入力された向きへロボット10の向きを変更する場合に押下される「回転」ボタン605b、ロボット10を停止させる場合に押下される「停止」ボタン607、ロボット10のスピーカ308bから音を発する場合に押下される「♪」ボタン609を含む。表示端末50を用いてロボット10を操作する操作者は、表示画面600に表示された画像データ200を見て、移動指示キー601等への入力操作を行うことで、ロボット10の移動を制御する。 FIG. 18B is a diagram showing an example of a display screen displayed on the display terminal according to the first embodiment. In the display terminal 50, the display control unit 53 causes the display 512 to display a display screen 600 as shown in FIG. 18(b). Image data 200 transmitted from the robot 10 is displayed on this display screen 600 . As shown in FIG. 18(b), the display screen 600 displays people around the robot 10, for example. The display screen 600 also displays a movement instruction key 601 and an input area 603a next to the image of the image data 200. A "move" button 603b pressed when requesting the movement of the robot 10 to the position input in the input area 605a, and a "rotate" button pressed when changing the direction of the robot 10 to the direction input in the input area 605a. 605b, a "stop" button 607 pressed to stop the robot 10, and a "♪" button 609 pressed to emit a sound from the speaker 308b of the robot 10 are included. An operator who operates the robot 10 using the display terminal 50 controls the movement of the robot 10 by viewing the image data 200 displayed on the display screen 600 and performing an input operation on the movement instruction key 601 or the like. .

なお、図18(b)において、表示画面600に表示された移動指示キー601によってロボット10の移動を操作する例を説明したが、ロボット10の移動操作は、キーボード、またはジョイスティクを備えたゲームパッド等の専用コントローラ等で行われる構成であってもよい。 In FIG. 18B, an example of operating the movement of the robot 10 with the movement instruction key 601 displayed on the display screen 600 has been described, but the movement operation of the robot 10 can be performed by playing a game with a keyboard or a joystick. It may be configured to be performed by a dedicated controller such as a pad.

図17に戻り、ステップS54において、表示端末50の操作入力受付部52は、ディスプレイ512に表示された表示画面600に対する特定の操作入力を受け付ける。例えば、操作入力受付部52は、例えば、表示画面600に含まれる移動指示キー601のいずれかのキーに対する操作入力を受け付ける Returning to FIG. 17 , in step S<b>54 , the operation input reception unit 52 of the display terminal 50 receives a specific operation input for the display screen 600 displayed on the display 512 . For example, the operation input reception unit 52 receives an operation input for any one of the movement instruction keys 601 included in the display screen 600.

ステップS55において、表示端末50の要求コマンド生成部55は、操作入力受付部52によって受け付けられた特定の操作入力に対応する要求コマンドを生成する。具体的には、操作入力受付部52によって特定の操作入力が受け付けられた場合、表示端末50の記憶・読出部57は、記憶部5000に記憶されたユーザコマンドテーブル5001(図11参照)を読み出す。表示端末50の判断部54は、記憶・読出部57によって読み出されたユーザコマンドテーブル5001を検索し、操作入力受付部52によって受け付けられた操作入力に対応する入力コマンドを特定する。そして、判断部54は、ユーザコマンドテーブル5001を検索し、特定した入力コマンドに対応するコマンドを抽出する。そして、要求コマンド生成部55は、抽出されたコマンドを含む要求コマンドを生成する。例えば、操作入力受付部52によって移動指示キー601の「↑(前進)」キーに対する入力が受け付けられた場合、判断部54は、入力コマンドとして「「↑(前進)」キーの押下」を特定する。そして、判断部54は、特定した入力コマンドに対応するコマンドとして、「FORWARD」を抽出する。そして、要求コマンド生成部55は、抽出されたコマンド「FORWARD」を含む要求コマンドを生成する。 In step S<b>55 , the request command generation unit 55 of the display terminal 50 generates a request command corresponding to the specific operation input received by the operation input reception unit 52 . Specifically, when a specific operation input is accepted by the operation input accepting unit 52, the storage/reading unit 57 of the display terminal 50 reads the user command table 5001 (see FIG. 11) stored in the storage unit 5000. . The determination unit 54 of the display terminal 50 searches the user command table 5001 read by the storage/readout unit 57 to identify the input command corresponding to the operation input received by the operation input reception unit 52 . Then, the determination unit 54 searches the user command table 5001 and extracts a command corresponding to the identified input command. Then, the request command generator 55 generates a request command including the extracted command. For example, when the operation input receiving unit 52 receives an input to the “↑ (forward)” key of the movement instruction key 601, the determination unit 54 specifies “pressing the “↑ (forward)” key” as the input command. . Then, the determination unit 54 extracts "FORWARD" as a command corresponding to the identified input command. Then, the request command generator 55 generates a request command including the extracted command "FORWARD".

なお、ステップS55において、判断部54がユーザコマンドテーブル5001を用いて処理を抽出する例を説明したが、表示端末50は、移動指示キー605等の入力キーに付与されたイベントに基づいて、所定の処理を抽出または実行する構成であってもよい。 In step S55, the determination unit 54 uses the user command table 5001 to extract a process, but the display terminal 50 may perform a predetermined may be configured to extract or execute the processing of

ステップS56-1,56-2において、表示端末50の送受信部51は、確立された管理サーバ90との通信セッションを用いて、要求コマンド生成部55によって生成された要求コマンドを、ロボット10へ送信する。これにより、ロボット10の送受信部31は、要求コマンドを受信する。 In steps S56-1 and S56-2, the transmission/reception unit 51 of the display terminal 50 uses the established communication session with the management server 90 to transmit the request command generated by the request command generation unit 55 to the robot 10. do. As a result, the transmitter/receiver 31 of the robot 10 receives the request command.

ステップS57において、ロボット10の記憶・読出部46は、記憶部3000に記憶されたコマンドテーブル3001(図9参照)を読み出す。ステップS58において、ロボット10の判断部34は、記憶・読出部46によって読み出されたコマンドテーブル3001を検索し、送受信部31によって受信された要求コマンドに対応する処理を抽出する。ステップS59において、ロボット10は、上記ステップS58によって抽出された処理を実行する。 In step S<b>57 , the storage/readout unit 46 of the robot 10 reads out the command table 3001 (see FIG. 9) stored in the storage unit 3000 . In step S<b>58 , the determination unit 34 of the robot 10 searches the command table 3001 read by the storage/readout unit 46 and extracts the process corresponding to the request command received by the transmission/reception unit 31 . At step S59, the robot 10 executes the process extracted at step S58.

例えば、送受信部31によって受信された要求コマンドが「FORWARDMOVE」である場合、判断部34は、コマンドテーブル3001を検索して、要求コマンド「FORWARD」に対応する処理を抽出する。この場合、抽出される処理は、「ロボット10を一定量前進させる」である。判断部34は、抽出した処理の実行要求を、移動制御部37へ通知する。そして、移動制御部37は、判断部34によって抽出された処理に基づいて、ロボット10の移動機構17を駆動させる。なお、判断部34によって抽出された処理によって実行要求の通知先は異なる。例えば、送受信部31によって受信された要求コマンドが「SOUND」の場合、実行要求の通知先は、存在通知部45である。 For example, when the request command received by the transmitting/receiving unit 31 is "FORWARDMOVE", the determination unit 34 searches the command table 3001 and extracts the process corresponding to the request command "FORWARD". In this case, the extracted process is "move the robot 10 forward by a certain amount". The determination unit 34 notifies the movement control unit 37 of the execution request for the extracted process. Then, the movement control section 37 drives the movement mechanism 17 of the robot 10 based on the processing extracted by the determination section 34 . Note that the notification destination of the execution request differs depending on the process extracted by the determination unit 34 . For example, when the request command received by the transmitting/receiving unit 31 is “SOUND”, the notification destination of the execution request is the presence notification unit 45 .

これにより、遠隔制御システム1aは、ロボット10が備える撮影装置21によって取得された画像データ200を表示端末50に表示させることによって、表示端末50を用いてロボット10の遠隔操作を行う操作者に対して、ロボット10の周囲の情報をより正確に把握させることができる。また、遠隔制御システム1aは、画像データ200が表示された表示端末50に対する操作者による操作入力が行われることで、ロボット10の周囲の状況を確認しながらロボット10を移動させることができるため、表示端末50を用いてロボット10を操作する操作者にとっての操作性を向上させることができる。 As a result, the remote control system 1a causes the display terminal 50 to display the image data 200 acquired by the photographing device 21 provided in the robot 10, so that the operator who remotely operates the robot 10 using the display terminal 50 can Therefore, information about the surroundings of the robot 10 can be grasped more accurately. In addition, the remote control system 1a can move the robot 10 while confirming the surrounding conditions of the robot 10 by performing an operation input by the operator on the display terminal 50 on which the image data 200 is displayed. The operability for the operator who operates the robot 10 using the display terminal 50 can be improved.

〇ロボット10の位置調整処理〇
〇目標点算出処理
続いて、図19乃至図29を用いて、ロボット10の位置調整処理について説明する。ここで、ロボット10が設置された拠点と表示端末50が設置された拠点との間で遠隔会議が行われているものとする。ロボット10が設置された拠点において、複数の人が会議に参加している場合、会議中に参加者が移動したり話題が切り替わったりすると、複数の人(参加者)が注目する注目点が変わることがある。この場合、遠隔地に位置する表示端末50のユーザは、注目点が変わったとしても、注目点が変わる前の位置を撮影し続けた画像を見ることになるため、遠隔地のユーザが会議から取り残されてしまい、円滑なコミュニケーションの妨げとなる。そこで、遠隔制御システム1aは、ロボット10の周囲に位置する複数の人の注目点に基づいてロボット10を移動させることによって、遠隔地に位置する表示端末50のユーザとの円滑なコミュニケーションを図ることができる。
◯Position Adjustment Processing of Robot 10 ◯◯Target Point Calculation Processing Subsequently, the position adjustment processing of the robot 10 will be described with reference to FIGS. 19 to 29 . Here, it is assumed that a teleconference is being held between the site where the robot 10 is installed and the site where the display terminal 50 is installed. When a plurality of people are participating in a conference at a site where the robot 10 is installed, if the participants move or the topic changes during the conference, the points of interest of the plurality of people (participants) change. Sometimes. In this case, even if the point of interest changes, the user of the display terminal 50 located at a remote location will see the image continuously captured at the position before the change of the point of interest. They will be left behind and hinder smooth communication. Therefore, the remote control system 1a moves the robot 10 based on the attention points of a plurality of people located around the robot 10, thereby achieving smooth communication with the user of the display terminal 50 located at a remote location. can be done.

図19は、第1の実施形態に係るロボットにおける目標点算出処理の一例を説明するためのフローチャートである。ステップS71において、ロボット10の画像取得部36は、撮影装置21によって取得された画像である画像データ200を取得する(取得ステップの一例)。ステップS72において、ロボット10の画像処理部41は、画像取得部36によって取得された画像データ200に含まれる人物の頭の画像を抽出する。具体的には、画像処理部41は、画像取得部36によって取得された画像データ200と、予め記憶された人物の頭の画像パターンとを照合し、類似する画像領域を、図20(a)に示すような人物の頭の画像として抽出する。図20(a)に示す処理データ800aには、a1~a4の四つの人物の頭の画像が含まれる。 FIG. 19 is a flowchart for explaining an example of target point calculation processing in the robot according to the first embodiment. In step S71, the image acquisition unit 36 of the robot 10 acquires the image data 200, which is the image acquired by the imaging device 21 (an example of an acquisition step). In step S<b>72 , the image processing unit 41 of the robot 10 extracts the image of the person's head included in the image data 200 acquired by the image acquiring unit 36 . Specifically, the image processing unit 41 collates the image data 200 acquired by the image acquisition unit 36 with a pre-stored image pattern of a person's head, and detects a similar image region as shown in FIG. is extracted as an image of a person's head as shown in . The processed data 800a shown in FIG. 20(a) includes images of the heads of four persons a1 to a4.

ステップS73において、ロボット10の注目点算出部42は、画像処理部41によって抽出された頭の画像の大きさ、および画像データ200内における人物の頭の画像の位置を算出する。具体的には、注目点算出部42は、画像処理部41によって処理された処理データ800aに基づいて、人物の頭の画像の大きさと、人物の頭の画像の位置を算出する。人物の頭の画像の位置は、例えば、画像データ200の中心の座標を(0,0)とし、右上の座標を(100,100)とし、左下の座標を(-100,-100)として算出される。例えば、図20(a)に示した処理データ800aにおける、注目点算出部42によって算出された人物の頭の画像(a1~a4)の位置および大きさは、図20(b)示す値となる。 In step S<b>73 , the attention point calculation unit 42 of the robot 10 calculates the size of the head image extracted by the image processing unit 41 and the position of the person's head image in the image data 200 . Specifically, the attention point calculation unit 42 calculates the size of the person's head image and the position of the person's head image based on the processed data 800 a processed by the image processing unit 41 . The position of the image of the person's head is calculated, for example, by setting the center coordinates of the image data 200 to (0, 0), the upper right coordinates to (100, 100), and the lower left coordinates to (-100, -100). be done. For example, in the processed data 800a shown in FIG. 20(a), the positions and sizes of the images of the person's head (a1 to a4) calculated by the attention point calculation unit 42 are the values shown in FIG. 20(b). .

ステップS74において、ロボット10の注目点算出部42は、画像データ200に含まれる人物の頭の画像の空間上の相対位置を特定する。例えば、注目点算出部42は、上記ステップS73において算出された画像データ200内の座標(X,Y)と頭の大きさrとを用いて、画像データ200内の人物の頭の画像の位置を、空間上の相対位置(x,y)に変換する。空間上の相対位置(x,y)への変換方法は、一例として、以下(1)および(2)のヒューリスティックスを用いる。 In step S<b>74 , the point-of-interest calculator 42 of the robot 10 identifies the spatial relative position of the image of the person's head included in the image data 200 . For example, the attention point calculation unit 42 calculates the position of the person's head image in the image data 200 using the coordinates (X, Y) in the image data 200 calculated in step S73 and the head size r. to a relative position (x, y) in space. The following heuristics (1) and (2) are used as an example of the conversion method to the spatial relative position (x, y).

(1)頭の大きさrが小さいほど遠くにあるものとする(人による頭の大きさの差異は無視する)。
(2)遠近法を無視して、X座標の値がプラスであればロボット10の右側(マイナスであればロボット10の左側)、Y座標が大きければ奥にあるものとする。
(1) It is assumed that the smaller the head size r, the farther it is (ignoring the difference in head size between people).
(2) Ignoring perspective, if the value of the X coordinate is positive, it is on the right side of the robot 10 (if it is negative, it is on the left side of the robot 10), and if the Y coordinate is large, it is on the far side.

上記(1)と(2)の条件に基づく算出式は、以下の(式1)のようになる。なお、k1,k2は所定の係数である。ここでは、k1=0.2,k2=1000とする。 A calculation formula based on the above conditions (1) and (2) is as shown in (Formula 1) below. Note that k1 and k2 are predetermined coefficients. Here, k1=0.2 and k2=1000.

Figure 2022141639000002
Figure 2022141639000002

注目点算出部42は、上記の(式1)を用いて、人物の頭の画像の空間上の相対位置(x,y)を特定する。特定された相対位置を示す座標情報(x,y)を、図21(a)に示す。また、図21(b)は、特定された相対位置を概略的に示した処理データ810である。図21(b)に示す処理データ810は、画像データ200の中心位置S(0,0)を基準とした、人物の頭の画像a1~a4とロボットRとの相対位置を視覚化したものである。 The point-of-interest calculator 42 identifies the spatial relative position (x, y) of the image of the person's head using the above (formula 1). Coordinate information (x, y) indicating the specified relative position is shown in FIG. FIG. 21(b) is processed data 810 schematically showing the identified relative positions. The processed data 810 shown in FIG. 21B visualizes the relative positions of the human head images a1 to a4 and the robot R with reference to the central position S (0, 0) of the image data 200. be.

ステップS75において、ロボット10の画像処理部41は、上記ステップ71によって取得された画像データ200に含まれる人物の目を鼻の画像を抽出する。具体的には、画像処理部41は、画像取得部36によって取得された画像データ200と、予め記憶された人物の目と鼻の画像パターンとを照合し、類似する画像領域を、図22(a)に示すような人物の目と鼻の画像として抽出する。図22(a)に示す処理データ800bには、ステップS72によって抽出された四つの人物の頭の画像(a1~a4)に対する目と鼻の画像が含まれる。 In step S<b>75 , the image processing unit 41 of the robot 10 extracts an image of the person's eyes and nose included in the image data 200 acquired in step S<b>71 . Specifically, the image processing unit 41 collates the image data 200 acquired by the image acquisition unit 36 with a pre-stored image pattern of a person's eyes and nose, and detects a similar image region as shown in FIG. Extract as an image of a person's eyes and nose as shown in a). The processed data 800b shown in FIG. 22(a) includes the eye and nose images for the four person head images (a1 to a4) extracted in step S72.

ステップS76において、ロボット10の注目点算出部42は、画像処理部41によって抽出された目と鼻の位置から、それぞれの人物の向きを特定する。人物の向きの特定は、一例として、以下(1)および(2)のヒューリスティックスを用いる。 In step S<b>76 , the attention point calculation unit 42 of the robot 10 identifies the orientation of each person from the positions of the eyes and nose extracted by the image processing unit 41 . As an example, the following heuristics (1) and (2) are used to specify the orientation of a person.

(1)目が二つであれば正面(ロボット10の向きと逆方向)を、一つなら左右どちらかを、ゼロなら後ろ(ロボット10の向きと同じ方向)を向いているものとする。
(2)目が一つで鼻があれば、鼻のある方向を向いているものとする(向きは、正面を0°とし、時計回りに360°まで)。
(1) If it has two eyes, it faces the front (opposite to the direction of the robot 10); if it has one, it faces either left or right;
(2) If an animal has one eye and a nose, it is assumed that it faces the direction of the nose (the direction is 0° from the front and up to 360° clockwise).

上記(1)と(2)の条件に基づいて、図22(b)に示すような人の向きの特定が行われる。例えば、a1は、目の数が一つで鼻が右方向に向いているため、a1の向き(θ)は、90°となる。 Based on the above conditions (1) and (2), the direction of the person is identified as shown in FIG. 22(b). For example, since a1 has one eye and the nose faces rightward, the orientation (θ) of a1 is 90°.

これによって、ロボット10の注目点算出部42は、画像データ200に対応する人物の相対位置と向きを近似的に求めることができる。図23(a)は、注目点算出部42によって特定された相対位置および向きの情報である。図23(b)は、それぞれの人物の相対位置(x,y)と向き(θ)を、概略的に示した処理データ820である。図23(a)に示すように、a1の相対位置(x,y)は、(0,60)であり、向き(θ)は、90°である。b1の相対位置(x,y)は、(90,76.7)であり、向き(θ)は、180°である。c1の相対位置(x,y)は、(-20,42)であり、向き(θ)は、0°である。d1の相対位置(x,y)は、(70,51)であり、向き(θ)は、0°である。 Thereby, the point-of-interest calculation unit 42 of the robot 10 can approximately obtain the relative position and orientation of the person corresponding to the image data 200 . FIG. 23( a ) is information on the relative position and orientation specified by the attention point calculation unit 42 . FIG. 23(b) is processed data 820 schematically showing the relative position (x, y) and orientation (θ) of each person. As shown in FIG. 23(a), the relative position (x, y) of a1 is (0, 60) and the orientation (θ) is 90°. The relative position (x, y) of b1 is (90, 76.7) and the orientation (θ) is 180°. The relative position (x, y) of c1 is (-20, 42) and the orientation (θ) is 0°. The relative position (x, y) of d1 is (70, 51) and the orientation (θ) is 0°.

これにより、ロボット10は、ロボット10の周囲に位置する人の位置および向きを、簡易的に推定することができる。なお、ロボット10の周囲に位置する人の位置および向きの推定方法は、これに限られず、遠近法を取り入れたり、ステレオカメラによって撮影されたステレオ画像を用いたりする等の方法であってもよい。また、レーザ等の光線を用いて距離を測る方法や、拠点内にカメラを複数配置して複数の画像から人の位置および向き算出する等の方法であってもよい。 Thereby, the robot 10 can easily estimate the position and orientation of a person positioned around the robot 10 . Note that the method of estimating the position and orientation of a person positioned around the robot 10 is not limited to this, and may be a method such as adopting a perspective method or using a stereo image captured by a stereo camera. . Alternatively, a method of measuring a distance using a light beam such as a laser, or a method of arranging a plurality of cameras in a site and calculating a person's position and orientation from a plurality of images may be used.

ここで、ロボット10の周囲に位置する人の位置および向きの推定方法の別の例について説明する。ロボット10は、ロボット10が位置する拠点に設置されたビーコン等を用いて、ロボット10の周囲に位置する人の位置および向きを推定(算出)してもよい。図24(a)は、ビーコンが拠点内に設置された場合における、ロボット10の周囲に位置する人の位置および向きを推定する処理の一例を説明するための図である。 Here, another example of a method for estimating the position and orientation of a person positioned around the robot 10 will be described. The robot 10 may estimate (calculate) the position and orientation of a person located around the robot 10 using a beacon or the like installed at a base where the robot 10 is located. FIG. 24A is a diagram for explaining an example of processing for estimating the positions and orientations of people positioned around the robot 10 when beacons are installed in a base.

図24に示す例において、拠点(例えば、閉じられた部屋等の空間)1100には、各所に、所定の電波を発信するビーコンが設置されている。拠点1100内に位置する会議等の参加者(h1~h4)は、ビーコンから発信される電波の受信機能とジャイロセンサを有するスマートフォン等の通信端末を保持している。また、会議等の参加者(h1~h4)は、胸ポケットや腰のベルト等の特定の位置に通信端末を身に着けるで、体の向きと通信端末の向きが連動するようにする。 In the example shown in FIG. 24, a base (for example, a space such as a closed room) 1100 is provided with beacons for transmitting predetermined radio waves. Participants (h1 to h4) of a conference or the like located in the base 1100 have communication terminals such as smartphones having a function of receiving radio waves transmitted from beacons and a gyro sensor. Also, the participants (h1 to h4) of the conference or the like wear the communication terminal at a specific position such as a chest pocket or a waist belt so that the orientation of the body and the orientation of the communication terminal are linked.

これにより、会議等の参加者(h1~h4)が保持する通信端末は、複数のビーコンから発信される電波の強度から通信端末(参加者)の位置を取得することができる。また、会議等の参加者(h1~h4)が保持する通信端末は、ジャイロセンサかの情報から通信端末(参加者)の向きを取得することができる。そして、拠点1100内に位置するロボット10は、各参加者(h1~h4)が保持する通信端末のそれぞれから送信される、参加者(h1~h4)の位置と向きの情報を受信(取得)することができる。 As a result, the communication terminals held by the participants (h1 to h4) of the conference or the like can acquire the positions of the communication terminals (participants) from the strength of radio waves transmitted from a plurality of beacons. Also, the communication terminals held by the participants (h1 to h4) of the conference can acquire the directions of the communication terminals (participants) from the information from the gyro sensors. Then, the robot 10 located in the base 1100 receives (acquires) information on the positions and orientations of the participants (h1 to h4) transmitted from each communication terminal held by each participant (h1 to h4). can do.

図24(b)は、図24(a)に示した方法によって特定された、それぞれの人物(h1~h4)の相対位置(x,y)および向き(θ)の情報である。図24(b)に示すように、h1の相対位置(x,y)は、(5,17)であり、向き(θ)は、45°である。h2の相対位置(x,y)は、(18,18)であり、向き(θ)は、240°である。h3の相対位置(x,y)は、(5,12)であり、向き(θ)は、60°である。h4の相対位置(x,y)は、(15,12)であり、向き(θ)は、330°である。 FIG. 24(b) shows information on the relative position (x, y) and orientation (θ) of each person (h1 to h4) specified by the method shown in FIG. 24(a). As shown in FIG. 24(b), the relative position (x, y) of h1 is (5, 17) and the orientation (θ) is 45°. The relative position (x, y) of h2 is (18, 18) and the orientation (θ) is 240°. The relative position (x, y) of h3 is (5, 12) and the orientation (θ) is 60°. The relative position (x, y) of h4 is (15, 12) and the orientation (θ) is 330°.

なお、以下の説明において、注目点算出部42によって算出された相対位置を示す座標情報(x,y)および向き(θ)の値は、図24(b)に示した値を用いる。 In the following description, values shown in FIG. 24B are used for the coordinate information (x, y) indicating the relative position calculated by the target point calculation unit 42 and the direction (θ).

図19に戻り、ロボット10による目標点算出処理の説明を続ける。ステップS77以降の処理において、ロボット10は、ロボット10の周囲の複数の人の注目点を算出する。注目点は、ロボット10が設置された拠点において複数の人が注目している位置であり、例えば、ロボット10の周囲の複数の人が向いている方向である。注目点は、例えば、遠隔会議において、ロボット10側の拠点での複数の参加者が向いている方向、すなわち、ある時点における話題の中心位置である。 Returning to FIG. 19, the description of the target point calculation process by the robot 10 is continued. In the process after step S77, the robot 10 calculates attention points of a plurality of people around the robot 10. FIG. The point of interest is a position that a plurality of people are paying attention to at a base where the robot 10 is installed, for example, a direction that a plurality of people around the robot 10 are facing. The point of interest is, for example, the direction in which a plurality of participants at the base on the robot 10 side are facing in a teleconference, that is, the central position of the topic at a certain point in time.

ステップS77において、ロボット10の画像処理部41は、注目点算出部42によって特定されたそれぞれの人物(h1~h4)の相対位置から、注目点算出部42によって特定されたそれぞれの人物(h1~h4)の向き(θ)の方向に伸ばした直線の交点を算出する。算出された結果は、図25に示される。図25には、点の組合せと、交点の座標(x,y)が記載されている。なお、人物の向きの方向は、一方向なので、h1とh2、h2とh3の組合せのように、交点が無い場合もある。 In step S77, the image processing unit 41 of the robot 10 calculates each person (h1 to h4) specified by the attention point calculation unit 42 from the relative position of each person (h1 to h4) specified by the attention point calculation unit h4) Calculates the intersection of straight lines extended in the direction (θ). The calculated results are shown in FIG. FIG. 25 describes combinations of points and the coordinates (x, y) of intersection points. Since the orientation of the person is in one direction, there may be cases where there is no intersection, such as combinations of h1 and h2 and h2 and h3.

ステップS78において、ロボット10の注目点算出部42は、算出した交点のうち、最も多くの方向から得られた交点が複数存在する場合、処理をステップS79へ移行させる。一方で、注目点算出部42は、算出した交点のうち、最も多くの方向から得られた交点が一つの場合、処理をステップS80へ移行させる。 In step S78, the point-of-interest calculation unit 42 of the robot 10 causes the process to proceed to step S79 when there are a plurality of intersection points obtained from the largest number of intersection points among the calculated intersection points. On the other hand, if the point of interest calculation unit 42 has one intersection point obtained from the most directions among the calculated intersection points, the process proceeds to step S80.

具体的には、まず、注目点算出部42は、上記ステップS77によって算出された交点のうち距離が近い座標をまとめる。まとめられた結果の座標は、例えば、それぞれの交点の座標の平均値である。図26(a)は、上記処理によってまとめられた交点の位置を示す座標情報である。図26(b)は、上記処理によって、まとめられた交点の位置を、概略的に示した処理データ830である。図26(a)に示すように、h1とh3とh4から伸ばした直線の交点は、A(10.5,18)であり、h2とh4から伸ばした直線の交点は、B(14,12)である。 Specifically, first, the point-of-interest calculation unit 42 puts together the coordinates of the points of intersection calculated in step S77 that are close to each other. The coordinates of the aggregated result are, for example, the mean values of the coordinates of the respective intersection points. FIG. 26(a) shows coordinate information indicating the positions of the intersection points compiled by the above process. FIG. 26(b) is processed data 830 schematically showing the positions of the intersections collected by the above process. As shown in FIG. 26(a), the intersection point of straight lines extending from h1, h3, and h4 is A(10.5, 18), and the intersection point of straight lines extending from h2 and h4 is B(14, 12 ).

そして、注目点算出部42は、距離の近い交点をまとめた点(交点)のうち、最も多くの方向から得られた交点を抽出する。図26(a)の場合、交点Aは、三つの方向(h1,h2,h3)から得られた交点であり、交点Bは、二つの方向(h2,h4)から得られた交点である。そのため、注目点算出部42は、最も多くの方向から得られた交点は、一つ(交点A)であるため、処理をステップS80へ移行させる。 Then, the point-of-interest calculation unit 42 extracts the intersection point obtained from the largest number of directions among the points (intersection points) in which the intersection points that are close to each other are collected. In the case of FIG. 26(a), the intersection point A is the intersection point obtained from the three directions (h1, h2, h3), and the intersection point B is the intersection point obtained from the two directions (h2, h4). Therefore, the attention point calculation unit 42 shifts the process to step S80 because the number of intersections obtained from the largest number of directions is one (intersection point A).

ステップS80において、注目点算出部42は、最も多くの方向から得られた交点である交点Aを、注目点として特定する。一方で、ステップS79において、注目点算出部42は、最も多くの方向から得られた複数の交点の間の中心位置の座標を、注目点として特定する。 In step S80, the attention point calculation unit 42 specifies the intersection point A, which is the intersection point obtained from the largest number of directions, as the attention point. On the other hand, in step S79, the target point calculation unit 42 specifies, as a target point, the coordinates of the central position between the plurality of intersections obtained from the most directions.

なお、ステップ77において、注目点算出部42は、算出した交点のうち距離が近い交点の座標をまとめる処理を行ったが、算出した交点をそのまま用いて最も多くの方向から得られた交点を注目点として特定してもよい。 Note that in step 77, the point-of-interest calculation unit 42 performed a process of summarizing the coordinates of the intersections with the shortest distance among the calculated intersections. May be specified as a point.

これにより、遠隔制御システム1aは、ロボット10が備える撮影装置21によって取得された画像データ200を用いて、ロボット10の周囲に位置する複数の人が注目する注目点を算出することができる。そのため、遠隔制御システム1aは、例えば、ロボット10と表示端末50を用いた遠隔会議等において、ロボット10が設置された拠点側における複数の参加者が注目している箇所を把握することができる。 Thereby, the remote control system 1a can calculate attention points that a plurality of people positioned around the robot 10 pay attention to, using the image data 200 acquired by the imaging device 21 provided in the robot 10 . For this reason, the remote control system 1a can, for example, grasp the location where a plurality of participants are paying attention at the site where the robot 10 is installed in a remote conference using the robot 10 and the display terminal 50.

続いて、注目点算出部42によって算出された注目点を用いて、ロボット10の移動先を特定する処理を説明する。ステップS81において、ロボット10の目標点算出部43は、注目点算出部42によって算出された注目点の位置に基づいて、ロボット10の移動先となる目標点を特定する。目標点は、例えば、ロボット10の移動先の目標位置G(X,Y)を示す位置情報と、ロボット10の移動先におけるロボット10の向き(θ)を示す方向情報を含む。具体的には、目標点算出部43は、図27(b)に示すように、注目点Aとロボット10の位置を結ぶ線上において、注目点Aからの距離pだけ離れた位置を目標位置G(X,Y)として算出する。ここで、距離pは、例えば、それぞれの人物(h1~h4)の位置と注目点Aとの距離の平均値である。人物(h1~h4)の位置は、注目点算出部42によって算出された相対位置(x,y)を用いる。また、目標点算出部43は、ロボット10の現在位置から見た注目点Aの方向を、ロボット10の向き(θ)として算出する。目標点算出部43によって特定された目標点(目標位置Gおよび向き)は、例えば、図27(a)に示す値になる。この場合、目標位置G(X,Y)は、(6,11)であり、ロボット10の向き(θ)は、35°である。 Next, a process of specifying the movement destination of the robot 10 using the attention points calculated by the attention point calculation unit 42 will be described. In step S<b>81 , the target point calculation unit 43 of the robot 10 identifies a target point to which the robot 10 moves based on the position of the target point calculated by the target point calculation unit 42 . The target point includes, for example, position information indicating the target position G (X, Y) of the destination of the robot 10 and direction information indicating the orientation (θ) of the robot 10 at the destination of the robot 10 . Specifically, as shown in FIG. 27(b), the target point calculation unit 43 sets a position apart from the target point A by a distance p on a line connecting the target point A and the position of the robot 10 to the target position G Calculate as (X, Y). Here, the distance p is, for example, the average value of the distances between the position of each person (h1 to h4) and the point of interest A. FIG. For the positions of the persons (h1 to h4), the relative positions (x, y) calculated by the point-of-interest calculator 42 are used. The target point calculation unit 43 also calculates the direction of the point of interest A viewed from the current position of the robot 10 as the orientation (θ) of the robot 10 . The target point (target position G and orientation) specified by the target point calculator 43 has, for example, the values shown in FIG. 27(a). In this case, the target position G (X, Y) is (6, 11) and the orientation (θ) of the robot 10 is 35°.

なお、目標点算出部43によって算出されるロボット10の向きは、注目点Aの方向に限られず、注目点算出部42によって算出された複数の人物の向きの平均方向としてもよい。 Note that the orientation of the robot 10 calculated by the target point calculation unit 43 is not limited to the direction of the attention point A, and may be the average direction of the orientations of a plurality of persons calculated by the attention point calculation unit 42 .

これにより、遠隔制御システム1aは、ロボット10の周囲に位置する複数の人が注目する注目点に基づいて、ロボット10の移動先である目標点を算出することができる。そのため、遠隔制御システム1aは、例えば、ロボット10と表示端末50を用いた遠隔会議等において、ロボット10が設置された拠点側における複数の参加者が注目している箇所に基づいて、ロボット10の移動先を特定することができる。 Thereby, the remote control system 1a can calculate the target point to which the robot 10 is to move, based on the points of interest that a plurality of people positioned around the robot 10 pay attention to. Therefore, the remote control system 1a, for example, in a remote conference or the like using the robot 10 and the display terminal 50, based on the location where a plurality of participants are paying attention on the side of the base where the robot 10 is installed, the robot 10 A destination can be specified.

〇目標点への移動処理
続いて、目標点算出部43によって特定された目標点へ向けてロボット10を移動させる処理について説明する。図28は、第1の実施形態に係るロボットにおける移動処理の一例を説明するためのフローチャートである。
O Moving Process to Target Point Next, the process of moving the robot 10 toward the target point specified by the target point calculation unit 43 will be described. 28 is a flowchart for explaining an example of movement processing in the robot according to the first embodiment; FIG.

ステップS101において、ロボット10の目標点算出部43は、算出した目標位置G(X,Y)に向けての移動経路を算出する。 In step S101, the target point calculator 43 of the robot 10 calculates a movement route toward the calculated target position G(X, Y).

ステップS102において、ロボット10は、算出した移動経路に基づいて移動する。まず、ロボット10の向き調整部38は、目標点算出部43によって算出された移動経路に対する進行方向に対して、移動機構17の回転等を行うことによって、ロボット10の向きを変更する。そして、ロボット10の移動制御部37は、向き調整部38による進行方向への向きの変更が完了した場合、移動機構17を駆動させることによって、ロボット10を移動させる。移動制御部37は、目標点算出部43によって算出された移動経路に対応する移動コマンドを、移動機構17に対して随時発行(送信)することで、算出された移動経路に沿ってロボット10を移動させる。 At step S102, the robot 10 moves based on the calculated movement path. First, the orientation adjustment unit 38 of the robot 10 changes the orientation of the robot 10 by rotating the movement mechanism 17 or the like with respect to the traveling direction with respect to the movement path calculated by the target point calculation unit 43 . Then, when the orientation adjustment section 38 completes the change of the direction to the traveling direction, the movement control section 37 of the robot 10 moves the robot 10 by driving the movement mechanism 17 . The movement control unit 37 issues (transmits) a movement command corresponding to the movement route calculated by the target point calculation unit 43 to the movement mechanism 17 at any time, thereby moving the robot 10 along the calculated movement route. move.

ステップS103において、ロボット10の周辺情報検出部44は、ロボット10の移動中において、障害物を検出した場合、処理をステップS104へ移行させる。具体的には、周辺情報検出部44は、撮影装置21によって取得された画像データ200や各種センサ106によって検出された検出結果を用いて、ロボット10の移動経路に存在する障害物を検出する。障害物は、例えば、拠点内に設置された装置もしくは物体等、または拠点内に位置する人等である。ステップS104において、ロボット10の移動制御部37は、周辺情報検出部44によって障害物が検出された場合、ロボット10を停止させる。 In step S103, when the peripheral information detection unit 44 of the robot 10 detects an obstacle while the robot 10 is moving, the process proceeds to step S104. Specifically, the peripheral information detection unit 44 detects obstacles present in the movement path of the robot 10 using the image data 200 acquired by the imaging device 21 and the detection results detected by the various sensors 106 . Obstacles are, for example, devices or objects installed within the base, or people located within the base. In step S<b>104 , the movement control unit 37 of the robot 10 stops the robot 10 when an obstacle is detected by the peripheral information detection unit 44 .

これにより、ロボット10は、目標位置Gへ向けて移動している途中において、障害物を検出した場合、検出した障害物の手前で停止するため、障害物との接触を避けることができる。この場合、ロボット10は、一旦停止した後、周辺情報検出部44によって障害物がなくなったことが検出された場合、再び目標位置Gへ向けての移動を再開してもよい。また、ロボット10は、一旦停止した後、周辺情報検出部44によって検出された障害物が、所定の時間経過してもなくならない場合、目標点算出部43によって算出された移動経路を変更する構成であってもよい。 As a result, when the robot 10 detects an obstacle while moving toward the target position G, the robot 10 stops in front of the detected obstacle, thereby avoiding contact with the obstacle. In this case, the robot 10 may resume moving toward the target position G again when the peripheral information detection unit 44 detects that the obstacle has disappeared after the robot 10 has temporarily stopped. Further, the robot 10 is configured to change the moving route calculated by the target point calculation unit 43 if the obstacle detected by the peripheral information detection unit 44 does not disappear after a predetermined time has elapsed after the robot 10 has temporarily stopped. may be

一方で、ステップS103において、周辺情報検出部44は、ロボット10の移動中において、障害物を検出しない場合、処理をステップS105へ移行させる。この場合、ロボット10の移動制御部37は、目標位置Gに向けてのロボット10の移動制御を継続する。 On the other hand, in step S103, if the surrounding information detection unit 44 does not detect an obstacle while the robot 10 is moving, the process proceeds to step S105. In this case, the movement control unit 37 of the robot 10 continues movement control of the robot 10 toward the target position G.

ステップS105において、ロボット10の移動制御部37は、ロボット10が目標位置Gに到達した場合、処理をステップS106へ移行させる。一方で、移動制御部37は、ロボット10が目標位置Gに到達していない場合、ステップS103からの処理を繰り返し、目標位置Gに向けてのロボット10の移動制御を継続する。 In step S105, when the robot 10 reaches the target position G, the movement control unit 37 of the robot 10 causes the process to proceed to step S106. On the other hand, if the robot 10 has not reached the target position G, the movement control unit 37 repeats the processing from step S103 and continues controlling the movement of the robot 10 toward the target position G.

ステップS106において、ロボット10の移動制御部37は、ロボット10が目標位置Gに到達した場合、ロボット10を停止させる。ステップS107において、ロボット10の向き調整部38は、目標点算出部43によって算出された向き(図27(a)参照)に、ロボット10の向きを変更する。具体的には、向き調整部38は、移動機構17の回転等を行うことによって、目標点算出部43によって算出された向き(θ)を示す方向情報に基づいて、ロボット10の向きを変更する。そして、ロボット10の送受信部31は、移動した目標点において撮影装置21によって撮影されて取得された画像データ200を、通信ネットワーク9を介して、表示端末50へ送信する。これによって、表示端末50は、ロボット10の移動先である目標点において、ロボット10の周囲を撮影して取得された画像データ200を表示することができる。 In step S<b>106 , the movement control unit 37 of the robot 10 stops the robot 10 when the robot 10 reaches the target position G. In step S107, the orientation adjustment unit 38 of the robot 10 changes the orientation of the robot 10 to the orientation calculated by the target point calculation unit 43 (see FIG. 27A). Specifically, the orientation adjustment unit 38 rotates the moving mechanism 17 to change the orientation of the robot 10 based on the orientation information indicating the orientation (θ) calculated by the target point calculation unit 43. . The transmitting/receiving unit 31 of the robot 10 then transmits the image data 200 captured by the imaging device 21 at the moved target point to the display terminal 50 via the communication network 9 . Thereby, the display terminal 50 can display the image data 200 acquired by capturing the surroundings of the robot 10 at the target point to which the robot 10 moves.

したがって、遠隔制御システム1aは、目標点算出部43によって算出された目標点へロボット10を移動させることができる。そのため、遠隔制御システム1aは、ロボット10が位置する拠点における複数の参加者の注目点に基づいて、ロボット10を移動させることができるとともに、遠隔地の表示端末50に注目点およびその近傍を撮影した画像を表示させることができるので、遠隔拠点間の円滑なコミュニケーションを実現することができる。 Therefore, the remote control system 1 a can move the robot 10 to the target point calculated by the target point calculator 43 . Therefore, the remote control system 1a can move the robot 10 based on the points of interest of a plurality of participants at the site where the robot 10 is located, and can photograph the points of interest and their vicinity on the remote display terminal 50. Since the image can be displayed, it is possible to realize smooth communication between remote bases.

なお、図4に示したロボット10bのように移動機構17を有さない場合、ロボット10b(伝送端末)は、目標点算出部43によって算出された目標点のうち、人物の向き(θ)を示す方向情報のみを用いて、ロボット10bの向きを方向情報が示す変更先の向きに変更する構成であってもよい。 When the robot 10b shown in FIG. 4 does not have the movement mechanism 17, the robot 10b (transmission terminal) calculates the direction (θ) of the person from among the target points calculated by the target point calculation unit 43. The configuration may be such that only the indicated direction information is used to change the direction of the robot 10b to the change destination direction indicated by the direction information.

〇存在通知処理
続いて、ロボット10が目標点への移動している場合において、ロボット10から自らの存在を周囲に通知する処理を説明する。図29は、第1の実施形態に係るロボットにおける存在通知処理の一例を説明するためのフローチャートである。
O Presence Notification Processing Next, a description will be given of processing for notifying the surroundings of the existence of the robot 10 when the robot 10 is moving to the target point. FIG. 29 is a flowchart for explaining an example of presence notification processing in the robot according to the first embodiment.

ステップS121において、ロボット10の位置特定部39は、ロボット10の現在位置を特定する。具体的には、位置特定部39は、加速度・方位センサ103またはGPS受信部104によって検出される各方位(方位角、磁北)の方向等の検出結果に基づいて、ロボット10の現在位置を特定する。ステップS122において、ロボット10の位置特定部39は、特定したロボット10の現在位置と、注目点算出部42によって算出された注目点Aとの距離を算出する。 In step S<b>121 , the position specifying unit 39 of the robot 10 specifies the current position of the robot 10 . Specifically, the position specifying unit 39 specifies the current position of the robot 10 based on the detection results such as the direction of each direction (azimuth, magnetic north) detected by the acceleration/direction sensor 103 or the GPS receiving unit 104. do. In step S<b>122 , the position specifying unit 39 of the robot 10 calculates the distance between the specified current position of the robot 10 and the attention point A calculated by the attention point calculation unit 42 .

ステップS123において、ロボット10は、位置特定部39によって算出された距離が、所定の閾値以上または所定の閾値より長い場合、処理をステップS124に移行させる。一方で、ロボット10は、位置特定部39によって算出された距離が、所定の閾値より短いまたは所定の閾値以下の場合、ステップS121からの処理を繰り返す。 In step S123, if the distance calculated by the position specifying unit 39 is greater than or equal to a predetermined threshold value, the robot 10 causes the process to proceed to step S124. On the other hand, if the distance calculated by the position specifying unit 39 is shorter than the predetermined threshold or equal to or less than the predetermined threshold, the robot 10 repeats the processing from step S121.

ステップS124において、ロボット10の存在通知部45は、ロボット10の存在を通知する通知情報を出力する。具体的には、存在通知部45は、通知情報として、スピーカ308bから音信号を出力する。また、存在通知部45は、通知情報として、移動機構17、もしくは可動アーム11または回転軸12を駆動させることにより、所定のジェスチャーを行う。なお、存在通知部45による通知情報の出力方法は、これに限られない。 In step S<b>124 , the presence notification unit 45 of the robot 10 outputs notification information for notifying the presence of the robot 10 . Specifically, the presence notification unit 45 outputs a sound signal from the speaker 308b as the notification information. Further, the presence notification unit 45 performs a predetermined gesture by driving the moving mechanism 17, the movable arm 11, or the rotating shaft 12 as notification information. Note that the method of outputting notification information by the presence notification unit 45 is not limited to this.

これにより、ロボット10は、注目点から大きく離れている場合、ロボット10の存在を周囲の人に知らせながら注目点に近づくことで、ロボット10が急に現れたりすることによって周囲の人を驚かすことを防止することができる。また、ロボット10は、注目点に近づくことによる、会議等の進行を妨げることを予防することができる。 As a result, when the robot 10 is far away from the point of interest, the robot 10 approaches the point of interest while informing the surrounding people of the existence of the robot 10, so that the robot 10 suddenly appears and surprises the surrounding people. can be prevented. In addition, the robot 10 can prevent the progress of a meeting or the like from being disturbed by approaching the point of interest.

なお、ロボット10の存在通知部45は、ロボット10の現在位置と注目点までの距離が、所定の閾値以下または所定の閾値より短くなった場合に、ロボットの存在を通知する構成にしてもよい。 Note that the presence notification unit 45 of the robot 10 may be configured to notify the presence of the robot when the distance between the current position of the robot 10 and the point of interest is equal to or less than a predetermined threshold value or shorter than a predetermined threshold value. .

以上説明したように、遠隔制御システム1aは、ロボット10の周囲に位置する複数の人(参加者)が注目する注目点に基づいて、ロボット10が自動的に適した位置に移動するため、ロボット10を用いて行われる遠隔コミュニケーションにおいて、参加者に感じさせる違和感や煩わしさを低減させることができるとともに、自然な形でロボット10を介した遠隔コミュニケーションを実現することができる。 As described above, the remote control system 1a allows the robot 10 to automatically move to a suitable position based on the points of interest that a plurality of people (participants) positioned around the robot 10 pay attention to. In the remote communication performed using the robot 10, it is possible to reduce the discomfort and annoyance that the participants feel, and to realize the remote communication via the robot 10 in a natural way.

従来の位置固定型のビデオ会議システムは、最初に置いた位置から動かされないため、例えば、話題の中心位置(注目点)が変わった場合、遠隔地から参加している人は、会話から取り残されたような印象を受ける。また、例えば、ロボット10の周囲にいる参加者は、遠隔地から参加している人が話題に関心がないと感じてしまい、遠隔地から参加している人を会話の対象から外してしまうおそれがある。結果として、遠隔コミュニケーションによる一体感が損なわれ、疎外感を生む原因となる。 Traditional fixed-position video conferencing systems are not moved from their original position, so if, for example, the focal point of the topic changes, a remote participant may be left out of the conversation. I get the impression that In addition, for example, participants around the robot 10 may feel that the remote participant is not interested in the topic, and may exclude the remote participant from the conversation. There is As a result, the sense of unity through remote communication is lost, which causes a sense of alienation.

一方で、ロボット10は、話題の中心位置(注目点)に追従して、ロボット10の位置および向きを変更するため、遠隔地から参加している人(例えば、表示端末50を用いてロボット10を操作する操作者)は、ロボット10を通じて常にその話題に加わっている印象を得られる。一方で、ロボット10の周囲に位置する複数の参加者も、遠隔地にいる参加者が会議に参加して話を聞いている印象が得られる。これにより、遠隔制御システム1aは、ロボット10を用いて遠隔会議による円滑なコミュニケーションを実現することができる。 On the other hand, the robot 10 changes the position and orientation of the robot 10 by following the central position (point of interest) of the topic. The operator who operates the robot 10 can get the impression that he is always participating in the topic. On the other hand, a plurality of participants positioned around the robot 10 also gives the impression that participants in remote locations participate in the conference and listen to what they have to say. As a result, the remote control system 1a can use the robot 10 to achieve smooth communication through remote conferences.

〇ロボット10の移動経路の例〇
ここで、目標点算出部43によって算出されるロボット10の移動経路について説明する。図30(a)に示す例は、ロボット10(R)が目標位置Gにまっすぐ向かうのではなく、人と人との間を見つけてそこに割り込む方法である。この方法は、ロボット10(R)が人に近づきすぎることによって、身体距離(プライベートな空間)が侵されないようにするために有効である。この場合、ロボット10(R)の目標点算出部43は、各参加者(h1~h4)の位置のすべての組み合わせから、一定以上の距離が空いている位置を特定し、その中間距離にロボット10(R)を移動させるように移動経路を算出する。
◯ Example of Movement Path of Robot 10 ◯ Here, the movement path of the robot 10 calculated by the target point calculation unit 43 will be described. The example shown in FIG. 30(a) is a method in which the robot 10(R) does not head straight toward the target position G, but finds a gap between humans and cuts in there. This method is effective for preventing physical distance (private space) from being violated by the robot 10(R) getting too close to a person. In this case, the target point calculation unit 43 of the robot 10(R) identifies positions with a certain distance or more from all combinations of the positions of each participant (h1 to h4), 10(R) is calculated.

図30(b)に示す例は、ロボット10(R)が目標位置Gにまっすぐ向かうのではなく、ロボット10(R)の現在位置から最も近い人の傍を通過する方法である。ロボット10(R)の目標点算出部43は、位置特定部39によって特定されたロボット10(R)の現在位置に最も近い参加者(例えば、h3)を特定し、特定した参加者の位置から一定距離離れた位置にロボット10(R)を移動させるように移動経路を算出する。なお、ロボット10(R)は、例えば、h3の位置から一定距離離れた位置を通過して目標位置Gへ移動してもよいし、h3の位置から一定距離は離れた位置で停止してもよい。この場合、ロボット10(R)は、図30(b)に示すように、注目点Aの方向を向くのではなく、h3と同じ方向を向くように、向き調整部38によってロボット10(R)の向きを変更してもよい。 The example shown in FIG. 30(b) is a method in which the robot 10(R) does not go straight to the target position G, but passes by the person closest to the current position of the robot 10(R). The target point calculation unit 43 of the robot 10(R) identifies the participant (for example, h3) closest to the current position of the robot 10(R) identified by the position identification unit 39, and A moving route is calculated so as to move the robot 10(R) to a position separated by a predetermined distance. For example, the robot 10(R) may move to the target position G by passing through a position a certain distance away from the position h3, or may stop at a position a certain distance away from the position h3. good. In this case, as shown in FIG. 30(b), the robot 10(R) does not face the direction of the target point A, but faces the same direction as h3 by the direction adjusting unit 38. You can change the orientation of

〇目標点算出処理を開始するまでの処理〇
ここで、図19に示した目標点算出処理を行う頻度またはタイミングについて説明する。会議等において、ロボット10の周囲の参加者の位置が頻繁に変わるような場合、その都度ロボット10が移動すると、参加者にとって逆に会議の妨げとなる場合がある。そこで、遠隔制御システム1aは、所定の条件を満たした場合に、ロボット10において図19に示した目標点算出処理を行う。
◯ Processing before starting the target point calculation processing ◯ Here, the frequency or timing of performing the target point calculation processing shown in FIG. 19 will be described. In a conference or the like, when the positions of the participants around the robot 10 change frequently, if the robot 10 moves each time, it may hinder the conference for the participants. Therefore, the remote control system 1a performs the target point calculation process shown in FIG. 19 in the robot 10 when a predetermined condition is satisfied.

図31(a)に示すフローチャートは、前回の目標点算出時からの経過時間に基づいて、目標点算出処理を行う例である。ステップS151aにおいて、ロボット10の判断部34は、タイマ107を用いて、前回の目標点算出時からの経過時間を測定する。ステップS152aにおいて、判断部34は、前回の目標点算出時からの経過時間が、設定された経過時間の条件を超過した場合、処理をステップS153aへ移行させる。具体的には、ロボット10の記憶・読出部46は、記憶部3000に記憶された条件テーブル3002(図10参照)を読み出す。判断部34は、記憶・読出部46によって読み出された条件テーブル3002を検索し、ロボット10が位置する拠点に対応する経過時間の条件を抽出する。例えば、ロボット10が拠点Aに位置する場合、判断部34は、拠点Aに対応する経過時間の条件として、「3min」を抽出する。そして、判断部34は、前回の目標点算出時からの経過時間が、抽出した条件を超過している場合、処理をステップS153aへ移行させる。一方で、ステップS152aにおいて、判断部34は、前回の目標点算出時からの経過時間が、設定された経過時間の条件を超過していない(設定された経過時間内である)場合、ステップS151aからの処理を繰り返す。 The flowchart shown in FIG. 31(a) is an example of performing target point calculation processing based on the elapsed time since the previous target point calculation. In step S151a, the determination unit 34 of the robot 10 uses the timer 107 to measure the elapsed time since the previous target point calculation. In step S152a, if the elapsed time since the previous calculation of the target point exceeds the set elapsed time condition, the determination unit 34 shifts the process to step S153a. Specifically, the storage/readout unit 46 of the robot 10 reads out the condition table 3002 (see FIG. 10) stored in the storage unit 3000 . The determining unit 34 searches the condition table 3002 read by the storage/reading unit 46 and extracts the elapsed time condition corresponding to the base where the robot 10 is located. For example, when the robot 10 is located at the base A, the determination unit 34 extracts "3 minutes" as the elapsed time condition corresponding to the base A. If the elapsed time from the previous calculation of the target point exceeds the extracted condition, the determination unit 34 shifts the process to step S153a. On the other hand, in step S152a, if the elapsed time since the previous calculation of the target point does not exceed the set elapsed time condition (is within the set elapsed time), the determination unit 34 determines that step S151a Repeat the process from

ステップS153aにおいて、ロボット10は、前回の目標点算出時から所定の時間経過した場合、図19に示した目標点算出処理を行う。これによって、ロボット10は、前回目標点算出処理を行ってからの経過時間に基づいて、ロボット10の移動先を示す目標点の算出処理を行うとともに、算出した目標点へロボット10を移動させるため、頻繁にロボット10が移動することによって、円滑なコミュニケーションが妨げられることを防止することができる。 In step S153a, the robot 10 performs the target point calculation process shown in FIG. 19 when a predetermined time has passed since the previous target point calculation. As a result, the robot 10 calculates the target point indicating the destination of the robot 10 based on the elapsed time since the previous target point calculation process, and moves the robot 10 to the calculated target point. , it is possible to prevent smooth communication from being hindered due to frequent movement of the robot 10 .

図31(b)に示すフローチャートは、ロボット10の周囲に位置する人(参加者)との距離に基づいて、目標点算出処理を行う例である。ステップS151bにおいて、ロボット10は、ロボット10の周囲に位置する人(参加者)との距離を測定する。具体的には、ロボット10の位置特定部39は、加速度・方位センサ103またはGPS受信部104によって検出される各方位(方位角、磁北)の方向等の検出結果に基づいて、ロボット10の現在位置を特定する。そして、位置特定部39は、特定したロボット10の現在位置と、注目点算出部42によって算出された人(参加者)との距離を算出する。 The flowchart shown in FIG. 31B is an example of performing the target point calculation process based on the distance to the people (participants) positioned around the robot 10 . In step S<b>151 b , the robot 10 measures the distance to the people (participants) positioned around the robot 10 . Specifically, the position specifying unit 39 of the robot 10 determines the current position of the robot 10 based on the detection results such as the direction of each direction (azimuth angle, magnetic north) detected by the acceleration/direction sensor 103 or the GPS receiving unit 104 . Locate. Then, the position specifying unit 39 calculates the distance between the specified current position of the robot 10 and the person (participant) calculated by the attention point calculating unit 42 .

ステップS152bにおいて、判断部34は、算出された人(参加者)との距離が設定された人との距離の条件を超過した場合、処理をステップS153bへ移行させる。具体的には、ロボット10の記憶・読出部46は、記憶部3000に記憶された条件テーブル3002(図10参照)を読み出す。判断部34は、記憶・読出部46によって読み出された条件テーブル3002を検索し、ロボット10が位置する拠点に対応する人との距離の条件を抽出する。例えば、ロボット10が拠点Aに位置する場合、判断部34は、拠点Aに対応する人との距離の条件として、「8m」を抽出する。そして、判断部34は、位置特定部39によって算出されたロボット10と人との距離の少なくとも一つが、抽出した条件を超過している場合、処理をステップS153bへ移行させる。一方で、ステップS152bにおいて、判断部34は、算出された人(参加者)との距離が設定された人との距離の条件を超過していない(ロボット10と全ての参加者とが所定の距離以内に存在する)場合、ステップS151bからの処理を繰り返す。 In step S152b, if the calculated distance to the person (participant) exceeds the set distance condition to the person, the determination unit 34 shifts the process to step S153b. Specifically, the storage/readout unit 46 of the robot 10 reads out the condition table 3002 (see FIG. 10) stored in the storage unit 3000 . The determination unit 34 searches the condition table 3002 read by the storage/readout unit 46, and extracts the condition of the distance from the person corresponding to the base where the robot 10 is located. For example, when the robot 10 is located at the base A, the determination unit 34 extracts "8 m" as the condition for the distance from the person corresponding to the base A. If at least one of the distances between the robot 10 and the person calculated by the position specifying unit 39 exceeds the extracted condition, the determination unit 34 shifts the process to step S153b. On the other hand, in step S152b, the determination unit 34 determines that the calculated distance to the person (participant) does not exceed the set condition for the distance to the person (the robot 10 and all the participants do not exceed the predetermined distance). exists within the distance), the process from step S151b is repeated.

ステップS153bにおいて、ロボット10は、人(参加者)との距離が所定の距離以上離れた場合、図19に示した目標点算出処理を行う。これによって、ロボット10は、ロボット10の周囲に位置する人(参加者)との距離が所定の距離以上離れた場合にのみ、ロボット10の移動先を示す目標点の算出処理を行うとともに、算出した目標点へロボット10を移動させるため、頻繁にロボット10が移動することによって、円滑なコミュニケーションが妨げられることを防止することができる。 In step S153b, the robot 10 performs the target point calculation process shown in FIG. 19 when the distance from the person (participant) is greater than or equal to a predetermined distance. As a result, the robot 10 performs the calculation processing of the target point indicating the movement destination of the robot 10 only when the distance from the person (participant) positioned around the robot 10 is greater than or equal to the predetermined distance. Since the robot 10 is moved to the designated target point, frequent movements of the robot 10 can be prevented from hindering smooth communication.

図31(c)に示すフローチャートは、設定された調整周期に基づいて、目標点算出処理を行う例である。ステップS151cにおいて、ロボット10の判断部34は、タイマ107を用いて、前回の目標点算出時からの経過時間を測定する。ステップS152cにおいて、判断部34は、前回の目標点算出時からの経過時間が、設定された調整周期の条件を超過した場合、処理をステップS153cへ移行させる。具体的には、ロボット10の記憶・読出部46は、記憶部3000に記憶された条件テーブル3002(図10参照)を読み出す。判断部34は、記憶・読出部46によって読み出された条件テーブル3002を検索し、ロボット10が位置する拠点に対応する調整周期の条件を抽出する。例えば、ロボット10が拠点Aに位置する場合、判断部34は、拠点Aに対応する調整周期の条件として、「5min」を抽出する。そして、判断部34は、前回の目標点算出時からの経過時間が、抽出した条件を超過している場合、処理をステップS153cへ移行させる。一方で、ステップS152cにおいて、判断部34は、前回の目標点算出時からの経過時間が、設定された調整周期の条件を超過していない(設定された調整周期の範囲内である)場合、ステップS151cからの処理を繰り返す。 The flowchart shown in FIG. 31(c) is an example of performing target point calculation processing based on the set adjustment period. In step S151c, the determination unit 34 of the robot 10 uses the timer 107 to measure the elapsed time since the previous calculation of the target point. In step S152c, if the elapsed time from the previous calculation of the target point exceeds the set adjustment cycle condition, the determination unit 34 causes the process to proceed to step S153c. Specifically, the storage/readout unit 46 of the robot 10 reads out the condition table 3002 (see FIG. 10) stored in the storage unit 3000 . The determination unit 34 searches the condition table 3002 read by the storage/readout unit 46, and extracts the adjustment cycle condition corresponding to the base where the robot 10 is located. For example, when the robot 10 is located at the base A, the determination unit 34 extracts "5 min" as the condition for the adjustment cycle corresponding to the base A. If the elapsed time from the previous calculation of the target point exceeds the extracted condition, the determination unit 34 shifts the process to step S153c. On the other hand, in step S152c, if the elapsed time since the previous calculation of the target point does not exceed the set adjustment cycle condition (is within the set adjustment cycle range), The processing from step S151c is repeated.

ステップS153cにおいて、ロボット10は、前回の目標点算出時から所定の調整周期を経過した場合、図19に示した目標点算出処理を行う。これによって、ロボット10は、設定された目標点の調整周期に基づいて、ロボット10の移動先を示す目標点の算出処理を行うとともに、算出した目標点へロボット10を移動させるため、頻繁にロボット10が移動することによって、円滑なコミュニケーションが妨げられることを防止することができる。 In step S153c, the robot 10 performs the target point calculation process shown in FIG. 19 when a predetermined adjustment cycle has elapsed since the previous target point calculation. As a result, the robot 10 performs the process of calculating the target point indicating the movement destination of the robot 10 based on the set adjustment period of the target point, and moves the robot 10 to the calculated target point. Movement of 10 can be prevented from hindering smooth communication.

したがって、遠隔制御システム1aは、図31(a)~(c)のように、所定の条件に基づいて目標点算出処理を開始する頻度またはタイミングを決定するため、ロボット10が頻繁に移動することによって円滑なコミュニケーションが妨げられることを防止することができる。なお、図31(a)~(c)に示した処理および図10に示した条件テーブル3002に含まれる条件は、一例であり、これに限られず、ロボット10の管理者または表示端末50を用いてロボット10を操作する操作者等によって適宜修正・変更可能である。 Therefore, as shown in FIGS. 31(a) to 31(c), the remote control system 1a determines the frequency or timing of starting the target point calculation process based on predetermined conditions. It is possible to prevent smooth communication from being hindered by 31(a) to (c) and the conditions included in the condition table 3002 shown in FIG. It is possible for an operator or the like who operates the robot 10 to modify or change the settings as appropriate.

また、遠隔制御システム1aは、ロボット10の周囲の人(参加者)の少なくとも一人が移動した場合に、目標点算出処理を行う構成であってもよい。この場合、ロボット10は注目点算出部42および目標点算出部43は、例えば、画像取得部36によって取得された画像データ200に含まれる複数の人物のうち少なくとも一つの人物の位置または向きが変化した場合、変化した人物の位置または向きに基づいて目標点を算出する。具体的には、ロボット10は注目点算出部42および目標点算出部43は、画像データ200に含まれる複数の人物のうち変化していない人物の位置または向きを固定値とし、変化した人物の位置または向きの変化量に基づいて目標点を算出する。 Further, the remote control system 1a may be configured to perform target point calculation processing when at least one person (participant) around the robot 10 moves. In this case, the robot 10 determines whether the position or orientation of at least one person included in the image data 200 acquired by the image acquisition unit 36 has changed. If so, the target point is calculated based on the changed position or orientation of the person. Specifically, the point-of-interest calculation unit 42 and the target point calculation unit 43 of the robot 10 set the position or orientation of a person who has not changed among the plurality of persons included in the image data 200 as a fixed value. A target point is calculated based on the amount of change in position or orientation.

●第1の実施形態の効果
以上説明したように、第1の実施形態に係る遠隔制御システム1aは、被写体を撮影して画像データ200を取得する撮影装置21を備えるロボット10(移動体の一例)と、ロボット10と通信ネットワーク9を介して通信可能であり、ロボット10を遠隔操作する表示端末50を備え、ロボット10と表示端末50との間において送受信される画像データを用いて遠隔コミュニケーションを実現する。
Effect of the First Embodiment As described above, the remote control system 1a according to the first embodiment includes the robot 10 (an example of a moving body) equipped with the photographing device 21 that photographs a subject and obtains the image data 200. ) and a display terminal 50 capable of communicating with the robot 10 via a communication network 9 and remotely controlling the robot 10, and remote communication is performed using image data transmitted and received between the robot 10 and the display terminal 50. come true.

ここで、第1の実施形態に係る遠隔制御システム1aにおいて、ロボット10(移動体の一例)が備える制御装置30は、本発明に係る情報処理装置の一例である。情報処理装置としての制御装置30は、撮影装置21によって取得された画像データ200を取得する画像取得部36(取得手段の一例)と、取得された画像データ200に含まれる複数の人物の位置および向きに基づいて、ロボット10の移動先を示す目標点を算出する注目点算出部42および目標点算出部43(算出手段の一例)とを備え、算出された目標点へロボット10を移動させる。そのため、第1の実施形態に係る情報処理装置としての制御装置30は、一方の拠点にいる複数の参加者の位置と向きに応じて、ロボット10を移動させることで、他方の拠点にいる参加者との遠隔コミュニケーションを活性化させることができる。 Here, in the remote control system 1a according to the first embodiment, the control device 30 included in the robot 10 (an example of a moving object) is an example of an information processing device according to the present invention. The control device 30 as an information processing device includes an image acquisition unit 36 (an example of acquisition means) that acquires the image data 200 acquired by the photographing device 21, and the positions and positions of the plurality of persons included in the acquired image data 200. A point of interest calculator 42 and a target point calculator 43 (an example of a calculator) for calculating a target point indicating a destination of the robot 10 based on the direction are provided, and the robot 10 is moved to the calculated target point. Therefore, the control device 30 as an information processing device according to the first embodiment moves the robot 10 according to the positions and orientations of a plurality of participants at one base, thereby allowing participants at the other base to move. Remote communication with people can be activated.

さらに、第1の実施形態に係るロボット10(移動体の一例)が備える制御装置30は、取得された画像データ200に含まれる複数の人物の位置および向きを推定し(推定手段の一例、推定された位置および向きに基づいて、画像データ200に含まれる複数の人物が注目する注目点を特定する(注目点特定手段の一例)注目点算出部42と、特定された注目点に基づいて、ロボット10の移動先を示す目標点を特定する目標点算出部43(目標点特定手段の一例)と、有する。そのため、第1の実施形態に係る情報処理装置としての制御装置30は、ロボット10の周囲に位置する複数の参加者が注目する注目点に基づいて、ロボット10を移動させることで、他方の拠点にいる参加者との遠隔コミュニケーションを活性化させることができる。 Furthermore, the control device 30 included in the robot 10 (an example of a moving body) according to the first embodiment estimates the positions and orientations of a plurality of persons included in the acquired image data 200 (an example of an estimation means, an estimation An attention point calculation unit 42 (an example of an attention point identifying means) that identifies an attention point that a plurality of persons included in the image data 200 pay attention to based on the determined positions and orientations, and based on the identified attention point, A target point calculation unit 43 (an example of a target point specifying means) that specifies a target point indicating a destination of the robot 10. Therefore, the control device 30 as an information processing device according to the first embodiment includes the robot 10 By moving the robot 10 based on the point of interest that a plurality of participants positioned around the site pay attention to, it is possible to activate remote communication with participants at the other site.

●第2の実施形態●
次に、第2の実施形態に係る遠隔制御システムついて説明する。なお、第1の実施形態と同一構成および同一機能は、同一の符号を付して、その説明を省略する。第2の実施形態に係る遠隔制御システム1bは、ロボット10の位置調整処理を、ロボット10から送信されてきた画像データを表示する表示端末50が行う構成である。
●Second Embodiment●
Next, a remote control system according to a second embodiment will be described. In addition, the same reference numerals are given to the same configurations and the same functions as those of the first embodiment, and the description thereof will be omitted. The remote control system 1 b according to the second embodiment is configured such that the position adjustment processing of the robot 10 is performed by the display terminal 50 that displays the image data transmitted from the robot 10 .

なお、第2の実施形態に係る遠隔制御システム1bを構成する装置または端末(ロボット10、表示端末50および管理サーバ90)のハードウエア構成は、第1の実施形態に係る遠隔制御システム1aを構成する装置または端末(ロボット10、表示端末50および管理サーバ90)と同様であるため、説明を省略する。 The hardware configuration of the devices or terminals (robot 10, display terminal 50, and management server 90) configuring the remote control system 1b according to the second embodiment constitutes the remote control system 1a according to the first embodiment. Since it is the same as the device or terminal (the robot 10, the display terminal 50, and the management server 90), the description thereof will be omitted.

●機能構成
まず、図32を用いて、第2の実施形態に係る遠隔制御システムの機能構成について説明する。図32は、第2の実施形態に係る遠隔制御システムの機能構成の一例を示す図である。なお、第2の実施形態に係る管理サーバ90によって実現される機能は、第1の実施形態に係る管理サーバ90によって実現される機能(図8参照)と同様であるため、説明を省略する。
●Functional Configuration First, the functional configuration of the remote control system according to the second embodiment will be described with reference to FIG. 32 is a diagram illustrating an example of a functional configuration of a remote control system according to the second embodiment; FIG. Note that the functions realized by the management server 90 according to the second embodiment are the same as the functions realized by the management server 90 according to the first embodiment (see FIG. 8), so description thereof will be omitted.

〇制御装置30の機能構成〇
まず、図32を用いて、第2の実施形態に係るロボット10の処理または動作を制御する制御装置30の機能構成について説明する。第2の実施形態に係る制御装置30は、第1の実施形態に係る制御装置30によって実現される機能(図8参照)から画像処理部41、注目点算出部42および目標点算出部43を除いた機能を実現する。具体的には、第2の実施形態に係る制御装置30によって実現される機能は、送受信部31、操作入力受付部32、表示制御部33、判断部34、撮影指示部35、画像取得部36、移動制御部37、向き調整部38、位置特定部39、周辺情報検出部44、存在通知部45、記憶・読出部46および記憶部3000を含む。第2の実施形態に係る制御装置30によって実現されるそれぞれの機能は、図8に示した内容と同様であるため、説明を省略する。
◯ Functional Configuration of Control Device 30 ◯ First, with reference to FIG. 32, the functional configuration of the control device 30 that controls the processing or operation of the robot 10 according to the second embodiment will be described. The control device 30 according to the second embodiment includes an image processing unit 41, an attention point calculation unit 42, and a target point calculation unit 43 from the functions realized by the control device 30 according to the first embodiment (see FIG. 8). Realize the removed functions. Specifically, the functions realized by the control device 30 according to the second embodiment include a transmission/reception unit 31, an operation input reception unit 32, a display control unit 33, a determination unit 34, a photographing instruction unit 35, an image acquisition unit 36, , a movement control unit 37 , an orientation adjustment unit 38 , a position specifying unit 39 , a peripheral information detection unit 44 , a presence notification unit 45 , a storage/readout unit 46 and a storage unit 3000 . Since each function realized by the control device 30 according to the second embodiment is the same as the content shown in FIG. 8, the description is omitted.

〇表示端末50の機能構成〇
次に、図32を用いて、表示端末50の機能構成について説明する。第2の実施形態に係る表示端末50によって実現される機能は、第1の実施形態に係る表示端末50によって実現される機能(図8参照)に加えて、画像処理部61、注目点算出部62および目標点算出部63を含む。具体的には、表示端末50により実現される機能は、送受信部51、操作入力受付部52、表示制御部53、判断部54、要求コマンド生成部55、視線検出部56、記憶・読出部57、画像処理部61、注目点算出部62、目標点算出部63および記憶部5000を含む。また、送受信部51は、撮影装置21によって取得された画像である画像データ200を受信(取得)する取得手段の一例である。さらに、送受信部51は、後述する目標点算出部63によって算出された目標点へロボット10を移動させるための要求コマンド(要求情報)を、ロボット10へ送信する第2の送信手段の一例である。
* Functional configuration of display terminal 50 * Next, the functional configuration of the display terminal 50 will be described with reference to FIG. 32 . The functions realized by the display terminal 50 according to the second embodiment include the functions realized by the display terminal 50 according to the first embodiment (see FIG. 8), an image processing unit 61, an attention point calculation unit 62 and target point calculator 63 . Specifically, the functions realized by the display terminal 50 include a transmission/reception unit 51, an operation input reception unit 52, a display control unit 53, a determination unit 54, a request command generation unit 55, a line-of-sight detection unit 56, a storage/readout unit 57, and a , an image processing unit 61 , an attention point calculation unit 62 , a target point calculation unit 63 and a storage unit 5000 . Also, the transmitting/receiving unit 51 is an example of an acquiring unit that receives (acquires) image data 200 that is an image acquired by the photographing device 21 . Further, the transmitting/receiving unit 51 is an example of second transmitting means for transmitting to the robot 10 a request command (request information) for moving the robot 10 to a target point calculated by the target point calculating unit 63, which will be described later. .

画像処理部61は、送受信部51によって受信(取得)された画像に対する処理を行う機能である。画像処理部61は、例えば、送受信部51によって取得された画像データ200に含まれる人物の頭の画像を抽出する。また、画像処理部61は、例えば、送受信部51によって取得された人物の目と鼻の画像を抽出する。画像処理部61は、主に、図6に示したCPU501の処理によって実現される。 The image processing unit 61 has a function of processing an image received (obtained) by the transmission/reception unit 51 . The image processing unit 61 extracts, for example, an image of a person's head included in the image data 200 acquired by the transmission/reception unit 51 . The image processing unit 61 also extracts, for example, the image of the person's eyes and nose acquired by the transmission/reception unit 51 . The image processing unit 61 is mainly realized by the processing of the CPU 501 shown in FIG.

注目点算出部62は、画像処理部61によって処理された画像データに含まれる複数の人物の位置および向きに基づいて、複数の人が注目する注目点を特定する機能である。注目点算出部62が実現する機能は、図8に示した注目点算出部42と同様であるため、説明を省略する。注目点算出部62は、主に、図6に示したCPU501の処理によって実現される。注目点算出部62は、算出手段の一例である。また、注目点算出部62は、推定手段の一例である。さらに、注目点算出部62は、注目点特定手段の一例である。 The point-of-interest calculation unit 62 has a function of identifying points of interest that a plurality of persons pay attention to, based on the positions and orientations of the persons included in the image data processed by the image processing unit 61 . Since the function realized by the attention point calculation unit 62 is the same as that of the attention point calculation unit 42 shown in FIG. 8, the description thereof will be omitted. The point-of-interest calculator 62 is mainly implemented by the processing of the CPU 501 shown in FIG. The point-of-interest calculator 62 is an example of a calculator. Also, the point-of-interest calculator 62 is an example of an estimator. Furthermore, the attention point calculation unit 62 is an example of attention point specifying means.

目標点算出部63は、注目点算出部62によって算出された注目点に基づいて、ロボット10の移動先となる目標点を特定する機能である。目標点算出部63が実現する機能は、図8に示した目標点算出部43と同様であるため、説明を省略する。目標点算出部63は、主に、図6に示したCPU501の処理によって実現される。目標点算出部63は、算出手段の一例である。また、目標点算出部63は、目標点特定手段の一例である。 The target point calculation unit 63 has a function of specifying a target point to which the robot 10 moves based on the target point calculated by the target point calculation unit 62 . Since the functions realized by the target point calculation unit 63 are the same as those of the target point calculation unit 43 shown in FIG. 8, the description thereof will be omitted. The target point calculator 63 is mainly realized by the processing of the CPU 501 shown in FIG. The target point calculator 63 is an example of a calculator. Also, the target point calculation unit 63 is an example of target point specifying means.

●第2の実施形態の処理または動作
続いて、図33を用いて、第2の実施形態に係る遠隔制御システムにおけるロボットの処理または動作について説明する。なお、図33において、ロボット10が備える制御装置30によって実行される処理は、ロボット10によって実行される処理として説明する。図33は、第2の実施形態に係る遠隔制御システムにおけるロボットの制御処理の一例を説明するためのシーケンス図である。
●Processing or operation of the second embodiment Subsequently, the processing or operation of the robot in the remote control system according to the second embodiment will be described with reference to FIG. Note that in FIG. 33 , the processing executed by the control device 30 included in the robot 10 will be described as processing executed by the robot 10 . FIG. 33 is a sequence diagram for explaining an example of robot control processing in the remote control system according to the second embodiment.

ステップS201において、ロボット10の画像取得部36は、撮影装置21によって撮影された画像である画像データ200を取得する。 In step S<b>201 , the image acquisition unit 36 of the robot 10 acquires image data 200 that is an image captured by the imaging device 21 .

ステップS202-1,S202-2において、ロボット10の送受信部31は、確立された管理サーバ90との通信セッションを用いて、画像取得部36によって取得された画像データ200を、表示端末50へ送信する。これにより、表示端末50の送受信部51は、撮影装置21によって取得された画像である画像データ200を受信(取得)する(取得ステップの一例)。 In steps S202-1 and S202-2, the transmission/reception unit 31 of the robot 10 uses the established communication session with the management server 90 to transmit the image data 200 acquired by the image acquisition unit 36 to the display terminal 50. do. Thereby, the transmission/reception unit 51 of the display terminal 50 receives (acquires) the image data 200 that is the image acquired by the imaging device 21 (an example of an acquisition step).

ステップS203において、表示端末50の表示制御部53は、送受信部51によって受信された画像データ200を、ディスプレイ512の表示画面600(図18(b)参照)に表示させる。これによって、表示端末50を用いてロボット10を操作する操作者は、ロボット10が位置する拠点の状況を、画像データ200が表示された表示画面600を見ながら確認することができる。 In step S203, the display control unit 53 of the display terminal 50 displays the image data 200 received by the transmission/reception unit 51 on the display screen 600 of the display 512 (see FIG. 18B). Thus, the operator who operates the robot 10 using the display terminal 50 can check the status of the base where the robot 10 is located while looking at the display screen 600 on which the image data 200 is displayed.

ステップS204において、表示端末50は、ロボット10の移動先となる目標点の算出処理を実行する(算出ステップの一例)。表示端末50の画像処理部61、注目点算出部62および目標点算出部63による目標点算出処理は、図19に示した処理と同様であるため、説明を省略する。 In step S204, the display terminal 50 executes processing for calculating a target point to which the robot 10 moves (an example of a calculation step). The target point calculation processing by the image processing unit 61, the attention point calculation unit 62, and the target point calculation unit 63 of the display terminal 50 is the same as the processing shown in FIG. 19, and thus the description is omitted.

ステップS205において、表示端末50の要求コマンド生成部55は、目標点算出部63によって算出された目標点に基づいて、ロボット10へ送信する要求コマンドを生成する。この場合、要求コマンド生成部55によって生成される要求コマンドは、目標点算出部63によって算出された目標位置Gの座標情報(X,Y)を変数とする「GO(X,Y)」コマンドを含む。また、要求コマンド生成部55によって生成される要求コマンドは、目標点算出部63によって算出されたロボット10の向き(θ)を変数とする「TURN(θ)」コマンドを含む。要求コマンド生成部55によって生成される要求コマンドは、目標点算出部63によって算出された目標点へロボット10を移動させるための要求情報の一例である。 In step S<b>205 , the request command generator 55 of the display terminal 50 generates a request command to be transmitted to the robot 10 based on the target point calculated by the target point calculator 63 . In this case, the request command generated by the request command generation unit 55 is a "GO (X, Y)" command whose variable is the coordinate information (X, Y) of the target position G calculated by the target point calculation unit 63. include. Further, the request command generated by the request command generation unit 55 includes a “TURN (θ)” command having the orientation (θ) of the robot 10 calculated by the target point calculation unit 63 as a variable. The request command generated by the request command generator 55 is an example of request information for moving the robot 10 to the target point calculated by the target point calculator 63 .

ステップS206-1,S206-2において、表示端末50の送受信部31は、確立された管理サーバ90との通信セッションを用いて、要求コマンド生成部55によって生成された要求コマンド(「GO(X,Y)」,「TURN(θ)」)を、ロボット10へ送信する。これにより、ロボット10の送受信部31は、要求コマンド(「GO(X,Y)」,「TURN(θ)」)を受信する。 In steps S206-1 and S206-2, the transmission/reception unit 31 of the display terminal 50 uses the established communication session with the management server 90 to use the request command generated by the request command generation unit 55 (“GO (X, Y)” and “TURN(θ)”) to the robot 10 . As a result, the transmitter/receiver 31 of the robot 10 receives the request command (“GO(X,Y)”, “TURN(θ)”).

ステップS207において、ロボット10の記憶・読出部46は、記憶部5000に記憶されたコマンドテーブル5001を読み出す。ステップS208において、ロボット10の判断部34は、記憶・読出部46によって読み出されたコマンドテーブル3001を検索し、送受信部31によって受信された要求コマンドに対応する処理を抽出する。この場合、送受信部31によって受信された要求コマンドが「GO(X,Y)」および「TURN(θ)」であるため、判断部34は、コマンドテーブル3001を検索して、要求コマンド「GO(X,Y)」および「TURN(θ)」に対応する処理を抽出する。抽出される処理は、「ロボット10を(X,Y)の位置まで移動させる」および「ロボット10を右のθ°回転させる」である。 In step S<b>207 , the storage/readout unit 46 of the robot 10 reads out the command table 5001 stored in the storage unit 5000 . In step S<b>208 , the determination unit 34 of the robot 10 searches the command table 3001 read by the storage/readout unit 46 and extracts the process corresponding to the request command received by the transmission/reception unit 31 . In this case, since the request commands received by the transmitting/receiving unit 31 are "GO (X, Y)" and "TURN (θ)", the determination unit 34 searches the command table 3001 to obtain the request command "GO ( X, Y)” and processing corresponding to “TURN(θ)” are extracted. The extracted processes are "move the robot 10 to the position (X, Y)" and "rotate the robot 10 to the right by θ°".

ステップS209において、ロボット10は、上記ステップS208によって抽出された処理を実行する。具体的には、ロボット10の判断部34は、抽出した処理の実行要求を、移動制御部37へ通知する。そして、移動制御部37は、判断部34によって抽出された処理に基づいて、ロボット10を移動させる。ロボット10の移動処理は、図28で示した処理と同様であるため、説明を省略する。 At step S209, the robot 10 executes the process extracted at step S208. Specifically, the determination unit 34 of the robot 10 notifies the movement control unit 37 of the execution request for the extracted process. Then, the movement control section 37 moves the robot 10 based on the processing extracted by the determination section 34 . The movement processing of the robot 10 is the same as the processing shown in FIG. 28, so the description is omitted.

そして、ロボット10の送受信部31は、表示端末50から送信されてきた要求コマンドに含まれる目標点において撮影装置21によって撮影された画像データ200を、表示端末50へ送信する。表示端末50は、ロボット10から送信されてきた画像データ200を受信する。これによって、表示端末50は、要求コマンドに含まれる目標点において、ロボット10の周囲を撮影して取得された画像データ200を表示することができる。 Then, the transmission/reception unit 31 of the robot 10 transmits to the display terminal 50 the image data 200 captured by the imaging device 21 at the target point included in the request command transmitted from the display terminal 50 . The display terminal 50 receives the image data 200 transmitted from the robot 10 . Thereby, the display terminal 50 can display the image data 200 acquired by photographing the surroundings of the robot 10 at the target point included in the request command.

●第2の実施形態の効果
以上説明したように、第2の実施形態に係る遠隔制御システム1bは、ロボット10(移動体の一例)の目標点算出処理を、通信ネットワーク9を介してロボット10を遠隔操作する表示端末50が行う。そのため、第2の実施形態に係る遠隔制御システム1bは、ロボット10の処理負担を低減させることができるとともに、ロボット10が位置する拠点と表示端末50との間における、ロボット10を用いた遠隔コミュニケーションを活性化させることができる。
Effects of the Second Embodiment As described above, the remote control system 1b according to the second embodiment performs target point calculation processing of the robot 10 (an example of a moving object) via the communication network 9. is performed by the display terminal 50 that remotely operates the display terminal 50 . Therefore, the remote control system 1b according to the second embodiment can reduce the processing load on the robot 10, and enables remote communication using the robot 10 between the base where the robot 10 is located and the display terminal 50. can be activated.

ここで、第2の実施形態に係る遠隔制御システム1bにおいて、表示端末50は、本発明に係る情報処理装置の一例である。情報処理装置としての表示端末50は、撮影装置21によって取得された画像データ200を取得する送受信部51(取得手段の一例)と、取得された画像データ200に含まれる複数の人物の位置および向きに基づいて、ロボット10の移動先を示す目標点を算出する注目点算出部62および目標点算出部63(算出手段の一例)とを備え、算出された目標点へロボット10を移動させる。そのため、第2の実施形態に係る情報処理装置としての表示端末50は、一方の拠点の複数の参加者の位置と向きに基づいてロボット10の移動先を算出し、算出した移動先へロボット10を移動させることで、他方の拠点にいる参加者との遠隔コミュニケーションを活性化させることができる。 Here, in the remote control system 1b according to the second embodiment, the display terminal 50 is an example of an information processing device according to the present invention. A display terminal 50 as an information processing device includes a transmitting/receiving unit 51 (an example of an acquiring unit) that acquires image data 200 acquired by the photographing device 21, and positions and orientations of a plurality of persons included in the acquired image data 200. A target point calculation unit 62 and a target point calculation unit 63 (an example of calculation means) for calculating a target point indicating the destination of the robot 10 based on , and move the robot 10 to the calculated target point. Therefore, the display terminal 50 as an information processing apparatus according to the second embodiment calculates the destination of the robot 10 based on the positions and orientations of a plurality of participants at one base, and moves the robot 10 to the calculated destination. can activate remote communication with participants at the other site.

●第3の実施形態●
次に、第3の実施形態に係る遠隔制御システムついて説明する。なお、第1の実施形態または第2の実施形態と同一構成および同一機能は、同一の符号を付して、その説明を省略する。第3の実施形態に係る遠隔制御システム1cは、ロボット10の位置調整処理を、ロボット10および表示端末50と通信ネットワーク9を介して通信可能な画像処理サーバ70が行う構成である。
●Third Embodiment●
Next, a remote control system according to the third embodiment will be described. The same reference numerals are given to the same configurations and the same functions as those of the first embodiment or the second embodiment, and the description thereof will be omitted. The remote control system 1 c according to the third embodiment is configured such that the position adjustment processing of the robot 10 is performed by the image processing server 70 that can communicate with the robot 10 and the display terminal 50 via the communication network 9 .

●システム構成
まずは、図34を用いて、第3の実施形態の遠隔制御システムの構成の概略について説明する。図34は、第3の実施形態に係る遠隔制御システムのシステム構成の一例を示す図である。図34に示すように、第3の実施形態の遠隔制御システム1cは、図1に示した構成に、画像処理サーバ70が追加されている。画像処理サーバ70は、通信ネットワーク9を介して、ロボット10、表示端末50および管理サーバ90と通信可能に接続されている。画像処理サーバ70は、管理サーバ90によって確立された通信セッションを用いて、ロボット10または表示端末50との間で、画像データの送受信を行う。
● System configuration First, the outline of the configuration of the remote control system of the third embodiment will be described with reference to FIG. 34 . FIG. 34 is a diagram showing an example of a system configuration of a remote control system according to the third embodiment; As shown in FIG. 34, the remote control system 1c of the third embodiment has an image processing server 70 added to the configuration shown in FIG. The image processing server 70 is communicably connected to the robot 10 , the display terminal 50 and the management server 90 via the communication network 9 . The image processing server 70 transmits and receives image data to and from the robot 10 or the display terminal 50 using the communication session established by the management server 90 .

画像処理サーバ70は、サーバコンピュータであり、複数台のサーバコンピュータで分散して画像処理を行なう場合も含まれる。画像処理サーバ70は、ロボット10の移動状態に応じて、ロボット10から送信されてきた画像データ200の画像処理を行い、処理データを表示端末50へ送信する。なお、画像処理サーバ70は、複数台のサーバコンピュータにより構成されてもよく、どのサーバコンピュータに機能を備えさせてもよい。画像処理サーバ70は、情報処理装置の一例である。 The image processing server 70 is a server computer, and the image processing may be distributed among a plurality of server computers. The image processing server 70 performs image processing on the image data 200 transmitted from the robot 10 according to the movement state of the robot 10 and transmits the processed data to the display terminal 50 . Note that the image processing server 70 may be composed of a plurality of server computers, and any server computer may be provided with the function. The image processing server 70 is an example of an information processing device.

ここで、画像処理サーバ70と管理サーバ90は、サーバシステム7を構成する。画像処理サーバ70と管理サーバ90は、一台のサーバコンピュータにより構成されてもよい。また、表示端末50と画像処理サーバ70は、表示システム5を構成する。さらに、ロボット10(10A,10B,10C)と画像処理サーバ70は、移動体制御システム(伝送制御システム)3を構成する。 Here, the image processing server 70 and the management server 90 constitute the server system 7 . The image processing server 70 and the management server 90 may be configured by one server computer. Also, the display terminal 50 and the image processing server 70 constitute the display system 5 . Furthermore, the robots 10 (10A, 10B, 10C) and the image processing server 70 constitute a mobile body control system (transmission control system) 3. FIG.

なお、画像処理サーバ70のハードウエア構成は、図7に示した管理サーバ90のハードウエア構成と同様であるため、説明を省略する。以下、画像処理サーバ70は、図7に示したハードウエア構成を有するものとして説明する。 Note that the hardware configuration of the image processing server 70 is the same as the hardware configuration of the management server 90 shown in FIG. 7, so description thereof will be omitted. The image processing server 70 will be described below as having the hardware configuration shown in FIG.

●機能構成
図35は、第3の実施形態に係る遠隔制御システムの機能構成の一例を示す図である。画像処理サーバ70によって実現される機能は、送受信部71、判断部72、データ処理部73、画像処理部74、注目点算出部75、目標点算出部76、記憶・読出部77および記憶部7000を含む。
●Functional Configuration FIG. 35 is a diagram showing an example of the functional configuration of the remote control system according to the third embodiment. The functions realized by the image processing server 70 are a transmission/reception unit 71, a determination unit 72, a data processing unit 73, an image processing unit 74, an attention point calculation unit 75, a target point calculation unit 76, a storage/readout unit 77, and a storage unit 7000. including.

送受信部71は、通信ネットワーク9を介して、他の装置(例えば、管理サーバ90、表示端末50またはロボット10)との間で各種データまたは情報の送受信を行う機能である。送受信部71は、例えば、撮影装置21によって取得された画像である画像データ200を受信(取得)する。また、送受信部71は、データ処理部73によって生成された要求データ(要求情報)を、通信ネットワーク9を介して、ロボット10へ送信する。送受信部71は、主に、図7に示したCPU901の処理、およびネットワークI/F909によって実現される。送受信部71は、取得手段の一例である。また、送受信部71は、第3の送信手段の一例である。 The transmitting/receiving unit 71 has a function of transmitting/receiving various data or information to/from another device (for example, the management server 90 , the display terminal 50 or the robot 10 ) via the communication network 9 . The transmission/reception unit 71 receives (acquires) image data 200, which is an image acquired by the imaging device 21, for example. The transmitting/receiving unit 71 also transmits request data (request information) generated by the data processing unit 73 to the robot 10 via the communication network 9 . Transmitting/receiving unit 71 is mainly realized by processing of CPU 901 and network I/F 909 shown in FIG. The transmitter/receiver 71 is an example of an acquisition means. Also, the transmitting/receiving section 71 is an example of a third transmitting means.

判断部72は、送受信部71によって送受信される各種データに対する処理の内容を判断する機能である。判断部72は、主に、図7に示したCPU901の処理によって実現される。 The judgment unit 72 has a function of judging the content of processing for various data transmitted and received by the transmission/reception unit 71 . The determination unit 72 is mainly implemented by the processing of the CPU 901 shown in FIG.

データ処理部73は、送受信部71によって送受信される各種データの処理を行う機能である。データ処理部73は、目標点算出部76によって算出された目標点へロボット10を移動させるための要求データ(要求情報)を生成する。データ処理部73は、主に、図15に示したCPU901の処理によって実現される。 The data processing unit 73 has a function of processing various data transmitted and received by the transmission/reception unit 71 . The data processor 73 generates request data (request information) for moving the robot 10 to the target point calculated by the target point calculator 76 . The data processing unit 73 is mainly implemented by the processing of the CPU 901 shown in FIG.

画像処理部74は、送受信部71によって受信(取得)された画像に対する処理を行う機能である。画像処理部74は、例えば、送受信部71によって取得された画像データ200に含まれる人物の頭の画像を抽出する。また、画像処理部74は、例えば、送受信部71によって取得された人物の目と鼻の画像を抽出する。画像処理部74は、主に、図7に示したCPU901の処理によって実現される。 The image processing unit 74 has a function of processing an image received (acquired) by the transmission/reception unit 71 . The image processing unit 74 extracts, for example, an image of a person's head included in the image data 200 acquired by the transmission/reception unit 71 . The image processing unit 74 also extracts, for example, the image of the person's eyes and nose acquired by the transmission/reception unit 71 . The image processing unit 74 is mainly realized by the processing of the CPU 901 shown in FIG.

注目点算出部75は、画像処理部74によって処理された画像データに含まれる複数の人物の位置および向きに基づいて、複数の人が注目する注目点を特定する機能である。注目点算出部75が実現する機能は、図8に示した注目点算出部42と同様であるため、説明を省略する。注目点算出部75は、主に、図7に示したCPU901の処理によって実現される。注目点算出部75は、算出手段の一例である。また、注目点算出部75は、推定手段の一例である。さらに、注目点算出部75は、注目点特定手段の一例である。 The point-of-interest calculation unit 75 is a function that identifies an attention point that a plurality of persons pays attention to based on the positions and orientations of the plurality of persons included in the image data processed by the image processing unit 74 . Since the function realized by the attention point calculation unit 75 is the same as that of the attention point calculation unit 42 shown in FIG. 8, the description thereof will be omitted. The point-of-interest calculator 75 is mainly implemented by the processing of the CPU 901 shown in FIG. The point-of-interest calculator 75 is an example of a calculator. Also, the point-of-interest calculator 75 is an example of an estimator. Furthermore, the point-of-interest calculation unit 75 is an example of point-of-interest identification means.

目標点算出部76は、注目点算出部75によって算出された注目点に基づいて、ロボット10の移動先となる目標点を特定する機能である。目標点算出部76が実現する機能は、図8に示した目標点算出部43と同様であるため、説明を省略する。目標点算出部76は、主に、図7に示したCPU901の処理によって実現される。目標点算出部76は、算出手段の一例である。また、目標点算出部76は、目標点特定手段の一例である。 The target point calculation unit 76 has a function of specifying a target point to which the robot 10 moves based on the target point calculated by the target point calculation unit 75 . Since the function realized by the target point calculation unit 76 is the same as that of the target point calculation unit 43 shown in FIG. 8, the description thereof will be omitted. The target point calculator 76 is mainly implemented by the processing of the CPU 901 shown in FIG. The target point calculator 76 is an example of a calculator. Also, the target point calculation unit 76 is an example of target point specifying means.

記憶・読出部77は、記憶部7000に各種データを記憶させ、または記憶部7000から各種データを読み出す機能である。記憶・読出部77は、主に、図7に示したCPU901の処理によって実現される。また、記憶部7000は、主に、図7に示したROM902、HD904または記録メディア906によって実現される。 The storage/readout unit 77 has a function of storing various data in the storage unit 7000 or reading out various data from the storage unit 7000 . The storage/reading unit 77 is mainly implemented by the processing of the CPU 901 shown in FIG. Storage unit 7000 is mainly implemented by ROM 902, HD 904, or recording medium 906 shown in FIG.

また、記憶部7000は、送受信部71によって受信された画像データ200、および画像データ250を記憶している。さらに、記憶部7000は、条件テーブル7001を記憶している。なお、条件テーブル7001は、図11に示した条件テーブル3002と同様であるため、説明を省略する。また、記憶部7000に記憶されている画像データ200および画像データ250は、送受信部71によって受信されてから所定の時間経過した場合に削除される構成であってもよいし、操作入力受付部52によって受け付けられた、ユーザからの削除命令に基づいて削除される構成であってもよい。同様に、記憶部5000に記憶されている画像データ250は、CMOSセンサ505aによって取得されてから所定の時間経過した場合に削除される構成であってもよいし、ロボット10または表示端末50へ送信されたデータが削除される構成であってもよい。 Storage unit 7000 also stores image data 200 and image data 250 received by transmission/reception unit 71 . Further, the storage unit 7000 stores a condition table 7001. FIG. Note that the condition table 7001 is the same as the condition table 3002 shown in FIG. 11, so description thereof will be omitted. Further, the image data 200 and the image data 250 stored in the storage unit 7000 may be deleted after a predetermined period of time has passed since they were received by the transmission/reception unit 71. The configuration may be deleted based on a deletion instruction received from the user. Similarly, the image data 250 stored in the storage unit 5000 may be deleted when a predetermined period of time has elapsed after being acquired by the CMOS sensor 505a, or may be transmitted to the robot 10 or the display terminal 50. It may be configured such that the data that has been deleted is deleted.

●第3の実施形態の処理または動作
続いて、図36を用いて、第3の実施形態に係る遠隔制御システムにおけるロボットの処理または動作について説明する。なお、図36において、ロボット10が備える制御装置30によって実行される処理は、ロボット10によって実行される処理として説明する。図36は、第3の実施形態に係る遠隔制御システムにおけるロボットの制御処理の一例を説明するためのシーケンス図である。
● Processing or operation of the third embodiment Subsequently, the processing or operation of the robot in the remote control system according to the third embodiment will be described with reference to FIG. 36 . 36, the processing executed by the control device 30 of the robot 10 will be described as processing executed by the robot 10. FIG. FIG. 36 is a sequence diagram for explaining an example of robot control processing in the remote control system according to the third embodiment.

ステップS301において、ロボット10の画像取得部36は、撮影装置21によって取得された画像である画像データ200を取得する。 In step S<b>301 , the image acquisition unit 36 of the robot 10 acquires the image data 200 that is the image acquired by the imaging device 21 .

ステップS302-1,S302-2,S302-3において、ロボット10の送受信部31は、確立された管理サーバ90との通信セッションを用いて、画像取得部36によって取得された画像データ200を、表示端末50へ送信する。このうち、画像処理サーバ70の送受信部71は、ロボット10から送信されてきた、撮影装置21によって取得された画像である画像データ200を受信(取得)する(取得ステップの一例)。これにより、表示端末50の送受信部51は、画像データ200を受信する。 In steps S302-1, S302-2, and S302-3, the transmitter/receiver 31 of the robot 10 uses the established communication session with the management server 90 to display the image data 200 acquired by the image acquisition unit 36. Send to terminal 50 . Among them, the transmission/reception unit 71 of the image processing server 70 receives (acquires) the image data 200, which is the image acquired by the imaging device 21, transmitted from the robot 10 (an example of an acquisition step). Thereby, the transmitting/receiving unit 51 of the display terminal 50 receives the image data 200 .

ステップS303において、表示端末50の表示制御部53は、送受信部51によって受信された画像データ200を、ディスプレイ512の表示画面600(図18(b)参照)に表示させる。これによって、表示端末50を用いてロボット10を操作する操作者は、ロボット10が位置する拠点の状況を、画像データ200が表示された表示画面600を見ながら確認することができる。 In step S303, the display control unit 53 of the display terminal 50 displays the image data 200 received by the transmission/reception unit 51 on the display screen 600 of the display 512 (see FIG. 18(b)). Thus, the operator who operates the robot 10 using the display terminal 50 can check the status of the base where the robot 10 is located while looking at the display screen 600 on which the image data 200 is displayed.

ステップS304において、画像処理サーバ70は、ロボット10の移動先となる目標点の算出処理を実行する(算出ステップの一例)。画像処理サーバ70の画像処理部74、注目点算出部75および目標点算出部76による目標点算出処理は、図19に示した処理と同様であるため、説明を省略する。 In step S304, the image processing server 70 executes processing for calculating a target point to which the robot 10 moves (an example of a calculation step). The target point calculation processing by the image processing unit 74, the attention point calculation unit 75, and the target point calculation unit 76 of the image processing server 70 is the same as the processing shown in FIG. 19, and thus the description is omitted.

ステップS305において、画像処理サーバ70のデータ処理部73は、目標点算出部76によって算出された目標点へロボット10を移動させるために、ロボット10へ送信する要求データ(要求情報)を生成する。この場合、データ処理部73によって生成される要求データは、目標点算出部63によって算出された目標位置G(X,Y)を示す位置情報、ロボット10の移動先におけるロボット10の向き(θ)を示す方向情報を含む。データ処理部73によって生成される要求データは、表示端末50の要求コマンド生成部55によって生成される要求コマンドに対応する。 In step S<b>305 , the data processing unit 73 of the image processing server 70 generates request data (request information) to be transmitted to the robot 10 in order to move the robot 10 to the target point calculated by the target point calculation unit 76 . In this case, the request data generated by the data processing unit 73 includes the position information indicating the target position G (X, Y) calculated by the target point calculation unit 63, the orientation (θ) of the robot 10 at the destination of the robot 10 contains directional information indicating The request data generated by the data processing section 73 corresponds to the request command generated by the request command generation section 55 of the display terminal 50 .

ステップS306-1,S306-2において、画像処理サーバ70の送受信部71は、データ処理部73によって生成された要求データ(要求情報)を、ロボット10へ送信する。これにより、ロボット10の送受信部31は、要求データ(要求情報)を受信する。 In steps S306-1 and S306-2, the transmission/reception unit 71 of the image processing server 70 transmits request data (request information) generated by the data processing unit 73 to the robot 10. FIG. Thereby, the transmitter/receiver 31 of the robot 10 receives the request data (request information).

ステップS307において、ロボット10の記憶・読出部46は、記憶部5000に記憶されたコマンドテーブル5001を読み出す。ステップS308において、ロボット10の判断部34は、記憶・読出部46によって読み出されたコマンドテーブル3001を検索し、送受信部31によって受信された要求データ(要求データに対応する要求コマンド)に対応する処理を抽出する。この場合、送受信部31によって受信された要求データに対応する要求コマンドが「GO(X,Y)」および「TURN(θ)」であるため、判断部34は、コマンドテーブル3001を検索して、要求コマンド「GO(X,Y)」および「TURN(θ)」に対応する処理を抽出する。抽出される処理は、「ロボット10を(X,Y)の位置まで移動させる」および「ロボット10を右のθ°回転させる」である。 In step S<b>307 , the storage/readout unit 46 of the robot 10 reads out the command table 5001 stored in the storage unit 5000 . In step S308, the determination unit 34 of the robot 10 searches the command table 3001 read by the storage/readout unit 46, and responds to the request data (request command corresponding to the request data) received by the transmission/reception unit 31. Extract processing. In this case, since the request commands corresponding to the request data received by the transmission/reception unit 31 are "GO(X, Y)" and "TURN(θ)", the determination unit 34 searches the command table 3001, A process corresponding to the request commands "GO(X,Y)" and "TURN(θ)" is extracted. The extracted processes are "move the robot 10 to the position (X, Y)" and "rotate the robot 10 to the right by θ°".

ステップS309において、ロボット10は、上記ステップS308によって抽出された処理を実行する。具体的には、ロボット10の判断部34は、抽出した処理の実行要求を、移動制御部37へ通知する。そして、移動制御部37は、判断部34によって抽出された処理に基づいて、ロボット10を移動させる。ロボット10の移動処理は、図28で示した処理と同様であるため、説明を省略する。 At step S309, the robot 10 executes the process extracted at step S308. Specifically, the determination unit 34 of the robot 10 notifies the movement control unit 37 of the execution request for the extracted process. Then, the movement control section 37 moves the robot 10 based on the processing extracted by the determination section 34 . The movement processing of the robot 10 is the same as the processing shown in FIG. 28, so the description is omitted.

そして、ロボット10の送受信部31は、画像処理サーバ70から送信されてきた要求データに含まれる目標点において撮影装置21によって撮影された画像データ200を、表示端末50へ送信する。表示端末50は、ロボット10から送信されてきた画像データ200を受信する。これによって、表示端末50は、画像処理サーバ70によって生成された要求データに含まれる目標点において、ロボット10の周囲を撮影して取得された画像データ200を表示することができる。 Then, the transmitter/receiver 31 of the robot 10 transmits to the display terminal 50 the image data 200 captured by the imaging device 21 at the target point included in the request data transmitted from the image processing server 70 . The display terminal 50 receives the image data 200 transmitted from the robot 10 . Thereby, the display terminal 50 can display the image data 200 acquired by photographing the surroundings of the robot 10 at the target point included in the request data generated by the image processing server 70 .

●第3の実施形態の効果
以上説明したように、第3の実施形態に係る遠隔制御システム1cは、ロボット10(移動体の一例)の目標点算出処理を、通信ネットワーク9を介してロボット10および表示端末50と通信可能な画像処理サーバ70が行う構成である。そのため、第3の実施形態に係る遠隔制御システム1cは、ロボット10および表示端末50の処理負担を低減させることができるとともに、ロボット10が位置する拠点と表示端末50との間における、ロボット10を用いた遠隔コミュニケーションを活性化させることができる。
Effects of the Third Embodiment As described above, the remote control system 1c according to the third embodiment performs target point calculation processing for the robot 10 (an example of a moving body) via the communication network 9. and the image processing server 70 that can communicate with the display terminal 50 . Therefore, the remote control system 1c according to the third embodiment can reduce the processing load on the robot 10 and the display terminal 50, and can control the robot 10 between the base where the robot 10 is located and the display terminal 50. The remote communication used can be activated.

ここで、第3の実施形態に係る遠隔制御システム1cにおいて、画像処理サーバ70は、本発明に係る情報処理装置の一例である。情報処理装置としての画像処理サーバ70は、撮影装置21によって取得された画像データ200を取得する送受信部71(取得手段の一例)と、取得された画像データ200に含まれる複数の人物の位置および向きに基づいて、ロボット10(移動体の一例)の移動先を示す目標点を算出する注目点算出部75および目標点算出部76(算出手段の一例)とを備え、算出された目標点へロボット10を移動させる。そのため、第3の実施形態に係る情報処理装置としての画像処理サーバ70は、一方の拠点の複数の参加者の位置と向きに基づいてロボット10の移動先を算出し、算出した移動先へロボット10を移動させることで、他方の拠点にいる参加者との遠隔コミュニケーションを活性化させることができる。 Here, in the remote control system 1c according to the third embodiment, the image processing server 70 is an example of an information processing device according to the present invention. The image processing server 70 as an information processing device includes a transmission/reception unit 71 (an example of an acquisition unit) that acquires the image data 200 acquired by the photographing device 21, and the positions and positions of a plurality of persons included in the acquired image data 200. A target point calculation unit 75 and a target point calculation unit 76 (an example of a calculation means) are provided for calculating a target point indicating a destination of the robot 10 (an example of a moving body) based on the orientation. Move the robot 10. Therefore, the image processing server 70 as an information processing apparatus according to the third embodiment calculates the destination of the robot 10 based on the positions and orientations of a plurality of participants at one base, and moves the robot 10 to the calculated destination. By moving 10, it is possible to activate remote communication with a participant at the other site.

●まとめ●
以上説明したように、本発明の一実施形態に係る情報処理装置は、被写体を撮影して画像データ200を取得する撮影装置21を備えるロボット10(移動体の一例)の位置を調整する情報処理装置であって、撮影装置21によって取得された画像データ200を取得する取得し、画像データ200に含まれる複数の人物の位置および向きに基づいて、ロボット10の移動先を示す目標点を算出する。そして、本発明の一実施形態に係る情報処理装置は、目標点を算出することで、ロボット10を目標点へ移動させる。そのため、本発明の一実施形態に係る情報処理装置は、ロボット10を用いた円滑なコミュニケーションを実現させることができる。
●Summary●
As described above, the information processing apparatus according to one embodiment of the present invention performs information processing for adjusting the position of the robot 10 (an example of a moving object) provided with the image capturing device 21 for capturing image data 200 of a subject. A device that acquires image data 200 acquired by a photographing device 21 and calculates a target point indicating a destination of a robot 10 based on the positions and orientations of a plurality of persons included in the image data 200. . Then, the information processing apparatus according to one embodiment of the present invention moves the robot 10 to the target point by calculating the target point. Therefore, the information processing apparatus according to one embodiment of the present invention can realize smooth communication using the robot 10 .

また、本発明の一実施形態に係る遠隔制御システム1aは、被写体を撮影して画像データ200を取得する撮影装置21を備えるロボット10(移動体の一例)と、ロボット10と通信ネットワーク9を介して通信可能であり、ロボット10を遠隔操作する表示端末50と、を備える。そして、ロボット10は、撮影装置21によって取得された画像データ200を取得する画像取得部36(取得手段の一例)と、取得された画像データ200に含まれる複数の人物の位置および向きに基づいて、ロボット10の移動先を示す目標点を算出する注目点算出部42および目標点算出部43(算出手段の一例)と、算出された目標点へロボット10を移動させる移動制御部37(移動制御手段の一例)と、算出された目標点において撮影装置21によって取得された画像データ200を、表示端末50へ送信する送受信部31(第1の送信手段の一例)を備える。また、表示端末50は、ロボット10から送信された画像データ200を受信する送受信部51(受信手段の一例)と、受信された画像データ200を、ディスプレイ512(表示手段の一例)に表示させる表示制御部53(表示制御手段の一例)と、を備える。そのため、遠隔制御システム1aは、ロボット10が位置する拠点と表示端末50との間における、ロボット10を用いた遠隔コミュニケーションを活性化させることができる。 Further, the remote control system 1a according to one embodiment of the present invention includes a robot 10 (an example of a moving body) equipped with an imaging device 21 for imaging a subject and obtaining image data 200, and a robot 10 via a communication network 9. and a display terminal 50 that can communicate with the robot 10 and remotely operates the robot 10 . Then, the robot 10 acquires the image data 200 acquired by the photographing device 21 based on the image acquisition unit 36 (an example of acquisition means) and the positions and orientations of the plurality of persons included in the acquired image data 200. , a target point calculation unit 42 and a target point calculation unit 43 (an example of calculation means) for calculating a target point indicating the destination of the robot 10, and a movement control unit 37 (movement control unit) for moving the robot 10 to the calculated target point. means) and a transmitting/receiving section 31 (an example of a first transmitting means) that transmits the image data 200 acquired by the photographing device 21 at the calculated target point to the display terminal 50 . The display terminal 50 also includes a transmitting/receiving unit 51 (an example of receiving means) for receiving the image data 200 transmitted from the robot 10, and a display for displaying the received image data 200 on a display 512 (an example of the displaying means). and a control unit 53 (an example of display control means). Therefore, the remote control system 1 a can activate remote communication using the robot 10 between the base where the robot 10 is located and the display terminal 50 .

さらに、本発明の一実施形態に係る遠隔制御システム1bは、被写体を撮影して画像データ200を取得する撮影装置21を備えるロボット10(移動体の一例)と、ロボット10と通信ネットワーク9を介して通信可能であり、ロボット10を遠隔操作する表示端末50と、を備える。そして、表示端末50は、撮影装置21によって取得された画像データ200を取得する送受信部51(取得手段の一例)と、取得された画像データ200に含まれる複数の人物の位置および向きに基づいて、ロボット10の移動先を示す目標点を算出する注目点算出部62および目標点算出部63(算出手段の一例)と、算出された目標点へロボット10を移動させるための要求コマンド(要求情報の一例)を、ロボット10を送信する送受信部51(第2の送信手段の一例)と、を備える。また、ロボット10は、算出された目標点へロボット10を移動させる移動制御部37(移動制御手段の一例)と、表示端末50から送信された要求コマンドに含まれる目標点において撮影装置21によって取得された画像データ200を、表示端末50へ送信する送受信部31(第1の送信手段の一例)と、を備える。さらに、表示端末50は、ロボット10から送信された画像データ200を受信する送受信部51(受信手段の一例)と、受信された画像データ200を、ディスプレイ512(表示手段の一例)に表示させる表示制御部53(表示制御手段の一例)と、を備える。そのため、遠隔制御システム1bは、ロボット10が位置する拠点と表示端末50との間における、ロボット10を用いた遠隔コミュニケーションを活性化させることができる。 Further, the remote control system 1b according to one embodiment of the present invention includes a robot 10 (an example of a moving body) equipped with an imaging device 21 for imaging a subject and acquiring image data 200, and a robot 10 and a communication network 9. and a display terminal 50 that can communicate with the robot 10 and remotely operates the robot 10 . Then, the display terminal 50 acquires the image data 200 acquired by the photographing device 21, and based on the positions and orientations of the plurality of persons included in the acquired image data 200, the transmission/reception unit 51 (an example of an acquisition unit) , a target point calculation unit 62 and a target point calculation unit 63 (an example of calculation means) for calculating a target point indicating the destination of the robot 10, and a request command (request information) for moving the robot 10 to the calculated target point. ), and a transmitting/receiving unit 51 (an example of second transmitting means) that transmits the robot 10 . In addition, the robot 10 acquires the target point included in the request command transmitted from the display terminal 50 by the movement control unit 37 (an example of movement control means) that moves the robot 10 to the calculated target point by the imaging device 21 . and a transmitting/receiving unit 31 (an example of a first transmitting unit) that transmits the image data 200 thus obtained to the display terminal 50 . Further, the display terminal 50 includes a transmitting/receiving unit 51 (an example of receiving means) for receiving the image data 200 transmitted from the robot 10, and a display for displaying the received image data 200 on a display 512 (an example of the displaying means). and a control unit 53 (an example of display control means). Therefore, the remote control system 1 b can activate remote communication using the robot 10 between the base where the robot 10 is located and the display terminal 50 .

また、本発明の一実施形態に係る遠隔制御システム1cは、被写体を撮影して画像データ200を取得する撮影装置21を備えるロボット10(移動体の一例)と、ロボット10と通信ネットワーク9を介して通信可能であり、ロボット10を遠隔操作する表示端末50と、ロボット10および表示端末50のそれぞれと通信ネットワーク9を介して通信可能な画像処理サーバ70(情報処理装置の一例)と、を備える。そして、画像処理サーバ70は、撮影装置21によって取得された画像データ200を取得する送受信部71(取得手段の一例)と、取得された画像データ200に含まれる複数の人物の位置および向きに基づいて、ロボット10の移動先を示す目標点を算出する注目点算出部75および目標点算出部76(算出手段の一例)と、算出された目標点へロボット10を移動させるための要求データ(要求情報の一例)を、ロボット10を送信する送受信部71(第3の送信手段の一例)と、を備える。また、ロボット10は、算出された目標点へロボット10を移動させる移動制御部37(移動制御手段の一例)と、画像処理サーバ70から送信された要求データに含まれる目標点において撮影装置21によって取得された画像データ200を、表示端末50へ送信する送受信部31(第1の送信手段の一例)と、を備える。さらに、表示端末50は、ロボット10から送信された画像データ200を受信する送受信部51(受信手段の一例)と、受信された画像データ200を、ディスプレイ512(表示手段の一例)に表示させる表示制御部53(表示制御手段の一例)と、を備える。そのため、遠隔制御システム1cは、ロボット10が位置する拠点と表示端末50との間における、ロボット10を用いた遠隔コミュニケーションを活性化させることができる。 Further, the remote control system 1c according to one embodiment of the present invention includes a robot 10 (an example of a mobile body) equipped with a photographing device 21 for photographing a subject and acquiring image data 200, and a robot 10 and a communication network 9. and an image processing server 70 (an example of an information processing device) capable of communicating with each of the robot 10 and the display terminal 50 via a communication network 9. . Then, the image processing server 70 acquires the image data 200 acquired by the photographing device 21, and based on the positions and orientations of the plurality of persons included in the acquired image data 200, the transmission/reception unit 71 (an example of an acquisition unit) , a target point calculation unit 75 and a target point calculation unit 76 (an example of calculation means) for calculating a target point indicating the destination of the robot 10, and request data (request data) for moving the robot 10 to the calculated target point. an example of information) to the robot 10; In addition, the robot 10 moves the robot 10 to the calculated target point by the movement control unit 37 (an example of movement control means), and by the imaging device 21 at the target point included in the request data transmitted from the image processing server 70 . and a transmission/reception unit 31 (an example of a first transmission unit) that transmits the acquired image data 200 to the display terminal 50 . Further, the display terminal 50 includes a transmitting/receiving unit 51 (an example of receiving means) for receiving the image data 200 transmitted from the robot 10, and a display for displaying the received image data 200 on a display 512 (an example of the displaying means). and a control unit 53 (an example of display control means). Therefore, the remote control system 1 c can activate remote communication using the robot 10 between the base where the robot 10 is located and the display terminal 50 .

●補足●
なお、各実施形態の機能は、アセンブラ、C、C++、C#、Java(登録商標)等のレガシープログラミング言語やオブジェクト指向プログラミング言語等で記述されたコンピュータ実行可能なプログラムにより実現でき、ROM、EEPROM、EPROM(Erasable Programmable Read-Only Memory)、フラッシュメモリ、フレキシブルディスク、CD-ROM、CD-RW、DVD-ROM、DVD-RAM、DVD-RW、ブルーレイディスク、SDカード、MO(Magneto-Optical disc)等の装置可読な記録媒体に格納して、または電気通信回線を通じて頒布することができる。
● Supplement ●
The functions of each embodiment can be realized by computer-executable programs written in legacy programming languages such as assembler, C, C++, C#, Java (registered trademark), object-oriented programming languages, etc. , EPROM (Erasable Programmable Read-Only Memory), Flash memory, Flexible disk, CD-ROM, CD-RW, DVD-ROM, DVD-RAM, DVD-RW, Blu-ray disc, SD card, MO (Magneto-Optical disc) It can be stored in a device-readable recording medium such as, or distributed through an electric communication line.

また、各実施形態の機能の一部または全部は、例えばFPGA(Field Programmable Gate Array)等のプログラマブル・デバイス(PD)上に実装することができ、またはASICとして実装することができ、各実施形態の機能をPD上に実現するためにPDにダウンロードする回路構成データ(ビットストリームデータ)、回路構成データを生成するためのHDL(Hardware Description Language)、VHDL(Very High Speed Integrate
d Circuits Hardware Description Language)、Verilog-HDL等により記述されたデータとして記録媒体により配布することができる。
Also, part or all of the functions of each embodiment can be implemented on a programmable device (PD) such as an FPGA (Field Programmable Gate Array), or can be implemented as an ASIC. circuit configuration data (bit stream data) downloaded to the PD to realize the functions of the PD, HDL (Hardware Description Language) for generating the circuit configuration data, VHDL (Very High Speed Integrate
d Circuits Hardware Description Language), Verilog-HDL, etc. can be distributed by a recording medium.

これまで本発明の一実施形態に係る情報処理装置、移動体、遠隔制御システム、情報処理方法およびプログラムについて説明してきたが、本発明は上述した実施形態に限定されるものではなく、他の実施形態の追加、変更または削除等、当業者が想到することができる範囲内で変更することができ、いずれの態様においても本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。 An information processing apparatus, a mobile object, a remote control system, an information processing method, and a program according to one embodiment of the present invention have been described so far, but the present invention is not limited to the above-described embodiment, and other embodiments. Modifications such as additions, changes, deletions, etc. of forms can be made within the range that a person skilled in the art can conceive. be.

1a、1b、1c 遠隔制御システム
10 ロボット(移動体の一例)
17 移動機構
21 撮影装置
30 制御装置(情報処理装置の一例)
31 送受信部(第1の送信手段の一例)
36 画像取得部(取得手段の一例)
37 移動制御部(移動制御手段の一例)
39 位置特定部(位置検出手段の一例)
41 画像処理部
42 注目点算出部(算出手段の一例、推定手段の一例、注目点特定手段の一例)
43 目標点算出部(算出手段の一例、目標点特定手段の一例)
45 存在通知部(存在通知手段の一例)
50 表示端末(情報処理装置の一例)
51 送受信部(取得手段の一例、受信手段の一例、第2の送信手段の一例)
53 表示制御部(表示制御手段の一例)
61 画像処理部
62 注目点算出部(算出手段の一例、推定手段の一例、注目点特定手段の一例)
63 目標点算出部(算出手段の一例、目標点特定手段の一例)
70 画像処理サーバ(情報処理装置の一例)
71 送受信部(取得手段の一例、第3の送信手段の一例)
74 画像処理部
75 注目点算出部(算出手段の一例、推定手段の一例、注目点特定手段の一例)
76 目標点算出部(算出手段の一例、目標点特定手段の一例)
90 管理サーバ
1a, 1b, 1c Remote control system 10 Robot (an example of a moving object)
17 moving mechanism 21 photographing device 30 control device (an example of an information processing device)
31 transmission/reception unit (an example of first transmission means)
36 image acquisition unit (an example of acquisition means)
37 movement control unit (an example of movement control means)
39 Position specifying unit (an example of position detection means)
41 image processing unit 42 attention point calculation unit (an example of calculation means, an example of estimation means, an example of attention point specifying means)
43 Target point calculation unit (an example of calculation means, an example of target point identification means)
45 Presence notification unit (an example of presence notification means)
50 display terminal (an example of an information processing device)
51 Transceiver (an example of acquisition means, an example of reception means, an example of second transmission means)
53 Display control unit (an example of display control means)
61 image processing unit 62 attention point calculation unit (an example of calculation means, an example of estimation means, an example of attention point specifying means)
63 Target point calculation unit (an example of calculation means, an example of target point identification means)
70 image processing server (an example of an information processing device)
71 transmission/reception unit (an example of acquisition means, an example of third transmission means)
74 image processing unit 75 attention point calculation unit (an example of calculation means, an example of estimation means, an example of attention point specifying means)
76 target point calculation unit (an example of calculation means, an example of target point identification means)
90 management server

特開2012-161851号公報JP 2012-161851 A

請求項1に係る情報処理装置は、被写体を撮影して画像データを取得する撮影装置を備える移動体を移動させる情報処理装置であって、前記撮影装置によって取得された前記画像データに含まれる人物が注目する注目点を特定する注目点特定手段を備え、前記注目点に基づいて前記移動体を移動させることを特徴とするAn information processing apparatus according to claim 1 is an information processing apparatus for moving a moving body, which includes an image capturing apparatus that captures an image of a subject and acquires image data, wherein a person included in the image data acquired by the image capturing apparatus. is provided with point-of-interest specifying means for specifying a point of interest to which the is focused, and the moving object is moved based on the point of interest .

Claims (15)

被写体を撮影して画像データを取得する撮影装置を備える移動体の位置を調整する情報処理装置であって、
前記撮影装置によって取得された前記画像データを取得する取得手段と、
前記取得された画像データに含まれる複数の人物の位置および向きに基づいて、前記移動体の移動先を示す目標点を算出する算出手段と、を備え、
前記算出手段によって前記目標点を算出することで、前記移動体を前記目標点へ移動させる情報処理装置。
An information processing device for adjusting the position of a moving object, comprising a photographing device for photographing a subject and acquiring image data,
an acquisition means for acquiring the image data acquired by the imaging device;
calculating means for calculating a target point indicating a destination of the moving body based on the positions and orientations of the plurality of persons included in the acquired image data;
An information processing apparatus for moving the moving body to the target point by calculating the target point by the calculation means.
前記算出手段は、前記複数の人物のうち少なくとも一つの人物の位置または向きが変化した場合、変化した人物の位置または向きに基づいて、前記目標点を算出する、請求項1に記載の情報処理装置。 2. The information processing according to claim 1, wherein, when the position or orientation of at least one of the plurality of persons changes, the calculation means calculates the target point based on the changed position or orientation of the person. Device. 請求項1または2に記載の情報処理装置であって、
前記算出手段は、
前記取得された画像データに含まれる複数の人物の位置および向きを推定する推定手段と、
前記推定された位置および向きに基づいて、前記複数の人物が注目する注目点を特定する注目点特定手段と、
前記特定された注目点に基づいて、前記目標点を特定する目標点特定手段と、
を有する情報処理装置。
The information processing device according to claim 1 or 2,
The calculation means is
estimating means for estimating the positions and orientations of a plurality of persons included in the acquired image data;
Point-of-interest identifying means for identifying a point of interest on which the plurality of persons pays attention based on the estimated position and orientation;
target point specifying means for specifying the target point based on the specified target point;
Information processing device having
前記目標点は、前記移動先の目標位置を示す位置情報を含み、
前記目標点特定手段は、
前記推定された注目点から、前記注目点と前記複数の人物との距離の平均値だけ離れた位置を、前記目標位置として特定する請求項3に記載の情報処理装置。
The target point includes position information indicating the target position of the destination,
The target point specifying means is
4. The information processing apparatus according to claim 3, wherein a position separated from the estimated point of interest by an average value of distances between the point of interest and the plurality of persons is specified as the target position.
前記目標点は、前記移動先における前記移動体の向きを示す方向情報を含み、
前記目標点特定手段は、
現在の移動体の位置から見た前記推定された注目点の方向を、前記移動体の向きとして特定する、請求項3または4に記載の情報処理装置。"
the target point includes direction information indicating the direction of the moving body at the destination;
The target point specifying means is
5. The information processing apparatus according to claim 3, wherein the estimated direction of the point of interest viewed from the current position of the moving body is specified as the direction of the moving body. "
請求項1乃至5のいずれか一項に記載の情報処理装置と、
前記算出された目標点へ前記移動体を移動させる移動機構と、
を備えた移動体。
an information processing apparatus according to any one of claims 1 to 5;
a moving mechanism for moving the moving body to the calculated target point;
A mobile object with
請求項6に記載の移動体であって、更に、
前記移動体の現在位置を検出する位置検出手段と、
前記検出された現在位置と前記算出された目標点との距離が閾値以下または閾値より小さい場合、前記移動体の存在を通知する通知情報を出力する存在通知手段と、
を備える移動体。
The mobile object according to claim 6, further comprising:
a position detection means for detecting the current position of the moving object;
Presence notification means for outputting notification information for notifying the presence of the moving object when the distance between the detected current position and the calculated target point is equal to or less than a threshold or smaller than a threshold;
A mobile body with
前記通知情報は、音信号であり、
前記存在通知手段は、検出された現在位置と前記算出された目標点との距離が閾値以上または閾値より長い場合、前記音信号を出力する、請求項7に記載の移動体。
The notification information is a sound signal,
8. The moving body according to claim 7, wherein said presence notifying means outputs said sound signal when the distance between the detected current position and said calculated target point is equal to or greater than a threshold or longer than a threshold.
被写体を撮影して画像データを取得する撮影装置を備える移動体と、前記移動体と通信ネットワークを介して通信可能であり、前記移動体を遠隔操作する表示端末と、を備える遠隔制御システムであって、
前記撮影装置によって取得された前記画像データを取得する取得手段と、
前記取得された画像データに含まれる複数の人物の位置および向きに基づいて、前記移動体の移動先を示す目標点を算出する算出手段と、
前記算出された目標点へ前記移動体を移動させる移動制御手段と、
を備える遠隔制御システム。
A remote control system comprising: a mobile body equipped with an imaging device for capturing an image of a subject and acquiring image data; and a display terminal capable of communicating with the mobile body via a communication network and remotely controlling the mobile body. hand,
an acquisition means for acquiring the image data acquired by the imaging device;
calculation means for calculating a target point indicating a destination of the moving object based on the positions and orientations of the plurality of persons included in the acquired image data;
a movement control means for moving the moving body to the calculated target point;
A remote control system with
請求項9に記載の遠隔制御システムであって、
前記移動体は、
前記算出された目標点において前記撮影装置によって取得された画像データを、前記表示端末へ送信する第1の送信手段を備え、
前記表示端末は、
前記第1の送信手段によって送信された前記画像データを受信する受信手段と、
前記受信された画像データを、表示手段に表示させる表示制御手段と、を備える遠隔制御システム。
A remote control system according to claim 9, wherein
The moving body is
a first transmitting means for transmitting image data acquired by the imaging device at the calculated target point to the display terminal;
The display terminal is
receiving means for receiving the image data transmitted by the first transmitting means;
and display control means for displaying the received image data on a display means.
請求項9に記載の遠隔制御システムであって、
前記表示端末は、
前記算出された目標点へ前記移動体を移動させるための要求情報を、前記移動体へ送信する第2の送信手段を備え、
前記移動体は、
前記第2の送信手段によって送信された前記要求情報に含まれる前記目標点において前記撮影装置によって取得された画像データを、前記表示端末へ送信する第1の送信手段を備え、
前記表示端末は、更に、
前記第1の送信手段によって送信された前記画像データを受信する受信手段と、
前記受信された画像データを、表示手段に表示させる表示制御手段と、を備える遠隔制御システム。
A remote control system according to claim 9, wherein
The display terminal is
a second transmitting means for transmitting request information for moving the moving body to the calculated target point to the moving body;
The moving body is
a first transmitting means for transmitting to the display terminal the image data acquired by the imaging device at the target point included in the request information transmitted by the second transmitting means;
The display terminal further
receiving means for receiving the image data transmitted by the first transmitting means;
and display control means for displaying the received image data on a display means.
請求項9に記載の遠隔制御システムであって、更に、
前記移動体および前記表示端末のそれぞれと前記通信ネットワークを介して通信可能な情報処理装置を備え、
前記情報処理装置は、
前記算出された目標点へ前記移動体を移動させるための要求情報を、前記移動体へ送信する第3の送信手段を備え、
前記移動体は、
前記第3の送信手段によって送信された前記要求情報に含まれる前記目標点において前記撮影装置によって取得された画像データを、前記表示端末へ送信する第1の送信手段を備え、
前記表示端末は、
前記第1の送信手段によって送信された前記画像データを受信する受信手段と、
前記受信された画像データを、表示手段に表示させる表示制御手段と、を備える遠隔制御システム。
10. The remote control system of claim 9, further comprising:
an information processing device capable of communicating with each of the mobile object and the display terminal via the communication network;
The information processing device is
a third transmitting means for transmitting request information for moving the moving body to the calculated target point to the moving body;
The moving body is
a first transmitting means for transmitting to the display terminal the image data acquired by the imaging device at the target point included in the request information transmitted by the third transmitting means;
The display terminal is
receiving means for receiving the image data transmitted by the first transmitting means;
and display control means for displaying the received image data on a display means.
被写体を撮影して画像データを取得する撮影装置を備える移動体の位置を調整する情報処理装置が実行する情報処理方法であって、
前記撮影装置によって取得された前記画像データを取得する取得ステップと、
前記取得された画像データに含まれる複数の人物の位置および向きに基づいて、前記移動体の移動先を示す目標点を算出する算出ステップと、を実行し、
前記算出ステップによって前記目標点を算出することで、前記移動体を前記目標点へ移動させる情報処理方法。
An information processing method executed by an information processing device that adjusts the position of a moving body that includes a photographing device that photographs a subject and acquires image data,
an acquisition step of acquiring the image data acquired by the imaging device;
a calculating step of calculating a target point indicating a destination of the moving body based on the positions and orientations of the plurality of persons included in the acquired image data;
An information processing method for moving the moving body to the target point by calculating the target point in the calculating step.
コンピュータに、請求項13に記載の方法を実行させるプログラム。 A program that causes a computer to perform the method according to claim 13. 被写体を撮影して画像データを取得する撮影装置を備える伝送端末の向きを調整する情報処理装置であって、
前記撮影装置によって取得された前記画像データを取得する取得手段と、
前記取得された画像データに含まれる複数の人物の位置および向きに基づいて、前記伝送端末の変更先の向きを算出する算出手段と、を備え、
前記算出手段によって前記変更先の向きを算出することで、前記伝送端末の向きを前記変更先の向きに変更させる情報処理装置。
An information processing device for adjusting the orientation of a transmission terminal equipped with a photographing device for photographing a subject and acquiring image data,
an acquisition means for acquiring the image data acquired by the imaging device;
a calculating means for calculating the orientation of the transmission terminal to be changed based on the positions and orientations of the plurality of persons included in the acquired image data;
An information processing apparatus for changing the orientation of the transmission terminal to the orientation of the change destination by calculating the orientation of the change destination by the calculation means.
JP2022096746A 2018-06-28 2022-06-15 Information processing device, mobile object, remote control system, information processing method and program Active JP7400882B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022096746A JP7400882B2 (en) 2018-06-28 2022-06-15 Information processing device, mobile object, remote control system, information processing method and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018123662A JP7091880B2 (en) 2018-06-28 2018-06-28 Information processing equipment, mobiles, remote control systems, information processing methods and programs
JP2022096746A JP7400882B2 (en) 2018-06-28 2022-06-15 Information processing device, mobile object, remote control system, information processing method and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018123662A Division JP7091880B2 (en) 2018-06-28 2018-06-28 Information processing equipment, mobiles, remote control systems, information processing methods and programs

Publications (2)

Publication Number Publication Date
JP2022141639A true JP2022141639A (en) 2022-09-29
JP7400882B2 JP7400882B2 (en) 2023-12-19

Family

ID=69100641

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018123662A Active JP7091880B2 (en) 2018-06-28 2018-06-28 Information processing equipment, mobiles, remote control systems, information processing methods and programs
JP2022096746A Active JP7400882B2 (en) 2018-06-28 2022-06-15 Information processing device, mobile object, remote control system, information processing method and program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018123662A Active JP7091880B2 (en) 2018-06-28 2018-06-28 Information processing equipment, mobiles, remote control systems, information processing methods and programs

Country Status (1)

Country Link
JP (2) JP7091880B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7091880B2 (en) * 2018-06-28 2022-06-28 株式会社リコー Information processing equipment, mobiles, remote control systems, information processing methods and programs
CN114714321A (en) * 2022-04-06 2022-07-08 深圳市普渡科技有限公司 Robot and distribution method, control device and storage medium thereof
CN116088580B (en) * 2023-02-15 2023-11-07 北京拙河科技有限公司 Flying object tracking method and device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008005208A (en) * 2006-06-22 2008-01-10 Nec Corp Camera automatic control system for athletics, camera automatic control method, camera automatic control unit, and program
JP2009183538A (en) * 2008-02-07 2009-08-20 Saitama Univ Wheelchair with autonomous traveling ability
JP2012076162A (en) * 2010-09-30 2012-04-19 Waseda Univ Conversation robot
JP2017188715A (en) * 2016-04-01 2017-10-12 富士通フロンテック株式会社 Video display system and video display method
JP2018085579A (en) * 2016-11-21 2018-05-31 シャープ株式会社 Imaging apparatus, control method, and information processing program
JP2020005147A (en) * 2018-06-28 2020-01-09 株式会社リコー Information processing apparatus, movable body, remote control system, information processing method, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008005208A (en) * 2006-06-22 2008-01-10 Nec Corp Camera automatic control system for athletics, camera automatic control method, camera automatic control unit, and program
JP2009183538A (en) * 2008-02-07 2009-08-20 Saitama Univ Wheelchair with autonomous traveling ability
JP2012076162A (en) * 2010-09-30 2012-04-19 Waseda Univ Conversation robot
JP2017188715A (en) * 2016-04-01 2017-10-12 富士通フロンテック株式会社 Video display system and video display method
JP2018085579A (en) * 2016-11-21 2018-05-31 シャープ株式会社 Imaging apparatus, control method, and information processing program
JP2020005147A (en) * 2018-06-28 2020-01-09 株式会社リコー Information processing apparatus, movable body, remote control system, information processing method, and program

Also Published As

Publication number Publication date
JP2020005147A (en) 2020-01-09
JP7400882B2 (en) 2023-12-19
JP7091880B2 (en) 2022-06-28

Similar Documents

Publication Publication Date Title
US11151773B2 (en) Method and apparatus for adjusting viewing angle in virtual environment, and readable storage medium
US11221726B2 (en) Marker point location display method, electronic device, and computer-readable storage medium
JP7400882B2 (en) Information processing device, mobile object, remote control system, information processing method and program
US9736368B2 (en) Camera in a headframe for object tracking
CN108888959B (en) Team forming method and device in virtual scene, computer equipment and storage medium
CN104333846B (en) Position reminding method and device
JP7026819B2 (en) Camera positioning method and equipment, terminals and computer programs
US20210268380A1 (en) Method and apparatus for observing virtual item in virtual environment and readable storage medium
US10110830B2 (en) Multiple streaming camera navigation interface system
KR20180112599A (en) Mobile terminal and method for controlling the same
US20200007751A1 (en) Control apparatus, movable apparatus, and remote-control system
US11878240B2 (en) Method, apparatus, device, and storage medium for perspective rotation
JP7346830B2 (en) Communication terminals, programs, display methods, recording media, systems
KR20160100188A (en) Mobile terminal and method of controlling the same
JP2023164525A (en) Communication terminal, program, display method and recording medium
KR20170011194A (en) Mobile terminal and method for controlling the same
WO2020135084A1 (en) Method, apparatus and device for tracking target object, and storage medium
US10250813B2 (en) Methods and systems for sharing views
JP3918053B2 (en) Small mobile devices
JP7115097B2 (en) Communication terminal, program, display method, recording medium
US20230308705A1 (en) Communication terminal, communication management system, remote operation method, processing method, and communication management method
US11865449B2 (en) Virtual object control method, apparatus, device, and computer-readable storage medium
JP7338755B2 (en) Communication terminal, communication system, communication method and program
US20230236874A1 (en) Information processing system and information processing terminal
JP2023140160A (en) Communication terminal, communication management system, remote-controlled moving device, communication system, remote control method, communication management method, control method, communication method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220715

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230828

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20231013

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231120

R151 Written notification of patent or utility model registration

Ref document number: 7400882

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151