JP2022077679A - Control device and robot - Google Patents

Control device and robot Download PDF

Info

Publication number
JP2022077679A
JP2022077679A JP2020188619A JP2020188619A JP2022077679A JP 2022077679 A JP2022077679 A JP 2022077679A JP 2020188619 A JP2020188619 A JP 2020188619A JP 2020188619 A JP2020188619 A JP 2020188619A JP 2022077679 A JP2022077679 A JP 2022077679A
Authority
JP
Japan
Prior art keywords
terminal device
robot
unit
image
touch operation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020188619A
Other languages
Japanese (ja)
Inventor
章弥 稲垣
Akiya Inagaki
ユンジ チェ
Yunji Che
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2020188619A priority Critical patent/JP2022077679A/en
Publication of JP2022077679A publication Critical patent/JP2022077679A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Selective Calling Equipment (AREA)

Abstract

To set a photographed image of a first terminal device that is imaged for a remote operation by a robot performing a first touch operation on the first terminal device according to an application executed by the remote operation.SOLUTION: A control device 30A communicating with a robot and a second terminal device comprises a control unit 300a1, an acquisition unit 300a2, a specification unit 300a6, and an update unit 300a7. The acquisition unit 300a2 acquires a photographed image and second position information indicating a touch position with respect to the second terminal device. The control unit 300a1 causes the second terminal device to display a second icon corresponding to a first icon displayed on the first terminal device and causes the robot to execute the first touch operation on the basis of the second position information. The specification unit 300a6 specifies the first icon corresponding to the second icon indicating the second position information. The update unit 300a7 updates a frame rate of the photographed image on the basis of the type of an application corresponding to the specified first icon.SELECTED DRAWING: Figure 4

Description

本開示は、制御装置、及びロボット、に関する。 The present disclosure relates to control devices and robots.

特許文献1には、スマートフォン等の端末装置の機能を、端末装置に対するタッチ操作を実行するロボットを用いて検査する検査装置が開示されている。特許文献1に開示の検査装置は、検査対象の端末装置に対するタッチ操作をロボットに実行させ、端末装置の表示部を撮像して得られる画像と所定の気体画像とを比較することにより、端末装置の機能を検査する。 Patent Document 1 discloses an inspection device that inspects the function of a terminal device such as a smartphone by using a robot that executes a touch operation on the terminal device. The inspection device disclosed in Patent Document 1 is a terminal device by causing a robot to perform a touch operation on the terminal device to be inspected and comparing an image obtained by imaging a display unit of the terminal device with a predetermined gas image. Inspect the function of.

特開2009-290852号公報Japanese Unexamined Patent Publication No. 2009-290852

ロボットを用いた遠隔操作により端末装置にアプリケーションを実行させる場合、ユーザは、操作される側の端末装置の表示領域の撮像画像を手元の端末装置に表示させ、手元の端末装置に表示される画像を通じてアプリケーションの実行状況を把握する。ロボットを用いた端末装置の遠隔操作において、アプリケーションを実行中の端末装置の撮像の設定が、当該アプリケーションに適していないと種々の問題が発生し得る。撮像の設定の具体例としては、撮像画像の解像度が挙げられる。また、撮像画像が動画像である場合には、撮像の設定の具体例として撮像画像のフレームレートが挙げられる。例えば、動画閲覧アプリケーション又はゲームアプリケーションを実行中の端末装置の撮像画像のフレームレートが低いと、操作する側の端末装置での動画の閲覧又はゲーム操作に支障が生じる。一方、撮像画像のフレームレートをアプリケーションの種類とは無関係に予め高く設定しておくと、遠隔操作により実行させるアプリケーションがメールアプリケーション又はSNSアプリケーションである場合には、撮像画像のフレームレートが低くても遠隔操作に支障が生じないにも拘わらず、撮像画像に関する通信量が無駄に増加する。 When the terminal device is made to execute the application by remote control using a robot, the user causes the terminal device at hand to display the captured image of the display area of the terminal device on the operated side, and the image displayed on the terminal device at hand. Understand the execution status of the application through. In remote control of a terminal device using a robot, various problems may occur if the setting for imaging of the terminal device in which the application is being executed is not suitable for the application. Specific examples of the imaging settings include the resolution of the captured image. When the captured image is a moving image, the frame rate of the captured image can be mentioned as a specific example of the setting for imaging. For example, if the frame rate of the captured image of the terminal device running the video viewing application or the game application is low, the viewing of the video or the game operation on the operating terminal device is hindered. On the other hand, if the frame rate of the captured image is set high in advance regardless of the type of application, even if the frame rate of the captured image is low, if the application to be executed by remote operation is a mail application or an SNS application. Although the remote operation is not hindered, the amount of communication related to the captured image is unnecessarily increased.

本開示は以上に説明した課題に鑑みて為されたものであり、ロボットを用いた端末装置の遠隔操作において、端末装置に実行させるアプリケーションに応じた撮像の設定で、端末装置の表示領域の画像を撮像させることを目的とする。 This disclosure has been made in view of the above-mentioned problems, and in the remote control of the terminal device using a robot, the image of the display area of the terminal device is set according to the application to be executed by the terminal device. The purpose is to have an image taken.

以上に説明した課題を解決するために、本開示の制御装置は、複数のアプリケーションに1対1に対応する複数の第1アイコンが表示される第1端末装置の表示領域に対して第1タッチ操作を行うロボットを、第2端末装置の表示領域に対する第2タッチ操作に基づいて制御する制御装置であって、取得部と、制御部と、特定部と、更新部とを備える。取得部は、前記ロボットが第1端末装置を撮像することによって生成された第1画像と、前記第2タッチ操作によってタッチされた前記第2端末装置の表示領域における位置を示す第2位置情報を取得する。制御部は、前記第1画像に基づいて、前記第2端末装置の表示領域に前記複数の第1アイコンに1対1に対応する複数の第2アイコンを表示させ、前記第2位置情報に基づいて前記ロボットに前記第1タッチ操作を実行させる。特定部は、前記第2位置情報に基づいて、前記複数の第2アイコンのうち前記第2タッチ操作によって選択された一の第2アイコンに対応する一の第1アイコンを特定する。更新部は、前記一の第1アイコンに対応するアプリケーションの種類に基づいて、前記ロボットによる撮像の設定を、前記一の第1アイコンに対応するアプリケーションの種類に応じた設定に更新する。 In order to solve the problems described above, the control device of the present disclosure has a first touch on the display area of the first terminal device in which a plurality of first icons corresponding to one-to-one are displayed in a plurality of applications. It is a control device that controls a robot to be operated based on a second touch operation on a display area of a second terminal device, and includes an acquisition unit, a control unit, a specific unit, and an update unit. The acquisition unit receives the first image generated by the robot taking an image of the first terminal device and the second position information indicating the position in the display area of the second terminal device touched by the second touch operation. get. Based on the first image, the control unit causes the plurality of first icons to display a plurality of second icons corresponding to one-to-one in the display area of the second terminal device, and is based on the second position information. The robot is made to execute the first touch operation. Based on the second position information, the specific unit identifies one first icon corresponding to the first second icon selected by the second touch operation among the plurality of second icons. The update unit updates the setting of the image pickup by the robot to the setting according to the type of the application corresponding to the first icon, based on the type of the application corresponding to the first icon.

以上に説明した課題を解決するために、本開示の別の態様の制御装置は、複数のアプリケーションに1対1に対応する複数の第1アイコンが表示される第1端末装置の表示領域に対して第1タッチ操作を行うロボットを、第2端末装置の表示領域に対する第2タッチ操作に基づいて制御する制御装置であって、取得部と、制御部と、特定部と、更新部と、を備える。取得部は、前記ロボットが第1端末装置を撮像することによって生成された第1画像と、前記第2タッチ操作によってタッチされた前記第2端末装置の表示領域における位置を示す第2位置情報を取得する。制御部は、前記第1画像に基づいて、前記第2端末装置の表示領域に前記複数の第1アイコンに1対1に対応する複数の第2アイコンを表示させ、前記第2位置情報に基づいて前記ロボットに前記第1タッチ操作を実行させる。特定部は、前記第1画像に基づいて、前記複数の第1アイコンのうち前記第1タッチ操作によって選択された一の第1アイコンを特定する。更新部は、前記一の第1アイコンに対応するアプリケーションの種類に基づいて、前記ロボットによる撮像の設定を、前記一の第1アイコンに対応するアプリケーションの種類に応じた設定に更新する。 In order to solve the problems described above, the control device of another aspect of the present disclosure relates to a display area of a first terminal device in which a plurality of first icons corresponding to one-to-one are displayed in a plurality of applications. A control device that controls a robot that performs a first touch operation based on a second touch operation on a display area of a second terminal device, and includes an acquisition unit, a control unit, a specific unit, and an update unit. Be prepared. The acquisition unit receives the first image generated by the robot taking an image of the first terminal device and the second position information indicating the position in the display area of the second terminal device touched by the second touch operation. get. Based on the first image, the control unit causes the plurality of first icons to display a plurality of second icons corresponding to one-to-one in the display area of the second terminal device, and is based on the second position information. The robot is made to execute the first touch operation. The specifying unit identifies one of the plurality of first icons selected by the first touch operation based on the first image. The update unit updates the setting of the image pickup by the robot to the setting according to the type of the application corresponding to the first icon, based on the type of the application corresponding to the first icon.

以上に説明した課題を解決するために、本開示のロボットは、第1端末装置の表示領域に対する第1タッチ操作を、第2端末装置の表示領域に対する第2タッチ操作に基づいて実行するロボットであって、
撮像装置、操作装置、及び処理装置を備える。操作装置は、前記第1端末装置と前記撮像装置との間に位置し、前記第1タッチ操作を行う。処理装置は、取得部、制御部、及び更新部を備える。取得部は、前記第1タッチ操作に関する指示情報と、前記撮像装置の撮像の設定に関する設定情報とを取得する。制御部は、前記指示情報に基づいて前記操作装置に前記第1タッチ操作を実行させる。更新部は、前記設定情報に基づいて前記撮像装置の設定を更新する。
In order to solve the problems described above, the robot of the present disclosure is a robot that executes a first touch operation on the display area of the first terminal device based on the second touch operation on the display area of the second terminal device. There,
It is equipped with an image pickup device, an operation device, and a processing device. The operation device is located between the first terminal device and the image pickup device, and performs the first touch operation. The processing device includes an acquisition unit, a control unit, and an update unit. The acquisition unit acquires instruction information regarding the first touch operation and setting information regarding the imaging setting of the imaging device. The control unit causes the operating device to execute the first touch operation based on the instruction information. The update unit updates the settings of the image pickup apparatus based on the setting information.

また、以上の課題を解決するために、本開示の別の態様のロボットは、複数のアプリケーションに1対1に対応する複数の第1アイコンが表示される第1端末装置の表示領域に対して第1タッチ操作を、第2端末装置の表示領域に対する第2タッチ操作に基づいて実行するロボットであって、撮像装置、操作装置、及び処理装置を備える。操作装置は、前記第1端末装置と前記撮像装置との間に位置し、前記第1タッチ操作を行う。処理装置は、取得部、制御部、特定部、及び更新部を備える。取得部は、前記第1タッチ操作に関する指示情報を取得する。制御部は、前記指示情報に基づいて、前記操作装置に前記第1タッチ操作を実行させる。特定部は、前記撮像装置によって撮像された前記第1端末装置の表示領域を示す第1画像に基づいて、前記第1タッチ操作によって前記複数の第1アイコンのうち選択された一の第1アイコンを特定する。更新部は、前記一の第1アイコンに対応するアプリケーションの種類に基づいて、前記撮像装置による撮像の設定を、前記一の第1アイコンに対応するアプリケーションの種類に応じた設定に更新する。 Further, in order to solve the above problems, the robot of another aspect of the present disclosure relates to a display area of a first terminal device in which a plurality of first icons corresponding to one-to-one are displayed in a plurality of applications. A robot that executes a first touch operation based on a second touch operation on a display area of a second terminal device, and includes an image pickup device, an operation device, and a processing device. The operation device is located between the first terminal device and the image pickup device, and performs the first touch operation. The processing device includes an acquisition unit, a control unit, a specific unit, and an update unit. The acquisition unit acquires instruction information regarding the first touch operation. The control unit causes the operating device to execute the first touch operation based on the instruction information. The specific unit is one of the plurality of first icons selected by the first touch operation based on the first image showing the display area of the first terminal device captured by the image pickup device. To identify. The update unit updates the setting of the image pickup by the image pickup apparatus to the setting according to the type of the application corresponding to the first icon, based on the type of the application corresponding to the first icon.

本開示によれば、ロボットを用いた端末装置の遠隔操作において、端末装置の表示領域の画像をロボットが撮像する際の撮像の設定を、遠隔操作により端末装置に実行させるアプリケーションに応じた設定にさせることができる。 According to the present disclosure, in the remote control of a terminal device using a robot, the setting of imaging when the robot captures an image in the display area of the terminal device is set according to the application for which the terminal device is executed by remote control. Can be made to.

本開示の第1実施形態による遠隔操作システム1Aの構成例を示す図である。It is a figure which shows the configuration example of the remote control system 1A by 1st Embodiment of this disclosure. ロボット10Aの構成例を示す図である。It is a figure which shows the configuration example of the robot 10A. 端末装置20Aの構成例を示す図である。It is a figure which shows the configuration example of the terminal apparatus 20A. 制御装置30Aの構成例を示す図である。It is a figure which shows the structural example of the control device 30A. ロボット10Aに対する端末装置40の傾きを説明するための図である。It is a figure for demonstrating the inclination of the terminal apparatus 40 with respect to a robot 10A. 端末装置40の表示領域の画像を端末装置20Aの表示装置230に表示させる表示動作の流れを示すフローチャートである。It is a flowchart which shows the flow of the display operation which displays the image of the display area of the terminal apparatus 40 on the display apparatus 230 of the terminal apparatus 20A. 撮像装置130による端末装置40の撮像画像の一例を示す図である。It is a figure which shows an example of the image captured by the terminal apparatus 40 by the image pickup apparatus 130. 制御装置30Aが生成する端末画像の一例を示す図である。It is a figure which shows an example of the terminal image generated by the control device 30A. 端末装置20Aの表示装置230に対して為されたタッチ操作に応じて、端末装置40に対するタッチ操作をロボット10Aに実行させる遠隔操作動作の流れを示すフローチャートである。It is a flowchart which shows the flow of the remote control operation which causes the robot 10A to perform the touch operation with respect to the terminal apparatus 40 in response to the touch operation performed with respect to the display apparatus 230 of the terminal apparatus 20A. 本開示の第2実施形態による遠隔操作システム1Bの構成例を示す図である。It is a figure which shows the configuration example of the remote control system 1B by the 2nd Embodiment of this disclosure. 端末装置20Bの構成例を示す図である。It is a figure which shows the configuration example of the terminal apparatus 20B. 端末装置40の表示領域の画像を端末装置20Bの表示装置230に表示させる表示動作の流れを示すフローチャートである。It is a flowchart which shows the flow of the display operation which displays the image of the display area of the terminal device 40 on the display device 230 of the terminal device 20B. 端末装置20Bの表示装置230に対して為されたタッチ操作に応じて、端末装置40に対するタッチ操作をロボット10Aに実行させる遠隔操作動作の流れを示すフローチャートである。It is a flowchart which shows the flow of the remote control operation which causes the robot 10A to perform the touch operation with respect to the terminal apparatus 40 in response to the touch operation performed with respect to the display apparatus 230 of the terminal apparatus 20B. 本開示の第3実施形態による遠隔操作システム1Cの構成例を示す図である。It is a figure which shows the configuration example of the remote control system 1C according to the 3rd Embodiment of this disclosure. ロボット10Cの構成例を示す図である。It is a figure which shows the configuration example of the robot 10C. 端末装置40の表示領域の画像を端末装置20Aの表示装置230に表示させる表示動作の流れを示すフローチャートである。It is a flowchart which shows the flow of the display operation which displays the image of the display area of the terminal apparatus 40 on the display apparatus 230 of the terminal apparatus 20A. 端末装置20Aの表示装置230に対して為されたタッチ操作に応じて、ロボット10Cが端末装置40に対するタッチ操作を実行する遠隔操作動作の流れを示すフローチャートである。It is a flowchart which shows the flow of the remote control operation which the robot 10C executes the touch operation with respect to the terminal apparatus 40 in response to the touch operation performed with respect to the display apparatus 230 of the terminal apparatus 20A.

以下、図面を参照して本開示の実施形態を説明する。以下に述べる実施形態には技術的に好ましい種々の限定が付されている。しかし、本開示の実施形態は、以下に述べる形態に限られるものではない。 Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. The embodiments described below are subject to various technically preferred limitations. However, the embodiments of the present disclosure are not limited to the embodiments described below.

A.第1実施形態
図1は、本開示の第1実施形態による遠隔操作システム1Aの構成例を示す図である。図1に示すように、遠隔操作システム1Aは、ロボット10Aと、制御装置30Aとを、を含む。ロボット10Aは、通信網NWを介して制御装置30Aと通信する。通信網NWは、インターネット及び移動通信網を含む。遠隔操作システム1Aは、端末装置40を通信網NW経由で端末装置20Aを用いて遠隔操作するためのシステムである。端末装置20Aは、通信網NWを介して制御装置30Aと通信する。本実施形態では、端末装置20Aに対するユーザの操作に応じて制御装置30Aがロボット10Aを制御することで、端末装置40の遠隔操作が実現される。端末装置40は本開示における第1端末装置の一例である。端末装置20Aは本開示における第2端末装置の一例である。
A. 1st Embodiment FIG. 1 is a diagram showing a configuration example of a remote control system 1A according to the first embodiment of the present disclosure. As shown in FIG. 1, the remote control system 1A includes a robot 10A and a control device 30A. The robot 10A communicates with the control device 30A via the communication network NW. The communication network NW includes the Internet and mobile communication networks. The remote control system 1A is a system for remotely controlling the terminal device 40 using the terminal device 20A via the communication network NW. The terminal device 20A communicates with the control device 30A via the communication network NW. In the present embodiment, the control device 30A controls the robot 10A according to the user's operation on the terminal device 20A, so that the remote control of the terminal device 40 is realized. The terminal device 40 is an example of the first terminal device in the present disclosure. The terminal device 20A is an example of the second terminal device in the present disclosure.

図1における端末装置40は、プログラム実行機能を備えた情報処理装置である。端末装置40は、例えばスマートフォンである。図1では詳細な図示を省略したが、端末装置40の筐体の平面形状は長方形である。端末装置40の筐体の平面形状は、長方形以外の多角形、又は4つの角部が丸められた長方形のように少なくとも一部が曲線で形成された形状、であってもよい。端末装置40には、複数のアプリケーションプログラムが予めインストールされている。アプリケーションプログラムは、「アプリケーションソフトウェア」又は「アプリ」とも称され得る。端末装置40は、複数のアプリケーションに1対1に対応する複数のアイコンを表示領域に表示させる。端末装置40の表示領域に表示されるアイコンは本開示における第1アイコンの一例である。端末装置40は、表示領域に対するタッチ操作により指定されたアイコンに対応するアプリケーションを実行する。 The terminal device 40 in FIG. 1 is an information processing device having a program execution function. The terminal device 40 is, for example, a smartphone. Although detailed illustration is omitted in FIG. 1, the planar shape of the housing of the terminal device 40 is rectangular. The planar shape of the housing of the terminal device 40 may be a polygon other than a rectangle, or a shape formed by at least a part of a curve such as a rectangle with four rounded corners. A plurality of application programs are pre-installed in the terminal device 40. The application program may also be referred to as "application software" or "application". The terminal device 40 causes a plurality of applications to display a plurality of icons corresponding to one-to-one in a display area. The icon displayed in the display area of the terminal device 40 is an example of the first icon in the present disclosure. The terminal device 40 executes an application corresponding to an icon designated by a touch operation on the display area.

図2は、ロボット10Aの構成例を示す図である。図2に示すように、ロボット10Aは、処理装置100、通信装置110、記憶装置120、撮像装置130、及び操作装置140を備える。通信装置110は、無線通信モジュールである。通信装置110は、通信網NWの基地局との間で無線通信を行う。 FIG. 2 is a diagram showing a configuration example of the robot 10A. As shown in FIG. 2, the robot 10A includes a processing device 100, a communication device 110, a storage device 120, an image pickup device 130, and an operation device 140. The communication device 110 is a wireless communication module. The communication device 110 performs wireless communication with a base station of the communication network NW.

記憶装置120は、処理装置100が読み取り可能な記録媒体である。記憶装置120は、例えば、不揮発性メモリと揮発性メモリとを含む。不揮発性メモリは、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable Read Only Memory)又はEEPROM(Electrically Erasable Programmable Read Only Memory)である。揮発性メモリは、例えば、RAM(Radom Access Memory)である。 The storage device 120 is a recording medium that can be read by the processing device 100. The storage device 120 includes, for example, a non-volatile memory and a volatile memory. The non-volatile memory is, for example, ROM (Read Only Memory), EPROM (Erasable Programmable Read Only Memory) or EEPROM (Electrically Erasable Programmable Read Only Memory). The volatile memory is, for example, RAM (Radom Access Memory).

記憶装置120の不揮発性メモリには、処理装置100によって実行されるプログラム120a1が記憶される。記憶装置120の揮発性メモリはプログラム120a1を実行する際のワークエリアとして処理装置100によって利用される。プログラム120a1は、例えば、通信装置110を介して、通信網NWに接続された不図示のサーバ等から取得され、その後、記憶装置120に記憶される。プログラム120a1は、ロボット10Aの工場出荷時点で記憶装置120に予め記憶されてもよい。 The non-volatile memory of the storage device 120 stores the program 120a1 executed by the processing device 100. The volatile memory of the storage device 120 is used by the processing device 100 as a work area when executing the program 120a1. The program 120a1 is acquired from, for example, a server (not shown) connected to the communication network NW via the communication device 110, and then stored in the storage device 120. The program 120a1 may be stored in the storage device 120 in advance at the time of shipment from the factory of the robot 10A.

撮像装置130は、例えば、集光された光を電気信号に変換する撮像素子であるCCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)等を備えたカメラである。本実施形態では、撮像装置130は、端末装置40を含む動画像を撮像する。撮像装置130は、撮像した画像を表す画像データを処理装置100へ出力する。 The image pickup device 130 is, for example, a camera provided with a CCD (Charge Coupled Device) or CMOS (Complementary Metal Oxide Semiconductor), which is an image pickup element that converts condensed light into an electric signal. In the present embodiment, the image pickup device 130 captures a moving image including the terminal device 40. The image pickup apparatus 130 outputs image data representing the captured image to the processing apparatus 100.

操作装置140は、図1に示すように、端末装置40に対するタッチ操作を行うための指示体142と、アーム144とを含む。また、操作装置140は、アーム144を移動させる移動機構(図示略)を含む。移動機構は、指示体142を用いたタッチ操作を実行する場合、アーム144を下方向に移動させる。指示体142は棒状に形成されている。図1では詳細な図示を省略したが、指示体142の一端には、端末装置40の表示領域を押下するための接触部が設けられている。指示体142の他端には、接触部が他の物体(例えば、端末装置40)に接触している場合に発光する発光部が設けられている。アーム144は、撮像装置130と端末装置40との間で指示体142を移動させる。アーム144は、撮像装置130による端末装置40の撮像の妨げとならないように、透明樹脂等の透明素材で形成される。なお、操作装置140は、指示体142及びアーム144を、複数組有してもよい。指示体142及びアーム144を二組有する操作装置140は、端末装置40に対してピンチイン又はピンチアウトといったピンチ操作を実行できる。ピンチインとは、端末装置40の表示領域に2本の指をタッチさせている状態において一方の指のタッチ位置と他方の指のタッチ位置との間隔を狭めるように2本の指を動かす操作のことをいう。ピンチインは、端末装置40に対して表示画像の縮小を指示する操作として一般に用いられる。ピンチアウトとは、端末装置40の表示領域に2本の指をタッチさせている状態において一方の指のタッチ位置と他方の指のタッチ位置との間隔を広げるように2本の指を動かす操作のことをいう。ピンチアウトは、端末装置40に対して表示画像の拡大を指示する操作として一般に用いられる。 As shown in FIG. 1, the operation device 140 includes an indicator body 142 for performing a touch operation on the terminal device 40, and an arm 144. Further, the operating device 140 includes a moving mechanism (not shown) for moving the arm 144. The moving mechanism moves the arm 144 downward when performing a touch operation using the indicator body 142. The indicator body 142 is formed in a rod shape. Although detailed illustration is omitted in FIG. 1, a contact portion for pressing the display area of the terminal device 40 is provided at one end of the indicator body 142. At the other end of the indicator 142, a light emitting portion that emits light when the contact portion is in contact with another object (for example, the terminal device 40) is provided. The arm 144 moves the indicator 142 between the image pickup device 130 and the terminal device 40. The arm 144 is formed of a transparent material such as a transparent resin so as not to interfere with the image pickup of the terminal device 40 by the image pickup device 130. The operating device 140 may have a plurality of sets of the indicator body 142 and the arm 144. The operating device 140 having two sets of the indicator body 142 and the arm 144 can perform a pinch operation such as pinch-in or pinch-out to the terminal device 40. Pinch-in is an operation of moving two fingers so as to narrow the distance between the touch position of one finger and the touch position of the other finger in a state where two fingers are touched on the display area of the terminal device 40. That means. Pinch-in is generally used as an operation of instructing the terminal device 40 to reduce the displayed image. Pinch-out is an operation of moving two fingers so as to widen the distance between the touch position of one finger and the touch position of the other finger while the display area of the terminal device 40 is touched by two fingers. It means that. Pinch-out is generally used as an operation of instructing the terminal device 40 to enlarge the displayed image.

処理装置100は、例えばCPU(Central Processing Unit)等のプロセッサ、即ちコンピュータを含んで構成される。処理装置100は、単一のコンピュータで構成されてもよいし、複数のコンピュータで構成されてもよい。処理装置100は、ロボット10Aの電源投入を契機としてプログラム120a1を不揮発性メモリから揮発性メモリに読み出し、プログラム120a1の実行を開始する。プログラム120a1に従って作動中の処理装置100は、図2に示す制御部100a1として機能する。図2に示す制御部100a1は、処理装置100をプログラム120a1に従って動作させることで実現されるソフトウェアモジュールである。 The processing device 100 includes, for example, a processor such as a CPU (Central Processing Unit), that is, a computer. The processing device 100 may be configured by a single computer or may be configured by a plurality of computers. The processing device 100 reads the program 120a1 from the non-volatile memory to the volatile memory when the power of the robot 10A is turned on, and starts the execution of the program 120a1. The processing device 100 operating according to the program 120a1 functions as the control unit 100a1 shown in FIG. The control unit 100a1 shown in FIG. 2 is a software module realized by operating the processing device 100 according to the program 120a1.

制御部100a1は、撮像装置130に端末装置40を撮像させる。撮像装置130は、端末装置40を撮像することによって撮像画像を生成する。撮像画像は本開示における第1画像の一例である。制御部100a1は、撮像装置130による端末装置40の撮像画像を、通信装置110を介して通信網NWへ送信する。また、制御部100a1は、通信網NWから与えられる更新指示に応じて、撮像装置130の設定を更新する。撮像装置130の設定としては、撮像画像のフレームレートと撮像画像の解像度との少なくとも一方が挙げられる。本実施形態における撮像装置130の設定は撮像画像のフレームレートである。更新指示には、撮像装置130の設定を示す設定情報が含まれる。 The control unit 100a1 causes the image pickup device 130 to take an image of the terminal device 40. The image pickup device 130 generates an image to be captured by taking an image of the terminal device 40. The captured image is an example of the first image in the present disclosure. The control unit 100a1 transmits the image captured by the terminal device 40 by the image pickup device 130 to the communication network NW via the communication device 110. Further, the control unit 100a1 updates the setting of the image pickup apparatus 130 in response to the update instruction given from the communication network NW. The setting of the image pickup apparatus 130 includes at least one of the frame rate of the captured image and the resolution of the captured image. The setting of the image pickup apparatus 130 in the present embodiment is the frame rate of the captured image. The update instruction includes setting information indicating the setting of the image pickup apparatus 130.

制御部100a1は、通信網NWから受信する操作指示に応じて操作装置140を制御し、端末装置40の表示領域に対するタッチ操作を行う。ロボット10Aが行うタッチ操作は本開示における第1タッチ操作の一例である。本実施形態では、ロボット10Aに対して、ロボット10Aの中心を原点とする2次元座標系におけるタッチ位置を指定する操作指示が制御装置30Aから与えられる。操作指示は本開示における指示情報の一例である。 The control unit 100a1 controls the operation device 140 in response to an operation instruction received from the communication network NW, and performs a touch operation on the display area of the terminal device 40. The touch operation performed by the robot 10A is an example of the first touch operation in the present disclosure. In the present embodiment, the control device 30A gives an operation instruction to the robot 10A to specify a touch position in the two-dimensional coordinate system with the center of the robot 10A as the origin. The operation instruction is an example of the instruction information in the present disclosure.

次いで、端末装置20Aの構成を説明する。端末装置20Aは、端末装置40を遠隔操作するためのユーザの操作を受け付ける情報処理装置である。端末装置20Aは、例えばスマートフォンである。図3は、端末装置20Aの構成例を示す図である。図3に示すように、端末装置20Aは、処理装置200、通信装置210、記憶装置220、表示装置230、及び入力装置240を備える。処理装置200は、処理装置100と同様に、単一のコンピュータ又は複数のコンピュータで構成される。通信装置210は、通信装置110と同様に、無線通信モジュールである。通信装置210は、通信網NWの基地局との間で無線通信を行う。記憶装置220は、記憶装置120と同様に、不揮発性メモリと揮発性メモリとを含む。 Next, the configuration of the terminal device 20A will be described. The terminal device 20A is an information processing device that accepts a user's operation for remotely controlling the terminal device 40. The terminal device 20A is, for example, a smartphone. FIG. 3 is a diagram showing a configuration example of the terminal device 20A. As shown in FIG. 3, the terminal device 20A includes a processing device 200, a communication device 210, a storage device 220, a display device 230, and an input device 240. Like the processing device 100, the processing device 200 is composed of a single computer or a plurality of computers. The communication device 210 is a wireless communication module like the communication device 110. The communication device 210 performs wireless communication with a base station of the communication network NW. The storage device 220, like the storage device 120, includes a non-volatile memory and a volatile memory.

記憶装置220の不揮発性メモリには、処理装置200によって実行されるプログラム220a1が記憶される。記憶装置220の揮発性メモリはプログラム220a1を実行する際のワークエリアとして処理装置200によって利用される。プログラム220a1は、例えば、通信装置210を介して、通信網NWに接続された不図示のサーバ等から取得され、その後、記憶装置220に記憶される。プログラム220a1は、端末装置20Aの工場出荷時点で記憶装置220に予め記憶されてもよい。 The non-volatile memory of the storage device 220 stores the program 220a1 executed by the processing device 200. The volatile memory of the storage device 220 is used by the processing device 200 as a work area when executing the program 220a1. The program 220a1 is acquired from, for example, a server (not shown) connected to the communication network NW via the communication device 210, and then stored in the storage device 220. The program 220a1 may be stored in the storage device 220 in advance at the time of shipment from the terminal device 20A.

表示装置230は、例えば液晶ディスプレイと、当該液晶ディスプレイの駆動回路とを含む。表示装置230は、処理装置200による制御の下で各種画像を表示する。表示装置230は本開示における第2端末装置の表示部の一例である。入力装置240は、例えば透明なシート状の接触検知センサである。入力装置240は表示装置230の表示領域を覆うように設けられる。本実施形態では、表示装置230と入力装置240とによりタッチパネルが形成される。入力装置240に対してユーザによってタッチ操作が為されると、入力装置240はユーザの操作を示す操作データを処理装置200へ出力する。操作データは、ユーザのタッチ操作を示すデータである。操作データには、ユーザのタッチ位置、即ち表示装置230の表示領域内のタッチ位置を示すデータが含まれる。タッチ操作を示す操作データを処理装置200へ出力することで、表示装置230の表示領域内のタッチ位置が処理装置200へ伝達される。なお、タッチ位置を押し続けた後に指を離す長押し操作が入力装置240に対して為された場合には、入力装置240は、タッチされていた時間を表すデータを更に含む操作データを処理装置200へ出力する。また、フリック操作のように指をタッチさせたまま移動させてその後離す操作が入力装置240に対して為された場合には、入力装置240は、タッチ開始位置、タッチ終了位置、及びタッチされていた時間の各々を示すデータを含む操作データを処理装置200へ出力する。 The display device 230 includes, for example, a liquid crystal display and a drive circuit for the liquid crystal display. The display device 230 displays various images under the control of the processing device 200. The display device 230 is an example of the display unit of the second terminal device in the present disclosure. The input device 240 is, for example, a transparent sheet-shaped contact detection sensor. The input device 240 is provided so as to cover the display area of the display device 230. In the present embodiment, the display device 230 and the input device 240 form a touch panel. When the user performs a touch operation on the input device 240, the input device 240 outputs operation data indicating the user's operation to the processing device 200. The operation data is data indicating a user's touch operation. The operation data includes data indicating a user's touch position, that is, a touch position in the display area of the display device 230. By outputting the operation data indicating the touch operation to the processing device 200, the touch position in the display area of the display device 230 is transmitted to the processing device 200. When the input device 240 is subjected to a long-press operation in which the finger is released after the touch position is continuously pressed, the input device 240 processes operation data including data representing the touched time. Output to 200. Further, when an operation such as a flick operation in which the finger is moved while being touched and then released is performed on the input device 240, the input device 240 is touched at the touch start position, the touch end position, and the touch. Operation data including data indicating each of the time spent is output to the processing device 200.

処理装置200は、プログラム220a1の実行開始を指示する操作を示す操作データを入力装置240から受け取ったことを契機としてプログラム220a1を不揮発性メモリから揮発性メモリに読み出し、プログラム220a1の実行を開始する。なお、プログラム220a1は、プログラム220a1とは異なるプログラムからの呼び出しにより実行されてもよい。処理装置200が複数のプログラムを並列に実行可能である場合において、実行中のプログラムにプログラム220a1の呼び出しを指示するコードが含まれていた場合には、処理装置200は当該コードの実行を契機としてプログラム220a1の実行を開始する。プログラム220a1の実行開始を指示する操作の具体例としては、プログラム220a1を示すものとして表示装置230に表示されるアイコンに対するタッチ操作が挙げられる。プログラム220a1に従って作動中の処理装置200は、制御部200a1として機能する。図3に示す制御部200a1は、処理装置200をプログラム220a1に従って動作させることで実現されるソフトウェアモジュールである。 The processing device 200 reads the program 220a1 from the non-volatile memory to the volatile memory when the operation data indicating the operation instructing the start of execution of the program 220a1 is received from the input device 240, and starts the execution of the program 220a1. The program 220a1 may be executed by a call from a program different from the program 220a1. When the processing device 200 can execute a plurality of programs in parallel and the running program contains a code instructing the call of the program 220a1, the processing device 200 triggers the execution of the code. The execution of the program 220a1 is started. Specific examples of the operation for instructing the start of execution of the program 220a1 include a touch operation for an icon displayed on the display device 230 as an indicator of the program 220a1. The processing device 200 operating according to the program 220a1 functions as the control unit 200a1. The control unit 200a1 shown in FIG. 3 is a software module realized by operating the processing device 200 according to the program 220a1.

制御部200a1は、制御装置30Aから送信される端末画像を通信装置210を介して受信する。端末画像とは、端末装置40の表示領域の画像のことをいう。端末画像は、端末装置40の撮像画像から制御装置30Aにより生成される。また、制御部200a1は、受信した端末画像を表示装置230に表示することで、タッチ操作をユーザに促す。そして、制御部200a1は、表示装置230の表示領域に対して為されたタッチ操作の位置を示す位置情報を通信装置210を介して制御装置30Aへ送信する。表示装置230の表示領域には端末画像が表示されるのであるから、表示装置230の表示領域に対して為されるタッチ操作によって、端末画像内の位置が指定される。表示装置230の表示領域に対して為されたタッチ操作は本開示における第2タッチ操作の一例である。端末装置20Aから制御装置30Aに送信される位置情報は本開示における第2位置情報の一例である。 The control unit 200a1 receives the terminal image transmitted from the control device 30A via the communication device 210. The terminal image refers to an image in the display area of the terminal device 40. The terminal image is generated by the control device 30A from the captured image of the terminal device 40. Further, the control unit 200a1 prompts the user to perform a touch operation by displaying the received terminal image on the display device 230. Then, the control unit 200a1 transmits the position information indicating the position of the touch operation performed on the display area of the display device 230 to the control device 30A via the communication device 210. Since the terminal image is displayed in the display area of the display device 230, the position in the terminal image is specified by the touch operation performed on the display area of the display device 230. The touch operation performed on the display area of the display device 230 is an example of the second touch operation in the present disclosure. The position information transmitted from the terminal device 20A to the control device 30A is an example of the second position information in the present disclosure.

次いで、制御装置30Aの構成を説明する。制御装置30Aは、端末装置20Aに対するユーザのタッチ操作に応じてロボット10Aを制御する情報処理装置である。制御装置30Aは、例えばサーバ又はパーソナルコンピュータである。図4は、制御装置30Aの構成例を示す図である。図4に示すように、制御装置30Aは、処理装置300、通信装置310、及び記憶装置320を備える。処理装置300は、処理装置100と同様に、単一のコンピュータ又は複数のコンピュータで構成される。通信装置310は、有線通信モジュールである。通信装置310は、通信線を介して通信網NWに接続される。通信装置310は、通信網NWとの間で有線通信を行う。記憶装置320は、記憶装置120と同様に、不揮発性メモリと揮発性メモリとを含む。 Next, the configuration of the control device 30A will be described. The control device 30A is an information processing device that controls the robot 10A in response to a user's touch operation on the terminal device 20A. The control device 30A is, for example, a server or a personal computer. FIG. 4 is a diagram showing a configuration example of the control device 30A. As shown in FIG. 4, the control device 30A includes a processing device 300, a communication device 310, and a storage device 320. Like the processing device 100, the processing device 300 is composed of a single computer or a plurality of computers. The communication device 310 is a wired communication module. The communication device 310 is connected to the communication network NW via a communication line. The communication device 310 performs wired communication with the communication network NW. The storage device 320, like the storage device 120, includes a non-volatile memory and a volatile memory.

記憶装置320の不揮発性メモリには、処理装置300によって実行されるプログラム320a1が記憶される。記憶装置320の揮発性メモリはプログラム320a1を実行する際のワークエリアとして処理装置300によって利用される。プログラム320a1は、例えば、通信装置310を介して、通信網NWに接続された不図示のサーバ等から取得され、その後、記憶装置320に記憶される。プログラム320a1は、制御装置30Aの工場出荷時点で記憶装置320に予め記憶されてもよい。 The program 320a1 executed by the processing device 300 is stored in the non-volatile memory of the storage device 320. The volatile memory of the storage device 320 is used by the processing device 300 as a work area when executing the program 320a1. The program 320a1 is acquired from, for example, a server (not shown) connected to the communication network NW via the communication device 310, and then stored in the storage device 320. The program 320a1 may be stored in the storage device 320 in advance at the time of factory shipment of the control device 30A.

記憶装置320には、プログラム320a1の他に、第1変換情報320a2、第2変換情報320a3、アプリDB320a4、及びテーブル320a5が記憶される。第1変換情報320a2は、撮像画像内の位置と端末画像内の位置とを相互変換するための情報である。第1変換情報320a2の具体例としては、撮像画像の中心を原点とする座標系において、端末画像の中心が占める位置を示す情報、及びロボット10Aに対する端末装置40の傾きの角度が挙げられる。 In addition to the program 320a1, the storage device 320 stores the first conversion information 320a2, the second conversion information 320a3, the application DB 320a4, and the table 320a5. The first conversion information 320a2 is information for mutual conversion between the position in the captured image and the position in the terminal image. Specific examples of the first conversion information 320a2 include information indicating a position occupied by the center of the terminal image in a coordinate system with the center of the captured image as the origin, and an angle of inclination of the terminal device 40 with respect to the robot 10A.

図5を参照して、傾きの角度を具体的に説明する。図5に示すY軸は、ロボット10Aの中心P1と撮像装置130の撮像範囲の中心P2とを通る座標軸である。図5におけるZ軸は鉛直方向の座標軸である。X軸はY軸及びZ軸に直交する座標軸である。ロボット10Aに対して端末装置40が傾いているとは、X軸及びY軸によって表される2次元座標系において、端末装置40の筐体の長辺LとY軸とが平行ではない状態のことをいう。以下、本実施形態では、端末装置40の筐体の長辺LとY軸との為す角度θを、ロボット10Aに対する端末装置40の傾きの角度と呼ぶ。 The angle of inclination will be specifically described with reference to FIG. The Y-axis shown in FIG. 5 is a coordinate axis passing through the center P1 of the robot 10A and the center P2 of the imaging range of the imaging device 130. The Z axis in FIG. 5 is a vertical coordinate axis. The X-axis is a coordinate axis orthogonal to the Y-axis and the Z-axis. The fact that the terminal device 40 is tilted with respect to the robot 10A means that the long sides L and the Y axis of the housing of the terminal device 40 are not parallel in the two-dimensional coordinate system represented by the X axis and the Y axis. Say that. Hereinafter, in the present embodiment, the angle θ formed by the long side L of the housing of the terminal device 40 and the Y axis is referred to as the angle of inclination of the terminal device 40 with respect to the robot 10A.

詳細については後述するが、ロボット10Aに対する端末装置40の傾きの角度は、撮像装置130による端末装置40の撮像画像に基づいて処理装置300によって検出される。端末装置40の傾きの角度は、プログラム320a1に従って作動している処理装置300によって検出されるため、第1変換情報320a2は、プログラム320a1に従って作動している処理装置300によって生成される。処理装置300によって生成された第1変換情報320a2は、揮発性メモリに書き込まれる。 Although the details will be described later, the angle of inclination of the terminal device 40 with respect to the robot 10A is detected by the processing device 300 based on the image captured by the terminal device 40 by the image pickup device 130. Since the tilt angle of the terminal device 40 is detected by the processing device 300 operating according to the program 320a1, the first conversion information 320a2 is generated by the processing device 300 operating according to the program 320a1. The first conversion information 320a2 generated by the processing device 300 is written in the volatile memory.

第2変換情報320a3は、撮像画像内の位置を、図5に示すX軸及びY軸により表され、ロボット10Aの中心の位置を原点とする2次元座標系における位置に変換するための情報である。ロボット10Aの中心の位置とは、ロボット10AをZ軸の正から負に向けて平面視した場合に、ロボット10Aの重心を示す位置である。以下では、図5に示すX軸及びY軸により表され、ロボット10Aの中心の位置を原点とする2次元座標系は、単に「XY座標系」と称される。第2変換情報320a3の具体例としては、XY座標系における撮像装置130の撮像範囲の中心の位置を示す情報と、撮像画像の拡大又は縮小の比率を示す情報とが挙げられる。なお、撮像画像が等倍で撮像されている場合には、第2変換情報320a3は、XY座標系における撮像装置130の撮像範囲の中心の位置を示す情報のみで構成される。第2変換情報320a3はロボット10Aの仕様により定まる情報である。第2変換情報320a3は、記憶装置320の不揮発性メモリに予め記憶されている。 The second conversion information 320a3 is information for converting a position in the captured image into a position in a two-dimensional coordinate system whose origin is the position of the center of the robot 10A represented by the X-axis and the Y-axis shown in FIG. be. The position of the center of the robot 10A is a position indicating the center of gravity of the robot 10A when the robot 10A is viewed in a plan view from the positive to the negative of the Z axis. In the following, the two-dimensional coordinate system represented by the X-axis and the Y-axis shown in FIG. 5 and having the position of the center of the robot 10A as the origin is simply referred to as an “XY coordinate system”. Specific examples of the second conversion information 320a3 include information indicating the position of the center of the imaging range of the imaging apparatus 130 in the XY coordinate system and information indicating the ratio of enlargement or reduction of the captured image. When the captured image is captured at the same magnification, the second conversion information 320a3 is composed only of information indicating the position of the center of the imaging range of the imaging device 130 in the XY coordinate system. The second conversion information 320a3 is information determined by the specifications of the robot 10A. The second conversion information 320a3 is stored in advance in the non-volatile memory of the storage device 320.

アプリDB320a4には、アプリのアイコンに対応付けてアプリの種類を示す情報が予め複数登録されている。本実施形態では、端末装置40にインストールされている各アプリのアイコンとアプリの種類を示す情報とがアプリDB320a4に予め登録されている。アプリDB320a4は記憶装置320の不揮発性メモリに予め記憶されている。アプリDB320a4は本開示における関係情報の一例である。テーブル320a5には、アプリDB320a4にアイコンが登録されているアプリの種類に対応付けて、アプリを実行中の端末装置40の表示領域の撮像に好適なフレームレートが予め格納されている。例えば動画閲覧アプリ又はゲームアプリについては高いフレームレートがテーブル320a5に格納されており、メールアプリ又はSNSアプリについては低いフレームレートがテーブル320a5に格納されている。動画閲覧アプリ又はゲームアプリを実行中の端末装置40を撮像する際のフレームレートを低くすると、端末装置20Aでの動画の閲覧又はゲーム操作に支障が生じる一方、メールアプリ又はSNSアプリであれば、フレームレートを低くしても遠隔操作に支障は生じないからである。テーブル320a5は記憶装置320の不揮発性メモリに予め記憶されている。 In the application DB 320a4, a plurality of information indicating the type of the application is registered in advance in association with the icon of the application. In the present embodiment, the icon of each application installed in the terminal device 40 and the information indicating the type of the application are registered in advance in the application DB 320a4. The application DB 320a4 is stored in advance in the non-volatile memory of the storage device 320. The application DB320a4 is an example of the related information in the present disclosure. In the table 320a5, a frame rate suitable for capturing the display area of the terminal device 40 in which the application is being executed is stored in advance in association with the type of the application in which the icon is registered in the application DB 320a4. For example, a high frame rate is stored in the table 320a5 for the video viewing application or the game application, and a low frame rate is stored in the table 320a5 for the mail application or the SNS application. If the frame rate when capturing the image of the terminal device 40 running the video viewing application or the game application is lowered, the viewing of the video or the game operation on the terminal device 20A is hindered, while the mail application or the SNS application is used. This is because even if the frame rate is lowered, there is no problem in remote operation. The table 320a5 is stored in advance in the non-volatile memory of the storage device 320.

処理装置300は、制御装置30Aの電源投入を契機としてプログラム320a1を不揮発性メモリから揮発性メモリに読み出し、プログラム320a1の実行を開始する。処理装置300は、プログラム320a1を実行することによって、図4に示す制御部300a1、取得部300a2、検出部300a3、生成部300a4、変換部300a5、特定部300a6、及び更新部300a7として機能する。図4に示す制御部300a1、取得部300a2、検出部300a3、生成部300a4、変換部300a5、特定部300a6、及び更新部300a7は、処理装置300をプログラム320a1に従って動作させることで実現されるソフトウェアモジュールである。制御部300a1、取得部300a2、検出部300a3、生成部300a4、変換部300a5、特定部300a6、及び更新部300a7の各々の機能の詳細については、動作例にて説明する。 The processing device 300 reads the program 320a1 from the non-volatile memory to the volatile memory when the power of the control device 30A is turned on, and starts executing the program 320a1. By executing the program 320a1, the processing device 300 functions as a control unit 300a1, an acquisition unit 300a2, a detection unit 300a3, a generation unit 300a4, a conversion unit 300a5, a specific unit 300a6, and an update unit 300a7. The control unit 300a1, the acquisition unit 300a2, the detection unit 300a3, the generation unit 300a4, the conversion unit 300a5, the specific unit 300a6, and the update unit 300a7 shown in FIG. 4 are software modules realized by operating the processing device 300 according to the program 320a1. Is. Details of the functions of the control unit 300a1, the acquisition unit 300a2, the detection unit 300a3, the generation unit 300a4, the conversion unit 300a5, the specific unit 300a6, and the update unit 300a7 will be described with reference to operation examples.

処理装置300は、プログラム320a1に従って作動することにより、表示動作と遠隔操作動作とを実行する。表示動作とは、端末画像を端末装置20Aの表示装置230に表示させる動作である。表示動作は、通信装置310を介して撮像画像を受信したことを契機として開始される。図6は、表示動作の流れを示すフローチャートである。図6に示すように、表示動作は、第1取得処理SA110、検出処理SA120、生成処理SA130、及び表示制御処理SA140を含む。 The processing device 300 operates according to the program 320a1 to execute a display operation and a remote control operation. The display operation is an operation of displaying the terminal image on the display device 230 of the terminal device 20A. The display operation is started when the captured image is received via the communication device 310. FIG. 6 is a flowchart showing the flow of the display operation. As shown in FIG. 6, the display operation includes a first acquisition process SA110, a detection process SA120, a generation process SA130, and a display control process SA140.

第1取得処理SA110では、処理装置300は取得部300a2として機能する。つまり、第1取得処理SA110は取得部300a2により実行される処理である。第1取得処理SA110では、取得部300a2は、ロボット10Aから送信された撮像画像を通信装置310から取得する。 In the first acquisition process SA110, the processing device 300 functions as the acquisition unit 300a2. That is, the first acquisition process SA110 is a process executed by the acquisition unit 300a2. In the first acquisition process SA110, the acquisition unit 300a2 acquires the captured image transmitted from the robot 10A from the communication device 310.

第1取得処理SA110に後続する検出処理SA120では、処理装置300は検出部300a3として機能する。つまり、検出処理SA120は検出部300a3により実行される処理である。検出部300a3は、取得部300a2により取得した撮像画像に基づいて、ロボット10Aに対する端末装置40の傾きを検出する。ロボット10Aに対する端末装置40の傾きの検出方法の具体的な態様としては、以下の第1態様、第2態様、第3態様、及び第4態様が挙げられる。 In the detection process SA120 following the first acquisition process SA110, the processing device 300 functions as the detection unit 300a3. That is, the detection process SA120 is a process executed by the detection unit 300a3. The detection unit 300a3 detects the inclination of the terminal device 40 with respect to the robot 10A based on the captured image acquired by the acquisition unit 300a2. Specific embodiments of the method for detecting the inclination of the terminal device 40 with respect to the robot 10A include the following first, second, third, and fourth aspects.

第1態様は、撮像画像に写っている端末装置40の輪郭線又は端末装置40の表示領域の輪郭線に基づいて、ロボット10Aに対する端末装置40の傾きを検出する態様である。第1態様では、検出部300a3は、撮像画像のX軸方向及びY軸方向の各々について、画素値をスキャンし、画素値が急激に変動する箇所を端末装置40の輪郭線として抽出する。検出部300a3は、スキャン方向に隣接する2つの画素の画素値(輝度)の差分を算出し、算出された差分が所定値以上となる画素を輪郭線上の画素として検出する。次いで、検出部300a3は、端末装置40の輪郭線の内側について同様の処理を実行することによって抽出される輪郭線の内側を表示領域とする。本実施形態では、端末装置40の輪郭線及び端末装置40の表示領域の輪郭線は長方形を為す。撮像画像がY軸方向に縦長の画像である場合、例えば、検出部300a3は、撮像画像の長辺と端末装置40の輪郭線とが平行になるように後者を時計回りに回転させたときの角度を端末装置40の傾きの角度とする。 The first aspect is an aspect of detecting the inclination of the terminal device 40 with respect to the robot 10A based on the contour line of the terminal device 40 or the contour line of the display area of the terminal device 40 shown in the captured image. In the first aspect, the detection unit 300a3 scans the pixel values in each of the X-axis direction and the Y-axis direction of the captured image, and extracts the portion where the pixel value suddenly fluctuates as the contour line of the terminal device 40. The detection unit 300a3 calculates the difference between the pixel values (luminances) of two pixels adjacent to each other in the scanning direction, and detects the pixel whose calculated difference is equal to or greater than a predetermined value as a pixel on the contour line. Next, the detection unit 300a3 sets the inside of the contour line extracted by performing the same processing on the inside of the contour line of the terminal device 40 as the display area. In the present embodiment, the contour line of the terminal device 40 and the contour line of the display area of the terminal device 40 form a rectangle. When the captured image is a vertically long image in the Y-axis direction, for example, when the detection unit 300a3 rotates the latter clockwise so that the long side of the captured image and the contour line of the terminal device 40 are parallel to each other. Let the angle be the angle of inclination of the terminal device 40.

第2態様は、撮像画像に写っているアイコンの形状を基づいて端末装置40の傾きを検出する態様である。第2態様では、検出部300a3は、表示領域の画像から第1態様と同様の方法によりアイコンの画像を抽出する。検出部300a3により抽出されるアイコンの画像は本開示における第2画像の一例である。そして、検出部300a3は、アイコンの輪郭線と撮像画像の輪郭線の為す角度を傾きの角度とする。撮像画像に複数のアイコンが写っている場合には、検出部300a3は、円形以外の形状のアイコンを選択して第1態様の方法により傾きを検出する。 The second aspect is an aspect of detecting the inclination of the terminal device 40 based on the shape of the icon shown in the captured image. In the second aspect, the detection unit 300a3 extracts the icon image from the image in the display area by the same method as in the first aspect. The image of the icon extracted by the detection unit 300a3 is an example of the second image in the present disclosure. Then, the detection unit 300a3 sets the angle formed by the contour line of the icon and the contour line of the captured image as the angle of inclination. When a plurality of icons appear in the captured image, the detection unit 300a3 selects an icon having a shape other than a circle and detects the inclination by the method of the first aspect.

第3態様は、撮像画像に複数のアイコンが写っている場合において、複数のアイコンの配列に基づいて傾きを検出する態様である。スマートフォンでは、複数のアイコンは、表示領域の長辺及び短辺に沿ってマトリックス状に配列されて表示されることが多い。従って、複数のアイコンのうちの一のアイコンの中心点と、当該一のアイコンの最寄に配列されるアイコンの中心点と、を通る直線は、表示領域の長辺又は短辺と平行になる。検出部300a3は、複数のアイコンのうちの一のアイコンの中心点と、当該一のアイコンの最寄に配列されるアイコンの中心点とを通る直線と撮像画像の長辺とが為す角度によって傾きを検出する。複数のアイコンの画像も本開示における第2画像の一例である。 The third aspect is an aspect in which when a plurality of icons are shown in a captured image, the inclination is detected based on the arrangement of the plurality of icons. On smartphones, a plurality of icons are often displayed arranged in a matrix along the long side and the short side of the display area. Therefore, the straight line passing through the center point of one of the plurality of icons and the center point of the icons arranged closest to the one icon is parallel to the long side or the short side of the display area. .. The detection unit 300a3 is tilted according to the angle formed by the straight line passing through the center point of one of the plurality of icons and the center point of the icons arranged closest to the one icon and the long side of the captured image. Is detected. Images of a plurality of icons are also examples of the second image in the present disclosure.

第4態様は、アイコンとともに表示される文字列とアイコンとを利用して端末装置40の傾きを特定する態様である。アイコンは、アイコンに対応するアプリの名称等を表す文字列とともに表示されることが多い。この文字列において各文字が並ぶ方向と撮像画像の輪郭線の長辺又は短辺とが為す角度を傾きの角度とする。アイコンとともに表示される文字列の画像も本開示における第2画像の一例である。 The fourth aspect is an aspect of specifying the inclination of the terminal device 40 by using the character string displayed together with the icon and the icon. The icon is often displayed together with a character string representing the name of the application corresponding to the icon. The angle formed by the direction in which the characters are lined up in this character string and the long side or the short side of the contour line of the captured image is defined as the angle of inclination. The image of the character string displayed together with the icon is also an example of the second image in the present disclosure.

本実施形態では、検出部300a3は、第1態様の検出方法により、ロボット10Aに対する端末装置40の傾きを検出する。しかし、検出部300a3は、第2態様、第3態様又は第4態様の検出方法により傾きを検出してもよい。また、検出部300a3は、第1態様の検出方法により傾きの検出を試み、傾きを検出できなかった場合に第2態様の検出方法により傾きの検出を試みるといったように、第1態様、第2態様、第3態様、及び第4態様のうちの任意の複数の態様を用いて傾きを検出してもよい。 In the present embodiment, the detection unit 300a3 detects the inclination of the terminal device 40 with respect to the robot 10A by the detection method of the first aspect. However, the detection unit 300a3 may detect the inclination by the detection method of the second aspect, the third aspect or the fourth aspect. Further, the detection unit 300a3 tries to detect the inclination by the detection method of the first aspect, and when the inclination cannot be detected, tries to detect the inclination by the detection method of the second aspect. Tilt may be detected using any of the embodiments, the third aspect, and the fourth aspect.

検出処理SA120に後続する生成処理SA130では、処理装置300は生成部300a4として機能する。つまり、生成処理SA130は生成部300a4により実行される処理である。生成部300a4は、取得部300a2により取得した撮像画像に基づいて端末画像を生成する。より詳細に説明すると、生成部300a4は、撮像画像のY方向及びX方向の各々について、画素値をスキャンし、画素値が急激に変動する箇所を端末装置40の輪郭線とする。そして、生成部300a4は、端末装置40の輪郭線の内側について同様の処理を実行することによって抽出される輪郭線の内側を表示領域とする。次いで、生成部300a4は、抽出した表示領域の画像を、検出部300a3により検出した傾きの角度だけ逆方向に回転させることで補正して端末画像を生成する。 In the generation process SA130 following the detection process SA120, the processing device 300 functions as the generation unit 300a4. That is, the generation process SA130 is a process executed by the generation unit 300a4. The generation unit 300a4 generates a terminal image based on the captured image acquired by the acquisition unit 300a2. More specifically, the generation unit 300a4 scans the pixel values in each of the Y direction and the X direction of the captured image, and sets the portion where the pixel value suddenly fluctuates as the contour line of the terminal device 40. Then, the generation unit 300a4 sets the inside of the contour line extracted by performing the same processing on the inside of the contour line of the terminal device 40 as the display area. Next, the generation unit 300a4 corrects the image of the extracted display area by rotating it in the opposite direction by the angle of inclination detected by the detection unit 300a3 to generate a terminal image.

例えば、取得部300a2により、図7に示す撮像画像G1が得られたとする。図7に示す例では、斜め線のハッチングを付された領域が端末装置40における表示領域である。図7において黒く塗りつぶされた長方形は、端末装置40の表示領域に表示されるアイコンを示す。生成部300a4は、図7に示す撮像画像から、端末装置40における表示領域の画像、即ち図7に示す例では斜め線のハッチングを付された領域の画像を抽出し、検出部300a3により検出した傾きの角度だけ逆方向に回転させて、図8に示す端末画像G2を生成する。なお、通信装置310を介した通信によって生成部300a4が端末装置20Aから表示装置230の表示領域の大きさを示す情報を取得できる場合、生成部300a4は、撮像画像から抽出した端末装置40の表示領域の画像を表示装置230の表示領域の大きさに合わせて拡大又は縮小させて端末画像を生成してもよい。また、生成部300a4は、第1変換情報320a2を生成する。端末画像の生成の際に拡大又は縮小を行った場合、第1変換情報320a2には、当該拡大等の拡大率又は縮小率を示す情報も含まれる。生成部300a4は、第1変換情報320a2を記憶装置320の揮発性メモリに記憶させる。 For example, it is assumed that the captured image G1 shown in FIG. 7 is obtained by the acquisition unit 300a2. In the example shown in FIG. 7, the hatched area of the diagonal line is the display area in the terminal device 40. The rectangle filled in black in FIG. 7 indicates an icon displayed in the display area of the terminal device 40. The generation unit 300a4 extracts an image of the display area in the terminal device 40, that is, an image of the area hatched with diagonal lines in the example shown in FIG. 7, from the captured image shown in FIG. 7, and detects it by the detection unit 300a3. The terminal image G2 shown in FIG. 8 is generated by rotating the terminal image G2 in the opposite direction by the angle of inclination. When the generation unit 300a4 can acquire information indicating the size of the display area of the display device 230 from the terminal device 20A by communication via the communication device 310, the generation unit 300a4 displays the terminal device 40 extracted from the captured image. The terminal image may be generated by enlarging or reducing the image of the area according to the size of the display area of the display device 230. Further, the generation unit 300a4 generates the first conversion information 320a2. When enlargement or reduction is performed when the terminal image is generated, the first conversion information 320a2 also includes information indicating the enlargement ratio or reduction ratio of the enlargement or the like. The generation unit 300a4 stores the first conversion information 320a2 in the volatile memory of the storage device 320.

生成処理SA130に後続する表示制御処理SA140では、処理装置300は制御部300a1として機能する。つまり、表示制御処理SA140は制御部300a1により実行される処理である。制御部300a1は、端末画像を端末装置20Aへ送信することによって、端末画像を端末装置20Aに表示させる。これにより、端末装置40の表示領域に複数の第1アイコンが表示されている場合、端末装置20Aの表示領域に複数の第1アイコンに1対1に対応する複数の第2アイコンが表示される。端末装置20Aの表示装置230には傾きを補正済みの端末画像が表示され、傾きを補正済みの端末画像に対してタッチ操作が行われるので操作性が向上する。 In the display control process SA140 following the generation process SA130, the processing device 300 functions as the control unit 300a1. That is, the display control process SA140 is a process executed by the control unit 300a1. The control unit 300a1 causes the terminal device 20A to display the terminal image by transmitting the terminal image to the terminal device 20A. As a result, when a plurality of first icons are displayed in the display area of the terminal device 40, a plurality of second icons corresponding to one-to-one with the plurality of first icons are displayed in the display area of the terminal device 20A. .. The display device 230 of the terminal device 20A displays the terminal image whose tilt has been corrected, and the touch operation is performed on the terminal image whose tilt has been corrected, so that the operability is improved.

次いで、遠隔操作動作について説明する。遠隔操作動作は、表示装置230の表示領域に対して為されたタッチ操作に応じてロボット10Aを作動させ、端末装置40に対するタッチ操作をロボット10Aに実行させる際の動作である。図9は遠隔操作動作の流れを示すフローチャートである。この遠隔操作動作は、端末装置20Aから送信された第2位置情報を通信装置310を介して受信したことを契機として開始される。図9に示すように、遠隔操作動作には、第2取得処理SA210、変換処理SA220、特定処理SA230、更新処理SA240、及び操作制御処理SA250が含まれる。 Next, the remote control operation will be described. The remote control operation is an operation for operating the robot 10A in response to a touch operation performed on the display area of the display device 230 and causing the robot 10A to perform a touch operation on the terminal device 40. FIG. 9 is a flowchart showing the flow of remote control operation. This remote control operation is started when the second position information transmitted from the terminal device 20A is received via the communication device 310. As shown in FIG. 9, the remote control operation includes a second acquisition process SA210, a conversion process SA220, a specific process SA230, an update process SA240, and an operation control process SA250.

第2取得処理SA210では、処理装置300は取得部300a2として機能する。つまり、第2取得処理SA210は取得部300a2により実行される処理である。第2取得処理SA210では、取得部300a2は、端末装置20Aから送信された第2位置情報を通信装置310から取得する。 In the second acquisition process SA210, the processing device 300 functions as the acquisition unit 300a2. That is, the second acquisition process SA210 is a process executed by the acquisition unit 300a2. In the second acquisition process SA210, the acquisition unit 300a2 acquires the second position information transmitted from the terminal device 20A from the communication device 310.

第2取得処理SA210に後続する変換処理SA220では、処理装置300は変換部300a5として機能する。つまり、変換処理SA220は、変換部300a5により実行される処理である。変換部300a5は、取得部300a2により取得した第2位置情報を、第1変換情報320a2と第2変換情報320a3とを用いて、第1位置情報へ変換する。第1位置情報は、端末装置40に対して為されるべきタッチ操作のXY座標系におけるタッチ位置を示す。より詳細に説明すると、変換部300a5は、まず、取得部300a2により取得した第2位置情報を、第1変換情報320a2を用いて撮像画像内の位置を示す位置情報に変換する。次いで、変換部300a5は、当該位置情報を、第2変換情報320a3を用いてXY座標系における位置を示す第1位置情報に変換する。 In the conversion process SA220 following the second acquisition process SA210, the processing device 300 functions as the conversion unit 300a5. That is, the conversion process SA220 is a process executed by the conversion unit 300a5. The conversion unit 300a5 converts the second position information acquired by the acquisition unit 300a2 into the first position information using the first conversion information 320a2 and the second conversion information 320a3. The first position information indicates the touch position in the XY coordinate system of the touch operation to be performed on the terminal device 40. More specifically, the conversion unit 300a5 first converts the second position information acquired by the acquisition unit 300a2 into position information indicating a position in the captured image using the first conversion information 320a2. Next, the conversion unit 300a5 converts the position information into the first position information indicating the position in the XY coordinate system by using the second conversion information 320a3.

変換処理SA220に後続する特定処理SA230では、処理装置300は特定部300a6として機能する。つまり、特定処理SA230は、特定部300a6により実行される処理である。特定部300a6は、取得部300a2により取得した第2位置情報に基づいて、複数の第2アイコンのうち第2タッチ操作により選択された一の第2アイコンに対応する一の第1アイコンを特定する。特定部300a6は、第2位置情報の示す位置を一の第2アイコンの中心位置とする。特定部300a6は、当該中心位置を第1変換情報320a2を用いて撮像画像内の位置に変換する。特定部300a6は、第1変換情報320a2を用いて変換済の位置を中心とする所定の範囲の画像を撮像画像から抽出する。特定部300a6は、抽出した画像を、第2タッチ操作により選択された一の第2アイコンに対応する一の第1アイコンの画像とする。 In the specific processing SA230 following the conversion processing SA220, the processing apparatus 300 functions as the specific unit 300a6. That is, the specific process SA230 is a process executed by the specific unit 300a6. The specific unit 300a6 identifies the first icon corresponding to the second icon selected by the second touch operation among the plurality of second icons based on the second position information acquired by the acquisition unit 300a2. .. In the specific unit 300a6, the position indicated by the second position information is set as the center position of the second icon. The specific unit 300a6 converts the center position into a position in the captured image using the first conversion information 320a2. The specific unit 300a6 uses the first conversion information 320a2 to extract an image in a predetermined range centered on the converted position from the captured image. The specific unit 300a6 uses the extracted image as an image of the first icon corresponding to the second icon selected by the second touch operation.

特定処理SA230に後続する更新処理SA240では、処理装置300は更新部300a7として機能する。つまり、更新処理SA240は更新部300a7により実行される処理である。更新部300a7は、特定部300a6により特定された第1アイコンに対応するアプリケーションの種類に基づいて、ロボット10Aによる撮像の設定を、当該第1アイコンに対応するアプリケーションの種類に応じた設定に更新する。更新部300a7は、まず、特定部300a6により特定された第1アイコンに対応するアプリケーションの種類を、アプリDB320a4を参照して特定する。 In the update process SA240 following the specific process SA230, the processing device 300 functions as the update unit 300a7. That is, the update process SA240 is a process executed by the update unit 300a7. The update unit 300a7 updates the imaging setting by the robot 10A to the setting according to the type of the application corresponding to the first icon based on the type of the application corresponding to the first icon specified by the specific unit 300a6. .. First, the update unit 300a7 specifies the type of the application corresponding to the first icon specified by the specific unit 300a6 with reference to the application DB 320a4.

次いで、更新部300a7は、特定部300a6により特定された第1アイコンに対応するアプリケーションの種類に応じたフレームレートを、テーブル320a5を参照して特定する。そして、更新部300a7は、撮像画像のフレームレートをテーブル320a5を参照して特定したフレームレートに更新することを指示する更新指示を通信装置310を介してロボット10Aへ送信することによって、撮像画像のフレームレートをロボット10Aに更新させる。 Next, the update unit 300a7 specifies the frame rate according to the type of application corresponding to the first icon specified by the specific unit 300a6 with reference to the table 320a5. Then, the update unit 300a7 transmits an update instruction instructing the frame rate of the captured image to be updated to the specified frame rate with reference to the table 320a5 to the robot 10A via the communication device 310, so that the captured image can be updated. The frame rate is updated by the robot 10A.

更新処理SA240に後続する操作制御処理SA250では、処理装置300は制御部300a1として機能する。つまり、操作制御処理SA250は、制御部300a1により実行される処理である。操作制御処理SA250では、制御部300a1は、変換部300a5による変換で得られた第1位置情報を含む操作指示をロボット10Aへ送信することによって、当該第1位置情報の示す位置をタッチするタッチ操作をロボット10Aに実行させる。 In the operation control process SA250 following the update process SA240, the processing device 300 functions as the control unit 300a1. That is, the operation control process SA250 is a process executed by the control unit 300a1. In the operation control process SA250, the control unit 300a1 is a touch operation for touching the position indicated by the first position information by transmitting an operation instruction including the first position information obtained by the conversion by the conversion unit 300a5 to the robot 10A. Is executed by the robot 10A.

本実施形態の遠隔操作システム1Aでは、端末装置20Aでは、ロボット10Aに対する傾きを補正済みの端末画像に対してタッチ操作を行うことができるので、操作性が向上する。また、本実施形態の遠隔操作システム1Aでは、端末装置20Aの表示領域に対するタッチ位置を示す第2位置情報は第1変換情報320a2及び第2変換情報320a3を用いて第1位置情報に変換されるので、変換精度が向上し、遠隔操作の操作精度が向上する。また、本実施形態の遠隔操作システム1Aでは、端末装置40を撮像する際のフレームレートが、第2タッチ操作により実行を指示されたアプリケーションの種類に応じて設定されるので、通信量を無駄に増やすことなく、アプリケーションを実行中の端末装置40を当該アプリケーションに好適なフレームレートで撮像することが可能になる。 In the remote control system 1A of the present embodiment, the terminal device 20A can perform a touch operation on the terminal image whose inclination with respect to the robot 10A has been corrected, so that the operability is improved. Further, in the remote control system 1A of the present embodiment, the second position information indicating the touch position with respect to the display area of the terminal device 20A is converted into the first position information by using the first conversion information 320a2 and the second conversion information 320a3. Therefore, the conversion accuracy is improved and the operation accuracy of remote control is improved. Further, in the remote control system 1A of the present embodiment, the frame rate at the time of imaging the terminal device 40 is set according to the type of the application instructed to be executed by the second touch operation, so that the communication amount is wasted. It becomes possible to image the terminal device 40 in which the application is being executed at a frame rate suitable for the application without increasing the number.

以上説明した第1実施形態は以下のように変形されてもよい。
(A1)本実施形態ではロボット10Aは撮像装置130による撮像画像をそのまま制御装置30Aへ送信した。しかし、ロボット10Aは、撮像装置130による撮像画像から端末画像の抽出し、抽出した端末画像を制御装置30Aへ送信してもよい。
(A2)本実施形態では、一つの処理装置300が、制御部300a1、取得部300a2、検出部300a3、生成部300a4、変換部300a5、特定部300a6、及び更新部300a7として機能した。しかし、通信網NWを介して互いに通信可能な複数の処理装置が、制御部300a1、取得部300a2、検出部300a3、生成部300a4、変換部300a5、特定部300a6、及び更新部300a7の機能を分担してもよい。
(A3)変換部300a5は、第2位置情報を撮像画像内の位置へ変換する処理を実行し、撮像画像内の位置からXY座標系における位置への変換をロボット10Aが実行してもよい。
(A4)通信網NWを介して処理装置300がアプリDB320a4にアクセス可能であれば、アプリDB320a4が記憶装置320に記憶されている必要はない。
(A5)本実施形態では、検出部300a3はロボット10Aに対する端末装置40の傾きを検出したが、検出部300a3を省略してもよい。省略した場合、生成部300a4は、補正済み画像を生成することなく端末画像を生成する。端末画像は、例えば、第1画像に基づいて生成される。また、変換部300a5は、第2位置情報を第1位置情報に変換する。この変形例によれば、制御装置30Aの構成を簡略化できる。例えば、ロボット10Aに対する端末装置40の位置が予め定められている場合に、この変形例は好適である。
The first embodiment described above may be modified as follows.
(A1) In the present embodiment, the robot 10A transmits the image captured by the image pickup device 130 to the control device 30A as it is. However, the robot 10A may extract a terminal image from the image captured by the image pickup device 130 and transmit the extracted terminal image to the control device 30A.
(A2) In the present embodiment, one processing device 300 functions as a control unit 300a1, an acquisition unit 300a2, a detection unit 300a3, a generation unit 300a4, a conversion unit 300a5, a specific unit 300a6, and an update unit 300a7. However, a plurality of processing devices that can communicate with each other via the communication network NW share the functions of the control unit 300a1, the acquisition unit 300a2, the detection unit 300a3, the generation unit 300a4, the conversion unit 300a5, the specific unit 300a6, and the update unit 300a7. You may.
(A3) The conversion unit 300a5 may execute a process of converting the second position information into a position in the captured image, and the robot 10A may execute the conversion from the position in the captured image to the position in the XY coordinate system.
(A4) If the processing device 300 can access the application DB 320a 4 via the communication network NW, the application DB 320a 4 does not need to be stored in the storage device 320.
(A5) In the present embodiment, the detection unit 300a3 detects the inclination of the terminal device 40 with respect to the robot 10A, but the detection unit 300a3 may be omitted. If omitted, the generation unit 300a4 generates the terminal image without generating the corrected image. The terminal image is generated based on, for example, the first image. Further, the conversion unit 300a5 converts the second position information into the first position information. According to this modification, the configuration of the control device 30A can be simplified. For example, this modification is suitable when the position of the terminal device 40 with respect to the robot 10A is predetermined.

本開示は、上述した第1実施形態及び第1実施形態の各変形例に限られるものではなく、その趣旨を逸脱しない範囲において種々の態様で実現することができる。例えば、本開示は、以下の態様によっても実現可能である。以下に記載した各態様中の技術的特徴に対応する第1実施形態中の技術的特徴は、本開示の課題の一部又は全部を解決するために、或いは本開示の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。 The present disclosure is not limited to the above-described first embodiment and each modification of the first embodiment, and can be realized in various embodiments within a range not deviating from the gist thereof. For example, the present disclosure can also be realized by the following aspects. The technical features in the first embodiment corresponding to the technical features in each aspect described below are for solving some or all of the problems of the present disclosure, or part or all of the effects of the present disclosure. It is possible to replace or combine as appropriate to achieve the above. Further, if the technical feature is not described as essential in the present specification, it can be appropriately deleted.

以上に説明した第1実施形態及び第1実施形態の各変形例から把握される本開示の制御装置の一態様は、複数のアプリケーションに1対1に対応する複数の第1アイコンが表示される端末装置40の表示領域に対して第1タッチ操作を行うロボット10Aを、端末装置20Aの表示領域に対する第2タッチ操作に基づいて制御する制御装置であって、取得部300a2と、制御部300a1と、特定部300a6と、更新部300a7とを備える。取得部300a2は、ロボット10Aが端末装置40を撮像することによって生成された第1画像と、前記第2タッチ操作によってタッチされた端末装置20Aの表示領域における位置を示す第2位置情報を取得する。制御部300a1は、前記第1画像に基づいて、端末装置20Aの表示領域に前記複数の第1アイコンに1対1に対応する複数の第2アイコンを表示させ、前記第2位置情報に基づいてロボット10Aに前記第1タッチ操作を実行させる。特定部300a6は、前記第2位置情報に基づいて、前記複数の第2アイコンのうち前記第2タッチ操作によって選択された一の第2アイコンに対応する一の第1アイコンを特定する。更新部300a7は、前記一の第1アイコンに対応するアプリケーションの種類に基づいて、ロボット10Aによる撮像の設定を、前記一の第1アイコンに対応するアプリケーションの種類に応じた設定に更新する。本態様の制御装置30Aは、ロボット10Aを用いた端末装置40の遠隔操作において、端末装置40の表示領域の画像をロボット10Aが撮像する際の撮像の設定を、遠隔操作により実行させるアプリケーションに応じた設定にできる。 In one aspect of the control device of the present disclosure grasped from the first embodiment and each modification of the first embodiment described above, a plurality of first icons corresponding to one-to-one are displayed in a plurality of applications. A control device that controls the robot 10A that performs the first touch operation on the display area of the terminal device 40 based on the second touch operation on the display area of the terminal device 20A, and includes the acquisition unit 300a2 and the control unit 300a1. , A specific unit 300a6 and an update unit 300a7 are provided. The acquisition unit 300a2 acquires the first image generated by the robot 10A taking an image of the terminal device 40 and the second position information indicating the position in the display area of the terminal device 20A touched by the second touch operation. .. Based on the first image, the control unit 300a1 causes the plurality of first icons to display a plurality of second icons corresponding to one-to-one in the display area of the terminal device 20A, and based on the second position information. The robot 10A is made to execute the first touch operation. The specifying unit 300a6 identifies one first icon corresponding to the one second icon selected by the second touch operation among the plurality of second icons based on the second position information. The update unit 300a7 updates the setting of the image pickup by the robot 10A to the setting according to the type of the application corresponding to the first icon, based on the type of the application corresponding to the first icon. The control device 30A of this embodiment corresponds to an application in which, in a remote control of the terminal device 40 using the robot 10A, an image pickup setting when the robot 10A captures an image of a display area of the terminal device 40 is executed by remote control. Can be set.

より好ましい態様において、本開示の制御装置は、検出部300a3と変換部300a5とを含んでもよい。検出部300a3は、前記第1画像又は前記第1画像から一部が抽出された第2画像に基づいて、ロボット10Aに対する端末装置40の傾きを検出する。変換部300a5は、検出部300a3により検出された傾きに基づいて、前記第2位置情報を前記第1タッチ操作によってタッチされる端末装置40の表示領域における位置を示す第1位置情報に変換する。本態様において特定部300a6は、前記第1位置情報に基づいて、前記一の第1アイコンを特定する。本態様の制御装置30Aは、ロボット10Aに対して端末装置40が傾いている場合において、端末装置40に対する第1タッチ操作を、第2タッチ操作に基づいてロボット10Aに実行させることができる。 In a more preferred embodiment, the control device of the present disclosure may include a detection unit 300a3 and a conversion unit 300a5. The detection unit 300a3 detects the inclination of the terminal device 40 with respect to the robot 10A based on the first image or the second image partially extracted from the first image. The conversion unit 300a5 converts the second position information into first position information indicating a position in the display area of the terminal device 40 touched by the first touch operation, based on the inclination detected by the detection unit 300a3. In this embodiment, the identification unit 300a6 identifies the first icon based on the first position information. The control device 30A of the present embodiment can cause the robot 10A to perform the first touch operation on the terminal device 40 based on the second touch operation when the terminal device 40 is tilted with respect to the robot 10A.

別の好ましい態様において、更新部300a7は、前記複数の第1アイコンと前記複数のアプリケーションの種類とを1対1に対応付けた関係情報を参照して、前記一の第1アイコンに対応するアプリケーションの種類を特定してもよい。本態様の制御装置30Aは、複数の第1アイコンと複数のアプリケーションの種類とを1対1に対応付けた関係情報を参照して、一の第1アイコンに対応するアプリケーションの種類を特定できる。 In another preferred embodiment, the update unit 300a7 refers to the relationship information in which the plurality of first icons and the types of the plurality of applications are associated with each other on a one-to-one basis, and the application corresponding to the first icon. You may specify the type of. The control device 30A of the present embodiment can specify the type of application corresponding to one first icon by referring to the relationship information in which the plurality of first icons and the types of the plurality of applications are associated with each other on a one-to-one basis.

別の好ましい態様において、撮像の設定には、解像度とフレームレートとの少なくとも一方が含まれてもよい。本態様の制御装置30Aは、ロボット10Aを用いて端末装置40を遠隔操作するために端末装置40の表示領域の画像をロボット10Aが撮像する際の解像度とフレームレートとの少なくとも一方を、遠隔操作により実行させるアプリケーションに応じた設定にできる。 In another preferred embodiment, the imaging setting may include at least one of resolution and frame rate. The control device 30A of this embodiment remotely controls at least one of the resolution and the frame rate when the robot 10A captures an image of the display area of the terminal device 40 in order to remotely control the terminal device 40 by using the robot 10A. Can be set according to the application to be executed.

B.第2実施形態
次いで、本開示の第2実施形態について説明する。
図10は、本開示の第2実施形態に係る遠隔操作システム1Bの構成例を示す図である。図10では図1におけるものと同じ構成要素には同じ符号が付されている。図10と図1とを対比すれば明らかなように、遠隔操作システム1Bは、端末装置20Aに代えて端末装置20Bを有する点、及び制御装置30Aを有さない点において遠隔操作システム1Aと異なる。端末装置20Bは、端末装置20Aと同様に、端末装置40を遠隔操作するためのユーザの操作を受け付ける情報処理装置である。また、端末装置20Bは、制御装置30Aの役割を兼ねる。端末装置20Bは、例えばスマートフォンである。以下、本実施形態の特徴を顕著に示す端末装置20Bを中心に説明する。
B. Second Embodiment Next, the second embodiment of the present disclosure will be described.
FIG. 10 is a diagram showing a configuration example of the remote control system 1B according to the second embodiment of the present disclosure. In FIG. 10, the same components as those in FIG. 1 are designated by the same reference numerals. As is clear from the comparison between FIGS. 10 and 1, the remote control system 1B differs from the remote control system 1A in that it has the terminal device 20B instead of the terminal device 20A and does not have the control device 30A. .. Similar to the terminal device 20A, the terminal device 20B is an information processing device that accepts a user's operation for remotely controlling the terminal device 40. Further, the terminal device 20B also serves as the control device 30A. The terminal device 20B is, for example, a smartphone. Hereinafter, the terminal device 20B, which remarkably exhibits the features of the present embodiment, will be mainly described.

図11は、端末装置20Bの構成例を示す図である。図11では、図3におけるものと同じ構成要素には同一の符号が付されている。図11と図3とを対比すれば明らかなように、端末装置20Bのハードウェア構成は端末装置20Aのハードウェア構成と同一である。即ち、端末装置20Bは、処理装置200、通信装置210、記憶装置220、表示装置230、及び入力装置240を備える。端末装置20Bと端末装置20Aとの相違点は以下の二つである。第1の相違点はプログラム220a1に代えてプログラム220b1が記憶装置220に記憶されている点である。第2の相違点は、第1変換情報320a2、第2変換情報320a3、アプリDB320a4、及びテーブル320a5が記憶装置220に記憶される点である。 FIG. 11 is a diagram showing a configuration example of the terminal device 20B. In FIG. 11, the same components as those in FIG. 3 are designated by the same reference numerals. As is clear from the comparison between FIGS. 11 and 3, the hardware configuration of the terminal device 20B is the same as the hardware configuration of the terminal device 20A. That is, the terminal device 20B includes a processing device 200, a communication device 210, a storage device 220, a display device 230, and an input device 240. There are the following two differences between the terminal device 20B and the terminal device 20A. The first difference is that the program 220b1 is stored in the storage device 220 instead of the program 220a1. The second difference is that the first conversion information 320a2, the second conversion information 320a3, the application DB 320a4, and the table 320a5 are stored in the storage device 220.

端末装置20Bの処理装置200は、プログラム220b1の実行開始を指示する操作を示す操作データを入力装置240から受け取ったことを契機としてプログラム220b1を不揮発性メモリから揮発性メモリに読み出し、プログラム220b1の実行を開始する。プログラム220b1は、プログラム2201と同様に他のプログラムからの呼び出しにより実行さてもよい。プログラム220b1に従って作動中の処理装置200は、図11に示すように、制御部300b1、取得部300b2、検出部300a3、生成部300a4、変換部300a5、特定部300b6、及び更新部300a7として機能する。制御部300b1、取得部300b2、検出部300a3、生成部300a4、変換部300a5、特定部300b6、及び更新部300a7は、プログラム220b1に従って処理装置200を作動させることで実現されるソフトウェアモジュールである。以下、第1実施形態との相違点である制御部300b1、取得部300b2、及び特定部300b6の各部が担う機能を、処理装置200がプログラム220b1に従って実行する動作に即して説明する。 The processing device 200 of the terminal device 20B reads the program 220b1 from the non-volatile memory to the volatile memory when the operation data indicating the operation instructing the execution start of the program 220b1 is received from the input device 240, and executes the program 220b1. To start. The program 220b1 may be executed by a call from another program like the program 2201. As shown in FIG. 11, the processing device 200 operating according to the program 220b1 functions as a control unit 300b1, an acquisition unit 300b2, a detection unit 300a3, a generation unit 300a4, a conversion unit 300a5, a specific unit 300b6, and an update unit 300a7. The control unit 300b1, the acquisition unit 300b2, the detection unit 300a3, the generation unit 300a4, the conversion unit 300a5, the specific unit 300b6, and the update unit 300a7 are software modules realized by operating the processing device 200 according to the program 220b1. Hereinafter, the functions carried out by each of the control unit 300b1, the acquisition unit 300b2, and the specific unit 300b6, which are differences from the first embodiment, will be described according to the operation executed by the processing device 200 according to the program 220b1.

端末装置20Bの処理装置200がプログラム220b1に従って実行する動作は、第1実施形態と同様に、表示動作と、遠隔操作動作と、に大別される。表示動作とは、端末画像を表示装置230に表示させる動作である。遠隔操作動作とは、表示装置230の表示領域に対して為されたタッチ操作に応じてロボット10Aを作動させ、端末装置40に対するタッチ操作をロボット10Aに実行させる動作である。 The operation executed by the processing device 200 of the terminal device 20B according to the program 220b1 is roughly classified into a display operation and a remote control operation, as in the first embodiment. The display operation is an operation of displaying the terminal image on the display device 230. The remote control operation is an operation in which the robot 10A is operated in response to a touch operation performed on the display area of the display device 230, and the robot 10A is made to perform a touch operation on the terminal device 40.

図12は、表示動作の流れを示すフローチャートである。図12に示す表示動作は、通信装置210による撮像画像の受信を契機として開始される。図12では、図6におけるものと同じ処理には同じ符号が付されている。図12と図6とを対比すれば明らかなように、本実施形態における表示動作と第1実施形態における表示動作との相違点は以下の二つである。第1の相違点は、表示制御処理SA140に代えて表示制御処理SB140が実行される点である。そして、第2の相違点は、特定処理SB230及び更新処理SA240を含む点である。 FIG. 12 is a flowchart showing the flow of the display operation. The display operation shown in FIG. 12 is triggered by the reception of the captured image by the communication device 210. In FIG. 12, the same processing as in FIG. 6 is designated by the same reference numeral. As is clear by comparing FIGS. 12 and 6, there are the following two differences between the display operation in the present embodiment and the display operation in the first embodiment. The first difference is that the display control process SB140 is executed instead of the display control process SA140. The second difference is that the specific process SB230 and the update process SA240 are included.

第1取得処理SA110では、端末装置20Bの処理装置200は取得部300b2として機能する。第1取得処理SA110では、取得部300b2は、ロボット10Aから送信された撮像画像を通信装置210から取得する。第1取得処理SA110に後続する検出処理SA120では、端末装置20Bの処理装置200は検出部300a3として機能する。検出部300a3は、取得部300b2により取得した撮像画像に基づいて、ロボット10Aに対する端末装置40の傾きを検出する。本実施形態では、検出部300a3は、第1実施形態と同様に、第1態様の検出方法により、ロボット10Aに対する端末装置40の傾きを検出する。検出処理SA120に後続する生成処理SA130では、端末装置20Bの処理装置200は生成部300a4として機能する。生成部300a4は、取得部300b2により取得した撮像画像に基づいて端末画像を生成する。また、生成部300a4は、第1変換情報320a2を生成し、生成した第1変換情報320a2を記憶装置220の揮発性メモリに記憶させる。 In the first acquisition process SA110, the processing device 200 of the terminal device 20B functions as the acquisition unit 300b2. In the first acquisition process SA110, the acquisition unit 300b2 acquires the captured image transmitted from the robot 10A from the communication device 210. In the detection process SA120 following the first acquisition process SA110, the processing device 200 of the terminal device 20B functions as the detection unit 300a3. The detection unit 300a3 detects the inclination of the terminal device 40 with respect to the robot 10A based on the captured image acquired by the acquisition unit 300b2. In the present embodiment, the detection unit 300a3 detects the inclination of the terminal device 40 with respect to the robot 10A by the detection method of the first aspect, as in the first embodiment. In the generation process SA130 following the detection process SA120, the processing device 200 of the terminal device 20B functions as the generation unit 300a4. The generation unit 300a4 generates a terminal image based on the captured image acquired by the acquisition unit 300b2. Further, the generation unit 300a4 generates the first conversion information 320a2 and stores the generated first conversion information 320a2 in the volatile memory of the storage device 220.

本実施形態の表示動作において生成処理SA130に後続する表示制御処理SB140では、端末装置20Bの処理装置200は、制御部300b1として機能する。つまり、表示制御処理SB140は、制御部300b1により実行される処理である。表示制御処理SB140では、制御部300b1は、生成処理SA130にて生成された端末画像を表示装置230に表示させる。 In the display control process SB140 following the generation process SA130 in the display operation of the present embodiment, the processing device 200 of the terminal device 20B functions as the control unit 300b1. That is, the display control process SB140 is a process executed by the control unit 300b1. In the display control process SB140, the control unit 300b1 causes the display device 230 to display the terminal image generated by the generation process SA130.

表示制御処理SB140に後続する特定処理SB230では、端末装置20Bの処理装置200は特定部300b6として機能する。つまり、特定処理SB230は、特定部300b6により実行される処理である。特定部300b6は、端末装置40の表示領域に表示されている複数の第1アイコンのうち第1タッチ操作によって選択された一の第1アイコンを、第1取得処理SA110にて取得した撮像画像に基づいて特定する。より具体的には、特定部300b6は、指示体142の発光部が発光状態となった撮像画像において指示体142の位置している第1アイコンを、第1タッチ操作によって選択された一の第1アイコンとして特定する。 In the specific processing SB 230 following the display control processing SB 140, the processing device 200 of the terminal device 20B functions as the specific unit 300b6. That is, the specific process SB230 is a process executed by the specific unit 300b6. The specific unit 300b6 uses the first icon selected by the first touch operation among the plurality of first icons displayed in the display area of the terminal device 40 as the captured image acquired by the first acquisition process SA110. Identify based on. More specifically, the specific unit 300b6 selects the first icon in which the indicator body 142 is located in the captured image in which the light emitting unit of the indicator body 142 is in the light emitting state by the first touch operation. 1 Specify as an icon.

特定処理SB230に後続する更新処理SA240では、端末装置20Bの処理装置200は更新部300a7として機能する。更新部300a7は、特定部300b6により特定された第1アイコンに対応するアプリケーションの種類に応じたフレームレートを、テーブル320a5を参照して特定する。そして、更新部300a7は、撮像画像のフレームレートをテーブル320a5を参照して特定したフレームレートに更新することを指示する更新指示を通信装置310を介してロボット10Aへ送信することによって、撮像画像のフレームレートをロボット10Aに更新させる。 In the update process SA240 following the specific process SB 230, the processing device 200 of the terminal device 20B functions as the update unit 300a7. The update unit 300a7 specifies the frame rate according to the type of application corresponding to the first icon specified by the specific unit 300b6 with reference to the table 320a5. Then, the update unit 300a7 transmits an update instruction instructing the frame rate of the captured image to be updated to the specified frame rate with reference to the table 320a5 to the robot 10A via the communication device 310, so that the captured image can be updated. The frame rate is updated by the robot 10A.

図13は、本実施形態における遠隔操作動作の流れを示すフローチャートである。この遠隔操作動作は、入力装置240によるタッチ操作の検知を契機として開始される。図13では、図9におけるものと同じ処理には同じ符号が付されている。図13と図9とを対比すれば明らかなように、本実施形態における遠隔操作動作は、以下の二つの点において第1実施形態の遠隔操作動作と異なる。第1の相違点は、第2取得処理SA210に代えて第2取得処理SB210が実行される点である。第2の相違点は、特定処理SA230及び更新処理SA240を含まない点である。本実施形態における遠隔操作動作に特定処理SA230及び更新処理SA240が含まれていないのは、これらに対応する処理が表示動作に含まれているからである。 FIG. 13 is a flowchart showing the flow of remote control operation in the present embodiment. This remote control operation is triggered by the detection of the touch operation by the input device 240. In FIG. 13, the same processing as in FIG. 9 is designated by the same reference numeral. As is clear from the comparison between FIGS. 13 and 9, the remote control operation in the present embodiment is different from the remote control operation in the first embodiment in the following two points. The first difference is that the second acquisition process SB210 is executed in place of the second acquisition process SA210. The second difference is that the specific process SA230 and the update process SA240 are not included. The remote control operation in the present embodiment does not include the specific processing SA230 and the update processing SA240 because the processing corresponding to these is included in the display operation.

第2取得処理SB210では、端末装置20Bの処理装置200は、取得部300b2として機能する。つまり、第2取得処理SB210は取得部300b2により実行される処理である。第2取得処理SB210では、取得部300b2は、表示装置230の表示領域に対するタッチ操作を示す情報、即ち第2位置情報、を入力装置240から取得する。 In the second acquisition process SB210, the processing device 200 of the terminal device 20B functions as the acquisition unit 300b2. That is, the second acquisition process SB210 is a process executed by the acquisition unit 300b2. In the second acquisition process SB210, the acquisition unit 300b2 acquires information indicating a touch operation with respect to the display area of the display device 230, that is, second position information, from the input device 240.

第2取得処理SB210に後続する変換処理SA220では、端末装置20Bの処理装置200は変換部300a5として機能する。変換部300a5は、取得部300b2により取得した第2位置情報を、第1変換情報320a2と第2変換情報320a3とを用いて第1位置情報に変換する。 In the conversion process SA220 following the second acquisition process SB210, the processing device 200 of the terminal device 20B functions as the conversion unit 300a5. The conversion unit 300a5 converts the second position information acquired by the acquisition unit 300b2 into the first position information using the first conversion information 320a2 and the second conversion information 320a3.

変換処理SA220に後続する操作制御処理SA250では、端末装置20Bの処理装置200は制御部300b1として機能する。操作制御処理SA250では、制御部300b1は、変換部300a5による変換で得られた第1位置情報を含む操作指示をロボット10Aへ送信することによって、当該第1位置情報の示す位置をタッチするタッチ操作をロボット10Aに実行させる。 In the operation control process SA250 following the conversion process SA220, the processing device 200 of the terminal device 20B functions as the control unit 300b1. In the operation control process SA250, the control unit 300b1 touches the position indicated by the first position information by transmitting an operation instruction including the first position information obtained by the conversion by the conversion unit 300a5 to the robot 10A. Is executed by the robot 10A.

本実施形態においても、端末装置20Bでは、ロボット10Aに対する傾きを補正済みの端末画像に対してタッチ操作を行うことができるので操作性が向上する。また、本実施形態では、端末装置20Bの表示領域に対するタッチ位置を示す第2位置情報は第1変換情報320a2及び第2変換情報320a3を用いて第1位置情報に変換されるので、変換精度が向上し、遠隔操作の操作精度が向上する。また、本実施形態の遠隔操作システム1Bでは、ロボット10Aが端末装置40を撮像する際のフレームレートが、第1タッチ操作により実行を指示されたアプリケーションの種類に応じた設定されるので、通信量を無駄に増やすことなく、アプリケーションを実行中の端末装置40を当該アプリケーションに好適なフレームレートで撮像することが可能になる。
加えて、本実施形態によれば、制御装置30Aを設けない分だけ、遠隔操作システム1Bの構築コストを遠隔操作システム1Aの構築コストよりも引き下げることが可能になる。
Also in the present embodiment, in the terminal device 20B, the touch operation can be performed on the terminal image whose inclination with respect to the robot 10A has been corrected, so that the operability is improved. Further, in the present embodiment, the second position information indicating the touch position with respect to the display area of the terminal device 20B is converted into the first position information by using the first conversion information 320a2 and the second conversion information 320a3, so that the conversion accuracy is improved. It improves and the operation accuracy of remote control improves. Further, in the remote control system 1B of the present embodiment, the frame rate when the robot 10A images the terminal device 40 is set according to the type of the application instructed to be executed by the first touch operation, so that the communication amount is set. It becomes possible to image the terminal device 40 in which the application is being executed at a frame rate suitable for the application without unnecessarily increasing the number of the above.
In addition, according to the present embodiment, the construction cost of the remote control system 1B can be reduced to be lower than the construction cost of the remote control system 1A because the control device 30A is not provided.

以上説明した第2実施形態は以下のように変形されてもよい。
(B1)端末装置40に実行させるアプリは、取得部300b2により取得した第2位置情報に基づいて特定されてもよい。端末装置40に実行させるアプリを第2位置情報に基づいて特定する態様は、特定部300b6を特定部300a6に置き換えることにより実現される。
(B2)特定部300b6は、撮像画像において指示体142の発光部が発光状態となったことを検出し、検出された発光部の位置に位置している第1アイコンを、第1タッチ操作によって選択された一の第1アイコンとして特定したが、これに限定されない。移動機構は第1タッチ操作において、指示体142を下方向に移動させる。この移動において、指示体142が端末装置40と接触すると、移動機構は反力を検出し、検出したことを示す検出信号を出力する。特定部300b6は、検出信号が有効な状態において、撮像画像に基づいて指示体142の位置を検出し、検出した位置に位置している第1アイコンを、第1タッチ操作によって選択された一の第1アイコンとして特定してもよい。
(B3)本実施形態では、検出部300a3はロボット10Aに対する端末装置40の傾きを検出したが、検出部300a3を省略してもよい。省略した場合、生成部300a4は、補正済み画像を生成することなく端末画像を生成する。端末画像は、例えば、第1画像に基づいて生成される。また、変換部300a5は、第2位置情報を第1位置情報に変換する。この変形例によれば、端末装置20B、換言すれば、第2タッチ操作に応じてロボット10Aに第1タッチ操作を実行させる制御装置の構成を簡略化できる。例えば、ロボット10Aに対する端末装置40の位置が予め定められている場合に、この変形例は好適である。
The second embodiment described above may be modified as follows.
(B1) The application to be executed by the terminal device 40 may be specified based on the second position information acquired by the acquisition unit 300b2. The mode of specifying the application to be executed by the terminal device 40 based on the second position information is realized by replacing the specific unit 300b6 with the specific unit 300a6.
(B2) The specific unit 300b6 detects that the light emitting unit of the indicator 142 is in a light emitting state in the captured image, and presses the first icon located at the position of the detected light emitting unit by the first touch operation. Specified as the first icon of the selected one, but is not limited to this. The moving mechanism moves the indicator 142 downward in the first touch operation. In this movement, when the indicator 142 comes into contact with the terminal device 40, the movement mechanism detects the reaction force and outputs a detection signal indicating that the reaction force has been detected. The specific unit 300b6 detects the position of the indicator 142 based on the captured image in a state where the detection signal is valid, and the first icon located at the detected position is selected by the first touch operation. It may be specified as the first icon.
(B3) In the present embodiment, the detection unit 300a3 detects the inclination of the terminal device 40 with respect to the robot 10A, but the detection unit 300a3 may be omitted. If omitted, the generation unit 300a4 generates a terminal image without generating a corrected image. The terminal image is generated based on, for example, the first image. Further, the conversion unit 300a5 converts the second position information into the first position information. According to this modification, the configuration of the terminal device 20B, in other words, the control device for causing the robot 10A to execute the first touch operation in response to the second touch operation can be simplified. For example, this modification is suitable when the position of the terminal device 40 with respect to the robot 10A is predetermined.

以上に説明した第2実施形態及び第2実施形態の各変形例から把握される本開示の制御装置の一態様は、複数のアプリケーションに1対1に対応する複数の第1アイコンが表示される端末装置40の表示領域に対して第1タッチ操作を行うロボット10Aを、端末装置20Bの表示領域に対する第2タッチ操作に基づいて制御する制御装置であって、取得部300b2、制御部300b1、特定部300b6、及び更新部300a7を備える。取得部300b2は、ロボット10Aが端末装置40を撮像することによって生成された第1画像と、前記第2タッチ操作によってタッチされた端末装置20Bの表示領域における位置を示す第2位置情報とを取得する。制御部300b1は、前記第1画像に基づいて、端末装置20Bの表示領域に前記複数の第1アイコンに1対1に対応する複数の第2アイコンを表示させ、前記第2位置情報に基づいてロボット10Aに前記第1タッチ操作を実行させる。特定部300b6は、前記第1画像に基づいて、前記複数の第1アイコンのうち前記第1タッチ操作によって選択された一の第1アイコンを特定する。更新部300a7は、前記一の第1アイコンに対応するアプリケーションの種類に基づいて、ロボット10Aによる撮像の設定を、前記一の第1アイコンに対応するアプリケーションの種類に応じた設定に更新する。本態様の制御装置は、ロボット10Aを用いた端末装置40の遠隔操作において、端末装置40の表示領域の画像をロボット10Aが撮像する際の撮像の設定を、遠隔操作により実行させるアプリケーションに応じた設定にできる。 In one aspect of the control device of the present disclosure grasped from the second embodiment and the modified examples of the second embodiment described above, a plurality of first icons corresponding to one-to-one are displayed in a plurality of applications. A control device that controls the robot 10A that performs the first touch operation on the display area of the terminal device 40 based on the second touch operation on the display area of the terminal device 20B. A unit 300b6 and an update unit 300a7 are provided. The acquisition unit 300b2 acquires the first image generated by the robot 10A taking an image of the terminal device 40 and the second position information indicating the position in the display area of the terminal device 20B touched by the second touch operation. do. Based on the first image, the control unit 300b1 causes the plurality of first icons to display a plurality of second icons corresponding to one-to-one in the display area of the terminal device 20B, and based on the second position information. The robot 10A is made to execute the first touch operation. The specifying unit 300b6 identifies one of the plurality of first icons selected by the first touch operation based on the first image. The update unit 300a7 updates the setting of the image pickup by the robot 10A to the setting according to the type of the application corresponding to the first icon, based on the type of the application corresponding to the first icon. The control device of this embodiment corresponds to an application in which, in a remote control of the terminal device 40 using the robot 10A, the setting of imaging when the robot 10A captures an image of the display area of the terminal device 40 is executed by remote control. Can be set.

本開示の制御装置のより好ましい態様は、検出部300a3と、変換部300a5と、を含んでもよい。検出部300a3は、前記第1画像又は前記第1画像から一部が抽出された第2画像に基づいて、ロボット10Aに対する端末装置40の傾きを検出する。変換部300a5は、検出部300a3により検出された傾きに基づいて、前記第2位置情報を前記第1タッチ操作によってタッチされる端末装置40の表示領域における位置を示す第1位置情報に変換する。本態様において制御部300b1は、前記第1位置情報に基づいて、ロボット10Aに前記第1タッチ操作を実行させる。本態様の制御装置は、ロボット10Aに対して端末装置40が傾いている場合において、端末装置40に対する第1タッチ操作を、第2タッチ操作に基づいてロボット10Aに実行させることができる。 A more preferred embodiment of the control device of the present disclosure may include a detection unit 300a3 and a conversion unit 300a5. The detection unit 300a3 detects the inclination of the terminal device 40 with respect to the robot 10A based on the first image or the second image partially extracted from the first image. The conversion unit 300a5 converts the second position information into first position information indicating a position in the display area of the terminal device 40 touched by the first touch operation, based on the inclination detected by the detection unit 300a3. In this embodiment, the control unit 300b1 causes the robot 10A to execute the first touch operation based on the first position information. In the control device of this embodiment, when the terminal device 40 is tilted with respect to the robot 10A, the robot 10A can perform the first touch operation on the terminal device 40 based on the second touch operation.

3.第3実施形態
次いで、本開示の第3実施形態について説明する。
図14は、本開示の第3実施形態に係る遠隔操作システム1Cの構成例を示す図である。図14では図1におけるものと同じ構成要素には同じ符号が付されている。図14と図1とを対比すれば明らかなように、遠隔操作システム1Cは、ロボット10Aに代えてロボット10Cを有する点、及び制御装置30Aを有さない点において遠隔操作システム1Aと異なる。ロボット10Cは、端末装置20Aに対するユーザの操作に応じて端末装置40に対するタッチ操作を行う点では制御装置30Aと同一である。ロボット10Cは、制御装置30Aの役割を兼ねる点においてロボット10Aと異なる。また、ロボット10Cは、撮像装置130の設定を自律更新する点においてもロボット10Aと異なる。以下、本実施形態の特徴を顕著に示すロボット10Cを中心に説明する。
3. 3. Third Embodiment Next, a third embodiment of the present disclosure will be described.
FIG. 14 is a diagram showing a configuration example of the remote control system 1C according to the third embodiment of the present disclosure. In FIG. 14, the same components as those in FIG. 1 are designated by the same reference numerals. As is clear from the comparison between FIGS. 14 and 1, the remote control system 1C differs from the remote control system 1A in that it has the robot 10C instead of the robot 10A and does not have the control device 30A. The robot 10C is the same as the control device 30A in that it performs a touch operation on the terminal device 40 in response to a user operation on the terminal device 20A. The robot 10C is different from the robot 10A in that it also serves as the control device 30A. The robot 10C is also different from the robot 10A in that the setting of the image pickup apparatus 130 is autonomously updated. Hereinafter, the robot 10C, which remarkably exhibits the features of the present embodiment, will be mainly described.

図15は、ロボット10Cの構成例を示す図である。図15では、図2におけるものと同じ構成要素には同一の符号が付されている。図15と図2とを対比すれば明らかなように、ロボット10Cのハードウェア構成はロボット10Aのハードウェア構成と同一である。即ち、ロボット10Cは、処理装置100、通信装置110、記憶装置120、撮像装置130、及び操作装置140を備える。ロボット10Cとロボット10Aとの相違点は以下の二つである。第1の相違点はプログラム120a1に代えてプログラム120c1が記憶装置120に記憶されている点である。第2の相違点は、第1変換情報320a2、第2変換情報320a3、アプリDB320a4、及びテーブル320a5が記憶装置120に記憶される点である。 FIG. 15 is a diagram showing a configuration example of the robot 10C. In FIG. 15, the same components as those in FIG. 2 are designated by the same reference numerals. As is clear from the comparison between FIGS. 15 and 2, the hardware configuration of the robot 10C is the same as the hardware configuration of the robot 10A. That is, the robot 10C includes a processing device 100, a communication device 110, a storage device 120, an image pickup device 130, and an operation device 140. The differences between the robot 10C and the robot 10A are the following two. The first difference is that the program 120c1 is stored in the storage device 120 instead of the program 120a1. The second difference is that the first conversion information 320a2, the second conversion information 320a3, the application DB 320a4, and the table 320a5 are stored in the storage device 120.

ロボット10Cの処理装置100は、ロボット10Cの電源投入を契機としてプログラム120c1を不揮発性メモリから揮発性メモリに読み出し、プログラム120c1の実行を開始する。プログラム120c1に従って作動中の処理装置100は、図15に示すように、制御部300c1、取得部300c2、検出部300a3、生成部300a4、変換部300a5、特定部300b6、及び更新部300c7として機能する。制御部300c1、取得部300c2、検出部300a3、生成部300a4、変換部300a5、特定部300b6、及び更新部300c7は、プログラム120c1に従って処理装置100を作動させることで実現されるソフトウェアモジュールである。以下、第1実施形態及び第2実施形態との相違点である制御部300c1、取得部300c2、及び更新部300c7の各部が担う機能を、処理装置100がプログラム120c1に従って実行する動作に即して説明する。 The processing device 100 of the robot 10C reads the program 120c1 from the non-volatile memory to the volatile memory when the power of the robot 10C is turned on, and starts the execution of the program 120c1. As shown in FIG. 15, the processing device 100 operating according to the program 120c1 functions as a control unit 300c1, an acquisition unit 300c2, a detection unit 300a3, a generation unit 300a4, a conversion unit 300a5, a specific unit 300b6, and an update unit 300c7. The control unit 300c1, the acquisition unit 300c2, the detection unit 300a3, the generation unit 300a4, the conversion unit 300a5, the specific unit 300b6, and the update unit 300c7 are software modules realized by operating the processing device 100 according to the program 120c1. Hereinafter, the functions of the control unit 300c1, the acquisition unit 300c2, and the update unit 300c7, which are the differences between the first embodiment and the second embodiment, are executed by the processing device 100 according to the program 120c1. explain.

ロボット10Cの処理装置100がプログラム120c1に従って実行する動作は、第1実施形態及び第2実施形態と同様に、表示動作と、遠隔操作動作と、に大別される。 The operation executed by the processing device 100 of the robot 10C according to the program 120c1 is roughly classified into a display operation and a remote control operation, as in the first embodiment and the second embodiment.

図16は、本実施形態における表示動作の流れを示すフローチャートである。この表示動作は、撮像装置130による端末装置40の撮像を契機として開始される。図16では、図6におけるものと同じ処理には同じ符号が付されている。図16と図6とを対比すれば明らかなように、本実施形態における表示動作と第1実施形態における表示動作との相違点は以下の二つである。第1の相違点は、第1取得処理SA110に代えて第1取得処理SC110が実行される点である。そして、第2の相違点は、特定処理SB230及び更新処理SC240を含む点である。 FIG. 16 is a flowchart showing the flow of the display operation in the present embodiment. This display operation is triggered by the image pickup of the terminal device 40 by the image pickup device 130. In FIG. 16, the same processing as in FIG. 6 is designated by the same reference numerals. As is clear by comparing FIGS. 16 and 6, there are the following two differences between the display operation in the present embodiment and the display operation in the first embodiment. The first difference is that the first acquisition process SC110 is executed instead of the first acquisition process SA110. The second difference is that the specific process SB230 and the update process SC240 are included.

第1取得処理SC110では、ロボット10Cの処理装置100は、取得部300c2として機能する。つまり、第1取得処理SC110は、取得部300c2により実行される処理である。第1取得処理SC110では、取得部300c2は、撮像装置130から撮像画像を取得する。 In the first acquisition process SC110, the processing device 100 of the robot 10C functions as the acquisition unit 300c2. That is, the first acquisition process SC110 is a process executed by the acquisition unit 300c2. In the first acquisition process SC110, the acquisition unit 300c2 acquires an captured image from the image pickup device 130.

第1取得処理SC110に後続する検出処理SA120では、ロボット10Cの処理装置100は検出部300a3として機能する。検出部300a3は、取得部300c2により取得した撮像画像に基づいて、ロボット10Cに対する端末装置40の傾きを検出する。本実施形態では、検出部300a3は、第1実施形態と同様に、第1態様の検出方法により、ロボット10Cに対する端末装置40の傾きを検出する。検出処理SA120に後続する生成処理SA130では、ロボット10Cの処理装置100は生成部300a4として機能する。生成部300a4は、取得部300c2により取得した撮像画像に基づいて、検出部300a3により検出された傾きを補正済みの端末画像を生成する。また、生成部300a4は、第1変換情報320a2を生成し、生成した第1変換情報320a2を記憶装置120の揮発性メモリに記憶させる。 In the detection process SA120 following the first acquisition process SC110, the processing device 100 of the robot 10C functions as the detection unit 300a3. The detection unit 300a3 detects the inclination of the terminal device 40 with respect to the robot 10C based on the captured image acquired by the acquisition unit 300c2. In the present embodiment, the detection unit 300a3 detects the inclination of the terminal device 40 with respect to the robot 10C by the detection method of the first aspect, as in the first embodiment. In the generation process SA130 following the detection process SA120, the processing device 100 of the robot 10C functions as the generation unit 300a4. The generation unit 300a4 generates a terminal image whose inclination detected by the detection unit 300a3 has been corrected based on the captured image acquired by the acquisition unit 300c2. Further, the generation unit 300a4 generates the first conversion information 320a2 and stores the generated first conversion information 320a2 in the volatile memory of the storage device 120.

生成処理SA130に後続する表示制御処理SA140では、ロボット10Cの処理装置100は、制御部300c1として機能する。つまり、本実施形態における表示制御処理SA140は、制御部300c1により実行される処理である。表示制御処理SA140では、制御部300c1は、生成処理SA130にて生成された端末画像を通信装置110を介して端末装置20Aへ送信することによって、端末画像を端末装置20Aに表示させる。端末装置40の表示領域に複数の第1アイコンが表示されている場合、端末装置20Aの表示領域に複数の第1アイコンに1対1に対応する複数の第2アイコンが表示される。端末装置20Aでは、傾きを補正済みの端末画像が表示装置230に表示される。本実施形態では、傾きを補正済みの端末画像に対してタッチ操作が為されるので、操作性が向上する。 In the display control process SA140 following the generation process SA130, the processing device 100 of the robot 10C functions as the control unit 300c1. That is, the display control process SA140 in the present embodiment is a process executed by the control unit 300c1. In the display control process SA140, the control unit 300c1 causes the terminal device 20A to display the terminal image by transmitting the terminal image generated by the generation process SA130 to the terminal device 20A via the communication device 110. When a plurality of first icons are displayed in the display area of the terminal device 40, a plurality of second icons corresponding to one-to-one with the plurality of first icons are displayed in the display area of the terminal device 20A. In the terminal device 20A, the terminal image whose inclination has been corrected is displayed on the display device 230. In the present embodiment, the touch operation is performed on the terminal image whose tilt has been corrected, so that the operability is improved.

本実施形態の表示動作において表示制御処理SA140に後続する特定処理SB230では、ロボット10Cの処理装置100は特定部300b6として機能する。特定部300b6は、端末装置40の表示領域に表示されている複数の第1アイコンのうち第1タッチ操作によって選択された一の第1アイコンを、第1取得処理SA110にて取得した撮像画像に基づいて特定する。 In the specific process SB230 that follows the display control process SA140 in the display operation of the present embodiment, the processing device 100 of the robot 10C functions as the specific unit 300b6. The specific unit 300b6 uses the first icon selected by the first touch operation among the plurality of first icons displayed in the display area of the terminal device 40 as the captured image acquired by the first acquisition process SA110. Identify based on.

本実施形態の表示動作において特定処理SB230に後続する更新処理SC240では、ロボット10Cの処理装置100は、更新部300c7として機能する。つまり、更新処理SC240は、更新部300c7により実行される処理である。更新処理SC240では、更新部300c7は、特定部300b6により特定された第1アイコンに対応するアプリケーションの種類に応じたフレームレートを特定する。この特定方法は、第1実施形態における更新処理SA240における特定方法と同じである。更新部300c7は、撮像画像のフレームレートを特定部300b6により特定されたフレームレートに更新する。 In the update process SC240 following the specific process SB230 in the display operation of the present embodiment, the processing device 100 of the robot 10C functions as the update unit 300c7. That is, the update process SC240 is a process executed by the update unit 300c7. In the update process SC240, the update unit 300c7 specifies a frame rate according to the type of application corresponding to the first icon specified by the specific unit 300b6. This specific method is the same as the specific method in the update process SA240 in the first embodiment. The update unit 300c7 updates the frame rate of the captured image to the frame rate specified by the specific unit 300b6.

図17は、本実施形態における遠隔操作動作の流れを示すフローチャートである。この遠隔操作動作は、通信装置110を介して第2位置情報を受信したこと契機として実行される。図17では、図9におけるものと同じ処理には同じ符号が付されている。図17と図9とを対比すれば明らかなように、本実施形態における遠隔操作動作は、以下の二つの点において第1実施形態の遠隔操作動作と異なる。第1の相違点は、操作制御処理SA250に代えて操作制御処理SC250が実行される点である。第2の相違点は、特定処理SA230及び更新処理SA240を含まない点である。本実施形態における遠隔操作動作に特定処理SA230及び更新処理SA240が含まれていないのは、これらに対応する処理が表示動作に含まれているからである。 FIG. 17 is a flowchart showing the flow of remote control operation in the present embodiment. This remote control operation is executed when the second position information is received via the communication device 110. In FIG. 17, the same processing as in FIG. 9 is designated by the same reference numeral. As is clear by comparing FIGS. 17 and 9, the remote control operation in the present embodiment is different from the remote control operation in the first embodiment in the following two points. The first difference is that the operation control process SC250 is executed instead of the operation control process SA250. The second difference is that the specific process SA230 and the update process SA240 are not included. The remote control operation in the present embodiment does not include the specific processing SA230 and the update processing SA240 because the processing corresponding to these is included in the display operation.

本実施形態の遠隔操作動作における第2取得処理SA210では、ロボット10Cの処理装置100は取得部300c2として機能する。つまり、本実施形態における第2取得処理SA210は取得部300c2により実行される処理である。第2取得処理SA210では、取得部300c2は、端末装置20Aから送信された第2位置情報を通信装置310から取得する。第2取得処理SA210に後続する変換処理SA220では、ロボット10Cの処理装置100は変換部300a5として機能する。変換部300a5は、取得部300c2により取得した第2位置情報を第1変換情報320a2と第2変換情報320a3とを用いて第1位置情報に変換する。 In the second acquisition process SA210 in the remote control operation of the present embodiment, the processing device 100 of the robot 10C functions as the acquisition unit 300c2. That is, the second acquisition process SA210 in the present embodiment is a process executed by the acquisition unit 300c2. In the second acquisition process SA210, the acquisition unit 300c2 acquires the second position information transmitted from the terminal device 20A from the communication device 310. In the conversion process SA220 following the second acquisition process SA210, the processing device 100 of the robot 10C functions as the conversion unit 300a5. The conversion unit 300a5 converts the second position information acquired by the acquisition unit 300c2 into the first position information using the first conversion information 320a2 and the second conversion information 320a3.

本実施形態の遠隔操作動作において変換処理SA220に後続して実行される操作制御処理SC250では、ロボット10Cの処理装置100は制御部300c1として機能する。つまり、操作制御処理SC250は、制御部300c1により実行される処理である。操作制御処理SC250では、制御部300c1は、変換処理SA220にて変換された第1位置情報に従って操作装置140の駆動制御を行い、第1位置情報の示す位置をタッチする。 In the operation control process SC250 executed after the conversion process SA220 in the remote control operation of the present embodiment, the processing device 100 of the robot 10C functions as the control unit 300c1. That is, the operation control process SC250 is a process executed by the control unit 300c1. In the operation control process SC250, the control unit 300c1 performs drive control of the operation device 140 according to the first position information converted by the conversion process SA220, and touches the position indicated by the first position information.

本実施形態によっても、第1実施形態と同様に、遠隔操作における操作性、及び操作精度が向上する。また、本実施形態では、撮像画像のフレームレートを、第1タッチ操作により実行を指示されるアプリケーションの種類に応じてロボット10Cに自律更新させることができる。
加えて、本実施形態によれば、制御装置30Aを設けない分だけ、遠隔操作システム1Cの構築コストを遠隔操作システム1Aの構築コストよりも引き下げることが可能になる。
Similar to the first embodiment, the present embodiment also improves the operability and the operation accuracy in remote control. Further, in the present embodiment, the frame rate of the captured image can be autonomously updated by the robot 10C according to the type of the application instructed to be executed by the first touch operation.
In addition, according to the present embodiment, the construction cost of the remote control system 1C can be reduced to be lower than the construction cost of the remote control system 1A because the control device 30A is not provided.

以上説明した第3実施形態は以下のように変形されてもよい。
(C1)端末装置40に実行させるアプリは、取得部300b2により取得した第2位置情報に基づいて特定されてもよい。端末装置40に実行させるアプリを第2位置情報に基づいて特定する態様は、特定部300b6を特定部300a6に置き換えることにより実現される。
(C2)撮像画像のフレームレートを示す設定情報が端末装置20Aから送信される場合には、取得部300c2は、端末装置20Aから送信された設定情報を通信装置110を介して受信することによって、当該設定情報を取得してもよい。取得部300c2が、端末装置20Aから送信された設定情報を取得する場合、更新部300c7は取得部300c2により取得された設定情報に基づいて、撮像画像のフレームレートを更新してもよい。
(C3)本実施形態では、検出部300a3はロボット10Cに対する端末装置40の傾きを検出したが、検出部300a3を省略してもよい。省略した場合、生成部300a4は、補正済み画像を生成することなく端末画像を生成する。端末画像は、例えば、第1画像に基づいて生成される。また、変換部300a5は、第2位置情報を第1位置情報に変換する。この変形例によれば、ロボット10Cの構成を簡略化できる。例えば、ロボット10Cに対する端末装置40の位置が予め定められている場合に、この変形例は好適である。
The third embodiment described above may be modified as follows.
(C1) The application to be executed by the terminal device 40 may be specified based on the second position information acquired by the acquisition unit 300b2. The mode of specifying the application to be executed by the terminal device 40 based on the second position information is realized by replacing the specific unit 300b6 with the specific unit 300a6.
(C2) When the setting information indicating the frame rate of the captured image is transmitted from the terminal device 20A, the acquisition unit 300c2 receives the setting information transmitted from the terminal device 20A via the communication device 110. The setting information may be acquired. When the acquisition unit 300c2 acquires the setting information transmitted from the terminal device 20A, the update unit 300c7 may update the frame rate of the captured image based on the setting information acquired by the acquisition unit 300c2.
(C3) In the present embodiment, the detection unit 300a3 detects the inclination of the terminal device 40 with respect to the robot 10C, but the detection unit 300a3 may be omitted. If omitted, the generation unit 300a4 generates the terminal image without generating the corrected image. The terminal image is generated based on, for example, the first image. Further, the conversion unit 300a5 converts the second position information into the first position information. According to this modification, the configuration of the robot 10C can be simplified. For example, this modification is suitable when the position of the terminal device 40 with respect to the robot 10C is predetermined.

以上に説明した第3実施形態及び第3実施形態の各変形例から把握される本開示のロボットの一態様は、端末装置40の表示領域に対する第1タッチ操作を、端末装置20Aの表示領域に対する第2タッチ操作に基づいて実行するロボット10Cであって、撮像装置130、操作装置140、及び処理装置100を備える。操作装置140は、端末装置40と撮像装置130との間に位置し、前記第1タッチ操作を行う。処理装置100は、取得部300c2、制御部300c1、及び更新部300c7を備える。取得部300c2は、前記第1タッチ操作に関する指示情報と、撮像装置130の撮像の設定に関する設定情報とを取得する。制御部300c1は、前記指示情報に基づいて操作装置140に前記第1タッチ操作を実行させる。更新部300c7は、前記設定情報に基づいて撮像装置130の設定を更新する。本態様のロボット10Cは、取得部300c2により取得された設定情報に基づいて撮像装置130の設定を更新する。取得部300c2により取得された設定情報が、遠隔操作により端末装置40に実行させるアプリケーションに基づくものであれば、端末装置40の表示領域の画像をロボット10Cが撮像する際の撮像の設定は、端末装置40に実行させるアプリケーションに応じた設定に更新される。 One aspect of the robot of the present disclosure grasped from each of the third embodiment and the third embodiment described above is that the first touch operation for the display area of the terminal device 40 is applied to the display area of the terminal device 20A. The robot 10C is executed based on the second touch operation, and includes an image pickup device 130, an operation device 140, and a processing device 100. The operation device 140 is located between the terminal device 40 and the image pickup device 130, and performs the first touch operation. The processing device 100 includes an acquisition unit 300c2, a control unit 300c1, and an update unit 300c7. The acquisition unit 300c2 acquires instruction information regarding the first touch operation and setting information regarding the imaging setting of the imaging device 130. The control unit 300c1 causes the operation device 140 to execute the first touch operation based on the instruction information. The update unit 300c7 updates the settings of the image pickup apparatus 130 based on the setting information. The robot 10C of this aspect updates the setting of the image pickup apparatus 130 based on the setting information acquired by the acquisition unit 300c2. If the setting information acquired by the acquisition unit 300c2 is based on an application to be executed by the terminal device 40 by remote control, the imaging setting when the robot 10C captures an image of the display area of the terminal device 40 is the terminal. The settings are updated according to the application to be executed by the device 40.

本開示のロボットの別の態様は、複数のアプリケーションに1対1に対応する複数の第1アイコンが表示される端末装置40の表示領域に対して第1タッチ操作を、端末装置20Aの表示領域に対する第2タッチ操作に基づいて実行するロボット10Cであって、撮像装置130、操作装置140、及び処理装置100を備える。操作装置140は、端末装置40と撮像装置130との間に位置し、前記第1タッチ操作を行う。処理装置100は、取得部300c2、制御部300c1、特定部300b6、及び更新部300c7を備える。取得部300c2は、前記第1タッチ操作に関する指示情報を取得する。制御部300c1は、前記指示情報に基づいて、操作装置140に前記第1タッチ操作を実行させる。特定部300b6は、撮像装置130によって撮像された端末装置40の表示領域を示す第1画像に基づいて、前記第1タッチ操作によって前記複数の第1アイコンのうち選択された一の第1アイコンを特定する。更新部300a7は、前記一の第1アイコンに対応するアプリケーションの種類に基づいて、撮像装置130による撮像の設定を、前記一の第1アイコンに対応するアプリケーションの種類に応じた設定に更新する。本態様のロボット10Cは、端末装置40の遠隔操作のために端末装置40の表示領域の画像を撮像する際の撮像の設定を、遠隔操作により実行させるアプリケーションに応じた設定に更新する。 Another aspect of the robot of the present disclosure is to perform a first touch operation on a display area of a terminal device 40 in which a plurality of first icons corresponding to one-to-one are displayed in a plurality of applications, and a display area of the terminal device 20A. The robot 10C is executed based on the second touch operation with respect to the above, and includes an image pickup device 130, an operation device 140, and a processing device 100. The operation device 140 is located between the terminal device 40 and the image pickup device 130, and performs the first touch operation. The processing device 100 includes an acquisition unit 300c2, a control unit 300c1, a specific unit 300b6, and an update unit 300c7. The acquisition unit 300c2 acquires instruction information related to the first touch operation. The control unit 300c1 causes the operation device 140 to execute the first touch operation based on the instruction information. The specific unit 300b6 selects one of the plurality of first icons by the first touch operation based on the first image showing the display area of the terminal device 40 captured by the image pickup device 130. Identify. The update unit 300a7 updates the setting of the image pickup by the image pickup apparatus 130 to the setting according to the type of the application corresponding to the first icon, based on the type of the application corresponding to the first icon. The robot 10C of the present embodiment updates the imaging setting when capturing an image in the display area of the terminal device 40 for remote control of the terminal device 40 to a setting according to the application to be executed by remote control.

より好ましい態様のロボット10Cにおいて、更新部300c7は、前記複数の第1アイコンと前記複数のアプリケーションの種類とを1対1に対応付けた関係情報を参照して、前記一の第1アイコンに対応するアプリケーションの種類を特定する。本態様のロボット10Cは、複数の第1アイコンと複数のアプリケーションの種類とを1対1に対応付けた関係情報に基づいて、一の第1アイコンに対応するアプリケーションの種類を特定できる。 In the robot 10C of a more preferable embodiment, the update unit 300c7 corresponds to the first icon by referring to the relationship information in which the plurality of first icons and the types of the plurality of applications are associated with each other on a one-to-one basis. Identify the type of application you want to do. The robot 10C of this embodiment can specify the type of application corresponding to one first icon based on the relationship information in which a plurality of first icons and a plurality of types of applications are associated with each other on a one-to-one basis.

更に好ましい態様のロボット10Cにおいては、操作装置140は、端末装置40に対する入力を行うための指示体142と、撮像装置130の撮像範囲内で指示体142を移動させるアーム144と、を含でもよい。操作装置140が、指示体142と、指示体142を移動させるアーム144とを含む場合、アーム144は透明素材で形成されることが好ましい。本態様のロボット10Cは、アーム144が、撮像装置130による端末装置40の撮像の妨げとなることを回避できる。 In a robot 10C of a further preferred embodiment, the operating device 140 may include an indicator 142 for inputting to the terminal device 40 and an arm 144 for moving the indicator 142 within the imaging range of the imaging device 130. .. When the operating device 140 includes an indicator body 142 and an arm 144 for moving the indicator body 142, the arm 144 is preferably made of a transparent material. The robot 10C of this embodiment can prevent the arm 144 from interfering with the image pickup of the terminal device 40 by the image pickup device 130.

D.他の変形例
各実施形態は、以下のように更に変形されてもよい。
(D1)上記各実施形態における端末装置40はスマートフォンであったが、タブレット端末であってもよい。同様に、第1実施形態及び第3実施形態における端末装置20Aもタブレット端末であってもよい。第2実施形態における端末装置20Bも、同様にタブレット端末であってもよい。第1実施形態における制御部300a1、取得部300a2、検出部300a3、生成部300a4、変換部300a5、特定部300a6、及び更新部300a7の一部又は全部がハードウェアであってもよい。このハードウェアの一例としては、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、及びFPGA(Field Programmable Gate Array)が挙げられる。制御部300a1、取得部300a2、検出部300a3、生成部300a4、変換部300a5、特定部300a6、及び更新部300a7の一部又は全部がハードウェアであっても、上記第1実施形態と同一の効果が奏される。同様に、制御部100a1、200a1、300b1、及び300c1もハードウェアであってもよい。また、取得部300b2、取得部300c2、特定部300b6、及び更新部300c7もハードウェアであってもよい。
つまり、上記実施形態に開示された各機能は、ハードウェア及びソフトウェアの任意の組合せによって実現される。また、各機能は、単体の装置によって実現されてもよいし、相互に別体で構成された2個以上の装置によって実現されてもよい。
D. Other Modifications Each embodiment may be further modified as follows.
(D1) The terminal device 40 in each of the above embodiments is a smartphone, but may be a tablet terminal. Similarly, the terminal device 20A in the first embodiment and the third embodiment may also be a tablet terminal. The terminal device 20B in the second embodiment may also be a tablet terminal. A part or all of the control unit 300a1, the acquisition unit 300a2, the detection unit 300a3, the generation unit 300a4, the conversion unit 300a5, the specific unit 300a6, and the update unit 300a7 in the first embodiment may be hardware. Examples of this hardware include DSP (Digital Signal Processor), ASIC (Application Specific Integrated Circuit), PLD (Programmable Logic Device), and FPGA (Field Programmable Gate Array). Even if a part or all of the control unit 300a1, the acquisition unit 300a2, the detection unit 300a3, the generation unit 300a4, the conversion unit 300a5, the specific unit 300a6, and the update unit 300a7 are hardware, the same effect as that of the first embodiment is obtained. Is played. Similarly, the control units 100a1, 200a1, 300b1, and 300c1 may also be hardware. Further, the acquisition unit 300b2, the acquisition unit 300c2, the specific unit 300b6, and the update unit 300c7 may also be hardware.
That is, each function disclosed in the above embodiment is realized by any combination of hardware and software. Further, each function may be realized by a single device, or may be realized by two or more devices configured as separate bodies from each other.

(D2)検出部300a3は、アプリDB320a4に格納された各アプリのアイコンと端末装置40の撮像画像から抽出したアイコンの画像との突合により端末装置40の傾きを検出してもよい。具体的には、検出部300a3は、撮像画像から抽出したアイコンの画像を所定の角度ずつ回転させながら、アプリDB320a4に格納された各アイコンの画像とのパターンマッチングを行い、アプリDB320a4に格納された複数のアイコンの画像の何れかと一致したときの角度を、端末装置40の傾き角度とする。 (D2) The detection unit 300a3 may detect the inclination of the terminal device 40 by collating the icon of each application stored in the application DB 320a4 with the image of the icon extracted from the captured image of the terminal device 40. Specifically, the detection unit 300a3 performs pattern matching with the image of each icon stored in the application DB 320a 4 while rotating the image of the icon extracted from the captured image by a predetermined angle, and stores the image in the application DB 320a 4. The angle when matching any of the images of the plurality of icons is defined as the tilt angle of the terminal device 40.

(D3)上記第1実施形態では、プログラム320a1が記憶装置320に記憶済であった。しかし、プログラム320a1は単体で製造又は配布されてもよい。プログラム320a1の具体的な配布方法としては、フラッシュROM(Read Only Memory)等のコンピュータ読み取り可能な記録媒体にプログラム320a1を書き込んで配布する態様、又はインターネット等の電気通信回線経由のダウンロードにより配布する態様が考えられる。当該プログラム320a1をパーソナルコンピュータ等の一般的な情報処理装置にインストールし、当該情報処理装置のCPU等のコンピュータを当該プログラム320a1に従って作動させることで当該情報処理装置を本開示の制御装置として機能させることが可能になる。プログラム220b1及びプログラム120c1も単体で製造又は配布されてもよい。 (D3) In the first embodiment, the program 320a1 has already been stored in the storage device 320. However, the program 320a1 may be manufactured or distributed as a single unit. As a specific distribution method of the program 320a1, a mode in which the program 320a1 is written and distributed on a computer-readable recording medium such as a flash ROM (Read Only Memory) or a mode in which the program 320a1 is distributed by downloading via a telecommunication line such as the Internet. Can be considered. The program 320a1 is installed in a general information processing device such as a personal computer, and the computer such as the CPU of the information processing device is operated according to the program 320a1 to cause the information processing device to function as the control device of the present disclosure. Will be possible. The program 220b1 and the program 120c1 may also be manufactured or distributed individually.

(D4)上記各実施形態では、記憶装置120は、処理装置100が読取可能な記録媒体であり、ROM及びRAMなどを例示したが、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリデバイス(例えば、カード、スティック、キードライブ)、CD-ROM(Compact Disc-ROM)、レジスタ、リムーバブルディスク、ハードディスク、フロッピー(登録商標)ディスク、磁気ストリップ、データベース、サーバその他の適切な記憶媒体である。記憶装置220及び記憶装置320も同様である。また、プログラムは、電気通信回線を介してネットワークから送信されても良い。また、プログラムは、電気通信回線を介して通信網から送信されても良い。なお、基地局は、入力キーなどの入力装置や、ディスプレイなどの出力装置を含んでいてもよい。 (D4) In each of the above embodiments, the storage device 120 is a recording medium that can be read by the processing device 100, and examples thereof include a ROM and a RAM. Disks, Blu-ray® discs), smart cards, flash memory devices (eg cards, sticks, key drives), CD-ROMs (Compact Disc-ROMs), registers, removable discs, hard disks, floppy (registered trademarks). ) Disks, magnetic strips, databases, servers and other suitable storage media. The same applies to the storage device 220 and the storage device 320. The program may also be transmitted from the network via a telecommunication line. Further, the program may be transmitted from the communication network via a telecommunication line. The base station may include an input device such as an input key and an output device such as a display.

(D5)上記各実施形態は、LTE(Long Term Evolution)、LTE-A(LTE-Advanced)、SUPER 3G、IMT-Advanced、4G、5G、FRA(Future Radio Access)、W-CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi-Fi)、IEEE 802.16(WiMAX)、IEEE 802.20、UWB(Ultra-WideBand)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステム及び/又はこれらに基づいて拡張された次世代システムに適用されてもよい。 (D5) Each of the above embodiments is LTE (Long Term Evolution), LTE-A (LTE-Advanced), SUPER 3G, IMT-Advanced, 4G, 5G, FRA (Future Radio Access), W-CDMA (registered trademark). , GSM®, CDMA2000, UMB (Ultra Mobile Broadband), IEEE 802.11 (Wi-Fi), LTE 802.16 (WiMAX), IEEE 802.20, UWB (Ultra-WideBand), Blueto ), Other systems that utilize appropriate systems and / or may be applied to next-generation systems that are extended based on them.

(D6)上記各実施形態において、説明した情報及び信号などは、様々な異なる技術の何れかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。なお、本明細書で説明した用語及び/又は本明細書の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。 (D6) In each of the above embodiments, the information, signals, and the like described may be represented using any of a variety of different techniques. For example, data, instructions, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description are voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these. It may be represented by a combination of. The terms described in the present specification and / or the terms necessary for understanding the present specification may be replaced with terms having the same or similar meanings.

(D7)上記各実施形態において、入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルで管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。 (D7) In each of the above embodiments, the input / output information and the like may be stored in a specific place (for example, a memory) or may be managed by a management table. Information to be input / output may be overwritten, updated, or added. The output information and the like may be deleted. The input information or the like may be transmitted to another device.

(D8)上記各実施形態において、判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。 (D8) In each of the above embodiments, the determination may be made by a value represented by 1 bit (0 or 1), or by a boolean value (Boolean: true or false). , May be done by numerical comparison (eg, comparison with a given value).

(D9)上記各実施形態で例示したプログラムは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード又はハードウェア記述言語と呼ばれるか、他の名称によって呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順又は機能等を意味するよう広く解釈されるべきである。また、ソフトウェア、命令などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペア及びデジタル加入者回線(DSL)などの有線技術及び/又は赤外線、無線及びマイクロ波などの無線技術を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び/又は無線技術は、伝送媒体の定義内に含まれる。 (D9) The program exemplified in each of the above embodiments is called an instruction, an instruction set, a code, a code segment, regardless of whether it is called a software, firmware, middleware, microcode or hardware description language, or by another name. It should be broadly interpreted to mean program code, subprograms, software modules, applications, software applications, software packages, routines, subroutines, objects, executable files, execution threads, procedures or functions, etc. Further, software, instructions, and the like may be transmitted and received via a transmission medium. For example, the software may use wired technology such as coaxial cable, fiber optic cable, twist pair and digital subscriber line (DSL) and / or wireless technology such as infrared, wireless and microwave to website, server, or other. When transmitted from a remote source, these wired and / or wireless technologies are included within the definition of transmission medium.

(D10)上記各実施形態において、端末装置20A、20B、又は40は、移動局である場合が含まれる。移動局は、当業者によって、加入者局、モバイルユニット、加入者ユニット、ワイヤレスユニット、リモートユニット、モバイルデバイス、ワイヤレスデバイス、ワイヤレス通信デバイス、リモートデバイス、モバイル加入者局、アクセス端末、モバイル端末、ワイヤレス端末、リモート端末、ハンドセット、ユーザエージェント、モバイルクライアント、クライアント、又はいくつかの他の適切な用語で呼ばれる場合もある。 (D10) In each of the above embodiments, the terminal device 20A, 20B, or 40 may be a mobile station. Mobile stations can be used by those skilled in the art as subscriber stations, mobile units, subscriber units, wireless units, remote units, mobile devices, wireless devices, wireless communication devices, remote devices, mobile subscriber stations, access terminals, mobile terminals, wireless. It may also be referred to as a terminal, remote terminal, handset, user agent, mobile client, client, or some other suitable term.

(D11)上記各実施形態において、「接続された(connected)」という用語、又はこれらのあらゆる変形は、2又はそれ以上の要素間の直接的又は間接的なあらゆる接続又は結合を意味し、互いに「接続」された2つの要素間に1又はそれ以上の中間要素が存在することを含むことができる。要素間の接続は、物理的なものであっても、論理的なものであっても、或いはこれらの組み合わせであってもよい。本明細書で使用する場合、2つの要素は、1又はそれ以上の電線、ケーブル及び/又はプリント電気接続を使用することにより、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域及び光(可視及び不可視の両方)領域の波長を有する電磁エネルギーなどの電磁エネルギーを使用することにより、互いに「接続」されると考えることができる。 (D11) In each of the above embodiments, the term "connected", or any variation thereof, means any direct or indirect connection or connection between two or more elements and each other. It can include the presence of one or more intermediate elements between two "connected" elements. The connection between the elements may be physical, logical, or a combination thereof. As used herein, the two elements are by using one or more wires, cables and / or printed electrical connections, and, as some non-limiting and non-comprehensive examples, radio frequencies. It can be considered to be "connected" to each other by using electromagnetic energies such as electromagnetic energies having wavelengths in the region, microwave region and light (both visible and invisible) regions.

(D12)上記各実施形態において、「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。 (D12) In each of the above embodiments, the statement "based on" does not mean "based on" unless otherwise stated. In other words, the statement "based on" means both "based only" and "at least based on".

(D13)「含む(including)」、「含んでいる(comprising)」、及びそれらの変形が、本明細書あるいは特許請求の範囲で使用されている限り、これら用語は、用語「備える」と同様に、包括的であることが意図される。更に、本明細書あるいは特許請求の範囲において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。 (D13) As long as "inclusion", "comprising", and variations thereof are used herein or within the scope of the claims, these terms are the same as the term "comprising". In addition, it is intended to be inclusive. Furthermore, the term "or" as used herein or in the claims is intended not to be an exclusive OR.

(D14)本願の全体において、例えば、英語におけるa、an及びtheのように、翻訳によって冠詞が追加された場合、これらの冠詞は、文脈から明らかにそうではないことが示されていなければ、複数を含む。 (D14) In the whole of the present application, if articles are added by translation, for example a, an and the in English, unless the context clearly indicates that these articles are not. Includes multiple.

(D15)本発明が本明細書中に説明した実施形態に限定されないことは当業者にとって明白である。本発明は、特許請求の範囲の記載に基づいて定まる本発明の趣旨及び範囲を逸脱することなく修正及び変更態様として実施できる。従って、本明細書の記載は、例示的な説明を目的とし、本発明に対して何ら制限的な意味を有さない。また、本明細書に例示した態様から選択された複数の態様を組合わせてもよい。 (D15) It will be apparent to those skilled in the art that the invention is not limited to the embodiments described herein. The present invention can be implemented as modifications and modifications without departing from the spirit and scope of the present invention, which is determined based on the description of the scope of claims. Therefore, the description herein is for purposes of illustration and has no limiting implications for the present invention. In addition, a plurality of embodiments selected from the embodiments exemplified herein may be combined.

1A,1B,1C…遠隔操作システム、10A,10C…ロボット、20A,20B,40…端末装置、30A…制御装置、100,200,300…処理装置、110,210,310…通信装置、120,220,320…記憶装置、130…撮像装置、140…操作装置、142…指示体、144…アーム、230…表示装置、240…入力装置、100a1,200a1,300a1,300b1,300c1…制御部、300a2,300b2,300c2…取得部、300a3…検出部、300a4…生成部、300a5…変換部、300a6,300b6…特定部、300a7,300c7…更新部、320a2…第1変換情報、320a3…第2変換情報、320a4…アプリDB、320a5…テーブル。 1A, 1B, 1C ... remote control system, 10A, 10C ... robot, 20A, 20B, 40 ... terminal device, 30A ... control device, 100, 200, 300 ... processing device, 110, 210, 310 ... communication device, 120, 220, 320 ... Storage device, 130 ... Image pickup device, 140 ... Operation device, 142 ... Indicator, 144 ... Arm, 230 ... Display device, 240 ... Input device, 100a1,200a1, 300a1, 300b1, 300c1 ... Control unit, 300a2 , 300b2, 300c2 ... Acquisition unit, 300a3 ... Detection unit, 300a4 ... Generation unit, 300a5 ... Conversion unit, 300a6, 300b6 ... Specific unit, 300a7, 300c7 ... Update unit, 320a2 ... First conversion information, 320a3 ... Second conversion information , 320a4 ... App DB, 320a5 ... Table.

Claims (10)

複数のアプリケーションに1対1に対応する複数の第1アイコンが表示される第1端末装置の表示領域に対して第1タッチ操作を行うロボットを、第2端末装置の表示領域に対する第2タッチ操作に基づいて制御する制御装置であって、
前記ロボットが第1端末装置を撮像することによって生成された第1画像と、前記第2タッチ操作によってタッチされた前記第2端末装置の表示領域における位置を示す第2位置情報を取得する取得部と、
前記第1画像に基づいて、前記第2端末装置の表示領域に前記複数の第1アイコンに1対1に対応する複数の第2アイコンを表示させ、前記第2位置情報に基づいて前記ロボットに前記第1タッチ操作を実行させる制御部と、
前記第2位置情報に基づいて、前記複数の第2アイコンのうち前記第2タッチ操作によって選択された一の第2アイコンに対応する一の第1アイコンを特定する特定部と、
前記一の第1アイコンに対応するアプリケーションの種類に基づいて、前記ロボットによる撮像の設定を、前記一の第1アイコンに対応するアプリケーションの種類に応じた設定に更新する更新部と、
を備える制御装置。
A robot that performs a first touch operation on the display area of the first terminal device in which a plurality of first icons corresponding to one-to-one are displayed on a plurality of applications, and a second touch operation on the display area of the second terminal device. It is a control device that controls based on
An acquisition unit that acquires a first image generated by the robot taking an image of the first terminal device and a second position information indicating a position in the display area of the second terminal device touched by the second touch operation. When,
Based on the first image, a plurality of second icons corresponding to one-to-one are displayed on the plurality of first icons in the display area of the second terminal device, and the robot is made based on the second position information. The control unit that executes the first touch operation and
A specific unit that identifies the first icon corresponding to the second icon selected by the second touch operation among the plurality of second icons based on the second position information.
An update unit that updates the setting of the image pickup by the robot to the setting according to the type of the application corresponding to the first icon based on the type of the application corresponding to the first icon.
A control device equipped with.
前記第1画像又は前記第1画像から一部が抽出された第2画像に基づいて、前記ロボットに対する前記第1端末装置の傾きを検出する検出部と、
前記傾きに基づいて、前記第2位置情報を前記第1タッチ操作によってタッチされる前記第1端末装置の表示領域における位置を示す第1位置情報に変換する変換部と、を更に含み、
前記特定部は、前記第1位置情報に基づいて、前記一の第1アイコンを特定する、
請求項1に記載の制御装置。
A detection unit that detects the inclination of the first terminal device with respect to the robot based on the first image or the second image partially extracted from the first image.
A conversion unit that converts the second position information into first position information indicating a position in the display area of the first terminal device touched by the first touch operation based on the inclination is further included.
The specific unit identifies the first icon based on the first position information.
The control device according to claim 1.
複数のアプリケーションに1対1に対応する複数の第1アイコンが表示される第1端末装置の表示領域に対して第1タッチ操作を行うロボットを、第2端末装置の表示領域に対する第2タッチ操作に基づいて制御する制御装置であって、
前記ロボットが第1端末装置を撮像することによって生成された第1画像と、前記第2タッチ操作によってタッチされた前記第2端末装置の表示領域における位置を示す第2位置情報を取得する取得部と、
前記第1画像に基づいて、前記第2端末装置の表示領域に前記複数の第1アイコンに1対1に対応する複数の第2アイコンを表示させ、前記第2位置情報に基づいて前記ロボットに前記第1タッチ操作を実行させる制御部と、
前記第1画像に基づいて、前記複数の第1アイコンのうち前記第1タッチ操作によって選択された一の第1アイコンを特定する特定部と、
前記一の第1アイコンに対応するアプリケーションの種類に基づいて、前記ロボットによる撮像の設定を、前記一の第1アイコンに対応するアプリケーションの種類に応じた設定に更新する更新部と、
を備える制御装置。
A robot that performs a first touch operation on the display area of the first terminal device in which a plurality of first icons corresponding to one-to-one are displayed on a plurality of applications, and a second touch operation on the display area of the second terminal device. It is a control device that controls based on
An acquisition unit that acquires a first image generated by the robot taking an image of the first terminal device and a second position information indicating a position in the display area of the second terminal device touched by the second touch operation. When,
Based on the first image, a plurality of second icons corresponding to one-to-one are displayed on the plurality of first icons in the display area of the second terminal device, and the robot is made based on the second position information. The control unit that executes the first touch operation and
Based on the first image, a specific unit that identifies one of the first icons selected by the first touch operation among the plurality of first icons, and
Based on the type of application corresponding to the first icon, the update unit that updates the setting of imaging by the robot to the setting corresponding to the type of application corresponding to the first icon.
A control device equipped with.
前記第1画像又は前記第1画像から一部が抽出された第2画像に基づいて、前記ロボットに対する前記第1端末装置の傾きを検出する検出部と、
前記傾きに基づいて、前記第2位置情報を前記第1タッチ操作によってタッチされる前記第1端末装置の表示領域における位置を示す第1位置情報に変換する変換部と、を更に含み、
前記制御部は、前記第1位置情報に基づいて、前記ロボットに前記第1タッチ操作を実行させる、
請求項3に記載の制御装置。
A detection unit that detects the inclination of the first terminal device with respect to the robot based on the first image or the second image partially extracted from the first image.
A conversion unit that converts the second position information into first position information indicating a position in the display area of the first terminal device touched by the first touch operation based on the inclination is further included.
The control unit causes the robot to execute the first touch operation based on the first position information.
The control device according to claim 3.
前記更新部は、前記複数の第1アイコンと前記複数のアプリケーションの種類とを1対1に対応付けた関係情報を参照して、前記一の第1アイコンに対応するアプリケーションの種類を特定する、請求項1乃至4のうちの何れか1項に記載の制御装置。 The update unit identifies the type of application corresponding to the first icon by referring to the relationship information in which the plurality of first icons and the types of the plurality of applications are associated with each other on a one-to-one basis. The control device according to any one of claims 1 to 4. 前記撮像の設定には、解像度とフレームレートとの少なくとも一方が含まれる、請求項1乃至5のうちの何れか1項に記載の制御装置。 The control device according to any one of claims 1 to 5, wherein the imaging setting includes at least one of a resolution and a frame rate. 第1端末装置の表示領域に対する第1タッチ操作を、第2端末装置の表示領域に対する第2タッチ操作に基づいて実行するロボットであって、
撮像装置と、
前記第1端末装置と前記撮像装置との間に位置し、前記第1タッチ操作を行う操作装置と、
処理装置と、を備え、
前記処理装置は、
前記第1タッチ操作に関する指示情報と、前記撮像装置の撮像の設定に関する設定情報とを取得する取得部と、
前記指示情報に基づいて前記操作装置に前記第1タッチ操作を実行させる制御部と、
前記設定情報に基づいて前記撮像装置の設定を更新する更新部と、
を備える、ロボット。
A robot that executes a first touch operation on a display area of a first terminal device based on a second touch operation on a display area of a second terminal device.
Imaging device and
An operation device located between the first terminal device and the image pickup device and performing the first touch operation,
Equipped with a processing device,
The processing device is
An acquisition unit that acquires instruction information related to the first touch operation and setting information related to the imaging setting of the imaging device.
A control unit that causes the operating device to execute the first touch operation based on the instruction information.
An update unit that updates the settings of the image pickup device based on the setting information,
A robot equipped with.
複数のアプリケーションに1対1に対応する複数の第1アイコンが表示される第1端末装置の表示領域に対して第1タッチ操作を、第2端末装置の表示領域に対する第2タッチ操作に基づいて実行するロボットであって、
撮像装置と、
前記第1端末装置と前記撮像装置との間に位置し、前記第1タッチ操作を行う操作装置と、
処理装置と、を備え、
前記処理装置は、
前記第1タッチ操作に関する指示情報を取得する取得部と、
前記指示情報に基づいて、前記操作装置に前記第1タッチ操作を実行させる制御部と、
前記撮像装置によって撮像された前記第1端末装置の表示領域を示す第1画像に基づいて、前記第1タッチ操作によって前記複数の第1アイコンのうち選択された一の第1アイコンを特定する特定部と、
前記一の第1アイコンに対応するアプリケーションの種類に基づいて、前記撮像装置による撮像の設定を、前記一の第1アイコンに対応するアプリケーションの種類に応じた設定に更新する更新部と、
を備える、ロボット。
Based on the first touch operation for the display area of the first terminal device in which a plurality of first icons corresponding to one-to-one are displayed for a plurality of applications, and the second touch operation for the display area of the second terminal device. A robot that runs
Imaging device and
An operation device located between the first terminal device and the image pickup device and performing the first touch operation,
Equipped with a processing device,
The processing device is
An acquisition unit that acquires instruction information related to the first touch operation,
A control unit that causes the operating device to execute the first touch operation based on the instruction information.
Identification to specify one of the plurality of first icons selected by the first touch operation based on the first image showing the display area of the first terminal device captured by the image pickup device. Department and
An update unit that updates the image pickup setting by the image pickup device to a setting according to the type of the application corresponding to the first icon, based on the type of the application corresponding to the first icon.
A robot equipped with.
前記更新部は、前記複数の第1アイコンと前記複数のアプリケーションの種類とを1対1に対応付けた関係情報を参照して、前記一の第1アイコンに対応するアプリケーションの種類を特定する、請求項7又は請求項8に記載のロボット。 The update unit identifies the type of application corresponding to the first icon by referring to the relationship information in which the plurality of first icons and the types of the plurality of applications are associated with each other on a one-to-one basis. The robot according to claim 7 or 8. 前記操作装置は、
前記第1端末装置に対する入力を行うための指示体と、
前記撮像装置の撮像範囲内で前記指示体を移動させるアームと、を含み、
前記アームは透明素材で形成される、
請求項7乃至9のうちの何れか1項に記載のロボット。
The operating device is
An indicator for inputting to the first terminal device and
Includes an arm that moves the indicator within the imaging range of the imaging device.
The arm is made of a transparent material,
The robot according to any one of claims 7 to 9.
JP2020188619A 2020-11-12 2020-11-12 Control device and robot Pending JP2022077679A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020188619A JP2022077679A (en) 2020-11-12 2020-11-12 Control device and robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020188619A JP2022077679A (en) 2020-11-12 2020-11-12 Control device and robot

Publications (1)

Publication Number Publication Date
JP2022077679A true JP2022077679A (en) 2022-05-24

Family

ID=81706614

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020188619A Pending JP2022077679A (en) 2020-11-12 2020-11-12 Control device and robot

Country Status (1)

Country Link
JP (1) JP2022077679A (en)

Similar Documents

Publication Publication Date Title
JP6689990B2 (en) Graphic code display method, device and storage medium
US10915750B2 (en) Method and device for searching stripe set
US7808478B2 (en) Autonomous handheld device having a drawing tool
CN108184070B (en) Shooting method and terminal
CN106681667B (en) Picture display method and device and mobile terminal
US9519365B2 (en) Display control apparatus and control method for the same
JP2016527633A (en) Two-dimensional code recognition method and apparatus
CN108509122B (en) Image sharing method and terminal
KR102121905B1 (en) Method and apparatus for setting background of ui control, and terminal
CN110908554B (en) Long screenshot method and terminal device
US20180329612A1 (en) Interfacing with a computing device
WO2018184255A1 (en) Image correction method and device
CN103002212A (en) Image processor, image processing method, and computer readable medium
US11747900B2 (en) Eye-tracking image viewer for digital pathology
CN112367559A (en) Video display method and device, electronic equipment, server and storage medium
US11184302B2 (en) Method for transmitting content using message application and electronic device supporting the same
JP5913806B2 (en) Mobile device virtual keyboard
CN114299056A (en) Defect point recognition method of image and defect image recognition model training method
JP2022077679A (en) Control device and robot
CN104506909A (en) Screen capturing remote-control method and screen capturing remote-control device
US10057315B2 (en) Communication support system, information processing apparatus, control method, and storage medium that display an output image obtained by superposing a reference image over a captured image
JP2022077678A (en) Control device and robot
CN109427101A (en) A kind of method and system obtaining augmented reality image
KR20140103021A (en) Object recognition device
US20200257396A1 (en) Electronic device and control method therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230807