JP5776544B2 - Robot control method, robot control device, and robot - Google Patents

Robot control method, robot control device, and robot Download PDF

Info

Publication number
JP5776544B2
JP5776544B2 JP2011288958A JP2011288958A JP5776544B2 JP 5776544 B2 JP5776544 B2 JP 5776544B2 JP 2011288958 A JP2011288958 A JP 2011288958A JP 2011288958 A JP2011288958 A JP 2011288958A JP 5776544 B2 JP5776544 B2 JP 5776544B2
Authority
JP
Japan
Prior art keywords
command
robot
recognized
user
exercise
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011288958A
Other languages
Japanese (ja)
Other versions
JP2013136131A (en
Inventor
山口 宇唯
宇唯 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2011288958A priority Critical patent/JP5776544B2/en
Publication of JP2013136131A publication Critical patent/JP2013136131A/en
Application granted granted Critical
Publication of JP5776544B2 publication Critical patent/JP5776544B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Manipulator (AREA)

Description

本発明はロボットの制御方法、ロボットの制御装置、及びロボットに関する。   The present invention relates to a robot control method, a robot control device, and a robot.

近年、遠隔操作により動作するロボットが普及している。ユーザは、様々な入力方法(例えば、音声、タッチパネル、押しボタン、ジェスチャー等)を用いて、ロボットに対してコマンド入力(命令)を行う。   In recent years, robots that operate by remote control have become widespread. The user inputs commands (commands) to the robot using various input methods (for example, voice, touch panel, push button, gesture, etc.).

特許文献1には、音声認識により動作するロボットが開示されている。ロボットは、音声の誤認識により誤って実行されると危険な危険コマンドを記憶し、危険コマンドに類似する棄却単語を有する。これにより、危険コマンドの誤認識を防止し、音声認識の精度の向上を図っている。   Patent Document 1 discloses a robot that operates by voice recognition. The robot stores a dangerous danger command when it is mistakenly executed due to a misrecognition of voice, and has a rejection word similar to the danger command. This prevents erroneous recognition of dangerous commands and improves the accuracy of voice recognition.

特許第4539313号Japanese Patent No. 4539313

しかしながら、ロボットがユーザからのコマンドを誤認識したり、ユーザがコマンドを誤入力したりした場合、誤ったコマンドが実行される。つまり、ロボットは、ユーザの意図しない動作を行ってしまうという問題があった。特に、ロボットが物理的な動作を伴うコマンドを誤って実行した場合には、周囲の迷惑となってしまう恐れもある。   However, if the robot erroneously recognizes a command from the user or the user erroneously inputs a command, an incorrect command is executed. That is, the robot has a problem that it performs an operation unintended by the user. In particular, if the robot erroneously executes a command that involves physical movement, there is a risk of disturbing the surroundings.

なお、特許文献1に記載のロボットは、棄却単語を用いることにより、意図しない危険コマンドの実行を防止しているが、音声認識処理の精度が十分でなければ、棄却すべき棄却単語を危険コマンドとして誤認識してしまう可能性がある。つまり、誤って危険コマンドを実行してしまう可能性がある。したがって、棄却単語を用いたとしても意図しない動作を確実に排除することができない。   The robot described in Patent Document 1 uses a rejection word to prevent an unintended dangerous command from being executed. However, if the accuracy of the speech recognition process is not sufficient, the rejection word to be rejected is a dangerous command. May be misrecognized. In other words, there is a possibility of executing a dangerous command by mistake. Therefore, even if a rejection word is used, an unintended operation cannot be reliably excluded.

本発明は、このような問題を解決するためになされたものであり、ユーザの意図しない動作を確実に防止できるロボットの制御方法、ロボットの制御装置、及びロボットを提供することを目的とする。   The present invention has been made to solve such a problem, and an object of the present invention is to provide a robot control method, a robot control device, and a robot that can reliably prevent an operation unintended by a user.

本発明の一態様にかかるロボットの制御方法は、ユーザから入力されたコマンドに基づいて動作するロボットの制御方法であって、前記ユーザから入力された前記コマンドを認識するステップと、認識した前記コマンドが物理的な動作を伴う運動コマンドであるか否かを判定するステップと、判定結果に基づいて、認識した前記コマンドを実行するか否かを前記ユーザに確認するステップと、を備えるものである。これにより、運動コマンドが実行される場合には、ユーザに対して確認処理が行われる。そのため、ロボットの誤認識やユーザの誤入力が発生した場合であっても、ユーザが意図しない運動コマンドが実行することを確実に防止できる。   A robot control method according to an aspect of the present invention is a robot control method that operates based on a command input from a user, the step of recognizing the command input from the user, and the recognized command Determining whether or not the command is an exercise command accompanied by a physical motion, and confirming to the user whether or not to execute the recognized command based on the determination result. . Thereby, when an exercise command is executed, a confirmation process is performed on the user. Therefore, even when a robot misrecognition or a user erroneous input occurs, it is possible to reliably prevent an exercise command unintended by the user from being executed.

また、前記運動コマンドが予め格納されたコマンドデータベースを参照して、認識した前記コマンドが前記運動コマンドであるか否かを判定してもよい。   Further, it may be determined whether or not the recognized command is the exercise command by referring to a command database in which the exercise command is stored in advance.

また、前記ロボットが有するモータの制御が行われるか否かに応じて、認識した前記コマンドが前記運動コマンドであるか否かを判定してもよい。これにより、運動コマンドか否かを示す情報を予め保持しておく必要がなくなり、メモリコストが削減できる。   Further, it may be determined whether or not the recognized command is the motion command depending on whether or not the motor of the robot is controlled. As a result, it is not necessary to store information indicating whether or not the exercise command is in advance, and the memory cost can be reduced.

また、認識した前記コマンドに応じて前記モータの回転数を低下させる制御が行われる場合、認識した前記コマンドを実行するか否かの確認を行わず、認識した前記コマンドを実行してもよい。これにより、減速動作等の回転数を低下させる動作については、確認処理が行われない。つまり、緊急停止等のコマンドについては確認なしで実行されるため、非常時において迅速な動作が可能となる。   When the control for reducing the rotation speed of the motor is performed according to the recognized command, the recognized command may be executed without confirming whether the recognized command is executed. As a result, the confirmation process is not performed for the operation for reducing the rotational speed such as the deceleration operation. In other words, since an emergency stop command is executed without confirmation, a quick operation is possible in an emergency.

また、前記ユーザからの前記コマンドの入力は、前記ロボットとは物理的に離れた端末を用いて行われてもよい。   Further, the input of the command from the user may be performed using a terminal physically separated from the robot.

また、認識した前記コマンドを実行するか否かの確認は、前記端末に設けられた表示部に確認画面を表示することによって行われてもよい。   Further, confirmation of whether or not to execute the recognized command may be performed by displaying a confirmation screen on a display unit provided in the terminal.

また、前記ロボットの周囲の環境を認識するステップをさらに備え、認識した前記ロボットの周囲環境及び前記判定結果に基づいて、認識した前記コマンドを実行するか否かを前記ユーザに確認してもよい。これにより、ユーザが意図しない運動コマンドが実行されても、周囲に影響が無い状況では、ユーザに対して確認を行わない。そのため、ロボット制御の利便性が向上する。   In addition, the method may further include a step of recognizing an environment around the robot, and confirming with the user whether or not to execute the recognized command based on the recognized environment around the robot and the determination result. . Thus, even if an exercise command not intended by the user is executed, the user is not confirmed in a situation where there is no influence on the surroundings. Therefore, the convenience of robot control is improved.

また、現在時刻を取得するステップをさらに備え、取得した前記現在時刻及び前記判定結果に基づいて、認識した前記コマンドを実行するか否かを前記ユーザに確認してもよい。これにより、ユーザが意図しない運動コマンドが実行されても影響が無い時間帯では、ユーザに対して確認を行わない。そのため、ロボット制御の利便性が向上する。   In addition, the method may further include a step of acquiring a current time and confirm with the user whether or not to execute the recognized command based on the acquired current time and the determination result. Thereby, confirmation is not performed with respect to a user in the time slot | zone which has no influence even if the exercise command which a user does not intend is performed. Therefore, the convenience of robot control is improved.

本発明の一態様にかかるロボットの制御装置は、ユーザから入力されたコマンドに基づいて動作するロボットの制御装置であって、前記ユーザから入力された前記コマンドを認識するコマンド認識手段と、前記コマンド認識手段により認識された前記コマンドが物理的な動作を伴う運動コマンドであるか否かを判定する判定手段と、前記判定手段の判定結果に基づいて、認識した前記コマンドを実行するか否かを前記ユーザに確認する確認手段と、を備えるものである。これにより、運動コマンドが実行される場合には、ユーザに対して確認処理が行われる。そのため、ロボットの誤認識やユーザの誤入力が発生した場合であっても、ユーザが意図しない運動コマンドが実行することを確実に防止できる。   A robot control apparatus according to an aspect of the present invention is a robot control apparatus that operates based on a command input from a user, the command recognition unit recognizing the command input from the user, and the command Determining means for determining whether or not the command recognized by the recognizing means is an exercise command accompanied by a physical motion; and whether or not to execute the recognized command based on the determination result of the determining means. Confirmation means for confirming with the user. Thereby, when an exercise command is executed, a confirmation process is performed on the user. Therefore, even when a robot misrecognition or a user erroneous input occurs, it is possible to reliably prevent an exercise command unintended by the user from being executed.

本発明の一態様にかかるロボットは、モータを備え、当該モータを駆動させることにより、物理的な動作を伴う運動コマンドを実行可能なロボットであって、ユーザから入力されたコマンドを認識するコマンド認識手段と、前記コマンド認識手段により認識された前記コマンドが前記運動コマンドであるか否かを判定する判定手段と、前記判定手段の判定結果に基づいて、認識した前記コマンドを実行するか否かを前記ユーザに確認する確認手段と、を備えるものである。これにより、運動コマンドが実行される場合には、ユーザに対して確認処理が行われる。そのため、ロボットの誤認識やユーザの誤入力が発生した場合であっても、ユーザが意図しない運動コマンドが実行することを確実に防止できる。   A robot according to one embodiment of the present invention includes a motor, and is a robot that can execute a motion command accompanied by a physical operation by driving the motor, and recognizes a command input by a user. A determination means for determining whether or not the command recognized by the command recognition means is the exercise command, and whether or not to execute the recognized command based on a determination result of the determination means. Confirmation means for confirming with the user. Thereby, when an exercise command is executed, a confirmation process is performed on the user. Therefore, even when a robot misrecognition or a user erroneous input occurs, it is possible to reliably prevent an exercise command unintended by the user from being executed.

本発明により、ユーザの意図しない動作を確実に防止できるロボット制御方法、ロボット制御装置、及びロボットを提供することができる。   According to the present invention, it is possible to provide a robot control method, a robot control apparatus, and a robot that can reliably prevent an operation unintended by a user.

実施の形態1にかかるロボットの外観斜視図である。1 is an external perspective view of a robot according to a first embodiment. 実施の形態1にかかるロボットの制御システムのブロック図である。1 is a block diagram of a robot control system according to a first embodiment; 実施の形態1にかかるコマンドデータベースの構成例を示す図である。It is a figure which shows the structural example of the command database concerning Embodiment 1. FIG. 実施の形態1にかかるロボットの制御方法を示すフローチャートである。3 is a flowchart showing a robot control method according to the first exemplary embodiment; 実施の形態1にかかる確認画面の一例である。3 is an example of a confirmation screen according to the first embodiment. 実施の形態1の変形例1にかかるボタン型操作用端末の構成例を示す図である。It is a figure which shows the structural example of the button type operation terminal concerning the modification 1 of Embodiment 1. FIG. 実施の形態1の変形例1にかかる確認画面の一例である。10 is an example of a confirmation screen according to the first modification of the first embodiment. 実施の形態1の変形例2にかかるタッチパネル型操作用端末の構成例を示す図である。It is a figure which shows the structural example of the touchscreen type operation terminal concerning the modification 2 of Embodiment 1. FIG. 実施の形態1の変形例2にかかる確認画面の一例である。It is an example of the confirmation screen concerning the modification 2 of Embodiment 1. FIG. 実施の形態2にかかるロボットの制御システムのブロック図である。FIG. 4 is a block diagram of a robot control system according to a second embodiment. 実施の形態2にかかるロボットの制御方法を示すフローチャートである。6 is a flowchart illustrating a robot control method according to a second embodiment;

<実施の形態1>
以下、図面を参照して本発明の実施の形態について説明する。図1は、本実施の形態にかかるロボットの外観斜視図である。ロボット1は、ロボット本体91と、アーム92と、を備える。アーム92は、複数の関節を有し、ロボット本体91に連結されている。ロボット1は、関節に設けられたモータ(図示省略)を制御することにより、ロボット本体91に対してアーム92を相対的に変位させる。また、ロボット1は、ロボット本体91の下部に駆動輪(図示省略)を有する。駆動輪を回転駆動させるモータ(図示省略)を制御することにより、ロボット1は移動する。つまり、ロボット1は、モータを制御することにより、物理的な動作を行う。なお、物理的な動作とは、ロボット1の全部又は一部の位置が周囲の物体(例えば、床や人等)に対して相対的に変化することを言う。
<Embodiment 1>
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is an external perspective view of the robot according to the present embodiment. The robot 1 includes a robot main body 91 and an arm 92. The arm 92 has a plurality of joints and is connected to the robot body 91. The robot 1 displaces the arm 92 relative to the robot body 91 by controlling a motor (not shown) provided at the joint. The robot 1 also has drive wheels (not shown) at the bottom of the robot body 91. The robot 1 moves by controlling a motor (not shown) that rotates the drive wheels. That is, the robot 1 performs a physical operation by controlling the motor. The physical operation means that the position of all or part of the robot 1 changes relative to surrounding objects (for example, a floor or a person).

図2にロボット1の制御システムのブロック図を示す。ロボット1は、無線LANアダプタ11と、カメラ12と、コマンド処理部13と、スピーカ14と、ディスプレイ15と、コマンドデータベース16と、入力装置17と、補助記憶部18と、モータ制御部19と、を備える。図1に示した制御システムにおいて、ロボット1は、インターネット3を介して、操作用端末100から送信される操作コマンドを受信し、当該操作コマンドに応じた動作(例えば、情報の提供や、物体の移動等)を実行する。   FIG. 2 shows a block diagram of the control system of the robot 1. The robot 1 includes a wireless LAN adapter 11, a camera 12, a command processing unit 13, a speaker 14, a display 15, a command database 16, an input device 17, an auxiliary storage unit 18, a motor control unit 19, Is provided. In the control system illustrated in FIG. 1, the robot 1 receives an operation command transmitted from the operation terminal 100 via the Internet 3 and performs an operation corresponding to the operation command (for example, provision of information, Move).

無線LAN(Local Area Network)アダプタ11は、インターネット3を介して、操作用端末100と無線通信を行う。カメラ12は、例えば、ロボット1の頭部に搭載されており、ロボット1の周囲の環境を撮像する。   A wireless local area network (LAN) adapter 11 performs wireless communication with the operation terminal 100 via the Internet 3. For example, the camera 12 is mounted on the head of the robot 1 and images the environment around the robot 1.

コマンド処理部13は、CPU(Central Processing Unit)131と、メモリ132と、を備える。CPU131及びメモリ132は、各種デバイスや処理部とバス及びインターフェース(I/F)を介して接続されている。CPU131は、認識したコマンドを一旦メモリ132に格納する。そして、CPU131は、補助記憶部18に格納されたコマンド処理プログラムを読み出し、コマンドデータベース16を参照して、認識したコマンドが物理的な動作を伴うコマンド(以下、運動コマンドと称す。)であるか否かを判定する。   The command processing unit 13 includes a CPU (Central Processing Unit) 131 and a memory 132. The CPU 131 and the memory 132 are connected to various devices and processing units via a bus and an interface (I / F). The CPU 131 temporarily stores the recognized command in the memory 132. Then, the CPU 131 reads the command processing program stored in the auxiliary storage unit 18 and refers to the command database 16 to determine whether the recognized command is a command accompanied by a physical operation (hereinafter referred to as an exercise command). Determine whether or not.

具体的には、CPU131は、認識したコマンドをテキスト(文字列)化する。そして、CPU131は、インターフェースを介してコマンドデータベース16にアクセスし、認識したコマンドが運動コマンドであるか否かを判定する。CPU131は、判定結果をメモリ132に格納する。本実施の形態のロボット1では、ユーザからのコマンドは音声信号を用いる。音声信号のコマンド解析のためのコマンド処理部13は、公知の技術を用いた簡単な構成である。そのため、低コストで本発明を実現できる。   Specifically, the CPU 131 converts the recognized command into text (character string). Then, the CPU 131 accesses the command database 16 via the interface and determines whether or not the recognized command is an exercise command. The CPU 131 stores the determination result in the memory 132. In the robot 1 of the present embodiment, a voice signal is used as a command from the user. The command processing unit 13 for voice signal command analysis has a simple configuration using a known technique. Therefore, the present invention can be realized at low cost.

スピーカ14は、コマンド処理部13に入力された音声信号を出力したり、メモリ132に蓄積された音声信号をユーザの要求に応じて出力したりする。ディスプレイ15は、ロボット1の設定情報や、コマンド処理部13の処理結果等を表示する。なお、スピーカ14やディスプレイ15等の出力デバイスは、ロボット内蔵型でもよいし、外付け型でもよい。   The speaker 14 outputs an audio signal input to the command processing unit 13 or outputs an audio signal stored in the memory 132 in response to a user request. The display 15 displays the setting information of the robot 1, the processing result of the command processing unit 13, and the like. The output device such as the speaker 14 and the display 15 may be a robot built-in type or an external type.

コマンドデータベース16は、インデックス、判定対象コマンド(ロボット1が動作可能な各種コマンド)、コマンドが運動コマンドであるか否かを示すコマンドフラグ、及びコマンドの分類が対応付けて格納されている(図3参照)。このとき、コマンドフラグとは、コマンドが運動コマンドであるか否かを示す情報である。分類とは、コマンド処理部13による処理内容を示す情報である。   The command database 16 stores an index, a determination target command (various commands that the robot 1 can operate), a command flag indicating whether the command is an exercise command, and a command classification in association with each other (FIG. 3). reference). At this time, the command flag is information indicating whether or not the command is an exercise command. The classification is information indicating the processing content by the command processing unit 13.

本実施の形態においては、運動コマンドには、1のコマンドフラグが対応付けられている。一方、運動コマンド以外のコマンド(例えば、ディスプレイ15を用いた情報の表示や、スピーカ14を用いた音声の再生等)には、0のコマンドフラグが対応付けられている。コマンドフラグは、予め設定されていてもよいし、モータの制御が行われるか否かに応じて適宜設定されてもよい。なお、コマンドデータベース16に格納されている情報は、図3に示す情報に限られない。また、本実施の形態においては、コマンドフラグの値を0または1の2値で示しているが、これに限られるものではなく、0〜1の連続値を用いて、動作内容等に応じて重み付けしてもよい。   In the present embodiment, one command flag is associated with the exercise command. On the other hand, a command flag of 0 is associated with a command other than the exercise command (for example, display of information using the display 15 and reproduction of sound using the speaker 14). The command flag may be set in advance or may be set as appropriate depending on whether or not the motor is controlled. Note that the information stored in the command database 16 is not limited to the information shown in FIG. In the present embodiment, the value of the command flag is represented by a binary value of 0 or 1. However, the value is not limited to this, and a continuous value of 0 to 1 is used according to the operation content or the like. You may weight.

入力装置17は、マウス等のポインティングデバイスや、キーボード等の数値入力デバイスや、マイク等の音声入力デバイスである。ユーザは、入力装置17を用いて、コマンド処理部13に対する命令や閾値等の設定を行う。   The input device 17 is a pointing device such as a mouse, a numerical input device such as a keyboard, or a voice input device such as a microphone. The user uses the input device 17 to set commands, threshold values, and the like for the command processing unit 13.

モータ制御部19は、CPU191と、メモリ192と、を備える。CPU191は、コマンド処理部13のCPU131の命令に応じて、モータ193〜197を制御する。モータ193〜197は、ロボット1の各部(例えば、アーム関節や、駆動輪等)に設けられている。   The motor control unit 19 includes a CPU 191 and a memory 192. The CPU 191 controls the motors 193 to 197 in accordance with instructions from the CPU 131 of the command processing unit 13. The motors 193 to 197 are provided in each part of the robot 1 (for example, arm joints, driving wheels, etc.).

モータ制御部19では、CPU191は、コマンド処理部13からのコマンドを一旦メモリ192に格納する。CPU191は、図示しない補助記憶部に格納されたモータ制御処理プログラムを読み出し、処理結果をメモリ192に格納する。メモリ192には、モータ制御に必要な各種のデータ及び計算結果が蓄積される。CPU191は、必要に応じて、メモリ192に蓄積された情報を参照する。   In the motor control unit 19, the CPU 191 temporarily stores the command from the command processing unit 13 in the memory 192. The CPU 191 reads a motor control processing program stored in an auxiliary storage unit (not shown) and stores the processing result in the memory 192. The memory 192 stores various data necessary for motor control and calculation results. The CPU 191 refers to information stored in the memory 192 as necessary.

続いて、本実施の形態にかかるロボット1の制御方法について図4を参照して説明する。図4は、ロボット1の制御方法を示すフローチャートである。まず、ユーザが、操作用端末100に対して音声によりコマンドを入力する。すると、当該コマンドの音声信号が、インターネット3を介して、操作用端末100からロボット1の無線LANアダプタ11へ送信される。   Next, a control method of the robot 1 according to the present embodiment will be described with reference to FIG. FIG. 4 is a flowchart showing a method for controlling the robot 1. First, the user inputs a command by voice to the operation terminal 100. Then, a voice signal of the command is transmitted from the operation terminal 100 to the wireless LAN adapter 11 of the robot 1 via the Internet 3.

無線LANアダプタ11は、受信した音声信号をコマンド処理部13に送信する。コマンド処理部13は、入力された音声信号のコマンドを認識し、解析する(ステップS11)。つまり、CPU131が、音声信号のコマンドをテキスト化して、メモリ132に格納する。なお、音声信号を解析して、テキスト列を取得する方法は公知の技術を用いることができるため、詳細な説明は省略する。   The wireless LAN adapter 11 transmits the received audio signal to the command processing unit 13. The command processing unit 13 recognizes and analyzes the command of the input voice signal (step S11). That is, the CPU 131 converts the voice signal command into text and stores it in the memory 132. Note that a known technique can be used as a method for analyzing a speech signal and obtaining a text string, and thus a detailed description thereof is omitted.

次に、コマンド処理部13は、認識したコマンドが運動コマンドであるか否かを判定する(ステップS12)。具体的には、CPU131は、図3に示したコマンドデータベース16を参照して、メモリ132に格納したコマンドのコマンドフラグが0であるか1であるかを判定する。   Next, the command processing unit 13 determines whether or not the recognized command is an exercise command (step S12). Specifically, the CPU 131 determines whether the command flag of the command stored in the memory 132 is 0 or 1 with reference to the command database 16 shown in FIG.

コマンド処理部13が認識したコマンドのコマンドフラグが0である場合、つまり、コマンド処理部13が認識したコマンドが運動コマンドでない場合(ステップS12:No)、コマンド処理部13は、当該コマンドを実行する(ステップS15)。具体的には、コマンド処理部13のCPU131が、スピーカ14やディスプレイ15等の出力デバイスに対して、コマンドに応じた命令を出力する。これにより、ロボット1は、運動コマンドでないコマンドを実行する。この場合、ロボット1の動作は、物理的な動作を伴わない。そのため、たとえロボット1が実行するコマンドが誤認識や誤入力の結果であっても、周囲の人や物に迷惑をかけることはない。   When the command flag of the command recognized by the command processing unit 13 is 0, that is, when the command recognized by the command processing unit 13 is not an exercise command (step S12: No), the command processing unit 13 executes the command. (Step S15). Specifically, the CPU 131 of the command processing unit 13 outputs a command corresponding to the command to an output device such as the speaker 14 or the display 15. Thereby, the robot 1 executes a command that is not an exercise command. In this case, the operation of the robot 1 is not accompanied by a physical operation. For this reason, even if the command executed by the robot 1 is the result of erroneous recognition or erroneous input, it does not bother nearby people or objects.

一方、コマンド処理部13が認識したコマンドのコマンドフラグが1である場合、つまり、コマンド処理部13が認識したコマンドが運動コマンドである場合(ステップS12:Yes)、コマンド処理部13は、当該コマンドを実行するか否かをユーザに確認する(ステップS13)。例えば、コマンド処理部13のCPU131は、図5に示すようなコマンド実行の確認画面を、ディスプレイ15に表示することにより、ユーザに対して確認を行う。図5、「移動 前進 最大速度」というコマンドを実行するか否かを確認している画面である。ここで表示されるコマンドは、コマンド処理部13が認識したコマンドである。つまり、ユーザが意図した(入力した)コマンドと一致しているとは限らない。なお、CPU131は、無線LANアダプタ11及びインターネット3を介して、操作用端末100の表示画面(図示省略)に確認画面を表示させてもよい。勿論、確認処理は画面表示だけに限られず、CPU131は、スピーカ14を用いて音声による確認を行ってもよい。   On the other hand, when the command flag of the command recognized by the command processing unit 13 is 1, that is, when the command recognized by the command processing unit 13 is an exercise command (step S12: Yes), the command processing unit 13 Is confirmed with the user (step S13). For example, the CPU 131 of the command processing unit 13 confirms the user by displaying a command execution confirmation screen as shown in FIG. 5 on the display 15. FIG. 5 is a screen for confirming whether or not to execute the command “Move forward maximum speed”. The command displayed here is a command recognized by the command processing unit 13. That is, it does not necessarily match the command intended (input) by the user. The CPU 131 may display a confirmation screen on the display screen (not shown) of the operation terminal 100 via the wireless LAN adapter 11 and the Internet 3. Of course, the confirmation process is not limited to the screen display, and the CPU 131 may perform confirmation by voice using the speaker 14.

ステップS13における確認に対して、ユーザは、ロボット1の入力装置17や、操作用端末100を用いて、コマンド処理部13が認識した運動コマンドを実行するか否かをロボット1に命令する(ステップS14)。具体的には、ユーザは、図5に示した確認画面の「はい」又は「いいえ」を選択することにより、ロボット1に対して命令を行う。   In response to the confirmation in step S13, the user instructs the robot 1 whether to execute the motion command recognized by the command processing unit 13 using the input device 17 of the robot 1 or the operation terminal 100 (step 1). S14). Specifically, the user gives an instruction to the robot 1 by selecting “Yes” or “No” on the confirmation screen shown in FIG.

ユーザがロボット1に対して運動コマンドを実行しないと命令した場合(ステップS14:No)、ロボット1は、何もコマンドを実行しない。つまり、ロボット1は、何も動作せず、再びコマンドの入力待ちの状態となる。   When the user instructs the robot 1 not to execute the motion command (step S14: No), the robot 1 executes no command. That is, the robot 1 does not operate anything and waits for command input again.

一方、ユーザがロボット1に対して運動コマンドを実行すると命令した場合(ステップS14:Yes)、ロボット1は、運動コマンドを実行する(ステップS15)。具体的には、コマンド処理部13のCPU131が、モータ制御部19に対して、運動コマンドを送信し、当該運動コマンドに応じたモータ制御を命令する。モータ制御部19は、受信した運動コマンドをメモリ192に格納する。CPU191は、メモリ192に格納された運動コマンドを参照し、ロボット1が備えるモータ193〜197のうち、当該運動コマンドの実行に必要なモータに対してトルク制御を行う。これにより、ロボット1は、運動コマンドに応じた動作を実行する。   On the other hand, when the user instructs the robot 1 to execute an exercise command (step S14: Yes), the robot 1 executes the exercise command (step S15). Specifically, the CPU 131 of the command processing unit 13 transmits an exercise command to the motor control unit 19 and instructs motor control according to the exercise command. The motor control unit 19 stores the received exercise command in the memory 192. The CPU 191 refers to the motion command stored in the memory 192, and performs torque control on a motor necessary for executing the motion command among the motors 193 to 197 included in the robot 1. Thereby, the robot 1 executes an operation according to the motion command.

以上のように、本実施の形態にかかるロボット1の構成によれば、ロボット1は、ユーザから入力されたコマンドを認識し、コマンドデータベースを参照して、認識したコマンドが運動コマンドであるか否かを判定する。コマンド処理部13が認識したコマンドが運動コマンドである場合、ロボット1は、当該運動コマンドを実行するか否かをユーザに確認する。そして、ユーザにより運動コマンドの実行が命令された場合に、はじめて運動コマンドを実行する。このため、ロボット1の誤認識や、ユーザの誤入力等により、ロボット1が誤った運動コマンドを認識した場合であっても、ユーザは、当該運動コマンドを実行するか否かを確認できる。そのため、ロボット1が、ユーザの意図しない運動コマンドを実行することを確実に防ぐことができる。その結果、ロボット1の安全性や信頼性を向上させることができる。   As described above, according to the configuration of the robot 1 according to the present embodiment, the robot 1 recognizes the command input from the user, refers to the command database, and determines whether or not the recognized command is an exercise command. Determine whether. When the command recognized by the command processing unit 13 is an exercise command, the robot 1 confirms with the user whether or not to execute the exercise command. When the exercise command is instructed by the user, the exercise command is executed for the first time. For this reason, even if the robot 1 recognizes an incorrect motion command due to erroneous recognition of the robot 1 or a user's erroneous input, the user can confirm whether or not to execute the motion command. Therefore, it is possible to reliably prevent the robot 1 from executing an exercise command not intended by the user. As a result, the safety and reliability of the robot 1 can be improved.

特に、ユーザが乗り込んで操縦するロボットではなく、遠隔操作により動作するロボットにおいては、ロボットの近傍にユーザがいないことが多い。そのため、ロボットがユーザの意図しない動作を実行してしまった場合、ユーザは当該動作を止めることができない。つまり、本発明にかかるロボット制御方法は、遠隔操作により動作するロボットに特に有効である。   In particular, in a robot that is operated by remote operation rather than a robot that the user gets on and controls, there are often no users in the vicinity of the robot. For this reason, when the robot has performed an operation unintended by the user, the user cannot stop the operation. That is, the robot control method according to the present invention is particularly effective for a robot that operates by remote control.

なお、ロボット1が認識したコマンドが、運動コマンドでない場合は、誤って実行したとしても周囲に与える影響は少ない。そのため、運動コマンド以外のコマンドは、コマンド認識後に確認無しで実行される。その結果、ユーザは、ロボット1を効率よく操作することができる。   Note that if the command recognized by the robot 1 is not an exercise command, even if it is erroneously executed, the influence on the surroundings is small. Therefore, commands other than exercise commands are executed without confirmation after command recognition. As a result, the user can operate the robot 1 efficiently.

さらに、上記の実施の形態においては、予め設定されたコマンドフラグに応じて、運動コマンドか否かを判定しているが、判定方法はこれに限られるものではない。例えば、モータの制御が行われる場合は、運動コマンドであると判定し、モータの制御が行われない場合は、運動コマンドでないと判定してもよい。加えて、モータ制御が行われる場合であっても、モータの回転数を低下させるコマンドを認識した場合には、確認処理を行わずに、当該コマンドを実行してもよい。モータの回転数を低下させるコマンドは、ロボット1の動作を停止に導くためのコマンドであると考えられる。これにより、例えば、緊急停止等のコマンドについては確認なしで実行される。そのため、非常時において迅速な動作が可能となる。   Furthermore, in the above embodiment, it is determined whether or not it is an exercise command according to a preset command flag, but the determination method is not limited to this. For example, when the motor is controlled, it may be determined that the command is an exercise command, and when the motor is not controlled, it may be determined that the command is not an exercise command. In addition, even when the motor control is performed, when a command for reducing the rotation speed of the motor is recognized, the command may be executed without performing the confirmation process. The command for reducing the rotation speed of the motor is considered to be a command for guiding the operation of the robot 1 to stop. Thereby, for example, an emergency stop command is executed without confirmation. Therefore, quick operation is possible in an emergency.

(変形例1)
本実施の形態の変形例1について説明する。上記の実施の形態においては、ロボット1へのコマンド入力手段として音声入力を用いたが、変形例1においては、コマンド入力手段として、押しボタンを用いる。なお、その他の構成については上記の実施の形態1と同様であるので、説明を適宜省略する。
(Modification 1)
A first modification of the present embodiment will be described. In the above embodiment, voice input is used as command input means to the robot 1, but in Modification 1, a push button is used as command input means. Since other configurations are the same as those in the first embodiment, description thereof will be omitted as appropriate.

図6に変形例1にかかるボタン型操作用端末200の構成例を示す。ボタン型操作用端末200は、表示画面201と、コマンドボタン202と、実行ボタン203と、を備える。なお、ロボット1とボタン型操作用端末200とは、無線LANを介して接続されている。   FIG. 6 shows a configuration example of the button-type operation terminal 200 according to the first modification. The button type operation terminal 200 includes a display screen 201, a command button 202, and an execution button 203. The robot 1 and the button type operation terminal 200 are connected via a wireless LAN.

コマンドボタン202(「0」〜「9」のボタン)には、ロボット1を操作するための各コマンドのそれぞれが割り当てられている。このとき、コマンドボタン202の数だけしかコマンドを命令できないわけではなく、コマンドボタン202の押す順序や、同時に押すコマンドボタン202の組み合わせ等により、コマンドボタン202の数よりも多くのコマンドを命令できる。   Each command for operating the robot 1 is assigned to the command button 202 (buttons “0” to “9”). At this time, commands can be commanded only by the number of command buttons 202, and more commands than the number of command buttons 202 can be commanded by the order of pressing command buttons 202, the combination of command buttons 202 pressed simultaneously, and the like.

続いて、変形例1にかかるロボット1の制御方法について説明する。なお、下記の説明においては、コマンドボタン202の「1」ボタンに「最高速度で後退する」というコマンドが割り当てられているとする。まず、ユーザが、コマンドボタン202の「1」ボタンを押下げする。これにより、ロボット1に対して、「最高速度で後退する」というコマンドが入力される。ロボット1は、入力された当該コマンドを認識する(図4のステップS11)。   Then, the control method of the robot 1 concerning the modification 1 is demonstrated. In the following description, it is assumed that the command “reverse at maximum speed” is assigned to the “1” button of the command button 202. First, the user depresses the “1” button of the command button 202. As a result, a command “retreat at maximum speed” is input to the robot 1. The robot 1 recognizes the input command (step S11 in FIG. 4).

コマンド処理部13は、コマンドデータベース16を参照して、認識したコマンド「後退」が運動コマンドであるか否かを判定する(ステップS12)。図3に示したように、「後退」というコマンドのコマンドフラグは1である。そのため、コマンド処理部13は、「後退」というコマンドが運動コマンドであると判定する(ステップS12:Yes)。   The command processing unit 13 refers to the command database 16 and determines whether or not the recognized command “backward” is an exercise command (step S12). As shown in FIG. 3, the command flag of the command “backward” is 1. Therefore, the command processing unit 13 determines that the command “backward” is an exercise command (step S12: Yes).

コマンド処理部13は、「後退」コマンドが運動コマンドであると判定すると、ボタン型操作用端末200の表示画面201に、「最高速度で後退する」という動作をロボット1に実行させるか否かの確認画面を表示する(ステップS13、図7参照)。   If the command processing unit 13 determines that the “reverse” command is an exercise command, the command processing unit 13 determines whether or not to cause the robot 1 to perform an operation of “reverse at the maximum speed” on the display screen 201 of the button type operation terminal 200 A confirmation screen is displayed (see step S13, FIG. 7).

そして、ユーザが、実行ボタン203を押下げすると(ステップS14:Yes)、ロボット1は、コマンド処理部13が認識したコマンドを実行する(ステップS15)。つまり、ロボット1は、最高速度で後退する動作を行う。   When the user presses the execution button 203 (step S14: Yes), the robot 1 executes the command recognized by the command processing unit 13 (step S15). That is, the robot 1 performs an operation of moving backward at the maximum speed.

(変形例2)
本実施の形態の変形例2について説明する。上記の実施の形態においては、ロボット1へのコマンド入力手段として音声入力や押しボタンを用いたが、変形例2においては、コマンド入力手段として、タッチパネルを用いる。なお、その他の構成については上記の実施の形態1と同様であるので、説明を適宜省略する。
(Modification 2)
A second modification of the present embodiment will be described. In the above embodiment, voice input and push buttons are used as command input means to the robot 1, but in the second modification, a touch panel is used as command input means. Since other configurations are the same as those in the first embodiment, description thereof will be omitted as appropriate.

図8に変形例2にかかるタッチパネル型操作用端末300の構成例を示す。タッチパネル型操作用端末300は、タッチパネル画面301を備える。図8に示した構成例においては、タッチパネル画面301に、コマンド選択領域302と、速度選択領域303と、コマンド命令領域304と、が表示されている。勿論、タッチパネル画面301の構成は、図8に示す構成に限られない。なお、ロボット1とタッチパネル型操作用端末300とは、無線LANを介して接続されている。   FIG. 8 shows a configuration example of a touch panel type operation terminal 300 according to the second modification. The touch panel type operation terminal 300 includes a touch panel screen 301. In the configuration example shown in FIG. 8, a command selection area 302, a speed selection area 303, and a command instruction area 304 are displayed on the touch panel screen 301. Of course, the configuration of the touch panel screen 301 is not limited to the configuration shown in FIG. The robot 1 and the touch panel type operation terminal 300 are connected via a wireless LAN.

ユーザが、コマンド選択領域302に触れると、ロボット1が実行可能な各種コマンドが表示され、実行させたいコマンドを選ぶことができる。また、ユーザが、速度選択領域303のスライドバーをスクロールさせることにより、移動速度を連続的に設定することができる。さらに、ユーザが、コマンド命令領域304に触れると、選択したコマンドがロボット1に対して入力することができる。   When the user touches the command selection area 302, various commands that can be executed by the robot 1 are displayed, and a command to be executed can be selected. In addition, the user can set the moving speed continuously by scrolling the slide bar in the speed selection area 303. Further, when the user touches the command instruction area 304, the selected command can be input to the robot 1.

続いて、変形例2にかかるロボット1の制御方法について説明する。まず、ユーザが、コマンド選択領域302及び速度選択領域303を操作して、例えば図8に示すように、「後退 最高速度」を選択し、コマンド命令領域304にタッチする。これにより、「後退 最高速度」というコマンドが無線LANを介してロボット1に入力される。ロボット1は、入力された当該コマンドを認識する(図4のステップS11)。   Then, the control method of the robot 1 concerning the modification 2 is demonstrated. First, the user operates the command selection area 302 and the speed selection area 303 to select “maximum backward speed” as shown in FIG. 8, for example, and touches the command instruction area 304. As a result, the command “reverse maximum speed” is input to the robot 1 via the wireless LAN. The robot 1 recognizes the input command (step S11 in FIG. 4).

コマンド処理部13は、コマンドデータベース16を参照して、認識したコマンド「後退」が運動コマンドであるか否かを判定する(ステップS12)。図3に示したように、「後退」というコマンドのコマンドフラグは1である。そのため、コマンド処理部13は、「後退」というコマンドが運動コマンドであると判定する(ステップS12:Yes)。   The command processing unit 13 refers to the command database 16 and determines whether or not the recognized command “backward” is an exercise command (step S12). As shown in FIG. 3, the command flag of the command “backward” is 1. Therefore, the command processing unit 13 determines that the command “backward” is an exercise command (step S12: Yes).

コマンド処理部13は、「後退」コマンドが運動コマンドであると判定すると、タッチパネル型操作用端末300のタッチパネル画面301に、「後退 最高速度」という動作をロボット1に実行させるか否かの確認画面を表示する(ステップS13、図9参照)。   When the command processing unit 13 determines that the “backward” command is an exercise command, the touch screen 301 of the touch panel type operation terminal 300 displays a confirmation screen as to whether or not the robot 1 is to execute an operation of “backward maximum speed”. Is displayed (see step S13, FIG. 9).

そして、ユーザが、コマンド実行領域305をタッチすると(ステップS14:Yes)、ロボット1は、認識したコマンドを実行する(ステップS15)。つまり、ロボット1は、最高速度で後退する動作を行う。   When the user touches the command execution area 305 (step S14: Yes), the robot 1 executes the recognized command (step S15). That is, the robot 1 performs an operation of moving backward at the maximum speed.

上述した変形例1、2において説明したように、コマンド処理部13における運動コマンドか否かの判定は、入力されたコマンドの認識処理後(コマンドのテキスト情報取得後)に、コマンドデータベースを参照して行われる。つまり、コマンドのテキスト情報さえ取得できれば、コマンドの入力手段は限定されない。言い換えると、ユーザに対してマルチモーダル・インターフェースを提供することができる。なお、入力手段としては、上記の音声、押しボタン、タッチパネルに加えて、ジェスチャー等も用いることができる。   As described in the first and second modifications, the command processing unit 13 determines whether or not the command is an exercise command by referring to the command database after the input command recognition process (after obtaining the command text information). Done. That is, the command input means is not limited as long as the text information of the command can be acquired. In other words, a multimodal interface can be provided to the user. As input means, gestures and the like can be used in addition to the voice, push buttons, and touch panel.

<実施の形態2>
本発明にかかる実施の形態2について説明する。本実施の形態にかかるロボット2の制御システムのブロック図を図10に示す。図10に示すロボット2は、図2に示したロボット1の構成に加えて、位置取得部21と、時刻取得部22と、を備える。ロボット2は、入力されたコマンド内容に加えて、ロボット2の場所(周囲環境)や、コマンドが入力された時刻に基づいて、コマンドを実行するか否かをユーザに対して確認する。なお、その他の構成についてはロボット1と同様であるので、説明を適宜省略する。
<Embodiment 2>
A second embodiment according to the present invention will be described. A block diagram of the control system of the robot 2 according to the present embodiment is shown in FIG. The robot 2 illustrated in FIG. 10 includes a position acquisition unit 21 and a time acquisition unit 22 in addition to the configuration of the robot 1 illustrated in FIG. The robot 2 confirms with the user whether or not to execute the command based on the location of the robot 2 (ambient environment) and the time when the command is input, in addition to the input command content. Since the other configuration is the same as that of the robot 1, description thereof will be omitted as appropriate.

位置取得部21は、例えばGPS装置等であり、ロボット2の自己位置情報を取得する。自己位置情報の取得は、GPS装置に限られず、公知の技術を用いることができる。また、位置取得部21は、予めメモリに格納された地図情報や、カメラ12により撮像された周囲環境の撮像画像に基づいて、自己位置を推定してもよい。時刻取得部22は、例えば時計であり、現在の時刻を取得する。   The position acquisition unit 21 is a GPS device, for example, and acquires the self-position information of the robot 2. Acquisition of the self-location information is not limited to the GPS device, and a known technique can be used. Further, the position acquisition unit 21 may estimate the self position based on map information stored in advance in the memory or a captured image of the surrounding environment captured by the camera 12. The time acquisition unit 22 is a clock, for example, and acquires the current time.

続いて、本実施の形態にかかるロボット2の制御方法について図11を参照して説明する。図11は、ロボット2の制御方法を示すフローチャートである。まず、ユーザが、操作用端末100に対して音声によりコマンドを入力する。すると、当該コマンドの音声信号が、インターネット3を介して、操作用端末100からロボット2の無線LANアダプタ11へ送信される。   Next, a method for controlling the robot 2 according to the present embodiment will be described with reference to FIG. FIG. 11 is a flowchart showing a method for controlling the robot 2. First, the user inputs a command by voice to the operation terminal 100. Then, the voice signal of the command is transmitted from the operation terminal 100 to the wireless LAN adapter 11 of the robot 2 via the Internet 3.

実施の形態1の図2において説明したステップS11、S12と同様に、無線LANアダプタ11は、受信した音声信号をコマンド処理部13に送信する。コマンド処理部13は、音声信号のコマンドを認識し、解析する(ステップS21)。次に、コマンド処理部13は、認識したコマンドが運動コマンドであるか否かを判定する(ステップS22)。具体的には、CPU131は、図3に示したコマンドデータベース16を参照して、メモリ132に格納したコマンドのコマンドフラグが0であるか1であるかを判定する。   The wireless LAN adapter 11 transmits the received voice signal to the command processing unit 13 as in steps S11 and S12 described in FIG. 2 of the first embodiment. The command processing unit 13 recognizes and analyzes the voice signal command (step S21). Next, the command processing unit 13 determines whether or not the recognized command is an exercise command (step S22). Specifically, the CPU 131 determines whether the command flag of the command stored in the memory 132 is 0 or 1 with reference to the command database 16 shown in FIG.

コマンド処理部13が認識したコマンドのコマンドフラグが0である場合、つまり、コマンド処理部13が認識したコマンドが運動コマンドでない場合(ステップS22:No)、コマンド処理部13は、当該コマンドを実行する(ステップS29)。これにより、ロボット2は、運動コマンド以外の動作を実行する。   When the command flag of the command recognized by the command processing unit 13 is 0, that is, when the command recognized by the command processing unit 13 is not an exercise command (step S22: No), the command processing unit 13 executes the command. (Step S29). Thereby, the robot 2 executes an operation other than the motion command.

一方、コマンド処理部13が認識したコマンドのコマンドフラグが1である場合、つまり、コマンド処理部13が認識したコマンドが運動コマンドである場合(ステップS22:Yes)、位置取得部21は、ロボット2の自己位置情報を取得し、自己位置を認識する(ステップS23)。CPU131は、当該自己位置に基づいて、周囲に障害物や階段、人等の存在を認識する。つまり、CPU131は、ロボット2の周囲の環境を認識する。勿論、周囲環境の認識は、自己位置取得に基づくものに限られない。例えば、ロボット2が備えるカメラ12を用いて周囲の環境を撮像し、当該撮像画像を画像処理することにより、周囲の環境を認識してもよい。   On the other hand, when the command flag of the command recognized by the command processing unit 13 is 1, that is, when the command recognized by the command processing unit 13 is an exercise command (step S22: Yes), the position acquisition unit 21 determines that the robot 2 Self-position information is acquired and the self-position is recognized (step S23). The CPU 131 recognizes the presence of obstacles, stairs, people, and the like around it based on the self-position. That is, the CPU 131 recognizes the environment around the robot 2. Of course, the recognition of the surrounding environment is not limited to that based on self-location acquisition. For example, the surrounding environment may be recognized by imaging the surrounding environment using the camera 12 included in the robot 2 and performing image processing on the captured image.

CPU131は、周囲の環境に基づいて、環境コマンドフラグ値を算出する。具体的には、ロボット2の周囲に存在する障害物等の位置に応じた値(例えば、0〜1の連続値)を環境コマンドフラグ値として算出する。より詳細には、障害物等の位置が、ロボット2に近い程大きい環境コマンドフラグ値を算出し、ロボット2から遠い程小さい環境コマンドフラグ値を算出する。言い換えると、CPU131は、ロボット2と周囲の障害物等との距離に応じて、環境コマンドフラグ値を算出する。   The CPU 131 calculates an environment command flag value based on the surrounding environment. Specifically, a value (for example, a continuous value of 0 to 1) corresponding to the position of an obstacle or the like existing around the robot 2 is calculated as the environmental command flag value. More specifically, an environmental command flag value that is larger as the position of an obstacle or the like is closer to the robot 2 is calculated, and an environmental command flag value that is smaller as it is farther from the robot 2 is calculated. In other words, the CPU 131 calculates the environmental command flag value according to the distance between the robot 2 and surrounding obstacles.

例えば、ロボット2のアームを動かした場合に、当該アームが届く範囲に障害物等が存在する場合、CPU131は、環境コマンドフラグ値を1.0と算出する。また、ロボット2の移動可能な範囲内に人が存在する場合には、CPU131は、環境コマンドフラグ値を0.8と算出する。さらに、ロボット2が周囲に障害物等が全く存在しない広場にいる場合には、CPU131は、環境コマンドフラグ値を0.1と算出する。勿論、上記の環境コマンドフラグ値は一例である。また、CPU131は、ロボット2と障害物等との間の距離と、環境コマンドフラグ値との関係を示す関数を用いて環境コマンドフラグ値を算出してもよい。   For example, when the arm of the robot 2 is moved and there is an obstacle or the like within the reach of the arm, the CPU 131 calculates the environmental command flag value as 1.0. If there is a person within the movable range of the robot 2, the CPU 131 calculates the environmental command flag value as 0.8. Further, when the robot 2 is in a plaza where there are no obstacles around, the CPU 131 calculates the environmental command flag value as 0.1. Of course, the above environment command flag value is an example. Further, the CPU 131 may calculate the environment command flag value using a function indicating the relationship between the distance between the robot 2 and the obstacle and the environment command flag value.

次に、時刻取得部22は、現在時刻を取得する(ステップS24)。CPU131は、現在時刻に基づいて、時刻コマンドフラグ値を算出する。具体的には、CPU131は、現在時刻に応じた値(例えば0〜1の連続値)を時刻コマンドフラグ値として算出する。より詳細には、現在時刻が、夜遅い時間である程大きい時刻コマンドフラグ値を算出し、昼間に近い時間である程小さい時刻コマンドフラグ値を算出する。つまり、モータの駆動音等の騒音が発生してほしくない時間帯では時刻コマンドフラグ値を大きい値とし、それ以外の時間帯では、時刻コマンドフラグ値を小さい値とする。このように、コマンド処理部13は、オンザフライで環境コマンドフラグ値及び時刻コマンドフラグ値を算出する。   Next, the time acquisition unit 22 acquires the current time (step S24). The CPU 131 calculates a time command flag value based on the current time. Specifically, the CPU 131 calculates a value corresponding to the current time (for example, a continuous value of 0 to 1) as a time command flag value. More specifically, a larger time command flag value is calculated as the current time is late at night, and a smaller time command flag value is calculated as the time is closer to daytime. In other words, the time command flag value is set to a large value in a time zone where noise such as motor driving noise is not desired, and the time command flag value is set to a small value in other time zones. In this way, the command processing unit 13 calculates the environmental command flag value and the time command flag value on the fly.

なお、環境コマンドフラグ値及び時刻コマンドフラグ値の算出は、ロボット2内のCPU131が行ってもよいし、ロボット2の外部に設けられた計算リソースを用いて行ってもよい。   The calculation of the environment command flag value and the time command flag value may be performed by the CPU 131 in the robot 2 or may be performed using calculation resources provided outside the robot 2.

次に、CPU131は、ステップS23、S24において算出された環境コマンドフラグ値及び時刻コマンドフラグ値を用いて、総合コマンドフラグ値を算出する。当該総合コマンドフラグ値は、環境コマンドフラグ値と、時刻コマンドフラグ値と、を加算することにより算出される。勿論、総合コマンドフラグ値は、環境コマンドフラグ値及び時刻コマンドフラグ値に基づく値であればよく、環境コマンドフラグ値及び時刻コマンドフラグ値の合計値に限られない。例えば、総合コマンドフラグ値は、環境コマンドフラグ値と時刻コマンドフラグ値とを乗算した値でもよい。   Next, the CPU 131 calculates a total command flag value using the environment command flag value and the time command flag value calculated in steps S23 and S24. The total command flag value is calculated by adding the environment command flag value and the time command flag value. Of course, the total command flag value may be a value based on the environment command flag value and the time command flag value, and is not limited to the total value of the environment command flag value and the time command flag value. For example, the total command flag value may be a value obtained by multiplying the environment command flag value and the time command flag value.

そして、CPU131は、総合コマンドフラグ値が閾値よりも大きい値であるか否かを判定する(ステップS26)。なお、閾値は、ロボット2の活動環境や活動時間に応じて、ユーザにより適宜設定される。このとき、総合コマンドフラグ値が閾値よりも大きいとは、ユーザの意図しない運動コマンドの実行を許可できない環境及び時間であることを意味する。一方、総合コマンドフラグ値が閾値以下であるとは、ユーザの意図しない運動コマンドの実行を許容できる環境及び時間であることを意味する。   Then, the CPU 131 determines whether or not the total command flag value is larger than a threshold value (step S26). The threshold is appropriately set by the user according to the activity environment and activity time of the robot 2. At this time, that the total command flag value is larger than the threshold means that the environment and time cannot permit the execution of the exercise command not intended by the user. On the other hand, that the total command flag value is equal to or smaller than the threshold means that the environment and time allow the execution of the exercise command not intended by the user.

総合コマンドフラグ値が閾値以下である場合(ステップS26:No)、コマンド処理部13は、当該コマンドを実行する(ステップS29)。具体的には、コマンド処理部13のCPU131は、ユーザに確認することなく、モータ制御部19に対して、運動コマンドを送信し、当該運動コマンドに応じたモータ制御を命令する。モータ制御部19は、受信した運動コマンドをメモリ192に格納する。CPU191は、メモリ192に格納された運動コマンドを参照し、ロボット2が備えるモータ193〜197のうち、当該運動コマンドの実行に必要なモータに対してトルク制御を行う。これにより、ロボット2は、運動コマンドに応じた動作を実行する。   When the total command flag value is equal to or less than the threshold value (step S26: No), the command processing unit 13 executes the command (step S29). Specifically, the CPU 131 of the command processing unit 13 transmits an exercise command to the motor control unit 19 without confirming with the user, and instructs the motor control according to the exercise command. The motor control unit 19 stores the received exercise command in the memory 192. The CPU 191 refers to the motion command stored in the memory 192 and performs torque control on a motor required for executing the motion command among the motors 193 to 197 provided in the robot 2. Thereby, the robot 2 executes an operation according to the motion command.

一方、総合コマンドフラグ値が閾値よりも大きい場合(ステップS26:Yes)、コマンド処理部13は、ユーザに対して認識した運動コマンドを実行するか否かの確認を行う(ステップS27)。例えば、コマンド処理部13のCPU131は、図5に示すようなコマンド実行の確認画面を、ディスプレイ15や操作用端末100の表示画面に表示することにより、ユーザに対して確認を行う。   On the other hand, when the total command flag value is larger than the threshold (step S26: Yes), the command processing unit 13 confirms whether or not to execute the recognized exercise command to the user (step S27). For example, the CPU 131 of the command processing unit 13 confirms the user by displaying a command execution confirmation screen as shown in FIG. 5 on the display screen of the display 15 or the operation terminal 100.

ユーザがロボット2に対して運動コマンドを実行しないと命令した場合(ステップS28:No)、ロボット2は、何もコマンドを実行しない。つまり、ロボット2は、何も動作せず、再びコマンドの入力待ちの状態となる。   When the user instructs the robot 2 not to execute the motion command (step S28: No), the robot 2 executes no command. That is, the robot 2 does not operate anything and waits for command input again.

一方、ユーザがロボット2に対して運動コマンドを実行すると命令した場合(ステップS28:Yes)、ロボット2は、運動コマンドを実行する(ステップS29)。勿論、図11に示すフローチャートの処理の順番は、図11に示す順番に限られない。例えば、コマンド処理部13が認識したコマンドが、運動コマンドであるか否かを判定する前に、総合コマンドフラグ値を算出してもよい。   On the other hand, when the user instructs the robot 2 to execute an exercise command (step S28: Yes), the robot 2 executes the exercise command (step S29). Of course, the processing order of the flowchart shown in FIG. 11 is not limited to the order shown in FIG. For example, the total command flag value may be calculated before determining whether or not the command recognized by the command processing unit 13 is an exercise command.

以上のように、本実施の形態にかかるロボット2の構成によれば、ユーザから入力されたコマンドが運動コマンドであるか否かに加えて、ロボット2の周囲の環境や現在時刻に基づいて、運動コマンドを実行するか否かをユーザに確認する。そのため、ロボット2の周囲の環境や現在時刻がロボット2の誤動作等を許容できる状況である場合、ユーザへの確認は行われない。つまり、所定の状況であれば、運動コマンドが入力された場合であっても、ユーザへの確認が行われない。その結果、ユーザが全ての運動コマンドについて確認処理を行う必要がなくなるため、利便性が向上する。勿論、周囲の環境や現在時刻に応じて確認処理も行われるため、ユーザの意図しない動作を防ぐこともできる。   As described above, according to the configuration of the robot 2 according to the present embodiment, in addition to whether the command input from the user is an exercise command, based on the environment around the robot 2 and the current time, Confirm with the user whether or not to execute the exercise command. For this reason, when the environment around the robot 2 or the current time is a situation where the malfunction of the robot 2 can be tolerated, confirmation to the user is not performed. That is, in a predetermined situation, even if an exercise command is input, confirmation to the user is not performed. As a result, it is not necessary for the user to perform confirmation processing for all exercise commands, and convenience is improved. Of course, since the confirmation process is also performed according to the surrounding environment and the current time, an operation unintended by the user can be prevented.

なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更及び組み合わせをすることが可能である。例えば、ロボット1、2の構成は図1に示すものに限られず、運動コマンドを実行可能なロボットであればよい。   The present invention is not limited to the above-described embodiment, and can be appropriately changed and combined without departing from the spirit of the present invention. For example, the configuration of the robots 1 and 2 is not limited to that shown in FIG.

1、2 ロボット
3 インターネット
11 無線LANアダプタ
12 カメラ
13 コマンド処理部
14 スピーカ
15 ディスプレイ
16 コマンドデータベース
17 入力装置
18 補助記憶部
19 モータ制御部
21 位置取得部
22 時刻取得部
91 ロボット本体
92 アーム
100 操作用端末
131、191 CPU
132、192 メモリ
193〜197 モータ
200 ボタン型操作端末
300 タッチパネル型操作端末
1, 2 Robot 3 Internet 11 Wireless LAN adapter 12 Camera 13 Command processing unit 14 Speaker 15 Display 16 Command database 17 Input device 18 Auxiliary storage unit 19 Motor control unit 21 Position acquisition unit 22 Time acquisition unit 91 Robot main body 92 Arm 100 For operation Terminal 131, 191 CPU
132, 192 Memory 193-197 Motor 200 Button type operation terminal 300 Touch panel type operation terminal

Claims (12)

ユーザから入力されたコマンドに基づいて動作するロボットの制御方法であって、
前記ユーザから入力された前記コマンドを認識するステップと、
認識した前記コマンドが物理的な動作を伴う運動コマンドであるか否かを判定するステップと、
前記ロボットの周囲の環境を認識するステップと、
認識した前記ロボットの周囲環境及び判定結果に基づいて、認識した前記コマンドを実行するか否かを前記ユーザに確認するステップと、
を備えるロボットの制御方法。
A method for controlling a robot that operates based on a command input by a user,
Recognizing the command input by the user;
Determining whether the recognized command is a motion command with physical motion;
Recognizing the environment around the robot;
Confirming to the user whether to execute the recognized command based on the recognized surrounding environment of the robot and the determination result;
A method for controlling a robot comprising:
前記運動コマンドが予め格納されたコマンドデータベースを参照して、認識した前記コマンドが前記運動コマンドであるか否かを判定する請求項1に記載のロボットの制御方法。   The robot control method according to claim 1, wherein it is determined whether or not the recognized command is the exercise command by referring to a command database in which the exercise command is stored in advance. 前記ロボットが有するモータの制御が行われるか否かに応じて、認識した前記コマンドが前記運動コマンドであるか否かを判定する請求項1又は2に記載のロボットの制御方法。   3. The robot control method according to claim 1, wherein whether or not the recognized command is the motion command is determined according to whether or not the motor of the robot is controlled. 4. 認識した前記コマンドに応じて前記モータの回転数を低下させる制御が行われる場合、認識した前記コマンドを実行するか否かの確認を行わず、認識した前記コマンドを実行する請求項3に記載のロボットの制御方法。   The control unit according to claim 3, wherein when the control for reducing the number of rotations of the motor is performed according to the recognized command, the recognized command is executed without confirming whether or not the recognized command is executed. Robot control method. 前記ユーザからの前記コマンドの入力は、前記ロボットとは物理的に離れた端末を用いて行われる請求項1〜4のいずれか一項に記載のロボットの制御方法。   The robot control method according to claim 1, wherein the input of the command from the user is performed using a terminal physically separated from the robot. 認識した前記コマンドを実行するか否かの確認は、前記端末に設けられた表示部に確認画面を表示することによって行われる請求項5に記載のロボットの制御方法。   6. The robot control method according to claim 5, wherein the confirmation as to whether or not to execute the recognized command is performed by displaying a confirmation screen on a display unit provided in the terminal. 現在時刻を取得するステップをさらに備え、
取得した前記現在時刻、認識した前記ロボットの周囲環境及び前記判定結果に基づいて、認識した前記コマンドを実行するか否かを前記ユーザに確認する請求項1〜6のいずれか一項に記載のロボットの制御方法。
The method further includes obtaining a current time,
7. The user according to claim 1, wherein the user is confirmed whether to execute the recognized command based on the acquired current time , the recognized environment around the robot, and the determination result. Robot control method.
ユーザから入力されたコマンドに基づいて動作するロボットの制御方法であって、
前記ユーザから入力された前記コマンドを認識するステップと、
認識した前記コマンドが物理的な動作を伴う運動コマンドであるか否かを判定するステップと、
現在時刻を取得するステップと、
取得した前記現在時刻及び判定結果に基づいて、認識した前記コマンドを実行するか否かを前記ユーザに確認するステップと、
を備えるロボットの制御方法。
A method for controlling a robot that operates based on a command input by a user,
Recognizing the command input by the user;
Determining whether the recognized command is a motion command with physical motion;
Obtaining the current time;
Confirming to the user whether or not to execute the recognized command based on the acquired current time and determination result;
A method for controlling a robot comprising:
ユーザから入力されたコマンドに基づいて動作するロボットの制御装置であって、
前記ユーザから入力された前記コマンドを認識するコマンド認識手段と、
前記コマンド認識手段により認識された前記コマンドが物理的な動作を伴う運動コマンドであるか否かを判定する判定手段と、
前記ロボットの周囲の環境を認識する周辺環境認識手段と、
前記周辺環境認識手段が認識した前記ロボットの周囲環境及び前記判定手段の判定結果に基づいて、認識した前記コマンドを実行するか否かを前記ユーザに確認する確認手段と、
を備えるロボットの制御装置。
A robot control device that operates based on a command input by a user,
Command recognition means for recognizing the command input by the user;
Determining means for determining whether or not the command recognized by the command recognizing means is an exercise command accompanied by a physical action;
A surrounding environment recognition means for recognizing the surrounding environment of the robot;
Confirmation means for confirming to the user whether or not to execute the recognized command based on the surrounding environment of the robot recognized by the surrounding environment recognition means and the determination result of the determination means;
A robot control apparatus comprising:
ユーザから入力されたコマンドに基づいて動作するロボットの制御装置であって、
前記ユーザから入力された前記コマンドを認識するコマンド認識手段と、
前記コマンド認識手段により認識された前記コマンドが物理的な動作を伴う運動コマンドであるか否かを判定する判定手段と、
現在時刻を取得する時刻取得手段と
前記時刻取得手段が取得した前記現在時刻及び前記判定手段の判定結果に基づいて、認識した前記コマンドを実行するか否かを前記ユーザに確認する確認手段と、
を備えるロボットの制御装置。
A robot control device that operates based on a command input by a user,
Command recognition means for recognizing the command input by the user;
Determining means for determining whether or not the command recognized by the command recognizing means is an exercise command accompanied by a physical action;
Time acquisition means for acquiring the current time;
Confirmation means for confirming to the user whether or not to execute the recognized command based on the current time acquired by the time acquisition means and the determination result of the determination means;
A robot control apparatus comprising:
モータを備え、当該モータを駆動させることにより、物理的な動作を伴う運動コマンドを実行可能なロボットであって、
ユーザから入力されたコマンドを認識するコマンド認識手段と、
前記コマンド認識手段により認識された前記コマンドが前記運動コマンドであるか否かを判定する判定手段と、
前記ロボットの周囲の環境を認識する周辺環境認識手段と、
前記周辺環境認識手段が認識した前記ロボットの周囲環境及び前記判定手段の判定結果に基づいて、認識した前記コマンドを実行するか否かを前記ユーザに確認する確認手段と、
を備えるロボット。
A robot having a motor and capable of executing a motion command accompanied by a physical motion by driving the motor,
Command recognition means for recognizing a command input by a user;
Determination means for determining whether or not the command recognized by the command recognition means is the exercise command;
A surrounding environment recognition means for recognizing the surrounding environment of the robot;
Confirmation means for confirming to the user whether or not to execute the recognized command based on the surrounding environment of the robot recognized by the surrounding environment recognition means and the determination result of the determination means;
Robot equipped with.
モータを備え、当該モータを駆動させることにより、物理的な動作を伴う運動コマンドを実行可能なロボットであって、
ユーザから入力されたコマンドを認識するコマンド認識手段と、
前記コマンド認識手段により認識された前記コマンドが前記運動コマンドであるか否かを判定する判定手段と、
現在時刻を取得する時刻取得手段と
前記時刻取得手段が取得した前記現在時刻及び前記判定手段の判定結果に基づいて、認識した前記コマンドを実行するか否かを前記ユーザに確認する確認手段と、
を備えるロボット。
A robot having a motor and capable of executing a motion command accompanied by a physical motion by driving the motor,
Command recognition means for recognizing a command input by a user;
Determination means for determining whether or not the command recognized by the command recognition means is the exercise command;
Time acquisition means for acquiring the current time;
Confirmation means for confirming to the user whether or not to execute the recognized command based on the current time acquired by the time acquisition means and the determination result of the determination means;
Robot equipped with.
JP2011288958A 2011-12-28 2011-12-28 Robot control method, robot control device, and robot Active JP5776544B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011288958A JP5776544B2 (en) 2011-12-28 2011-12-28 Robot control method, robot control device, and robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011288958A JP5776544B2 (en) 2011-12-28 2011-12-28 Robot control method, robot control device, and robot

Publications (2)

Publication Number Publication Date
JP2013136131A JP2013136131A (en) 2013-07-11
JP5776544B2 true JP5776544B2 (en) 2015-09-09

Family

ID=48912326

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011288958A Active JP5776544B2 (en) 2011-12-28 2011-12-28 Robot control method, robot control device, and robot

Country Status (1)

Country Link
JP (1) JP5776544B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6601201B2 (en) * 2015-03-19 2019-11-06 株式会社デンソーウェーブ Robot operation device and robot operation program
JP6642054B2 (en) * 2015-03-19 2020-02-05 株式会社デンソーウェーブ Robot operation device and robot operation program
JP6422930B2 (en) * 2016-12-15 2018-11-14 三精テクノロジーズ株式会社 Voice operation system
CN110945778B (en) * 2017-08-28 2023-08-15 株式会社日立产机系统 Motor driving system
JP7063844B2 (en) * 2019-04-26 2022-05-09 ファナック株式会社 Robot teaching device
JP6993382B2 (en) * 2019-04-26 2022-02-04 ファナック株式会社 Robot teaching device
JP7163267B2 (en) * 2019-11-20 2022-10-31 本田技研工業株式会社 vehicle control system

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6293706A (en) * 1985-10-21 1987-04-30 Amada Co Ltd Robot control method
JPH06262560A (en) * 1993-03-15 1994-09-20 Toyoda Mach Works Ltd Robot controller
JPH09103979A (en) * 1995-10-06 1997-04-22 Hitachi Zosen Corp Method and device for remote control
JP2000202790A (en) * 1999-01-14 2000-07-25 Sharp Corp Robot device
JP2002036152A (en) * 2000-07-26 2002-02-05 Matsushita Electric Works Ltd Autonomous moving robot
JP2003080482A (en) * 2001-09-07 2003-03-18 Yaskawa Electric Corp Robot teaching device
US20060100880A1 (en) * 2002-09-20 2006-05-11 Shinichi Yamamoto Interactive device
JP2004268151A (en) * 2003-03-05 2004-09-30 Yaskawa Electric Corp Robot control device and control method
JP4453596B2 (en) * 2005-04-06 2010-04-21 株式会社安川電機 Robot control method and robot apparatus

Also Published As

Publication number Publication date
JP2013136131A (en) 2013-07-11

Similar Documents

Publication Publication Date Title
JP5776544B2 (en) Robot control method, robot control device, and robot
US11409497B2 (en) Hands-free navigation of touch-based operating systems
EP3532362B1 (en) Guidance of autonomous vehicles in destination vicinities using intent signals
EP3178617B1 (en) Hybrid reality based i-bot navigation and control
JP4266211B2 (en) Robot device, method of moving robot device, and program
CN109643166B (en) Method and system for gesture-based control of autonomous vehicles
JP7013689B2 (en) Remote-controlled mobile robots and robot control systems
CN106595648B (en) Navigation method and terminal
US11947752B2 (en) Customizing user interfaces of binary applications
KR20150076627A (en) System and method for learning driving information in vehicle
JP2007260822A (en) Guide robot
CN105739679A (en) Steering wheel control system
CN112230649B (en) Machine learning method and mobile robot
JP4962940B2 (en) Route guidance system
CN114800535B (en) Robot control method, mechanical arm control method, robot and control terminal
KR102301763B1 (en) System and method for controlling mobile robot
KR20170002048A (en) Apparatus and Method for controlling object moving
JP6798608B2 (en) Navigation system and navigation program
KR20200085970A (en) Vehcle and control method thereof
KR102593866B1 (en) METHOD AND DEVICE FOR Task-oriented Sounding Guide with Object Detection to Guide Visually Impaired People During Smart Device Usage
CN112975950B (en) Remote operation system and remote operation method
CN117008723A (en) Autonomous mobile robot with augmented reality display and interaction technology energized
CN117762315A (en) Navigation route passing point adding method and device, electronic equipment and storage medium
CN117666793A (en) Dominant hand selection method and device, electronic equipment and storage medium
WO2019241075A1 (en) Customizing user interfaces of binary applications

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141006

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141014

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150609

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150622

R151 Written notification of patent or utility model registration

Ref document number: 5776544

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151