JP2006289514A - Robot control system and its control method - Google Patents

Robot control system and its control method Download PDF

Info

Publication number
JP2006289514A
JP2006289514A JP2005109589A JP2005109589A JP2006289514A JP 2006289514 A JP2006289514 A JP 2006289514A JP 2005109589 A JP2005109589 A JP 2005109589A JP 2005109589 A JP2005109589 A JP 2005109589A JP 2006289514 A JP2006289514 A JP 2006289514A
Authority
JP
Japan
Prior art keywords
command
robot
voice
unit
vocabulary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005109589A
Other languages
Japanese (ja)
Other versions
JP4453596B2 (en
Inventor
Hiroyuki Handa
博幸 半田
Masaru Kono
大 河野
Kenji Matsukuma
研司 松熊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yaskawa Electric Corp
Original Assignee
Yaskawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yaskawa Electric Corp filed Critical Yaskawa Electric Corp
Priority to JP2005109589A priority Critical patent/JP4453596B2/en
Publication of JP2006289514A publication Critical patent/JP2006289514A/en
Application granted granted Critical
Publication of JP4453596B2 publication Critical patent/JP4453596B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a robot control system and its control method which prevents erroneous operation of a robot due to erroneous recognition of a voice and improves safety. <P>SOLUTION: A voice interface 100 is equipped with a voice input part 101, a voice recognition part 102, a vocabulary-command storage part 103 storing the information associating the vocabulary of the recognition object with the command of the robot, a command determination part 104 determining the command of the robot from the recognized vocabulary and the information stored in the vocabulary-command storage part 103, and a first communication part 105 transmitting the command to a robot control device 110. The robot control device 110 is equipped with a second communication part 111 receiving the command, a command control part 112, a permission command storage part 113 storing an executable command, and a robot control part 114 controlling the operation of a robot mechanism part 120 according to the command. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、音声を利用してロボットを操作するシステムに関し、特に音声認識に対する安全性と作業効率を両立させるものである。   The present invention relates to a system for operating a robot by using voice, and particularly, to achieve both safety for voice recognition and work efficiency.

従来の音声によって制御されるロボットについて、図を用いて説明する。図11は、従来のロボット制御装置の構成を示した図である。図11において、410は送信機、420はクレーン制御部を示している。送信機410はマイク411および送信部412を含んで構成されており、マイク411は送信部412に接続され、送信部412には送信アンテナ412aが取り付けられている。クレーン制御部420は受信部421、音声認識部422、信号処理部423および油圧変換部424を含んで構成されている。受信部421は音声認識部422に接続されており、音声認識部422は信号処理部423に接続され、信号処理部423は油圧変換部424に接続されて、油圧変換部424は図示しないクレーン駆動部に接続されている。受信部421には受信アンテナ421aが取り付けられており、信号処理部423には現在動作に対する禁止動作が記憶された記憶手段423aが内設されている。
図12は、従来のロボット制御装置の信号処理部423における処理を示したフローチャートである。信号処理部423では、図12において、ステップ51で音声指示入力があるかどうか判断され、音声指示入力がなければ音声指示入力が送信されてくるまで待機する。音声指示入力があればステップ52に進み、図11の記憶手段423aに記憶されている情報が読み出され、禁止動作であるかどうか判断される。ステップ52での判断の結果、前記音声指示入力が禁止動作でなければ、ステップ53に移って音声指示入力に従った動作をするように図11の油圧変換部424に制御信号を送り、ステップ51に戻る。
一方、音声指示入力が禁止動作であれば、ステップ54に進んでクレーンの動作を一時停止させるように油圧変換部424に制御信号を送り、ステップ51に戻る。信号処理部423から制御信号を受信した油圧変換部424は、制御信号に従って図示しないクレーン駆動部を駆動しクレーンを動作させる(例えば、特許文献1参照)。
このように従来のロボットは、予め記憶した現在の動作に対する禁止動作が音声指示された場合にクレーンなどのロボットを一旦停止させ、安全性を確保するものである。
A conventional robot controlled by voice will be described with reference to the drawings. FIG. 11 is a diagram showing a configuration of a conventional robot control apparatus. In FIG. 11, reference numeral 410 denotes a transmitter, and 420 denotes a crane control unit. The transmitter 410 includes a microphone 411 and a transmission unit 412, the microphone 411 is connected to the transmission unit 412, and a transmission antenna 412 a is attached to the transmission unit 412. The crane control unit 420 includes a receiving unit 421, a voice recognition unit 422, a signal processing unit 423, and a hydraulic pressure conversion unit 424. The receiving unit 421 is connected to the voice recognition unit 422, the voice recognition unit 422 is connected to the signal processing unit 423, the signal processing unit 423 is connected to the hydraulic pressure conversion unit 424, and the hydraulic pressure conversion unit 424 is a crane drive (not shown). Connected to the department. A reception antenna 421a is attached to the reception unit 421, and a storage unit 423a in which a prohibition operation with respect to the current operation is stored is provided in the signal processing unit 423.
FIG. 12 is a flowchart showing processing in the signal processing unit 423 of the conventional robot control apparatus. In FIG. 12, the signal processing unit 423 determines whether or not there is a voice instruction input in step 51. If there is no voice instruction input, the signal processing unit 423 waits until a voice instruction input is transmitted. If there is a voice instruction input, the process proceeds to step 52, where the information stored in the storage means 423a of FIG. 11 is read out, and it is determined whether or not the operation is prohibited. If the result of determination in step 52 is that the voice instruction input is not a prohibited operation, the process proceeds to step 53 to send a control signal to the hydraulic pressure converter 424 in FIG. Return to.
On the other hand, if the voice instruction input is a prohibited operation, the process proceeds to step 54 to send a control signal to the hydraulic pressure conversion unit 424 so as to temporarily stop the crane operation, and the process returns to step 51. The hydraulic pressure conversion unit 424 that has received the control signal from the signal processing unit 423 drives a crane driving unit (not shown) according to the control signal to operate the crane (for example, see Patent Document 1).
As described above, the conventional robot temporarily stops a robot such as a crane when a voice instruction is given for a prohibition operation for a current operation stored in advance, thereby ensuring safety.

特開平6−32587号公報JP-A-6-32587

しかしながら、マイクから入力される音声は使用者が意図して発話した音声のみではなく、周囲の騒音も入力される。音声認識部では、使用者が意図して発話した音声なのか、それとも周囲の騒音なのかを判断することはできないので、周囲の騒音を発話音声と間違えて音声指示として認識(誤認識)することがある。
一般に音声認識は、周囲騒音が大きければ大きいほど認識率が低くなる。すなわち誤認識率が高くなる傾向にある。図13は周囲騒音が40[dB]、75[dB]、80[dB]の場合の音声認識率を実験によって示した図である。図13に示すように周囲騒音が大きくなるとともに認識率が低下し本実験では85[dB]以上の騒音下では正確に音声認識できなかった。すなわち、周囲騒音が大きくなれば誤認識率も高くなるのである。
このような背景により、従来のロボット制御装置では、現在の動作に対する禁止動作を記憶し、禁止動作に該当すれば動作を停止するといった構成となっているので、騒音下で使用した場合、安全性を確保するためには多くの禁止動作を記憶する必要がある。しかし、禁止動作を多く記憶すると騒音下においては誤認識が多いため禁止動作に該当する確率が高くなり頻繁に動作停止を繰り返すこととなり作業効率が著しく低下する。逆に、作業効率を向上させるために禁止動作を削減すると誤認識による誤動作の確率が高くなるため、安全性の面で問題を生じるといった相反する問題を抱えていた。
本発明は、このような問題点に鑑みてなされたものであり、音声の誤認識によるロボットの誤動作を防止し、安全性を向上するロボット制御システムおよび制御方法を提供することを目的とする。
However, not only the voice intended by the user but also ambient noise is input from the microphone. Since the voice recognition unit cannot determine whether the voice is intentionally spoken by the user or the ambient noise, it recognizes (misrecognizes) the ambient noise as a voice instruction by mistakenly speaking. There is.
In general, in speech recognition, the greater the ambient noise, the lower the recognition rate. That is, the recognition error rate tends to increase. FIG. 13 is a diagram showing the speech recognition rate by experiments when the ambient noise is 40 [dB], 75 [dB], and 80 [dB]. As shown in FIG. 13, the ambient noise increased and the recognition rate decreased. In this experiment, speech recognition could not be performed accurately under noise of 85 [dB] or more. That is, the false recognition rate increases as the ambient noise increases.
With such a background, the conventional robot control device is configured to store the prohibited operation with respect to the current operation and stop the operation if it falls under the prohibited operation. It is necessary to memorize many prohibition operations in order to ensure However, if a large number of prohibited operations are stored, there are many misrecognitions under noisy conditions, so the probability of corresponding to the prohibited operation increases and the operation is frequently stopped, resulting in a significant reduction in work efficiency. On the contrary, if the prohibited operation is reduced in order to improve the work efficiency, the probability of malfunction due to misrecognition increases, and thus there is a conflicting problem that causes a problem in terms of safety.
The present invention has been made in view of such problems, and an object of the present invention is to provide a robot control system and a control method that prevent malfunction of a robot due to erroneous recognition of speech and improve safety.

上記問題を解決するため、本発明は、次のように構成したのである。
請求項1に記載の発明は、少なくとも1つのアクチュエータを備えたロボット機構部と、前記ロボット機構部の動作を制御するロボット制御装置と、使用者の音声を前記ロボットのコマンドに変換し、前記ロボット制御装置にコマンドを送信する音声インターフェースとを備えたロボット制御システムにおいて、前記音声インターフェースは、前記使用者の音声を入力する音声入力部と、前記音声入力部に入力された音声を語彙として認識する音声認識部と、認識対象の語彙と前記ロボットのコマンドとを関連付けた情報を記憶した語彙−コマンド記憶部と、前記音声認識部にて認識した語彙と前記語彙−コマンド記憶部に記憶した情報から前記ロボットのコマンドを決定するコマンド決定部と、前記コマンド決定部にて決定したコマンドを前記ロボット制御装置に送信する第1の通信部とを備え、 前記ロボット制御装置は、前記音声インターフェースから送信されたコマンドを受信する第2の通信部と、前記第2の通信部が受信したコマンドを実行するか無視するかを判定するコマンド制御部と、前記ロボットの稼動状態に応じて実行可能なコマンドを記憶する許可コマンド記憶部と、前記コマンドに従って前記ロボット機構部の動作を制御するロボット制御部とを備えたことを特徴とする。
請求項2に記載の発明は、前記コマンド制御部は、前記受信したコマンドが前記許可コマンド記憶部に記憶されたコマンドと一致しなければ前記受信したコマンドを無視し、一致していれば前記受信したコマンドを実行すると判定し、前記コマンドの実行開始時に、前記コマンドに予め関連付けられた手順に従って、少なくとも1つのコマンドを前記許可コマンド記憶部から削除することを特徴とする。
請求項3に記載の発明は、前記コマンド制御部は、前記コマンドの実行完了時に、前記手順に従って、少なくとも1つのコマンドを前記許可コマンド記憶部に登録することを特徴とする。
請求項4に記載の発明は、使用者の音声に基づいてロボットを制御するロボット制御方法において、入力された前記使用者の音声を認識し、前記認識した音声に基づいて前記ロボットのコマンドを決定し、前記決定したコマンドをロボット制御装置に送信し、前記ロボット制御装置は受信した前記コマンドが実行を許可されているコマンドかどうか判定し、許可されていなければ前記コマンドを無視し、許可されていれば、前記コマンドに予め関連付けられた手順に従って、その時点で許可されている複数のコマンドから少なくとも1つを削除し、前記コマンドに従って前記ロボットを動作させ、その後に前記手順に従って許可するコマンドを少なくとも1つ登録することを特徴とする。
In order to solve the above problem, the present invention is configured as follows.
According to the first aspect of the present invention, there is provided a robot mechanism unit including at least one actuator, a robot control device that controls the operation of the robot mechanism unit, a voice of a user is converted into a command of the robot, and the robot In the robot control system including a voice interface that transmits a command to the control device, the voice interface recognizes the voice input unit that inputs the user's voice and the voice input to the voice input unit as a vocabulary. From a speech recognition unit, a vocabulary-command storage unit that stores information relating the recognition target vocabulary and the robot command, a vocabulary recognized by the speech recognition unit, and information stored in the vocabulary-command storage unit A command determination unit for determining a command of the robot, and a command determined by the command determination unit. A first communication unit that transmits to the robot control device, wherein the robot control device receives a command transmitted from the voice interface, and a command received by the second communication unit. A command control unit that determines whether to execute or ignore, a permission command storage unit that stores a command that can be executed according to the operating state of the robot, and a robot control that controls the operation of the robot mechanism unit according to the command And a section.
According to a second aspect of the present invention, the command control unit ignores the received command if the received command does not match the command stored in the permission command storage unit, and receives the reception if it matches. The command is determined to be executed, and at the start of execution of the command, at least one command is deleted from the permitted command storage unit according to a procedure associated with the command in advance.
According to a third aspect of the present invention, the command control unit registers at least one command in the permission command storage unit according to the procedure when the execution of the command is completed.
According to a fourth aspect of the present invention, in the robot control method for controlling a robot based on a user's voice, the input voice of the user is recognized and a command of the robot is determined based on the recognized voice. The determined command is transmitted to the robot control device, and the robot control device determines whether the received command is a command that is permitted to be executed. If the command is not permitted, the command is ignored and the command is permitted. Then, according to a procedure associated with the command in advance, at least one command is deleted from the plurality of commands permitted at that time, the robot is operated according to the command, and then at least a command permitted according to the procedure is issued. One is registered.

請求項1、4に記載の発明によると、音声インターフェースから送信されるコマンドをロボットの動作状態に応じて実行することができるため、音声の誤認識により誤ったコマンドが送信されてもロボットが誤動作する確率を著しく低くすることができる。
また、請求項2、3に記載の発明によると、許可コマンドの削除や登録を任意に制御することができるため、許可するコマンドをロボットの動作状態に応じて動的に変更できるようになり、誤ったコマンドが送信されてもロボットが誤動作する確率をさらに低くすることができる。
According to the first and fourth aspects of the present invention, since the command transmitted from the voice interface can be executed according to the operation state of the robot, the robot malfunctions even if an erroneous command is transmitted due to erroneous voice recognition. The probability of doing so can be significantly reduced.
Further, according to the inventions of claims 2 and 3, since it is possible to arbitrarily control the deletion and registration of the permitted command, the permitted command can be dynamically changed according to the operation state of the robot. Even if an incorrect command is transmitted, the probability that the robot malfunctions can be further reduced.

以下、本発明の実施の形態について図を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明のロボット制御システムのブロック図である。図において、100は使用者の音声を認識してロボットへコマンドを送信する音声インターフェースである。この音声インターフェース100は、使用者の音声を入力する音声入力部101と、入力した音声を語彙として認識する音声認識部102と、認識する語彙とロボットの動作コマンドを関連付けて記憶した語彙−コマンド記憶部103と、音声認識部102にて認識した語彙と語彙−コマンド記憶部103の情報からロボットの動作コマンドを決定するコマンド決定部104と、コマンドをロボット制御装置110へ送信する第1の通信部105から構成されている。   FIG. 1 is a block diagram of the robot control system of the present invention. In the figure, reference numeral 100 denotes a voice interface that recognizes a user's voice and transmits a command to the robot. The voice interface 100 includes a voice input unit 101 that inputs a user's voice, a voice recognition unit 102 that recognizes the input voice as a vocabulary, and a vocabulary-command storage that stores a recognized vocabulary and a robot operation command in association with each other. Unit 103, a command determining unit 104 that determines an operation command of the robot from the vocabulary recognized by voice recognition unit 102 and information in vocabulary-command storage unit 103, and a first communication unit that transmits the command to robot controller 110 105.

また、ロボット制御装置110は、音声インターフェースから送信されたコマンドを受信して、受信ステータスを音声インターフェース100に送信する第2の通信部111と、第2の通信部111が受信したコマンドをロボットの状態に応じてロボット制御部114へ送信したり、無視したりを制御するコマンド制御部112と、ロボットの状態に応じて実行可能なコマンドを記憶した許可コマンド記憶部113と、コマンドに基づいてロボット機構部120の動作軌道を生成し、各関節を駆動するサーボモータなどのアクチュエータを制御するロボット制御部114から構成されている。
さらに本発明の実施例では、ロボット制御装置110に力センサやビジョンセンサ、距離センサなどの外界センサ115を接続し、ロボット機構部120の周辺や外部の状態の情報を取得できるようになっており、ロボット機構部120の内部状態と合わせてロボットの状態情報とする。
本発明では、ロボットの状態および外界センサの情報に応じてロボットに実行させることができる許可コマンドを記憶しており、コマンド制御部112は、許可コマンド記憶部113に記憶したそれらのコマンドを参照することで音声インターフェース100から送信されたコマンドが実行可能かどうか判定し、実行可能すなわち許可コマンド記憶部113に記憶したコマンドと送信されたコマンドとが一致した場合にはロボット制御部114へコマンドを送るとともに、音声インターフェース側に第2の通信部111を介してコマンドを実行可能と判定したという内容を含んだステータス情報を送信する。
許可コマンド記憶部113に記憶したコマンドと送信されたコマンドとが一致しない場合は、そのコマンドを無視するとともに音声インターフェース側に第2の通信部111を介してコマンドを無視したという内容を含んだステータス情報を送信する。ここで、コマンドを実行あるいは無視したというステータス情報は、音声インターフェース100とロボット制御装置110との間の情報通信だけでなく、音声や光などに変換することで、使用者や周囲の人間が分かるように提示することが望ましい。
Further, the robot control device 110 receives a command transmitted from the voice interface, transmits a reception status to the voice interface 100, and sends a command received by the second communication unit 111 to the robot. A command control unit 112 that controls transmission to the robot control unit 114 according to the state or ignore, a permission command storage unit 113 that stores a command that can be executed according to the state of the robot, and a robot based on the command The robot control unit 114 generates an operation trajectory of the mechanism unit 120 and controls an actuator such as a servo motor that drives each joint.
Furthermore, in the embodiment of the present invention, an external sensor 115 such as a force sensor, a vision sensor, and a distance sensor is connected to the robot control device 110 so that information about the state of the robot mechanism 120 and the external state can be acquired. Together with the internal state of the robot mechanism unit 120, the state information of the robot is obtained.
In the present invention, permission commands that can be executed by the robot according to the state of the robot and information from the outside world are stored, and the command control unit 112 refers to those commands stored in the permission command storage unit 113. Thus, it is determined whether or not the command transmitted from the voice interface 100 can be executed. When the command that can be executed, that is, the command stored in the permission command storage unit 113 matches the transmitted command, the command is sent to the robot control unit 114. At the same time, status information including the content that it is determined that the command can be executed via the second communication unit 111 is transmitted to the voice interface side.
If the command stored in the allowed command storage unit 113 and the transmitted command do not match, the command is ignored and the status including the content that the command is ignored on the voice interface side via the second communication unit 111 Send information. Here, the status information that the command has been executed or ignored is understood not only by the information communication between the voice interface 100 and the robot control device 110 but also by voice and light, etc., so that the user and surrounding people can be understood. It is desirable to present as follows.

図2は、本発明の処理の流れを示すフローチャートである。以下、図のステップに従って説明する。
まずStep201では、マイクを使用した音声入力部101から音声を入力する。
続くStep202では、入力した音声は音声認識部102にて語彙として認識処理される。
Step203では、語彙−コマンド記憶部103に記憶した、語彙−コマンドテーブルを参照して認識した語彙に対応するコマンドを決定する。
Step204では、決定したコマンドを第1の通信部105により音声インターフェース100からロボット制御装置110へ送信する。
Step205にて音声インターフェース100から送信されたコマンドを第2の通信部111にて受信する。
Step206では、コマンド制御部112が、受信したコマンドが許可されたコマンドであるかどうか許可コマンド記憶部113を検索し、コマンドが一致した場合はStep207へ進み、一致するコマンドがない場合はStep208へ進む。
Step207では、受信したコマンドが許可されたコマンドであることをロボットステータス情報として音声インターフェース100に送信する。
Step208では、受信したコマンドが許可されていないことをロボットステータス情報として音声インターフェース100に送信する。
Step209では、ロボット制御部114へコマンドを送る。
Step210では、
(1)許可コマンドのうち、受信したコマンドと同一のコマンドやロボットの状態などによって実行不可のコマンドを許可コマンド記憶部113から削除する。
(2)ロボット機構部120を動作させる。
(3)次に実行可能なコマンドを許可コマンド記憶部113に登録する。
という処理を行う。
FIG. 2 is a flowchart showing the processing flow of the present invention. In the following, description will be given according to the steps in the figure.
First, in Step 201, voice is input from the voice input unit 101 using a microphone.
In the subsequent Step 202, the input speech is recognized and processed as a vocabulary by the speech recognition unit 102.
In Step 203, a command corresponding to the vocabulary recognized by referring to the vocabulary-command table stored in the vocabulary-command storage unit 103 is determined.
In Step 204, the determined command is transmitted from the voice interface 100 to the robot control device 110 by the first communication unit 105.
In Step 205, the second communication unit 111 receives the command transmitted from the voice interface 100.
In Step 206, the command control unit 112 searches the permitted command storage unit 113 to determine whether or not the received command is a permitted command. If the commands match, the process proceeds to Step 207. If there is no matching command, the process proceeds to Step 208. .
In Step 207, information indicating that the received command is a permitted command is transmitted to the voice interface 100 as robot status information.
In Step 208, information indicating that the received command is not permitted is transmitted to the voice interface 100 as robot status information.
In Step 209, a command is sent to the robot control unit 114.
In Step210,
(1) Of the permitted commands, commands that cannot be executed due to the same command as the received command, the state of the robot, or the like are deleted from the permitted command storage unit 113.
(2) The robot mechanism unit 120 is operated.
(3) The next executable command is registered in the permitted command storage unit 113.
Perform the process.

次に、使用者の発する音声を認識する音声インターフェースを利用したロボットの操作を具体的に説明する。
図3は語彙−コマンド記憶部103に記憶した語彙−コマンドテーブルの例である。この語彙−コマンドテーブルには、認識対象の語彙とコマンドが登録されており、一組の語彙とコマンドに対して固有のIDが割り振られる。
以下では、使用者の音声指示によりロボットが待機位置で起動(サーボON)し、外界センサであるビジョンセンサの情報をもとに、ロボット先端に取り付けられたツール(グリッパ)にて物体を把持し、決められた場所へ物体を運び、その後待機位置へ移動してサーボOFFし作業を終了するといった一連の動作で説明する。
図3の語彙−コマンドテーブルに登録しているコマンドおよび語彙について説明する。
まず、ロボットの動作を停止するコマンドである「ROBOT_CTRL_STOP」に対しては、“とまれ”、“ストップ”、“危ない”といった人間が危険を感じた際に発声する語彙を冗長に登録している。
また、ロボットが待機位置で起動(サーボON)するコマンド「ROBOT_JOB_BGN」に“作業開始”という語彙を、ビジョンセンサの情報をもとに把持物体の位置姿勢を取得して物体にアプローチするコマンド「ROBOT_JOB_APRCH」に“アプローチ”という語彙を、物体を把持するコマンド「ROBOT_JOB_GRASP」に“把持”という語彙を、物体を把持した後に決められた場所へ物体を運ぶコマンド「ROBOT_JOB_CARRY」に“運搬”という語彙を、把持した物体を放して待機位置へ移動するコマンド「ROBOT_JOB_OPEN」に“開放”という語彙を、待機位置に移動した後にサーボOFFして作業を終了するコマンド「ROBOT_JOB_END」に“作業終了”という語彙をそれぞれ登録している。
Next, the operation of the robot using the voice interface for recognizing the voice uttered by the user will be specifically described.
FIG. 3 is an example of a vocabulary-command table stored in the vocabulary-command storage unit 103. In this vocabulary-command table, vocabulary and commands to be recognized are registered, and a unique ID is assigned to a set of vocabulary and commands.
In the following, the robot starts at the standby position (servo ON) according to the voice instruction of the user, and grips the object with the tool (gripper) attached to the tip of the robot based on the information of the vision sensor that is the external sensor. A series of operations will be described in which an object is carried to a predetermined place, then moved to a standby position, the servo is turned off, and the operation is completed.
The commands and vocabulary registered in the vocabulary-command table of FIG. 3 will be described.
First, for “ROBOT_CTRL_STOP” which is a command to stop the robot operation, vocabulary uttered when a person feels danger such as “Tare rare”, “Stop”, “Dangerous” is registered redundantly.
In addition, the command “ROBOT_JOB_APRCH” is used to acquire the position and orientation of the gripped object based on the information from the vision sensor and to approach the object using the vocabulary “start work” in the command “ROBOT_JOB_BGN” that the robot starts (servo ON) at the standby position. "Approach" vocabulary, "ROBOT_JOB_GRASP" command to grasp the object "gripping" vocabulary, "ROBOT_JOB_CARRY" command to carry the object to the place after grasping the object "transport" vocabulary The command "ROBOT_JOB_OPEN" that releases the gripped object and moves to the standby position has the vocabulary "Open", and the command "ROBOT_JOB_END" that moves to the standby position and ends the work ends with the vocabulary "End of work" Registered.

また、ロボット制御装置110では、図示しない記憶部に複数の動作コマンドが記述されたコマンドリストを予め記憶しており、ロボット制御部114が音声インターフェース100から送られ、かつ許可されたコマンドを受信すると、そのコマンドと同じ名が付けられたコマンドリストを開き、そのコマンドリストに記述された動作コマンドを実行するようになっている。
図4は、ロボット制御部114で実行可能な動作コマンドの一例を示している。各コマンドの説明は図中に示しているのでここでは割愛する。
In the robot control device 110, a command list in which a plurality of operation commands are described is stored in advance in a storage unit (not shown), and when the robot control unit 114 receives a permitted command sent from the voice interface 100. The command list with the same name as the command is opened, and the operation command described in the command list is executed.
FIG. 4 shows an example of operation commands that can be executed by the robot controller 114. The explanation of each command is shown in the figure and is omitted here.

ここで、ロボットの動作を停止するコマンドである「ROBOT_CTRL_STOP」は、安全のためにその実行に緊急を要する。よって、「ROBOT_CTRL_STOP」は前述のようにコマンドとして語彙−コマンドテーブルに登録できるとともに、ロボット制御部114は、「ROBOT_CTRL_STOP」コマンドを受信すると同名のコマンドリストを参照せずに即座に対応する動作コマンドを実行するようになっている。
コマンドリストを参照するコマンドは「ROBOT_JOB_」を含む名称となっている一方、参照しないコマンドは「ROBOT_CTRL_」を含む名称となっており、ロボット制御部114は、受信したコマンドがコマンドリストを参照する必要があるものかどうかをコマンド名の文字列によって認識することができる。
すなわち、コマンド「ROBOT_CTRL_STOP」が音声インターフェース110から送信されると、ロボット制御部114は動作コマンドであると認識するとともに「ROBOT_CTRL_」以下に続く「STOP」を動作コマンドとして解釈、実行し、ロボットの動作を停止する。
Here, “ROBOT_CTRL_STOP”, which is a command for stopping the operation of the robot, requires urgent execution for safety. Therefore, as described above, “ROBOT_CTRL_STOP” can be registered as a command in the vocabulary-command table, and when the robot control unit 114 receives the “ROBOT_CTRL_STOP” command, the robot controller 114 immediately sends a corresponding operation command without referring to the command list of the same name. It is supposed to run.
The command that refers to the command list has a name including “ROBOT_JOB_”, while the command that does not refer to has a name that includes “ROBOT_CTRL_”, and the robot control unit 114 needs to refer to the command list by the received command. It can be recognized by the character string of the command name.
That is, when the command “ROBOT_CTRL_STOP” is transmitted from the voice interface 110, the robot control unit 114 recognizes that it is an operation command, interprets and executes “STOP” following “ROBOT_CTRL_” as an operation command, and moves the robot. To stop.

図5〜10は、実際のロボットの動作を説明するための図である。
図5では、使用者が“作業開始”と発声すると音声インターフェース100はその音声を認識し、図3に示す語彙−コマンドテーブルを参照してコマンド「ROBOT_JOB_BGN」をロボットに送信する。ロボット制御装置110はコマンドを受信すると許可されているコマンドか否かをコマンド制御部112にて判断する。
ここでは、「ROBOT_JOB_BGN」がコマンドリストを作成した使用者によって予め許可コマンドとして許可コマンド記憶部113に登録されており、コマンド制御部112はロボット制御部114へコマンドを送信することができる。コマンドを受信したロボット制御部114は、「ROBOT_JOB_BGN」という名前が付けられたコマンドリストを参照し、そのコマンドリスト内の動作コマンドを実行することで許可コマンドの登録/削除およびロボット機構部の動作を制御するようになっている。
図5に示すコマンドリストでは、現在実行中のコマンド「ROBOT_JOB_BGN」を許可コマンド記憶部113から削除し、「SVON」によってサーボONを実行した後、サーボONの状態で許可することのできるコマンド「ROBOT_JOB_APRCH」、「ROBOT_JOB_END」、「ROBOT_CTRL_STOP」を許可コマンド記憶部113に登録する。
「SVON」は、図4の説明にあるようにロボット機構部120の各関節を駆動するサーボモータの電源をONにするコマンドである。
このようにすることで、誤認識によって許可コマンド以外のコマンドを受信しても、コマンド制御部112によって無視されるため、ロボットは誤動作しないようになっている。
なお、許可コマンドは、ロボット制御部114からコマンド制御部112を介して許可コマンド記憶部113への登録や削除を行なうようになっている。許可コマンド記憶部113に一度記憶したコマンドは、削除するまで保持されるようになっている。
5 to 10 are diagrams for explaining the actual operation of the robot.
In FIG. 5, when the user utters “work start”, the voice interface 100 recognizes the voice and transmits the command “ROBOT_JOB_BGN” to the robot with reference to the vocabulary-command table shown in FIG. 3. When the robot controller 110 receives the command, the command controller 112 determines whether the command is permitted.
Here, “ROBOT_JOB_BGN” is registered in advance in the permitted command storage unit 113 as a permitted command by the user who created the command list, and the command control unit 112 can transmit a command to the robot control unit 114. The robot control unit 114 that has received the command refers to the command list named “ROBOT_JOB_BGN” and executes the operation command in the command list to register / delete the permitted command and perform the operation of the robot mechanism unit. It comes to control.
In the command list shown in FIG. 5, the command “ROBOT_JOB_APRCH” that can be permitted in the servo ON state after deleting the currently executed command “ROBOT_JOB_BGN” from the permission command storage unit 113 and executing the servo ON by “SVON”. ”,“ ROBOT_JOB_END ”, and“ ROBOT_CTRL_STOP ”are registered in the permission command storage unit 113.
“SVON” is a command for turning on the power of the servo motor that drives each joint of the robot mechanism unit 120 as described in FIG. 4.
In this way, even if a command other than the permission command is received due to erroneous recognition, the command control unit 112 ignores the command, so that the robot does not malfunction.
The permission command is registered or deleted from the robot control unit 114 to the permission command storage unit 113 via the command control unit 112. The command once stored in the permitted command storage unit 113 is held until it is deleted.

続いて、図6に示すように使用者が“アプローチ”と発声するとコマンド「ROBOT_JOB_APRCH」がロボット制御装置110に送信される。コマンド制御部112では前回のコマンド「ROBOT_JOB_BGN」にて既に「ROBOT_JOB_APRCH」を許可コマンド記憶部113に登録しているためロボット制御部114にコマンドを送信する。ロボット制御部114では、「ROBOT_JOB_APRCH」という名前が付けられたコマンドリストを参照し、そのコマンドリスト内の動作コマンドを実行する。
図6に示すコマンドリストでは、「ROBOT_JOB_APRCH」を許可コマンド記憶部113から削除し、「MOVJ P1」によりロボット機構部120を動作させた後に「MOVJ P2」により動作させ、さらに「MOVL *VISION」により、ビジョンセンサが取得した物体の位置へ直線的に動作した後、「ROBOT_JOB_GRASP」を許可コマンド記憶部113に登録する。
「MOVJ P1」は、図4の説明にあるようにロボットのそれぞれの関節を指定された各関節角度(P1ベクトル)へと動作させるコマンドであり、「MOVJ P2」も同じく各関節角度(P2ベクトル)へと動作させるコマンドである。また、「MOVL」はロボットのツール先端を指定された三次元位置および姿勢(この場合は*VISION)へと移動させるコマンドである。
Subsequently, as shown in FIG. 6, when the user utters “approach”, a command “ROBOT_JOB_APRCH” is transmitted to the robot controller 110. The command control unit 112 transmits the command to the robot control unit 114 because “ROBOT_JOB_APRCH” has already been registered in the permission command storage unit 113 with the previous command “ROBOT_JOB_BGN”. The robot control unit 114 refers to a command list named “ROBOT_JOB_APRCH” and executes an operation command in the command list.
In the command list shown in FIG. 6, “ROBOT_JOB_APRCH” is deleted from the permission command storage unit 113, the robot mechanism unit 120 is operated by “MOVJ P1”, then operated by “MOVJ P2”, and further by “MOVL * VISION”. After the vision sensor moves linearly to the acquired object position, “ROBOT_JOB_GRASP” is registered in the permission command storage unit 113.
“MOVJ P1” is a command to move each joint of the robot to each specified joint angle (P1 vector) as described in FIG. 4, and “MOVJ P2” is also a command for each joint angle (P2 vector). ) Is a command to be operated. “MOVL” is a command for moving the tip of the robot tool to the specified 3D position and orientation (* VISION in this case).

図7では、使用者が“把持”と発声するとコマンド「ROBOT_JOB_GRASP」がロボット制御装置110に送信される。コマンド制御部112では前回のコマンド「ROBOT_JOB_APRCH」にて既に「ROBOT_JOB_ GRASP」を許可コマンド記憶部113に登録しているためロボット制御部114にコマンドを送信する。ロボット制御部114では、「ROBOT_JOB_ GRASP」という名前が付けられたコマンドリストを参照し、そのコマンドリスト内の動作コマンドを実行する。
図7に示すコマンドリストでは、「ROBOT_JOB_ GRASP」を許可コマンド記憶部113から削除し、「MOVJ E1」によりロボット先端のグリッパを移動させた後にグリッパを閉じ、「ROBOT_JOB_CARRY」と「ROBOT_JOB_OPEN」を許可コマンド記憶部113に登録する。
「MOVJ P*」の場合は、ロボットのそれぞれの関節を指定された各関節角度へと動作させるのみであるが、「MOVJ E*」の場合はそれに加え、グリッパなどロボット本体以外の外部軸の操作も指定できるようになっている。
In FIG. 7, when the user utters “grip”, the command “ROBOT_JOB_GRASP” is transmitted to the robot controller 110. Since the command control unit 112 has already registered “ROBOT_JOB_GRASP” in the permitted command storage unit 113 with the previous command “ROBOT_JOB_APRCH”, the command control unit 112 transmits the command to the robot control unit 114. The robot controller 114 refers to a command list named “ROBOT_JOB_GRASP” and executes an operation command in the command list.
In the command list shown in FIG. 7, “ROBOT_JOB_GRASP” is deleted from the permitted command storage unit 113, the gripper is moved after moving the gripper at the tip of the robot by “MOVJ E1,” and “ROBOT_JOB_CARRY” and “ROBOT_JOB_OPEN” are permitted commands. Register in the storage unit 113.
In the case of “MOVJ P *”, each joint of the robot is only moved to each specified joint angle, but in the case of “MOVJ E *”, in addition to this, an external axis other than the robot body such as a gripper is used. You can also specify the operation.

図8では、使用者が“運搬”と発声するとコマンド「ROBOT_JOB_CARRY」がロボット制御装置110に送信される。コマンド制御部112では前回のコマンド「ROBOT_JOB_GRASP」にて既に「ROBOT_JOB_CARRY」を許可コマンド記憶部113に登録しているためロボット制御部114にコマンドを送信する。ロボット制御部114では、「ROBOT_JOB_CARRY」という名前が付けられたコマンドリストを参照し、そのコマンドリスト内の動作コマンドを実行する。
図8に示すコマンドリストでは、「ROBOT_JOB_CARRY」を許可コマンド記憶部113から削除し、各関節角度(P3ベクトル)に移動した後、各関節角度(P4ベクトル)に移動する。
In FIG. 8, when the user utters “transport”, the command “ROBOT_JOB_CARRY” is transmitted to the robot controller 110. Since the command control unit 112 has already registered “ROBOT_JOB_CARRY” in the permission command storage unit 113 with the previous command “ROBOT_JOB_GRASP”, the command control unit 112 transmits the command to the robot control unit 114. The robot control unit 114 refers to a command list named “ROBOT_JOB_CARRY” and executes an operation command in the command list.
In the command list shown in FIG. 8, “ROBOT_JOB_CARRY” is deleted from the permission command storage unit 113, moved to each joint angle (P3 vector), and then moved to each joint angle (P4 vector).

図9では、使用者が“開放”と発声するとコマンド「ROBOT_JOB_OPEN」がロボット制御装置110に送信される。コマンド制御部112では前回のコマンド「ROBOT_JOB_GRASP」にて既に「ROBOT_JOB_ OPEN」を許可コマンド記憶部113に登録しているためロボット制御部114にコマンドを送信する。ロボット制御部114では、「ROBOT_JOB_OPEN」という名前が付けられたコマンドリストを参照し、そのコマンドリスト内の動作コマンドを実行する。
図9に示すコマンドリストでは、「ROBOT_JOB_OPEN」を許可コマンド記憶部113から削除し、グリッパを開いた状態にして各関節角度(E2ベクトル)へ移動させた後、各関節角度(P5ベクトル)に移動し、その後待機姿勢である各関節角度(P1ベクトル)に移動し、図示しないベルトコンベアなどで運ばれてきた物体を把持することができるように「ROBOT_JOB_APRCH」を許可コマンド記憶部113に登録する。
In FIG. 9, when the user utters “open”, the command “ROBOT_JOB_OPEN” is transmitted to the robot controller 110. Since the command control unit 112 has already registered “ROBOT_JOB_OPEN” in the permitted command storage unit 113 with the previous command “ROBOT_JOB_GRASP”, the command control unit 112 transmits the command to the robot control unit 114. The robot controller 114 refers to a command list named “ROBOT_JOB_OPEN” and executes an operation command in the command list.
In the command list shown in FIG. 9, “ROBOT_JOB_OPEN” is deleted from the permission command storage unit 113, the gripper is opened and moved to each joint angle (E2 vector), and then moved to each joint angle (P5 vector). Then, the robot moves to each joint angle (P1 vector) that is a standby posture, and registers “ROBOT_JOB_APRCH” in the permission command storage unit 113 so that an object carried by a belt conveyor (not shown) can be gripped.

図10は、使用者が“作業終了”と発声するとコマンド「ROBOT_JOB_END」がロボット制御装置110に送信される。コマンド制御部112では前回のコマンド「ROBOT_JOB_BGN」にて既に「ROBOT_JOB_ END」を許可コマンド記憶部113に登録しているためロボット制御部114にコマンドを送信する。ロボット制御部114では、「ROBOT_JOB_END」という名前が付けられたコマンドリストを参照し、そのコマンドリスト内の動作コマンドを実行する。
図10に示すコマンドリストでは、「ROBOT_JOB_END」を許可コマンド記憶部113から削除し、「SVOF」によりサーボOFFした後、次の作業ができるように「ROBOT_JOB_BGN」を許可コマンド記憶部113に登録して作業を終了する。
「SVOF」は、図4の説明にあるように「SVON」とは逆にロボット機構部120の各関節を駆動するサーボモータの電源をOFFにするコマンドである。
ここで、各コマンドリストの動作コマンドの記述で実行中のコマンドを初めに削除するのは、記憶するメモリの節約とコマンド実行中に音声インターフェースが誤認識して同名のコマンドが再送された場合にロボットが誤動作しないようにするためであり、本実施例のようにコマンドリストに記述せず、ロボット制御部114が一度受信したコマンドを許可コマンド記憶部113から削除するようにしてもよい。
In FIG. 10, when the user utters “work end”, the command “ROBOT_JOB_END” is transmitted to the robot control device 110. Since the command control unit 112 has already registered “ROBOT_JOB_END” in the permitted command storage unit 113 with the previous command “ROBOT_JOB_BGN”, the command control unit 112 transmits the command to the robot control unit 114. The robot controller 114 refers to the command list named “ROBOT_JOB_END” and executes the operation command in the command list.
In the command list shown in FIG. 10, “ROBOT_JOB_BGN” is registered in the permission command storage unit 113 so that the next operation can be performed after “ROBOT_JOB_END” is deleted from the permission command storage unit 113 and the servo is turned off by “SVOF”. Finish the work.
“SVOF” is a command to turn off the power of the servo motor that drives each joint of the robot mechanism unit 120, as opposed to “SVON” as described in FIG. 4.
Here, the command being executed in the description of the operation command of each command list is deleted first when the command with the same name is resent because the voice interface is misrecognized during the command execution and saving of memory to be stored. In order to prevent the robot from malfunctioning, the command once received by the robot control unit 114 may be deleted from the allowed command storage unit 113 without being described in the command list as in this embodiment.

このように、ロボットの状態に応じて実行可能なコマンドのみを許可するため、音声インターフェース部で騒音などを誤認識した場合でも送信されるコマンドが制限されるのでロボットの誤動作を著しく低減することができる。
また、本発明では音声インターフェースは、使用者の発声した音声を認識し、コマンドをロボット制御装置へ送信するといった単純な機能であるため、複数のロボットと接続して音声操作することができる。
In this way, only commands that can be executed according to the state of the robot are allowed, so even if the voice interface unit misrecognizes noise or the like, the transmitted commands are limited, which can significantly reduce the robot malfunction. it can.
In the present invention, since the voice interface has a simple function of recognizing the voice uttered by the user and transmitting a command to the robot control device, the voice interface can be connected to a plurality of robots for voice operation.

装置の状態に応じて実行するコマンドを制限することができるので、ロボットの操作以外にもモータやエンジンなどで駆動する装置を音声で操作するという用途にも適用できる。   Since commands to be executed can be limited according to the state of the apparatus, the present invention can be applied not only to the operation of the robot but also to the use of operating the apparatus driven by a motor, an engine or the like by voice.

本発明のロボット制御システムを示すブロック図Block diagram showing a robot control system of the present invention 本発明の処理の流れを示すフローチャートThe flowchart which shows the flow of processing of the present invention. 語彙−コマンドテーブルの例Vocabulary-command table example 動作コマンドの例Example of operation command ロボットの一連の動作説明図Illustration of a series of robot operations ロボットの一連の動作説明図Illustration of a series of robot operations ロボットの一連の動作説明図Illustration of a series of robot operations ロボットの一連の動作説明図Illustration of a series of robot operations ロボットの一連の動作説明図Illustration of a series of robot operations ロボットの一連の動作説明図Illustration of a series of robot operations 従来例を表すブロック図Block diagram showing a conventional example 従来例の動作を表すフローチャートFlow chart showing operation of conventional example 騒音下における音声認識率の変化(実験結果)Change in speech recognition rate under noise (experimental result)

符号の説明Explanation of symbols

100 音声インターフェース
101 音声入力部
102 音声認識部
103 語彙−コマンド記憶部
104 コマンド決定部
105 通信部
110 ロボット制御装置
111 通信部
112 コマンド制御部
113 許可コマンド記憶部
114 ロボット制御部
115 外界センサ
120 ロボット機構部
410 送信機
411 マイク
412 送信部
420 クレーン制御部
421 受信部
422 音声認識部
423 信号処理部
424 油圧変換部
DESCRIPTION OF SYMBOLS 100 Voice interface 101 Voice input part 102 Voice recognition part 103 Vocabulary-command memory | storage part 104 Command determination part 105 Communication part 110 Robot control apparatus 111 Communication part 112 Command control part 113 Permitted command memory | storage part 114 Robot control part 115 External sensor 120 Robot mechanism Unit 410 transmitter 411 microphone 412 transmission unit 420 crane control unit 421 reception unit 422 voice recognition unit 423 signal processing unit 424 hydraulic pressure conversion unit

Claims (4)

少なくとも1つのアクチュエータを備えたロボット機構部と、前記ロボット機構部の動作を制御するロボット制御装置と、使用者の音声を前記ロボットのコマンドに変換し、前記ロボット制御装置にコマンドを送信する音声インターフェースとを備えたロボット制御システムにおいて、
前記音声インターフェースは、前記使用者の音声を入力する音声入力部と、前記音声入力部に入力された音声を語彙として認識する音声認識部と、認識対象の語彙と前記ロボットのコマンドとを関連付けた情報を記憶した語彙−コマンド記憶部と、前記音声認識部にて認識した語彙と前記語彙−コマンド記憶部に記憶した情報から前記ロボットのコマンドを決定するコマンド決定部と、前記コマンド決定部にて決定したコマンドを前記ロボット制御装置に送信する第1の通信部とを備え、
前記ロボット制御装置は、前記音声インターフェースから送信されたコマンドを受信する第2の通信部と、前記第2の通信部が受信したコマンドを実行するか無視するかを判定するコマンド制御部と、前記ロボットの稼動状態に応じて実行可能なコマンドを記憶する許可コマンド記憶部と、前記コマンドに従って前記ロボット機構部の動作を制御するロボット制御部とを備えたことを特徴とするロボット制御システム。
A robot mechanism unit including at least one actuator, a robot control device that controls the operation of the robot mechanism unit, and a voice interface that converts a user's voice into a command of the robot and transmits the command to the robot control unit In a robot control system equipped with
The voice interface associates a voice input unit that inputs the voice of the user, a voice recognition unit that recognizes a voice input to the voice input unit as a vocabulary, a vocabulary to be recognized, and a command of the robot A vocabulary-command storage section storing information, a vocabulary recognized by the speech recognition section, a command determination section for determining commands of the robot from the information stored in the vocabulary-command storage section, and the command determination section A first communication unit that transmits the determined command to the robot control device;
The robot control device includes: a second communication unit that receives a command transmitted from the voice interface; a command control unit that determines whether to execute or ignore the command received by the second communication unit; A robot control system comprising: a permission command storage unit that stores a command that can be executed according to an operating state of the robot; and a robot control unit that controls the operation of the robot mechanism unit according to the command.
前記コマンド制御部は、前記受信したコマンドが前記許可コマンド記憶部に記憶されたコマンドと一致しなければ前記受信したコマンドを無視し、一致していれば前記受信したコマンドを実行すると判定し、
前記コマンドの実行開始時に、前記コマンドに予め関連付けられた手順に従って、少なくとも1つのコマンドを前記許可コマンド記憶部から削除することを特徴とする請求項1記載のロボット制御システム。
The command control unit determines to ignore the received command if the received command does not match the command stored in the permission command storage unit, and to execute the received command if the command matches.
The robot control system according to claim 1, wherein at the start of execution of the command, at least one command is deleted from the permission command storage unit according to a procedure associated with the command in advance.
前記コマンド制御部は、前記コマンドの実行完了時に、前記手順に従って、少なくとも1つのコマンドを前記許可コマンド記憶部に登録することを特徴とする請求項2に記載のロボット制御システム。   The robot control system according to claim 2, wherein the command control unit registers at least one command in the permission command storage unit according to the procedure when the execution of the command is completed. 使用者の音声に基づいてロボットを制御するロボット制御方法において、
入力された前記使用者の音声を認識し、前記認識した音声に基づいて前記ロボットのコマンドを決定し、前記決定したコマンドをロボット制御装置に送信し、
前記ロボット制御装置は受信した前記コマンドが実行を許可されているコマンドかどうか判定し、
許可されていなければ前記コマンドを無視し、
許可されていれば、前記コマンドに予め関連付けられた手順に従って、その時点で許可されている複数のコマンドから少なくとも1つを削除し、前記コマンドに従って前記ロボットを動作させ、その後に前記手順に従って許可するコマンドを少なくとも1つ登録することを特徴とするロボット制御方法。
In a robot control method for controlling a robot based on a user's voice,
Recognizing the input voice of the user, determining a command of the robot based on the recognized voice, and transmitting the determined command to a robot controller;
The robot controller determines whether the received command is a command that is permitted to be executed,
Ignore the command if not allowed,
If permitted, according to a procedure pre-associated with the command, delete at least one of the commands allowed at that time, operate the robot according to the command, and then permit according to the procedure A robot control method, wherein at least one command is registered.
JP2005109589A 2005-04-06 2005-04-06 Robot control method and robot apparatus Expired - Fee Related JP4453596B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005109589A JP4453596B2 (en) 2005-04-06 2005-04-06 Robot control method and robot apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005109589A JP4453596B2 (en) 2005-04-06 2005-04-06 Robot control method and robot apparatus

Publications (2)

Publication Number Publication Date
JP2006289514A true JP2006289514A (en) 2006-10-26
JP4453596B2 JP4453596B2 (en) 2010-04-21

Family

ID=37410662

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005109589A Expired - Fee Related JP4453596B2 (en) 2005-04-06 2005-04-06 Robot control method and robot apparatus

Country Status (1)

Country Link
JP (1) JP4453596B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1731072A2 (en) * 2005-06-07 2006-12-13 LG Electronics Inc. Apparatus and method for notifying state of self-moving cleaning robot
WO2010083768A1 (en) * 2009-01-24 2010-07-29 泰怡凯电器(苏州)有限公司 Speech system used for robot and robot with speech system
JP2013136131A (en) * 2011-12-28 2013-07-11 Toyota Motor Corp Method and device for controlling robot, and robot
JP2016078791A (en) * 2014-10-22 2016-05-16 株式会社大林組 Visible light communication control device and underwater work support system
JP2018103326A (en) * 2016-12-27 2018-07-05 ファナック株式会社 Industrial robot control device
CN108665891A (en) * 2017-03-28 2018-10-16 卡西欧计算机株式会社 Sound detection device, sound detection method and recording medium
CN108899026A (en) * 2018-07-25 2018-11-27 浙江工业大学 A kind of sound control method and control system of photocatalysis processing platform
JP2019144759A (en) * 2018-02-19 2019-08-29 コニカミノルタ株式会社 Image processing apparatus, image processing apparatus control method, and program
JP2022525176A (en) * 2019-04-29 2022-05-11 ソニーグループ株式会社 Techniques for controlling the camera interface using voice commands

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1731072A2 (en) * 2005-06-07 2006-12-13 LG Electronics Inc. Apparatus and method for notifying state of self-moving cleaning robot
EP1731072A3 (en) * 2005-06-07 2011-11-16 LG Electronics Inc. Apparatus and method for notifying state of self-moving cleaning robot
WO2010083768A1 (en) * 2009-01-24 2010-07-29 泰怡凯电器(苏州)有限公司 Speech system used for robot and robot with speech system
JP2013136131A (en) * 2011-12-28 2013-07-11 Toyota Motor Corp Method and device for controlling robot, and robot
JP2016078791A (en) * 2014-10-22 2016-05-16 株式会社大林組 Visible light communication control device and underwater work support system
US10456921B2 (en) 2016-12-27 2019-10-29 Fanuc Corporation Industrial-robot control device
JP2018103326A (en) * 2016-12-27 2018-07-05 ファナック株式会社 Industrial robot control device
DE102017130693B4 (en) * 2016-12-27 2021-03-04 Fanuc Corporation Industrial robot control device
CN108665891A (en) * 2017-03-28 2018-10-16 卡西欧计算机株式会社 Sound detection device, sound detection method and recording medium
CN108665891B (en) * 2017-03-28 2023-05-02 卡西欧计算机株式会社 Voice detection device, voice detection method, and recording medium
JP2019144759A (en) * 2018-02-19 2019-08-29 コニカミノルタ株式会社 Image processing apparatus, image processing apparatus control method, and program
JP7003720B2 (en) 2018-02-19 2022-01-21 コニカミノルタ株式会社 Image processing equipment, image processing equipment control methods, and programs
CN108899026A (en) * 2018-07-25 2018-11-27 浙江工业大学 A kind of sound control method and control system of photocatalysis processing platform
CN108899026B (en) * 2018-07-25 2023-10-20 浙江工业大学 Voice control method and control system for photocatalysis processing platform
JP2022525176A (en) * 2019-04-29 2022-05-11 ソニーグループ株式会社 Techniques for controlling the camera interface using voice commands

Also Published As

Publication number Publication date
JP4453596B2 (en) 2010-04-21

Similar Documents

Publication Publication Date Title
JP4453596B2 (en) Robot control method and robot apparatus
US11037564B2 (en) Robot apparatus and method for registering shortcut command thereof based on a predetermined time interval
EP1308799A4 (en) Voice-actuated control device of construction machine
JP4266211B2 (en) Robot device, method of moving robot device, and program
CN107901915A (en) Vehicle drive automated system and method based on voice control
US7813837B2 (en) Robot control system
JP4544145B2 (en) Robot interference avoidance method and robot
AU2003289142A1 (en) Robot control device, robot control method, and robot control program
WO2005022295A3 (en) Media center controller system and method
WO2005008476A3 (en) Method and system for intelligent prompt control in a multimodal software application
CA2200716A1 (en) A speech interface for an automated endoscopic system
EP1426147A3 (en) Industrial robot with means for detecting an operation command
EP1085500A3 (en) Timing between commands of a voice controlled device
KR101724748B1 (en) Speech recognition apparatus for vehicle
JP2004268151A (en) Robot control device and control method
TW200643895A (en) Voice-controlled vehicle control method and system with restricted condition for assisting recognition
Fischer et al. Human-robot-interface for intelligent service robot assistance
JP2006289543A (en) Robot teaching device
WO2019146586A1 (en) Robot instruction device
JP2006187825A (en) Robot device and method of controlling the same
KR20130041421A (en) Voice recognition multimodality system based on touch
JPH07187562A (en) Crane operating method
JPS6456428A (en) Control system for camera by sound
JP2019126902A (en) Robot teaching device
EP4011567A1 (en) Robot control

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091026

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100112

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100125

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130212

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140212

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150212

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees