WO2019146586A1 - ロボットの教示装置 - Google Patents

ロボットの教示装置 Download PDF

Info

Publication number
WO2019146586A1
WO2019146586A1 PCT/JP2019/001825 JP2019001825W WO2019146586A1 WO 2019146586 A1 WO2019146586 A1 WO 2019146586A1 JP 2019001825 W JP2019001825 W JP 2019001825W WO 2019146586 A1 WO2019146586 A1 WO 2019146586A1
Authority
WO
WIPO (PCT)
Prior art keywords
robot
word
designated
pitch
unit
Prior art date
Application number
PCT/JP2019/001825
Other languages
English (en)
French (fr)
Inventor
高行 吉村
正義 神原
Original Assignee
川崎重工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2018097118A external-priority patent/JP2019126902A/ja
Application filed by 川崎重工業株式会社 filed Critical 川崎重工業株式会社
Priority to EP19743361.8A priority Critical patent/EP3744483A4/en
Priority to CN201980010023.1A priority patent/CN111867789A/zh
Publication of WO2019146586A1 publication Critical patent/WO2019146586A1/ja
Priority to US16/939,496 priority patent/US20200353614A1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine

Definitions

  • the present invention relates to a robot teaching apparatus.
  • a direct teaching method as a method of teaching a robot to work.
  • the operator grasps the tip of the robot, moves the robot to a desired position, or causes the robot to take a desired posture, and teaches the motion of the robot by storing the position or posture at that time.
  • the operator needs an operation using a teaching pendant.
  • the teaching pendant has an inching mode in which the robot is moved in a desired direction by remote control. In the inching mode, the operator must also look at the teaching pendant while looking at the robot because the operation key of the teach pendant is used.
  • the operator when performing inching by voice without using the teaching pendant, the operator utters, for example, “X axis plus direction 6 mm”, “Z axis minus direction 2 mm” or the like.
  • the speech recognition rate tends to take longer to recognize longer speech and to increase errors.
  • the present invention has been made to solve the problems as described above, and its object is to improve speech recognition accuracy in an inching mode of a robot by speech input.
  • a robot teaching device for teaching a robot an operation, which is a voice input unit for inputting a voice of an operator; A voice recognition unit for recognizing the voice of the operator input to the voice input unit, a storage unit for storing in advance a specific word associated with the operation of the robot, and the voice recognition unit from the storage unit A specific word extraction unit that extracts a specific word that matches a recognized word, and an operation instruction generation unit that creates an operation instruction to the robot based on operation information associated with the specific word extracted by the specific word extraction unit And the specific word is a first word specifying a pitch corresponding to the amount of movement when moving the robot in a predetermined direction from a designated position; And a second word specifying a moving direction of the bot, wherein the operation command generation unit specifies the moving direction of the robot by the second word without the pitch specified by the first word being updated. If it is, an operation command is generated to move the robot in a specified direction at the specified
  • the voice recognition unit recognizes the voice of the operator input to the voice input unit.
  • the word extraction unit extracts a specific word that matches the word recognized by the speech recognition unit from the storage unit.
  • the operation instruction generation unit generates an operation instruction to the robot based on the operation information (designated command) associated with the specific word extracted by the specific word extraction unit.
  • the specific word includes, for example, a word specifying a pitch when moving the robot in a predetermined direction from a position specified by direct teaching, and a word specifying a moving direction of the robot.
  • the unit specifies the moving direction of the robot by the second word without the pitch specified by the first word being updated.
  • an operation command is generated to move the robot in a specified direction at a specified pitch.
  • the movement pitch can be designated by speech input (for example, utter "pitch 2 mm"), and then the movement direction of the robot can be designated (for example, utter "right, right, right, bottom") . Since the one utterance of the operator is shortened, the recognition accuracy of the speech recognition is improved.
  • the specific word further includes a third utterable word for moving the robot forward or backward at the designated pitch in the designated direction, and the operation command generator designates the first word by the first word.
  • the third word advances or retracts the robot in the designated direction at the designated pitch.
  • An operation command may be generated to move.
  • the specific word further includes the third word that is easy to speak
  • the word that is easy to speak is in the direction designated by the designated pitch.
  • the robot can be moved forward or backward. For example, it is assumed that "2 mm" is designated as the pitch and the direction is designated as "upper right 30 degrees”. Then, without the pitch and direction being updated, the robot moves 2 mm in the upper right direction when speaking "Go” once. Furthermore, without the pitch and direction being updated, the robot moves -2 mm in the upper right direction when speaking "back” once. That is, it moves 2 mm in the lower left 30 ° direction. Furthermore, without the pitch and direction being updated, the robot moves a total of 6 mm in the upper right direction when saying "Go, Go, Go". As described above, since the robot is moved forward or backward with words easy to speak, the recognition accuracy of speech recognition is improved.
  • the first word includes an ambiguity for specifying a pitch when moving the robot in a predetermined direction from a designated position
  • the storage unit stores the ambiguity in advance.
  • the unit corresponding to the ambiguous expression are stored in association with the ambiguous expression, and the operation command generation unit is configured to update the ambiguous expression without the movement direction designated by the second word being updated.
  • the robot may include a plurality of robot arms, and the specific word may further include a word specifying a robot arm to be moved among the plurality of robot arms.
  • the robot arm it is possible to specify the robot arm to be moved among the plurality of robot arms by speech (for example, “upper arm”, “lower arm”, “both arms”).
  • the above teaching device may be used when teaching the robot the operation by direct teaching.
  • the present invention has the configuration described above, and can improve speech recognition accuracy in an inching mode of a robot by speech input.
  • FIG. 1 is a block diagram showing the configuration of a robot teaching device according to an embodiment.
  • FIG. 2 is a table showing an example of specific words extracted by speech recognition.
  • FIG. 3 is a diagram showing the teaching operation of the robot.
  • FIG. 4 is a schematic view showing the flow of signals in the teaching operation of the robot.
  • FIG. 5 is a table showing other examples of specific words extracted by speech recognition.
  • FIG. 1 is a block diagram showing the configuration of a robot teaching apparatus according to an embodiment of the present invention.
  • the teaching device 1 is a robot teaching device for teaching the robot 3 an operation by direct teaching.
  • the teaching device 1 has a voice recognition function, and is configured of a teaching terminal communicably connected to the control device 4 of the robot.
  • the teaching device 1 is connected to a microphone (voice input unit) 2 for collecting a voice emitted by the operator 50.
  • the microphone 2 preferably comprises noise shielding means for reducing the input of voices other than the voice emitted by the operator 50.
  • noise shielding means a reflector that reflects the voice emitted from the mouth of the operator 50 and collects it in the microphone, and a soundproof member that blocks sound from directions other than the mouth of the operator 50 can be mentioned. Furthermore, it is also preferable to use a directional microphone that has high sensitivity to speech from the direction of the operator 50's mouth. Alternatively, a bone conduction microphone that collects bone conduction sound of the operator 50 is also suitably used. Such a microphone cuts off the noise in the place where the robot 3 is installed, such as a factory line, and collects the voice of the operator 50 in a clear manner.
  • the teaching device 1 includes a voice recognition unit 11 that recognizes an operator's voice input to the microphone 2, a storage unit 12 that stores in advance a specific word associated with an operation of the robot 3, and a storage unit 12. , A specific word extraction unit 13 for extracting a specific word that matches the word recognized by the speech recognition unit 11, and a robot based on operation information (a designated command) associated with the specific word extracted by the specific word extraction unit 13 And an operation command generation unit that generates an operation command to the control unit.
  • the teaching device 1 is a computer provided with one or more processors, a memory, an input / output interface, a communication interface, and the like.
  • the speech recognition unit 11, the specific word extraction unit 13, and the operation command generation unit 14 are functional blocks that are realized by execution of a predetermined program in the processor.
  • the storage unit 12 stores, in advance, a specific word extracted by speech recognition, various data such as commands related to robot operation associated with it, and other speech recognition processing programs.
  • FIG. 2 is a chart showing an example of a specific word extracted by speech recognition.
  • the specific word is associated with the operation of the robot 3.
  • the specific word “record” is associated with "generation command of movement instruction to current position” in the teaching mode.
  • the specific word “send” is associated with the “program transfer command of robot” generated in the teaching mode.
  • the specific word “start” is associated with the “program execution command” in the playback mode.
  • the specific word “pitch xxx mm” is associated with the "pitch designation command" in the inching mode.
  • corresponds to a numerical value.
  • the specific word “right (or left)” is associated with the “right or left movement direction designation command” of the robot in the inching mode.
  • the specific word “up (or down)” is associated with the “up or down movement direction designation command” of the robot in the inching mode.
  • the specific word “before (or after)” is associated with the “forward or backward movement direction designation command” of the robot in the inching mode.
  • the specific words “upper arm (or lower arm)” and “both arms” are associated with “target arm designation command” in the inching mode of the dual arm robot.
  • the specific word extraction unit 13 extracts, from the storage unit 12, a specific word that matches the word recognized by the speech recognition unit 11.
  • the operation command generation unit 14 generates an operation command to the robot based on the operation information (designated command) associated with the specific word extracted by the specific word extraction unit 13, and outputs this to the control device 4.
  • the robot 3 has one of a teaching mode for teaching an operation and a reproduction mode for automatically performing the taught operation based on an operation command from the control device 4.
  • the robot 3 is connected to the control device 4.
  • the control device 4 is a robot controller provided with an arithmetic processing unit, a servo amplifier, a memory, an input / output interface, a communication interface, and the like.
  • the control device 4 includes a direct teaching unit 21, an operation command generation unit 22, and a storage unit 23.
  • the direct teaching unit 21 detects the position or posture of the robot guided by the operator 50 in the teaching mode, and stores teaching information such as teaching points in the storage unit 23.
  • the motion command generation unit 22 transmits a signal for instructing the motion of the robot 3 to the robot 3 based on the operation command from the teaching device 1.
  • a signal for instructing the operation of the robot 3 is transmitted to the robot 3 in order to execute playback and the like of the instructed operation program.
  • the storage unit 23 stores teaching information such as an operation program generated in the teaching mode.
  • FIG. 3 is a view showing the teaching operation of the robot 3.
  • the robot 3 is a double arm robot provided with a pair of robot arms 31 supported by a base 30.
  • the robot 3 is installed in a limited space (for example, 610 mm ⁇ 620 mm) equivalent to one person.
  • the position and posture (each joint, the angle of the arm tip) of the robot arm 31 are manually operated by the operator 50.
  • the operator 50 is equipped with the microphone 2 for collecting the voice emitted by the operator 50 in freehand, so that the robot 3 can be operated by voice input.
  • the operator 50 grabs the tip of the robot arm 31 and moves the robot arm 31 to a desired position or takes a desired posture, and stores the position or posture at that time.
  • the speech recognition unit 11 in the teaching device 1 recognizes the speech of the operator 50 input to the microphone 2.
  • the specific word extraction unit 13 extracts a specific word that matches the word recognized by the speech recognition unit 11 from the storage unit 12 (see FIG. 2).
  • the “specific command of movement instruction to current position” associated with the specific word “record” is extracted from the storage unit 12 by the specific word extraction unit 13 and is output to the operation command generation unit 14.
  • the operation command generation unit 14 generates an operation command to the robot based on the “generation command of movement instruction to current position”, and outputs the operation command to the control device 4.
  • the control device 4 receives the operation command, and the current position or posture of the robot is stored in the storage unit 23.
  • the teaching device 1 of the present embodiment can execute an inching mode in which the robot is moved in a predetermined direction from the position and posture of the robot registered in direct teaching, by voice input.
  • the storage unit 12 stores a word specifying the pitch when moving the robot in a predetermined direction from the position designated by the direct teaching, and a word specifying the moving direction of the robot.
  • the specific word “pitch mm mm” is associated with the “pitch designation command” in the inching mode.
  • the specific word “right (or left)” is associated with the “right or left movement direction designation command” of the robot in the inching mode.
  • FIG. 4 is a schematic view showing the flow of signals in robot operation by voice input.
  • the voice recognition unit 11 recognizes the voice of the operator 50 input to the microphone 2.
  • the specific word extraction unit 13 extracts a specific word that matches the word recognized by the speech recognition unit 11 from the storage unit 12 (see FIG. 2).
  • the “word designation command” associated with the specific word “pitch ⁇ mm” is extracted from the storage unit 12 by the specific word extraction unit 13 and is output to the operation command generation unit 14.
  • the operation command generation unit 14 generates an operation command to the robot based on the “pitch designation command” and outputs the operation command to the control device 4.
  • the control device 4 receives the operation command and designates the pitch in the inching mode.
  • the designated pitch is stored in the storage unit 23.
  • the voice of the operator 50 input to the microphone 2 by the voice recognition unit 11 is Be recognized.
  • the specific word extraction unit 13 extracts a specific word that matches the word recognized by the speech recognition unit 11 from the storage unit 12 (see FIG. 2).
  • the “right movement direction designation command” associated with the specific word “right” is extracted three times from the storage unit 12 by the specific word extraction unit 13, the “word” is associated with the specific word “down”.
  • the lower movement direction designation command is extracted once, and is output to the operation command generation unit 14.
  • the operation command generation unit 14 generates an operation command to the robot based on the three “right movement direction specification commands” and one “down movement direction specification command”, and outputs the operation commands to the control device 4.
  • the control device 4 receives the operation command, refers to the pitch (2 mm) stored in the storage unit 23 based on the received operation command, and moves the robot 6 mm to the right and 2 mm downward in the inching mode. Do.
  • the operation command generation unit 14 moves the robot in the specified direction at the specified pitch. To generate an operation command.
  • the robot is directed in the direction uttered by one pitch at the pitch.
  • the specific word further includes an easy-to-speech word for moving the robot forward or backward at the designated pitch in the designated direction, and after the movement direction of the robot is designated, the easy-to-speech word is used.
  • the predetermined pitch may be moved in a designated direction.
  • FIG. 5 is a table showing other examples of specific words extracted by speech recognition.
  • the easy-to-speech word for moving the robot forward or backward is "go" or "back". These words are easy to be recognized as they are generated because they have one vowel.
  • 2 mm is specified as the pitch and the direction is specified as "upper right 30 degrees”.
  • the robot moves 2 mm in the upper right direction by uttering "Go” once without the pitch and direction being updated.
  • the robot moves -2 mm in the upper right direction when speaking "back” once.
  • the robot moves a total of 6 mm in the upper right direction when saying "Go, Go, Go".
  • the robot when the movement direction of the robot is specified without updating the specified pitch, the robot is moved in the specified direction at the specified pitch.
  • the pitch is designated without updating the movement direction, the robot may be moved at the designated pitch in the designated movement direction.
  • the robot may be moved at the designated pitch in the designated movement direction. For example, if the right direction is designated as the movement direction, and the operator utters the word "2 mm" without the movement direction being updated, an operation command to move 2 mm right may be generated. . Furthermore, if the operator utters the word "0.2 mm" without changing the moving direction, an operation command to move 0.2 mm to the right may be generated.
  • the word for specifying the pitch may be a word including a specific numerical value such as “2 mm” or “0.2 mm", or as shown in FIG. 5, "a little", “a little” or “a little more” It may be a word that includes an ambiguity such as "more”.
  • the words are registered (stored), and the relationship with the specific pitch (numerical value and unit thereof) corresponding to the words is also registered (stored). For example, words such as “Hey” and “Just” are registered (stored), and 2 mm and 0.2 mm are associated as pitches corresponding to these words. That is, the word “little” is associated with a pitch of 2 mm, and the word “very little” is associated with a pitch of 0.2 mm.
  • the robot arm to be moved may be specified by voice input in the inching mode.
  • the operator 50 can specify the robot arm 31 to be an object of inching by emitting either the “upper arm”, the “lower arm” or the “both arms”.
  • the teaching device 1 is for teaching the robot to the operation by direct teaching, but may be for teaching other robots.
  • the present invention is useful for teaching a robot.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

本発明のロボットの教示装置は、音声入力部と、音声認識部と、前記音声認識部により認識されたワードに一致する特定ワードを抽出する特定ワード抽出部と、前記特定ワード抽出部によって抽出された特定ワードに関連付けられた操作情報に基づいてロボットへの操作指令を生成する操作指令生成部と、を備える。前記特定ワードは、指定された位置から前記ロボットを所定方向に移動する場合の移動量に相当するピッチを特定する第1ワードと、前記ロボットの移動方向を特定する第2ワードと、を含む。前記操作指令生成部は、前記第1ワードによって指定されたピッチが更新されることなく、前記第2ワードによって前記ロボットの移動方向が指定された場合は、前記指定されたピッチで指定された方向に前記ロボットを移動するよう操作指令を生成する。

Description

ロボットの教示装置
 本発明は、ロボットの教示装置に関する。
 一般にロボットに作業を教示する方法としてダイレクト教示方式がある。このダイレクト教示方式では、作業者がロボットの先端をつかんで、ロボットを所望の位置に移動させ、あるいは所望の姿勢を取らせて、そのときの位置あるいは姿勢を記憶することによってロボットの動作を教示する。作業者は、ロボットを教示位置まで直接移動させる作業に加えて、ティーチングペンダントによる操作が必要である。ティーチングペンダントには、遠隔操作によってロボットを所望の方向に移動させるインチングモードがある。インチングモードでは、ティーチペンダントの操作キーを使用するため、作業者はロボットを見ながらティーチングペンダントも見なければならない。
 最近では、作業負担を軽減するために音声入力によりインチングを行うロボットの教示装置が提案されている(特許文献1及び特許文献2参照)。
特開2003-80482号公報 特開2005-88114号公報
 しかし、上記従来技術では、ティーチングペンダントを使わずに音声でインチングを行う場合、作業者は例えば「X軸プラス方向6mm」、「Z軸マイナス方向2mm」等と発話することになる。一般に音声認識率は、長い音声ほど認識に時間を要し、エラーも多くなるという傾向がある。
 本発明は上記のような課題を解決するためになされたもので、音声入力によるロボットのインチングモードにおいて音声認識精度を向上させることを目的とする。
 上記目的を達成するために、本発明のある形態に係るロボットの教示装置は、ロボットに動作を教示するためのロボットの教示装置であって、操作者の音声を入力する音声入力部と、前記音声入力部に入力された操作者の音声を認識する音声認識部と、予め、前記ロボットの操作に関連付けられた特定ワードを記憶しておく記憶部と、前記記憶部から、前記音声認識部により認識されたワードに一致する特定ワードを抽出する特定ワード抽出部と、前記特定ワード抽出部によって抽出された特定ワードに関連付けられた操作情報に基づいてロボットへの操作指令を作成する操作指令生成部と、を備え、前記特定ワードは、指定された位置から前記ロボットを所定方向に移動する場合の移動量に相当するピッチを特定する第1ワードと、前記ロボットの移動方向を特定する第2ワードと、を含み、前記操作指令生成部は、前記第1ワードによって指定されたピッチが更新されることなく、前記第2ワードによって前記ロボットの移動方向が指定された場合は、前記指定されたピッチで指定された方向に前記ロボットを移動するよう操作指令を生成する。
 上記構成によれば、例えばインチングモードにおいて、操作者が音声入力部(例えばマイク)に向かって音声を発すると、音声認識部により、音声入力部に入力された操作者の音声が認識され、特定ワード抽出部により、記憶部から、音声認識部により認識されたワードに一致する特定ワードが抽出される。操作指令生成部により、特定ワード抽出部によって抽出された特定ワードに関連付けられた操作情報(指定コマンド)に基づいてロボットへの操作指令が生成される。ここで特定ワードは、例えばダイレクト教示によって指定された位置からロボットを所定方向に移動する場合のピッチを特定するワードと、ロボットの移動方向を特定するワードと、を含んでいるので、特定ワード抽出部により、第1ワードに続いて第2ワードが抽出された場合、第1ワードによって指定されたピッチが更新されることなく、第2ワードによりロボットの移動方向が指定される。この場合は、指定されたピッチで指定された方向にロボットを移動するよう操作指令が生成される。これにより、音声入力により、移動ピッチを指定し(例えば「ピッチ2mm」と発話する)、その後、ロボットの移動方向を指定することができる(例えば「右、右、右、下」と発話する)。オペレータの一回の発話が短くなるので、音声認識の認識精度が向上する。
 前記特定ワードは、前記指定された方向に前記指定されたピッチでロボットを前進移動又は後退移動させるための発話容易な第3ワードを更に含み、前記操作指令生成部は、前記第1ワードによって指定されたピッチが更新されることなく、前記第2ワードによって前記ロボットの移動方向が指定された場合は、前記指定されたピッチで指定された方向に、前記第3ワードによってロボットを前進移動又は後退移動するよう操作指令を生成するようにしてもよい。
 上記構成によれば、特定ワードが発話容易な第3ワードを更に含んでいるので、ロボットの移動方向が指定された後は、この発話容易なワードによって、指定されたピッチで指定された方向にロボットを前進移動又は後退移動することができる。例えば、ピッチとして「2mm」が指定され、かつ、方向が「右上30度」と指定されたとする。そしてそれらピッチと方向が更新されることなく、「ゴー」と一回発話するとロボットは右上方向に2mm移動する。さらにピッチと方向が更新されることなく、「バック」と一回発話するとロボットは右上方向に-2mm移動する。つまり左下30度方向に2mm移動する。さらにピッチと方向が更新されることなく、「ゴー、ゴー、ゴー」と発話するとロボットは右上方向に合計6mm移動する。このように発話容易なワードでロボットを前進移動又は後退移動させるので、音声認識の認識精度が向上する。
 また、前記第1ワードは、指定された位置から前記ロボットを所定方向に移動する場合のピッチを特定するための曖昧な表現(ambiguity)を含み、前記記憶部には、予め、前記曖昧な表現に対応する数値およびその単位が、当該曖昧な表現に関連付けられて記憶されており、前記操作指令生成部は、前記第2ワードにより指定された移動方向が更新されることなく、前記曖昧な表現に対応する数値及びその単位によって前記ロボットのピッチが指定された場合は、前記指定された移動方向に指定されたピッチで前記ロボットを移動するよう操作指令を生成するようにしてもよい。
 前記ロボットは、複数のロボットアームを備え、前記特定ワードは、前記複数のロボットアームのうち移動対象となるロボットアームを特定するワードを更に含んでもよい。
 上記構成によれば、発話により、複数のロボットアームのうち移動対象となるロボットアームを特定することができる(例えば「上アーム」「下アーム」、「両アーム」)。
 尚、上記教示装置は、ダイレクト教示によってロボットに動作を教示する場合に使用されてもよい。
 本発明は、以上に説明した構成を有し、音声入力によるロボットのインチングモードにおいて音声認識精度を向上することができる。
図1は、一実施形態に係るロボットの教示装置の構成を示すブロック図である。 図2は、音声認識により抽出される特定ワードの一例を示す表である。 図3は、ロボットの教示作業の様子を示す図である。 図4は、ロボットの教示作業における信号の流れを示す概略図である。 図5は、音声認識により抽出される特定ワードのその他の例を示す表である。
 以下、好ましい実施形態を、図面を参照しながら説明する。なお、以下では全ての図面を通じて同一または相当する要素には同一の参照符号を付して、その重複する説明を省略する。また、図面は理解しやすくするために、それぞれの構成要素を模式的に示したものである。
 図1は、本発明の一実施形態に係るロボットの教示装置の構成を示すブロック図である。教示装置1は、ダイレクト教示によってロボット3に動作を教示するためのロボットの教示装置である。本実施形態では、教示装置1は、音声認識機能を備え、ロボットの制御装置4と通信可能に接続された教示用端末で構成される。教示装置1は、オペレータ50の発する声を集音するマイク(音声入力部)2に接続されている。マイク2は、オペレータ50が発する声以外の音声の入力を低減する雑音遮蔽手段を備えることが好ましい。そうした雑音遮蔽手段として、オペレータ50の口から発せられる声を反射してマイクに集める反射板、オペレータ50の口以外の方向からの音を遮る防音部材が挙げられる。さらに、オペレータ50の口の方向からの音声に高い感度を有する指向性マイクを使用することも好ましい。あるいは、オペレータ50の骨導音を集音する骨伝導マイクも好適に用いられる。こうしたマイクは、工場のラインなどロボット3が設置される場所における騒音をカットしてオペレータ50の声をクリアに集音する。
 教示装置1は、マイク2に入力された操作者の音声を認識する音声認識部11と、予め、ロボット3の操作に関連付けられた特定ワードを記憶しておく記憶部12と、記憶部12から、音声認識部11により認識されたワードに一致する特定ワードを抽出する特定ワード抽出部13と、特定ワード抽出部13によって抽出された特定ワードに関連付けられた操作情報(指定コマンド)に基づいてロボットへの操作指令を作成する操作指令生成部14と、を備える。ここで教示装置1は、1以上のプロセッサ、メモリ、入出力インタフェース、通信インタフェース等を備えたコンピュータである。音声認識部11、特定ワード抽出部13,操作指令生成部14は、プロセッサにおいて、所定のプログラムが実行されることによって、実現される機能ブロックである。
 記憶部12は、予め、音声認識により抽出される特定ワードと、それに関連付けられたロボット操作に関するコマンド等の各種データ、その他音声認識処理プログラムを記憶しておく。図2は、音声認識により抽出される特定ワードの一例を示すチャートである。図2に示すように、特定ワードは、ロボット3の操作に関連付けられている。例えば「レコード」という特定ワードは、教示モードにおける「現在位置への移動命令の生成コマンド」に関連付けられている。「送信」という特定ワードは、教示モードにおいて生成された「ロボットのプログラム転送コマンド」に関連付けられている。「開始」という特定ワードは、再生モードにおける「プログラム実行コマンド」に関連付けられている。「ピッチ○○mm」という特定ワードは、インチングモードにおける「ピッチ指定コマンド」に関連付けられている。ダイレクト教示によって指定された位置からロボットを所定方向に移動する場合のピッチを特定するワードである。○○は数値が相当する。「右(又は左)」という特定ワードは、インチングモードにおけるロボットの「右又は左の移動方向の指定コマンド」に関連付けられている。「上(又は下)」という特定ワードは、インチングモードにおけるロボットの「上又は下の移動方向の指定コマンド」に関連付けられている。「前(又は後)」という特定ワードは、インチングモードにおけるロボットの「前又は後の移動方向の指定コマンド」に関連付けられている。「上アーム(又は下アーム)」や「両アーム」という特定ワードは、双腕ロボットのインチングモードにおける「対象アームの指定コマンド」に関連付けられている。
 特定ワード抽出部13は、記憶部12から、音声認識部11により認識されたワードに一致する特定ワードを抽出する。操作指令生成部14は、特定ワード抽出部13によって抽出された特定ワードに関連付けられた操作情報(指定コマンド)に基づいてロボットへの操作指令を生成し、これを制御装置4に出力する。
 ロボット3は、制御装置4からの操作指令に基づいて、動作を教示するための教示モードと、教示された動作を自動的に行うための再生モードとのいずれかのモードを有する。ロボット3は、制御装置4に接続されている。制御装置4は、演算処理器、サーボアンプ、メモリ、入出力インタフェース、通信インタフェース等を備えたロボットコントローラである。制御装置4は、ダイレクト教示部21、動作指令生成部22及び記憶部23を備える。ダイレクト教示部21は、教示モードにおいてオペレータ50によって導かれたロボットの位置又は姿勢を検出して教示点等の教示情報を記憶部23に記憶する。動作指令生成部22は、教示モードでは教示装置1からの操作指令に基づいて、ロボット3の動作を指令する信号をロボット3に送信する。再生モードでは教示された動作プログラムのプレイバック等を実行すべくロボット3の動作を指令する信号をロボット3に送信する。記憶部23は、教示モードにおいて生成された動作プログラム等の教示情報を記憶する。
 次に、教示装置1によるロボット3のダイレクト教示について説明する。図3は、ロボット3の教示作業の様子を示す図である。図3に示すように、ロボット3は、ベース30に支持された一対のロボットアーム31,31を備えた双腕ロボットである。ロボット3は、人一人分に相当する限られたスペース(例えば610mm×620mm)に設置される。教示モードにおいて、ロボットアーム31の位置と姿勢(各関節、アーム先端の角度)とはオペレータ50により手動で操作される。また、本実施形態では、オペレータ50は、オペレータ50の発する声をフリーハンドで集音するマイク2を装着しているので、音声入力によりロボット3の操作を行うことができる。
 オペレータ50はロボットアーム31の先端をつかんで、ロボットアーム31を所望の位置に移動させ、あるいは所望の姿勢を取らせて、そのときの位置あるいは姿勢を記憶する。このとき、オペレータ50は、「レコード」という文字を発すると、教示装置1において、音声認識部11により、マイク2に入力されたオペレータ50の音声が認識される。特定ワード抽出部13により、記憶部12から、音声認識部11により認識されたワードに一致する特定ワードが抽出される(図2参照)。ここでは特定ワード抽出部13によって、記憶部12から、特定ワード「レコード」に関連付けられた「現在位置への移動命令の生成コマンド」が抽出され、操作指令生成部14に出力される。操作指令生成部14により、「現在位置への移動命令の生成コマンド」に基づいてロボットへの操作指令が生成され、制御装置4に出力される。制御装置4によって、操作指令が受信され、ロボットの現在位置あるいは姿勢が記憶部23に記憶される。
 また、本実施形態の教示装置1は、音声入力により、ダイレクト教示において登録されたロボットの位置及び姿勢から所定方向に移動させるインチングモードを実行することができる。記憶部12には、ダイレクト教示によって指定された位置からロボットを所定方向に移動する場合のピッチを特定するワードと、ロボットの移動方向を特定するワードとが記憶されている。図2に示すように、「ピッチ○○mm」という特定ワードは、インチングモードにおける「ピッチ指定コマンド」に関連付けられている。「右(又は左)」という特定ワードは、インチングモードにおけるロボットの「右又は左の移動方向の指定コマンド」に関連付けられている。
 図4は、音声入力によるロボット操作における信号の流れを示す概略図である。図4に示すように、オペレータ50は、「ピッチ2mm」という文字を発すると、教示装置1において、音声認識部11により、マイク2に入力されたオペレータ50の音声が認識される。特定ワード抽出部13により、記憶部12から、音声認識部11により認識されたワードに一致する特定ワードが抽出される(図2参照)。ここでは特定ワード抽出部13によって、記憶部12から、特定ワード「ピッチ○○mm」に関連付けられた「ピッチ指定コマンド」が抽出され、操作指令生成部14に出力される。操作指令生成部14により、「ピッチ指定コマンド」に基づいてロボットへの操作指令が生成され、制御装置4に出力される。制御装置4によって、操作指令が受信され、インチングモードにおけるピッチが指定される。指定されたピッチは、記憶部23に記憶される。
 次に、オペレータ50は、「右」、「右」、「右」、「下」という文字を発すると、教示装置1において、音声認識部11により、マイク2に入力されたオペレータ50の音声が認識される。特定ワード抽出部13により、記憶部12から、音声認識部11により認識されたワードに一致する特定ワードが抽出される(図2参照)。ここでは特定ワード抽出部13によって、記憶部12から、特定ワード「右」に関連付けられた「右の移動方向の指定コマンド」が3回抽出された後、特定ワード「下」に関連付けられた「下の移動方向の指定コマンド」が1回抽出され、それらが操作指令生成部14に出力される。
 操作指令生成部14により、3つの「右の移動方向の指定コマンド」および1つの「下の移動方向の指定コマンド」に基づいてロボットへの操作指令が生成され、制御装置4に出力される。制御装置4は、操作指令を受信し、受信した操作指令に基づいて、記憶部23に記憶されたピッチ(2mm)を参照し、インチングモードにおいてロボットが右方向に6mm、下方向に2mmだけ移動する。このように、操作指令生成部14は、特定されたピッチ(2mm)が更新されることなく、ロボットの移動方向が特定された場合は、特定されたピッチで特定された方向にロボットを移動するよう操作指令を生成する。
 従って、本実施形態によれば、音声入力によるインチングモードにおいて、オペレータ50の一回の発話が短くなるので、音声認識の認識精度が向上する。
 尚、本実施形態では、一旦ピッチが指定された後、そのピッチが更新されることなく、方向を表すワードのみが発話された場合は、そのピッチで1ピッチ分だけ発話された方向にロボットが移動する。しかし、方向を表すワードが繰り返して発話するのが困難である場合がある。例えば、「右」であれば繰り返して発話することも困難ではないが、「右上30度」というワードであれば繰り返し発話することが困難である。
 そこで、特定ワードが、指定された方向に指定されたピッチでロボットを前進移動又は後退移動させるための発話容易なワードを更に含み、ロボットの移動方向が指定された後は、発話容易なワードによって、指定された方向に所定ピッチ移動するようにしてもよい。
 図5は、音声認識により抽出される特定ワードのその他の例を示す表である。図5に示すように、ロボットを前進移動又は後退移動させるための発話容易なワードは、「前進(go)又は後退(back)」である。これらのワードは、母音が1つであるので、発生時に音声認識され易い。例えばピッチとして2mmが指定され、かつ、方向が「右上30度」と指定されたとする。そして、それらピッチと方向が更新されることなく、「ゴー」と一回発話するとロボットは右上方向に2mm移動する。さらにピッチと方向が更新されることなく、「バック」と一回発話するとロボットは右上方向に-2mm移動する。(つまり左下30度方向に2mm移動する)。さらにピッチと方向が更新されることなく、「ゴー、ゴー、ゴー」と発話するとロボットは右上方向に合計6mm移動する。
 つまり、操作者が「ゴー」というワードを発話し教示装置がそれを認識すると、すでに指定された方向にすでに指定されたピッチで1ピッチ分だけ移動させる操作指令が生成される。また操作者が「バック」というワードを発話し教示装置1(音声認識部11)がそれを認識すると、すでに指定された方向と反対の方向にすでに指定されたピッチで1ピッチ分だけ移動させる操作指令が生成される。このように発話容易なワードでロボットを前進移動又は後退移動させるので、音声認識の認識精度が向上する。
 尚、本実施形態では、指定されたピッチが更新されることなく、ロボットの移動方向が指定された場合は、指定されたピッチで指定された方向にロボットを移動するようにしたが、指定された移動方向が更新されることなくピッチが指定された場合は、指定された移動方向に指定されたピッチでロボットを移動させるようにしてもよい。例えば移動方向として右方向が指定されており、その移動方向が更新されることなく操作者が「2mm」というワードを発話すれば、右方向に2mm移動させるような操作指令が生成されてもよい。さらに移動方向が変更されることなく操作者が「0.2mm」というワードを発話すれば、右方向に0.2mm移動させるような操作指令が生成されてもよい。
 ピッチを特定するためのワードは、「2mm」や「0.2mm」という具体的な数値を含むワードでもよいし、図5に示すように、「ちょっと」や「ほんのちょっと」や「あと少し」や「もう少し」という曖昧な表現(ambiguity)を含むワードでもよい。それらのワードは登録(記憶)されており、それらのワードに対応する具体的なピッチ(数値及びその単位)との関係も登録(記憶)されている。たとえば「ちょっと」や「ほんのちょっと」というワードが登録(記憶)されておりそれらのワードに対応するピッチとして2mmと0.2mmが関連付けられている。つまり、「ちょっと」というワードは2mmのピッチに関係付けられており、「ほんのちょっと」というワードは0.2mmのピッチに関係付けられている。たとえば移動方向として右方向がすでに指定されており、その移動方向が更新されることなくオペレータが「ちょっと」というワードを発話すれば、右方向に2mm移動させるような操作指令が生成される。さらに移動方向が変更されることなく操作者が「ほんのちょっと」というワードを発話すれば、右方向に0.2mm移動させるような操作指令が生成される。さらに移動方向が変更されることなく操作者が「ちょっと、ほんのちょっと、ほんのちょっと」と発話すれば、ロボットは右方向に合計2.4mm移動する。人間同士の日常会話では曖昧な表現を用いて様々な程度を表すことが多い。このため、オペレータは具体的な数値よりも曖昧な表現(ambiguity)を含むワードの方が直感的にピッチを指定し易い。
 尚、ロボット3は、2本のロボットアーム31を備えた双腕ロボットであるので、インチングモードにおいて、音声入力により移動対象となるロボットアームを特定してもよい。例えばオペレータ50は、「上アーム」、「下アーム」又は「両アーム」のいずれかを発することにより、インチングの対象となるロボットアーム31を特定することができる。
 尚、本実施形態では、教示装置1は、ダイレクト教示によってロボットに動作を教示するためのものであったが、その他のロボット教示のためのものであってもよい。
 上記説明から、当業者にとっては、本発明の多くの改良や他の実施形態が明らかである。従って、上記説明は、例示としてのみ解釈されるべきであり、本発明を実行する最良の態様を当業者に教示する目的で提供されたものである。本発明の精神を逸脱することなく、その構造および/または機能の詳細を実質的に変更できる。
 本発明は、ロボットのティーチングに有用である。
1 教示装置
2 マイク(音声入力部)
3 ロボット
4 制御装置(ロボットコントローラ)
11 音声認識部
12 記憶部
13 特定ワード抽出部
14 操作指令生成部
21 ダイレクト教示部
22 動作指令部
23 記憶部
31 ロボットアーム
50 オペレータ

Claims (5)

  1.  ロボットに動作を教示するためのロボットの教示装置であって、
     操作者の音声を入力する音声入力部と、
     前記音声入力部に入力された操作者の音声を認識する音声認識部と、
     予め、前記ロボットの操作に関連付けられた特定ワードを記憶しておく記憶部と、
     前記記憶部から、前記音声認識部により認識されたワードに一致する特定ワードを抽出する特定ワード抽出部と、
     前記特定ワード抽出部によって抽出された特定ワードに関連付けられた操作情報に基づいてロボットへの操作指令を生成する操作指令生成部と、を備え、
     前記特定ワードは、指定された位置から前記ロボットを所定方向に移動する場合の移動量に相当するピッチを特定する第1ワードと、前記ロボットの移動方向を特定する第2ワードと、を含み、
     前記操作指令生成部は、前記第1ワードによって指定されたピッチが更新されることなく、前記第2ワードによって前記ロボットの移動方向が指定された場合は、前記指定されたピッチで指定された方向に前記ロボットを移動するよう操作指令を生成する、ロボットの教示装置。
  2.  前記特定ワードは、前記指定された移動方向に前記指定されたピッチでロボットを前進移動又は後退移動させるための発話容易な第3ワードを更に含み、
     前記操作指令生成部は、前記第1ワードによって指定されたピッチが更新されることなく、前記第2ワードによって前記ロボットの移動方向が指定された場合は、前記指定されたピッチで指定された方向に、前記第3ワードによってロボットを前進移動又は後退移動するよう操作指令を生成する、請求項1に記載のロボットの教示装置。
  3.  前記第1ワードは、指定された位置から前記ロボットを所定方向に移動する場合のピッチを特定するための曖昧な表現(ambiguity)を含み、
     前記記憶部には、予め、前記曖昧な表現に対応する数値およびその単位が、当該曖昧な表現に関連付けられて記憶されており、
     前記操作指令生成部は、前記第2ワードにより指定された移動方向が更新されることなく、前記曖昧な表現に対応する数値及びその単位によって前記ロボットのピッチが指定された場合は、前記指定された移動方向に指定されたピッチで前記ロボットを移動するよう操作指令を生成する、請求項1又は2に記載のロボットの教示装置。
  4.  前記ロボットは、複数のロボットアームを備え、
     前記特定ワードは、前記複数のロボットアームのうち移動対象となるロボットアームを特定するワードを更に含む、請求項1乃至3のいずれか一項に記載のロボットの教示装置。
  5.  ダイレクト教示によってロボットに動作を教示する、請求項1乃至4のいずれか一項に記載のロボットの教示装置。
PCT/JP2019/001825 2018-01-25 2019-01-22 ロボットの教示装置 WO2019146586A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP19743361.8A EP3744483A4 (en) 2018-01-25 2019-01-22 ROBOT TRAINING DEVICE
CN201980010023.1A CN111867789A (zh) 2018-01-25 2019-01-22 机器人的示教装置
US16/939,496 US20200353614A1 (en) 2018-01-25 2020-07-27 Teaching device for robot

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2018-010445 2018-01-25
JP2018010445 2018-01-25
JP2018097118A JP2019126902A (ja) 2018-01-25 2018-05-21 ロボットの教示装置
JP2018-097118 2018-05-21

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/939,496 Continuation US20200353614A1 (en) 2018-01-25 2020-07-27 Teaching device for robot

Publications (1)

Publication Number Publication Date
WO2019146586A1 true WO2019146586A1 (ja) 2019-08-01

Family

ID=67394660

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/001825 WO2019146586A1 (ja) 2018-01-25 2019-01-22 ロボットの教示装置

Country Status (1)

Country Link
WO (1) WO2019146586A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022249226A1 (ja) * 2021-05-24 2022-12-01 三菱電機株式会社 ロボット教示装置、ロボット制御システム、ロボット教示方法、及びロボット教示プログラム

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60156111A (ja) * 1983-09-30 1985-08-16 アセア・アクチボラグ 産業用ロボツト
JPS6390298A (ja) * 1986-10-03 1988-04-21 Sumitomo Heavy Ind Ltd クレ−ンの音声遠隔制御装置
JPH0740264A (ja) * 1993-08-05 1995-02-10 Sumitomo Heavy Ind Ltd 3次元運動指示装置
JP2000099306A (ja) * 1998-05-28 2000-04-07 Canon Inc 制御装置およびその制御方法およびその動作処理を実行するプログラムを記憶した記憶媒体
JP2000356999A (ja) * 1999-06-16 2000-12-26 Ishikawajima Harima Heavy Ind Co Ltd 音声によるコマンド入力装置及び方法
JP2001322079A (ja) * 2000-05-15 2001-11-20 Sony Corp 脚式移動ロボット及びその動作教示方法
US6519566B1 (en) * 2000-03-01 2003-02-11 International Business Machines Corporation Method for hands-free operation of a pointer
JP2003080482A (ja) 2001-09-07 2003-03-18 Yaskawa Electric Corp ロボット教示装置
JP2005059185A (ja) * 2003-08-19 2005-03-10 Sony Corp ロボット装置及びその制御方法
JP2005088114A (ja) 2003-09-16 2005-04-07 Yaskawa Electric Corp ロボットの直接教示装置
JP2006289543A (ja) * 2005-04-08 2006-10-26 Mitsubishi Heavy Ind Ltd ロボット教示装置
US20140372116A1 (en) * 2013-06-13 2014-12-18 The Boeing Company Robotic System with Verbal Interaction

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60156111A (ja) * 1983-09-30 1985-08-16 アセア・アクチボラグ 産業用ロボツト
JPS6390298A (ja) * 1986-10-03 1988-04-21 Sumitomo Heavy Ind Ltd クレ−ンの音声遠隔制御装置
JPH0740264A (ja) * 1993-08-05 1995-02-10 Sumitomo Heavy Ind Ltd 3次元運動指示装置
JP2000099306A (ja) * 1998-05-28 2000-04-07 Canon Inc 制御装置およびその制御方法およびその動作処理を実行するプログラムを記憶した記憶媒体
JP2000356999A (ja) * 1999-06-16 2000-12-26 Ishikawajima Harima Heavy Ind Co Ltd 音声によるコマンド入力装置及び方法
US6519566B1 (en) * 2000-03-01 2003-02-11 International Business Machines Corporation Method for hands-free operation of a pointer
JP2001322079A (ja) * 2000-05-15 2001-11-20 Sony Corp 脚式移動ロボット及びその動作教示方法
JP2003080482A (ja) 2001-09-07 2003-03-18 Yaskawa Electric Corp ロボット教示装置
JP2005059185A (ja) * 2003-08-19 2005-03-10 Sony Corp ロボット装置及びその制御方法
JP2005088114A (ja) 2003-09-16 2005-04-07 Yaskawa Electric Corp ロボットの直接教示装置
JP2006289543A (ja) * 2005-04-08 2006-10-26 Mitsubishi Heavy Ind Ltd ロボット教示装置
US20140372116A1 (en) * 2013-06-13 2014-12-18 The Boeing Company Robotic System with Verbal Interaction

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3744483A4 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022249226A1 (ja) * 2021-05-24 2022-12-01 三菱電機株式会社 ロボット教示装置、ロボット制御システム、ロボット教示方法、及びロボット教示プログラム
JPWO2022249226A1 (ja) * 2021-05-24 2022-12-01
JP7272521B2 (ja) 2021-05-24 2023-05-12 三菱電機株式会社 ロボット教示装置、ロボット制御システム、ロボット教示方法、及びロボット教示プログラム

Similar Documents

Publication Publication Date Title
US7260529B1 (en) Command insertion system and method for voice recognition applications
Poncela et al. Command-based voice teleoperation of a mobile robot via a human-robot interface
JP2009241166A (ja) ロボット遠隔操作システム
WO2002091356A1 (fr) Dispositif robot, appareil de reconnaissance de caracteres, procede de lecture de caracteres, programme de commande et support d'enregistrement
WO2002045916A1 (fr) Robot, procede de commande du mouvement d'un robot et systeme de commande du mouvement d'un robot
JPWO2005057549A1 (ja) 情報処理システム、情報処理方法および情報処理用プログラム
WO2019146586A1 (ja) ロボットの教示装置
Sharan et al. Implementation and testing of voice control in a mobile robot for navigation
JP2019126902A (ja) ロボットの教示装置
US11580972B2 (en) Robot teaching device
JP4452207B2 (ja) ロボット教示装置
JP4433273B2 (ja) ロボット装置及びロボット装置の制御方法
JP4600736B2 (ja) ロボット制御装置および方法、記録媒体、並びにプログラム
JP2004283927A (ja) ロボット制御装置および方法、記録媒体、並びにプログラム
JP4706893B2 (ja) 音声認識装置および方法、並びに、プログラムおよび記録媒体
JP2010188429A (ja) 道案内ロボット
JP5610283B2 (ja) 外部機器制御装置、その外部機器制御方法及びプログラム
JP2002268663A (ja) 音声合成装置および音声合成方法、並びにプログラムおよび記録媒体
Nguyen et al. Control of autonomous mobile robot using voice command
JP4735965B2 (ja) 遠隔地間対話システム
JP2019150893A (ja) ロボット制御システム、ロボット制御方法およびロボット制御プログラム
JP2018537734A (ja) ファクトリーオートメーションシステムおよびリモートサーバ
JP2002258886A (ja) 音声合成装置および音声合成方法、並びにプログラムおよび記録媒体
Gallardo-Estrella et al. Human/robot interface for voice teleoperation of a robotic platform
WO2023139770A1 (ja) 文法作成支援装置、及びコンピュータが読み取り可能な記憶媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19743361

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019743361

Country of ref document: EP

Effective date: 20200825