JP2013136131A - ロボットの制御方法、ロボットの制御装置、及びロボット - Google Patents

ロボットの制御方法、ロボットの制御装置、及びロボット Download PDF

Info

Publication number
JP2013136131A
JP2013136131A JP2011288958A JP2011288958A JP2013136131A JP 2013136131 A JP2013136131 A JP 2013136131A JP 2011288958 A JP2011288958 A JP 2011288958A JP 2011288958 A JP2011288958 A JP 2011288958A JP 2013136131 A JP2013136131 A JP 2013136131A
Authority
JP
Japan
Prior art keywords
command
robot
user
recognized
exercise
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011288958A
Other languages
English (en)
Other versions
JP5776544B2 (ja
Inventor
Takatada Yamaguchi
宇唯 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2011288958A priority Critical patent/JP5776544B2/ja
Publication of JP2013136131A publication Critical patent/JP2013136131A/ja
Application granted granted Critical
Publication of JP5776544B2 publication Critical patent/JP5776544B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Manipulator (AREA)

Abstract

【課題】ユーザの意図しない動作を確実に防止できるロボット制御方法、ロボット制御装置、及びロボットを提供すること。
【解決手段】本発明にかかるロボットの制御方法は、ユーザから入力されたコマンドに基づいて動作するロボットの制御方法である。まず、コマンド処理部13が、ユーザから入力されたコマンドを認識する。コマンド処理部13は、認識したコマンドが物理的な動作を伴う運動コマンドであるか否かを判定する。そして、コマンド処理部13は、判定結果に基づいて、認識したコマンドを実行するか否かをユーザに確認する。
【選択図】図4

Description

本発明はロボットの制御方法、ロボットの制御装置、及びロボットに関する。
近年、遠隔操作により動作するロボットが普及している。ユーザは、様々な入力方法(例えば、音声、タッチパネル、押しボタン、ジェスチャー等)を用いて、ロボットに対してコマンド入力(命令)を行う。
特許文献1には、音声認識により動作するロボットが開示されている。ロボットは、音声の誤認識により誤って実行されると危険な危険コマンドを記憶し、危険コマンドに類似する棄却単語を有する。これにより、危険コマンドの誤認識を防止し、音声認識の精度の向上を図っている。
特許第4539313号
しかしながら、ロボットがユーザからのコマンドを誤認識したり、ユーザがコマンドを誤入力したりした場合、誤ったコマンドが実行される。つまり、ロボットは、ユーザの意図しない動作を行ってしまうという問題があった。特に、ロボットが物理的な動作を伴うコマンドを誤って実行した場合には、周囲の迷惑となってしまう恐れもある。
なお、特許文献1に記載のロボットは、棄却単語を用いることにより、意図しない危険コマンドの実行を防止しているが、音声認識処理の精度が十分でなければ、棄却すべき棄却単語を危険コマンドとして誤認識してしまう可能性がある。つまり、誤って危険コマンドを実行してしまう可能性がある。したがって、棄却単語を用いたとしても意図しない動作を確実に排除することができない。
本発明は、このような問題を解決するためになされたものであり、ユーザの意図しない動作を確実に防止できるロボットの制御方法、ロボットの制御装置、及びロボットを提供することを目的とする。
本発明の一態様にかかるロボットの制御方法は、ユーザから入力されたコマンドに基づいて動作するロボットの制御方法であって、前記ユーザから入力された前記コマンドを認識するステップと、認識した前記コマンドが物理的な動作を伴う運動コマンドであるか否かを判定するステップと、判定結果に基づいて、認識した前記コマンドを実行するか否かを前記ユーザに確認するステップと、を備えるものである。これにより、運動コマンドが実行される場合には、ユーザに対して確認処理が行われる。そのため、ロボットの誤認識やユーザの誤入力が発生した場合であっても、ユーザが意図しない運動コマンドが実行することを確実に防止できる。
また、前記運動コマンドが予め格納されたコマンドデータベースを参照して、認識した前記コマンドが前記運動コマンドであるか否かを判定してもよい。
また、前記ロボットが有するモータの制御が行われるか否かに応じて、認識した前記コマンドが前記運動コマンドであるか否かを判定してもよい。これにより、運動コマンドか否かを示す情報を予め保持しておく必要がなくなり、メモリコストが削減できる。
また、認識した前記コマンドに応じて前記モータの回転数を低下させる制御が行われる場合、認識した前記コマンドを実行するか否かの確認を行わず、認識した前記コマンドを実行してもよい。これにより、減速動作等の回転数を低下させる動作については、確認処理が行われない。つまり、緊急停止等のコマンドについては確認なしで実行されるため、非常時において迅速な動作が可能となる。
また、前記ユーザからの前記コマンドの入力は、前記ロボットとは物理的に離れた端末を用いて行われてもよい。
また、認識した前記コマンドを実行するか否かの確認は、前記端末に設けられた表示部に確認画面を表示することによって行われてもよい。
また、前記ロボットの周囲の環境を認識するステップをさらに備え、認識した前記ロボットの周囲環境及び前記判定結果に基づいて、認識した前記コマンドを実行するか否かを前記ユーザに確認してもよい。これにより、ユーザが意図しない運動コマンドが実行されても、周囲に影響が無い状況では、ユーザに対して確認を行わない。そのため、ロボット制御の利便性が向上する。
また、現在時刻を取得するステップをさらに備え、取得した前記現在時刻及び前記判定結果に基づいて、認識した前記コマンドを実行するか否かを前記ユーザに確認してもよい。これにより、ユーザが意図しない運動コマンドが実行されても影響が無い時間帯では、ユーザに対して確認を行わない。そのため、ロボット制御の利便性が向上する。
本発明の一態様にかかるロボットの制御装置は、ユーザから入力されたコマンドに基づいて動作するロボットの制御装置であって、前記ユーザから入力された前記コマンドを認識するコマンド認識手段と、前記コマンド認識手段により認識された前記コマンドが物理的な動作を伴う運動コマンドであるか否かを判定する判定手段と、前記判定手段の判定結果に基づいて、認識した前記コマンドを実行するか否かを前記ユーザに確認する確認手段と、を備えるものである。これにより、運動コマンドが実行される場合には、ユーザに対して確認処理が行われる。そのため、ロボットの誤認識やユーザの誤入力が発生した場合であっても、ユーザが意図しない運動コマンドが実行することを確実に防止できる。
本発明の一態様にかかるロボットは、モータを備え、当該モータを駆動させることにより、物理的な動作を伴う運動コマンドを実行可能なロボットであって、ユーザから入力されたコマンドを認識するコマンド認識手段と、前記コマンド認識手段により認識された前記コマンドが前記運動コマンドであるか否かを判定する判定手段と、前記判定手段の判定結果に基づいて、認識した前記コマンドを実行するか否かを前記ユーザに確認する確認手段と、を備えるものである。これにより、運動コマンドが実行される場合には、ユーザに対して確認処理が行われる。そのため、ロボットの誤認識やユーザの誤入力が発生した場合であっても、ユーザが意図しない運動コマンドが実行することを確実に防止できる。
本発明により、ユーザの意図しない動作を確実に防止できるロボット制御方法、ロボット制御装置、及びロボットを提供することができる。
実施の形態1にかかるロボットの外観斜視図である。 実施の形態1にかかるロボットの制御システムのブロック図である。 実施の形態1にかかるコマンドデータベースの構成例を示す図である。 実施の形態1にかかるロボットの制御方法を示すフローチャートである。 実施の形態1にかかる確認画面の一例である。 実施の形態1の変形例1にかかるボタン型操作用端末の構成例を示す図である。 実施の形態1の変形例1にかかる確認画面の一例である。 実施の形態1の変形例2にかかるタッチパネル型操作用端末の構成例を示す図である。 実施の形態1の変形例2にかかる確認画面の一例である。 実施の形態2にかかるロボットの制御システムのブロック図である。 実施の形態2にかかるロボットの制御方法を示すフローチャートである。
<実施の形態1>
以下、図面を参照して本発明の実施の形態について説明する。図1は、本実施の形態にかかるロボットの外観斜視図である。ロボット1は、ロボット本体91と、アーム92と、を備える。アーム92は、複数の関節を有し、ロボット本体91に連結されている。ロボット1は、関節に設けられたモータ(図示省略)を制御することにより、ロボット本体91に対してアーム92を相対的に変位させる。また、ロボット1は、ロボット本体91の下部に駆動輪(図示省略)を有する。駆動輪を回転駆動させるモータ(図示省略)を制御することにより、ロボット1は移動する。つまり、ロボット1は、モータを制御することにより、物理的な動作を行う。なお、物理的な動作とは、ロボット1の全部又は一部の位置が周囲の物体(例えば、床や人等)に対して相対的に変化することを言う。
図2にロボット1の制御システムのブロック図を示す。ロボット1は、無線LANアダプタ11と、カメラ12と、コマンド処理部13と、スピーカ14と、ディスプレイ15と、コマンドデータベース16と、入力装置17と、補助記憶部18と、モータ制御部19と、を備える。図1に示した制御システムにおいて、ロボット1は、インターネット3を介して、操作用端末100から送信される操作コマンドを受信し、当該操作コマンドに応じた動作(例えば、情報の提供や、物体の移動等)を実行する。
無線LAN(Local Area Network)アダプタ11は、インターネット3を介して、操作用端末100と無線通信を行う。カメラ12は、例えば、ロボット1の頭部に搭載されており、ロボット1の周囲の環境を撮像する。
コマンド処理部13は、CPU(Central Processing Unit)131と、メモリ132と、を備える。CPU131及びメモリ132は、各種デバイスや処理部とバス及びインターフェース(I/F)を介して接続されている。CPU131は、認識したコマンドを一旦メモリ132に格納する。そして、CPU131は、補助記憶部18に格納されたコマンド処理プログラムを読み出し、コマンドデータベース16を参照して、認識したコマンドが物理的な動作を伴うコマンド(以下、運動コマンドと称す。)であるか否かを判定する。
具体的には、CPU131は、認識したコマンドをテキスト(文字列)化する。そして、CPU131は、インターフェースを介してコマンドデータベース16にアクセスし、認識したコマンドが運動コマンドであるか否かを判定する。CPU131は、判定結果をメモリ132に格納する。本実施の形態のロボット1では、ユーザからのコマンドは音声信号を用いる。音声信号のコマンド解析のためのコマンド処理部13は、公知の技術を用いた簡単な構成である。そのため、低コストで本発明を実現できる。
スピーカ14は、コマンド処理部13に入力された音声信号を出力したり、メモリ132に蓄積された音声信号をユーザの要求に応じて出力したりする。ディスプレイ15は、ロボット1の設定情報や、コマンド処理部13の処理結果等を表示する。なお、スピーカ14やディスプレイ15等の出力デバイスは、ロボット内蔵型でもよいし、外付け型でもよい。
コマンドデータベース16は、インデックス、判定対象コマンド(ロボット1が動作可能な各種コマンド)、コマンドが運動コマンドであるか否かを示すコマンドフラグ、及びコマンドの分類が対応付けて格納されている(図3参照)。このとき、コマンドフラグとは、コマンドが運動コマンドであるか否かを示す情報である。分類とは、コマンド処理部13による処理内容を示す情報である。
本実施の形態においては、運動コマンドには、1のコマンドフラグが対応付けられている。一方、運動コマンド以外のコマンド(例えば、ディスプレイ15を用いた情報の表示や、スピーカ14を用いた音声の再生等)には、0のコマンドフラグが対応付けられている。コマンドフラグは、予め設定されていてもよいし、モータの制御が行われるか否かに応じて適宜設定されてもよい。なお、コマンドデータベース16に格納されている情報は、図3に示す情報に限られない。また、本実施の形態においては、コマンドフラグの値を0または1の2値で示しているが、これに限られるものではなく、0〜1の連続値を用いて、動作内容等に応じて重み付けしてもよい。
入力装置17は、マウス等のポインティングデバイスや、キーボード等の数値入力デバイスや、マイク等の音声入力デバイスである。ユーザは、入力装置17を用いて、コマンド処理部13に対する命令や閾値等の設定を行う。
モータ制御部19は、CPU191と、メモリ192と、を備える。CPU191は、コマンド処理部13のCPU131の命令に応じて、モータ193〜197を制御する。モータ193〜197は、ロボット1の各部(例えば、アーム関節や、駆動輪等)に設けられている。
モータ制御部19では、CPU191は、コマンド処理部13からのコマンドを一旦メモリ192に格納する。CPU191は、図示しない補助記憶部に格納されたモータ制御処理プログラムを読み出し、処理結果をメモリ192に格納する。メモリ192には、モータ制御に必要な各種のデータ及び計算結果が蓄積される。CPU191は、必要に応じて、メモリ192に蓄積された情報を参照する。
続いて、本実施の形態にかかるロボット1の制御方法について図4を参照して説明する。図4は、ロボット1の制御方法を示すフローチャートである。まず、ユーザが、操作用端末100に対して音声によりコマンドを入力する。すると、当該コマンドの音声信号が、インターネット3を介して、操作用端末100からロボット1の無線LANアダプタ11へ送信される。
無線LANアダプタ11は、受信した音声信号をコマンド処理部13に送信する。コマンド処理部13は、入力された音声信号のコマンドを認識し、解析する(ステップS11)。つまり、CPU131が、音声信号のコマンドをテキスト化して、メモリ132に格納する。なお、音声信号を解析して、テキスト列を取得する方法は公知の技術を用いることができるため、詳細な説明は省略する。
次に、コマンド処理部13は、認識したコマンドが運動コマンドであるか否かを判定する(ステップS12)。具体的には、CPU131は、図3に示したコマンドデータベース16を参照して、メモリ132に格納したコマンドのコマンドフラグが0であるか1であるかを判定する。
コマンド処理部13が認識したコマンドのコマンドフラグが0である場合、つまり、コマンド処理部13が認識したコマンドが運動コマンドでない場合(ステップS12:No)、コマンド処理部13は、当該コマンドを実行する(ステップS15)。具体的には、コマンド処理部13のCPU131が、スピーカ14やディスプレイ15等の出力デバイスに対して、コマンドに応じた命令を出力する。これにより、ロボット1は、運動コマンドでないコマンドを実行する。この場合、ロボット1の動作は、物理的な動作を伴わない。そのため、たとえロボット1が実行するコマンドが誤認識や誤入力の結果であっても、周囲の人や物に迷惑をかけることはない。
一方、コマンド処理部13が認識したコマンドのコマンドフラグが1である場合、つまり、コマンド処理部13が認識したコマンドが運動コマンドである場合(ステップS12:Yes)、コマンド処理部13は、当該コマンドを実行するか否かをユーザに確認する(ステップS13)。例えば、コマンド処理部13のCPU131は、図5に示すようなコマンド実行の確認画面を、ディスプレイ15に表示することにより、ユーザに対して確認を行う。図5、「移動 前進 最大速度」というコマンドを実行するか否かを確認している画面である。ここで表示されるコマンドは、コマンド処理部13が認識したコマンドである。つまり、ユーザが意図した(入力した)コマンドと一致しているとは限らない。なお、CPU131は、無線LANアダプタ11及びインターネット3を介して、操作用端末100の表示画面(図示省略)に確認画面を表示させてもよい。勿論、確認処理は画面表示だけに限られず、CPU131は、スピーカ14を用いて音声による確認を行ってもよい。
ステップS13における確認に対して、ユーザは、ロボット1の入力装置17や、操作用端末100を用いて、コマンド処理部13が認識した運動コマンドを実行するか否かをロボット1に命令する(ステップS14)。具体的には、ユーザは、図5に示した確認画面の「はい」又は「いいえ」を選択することにより、ロボット1に対して命令を行う。
ユーザがロボット1に対して運動コマンドを実行しないと命令した場合(ステップS14:No)、ロボット1は、何もコマンドを実行しない。つまり、ロボット1は、何も動作せず、再びコマンドの入力待ちの状態となる。
一方、ユーザがロボット1に対して運動コマンドを実行すると命令した場合(ステップS14:Yes)、ロボット1は、運動コマンドを実行する(ステップS15)。具体的には、コマンド処理部13のCPU131が、モータ制御部19に対して、運動コマンドを送信し、当該運動コマンドに応じたモータ制御を命令する。モータ制御部19は、受信した運動コマンドをメモリ192に格納する。CPU191は、メモリ192に格納された運動コマンドを参照し、ロボット1が備えるモータ193〜197のうち、当該運動コマンドの実行に必要なモータに対してトルク制御を行う。これにより、ロボット1は、運動コマンドに応じた動作を実行する。
以上のように、本実施の形態にかかるロボット1の構成によれば、ロボット1は、ユーザから入力されたコマンドを認識し、コマンドデータベースを参照して、認識したコマンドが運動コマンドであるか否かを判定する。コマンド処理部13が認識したコマンドが運動コマンドである場合、ロボット1は、当該運動コマンドを実行するか否かをユーザに確認する。そして、ユーザにより運動コマンドの実行が命令された場合に、はじめて運動コマンドを実行する。このため、ロボット1の誤認識や、ユーザの誤入力等により、ロボット1が誤った運動コマンドを認識した場合であっても、ユーザは、当該運動コマンドを実行するか否かを確認できる。そのため、ロボット1が、ユーザの意図しない運動コマンドを実行することを確実に防ぐことができる。その結果、ロボット1の安全性や信頼性を向上させることができる。
特に、ユーザが乗り込んで操縦するロボットではなく、遠隔操作により動作するロボットにおいては、ロボットの近傍にユーザがいないことが多い。そのため、ロボットがユーザの意図しない動作を実行してしまった場合、ユーザは当該動作を止めることができない。つまり、本発明にかかるロボット制御方法は、遠隔操作により動作するロボットに特に有効である。
なお、ロボット1が認識したコマンドが、運動コマンドでない場合は、誤って実行したとしても周囲に与える影響は少ない。そのため、運動コマンド以外のコマンドは、コマンド認識後に確認無しで実行される。その結果、ユーザは、ロボット1を効率よく操作することができる。
さらに、上記の実施の形態においては、予め設定されたコマンドフラグに応じて、運動コマンドか否かを判定しているが、判定方法はこれに限られるものではない。例えば、モータの制御が行われる場合は、運動コマンドであると判定し、モータの制御が行われない場合は、運動コマンドでないと判定してもよい。加えて、モータ制御が行われる場合であっても、モータの回転数を低下させるコマンドを認識した場合には、確認処理を行わずに、当該コマンドを実行してもよい。モータの回転数を低下させるコマンドは、ロボット1の動作を停止に導くためのコマンドであると考えられる。これにより、例えば、緊急停止等のコマンドについては確認なしで実行される。そのため、非常時において迅速な動作が可能となる。
(変形例1)
本実施の形態の変形例1について説明する。上記の実施の形態においては、ロボット1へのコマンド入力手段として音声入力を用いたが、変形例1においては、コマンド入力手段として、押しボタンを用いる。なお、その他の構成については上記の実施の形態1と同様であるので、説明を適宜省略する。
図6に変形例1にかかるボタン型操作用端末200の構成例を示す。ボタン型操作用端末200は、表示画面201と、コマンドボタン202と、実行ボタン203と、を備える。なお、ロボット1とボタン型操作用端末200とは、無線LANを介して接続されている。
コマンドボタン202(「0」〜「9」のボタン)には、ロボット1を操作するための各コマンドのそれぞれが割り当てられている。このとき、コマンドボタン202の数だけしかコマンドを命令できないわけではなく、コマンドボタン202の押す順序や、同時に押すコマンドボタン202の組み合わせ等により、コマンドボタン202の数よりも多くのコマンドを命令できる。
続いて、変形例1にかかるロボット1の制御方法について説明する。なお、下記の説明においては、コマンドボタン202の「1」ボタンに「最高速度で後退する」というコマンドが割り当てられているとする。まず、ユーザが、コマンドボタン202の「1」ボタンを押下げする。これにより、ロボット1に対して、「最高速度で後退する」というコマンドが入力される。ロボット1は、入力された当該コマンドを認識する(図4のステップS11)。
コマンド処理部13は、コマンドデータベース16を参照して、認識したコマンド「後退」が運動コマンドであるか否かを判定する(ステップS12)。図3に示したように、「後退」というコマンドのコマンドフラグは1である。そのため、コマンド処理部13は、「後退」というコマンドが運動コマンドであると判定する(ステップS12:Yes)。
コマンド処理部13は、「後退」コマンドが運動コマンドであると判定すると、ボタン型操作用端末200の表示画面201に、「最高速度で後退する」という動作をロボット1に実行させるか否かの確認画面を表示する(ステップS13、図7参照)。
そして、ユーザが、実行ボタン203を押下げすると(ステップS14:Yes)、ロボット1は、コマンド処理部13が認識したコマンドを実行する(ステップS15)。つまり、ロボット1は、最高速度で後退する動作を行う。
(変形例2)
本実施の形態の変形例2について説明する。上記の実施の形態においては、ロボット1へのコマンド入力手段として音声入力や押しボタンを用いたが、変形例2においては、コマンド入力手段として、タッチパネルを用いる。なお、その他の構成については上記の実施の形態1と同様であるので、説明を適宜省略する。
図8に変形例2にかかるタッチパネル型操作用端末300の構成例を示す。タッチパネル型操作用端末300は、タッチパネル画面301を備える。図8に示した構成例においては、タッチパネル画面301に、コマンド選択領域302と、速度選択領域303と、コマンド命令領域304と、が表示されている。勿論、タッチパネル画面301の構成は、図8に示す構成に限られない。なお、ロボット1とタッチパネル型操作用端末300とは、無線LANを介して接続されている。
ユーザが、コマンド選択領域302に触れると、ロボット1が実行可能な各種コマンドが表示され、実行させたいコマンドを選ぶことができる。また、ユーザが、速度選択領域303のスライドバーをスクロールさせることにより、移動速度を連続的に設定することができる。さらに、ユーザが、コマンド命令領域304に触れると、選択したコマンドがロボット1に対して入力することができる。
続いて、変形例2にかかるロボット1の制御方法について説明する。まず、ユーザが、コマンド選択領域302及び速度選択領域303を操作して、例えば図8に示すように、「後退 最高速度」を選択し、コマンド命令領域304にタッチする。これにより、「後退 最高速度」というコマンドが無線LANを介してロボット1に入力される。ロボット1は、入力された当該コマンドを認識する(図4のステップS11)。
コマンド処理部13は、コマンドデータベース16を参照して、認識したコマンド「後退」が運動コマンドであるか否かを判定する(ステップS12)。図3に示したように、「後退」というコマンドのコマンドフラグは1である。そのため、コマンド処理部13は、「後退」というコマンドが運動コマンドであると判定する(ステップS12:Yes)。
コマンド処理部13は、「後退」コマンドが運動コマンドであると判定すると、タッチパネル型操作用端末300のタッチパネル画面301に、「後退 最高速度」という動作をロボット1に実行させるか否かの確認画面を表示する(ステップS13、図9参照)。
そして、ユーザが、コマンド実行領域305をタッチすると(ステップS14:Yes)、ロボット1は、認識したコマンドを実行する(ステップS15)。つまり、ロボット1は、最高速度で後退する動作を行う。
上述した変形例1、2において説明したように、コマンド処理部13における運動コマンドか否かの判定は、入力されたコマンドの認識処理後(コマンドのテキスト情報取得後)に、コマンドデータベースを参照して行われる。つまり、コマンドのテキスト情報さえ取得できれば、コマンドの入力手段は限定されない。言い換えると、ユーザに対してマルチモーダル・インターフェースを提供することができる。なお、入力手段としては、上記の音声、押しボタン、タッチパネルに加えて、ジェスチャー等も用いることができる。
<実施の形態2>
本発明にかかる実施の形態2について説明する。本実施の形態にかかるロボット2の制御システムのブロック図を図10に示す。図10に示すロボット2は、図2に示したロボット1の構成に加えて、位置取得部21と、時刻取得部22と、を備える。ロボット2は、入力されたコマンド内容に加えて、ロボット2の場所(周囲環境)や、コマンドが入力された時刻に基づいて、コマンドを実行するか否かをユーザに対して確認する。なお、その他の構成についてはロボット1と同様であるので、説明を適宜省略する。
位置取得部21は、例えばGPS装置等であり、ロボット2の自己位置情報を取得する。自己位置情報の取得は、GPS装置に限られず、公知の技術を用いることができる。また、位置取得部21は、予めメモリに格納された地図情報や、カメラ12により撮像された周囲環境の撮像画像に基づいて、自己位置を推定してもよい。時刻取得部22は、例えば時計であり、現在の時刻を取得する。
続いて、本実施の形態にかかるロボット2の制御方法について図11を参照して説明する。図11は、ロボット2の制御方法を示すフローチャートである。まず、ユーザが、操作用端末100に対して音声によりコマンドを入力する。すると、当該コマンドの音声信号が、インターネット3を介して、操作用端末100からロボット2の無線LANアダプタ11へ送信される。
実施の形態1の図2において説明したステップS11、S12と同様に、無線LANアダプタ11は、受信した音声信号をコマンド処理部13に送信する。コマンド処理部13は、音声信号のコマンドを認識し、解析する(ステップS21)。次に、コマンド処理部13は、認識したコマンドが運動コマンドであるか否かを判定する(ステップS22)。具体的には、CPU131は、図3に示したコマンドデータベース16を参照して、メモリ132に格納したコマンドのコマンドフラグが0であるか1であるかを判定する。
コマンド処理部13が認識したコマンドのコマンドフラグが0である場合、つまり、コマンド処理部13が認識したコマンドが運動コマンドでない場合(ステップS22:No)、コマンド処理部13は、当該コマンドを実行する(ステップS29)。これにより、ロボット2は、運動コマンド以外の動作を実行する。
一方、コマンド処理部13が認識したコマンドのコマンドフラグが1である場合、つまり、コマンド処理部13が認識したコマンドが運動コマンドである場合(ステップS22:Yes)、位置取得部21は、ロボット2の自己位置情報を取得し、自己位置を認識する(ステップS23)。CPU131は、当該自己位置に基づいて、周囲に障害物や階段、人等の存在を認識する。つまり、CPU131は、ロボット2の周囲の環境を認識する。勿論、周囲環境の認識は、自己位置取得に基づくものに限られない。例えば、ロボット2が備えるカメラ12を用いて周囲の環境を撮像し、当該撮像画像を画像処理することにより、周囲の環境を認識してもよい。
CPU131は、周囲の環境に基づいて、環境コマンドフラグ値を算出する。具体的には、ロボット2の周囲に存在する障害物等の位置に応じた値(例えば、0〜1の連続値)を環境コマンドフラグ値として算出する。より詳細には、障害物等の位置が、ロボット2に近い程大きい環境コマンドフラグ値を算出し、ロボット2から遠い程小さい環境コマンドフラグ値を算出する。言い換えると、CPU131は、ロボット2と周囲の障害物等との距離に応じて、環境コマンドフラグ値を算出する。
例えば、ロボット2のアームを動かした場合に、当該アームが届く範囲に障害物等が存在する場合、CPU131は、環境コマンドフラグ値を1.0と算出する。また、ロボット2の移動可能な範囲内に人が存在する場合には、CPU131は、環境コマンドフラグ値を0.8と算出する。さらに、ロボット2が周囲に障害物等が全く存在しない広場にいる場合には、CPU131は、環境コマンドフラグ値を0.1と算出する。勿論、上記の環境コマンドフラグ値は一例である。また、CPU131は、ロボット2と障害物等との間の距離と、環境コマンドフラグ値との関係を示す関数を用いて環境コマンドフラグ値を算出してもよい。
次に、時刻取得部22は、現在時刻を取得する(ステップS24)。CPU131は、現在時刻に基づいて、時刻コマンドフラグ値を算出する。具体的には、CPU131は、現在時刻に応じた値(例えば0〜1の連続値)を時刻コマンドフラグ値として算出する。より詳細には、現在時刻が、夜遅い時間である程大きい時刻コマンドフラグ値を算出し、昼間に近い時間である程小さい時刻コマンドフラグ値を算出する。つまり、モータの駆動音等の騒音が発生してほしくない時間帯では時刻コマンドフラグ値を大きい値とし、それ以外の時間帯では、時刻コマンドフラグ値を小さい値とする。このように、コマンド処理部13は、オンザフライで環境コマンドフラグ値及び時刻コマンドフラグ値を算出する。
なお、環境コマンドフラグ値及び時刻コマンドフラグ値の算出は、ロボット2内のCPU131が行ってもよいし、ロボット2の外部に設けられた計算リソースを用いて行ってもよい。
次に、CPU131は、ステップS23、S24において算出された環境コマンドフラグ値及び時刻コマンドフラグ値を用いて、総合コマンドフラグ値を算出する。当該総合コマンドフラグ値は、環境コマンドフラグ値と、時刻コマンドフラグ値と、を加算することにより算出される。勿論、総合コマンドフラグ値は、環境コマンドフラグ値及び時刻コマンドフラグ値に基づく値であればよく、環境コマンドフラグ値及び時刻コマンドフラグ値の合計値に限られない。例えば、総合コマンドフラグ値は、環境コマンドフラグ値と時刻コマンドフラグ値とを乗算した値でもよい。
そして、CPU131は、総合コマンドフラグ値が閾値よりも大きい値であるか否かを判定する(ステップS26)。なお、閾値は、ロボット2の活動環境や活動時間に応じて、ユーザにより適宜設定される。このとき、総合コマンドフラグ値が閾値よりも大きいとは、ユーザの意図しない運動コマンドの実行を許可できない環境及び時間であることを意味する。一方、総合コマンドフラグ値が閾値以下であるとは、ユーザの意図しない運動コマンドの実行を許容できる環境及び時間であることを意味する。
総合コマンドフラグ値が閾値以下である場合(ステップS26:No)、コマンド処理部13は、当該コマンドを実行する(ステップS29)。具体的には、コマンド処理部13のCPU131は、ユーザに確認することなく、モータ制御部19に対して、運動コマンドを送信し、当該運動コマンドに応じたモータ制御を命令する。モータ制御部19は、受信した運動コマンドをメモリ192に格納する。CPU191は、メモリ192に格納された運動コマンドを参照し、ロボット2が備えるモータ193〜197のうち、当該運動コマンドの実行に必要なモータに対してトルク制御を行う。これにより、ロボット2は、運動コマンドに応じた動作を実行する。
一方、総合コマンドフラグ値が閾値よりも大きい場合(ステップS26:Yes)、コマンド処理部13は、ユーザに対して認識した運動コマンドを実行するか否かの確認を行う(ステップS27)。例えば、コマンド処理部13のCPU131は、図5に示すようなコマンド実行の確認画面を、ディスプレイ15や操作用端末100の表示画面に表示することにより、ユーザに対して確認を行う。
ユーザがロボット2に対して運動コマンドを実行しないと命令した場合(ステップS28:No)、ロボット2は、何もコマンドを実行しない。つまり、ロボット2は、何も動作せず、再びコマンドの入力待ちの状態となる。
一方、ユーザがロボット2に対して運動コマンドを実行すると命令した場合(ステップS28:Yes)、ロボット2は、運動コマンドを実行する(ステップS29)。勿論、図11に示すフローチャートの処理の順番は、図11に示す順番に限られない。例えば、コマンド処理部13が認識したコマンドが、運動コマンドであるか否かを判定する前に、総合コマンドフラグ値を算出してもよい。
以上のように、本実施の形態にかかるロボット2の構成によれば、ユーザから入力されたコマンドが運動コマンドであるか否かに加えて、ロボット2の周囲の環境や現在時刻に基づいて、運動コマンドを実行するか否かをユーザに確認する。そのため、ロボット2の周囲の環境や現在時刻がロボット2の誤動作等を許容できる状況である場合、ユーザへの確認は行われない。つまり、所定の状況であれば、運動コマンドが入力された場合であっても、ユーザへの確認が行われない。その結果、ユーザが全ての運動コマンドについて確認処理を行う必要がなくなるため、利便性が向上する。勿論、周囲の環境や現在時刻に応じて確認処理も行われるため、ユーザの意図しない動作を防ぐこともできる。
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更及び組み合わせをすることが可能である。例えば、ロボット1、2の構成は図1に示すものに限られず、運動コマンドを実行可能なロボットであればよい。
1、2 ロボット
3 インターネット
11 無線LANアダプタ
12 カメラ
13 コマンド処理部
14 スピーカ
15 ディスプレイ
16 コマンドデータベース
17 入力装置
18 補助記憶部
19 モータ制御部
21 位置取得部
22 時刻取得部
91 ロボット本体
92 アーム
100 操作用端末
131、191 CPU
132、192 メモリ
193〜197 モータ
200 ボタン型操作端末
300 タッチパネル型操作端末

Claims (10)

  1. ユーザから入力されたコマンドに基づいて動作するロボットの制御方法であって、
    前記ユーザから入力された前記コマンドを認識するステップと、
    認識した前記コマンドが物理的な動作を伴う運動コマンドであるか否かを判定するステップと、
    判定結果に基づいて、認識した前記コマンドを実行するか否かを前記ユーザに確認するステップと、
    を備えるロボットの制御方法。
  2. 前記運動コマンドが予め格納されたコマンドデータベースを参照して、認識した前記コマンドが前記運動コマンドであるか否かを判定する請求項1に記載のロボットの制御方法。
  3. 前記ロボットが有するモータの制御が行われるか否かに応じて、認識した前記コマンドが前記運動コマンドであるか否かを判定する請求項1又は2に記載のロボットの制御方法。
  4. 認識した前記コマンドに応じて前記モータの回転数を低下させる制御が行われる場合、認識した前記コマンドを実行するか否かの確認を行わず、認識した前記コマンドを実行する請求項3に記載のロボットの制御方法。
  5. 前記ユーザからの前記コマンドの入力は、前記ロボットとは物理的に離れた端末を用いて行われる請求項1〜4のいずれか一項に記載のロボットの制御方法。
  6. 認識した前記コマンドを実行するか否かの確認は、前記端末に設けられた表示部に確認画面を表示することによって行われる請求項5に記載のロボットの制御方法。
  7. 前記ロボットの周囲の環境を認識するステップをさらに備え、
    認識した前記ロボットの周囲環境及び前記判定結果に基づいて、認識した前記コマンドを実行するか否かを前記ユーザに確認する請求項1〜6のいずれか一項に記載のロボットの制御方法。
  8. 現在時刻を取得するステップをさらに備え、
    取得した前記現在時刻及び前記判定結果に基づいて、認識した前記コマンドを実行するか否かを前記ユーザに確認する請求項1〜7のいずれか一項に記載のロボットの制御方法。
  9. ユーザから入力されたコマンドに基づいて動作するロボットの制御装置であって、
    前記ユーザから入力された前記コマンドを認識するコマンド認識手段と、
    前記コマンド認識手段により認識された前記コマンドが物理的な動作を伴う運動コマンドであるか否かを判定する判定手段と、
    前記判定手段の判定結果に基づいて、認識した前記コマンドを実行するか否かを前記ユーザに確認する確認手段と、
    を備えるロボットの制御装置。
  10. モータを備え、当該モータを駆動させることにより、物理的な動作を伴う運動コマンドを実行可能なロボットであって、
    ユーザから入力されたコマンドを認識するコマンド認識手段と、
    前記コマンド認識手段により認識された前記コマンドが前記運動コマンドであるか否かを判定する判定手段と、
    前記判定手段の判定結果に基づいて、認識した前記コマンドを実行するか否かを前記ユーザに確認する確認手段と、
    を備えるロボット。
JP2011288958A 2011-12-28 2011-12-28 ロボットの制御方法、ロボットの制御装置、及びロボット Active JP5776544B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011288958A JP5776544B2 (ja) 2011-12-28 2011-12-28 ロボットの制御方法、ロボットの制御装置、及びロボット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011288958A JP5776544B2 (ja) 2011-12-28 2011-12-28 ロボットの制御方法、ロボットの制御装置、及びロボット

Publications (2)

Publication Number Publication Date
JP2013136131A true JP2013136131A (ja) 2013-07-11
JP5776544B2 JP5776544B2 (ja) 2015-09-09

Family

ID=48912326

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011288958A Active JP5776544B2 (ja) 2011-12-28 2011-12-28 ロボットの制御方法、ロボットの制御装置、及びロボット

Country Status (1)

Country Link
JP (1) JP5776544B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016175175A (ja) * 2015-03-19 2016-10-06 株式会社デンソーウェーブ ロボット操作装置、及びロボット操作プログラム
JP2016175174A (ja) * 2015-03-19 2016-10-06 株式会社デンソーウェーブ ロボット操作装置、及びロボット操作プログラム
JP2018097259A (ja) * 2016-12-15 2018-06-21 三精テクノロジーズ株式会社 音声操作システム
CN110945778A (zh) * 2017-08-28 2020-03-31 株式会社日立产机系统 电机驱动系统
CN111843986A (zh) * 2019-04-26 2020-10-30 发那科株式会社 机器人示教装置
CN111844085A (zh) * 2019-04-26 2020-10-30 发那科株式会社 机器人示教装置
JP2021079846A (ja) * 2019-11-20 2021-05-27 本田技研工業株式会社 車両制御システム

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6293706A (ja) * 1985-10-21 1987-04-30 Amada Co Ltd ロボツトの制御方法
JPH06262560A (ja) * 1993-03-15 1994-09-20 Toyoda Mach Works Ltd ロボット制御装置
JPH09103979A (ja) * 1995-10-06 1997-04-22 Hitachi Zosen Corp 遠隔操縦方法およびその装置
JP2000202790A (ja) * 1999-01-14 2000-07-25 Sharp Corp ロボット装置
JP2002036152A (ja) * 2000-07-26 2002-02-05 Matsushita Electric Works Ltd 自律移動ロボット
JP2003080482A (ja) * 2001-09-07 2003-03-18 Yaskawa Electric Corp ロボット教示装置
WO2004027527A1 (ja) * 2002-09-20 2004-04-01 Matsushita Electric Industrial Co., Ltd. 対話型装置
JP2004268151A (ja) * 2003-03-05 2004-09-30 Yaskawa Electric Corp ロボット制御装置および制御方法
JP2006289514A (ja) * 2005-04-06 2006-10-26 Yaskawa Electric Corp ロボット制御システムおよび制御方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6293706A (ja) * 1985-10-21 1987-04-30 Amada Co Ltd ロボツトの制御方法
JPH06262560A (ja) * 1993-03-15 1994-09-20 Toyoda Mach Works Ltd ロボット制御装置
JPH09103979A (ja) * 1995-10-06 1997-04-22 Hitachi Zosen Corp 遠隔操縦方法およびその装置
JP2000202790A (ja) * 1999-01-14 2000-07-25 Sharp Corp ロボット装置
JP2002036152A (ja) * 2000-07-26 2002-02-05 Matsushita Electric Works Ltd 自律移動ロボット
JP2003080482A (ja) * 2001-09-07 2003-03-18 Yaskawa Electric Corp ロボット教示装置
WO2004027527A1 (ja) * 2002-09-20 2004-04-01 Matsushita Electric Industrial Co., Ltd. 対話型装置
JP2004268151A (ja) * 2003-03-05 2004-09-30 Yaskawa Electric Corp ロボット制御装置および制御方法
JP2006289514A (ja) * 2005-04-06 2006-10-26 Yaskawa Electric Corp ロボット制御システムおよび制御方法

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016175175A (ja) * 2015-03-19 2016-10-06 株式会社デンソーウェーブ ロボット操作装置、及びロボット操作プログラム
JP2016175174A (ja) * 2015-03-19 2016-10-06 株式会社デンソーウェーブ ロボット操作装置、及びロボット操作プログラム
JP2018097259A (ja) * 2016-12-15 2018-06-21 三精テクノロジーズ株式会社 音声操作システム
CN110945778A (zh) * 2017-08-28 2020-03-31 株式会社日立产机系统 电机驱动系统
JPWO2019044400A1 (ja) * 2017-08-28 2020-07-16 株式会社日立産機システム モータドライブシステム
CN110945778B (zh) * 2017-08-28 2023-08-15 株式会社日立产机系统 电机驱动系统
CN111844085A (zh) * 2019-04-26 2020-10-30 发那科株式会社 机器人示教装置
JP2020184117A (ja) * 2019-04-26 2020-11-12 ファナック株式会社 ロボット教示装置
JP6993382B2 (ja) 2019-04-26 2022-02-04 ファナック株式会社 ロボット教示装置
US11580972B2 (en) 2019-04-26 2023-02-14 Fanuc Corporation Robot teaching device
CN111843986A (zh) * 2019-04-26 2020-10-30 发那科株式会社 机器人示教装置
CN111844085B (zh) * 2019-04-26 2024-05-28 发那科株式会社 机器人示教装置
JP2021079846A (ja) * 2019-11-20 2021-05-27 本田技研工業株式会社 車両制御システム
JP7163267B2 (ja) 2019-11-20 2022-10-31 本田技研工業株式会社 車両制御システム

Also Published As

Publication number Publication date
JP5776544B2 (ja) 2015-09-09

Similar Documents

Publication Publication Date Title
JP5776544B2 (ja) ロボットの制御方法、ロボットの制御装置、及びロボット
US11409497B2 (en) Hands-free navigation of touch-based operating systems
EP3532362B1 (en) Guidance of autonomous vehicles in destination vicinities using intent signals
JP4266211B2 (ja) ロボット装置、ロボット装置の移動方法、および、プログラム
EP3178617B1 (en) Hybrid reality based i-bot navigation and control
CN109643166B (zh) 用于自主车辆的基于手势的控制的方法和系统
US11947752B2 (en) Customizing user interfaces of binary applications
JP2019005819A (ja) 遠隔操作型移動ロボットおよびロボット制御システム
KR20150076627A (ko) 차량 운전 학습 시스템 및 방법
CN104620257A (zh) 基于深度的语境识别
JP2007260822A (ja) 道案内ロボット
CN112230649B (zh) 机器学习方法及移动机器人
CN105739679A (zh) 转向盘控制系统
JP4962940B2 (ja) 道案内システム
CN114800535B (zh) 机器人的控制方法、机械臂控制方法、机器人及控制终端
CN112975950B (zh) 远程操作系统及远程操作方法
KR102301763B1 (ko) 이동로봇을 제어하기 위한 시스템 및 방법
JP6798608B2 (ja) ナビゲーションシステムおよびナビゲーションプログラム
KR20170002048A (ko) 피사체 이동 제어 장치 및 방법
KR20200085970A (ko) 자동차 및 그 제어 방법
KR102593866B1 (ko) 스마트 디바이스 사용 과정에서 시각 장애인의 객체 탐지를 돕기 위한 태스크 기반의 음향 가이드 방법 및 장치
JP7395513B2 (ja) バイナリアプリケーションのユーザインターフェースのカスタマイズ
CN117008723A (zh) 一种增强现实显示及交互技术赋能自主移动机器人
CN117666793A (zh) 惯用手选择方法、装置、电子设备及存储介质
CN117762315A (zh) 导航路程途经点添加方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141006

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141014

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150609

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150622

R151 Written notification of patent or utility model registration

Ref document number: 5776544

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151