JPWO2017104199A1 - ロボット、ロボットの制御方法、およびプログラム - Google Patents
ロボット、ロボットの制御方法、およびプログラム Download PDFInfo
- Publication number
- JPWO2017104199A1 JPWO2017104199A1 JP2017556360A JP2017556360A JPWO2017104199A1 JP WO2017104199 A1 JPWO2017104199 A1 JP WO2017104199A1 JP 2017556360 A JP2017556360 A JP 2017556360A JP 2017556360 A JP2017556360 A JP 2017556360A JP WO2017104199 A1 JPWO2017104199 A1 JP WO2017104199A1
- Authority
- JP
- Japan
- Prior art keywords
- unit
- robot
- input
- setting
- movable
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 18
- 230000005540 biological transmission Effects 0.000 claims description 8
- 230000036544 posture Effects 0.000 description 90
- 230000008859 change Effects 0.000 description 31
- 210000003423 ankle Anatomy 0.000 description 11
- 210000002414 leg Anatomy 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 210000002683 foot Anatomy 0.000 description 6
- 210000000245 forearm Anatomy 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 210000000689 upper leg Anatomy 0.000 description 6
- 230000008569 process Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 230000001771 impaired effect Effects 0.000 description 2
- 241000238631 Hexapoda Species 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 238000007562 laser obscuration time method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/088—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
- B25J13/089—Determining the position of the robot with reference to its environment
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/1633—Programme controls characterised by the control loop compliant, force, torque control, e.g. combined with position control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/081—Touching devices, e.g. pressure-sensitive
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1612—Programme controls characterised by the hand, wrist, grip control
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40387—Modify without repeating teaching operation
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40391—Human to robot skill transfer
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40411—Robot assists human in non-industrial environment like home or office
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Manipulator (AREA)
- Toys (AREA)
Abstract
パラメータ設定用の特定の入力部を有することなく、ユーザに当該パラメータを設定させることができるロボットを提供する。ロボット(1)は、右腕部と、右腕部を駆動する右肩ピッチのサーボモータと、右腕部が操作された後の右腕部の位置に関する位置情報を取得する取得部(105)と、所定のパラメータの値を、取得部(105)により取得した上記位置情報に応じた値に設定する設定部(107)とを備えている。
Description
本発明は、パラメータ設定を変更可能なロボット、当該ロボットの制御方法、および当該ロボットとしてコンピュータを機能させるためのプログラムに関する。
従来、両腕、両足などの複数の可動部を有し、様々な姿勢を取ったり、二本足で歩行したりすることのできるロボットが知られている。さらに、ユーザと会話するなどコミュニケーションを取ることのできるロボットも知られている。これらの類のロボットの一例として、特許文献1には、離れた場所に置かれた複数のロボットの形・動き・位置等を同期させて人がコミュニケーションを図ることができるロボットフォンが開示されている。
特許文献1によれば、ユーザが片方のロボットフォンの手を振ることによりもう一方のロボットフォンの手を振らせることができるので、ジェスチャを用いたコミュニケーションが可能なロボットを実現できる。
特許文献1のロボットフォンに対するユーザの操作は、あくまでも、もう一方のロボットフォンを操作するためのものである。ユーザに、自身のロボットフォンに音量などの所定のパラメータを設定させたい場合、その設定用の何らかの入力部(例えば入力キー、ボタン、タッチパネルなど)を、ロボットフォンに予め設けておく必要がある。
しかし、そのような入力部をロボットに設けるのは、ロボットの外観を損ねる場合がある。さらに、そのような入力部を通じてユーザにパラメータを設定させることは、ユーザにとって煩雑だったり、ユーザとロボットフォンとの一体感を損ねたりする虞もある。したがって、特定の入力部がなくてもユーザにパラメータを設定させることが可能なロボットの実現が求められる。
本発明は上記の課題を解決するために完成されたものである。そして、その目的は、パラメータ設定用の特定の入力部を有することなく、ユーザに当該パラメータを設定させることができるロボット、ロボットの制御方法、およびプログラムを提供することにある。
上記の課題を解決するため、本発明の一態様に係るロボットは、可動部と、上記可動部を駆動する駆動部と、上記可動部の位置に関する位置情報を取得する位置情報取得部と、所定のパラメータの値を、上記位置情報取得部により取得した上記位置情報に応じた値に設定する設定部とを備えていることを特徴としている。
本発明の一態様に係るロボットによれば、パラメータ設定用の特定の入力部を有することなく、ユーザに当該パラメータを設定させることができるという効果を奏する。
〔実施形態1〕
図1〜図5を参照して、本発明に係る実施形態1を以下に説明する。
図1〜図5を参照して、本発明に係る実施形態1を以下に説明する。
(ロボット1の外部構成)
図2の(a)は、本実施形態に係る、人型ロボットであるロボット1の外部構成を示すブロック図である。この図に示すように、ロボット1は、頭部2(可動部)、体幹部3、右腕部4(可動部)、左腕部5(可動部、第2の可動部)、右脚部6(可動部)、および左脚部7(可動部)を備えている。図2の(a)には、ロボット1をその正面から視認した場合の外観を示す。
図2の(a)は、本実施形態に係る、人型ロボットであるロボット1の外部構成を示すブロック図である。この図に示すように、ロボット1は、頭部2(可動部)、体幹部3、右腕部4(可動部)、左腕部5(可動部、第2の可動部)、右脚部6(可動部)、および左脚部7(可動部)を備えている。図2の(a)には、ロボット1をその正面から視認した場合の外観を示す。
頭部2には、音声入力部20(マイク)と、LED(Light Emitting Diode)22と、スピーカ23とが設けられている。LED22は、ロボット1の両目の周囲に設けられている。音声入力部20およびLED22については、ロボットの耳および目にそれぞれ対応して、左右一対ずつ設けられている。
右腕部4は、右上腕部41、右前腕部42、および右手部43によって構成されている。右腕部4における一端(付け根側)から他端(先端側)に向けて、右上腕部41、右前腕部42、および右手部43がこの順番で配置されている。右腕部4の一端が、体幹部3における右肩側に相当する場所に接続されている。左腕部5は、左上腕部51、左前腕部52、および左手部53によって構成されている。左腕部5における一端(付け根側)から他端(先端側)に向いて、左上腕部51、左前腕部52、および左手部53がこの順番で配置されている。左腕部5の一端が、体幹部3における左肩側に相当する場所に接続されている。
右脚部6は、右腿部61および右足部62によって構成されている。右腿部61の一端(付け根側)が体幹部3の腰側に相当する場所に接続されており、右腿部61の他端(先端側)に右足部62が接続されている。左脚部7は、左腿部71および左足部72によって構成されている。左腿部71の一端(付け根側)が体幹部3の腰側に相当する場所に接続されており、左腿部71の他端(先端側)に左足部72が接続されている。
(ロボット1の骨格構成)
図2の(b)は、本実施形態に係るロボット1の骨格構成を示す図である。この図に示すように、ロボット1は、図1に示す各部材に加えて、さらに、各可動部を個別に駆動する複数の駆動部40(図1参照)としての首ロール11a、首ピッチ11b、首ヨー11c、右肩ピッチ12、左肩ピッチ13、右肘ロール14、左肘ロール15、右股ピッチ16、左股ピッチ17、右足首ピッチ18b、右足首ロール18a、左足首ピッチ19b、および左足首ロール19aを備えている。首ロール11a〜左足首ロール19aは、本実施形態ではいずれもサーボモータである。首ロール11aという文言は、このサーボモータがロール方向に可動部を回転移動させることができることを意図している。首ピッチ11b等のその他の部材についてもこれに準ずる。
図2の(b)は、本実施形態に係るロボット1の骨格構成を示す図である。この図に示すように、ロボット1は、図1に示す各部材に加えて、さらに、各可動部を個別に駆動する複数の駆動部40(図1参照)としての首ロール11a、首ピッチ11b、首ヨー11c、右肩ピッチ12、左肩ピッチ13、右肘ロール14、左肘ロール15、右股ピッチ16、左股ピッチ17、右足首ピッチ18b、右足首ロール18a、左足首ピッチ19b、および左足首ロール19aを備えている。首ロール11a〜左足首ロール19aは、本実施形態ではいずれもサーボモータである。首ロール11aという文言は、このサーボモータがロール方向に可動部を回転移動させることができることを意図している。首ピッチ11b等のその他の部材についてもこれに準ずる。
後述する制御部10(図1参照)から各駆動部40に指示することより、当該駆動部40を指定の角度へ回転させる、またはトルクのON/OFFを切り換えるといった制御がされる。これにより、ロボット1は、姿勢の変更または歩行等の動作が可能となる。以下では、駆動部40のうち、角度の調整が可能なものについて、特に関節部と記す。なお、駆動部40のトルクがONになることは、駆動部40から可動部への力(駆動力)の伝達が可能である状態を意味し、一方、駆動部40のトルクがOFFになることは、駆動部40から可動部への力の伝達が停止されていることを意味する。
首ロール11a、首ピッチ11b、および首ヨー11cは、ロボット1における首に相当する場所に配置されている。制御部10は、これらを制御することによって、ロボット1における頭部2の動きを制御することができる。
右肩ピッチ12は、ロボット1における右肩に相当する場所に配置されている。制御部10は、これを制御することによって、ロボット1における右腕部4全体の動きを制御することができる。左肩ピッチ13は、ロボット1における左肩に相当する場所に配置されている。制御部10は、これを制御することによって、ロボット1における左腕部5全体の動きを制御することができる。
右肘ロール14は、ロボット1における右肘に相当する場所に配置されている。制御部10は、これを制御することによって、ロボット1における右前腕部42および右手部43の動きを制御することができる。左肘ロール15は、ロボット1における左肘に相当する場所に配置されている。制御部10は、これを制御することによって、ロボット1における左前腕部52および左手部53の動きを制御することができる。
右股ピッチ16は、ロボット1における右股に相当する場所に配置されている。制御部10は、これを制御することによって、ロボット1における右脚部6全体の動きを制御することができる。左股ピッチ17は、ロボット1における左股に相当する場所に配置されている。制御部10は、これを制御することによって、ロボット1における左脚部7全体の動きを制御することができる。
右足首ピッチ18bおよび右足首ロール18aは、ロボット1における右足首に相当する場所に配置されている。制御部10は、これらを制御することによって、ロボット1における右足部62の動きを制御することができる。左足首ピッチ19bおよび左足首ロール19aは、ロボット1における左足首に相当する場所に配置されている。制御部10は、これらを制御することによって、ロボット1における左足部72の動きを制御することができる。
各駆動部40は、制御部10に対し、角度などのステータスを所定の間隔で通知することが可能である。ステータスの通知は、サーボモータのトルクがOFFである場合でも行われ、ユーザによる可動部の動作を検出することができる。制御部10は、ステータスの通知を受けることで、サーボモータの角度を認識することができる。
(ロボット1の構成)
図1は、ロボット1の構成を示すブロック図である。この図に示すように、ロボット1は、制御部10、音声入力部20(設定指示取得部)、記憶部30、および駆動部40を備える。駆動部40については、図2の(b)を参照して上述した通りである。
図1は、ロボット1の構成を示すブロック図である。この図に示すように、ロボット1は、制御部10、音声入力部20(設定指示取得部)、記憶部30、および駆動部40を備える。駆動部40については、図2の(b)を参照して上述した通りである。
制御部10は、ロボット1の動作および処理を統括的に制御するものである。制御部10の具体的な構成については後述する。音声入力部20(取得部)は、ユーザが制御部10に対して入力する音声を取得するための機器である。本実施形態では、音声入力部20はマイクである。記憶部30は、制御部10が処理を行うための各種情報を記憶する記憶媒体である。記憶部30の具体例としては、ハードディスクまたはフラッシュメモリなどが挙げられる。記憶部30は、音声テーブル31、および入力姿勢テーブル32などを格納している。音声テーブル31および入力姿勢テーブル32についての説明は後述する。
(制御部10の構成)
制御部10は、音声認識部101、音声判定部102、入力姿勢特定部103、駆動制御部104(停止部)、取得部105(位置情報取得部)、入力判定部106、および設定部107を備える。
制御部10は、音声認識部101、音声判定部102、入力姿勢特定部103、駆動制御部104(停止部)、取得部105(位置情報取得部)、入力判定部106、および設定部107を備える。
音声認識部101は、音声入力部20へ入力された音声を認識する。音声判定部102は、音声認識部101が認識した音声が、記憶部30の音声テーブル31に含まれる所定の音声であるか否かを判定する。
入力姿勢特定部103は、入力姿勢テーブル32を参照して、ロボット1の入力姿勢および入力関節部を特定する。入力姿勢とは、ユーザからの入力を受け付ける、ロボット1の姿勢である。また、入力関節部とは、ユーザからの入力に利用される関節部である。駆動制御部104は、ロボット1が入力姿勢特定部103により特定された入力姿勢を取るよう、駆動部40を制御する。
取得部105は、ユーザによって可動部が操作された後の、可動部の位置に関する位置情報を取得する。本実施形態では、取得部105は、上記位置情報として、可動部の角度に関する角度情報を取得する。入力判定部106は、上記位置情報に基づき、ユーザによる入力値を判定する。設定部107は、所定のパラメータの値を上記入力値に応じた値に設定する。所定のパラメータの例としては、スピーカ23から出力される音声の音量、またはLED22の明るさなどが挙げられる。このとき設定されるパラメータの値は、位置情報または入力値そのものではなく、これらのいずれかから算出(変換)された、位置情報または入力値とは異なる値としてもよい。
本実施形態では、制御部10はCPUである。制御部10を上記の各部、例えば取得部105および設定部107として機能させるためのプログラムは、記憶部30に記憶されている。つまり、ロボット1には、制御部10と記憶部30とを備えるコンピュータが組み込まれている。
(音声テーブル31、入力姿勢テーブル32)
図3の(a)は、音声テーブル31の例を示す表である。この表に示すように、音声テーブル31は、音声認識部101が認識した音声と、ロボット1において実行される機能との対応関係を示すデータテーブルである。例えば、音声認識部101が「音量変更」または「ボリューム変更」の音声を認識した場合、音声判定部102は、当該音声を音量の設定値変更を開始する音声であると判定する。また、音声認識部101が「明るさ変更」または「輝度変更」の音声を認識した場合、音声判定部102は、当該音声をLED22の明るさの設定値変更を開始する音声であると判定する。さらに、音声認識部101が「終わったよ」の音声を認識した場合、音声判定部102は当該音声を、ロボット1の設定値変更の終了を通知する音声であると判定する。
図3の(a)は、音声テーブル31の例を示す表である。この表に示すように、音声テーブル31は、音声認識部101が認識した音声と、ロボット1において実行される機能との対応関係を示すデータテーブルである。例えば、音声認識部101が「音量変更」または「ボリューム変更」の音声を認識した場合、音声判定部102は、当該音声を音量の設定値変更を開始する音声であると判定する。また、音声認識部101が「明るさ変更」または「輝度変更」の音声を認識した場合、音声判定部102は、当該音声をLED22の明るさの設定値変更を開始する音声であると判定する。さらに、音声認識部101が「終わったよ」の音声を認識した場合、音声判定部102は当該音声を、ロボット1の設定値変更の終了を通知する音声であると判定する。
図4の(a)は、入力姿勢テーブル32の一例を示す表である。この表に示すように、入力姿勢テーブル32は、姿勢情報と入力関節部との対応関係を示すデータテーブルであってよい。姿勢情報は、ロボット1が入力姿勢になるように各駆動部40を制御するための、各駆動部40におけるサーボモータの回転角度を示す情報である。図4の(a)に示す入力姿勢テーブル32においては、ロボット1が座った姿勢が入力姿勢となるように、姿勢情報が設定されている。また、図4の(a)に示す入力姿勢テーブル32においては、右肩ピッチ12が入力関節部として設定されている。
入力姿勢への変化時に制御される駆動部40は、必ずしもすべての駆動部40とは限らない。入力姿勢の種類に応じて、複数の駆動部40のうちの少なくともいずれかの駆動部40が制御されればよい。すなわち、ロボットの姿勢が入力姿勢に変化する際、複数の可動部のうち少なくともいずれかが、入力姿勢に応じた位置に駆動される。
図4の(b)は、入力姿勢テーブル32の別の例を示す表である。この表に示すように、入力姿勢テーブル32は、変更する設定値の種類と、姿勢情報と、入力関節部との対応関係を示すデータテーブルであってもよい。図4の(b)に示す入力姿勢テーブル32においては、変更する設定値の種類によって、入力姿勢および入力関節部が異なる。具体的には、音量設定を変更する場合には、ロボット1は座った姿勢を取り、右肩ピッチ12を入力関節部とする。一方、LED22の明るさ設定を変更する場合には、ロボット1は直立姿勢を取り、左肩ピッチ13を入力関節部とする。
図4の(b)に示す入力姿勢テーブル32では、設定値の種類ごとに入力姿勢および入力関節部の両方が異なるように対応付けている。しかし、変更する設定値の種類によらず入力姿勢を共通とし、入力関節部だけが異なるように対応付けてもよい。逆に、入力関節部を共通とし、入力姿勢だけが異なるように対応付けてもよい。
(パラメータ設定処理の流れ)
図5の(a)は、本実施形態のロボット1の制御方法によるパラメータ設定処理の流れを示すフローチャートである。初期状態では、ロボット1は、設定指示の入力を待機する(S11)。ここで、設定指示とは、音声テーブル31において設定値の変更と対応付けられている音声である。図3の(a)に示す例では、No.1〜4の音声が設定指示に該当する。
図5の(a)は、本実施形態のロボット1の制御方法によるパラメータ設定処理の流れを示すフローチャートである。初期状態では、ロボット1は、設定指示の入力を待機する(S11)。ここで、設定指示とは、音声テーブル31において設定値の変更と対応付けられている音声である。図3の(a)に示す例では、No.1〜4の音声が設定指示に該当する。
音声入力部20へ音声が入力されたことが音声認識部101により認識されると、音声判定部102は、当該音声が設定指示であるかを判定する。上記音声が設定指示でない場合(S11、NO)、ロボット1は、再度音声入力部20への入力があるまで待機する。
一方、上記音声が設定指示である場合(S11、YES)、入力姿勢特定部103は、入力姿勢テーブル32を参照して、入力姿勢および入力関節部を特定する。そして、駆動制御部104は、駆動部40を駆動させて、ロボット1を入力姿勢に移行させる(S12)。さらに、駆動制御部104は、入力関節部のトルクをOFFにする(S13)。
入力関節部に対応する可動部をユーザが操作すると、当該入力関節部からの位置情報の通知が取得部105により取得される(位置情報取得工程)。取得部105は、上記位置情報によりロボット1の姿勢を把握するとともに、入力判定部106に対して上記入力関節部の位置情報を通知する。位置情報は、位置そのものの情報、または位置の変化量のどちらでもよい。入力判定部106は、上記位置情報から、ユーザによる入力値を判定する。設定部107は、上記入力値に基づいて、上記パラメータを設定する(設定工程)(S14)。
設定値の変更を終了する音声が音声入力部20へ入力されない間(S15、NO)、ロボット1は、入力姿勢、および入力関節部のトルクをOFFにした状態を継続する。設定値の変更を終了する音声が音声入力部20へ入力されたことが音声判定部102により判定されると(S15、YES)、入力姿勢特定部103は、入力姿勢の解除を駆動制御部104に指示する。駆動制御部104は、入力関節部のトルクをONにし、入力姿勢を解除する。入力姿勢の解除後の、ロボット1の姿勢は、予め設定された所定の姿勢であってもよく、ステップS11において設定指示を取得した時の姿勢であってもよい。または、姿勢についてはステップS15から変更せず、入力関節部のトルクをONにするだけでもよい。
以下に、ロボット1の動作例を具体的に説明する。ステップS11においてユーザが「音量変更」という音声を音声入力部20に入力すると、音声認識部101は当該音声を認識する。そして、音声判定部102は、音声テーブル31を参照して、上記音声が設定指示であるか判定する。図3の(a)に示すように、音声テーブル31には、「音量変更」という音声と、「音量設定値変更」という機能とが対応付けられている。このため、音声判定部102は、設定指示が入力されたと判定する(S11、YES)。
なお、参考までに、ステップS11において、ユーザが「おはよう」という音声を音声入力部20に入力した場合を考える。図3の(a)に示すように、音声テーブル31には、「おはよう」という音声に対応する設定値変更の機能は存在しない。このため、音声判定部102は、設定指示が入力されていないと判定する(S11、NO)。
次に、ステップS12について説明する。ここでは、図4の(b)に示す入力姿勢テーブルが、入力姿勢テーブル32として用いられる。入力姿勢特定部103は、入力姿勢テーブル32の「音量」の欄に対応する姿勢情報に従って、座った姿勢を入力姿勢として特定し、右肩ピッチ12を入力関節部として特定する。そして、駆動制御部104は、ロボット1が上記入力姿勢を取るように、駆動部40を制御する(S12)。さらに、駆動制御部104は、入力関節部である右肩ピッチ12のトルクをOFFにし、ユーザからの入力を受付可能な状態にする(S13)。
取得部105は、ユーザの入力、すなわち右腕部4の角度情報を、右肩ピッチ12を介して取得する。入力判定部106は、上記角度情報から右肩ピッチ12の角度変化を求め、ユーザによる入力値を判定する。そして設定部107は、上記入力値に応じて音量の設定値を変更する(S14)。
その後、ユーザが「終わったよ」という音声を音声入力部20に入力すると、当該音声を音声認識部101が認識し、音声判定部102が判定する。音声テーブル31には、「終わったよ」という音声が、「設定値の変更の終了」に対応付けられている。このため、音声判定部102は、ユーザによる操作が終了したと判定する(S15、YES)。入力姿勢特定部103は、ロボット1の入力姿勢を解除するように駆動制御部104に通知する。駆動制御部104は、駆動部40を制御して上記入力姿勢を解除する(S16)。本実施形態のロボット1は、入力姿勢を解除した場合、ステップS11の姿勢に戻るように設定されている。
なお、設定部107は、入力値に応じた音量の設定値の変更を、ステップS14においてユーザが右腕部4を操作するたびに(右腕部4の角度が変更されるたびに)行う代わりに、ステップS15においてユーザによる操作が終了したと判定された後に行っても良い。すなわち、ユーザによる操作が終了した時点の直前においてユーザが確定させた右腕部4の角度に応じて、一回だけ音量を変更(設定)しても良い。
(姿勢変化)
図5の(b)〜(d)は、図5の(a)に示したフローチャートにおける、ロボット1の姿勢を示す図である。ステップS11においては、ロボット1は任意の姿勢であり、例えば図5の(b)に示す直立姿勢である。上述した通り、ステップS12において、ロボット1は、入力姿勢、例えば図5の(c)に示す、座った姿勢を取る。
図5の(b)〜(d)は、図5の(a)に示したフローチャートにおける、ロボット1の姿勢を示す図である。ステップS11においては、ロボット1は任意の姿勢であり、例えば図5の(b)に示す直立姿勢である。上述した通り、ステップS12において、ロボット1は、入力姿勢、例えば図5の(c)に示す、座った姿勢を取る。
ステップS14において、ユーザの操作により、図5の(d)に示すように、ロボット1の右腕部4の角度が変化する。その後、ステップS15でパラメータ設定の変更が終了し、ステップS16で入力姿勢が解除されると、図5の(b)に示す直立姿勢に戻る。
(駆動範囲と設定音量との関係)
入力判定部106の動作について、より詳しく説明する。ロボット1のパラメータ設定を変更する目的で、ユーザがロボット1の可動部を操作する場合、ユーザによる可動部の操作量と、設定値の変更量との対応付けを行う必要がある。入力判定部106は、上記の対応付けを行う。
入力判定部106の動作について、より詳しく説明する。ロボット1のパラメータ設定を変更する目的で、ユーザがロボット1の可動部を操作する場合、ユーザによる可動部の操作量と、設定値の変更量との対応付けを行う必要がある。入力判定部106は、上記の対応付けを行う。
図3の(b)は、ロボット1の右肩ピッチ12が入力関節部である場合の、右肩ピッチ12の角度を定義する図である。以下の説明では、この図に示すように、右腕部4をロボット1が座っている平面に対して垂直に下げている場合における右肩ピッチ12の角度を0°とする。右腕部4をロボット1の前方に、水平に伸ばしている場合における右肩ピッチ12の角度を90°とする。右腕部4をロボット1が座っている平面に対して垂直に上げている場合における右肩ピッチ12の角度を180°とする。右腕部4をロボット1の後方に、水平に伸ばしている場合における右肩ピッチ12の角度を270°とする。
一例として、入力関節部である右肩ピッチ12が360°にわたってユーザの入力を受け付ける場合について考える。この場合において、スピーカ23の音量を「0」から「9」までの10段階で設定可能である場合、入力判定部106は、右肩ピッチ12の可動範囲を、音量の段階数10で区切って対応付ける。右肩ピッチの角度をθとした場合、0°≦θ<36°であれば音量「0」、36°≦θ<72°であれば音量「1」、と区切り、324°≦θ<360°であれば音量「9」、と対応付ける。
別の例として、入力関節部である右肩ピッチ12の可動範囲を制限する場合について考える。通常時において右肩ピッチ12が360°回転可能であっても、ユーザの入力を360°にわたって受け付けることが適切であるとは限らない。例えば、右肩ピッチ12の角度が図3の(b)に示す0度付近である場合には、右腕部4が地面に接触する虞がある。また、ユーザがロボット1の正面から右腕部4を操作する場合、ロボット1の後ろ側(図3の(b)に示す270°付近)で右腕部4を操作することは、ロボット1の前側(図3の(b)に示す90°付近)で右腕部4を操作する場合と比較して困難である。
上記の事情を考慮し、通常時(自律状態)とユーザの入力を受け付ける時(他律状態)とで、右肩ピッチ12の可動範囲を異ならせてもよい。例えば、右肩ピッチ12の可動範囲を自律状態では0°〜360°とし、他律状態では30°〜150°までとすることが考えられる。この場合、入力判定部106は、30°から150°までの120°を、音量の段階数である10に区切る。これにより、ユーザが右腕部4を操作しても、右腕部4が地面に接触する虞がなく、右腕部4を操作が困難な角度まで操作する必要もない。
また、ロボット1は、複数の関節部を入力関節部としてもよい。この方法は、特に設定値の段階数が大きい場合に効果的である。例えばスピーカ23の音量を「0」から「99」までの100段階で設定可能である場合を考える。この場合、右肩ピッチ12および左肩ピッチ13の両方をユーザの入力を受け付ける関節部とし、左肩ピッチ13で一の位の段階数を、右肩ピッチ12で十の位の段階数を設定する。それぞれの関節部の可動範囲は、0°から360°まででも、30°から150°まででも、さらに別の範囲であってもよい。
例えば音量「43」に設定する場合、左肩ピッチ13を「3」に設定し、右肩ピッチ12を「4」に設定する。また、音量「99」に設定する場合、左肩ピッチ13および右肩ピッチ12を両方「9」に設定する。このように、複数の関節部を入力関節部とすることで、設定値の段階数が大きい場合でも設定値を容易に入力し、変更することができる。
また、ユーザの入力によって設定値が切り替わったことをユーザに通知するため、設定部107は、設定値が切り替わったタイミングで、入力を受け付けている関節部のトルクを一時的にONにし、当該関節部を停止させるように駆動制御部104に指示してもよい。または、上記のタイミングでスピーカ23から設定値を通知してもよい。
例えば、音量が「1」から「2」に上がったタイミングで、上記関節部の停止、スピーカ23からの「設定値2だよ」という音声の出力、または上記関節部の停止および上記音声の出力の両方を行ってもよい。同様に、音量が「2」から「1」に下がるタイミングで、上記関節部の停止、スピーカ23からの「設定値1だよ」という音声の出力、または上記関節部の停止および上記音声の出力の両方を行ってもよい。
また、ユーザが操作可能な関節部の角度範囲をユーザに示すため、駆動制御部104は、入力姿勢に移行した後、上記関節部のトルクをOFFにする前に、上記角度範囲内で上記関節部を駆動させてもよい。例えば、ユーザからの入力を、右肩ピッチ12において、30°〜150°までの角度範囲内で受け付ける場合、駆動制御部104は、ロボット1を入力姿勢に移行させた後、右肩ピッチ12を30°から150°まで動かしてから、上記入力姿勢における初期位置にすればよい。
上述したロボット1によれば、パラメータ設定用の特定の入力部を有することなく、ユーザに当該パラメータを設定させることができる。したがって、ロボット1を、上記入力部を有さず、当該入力部によってデザインが損なわれないロボットとすることができる。
上述した実施形態では、右肩ピッチ12または左肩ピッチ13が入力関節部として設定される例を説明したが、任意の駆動部40を入力関節部としてよい。また、本実施形態のロボット1は、関節部を有するロボットであれば、上述した人型ロボットの他、動物型または虫型などのロボットであってもよい。さらに、上記以外のロボットであっても、角度を調整可能な部位を持つロボットであれば本実施形態のロボット1とすることができる。例えば、植物型のロボットで、花、茎、または枝などの角度が変更可能であれば、本実施形態のロボット1とすることができる。
なお、ロボット1は、ロボット1のデザインを損なわないサイズおよび形状であれば、LCD(Liquid Crystal Display、液晶ディスプレイ)などの表示部、または入力部を備えていてもよい。入力部の例としては、入力キー/ボタン、または表示部と一体化したタッチパネルなどが挙げられる。
上述したフローチャートの説明では、ステップS11およびS15において、音声入力部20に入力された音声に基づいて、ロボット1の設定値の変更が開始および終了されていた。しかし、ロボット1の設定値の変更は、音声以外に基づいて開始および終了されてもよい。例えば、ロボット1は、上記入力部への入力により設定値の変更を開始および終了してもよい。この場合においても、設定値の変更については、上述した通り、ロボット1の可動部を操作することで行われる。
〔実施形態2〕
図6を参照して、本発明に係る実施形態2を以下に説明する。上述した実施形態1と共通する各部材には同じ符号を付し、詳細な説明を省略する。
図6を参照して、本発明に係る実施形態2を以下に説明する。上述した実施形態1と共通する各部材には同じ符号を付し、詳細な説明を省略する。
図6の(a)は、本実施形態のロボット1の制御方法によるパラメータ設定処理の流れを示すフローチャートである。図6の(b)、(d)、および(f)は、それぞれ現在の設定値に対する右肩ピッチ12の角度を示す、ロボット1の正面図である。図6の(c)、(e)、および(g)は、それぞれ(b)、(d)、および(f)に示したロボット1の側面図である。
図6の(a)に示したフローチャートは、ステップS12とS13との間にステップS21が含まれる点で図5の(a)に示したフローチャートと相違する。ステップS12においてロボット1が入力姿勢に移行した後、駆動制御部104は入力関節部を制御し、設定項目の現在の設定値をロボット1の入力関節部に対応する可動部に反映させる(S21)。上記現在の設定値は、例えば記憶部30に記憶されている。
例えば、入力関節部が右肩ピッチ12であり、音量の設定変更段階が0〜10までの11段階であり、右肩ピッチ12の可動範囲が0°〜180°までである場合を考える。右腕部4は、音量「0」の場合に、図6の(b)および(c)に示すように、真下に下がった状態となる。また、右腕部4は、音量「10」の場合に、図6の(f)および(g)に示すように、真上に上がった状態となる。ここで、音量の現在の設定値が「5」であった場合、駆動制御部104は、右腕部4がロボット1から見て前方に突き出した状態(図6の(d)および(e))となるように、右肩ピッチ12を制御する。
このように、設定項目の現在の設定値をロボット1の入力関節部に反映させることで、設定を変更する対象となる項目の、現在の設定値をユーザに通知することができる。このため、設定を変更するための入力操作がしやすくなる。
〔実施形態3〕
図7を参照して、本発明に係る実施形態3を以下に説明する。上述した実施形態1または2と共通する各部材には同じ符号を付し、詳細な説明を省略する。
図7を参照して、本発明に係る実施形態3を以下に説明する。上述した実施形態1または2と共通する各部材には同じ符号を付し、詳細な説明を省略する。
図7の(a)は、本実施形態のロボット1の制御方法によるパラメータ設定処理の流れを示すフローチャートである。図7の(b)は、設定項目の現在値が入力関節部以外の関節部に反映されている状態を示すロボット1の正面図である。図7の(c)は、図7の(b)に示したロボット1の側面図である。図7の(d)は、図7の(c)に示したロボット1がユーザにより操作されている状態を示す、ロボット1の正面図である。図7の(e)は、図7の(d)に示したロボット1の側面図である。
図7の(a)に示したフローチャートは、ステップS12とS13との間にステップS31が含まれる点で図5の(a)に示したフローチャートと相違する。ステップS12においてロボット1が入力姿勢に移行した後、駆動制御部104は、設定項目の現在の設定値を第2の可動部に反映させる(S31)。第2の可動部は、入力関節部に対応する可動部以外の任意の可動部である。第2の可動部は、常に同じであってもよく、設定値の種類に対応した第2の可動部が入力姿勢テーブル32にて定められていてもよい。
例えば、実施形態2と同様、入力関節部が右肩ピッチ12であり、音量の設定変更段階が11段階である場合を考える。また、第2の可動部が左腕部5であるとする。この場合において、音量の現在の設定値が「5」であった場合、駆動制御部104は、図7の(b)〜(e)に示すように、左腕部5がロボット1から見て前方に、水平に突き出した状態となるように、第2の駆動部である左肩ピッチ13を制御する。このとき、右腕部4は、実施形態1と同様、図7の(b)および(c)に示すように、下げた状態であってよい。または、実施形態2と同様、図7の(d)および(e)に示すように、現在の設定値を反映していてもよい。
このように、設定項目の現在の設定値をロボット1の入力関節部以外の関節部に反映させることで、ユーザは設定変更前の設定値を確認しながら設定値を変更できる。このため、設定を変更するための入力操作がしやすくなる。
本実施形態のロボット1がロボットフォンである場合について、以下に説明する。なお、ロボットフォンは、LCDを備えているものとする。
音量またはLCDの輝度の制御、あるいはゲームなどのアプリからのアナログ入力の要求があった場合、駆動制御部104は、ロボット1を入力姿勢に移行させる。入力姿勢は、入力を要求される値の数によって異なる。音量またはLCD輝度の調整であれば、入力を要求される値は1値であるため、ロボット1は1値用の入力姿勢(例えば、図5の(c)に示すような座った姿勢)に移行する。一方、ゲームのジョイスティックのように用いる場合には、入力を要求される値は2値であるため、ロボット1は2値用の入力姿勢(例えば、図5の(b)に示すような直立姿勢)に移行する。入力姿勢への移行時には、入力を要求された項目の現在の設定値に合わせて、入力を受け付ける関節部の角度(可動部の位置)を移動させてもよい。入力の終了時には、音声、またはLCDに重畳して設けられたタッチパネルなどにより、ロボット1に対して当該終了を通知する。ロボット1は、当該通知を受けて、初期状態の姿勢へと移行する。
〔変形例1〕
複数の設定項目の設定値を同時に変更する例について、以下に2通り説明する。1つの例としては、複数の設定項目について同時に設定を行う設定指示を音声テーブル31に設けることが挙げられる。例えば、図3の(a)に示した音声と機能との対応関係に加えて、「音声:「一括設定変更」、機能:音量/LEDの明るさ」という対応関係を記憶させておく。この場合、音声認識部101が「一括設定変更」という音声を認識すると、取得部105は、音量に対応する入力関節部と、LEDの明るさに対応する入力関節部とのそれぞれについて角度の変化量を取得し、パラメータ設定を変更する。
複数の設定項目の設定値を同時に変更する例について、以下に2通り説明する。1つの例としては、複数の設定項目について同時に設定を行う設定指示を音声テーブル31に設けることが挙げられる。例えば、図3の(a)に示した音声と機能との対応関係に加えて、「音声:「一括設定変更」、機能:音量/LEDの明るさ」という対応関係を記憶させておく。この場合、音声認識部101が「一括設定変更」という音声を認識すると、取得部105は、音量に対応する入力関節部と、LEDの明るさに対応する入力関節部とのそれぞれについて角度の変化量を取得し、パラメータ設定を変更する。
複数の設定値を同時に変更する別の例として、複数の設定指示を重複して受け付けることが挙げられる。例えば「音量変更」の設定指示を取得した後、設定値の変更を終了せずに「明るさ変更」の音声を取得した場合、音量およびLEDの明るさを同時に変更できるようにすればよい。
これにより、複数の設定項目について、容易に設定値を変更することができる。この場合、音量に対応する入力関節部と、LEDの明るさに対応する入力関節部とは互いに異なっていることが好ましい。例えば、音量に対応する入力関節部を右肩ピッチ12、LEDの明るさに対応する入力関節部を左肩ピッチ13にすればよい。
〔変形例2〕
「音量」または「LED22の明るさ」といった設定項目では、1つの設定項目が1つの設定値を持つ。これに対し、1つの設定項目が複数の設定値を持つ場合について以下に説明する。例えば「LED22の色」という設定項目が、R(レッド)の強度、G(グリーン)の強度、およびB(ブルー)の強度という3つの設定値を持つ場合を考える。この場合、Rの強度を右肩ピッチ12、Gの強度を左肩ピッチ13、Bの強度を右股ピッチ16で設定できるようにする。このように、複数の設定値を持つ設定項目について、設定値ごとに異なる関節部を入力関節部とすれば、それぞれの設定値を容易に変更できる。
「音量」または「LED22の明るさ」といった設定項目では、1つの設定項目が1つの設定値を持つ。これに対し、1つの設定項目が複数の設定値を持つ場合について以下に説明する。例えば「LED22の色」という設定項目が、R(レッド)の強度、G(グリーン)の強度、およびB(ブルー)の強度という3つの設定値を持つ場合を考える。この場合、Rの強度を右肩ピッチ12、Gの強度を左肩ピッチ13、Bの強度を右股ピッチ16で設定できるようにする。このように、複数の設定値を持つ設定項目について、設定値ごとに異なる関節部を入力関節部とすれば、それぞれの設定値を容易に変更できる。
〔ソフトウェアによる実現例〕
ロボット1の制御ブロック(特に制御部10)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。後者の場合、ロボット1は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
ロボット1の制御ブロック(特に制御部10)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。後者の場合、ロボット1は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
〔まとめ〕
本発明の態様1に係るロボット(1)は、可動部(右腕部4、左腕部5等)と、上記可動部を駆動する駆動部(40)と、所定のパラメータの値を、上記位置情報取得部によって取得した上記位置情報に応じた値に設定する位置情報取得部(105)と、位置情報取得部により取得した上記位置情報に応じた値を、所定のパラメータの値として設定する設定部(107)とを備えていることを特徴としている。
本発明の態様1に係るロボット(1)は、可動部(右腕部4、左腕部5等)と、上記可動部を駆動する駆動部(40)と、所定のパラメータの値を、上記位置情報取得部によって取得した上記位置情報に応じた値に設定する位置情報取得部(105)と、位置情報取得部により取得した上記位置情報に応じた値を、所定のパラメータの値として設定する設定部(107)とを備えていることを特徴としている。
上記の構成によれば、可動部は、腕部または脚部などの、駆動部によって駆動されるロボットの部分である。ユーザがこの可動部を操作すれば、音量または光量等のパラメータの値が、操作後の可動部の位置に応じた値に設定される。したがってロボットは、パラメータ設定用の特定の入力部を有する必要がない。
以上のように、本発明に係るロボットによれば、パラメータ設定用の特定の入力部を有することなく、ユーザに当該パラメータを設定させることができる効果を奏する。
本発明の態様2に係るロボットは、上記態様1において、上記駆動部から上記可動部への力の伝達を停止させる停止部をさらに備えており、上記位置情報取得部は、上記停止部により上記駆動部から上記可動部への上記力の伝達を停止している状態で上記可動部が操作された場合、上記位置情報を取得することを特徴としている。
上記の構成によれば、可動部の操作時に、対応する駆動部から当該可動部への力の伝達が停止されているので、可動部を確実に操作することができる。
本発明の態様3に係るロボットは、上記態様1または2において、上記位置情報取得部は、上記位置情報として、上記可動部の角度に関する角度情報を取得することを特徴としている。
上記の構成によれば、ユーザは、可動部の角度を変更するように可動部を操作することによって、パラメータの設定値をロボットに入力することができる。
本発明の態様4に係るロボットは、上記態様1〜3のいずれかにおいて、上記可動部を含む異なる複数の可動部と、上記駆動部を含む、上記複数の可動部を個別に駆動する複数の駆動部と、上記パラメータの設定指示を取得する設定指示取得部(音声入力部20)と、上記設定指示取得部により上記設定指示を取得した場合、上記複数の駆動部のうち少なくともいずれかを制御することによって、上記複数の可動部のうち少なくともいずれかを、上記可動部に対する操作を受け付けるための上記ロボットの姿勢に対応した位置に駆動させる駆動制御部とをさらに備えていることを特徴としている。
上記の構成によれば、ユーザは、パラメータの設定指示をロボットに与えた後のロボットの姿勢変化を視認することによって、ロボットが、可動部の操作によるパラメータ設定値の入力を可能とするモードに移行したことを知ることができる。これによりユーザは、パラメータ設定用の可動部の操作を適切なタイミングで開始することができる。
本発明の態様5に係るロボットは、上記態様1〜3のいずれかにおいて、上記パラメータの設定指示を取得する設定指示取得部と、上記設定指示取得部により上記設定指示を取得した場合、上記駆動部を制御することによって、上記可動部を、上記パラメータの現在値に応じた位置に駆動させる駆動制御部とをさらに備えていることを特徴としている。
上記の構成によれば、ユーザは、パラメータの設定指示をロボットに与えた後の可動部の位置を視認することによって、設定対象のパラメータの現在値を知ることができる。これによりユーザは、パラメータ設定用の可動部の現在位置を基準に可動部を操作することができるので、所望の設定値を入力するための可動部の操作を容易に行うことできる。
本発明の態様6に係るロボットは、上記態様1〜3のいずれかにおいて、上記可動部と異なる第2の可動部(左腕部5)と、上記第2の可動部を駆動する、上記駆動部と異なる第2の駆動部(左肩ピッチ13)と、上記パラメータの設定指示を取得する設定指示取得部と、上記設定指示取得部により上記設定指示を取得した場合、上記第2の駆動部を制御することによって、上記第2の可動部を、上記パラメータの現在値に応じた位置に駆動させる駆動制御部とをさらに備えていることを特徴としている。
上記の構成によれば、ユーザは、パラメータの設定指示をロボットに与えた後の第2の可動部の位置を視認することによって、設定対象のパラメータの現在値を知ることができる。これによりユーザは、第2の可動部の位置に基づきパラメータの現在値を把握しながら、パラメータ設定用の可動部を操作することできるので、所望の設定値を入力するための可動部の操作を容易に行うことできる。
本発明の態様7に係るロボットの制御方法は、可動部と、上記可動部を駆動する駆動部とを備えているロボットの制御方法であって、上記可動部の位置に関する位置情報を取得する位置情報取得工程と、所定のパラメータの値を、上記位置情報取得工程において取得した上記位置情報に応じた値に設定する設定工程とを有することを特徴としている。
上記の構成によれば、態様1に係るロボットと同様の効果を奏する。
本発明の各態様に係るロボットは、コンピュータによって実現してもよく、この場合には、コンピュータを上記ロボットが備える各部(ソフトウェア要素)として動作させることにより上記ロボットをコンピュータにて実現させるロボットの制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態も、本発明の技術的範囲に含まれる。各実施形態にそれぞれ開示された技術的手段を組み合わせることによって、新しい技術的特徴を形成することもできる。
1 ロボット 4 右腕部(可動部) 5 左腕部(可動部、第2の可動部) 12 右肩ピッチ(駆動部) 13 左肩ピッチ(第2の駆動部) 20 音声入力部(設定指示取得部) 40 駆動部 104 駆動制御部(停止部) 105 取得部(位置情報取得部) 107 設定部
Claims (8)
- 可動部と、
上記可動部を駆動する駆動部と、
上記可動部の位置に関する位置情報を取得する位置情報取得部と、
所定のパラメータの値を、上記位置情報取得部によって取得した上記位置情報に応じた値に設定する設定部とを備えていることを特徴とするロボット。 - 上記駆動部から上記可動部への力の伝達を停止させる停止部をさらに備えており、
上記位置情報取得部は、上記停止部により上記駆動部から上記可動部への上記力の伝達を停止している状態で上記可動部が操作された場合、上記位置情報を取得することを特徴とする請求項1に記載のロボット。 - 上記位置情報取得部は、上記位置情報として、上記可動部の角度に関する角度情報を取得することを特徴とする請求項1に記載のロボット。
- 上記可動部を含む異なる複数の可動部と、
上記駆動部を含む、上記複数の可動部を個別に駆動する複数の駆動部と、
上記パラメータの設定指示を取得する設定指示取得部と、
上記設定指示取得部により上記設定指示を取得した場合、上記複数の駆動部のうち少なくともいずれかを制御することによって、上記複数の可動部のうち少なくともいずれかを、上記可動部に対する操作を受け付けるための上記ロボットの姿勢に対応した位置に駆動させる駆動制御部とをさらに備えていることを特徴とする請求項1〜3のいずれか1項に記載のロボット。 - 上記パラメータの設定指示を取得する設定指示取得部と、
上記設定指示取得部により上記設定指示を取得した場合、上記駆動部を制御することによって、上記可動部を、上記パラメータの現在値に応じた位置に駆動させる駆動制御部とをさらに備えていることを特徴とする請求項1〜3のいずれか1項に記載のロボット。 - 上記可動部と異なる第2の可動部と、
上記第2の可動部を駆動する、上記駆動部と異なる第2の駆動部と、
上記パラメータの設定指示を取得する設定指示取得部と、
上記設定指示取得部により上記設定指示を取得した場合、上記第2の駆動部を制御することによって、上記第2の可動部を、上記パラメータの現在値に応じた位置に駆動させる駆動制御部とをさらに備えていることを特徴とする請求項1〜3のいずれか1項に記載のロボット。 - 可動部と、
上記可動部を駆動する駆動部とを備えているロボットの制御方法であって、
上記可動部の位置に関する位置情報を取得する位置情報取得工程と、
所定のパラメータの値を、位置情報取得工程において取得した上記位置情報に応じた値に設定する設定工程とを有するロボットの制御方法。 - 請求項1から6のいずれか1項に記載のロボットとしてコンピュータを機能させるためのプログラムであって、コンピュータを上記位置情報取得部および上記設定部として機能させるためのプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015248040 | 2015-12-18 | ||
JP2015248040 | 2015-12-18 | ||
PCT/JP2016/077358 WO2017104199A1 (ja) | 2015-12-18 | 2016-09-16 | ロボット、ロボットの制御方法、およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2017104199A1 true JPWO2017104199A1 (ja) | 2018-04-12 |
Family
ID=59056531
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017556360A Pending JPWO2017104199A1 (ja) | 2015-12-18 | 2016-09-16 | ロボット、ロボットの制御方法、およびプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20180319017A1 (ja) |
JP (1) | JPWO2017104199A1 (ja) |
CN (1) | CN108472813A (ja) |
WO (1) | WO2017104199A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113119120B (zh) * | 2021-03-30 | 2022-06-07 | 深圳市优必选科技股份有限公司 | 一种机器人的控制方法、装置及机器人 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06190753A (ja) * | 1992-12-25 | 1994-07-12 | Fujitsu Ltd | ロボット制御装置 |
JP2003305670A (ja) * | 2002-02-13 | 2003-10-28 | Center For Advanced Science & Technology Incubation Ltd | ロボットフォン |
US20120185089A1 (en) * | 2008-12-17 | 2012-07-19 | Schreiber Guenter | Method for allowing a manipulator to cover a predetermined trajectory, and control device for carrying out said method |
JP2013071239A (ja) * | 2011-09-29 | 2013-04-22 | Panasonic Corp | ロボットアームの制御装置及び制御方法、ロボット、ロボットアームの制御プログラム、並びに、集積電子回路 |
JPWO2011161765A1 (ja) * | 2010-06-22 | 2013-08-19 | 株式会社東芝 | ロボット制御装置 |
JP2014128843A (ja) * | 2012-12-28 | 2014-07-10 | Toyota Motor Corp | ロボットアーム教示システム及びロボットアーム教示方法 |
JP2014213399A (ja) * | 2013-04-24 | 2014-11-17 | 国立大学法人横浜国立大学 | ロボット教示方法及び教示システム |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0122347B1 (en) * | 1983-02-15 | 1988-04-20 | Graham S. Hawkes | Audio feedback for remotely controlled manipulators |
US5243513A (en) * | 1991-04-23 | 1993-09-07 | Peters John M | Automation control with improved operator/system interface |
US5954621A (en) * | 1993-07-09 | 1999-09-21 | Kinetecs, Inc. | Exercise apparatus and technique |
US6028593A (en) * | 1995-12-01 | 2000-02-22 | Immersion Corporation | Method and apparatus for providing simulated physical interactions within computer generated environments |
JP2000254360A (ja) * | 1999-03-11 | 2000-09-19 | Toybox:Kk | 対話型玩具 |
US6244429B1 (en) * | 1999-05-04 | 2001-06-12 | Kalish Canada Inc. | Automatic adjustable guide rails |
WO2003068461A1 (fr) * | 2002-02-13 | 2003-08-21 | Toudai Tlo, Ltd. | Robot-telephone |
US7252299B2 (en) * | 2005-02-15 | 2007-08-07 | Marine Travelift, Inc. | Steering system for crane |
US8190292B2 (en) * | 2005-08-29 | 2012-05-29 | The Board Of Trustees Of The Leland Stanford Junior University | High frequency feedback in telerobotics |
DE102012202181A1 (de) * | 2012-02-14 | 2013-08-29 | Kuka Roboter Gmbh | Verfahren zum Ermitteln eines Drehmoments und Industrieroboter |
JP5948932B2 (ja) * | 2012-02-16 | 2016-07-06 | セイコーエプソン株式会社 | ロボット制御装置、ロボット制御方法およびロボット制御プログラムならびにロボットシステム |
US20150107444A1 (en) * | 2012-04-16 | 2015-04-23 | Cornell Center for Technology, Enterprise & Commercialization | Digitally controlled musical instrument |
JP5946859B2 (ja) * | 2014-04-14 | 2016-07-06 | ファナック株式会社 | 力に応じて動かすロボットのロボット制御装置およびロボットシステム |
-
2016
- 2016-09-16 CN CN201680061701.3A patent/CN108472813A/zh active Pending
- 2016-09-16 JP JP2017556360A patent/JPWO2017104199A1/ja active Pending
- 2016-09-16 WO PCT/JP2016/077358 patent/WO2017104199A1/ja active Application Filing
- 2016-09-16 US US15/766,784 patent/US20180319017A1/en not_active Abandoned
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06190753A (ja) * | 1992-12-25 | 1994-07-12 | Fujitsu Ltd | ロボット制御装置 |
JP2003305670A (ja) * | 2002-02-13 | 2003-10-28 | Center For Advanced Science & Technology Incubation Ltd | ロボットフォン |
US20120185089A1 (en) * | 2008-12-17 | 2012-07-19 | Schreiber Guenter | Method for allowing a manipulator to cover a predetermined trajectory, and control device for carrying out said method |
JPWO2011161765A1 (ja) * | 2010-06-22 | 2013-08-19 | 株式会社東芝 | ロボット制御装置 |
JP2013071239A (ja) * | 2011-09-29 | 2013-04-22 | Panasonic Corp | ロボットアームの制御装置及び制御方法、ロボット、ロボットアームの制御プログラム、並びに、集積電子回路 |
JP2014128843A (ja) * | 2012-12-28 | 2014-07-10 | Toyota Motor Corp | ロボットアーム教示システム及びロボットアーム教示方法 |
JP2014213399A (ja) * | 2013-04-24 | 2014-11-17 | 国立大学法人横浜国立大学 | ロボット教示方法及び教示システム |
Also Published As
Publication number | Publication date |
---|---|
WO2017104199A1 (ja) | 2017-06-22 |
US20180319017A1 (en) | 2018-11-08 |
CN108472813A (zh) | 2018-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2019069268A5 (ja) | ||
JP7119896B2 (ja) | コミュニケーションロボットおよびコミュニケーションロボットの制御プログラム | |
US20190389075A1 (en) | Robot system and robot dialogue method | |
WO2014162161A1 (en) | Shoulder and arm arrangement for a humanoid robot | |
EP3499344A1 (en) | Haptically-enabled peripheral usable for two-dimensional and three-dimensional tracking | |
CN112154047A (zh) | 远程操作系统、信息处理方法以及程序 | |
WO2017104199A1 (ja) | ロボット、ロボットの制御方法、およびプログラム | |
KR101237297B1 (ko) | 모바일 기기를 이용한 구동장치 및 그 제어방법 | |
JPWO2021059359A1 (ja) | アニメーション制作システム | |
JP6113897B1 (ja) | 仮想空間を提供する方法、仮想体験を提供する方法、プログラム、および記録媒体 | |
JP7470345B2 (ja) | アニメーション制作システム | |
JP5917463B2 (ja) | 制御装置、制御装置の制御方法、制御システム、および、制御プログラム | |
CN105955488A (zh) | 一种操控终端的方法和装置 | |
JP6784056B2 (ja) | 頭部装着型表示装置、表示システム、頭部装着型表示装置の制御方法、およびコンピュータープログラム | |
WO2017119348A1 (ja) | ロボット、ロボットの制御方法、およびプログラム | |
JP2003266353A (ja) | ロボット装置及びその制御方法 | |
CN206671687U (zh) | 一种用于头戴式的智能显示器 | |
KR101402908B1 (ko) | 행위기반 로봇 제어장치 및 그 제어방법 | |
CN206906815U (zh) | 一种采用vr技术的按摩器控制系统 | |
JP3194056U (ja) | ロボット | |
KR20160125837A (ko) | 손 동작으로 제어하는 재난 구조 로봇 | |
JP2021064299A (ja) | 制御システム、端末装置、制御方法及びコンピュータプログラム | |
EP4325335A1 (en) | Multi-stage gestures detected based on neuromuscular-signal sensors of a wearable device to activate user-interface interactions with low-false positive rates, and systems and methods of use thereof | |
JP7027285B2 (ja) | 遠隔制御サーバおよび遠隔制御システム | |
JP2019072787A (ja) | 制御装置、ロボット、制御方法、および制御プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171220 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180925 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190402 |