JP6354796B2 - ロボット、ロボットの制御方法及びプログラム - Google Patents

ロボット、ロボットの制御方法及びプログラム Download PDF

Info

Publication number
JP6354796B2
JP6354796B2 JP2016124224A JP2016124224A JP6354796B2 JP 6354796 B2 JP6354796 B2 JP 6354796B2 JP 2016124224 A JP2016124224 A JP 2016124224A JP 2016124224 A JP2016124224 A JP 2016124224A JP 6354796 B2 JP6354796 B2 JP 6354796B2
Authority
JP
Japan
Prior art keywords
contact
predetermined
robot
target
predetermined target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016124224A
Other languages
English (en)
Other versions
JP2017226044A (ja
Inventor
大塚 利彦
利彦 大塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2016124224A priority Critical patent/JP6354796B2/ja
Priority to US15/453,252 priority patent/US10576618B2/en
Priority to CN201710281500.0A priority patent/CN107538488B/zh
Publication of JP2017226044A publication Critical patent/JP2017226044A/ja
Application granted granted Critical
Publication of JP6354796B2 publication Critical patent/JP6354796B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0003Home robots, i.e. small robots for domestic use
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • B25J13/084Tactile sensors
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H2200/00Computerized interactive toys, e.g. dolls
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Toys (AREA)
  • Manipulator (AREA)

Description

本発明は、ロボット、ロボットの制御方法及びプログラムに関する。
人とコミュニケーションをとるロボットに関する技術が広く知られている。例えば、特許文献1は、液晶表示装置に表示された顔のパーツが人から撫でられたときの反応として、顔の表情を変化させるとともに、頭部や耳部を揺動させるロボットを開示している。
特開2012−239557号公報
しかしながら、特許文献1に開示された技術では、撫でられた顔のパーツに応じてあらかじめ設定された反応を示すことから、ロボットの感情表現が不十分であり、ユーザ等の所定の対象が早期に飽きて利用しなくなる可能性がある。
本発明は、前述の事情に鑑みてなされたものであり、所定の対象を飽きさせることなく継続して利用させることができるロボット、ロボットの制御方法及びプログラムを提供することを目的とする。
記目的を達成するため、本発明に係るロボットの一態様は、
自装置を移動させる移動手段と、
所定の対象による接触種別を判定する判定手段と、
前記判定手段により前記接触種別として前記所定の対象に撫でられたと判定された場合に、前記自装置が前記所定の対象に近づくように前記移動手段を制御し、又は、前記判定手段により前記接触種別として前記所定の対象に叩かれたと判定された場合に、前記自装置が前記所定の対象から離れるように前記移動手段を制御する制御手段と、
を備え、
前記制御手段は、接触強度と所定の強度との関係、及び、接触時間と所定の時間との関係にそれぞれ応じて、前記自装置が異なる速度で移動するように前記移動手段を制御する、
ことを特徴とする。
また、前記目的を達成するため、本発明に係るロボットの一態様は、
自装置を移動させる移動手段と、
所定の対象による接触種別を判定する判定手段と、
前記判定手段により前記接触種別として前記所定の対象に撫でられたと判定された場合に、前記自装置が前記所定の対象に近づくように前記移動手段を制御し、又は、前記判定手段により前記接触種別として前記所定の対象に叩かれたと判定された場合に、前記自装置が前記所定の対象から離れるように前記移動手段を制御する制御手段と、
前記所定の対象による接触の状態を示す接触情報を逐次記憶する記憶手段と、
を備え、
前記制御手段は、前記記憶手段に記憶された前記接触情報を読み出すとともに、接触頻度の高い接触部位が前記所定の対象に近づくように前記移動手段を制御する、
ことを特徴とする。
また、前記目的を達成するため、本発明に係るロボットの制御方法の一態様は、
制御手段を有するロボットの制御方法であって、
前記制御手段は、
前記ロボットを移動させる移動ステップと、
所定の対象による接触種別を判定する判定ステップと、
前記判定ステップで前記接触種別として前記所定の対象に撫でられたと判定された場合に、前記ロボットが前記所定の対象に近づくように移動を制御し、又は、前記判定ステップで前記接触種別として前記所定の対象に叩かれたと判定された場合に、前記ロボットが前記所定の対象から離れるように移動を制御する制御ステップと、
実行し
前記制御手段は、前記制御ステップにおいて、接触強度と所定の強度との関係、及び、接触時間と所定の時間との関係にそれぞれ応じて、前記ロボットが異なる速度で移動するように移動を制御する、
ことを特徴とする。
また、前記目的を達成するため、本発明に係るロボットの制御方法の一態様は、
制御手段を有するロボットの制御方法であって、
前記制御手段は、
前記ロボットを移動させる移動ステップと、
所定の対象による接触種別を判定する判定ステップと、
前記判定ステップで前記接触種別として前記所定の対象に撫でられたと判定された場合に、前記ロボットが前記所定の対象に近づくように移動を制御し、又は、前記判定ステップで前記接触種別として前記所定の対象に叩かれたと判定された場合に、前記ロボットが前記所定の対象から離れるように移動を制御する制御ステップと、
前記所定の対象による接触の状態を示す接触情報を逐次記憶する記憶ステップと、
を実行し、
前記制御手段は、前記制御ステップにおいて、前記記憶ステップで記憶された前記接触情報を読み出すとともに、接触頻度の高い接触部位が前記所定の対象に近づくように移動を制御する、
ことを特徴とする。
また、前記目的を達成するため、本発明に係るプログラムの一態様は、
ロボットのコンピュータに、
前記ロボットを移動させる移動処理と、
所定の対象による接触種別を判定する判定処理と、
前記判定処理で前記接触種別として前記所定の対象に撫でられたと判定された場合に、前記ロボットが前記所定の対象に近づくように移動を制御し、又は、前記判定処理で前記接触種別として前記所定の対象に叩かれたと判定された場合に、前記ロボットが前記所定の対象から離れるように移動を制御する制御処理と、
を実行させ、
前記制御処理において、接触強度と所定の強度との関係、及び、接触時間と所定の時間との関係にそれぞれ応じて、前記ロボットが異なる速度で移動するように移動を制御する、
ことを特徴とする。
また、前記目的を達成するため、本発明に係るのプログラムの一態様は、
ロボットのコンピュータに、
前記ロボットを移動させる移動処理と、
所定の対象による接触種別を判定する判定処理と、
前記判定処理で前記接触種別として前記所定の対象に撫でられたと判定された場合に、前記ロボットが前記所定の対象に近づくように移動を制御し、又は、前記判定処理で前記接触種別として前記所定の対象に叩かれたと判定された場合に、前記ロボットが前記所定の対象から離れるように移動を制御する制御処理と、
前記所定の対象による接触の状態を示す接触情報を逐次記憶する記憶処理と、
を実行させ、
前記制御処理において、前記記憶処理で記憶された前記接触情報を読み出すとともに、接触頻度の高い接触部位が前記所定の対象に近づくように移動を制御する、
ことを特徴とする。
本発明によれば、所定の対象を飽きさせることなく継続して利用させることができるロボット、ロボットの制御方法及びプログラムを提供することができる。
(A)は本発明の実施形態に係るロボットの正面外観図であり、(B)はロボットの背面外観図である。 ロボットの機能的な構成を示す図である。 第1動作モード用の接触対応動作テーブルの一例を示す図である。 所定の対象の接触に対するロボットの動作を説明する図である。(A)は所定の対象に接触された際のロボットの状態、(B)及び(C)は接触種別に応じて対応動作を実行した際のロボットの状態を示す。 第2動作モード用の接触対応動作テーブルの一例を示す図である。 接触強度−移動速度対応テーブルの一例を示す図である。 接触要求部位決定テーブルの一例を示す図である。 接触履歴テーブルの他の一例を示す図である。 接触対応動作処理の流れを示すフローチャートである。 動作モード決定処理の流れを示すフローチャートである。 接触要求動作処理の流れを示すフローチャートである。
以下、図面を参照しながら、本発明の実施形態に係るロボットについて説明する。
本発明の実施形態に係るロボットは、ユーザ等の所定の対象からの接触などの働きかけに応じて自律的に動作するロボット装置である。ロボット100は、図1(A),(B)に示すように、外観的には小型犬を模した立体的な形状を有し、プラスチック等の硬質合成樹脂を主たる材料として作製されている。ロボット100は、頭部101、胴体部102、手部107、足部108、尻尾部109を備える。胴体部102は、腹部102Aと背部102Bとを有する。また、頭部101は、耳部103、眼部104、鼻部105、口部106を有する。
また、ロボット100は、所定の対象の接触頻度に応じて切り替わる2つの動作モード(第1動作モードと第2動作モード)により、多様な動作を実行する。
ロボット100は、機能的には、図2に示すように、制御部110、記憶部120、センサ部130、音声出力部140、移動部150、可動部160、通信部170、電源部180を備える。
制御部110は、ロボット100全体の動作を制御する。制御部110は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)を有するマイクロコンピュータにより構成される。制御部110は、CPUがROMに記憶された動作プログラムを読み出してRAM上で実行することにより、ロボット100の各部を制御する。このように、制御部110は、制御手段として機能する。
制御部110は、動作プログラムに基づき、例えば、センサ部130から取得した各種データに応じて、ロボット100を移動させるための制御信号を生成して移動部150に送信することにより、ロボット100の移動動作を制御する。
記憶部120は、制御部110がロボット100の各部を制御するために必要な種々のデータを記憶する。記憶部120は、例えば、フラシュメモリやHDD(Hard Disc Drive)などの不揮発性の記憶装置により構成される。記憶部120は、例えば、接触対応動作テーブル、接触強度指標−移動速度対応テーブル、接触要求部位決定テーブル、接触履歴テーブルをそれぞれ所定の記憶領域に記憶する。
図3に示す接触対応動作テーブルは、第1動作モードにおいて参照され、所定の対象の接触に対してロボット100が実行する動作を規定したテーブルである。第1動作モード用の接触対応動作テーブルは、「接触部位」、「接触種別」、「第1対応動作」、「第2対応動作」、「決定割合」の各データを対応付けて構成されている。
「接触部位」は、所定の対象による接触を検知し得るロボット100の部位であり、「頭部」、「腹部」、「背部」の3つに区分されている。「接触種別」は、所定の対象の接触のしかたに応じて分類され、ロボット100を撫でる行為を示す「撫でる」と、ロボット100を叩く行為を示す「叩く」と、に区分されている。
「第1対応動作」は、所定の対象による接触に応じて実行される動作の内容である。「第1対応動作」は、「接触部位」の別に関わらず、接触種別「撫でる」に対して、「所定の対象に近づくように移動(接近移動)」が規定されている一方、接触種別「叩く」に対して、「所定の対象から離れるように移動(離反移動)」が規定されている。
図4(A)に示すように、ロボット100の頭部101に所定の対象の手UHが接触したとき、その接触種別が「撫でる」であるか「叩く」であるかに応じて、ロボット100の移動の態様が異なる。接触種別「撫でる」の場合、ロボット100は所定の対象に近づくように矢印Aの方向に移動し、図4(B)に示すように、所定の対象の手UHが頭部101にさらに密接する。一方、接触種別「叩く」の場合、ロボット100は所定の対象から離れるように矢印Bの方向に移動し、図4(C)に示すように、所定の対象の手UHが頭部101から離間する。このように、ロボット100は、所定の対象から撫でられると好意的に受け入れ、もっと撫でてもらえるように所定の対象に接近する動作を実行するのに対し、所定の対象から叩かれると拒絶し、さらに叩かれないように所定の対象から離反する動作を実行する。
「第2対応動作」は、第1対応動作に後続して実行される動作の内容である。「第2対応動作」は、例えば、「まぶたを閉じる」や「手足の動きを止める」等のように複数の動作が用意されており、各々には異なる「決定割合」が割り当てられている。「決定割合」は、例えば、一般的な手法により生成される乱数が取り得る値の全範囲を100としたときの割合である。また、接触種別「撫でる」に対しては、おもに好意的な動作が規定されているが、接触種別「叩く」に対しては、おもに反発的な動作が規定されている。さらに、接触部位によって、異なる動作が割り振られている。
図5に示す接触対応動作テーブルは、第2動作モードにおいて参照され、所定の対象の接触に対してロボット100が実行する動作を規定したテーブルである。第2動作モード用の接触対応動作テーブルは、図3に示す第1動作モード用の接触対応動作テーブルと同様、「接触部位」、「接触種別」、「第1対応動作」、「第2対応動作」、「決定割合」の各データを対応付けて構成されている。
ここで、第1動作モード用の接触対応動作テーブルと第2動作モード用の接触対応動作テーブルとを比較すると、両者は、第2対応動作の内容や決定割合の分布などが異なる。
第2動作モード用の接触対応動作テーブルにおいて、第2対応動作を実行しないことを示す「なし」に割り当てられた決定割合(5%)は、第1動作モード用の接触対応動作テーブルの「なし」に割り当てられた決定割合(50%)と比較して大幅に低く設定されている。このことから、第2動作モードでは、第1対応動作に続いて第2対応動作が実行される確率が高いといえる。
また、第2動作モード用の接触対応動作テーブルにおける接触種別「叩く」に対応する第2対応動作の内容は、第1動作モード用の接触対応動作テーブルにおける接触種別「叩く」に対応する第2対応動作の内容と比較して、反発的な動作よりも悲観的な動作が多い。このことから、第2動作モードでは、ロボット100を叩いたことに対する反省や後悔の心情を所定の対象に抱かせる確率が高いといえる。したがって、ロボット100を撫でる機会が増えることが期待される。
このように、第1動作モードであるか第2動作モードであるかに応じて、異なる動作内容や決定割合が設定された接触対応動作テーブルを参照することにより、接触に対して多様性に富んだ対応動作を実行することができる。
接触強度−移動速度対応テーブルは、図6に示すように、「接触強度指標」と「移動速度」との各データを対応付けて構成されている。「接触強度指標」は、適宜設定されてよいが、本実施の形態に係る接触強度指標は、接触強度の大きさをS1〜S10のように10段階で示す指標である。なお、接触強度指標S1〜S10は、S1<S2<……<S9<S10であり、「S」に続く数字が大きくなるにしたがって接触強度が大きいことを示す。「移動速度」は、ロボット100が自律移動する速度を示している。制御部110は、接触強度−移動速度対応テーブルを参照して、接触強度指標に応じてロボット100の移動速度を決定する。
接触要求部位決定テーブルは、図7に示すように、「高頻度接触部位」、「中頻度接触部位」、「低頻度接触部位」の各々に異なる決定割合が割り当てられている。「頭部」、「腹部」、「背部」の各接触部位は、撫でられた回数が多い順に「高頻度接触部位」、「中頻度接触部位」、「低頻度接触部位」に対応付けられる。なお、図7に示す接触要求部位決定テーブルにおいて、「高頻度接触部位」には最も高い決定割合が割り当てられており、「低頻度接触部位」には最も低い決定割合が割り当てられている。制御部110は、接触要求部位決定テーブルを参照して、後述する接触要求動作処理において所定の対象に接触を求める接触要求部位を決定する。
接触履歴テーブルは、所定の対象の接触日時と所定の対象の接触とに対してロボット100が実行した対応動作を時系列に沿ってまとめたテーブルである。接触履歴テーブルは、図8に示すように、「接触日時」と、「接触部位」と、「接触種別」と、「接触強度指数」と、「動作モード」と、「第1対応動作/第2対応動作」と、の各データを対応付けて構成されている。「接触日時」は、所定の対象の接触を検出した日時を示す。「接触部位」と「接触種別」とは、前述した接触対応動作テーブルにおける「接触部位」と「接触種別」とそれぞれ同様である。「接触強度指数」は、前述の接触強度−移動速度対応テーブルにおける「接触強度指標」と同じものである。「動作モード」は、対応動作の実行時の動作モードの別を示す。「動作モード」において、「M1」は第1動作モードに設定された状態、「M2」は第2動作モードに設定された状態を示す。「第1対応動作/第2対応動作」は、所定の対象の接触に対して実行された第1対応動作及び第2対応動作の内容である。接触履歴テーブルは、所定の対象の接触に対して対応動作が実行されるたびに更新される。このように、接触履歴テーブルを記憶する記憶部120は、接触情報を逐次記憶する記憶手段として機能する。
センサ部130は、ロボット100の外部状態及び内部状態を示す情報(物理量)を取得し、適宜、所定の信号に変換して制御部110に供給する。センサ部130は、例えば、加速度センサ、角速度センサ、距離センサ、イメージセンサ、マイクロフォン等から構成される。例えば、加速度センサ及び角速度センサは胴体部102の内部に、距離センサ及びイメージセンサは眼部104の内部に、マイクロフォンは耳部103の内部に配置される。
音声出力部140は、スピーカ及び音声出力インタフェースで構成され、制御部110により生成された音声データを音声に変換して外部に出力する。スピーカは、例えば、口部106に嵌め込まれた状態で設置される。ロボット100は、センサ部130のマイクロフォンで所定の対象の音声を収集し、制御部110の制御の下、所定の対象の発話内容に対応する音声を音声出力部140から出力することにより、所定の対象と簡単な会話をすることができる。
移動部150は、ロボット100を移動させるための部位である。移動部150は、ロボット100の足部108の底面に設けられた左右の車輪と、左右の車輪を回転駆動するモータと、モータを駆動制御する駆動回路と、を有する。制御部110から受信した制御信号に従って、駆動回路は、モータに駆動用のパルス信号を供給する。モータは、駆動用のパルス信号に従って、左右の車輪を回転駆動させ、ロボット100を移動させる。このように、移動部150は、ロボット100を移動させる移動手段として機能する。なお、左右の車輪がそれぞれ独立して回転駆動するように構成され、ロボット100が前進、後退、旋回、加減速などの走行が可能であれば、モータの数は任意である。例えば、連結機構や操舵機構を設けるなどして1つのモータで左右の車輪を駆動させてもよい。また、モータの数に合わせて駆動回路の数も適宜変更することができる。
可動部160は、アクチュエータ等の駆動部材の駆動により変位する部位である。可動部160は、頭部101、手部107、足部108、尻尾部109等の被駆動部材と、被駆動部材を駆動するアクチュエータ等の駆動部材と、駆動部材を駆動制御する駆動回路と、により構成される。ロボット100は、制御部110の制御に従って被駆動部材を変位させることにより、例えば、手足を動かす動作や頭を上下左右に振る動作やまぶたの開閉動作をする。
通信部170は、無線通信モジュール及びアンテナにより構成され、外部装置とデータ通信を行う。
電源部180は、電源回路やバッテリなどから構成され、制御部110の指示に従って、ロボット100の各部に電力を供給する。
次に、図9に示すフローチャートを参照しながら、ロボット100が実行する接触対応動作処理について説明する。接触対応動作処理は、所定の対象による接触に対するロボット100の動作を決定及び実施する処理である。制御部110は、所定の対象の操作により、ロボット100の電源が投入されたことに応答して、接触対応動作処理を開始する。
制御部110は、接触対応動作処理を開始すると、まず、記憶部120の所定の記憶領域に格納された初期データを読み出し、ロボット100の各部を初期状態に設定する(ステップS101)。続いて、制御部110は、記憶部120に格納された接触履歴テーブルを参照し、接触履歴情報を取得する(ステップS102)。
次に、制御部110は、所定の対象による接触のない非接触時間を計測するためのタイマのカウントをスタートとする(ステップS103)。また、制御部110は、移動部150及び可動部160を制御して、配置された空間内においてロボット100をランダムに移動させたり、頭部101、手部107、足部108、尻尾部109を独立して微小に揺動させるなど、実物のペットと同様の動作を実行する。
制御部110は、所定の対象による接触を検知したか否かを判定する(ステップS104)。制御部110は、例えば、センサ部130の加速度センサから新たな検出データを取得したか否かに応じて所定の対象による接触の有無を判定すればよい。このように、制御部110及びセンサ部130は、所定の対象による接触の状態を示す接触情報を取得する取得手段として機能する。
所定の対象による接触を検知したと判定した場合(ステップS104;YES)、制御部110は、接触部位を特定する(ステップS105)。制御部110は、加速度センサから取得した3軸方向(X軸方向、Y軸方向及びZ軸方向)の加速度から接触位置を解析し、所定の対象による接触部位として頭部101、腹部102A、背部102Bのいずれかを特定する。
また、制御部110は、加速度センサから取得した検出データを用いて、所定の対象による接触の強さの程度を示す接触強度指標(S1〜S10)を特定するとともに、所定の対象による接触に要した時間を示す接触時間Tを特定する(ステップS106)。
ここで、所定の対象による接触の強さを示す接触強度Sは、例えば、下記の式に示すように、加速度センサから取得した各軸方向の加速度の二乗和平方根を算出することにより取得することができる。制御部110は、下記の式を用いて算出した接触強度Sに基づいて、接触強度Sに対応する前述した接触強度指標S1〜S10のいずれかを特定する。
接触強度S=((X軸方向の加速度)2+(Y軸方向の加速度)2+(Z軸方向の加速度)2)1/2
また、接触時間Tは、例えば、加速度センサからの検出データの取得開始時刻と取得終了時刻との差を算出することにより取得することができる。
ステップS106の処理を実行した後、制御部110は、接触強度指標が基準強度指標Sb(例えば、接触強度指標S6)以上であり、かつ、所定の対象による接触に要した時間を示す接触時間Tが基準時間Tb(例えば、10ミリ秒)以下であるか否かを判定する(ステップS107)。ここで、基準強度指標Sb及び基準時間Tbは、所定の対象の接触種別が「撫でる」又は「叩く」のいずれであるかを特定するための基準である。このように、制御部110は、所定の対象に撫でられたこと、又は、叩かれたことを判定する判定手段として機能する。
接触強度指標が基準強度指標Sb以上と判定した場合、且つ、接触時間Tが基準時間Tb以下と判定した場合(ステップS107;YES)、制御部110は、所定の対象の接触種別を「叩く」と特定する(ステップS109)。
また、接触強度指標が基準強度指標Sb未満と判定した場合、又は、接触時間Tが基準時間Tbを超えると判定した場合(ステップS107;NO)、制御部110は、所定の対象の接触種別を「撫でる」と特定する(ステップS108)。
続いて、制御部110は、動作モード決定処理を実行する(ステップS110)。ここで、図10に示すフローチャートを参照して、動作モード決定処理について説明する。動作モード決定処理は、所定の対象による接触頻度に応じてロボット100の動作を異なる動作モードで実行するための処理である。制御部110は、動作モード決定処理を開始すると、まず、接触履歴テーブルを参照して、履歴情報を集計する(ステップS201)。
次に、制御部110は、接触種別「撫でる」が所定期間に所定回数以上(例えば、過去1週間に14回以上)実行されているか否かを判定する(ステップS202)。接触種別「撫でる」が所定期間に所定回数以上実行されていないと判定した場合(ステップS202;NO)、制御部110は、接触種別「叩く」が所定期間に所定回数以上(例えば、過去1週間に7回以上)実行されているか否かを判定する(ステップS203)。接触種別「叩く」が所定期間に所定回数以上実行されていないと判定した場合(ステップS203;NO)、制御部110は、動作モードを、所定の対象による接触頻度が比較的低いときに用いられる第1動作モードに決定する(ステップS204)。
一方、ステップS202の処理において接触種別「撫でる」が所定期間に所定回数以上実行されていると判定した場合(ステップS202;YES)、又は、ステップS203の処理において接触種別「叩く」が所定期間に所定回数以上実行されていると判定した場合(ステップS203;YES)、制御部110は、動作モードを、所定の対象による接触頻度が比較的高いときに用いられる第2動作モードに決定する(ステップS205)。
制御部110は、ステップS204又はステップS205において動作モードを決定した後、動作モード決定処理を終了する。
図9に示す接触対応動作処理のフローチャートの説明に戻り、ステップS110の処理を実行した後、制御部110は、動作モード決定処理において決定された動作モードに基づいて、第1対応動作及び第2対応動作を決定する(ステップS111)。
ステップS110の動作モード決定処理において、動作モードが第1動作モードに決定された場合、制御部110は、図3に示す第1動作モード用の接触対応動作テーブルを参照して、第1対応動作及び第2対応動作を決定する。一方、ステップS110の動作モード決定処理において、動作モードが第2動作モードに決定された場合、制御部110は、図5に示す第2動作モード用の接触対応動作テーブルを参照して、第1対応動作及び第2対応動作を決定する。
いずれの場合においても、ステップS105において特定された接触部位、ステップS108またはステップS109において特定された接触種別に応じて、第1対応動作及び第2対応動作が決定される。なお、第1対応動作における接近移動又は離反移動の移動速度は、図6に示す接触強度−移動速度対応テーブルが参照され、ステップS106において特定された接触強度指標に応じて決定される。
制御部110は、決定した第1対応動作及び第2対応動作に基づく駆動信号を生成し、これらの信号を移動部150及び可動部160に送信する(ステップS112)。これにより、制御部110は、移動部150及び可動部160の動作を制御する。
続いて、制御部110は、今回の駆動指示の内容などを接触履歴テーブルに追加して更新する(ステップS113)。
ステップS104の処理において、所定の対象による接触を検知しないと判定した場合(ステップS104;NO)、制御部110は、所定時間Taが経過したか否かを判定する(ステップS114)。制御部110は、ステップS103においてカウントをスタートしたタイマのカウント値を参照して所定時間Taが経過したか否かを判定する。所定時間Taとしては、接触頻度等を勘案した適切な時間(例えば、3時間)が適宜設定される。所定時間Taが経過していないと判定した場合(ステップS114;NO)、制御部110は、処理をステップS104に戻し、所定の対象による接触を検知するまで、あるいは、所定時間Taが経過するまで待機する。
一方、所定時間Taが経過したと判定した場合(ステップS114;YES)、制御部110は、接触要求動作処理を実行する(ステップS115)。ここで、図11に示すフローチャートを参照して、接触要求動作処理について説明する。接触要求動作処理は、所定の対象に接触を求める動作を実施する処理である。
制御部110は、接触要求動作処理を開始すると、まず、接触要求部位を決定する(ステップS301)。ここで、接触要求部位とは、接触要求動作を実行するにあたり、撫でてもらうことを意図して所定の対象に最も近接させる部位である。制御部110は、例えば、接触履歴テーブルを参照して、各接触部位(「頭部」、「腹部」、「背部」)の撫でられた回数(接触種別「撫でる」の実行回数)をカウントし、各接触部位を撫でられた回数が多い順に「高頻度接触部位」、「中頻度接触部位」、「低頻度接触部位」に割り当てる。そして、接触要求部位決定テーブルを参照し、割り当てられた決定割合に基づいて接触要求部位を決定する。これにより、撫でられた回数に応じて接触要求部位が一意に決定されることなく、接触要求部位の決定に多様性を生じさせることができる。
次に、制御部110は、ロボット100と所定の対象との相対的な位置関係を特定する(ステップS302)。制御部110は、センサ部130から取得する各種データ(例えば、距離センサの距離データ)に基づいてロボット100と所定の対象との相対的な位置関係を特定する。そして、制御部110は、所定の対象に向かって移動するための駆動信号を生成し、この信号を移動部150に送信する(ステップS303)。これにより、制御部110は、移動部150の動作を制御する。
制御部110は、ロボット100と所定の対象との距離が所定距離(例えば、30cm)よりも短いか否かを判定し(ステップS304)、ロボット100と所定の対象との距離が所定距離よりも長い又は所定距離に等しい場合(ステップS304;NO)、所定の対象に接近するまで移動部150を制御する。所定の対象との距離が所定距離よりも短くなるまで接近したと判定した場合(ステップS304;YES)、制御部110は、所定の対象に接触要求部位を向けるための駆動信号を生成し、これらの信号を移動部150及び可動部160に送信する(ステップS305)。これにより、制御部110は、移動部150及び可動部160の動作を制御する。
ステップS305の処理を実行後、制御部110は、所定の対象の接触を検知するまでの待機時間を計測するためのタイマのカウントをスタートし(ステップS306)、所定の対象による接触を検知したか否かを判定する(ステップS307)。所定の対象による接触を検知したと判定した場合(ステップS307;YES)、制御部110は、接触部位を特定する(ステップS308)。制御部110は、特定した接触部位が接触要求部位と一致するか否かを判定する(ステップS309)。接触部位が接触要求部位と一致すると判定した場合(ステップS309;YES)、制御部110は、処理をステップS106に進める。一方、接触部位が接触要求部位と一致しないと判定した場合(ステップS309;NO)、すなわち、接触を求める部位とは異なる部位に接触されたと判定した場合には、制御部110は、所定の対象から離れるための駆動信号を生成し、この信号を移動部150に送信する(ステップS310)。これにより、制御部110は、移動部150の動作を制御する。
ステップS307の処理において、所定の対象による接触を検知しないと判定した場合(ステップS307;NO)、制御部110は、所定時間Tbが経過したか否かを判定する(ステップS311)。所定時間Tbとしては、所定の対象の接触を待機する適切な時間(例えば、3分)が適宜設定される。所定時間Tbが経過していないと判定した場合(ステップS311;NO)、制御部110は、処理をステップS307に戻し、所定の対象による接触を検知するまで、あるいは、所定時間Tbが経過するまで待機する。一方、所定時間Tbが経過したと判定した場合(ステップS311;YES)、制御部110は、タイマのカウントをリセットする(ステップS312)。
ステップS310の処理、又は、ステップS312の処理を実行した後、制御部110は、元の位置(ステップS302において特定されたロボット100の位置)に移動するための駆動信号を生成し、この信号を移動部150に送信する(ステップS313)。これにより、制御部110は、移動部150の動作を制御する。ステップS313の処理を実行した後、制御部110は、接触要求動作処理を終了する。
図9に示す接触対応動作処理のフローチャートの説明に戻り、ステップS115の処理を実行した後、制御部110は、タイマのカウントをリセットし(ステップS116)、処理をステップS103に戻す。
以上で述べたように、本実施の形態によれば、ロボット100は、所定の対象による接触に対して、その接触の強度に応じて異なる移動動作を実行する。具体的には、所定の対象の接触がロボット100を撫でる行為である場合には、所定の対象に近づくように移動し、所定の対象の接触がロボット100を叩く行為である場合には、所定の対象から離れるように移動する。このように、ロボット100は所定の対象の働きかけに応じて異なる対応動作を実行するため、ロボット100があたかも人間と同様の感情を有するかのような印象を所定の対象に与えることができる。したがって、ロボット100によれば、所定の対象を飽きさせることなく継続して利用させることができる。
さらに、ロボット100は、所定の対象の接触の強度に対応する異なる速度で移動することが可能である。また、ロボット100は、移動動作に連動して、例えば、まぶたを閉じるなどの所定の対象の接触に呼応するような動作を実行することも可能である。また、所定の対象の接触頻度に応じてさらに多様な動作を実施することができる。このように、ロボット100は、所定の対象に長期にわたって利用させることができる。
なお、本発明は、前記の実施の形態に限定されず、種々の変形及び応用が可能である。前記の実施の形態は、次のように変形されてもよい。
例えば、ロボット100は、複数の所定の対象を認識する機能を有し、各所定の対象に対して異なる動作を実行するように構成してもよい。例えば、ロボット100が所定の対象の顔を認識する顔認識部を備え、各所定の対象に対する固有の動作を習慣的に実行するようにしてもよい。このように、顔認識部は、顔認識手段として機能する。
また、ロボット100は、例えば、複数の所定の対象の主従関係や従属関係などを勘案して、各所定の対象に対して実行する動作を決定するようにしてもよい。
また、ロボット100は、例えば、天気や温度や湿度等を勘案して、所定の対象に対して実行する動作を決定するようにしてもよい。
また、所定の対象は、ユーザ等としたが、人であればユーザでなくてもよい。
また、制御部110は、所定の対象に撫でられたこと、叩かれたこと、のうちの一方のみを判定してもよい。
前記の実施の形態では、ロボット100が備える記憶部120に、実行動作を決定するために必要な各種テーブルを格納するものとして説明した。しかし、これらのデータは外部の記憶装置などに記憶させるようにしてもよい。ロボット100は、通信ネットワークを介して通信可能な外部記憶装置から必要なデータを適宜取得するように構成してもよい。また、前記の実施の形態ではロボット100が備える制御部110が各部の動作を制御するものとして説明した。しかし、ロボット100は、外部装置から指示命令を取得し、取得した指示命令に従って行動するように構成されてもよい。
例えば、ロボット100は、ロボット100が備えるセンサのみならず、外部に配置された各種センサから検出データなどを取得するように構成されてもよい。
本発明は、本発明の広義の精神と範囲とを逸脱することなく、様々な実施の形態及び変形が可能とされるものである。また、前述した実施の形態は、この発明を説明するためのものであり、本発明の範囲を限定するものではない。すなわち、本発明の範囲は、実施の形態ではなく、特許請求の範囲によって示される。そして、特許請求の範囲内及びそれと同等の発明の意義の範囲内で施される様々な変形が、この発明の範囲内とみなされる。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
(付記1)
自装置を移動させる移動手段と、
所定の対象による接触種別を判定する判定手段と、
前記判定手段により前記接触種別として前記所定の対象に撫でられたと判定された場合に、前記自装置が前記所定の対象に近づくように前記移動手段を制御し、又は、前記判定手段により前記接触種別として前記所定の対象に叩かれたと判定された場合に、前記自装置が前記所定の対象から離れるように前記移動手段を制御する制御手段と、
を備える、
ことを特徴とするロボット。
(付記2)
前記所定の対象による接触の状態を示す接触情報を取得する取得手段を更に備え、
前記判定手段は、前記取得手段が取得した前記接触情報が所定の条件を満たすか否かに基づいて、前記所定の対象に撫でられたこと、又は、叩かれたことを判定する、
ことを特徴とする付記1に記載のロボット。
(付記3)
前記取得手段は、前記接触情報として、接触部位、接触強度、接触時間のうちの少なくとも1つを取得する、
ことを特徴とする付記2に記載のロボット。
(付記4)
前記判定手段は、前記接触強度が所定の強度以上であるか否か、及び、前記接触時間が所定の時間以下であるか否か、に基づいて、前記接触部位が前記所定の対象に撫でられたこと、又は、叩かれたことを判定する、
ことを特徴とする付記3に記載のロボット。
(付記5)
前記判定手段は、前記接触強度が前記所定の強度以上であり、且つ、前記接触時間が前記所定の時間以下である場合、前記接触部位が前記所定の対象に叩かれたと判定し、
前記制御手段は、前記接触部位が前記所定の対象から離れるように前記移動手段を制御する、
ことを特徴とする付記4に記載のロボット。
(付記6)
前記判定手段は、前記接触強度が前記所定の強度未満であり、且つ、前記接触時間が前記所定の時間を超える場合、前記接触部位が前記所定の対象に撫でられたと判定し、
前記制御手段は、前記接触部位が前記所定の対象に近づくように前記移動手段を制御する、
ことを特徴とする付記4に記載のロボット。
(付記7)
前記制御手段は、前記接触強度と前記所定の強度との関係、及び、前記接触時間と前記所定の時間との関係にそれぞれ応じて、前記自装置が異なる速度で移動するように前記移動手段を制御する、
ことを特徴とする付記5又は6に記載のロボット。
(付記8)
前記制御手段は、前記取得手段が前記接触情報を一定時間取得しない場合、前記自装置が前記所定の対象に近づくように前記移動手段を制御する、
ことを特徴とする付記2乃至7の何れか1つに記載のロボット。
(付記9)
前記取得手段が取得した前記接触情報を逐次記憶する記憶手段を更に備え、
前記制御手段は、前記記憶手段に記憶された前記接触情報を読み出すとともに、接触頻度の高い前記接触部位が前記所定の対象に近づくように前記移動手段を制御する、
ことを特徴とする付記2乃至8の何れか1つに記載のロボット。
(付記10)
前記制御手段は、前記所定の対象の前記接触頻度に応じて、第1動作モードと第2動作モードとを切り替えて実行する、
ことを特徴とする付記9に記載のロボット。
(付記11)
前記制御手段は、前記所定の対象に撫でられたことが所定期間に所定回数未満であり、且つ、前記所定の対象に叩かれたことが前記所定期間に前記所定回数未満である場合に前記第1動作モードを実行し、前記所定の対象に撫でられたことが前記所定期間に前記所定回数以上であるか、又は、前記所定の対象に叩かれたことが前記所定期間に前記所定回数以上である場合に前記第2動作モードを実行する、
ことを特徴とする付記10に記載のロボット。
(付記12)
前記第1動作モード及び前記第2動作モードは、前記所定の対象に近づくこと、又は、前記所定の対象から離れることからなる第1対応動作、の他に前記第1対応動作に続けて実行される前記第1対応動作とは異なる第2対応動作を含み、前記第1動作モードと前記第2動作モードとでは前記第2対応動作の内容と決定割合の分布とが異なる、
ことを特徴とする付記10又は11に記載のロボット。
(付記13)
前記所定の対象の顔を認識する顔認識手段を更に備え、
前記制御手段は、前記顔認識手段の認識結果に応じて前記移動手段の制御を変える、
ことを特徴とする付記1乃至12の何れか1つに記載のロボット。
(付記14)
前記所定の対象は、人である、
ことを特徴とする付記1乃至13の何れか1つに記載のロボット。
(付記15)
ロボットの制御方法であって、
前記ロボットを移動させる移動ステップと、
所定の対象による接触種別を判定する判定ステップと、
前記判定ステップで前記接触種別として前記所定の対象に撫でられたと判定された場合に、前記ロボットが前記所定の対象に近づくように移動を制御し、又は、前記判定ステップで前記接触種別として前記所定の対象に叩かれたと判定された場合に、前記ロボットが前記所定の対象から離れるように移動を制御する制御ステップと、
を含む、
ことを特徴とするロボットの制御方法。
(付記16)
ロボットのコンピュータに、
前記ロボットを移動させる移動処理と、
所定の対象による接触種別を判定する判定処理と、
前記判定処理で前記接触種別として前記所定の対象に撫でられたと判定された場合に、前記ロボットが前記所定の対象に近づくように移動を制御し、又は、前記判定処理で前記接触種別として前記所定の対象に叩かれたと判定された場合に、前記ロボットが前記所定の対象から離れるように移動を制御する制御処理と、
を実行させる、
ことを特徴とするプログラム。
100…ロボット、101…頭部、102…胴体部、102A…腹部、102B…背部、103…耳部、104…眼部、105…鼻部、106…口部、107…手部、108…足部、109…尻尾部、110…制御部、120…記憶部、130…センサ部、140…音声出力部、150…移動部、160…可動部、170…通信部、180…電源部、A,B…矢印、UH…所定の対象の手

Claims (19)

  1. 自装置を移動させる移動手段と、
    所定の対象による接触種別を判定する判定手段と、
    前記判定手段により前記接触種別として前記所定の対象に撫でられたと判定された場合に、前記自装置が前記所定の対象に近づくように前記移動手段を制御し、又は、前記判定手段により前記接触種別として前記所定の対象に叩かれたと判定された場合に、前記自装置が前記所定の対象から離れるように前記移動手段を制御する制御手段と、
    を備え、
    前記制御手段は、接触強度と所定の強度との関係、及び、接触時間と所定の時間との関係にそれぞれ応じて、前記自装置が異なる速度で移動するように前記移動手段を制御する、
    ことを特徴とするロボット。
  2. 前記所定の対象による接触の状態を示す接触情報を取得する取得手段を更に備え、
    前記判定手段は、前記取得手段が取得した前記接触情報が所定の条件を満たすか否かに基づいて、前記所定の対象に撫でられたこと、又は、叩かれたことを判定する、
    ことを特徴とする請求項1に記載のロボット。
  3. 前記取得手段は、前記接触情報として、接触部位、前記接触強度、前記接触時間のうちの少なくとも1つを取得する、
    ことを特徴とする請求項2に記載のロボット。
  4. 前記判定手段は、前記接触強度が前記所定の強度以上であるか否か、及び、前記接触時間が前記所定の時間以下であるか否か、に基づいて、前記接触部位が前記所定の対象に撫でられたこと、又は、叩かれたことを判定する、
    ことを特徴とする請求項3に記載のロボット。
  5. 前記判定手段は、前記接触強度が前記所定の強度以上であり、且つ、前記接触時間が前記所定の時間以下である場合、前記接触部位が前記所定の対象に叩かれたと判定し、
    前記制御手段は、前記接触部位が前記所定の対象から離れるように前記移動手段を制御する、
    ことを特徴とする請求項4に記載のロボット。
  6. 前記判定手段は、前記接触強度が前記所定の強度未満であり、又は、前記接触時間が前記所定の時間を超える場合、前記接触部位が前記所定の対象に撫でられたと判定し、
    前記制御手段は、前記接触部位が前記所定の対象に近づくように前記移動手段を制御する、
    ことを特徴とする請求項4に記載のロボット。
  7. 前記制御手段は、前記取得手段が前記接触情報を一定時間取得しない場合、前記自装置が前記所定の対象に近づくように前記移動手段を制御する、
    ことを特徴とする請求項2乃至の何れか1項に記載のロボット。
  8. 自装置を移動させる移動手段と、
    所定の対象による接触種別を判定する判定手段と、
    前記判定手段により前記接触種別として前記所定の対象に撫でられたと判定された場合に、前記自装置が前記所定の対象に近づくように前記移動手段を制御し、又は、前記判定手段により前記接触種別として前記所定の対象に叩かれたと判定された場合に、前記自装置が前記所定の対象から離れるように前記移動手段を制御する制御手段と、
    前記所定の対象による接触の状態を示す接触情報を逐次記憶する記憶手段と、
    を備え、
    前記制御手段は、前記記憶手段に記憶された前記接触情報を読み出すとともに、接触頻度の高い接触部位が前記所定の対象に近づくように前記移動手段を制御する、
    ことを特徴とするロボット。
  9. 前記制御手段は、前記所定の対象の前記接触頻度に応じて、第1動作モードと第2動作モードとを切り替えて実行する、
    ことを特徴とする請求項に記載のロボット。
  10. 前記制御手段は、前記所定の対象に撫でられたことが所定期間に所定回数未満であり、且つ、前記所定の対象に叩かれたことが前記所定期間に前記所定回数未満である場合に前記第1動作モードを実行し、前記所定の対象に撫でられたことが前記所定期間に前記所定回数以上であるか、又は、前記所定の対象に叩かれたことが前記所定期間に前記所定回数以上である場合に前記第2動作モードを実行する、
    ことを特徴とする請求項に記載のロボット。
  11. 前記第1動作モード及び前記第2動作モードは、前記所定の対象に近づくこと、又は、前記所定の対象から離れることからなる第1対応動作、の他に前記第1対応動作に続けて実行される前記第1対応動作とは異なる第2対応動作を含み、前記第1動作モードと前記第2動作モードとでは前記第2対応動作の内容と決定割合の分布とが異なる、
    ことを特徴とする請求項又は10に記載のロボット。
  12. 前記所定の対象の顔を認識する顔認識手段を更に備え、
    前記制御手段は、前記顔認識手段の認識結果に応じて制御を変える、
    ことを特徴とする請求項1乃至11の何れか1項に記載のロボット。
  13. 前記顔認識手段は、複数の前記所定の対象の前記顔を認識し、
    前記制御手段は、前記顔認識手段の前記認識結果から前記複数の所定の対象の主従関係又は従属関係を勘案して制御を変える、
    ことを特徴とする請求項12に記載のロボット。
  14. 前記制御手段は、天気又は温度又は湿度を勘案して制御を変える、
    ことを特徴とする請求項1乃至13の何れか1項に記載のロボット。
  15. 前記所定の対象は、人である、
    ことを特徴とする請求項1乃至14の何れか1項に記載のロボット。
  16. 制御手段を有するロボットの制御方法であって、
    前記制御手段は、
    前記ロボットを移動させる移動ステップと、
    所定の対象による接触種別を判定する判定ステップと、
    前記判定ステップで前記接触種別として前記所定の対象に撫でられたと判定された場合に、前記ロボットが前記所定の対象に近づくように移動を制御し、又は、前記判定ステップで前記接触種別として前記所定の対象に叩かれたと判定された場合に、前記ロボットが前記所定の対象から離れるように移動を制御する制御ステップと、
    実行し
    前記制御手段は、前記制御ステップにおいて、接触強度と所定の強度との関係、及び、接触時間と所定の時間との関係にそれぞれ応じて、前記ロボットが異なる速度で移動するように移動を制御する、
    ことを特徴とするロボットの制御方法。
  17. 制御手段を有するロボットの制御方法であって、
    前記制御手段は、
    前記ロボットを移動させる移動ステップと、
    所定の対象による接触種別を判定する判定ステップと、
    前記判定ステップで前記接触種別として前記所定の対象に撫でられたと判定された場合に、前記ロボットが前記所定の対象に近づくように移動を制御し、又は、前記判定ステップで前記接触種別として前記所定の対象に叩かれたと判定された場合に、前記ロボットが前記所定の対象から離れるように移動を制御する制御ステップと、
    前記所定の対象による接触の状態を示す接触情報を逐次記憶する記憶ステップと、
    を実行し、
    前記制御手段は、前記制御ステップにおいて、前記記憶ステップで記憶された前記接触情報を読み出すとともに、接触頻度の高い接触部位が前記所定の対象に近づくように移動を制御する、
    ことを特徴とするロボットの制御方法。
  18. ロボットのコンピュータに、
    前記ロボットを移動させる移動処理と、
    所定の対象による接触種別を判定する判定処理と、
    前記判定処理で前記接触種別として前記所定の対象に撫でられたと判定された場合に、前記ロボットが前記所定の対象に近づくように移動を制御し、又は、前記判定処理で前記接触種別として前記所定の対象に叩かれたと判定された場合に、前記ロボットが前記所定の対象から離れるように移動を制御する制御処理と、
    を実行させ、
    前記制御処理において、接触強度と所定の強度との関係、及び、接触時間と所定の時間との関係にそれぞれ応じて、前記ロボットが異なる速度で移動するように移動を制御する、
    ことを特徴とするプログラム。
  19. ロボットのコンピュータに、
    前記ロボットを移動させる移動処理と、
    所定の対象による接触種別を判定する判定処理と、
    前記判定処理で前記接触種別として前記所定の対象に撫でられたと判定された場合に、前記ロボットが前記所定の対象に近づくように移動を制御し、又は、前記判定処理で前記接触種別として前記所定の対象に叩かれたと判定された場合に、前記ロボットが前記所定の対象から離れるように移動を制御する制御処理と、
    前記所定の対象による接触の状態を示す接触情報を逐次記憶する記憶処理と、
    を実行させ、
    前記制御処理において、前記記憶処理で記憶された前記接触情報を読み出すとともに、接触頻度の高い接触部位が前記所定の対象に近づくように移動を制御する、
    ことを特徴とするプログラム。
JP2016124224A 2016-06-23 2016-06-23 ロボット、ロボットの制御方法及びプログラム Active JP6354796B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016124224A JP6354796B2 (ja) 2016-06-23 2016-06-23 ロボット、ロボットの制御方法及びプログラム
US15/453,252 US10576618B2 (en) 2016-06-23 2017-03-08 Robot having communication with human, robot control method, and non-transitory recording medium
CN201710281500.0A CN107538488B (zh) 2016-06-23 2017-04-26 机器人、机器人的控制方法及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016124224A JP6354796B2 (ja) 2016-06-23 2016-06-23 ロボット、ロボットの制御方法及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018100173A Division JP6575637B2 (ja) 2018-05-25 2018-05-25 ロボット、ロボットの制御方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2017226044A JP2017226044A (ja) 2017-12-28
JP6354796B2 true JP6354796B2 (ja) 2018-07-11

Family

ID=60675885

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016124224A Active JP6354796B2 (ja) 2016-06-23 2016-06-23 ロボット、ロボットの制御方法及びプログラム

Country Status (3)

Country Link
US (1) US10576618B2 (ja)
JP (1) JP6354796B2 (ja)
CN (1) CN107538488B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023105637A1 (ja) * 2021-12-07 2023-06-15 ファナック株式会社 産業機械の動作を検証するための装置、及び方法

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2564822B (en) * 2016-07-08 2021-08-18 Groove X Inc Autonomously acting robot that wears clothes
JP7127316B2 (ja) * 2018-03-22 2022-08-30 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
JP7226928B2 (ja) * 2018-05-31 2023-02-21 株式会社トプコン 測量装置
JP7180139B2 (ja) * 2018-06-22 2022-11-30 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
JP7247560B2 (ja) * 2018-12-04 2023-03-29 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
WO2020158642A1 (ja) * 2019-01-31 2020-08-06 ソニー株式会社 ロボットの制御装置、ロボットの制御方法、及びプログラム
JP7431149B2 (ja) 2020-12-17 2024-02-14 トヨタ自動車株式会社 移動体システム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10289006A (ja) * 1997-04-11 1998-10-27 Yamaha Motor Co Ltd 疑似感情を用いた制御対象の制御方法
JP3178393B2 (ja) * 1997-11-11 2001-06-18 オムロン株式会社 行動生成装置、行動生成方法及び行動生成プログラム記録媒体
JP2001191276A (ja) * 1999-10-29 2001-07-17 Sony Corp ロボットシステム、ロボット装置及びその外装
JP2001191280A (ja) * 1999-12-28 2001-07-17 Sony Corp ロボット装置及びその制御方法
US7173657B2 (en) * 2000-03-24 2007-02-06 Rochester Institute Of Technology System and method for analyzing, optimizing and/or designing spectral sensitivity curves for an imaging device
JP2002018146A (ja) 2000-07-04 2002-01-22 Tomy Co Ltd 対話型玩具、反応行動パターン生成装置および反応行動パターン生成方法
JP2002178282A (ja) 2000-10-05 2002-06-25 Sony Corp ロボット装置及びその制御方法
JP2003190651A (ja) 2001-12-28 2003-07-08 Omron Corp 疑似生物機器
JP2004066418A (ja) 2002-08-08 2004-03-04 Victor Co Of Japan Ltd 自律ロボット
JP2003326479A (ja) 2003-05-26 2003-11-18 Nec Corp 自律行動ロボット
US7760253B2 (en) * 2005-02-08 2010-07-20 Hewlett-Packard Development Company, L.P. Imaging device analysis methods, imaging device analysis systems, and articles of manufacture
WO2007041295A2 (en) * 2005-09-30 2007-04-12 Irobot Corporation Companion robot for personal interaction
JP4873607B2 (ja) * 2005-10-11 2012-02-08 株式会社国際電気通信基礎技術研究所 皮膚センサを有する電子機器
WO2009031486A1 (ja) * 2007-09-06 2009-03-12 Olympus Corporation ロボット制御システム、ロボット、プログラム及び情報記憶媒体
JP5264308B2 (ja) * 2008-06-12 2013-08-14 三菱電機株式会社 制御装置
US9400503B2 (en) * 2010-05-20 2016-07-26 Irobot Corporation Mobile human interface robot
EP2572838A1 (en) * 2010-08-31 2013-03-27 Kabushiki Kaisha Yaskawa Denki Robot, robot system, robot control device, and state determining method
JP2012239557A (ja) * 2011-05-17 2012-12-10 Shain:Kk ロボット玩具
US9355368B2 (en) * 2013-03-14 2016-05-31 Toyota Motor Engineering & Manufacturing North America, Inc. Computer-based method and system for providing active and automatic personal assistance using a robotic device/platform

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023105637A1 (ja) * 2021-12-07 2023-06-15 ファナック株式会社 産業機械の動作を検証するための装置、及び方法

Also Published As

Publication number Publication date
US10576618B2 (en) 2020-03-03
CN107538488A (zh) 2018-01-05
JP2017226044A (ja) 2017-12-28
CN107538488B (zh) 2020-12-11
US20170368678A1 (en) 2017-12-28

Similar Documents

Publication Publication Date Title
JP6354796B2 (ja) ロボット、ロボットの制御方法及びプログラム
JP6575637B2 (ja) ロボット、ロボットの制御方法及びプログラム
EP3456487A2 (en) Robot, method of controlling the same, and program
JP5429462B2 (ja) コミュニケーションロボット
JP5318623B2 (ja) 遠隔操作装置および遠隔操作プログラム
JP2005193331A (ja) ロボット装置及びその情動表出方法
US11969876B2 (en) Robot and control method of robot
JP7559900B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US20200269421A1 (en) Information processing device, information processing method, and program
JP2024103652A (ja) ロボットの制御装置、ロボットの制御方法、及びプログラム
JP6150429B2 (ja) ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法
US11780098B2 (en) Robot, robot control method, and recording medium
US20210291677A1 (en) Robot charging station
JP2015066624A (ja) ロボット制御システム、ロボット制御プログラムおよび説明ロボット
US20220288791A1 (en) Information processing device, information processing method, and program
JP2019111603A (ja) ロボット、ロボット制御システム、ロボットの制御方法及びプログラム
JP2007130691A (ja) コミュニケーションロボット
JP2024045110A (ja) ロボットと、ロボットのための充電ステーションおよびランドマーク装置
WO2019088160A1 (ja) 反射行動を実行可能な自律行動型ロボット
JP2003266353A (ja) ロボット装置及びその制御方法
JPWO2020009098A1 (ja) ロボット
WO2024166661A1 (ja) 移動体
KR102437760B1 (ko) 컴퓨팅 장치에 의한 음향의 처리 방법, 영상 및 음향의 처리 방법 및 이를 이용한 시스템들
JP2005193330A (ja) ロボット装置及びその情動表出方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180123

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180305

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180515

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180528

R150 Certificate of patent or registration of utility model

Ref document number: 6354796

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150