JP2001038658A - ロボットにおける触覚表現システム - Google Patents

ロボットにおける触覚表現システム

Info

Publication number
JP2001038658A
JP2001038658A JP22123999A JP22123999A JP2001038658A JP 2001038658 A JP2001038658 A JP 2001038658A JP 22123999 A JP22123999 A JP 22123999A JP 22123999 A JP22123999 A JP 22123999A JP 2001038658 A JP2001038658 A JP 2001038658A
Authority
JP
Japan
Prior art keywords
robot
user
information
behavior
tactile
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP22123999A
Other languages
English (en)
Inventor
Nobuyasu Arimune
伸泰 有宗
Tsuyoshi Kamiya
剛志 神谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Motor Co Ltd
Original Assignee
Yamaha Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Motor Co Ltd filed Critical Yamaha Motor Co Ltd
Priority to JP22123999A priority Critical patent/JP2001038658A/ja
Priority to US09/630,577 priority patent/US6347261B1/en
Priority to EP00116896A priority patent/EP1074352A2/en
Publication of JP2001038658A publication Critical patent/JP2001038658A/ja
Priority to US10/076,861 priority patent/US6714840B2/en
Pending legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Toys (AREA)
  • Manipulator (AREA)

Abstract

(57)【要約】 【課題】ユーザとロボットの間で触覚によるインタラク
ションを実現する。 【解決手段】ロボット構成部を駆動するアクチュエータ
と、ユーザ情報および環境情報を検出する検出手段と、
ロボット構成部の触覚的情報を検出する検出手段と、前
記ユーザ情報と環境情報に基づいてロボットの人工感情
を生成する感情生成手段と、生成された人工感情に基づ
いてロボットの行動を決定する行動決定手段とを備え、
該行動決定手段は、ユーザがロボット構成部に与えた触
覚的情報に対して、ロボット構成部に作用する抵抗力を
変化させるようにアクチュエータを制御する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、玩具用、ゲーム
用、民生用、産業用等のロボット装置、ナビゲーション
用、自動販売機用、自動受付装置用等の各種対話型のマ
シンに適用されるユーザ認識度成長システムに関する。
【0002】
【従来の技術】最近、学習によりユーザになついたり、
独特の動作で感情を表現するなどユーザとのコミュニケ
イションができるペット型ロボットが商品化されてい
る。例えば、特開平11−126017号公報において
は、ペットが吠えた場合にユーザが誉めたときには、吠
える動作条件を緩くして吠えやすいペットに躾け、逆に
ユーザが怒ったときには吠える動作条件を厳しくして、
おとなしいペットに躾けるようにして、ユーザの態度に
よってペットの性格、行動傾向を変え、これを学習させ
るようにしている。
【0003】
【発明が解決しようとする課題】しかしながら、上記従
来のロボットは、ユーザに対する視覚や聴覚によって人
工感情を行動で表現するだけであり、ユーザがロボット
に触れたり手などを掴んだりしたときに、触れられた或
いは掴まれた部位を直接的に反応させるのではなく、イ
ンタラクション(相互交流)を楽しむロボットとして
は、面白みに欠けすぐに飽きられてしまう恐れがある。
【0004】本発明は、上記従来の問題を解決するもの
であって、ユーザとロボットの間で触覚によるインタラ
クションを実現することができるロボットにおける触覚
表現システムを提供することを目的とする。
【0005】
【課題を解決するための手段】上記目的を達成するため
に本発明のロボットにおける触覚表現システムは、ロボ
ット構成部を駆動するアクチュエータと、ユーザ情報お
よび環境情報を検出する検出手段と、ロボット構成部の
触覚的情報を検出する検出手段と、前記ユーザ情報と環
境情報に基づいてロボットの人工感情を生成する感情生
成手段と、生成された人工感情に基づいてロボットの行
動を決定する行動決定手段とを備え、該行動決定手段
は、ユーザがロボット構成部に与えた触覚的情報に対し
て、ロボット構成部に作用する抵抗力を変化させるよう
にアクチュエータを制御することを特徴とする。
【0006】
【発明の実施の形態】以下、本発明の実施の形態を図面
に基づいて説明する。図1は、本発明のロボットにおけ
る触覚表現システムの1実施形態を示す制御系の全体構
成図、図2は図1のユーザ・環境情報認識装置の制御系
の構成図、図3は図1の行動選択決定装置の制御系の構
成図である。なお、本発明においてロボットとは、マシ
ン以外に、コンピュータ画面上で表現される電子ロボッ
トを含むものである。
【0007】図1において、ロボット1は、外部情報入
力手段2、内部情報入力装置3、制御装置4、人工感情
表現手段5を備え、外部情報入力手段2は、ユーザ6に
関連する各種の外部情報を取り込み、制御装置4は、得
られた内部情報および外部情報に基づいてロボットの行
動を決定し、人工感情表現手段5によりユーザ6にロボ
ットの感情や行動を伝達するようにしている。
【0008】外部情報入力手段2は、視覚的情報入力装
置として、ユーザの顔、ジェスチャー、位置等を検出す
るカメラ2a、周囲の障害物を検出するIR(赤外線)
センサ2bを備え、また聴覚的情報入力装置としてユー
ザ等の音、声を検出するマイク2cを備え、さらに触覚
的情報入力装置として、ユーザの撫でや叩きを検出する
感圧センサ2d、ロボットの脚や手の力・トルクを検出
するトルクセンサ、ロボットの脚や手の関節位置を検出
するポテンショセンサ4fを備えている。内部情報入力
装置3は、ロボットの飢えの情報を検出するバッテリ残
量計3aとロボットの疲れの情報を検出するモータ温度
計3bを備えている。
【0009】制御装置4には、カメラ2aの信号により
ユーザの顔情報を検出する顔情報検出装置4aおよびジ
ェスチャー情報検出装置4b、マイク2cの信号により
ユーザの音声情報を検出する音声情報検出装置4c、感
圧センサ2dの信号によりユーザとの接触情報を検出す
る接触情報検出装置4d、カメラ2a、IRセンサ2
b、マイク2c、感圧センサ2dの信号により周辺環境
を検出する周辺環境検出装置4e、トルクセンサ2e、
ポテンショセンサ2fの信号によりロボットの腕等の姿
勢動作、抵抗力を検出する動作検出装置4fが備えら
れ、これらの情報は、ユーザ・環境情報認識装置4iに
送られる。また、バッテリ残量計3aおよびモータ温度
計3bの信号は、内部情報認識処理装置4gに送られ、
ここでロボットの内部情報が認識される。
【0010】図2に示すように、ユーザ・環境情報認識
部4iにおいては、表情検出部4aと音声検出部4cで
検出された情報が人特定部7に入力されここでユーザが
特定される。また、腕など姿勢動作検出部4f、表情検
出部4aで検出された情報および人の特定部7の情報に
基づいて識別部8でユーザの状態が識別され、この情報
は擬似感情生成部4jに送られる。また、音声検出部4
c、ジェスチャ検出部4b、なで・たたき検出部4dで
検出された情報および人の特定部7の情報に基づいて受
け付け部9でユーザからの情報が入力され、この情報は
特徴行為記憶部4mに送られる。また、周辺環境検出部
4e検出された情報は環境認識部10に送られ、この情
報は行動決定手段4kに送られる。
【0011】ユーザ・環境情報認識装置4iにおけるユ
ーザの状態識別部8の情報は、擬似感情生成装置4jに
送られ、ここで、記憶情報処理装置4hに記憶された感
情モデルに従ってロボットの擬似感情(人工感情)が生
成される。ここで感情モデルは、ロボットの感情を表す
怒り、悲しみ、喜び、恐れ、嫌悪、疲れ、飢え、眠気等
のパラメータを求めるための計算式であり、音や画像で
検出したユーザ情報(ユーザのご機嫌度、命令など)お
よび環境情報(部屋の明るさや音等)に応じてロボット
の感情が生成される。例えば、ユーザが帰宅したとき
は、ロボットは「喜び」の感情を表現し、他人が入って
きた場合には「怒り」の感情を表現する。このとき、ユ
ーザの誉めたり、叱る行為により、ロボットの感情を変
化させロボットを成長させていく。また、ロボットが赤
ん坊の頃は幼稚な動きをするように反応し、成長するに
つれて大人の動きをするように感情モデルを作成してお
く。このようにして成長していくロボットの性格、行動
は情報記憶処理装置4hに記憶され、学習処理を行う。
【0012】ユーザ・環境情報検出装置4iと擬似感情
生成装置4jの情報は、特徴的行為記憶処理装置4mに
送られ、ここで、ロボットがユーザに徐々になついてい
く行動とか、ユーザのしぐさを学習するとかの特徴的行
為を記憶、処理する。ユーザ・環境情報認識装置4i、
擬似感情生成装置4jおよび特徴行為記憶処理装置4m
の情報は、行動選択決定装置4kに送られる。
【0013】図3は行動決定手段(行動選択決定装置)
4kの制御系の構成図であり、擬似感情生成部4jの情
報は、行動セット選択部11に送られ、ここで記憶情報
処理装置4hに記憶された行動セット(行動ライブラ
リ)を参照してロボットの基本行動が決定され、行動セ
ットパラメータ設定部12に送られる。行動ライブラリ
は、ロボットが特定の表現をするための動作シーケンス
であり、例えば、行動パターンが「前進」の場合には、
「所定の順序で各脚から動かす」というシーケンスであ
り、行動パターンが「おどり」の場合には、「後脚をた
たんで座姿になり、前脚を交互に上げ下げする」という
シーケンスであり、また手を上げる、下げる、前に出す
などの基本行動パターンが記憶されている。特徴行為記
憶部4mで記憶した行動セットの内容は、行動再現部1
3に送られ、ここで行動セット選択部11の行動セット
を補正し、行動セットパラメータ設定部12に送られ
る。行動セットパラメータ設定部12においては、例え
ばロボットがユーザの方向に近づく速度やユーザの手を
掴む抵抗力などが設定され、これらの情報は行動実行部
5に送られる。
【0014】行動選択決定装置4kにおいて決定された
情報は、人工感情表現手段(行動実行部)5に送られ、
視覚的感情表現装置5aにおいてはロボットの顔や腕、
体等の動作機構が駆動され、アテンション(注意)やロ
コモーション(運動)情報(例えば顔の表情、首振り、
おどり)としてユーザ6に伝達され、聴覚的感情表現装
置5bにおいてはスピーカが駆動され、音程、リズム情
報(例えば鳴き声)としてユーザ6に伝達され、触覚的
感情表現装置5cにおいては顔や腕、体等の動作機構が
駆動され、抵抗力、リズム情報(例えば「お手」をした
ときのユーザが受ける触覚)としてユーザ6に伝達され
る。なお、顔や腕、足、体等のロボット構成部の動作機
構は、モータ、電磁ソレノイド、エアまたは油圧シリン
ダなどのアクチュエータを備える。
【0015】図4は、本発明のロボットにおける触覚表
現システムの1実施形態を示す処理の流れを示す図であ
る。先ず、ステップS1で外部環境情報の認識処理を行
う。この処理は、図1の感圧センサ2d、トルクセンサ
2e、ポテンショセンサ2fにより、ユーザがロボット
を撫でたか叩いたかを検出し、また、手や足などにかか
るトルクを検出し、また、手や足などの関節位置を検出
し、これらの情報を認識する処理である。次にステップ
S2で内部環境情報の認識処理を行う。この処理は、バ
ッテリ残量計3aによりロボットの疲労度を検出し、モ
ータ温度計3bによりモータにかかる負荷を検出する処
理である。次にステップS3でロボットが人の存在を認
識したか否かの判定を行い、認識していなければステッ
プS8に進んで人工感情を生成する。
【0016】人の存在を認識した場合には、ステップS
4でユーザ認識処理を行い、ステップS5で記憶装置に
記憶されたユーザのデータを参照し、ステップS6で過
去にインタラクションを行ったユーザがいるか否かの判
定を行い、いなければステップS8に進んで人工感情を
生成する。過去にインタラクションを行ったユーザがい
れば、ステップS7でそのユーザに関する過去の感情
(例えば好きか嫌いか)の記憶を参照し、ステップS8
で人工感情を生成する。ここでは、ユーザのご機嫌度、
ユーザが好きか嫌いかの度合い、ロボットの疲労度、外
部環境などによってロボットの怒りや喜びの度合いを計
算する。
【0017】ステップS9で前回の場合と比べて感情の
変化が大きいか否かを判定し、大きい場合には、ステッ
プS10でこの情報を記憶装置に保存し、大きくなけれ
ばステップS11でロボットの行動を選択決定し、ステ
ップS12で行動パラメータを設定する。この処理は、
例えば、ロボットの感情が怒りの場合にはモータの出力
トルクを大きくし抵抗力を増加させてユーザに反抗の意
志を示し、また、モータの速度を上げて、例えば手の振
りを早くしてユーザに反抗の意志を示し、逆にロボット
の感情が喜びの場合には、ユーザの動きに順応するよう
にモータのトルクまたは速度を制御するようにする。そ
して、設定された行動パラメータによりステップS13
で行動命令を出力し、ステップS14で触覚的感情表現
を行う。
【0018】以上の処理により、例えば、ロボットの腕
のように実際に触れることができ、かつアクチュエータ
を持つマシンに、ユーザが与えた力やリズム等のユーザ
の感情やロボットの内部状態に応じてアクチュエータを
動作させることにより、触られたり動かされた時の抵抗
力によって感情を表現し、よりアクティブなマン・マシ
ンインタラクションを実現することが可能となる。
【0019】
【発明の効果】以上の説明から明らかなように、本発明
によれば、ユーザとロボットの間で触覚によるインタラ
クションを実現することができ、ユーザに飽きられるこ
とのないロボットを提供することができる。
【図面の簡単な説明】
【図1】本発明のロボットにおける触覚表現システムの
1実施形態を示す制御系の全体構成図である。
【図2】図1のユーザ・環境情報認識装置の制御系の構
成図である。
【図3】図1の行動選択決定装置の制御系の構成図であ
る。
【図4】本発明のロボットにおける触覚表現システムの
1実施形態を示す処理の流れを示す図である。
フロントページの続き Fターム(参考) 2C150 CA01 CA02 DA24 DA25 DA26 DA27 DA28 DF02 DF04 EB01 EF16 EF23 EF29 FA02 3F059 AA00 BA00 DA05 DC01 FC03 FC15 5E501 AA17 AA23 AC37 BA03 CA08 CA10 CB14 CB15 CB20 CC07 CC11 CC14 DA12 DA13 DA15 DA17 EA02 EA21 EA32 EB05 EB20 FA31 FA32 FA35 FA50

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】ロボット構成部を駆動するアクチュエータ
    と、ユーザ情報および環境情報を検出する検出手段と、
    ロボット構成部の触覚的情報を検出する検出手段と、前
    記ユーザ情報と環境情報に基づいてロボットの人工感情
    を生成する感情生成手段と、生成された人工感情に基づ
    いてロボットの行動を決定する行動決定手段とを備え、
    該行動決定手段は、ユーザがロボット構成部に与えた触
    覚的情報に対して、ロボット構成部に作用する抵抗力を
    変化させるようにアクチュエータを制御することを特徴
    とするロボットにおける触覚表現システム。
  2. 【請求項2】前記アクチュエータのトルクまたは速度を
    変化させることにより抵抗力を変化させることを特徴と
    する請求項1記載のロボットにおける触覚表現システ
    ム。
  3. 【請求項3】前記人工感情は、当該ユーザの過去に記憶
    されたデータに基づいて補正されることを特徴とする請
    求項1または2記載のロボットにおける触覚表現システ
    ム。
  4. 【請求項4】前記環境情報は、ロボット周囲の外部環境
    情報と、バッテリ残量または/およびアクチュエータ温
    度からなる内部環境情報であることを特徴とする請求項
    1ないし3のいずれかに記載のロボットにおける触覚表
    現システム。
JP22123999A 1999-08-04 1999-08-04 ロボットにおける触覚表現システム Pending JP2001038658A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP22123999A JP2001038658A (ja) 1999-08-04 1999-08-04 ロボットにおける触覚表現システム
US09/630,577 US6347261B1 (en) 1999-08-04 2000-08-03 User-machine interface system for enhanced interaction
EP00116896A EP1074352A2 (en) 1999-08-04 2000-08-04 User-machine interface system for enhanced interaction
US10/076,861 US6714840B2 (en) 1999-08-04 2002-02-12 User-machine interface system for enhanced interaction

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP22123999A JP2001038658A (ja) 1999-08-04 1999-08-04 ロボットにおける触覚表現システム

Publications (1)

Publication Number Publication Date
JP2001038658A true JP2001038658A (ja) 2001-02-13

Family

ID=16763656

Family Applications (1)

Application Number Title Priority Date Filing Date
JP22123999A Pending JP2001038658A (ja) 1999-08-04 1999-08-04 ロボットにおける触覚表現システム

Country Status (1)

Country Link
JP (1) JP2001038658A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002099545A1 (en) * 2001-06-01 2002-12-12 Sony International (Europe) Gmbh Man-machine interface unit control method, robot apparatus, and its action control method
WO2004080665A1 (ja) * 2003-03-11 2004-09-23 Sony Corporation ロボット装置、その行動制御方法及びプログラム
JP2008259921A (ja) * 2001-10-30 2008-10-30 Immersion Corp バーチャル・ペットと相互作用する際に触覚フィードバックを与えるための方法及び装置
JP2018171683A (ja) * 2017-03-31 2018-11-08 富士通株式会社 ロボットの制御プログラム、ロボット装置、及びロボットの制御方法
JPWO2019220733A1 (ja) * 2018-05-15 2021-06-17 ソニーグループ株式会社 制御装置、制御方法及びプログラム

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002099545A1 (en) * 2001-06-01 2002-12-12 Sony International (Europe) Gmbh Man-machine interface unit control method, robot apparatus, and its action control method
JP2008259921A (ja) * 2001-10-30 2008-10-30 Immersion Corp バーチャル・ペットと相互作用する際に触覚フィードバックを与えるための方法及び装置
JP2012152627A (ja) * 2001-10-30 2012-08-16 Immersion Corp バーチャル・ペットと相互作用する際に触覚フィードバックを与えるための方法及び装置
JP2015226806A (ja) * 2001-10-30 2015-12-17 イマージョン コーポレーションImmersion Corporation バーチャル・ペットと相互作用する際に触覚フィードバックを与えるための方法及び装置
WO2004080665A1 (ja) * 2003-03-11 2004-09-23 Sony Corporation ロボット装置、その行動制御方法及びプログラム
US7853357B2 (en) 2003-03-11 2010-12-14 Sony Corporation Robot behavior control based on current and predictive internal, external condition and states with levels of activations
JP2018171683A (ja) * 2017-03-31 2018-11-08 富士通株式会社 ロボットの制御プログラム、ロボット装置、及びロボットの制御方法
US10836044B2 (en) 2017-03-31 2020-11-17 Fujitsu Limited Robot control device and robot control method
JPWO2019220733A1 (ja) * 2018-05-15 2021-06-17 ソニーグループ株式会社 制御装置、制御方法及びプログラム
JP7327391B2 (ja) 2018-05-15 2023-08-16 ソニーグループ株式会社 制御装置、制御方法及びプログラム

Similar Documents

Publication Publication Date Title
JP6314134B2 (ja) ロボット訓練のためのユーザインターフェース
TW581959B (en) Robotic (animal) device and motion control method for robotic (animal) device
US7251606B2 (en) Robot device with changing dialogue and control method therefor and storage medium
US20030187653A1 (en) Action teaching apparatus and action teaching method for robot system, and storage medium
JPH10289006A (ja) 疑似感情を用いた制御対象の制御方法
US20010047226A1 (en) Articulated robot and method of controlling the motion of the same
JP2002239963A (ja) ロボット装置、ロボット装置の動作制御方法、プログラム及び記録媒体
JP2003039363A (ja) ロボット装置、ロボット装置の行動学習方法、ロボット装置の行動学習プログラム、及びプログラム記録媒体
JP2003266351A (ja) ロボット装置及びロボット装置の動作制御方法
JP2002239960A (ja) ロボット装置の動作制御方法、プログラム、記録媒体及びロボット装置
JP2001038663A (ja) マシンの制御システム
WO2002045916A1 (fr) Robot, procede de commande du mouvement d'un robot et systeme de commande du mouvement d'un robot
JP2005193331A (ja) ロボット装置及びその情動表出方法
KR19990063940A (ko) 가상 환경 조종 장치의 모델링 및 제어
WO2004080665A1 (ja) ロボット装置、その行動制御方法及びプログラム
JP2002049385A (ja) 音声合成装置、疑似感情表現装置及び音声合成方法
KR20060079832A (ko) 임베디드 시스템기반의 감정표현 휴먼노이드 로봇
JP2003159674A (ja) ロボット装置、ロボット装置の外力検出方法及びロボット装置の外力検出プログラム、並びにロボット装置の外力検出のためのキャリブレーション方法及びロボット装置の外力検出のためのキャリブレーションプログラム
JP2001038658A (ja) ロボットにおける触覚表現システム
JP2002086378A (ja) 脚式ロボットに対する動作教示システム及び動作教示方法
Robertsson et al. Perception modeling for human-like artificial sensor systems
JP2001051970A (ja) ユーザ認識度成長システム
KR101103852B1 (ko) 실시간 휴머노이드 제어 시스템 및 그 제어 방법
JP2001105363A (ja) ロボットにおける自律的行動表現システム
JP2007125629A (ja) ロボット装置及びその行動制御方法