JP2001105363A - ロボットにおける自律的行動表現システム - Google Patents

ロボットにおける自律的行動表現システム

Info

Publication number
JP2001105363A
JP2001105363A JP2000236817A JP2000236817A JP2001105363A JP 2001105363 A JP2001105363 A JP 2001105363A JP 2000236817 A JP2000236817 A JP 2000236817A JP 2000236817 A JP2000236817 A JP 2000236817A JP 2001105363 A JP2001105363 A JP 2001105363A
Authority
JP
Japan
Prior art keywords
robot
user
gesture
expression system
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000236817A
Other languages
English (en)
Inventor
Masaya Sakagami
昌也 坂上
Tsuyoshi Kamiya
剛志 神谷
Mutsumi Yoshida
睦 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Motor Co Ltd
Original Assignee
Yamaha Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Motor Co Ltd filed Critical Yamaha Motor Co Ltd
Priority to JP2000236817A priority Critical patent/JP2001105363A/ja
Publication of JP2001105363A publication Critical patent/JP2001105363A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】ユーザとロボットとの間で親近感が増し、ユー
ザに飽きられないロボットを提供する。 【解決手段】ユーザ情報を入力するユーザ情報入力手段
と、ユーザのしぐさ情報をロボットのしぐさパターンと
して記憶する記憶手段と、前記ユーザ情報入力手段に入
力された情報に基づいて前記パターンを再生する再生手
段とを備える。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、玩具用、ゲーム
用、民生用、産業用等のロボットにおける自律的行動表
現システムに関する。
【0002】
【従来の技術】最近、学習によりユーザになついたり、
独特の動作で感情を表現するなどユーザとのコミュニケ
イションができるペット型ロボットが商品化されてい
る。例えば、特開平11−58274号公報において
は、所望のポーズやモーション情報をロボットに教示す
る提案を行っている。
【0003】
【発明が解決しようとする課題】しかしながら、従来の
方法は、ティーチングプレイバックによる動作の学習
で、ユーザが学習すべき行動を明示的に教えなければな
らず、自然なインタラクション(相互交流)ではないた
め、例えばペットロボットのようなインタラクションを
主な目的としたロボットとしては、面白みに欠けすぐに
飽きられてしまう恐れがある。
【0004】本発明は、上記従来の問題を解決するもの
であって、ユーザとロボットとの間で親近感が増し飽き
がこないロボットにおける自律的行動表現システムを提
供することを目的とする。
【0005】
【課題を解決するための手段】上記目的を達成するため
に本発明の請求項1記載のロボットにおける自律的行動
表現システムは、ユーザ情報を入力するユーザ情報入力
手段と、ユーザのしぐさ情報をロボットのしぐさパター
ンとして記憶する記憶手段と、前記ユーザ情報入力手段
に入力された情報に基づいて前記パターンを再生する再
生手段とを備えることを特徴とし、また、請求項11記
載の発明は、ユーザ情報を入力するユーザ情報入力手段
と、ユーザのしぐさ情報をロボットのしぐさパターンと
して記憶する記憶手段と、前記ユーザ情報入力手段に入
力された情報に基づいて前記パターンを再生する再生手
段とを備え、前記記憶手段は、ユーザが特定の認識物を
手に持つか足や頭に着用することにより、前記認識物を
手足などとして検出し、ユーザのしぐさを認識、記憶す
ることを特徴とする。
【0006】
【発明の実施の形態】以下、本発明の実施の形態を図面
に基づいて説明する。図1は、本発明のロボットにおけ
る触覚表現システムの1実施形態を示す制御系の全体構
成図、図2は図1のユーザ・環境情報認識装置の制御系
の構成図、図3は図1の行動選択決定装置の制御系の構
成図である。なお、本発明においてロボットとは、マシ
ン以外に、コンピュータ画面上で表現される電子ロボッ
トを含むものである。
【0007】図1において、ロボット1は、外部情報入
力手段2、内部情報入力装置3、制御装置4、人工感情
表現手段5を備え、外部情報入力手段2は、ユーザ6に
関連する各種の外部情報を取り込み、制御装置4は、得
られた内部情報および外部情報に基づいてロボットの行
動を決定し、人工感情表現手段5によりユーザ6にロボ
ットの感情や行動を伝達するようにしている。
【0008】外部情報入力手段2は、視覚的情報入力装
置として、ユーザの顔、ジェスチャー、位置等を検出す
るカメラ2a、周囲の障害物を検出するIR(赤外線)
センサ2bを備え、また聴覚的情報入力装置としてユー
ザ等の音、声を検出するマイク2cを備え、さらに触覚
的情報入力装置として、ユーザの撫でや叩きを検出する
感圧センサ2d、ロボットの脚や手の力・トルクを検出
するトルクセンサ、ロボットの脚や手の関節位置を検出
するポテンショセンサ4fを備えている。内部情報入力
装置3は、ロボットの飢えの情報を検出するバッテリ残
量計3aとロボットの疲れの情報を検出するモータ温度
計3bを備えている。
【0009】制御装置4には、カメラ2aの信号により
ユーザの顔情報を検出する顔情報検出装置4aおよびジ
ェスチャー情報検出装置4b、マイク2cの信号により
ユーザの音声情報を検出する音声情報検出装置4c、感
圧センサ2dの信号によりユーザとの接触情報を検出す
る接触情報検出装置4d、カメラ2a、IRセンサ2
b、マイク2c、感圧センサ2dの信号により周辺環境
を検出する周辺環境検出装置4e、トルクセンサ2e、
ポテンショセンサ2fの信号によりロボットの腕等の姿
勢動作、抵抗力を検出する動作検出装置4fが備えら
れ、これらの情報は、ユーザ・環境情報認識装置4iに
送られる。また、バッテリ残量計3aおよびモータ温度
計3bの信号は、内部情報認識処理装置4gに送られ、
ここでロボットの内部情報が認識される。
【0010】図2に示すように、ユーザ・環境情報認識
部4iにおいては、表情検出部4aと音声検出部4cで
検出された情報が人特定部7に入力されここでユーザが
特定される。また、腕など姿勢動作検出部4f、表情検
出部4aで検出された情報および人の特定部7の情報に
基づいて識別部8でユーザの状態が識別され、この情報
は擬似感情生成部4jに送られる。また、音声検出部4
c、ジェスチャ検出部4b、なで・たたき検出部4dで
検出された情報および人の特定部7の情報に基づいて受
け付け部9でユーザからの情報が入力され、この情報は
特徴行為記憶部4mに送られる。また、周辺環境検出部
4e検出された情報は環境認識部10に送られ、この情
報は行動決定手段4kに送られる。
【0011】ユーザ・環境情報認識装置4iにおけるユ
ーザの状態識別部8の情報は、擬似感情生成装置4jに
送られ、ここで、記憶情報処理装置4hに記憶された感
情モデルに従ってロボットの擬似感情(人工感情)が生
成される。ここで感情モデルは、ロボットの感情を表す
怒り、悲しみ、喜び、恐れ、嫌悪、疲れ、飢え、眠気等
のパラメータを求めるための計算式であり、音や画像で
検出したユーザ情報(ユーザのご機嫌度、命令など)お
よび環境情報(部屋の明るさや音等)に応じてロボット
の感情が生成される。例えば、ユーザが帰宅したとき
は、ロボットは「喜び」の感情を表現し、他人が入って
きた場合には「怒り」の感情を表現する。このとき、ユ
ーザの誉めたり、叱る行為により、ロボットの感情を変
化させロボットを成長させていく。また、ロボットが赤
ん坊の頃は幼稚な動きをするように反応し、成長するに
つれて大人の動きをするように感情モデルを作成してお
く。このようにして成長していくロボットの性格、行動
は情報記憶処理装置4hに記憶され、学習処理を行う。
【0012】ユーザ・環境情報検出装置4iと擬似感情
生成装置4jの情報は、特徴的行為記憶処理装置4mに
送られ、ここで、ロボットがユーザに徐々になついてい
く行動とか、ユーザのしぐさを学習するとかの特徴的行
為を記憶、処理する。ユーザ・環境情報認識装置4i、
擬似感情生成装置4jおよび特徴行為記憶処理装置4m
の情報は、行動選択決定装置4kに送られる。
【0013】図3は行動決定手段(行動選択決定装置)
4kの制御系の構成図であり、擬似感情生成部4jの情
報は、行動セット選択部11に送られ、ここで記憶情報
処理装置4hに記憶された行動セット(行動ライブラ
リ)を参照してロボットの基本行動が決定され、行動セ
ットパラメータ設定部12に送られる。行動ライブラリ
は、ロボットが特定の表現をするための動作シーケンス
であり、例えば、行動パターンが「前進」の場合には、
「所定の順序で各脚から動かす」というシーケンスであ
り、行動パターンが「おどり」の場合には、「後脚をた
たんで座姿になり、前脚を交互に上げ下げする」という
シーケンスであり、また手を上げる、下げる、前に出す
などの基本行動パターンが記憶されている。特徴行為記
憶部4mで記憶した行動セットの内容は、行動再現部1
3に送られ、ここで行動セット選択部11の行動セット
を補正し、行動セットパラメータ設定部12に送られ
る。行動セットパラメータ設定部12においては、例え
ばロボットがユーザの方向に近づく速度やユーザの手を
掴む抵抗力などが設定され、これらの情報は行動実行部
5に送られる。
【0014】行動選択決定装置4kにおいて決定された
情報は、人工感情表現手段(行動実行部)5に送られ、
視覚的感情表現装置5aにおいてはロボットの顔や腕、
体等の動作機構が駆動され、アテンション(注意)やロ
コモーション(運動)情報(例えば顔の表情、首振り、
おどり)としてユーザ6に伝達され、聴覚的感情表現装
置5bにおいてはスピーカが駆動され、音程、リズム情
報(例えば鳴き声)としてユーザ6に伝達され、触覚的
感情表現装置5cにおいては顔や腕、体等の動作機構が
駆動され、抵抗力、リズム情報(例えば「お手」をした
ときのユーザが受ける触覚)としてユーザ6に伝達され
る。なお、顔や腕、足、体等のロボット構成部の動作機
構は、モータ、電磁ソレノイド、エアまたは油圧シリン
ダなどのアクチュエータを備える。
【0015】本発明において特徴とすることは、特徴的
行為記憶処理装置4mにおいて、ユーザ・環境情報検出
装置4iと擬似感情生成装置4jの情報に基づいて特徴
的行為を作成し、この情報を行動選択決定装置4kに送
りロボットに特徴的行動を行わせることである。これを
図4〜図7により説明する。
【0016】図4〜図7は、本発明のロボットにおける
自律的行動表現システムの1実施形態を示し、図4はし
ぐさ記憶の処理を示すフロー図、図5は、図4の処理を
説明するための図、図6はしぐさ再生の処理を示すフロ
ー図、図7は図6の具体例を説明するための図である。
なお、以下の説明では、ロボットの自律的行動を「しぐ
さ」として説明する。
【0017】図4は、しぐさ記憶の処理を示し、先ず、
ステップS1で部屋の明るさ、時刻等の環境情報を読み
込み、ステップS2でロボットの感情を表す怒り、悲し
み、喜び、恐れ、嫌悪、疲れ、飢え、眠気等の感情状態
を読み込み、ステップS3でユーザの認識を行う。次に
ステップS4でしぐさ記憶を実行するための開始トリガ
が有るか否かを判定する。開始トリガの例としては、ユ
ーザがスイッチを押す行動や、「覚えて!」というよう
な指示音声等の特定の行動、或いはロボットの感情であ
る「喜び」レベル(「喜び」以外の感情状態でもよい)
が所定値以上かつユーザが正面にきたとき、常にユーザ
のしぐさの履歴を一時記憶にとっておき、直前の動作を
繰り返してユーザが喜んだ等の場合などが挙げられる。
開始トリガがなければそのまま処理を終了する。
【0018】ステップS4で開始トリガが有る場合に
は、ステップS5で、図5に示すように、ユーザの体幹
Bと腕R、Lの画像を抽出し、ステップS6で右腕R、
左腕Lの動きの位置を時間tにしたがって記録する。こ
れは、抽出画像を1〜4に水平分割し、例えば右腕Rで
あればその位置が4、3、2、3… …というように記
録する。なお、ステップ5の方法によらず、ユーザがロ
ボットにしぐさを直接教えるようにしてもよい。この処
理はステップS7で終了トリガがあるまで続けられる。
終了トリガの例としては、ユーザがスイッチを押す行動
や、「お終い」というような指示音声等の特定の行動、
或いは開始から一定の時間が経過したとき、ユーザが一
定時間以上同じ姿勢のままのときなどが挙げられる。終
了トリガが有った場合には、ステップS8で今回記録し
たパターンと従来記憶されたパターンとが比較され、新
しいパターンの場合にはステップS9で新パターンを、
ステップS1〜S3のユーザ情報、環境情報および感情
状態とセットにして記憶する。
【0019】図6は、しぐさ再生の処理を示し、先ず、
ステップS1で部屋の明るさ、環境音、時刻等の環境情
報を読み込み、ステップS2でロボットの感情を表す怒
り、悲しみ、喜び、恐れ、嫌悪、疲れ、飢え、眠気等の
感情状態を読み込み、ステップS3でユーザの認識を行
う。次にステップS4でしぐさ再生を実行するための開
始トリガが有るか否かを判定する。開始トリガの例とし
ては、ユーザがスイッチを押す行動や、或いはロボット
の感情である「喜び」レベルが所定値以上かつ同一ユー
ザがいるなどである。開始トリガがなければそのまま処
理を終了する。
【0020】ステップS4で開始トリガが有る場合に
は、ステップS5で、しぐさのパターンを選択し、ステ
ップS6で記憶したシーケンスに沿って手を上げる、下
げるなどの基本行動パターンを選択して順次実行する。
なお、基本行動パターンは記憶したパターンの軌跡に最
も近いものを選択し、また組み合わせる。この基本行動
パターンは、当初は大きく簡単な動きであるが、時間経
過、ユーザの操作回数などが一定値以上になると、各行
動パターンを分割して細分化し、徐々に複雑な動作がで
きるようにすることも可能である。パターンの選択方法
としては、ランダムに選択する方法、記憶した感情状
態、時刻に近いものを選択する方法、同一ユーザが前に
いるときのものを選択する方法などがある。図7は、図
6のパターン選択を説明するための図である。ユーザ
毎、朝、昼、夜毎、喜びの度合いに応じてパターン〜
がマップとして記憶されている。
【0021】次に、本発明のロボットにおける自律的行
動表現システムの他の実施形態について説明する。上記
実施形態においては、ユーザの手の動きなどをジェスチ
ャとして認識・記憶し、ロボットの自律的行動として表
出することによって、ユーザとのインタラクションを感
じさせるようなシステムを提案している。しかしなが
ら、画像処理などによってユーザの位置や姿勢を検出
し、両手などの位置を抽出しているため、計算負荷が膨
大になり安価なマイコンなどで実現することは困難であ
る。
【0022】そこで、本実施形態においては、ユーザが
ロボットの手を上げ下げするなどして遊んだときにその
動かし方を記憶し、ロボットの自律的行動として表出す
ることによって、ユーザとのインタラクションを感じさ
せるような制御を行うシステムにおいて、ユーザが特定
の認識物を手に持つか足や頭に着用することにより、前
記認識物を手足などとして検出し、ユーザのしぐさを認
識・記憶しやすくすることを特徴としている。
【0023】前記特定の認識物としては、特定の色の付
いたマーカ、特定の光、電波、音波を発信する発振器、
特定の光などを反射するマーカなどであり、常にロボッ
トに正対するような形状または正対するように保持でき
る形状からなっている。
【0024】以下に、具体的な実施例について説明す
る。ロボットには予め手を上げる・下げる・前に出すな
どの基本行動パターンを組み込んでおく。ユーザが動か
したとき、その基本行動パターンの中から動かした軌跡
に最も近くなるものを選択し、組み合わせて行動シーケ
ンスを作り記憶する。基本行動パターンは、当初は大き
く簡単な動きであるが、時間の経過・ユーザの操作回数
などが一定以上になると、角行動パターンを中間で分割
して細分化し、しだいに複雑な動作ができるようにす
る。しぐさを記憶し始めるトリガは上記実施形態と同様
である。
【0025】ロボットに動きを見せる際に、例えば、右
手に赤、左手に緑の手袋をはめてロボットに正対する。
ロボットはカメラより入力された画像の中から視野内の
赤色の領域と緑色の領域を抽出し、これらを右腕、左腕
として認識し、その動きの位置を時間に従って記録す
る。記録方法は上記実施形態と同様である。
【0026】カメラは固定である必要はなく、例えば手
の動きを追従するように動かすことができる。その場
合、動きの記録は視野内における座標とカメラアングル
を併記するか、または合成した座標値を記録する。
【0027】検出の対象として、上記の例では手袋を使
用しているが、例えば異なる周期で点滅するランプを装
着したり、反射材を装着してロボットがそれをランプで
照射するようにして、それをカメラで検出するようにし
てもよい。
【0028】また、ジェスチャの検出手段はカメラでな
くても、例えば、手に超音波の発振器を装着し、ロボッ
トに受信器を搭載して音波の位置を計測することによっ
て動きを認識するようにしてもよい。さらに、これらの
マーカなどは手や腕に限らず、頭や足にも装着すること
が可能であり、その場合には全身の動きを認識し、まね
をすることも可能である。
【0029】
【発明の効果】以上の説明から明らかなように、本発明
によれば、ユーザがロボットと遊ぶときに、腕などを動
かしたパターンや、ロボットの前でユーザがとった行動
などを、後でロボットが自律的に再現して見せることに
より、ユーザとロボットとの間で親近感が増し、ユーザ
に飽きられることのないロボットを提供することができ
る。とくに、請求項11〜15記載の発明によれば、画
像処理による計算負荷を低減することができ安価なマイ
コンなどで実現することができる。
【図面の簡単な説明】
【図1】本発明のロボットにおける自律的行動表現シス
テムの1実施形態を示す全体構成図である。
【図2】図1のユーザ・環境情報認識装置の制御系の構
成図である。
【図3】図1の行動選択決定装置の制御系の構成図であ
る。
【図4】本発明のロボットにおける自律的行動表現シス
テムの1実施形態を示し、しぐさ記憶の処理を示すフロ
ー図である。
【図5】図4の処理を説明するための図である。
【図6】図4で記憶したしぐさを再生するための処理を
示すフロー図である。
【図7】図6の具体例を説明するための図である。
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 7/20 300 G06T 7/20 300A

Claims (15)

    【特許請求の範囲】
  1. 【請求項1】ユーザ情報を入力するユーザ情報入力手段
    と、ユーザのしぐさ情報をロボットのしぐさパターンと
    して記憶する記憶手段と、前記ユーザ情報入力手段に入
    力された情報に基づいて前記パターンを再生する再生手
    段とを備えることを特徴とするロボットにおける自律的
    行動表現システム。
  2. 【請求項2】外部環境情報を入力する外部環境情報入力
    手段、ロボットの内部状態を入力する入力手段または/
    および前記ユーザ情報入力手段の情報に基づいて、前記
    しぐさパターンの記憶、再生の判断を行うことを特徴と
    する請求項1記載のロボットにおける自律的行動表現シ
    ステム。
  3. 【請求項3】前記しぐさパターンを複数記憶した場合
    に、再生時に前記パターンの一つをランダムに選択する
    ことを特徴とする請求項1または2記載のロボットにお
    ける自律的行動表現システム。
  4. 【請求項4】前記しぐさパターンを複数記憶した場合
    に、再生時に前記パターンをユーザ情報、ロボットの感
    情状態および外部環境情報の少なくとも一つの情報によ
    り選択することを特徴とする請求項1または2記載のロ
    ボットにおける自律的行動表現システム。
  5. 【請求項5】しぐさパターンの記憶を開始するトリガ
    が、スイッチ、指示音声等のユーザからの特定の行動で
    あることを特徴とする請求項1または2記載のロボット
    における自律的行動表現システム。
  6. 【請求項6】しぐさパターンの記憶を開始するトリガ
    が、ロボットの感情状態のレベルが所定値以上になった
    ときであることを特徴とする請求項1または2記載のロ
    ボットにおける自律的行動表現システム。
  7. 【請求項7】しぐさパターンの記憶を開始するトリガ
    が、常にユーザのしぐさの履歴を記憶しておき、ユーザ
    が直前の動作を繰り返した場合であることを特徴とする
    請求項1または2記載のロボットにおける自律的行動表
    現システム。
  8. 【請求項8】しぐさパターンの記憶を終了するトリガ
    が、スイッチ、指示音声等のユーザからの特定の行動で
    あることを特徴とする請求項1または2記載のロボット
    における自律的行動表現システム。
  9. 【請求項9】しぐさパターンの記憶を終了するトリガ
    が、開始から一定の時間が経過したときであることを特
    徴とする請求項1または2記載のロボットにおける自律
    的行動表現システム。
  10. 【請求項10】しぐさパターンの記憶を終了するトリガ
    が、ユーザが一定時間以上同じ姿勢のままのときである
    ことを特徴とする請求項1または2記載のロボットにお
    ける自律的行動表現システム。
  11. 【請求項11】ユーザ情報を入力するユーザ情報入力手
    段と、ユーザのしぐさ情報をロボットのしぐさパターン
    として記憶する記憶手段と、前記ユーザ情報入力手段に
    入力された情報に基づいて前記パターンを再生する再生
    手段とを備え、前記記憶手段は、ユーザが特定の認識物
    を手に持つか足や頭に着用することにより、前記認識物
    を手足などとして検出し、ユーザのしぐさを認識、記憶
    することを特徴とするロボットにおける自律的行動表現
    システム。
  12. 【請求項12】前記特定の認識物は、特定の色の付いた
    マーカであることを特徴とする請求項11記載のロボッ
    トにおける自律的行動表現システム。
  13. 【請求項13】前記特定の認識物は、特定の光、電波、
    音波を発信する発振器であることを特徴とする請求項1
    1記載のロボットにおける自律的行動表現システム。
  14. 【請求項14】前記特定の認識物は、特定の光などを反
    射するマーカであることを特徴とする請求項11記載の
    ロボットにおける自律的行動表現システム。
  15. 【請求項15】前記特定の認識物は、常にロボットに正
    対するような形状または正対するように保持できる形状
    であることを特徴とする請求項11ないし14のいずれ
    かに記載のロボットにおける自律的行動表現システム。
JP2000236817A 1999-08-04 2000-08-04 ロボットにおける自律的行動表現システム Pending JP2001105363A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000236817A JP2001105363A (ja) 1999-08-04 2000-08-04 ロボットにおける自律的行動表現システム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP11-221237 1999-08-04
JP22123799 1999-08-04
JP2000236817A JP2001105363A (ja) 1999-08-04 2000-08-04 ロボットにおける自律的行動表現システム

Publications (1)

Publication Number Publication Date
JP2001105363A true JP2001105363A (ja) 2001-04-17

Family

ID=26524176

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000236817A Pending JP2001105363A (ja) 1999-08-04 2000-08-04 ロボットにおける自律的行動表現システム

Country Status (1)

Country Link
JP (1) JP2001105363A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6682390B2 (en) * 2000-07-04 2004-01-27 Tomy Company, Ltd. Interactive toy, reaction behavior pattern generating device, and reaction behavior pattern generating method
JP2007216381A (ja) * 2004-07-13 2007-08-30 Matsushita Electric Ind Co Ltd ロボット
CN100351054C (zh) * 2004-09-14 2007-11-28 索尼株式会社 机器人设备和控制其行为的方法
CN110625608A (zh) * 2018-06-21 2019-12-31 卡西欧计算机株式会社 机器人、机器人的控制方法以及存储介质
US10556339B2 (en) 2016-07-05 2020-02-11 Fuji Xerox Co., Ltd. Mobile robot, movement control system, and movement control method
JP2022142107A (ja) * 2021-03-16 2022-09-30 カシオ計算機株式会社 機器の制御装置、機器の制御方法及びプログラム

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6682390B2 (en) * 2000-07-04 2004-01-27 Tomy Company, Ltd. Interactive toy, reaction behavior pattern generating device, and reaction behavior pattern generating method
JP2007216381A (ja) * 2004-07-13 2007-08-30 Matsushita Electric Ind Co Ltd ロボット
JP4646943B2 (ja) * 2004-07-13 2011-03-09 パナソニック株式会社 ロボット
CN100351054C (zh) * 2004-09-14 2007-11-28 索尼株式会社 机器人设备和控制其行为的方法
US10556339B2 (en) 2016-07-05 2020-02-11 Fuji Xerox Co., Ltd. Mobile robot, movement control system, and movement control method
US11279031B2 (en) 2016-07-05 2022-03-22 Fujifilm Business Innovation Corp. Mobile robot, movement control system, and movement control method
CN110625608A (zh) * 2018-06-21 2019-12-31 卡西欧计算机株式会社 机器人、机器人的控制方法以及存储介质
US11485021B2 (en) 2018-06-21 2022-11-01 Casio Computer Co., Ltd. Robot, robot control method, and recording medium
US11780098B2 (en) 2018-06-21 2023-10-10 Casio Computer Co., Ltd Robot, robot control method, and recording medium
JP2022142107A (ja) * 2021-03-16 2022-09-30 カシオ計算機株式会社 機器の制御装置、機器の制御方法及びプログラム
JP7192905B2 (ja) 2021-03-16 2022-12-20 カシオ計算機株式会社 制御装置、制御方法及びプログラム

Similar Documents

Publication Publication Date Title
US6347261B1 (en) User-machine interface system for enhanced interaction
US7216082B2 (en) Action teaching apparatus and action teaching method for robot system, and storage medium
JP6314134B2 (ja) ロボット訓練のためのユーザインターフェース
US6493606B2 (en) Articulated robot and method of controlling the motion of the same
JPH11513163A (ja) バーチャル環境操作装置のモデル化及び制御
JP3714268B2 (ja) ロボット装置
JP7400923B2 (ja) 情報処理装置および情報処理方法
JPH10289006A (ja) 疑似感情を用いた制御対象の制御方法
Zuher et al. Recognition of human motions for imitation and control of a humanoid robot
JP2003039363A (ja) ロボット装置、ロボット装置の行動学習方法、ロボット装置の行動学習プログラム、及びプログラム記録媒体
WO2002076687A1 (en) Robot device and control method therefor, and storage medium
US5982353A (en) Virtual body modeling apparatus having dual-mode motion processing
JP2002049385A (ja) 音声合成装置、疑似感情表現装置及び音声合成方法
KR20060079832A (ko) 임베디드 시스템기반의 감정표현 휴먼노이드 로봇
WO2019087495A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US20190366554A1 (en) Robot interaction system and method
JP2001105363A (ja) ロボットにおける自律的行動表現システム
JP2000107444A (ja) 電子ゲーム機用のオフライン操作式スイング入力デバイス
JP2006088276A (ja) 動作生成システム
JP2002086378A (ja) 脚式ロボットに対する動作教示システム及び動作教示方法
JP2001051970A (ja) ユーザ認識度成長システム
JP2001038658A (ja) ロボットにおける触覚表現システム
JP2005231012A (ja) ロボット装置及びその制御方法
JP7238796B2 (ja) 動物型の自律移動体、動物型の自律移動体の動作方法、およびプログラム
JP7156300B2 (ja) 情報処理装置、情報処理方法、およびプログラム