JPH10289006A - 疑似感情を用いた制御対象の制御方法 - Google Patents

疑似感情を用いた制御対象の制御方法

Info

Publication number
JPH10289006A
JPH10289006A JP9093380A JP9338097A JPH10289006A JP H10289006 A JPH10289006 A JP H10289006A JP 9093380 A JP9093380 A JP 9093380A JP 9338097 A JP9338097 A JP 9338097A JP H10289006 A JPH10289006 A JP H10289006A
Authority
JP
Japan
Prior art keywords
emotion
user
pseudo
information
intention
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9093380A
Other languages
English (en)
Inventor
Tsuyoshi Kamiya
剛志 神谷
Masaya Sakagami
昌也 坂上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Motor Co Ltd
Original Assignee
Yamaha Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Motor Co Ltd filed Critical Yamaha Motor Co Ltd
Priority to JP9093380A priority Critical patent/JPH10289006A/ja
Priority to US09/059,278 priority patent/US6175772B1/en
Publication of JPH10289006A publication Critical patent/JPH10289006A/ja
Priority to US09/736,514 priority patent/US6629242B2/en
Pending legal-status Critical Current

Links

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F11/00Control or safety arrangements
    • F24F11/30Control or safety arrangements for purposes related to the operation of the system, e.g. for safety or monitoring
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F11/00Control or safety arrangements
    • F24F11/62Control or safety arrangements characterised by the type of control or by internal processing, e.g. using fuzzy logic, adaptive control or estimation of values
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F2110/00Control inputs relating to air properties
    • F24F2110/10Temperature
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F2110/00Control inputs relating to air properties
    • F24F2110/10Temperature
    • F24F2110/12Temperature of the outside air
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F2110/00Control inputs relating to air properties
    • F24F2110/20Humidity
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F2110/00Control inputs relating to air properties
    • F24F2110/20Humidity
    • F24F2110/22Humidity of the outside air
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F2110/00Control inputs relating to air properties
    • F24F2110/30Velocity
    • F24F2110/32Velocity of the outside air
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F2110/00Control inputs relating to air properties
    • F24F2110/50Air quality properties
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F2120/00Control inputs relating to users or occupants
    • F24F2120/10Occupancy
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F2120/00Control inputs relating to users or occupants
    • F24F2120/20Feedback from users
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B30/00Energy efficient heating, ventilation or air conditioning [HVAC]
    • Y02B30/70Efficient control or regulation technologies, e.g. for control of refrigerant flow, motor or heating

Abstract

(57)【要約】 【課題】 使用者が要求する以上の出力を得ることがで
きる制御方法を提供すること、具体的には疑似感情を有
する制御対象の制御方法を提供すること。 【解決手段】 本発明に係る疑似感情を用いた制御対象
の制御方法は、使用者の状態を知覚的検知手段(2,4,6,
8)により検出して認識し、認識した前記使用者の状態と
制御対象固有の疑似感情とを関連ずけした感情生成アル
ゴリズムにより、前記使用者と制御対象との相互作用に
基づいて制御対象固有の疑似感情を生成し少なくとも前
記疑似感情と制御対象の動作とを関連ずけした動作決定
アルゴリズムにより、前記疑似感情に基づいて制御対象
の動作を決定すると共に、前記疑似感情が反映した制御
対象の動作結果による使用者の反応を評価基準として、
前記感情生成アルゴリズム及び/又は動作決定アルゴリ
ズムの補正及び学習を行いながら各アルゴリズムを使用
者や使用状況に合わせて進化させていく。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、制御対象に感情を
擬態させる制御対象の制御方法。
【0002】
【従来の技術】従来から、使用者の要求に合わせて制御
対象を制御する制御方法は様々なものがある。この種の
制御方法としては、使用者が制御対象に要求する出力を
目標値とし、制御対象の出力がこの目標値に合致するよ
うに制御対象を制御すると共に、制御対象の出力をフィ
ードバックして目標値と比較し、比較結果に基づいて補
正を行う制御方法が一般的であり、このように、出力を
フィードバックして補正を行うことにより、制御対象の
出力を使用者の要求する目標値に近づけることができる
ため、使用者の要求を満たす制御が達成されていた。前
記した目標値は、基本的に制御対象を使用する使用者の
要求を満たすような値に設定され、具体的な目標値の設
定方法としては、エアコンの設定温度等のように使用者
が使用する毎に適宜設定する方法と、車両におけるエン
ジンのように製造の段階で広範囲の使用者が満足するよ
うな適当な値に予め設定しておく方法とが挙げられる。
【0003】
【発明が解決しようとする課題】しかし、従来の制御方
法では、目標値に沿った出力を得ること原則としている
ため、例えば、前者の設定方法のように使用者が目標値
を直接入力する場合、目標値の入力を誤ってしまうと制
御対象は当然誤った目標値のまま制御されてしまい、結
果として使用者が満足する出力が得られないという問題
が生じる。例えば、使用者が目標値としてエアコンの温
度を設定する場合、エアコンが如何に設定温度に忠実な
出力を行うように制御されていたとしても、使用者が温
度を数値的に正確に把握して、自分の求めている温度を
数値的にエアコンに入力することは非常に困難であり、
使用者はエアコンからの出力を受けて初めて自分の設定
した温度が自分が本当に求めている温度とは異なるとに
気付き温度を設定し直すことが多い。また、後者の設定
方法のように予め目標値を設定しておく場合、制御対象
を使用する使用者、即ち、人間は各々他とは違う個性を
持っているため、全ての使用者を満足させる出力を予め
設定することは不可能であるという問題が残っている。
上記したように従来の制御方法では、目標値に沿った出
力を得ること原則とし、その目標値を使用者自身が設定
するか、又は予め設定しておくため、制御対象の出力は
ある程度予測できる安定した値になるが、その出力が必
ずしも使用者が本当に求めている要求を満たしていると
は限らないという問題があり、また、当然使用者が直接
指示はしていない使用者の意図・感情までを考慮した出
力を得ることはできない。さらに、従来の制御方法で
は、目標値に沿った出力を得ること原則としているた
め、制御対象の出力は当然ある程度予測できる値とな
り、例えば、玩具等にこのような制御を適用すると、制
御対象である玩具が予測できる機械的な動きしかしない
ため直ぐに飽きてしまうという問題もある。本発明は、
上記した従来の制御方法に伴う問題点を解決し、使用者
が要求する以上の出力を得ることができる制御方法を提
供すること、具体的には疑似感情を有する制御対象の制
御方法を提供することを目的としている。
【0004】
【課題を解決するための手段】上記した目的を解決する
ために、本発明に係る疑似感情を有する制御対象の制御
方法は、使用者の状態を検出し、少なくとも前記使用者
の状態と制御対象固有の疑似感情とを関連ずけした感情
生成アルゴリズムにより、前記使用者の状態に基づいて
制御対象固有の疑似感情を生成し、少なくとも前記疑似
感情と制御対象の動作とを関連ずけした動作決定アルゴ
リズムにより、前記疑似感情に基づいて制御対象の動作
を決定すると共に、前記疑似感情が反映した制御対象の
動作結果による使用者の反応を評価基準として、前記感
情生成アルゴリズム及び/又は動作決定アルゴリズムの
補正及び学習を行うことを特徴とするものである。
【0005】
【発明の実施の形態】以下、添付図面に示した幾つかの
実施例を参照して本発明に係る疑似感情を用いた制御対
象の制御方法(以下、単に制御方法と称する。)につい
て説明していく。
【0006】(コミュニケーションパートナーロボット
の概略)図1は、本発明に係る制御方法を適用したコミ
ュニケーションパートナーロボット(以下、単にロボッ
トと称する。)の外観図を、また、図2はロボットと使
用者との関係を示す概略ブロック図を各々示している。
このロボット1は、使用者等の状態や使用者等の意図・
環状に基づいて自己の疑似感情を生成し、幾つかの動作
手段により前記疑似感情を表現すると共に、自己の感情
表現動作に対する使用者の反応から、生成された疑似感
情が適正か否かを評価すると共に、自らの疑似感情によ
って起こした動作が、使用者に正しく理解、認識された
かを評価し、生成すべき適当な疑似感情及び疑似感情を
表現する適当な動作を学習し進化していくように制御さ
れ、それにより、使用者とのコミュニケーションを図り
ながら、自己の疑似感情と感情表現とを確立していくよ
うに構成されている。
【0007】(知覚的検知手段について)ロボット1
は、視覚的検知手段としてのCCDカメラ2、触覚的検
知手段としての感圧センサ4及び近接センサ6、及び聴
覚的検知手段としてのマイク8を備え、これら知覚的検
知手段2,4,6,8によって、使用者の状態(声、表
情、ジェスチャ等)やロボット自身が使用される動作環
境を知覚的に検知する。前記CCDカメラ2は、ロボッ
ト1の頭部の頂面に自在継手を介して任意の方向に向け
られることができるように設けられ得、例えば、音声や
温度変化等に反応して音声の発生源(例えば、人間や動
物)や、温度変化の原因となる対象物(例えば、人間
等)の方向に自動的に向くように制御され得、制御装置
20に使用者の表情や周辺環境等の画像情報を供給す
る。前記感圧センサ4は、ロボット1の前部の下方に設
けられ得、ロボット1が実際に障害物等に当たった時
に、その情報を制御装置20に供給する。また、前記近
接センサ6は、ロボット1の背面に前後左右に各々の間
隔が例えば10cm程度となるように並べられた4つの
静電近接センサ6FL(前左)、6FR(前右)、6R
L(後左)、及び6RR(後右)から成り、各センサの
ON,OFF及びON時間,OFF時間に関する情報を
制御装置20に供給する。さらに、前記マイク8は、ロ
ボット1の頭部の側面に設けられ、ロボット1の周囲で
生じる音声を集音して、制御装置20に供給する。
【0008】(動作手段について)また、ロボット1
は、自分の表情や特定情報を表示するためのディスプレ
イ10、言葉や鳴き声又は効果音等の音声を出力するた
めのスピーカ12、及びロボット1自身が動き回るため
の駆動装置14を備え、これらを動作させることによ
り、自己の疑似感情を表現しながら、必要に応じて使用
者の意図に従った行動を起こす。
【0009】(制御装置20について)上記したように
構成されたロボット1は、内蔵された制御装置20で、
各知覚的検知手段2,4,6,8から得られる使用者の
状態や周辺環境に関する情報を利用して自己の疑似感情
の生成、使用者の意図・感情の認識、及び動作可能領域
の認識等を行うと共に、生成された疑似感情に基づいて
ディスプレイ10、スピーカ12、及び駆動装置14の
動作を決定して、使用者の意図に従った目標達成動作や
感情表現を優先した感情動作等の適当な動作を起こす。
また、ロボット1は、自らの動作に起因する使用者の反
応を知覚的に検知して、生成された疑似感情の適正や動
作の適正の評価を行い、評価結果を学習し進化していく
よう制御装置20で制御される。
【0010】(制御装置20の具体的な構成)以下に制
御装置20の構成について、さらに具体的に説明してい
く。図3は、制御装置20の概略ブロック図を示してい
る。制御装置20は、前記各知覚的検知手段2,4,
6,8の情報に加えて、必要に応じてネットワーク等の
外部情報源9の情報を入力する。制御装置20は、表情
検出部21、ジェスチャ検出部22、なで・たたき検出
部23、音声検出部24、及び周辺環境検出部25を備
え、これら各検出部21〜25で、使用者の状態や周辺
環境に関する情報を検出する。具体的には、表情検出部
21及びジェスチャ検出部22は、CCDカメラ2から
の入力画像情報に基づいて、適当な画像認識手段により
使用者等の表情やジェスチャを視覚的に検出する。なで
・たたき検出部23は、感圧センサ4及び近接センサ6
からの入力情報に基づいて、使用者がロボット1自身を
撫でたり、たたいたりする動作を触覚的に検出する。こ
こで、なで・たたき検出部23についてさらに具体的に
説明すると、なで・たたき検出部23では、触位置検出
と撫でられ検出との二段階の検出を行い、使用者がロボ
ット1を撫でたか否か、又、撫でた場合には、どのよう
に撫でたかを検出する。前記触位置検出は、前記近接セ
ンサ6を構成する静電近接センサのうち、センサ6FL
(前左)及び6FR(前右)の何れかがONなら触位置
が前であると認識し、センサ6RL(後左)及び6RR
(後右)の何れかがONなら触位置が後であると認識
し、センサ6FL(前左)及び6RLの何れかがONな
ら触位置が左であると認識し、センサ6FR(前右)及
び6RR(後右)の何れかがONなら触位置が右である
と認識することで、使用者等が近接センサ6のどの位置
に触れたかを認識する。さらに撫でられ検出では、前記
触位置が前から後へ、又は右から左へ等変化した時に、
なでられたと認識する(図4参照、本図は使用者による
ロボット1の撫で方と静電近接センサとの関係を示す図
である。)。また、前記撫でられ検出では、各静電近接
センサのON時間及びOFF時間に基づいて、使用者の
ロボットへの触れ方を認識する。例えば、使用者が触れ
た手を長時間動かさない場合には、使用者等によりロボ
ット1が押さえつけられていると認識し、使用者がロボ
ット1に触れた状態で、手を適当な周期で前後左右に動
かした場合には撫でられていると認識し、近接センサ6
がOFFを維持している間に、非常に短い一回のON時
間を検出した場合には突然たたかれたと認識し、また、
非常に短いON時間が一定の短い間隔を開けて連続して
検出された場合には繰り返したたかれていると認識す
る。さらに、本実施例では具体的に説明されていない
が、感圧センサを近接センサ6と同位置に設けて使用者
のロボット1への触れ方が優しいか雑か、又はたたかれ
ている場合にはその強さ等を検出してもよい。音声検出
部24では、マイク8からの入力情報に基づいて、使用
者の声やロボットの周辺で生じた音等を聴覚的に検出
し、適当な音声認識手段により音声情報の検出、即ち、
使用者等の話の内容の認識、個人認識、又は周辺で生じ
た音の識別認識等を行う。さらに、周辺環境検出部25
では、感圧センサ4からの入力情報に基づいて周辺の障
害物に関する情報を触覚的に認識すると共に、CCDカ
メラ2からの入力画像情報に基づいて、適当な画像認識
手段により前記障害物に関する情報を視覚的に認識す
る。
【0011】(各種認識部について)制御装置20は、
前記各検出部21〜25の検出結果に基づいて、意図・
感情認識部31で使用者の意図・感情の認識を行い、疑
似感情生成部32で疑似感情の生成を行うと共に、移動
可能領域認識部33でロボット1が実際に移動可能な領
域の認識を行う。
【0012】(意図・感情認識部)具体的には、前記意
図・感情認識部31は、例えば、表情検出部21、ジェ
スチャ検出部22、及び音声検出部23から得られる使
用者の状態に関する情報に加えて後述する好み・癖学習
部35から得られる使用者の好み・癖に関する情報を入
力し、これら入力情報に基づいて使用者の意図・感情を
出力値として得ることができるニューラル回路網等から
構成され得、その出力値により使用者の意図・感情に関
する情報を認識し得る。さらに具体的には、前記意図・
感情認識部33はニューラル回路網で構成される場合、
例えば、感情の認識については、使用者の感情を幾つか
の感情の態様(即ち、平常、嫌悪、幸福、悲しみ、驚
き、怒り、及び恐怖)に予め分類しておき、表情検出部
21、ジェスチャ検出部22、及び音声検出部23から
得られる使用者の状態に加えて好み・癖学習部35から
得られる使用者の好みや癖に関する情報と前記感情の態
様との関係を予め学習させておくことで使用者の感情を
選択的に認識できるように構成され得る。また、意図の
認識については、例えば、使用者がロボット1に要求し
得る可能性のある意図の内容(具体的には、「止まれ」
「走れ」「戻れ」等)を予め幾つか学習しておき、使用
者の状態及び好み・癖に関する情報と前記意図の内容に
関する情報との関係を予め学習させておくことで使用者
の意図を選択的に認識できるように構成され得る。この
意図・感情認識部31で認識された使用者の意図・感情
に関する情報は、疑似感情生成部32においては、疑似
感情を生成するための情報の一つとして、かつ、生成さ
れた疑似感情の適正を評価するための情報として使用さ
れ、また、行動決定手段40においては、使用者の意図
・感情に従った目標達成動作を起こすための情報とし
て、かつ、自らの行動に起因した使用者の反応に関する
情報として使用され、さらに、好み・癖学習部35にお
いては、使用者の好み・癖に関する教師データとして使
用される。また、この意図・感情認識部31では、使用
者の状態からロボット自らの行動に起因した使用者の反
応を認識し、この反応から、認識した使用者の意図・感
情と実際の使用者の意図・感情とのずれを評価し、この
ずれがなくなるように認識アルゴリズム補正及び学習を
行うように構成され得る。さらに、好ましくは、上記し
た感情の態様や意図の内容は、各態様(嫌悪、幸福等)
及び各意図の内容(「走れ」「止まれ」等)を幾つかの
レベルに細分化して認識するように構成され得る。この
ように使用者の意図・感情を細分化して認識する場合に
は、ロボットの行動に起因した使用者の反応に基づく前
記認識アルゴリズムの補正は、各態様や意図の内容につ
いて細分化したレベルで達成され得る。具体的には、例
えば、使用者がロボット1に「走れ」と命令し、ロボッ
ト1が、使用者の「走れ」と言っている時の表情等の様
々な状態から使用者の「走れ」という意図をレベル2
(例えば、普通に走る)で認識し行動した結果の使用者
の反応が不満である場合には、認識した使用者の意図と
実際の使用者の意図との間にずれがあると判断して、使
用者が同じ状態である時の意図の認識結果を使用者が満
足するレベル(例えば、レベル3:速く走る又はレベル
1:遅く走る)まで補正し、それを学習する。このよう
に構成することで、ロボット1は、使用者が具体的に命
令していない内容、例えば、使用者が「走れ」と命令し
た場合のその速度や走り方等まで認識して、それを実行
することが可能になる。尚、この意図・感情認識部31
における意図・感情の認識は必ずしもニューラル回路網
を用いて行う必要はなく、他の手段、例えば、各検出部
から得られる使用者の種々の状態に分類した感情の態様
を適当に割り当てられるのであれば、マップ等を使用し
てもよい。
【0013】(疑似感情生成部)疑似感情生成部32
は、ロボット1の持つべき感情を幾つかの感情の態様に
分類した基本感情モデル、本実施例の場合には基本7感
情モデル(平常、嫌悪、幸福、悲しみ、驚き、怒り、及
び恐怖)を備え、使用者の状態に関する情報及び使用者
の意図・感情に関する情報と、前記各感情モデルとを対
応付けしたマップ或いは関数、又は使用者の状態に関す
る情報及び使用者の意図・感情に関する情報と各感情モ
デルとの関係を学習したニューラル回路網等により、そ
の時々に応じて前記基本7感情モデルから選択的に疑似
感情を生成する。例えば、図5は、なで・たたき検出部
23から得られる数値を、連続して撫でられると「快
適」に、じっと押さえると「不快」に、また、頻繁に触
ると「忙」に、ほっておくと「関」になるという条件に
基づいて縦軸「快適〜不快」及び横軸「関〜忙」に振り
分け、なで・たたき検出部23の出力に対して基本7感
情モデルのうちの5つの感情モデル(平常、幸福、嫌
悪、怒り、悲しみ)を割り当てたマップを示している。
このマップによれば、例えば、使用者が連続して撫でて
やるとロボット1の疑似感情は幸福になり、また、何回
かじっと押さえつけると疑似感情は嫌悪になり、さら
に、何度もじっと押さえつけると疑似感情は怒りとな
り、一般に人間を含めた動物がいやがる動作と喜ぶ動作
に対応した疑似感情が生成できる。上記したなで・たた
き検出部23の出力情報と感情モデルとの対応付けに加
えて、さらに、例えば、撫で方が嫌悪の領域に入ってい
ても表情検出部21や音声検知手段23から得られる使
用者の状態が良い状態には、単にふざけて押さえつけて
いるだけなので最終的な疑似感情は嫌悪ではなく平常を
保つようにする等、他の検出手段21,22,23から
の使用者の状態に関する情報や使用者の意図・感情に関
する情報を組み合わせて、使用者の状態に関する情報及
び使用者の意図・感情に関する情報と基本7感情モデル
とを対応させたマップが作られ得る。また、この疑似感
情生成部32における疑似感情の生成を、例えば、ニュ
ーラル回路網で行う場合には、図6に示すように、使用
者の表情、ジェスチャ、なで・たたき動作、音声等から
認識した使用者の状態(笑い、怒り等)を入力とし、基
本感情モデル(図6の例では6モデル)を出力とし、こ
れら入力と出力との関係をニューラル回路網に予め学習
させ、使用者の状態に対する各基本感情モデルの重みw
n(n=1〜6)を出力するように構成し、各基本感情
モデルの重みに基づいて多次元マップ等により最終的な
疑似感情出力を決定するように構成され得る。このよう
に、疑似感情生成部32を学習可能な制御ロジックで構
成した場合、疑似感情生成部32は、意図・感情認識部
31から得られる情報に基づいてロボット自身の行動に
起因する使用者の反応を認識し、この使用者の反応から
生成された疑似感情の適正を評価し、生成した疑似感情
が不自然な場合には、その時の使用者の状態や使用者の
意図・感情に合った自然な疑似感情が生成できるよう
に、入力情報と出力情報との関係を補正し、補正結果を
学習するように構成され得る。好ましくは、この疑似感
情生成部32では、上記した基本7感情モデルの各々の
感情モデルをさらに幾つかのレベルに細分化して疑似感
情を生成することができ、例えば、幸福モデルを幾つか
のレベルに細分化して幸福の度合い(即ち、非常に幸福
〜少し幸福等)まで含んだ疑似感情を生成することがで
き、この場合には、疑似感情生成部32は細分化したレ
ベル単位で疑似感情生成アルゴリズムを補正し、学習し
ていくように構成され得る。生成された疑似感情に関す
る情報は行動決定手段40に出力され、行動決定手段4
0において、感情動作を行うための情報として、また、
幾つかの動作に対して後述する優先順位を付けるための
基準情報として、さらに、意図・感情認識部31から得
られる使用者の反応に関する情報を評価するための比較
情報として使用される。
【0014】(周辺環境記憶部及び移動可能領域認識部
について)周辺環境記憶部34は、周辺環境検出部25
から周辺環境に関する情報を入力して次々に記憶してい
き、また、移動可能領域認識部33は、周辺環境検出部
25及び周辺環境記憶部34からの情報に基づいてロボ
ット1が実際に移動できる領域を認識する。認識された
移動可能領域に関する情報は行動決定手段40に出力さ
れる。
【0015】(好み・癖学習部)好み・癖学習部35
は、意図・感情認識部31で認識される使用者の意図・
感情に関する情報を常時入力し、使用者の意図・感情か
ら使用者の好みや癖を判断して学習すると共に、その情
報を、意図・感情を認識するための情報の一つとして意
図・感情認識部31に出力する。また、この好み・癖学
習部35の出力は情報検索部36にも入力される。
【0016】(情報検索部、情報記憶部、及び情報統合
・処理部)情報検索部36は、外部情報源9から前記好
み・癖学習部35で得られる使用者の好み・癖に合った
適当な情報を検索し、情報記憶部37に記憶させる。情
報統合・処理部38では、検索後の情報や記憶された情
報を統合し、必要な情報を選択する等の処理を施して行
動決定手段40に出力する。
【0017】(行動決定手段について)上記したように
各認識部や生成部等で認識された使用者の意図・感情に
関する情報、ロボットの疑似感情に関する情報、移動可
能領域に関する情報、及び使用者の反応に関する情報は
全て行動決定手段40に出力され、使用者の意図・感情
に関する情報は目標達成動作の基準として、ロボットの
疑似感情に関する情報は感情動作として、かつ、移動可
能領域に関する情報は障害物回避動作として使用され
る。行動決定手段40は、行動型人工知能から成り、ロ
ボット1の実際の疑似感情と、使用者が認識するロボッ
ト1の疑似感情との間のずれを評価して、このずれが小
さくなるように、前記行動型人工知能の補正・学習又は
進化を行う適当な成長システムを有する。具体的には、
行動決定手段40では、目標達成動作、感情動作、及び
障害物回避動作に加えて、無指示の場合の徘徊動作のど
の動作に対応する動作をロボット1が行うかを、各動作
に優先順位を設定することにより決定する。具体的に
は、目標達成動作としては、単に使用者の意図する目的
に沿うようにな動作、即ち、使用者が「走れ」と命令し
たら「走る」ような動作が考えられ得る。また、感情動
作としては、疑似感情が「幸福」の時は笑顔の表情をデ
ィスプレイ10に表示しながら駆動装置14で前後進や
回転等を行い踊るように行動し幸福を表現する動作や、
また、疑似感情が「怒り」の時には怒り顔の表情をディ
スプレイ10に表示しながら駆動装置14で真っ直ぐに
突進していく怒りを表現する動作等、基本的に感情に依
存した動作が考えられる。さらに、障害物回避動作とし
ては、障害物を避けることを目的とした動作が考えられ
得、また、無指示の場合の徘徊動作としては、目的なく
前進や方向転換を繰り返す動作が考えられ得る。上記し
た各動作(感情動作、目標達成動作、障害物回避動作、
及び徘徊動作)に対する優先順位付けは、疑似感情生成
部32で生成されたロボット1の疑似感情に基づいて行
われる。図7は、疑似感情に基づく各動作の優先順位付
けの一例を示す図である。図面に示すように、この場合
は、疑似感情が「平常」の時は障害物回避動作に次いで
目標達成動作が優先され、自己の感情を抑えた使用者に
対して忠実なロボットとして機能するように優先順位が
付けられ、また、疑似感情が「嫌悪」、「幸福」、「悲
しみ」の時は、障害物回避動作に次いで感情動作が優先
され、使用者の意に反した行動を起こし自分が怒ってい
ることや悲しんでいること、又は幸福で舞い上がってい
ることを表現できるような優先順位が付けられ、さら
に、疑似感情が「怒り」、「驚き」、「恐怖」の場合に
は、感情動作が最優先され、例えば、障害物にぶつかり
ながらも前進を続ける等の行動をして驚き等の感情が表
現されるように優先順位が付けられている。この優先順
位付けに基づく動作の選択が終了すると、行動決定手段
40は、ロボットが選択した動作の内容に適した動作を
行うように、ディスプレイ10、スピーカ12及び駆動
装置14を作動させる。具体的には、ディスプレイ10
には、例えば、図8に示すような幾つかの表情パターン
の中から、その時の疑似感情に合った適当な表情を選択
して表示する。また、使用者が何らかの情報表示を要求
している場合には、前記表情パターンに変えて、又は前
記表情パターンと共にディスプレイ10に要求に応じた
情報を表示する。さらに、スピーカ12からは、その時
の疑似感情を表現するのに適した音声(例えば、疑似感
情が幸福の時には笑い声等)や、目的達成動作が最優先
される場合に使用者の要求に対する返事等や、適当な効
果音を適宜合成して出力する。さらにまた、駆動装置1
4は、優先された動作に応じて適当に駆動される。ここ
で、行動決定手段40が感情動作を選択した場合の動作
の決定方法について、具体的に説明すると、行動決定手
段40は、基本7感情モデルの各モデル(好ましくは各
モデルの各レベル)と、それに対応する幾つかの動作と
の関係を予め学習しており、例えば、使用者が近接セン
サ6をじっと触ったままの状態を維持した結果、疑似感
情が「怒り」になった場合には、ディスプレイ10に
「怒り」の表情を表示しながら、駆動装置14を使用者
の手から逃れるようにバックさせ、使用者の手から離れ
たら停止させる。また、疑似感情が「幸福」の場合に
は、「笑顔」の表情をディスプレイ10に表示しなが
ら、駆動装置14を前後進や回転等を組み合わせて作動
させる。
【0018】(行動決定手段における学習について)上
記した行動決定手段40は、意図・感情認識部31から
得られる情報に基づいてロボット自身の行動に起因した
使用者の反応から使用者がロボット1の疑似感情をどの
ように認識しているかを判断し、使用者が認識したロボ
ットの疑似感情とロボットの実際の疑似感情との間のず
れに基づいて、行動決定部40における動作決定アルゴ
リズムの評価を行う。前記ずれが全くない場合には、行
動決定部40は疑似感情を表現するのに最適な動作を決
定していると評価され動作決定アルゴリズムはその状態
に維持され、また、ロボット1の疑似感情が「怒り」で
あるにもかかわらず、使用者がロボット1の疑似感情を
「嫌悪」と認識している場合のように実際の疑似感情と
認識された疑似感情が異なる場合には、ずれがあると評
価され、そのずれを無くすように、行動決定手段40の
動作決定アルゴリズムにおける疑似感情と動作との関係
が補正される。例えば、疑似感情が、基本7感情モデル
の各モデルをレベル1〜3まで細分化されており、動作
決定アルゴリズムが「喜び」感情モデルと動作との関係
を次のように学習していた場合に、 1.「喜びレベル1(少し嬉しい)→笑顔で走り回る」 2.「喜びレベル2(嬉しい)→笑いながら笑顔で踊る
ように走り回る」 3.「喜びレベル3(大変嬉しい):大声で笑いながら
笑顔で踊るように走り回る」 実際にロボットが「喜びレベル2」を表現する動作を行
った結果、使用者の反応から「使用者がロボットは大変
嬉しい(疑似感情:喜びレベル3)と感じている」と認
識した場合、行動決定手段40では、使用者の認識する
ロボットの疑似感情がロボットの実際の疑似感情と合う
ように、「喜び」感情モデルと動作との関係を次のよう
に補正し学習する。 1. 「喜びレベル1(少し嬉しい)→笑顔で走り回
る」 2’.「喜びレベル2(嬉しい)→笑顔で踊るように走
り回る」 3’.「喜びレベル3(大変嬉しい):笑いながら笑顔
で踊るように走り回る」 上記したように動作決定アルゴリズムにおける疑似感情
と動作との関係を使用者の反応に基づいて補正すること
により、疑似感情に対応する適当な感情表現動作が確立
していく。
【0019】(実施例効果)上記したように構成された
ロボット1は、幾つかの動作の優先順位をロボット1の
疑似感情に基づいて決めているので、感情動作が最優先
された時だけでなく、ロボット1の行動に必ず疑似感情
が反映されることになるという効果を奏する。上記した
ロボット1は、ロボット自身の行動に起因する使用者の
反応に基づいて、使用者の意図・認識アルゴリズム、感
情生成アルゴリズム、及び行動決定アルゴリズムを補正
し学習していくように構成されているので、使用に伴っ
て、意図・感情の認識率が上がり、疑似感情及び感情表
現が確立していくという効果を奏する。上記したロボッ
ト1は、使用者の状態を人間と同様に視覚的、触覚的、
又は聴覚的に検知し、それに基づいて疑似感情を生成し
て行動するので、人間とのコミュニケーションにおいて
不自然さがなくなり、より人間的なコミュニケーション
が図れるようになる。さらに、上記したロボット1は、
疑似感情に基づいて動作の優先順位を決めるため、時に
は使用者の全く予期せぬ行動を起こすことがあり、使用
者を飽きさせることがない。
【0020】(第二実施例)図9は、本発明に係る制御
方法を自動二輪車等の車両の制御に適用する場合の制御
装置120の概略ブロック図である。この場合、使用者
の状態は、例えば、スロットルセンサ、ブレーキセン
サ、又はハンドルの操作状態を検知するセンサ(以下、
便宜上ハンドルセンサと称する。)等から得られる運転
状態から検出される。具体的には、スロットルセンサか
らの検知情報に基づいて使用者のスロットル操作に関す
る情報が検出され、ブレーキセンサからの検知情報に基
づいて使用者のブレーキ操作に関する情報が検出され、
また、ハンドルセンサからの検知情報に基づいて使用者
のハンドル操作に関する情報が検出される。
【0021】意図・感情認識部131は、スロットル操
作に関する情報、ブレーキ操作に関する情報、及びハン
ドル操作に関する情報(以下、これらの情報を使用者の
車両操作状態に関する情報と称する)に加えて好み・癖
学習部134から得られる使用者の好み・癖に関する情
報を入力し、これら入力情報と使用者の意図・感情との
関係を予め学習したニューラル回路網等により構成され
得、その時々の使用者の車両操作状態及び使用者の好み
・癖から使用者の意図・感情を認識する。基本的な概念
は第一実施例における意図・感情認識部31と同じであ
るのでここでは詳細な説明は省略する。
【0022】疑似感情生成部132は、車両の持つべき
感情を幾つかの感情の態様(例えば、平常、嫌悪、幸
福、悲しみ、驚き、怒り、及び恐怖等)に分類した基本
感情モデルを備え、使用者の車両操作状態に関する情報
に加えて速度、エンジン回転数、エンジン温度、及び燃
料残量等の車両自体の状態の情報を入力し、これら入力
情報と前記基本感情モデルとの関係を学習したニューラ
ル回路網やマップ等に基づいて自己の疑似感情の生成を
行う。使用者の車両操作状態及び車両自体の状態と基本
感情モデルとの関係は、例えば、図10に示すように、
速度変化、スロットル操作状態、スロットル開閉、加速
状態、ブレーキ操作状態、及びハンドル角度変動状態を
基準とし、これらの情報に「怒り」及び「悲しみ」の基
本感情モデルを対応させる等して決められる。この図1
0の関係では、速度変化、スロットル操作状態、スロッ
トル開閉、加速状態、及びブレーキ操作状態の割合が高
いほど、使用者がラフな操作をしていると判断して基本
感情モデルが「怒り」となり、また、ブレーキ操作状
態、ハンドル状態、及び速度変化が多いほど、使用者が
疲れていると判断して基本感情モデルが「悲しみ」とな
るように関係付けが決められている。疑似感情生成部1
32は、上記した関係に加えて、例えば、燃料残量が少
なくなると「悲しむ」等、様々な使用者の車両操作状態
及び車両自体の状態と基本感情モデルとの関係を決めた
結果をニューラル回路網やマップ等の形式で備え、疑似
感情の生成を行う。
【0023】(好み・癖学習部等)好み・癖学習部、情
報検索部、情報記憶部、及び情報統合・処理部について
は基本的に第一実施例と同じ概念であるので、ここでは
詳細な説明は省略する。
【0024】(行動決定手段)行動決定手段140は、
意図・感情認識部131で得られた使用者の意図・感情
に関する情報を目標達成動作の基準として、車両の疑似
感情に関する情報を感情動作の基準として入力し、前記
疑似感情に基づいて目標達成動作と感情動作とに優先順
位をつけ、優先順位に従って目標達成動作又は感情動作
の何れかを決定する。この場合、例えば、目標達成動作
としては、単に使用者のスロットル操作、ブレーキ操
作、又はハンドル操作をそのまま目標値とし、そのスロ
ットル操作等を達成しる動作が考えられる。また、感情
動作としては、例えば、疑似感情が「悲しみ」である場
合には、優先的に使用者に表示や音声等で休息を促す等
の動作が考えられ得る。
【0025】具体的な動作手段としては、点火時期、燃
料流量、サーモスタット、ABS、TCS、又はサスペ
ンション等の車両の走行に関係する制御により行われる
走行系の動作、スピード超過などの警告或いはガス欠な
どの報知等のように使用者に視覚的又は聴覚的に警告等
を行う動作、交通情報、天気予報、又はニュース速報な
どのように使用者のイライラ感を解放する等の動作等が
挙げられる。また、動作手段の中には、車両の疑似感情
を表示する手段等も含まれ得、これにより、使用者が車
両の疑似感情を判断して車両が喜ぶ操作をすることで使
用者も快適な走行ができるようにすることも可能にな
る。
【0026】上記した意図・感情認識部131、疑似感
情生成部132、及び行動決定手段140は、自己の動
作に起因する使用者の反応を評価基準として、第一実施
例の制御装置と同様な考え方で認識アルゴリズム、疑似
感情生成アルゴリズム及び行動決定アルゴリズムの補正
及び学習を行い、意図・感情の認識率を高め、また、自
己の疑似感情及び感情表現を確立させていく。
【0027】(エアコン制御)図11は、本発明に係る
制御方法をエアコンの制御に適用する場合の制御装置2
20の概略ブロック図である。この場合、制御装置22
0は使用者等の人の状態及び使用環境を検出し、これら
の情報に基づいてエアコン自身の疑似感情の生成及び使
用者等の意図・感情の認識を行う。エアコンは、使用者
等の人の状態に関する情報を検知する手段として、操作
スイッチリモコン、マイク、CCDカメラ、及び焦電セ
ンサ等を備え、また、使用環境を検知する手段として時
計、屋内環境センサ(温度、湿度、及び空気清浄度等の
検知)、及び屋外環境センサ(温度、湿度、気圧、風
速、日照、雨、雪等を検知)を備え、さらに、前記各検
知手段の他にネットワーク等の外部情報源を備えてい
る。制御装置220は、外部情報源、操作スイッチリモ
コン、及びマイク等から得られる情報に基づいて使用者
の操作意志を検出し、マイクから得られる情報に基づい
て適当な音声認識手段を用いて使用者の言葉等を検出た
り、また、物音等の室内外で生じる音を検出し、CCD
カメラから得られる情報に基づいて使用者の顔色や表情
等を検出し、CCDカメラ及び焦電センサから得られる
情報に基づいて人の動き、人の存在、及びその人数を検
出し、また、時計及び室内環境センサに基づいて室内環
境を検出し、さらに、屋外環境センサに基づいて屋外環
境や天候等を検出する。
【0028】意図・感情認識部231及び疑似感情生成
部232は、前記した検知手段からの情報に基づいて検
出された使用者等の状態及び使用環境に基づいて使用者
の意図・感情の認識及びエアコン自身の疑似感情の生成
を行う。具体的には、疑似感情生成部232における疑
似感情の生成は、例えば、図12に示すようにマイクか
ら得られる情報から室内が静かであることが検出され、
焦電センサから得られる情報から人の動きな無いことが
検出され、さらに、CCDカメラから得られる情報から
室内が暗いことが検出されている状態が一定時間以上続
いた後に、焦電センサが人の動きを検知し、CCDカメ
ラが照明を検知し、マイクが鍵を開ける音、テレビやラ
ジオの音、カーテンを閉める音、又は留守電の再生音等
を検知すると、これらの検知情報を部分的に組み合わせ
て使用者が帰宅したと認識し、また、CCDカメラから
得られる情報から適当な画像認識手段を用いて帰宅した
使用者等の人数を認識し、マイクから得られる情報から
適当な音声認識手段を用いて個人識別を行い、さらに、
活発に動いているか、又は静かに動いているか等を認識
すると共に、屋内環境センサから得られる情報に基づい
て室内の室温、湿度、日当たり、又は静寂さ等の室内環
境を認識し、屋外環境センサから得られる情報に基づい
て気温や天候等の屋外環境の認識を行い、上記した認識
情報に基づいて、例えば、帰宅時に室内・屋外が低温で
ある場合には「暖めてあげたい」という疑似感情を、ま
た、帰宅時に室内・屋外が低温であり、かつ、屋外は風
が強い場合には、「早く暖めてあげたい」という疑似感
情を生成する。上記した疑似感情の生成は、予めエアコ
ンが持つべき疑似感情モデルを幾つか用意しておき、そ
の疑似感情と各種認識情報との関係をニューラル回路網
に予め学習させておいたり、また、疑似感情と認識情報
とを対応付けしたマップを用意することで達成され得
る。尚、認識情報と疑似感情との関係は、上記した他に
も、例えば、暑い時に帰宅した場合には「早く冷やして
あげたい」、蒸し暑い時に帰宅した場合には「さわやか
な乾燥した風を送ってあげたい」、人が多い場合には
「暑くならないようにしてあげたい」また、静かな時に
は「冷えすぎないよう、寒くならないようしてあげた
い」等様々な関係が考えられ得る。
【0029】意図・感情認識部231も疑似感情生成部
232と同様、例えば、認識情報と使用者の意図・感情
との関係を予め学習したニューラル回路網等により構成
され、操作スイッチリモコンで操作された具体的な設定
温度に加えて、例えば、顔色等の使用者の気分が認識で
きる情報から使用者が指示はしていないが、実際には求
めている換気の要求等の、その時々の使用者の意図・感
情の認識を行い、行動決定手段240に出力する。な
お、この意図・感情認識部231で認識された使用者の
意図・感情に関する情報は好み・癖学習部235の教師
データとしても使用され、好み・癖学習部235では、
使用者の好みや癖を追加的に学習していくと共に、学習
結果を意図・感情を認識するための情報の一つとして意
図・感情認識部231に出力する。
【0030】行動決定手段240は、認識した使用者の
意図・感情に関する情報に加えてエアコン自身の疑似感
情に関する情報を入力し、使用者の意図・感情に基づく
目標達成操作量に疑似感情に基づく疑似感情操作量を加
算して制御量に基づいて、冷暖房能力制御、風量、風向
制御、湿度制御、空位清浄機制御、及び換気制御等を行
い、また、必要に応じてディスプレイや音声出力等によ
り温度や湿度等を使用者に報知する。
【0031】(不満検出と学習について)また、意図・
感情認識部231では、使用者の意図・感情及びエアコ
ン自身の疑似感情に基づいて前記行動決定手段240で
決められ実行された動作に起因した使用者の反応に基づ
いて使用者の不満に関する意図・感情の認識も行い、認
識結果に基づいて、意図・感情認識部231における認
識アルゴリズム及び行動決定手段240における動作決
定アルゴリズムの補正及び学習を行う。前記不満検出に
ついて、温度制御に対する不満検出を例に挙げて説明す
ると、図13に示すように、使用者が温度に対して不満
な時に行う動作、例えば、リモコンの再操作、「暑い」
「寒い」等の言葉、又は扇いだり、体をすくめるなどの
ゼスチャを操作スイッチ、マイク、及びCCDセンサ等
の検知手段により検知し、それらの検知情報から、操作
量を認識したり、音声認識手段により言葉の内容を認識
したり、また、画像認識手段により使用者の動作や顔色
を検出し、使用者が温度に対して不満な時に行う動作を
実際に行っている場合には、使用者の不満を認識する。
制御装置は、この不満検出の結果に基づいて、前記認識
アルゴリズム及び動作決定アルゴリズムの補正及び学習
を行うと共に、使用者の好み・癖の学習を行い、意図・
感情の認識率を高め、また、疑似感情及び感情表現を確
立していく。
【0032】(第三実施例効果)上記したように、本発
明に係る制御方法を適用したエアコンは、使用者の好み
・癖を考慮して使用者の意図・感情を認識するので、例
えば、何時も本来要求する温度より高い温度に温度設定
する癖等がある使用者や、暑がりで比較的低い室温を好
む使用者等、個々の使用者の好み・癖を考慮して温度制
御等を行うことができ、結果として、使用者が直接指示
していない意図・感情を満たす環境を使用者に提供する
ことが可能になるという効果を奏する。さらに、上記し
た第三実施例に係るエアコンによれば、使用者の意図・
感情に基づく目標達成動作に、自己の疑似感情に基づく
感情動作を加算して温度制御等を行うように構成されて
いるので、使用者の指示がない場合でも、使用者の状態
に最適な環境を提供することができる。
【0033】(別の適用例)上記した第一実施例では、
使用者の状態や使用環境を検知する手段として、CCD
カメラ2等を使用しているが、検知手段は、使用者の状
態及び使用環境を検知できる手段であれば任意の手段で
よい。上記した第一実施例におけるロボットの形態は、
図1に示した形態に限定されることなく、例えば、ぬい
ぐるみ等で周囲を覆う等してより動物的、又は人間的な
形態にしてもよく、また、第一実施例におけるロボット
の使用方法についても特に限定されることなく、玩具と
して、また、医療用として等多方面で使用することがで
きる。さらに、上記した第一実施例における動作手段に
ついても、本実施例に限定されることなく、例えば、尻
尾を設けたり、手足を設けたりする等、適宜変更できる
ことはいうまでもない。上記した第二実施例では、スロ
ットルセンサ、ブレーキセンサ、及びハンドルセンサか
ら使用者の運転操作状態を検出し、運転操作状態に基づ
いて意図・感情の認識や疑似感情の生成を行っていた
が、これは本実施例に限定されることなく、例えば、使
用者の心拍数や発汗量、又は表情等の使用者自身の状態
を検出し、その検出結果に基づいて意図・感情の認識や
疑似感情の生成を行ってもよく、また、運転操作状態と
使用者自身の状態とを組み合わせて認識や生成処理を行
ってもよい。また、上記した第三実施例における検知手
段についても本実施例に限定されることなく、使用者等
の状態や屋内外の環境を検知することができる手段であ
れば任意の手段でよい。さらに、本発明にかかる制御方
法の制御対象は、上記した第一から第三実施例に限定さ
れることなく、任意の制御対象に適用することができ
る。
【0034】
【発明の効果】以上説明したように、本発明に係る疑似
感情を用いた制御対象の制御方法によれば、使用者の状
態を検出し、少なくとも前記使用者の状態と制御対象固
有の疑似感情とを関連ずけした感情生成アルゴリズムに
より、前記使用者と制御対象との相互作用に基づいて制
御対象固有の疑似感情を生成し、少なくとも前記疑似感
情と制御対象の動作とを関連ずけした動作決定アルゴリ
ズムにより、前記疑似感情に基づいて制御対象の動作を
決定するので、従来の制御方法のように常に所定の目標
値を目指すというパターン化された制御とは異なり、使
用者の予期しない出力や、使用者が本当に要求する出力
を、限られた範囲の目標値に制限されることなく出力す
ることが可能なるという効果を奏し、また、前記疑似感
情が反映した制御対象の動作結果による使用者の反応を
評価基準として、前記感情生成アルゴリズム及び/又は
動作決定アルゴリズムの補正及び学習を行うので、使用
に伴って疑似感情及び感情表現が使用環境や使用者に合
わせて確立していくという効果を奏する。また、請求項
2に係る制御方法によれば、使用者の意図・感情の認識
を行い、認識した使用者の意図・感情に関する情報を疑
似感情を生成するための情報の一つとして使用するの
で、生成される疑似感情に使用者の意図・感情が反映
し、個々の使用者に応じた疑似感情の生成が可能になる
という効果を奏する。さらに、請求項3に係る制御方法
によれば、使用者の意図・感情の認識を行い、認識した
使用者の意図・感情に関する情報を制御対象の動作を決
定するための情報の一つとして使用するので、制御対象
が使用者の意図・感情までを考慮した動作を行うことが
できるという効果を奏する。また、請求項4に係る制御
方法によれば、認識した使用者の意図・感情に基づいて
使用者の好み及び/又は癖の学習を行い、学習結果を使
用者の意図・感情を認識するための情報の一つとして使
用するので、個々の使用者の好みや癖を考慮した制御を
行うことができるという効果を奏する。さらに、請求項
5に係る制御方法によれば、動作決定アルゴリズムが、
少なくとも目標達成動作と感情動作とに疑似感情に基づ
いて優先付けを行って動作を決定するので、制御対象の
最終的な動作には常に疑似感情が反映されていることと
なり、制御対象をより人間的にすることが可能になる。
また、請求項6及び7に係る制御方法によれば、使用差
の状態を知覚的検知手段を用いて検知するので、制御対
象の知覚動作もより人間的となり、例えば、コミュニケ
ーションロボット等にこの制御を適用した場合には、機
械的でない、より人間的なコミュニケーションを達成す
ることが可能になる。さらに、請求項8及び9に係る制
御方法によれば、予め幾つかの感情の態様に対応した基
本感情モデルから疑似感情を生成するので、疑似感情の
生成が簡単に行えるという効果を奏する。
【図面の簡単な説明】
【図1】 本発明に係る制御方法を適用したコミュニケ
ーションパートナーロボットの外観図である。
【図2】 ロボットと使用者との関係を示す概略ブロッ
ク図である。
【図3】 制御装置の概略ブロック図である。
【図4】 (a)から(d)は、使用者によるロボット
1の撫で方と静電近接センサとの関係を示す図である。
【図5】 なで・たたき検出部から得られる出力と感情
モデルとを対応付けしたマップを示す図である。
【図6】 疑似感情の生成をニューラル回路網で行う場
合の一例を示す図である。
【図7】 疑似感情に基づく各動作の優先順位付けの一
例を示す
【図8】 ディスプレイで表示する表情パターンの幾つ
かの例を示す図である。
【図9】 本発明に係る制御方法を車両の制御に適用す
る場合の制御装置の概略ブロック図である。
【図10】 車両操作状態及び車両自体の状態と基本感
情モデルとの関係の一例を示す図である。
【図11】 本発明に係る制御方法をエアコンの制御に
適用する場合の制御装置の概略ブロック図である。
【図12】 検知要素、状況・環境認識及び疑似感情の
生成の関係を示す概略ブロック図である。
【図13】 不満検出方法の各処理を示す概略ブロック
図である。
【符号の説明】
1 コミュニケーションパートナロボット 2 CCDカメラ(視覚的検出手段) 4 感圧センサ(触覚的検知手段) 6 近接センサ(触覚的検知手段) 8 マイク(聴覚的検知手段) 9 外部情報源 10 ディスプレイ 12 スピーカ 14 駆動装置 20 制御装置 21 表情検出部 22 ジェスチャ検出部 23 なで・たたき検出部 24 音声検出部 25 周辺環境検出部 31 意図・感情認識部 32 疑似感情生成部 33 移動可能領域認識部 34 周辺環境記憶部 35 好み・癖学習部 36 情報検索部 37 情報記憶部 38 情報統合・処理部 40 行動決定手段 120 制御装置 131 意図・感情認識部 132 疑似感情生成部 140 行動決定手段 220 制御装置 231 意図・感情認識部 232 疑似感情生成部 235 好み・癖学習部

Claims (9)

    【特許請求の範囲】
  1. 【請求項1】 使用者の状態を検出し、 少なくとも前記使用者の状態と制御対象固有の疑似感情
    とを関連ずけした感情生成アルゴリズムにより、前記使
    用者と制御対象との相互作用に基づいて制御対象固有の
    疑似感情を生成し、 少なくとも前記疑似感情と制御対象の動作とを関連ずけ
    した動作決定アルゴリズムにより、前記疑似感情に基づ
    いて制御対象の動作を決定すると共に、 前記疑似感情が反映した制御対象の動作結果による使用
    者の反応を評価基準として、 前記感情生成アルゴリズム及び/又は動作決定アルゴリ
    ズムの補正及び学習を行うことを特徴とする疑似感情を
    用いた制御対象の制御方法。
  2. 【請求項2】 検出した使用者の状態に基づいて使用者
    の意図・感情の認識を行い、 認識した使用者の意図・感情に関する情報を疑似感情を
    生成するための情報の一つとして使用することを特徴と
    する請求項1に記載の制御方法。
  3. 【請求項3】 検出した使用者の状態に基づいて使用者
    の意図・感情の認識を行い、 認識した使用者の意図・感情に関する情報を制御対象の
    動作を決定するための情報の一つとして使用することを
    特徴とする請求項1又は2に記載の制御方法。
  4. 【請求項4】 認識した使用者の意図・感情に基づいて
    使用者の好み及び/又は癖を学習し、 学習結果を使用者の意図・感情を認識するための情報の
    一つとして使用することを特徴とする請求項2又は3に
    記載の疑似感情を用いた制御対象の制御方法。
  5. 【請求項5】 動作決定アルゴリズムが、少なくとも認
    識した使用者の意図・感情に対応する目標達成動作と、
    制御対象の疑似感情に対応する感情動作とを有し、 前記疑似感情に基づいて前記各動作に対する優先順位付
    けを行い、 優先順位に基づいて制御対象の動作を決定することを特
    徴とする請求項3〜4の何れか一項に記載の制御方法。
  6. 【請求項6】 使用者の状態を、知覚的検出手段を用い
    て検出することを特徴とする請求項1〜5の何れか一項
    に記載の制御方法。
  7. 【請求項7】 前記使用者の状態が、使用者の表情、ジ
    ェスチャ、触り方、又は音声の状態の少なくとも一つで
    あることを特徴とする請求項1〜6の何れか一項に記載
    の制御方法。
  8. 【請求項8】 疑似感情生成アルゴリズムが、予め幾つ
    かの感情の態様に対応する基本感情モデルを用意し、こ
    れら基本感情モデルを用いて前記疑似感情を生成するこ
    とを特徴とする請求項1〜7の何れか一項に記載の制御
    方法。
  9. 【請求項9】 疑似感情生成アルゴリズムが、少なくと
    も使用者の状態に基づいて複数の基本感情モデルの中か
    ら適当な基本感情モデルを選択することにより疑似感情
    の生成を行うことを特徴とする請求項8に記載の制御方
    法。
JP9093380A 1997-04-11 1997-04-11 疑似感情を用いた制御対象の制御方法 Pending JPH10289006A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP9093380A JPH10289006A (ja) 1997-04-11 1997-04-11 疑似感情を用いた制御対象の制御方法
US09/059,278 US6175772B1 (en) 1997-04-11 1998-04-13 User adaptive control of object having pseudo-emotions by learning adjustments of emotion generating and behavior generating algorithms
US09/736,514 US6629242B2 (en) 1997-04-11 2000-12-13 Environment adaptive control of pseudo-emotion generating machine by repeatedly updating and adjusting at least either of emotion generation and behavior decision algorithms

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9093380A JPH10289006A (ja) 1997-04-11 1997-04-11 疑似感情を用いた制御対象の制御方法

Publications (1)

Publication Number Publication Date
JPH10289006A true JPH10289006A (ja) 1998-10-27

Family

ID=14080711

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9093380A Pending JPH10289006A (ja) 1997-04-11 1997-04-11 疑似感情を用いた制御対象の制御方法

Country Status (2)

Country Link
US (2) US6175772B1 (ja)
JP (1) JPH10289006A (ja)

Cited By (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11175132A (ja) * 1997-12-15 1999-07-02 Omron Corp ロボット、ロボットシステム、ロボットの学習方法、ロボットシステムの学習方法および記録媒体
WO2000032361A1 (fr) * 1998-11-30 2000-06-08 Sony Corporation Robot, procede de commande de robot et support d'enregistrement de programme
WO2000040377A1 (fr) * 1999-01-07 2000-07-13 Sony Corporation Appareil de type machine, procede d'actionnement de celui-ci et support enregistre
WO2000043168A1 (fr) * 1999-01-25 2000-07-27 Sony Corporation Robot
WO2000043167A1 (fr) * 1999-01-20 2000-07-27 Sony Corporation Robot et procede de commande de deplacement
WO2000056506A1 (fr) * 1999-03-24 2000-09-28 Sony Corporation Robot
WO2000067959A1 (fr) * 1999-05-10 2000-11-16 Sony Corporation Dispositif robotique et procede de commande associe
JP2001025984A (ja) * 1999-05-10 2001-01-30 Sony Corp ロボット装置及びその制御方法並びに記録媒体
JP2001034306A (ja) * 1999-07-26 2001-02-09 Seiko Epson Corp 出力制御システム
JP2001034305A (ja) * 1999-07-26 2001-02-09 Seiko Epson Corp 動作体の制御装置
JP2001083984A (ja) * 1999-09-09 2001-03-30 Alpine Electronics Inc インタフェース装置
JP2001121463A (ja) * 1999-10-29 2001-05-08 Atr Media Integration & Communications Res Lab 知能ロボット
WO2001038050A1 (fr) * 1999-11-20 2001-05-31 Bandai Co., Ltd. Robot en forme d'insecte
EP1112821A1 (en) * 1999-05-10 2001-07-04 Sony Corporation Toboy device and method for controlling the same
JP2001246580A (ja) * 2000-03-03 2001-09-11 Sony Corp 情報通信ロボット装置、情報通信方法および情報通信ロボットシステム
US6362589B1 (en) * 1919-01-20 2002-03-26 Sony Corporation Robot apparatus
EP1195231A1 (en) * 2000-03-31 2002-04-10 Sony Corporation Robot device, robot device action control method, external force detecting device and external force detecting method
JP2002215673A (ja) * 2000-11-17 2002-08-02 Sony Computer Entertainment Inc 情報処理プログラム、情報処理プログラムが記録された記録媒体、情報処理装置及び方法
JP2002233977A (ja) * 1998-11-30 2002-08-20 Sony Corp ロボット装置、ロボット装置の行動制御方法、プログラム及び記録媒体
JP2002239257A (ja) * 2001-02-14 2002-08-27 Sanyo Electric Co Ltd 自動応答玩具におけるインタラクション状態決定装置および自動応答玩具
JP2002239256A (ja) * 2001-02-14 2002-08-27 Sanyo Electric Co Ltd 自動応答玩具における感情決定装置および自動応答玩具
JP2002274277A (ja) * 2001-03-22 2002-09-25 Toyota Motor Corp 乗物の表現動作制御システム及び乗物のコミュニケーションシステム、表現動作を行う乗物
US6519506B2 (en) 1999-05-10 2003-02-11 Sony Corporation Robot and control method for controlling the robot's emotions
JP2003271923A (ja) * 2002-03-15 2003-09-26 Sony Corp 記憶装置及び方法並びにロボット装置
JP2004299025A (ja) * 2003-04-01 2004-10-28 Honda Motor Co Ltd 移動ロボット制御装置、移動ロボット制御方法及び移動ロボット制御プログラム
JP2007118129A (ja) * 2005-10-27 2007-05-17 Advanced Telecommunication Research Institute International コミュニケーションロボットおよびそれを用いた注意制御システム
JP2007249427A (ja) * 2006-03-14 2007-09-27 Honda Motor Co Ltd 情報管理システム
JP2007320032A (ja) * 2007-07-30 2007-12-13 Sony Corp ロボット装置及びその制御方法
KR101239274B1 (ko) * 2009-07-06 2013-03-06 한국전자통신연구원 상호작용성 로봇
TWI395608B (zh) * 2008-06-13 2013-05-11 Hon Hai Prec Ind Co Ltd 互動式玩具系統及其方法
WO2016072116A1 (ja) * 2014-11-07 2016-05-12 ソニー株式会社 制御システム、制御方法、および記憶媒体
JP2017226044A (ja) * 2016-06-23 2017-12-28 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
WO2018097089A1 (ja) * 2016-11-24 2018-05-31 Groove X株式会社 瞳を変化させる自律行動型ロボット
WO2019004312A1 (ja) 2017-06-27 2019-01-03 川崎重工業株式会社 走行評価方法および疑似感情生成方法
JP2019118698A (ja) * 2018-01-10 2019-07-22 パナソニックIpマネジメント株式会社 相互作用装置、相互作用方法、相互作用プログラム及びロボット
WO2019211932A1 (ja) * 2018-05-01 2019-11-07 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及び自律行動ロボット制御システム
JP2020010771A (ja) * 2018-07-13 2020-01-23 本田技研工業株式会社 コミュニケーション装置、及び、コミュニケーション装置の動作方法
WO2020129309A1 (ja) * 2018-12-19 2020-06-25 本田技研工業株式会社 案内ロボット制御装置、及び、それを用いた案内システム、並びに、案内ロボット制御方法
US11046384B2 (en) 2017-04-12 2021-06-29 Kawasaki Jukogyo Kabushiki Kaisha Vehicle pseudo-emotion generating system and conversation information output method
US11106426B2 (en) 2017-04-12 2021-08-31 Kawasaki Jukogyo Kabushiki Kaisha Vehicle conversation information output device and conversation information output method
US11124139B2 (en) 2017-04-12 2021-09-21 Kawasaki Jukogyo Kabushiki Kaisha Vehicle conversation information output device and conversation information output method
WO2024071171A1 (ja) * 2022-09-29 2024-04-04 日東電工株式会社 ロボット、学習装置、制御方法およびプログラム

Families Citing this family (150)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US20070156625A1 (en) * 2004-01-06 2007-07-05 Neuric Technologies, Llc Method for movie animation
US7089218B1 (en) * 2004-01-06 2006-08-08 Neuric Technologies, Llc Method for inclusion of psychological temperament in an electronic emulation of the human brain
US7925492B2 (en) 2004-01-06 2011-04-12 Neuric Technologies, L.L.C. Method for determining relationships through use of an ordered list between processing nodes in an emulated human brain
US7062073B1 (en) * 1999-01-19 2006-06-13 Tumey David M Animated toy utilizing artificial intelligence and facial image recognition
US7904187B2 (en) 1999-02-01 2011-03-08 Hoffberg Steven M Internet appliance system and method
JP2000276206A (ja) * 1999-03-24 2000-10-06 Yamaha Motor Co Ltd 総合特性最適化方法及び装置
JP3514372B2 (ja) * 1999-06-04 2004-03-31 日本電気株式会社 マルチモーダル対話装置
US7442107B1 (en) * 1999-11-02 2008-10-28 Sega Toys Ltd. Electronic toy, control method thereof, and storage medium
JP2001154681A (ja) * 1999-11-30 2001-06-08 Sony Corp 音声処理装置および音声処理方法、並びに記録媒体
JP2001188555A (ja) * 1999-12-28 2001-07-10 Sony Corp 情報処理装置および方法、並びに記録媒体
JP4465768B2 (ja) * 1999-12-28 2010-05-19 ソニー株式会社 音声合成装置および方法、並びに記録媒体
US6539299B2 (en) 2000-02-18 2003-03-25 Optimum Power Technology Apparatus and method for calibrating an engine management system
CN1372660A (zh) * 2000-03-09 2002-10-02 皇家菲利浦电子有限公司 与消费电子系统进行交互的方法
US7181693B1 (en) * 2000-03-17 2007-02-20 Gateway Inc. Affective control of information systems
JP2002042115A (ja) * 2000-07-26 2002-02-08 Fujitsu Ltd 疲労緩和システム、疲労緩和方法及び記録媒体
JP2002049385A (ja) * 2000-08-07 2002-02-15 Yamaha Motor Co Ltd 音声合成装置、疑似感情表現装置及び音声合成方法
US20020029203A1 (en) * 2000-09-01 2002-03-07 Pelland David M. Electronic personal assistant with personality adaptation
US8751957B1 (en) * 2000-11-22 2014-06-10 Pace Micro Technology Plc Method and apparatus for obtaining auditory and gestural feedback in a recommendation system
US6980098B2 (en) * 2001-01-29 2005-12-27 Sony Corporation Information processing apparatus, information processing method and program executed in information processing apparatus
JP2002268699A (ja) * 2001-03-09 2002-09-20 Sony Corp 音声合成装置及び音声合成方法、並びにプログラムおよび記録媒体
JP4687936B2 (ja) * 2001-03-22 2011-05-25 ソニー株式会社 音声出力装置および音声出力方法、並びにプログラムおよび記録媒体
DE10195799D2 (de) * 2001-04-10 2004-04-15 Alfred Schurmann Determination der Befriedigung und des Verlangens in virtuellen Wesen
DE60108373T2 (de) * 2001-08-02 2005-12-22 Sony International (Europe) Gmbh Verfahren zur Detektion von Emotionen in Sprachsignalen unter Verwendung von Sprecheridentifikation
US7457752B2 (en) * 2001-08-14 2008-11-25 Sony France S.A. Method and apparatus for controlling the operation of an emotion synthesizing device
US7747549B2 (en) * 2001-09-25 2010-06-29 Rikan Long-term memory neural network modeling memory-chaining functions of the brain wherein a pointer holds information about mutually related neurons and neurons are classified hierarchically by degree of activation
KR100624403B1 (ko) * 2001-10-06 2006-09-15 삼성전자주식회사 인체의 신경계 기반 정서 합성 장치 및 방법
US8655804B2 (en) 2002-02-07 2014-02-18 Next Stage Evolution, Llc System and method for determining a characteristic of an individual
US7514048B2 (en) * 2002-08-22 2009-04-07 Industrial Technology Research Institute Controlled odor generator
JP4204839B2 (ja) * 2002-10-04 2009-01-07 株式会社エイ・ジー・アイ 発想モデル装置、自発感情モデル装置、発想のシミュレーション方法、自発感情のシミュレーション方法、およびプログラム
US7154510B2 (en) * 2002-11-14 2006-12-26 Eastman Kodak Company System and method for modifying a portrait image in response to a stimulus
US6859686B2 (en) * 2002-11-26 2005-02-22 General Motors Corporation Gesticulating anthropomorphic interface
KR100580619B1 (ko) * 2002-12-11 2006-05-16 삼성전자주식회사 사용자와 에이전트 간의 대화 관리방법 및 장치
JP2004237022A (ja) * 2002-12-11 2004-08-26 Sony Corp 情報処理装置および方法、プログラム、並びに記録媒体
KR100457813B1 (ko) * 2003-02-07 2004-11-18 삼성전자주식회사 커뮤니티 서비스 제공 시스템 및 방법
JP2004268235A (ja) * 2003-03-11 2004-09-30 Sony Corp ロボット装置、その行動制御方法及びプログラム
US8856030B2 (en) * 2003-04-07 2014-10-07 Sevenecho, Llc Method, system and software for associating attributes within digital media presentations
JP4085926B2 (ja) * 2003-08-14 2008-05-14 ソニー株式会社 情報処理端末及び通信システム
US7707039B2 (en) 2004-02-15 2010-04-27 Exbiblio B.V. Automatic modification of web pages
US8442331B2 (en) 2004-02-15 2013-05-14 Google Inc. Capturing text from rendered documents using supplemental information
US7903838B2 (en) * 2004-01-30 2011-03-08 Evolution Robotics, Inc. Vision-enabled household appliances
KR20050078555A (ko) * 2004-02-02 2005-08-05 엘지전자 주식회사 바이오 리듬을 이용한 환기 시스템 제어방법
US20060041484A1 (en) * 2004-04-01 2006-02-23 King Martin T Methods and systems for initiating application processes by data capture from rendered documents
US20060122983A1 (en) * 2004-12-03 2006-06-08 King Martin T Locating electronic instances of documents based on rendered instances, document fragment digest generation, and digest based document fragment determination
US20060041605A1 (en) * 2004-04-01 2006-02-23 King Martin T Determining actions involving captured information and electronic content associated with rendered documents
US20060053097A1 (en) * 2004-04-01 2006-03-09 King Martin T Searching and accessing documents on private networks for use with captures from rendered documents
US10635723B2 (en) 2004-02-15 2020-04-28 Google Llc Search engines and systems with handheld document data capture devices
US7812860B2 (en) * 2004-04-01 2010-10-12 Exbiblio B.V. Handheld device for capturing text from both a document printed on paper and a document displayed on a dynamic display device
JP4595436B2 (ja) * 2004-03-25 2010-12-08 日本電気株式会社 ロボット、その制御方法及び制御用プログラム
US7990556B2 (en) * 2004-12-03 2011-08-02 Google Inc. Association of a portable scanner with input/output and storage devices
US20060098900A1 (en) * 2004-09-27 2006-05-11 King Martin T Secure data gathering from rendered documents
US20080313172A1 (en) * 2004-12-03 2008-12-18 King Martin T Determining actions involving captured information and electronic content associated with rendered documents
US9008447B2 (en) * 2004-04-01 2015-04-14 Google Inc. Method and system for character recognition
US20060081714A1 (en) * 2004-08-23 2006-04-20 King Martin T Portable scanning device
US8146156B2 (en) 2004-04-01 2012-03-27 Google Inc. Archive of text captures from rendered documents
US9116890B2 (en) 2004-04-01 2015-08-25 Google Inc. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US7894670B2 (en) 2004-04-01 2011-02-22 Exbiblio B.V. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US8081849B2 (en) * 2004-12-03 2011-12-20 Google Inc. Portable scanning and memory device
US20070300142A1 (en) * 2005-04-01 2007-12-27 King Martin T Contextual dynamic advertising based upon captured rendered text
US9143638B2 (en) 2004-04-01 2015-09-22 Google Inc. Data capture from rendered documents using handheld device
US8713418B2 (en) * 2004-04-12 2014-04-29 Google Inc. Adding value to a rendered document
JP2005296512A (ja) * 2004-04-15 2005-10-27 Funai Electric Co Ltd 自走式掃除機
US8489624B2 (en) * 2004-05-17 2013-07-16 Google, Inc. Processing techniques for text capture from a rendered document
US8620083B2 (en) 2004-12-03 2013-12-31 Google Inc. Method and system for character recognition
US8874504B2 (en) * 2004-12-03 2014-10-28 Google Inc. Processing techniques for visual capture data from a rendered document
US20050289582A1 (en) * 2004-06-24 2005-12-29 Hitachi, Ltd. System and method for capturing and using biometrics to review a product, service, creative work or thing
US8346620B2 (en) 2004-07-19 2013-01-01 Google Inc. Automatic modification of web pages
US8000837B2 (en) 2004-10-05 2011-08-16 J&L Group International, Llc Programmable load forming system, components thereof, and methods of use
US8473449B2 (en) * 2005-01-06 2013-06-25 Neuric Technologies, Llc Process of dialogue and discussion
US20060279531A1 (en) * 2005-05-25 2006-12-14 Jung Edward K Physical interaction-responsive user interface
US20060279530A1 (en) * 2005-05-25 2006-12-14 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Physical interaction-sensitive user interface
US20060286895A1 (en) * 2005-06-17 2006-12-21 Paul Thomson Talking doll
TWI412392B (zh) * 2005-08-12 2013-10-21 Koninkl Philips Electronics Nv 互動式娛樂系統及其操作方法
KR100905582B1 (ko) * 2006-09-06 2009-07-02 삼성전자주식회사 로봇 지놈을 생성하기 위한 시스템 및 생성 방법
EP2067119A2 (en) 2006-09-08 2009-06-10 Exbiblio B.V. Optical scanners, such as hand-held optical scanners
KR101443404B1 (ko) * 2006-09-15 2014-10-02 구글 인코포레이티드 페이퍼 및 전자 문서내의 주석의 캡처 및 디스플레이
TWI349870B (en) * 2006-11-22 2011-10-01 Ind Tech Res Inst Device and method of tactile sensing for human robot interaction
US20080274812A1 (en) * 2007-05-02 2008-11-06 Inventec Corporation System of electronic pet capable of reflecting habits of user and method therefor and recording medium
US8909370B2 (en) * 2007-05-08 2014-12-09 Massachusetts Institute Of Technology Interactive systems employing robotic companions
US20110145068A1 (en) * 2007-09-17 2011-06-16 King Martin T Associating rendered advertisements with digital content
US20090319459A1 (en) * 2008-02-20 2009-12-24 Massachusetts Institute Of Technology Physically-animated Visual Display
US8545283B2 (en) * 2008-02-20 2013-10-01 Ident Technology Ag Interactive doll or stuffed animal
KR100953407B1 (ko) * 2008-04-24 2010-04-19 한국과학기술원 로봇의 호감도 형성장치 및 그 방법
CN101596368A (zh) * 2008-06-04 2009-12-09 鸿富锦精密工业(深圳)有限公司 互动式玩具系统及其方法
US8565922B2 (en) * 2008-06-27 2013-10-22 Intuitive Automata Inc. Apparatus and method for assisting in achieving desired behavior patterns
US8606651B2 (en) * 2008-09-05 2013-12-10 Sony Corporation Generation of home network use recommendations based on collected metadata of prior connected items
EP2367606A4 (en) * 2008-11-27 2012-09-19 Univ Stellenbosch BONDING BEHAVIOR SHOWING TOY
US8442832B2 (en) * 2008-12-08 2013-05-14 Electronics And Telecommunications Research Institute Apparatus for context awareness and method using the same
EP2216145B1 (en) * 2009-02-06 2011-06-08 Honda Research Institute Europe GmbH Learning and use of schemata in robotic devices
WO2010096193A2 (en) * 2009-02-18 2010-08-26 Exbiblio B.V. Identifying a document by performing spectral analysis on the contents of the document
US8447066B2 (en) 2009-03-12 2013-05-21 Google Inc. Performing actions based on capturing information from rendered documents, such as documents under copyright
CN102349087B (zh) 2009-03-12 2015-05-06 谷歌公司 自动提供与捕获的信息例如实时捕获的信息关联的内容
US9020647B2 (en) * 2009-03-27 2015-04-28 Siemens Industry, Inc. System and method for climate control set-point optimization based on individual comfort
US8160728B2 (en) * 2009-09-14 2012-04-17 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Methods of determining complete sensor requirements for autonomous mobility
US20120296476A1 (en) * 2009-10-30 2012-11-22 Richard John Cale Environmental control method and system
US9081799B2 (en) * 2009-12-04 2015-07-14 Google Inc. Using gestalt information to identify locations in printed information
US9323784B2 (en) * 2009-12-09 2016-04-26 Google Inc. Image search using text-based elements within the contents of images
TWI447660B (zh) * 2009-12-16 2014-08-01 Univ Nat Chiao Tung Robot autonomous emotion expression device and the method of expressing the robot's own emotion
KR101119030B1 (ko) * 2010-05-12 2012-03-13 (주) 퓨처로봇 지능형 로봇 장치의 서비스 시나리오 편집 방법, 그 방법을 실행하기 위한 프로그램을 기록한 컴퓨터 판독가능한 기록매체, 지능형 로봇 장치 및 지능형 로봇의 서비스 방법
US8483873B2 (en) * 2010-07-20 2013-07-09 Innvo Labs Limited Autonomous robotic life form
WO2012101831A1 (ja) * 2011-01-28 2012-08-02 三菱電機株式会社 空気調和システム及び空気調和方法
US9079313B2 (en) * 2011-03-15 2015-07-14 Microsoft Technology Licensing, Llc Natural human to robot remote control
KR101257896B1 (ko) * 2011-05-25 2013-04-24 (주) 퓨처로봇 스마트 서비스 로봇 운영 시스템 및 방법
KR101901417B1 (ko) * 2011-08-29 2018-09-27 한국전자통신연구원 감성기반 안전운전 자동차 서비스 시스템, 안전운전 서비스를 위한 감성인지 처리 장치 및 안전운전 서비스 장치, 감성기반 차량용 안전운전 서비스 방법
TW201312452A (zh) * 2011-09-02 2013-03-16 Inventec Corp 顯示方法及應用其之電子裝置
US8954364B2 (en) 2011-09-19 2015-02-10 International Business Machines Corporation Hierarchical contexts to drive live sensor applications
US8751042B2 (en) 2011-12-14 2014-06-10 Toyota Motor Engineering & Manufacturing North America, Inc. Methods of robot behavior generation and robots utilizing the same
US8371897B1 (en) * 2012-01-19 2013-02-12 Silverlit Limited Vision technology for interactive toys
US20130237867A1 (en) * 2012-03-07 2013-09-12 Neurosky, Inc. Modular user-exchangeable accessory for bio-signal controlled mechanism
US9104231B2 (en) 2012-09-27 2015-08-11 Microsoft Technology Licensing, Llc Mood-actuated device
US9569976B2 (en) * 2012-10-02 2017-02-14 Gavriel Yaacov Krauss Methods circuits, devices and systems for personality interpretation and expression
US20140180752A1 (en) * 2012-12-21 2014-06-26 International Business Machines Corporation Interface to select application based on state transition models of work
US9046884B2 (en) * 2012-12-31 2015-06-02 Microsoft Technology Licensing, Llc Mood-actuated device
US9956687B2 (en) 2013-03-04 2018-05-01 Microsoft Technology Licensing, Llc Adapting robot behavior based upon human-robot interaction
US9114753B2 (en) 2013-03-15 2015-08-25 First Principles, Inc. Apparatus and method for preventing a vehicle from running out of fuel
US10168766B2 (en) * 2013-04-17 2019-01-01 Nokia Technologies Oy Method and apparatus for a textural representation of a guidance
US10359835B2 (en) 2013-04-17 2019-07-23 Nokia Technologies Oy Method and apparatus for causing display of notification content
US10027606B2 (en) 2013-04-17 2018-07-17 Nokia Technologies Oy Method and apparatus for determining a notification representation indicative of a cognitive load
US9507481B2 (en) 2013-04-17 2016-11-29 Nokia Technologies Oy Method and apparatus for determining an invocation input based on cognitive load
WO2015067534A1 (en) * 2013-11-05 2015-05-14 Thomson Licensing A mood handling and sharing method and a respective system
JP6561996B2 (ja) 2014-11-07 2019-08-21 ソニー株式会社 情報処理装置、制御方法、および記憶媒体
US10776710B2 (en) * 2015-03-24 2020-09-15 International Business Machines Corporation Multimodal data fusion by hierarchical multi-view dictionary learning
WO2016170808A1 (ja) 2015-04-22 2016-10-27 ソニー株式会社 移動体制御システム、制御方法、および記憶媒体
JP6726388B2 (ja) * 2016-03-16 2020-07-22 富士ゼロックス株式会社 ロボット制御システム
KR101904453B1 (ko) * 2016-05-25 2018-10-04 김선필 인공 지능 투명 디스플레이의 동작 방법 및 인공 지능 투명 디스플레이
GB2551999B (en) * 2016-07-06 2019-11-06 Ford Global Tech Llc Climate control method and system
KR102577571B1 (ko) * 2016-08-03 2023-09-14 삼성전자주식회사 로봇 장치 및 로봇 장치의 감정 표현 방법
CN106445365A (zh) * 2016-09-12 2017-02-22 上海斐讯数据通信技术有限公司 一种情绪调整方法及智能终端
WO2018073832A1 (en) 2016-10-20 2018-04-26 Rn Chidakashi Technologies Pvt. Ltd. Emotionally intelligent companion device
WO2018084576A1 (en) * 2016-11-03 2018-05-11 Samsung Electronics Co., Ltd. Electronic device and controlling method thereof
CA3043016A1 (en) * 2016-11-10 2018-05-17 Warner Bros. Entertainment Inc. Social robot with environmental control feature
WO2018112833A1 (en) * 2016-12-22 2018-06-28 Intel Corporation Efficient transferring of human experiences to robots and other autonomous machines
JP6681326B2 (ja) * 2016-12-27 2020-04-15 本田技研工業株式会社 作業システムおよび作業方法
CN107053191B (zh) * 2016-12-31 2020-05-08 华为技术有限公司 一种机器人,服务器及人机互动方法
US11103800B1 (en) 2017-02-17 2021-08-31 Hasbro, Inc. Toy robot with programmable and movable appendages
WO2019022066A1 (ja) * 2017-07-26 2019-01-31 ダイキン工業株式会社 環境設備制御装置
KR102497042B1 (ko) * 2018-01-29 2023-02-07 삼성전자주식회사 사용자 행동을 바탕으로 반응하는 로봇 및 그의 제어 방법
US20190262990A1 (en) * 2018-02-28 2019-08-29 Misty Robotics, Inc. Robot skill management
US11633863B2 (en) * 2018-04-06 2023-04-25 Digital Dream Labs, Llc Condition-based robot audio techniques
US10852023B2 (en) * 2018-05-15 2020-12-01 Johnson Controls Technology Company Building management autonomous HVAC control using reinforcement learning with occupant feedback
US10845081B2 (en) 2018-05-16 2020-11-24 Johnson Controls Technology Company Building management HVAC control using user voice feedback
JP2021529382A (ja) 2018-06-19 2021-10-28 エリプシス・ヘルス・インコーポレイテッド 精神的健康評価のためのシステム及び方法
US20190385711A1 (en) 2018-06-19 2019-12-19 Ellipsis Health, Inc. Systems and methods for mental health assessment
KR20200013162A (ko) 2018-07-19 2020-02-06 삼성전자주식회사 전자 장치 및 그의 제어 방법
US11279041B2 (en) * 2018-10-12 2022-03-22 Dream Face Technologies, Inc. Socially assistive robot
KR102243294B1 (ko) * 2018-11-30 2021-04-22 인하대학교 산학협력단 영상 및 eeg 신호 융합을 이용한 인간 감정상태 인식 방법 및 시스템
JP2020099019A (ja) * 2018-12-19 2020-06-25 株式会社日立製作所 機器制御装置及び機器制御システム
US11439346B2 (en) 2019-01-03 2022-09-13 Jacob T. Boyle Robotic device for assisting individuals with a mental illness
KR20210020312A (ko) * 2019-08-14 2021-02-24 엘지전자 주식회사 로봇 및 그의 제어 방법
CN111191765A (zh) * 2019-12-31 2020-05-22 华为技术有限公司 一种情绪信息的处理方法及装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5170935A (en) * 1991-11-27 1992-12-15 Massachusetts Institute Of Technology Adaptable control of HVAC systems
GB9126078D0 (en) * 1991-12-06 1992-02-05 Philips Electronic Associated Control system for a vehicle
JPH0612401A (ja) * 1992-06-26 1994-01-21 Fuji Xerox Co Ltd 感情模擬装置
JPH1091207A (ja) * 1996-09-13 1998-04-10 Fujitsu Ltd 内部表現自動生成方法及び装置
US5832189A (en) * 1996-09-26 1998-11-03 Interval Research Corporation Affect-based robot communication methods and systems
JP3159242B2 (ja) * 1997-03-13 2001-04-23 日本電気株式会社 感情生成装置およびその方法
US6249780B1 (en) * 1998-08-06 2001-06-19 Yamaha Hatsudoki Kabushiki Kaisha Control system for controlling object using pseudo-emotions and pseudo-personality generated in the object
CN1205002C (zh) * 1999-05-10 2005-06-08 索尼公司 机器人装置及其控制方法
US6446056B1 (en) * 1999-09-10 2002-09-03 Yamaha Hatsudoki Kabushiki Kaisha Interactive artificial intelligence

Cited By (78)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6362589B1 (en) * 1919-01-20 2002-03-26 Sony Corporation Robot apparatus
JPH11175132A (ja) * 1997-12-15 1999-07-02 Omron Corp ロボット、ロボットシステム、ロボットの学習方法、ロボットシステムの学習方法および記録媒体
US7076331B1 (en) 1998-11-30 2006-07-11 Sony Corporation Robot, method of robot control, and program recording medium
WO2000032361A1 (fr) * 1998-11-30 2000-06-08 Sony Corporation Robot, procede de commande de robot et support d'enregistrement de programme
JP2002233977A (ja) * 1998-11-30 2002-08-20 Sony Corp ロボット装置、ロボット装置の行動制御方法、プログラム及び記録媒体
WO2000040377A1 (fr) * 1999-01-07 2000-07-13 Sony Corporation Appareil de type machine, procede d'actionnement de celui-ci et support enregistre
US6980956B1 (en) 1999-01-07 2005-12-27 Sony Corporation Machine apparatus and its driving method, and recorded medium
KR100721694B1 (ko) * 1999-01-20 2007-05-28 소니 가부시끼 가이샤 로봇 장치 및 동작 제어 방법
EP1088629A4 (en) * 1999-01-20 2009-03-18 Sony Corp ROBOT AND DISPLACEMENT CONTROL METHOD
JP2010149276A (ja) * 1999-01-20 2010-07-08 Sony Corp ロボット装置及び動作制御方法
US6442450B1 (en) 1999-01-20 2002-08-27 Sony Corporation Robot device and motion control method
JP4696361B2 (ja) * 1999-01-20 2011-06-08 ソニー株式会社 ロボット装置及び動作制御方法
WO2000043167A1 (fr) * 1999-01-20 2000-07-27 Sony Corporation Robot et procede de commande de deplacement
US6381515B1 (en) 1999-01-25 2002-04-30 Sony Corporation Robot apparatus
CN1301830C (zh) * 1999-01-25 2007-02-28 索尼公司 机器人装置
EP1120205A4 (en) * 1999-01-25 2004-05-12 Sony Corp ROBOT
EP1120205A1 (en) * 1999-01-25 2001-08-01 Sony Corporation Robot
WO2000043168A1 (fr) * 1999-01-25 2000-07-27 Sony Corporation Robot
US6385506B1 (en) 1999-03-24 2002-05-07 Sony Corporation Robot
WO2000056506A1 (fr) * 1999-03-24 2000-09-28 Sony Corporation Robot
JP2001025984A (ja) * 1999-05-10 2001-01-30 Sony Corp ロボット装置及びその制御方法並びに記録媒体
US6519506B2 (en) 1999-05-10 2003-02-11 Sony Corporation Robot and control method for controlling the robot's emotions
JP4512963B2 (ja) * 1999-05-10 2010-07-28 ソニー株式会社 ロボット装置及びその制御方法
WO2000067959A1 (fr) * 1999-05-10 2000-11-16 Sony Corporation Dispositif robotique et procede de commande associe
EP1112821A1 (en) * 1999-05-10 2001-07-04 Sony Corporation Toboy device and method for controlling the same
EP1112821A4 (en) * 1999-05-10 2005-10-12 Sony Corp TOY AND METHOD FOR CONTROLLING THEREOF
US6512965B2 (en) 1999-05-10 2003-01-28 Sony Corporation Robot and control method for entertainment
JP2001034306A (ja) * 1999-07-26 2001-02-09 Seiko Epson Corp 出力制御システム
JP2001034305A (ja) * 1999-07-26 2001-02-09 Seiko Epson Corp 動作体の制御装置
JP2001083984A (ja) * 1999-09-09 2001-03-30 Alpine Electronics Inc インタフェース装置
JP2001121463A (ja) * 1999-10-29 2001-05-08 Atr Media Integration & Communications Res Lab 知能ロボット
US6681150B1 (en) 1999-11-20 2004-01-20 Bandai Co., Ltd. Insect robot
WO2001038050A1 (fr) * 1999-11-20 2001-05-31 Bandai Co., Ltd. Robot en forme d'insecte
JP2001246580A (ja) * 2000-03-03 2001-09-11 Sony Corp 情報通信ロボット装置、情報通信方法および情報通信ロボットシステム
JP2011115944A (ja) * 2000-03-31 2011-06-16 Sony Corp ロボット装置、ロボット装置の行動制御方法及びプログラム
EP1195231A4 (en) * 2000-03-31 2006-01-25 Sony Corp ROBOTIC DEVICE, ROBOTIC DEVICE ACTION CONTROL METHOD, EXTERNAL FORCE DETECTION DEVICE, AND EXTERNAL FORCE DETECTION METHOD
EP1195231A1 (en) * 2000-03-31 2002-04-10 Sony Corporation Robot device, robot device action control method, external force detecting device and external force detecting method
JP2002215673A (ja) * 2000-11-17 2002-08-02 Sony Computer Entertainment Inc 情報処理プログラム、情報処理プログラムが記録された記録媒体、情報処理装置及び方法
JP2002239257A (ja) * 2001-02-14 2002-08-27 Sanyo Electric Co Ltd 自動応答玩具におけるインタラクション状態決定装置および自動応答玩具
JP2002239256A (ja) * 2001-02-14 2002-08-27 Sanyo Electric Co Ltd 自動応答玩具における感情決定装置および自動応答玩具
US6757593B2 (en) 2001-03-22 2004-06-29 Toyota Jidosha Kabushiki Kaisha Vehicle expression operation control system, vehicle communication system, and vehicle which performs expression operation
JP2002274277A (ja) * 2001-03-22 2002-09-25 Toyota Motor Corp 乗物の表現動作制御システム及び乗物のコミュニケーションシステム、表現動作を行う乗物
JP2003271923A (ja) * 2002-03-15 2003-09-26 Sony Corp 記憶装置及び方法並びにロボット装置
JP2004299025A (ja) * 2003-04-01 2004-10-28 Honda Motor Co Ltd 移動ロボット制御装置、移動ロボット制御方法及び移動ロボット制御プログラム
US7551980B2 (en) 2003-04-01 2009-06-23 Honda Motor Co., Ltd. Apparatus, process, and program for controlling movable robot control
JP2007118129A (ja) * 2005-10-27 2007-05-17 Advanced Telecommunication Research Institute International コミュニケーションロボットおよびそれを用いた注意制御システム
JP2007249427A (ja) * 2006-03-14 2007-09-27 Honda Motor Co Ltd 情報管理システム
JP2007320032A (ja) * 2007-07-30 2007-12-13 Sony Corp ロボット装置及びその制御方法
TWI395608B (zh) * 2008-06-13 2013-05-11 Hon Hai Prec Ind Co Ltd 互動式玩具系統及其方法
KR101239274B1 (ko) * 2009-07-06 2013-03-06 한국전자통신연구원 상호작용성 로봇
US10788235B2 (en) 2014-11-07 2020-09-29 Sony Corporation Control system, control method, and storage medium
CN107111314A (zh) * 2014-11-07 2017-08-29 索尼公司 控制系统、控制方法以及存储介质
JPWO2016072116A1 (ja) * 2014-11-07 2017-08-31 ソニー株式会社 制御システム、制御方法、および記憶媒体
US11940170B2 (en) 2014-11-07 2024-03-26 Sony Corporation Control system, control method, and storage medium
WO2016072116A1 (ja) * 2014-11-07 2016-05-12 ソニー株式会社 制御システム、制御方法、および記憶媒体
JP2017226044A (ja) * 2016-06-23 2017-12-28 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
US10576618B2 (en) 2016-06-23 2020-03-03 Casio Computer Co., Ltd. Robot having communication with human, robot control method, and non-transitory recording medium
JPWO2018097089A1 (ja) * 2016-11-24 2019-02-28 Groove X株式会社 瞳を変化させる自律行動型ロボット
GB2571027B (en) * 2016-11-24 2022-08-10 Groove X Inc Autonomously acting robot that changes pupil
GB2571027A (en) * 2016-11-24 2019-08-14 Groove X Inc Autonomously acting robot changing pupils
JP2019149181A (ja) * 2016-11-24 2019-09-05 Groove X株式会社 瞳を変化させる自律行動型ロボット
WO2018097089A1 (ja) * 2016-11-24 2018-05-31 Groove X株式会社 瞳を変化させる自律行動型ロボット
US11623347B2 (en) 2016-11-24 2023-04-11 Groove X, Inc. Autonomously acting robot that changes pupil image of the autonomously acting robot
US11106426B2 (en) 2017-04-12 2021-08-31 Kawasaki Jukogyo Kabushiki Kaisha Vehicle conversation information output device and conversation information output method
US11046384B2 (en) 2017-04-12 2021-06-29 Kawasaki Jukogyo Kabushiki Kaisha Vehicle pseudo-emotion generating system and conversation information output method
US11124139B2 (en) 2017-04-12 2021-09-21 Kawasaki Jukogyo Kabushiki Kaisha Vehicle conversation information output device and conversation information output method
US11760357B2 (en) 2017-06-27 2023-09-19 Kawasaki Motors, Ltd. Travel evaluation method and pseudo-emotion generation method
WO2019004312A1 (ja) 2017-06-27 2019-01-03 川崎重工業株式会社 走行評価方法および疑似感情生成方法
WO2019003296A1 (ja) 2017-06-27 2019-01-03 川崎重工業株式会社 疑似感情生成方法並びに走行評価方法および走行評価システム
JP2019118698A (ja) * 2018-01-10 2019-07-22 パナソニックIpマネジメント株式会社 相互作用装置、相互作用方法、相互作用プログラム及びロボット
JPWO2019211932A1 (ja) * 2018-05-01 2021-07-01 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム、及び自律行動ロボット制御システム
WO2019211932A1 (ja) * 2018-05-01 2019-11-07 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及び自律行動ロボット制御システム
JP2020010771A (ja) * 2018-07-13 2020-01-23 本田技研工業株式会社 コミュニケーション装置、及び、コミュニケーション装置の動作方法
US11520549B2 (en) 2018-07-13 2022-12-06 Honda Motor Co., Ltd. Facially responsive communication apparatus
WO2020129309A1 (ja) * 2018-12-19 2020-06-25 本田技研工業株式会社 案内ロボット制御装置、及び、それを用いた案内システム、並びに、案内ロボット制御方法
US11904462B2 (en) 2018-12-19 2024-02-20 Honda Motor Co., Ltd. Guide robot control device, guidance system using same, and guide robot control method
JPWO2020129309A1 (ja) * 2018-12-19 2021-09-30 本田技研工業株式会社 案内ロボット制御装置、及び、それを用いた案内システム、並びに、案内ロボット制御方法
WO2024071171A1 (ja) * 2022-09-29 2024-04-04 日東電工株式会社 ロボット、学習装置、制御方法およびプログラム

Also Published As

Publication number Publication date
US6175772B1 (en) 2001-01-16
US6629242B2 (en) 2003-09-30
US20010001318A1 (en) 2001-05-17

Similar Documents

Publication Publication Date Title
JPH10289006A (ja) 疑似感情を用いた制御対象の制御方法
US6714840B2 (en) User-machine interface system for enhanced interaction
US8538750B2 (en) Speech communication system and method, and robot apparatus
TW581959B (en) Robotic (animal) device and motion control method for robotic (animal) device
US7216082B2 (en) Action teaching apparatus and action teaching method for robot system, and storage medium
US7117190B2 (en) Robot apparatus, control method thereof, and method for judging character of robot apparatus
JP2002018146A (ja) 対話型玩具、反応行動パターン生成装置および反応行動パターン生成方法
JP3211186B2 (ja) ロボット、ロボットシステム、ロボットの学習方法、ロボットシステムの学習方法および記録媒体
JP2003039363A (ja) ロボット装置、ロボット装置の行動学習方法、ロボット装置の行動学習プログラム、及びプログラム記録媒体
JP7363764B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US20020019678A1 (en) Pseudo-emotion sound expression system
KR20060079832A (ko) 임베디드 시스템기반의 감정표현 휴먼노이드 로봇
WO2000067959A1 (fr) Dispositif robotique et procede de commande associe
WO2001049461A1 (fr) Dispositif d'edition, procede d'edition et support enregistre
JP2023095918A (ja) ロボット、ロボットの制御方法及びプログラム
JP2003200370A (ja) オブジェクトの成長制御システム及びオブジェクトの成長制御方法
JP2002205291A (ja) 脚式ロボット及び脚式ロボットの行動制御方法、並びに記憶媒体
JP2000099490A (ja) 擬似的な精神情報に基づいて作動する装置
WO2020202540A1 (ja) 特徴データ設定装置、ロボット、端末装置、および特徴データ設定方法
JP2001105363A (ja) ロボットにおける自律的行動表現システム
WO2023037608A1 (ja) 自律移動体、情報処理方法、及び、プログラム
JPWO2019087490A1 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2023037609A1 (ja) 自律移動体、情報処理方法、及び、プログラム
KR200386045Y1 (ko) 임베디드 시스템기반의 감정표현 휴먼노이드 로봇
WO2021117441A1 (ja) 情報処理装置、その制御方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040402

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050329

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050906