JP2004066418A - 自律ロボット - Google Patents

自律ロボット Download PDF

Info

Publication number
JP2004066418A
JP2004066418A JP2002231000A JP2002231000A JP2004066418A JP 2004066418 A JP2004066418 A JP 2004066418A JP 2002231000 A JP2002231000 A JP 2002231000A JP 2002231000 A JP2002231000 A JP 2002231000A JP 2004066418 A JP2004066418 A JP 2004066418A
Authority
JP
Japan
Prior art keywords
data
master
person
unit
expression
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002231000A
Other languages
English (en)
Inventor
Katsuyuki Shudo
首藤 勝行
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2002231000A priority Critical patent/JP2004066418A/ja
Publication of JP2004066418A publication Critical patent/JP2004066418A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)

Abstract

【課題】親しみと愛着とを主人を含めた周囲の人間に与える自律ロボットを提供する。
【解決手段】感情を表現する可動部10,30,90と、これを駆動する駆動部61と、画像や音声等の外部情報を外部データS81〜S84Bとして送出する外部データ入力手段80と、この外部データからなる特定人物を識別可能にする特定データS70によりこの人物を識別する人物識別部72と、その識別結果S72に応じた感情表現動作を駆動部61に指示する制御部50とを備え、感情表現を2つのパターンにより鎮静状態から高揚状態までの範囲内で行い、特定人物を識別した場合にのみ第1のパターンを実行するようにした。そして、このパターンを他パターンより喜びの感情が高揚したものにし、特定データS70を複数のデータにした。
【選択図】   図1

Description

【0001】
【発明の属する技術分野】
本発明は、自律ロボットに係り、特に人間に接して自律行動するロボットに関する。
【0002】
【従来の技術】
従来、人間に接するペットとして主に家庭内において自律行動するロボットが研究され、特に近年は、人物の存在を検出してそれに対応した行動をする例えば犬型のロボットが開発されている。
【0003】
その一例として特開2000−326274号公報に記載されている自律行動ロボットがある。
このロボットは人物の存在有無を検出し、存在を検出した場合にその人物の方に向いたり、人物との距離を測定してこの距離があらかじめ決められた距離よりも遠い場合にその人物に接近したり、音声や接触を検出してこれらに対応した応答をするように構成されており、親しみ易いペットとして自律行動をするものである。
また、複数の人物をあらかじめ登録しておき、登録された人物と他の人物とで応答を変えたり、登録した人物に対応する好感度を記憶してその好感度に応じて応答をするものである。
【0004】
【発明が解決しようとする課題】
ところで、家庭で飼育される動物のペットの場合、必ず飼い主である主人が存在する。
この主人は、ペットと接する人間の中で唯一の人物であり、ペットが以下の点を満足する行動をとることを期待している。
▲1▼ 髪型によらず、眼鏡の装着如何によらず、帽子やはちまき等の装着如何によらず主人を唯一人認識できる。
▲2▼ たとえ主人に叩かれたとしても、主人に対して忠誠を変えずに甘える動作をする。
▲3▼ 一旦主人として認められれば、よほどのことがない限り唯一人を主人として認識する。
【0005】
しかしながら、従来のロボットはこの主人という概念を持っていない。
従って、例えば眼鏡なしの人物として主人を登録した場合、眼鏡を着用したら別人物としてロボットは認識してしまうし、しつけのつもりでロボットを叩けば、好感度が低下して叩かれたロボットの対応は冷たいものに変わっていく。
また、「主人=唯一」という認識がないので、主人ではないがいつもこのロボットを撫でて可愛がる人物に対しては、好感度が上昇して本来の主人以上に甘えるという行動をとってしまう。
【0006】
そのため、主人以外の周囲の人間もこのロボットに忠誠心を見いだせず、心からの愛着を持ってペットとして接することができなかった。
また、ペットに対してあまり撫でたり声をかけたりしない、いわゆる淡泊な主人の場合、好感度が上昇しないので、いつまで経ってもこのロボットが主人に甘えることがない。
このように、従来のロボットは、主人が期待するペットの行動としては極めて不満足な応答しかできないという問題があった。
【0007】
そこで本発明が解決しようとする課題は、主人をただ一人認識すると共にその主人に対する動作を他人に対する動作と異ならせることで、親しみと愛着とを主人を含めた周囲の人間に与える自律ロボットを提供する。
【0008】
【課題を解決するための手段】
上記の課題を解決するために、本願発明は手段として次の構成を有する。
即ち、請求項1は、感情を表現するように駆動可能とした可動部10,30,90と、前記可動部10,30,90を駆動する駆動部61と、外部情報を検出し、これを外部データS81〜S84Bとして送出する外部データ入力手段80と、特定の人物を識別可能とする特定データS70を記憶する人物データ記憶部71と、前記人物データ記憶部71に記憶された前記特定データS70を基に、前記外部データS81〜S84Bの中から前記特定の人物を識別して該識別結果S72を送出する人物識別部72と、前記識別結果S72に応じて感情表現を鎮静状態から高揚状態までの範囲内で実行するように前記駆動手段61に対して指示する制御部50とを備え、
前記感情表現を、第1の表現パターンを含む少なくとも2つのあらかじめ設定された表現パターンにより実行するようにし、前記制御部50は、前記第1の表現パターンによる感情表現を、前記識別結果S72が前記特定の人物を識別できたとするものである場合にのみ実行するように前記駆動手段61に対して指示する構成にしたことを特徴とする自律ロボットであり、
請求項2は、前記第1の表現パターンは、他の表現パターンよりも喜びの感情を高揚させるようにした感情表現パターンであることを特徴とする請求項1記載の自律ロボットであり、
請求項3は、前記特定データS70は、前記外部データS81〜S84Bを基にした複数のデータからなることを特徴とする請求項1又は請求項2記載の自律ロボットである。
【0009】
【発明の実施の形態】
本発明の実施の形態を、好ましい実施例により図1乃至図6を用いて説明する。
図1は、本発明の自律ロボットの実施例を示す概略斜視図であり、
図2は、本発明の自律ロボットの実施例に対して情報を送出するリモコン装置の一例を示す概略斜視図であり、
図3は、本発明の自律ロボットの実施例に対して主人認識信号を送信する無線発信器の一例を示す概略斜視図であり、
図4は、本発明の自律ロボットの実施例におけるブロック図であり、
図5は、本発明の自律ロボットの実施例におけるフローチャートであり、
図6は、本発明の自律ロボットの実施例における動作を感情表現範囲により説明する図である。
【0010】
この実施例の自律ロボット(以下ロボット)100は、頭部10,胴体20,4つの脚部30及び尻尾部90で構成される。
頭部10は、胴体20の上面20aの前方に首部14を介して取り付けられ、内臓した2自由度のアクチュエータ(図示せず)によって、左右及び上下方向の首振り動作が可能とされる。
脚部30は、胴体20の左右の側面20cに回転軸33を介してそれぞれの側面20cに一対ずつ計4脚取り付けられる。
尻尾部90は、胴体20の後面20dに取り付けられ、アクチュエータ(図示せず)によって任意の方向に動くいわゆる尻尾振り動作が可能とされる。
以上のように、このロボット100は概ね犬に似た外観構成とされる。
【0011】
次に各部分の詳細を説明する。
頭部10は、概ね犬の頭部に似た形状に形成される。
鼻に相当する頭部の先端には、外部の状況を撮像して画像データS81として出力するカメラ部11が装着される。
その上部には外部の音を検出して音声データS82として出力する一対のマイクロホン12が耳に似せた形状で装着される。
目に相当する部分には、外部からの赤外線信号を受信して受信データS83Aとして出力する一対の赤外線受光部13が設けられる。
【0012】
脚部30は関節32を有し、図示しないアクチュエータによりロボット100の姿勢を制御したり移動を可能にする。
この脚部30の先端付近には、タッチセンサー31が設けられ、人間の接触による圧力を接触データS84Bとして出力する。
【0013】
胴体20は、略直方体形状であり、前面20bには音声を発するスピーカ21が取り付けられる。
背中に相当する上面20aには、しつけボタン22が備えられている。
このしつけボタン22は、ボタンが押されている時に信号をしつけデータS84Aとして出力する。
そして、胴体20の内部には外部からの無線を受信して無線データS83Bとして出力する無線受信装置22が内蔵される。
【0014】
さらに、上述した画像,音声,受信,接触,しつけ,無線の各データS81〜S84Bを処理するデータ処理部40と、処理されたデータに基づいてロボット全体を制御する全体制御部50と、全体制御部50の指示により動作を制御する動作制御部60と、このロボット100の主人を記憶し,識別し,そして識別手段を設定する主人データ制御部70とが格納される。
【0015】
このロボット100の制御や、その設定変更を外部から行う赤外線リモコン110を図2に示す。
また、このロボット100に無線データを送信する無線発信器120を図3に示す。
【0016】
次に、本実施例の信号経路について図4のブロック図を用いて説明する。
データ入力部80は、画像入力部81,音声入力部82,通信入力部83及びセンサ入力部84から構成される。
また、データ処理部40は、画像データ処理部41,音声データ処理部42,受信データ処理部43及びセンサデータ処理部44から構成される。
【0017】
画像入力部81は、頭部10に装着したカメラ部11からなり、画像データS81を画像データ処理部41に送出する。
画像データ処理部41は、送出された画像データS81から人物の顔部分を顔認識等によって抽出したり、障害物を検出してその結果をS1全体制御部50へ送出する。
【0018】
音声入力部82は、マイクロホン12からなり、音声データS82を音声データ処理部42に送出する。
音声データ処理部42は、送出された音声データS82に対してスペクトル分析や波形パターン検出を行い、結果S2を全体制御部50へ送出する。
【0019】
通信入力部83は赤外線受光部13及び無線受信装置22からなり、受信データS83A,S83Bを受信データ処理部43へ送出する。
【0020】
受信データ処理部43は、送出された受信データS83A,S83Bからコマンド等を分離してその結果S3を全体制御部50へ送出する。
【0021】
センサ入力部84は、しつけボタン22及びタッチセンサ31からなり、しつけデータS84A及び接触データS84Bをセンサデータ処理部44へ送出する。
センサデータ処理部44は、送出されたしつけデータS84Aからしつけボタンの押された長さを調べると共に、送出された接触データS84Bから接触強さと接触時間を分析し、これらの結果S4を全体制御部50へ送出する。
このしつけデータS84Aの評価は、例えば、しつけボタン22が一定時間以上押された場合にはロボット100がほめられたものとし、一定時間以下の場合は叩かれたとみなして叱られたものとするように行う。
【0022】
次に、主人データ制御部70について詳述する。
この主人データ制御部70は、主人を特定する主人データS70を記憶する主人データ記憶部71,主人識別部72及び主人識別手段設定部73から構成される。
【0023】
この構成において、主人データS70を記憶して登録させることができる。
その方法は次のとおりである。
まず、ロボット100を主人登録モードに設定する。
これはリモコン装置110から指示できる。
そして、主人を登録する手段を選択してから主人データS70を主人データ記憶部71に記憶させる。
この登録手段は、登録した主人を検出する際の検出手段にもなる。
具体的には、▲1▼顔認識,▲2▼声認識,▲3▼所定信号,▲4▼発信信号,▲5▼センサ情報の5つの手段であり以下に順次説明する。
【0024】
▲1▼顔認識
画像入力部81にて主人の顔を画像情報として入力し、得られた画像の顔情報から記憶すべき特徴を画像データ処理部41において決定し、これを主人データS70として主人データ記憶部71に記憶させる。
記憶させる特徴としては顔の全体像として捉えてもよく、また目,鼻等の顔の構成要素あるいは、傷,えくぼ,ほくろ等の局部形状を捉えてもよい。
いずれも他人と確実に区別できる特徴的要素であることが望ましい。
【0025】
また、眼鏡を装着した場合、帽子を着用した場合、マスクをした場合等主人がよくとる外観スタイルを複数の情報として記憶させておくのがよい。
また、笑顔、泣き顔、怒った顔等、いろいろな表情についても記憶させておくのがよい。
これらの多種の顔情報を記憶させておくことで、識別能力が向上して主人検出確度が向上し、外観や装着品によらず主人を確実に認識することが可能となる。
また、これら多種の特徴の内、どの特徴を記憶させるかは任意に設定することができる。
【0026】
▲2▼声認識
音声入力部82に入力した音声から、主人特有のスペクトルや特定の言葉の波形を主人データS70として主人データ記憶部71に記憶させる。また、特定のキーワードを設定してこれを記憶させてもよい。
【0027】
▲3▼所定信号
あらかじめ設定した暗証番号等の所定信号を主人データS70として主人データ記憶部71に記憶させる。リモコン装置110からこの信号が送出されて通信入力部83に入力した場合に、主人の存在をロボットに認識させることができる。
【0028】
▲4▼発信信号
無線発信器の発信信号に含まれるコードデータを主人データS70として記憶させる。
無線発信器120からこのコードデータを含んだ発信信号を受信した場合に主人の存在をロボットに認識させることができる。
【0029】
▲5▼センサ情報
しつけボタンのボタンを押すパターンやタッチセンサの接触パターンを主人データS70として主人データ記憶部71に記憶させる。
例えば、しつけボタンを短、長、短と3回押したあとに、右前足タッチセンサーを2回触りさらに左前足タッチセンサーを3回触るのが主人と決めてこれを主人データS70として記憶させる。
【0030】
これらの識別手段の設定は、リモコン装置110で指示することができる。
通信入力部83に入力した設定コマンドが受信データS82Aとして出力されると、受信データ処理部53で識別手段コマンドデータが検出され、このコマンドデータによって主人識別手段設定部73に切り換えデータS5が送出されて設定が切り換えられる。
このようにして主人識別部72の識別手段設定を行うことができる。
【0031】
そして、主人データS70を上述のように記憶してさらに登録する場合には、リモコン装置110で主人登録コマンド(種類)を送信して、入力された主人データS70を主人データ記憶部71に記憶させる。
例えば、顔記憶の場合、画像登録コマンドを送信後、所定時間後に主人の顔を画像入力部で撮影する。
上述のように複数の顔情報を入力して主人データS70とする場合は、この手順を繰り返せす複数モードを選択することができる。顔認識以外の他の手段における設定の場合も同様である。
【0032】
上述した各識別手段は、それぞれ単独で用いても組み合わせて用いてもよい。
画像による顔認識は、他の手段に比べて認識率が高くないので、複数の顔情報を採用するか、他の手段と組み合わせることにより、それら複数の主人データS70のうちいずれかが適合すれば主人であると認識できるので、飛躍的に認識率を高くすることができる。
そして、主人識別部72は主人の識別結果S72を全体制御部50に送出する。
【0033】
このような構成において、全体制御部50は、各入力データを処理した結果S1〜S4及び主人識別結果S72に対応したロボット100の動作を全体的に制御するものである。例えば、移動、停止、、首振り、発声、主人の存在有無の確認等を制御する。
また、しつけボタン22やタッチセンサ31の入力に対応する応答をあらかじめ設定しておいてそれを実行させるものである。
さらに、主人と他の人物との違いを識別し、あらかじめ設定しておいたそれぞれに応じた応答を実行させるものでもある。
【0034】
動作制御部60は、頭部10や脚部30を動かすための複数のアクチュエータ61を制御する。
それぞれのアクチュエータ61にはロータリエンコーダ62が取り付けられる。
このエンコーダ62は、駆動部分の回転角度を検出し、その角度情報を動作制御部60に送出する。
【0035】
ところで、実施例のロボットは、登録した主人に対して特別の動作(以下、「主人動作」と称する)をするように設定される。
その動作をフローチャート(図5)を用いて説明する。
【0036】
まず、データ入力部80から出力される各データS81〜S84Bを基に主人の検出を行う。例えば画像入力部81からの情報であれば、画像データS81から主人の検出を行う(STEP1)。
主人を検出した場合、「主人動作」ルーチンを実行する(STEP2)。
検出しなかった場合、一般用動作ルーチンを実行する(STEP3)。
この後、タイマールーチンにより、所定の時間が経過した後で、再度主人の検出を行う。この再検出は繰り返し実行される(STEP4)。
従って、主人を検出したら、所定の時間主人が近くにいるものとして「主人動作」を実行し、検出できなくなった時点で「一般動作」に切り換えてこれを実行するように設定される。
【0037】
次に、この「主人動作」と「一般動作」との違いについて感情表現範囲を比較することにより、図6を用いて説明する。
当図は、「主人動作」と「一般動作」における感情表現範囲の違いを示した図である。
そして、縦軸に感情の高揚程度を示し、上方向が高揚状態、下方向が鎮静状態である。
【0038】
この高揚状態における動作は、早く、連続的に、激しく、大きく、強く又は機敏に行われるものである。もちろんこれらに限るものではなく、高揚状態が表現されればよい。
鎮静状態における動作は、遅く、断続的に、穏やかに、小さく、弱く又は鈍重に行われるものである。この場合もこれらに限るものではなく、鎮静状態が表現されればよい。
【0039】
「一般動作」パターンの感情表現範囲は、この高揚側上限R0Tと下限R0Lとの間に設定される。
一方、「主人動作」パターンの感情表現範囲は、その高揚側上限R1Tと下限R1Lとの間である。
そして、「主人動作」パターンの高揚側上限R1T及び鎮静側下限R1Lは、「一般動作」パターンの高揚側上限R0T及び鎮静側下限R0Lよりも、それぞれ高揚側に高くなるように設定されている。
【0040】
従って、「一般動作」において喜びを表現する場合、感情表現の上限が比較的低く設定されているので派手な表現となる動作をすることはなく、また、鎮静状態においては、人物に対する表現はかなり淡泊であって関心を示す動作を実行することはない。
すなわち、「一般動作」パターンにおける表現様式は、感情が高揚した場合は「通常の喜び」、鎮静状態では「無視」というレベルの様式で設定される。
【0041】
一方、「主人動作」において喜びを表現する場合、感情表現の上限がより高揚方向に高く設定されているので、極めて派手な動作で喜びを表現する。
また、鎮静状態においても、主人に対しては比較的高揚した特別な表現をするように設定され、特に「甘え」という表現動作を付加させる。
すなわち、「主人動作」における表現様式は、感情が高揚した場合は、「極度の喜び」、鎮静状態では「甘え」というレベルの様式で設定される。
この「甘え」の動作例としては、頭部10を主人の方に向けて左右に傾ける,脚部30の前足の一方を上げて振るあるいは尻尾部90を振るというものである。
【0042】
このような感情表現の程度はデータ入力部80からの各データS81〜S84Bによって適宜更新される。
例えば、しつけボタン22からの入力により誉められたと認識できる回数が増える程、喜びの表現度合いをより高揚方向に高く移行させる。
また、タッチセンサ31からの入力により、撫でられたと認識できる回数が増えた場合も同様である。
逆に、しつけボタン22からの入力により叱られたと認識される回数が増える程、喜びの表現度合いをより低く移行させるように設定される。
【0043】
以上説明したように、本実施例は、感情の高揚あるいは鎮静状態が同レベルであっても、「主人動作」と「一般動作」とで動作内容が異なるように構成される。
【0044】
そして、ロボット100がこのような動作をすることにより、主人は自分がロボット100にとってかけがえのない唯一の存在であることを実感できる。
そのため、より親しみと深い愛着を持ってロボットに接することができる。
また、このロボットに接する主人以外の人間も、可愛がる度にこのロボット100がより高揚した喜びをもって応答するので自分に益々なついてきたという実感が得られ親近感が湧く。
さらに、主人以外の人間がいくら可愛がっても、やはり主人を唯一とする忠誠心をロボット100の態度から感じることができるので、実際の動物ペットと変わらない気持ちで接することができてより愛着を持つことができる。
【0045】
さて、本発明の実施例は、上述した構成に限定されるものではなく、本発明の要旨を逸脱しない範囲において例えば下記のように変更が可能である。
【0046】
ロボット100の外観は犬型に限定されるものではなく、他の動物あるいはアニメーション等のキャラクターの外観としてもよい。
【0047】
リモコン装置110は赤外線を送信するものに限らず、同様の機能を有する装置であればよく、例えば、携帯端末にその機能を搭載してリモコン装置としてもよい。
無線発信器もペンダント型に限定されるものではなく、様々な形態が可能であるが、主人を認識させるものであるから、身体に装着可能な形態であることが望ましい。
【0048】
外部情報としては、前述のような画像,音声,圧力,電波及び光に限らず例えば臭いでもよい。そして、これを検出する嗅覚センサーをデータ入力部として搭載することができる。
また、温度センサーや湿度センサー、さらには生物では詳細を検出できない、紫外線センサーや放射線測定センサー等のような各種環境情報を検出するセンサーを搭載することも可能であり、生物型ペットの範疇を超えたペットロボットとして構成することも可能である。
【0049】
【発明の効果】
以上詳述したように、本願発明によれば、感情表現を「主人動作」と「一般動作」の2つの表現パターンで実行可能とし、主人を認識した時だけ「主人動作」パターンで感情表現をするようにしたので、他人に対する応答とは異なる応答をしてくれるということで主人は忠誠心を感じ、また主人を含めて他の人も、より愛着をもってこの自律ロボットに接することができる。
また、「主人動作」パターンは、「一般動作」パターンよりも喜びの感情を高揚させた動作をするようにしてあるので、主人はより親しみを持ってこの自律ロボットに接することができる。
さらに、主人を認識可能にする特定データは、外部データを基にした複数のデータからなるので、主人を極めて的確に認識することができる。
【図面の簡単な説明】
【図1】本発明の自律ロボットの実施例を示す概略斜視図である。
【図2】本発明の自律ロボットの実施例に対して情報を送出するリモコン装置の一例を示す外観斜視図である。
【図3】本発明の自律ロボットの実施例に対して主人認識信号を送信する無線発信器の一例を示す外観斜視図である。
【図4】本発明の自律ロボットの実施例におけるブロック図である。
【図5】本発明の自律ロボットの実施例におけるフローチャートである。
【図6】本発明の自律ロボットの実施例における動作を感情表現範囲により説明する図である。
【符号の説明】
10 頭部
11 カメラ部
12 マイクロホン
13 赤外線受光部
20 胴部
20a 上面
20b 前面
20c 側面
20d 後面
21 スピーカ(発音部)
22 しつけボタン
30 脚部
31 タッチセンサ
32 関節
33 回転軸
40 データ処理部
41 画像データ処理部
42 音声データ処理部
43 通信データ処理部
44 センサデータ処理部
50 全体制御部
60 動作制御部
61 アクチュエータ
62 エンコーダ
70 主人データ制御部
71 主人データ記憶部
72 主人識別部
73 主人識別手段設定部
80 データ入力部
81 画像入力部
82 音声入力部
83 通信入力部
84 センサ入力部
90 尻尾部
100 ロボット
110 リモコン装置
120 無線発信器
S70,S81,S82,S83A,S83B,S84A,S84B データ
S1〜S4,S72 結果

Claims (3)

  1. 感情を表現するように駆動可能とした可動部と、
    前記可動部を駆動する駆動部と、
    外部情報を検出し、これを外部データとして送出する外部データ入力手段と、
    特定の人物を識別可能とする特定データを記憶する人物データ記憶部と、
    前記人物データ記憶部に記憶された前記特定データを基に、前記外部データの中から前記特定の人物を識別して該識別結果を前記制御部に送出する人物識別部と、
    前記識別結果に応じて感情表現を鎮静状態から高揚状態までの範囲内で実行するように前記駆動手段に対して指示する制御部とを備え、
    前記感情表現を、第1の表現パターンを含む少なくとも2つのあらかじめ設定された表現パターンにより実行するようにし、
    前記制御部は、前記第1の表現パターンによる感情表現を、前記識別結果が前記特定の人物を識別できたとするものである場合にのみ実行するように前記駆動手段に対して指示する構成にしたことを特徴とする自律ロボット。
  2. 前記第1の表現パターンは、他の表現パターンよりも喜びの感情を高揚させるようにした感情表現パターンであることを特徴とする請求項1記載の自律ロボット。
  3. 前記特定データは、前記外部データを基にした複数のデータからなることを特徴とする請求項1又は請求項2記載の自律ロボット。
JP2002231000A 2002-08-08 2002-08-08 自律ロボット Pending JP2004066418A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002231000A JP2004066418A (ja) 2002-08-08 2002-08-08 自律ロボット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002231000A JP2004066418A (ja) 2002-08-08 2002-08-08 自律ロボット

Publications (1)

Publication Number Publication Date
JP2004066418A true JP2004066418A (ja) 2004-03-04

Family

ID=32016891

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002231000A Pending JP2004066418A (ja) 2002-08-08 2002-08-08 自律ロボット

Country Status (1)

Country Link
JP (1) JP2004066418A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009012148A (ja) * 2007-07-09 2009-01-22 Noriko Mitsuhayashi ペット型ロボット
KR100953407B1 (ko) 2008-04-24 2010-04-19 한국과학기술원 로봇의 호감도 형성장치 및 그 방법
JP2019217605A (ja) * 2018-06-21 2019-12-26 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
US10576618B2 (en) 2016-06-23 2020-03-03 Casio Computer Co., Ltd. Robot having communication with human, robot control method, and non-transitory recording medium
WO2021166811A1 (ja) * 2020-02-19 2021-08-26 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および行動モード設定方法

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009012148A (ja) * 2007-07-09 2009-01-22 Noriko Mitsuhayashi ペット型ロボット
KR100953407B1 (ko) 2008-04-24 2010-04-19 한국과학기술원 로봇의 호감도 형성장치 및 그 방법
US10576618B2 (en) 2016-06-23 2020-03-03 Casio Computer Co., Ltd. Robot having communication with human, robot control method, and non-transitory recording medium
JP2019217605A (ja) * 2018-06-21 2019-12-26 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
CN110625608A (zh) * 2018-06-21 2019-12-31 卡西欧计算机株式会社 机器人、机器人的控制方法以及存储介质
US11485021B2 (en) 2018-06-21 2022-11-01 Casio Computer Co., Ltd. Robot, robot control method, and recording medium
JP7326707B2 (ja) 2018-06-21 2023-08-16 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
US11780098B2 (en) 2018-06-21 2023-10-10 Casio Computer Co., Ltd Robot, robot control method, and recording medium
WO2021166811A1 (ja) * 2020-02-19 2021-08-26 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および行動モード設定方法
JP2021131699A (ja) * 2020-02-19 2021-09-09 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および行動モード設定方法
JP7323475B2 (ja) 2020-02-19 2023-08-08 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および行動モード設定方法

Similar Documents

Publication Publication Date Title
JP6572943B2 (ja) ロボット、ロボットの制御方法及びプログラム
US11376740B2 (en) Autonomously acting robot that recognizes direction of sound source
US8538750B2 (en) Speech communication system and method, and robot apparatus
US8483873B2 (en) Autonomous robotic life form
JP7400923B2 (ja) 情報処理装置および情報処理方法
WO2016068262A1 (ja) コミュニケーションロボット
JP7205148B2 (ja) ロボット、制御方法、及び、プログラム
KR20060079832A (ko) 임베디드 시스템기반의 감정표현 휴먼노이드 로봇
WO2019087495A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US11325262B2 (en) Robot, robot control system, robot control method, and non-transitory storage medium
JP2022113701A (ja) 機器の制御装置、機器、機器の制御方法及びプログラム
JP2024009862A (ja) 情報処理装置、情報処理方法、およびプログラム
US11780098B2 (en) Robot, robot control method, and recording medium
JP4617428B2 (ja) 動作生成システム
JP2004066418A (ja) 自律ロボット
JP7156300B2 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2023037609A1 (ja) 自律移動体、情報処理方法、及び、プログラム
WO2023037608A1 (ja) 自律移動体、情報処理方法、及び、プログラム
KR200386045Y1 (ko) 임베디드 시스템기반의 감정표현 휴먼노이드 로봇
JPWO2020009098A1 (ja) ロボット
JP2003190650A (ja) 疑似生物機器

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060901

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070406

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070727