JP7320240B2 - ロボット - Google Patents

ロボット Download PDF

Info

Publication number
JP7320240B2
JP7320240B2 JP2019069636A JP2019069636A JP7320240B2 JP 7320240 B2 JP7320240 B2 JP 7320240B2 JP 2019069636 A JP2019069636 A JP 2019069636A JP 2019069636 A JP2019069636 A JP 2019069636A JP 7320240 B2 JP7320240 B2 JP 7320240B2
Authority
JP
Japan
Prior art keywords
robot
person
main body
action
actuator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019069636A
Other languages
English (en)
Other versions
JP2020168040A (ja
Inventor
美智男 岡田
勇輝 長谷川
凌輔 真弓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyohashi University of Technology NUC
Original Assignee
Toyohashi University of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyohashi University of Technology NUC filed Critical Toyohashi University of Technology NUC
Priority to JP2019069636A priority Critical patent/JP7320240B2/ja
Publication of JP2020168040A publication Critical patent/JP2020168040A/ja
Application granted granted Critical
Publication of JP7320240B2 publication Critical patent/JP7320240B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、いわゆるコミュニケーションロボット、特に本発明者が提唱する「弱いロボット」に関するものである。
一般的にロボットは、高度に自律して動作し、人と同様な作業を効率的に行ってくれるという自律機械という側面に加えて、人と同様な身体性や振る舞いを備えることで、周囲の人から共感や感情移入を引き出しやすいという側面がある。
これまでの多くのロボットの研究開発では、前者の側面に焦点を当てられてきたが、人との積極的な関わりを指向するソーシャルなロボットやコミュニケーションロボットの開発では、後者の要素がより重要なものとなっている。本発明の狙いは、この後者の機能向上に焦点を当てようとするものである。
本発明者は、これまで人からのアシストを上手に引き出し、結果として目的を果たしてしまう他力本願なロボットを「弱いロボット」と呼び、研究開発を進めてきた。
例えば、特許第4556024号「ロボットおよびロボットシステム」は、自らゴミを拾えないものの、周りの人の手助けを引き出し、結果としてゴミを拾い集めてしまうロボットである。(特許文献1、非特許文献1および非特許文献2参照)。
すなわち、ロボットがその「弱さ」「不完全さ」をアピールすることによって、周りの人が、もどかしさを感じ、人の援助を引き出すことができることに着目したものである。
この機能を効果的に実現するためには、本発明では、ロボットの基本的な振る舞い、人との関わりにおけるインタラクションを工夫することで、ロボットに「生き物らしさ」や「人らしさ」を備えさせ、そのことで周囲の人の「志向的な構え」(=このロボットは、何らかの意図をもち、そのために合目的的に振る舞っているのではないかという解釈)や感情移入を引き出す必要がある。これらの創意工夫によって、より効果的にユーザーの手助けや積極的な関わり、愛着などを必出すことの可能なロボットを実現できる。
特許第4556024号公報
2017年6月20日株式会社講談社発行「〈弱いロボット〉の思考」 ヒューマンインタフェース学会論文誌 Vol.18,No.3,第219頁「ゴミ箱ロボットにおける〈弱さ〉の表出について」佐田和也、山際康貴、岡田美智男
従来の「ゴミ箱ロボット」や「お掃除ロボット」は、その動作が予め作り込まれた機械的なものであり、高度な機械として認識されるものの、何らかの「意思」を備えたような生き物らしさや人との関わりを志向するような存在として認識されることは少ない。特に、ただ静止しているときは、「モノ」として認識され(=物理的な構え)、合理的な動きのみのときは、「高度な機械」として認識される(=設計的な構え)ものと考えられる。
2004年に出願されたロボットの発明は、自らゴミを拾い集める機能は有さないものの、周りのユーザーの手助けを引き出しながら結果としてゴミを拾い集めてしまうことを特徴とするものであったが、その振る舞いは、まだまだ機械的な面が残っていた。
このアイデアをより実効的なものとするには、ロボットの振る舞いは機械的なものではなく、ユーザーから、何らかの「意思」を備えたような生き物らしさや人との関わりを志向するような存在として認識される(=「志向的な構え」を引き出す)必要がある。
本発明のロボットは、工場等で作業を行うような機械的なロボットではなく、あたかも「何か意思を備えていて、そのための合目的的な行動をしている」との認識(=志向的な構え)をユーザーから引き出すには、まるで「生き物のような」と感じるような、基本動作やインタラクション動作をする必要がある。
そのため、本発明では、ユーザーから志向的な構えを引き出し、それに伴い効果的な手助け行動や愛着を引き出すために、次のような構成要素や動作生成機構を備えるものである。
本発明にかかるロボットの第一の形態は、ゴミや玩具のような拾得対象物を収容することができる格納容器を有する本体部と、音声出力による発話および前記本体部の動きの少なくとも1つの行為により意思を表現する意思表現手段と、前記本体部の周囲の人を検知する第1の検知手段と、前記格納容器に拾得対象物が投入されたことを検知する第2の検知手段と、前記意思表現手段を制御するためのコンピュータとを備え、前記第1の検知手段により人が検知された場合に前記意思表現手段により拾得対象物を拾うという人の行為を誘発するための最初の誘発動作を実行し、前記最初の誘発動作を実行した後、前記格納容器に拾得対象物が投入されたことが前記第2の検知手段により検知されたときに、前記意思表現手段により人に対する応答動作を実行し、前記最初の誘発動作を実行した後、前記格納容器に拾得対象物が投入されたことが前記第2の検知手段により検知できないときに、前記意思表現手段により拾得対象物を拾うという人の行為を誘発するために他の誘発動作を選択的に実行するロボットにおいて、
前記本体部を搭載するベース部と、
前記ベース部に設置され、前記本体部を搭載した状態においてベース部を移動させるための移動用モジュールと、
前記本体部と前記ベース部との間に介在され、両者を連結するスプリングと、
前記ベース部に対する前記本体部の相対的な位置関係を、前記スプリングに連結された範囲で変更するための駆動力を作用させることができるアクチュエータと
を備え、
前記第1の検知手段は、前記本体部の周囲の人を検知するとともに検出した人との距離を検出するものであり、
前記コンピュータは、さらに、前記移動モジュールおよび前記アクチュエータの作動を制御するものであり、該コンピュータは、
前記移動モジュールを作動させることにより本体部を搭載した状態のベース部を自走させ、前記第1の検知手段により予め定めた距離の範囲以内において人を検知したとき、前記最初の誘発動作の実行を開始するものであることを特徴とする。
本発明にかかるロボットの第二の形態は、前記第一の形態のロボットであって、前記最初の誘発動作は、前記コンピュータによって、前記アクチュエータを作動させ、前記本体部を前後または左右に傾倒させるものであり、見る人に対して動物的な動作を想像させる動作であることを特徴とする。
表現手段として、音声出力による発話など多数の形態があるが、本体部の動作生成用アクチュエータと、本体部とベース部とを連結し生物的な動きを生成するためのスプリングとにより形成することができる。
本発明にかかるロボットの第三の形態は、前記第一または第二の形態のロボットであって、前記移動モジュールは、埃を吸引するモジュールを備えるものであることを特徴とする。これにより、ロボットの移動自体にも有意義な目的を兼ね備えさせることができる。
本発明にかかるロボットの第四の形態は、前記第一~第三のいずれかの形態のロボットであって、外部処理装置を備え、前記第1の検知手段は、撮影手段によって映像を取得するものであって、人の存在、該人との距離および周囲の状況を前記映像によって検知するものであり、前記コンピュータは、前記映像を前記外部処理装置に送信するものであり、前記外部処理装置は、管理者における映像監視または操作を補助するために映像表示および操作信号の送信を可能とするものであることを特徴とする
本発明にかかるロボットの第五の形態は、前記第一~第四のいずれかの形態のロボットであって、前記意思表現手段は音声出力手段を含み、前記応答動作は、前記音声出力手段からお礼のメッセージを出力させるものであり、該メッセージは、特定言語による特定の意味を有しない比較的短い音による語であることを特徴する。
この特定言語「ロボット語」は、人の言語に翻訳の難しい例えば「モコー」「モコモン」などの発語であり、人にロボットの意思を推察させるものである。
本発明にかかるロボットの第六の形態は、前記第一~第四のいずれかの形態のロボットであって、前記意思表現手段は前記アクチュエータによる形状変化手段を含み、前記応答動作は、前記形状変化手段によるお礼のメッセージを出力させるものであり、該メッセージは、前記アクチュエータを作動させ、前記本体部を前後または左右に傾倒させるものであり、見る人に対して動物的な動作によるものであることを特徴する。
本発明にかかるロボットの第七の形態は、前記第一~第六のいずれかの形態のロボットであって、前記予め定めた距離は、7m以内の公共距離であることを特徴とする。
本発明のロボットであれば、人が近くにいないときに無駄な動きをしたり、遠くの人に無理な要求をしたりすることがなく、また、スプリングによる頼りない動きから、見る人に「弱さ」「不完全さ」を感じさせ、外観がゴミ箱のようであるが、自らゴミを拾えないもどかしさを見る者に感じさせ、人の援助を引き出すことができるものである。さらに、人がゴミを拾ってあげたときに、それに対する「お礼」のメッセージを送ることによって、人に、「ゴミを拾ってやってよかった」という気持ちを与えることができるものである。
本発明の一実施形態を示す概要説明図である。 本発明の機能を果たすための制御の関連性を示す説明図である。 本発明のロボットの動きを示すフローチャート図である。 本発明のロボットの動きを示すフローチャート図である。 本発明のロボットの動きを示すフローチャート図である。
以下に本発明の実施形態について詳細に説明する。図1は本発明の一実施形態を示す概要説明図であり、図2は本発明の機能を果たすための制御の関連性を示す説明図である。図2に示すように、人の検知、人との距離の認識、ゴミもしくは玩具のような拾得対象物の認識、拾得対象物通過検知センサーなどの情報を制御用コンピュータに導き、それに対応して、音声生成用スピーカ、本体部の動作生成用アクチュエータ、移動用モジュールなどを作動させる。
図3、図4、図5は、本発明のロボットの動きについての理解を助けるためのフローチャート図である。
本発明のロボットの構成は、前記の通りであるが、一実施形態を図1に沿って詳細に説明する。すなわち、このロボットには、上部にゴミもしくは玩具のような拾得対象物の投入口1と拾得対象物を格納する容器3を備えており、ゴミもしくは玩具のような拾得対象物が投入されたか否かを検知するための拾得対象物通過検知センサー2が設けられている。
また、人を検知し、人との距離を認識するためのカメラ4を有しており、かつ、拾得対象物を探索し認識することのできるセンサー(カメラ)4も備えている。この人を検知し距離を認識するカメラ4と、拾得対象物を認識するセンサー4とは、ひとつのカメラ4が兼ねる形を採っても良いが、それぞれ個別に専用のカメラを採用しても良い。さらには、オプションとして、周囲の障害物との距離を把握し壁の接近や壁との衝突を検知するためのセンサーを備えても良い。場合によっては、環境地図の作成や自己位置推定を行う機能を併せ備えても良い。
下部には、ロボットを移動させるための移動用モジュール10が設けられており、さらにオプションとして、床の埃吸引用モジュール9も設けられていても良い。床の埃吸引用モジュール9が設けられているときは、ロボットが部屋の中を動き回ったときに、床の埃を吸引するお掃除ロボットの機能を併せて発揮することができるものである。
このロボットの動きは、コンピュータ8により制御されており、ロボットの有する表現手段の内、音声出力による発語は、スピーカ6が担当し、ロボット本体の屈曲などの動きはアクチュエータ5が担当する。アクチュエータ5は、多機能のものでも良いが、2自由度程度のもので、本体部を2方向に屈曲できるような程度でも良い。本体部とベース部とを連結する部分には、スプリング7が用いられており、固く締結されていないことが重要である。
このロボットは、図3に示すように、カメラ4により、人を検知し、人との距離が、いわゆる公共距離以内(7メートル以内)になったことを認識した後にゴミなどの拾得対象物を集める動作に入るものである。
すなわち、ロボットとユーザーである人との距離については、エドワード・ホールが4つのタイプの距離(密接距離、個体距離、社会距離、公共距離)に分類して論じているが、このロボットには、このうち公共距離以内の距離であれば良いと考えられる。すなわち、7メートル以内の距離に人が認識できるか否かが、焦点となる。
例えば、図3に示すように、施設の屋内(ロビーや廊下)などで、壁や障害物を避けながら移動して、人を見つけたとしても、その人があまりに遠い場所にいるようであれば、その人を呼びつけても「迷惑な気持ち」を強く持たれてしまうことが考えられる。ロボットと人との距離が、適切な距離に入った時に、ゴミ集め動作に入ることとする。このロボットの場合には、ティッシュを渡すロボットよりは、若干距離感のある公共距離(3.5メートル~7メートル)が適切であると考えられる。図3に示す動作により、近くに人がいることを認識できたときは、図4もしくは図5に示すようにゴミや玩具などの拾得対象物を拾ってもらうべく動作を進めることになる。
前記のように、このゴミ箱ロボットの本体部とベース部とは、スプリング7により連結されているので、人に近づくための移動をするときなど、ユラユラ、ヨタヨタした生物的な動きをする。これにより、見る人に、「このロボットは生き物らしさと志向性を備えている」として、「志向的な構え」を引き出すことができる。さらに、アクチュエータにより、離散的動きを追加させることにより、「志向的な構え」を明確にすることも重要な要素になる。
「志向的な構え」を引き出すための振る舞いとしては、(a)目の前の対象(ゴミや人)に対して注意を向ける振る舞い。(b)対象(ゴミや人)を探し回る振る舞い。(c)人の顔を見つけたときに、それを追跡する振る舞い、を生成する。これらの振る舞いの生成には、ゴミ箱ロボットの上部の2自由度のアクチュエータによる探索動作の生成、カメラによる人の顔の検出、それを追従するためにカメラの視野の中心に人の顔が来るようにアクチュエータで調整することで実現する。
ロボットの表現手段としては、前記のように音声出力による発話があるが、本体部の屈曲行為も有効な表現手段である。まずは、人に接近して、対象者の顔を見上げる仕草(すなわち、上部を若干反らせるような屈曲行為)が、人を不快にさせにくいと思われ、推奨できる。ロボットの本体部を反らせる屈曲行為は、本体部の動作生成用アクチュエータと、本体部とベース部とを連結し生物的な動きを生成するためのスプリングによって形成されるものであり、これによって、人はロボットが人を見上げる仕草をしているように感じ、ゴミや玩具などの拾得対象物を拾うという人の行為を誘発することができる。
人に気づいてもらうための動作としては、人の顔を見上げる仕草の他に、拾得対象物の前に立ち止まり、拾得対象物を見つめるなどの仕草も有効と思われる。これらの屈曲動作をいくつか試み、なお、気づいてもらえないときには、特定言語であるロボット語による(例えば、「モコー」「モコモン」などの)音声出力による発話も、有効な表現手段である。ロボットから、人の言語により直接的な意思表示が示されるより、よく分からない「ロボット語」を用いることにより、人がロボットの意思を推察することになり、よりソフトな印象を与えることができる。
もちろん、人の言語での表現手段も有効な場合があるが、「ゴミがあるよ」とか「拾って下さい」などの直接的な表現は、極力避けたい。人の言語での表現手段としては、「ありがと」とか「たすかった」のような「お礼のメッセージ」に留めることを推奨する。
ロボットは、自分ではゴミもしくは玩具のような拾得対象物を拾えないので、人と拾得対象物の双方を検知したときに、人にロボットの存在を気づいてもらい、かつ、拾得対象物を拾って欲しいという意思を人に感じ取ってもらうことが必要なのである。
ロボットに、更に生き物らしさを感じさせるために、人の関わりに対して、応答を随伴的に返すことが重要である。これを実現するために、(a)人が近づいてきたら、その顔を検知して立ち止まる。(b)人がゴミ箱ロボットを見ていると認識したときは、その人に少し近づく。
人に近づくための駆動手段である移動モジュールとしては、例えば、iRobot Create(商品名)の左右のモータで車輪を駆動させるなどにより実現できる。
この人に近づくための移動速度は、0.5~3.0km/h程度であることが適切である。これより速いと、人は脅威に感じてしまう可能性があり、これより遅いと、人はロボットが近づいてきていることを認識できない可能性がある。
移動できる方向としては、前進、後退に加えて左右への旋回も行えることが便利である。近づきたいと意図した相手が左右のいずれかへずれている場合に、その人の方向に向くように旋回しながら近づくことができる。
また、人とロボットとの距離が、所定の公共距離内(7メートル以内)に入っても、人がロボットに対して、その存在を意識していないと判定したときは、ロボットは人に近づくための移動を中止する。これは、通行人が急いで通り過ぎるような場合、全くロボットのことを意識しない場合があり、そのような場合に人に近づくことは通行妨害となるだけでなく、危険でもあるからである。例えば、人が立ち止まっていても、ロボットに対して背を向けて、携帯電話を掛けているような場合もこの場合に該当する。
ロボットは、人に対して脅威を与えないように設定されるべきであり、近づくための移動中であっても、近づく相手が去って行ったような場合には、行動を中止し、探索的動きをしながら、元の位置まで後退することが望ましい。
また、オプションとして、ロボットに備えたカメラの映像を遠隔地に送り、そこでロボットが設置されているロビーの様子を監視したり、ネットワークの機能を利用して遠隔操作によりロボットの移動など動作をさせるような機能を備えても良い。遠隔監視が可能であれば、ロボットの配置位置が適切であるか否かの判断も可能であり、場合によっては、人のいる場所に合わせてロボットを配置するように移動を指示することもできる。
1 拾得対象物の投入口
2 拾得対象物通過検知センサー
3 拾得対象物の格納容器
4 カメラ
5 アクチュエータ
6 スピーカ
7 スプリング
8 制御コンピュータ
9 埃を吸引するモジュール
10 移動モジュール

Claims (7)

  1. 拾得対象物を収容することができる格納容器を有する本体部と、音声出力による発話および前記本体部の動きの少なくとも1つの行為により意思を表現する意思表現手段と、前記本体部の周囲の人を検知する第1の検知手段と、前記格納容器に拾得対象物が投入されたことを検知する第2の検知手段と、前記意思表現手段を制御するためのコンピュータとを備え、前記第1の検知手段により人が検知された場合に前記意思表現手段により拾得対象物を拾うという人の行為を誘発するための最初の誘発動作を実行し、前記最初の誘発動作を実行した後、前記格納容器に拾得対象物が投入されたことが前記第2の検知手段により検知されたときに、前記意思表現手段により人に対する応答動作を実行し、前記最初の誘発動作を実行した後、前記格納容器に拾得対象物が投入されたことが前記第2の検知手段により検知できないときに、前記意思表現手段により拾得対象物を拾うという人の行為を誘発するために他の誘発動作を選択的に実行するロボットにおいて、
    前記本体部を搭載するベース部と、
    前記ベース部に設置され、前記本体部を搭載した状態においてベース部を移動させるための移動モジュールと、
    前記本体部と前記ベース部との間に介在され、両者を連結するスプリングと、
    前記ベース部に対する前記本体部の相対的な位置関係を、前記スプリングに連結された範囲で変更するための駆動力を作用させ、前記本体部を2方向に屈曲できる2自由度のアクチュエータと
    を備え、
    前記第1の検知手段は、前記本体部の周囲の人を検知するとともに検出した人との距離を検出するものであり、
    前記コンピュータは、さらに、前記移動モジュールおよび前記アクチュエータの作動を制御するものであり、該コンピュータは、
    前記移動モジュールを作動させることにより本体部を搭載した状態のベース部を0.5~3.0km/hの範囲内の速度で自走させ、前記第1の検知手段により予め定めた距離の範囲以内において人を検知したとき、前記アクチュエータを作動させて、該第1の検知手段の中心に当該人の顔が来るように調整するとともに、前記本体部を反らせる屈曲行為を生成して当該人の顔を見上げる仕草となる前記最初の誘発動作の実行を開始するものである
    ことを特徴とするロボット。
  2. 前記最初の誘発動作は、
    前記コンピュータによって、前記アクチュエータを作動させ、前記本体部を前後または左右に傾倒させるものであり、見る人に対して動物的な動作を想像させる動作であることを特徴とする請求項1に記載のロボット。
  3. 前記移動モジュールは、埃を吸引するモジュールを備えるものであることを特徴とする請求項1または2に記載のロボット。
  4. 外部処理装置を備え、
    前記第1の検知手段は、撮影手段によって映像を取得するものであって、人の存在、該人との距離および周囲の状況を前記映像によって検知するものであり、
    前記コンピュータは、前記映像を前記外部処理装置に送信するものであり、
    前記外部処理装置は、管理者における映像監視または操作を補助するために映像表示および操作信号の送信を可能とするものである
    ことを特徴とする請求項1~3のいずれかに記載のロボット。
  5. 前記意思表現手段は音声出力手段を含み、前記応答動作は、前記音声出力手段からお礼のメッセージを出力させるものであり、該メッセージは、特定言語による特定の意味を有しない比較的短い音による語であることを特徴する請求項1~4のいずれかに記載のロボット。
  6. 前記意思表現手段は前記アクチュエータによる形状変化手段を含み、前記応答動作は、前記形状変化手段によるお礼のメッセージを出力させるものであり、該メッセージは、前記アクチュエータを作動させ、前記本体部を前後または左右に傾倒させるものであり、見る人に対して動物的な動作によるものであることを特徴する請求項1~4のいずれかに記載のロボット。
  7. 前記予め定めた距離は、3.5m~7mの公共距離であることを特徴とする請求項1~6のいずれかに記載のロボット。
JP2019069636A 2019-04-01 2019-04-01 ロボット Active JP7320240B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019069636A JP7320240B2 (ja) 2019-04-01 2019-04-01 ロボット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019069636A JP7320240B2 (ja) 2019-04-01 2019-04-01 ロボット

Publications (2)

Publication Number Publication Date
JP2020168040A JP2020168040A (ja) 2020-10-15
JP7320240B2 true JP7320240B2 (ja) 2023-08-03

Family

ID=72745262

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019069636A Active JP7320240B2 (ja) 2019-04-01 2019-04-01 ロボット

Country Status (1)

Country Link
JP (1) JP7320240B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7351827B2 (ja) * 2020-12-17 2023-09-27 トヨタ自動車株式会社 ごみ収集システム
WO2024004623A1 (ja) * 2022-06-29 2024-01-04 ソニーグループ株式会社 ロボット及びロボットの制御方法
JP7227668B1 (ja) * 2022-09-12 2023-02-22 株式会社Cspホールディングス 走行玩具

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006102861A (ja) 2004-10-04 2006-04-20 Advanced Telecommunication Research Institute International ロボットおよびロボットシステム
JP2007190659A (ja) 2006-01-20 2007-08-02 Advanced Telecommunication Research Institute International ロボット遠隔操作システム
JP2017159410A (ja) 2016-03-10 2017-09-14 大日本印刷株式会社 案内ロボット制御システム、プログラム及び案内ロボット
WO2017169826A1 (ja) 2016-03-28 2017-10-05 Groove X株式会社 お出迎え行動する自律行動型ロボット
WO2018047802A1 (ja) 2016-09-08 2018-03-15 Groove X株式会社 自然な距離感を保つ自律行動型ロボット
JP2018126810A (ja) 2017-02-06 2018-08-16 川崎重工業株式会社 ロボットシステム及びロボット対話方法
WO2019054464A1 (ja) 2017-09-15 2019-03-21 Groove X株式会社 コミカルに動作するロボットおよびその構造

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0580443U (ja) * 1992-04-08 1993-11-02 卯三郎 桜井 ゴミ箱機能付き掃除機

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006102861A (ja) 2004-10-04 2006-04-20 Advanced Telecommunication Research Institute International ロボットおよびロボットシステム
JP2007190659A (ja) 2006-01-20 2007-08-02 Advanced Telecommunication Research Institute International ロボット遠隔操作システム
JP2017159410A (ja) 2016-03-10 2017-09-14 大日本印刷株式会社 案内ロボット制御システム、プログラム及び案内ロボット
WO2017169826A1 (ja) 2016-03-28 2017-10-05 Groove X株式会社 お出迎え行動する自律行動型ロボット
WO2018047802A1 (ja) 2016-09-08 2018-03-15 Groove X株式会社 自然な距離感を保つ自律行動型ロボット
JP2018126810A (ja) 2017-02-06 2018-08-16 川崎重工業株式会社 ロボットシステム及びロボット対話方法
WO2019054464A1 (ja) 2017-09-15 2019-03-21 Groove X株式会社 コミカルに動作するロボットおよびその構造

Also Published As

Publication number Publication date
JP2020168040A (ja) 2020-10-15

Similar Documents

Publication Publication Date Title
JP7320240B2 (ja) ロボット
KR102103624B1 (ko) 자율 생활 능력을 갖는 휴머노이드 로봇
US11330951B2 (en) Robot cleaner and method of operating the same
KR20190106891A (ko) 인공 지능 모니터링 장치 및 그의 동작 방법
EP3456487A2 (en) Robot, method of controlling the same, and program
JP2006082150A (ja) ロボット装置及びその行動制御方法
CN210155626U (zh) 信息处理装置
KR20190086631A (ko) 사용자의 동작을 고려하여 청소하는 인공 지능 장치 및 그 방법
US11519456B2 (en) Joint structure appropriate for robot joint
JP2024023193A (ja) 情報処理装置及び情報処理方法
KR20210047434A (ko) 로봇 청소기 및 그의 동작 방법
WO2019138619A1 (ja) 情報処理装置、情報処理方法、およびプログラム
KR20190104008A (ko) 인공 지능을 이용하여, 청소하는 로봇 청소기 및 그 동작 방법
KR20190104488A (ko) 인공 지능을 이용하여, 오브젝트의 이동을 관리하는 인공 지능 로봇 및 그의 동작 방법
JP2024009862A (ja) 情報処理装置、情報処理方法、およびプログラム
KR20190105214A (ko) 인공 지능을 통해 구속 상황을 회피하는 로봇 청소기 및 그의 동작 방법
JPWO2019131696A1 (ja) 移動機構を収容するロボット
JP2009131914A (ja) ロボット制御システム
KR20200132654A (ko) 로봇 및 그의 제어 방법
JP2013099800A (ja) ロボット、ロボットの制御方法及び制御プログラム
JP7428141B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP7273566B2 (ja) ロボット、ロボットの制御方法及びプログラム
WO2020022122A1 (ja) 情報処理装置、行動決定方法及びプログラム
JP2004130427A (ja) ロボット装置及びロボット装置の動作制御方法
JP2007000938A (ja) 行動融和型ロボット装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220401

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230405

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230714

R150 Certificate of patent or registration of utility model

Ref document number: 7320240

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150