JP2020000279A - 仮想キャラクタを想定する自律行動型ロボット - Google Patents
仮想キャラクタを想定する自律行動型ロボット Download PDFInfo
- Publication number
- JP2020000279A JP2020000279A JP2018119717A JP2018119717A JP2020000279A JP 2020000279 A JP2020000279 A JP 2020000279A JP 2018119717 A JP2018119717 A JP 2018119717A JP 2018119717 A JP2018119717 A JP 2018119717A JP 2020000279 A JP2020000279 A JP 2020000279A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- fairy
- motion
- virtual character
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000033001 locomotion Effects 0.000 claims abstract description 269
- 230000009471 action Effects 0.000 claims abstract description 112
- 230000007246 mechanism Effects 0.000 claims abstract description 39
- 230000007613 environmental effect Effects 0.000 claims abstract description 26
- 238000012545 processing Methods 0.000 claims description 152
- 230000008451 emotion Effects 0.000 claims description 70
- 238000012546 transfer Methods 0.000 claims description 43
- 230000003190 augmentative effect Effects 0.000 claims description 7
- 230000005540 biological transmission Effects 0.000 claims description 6
- 238000004891 communication Methods 0.000 description 93
- 238000000034 method Methods 0.000 description 73
- 230000008569 process Effects 0.000 description 65
- 238000007726 management method Methods 0.000 description 48
- 238000013500 data storage Methods 0.000 description 36
- 238000006243 chemical reaction Methods 0.000 description 32
- 238000010586 diagram Methods 0.000 description 29
- 230000006399 behavior Effects 0.000 description 25
- 230000006870 function Effects 0.000 description 24
- 230000036651 mood Effects 0.000 description 17
- 206010037180 Psychiatric symptoms Diseases 0.000 description 15
- 230000004044 response Effects 0.000 description 14
- 210000003128 head Anatomy 0.000 description 12
- 241000282412 Homo Species 0.000 description 11
- 230000000694 effects Effects 0.000 description 8
- 238000005259 measurement Methods 0.000 description 7
- 230000003542 behavioural effect Effects 0.000 description 6
- 238000013459 approach Methods 0.000 description 5
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 230000007423 decrease Effects 0.000 description 4
- 208000019901 Anxiety disease Diseases 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 3
- 230000036506 anxiety Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 229920005989 resin Polymers 0.000 description 3
- 239000011347 resin Substances 0.000 description 3
- 238000009423 ventilation Methods 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000035876 healing Effects 0.000 description 2
- 230000001404 mediated effect Effects 0.000 description 2
- 229910052751 metal Inorganic materials 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 230000003014 reinforcing effect Effects 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000086550 Dinosauria Species 0.000 description 1
- JOYRKODLDBILNP-UHFFFAOYSA-N Ethyl urethane Chemical compound CCOC(N)=O JOYRKODLDBILNP-UHFFFAOYSA-N 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 241000238631 Hexapoda Species 0.000 description 1
- HBBGRARXTFLTSG-UHFFFAOYSA-N Lithium ion Chemical compound [Li+] HBBGRARXTFLTSG-UHFFFAOYSA-N 0.000 description 1
- 206010044565 Tremor Diseases 0.000 description 1
- 229920006311 Urethane elastomer Polymers 0.000 description 1
- 230000000172 allergic effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 208000010668 atopic eczema Diseases 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000003930 cognitive ability Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000001816 cooling Methods 0.000 description 1
- 239000013013 elastic material Substances 0.000 description 1
- 229920001971 elastomer Polymers 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910001416 lithium ion Inorganic materials 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 239000005060 rubber Substances 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 210000000697 sensory organ Anatomy 0.000 description 1
- 239000007779 soft material Substances 0.000 description 1
- 238000001179 sorption measurement Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000032258 transport Effects 0.000 description 1
- 230000002747 voluntary effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
- B25J5/007—Manipulators mounted on wheels or on carriages mounted on wheels
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0003—Home robots, i.e. small robots for domestic use
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0016—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0044—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with a computer generated representation of the environment of the vehicle, e.g. virtual reality, maps
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Game Theory and Decision Science (AREA)
- Medical Informatics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Business, Economics & Management (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Theoretical Computer Science (AREA)
- Toys (AREA)
- Manipulator (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
図2(a)は、ロボット100の正面外観図である。図2(b)は、ロボット100の側面外観図である。
本実施形態におけるロボット100は、外部環境および内部状態に基づいて行動を決定する自律行動型のロボットである。外部環境は、カメラやサーモセンサなど各種のセンサにより認識される。内部状態はロボット100の感情を表現するさまざまなパラメータとして定量化される。ロボット100は、オーナー家庭の家屋内を行動範囲とする。以下、ロボット100に関わる人間を「ユーザ」とよぶ。
図3に示すように、ロボット100のボディ104は、ベースフレーム308、本体フレーム310、一対の樹脂製のホイールカバー312および外皮314を含む。ベースフレーム308は、金属からなり、ボディ104の軸芯を構成するとともに内部機構を支持する。ベースフレーム308は、アッパープレート332とロアプレート334とを複数のサイドプレート336により上下に連結して構成される。複数のサイドプレート336間には通気が可能となるよう、十分な間隔が設けられる。ベースフレーム308の内方には、バッテリー118、制御回路342および各種アクチュエータが収容されている。
ロボット100は、内部センサ128、通信機126、記憶装置124、プロセッサ122、駆動機構120およびバッテリー118を含む。プロセッサ122と記憶装置124は、制御回路342に含まれる。各ユニットは電源線130および信号線132により互いに接続される。バッテリー118は、電源線130を介して各ユニットに電力を供給する。各ユニットは信号線132により制御信号を送受する。バッテリー118は、リチウムイオン二次電池であり、ロボット100の動力源である。
ロボットシステム300は、ロボット100、サーバ200および複数の外部センサ114を含む。ロボット100およびサーバ200の各構成要素は、CPU(Central Processing Unit)および各種コプロセッサなどの演算器、メモリやストレージといった記憶装置、それらを連結する有線または無線の通信線を含むハードウェアと、記憶装置に格納され、演算器に処理命令を供給するソフトウェアによって実現される。コンピュータプログラムは、デバイスドライバ、オペレーティングシステム、それらの上位層に位置する各種アプリケーションプログラム、また、これらのプログラムに共通機能を提供するライブラリによって構成されてもよい。以下に説明する各ブロックは、ハードウェア単位の構成ではなく、機能単位のブロックを示している。
ロボット100の機能の一部はサーバ200により実現されてもよいし、サーバ200の機能の一部または全部はロボット100により実現されてもよい。
サーバ200は、通信部204、データ処理部202およびデータ格納部206を含む。
通信部204は、外部センサ114およびロボット100との通信処理を担当する。データ格納部206は各種データを格納する。データ処理部202は、通信部204により取得されたデータおよびデータ格納部206に格納されるデータに基づいて各種処理を実行する。データ処理部202は、通信部204およびデータ格納部206のインタフェースとしても機能する。
ロボット100は、複数の動作パターン(モーション)を有する。手106を震わせる、蛇行しながらオーナーに近づく、首をかしげたままオーナーを見つめる、などさまざまなモーションが定義される。
以下、いつ、どのモーションを選ぶか、モーションを実現する上での各アクチュエータの出力調整など、ロボット100の行動制御に関わる設定のことを「行動特性」と総称する。ロボット100の行動特性は、モーション選択アルゴリズム、モーションの選択確率、モーションファイル等により定義される。
位置管理部208は、ロボット100の位置座標を特定する。状態管理部244は、充電率や内部温度、プロセッサ122の処理負荷などの各種物理状態など各種内部パラメータを管理する。また、状態管理部244は、ロボット100の感情(寂しさ、好奇心、承認欲求など)を示すさまざまな感情パラメータを管理する。これらの感情パラメータは常に揺らいでいる。感情パラメータに応じてロボット100の移動目標地点が変化する。たとえば、寂しさが高まっているときには、ロボット100はユーザのいるところを移動目標地点として設定する。
快・不快行為は、ユーザの応対行為が、生物として心地よいものであるか不快なものであるかにより判別される。たとえば、抱っこされることはロボット100にとって快行為であり、蹴られることはロボット100にとって不快行為である。肯定・否定反応は、ユーザの応対行為が、ユーザの快感情を示すものか不快感情を示すものであるかにより判別される。抱っこされることはユーザの快感情を示す肯定反応であり、蹴られることはユーザの不快感情を示す否定反応である。
ロボット100は、通信部142、データ処理部136、データ格納部148、内部センサ128および駆動機構120を含む。
通信部142は、通信機126(図4参照)に該当し、外部センサ114、サーバ200および他のロボット100との通信処理を担当する。データ格納部148は各種データを格納する。データ格納部148は、記憶装置124(図4参照)に該当する。データ処理部136は、通信部142により取得されたデータおよびデータ格納部148に格納されているデータに基づいて各種処理を実行する。データ処理部136は、プロセッサ122およびプロセッサ122により実行されるコンピュータプログラムに該当する。データ処理部136は、通信部142、内部センサ128、駆動機構120およびデータ格納部148のインタフェースとしても機能する。
ロボット100のモーション格納部160には、サーバ200のモーション格納部232から各種モーションファイルがダウンロードされる。モーションは、モーションIDによって識別される。前輪102を収容して着座する、手106を持ち上げる、2つの前輪102を逆回転させることで、あるいは、片方の前輪102だけを回転させることでロボット100を回転行動させる、前輪102を収納した状態で前輪102を回転させることで震える、ユーザから離れるときにいったん停止して振り返る、などのさまざまなモーションを表現するために、各種アクチュエータ(駆動機構120)の動作タイミング、動作時間、動作方向などがモーションファイルにおいて時系列定義される。
データ格納部148には、個人データ格納部218からも各種データがダウンロードされてもよい。
ロボット100の動作制御部150は、サーバ200の動作制御部222と協働してロボット100のモーションを決める。一部のモーションについてはサーバ200で決定し、他のモーションについてはロボット100で決定してもよい。また、ロボット100がモーションを決定するが、ロボット100の処理負荷が高いときにはサーバ200がモーションを決定するとしてもよい。サーバ200においてベースとなるモーションを決定し、ロボット100において追加のモーションを決定してもよい。モーションの決定処理をサーバ200およびロボット100においてどのように分担するかはロボットシステム300の仕様に応じて設計すればよい。
まとめると、ロボット100は内部センサ128によりユーザの行為を物理的情報として取得し、サーバ200の認識部212は快・不快を判定する。また、サーバ200の認識部212は特徴ベクトルに基づくユーザ識別処理を実行する。
図8は、サーバ200及びスマートフォン500における妖精関連の機能ブロック図である。図8では、サーバ200の各種機能のうち、主にスマートフォン500との連携に関わるものを示している。
本実施形態におけるサーバ200のデータ処理部202は、仮想キャラクタ投入部250、仮想キャラクタ位置管理部252、仮想キャラクタ情報提供部254および仮想キャラクタ処理部256を含む。
仮想キャラクタ投入部250は、仮想空間へ妖精を投入する処理を行う。具体的には、仮想キャラクタ投入部250は、妖精を制御するための妖精プログラムをロードして、仮想キャラクタ処理部256の機能をスタートさせる。妖精プログラムは、妖精のキャラクタ毎に用意される。仮想キャラクタ投入部250は、複数の妖精プログラムの中から選択して読み込む。妖精プログラムは、妖精の外観を決める情報や、妖精を識別するための識別情報を保持する。仮想キャラクタ位置管理部252は、仮想空間における妖精の位置を管理する。仮想キャラクタ情報提供部254は、妖精に関する情報をスマートフォン500およびロボット100へ提供する。仮想キャラクタ処理部256は、妖精に関する制御を行う。
スマートフォン500は、内部センサ502、データ処理部504、通信部506およびデータ格納部508を含む。内部センサ502は、カメラ510を含む。カメラ510は、たとえばAR表示に用いられる背景画像を撮影する。
(サーバ200)
本実施形態におけるサーバ200のデータ処理部202は、更にデータ移動部246を含む。データ移動部246は、後述する形態においてデータ移動処理を行う。
本実施形態におけるロボット100のデータ処理部136は、現実入力系170、仮想I/F(インタフェース)系172、ロボット制御系174およびデータ移動部184を有する。
現実入力系170は、現実空間に関する環境情報を取得する。仮想I/F系172は、仮想空間とのデータ入出力インタフェースである。ロボット制御系174は、ロボット100の行動を制御する。データ移動部184は、後述する形態においてデータ移動処理を行う。現実入力系170、仮想I/F系172およびロボット制御系174については、図10に関連して後述する。
モーション格納部160は、上述のとおり各種モーションファイルを格納する。イベントテーブル格納部162は、イベントテーブルを格納する。イベントテーブルについては、図11に関連して後述する。親密度格納部164は、ユーザに対する親密度および妖精に対する親密度を格納する。感情格納部166は、ロボットの感情を示すパラメータを格納する。マップ格納部168は、仮想位置と現実位置との対応を示すマップを格納する。
現実入力系170は、計測データ入力部152および現実認識部154を含む。計測データ入力部152は、内部センサ128によって計測されたデータを取得する。現実認識部154は、計測データ入力部152において取得された計測データに基づいて環境に関するイベント(以下、環境イベントという)を生成する。
妖精が仮想空間に投入される処理について説明する。図13は、妖精が仮想空間に投入される処理過程を示すシーケンス図である。
図6(a)に示した状況において、スマートフォン500の操作受付部522は、ユーザによる妖精投入の操作を受け付ける(S11)。たとえば、ユーザがスマートフォン500の画面に表示された妖精リストにおいて妖精名を選択することによって、仮想空間に投入させたい妖精が特定される。
続いて、妖精が移動する処理について説明する。図15は、妖精が移動する処理過程を示すシーケンス図である。この例では、スマートフォン500のアプリケーション520からの指示を受けて妖精位置が変更される。
続いて、妖精が踊りのような動作を行う処理について説明する。仮想キャラクタ処理部256が自発的に妖精の動作を開始させてもよいが、ここではスマートフォン500からの指示に従って妖精が動作を開始する形態について説明する。
ロボット100の動作制御部150は、図16のS28で特定した未処理のイベントが妖精動作通知イベントであるか否かを判定する(S43)。
次に、妖精がロボット100へ行動命令を転送する処理について説明する。図19は、ロボット行動命令が転送される処理過程を示すシーケンス図である。
図1で説明したように、ユーザがロボット100に何かの行動をさせようとする場合に、ロボット100に直接命令するのではなく、妖精を介してロボット100へ命令する。そのために、スマートフォン500の操作受付部522は、ロボット行動命令を妖精に転送させるための指示操作を受け付ける(S49)。たとえば、ユーザが、スマートフォン500の画面に表示された行動命令リストにおいてロボット100にさせたい行動の種類を選択することによって、ロボット行動命令を妖精に転送させる指示を行うようにする。この例における行動種類は、たとえば「ユーザへの接近」、「妖精への接近」、「踊る」あるいは「歌う」などである。
ロボット100の動作制御部150は、図16のS28で特定した未処理のイベントがロボット行動命令イベントであるか否かを判定する(S54)。
続いて、環境イベントが発生した場合の処理について説明する。図21は、図20の動作制御処理の続きを示すフローチャートである。
ロボット100の動作制御部150は、図16のS28で特定した未処理のイベントが環境イベントであるか否かを判定する(S61)。
続いて、ユーザによる妖精の視認を所定処理の契機とする応用例について説明する。ここでは、ユーザがスマートフォン500をかざして妖精を視認しているときにデータの移動が行われるように、ロボットシステム300が動作する例を示す。
スマートフォン500のデータ移動部528は、データ移動のイベントが発生したか否かを判定する(S68)。たとえば、スマートフォン500のカメラ510によって撮影されたロボット100の写真がSNSサーバへ自動投稿されるタイミングで、データ移動のイベントが発生する。この例の場合、移動対象データ格納部530に格納される移動対象データは、スマートフォン500のカメラ510によって撮影された写真データである。
サーバ200のデータ移動部246は、データ移動のイベントが発生したか否かを判定する。たとえば、写真データがサーバ200からSNSサーバへ自動投稿されるタイミングで、データ移動のイベントが発生する。前提として、ロボット100のカメラで撮影された写真データが、サーバ200に転送され、サーバ200のデータ格納部206に格納されているものとする。
ロボット100のデータ移動部184は、データ移動のイベントが発生したか否かを判定する。たとえば、ロボット100のカメラで撮影された写真データがロボット100からSNSサーバへ自動投稿されるタイミングで、データ移動のイベントが発生する。写真データは、事前に撮影されたものであってもよいし、データ移動のタイミングで撮影されたものであってもよい。
その他の態様として、家屋内にユーザがいない場合に、自動的に妖精が投入されるようにしてもよい。例えば、サーバ200の認識部212によって無人状態が所定時間以上続いたと認識した場合に、仮想キャラクタ投入部250が自動的に妖精処理を起動するように制御する。このようにすれば、ロボット100がモーションを起こす契機を絶やさないようにできる。
いずれにしてもロボット100の行動制御プログラムは、ロボット100とは異なる記録媒体(サーバ、CD−ROMなど)から提供されることにより、ロボット100にインストールされてもよい。
Claims (17)
- 現実空間に関する環境情報を取得する現実入力系と、
仮想空間に位置する仮想キャラクタによって転送される行動命令を取得する仮想入力系と、
環境情報に基づいて自律的にロボットの第1モーションを決定し、かつ行動命令に従って他律的にロボットの第2モーションを決定する動作制御部と、
第1モーションおよび第2モーションを実行する駆動機構と、を備えることを特徴とする自律行動型ロボット。 - 前記仮想入力系は、仮想キャラクタの仮想空間における位置を示す通知を取得し、
前記動作制御部は、仮想キャラクタの仮想空間における位置に基づいて自律的にロボットの第3モーションを決定し、
前記駆動機構は、第3モーションを実行することを特徴とする請求項1記載の自律行動型ロボット。 - 第3モーションは、仮想キャラクタの仮想空間における位置に対応する現実空間における位置へ向う移動であることを特徴とする請求項2記載の自律行動型ロボット。
- 前記仮想入力系は、仮想キャラクタの動作を示す通知を取得し、
前記動作制御部は、仮想キャラクタの動作に基づいて自律的にロボットの第4モーションを決定し、
前記駆動機構は、第4モーションを実行することを特徴とする請求項1から3のいずれかに記載の自律行動型ロボット。 - 第4モーションは、仮想キャラクタの動作を模倣する行動であることを特徴とする請求項4記載の自律行動型ロボット。
- 前記現実入力系は、環境情報に基づく第1イベントを生成し、
前記仮想入力系は、行動命令に関する第2イベントを生成し、
前記動作制御部は、第1イベントと第2イベントを同じ系統として処理することによって、第1モーションおよび第2モーションを決定することを特徴とする請求項1から5のいずれかに記載の自律行動型ロボット。 - 前記動作制御部は、仮想キャラクタに対する親密度に応じて、第2モーションを決定することを特徴とする請求項1から6のいずれか記載の自律行動型ロボット。
- 第2モーションを実行した後の状況に応じて仮想キャラクタに対する親密度を調整する親密度管理部を、更に備えることを特徴とする請求項7記載の自律行動型ロボット。
- 前記動作制御部は、ロボットの感情に従って、第2モーションを決定することを特徴とする請求項1から8のいずれか記載の自律行動型ロボット。
- 第2モーションを実行した後の状況に応じてロボットの感情を調整する感情管理部を、更に備えることを特徴とする請求項9記載の自律行動型ロボット。
- 自律行動型ロボットとユーザ端末と管理装置とを含むロボット制御システムであって、
前記自律行動型ロボットは、
現実空間に関する環境情報を入力する現実入力系と、
仮想キャラクタによって転送される行動命令を入力する仮想入力系と、
環境情報に基づいて自律的にロボットの第1モーションを決定し、かつ行動命令に従って他律的にロボットの第2モーションを決定する動作制御部と、
第1モーションおよび第2モーションを実行する駆動機構と、を備え、
前記ユーザ端末は、
仮想キャラクタにロボットへ転送させる行動命令を出力する命令出力部を備え、
前記管理装置は、
仮想空間における仮想キャラクタを制御する仮想キャラクタ処理部を備え、
前記仮想キャラクタ処理部は、前記ユーザ端末から出力された行動命令を前記自律行動型ロボットへ転送することを特徴とするロボット制御システム。 - 前記ユーザ端末は、
撮影画像を取得するカメラと、
仮想空間における仮想キャラクタの位置に応じて、仮想キャラクタを撮影画像に重ねた拡張現実画面を表示する表示処理部と、を更に備え、
ユーザが前記ユーザ端末の拡張現実画面に表示された仮想キャラクタを視認したタイミングで、ロボットにおいてデータ送信を開始するとともに、前記ユーザ端末においてデータを運ぶ姿の仮想キャラクタを拡張現実画面に表示することを特徴とする請求項11記載のロボット制御システム。 - 撮影画像を取得するカメラと、
仮想空間における仮想キャラクタの位置に応じて、仮想キャラクタを撮影画像に重ねた拡張現実画面を表示する表示処理部と、
仮想キャラクタにロボットへ転送させる行動命令を出力する命令出力部と、
を備えることを特徴とするユーザ端末。 - 仮想空間における仮想キャラクタを制御する仮想キャラクタ処理部を備えた管理装置であって、
前記仮想キャラクタ処理部は、仮想キャラクタに自律行動型ロボットへ転送させる行動命令をユーザ端末から受け付けた場合に、当該行動命令を当該自律行動型ロボットへ転送することを特徴とする管理装置。 - 現実空間に関する環境情報を入力する機能と、
仮想キャラクタによって転送される行動命令を入力する機能と、
環境情報に基づいて自律的にロボットの第1モーションを決定し、かつ行動命令に従って他律的にロボットの第2モーションを決定する機能と、
第1モーションおよび第2モーションを駆動機構に実行させる機能と、をコンピュータに発揮させることを特徴とする自律行動型ロボットの行動制御プログラム。 - 仮想空間における仮想キャラクタの位置に応じて、カメラにより取得された撮影画像に仮想キャラクタを重ねた拡張現実画面を表示する機能と、
仮想キャラクタに自律行動型ロボットへ転送させる行動命令を出力する機能と、をコンピュータに発揮させることを特徴とするプログラム。 - 仮想空間における仮想キャラクタを制御する機能と、
仮想キャラクタに自律行動型ロボットへ転送させる行動命令をユーザ端末から受け付けた場合に、当該行動命令を当該自律行動型ロボットへ転送する機能と、をコンピュータに発揮させることを特徴とするプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018119717A JP7298860B2 (ja) | 2018-06-25 | 2018-06-25 | 仮想キャラクタを想定する自律行動型ロボット |
US16/443,762 US11207774B2 (en) | 2018-06-25 | 2019-06-17 | Autonomously acting robot that imagines virtual character |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018119717A JP7298860B2 (ja) | 2018-06-25 | 2018-06-25 | 仮想キャラクタを想定する自律行動型ロボット |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020000279A true JP2020000279A (ja) | 2020-01-09 |
JP7298860B2 JP7298860B2 (ja) | 2023-06-27 |
Family
ID=68981349
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018119717A Active JP7298860B2 (ja) | 2018-06-25 | 2018-06-25 | 仮想キャラクタを想定する自律行動型ロボット |
Country Status (2)
Country | Link |
---|---|
US (1) | US11207774B2 (ja) |
JP (1) | JP7298860B2 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022044843A1 (ja) * | 2020-08-28 | 2022-03-03 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及び、プログラム |
WO2024043434A1 (ko) * | 2022-08-24 | 2024-02-29 | 삼성전자주식회사 | 로봇 및 그 제어 방법 |
JP7518791B2 (ja) | 2021-03-31 | 2024-07-18 | ミサワホーム株式会社 | 宅内表示システム |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10427305B2 (en) * | 2016-07-21 | 2019-10-01 | Autodesk, Inc. | Robotic camera control via motion capture |
US11590660B2 (en) * | 2018-09-26 | 2023-02-28 | Disney Enterprises, Inc. | Interactive autonomous robot configured for deployment within a social environment |
CN109726693B (zh) * | 2019-01-02 | 2021-05-07 | 京东方科技集团股份有限公司 | 用于评估设备环境噪声的方法、装置、介质及电子设备 |
JPWO2020158642A1 (ja) * | 2019-01-31 | 2021-12-02 | ソニーグループ株式会社 | ロボットの制御装置、ロボットの制御方法、及びプログラム |
KR20210020312A (ko) * | 2019-08-14 | 2021-02-24 | 엘지전자 주식회사 | 로봇 및 그의 제어 방법 |
CN111309453A (zh) * | 2020-02-13 | 2020-06-19 | 佛山智能装备技术研究院 | 分布式部署的智能机器人系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001212782A (ja) * | 2000-01-31 | 2001-08-07 | Sony Corp | ロボット装置及びロボット装置の制御方法 |
JP2002337079A (ja) * | 2001-05-11 | 2002-11-26 | Sony Corp | 情報処理装置および方法、記録媒体、並びにプログラム |
JP2004283958A (ja) * | 2003-03-20 | 2004-10-14 | Sony Corp | ロボット装置、その行動制御方法及びプログラム |
JP2010149277A (ja) * | 1999-01-20 | 2010-07-08 | Sony Corp | ロボット装置及び動作制御方法 |
WO2017169826A1 (ja) * | 2016-03-28 | 2017-10-05 | Groove X株式会社 | お出迎え行動する自律行動型ロボット |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11203009A (ja) * | 1998-01-20 | 1999-07-30 | Sony Corp | 情報処理装置および方法、並びに提供媒体 |
JPH11212934A (ja) * | 1998-01-23 | 1999-08-06 | Sony Corp | 情報処理装置および方法、並びに提供媒体 |
JP2000323219A (ja) | 1999-05-10 | 2000-11-24 | Sony Corp | 接続装置及びロボットシステム |
WO2001009863A1 (en) * | 1999-07-31 | 2001-02-08 | Linden Craig L | Method and apparatus for powered interactive physical displays |
CN1942289A (zh) * | 2004-04-16 | 2007-04-04 | 松下电器产业株式会社 | 机器人、提示输出装置、机器人控制系统、机器人控制方法、机器人控制程序及集成电路 |
US8287372B2 (en) * | 2006-09-28 | 2012-10-16 | Mattel, Inc. | Interactive toy and display system |
KR100968944B1 (ko) * | 2009-12-14 | 2010-07-14 | (주) 아이알로봇 | 로봇 동기화 장치 및 그 방법 |
US20150309316A1 (en) * | 2011-04-06 | 2015-10-29 | Microsoft Technology Licensing, Llc | Ar glasses with predictive control of external device based on event input |
US9643314B2 (en) * | 2015-03-04 | 2017-05-09 | The Johns Hopkins University | Robot control, training and collaboration in an immersive virtual reality environment |
JP2018176386A (ja) * | 2017-04-19 | 2018-11-15 | 富士ゼロックス株式会社 | 情報処理装置及びプログラム |
JP7128842B2 (ja) * | 2017-12-14 | 2022-08-31 | 株式会社ソニー・インタラクティブエンタテインメント | エンターテインメントシステム、ロボット装置およびサーバ装置 |
-
2018
- 2018-06-25 JP JP2018119717A patent/JP7298860B2/ja active Active
-
2019
- 2019-06-17 US US16/443,762 patent/US11207774B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010149277A (ja) * | 1999-01-20 | 2010-07-08 | Sony Corp | ロボット装置及び動作制御方法 |
JP2001212782A (ja) * | 2000-01-31 | 2001-08-07 | Sony Corp | ロボット装置及びロボット装置の制御方法 |
JP2002337079A (ja) * | 2001-05-11 | 2002-11-26 | Sony Corp | 情報処理装置および方法、記録媒体、並びにプログラム |
JP2004283958A (ja) * | 2003-03-20 | 2004-10-14 | Sony Corp | ロボット装置、その行動制御方法及びプログラム |
WO2017169826A1 (ja) * | 2016-03-28 | 2017-10-05 | Groove X株式会社 | お出迎え行動する自律行動型ロボット |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022044843A1 (ja) * | 2020-08-28 | 2022-03-03 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及び、プログラム |
JP7518791B2 (ja) | 2021-03-31 | 2024-07-18 | ミサワホーム株式会社 | 宅内表示システム |
WO2024043434A1 (ko) * | 2022-08-24 | 2024-02-29 | 삼성전자주식회사 | 로봇 및 그 제어 방법 |
Also Published As
Publication number | Publication date |
---|---|
JP7298860B2 (ja) | 2023-06-27 |
US11207774B2 (en) | 2021-12-28 |
US20190389058A1 (en) | 2019-12-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7298860B2 (ja) | 仮想キャラクタを想定する自律行動型ロボット | |
US11148294B2 (en) | Autonomously acting robot that maintains a natural distance | |
CN110024000B (zh) | 使瞳部变化的行为自主型机器人 | |
US11498222B2 (en) | Autonomously acting robot that stares at companion | |
JP6572943B2 (ja) | ロボット、ロボットの制御方法及びプログラム | |
JP7236142B2 (ja) | 自律行動型ロボット | |
CN111602143A (zh) | 基于用户的人工智能(ai)模型的移动自主个人伴侣 | |
JP7128842B2 (ja) | エンターテインメントシステム、ロボット装置およびサーバ装置 | |
US11712796B2 (en) | Robot that acts comically, and structure thereof | |
JP6671577B2 (ja) | 人を識別する自律行動型ロボット | |
JP7420387B2 (ja) | 衣装を着用するロボット | |
JP2019162715A (ja) | 外皮を装着するロボット | |
JP2019214119A (ja) | ロボットの関節に好適なジョイント構造 | |
JP2024055866A (ja) | 内部状態または外部環境に応じて自律的に行動選択するロボット | |
JP2019171566A (ja) | 柔らかな外皮を有するロボット | |
JP2020151070A (ja) | ロボット及びロボットの制御方法 | |
JP6579538B2 (ja) | 衣装製作支援装置 | |
WO2022044843A1 (ja) | 情報処理装置、情報処理方法、及び、プログラム | |
US12122039B2 (en) | Information processing device and information processing method | |
WO2023037608A1 (ja) | 自律移動体、情報処理方法、及び、プログラム | |
JP7298861B2 (ja) | 日常生活を記録する自律行動型ロボット | |
US20210197393A1 (en) | Information processing device, information processing method, and program | |
JP2024150558A (ja) | ロボット | |
JP2003190650A (ja) | 疑似生物機器 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20200309 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210624 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220527 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220628 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220829 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230105 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230217 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230509 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230608 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7298860 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |