JP7188471B2 - 仮想生物制御システム、仮想生物制御方法およびプログラム - Google Patents

仮想生物制御システム、仮想生物制御方法およびプログラム Download PDF

Info

Publication number
JP7188471B2
JP7188471B2 JP2021013585A JP2021013585A JP7188471B2 JP 7188471 B2 JP7188471 B2 JP 7188471B2 JP 2021013585 A JP2021013585 A JP 2021013585A JP 2021013585 A JP2021013585 A JP 2021013585A JP 7188471 B2 JP7188471 B2 JP 7188471B2
Authority
JP
Japan
Prior art keywords
virtual
communication unit
virtual creature
signal
creature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021013585A
Other languages
English (en)
Other versions
JP2021072944A (ja
Inventor
秀行 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JP2021072944A publication Critical patent/JP2021072944A/ja
Application granted granted Critical
Publication of JP7188471B2 publication Critical patent/JP7188471B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/825Fostering virtual characters
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H30/00Remote-control arrangements specially adapted for toys, e.g. for toy vehicles
    • A63H30/02Electrical arrangements
    • A63H30/04Electrical arrangements using wireless transmission
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0003Home robots, i.e. small robots for domestic use
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Toys (AREA)
  • Manipulator (AREA)

Description

本開示は、仮想生物制御システム、仮想生物制御方法およびプログラムに関する。
遠隔地に住む家族において、コミュニケーションの手段を持つことは重要であり、電話やテレビ電話、メール、メッセージアプリケーションなどのような遠隔地間の直接的なコミュニケーション手段が既に充実している。
また、近年、ロボットとのコミュニケーションやロボットによるサービス提供システムが提案されている。例えば下記特許文献1では、複数の空間それぞれに、ロボットと、ロボットを制御するロボットルータ(携帯端末)と、空間内のロボットの管理と空間内外の環境を把握する空間マネージャとを備え、利用者の属性情報と環境情報を連携し、動的な対応を可能にするネットワークロボットシステムが提供されている。かかるシステムでは、ロボットルータが空間外の他の空間のロボットを制御シナリオに基づいて操作することも可能であり、例えばロボットルータを携帯した利用者が会社にいる場合の自宅などのロボットも制御できる。
また、下記特許文献2では、自律型ロボットが制御に利用する各種の知識情報を知識IDに対応付けてサーバ管理するシステムが記載されている。これにより、第1のロボットの動作状態が予め決められた所定の状態の場合(例えば故障状態)、第1のロボットの知識情報を第2のロボットに割り当てることで、ロボットの交換を容易に行うことができる。
また、下記特許文献3には、送受信双方の部屋の内部を模したGUI画面上にあたかもペットが行き来して手紙を配達するかのようなアニメーション表示を伴って、電子メールを送受信するとともに、このアニメーション表示される電子ペットを仮想的に飼育する送受信装置が記載されている。
特開2005-111637号公報 特開2005-111603号公報 特開平11-65964号公報
しかしながら、上述した複数地点のロボットは、それぞれの地点において独立して存在する別個のロボットとして認識されるものであって、複数地点のユーザが同じ仮想生物に接しているといった認識を与えることはできなかった。
そこで、複数の仮想生物を連動して制御し、仮想生物を通した複数地点間における間接的なコミュニケーションを促進することが可能な仮想生物制御システムおよび仮想生物制御方法を提案する。
本開示によれば、少なくともいずれか一つがハードウェアである複数の仮想生物の現在の状態の情報を受信すると共に、当該複数の仮想生物の動作を制御する信号を送信する通信部と、特定のユーザによって前記複数の仮想生物が同時に視認されないように前記複数の仮想生物のうちの少なくともいずれか一つの仮想生物の動作を制御する信号を生成すると共に当該信号を当該一つの仮想生物に送信するように前記通信部を制御する制御部と、を備える、仮想生物制御システムを提案する。
本開示によれば、少なくともいずれか一つがハードウェアである複数の仮想生物と、前記複数の仮想生物の現在の状態の情報を受信すると共に、当該複数の仮想生物の動作を制御する信号を送信する通信部と、特定のユーザによって前記複数の仮想生物が同時に視認されないように前記複数の仮想生物のうちの少なくともいずれか一つの仮想生物の動作を制御する信号を生成し、当該信号を当該一つの仮想生物に送信するように前記通信部を制御する制御部と、を備える、仮想生物制御システムを提案する。
本開示によれば、プロセッサが、少なくともいずれか一つがハードウェアである複数の仮想生物の現在の状態の情報を受信すると共に、当該複数の仮想生物の動作を制御する信号を通信部により送信することと、特定のユーザによって前記複数の仮想生物が同時に視認されないように前記複数の仮想生物のうちの少なくともいずれか一つの仮想生物の動作を制御する信号を生成すると共に当該信号を当該一つの仮想生物に送信するように前記通信部を制御することと、を含む、仮想生物制御方法を提案する。
以上説明したように本開示によれば、複数の仮想生物を連動して制御し、仮想生物を通した複数地点間における間接的なコミュニケーションを促進することが可能となる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本実施形態による情報処理システムの概要を説明する図である。 本実施形態による情報処理システムの全体構成を説明する図である。 本実施形態によるペットロボットのバーチャル化の一例を示す図である。 本実施形態によるペットロボットの構成の一例を示すブロック図である。 本実施形態による小屋装置の構成の一例を示すブロック図である。 本実施形態によるサーバの構成の一例を示すブロック図である。 本実施形態によるペットロボットの協調動作制御処理を示すシーケンス図である。 本実施形態による小屋に帰る動作処理を示すシーケンス図である。 本実施形態によるユーザ登録処理を示すシーケンス図である。 本実施形態による家族登録した場合のペットロボットの協調動作制御処理を示すシーケンス図である。 本実施形態による愛嬌を振りまく動作制御を示すシーケンス図である。 本実施形態によるしつけ制御処理を示すシーケンス図である。 本実施形態によるペットロボットに物を渡した際の動作処理を示すシーケンス図である。 本実施形態によるペットロボットに物を渡した際の動作処理を示すシーケンス図である。 本実施形態による天候を考慮した演出を行う動作処理を示すシーケンス図である。 本実施形態による家族の視界を考慮した動作制御処理を示すシーケンス図である。 本実施形態による視認状況に応じた動作制御処理を示すフローチャートである。 本実施形態による複数地点間のコミュニケーション発生時の動作制御処理を示すシーケンス図である。 本実施形態によるペットロボットによるコミュニケーション発生通知の動作制御処理を示すシーケンス図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、説明は以下の順序で行うものとする。
1.本開示の一実施形態による情報処理システムの概要
2.構成
2-1.ペットロボットの構成
2-2.小屋装置の構成
2-3.サーバの構成
3.動作処理
3-1.遠隔地の協調動作制御
3-2.小屋に帰る動作の制御
3-3.ユーザ登録
3-4.家族の呼びかけに応じた動作制御
3-5.愛嬌を振りまく動作
3-6.しつけ制御
3-7.物を遠隔地へ持っていく動作
3-8.天候を考慮した演出
3-9.周辺の人の有無に応じた動作制御
3-10.視認状況に応じた動作制御
3-11.複数地点間のコミュニケーションに応じた動作制御
4.まとめ
<<1.本開示の一実施形態による情報処理システムの概要>>
まず、本開示の一実施形態による情報処理システムの概要について説明する。図1は、本実施形態による情報処理システムの概要を説明する図である。図1に示すように、本実施形態による情報処理システム(仮想生物制御システム)では、A地点、B地点といった複数地点に、ペットロボット1(1A、1B)と、ペットロボット1を収納する小屋装置3(3A、3B)とを備える。ペットロボット1は、外観形状が犬等の動物に模して形成された、エンターテインメント性を有するロボット装置であって、本明細書において仮想生物の一例として用いる。また、ペットロボット1は、目や脚等を自律的に動作させて動物のような仕草を表出することが可能である。また、小屋装置3は、ペットロボット1を収納する収納部の一例である。
(背景)
ここで、家族間のコミュニケーションに関し、例えば家族で犬や猫等のペットを飼っている場合、家族間でペットに関する話題が生まれたり、ペットを通して同じ経験を共有できたりするため、ペットが間接的にコミュニケーションを促進する役割を担う。しかしながら、一匹のペットが間接的なコミュニケーション促進に役立つのは家族が同じ場所に住んでいる場合に限られ、一匹のペットを遠隔地間で飼うことは困難である。
そこで、本実施形態による情報処理システムでは、遠隔地にそれぞれ配置された複数のペットロボットを、物理的に同じ時刻に1つしか視認されようサーバ管理することで、遠隔地にも関わらず、あたかも遠隔地間で一匹のペットを共有して飼っているように見せることを可能とする。
例えば、図1に示すように、A地点でペットロボット1AがユーザAと戯れている際に、B地点のユーザBが呼び掛けると、ペットロボット1Aは小屋装置3Aに入ってユーザAの視界からいなくなってから、B地点の小屋装置3Bに収納されていたペットロボット1Bが小屋装置3Bから出る。このように、ペットロボット1Aとペットロボット1Bが、ユーザAとユーザBに同時に視認されないようにすることで、複数ユーザ間で1匹のペットロボットを飼っているように認識させることが可能となり、ペットロボット1に関する話題がユーザAとユーザB(例えば離れて暮らす祖母と孫)との間に生まれ、コミュニケーションが促進される。
次に、ペットロボット1A、1Bの制御を行う本実施形態による情報処理システムの全体構成について図2を参照して説明する。図2は、本実施形態による情報処理システムの全体構成を説明する図である。
図2に示すように、本実施形態による情報処理システムは、ペットロボット1A、1B、小屋装置3A、3Bおよびサーバ4を含む。サーバ4は、ネットワーク5を介して、ペットロボット1A、1B、小屋装置3A、3Bと接続し、データの送受信が可能である。
サーバ4は、ペットロボット1A、1Bの状況、具体的にはペットロボット1がそれぞれ小屋装置3(収納部)の内側にいるか(小屋に収納されているか)、外にいるかを認識し、ペットロボット1A、1Bの動作を制御する。また、サーバ4は、複数のペットロボット1が各地点で取得した知識情報(家族の顔、所定の動作等)を蓄積し、複数のペットロボット1が同じ知識情報を共有するようにする。小屋装置3は、ペットロボット1が身を隠すための場所として存在し、ペットロボット1を充電する機能も有する。例えばペットロボット1が小屋装置3から出て家族に愛嬌をふりまいている際(尻尾を振る、家族が居る方へ歩いて行く等)、バッテリー残量が少なくなると、自ら小屋装置3の中に入って充電を開始することが可能である。
なお、本実施形態では「仮想生物」の一例としてペットロボット1を用いるが、本実施形態はこれに限定されず、例えば図3に示すように、タブレット端末やスマートフォン等の表示端末7に表示される仮想的な実体、すなわちソフトウェアプログラムによるタイニーロボット71であってもよい。複数地点における各仮想生物のうち、少なくとも1つがロボットで、他にソフトウェアプログラムによるタイニーロボットが含まれていてもよい。より具体的には、例えば家族の一人が表示端末7からペットロボットを呼び出した場合、小屋装置3の外にいるリアルロボット(ペットロボット1)は自律的に小屋装置3の中に入って充電を始めると共に、表示端末7の画面タブレット上に仮想的な実体であるタイニーロボット71が現れる。その後、別の家族が小屋装置3に向かってペットロボット1を呼び出すと、表示端末7に表示されているタイニーロボット71が画面上からいなくなり、リアルロボットであるペットロボット1が小屋装置3から出てきて、同時に出現しないよう制御される。タイニーロボット71が画面上からいなくなる制御は、例えば画面上に表示された小屋に入るアニメーション、または画面の端へ移動して画面上からフレームアウトするアニメーション等が想定される。このように、リアルロボットおよびタイニーロボットといった形態の異なる複数のロボットが存在する場合であっても、複数ユーザに同時に視認されないよう制御することで、複数ユーザに一匹のペットとして認識させることが可能となる。
以上、本実施形態による情報処理システムの概要について説明した。続いて、本実施形態による情報処理システムに含まれる各装置の構成について図面を参照して具体的に説明する。
<<2.構成>>
<2-1.ペットロボットの構成>
図4は、本実施形態によるペットロボット1の構成の一例を示すブロック図である。図4に示すように、ペットロボット1は、制御部10、Wi-Fi(登録商標)通信部11、LTE通信部12、Bluetooth(登録商標)通信部13、位置情報取得部14、カメラ15、音声入力部16、駆動部18、タッチセンサ19、記憶部20、表示部21、音声出力部22、加速度センサ23、および角速度センサ24を有する。
(制御部10)
制御部10は、演算処理装置および制御装置として機能し、各種プログラムに従ってペットロボット1内の動作全般を制御する。制御部10は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。また、制御部10は、使用するプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)を含んでいてもよい。
また、本実施形態による制御部10は、Wi-Fi通信部11、LTE通信部12、Bluetooth通信部13、位置情報取得部14、カメラ15、音声入力部16、タッチセンサ19、加速度センサ23、または角速度センサ24等から得た各種情報に応じて自動的に動作する自律制御を行い得る。
Wi-Fi通信部11は、IEEE802.11規格による通信方式を用いるデータ送受信部である。Wi-Fi通信部11は、ネットワーク5との無線接続の他、屋内位置測位を行い得る。具体的には、Wi-Fi通信部11は、周囲のWi-Fiアクセスポイントから発信される電波をスキャンしてビーコン信号(SSID、MACアドレス、および電波強度を含む)を取得する。次いで、ビーコン信号に基づいてWi-Fiアクセスポイントの位置を(ネットワーク上から)取得し、Wi-Fiアクセスポイントとの距離を電波強度に基づいて算出し、ペットロボット1の現在地を測定する。
LTE通信部12は、第3世代の移動体通信方式に続く新たな通信方式であるLTE(Long Term Evolution)方式を用いるデータ送受信部である。LTE通信部12は、ネットワーク5と無線接続し、サーバ4とデータの送受信を行い得る。
Bluetooth通信部13は、近距離無線通信であって、IEEE802.15.1規格による通信方式を用いるデータ送受信部である。Bluetooth通信部13は、機器発見手順としてInquiry(問い合わせ)手順が規定され、周辺機器から送信されるビーコンにより他の機器を発見することができる。例えば、Bluetooth通信部13は、小屋装置3から同報送信されるビーコンを受信し、ビーコンに含まれる固有識別子や電波強度に基づいて、小屋装置3との位置関係を推定する。
位置情報取得部14は、外部からの取得信号に基づいてペットロボット1の現在位置を検知する機能を有する。具体的には、例えば位置情報取得部14は、GPS(Global Positioning System)測位部により実現され、GPS衛星からの電波を受信してペットロボット1が存在している位置を検知し、検知した位置情報を制御部10に出力する。かかる位置情報は、サーバ4に送信され、ペットロボット1の位置ログとして蓄積される。また、位置情報取得部14は、GPSの他、例えばWi-Fi、Bluetooth、携帯電話・PHS・スマートフォン等との送受信、または近距離通信等により位置を検知するものであってもよい。
カメラ15は、撮像レンズ、絞り、ズームレンズ、およびフォーカスレンズ等により構成されるレンズ系、レンズ系に対してフォーカス動作やズーム動作を行わせる駆動系、レンズ系で得られる撮像光を光電変換して撮像信号を生成する固体撮像素子アレイ等を有する。固体撮像素子アレイは、例えばCCD(Charge Coupled Device)センサアレイや、CMOS(Complementary Metal Oxide Semiconductor)センサアレイにより実現されてもよい。
音声入力部16は、ユーザの音声や周囲の環境音を収音し、音声信号を制御部10に出力する。音声入力部16は、マイクロホンと、そのマイクロホンで得られた音声信号を増幅処理するマイクアンプ部と、音声信号にデジタル変換するA/D変換器により実現され、音声信号を制御部10に出力する。
駆動部18は、ペットロボット1の各関節における自由度を実現するための機能モジュールであり、それぞれの関節におけるロール、ピッチ、ヨーなど軸毎に設けられた複数の駆動ユニットで構成される。各駆動ユニットは、所定軸回りの回転動作を行なうモーターと、モーターの回転位置を検出するエンコーダーと、エンコーダーの出力に基づいてモーターの回転位置や回転速度を適応的に制御するドライバーの組み合わせで構成される。
タッチセンサ19は、ユーザからの「撫でる」や「叩く」といった物理的な働きかけにより受けた圧力を検出する。なおペットロボット1は、タッチセンサ19の代わりに、あるいは追加して、圧力センサを有していてもよい。
記憶部20は、制御部10が各種処理を実行するためのプログラム等を記憶する。また、記憶部20は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置等を含むストレージ装置により構成される。
表示部21は、ペットロボット1の表面を覆うよう設けられる電子ペーパー等の表示装置である。表示部21は、ペットロボット1の毛並の状態や洋服等の表示を行うことができる。
音声出力部22は、スピーカと、そのスピーカに対するアンプ回路により実現される。また、音声出力部22は、鳴き声等の音声を出力する。
加速度センサ23および角速度センサ24は、ペットロボット1の向きや動きの加速度を検出する。
以上、本実施形態によるペットロボット1の構成について具体的に説明した。なお本実施形態によるペットロボット1の構成はこれに限定されず、例えばWi-Fi通信部11、LTE通信部12、およびBluetooth通信部13は、それぞれ他の通信方式を用いてもよい。
また、ペットロボット1は、前方に位置する物体までの距離を測定するための距離センサとして上述したカメラ15を用いてもよいし、別途、赤外線や超音波等の方式を用いたセンサを備えてもよい。
また、ペットロボット1は、例えば図2に示すように、胴体部ユニット200と、胴体部ユニット200の前後左右にそれぞれ連結された脚部ユニット201と、胴体部ユニット200の前端部および後端部にそれぞれ連結された頭部ユニット202および尻尾部ユニット203から構成されていてもよい。また、胴体部ユニット200には、CPU(Central Processing Unit)、DRAM(Dynamic Random Access Memory)、フラッシュROM(Read 0nly Memory)、PC(Personal Computer)カードインターフェース回路および信号処理回路が内部バスを介して相互に接続されることにより形成された制御部10と、ペットロボット1の動力源としてのバッテリとが収納されている。また、胴体部ユニット200には、Wi-Fi通信部11、LTE通信部12、Bluetooth通信部13、位置情報取得部14、記憶部20、加速度センサ23、および角速度センサ24なども収納されている。
また、頭部ユニット202には、外部の状況を撮像するためのカメラ15と、ユーザからの「撫でる」や「叩く」といった物理的な働きかけにより受けた圧力を検出するためのタッチセンサ19と、外部音を集音するための音声入力部16と、鳴き声等の音声を出力するための音声出力部22と、前方に位置する物体までの距離を測定するための距離センサ(図示せず)となどがそれぞれ所定位置に配置されている。カメラ15は、ペットロボット1の「目」に相当する位置に設けられてもよい。なおカメラ15を頭部ユニット202の額部分に配置し、「目」に相当する位置にはLED(Light Emitting Diode)(図示せず)を配置してもよい。
さらに、各脚部ユニット201の関節部分や各脚部ユニット201および胴体部ユニット200の各連結部分、頭部ユニット202および胴体部ユニット200の連結部分、並びに尻尾部ユニット203の尻尾の連結部分などにはそれぞれ自由度数分のアクチュエータおよびポテンショメータが配設されている。例えば、アクチュエータはサーボモータを構成として有している。サーボモータの駆動により、脚部ユニット201が制御されて、目標の姿勢あるいは動作に遷移する。
以上説明したペットロボット1の具体的な構成例については、例えば特開2002-157596号公報を参照する。特開2002-157596号公報は、その全ての内容について、本参照により本明細書に組み込まれる(The entire contents of JP 2002-157596 are hereby incorporated by reference.)。
また、上述したペットロボット1の構成は、ペットロボット1がタイニーロボット71の場合にも応用可能である。具体的には、タイニーロボット71を表示する表示端末7が、上記制御部10、Wi-Fi通信部11、LTE通信部12、Bluetooth通信部13、位置情報取得部14、カメラ15、音声入力部16、タッチセンサ19、記憶部20、表示部21、および音声出力部22に相当する構成を有する。タイニーロボット71は表示部21に表示され、ユーザとインタラクションを行い得る。
<2-2.小屋装置の構成>
次に、本実施形態による小屋装置3の構成について説明する。図5は、本実施形態による小屋装置3の構成の一例を示すブロック図である。
図5に示すように、本実施形態による小屋装置3は、制御部30、Wi-Fi通信部31、Bluetooth通信部32、カメラ33、記憶部34、プリンタ部35、3Dプリンタ部36、充電部37を有する。
制御部30は、演算処理装置および制御装置として機能し、各種プログラムに従って小屋装置3内の動作全般を制御する。制御部30は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。また、制御部30は、使用するプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)を含んでいてもよい。
また、本実施形態による制御部30は、カメラ33から取得した撮像画像をWi-Fi通信部31からサーバ4へ送信するよう制御する。また、制御部30は、サーバ4から受信した撮像画像をプリンタ部35または3Dプリンタ部36からプリントするよう制御する。
Wi-Fi通信部31は、IEEE802.11規格による通信方式を用いるデータ送受信部である。Wi-Fi通信部31は、ネットワーク5と無線接続し、サーバ4とデータの送受信を行う。また、Wi-Fi通信部31は、屋内位置測位により小屋装置3の位置を取得し得る。
Bluetooth通信部32は、近距離無線通信であって、IEEE802.15.1規格による通信方式を用いるデータ送受信部である。Bluetooth通信部32は、周囲にビーコンを同報送信し、小屋装置3の位置を周囲に知らせることが可能である。また、Bluetooth通信部32は、ペットロボット1と通信し、ペットロボット1の位置や状況の情報を取得することが可能である。
カメラ33は、撮像レンズ、絞り、ズームレンズ、およびフォーカスレンズ等により構成されるレンズ系、レンズ系に対してフォーカス動作やズーム動作を行わせる駆動系、レンズ系で得られる撮像光を光電変換して撮像信号を生成する固体撮像素子アレイ等を有する。固体撮像素子アレイは、例えばCCD(Charge Coupled Device)センサアレイや、CMOS(Complementary Metal Oxide Semiconductor)センサアレイにより実現されてもよい。カメラ33は、小屋装置3の内部に設けられ、収納されたペットロボット1がくわえる物体を撮像する。
記憶部34は、制御部30が各種処理を実行するためのプログラム等を記憶する。また、記憶部34は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置等を含むストレージ装置により構成される。また、本実施形態による記憶部34は、ペットロボット1の位置や状況の情報を保存する。
プリンタ部35は、画像データに基づいて印字出力する機構を有する。
3Dプリンタ部36は、3次元データに基づいて物体を生成する機構を有する。
充電部37は、ペットロボット1を充電する機構を有する。
以上、本実施形態による小屋装置3の構成について具体的に説明した。上述したカメラ33、プリンタ部35、3Dプリンタ部36、および充電部37は、小屋装置3の内部に配置される。
<2-3.サーバの構成>
次に、本実施形態によるサーバ4の構成について図6を参照して説明する。図6は、本実施形態によるサーバ4の構成の一例を示すブロック図である。
図6に示すように、本実施形態によるサーバ4は、制御部40、通信部41、および記憶部42を有する。
制御部40は、演算処理装置および制御装置として機能し、各種プログラムに従ってサーバ4内の動作全般を制御する。制御部10は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。また、制御部10は、使用するプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)を含んでいてもよい。
また、本実施形態による制御部40は、状況認識部401、ペット制御部402、顔認識部403、音声認識部404、音声合成部406、動作学習部407、物体認識部408、および天候情報取得部409として機能する。
状況認識部401は、各ペットロボット1および各小屋装置3から送信された情報に基づいて、各ペットロボット1の状況を認識する。
ペット制御部402は、制御信号を各ペットロボット1に送信して各ペットロボット1の動作を制御する。具体的には、ペット制御部402は、特定のユーザによって複数のペットロボット1が同時に視認されないように複数のペットロボット1のうちの少なくともいずれか一つのペットロボット1の動作を制御する信号を生成し、当該一つのペットロボット1に送信するように制御する。
顔認識部403は、ペットロボット1により撮像された撮像画像を解析して顔画像の認識を行う。また、顔認識部403は、記憶部42に記憶されているユーザ顔画像と比較し、撮像画像に写る人物を識別することも可能である。
音声認識部404は、ペットロボット1により収音された音声信号を解析してユーザ発話をテキスト化し、発話テキストの形態素解析および意味解析などを行う。
音声合成部406は、ペットロボット1から出力する音声信号を生成する。
動作学習部407は、ペットロボット1の動作を学習し、学習結果を記憶部42に記憶する。例えば動作学習部407は、ユーザ発話に対してペットロボット1に所定の動作をランダムにさせた際に、ユーザからポジティブなフィードバックを得ると、当該動作が正しいものであったと解し、発話内容と動作を紐付けて記憶部42に登録する。
物体認識部408は、撮像画像を解析して撮像画像に写る物体の認識を行う。例えば物体認識部408は、小屋装置3により撮像された撮像画像を解析してペットロボット1がくわえて来た物を認識することが可能である。
天候情報取得部409は、ネットワーク上の他サーバ(図示せず)から天候情報を取得する。取得された天候情報は、例えばペットロボット1の表面に設けられた表示部21において、A地点とB地点の間の天候が雨だった場合に毛並が濡れているような表示にする際に用いられる。
通信部41は、有線/無線により他の装置との間でデータの送受信を行うための通信モジュールである。例えば通信部41は、ネットワーク5を介して各地点のペットロボット1および小屋装置3とデータの送受信を行う。より具体的には、通信部41は、ペットロボット1の現在の状態(位置情報や、小屋の中にいるか外にいるか、フリーモードで動作中か等)を受信したり、ペットロボット1を制御する信号(本明細書ではコマンドとも称す)を送信したりする。
記憶部42は、制御部40が各種処理を実行するためのプログラム等を記憶する。また、記憶部42は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置等を含むストレージ装置により構成される。
<<3.動作処理>>
続いて、本実施形態による情報処理システムの動作処理について図7~図19を参照して説明する。
<3-1.遠隔地の協調動作制御>
まず、図7を参照して基本的な制御としてフリーモードの協調動作制御について説明する。各ペットロボット1に特別な用事が発生していない場合、サーバ4は適当なタイミングでペットロボット1が遠隔地間を移動して小屋の外を歩くフリーモード制御を行う。
図7は、本実施形態によるペットロボットの協調動作制御処理を示すシーケンス図である。図7に示すように、まず、サーバ4は、状況認識部401により、各地点におけるペットロボット1の状況認識を行う(ステップS103)。具体的には、例えば状況認識部401は、ペットロボット1A、1Bの位置情報、駆動状態、および小屋装置3A、3Bの位置情報を取得し、ペットロボット1と小屋装置3の位置関係からペットロボット1が小屋装置3の中にいるか外にいるかを認識する。若しくは、状況認識部401は、小屋装置3に設けられた、ペットロボット1が小屋の中に収納されているか否かを検知可能なセンサ(またはカメラ33)の検知結果に基づいて、ペットロボット1が小屋装置3の中にいるか外にいるかを認識する。ここでは、例えばA地点のペットロボット1Aが小屋の外にいて、B地点のペットロボット1Bが小屋の中に収納されている状況(スリープ状態)を認識する。
次に、サーバ4は、ペット制御部402により、ランダムまたはプログラムされたタイミングで移動フラグを立てる(ステップS106)。
次いで、移動フラグが立つと(ステップS109/Yes)、ペット制御部402は、ペットロボット1Aに対して小屋に戻るよう制御する(ステップS112)。具体的には、ペット制御部402は、小屋に帰る動作を指示するコマンドを通信部41からペットロボット1Aに送信する。
次に、ペットロボット1Aは、サーバ4からのコマンドに従って、自律的に小屋に帰る動作を行う(ステップS115)。小屋に帰る動作の詳細は、図8を参照して次に説明する。
続いて、ペットロボット1Aは、小屋に帰る動作が完了したこと(スリープ状態になったこと)をサーバ4へ通知する(ステップS118)。
次いで、サーバ4は、ペットロボット1Aから小屋に帰る動作の完了通知(スリープ状態になったことを示す通知)を受け取ると、ペットロボット1Bに対して、小屋から出る動作を指示するコマンドを送信する(ステップS121)。
そして、ペットロボット1Bは、サーバ4からのコマンドに従って、小屋装置3Bから自律的に外に出て周囲を歩いたり顔認識した人物に近付いたり等の動作を行う。
以上説明したように、遠隔地に複数のペットロボット1がいる場合に、複数地点でペットロボット1が同時に小屋装置3から出現しないよう制御することで、1体のペットロボットが複数地点を移動しているように演出することができる。なおこのような動作制御は、リアルロボットの制御に限定されず、タブレット端末等の表示端末7上に表示されるタイニーロボット71に対しても同様に行われる。
<3-2.小屋に帰る動作の制御>
次に、上記ステップS115に示した小屋に帰る動作の制御について図8を参照して説明する。図8は、本実施形態による小屋に帰る動作処理を示すシーケンス図である。
図8に示すように、まず、ペットロボット1および小屋装置3は、それぞれ自身の位置情報をサーバ4へ送信する(ステップS133、ステップS136)。位置情報の送信タイミングは特に限定しないが、例えばサーバ4からリクエストがあった場合や、小屋に帰る動作の指示があった場合、若しくは定期的に送ってもよい。ペットロボット1は、例えば位置情報取得部14やWi-Fi通信部11により現在位置を取得し、サーバ4へ送信する。また、小屋装置3は、例えばWi-Fi通信部31により現在位置を取得し、サーバ4へ送信する。
次に、サーバ4は、小屋装置3に近付くようペットロボット1を制御する(ステップS139)。具体的には、例えばサーバ4は、小屋装置3の位置情報と共に、当該位置に近付くよう指示するコマンドをペットロボット1に送信する。
次いで、ペットロボット1は、サーバ4からのコマンドに従って、小屋装置3の位置に向かって移動する(ステップS142)。具体的には、ペットロボット1は、駆動部18を制御して自律的に小屋装置3の位置に向かって移動する。
次に、ペットロボット1は、小屋の位置近くに到着すると(ステップS145/Yes)、小屋装置3のBluetooth通信部32から同報送信されているビーコンを受信する。
次いで、ペットロボット1は、小屋装置3から送信されたビーコンを受信すると、カメラ15により周辺を撮像し(ステップS151)、撮像画像をサーバ4へ送信する(ステップS154)。
続いて、サーバ4の物体認識部408は、撮像画像から小屋装置3を認識する(ステップS157)。これにより、サーバ4は、ペットロボット1に対して小屋装置3がどの方向および距離に位置するかをより正確に把握することができる。
次に、サーバ4のペット制御部402は、撮像画像から認識した小屋装置3の方向へペットロボット1を誘導するよう制御する(ステップS160)。具体的には、例えばペット制御部402は、小屋装置3の方向および距離に基づいて小屋装置3へ移動するよう指示するコマンドを通信部41からペットロボット1へ送信する。
次いで、ペットロボット1は、サーバ4からのコマンドに従って、小屋装置3へさらに近付いて小屋装置3の中に入る。
以上、ペットロボット1が小屋装置3に自律的に帰る動作を行い際の制御処理について説明した。なお上述した例では、小屋装置3およびペットロボット1の位置情報、Bluetoothビーコン、および撮像画像を組み合わせて小屋装置3への誘導制御を行っているが、本実施形態はこれに限定されず、他の方式でペットロボット1と小屋装置3の位置を把握し、ペットロボット1を小屋装置3の中へ自走させてもよい。
<3-3.ユーザ登録>
続いて、ペットロボット1のユーザ登録について図9を参照して説明する。図9は、本実施形態によるユーザ登録処理を示すシーケンス図である。
図9に示すように、まず、サーバ4は、ペットロボット1Aに対して起動制御を行い(ステップS203)、ペットロボット1Aが起動する(ステップS206)。
次に、ペットロボット1Aはカメラ15により周辺を撮像し(ステップS209)、撮像画像をサーバ4へ送信する(ステップS212)。
次いで、サーバ4は、顔認識部403により撮像画像に対して顔認識を行う(ステップS215)。
次に、撮像画像から顔を認識すると(ステップS218)、サーバ4の制御部40は、家族として登録する(ステップS221)。具体的には、制御部40は、認識した顔画像や顔の特徴量を記憶部42に記憶する。このように、例えば購入直後に最初に認識した人物を家族と認識して登録することができる。
次いで、さらにペットロボット1Aから撮像画像が送信されると(ステップS224)、サーバ4は、顔認識部403により顔認識を行う(ステップS227)。
次に、サーバ4の制御部40は、顔認識結果に基づいて、撮像画像に登録済みの家族と一緒に他の人物の顔が認識された場合(ステップS230/Yes)、認識した新たな人物を家族として登録する(ステップS233)。このように、家族と一緒にいる人物を家族として認識し、登録することが可能となる。
以上説明したステップS203~S233に示す家族登録処理を、サーバ4はペットロボット1Bとの間でも同様に行う(ステップS236)。これにより、地点Bに居る家族も登録することができる。地点Bにおいても起動後に最初に認識した人物を家族として登録し、その後は家族と一緒に居る人物を家族として登録していく。
なお、上記「家族」とは、ペットロボット1が愛嬌を振りまいたり指示を聞いたりする対象であって、家族と一緒に居る友達を家族として認識し、登録してもよい。
また、サーバ4は、家族の音声特徴量を登録することも可能である。例えばサーバ4は、ペットロボット1に対して家族が話し掛けている際にペットロボット1により撮像された撮像画像および収音した音声情報を受信し、これを解析し、当該家族に紐付く音声特徴量として顔画像と共に記憶部42に記憶する。
<3-4.家族の呼びかけに応じた動作制御>
続いて、家族登録が行われている場合におけるフリーモード制御の一例について図10を参照して説明する。図10は、本実施形態による家族登録した場合のペットロボット1の協調動作制御処理を示すシーケンス図である。
図10に示すように、まず、サーバ4は、状況認識部401により、各地点におけるペットロボット1の状況認識を行う(ステップS303)。ここでは、例えばA地点のペットロボット1Aが小屋の外にいて、B地点のペットロボット1Bが小屋の中に収納されている状況(スリープ状態)を認識する。
次に、ペットロボット1Bは、小屋装置3Bの中に居る状態で継続的に周辺の音声を取得し(ステップS306)、サーバ4へ音声情報を送信する(ステップS309)。
次いで、サーバ4は、音声認識部404により、ペットロボット1から受信した音声を認識する(ステップS312)。
次に、サーバ4の制御部40は、認識結果に基づいて、家族から呼びかけられたか否かを判断する(ステップS315)。具体的には、制御部40は、記憶部42に登録されている家族の音声特徴量(声質等)に基づいて、家族の声か否かを認識し、さらに家族からの呼び掛け(ペットロボット1Bの名前を呼んだり、「おいで!」「出ておいで!」等の声掛け)を認識する。
次いで、家族から呼びかけられたと判断した場合(ステップS315/Yes)、サーバ4のペット制御部402は、ペットロボット1Aに対して小屋に戻るよう制御する(ステップS318)。
次に、ペットロボット1は、小屋に戻る動作を行い(ステップS321)、小屋に帰る動作が完了したことをサーバ4へ通知する(ステップS324)。
次いで、サーバ4は、ペットロボット1Aから小屋に帰る動作の完了通知(スリープ状態になったことを示す通知)を受け取ると、ペットロボット1Bに対して、小屋から出て愛嬌を振りまく動作を行うよう指示するコマンド(起動指示)を送信する(ステップS327)。
そして、ペットロボット1Bは、サーバ4からのコマンドに従って、小屋装置3Bから出て(ステップS330)、家族に対して愛嬌を振りまく動作を行う(ステップS333)。愛嬌を振りまく動作の詳細は、図11を参照して次に説明する。
以上説明したように、遠隔地で家族から声を掛けられた際には、小屋の外にいるペットロボット1Aを小屋の中に収納し、声を掛けられた地点のペットロボット1Bが小屋から出るよう制御することで、1体のペットロボットが複数地点を移動しているように演出することができる。
<3-5.愛嬌を振りまく動作>
図11は、本実施形態による愛嬌を振りまく動作制御を示すシーケンス図である。
図11に示すように、まず、小屋の外に居る状態においてペットロボット1がカメラ15により周辺を撮像し(ステップS343)、撮像画像をサーバ4へ送信する(ステップS346)。ペットロボット1は、周囲を移動しながら継続的に周辺を撮像し、サーバ4へ送信する。
次に、サーバ4は、顔認識部403によりペットロボット1から送信された撮像画像に基づいて顔認識を行う(ステップS349)。
次いで、サーバ4の制御部40は、顔認識結果に基づいて家族を見つけたか否かを判断する(ステップS352)。
次に、家族が見つかった場合(ステップS352/Yes)、ペット制御部402は、ペットロボット1に対して家族に近付くよう制御する(ステップS355)。具体的には、ペット制御部402は、撮像画像の認識結果に基づいて家族が居る方向を推定し、推定した方向へ移動するよう指示するコマンドをペットロボット1に送信する。
次いで、ペットロボット1は、サーバ4からのコマンドに従って家族に十分に近付く(ステップS358)。なおペットロボット1は、継続的にカメラ15で周辺を撮像し、撮像画像をサーバ4へ送信する。サーバ4は、撮像画像から家族の顔を認識して、継続的に家族が居る方向を推定して移動コマンドをペットロボット1に送信する。これによりペットロボット1は、家族に十分に近付くことが可能となる。
次に、ペットロボット1が家族に十分に近付いた場合(ステップS358/Yes)、ペットロボット1は、家族の顔を見つめて尻尾を振る等の動作を行う(ステップS361)。ここでは一例として尻尾を振る動作を示したが、愛嬌を振りまく動作はこれに限定されず、例えば家族の足元にすり寄ったり、家族が座っている場合に膝の上に乗ったり、甘えた鳴き声を出したりしてもよい。
<3-6.しつけ制御>
次に、図12を参照して「お手」「お座り」「伏せ」等の動作を覚えるしつけ制御について説明する。図12は、本実施形態によるしつけ制御処理を示すシーケンス図である。
図12に示すように、まず、ペットロボット1は、カメラ15により周辺を撮像、さらに音声入力部16により周辺の音声を収音し(ステップS403)、撮像画像および収音音声をサーバ4へ送信する(ステップS406)。
次に、サーバ4は、顔認識部403によりペットロボット1から送信された撮像画像に基づいて顔認識を行い(ステップS409)、記憶部42に記憶されている家族の顔を見つける(ステップS412)。
次いで、顔認識結果に基づいて家族を見つけた場合(ステップS412/Yes)、サーバ4は、音声認識部404によりペットロボット1から送信された収音音声に基づいて音声認識を行い、家族の声を認識する(ステップS415)。例えばサーバ4は、ペットロボット1に対するユーザの命令(「お手」「お座り」「伏せ」等)を認識する。
続いて、サーバ4のペット制御部402は、記憶部42に記憶されている複数のポーズからランダムでポーズを決定し(ステップS418)、決定したポーズを取るようペットロボット1に対して指示するコマンドを送信する(ステップS421)。記憶部42に記憶されているポーズは、例えば訓練で覚えさせる様々なポーズや動作(例えば、「お手」「お座り」「伏せ」等)である。
次に、ペットロボット1は、サーバ4からのコマンドに従ってポーズを取るよう動作する(ステップS424)。
次いで、家族からフィードバックを得たか否かを判断する(ステップS427)。例えば命令に対してペットロボット1が取ったポーズが、命令を出した家族の意図に沿うものであった場合、家族がペットロボット1の頭や胴体を撫でたり、「偉い!」「Good!」等の褒め言葉を発することが想定される。頭や胴体を撫でられたことは、ペットロボット1のタッチセンサ19により検知され得る。
次に、ペットロボット1は、何らかのフィードバックを得た場合(ステップS427/Yes)、フィードバック情報をサーバ4へ送信する(ステップS430)。
そして、サーバ4の動作学習部407は、ペットロボット1が得たフィードバックが上述したような頭を撫でられたり褒められたり等のポジティブなものであった場合、上記ステップS409で認識した音声に、上記ステップS418で決定したポーズを対応付けて記憶部42に記憶する(ステップS433)。
このように、ペットロボット1に対してある声掛けに対して決まった動作を行わせる躾が可能となる。また、覚えた動作はサーバ4で管理されるため、例えばペットロボット1Aに対して行った躾はペットロボット1Bでも再現され得る。具体的には、例えばペット制御部402は、前記記憶部42に記憶されたポーズの学習結果に基づいて、ペットロボット1Bに対する家族の声掛けに応じた動作を指示する制御信号(対応付けられたポーズを取るよう指示するコマンド)をペットロボット1Bに送信する。これにより、遠隔地間で1体のペットロボットを共有して飼っているように演出することができる。
なお、本実施形態による情報処理システムでは、声掛けと共に家族のジェスチャーをさらに学習してもよい。例えばサーバ4の動作学習部407は、撮像画像からユーザのジェスチャーを認識し、上記ステップS433でポーズを学習する際に当該ジェスチャーも対応付けて記憶する。これにより、ペットロボット1に対してあるジェスチャーを行った際に決まった動作を行わせることが可能となる。
<3-7.物を遠隔地へ持っていく動作>
次に、ペットロボット1が遠隔地間で物を運搬しているよう演出する制御について図13および図14を参照して説明する。図13および図14は、本実施形態によるペットロボット1に物を渡した際の動作処理を示すシーケンス図である。
図13に示すように、まず、サーバ4は、状況認識部401により、各地点におけるペットロボット1の状況認識を行う(ステップS503)。ここでは、例えばA地点のペットロボット1Aが小屋の外にいて、B地点のペットロボット1Bが小屋の中に収納されている状況を認識する。
次に、小屋の外に居るペットロボット1Aは継続的にカメラ15により周辺を撮像し(ステップS506)、撮像画像をサーバ4へ送信する(ステップS509)。
次いで、サーバ4は、顔認識部403により撮像画像に対して顔認識を行い(ステップS512)、ペットロボット1Aに対して家族が物を渡しているか否かを判断する(ステップS515)。
次に、家族が物を渡していると判断した場合(ステップS515/Yes)、ペット制御部402は、物をくわえて小屋に戻るよう指示するコマンドをペットロボット1Aに送信する(ステップS518)。
次いで、ペットロボット1Aは、サーバ4からのコマンドに従って、家族に渡された物を「口」に相当する部分を可動して挟む(ステップS521)。
次に、ペットロボット1Aは、物を口にくわえた状態のまま小屋に帰る動作を行う(ステップS524)。
続いて、小屋装置3Aは、小屋内に設けられたカメラ33により、ペットロボット1Aがくわえてきた物を撮像し(ステップS527)、撮像画像をサーバ4へ送信する(ステップS530)。
次に、サーバ4は、物体認識部408により撮像画像を解析し物体認識を行う(ステップS533)。
次いで、図14に示すように、サーバ4の制御部40は、物体認識結果に基づいて、ペットロボット1Aがくわえて来た物が所定のプリント可能な紙媒体または所定の3Dプリント可能な物体であるか否かを判断する(ステップS536)。所定のプリント可能な紙媒体または所定の3Dプリント可能な物体とは、例えば予め登録されている特定の紙媒体または物体であって、制御部40は例えば紙媒体に印字されているQRコード(登録商標)や物体の形状を認識してプリント可能か否かを判断する。
次に、プリント不可能であると判断した場合(ステップS536/No)、サーバ4のペット制御部402は、ペットロボット1Aに対して返却指示を行う(ステップS560)。
次いで、ペットロボット1Aは、返却指示に従って、家族に渡された物を「口」にくわえて小屋の外に出る動作を行う(ステップS563)。
一方、プリント可能であると判断した場合(ステップS536/Yes)、サーバ4の制御部40は、プリントデータを小屋装置3Bへ送信する(ステップS539)。具体的には、制御部40は、所定の紙媒体については通常のプリント、所定の物体については3Dプリントを行うよう小屋装置3Bに指示する。
次に、小屋装置3Bは、受信したプリントデータに基づいて、小屋内部に設けられたプリンタ部35または3Dプリンタ部36からプリントを行い(ステップS542)、プリントが終了するとプリント完了通知をサーバ4へ送信する(ステップS545)。
次いで、サーバ4のペット制御部402は、小屋装置3Bからプリント完了通知を受信すると、小屋装置3Aに対して保管指示を行う(ステップS548)。
次に、小屋装置3Aは、サーバ4からの保管指示に従って、ペットロボット1Aがくわえてきた物を小屋の外から見えないよう保管する(ステップS551)。例えば小屋装置3Aは、小屋内の物を置いた個所をカバーや扉で覆うなどする。
次いで、サーバ4は、プリントした物をくわえて小屋から出るよう指示するコマンドをペットロボット1Bへ送信する(ステップS554)。
そして、ペットロボット1Bは、サーバ4からのコマンドに従って、プリントされた物をくわえて小屋の外に出る動作を行う(ステップS557)。これにより、ペットロボット1が家族に渡された物(例えば手紙やボール)を遠隔地へ運んだように見える。なお、ペットロボット1が物をくわえる「口」に相当する部分の構造および小屋装置3内部の具体的な構造については特に限定しない。
<3-8.天候を考慮した演出>
続いて、ペットロボット1が遠隔地間を移動したように見せる演出をより強調する場合の処理について図15を参照して説明する。具体的には、遠隔地間の天候をペットロボット1の状態に反映させることで、実際に遠隔地間を移動したことを強調する。
図15は、本実施形態による天候を考慮した演出を行う動作処理を示すシーケンス図である。図15に示すように、まず、サーバ4は、状況認識部401により、各地点におけるペットロボット1の状況認識を行う(ステップS603)。ここでは、例えばA地点のペットロボット1Aが小屋の外にいて、B地点のペットロボット1Bが小屋の中に収納されている状況を認識する。
次に、サーバ4は、ペット制御部402により、ランダムまたはプログラムされたタイミングで移動フラグを立てる(ステップS606)。
次いで、移動フラグが立つと(ステップS609/Yes)、ペット制御部402は、ペットロボット1Aに対して小屋に戻るよう制御する(ステップS612)。具体的には、ペット制御部402は、小屋に帰る動作を指示するコマンドを通信部41からペットロボット1Aに送信する。
次に、ペットロボット1Aは、サーバ4からのコマンドに従って、小屋に帰る動作を行う(ステップS615)。
続いて、ペットロボット1Aは、小屋に帰る動作が完了したことをサーバ4へ通知する(ステップS618)。
次いで、サーバ4は、ペットロボット1Aから小屋に帰る動作の完了通知を受け取ると、ペットロボット1A、1Bの位置を取得し(ステップS621)、さらに天候情報取得部409により、ペットロボット1A、1Bの位置間の天候情報をネットワーク上の所定サーバ(図示せず)から取得する(ステップS624)。
次に、天候が雨であった場合(ステップS627/Yes)、サーバ4のペット制御部402は、ペットロボット1Bに対して、身体が雨に濡れた演出で小屋から出るよう制御する(ステップS630)。具体的には、ペット制御部402は、ペットロボット1Bの表面に設けられた表示部21に表示する画像信号(雨に濡れた毛並の画像等)を送信する。なお天候が雪の場合、ペット制御部402は、身体に雪が付いた演出を行うよう制御してもよい。
次いで、ペットロボット1Bは、サーバ4からのコマンドに従って、身体の表面に設けられた表示部21に雨に濡れた毛並を表示することで、雨に濡れた状態を再現し(ステップS633)、小屋から出る(ステップS639)。このように、A地点とB地点の間で雨が降っていれば雨に濡れた演出をすることで、遠隔地を移動したことを強調することができる。
一方、天候が雨でなかった場合は(ステップS627/No)、上述したような演出を行うことなく、小屋から出るよう制御し(ステップS636)、ペットロボット1Bが小屋から出る(ステップS639)。
<3-9.周辺の人の有無に応じた動作制御>
上述した例では、複数地点のペットロボット1を同時に出現させないよう制御することで、1匹のペットロボット1に見えるようにしているが、本実施形態はこれに限定されない。例えば家族の視界を考慮して、「1匹のペットロボット1に見えるようにする制御」を行うことも可能である。以下、図16を参照して説明する。
図16は、本実施形態による家族の視界を考慮した動作制御処理を示すシーケンス図である。図16に示すように、まず、サーバ4は、状況認識部401により、各地点におけるペットロボット1の状況認識を行う(ステップS653)。ここでは、例えばA地点のペットロボット1Aが小屋の外にいて、B地点のペットロボット1Bが小屋の中に収納されている状況を認識する。
次に、小屋の外に居るペットロボット1Aは継続的にカメラ15により周辺を撮像、さらに音声入力部16により周辺の音声を収音し(ステップS656)、撮像画像および収音音声をサーバ4へ送信する(ステップS659)。
次いで、サーバ4は、顔認識部403による撮像画像の顔認識および音声認識部404による音声認識を行う(ステップS662)。
次に、サーバ4の制御部40は、画像認識結果および音声認識結果に基づいて、周囲の人の有無を判断する(ステップS665)。
次いで、周囲に人がいなくなったと判断した場合(ステップS665/Yes)、サーバ4のペット制御部402は、ペットロボット1Aに対して動きを止めるよう制御する(ステップS668)。
次に、ペットロボット1Aは、サーバ4からのコマンドに従って、その場で動作を停止する(ステップS671)。具体的には、ペットロボット1Aは、駆動部18への電源供給を停止する。フリーモードの場合、ペットロボット1は小屋の外を動き回る動作を行うが、周囲に人がいない場合は動作を停止することでエネルギー消費を防ぐことができる。
一方、B地点ではペットロボット1Bが、小屋装置3Bの中に居る状態で継続的に周辺の音声を取得し(ステップS674)、サーバ4へ音声情報を送信する(ステップS677)。
次いで、サーバ4は、音声認識部404により、ペットロボット1から受信した音声を認識する(ステップS680)。
次に、サーバ4の制御部40は、認識結果に基づいて、家族から呼びかけられたか否かを判断する(ステップS680)。具体的には、制御部40は、記憶部42に登録されている家族の音声特徴量(声質等)に基づいて、家族の声か否かを認識し、さらに家族からの呼び掛け(ペットロボット1Bの名前を呼んだり、「おいで!」「出ておいで!」等の声掛け)を認識する。
次いで、家族から呼びかけられたと判断した場合(ステップS683/Yes)、サーバ4のペット制御部402は、ペットロボット1Bに対して、小屋から出て愛嬌を振りまく動作を行うよう指示するコマンドを送信する(ステップS686)。
そして、ペットロボット1Bは、サーバ4からのコマンドに従って、小屋装置3Bから出て(ステップS689)、家族に対して愛嬌を振りまく動作を行う(ステップS692)。この時点で、A地点およびB地点の両地点で、ペットロボット1が小屋装置3から同時に出現しているが、A地点では周囲に人がいないためペットロボット1Aが家族に視認されることがない。したがって、「1匹のペットロボットに見えるようにするための制御」として問題が生じないと共に、ペットロボット1Aの駆動を停止することで省エネを実現することができる。
なお、A地点側では、ペットロボット1Aは継続的に周囲の物音を検知している(ステップS695)。
そして、物音を検知した場合(ステップS695/Yes)、ペットロボット1Aは動作を再開、すなわち駆動部18への電源供給を再開し(ステップS698)、小屋装置3Aに帰る動作を行う(ステップS701)。これにより、家族が戻って来た場合にはペットロボット1Aが小屋装置3Aに収納されるため、複数地点でペットロボット1が同時に出現している状況を解消することができる。
<3-10.視認状況に応じた動作制御>
上述した周囲の人の有無に応じた動作制御では、周囲に人がいなければペットロボット1が家族に視認されないため複数地点でペットロボット1が同時に出現していても問題ないとした。しかし、防犯カメラや監視カメラ等が設置されている場合は同時出現していることが後からユーザに確認されてしまう恐れがある。そこで、本実施形態では、視認状況を考慮して「1匹のペットロボットに見えるようにするための制御」として問題が生じないよう動作制御する。以下、図17を参照して説明する。
図17は、本実施形態による視認状況に応じた動作制御処理を示すフローチャートである。図17に示すように、まず、サーバ4は、状況認識部401により、各地点におけるペットロボット1の状況認識を行う(ステップS713)。ここでは、例えばA地点のペットロボット1Aが小屋の外にいて、B地点のペットロボット1Bが小屋の中に収納されている状況を認識する。
次に、ペットロボット1Bは、小屋装置3Bの中に居る状態で継続的に周辺の音声を取得し(ステップS716)、サーバ4へ音声情報を送信する(ステップS719)。
次いで、サーバ4は、音声認識部404により、ペットロボット1から受信した音声を認識する(ステップS722)。
次に、サーバ4の制御部40は、認識結果に基づいて、家族から起動要求(家族からの呼び掛け。例えばペットロボット1Bの名前を呼んだり、「おいで!」「出ておいで!」等の声掛け)があったか否かを判断する(ステップS725)。
次いで、起動要求があったと判断した場合(ステップS725/Yes)、サーバ4の制御部40は、ペットロボット1AがB地点の家族に視認されない状態であるか否かを判断する(ステップS728)。例えばA地点に設置されている防犯カメラや監視カメラの情報がシステムで捕捉できる場合、制御部40は、B地点の家族に視認される可能性があるため、B地点の家族に視認される状態であると判断する。より具体的には、例えばA地点に住む老夫婦の様子を見守るサービスとしてライブカメラが設置されていることが想定される。この場合、B地点に住む娘家族は当該ライブカメラの映像を見ることができるため、ペットロボット1の同時出現が認識される恐れがある。また、両地点にそれぞれライブカメラが設置されている場合が想定されるため、制御部40は、B地点のペットロボット1BがA地点の家族に視認されない状態であるか否かも併せて判断するようにしてもよい。
次に、B地点の家族に視認されない状態である(防犯カメラ等が設置されていない)と判断した場合(ステップS728/Yes)、サーバ4のペット制御部402は、ペットロボット1Bに対して、起動指示(具体的には、例えば小屋から出て愛嬌を振りまく動作を行う指示)のコマンドを送信する(ステップS731)。
そして、ペットロボット1Bは、サーバ4からのコマンドに従って、小屋装置3Bから出て(ステップS734)、家族に対して愛嬌を振りまく動作を行う(ステップS737)。この時点で、A地点およびB地点の両地点で、ペットロボット1がそれぞれ小屋装置3から同時に出現しているが、A地点で出現しているペットロボット1AをB地点の家族は視認できないため、1匹のペットロボットと認識され得る。
一方、B地点の家族に視認される状態である(防犯カメラ等が設置されている)と判断した場合(ステップS728/No)、サーバ4のペット制御部402は、ペットロボット1Aに対して、小屋に戻るよう(スリープ状態になるよう)制御する(ステップS740)。
次に、ペットロボット1Aは、サーバ4からのコマンドに従って、小屋に帰る動作を行い(ステップS743)、小屋に帰る動作が完了したことをサーバ4へ通知する(ステップS746)。
そして、サーバ4のペット制御部402は、ペットロボット1Aから小屋に帰る動作の完了通知を受け取った後に、ペットロボット1Bに対して、起動指示のコマンドを送信する(ステップS749)。ペットロボット1Bは、サーバ4からのコマンドに従って、小屋装置3Bから出て(ステップS734)、家族に対して愛嬌を振りまく動作を行う(ステップS737)。
以上、視認状況に応じた動作制御について説明した。なお同時出現禁止を厳密に行う設定が予め行われている場合、視認状況に関わらず、サーバ4は上述した図7に示す動作処理を実施し、複数地点でのペットロボット1の同時出現を回避する。
(複数地点間のコミュニケーション)
複数地点で各ペットロボット1が同時出現していることが認識されてしまう場合としては、上述したような防犯カメラや監視カメラ等が設置されている場合の他、複数地点の家族間で電話等のコミュニケーションが行われる場合も想定される。例えばA地点とB地点の家族が電話(音声電話、テレビ電話)で話している際に、両地点でペットロボット1が小屋の外に出ていると、会話に矛盾が生じる可能性がある。そこで本実施形態では、同時出現している場合に複数地点間でコミュニケーションが行われる場合は一方のペットロボット1を小屋に帰す制御を行うことで、上記矛盾を解消することができる。以下、図18を参照して具体的に説明する。
図18は、本実施形態による複数地点間のコミュニケーション発生時の動作制御処理を示すシーケンス図である。図18に示すように、まず、サーバ4は、状況認識部401により、各地点におけるペットロボット1の状況認識を行う(ステップS803)。ここでは、例えばA地点のペットロボット1Aが小屋の外にいて、B地点のペットロボット1Bも小屋の外にいる状況を認識する。
次に、サーバ4は、A地点の家族からB地点の家族へ電話を掛けたことを検知する(ステップS806)。サーバ4は、例えばスマートフォンと連動して遠隔地点間で電話等のコミュニケーションが発生したことを把握し得る。
次いで、サーバ4のペット制御部402は、ペットロボット1Aまたは1Bのいずれか、ここでは例えばペットロボット1Aに対して、小屋に戻るよう制御する(ステップS809)。複数のペットロボット1のうちいずれのペットロボットを選択するかは、ランダムまたはプログラムに従って決定される。
次に、ペットロボット1Aは、サーバ4からの制御に従って、小屋に帰る動作を行い(ステップS812)、小屋に帰る動作が完了したことをサーバ4へ通知する(ステップS815)。
これにより、複数地点で各ペットロボット1が同時出現している状況において、複数地点間でコミュニケーションが発生した場合、1つのペットロボット以外は全て小屋に戻るよう制御することで、コミュニケーション中にペットロボットの存在に関して矛盾が生じることを防ぐことができる。
<3-11.複数地点間のコミュニケーションに応じた動作制御>
本実施形態では、複数地点間で電話等のコミュニケーションが発生した場合に、かかるコミュニケーションの発生をペットロボット1により遠隔地に伝えることも可能である。以下、図19を参照して具体的に説明する。
図19は、本実施形態によるペットロボット1によるコミュニケーション発生通知の動作制御処理を示すシーケンス図である。図19に示すように、まず、サーバ4は、状況認識部401により、各地点におけるペットロボット1の状況認識を行う(ステップS853)。ここでは、例えばA地点のペットロボット1Aが小屋の外にいて、B地点のペットロボット1Bが小屋の中に収納されている状況を認識する。
次に、サーバ4は、例えばA地点の家族からB地点の家族へ電話(音声電話、テレビ電話)を掛けたことを検知する(ステップS856)。サーバ4は、例えばスマートフォンと連動して遠隔地点間で電話等のコミュニケーションが発生したことを把握し得る。
次いで、サーバ4のペット制御部402は、電話を掛けた方の地点にいるペットロボット1Aに対して、小屋に戻るよう制御する(ステップS859)。
次に、ペットロボット1Aは、サーバ4からの制御に従って、小屋に帰る動作を行い(ステップS862)、小屋に帰る動作が完了したことをサーバ4へ通知する(ステップS865)。
次いで、サーバ4は、ペットロボット1Aから小屋に帰る動作の完了通知を受け取ると、ペットロボット1Bに対して、小屋から出て電話が来たことを通知するよう指示するコマンドを送信する(ステップS868)。電話が来たことを音声出力により伝える場合、サーバ4は、音声合成部406により発話音声または鳴き声音声を生成し、コマンドと共にペットロボット1Bへ送信する。
そして、ペットロボット1Bは、サーバ4からのコマンドに従って、小屋装置3Bから出て(ステップS871)、家族に対して吠える等して電話が来たことを伝える(ステップS874)。これにより、1匹のペットロボット1がA地点からB地点へ移動してA地点からの電話を伝えているような演出を行うことができる。
<<4.まとめ>>
上述したように、本開示の実施形態による情報処理システムでは、複数の仮想生物を連動して制御し、仮想生物を通した複数地点間における間接的なコミュニケーションを促進することを可能とする。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上述した情報処理システムのペットロボット1、小屋装置3、およびサーバ4に内蔵されるCPU、ROM、およびRAM等のハードウェアに、情報処理システムの機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。
また、上述した実施形態では、A地点とB地点といった2つの地点における各ペットロボット1A、1Bの制御について主に説明したが、本実施形態はこれに限定されず、2地点以上、例えばA地点、B地点、C地点における各ペットロボット(3台)の制御も当然同様に行い得る。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、本技術は以下のような構成も取ることができる。
(1)
少なくともいずれか一つがハードウェアである複数の仮想生物の現在の状態の情報を受信すると共に、当該複数の仮想生物の動作を制御する信号を送信する通信部と、
特定のユーザによって前記複数の仮想生物が同時に視認されないように前記複数の仮想生物のうちの少なくともいずれか一つの仮想生物の動作を制御する信号を生成すると共に当該信号を当該一つの仮想生物に送信するように前記通信部を制御する制御部と、
を備える、仮想生物制御システム。
(2)
前記制御部は、
前記通信部を介して、第1の仮想生物が、特定のユーザに視認されない、スリープ状態になったことを示す前記現在の状態の情報を受信すると;
前記通信部を介して、スリープ状態である第2の仮想生物に対して、起動を許可する信号を送信する、前記(1)に記載の仮想生物制御システム。
(3)
前記第1の仮想生物はロボットであって、
前記スリープ状態は、前記第1の仮想生物が特定のユーザに視認されないように自律的に収納部内に移動した状態である、前記(2)に記載の仮想生物制御システム。
(4)
前記第1の仮想生物はソフトウェアプログラムであって、
前記スリープ状態は、当該ソフトウェアプログラムが実装されるデバイスの表示部に表示される当該第1の仮想生物が特定のユーザに視認されないよう表示部からいなくなる状態である、前記(2)に記載の仮想生物制御システム。
(5)
第1の仮想生物が起動状態で、第2の仮想生物がスリープ状態であって、
前記第1の仮想生物は、第1ユーザにより手渡された物を保持したまま、当該第1ユーザに視認されないように、自律的に収納部内に移動することが可能であり、
前記通信部は、前記第1の仮想生物が保持してきた物を撮像した撮像画像を受信し、
前記制御部は、
当該撮像画像に基づいて前記保持してきた物を認識し、当該物を再現するためのデータを、前記第2の仮想生物が収納されている収納部に送信して当該収納部内に設置される再現部で再現するよう指示すると共に;
前記第2の仮想生物に対して起動を許可し、さらに前記再現部により再現された物を保持して当該収納部から出ることを指示する制御信号を送信する、前記(2)または(3)に記載の仮想生物制御システム。
(6)
第1の仮想生物が起動状態で、第2の仮想生物がスリープ状態であって、
前記制御部は、
前記第1の仮想生物と第2の仮想生物の現在位置を管理し、各地点間の天候情報を取得可能であり;
前記通信部を介して、前記第1の仮想生物が特定のユーザに視認されないスリープ状態になったことを示す前記現在の状態の情報を受信すると;
前記通信部を介して、スリープ状態である前記第2の仮想生物に対して、起動を許可する信号と、前記各地点間の天候情報に応じた前記第2の仮想生物の表面に設けられた表示部に表示する画像信号を送信する、前記(2)または(3)に記載の仮想生物制御システム。
(7)
前記通信部は、第1の仮想生物が学習したユーザに関する知識を受信し、
前記制御部は、前記通信部を介して、前記知識に基づいて生成された第2の仮想生物の動作を制御する信号を前記第2の仮想生物に送信するよう前記通信部を制御する、前記(2)または(3)に記載の仮想生物制御システム。
(8)
前記制御部は;
前記第1の仮想生物に対する第1ユーザの声掛けに対してランダムに選択したポーズを取るよう指示する制御信号を送信し;
当該ポーズに対する前記第1ユーザのフィードバックを、前記第1の仮想生物が学習したユーザに関する知識として前記通信部により受信し;
前記フィードバックに応じて、前記声掛けに前記ランダムに選択したポーズを対応付けて記憶する、前記(7)に記載の仮想生物制御システム。
(9)
前記制御部は、
前記第1の仮想生物により撮像された第1ユーザの顔画像を前記第1の仮想生物が学習したユーザに関する知識として前記通信部により受信し;
前記顔画像の認識結果を記憶する、前記(7)に記載の仮想生物制御システム。
(10)
前記制御部は、前記記憶した第1ユーザと一緒に写る人物を前記第1の仮想生物により撮像された撮像画像から認識した場合、当該人物の顔の認識結果を記憶する、前記(9)に記載の仮想生物制御システム。
(11)
第1の仮想生物が起動状態で、第2の仮想生物がスリープ状態であるとき、
前記制御部は、
前記通信部を介して受信した、前記第2の仮想生物の現在の状態の情報が特定のユーザからの起動要求を示し、前記第1の仮想生物の現在の状態の情報が特定のユーザに視認されている状態ではないことを示すとき;
前記通信部を介して、前記第1の仮想生物に対してスリープ状態になるよう指示する制御信号を送信することなく、前記第2の仮想生物に対して起動を許可する信号を送信する、前記(2)または(3)に記載の仮想生物制御システム。
(12)
前記制御部は、
前記第1および第2の仮想生物のいずれかを監視するカメラが存在するときは、前記通信部を介して前記第1の仮想生物に対してスリープ状態になるよう指示する制御信号を送信すると共に、前記第2の仮想生物に対して起動を許可する信号を送信する、前記(11)に記載の仮想生物制御システム。
(13)
前記制御部は、
前記第1の仮想生物の周辺にいる第1ユーザが、前記第2の仮想生物の周辺にいる第2のユーザに通信要求したことを検出したときは、前記通信部を介して前記第1の仮想生物に対してスリープ状態になるよう指示する制御信号を送信する、前記(11)に記載の仮想生物制御システム。
(14)
前記制御部は、
前記第1の仮想生物の周辺にいる第1ユーザが、前記第2の仮想生物の周辺にいる第2ユーザに通信要求したことを検出すると;
前記通信部を介して、前記第1の仮想生物に対して、スリープ状態になるよう指示する制御信号を送信し;
さらに、前記通信部を介して、前記第1の仮想生物がスリープ状態になったことを示す前記現在の状態の情報を受信すると;
前記通信部を介して、前記第2の仮想生物に対し、起動許可の信号と、前記第1ユーザからの通信要求があったことを前記第2ユーザに知らせるよう指示する制御信号を送信する、前記(2)または(3)に記載の仮想生物制御システム。
(15)
第1の仮想生物が起動状態であるとき、
前記制御部は、
前記通信部を介して受信された、前記第1の仮想生物の現在の状態の情報が周囲にユーザが存在しないことを示すとき;
前記通信部を介して、前記第1の仮想生物に対して動作を停止するよう指示する制御信号を送信し;
前記第1の仮想生物の現在の状態の情報が、動作を停止している状態であるときに所定レベル以上の音声を検知したことを示すとき;
前記通信部を介して、前記第1の仮想生物に対して、起動許可の信号を送信する、前記(2)または(3)に記載の仮想生物制御システム。
(16)
複数の仮想生物のうちいずれか一つの仮想生物が起動状態で、他の仮想生物がスリープ状態であって、
前記制御部は、
継続的に所定のタイミングで移動フラグを立て;
前記移動フラグが立ったとき、前記起動状態の仮想生物に対してスリープ状態になるよう指示する制御信号を送信し;
前記制御信号に応じて前記起動状態の仮想生物がスリープ状態になったことを示す前記現在の状態の情報を受信すると、前記スリープ状態であった他の仮想生物のうちいずれか一つの仮想生物に対して起動を許可する制御信号を送信する、前記(1)に記載の仮想生物制御システム。
(17)
少なくともいずれか一つがハードウェアである複数の仮想生物と、
前記複数の仮想生物の現在の状態の情報を受信すると共に、当該複数の仮想生物の動作を制御する信号を送信する通信部と、
特定のユーザによって前記複数の仮想生物が同時に視認されないように前記複数の仮想生物のうちの少なくともいずれか一つの仮想生物の動作を制御する信号を生成し、当該信号を当該一つの仮想生物に送信するように前記通信部を制御する制御部と、
を備える、仮想生物制御システム。
(18)
プロセッサが、
少なくともいずれか一つがハードウェアである複数の仮想生物の現在の状態の情報を受信すると共に、当該複数の仮想生物の動作を制御する信号を通信部により送信することと、
特定のユーザによって前記複数の仮想生物が同時に視認されないように前記複数の仮想生物のうちの少なくともいずれか一つの仮想生物の動作を制御する信号を生成すると共に当該信号を当該一つの仮想生物に送信するように前記通信部を制御することと、
を含む、仮想生物制御方法。
1、1A、1B ペットロボット
3、3A、3B 小屋装置
4 サーバ
5 ネットワーク
7 表示端末
10 制御部
11 Wi-Fi通信部
12 LTE通信部
13 Bluetooth通信部
14 位置情報取得部
15 カメラ
16 音声入力部
18 駆動部
19 タッチセンサ
20 記憶部
21 表示部
22 音声出力部
23 加速度センサ
24 角速度センサ
30 制御部
31 Wi-Fi通信部
32 Bluetooth通信部
33 カメラ
34 記憶部
35 プリンタ部
36 3Dプリンタ部
37 充電部
40 制御部
41 通信部
42 記憶部
401 状況認識部
402 ペット制御部
403 顔認識部
404 音声認識部
406 音声合成部
407 動作学習部
408 物体認識部
409 天候情報取得部

Claims (32)

  1. 複数の仮想生物の現在の状態の情報を受信すると共に、当該複数の仮想生物の動作を制御する信号を送信する通信部と、
    特定のユーザによって前記複数の仮想生物が同時に視認されないように前記複数の仮想生物のうちの少なくともいずれか一つの仮想生物の動作を制御する信号を生成すると共に当該信号を当該一つの仮想生物に送信するように前記通信部を制御する制御部と、
    を備え、
    前記制御部は、
    前記通信部を介して、第1の仮想生物が、特定のユーザに視認されない、スリープ状態になったことを示す前記現在の状態の情報を受信すると;
    前記通信部を介して、スリープ状態である第2の仮想生物に対して、起動を許可する信号を送信し、
    前記第1の仮想生物はロボットであって、
    前記スリープ状態は、前記第1の仮想生物が特定のユーザに視認されないように自律的に収納部内に移動した状態である、仮想生物制御システム。
  2. 第1の仮想生物が起動状態で、第2の仮想生物がスリープ状態であって、
    前記第1の仮想生物は、第1ユーザにより手渡された物を保持したまま、当該第1ユーザに視認されないように、自律的に収納部内に移動することが可能であり、
    前記通信部は、前記第1の仮想生物が保持してきた物を撮像した撮像画像を受信し、
    前記制御部は、
    当該撮像画像に基づいて前記保持してきた物を認識し、当該物を再現するためのデータを、前記第2の仮想生物が収納されている収納部に送信して当該収納部内に設置される再現部で再現するよう指示すると共に;
    前記第2の仮想生物に対して起動を許可し、さらに前記再現部により再現された物を保持して当該収納部から出ることを指示する制御信号を送信する、請求項1に記載の仮想生物制御システム。
  3. 第1の仮想生物が起動状態で、第2の仮想生物がスリープ状態であって、
    前記制御部は、
    前記第1の仮想生物と第2の仮想生物の現在位置を管理し、各地点間の天候情報を取得可能であり;
    前記通信部を介して、前記第1の仮想生物が特定のユーザに視認されないスリープ状態になったことを示す前記現在の状態の情報を受信すると;
    前記通信部を介して、スリープ状態である前記第2の仮想生物に対して、起動を許可する信号と、前記各地点間の天候情報に応じた前記第2の仮想生物の表面に設けられた表示部に表示する画像信号を送信する、請求項1に記載の仮想生物制御システム。
  4. 前記通信部は、第1の仮想生物が学習したユーザに関する知識を受信し、
    前記制御部は、前記通信部を介して、前記知識に基づいて生成された第2の仮想生物の動作を制御する信号を前記第2の仮想生物に送信するよう前記通信部を制御する、請求項1に記載の仮想生物制御システム。
  5. 前記制御部は;
    前記第1の仮想生物に対する第1ユーザの声掛けに対してランダムに選択したポーズを取るよう指示する制御信号を送信し;
    当該ポーズに対する前記第1ユーザのフィードバックを、前記第1の仮想生物が学習したユーザに関する知識として前記通信部により受信し;
    前記フィードバックに応じて、前記声掛けに前記ランダムに選択したポーズを対応付けて記憶する、請求項4に記載の仮想生物制御システム。
  6. 複数の仮想生物の現在の状態の情報を受信すると共に、当該複数の仮想生物の動作を制御する信号を送信する通信部と、
    特定のユーザによって前記複数の仮想生物が同時に視認されないように前記複数の仮想生物のうちの少なくともいずれか一つの仮想生物の動作を制御する信号を生成すると共に当該信号を当該一つの仮想生物に送信するように前記通信部を制御する制御部と、
    を備え、
    前記制御部は、
    前記通信部を介して、第1の仮想生物が、特定のユーザに視認されない、スリープ状態になったことを示す前記現在の状態の情報を受信すると;
    前記通信部を介して、スリープ状態である第2の仮想生物に対して、起動を許可する信号を送信し、
    前記通信部は、第1の仮想生物が学習したユーザに関する知識を受信し、
    前記制御部は、前記通信部を介して、前記知識に基づいて生成された第2の仮想生物の動作を制御する信号を前記第2の仮想生物に送信するよう前記通信部を制御し、
    前記制御部は;
    前記第1の仮想生物に対する第1ユーザの声掛けに対してランダムに選択したポーズを取るよう指示する制御信号を送信し;
    当該ポーズに対する前記第1ユーザのフィードバックを、前記第1の仮想生物が学習したユーザに関する知識として前記通信部により受信し;
    前記フィードバックに応じて、前記声掛けに前記ランダムに選択したポーズを対応付けて記憶する、仮想生物制御システム。
  7. 前記制御部は、
    前記第1の仮想生物により撮像された第1ユーザの顔画像を前記第1の仮想生物が学習したユーザに関する知識として前記通信部により受信し;
    前記顔画像の認識結果を記憶する、請求項4または5に記載の仮想生物制御システム。
  8. 前記制御部は、前記記憶した第1ユーザと一緒に写る人物を前記第1の仮想生物により撮像された撮像画像から認識した場合、当該人物の顔の認識結果を記憶する、請求項7に記載の仮想生物制御システム。
  9. 第1の仮想生物が起動状態で、第2の仮想生物がスリープ状態であるとき、
    前記制御部は、
    前記通信部を介して受信した、前記第2の仮想生物の現在の状態の情報が特定のユーザからの起動要求を示し、前記第1の仮想生物の現在の状態の情報が特定のユーザに視認されている状態ではないことを示すとき;
    前記通信部を介して、前記第1の仮想生物に対してスリープ状態になるよう指示する制御信号を送信することなく、前記第2の仮想生物に対して起動を許可する信号を送信する、請求項1に記載の仮想生物制御システム。
  10. 複数の仮想生物の現在の状態の情報を受信すると共に、当該複数の仮想生物の動作を制御する信号を送信する通信部と、
    特定のユーザによって前記複数の仮想生物が同時に視認されないように前記複数の仮想生物のうちの少なくともいずれか一つの仮想生物の動作を制御する信号を生成すると共に当該信号を当該一つの仮想生物に送信するように前記通信部を制御する制御部と、
    を備え、
    前記制御部は、
    前記通信部を介して、第1の仮想生物が、特定のユーザに視認されない、スリープ状態になったことを示す前記現在の状態の情報を受信すると;
    前記通信部を介して、スリープ状態である第2の仮想生物に対して、起動を許可する信号を送信し、
    第1の仮想生物が起動状態で、第2の仮想生物がスリープ状態であるとき、
    前記制御部は、
    前記通信部を介して受信した、前記第2の仮想生物の現在の状態の情報が特定のユーザからの起動要求を示し、前記第1の仮想生物の現在の状態の情報が特定のユーザに視認されている状態ではないことを示すとき;
    前記通信部を介して、前記第1の仮想生物に対してスリープ状態になるよう指示する制御信号を送信することなく、前記第2の仮想生物に対して起動を許可する信号を送信する、仮想生物制御システム。
  11. 前記制御部は、
    前記第1および第2の仮想生物のいずれかを監視するカメラが存在するときは、前記通信部を介して前記第1の仮想生物に対してスリープ状態になるよう指示する制御信号を送信すると共に、前記第2の仮想生物に対して起動を許可する信号を送信する、請求項9に記載の仮想生物制御システム。
  12. 前記制御部は、
    前記第1の仮想生物の周辺にいる第1ユーザが、前記第2の仮想生物の周辺にいる第2のユーザに通信要求したことを検出したときは、前記通信部を介して前記第1の仮想生物に対してスリープ状態になるよう指示する制御信号を送信する、請求項9または10に記載の仮想生物制御システム。
  13. 前記制御部は、
    前記第1の仮想生物の周辺にいる第1ユーザが、前記第2の仮想生物の周辺にいる第2ユーザに通信要求したことを検出すると;
    前記通信部を介して、前記第1の仮想生物に対して、スリープ状態になるよう指示する制御信号を送信し;
    さらに、前記通信部を介して、前記第1の仮想生物がスリープ状態になったことを示す前記現在の状態の情報を受信すると;
    前記通信部を介して、前記第2の仮想生物に対し、起動許可の信号と、前記第1ユーザからの通信要求があったことを前記第2ユーザに知らせるよう指示する制御信号を送信する、請求項1または10に記載の仮想生物制御システム。
  14. 複数の仮想生物の現在の状態の情報を受信すると共に、当該複数の仮想生物の動作を制御する信号を送信する通信部と、
    特定のユーザによって前記複数の仮想生物が同時に視認されないように前記複数の仮想生物のうちの少なくともいずれか一つの仮想生物の動作を制御する信号を生成すると共に当該信号を当該一つの仮想生物に送信するように前記通信部を制御する制御部と、
    を備え、
    前記制御部は、
    前記通信部を介して、第1の仮想生物が、特定のユーザに視認されない、スリープ状態になったことを示す前記現在の状態の情報を受信すると;
    前記通信部を介して、スリープ状態である第2の仮想生物に対して、起動を許可する信号を送信し、
    前記制御部は、
    前記第1の仮想生物の周辺にいる第1ユーザが、前記第2の仮想生物の周辺にいる第2ユーザに通信要求したことを検出すると;
    前記通信部を介して、前記第1の仮想生物に対して、スリープ状態になるよう指示する制御信号を送信し;
    さらに、前記通信部を介して、前記第1の仮想生物がスリープ状態になったことを示す前記現在の状態の情報を受信すると;
    前記通信部を介して、前記第2の仮想生物に対し、起動許可の信号と、前記第1ユーザからの通信要求があったことを前記第2ユーザに知らせるよう指示する制御信号を送信する、仮想生物制御システム。
  15. 第1の仮想生物が起動状態であるとき、
    前記制御部は、
    前記通信部を介して受信された、前記第1の仮想生物の現在の状態の情報が周囲にユーザが存在しないことを示すとき;
    前記通信部を介して、前記第1の仮想生物に対して動作を停止するよう指示する制御信号を送信し;
    前記第1の仮想生物の現在の状態の情報が、動作を停止している状態であるときに所定レベル以上の音声を検知したことを示すとき;
    前記通信部を介して、前記第1の仮想生物に対して、起動許可の信号を送信する、請求項1に記載の仮想生物制御システム。
  16. 複数の仮想生物の現在の状態の情報を受信すると共に、当該複数の仮想生物の動作を制御する信号を送信する通信部と、
    特定のユーザによって前記複数の仮想生物が同時に視認されないように前記複数の仮想生物のうちの少なくともいずれか一つの仮想生物の動作を制御する信号を生成すると共に当該信号を当該一つの仮想生物に送信するように前記通信部を制御する制御部と、
    を備え、
    前記制御部は、
    前記通信部を介して、第1の仮想生物が、特定のユーザに視認されない、スリープ状態になったことを示す前記現在の状態の情報を受信すると;
    前記通信部を介して、スリープ状態である第2の仮想生物に対して、起動を許可する信号を送信し、
    第1の仮想生物が起動状態であるとき、
    前記制御部は、
    前記通信部を介して受信された、前記第1の仮想生物の現在の状態の情報が周囲にユーザが存在しないことを示すとき;
    前記通信部を介して、前記第1の仮想生物に対して動作を停止するよう指示する制御信号を送信し;
    前記第1の仮想生物の現在の状態の情報が、動作を停止している状態であるときに所定レベル以上の音声を検知したことを示すとき;
    前記通信部を介して、前記第1の仮想生物に対して、起動許可の信号を送信する、仮想生物制御システム。
  17. 複数の仮想生物のうちいずれか一つの仮想生物が起動状態で、他の仮想生物がスリープ状態であって、
    前記制御部は、
    継続的に所定のタイミングで移動フラグを立て;
    前記移動フラグが立ったとき、前記起動状態の仮想生物に対してスリープ状態になるよう指示する制御信号を送信し;
    前記制御信号に応じて前記起動状態の仮想生物がスリープ状態になったことを示す前記現在の状態の情報を受信すると、前記スリープ状態であった他の仮想生物のうちいずれか一つの仮想生物に対して起動を許可する制御信号を送信する、請求項1~16のいずれか1項に記載の仮想生物制御システム。
  18. 複数の仮想生物と、
    前記複数の仮想生物の現在の状態の情報を受信すると共に、当該複数の仮想生物の動作を制御する信号を送信する通信部と、
    特定のユーザによって前記複数の仮想生物が同時に視認されないように前記複数の仮想生物のうちの少なくともいずれか一つの仮想生物の動作を制御する信号を生成し、当該信号を当該一つの仮想生物に送信するように前記通信部を制御する制御部と、
    を備え、
    前記制御部は、
    前記通信部を介して、第1の仮想生物が、特定のユーザに視認されない、スリープ状態になったことを示す前記現在の状態の情報を受信すると;
    前記通信部を介して、スリープ状態である第2の仮想生物に対して、起動を許可する信号を送信し、
    前記第1の仮想生物はロボットであって、
    前記スリープ状態は、前記第1の仮想生物が特定のユーザに視認されないように自律的に収納部内に移動した状態である、仮想生物制御システム。
  19. 複数の仮想生物と、
    前記複数の仮想生物の現在の状態の情報を受信すると共に、当該複数の仮想生物の動作を制御する信号を送信する通信部と、
    特定のユーザによって前記複数の仮想生物が同時に視認されないように前記複数の仮想生物のうちの少なくともいずれか一つの仮想生物の動作を制御する信号を生成すると共に当該信号を当該一つの仮想生物に送信するように前記通信部を制御する制御部と、
    を備え、
    前記制御部は、
    前記通信部を介して、第1の仮想生物が、特定のユーザに視認されない、スリープ状態になったことを示す前記現在の状態の情報を受信すると;
    前記通信部を介して、スリープ状態である第2の仮想生物に対して、起動を許可する信号を送信し、
    前記通信部は、第1の仮想生物が学習したユーザに関する知識を受信し、
    前記制御部は、前記通信部を介して、前記知識に基づいて生成された第2の仮想生物の動作を制御する信号を前記第2の仮想生物に送信するよう前記通信部を制御し、
    前記制御部は;
    前記第1の仮想生物に対する第1ユーザの声掛けに対してランダムに選択したポーズを取るよう指示する制御信号を送信し;
    当該ポーズに対する前記第1ユーザのフィードバックを、前記第1の仮想生物が学習したユーザに関する知識として前記通信部により受信し;
    前記フィードバックに応じて、前記声掛けに前記ランダムに選択したポーズを対応付けて記憶する、仮想生物制御システム。
  20. 複数の仮想生物と、
    前記複数の仮想生物の現在の状態の情報を受信すると共に、当該複数の仮想生物の動作を制御する信号を送信する通信部と、
    特定のユーザによって前記複数の仮想生物が同時に視認されないように前記複数の仮想生物のうちの少なくともいずれか一つの仮想生物の動作を制御する信号を生成すると共に当該信号を当該一つの仮想生物に送信するように前記通信部を制御する制御部と、
    を備え、
    前記制御部は、
    前記通信部を介して、第1の仮想生物が、特定のユーザに視認されない、スリープ状態になったことを示す前記現在の状態の情報を受信すると;
    前記通信部を介して、スリープ状態である第2の仮想生物に対して、起動を許可する信号を送信し、
    第1の仮想生物が起動状態で、第2の仮想生物がスリープ状態であるとき、
    前記制御部は、
    前記通信部を介して受信した、前記第2の仮想生物の現在の状態の情報が特定のユーザからの起動要求を示し、前記第1の仮想生物の現在の状態の情報が特定のユーザに視認されている状態ではないことを示すとき;
    前記通信部を介して、前記第1の仮想生物に対してスリープ状態になるよう指示する制御信号を送信することなく、前記第2の仮想生物に対して起動を許可する信号を送信する、仮想生物制御システム。
  21. 複数の仮想生物と、
    前記複数の仮想生物の現在の状態の情報を受信すると共に、当該複数の仮想生物の動作を制御する信号を送信する通信部と、
    特定のユーザによって前記複数の仮想生物が同時に視認されないように前記複数の仮想生物のうちの少なくともいずれか一つの仮想生物の動作を制御する信号を生成すると共に当該信号を当該一つの仮想生物に送信するように前記通信部を制御する制御部と、
    を備え、
    前記制御部は、
    前記通信部を介して、第1の仮想生物が、特定のユーザに視認されない、スリープ状態になったことを示す前記現在の状態の情報を受信すると;
    前記通信部を介して、スリープ状態である第2の仮想生物に対して、起動を許可する信号を送信し、
    前記制御部は、
    前記第1の仮想生物の周辺にいる第1ユーザが、前記第2の仮想生物の周辺にいる第2ユーザに通信要求したことを検出すると;
    前記通信部を介して、前記第1の仮想生物に対して、スリープ状態になるよう指示する制御信号を送信し;
    さらに、前記通信部を介して、前記第1の仮想生物がスリープ状態になったことを示す前記現在の状態の情報を受信すると;
    前記通信部を介して、前記第2の仮想生物に対し、起動許可の信号と、前記第1ユーザからの通信要求があったことを前記第2ユーザに知らせるよう指示する制御信号を送信する、仮想生物制御システム。
  22. 複数の仮想生物と、
    前記複数の仮想生物の現在の状態の情報を受信すると共に、当該複数の仮想生物の動作を制御する信号を送信する通信部と、
    特定のユーザによって前記複数の仮想生物が同時に視認されないように前記複数の仮想生物のうちの少なくともいずれか一つの仮想生物の動作を制御する信号を生成すると共に当該信号を当該一つの仮想生物に送信するように前記通信部を制御する制御部と、
    を備え、
    前記制御部は、
    前記通信部を介して、第1の仮想生物が、特定のユーザに視認されない、スリープ状態になったことを示す前記現在の状態の情報を受信すると;
    前記通信部を介して、スリープ状態である第2の仮想生物に対して、起動を許可する信号を送信し、
    第1の仮想生物が起動状態であるとき、
    前記制御部は、
    前記通信部を介して受信された、前記第1の仮想生物の現在の状態の情報が周囲にユーザが存在しないことを示すとき;
    前記通信部を介して、前記第1の仮想生物に対して動作を停止するよう指示する制御信号を送信し;
    前記第1の仮想生物の現在の状態の情報が、動作を停止している状態であるときに所定レベル以上の音声を検知したことを示すとき;
    前記通信部を介して、前記第1の仮想生物に対して、起動許可の信号を送信する、仮想生物制御システム。
  23. プロセッサが、
    複数の仮想生物の現在の状態の情報を受信すると共に、当該複数の仮想生物の動作を制御する信号を通信部により送信することと、
    特定のユーザによって前記複数の仮想生物が同時に視認されないように前記複数の仮想生物のうちの少なくともいずれか一つの仮想生物の動作を制御する信号を生成すると共に当該信号を当該一つの仮想生物に送信するように前記通信部を制御することと、
    を含み、
    前記プロセッサは、
    前記通信部を介して、第1の仮想生物が、特定のユーザに視認されない、スリープ状態になったことを示す前記現在の状態の情報を受信すると;
    前記通信部を介して、スリープ状態である第2の仮想生物に対して、起動を許可する信号を送信し、
    前記第1の仮想生物はロボットであって、
    前記スリープ状態は、前記第1の仮想生物が特定のユーザに視認されないように自律的に収納部内に移動した状態である、仮想生物制御方法。
  24. プロセッサが、
    複数の仮想生物の現在の状態の情報を受信すると共に、当該複数の仮想生物の動作を制御する信号を通信部により送信することと、
    特定のユーザによって前記複数の仮想生物が同時に視認されないように前記複数の仮想生物のうちの少なくともいずれか一つの仮想生物の動作を制御する信号を生成すると共に当該信号を当該一つの仮想生物に送信するように前記通信部を制御することと、
    を備え、
    前記プロセッサは、
    前記通信部を介して、第1の仮想生物が、特定のユーザに視認されない、スリープ状態になったことを示す前記現在の状態の情報を受信すると;
    前記通信部を介して、スリープ状態である第2の仮想生物に対して、起動を許可する信号を送信し、
    前記通信部は、第1の仮想生物が学習したユーザに関する知識を受信し、
    前記プロセッサは、前記通信部を介して、前記知識に基づいて生成された第2の仮想生物の動作を制御する信号を前記第2の仮想生物に送信するよう前記通信部を制御し、
    前記プロセッサは;
    前記第1の仮想生物に対する第1ユーザの声掛けに対してランダムに選択したポーズを取るよう指示する制御信号を送信し;
    当該ポーズに対する前記第1ユーザのフィードバックを、前記第1の仮想生物が学習したユーザに関する知識として前記通信部により受信し;
    前記フィードバックに応じて、前記声掛けに前記ランダムに選択したポーズを対応付けて記憶する、仮想生物制御方法。
  25. プロセッサが、
    複数の仮想生物の現在の状態の情報を受信すると共に、当該複数の仮想生物の動作を制御する信号を通信部により送信することと、
    特定のユーザによって前記複数の仮想生物が同時に視認されないように前記複数の仮想生物のうちの少なくともいずれか一つの仮想生物の動作を制御する信号を生成すると共に当該信号を当該一つの仮想生物に送信するように前記通信部を制御することと、
    を備え、
    前記プロセッサは、
    前記通信部を介して、第1の仮想生物が、特定のユーザに視認されない、スリープ状態になったことを示す前記現在の状態の情報を受信すると;
    前記通信部を介して、スリープ状態である第2の仮想生物に対して、起動を許可する信号を送信し、
    第1の仮想生物が起動状態で、第2の仮想生物がスリープ状態であるとき、
    前記プロセッサは、
    前記通信部を介して受信した、前記第2の仮想生物の現在の状態の情報が特定のユーザからの起動要求を示し、前記第1の仮想生物の現在の状態の情報が特定のユーザに視認されている状態ではないことを示すとき;
    前記通信部を介して、前記第1の仮想生物に対してスリープ状態になるよう指示する制御信号を送信することなく、前記第2の仮想生物に対して起動を許可する信号を送信する、仮想生物制御方法。
  26. プロセッサが、
    複数の仮想生物の現在の状態の情報を受信すると共に、当該複数の仮想生物の動作を制御する信号を通信部により送信することと、
    特定のユーザによって前記複数の仮想生物が同時に視認されないように前記複数の仮想生物のうちの少なくともいずれか一つの仮想生物の動作を制御する信号を生成すると共に当該信号を当該一つの仮想生物に送信するように前記通信部を制御することと、
    を備え、
    前記プロセッサは、
    前記通信部を介して、第1の仮想生物が、特定のユーザに視認されない、スリープ状態になったことを示す前記現在の状態の情報を受信すると;
    前記通信部を介して、スリープ状態である第2の仮想生物に対して、起動を許可する信号を送信し、
    前記プロセッサは、
    前記第1の仮想生物の周辺にいる第1ユーザが、前記第2の仮想生物の周辺にいる第2ユーザに通信要求したことを検出すると;
    前記通信部を介して、前記第1の仮想生物に対して、スリープ状態になるよう指示する制御信号を送信し;
    さらに、前記通信部を介して、前記第1の仮想生物がスリープ状態になったことを示す前記現在の状態の情報を受信すると;
    前記通信部を介して、前記第2の仮想生物に対し、起動許可の信号と、前記第1ユーザからの通信要求があったことを前記第2ユーザに知らせるよう指示する制御信号を送信する、仮想生物制御方法。
  27. プロセッサが、
    複数の仮想生物の現在の状態の情報を受信すると共に、当該複数の仮想生物の動作を制御する信号を通信部により送信することと、
    特定のユーザによって前記複数の仮想生物が同時に視認されないように前記複数の仮想生物のうちの少なくともいずれか一つの仮想生物の動作を制御する信号を生成すると共に当該信号を当該一つの仮想生物に送信するように前記通信部を制御することと、
    を備え、
    前記プロセッサは、
    前記通信部を介して、第1の仮想生物が、特定のユーザに視認されない、スリープ状態になったことを示す前記現在の状態の情報を受信すると;
    前記通信部を介して、スリープ状態である第2の仮想生物に対して、起動を許可する信号を送信し、
    第1の仮想生物が起動状態であるとき、
    前プロセッサは、
    前記通信部を介して受信された、前記第1の仮想生物の現在の状態の情報が周囲にユーザが存在しないことを示すとき;
    前記通信部を介して、前記第1の仮想生物に対して動作を停止するよう指示する制御信号を送信し;
    前記第1の仮想生物の現在の状態の情報が、動作を停止している状態であるときに所定レベル以上の音声を検知したことを示すとき;
    前記通信部を介して、前記第1の仮想生物に対して、起動許可の信号を送信する、仮想生物制御方法。
  28. コンピュータを、
    複数の仮想生物の現在の状態の情報を受信すると共に、当該複数の仮想生物の動作を制御する信号を送信する通信部と、
    特定のユーザによって前記複数の仮想生物が同時に視認されないように前記複数の仮想生物のうちの少なくともいずれか一つの仮想生物の動作を制御する信号を生成すると共に当該信号を当該一つの仮想生物に送信するように前記通信部を制御する制御部と、して機能させるためのプログラムであって、
    前記制御部は、
    前記通信部を介して、第1の仮想生物が、特定のユーザに視認されない、スリープ状態になったことを示す前記現在の状態の情報を受信すると;
    前記通信部を介して、スリープ状態である第2の仮想生物に対して、起動を許可する信号を送信し、
    前記第1の仮想生物はロボットであって、
    前記スリープ状態は、前記第1の仮想生物が特定のユーザに視認されないように自律的に収納部内に移動した状態である、プログラム。
  29. コンピュータを、
    複数の仮想生物の現在の状態の情報を受信すると共に、当該複数の仮想生物の動作を制御する信号を送信する通信部と、
    特定のユーザによって前記複数の仮想生物が同時に視認されないように前記複数の仮想生物のうちの少なくともいずれか一つの仮想生物の動作を制御する信号を生成すると共に当該信号を当該一つの仮想生物に送信するように前記通信部を制御する制御部と、して機能させるためのプログラムであって、
    前記制御部は、
    前記通信部を介して、第1の仮想生物が、特定のユーザに視認されない、スリープ状態になったことを示す前記現在の状態の情報を受信すると;
    前記通信部を介して、スリープ状態である第2の仮想生物に対して、起動を許可する信号を送信し、
    前記通信部は、第1の仮想生物が学習したユーザに関する知識を受信し、
    前記制御部は、前記通信部を介して、前記知識に基づいて生成された第2の仮想生物の動作を制御する信号を前記第2の仮想生物に送信するよう前記通信部を制御し、
    前記制御部は;
    前記第1の仮想生物に対する第1ユーザの声掛けに対してランダムに選択したポーズを取るよう指示する制御信号を送信し;
    当該ポーズに対する前記第1ユーザのフィードバックを、前記第1の仮想生物が学習したユーザに関する知識として前記通信部により受信し;
    前記フィードバックに応じて、前記声掛けに前記ランダムに選択したポーズを対応付けて記憶する、プログラム。
  30. コンピュータを、
    複数の仮想生物の現在の状態の情報を受信すると共に、当該複数の仮想生物の動作を制御する信号を送信する通信部と、
    特定のユーザによって前記複数の仮想生物が同時に視認されないように前記複数の仮想生物のうちの少なくともいずれか一つの仮想生物の動作を制御する信号を生成すると共に当該信号を当該一つの仮想生物に送信するように前記通信部を制御する制御部と、して機能させるためのプログラムであって、
    前記制御部は、
    前記通信部を介して、第1の仮想生物が、特定のユーザに視認されない、スリープ状態になったことを示す前記現在の状態の情報を受信すると;
    前記通信部を介して、スリープ状態である第2の仮想生物に対して、起動を許可する信号を送信し、
    第1の仮想生物が起動状態で、第2の仮想生物がスリープ状態であるとき、
    前記制御部は、
    前記通信部を介して受信した、前記第2の仮想生物の現在の状態の情報が特定のユーザからの起動要求を示し、前記第1の仮想生物の現在の状態の情報が特定のユーザに視認されている状態ではないことを示すとき;
    前記通信部を介して、前記第1の仮想生物に対してスリープ状態になるよう指示する制御信号を送信することなく、前記第2の仮想生物に対して起動を許可する信号を送信する、プログラム。
  31. コンピュータを、
    複数の仮想生物の現在の状態の情報を受信すると共に、当該複数の仮想生物の動作を制御する信号を送信する通信部と、
    特定のユーザによって前記複数の仮想生物が同時に視認されないように前記複数の仮想生物のうちの少なくともいずれか一つの仮想生物の動作を制御する信号を生成すると共に当該信号を当該一つの仮想生物に送信するように前記通信部を制御する制御部と、して機能させるためのプログラムであって、
    前記制御部は、
    前記通信部を介して、第1の仮想生物が、特定のユーザに視認されない、スリープ状態になったことを示す前記現在の状態の情報を受信すると;
    前記通信部を介して、スリープ状態である第2の仮想生物に対して、起動を許可する信号を送信し、
    前記制御部は、
    前記第1の仮想生物の周辺にいる第1ユーザが、前記第2の仮想生物の周辺にいる第2ユーザに通信要求したことを検出すると;
    前記通信部を介して、前記第1の仮想生物に対して、スリープ状態になるよう指示する制御信号を送信し;
    さらに、前記通信部を介して、前記第1の仮想生物がスリープ状態になったことを示す前記現在の状態の情報を受信すると;
    前記通信部を介して、前記第2の仮想生物に対し、起動許可の信号と、前記第1ユーザからの通信要求があったことを前記第2ユーザに知らせるよう指示する制御信号を送信する、プログラム。
  32. コンピュータを、
    複数の仮想生物の現在の状態の情報を受信すると共に、当該複数の仮想生物の動作を制御する信号を送信する通信部と、
    特定のユーザによって前記複数の仮想生物が同時に視認されないように前記複数の仮想生物のうちの少なくともいずれか一つの仮想生物の動作を制御する信号を生成すると共に当該信号を当該一つの仮想生物に送信するように前記通信部を制御する制御部と、して機能させるためのプログラムであって、
    前記制御部は、
    前記通信部を介して、第1の仮想生物が、特定のユーザに視認されない、スリープ状態になったことを示す前記現在の状態の情報を受信すると;
    前記通信部を介して、スリープ状態である第2の仮想生物に対して、起動を許可する信号を送信し、
    第1の仮想生物が起動状態であるとき、
    前記制御部は、
    前記通信部を介して受信された、前記第1の仮想生物の現在の状態の情報が周囲にユーザが存在しないことを示すとき;
    前記通信部を介して、前記第1の仮想生物に対して動作を停止するよう指示する制御信号を送信し;
    前記第1の仮想生物の現在の状態の情報が、動作を停止している状態であるときに所定レベル以上の音声を検知したことを示すとき;
    前記通信部を介して、前記第1の仮想生物に対して、起動許可の信号を送信する、プログラム。
JP2021013585A 2016-06-06 2021-01-29 仮想生物制御システム、仮想生物制御方法およびプログラム Active JP7188471B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016112922 2016-06-06
JP2016112922 2016-06-06

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018522331A Division JP6838607B2 (ja) 2016-06-06 2017-03-08 仮想生物制御システム、仮想生物制御方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2021072944A JP2021072944A (ja) 2021-05-13
JP7188471B2 true JP7188471B2 (ja) 2022-12-13

Family

ID=60577670

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018522331A Active JP6838607B2 (ja) 2016-06-06 2017-03-08 仮想生物制御システム、仮想生物制御方法およびプログラム
JP2021013585A Active JP7188471B2 (ja) 2016-06-06 2021-01-29 仮想生物制御システム、仮想生物制御方法およびプログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018522331A Active JP6838607B2 (ja) 2016-06-06 2017-03-08 仮想生物制御システム、仮想生物制御方法およびプログラム

Country Status (3)

Country Link
US (2) US11185989B2 (ja)
JP (2) JP6838607B2 (ja)
WO (1) WO2017212723A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10690466B2 (en) 2017-04-19 2020-06-23 Global Tel*Link Corporation Mobile correctional facility robots
US10949940B2 (en) * 2017-04-19 2021-03-16 Global Tel*Link Corporation Mobile correctional facility robots
JP6986147B2 (ja) * 2018-05-16 2021-12-22 富士フイルム株式会社 生体情報取得システム、電子機器、生体情報取得方法、及び生体情報取得プログラム
JP6738870B2 (ja) * 2018-09-20 2020-08-12 株式会社バンダイ ゲーム玩具、プログラム、及び記録媒体
JP7363823B2 (ja) * 2019-01-22 2023-10-18 ソニーグループ株式会社 情報処理装置、および情報処理方法
KR20210001627A (ko) * 2019-06-28 2021-01-06 엘지전자 주식회사 로봇 시스템 및 그 제어방법
JP6792733B1 (ja) * 2020-03-31 2020-11-25 東京瓦斯株式会社 ロボットコミュニケーションシステム、コミュニケーションロボット、および遠隔見守り方法
JP2020185404A (ja) * 2020-07-20 2020-11-19 株式会社バンダイ ゲーム玩具、プログラム、及び記録媒体
JP6997482B1 (ja) * 2021-06-03 2022-02-14 アトラクチャー株式会社 プログラム、方法、情報処理装置、及びシステム
WO2023037609A1 (ja) * 2021-09-10 2023-03-16 ソニーグループ株式会社 自律移動体、情報処理方法、及び、プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000181897A (ja) 1998-12-11 2000-06-30 Casio Comput Co Ltd キャラクター表示制御装置、キャラクター表示制御システム、及び記録媒体
WO2009001700A1 (ja) 2007-06-25 2008-12-31 Softbank Bb Corp. 電子ペット情報移行方法、電子ペットシステム、携帯電話端末
US20110070935A1 (en) 2009-09-23 2011-03-24 Disney Enterprises, Inc. Traveling virtual pet game system
JP2012055506A (ja) 2010-09-09 2012-03-22 Konami Digital Entertainment Co Ltd ゲームシステム

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3161400B2 (ja) 1996-12-20 2001-04-25 ソニー株式会社 電子メールの送信方法及び送信装置、電子メールの受信方法及び受信装置、電子メールの送信プログラム供給媒体及び受信プログラム供給媒体
JPH11126017A (ja) * 1997-08-22 1999-05-11 Sony Corp 記憶媒体、ロボット、情報処理装置、並びに電子ペットシステム
JPH11212934A (ja) * 1998-01-23 1999-08-06 Sony Corp 情報処理装置および方法、並びに提供媒体
CN100387407C (zh) * 1998-09-10 2008-05-14 索尼株式会社 机器人装置与其控制方法和显示方法及提供媒体
KR20010053322A (ko) * 1999-04-30 2001-06-25 이데이 노부유끼 전자 페트 시스템, 네트워크 시스템, 로봇, 및 기억 매체
CN1363074A (zh) * 2000-02-09 2002-08-07 索尼公司 信息处理设备和方法、数据存储设备和程序
CN1372506A (zh) * 2000-03-24 2002-10-02 索尼公司 机器人设备行为决定方法和机器人设备
JP2001306145A (ja) * 2000-04-25 2001-11-02 Casio Comput Co Ltd 移動ロボット装置およびそのプログラム記録媒体
US6951516B1 (en) * 2001-08-21 2005-10-04 Nintendo Co., Ltd. Method and apparatus for multi-user communications using discrete video game platforms
JP4765155B2 (ja) * 2000-09-28 2011-09-07 ソニー株式会社 オーサリング・システム及びオーサリング方法、並びに記憶媒体
JP2002127059A (ja) * 2000-10-20 2002-05-08 Sony Corp 行動制御装置および方法、ペットロボットおよび制御方法、ロボット制御システム、並びに記録媒体
KR20020061961A (ko) * 2001-01-19 2002-07-25 사성동 지능형 애완로봇
JP2003006532A (ja) * 2001-06-27 2003-01-10 Fujitsu Ltd 移動ロボットとその獲得画像を用いたサーバ経由のサービス提供方式
JP2004001162A (ja) * 2002-03-28 2004-01-08 Fuji Photo Film Co Ltd ペットロボット充電システム、受取装置、ロボット、及びロボットシステム
JP2003340759A (ja) * 2002-05-20 2003-12-02 Sony Corp ロボット装置およびロボット制御方法、記録媒体、並びにプログラム
JP2004033624A (ja) * 2002-07-05 2004-02-05 Nti:Kk ペット型ロボットによる遠隔制御装置
JP2005111603A (ja) 2003-10-07 2005-04-28 Lazona Inc ロボットおよびロボット管理装置
JP2005111637A (ja) 2003-10-10 2005-04-28 Ntt Data Corp ネットワークロボットサービスシステム
JP2005279828A (ja) 2004-03-29 2005-10-13 Victor Co Of Japan Ltd 情報共有可能なロボット
JPWO2005099971A1 (ja) * 2004-04-16 2007-08-16 松下電器産業株式会社 ロボット、ヒント出力装置、ロボット制御システム、ロボット制御方法、ロボット制御プログラム及び集積回路
US20060271798A1 (en) * 2005-05-31 2006-11-30 Sony Computer Entertainment America Inc. Configurable interrupt scheme for waking up a system from sleep mode
US20070111795A1 (en) * 2005-11-15 2007-05-17 Joon-Hyuk Choi Virtual entity on a network
KR101399199B1 (ko) * 2007-07-16 2014-05-27 삼성전자주식회사 소프트웨어 로봇의 유전자 코드 구성 방법
US20090248200A1 (en) 2007-10-22 2009-10-01 North End Technologies Method & apparatus for remotely operating a robotic device linked to a communications network
JP4560078B2 (ja) * 2007-12-06 2010-10-13 本田技研工業株式会社 コミュニケーションロボット
JP5324286B2 (ja) * 2009-03-30 2013-10-23 株式会社国際電気通信基礎技術研究所 ネットワークロボットシステム、ロボット制御装置、ロボット制御方法およびロボット制御プログラム
US8795072B2 (en) * 2009-10-13 2014-08-05 Ganz Method and system for providing a virtual presentation including a virtual companion and virtual photography
TW201235925A (en) * 2011-02-18 2012-09-01 Medici Creativity Co Ltd Driver featuring interactive sensing with touch panel assembly and method of interactive sensing
WO2012142936A1 (zh) * 2011-04-19 2012-10-26 玩具概念有限公司 电子互动玩具装置
TW201317905A (zh) * 2011-10-25 2013-05-01 Inventec Corp 生物動態模擬方法及應用其之電子裝置
US20160236096A1 (en) * 2014-02-14 2016-08-18 Michael Trzecieski Wellness System For Interacting With A User
JP7331462B2 (ja) * 2019-05-24 2023-08-23 京セラドキュメントソリューションズ株式会社 ロボットシステム、ロボット制御方法及び電子装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000181897A (ja) 1998-12-11 2000-06-30 Casio Comput Co Ltd キャラクター表示制御装置、キャラクター表示制御システム、及び記録媒体
WO2009001700A1 (ja) 2007-06-25 2008-12-31 Softbank Bb Corp. 電子ペット情報移行方法、電子ペットシステム、携帯電話端末
US20110070935A1 (en) 2009-09-23 2011-03-24 Disney Enterprises, Inc. Traveling virtual pet game system
JP2012055506A (ja) 2010-09-09 2012-03-22 Konami Digital Entertainment Co Ltd ゲームシステム

Also Published As

Publication number Publication date
JP2021072944A (ja) 2021-05-13
US20220009105A1 (en) 2022-01-13
US11185989B2 (en) 2021-11-30
US20200039078A1 (en) 2020-02-06
JPWO2017212723A1 (ja) 2019-04-04
US11826898B2 (en) 2023-11-28
WO2017212723A1 (ja) 2017-12-14
JP6838607B2 (ja) 2021-03-03

Similar Documents

Publication Publication Date Title
JP7188471B2 (ja) 仮想生物制御システム、仮想生物制御方法およびプログラム
JP5888172B2 (ja) データ記憶装置およびプログラム
US20220032482A1 (en) Information processing device and storage medium
JP7400923B2 (ja) 情報処理装置および情報処理方法
US20230266767A1 (en) Information processing apparatus, information processing method, and program
JP2019510288A (ja) 盗難防止監視装置、システム及び方法
WO2018155116A1 (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
JP7375770B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP7273566B2 (ja) ロボット、ロボットの制御方法及びプログラム
JP7014168B2 (ja) 仮想生物制御システム、仮想生物制御方法、およびプログラム
US11511410B2 (en) Artificial intelligence (AI) robot and control method thereof
US11938625B2 (en) Information processing apparatus, information processing method, and program
JP2019010710A (ja) ロボット展示装置、ロボット展示システム、ロボット展示方法およびプログラム
CN111701251A (zh) 一种智能宠物玩具系统
JP5633003B2 (ja) 記録制御装置および記録制御プログラム
JP7212766B2 (ja) コミュニケーションロボットおよびその制御方法、情報処理サーバならびに情報処理方法
JP7208361B2 (ja) コミュニケーションロボットおよびその制御方法、情報処理サーバならびに情報処理方法
EP3886412A1 (en) Display device
JP7374581B2 (ja) ロボット、画像処理方法及びプログラム
CN116184887A (zh) 机器人控制方法、装置、机器人以及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220715

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221114

R151 Written notification of patent or utility model registration

Ref document number: 7188471

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151