JPWO2019116521A1 - エンターテインメントシステム、ロボット装置およびサーバ装置 - Google Patents

エンターテインメントシステム、ロボット装置およびサーバ装置 Download PDF

Info

Publication number
JPWO2019116521A1
JPWO2019116521A1 JP2019558815A JP2019558815A JPWO2019116521A1 JP WO2019116521 A1 JPWO2019116521 A1 JP WO2019116521A1 JP 2019558815 A JP2019558815 A JP 2019558815A JP 2019558815 A JP2019558815 A JP 2019558815A JP WO2019116521 A1 JPWO2019116521 A1 JP WO2019116521A1
Authority
JP
Japan
Prior art keywords
robot
virtual
unit
robot device
request
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019558815A
Other languages
English (en)
Other versions
JP7128842B2 (ja
Inventor
和大 柳瀬
和大 柳瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JPWO2019116521A1 publication Critical patent/JPWO2019116521A1/ja
Application granted granted Critical
Publication of JP7128842B2 publication Critical patent/JP7128842B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0084Programme-controlled manipulators comprising a plurality of manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/001Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/32Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using local area network [LAN] connections
    • A63F13/327Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using local area network [LAN] connections using wireless networks, e.g. Wi-Fi® or piconet
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/58Controlling game characters or game objects based on the game progress by computing conditions of game characters, e.g. stamina, strength, motivation or energy level
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/825Fostering virtual characters
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H30/00Remote-control arrangements specially adapted for toys, e.g. for toy vehicles
    • A63H30/02Electrical arrangements
    • A63H30/04Electrical arrangements using wireless transmission
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/003Manipulators for entertainment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/006Controls for manipulators by means of a wireless system for controlling one or several manipulators

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Manipulator (AREA)
  • Toys (AREA)

Abstract

エンターテインメントシステム1は、現実世界において自律行動モードで行動可能なロボット装置20と、ロボット装置20に対応付けられた仮想ロボット40を仮想世界において行動させるサーバ装置10と、仮想ロボット40が行動する仮想世界の画像を表示可能な端末装置12とを備える。サーバ装置10は、仮想世界の画像を端末装置12に提供する。サーバ装置10は、仮想ロボット40の要求をロボット装置20に送信し、ロボット装置20は、仮想ロボット40の要求を取得すると、仮想ロボット40と連携する連携行動モードで行動する。

Description

本発明は、エンターテインメントシステム、ロボット装置およびサーバ装置に関する。
特許文献1は、電子ペットの肉体をペット型ロボットと画面上に電子ペットの画像を表示する仮想ペット装置とで実現し、電子ペットの魂をICカードで実現する電子ペットシステムを開示する。ペット型ロボットおよび仮想ペット装置は、魂であるICカードを装着することで、電子ペットとして機能する。仮想ペット装置がICカードを装着すると、そのモニタに電子ペットが表示され、電子ペットがICカードに記憶された遺伝子データにもとづいてアクションを起こす。またペット型ロボットもICカードを装着すると、ICカードに記憶された遺伝子データにもとづいてアクションを起こす。
特許文献1に開示される電子ペットシステムでは、仮想ペット装置とペット型ロボットとが同一構成の内部状態のモデルを有し、ICカードを仮想ペット装置とペット型ロボットとの間で相互に入れ替えても、電子ペットの特徴やアクションが同一となるように制御される。
特開平11−126017号公報
技術の発達により、ロボットの機能は大きく進化している。近年ではペット型ロボットだけでなく、ダンスなど様々な動作を行うことのできる人型ロボットも市販されている。また音声処理機能および画像処理機能が向上し、これらの機能を搭載したロボットが人間の発話内容を理解して人間と会話したり、また人間の表情変化を検知して人間の感情を推測する研究も行われている。本発明者は、このようなロボット機能の進化に着目し、ロボットを利用したエンターテインメントを実現する環境を提案する。
本発明の目的は、人間がロボットと触れ合う新しい環境を提供することにある。
上記課題を解決するために、本発明のある態様のエンターテインメントシステムは、現実世界において自律行動モードで行動可能なロボット装置と、ロボット装置に対応付けられた仮想ロボットが自律的に行動する仮想世界を構築するためのサーバ装置と、仮想ロボットが行動する仮想世界の画像を表示可能な端末装置とを備える。サーバ装置は、仮想世界の画像を端末装置に提供する。サーバ装置は仮想ロボットからの要求をロボット装置に送信し、ロボット装置は仮想ロボットからの要求を取得すると、仮想ロボットと連携する連携行動モードで行動する。
本発明の別の態様は、自律行動モードで行動可能なロボット装置である。この態様のロボット装置は、仮想世界において当該ロボット装置に対応付けられた仮想ロボットからの要求を取得する要求取得部と、要求取得部が仮想ロボットからの要求を取得すると、仮想ロボットと連携する連携行動モードを設定するモード設定部と、連携行動モードが設定されると、仮想ロボットからの要求に応じた行動を決定する行動決定部と、行動決定部が決定した行動をとるように、当該ロボット装置の動作を制御する制御部とを備える。
本発明のさらに別の態様は、現実世界のロボット装置に対応付けられた仮想ロボットを仮想世界において行動させるサーバ装置である。この態様のサーバ装置は、仮想ロボットからの要求をロボット装置に送信する要求送信部と、ロボット装置からユーザの応答を取得する応答取得部と、ユーザの応答を、仮想ロボットの動作に反映させる仮想ロボット制御部とを備える。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、コンピュータプログラムを読み取り可能に記録した記録媒体、データ構造などの間で変換したものもまた、本発明の態様として有効である。
エンターテインメントシステムの概略構成を示す図である。 ロボット装置の外観例を示す図である。 ロボット装置の入出力系統を示す図である。 仮想世界の一例を示す図である。 状態情報の一例を示す図である。 ロボット装置の動作を制御する構成を示す図である。 サーバ装置の構成を示す図である。 端末装置の構成を示す図である。 アスレチックアクティビティの実施空間に入るためのゲートを示す図である。
実施例では、ユーザが現実世界にいるロボット装置と触れ合い、仮想世界にいる仮想ロボットの様子を見ることのできるエンターテインメントシステムを提供する。
図1は、実施例のエンターテインメントシステム1の概略構成を示す。エンターテインメントシステム1は、現実世界において自律行動モードで行動可能なロボット装置20と、ロボット装置20に対応付けられた仮想ロボット40を仮想世界において行動させるサーバ装置10と、仮想ロボット40が行動する仮想世界の画像を表示可能な端末装置12とを備える。ロボット装置20および端末装置12は、アクセスポイント(AP)3を介して、インターネットなどのネットワーク2経由でサーバ装置10に接続し、サーバ装置10は、仮想世界の画像を端末装置12に提供する。
ロボット装置20は、ユーザによって所有される。ロボット装置20は人型やペット型のロボットであって、腕や脚、首などの関節部分にアクチュエータを有し、移動を含む様々な行動をとることができるように構成されている。ロボット装置20は、顔の表情なども変化可能であることが好ましい。またロボット装置20は、ユーザの発話内容を解析する音声処理機能や、カメラでユーザを撮影した画像やタッチセンサなどの情報からユーザの行動を認識する機能を備える。
図2は、人型ロボットであるロボット装置20の外観例を示す。実施例のエンターテインメントシステム1は、ユーザがロボット装置20と触れ合う環境を提供することを目的とするため、ロボット装置20は人型やペット型のように、生命体であることをユーザに感じさせる形態をとることが好ましいが、特に形状を限定するものではない。
図3は、ロボット装置20の入出力系統を示す。処理部30は、音声データ、センサデータなどの各種データや、命令を処理して出力するメインプロセッサである。処理部30は、駆動機構34を駆動してロボット装置20を動かし、またスピーカ36から音声を出力させる。駆動機構34は、ロボット装置20の可動部である関節部分に組み込まれたモータおよびモータ間を連結するリンク機構、モータの回転角を検出する回転角センサを含み、モータが駆動されることで、ロボット装置20の腕や脚、首などが動かされる。なお処理部30は、サーバ装置10で生成された動作データにもとづいて、駆動機構34を駆動し、またスピーカ36から音声を出力させることもある。
マイク22は周囲の音声を集音して音声信号に変換し、カメラ24は周囲を撮影して、撮影画像を取得する。センサ26は、ユーザによる接触を検知するタッチセンサや、ロボット装置自身の向きや姿勢、移動量などを検知する3軸の加速度センサ、ジャイロセンサ、測位センサなどを含む。記憶部28は、処理部30が処理するデータや命令などを記憶する。通信部32はアンテナを介して、処理部30から出力されるデータを無線通信によりサーバ装置10に送信し、またサーバ装置10から動作データや各種情報などを無線通信により受信し、処理部30に出力する。
ロボット装置20は、ロボット個体の性格や感情などを表現する状態情報と、ロボット個体の機能を表現する機能情報とを有する。ロボット装置20の状態情報および機能情報は記憶部28に記憶され、ロボット装置20の体験によって適宜更新されて、サーバ装置10との間で同期される。処理部30は状態情報および/または機能情報にもとづいて、ロボット装置20を自律行動させるとともに、ロボット装置20がとる行動および/または現実世界のロボット装置20に対する外部からの入力に応じて、状態情報および/または機能情報を更新する。
ユーザは、自分が所有するロボット装置20をサーバ装置10に登録することで、エンターテインメントシステム1に参加する。サーバ装置10は、ロボット装置20をユーザに紐付けて登録すると、ロボット装置20に対応する仮想ロボット40を作成し、仮想世界において行動させる。ユーザは、スマートフォンやタブレットなどの端末装置12を通じて、仮想ロボットが行動する仮想世界の様子を見ることができる。
サーバ装置10は、仮想ロボット40を、現実世界のロボット装置20と同じ外観をもつ仮想オブジェクトモデルとして作成する。これによりユーザは端末装置12を通じて、3次元CG(コンピュータグラフィックス)で形成される仮想世界を、ロボット装置20と同じ外観をもつ仮想ロボット40が行動する様子を見ることができる。なおサーバ装置10は、仮想ロボット40の身体機能を、ロボット装置20の身体機能と合わせることが好ましい。
たとえばロボット装置20が脚部を、腰部に対して直立状態から前後に90度までしか回転させられないという機構上の制約をもつ場合、サーバ装置10は、同様の制約を仮想ロボット40に課すことが好ましい。つまりロボット装置20の腰部に対する脚部の回転角度の上限が90度であれば、サーバ装置10は、仮想ロボット40の腰部に対する脚部の回転角度の上限を同じく90度に設定する。サーバ装置10は、ロボット装置20の駆動機構34の各関節の可動域や、ロボット装置20の最大歩行速度などの仕様情報を取得し、仮想ロボット40の身体機能を設定する。ロボット装置20の仕様情報は、たとえばロボット装置20のメーカから取得してよい。仮想ロボット40の身体機能をロボット装置20の身体機能と合わせることで、ユーザが端末装置12で仮想ロボット40を見たときに、自身が所有するロボット装置20が仮想世界で行動していることを実感できるようになる。
エンターテインメントシステム1では、ロボット装置20および仮想ロボット40の機能情報が同期して管理される。ここで機能情報は、実施可能または実施不能な機能に関する情報であり、ロボット装置20は、アプリケーションプログラム(以下、「アプリ」とも呼ぶ)をインストールすることで、当該アプリの機能を獲得する。たとえばロボット装置20は、ダンスを踊るアプリケーションプログラム(「ダンスアプリ」)をインストールすることで、ダンスを踊れるようになる。このときロボット装置20において、ダンス機能が、実施可能であることを示す機能値「オン」として管理される。一方、ダンスアプリをインストールしていなければ、ロボット装置20はダンスを踊れず、ダンス機能は、実施不能であることを示す機能値「オフ」として管理される。
ロボット装置20においてダンス機能の機能値が更新されると、その更新情報がサーバ装置10に送信されて、サーバ装置10で、ダンス機能の機能値を更新する同期処理が実施される。サーバ装置10は、仮想ロボット40のダンス機能を、ダンス機能の機能値にしたがって制御する。つまりダンス機能値が「オン」であれば、サーバ装置10は、仮想世界で仮想ロボット40にダンスをさせることができ、ダンス機能値が「オフ」であれば、仮想世界で仮想ロボット40にダンスをさせない。このように機能値は、現実世界と仮想世界の両方にて有効とされ、したがってロボット装置20が現実世界で実施可能な機能と、仮想ロボット40が仮想世界で実施可能な機能とが等しくされる。そのためロボット装置20においてダンスアプリがアンインストールされると、ダンス機能値が「オフ」となることで、ロボット装置20および仮想ロボット40ともにダンスを踊れなくなる。
仮想ロボット40は、仮想世界で、ダンスを踊れる別の仮想ロボットからダンスを教えてもらうことで、ダンスを覚えることもできる。仮想ロボット40がダンスを覚えると、サーバ装置10は、ロボット装置20にダンスアプリを配信する。なおサーバ装置10以外のアプリケーションサーバが、ロボット装置20にダンスアプリを配信してもよい。ロボット装置20の処理部30が、配信されたダンスアプリをインストールすると、ダンス機能値を「オン」に設定し、ダンス機能値の更新情報をサーバ装置10に送信する。これによりサーバ装置10は、仮想ロボット40のダンス機能値を「オン」に設定する。
なおダンスアプリは機能の一例である。仮想ロボット40がじゃんけんを仮想世界で学習すると、ロボット装置20にじゃんけんのアプリケーションプログラム(「じゃんけんアプリ」)がインストールされて、ロボット装置20が、現実世界でユーザとじゃんけんできるようになる。また逆に、ロボット装置20がじゃんけんアプリをインストールすると、仮想世界で仮想ロボット40が他の仮想ロボットとじゃんけんできるようになる。
なお機能値は「オン」、「オフ」の二値をとるだけでなく、「ロウ」、「ミドル」、「ハイ」など達成度のレベルを示す値で表現されたり、所定の範囲において設定される数値で段階的に機能の習熟度や経験量を表現されたりしてもよい。機能値の種類は、アプリケーションプログラムの種類に応じて適宜設定されてよい。
このようにロボット装置20および仮想ロボット40の機能は、機能情報としてロボット装置20とサーバ装置10との間で同期して管理される。機能情報がロボット装置20およびサーバ装置10において同期して管理されることで、ロボット装置20ができることは仮想ロボット40でもできるようになり、また仮想ロボット40ができることはロボット装置20でもできるようになる。
実施例のサーバ装置10は、複数のユーザの仮想ロボットが参加して、それぞれが自律的に行動する仮想世界を提供する。サーバ装置10は、各仮想ロボットを、それぞれの状態情報および機能情報にしたがって、仮想世界で自律行動させる。仮想世界には、3次元CGで形成される街が構築されており、様々なユーザの仮想ロボットが自律的に行動して生活を営んでいる。
図4は、仮想世界の一例を示す。仮想ロボット40は、ユーザが所有するロボット装置20に対応付けられたCGキャラクタであり、ロボット装置20と同様の外観を有している。サーバ装置10は、複数の仮想ロボットが行動し、仮想ロボット同士が出会うことでコミュニケーションをとることのできる仮想世界を構築する。仮想ロボット40は仮想世界の中で様々な体験をすることで新たな機能を獲得し、また性格や感情を表現する状態情報(状態値)を更新する。
図5は、状態情報の一例を示す。以下、ロボット装置20および仮想ロボット40を、まとめて「ロボット」と呼ぶこともある。実施例の状態情報は、「感情」、「性格」、「行動特性」のロボット内部状態に関する情報を含む。「感情」は、「怒り」、「悲しみ」、「驚き」、「恐れ」、「嬉しさ」のパラメータで構成され、「性格」は、「積極的」、「感情的」、「気の強さ」、「行動力」、「好戦的」、「好奇心」、「優しさ」のパラメータで構成され、「行動特性」は、「口調」、「話すスピード」、「動作速度」のパラメータで構成される。各パラメータには、1〜5の範囲の整数値をとる状態値を設定される。状態値1は、その状態の程度が最も低いこと、状態値5は、その状態の程度が最も高いことを示す。なお内部状態のカテゴリ、および各内部状態のパラメータは、これらに限定されるものではない。
「感情」のパラメータは、ロボットの感情を表現する指標である。たとえば「怒り」の状態値1は、全く怒っていない状態を示し、状態値5は、怒りが最大である状態を示す。ロボット装置20がユーザから、ひどい言葉を受けたり、意地悪をされたりすると、「怒り」の状態値は高くなるように更新され、また仮想世界において仮想ロボット40が他の仮想ロボットから、ひどい言葉を受けたり、意地悪をされたりすると、「怒り」の状態値は高くなるように更新される。なお、このとき「嬉しさ」の状態値が低くなる(または、悲しさが増す)ように更新されてもよい。「感情」のパラメータの状態値は、現実世界における外部からの入力および仮想世界で発生するイベントに応じて、単独または組合せでその値が上下するように管理される。
「性格」のパラメータは、ロボットの性格を表現する指標である。「性格」のパラメータの状態値も、現実世界における外部からの入力および仮想世界で発生するイベントに応じて、単独または組合せでその値が上下するように管理される。
いくつかのパラメータについて説明すると、たとえば「積極的」パラメータは、人や他の仮想ロボットに対する積極性を表現し、状態値1は、人や他の仮想ロボットに近づこうとしない消極的な状態を、状態値5は、人や他の仮想ロボットに接触しようとする積極的な状態を示す。仮想ロボット40の「積極的」パラメータが状態値1である場合に、「積極的」パラメータが状態値5の別の仮想ロボットとコミュニケーションをとると、仮想ロボット40の「積極的」パラメータの状態値は高くなるように更新される。「積極的」パラメータの状態値が高くなると、ロボット装置20は、ユーザに近づくような自律行動をとるようになり、また仮想ロボット40は、他の仮想ロボットに話しかけるような行動をとりやすくなる。
「行動力」パラメータは、新しい場所を冒険しようとする行動力の強弱を表現し、状態値1は、行動範囲が狭い状態を、状態値5は、行動範囲が広く、新しい場所を冒険しようとする状態を示す。たとえばユーザがロボット装置20を家から屋外に持ち出すと、「行動力」パラメータの状態値が高くなるように更新されてよい。状態値はサーバ装置10において同期されるため、サーバ装置10は、仮想ロボット40を広い範囲で行動させるようになる。
「行動特性」のパラメータは、ロボットの行動特性を表現する指標である。「口調」パラメータは、言葉遣いが乱暴であるか、または丁寧であるかを表現し、状態値1は言葉遣いが最も乱暴な状態を、状態値5は言葉遣いが最も丁寧な状態を示す。「話すスピード」パラメータの状態値1は、話すスピードが最もゆっくりな状態を、状態値5は、話すスピードが最も速い状態を示す。「動作速度」パラメータの状態値1は、手や足の動きが最もゆっくりである状態を、状態値5は最も速い状態(きびきび動く状態)を示す。「行動特性」の各パラメータの状態値は、現実世界における外部からの入力および仮想世界で発生するイベントに応じて、上下するように管理される。
図6は、ロボット装置20の動作を制御する構成を示す。ロボット装置20は、動作制御構成として、入出力インタフェース100、状態管理部120、行動管理部130および記憶部28を備える。入出力インタフェース100、状態管理部120および行動管理部130の機能は、処理部30により実現される。
入出力インタフェース100は、サーバ装置10との間で各種データや、要求や応答などのメッセージの送受信を行うインタフェースであって、更新情報送信部102、更新情報取得部104、アプリケーション取得部106、要求取得部108、応答送信部110および動作データ取得部112を有する。状態管理部120は、ロボット装置20の状態および機能を管理し、状態決定部122、更新部124および同期部126を有する。行動管理部130は、ロボット装置20の行動を管理し、モード設定部132、行動決定部134および制御部136を有する。
記憶部28は、状態情報記憶部150、機能情報記憶部152、アプリケーション記憶部154および行動プログラム記憶部156を有する。状態情報記憶部150は、ロボット装置20の状態情報を記憶する。機能情報記憶部152は、ロボット装置20の機能情報を記憶する。アプリケーション記憶部154は、ロボット装置20の機能を実現するアプリケーションプログラムを記憶する。機能情報記憶部152は原則として、アプリがロボット装置20にインストールされていれば当該アプリの機能値をオン、インストールされていなければ当該アプリの機能値をオフとして機能情報を管理するが、インストールされていてもアプリを実行できない場合には、当該アプリの機能値をオフとして記憶する。行動プログラム記憶部156は、ロボット装置20に自律行動させるためのプログラムを記憶する。
図6において、さまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、回路ブロック、メモリ、その他のLSIで構成することができ、ソフトウェア的には、メモリにロードされたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
図7は、サーバ装置10の構成を示す。サーバ装置10は、通信部200、入出力インタフェース210、状態管理部230、仮想ロボット制御部240、画像処理部250および記憶装置260を備える。入出力インタフェース210は、ロボット装置20および端末装置12との間で各種データや、要求や応答などのメッセージの送受信を行うインタフェースであって、更新情報送信部212、更新情報取得部214、要求送信部216、応答取得部218、動作データ送信部220、画像要求取得部222および画像配信部224を有する。
記憶装置260は、エンターテインメントシステム1に参加するユーザおよびロボットに関する情報をユーザごとに記憶する個別情報記憶部262a〜262z(以下、区別しない場合には「個別情報記憶部262」と呼ぶ)、行動プログラム記憶部280および仮想空間モデル記憶部282を有する。各ユーザに関する個別情報記憶部262は、状態情報記憶部264、機能情報記憶部266、ユーザ情報記憶部268および仮想ロボット情報記憶部270を含む。状態情報記憶部264は、仮想ロボット40の状態情報を記憶する。機能情報記憶部266は、仮想ロボット40の機能情報を記憶する。ユーザ情報記憶部268は、ユーザに関する情報、たとえばユーザが所有するロボット装置20および端末装置12のアドレス情報や、ユーザ識別情報(ユーザID)、ユーザの氏名、住所などの個人情報を記憶する。仮想ロボット情報記憶部270は、ロボット装置20に対応付けられて作成された仮想オブジェクトの形状および外観データ、腕や脚、首などの関節の位置や、その可動範囲など、仮想ロボット40を仮想空間にて動作および表示させるために必要なモデルデータを記憶する。
上記したとおり、ユーザは、所有するロボット装置20をサーバ装置10に登録することで、エンターテインメントシステム1に参加する。サーバ装置10は、ユーザに関する情報をユーザ情報記憶部268に記憶し、また作成した仮想ロボット40のモデルデータを仮想ロボット情報記憶部270に記憶する。
行動プログラム記憶部280は、仮想ロボット40を仮想空間で行動させるためのプログラムを記憶する。仮想空間モデル記憶部282は、3次元仮想空間を構築する仮想空間モデルデータを記憶する。このモデルデータは、基本的に位置情報などが更新されない静的なオブジェクトデータにより構成され、たとえば街の仮想空間を表現するモデルデータは、相対的な位置関係を定義された建物オブジェクト、道路オブジェクト、信号機オブジェクト、店舗オブジェクトなどを含む。なお仮想空間内で、ロボット装置に対応付けられた仮想ロボット以外の動的なオブジェクト、たとえば物を販売する商人ロボットや、仮想ロボットを誘導する係員ロボット、仮想ロボットの移動手段となる乗り物オブジェクトなどが存在してもよい。
3次元仮想空間は、現実の世界地図をベースとして形成されて、仮想ロボットは、ユーザの住所に対応する仮想世界の住所に初期配置されてよい。たとえばユーザの住所が日本であれば、その仮想ロボットは、仮想世界における日本に対応する場所に初期配置され、またユーザの住所が米国であれば、その仮想ロボットは、仮想世界における米国に対応する場所に初期配置される。上記したように「行動力」パラメータは、新しい場所を冒険しようとする行動力の強弱を表現するため、「行動力」パラメータの状態値が高い仮想ロボットは、飛行機に乗って別の国に移動する傾向があり、一方で状態値が低い仮想ロボットは、初期配置位置の周辺のみで行動する傾向がある。
図7において、さまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、回路ブロック、メモリ、その他のLSIで構成することができ、ソフトウェア的には、メモリにロードされたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
<状態情報の管理>
エンターテインメントシステム1では、ロボット装置20およびサーバ装置10において、ロボットの状態情報は同期して管理される。以下、ロボット状態情報の管理手法について説明する。
ユーザがロボット装置20をサーバ装置10に登録すると、サーバ装置10の状態管理部230は、ロボット装置20および仮想ロボット40に共通利用される状態情報の初期値を設定する。状態管理部230は、図5に示す各項目の状態値をランダムに決定した初期値を定めてもよい。また状態情報の初期値は、ユーザによって指定できるようにしてもよい。実施例において、状態情報(状態値)は、ロボット装置20がとる行動および/または現実世界のロボット装置20に対する外部からの入力に応じて更新され、また仮想ロボット40がとる行動および/または仮想世界の仮想ロボット40に対する外部からの入力に応じて更新される。
仮想ロボット制御部240は、複数のユーザの仮想ロボットを、行動プログラム記憶部280に記憶された行動プログラムにもとづいて、仮想空間内で自律行動させる。このとき各仮想ロボットの行動には、状態情報記憶部264に記憶されている状態情報(状態値)および機能情報記憶部266に記憶されている機能情報(機能値)が反映される。
たとえば仮想ロボット40が仮想空間において他の仮想ロボットと出会ったとき、「積極的」パラメータの状態値が1であれば、仮想ロボット40は、他の仮想ロボットとコミュニケーションをとろうとせずに素通りするように行動する。このとき他の仮想ロボットの「積極的」パラメータの状態値も1であれば、両者が互いに素通りするように行動するため、コミュニケーションは発生しない。
しかしながら他の仮想ロボットの「積極的」パラメータの状態値が5であると、他の仮想ロボットは、仮想ロボット40に積極的に近づくように行動し、結果として、仮想ロボット40は、他の仮想ロボットとコミュニケーションをとることになる。
行動プログラム記憶部280に記憶される行動プログラムは、仮想ロボット40が他の仮想ロボットとコミュニケーションをとるように行動するか否かを決定するために参照する状態情報を、予め定めている。参照する状態情報の一つは、上記した「積極的」パラメータの状態値であるが、たとえば「楽しみ」パラメータの状態値が含まれていてもよく、また「好奇心」パラメータの状態値が含まれていてもよい。この場合、仮想ロボット制御部240は、「積極的」パラメータ、「楽しみ」パラメータ、「好奇心」パラメータのそれぞれの状態値を勘案して、仮想ロボット40が他の仮想ロボットとコミュニケーションをとるように行動するか否かを決定する。
仮想世界において、仮想ロボット40が他の仮想ロボットとコミュニケーションをとることは、一つのイベントとして定義される。また仮想ロボット40が仮想ロボットとコミュニケーションをとることで、ダンスを教えてもらったり、教えたり、またじゃんけんを教えてもらったり、教えたりすることも、それぞれイベントとして定義される。仮想ロボット40の行動中に発生するイベントは、仮想ロボット40の状態情報および/または機能情報を更新するためのトリガとなり、仮想ロボット制御部240は、イベントの発生を検知すると、検知したイベントの内容を状態管理部230に通知する。
状態管理部230は、仮想ロボット制御部240から通知されるイベント情報にもとづいて、状態情報記憶部264および/または機能情報記憶部266に記憶されている情報を更新する。たとえば仮想ロボット40が他の仮想ロボットとコミュニケーションをとったことを示すイベント情報を通知されると、状態管理部230は仮想ロボット40の「積極的」パラメータの状態値を1つ高くするように更新する。これは、仮想ロボット40が他の仮想ロボットと触れ合ったことにより、自身の積極性が向上したことを意味する。
コミュニケーションをとった他の仮想ロボットの「好戦的」パラメータの状態値が高く、意地悪された場合、仮想ロボット制御部240は、意地悪されたことを示すイベント情報を、状態管理部230に通知する。状態管理部230は、このイベント情報をもとに、仮想ロボット40の「怒り」パラメータ、「恐れ」パラメータの状態値を1つ高くし、また「積極的」パラメータの状態値を2つ低くするように更新する。これは、仮想ロボット40が意地悪されたことで、感情的には、それに反発して怒りの程度が増すとともに、恐れの気持ちも生じ、性格的には、他の仮想ロボットと触れ合おうとする積極性が減ったことを意味する。
またコミュニケーションをとった他の仮想ロボットの「口調」パラメータの状態値が低く、言葉遣いが乱暴であった場合、仮想ロボット制御部240は、乱暴な口調で話されたことを示すイベント情報を、状態管理部230に通知する。状態管理部230は、このイベント情報をもとに、仮想ロボット40の「口調」パラメータの状態値を1つ下げるように更新する。これは、仮想ロボット40が他の仮想ロボットと触れ合ったことにより、悪い言葉遣いが少しだけうつったことを意味する。
以上、いくつかのイベントについて例示したが、行動プログラム記憶部280は、様々なイベントに関して、反映する状態情報の変化を規定した状態変化情報を記憶している。状態管理部230は、通知されたイベント情報に応じて状態変化情報を参照し、状態情報記憶部264に記憶されている仮想ロボット40の状態情報を逐次更新する。状態管理部230は、状態情報記憶部264の状態情報を更新すると、更新情報送信部212から更新した最新の状態情報をロボット装置20に送信させる。
次に図6を参照して、ロボット装置20の状態情報の更新手法について説明する。
ロボット装置20は動作モードとして、スタンバイモードと、行動モードをもち、モード設定部132が、ロボット装置20の動作モードを設定する。
スタンバイモードは、外部と通信可能な待機状態であって、状態管理部120や行動管理部130などの処理機能がオフとされるモードである。スタンバイモードでは、ユーザからのメイン電源オン操作や、サーバ装置10から送信されるメイン電源のオン指示が監視され、メイン電源がオンされると、モード設定部132が動作モードを、スタンバイモードから行動モードに切り替える。
行動モードは、ロボット装置20が自律行動する自律行動モードと、ロボット装置20が仮想ロボット40と連携する連携行動モードを含む。
モード設定部132は、ユーザによりメイン電源がオン操作されると、自律行動モードを設定して、その旨を行動決定部134および制御部136に通知する。自律行動モードにおいて行動決定部134は、ロボット装置20がとる行動を、行動プログラム記憶部156に記憶された行動プログラムにもとづいて決定し、制御部136は、行動決定部134が決定した行動にしたがって、駆動機構34およびスピーカ36を制御する。行動決定部134は、ロボット装置20がとる行動を決定する際、状態情報記憶部150に記憶されている状態情報を参照する。
たとえばロボット装置20は、「積極的」パラメータの状態値が1であれば、ユーザとコミュニケーションをとろうとせずに一人で遊ぶように行動する。一方で、ロボット装置20は、「積極的」パラメータの状態値が5であれば、ユーザに積極的に近づき、ユーザとコミュニケーションをとるように行動する。このとき行動決定部134は、ユーザに近づいて話しかけたり、またじゃんけんをするなどの行動を決定し、制御部136が駆動機構34およびスピーカ36を制御して、決定した行動を実施する。
行動プログラム記憶部156に記憶される行動プログラムは、ロボット装置20がユーザとコミュニケーションをとるように行動するか否かを決定するために参照する状態情報を、予め定めている。参照する状態情報の一つは、上記した「積極的」パラメータの状態値であるが、たとえば「楽しみ」パラメータの状態値が含まれていてもよく、また「好奇心」パラメータの状態値が含まれていてもよい。この場合、行動決定部134は、「積極的」パラメータ、「楽しみ」パラメータ、「好奇心」パラメータのそれぞれの状態値を勘案して、ロボット装置20がユーザとコミュニケーションをとるように行動するか否かを決定する。行動決定部134は、決定したロボット装置20の行動を、状態管理部120に通知する。
状態決定部122は、通知されたロボット装置20の行動にもとづいて、状態情報記憶部150に記憶されている状態情報の更新を決定する。たとえばロボット装置20がユーザに話しかけるように行動することが通知されると、状態決定部122は、ロボット装置20の「積極的」パラメータの状態値を1つ高くすることを決定する。これは、ロボット装置20がユーザと触れ合うことにより、ロボット装置20の積極性が向上したことを意味する。状態決定部122が決定する状態更新情報は、更新部124に通知されて、更新部124が、状態情報記憶部150に記憶された状態情報を更新する。
また状態決定部122は、現実世界のロボット装置20に対する外部からの入力に応じて、状態情報記憶部150に記憶されている状態情報の更新を決定する。状態決定部122は、マイク22からの入力音声データ、カメラ24からの撮影画像データ、センサ26からのセンサデータを取得して、外部入力データを処理する機能を有する。
状態決定部122は音声処理機能を有して、マイク22に入力された音声データから、ユーザの感情を推定する。具体的に状態決定部122は音声認識機能により、ユーザの発話内容を特定して、ロボット装置20に対してポジティブな感情を抱いているか、またはネガティブな感情を抱いているかを推定する。状態決定部122は、ユーザがポジティブな感情を抱いていることを推定すると、ロボット装置20の「嬉しさ」パラメータの状態値を1つ高くすることを決定して、更新部124に通知する。一方で状態決定部122は、ユーザがネガティブな感情を抱いていることを推定すると、「嬉しさ」パラメータの状態値を1つ低くすることを決定して、更新部124に通知する。
また状態決定部122は画像処理機能を有して、カメラ24の撮影画像データに含まれるユーザの表情や態度からユーザの感情を推定してもよい。状態決定部122は、ユーザがロボット装置20に対してポジティブな感情を抱いているか、またはネガティブな感情を抱いているかを推定することで、状態情報の更新を決定する。
状態決定部122は、センサ26の一つであるタッチセンサのセンサデータから、ユーザのロボット装置20に対する行動を検知して、状態情報の更新を決定してもよい。たとえば状態決定部122が、ロボット装置20の頭部に設けられたタッチセンサのセンサデータから、ロボット装置20の頭を撫でる動作を検出すると、「嬉しさ」パラメータの状態値を1つ高くすることを決定して、更新部124に通知する。一方で状態決定部122が、ロボット装置20の頭部に設けられたタッチセンサのセンサデータから、ロボット装置20の頭を叩く動作を検出すると、「嬉しさ」パラメータの状態値を1つ低くし、「怒り」パラメータの状態値を1つ高くすることを決定して、更新部124に通知する。
更新部124は、状態決定部122から通知される状態更新情報にしたがって、状態情報記憶部150に記憶された状態情報を更新する。このように状態情報記憶部150に記憶された状態情報は、動的に更新される。たとえばユーザがネガティブな態度をとり続けると、ロボット装置20の「怒り」パラメータの状態値は次第に高くなるように更新されるため、行動決定部134は、ロボット装置20がユーザに対して怒っていることを示す行動をとることを決定する。そのためユーザは、自分の態度によってロボット装置20が怒っていることを認識することとなり、すぐにロボット装置20に対して謝るなどして、ロボット装置20の怒りを和らげるように努める。このように状態情報が即時に更新されて、ロボット装置20の行動に反映されることで、ユーザは、自身の対応がロボット装置20に与える影響を認識できる。
更新部124が、状態情報記憶部150の状態情報を更新すると、同期部126が、更新情報送信部102から、更新した最新の状態情報をサーバ装置10に送信させる。サーバ装置10において、更新情報取得部214が、状態値の更新情報をロボット装置20から取得すると、状態管理部230が、状態情報記憶部264に記憶された状態情報を更新する。これによりロボット装置20における状態情報記憶部150と、サーバ装置10における状態情報記憶部264との間で、状態情報が同期されるようになる。
なお上記したように、サーバ装置10において、更新情報送信部212は、仮想世界において更新された仮想ロボット40の最新の状態情報をロボット装置20に送信する。ロボット装置20において、更新情報取得部104が、状態値の更新情報をサーバ装置10から取得すると、更新部124が、状態情報記憶部150に記憶された状態情報を更新する。これによりサーバ装置10における状態情報記憶部264と、ロボット装置20における状態情報記憶部150との間で、状態情報が同期されるようになる。
以上のようにロボット装置20における状態管理部120と、サーバ装置10における状態管理部230とが連携することで、ロボット装置20およびサーバ装置10においてロボット装置20および仮想ロボット40の状態情報が同期して管理される。自律行動モードにあるロボット装置20において、行動決定部134は、状態情報にしたがってロボット装置20の行動を決定する。またサーバ装置10において、仮想ロボット制御部240は、状態情報にしたがって仮想ロボット40を行動させる。これによりロボット装置20と仮想ロボット40は、同じ感情、性格、行動特性のもとで、それぞれの世界で自律行動するようになる。
<機能情報の管理>
ロボット装置20およびサーバ装置10において、ロボットの機能情報は同期して管理される。以下、ロボット機能情報の管理手法について説明する。
ロボット装置20において、アプリケーション取得部106は、エンターテインメントシステム1において使用するアプリケーションプログラム(アプリ)を取得する。アプリケーション取得部106はアプリを、たとえばアプリを記録したUSBメモリなどから取得してもよく、またサーバ装置10ないしはアプリケーションサーバからネットワーク2を介して取得してもよい。更新部124は、取得したアプリをアプリケーション記憶部154に記憶させるとともに、機能情報記憶部152の当該アプリにより実施可能となるアプリ機能の機能値を「オン」に設定する。
更新部124が、機能情報記憶部152の機能情報を更新すると、同期部126が、更新情報送信部102から、更新した最新の機能情報をサーバ装置10に送信させる。サーバ装置10において、更新情報取得部214が、機能値の更新情報をロボット装置20から取得すると、状態管理部230が、機能情報記憶部266に記憶された機能情報を更新する。これによりロボット装置20における機能情報記憶部152と、サーバ装置10における機能情報記憶部266との間で、機能情報が同期されるようになる。
なお仮想世界において、仮想ロボット40は、他の仮想ロボットからダンスやじゃんけんを教えてもらうことで、新たな機能を獲得できる。仮想ロボット40が新たな機能を獲得すると、状態管理部230は、更新情報送信部212から、獲得した新たな機能に対応するアプリケーションプログラムをロボット装置20に送信する。なお状態管理部230は、別のアプリケーションサーバから、アプリケーションプログラムをロボット装置20に送信させるようにしてもよい。
これによりロボット装置20では、アプリケーション取得部106がアプリを取得し、更新部124がアプリケーション記憶部154にインストールして、当該アプリ機能の機能値を「オン」に設定する。このとき同期部126は、更新した機能情報を更新情報送信部102からサーバ装置10に送信させ、サーバ装置10において更新情報取得部214が、機能値の更新情報を取得すると、状態管理部230が、機能情報記憶部266の機能情報を更新する。このように仮想世界において仮想ロボット40が新たな機能を獲得した場合、すぐには当該機能を実施できず、ロボット装置20において該当するアプリがインストールされたことを条件として、仮想ロボット40が、新たな機能を実施できるようにする。これにより、ロボット装置20と仮想ロボット40の機能情報を、同期して管理することが可能となる。
なお現実世界において、ロボット装置20が新たな機能を獲得すると、その機能は仮想ロボット40にも反映される。ロボット装置20とユーザとのインタラクションによりアプリケーション取得部106がアプリを取得すると、更新部124がアプリケーション記憶部154にインストールして、当該アプリ機能の機能値を「オン」に設定する。このとき同期部126は、更新した機能情報を更新情報送信部102からサーバ装置10に送信させ、サーバ装置10において更新情報取得部214が、機能値の更新情報を取得すると、状態管理部230が、機能情報記憶部266の機能情報を更新する。このようにして、ロボット装置20が仮想ロボット40よりも先に、新たな機能を獲得した場合であっても、ロボット装置20と仮想ロボット40の機能情報が、同期して管理される。
以上は、ロボット装置20が現実世界において自律行動モードで行動し、また仮想ロボット40が仮想世界において自律行動しているときの状態情報および機能情報の同期処理に関する説明である。
ロボット装置20および仮想ロボット40は、それぞれの世界において独立して行動する。ロボット装置20は、メイン電源がオンとなったときのみ行動するが、仮想ロボット40は、仮想世界で常時行動するように制御される。仮想世界において昼夜の時間設定があってもよく、この場合、夜間は仮想ロボット40が睡眠をとるようにしてもよい。なお仮想ロボット40が夜間に睡眠をとるかどうかは、状態情報にもとづいて制御される。実施例のサーバ装置10は、仮想世界の画像を端末装置12に提供し、ユーザは端末装置12を通じて、仮想世界で活動する仮想ロボット40の様子をいつでも見ることができる。
図8は、端末装置12の構成を示す。端末装置12は、通信部300および処理部310を備え、処理部310は、画像要求送信部320、画像取得部322、画像出力部324、通知部326および表示部328を備える。表示部328は、液晶パネルや有機ディスプレイなどの表示装置であって、表面にはタッチパネルが設けられ、ユーザが入力を行えるようになっている。端末装置12はスマートフォンやタブレットなどの通信機能を有する情報処理装置であって、ビューワアプリケーションをインストールすることで、画像要求送信部320、画像取得部322、画像出力部324、通知部326などの機能が実現されてよい。
ユーザが画像の配信要求を端末装置12に入力すると、画像要求送信部320が、サーバ装置10に、仮想世界の画像の配信要求を送信する。配信要求には、ユーザIDが含まれる。サーバ装置10において画像要求取得部222が配信要求を取得し、画像処理部250が、ユーザIDに紐付けられた仮想ロボット40が行動する仮想世界の画像を生成する。
仮想ロボット制御部240は、仮想空間モデル記憶部282に記憶された仮想空間モデルをもとに仮想空間を構築し、仮想空間内にて複数の仮想ロボットを行動させる。画像処理部250は、仮想ロボット40が存在する仮想空間をレンダリングして、ユーザに提供する画像を生成し、画像配信部224から端末装置12に配信させる。ユーザは任意の視点からの画像を要求することができ、たとえば仮想ロボット40の視線方向の画像や、仮想ロボット40を俯瞰的に視る視点からの画像などを、画像要求送信部320を通じて要求できる。画像要求取得部222は、視点の変更要求を取得すると、画像処理部250が、要求された視点からの画像を生成し、画像配信部224が、生成された画像を配信する。
端末装置12において、画像取得部322が、画像配信部224から配信された画像を取得し、画像出力部324が、表示部328に画像を表示させる。これによりユーザは、仮想世界で行動する仮想ロボット40の様子を確認できる。エンターテインメントシステム1では、仮想ロボット40が様々な体験をすると、ユーザの知らないところで、仮想ロボット40およびロボット装置20の感情、性格、行動特性を含む内部状態が変化する。そのためユーザが会社に出勤する前のロボット装置20はフレンドリーであったにも関わらず、会社から帰宅後はロボット装置20が近寄ってくれないこともある。ユーザがいつでも端末装置12から仮想ロボット40の様子を確認できるようにすることで、帰宅後のロボット装置20の機嫌を想像することも可能となる。なおサーバ装置10は、大きなイベントが発生したときには、端末装置12に通知してもよい。通知部326がユーザに所定の通知を行うことで、ユーザは配信要求を入力して、ただちに仮想ロボット40の様子を確認できる。
ユーザは、基本的には仮想ロボット40の行動に対して介入せず、端末装置12から仮想ロボット40の行動を見て楽しむだけであるが、若干の介入は許容するようにしてもよい。たとえばサーバ装置10は、仮想世界において様々なアクティビティを日々開催し、端末装置12に「本日のロボットアクティビティ」と称するアクティビティ情報を送信する。通知部326は表示部328にアクティビティ情報を表示し、ユーザはアクティビティ情報を見て、仮想ロボット40に対してアクティビティへの参加を促すような提案をしてもよい。
この提案は、ユーザがロボット装置20に対して話しかけ、ロボット装置20がサーバ装置10に対して、ユーザの発話を言語解析した内容を送信することで、サーバ装置10に伝えられる。サーバ装置10は、状態情報記憶部264に記憶された状態情報および/または機能情報記憶部266に記憶された機能情報にしたがって、仮想ロボット40がユーザの提案に応じるか否かを決定する。たとえばユーザが、アクティビティの一つである「ロボットサッカー大会」への参加を提案した場合、サーバ装置10は、仮想ロボット40がサッカープレイ機能を有していなければ、ロボットサッカー大会に参加できないことを判定する。このときサーバ装置10は、ロボット装置20に「サッカーアプリを持ってないので、サッカー大会に参加できません」という音声データを送信し、ロボット装置20のスピーカ36から出力させてよい。これを受けて、ユーザはサッカープレイアプリをロボット装置20にインストールし、仮想ロボット40がロボットサッカー大会に参加できるようにしてもよい。
エンターテインメントシステム1では、ユーザがロボット装置20と触れ合っている間も、仮想ロボット40は、仮想世界において常時行動している状態にある。以下、仮想ロボット40が、アスレチックのアクティビティに参加する例について説明する。なおアスレチックアクティビティは、仮想ロボット40が自律的に実施するものであり、ユーザの介入は必要としない。そのためアクティビティの内容については特に説明しないが、仮想ロボット40がアクティビティの実施空間に入るためには、鍵がかかったゲートを通過する必要がある。仮想ロボット40は、ユーザの協力を得ることで、鍵を解除して、ゲートを通過できるようになる。
図9は、アスレチックアクティビティの実施空間に入るためのゲートを示す。ここでは2つのゲート1、2が用意されている。各ゲートの鍵を解除するためには、仮想ロボット40は、各ゲートに用意されているミッションをクリアしなければならない。
(ミッション1)
ゲート1では、鍵を解除するミッション1として、ユーザが鍵を仮想ロボット40に渡すことが設定されている。このミッション1は、ユーザがロボット装置20のカメラ24に、自身が持っている鍵(車の鍵でも、家の鍵でも何でもよい)を撮影させることで、クリアされる。
仮想ロボット40がゲート1に到着すると、仮想ロボット制御部240は、ゲート1の鍵を解除するための仮想ロボット40の要求を生成する。この要求は、ユーザの鍵をカメラ24で撮影する、というものである。仮想ロボット制御部240は、仮想ロボット40による「鍵が欲しいので、カメラに鍵を見せてください」とする音声データを生成し、要求送信部216が、仮想ロボット40からの要求をロボット装置20に送信する。この要求は、ユーザの協力を求める要求であるため、「介入要求」と呼んでもよい。送信される要求には、ユーザの鍵をカメラ24で撮影することを示すミッション情報と、「鍵が欲しいので、カメラに鍵を見せてください」とする音声データが含まれる。
ロボット装置20において、要求取得部108が、仮想ロボット40からの要求を取得する。このときロボット装置20は、自律行動モードで行動中であり、要求取得部108が仮想ロボット40の要求を取得すると、モード設定部132は、ロボット装置20の自律行動モードを、仮想ロボット40と連携する連携行動モードに切り替える。モード設定部132は、連携行動モードに切り替えると、行動決定部134および制御部136にその旨を通知する。これにより行動決定部134は、自律行動モードにおける行動決定を一時停止する。
なお、この例ではロボット装置20のメイン電源がオンであって、自律行動モードで行動中であることを前提としたが、仮想ロボット40はロボット装置20とは独立して動作しているため、ゲート1に到着したときに、ロボット装置20のメイン電源がオフとなっている可能性もある。そのためサーバ装置10において要求送信部216は、送信する要求に、ロボット装置20のメイン電源のオン指示も含ませる。スタンバイモードにあるロボット装置20は、仮想ロボット40の要求に含まれるメイン電源のオン指示を取得すると、メイン電源をオンに切り替えて起動する。つまりロボット装置20がスタンバイモード中に、要求取得部108が仮想ロボット40からの要求を取得すると、メイン電源がオンに設定されて、ロボット装置20が自動起動する。ロボット装置20が起動されると、モード設定部132は動作モードとして、連携行動モードを設定する。なお起動済のロボット装置20は、仮想ロボット40の要求に含まれるメイン電源のオン指示を無視すればよい。
連携行動モードが設定されると、行動決定部134は、仮想ロボット40からの要求に応じた行動を決定する。ここで要求には、ユーザの鍵をカメラ24で撮影することを示すミッション情報と、「鍵が欲しいので、カメラに鍵を見せてください」とする音声データが含まれている。行動決定部134は、この要求を受けて、カメラ24をオンにして、カメラ24の撮影画像をサーバ装置10に送信し、またスピーカ36から当該音声データを出力させる行動を決定する。制御部136は、行動決定部134が決定した行動をとるように、ロボット装置20の動作を制御し、具体的には、カメラ24の撮影画像を応答データとして応答送信部110からサーバ装置10に送信させ、スピーカ36から「鍵が欲しいので、カメラに鍵を見せてください」の音声を出力する。
ユーザは、ロボット装置20から出力される音声を聞き、自身が持っている鍵をカメラ24の前にかざす。応答送信部110は、仮想ロボット40の要求に対するユーザの応答データとして、カメラ24の撮影画像をサーバ装置10に送信する。サーバ装置10において、応答取得部218は、ロボット装置20からユーザの応答データとして、カメラ24の撮影画像を取得する。仮想ロボット制御部240は、撮影画像に「鍵」が撮影されていることを認識すると、ミッション1のクリアを判定してゲート1を開け、仮想ロボット40を通過させる。このように仮想ロボット制御部240は連携行動モードにおいて、ユーザの応答を、仮想ロボット40の動作に反映させる。ユーザは端末装置12を通じて、ゲート1が開き、仮想ロボット40が通過する様子を見ることができる。
なおカメラ24により「鍵」が撮影されたことは、ロボット装置20側で判定されてもよい。制御部136は、物体認識機能により、撮影画像に「鍵」が含まれていることを判定すると、応答送信部110は、ミッション1がクリアされたことをユーザの応答データとして送信する。なお応答送信部110は、「鍵」が撮影されたことを、ユーザの応答データとして送信してもよい。これによりサーバ装置10の仮想ロボット制御部240は、ゲート1を開き、仮想ロボット40を通過させる。ミッション1をクリアすると、モード設定部132は、ロボット装置20の連携行動モードを、自律行動モードに切り替え、ロボット装置20は、再び自律行動するように制御される。
(ミッション2)
ミッション1をクリアすると、仮想ロボット40は、ゲート1の奥にあるアスレチックにチャレンジする。ユーザは、端末装置12から、この様子を見ることができる。このアスレチックを無事終了すると、仮想ロボット40は、ゲート2に到着する。
ゲート2では、鍵を解除するミッション2として、仮想ロボット40がゲート2の係員ロボットと同じポーズをとることが設定されている。このミッション2は、ユーザがロボット装置20の腕などを動かして係員ロボットと同じポーズをとらせ、そのポーズを仮想ロボット40に反映させることで、クリアされる。
仮想ロボット40がゲート2に到着すると、仮想ロボット制御部240は、ゲート2の鍵を解除するための仮想ロボット40の要求を生成する。この要求は、ロボット装置20と仮想ロボット40の動きを同期させて、係員ロボットと同じポーズをとらせる、というものである。仮想ロボット制御部240は、仮想ロボット40による「ロボット装置に係員と同じポーズをとらせてください」とする音声データを生成し、要求送信部216が、仮想ロボット40からの要求をロボット装置20に送信する。送信される要求には、ロボット装置20と仮想ロボット40の動きを同期させて、係員ロボットと同じポーズをとらせることを示すミッション情報と、「ロボット装置に係員と同じポーズをとらせてください」とする音声データが含まれる。
ロボット装置20において、要求取得部108が、仮想ロボット40からの要求を取得する。このときロボット装置20は、自律行動モードで行動中であり、要求取得部108が仮想ロボット40の要求を取得すると、モード設定部132は、ロボット装置20の自律行動モードを連携行動モードに切り替える。モード設定部132は、連携行動モードに切り替えると、行動決定部134および制御部136にその旨を通知する。これにより行動決定部134は、自律行動モードにおける行動決定を一時停止する。
連携行動モードが設定されると、行動決定部134は、仮想ロボット40の要求に応じた行動を決定する。ここで要求には、ロボット装置20と仮想ロボット40の動きを同期させて、係員ロボットと同じポーズをとらせることを示すミッション情報と、「ロボット装置に係員と同じポーズをとらせてください」とする音声データが含まれている。行動決定部134は、この要求を受けて、駆動機構34の各モータに設けられた回転角センサの検出値をサーバ装置10に送信し、またスピーカ36から当該音声データを出力させる行動を決定する。制御部136は、行動決定部134が決定した行動をとるように、ロボット装置20の動作を制御し、具体的には、回転角センサの検出値を応答データとして応答送信部110からサーバ装置10に送信させ、スピーカ36から「ロボット装置に係員と同じポーズをとらせてください」の音声を出力する。
ユーザは、ロボット装置20から出力される音声を聞き、ミッション2を理解すると、端末装置12に表示される係員ロボットのポーズを確認する。図9に示す例では、係員ロボットが右手を斜めに上げ、左手を斜めに下げているポーズをとっており、ユーザはロボット装置20の腕を動かして、同じポーズをとらせる。応答送信部110は、仮想ロボット40の要求に対するユーザの応答データとして、駆動機構34における各モータに設けられた回転角センサの検出値をサーバ装置10に送信する。
サーバ装置10において、応答取得部218は、ロボット装置20から回転角センサの検出値を取得する。仮想ロボット情報記憶部270は、ロボット装置20における回転角センサの検出値と、モータの回転角の対応関係を記憶している。したがって仮想ロボット制御部240は、各回転角センサの検出値から、仮想ロボット40の各関節の回転角を導出できる。仮想ロボット制御部240は、回転角センサの検出値に応じて仮想ロボット40の関節の回転角を変化させ、仮想ロボット40の姿勢が係員ロボットのポーズと同じになったことを認識すると、ミッション2のクリアを判定し、ゲート2を開けて仮想ロボット40を通過させる。ミッション2をクリアすると、モード設定部132は、ロボット装置20の連携行動モードを、自律行動モードに切り替え、ロボット装置20は、再び自律行動するように制御される。
以上のように、エンターテインメントシステム1では、仮想ロボット40が介入要求をロボット装置20に対して送信することで、ユーザは、仮想ロボット40の行動を手助けする。連携行動モードでユーザは、仮想ロボット40に頼られる充足感によって仮想ロボット40に対する愛着を深めるようになる。
なお上記した例では、仮想ロボット40が、ロボット装置20と同じ動作をするように制御されたが、ロボット装置20が、仮想ロボット40と同じ動作をするように制御されてもよい。たとえば仮想ロボット40がボクシング大会に出場する場合に、仮想ロボット制御部240は、仮想ロボット40とロボット装置20の動きを同期させる、という仮想ロボット40の要求を生成する。要求送信部216が、仮想ロボット40からの要求をロボット装置20に送信すると、ロボット装置20において、要求取得部108が、仮想ロボット40の要求を取得する。
要求取得部108が仮想ロボット40の要求を取得すると、モード設定部132は、ロボット装置20の動作モードを連携行動モードに設定する。連携行動モードが設定されると、行動決定部134は、仮想ロボット40の要求に応じた行動を決定する。ここで要求には、仮想ロボット40とロボット装置20の動きを同期させることを示す情報が含まれている。行動決定部134は、この要求を受けて、制御部136に、サーバ装置10から送信される動作データにしたがって行動することを指示する。
ボクシング大会が始まると、仮想ロボット制御部240は、仮想ロボット40の動きに同期したロボット装置20の動作データを生成し、動作データ送信部220が、動作データをロボット装置20に送信する。ロボット装置20において動作データ取得部112は動作データを取得し、制御部136は、動作データにしたがって駆動機構34を制御する。これによりロボット装置20は、仮想ロボット40の動きに同期して、ユーザの前でボクシングの動きをする(ただし相手はいない)。ユーザは端末装置12を通じて、仮想ロボット40がボクシングをしている様子を見ることができるが、目の前でロボット装置20がパンチを繰り出す姿を見ることで、仮想ロボット40を応援する気持ちが高まる。仮想ロボット40がダウンすると、ロボット装置20もダウンするが、ロボット装置20が自力で起き上がれない場合には、ユーザがロボット装置20を立たせてあげるのがよい。
以上、本発明を実施例をもとに説明した。実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
実施例では、ロボット装置20とサーバ装置10との間で、更新された状態情報および/または機能情報を即時に同期させることを説明したが、変形例では所定時間ごとに同期させるようにしてもよい。また変形例では、ロボット装置20のメイン電源がオンされてからオフされるまでの間、サーバ装置10における状態情報および/または機能情報の更新をロボット装置20に反映させないようにしてもよい。この場合、ロボット装置20の行動中、仮想ロボット40の状態値変化の影響を受けないため、ロボット装置20がユーザと遊んでいる最中に突然乱暴になったりすることもなく、ユーザは安心してロボット装置20と触れ合うことができる。
また実施例では、仮想ロボット40が常時行動していることを前提としたが、ロボット装置20と仮想ロボット40は、いずれか一方のみが行動するように制御されてもよい。つまりロボット装置20のメイン電源がオンされてからオフされるまでの間は、仮想ロボット制御部240は、仮想世界において仮想ロボット40を行動させず、ロボット装置20のメイン電源がオフされてからオンされるまでの間のみ、仮想世界において仮想ロボット40を行動させるように制御してもよい。
図5には、状態情報として、感情、性格、行動特性の内部状態を示したが、それ以外にも、体調などの状態情報が含まれてもよい。
たとえば体調のパラメータとして、「風邪を引いた」というパラメータを用意し、風邪の重症度に応じて、仮想ロボット40およびロボット装置20の動きが制限されるようにしてもよい。仮想ロボット40が別の仮想ロボットから風邪を移されると、仮想ロボット40の動きが鈍くなり、同様にロボット装置20の動きも鈍くなるように制御されてよい。風邪は時間がたつと治るが、ユーザが仮想ロボット40に風邪薬を与えることで、風邪が治ってもよい。同様に、仮想ロボット40が体の一部に怪我をすると、ロボット装置20においても、該当する箇所を動かせないようにしてもよい。たとえば体の一部が動かせないことで、ダンスアプリなどの体を動かすアプリの機能値がオフに自動更新されてもよい。
1・・・エンターテインメントシステム、10・・・サーバ装置、12・・・端末装置、20・・・ロボット装置、40・・・仮想ロボット、100・・・入出力インタフェース、102・・・更新情報送信部、104・・・更新情報取得部、106・・・アプリケーション取得部、108・・・要求取得部、110・・・応答送信部、112・・・動作データ取得部、120・・・状態管理部、122・・・状態決定部、124・・・更新部、126・・・同期部、130・・・行動管理部、132・・・モード設定部、134・・・行動決定部、136・・・制御部、150・・・状態情報記憶部、152・・・機能情報記憶部、154・・・アプリケーション記憶部、156・・・行動プログラム記憶部、200・・・通信部、210・・・入出力インタフェース、212・・・更新情報送信部、214・・・更新情報取得部、216・・・要求送信部、218・・・応答取得部、220・・・動作データ送信部、222・・・画像要求取得部、224・・・画像配信部、230・・・状態管理部、240・・・仮想ロボット制御部、250・・・画像処理部、260・・・記憶装置、262・・・個別情報記憶部、264・・・状態情報記憶部、266・・・機能情報記憶部、268・・・ユーザ情報記憶部、270・・・仮想ロボット情報記憶部、280・・・行動プログラム記憶部、282・・・仮想空間モデル記憶部、300・・・通信部、310・・・処理部、320・・・画像要求送信部、322・・・画像取得部、324・・・画像出力部、326・・・通知部、328・・・表示部。
本発明は、ロボット分野に利用できる。

Claims (10)

  1. 現実世界において自律行動モードで行動可能なロボット装置と、前記ロボット装置に対応付けられた仮想ロボットが自律的に行動する仮想世界を構築するためのサーバ装置と、前記仮想ロボットが行動する仮想世界の画像を表示可能な端末装置と、を備えたエンターテインメントシステムであって、
    前記サーバ装置は、仮想世界の画像を前記端末装置に提供するものであって、
    前記サーバ装置は、前記仮想ロボットからの要求を前記ロボット装置に送信し、
    前記ロボット装置は、前記仮想ロボットからの要求を取得すると、仮想ロボットと連携する連携行動モードで行動する、
    ことを特徴とするエンターテインメントシステム。
  2. 前記サーバ装置は、複数の仮想ロボットが行動し、仮想ロボット同士が出会うことでコミュニケーションをとる仮想世界を構築する、
    ことを特徴とする請求項1に記載のエンターテインメントシステム。
  3. 自律行動モードで行動可能なロボット装置であって、
    仮想世界において当該ロボット装置に対応付けられた仮想ロボットからの要求を取得する要求取得部と、
    前記要求取得部が仮想ロボットからの要求を取得すると、仮想ロボットと連携する連携行動モードを設定するモード設定部と、
    連携行動モードが設定されると、仮想ロボットからの要求に応じた行動を決定する行動決定部と、
    前記行動決定部が決定した行動をとるように、当該ロボット装置の動作を制御する制御部と、
    を備えることを特徴とするロボット装置。
  4. 当該ロボット装置の性格に関する状態情報を管理する状態管理部をさらに備え、
    前記行動決定部は、自律行動モードにおいて、状態情報にしたがって当該ロボット装置の行動を決定する、
    ことを特徴とする請求項3に記載のロボット装置。
  5. 前記状態管理部は、管理している状態情報を、仮想ロボットの状態情報と同期させる、
    ことを特徴とする請求項4に記載のロボット装置。
  6. 当該ロボット装置が自律行動モードで行動中に、前記要求取得部が仮想ロボットからの要求を取得すると、前記モード設定部は、自律行動モードを連携行動モードに切り替える、
    ことを特徴とする請求項3から5のいずれかに記載のロボット装置。
  7. 当該ロボット装置がスタンバイモード中に、前記要求取得部が仮想ロボットからの要求を取得すると、当該ロボット装置は自動起動されて、前記モード設定部は、連携行動モードを設定する、
    ことを特徴とする請求項3から6のいずれかに記載のロボット装置。
  8. 現実世界のロボット装置に対応付けられた仮想ロボットを仮想世界において行動させるサーバ装置であって、
    仮想ロボットからの要求をロボット装置に送信する要求送信部と、
    ロボット装置から、ユーザの応答を取得する応答取得部と、
    ユーザの応答を、仮想ロボットの動作に反映させる仮想ロボット制御部と、
    を備えることを特徴とするサーバ装置。
  9. 当該仮想ロボットの性格に関する状態情報を管理する状態管理部をさらに備え、
    前記仮想ロボット制御部は、状態情報にしたがって当該仮想ロボットを行動させる、
    ことを特徴とする請求項8に記載のサーバ装置。
  10. 前記状態管理部は、管理している状態情報を、ロボット装置の状態情報と同期させる、
    ことを特徴とする請求項9に記載のサーバ装置。
JP2019558815A 2017-12-14 2017-12-14 エンターテインメントシステム、ロボット装置およびサーバ装置 Active JP7128842B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/044991 WO2019116521A1 (ja) 2017-12-14 2017-12-14 エンターテインメントシステム、ロボット装置およびサーバ装置

Publications (2)

Publication Number Publication Date
JPWO2019116521A1 true JPWO2019116521A1 (ja) 2021-01-07
JP7128842B2 JP7128842B2 (ja) 2022-08-31

Family

ID=66819058

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019558815A Active JP7128842B2 (ja) 2017-12-14 2017-12-14 エンターテインメントシステム、ロボット装置およびサーバ装置

Country Status (3)

Country Link
US (1) US11498206B2 (ja)
JP (1) JP7128842B2 (ja)
WO (1) WO2019116521A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6747423B2 (ja) * 2017-12-22 2020-08-26 カシオ計算機株式会社 ロボット、ロボット制御システム、ロボットの制御方法及びプログラム
JP7298860B2 (ja) * 2018-06-25 2023-06-27 Groove X株式会社 仮想キャラクタを想定する自律行動型ロボット
WO2020032266A1 (ja) * 2018-08-10 2020-02-13 川崎重工業株式会社 仲介装置及びそれを用いた仲介方法
WO2020250434A1 (ja) * 2019-06-14 2020-12-17 株式会社ロボ・ガレージ 薄型携帯通信端末およびその制御方法並びに制御プログラム
WO2021005551A1 (en) * 2019-07-09 2021-01-14 Soul Machines Limited Conversational mark-up in embodied agents
WO2022067372A1 (en) * 2020-09-29 2022-04-07 Human Centred Innovations Pty Ltd Virtual and physical social robot with humanoid features
CN113570958B (zh) * 2021-08-05 2022-05-17 清华大学 一种模拟行人疏散的人控机器人平台
CN116394277B (zh) * 2023-06-08 2023-08-25 之江实验室 一种仿人钢琴演奏机器人

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000252960A (ja) * 1999-03-01 2000-09-14 Toshiba Corp Rake受信装置
JP2008253362A (ja) * 2007-04-02 2008-10-23 Taito Corp 遠隔無線操縦型オンライン対戦ゲームシステムにおけるゲーム画像生成方法
JP2011121171A (ja) * 2009-12-14 2011-06-23 Ir Robot Co Ltd ロボット同期化装置及びその方法
WO2012172721A1 (ja) * 2011-06-14 2012-12-20 パナソニック株式会社 ロボット装置、ロボット制御方法、及びロボット制御プログラム
WO2015159561A1 (ja) * 2014-04-16 2015-10-22 株式会社ソニー・コンピュータエンタテインメント 情報処理装置、情報処理システム、および情報処理方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11126017A (ja) 1997-08-22 1999-05-11 Sony Corp 記憶媒体、ロボット、情報処理装置、並びに電子ペットシステム
KR100459392B1 (ko) * 2000-08-21 2004-12-03 엘지전자 주식회사 게임을 이용한 완구 구동 장치 및 방법
FR2962048A1 (fr) * 2010-07-02 2012-01-06 Aldebaran Robotics S A Robot humanoide joueur, methode et systeme d'utilisation dudit robot
US9675895B2 (en) * 2013-03-13 2017-06-13 Hasbro, Inc. Three way multidirectional interactive toy
US9547871B2 (en) * 2013-03-15 2017-01-17 Activision Publishing, Inc. System and method for purchasing physical toys and corresponding virtual toys
US9643314B2 (en) * 2015-03-04 2017-05-09 The Johns Hopkins University Robot control, training and collaboration in an immersive virtual reality environment

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000252960A (ja) * 1999-03-01 2000-09-14 Toshiba Corp Rake受信装置
JP2008253362A (ja) * 2007-04-02 2008-10-23 Taito Corp 遠隔無線操縦型オンライン対戦ゲームシステムにおけるゲーム画像生成方法
JP2011121171A (ja) * 2009-12-14 2011-06-23 Ir Robot Co Ltd ロボット同期化装置及びその方法
WO2012172721A1 (ja) * 2011-06-14 2012-12-20 パナソニック株式会社 ロボット装置、ロボット制御方法、及びロボット制御プログラム
WO2015159561A1 (ja) * 2014-04-16 2015-10-22 株式会社ソニー・コンピュータエンタテインメント 情報処理装置、情報処理システム、および情報処理方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
杉本 麻樹、外5名: ""複合現実感技術と小型ロボットを用いたゲーム環境"", 「情報処理学会論文誌」, vol. 第48巻,第11号, JPN6018010357, 15 November 2007 (2007-11-15), JP, pages 3490 - 3499, ISSN: 0004556566 *
林 政毅、外1名: ""拡張現実感を利用したロボットシミュレーション環境の提案"", 「ヒューマンインタフェース学会 研究報告集 2011 VOL.13」, vol. 第13巻,第7号, JPN6018010358, 27 February 2012 (2012-02-27), JP, pages 133 - 138, ISSN: 0004556567 *
橋本 直、外3名: ""TouchMe:CG重畳表示を用いたロボットの直接操作手法"", 「インタラクション2011予稿集」, JPN6018010356, 11 March 2011 (2011-03-11), JP, pages 18, ISSN: 0004556565 *

Also Published As

Publication number Publication date
US20200290198A1 (en) 2020-09-17
US11498206B2 (en) 2022-11-15
WO2019116521A1 (ja) 2019-06-20
JP7128842B2 (ja) 2022-08-31

Similar Documents

Publication Publication Date Title
JP7128842B2 (ja) エンターテインメントシステム、ロボット装置およびサーバ装置
JP6646620B2 (ja) 広範囲同時遠隔ディジタル提示世界
KR102292522B1 (ko) 물리 엔진을 이용한 물리적 장난감 제어
US20230305530A1 (en) Information processing apparatus, information processing method and program
US20150070274A1 (en) Methods and systems for determining 6dof location and orientation of head-mounted display and associated user movements
JP2018092523A (ja) 仮想空間を介して通信するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
JP2010257461A (ja) ネットワークゲーム用の共有ゲーム空間を創出する方法およびシステム
US20190389058A1 (en) Autonomously acting robot that imagines virtual character
JP2004283959A (ja) ロボット装置、その動作制御方法、及びプログラム
US11675360B2 (en) Information processing apparatus, information processing method, and program
US10576632B2 (en) Standby mode of a humanoid robot
US20200114520A1 (en) Object control system and object control method
JP6275891B1 (ja) 仮想空間を介して通信するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
US11938625B2 (en) Information processing apparatus, information processing method, and program
US20210197393A1 (en) Information processing device, information processing method, and program
US11986959B2 (en) Information processing device, action decision method and program
CN111565897A (zh) 动物形状的自主移动对象、使动物形状的自主移动对象执行动作的方法以及程序
KR20170045678A (ko) Hmd를 이용한 아바타 장치
WO2022044843A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP2022051982A (ja) 情報処理装置および情報処理方法
US20240193894A1 (en) Data processing method and apparatus, electronic device and storage medium
WO2023037608A1 (ja) 自律移動体、情報処理方法、及び、プログラム
US20240066399A1 (en) Smooth switchover of computer game control
WO2023037609A1 (ja) 自律移動体、情報処理方法、及び、プログラム
WO2023133080A1 (en) Vr headset with integrated thermal/motion sensors field

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200612

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200612

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210727

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220324

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220819

R150 Certificate of patent or registration of utility model

Ref document number: 7128842

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150