JP2022067781A - 情報処理装置、情報処理方法、及び記憶媒体 - Google Patents

情報処理装置、情報処理方法、及び記憶媒体 Download PDF

Info

Publication number
JP2022067781A
JP2022067781A JP2020176568A JP2020176568A JP2022067781A JP 2022067781 A JP2022067781 A JP 2022067781A JP 2020176568 A JP2020176568 A JP 2020176568A JP 2020176568 A JP2020176568 A JP 2020176568A JP 2022067781 A JP2022067781 A JP 2022067781A
Authority
JP
Japan
Prior art keywords
robot
robots
information processing
information
terminal device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020176568A
Other languages
English (en)
Inventor
昂 深堀
Akira Fukabori
ケビン 梶谷
Kevin Kajiya
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Avatarin Inc
Original Assignee
Avatarin Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Avatarin Inc filed Critical Avatarin Inc
Priority to JP2020176568A priority Critical patent/JP2022067781A/ja
Priority to EP21882680.8A priority patent/EP4234181A1/en
Priority to US18/033,059 priority patent/US20230390937A1/en
Priority to PCT/JP2021/037926 priority patent/WO2022085539A1/ja
Publication of JP2022067781A publication Critical patent/JP2022067781A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0027Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement involving a plurality of vehicles, e.g. fleet or convoy travelling
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0084Programme-controlled manipulators comprising a plurality of manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1682Dual arm manipulator; Coordination of several manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0038Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

【課題】より価値の高いエクスペリエンスの体感を可能にすることに関する技術を提供する。【解決手段】コンピュータが、選択条件に関する情報を取得することと、選択条件に応じて選択された固定されていない複数のロボットのうち、第1ロボットを端末装置による操作対象に設定することと、第1ロボットから、選択された複数のロボットのうち、第1ロボットとは異なる第2ロボットに操作対象を切り替え可能にすることと、を実施する。【選択図】図6

Description

本発明は、情報処理装置、情報処理方法、及び記憶媒体に関する。
近年、インターネットを用いたテレビ会議システムが普及し、顔を見ながら話すだけでなく、遠隔地にいるユーザがカメラの向きや位置を操作することができるテレプレゼンスロボットが知られている。
特許文献1には、遠隔地にいるユーザに対して撮影画像を提供するカメラ付き移動体が記載されている。
特開2019-062308号公報
従来のテレプレゼンスロボットは、ユーザがロボットを遠隔操作することで、ロボットがいわばユーザの分身として機能し、ユーザはロボットがいる場所におけるエクスペリエンスを体感できる。そのこと自体、ユーザにとって価値の高いことであるが、より価値の高いエクスペリエンスの体感への要望がある。しかしながら、従来のテレプレゼンスロボットでは、決められた特定のロボットをユーザが遠隔操作するため、体感できるエクスペリエンスに限界がある。
本発明の目的の一つは、ロボットを操作するユーザがより価値の高いエクスペリエンスの体感を可能にすることに関する技術を提供することにある。
本発明の一態様に係る情報処理装置は、プロセッサと記憶部とを備える情報処理装置であって、前記プロセッサは、前記記憶部に記憶されたプログラムを実行することにより、選択条件に関する情報を取得することと、前記選択条件に応じて選択された固定されていない複数のロボットのうち、第1ロボットを端末装置による操作対象に設定することと、前記操作対象を、前記第1ロボットから、前記選択された複数のロボットのうち、前記第1ロボットとは異なる第2ロボットに切り替え可能にすることと、を含む制御方法を実施するように構成されている。
本発明の一態様に係る情報処理方法は、コンピュータにより実施される情報処理方法であって、選択条件に関する情報を取得することと、前記選択条件に応じて選択された固定されていない複数のロボットのうち、第1ロボットを端末装置による操作対象に設定することと、前記操作対象を、前記第1ロボットから、前記選択された複数のロボットのうち、前記第1ロボットとは異なる第2ロボットに切り替え可能にすることとを含む。
本発明の一態様に係る記憶媒体は、コンピュータに、選択条件に関する情報を取得することと、前記選択条件に応じて選択された固定されていない複数のロボットのうち、第1ロボットを端末装置による操作対象に設定することと、前記操作対象を、前記第1ロボットから、前記選択された複数のロボットのうち、前記第1ロボットとは異なる第2ロボットに切り替え可能にすることとを含む情報処理方法を実行させるためのプログラムを記憶した記憶媒体。
本発明によれば、ロボットを操作するユーザがより価値の高いエクスペリエンスを体感することができる。
一実施形態におけるシステムの構成を例示する図である。 一実施形態における端末装置及びロボットを説明するための概念図である。 一実施形態におけるロボットの操作方法の概要を説明するための概念図である。 一実施形態におけるロボットの操作方法の概要を説明するための概念図である。 一実施形態におけるサーバ装置の機能構成を示すブロック図である。 一実施形態におけるサーバ装置の処理フローを例示的に説明するためのフローチャートである。 一実施形態において端末装置に表示される画像の一例を示す概念図である。 一実施形態においてシステムにより使用されるコンピュータのハードウェア構成を例示する概念図である。 一実施形態におけるロボットのハードウェア構成を例示する概念図である。
以下に、本発明の一実施形態について説明する。なお、以下の実施形態は、本発明を説明するための例示であり、本発明をその実施の形態のみに限定する趣旨ではない。また、本発明は、その要旨を逸脱しない限り、さまざまな変形が可能である。さらに、当業者であれば、以下に述べる各要素を均等なものに置換した実施の形態を採用することが可能であり、かかる実施の形態も本発明の範囲に含まれる。
<システムの構成>
図1及び図2を参照して、一実施形態に係るシステム1の例示的な構成について説明する。本実施形態において、システム1は、ユーザが端末装置を介して1つ又は複数のロボットを遠隔操作することを可能にする。複数のロボットは、それぞれ異なる場所に置かれている。ユーザは、1つの端末装置を介してあるロボットを操作しているときに、操作対象のロボットを切り替えて、他のロボットを操作することが可能である。
図1に示すように、システム1は、サーバ装置10、端末装置20a,20b,20c、及びロボット30a,30b,30cを備える。各装置又はロボットは、他の装置又はロボットと、無線若しくは有線により(又はその両者により)通信可能に構成されている。図1に示す例において、システム1は、3つの端末装置を備えるが、端末装置の数は任意に設定され、2つ以下でも4つ以上であってもよい。端末装置20a,20b,20cは、それぞれ同様の構成を有してもよいし、異なる構成を有してもよい。本実施形態において、端末装置20a,20b,20cが互いに区別せずに参照される場合は、総称して端末装置20と称される。また、システム1は、3つのロボットを備えるが、ロボットの数は任意に設定され、2つ以下でも4つ以上であってもよい。ロボット30a,30b,30cは、それぞれ同様の構成を有してもよいし、異なる構成を有してもよい。本実施形態において、ロボット30a,30b,30cを互いに区別せずに参照する場合は、総称してロボット30と称される。以下に、それぞれの装置及びロボットの概要を説明する。
サーバ装置10は、端末装置20から複数のロボット30を遠隔操作することに関し、各種の処理を実行する装置である。サーバ装置10はさらに、利用可能なロボット30の検索処理や、ロボット30の操作のための予約登録の管理等を行う。サーバ装置10は、サーバコンピュータなどの情報処理装置により構成される。サーバ装置10は、1つの情報処理装置により構成されてもよいし、複数の情報処理装置(例えば、クラウドコンピューティング又はエッヂコンピューティング)により構成されてもよい。
端末装置20は、ロボット30の操作や、当該操作の予約のために、ユーザにより使用される情報処理装置である。端末装置20は、例えば、スマートフォン、タブレット端末、PDA(Personal Digital Assistants)、パーソナルコンピュータ、ヘッドマウントディスプレイ、特定用途の操作系などの汎用又は専用の情報処理装置である。ロボット30の操作の予約のために使用される端末装置20は、当該操作のために使用される端末装置20と異なる装置であってもよいし、同じ装置であってもよい。
ロボット30は、固定されていないロボットである。ロボット30が固定されていないとは、ロボット30が車輪等による移動のための駆動部を有する移動型である場合と、人が装着でき、マニピュレータ等の動作のための駆動部を有する装着型である場合とを含む。
移動型のロボットは、例えば特許文献1に示されている。移動型ロボットの移動部は、一輪、二輪又は多輪により走行するもの、キャタピラにより走行するもの、レールの上を走行するもの、飛び跳ねて移動するもの、二足歩行、四足歩行又は多足歩行するもの、スクリューにより水上又は水中を航行するもの及びプロペラ等により飛行するものを含む。装着型のロボットは、例えばMHD Yamen Saraiji, Tomoya Sasaki, Reo Matsumura, Kouta Minamizawa and Masahiko Inami, "Fusion: full body surrogacy for collaborative communication," Proceeding SIGGRAPH '18 ACM SIGGRAPH 2018 Emerging Technologies Article No. 7.にて公開されている。さらに、ロボット30は、自動走行又は半自動走行可能な車両や重機であったり、ドローンや飛行機であったりを含む。また、ロボット30は、スポーツスタジアム等に設置され、レールの上を移動可能なカメラを備えたロボットを含む。また、ロボット30は、宇宙空間に打ち上げられる衛星型ロボットであって、姿勢制御やカメラの撮影方向の制御が可能なロボットを含む。また、ロボット30は、いわゆるテレプレゼンスロボットやアバターロボットであってよい。
図2に示すように、ユーザは端末装置20を介してロボット30の遠隔操作(例えば、ロボット30の移動やロボット30に搭載されたカメラの操作)を行うことができる。端末装置20とロボット30の間の操作信号又はデータの送受信のための通信アーキテクチャは、任意のアーキテクチャを採用可能であり、例えば、P2P(Peer-to-Peer)又はクライアントサーバである。ロボット30は、端末装置20から受信した信号に応じて動作し、ロボット30に搭載されたカメラ、マイク及びその他の装置を通じて取得された画像データ及び音声データなど、ロボット30がいる場所に関してロボット30が取得又は検知等したデータを端末装置20に送信する。これにより、ユーザは、端末装置20及びロボット30を介して、ロボット30がいる場所に自分もいるかのようなエクスペリエンスを体感することができる。
<ロボット操作の概要>
図3及び図4を参照して、本実施形態におけるロボット操作の概要を説明する。ここで説明されるロボット操作の方法は、一例に過ぎず、他の方法を妨げるものではない。
図3には、ユーザが使用する端末装置20aと、ロボット群とが概念的に示されている。図3に示すロボット群は、端末装置20aにより操作可能な複数のロボット30の集まりである。ロボット群には、それぞれ異なる場所に位置するロボット30a、ロボット30b、・・・、ロボット30n(nは3以上の整数。)が含まれている。
1つのロボット群に含まれる複数のロボット30は、同じ場所ではなく、異なる場所、例えば、互いに所定距離以上離れた場所に存在するロボット30が含まれるように設定されてもよい。所定距離は、例えば、10m、100m、1km、又は100kmであってもよい。異なる場所の他の例は、同じ施設における異なるフロア、同じ施設における異なるセクション、異なる施設、異なる行政区画、又は異なるタイムゾーンを含む。
1つのロボット群に含まれる複数のロボット30は、例えば、予め関連付けられた複数のロボット30、又は所定の条件で分類されたグループのうち、同じグループに属する複数のロボット30を含む。ここで、複数のロボット30のうち少なくとも一部は、バーチャル(仮想世界)に存在するロボットであってもよい。すなわち、複数のロボット30は、現実世界に存在するロボットと、仮想世界に存在するロボットとを含んでもよい。
ユーザは、端末装置20aを介して、ロボット群に含まれる複数のロボット30の中から操作対象のロボット30を自由に切り替えて操作することができる。操作対象のロボット30の切り替えは、ユーザの操作に応じて行われてもよいし、予め設定された条件を満たしたことに応じて自動的に行われてもよい。ここで、例えば、第1のロボット30iから第2のロボット30jへの操作対象の切り替え処理は、端末装置20と第1のロボット30iとの通信セッションの切断と、端末装置20と第2のロボット30jとの通信セッションの確立とを、端末装置20が順次、又は略同時に実行することで実現される。また、操作対象のロボット30の切り替えのために、ロボット30は、例えば、切り替え先のロボット30に接続するための情報(例えば、IPアドレス)をサーバ装置10から受信し、ユーザの操作に応じて又は自動的に、操作のために接続中のロボット30との通信セッションを切断し、切り替え先のロボット30に接続する処理を開始する。なお、ロボット30は、切り替え先のロボット30に接続するための情報を予め自機に記憶し、当該情報を使用して切り替え先のロボット30に接続する処理を開始してもよい。また、遠隔操作のための通信アーキテクチャとしてクライアントサーバを採用し、サーバ装置10を介して端末装置20とロボット30とが通信している場合、サーバ装置10は、ユーザの操作に応じて又は自動的に、操作のために接続中の端末装置20とロボット30の間の通信セッションを切断し、切り替え先のロボット30と端末装置20との間の通信セッションを接続する処理を開始してもよい。
このように、本実施形態によれば、ユーザは、端末装置20aを介して、複数のロボット30の中から操作対象のロボット30を自由に切り替えて操作を行うことができる。そのため、ユーザは、複数の場所のそれぞれに移動することなく、複数のロボット30がいるそれぞれの場所に自分もいるかのようなエクスペリエンスを体感することが可能である。
図4を参照して、操作対象のロボット30の切り替え方法の例を説明する。図4には、操作対象のロボット30の切り替えが時系列に概念的に示されている。まず、時間t1において、ユーザは、所定のロボット群から選択されたロボット30aを、端末装置20aを介して操作することにより、ロボット30aを走行パスA1に沿って移動させる。所定のロボット群とは、何らかの条件を満たした複数のロボット30(例えば、ロボット30のデータベースをキーワード検索した結果、ヒットした複数のロボット30、又は何らかのテーマで予め同じカテゴリにグループ化された複数のロボット30など)である。ロボット30aの操作の間、端末装置20aの表示部には、ロボット30aのカメラにより撮影された映像(走行パスA1で撮影された映像)が表示される。その後、時間t2において、ロボット30aが所定の切り替えポイントに到達したときに、例えば、自動的に又はユーザ操作に応じて、端末装置20aによる操作対象がロボット30aからロボット30bに切り替わる。
その後、時間t3において、ユーザは、端末装置20aを介して操作することにより、ロボット30bを走行パスA2に沿って移動させる。その間、端末装置20aの表示部には、ロボット30bのカメラにより撮影された映像(走行パスA2で撮影された映像)が表示される。その後、時間t4において、ロボット30bが所定の切り替えポイントに到達したときに、例えば、自動的に又はユーザ操作に応じて、端末装置20aによる操作対象がロボット30bからロボット30nに切り替わる。
図4を参照して説明した例において、ロボット30a及びロボット30bは現実世界に存在するロボットであり、ロボット30nは仮想世界に存在するロボットであってもよい。この場合において、ロボット30a及びロボット30bの操作時には、ロボット30a及びロボット30bにより撮影された現実世界の風景画像が端末装置20aの表示部に表示される。また、ロボット30nの操作時には、ロボット30nの仮想的なカメラにより撮影された仮想世界の風景画像が端末装置20aの表示部に表示される。
このように、本実施形態によれば、ユーザは、端末装置20aを介して、複数のロボット30がいるそれぞれの場所に瞬時に移動して、自分もその場にいるかのようなエクスペリエンスを体感することが可能である。例えば、図4の例において、ロボット30aが東京の美術館に置かれ、ロボット30bがパリの美術館に置かれ、仮想的なロボット30cが仮想世界の美術館に置かれているとする。この場合において、ユーザは、自身は実際には移動することなく端末装置20aを介して、例えば、東京の美術館で美術鑑賞の後、パリの美術館で美術鑑賞を行い、その後、仮想世界の美術館で美術鑑賞を行うことができる。
<機能構成>
図5を参照して、サーバ装置10が有する主な機能の構成を説明する。これらの機能は、サーバ装置10が有する制御部(プロセッサ)が、記憶部に記憶されたコンピュータプログラムを読み込み、実行することにより実現される。これらの装置のハードウェア構成については、後述する。
図5に示すように、サーバ装置10は、主な機能の構成として、選択条件取得部11、操作対象設定部12、表示制御部13、登録部14、及びデータベース15を有する。サーバ装置10が有する機能は、これらに限定されず、コンピュータが一般的に有する機能、及び他の機能を有してもよい。
選択条件取得部11は、ある端末装置20(例えば、端末装置20a)により操作可能に設定するロボット30の選択条件を取得する。選択条件は、ユーザによりロボット30を通じて体験可能な内容に関する情報を含む。選択条件は、任意の方法により取得される。
例えば、選択条件は、端末装置20aにより操作可能なロボット30の選択条件は、端末装置20aに対するユーザ入力に基づいて取得される。この場合において、例えば、「ピカソ」と端末装置20aに対してユーザ入力された場合、まず、サーバ装置10は、端末装置20aから当該ユーザ入力に基づく情報を受信する。その後、サーバ装置10が受信した当該情報に基づいて、選択条件取得部11は、ロボット30の選択条件として、ピカソの絵画が置かれた美術館に位置する(又は、ピカソの絵画付近に位置する)という条件(すなわち、ピカソに関する体験が可能である場所という条件)を取得(または設定)してもよい。また、他の例として、端末装置20aに対して「ショッピング」とユーザ入力された場合、ショッピングが可能な施設(例えば、デパート)のうち、予めお薦めとして設定された施設に位置するという条件が、ロボット30の選択条件として取得されてもよい。端末装置20aに対するユーザ入力は、ユーザによるタイピングなどによる手入力、音声入力、又はその他の任意の方法の入力を含む。
操作対象設定部12は、選択条件取得部11により取得された選択条件に基づいて、端末装置20により操作可能な複数のロボット30を操作可能ロボットとして選択する。また、操作対象設定部12は、選択された操作可能ロボットのうち、1つのロボット30を操作対象として設定する。
操作可能ロボットから1つのロボット30を操作対象として選択する方法は、任意の方法により行われる。例えば、操作可能ロボットに含まれるロボット30のうち、最も人気のあるロボット30が選択されてもよいし、ユーザの属性に応じてロボット30(例えば、ユーザが住んでいる又は滞在している地域から最も遠い位置に置かれたロボット30)が選択されてもよいし、ユーザによる選択に応じてロボット30が選択されてもよい。操作対象として、あるロボット30が設定されると、当該ロボット30を操作する権限が端末装置20に設定される。さらに、操作対象設定部12は、操作対象を、あるロボット30(例えば、ロボット30a)から、上記の操作可能ロボットのうち、他のロボット30(例えば、ロボット30b)に切り替え可能にする。操作対象設定部12は、例えば、所定の切り替え条件が満たされたときに、操作対象のロボット30の切り替え可能にする(又は、切り替える)。所定の切り替え条件は、ユーザ入力、ロボット30の移動、又は経過時間に関する条件を含む。例えば、所定の切り替え条件は、端末装置20を介してユーザより切り替えの指示を受けたこと、操作中のロボット30の位置が所定の位置に到達したこと、又は操作中のロボット30の操作時間が所定時間経過したこと、という条件を含む。
操作対象設定部12は、操作可能ロボットとして、複数のロボット30の選択のために、ロボット30についての情報が記憶管理されたデータベース15を参照する。データベース15は、各端末装置20が、どのロボット30についての操作の権限を有するかの情報も記憶管理する。操作対象設定部12がロボット30についての操作対象の設定又は切り替えを行うと、それに伴って、データベース15に記憶されたロボット30についての操作権限の情報も更新される。
ロボット30の操作対象の切り替えの処理のために、例えば、まず、サーバ装置10は、操作権限の情報に基づいて、切り替え先のロボット30に接続するための情報(例えば、IPアドレス)を端末装置20に送信し、端末装置20は、受信した情報に基づいて、接続中のロボット30との通信セッションを切断し、切り替え先のロボット30に接続する処理を開始する。他の例として、サーバ装置10を介して端末装置20とロボット30との間で遠隔操作のための通信をしているシステム構成を採用している場合に、サーバ装置10は、操作権限の変更に基づいて、端末装置20と通信するロボット30を切り替えることも可能である。
以下に、操作対象設定部12による操作可能ロボットの選択方法についてさらに説明する。操作対象設定部12による選択条件に基づく操作可能ロボットの選択は、任意の方法により行われる。操作可能ロボットの選択の方法の3つの例を以下に説明する。しかしながら、操作可能ロボットの選択の方法はこれらに限定されない。
(1)関連するロボットを選択
操作対象設定部12は、データベース15を参照して、上記の選択条件に応じたロボット30を特定し、当該特定したロボット30と、当該特定したロボット30に関連付けられるロボット30を含むように、操作可能ロボットを選択することができる。本実施形態において、データベース15に記憶されたロボット30に関する情報が、あるロボット30と他のロボット30との間に何らかの関連性があることを示す場合、当該2つのロボット30の間に関連付けがあると判断される。例えば、「ピカソの絵」という選択条件に応じて、東京の美術館Aの1Fのピカソの絵の付近に置かれたロボット30aが特定されたとする。この場合において、美術館Aの2Fに置かれたロボット30bは、ロボット30aと同じ美術館に置かれているという点で関連性があるため、ロボット30aとロボット30bとは関連付けられていると判断されてもよい。すなわち、この例において、操作対象設定部12は、ロボット30aとロボット30bを含むように操作可能ロボットを選択してもよい。
(2)ロボットが撮影した画像に基づいた選択
操作対象設定部12は、ロボット30が撮像した画像に対する画像認識処理により特定された情報に基づいて選択されたロボット30を含むように、操作可能ロボットを選択することができる。例えば、選択条件に基づいて特定された(又は、端末装置20を介して操作中の)ロボット30aが搭載するカメラにより撮影した画像に、デパートのワイン売り場に置かれたワインボトルが含まれていたとする。この場合に、操作対象設定部12は、当該画像に対する画像認識処理結果に基づいて、当該ワインボトルのワインを製造したワイナリーを特定し、当該ワイナリーに置かれたロボット30bを含むように、操作可能ロボットを選択することができる。すなわち、操作対象設定部12は、選択条件に基づいて特定された(又は、端末装置20を介して操作中の)ロボット30が撮影した画像に基づいて、当該ロボット30に付近に存在するオブジェクトに関連付けられた他のロボット30を含むように、操作可能ロボットを選択することができる。なお、画像認識処理はロボット30において行われて、当該画像処理の結果の情報がサーバ装置10に送信されてもよい。もしくは、サーバ装置10がロボット30により撮影された画像を受信し、画像処理を行ってもよい。画像処理自体は、その他の装置において行われてもよい。
(3)グループに基づく選択
操作対象設定部12は、選択条件に応じて特定される同じグループに分類されるロボット30を含むように、操作可能ロボットを選択することができる。例えば、選択条件が「パリ」である場合、操作対象設定部12は、「パリ」に関連するグループに分類される(属する)ロボット30を含むように、操作可能ロボットを選択する。
ロボット30のグループへの分類は、任意の方法により行われる。例えば、操作対象設定部12は、ロボット30に対して予め設定されたメタ情報(タグ情報、又は属性情報など、ロボット30に対応付け可能な情報を含む)に応じて、ロボット30のグループへの分類を決定してもよい。ロボット30に対して予め設定されたメタ情報は、データベース15から取得されてもよいし、ロボット30から取得されてもよい。
また、グループへの分類は、ユーザがロボット30を通じて体験可能な内容に応じて決定されてもよい。この場合において、例えば、水族館に置かれたロボット30はグループAに分類され、ショッピングモールに置かれたロボット30はグループAとは異なるグループBに分類されてもよい。ユーザがロボット30を通じて体験可能な内容の情報は、データベース15から取得されてもよいし、ロボット30から取得されてもよい。
また、グループへの分類は、ロボット30が撮像した画像に対する画像認識処理により特定された情報に基づいて決定されてもよい。この場合において、例えば、デパートにおいて、ロボット30cが撮像した画像に対する画像認識処理により、衣料品が認識された場合に、ロボット30cは衣料品に関係するグループCに分類されてもよい。また、デパートにおいて、ロボット30dが撮像した画像に対する画像認識処理により、家電製品が認識された場合に、ロボット30dは家電製品に関係するグループDに分類されてもよい。なお、画像認識処理はロボット30において行われて、当該画像処理の結果の情報がサーバ装置10に送信されてもよい。もしくは、サーバ装置10がロボット30により撮影された画像を受信し、画像処理を行ってもよい。画像処理自体は、その他の装置において行われてもよい。
表示制御部13は、端末装置20及びロボット30の表示部への表示内容を制御する。例えば、表示制御部13は、ユーザによる端末装置20に対する操作に応じてサーバ装置10が受信した情報に基づいて、端末装置20の表示部への表示内容を決定し、当該表示内容に関する情報を端末装置20へ送信することにより、端末装置20の表示部への表示を制御する。
表示制御部13は、例えば、ユーザが端末装置20による操作可能ロボットの検索を指示するための画像、又は操作対象のロボット30を選択するための画像を端末装置20の表示部に表示するように制御することができる。また、表示制御部13は、端末装置20による操作対象を、あるロボット30(例えば、ロボット30a)から他のロボット30(例えば、ロボット30b)への切り替えの指示を受け付けるための画像を端末装置20aの表示部に表示するように制御することができる。
登録部14は、ロボット30に関する情報をサーバ装置10の他の処理部、又は他の装置から取得し、データベース15へ記憶し、又はデータベース15に記憶された情報の更新又は削除を行う処理部である。ロボット30に関する情報は、例えば、ロボット30の識別情報、ロボット30が置かれた場所に関する情報、ロボット30の能力の情報、ロボット30の端末装置20による操作の予約情報等を含む。
データベース15は、サーバ装置10において実行される処理に必要なデータ、並びに当該処理により生成又は設定されたデータなど、各種データを記憶する。データベース15に記憶される情報は、例えば、ユーザ情報、ロボット30の操作に使用される端末装置20に関する情報、ロボット30(現実世界のロボット30及び仮想世界のロボット30を含む。)に関する情報、ロボット30の操作の権限に関する情報、当該操作の予約情報等を含む。また、データベース15は、仮想世界のロボット30による仮想的なカメラにより撮影される当該仮想世界の風景の画像データを記憶する。当該画像データは、仮想世界のロボット30の端末装置20による操作中に、端末装置20に送信される。
図5を参照してサーバ装置10が有する機能の説明をしたが、上述した機能の一部又は全てが、端末装置20又はロボット30により実行されてもよい。
以上のように本実施形態によれば、選択条件取得部11は選択条件に関する情報を取得し、操作対象設定部12は取得された選択条件に応じて選択された複数のロボット30のうち、第1のロボット30(例えば、ロボット30a)を端末装置20による操作対象に設定する。また、操作対象設定部12は、操作対象を、第1のロボットから、上記の選択された複数のロボット30のうち、第2のロボット30(例えば、ロボット30b)に切り替え可能に制御する。その結果、ユーザは、端末装置20を介して、複数のロボット30の中から操作対象のロボット30を自由に切り替えて操作を行うことができる。そのため、ユーザは、複数の場所のそれぞれに移動することなく、複数のロボット30がいるそれぞれの場所に自分もいるかのようなより価値の高いエクスペリエンスを体感することが可能である。
<処理フロー>
図6を参照して、システム1における処理フローの一例として、端末装置20による操作対象のロボット30の設定と、操作対象の切り替えのための処理の例を説明する。この処理は、サーバ装置10及び端末装置20において、プロセッサが、記憶部に記憶されたコンピュータプログラムを読み込み、実行することにより実現される。なお、この処理における各処理ステップについて、既に詳細を説明しているものについては、ここでは詳細な説明を省略する。
この処理は、ユーザが端末装置20aに対して、ロボット30を通じて体験したい内容に関する情報を入力し、サーバ装置10が、当該情報を受信したときに開始する。
ステップS101において、サーバ装置10は、端末装置20aから受信したロボット30を通じて体験したい内容に関する情報に基づいて、端末装置20aにより操作可能に設定するロボット30の選択条件を取得する。
次に、ステップS102において、サーバ装置10は、取得された選択条件に基づいて、端末装置20により操作可能な複数のロボット30を操作可能ロボットとして選択する。例えば、ロボット30a及びロボット30bが操作可能ロボットとして選択される。また、操作対象設定部12は、選択された操作可能ロボットのうち、1つのロボット30を操作対象として設定する。例えば、操作可能ロボットであるロボット30a及びロボット30bのうち、ロボット30aが操作対象として設定される。その後、ユーザは、端末装置20aを介して、操作対象として設定された例えばロボット30aを操作する。ユーザは、端末装置20aを介して、ロボット30aを移動させ、また、ロボット30aに搭載されたカメラ及びマイクにより取得された画像及び音声を視聴することができる。
その後、ステップS103において、サーバ装置10は、端末装置20aによる操作対象のロボット30の所定の切り替え条件が満たされたか否かを判断する。所定の切り替え条件は、例えば、操作中のロボット30の位置が所定の位置に到達したこと、又は端末装置20を介してユーザより切り替えの指示を受けたことという条件の少なくとも一方を含んでもよい。所定の切り替え条件が満たされた場合、処理はステップS104へ進む(ステップS103のYes)。
ステップS104において、サーバ装置10は、端末装置20aによる操作対象を他のロボット30に切り替える(例えば、ロボット30aからロボット30bに切り替える)。切り替え後の他のロボット30は、任意の方法により選択される。例えば、予め設定されたロボット30が選択されてもよいし、ユーザ入力に応じて選択されてもよい。
次に、ステップS105において、サーバ装置10は、端末装置20aによるロボット30の操作を終了するか否かを判断する。サーバ装置10は、例えば、端末装置20aからロボット30の操作終了の指示を受け付けたとき、又は予め設定された操作終了時間に達したときに、ロボット30の操作を終了すると判断する。ロボット30の操作を終了すると判断された場合、図6に示す処理は終了し、他の場合、処理はステップS103に進む。
図7を参照して、図6のステップS103及びS104による処理の例を説明する。図7は、ロボット30aの操作中に、端末装置20aの表示部に表示された画像の例を示している。図7に示すように、画像70は、ロボット30aにより撮影された美術館内の風景の画像と、ボタンの画像71とを含む。ボタンの画像71には、「次はパリの〇〇〇を見ますか?」と表示されている。例えば、ユーザが端末装置20aを介してロボット30aを操作し、東京の美術館に展示された絵画を鑑賞している状況において、ロボット30aの位置が所定の場所(例えば、美術館の出口付近)に達したとき、又は鑑賞時間が所定時間(例えば、1時間)を経過したときに、端末装置20aの表示部に、ボタンの画像71が表示される。ボタンの画像71がユーザにより選択されると、サーバ装置10は、所定の切り替え条件が満たされたと判断し(図6のステップS103のYes)、選択されたボタンの画像71に対応するロボット30(例えば、パリの美術館に置かれたロボット30b)に端末装置20aによる操作対象を切り替える(図6のステップS104)。
以上のように本実施形態によれば、サーバ装置10は、選択条件に関する情報を取得し、取得された選択条件に応じて選択された複数のロボット30のうち、第1のロボット30(例えば、ロボット30a)を端末装置20による操作対象に設定する。また、サーバ装置10は、操作対象を、第1のロボットから、上記の選択された複数のロボット30のうち、第2のロボット30(例えば、ロボット30b)に切り替え可能に制御する。その結果、ユーザは、端末装置20を介して、複数のロボット30の中から操作対象のロボット30を自由に切り替えて操作を行うことができる。そのため、ユーザは、複数の場所のそれぞれに移動することなく、複数のロボット30がいるそれぞれの場所に自分もいるかのようなより価値の高いエクスペリエンスを体感することが可能である。なお、ここでは、選択条件を取得してから、操作対象のロボットの設定および切り替えをする実施形態について説明したが、第1のロボットを操作しているときに取得された選択条件に基づいて、操作対象のロボットを切り替えるものとしてよい。
<コンピュータのハードウェア構成>
次に、図8を参照して、本実施形態におけるサーバ装置10及び端末装置20を実装するためのコンピュータ(情報処理装置)の例示的なハードウェア構成を説明する。
図8に示すように、コンピュータ700は、主な構成として、プロセッサ701と、メモリ703と、記憶装置705と、操作部707と、入力部709と、通信部711、及び表示装置713を備える。コンピュータ700は、これらの構成のうち、少なくとも一部を備えなくてもよい。また、コンピュータ700は、これらの構成以外に、汎用コンピュータ又は専用コンピュータが一般的に備える他の構成を備えてもよい。また、コンピュータ700は、図8に示した構成のうち、一部を備えなくてもよい。
プロセッサ701は、メモリ703に記憶されているプログラムを実行することによりコンピュータ700における各種の処理を制御する制御部である。従って、プロセッサ701は、コンピュータ700が備える他の構成と、プログラムとの協働により、上記の実施形態で説明した各装置の機能を実現し、上記の処理の実行を制御する。
メモリ703は、例えばRAM(Random Access Memory)等の記憶媒体である。メモリ703には、プロセッサ701によって実行されるプログラムのプログラムコードや、プログラムの実行時に必要となるデータが記憶装置705等から一時的に読みだされて、又は予め記憶されている。
記憶装置705は、例えばハードディスクドライブ(HDD)等の不揮発性の記憶媒体である。記憶装置705は、オペレーティングシステム、上記各構成を実現するための各種プログラム、上述した処理結果のデータ等を記憶する。
操作部707は、ユーザからの入力を受け付けるためのデバイスである。操作部707の具体例としては、キーボード、マウス、タッチパネル、ジョイスティック、各種センサ、ウェアラブルデバイス等が挙げられる。操作部707は、例えばUSB(Universal Serial Bus)等のインタフェースを介してコンピュータ700に取り外し可能に接続されても良い。
入力部709は、コンピュータ700の外部からデータを入力するためのデバイスである。入力部709の具体例としては、各種記憶媒体に記憶されているデータを読み取るためのドライブ装置等がある。入力部709は、コンピュータ700に取り外し可能に接続されてもよい。その場合、入力部709は、例えばUSB等のインタフェースを介してコンピュータ700へと接続される。
通信部711は、コンピュータ700の外部の装置と有線又は無線により、ネットワークを介したデータ通信を行うための装置である。通信部711は、コンピュータ700に取り外し可能に接続されてもよい。その場合、通信部711は、例えばUSB等のインタフェースを介してコンピュータ700に接続される。
表示装置713は、各種情報を表示するためのデバイスである。表示装置713の具体例としては、例えば液晶ディスプレイや有機ELディスプレイ、ウェアラブルデバイスのディスプレイ等が挙げられる。表示装置713は、コンピュータ700の外部に取り外し可能に接続されてもよい。その場合、表示装置713は、例えばディスプレイケーブル等を介してコンピュータ700に接続される。また、操作部707としてタッチパネルが採用される場合には、表示装置713は、操作部707と一体化して構成することが可能である。
次に、図9を参照して、本実施形態におけるロボット30(仮想世界に存在するロボット30を除く。)に搭載されるコンピュータ(情報処理装置)及びその他の主な構成の例示的なハードウェア構成を説明する。ロボット30は、プロセッサ901、RAM(Random Access Memory)902、ROM(Read only Memory)903、通信部904、入力部905、表示部906、駆動部907、及びカメラ908を備える。図9に示す構成は一例であり、ロボット30はこれら以外の構成を有してもよいし、これらの構成のうち一部を有さなくてもよい。例えば、ロボット30は、スピーカ、マイク、及び各種センサをさらに備えてもよい。また、ロボット30は、自機の位置を特定するためのユニットを備えてもよい。
プロセッサ901は、ロボット30の演算部であり、例えば、CPU(Central Processing Unit)である。RAM902及びROM903は、各種処理に必要なデータ及び処理結果のデータを記憶する記憶部である。ロボット30は、RAM902及びROM903以外に、HDD(Hard Disk Drive)などの大容量の記憶部を備えてもよい。通信部904は、外部装置との通信を行うデバイスである。入力部905は、ロボット30の外部からデータを入力するためのデバイスである。表示部906は、各種情報を表示するためのデバイスである。
プロセッサ901は、RAM902又はROM903に記憶されたプログラムの実行に関する制御やデータの演算、加工を行う制御部である。プロセッサ901は、ロボットを介したコミュニケーションを制御するプログラム(コミュニケーションプログラム)を実行する。プロセッサ901は、入力部905や通信部904から種々のデータを受け取り、データの演算結果を表示部906に表示したり、RAM902に格納したりする。
入力部905は、ユーザからデータの入力を受け付けるものであり、例えば、キーボード及びタッチパネルを含んでよい。また、入力部905は、音声入力のためのマイクを含んでよい。
表示部906は、プロセッサ901による演算結果を視覚的に表示するものであり、例えば、LCD(Liquid Crystal Display)により構成されてよい。表示部906は、ロボット30のカメラ908で撮影された画像を表示してよい。
コミュニケーションプログラムは、RAM902やROM903等のコンピュータによって読み取り可能な記憶媒体に記憶されて提供されてもよいし、通信部904により接続される通信ネットワークを介して提供されてもよい。ロボット30では、プロセッサ901がコミュニケーションプログラムを実行することにより、ロボット30を制御するための様々な動作が実現される。なお、これらの物理的な構成は例示であって、必ずしも独立した構成でなくてもよい。例えば、コンピュータ900は、プロセッサ901とRAM902やROM903が一体化したLSI(Large-Scale Integration)を備えていてもよい。
駆動部907は、遠隔操作可能なアクチュエータを含み、車輪等の移動部やマニピュレータ等を含む。ロボット30が移動型のロボットである場合、駆動部907は、少なくとも車輪等の移動部を含むが、マニピュレータを含んでもよい。ロボット30が装着型である場合、駆動部907は、少なくともマニピュレータを含む。
カメラ908は、静止画又は動画を撮像する撮像素子を含み、撮像した静止画又は動画を、通信部904を介して外部装置に送信する。
<変形例>
本実施形態におけるシステム1(または、サーバ装置10、端末装置20、又はロボット30)を実装するためのプログラムは、CD-ROM等の光学ディスク、磁気ディスク、半導体メモリなどの各種の記録媒体に記録しておくことができる。また、記録媒体を通じて、又は通信ネットワークなどを介して上記のプログラムをダウンロードすることにより、コンピュータにインストール又はロードすることができる。
本発明は、上記した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において、他の様々な形で実施することができる。上記実施形態はあらゆる点で単なる例示にすぎず、限定的に解釈されるものではない。
1 システム
10 サーバ装置
20 端末装置
30 ロボット

Claims (14)

  1. プロセッサと記憶部とを備える情報処理装置であって、前記プロセッサは、前記記憶部に記憶されたプログラムを実行することにより、
    選択条件に関する情報を取得することと、
    第1ロボットを端末装置による操作対象に設定することと、
    前記操作対象を、前記第1ロボットから、前記選択条件に応じて選択された複数のロボットのうち、前記第1ロボットとは異なる第2ロボットに切り替え可能にすることと
    を含む制御方法を実施するように構成されている、情報処理装置。
  2. 前記操作対象を切り替え可能にすることは、ユーザ入力、前記第1ロボットの移動、又は経過時間に関する所定の条件を満たしたときに実施される、請求項1に記載の情報処理装置。
  3. 前記選択された複数の前記ロボットは、前記選択条件に応じて特定される前記ロボットに関連付けられる前記ロボットを含む、請求項1又は2に記載の情報処理装置。
  4. 前記選択された複数の前記ロボットは、前記ロボットが撮像した画像に対する画像認識処理により特定された情報に基づいて選択された前記ロボットを含む、請求項1から3のいずれか一項に記載の情報処理装置。
  5. 前記選択された複数の前記ロボットは、前記選択条件に応じて特定される同じグループに分類される前記ロボットを含む、請求項1から4のいずれか一項に記載の情報処理装置。
  6. 前記ロボットの前記グループへの分類は、前記ロボットに対して予め設定されたメタ情報に応じて決定されることを含む、請求項5に記載の情報処理装置。
  7. 前記ロボットの前記グループへの分類は、ユーザが前記ロボットを通じて体験可能な内容に応じて決定されることを含む、請求項5又は6に記載の情報処理装置。
  8. 前記ロボットの前記グループへの分類は、前記ロボットが撮像した画像に対する画像認識処理により特定された情報に基づいて決定されることを含む、請求項5から7のいずれか一項に記載の情報処理装置。
  9. 複数の前記ロボットは、現実世界に存在するロボットと、仮想世界に存在するロボットとを含む、請求項1から8のいずれか一項に記載の情報処理装置。
  10. 前記選択条件に関する情報は、ユーザが前記ロボットを通じて体験可能な内容に関する情報を含む、請求項1から9のいずれか一項に記載の情報処理装置。
  11. 複数の前記ロボットは、互いに所定距離以上離れた場所に存在する、請求項1から10のいずれか一項に記載の情報処理装置。
  12. 前記制御方法は、前記操作対象を、前記第1ロボットから前記第2ロボットへの切り替えの指示を受け付けるための画像を前記端末装置の表示部に表示するように制御することを含む、請求項1から11のいずれか一項に記載の情報処理装置。
  13. コンピュータにより実施される情報処理方法であって、
    選択条件に関する情報を取得することと、
    前記選択条件に応じて選択された固定されていない複数のロボットのうち、第1ロボットを端末装置による操作対象に設定することと、
    前記操作対象を、前記第1ロボットから、前記選択された複数のロボットのうち、前記第1ロボットとは異なる第2ロボットに切り替え可能にすることと
    を含む情報処理方法。
  14. コンピュータに、
    選択条件に関する情報を取得することと、
    前記選択条件に応じて選択された固定されていない複数のロボットのうち、第1ロボットを端末装置による操作対象に設定することと、
    前記操作対象を、前記第1ロボットから、前記選択された複数のロボットのうち、前記第1ロボットとは異なる第2ロボットに切り替え可能にすることと
    を含む情報処理方法を実行させるためのプログラムが記憶された記憶媒体。
JP2020176568A 2020-10-21 2020-10-21 情報処理装置、情報処理方法、及び記憶媒体 Pending JP2022067781A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020176568A JP2022067781A (ja) 2020-10-21 2020-10-21 情報処理装置、情報処理方法、及び記憶媒体
EP21882680.8A EP4234181A1 (en) 2020-10-21 2021-10-13 Information processing device, information processing method, and storage medium
US18/033,059 US20230390937A1 (en) 2020-10-21 2021-10-13 Information processing device, information processing method, and storage medium
PCT/JP2021/037926 WO2022085539A1 (ja) 2020-10-21 2021-10-13 情報処理装置、情報処理方法、及び記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020176568A JP2022067781A (ja) 2020-10-21 2020-10-21 情報処理装置、情報処理方法、及び記憶媒体

Publications (1)

Publication Number Publication Date
JP2022067781A true JP2022067781A (ja) 2022-05-09

Family

ID=81290801

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020176568A Pending JP2022067781A (ja) 2020-10-21 2020-10-21 情報処理装置、情報処理方法、及び記憶媒体

Country Status (4)

Country Link
US (1) US20230390937A1 (ja)
EP (1) EP4234181A1 (ja)
JP (1) JP2022067781A (ja)
WO (1) WO2022085539A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023234378A1 (ja) * 2022-06-01 2023-12-07 三菱電機株式会社 アバターおよび遠隔機械操作システム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017029982A1 (ja) * 2015-08-14 2017-02-23 ソニー株式会社 移動体、情報処理装置、移動体システム、情報処理方法および情報処理プログラム
JP6453825B2 (ja) * 2016-09-27 2019-01-16 ファナック株式会社 操作盤と無線通信を行う制御装置、無線モジュール、及び無線中継器
JP7013689B2 (ja) * 2017-06-21 2022-02-01 富士フイルムビジネスイノベーション株式会社 遠隔操作型移動ロボットおよびロボット制御システム
JP7180063B2 (ja) 2017-09-25 2022-11-30 富士フイルムビジネスイノベーション株式会社 カメラ付き移動体、カメラ付き移動体制御システム、及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023234378A1 (ja) * 2022-06-01 2023-12-07 三菱電機株式会社 アバターおよび遠隔機械操作システム

Also Published As

Publication number Publication date
EP4234181A1 (en) 2023-08-30
US20230390937A1 (en) 2023-12-07
WO2022085539A1 (ja) 2022-04-28

Similar Documents

Publication Publication Date Title
JP6984004B2 (ja) 自律パーソナルコンパニオンによってユーザの人工知能モデルが実行するためのユーザのコンテクスト環境を記述する識別タグに基づくシナリオの継続的選択
JP6972325B2 (ja) ユーザ用の人工知能(ai)モデルに基づく可動式の自律型パーソナルコンパニオン
US20150356648A1 (en) Online Shopping by Multi Participants Via a Robot
JP6566698B2 (ja) 表示制御装置および表示制御方法
JP2017534091A (ja) ロボット装置の行為の仮想表現を表示する拡張現実のための方法及びシステム
CN107577229A (zh) 移动机器人、移动控制系统以及移动控制方法
JP7173024B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2008543212A (ja) ネットワークを介して双方向型の映画を表示する方法とシステム
KR102245911B1 (ko) 인공 지능을 이용하여, 아이템의 정보를 제공하는 냉장고 및 그의 동작 방법
JP2019079510A (ja) 生放送中の音声フィードバックのための方法とシステム、および非一時的コンピュータ読取可能な記録媒体
JP2016005083A (ja) 情報処理装置、情報処理方法及び端末装置
WO2022085539A1 (ja) 情報処理装置、情報処理方法、及び記憶媒体
CN108027936A (zh) 用于在视频内容内呈现交互式元素的方法、系统和介质
JP2022188095A (ja) 情報処理装置、情報処理装置の制御方法、及びプログラム
KR102231922B1 (ko) 인공 지능을 이용하여, 복수의 로봇들을 제어하는 인공 지능 서버
JP2010039256A (ja) 表示システム、表示方法,及び移動体
WO2022091787A1 (ja) コミュニケーションシステム、ロボット、及び記憶媒体
US20170277412A1 (en) Method for use of virtual reality in a contact center environment
EP3400991A1 (en) Transport simulation in a location-based mixed-reality game system
KR102325048B1 (ko) 로봇 아바타를 통한 실시간 vr 서비스 제공방법
CN108141628A (zh) 信息处理设备、其控制方法和计算机程序
JP2022047605A (ja) 情報処理装置、情報処理方法及びプログラム
WO2018206605A1 (en) Transport simulation in a location-based mixed-reality game system
KR101666488B1 (ko) 로봇의 자율 이동을 위한 행동블록 운영 시스템 및 그 방법
EP3400992A1 (en) Providing a location-based mixed-reality experience

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230921