JP2024039760A - 情報処理システム - Google Patents

情報処理システム Download PDF

Info

Publication number
JP2024039760A
JP2024039760A JP2022144359A JP2022144359A JP2024039760A JP 2024039760 A JP2024039760 A JP 2024039760A JP 2022144359 A JP2022144359 A JP 2022144359A JP 2022144359 A JP2022144359 A JP 2022144359A JP 2024039760 A JP2024039760 A JP 2024039760A
Authority
JP
Japan
Prior art keywords
user
communication device
image
processing system
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022144359A
Other languages
English (en)
Inventor
健太 丸山
Kenta Maruyama
潤一郎 尾中
Junichiro Onaka
潤哉 小原
Junya Kohara
雄亮 石田
Yusuke Ishida
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2022144359A priority Critical patent/JP2024039760A/ja
Priority to CN202311147063.5A priority patent/CN117692616A/zh
Priority to US18/244,382 priority patent/US20240085976A1/en
Publication of JP2024039760A publication Critical patent/JP2024039760A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】移動体の乗員と、移動体とは異なる場所にいる利用者との双方に与える臨場感を高めることができる情報処理システムを提供すること。【解決手段】乗員が搭乗する移動体に搭載される第1装置と、前記移動体とは異なる場所で利用者によって利用される第2装置とを備える情報処理システムであって、前記第1装置は、前記第2装置の第2通信装置と通信する第1通信装置とカメラユニットとを有し、前記第2装置は、前記第1通信装置と通信する前記第2通信装置と、前記利用者の指向方向およびジェスチャーを検知するための検知装置と、前記カメラユニットが撮像した画像のうち、前記所定の座席から見た前記指向方向に対応する画像を表示する表示装置とを有し、前記第2装置は、検知された前記指向方向および前記ジェスチャーに基づいて、前記利用者が指向する前記移動体の操作部と前記操作部への操作内容を決定する、情報処理システム。【選択図】図1

Description

本発明は、情報処理システムに関する。
従来、車両等の移動体に搭載された装置と、移動体とは別の場所で使用される装置との間で通信を行い、車外風景の画像等を共有することについて研究が進められている(特許文献1)。
特開2020-94958号公報
従来の技術では、移動体の乗員と、移動体とは異なる場所にいる利用者との双方にとって、臨場感が十分に感じられない場合があった。
本発明は、このような事情を考慮してなされたものであり、移動体の乗員と、移動体とは異なる場所にいる利用者との双方に与える臨場感を高めることができる情報処理システムを提供することを目的の一つとする。
この発明に係る情報処理システムは、以下の構成を採用した。
(1):この発明の一態様に係る情報処理システムは、乗員が搭乗する移動体に搭載される第1装置と、前記移動体とは異なる場所で利用者によって利用される第2装置と、を備える情報処理システムであって、前記第1装置は、前記第2装置の第2通信装置と通信する第1通信装置と、前記移動体の所定の座席上に設けられ、前記所定の座席から見た前記移動体内を撮像可能な室内カメラを少なくとも含む、一以上のカメラを有するカメラユニットと、を有し、前記第2装置は、前記第1通信装置と通信する前記第2通信装置と、前記利用者の指向方向およびジェスチャーを検知するための検知装置と、前記カメラユニットが撮像した画像のうち、前記所定の座席から見た前記指向方向に対応する画像を表示する表示装置と、を有し、前記第2装置は、検知された前記指向方向および前記ジェスチャーに基づいて、前記画像のうち、前記利用者が指向する前記移動体の操作部と、前記操作部への操作内容を決定し、前記第2通信装置は、決定された前記操作部への操作内容を前記第1通信装置に送信する、情報処理システム。
(2):上記(1)の態様において、前記表示装置は、前記ジェスチャーに応じて、前記操作部の位置を変更して表示するものである。
(3):上記(1)の態様において、前記表示装置は、前記ジェスチャーに応じて、前記操作部のサイズを変更して表示するものである。
(4):上記(1)の態様において、前記表示装置は、複数の前記操作部のうち、前記利用者が操作可能な操作部をハイライト表示させるものである。
(5):上記(1)の態様において、前記第2装置は、前記利用者に設定された前記移動体の操作部への操作権限に基づいて、前記画像のうち、前記利用者に操作を許可する前記移動体の操作部を決定するものである。
(6):上記(1)の態様において、前記第1装置は、前記利用者が指向する前記操作部を示す画像を表示するディスプレイを更に備えるものである。
(7):上記(1)の態様において、前記第2通信装置は、前記指向方向の情報を前記第1通信装置に送信し、前記第1装置は、前記カメラユニットが撮像した画像のうち、前記第1通信装置を介して取得される前記指向方向に対応する画像を選択的に前記第2通信装置に送信するように、前記第1通信装置を制御する第1制御装置を更に有し、前記第2装置の表示装置は、前記第2通信装置を介して取得される、前記所定の座席から見て前記指向方向に対応する画像を表示するものである。
(8):上記(1)の態様において、前記第1通信装置は、前記カメラユニットが撮像した画像を前記第2通信装置に送信し、前記第2装置は、前記カメラユニットが撮像した画像のうち前記指向方向に対応する画像を選択的に前記表示装置に表示させる第2制御装置を更に有するものである。
(9):上記(1)の態様において、前記表示装置は、VR(Virtual Reality)ゴーグルの表示装置であり、前記検知装置は、前記VRゴーグルに取り付けられた物理センサを含むものである。
(10):上記(1)の態様において、前記移動体は車両であり、前記所定の座席は助手席であるものである。
(1)~(10)の態様によれば、移動体の乗員と、移動体とは異なる場所にいる利用者との双方に与える臨場感を高めることができる。
情報処理システム1と管理サーバ300の使用環境等を示す図である。 ユーザデータ360の内容の一例を示す図である。 第1装置100の構成図である。 移動体Mにおける第1装置100の一部の配置例を示す図である。 第2装置200の構成図である。 指向方向に対応する画像について説明するための図である。 第1制御装置170と第2制御装置270の機能構成の第1例を示す図である。 第1制御装置170と第2制御装置270の機能構成の第2例を示す図である。 指向方向に対応する画像の一例を示す図である。 移動体Mの操作権限を定義するユーザデータ360Cの内容の一例を示す図である。 利用者Uが操作権限を有する操作領域を示す画像の一例を示す図である。 利用者Uのジェスチャーを表す指示画像Hを操作領域に重畳表示する方法の一例を示す図である。 利用者Uのジェスチャーに応じて、利用者Uに対して表示する操作領域の表示態様を変更する方法の一例を示す図である。
以下、図面を参照し、本発明の情報処理システムの実施形態について説明する。情報処理システムは、乗員が搭乗する移動体に搭載される第1装置と、移動体とは異なる場所で利用者によって利用される第2装置と、を含む。移動体とは例えば車両であるが、乗員が搭乗可能なものであれば如何なる移動体でも構わない。また乗員は主に移動体の運転者であるが、運転者以外の乗員であっても構わない。
第1装置と第2装置の間では、マイクによって収集された音声が相手側に送信されてスピーカによって再生されることで電話通話を行っているような状態になり、更に、第1装置のカメラユニットにより撮像された画像の一部が第2装置によって表示されることで、第2装置側にMR(Mixed Reality)が提供される。第1装置と第2装置は一対一の関係である必要は無く、複数の第1装置のうち一つと、複数の第2装置とが一対多の関係でマッチングされることで、情報処理システムとして動作してよい。後者の場合、例えば一人の乗員を複数の利用者と同時に、或いは順番にコミュニケートさせることができる。
<基本構成>
図1は、情報処理システム1と管理サーバ300の使用環境等を示す図である。情報処理システム1は、移動体Mに搭載された第1装置(移動体装置)100と、移動体Mとは異なる場所(たまたま近い場所であることは排除されない)で利用者Uによって利用される第2装置(利用者装置)200とを含む。第1装置100、第2装置200、および管理サーバ300のそれぞれは、ネットワークNWを介して互いに通信する。情報処理システム1は、管理サーバ300を含んでもよいし、含まなくてもよい。
管理サーバ300は、例えば、通信装置310、マッチング処理部320、および記憶部350を備える。記憶部350には、ユーザデータ360が格納されている。
通信装置310は、ネットワークNWに接続するための通信インターフェースである。なお、通信装置310と第1装置100の間の通信、および通信装置310と第2装置200の間の通信は、例えばTCP/IP(Transmission Control Protocol / Internet Protocol)に即して行われる。
マッチング処理部320は、例えばCPU(Central Processing Unit)等のプロセッサが、記憶媒体に格納されたプログラム(命令群)を実行することで実現される。記憶部350は、RAM(Random Access Memory)やHDD(Hard Disk Drive)、フラッシュメモリなどである。
図2は、ユーザデータ360の内容の一例を示す図である。ユーザデータ360は、例えば、乗員Pの識別情報である乗員ID、その通信識別情報(IPアドレス等)、およびマッチング対象となる利用者Uの識別情報である利用者IDが互いに対応付けられた乗員リスト360Aと、利用者ID、その通信識別情報(IPアドレス等)、およびマッチング対象となる乗員Pが互いに対応付けられた利用者リスト360Bとを含む。ユーザデータ360は、これらの情報を包含するものであれば、図2に示す態様に限らず如何なる態様で生成されてもよい。
マッチング処理部320は、利用者Uから第2装置200を介して、或いは乗員Pから第1装置100を介してマッチングリクエストを通信装置310が受信した場合、ユーザデータ360を参照してマッチング利用者Uと乗員Pのマッチングを行い、マッチングした利用者Uの第2装置200に乗員Pの第1装置100の通信識別情報を、マッチングした乗員Pの第1装置100に利用者Uの第2装置200の通信識別情報を、通信装置310を用いてそれぞれ送信する。これらを受信した第1装置100と第2装置200の間では、例えばUDP(User Datagram Protocol)に即した、よりリアルタイム性の高い通信が行われる。
図3は、第1装置100の構成図である。第1装置100は、例えば、第1通信装置110と、第1マイク120と、カメラユニット130と、第1スピーカ140と、利用者表示装置150と、HMI(Human machine Interface)160と、第1制御装置170とを含む。第1制御装置170は、移動体Mに搭載された制御対象機器190に接続される。
第1通信装置110は、管理サーバ300の通信装置310、および第2装置200の第2通信装置210のそれぞれとネットワークNWを介して通信するための通信インターフェースである。
第1マイク120は、少なくとも乗員Pの発した音声を収集する。第1マイク120は、移動体Mの室内に設けられ、移動体Mの外部の音声も収集可能な感度を有するものでもよいし、移動体Mの室内に設けられたマイクと移動体Mの外部に設けられたマイクとを含んでもよい。第1マイク120の収集した音声は、例えば、第1制御装置170を経由して、第1通信装置110によって第2通信装置210に送信される。
カメラユニット130は、少なくとも室内カメラ132を含み、室外カメラ134を含んでもよい。第1スピーカ140は、第1通信装置110を介して取得された、利用者Uの発した音声を出力する。カメラユニット130、および第1スピーカ140の配置等の詳細については、後に図4を参照して説明する。
利用者表示装置150は、利用者Uが移動体Mの室内に存在するかのように仮想的に利用者Uを表示する。例えば、利用者表示装置150は、ホログラムを出現させたり、移動体Mのミラーやウインドウに相当する部分に利用者Uを表示する。
HMI160は、タッチパネルや音声応答装置(エージェント装置)等である。HMI160は、第1装置100に対する乗員Pの各種指示を受け付ける。
第1制御装置170は、例えば、例えばCPU等のプロセッサと、プロセッサに接続され、プログラム(命令群)を格納した記憶媒体とを含み、プロセッサが命令群を実行することで第1装置100の各部を制御する。
制御対象機器190は、例えば、移動体Mに搭載されたナビゲーション装置、運転支援装置などである。
図4は、移動体Mにおける第1装置100の一部の配置例を示す図である。室内カメラ132は、例えば、アタッチメント132Aを介して助手席S2(「所定の座席」の一例)のネックピローに取り付けられ、助手席S2のバックレストから若干、移動体Mの進行方向側に乖離した位置に設けられる。室内カメラ132は、広角レンズを有し、図中のハッチングされた領域132Bで表される範囲を撮像可能である。室内カメラ132は、移動体Mの室内だけでなく、ウインドウを介して室外も撮影可能である。以下の説明では助手席S2が所定の座席であるものとするが、所定の座席は後部座席などの他の座席であってもよい。
室外カメラ134は、例えば、複数の子室外カメラ134-1~134-4を含む。複数の子室外カメラ134-1~134-4の撮像した画像を合成することで、移動体Mの外部を撮像したパノラマ画像のような画像が得られる。室外カメラ134は、これらに代えて(或いは、加えて)、移動体Mのルーフ上に設けられた広角カメラを含んでもよい。なお室内カメラ132として、助手席S2の後方を撮像可能なカメラが追加されてもよく、後述する移動体画像は、第1制御装置170により、一以上の室内カメラ132の撮像した画像を結合して360度のパノラマ画像として生成されてもよいし、室内カメラ132の撮像した画像と室外カメラ134の撮像した画像を適宜結合して360度のパノラマ画像として生成されてもよい。
第1スピーカ140は、第1通信装置110を介して取得された利用者Uの音声を出力する。第1スピーカ140は、例えば、複数の子第1スピーカ140-1~140-5を含む。例えば、子第1スピーカ140-1はインストルメントパネル中央部に、子第1スピーカ140-2はインストルメントパネル左端部に、子第1スピーカ140-3はインストルメントパネル右端部に、子第1スピーカ140-4は左側ドア下部に、子第1スピーカ140-5は右側ドア下部に、それぞれ配置される。第1制御装置170は、利用者Uの音声を第1スピーカ140に出力させる場合、例えば、子第1スピーカ140-2および子第1スピーカ140-4から同程度のボリュームで音声を出力させ、その他の子第1スピーカをオフにすることで、運転席S1に着座した乗員Pに対して、助手席S2から音声が聞こえるように音像定位させる。また、音像定位の方法はボリュームの調整に限らず、それぞれの子第1スピーカが出力する音の位相をずらすことで行われてもよい。例えば、左側から聞こえるように音像定位させる場合、左側の子第1スピーカから音を出力させるタイミングを、右側の子第1スピーカから同じ音を出力させるタイミングよりもわずかに早くすればよい。
また、第1制御装置170は、利用者Uの音声を第1スピーカ140に出力させる場合、乗員Pに対して、助手席S2上の利用者Uの頭部の高さに応じた高さの位置から音声が聞こえるように音像定位させて、第1スピーカ140に利用者Uの発した音声を出力させてもよい。この場合、第1スピーカ140は高さの異なる複数の子第1スピーカ140-k(kは複数の自然数)を有する必要がある。
図5は、第2装置200の構成図である。第2装置200は、例えば、第2通信装置210と、第2マイク220と、検知装置230と、第2スピーカ240と、移動体画像表示装置250と、HMI260と、第2制御装置270とを含む。検知装置230は、例えば、指向方向検知装置232と、頭部位置検知装置234と、モーションセンサ236とを含む。
第2通信装置210は、管理サーバ300の通信装置310、および第1装置100の第1通信装置110のそれぞれとネットワークNWを介して通信するための通信インターフェースである。
第2マイク220は、利用者Uの発した音声を収集する。第2マイク220の収集した音声は、例えば、第2制御装置270を経由して、第2通信装置210によって第1通信装置110に送信される。
指向方向検知装置232は、指向方向を検知するための装置である。指向方向とは、利用者Uの顔向きまたは視線の向き、或いはそれらの双方に基づく向きである。或いは、利用者Uが使用する端末装置を傾ける動作や画面をスワイプする動作などのように、腕や指の動きによって指し示される向きであってもよい。以下では指向方向は、水平面内での角度、つまり上下方向の成分を有さない角度であるものとするが、指向方向は、上下方向の成分も含む角度であってもよい。指向方向検知装置232は、後述するVRゴーグルに取り付けられた物理センサ(例えば、加速度センサ、ジャイロセンサなど)を含んでもよいし、利用者Uの頭部の複数の位置を検出する赤外線センサ、或いは利用者Uの頭部を撮像するカメラであってもよい。いずれの場合も第2制御装置270は、指向方向検知装置232から入力された情報に基づいて指向方向を算出する。これについて種々の技術が公知となっているため詳細な説明を省略する。
頭部位置検知装置234は、利用者Uの頭部の位置(高さ)を検知するための装置である。例えば、利用者Uが着座する椅子の周囲に設けられた一以上の赤外線センサ、或いは光学センサが頭部位置検知装置234として用いられる。この場合、第2制御装置270は、一以上の赤外線センサ、或いは光学センサによる検出信号の有無に基づいて利用者Uの頭部の位置を検知する。また、頭部位置検知装置234は、VRゴーグルに取り付けられた加速度センサでもよい。この場合、第2制御装置270は、加速度センサの出力から重力加速度を差し引いたものを積分することで利用者Uの頭部の位置を検知する。このように取得される頭部の位置の情報は、高さ情報として第2制御装置270に提供される。利用者の頭部の位置は、HMI260に対する利用者Uの操作に基づいて取得されてもよい。例えば、利用者Uは身長を数字でHMI260に入力してもよいし、HMI260に含まれるダイヤルスイッチを用いて身長を入力してもよい。これらの場合、身長から頭部の位置すなわち高さ情報が計算される。また、利用者Uは、連続値ではなく体格:大/中/小といった離散値をHMI260に入力してもよい。この場合、体格を示す情報に基づいて高さ情報が取得される。また、利用者の頭部の高さを特段、取得せず、一般的な成人の体格(男女別であってよい)に基づいて簡易的に利用者Uの頭部の高さが取得されてもよい。
モーションセンサ236は、利用者Uが行うジェスチャー操作を認識するための装置である。例えば、利用者Uの上半身を撮像するカメラがモーションセンサ236として用いられる。この場合、第2制御装置は、カメラが撮像した画像から利用者Uの身体の特徴点(指先、手首、肘など)を抽出し、特徴点の動きに基づいて利用者Uのジェスチャー操作を認識する。
第2スピーカ240は、第2通信装置210を介して取得された、乗員Pの発した音声を出力する。第2スピーカ240は、例えば音声の聞こえる方向を変更する機能を有する。第2制御装置270は、利用者Uに対して、助手席S2からみた乗員Pの位置から音声が聞こえるように、第2スピーカに音声を出力させる。第2スピーカ240は、複数の子第2スピーカ240-n(nは複数の自然数)を含み、第2制御装置270がそれぞれの子第2スピーカ240-nのボリュームを調整することで音像定位がなされてもよいし、VRゴーグルにヘッドホンが付随している場合はヘッドホンの機能を利用して音像定位がなされてもよい。
移動体画像表示装置250は、カメラユニット130が撮像した画像(前述した結合処理が行われた画像であってもよく、以下では移動体画像と称する)のうち、助手席から見た指向方向に対応する画像を表示する。図6は、指向方向に対応する画像について説明するための図である。この図の例では、VRゴーグル255に指向方向検知装置232、頭部位置検知装置234としての物理センサ、および移動体画像表示装置250が含まれている。第2制御装置270は、予めキャリブレーションされた方向を基準方向としてVRゴーグル255の向く方向を指向方向φとして検知する。係る機能については既に種々の手法が公知となっているため詳細な説明を省略する。
移動体画像表示装置250は、移動体画像A1(図では240度程度の角度を有するが、前述したように結合処理によって画角が拡張されてもよい)のうち、指向方向φを中心としたプラスマイナスαの角度範囲の画像A2を利用者Uに向けて表示する。
HMI260は、タッチパネルや音声応答装置(エージェント装置)、或いは上記したスイッチ等である。HMI260は、第2装置200に対する乗員Pの各種指示を受け付ける。
第2制御装置270は、例えば、例えばCPU等のプロセッサと、プロセッサに接続され、プログラム(命令群)を格納した記憶媒体とを含み、プロセッサが命令群を実行することで第2装置200の各部を制御する。
<機能構成>
以下、第1制御装置170と第2制御装置270の機能構成について説明する。
[第1例]
図7は、第1制御装置170と第2制御装置270の機能構成の第1例を示す図である。第1例において、第1制御装置170は、マッチングリクエスト/承諾部171と、音声出力制御部172と、画像送信部173と、搭載機器連携部174とを含む。第2制御装置270は、マッチングリクエスト/承諾部271と、音声出力制御部272と、指向方向検知部273と、頭部位置検知部274と、ジェスチャー入力検知部275と、画像編集部276と、移動体画像表示制御部277とを含む。これらの機能部は、例えば、CPUなどのプロセッサがプログラム(命令群)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。
マッチングリクエスト/承諾部171は、HMI160を用いて乗員Pからのマッチングリクエストの入力を受け付け、管理サーバ300に送信したり、HMI160を用いて管理サーバ300から受信したマッチングリクエストに対する承諾の入力を受け付け、管理サーバ300に送信したりする。マッチングリクエスト/承諾部171は、マッチングが成立した利用者Uの第2装置200を通信相手とするように第1通信装置110を制御する。
音声出力制御部172は、前述したように第1スピーカ140を制御する。
画像送信部173は、第1通信装置110を用いて、第2装置200に移動体画像A1を送信する。
搭載機器連携部174は、第2装置200から入力された指示信号に基づいて、制御対象機器190を制御する。
マッチングリクエスト/承諾部271は、HMI260を用いて利用者Uからのマッチングリクエストの入力を受け付け、管理サーバ300に送信したり、HMI260を用いて管理サーバ300から受信したマッチングリクエストに対する承諾の入力を受け付け、管理サーバ300に送信したりする。マッチングリクエスト/承諾部271は、マッチングが成立した乗員Pの第1装置100を通信相手とするように第2通信装置210を制御する。
音声出力制御部272は、前述したように第2スピーカ240を制御する。
指向方向検知部273は、指向方向検知装置232の出力に基づいて、指向方向φを検知する。頭部位置検知部274は、頭部位置検知装置234の出力に基づいて、利用者Uの頭部の高さを検知する。頭部位置は、三次元の座標として表されてもよいし、単に頭部の高さが頭部位置として検知されてもよい。ジェスチャー入力検知部275は、モーションセンサ236の出力に基づいて、利用者Uのジェスチャー入力を検知する。
画像編集部276は、移動体画像A1から、助手席から見た指向方向φに対応する画像A2を切り出す処理を行う(図6)。移動体画像表示制御部277は、画像編集部276によって切り出された画像A2を、移動体画像表示装置250に表示させる。このとき、画像編集部276は、利用者Uの頭部の高さ情報が示す高さから見た指向方向φに対応する画像を移動体画像表示装置250に表示させてもよい。
[第2例]
図8は、第1制御装置170と第2制御装置270の機能構成の第2例を示す図である。図7の第1例と比較すると、第1制御装置170が画像編集部175を含み、第2制御装置270が画像編集部276を含まず指向方向送信部278を含む点で相違する。その他の構成要素に関しては基本的に第1例と同じ機能を有するため再度の説明を省略する。
指向方向送信部278は、指向方向検知部273が検知した指向方向φを、第2通信装置210を用いて第1装置100に送信する。
画像編集部175は、移動体画像A1から、助手席から見た指向方向φ(第2装置200から送信されてきたもの)に対応する画像A2を切り出す処理を行う(図6)。このとき、画像編集部175は、利用者Uの頭部の高さ情報を第2装置200から取得しておき、高さ情報が示す高さから見た指向方向φに対応する画像A2を切り出す処理を行ってもよい。
第2例における画像送信部173は、第1通信装置110を用いて、第2装置200に、画像編集部175によって切り出された画像A2を送信する。そして、移動体画像表示制御部277は、第1装置100から送信されてきた画像A2を移動体画像表示装置250に表示させる。
<ジェスチャーによる操作>
図9は、指向方向に対応する画像の一例を示す図である。図9に表す画像は、移動体画像表示装置250が、カメラユニット130が撮像した画像のうち、助手席から見た指向方向に対応する画像(以下、「指向画像」と称する場合がある)を利用者Uに対して表示したものである。図9の指向画像において、操作領域OAは、移動体MのHMI160に表示された操作領域をそのまま(又は簡略化して)利用者Uに対して表示したものであり、利用者UによるHMI160の遠隔操作を可能にする。以下で詳細に説明する通り、利用者Uが操作領域OAに対して施した操作の内容は、第2通信装置210によって第1装置100に送信され、第1装置100は、当該操作内容を移動体Mに実行させる。図9に示す通り、操作領域OAは、例えば、操作領域OA1からOA6などの複数の操作領域を含む。
まず、第2装置200は、指向画像の操作領域OA1からOA6のうち、指向方向検知部273によって検知された利用者Uの指向方向φに対応する操作領域を特定する。例えば、利用者Uが「周辺検索」を示す操作領域OA1に自身の指向方向φを向けて指を指すジェスチャーを行った場合、移動体画像表示装置250は、移動体Mを中心とする所定距離内に存在する店舗/施設情報を指向画像に重畳して、例えば、マップとして表示させる。同時に、第2通信装置210は、当該操作情報を第1装置100に送信し、第1装置100は、当該操作情報を受信することに応じて、移動体Mを中心とする所定距離内に存在する店舗/施設情報を、移動体MのHMI160に表示させる。図9は、利用者Uが「周辺検索」へのジェスチャーを行った結果、移動体Mの周辺にある店舗/施設情報がマップとして表示されている場面を表している。これにより、乗員Pは、移動体Mを運転中であっても、自身がHMI160を操作することなく、移動体Mの周囲の情報を確認することができる。
さらに、図9に示す場面において、第2装置200は、マップのうち、指向方向検知部273によって検知された利用者Uの指向方向φに対応する地点を特定する。例えば、図9の場合、マップ上に地点P1からP3が表示され、指向方向検知部273は、利用者Uの指向方向φに対応する地点として地点P1を特定する。地点P1が特定された状態において、ジェスチャー入力検知部275が、当該地点P1を操作する利用者Uのジェスチャーを検知した場合、第2装置200は、検知されたジェスチャーに対応する地点P1に対応する操作を実行する。例えば、図9の場合、利用者Uが地点P1に向けて指を指すジェスチャーを行った場合、移動体画像表示装置250は、当該地点P1に対応する店舗の詳細情報(例えば、メニュー情報)を指向画像に重畳して表示させる。
また、例えば、利用者Uが「オーディオ」を示す操作領域OA2に自身の指向方向φを向けて指を指すジェスチャーを行った場合、音声出力制御部272は、第2スピーカ240に音声を出力させる。同時に、第2通信装置210は、当該操作情報を第1装置100に送信し、第1装置100は、当該操作情報を受信することに応じて、移動体Mのオーディオ機器を再生させる。例えば、利用者Uは、ジェスチャーによって操作領域OA2を操作して再生する楽曲を選択し、音声出力制御部272は、第2スピーカ240に選択された楽曲を再生させる。同時に、第2通信装置210は、選択された楽曲を示す情報を第1装置100に送信し、第1装置100は、移動体Mのオーディオ機器に当該楽曲を再生させる。これにより、乗員Pは、移動体Mを運転中であっても、自身がHMI160を操作することなく、音楽を聴くことができる。
また、例えば、利用者Uが「設定」を示す操作領域OA3に自身の指向方向φを向けて指を指すジェスチャーを行った場合、移動体画像表示装置250は、移動体Mの設定変更に関する画面を指向画像に重畳して表示させる。利用者Uは、移動体Mの設定変更に関する画面上でさらにジェスチャーを行うことによって移動体Mの設定を変更する。同時に、第2通信装置210は、当該操作情報を第1装置100に送信し、第1装置100は、当該操作情報を受信することに応じて、移動体Mの設定を変更する。例えば、利用者Uは、ジェスチャーによって操作領域OA3を操作して移動体Mの空調設定を変更し、第2通信装置210は、変更された空調設定を示す情報を第1装置100に送信する。第1装置100は、変更された空調設定を示す情報に基づいて、移動体Mの空調設定を変更する。これにより、乗員Pは、移動体Mを運転中であっても、自身がHMI160を操作することなく、移動体Mの空調設定を変更することができる。
また、例えば、利用者Uが「ナビ」を示す操作領域OA4に自身の指向方向φを向けて指を指すジェスチャーを行った場合、移動体画像表示装置250は、移動体Mのナビゲーション設定の変更に関する画面を指向画像に重畳して表示させる。利用者Uは、移動体Mのナビゲーション設定の変更に関する画面上でさらにジェスチャーを行うことによって移動体Mのナビゲーション設定を変更する。同時に、第2通信装置210は、当該操作情報を第1装置100に送信し、第1装置100は、当該操作情報を受信することに応じて、移動体Mのナビゲーション設定を変更する。例えば、利用者Uは、ジェスチャーによって操作領域OA4を操作して、移動体Mの目的地を変更し、第2通信装置210は、変更された目的地を示す情報を第1装置100に送信する。第1装置100は、変更された目的地を示す情報に基づいて、移動体Mの目的地を変更する。これにより、乗員Pは、移動体Mを運転中であっても、自身がHMI160を操作することなく、移動体Mの目的地を変更することができる。
また、例えば、利用者Uがハザードランプを示す操作領域OA5に自身の指向方向φを向けて指を指すジェスチャーを行った場合、第2通信装置210は、当該操作情報を第1装置100に送信し、第1装置100は、当該操作情報を受信することに応じて、移動体Mのハザードランプを点滅させる。これにより、乗員Pは、移動体Mを運転中であっても、自身がHMI160を操作することなく、ハザードランプを点滅させて、移動体Mの周辺車両に対する注意喚起を行うことができる。
なお、上記の操作領域OA1からOA5はあくまでも一例であり、移動体Mの任意の制御に関する操作領域を移動体画像表示装置250に表示させ、利用者Uにジェスチャーによって操作させてもよい。例えば、操作領域は、移動体Mのウインドウを開閉するための操作領域、移動体Mのワイパーを動作させるための操作領域、地点を選択することによって表示された店舗メニューを選択し決済を行うための操作領域などを含んでもよい。
<操作権限>
このように、本実施形態において、移動体画像表示装置250は、利用者Uが移動体Mを遠隔操作するための操作領域を画像に重畳表示させるが、あらゆる乗員Pと利用者Uの組み合わせについて、利用者Uにあらゆる操作領域を操作させることは好ましくない場合がある。より具体的には、乗員Pと利用者Uが親密な関係にある場合には、利用者Uにより多くの操作領域を操作させる一方、乗員Pと利用者Uが疎遠な関係にある場合には、利用者Uにより少ない操作領域を操作させることが好ましい。そこで、本実施形態において、管理サーバ300は、乗員Pと利用者Uの組み合わせに対して、当該利用者Uの操作領域の範囲(すなわち、操作権限)を定義するユーザデータ360Cを事前に記憶部350に記憶し、乗員Pと利用者Uがマッチングした場合には、当該ユーザデータ360Cを参照して利用者Uに操作権限の範囲で操作領域を操作させる。
図10は、移動体Mの操作権限を定義するユーザデータ360Cの内容の一例を示す図である。ユーザデータ360Cは、例えば、乗員IDと利用者IDの組み合わせに対して、利用者IDに対応する利用者の操作権限が対応付けられたものである。ユーザデータ360Cは、例えば、乗員が、各利用者に付与する操作権限を事前に設定してもよい。このとき、乗員が各利用者の一人一人に対して操作権限を設定することは手間がかかる場合がある。そのため、例えば、ユーザデータ360Cの二行目および三行目に示す通り、乗員は、全利用者(すなわち、「ALL」)に対して付与する操作権限を一律に設定するとともに、より多くの操作権限を付与したい利用者に対して個別に操作権限を設定してもよい。それとは逆に、乗員は、全利用者に対して付与する操作権限を一律に設定するとともに、より少ない操作権限を付与したい利用者に対して個別に操作権限を設定してもよい。
図11は、利用者Uが操作権限を有する操作領域を示す画像の一例を示す図である。図11に表す画像は、例えば、図9に表す画像の地点P1を利用者Uがジェスチャーによって選択することによって表示されるものである。図11において、新たに表示された操作領域OAは、操作領域OA1からOA5、およびメニューを選択するための操作領域OA6を含む。
移動体画像表示装置250は、複数の操作領域のうち、利用者Uに操作権限が付与された操作領域のみを明示的に表示することによって、利用者Uの利便性を向上させてもよい。例えば、図11に示す通り、利用者Uが移動体Mのオーディオ機器を操作する権限のみを有している場合、移動体画像表示装置250は、オーディオ機器の操作に対応する操作領域OA2のみをハイライト表示する。また、例えば、移動体画像表示装置250は、オーディオ機器の操作に対応する操作領域OA2のみを表示し、他の操作領域は非表示にしてもよい。これにより、操作領域を選択して操作する利用者Uの利便性を向上させることができる。
<ジェスチャーの表示>
さらに、移動体画像表示装置250は、ジェスチャー入力検知部275によって検知された利用者Uのジェスチャーを表す指示画像Hを操作領域に重畳表示させてもよい。図12は、利用者Uのジェスチャーを表す指示画像Hを操作領域に重畳表示する方法の一例を示す図である。図12は、図11に表す画像において、利用者Uが表示されたメニュー項目のうちの1つを選択した状況を表している。
この場合、移動体画像表示装置250は、利用者Uがジェスチャーによって選択したメニュー項目に、利用者Uのジェスチャーを表す指示画像Hを重畳させるとともに、第2通信装置210は、利用者Uが当該メニュー項目を選択したことを示す指示情報を第1装置100に送信する。第1装置100は、当該指示情報を受信することに応じて、HMI160に、利用者Uのジェスチャーを表す指示画像Hを同様に表示させる。これにより、乗員Pは、利用者Uによる操作をリアルタイムに把握することができる。なお、本実施形態において、移動体画像表示装置250は、利用者Uのジェスチャーを表す指示画像Hとして、手のアイコンを表示させているが、本発明はそのような構成に限定されない。例えば、移動体画像表示装置250は、利用者Uの手の想定位置を表す影などを表示してもよく、より一般的に、操作領域のうち、利用者Uが指向する操作領域を視認可能な形で表示させればよい。第1装置100は、移動体画像表示装置250に表示される画像(利用者Uが見てる画像)を、HMI160に表示させるモードを備えてもよい。
さらに、移動体画像表示装置250は、ジェスチャー入力検知部275によって検知された利用者Uのジェスチャーに応じて、利用者Uに対して表示する操作領域の表示態様を変更してもよい。図13は、利用者Uのジェスチャーに応じて、利用者Uに対して表示する操作領域の表示態様を変更する方法の一例を示す図である。図13は、一例として、利用者Uが、移動体画像表示装置250が表示した操作領域OAをつかんで移動させるジェスチャーを行った状況を表している。
例えば、移動体画像表示装置250は、ジェスチャー入力検知部275が、利用者Uが操作領域OAをつかんで移動させるジェスチャーを行ったことを検知すると、利用者Uの手を表す指示画像Hを変形して、操作領域OAをつかむように表示させてもよい。この場合、移動体画像表示装置250は、利用者Uが当該ジェスチャーを行った方向に操作領域OAの位置を変更して表示させる。これにより、利用者Uは、画像における操作領域OAの位置を変更して、自身が着目したい画像領域を視認することができる。また、この場合、操作領域OAの奥行き方向の移動や操作領域OAの画面の回転を制限すること、操作領域OAと利用者Uの距離を一定に保ちつつ操作領域OAの位置を変更することとしてもよい。これにより、操作領域OAの過剰な揺動を防止でき使用感を向上できる。
また、例えば、移動体画像表示装置250は、ジェスチャー入力検知部275が、利用者Uが操作領域OAをつかんで所定の加速度以上で移動させるジェスチャーを行ったことを検知すると、操作領域OAを非表示にしてもよい。この場合、例えば、移動体画像表示装置250は、利用者Uが当該ジェスチャーを行った方向に操作領域OAをフェードアウトさせる。これにより、利用者Uは、不要な操作領域OAを非表示にして、自身が着目したい画像領域を視認することができる。
また、例えば、移動体画像表示装置250は、ジェスチャー入力検知部275が、利用者Uが操作領域OAを両手でつかんで広げる(狭める)ジェスチャーを行ったことを検知すると、操作領域OAのサイズを拡大(縮小)させてもよい。これにより、利用者Uは、画像における操作領域OAのサイズを変更して、自身が着目したい画像領域を視認することができる。
<その他>
情報処理システム1において、利用者Uが助手席S2から見た任意の方向を視認できるものとして説明したが、例えばマッチングの際の取り決めによって、利用者Uが視認可能な方向に制限が設けられてもよい。例えば、乗員Pの側で、移動体Mの進行方向の風景、あるいは運転席S1と反対側の風景は提供してもよいが、自身の姿は表示させたくない、といった要望が発生する場合がある。これは、乗員Pと利用者Uが、家族、友人といった関係になく、移動体Mのドライブフィーリングを確認したい、或いは所望の街の風景を視認したいといったニーズに応える場合を想定したものである。この場合、管理サーバ300のマッチング処理部320がマッチング処理を行う際に、そのような制限が設定され、第1制御装置170または第2制御装置270が設定に応じて、視認させない角度範囲をマスクしたり、或いは指向方向φが制限された方向に向かないように補正を行ったりする。また、このような制限に関する情報は、乗員Pのプライバシーに関するものであるため、第1装置100の側で設定されてもよい。
<まとめ>
以上のように構成される情報処理システム1によれば、移動体Mの乗員Pと、移動体Mとは異なる場所にいる利用者Uとの双方に与える臨場感を高めることができる。利用者Uに対して、助手席から見た自身の指向方向φに対応する画像が表示され、利用者Uは、画像上に表示された操作領域をジェスチャーによって操作することにより、移動体Mの動作を遠隔操作することができる。さらに、利用者Uのジェスチャーを表す画像は移動体MのHMIにも同様に表示され、乗員Pは、利用者Uの操作をリアルタイムに把握することができる。さらに、画像上に表示された操作領域の表示態様を利用者Uのジェスチャーによって変更可能とすることによって、利用者Uにとっての利便性を高めることができる。
<利用例>
情報処理システム1は、以下のような態様で利用可能である。
(A)乗員Pと利用者Uが家族、友人などの関係にあり、バーチャルドライブを利用者Uに提供する態様。利用者Uは、画像を見ながら移動体Mの周囲の風景等について乗員Pと会話することができる。
(B)乗員Pが一般利用者、利用者Uが道案内サービス、運転指導サービスなどの提供者である態様。利用者Uは、移動体Mの周囲の風景を見ながらナビゲーション装置では分かりにくい、或いは地図に載っていないような場所における道案内を行ったり、運転操作の指導を行ったりすることができる。
(C)乗員Pが有名人、利用者Uが一般利用者であり、商業ベースのバーチャルドライブを利用者Uに提供する態様。この場合、一人の乗員Pに対して複数の利用者Uが同時に対応付けられ、例えば利用者Uの側からの音声の転送はオフに設定されてよい。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
1 情報処理システム
100 第1装置
110 第1通信装置
120 第1マイク
130 カメラユニット
132 室内カメラ
134 室外カメラ
140 第1スピーカ
150 利用者表示装置
160 HMI
170 第1制御装置
190 制御対象機器
200 第2装置
210 第2通信装置
220 第2マイク
230 検知装置
232 指向方向検知装置
234 頭部位置検知装置
236 モーションセンサ
240 第2スピーカ
250 移動体画像表示装置
260 HMI
270 第2制御装置
300 管理サーバ
M 移動体

Claims (10)

  1. 乗員が搭乗する移動体に搭載される第1装置と、
    前記移動体とは異なる場所で利用者によって利用される第2装置と、
    を備える情報処理システムであって、
    前記第1装置は、
    前記第2装置の第2通信装置と通信する第1通信装置と、
    前記移動体の所定の座席上に設けられ、前記所定の座席から見た前記移動体内を撮像可能な室内カメラを少なくとも含む、一以上のカメラを有するカメラユニットと、
    を有し、
    前記第2装置は、
    前記第1通信装置と通信する前記第2通信装置と、
    前記利用者の指向方向およびジェスチャーを検知するための検知装置と、
    前記カメラユニットが撮像した画像のうち、前記所定の座席から見た前記指向方向に対応する画像を表示する表示装置と、
    を有し、
    前記第2装置は、検知された前記指向方向および前記ジェスチャーに基づいて、前記画像のうち、前記利用者が指向する前記移動体の操作部と、前記操作部への操作内容を決定し、
    前記第2通信装置は、決定された前記操作部への操作内容を前記第1通信装置に送信する、
    情報処理システム。
  2. 前記表示装置は、前記ジェスチャーに応じて、前記操作部の位置を変更して表示する、
    請求項1に記載の情報処理システム。
  3. 前記表示装置は、前記ジェスチャーに応じて、前記操作部のサイズを変更して表示する、
    請求項1に記載の情報処理システム。
  4. 前記表示装置は、複数の前記操作部のうち、前記利用者が操作可能な操作部をハイライト表示させる、
    請求項1に記載の情報処理システム。
  5. 前記第2装置は、前記利用者に設定された前記移動体の操作部への操作権限に基づいて、前記画像のうち、前記利用者に操作を許可する前記移動体の操作部を決定する、
    請求項1に記載の情報処理システム。
  6. 前記第1装置は、前記利用者が指向する前記操作部を示す画像を表示するディスプレイを更に備える、
    請求項1に記載の情報処理システム。
  7. 前記第2通信装置は、前記指向方向の情報を前記第1通信装置に送信し、
    前記第1装置は、前記カメラユニットが撮像した画像のうち、前記第1通信装置を介して取得される前記指向方向に対応する画像を選択的に前記第2通信装置に送信するように、前記第1通信装置を制御する第1制御装置を更に有し、
    前記第2装置の表示装置は、前記第2通信装置を介して取得される、前記所定の座席から見て前記指向方向に対応する画像を表示する、
    請求項1記載の情報処理システム。
  8. 前記第1通信装置は、前記カメラユニットが撮像した画像を前記第2通信装置に送信し、
    前記第2装置は、前記カメラユニットが撮像した画像のうち前記指向方向に対応する画像を選択的に前記表示装置に表示させる第2制御装置を更に有する、
    請求項1記載の情報処理システム。
  9. 前記表示装置は、VR(Virtual Reality)ゴーグルの表示装置であり、
    前記検知装置は、前記VRゴーグルに取り付けられた物理センサを含む、
    請求項1記載の情報処理システム。
  10. 前記移動体は車両であり、
    前記所定の座席は助手席である、
    請求項1記載の情報処理システム。
JP2022144359A 2022-09-12 2022-09-12 情報処理システム Pending JP2024039760A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022144359A JP2024039760A (ja) 2022-09-12 2022-09-12 情報処理システム
CN202311147063.5A CN117692616A (zh) 2022-09-12 2023-09-06 信息处理系统
US18/244,382 US20240085976A1 (en) 2022-09-12 2023-09-11 Information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022144359A JP2024039760A (ja) 2022-09-12 2022-09-12 情報処理システム

Publications (1)

Publication Number Publication Date
JP2024039760A true JP2024039760A (ja) 2024-03-25

Family

ID=90132698

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022144359A Pending JP2024039760A (ja) 2022-09-12 2022-09-12 情報処理システム

Country Status (3)

Country Link
US (1) US20240085976A1 (ja)
JP (1) JP2024039760A (ja)
CN (1) CN117692616A (ja)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11182972B2 (en) * 2019-02-12 2021-11-23 Qualcomm Incorporated Virtual teleportation in fixed environments
US20230069742A1 (en) * 2021-08-27 2023-03-02 Toyota Motor Engineering & Manufacturing North America, Inc. Gazed based generation and presentation of representations
US20230314156A1 (en) * 2022-03-30 2023-10-05 Panasonic Intellectual Property Management Co., Ltd. Information presentation method, information presentation system, and computer-readable medium

Also Published As

Publication number Publication date
CN117692616A (zh) 2024-03-12
US20240085976A1 (en) 2024-03-14

Similar Documents

Publication Publication Date Title
JP2021524626A (ja) 車両の搭乗者及び遠隔ユーザのための共有環境
WO2019124158A1 (ja) 情報処理装置、情報処理方法、プログラム、表示システム、及び移動体
JP4512830B2 (ja) コミュニケーションロボット
JP7338626B2 (ja) 情報処理装置、情報処理方法及びプログラム
US20130156201A1 (en) Audio control device and audio control method
WO2018230709A1 (ja) 車両システム
JP7402145B2 (ja) 遠隔操作システム、移動ロボット、及び操作端末
JP2018163461A (ja) 情報処理装置、および情報処理方法、並びにプログラム
JP2024039760A (ja) 情報処理システム
JP2024038605A (ja) 情報処理システム
JP2024039763A (ja) 情報処理システム
JP2024041343A (ja) 情報処理装置、情報処理システム、および情報処理方法
JP2024039702A (ja) 情報処理システム
JP2018067157A (ja) 通信装置およびその制御方法
US20240105052A1 (en) Information management device, information management method and storage medium
WO2018216327A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2021150835A (ja) 音データ処理装置および音データ処理方法
US20240107184A1 (en) Information management device, information management method, and storage medium
US20240104604A1 (en) Information management device, information management method and storage medium
JP7402784B2 (ja) 遠隔表示システム、ロボット、及び表示端末
WO2024069779A1 (ja) 制御システム、制御方法、および記録媒体
WO2023281820A1 (ja) 情報処理装置、情報処理方法、記憶媒体
WO2022269887A1 (ja) ウェアラブル端末装置、プログラムおよび画像処理方法
JP2022149193A (ja) 配信システム
JPWO2022003912A5 (ja)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230526

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240521