JP2024085250A - 処理システム、処理方法、処理プログラム - Google Patents

処理システム、処理方法、処理プログラム Download PDF

Info

Publication number
JP2024085250A
JP2024085250A JP2022199677A JP2022199677A JP2024085250A JP 2024085250 A JP2024085250 A JP 2024085250A JP 2022199677 A JP2022199677 A JP 2022199677A JP 2022199677 A JP2022199677 A JP 2022199677A JP 2024085250 A JP2024085250 A JP 2024085250A
Authority
JP
Japan
Prior art keywords
user
service
content
driving device
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022199677A
Other languages
English (en)
Inventor
禎祐 木村
Sadasuke Kimura
祐 早川
Yu Hayakawa
啓吾 藤本
Keigo Fujimoto
玉坤 張
Yukun Zhang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2022199677A priority Critical patent/JP2024085250A/ja
Priority to PCT/JP2023/038242 priority patent/WO2024127819A1/ja
Publication of JP2024085250A publication Critical patent/JP2024085250A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • G06F16/535Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】自律走行装置との協調によりユーザ嗜好性を満足するユーザサービスの提供を、可能にすること。【解決手段】サービス関連処理を遂行する処理システムのプロセッサは、ユーザが意図するサービスコンテンツCs及び表示コンテンツCdを認識したコンテンツ情報Ciを、ユーザが携帯するモバイル端末Mtのセンシング情報に基づき取得することと、ユーザがモバイル端末Mtを向けることにより表示背景となる背景エリアAbを、監視することと、サービスコンテンツCsに応じた種別のユーザサービスを、現在の背景エリアAbにおいて自律走行装置Maの駆動制御により提供することと、ユーザサービスを提供する自律走行装置Maが入る背景エリアAbの背景動画を表示するモバイル端末Mtにおいて、表示コンテンツCdに応じたXR画像を自律走行装置Mtの存在位置Pmに重畳表示することとを、実行するように構成される。【選択図】図5

Description

本開示は、ユーザへ提供されるユーザサービスに関連したサービス関連処理を遂行する処理技術に、関する。
特許文献1に開示の技術は、動画といったフレーム画像に表示コンテンツとしての仮想オブジェクトを寸法合わせして重畳させたコンテンツ画像を、モニタ、タッチパネル、又はHMD(Head Mounted Display)等の表示装置に表示させている。
特許第6609078号公報
上記特許文献1に開示の技術は、ライブコンテンツといった動画の配信サービスにおいて、ユーザを識別するためのアバターを仮想オブジェクトとして採用する技術に、留まっている。これに対して近年、ユーザサービスのコンテンツとなるサービスコンテンツは、そうした配信サービスに限らず多様化しており、例えば世界の諸国で建設が計画されるスマートシティ等では、自律走行装置と協調するサービスコンテンツが期待されている。それと共に表示コンテンツとしても、ユーザ識別用のアバターに限らず、多様化したサービスコンテンツとマッチするような画像によってユーザ嗜好性を満足することが、期待されている。
本開示の課題は、自律走行装置との協調によりユーザ嗜好性を満足するユーザサービスの提供を、可能にすることにある。
以下、課題を解決するための本開示の技術的手段について、説明する。尚、特許請求の範囲及び本欄に記載された括弧内の符号は、後に詳述する実施形態に記載された具体的手段との対応関係を示すものであり、本開示の技術的範囲を限定するものではない。
本開示の第一態様は、
プロセッサ(24)を有し、ユーザへ提供されるユーザサービスに関連したサービス関連処理を遂行する処理システムであって、
プロセッサは、
ユーザが意図するサービスコンテンツ(Cs)及び表示コンテンツ(Cd)を認識したコンテンツ情報(Ci)を、ユーザが携帯するモバイル端末(Mt)のセンシング情報に基づき取得することと、
ユーザがモバイル端末を向けることにより表示背景となる背景エリア(Ab)を、監視することと、
コンテンツ情報のうちサービスコンテンツに応じた種別のユーザサービスを、現在の背景エリアにおいて自律走行装置(Ma)の駆動制御により提供することと、
ユーザサービスを提供する自律走行装置が入る背景エリアの背景動画(2c)を表示するモバイル端末において、コンテンツ情報のうち表示コンテンツに応じたXR画像(2a)を自律走行装置の存在位置(Pm)に重畳表示することとを、実行するように構成される。
本開示の第二態様は、
ユーザへ提供されるユーザサービスに関連したサービス関連処理を遂行するために、プロセッサ(24)により実行される処理方法であって、
ユーザが意図するサービスコンテンツ(Cs)及び表示コンテンツ(Cd)を認識したコンテンツ情報(Ci)を、ユーザが携帯するモバイル端末(Mt)のセンシング情報に基づき取得することと、
ユーザがモバイル端末を向けることにより表示背景となる背景エリア(Ab)を、監視することと、
コンテンツ情報のうちサービスコンテンツに応じた種別のユーザサービスを、現在の背景エリアにおいて自律走行装置(Ma)の駆動制御により提供することと、
ユーザサービスを提供する自律走行装置が入る背景エリアの背景動画(2c)を表示するモバイル端末において、コンテンツ情報のうち表示コンテンツに応じたXR画像(2a)を自律走行装置の存在位置(Pm)に重畳表示することとを、含む。
本開示の第三態様は、
ユーザへ提供されるユーザサービスに関連したサービス関連処理を遂行するために記憶媒体(22)に記憶され、プロセッサ(24)により実行される命令を含む処理プログラムであって、
命令は、
ユーザが意図するサービスコンテンツ(Cs)及び表示コンテンツ(Cd)を認識したコンテンツ情報(Ci)を、ユーザが携帯するモバイル端末(Mt)のセンシング情報に基づき取得させることと、
ユーザがモバイル端末を向けることにより表示背景となる背景エリア(Ab)を、監視させることと、
コンテンツ情報のうちサービスコンテンツに応じた種別のユーザサービスを、現在の背景エリアにおいて自律走行装置(Ma)の駆動制御により提供させることと、
ユーザサービスを提供する自律走行装置が入る背景エリアの背景動画(2c)を表示するモバイル端末において、コンテンツ情報のうち表示コンテンツに応じたXR画像(2a)を自律走行装置の存在位置(Pm)に重畳表示させることとを、含む。
これら第一~第三態様によると、ユーザの意図するサービスコンテンツを認識したコンテンツ情報が、ユーザの携帯するモバイル端末のセンシング情報に基づき取得される。それと共に、ユーザがモバイル端末を向けることにより表示背景となる背景エリアが、監視される。そこで、サービスコンテンツに応じた種別のユーザサービスが、現在の背景エリアにおいて自律走行装置の駆動制御により提供される。これは、多様化したユーザサービスの中でも、自律走行装置との協調によりユーザ嗜好性を満足するユーザサービスを提供可能なことを、意味する。
しかも第一~第三態様によると、ユーザが意図する表示コンテンツを認識したコンテンツ情報も、モバイル端末のセンシング情報に基づき取得される。そこで、上述の如くユーザサービスを提供する自律走行装置が入る背景エリアの背景動画を表示するモバイル端末においては、表示コンテンツに応じたXR画像が自律走行装置の存在位置に重畳表示される。これは、自律走行装置によって提供のサービスコンテンツとマッチする表示コンテンツに応じたXR画像の重畳表示により、ユーザ嗜好性の満足度を高めることが可能なことを、意味する。
本開示の第四態様は、
プロセッサ(24)を有し、ユーザへ提供されるユーザサービスに関連したサービス関連処理を遂行する処理システムであって、
プロセッサは、
ユーザが意図するサービスコンテンツ(Cs)及び表示コンテンツ(Cd)を認識したコンテンツ情報(Ci)を、ユーザが装着するウェアラブル端末(Wt)のセンシング情報に基づき取得することと、
ウェアラブル端末を通してユーザにより視認される視界エリア(Av)を、監視することと、
コンテンツ情報のうちサービスコンテンツに応じた種別のユーザサービスを、現在の視界エリアにおいて自律走行装置(Ma)の駆動制御により提供することと、
ユーザサービスを提供する自律走行装置が視界エリアに入るウェアラブル端末において、コンテンツ情報のうち表示コンテンツに応じたXR画像(2a)を自律走行装置の存在位置(Pm)に重畳表示することとを、実行するように構成される。
本開示の第五態様は、
ユーザへ提供されるユーザサービスに関連したサービス関連処理を遂行するために、プロセッサ(24)により実行される処理方法であって、
ユーザが意図するサービスコンテンツ(Cs)及び表示コンテンツ(Cd)を認識したコンテンツ情報(Ci)を、ユーザが装着するウェアラブル端末(Wt)のセンシング情報に基づき取得することと、
ウェアラブル端末を通してユーザにより視認される視界エリア(Av)を、監視することと、
コンテンツ情報のうちサービスコンテンツに応じた種別のユーザサービスを、現在の視界エリアにおいて自律走行装置(Ma)の駆動制御により提供することと、
ユーザサービスを提供する自律走行装置が視界エリアに入るウェアラブル端末において、コンテンツ情報のうち表示コンテンツに応じたXR画像(2a)を自律走行装置の存在位置(Pm)に重畳表示することとを、含む。
本開示の第六態様は、
ユーザへ提供されるユーザサービスに関連したサービス関連処理を遂行するために記憶媒体(22)に記憶され、プロセッサ(24)により実行される命令を含む処理プログラムであって、
命令は、
ユーザが意図するサービスコンテンツ(Cs)及び表示コンテンツ(Cd)を認識したコンテンツ情報(Ci)を、ユーザが装着するウェアラブル端末(Wt)のセンシング情報に基づき取得させることと、
ウェアラブル端末を通してユーザにより視認される視界エリア(Av)を、監視させることと、
コンテンツ情報のうちサービスコンテンツに応じた種別のユーザサービスを、現在の視界エリアにおいて自律走行装置(Ma)の駆動制御により提供させることと、
ユーザサービスを提供する自律走行装置が視界エリアに入るウェアラブル端末において、コンテンツ情報のうち表示コンテンツに応じたXR画像(2a)を自律走行装置の存在位置(Pm)に重畳表示させることとを、含む。
これら第四~第六態様によると、ユーザの意図するサービスコンテンツを認識したコンテンツ情報が、ユーザの装着するウェアラブル端末のセンシング情報に基づき取得される。それと共に、ウェアラブル端末を通してユーザにより視認される視界エリアが、監視される。そこで、サービスコンテンツに応じた種別のユーザサービスが、現在の視界エリアにおいて自律走行装置の駆動制御により提供される。これは、多様化したユーザサービスの中でも、自律走行装置との協調によりユーザ嗜好性を満足するユーザサービスを提供可能なことを、意味する。
しかも第四~第六態様によると、ユーザが意図する表示コンテンツを認識したコンテンツ情報も、モバイル端末のセンシング情報に基づき取得される。そこで、上述の如くユーザサービスを提供する自律走行装置が視界エリアに入るウェアラブル端末において、表示コンテンツに応じたXR画像が自律走行装置の存在位置に重畳表示される。これは、自律走行装置によって提供のサービスコンテンツとマッチする表示コンテンツに応じたXR画像の重畳表示により、ユーザ嗜好性の満足度を高めることが可能なことを、意味する。
第一実施形態による処理システムのネットワーク接続環境を示す全体構成図である。 第一実施形態によるモバイル端末の表示状態を示す構成図である。 第一実施形態によるインフラシステムにおいて想定される三次元ボクセルを説明するための模式図である。 第一実施形態による処理システムを示すブロック図である。 第一実施形態による処理フローを示すフローチャートである 第一実施形態によるモバイル端末の表示状態を示す構成図である。 第一実施形態によるモバイル端末の表示状態を示す構成図である。 第一実施形態によるモバイル端末の背景エリアを示す斜視図である。 第一実施形態による自律走行装置の駆動制御パターンを説明するための斜視図である。 第一実施形態によるモバイル端末の表示状態を示す構成図である。 第二実施形態による処理システムのネットワーク接続環境を示す全体構成図である。 第二実施形態によるウェアラブル端末の表示状態を示す構成図である。 第二実施形態による処理システムを示すブロック図である。 第二実施形態による処理フローを示すフローチャートである
以下、本開示の実施形態を図面に基づき複数説明する。尚、各実施形態において対応する構成要素には同一の符号を付すことで、重複する説明を省略する場合がある。また、各実施形態において構成の一部分のみを説明している場合、当該構成の他の部分については、先行して説明した他の実施形態の構成を適用することができる。さらに、各実施形態の説明において明示している構成の組み合わせばかりではなく、特に組み合わせに支障が生じなければ、明示していなくても複数の実施形態の構成同士を部分的に組み合わせることができる。
(第一実施形態)
図1に示す第一実施形態の処理システム1は、ユーザUsへ提供されるユーザサービスに関連した、サービス関連処理を遂行する。そのために処理システム1は、事前登録されたユーザUsの携帯するモバイル端末Mtと、自律走行する自律走行装置Maと、インフラ情報を提供するインフラシステムIsとに、通信ネットワークNcを介して接続される。処理システム1との接続要素Mt,Ma,Isとしては、それぞれ少なくとも一つずつが想定される。
図1,2に示すようにモバイル端末Mtは、少なくとも処理システム1への接続時には、同システム1のユーザUsが手指で把持且つ操作可能に、構成されている。モバイル端末Mtは、表示ユニット2及びセンサユニット3を備えた小型電子デバイスであって、例えばスマートフォン又はタブレット端末等である。モバイル端末Mtは、通信ネットワークNcを介したデータの送受信を、通信ユニットにより制御する。モバイル端末Mtは、処理システム1と共同してサービス関連処理を遂行するように、通信ネットワークNcを介した同システム1からの制御指令に従って制御ユニットにより作動制御される。
モバイル端末Mtの制御ユニットによる作動制御下、例えば液晶パネル又は有機ELパネル等の表示ユニット2には、サービス関連処理に必要な表示が図2の如く実現される。それと共に、モバイル端末Mtの作動制御下においてセンサユニット3は、サービス関連処理に応じたセンシング処理により、センシング情報を取得する。センサユニット3としては、例えばカメラ、慣性センサ、GNSS(Global Navigation Satellite System)センサ、タッチセンサ、及びマイク等のうち、少なくとも一種類が採用される。こうした構成によりセンサユニット3は、ユーザUsの意図を表す、同ユーザUsからの入力を、センシング情報として取得可能となっている。
図1に示す自律走行装置Maは、センサユニット4によるセンシング情報に基づいて車輪5を電動駆動することで前後左右の任意方向へ自律走行可能な、自動走行車両又は自動走行ロボットである。自律走行装置Maは、通信ネットワークNcを介したデータの送受信を、通信ユニットにより制御する。自律走行装置Maは、処理システム1と共同してサービス関連処理を遂行するように、通信ネットワークNcを介した同システム1からの制御指令に従って制御ユニットにより駆動制御される。この駆動制御下においてセンサユニット4は、サービス関連処理に応じたセンシング処理により、センシング情報を取得する。センサユニット4としては、例えばカメラ、慣性センサ、GNSSセンサ、LiDAR(Light Detection and Ranging / Laser Imaging Detection and Ranging)、及びソナー等のうち、少なくとも一種類が採用される。
インフラシステムIsは、分散型アーキテクチャの共通基盤として、インフラデータベースDiに蓄積される三次元空間情報Tiを共有する、基盤システムである。インフラシステムIsは、通信ネットワークNcを介したデータの送受信を、通信ユニットにより制御する。インフラシステムIsは、分散型アーキテクチャを構成する処理システム1等の個別分散システムへと提供する三次元空間情報Tiを、制御ユニットにより随時収集してインフラデータベースDiの蓄積情報を最新情報に更新する。
ここで特にインフラシステムIsは、情報の蓄積対象とする三次元空間を、図3に示すように三次元配列状に想定される複数の三次元ボクセルVi(即ち、三次元グリッド)に仮想分割して、情報管理する。インフラシステムIsは、各ボクセルViに個別に付与される空間ID毎にメタデータによって紐付けられたデータセットを三次元空間情報Tiとして、図1の如くインフラデータベースDiに蓄積する。ここで三次元空間情報Tiは、三次元配列のうち地面に沿った二次元配列の最下層を構成するボクセルViの、例えば下面にのみ紐付けられた二次元グリッド情報を含んでいても、勿論よい。
三次元空間情報Tiを構築するデータは、処理システム1と共同するモバイル端末Mt、及びそれ以外のモバイル端末、並びに例えばHMD又はスマートグラス等のウェアラブル端末のうち、少なくとも一種類から収集されてもよい。三次元空間情報Tiを構築するデータは、処理システム1と共同する自律走行装置Ma、及びそれ以外の移動体のうち、少なくとも一種類から収集されてもよい。三次元空間情報Tiを構築するデータは、カメラ及び/又はLiDARといったインフラセンサを備えた、例えば通信基地局、スマートポール、及びスマート街路灯等のうち、少なくとも一種類から収集されてもよい。三次元空間情報Tiを構築するデータは、例えば地図サービス、気象サービス、通信サービス、交通管理サービス、地物管理サービス、及び航空管理サービス、並びに処理システム1が扱う後述のユーザサービス等のうち、少なくとも一種類を提供するサービサーから収集されてもよい。
このように収集されて三次元空間情報Tiを構築する構築データは、例えば動画、静止画、点群画像等のうち、少なくとも一種類の画像データであってもよい。三次元空間情報Tiの構築データは、そうした画像データの画像処理により情報蓄積の対象空間内において処理システム1のユーザUsを含む人間に関して生成された、例えば位置データ、運動データ、姿勢データ、視線データ、行動データ、及び人流データ、並びに後述するユーザUsの意図を表す意図データ等のうち、情報セキュリティが担保される少なくとも一種類の二次データであってもよい。三次元空間情報Tiの構築データは、情報蓄積対象空間内においてユーザUsのモバイル端末Mtを含む、人間の携行品に関して画像データの画像処理により生成された、例えば位置データ、運動データ、及び姿勢データ等のうち、少なくとも一種類の二次データであってもよい。三次元空間情報Tiの構築データは、情報蓄積対象空間内において自律走行装置Maを含む移動体に関して画像データの画像処理により生成された、例えば位置データ、運動データ、及び姿勢データ等のうち、少なくとも一種類の二次データであってもよい。
三次元空間情報Tiの構築データは、情報蓄積対象空間内において処理システム1のユーザUsを含む人間の音声を収集した、音声データであってもよい。三次元空間情報Tiの構築データは、そうした音声データの音声認識処理によりユーザUsを含む人間に関して分析された、例えば位置データ、運動データ、行動データ、人流データ、及び会話データ、並びに後述するユーザUsの意図を表す意図データ等のうち、情報セキュリティが担保される少なくとも一種類の二次データであってもよい。三次元空間情報Tiの構築データは、例えば二次元及び/又は三次元地図データ、GIS(Geographic Information System)データ、道路ネットワークデータ、気象データ、通信データ、回線データ、交通データ、地物管理データ、BIM(Building Information Modelling)データ、POI(Point of Interest)データ、航空管理データ、並びに時間データ等のうち、少なくとも一種類であってもよい。三次元空間情報Tiの構築データは、処理システム1の扱うユーザサービスとして後述する、例えば撮影サービス、ゴミ箱案内サービス、配送サービス、及び誘導サービス等のうち、少なくとも一種類に関連するサービスデータであってもよい。
図1に示すように処理システム1は、通信系10及び制御系20を備えた、例えばクラウドサーバ、並びにエッジサーバ等のうち、少なくとも一種類を含んで構築される分散コンピュータシステムである。処理システム1における各系10,20の少なくとも一部ずつは、それぞれモバイル端末Mtの通信ユニット及び制御ユニットにより構成されてもよい。処理システム1における各系10,20の少なくとも一部ずつは、それぞれ自律走行装置Maの通信ユニット及び制御ユニットにより構成されてもよい。処理システム1における各系10,20の少なくとも一部ずつは、それぞれインフラシステムIsの通信ユニット及び制御ユニットにより構成されてもよい。
通信系10は、通信ネットワークNcを構築するための、通信機器を主体に構成されている。制御系20は、有線通信回線及び無線通信回線のうち少なくとも一種類を介して、通信系10に接続される。制御系20は、少なくとも一つの専用コンピュータを含んで構築されている。制御系20を構築する専用コンピュータは、メモリ22及びプロセッサ24を、少なくとも一つずつ有している。
こうした処理システム1において制御系20は、メモリ22に記憶された処理プログラムの複数命令を、プロセッサ24により実行する。これにより制御系20は、ユーザUsへ提供されるユーザサービスに関連した、サービス関連処理を遂行するための機能ブロックが、複数構築される。構築される機能ブロックには、図4に示すように認識ブロック200、監視ブロック210、駆動制御ブロック220、及び表示制御ブロック230が含まれている。
これらのブロック200,210,220,230の共同により処理システム1がサービス関連処理を遂行する処理方法は、図5に示す処理フローに従って実行される。本処理フローは、ユーザUsがユーザサービス提供を要請する意図となる、サービス要請入力をモバイル端末Mtのセンサユニット3がセンシング情報として取得するのに応じて、実行される。尚、本処理フローにおける各「S」は、第一実施形態の処理プログラムに含まれた複数命令により実行される複数ステップを、それぞれ意味している。
処理フローのS200において認識ブロック200(図4参照)は、ユーザUsが意図するサービスコンテンツCs及び表示コンテンツCdを認識したコンテンツ情報Ciを、同ユーザUsの携帯するモバイル端末Mtのセンシング情報に基づき取得する。このS200において認識されるサービスコンテンツCsとは、処理システム1のユーザUsへ提供可能なユーザサービスの種別を、意味する。ここで、サービスコンテンツCsに応じたユーザサービスの種別としては、第一実施形態では撮影サービス、ゴミ箱案内サービス、配送サービス、及び誘導サービスのうち、少なくとも二種類が用意される。
S200において認識される表示コンテンツCdとは、サービスコンテンツCsに応じたユーザサービスの提供に伴って図2,6に示すようにモバイル端末Mtの表示ユニット2に表示させるXR画像2a,2d,2eのうち、特にXR画像2aの種別を意味する。ここで、表示コンテンツCdとしてユーザUsの意図する種別が認識されるXR画像2aには、例えばモンスター、動物、植物、昆虫といった仮想上又は実在上の生物等を二次元若しくは三次元で表した、複数種別のキャラクター画像が用意される。これに対して、XR画像2aの種別に応じた共通テーマを与えられるXR画像2d,2eには、例えばモンスター、動物、植物、昆虫といった仮想上又は実在上の生物、並びに前時代建物、サービス車両、及び空想物体といった無生物等を二次元若しくは三次元で表した、複数種別のキャラクター画像が用意される。
図5のS200において、サービスコンテンツCs及び表示コンテンツCdをそれぞれ認識するためのセンシング情報は、ユーザUsの意図としてセンサユニット3へと入力されることで、モバイル端末Mtの通信ユニットを通じて取得される。このときモバイル端末Mtの表示ユニット2には、サービスコンテンツCs及び表示コンテンツCdのユーザUsからの選択入力として、センサユニット3によりタッチ入力を受け付けるための入力受付画像2bが、図7に示すように表示されてもよい。サービスコンテンツCs及び表示コンテンツCdのユーザUsからの選択入力としては、ユーザUsによるジェスチャー入力、視線入力、表情入力、又は音声入力がセンサユニット3によりセンシングされてもよい。こうしたジェスチャー入力、視線入力、表情入力、又は音声入力は、インフラデータベースDiから取得の三次元空間情報Tiに基づき認識されてもよい。
図5に示す処理フローのS210において監視ブロック210(図4参照)は、ユーザUsがモバイル端末Mtを向けることにより図8に示すように表示ユニット2でのXR画像2aの表示背景となる背景エリアAbを、監視する。このとき背景エリアAbは、インフラシステムIsにより複数ボクセルViが図3の如く想定される情報蓄積対象空間のうち、サービスコンテンツCsに応じた種別のユーザサービスが図8の如く提供されるサービス空間Asにおいて、監視される。そこで、モバイル端末Mtのセンサユニット3によるセンシング情報のうち、例えばカメラ情報、及び慣性情報等のうち少なくとも一方に基づくことで、モバイル端末Mtの向く方位に広がる背景エリアAbの監視は実行される。
図5に示す処理フローのS220において駆動制御ブロック220(図4参照)は、コンテンツ情報CiのうちサービスコンテンツCsに応じた種別のユーザサービスを、現在の背景エリアAbにおいて自律走行装置Maの駆動制御により提供する。このときユーザサービスは、サービスコンテンツCsに合わせた自律走行装置Maの駆動制御パターンがメモリ22から読み出されることで、当該駆動制御パターンに従って提供される。
こうしたS220による撮影サービスは、撮像ユニットを保有する自律走行装置Maを待機位置からユーザUsの目前位置又はユーザUs周辺のランドマークまで駆動して、ユーザUsを周囲から撮影後、待機位置まで戻る駆動制御パターンによって提供される。このとき撮影サービスでは、自律走行装置Maの保有する音声ユニットからの音声出力により、撮影タイミング又は撮影期間がユーザUsへ提示されてもよい。撮影サービスでは、自律走行装置Maの保有する表示ユニットからの表示出力により、撮影タイミング又は撮影期間がユーザUsへ提示されてもよい。
撮影サービスでは、図9に白抜矢印で例示の如くユーザUsの周りを駆動される自律走行装置Maにより、二次元若しくは三次元の静止画又は動画が当該ユーザUsを含むように撮影されてもよい。撮影サービスでは、自律走行装置Maにおける例えばLiDAR等のセンサユニット4によりセンシングされる、ユーザUsまでの距離に基づくことで、撮影時のフォーカスが調整されてもよい。撮影サービスでは、インフラデータベースDiから取得の三次元空間情報Ti、又は自律走行装置Maにおける例えばカメラ等のセンサユニット4からのセンシング情報に基づくことで、撮影時の外光入射方位が調整されてもよい。
S220によるゴミ箱案内サービスは、ゴミ箱を保有する自律走行装置Maを待機位置からユーザUsの目前位置まで駆動して、ユーザUsが意図するゴミの当該ゴミ箱への廃棄を受け付けた後、待機位置まで戻る駆動制御パターンによって提供される。このときゴミ箱案内サービスでは、自律走行装置Maの保有する音声ユニットからの音声出力により、ゴミ箱へのゴミの廃棄がユーザUsへ指示されてもよい。ゴミ箱案内サービスでは、自律走行装置Maの保有する表示ユニットからの表示出力により、ゴミ箱へのゴミの廃棄がユーザUsへ指示されてもよい。
S220による配送サービスは、配送箱を保有する自律走行装置Maを待機位置からユーザUsの目前位置まで駆動して、ユーザUsが意図する荷物の当該配送箱への積載を受け付けた後、待機位置まで戻る駆動制御パターンによって提供される。このとき配送サービスでは、自律走行装置Maの保有する音声ユニットからの音声出力により、配送箱への荷物の積載がユーザUsへ指示されてもよい。配送サービスでは、自律走行装置Maの保有する表示ユニットからの表示出力により、配送箱への荷物の積載がユーザUsへ指示されてもよい。
S220による誘導サービスは、自律走行装置Maを待機位置からユーザUs又は登録済家族といった誘導対象者の目前位置まで駆動して、当該誘導対象者を先導する経路誘導を実行後、待機位置まで戻る駆動制御パターンによって提供される。このとき誘導サービスでは、自律走行装置Maの保有する音声ユニットからの音声出力により、誘導対象者を誘導する経路が指示されてもよい。誘導サービスでは、自律走行装置Maの保有する表示ユニットからの表示出力により、誘導対象者を誘導する経路が指示されてもよい。さらに、こうした経路指示に先立ってモバイル端末Mtでは、例えば目的地及び/又は利用希望の交通機関等といった経路関連情報のユーザUsからの入力を、センサユニット3により受け付けるための入力受付画像が、表示ユニット2に表示されてもよい。また、経路指示に伴って自律走行装置Maには、保有する配送箱に誘導対象者の手荷物を収容して運搬する駆動制御パターンが、与えられてもよい。
図5に示す処理フローのS230は、S220と並行して実行される。S230において表示制御ブロック230(図4参照)は、S220によりユーザサービスを提供する自律走行装置Maが図8,9の如く入る背景エリアAbの背景動画2cを、モバイル端末Mtの表示ユニット2に図2,6の如く表示させる。ここで背景動画2cは、例えばカメラ等のセンサユニット4によるセンシング情報、又はインフラデータベースDiから取得の三次元空間情報Tiに基づき、取得される。このとき背景動画2cには、背景エリアAbを撮影した一次動画データが用いられてもよいし、当該一次データにおける例えば地面又は空等の一部に加工を施した二次動画データが用いられてもよい。
そこで、図5のS230における表示制御ブロック230は、コンテンツ情報Ciのうち表示コンテンツCdに応じたXR画像2aを、図2,6の如く表示ユニット2に表示される背景動画2c上での自律走行装置Maの存在位置Pmに、重畳表示させる。このときXR画像2aの重畳表示位置は、S220による自律走行装置Maの駆動制御パターンに従う、背景動画2c上での存在位置Pmに合わせて、調整される。これにより、背景動画2c上における自律走行装置Maの存在位置Pmには、XR画像2aが置換表示されることになる。
S230における表示制御ブロック230は、自律走行装置Maと共に背景エリアAbに図8の如く入る他物体Ooの存在位置Poにも、図2,6の如くXR画像2dを重畳表示させる。このときXR画像2dの重畳表示位置は、他物体Ooの存在位置Poに合わせて調整される。こうして背景動画2c上での存在位置PoにXR画像2dが置換表示される他物体Ooは、例えば処理システム1のユーザUs以外の人、処理システム1と共同する自律走行装置Ma以外の移動体、及び地物等のうち少なくとも一種類となる。
S230において表示制御ブロック230は、図3の如くサービス空間Asを仮想分割した複数ボクセルViに対して、自律走行装置Ma及び他物体Ooの各存在位置Pm,Poに関連する位置関連情報がそれぞれ付加された三次元空間情報Tiを、インフラデータベースDiから取得する。そこでS230における表示制御ブロック230は、取得の三次元空間情報Tiに基づいた各存在位置Pm,Poに、それぞれXR画像2a,2dを重畳表示する。これにより特に第一実施形態では、コンテンツ情報Ciのうち表示コンテンツCdに関連するキャラクター画像が、XR画像2a,2dとして各存在位置Pm,Poに重畳表示されることになる。
S230における表示制御ブロック230は、背景エリアAbにおいて自律走行装置Ma及び他物体Ooの各存在位置Pm,Po以外となる景色に、図2の如くXR画像2eを重畳表示させてもよい。この場合に第一実施形態ではXR画像2eとしても、表示コンテンツCdに関連するキャラクター画像が、重畳表示されるとよい。それと共に、XR画像2eの重畳表示位置は、XR画像2a,2dの各重畳位置からは外れるように、インフラデータベースDiから取得の三次元空間情報Tiに基づき調整されるとよい。
こうしたS230により撮影サービス中は、ユーザUsを撮影するために駆動される自律走行装置Maの存在位置Pmとその周囲物体Ooの存在位置Poとに少なくともXR画像2a,2dの重畳された背景動画2cが、ユーザUsへと表示出力される。このとき、図9に示すユーザUs及びその背景エリアを撮影した撮影画像2fとしての静止画又は動画が、図2の背景動画2cから図10に示すように切り替えて表示されることで、ユーザUs及び同伴者のうち少なくとも前者の当該撮影画像2fにおける存在位置PsにXR画像2aが重畳表示されてもよい。こうしてユーザUs及び背景エリアを撮影した撮影画像2fにXR画像2aの重畳した画像データは、モバイル端末Mtの内部又は外部の記憶媒体に保存されてもよい。
S230によりゴミ箱案内サービス中は、ユーザUsからゴミの廃棄を受け付けるために駆動される自律走行装置Maの存在位置Pmとその周囲物体Ooの存在位置Poとに少なくともXR画像2a,2dの重畳された背景動画2cが、ユーザUsへと表示出力される。このとき自律走行装置Maに対応するXR画像2aは、ゴミ箱の廃棄口を生物の口に模した、キャラクター画像であってもよい。自律走行装置Maに対応するXR画像2aは、ゴミ箱の複数廃棄口のうち、廃棄されるゴミの種別に応じた廃棄口を指示する指示画像を、含んでいてもよい。
S230により配送サービス中は、ユーザUsから荷物の積載を受け付けるために駆動される自律走行装置Maの存在位置Pmとその周囲物体Ooの存在位置Poとに少なくともXR画像2a,2dの重畳された背景動画2cが、ユーザUsへと表示出力される。このとき自律走行装置Maに対応するXR画像2aは、配送箱の積載口を生物の口に模した、キャラクター画像であってもよい。
S230により誘導サービス中は、誘導対象者を誘導するために駆動される自律走行装置Maの存在位置Pmとその周囲物体Ooの存在位置Poとに少なくともXR画像2a,2dの重畳された背景動画2cが、当該誘導対象者へと表示出力される。このとき、誘導する経路の背景エリアを撮影した撮影画像としての静止画又は動画が、背景動画2cから切り替えて表示されてもよい。こうして誘導経路の背景エリアを撮影した撮影画像の画像データは、モバイル端末Mtの内部又は外部の記憶媒体に保存されてもよい。
以上の図5に示す第一実施形態の処理フローは、コンテンツ情報CiのうちサービスコンテンツCsに応じたユーザサービスの提供が、S220,S230により終了すると、今回実行の完了となる。その後、次のサービス要請入力がモバイル端末Mtのセンサユニット3を通じて取得されると、処理フローの次回実行が開始されることとなる。
(作用効果)
ここまで説明した第一実施形態の作用効果を、以下に説明する。
第一実施形態によると、ユーザUsの意図するサービスコンテンツCsを認識したコンテンツ情報Ciが、ユーザUsの携帯するモバイル端末Mtのセンシング情報に基づき取得される。それと共に、ユーザUsがモバイル端末Mtを向けることにより表示背景となる背景エリアAbが、監視される。そこで、サービスコンテンツCsに応じた種別のユーザサービスが、現在の背景エリアAbにおいて自律走行装置Maの駆動制御により提供される。これは、多様化したユーザサービスの中でも、自律走行装置Maとの協調によりユーザ嗜好性を満足するユーザサービスを提供可能なことを、意味する。
しかも第一実施形態によると、ユーザUsが意図する表示コンテンツCdを認識したコンテンツ情報Ciも、モバイル端末Mtのセンシング情報に基づき取得される。そこで、上述の如くユーザサービスを提供する自律走行装置Maが入る背景エリアAbの背景動画2cを表示するモバイル端末Mtにおいては、表示コンテンツCdに応じたXR画像2aが自律走行装置Maの存在位置Pmに重畳表示される。これは、自律走行装置Maによって提供のサービスコンテンツCsとマッチする表示コンテンツCdに応じたXR画像2aの重畳表示により、ユーザ嗜好性の満足度を高めることが可能なことを、意味する。
第一実施形態によると、自律走行装置Maと共に背景エリアAbに入る他物体Ooの存在位置Poにも、XR画像2dが重畳表示される。これによれば、自律走行装置Maによって提供のサービスコンテンツCsとマッチする表示コンテンツCdに応じたXR画像2a,2dの重畳表示を、背景エリアAbの背景動画2cにおける広範囲において実現して、ユーザ嗜好性の満足度を高めることが可能となる。
第一実施形態によると、ユーザサービスの提供されるサービス空間Asを仮想分割した複数の三次元ボクセルViには、自律走行装置Ma及び他物体Ooの各存在位置Pm,Poに関連する位置関連情報の付加された三次元空間情報Tiが、インフラデータベースDiから取得される。そこで、取得の三次元空間情報Tiに基づいた自律走行装置Ma及び他物体Ooの各存在位置Pm,Poには、背景エリアAbの背景動画2cにおいてユーザ嗜好性を満足させ得るXR画像2a,2dを、適正位置にて置換して重畳表示することができる。故に、重畳表示の位置ずれに起因するユーザ不快感を抑制しつつ、ユーザ嗜好性の満足度を高めることが可能となる。
第一実施形態によると、コンテンツ情報CiのうちサービスコンテンツCsに合わせた自律走行装置Maの駆動制御パターンにより、ユーザサービスが提供される。これによれば、ユーザサービスと協調した自律走行装置Maの駆動を通じて、ユーザ嗜好性の満足度を高めることが可能となる。それと共に第一実施形態によると、駆動制御パターンに従う自律走行装置Maの存在位置Pmに合わせて、XR画像2aの背景動画2cに対する重畳表示位置が調整される。これによれば、サービスコンテンツCsとマッチする表示コンテンツCdに応じたXR画像2aは、自律走行装置Maの駆動に追従して背景動画2c内に重畳表示され得るので、ユーザ嗜好性の満足度をさらに高めることが可能となる。ここで特に第一実施形態では、インフラデータベースDiからの三次元空間情報Tiに基づくことで、自律走行装置Maの駆動に対するXR画像2aの追従性を高めることができるので、重畳表示の位置ずれに起因するユーザ不快感の抑制効果を高めることも可能となる。
第一実施形態によると、コンテンツ情報Ciのうち表示コンテンツCdに関連するキャラクター画像が、XR画像2a,2dとして自律走行装置Ma及び他物体Ooの存在位置Pm,Poに重畳表示される。これによれば、背景エリアAbの背景動画2cにおいてユーザ嗜好性を満足させ得るキャラクター画像を、自律走行装置Ma及び他物体Ooの表示から置換してユーザUsに視認させることができる。故に、特に表示コンテンツCdに対するユーザ嗜好性の満足度を高めることが可能となる。
(第二実施形態)
第二実施形態は、第一実施形態の変形例である。
図11に示すように第二実施形態の処理システム2001は、事前登録されたユーザUsの装着するウェアラブル端末Wtと、自律走行装置Maと、インフラシステムIsとに、通信ネットワークNcを介して接続される。処理システム1との接続要素Wt,Ma,Isとしては、それぞれ少なくとも一つずつが想定される。尚、第一実施形態で説明の如き、ユーザUsの携帯するモバイル端末Mtは、通信ネットワークNcを介して処理システム2001に接続されていてもよいし、非接続であってもよい。
ウェアラブル端末Wtは、少なくとも処理システム2001への接続時には、同システム1のユーザUsが顔に装着且つハンズフリーでの操作可能に、構成されている。図12に示すようにウェアラブル端末Wtは、表示ユニット2002及びセンサユニット2003を備えた光学シースルー型電子デバイスであって、例えばHMD又はスマートグラス等である。ウェアラブル端末Wtは、通信ネットワークNcを介したデータの送受信を、通信ユニットにより制御する。ウェアラブル端末Wtは、処理システム2001と共同してサービス関連処理を遂行するように、通信ネットワークNcを介した同システム2001からの制御指令に従って制御ユニットにより作動制御される。尚、ウェアラブル端末Wtに関して図12は、ユーザUsの両眼のうち片眼に対応する部分での、同ユーザUs側からの視界エリアAvの見え方を模式的なイメージ図面で表している。
ウェアラブル端末Wtの制御ユニットによる作動制御下、虚像投影型若しくは網膜投影型の表示ユニット2002は、例えばグラス又はレンズ等を通してユーザUsにより視認される視界エリアAvの実像に対して、サービス関連処理に必要な表示を図12の如く重畳して同ユーザUsに視認させる。それと共に、ウェアラブル端末Wtの作動制御下においてセンサユニット2003は、サービス関連処理に応じたセンシング処理により、センシング情報を取得する。センサユニット2003としては、例えばカメラ、慣性センサ、GNSSセンサ、眼電位センサ、視線センサ、赤外センサ、地磁気センサ、モーションセンサ、タッチセンサ、及びマイク等のうち、少なくとも一種類が採用される。こうした構成によりセンサユニット2003は、ユーザUsの意図を表す、同ユーザUsからの入力を、センシング情報として取得可能となっている。
図11に示す自律走行装置Maは、処理システム2001と共同してサービス関連処理を遂行するように、通信ネットワークNcを介した同システム2001からの制御指令に従って制御ユニットにより駆動制御される点を除き、第一実施形態の処理システム1と同様に構成される。処理システム2001の制御系2020は、その少なくとも一部がウェアラブル端末Wtの通信ユニット及び制御ユニットにより構成されてもよい点、並びに後述の機能ブロック構成によるウェアラブル端末Wt利用式の処理フローを実行する点を除き、第一実施形態の制御系20と同様に構成される。
制御系2020においてサービス関連処理を遂行するために構築される機能ブロックには、図13に示すように認識ブロック2200、監視ブロック2210、駆動制御ブロック2220、及び表示制御ブロック2230が含まれている。これらのブロック2200,2210,2220,2230の共同により処理システム2001がサービス関連処理を遂行する処理方法は、図14に示す処理フローに従って実行される。本処理フローは、ユーザUsがユーザサービス提供を要請する意図となる、サービス要請入力をウェアラブル端末Wtのセンサユニット2003がセンシング情報として取得するのに応じて、実される。尚、本処理フローにおける各「S」は、第二実施形態の処理プログラムに含まれた複数命令により実行される複数ステップを、それぞれ意味している。
処理フローのS2200において認識ブロック2200(図13参照)は、ユーザUsが意図するサービスコンテンツCs及び表示コンテンツCdを認識したコンテンツ情報Ciを、同ユーザUsが顔に装着するウェアラブル端末Wtの、当該顔に関するセンシング情報に基づき取得する。そこでセンシング情報は、ユーザ意図としてセンサユニット2003へと入力されることで、ウェアラブル端末Wtの通信ユニットを通じて取得される。このときウェアラブル端末Wtの表示ユニット2002は、ユーザUsからセンサユニット2003へのコンテンツCs,Cdの選択入力として、視線の方向変化に応じた視線入力、又は顔の表情変化に応じた表情入力を受け付けるために、第一実施形態に準ずる入力受付画像2bを視界エリアAvの実像に重畳表示させてもよい。S2200は、以上の点を除き、第一実施形態のS200に準じて実行される。
図14に示す処理フローのS2210において監視ブロック2210(図13参照)は、ウェアラブル端末Wtを通してユーザUsにより視認される視界エリアAvを、監視する。このとき視界エリアAvは、インフラシステムIsにより複数ボクセルViが想定される情報蓄積対象空間のうち、サービスコンテンツCsに応じた種別のユーザサービスが図12の如く提供されるサービス空間Asにおいて、監視される。そこで、ウェアラブル端末Wtのセンサユニット2003によるセンシング情報のうち、例えばカメラ情報、及び慣性情報等のうち少なくとも一方に基づくことで、ユーザUsの顔若しくは視線の向く方位、若しくはウェアラブル端末Wtの向く方位に、例えばグラス又はレンズ等を通して広がる視界エリアAvの監視が、実行される。
図14に示す処理フローのS2220において駆動制御ブロック2220(図13参照)は、コンテンツ情報CiのうちサービスコンテンツCsに応じた種別のユーザサービスを、現在の視界エリアAvにおいて自律走行装置Maの駆動制御により提供する。S2220は、この点を除き、第一実施形態のS220に準じて実行される。
図14に示す処理フローのS2230は、S2220と並行して実行される。S2230において表示制御ブロック2230(図13参照)は、S2220によりユーザサービスを提供する自律走行装置Maが視界エリアAvに入るウェアラブル端末Wtにおいて、コンテンツ情報Ciのうち表示コンテンツCdに応じたXR画像2aを自律走行装置Maの存在位置Pmに、図12の如く重畳表示させる。このときXR画像2aの重畳表示位置は、S2220による自律走行装置Maの駆動制御パターンに従った、視界エリアAvでの存在位置Pmに合わせて、調整される。それにより視界エリアAvにおいては、存在位置Pmの自律走行装置Ma全体をその手前からは不透明又は半透明に隠すように、XR画像2aが当該全体とオーバーラップする三次元重畳表示となる。
S2230における表示制御ブロック2230は、自律走行装置Maと共に視界エリアAvに入る他物体Ooの存在位置Poにも、図12の如くXR画像2dを重畳表示させる。このときXR画像2dの重畳表示位置は、他物体Ooの存在位置Poに合わせて調整される。こうして視界エリアAvでの存在位置PoにXR画像2dがオーバーラップされる他物体Ooは、例えば処理システム2001のユーザUs以外の人、処理システム2001と共同する自律走行装置Ma以外の移動体、及び地物等のうち少なくとも一種類となる。
S2230は、これらの点を除き、第一実施形態のS230に準じて実行される。その結果、第一実施形態に準じたS2230による各種ユーザサービスでは、自律走行装置Maの存在位置Pmとその周囲物体Ooの存在位置Poとに少なくとも重畳して視認されるXR画像2a,2dが、ユーザUsへと表示出力されることとなる。
以上の図14に示す第二実施形態の処理フローは、コンテンツ情報CiのうちサービスコンテンツCsに応じたユーザサービスの提供が、S2220,S2230により終了すると、今回実行の完了となる。その後、次のサービス要請入力がウェアラブル端末Wtのセンサユニット2003を通じて取得されると、処理フローの次回実行が開始されることとなる。
(作用効果)
ここまで説明した第二実施形態の作用効果を、以下に説明する。
第二実施形態によると、ユーザUsの意図するサービスコンテンツCsを認識したコンテンツ情報Ciが、ユーザUsの装着するウェアラブル端末Wtのセンシング情報に基づき取得される。それと共に、ウェアラブル端末Wtを通してユーザUsにより視認される視界エリアAvが、監視される。そこで、サービスコンテンツCsに応じた種別のユーザサービスが、現在の視界エリアAvにおいて自律走行装置Maの駆動制御により提供される。これは、多様化したユーザサービスの中でも、自律走行装置Maとの協調によりユーザ嗜好性を満足するユーザサービスを提供可能なことを、意味する。
しかも第二実施形態によると、ユーザUsが意図する表示コンテンツCdを認識したコンテンツ情報Ciも、モバイル端末Mtのセンシング情報に基づき取得される。そこで、上述の如くユーザサービスを提供する自律走行装置Maが視界エリアAvに入るウェアラブル端末Wtにおいて、表示コンテンツCdに応じたXR画像2aが自律走行装置Maの存在位置Pmに重畳表示される。これは、自律走行装置Maによって提供のサービスコンテンツCsとマッチする表示コンテンツCdに応じたXR画像2aの重畳表示により、ユーザ嗜好性の満足度を高めることが可能なことを、意味する。
第二実施形態によると、自律走行装置Maと共に視界エリアAvに入る他物体Ooの存在位置Poにも、XR画像2dが重畳表示される。これによれば、自律走行装置Maによって提供のサービスコンテンツCsとマッチする表示コンテンツCdに応じたXR画像2a,2dの重畳表示を、視界エリアAvの広範囲において実現して、ユーザ嗜好性の満足度を高めることが可能となる。
第二実施形態によると、ユーザUsにおいてウェアラブル端末Wtの装着された顔に関するセンシング情報に基づき、コンテンツ情報Ciが取得される。これによれば、コンテンツ情報CiとしてユーザUsの意図するサービスコンテンツCs及び表示コンテンツCdは、ウェアラブル端末Wtの装着された顔から自動的に認識され得る。故に、ユーザ嗜好性の満足度を高める上での利便性も、高めることが可能となる。
第二実施形態によると、ユーザサービスの提供されるサービス空間Asを仮想分割した複数の三次元ボクセルViには、自律走行装置Ma及び他物体Ooの各存在位置Pm,Poに関連する位置関連情報の付加された三次元空間情報Tiが、インフラデータベースDiから取得される。そこで、取得の三次元空間情報Tiに基づいた自律走行装置Ma及び他物体Ooの各存在位置Pm,Poには、視界エリアAvにおいてユーザ嗜好性を満足させ得るXR画像2a,2dを、手前位置から適正にオーバーラップさせて重畳表示することができる。故に、重畳表示の位置ずれに起因するユーザ不快感を抑制しつつ、ユーザ嗜好性の満足度を高めることが可能となる。
第二実施形態によると、コンテンツ情報CiのうちサービスコンテンツCsに合わせた自律走行装置Maの駆動制御パターンにより、ユーザサービスが提供されることになる。これによれば、ユーザサービスと協調した自律走行装置Maの駆動を通じて、ユーザ嗜好性の満足度を高めることが可能となる。それと共に第二実施形態によると、駆動制御パターンに従う自律走行装置Maの存在位置Pmに合わせて、XR画像2aの視界エリアAvに対する重畳表示位置が調整される。これによれば、サービスコンテンツCsとマッチする表示コンテンツCdに応じたXR画像2aは、自律走行装置Maの駆動に追従して視界エリアAv内に重畳表示され得るので、ユーザ嗜好性の満足度をさらに高めることが可能となる。ここで特に第二実施形態でも、インフラデータベースDiからの三次元空間情報Tiに基づくことで、自律走行装置Maの駆動に対するXR画像2aの追従性を高めることができるので、重畳表示の位置ずれに起因するユーザ不快感の抑制効果を高めることも可能となる。
第二実施形態によると、コンテンツ情報Ciのうち表示コンテンツCdに関連するキャラクター画像が、XR画像2a,2dとして自律走行装置Ma及び他物体Ooの存在位置Pm,Poに重畳表示されることになる。これによれば、視界エリアAvにおいてユーザ嗜好性を満足させ得るキャラクター画像を、自律走行装置Ma及び他物体Ooの手前位置にオーバーラップさせてユーザUsに視認させることができる。故に、特に表示コンテンツCdに対するユーザ嗜好性の満足度を高めることが可能となる。
(他の実施形態)
以上、複数の実施形態について説明したが、本開示は、それらの実施形態に限定して解釈されるものではなく、本開示の要旨を逸脱しない範囲内において種々の実施形態及び組み合わせに適用することができる。
第一及び第二実施形態に関する変形例では、処理システム1,2001の制御系20,2020を構成する専用コンピュータは、デジタル回路及びアナログ回路のうち、少なくとも一方をプロセッサとして有していてもよい。ここでデジタル回路とは、例えばASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、SOC(System on a Chip)、PGA(Programmable Gate Array)、及びCPLD(Complex Programmable Logic Device)等のうち、少なくとも一種類である。またこうしたデジタル回路は、プログラムを記憶したメモリを、有していてもよい。
第一及び第二実施形態に関する変形例では、処理システム1,2001がインフラシステムIsとは非接続であってもよい。この場合、インフラデータベースDiから取得の三次元空間情報Tiに代えて、処理システム1,2001との接続要素Mt,Ma,Wtによるセンシング情報が、利用されてもよい。
第一及び第二実施形態に関する変形例では、ボクセルViとは紐付けのない三次元空間情報Tiが、インフラデータベースDiから処理システム1,2001に取得されてもよい。第一及び第二実施形態に関する変形例では、三次元空間情報Tiに代えて二次元グリッド情報が、インフラデータベースDiから処理システム1,2001に取得されてもよい。
第一実施形態に関する変形例では、スマートウォッチ、又はビデオシースルー型若しくは非透過型のウェアラブル端末が、モバイル端末Mtとして用いられてもよい。第二実施形態に関する変形例では、モバイル端末Mtが処理システム2001と接続されてウェアラブル端末Wtの一部として機能している場合、当該一部を構成するセンサユニット3がサービス要請入力をセンシング情報として取得するのに応じて、処理フローが実行されてもよい。第二実施形態に関する変形例では、モバイル端末Mtが処理システム2001と接続されてウェアラブル端末Wtの一部として機能している場合、処理フローのS2200にておいてサービスコンテンツCs及び表示コンテンツCdを認識したコンテンツ情報Ciが、当該一部を構成するセンサユニット3のセンシング情報に基づき取得されてもよい。
第一実施形態のS230及び第二実施形態のS2230に関する変形例では、自律走行装置Maと共にエリアAb,Avに入る他物体Ooの存在位置Poには、XR画像2dが重畳表示されなくてもよい。第二実施形態のS2200に関する変形例では、第一実施形態のS200に準じて、ユーザUsによるジェスチャー入力、又は音声入力がセンサユニット2003よりセンシングされてもよい。第二実施形態のS2200に関する変形例では、第一実施形態のS200に準じて、ユーザUsによるジェスチャー入力、視線入力、表情入力、又は音声入力がインフラデータベースDiから取得の三次元空間情報Tiに基づき認識されてもよい。
ここまでの説明形態の他に上述の実施形態及び変形例は、制御系20,2020においてプロセッサ24及びメモリ22を少なくとも一つずつ有する処理システム1,2001として、半導体装置(例えば半導体チップ等)の形態で実施されてもよい。
(付言)
本明細書には、以下に列挙する複数の技術的思想と、それらの複数の組み合わせが開示されている。
(技術的思想1)
プロセッサ(24)を有し、ユーザへ提供されるユーザサービスに関連したサービス関連処理を遂行する処理システムであって、
プロセッサは、
ユーザが意図するサービスコンテンツ(Cs)及び表示コンテンツ(Cd)を認識したコンテンツ情報(Ci)を、ユーザが携帯するモバイル端末(Mt)のセンシング情報に基づき取得することと、
ユーザがモバイル端末を向けることにより表示背景となる背景エリア(Ab)を、監視することと、
コンテンツ情報のうちサービスコンテンツに応じた種別のユーザサービスを、現在の背景エリアにおいて自律走行装置(Ma)の駆動制御により提供することと、
ユーザサービスを提供する自律走行装置が入る背景エリアの背景動画(2c)を表示するモバイル端末において、コンテンツ情報のうち表示コンテンツに応じたXR画像(2a)を自律走行装置の存在位置(Pm)に重畳表示することとを、実行するように構成される。
(技術的思想2)
XR画像を重畳表示することは、
自律走行装置と共に背景エリアに入る他物体(Oo)の存在位置(Po)に、XR画像(2d)を重畳表示することを、含む技術的思想1に記載の処理システム。
(技術的思想3)
プロセッサ(24)を有し、ユーザへ提供されるユーザサービスに関連したサービス関連処理を遂行する処理システムであって、
プロセッサは、
ユーザが意図するサービスコンテンツ(Cs)及び表示コンテンツ(Cd)を認識したコンテンツ情報(Ci)を、ユーザが装着するウェアラブル端末(Wt)のセンシング情報に基づき取得することと、
ウェアラブル端末を通してユーザにより視認される視界エリア(Av)を、監視することと、
コンテンツ情報のうちサービスコンテンツに応じた種別のユーザサービスを、現在の視界エリアにおいて自律走行装置(Ma)の駆動制御により提供することと、
ユーザサービスを提供する自律走行装置が視界エリアに入るウェアラブル端末において、コンテンツ情報のうち表示コンテンツに応じたXR画像(2a)を自律走行装置の存在位置(Pm)に重畳表示することとを、実行するように構成される。
(技術的思想4)
XR画像を重畳表示することは、
自律走行装置と共に視界エリアに入る他物体(Oo)の存在位置に、XR画像(2d)を重畳表示することを、含む技術的思想3に記載の処理システム。
(技術的思想5)
検知をすることは、
ユーザにおいてウェアラブル端末の装着された顔に関するセンシング情報に基づき、コンテンツ情報を取得することを、含む技術的思想3又は4に記載の処理システム。
(技術的思想6)
プロセッサは、
ユーザサービスの提供されるサービス空間(As)を仮想分割した複数の三次元ボクセル(Vi)に存在位置に関連する位置関連情報の付加された三次元空間情報(Ti)を、インフラデータベース(Di)から取得することを、さらに実行するように構成され、
XR画像を重畳表示することは、
取得の三次元空間情報に基づいた存在位置に、XR画像を重畳表示することを、含む技術的思想1~5のいずれか一項に記載の処理システム。
(技術的思想7)
ユーザサービスを提供することは、
コンテンツ情報のうちサービスコンテンツに合わせた自律走行装置の駆動制御パターンに従って、ユーザサービスを提供することを、含む技術的思想1~5のいずれか一項に記載の処理システム。
(技術的思想8)
XR画像を重畳表示することは、
駆動制御パターンに従う存在位置に合わせて、XR画像の重畳表示位置を調整することを、含む技術的思想7に記載の処理システム。
(技術的思想9)
ユーザサービスを提供することは、
コンテンツ情報のうちサービスコンテンツに合わせた自律走行装置の駆動制御パターンに従って、ユーザサービスを提供することを、含み、
XR画像を重畳表示することは、
駆動制御パターンに従う存在位置に合わせて、XR画像の重畳表示位置を調整することを、含む技術的思想6に記載の処理システム。
(技術的思想10)
XR画像を重畳表示することは、
コンテンツ情報のうち表示コンテンツに関連するキャラクター画像を、XR画像として存在位置に重畳表示することを、含む技術的思想1~9のいずれか一項に記載の処理システム。
尚、上述した技術的思想1~10は、方法及びプログラムの各形態で実現されてもよい。
1,2001:処理システム、2a,2d,2e:XR画像、2c:背景動画、22:メモリ、24:プロセッサ、Ab:背景エリア、As:サービス空間、Av:視界エリア、Cd:表示コンテンツ、Ci:コンテンツ情報、Cs:サービスコンテンツ、Di:インフラデータベース、Ma:自律走行装置、Mt:モバイル端末、Oo:他物体、Pm,Po,Ps:存在位置、Ti:三次元空間情報、Vi:三次元ボクセル、Wt:ウェアラブル端末

Claims (14)

  1. プロセッサ(24)を有し、ユーザへ提供されるユーザサービスに関連したサービス関連処理を遂行する処理システムであって、
    前記プロセッサは、
    前記ユーザが意図するサービスコンテンツ(Cs)及び表示コンテンツ(Cd)を認識したコンテンツ情報(Ci)を、前記ユーザが携帯するモバイル端末(Mt)のセンシング情報に基づき取得することと、
    前記ユーザが前記モバイル端末を向けることにより表示背景となる背景エリア(Ab)を、監視することと、
    前記コンテンツ情報のうち前記サービスコンテンツに応じた種別の前記ユーザサービスを、現在の前記背景エリアにおいて自律走行装置(Ma)の駆動制御により提供することと、
    前記ユーザサービスを提供する前記自律走行装置が入る前記背景エリアの背景動画(2c)を表示する前記モバイル端末において、前記コンテンツ情報のうち前記表示コンテンツに応じたXR画像(2a)を前記自律走行装置の存在位置(Pm)に重畳表示することとを、実行するように構成される処理システム。
  2. 前記XR画像を重畳表示することは、
    前記自律走行装置と共に前記背景エリアに入る他物体(Oo)の存在位置(Po)に、前記XR画像(2d)を重畳表示することを、含む請求項1に記載の処理システム。
  3. プロセッサ(24)を有し、ユーザへ提供されるユーザサービスに関連したサービス関連処理を遂行する処理システムであって、
    前記プロセッサは、
    前記ユーザが意図するサービスコンテンツ(Cs)及び表示コンテンツ(Cd)を認識したコンテンツ情報(Ci)を、前記ユーザが装着するウェアラブル端末(Wt)のセンシング情報に基づき取得することと、
    前記ウェアラブル端末を通して前記ユーザにより視認される視界エリア(Av)を、監視することと、
    前記コンテンツ情報のうち前記サービスコンテンツに応じた種別の前記ユーザサービスを、現在の前記視界エリアにおいて自律走行装置(Ma)の駆動制御により提供することと、
    前記ユーザサービスを提供する前記自律走行装置が前記視界エリアに入る前記ウェアラブル端末において、前記コンテンツ情報のうち前記表示コンテンツに応じたXR画像(2a)を前記自律走行装置の存在位置(Pm)に重畳表示することとを、実行するように構成される処理システム。
  4. 前記XR画像を重畳表示することは、
    前記自律走行装置と共に前記視界エリアに入る他物体(Oo)の存在位置(Po)に、前記XR画像(2d)を重畳表示することを、含む請求項3に記載の処理システム。
  5. 前記コンテンツ情報を取得することは、
    前記ユーザにおいて前記ウェアラブル端末の装着された顔に関する前記センシング情報に基づき、前記コンテンツ情報を取得することを、含む請求項3に記載の処理システム。
  6. 前記プロセッサは、
    前記ユーザサービスの提供されるサービス空間(As)を仮想分割した複数の三次元ボクセル(Vi)に前記存在位置に関連する位置関連情報の付加された三次元空間情報(Ti)を、インフラデータベース(Di)から取得することを、さらに実行するように構成され、
    前記XR画像を重畳表示することは、
    前記三次元空間情報に基づいた前記存在位置に、前記XR画像を重畳表示することを、含む請求項1~5のいずれか一項に記載の処理システム。
  7. 前記ユーザサービスを提供することは、
    前記コンテンツ情報のうち前記サービスコンテンツに合わせた前記自律走行装置の駆動制御パターンに従って、前記ユーザサービスを提供することを、含む請求項1~5のいずれか一項に記載の処理システム。
  8. 前記XR画像を重畳表示することは、
    前記駆動制御パターンに従う前記存在位置に合わせて、前記XR画像の重畳表示位置を調整することを、含む請求項7に記載の処理システム。
  9. 前記ユーザサービスを提供することは、
    前記コンテンツ情報のうち前記サービスコンテンツに合わせた前記自律走行装置の駆動制御パターンに従って、前記ユーザサービスを提供することを、含み、
    前記XR画像を重畳表示することは、
    前記駆動制御パターンに従う前記存在位置に合わせて、前記XR画像の重畳表示位置を調整することを、含む請求項6に記載の処理システム。
  10. 前記XR画像を重畳表示することは、
    前記コンテンツ情報のうち前記表示コンテンツに関連するキャラクター画像を、前記XR画像として前記存在位置に重畳表示することを、含む請求項1~5のいずれか一項に記載の処理システム。
  11. ユーザへ提供されるユーザサービスに関連したサービス関連処理を遂行するために、プロセッサ(24)により実行される処理方法であって、
    前記ユーザが意図するサービスコンテンツ(Cs)及び表示コンテンツ(Cd)を認識したコンテンツ情報(Ci)を、前記ユーザが携帯するモバイル端末(Mt)のセンシング情報に基づき取得することと、
    前記ユーザが前記モバイル端末を向けることにより表示背景となる背景エリア(Ab)を、監視することと、
    前記コンテンツ情報のうち前記サービスコンテンツに応じた種別の前記ユーザサービスを、現在の前記背景エリアにおいて自律走行装置(Ma)の駆動制御により提供することと、
    前記ユーザサービスを提供する前記自律走行装置が入る前記背景エリアの背景動画(2c)を表示する前記モバイル端末において、前記コンテンツ情報のうち前記表示コンテンツに応じたXR画像(2a)を前記自律走行装置の存在位置(Pm)に重畳表示することとを、含む処理方法。
  12. ユーザへ提供されるユーザサービスに関連したサービス関連処理を遂行するために、プロセッサ(24)により実行される処理方法であって、
    前記ユーザが意図するサービスコンテンツ(Cs)及び表示コンテンツ(Cd)を認識したコンテンツ情報(Ci)を、前記ユーザが装着するウェアラブル端末(Wt)のセンシング情報に基づき取得することと、
    前記ウェアラブル端末を通して前記ユーザにより視認される視界エリア(Av)を、監視することと、
    前記コンテンツ情報のうち前記サービスコンテンツに応じた種別の前記ユーザサービスを、現在の前記視界エリアにおいて自律走行装置(Ma)の駆動制御により提供することと、
    前記ユーザサービスを提供する前記自律走行装置が前記視界エリアに入る前記ウェアラブル端末において、前記コンテンツ情報のうち前記表示コンテンツに応じたXR画像(2a)を前記自律走行装置の存在位置(Pm)に重畳表示することとを、含む処理方法。
  13. ユーザへ提供されるユーザサービスに関連したサービス関連処理を遂行するために記憶媒体(22)に記憶され、プロセッサ(24)により実行される命令を含む処理プログラムであって、
    前記命令は、
    前記ユーザが意図するサービスコンテンツ(Cs)及び表示コンテンツ(Cd)を認識したコンテンツ情報(Ci)を、前記ユーザが携帯するモバイル端末(Mt)のセンシング情報に基づき取得させることと、
    前記ユーザが前記モバイル端末を向けることにより表示背景となる背景エリア(Ab)を、監視させることと、
    前記コンテンツ情報のうち前記サービスコンテンツに応じた種別の前記ユーザサービスを、現在の前記背景エリアにおいて自律走行装置(Ma)の駆動制御により提供させることと、
    前記ユーザサービスを提供する前記自律走行装置が入る前記背景エリアの背景動画(2c)を表示する前記モバイル端末において、前記コンテンツ情報のうち前記表示コンテンツに応じたXR画像(2a)を前記自律走行装置の存在位置(Pm)に重畳表示させることとを、含む処理プログラム。
  14. ユーザへ提供されるユーザサービスに関連したサービス関連処理を遂行するために記憶媒体(22)に記憶され、プロセッサ(24)により実行される命令を含む処理プログラムであって、
    前記命令は、
    前記ユーザが意図するサービスコンテンツ(Cs)及び表示コンテンツ(Cd)を認識したコンテンツ情報(Ci)を、前記ユーザが装着するウェアラブル端末(Wt)のセンシング情報に基づき取得させることと、
    前記ウェアラブル端末を通して前記ユーザにより視認される視界エリア(Av)を、監視させることと、
    前記コンテンツ情報のうち前記サービスコンテンツに応じた種別の前記ユーザサービスを、現在の前記視界エリアにおいて自律走行装置(Ma)の駆動制御により提供させることと、
    前記ユーザサービスを提供する前記自律走行装置が前記視界エリアに入る前記ウェアラブル端末において、前記コンテンツ情報のうち前記表示コンテンツに応じたXR画像(2a)を前記自律走行装置の存在位置(Pm)に重畳表示させることとを、含む処理プログラム。
JP2022199677A 2022-12-14 2022-12-14 処理システム、処理方法、処理プログラム Pending JP2024085250A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022199677A JP2024085250A (ja) 2022-12-14 2022-12-14 処理システム、処理方法、処理プログラム
PCT/JP2023/038242 WO2024127819A1 (ja) 2022-12-14 2023-10-24 処理システム、処理方法、処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022199677A JP2024085250A (ja) 2022-12-14 2022-12-14 処理システム、処理方法、処理プログラム

Publications (1)

Publication Number Publication Date
JP2024085250A true JP2024085250A (ja) 2024-06-26

Family

ID=91485442

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022199677A Pending JP2024085250A (ja) 2022-12-14 2022-12-14 処理システム、処理方法、処理プログラム

Country Status (2)

Country Link
JP (1) JP2024085250A (ja)
WO (1) WO2024127819A1 (ja)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1469424A4 (en) * 2002-01-23 2005-06-01 Michihiko Shouji IMAGE PROCESSING SYSTEM, IMAGE PROCESSING DEVICE AND DISPLAY DEVICE
JP5791082B2 (ja) * 2012-07-30 2015-10-07 国立大学法人横浜国立大学 画像合成装置、画像合成システム、画像合成方法およびプログラム
JP5874698B2 (ja) * 2013-08-29 2016-03-02 キヤノンマーケティングジャパン株式会社 情報処理装置、その制御方法、及びプログラム
JP6564484B1 (ja) * 2018-03-23 2019-08-21 国立大学法人電気通信大学 同室感コミュニケーションシステム
JP2022123692A (ja) * 2021-02-12 2022-08-24 ソニーグループ株式会社 画像処理装置、画像処理方法、画像処理システム

Also Published As

Publication number Publication date
WO2024127819A1 (ja) 2024-06-20

Similar Documents

Publication Publication Date Title
US11106203B2 (en) Systems and methods for augmented stereoscopic display
US11756307B2 (en) Vehicle video system
JP6778912B2 (ja) 映像表示方法及び映像表示装置
US20200366816A1 (en) System and methods involving edge camera assemblies in handheld devices
US10024667B2 (en) Wearable earpiece for providing social and environmental awareness
US10924691B2 (en) Control device of movable type imaging device and control method of movable type imaging device
JP6922737B2 (ja) 移動体、情報処理装置、移動体システム、情報処理方法および情報処理プログラム
US12072202B1 (en) Augmented navigational control for autonomous vehicles
CN106471441A (zh) 用于显示机器人设备动作的虚拟表示的增强现实的方法和系统
WO2016031105A1 (ja) 情報処理装置、情報処理方法、及びプログラム
CN109074090A (zh) 无人机硬件架构
CN103460256A (zh) 在扩增现实系统中将虚拟图像锚定到真实世界表面
JP2007043225A (ja) 撮像画像処理装置及び撮像画像処理方法
CN105393284A (zh) 基于人类身体数据的空间雕刻
KR20180039439A (ko) 공항용 안내 로봇 및 그의 동작 방법
US20200319472A1 (en) Information processing apparatus, information processing method, and program
KR20200060361A (ko) 정보 처리 장치, 정보 처리 방법, 및 프로그램
US11508084B2 (en) Information processing apparatus and information processing method for accurately estimating a self location
WO2024127819A1 (ja) 処理システム、処理方法、処理プログラム
US11792484B2 (en) Information providing system, information providing method and management apparatus for information providing system for providing information obtained through a robot
JP7456590B2 (ja) 追跡装置、及び追跡プログラム
WO2023223933A1 (ja) 情報処理方法、情報処理装置、通信システム及びコンピュータプログラム
EP4130663A1 (en) Positioning apparatus and method
US20240323240A1 (en) Communication control server, communication system, and communication control method
WO2024166171A1 (ja) 携帯情報端末及び携帯情報端末の表示制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240905