WO2023112587A1 - 情報処理装置 - Google Patents
情報処理装置 Download PDFInfo
- Publication number
- WO2023112587A1 WO2023112587A1 PCT/JP2022/042545 JP2022042545W WO2023112587A1 WO 2023112587 A1 WO2023112587 A1 WO 2023112587A1 JP 2022042545 W JP2022042545 W JP 2022042545W WO 2023112587 A1 WO2023112587 A1 WO 2023112587A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- information
- user
- message
- glasses
- product
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/01—Customer relationship services
- G06Q30/015—Providing customer assistance, e.g. assisting a customer within a business location or via helpdesk
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Business, Economics & Management (AREA)
- Finance (AREA)
- Human Computer Interaction (AREA)
- Economics (AREA)
- Accounting & Taxation (AREA)
- Marketing (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Development Economics (AREA)
- Optics & Photonics (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Processing Or Creating Images (AREA)
Abstract
情報提供サーバにおいて、特定部は、ユーザの視界に存在する物体の種別を特定し、当該特定した種別を示す種別情報を出力する。選択部は、種別情報と物体に関連する関連情報とに基づいて、複数のメッセージ情報の中から一のメッセージ情報を選択する。供給部は、一のメッセージ情報をウェアラブル装置に供給する。関連情報は、物体が存在する位置における環境に関する環境情報および特定部が物体の種別を特定した時刻を示す時刻情報のうち少なくとも一つの情報と、物体が存在する位置を示す位置情報を含む。
Description
本発明は、情報処理装置に関する。
従来、AR(Augmented Reality)、VR(virtual reality)およびMR(Mixed Reality)に代表されるXR技術を適用したXRグラスが普及している。例えば、下記特許文献1は、携帯型端末装置とAR画像の表示認証を行う認証装置とを含むAR表示管理システムを開示する。携帯型端末装置は、当該装置の位置を示す位置情報と撮像部の撮像方向を示す方向情報とを取得する。携帯型端末装置は、AR画像の表示認証要求電文を認証装置へ送信する。表示認証要求電文はAR画像の識別子と位置情報と方向情報とを含む。認証装置は、受信した表示認証要求電文に含まれる識別子と位置情報と方向情報とに基づいて、識別子に対応するAR画像の表示を許可するか否かを認証し、その認証結果を含む応答電文を携帯型端末装置へ送信する。携帯型端末装置は、受信した応答電文に基づいて、AR画像の表示が可能であるか否かを判定し、その表示が可能であると判定した場合に、表示部に表示された撮像画像上にAR画像を重ねて表示させる。
しかし、従来の技術では、ユーザの周囲の現実空間に多数のAR画像が仮想的に配置されている場合、ユーザは多数のAR画像を目にすることになる。この結果、ユーザがXRグラスから見ることのできる現実空間の表示エリアが減少するといった問題がある。また、不要な情報が多くなることでユーザの注意が散漫になる可能性がある。
本発明の目的は、ユーザに対して有益な情報を提供することにある。
本発明の一態様に係る情報処理装置は、ユーザの視界に存在する物体の種別を特定し、当該特定した種別を示す種別情報を出力する特定部と、前記種別情報と前記物体に関連する関連情報とに基づいて、複数のメッセージ情報の中から一のメッセージ情報を選択する選択部と、前記選択された一のメッセージ情報を出力装置に供給する供給部と、を備え、前記関連情報は、前記物体が存在する位置における環境に関する環境情報および前記特定部が前記物体の種別を特定した時刻を示す時刻情報のうち少なくとも一つの情報と、前記物体が存在する位置を示す位置情報を含む。
本発明の一態様によれば、ユーザに対して有益な情報が提供される。
A.第1実施形態
以下、本発明の第1実施形態に係る情報処理装置を含む情報処理システム1の構成について説明する。
以下、本発明の第1実施形態に係る情報処理装置を含む情報処理システム1の構成について説明する。
A-1.システム構成
図1は、実施形態に係る情報処理システム1の全体構成を示すブロック図である。情報処理システム1は、ウェアラブル装置10と、情報提供サーバ20とを備える。情報提供サーバ20は、情報処理装置の一例である。
図1は、実施形態に係る情報処理システム1の全体構成を示すブロック図である。情報処理システム1は、ウェアラブル装置10と、情報提供サーバ20とを備える。情報提供サーバ20は、情報処理装置の一例である。
本実施形態において、情報処理システム1は、後述のARグラス30を装着したユーザに対して、AR技術を用いて各種情報を提示するシステムである。ここで、AR技術とは、例えば、透過型のヘッドマウントディスプレイ等の装置において、現実世界の座標空間に仮想オブジェクトを重ね合わせて表示することで、当該装置を着用したユーザに仮想オブジェクトが示す情報を視認可能とする技術である。なお、ARグラス30においては、仮想オブジェクトが表示されるとともに、例えば音声情報等の他の種類の情報が出力されてもよい。これらARグラス30を用いてユーザに提供される情報を「メッセージ情報M」という。
メッセージ情報Mは、例えば静止画像、動画、3DCGモデルおよびテキスト等である。本実施形態では、メッセージ情報Mは、主に店舗で販売される商品Pの販売促進のために表示される情報であるものとする。商品Pは物体の一例である。メッセージ情報Mは、商品Pの種別を示す情報、例えば商品名Bの説明を示す画像情報または商品名Bの説明を示す音声情報、であってもよい。
ウェアラブル装置10および情報提供サーバ20は、通信網Nを介して互いに通信可能に接続される。なお、図1では、ウェアラブル装置10を1台のみ図示しているが、当該台数はあくまで一例であって、情報処理システム1は、任意の台数のウェアラブル装置10を備えることが可能である。
ウェアラブル装置10は、ユーザがメッセージ情報Mを知覚するために身に着ける装置である。ウェアラブル装置10は、ARグラス30と、端末装置40とを備える。ARグラス30と端末装置40とは互いに通信可能に接続される。端末装置40は、情報提供サーバ20と互いに通信可能に接続することにより、情報提供サーバ20から、ARグラス30で出力するメッセージ情報Mを取得する。また、端末装置40は、情報提供サーバ20から取得したメッセージ情報Mを、ARグラス30から出力させる。端末装置40は、例えばスマートフォン、およびタブレット等の携帯端末装置であることが好適である。
A-2.ARグラス30
ARグラス30は、ユーザの頭部に装着される透過型のヘッドマウントディスプレイである。ARグラス30は、端末装置40の制御に基づいて、両眼用のレンズ310A,310Bの各々に設けられた表示パネルに仮想オブジェクトを表示させる。なお、表示装置として、例えば、ARグラス30が有する機能と同様の機能を有する、ゴーグル形状の透過型ヘッドマウントディスプレイを用いてもよい。
ARグラス30は、ユーザの頭部に装着される透過型のヘッドマウントディスプレイである。ARグラス30は、端末装置40の制御に基づいて、両眼用のレンズ310A,310Bの各々に設けられた表示パネルに仮想オブジェクトを表示させる。なお、表示装置として、例えば、ARグラス30が有する機能と同様の機能を有する、ゴーグル形状の透過型ヘッドマウントディスプレイを用いてもよい。
図2は、ARグラス30の外観を示す説明図である。ARグラス30は、テンプル301および302と、ブリッジ303と、フレーム304および305と、リム306および307と、レンズ310Aおよび310Bと、撮像レンズLENと、送受光部SENが、外観において視認される。
ブリッジ303には、図3に示される撮像装置324を構成する撮像レンズLENと、3Dスキャナ325を構成する送受光部SENが配置されている。
フレーム304には、左眼用の表示パネルと左眼用の光学部材が設けられている。表示パネルは、例えば、液晶パネルまたは有機EL(Electro Luminescence)パネルである。左眼用の表示パネルは、例えば、後述する端末装置40からの制御に基づいて画像を表示する。左眼用の光学部材は、左眼用の表示パネルから射出された光をレンズ310Aに導光する光学部材である。また、フレーム304には、後述するスピーカ322が設けられる。
フレーム305には、右眼用の表示パネルと右眼用の光学部材が設けられている。右眼用の表示パネルは、例えば、端末装置40からの制御に基づいて画像を表示する。右眼用の光学部材は、右眼用の表示パネルから射出された光をレンズ310Bに導光する光学部材である。また、フレーム305には、後述するスピーカ322が設けられる。
リム306は、レンズ310Aを保持する。また、リム307は、レンズ310Bを保持する。
レンズ310Aおよび310Bの各々は、ハーフミラーを有する。レンズ310Aが有するハーフミラーは、現実空間を表す光を透過させることによって、現実空間を表す光をユーザの左眼に導く。また、レンズ310Aが有するハーフミラーは、左眼用の光学部材によって導光された光をユーザの左眼に反射する。レンズ310Bが有するハーフミラーは、現実空間を表す光を透過させることによって、現実空間を表す光をユーザの右眼に導く。また、レンズ310Bが有するハーフミラーは、右眼用の光学部材によって導光された光をユーザの右眼に反射する。
ユーザがARグラス30を装着したとき、レンズ310Aおよび310Bは、ユーザの左眼および右眼の前に位置する。ARグラス30を装着したユーザは、レンズ310Aおよび310Bを透過した光が表す現実空間と、後述する投影装置321が投影する画像とを重ね合わせて視認できる。
図3は、ARグラス30の構成を示すブロック図である。ARグラス30は、上述したテンプル301および302と、ブリッジ303と、フレーム304および305と、リム306および307と、レンズ310Aおよび310Bと、撮像レンズLENと、送受光部SENとの他、投影装置321と、スピーカ322と、通信装置323と、撮像装置324と、3Dスキャナ325と、GPS装置326と、記憶装置327と、処理装置328と、バス329とを備える。投影装置321およびスピーカ322は、出力装置の一例である。
図3に示す各構成は、例えばフレーム304および305に格納されている。投影装置321と、スピーカ322と、通信装置323と、撮像装置324と、3Dスキャナ325と、記憶装置327と、処理装置328とは、情報を通信するためのバス329によって相互に接続される。バス329は、単一のバスを用いて構成されてもよいし、装置等の要素間ごとに異なるバスを用いて構成されてもよい。
投影装置321は、レンズ310A、左眼用の表示パネル、左眼用の光学部材、レンズ310B、右眼用の表示パネル、および右眼用の光学部材を含む。投影装置321は、ユーザの目と物体との間に配置される透過型ディスプレイとして機能する。投影装置321は、端末装置40からの制御に基づいて、画像を表示する。本実施形態において、投影装置321が表示する画像とは、例えばメッセージ情報Mとして表示される画像情報等である。
スピーカ322は、ユーザに音を出力する。スピーカ322は、フレーム304および305の各々に位置する。スピーカ322は、フレーム304および305の各々に位置せずに、例えば、フレーム304および305の一方、テンプル301および302の少なくとも一方、またはブリッジ303に位置してもよい。スピーカ322は、端末装置40によって直接的に、またはARグラス30の処理装置328を介して制御される。スピーカ322は、例えばメッセージ情報Mとして出力される音声情報等を出力する。スピーカ322は、ARグラス30に含まれずに、ARグラス30とは別体でもよい。
通信装置323は、無線通信または有線通信を用いて端末装置40と通信する。本実施形態において、通信装置323は、例えばBluetooth(登録商標)のような近距離無線通信を用いて端末装置40の通信装置403(図4参照)と通信する。
撮像装置324は、被写体を撮像し、撮像した画像(以下「撮像画像」という)を示す撮像画像情報を出力する。本実施形態では、撮像装置324の撮像範囲は、例えばユーザの視界と一致する、またはユーザの視界の全領域を含む。よって、撮像画像情報には、ユーザの視界に存在する物体(物理オブジェクト)の外観の情報が含まれる。例えば、ユーザが店舗にいる場合には、ユーザの前にあるラックに並んだ商品、またはユーザが手にした商品等が撮像される。
撮像装置324で生成された撮像画像は、撮像画像情報として通信装置323を介して端末装置40に送信される。撮像画像は、第1画像の一例である。撮像装置324は、所定の撮像間隔で撮像を繰り返し、撮像の都度、生成した撮像画像情報を端末装置40に送信する。
撮像装置324は、例えば、撮像光学系および撮像素子を有する。撮像光学系は、少なくとも1つの撮像レンズLEN(図2参照)を含む光学系である。例えば、撮像光学系は、プリズム等の各種の光学素子を有してもよいし、ズームレンズまたはフォーカスレンズ等を有してもよい。撮像素子は、例えば、CCD(Charge Coupled Device)イメージセンサーまたはCMOS(Complementary MOS)イメージセンサー等である。
3Dスキャナ325は、ユーザの近傍にある物体の3次元形状を測定した結果を示す測定形状情報を出力する。3Dスキャナ325は、測定装置の一例である。3Dスキャナ325の測定範囲は、例えばユーザの視界と一致する、またはユーザの視界の全領域を含む。よって、測定形状情報には、ユーザの視界に存在する物体の3次元形状の情報が含まれる。
本実施形態では、3Dスキャナ325は、送受光部SENに設けられた光源から測定範囲に光を照射する。光源から照射される光は、例えば縞模様などのパターンを有するパターン光である。また、3Dスキャナ325は、送受光部SENに設けられた受光部で反射光を受光する。光の照射から反射光の受光までの時間は、光が反射した物体までの距離に比例する。3Dスキャナ325は、測定範囲内の各点について上記受光までの時間を測定し、測定範囲内の各点までの距離を算出する。また、物体の表面に写るパターンの歪みに起因して物体の凹凸が認識される。このようにして、3Dスキャナ325は、物体表面の3次元座標を得て、物体の3次元形状を示す測定形状情報を生成することができる。
3Dスキャナ325で生成された測定形状情報は、通信装置323を介して端末装置40に送信される。3Dスキャナ325は、所定の測定間隔で測定を繰り返し、測定の都度、生成した測定形状情報を端末装置40に送信する。
なお、物体の形状は、3Dスキャナ325が測定するのではなく、撮像装置324で撮像された撮像画像から検出してもよい。この場合、例えば撮像装置324は複数台のカメラを有するステレオカメラであり、異なる角度から物体を撮像する。処理装置328は、異なる角度から撮像された複数の撮像画像を用いて物体の3次元的な形状を算出する。
GPS装置326は、複数の衛星からの電波を受信し、受信した電波から位置情報を生成する。位置情報は、ARグラス30の位置を示す。位置情報は、位置を特定できるのであれば、どのような形式であってもよい。本実施形態では、位置情報は、例えばARグラス30の緯度と経度とを示す。なお、位置情報はGPS装置326以外の手段を用いて得られてもよい。例えば、施設に設けられたビーコン等によって、ARグラス30が位置する施設名を特定する情報が受信されてもよい。本実施形態においては、ARグラス30の位置を、ウェアラブル装置10の位置とする。GPS装置326は、端末装置40に設けられていてもよい。この場合、GPS装置326は、端末装置40の位置を示す位置情報を生成する。また、ウェアラブル装置10の位置は、端末装置40の位置となる。
記憶装置327は、処理装置328が読み取り可能な記録媒体である。記憶装置327は、例えば、不揮発性メモリーと揮発性メモリーとを含む。不揮発性メモリーは、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable Read Only Memory)およびEEPROM(Electrically Erasable Programmable Read Only Memory)である。揮発性メモリーは、例えば、RAM(Random Access Memory)である。記憶装置327は、プログラムPG1を記憶する。プログラムPG1は、ARグラス30を動作させるためのプログラムである。
処理装置328は、1または複数のCPU(Central Processing Unit)を含む。1または複数のCPUは、1または複数のプロセッサの一例である。プロセッサおよびCPUの各々は、コンピュータの一例である。
処理装置328は、記憶装置327からプログラムPG1を読み取る。処理装置328は、プログラムPG1を実行することによって、動作制御部330として機能する。動作制御部330は、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)およびFPGA(Field Programmable Gate Array)等の回路によって構成されてもよい。
動作制御部330は、ARグラス30の動作を制御する。例えば、動作制御部330は、通信装置323が端末装置40から受信した画像表示用の制御信号を投影装置321に提供する。投影装置321は、画像表示用の制御信号が示す画像を表示する。また、動作制御部330は、通信装置323が端末装置40から受信した音声出力用の制御信号をスピーカ322に提供する。スピーカ322は、音声出力用の制御信号が示す音を放音する。また、動作制御部330は、撮像装置324が撮像した撮像画像情報、3Dスキャナ325が測定した測定形状情報、およびGPS装置326が生成した位置情報を、端末装置40に送信する。
A-3.端末装置40
図4は、端末装置40の構成を示すブロック図である。端末装置40は、タッチパネル401と、通信装置403と、記憶装置405と、処理装置406と、バス407とを含む。タッチパネル401と、通信装置403と、記憶装置405と、処理装置406は、情報を通信するためのバス407によって相互に接続される。バス407は、単一のバスを用いて構成されてもよいし、装置間ごとに異なるバスを用いて構成されてもよい。
図4は、端末装置40の構成を示すブロック図である。端末装置40は、タッチパネル401と、通信装置403と、記憶装置405と、処理装置406と、バス407とを含む。タッチパネル401と、通信装置403と、記憶装置405と、処理装置406は、情報を通信するためのバス407によって相互に接続される。バス407は、単一のバスを用いて構成されてもよいし、装置間ごとに異なるバスを用いて構成されてもよい。
タッチパネル401は、ユーザに各種の情報を表示するとともに、ユーザのタッチ操作を検出する。タッチパネル401は、入力装置と出力装置とを兼ねている。例えば、タッチパネル401は、液晶表示パネルまたは有機EL表示パネル等の各種の表示パネルとカバーガラスとの間に、タッチ操作を検出可能なタッチセンサユニットが貼り合わされて構成される。例えば、タッチパネル401は、ユーザの指がタッチパネル401に接触している場合に、ユーザの指のタッチパネル401における接触位置を周期的に検出し、検出した接触位置を示すタッチ情報を処理装置406に送信する。
通信装置403は、無線通信または有線通信を用いてARグラス30と通信する。本実施形態において、通信装置403は、ARグラス30の通信装置323と同方式の近距離無線通信を用いて通信装置323(図3参照)と通信する。また、通信装置403は、無線通信または有線通信を用いて情報提供サーバ20と通信する。本実施形態において、通信装置403は、通信網Nに接続可能なインターフェースを備え、通信網Nを介して情報提供サーバ20の通信装置203(図5参照)と通信する。
記憶装置405は、処理装置406が読み取り可能な記録媒体である。記憶装置405は、例えば、不揮発性メモリーと揮発性メモリーとを含む。不揮発性メモリーは、例えば、ROM、EPROMおよびEEPROMである。揮発性メモリーは、例えば、RAMである。記憶装置405は、プログラムPG2を記憶する。プログラムPG2は、端末装置40を動作させるためのプログラムである。
処理装置406は、1または複数のCPUを含む。1または複数のCPUは、1または複数のプロセッサの一例である。プロセッサおよびCPUの各々は、コンピュータの一例である。
処理装置406は、記憶装置405からプログラムPG2を読み取る。処理装置406は、プログラムPG2を実行することによって、動作制御部410として機能する。動作制御部410は、DSP、ASIC、PLDおよびFPGA等の回路によって構成されてもよい。
動作制御部410は、端末装置40の動作を制御する。本実施形態では、動作制御部410は、ARグラス30から受信した撮像画像情報、測定形状情報および位置情報を、情報提供サーバ20に送信する。
A-4.情報提供サーバ20
図5は、情報提供サーバ20の構成を示すブロック図である。情報提供サーバ20は、入力装置201と、表示装置202と、通信装置203と、記憶装置205と、処理装置206と、バス207とを含む。入力装置201と、表示装置202と、通信装置203と、記憶装置205と、処理装置206とは、情報を通信するためのバス207によって相互に接続される。バス207は、単一のバスを用いて構成されてもよいし、装置間ごとに異なるバスを用いて構成されてもよい。
図5は、情報提供サーバ20の構成を示すブロック図である。情報提供サーバ20は、入力装置201と、表示装置202と、通信装置203と、記憶装置205と、処理装置206と、バス207とを含む。入力装置201と、表示装置202と、通信装置203と、記憶装置205と、処理装置206とは、情報を通信するためのバス207によって相互に接続される。バス207は、単一のバスを用いて構成されてもよいし、装置間ごとに異なるバスを用いて構成されてもよい。
入力装置201は、情報処理システム1の管理者が行う操作を受け付ける機器である。例えば、入力装置201は、キーボード、タッチパッド、タッチパネルまたはマウス等のポインティングデバイスを含んで構成される。入力装置201がタッチパネルを含む場合、入力装置201は表示装置202を兼ねてもよい。
表示装置202は、画像を表示するデバイスである。表示装置202は、処理装置206の制御のもとで各種の画像を表示する。画像は文字情報を含んでもよい。例えば、液晶表示パネルおよび有機EL表示パネル等の各種の表示パネルが表示装置202として好適に利用される。
通信装置203は、無線通信または有線通信を用いて端末装置40(図1および図4参照)と通信する。本実施形態において、通信装置203は、通信網Nに接続可能なインターフェースを備え、通信網Nを介して端末装置40と通信する。
記憶装置205は、処理装置206が読み取り可能な記録媒体である。記憶装置205は、例えば、不揮発性メモリーと揮発性メモリーとを含む。不揮発性メモリーは、例えば、ROM、EPROMおよびEEPROMである。揮発性メモリーは、例えば、RAMである。記憶装置205は、プログラムPG3と、物体特定用データベースDB1と、メッセージ情報データベースDB2とを記憶する。これらデータベースの詳細は後述する。図5中、「データベース」の語を「DB」と表記する。プログラムPG3は、情報提供サーバ20を動作させるためのプログラムである。
処理装置206は、1または複数のCPUを含む。1または複数のCPUは、1または複数のプロセッサの一例である。プロセッサおよびCPUの各々は、コンピュータの一例である。
処理装置206は、記憶装置205からプログラムPG3を読み取る。処理装置206は、プログラムPG3を実行することによって、取得部210、特定部211、選択部212および供給部213として機能する。取得部210、特定部211、選択部212および供給部213のうち少なくとも1つは、DSP、ASIC、PLDおよびFPGA等の回路によって構成されてもよい。取得部210、特定部211、選択部212および供給部213の詳細は後述する。
A-5.物体特定用データベースDB1
次に、物体特定用データベースDB1について説明する。物体特定用データベースDB1は、後述する特定部211が行う商品名Bの特定に利用される。物体特定用データベースDB1は、測定形状情報または撮像画像情報の少なくとも一方と、商品名Bとを対応付けるデータベースである。物体特定用データベースDB1には、少なくともメッセージ情報データベースDB2に商品名Bが登録されている商品Pが登録されているものとする。後述する図7のメッセージ情報データベースDB2の例に従えば、物体特定用データベースDB1には、少なくとも「AAソーダ」に関する情報と「BBスナック」に関する情報が含まれる。
次に、物体特定用データベースDB1について説明する。物体特定用データベースDB1は、後述する特定部211が行う商品名Bの特定に利用される。物体特定用データベースDB1は、測定形状情報または撮像画像情報の少なくとも一方と、商品名Bとを対応付けるデータベースである。物体特定用データベースDB1には、少なくともメッセージ情報データベースDB2に商品名Bが登録されている商品Pが登録されているものとする。後述する図7のメッセージ情報データベースDB2の例に従えば、物体特定用データベースDB1には、少なくとも「AAソーダ」に関する情報と「BBスナック」に関する情報が含まれる。
図6は、物体特定用データベースDB1の一例と示す説明図である。物体特定用データベースDB1は、複数のレコードEを有する。図6に示す物体特定用データベースDB1は、3つのレコードE1~E3を含む。1つのレコードEは、商品名Bと、基準形状情報502または基準画像情報504の少なくとも一方とを対応付ける。1つのレコードEにおいて、商品名Bに対して、基準形状情報502または基準画像情報504のいずれか一方のみが対応付けられていてもよい。
商品名Bは、商品Pの種別を示す種別情報である。商品Pは物体の一例であり、商品名Bは物体の種別を示す種別情報の一例である。具体的には、レコードE1の商品名Bは「AAソーダ」であり、レコードE2の商品名Bは「BBスナック」であり、レコードE3の商品名Bは「GGジュース」である。本実施形態では、商品Pの種別は商品名Bで識別される。これに限らず、例えば英数字等が配列されたコードによって商品Pの種別が識別されてもよい。
基準形状情報502は、商品名Bごとに定められた基準物体の3次元形状を示す情報である。基準形状情報502は、例えば3Dスキャナを用いて基準物体を3Dスキャンした結果を示す。図6では、基準形状情報502は、所定の方式で基準物体を3次元スキャンした結果、出力されたデータのデータ名を示している。例えばレコードE1の基準形状情報502である「aaa.stp」は、工場で生産されたAAソーダの中から1本を基準物体として選択し、3Dスキャナで3Dスキャンした結果、出力されたデータである。
基準画像情報504は、商品名Bごとに定められた基準物体の外観を撮像して得られた画像である。基準画像情報504は、第2画像の一例である。図6では、基準画像情報504は、基準物体を撮像した結果、出力されたデータのデータ名を示している。なお、基準画像情報504は、基準物体を異なる方向から撮像した複数の画像を含んでいてもよい。例えばレコードE1の基準画像情報504である「aaa.jpg」は、工場で生産されたAAソーダの中から1本を基準物体として選択し、撮像装置で撮像した結果、出力されたデータである。
後述する特定部211は、基準形状情報502と測定形状情報、および、基準画像情報504と撮像画像情報とを照合して、測定形状情報および撮像画像情報が示す商品Pの商品名Bを特定する。本実施形態のように、撮像画像情報と測定形状情報とを用いて物体を識別することによって、商品Pの種別の特定精度が向上する。例えば、撮像画像情報のみではポスターに写る商品Pが実物の商品Pと誤認識される可能性がある。測定形状情報を用いることで、ポスター画像のような平面状の像は商品P(物体)として認識されなくなり、例えばメッセージ情報Mが不適切な状況で出力されるのを防止することができる。また、例えば商品Pの形状が識別力のない形状(例えば汎用的なピロー包装袋など)の場合、測定形状情報のみでは物体の識別情報を得るのは困難である。この場合も、測定形状情報とともに撮像画像情報を用いることによって商品Pの種別が正確に特定される。一方で、物体特定用データベースDB1において、商品名Bに基準形状情報502または基準画像情報504のうちいずれか一方のみが対応付けられている場合がある。商品名Bに対応付けられているのが基準形状情報502の場合、特定部211は、基準形状情報502と測定形状情報とを用いて商品名Bを特定する。商品名Bに対応付けられているのが基準画像情報504の場合、特定部211は、基準画像情報504と撮像画像情報とを用いて商品名Bを特定する。
なお、例えば飲料のように複数のサイズを有する商品Pの場合は、サイズ別に商品名Bが設定されてもよい。例えば「AAソーダ」に、500MLペットボトル入りの商品Pと、2Lペットボトル入りの商品Pとがあるものとする。この場合、2つの商品Pに対して、「AAソーダ 500MLペットボトル」と「AAソーダ 2Lペットボトル」のような別々の商品名Bが設定されてもよいし、2つの商品Pをまとめて「AAソーダ」の商品名Bが設定されてもよい。
また、例えば同一カテゴリに属する複数の商品Pに対して1つの種別情報(商品名B)が設定されてもよい。例えば「AAソーダ」の基準形状情報502および基準画像情報504と、「GGジュース」の基準形状情報502および基準画像情報504とが、「清涼飲料水」という種別情報に対応付けられてもよい。
A-6.メッセージ情報データベースDB2
次に、メッセージ情報データベースDB2の詳細について説明する。メッセージ情報データベースDB2は、後述する選択部212が行うメッセージ情報Mの選択に利用される。メッセージ情報データベースDB2は、商品名Bと、関連情報Rと、メッセージ情報Mとを対応付ける。メッセージ情報データベースDB2に記憶されている商品名Bは、ARグラス30でメッセージ情報Mを出力するトリガーとなる商品P(物体)の種別を示す。
次に、メッセージ情報データベースDB2の詳細について説明する。メッセージ情報データベースDB2は、後述する選択部212が行うメッセージ情報Mの選択に利用される。メッセージ情報データベースDB2は、商品名Bと、関連情報Rと、メッセージ情報Mとを対応付ける。メッセージ情報データベースDB2に記憶されている商品名Bは、ARグラス30でメッセージ情報Mを出力するトリガーとなる商品P(物体)の種別を示す。
一般的なAR技術では、商品名Bとメッセージ情報Mとが1対1で対応付けられる。これに対して、本実施形態では、商品名Bと関連情報Rとの組に対してメッセージ情報Mが対応付けられている。関連情報Rは、商品Pが存在する位置における環境に関する環境情報および後述する特定部211が商品Pの種別を特定した時刻を示す時刻情報のうち少なくとも一つの情報と、商品Pが存在する位置を示す位置情報とを含む。商品名Bと関連情報Rとに対してメッセージ情報Mが対応付けられることによって、メッセージ情報Mを出力する際の条件がより詳細に設定され得る。よって、ユーザに対してより有益な情報が提供され得る。
なお、本実施形態では、商品Pが存在する位置は、商品Pが視界に入っているユーザが装着するウェアラブル装置10の位置、すなわちGPS装置326を有するARグラス30の位置に近似される。
図7は、メッセージ情報データベースDB2の一例を示す説明図である。メッセージ情報データベースDB2は、複数のレコードDを有する。図7に示すメッセージ情報データベースDB2は、6つのレコードD1~D6を含む。一つのレコードDは、商品名B、位置情報601、出力条件情報602、およびメッセージ情報Mを対応付ける。位置情報601および出力条件情報602が、関連情報Rに対応する。
商品名Bは、商品Pの種別を示す。具体的には、レコードD1~D4の商品名Bは「AAソーダ」であり、レコードD5の商品名Bは「BBスナック」である。
位置情報601は、商品Pが位置する場所を特定する。図7の例では、位置情報として施設名が示されている。具体的には、レコードD1およびD2の位置情報601は「CCマートDD支店」であり、レコードD3~D5の位置情報601は「CCマートEE支店」である。「CCマートDD支店」と「CCマートEE支店」は、同一のチェーンに属する異なる支店であり、異なる場所に位置している。
図7の例では、位置情報として施設名が示されている。これに限らず、位置情報は、例えば緯度経度情報であってもよい。
出力条件情報602は、メッセージ情報Mを出力する条件を示す。第1実施形態では、出力条件情報602は、商品Pが存在する位置における環境に関する環境情報および後述する特定部211が商品Pの種別を特定した時刻を示す時刻情報のうち少なくとも一つの情報である。環境情報は、一例として、気象情報であってもよい。気象情報とは、晴れ、曇り等の天気、降水の有無、気温、湿度、風向風速などが挙げられる。商品Pが建物内に位置する場合、気温とは、商品Pが位置する建物内の室温であってもよいし、建物外の外気温であってもよい。
また、時刻情報は、商品Pが存在する位置における時刻を示す。情報提供サーバ20が置かれた位置における現地時刻と、商品Pが存在する位置における現地時刻とで時差が生じる場合があるが、本実施形態では、出力条件情報602における時刻情報は、商品Pが存在する位置における現地時刻を示すものとする。
具体的には、レコードD1の出力条件情報602は、時刻情報である「時刻10:00~15:59」である。レコードD2の出力条件情報602は、時刻情報である「時刻22:00~5:59」である。レコードD3の出力条件情報602は、環境情報(気象情報)である「気温30℃以上」である。レコードD4の出力条件情報602は、環境情報である「気温15℃未満」である。レコードD5の出力条件情報602は、他の出力条件に当てはまらない場合を示す「上記以外」である。レコードD6の出力条件情報602は、環境情報である「気温15℃未満」である。
図7では、出力条件情報602は1種類の条件で構成されているが、出力条件情報602に2種類以上の条件が含まれていてもよい。例えば、「時刻10:00~15:59」かつ「気温30℃以上」という時刻情報と気象情報とが掛け合わされた出力条件情報602であってもよい。また、出力条件情報602は、環境情報は気象情報に限らず、例えば周辺の混雑度合い等であってもよい。
メッセージ情報Mは、ARグラス30で出力する情報である。図7では、メッセージ情報Mが、主にテキスト情報である場合を示している。テキスト情報は、例えば商品Pの購入特典、商品Pの栄養表示等であってもよい。また、メッセージ情報Mは、動画、静止画または音声情報等であってもよい。この場合、図7では動画、静止画または音声情報のファイル名を表記する。
具体例には、レコードD1のメッセージ情報Mは「今なら10%オフ」というテキスト情報である。テキスト情報は文字としてARグラス30に表示される。レコードD2のメッセージ情報Mは「aaa.mp4」である。レコードD2は、メッセージ情報Mとして動画データ「aaa.mp4」が再生されることを示す。レコードD3のメッセージ情報Mは「2本購入で1本プレゼント」というテキスト情報である。レコードD4のメッセージ情報Mは「BBスナックと同時購入で50円引き」というテキスト情報である。レコードD5のメッセージ情報Mは「原材料名・栄養表示.jpg」である。レコードD5は、メッセージ情報Mとして原材料名の表示および栄養表示を含む静止画像が表示されることを示す。レコードD6のメッセージ情報Mは「AAソーダと同時購入で50円引き」というテキスト情報である。
なお、メッセージ情報データベースDB2には、メッセージ情報Mとともに、メッセージ情報Mを出力する際の設定情報が記憶されていてもよい。設定情報は、例えばメッセージ情報Mがテキスト情報である場合に、テキスト情報を表示するためのフォントの種類、フォントの大きさ、フォントの色などを指定する。また、設定情報は、ARグラス30を装着したユーザの視界におけるメッセージ情報Mの表示位置を含んでいてもよい。
メッセージ情報データベースDB2への各種情報の登録は、例えば商品Pの製造メーカーの営業担当者が行ってもよいし、商品Pを販売する販売店のオーナーまたは営業担当者が行ってもよい。メッセージ情報データベースDB2への登録担当者は、例えば自身が使用する情報処理装置から通信網Nを介してメッセージ情報データベースDB2にアクセスし、必要に応じてメッセージ情報データベースDB2の内容を更新する。メッセージ情報データベースDB2の更新により、ユーザに出力するメッセージ情報Mはリアルタイムに変更され得る。よって、例えばARグラス30を用いた商品Pの販売促進がより効果的に行われ得る。
A-7.処理装置206の詳細
上述のように、処理装置206は、プログラムPG3を実行することによって、取得部210、特定部211、選択部212および供給部213として機能する。以下、各機能部の詳細について説明する。
上述のように、処理装置206は、プログラムPG3を実行することによって、取得部210、特定部211、選択部212および供給部213として機能する。以下、各機能部の詳細について説明する。
取得部210は、ARグラス30から撮像画像情報、測定形状情報および位置情報を取得する。上述のように、撮像画像情報、測定形状情報および位置情報は、ARグラス30から端末装置40に送信され、更に端末装置40から情報提供サーバ20に送信される。取得部210は、通信装置203が受信した撮像画像情報、測定形状情報および位置情報を取得する。
また、取得部210は、必要に応じて、ARグラス30の位置、すなわちARグラス30から取得した位置情報に対応する位置における気象情報を取得する。気象情報は、例えば図示しない気象情報提供サーバから取得されてもよい。気象情報提供サーバは、例えば各地に設置された気象観測所における観測値を、通信網Nを介して取得する。また、気象情報提供サーバは、各気象観測所における観測値に基づいて、任意の位置における気象状況を予測し、当該任意の位置における気象情報を情報提供サーバ20等に提供する。また、取得部210は、ARグラス30で気象情報を検出可能な場合には、ARグラス30から気象情報を取得してもよい。ARグラス30で気象情報を検出可能な場合とは、例えばARグラス30に温度計、湿度計または風向風速計が搭載されている場合などである。
また、取得部210は、必要に応じて、ARグラス30の位置、すなわちARグラス30から取得した位置情報に対応する位置における現在時刻、すなわち現地時刻情報を取得する。取得部210は、例えばARグラス30から取得した位置情報に基づいて現地時刻情報を算出してもよい。
特定部211は、ユーザの視界に存在する商品Pの種別である商品名Bを特定し、当該特定した種別を示す商品名情報を出力する。本実施形態では、特定部211は、取得部210で取得された測定形状情報および撮像画像情報を用いて商品名Bを特定する。より詳細には、特定部211は、物体特定用データベースDB1の各レコードEの基準形状情報502と測定形状情報、および各レコードEの基準画像情報504と撮像画像情報とを比較する。基準形状情報502と測定形状情報との一致度が第1所定値以上、かつ基準画像情報504と撮像画像情報との一致度が第2所定値以上となるレコードEがある場合、当該レコードEの商品名Bが、ユーザの視界に存在する商品Pの商品名Bであると特定する。
以下、特定部211で検出された商品名Bを特定商品名BXという。なお、特定部211は、ユーザの視界にある商品Pの商品名Bが検出できなかった場合には、「該当商品なし」を示す情報を出力する。
すなわち、特定部211は、商品Pの3次元形状を測定した結果を示す測定形状情報と、商品名Bごとに定められた基準物体の3次元形状を示す基準形状情報502とを比較した第1比較結果に基づいて、商品Pの商品名Bを特定する。また、特定部211は、商品Pを撮像することにより得られた撮像画像情報と、基準物体の外観を撮像することにより得られた基準画像情報504を比較した第2比較結果とに基づいて、商品名Bを特定する。特定部211は、第1比較結果および第2比較結果の両方を用いて商品名Bを特定してもよい。また、特定部211は、第1比較結果または第2比較結果のいずれか一方を用いて商品名Bを特定してもよい。
なお、特定部211は、AI(Artificial Intelligence)を用いて商品名Bの特定を行ってもよい。この場合、例えば記憶装置205に、商品Pに関する学習済みモデルを記憶しておく。学習済みモデルは、例えば畳み込みニューラルネットワークを用いたディープラーニングを用いて、商品Pの形状(例えば基準形状情報502に基づいて特定される形状)または外観(例えば基準画像情報504に基づいて特定される外観)の少なくとも一方と、商品名Bとを対応付けた学習モデルである。学習済みモデルは、入力情報として測定形状情報または撮像画像情報の少なくとも一方が入力されると、出力情報として商品名Bを出力する。
選択部212は、特定商品名BXと商品Pに関連する関連情報とに基づいて、複数のメッセージ情報Mの中から一のメッセージ情報Mを選択する。より詳細には、選択部212は、メッセージ情報データベースDB2を参照して、特定商品名BXを含むレコードDを検索する。図7を例にすると、特定商品名BXが「AAソーダ」である場合、「AAソーダ」を含むレコードDはレコードD1~D5である。
次に、選択部212は、特定商品名BXを含むレコードDの位置情報601を参照して、ARグラス30の位置情報と一致する、または、ARグラス30の位置情報を含むレコードDがあるか否かを判断する。上述のように、ARグラス30の位置は、特定商品名BXに基づいて識別される商品Pが存在する位置で近似される。
図7を例にすると、特定商品名BXである「AAソーダ」に対応付けられているレコードD1~D5の位置情報601は、「CCマートDD支店」および「CCマートEE支店」である。ARグラス30の位置が「CCマートDD支店」または「CCマートEE支店」でない場合には、該当レコードはないので、選択部212は処理を終了する。この場合、メッセージ情報Mは選択されず、ARグラス30におけるメッセージ情報Mの出力は行われない。
選択部212は、ARグラス30の位置情報と一致する位置情報601を含むレコードDがある場合、当該レコードDの出力条件情報602を参照し、出力条件が成立するか否かを判断する。出力条件が成立するか否かは、取得部210が取得した環境情報または特定部211が商品名Bを特定した時刻を示す時刻情報に基づいて判断される。選択部212は、必要に応じて取得部210に環境情報の取得を依頼する。
出力条件が成立する場合には、当該出力条件情報602を含むレコードDのメッセージ情報Mが、ウェアラブル装置10に提供されるメッセージ情報Mとして特定される。また、出力条件が成立しない場合には、ウェアラブル装置10に提供されるメッセージ情報Mが特定されず、ARグラス30におけるメッセージ情報Mの出力は行われない。
図7を例にすると、例えば特定商品名BXが「AAソーダ」であり、ARグラス30が「CCマートDD支店」に位置する場合、レコードD1およびD2が判断対象となる。レコードD1およびD2における出力条件情報602は、時刻に関する条件なので、選択部212は、特定部211が商品名Bを特定した時刻(現在時刻とほぼ同視できる)に基づいて、出力条件が成立するかを判断する。例えば特定部211が商品名Bを特定した時刻が10:00の場合には、レコードD1の出力条件と一致する。よって、レコードD1のメッセージ情報M(「今なら10%オフ」)が選択される。一方、例えば特定部211が商品名Bを特定した時刻が9:55の場合には、レコードD1およびD2のいずれの出力条件とも一致しない。よって、メッセージ情報Mは選択されない。なお、情報提供サーバ20の位置における時刻と、商品Pが存在する位置における時刻とに時差がある場合、特定部211が商品名Bを特定した時刻は、商品Pが存在する位置における現地時刻に変換された上で出力条件が成立するかが判断される。
供給部213は、選択部212が選択した一のメッセージ情報Mを出力装置に供給する。本実施形態において、出力装置はARグラス30の投影装置321およびスピーカ322である。よって供給部213は、ARグラス30を含むウェアラブル装置10に、メッセージ情報Mを送信する。より詳細には、供給部213は、通信装置203を介して端末装置40に対してメッセージ情報Mを送信する。端末装置40は、供給部213から送信されたメッセージ情報Mを、通信装置403を介してARグラス30に送信する。ARグラス30の処理装置328は、受信したメッセージ情報Mに基づいて、投影装置321およびスピーカ322を制御し、メッセージ情報Mを出力する。メッセージ情報Mの出力態様の一例を、図11に示す。
なお、本実施形態において、一のメッセージ情報Mとは、メッセージ情報データベースDB2に含まれる複数のレコードD1~D6のうち、1つのレコードDのメッセージ情報M、との意味である。例えば、一のメッセージ情報Mに複数の文が含まれていたり、一のメッセージ情報Mにテキスト情報および動画など異なる種類の情報が含まれていたりしてもよい。
A-8.処理装置206の動作
図8は、処理装置206の動作を示すフローチャートである。処理装置206は、取得部210として機能し、ARグラス30から送信された測定形状情報、撮像画像情報および位置情報を取得する(ステップS101)。処理装置206は、特定部211として機能し、ユーザの視界に存在する商品Pの商品名Bを特定する(ステップS102)。具体的には、処理装置206は、物体特定用データベースDB1に記憶された基準形状情報502と測定形状情報との照合、または物体特定用データベースDB1に記憶された基準画像情報504と撮像画像情報との照合の少なくともいずれかを実行し、ユーザの視界に位置する商品Pの商品名Bを特定する。上述のように、特定部211が特定した商品名Bを特定商品名BXという。なお、ユーザの視界に商品Pがない場合、処理装置206は、商品Pがユーザの視界に入るまで待機する。
図8は、処理装置206の動作を示すフローチャートである。処理装置206は、取得部210として機能し、ARグラス30から送信された測定形状情報、撮像画像情報および位置情報を取得する(ステップS101)。処理装置206は、特定部211として機能し、ユーザの視界に存在する商品Pの商品名Bを特定する(ステップS102)。具体的には、処理装置206は、物体特定用データベースDB1に記憶された基準形状情報502と測定形状情報との照合、または物体特定用データベースDB1に記憶された基準画像情報504と撮像画像情報との照合の少なくともいずれかを実行し、ユーザの視界に位置する商品Pの商品名Bを特定する。上述のように、特定部211が特定した商品名Bを特定商品名BXという。なお、ユーザの視界に商品Pがない場合、処理装置206は、商品Pがユーザの視界に入るまで待機する。
処理装置206は、選択部212として機能し、特定商品名BXがメッセージ情報データベースDB2に登録されているか否かを判断する(ステップS103)。具体的には、処理装置206は、メッセージ情報データベースDB2の商品名Bに、特定商品名BXを含むレコードDがあるか否かを判断する。特定商品名BXがメッセージ情報データベースDB2に登録されていない場合(ステップS103:NO)、処理装置206は、ステップS101に処理を戻し、以降の処理を繰り返す。
特定商品名BXがメッセージ情報データベースDB2に登録されている場合(ステップS103:YES)、処理装置206は、選択部212として機能し、特定商品名BXを含むレコードDに、ARグラス30の位置情報を含むレコードDがあるか否かを判断する(ステップS104)。より詳細には、処理装置206は、特定商品名BXを含むレコードDの位置情報601を参照して、ARグラス30の位置情報と一致する、またはARグラス30の位置情報を含む位置情報を記憶するレコードDがあるかを判断する。ARグラス30の位置情報を含むレコードDがない場合(ステップS104:NO)、処理装置206は、ステップS101に処理を戻し、以降の処理を繰り返す。
ARグラス30の位置情報を含むレコードDがある場合(ステップS104:YES)、処理装置206は、取得部210として機能し、ARグラス30の位置情報を含むレコードDの出力条件に対応する環境情報または時刻情報を取得する(ステップS105)。より詳細には、処理装置206は、ARグラス30の位置情報を含むレコードDの出力条件情報602を参照して、出力条件の判定に必要な情報の種類(例えば、気温情報、時刻情報など)を判別し、必要な情報を取得する。
環境情報または時刻情報を取得すると、処理装置206は、選択部212として機能し、環境情報または時刻情報が示す状態が、出力条件と一致するレコードDがあるか否かを判断する(ステップS106)。出力条件と一致するレコードDがない場合(ステップS106:NO)、処理装置206は、ステップS101に処理を戻し、以降の処理を繰り返す。
出力条件と一致するレコードがある場合(ステップS106:YES)、処理装置206は、供給部213として機能し、出力条件と一致したレコードに対応するメッセージ情報Mを、ARグラス30に送信する(ステップS107)。メッセージ情報Mの送信を受けたARグラス30は、投影装置321およびスピーカ322を用いてメッセージ情報Mを出力する。その後、処理装置206は、ステップS101に処理を戻し、以降の処理を繰り返す。
A-9.第1実施形態のまとめ
以上説明したように、第1実施形態によれば、情報提供サーバ20は、ユーザの視界に存在する商品Pの商品名Bと、商品Pに関連する関連情報とに基づいて、複数のメッセージ情報Mの中から一のメッセージ情報Mを選択する。関連情報には、商品Pが存在する位置における環境に関する環境情報および商品名Bが特定された時刻を示す時刻情報のうち少なくとも一つの情報と、商品Pが存在する位置を示す位置情報が含まれる。よって、商品Pの位置情報を含む関連情報に合わせてメッセージ情報Mの内容が変更される。このため、商品名Bに対して単一のメッセージ情報Mが対応付けられている場合と比較して、ユーザにとってより有益な情報が提供され得る。
以上説明したように、第1実施形態によれば、情報提供サーバ20は、ユーザの視界に存在する商品Pの商品名Bと、商品Pに関連する関連情報とに基づいて、複数のメッセージ情報Mの中から一のメッセージ情報Mを選択する。関連情報には、商品Pが存在する位置における環境に関する環境情報および商品名Bが特定された時刻を示す時刻情報のうち少なくとも一つの情報と、商品Pが存在する位置を示す位置情報が含まれる。よって、商品Pの位置情報を含む関連情報に合わせてメッセージ情報Mの内容が変更される。このため、商品名Bに対して単一のメッセージ情報Mが対応付けられている場合と比較して、ユーザにとってより有益な情報が提供され得る。
また、第1実施形態によれば、情報提供サーバ20は、商品Pの3次元形状を測定した結果を示す測定形状情報と、基準物体の3次元形状を示す基準形状情報502とを比較して商品名Bを特定する。よって、撮像画像情報のみが用いられるのと比較して、例えばポスターの写真を実際の物体として認識するような誤認識が防止され、不要な情報の表示が回避される。
また、第1実施形態によれば、情報提供サーバ20は、測定形状情報と基準形状情報502とを比較するとともに、ユーザの視界内にある商品Pを撮像した撮像画像情報と、基準物体の外観を撮像した基準画像情報504とを比較することで、商品名Bを特定する。よって、例えば商品Pが、袋入りのスナック菓子のように形状のみでは識別性のない物体である場合でも正しく検出される。
また、第1実施形態によれば、情報提供サーバ20は、ユーザの頭部に装着されたARグラス30が有する3Dスキャナ325から測定形状情報を取得し、ARグラス30にメッセージ情報Mを送信する。よって、ユーザの視野にある商品Pがリアルタイムかつ正確に検出されるとともに、ユーザ周辺の状態に適したメッセージ情報Mが提供される。
B.第2実施形態
以下、本発明の第2実施形態について説明する。なお、以下の説明では、説明の簡略化のため、第1実施形態と同一の構成要素に対しては、同一の符号を用いるとともに、その機能の説明を省略することがある。また、以下の説明では、説明の簡略化のため、主として、第2実施形態が、第1実施形態に比較して相違する点について説明する。
以下、本発明の第2実施形態について説明する。なお、以下の説明では、説明の簡略化のため、第1実施形態と同一の構成要素に対しては、同一の符号を用いるとともに、その機能の説明を省略することがある。また、以下の説明では、説明の簡略化のため、主として、第2実施形態が、第1実施形態に比較して相違する点について説明する。
第1実施形態では、関連情報は、商品Pが存在する位置における環境に関する環境情報および特定部211が商品名Bを特定した時刻を示す時刻情報のうち少なくとも一つの情報と、商品Pが存在する位置を示す位置情報であった。第2実施形態では、関連情報が、上記情報に加えて、商品Pの表面のうちユーザが視認する領域に関する領域情報を含む場合について説明する。すなわち、第2実施形態では、商品Pの表面のうちユーザが視認する領域に関する領域情報、環境情報および時刻情報のうち少なくとも一つの情報と、位置情報とを含む。
図10は、商品Pの表面の領域を模式的に示す説明図である。図10では、商品Pとして、商品名Bが「AAソーダ」であるペットボトル飲料70が例示されている。ペットボトル飲料70は、蓋72と本体74とを有し、本体74にラベル78が貼付されている。ペットボトル飲料70のラベル78に全周に渡って同じ表示がなされることはほとんどない。よって、ユーザが視認するペットボトル飲料70の表面の領域は、例えばラベル78の表示に基づいて識別することができる。
一般に、ペットボトル飲料70のラベル78には、商品名表示702が大きく表記された第1面710と、原材料、製造者、栄養成分表等の商品情報704およびバーコード表示706が表記された第2面720とを有する。ユーザが装着するARグラス30の撮像装置324の撮像画像に写るペットボトル飲料70のラベル78が第1面710を向いている場合、ユーザはペットボトル飲料70の表面のうち第1領域F1を視認しているといえる。また、撮像画像に写るペットボトル飲料70のラベル78が第2面720を向いている場合、ユーザはペットボトル飲料70の表面のうち第2領域F2を視認しているといえる。なお、ユーザが商品Pの表面のどの領域を視認しているかは、例えば撮像画像情報に基づいて判定され得る。
なお、ユーザが視認するペットボトル飲料70の表面の領域は、第1領域F1または第2領域F2に限られない。ユーザは、例えば第1面710と第2面720の境界を含む様々な角度からペットボトル飲料70を視認可能であり、領域をより細かく定義してもよい。本実施形態では、説明の便宜上、ユーザが視認するペットボトル飲料70の表面の領域が、第1領域F1または第2領域F2のいずれかであるものとして説明する。
図9は、メッセージ情報データベースDB2の一例を示す説明図である。第1実施形態と同様に、メッセージ情報データベースDB2には、商品名Bと、位置情報601と、出力条件情報602と、メッセージ情報Mとが含まれる。図9に示すメッセージ情報データベースDB2は、4つのレコードD1~D4を含む。
図9に示すメッセージ情報データベースDB2において、レコードD1~D4の商品名Bは「AAソーダ」である。また、レコードD1およびD2の位置情報601は「CCマートDD支店」であり、レコードD3およびD4の位置情報601は「CCマートEE支店」である。
また、第2実施形態では、出力条件情報602は、商品Pの表面のうちユーザが視認する領域に関する領域情報である。具体的には、レコードD1およびD3の出力条件情報602は「第1領域F1」であり、レコードD2およびD4の出力条件情報602は「第2領域F2」である。なお、第1実施形態と同様、出力条件情報として複数種類の状態を組み合わせてもよい。例えば、「第1領域F1」かつ「時刻10:00~15:59」という出力条件が設定されてもよい。
例えば、ユーザが「CCマートDD支店」において、ペットボトル飲料70である「AAソーダ」が視界に入ったものとする。この状態は、図9に示すメッセージ情報データベースDB2のレコードD1またはD2に該当する。
ユーザがペットボトル飲料70のラベル78の第1面710を見ると、ユーザが視認するペットボトル飲料70の表面の領域は、第1領域F1となる。すなわち、レコードD1の出力条件が成立する。この場合、ARグラス30には、レコードD1に対応するメッセージ情報Mが送信され、ARグラス30は送信されたメッセージ情報Mを表示する。具体的には、図11に示すように、「今なら10%オフ」というテキストC1が表示される。
また、ユーザがペットボトル飲料70のラベル78の第2面720を見ると、ユーザが視認するペットボトル飲料70の表面の領域は、第2領域F2となる。すなわち、レコードD2の出力条件が成立する。この場合、ARグラス30には、レコードD2に対応するメッセージ情報Mが送信され、ARグラス30は送信されたメッセージ情報Mを表示する。具体的には、図12に示すように、AAソーダの原材料名および栄養表示を示すテキストC2が表示される。
例えばユーザがラベル78の第1面710を見ている場合、ユーザはその商品自体に興味を持っていると考えられる。このようなタイミングで、「10%オフ」など購入の動機となる情報を出力することで、ユーザが商品Pを購入する可能性を高めることができる。また、例えばユーザがラベル78の第2面720を見ている場合、その商品Pの原材料または栄養成分に興味を持っていると考えられる。このようなタイミングで、原材料および栄養成分を出力することで、ユーザは、商品選択の参考となる情報を得ることができる。よって、ユーザの利便性が向上する。
以上説明したように、第2実施形態によれば、商品Pの表面のうちユーザが視認する領域に関する領域情報に基づいて、メッセージ情報Mが選択される。よって、ユーザが商品Pに対してどのような興味を持っているかを考慮した情報提供が行われ、ARグラス30で出力するメッセージ情報Mの有益性が向上する。
なお、第1実施形態および第2実施形態では、ユーザの視界に存在する物体が商品Pである場合について説明したが、これに限らず、本発明は、大小様々な規模の物体に適用され得る。また、第1実施形態および第2実施形態では、メッセージ情報Mが、店舗で販売される商品Pの販売促進のために表示される情報であるものとしたが、メッセージ情報Mはこれに限らず、様々な情報が設定され得る。
例えば、物体が、テーマパークにおけるアトラクションの構造物であってもよい。この場合、テーマパークにおいて1つの構造物をユーザが見た際に、ユーザの位置、時間帯または気象条件によって異なるメッセージ情報Mが表示される。メッセージ情報Mは、例えばアトラクションの待ち時間またはアトラクションの説明などのテキスト情報であってもよいし、アトラクション内またはアトラクションの周辺で行われるショーを映した動画などであってもよい。または、例えば現実空間における構造物と重畳して、他の時間帯における構造物の外観(例えば夜間にライトアップされた構造物の外観など)の画像をメッセージ情報Mとして表示してもよい。
また、物体が、例えば博物館に展示された恐竜または動物の模型等であってもよい。この場合、ユーザが博物館において1つの模型を見た際に、ユーザの位置、時間帯または気象条件によって異なるメッセージ情報Mが表示される。メッセージ情報Mは、例えば模型が示す恐竜または動物の説明などのテキスト情報であってもよいし、模型が示す恐竜または動物の鳴き声などの音声情報などであってもよい。
すなわち、本発明は、商品Pの販売促進に限らず、例えば観光地における観光案内、施設における施設案内、展示物に対する説明等、様々な用途に適用可能である。
C:変形例
上述の実施形態における変形の態様を以下に示す。以下の変形の態様から任意に選択された2以上の態様を、相互に矛盾しない範囲において適宜に併合してもよい。
上述の実施形態における変形の態様を以下に示す。以下の変形の態様から任意に選択された2以上の態様を、相互に矛盾しない範囲において適宜に併合してもよい。
C1:第1変形例
第1実施形態および第2実施形態では、ARグラス30と端末装置40とが別体であった。これに限らず、例えばARグラス30が端末装置40の機能を有していてもよい。すなわち、ARグラス30の通信装置323を通信網Nに接続可能とし、ARグラス30から情報提供サーバ20に直接、位置情報、測定形状情報および撮像画像情報が送信されてもよい。なお、ARグラス30が端末装置40の機能を有する場合、タッチパネル401に代えて、コントローラまたはハンドトラッキング等の、他のユーザ入出力装置または他のユーザ入出力装置機能を設けてもよい。
第1実施形態および第2実施形態では、ARグラス30と端末装置40とが別体であった。これに限らず、例えばARグラス30が端末装置40の機能を有していてもよい。すなわち、ARグラス30の通信装置323を通信網Nに接続可能とし、ARグラス30から情報提供サーバ20に直接、位置情報、測定形状情報および撮像画像情報が送信されてもよい。なお、ARグラス30が端末装置40の機能を有する場合、タッチパネル401に代えて、コントローラまたはハンドトラッキング等の、他のユーザ入出力装置または他のユーザ入出力装置機能を設けてもよい。
第1変形例によれば、例えば、端末装置40を用いずに、ユーザにメッセージ情報Mの提供を行うことができる。
C2:第2変形例
第1実施形態および第2実施形態では、情報提供サーバ20が商品名Bの特定およびメッセージ情報Mの選択を行っていた。すなわち、情報提供サーバ20が、特定部211、選択部212、物体特定用データベースDB1およびメッセージ情報データベースDB2を有していた。これに限らず、例えば特定部211および物体特定用データベースDB1に対応する構成を備え商品名Bの特定を行う第1サーバと、選択部212およびメッセージ情報データベースDB2に対応する構成を備えメッセージ情報Mの選択を行う第2サーバとが設けられてもよい。
第1実施形態および第2実施形態では、情報提供サーバ20が商品名Bの特定およびメッセージ情報Mの選択を行っていた。すなわち、情報提供サーバ20が、特定部211、選択部212、物体特定用データベースDB1およびメッセージ情報データベースDB2を有していた。これに限らず、例えば特定部211および物体特定用データベースDB1に対応する構成を備え商品名Bの特定を行う第1サーバと、選択部212およびメッセージ情報データベースDB2に対応する構成を備えメッセージ情報Mの選択を行う第2サーバとが設けられてもよい。
この場合、例えば端末装置40は、測定形状情報および撮像画像情報を第1サーバに送信する。第1サーバは、測定形状情報および撮像画像情報を物体特定用データベースDB1に照合し、商品名Bの特定を行う。第1サーバは、商品名Bを検出すると、端末装置40に対して商品名Bを通知する。商品名Bの通知を受けた端末装置40は、商品名BとARグラス30の位置情報とを第2サーバに送信する。第2サーバは、商品名BとARグラス30の位置情報とをメッセージ情報データベースDB2に照合する。第2サーバは、商品名BとARグラス30の位置情報とが一致するレコードDがある場合、当該レコードDの出力条件情報に基づいて、ARグラス30の位置の環境情報または時刻情報を取得する。レコードDの出力条件情報とARグラス30の位置の環境情報または時刻情報とが一致する場合には、当該レコードDに対応するメッセージ情報Mを端末装置40に送信する。
第2変形例によれば、1つのサーバに処理負荷が集中するのを回避することができ、システムの安定性を向上させることができる。
C3:第3変形例
第1実施形態および第2実施形態では、情報提供サーバ20が商品名Bの特定を行っていた。すなわち、情報提供サーバ20が、特定部211および物体特定用データベースDB1を有していた。これに限らず、例えば端末装置40が特定部211および物体特定用データベースDB1を備えていてもよい。
第1実施形態および第2実施形態では、情報提供サーバ20が商品名Bの特定を行っていた。すなわち、情報提供サーバ20が、特定部211および物体特定用データベースDB1を有していた。これに限らず、例えば端末装置40が特定部211および物体特定用データベースDB1を備えていてもよい。
第3変形例によれば、端末装置40で商品名Bの特定を行うので、通信網Nを介して測定形状情報および撮像画像情報を送受信する必要がなくなり、システムにおける処理負荷を軽減することができる。
D:その他
(1)図3、図4、図5に例示された各機能は、ハードウェアおよびソフトウェアの任意の組み合わせによって実現される。各機能の実現方法は特に限定されない。各機能は、物理的または論理的に結合した1つの装置を用いて実現されてもよいし、物理的または論理的に分離した2つ以上の装置を直接的または間接的に(例えば、有線、無線などを用いて)接続することによって構成される装置を用いて実現されてもよい。各機能は、上記1つの装置または上記複数の装置にソフトウェアを組み合わせて実現されてもよい。
(1)図3、図4、図5に例示された各機能は、ハードウェアおよびソフトウェアの任意の組み合わせによって実現される。各機能の実現方法は特に限定されない。各機能は、物理的または論理的に結合した1つの装置を用いて実現されてもよいし、物理的または論理的に分離した2つ以上の装置を直接的または間接的に(例えば、有線、無線などを用いて)接続することによって構成される装置を用いて実現されてもよい。各機能は、上記1つの装置または上記複数の装置にソフトウェアを組み合わせて実現されてもよい。
(2)本明細書において、「装置」という用語は、回路、デバイスまたはユニット等の他の用語に読み替えられてもよい。
(3)第1実施形態、第2実施形態および第1変形例~第3変形例の各々において、記憶装置205、記憶装置327および記憶装置405は、CD-ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリー(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つによって構成されてもよい。また、プログラムは、電気通信回線を介してネットワークから送信されてもよい。
(4)第1実施形態、第2実施形態および第1変形例~第3変形例の各々は、LTE(Long Term Evolution)、LTE-A(LTA-Advanced)、SUPER 3G、IMT-Advanced、4G(4th generation mobile communication system)、5G(5th generation mobile communication system)、6th generation mobile communication system(6G)、xth generation mobile communication system(xG)(xは、例えば整数または小数)、FRA(Future Radio Access)、NR(new Radio)、New radio access(NX)、Future generation radio access(FX)、W-CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi-Fi(登録商標))、IEEE 802.16(WiMAX(登録商標))、IEEE 802.20、UWB(Ultra-WideBand)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステムおよびこれらに基づいて拡張、修正、作成、規定された次世代システムの少なくとも一つに適用されてもよい。また、複数のシステムが組み合わされて(例えば、LTEおよびLTE-Aの少なくとも一方と5Gとの組み合わせ等)適用されてもよい。
(5)第1実施形態、第2実施形態および第1変形例~第3変形例の各々において例示した処理手順、シーケンス、またはフローチャート等は、矛盾のない限り、順序を入れ替えてもよい。例えば、本明細書において説明した方法については、例示的な順序において様々なステップの要素を提示しており、提示した特定の順序に限定されない。
(6)第1実施形態、第2実施形態および第1変形例~第3変形例の各々において、入出力された情報等は特定の場所(例えば、メモリー)に保存されてもよいし、管理テーブルを用いて管理されてもよい。入出力される情報等は、上書き、更新、または追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。
(7)第1実施形態、第2実施形態および第1変形例~第3変形例の各々において、判定は、1ビットによって表される値(0か1か)に基づいて行われてもよいし、真偽値(Boolean:trueまたはfalse)に基づいて行われてもよいし、数値の比較(例えば、所定の値との比較)に基づいて行われてもよい。
(8)第1実施形態、第2実施形態および第1変形例~第3変形例の各々において例示したプログラムは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコードまたはハードウェア記述言語と呼ばれるか、他の名称によって呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順または機能等を意味するよう広く解釈されるべきである。また、ソフトウェア、または命令などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、有線技術(同軸ケーブル、光ファイバケーブル、ツイストペアおよびデジタル加入者回線(DSL)など)および無線技術(赤外線、マイクロ波など)の少なくとも一方を使用してウェブサイト、サーバ、または他のリモートソースから送信される場合、これらの有線技術および無線技術の少なくとも一方は、伝送媒体の定義内に含まれる。
(9)第1実施形態、第2実施形態および第1変形例~第3変形例の各々において説明した情報などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、情報などは、電圧、電流、電磁波、磁界、磁性粒子、光場、光子、またはこれらの任意の組み合わせにて表されてもよい。なお、本明細書において説明した用語および本明細書の理解に必要な用語は、同一のまたは類似する意味を有する用語と置き換えられてもよい。
(10)第1実施形態、第2実施形態および第1変形例~第3変形例の各々において、「システム」および「ネットワーク」という用語は、互換的に使用される。
(11)第1実施形態、第2実施形態および第1変形例~第3変形例の各々において、端末装置40は、移動局でもよい。移動局は、当業者によって、加入者局、モバイルユニット、加入者ユニット、ワイヤレスユニット、リモートユニット、モバイルデバイス、ワイヤレスデバイス、ワイヤレス通信デバイス、リモートデバイス、モバイル加入者局、アクセス端末、モバイル端末、ワイヤレス端末、リモート端末、ハンドセット、ユーザエージェント、モバイルクライアント、クライアント、またはいくつかの他の適切な用語を用いて称される場合もある。
(12)移動局は、送信装置、受信装置または通信装置などと呼ばれてもよい。移動局は、移動体に搭載されたデバイス、または移動体自体などであってもよい。移動体は、移動可能な物体を意味する。移動体の移動速度は任意である。移動体は、停止可能である。移動体は、例えば、車両、輸送車両、自動車、自動二輪車、自転車、コネクテッドカー、ショベルカー、ブルドーザー、ホイールローダー、ダンプトラック、フォークリフト、列車、バス、リヤカー、人力車、船舶(ship and other watercraft)、飛行機、ロケット、人工衛星、ドローン(登録商標)、マルチコプター、クアッドコプター、気球、およびこれらに搭載される物を含み、またこれらに限らない。移動体は、運行指令に基づいて自律走行する移動体であってもよい。移動体は、乗り物(例えば、車、飛行機など)であってもよいし、無人で動く移動体(例えば、ドローン、自動運転車など)であってもよし、ロボット(有人型または無人型)であってもよい。移動局は、必ずしも通信動作時に移動しない装置も含む。例えば、移動局は、センサなどのIoT(Internet of Things)機器であってもよい。
(13)第1実施形態、第2実施形態および第1変形例~第3変形例の各々において、「判断(determining)」または「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up、search、inquiry)(例えば、テーブル、データベースまたは別のデータ構造での探索)、確認(ascertaining)した事を「決定」したとみなす事などを含み得る。また、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリー中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「決定」したとみなす事を含み得る。つまり、「決定」は、何らかの動作を「決定」したとみなす事を含み得る。また、「決定」は、「想定する(assuming)」、「期待する(expecting)」、「みなす(considering)」などで読み替えられてもよい。
(14)第1実施形態、第2実施形態および第1変形例~第3変形例の各々において、「接続された(connected)」という用語、またはこれのあらゆる変形は、2またはそれ以上の要素間の直接的または間接的なあらゆる接続または結合を意味し、互いに「接続」または「結合」された2つの要素間に1またはそれ以上の中間要素が存在することを含むことができる。要素間の結合または接続は、物理的なものであっても、論理的なものであっても、或いはこれらの組み合わせであってもよい。例えば、「接続」は「アクセス」で読み替えられてもよい。本開示で使用する場合、2つの要素は、1またはそれ以上の電線、ケーブルおよびプリント電気接続の少なくとも一つを用いて、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域および光(可視および不可視の両方)領域の波長を有する電磁エネルギーなどを用いて、互いに「接続」または「結合」されると考えることができる。
(15)第1実施形態、第2実施形態および第1変形例~第3変形例の各々において、「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。
(16)本明細書において使用する「第1」および「第2」などの呼称を使用した要素へのいかなる参照も、それらの要素の量または順序を全般的に限定しない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本明細書において使用され得る。したがって、第1および第2の要素への参照は、2つの要素のみが採用され得ることまたは何らかの形において第1要素が第2要素に先行しなければならないことを意味しない。
(17)第1実施形態、第2実施形態および第1変形例~第3変形例の各々において「含む(include)」、「含んでいる(including)」およびそれらの変形が、本明細書あるいは特許請求の範囲において使用されている場合、これら用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。更に、本明細書あるいは特許請求の範囲において使用されている用語「または(or)」は、排他的論理和ではないことが意図される。
(18)本願の全体において、例えば、英語におけるa、anおよびtheのように、翻訳によって冠詞が追加された場合、本開示は、これらの冠詞の後に続く名詞が複数形であることを含んでもよい。
(19)本発明が本明細書中に説明した実施形態に限定されないことは当業者にとって明白である。本発明は、特許請求の範囲の記載に基づいて定まる本発明の趣旨および範囲を逸脱することなく修正および変更態様として実施できる。したがって、本明細書の記載は、例示的な説明を目的とし、本発明に対して何ら制限的な意味を有さない。また、本明細書に例示した態様から選択された複数の態様を組み合わせてもよい。
1…情報処理システム、10…ウェアラブル装置、20…情報提供サーバ、30…ARグラス、40…端末装置、201…入力装置、202…表示装置、203…通信装置、205…記憶装置、206…処理装置、210…取得部、211…特定部、212…選択部、213…供給部、321…投影装置、322…スピーカ、323…通信装置、324…撮像装置、325…3Dスキャナ、326…GPS装置、327…記憶装置、328…処理装置、DB1…物体特定用データベース、DB2…メッセージ情報データベース、N…通信網。
Claims (6)
- ユーザの視界に存在する物体の種別を特定し、当該特定した種別を示す種別情報を出力する特定部と、
前記種別情報と前記物体に関連する関連情報とに基づいて、複数のメッセージ情報の中から一のメッセージ情報を選択する選択部と、
前記選択された一のメッセージ情報を出力装置に供給する供給部と、を備え、
前記関連情報は、前記物体が存在する位置における環境に関する環境情報および前記特定部が前記物体の種別を特定した時刻を示す時刻情報のうち少なくとも一つの情報と、前記物体が存在する位置を示す位置情報とを含む、
情報処理装置。 - 前記関連情報は、前記物体の表面のうち前記ユーザが視認する領域に関する領域情報、前記環境情報および前記時刻情報のうち少なくとも一つの情報と、前記位置情報とを含む請求項1に記載の情報処理装置。
- 前記特定部は、前記物体の3次元形状を測定した結果を示す測定形状情報と、種別ごとに定められた基準物体の3次元形状を示す基準形状情報とを比較した第1比較結果に基づいて、前記物体の種別を特定する、
請求項1または2に記載の情報処理装置。 - 前記特定部は、
前記第1比較結果と、
前記物体を撮像することにより得られた第1画像と前記基準物体の外観を撮像することにより得られた第2画像とを比較した第2比較結果と、
に基づいて、前記物体の種別を特定する、
請求項3記載の情報処理装置。 - 前記特定部は、測定装置から出力される前記測定形状情報を取得し、
前記供給部は、前記出力装置に前記一のメッセージ情報を送信し、
前記測定装置および前記出力装置は、前記ユーザの頭部に装着されるウェアラブル装置に設けられる、
請求項3または4に記載の情報処理装置。 - 前記メッセージ情報は、画像情報または音声情報の少なくとも一つを含み、
前記出力装置は、前記ユーザの目と前記物体との間に配置される透過型ディスプレイおよび前記ユーザに音を出力するスピーカを含み、
前記画像情報は、前記透過型ディスプレイから出力され、
前記音声情報は、前記スピーカから出力される、
請求項1から5のいずれか1項に記載の情報処理装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021-202175 | 2021-12-14 | ||
JP2021202175 | 2021-12-14 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2023112587A1 true WO2023112587A1 (ja) | 2023-06-22 |
Family
ID=86774026
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2022/042545 WO2023112587A1 (ja) | 2021-12-14 | 2022-11-16 | 情報処理装置 |
Country Status (1)
Country | Link |
---|---|
WO (1) | WO2023112587A1 (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120019557A1 (en) * | 2010-07-22 | 2012-01-26 | Sony Ericsson Mobile Communications Ab | Displaying augmented reality information |
JP2016076259A (ja) * | 2015-12-21 | 2016-05-12 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2016195323A (ja) * | 2015-03-31 | 2016-11-17 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラム |
JP2018049624A (ja) * | 2016-09-23 | 2018-03-29 | 雨暹 李 | ロケーションベース空間オブジェクト遠隔管理方法及びロケーションベース空間オブジェクト遠隔管理システム |
WO2020183826A1 (ja) * | 2019-03-08 | 2020-09-17 | 株式会社Nttドコモ | 関連情報出力装置 |
-
2022
- 2022-11-16 WO PCT/JP2022/042545 patent/WO2023112587A1/ja unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120019557A1 (en) * | 2010-07-22 | 2012-01-26 | Sony Ericsson Mobile Communications Ab | Displaying augmented reality information |
JP2016195323A (ja) * | 2015-03-31 | 2016-11-17 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラム |
JP2016076259A (ja) * | 2015-12-21 | 2016-05-12 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2018049624A (ja) * | 2016-09-23 | 2018-03-29 | 雨暹 李 | ロケーションベース空間オブジェクト遠隔管理方法及びロケーションベース空間オブジェクト遠隔管理システム |
WO2020183826A1 (ja) * | 2019-03-08 | 2020-09-17 | 株式会社Nttドコモ | 関連情報出力装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107315988B (zh) | 用于在无人驾驶车辆中呈现媒体内容的系统和方法 | |
Park et al. | In‐vehicle AR‐HUD system to provide driving‐safety information | |
KR101932003B1 (ko) | 실시간 동적으로 결정된 감지에 기초하여 무인 운전 차량에서 콘텐츠를 제공하는 시스템 및 방법 | |
US10681225B1 (en) | Image and augmented reality based networks using mobile devices and intelligent electronic glasses | |
CN104871214B (zh) | 用于具扩增实境能力的装置的用户接口 | |
JP2023509455A (ja) | 輸送ハブ情報システム | |
US10282696B1 (en) | Augmented reality enhanced interaction system | |
US11200075B2 (en) | Artificial intelligence apparatus and method for extracting user's concern | |
CN108701317A (zh) | 使用图像分段技术来增强与在线商务体验有关的沟通 | |
CN109891463A (zh) | 图像处理设备和图像处理方法 | |
US11227494B1 (en) | Providing transit information in an augmented reality environment | |
Zhou et al. | Vetaverse: A survey on the intersection of Metaverse, vehicles, and transportation systems | |
US11741705B1 (en) | Location tracking system using a plurality of cameras | |
CN109842790A (zh) | 影像信息显示方法与显示器 | |
WO2023112587A1 (ja) | 情報処理装置 | |
CN110832525A (zh) | 在对象上的增强现实广告 | |
US10943117B2 (en) | Translation to braille | |
WO2023084945A1 (ja) | 出力制御装置 | |
US11836760B1 (en) | Vehicle advertising platform | |
US10345965B1 (en) | Systems and methods for providing an interactive user interface using a film, visual projector, and infrared projector | |
WO2023203847A1 (ja) | 表示制御装置 | |
WO2023106213A1 (ja) | 情報処理装置 | |
WO2024004357A1 (ja) | レコメンデーション表示制御装置 | |
WO2023095833A1 (ja) | 情報処理装置 | |
JP6792740B2 (ja) | 画像内の場所に情報を配置するためのデバイス |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 22907118 Country of ref document: EP Kind code of ref document: A1 |