WO2024116270A1 - 携帯情報端末及び仮想現実表示システム - Google Patents

携帯情報端末及び仮想現実表示システム Download PDF

Info

Publication number
WO2024116270A1
WO2024116270A1 PCT/JP2022/043928 JP2022043928W WO2024116270A1 WO 2024116270 A1 WO2024116270 A1 WO 2024116270A1 JP 2022043928 W JP2022043928 W JP 2022043928W WO 2024116270 A1 WO2024116270 A1 WO 2024116270A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
information terminal
user
display
recommended object
Prior art date
Application number
PCT/JP2022/043928
Other languages
English (en)
French (fr)
Inventor
眞弓 中出
淳司 塩川
康宣 橋本
仁 秋山
尚久 高見澤
Original Assignee
マクセル株式会社
Filing date
Publication date
Application filed by マクセル株式会社 filed Critical マクセル株式会社
Publication of WO2024116270A1 publication Critical patent/WO2024116270A1/ja

Links

Images

Abstract

携帯情報端末であって、ディスプレイと、外部機器と通信する通信機と、携帯情報端末の位置を検出して位置情報を出力する位置センサと、ディスプレイが向いている方向を検出して方位情報を出力する方位センサと、プロセッサと、を備え、プロセッサは、携帯情報端末を操作するユーザに対する推奨オブジェクトの位置又は方向を示す支援情報を外部機器から受信すると、位置情報及び方位情報に基づいて、ディスプレイが向いている方向を基準とする推奨オブジェクトが存在する位置又は方向を算出し、ディスプレイに推奨オブジェクトが存在する位置又は方向を示す支援画像を表示する。

Description

携帯情報端末及び仮想現実表示システム
 本発明は、携帯情報端末及び仮想現実表示システムに関する。
 近年、コンピュータやコンピュータネットワークの中に構築されたサービスの提供が普及してきており、これに関連した技術開発が盛んに行われている。これらのサービスをユーザが利用する際の装置としては、PCをはじめとする情報端末として種々の製品が世の中に出回っている。中でも、代表的なデバイスとして、コンピュータによる拡張現実(AR:Augmented Reality)の画像を、眼鏡のレンズ部を透過した風景に重畳させて表示する携帯型情報端末であるヘッドマウントディスプレイ(以下「HMD」と記載する)がある。
 本技術分野の背景技術として、特許文献1には、「制御装置、プログラム、システム及び制御方法を提供する。」ことを課題として、「配信サーバと、複数の通信端末と、複数の眼鏡型デバイスが、ネットワークに接続されるシステムにおいて、眼鏡型デバイスは、撮像範囲に含まれる対象物を特定する対象物特定部(環境特定部)と、対象物に基づいて楽曲を選択する楽曲選択部と、眼鏡型デバイスにおいて楽曲を再生するよう制御する楽曲制御部と、を備える制御装置を有する。制御方法は、コンピュータによって実行される制御方法であって、眼鏡型デバイスの撮像範囲に含まれる対象物を特定する対象物特定段階と、対象物に基づいて楽曲を選択する楽曲選択段階と、眼鏡型デバイスにおいて楽曲を再生するよう制御する楽曲制御段階とを備える。(要約抜粋)」と記載されている。
特開2022-69230号公報
 しかしながら上記技術では、ユーザ本人以外の他者が注視した対象物を、ユーザ本人がシステム上で把握することはできないという課題がある。
 本発明は上記課題を解決するためになされたものであり、他者から視認を推奨される対象物を、携帯情報端末を操作するユーザも視認しやすくなる携帯情報端末及び仮想現実表示システムを提供することを目的とする。
 上記目的を解決するために、特許請求の範囲に記載の構成を採用する。その一例を挙げるならば、本発明は、携帯情報端末であって、ディスプレイと、外部機器と通信する通信機と、前記携帯情報端末の位置を検出して位置情報を出力する位置センサと、前記ディスプレイが向いている方向を検出して方位情報を出力する方位センサと、プロセッサと、を備え、前記プロセッサは、前記携帯情報端末を操作するユーザに対する推奨オブジェクトの位置又は方向を示す支援情報を前記外部機器から受信すると、前記位置情報及び前記方位情報に基づいて、前記ディスプレイが向いている方向を基準とする前記推奨オブジェクトが存在する位置又は方向を算出し、前記ディスプレイに前記推奨オブジェクトが存在する位置又は方向を示す支援画像を表示する。
 本発明によれば、他者から視認を推奨される対象物を、自ユーザが視認しやすくなる携帯情報端末及び仮想現実表示システムを提供することができる。上記した以外の目的、構成、効果は以下の実施形態において明らかにされる。
実施の形態1に係るAR表示システムの構成図。 本実施形態に係るHMDの構成図。 図2Aに示したHMDにおける、上面から見たユーザの視野角と、各カメラにおける画角を表した模式図。 本実施形態に係るHMDのハードウェア構成図。 実施の形態1に係るAR表示システムのサービスが使用される環境を示した模式図。 HMDが屋外で用いられた場合における注視点の座標を検出する概念図。 複数のユーザの注視点から推奨オブジェクトとして表示をする判定例を示す図。 実施の形態1に係るHMDと管理サーバの処理手順を示すフローチャート。 本AR表示システムにおけるサービスから提供されるHMDの推奨オブジェクト表示の一例を示す模式図。 本AR表示システムにおけるサービスから提供されるHMDの推奨オブジェクト表示の一例を示す模式図。 本AR表示システムにおけるサービスから提供されるHMDの推奨オブジェクト表示の一例を示す模式図。 本AR表示システムにおけるHMDの推奨オブジェクト表示の一例を示す模式図。 本AR表示システムにおける推奨オブジェクト表示の一例を示す模式図。 本AR表示システムにおける推奨オブジェクト表示の一例を示す模式図。 実施の形態2に係るHMDと管理サーバの処理手順を示すフローチャート。 実施の形態3に係るAR表示システムのサービスが使用される環境を示した模式図。 実施の形態3に係るAR表示システムのサービスにおけるHMDの表示例を示す模式図。 実施の形態3に係るHMDと管理サーバの処理手順を示すフローチャート。 実施の形態3に係るAR表示システムのサービスにおけるHMDの表示例を示す模式図。 実施の形態4に係るAR表示システムのサービスが使用される環境を示した模式図。 図17で示した使用環境における、本AR表示システムのサービスにおけるHMDの表示例を示す模式図。 実施の形態4に係るHMDと管理サーバの処理手順であるフローチャート。 実施の形態5に係るAR表示システムのサービスが使用される環境を示した模式図。 図20で示した使用環境における、本AR表示システムのサービスのHMDの表示例を示す模式図。 実施の形態5に係るHMDと管理サーバの処理手順を示すフローチャート。 本AR表示システムにおけるユーザP1が注視している対象物を、他者に推奨オブジェクトとして共有を図る操作の一例を示した模式図。 実施の形態5に係る推奨オブジェクトの表示例を示す模式図。 実施の形態6におけるHMDと管理サーバの処理手順を示すフローチャート。 実施の形態7におけるHMDと管理サーバの処理手順を示すフローチャート。 地図上に推奨オブジェクトを表示した例を示す模式図。
 以下、本発明の実施形態について図面を参照して説明する。全図を通じて同一の構成、工程には同一の符号を付し、重複説明を省略することがある。
 本実施形態によれば、他者の注視点を自分も視認しやすくなる携帯情報端末を提供できるので、例えば観光、劇、コンサートでの鑑賞での見どころの提案、また各種作業支援などでの適用がありうる。よって本実施形態は、後方支援や作業支援を要する労働集約型の産業のための技術の向上が見込めることから、国連の提唱する持続可能な開発目標(SDGs:Sustainable Development Goals)の8.2(商品やサービスの価値をより高める産業や、労働集約型の産業を中心に、多様化、技術の向上、イノベーションを通じて、経済の生産性をあげる)に貢献することが期待できる。
 以下の説明において仮想現実をARと表記する。
 また、以下の説明において、各ユーザが注視している対象物が存在する位置(座標)を注視点という。
 更に以下の説明において、他者から視認を推奨されるオブジェクトを推奨オブジェクトという。推奨オブジェクトは、
(1)単数の他者が注視している対象物の存在する位置(座標)として定義される場合、
(2)複数のユーザが注視している対象物の存在する位置(座標)として定義される場合、
(3)携帯情報端末がカメラで撮像した被写体の物体認識処理を行える場合は、対象物の存在する位置(座標)に代わり、対象物そのものを推奨オブジェクトとして定義する場合、がある。
 更に推奨オブジェクトは点、領域、静止物体、又は移動物体を用いて定義してもよい。移動物体を用いて推奨オブジェクトを定義する場合は、推奨オブジェクトも動く。
<実施の形態1>
 図1は、実施の形態1に係るAR表示システムの構成図である。同図において、AR表示システム1は、携帯情報端末であるHMD(Head Mounted Display;ヘッドマウントディスプレイ)G1~G5を通信接続して構成される。HMDG1~G5のそれぞれは、図示しない異なるユーザP1~P5が装着している。ユーザP1~P5は、AR表示システム1がAR表示サービスを提供する実空間内の特定範囲からなるサービス提供エリアA1内に存在する。サービス提供エリアA1は、例えば特定の観光地における所定のエリアでもよい。
 以下の説明ではユーザP1に他者が注視している対象物を視認しやすくするケースを例示して説明する。ユーザP2~ユーザP5は、ユーザP1からみて他者である。そして、ユーザP2~ユーザP5が装着するHMDG2~G5は、ユーザP1からみて他者携帯情報端末に相当する。他者は一人でもよいし複数人でもよい。すなわちユーザP1が操作する携帯情報端末は、単数の他者携帯情報端末と接続されてもよいし、複数の他者携帯情報端末と直接又は間接、例えば管理サーバS1を介して通信接続されてもよい。
 ネットワークN1には、管理サーバS1が接続される。管理サーバS1は、AR表示サービスを管理する管理サーバである。HMDG1~G5のそれぞれは、移動体無線通信網の基地局B1を介してネットワークN1に接続し、更に管理サーバS1に接続する。
 管理サーバS1は、ネットワークN1を介して取得した、複数の情報を管理する。管理サーバS1が管理する情報は、例えば、各HMDG1~HMDG5のユーザに関するアカウント情報、基地局B1を介して取得したHMDG1の位置情報や注視点情報、本AR表示サービスで、各ユーザがアップロードした画像情報やコメント情報などである。
 各ユーザに関する情報には、氏名を含むニックネームやハンドルネームなどのユーザ情報(ユーザ識別情報)や、ユーザ属性情報(年齢、趣味、嗜好等)などがある。
 登録方法は、本AR表示システムサービスを受けるためのHMDG1で使用されるアプリケーションプログラム上で、プロフィールとして入力してもよいし、ユーザの使用した他のアプリケーションプログラムや行動履歴から自動収集、自動生成してもよいし、他のアプリケーションプログラムで登録した情報と連携してもよい。
 なお、ユーザ属性情報の記憶場所としては、各HMDでもよいし、管理サーバS1でもよい。
 なお、説明を解り易くするため、本実施形態では、図1に示すように、5人のユーザが装着するHMDG1~HMDG5の例を示しているが、ユーザ数に制限はない。
 また、図1において、HMDG1~HMDG5は基地局B1を介して本AR表示サービスに接続している例を示しているが、HMDG1~HMDG5は図示しない無線ルータを経由してネットワークN1に接続される構成としてもよい。
 図2Aは、本実施形態に係るHMDの構成図である。
 同図において、HMDG1は、眼鏡状の筐体G10に、表示面を含む左ディスプレイ202L、右ディスプレイ202Rを備える。左ディスプレイ202L、右ディスプレイ202Rは、例えば透過型ディスプレイであり、表示面には外界の実像が透過され、その実像上に画像が重畳表示される。筐体G10には、プロセッサ2、前方カメラ71、通信機6、測距センサ53、他の各種センサを含むセンサ装置5等が実装されている。Cf-CrはHMDG1の中心線を表す。
 図2Bは、図2Aに示したHMDG1における、上面から見たユーザの視野角と、各カメラにおける画角を表した模式図である。
 同図において、θhmdは左ディスプレイ202L、右ディスプレイ202Rから視認できるユーザP1の視野であり、θ71は前方カメラ71の視野角、θ72Rは右カメラ72Rの画角、θ72Lは左カメラ72Lの画角を表している。このようにHMDG1は、ユーザの視野角θhmdより広範囲な画角を撮像できるようになっている。
 なお、図1のHMDG2~HMDG5も図2A、図2Bに示した構成と同様であるが、機能が同様であれば特に形状や方式などの制限はない。
 図3は、本実施形態に係るHMDのハードウェア構成図である。
 同図において、HMDG1は、プロセッサ2、システムバス3、メモリ4、センサ装置5、通信機6、映像処理装置7、音声処理装置8、操作入力装置9、視線検出センサ10を含んで構成される。
 プロセッサ2は、所定の動作プログラムに従ってHMDG1全体を制御するマイクロプロセッサユニットであり、主にHMDG1のユーザP1からの入力、それに応じてHMDG1の外部の管理サーバS1との情報の送受信、該情報をもとにAR表示システムの処理を行うためのシステム制御を行う。また、プロセッサ2は、表示する画像を生成し、表示制御を行う。
 システムバス3は、プロセッサ2とHMDG1内の各構成ブロックとの間で各種コマンドやデータなどの送受信を行うためのデータ通信路である。
 メモリ4は、HMDG1の動作を制御するためのプログラムなどを記憶するプログラム記憶領域41、動作設定値や後述するセンサ装置5や測距センサ53からの検出値や表示のための画像、文字などを含む各種データを記憶するデータ記憶領域42、各種プログラム動作で使用するワークエリアなどの書き替え可能なワーク領域43を含んで構成されている。
 メモリ4は、ネットワーク上からダウンロードした動作プログラムや前記動作プログラムで作成した各種データ等を記憶可能である。また、ネットワーク上からダウンロードした動画や静止画や音声等のコンテンツを記憶可能である。また、カメラ機能を使用して撮像した動画や静止画等のデータを記憶可能である。
 また、プログラム記憶領域41及びデータ記憶領域42は、HMDG1に外部から電源が供給されていない状態であっても記憶している情報を保持する必要がある。したがって、例えば、メモリ4としてフラッシュメモリやSSD(Solid State Drive)などの半導体素子メモリ、HDD(Hard Disc Drive)などの磁気ディスクドライブ等のデバイスが用いられる。なお、メモリ4に記憶された前記各動作プログラムは、ネットワーク上の各サーバ装置からのダウンロード処理により更新及び機能拡張することが可能である。
 また、ワーク領域43はプロセッサ2が実行するプログラムをロードして実行処理をする領域であり、例えばRAM(Random Access Memory)が用いられる。
 センサ装置5は、HMDG1の状態を検出するための各種センサからなる。センサ装置5は、GPS(Global Positioning System)センサ51、地磁気センサ52、加速度センサ54、ジャイロセンサ55、測距センサ53を含んで構成される。これらのセンサにより、HMDG1の位置、傾き、方角、動き等や、注視している対象物までの距離を検出することが可能となる。また、HMDG1が、照度センサ、近接センサ等、生体認証用センサなど、他のセンサを更に備えていても良い。
 GPSセンサ51は、HMDG1の現在地を検出して自己位置情報を出力する位置センサの一例に相当する。位置センサは、GPSセンサ51に限定されない。後述する実施形態では、劇場やコンサートホール内でマーカを用いて構内における現在地を検出する態様を説明するが、構内におけるHMDG1の現在地を検出するために用いるセンサは、例えばマーカを撮像するカメラである。また、ビーコン信号を用いた位置検出処理を行う場合は、ビーコン信号受信器が位置センサの一例に相当する。
 通信機6は、LAN(Local Area Network)通信機61、移動体無線通信機62、近接無線通信機63を含んで構成される。LAN通信機61は、アクセスポイントや無線ルータ等を介してインターネット等のネットワークN1と接続され、前記ネットワークN1上の管理サーバS1とデータの送受信を行う。アクセスポイントや無線ルータ等との接続はWi-Fi(登録商標)等の無線接続で行われて良い。
 移動体無線通信機62は、移動体無線通信網の基地局B1との無線通信により、電話通信(通話)及びデータの送受信を行う。基地局B1等との通信はW-CDMA(Wideband Code Division Multiple Access)(登録商標)方式やGSM(登録商標)(Global System for Mobile communications)方式、LTE(Long Term Evolution)方式、或いは5Gなどで行われる。これらに限らず、その他の通信方式が用いられても良い。
 LAN通信機61と移動体無線通信機62は、それぞれ符号化回路や復号化回路やアンテナ等を備える。
 近接無線通信機63は、一例としてBlueTooth(登録商標)方式の通信機能を持つものであるが、特にそれに制限するものではなく、赤外線通信等、他の通信方式でも良い。
 映像処理装置7は、前方カメラ71、右カメラ72R、左カメラ72L、右ディスプレイ202R、左ディスプレイ202Lを含んで構成される。前方カメラ71、右カメラ72R、左カメラ72Lは、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)センサ等の電子デバイスを用いてレンズから入力した可視光を電気信号に変換することにより、周囲や対象物の可視画像データを入力するカメラユニットである。
 さらに右カメラ72R、左カメラ72Lは、例えば魚眼レンズなどを用いた広角レンズで構成され、HMDG1の右ディスプレイ202R,左ディスプレイ202Lの視野の外の景色までを撮像可能である。
 右ディスプレイ202R及び左ディスプレイ202Lのそれぞれは、例えば液晶パネル等の表示デバイスから得られた投射光を右ディスプレイ202Rと左ディスプレイ202Lの表示面に照射して画像を表示する。右ディスプレイ202Rと左ディスプレイ202Lは、図示を省略したビデオRAMを備える。そして、ビデオRAMに入力された画像データに基づいて表示画面上に画像が表示される。
 前方カメラ71には、さらに撮像している物体までの距離を距離画像として取得可能なTOF(Time Of Flight)センサが用いられていてもよい。そうすることで可視画像と距離画像を用い、例えばHMDに表示されている複数の表示画像に手をかざして親指と人差し指でつまむ動作(以下ポインティングという)により選択を行うなどの検出を精度良く行うことができる。
 また、これら可視画像と距離画像を用いることで、ユーザの注視している対象物までの距離を計測したりすることができる。この場合、測距センサ53は無くてもよい。
 また周囲をスキャンして、上記したセンサ装置5と映像処理装置7の出力を用いて三次元空間マップを生成することもできる。
 音声処理装置8は、マイク81、スピーカ82、デコーダ83、音声認識部84を含んで構成される。マイク81は、ユーザの声などを音声データに変換して入力する。スピーカ82は、ステレオスピーカであり、ユーザに必要な音声情報等を出力する。デコーダ83は、必要に応じて、符号化音声信号の復号処理(音声合成処理)等を行う機能や、音声の伝達特性に応じた立体三次元音声処理機能を有し、HMDG1のユーザに対して立体的な音声をスピーカ82より出力する。
 また、音声認識部84を利用して、操作指示の音声コマンドによりHMDG1の操作を行なっても良い。音声認識部84は、入力された音声情報を解析し、指示コマンド等を抽出する。
 操作入力装置9は、HMDG1に対する操作指示の入力を行う入力インターフェースである。操作入力装置9は、図示しないボタンスイッチ等を並べた操作キーや、タッチパネル等を含んで構成される。その他の操作デバイスを更に備えても良い。また、通信機6を利用し、有線通信または無線通信により接続された別体の携帯端末機器を用いてHMDG1の操作を行っても良い。
 視線検出センサ10は、HMDG1を装着したユーザの視線方向を検出する。右視線検出器1001R、左視線検出器1001Lの視線検出の手法としては、非可視光(赤外線など)をユーザの目に照射して、その撮像画像から得られる瞳孔画像を画像処理によって得るなどの方式があるが、とくに検出手法について制限するものではない。
 なお、図3に示したHMDG1の構成例は、必須ではない構成も含んでおり、これらが備えられていない構成であっても本実施形態の効果を損なうことはない。また、デジタル放送受信機能や電子マネー決済機能等、図示していない構成が更に加えられていても良い。
 図4は、実施の形態1に係るAR表示システムのサービスが使用される環境を示した模式図を示す。図4~図7においては説明を解りやすくするためHMDを装着したユーザが3人の場合示したが、人数に制限はない。
 図4において、CLは雲、APは飛行中の飛行機、ASは飛行中の飛行船、BDは飛行中の鳥、AS1は飛行船AS付近の領域、AP1は飛行機AP付近の領域を表しており、ユーザP1、ユーザP2、ユーザP3は各々HMDG1、G2、G3を装着している。また、各ユーザP1~P3はサービス提供エリアA1にいることを表している。
 さらにユーザP1は飛行中の鳥BDを注視しており、ユーザP2及びユーザP3はAS1の範囲内を注視している状態を表している。
 図5は、HMDが屋外で用いられた場合における注視点の座標を検出する概念図を示す。
 同図においてPE1RはHMDG1を装着したユーザP1の右目、PE1Lは左目を表しており、右目PE1R,左目PE1Lの視線は飛行船ASの方向を注視しているものとする。
 HMDG1の位置は、GPSセンサ51より世界測地系のデータが得られる。HMDG1の方角は地磁気センサ52より得られる。HMDG1の水平線H-Hに対する傾きθは加速度センサ54より得られる。視線方向は右視線検出器1001R、左視線検出器1001Lより得られる。また飛行船ASまでの距離は、測距センサ53より得られる。なお、前方カメラ71が距離画像も取得可能なTOFセンサなどを使用していれば、その距離画像から測距距離を用いてもよいし、右カメラ72Rと左カメラ72Lのステレオ画像から算出する測距距離を用いてもよい。
 上記の測距方式で、遠距離の対象物での測距精度が落ちるなどの場合は、測距結果が所定値以上の場合は、注視点の特定に影響の出ない特定の距離に置き換えて使用してもよい。
 HMDG1の方角と傾きθから世界座標における方向を算出し、HMDG1の位置から飛行船ASに重なった注視点の世界座標を算出が可能となる。
 より詳細には、HMDG1のプロセッサ2は、GPSセンサ51がHMDG1の世界座標系における座標を示す自己位置情報を求める。次にHMDG1が向いている世界座標系における方向を、地磁気センサ52が出力した方位情報から求める。よって地磁気センサ52は方位センサに相当する。プロセッサ2は自己位置情報及び方位情報に基づいて、ディスプレイが現在地から向いている方向を算出する。続いて、管理サーバS1から取得した推奨オブジェクトが存在する位置又は方向を示す視認支援情報を算出し、推奨オブジェクトが存在する位置又は方向と左右のディスプレイ202L、202Rが向いている方向とを比較することで、左右のディスプレイ202L、202Rを基準とする推奨オブジェクトが存在する位置又は方向を算出する。左右のディスプレイ202L、202Rを基準とする推奨オブジェクトが存在する位置又は方向を示す画像が視認支援画像となる。
 図6は、複数のユーザの注視点から推奨オブジェクトとして表示をする判定例を示す図である。
 同図において、縦軸は注目率を表す。領域α、領域β、領域γ、領域δは、それぞれ任意の各ユーザの注視点が集中している領域を表す。なお、領域は上記4つには限らず、いくつあってもよい。
 注目率は、
 UPW:自ら(ユーザP1)を除いた各領域を注視しているユーザの数
 UPA:自らを除いたAR表示システムのサービスエリア内の全ユーザ数
と定義し、
 注目率=UPW/UPA
とする。
 これら各領域における注目率のうち、所定の閾値以上あるものを推奨オブジェクトと判断し、表示する推奨オブジェクトとして表示制御を行う。
 図4で示した例では、図6の領域αが飛行船ASの近傍である領域AS1に相当し、この時の注目率は、
UPW=領域αを注視しているサービス提供エリアA1内のユーザP2、ユーザP3の2人
UPA=サービス提供エリアA1内のユーザP2、ユーザP3の2人
となり、
注目率=1
となる。例えば閾値=0.5とした場合、注目率は閾値を上回るので領域α=領域AS1は表示する推奨オブジェクトと判定される。
 また、注目率が高い上位3つである領域α、領域β、領域γを表示する推奨オブジェクトと判定してもよい。
 なお、閾値はAR表示サービスが行われるエリア毎や、エリア内の人数によって決定される。
 以上のようにすれば、表示すべき推奨オブジェクトの数が制限され、推奨オブジェクト表示が煩雑になることを防ぐことができる。
 図7は、実施の形態1に係るHMDと管理サーバの処理手順を示すフローチャートである。以下ではユーザP1が装着したHMDG1に、ユーザP2、P3が見ているオブジェクトを推奨オブジェクトとして送信する例を説明する。よって、以下の説明ではユーザP1は推奨オブジェクトを受信するユーザであるので自ユーザに相当し、ユーザP2、P3は推奨オブジェクトを決定する要因となるユーザであり、自ユーザとは異なるので他者に相当する。
 S701:ユーザP1の観光地におけるAR表示システム1へのログイン処理として、HMDG1のプロセッサ2は、管理サーバS1へ、ユーザID、パスワード、HMDG1の座標、サービス課金に支払い済みの情報、などの認証情報を送信する。
 S702:管理サーバS1は、HMDG1の位置(座標)を受信し、これに基づいてAR表示システム1のサービス提供エリアA1内にHMDG1が存在しているか否か、またユーザID、パスワードが予め登録された情報と一致したか否かの認証結果を送信する。
 S703:HMDG1のプロセッサ2は、受信した認証結果がサービス提供エリアA1内であり、ユーザID、パスワードが登録情報と一致であれば認証OKとし、次の処理へと進める。それ以外の場合は処理を終了する。
 これらS701からS703の処理は、他者であるP2、P3が装着したHMDG2、HMDG3も同様であり、管理サーバS1の処理も同様である。
 S704:HMDG1のプロセッサ2は、図5で説明した注視点の算出処理を行い、ユーザP1の注視点を検出する。
 S705:HMDG1のプロセッサ2は、HMDG1の位置を示す座標とユーザP1の注視点の位置とを管理サーバS1へ送信する。
 S706:管理サーバS1は、各ユーザP1,P2,P3が装着しているHMDG1、HMDG2、HMDG3から受信した注視点情報からサービス提供エリアA1内のユーザの推奨オブジェクトの有無を判定する。ユーザの注視点が所定の範囲内(この例では領域AS1)に所定数(この例では2とする)以上ある場合は、それを表示すべき推奨オブジェクトと判定する。
 S707:推奨オブジェクトがある場合は所定の範囲内のHMDに推奨オブジェクトの視認支援情報を送信する。
 ここでいう推奨オブジェクトの視認支援情報とは、推奨オブジェクトが存在する位置や方向を示す情報である。推奨オブジェクトが存在する位置情報は、世界座標系で定義された座標でもよいし、ある特定の空間、例えば部屋の中やホール内で局所的に定義された局所座標系で定義された位置情報でもよい。例えば、ある特定の空間内にポインタが複数配置されており、推奨オブジェクトに近い場所のポインタを指定することで推奨オブジェクトの存在位置をユーザに知らせる情報でもよい。また、ホールやスタジアムでは、席番号も局所座標系として用いることができる。また、架空のグリッドを設け、そのグリッドで定義される特定の領域を位置情報として用いてもよい。
 更に推奨オブジェクトの視認支援情報として、推奨オブジェクトが複数ある場合は推奨順を含んでもよい。
 S708:HMDG1のプロセッサ2は、視線検出センサ10から取得したユーザP1の視線方向情報と、管理サーバS1から取得した推奨オブジェクトの視認支援情報とを比較し、ユーザP1が推奨オブジェクトの方向を見ていないと判定した場合には表示有と判定する。
 なお、表示設定により、見ているか見ていないにかかわらず表示の有無を設定することも可能であり、表示の有無に関する判定はここでおこなう。
 S709:S708において「表示有」と判定した場合は、HMDG1のプロセッサ2は、推奨オブジェクトの視認支援情報を用いて、自ユーザに推奨オブジェクトを視認やすくするために表示する視認支援画像を表示する。視認支援画像は、自ユーザが装着するHMDG1が生成して表示してもよいし、後述する図8Bに示す縮小画像502では他者のHMDが縮小画像を生成して管理サーバS1を経由して取得後、表示してもよい。
 視認支援画像とは、推奨オブジェクトの視認の推奨を受けるユーザ、本実施形態では「自ユーザ」に推奨オブジェクトの存在を通知するために自ユーザが操作する携帯情報端末に表示する画像である。視認支援画像の具体例として、
・推奨オブジェクトが存在する位置又は方向を示すマーク、
・推奨オブジェクトの縮小画像、
・推奨オブジェクトの視認を促すメッセージ画像、
・推奨オブジェクトが複数ある場合に推奨順を示す画像、
・推奨オブジェクトそのものを指示する画像(例えば矢印マーク、囲みマーク、ハイライトを含む)、
・世界座標空間を一定間隔で区切るグリッド及び当該グリッドで区切られた領域を示す画像、
の一つ又は任意の組み合わせがありうる。以下図8A~図12を参照して推奨オブジェクトの視認支援画像の例について説明する。
(視認支援画像例1:方向を示すマーク)
 図8Aは、本AR表示システム1におけるサービスから提供されるHMDの推奨オブジェクト表示の一例(方向を示すマーク)を示す模式図である。
 図4で示したユーザP1には、装着したHMDG1の右ディスプレイ202Rを介して図8Aに示すように、現実空間にAR画像として表示されたマーク501が重畳して見えている。ユーザP1は、先に示したように鳥BDを注視しており、右ディスプレイ202Rの視野の中には飛行中の飛行機APと飛行船ASは入っていないため、この時点ではこれらを見落としていることになる。
 このような見落としを防ぐべく、本AR表示システム1では、2人の他者であるユーザP2,P3が注視している飛行船ASを推奨オブジェクトとして決定し、当該推奨オブジェクトが存在する方向を示す矢印形状のマーク501をHMDG1の右ディスプレイ202Rに表示する。
 このようにすれば、ユーザP1は鳥BDのみでなく、他者が注視した飛行船ASを見る機会を逃さずに済む効果がある。
(視認支援画像例2:方向を示すマークと縮小画像)
 推奨オブジェクトが存在する方向を示す例は図8Aに限らない。図8Bは、本AR表示システム1におけるサービスから提供されるHMDの推奨オブジェクト表示の一例(更に縮小画像を付加)を示す模式図である。
 図8Bに示すように、図8Aのマーク501に加え、飛行船ASの縮小画像502を表示してもよい。縮小画像502は、管理サーバS1より受信して表示してもよい。この場合は、例えば他者であるユーザP2の注視点が重なる飛行船ASの画像を、ユーザP2が装着するHMDG2に搭載された広画角の右カメラ72Rで撮像し、その撮像画像から切り出して縮小画像502を生成する。そして、HMDG2から管理サーバS1へ送信し、更にHMDG1に転送して表示してもよい。HMDG2に代わり、HMDG3が縮小画像を生成してもよい。
 または、HMDG1のプロセッサ2は、管理サーバS1が推奨オブジェクトの視認支援情報を受信し、HMDG1に搭載された広画角の右カメラ72Rで撮像画像から切り出して縮小画像502を生成してもよい。
(視認支援画像例3:方向を示すマークと吹き出し)
 図8Cは、本AR表示システム1におけるサービスから提供されるHMDの推奨オブジェクト表示の一例(更に縮小画像を付加)を示す模式図である。
 図8Cに示すように、推奨オブジェクトが存在することを更にわかりやすくする為、マーク501に加え、文字や文章等の吹き出し503を表示してもよいし、音声や音で通知してもよい。さらに、注目ポイントの情報により、通知音を変えてもよい。
 図8A~図8Cによれば、ユーザP1は鳥BDのみでなく、他者が注視した飛行船ASを見る機会を逃さずに済む効果がある。
(視認支援画像例4:方向を示すマークと推奨順)
 図9は、図4におけるサービス提供エリアA1内に、ユーザP1~P3に加えて多くのユーザが存在している場合における、本AR表示システムにおけるHMDの推奨オブジェクト表示の一例を示す模式図である。本例では、多くの他者の注視点が集中している領域順に従って推奨順位を決定する。
 同図において、図8A~図8Cと異なる点は、マーク501の近傍に数字の「1」を、さらにマーク801とその近傍に数字の「2」を表示している点である。
 HMDG1が受信した各ユーザの注視点が、飛行船AS付近の領域AS1で9人、飛行機AP付近の領域で5人であった場合、注視しているユーザが最も多い飛行船AS近傍の領域AP1の方向を示すマーク501に加えて、注視しているユーザの多い順を示す「1」を表示する。さらに注視しているユーザが次に多い推奨オブジェクトとして、推奨オブジェクトの方向を示すマーク801に加えて、注視しているユーザの多い順を示す「2」を表示する。
 このようにすれば、ユーザP1は、複数の推奨オブジェクトが存在することを把握でき、他者が注視している対象物の順位を把握できるので、注視しているユーザの多い推奨オブジェクトの順を追って注視するなどして、見逃しを防ぐことができる。
(視認支援画像例5:推奨順位のみ表示)
 図10は、本AR表示システムにおける推奨オブジェクト表示の一例(推奨順位のみ表示)を示す模式図である。
 同図において、図9と異なる点は、鳥BD、飛行機AP、飛行船ASがすべてHMDG1の右ディスプレイ202Rの視界の中に入っていることである。
 このような場合は、推奨オブジェクトのある座標方向を示すマーク501やマーク801を表示せず、注視しているユーザの多い順を各推奨オブジェクトの近傍に表示してもよい。図10の例では、飛行船ASの近傍に注視しているユーザの数が最も多い順を示す「1」を、飛行機APの近傍に注視しているユーザが次に多いことを示す「2」を表示する。
 このようにHMDG1の右ディスプレイ202R上で、マーク501やマーク801を表示せずに推奨オブジェクトの注目度を示す順位のみを表示制御することで、HMDG1のユーザP1は、限られた右ディスプレイ202R上に見逃し防止や、多くの他者の注視している推奨オブジェクトに対する情報を見やすく把握することができる。
 さらに推奨オブジェクトがHMDG1の右ディスプレイ202Rの視界内に視認できる場合は、上記の表示に加えて、飛行船ASと飛行機APを囲みマーク等で囲んだり、飛行船ASと飛行機APの近くにマークを置いたり、飛行船ASと飛行機APにかぶせてハイライトを重畳して表示したりしてもよい。
 このようにすれば、さらにユーザP1は、推奨オブジェクトを認識しやすくなる効果がある。また、見ている方向が他のユーザも多く見ていることを確認することができる。
 さらに順位の数字を表示せず、例えばハイライトの輝度を順位に応じて変えたり、囲みマークの線の太さを変えたり、色を変えたりしてもよい。
 このようにすれば、表示がさらに簡素になり、ユーザにとって風景を見やすい推奨オブジェクト表示にできる。
(視認支援画像例6:グリッドを用いた推奨オブジェクトの位置案内)
 図11は、本AR表示システムにおける推奨オブジェクト表示の一例を示す模式図である。
 同図において、縦方向、横方向の点線は世界座標空間を一定間隔で区切った領域を表しており、横方向にA、B、C・・・とアルファベットを、縦方向に1、2、3・・・と数字を各領域に割り当てている。また図11における実線は、上記の一定間隔で区切った領域をユーザP1が把握できるように、HMDG1の右ディスプレイ202Rに表示されたものであり、ユーザP1の視界を妨げないように右ディスプレイ202Rの枠付近に領域を示すアルファベットと数字を表示しているものである。
 この時、他者の注視点が集まっている飛行船ASの領域を推奨オブジェクトと判定した場合、該推奨オブジェクトの存在する領域E2が推奨オブジェクトであるとして、メッセージM1を右ディスプレイ202Rに表示してユーザP1に通知する。
 このようにすれば、ユーザP1に対して、現在注視している視野から、推奨オブジェクトがどれだけ離れているか領域のメッセージ表示で把握できるし、注視しているユーザの多い推奨オブジェクトの見逃しを防ぐことができる。
 また、先述した領域α、領域β、領域γ・・・は、図11に示した横方向A,B,C・・・、縦方向1、2、3・・・の各領域として割り当てることもできる。例えば領域α=E2というように割り当ててもよい。
 また、他者の視線領域が例えばE1とE2とにまたがっている場合は、両方を注視点としてカウントし、多いほうを一番の推奨オブジェクトとしてもよい。
 なお、図11では、平面で表示している例になっているが、球面上にメッシュを切ることにより、全空間を表示できる。
 また、サービス提供エリアA1は、ある一定のエリアではなく、各ユーザから所定の範囲内にとしてもよい。その場合、推奨オブジェクトの算出は、ユーザ毎に行うことにより管理サーバの負荷を軽減できる。
 本実施形態によれば、同じ景色を見ている多くのユーザが着目している方向や、対象物を携帯情報端末のディスプレイに推奨オブジェクトとして表示できるので、見どころとなる対象物等の見逃し等を防ぐことのできる携帯情報端末及びAR表示システムを提供できる。
 なお、携帯情報端末の注視点情報は、推奨オブジェクトの視認支援画像を表示する全ての携帯情報端末が送信する必要はない。例えば、管理サーバが推奨オブジェクトの視認支援情報をある範囲内の携帯情報端末にブロードキャストすることにより、管理サーバと通信が確立していない携帯情報端末においても、推奨オブジェクトの視認支援情報を受信した携帯情報端末が、推奨オブジェクトの視認支援画像を表示することも可能である。また、対象物は現実空間に実在する物に限らず、ユーザが利用しているソフトウェアに設定された現実空間に配置された仮想オブジェクト、例えば飛行船ASを仮想オブジェクトとしても同様な処理により、多くのユーザが着目している方向や、対象物を携帯情報端末のディスプレイに推奨オブジェクトとして表示することができる。
<実施の形態2>
 本実施形態は、推奨オブジェクトの視認支援情報を表示する携帯情報端末が、推奨オブジェクトの有無を判定する実施形態である。図12は、実施の形態2に係るHMDと管理サーバの処理手順を示すフローチャートである。図7と同じステップには同一のステップ番号を付し、説明は省略する。
 S710:管理サーバS1側では、各ユーザが装着しているHMDG1、HMDG2、HMDG3等から受信した位置情報を基に、推奨オブジェクト検索範囲内にあるHMDの位置情報及び注視点情報等を推奨オブジェクト検索範囲内にある他のHMDに送信する。「推奨オブジェクト検索範囲」とは、推奨オブジェクトの有無を判定するために他者の注視点情報を収集する実空間の特定の範囲である。例えば、自ユーザの所在地を中心とする半径rmの範囲として設定してもよい。また自ユーザの所在地は推奨オブジェクト検索範囲の中心から外れていてもよい。例えば自ユーザの所在地を基準としてここから方位A°~方位B°と定めてもよいし、南西に向かって100mの範囲と定めてもよい。
 また、推奨オブジェクト検索範囲は、管理サーバS1側で設定してもよいし、ユーザ設定等で変更が可能にしてもよい。ユーザが設定する場合は、HMDG1から管理サーバS1に送られるユーザ情報に含まれる。例えばHMDG1が推奨オブジェクト検索範囲として、自分の現在位置を中心とする半径100mの範囲を設定している場合は、半径100m内にある他者のHMDが検出した他者の注視点情報が管理サーバS1を介してHMDG1に、又は他者のHMDから直接HMDG1に送信されてもよい。
 S711:HMDG1のプロセッサ2は、受信した他者の注視点が推奨オブジェクト検索範囲内に所定数以上ある場合は、それを表示すべき推奨オブジェクトと判定する。以下図7と同様なため説明は省略する。
 以上説明したように、ユーザは自分が存在する位置を基準とする所定の範囲を推奨オブジェクト検索範囲として設定することで、ユーザは特定の観光地やランドマークがない場所でも、自分の所在地を基準として設定した推奨オブジェクト検索範囲内の推奨オブジェクトを見やすくなる。
 また、人が非常に密集しているような場所では、推奨オブジェクト検索範囲の人数を制限してもよい。例えば、制限人数を100人とした場合で、HMDG1から半径100mに200人いる場合は推奨オブジェクト検索範囲を狭くする。推奨オブジェクト検索範囲は100人以下になる距離としてもよいし、設定できる範囲で100人に近い距離としてもよい。例えば5m毎に設定するとし、半径60m内に80人、65m内に103人とすると、前者の設定では推奨オブジェクト検索範囲は60mになり、後者の設定では65mになる。
 以上説明したように、人数制限をすることにより、HMDやサーバの処理負荷を軽減できる。なお、ユーザ毎の推奨オブジェクト検索範囲を設定する場合も、図7に示したように推奨オブジェクトを管理サーバS1で抽出するようにしてもかまわない。
 また、人間の視線は常に動いていることがあることから、サーバに送信する注視点の情報を、ある一定期間内に見ていることが多い方向としてもよい。これにより、動きによるノイズを減らし、より注目しているポイントを抽出することができる。
<実施の形態3>
 本実施形態は、推奨オブジェクトの決定を、撮像動作が行われた撮像位置情報を基に決定する実施形態である。撮像位置情報は、例えば撮像画像の付加情報から読み出してもよいし、HMDG1のGPSセンサ51が撮像動作に合わせて撮像位置情報を検出し、管理サーバS1に送信してもよい。
 撮像位置情報に基づいて推奨オブジェクトを決定する動作モードを「撮像位置モード」という。これに対して、例えば実施の形態1、2のように他人の注視点の位置を示す注視点情報に基づいて推奨オブジェクトを決定する動作モードを「注視点モード」という。
 HMDG1は、「注視点モード」だけ、又は「撮像位置モード」だけを動作モードとして有するように構成してもよいし、「注視点モード」及び「撮像位置モード」の両方を動作モードとして有し、両者を切り替えて動作してもよい。その場合、どちらの動作モードを選択したかを示す動作モード情報を管理サーバS1に送信し、管理サーバS1は動作モード情報が示す動作モードに従って推奨オブジェクトを決定したり、推奨オブジェクトを決定するための情報をHMDG1に送信したりする。
 図13は、実施の形態3に係るAR表示システムのサービスが使用される環境を示した模式図を示す。
 同図においてERは観光地の中の遺跡全体、R1は遺跡の一部である壺、R2は遺跡の一部である像、R3は遺跡の一部である上部構造物、A2は本AR表示システムが提供されるサービスエリアを表す。
 このサービスエリアA2において、多くのユーザが画像(静止画でも動画でもよい)を撮像して名所として来訪コメントなどと一緒に管理サーバS1へアップロードし、蓄積されていくものとする。このとき、アップロードした画像をサーバで画像解析などして、撮像されている対象物からその位置を割り出して蓄積する。また、ユーザが画像を撮像するたびに、本システムでのアプリケーションプログラムが、自動でアップロードするようにしてもよい。
 上記で蓄積されたデータが、アップロード数が多いものから順に壺R1、上部構造物R3、像R2であったとする。
 またHMDG1を装着したユーザP1は、サービスエリアA2を訪れ、遺跡ERの一部を見ているものとする。
 図14は、実施の形態3に係るAR表示システムのサービスにおけるHMDの表示例を示す模式図である。
 ユーザP1の装着したHMDG1の右ディスプレイ202Rには、アップロード数が最も多かった壺R1の周囲を囲むマーク1301を推奨オブジェクトとして表示し、マーク1301の近傍にアップロード数の順位を示す「1」の数字を表示する。
 さらに壺R1に次いでアップロード数の多い上部構造物R3は、右ディスプレイ202Rの視界にないので、上部構造物R3のある方向を示す矢印であるマーク1303を推奨オブジェクトとして表示し、マーク1303の近傍にアップロード数の順位を示す「2」の数字を表示する。
 さらに上部構造物R3に次いでアップロード数の多い像R2の周囲を囲むマーク1302を推奨オブジェクトとして表示し、マーク1302の近傍にアップロード数の順位を示す「2」の数字を表示する。
 このようにすれば、ユーザP1は、他者が名所としてアップロードした人気の高い遺跡の部分を、見逃すことなく観光できる。
 なお、マーク1301、マーク1302は周囲を囲む形でなく、ハイライト表示としてもよいし、マーク1301、マーク1302、マーク1303の近傍に順位を表示せずにハイライトの輝度を順位に応じて変えてもよい。
 図15は、実施の形態3に係るHMDと管理サーバの処理手順を示すフローチャートである。
 同図において、処理S701、S702、S703、S707、S708は図7に示した処理と同様である。
 管理サーバS1においては、各ユーザから画像のアップロード処理があった場合に常に受け付ける。
 S1401:ユーザP1から画像のアップロード操作があった場合、HMDG1のプロセッサ2は、管理サーバS1に対して画像のアップロード処理を行う。
 S1402:管理サーバS1は、ユーザP1に限らず各他者からアップロード操作があった場合に、常にアップロードされた画像の蓄積処理を行い、撮像された被写体を注視点とし、その注視点の位置を蓄積する。厳密には、画像に付加される位置情報は撮像した位置、即ち撮像したカメラの所在地を示す位置情報であり、撮像された被写体の位置ではないが、本実施形態では、撮像したカメラの所在地を示す位置情報を注視点の位置情報とみなす。
 S1403:管理サーバS1は、各ユーザからアップロードされ蓄積した注視点の情報としての撮像画像の撮像位置を送信する。前述のように、送信は、一対一の送信に限定するものではなく、例えば、管理サーバS1が所定範囲内のHMDにブロードキャストすることにより、複数のHMDに撮像位置を一斉送信しても良い。
 上記の処理を行うことで、図14に示したHMDG1の右ディスプレイ202Rへの表示が可能となる。
 図16は、実施の形態3に係るAR表示システムのサービスにおけるHMDの表示例を示す模式図である。
 同図において、斜線部は図14で示した遺跡ERのある街の中の、建物などのある区画を示しており、1501はHMDG1を装着したユーザP1の現在位置を示すアバター、1502はユーザP1のいる現在位置から遺跡ERの存在する相対方向を示すマークである。
 上記表示はユーザP1が地図表示モードなどを選択操作し、HMDG1の右ディスプレイ202R上に表示した状態を示したものである。
 同図においてユーザP1は地図上のアバター1501のいる場所に位置し、遺跡ERはユーザP1の位置から相対的に右前方に位置している。よって遺跡ERの近傍1503をハイライト表示し、その遺跡ERがユーザP1の現在位置に対する相対位置を表すマーク1502を表示する。
 このようにすれば、ユーザP1は遺跡ERの場所を把握できるとともに、遺跡ERを見逃すことなく観光を楽しむことができる。
 また、特に本実施の形態は、HMDだけでなく、スマートフォンなどに応用しても相性が良く、ユーザの使い勝手が良い。
 <実施の形態4>
 本実施の形態は、自ユーザの携帯情報端末が受信した複数の他者からの情報の中から推奨オブジェクトの視認支援情報を抽出して視認支援自画像を表示する実施形態である。特に劇場などの施設に好適な本AR表示システムである。
 図17は、実施の形態4に係るAR表示システムのサービスが使用される環境を示した模式図である。
 同図において、劇場TH内にステージ1601が配置され、各々劇場内の特定の位置に示された目印となる特定のパターンを持つマークMKR、MKLも配置される。ステージ1601には、ステージ上の出演者PF1が立っている。ステージ1601上の各出演者PF1を多数の角度、画角から撮るカメラ群1602は、劇場内に施設されたローカルエリアネットワーク(LAN)N2及び無線ルータR0を介して管理サーバS2に接続される。
 ユーザP1は、劇場TH内のステージ1601上で上演されている公演を観客として観ている状況を示している。
 また、ユーザP1は、自分の特に好きな出演者PF1をユーザ属性情報としてHMDG1内に登録しており、また本AR表示システムのサービスでは、各出演者のそれぞれの位置を劇場TH内の全ユーザに向けてルータ経由で送信しているものとする。
 全出演者の位置は、例えばカメラ群1602の各画像から、画像処理で逐一算出されるが、該位置の検出方法に制限はない。
 また、劇場TH内などでは、GPS信号の受信が困難な場合も多いため、劇場TH内における本AR表示システムの座標系は、劇場内で提供されるものとする。
 劇場TH内は、例えば、図示はしていないが、予め3DLiDARカメラ等により測距され、劇場TH内を一つの座標空間として、劇場TH内のものは座標で表現できる。カメラ群1602は撮像手段とともにLiDARやTOFや画像処理等による測距手段を持ち、映像情報とともに、距離情報、カメラの配置位置、角度、画角等のカメラ情報等を管理サーバS2に送信する。管理サーバS2は、特定の被写体について、カメラ群1602から入手した映像情報から抽出し、特定の被写体撮影されたカメラのカメラ情報と特定の被写体までの距離情報から劇場空間内の座標を算出する。特定の被写体とは、人や動物、家具等、映像情報からその特徴を抽出してオブジェクトとして特定できるものであればよい。また、特定の被写体として扱うオブジェクトの個数にも制限はない。
 同図では、予め全出演者を特定の被写体として登録して、随時位置座標を検出し、全ユーザのHMDに配信する。
 図18は、図17で示した使用環境における、本AR表示システムのサービスにおけるHMDの表示例を示す模式図である。
 HMDG1では、受信した各出演者の位置のうち、ユーザP1がHMDG1内に登録した出演者PF1の位置を抜き出し、右ディスプレイ202Rの視界にある出演者PF1の位置に重畳してマーク1701を推奨オブジェクトとして表示する。マーク1701は図示したように丸の枠で囲む形やハイライト表示などでもよく、特に制限はない。
 このようにすれば、多数の出演者が公演していても、ユーザP1の好きな出演者PF1を見逃すことがない。
 図19は、実施の形態4に係るHMDと管理サーバの処理手順であるフローチャートである。
 同図において、処理S701、S702、S703は図7に示した処理と同様である。
 S1801:前方カメラ71で撮像した劇場THの画像から、特定パターンを持つマークMKRとマークMKLを画像処理で認識し、該画像内におけるマークMKR,マークMKLの間隔などから、劇場TH内のユーザP1の位置(座標)を求める。
 なお、前方カメラ71の出力と測距センサ53の出力から劇場TH内をスキャンして3次元空間を認識し、ユーザP1の位置を求めてもよい。
 S1802:管理サーバS2は、全出演者の位置情報を各ユーザの装着するHMDへ送信する。以後、処理1802を繰り返す。全出演者の位置情報のうち、登録した支援者の位置情報が視認支援情報に相当する。図18では説明の便宜のため、自ユーザの位置確認(S1801)の後に全出演者の位置を送信(S1802)と記載したがこの順序は逆でもよい。
 S1803:管理サーバS2から受信した全出演者の位置から、ユーザP1がHMDG1内に登録した出演者PF1の位置を推奨オブジェクトとして視認支援画像を生成して表示する。ここでは視認支援画像としてマーク1701を表示する。以後、サービス終了まで処理1803を繰り返す。
 本実施形態によれば、自ユーザが操作する携帯情報端末は、管理サーバS2から全出演者の位置を受信し、自分が見たい出演者の位置(推奨オブジェクトに相当する)を示す視認支援画像が表示できるので、自ユーザの好みに応じて適宜推奨オブジェクトを切り替えても視認支援が可能となる。
<実施の形態5>
 本実施の形態は、外部機器、例えば劇場やコンサートの運営者が操作する機器から注視点の位置情報を取得して視認支援画像を表示する実施形態である。本実施形態は、劇場などの施設に好適である。
 図20は、実施の形態5に係るAR表示システムのサービスが使用される環境を示した模式図である。
 同図においてPF2、PF3はステージ1601上で公演をしている出演者であり、その他は図17で示したものと同じである。
 この例では、ステージ1601での公演で各ユーザに注視してほしい位置を、公演の主催者などが管理サーバS2を通じて各ユーザのHMDに配信する。本例では、注視してほしい位置を出演者PF2の位置とする。
 図21は、図20で示した使用環境における、本AR表示システムのサービスのHMDの表示例を示す模式図である。
 HMDG1では、受信したステージ1601での公演で各ユーザに注視してほしい位置である、出演者PF2の位置を推奨オブジェクトとして、マーク2001を表示する。マーク2001は、図示したように丸の枠で囲む形やハイライト表示などでもよく、特に制限はない。
 図22は、実施の形態5に係るHMDと管理サーバの処理手順を示すフローチャートを示す。
 同図において、処理S701、S702、S703、S1801は図19に示した処理と同様である。
 S2101:管理サーバS2は、公演の主催者などが意図するユーザに注視してほしい位置を各ユーザの装着するHMDへ送信する。以後、処理2101を繰り返す。
 S2102:HMDG1では、管理サーバS2から受信した位置に、推奨オブジェクトとしてマーク2001を表示する。以後、サービス終了まで処理2102を繰り返す。
 このようにすれば、公演の主催者などが意図するユーザに注視してほしい位置をユーザに伝えることができ、ユーザは公演の重要なシーンを見逃すことがない。
<実施の形態6>
 本実施形態は、各ユーザが他者に対して視認を勧めたいオブジェクトを推奨オブジェクトとして共有設定することにより、自分の好みのオブジェクトを推奨オブジェクトとして他者に推奨できると共に、他者が共有設定した推奨オブジェクトの視認支援画像を表示する実施形態である。
 図23Aは、本AR表示システムにおけるユーザP1が注視している対象物を、他者に推奨オブジェクトとして共有を図る操作の一例を示した模式図である。
 同図において、HMDG1を装着したユーザP1は飛行船ASを注視しており、所定時間注視した時点で右ディスプレイ202Rにボタン2201が表示される。ユーザP1は、注視している対象(飛行船AS)を、他者と共有したいと判断した場合に、手2202でボタン2201をポインティング操作し、共有を許可する。
 該操作により、ユーザの注視している飛行船ASを注視点として、基地局B1、ネットワークN1、管理サーバS1を経由して他者の装着しているHMDへ送信される。
 図23Bは、実施の形態5に係る推奨オブジェクトの表示例を示す模式図であって、上記で送信されたユーザP1の注視点を、他者が受信し、推奨オブジェクトとしてHMDに表示した表示例を示したものである。
 同図において、ユーザP1から共有許可された注視対象の飛行船ASを推奨オブジェクトとして、その方向を示すマーク501と、飛行船ASの縮小画像502を表示するとともに、さらにユーザP1から共有された画像と分かるように表示2203を表示する。
 図24は、実施の形態6におけるHMDと管理サーバの処理手順を示すフローチャートである。
 同図において、処理S701、処理S702、処理S703、処理S704、処理S706は図7で示したものと同じである。
 S2301:ユーザP1の注視点が一定時間所定の領域内であった場合、プロセッサ2は、該注視点を他者と共有するかを確認する「共有」ボタンを右ディスプレイ202Rに表示する。
 S2302:ユーザP1が「共有」ボタンをポインティング操作などにより共有を許可した場合、プロセッサ2は、処理S2303へ、ポインティング操作などせず許可しない場合は処理707へ制御を移す。
 S2303:プロセッサ2は、ユーザP1が注視した領域の座標(位置)を推奨オブジェクトとして送信する。また、他者に共有することを許可した情報(共有フラグなど)を、共に送信してもよい。
 他者であるユーザP2、P3の装着したHMDG2,G3も処理S701~処理2303を行う。
 S2304:プロセッサ2は、右ディスプレイ202Rに対して、例えば他者であるユーザP2が送信した注視点を推奨オブジェクトとし、それを視認しやすくするための視認支援画像を生成して表示する。本例では、視認支援画像としての推奨オブジェクトの存在する方向を示すマーク501と縮小画像502、及び他者からの共有情報であることを示す「おすすめ」表示2203(図23B)の表示処理を行う。他者からの共有情報としての「おすすめ」表示は、これに限るものではない。
 このようにすれば、ユーザP1の他者に対する共有の意思に応じて、共有情報の送信を制御できるし、P1の注視点を推奨オブジェクトとして把握できたユーザP2は、推奨オブジェクトである飛行船ASの見逃さずに風景を楽しむことができる。
 また、本AR表示システムにおける上述してきたユーザ属性情報(年齢、趣味、嗜好等)を用いて、推奨オブジェクトを表示する場合の制御に用いてもよい。
 一例として、プロセッサ2は、管理サーバS1から受信した他者が注視した注視点情報を用いて、前方カメラ71、右カメラ72R、左カメラ72Lのうちいずれかで該注視点を撮像し、画像処理で注視点にある対象物の種類などを判定する。そして、プロセッサ2は、登録している属性情報に合致した場合のみ、推奨オブジェクトとして表示するように、属性情報に基づいてフィルタリングしてもよい。
 例えば、鳥好きなユーザ10人が珍しい鳥を注視していて、他の30人のユーザが飛行船を注視している状況を想定した場合、登録情報から鳥好きなユーザのHMDでは、注視点の多い飛行船を推奨オブジェクトとせず、珍しい鳥を推奨オブジェクトとして表示制御する。
 このようにすれば、鳥好きなユーザは自分の好みである対象物である推奨オブジェクトとして表示されている鳥を見逃すことを防げる。
 なお、各実施の形態での説明では、HMDG1の表示例として右ディスプレイ202Rを例にして説明したが、右ディスプレイ202Rに代えて左ディスプレイ202Lに表示しても良いし、立体的に見える視差を与えて両ディスプレイに表示するようにしても良い。
<実施の形態7>
 本実施形態では、注視点の抽出をHMDで撮像したタイミングでHMDの位置情報を取得し、HMDで撮像したユーザが多い所を推奨オブジェクトとする実施形態である。
 図25は、実施の形態7におけるHMDと管理サーバの処理手順を示すフローチャートである。
 S2501:HMDG1で撮像する。
 S2502:HMDG1において、撮像画像に対して共有設定が選択されると(S2301、S2302:「Y」)、HMDG1から撮像位置情報を管理サーバには送信する。撮像位置情報を注視点情報として管理サーバS1に送信する共有設定されない場合(S2302:「N」)、HMDG1から撮像位置情報を管理サーバには送信しない。
 S2503:管理サーバS1は、各HMDから撮像位置情報を受信し、その中から推奨オブジェクトとして決定する撮像位置情報を抽出する。抽出基準として、撮像位置情報の受信回数が閾値を超えるもの、また受信回数が多い順に上位何件まで、としてもよく、抽出基準は限定されない。抽出された撮像位置情報は、推奨オブジェクトの視認支援情報に相当する。
 S2304:管理サーバS1から受信した操作支援情報を基に操作支援画像を生成し、表示する。
 以上、撮像をトリガーとすることにより、確実に注視していることをとらえることができる。なお、この場合、HMDだけでなく、スマートフォンなどに応用が可能である。
 また、推奨オブジェクトを、地図上に表示してもよい。図26は、地図上に推奨オブジェクトを表示した例を示す模式図である。図26では、HMDやスマートフォン等の情報端末に表示した地図250に、推奨オブジェクトの所在を示すマーク251と、ユーザの位置252を重畳表示する。マーク251は、視認支援画像に相当する。
 このように、地図上に視認支援画像を表示することにより、ユーザは離れた場所で注目されているポイントを知ることができる。なお、他の例にもあるように、推奨オブジェクトは一つに限らず複数個あってもよい。また、ユーザの位置表示は必須ではなく、地図拡大等によりユーザ位置を表示しなくてもよい。
 以上、本実施形態は上記した実施形態に限定されるものではなく、様々な変形例が含まれる。上記した実施形態は本実施形態を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能である。
 また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
 また、上記の各構成は、それらの一部又は全部が、例えば集積回路や汎用プロセッサ、特定用途プロセッサで設計することにより、ハードウェアで構成されてもよい。プロセッサは、トランジスタやその他の回路を含み、circuitry又はprocessing circuitryとみなされる。また、上記の各構成等は、プロセッサでプログラムが実行されることにより、ソフトウェアで実現されるように構成されてもよい。なお、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。また、ハードウェアとソフトウェアを併用してもよい。
 以上説明したように、本実施形態には下記の発明を含む。
(付記1)
 携帯情報端末であって、
 ディスプレイと、
 外部機器と通信する通信機と、
 前記携帯情報端末の位置を検出して位置情報を出力する位置センサと、
 前記ディスプレイが向いている方向を検出して方位情報を出力する方位センサと、
 プロセッサと、を備え、
 前記プロセッサは、
 前記携帯情報端末を操作するユーザに対する推奨オブジェクトの位置又は方向を示す支援情報を前記外部機器から受信すると、前記位置情報及び前記方位情報に基づいて、前記ディスプレイが向いている方向を基準とする前記推奨オブジェクトが存在する位置又は方向を算出し、
 前記ディスプレイに前記推奨オブジェクトが存在する位置又は方向を示す支援画像を表示する、
 携帯情報端末。
(付記2)
 携帯情報端末であって、
 ディスプレイと、
 外部機器と通信する通信機と、
 前記携帯情報端末の位置を検出して位置情報を出力する位置センサと、
 前記ディスプレイが向いている方向を検出して方位情報を出力する方位センサと、
 プロセッサと、を備え、
 前記プロセッサは、
 他の端末のユーザが見ているオブジェクトの位置又は方向を示す支援情報を前記外部機器から受信すると、前記位置情報及び前記方位情報に基づいて、前記ディスプレイが向いている方向を基準とする前記オブジェクトが存在する位置又は方向を算出し、
 前記ディスプレイに前記オブジェクトが存在する位置又は方向を示す支援画像を表示する、
 携帯情報端末。
(付記3)
 少なくとも一つの携帯情報端末と外部機器とを通信接続して構成される仮想現実表示システムであって、
 前記携帯情報端末は、
 ディスプレイと、
 前記外部機器と通信する通信機と、
 前記携帯情報端末の現在地を検出して位置情報を出力する位置センサと、
 前記ディスプレイが向いている方向を検出して方位情報を出力する方位センサと、
 プロセッサと、を備え、
 前記外部機器は、前記携帯情報端末を操作するユーザに対する推奨オブジェクトの位置又は方向を示す支援情報を送信し、
 前記携帯情報端末のプロセッサは、
 前記支援情報を受信すると、前記位置情報及び前記方位情報に基づいて、前記ディスプレイが向いている方向を基準とする前記推奨オブジェクトが存在する位置又は方向を算出し、
 前記ディスプレイに前記推奨オブジェクトが存在する位置又は方向を示す支援画像を表示する、
 仮想現実表示システム。
1     :AR表示システム
2     :プロセッサ
3     :システムバス
4     :メモリ
5     :センサ装置
6     :通信機
7     :映像処理装置
8     :音声処理装置
9     :操作入力装置
10    :視線検出センサ
41    :プログラム記憶領域
42    :データ記憶領域
43    :ワーク領域
51    :GPSセンサ
52    :地磁気センサ
53    :測距センサ
54    :加速度センサ
55    :ジャイロセンサ
61    :LAN通信機
62    :移動体無線通信機
63    :近接無線通信機
71    :前方カメラ
72L   :左カメラ
72R   :右カメラ
81    :マイク
82    :スピーカ
83    :デコーダ
84    :音声認識部
202L  :左ディスプレイ
202R  :右ディスプレイ
250   :地図
251   :マーク
501   :マーク
502   :縮小画像
503   :吹き出し
707   :処理
801   :マーク
1001L :左視線検出器
1001R :右視線検出器
1301  :マーク
1302  :マーク
1303  :マーク
1501  :アバター
1502  :マーク
1503  :近傍
1601  :ステージ
1602  :カメラ群
1701  :マーク
1802  :処理
1803  :処理
2001  :マーク
2101  :処理
2102  :処理
2201  :ボタン
2202  :手
2203  :表示
G1    :HMD
G2    :HMD
G3    :HMD
G4    :HMD
G5    :HMD
G10   :筐体
P1    :ユーザ
P2    :ユーザ
P3    :ユーザ
P4    :ユーザ
P5    :ユーザ
PE1L  :左目
PE1R  :右目
PF1   :出演者
PF2   :出演者
R0    :無線ルータ
R1    :壺
R2    :像
R3    :上部構造物
S1    :管理サーバ
S2    :管理サーバ

Claims (15)

  1.  携帯情報端末であって、
     ディスプレイと、
     外部機器と通信する通信機と、
     前記携帯情報端末の位置を検出して位置情報を出力する位置センサと、
     前記ディスプレイが向いている方向を検出して方位情報を出力する方位センサと、
     プロセッサと、を備え、
     前記プロセッサは、
     前記携帯情報端末を操作するユーザに対する推奨オブジェクトの位置又は方向を示す支援情報を前記外部機器から受信すると、前記位置情報及び前記方位情報に基づいて、前記ディスプレイが向いている方向を基準とする前記推奨オブジェクトが存在する位置又は方向を算出し、
     前記ディスプレイに前記推奨オブジェクトが存在する位置又は方向を示す支援画像を表示する、
     携帯情報端末。
  2.  請求項1に記載の携帯情報端末であって、
     前記推奨オブジェクトは前記携帯情報端末の位置から所定範囲内にある他の端末が向いている方向にあるオブジェクトである、
     携帯情報端末。
  3.  請求項1に記載の携帯情報端末であって、
     前記支援画像は、前記推奨オブジェクトが存在する位置又は方向を示すマーク、前記推奨オブジェクトの縮小画像、前記推奨オブジェクトの視認を促すメッセージ画像、前記推奨オブジェクトが複数ある場合に推奨順を示す画像、前記推奨オブジェクトそのものを指示する画像、世界座標空間を一定間隔で区切るグリッド及び当該グリッドで区切られた領域を示す画像、の一つ又は任意の組み合わせである、
     携帯情報端末。
  4.  請求項1に記載の携帯情報端末であって、
     前記支援情報は、他の端末のユーザが見ている注視点の位置又は方向を示す情報であり、
     前記支援画像は、前記携帯情報端末の現在地から前記携帯情報端末が向いている方向を基準とする前記注視点の位置又は方向を示す画像である、
     携帯情報端末。
  5.  請求項1に記載の携帯情報端末であって、
     前記支援情報は、他の端末において撮像動作が行われた位置を示す情報であり、
     前記支援画像は、前記撮像動作が行われた位置又は方向を示す画像である、
     携帯情報端末。
  6.  請求項1に記載の携帯情報端末であって、
     前記携帯情報端末を操作するユーザの視線方向を検出して視線方向情報を出力する視線検出センサを更に備え、
     前記プロセッサは、前記携帯情報端末が向いている方向を基準とする前記推奨オブジェクトが存在する位置又は方向に、前記視線方向情報が示す前記ユーザの視線方向が重なっていないと判定すると、前記支援画像を前記ディスプレイに表示する、
     携帯情報端末。
  7.  携帯情報端末であって、
     ディスプレイと、
     外部機器と通信する通信機と、
     前記携帯情報端末の位置を検出して位置情報を出力する位置センサと、
     前記ディスプレイが向いている方向を検出して方位情報を出力する方位センサと、
     プロセッサと、を備え、
     前記プロセッサは、
     他の端末のユーザが見ているオブジェクトの位置又は方向を示す支援情報を前記外部機器から受信すると、前記位置情報及び前記方位情報に基づいて、前記ディスプレイが向いている方向を基準とする前記オブジェクトが存在する位置又は方向を算出し、
     前記ディスプレイに前記オブジェクトが存在する位置又は方向を示す支援画像を表示する、
     携帯情報端末。
  8.  請求項1に記載の携帯情報端末であって、
     前記他の端末は、前記携帯情報端末の位置から所定範囲内にある端末である、
     携帯情報端末。
  9.  少なくとも一つの携帯情報端末と外部機器とを通信接続して構成される仮想現実表示システムであって、
     前記携帯情報端末は、
     ディスプレイと、
     前記外部機器と通信する通信機と、
     前記携帯情報端末の現在地を検出して位置情報を出力する位置センサと、
     前記ディスプレイが向いている方向を検出して方位情報を出力する方位センサと、
     プロセッサと、を備え、
     前記外部機器は、前記携帯情報端末を操作するユーザに対する推奨オブジェクトの位置又は方向を示す支援情報を送信し、
     前記携帯情報端末のプロセッサは、
     前記支援情報を受信すると、前記位置情報及び前記方位情報に基づいて、前記ディスプレイが向いている方向を基準とする前記推奨オブジェクトが存在する位置又は方向を算出し、
     前記ディスプレイに前記推奨オブジェクトが存在する位置又は方向を示す支援画像を表示する、
     仮想現実表示システム。
  10.  請求項9に記載の仮想現実表示システムであって、
     前記外部機器は、前記携帯情報端末が通信接続する管理サーバであって、
     前記管理サーバには、前記携帯情報端末とは異なる他の情報端末が少なくとも一つ以上接続され、
     前記管理サーバは、前記他の情報端末から前記他の情報端末のユーザの注視点の位置又は方向を示す注視点情報を受信し、前記注視点情報に基づいて前記推奨オブジェクトを決定する、
     仮想現実表示システム。
  11.  請求項10に記載の仮想現実表示システムであって、
     前記管理サーバには、複数の前記他の情報端末が接続され、
     前記管理サーバは、複数の前記他の情報端末から前記注視点情報を受信し、受信した前記注視点情報に基づき、所定の閾値以上の前記注視点が集中している領域を前記推奨オブジェクトとして決定する、
     仮想現実表示システム。
  12.  請求項11に記載の仮想現実表示システムであって、
     前記管理サーバは、前記注視点情報に基づき、より多くの前記注視点が集中している領域順に従って推奨順位を決定し、
     前記支援画像は、前記推奨順位を示す画像である、
     仮想現実表示システム。
  13.  請求項10記載の仮想現実表示システムであって、
     前記管理サーバは、実空間内の予め定められた範囲に位置する他の情報端末から送信された前記注視点情報を抽出して、前記携帯情報端末に送信する、
     仮想現実表示システム。
  14.  請求項10に記載の仮想現実表示システムであって、
     前記携帯情報端末は、注視点モードと撮像位置モードとの動作モードを有し、
     前記注視点モードでは、前記注視点情報に基づいて前記推奨オブジェクトを決定し、
     前記撮像位置モードでは、前記他の情報端末が撮像動作を行った位置を示す撮像位置情報に基づいて前記推奨オブジェクトを決定する、
     仮想現実表示システム。
  15.  請求項9記載の仮想現実表示システムであって、
     前記外部機器は、前記ユーザとは異なる他のユーザが操作する情報端末である、
     仮想現実表示システム。
PCT/JP2022/043928 2022-11-29 携帯情報端末及び仮想現実表示システム WO2024116270A1 (ja)

Publications (1)

Publication Number Publication Date
WO2024116270A1 true WO2024116270A1 (ja) 2024-06-06

Family

ID=

Similar Documents

Publication Publication Date Title
RU2754991C2 (ru) Система устройства просмотра смешанной реальности и способ для него
JP7223978B2 (ja) 校正装置および校正方法
JP6558587B2 (ja) 情報処理装置、表示装置、情報処理方法、プログラム、および情報処理システム
US8963956B2 (en) Location based skins for mixed reality displays
KR102038856B1 (ko) 환경을 생성하고 환경내 위치기반 경험을 공유하는 시스템 및 방법
US9268406B2 (en) Virtual spectator experience with a personal audio/visual apparatus
KR102063895B1 (ko) 서버, 사용자 단말 장치 및 그 제어 방법
RU2670784C9 (ru) Ориентация и визуализация виртуального объекта
US11477509B2 (en) Immersive cognitive reality system with real time surrounding media
JP2023021368A (ja) 撮像システムおよび校正方法
US9392248B2 (en) Dynamic POV composite 3D video system
CN109962939B (zh) 位置推荐方法、装置、服务器、终端及存储介质
JPWO2018030206A1 (ja) カメラワーク生成方法及び映像処理装置
JP2018505584A (ja) インタラクティブ双眼鏡ビデオ表示
US20210375052A1 (en) Information processor, information processing method, and program
KR20200060361A (ko) 정보 처리 장치, 정보 처리 방법, 및 프로그램
JP2015149600A (ja) 画像処理装置、画像処理方法、およびプログラム
JP7400882B2 (ja) 情報処理装置、移動体、遠隔制御システム、情報処理方法およびプログラム
KR102523493B1 (ko) 가상 카메라 머신을 이용한 콘텐츠 제공 시스템 및 방법
JP6242011B2 (ja) 任意の領域を撮影している撮影側端末を特定する映像管理システム及び方法
JP6801106B2 (ja) 情報処理装置
JP2018163461A (ja) 情報処理装置、および情報処理方法、並びにプログラム
KR102140077B1 (ko) 서버, 사용자 단말 장치 및 그 제어 방법
WO2024116270A1 (ja) 携帯情報端末及び仮想現実表示システム
CN113678171A (zh) 信息处理装置、信息处理方法和记录介质