JP7419003B2 - 情報表示装置、情報表示方法及び情報表示システム - Google Patents

情報表示装置、情報表示方法及び情報表示システム Download PDF

Info

Publication number
JP7419003B2
JP7419003B2 JP2019165916A JP2019165916A JP7419003B2 JP 7419003 B2 JP7419003 B2 JP 7419003B2 JP 2019165916 A JP2019165916 A JP 2019165916A JP 2019165916 A JP2019165916 A JP 2019165916A JP 7419003 B2 JP7419003 B2 JP 7419003B2
Authority
JP
Japan
Prior art keywords
virtual object
information
display
markers
marker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019165916A
Other languages
English (en)
Other versions
JP2021043752A (ja
Inventor
壮史 周防
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Systems Ltd
Original Assignee
Hitachi Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Systems Ltd filed Critical Hitachi Systems Ltd
Priority to JP2019165916A priority Critical patent/JP7419003B2/ja
Publication of JP2021043752A publication Critical patent/JP2021043752A/ja
Application granted granted Critical
Publication of JP7419003B2 publication Critical patent/JP7419003B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、情報表示装置、情報表示方法、及び情報表示システムに関する。
近年、現実空間に、付加的な情報を重畳してユーザに呈示する拡張現実(AR:AugmentedReality)と呼ばれる画像重畳技術が開発されている。重畳される付加的な情報は、テキスト、アイコン、又はアニメーション等の様々な種類の表示オブジェクトがユーザの眼前に表示されることで可視化され得る。
AR技術はエンターテインメント、マーケティング、観光、工業等の分野において幅広く使用されており、AR技術を用いた様々な商品やサービスが提案されている。例えば、AR技術を用いたものの一例として、特開2014-127148号公報(特許文献1)には「撮像画像を取得し、該撮像画像に含まれている所定のトリガ情報を認識するトリガ認識部と、前記撮像画像が撮像された時点の状況又は過去のコンテンツの取得状況、及び前記トリガ認識部が認識した前記所定のトリガ情報に対応した、拡張現実情報が含まれるコンテンツを取得するコンテンツ取得部と、を備える、情報処理装置」が記載されている。
特開2014-127148号公報
上記の特許文献1においては、複数の異なるARマーカを順番に検知して、当該ARマーカが検知された順番によって異なるARコンテンツを表示する技術が記載されている。特許文献1に係る発明によれば、複数のARマーカで位置的又は時間的連動性を持たせ、過去に検知されたARコンテンツと異なる、新しいARコンテンツを提供することができる。
しかしながら、特許文献1の発明では、同時に検知された複数の異なるARマーカの組み合わせによって仮想オブジェクトの表示位置や表示形式を決定することが検討されておらず、特定の仮想オブジェクトに対するユーザの注目点に基づいてARコンテンツを更に追加することも検討されていない。
そこで、本発明は、同時に検知された複数の異なるARマーカの種類、数、位置等に基づいて、現実空間に表示する仮想オブジェクトの表示位置及び表示形式を決定し、特定の仮想オブジェクトに対するユーザの注目点に基づいて他の仮想オブジェクトを追加する情報表示装置を提供することを目的とする。
上記の課題を解決するために、代表的な本発明の1つは、情報表示装置であって、複数のARマーカーを含む現実映像をカメラから取得するデータ送受信部と、現実映像におけるARマーカーのタグ情報、種類及び数を判定し、ARマーカーの種類及び数に基づいて第1の仮想オブジェクトのための第1の表示パターンを決定するデータ分析部と、ARマーカーのタグ情報に基づいて、第1の仮想オブジェクトとなる第1の付加情報を仮想オブジェクト情報管理データベースから取得し、第1の付加情報に基づいて第1の仮想オブジェクトを作成するオブジェクト作成部と、決定した第1の表示パターンに従って、作成した第1の仮想オブジェクトを現実映像に重ね合わせた第1の拡張現実映像を作成し、出力する拡張現実管理部とを含む。
本発明によれば、同時に検知された複数の異なるARマーカの種類、数、位置等に基づいて、現実空間に表示する仮想オブジェクトの表示位置及び表示形式を決定し、特定の仮想オブジェクトに対するユーザの注目点に基づいて他の仮想オブジェクトを追加する情報表示装置を提供することができる。
上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
本発明の実施形態を実施するためのコンピュータシステムのブロック図である。 本発明の実施形態に係るシステム構成を示す図である 本発明の実施形態に係る端末装置の一例を示す図である。 本発明の実施形態に係るARマーカを認識した場合に表示される仮想オブジェクトの一例を示す図である。 本発明の実施形態に係るARマーカを認識した場合に表示される仮想オブジェクトの別の一例を示す図である。 本発明の実施形態に係るARマーカを認識した場合に表示される仮想オブジェクトの別の一例を示す図である。 本発明の実施形態に係るARマーカを認識した場合に表示される仮想オブジェクトの別の一例を示す図である。 本発明の実施形態に係るARマーカ・仮想オブジェクト管理テーブルの一例を示す図である。 本発明の実施形態に係る第1の付加情報管理テーブルの一例を示す図である。 本発明の実施形態に係る非表示情報管理テーブルの一例を示す図である。 本発明の実施形態に係る第2の付加情報管理テーブルの一例を示す図である。 本発明の実施形態に係る情報表示処理のフローを示すフローチャートである。 本発明の実施形態に係る注目点分析処理のフローを示すフローチャートである。 本発明の実施形態に係る仮想オブジェクトの表示パターンを決定する処理のフローを示すフローチャートである。 本発明の実施形態に係るARマーカの4隅の座標の一例を示す図である。 本発明の実施形態に係る仮想オブジェクトのベース座標の一例を示す図である。 本発明の実施形態に係る仮想オブジェクトの表示パターンの一例を示す図である。 本発明の実施形態に係る仮想オブジェクトの表示パターンの別の一例を示す図である。 本発明の実施形態に係る情報表示手段をサーバの保守作業に適用した具体例の1つの態様を示す図である。 本発明の実施形態に係る情報表示手段をサーバの保守作業に適用した具体例のもう1つの態様を示す図である。 本発明の実施形態に係る情報表示手段をサーバの保守作業に適用した具体例のもう1つの態様を示す図である。 本発明の実施形態に係る情報表示手段をサーバの保守作業に適用した場合に、必要なデータをデータベースから取得する一例を示す図である。 本発明の実施形態に係る情報表示手段をサーバの保守作業に適用した場合に、必要なデータをデータベースから取得する別の一例を示す図である。 本発明の実施形態に係る情報表示手段をサーバの保守作業に適用した場合に、必要なデータをデータベースから取得する別の一例を示す図である。 本発明の実施形態に係る仮想オブジェクトを固定する動作の一例を示す図である。
以下、図面を参照して、本発明の実施形態について説明する。なお、この実施形態により本発明が限定されるものではない。また、図面の記載において、同一部分には同一の符号を付して示している。
(ハードウエア構成)
まず、図1を参照して、本開示の実施形態を実施するためのコンピュータシステム300について説明する。本明細書で開示される様々な実施形態の機構及び装置は、任意の適切なコンピューティングシステムに適用されてもよい。コンピュータシステム300の主要コンポーネントは、1つ以上のプロセッサ302、メモリ304、端末インターフェース312、ストレージインタフェース314、I/O(入出力)デバイスインタフェース316、及びネットワークインターフェース318を含む。これらのコンポーネントは、メモリバス306、I/Oバス308、バスインターフェースユニット309、及びI/Oバスインターフェースユニット310を介して、相互的に接続されてもよい。
コンピュータシステム300は、プロセッサ302と総称される1つ又は複数の汎用プログラマブル中央処理装置(CPU)302A及び302Bを含んでもよい。ある実施形態では、コンピュータシステム300は複数のプロセッサを備えてもよく、また別の実施形態では、コンピュータシステム300は単一のCPUシステムであってもよい。各プロセッサ302は、メモリ304に格納された命令を実行し、オンボードキャッシュを含んでもよい。
ある実施形態では、メモリ304は、データ及びプログラムを記憶するためのランダムアクセス半導体メモリ、記憶装置、又は記憶媒体(揮発性又は不揮発性のいずれか)を含んでもよい。メモリ304は、本明細書で説明する機能を実施するプログラム、モジュール、及びデータ構造のすべて又は一部を格納してもよい。例えば、メモリ304は、情報表示アプリケーション350を格納していてもよい。ある実施形態では、情報表示アプリケーション350は、後述する機能をプロセッサ302上で実行する命令又は記述を含んでもよい。
ある実施形態では、情報表示アプリケーション350は、プロセッサベースのシステムの代わりに、またはプロセッサベースのシステムに加えて、半導体デバイス、チップ、論理ゲート、回路、回路カード、および/または他の物理ハードウェアデバイスを介してハードウェアで実施されてもよい。ある実施形態では、情報表示アプリケーション350は、命令又は記述以外のデータを含んでもよい。ある実施形態では、カメラ、センサ、または他のデータ入力デバイス(図示せず)が、バスインターフェースユニット309、プロセッサ302、またはコンピュータシステム300の他のハードウェアと直接通信するように提供されてもよい。
コンピュータシステム300は、プロセッサ302、メモリ304、表示システム324、及びI/Oバスインターフェースユニット310間の通信を行うバスインターフェースユニット309を含んでもよい。I/Oバスインターフェースユニット310は、様々なI/Oユニットとの間でデータを転送するためのI/Oバス308と連結していてもよい。I/Oバスインターフェースユニット310は、I/Oバス308を介して、I/Oプロセッサ(IOP)又はI/Oアダプタ(IOA)としても知られる複数のI/Oインタフェースユニット312,314,316、及び318と通信してもよい。
表示システム324は、表示コントローラ、表示メモリ、又はその両方を含んでもよい。表示コントローラは、ビデオ、オーディオ、又はその両方のデータを表示装置326に提供することができる。また、コンピュータシステム300は、データを収集し、プロセッサ302に当該データを提供するように構成された1つまたは複数のセンサ等のデバイスを含んでもよい。
例えば、コンピュータシステム300は、心拍数データやストレスレベルデータ等を収集するバイオメトリックセンサ、湿度データ、温度データ、圧力データ等を収集する環境センサ、及び加速度データ、運動データ等を収集するモーションセンサ等を含んでもよい。これ以外のタイプのセンサも使用可能である。表示システム324は、単独のディスプレイ画面、テレビ、タブレット、又は携帯型デバイスなどの表示装置326に接続されてもよい。
I/Oインタフェースユニットは、様々なストレージ又はI/Oデバイスと通信する機能を備える。例えば、端末インタフェースユニット312は、ビデオ表示装置、スピーカテレビ等のユーザ出力デバイスや、キーボード、マウス、キーパッド、タッチパッド、トラックボール、ボタン、ライトペン、又は他のポインティングデバイス等のユーザ入力デバイスのようなユーザI/Oデバイス320の取り付けが可能である。ユーザは、ユーザインターフェースを使用して、ユーザ入力デバイスを操作することで、ユーザI/Oデバイス320及びコンピュータシステム300に対して入力データや指示を入力し、コンピュータシステム300からの出力データを受け取ってもよい。ユーザインターフェースは例えば、ユーザI/Oデバイス320を介して、表示装置に表示されたり、スピーカによって再生されたり、プリンタを介して印刷されたりしてもよい。
ストレージインタフェース314は、1つ又は複数のディスクドライブや直接アクセスストレージ装置322(通常は磁気ディスクドライブストレージ装置であるが、単一のディスクドライブとして見えるように構成されたディスクドライブのアレイ又は他のストレージ装置であってもよい)の取り付けが可能である。ある実施形態では、ストレージ装置322は、任意の二次記憶装置として実装されてもよい。メモリ304の内容は、ストレージ装置322に記憶され、必要に応じてストレージ装置322から読み出されてもよい。I/Oデバイスインタフェース316は、プリンタ、ファックスマシン等の他のI/Oデバイスに対するインターフェースを提供してもよい。ネットワークインターフェース318は、コンピュータシステム300と他のデバイスが相互的に通信できるように、通信経路を提供してもよい。この通信経路は、例えば、ネットワーク330であってもよい。
ある実施形態では、コンピュータシステム300は、マルチユーザメインフレームコンピュータシステム、シングルユーザシステム、又はサーバコンピュータ等の、直接的ユーザインターフェースを有しない、他のコンピュータシステム(クライアント)からの要求を受信するデバイスであってもよい。他の実施形態では、コンピュータシステム300は、デスクトップコンピュータ、携帯型コンピュータ、ノートパソコン、タブレットコンピュータ、ポケットコンピュータ、電話、スマートフォン、又は任意の他の適切な電子機器であってもよい。
次に、図2を参照して、本発明の実施形態に係る情報表示システムの構成について説明する。
図2は、本発明の実施形態に係る情報表示システム200の構成を示す図である。図2に示すように、情報表示システム200は、主にデータ取得装置210A,210B,制御装置220、及び端末装置240からなる。データ取得装置210A,210B,制御装置220、及び端末装置240は、例えばインターネット等の通信ネットワーク(図示せず)を介して互いに接続されてもよい。
データ取得装置210A,210Bは、周囲の環境に関する情報を収集し、収集した情報を制御装置220に送信するための機能部である。データ取得装置210A,210Bは、対象のデータが取得しやすい場所に設置されてもよい。例えば、サーバの温度のデータを取得した場合には、データ取得装置210A,210Bのそれぞれは、サーバの内部に設置されてもよい。
なお、図2では、データ取得装置210A及び210Bの2つのデータ取得装置を含む構成を一例として示しているが、本発明はこれに限定されず、データ取得装置は1つであってもよく、3つ以上であってもよい。
図2に示すように、データ取得装置210A,210Bはそれぞれ、センサー部212A,212B及びデータ送受信部214Aを含む。センサー部212A,212Bは、自然現象や人工物の機械的・電磁気的・熱的・音響的・化学的性質あるいはそれらで示される空間情報・時間情報を、何らかの科学的原理を応用して、人間や機械が扱い易い別媒体の信号に置き換える装置である。
センサー部212A,212Bは、例えばCPUやメモリ使用率データを収集するデジタルセンサ、心拍数データやストレスレベルデータ等を収集するバイオメトリックセンサ、湿度データ、温度データ、水圧データ、気圧データ、照度データ等を収集する環境センサ、及び加速度データ、運動データ等を収集するモーションセンサ等を含んでもよいが、本発明に係るセンサー部はこれに限定されない。
データ送受信部214A,214Bは、センサー部212A,212Bから取得した情報を制御装置220に送信するための機能部である。データ送受信部214A,214Bは、センサー部212A,212Bが取得した情報をインターネット等の通信ネットワーク(図示せず)を介して制御装置220に送信してもよい。なお、データ送受信部214A,214Bは、データの送信に限定されず、制御装置220からの命令を受信し、センサー部212A,212Bを受信した指示に基づいて制御してもよい。
制御装置220は、データ取得装置210A,210Bから受信した情報を管理し、端末装置に出力されるARコンテンツ(仮想オブジェクト等)の生成及び提供を行うための装置である。この制御装置220は、例えばデータ取得装置及び端末装置から離れた場所に設置され、インターネット等の通信ネットワーク(図示せず)を介してデータ取得装置及び端末装置に接続される遠隔サーバ装置として構成されてもよい。
図2に示すように、制御装置220は、データ送受信部222,データ分析部224、ストレージ部226,オブジェクト作成部228,拡張現実管理部230、及び視線分析部232を含む。
データ送受信部222は、上述したデータ取得装置及び後述する端末装置240との情報通信を行うための機能部である。データ送受信部222は、例えば、データの取得頻度を指定する命令をデータ取得装置に送信したり、作成したARコンテンツを端末装置に配信したりすることができる。
データ分析部224は、データ取得装置及び端末装置から受信する各種データを分析するための機能部である。データ分析部224は、例えば、後述する端末装置から受信する現実空間の映像に写るARマーカを特定したり、データ取得装置から受信するセンサーデータを解析したりしてもよい。
なお、ここでのARマーカとは、ARコンテンツを表示するトリガとして機能する標識となる、決まったパターンの画像を意味する。ARマーカは、例えばQRコード(登録商標)や他の所定の画像であってもよい。また、一般的には、各ARマーカは、そのARマーカを一意に識別し、どのような付加情報をARコンテンツとして表示すべきかを定義するタグに紐づけられる。その後、ARマーカが検知されると、当該ARマーカのタグに指定されているARコンテンツとなる付加情報が所定の記憶媒体(例えば、後述するストレージ部226)から読み出され、表示される。
ストレージ部226は、情報表示システム200の各機能部機能部が用いる各種データを格納するためのストレージ装置である。ストレージ部226は、例えばフラッシュメモリ、ハードディスクドライブ等、任意の記憶媒体であってもよい。ストレージ部226は、例えば後述するARマーカ・仮想オブジェクト管理テーブル、第1の付加情報管理テーブル、非表示情報管理テーブル、及び第2の付加情報管理テーブルを格納してもよい。
オブジェクト作成部228は、現実空間の映像に重畳する仮想オブジェクトを生成するための機能部である。オブジェクト作成部228は、データ分析部によって特定されたARマーカのタグに対応する付加情報をストレージ部226から取得し、当該情報に応じた仮想オブジェクトを生成してもよい。例えば、ARマーカのタグに紐づいたARコンテンツが「サーバAの温度表示」である場合には、オブジェクト作成部228は、上述したストレージ部226から、サーバAの温度情報を取得し、当該情報を表示するための仮想オブジェクト(温度値を示す吹き出し、グラフ、アニメーション等)を生成してもよい。
上述したように、仮想オブジェクトを作成する際に、オブジェクト作成部228は、仮想オブジェクトの表示位置及び配置形式を指定する表示パターンを、検知されたARマーカの数、種類、及び位置に基づいて決定してもよい。なお、仮想オブジェクトの表示パターンを決定する処理については後述する。
拡張現実管理部230は、オブジェクト作成部228によって生成される仮想オブジェクトを実空間の映像に重畳させた拡張現実映像を作成し、この拡張現実映像を端末装置に提供する機能部である。拡張現実管理部230は、検知されたARマーカの数、種類、及び位置に基づいて決定された仮想オブジェクトの表示パターンに従って拡張現実映像を作成してもよい。
視線分析部232は、後述する端末装置240の映像表示部244に表示される映像において、ユーザの視点の場所(ユーザがどこを見ているか)や頭部に対する眼球の動きを計測し、追跡するための機能部である。視線分析部232は、ユーザの視点の場所や眼球の動きを計測することで、ユーザが映像において注目している箇所(以下、注目点)の座標を特定することができる。後述するように、本発明では、現実空間に重畳する仮想オブジェクトの内容、表地位置、及び表示形式は、注目点の座標の情報に基づいて表示されてもよい。
なお、ここでの視線分析部232は、例えば眼に特殊なコンタクトレンズを取り付け、その動きを測定する手段、光学的な技術を用いて測定する手段、あるいは眼の周りに電極を配置し、眼球を動かすための筋肉などから発生する電位を測定する手段等、任意の手段を用いてもよい。
端末装置240は、仮想オブジェクトを現実空間の映像に重畳した拡張現実映像をユーザに提供するための装置である。この端末装置240は、例えばヘッドマウントディスプレイ、スマートフォン、タブレット等のコンピューティングデバイスであってもよく、拡張現実映像を表示することが可能なデバイスであれば特に限定されない。
図2に示すように、端末装置240は、データ送受信部241、カメラ部242及び映像表示部244を含んでもよい。
データ送受信部241は、上述した制御装置222との情報通信を行うための機能部である。データ送受信部241は、例えば後述するカメラ部242によって撮像された現実空間の映像を制御装置222に送信したり、制御装置222によって生成された拡張現実映像を受信したりしてもよい。
カメラ部242は、現実空間の映像を撮影するための機能部である。このカメラ部242は、現実空間の映像を継続的に撮影し、撮影した映像をリアルタイムで動的に制御装置222に送信してもよい。
映像表示部244は、仮想オブジェクトを現実空間の映像に重畳した拡張現実映像をユーザに表示するためのディスプレイである。
次に、図3を参照して、本発明の実施形態に係る端末装置の一例について説明する。
図3は、本発明の実施形態に係る端末装置240の一例を示す図である。
上述したように、本発明の実施形態に係る、仮想オブジェクトを現実空間の映像に重畳した拡張現実映像をユーザに提供する端末装置240は、例えば携帯端末240A又はヘッドマウントディスプレイ240Bとして実装されてもよい。
携帯端末240は、ユーザが手で持つコンピューティングデバイスである。この携帯端末240は、例えばスマートフォンやタブレット等であってもよい。端末装置240を携帯端末240Aとして構成することにより、ユーザは小型かつ軽量のデバイスで拡張現実映像を見ることができる。
ヘッドマウントディスプレイ240Bは、ユーザの頭部に装着するディスプレイ装置である。このヘッドマウントディスプレイ240Bは、例えば片目のみを覆う単眼型、又は両目を覆う両目型であってもよく、形状やディスプレイ方式は適宜に選択されてもよい。端末装置240をヘッドマウントディスプレイ240Bとして構成することにより、ユーザの手が空くこととなるため、作業をより自由に行うことができる。
上述した端末装置240の形態は、使用される目的及び環境に基づいて適宜に選択されてもよい。例えば、本発明の実施形態に係る情報表示手段は、観光地で食事やイベントの案内情報を表示するために使用されている場合には、端末装置240を小型かつ軽量な携帯端末240Aとして実装することがユーザの利便性の観点から好ましいことがある。一方、本発明の実施形態に係る情報表示手段は、配管の保守作業を行う際に使用されている場合には、端末装置240をヘッドマウントディスプレイ240Bとして実装することが作業者の作業効率の観点から好ましいことがある。
次に、図4~図7を参照して、本発明の実施形態に係る情報表示手段を用いてARマーカを認識する場合に表示される拡張現実映像の例について説明する。
図4~図7は、本発明の実施形態に係る情報表示手段を用いてARマーカを認識する場合に表示される拡張現実映像の例を示す図である。上述したように、本発明の実施形態に係る情報表示手段は、同時に検知した複数の異なるARマーカの種類、数、位置等に基づいて、現実空間に表示する仮想オブジェクトの表示パターンを決定する。ここでいう表示パターンとは、仮想オブジェクトの形式(例えば、テキスト、グラフ、アニメーション等)や、ベースとなる現実映像において仮想オブジェクトを表示する位置(例えば平面座標)を指定する情報である。
以下、端末装置によって撮影された映像と、当該映像に写っているARマーカに応じて表示される仮想オブジェクトの例について説明する。
図4は、1つのARマーカ425を含む入力映像420と、このARマーカ425に応じて作成される仮想オブジェクト445を含む拡張現実映像440とを示す図である。図4に示す入力映像420が撮影され、ARマーカ425が上述したデータ分析部によって認識されると、仮想オブジェクト445を含む拡張現実映像440がオブジェクト作成部及び拡張現実管理部によって作成され、端末装置の映像表示部に表示される。
上述したように、本発明の実施形態に係る情報表示手段は、同時に検知した複数の異なるARマーカの種類、数、位置等に基づいて、現実空間に表示する仮想オブジェクトの表示パターン(すなわち、表示位置及び表示形式)を決定する。例えば、図4のように1つだけのARマーカが認識される場合には、当該ARマーカに紐づいた情報を詳細に示す仮想オブジェクトを表示することができる。従って、本発明の実施形態に係る情報表示手段では、例えば認識されるARマーカの数が1つのみの場合には、そのARマーカに紐づいた情報を詳細に示す仮想オブジェクト(例えば仮想オブジェクト445)を表示してもよい。
これにより、ユーザは、認識されたARマーカに対応するARコンテンツの詳細情報を見ることができる。
図5は、3つのARマーカを含む入力映像520と、この3つのARマーカに応じて作成される拡張現実映像540とを示す図である。図5に示す入力映像520が撮影され、この3つのARマーカが上述したデータ分析部によって認識されると、3つの仮想オブジェクトを含む拡張現実映像540がオブジェクト作成部及び拡張現実管理部によって作成され、端末装置の映像表示部に表示される。
図5に示すように、例えば3つのARマーカが認識される場合には、認識したそれぞれのARマーカに紐づいた情報から作成した仮想オブジェクトを表示してもよい。この場合、端末装置の映像表示部の画面の面積や解像度によっては、仮想オブジェクトの情報量は調整されてもよい。例えば、3つのARマーカに紐づいた情報を詳細に示すと画面が混んで見にくくなる場合には、ARマーカに紐づいた情報をより簡潔に示す仮想オブジェクトを作成して表示することができる。
図6は、6つのARマーカを含む入力映像620と、この6つのARマーカに応じて作成される拡張現実映像640とを示す図である。図6に示す入力映像620が撮影され、この6つのARマーカが上述したデータ分析部によって認識されると、6つのARマーカに対応する付加情報をまとめて表示する仮想オブジェクトを含む拡張現実映像640がオブジェクト作成部及び拡張現実管理部によって作成され、端末装置の映像表示部に表示される。
多数のARマーカが同時に認識される場合には、それぞれのARマーカに紐づいた情報を個別の仮想オブジェクトとして作成して表示すると、映像表示部のディスプレイが仮想オブジェクトで混んでしまい、画面が見にくくなることがある。従って、本発明の実施形態に係る情報表示手段では、例えば認識されるARマーカの数が所定の数(例えば4つ以上)を超えると、それぞれのARマーカに紐づいた情報を個別の仮想オブジェクトとして表示する代わりに、それぞれのARマーカに紐づいた情報を1つのまとめた仮想オブジェクトとして表示してもよい(拡張現実映像640参照)。
これにより、表示されるARコンテンツが見やすくなり、端末装置の映像表示部の画面面積をより効率的に使用することができる。
図7は、ユーザの注目点によって表示される仮想オブジェクトを変更する一例を示す図である。上述したように、本発明の実施形態に係る情報表示手段は、ユーザの注目点に基づいて仮想オブジェクトを作成して表示することができる。例えば、図7に示すように、端末装置の視線分析部(例えば図2に示す視線分析部232)は、ユーザの注目点が仮想オブジェクト710に向けられていると判定する場合には、この仮想オブジェクト710に埋め込まれている(後述する)非表示情報から作成した仮想オブジェクト720が表示されてもよい。そして、視線分析部は、ユーザの注目点が仮想オブジェクト710から仮想オブジェクト730に移ったと判定する場合には、この仮想オブジェクト730に埋め込まれている非表示情報から作成した仮想オブジェクト740が表示されてもよい。
これにより、ユーザは手等を使うことなく、目の動きだけで興味のあるARコンテンツを表示させることができる。
次に、図8~図11を参照して、本発明の実施形態に係る情報表示処理において用いられる情報管理テーブルについて説明する。
図8は、本発明の実施形態に係るARマーカ・仮想オブジェクト管理テーブル800の一例を示す図である。図8に示すARマーカ・仮想オブジェクト管理テーブル800は、仮想オブジェクトとなる付加情報810毎に、当該付加情報に該当するARマーカのタグ820、視線注目状態830、及び仮想オブジェクト形式840を示すテーブルである。撮影された現実映像において特定のARマーカのタグ820が検知されると、上述したオブジェクト作成部は、検知したARマーカのタグ820に対応する仮想オブジェクトの付加情報810及び形式840をARマーカ・仮想オブジェクト管理テーブル800に基づいて特定することができる。
なお、図8に示す仮想オブジェクト形式840は、仮想オブジェクトをどの形式で表示すべきかを指定するものであり、「A」、「B」、「C」、「D」のそれぞれは、例えばテキスト、グラフ、画像、動画等、任意の形式形態を指定するラベルである。
図9は、本発明の実施形態に係る第1の付加情報管理テーブル900の一例を示す図である。図9に示す第1の付加情報管理テーブル900は、仮想オブジェクト(例えば、ARマーカに基づいて作成される第1の仮想オブジェクト)となる付加情報を格納するテーブルである。撮影された現実映像において特定のARマーカのタグが検知され、当該ARマーカのタグに対応する付加情報が(例えば図8に示すARマーカ・仮想オブジェクト管理テーブル800に基づいて)特定されると、次に、上述したオブジェクト作成部は、特定した付加情報を第1の付加情報管理テーブル900から取得する。その後、オブジェクト作成部は、第1の付加情報管理テーブル900から取得した付加情報に応じた仮想オブジェクトを作成してもよい。
なお、図9に示す第1の付加情報管理テーブル900では、サーバのCPU温度、気温、湿度、イベント等の情報が仮想オブジェクトの付加情報として例示されているが、本発明はそれに限定されず、仮想オブジェクトの付加情報は、本発明に係る情報表示手段の使用される目的及び環境に応じて適宜に構成されてもよい。
図10は、本発明の実施形態に係る非表示情報管理テーブル1000の一例を示す図である。後述するように、拡張現実映像に重畳される仮想オブジェクトは、複数のエリアに分割されており、それぞれのエリアにおいて、異なる非表示情報が埋め込まれている。この非表示情報は、映像に表示されず、視線分析部によって検知される情報である。視線分析部は、ユーザの注目点が仮想オブジェクトのエリアに向けられていると検知すると、そのエリアに埋め込まれている非表示情報によって指定されている付加情報を指定されているテーブル(例えば、後述する第2付加情報管理テーブル1100)から取得し、当該付加情報に応じて新たな仮想オブジェクト(例えば、第2の仮想オブジェクト)を、非表示情報によって指定されている表示パターンに従って作成し、拡張現実映像に追加する。
例えば、視線分析部は、ユーザの注目点が「CPU温度」のエリアに向けられていると判定すると、当該エリアの条件に従って、プロセッサ毎のCPU使用率を、例えば、後述する第2の付加情報管理テーブル1100から取得し、取得した情報を表形式で示す仮想オブジェクトを作成し、拡張現実映像に追加してもよい。
図11は、本発明の実施形態に係る第2の付加情報管理テーブル1100の一例を示す図である。図11は、ユーザの注目点が検知される際に、ユーザの注目点のエリアに埋め込まれている非表示情報によって指定される付加情報を格納するテーブルである。図11に示す第2の付加情報は、表示中の第1の仮想オブジェクトがユーザの注目点の対象となった場合に、新たな仮想オブジェクト(例えば、第2、第3、第4等の仮想オブジェクト)を作成するための情報である。また、図11に示すように、この第2の付加情報は、サーバのプロセッサ毎のCPU使用率やイベントの情報等を含んでもよい。
なお、図11に示す第2の付加情報管理テーブル1100では、サーバのCPU使用率やイベント等の情報が付加情報として例示されているが、本発明はそれに限定されず、付加情報は、本発明に係る情報表示手段の使用される目的及び環境に応じて適宜に構成されてもよい。
次に、図12を参照して、本発明の実施形態に係る情報表示の処理フローについて説明する。
図12は、本発明の実施形態に係る情報表示の処理1200のフローを示すフローチャートである。
まず、ステップS1201では、制御装置のデータ送受信部(例えば、図2に示す制御装置220のデータ送受信部222)は、端末装置(例えば、図2に示す端末装置240)から、現実映像を受信する。この現実映像は、例えば端末装置のカメラ部(例えば、図2に示す242)によって撮影された映像であってもよい。
なお、この映像は、リアルタイムで継続的に撮影された生配信であってもよい。
次に、ステップS1202では、制御装置のデータ分析部(例えば、図2に示す制御装置220のデータ分析部224)は、映像におけるARマーカの種類と数を分析する。ここで、データ分析部は、例えば既存の画像処理手段を用いて、受信する映像に埋め込まれているARマーカを検知し、検知したARマーカの種類を判定し、種類毎の数を計算してもよい。
次に、ステップS1203では、オブジェクト作成部は、検知したARマーカの種類及び数に基づいて、当該ARマーカに該当する仮想オブジェクトの表示情報をストレージ部から取得する。ここで、オブジェクト作成部は、上述したARマーカ・仮想オブジェクト管理テーブル(例えば、図8に示すARマーカ・仮想オブジェクト管理テーブル800)を用いることで、検知したARマーカに該当する付加情報を特定し、当該付加情報を、第1の付加情報管理テーブル(例えば、図9に示す第1の付加情報管理テーブル900)から取得してもよい。
次に、ステップS1204では、オブジェクト作成部は、検知したARマーカの種類及び数に基づいて、仮想オブジェクトの表示パターンを決定する。ここで、オブジェクト作成部は、上述したARマーカ・仮想オブジェクト管理テーブルを用いることで、検知したARマーカに該当する仮想オブジェクト形式を決定してもよい。例えば、図8を参照して一例を説明すると、後述する図14の処理の結果、付加情報「1」が決定される場合には、オブジェクト作成部は、「C」の仮想オブジェクト形式を決定する。
なお、ステップS1203~S1204の詳細については、図14を参照して後述する。
次に、ステップS1205では、オブジェクト作成部は、ステップS1203でストレージ部から取得した仮想オブジェクトの付加情報と、ステップS1204で決定した表示パターンとに基づいて仮想オブジェクトを作成する。例えば、ストレージ部から取得した付加情報は、「サーバ1CPU温度:60度」と示し、仮想オブジェクトの表示パターンは「テキスト形式」と示す場合には、オブジェクト作成部は、「サーバ1CPU温度:60度」を表形式で示す仮想オブジェクトを作成してもよい。
次に、ステップS1206では、オブジェクト作成部は、ステップS1205で作成した仮想オブジェクトと、ステップS1201で受信した現実映像とを合成し、仮想オブジェクトが現実映像に重畳されている拡張現実映像を生成する。
次に、ステップS1207では、ステップS1206で生成される拡張現実映像が端末装置に送信される。拡張現実映像を受信した端末装置は、当該拡張現実映像を映像表示部に表示する。
次に、ステップS1208では、ユーザの注目点の有無が判定される。ユーザ注目点が仮想オブジェクトに向けられている場合には、本処理はステップS1208に進む。ユーザ注目点が仮想オブジェクトに向けられていない場合には、本処理は終了する。
これにより、同時に検知された複数の異なるARマーカの種類、数、位置等に基づいて決定した表示パターンに従って、所望の仮想オブジェクトを作成することができる。
次に、図13を参照して、本発明の実施形態に係る注目点分析の処理フローについて説明する。
図13は、本発明の実施形態に係る注目点分析の処理1300のフローを示すフローチャートである。
まず、ステップS1301では、制御装置の視線分析部(例えば、図2に示す制御装置220の視線分析部232)は、端末装置(例えば、図2に示す端末装置240)から、ユーザの視線の座標を示す情報を受信し、当該情報を分析することで、拡張現実映像における注目点の座標を算出する。ここでの座標は、例えば一般的な平面座標であってもよい。
次に、ステップS1302では、視線分析部は、ステップS1301で算出した注目点の座標が、拡張現実映像に重畳されている仮想オブジェクトのエリアに含まれているか否かを判定する。ユーザの注目点の座標が仮想オブジェクトのエリアに含まれている場合には、本処理はステップS1303に進む。ユーザの注目点の座標が仮想オブジェクトのエリアに含まれていない場合には、本処理は終了する。
次に、ステップS1303では、視線分析部は、注目点を含むエリアに埋め込まれている非表示情報を取得する。上述したように、この非表示情報は、追加の仮想オブジェクト(例えば、第2、第3、第4等の仮想オブジェクト)となる付加情報や、当該仮想オブジェクトの表示パターンを指定する条件を示すものである。
次に、ステップS1304では、視線分析部は、取得した非表示情報に基づいて、追加の仮想オブジェクトの表示パターンを決定する。この表示パターンは、取得した非表示情報によって指定されている条件に応じて決定されてもよい。例えば、非表示情報は、付加情報を「グラフ形式」で表示することを指定する場合には、視線分析部は、追加の仮想オブジェクトの表示パターンを「グラフ形式」として決定してもよい。
次に、ステップS1305では、オブジェクト作成部は、追加の仮想オブジェクトとなる付加情報をストレージ部から取得する。具体的には、オブジェクト作成部は、非表示情報によって指定されている情報を付加情報管理テーブル(例えば、図11に示す第2の付加情報管理テーブル1100)から取得してもよい。
次に、ステップS1306では、オブジェクト作成部は、付加情報管理テーブルから取得した付加情報に応じた追加の仮想オブジェクト(例えば、第2の仮想オブジェクト)を作成する。上述したように、この追加の仮想オブジェクトは、ユーザの注目点が含まれているエリアに関する詳細情報を示すものであってもよい。例えば、ユーザの注目点がサーバのCPUの使用率を示すエリアに含まれる場合には、そのサーバのCPUの使用率の時系列を示すグラフが追加の仮想オブジェクトとして作成されてもよい。
次に、ステップS1307では、オブジェクト作成部は、追加の仮想オブジェクトと、拡張現実映像と(すなわち、第1の仮想オブジェクトが既に重畳されている拡張現実映像)を合成する。具体的には、オブジェクト作成部は、ステップS1306で作成した追加の仮想オブジェクトを、ユーザの注目点の座標に一致する場所に重畳してもよい。
次に、図14を参照して、本発明の実施形態に係る仮想オブジェクトの表示パターンを決定する処理について説明する。
図14は、本発明の実施形態に係る仮想オブジェクトの表示パターンを決定する処理1400のフローを示すフローチャートである。図14に示す処理1400は、図12に示す処理1200におけるステップS1203~S1204に対応し、仮想オブジェクトの表示パターンを決定する処理の詳細を示すものである。
まず、ステップS1401では、オブジェクト作成部は、現実映像において特定された全てのARマーカに対して、未分析のフラグを設定する。この未分析のフラグとは、当該ARマーカに対応する付加情報を含む仮想オブジェクトが未作成であることを示すラベルである。例えば、ARマーカ1、ARマーカ2、ARマーカ3、及びARマーカ4が特定された場合には、オブジェクト作成部は、ARマーカ1、ARマーカ2、ARマーカ3、及びARマーカ4のそれぞれに対して未分析のフラグを設定する。
なお、この未分析のフラグは、例えば上述したARマーカ・仮想オブジェクト管理テーブルにおいて格納されてもよい(例示せず)。
次に、ステップS1402では、オブジェクト作成部は、未分析のフラグが設定されているARマーカの内、1つのARマーカを選択する。ここで選択されるARマーカは、任意のARマーカであってもよい。例えば、未分析のフラグがARマーカ1、ARマーカ2、ARマーカ3、及びARマーカ4に対して設定されている場合、オブジェクト作成部は、ARマーカ1を選択してもよい。
次に、ステップS1403では、オブジェクト作成部は、上述したARマーカ・仮想オブジェクト管理テーブルを参照して、選択したARマーカに対応する付加情報を取得する。例えば、ARマーカ1が選択された場合には、オブジェクト作成部は、付加情報1、7、及び9を取得する。
次に、ステップS1404では、オブジェクト作成部は、取得したそれぞれの付加情報に対して、未分析のフラグを設定する。上述したように、この未分析のフラグは、当該付加情報を含む仮想オブジェクトが未作成であることを示すラベルであり、ARマーカ・仮想オブジェクト管理テーブルにおいて格納されてもよい(例示せず)。
次に、ステップS1405では、オブジェクト作成部は、未分析のフラグが設定されている付加情報の内、1つを選択する。ここで選択される付加情報は、任意のものであってもよい。例えば、未分析のフラグが付加情報1、7、及び9に対して設定されている場合には、オブジェクト作成部は、付加情報1を選択してもよい。
次に、ステップS1406では、オブジェクト作成部は、ARマーカ・仮想オブジェクト管理テーブルを参照し、選択した付加情報に該当するARマーカと、未分析のARマーカを比較した結果、選択した付加情報に該当するARマーカが未分析のARマーカに含まれているかを判定する(つまり、当該ARマーカが未分析か否かを確認する)。選択した付加情報に該当するARマーカが未分析のARマーカに含まれている場合には、本処理はステップS1407に進み、そうでない場合には、ステップS1408に進む。
例えば、選択した付加情報が付加情報1で、未分析のARマーカがARマーカ1、2、3、4の場合には、付加情報1に該当するARマーカ1が未分析のARマーカに含まれているため、本処理はステップS1408に進む。
次に、ステップS1407では、未分析のARマーカに含まれていないと判定された付加情報は、条件を満たさないと判定され、その旨を示すラベルが(例えば、ARマーカ・仮想オブジェクト管理テーブルにおいて)設定される。
次に、ステップS1408では、未分析のARマーカに含まれていると判定された付加情報は、条件を満たすと判定され、その旨を示すラベルが、(例えば、ARマーカ・仮想オブジェクト管理テーブルにおいて)設定される。
次に、ステップS1409では、オブジェクト作成部は、未分析のフラグが設定されている付加情報が残っているか否かを判定する。未分析の付加情報が残っている場合には、本処理はステップS1405に戻り、ステップS1405~ステップS1408までの処理が未分析の付加情報に対して行われる。未分析の付加情報が残っていない場合には、本処理はステップS1410に進む。この処理は、未分析のフラグが設定されている付加情報が全て処理されるまで繰り返されてもよい。
一例として、ステップS1403で付加情報1、7、及び9が取得され、付加情報1しかステップS1406の判定を受けていない場合には、付加情報7及び付加情報9はまだ未分析データとして残っているため、本処理はステップS1405に戻り、ステップS1405~ステップS1408までの処理が付加情報7、そして付加情報9のそれぞれに対して行われる。その結果、付加情報1及び付加情報7は、条件を満たすものであると分類され、付加情報9は、条件を満たさないものであると分類される。
次に、ステップS1410では、オブジェクト作成部は、条件を満たすと分類された情報が複数あるか否かを判定する。条件を満たすと分類された情報が複数ある場合には、本処理はステップS1412に進み、そうでない場合には、本処理はステップS1411に進む。
例えば、付加情報1及び付加情報7は条件を満たすものであると分類された場合には、ステップS1410の判定の結果が「Yes」となるため、本処理はステップS1412に進む。
次に、ステップS1411では、オブジェクト作成部は、条件を満たすと分類された情報が複数ではないため、条件を満たすと分類された1つの付加情報が「利用する情報」として設定する。
次に、ステップS1412では、オブジェクト作成部は、ARマーカ・仮想オブジェクト管理テーブルを参照し、最も多くのARマーカに該当する付加情報を「利用する情報」として設定する。例えば、図8のARマーカ・仮想オブジェクト管理テーブルに示されるように、付加情報1は、ARマーカ1の1つのARマーカに該当するが、付加情報7は、ARマーカ1、ARマーカ2、及びARマーカ3の3つのARマーカに該当するため、より多くのARマーカに該当する付加情報7が「利用する情報」として設定される。
次に、ステップS1413では、オブジェクト作成部は、「利用する情報」として設定された付加情報に該当するARマーカのフラグを「未分析」から「分析済み」に変更する。例えば、付加情報7が「利用する情報」として設定された場合には、付加情報7に該当するARマーカ1、ARマーカ2、及びARマーカ3の3つのARマーカのフラグが「未分析」から「分析済み」に変更される。
次に、ステップS1414では、データ分析部は、「利用する情報」として設定された付加情報に該当するARマーカについて、現実映像を分析し、それぞれのARマーカの4隅の座標を特定する。例えば、付加情報7が「利用する情報」として設定された場合には、付加情報7に該当するARマーカ1、ARマーカ2、及びARマーカ3の3つのARマーカの座標が特定される。
次に、ステップS1415では、オブジェクト作成部は、特定したARマーカの座標に基づいて、仮想オブジェクトを表示する位置を定義するベース座標を計算する。このベース座標は、仮想オブジェクトを表示する領域の4隅の座標を指定する座標である。仮想オブジェクトのベース座標を計算するためには、オブジェクト作成部は、「利用する情報」として設定された付加情報に該当する全てのARマーカの座標の内、ベース座標となる座標を以下の通りに特定してもよい。
OBJX1:全てのARマーカーのX座標の最小値, OBJY1:全てのARマーカーのY座標の最大値
OBJX2: 全てのARマーカーのX座標の最大値, OBJY2:全てのARマーカーのY座標の最大値
OBJX3:全てのARマーカーのX座標の最小値, OBJY3:全てのARマーカーのY座標の最小値
OBJX4:全てのARマーカーのX座標の最大値, OBJY4:全てのARマーカーのY座標の最小値
なお、本ステップの処理の一例については後述する。
次に、ステップS1416では、オブジェクト作成部は、未分析のARマーカが残っているか否かを判定する。未分析のARマーカが残っている場合には、本処理はステップS1402へ戻り、ステップS1402~S1415の処理を繰り返す。未分析のARマーカが残っていない場合には、本処理は終了する。その後、図12に示す処理1200のステップS1205で上述したように、仮想オブジェクトが作成され、本処理のステップS1415で特定されたベース座標に重畳される。
一例として、ステップS1401でARマーカ1、ARマーカ2、ARマーカ3、及びARマーカ4が特定された場合には、上述した処理の結果ARマーカ1~3が分析され、ARマーカ1~3の付加情報を含む仮想オブジェクトが作成されるが、ARマーカ4はまだ未分析のフラグが設定されている。そのため、ARマーカ1~3の処理が終了した後、ステップS1416の判定の結果が「NO」となり、本処理はステップS1402に戻る。続いて、ステップS1402~S1415がARマーカ4に対して行われる。これにより、現実映像において特定された全てのARマーカに該当する付加情報を含む仮想オブジェクトが作成され、拡張現実映像に重畳されることとなる。
次に、図15を参照して、ARマーカの4隅の座標を特定する一例について説明する。
図15は、本発明の実施形態に係るARマーカの4隅の座標を特定する一例を示す図である。上述したように、仮想オブジェクトを表示するベース座標は、現実映像において検知されるそれぞれのARマーカの4隅の座標に基づいて特定される。ARマーカの4隅の座標を特定するためには、上述したデータ分析部は、例えばキャニー法、その他の1次の手法、閾値処理と連続処理、2次の手法、微分エッジ検出等のエッジ検出手段や他の既存の画像処理手段を用いることで、検知したARマーカの4隅の座標を特定してもよい。
例えば、図15に示すように、データ分析部は、ARマーカ1510、ARマーカ1520、及びARマーカ1530のそれぞれの4隅の平面座標を特定する。
次に、図16を参照して、本発明の実施形態に係る仮想オブジェクトのベース座標の一例について説明する。
図16は、本発明の実施形態に係る仮想オブジェクトのベース座標の一例を示す図である。このベース座標は、仮想オブジェクトを表示する領域の4隅の座標を指定する座標であり、現実映像において検知されるARマーカの4隅の座標に基づいて、図14のステップS1415で示す計算法によって計算される。
例えば、図16に示す仮想オブジェクトのベース座標は、(OBJX1,OBJY1)、(OBJX2,OBJY2)、(OBJX3,OBJY3)、(OBJX4,OBJY4)である。
本発明の実施形態に係る仮想オブジェクトの形式及び位置を示す表示パターンは、同時に検知した複数の異なるARマーカの種類、数、位置等に基づいて決定される。また、上述したように、仮想オブジェクトを表示する領域の4隅の座標は、検知した全てのARマーカの4隅の座標に基づいて計算される。以下では、図17~図18を参照して、本発明の実施形態に係る仮想オブジェクトの表示パターンの例について説明する。
図17は、ARマーカが横に並んでいる場合の、仮想オブジェクトの表示パターンの一例を示す図である。図17に示すように、ARマーカ1710、ARマーカ1720、及びARマーカ1730が横に並んでいる場合には、オブジェクト作成部がそれぞれのARマーカ1710、1720、1730の4隅の座標を特定し、これらの座標から仮想オブジェクト1750のベース座標を計算すると、作成される仮想オブジェクト1750のベース座標がARマーカ1710の左下の隅、ARマーカ1710の左上の隅、ARマーカ1730の右下の隅、及びARマーカ1730の右上の隅に該当する座標となる。その結果、ARマーカ1710、1720、1730に応じて作成される仮想オブジェクト1750は、ARマーカ1710、1720、1730が占領していた領域に表示されることとなる。
図18は、ARマーカが無秩序に並んでいる場合の、仮想オブジェクトの表示パターンの一例を示す図である。図17に示すように、ARマーカ1810、ARマーカ1820、及びARマーカ1830が無秩序に並んでいる場合には、オブジェクト作成部がそれぞれのARマーカ1810、1820、1830の4隅の座標を特定し、これらの座標から仮想オブジェクト1850のベース座標を計算すると、作成される仮想オブジェクト1850のベース座標がARマーカ1810の左の隅、ARマーカ1820の下の隅、ARマーカ1830の上の隅、及びARマーカ1830の右に住みに該当する座標となる。その結果、ARマーカ1810、1820、1830に応じて作成される仮想オブジェクト1850は、ARマーカ1810、1820、及び1830を囲む四角い領域に表示されることとなる。
次に、図19~図21を参照して、本発明の実施形態に係る情報表示手段をサーバの保守作業に適用した具体例について説明する。
図19は、サーバラックに配置されているサーバに付いている1つのARマーカ1925を含む現実映像1920と、このARマーカ1925に応じて作成される仮想オブジェクト1945を含む拡張現実映像1940とを示す図である。図19に示す現実映像1920が撮影され、ARマーカ1925が上述したデータ分析部によって認識されると、仮想オブジェクト1945を含む拡張現実映像1940がオブジェクト作成部及び拡張現実管理部によって作成され、端末装置の映像表示部に表示される。
上述したように、データ分析部は、ARマーカ1925を認識すると、ARマーカの数、種類、及び位置に基づいて、仮想オブジェクトの表示パターンを決定する。次、オブジェクト作成部は、ARマーカ1925に該当する情報をストレージ部から取得して、この情報を示す仮想オブジェクト1945を作成する。その後、拡張現実管理部は、仮想オブジェクト1945を、データ分析部が決定した表示パターンに従って、現実映像1920に重畳した拡張現実映像1940を端末装置の映像表示部に表示する。
例えば、図19に示すように、ARマーカに応じて作成される仮想オブジェクト1945は、CPU温度、気温、及び湿度に関する情報を示してもよい。このように、サーバの保守作業を行う作業者は、サーバの診断を手動で行うことなく、サーバの状態を示す情報を簡単に確認することができる。
図20は、サーバラックに配置されている6台のサーバに付いている6つのARマーカを含む現実映像2020と、この6つのARマーカに応じて作成される拡張現実映像2040とを示す図である。図20に示す現実映像2020が撮影され、この6つのARマーカが上述したデータ分析部によって認識されると、仮想オブジェクト2045を含む拡張現実映像2040がオブジェクト作成部及び拡張現実管理部によって作成され、端末装置の映像表示部に表示される。
上述したように、認識されるARマーカの数が所定の数(例えば4つ以上)を超える場合には、それぞれのARマーカに紐づいた情報を1つのまとめた仮想オブジェクトとして表示することが好ましいことがある。従って、図20に示すように、認識されるARマーカの数が所定の数を超える場合には、オブジェクト作成部は、認識したARマーカに該当し、ストレージ部に格納されている情報に基づいて、サーバラック全体の状態(正常か異常か)を示す仮想オブジェクト2045を作成してもよい。
このように、サーバの保守作業を行う作業者は、サーバ一つ一つを診断することなく、サーバラック全体の状態を簡単に確認することができる。
図21は、本発明の実施形態に係る注目点分析をサーバラックの保守作業に適用した具体例を示す図である。
この具体例では、ARマーカに対応する仮想オブジェクトを含む拡張現実映像が既に作成され、表示されていることを前提とする。例えば、図21に示すように、サーバラックに配置されている複数のサーバ毎に、そのサーバの状態(正常又は異常)を示す仮想オブジェクト2120A,2120B,2120Cが表示されているとする。視線分析部(例えば図2に示す視線分析部232)は、ユーザの注目点が1台のサーバに対応する仮想オブジェクト2120Aに向けられていると判定すると、このサーバ(すなわち、仮想オブジェクト2120A)のCPUに関する付加情報であるCPU温度、気温、湿度等を示す仮想オブジェクト2140を拡張現実映像2110に追加してもよい。
次に、視線分析部は、ユーザの注目点がサーバのCPUを示す仮想オブジェクト2140に移ったと判定すると、このCPUのそれぞれのコアの使用率を示す情報を仮想オブジェクト2142として表示してもよい。また、次に、視線分析部は、ユーザの注目点がコアの使用率を示す仮想オブジェクト2142に移ったと判定すると、このコアの使用率の推移を示すグラフを仮想オブジェクト2144として表示してもよい。更に、視線分析部は、ユーザの注目点がコアの使用率の推移を示すを仮想オブジェクト2144に移ったと判定すると、この推移に対応する作業日誌を示す仮想オブジェクト2146を表示してもよい。
このように、ユーザの視線によって計算される注目点を用いることで、ユーザは拡張現実映像に表示される仮想オブジェクトを目線だけで操作できるため、両手が自由に使え、サーバラック保守等の作業をより容易に行うことができる。
次に、図22~図24を参照して、本発明の実施形態に係る情報表示手段をサーバの保守作業に適用した場合に、必要なデータをデータベースから取得する例について説明する。
図22は、サーバラックに配置されているサーバに付いているARマーカ2225を含む現実映像2220と、このARマーカ2225にユーザの注目点2235が向けられた場合に作成される仮想オブジェクト2255を含む拡張現実映像2250とを示す図である。
上述したように、ARマーカ及び拡張現実映像に重畳される仮想オブジェクトは、複数のエリアに分割されており、それぞれのエリアにおいて、異なる非表示情報が埋め込まれている。この非表示情報は、仮想オブジェクトとなる付加情報、当該付加情報の保存先、及び仮想オブジェクトの表示パターンを指定する。
視線分析部は、ユーザの注目点2235がARマーカ2225の特定のエリアに向けられていると判定した場合、そのエリアに埋め込まれている非表示情報に指定されている情報を指定されているテーブル(例えば、後述する付加情報管理テーブル1100)から取得し、当該情報(CPU温度,気温,湿度等)に応じた仮想オブジェクト2255を、非表示情報によって指定されている表示パターン(例えば、表形式)に従って作成し、拡張現実映像2250に追加する。
図23は、仮想オブジェクト2320に含まれるエリアの一例を示す図である。図23に示すように、仮想オブジェクト2320は、三つのエリア2322、2324、2326に分割されている。それぞれのエリアには、異なる仮想オブジェクトを作成するために用いる付加情報と、その付加情報の形式とを指定する非表示情報が埋め込まれている。
例えば、視線分析部は、ユーザの注目点がCPU温度の情報が表示されているエリア2322に向けられていると判定した場合、エリア2322に埋め込まれている非表示情報に従って、上述した付加情報管理テーブル1100から、過去1時間までの、CPUプロセス名毎のCPU使用率を取得し、その平均値を表の形式で表示する仮想オブジェクト2330を作成してもよい。
また、仮想オブジェクト2320と同様に、新たに作成される仮想オブジェクト2330は、複数のエリア2332、2334、2336に分割されており、それぞれのエリアに非表示情報が埋め込まれている。そのため、図24に示すように、視線分析部は、ユーザの注目点が仮想オブジェクト2330の特定のエリアに向けられていると判定した場合には、そのエリアの非表示情報に従って、新たな仮想オブジェクト2340を作成してもよい。
例えば、図24に示すように、視線分析部は、ユーザの注目点が特定のプロセスxx1の情報が表示されているエリア2332に向けられていると判定した場合、エリア2332に埋め込まれている非表示情報に従って、上述した付加情報管理テーブル1100から、プロセスxx1のCPU使用率の時間変化の様子をグラフ形式で表示する仮想オブジェクト2340を追加で作成してもよい。
次に、図25を参照して、仮想オブジェクトを固定する動作の一例について説明する。
図25は、本発明の実施形態に係る仮想オブジェクトを固定する動作の一例を示す図である。本発明の実施形態に係る情報表示手段を利用する際には、複数の異なるARマーカの仮想オブジェクトを同時に表示することが望ましい場合がある。例えば、本発明に係る情報表示手段をサーバの保守作業に適用した場合には、ユーザは複数のサーバの情報(CPU温度、近、温度等)を比較したいケースが考えられる。そのため、本発明に係る態様の1つでは、ユーザは、表示中の仮想オブジェクトを特定の動作で固定した状態で、別のARマーカに関する仮想オブジェクトを表示させることができる。
ここで、仮想オブジェクトを固定するための動作は、例えばウインク(片目の瞬き)であってもよい。
一例として、例えば図25に示すように、1つのサーバの情報を示す仮想オブジェクト2520が表示されている状態で、ユーザがウインク等の特定の動作を行うことにより、仮想オブジェクトが固定される。その後、ユーザは、注目点を別のARマーカに移すことで、注目の対象となっているサーバに関する新たな仮想オブジェクト2530が表示される。このように、ユーザは複数のサーバの状態に関する状態を同時に見ることができるため、サーバ保守の作業効率を向上させることができる。
以上、本発明の実施の形態について説明したが、本発明は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
210A、210B データ取得装置
212A、212B センサー部
214A、214B データ送受信部
220 制御装置
222 データ送受信部
224 データ分析部
226 ストレージ部
228 オブジェクト作成部
230 拡張現実管理部
232 視線分析部
240 端末装置
241 データ送受信部
242 カメラ部
244 映像表示部

Claims (6)

  1. 情報表示装置であって、
    複数のARマーカーを含む現実映像をカメラから取得するデータ送受信部と、
    前記現実映像におけるARマーカーのタグ情報、種類及び数を判定し、前記ARマーカーの種類及び数に基づいて第1の仮想オブジェクトのための第1の表示パターンを決定するデータ分析部と、
    前記ARマーカーのタグ情報に基づいて、前記第1の仮想オブジェクトとなる第1の付加情報を仮想オブジェクト情報管理データベースから取得し、前記第1の付加情報に基づいて前記第1の仮想オブジェクトを作成するオブジェクト作成部と、
    決定した前記第1の表示パターンに従って、作成した前記第1の仮想オブジェクトを前記現実映像に重ね合わせた第1の拡張現実映像を作成し、出力する拡張現実管理部と、
    前記第1の拡張現実映像における利用者の視線位置を判定する視線分析部とを含み、
    前記視線分析部は、
    前記第1の仮想オブジェクトに対して、前記利用者による目の瞬きを検知した場合、
    前記第1の仮想オブジェクトの表示位置及び表示形式を固定する、
    ことを特徴とする情報表示装置。
  2. 前記情報表示装置は
    記視線位置が前記第1の仮想オブジェクトに向けられていると判定する場合には、
    前記データ分析部は、
    前記第1の仮想オブジェクトに基づいて、第2の仮想オブジェクトのための第2の表示パターンを決定し、
    前記オブジェクト作成部は、
    前記第1の仮想オブジェクトに基づいて、前記第2の仮想オブジェクトとなる第2の付加情報を前記仮想オブジェクト情報管理データベースから取得し、前記第2の付加情報に基づいて前記第2の仮想オブジェクトを作成し、
    前記拡張現実管理部は、
    前記第2の表示パターンに従って、作成した前記第2の仮想オブジェクトを前記第1の拡張現実映像に重ね合わせた第2の拡張現実映像を作成し、出力する、
    ことを特徴とする請求項1に記載の情報表示装置。
  3. 前記第1の仮想オブジェクトは、
    複数のエリアに分割されており、
    それぞれのエリアにおいて、前記第2の仮想オブジェクトとなる第2の付加情報と、前記第2の仮想オブジェクトの表示パターンとを指定する非表示情報が埋め込まれており、
    前記データ分析部は、
    前記利用者の視線位置が向けられているエリアに埋め込まれている非表示情報を用いて、前記第2の仮想オブジェクトのための前記第2の表示パターンを決定する、
    ことを特徴とする請求項2に記載の情報表示装置。
  4. 前記第1の表示パターンは、前記第1の仮想オブジェクトの表示座標及び表示形式を指定するものである、
    ことを特徴とする請求項1に記載の情報表示装置。
  5. 情報表示装置によって実行される情報表示方法であって、
    前記情報表示方法は、
    複数のARマーカーを含む現実映像をカメラから取得する工程と、
    前記現実映像におけるARマーカーのタグ情報、種類及び数を判定し、前記ARマーカーの種類及び数に基づいて第1の仮想オブジェクトのための第1の表示パターンを決定する工程と、
    前記ARマーカーのタグ情報に基づいて、前記第1の仮想オブジェクトとなる第1の付加情報を仮想オブジェクト情報管理データベースから取得し、前記第1の付加情報に基づいて前記第1の仮想オブジェクトを作成する工程と、
    決定した前記第1の表示パターンに従って、作成した前記第1の仮想オブジェクトを前記現実映像に重ね合わせた第1の拡張現実映像を作成し、出力する工程と、
    前記第1の拡張現実映像における利用者の視線位置を判定する工程と、
    前記第1の仮想オブジェクトに対して、前記利用者による目の瞬きを検知した場合、前記第1の仮想オブジェクトの表示位置及び表示形式を固定する工程と、
    を含む情報表示方法。
  6. データ取得端末と、制御装置と、端末装置とが通信ネットワークを介して接続されている情報表示システムであって、
    前記データ取得端末は、
    周囲に環境に関するセンサーデータを取得するセンサー部と、
    前記センサーデータを前記制御装置に送信する第1のデータ送受信部とを含み、
    前記端末装置は、
    複数のARマーカーを含む現実映像を取得するカメラ部と、
    前記複数のARマーカーを含む前記現実映像を前記制御装置に送信する第2のデータ送受信部と、
    前記制御装置から受信する拡張現実映像を表示する映像表示部とを含み、
    前記制御装置は、
    前記複数のARマーカーを含む前記現実映像を前記端末装置から受信し、前記センサーデータを前記データ取得端末から受信する第3のデータ送受信部と、
    前記データ取得端末から受信する前記センサーデータを、仮想オブジェクトを生成するための付加情報として格納する仮想オブジェクト情報管理データベースと、
    前記複数のARマーカーを含む前記現実映像におけるARマーカーのタグ情報、種類及び数を判定し、前記ARマーカーの種類及び数に基づいて第1の仮想オブジェクトのための第1の表示パターンを決定するデータ分析部と、
    前記ARマーカーのタグ情報に基づいて、前記第1の仮想オブジェクトとなる第1の付加情報を前記仮想オブジェクト情報管理データベースから取得し、前記第1の付加情報に基づいて前記第1の仮想オブジェクトを作成するオブジェクト作成部と、
    決定した前記第1の表示パターンに従って、作成した前記第1の仮想オブジェクトを前記現実映像に重ね合わせた第1の拡張現実映像を作成し、前記端末装置に出力する拡張現実管理部と、
    前記第1の拡張現実映像における利用者の視線位置を判定する視線分析部とを含み、
    前記視線分析部は、
    前記第1の仮想オブジェクトに対して、前記利用者による目の瞬きを検知した場合、
    前記第1の仮想オブジェクトの表示位置及び表示形式を固定する、
    を特徴とする情報表示システム。
JP2019165916A 2019-09-12 2019-09-12 情報表示装置、情報表示方法及び情報表示システム Active JP7419003B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019165916A JP7419003B2 (ja) 2019-09-12 2019-09-12 情報表示装置、情報表示方法及び情報表示システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019165916A JP7419003B2 (ja) 2019-09-12 2019-09-12 情報表示装置、情報表示方法及び情報表示システム

Publications (2)

Publication Number Publication Date
JP2021043752A JP2021043752A (ja) 2021-03-18
JP7419003B2 true JP7419003B2 (ja) 2024-01-22

Family

ID=74863075

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019165916A Active JP7419003B2 (ja) 2019-09-12 2019-09-12 情報表示装置、情報表示方法及び情報表示システム

Country Status (1)

Country Link
JP (1) JP7419003B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113791495B (zh) * 2021-08-27 2024-09-20 优奈柯恩(北京)科技有限公司 用于显示信息的方法、装置、设备及计算机可读介质
CN116212361B (zh) * 2021-12-06 2024-04-16 广州视享科技有限公司 虚拟对象显示方法、装置和头戴式显示装置
CN114900530B (zh) * 2022-04-22 2023-05-05 冠捷显示科技(厦门)有限公司 一种显示设备与元宇宙虚实切换与整合系统及其方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016018367A (ja) 2014-07-08 2016-02-01 沖電気工業株式会社 情報処理装置、情報処理方法、及びプログラム
JP2018005477A (ja) 2016-06-30 2018-01-11 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置
JP2019032713A (ja) 2017-08-08 2019-02-28 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016018367A (ja) 2014-07-08 2016-02-01 沖電気工業株式会社 情報処理装置、情報処理方法、及びプログラム
JP2018005477A (ja) 2016-06-30 2018-01-11 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置
JP2019032713A (ja) 2017-08-08 2019-02-28 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
JP2021043752A (ja) 2021-03-18

Similar Documents

Publication Publication Date Title
US12095969B2 (en) Augmented reality with motion sensing
CA3016921C (en) System and method for deep learning based hand gesture recognition in first person view
Memo et al. Head-mounted gesture controlled interface for human-computer interaction
US10089794B2 (en) System and method for defining an augmented reality view in a specific location
CN110716645A (zh) 一种增强现实数据呈现方法、装置、电子设备及存储介质
US20170255838A1 (en) Information processing apparatus, control method, and storage medium
EP2508975B1 (en) Display control device, display control method, and program
JP7419003B2 (ja) 情報表示装置、情報表示方法及び情報表示システム
CN112926423B (zh) 捏合手势检测识别方法、装置及系统
CN110457414A (zh) 离线地图处理、虚拟对象显示方法、装置、介质和设备
CN112198959A (zh) 虚拟现实交互方法、装置及系统
CN111259751A (zh) 基于视频的人体行为识别方法、装置、设备及存储介质
US11232636B2 (en) Methods, devices, and systems for producing augmented reality
Coppens Merging real and virtual worlds: An analysis of the state of the art and practical evaluation of Microsoft Hololens
JP2015001875A (ja) 画像処理装置、画像処理方法、プログラム、印刷媒体及び印刷媒体のセット
CN110915211A (zh) 虚拟现实中的物理输入设备
CN109241956A (zh) 合成图像的方法、装置、终端及存储介质
CN108027655A (zh) 信息处理系统、信息处理设备、控制方法和程序
JP7043601B2 (ja) 環境モデルを生成するための方法および装置ならびに記憶媒体
Huynh et al. In-situ labeling for augmented reality language learning
CN112637665B (zh) 增强现实场景下的展示方法、装置、电子设备及存储介质
CN206178657U (zh) Ar互动展示系统和博物馆文物互动展示系统
CN109461203B (zh) 手势三维图像生成方法、装置、计算机设备及存储介质
Jain et al. [POSTER] AirGestAR: Leveraging Deep Learning for Complex Hand Gestural Interaction with Frugal AR Devices
CN112634773B (zh) 增强现实的呈现方法、装置、展示设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220822

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231016

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240110

R150 Certificate of patent or registration of utility model

Ref document number: 7419003

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150