JP7419003B2 - 情報表示装置、情報表示方法及び情報表示システム - Google Patents
情報表示装置、情報表示方法及び情報表示システム Download PDFInfo
- Publication number
- JP7419003B2 JP7419003B2 JP2019165916A JP2019165916A JP7419003B2 JP 7419003 B2 JP7419003 B2 JP 7419003B2 JP 2019165916 A JP2019165916 A JP 2019165916A JP 2019165916 A JP2019165916 A JP 2019165916A JP 7419003 B2 JP7419003 B2 JP 7419003B2
- Authority
- JP
- Japan
- Prior art keywords
- virtual object
- information
- display
- markers
- marker
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 49
- 239000003550 marker Substances 0.000 claims description 138
- 230000003190 augmentative effect Effects 0.000 claims description 68
- 238000004458 analytical method Methods 0.000 claims description 42
- 230000008569 process Effects 0.000 claims description 36
- 238000007405 data analysis Methods 0.000 claims description 23
- 238000004891 communication Methods 0.000 claims description 7
- 238000010586 diagram Methods 0.000 description 41
- 238000012423 maintenance Methods 0.000 description 15
- 210000001508 eye Anatomy 0.000 description 8
- 230000033001 locomotion Effects 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 210000005252 bulbus oculi Anatomy 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000004397 blinking Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008867 communication pathway Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 235000012054 meals Nutrition 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Position Input By Displaying (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Description
上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
(ハードウエア構成)
なお、図2では、データ取得装置210A及び210Bの2つのデータ取得装置を含む構成を一例として示しているが、本発明はこれに限定されず、データ取得装置は1つであってもよく、3つ以上であってもよい。
センサー部212A,212Bは、例えばCPUやメモリ使用率データを収集するデジタルセンサ、心拍数データやストレスレベルデータ等を収集するバイオメトリックセンサ、湿度データ、温度データ、水圧データ、気圧データ、照度データ等を収集する環境センサ、及び加速度データ、運動データ等を収集するモーションセンサ等を含んでもよいが、本発明に係るセンサー部はこれに限定されない。
なお、ここでのARマーカとは、ARコンテンツを表示するトリガとして機能する標識となる、決まったパターンの画像を意味する。ARマーカは、例えばQRコード(登録商標)や他の所定の画像であってもよい。また、一般的には、各ARマーカは、そのARマーカを一意に識別し、どのような付加情報をARコンテンツとして表示すべきかを定義するタグに紐づけられる。その後、ARマーカが検知されると、当該ARマーカのタグに指定されているARコンテンツとなる付加情報が所定の記憶媒体(例えば、後述するストレージ部226)から読み出され、表示される。
上述したように、仮想オブジェクトを作成する際に、オブジェクト作成部228は、仮想オブジェクトの表示位置及び配置形式を指定する表示パターンを、検知されたARマーカの数、種類、及び位置に基づいて決定してもよい。なお、仮想オブジェクトの表示パターンを決定する処理については後述する。
なお、ここでの視線分析部232は、例えば眼に特殊なコンタクトレンズを取り付け、その動きを測定する手段、光学的な技術を用いて測定する手段、あるいは眼の周りに電極を配置し、眼球を動かすための筋肉などから発生する電位を測定する手段等、任意の手段を用いてもよい。
図2に示すように、端末装置240は、データ送受信部241、カメラ部242及び映像表示部244を含んでもよい。
以下、端末装置によって撮影された映像と、当該映像に写っているARマーカに応じて表示される仮想オブジェクトの例について説明する。
これにより、ユーザは、認識されたARマーカに対応するARコンテンツの詳細情報を見ることができる。
これにより、表示されるARコンテンツが見やすくなり、端末装置の映像表示部の画面面積をより効率的に使用することができる。
これにより、ユーザは手等を使うことなく、目の動きだけで興味のあるARコンテンツを表示させることができる。
なお、図8に示す仮想オブジェクト形式840は、仮想オブジェクトをどの形式で表示すべきかを指定するものであり、「A」、「B」、「C」、「D」のそれぞれは、例えばテキスト、グラフ、画像、動画等、任意の形式形態を指定するラベルである。
なお、図9に示す第1の付加情報管理テーブル900では、サーバのCPU温度、気温、湿度、イベント等の情報が仮想オブジェクトの付加情報として例示されているが、本発明はそれに限定されず、仮想オブジェクトの付加情報は、本発明に係る情報表示手段の使用される目的及び環境に応じて適宜に構成されてもよい。
例えば、視線分析部は、ユーザの注目点が「CPU温度」のエリアに向けられていると判定すると、当該エリアの条件に従って、プロセッサ毎のCPU使用率を、例えば、後述する第2の付加情報管理テーブル1100から取得し、取得した情報を表形式で示す仮想オブジェクトを作成し、拡張現実映像に追加してもよい。
なお、図11に示す第2の付加情報管理テーブル1100では、サーバのCPU使用率やイベント等の情報が付加情報として例示されているが、本発明はそれに限定されず、付加情報は、本発明に係る情報表示手段の使用される目的及び環境に応じて適宜に構成されてもよい。
なお、この映像は、リアルタイムで継続的に撮影された生配信であってもよい。
なお、ステップS1203~S1204の詳細については、図14を参照して後述する。
これにより、同時に検知された複数の異なるARマーカの種類、数、位置等に基づいて決定した表示パターンに従って、所望の仮想オブジェクトを作成することができる。
なお、この未分析のフラグは、例えば上述したARマーカ・仮想オブジェクト管理テーブルにおいて格納されてもよい(例示せず)。
例えば、選択した付加情報が付加情報1で、未分析のARマーカがARマーカ1、2、3、4の場合には、付加情報1に該当するARマーカ1が未分析のARマーカに含まれているため、本処理はステップS1408に進む。
一例として、ステップS1403で付加情報1、7、及び9が取得され、付加情報1しかステップS1406の判定を受けていない場合には、付加情報7及び付加情報9はまだ未分析データとして残っているため、本処理はステップS1405に戻り、ステップS1405~ステップS1408までの処理が付加情報7、そして付加情報9のそれぞれに対して行われる。その結果、付加情報1及び付加情報7は、条件を満たすものであると分類され、付加情報9は、条件を満たさないものであると分類される。
例えば、付加情報1及び付加情報7は条件を満たすものであると分類された場合には、ステップS1410の判定の結果が「Yes」となるため、本処理はステップS1412に進む。
OBJX1:全てのARマーカーのX座標の最小値, OBJY1:全てのARマーカーのY座標の最大値
OBJX2: 全てのARマーカーのX座標の最大値, OBJY2:全てのARマーカーのY座標の最大値
OBJX3:全てのARマーカーのX座標の最小値, OBJY3:全てのARマーカーのY座標の最小値
OBJX4:全てのARマーカーのX座標の最大値, OBJY4:全てのARマーカーのY座標の最小値
なお、本ステップの処理の一例については後述する。
一例として、ステップS1401でARマーカ1、ARマーカ2、ARマーカ3、及びARマーカ4が特定された場合には、上述した処理の結果ARマーカ1~3が分析され、ARマーカ1~3の付加情報を含む仮想オブジェクトが作成されるが、ARマーカ4はまだ未分析のフラグが設定されている。そのため、ARマーカ1~3の処理が終了した後、ステップS1416の判定の結果が「NO」となり、本処理はステップS1402に戻る。続いて、ステップS1402~S1415がARマーカ4に対して行われる。これにより、現実映像において特定された全てのARマーカに該当する付加情報を含む仮想オブジェクトが作成され、拡張現実映像に重畳されることとなる。
例えば、図15に示すように、データ分析部は、ARマーカ1510、ARマーカ1520、及びARマーカ1530のそれぞれの4隅の平面座標を特定する。
例えば、図16に示す仮想オブジェクトのベース座標は、(OBJX1,OBJY1)、(OBJX2,OBJY2)、(OBJX3,OBJY3)、(OBJX4,OBJY4)である。
このように、サーバの保守作業を行う作業者は、サーバ一つ一つを診断することなく、サーバラック全体の状態を簡単に確認することができる。
視線分析部は、ユーザの注目点2235がARマーカ2225の特定のエリアに向けられていると判定した場合、そのエリアに埋め込まれている非表示情報に指定されている情報を指定されているテーブル(例えば、後述する付加情報管理テーブル1100)から取得し、当該情報(CPU温度,気温,湿度等)に応じた仮想オブジェクト2255を、非表示情報によって指定されている表示パターン(例えば、表形式)に従って作成し、拡張現実映像2250に追加する。
例えば、視線分析部は、ユーザの注目点がCPU温度の情報が表示されているエリア2322に向けられていると判定した場合、エリア2322に埋め込まれている非表示情報に従って、上述した付加情報管理テーブル1100から、過去1時間までの、CPUプロセス名毎のCPU使用率を取得し、その平均値を表の形式で表示する仮想オブジェクト2330を作成してもよい。
例えば、図24に示すように、視線分析部は、ユーザの注目点が特定のプロセスxx1の情報が表示されているエリア2332に向けられていると判定した場合、エリア2332に埋め込まれている非表示情報に従って、上述した付加情報管理テーブル1100から、プロセスxx1のCPU使用率の時間変化の様子をグラフ形式で表示する仮想オブジェクト2340を追加で作成してもよい。
ここで、仮想オブジェクトを固定するための動作は、例えばウインク(片目の瞬き)であってもよい。
212A、212B センサー部
214A、214B データ送受信部
220 制御装置
222 データ送受信部
224 データ分析部
226 ストレージ部
228 オブジェクト作成部
230 拡張現実管理部
232 視線分析部
240 端末装置
241 データ送受信部
242 カメラ部
244 映像表示部
Claims (6)
- 情報表示装置であって、
複数のARマーカーを含む現実映像をカメラから取得するデータ送受信部と、
前記現実映像におけるARマーカーのタグ情報、種類及び数を判定し、前記ARマーカーの種類及び数に基づいて第1の仮想オブジェクトのための第1の表示パターンを決定するデータ分析部と、
前記ARマーカーのタグ情報に基づいて、前記第1の仮想オブジェクトとなる第1の付加情報を仮想オブジェクト情報管理データベースから取得し、前記第1の付加情報に基づいて前記第1の仮想オブジェクトを作成するオブジェクト作成部と、
決定した前記第1の表示パターンに従って、作成した前記第1の仮想オブジェクトを前記現実映像に重ね合わせた第1の拡張現実映像を作成し、出力する拡張現実管理部と、
前記第1の拡張現実映像における利用者の視線位置を判定する視線分析部とを含み、
前記視線分析部は、
前記第1の仮想オブジェクトに対して、前記利用者による目の瞬きを検知した場合、
前記第1の仮想オブジェクトの表示位置及び表示形式を固定する、
ことを特徴とする情報表示装置。 - 前記情報表示装置は、
前記視線位置が前記第1の仮想オブジェクトに向けられていると判定する場合には、
前記データ分析部は、
前記第1の仮想オブジェクトに基づいて、第2の仮想オブジェクトのための第2の表示パターンを決定し、
前記オブジェクト作成部は、
前記第1の仮想オブジェクトに基づいて、前記第2の仮想オブジェクトとなる第2の付加情報を前記仮想オブジェクト情報管理データベースから取得し、前記第2の付加情報に基づいて前記第2の仮想オブジェクトを作成し、
前記拡張現実管理部は、
前記第2の表示パターンに従って、作成した前記第2の仮想オブジェクトを前記第1の拡張現実映像に重ね合わせた第2の拡張現実映像を作成し、出力する、
ことを特徴とする請求項1に記載の情報表示装置。 - 前記第1の仮想オブジェクトは、
複数のエリアに分割されており、
それぞれのエリアにおいて、前記第2の仮想オブジェクトとなる第2の付加情報と、前記第2の仮想オブジェクトの表示パターンとを指定する非表示情報が埋め込まれており、
前記データ分析部は、
前記利用者の視線位置が向けられているエリアに埋め込まれている非表示情報を用いて、前記第2の仮想オブジェクトのための前記第2の表示パターンを決定する、
ことを特徴とする請求項2に記載の情報表示装置。 - 前記第1の表示パターンは、前記第1の仮想オブジェクトの表示座標及び表示形式を指定するものである、
ことを特徴とする請求項1に記載の情報表示装置。 - 情報表示装置によって実行される情報表示方法であって、
前記情報表示方法は、
複数のARマーカーを含む現実映像をカメラから取得する工程と、
前記現実映像におけるARマーカーのタグ情報、種類及び数を判定し、前記ARマーカーの種類及び数に基づいて第1の仮想オブジェクトのための第1の表示パターンを決定する工程と、
前記ARマーカーのタグ情報に基づいて、前記第1の仮想オブジェクトとなる第1の付加情報を仮想オブジェクト情報管理データベースから取得し、前記第1の付加情報に基づいて前記第1の仮想オブジェクトを作成する工程と、
決定した前記第1の表示パターンに従って、作成した前記第1の仮想オブジェクトを前記現実映像に重ね合わせた第1の拡張現実映像を作成し、出力する工程と、
前記第1の拡張現実映像における利用者の視線位置を判定する工程と、
前記第1の仮想オブジェクトに対して、前記利用者による目の瞬きを検知した場合、前記第1の仮想オブジェクトの表示位置及び表示形式を固定する工程と、
を含む情報表示方法。 - データ取得端末と、制御装置と、端末装置とが通信ネットワークを介して接続されている情報表示システムであって、
前記データ取得端末は、
周囲に環境に関するセンサーデータを取得するセンサー部と、
前記センサーデータを前記制御装置に送信する第1のデータ送受信部とを含み、
前記端末装置は、
複数のARマーカーを含む現実映像を取得するカメラ部と、
前記複数のARマーカーを含む前記現実映像を前記制御装置に送信する第2のデータ送受信部と、
前記制御装置から受信する拡張現実映像を表示する映像表示部とを含み、
前記制御装置は、
前記複数のARマーカーを含む前記現実映像を前記端末装置から受信し、前記センサーデータを前記データ取得端末から受信する第3のデータ送受信部と、
前記データ取得端末から受信する前記センサーデータを、仮想オブジェクトを生成するための付加情報として格納する仮想オブジェクト情報管理データベースと、
前記複数のARマーカーを含む前記現実映像におけるARマーカーのタグ情報、種類及び数を判定し、前記ARマーカーの種類及び数に基づいて第1の仮想オブジェクトのための第1の表示パターンを決定するデータ分析部と、
前記ARマーカーのタグ情報に基づいて、前記第1の仮想オブジェクトとなる第1の付加情報を前記仮想オブジェクト情報管理データベースから取得し、前記第1の付加情報に基づいて前記第1の仮想オブジェクトを作成するオブジェクト作成部と、
決定した前記第1の表示パターンに従って、作成した前記第1の仮想オブジェクトを前記現実映像に重ね合わせた第1の拡張現実映像を作成し、前記端末装置に出力する拡張現実管理部と、
前記第1の拡張現実映像における利用者の視線位置を判定する視線分析部とを含み、
前記視線分析部は、
前記第1の仮想オブジェクトに対して、前記利用者による目の瞬きを検知した場合、
前記第1の仮想オブジェクトの表示位置及び表示形式を固定する、
を特徴とする情報表示システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019165916A JP7419003B2 (ja) | 2019-09-12 | 2019-09-12 | 情報表示装置、情報表示方法及び情報表示システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019165916A JP7419003B2 (ja) | 2019-09-12 | 2019-09-12 | 情報表示装置、情報表示方法及び情報表示システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021043752A JP2021043752A (ja) | 2021-03-18 |
JP7419003B2 true JP7419003B2 (ja) | 2024-01-22 |
Family
ID=74863075
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019165916A Active JP7419003B2 (ja) | 2019-09-12 | 2019-09-12 | 情報表示装置、情報表示方法及び情報表示システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7419003B2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113791495B (zh) * | 2021-08-27 | 2024-09-20 | 优奈柯恩(北京)科技有限公司 | 用于显示信息的方法、装置、设备及计算机可读介质 |
CN116212361B (zh) * | 2021-12-06 | 2024-04-16 | 广州视享科技有限公司 | 虚拟对象显示方法、装置和头戴式显示装置 |
CN114900530B (zh) * | 2022-04-22 | 2023-05-05 | 冠捷显示科技(厦门)有限公司 | 一种显示设备与元宇宙虚实切换与整合系统及其方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016018367A (ja) | 2014-07-08 | 2016-02-01 | 沖電気工業株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP2018005477A (ja) | 2016-06-30 | 2018-01-11 | 富士通株式会社 | 表示制御プログラム、表示制御方法および表示制御装置 |
JP2019032713A (ja) | 2017-08-08 | 2019-02-28 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
-
2019
- 2019-09-12 JP JP2019165916A patent/JP7419003B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016018367A (ja) | 2014-07-08 | 2016-02-01 | 沖電気工業株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP2018005477A (ja) | 2016-06-30 | 2018-01-11 | 富士通株式会社 | 表示制御プログラム、表示制御方法および表示制御装置 |
JP2019032713A (ja) | 2017-08-08 | 2019-02-28 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2021043752A (ja) | 2021-03-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12095969B2 (en) | Augmented reality with motion sensing | |
CA3016921C (en) | System and method for deep learning based hand gesture recognition in first person view | |
Memo et al. | Head-mounted gesture controlled interface for human-computer interaction | |
US10089794B2 (en) | System and method for defining an augmented reality view in a specific location | |
CN110716645A (zh) | 一种增强现实数据呈现方法、装置、电子设备及存储介质 | |
US20170255838A1 (en) | Information processing apparatus, control method, and storage medium | |
EP2508975B1 (en) | Display control device, display control method, and program | |
JP7419003B2 (ja) | 情報表示装置、情報表示方法及び情報表示システム | |
CN112926423B (zh) | 捏合手势检测识别方法、装置及系统 | |
CN110457414A (zh) | 离线地图处理、虚拟对象显示方法、装置、介质和设备 | |
CN112198959A (zh) | 虚拟现实交互方法、装置及系统 | |
CN111259751A (zh) | 基于视频的人体行为识别方法、装置、设备及存储介质 | |
US11232636B2 (en) | Methods, devices, and systems for producing augmented reality | |
Coppens | Merging real and virtual worlds: An analysis of the state of the art and practical evaluation of Microsoft Hololens | |
JP2015001875A (ja) | 画像処理装置、画像処理方法、プログラム、印刷媒体及び印刷媒体のセット | |
CN110915211A (zh) | 虚拟现实中的物理输入设备 | |
CN109241956A (zh) | 合成图像的方法、装置、终端及存储介质 | |
CN108027655A (zh) | 信息处理系统、信息处理设备、控制方法和程序 | |
JP7043601B2 (ja) | 環境モデルを生成するための方法および装置ならびに記憶媒体 | |
Huynh et al. | In-situ labeling for augmented reality language learning | |
CN112637665B (zh) | 增强现实场景下的展示方法、装置、电子设备及存储介质 | |
CN206178657U (zh) | Ar互动展示系统和博物馆文物互动展示系统 | |
CN109461203B (zh) | 手势三维图像生成方法、装置、计算机设备及存储介质 | |
Jain et al. | [POSTER] AirGestAR: Leveraging Deep Learning for Complex Hand Gestural Interaction with Frugal AR Devices | |
CN112634773B (zh) | 增强现实的呈现方法、装置、展示设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220822 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230821 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230926 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231016 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240110 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7419003 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |