JP2021043752A - Information display device, information display method, and information display system - Google Patents

Information display device, information display method, and information display system Download PDF

Info

Publication number
JP2021043752A
JP2021043752A JP2019165916A JP2019165916A JP2021043752A JP 2021043752 A JP2021043752 A JP 2021043752A JP 2019165916 A JP2019165916 A JP 2019165916A JP 2019165916 A JP2019165916 A JP 2019165916A JP 2021043752 A JP2021043752 A JP 2021043752A
Authority
JP
Japan
Prior art keywords
virtual object
information
markers
marker
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019165916A
Other languages
Japanese (ja)
Other versions
JP7419003B2 (en
Inventor
壮史 周防
Takefumi Suo
壮史 周防
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Systems Ltd
Original Assignee
Hitachi Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Systems Ltd filed Critical Hitachi Systems Ltd
Priority to JP2019165916A priority Critical patent/JP7419003B2/en
Publication of JP2021043752A publication Critical patent/JP2021043752A/en
Application granted granted Critical
Publication of JP7419003B2 publication Critical patent/JP7419003B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To determine a display pattern of a virtual object based on a combination of a plurality of different AR markers simultaneously detected, and add an AR content based on a point of focus of a user on the virtual object.SOLUTION: An information display device includes: a data transmission and reception part which acquires a real video including a plurality of AR markers; a data analysis part which determines tag information, the type and number of the AR markers in the real video and determines a first display pattern for a first virtual object based on the type and number of AR markers; an object creation part which acquires, from a predetermined database, first additional information as the first virtual object based on the tag information of the AR markers and creates the first virtual object based on the first additional information; and a diffusion reality management part which creates, in accordance with the determined first display pattern, a first diffusion reality video obtained by superposing the created first virtual object on the real video and outputs the first diffusion reality video.SELECTED DRAWING: Figure 2

Description

本発明は、情報表示装置、情報表示方法、及び情報表示システムに関する。 The present invention relates to an information display device, an information display method, and an information display system.

近年、現実空間に、付加的な情報を重畳してユーザに呈示する拡張現実(AR:AugmentedReality)と呼ばれる画像重畳技術が開発されている。重畳される付加的な情報は、テキスト、アイコン、又はアニメーション等の様々な種類の表示オブジェクトがユーザの眼前に表示されることで可視化され得る。 In recent years, an image superimposition technique called augmented reality (AR) has been developed in which additional information is superposed on a real space and presented to a user. The superimposed additional information can be visualized by displaying various types of display objects such as text, icons, or animations in front of the user.

AR技術はエンターテインメント、マーケティング、観光、工業等の分野において幅広く使用されており、AR技術を用いた様々な商品やサービスが提案されている。例えば、AR技術を用いたものの一例として、特開2014−127148号公報(特許文献1)には「撮像画像を取得し、該撮像画像に含まれている所定のトリガ情報を認識するトリガ認識部と、前記撮像画像が撮像された時点の状況又は過去のコンテンツの取得状況、及び前記トリガ認識部が認識した前記所定のトリガ情報に対応した、拡張現実情報が含まれるコンテンツを取得するコンテンツ取得部と、を備える、情報処理装置」が記載されている。 AR technology is widely used in fields such as entertainment, marketing, tourism, and industry, and various products and services using AR technology have been proposed. For example, as an example of using AR technology, Japanese Patent Application Laid-Open No. 2014-127148 (Patent Document 1) states that "a trigger recognition unit that acquires an image and recognizes predetermined trigger information contained in the image". And, the content acquisition unit that acquires the content including the augmented reality information corresponding to the situation at the time when the captured image is captured or the acquisition status of the past content, and the predetermined trigger information recognized by the trigger recognition unit. And, an information processing device provided with.

特開2014−127148号公報Japanese Unexamined Patent Publication No. 2014-127148

上記の特許文献1においては、複数の異なるARマーカを順番に検知して、当該ARマーカが検知された順番によって異なるARコンテンツを表示する技術が記載されている。特許文献1に係る発明によれば、複数のARマーカで位置的又は時間的連動性を持たせ、過去に検知されたARコンテンツと異なる、新しいARコンテンツを提供することができる。 The above-mentioned Patent Document 1 describes a technique of detecting a plurality of different AR markers in order and displaying different AR contents depending on the order in which the AR markers are detected. According to the invention of Patent Document 1, it is possible to provide a new AR content different from the AR content detected in the past by giving the plurality of AR markers positional or temporal interlocking.

しかしながら、特許文献1の発明では、同時に検知された複数の異なるARマーカの組み合わせによって仮想オブジェクトの表示位置や表示形式を決定することが検討されておらず、特定の仮想オブジェクトに対するユーザの注目点に基づいてARコンテンツを更に追加することも検討されていない。 However, in the invention of Patent Document 1, it is not considered to determine the display position and the display format of the virtual object by the combination of a plurality of different AR markers detected at the same time, and the user pays attention to the specific virtual object. Further addition of AR content based on this has not been considered.

そこで、本発明は、同時に検知された複数の異なるARマーカの種類、数、位置等に基づいて、現実空間に表示する仮想オブジェクトの表示位置及び表示形式を決定し、特定の仮想オブジェクトに対するユーザの注目点に基づいて他の仮想オブジェクトを追加する情報表示装置を提供することを目的とする。 Therefore, the present invention determines the display position and display format of the virtual object to be displayed in the real space based on the types, numbers, positions, etc. of a plurality of different AR markers detected at the same time, and determines the display position and display format of the virtual object to be displayed in the real space. An object of the present invention is to provide an information display device for adding other virtual objects based on a point of interest.

上記の課題を解決するために、代表的な本発明の1つは、情報表示装置であって、複数のARマーカーを含む現実映像をカメラから取得するデータ送受信部と、現実映像におけるARマーカーのタグ情報、種類及び数を判定し、ARマーカーの種類及び数に基づいて第1の仮想オブジェクトのための第1の表示パターンを決定するデータ分析部と、ARマーカーのタグ情報に基づいて、第1の仮想オブジェクトとなる第1の付加情報を仮想オブジェクト情報管理データベースから取得し、第1の付加情報に基づいて第1の仮想オブジェクトを作成するオブジェクト作成部と、決定した第1の表示パターンに従って、作成した第1の仮想オブジェクトを現実映像に重ね合わせた第1の拡張現実映像を作成し、出力する拡張現実管理部とを含む。 In order to solve the above problems, one of the typical inventions is an information display device, which is a data transmission / reception unit that acquires a real image including a plurality of AR markers from a camera, and an AR marker in the real image. A data analysis unit that determines the tag information, type and number, and determines the first display pattern for the first virtual object based on the type and number of AR markers, and the first based on the tag information of the AR marker. According to the object creation unit that acquires the first additional information that becomes one virtual object from the virtual object information management database and creates the first virtual object based on the first additional information, and the determined first display pattern. Includes an augmented reality management unit that creates and outputs a first augmented reality image in which the created first virtual object is superimposed on the actual image.

本発明によれば、同時に検知された複数の異なるARマーカの種類、数、位置等に基づいて、現実空間に表示する仮想オブジェクトの表示位置及び表示形式を決定し、特定の仮想オブジェクトに対するユーザの注目点に基づいて他の仮想オブジェクトを追加する情報表示装置を提供することができる。
上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
According to the present invention, the display position and display format of a virtual object to be displayed in the real space are determined based on the types, numbers, positions, etc. of a plurality of different AR markers detected at the same time, and the user with respect to a specific virtual object It is possible to provide an information display device that adds other virtual objects based on the point of interest.
Issues, configurations and effects other than those described above will be clarified by the description of the following embodiments.

本発明の実施形態を実施するためのコンピュータシステムのブロック図である。It is a block diagram of the computer system for carrying out embodiment of this invention. 本発明の実施形態に係るシステム構成を示す図であるIt is a figure which shows the system configuration which concerns on embodiment of this invention. 本発明の実施形態に係る端末装置の一例を示す図である。It is a figure which shows an example of the terminal apparatus which concerns on embodiment of this invention. 本発明の実施形態に係るARマーカを認識した場合に表示される仮想オブジェクトの一例を示す図である。It is a figure which shows an example of the virtual object which is displayed when the AR marker which concerns on embodiment of this invention is recognized. 本発明の実施形態に係るARマーカを認識した場合に表示される仮想オブジェクトの別の一例を示す図である。It is a figure which shows another example of the virtual object which is displayed when the AR marker which concerns on embodiment of this invention is recognized. 本発明の実施形態に係るARマーカを認識した場合に表示される仮想オブジェクトの別の一例を示す図である。It is a figure which shows another example of the virtual object which is displayed when the AR marker which concerns on embodiment of this invention is recognized. 本発明の実施形態に係るARマーカを認識した場合に表示される仮想オブジェクトの別の一例を示す図である。It is a figure which shows another example of the virtual object which is displayed when the AR marker which concerns on embodiment of this invention is recognized. 本発明の実施形態に係るARマーカ・仮想オブジェクト管理テーブルの一例を示す図である。It is a figure which shows an example of the AR marker / virtual object management table which concerns on embodiment of this invention. 本発明の実施形態に係る第1の付加情報管理テーブルの一例を示す図である。It is a figure which shows an example of the 1st additional information management table which concerns on embodiment of this invention. 本発明の実施形態に係る非表示情報管理テーブルの一例を示す図である。It is a figure which shows an example of the hidden information management table which concerns on embodiment of this invention. 本発明の実施形態に係る第2の付加情報管理テーブルの一例を示す図である。It is a figure which shows an example of the 2nd additional information management table which concerns on embodiment of this invention. 本発明の実施形態に係る情報表示処理のフローを示すフローチャートである。It is a flowchart which shows the flow of the information display processing which concerns on embodiment of this invention. 本発明の実施形態に係る注目点分析処理のフローを示すフローチャートである。It is a flowchart which shows the flow of attention point analysis processing which concerns on embodiment of this invention. 本発明の実施形態に係る仮想オブジェクトの表示パターンを決定する処理のフローを示すフローチャートである。It is a flowchart which shows the flow of the process which determines the display pattern of the virtual object which concerns on embodiment of this invention. 本発明の実施形態に係るARマーカの4隅の座標の一例を示す図である。It is a figure which shows an example of the coordinates of the four corners of the AR marker which concerns on embodiment of this invention. 本発明の実施形態に係る仮想オブジェクトのベース座標の一例を示す図である。It is a figure which shows an example of the base coordinates of the virtual object which concerns on embodiment of this invention. 本発明の実施形態に係る仮想オブジェクトの表示パターンの一例を示す図である。It is a figure which shows an example of the display pattern of the virtual object which concerns on embodiment of this invention. 本発明の実施形態に係る仮想オブジェクトの表示パターンの別の一例を示す図である。It is a figure which shows another example of the display pattern of the virtual object which concerns on embodiment of this invention. 本発明の実施形態に係る情報表示手段をサーバの保守作業に適用した具体例の1つの態様を示す図である。It is a figure which shows one aspect of the specific example which applied the information display means which concerns on embodiment of this invention to the maintenance work of a server. 本発明の実施形態に係る情報表示手段をサーバの保守作業に適用した具体例のもう1つの態様を示す図である。It is a figure which shows another aspect of the specific example which applied the information display means which concerns on embodiment of this invention to the maintenance work of a server. 本発明の実施形態に係る情報表示手段をサーバの保守作業に適用した具体例のもう1つの態様を示す図である。It is a figure which shows another aspect of the specific example which applied the information display means which concerns on embodiment of this invention to the maintenance work of a server. 本発明の実施形態に係る情報表示手段をサーバの保守作業に適用した場合に、必要なデータをデータベースから取得する一例を示す図である。It is a figure which shows an example which acquires necessary data from a database when the information display means which concerns on embodiment of this invention is applied to maintenance work of a server. 本発明の実施形態に係る情報表示手段をサーバの保守作業に適用した場合に、必要なデータをデータベースから取得する別の一例を示す図である。It is a figure which shows another example which acquires necessary data from a database when the information display means which concerns on embodiment of this invention is applied to maintenance work of a server. 本発明の実施形態に係る情報表示手段をサーバの保守作業に適用した場合に、必要なデータをデータベースから取得する別の一例を示す図である。It is a figure which shows another example which acquires necessary data from a database when the information display means which concerns on embodiment of this invention is applied to maintenance work of a server. 本発明の実施形態に係る仮想オブジェクトを固定する動作の一例を示す図である。It is a figure which shows an example of the operation which fixes the virtual object which concerns on embodiment of this invention.

以下、図面を参照して、本発明の実施形態について説明する。なお、この実施形態により本発明が限定されるものではない。また、図面の記載において、同一部分には同一の符号を付して示している。
(ハードウエア構成)
Hereinafter, embodiments of the present invention will be described with reference to the drawings. The present invention is not limited to this embodiment. Further, in the description of the drawings, the same parts are indicated by the same reference numerals.
(Hardware configuration)

まず、図1を参照して、本開示の実施形態を実施するためのコンピュータシステム300について説明する。本明細書で開示される様々な実施形態の機構及び装置は、任意の適切なコンピューティングシステムに適用されてもよい。コンピュータシステム300の主要コンポーネントは、1つ以上のプロセッサ302、メモリ304、端末インターフェース312、ストレージインタフェース314、I/O(入出力)デバイスインタフェース316、及びネットワークインターフェース318を含む。これらのコンポーネントは、メモリバス306、I/Oバス308、バスインターフェースユニット309、及びI/Oバスインターフェースユニット310を介して、相互的に接続されてもよい。 First, with reference to FIG. 1, a computer system 300 for carrying out the embodiment of the present disclosure will be described. The mechanisms and devices of the various embodiments disclosed herein may be applied to any suitable computing system. The main components of the computer system 300 include one or more processors 302, memory 304, terminal interface 312, storage interface 314, I / O (input / output) device interface 316, and network interface 318. These components may be interconnected via memory bus 306, I / O bus 308, bus interface unit 309, and I / O bus interface unit 310.

コンピュータシステム300は、プロセッサ302と総称される1つ又は複数の汎用プログラマブル中央処理装置(CPU)302A及び302Bを含んでもよい。ある実施形態では、コンピュータシステム300は複数のプロセッサを備えてもよく、また別の実施形態では、コンピュータシステム300は単一のCPUシステムであってもよい。各プロセッサ302は、メモリ304に格納された命令を実行し、オンボードキャッシュを含んでもよい。 The computer system 300 may include one or more general purpose programmable central processing units (CPUs) 302A and 302B collectively referred to as processors 302. In one embodiment, the computer system 300 may include a plurality of processors, and in another embodiment, the computer system 300 may be a single CPU system. Each processor 302 may execute an instruction stored in memory 304 and include an onboard cache.

ある実施形態では、メモリ304は、データ及びプログラムを記憶するためのランダムアクセス半導体メモリ、記憶装置、又は記憶媒体(揮発性又は不揮発性のいずれか)を含んでもよい。メモリ304は、本明細書で説明する機能を実施するプログラム、モジュール、及びデータ構造のすべて又は一部を格納してもよい。例えば、メモリ304は、情報表示アプリケーション350を格納していてもよい。ある実施形態では、情報表示アプリケーション350は、後述する機能をプロセッサ302上で実行する命令又は記述を含んでもよい。 In certain embodiments, the memory 304 may include a random access semiconductor memory, a storage device, or a storage medium (either volatile or non-volatile) for storing data and programs. The memory 304 may store all or part of the programs, modules, and data structures that perform the functions described herein. For example, the memory 304 may store the information display application 350. In certain embodiments, the information display application 350 may include an instruction or description that executes a function described below on the processor 302.

ある実施形態では、情報表示アプリケーション350は、プロセッサベースのシステムの代わりに、またはプロセッサベースのシステムに加えて、半導体デバイス、チップ、論理ゲート、回路、回路カード、および/または他の物理ハードウェアデバイスを介してハードウェアで実施されてもよい。ある実施形態では、情報表示アプリケーション350は、命令又は記述以外のデータを含んでもよい。ある実施形態では、カメラ、センサ、または他のデータ入力デバイス(図示せず)が、バスインターフェースユニット309、プロセッサ302、またはコンピュータシステム300の他のハードウェアと直接通信するように提供されてもよい。 In certain embodiments, the information display application 350 replaces or in addition to a processor-based system, a semiconductor device, chip, logic gate, circuit, circuit card, and / or other physical hardware device. It may be implemented in hardware via. In certain embodiments, the information display application 350 may include data other than instructions or descriptions. In certain embodiments, a camera, sensor, or other data input device (not shown) may be provided to communicate directly with the bus interface unit 309, processor 302, or other hardware of the computer system 300. ..

コンピュータシステム300は、プロセッサ302、メモリ304、表示システム324、及びI/Oバスインターフェースユニット310間の通信を行うバスインターフェースユニット309を含んでもよい。I/Oバスインターフェースユニット310は、様々なI/Oユニットとの間でデータを転送するためのI/Oバス308と連結していてもよい。I/Oバスインターフェースユニット310は、I/Oバス308を介して、I/Oプロセッサ(IOP)又はI/Oアダプタ(IOA)としても知られる複数のI/Oインタフェースユニット312,314,316、及び318と通信してもよい。 The computer system 300 may include a processor 302, a memory 304, a display system 324, and a bus interface unit 309 that communicates between the I / O bus interface unit 310. The I / O bus interface unit 310 may be connected to an I / O bus 308 for transferring data to and from various I / O units. The I / O bus interface unit 310, via the I / O bus 308, is a plurality of I / O interface units 312, 314, 316, also known as an I / O processor (IOP) or I / O adapter (IOA). And 318 may be communicated.

表示システム324は、表示コントローラ、表示メモリ、又はその両方を含んでもよい。表示コントローラは、ビデオ、オーディオ、又はその両方のデータを表示装置326に提供することができる。また、コンピュータシステム300は、データを収集し、プロセッサ302に当該データを提供するように構成された1つまたは複数のセンサ等のデバイスを含んでもよい。 The display system 324 may include a display controller, display memory, or both. The display controller can provide video, audio, or both data to the display device 326. The computer system 300 may also include devices such as one or more sensors configured to collect the data and provide the data to the processor 302.

例えば、コンピュータシステム300は、心拍数データやストレスレベルデータ等を収集するバイオメトリックセンサ、湿度データ、温度データ、圧力データ等を収集する環境センサ、及び加速度データ、運動データ等を収集するモーションセンサ等を含んでもよい。これ以外のタイプのセンサも使用可能である。表示システム324は、単独のディスプレイ画面、テレビ、タブレット、又は携帯型デバイスなどの表示装置326に接続されてもよい。 For example, the computer system 300 includes a biometric sensor that collects heart rate data, stress level data, etc., an environment sensor that collects humidity data, temperature data, pressure data, etc., and a motion sensor that collects acceleration data, exercise data, etc. May include. Other types of sensors can also be used. The display system 324 may be connected to a stand-alone display screen, a display device 326 such as a television, tablet, or portable device.

I/Oインタフェースユニットは、様々なストレージ又はI/Oデバイスと通信する機能を備える。例えば、端末インタフェースユニット312は、ビデオ表示装置、スピーカテレビ等のユーザ出力デバイスや、キーボード、マウス、キーパッド、タッチパッド、トラックボール、ボタン、ライトペン、又は他のポインティングデバイス等のユーザ入力デバイスのようなユーザI/Oデバイス320の取り付けが可能である。ユーザは、ユーザインターフェースを使用して、ユーザ入力デバイスを操作することで、ユーザI/Oデバイス320及びコンピュータシステム300に対して入力データや指示を入力し、コンピュータシステム300からの出力データを受け取ってもよい。ユーザインターフェースは例えば、ユーザI/Oデバイス320を介して、表示装置に表示されたり、スピーカによって再生されたり、プリンタを介して印刷されたりしてもよい。 The I / O interface unit has a function of communicating with various storages or I / O devices. For example, the terminal interface unit 312 may be a user output device such as a video display device or a speaker TV, or a user input device such as a keyboard, mouse, keypad, touchpad, trackball, button, light pen, or other pointing device. Such a user I / O device 320 can be attached. The user inputs input data and instructions to the user I / O device 320 and the computer system 300 by operating the user input device using the user interface, and receives the output data from the computer system 300. May be good. The user interface may be displayed on the display device via the user I / O device 320, reproduced by the speaker, or printed via the printer, for example.

ストレージインタフェース314は、1つ又は複数のディスクドライブや直接アクセスストレージ装置322(通常は磁気ディスクドライブストレージ装置であるが、単一のディスクドライブとして見えるように構成されたディスクドライブのアレイ又は他のストレージ装置であってもよい)の取り付けが可能である。ある実施形態では、ストレージ装置322は、任意の二次記憶装置として実装されてもよい。メモリ304の内容は、ストレージ装置322に記憶され、必要に応じてストレージ装置322から読み出されてもよい。I/Oデバイスインタフェース316は、プリンタ、ファックスマシン等の他のI/Oデバイスに対するインターフェースを提供してもよい。ネットワークインターフェース318は、コンピュータシステム300と他のデバイスが相互的に通信できるように、通信経路を提供してもよい。この通信経路は、例えば、ネットワーク330であってもよい。 The storage interface 314 is an array of disk drives or other storage device configured to appear as a single disk drive, although one or more disk drives or a direct access storage device 322 (usually a magnetic disk drive storage device). It may be). In certain embodiments, the storage device 322 may be implemented as any secondary storage device. The contents of the memory 304 are stored in the storage device 322 and may be read out from the storage device 322 as needed. The I / O device interface 316 may provide an interface to other I / O devices such as printers and fax machines. The network interface 318 may provide a communication path so that the computer system 300 and other devices can communicate with each other. This communication path may be, for example, network 330.

ある実施形態では、コンピュータシステム300は、マルチユーザメインフレームコンピュータシステム、シングルユーザシステム、又はサーバコンピュータ等の、直接的ユーザインターフェースを有しない、他のコンピュータシステム(クライアント)からの要求を受信するデバイスであってもよい。他の実施形態では、コンピュータシステム300は、デスクトップコンピュータ、携帯型コンピュータ、ノートパソコン、タブレットコンピュータ、ポケットコンピュータ、電話、スマートフォン、又は任意の他の適切な電子機器であってもよい。 In certain embodiments, the computer system 300 is a device that receives a request from another computer system (client) that does not have a direct user interface, such as a multi-user mainframe computer system, a single user system, or a server computer. There may be. In other embodiments, the computer system 300 may be a desktop computer, a portable computer, a laptop computer, a tablet computer, a pocket computer, a telephone, a smartphone, or any other suitable electronic device.

次に、図2を参照して、本発明の実施形態に係る情報表示システムの構成について説明する。 Next, the configuration of the information display system according to the embodiment of the present invention will be described with reference to FIG.

図2は、本発明の実施形態に係る情報表示システム200の構成を示す図である。図2に示すように、情報表示システム200は、主にデータ取得装置210A,210B,制御装置220、及び端末装置240からなる。データ取得装置210A,210B,制御装置220、及び端末装置240は、例えばインターネット等の通信ネットワーク(図示せず)を介して互いに接続されてもよい。 FIG. 2 is a diagram showing a configuration of an information display system 200 according to an embodiment of the present invention. As shown in FIG. 2, the information display system 200 mainly includes data acquisition devices 210A and 210B, a control device 220, and a terminal device 240. The data acquisition devices 210A and 210B, the control device 220, and the terminal device 240 may be connected to each other via a communication network (not shown) such as the Internet.

データ取得装置210A,210Bは、周囲の環境に関する情報を収集し、収集した情報を制御装置220に送信するための機能部である。データ取得装置210A,210Bは、対象のデータが取得しやすい場所に設置されてもよい。例えば、サーバの温度のデータを取得した場合には、データ取得装置210A,210Bのそれぞれは、サーバの内部に設置されてもよい。
なお、図2では、データ取得装置210A及び210Bの2つのデータ取得装置を含む構成を一例として示しているが、本発明はこれに限定されず、データ取得装置は1つであってもよく、3つ以上であってもよい。
The data acquisition devices 210A and 210B are functional units for collecting information on the surrounding environment and transmitting the collected information to the control device 220. The data acquisition devices 210A and 210B may be installed in a place where the target data can be easily acquired. For example, when data on the temperature of the server is acquired, each of the data acquisition devices 210A and 210B may be installed inside the server.
Note that FIG. 2 shows a configuration including two data acquisition devices 210A and 210B as an example, but the present invention is not limited to this, and the number of data acquisition devices may be one. It may be 3 or more.

図2に示すように、データ取得装置210A,210Bはそれぞれ、センサー部212A,212B及びデータ送受信部214Aを含む。センサー部212A,212Bは、自然現象や人工物の機械的・電磁気的・熱的・音響的・化学的性質あるいはそれらで示される空間情報・時間情報を、何らかの科学的原理を応用して、人間や機械が扱い易い別媒体の信号に置き換える装置である。
センサー部212A,212Bは、例えばCPUやメモリ使用率データを収集するデジタルセンサ、心拍数データやストレスレベルデータ等を収集するバイオメトリックセンサ、湿度データ、温度データ、水圧データ、気圧データ、照度データ等を収集する環境センサ、及び加速度データ、運動データ等を収集するモーションセンサ等を含んでもよいが、本発明に係るセンサー部はこれに限定されない。
As shown in FIG. 2, the data acquisition devices 210A and 210B include sensor units 212A and 212B and data transmission / reception units 214A, respectively. The sensor units 212A and 212B apply some scientific principle to the mechanical, electromagnetic, thermal, acoustic, and chemical properties of natural phenomena and artificial objects, or the spatial and temporal information indicated by them, by applying some scientific principle to humans. It is a device that replaces the signal of another medium that is easy for the machine to handle.
The sensor units 212A and 212B are, for example, a digital sensor that collects CPU and memory usage data, a biometric sensor that collects heart rate data, stress level data, etc., humidity data, temperature data, water pressure data, pressure data, illuminance data, etc. An environmental sensor that collects data, a motion sensor that collects acceleration data, motion data, and the like may be included, but the sensor unit according to the present invention is not limited to this.

データ送受信部214A,214Bは、センサー部212A,212Bから取得した情報を制御装置220に送信するための機能部である。データ送受信部214A,214Bは、センサー部212A,212Bが取得した情報をインターネット等の通信ネットワーク(図示せず)を介して制御装置220に送信してもよい。なお、データ送受信部214A,214Bは、データの送信に限定されず、制御装置220からの命令を受信し、センサー部212A,212Bを受信した指示に基づいて制御してもよい。 The data transmission / reception units 214A and 214B are functional units for transmitting the information acquired from the sensor units 212A and 212B to the control device 220. The data transmission / reception units 214A and 214B may transmit the information acquired by the sensor units 212A and 212B to the control device 220 via a communication network (not shown) such as the Internet. The data transmission / reception units 214A and 214B are not limited to data transmission, and may receive a command from the control device 220 and control the sensor units 212A and 212B based on the received instruction.

制御装置220は、データ取得装置210A,210Bから受信した情報を管理し、端末装置に出力されるARコンテンツ(仮想オブジェクト等)の生成及び提供を行うための装置である。この制御装置220は、例えばデータ取得装置及び端末装置から離れた場所に設置され、インターネット等の通信ネットワーク(図示せず)を介してデータ取得装置及び端末装置に接続される遠隔サーバ装置として構成されてもよい。 The control device 220 is a device for managing information received from the data acquisition devices 210A and 210B, and generating and providing AR contents (virtual objects, etc.) output to the terminal device. The control device 220 is configured as a remote server device that is installed at a location away from the data acquisition device and the terminal device, and is connected to the data acquisition device and the terminal device via a communication network (not shown) such as the Internet. You may.

図2に示すように、制御装置220は、データ送受信部222,データ分析部224、ストレージ部226,オブジェクト作成部228,拡張現実管理部230、及び視線分析部232を含む。 As shown in FIG. 2, the control device 220 includes a data transmission / reception unit 222, a data analysis unit 224, a storage unit 226, an object creation unit 228, an augmented reality management unit 230, and a line-of-sight analysis unit 232.

データ送受信部222は、上述したデータ取得装置及び後述する端末装置240との情報通信を行うための機能部である。データ送受信部222は、例えば、データの取得頻度を指定する命令をデータ取得装置に送信したり、作成したARコンテンツを端末装置に配信したりすることができる。 The data transmission / reception unit 222 is a functional unit for performing information communication with the data acquisition device described above and the terminal device 240 described later. The data transmission / reception unit 222 can, for example, transmit an instruction for specifying the data acquisition frequency to the data acquisition device, or distribute the created AR content to the terminal device.

データ分析部224は、データ取得装置及び端末装置から受信する各種データを分析するための機能部である。データ分析部224は、例えば、後述する端末装置から受信する現実空間の映像に写るARマーカを特定したり、データ取得装置から受信するセンサーデータを解析したりしてもよい。
なお、ここでのARマーカとは、ARコンテンツを表示するトリガとして機能する標識となる、決まったパターンの画像を意味する。ARマーカは、例えばQRコード(登録商標)や他の所定の画像であってもよい。また、一般的には、各ARマーカは、そのARマーカを一意に識別し、どのような付加情報をARコンテンツとして表示すべきかを定義するタグに紐づけられる。その後、ARマーカが検知されると、当該ARマーカのタグに指定されているARコンテンツとなる付加情報が所定の記憶媒体(例えば、後述するストレージ部226)から読み出され、表示される。
The data analysis unit 224 is a functional unit for analyzing various data received from the data acquisition device and the terminal device. The data analysis unit 224 may specify, for example, an AR marker appearing in a real space image received from a terminal device described later, or analyze sensor data received from a data acquisition device.
The AR marker here means an image having a fixed pattern, which serves as a sign functioning as a trigger for displaying AR contents. The AR marker may be, for example, a QR code (registered trademark) or another predetermined image. Further, in general, each AR marker is associated with a tag that uniquely identifies the AR marker and defines what kind of additional information should be displayed as AR content. After that, when the AR marker is detected, additional information to be the AR content specified in the tag of the AR marker is read from a predetermined storage medium (for example, the storage unit 226 described later) and displayed.

ストレージ部226は、情報表示システム200の各機能部機能部が用いる各種データを格納するためのストレージ装置である。ストレージ部226は、例えばフラッシュメモリ、ハードディスクドライブ等、任意の記憶媒体であってもよい。ストレージ部226は、例えば後述するARマーカ・仮想オブジェクト管理テーブル、第1の付加情報管理テーブル、非表示情報管理テーブル、及び第2の付加情報管理テーブルを格納してもよい。 The storage unit 226 is a storage device for storing various data used by each functional unit of the information display system 200. The storage unit 226 may be any storage medium such as a flash memory or a hard disk drive. The storage unit 226 may store, for example, an AR marker / virtual object management table, a first additional information management table, a hidden information management table, and a second additional information management table, which will be described later.

オブジェクト作成部228は、現実空間の映像に重畳する仮想オブジェクトを生成するための機能部である。オブジェクト作成部228は、データ分析部によって特定されたARマーカのタグに対応する付加情報をストレージ部226から取得し、当該情報に応じた仮想オブジェクトを生成してもよい。例えば、ARマーカのタグに紐づいたARコンテンツが「サーバAの温度表示」である場合には、オブジェクト作成部228は、上述したストレージ部226から、サーバAの温度情報を取得し、当該情報を表示するための仮想オブジェクト(温度値を示す吹き出し、グラフ、アニメーション等)を生成してもよい。
上述したように、仮想オブジェクトを作成する際に、オブジェクト作成部228は、仮想オブジェクトの表示位置及び配置形式を指定する表示パターンを、検知されたARマーカの数、種類、及び位置に基づいて決定してもよい。なお、仮想オブジェクトの表示パターンを決定する処理については後述する。
The object creation unit 228 is a functional unit for generating a virtual object to be superimposed on the image in the real space. The object creation unit 228 may acquire additional information corresponding to the tag of the AR marker specified by the data analysis unit from the storage unit 226 and generate a virtual object according to the information. For example, when the AR content associated with the tag of the AR marker is "temperature display of server A", the object creation unit 228 acquires the temperature information of server A from the storage unit 226 described above, and the information is obtained. You may generate a virtual object (a balloon showing a temperature value, a graph, an animation, etc.) for displaying.
As described above, when creating a virtual object, the object creation unit 228 determines a display pattern that specifies the display position and arrangement format of the virtual object based on the number, type, and position of the detected AR markers. You may. The process of determining the display pattern of the virtual object will be described later.

拡張現実管理部230は、オブジェクト作成部228によって生成される仮想オブジェクトを実空間の映像に重畳させた拡張現実映像を作成し、この拡張現実映像を端末装置に提供する機能部である。拡張現実管理部230は、検知されたARマーカの数、種類、及び位置に基づいて決定された仮想オブジェクトの表示パターンに従って拡張現実映像を作成してもよい。 The augmented reality management unit 230 is a functional unit that creates an augmented reality image in which a virtual object generated by the object creation unit 228 is superimposed on an image in real space, and provides the augmented reality image to a terminal device. The augmented reality management unit 230 may create an augmented reality image according to the display pattern of the virtual object determined based on the number, type, and position of the detected AR markers.

視線分析部232は、後述する端末装置240の映像表示部244に表示される映像において、ユーザの視点の場所(ユーザがどこを見ているか)や頭部に対する眼球の動きを計測し、追跡するための機能部である。視線分析部232は、ユーザの視点の場所や眼球の動きを計測することで、ユーザが映像において注目している箇所(以下、注目点)の座標を特定することができる。後述するように、本発明では、現実空間に重畳する仮想オブジェクトの内容、表地位置、及び表示形式は、注目点の座標の情報に基づいて表示されてもよい。
なお、ここでの視線分析部232は、例えば眼に特殊なコンタクトレンズを取り付け、その動きを測定する手段、光学的な技術を用いて測定する手段、あるいは眼の周りに電極を配置し、眼球を動かすための筋肉などから発生する電位を測定する手段等、任意の手段を用いてもよい。
The line-of-sight analysis unit 232 measures and tracks the location of the user's viewpoint (where the user is looking) and the movement of the eyeball with respect to the head in the image displayed on the image display unit 244 of the terminal device 240, which will be described later. It is a functional part for. The line-of-sight analysis unit 232 can specify the coordinates of the point (hereinafter, the point of interest) that the user is paying attention to in the image by measuring the position of the user's viewpoint and the movement of the eyeball. As will be described later, in the present invention, the content, the outer material position, and the display format of the virtual object superimposed on the real space may be displayed based on the information of the coordinates of the point of interest.
The line-of-sight analysis unit 232 here is, for example, a means for attaching a special contact lens to the eye and measuring its movement, a means for measuring using an optical technique, or a means for arranging an electrode around the eye and eyeball. Any means such as a means for measuring an electric potential generated from a muscle or the like for moving the lens may be used.

端末装置240は、仮想オブジェクトを現実空間の映像に重畳した拡張現実映像をユーザに提供するための装置である。この端末装置240は、例えばヘッドマウントディスプレイ、スマートフォン、タブレット等のコンピューティングデバイスであってもよく、拡張現実映像を表示することが可能なデバイスであれば特に限定されない。
図2に示すように、端末装置240は、データ送受信部241、カメラ部242及び映像表示部244を含んでもよい。
The terminal device 240 is a device for providing the user with an augmented reality image in which a virtual object is superimposed on an image in the real space. The terminal device 240 may be a computing device such as a head-mounted display, a smartphone, or a tablet, and is not particularly limited as long as it is a device capable of displaying an augmented reality image.
As shown in FIG. 2, the terminal device 240 may include a data transmission / reception unit 241, a camera unit 242, and a video display unit 244.

データ送受信部241は、上述した制御装置222との情報通信を行うための機能部である。データ送受信部241は、例えば後述するカメラ部242によって撮像された現実空間の映像を制御装置222に送信したり、制御装置222によって生成された拡張現実映像を受信したりしてもよい。 The data transmission / reception unit 241 is a functional unit for performing information communication with the control device 222 described above. The data transmission / reception unit 241 may transmit, for example, an image of the real space captured by the camera unit 242, which will be described later, to the control device 222, or may receive the augmented reality image generated by the control device 222.

カメラ部242は、現実空間の映像を撮影するための機能部である。このカメラ部242は、現実空間の映像を継続的に撮影し、撮影した映像をリアルタイムで動的に制御装置222に送信してもよい。 The camera unit 242 is a functional unit for capturing an image in the real space. The camera unit 242 may continuously capture an image in the real space and dynamically transmit the captured image to the control device 222 in real time.

映像表示部244は、仮想オブジェクトを現実空間の映像に重畳した拡張現実映像をユーザに表示するためのディスプレイである。 The image display unit 244 is a display for displaying an augmented reality image in which a virtual object is superimposed on an image in the real space to the user.

次に、図3を参照して、本発明の実施形態に係る端末装置の一例について説明する。 Next, an example of the terminal device according to the embodiment of the present invention will be described with reference to FIG.

図3は、本発明の実施形態に係る端末装置240の一例を示す図である。 FIG. 3 is a diagram showing an example of the terminal device 240 according to the embodiment of the present invention.

上述したように、本発明の実施形態に係る、仮想オブジェクトを現実空間の映像に重畳した拡張現実映像をユーザに提供する端末装置240は、例えば携帯端末240A又はヘッドマウントディスプレイ240Bとして実装されてもよい。 As described above, the terminal device 240 according to the embodiment of the present invention that provides the user with an augmented reality image in which a virtual object is superimposed on an image in the real space may be implemented as, for example, a mobile terminal 240A or a head-mounted display 240B. Good.

携帯端末240は、ユーザが手で持つコンピューティングデバイスである。この携帯端末240は、例えばスマートフォンやタブレット等であってもよい。端末装置240を携帯端末240Aとして構成することにより、ユーザは小型かつ軽量のデバイスで拡張現実映像を見ることができる。 The mobile terminal 240 is a computing device held by the user. The mobile terminal 240 may be, for example, a smartphone, a tablet, or the like. By configuring the terminal device 240 as a mobile terminal 240A, the user can view the augmented reality image on a small and lightweight device.

ヘッドマウントディスプレイ240Bは、ユーザの頭部に装着するディスプレイ装置である。このヘッドマウントディスプレイ240Bは、例えば片目のみを覆う単眼型、又は両目を覆う両目型であってもよく、形状やディスプレイ方式は適宜に選択されてもよい。端末装置240をヘッドマウントディスプレイ240Bとして構成することにより、ユーザの手が空くこととなるため、作業をより自由に行うことができる。 The head-mounted display 240B is a display device worn on the user's head. The head-mounted display 240B may be, for example, a monocular type that covers only one eye or a binocular type that covers both eyes, and the shape and display method may be appropriately selected. By configuring the terminal device 240 as the head-mounted display 240B, the user's hands are freed, so that the work can be performed more freely.

上述した端末装置240の形態は、使用される目的及び環境に基づいて適宜に選択されてもよい。例えば、本発明の実施形態に係る情報表示手段は、観光地で食事やイベントの案内情報を表示するために使用されている場合には、端末装置240を小型かつ軽量な携帯端末240Aとして実装することがユーザの利便性の観点から好ましいことがある。一方、本発明の実施形態に係る情報表示手段は、配管の保守作業を行う際に使用されている場合には、端末装置240をヘッドマウントディスプレイ240Bとして実装することが作業者の作業効率の観点から好ましいことがある。 The form of the terminal device 240 described above may be appropriately selected based on the purpose and environment in which it is used. For example, when the information display means according to the embodiment of the present invention is used to display information on meals and events at a tourist spot, the terminal device 240 is implemented as a small and lightweight mobile terminal 240A. This may be preferable from the viewpoint of user convenience. On the other hand, when the information display means according to the embodiment of the present invention is used for maintenance work of piping, it is a viewpoint of work efficiency of an operator that the terminal device 240 is mounted as a head-mounted display 240B. May be preferable.

次に、図4〜図7を参照して、本発明の実施形態に係る情報表示手段を用いてARマーカを認識する場合に表示される拡張現実映像の例について説明する。 Next, with reference to FIGS. 4 to 7, an example of an augmented reality image displayed when the AR marker is recognized by using the information display means according to the embodiment of the present invention will be described.

図4〜図7は、本発明の実施形態に係る情報表示手段を用いてARマーカを認識する場合に表示される拡張現実映像の例を示す図である。上述したように、本発明の実施形態に係る情報表示手段は、同時に検知した複数の異なるARマーカの種類、数、位置等に基づいて、現実空間に表示する仮想オブジェクトの表示パターンを決定する。ここでいう表示パターンとは、仮想オブジェクトの形式(例えば、テキスト、グラフ、アニメーション等)や、ベースとなる現実映像において仮想オブジェクトを表示する位置(例えば平面座標)を指定する情報である。
以下、端末装置によって撮影された映像と、当該映像に写っているARマーカに応じて表示される仮想オブジェクトの例について説明する。
4 to 7 are diagrams showing an example of an augmented reality image displayed when the AR marker is recognized by using the information display means according to the embodiment of the present invention. As described above, the information display means according to the embodiment of the present invention determines the display pattern of the virtual object to be displayed in the real space based on the types, numbers, positions, etc. of the plurality of different AR markers detected at the same time. The display pattern referred to here is information that specifies the format of the virtual object (for example, text, graph, animation, etc.) and the position (for example, plane coordinates) for displaying the virtual object in the base real image.
Hereinafter, an example of an image captured by the terminal device and a virtual object displayed according to the AR marker appearing in the image will be described.

図4は、1つのARマーカ425を含む入力映像420と、このARマーカ425に応じて作成される仮想オブジェクト445を含む拡張現実映像440とを示す図である。図4に示す入力映像420が撮影され、ARマーカ425が上述したデータ分析部によって認識されると、仮想オブジェクト445を含む拡張現実映像440がオブジェクト作成部及び拡張現実管理部によって作成され、端末装置の映像表示部に表示される。 FIG. 4 is a diagram showing an input image 420 including one AR marker 425 and an augmented reality image 440 including a virtual object 445 created in response to the AR marker 425. When the input image 420 shown in FIG. 4 is captured and the AR marker 425 is recognized by the data analysis unit described above, the augmented reality image 440 including the virtual object 445 is created by the object creation unit and the augmented reality management unit, and the terminal device. It is displayed on the video display section of.

上述したように、本発明の実施形態に係る情報表示手段は、同時に検知した複数の異なるARマーカの種類、数、位置等に基づいて、現実空間に表示する仮想オブジェクトの表示パターン(すなわち、表示位置及び表示形式)を決定する。例えば、図4のように1つだけのARマーカが認識される場合には、当該ARマーカに紐づいた情報を詳細に示す仮想オブジェクトを表示することができる。従って、本発明の実施形態に係る情報表示手段では、例えば認識されるARマーカの数が1つのみの場合には、そのARマーカに紐づいた情報を詳細に示す仮想オブジェクト(例えば仮想オブジェクト445)を表示してもよい。
これにより、ユーザは、認識されたARマーカに対応するARコンテンツの詳細情報を見ることができる。
As described above, the information display means according to the embodiment of the present invention has a display pattern (that is, display) of a virtual object to be displayed in the real space based on the types, numbers, positions, etc. of a plurality of different AR markers detected at the same time. Position and display format) are determined. For example, when only one AR marker is recognized as shown in FIG. 4, a virtual object showing the information associated with the AR marker in detail can be displayed. Therefore, in the information display means according to the embodiment of the present invention, for example, when the number of recognized AR markers is only one, a virtual object (for example, virtual object 445) that shows the information associated with the AR markers in detail. ) May be displayed.
As a result, the user can see the detailed information of the AR content corresponding to the recognized AR marker.

図5は、3つのARマーカを含む入力映像520と、この3つのARマーカに応じて作成される拡張現実映像540とを示す図である。図5に示す入力映像520が撮影され、この3つのARマーカが上述したデータ分析部によって認識されると、3つの仮想オブジェクトを含む拡張現実映像540がオブジェクト作成部及び拡張現実管理部によって作成され、端末装置の映像表示部に表示される。 FIG. 5 is a diagram showing an input image 520 including three AR markers and an augmented reality image 540 created according to the three AR markers. When the input image 520 shown in FIG. 5 is captured and the three AR markers are recognized by the above-mentioned data analysis unit, an augmented reality image 540 including three virtual objects is created by the object creation unit and the augmented reality management unit. , Displayed on the video display of the terminal device.

図5に示すように、例えば3つのARマーカが認識される場合には、認識したそれぞれのARマーカに紐づいた情報から作成した仮想オブジェクトを表示してもよい。この場合、端末装置の映像表示部の画面の面積や解像度によっては、仮想オブジェクトの情報量は調整されてもよい。例えば、3つのARマーカに紐づいた情報を詳細に示すと画面が混んで見にくくなる場合には、ARマーカに紐づいた情報をより簡潔に示す仮想オブジェクトを作成して表示することができる。 As shown in FIG. 5, for example, when three AR markers are recognized, a virtual object created from the information associated with each recognized AR marker may be displayed. In this case, the amount of information of the virtual object may be adjusted depending on the area and resolution of the screen of the image display unit of the terminal device. For example, if the information associated with the three AR markers is shown in detail and the screen is crowded and difficult to see, a virtual object that more concisely shows the information associated with the AR markers can be created and displayed.

図6は、6つのARマーカを含む入力映像620と、この6つのARマーカに応じて作成される拡張現実映像640とを示す図である。図6に示す入力映像620が撮影され、この6つのARマーカが上述したデータ分析部によって認識されると、6つのARマーカに対応する付加情報をまとめて表示する仮想オブジェクトを含む拡張現実映像640がオブジェクト作成部及び拡張現実管理部によって作成され、端末装置の映像表示部に表示される。 FIG. 6 is a diagram showing an input video 620 including six AR markers and an augmented reality video 640 created according to the six AR markers. When the input video 620 shown in FIG. 6 is captured and the six AR markers are recognized by the above-mentioned data analysis unit, the augmented reality video 640 including a virtual object that collectively displays additional information corresponding to the six AR markers. Is created by the object creation unit and the augmented reality management unit, and is displayed on the video display unit of the terminal device.

多数のARマーカが同時に認識される場合には、それぞれのARマーカに紐づいた情報を個別の仮想オブジェクトとして作成して表示すると、映像表示部のディスプレイが仮想オブジェクトで混んでしまい、画面が見にくくなることがある。従って、本発明の実施形態に係る情報表示手段では、例えば認識されるARマーカの数が所定の数(例えば4つ以上)を超えると、それぞれのARマーカに紐づいた情報を個別の仮想オブジェクトとして表示する代わりに、それぞれのARマーカに紐づいた情報を1つのまとめた仮想オブジェクトとして表示してもよい(拡張現実映像640参照)。
これにより、表示されるARコンテンツが見やすくなり、端末装置の映像表示部の画面面積をより効率的に使用することができる。
When a large number of AR markers are recognized at the same time, if the information associated with each AR marker is created and displayed as an individual virtual object, the display of the video display unit will be crowded with the virtual object, making the screen difficult to see. May become. Therefore, in the information display means according to the embodiment of the present invention, for example, when the number of recognized AR markers exceeds a predetermined number (for example, four or more), the information associated with each AR marker is displayed as an individual virtual object. Instead of displaying as, the information associated with each AR marker may be displayed as one integrated virtual object (see Augmented Reality Video 640).
This makes it easier to see the AR content to be displayed, and the screen area of the video display unit of the terminal device can be used more efficiently.

図7は、ユーザの注目点によって表示される仮想オブジェクトを変更する一例を示す図である。上述したように、本発明の実施形態に係る情報表示手段は、ユーザの注目点に基づいて仮想オブジェクトを作成して表示することができる。例えば、図7に示すように、端末装置の視線分析部(例えば図2に示す視線分析部232)は、ユーザの注目点が仮想オブジェクト710に向けられていると判定する場合には、この仮想オブジェクト710に埋め込まれている(後述する)非表示情報から作成した仮想オブジェクト720が表示されてもよい。そして、視線分析部は、ユーザの注目点が仮想オブジェクト710から仮想オブジェクト730に移ったと判定する場合には、この仮想オブジェクト730に埋め込まれている非表示情報から作成した仮想オブジェクト740が表示されてもよい。
これにより、ユーザは手等を使うことなく、目の動きだけで興味のあるARコンテンツを表示させることができる。
FIG. 7 is a diagram showing an example of changing a virtual object displayed according to a user's point of interest. As described above, the information display means according to the embodiment of the present invention can create and display a virtual object based on a user's point of interest. For example, as shown in FIG. 7, when the line-of-sight analysis unit of the terminal device (for example, the line-of-sight analysis unit 232 shown in FIG. 2) determines that the user's point of interest is directed to the virtual object 710, the virtual object The virtual object 720 created from the hidden information (described later) embedded in the object 710 may be displayed. Then, when the line-of-sight analysis unit determines that the user's point of interest has moved from the virtual object 710 to the virtual object 730, the virtual object 740 created from the hidden information embedded in the virtual object 730 is displayed. May be good.
As a result, the user can display the AR content of interest only by moving his / her eyes without using his / her hands.

次に、図8〜図11を参照して、本発明の実施形態に係る情報表示処理において用いられる情報管理テーブルについて説明する。 Next, the information management table used in the information display processing according to the embodiment of the present invention will be described with reference to FIGS. 8 to 11.

図8は、本発明の実施形態に係るARマーカ・仮想オブジェクト管理テーブル800の一例を示す図である。図8に示すARマーカ・仮想オブジェクト管理テーブル800は、仮想オブジェクトとなる付加情報810毎に、当該付加情報に該当するARマーカのタグ820、視線注目状態830、及び仮想オブジェクト形式840を示すテーブルである。撮影された現実映像において特定のARマーカのタグ820が検知されると、上述したオブジェクト作成部は、検知したARマーカのタグ820に対応する仮想オブジェクトの付加情報810及び形式840をARマーカ・仮想オブジェクト管理テーブル800に基づいて特定することができる。
なお、図8に示す仮想オブジェクト形式840は、仮想オブジェクトをどの形式で表示すべきかを指定するものであり、「A」、「B」、「C」、「D」のそれぞれは、例えばテキスト、グラフ、画像、動画等、任意の形式形態を指定するラベルである。
FIG. 8 is a diagram showing an example of the AR marker / virtual object management table 800 according to the embodiment of the present invention. The AR marker / virtual object management table 800 shown in FIG. 8 is a table showing the tag 820 of the AR marker corresponding to the additional information, the line-of-sight attention state 830, and the virtual object format 840 for each additional information 810 that becomes a virtual object. is there. When the tag 820 of a specific AR marker is detected in the captured real image, the object creation unit described above converts the additional information 810 and the format 840 of the virtual object corresponding to the detected AR marker tag 820 into the AR marker / virtual. It can be specified based on the object management table 800.
The virtual object format 840 shown in FIG. 8 specifies in which format the virtual object should be displayed, and each of "A", "B", "C", and "D" is, for example, text. A label that specifies an arbitrary format such as a graph, an image, or a moving image.

図9は、本発明の実施形態に係る第1の付加情報管理テーブル900の一例を示す図である。図9に示す第1の付加情報管理テーブル900は、仮想オブジェクト(例えば、ARマーカに基づいて作成される第1の仮想オブジェクト)となる付加情報を格納するテーブルである。撮影された現実映像において特定のARマーカのタグが検知され、当該ARマーカのタグに対応する付加情報が(例えば図8に示すARマーカ・仮想オブジェクト管理テーブル800に基づいて)特定されると、次に、上述したオブジェクト作成部は、特定した付加情報を第1の付加情報管理テーブル900から取得する。その後、オブジェクト作成部は、第1の付加情報管理テーブル900から取得した付加情報に応じた仮想オブジェクトを作成してもよい。
なお、図9に示す第1の付加情報管理テーブル900では、サーバのCPU温度、気温、湿度、イベント等の情報が仮想オブジェクトの付加情報として例示されているが、本発明はそれに限定されず、仮想オブジェクトの付加情報は、本発明に係る情報表示手段の使用される目的及び環境に応じて適宜に構成されてもよい。
FIG. 9 is a diagram showing an example of the first additional information management table 900 according to the embodiment of the present invention. The first additional information management table 900 shown in FIG. 9 is a table that stores additional information that becomes a virtual object (for example, a first virtual object created based on an AR marker). When a tag of a specific AR marker is detected in the captured real image and additional information corresponding to the tag of the AR marker is specified (for example, based on the AR marker / virtual object management table 800 shown in FIG. 8), Next, the object creation unit described above acquires the specified additional information from the first additional information management table 900. After that, the object creation unit may create a virtual object according to the additional information acquired from the first additional information management table 900.
In the first additional information management table 900 shown in FIG. 9, information such as the CPU temperature, temperature, humidity, and event of the server is exemplified as additional information of the virtual object, but the present invention is not limited thereto. The additional information of the virtual object may be appropriately configured according to the purpose and environment in which the information display means according to the present invention is used.

図10は、本発明の実施形態に係る非表示情報管理テーブル1000の一例を示す図である。後述するように、拡張現実映像に重畳される仮想オブジェクトは、複数のエリアに分割されており、それぞれのエリアにおいて、異なる非表示情報が埋め込まれている。この非表示情報は、映像に表示されず、視線分析部によって検知される情報である。視線分析部は、ユーザの注目点が仮想オブジェクトのエリアに向けられていると検知すると、そのエリアに埋め込まれている非表示情報によって指定されている付加情報を指定されているテーブル(例えば、後述する第2付加情報管理テーブル1100)から取得し、当該付加情報に応じて新たな仮想オブジェクト(例えば、第2の仮想オブジェクト)を、非表示情報によって指定されている表示パターンに従って作成し、拡張現実映像に追加する。
例えば、視線分析部は、ユーザの注目点が「CPU温度」のエリアに向けられていると判定すると、当該エリアの条件に従って、プロセッサ毎のCPU使用率を、例えば、後述する第2の付加情報管理テーブル1100から取得し、取得した情報を表形式で示す仮想オブジェクトを作成し、拡張現実映像に追加してもよい。
FIG. 10 is a diagram showing an example of the hidden information management table 1000 according to the embodiment of the present invention. As will be described later, the virtual object superimposed on the augmented reality image is divided into a plurality of areas, and different hidden information is embedded in each area. This non-display information is information that is not displayed in the video and is detected by the line-of-sight analysis unit. When the line-of-sight analysis unit detects that the user's point of interest is directed to the area of the virtual object, a table in which additional information specified by the hidden information embedded in the area is specified (for example, described later). A new virtual object (for example, a second virtual object) is created according to the additional information obtained from the second additional information management table 1100) according to the display pattern specified by the hidden information, and augmented reality. Add to the video.
For example, when the line-of-sight analysis unit determines that the user's point of interest is directed to the area of "CPU temperature", the line-of-sight analysis unit determines the CPU usage rate for each processor according to the conditions of the area, for example, the second additional information described later. A virtual object acquired from the management table 1100 and showing the acquired information in a tabular format may be created and added to the augmented reality image.

図11は、本発明の実施形態に係る第2の付加情報管理テーブル1100の一例を示す図である。図11は、ユーザの注目点が検知される際に、ユーザの注目点のエリアに埋め込まれている非表示情報によって指定される付加情報を格納するテーブルである。図11に示す第2の付加情報は、表示中の第1の仮想オブジェクトがユーザの注目点の対象となった場合に、新たな仮想オブジェクト(例えば、第2、第3、第4等の仮想オブジェクト)を作成するための情報である。また、図11に示すように、この第2の付加情報は、サーバのプロセッサ毎のCPU使用率やイベントの情報等を含んでもよい。
なお、図11に示す第2の付加情報管理テーブル1100では、サーバのCPU使用率やイベント等の情報が付加情報として例示されているが、本発明はそれに限定されず、付加情報は、本発明に係る情報表示手段の使用される目的及び環境に応じて適宜に構成されてもよい。
FIG. 11 is a diagram showing an example of the second additional information management table 1100 according to the embodiment of the present invention. FIG. 11 is a table that stores additional information specified by hidden information embedded in the area of the user's attention when the user's attention is detected. The second additional information shown in FIG. 11 is a new virtual object (for example, a second, third, fourth, etc. virtual object) when the first virtual object being displayed is the target of the user's attention. Information for creating an object). Further, as shown in FIG. 11, the second additional information may include information such as CPU usage rate and event information for each processor of the server.
In the second additional information management table 1100 shown in FIG. 11, information such as the CPU usage rate of the server and events is exemplified as additional information, but the present invention is not limited thereto, and the additional information is the present invention. It may be appropriately configured according to the purpose and environment in which the information display means according to the above is used.

次に、図12を参照して、本発明の実施形態に係る情報表示の処理フローについて説明する。 Next, with reference to FIG. 12, the processing flow of information display according to the embodiment of the present invention will be described.

図12は、本発明の実施形態に係る情報表示の処理1200のフローを示すフローチャートである。 FIG. 12 is a flowchart showing a flow of information display processing 1200 according to the embodiment of the present invention.

まず、ステップS1201では、制御装置のデータ送受信部(例えば、図2に示す制御装置220のデータ送受信部222)は、端末装置(例えば、図2に示す端末装置240)から、現実映像を受信する。この現実映像は、例えば端末装置のカメラ部(例えば、図2に示す242)によって撮影された映像であってもよい。
なお、この映像は、リアルタイムで継続的に撮影された生配信であってもよい。
First, in step S1201, the data transmission / reception unit of the control device (for example, the data transmission / reception unit 222 of the control device 220 shown in FIG. 2) receives a real image from the terminal device (for example, the terminal device 240 shown in FIG. 2). .. This real image may be, for example, an image taken by a camera unit of a terminal device (for example, 242 shown in FIG. 2).
It should be noted that this video may be a live distribution continuously shot in real time.

次に、ステップS1202では、制御装置のデータ分析部(例えば、図2に示す制御装置220のデータ分析部224)は、映像におけるARマーカの種類と数を分析する。ここで、データ分析部は、例えば既存の画像処理手段を用いて、受信する映像に埋め込まれているARマーカを検知し、検知したARマーカの種類を判定し、種類毎の数を計算してもよい。 Next, in step S1202, the data analysis unit of the control device (for example, the data analysis unit 224 of the control device 220 shown in FIG. 2) analyzes the type and number of AR markers in the video. Here, the data analysis unit detects the AR marker embedded in the received video by using, for example, an existing image processing means, determines the type of the detected AR marker, and calculates the number for each type. May be good.

次に、ステップS1203では、オブジェクト作成部は、検知したARマーカの種類及び数に基づいて、当該ARマーカに該当する仮想オブジェクトの表示情報をストレージ部から取得する。ここで、オブジェクト作成部は、上述したARマーカ・仮想オブジェクト管理テーブル(例えば、図8に示すARマーカ・仮想オブジェクト管理テーブル800)を用いることで、検知したARマーカに該当する付加情報を特定し、当該付加情報を、第1の付加情報管理テーブル(例えば、図9に示す第1の付加情報管理テーブル900)から取得してもよい。 Next, in step S1203, the object creation unit acquires the display information of the virtual object corresponding to the AR marker from the storage unit based on the type and number of the detected AR markers. Here, the object creation unit identifies additional information corresponding to the detected AR marker by using the above-mentioned AR marker / virtual object management table (for example, the AR marker / virtual object management table 800 shown in FIG. 8). , The additional information may be acquired from the first additional information management table (for example, the first additional information management table 900 shown in FIG. 9).

次に、ステップS1204では、オブジェクト作成部は、検知したARマーカの種類及び数に基づいて、仮想オブジェクトの表示パターンを決定する。ここで、オブジェクト作成部は、上述したARマーカ・仮想オブジェクト管理テーブルを用いることで、検知したARマーカに該当する仮想オブジェクト形式を決定してもよい。例えば、図8を参照して一例を説明すると、後述する図14の処理の結果、付加情報「1」が決定される場合には、オブジェクト作成部は、「C」の仮想オブジェクト形式を決定する。
なお、ステップS1203〜S1204の詳細については、図14を参照して後述する。
Next, in step S1204, the object creation unit determines the display pattern of the virtual object based on the type and number of detected AR markers. Here, the object creation unit may determine the virtual object format corresponding to the detected AR marker by using the AR marker / virtual object management table described above. For example, to explain an example with reference to FIG. 8, when the additional information "1" is determined as a result of the processing of FIG. 14 described later, the object creation unit determines the virtual object format of "C". ..
The details of steps S1203 to S1204 will be described later with reference to FIG.

次に、ステップS1205では、オブジェクト作成部は、ステップS1203でストレージ部から取得した仮想オブジェクトの付加情報と、ステップS1204で決定した表示パターンとに基づいて仮想オブジェクトを作成する。例えば、ストレージ部から取得した付加情報は、「サーバ1CPU温度:60度」と示し、仮想オブジェクトの表示パターンは「テキスト形式」と示す場合には、オブジェクト作成部は、「サーバ1CPU温度:60度」を表形式で示す仮想オブジェクトを作成してもよい。 Next, in step S1205, the object creation unit creates a virtual object based on the additional information of the virtual object acquired from the storage unit in step S1203 and the display pattern determined in step S1204. For example, when the additional information acquired from the storage unit indicates "server 1 CPU temperature: 60 degrees" and the display pattern of the virtual object indicates "text format", the object creation unit indicates "server 1 CPU temperature: 60 degrees". You may create a virtual object that shows "" in a tabular format.

次に、ステップS1206では、オブジェクト作成部は、ステップS1205で作成した仮想オブジェクトと、ステップS1201で受信した現実映像とを合成し、仮想オブジェクトが現実映像に重畳されている拡張現実映像を生成する。 Next, in step S1206, the object creation unit synthesizes the virtual object created in step S1205 and the real image received in step S1201 to generate an augmented reality image in which the virtual object is superimposed on the real image.

次に、ステップS1207では、ステップS1206で生成される拡張現実映像が端末装置に送信される。拡張現実映像を受信した端末装置は、当該拡張現実映像を映像表示部に表示する。 Next, in step S1207, the augmented reality image generated in step S1206 is transmitted to the terminal device. The terminal device that has received the augmented reality image displays the augmented reality image on the image display unit.

次に、ステップS1208では、ユーザの注目点の有無が判定される。ユーザ注目点が仮想オブジェクトに向けられている場合には、本処理はステップS1208に進む。ユーザ注目点が仮想オブジェクトに向けられていない場合には、本処理は終了する。
これにより、同時に検知された複数の異なるARマーカの種類、数、位置等に基づいて決定した表示パターンに従って、所望の仮想オブジェクトを作成することができる。
Next, in step S1208, it is determined whether or not the user has a point of interest. If the user's attention is directed to the virtual object, this process proceeds to step S1208. If the user's attention is not directed to the virtual object, this process ends.
As a result, a desired virtual object can be created according to a display pattern determined based on the types, numbers, positions, etc. of a plurality of different AR markers detected at the same time.

次に、図13を参照して、本発明の実施形態に係る注目点分析の処理フローについて説明する。 Next, with reference to FIG. 13, the processing flow of the point of interest analysis according to the embodiment of the present invention will be described.

図13は、本発明の実施形態に係る注目点分析の処理1300のフローを示すフローチャートである。 FIG. 13 is a flowchart showing a flow of the attention point analysis process 1300 according to the embodiment of the present invention.

まず、ステップS1301では、制御装置の視線分析部(例えば、図2に示す制御装置220の視線分析部232)は、端末装置(例えば、図2に示す端末装置240)から、ユーザの視線の座標を示す情報を受信し、当該情報を分析することで、拡張現実映像における注目点の座標を算出する。ここでの座標は、例えば一般的な平面座標であってもよい。 First, in step S1301, the line-of-sight analysis unit of the control device (for example, the line-of-sight analysis unit 232 of the control device 220 shown in FIG. 2) has the coordinates of the user's line of sight from the terminal device (for example, the terminal device 240 shown in FIG. 2). By receiving the information indicating the above and analyzing the information, the coordinates of the point of interest in the augmented reality image are calculated. The coordinates here may be, for example, general plane coordinates.

次に、ステップS1302では、視線分析部は、ステップS1301で算出した注目点の座標が、拡張現実映像に重畳されている仮想オブジェクトのエリアに含まれているか否かを判定する。ユーザの注目点の座標が仮想オブジェクトのエリアに含まれている場合には、本処理はステップS1303に進む。ユーザの注目点の座標が仮想オブジェクトのエリアに含まれていない場合には、本処理は終了する。 Next, in step S1302, the line-of-sight analysis unit determines whether or not the coordinates of the point of interest calculated in step S1301 are included in the area of the virtual object superimposed on the augmented reality image. If the coordinates of the user's point of interest are included in the area of the virtual object, this process proceeds to step S1303. If the coordinates of the user's point of interest are not included in the virtual object area, this process ends.

次に、ステップS1303では、視線分析部は、注目点を含むエリアに埋め込まれている非表示情報を取得する。上述したように、この非表示情報は、追加の仮想オブジェクト(例えば、第2、第3、第4等の仮想オブジェクト)となる付加情報や、当該仮想オブジェクトの表示パターンを指定する条件を示すものである。 Next, in step S1303, the line-of-sight analysis unit acquires the hidden information embedded in the area including the point of interest. As described above, this hidden information indicates additional information that becomes an additional virtual object (for example, a second, third, fourth, etc. virtual object) and a condition for designating a display pattern of the virtual object. Is.

次に、ステップS1304では、視線分析部は、取得した非表示情報に基づいて、追加の仮想オブジェクトの表示パターンを決定する。この表示パターンは、取得した非表示情報によって指定されている条件に応じて決定されてもよい。例えば、非表示情報は、付加情報を「グラフ形式」で表示することを指定する場合には、視線分析部は、追加の仮想オブジェクトの表示パターンを「グラフ形式」として決定してもよい。 Next, in step S1304, the line-of-sight analysis unit determines the display pattern of the additional virtual object based on the acquired non-display information. This display pattern may be determined according to the conditions specified by the acquired non-display information. For example, when the hidden information specifies that the additional information is displayed in the "graph format", the line-of-sight analysis unit may determine the display pattern of the additional virtual object as the "graph format".

次に、ステップS1305では、オブジェクト作成部は、追加の仮想オブジェクトとなる付加情報をストレージ部から取得する。具体的には、オブジェクト作成部は、非表示情報によって指定されている情報を付加情報管理テーブル(例えば、図11に示す第2の付加情報管理テーブル1100)から取得してもよい。 Next, in step S1305, the object creation unit acquires additional information to be an additional virtual object from the storage unit. Specifically, the object creation unit may acquire the information specified by the hidden information from the additional information management table (for example, the second additional information management table 1100 shown in FIG. 11).

次に、ステップS1306では、オブジェクト作成部は、付加情報管理テーブルから取得した付加情報に応じた追加の仮想オブジェクト(例えば、第2の仮想オブジェクト)を作成する。上述したように、この追加の仮想オブジェクトは、ユーザの注目点が含まれているエリアに関する詳細情報を示すものであってもよい。例えば、ユーザの注目点がサーバのCPUの使用率を示すエリアに含まれる場合には、そのサーバのCPUの使用率の時系列を示すグラフが追加の仮想オブジェクトとして作成されてもよい。 Next, in step S1306, the object creation unit creates an additional virtual object (for example, a second virtual object) according to the additional information acquired from the additional information management table. As mentioned above, this additional virtual object may provide detailed information about the area that contains the user's attention. For example, if the user's attention is included in the area showing the CPU usage of the server, a graph showing the time series of the CPU usage of the server may be created as an additional virtual object.

次に、ステップS1307では、オブジェクト作成部は、追加の仮想オブジェクトと、拡張現実映像と(すなわち、第1の仮想オブジェクトが既に重畳されている拡張現実映像)を合成する。具体的には、オブジェクト作成部は、ステップS1306で作成した追加の仮想オブジェクトを、ユーザの注目点の座標に一致する場所に重畳してもよい。 Next, in step S1307, the object creation unit synthesizes the additional virtual object and the augmented reality image (that is, the augmented reality image on which the first virtual object is already superimposed). Specifically, the object creation unit may superimpose the additional virtual object created in step S1306 on a location that matches the coordinates of the user's point of interest.

次に、図14を参照して、本発明の実施形態に係る仮想オブジェクトの表示パターンを決定する処理について説明する。 Next, a process of determining the display pattern of the virtual object according to the embodiment of the present invention will be described with reference to FIG.

図14は、本発明の実施形態に係る仮想オブジェクトの表示パターンを決定する処理1400のフローを示すフローチャートである。図14に示す処理1400は、図12に示す処理1200におけるステップS1203〜S1204に対応し、仮想オブジェクトの表示パターンを決定する処理の詳細を示すものである。 FIG. 14 is a flowchart showing a flow of processing 1400 for determining a display pattern of a virtual object according to an embodiment of the present invention. The process 1400 shown in FIG. 14 corresponds to steps S1203 to S1204 in the process 1200 shown in FIG. 12, and shows the details of the process of determining the display pattern of the virtual object.

まず、ステップS1401では、オブジェクト作成部は、現実映像において特定された全てのARマーカに対して、未分析のフラグを設定する。この未分析のフラグとは、当該ARマーカに対応する付加情報を含む仮想オブジェクトが未作成であることを示すラベルである。例えば、ARマーカ1、ARマーカ2、ARマーカ3、及びARマーカ4が特定された場合には、オブジェクト作成部は、ARマーカ1、ARマーカ2、ARマーカ3、及びARマーカ4のそれぞれに対して未分析のフラグを設定する。
なお、この未分析のフラグは、例えば上述したARマーカ・仮想オブジェクト管理テーブルにおいて格納されてもよい(例示せず)。
First, in step S1401, the object creation unit sets an unanalyzed flag for all the AR markers identified in the real image. The unanalyzed flag is a label indicating that the virtual object including the additional information corresponding to the AR marker has not been created. For example, when the AR marker 1, the AR marker 2, the AR marker 3, and the AR marker 4 are specified, the object creation unit assigns the AR marker 1, the AR marker 2, the AR marker 3, and the AR marker 4 to each of them. On the other hand, set the unanalyzed flag.
Note that this unanalyzed flag may be stored, for example, in the AR marker / virtual object management table described above (not shown).

次に、ステップS1402では、オブジェクト作成部は、未分析のフラグが設定されているARマーカの内、1つのARマーカを選択する。ここで選択されるARマーカは、任意のARマーカであってもよい。例えば、未分析のフラグがARマーカ1、ARマーカ2、ARマーカ3、及びARマーカ4に対して設定されている場合、オブジェクト作成部は、ARマーカ1を選択してもよい。 Next, in step S1402, the object creation unit selects one AR marker from the AR markers for which the unanalyzed flag is set. The AR marker selected here may be any AR marker. For example, when the unanalyzed flag is set for the AR marker 1, the AR marker 2, the AR marker 3, and the AR marker 4, the object creation unit may select the AR marker 1.

次に、ステップS1403では、オブジェクト作成部は、上述したARマーカ・仮想オブジェクト管理テーブルを参照して、選択したARマーカに対応する付加情報を取得する。例えば、ARマーカ1が選択された場合には、オブジェクト作成部は、付加情報1、7、及び9を取得する。 Next, in step S1403, the object creation unit refers to the AR marker / virtual object management table described above and acquires additional information corresponding to the selected AR marker. For example, when the AR marker 1 is selected, the object creation unit acquires additional information 1, 7, and 9.

次に、ステップS1404では、オブジェクト作成部は、取得したそれぞれの付加情報に対して、未分析のフラグを設定する。上述したように、この未分析のフラグは、当該付加情報を含む仮想オブジェクトが未作成であることを示すラベルであり、ARマーカ・仮想オブジェクト管理テーブルにおいて格納されてもよい(例示せず)。 Next, in step S1404, the object creation unit sets an unanalyzed flag for each of the acquired additional information. As described above, this unanalyzed flag is a label indicating that the virtual object containing the additional information has not been created, and may be stored in the AR marker / virtual object management table (not shown).

次に、ステップS1405では、オブジェクト作成部は、未分析のフラグが設定されている付加情報の内、1つを選択する。ここで選択される付加情報は、任意のものであってもよい。例えば、未分析のフラグが付加情報1、7、及び9に対して設定されている場合には、オブジェクト作成部は、付加情報1を選択してもよい。 Next, in step S1405, the object creation unit selects one of the additional information for which the unanalyzed flag is set. The additional information selected here may be arbitrary. For example, when the unanalyzed flag is set for the additional information 1, 7, and 9, the object creation unit may select the additional information 1.

次に、ステップS1406では、オブジェクト作成部は、ARマーカ・仮想オブジェクト管理テーブルを参照し、選択した付加情報に該当するARマーカと、未分析のARマーカを比較した結果、選択した付加情報に該当するARマーカが未分析のARマーカに含まれているかを判定する(つまり、当該ARマーカが未分析か否かを確認する)。選択した付加情報に該当するARマーカが未分析のARマーカに含まれている場合には、本処理はステップS1407に進み、そうでない場合には、ステップS1408に進む。
例えば、選択した付加情報が付加情報1で、未分析のARマーカがARマーカ1、2、3、4の場合には、付加情報1に該当するARマーカ1が未分析のARマーカに含まれているため、本処理はステップS1408に進む。
Next, in step S1406, the object creation unit refers to the AR marker / virtual object management table, compares the AR marker corresponding to the selected additional information with the unanalyzed AR marker, and corresponds to the selected additional information. It is determined whether the AR marker to be used is included in the unanalyzed AR marker (that is, it is confirmed whether or not the AR marker is unanalyzed). If the AR marker corresponding to the selected additional information is included in the unanalyzed AR marker, the present process proceeds to step S1407, and if not, the process proceeds to step S1408.
For example, when the selected additional information is the additional information 1 and the unanalyzed AR markers are the AR markers 1, 2, 3, and 4, the AR marker 1 corresponding to the additional information 1 is included in the unanalyzed AR marker. Therefore, this process proceeds to step S1408.

次に、ステップS1407では、未分析のARマーカに含まれていないと判定された付加情報は、条件を満たさないと判定され、その旨を示すラベルが(例えば、ARマーカ・仮想オブジェクト管理テーブルにおいて)設定される。 Next, in step S1407, the additional information determined not to be included in the unanalyzed AR marker is determined not to satisfy the condition, and a label indicating that fact is displayed (for example, in the AR marker / virtual object management table). ) Set.

次に、ステップS1408では、未分析のARマーカに含まれていると判定された付加情報は、条件を満たすと判定され、その旨を示すラベルが、(例えば、ARマーカ・仮想オブジェクト管理テーブルにおいて)設定される。 Next, in step S1408, the additional information determined to be included in the unanalyzed AR marker is determined to satisfy the condition, and a label indicating that fact is displayed (for example, in the AR marker / virtual object management table). ) Set.

次に、ステップS1409では、オブジェクト作成部は、未分析のフラグが設定されている付加情報が残っているか否かを判定する。未分析の付加情報が残っている場合には、本処理はステップS1405に戻り、ステップS1405〜ステップS1408までの処理が未分析の付加情報に対して行われる。未分析の付加情報が残っていない場合には、本処理はステップS1410に進む。この処理は、未分析のフラグが設定されている付加情報が全て処理されるまで繰り返されてもよい。
一例として、ステップS1403で付加情報1、7、及び9が取得され、付加情報1しかステップS1406の判定を受けていない場合には、付加情報7及び付加情報9はまだ未分析データとして残っているため、本処理はステップS1405に戻り、ステップS1405〜ステップS1408までの処理が付加情報7、そして付加情報9のそれぞれに対して行われる。その結果、付加情報1及び付加情報7は、条件を満たすものであると分類され、付加情報9は、条件を満たさないものであると分類される。
Next, in step S1409, the object creation unit determines whether or not additional information for which the unanalyzed flag is set remains. If unanalyzed additional information remains, this process returns to step S1405, and the processes from steps S1405 to steps S1408 are performed on the unanalyzed additional information. If no unanalyzed additional information remains, this process proceeds to step S1410. This process may be repeated until all the additional information for which the unanalyzed flag is set is processed.
As an example, when the additional information 1, 7, and 9 are acquired in step S1403 and only the additional information 1 has been determined in step S1406, the additional information 7 and the additional information 9 still remain as unanalyzed data. Therefore, this process returns to step S1405, and the processes from step S1405 to step S1408 are performed for each of the additional information 7 and the additional information 9. As a result, the additional information 1 and the additional information 7 are classified as satisfying the conditions, and the additional information 9 is classified as not satisfying the conditions.

次に、ステップS1410では、オブジェクト作成部は、条件を満たすと分類された情報が複数あるか否かを判定する。条件を満たすと分類された情報が複数ある場合には、本処理はステップS1412に進み、そうでない場合には、本処理はステップS1411に進む。
例えば、付加情報1及び付加情報7は条件を満たすものであると分類された場合には、ステップS1410の判定の結果が「Yes」となるため、本処理はステップS1412に進む。
Next, in step S1410, the object creation unit determines whether or not there is a plurality of information classified as satisfying the conditions. If there are a plurality of information classified as satisfying the conditions, the present process proceeds to step S1412, and if not, the present process proceeds to step S1411.
For example, if the additional information 1 and the additional information 7 are classified as satisfying the conditions, the result of the determination in step S1410 is "Yes", so this process proceeds to step S1412.

次に、ステップS1411では、オブジェクト作成部は、条件を満たすと分類された情報が複数ではないため、条件を満たすと分類された1つの付加情報が「利用する情報」として設定する。 Next, in step S1411, since the object creation unit does not have a plurality of information classified when the condition is satisfied, one additional information classified when the condition is satisfied is set as "information to be used".

次に、ステップS1412では、オブジェクト作成部は、ARマーカ・仮想オブジェクト管理テーブルを参照し、最も多くのARマーカに該当する付加情報を「利用する情報」として設定する。例えば、図8のARマーカ・仮想オブジェクト管理テーブルに示されるように、付加情報1は、ARマーカ1の1つのARマーカに該当するが、付加情報7は、ARマーカ1、ARマーカ2、及びARマーカ3の3つのARマーカに該当するため、より多くのARマーカに該当する付加情報7が「利用する情報」として設定される。 Next, in step S1412, the object creation unit refers to the AR marker / virtual object management table and sets additional information corresponding to the most AR markers as “information to be used”. For example, as shown in the AR marker / virtual object management table of FIG. 8, the additional information 1 corresponds to one AR marker of the AR marker 1, but the additional information 7 corresponds to the AR marker 1, the AR marker 2, and the AR marker 2. Since it corresponds to the three AR markers of the AR marker 3, the additional information 7 corresponding to more AR markers is set as "information to be used".

次に、ステップS1413では、オブジェクト作成部は、「利用する情報」として設定された付加情報に該当するARマーカのフラグを「未分析」から「分析済み」に変更する。例えば、付加情報7が「利用する情報」として設定された場合には、付加情報7に該当するARマーカ1、ARマーカ2、及びARマーカ3の3つのARマーカのフラグが「未分析」から「分析済み」に変更される。 Next, in step S1413, the object creation unit changes the flag of the AR marker corresponding to the additional information set as "information to be used" from "unanalyzed" to "analyzed". For example, when the additional information 7 is set as "information to be used", the flags of the three AR markers corresponding to the additional information 7, AR marker 1, AR marker 2, and AR marker 3 are changed from "Unanalyzed". Change to "analyzed".

次に、ステップS1414では、データ分析部は、「利用する情報」として設定された付加情報に該当するARマーカについて、現実映像を分析し、それぞれのARマーカの4隅の座標を特定する。例えば、付加情報7が「利用する情報」として設定された場合には、付加情報7に該当するARマーカ1、ARマーカ2、及びARマーカ3の3つのARマーカの座標が特定される。 Next, in step S1414, the data analysis unit analyzes the actual image of the AR marker corresponding to the additional information set as the "information to be used", and specifies the coordinates of the four corners of each AR marker. For example, when the additional information 7 is set as "information to be used", the coordinates of the three AR markers corresponding to the additional information 7 are specified.

次に、ステップS1415では、オブジェクト作成部は、特定したARマーカの座標に基づいて、仮想オブジェクトを表示する位置を定義するベース座標を計算する。このベース座標は、仮想オブジェクトを表示する領域の4隅の座標を指定する座標である。仮想オブジェクトのベース座標を計算するためには、オブジェクト作成部は、「利用する情報」として設定された付加情報に該当する全てのARマーカの座標の内、ベース座標となる座標を以下の通りに特定してもよい。
OBJX1:全てのARマーカーのX座標の最小値, OBJY1:全てのARマーカーのY座標の最大値
OBJX2: 全てのARマーカーのX座標の最大値, OBJY2:全てのARマーカーのY座標の最大値
OBJX3:全てのARマーカーのX座標の最小値, OBJY3:全てのARマーカーのY座標の最小値
OBJX4:全てのARマーカーのX座標の最大値, OBJY4:全てのARマーカーのY座標の最小値
なお、本ステップの処理の一例については後述する。
Next, in step S1415, the object creation unit calculates the base coordinates that define the position to display the virtual object based on the coordinates of the specified AR marker. The base coordinates are coordinates that specify the coordinates of the four corners of the area for displaying the virtual object. In order to calculate the base coordinates of the virtual object, the object creation unit sets the coordinates that will be the base coordinates among the coordinates of all AR markers that correspond to the additional information set as "information to be used" as follows. It may be specified.
OBJX1: Minimum value of X coordinate of all AR markers, OBJY1: Maximum value of Y coordinate of all AR markers OBJX2: Maximum value of X coordinate of all AR markers, OBJY2: Maximum value of Y coordinate of all AR markers OBJX3: Minimum value of X coordinate of all AR markers, OBJY3: Minimum value of Y coordinate of all AR markers OBJX4: Maximum value of X coordinate of all AR markers, OBJY4: Minimum value of Y coordinate of all AR markers An example of the processing in this step will be described later.

次に、ステップS1416では、オブジェクト作成部は、未分析のARマーカが残っているか否かを判定する。未分析のARマーカが残っている場合には、本処理はステップS1402へ戻り、ステップS1402〜S1415の処理を繰り返す。未分析のARマーカが残っていない場合には、本処理は終了する。その後、図12に示す処理1200のステップS1205で上述したように、仮想オブジェクトが作成され、本処理のステップS1415で特定されたベース座標に重畳される。
一例として、ステップS1401でARマーカ1、ARマーカ2、ARマーカ3、及びARマーカ4が特定された場合には、上述した処理の結果ARマーカ1〜3が分析され、ARマーカ1〜3の付加情報を含む仮想オブジェクトが作成されるが、ARマーカ4はまだ未分析のフラグが設定されている。そのため、ARマーカ1〜3の処理が終了した後、ステップS1416の判定の結果が「NO」となり、本処理はステップS1402に戻る。続いて、ステップS1402〜S1415がARマーカ4に対して行われる。これにより、現実映像において特定された全てのARマーカに該当する付加情報を含む仮想オブジェクトが作成され、拡張現実映像に重畳されることとなる。
Next, in step S1416, the object creation unit determines whether or not an unanalyzed AR marker remains. If an unanalyzed AR marker remains, this process returns to step S1402 and repeats the processes of steps S1402 to S1415. If no unanalyzed AR marker remains, this process ends. After that, as described above in step S1205 of process 1200 shown in FIG. 12, a virtual object is created and superimposed on the base coordinates specified in step S1415 of this process.
As an example, when the AR marker 1, the AR marker 2, the AR marker 3, and the AR marker 4 are specified in step S1401, the AR markers 1 to 3 are analyzed as a result of the above-described processing, and the AR markers 1 to 3 are analyzed. A virtual object containing additional information is created, but the AR marker 4 is still set with an unanalyzed flag. Therefore, after the processing of the AR markers 1 to 3 is completed, the result of the determination in step S1416 becomes "NO", and this processing returns to step S1402. Subsequently, steps S1402 to S1415 are performed on the AR marker 4. As a result, a virtual object including additional information corresponding to all the AR markers specified in the real image is created and superimposed on the augmented reality image.

次に、図15を参照して、ARマーカの4隅の座標を特定する一例について説明する。 Next, an example of specifying the coordinates of the four corners of the AR marker will be described with reference to FIG.

図15は、本発明の実施形態に係るARマーカの4隅の座標を特定する一例を示す図である。上述したように、仮想オブジェクトを表示するベース座標は、現実映像において検知されるそれぞれのARマーカの4隅の座標に基づいて特定される。ARマーカの4隅の座標を特定するためには、上述したデータ分析部は、例えばキャニー法、その他の1次の手法、閾値処理と連続処理、2次の手法、微分エッジ検出等のエッジ検出手段や他の既存の画像処理手段を用いることで、検知したARマーカの4隅の座標を特定してもよい。
例えば、図15に示すように、データ分析部は、ARマーカ1510、ARマーカ1520、及びARマーカ1530のそれぞれの4隅の平面座標を特定する。
FIG. 15 is a diagram showing an example of specifying the coordinates of the four corners of the AR marker according to the embodiment of the present invention. As described above, the base coordinates for displaying the virtual object are specified based on the coordinates of the four corners of each AR marker detected in the real image. In order to specify the coordinates of the four corners of the AR marker, the above-mentioned data analysis unit may perform edge detection such as, for example, the Canny method, other primary methods, threshold processing and continuous processing, secondary methods, and differential edge detection. By using means or other existing image processing means, the coordinates of the four corners of the detected AR marker may be specified.
For example, as shown in FIG. 15, the data analysis unit identifies the plane coordinates of each of the four corners of the AR marker 1510, the AR marker 1520, and the AR marker 1530.

次に、図16を参照して、本発明の実施形態に係る仮想オブジェクトのベース座標の一例について説明する。 Next, an example of the base coordinates of the virtual object according to the embodiment of the present invention will be described with reference to FIG.

図16は、本発明の実施形態に係る仮想オブジェクトのベース座標の一例を示す図である。このベース座標は、仮想オブジェクトを表示する領域の4隅の座標を指定する座標であり、現実映像において検知されるARマーカの4隅の座標に基づいて、図14のステップS1415で示す計算法によって計算される。
例えば、図16に示す仮想オブジェクトのベース座標は、(OBJX1,OBJY1)、(OBJX2,OBJY2)、(OBJX3,OBJY3)、(OBJX4,OBJY4)である。
FIG. 16 is a diagram showing an example of base coordinates of a virtual object according to an embodiment of the present invention. The base coordinates are coordinates that specify the coordinates of the four corners of the area for displaying the virtual object, and are calculated by the calculation method shown in step S1415 of FIG. 14 based on the coordinates of the four corners of the AR marker detected in the real image. It is calculated.
For example, the base coordinates of the virtual object shown in FIG. 16 are (OBJX1, OBJY1), (OBJX2, OBJY2), (OBJX3, OBJY3), and (OBJX4, OBJY4).

本発明の実施形態に係る仮想オブジェクトの形式及び位置を示す表示パターンは、同時に検知した複数の異なるARマーカの種類、数、位置等に基づいて決定される。また、上述したように、仮想オブジェクトを表示する領域の4隅の座標は、検知した全てのARマーカの4隅の座標に基づいて計算される。以下では、図17〜図18を参照して、本発明の実施形態に係る仮想オブジェクトの表示パターンの例について説明する。 The display pattern indicating the format and position of the virtual object according to the embodiment of the present invention is determined based on the types, numbers, positions, and the like of a plurality of different AR markers detected at the same time. Further, as described above, the coordinates of the four corners of the area for displaying the virtual object are calculated based on the coordinates of the four corners of all the detected AR markers. Hereinafter, an example of a virtual object display pattern according to an embodiment of the present invention will be described with reference to FIGS. 17 to 18.

図17は、ARマーカが横に並んでいる場合の、仮想オブジェクトの表示パターンの一例を示す図である。図17に示すように、ARマーカ1710、ARマーカ1720、及びARマーカ1730が横に並んでいる場合には、オブジェクト作成部がそれぞれのARマーカ1710、1720、1730の4隅の座標を特定し、これらの座標から仮想オブジェクト1750のベース座標を計算すると、作成される仮想オブジェクト1750のベース座標がARマーカ1710の左下の隅、ARマーカ1710の左上の隅、ARマーカ1730の右下の隅、及びARマーカ1730の右上の隅に該当する座標となる。その結果、ARマーカ1710、1720、1730に応じて作成される仮想オブジェクト1750は、ARマーカ1710、1720、1730が占領していた領域に表示されることとなる。 FIG. 17 is a diagram showing an example of a display pattern of a virtual object when AR markers are arranged side by side. As shown in FIG. 17, when the AR marker 1710, the AR marker 1720, and the AR marker 1730 are arranged side by side, the object creation unit specifies the coordinates of the four corners of the AR markers 1710, 1720, and 1730, respectively. When the base coordinates of the virtual object 1750 are calculated from these coordinates, the base coordinates of the created virtual object 1750 are the lower left corner of the AR marker 1710, the upper left corner of the AR marker 1710, and the lower right corner of the AR marker 1730. And the coordinates correspond to the upper right corner of the AR marker 1730. As a result, the virtual object 1750 created according to the AR markers 1710, 1720, and 1730 will be displayed in the area occupied by the AR markers 1710, 1720, and 1730.

図18は、ARマーカが無秩序に並んでいる場合の、仮想オブジェクトの表示パターンの一例を示す図である。図17に示すように、ARマーカ1810、ARマーカ1820、及びARマーカ1830が無秩序に並んでいる場合には、オブジェクト作成部がそれぞれのARマーカ1810、1820、1830の4隅の座標を特定し、これらの座標から仮想オブジェクト1850のベース座標を計算すると、作成される仮想オブジェクト1850のベース座標がARマーカ1810の左の隅、ARマーカ1820の下の隅、ARマーカ1830の上の隅、及びARマーカ1830の右に住みに該当する座標となる。その結果、ARマーカ1810、1820、1830に応じて作成される仮想オブジェクト1850は、ARマーカ1810、1820、及び1830を囲む四角い領域に表示されることとなる。 FIG. 18 is a diagram showing an example of a display pattern of virtual objects when AR markers are arranged in a disorderly manner. As shown in FIG. 17, when the AR markers 1810, the AR markers 1820, and the AR markers 1830 are arranged in a disorderly manner, the object creation unit specifies the coordinates of the four corners of the AR markers 1810, 1820, and 1830, respectively. When the base coordinates of the virtual object 1850 are calculated from these coordinates, the base coordinates of the created virtual object 1850 are the left corner of the AR marker 1810, the lower corner of the AR marker 1820, the upper corner of the AR marker 1830, and The coordinates corresponding to the residence are on the right side of the AR marker 1830. As a result, the virtual object 1850 created according to the AR markers 1810, 1820, 1830 will be displayed in the square area surrounding the AR markers 1810, 1820, and 1830.

次に、図19〜図21を参照して、本発明の実施形態に係る情報表示手段をサーバの保守作業に適用した具体例について説明する。 Next, a specific example in which the information display means according to the embodiment of the present invention is applied to the maintenance work of the server will be described with reference to FIGS. 19 to 21.

図19は、サーバラックに配置されているサーバに付いている1つのARマーカ1925を含む現実映像1920と、このARマーカ1925に応じて作成される仮想オブジェクト1945を含む拡張現実映像1940とを示す図である。図19に示す現実映像1920が撮影され、ARマーカ1925が上述したデータ分析部によって認識されると、仮想オブジェクト1945を含む拡張現実映像1940がオブジェクト作成部及び拡張現実管理部によって作成され、端末装置の映像表示部に表示される。 FIG. 19 shows a reality image 1920 including one AR marker 1925 attached to a server arranged in a server rack, and an augmented reality image 1940 including a virtual object 1945 created in response to the AR marker 1925. It is a figure. When the reality image 1920 shown in FIG. 19 is captured and the AR marker 1925 is recognized by the data analysis unit described above, the augmented reality image 1940 including the virtual object 1945 is created by the object creation unit and the augmented reality management unit, and the terminal device. It is displayed on the video display section of.

上述したように、データ分析部は、ARマーカ1925を認識すると、ARマーカの数、種類、及び位置に基づいて、仮想オブジェクトの表示パターンを決定する。次、オブジェクト作成部は、ARマーカ1925に該当する情報をストレージ部から取得して、この情報を示す仮想オブジェクト1945を作成する。その後、拡張現実管理部は、仮想オブジェクト1945を、データ分析部が決定した表示パターンに従って、現実映像1920に重畳した拡張現実映像1940を端末装置の映像表示部に表示する。 As described above, when the data analysis unit recognizes the AR marker 1925, the data analysis unit determines the display pattern of the virtual object based on the number, type, and position of the AR marker. Next, the object creation unit acquires the information corresponding to the AR marker 1925 from the storage unit and creates a virtual object 1945 indicating this information. After that, the augmented reality management unit displays the augmented reality image 1940 superimposed on the reality image 1920 on the image display unit of the terminal device according to the display pattern determined by the data analysis unit.

例えば、図19に示すように、ARマーカに応じて作成される仮想オブジェクト1945は、CPU温度、気温、及び湿度に関する情報を示してもよい。このように、サーバの保守作業を行う作業者は、サーバの診断を手動で行うことなく、サーバの状態を示す情報を簡単に確認することができる。 For example, as shown in FIG. 19, the virtual object 1945 created according to the AR marker may show information about CPU temperature, air temperature, and humidity. In this way, the operator who performs the maintenance work of the server can easily confirm the information indicating the state of the server without manually diagnosing the server.

図20は、サーバラックに配置されている6台のサーバに付いている6つのARマーカを含む現実映像2020と、この6つのARマーカに応じて作成される拡張現実映像2040とを示す図である。図20に示す現実映像2020が撮影され、この6つのARマーカが上述したデータ分析部によって認識されると、仮想オブジェクト2045を含む拡張現実映像2040がオブジェクト作成部及び拡張現実管理部によって作成され、端末装置の映像表示部に表示される。 FIG. 20 is a diagram showing a reality image 2020 including six AR markers attached to six servers arranged in a server rack and an augmented reality image 2040 created according to the six AR markers. is there. When the reality image 2020 shown in FIG. 20 is photographed and the six AR markers are recognized by the above-mentioned data analysis unit, the augmented reality image 2040 including the virtual object 2045 is created by the object creation unit and the augmented reality management unit. It is displayed on the video display of the terminal device.

上述したように、認識されるARマーカの数が所定の数(例えば4つ以上)を超える場合には、それぞれのARマーカに紐づいた情報を1つのまとめた仮想オブジェクトとして表示することが好ましいことがある。従って、図20に示すように、認識されるARマーカの数が所定の数を超える場合には、オブジェクト作成部は、認識したARマーカに該当し、ストレージ部に格納されている情報に基づいて、サーバラック全体の状態(正常か異常か)を示す仮想オブジェクト2045を作成してもよい。
このように、サーバの保守作業を行う作業者は、サーバ一つ一つを診断することなく、サーバラック全体の状態を簡単に確認することができる。
As described above, when the number of recognized AR markers exceeds a predetermined number (for example, four or more), it is preferable to display the information associated with each AR marker as one collective virtual object. Sometimes. Therefore, as shown in FIG. 20, when the number of recognized AR markers exceeds a predetermined number, the object creation unit corresponds to the recognized AR markers and is based on the information stored in the storage unit. , You may create a virtual object 2045 that shows the state (normal or abnormal) of the entire server rack.
In this way, the worker who performs the maintenance work of the server can easily check the state of the entire server rack without diagnosing each server.

図21は、本発明の実施形態に係る注目点分析をサーバラックの保守作業に適用した具体例を示す図である。 FIG. 21 is a diagram showing a specific example in which the point of interest analysis according to the embodiment of the present invention is applied to the maintenance work of the server rack.

この具体例では、ARマーカに対応する仮想オブジェクトを含む拡張現実映像が既に作成され、表示されていることを前提とする。例えば、図21に示すように、サーバラックに配置されている複数のサーバ毎に、そのサーバの状態(正常又は異常)を示す仮想オブジェクト2120A,2120B,2120Cが表示されているとする。視線分析部(例えば図2に示す視線分析部232)は、ユーザの注目点が1台のサーバに対応する仮想オブジェクト2120Aに向けられていると判定すると、このサーバ(すなわち、仮想オブジェクト2120A)のCPUに関する付加情報であるCPU温度、気温、湿度等を示す仮想オブジェクト2140を拡張現実映像2110に追加してもよい。 In this specific example, it is assumed that the augmented reality image including the virtual object corresponding to the AR marker has already been created and displayed. For example, as shown in FIG. 21, it is assumed that virtual objects 2120A, 2120B, and 2120C indicating the status (normal or abnormal) of the server are displayed for each of a plurality of servers arranged in the server rack. When the line-of-sight analysis unit (for example, the line-of-sight analysis unit 232 shown in FIG. 2) determines that the user's point of interest is directed to the virtual object 2120A corresponding to one server, the line-of-sight analysis unit (that is, the virtual object 2120A) Virtual objects 2140 indicating CPU temperature, temperature, humidity, etc., which are additional information about the CPU, may be added to the augmented reality image 2110.

次に、視線分析部は、ユーザの注目点がサーバのCPUを示す仮想オブジェクト2140に移ったと判定すると、このCPUのそれぞれのコアの使用率を示す情報を仮想オブジェクト2142として表示してもよい。また、次に、視線分析部は、ユーザの注目点がコアの使用率を示す仮想オブジェクト2142に移ったと判定すると、このコアの使用率の推移を示すグラフを仮想オブジェクト2144として表示してもよい。更に、視線分析部は、ユーザの注目点がコアの使用率の推移を示すを仮想オブジェクト2144に移ったと判定すると、この推移に対応する作業日誌を示す仮想オブジェクト2146を表示してもよい。 Next, when the line-of-sight analysis unit determines that the user's attention has shifted to the virtual object 2140 indicating the CPU of the server, the information indicating the usage rate of each core of the CPU may be displayed as the virtual object 2142. Next, when the line-of-sight analysis unit determines that the point of interest of the user has shifted to the virtual object 2142 indicating the usage rate of the core, the graph showing the transition of the usage rate of the core may be displayed as the virtual object 2144. .. Further, when the line-of-sight analysis unit determines that the point of interest of the user has shifted to the virtual object 2144, which indicates the transition of the core usage rate, the virtual object 2146 indicating the work diary corresponding to this transition may be displayed.

このように、ユーザの視線によって計算される注目点を用いることで、ユーザは拡張現実映像に表示される仮想オブジェクトを目線だけで操作できるため、両手が自由に使え、サーバラック保守等の作業をより容易に行うことができる。 In this way, by using the points of interest calculated by the user's line of sight, the user can operate the virtual object displayed in the augmented reality image only with the line of sight, so both hands can be used freely, and work such as server rack maintenance can be performed. It can be done more easily.

次に、図22〜図24を参照して、本発明の実施形態に係る情報表示手段をサーバの保守作業に適用した場合に、必要なデータをデータベースから取得する例について説明する。 Next, an example of acquiring necessary data from the database when the information display means according to the embodiment of the present invention is applied to the maintenance work of the server will be described with reference to FIGS. 22 to 24.

図22は、サーバラックに配置されているサーバに付いているARマーカ2225を含む現実映像2220と、このARマーカ2225にユーザの注目点2235が向けられた場合に作成される仮想オブジェクト2255を含む拡張現実映像2250とを示す図である。 FIG. 22 includes a real image 2220 including an AR marker 2225 attached to a server arranged in a server rack, and a virtual object 2255 created when the user's attention point 2235 is directed to the AR marker 2225. It is a figure which shows the augmented reality image 2250.

上述したように、ARマーカ及び拡張現実映像に重畳される仮想オブジェクトは、複数のエリアに分割されており、それぞれのエリアにおいて、異なる非表示情報が埋め込まれている。この非表示情報は、仮想オブジェクトとなる付加情報、当該付加情報の保存先、及び仮想オブジェクトの表示パターンを指定する。
視線分析部は、ユーザの注目点2235がARマーカ2225の特定のエリアに向けられていると判定した場合、そのエリアに埋め込まれている非表示情報に指定されている情報を指定されているテーブル(例えば、後述する付加情報管理テーブル1100)から取得し、当該情報(CPU温度,気温,湿度等)に応じた仮想オブジェクト2255を、非表示情報によって指定されている表示パターン(例えば、表形式)に従って作成し、拡張現実映像2250に追加する。
As described above, the AR marker and the virtual object superimposed on the augmented reality image are divided into a plurality of areas, and different hidden information is embedded in each area. This non-display information specifies additional information to be a virtual object, a storage destination of the additional information, and a display pattern of the virtual object.
When the line-of-sight analysis unit determines that the user's attention point 2235 is directed to a specific area of the AR marker 2225, the table in which the information specified in the hidden information embedded in the area is specified is specified. (For example, the virtual object 2255 obtained from the additional information management table 1100 described later) and corresponding to the information (CPU temperature, temperature, humidity, etc.) is displayed in a display pattern (for example, tabular format) specified by the non-display information. Create according to and add to the augmented reality video 2250.

図23は、仮想オブジェクト2320に含まれるエリアの一例を示す図である。図23に示すように、仮想オブジェクト2320は、三つのエリア2322、2324、2326に分割されている。それぞれのエリアには、異なる仮想オブジェクトを作成するために用いる付加情報と、その付加情報の形式とを指定する非表示情報が埋め込まれている。
例えば、視線分析部は、ユーザの注目点がCPU温度の情報が表示されているエリア2322に向けられていると判定した場合、エリア2322に埋め込まれている非表示情報に従って、上述した付加情報管理テーブル1100から、過去1時間までの、CPUプロセス名毎のCPU使用率を取得し、その平均値を表の形式で表示する仮想オブジェクト2330を作成してもよい。
FIG. 23 is a diagram showing an example of an area included in the virtual object 2320. As shown in FIG. 23, the virtual object 2320 is divided into three areas 2322, 2324, and 2326. In each area, additional information used to create different virtual objects and hidden information that specifies the format of the additional information are embedded.
For example, when the line-of-sight analysis unit determines that the user's attention point is directed to the area 2322 where the CPU temperature information is displayed, the above-mentioned additional information management is performed according to the non-display information embedded in the area 2322. You may create a virtual object 2330 that acquires the CPU usage rate for each CPU process name from the table 1100 up to the past 1 hour and displays the average value in the form of a table.

また、仮想オブジェクト2320と同様に、新たに作成される仮想オブジェクト2330は、複数のエリア2332、2334、2336に分割されており、それぞれのエリアに非表示情報が埋め込まれている。そのため、図24に示すように、視線分析部は、ユーザの注目点が仮想オブジェクト2330の特定のエリアに向けられていると判定した場合には、そのエリアの非表示情報に従って、新たな仮想オブジェクト2340を作成してもよい。
例えば、図24に示すように、視線分析部は、ユーザの注目点が特定のプロセスxx1の情報が表示されているエリア2332に向けられていると判定した場合、エリア2332に埋め込まれている非表示情報に従って、上述した付加情報管理テーブル1100から、プロセスxx1のCPU使用率の時間変化の様子をグラフ形式で表示する仮想オブジェクト2340を追加で作成してもよい。
Further, similarly to the virtual object 2320, the newly created virtual object 2330 is divided into a plurality of areas 2332, 2334, and 2336, and hidden information is embedded in each area. Therefore, as shown in FIG. 24, when the line-of-sight analysis unit determines that the user's point of interest is directed to a specific area of the virtual object 2330, the new virtual object is based on the non-display information of that area. 2340 may be created.
For example, as shown in FIG. 24, when the line-of-sight analysis unit determines that the user's point of interest is directed to the area 2332 where the information of the specific process xx1 is displayed, the non-embedded area 2332. According to the display information, a virtual object 2340 that displays the state of the time change of the CPU usage rate of the process xx1 in a graph format may be additionally created from the additional information management table 1100 described above.

次に、図25を参照して、仮想オブジェクトを固定する動作の一例について説明する。 Next, an example of the operation of fixing the virtual object will be described with reference to FIG. 25.

図25は、本発明の実施形態に係る仮想オブジェクトを固定する動作の一例を示す図である。本発明の実施形態に係る情報表示手段を利用する際には、複数の異なるARマーカの仮想オブジェクトを同時に表示することが望ましい場合がある。例えば、本発明に係る情報表示手段をサーバの保守作業に適用した場合には、ユーザは複数のサーバの情報(CPU温度、近、温度等)を比較したいケースが考えられる。そのため、本発明に係る態様の1つでは、ユーザは、表示中の仮想オブジェクトを特定の動作で固定した状態で、別のARマーカに関する仮想オブジェクトを表示させることができる。
ここで、仮想オブジェクトを固定するための動作は、例えばウインク(片目の瞬き)であってもよい。
FIG. 25 is a diagram showing an example of an operation of fixing a virtual object according to an embodiment of the present invention. When using the information display means according to the embodiment of the present invention, it may be desirable to display a plurality of virtual objects of different AR markers at the same time. For example, when the information display means according to the present invention is applied to server maintenance work, a user may want to compare information (CPU temperature, near temperature, temperature, etc.) of a plurality of servers. Therefore, in one of the aspects according to the present invention, the user can display a virtual object related to another AR marker in a state where the virtual object being displayed is fixed by a specific operation.
Here, the operation for fixing the virtual object may be, for example, a wink (blink of one eye).

一例として、例えば図25に示すように、1つのサーバの情報を示す仮想オブジェクト2520が表示されている状態で、ユーザがウインク等の特定の動作を行うことにより、仮想オブジェクトが固定される。その後、ユーザは、注目点を別のARマーカに移すことで、注目の対象となっているサーバに関する新たな仮想オブジェクト2530が表示される。このように、ユーザは複数のサーバの状態に関する状態を同時に見ることができるため、サーバ保守の作業効率を向上させることができる。 As an example, as shown in FIG. 25, the virtual object is fixed by the user performing a specific operation such as winking while the virtual object 2520 showing the information of one server is displayed. The user then shifts the focus to another AR marker to display a new virtual object 2530 for the server of interest. In this way, since the user can simultaneously view the status of a plurality of servers, the work efficiency of server maintenance can be improved.

以上、本発明の実施の形態について説明したが、本発明は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。 Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present invention.

210A、210B データ取得装置
212A、212B センサー部
214A、214B データ送受信部
220 制御装置
222 データ送受信部
224 データ分析部
226 ストレージ部
228 オブジェクト作成部
230 拡張現実管理部
232 視線分析部
240 端末装置
241 データ送受信部
242 カメラ部
244 映像表示部
210A, 210B Data acquisition device 212A, 212B Sensor unit 214A, 214B Data transmission / reception unit 220 Control device 222 Data transmission / reception unit 224 Data analysis unit 226 Storage unit 228 Object creation unit 230 Augmented reality management unit 232 Line-of-sight analysis unit 240 Terminal device 241 Data transmission / reception Unit 242 Camera unit 244 Video display unit

Claims (7)

情報表示装置であって、
複数のARマーカーを含む現実映像をカメラから取得するデータ送受信部と、
前記現実映像におけるARマーカーのタグ情報、種類及び数を判定し、前記ARマーカーの種類及び数に基づいて第1の仮想オブジェクトのための第1の表示パターンを決定するデータ分析部と、
前記ARマーカーのタグ情報に基づいて、前記第1の仮想オブジェクトとなる第1の付加情報を仮想オブジェクト情報管理データベースから取得し、前記第1の付加情報に基づいて前記第1の仮想オブジェクトを作成するオブジェクト作成部と、
決定した前記第1の表示パターンに従って、作成した前記第1の仮想オブジェクトを前記現実映像に重ね合わせた第1の拡張現実映像を作成し、出力する拡張現実管理部と、
を特徴とする情報表示装置。
It is an information display device
A data transmitter / receiver that acquires a real image including multiple AR markers from the camera,
A data analysis unit that determines the tag information, type and number of AR markers in the real image, and determines the first display pattern for the first virtual object based on the type and number of AR markers.
Based on the tag information of the AR marker, the first additional information to be the first virtual object is acquired from the virtual object information management database, and the first virtual object is created based on the first additional information. Object creation part and
An augmented reality management unit that creates and outputs a first augmented reality image in which the created first virtual object is superimposed on the reality image according to the determined first display pattern.
An information display device characterized by.
前記情報表示装置は、
前記第1の拡張現実映像における利用者の視線位置を判定する視線分析部を更に含み、
前記視線位置が前記第1の仮想オブジェクトに向けられていると判定する場合には、
前記データ分析部は、
前記第1の仮想オブジェクトに基づいて、第2の仮想オブジェクトのための第2の表示パターンを決定し、
前記オブジェクト作成部は、
前記第1の仮想オブジェクトに基づいて、前記第2の仮想オブジェクトとなる第2の付加情報を前記仮想オブジェクト情報管理データベースから取得し、前記第2の付加情報に基づいて前記第2の仮想オブジェクトを作成し、
前記拡張現実管理部は、
前記第2の表示パターンに従って、作成した前記第2の仮想オブジェクトを前記第1の拡張現実映像に重ね合わせた第2の拡張現実映像を作成し、出力する、
ことを特徴とする請求項1に記載の情報表示装置。
The information display device is
It further includes a line-of-sight analysis unit that determines the line-of-sight position of the user in the first augmented reality image.
When it is determined that the line-of-sight position is directed to the first virtual object,
The data analysis unit
Based on the first virtual object, a second display pattern for the second virtual object is determined.
The object creation unit
Based on the first virtual object, the second additional information to be the second virtual object is acquired from the virtual object information management database, and the second virtual object is obtained based on the second additional information. make,
The augmented reality management department
According to the second display pattern, a second augmented reality image is created and output by superimposing the created second virtual object on the first augmented reality image.
The information display device according to claim 1.
前記第1の仮想オブジェクトは、
複数のエリアに分割されており、
それぞれのエリアにおいて、前記第2の仮想オブジェクトとなる第2の付加情報と、前記第2の仮想オブジェクトの表示パターンとを指定する非表示情報が埋め込まれており、
前記データ分析部は、
前記利用者の視線位置が向けられているエリアに埋め込まれている非表示情報を用いて、前記第2の仮想オブジェクトのための前記第2の表示パターンを決定する、
ことを特徴とする請求項2に記載の情報表示装置。
The first virtual object is
It is divided into multiple areas
In each area, the second additional information that becomes the second virtual object and the non-display information that specifies the display pattern of the second virtual object are embedded.
The data analysis unit
Using the hidden information embedded in the area to which the user's line of sight is directed, the second display pattern for the second virtual object is determined.
The information display device according to claim 2, wherein the information display device is characterized by the above.
前記視線分析部は、
前記第1の仮想オブジェクトに対する所定のユーザ動作を検知すると、
前記第1の仮想オブジェクトの表示位置及び表示形式を固定する、
ことを特徴とする請求項2に記載の情報表示装置。
The line-of-sight analysis unit
When a predetermined user action for the first virtual object is detected,
The display position and display format of the first virtual object are fixed.
The information display device according to claim 2, wherein the information display device is characterized by the above.
前記第1の表示パターンは、前記第1の仮想オブジェクトの表示座標及び表示形式を指定するものである、
ことを特徴とする請求項1に記載の情報表示装置。
The first display pattern specifies the display coordinates and the display format of the first virtual object.
The information display device according to claim 1.
情報表示装置によって実行される情報表示方法であって、
前記情報表示方法は、
複数のARマーカーを含む現実映像をカメラから取得する工程と、
前記現実映像におけるARマーカーのタグ情報、種類及び数を判定し、前記ARマーカーの
種類及び数に基づいて第1の仮想オブジェクトのための第1の表示パターンを決定する工程と、
前記ARマーカーのタグ情報に基づいて、前記第1の仮想オブジェクトとなる第1の付加情報を仮想オブジェクト情報管理データベースから取得し、前記第1の付加情報に基づいて前記第1の仮想オブジェクトを作成する工程と、
決定した前記第1の表示パターンに従って、作成した前記第1の仮想オブジェクトを前記現実映像に重ね合わせた第1の拡張現実映像を作成し、出力する工程と、
を含む情報表示方法。
An information display method executed by an information display device.
The information display method is
The process of acquiring a real image including multiple AR markers from the camera,
A step of determining the tag information, type and number of AR markers in the real image, and determining a first display pattern for the first virtual object based on the type and number of AR markers.
Based on the tag information of the AR marker, the first additional information to be the first virtual object is acquired from the virtual object information management database, and the first virtual object is created based on the first additional information. And the process to do
A process of creating and outputting a first augmented reality image in which the created first virtual object is superimposed on the reality image according to the determined first display pattern.
Information display method including.
データ取得端末と、制御装置と、端末装置とが通信ネットワークを介して接続されている情報表示システムであって、
前記データ取得端末は、
周囲に環境に関するセンサーデータを取得するセンサー部と、
前記センサーデータを前記制御装置に送信する第1のデータ送受信部とを含み、
前記端末装置は、
複数のARマーカーを含む現実映像を取得するカメラ部と、
前記複数のARマーカーを含む前記現実映像を前記制御装置に送信する第2のデータ送受信部と、
前記制御装置から受信する拡張現実映像を表示する映像表示部とを含み、
前記制御装置は、
前記複数のARマーカーを含む前記現実映像を前記端末装置から受信し、前記センサーデータを前記データ取得端末から受信する第3のデータ送受信部と、
前記データ取得端末から受信する前記センサーデータを、仮想オブジェクトを生成するための付加情報として格納する仮想オブジェクト情報管理データベースと、
前記複数のARマーカーを含む前記現実映像におけるARマーカーのタグ情報、種類及び数を判定し、前記ARマーカーの種類及び数に基づいて第1の仮想オブジェクトのための第1の表示パターンを決定するデータ分析部と、
前記ARマーカーのタグ情報に基づいて、前記第1の仮想オブジェクトとなる第1の付加情報を前記仮想オブジェクト情報管理データベースから取得し、前記第1の付加情報に基づいて前記第1の仮想オブジェクトを作成するオブジェクト作成部と、
決定した前記第1の表示パターンに従って、作成した前記第1の仮想オブジェクトを前記現実映像に重ね合わせた第1の拡張現実映像を作成し、前記端末装置に出力する拡張現実管理部と、
を特徴とする情報表示システム。
An information display system in which a data acquisition terminal, a control device, and a terminal device are connected via a communication network.
The data acquisition terminal is
A sensor unit that acquires sensor data related to the surrounding environment,
Including a first data transmission / reception unit that transmits the sensor data to the control device.
The terminal device is
A camera unit that acquires real-life images including multiple AR markers,
A second data transmission / reception unit that transmits the real image including the plurality of AR markers to the control device, and
Including an image display unit that displays an augmented reality image received from the control device.
The control device is
A third data transmission / reception unit that receives the real image including the plurality of AR markers from the terminal device and receives the sensor data from the data acquisition terminal.
A virtual object information management database that stores the sensor data received from the data acquisition terminal as additional information for generating a virtual object, and a virtual object information management database.
The tag information, type and number of AR markers in the real image including the plurality of AR markers are determined, and the first display pattern for the first virtual object is determined based on the types and numbers of the AR markers. Data analysis department and
Based on the tag information of the AR marker, the first additional information to be the first virtual object is acquired from the virtual object information management database, and the first virtual object is obtained based on the first additional information. The object creation part to be created and
An augmented reality management unit that creates a first augmented reality image by superimposing the created first virtual object on the reality image according to the determined first display pattern and outputs the first augmented reality image to the terminal device.
An information display system featuring.
JP2019165916A 2019-09-12 2019-09-12 Information display device, information display method, and information display system Active JP7419003B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019165916A JP7419003B2 (en) 2019-09-12 2019-09-12 Information display device, information display method, and information display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019165916A JP7419003B2 (en) 2019-09-12 2019-09-12 Information display device, information display method, and information display system

Publications (2)

Publication Number Publication Date
JP2021043752A true JP2021043752A (en) 2021-03-18
JP7419003B2 JP7419003B2 (en) 2024-01-22

Family

ID=74863075

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019165916A Active JP7419003B2 (en) 2019-09-12 2019-09-12 Information display device, information display method, and information display system

Country Status (1)

Country Link
JP (1) JP7419003B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113791495A (en) * 2021-08-27 2021-12-14 优奈柯恩(北京)科技有限公司 Method, device, equipment and computer readable medium for displaying information
CN114900530A (en) * 2022-04-22 2022-08-12 冠捷显示科技(厦门)有限公司 Display device and metastic physical and virtual switching and integrating system and method thereof
CN116212361A (en) * 2021-12-06 2023-06-06 广州视享科技有限公司 Virtual object display method and device and head-mounted display device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016018367A (en) * 2014-07-08 2016-02-01 沖電気工業株式会社 Information processing apparatus, information processing method, and program
JP2018005477A (en) * 2016-06-30 2018-01-11 富士通株式会社 Display control program, display control method and display control device
JP2019032713A (en) * 2017-08-08 2019-02-28 キヤノン株式会社 Information processing device, information processing method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016018367A (en) * 2014-07-08 2016-02-01 沖電気工業株式会社 Information processing apparatus, information processing method, and program
JP2018005477A (en) * 2016-06-30 2018-01-11 富士通株式会社 Display control program, display control method and display control device
JP2019032713A (en) * 2017-08-08 2019-02-28 キヤノン株式会社 Information processing device, information processing method, and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113791495A (en) * 2021-08-27 2021-12-14 优奈柯恩(北京)科技有限公司 Method, device, equipment and computer readable medium for displaying information
CN116212361A (en) * 2021-12-06 2023-06-06 广州视享科技有限公司 Virtual object display method and device and head-mounted display device
CN116212361B (en) * 2021-12-06 2024-04-16 广州视享科技有限公司 Virtual object display method and device and head-mounted display device
CN114900530A (en) * 2022-04-22 2022-08-12 冠捷显示科技(厦门)有限公司 Display device and metastic physical and virtual switching and integrating system and method thereof

Also Published As

Publication number Publication date
JP7419003B2 (en) 2024-01-22

Similar Documents

Publication Publication Date Title
WO2021073268A1 (en) Augmented reality data presentation method and apparatus, electronic device, and storage medium
US10089794B2 (en) System and method for defining an augmented reality view in a specific location
Zhou et al. Trends in augmented reality tracking, interaction and display: A review of ten years of ISMAR
Grasset et al. Image-driven view management for augmented reality browsers
CN105264548B (en) For generating the label inconspicuous of augmented reality experience
WO2022022036A1 (en) Display method, apparatus and device, storage medium, and computer program
CN104871214B (en) For having the user interface of the device of augmented reality ability
EP2508975B1 (en) Display control device, display control method, and program
US20150138065A1 (en) Head-mounted integrated interface
US20140152869A1 (en) Methods and Systems for Social Overlay Visualization
US11232636B2 (en) Methods, devices, and systems for producing augmented reality
US20130135295A1 (en) Method and system for a augmented reality
CN109117684A (en) System and method for the selective scanning in binocular augmented reality equipment
JP7419003B2 (en) Information display device, information display method, and information display system
CN107004279A (en) Natural user interface camera calibrated
JP2017068851A (en) Information processing device, information processing system, control method thereof, and program
CN117197403A (en) Mixed reality system and method for generating virtual content using the same
JP2022505998A (en) Augmented reality data presentation methods, devices, electronic devices and storage media
JP2011227649A (en) Image processing system, image processing device, image processing method and program
CN108594999A (en) Control method and device for panoramic picture display systems
JP7043601B2 (en) Methods and devices for generating environmental models and storage media
JP2016122392A (en) Information processing apparatus, information processing system, control method and program of the same
CN110622110A (en) Method and apparatus for providing immersive reality content
KR20180120456A (en) Apparatus for providing virtual reality contents based on panoramic image and method for the same
KR20190128992A (en) Information processing apparatus, information processing method, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220822

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231016

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240110

R150 Certificate of patent or registration of utility model

Ref document number: 7419003

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150