JP2021043752A - Information display device, information display method, and information display system - Google Patents
Information display device, information display method, and information display system Download PDFInfo
- Publication number
- JP2021043752A JP2021043752A JP2019165916A JP2019165916A JP2021043752A JP 2021043752 A JP2021043752 A JP 2021043752A JP 2019165916 A JP2019165916 A JP 2019165916A JP 2019165916 A JP2019165916 A JP 2019165916A JP 2021043752 A JP2021043752 A JP 2021043752A
- Authority
- JP
- Japan
- Prior art keywords
- virtual object
- information
- markers
- marker
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 46
- 238000007405 data analysis Methods 0.000 claims abstract description 25
- 230000005540 biological transmission Effects 0.000 claims abstract description 21
- 239000003550 marker Substances 0.000 claims description 147
- 230000003190 augmentative effect Effects 0.000 claims description 66
- 238000004458 analytical method Methods 0.000 claims description 34
- 230000008569 process Effects 0.000 claims description 34
- 238000004891 communication Methods 0.000 claims description 8
- 238000009792 diffusion process Methods 0.000 abstract 3
- 238000003860 storage Methods 0.000 description 30
- 238000010586 diagram Methods 0.000 description 20
- 238000012545 processing Methods 0.000 description 17
- 238000012423 maintenance Methods 0.000 description 15
- 210000001508 eye Anatomy 0.000 description 6
- 230000033001 locomotion Effects 0.000 description 6
- 210000005252 bulbus oculi Anatomy 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 235000012054 meals Nutrition 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Position Input By Displaying (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、情報表示装置、情報表示方法、及び情報表示システムに関する。 The present invention relates to an information display device, an information display method, and an information display system.
近年、現実空間に、付加的な情報を重畳してユーザに呈示する拡張現実(AR:AugmentedReality)と呼ばれる画像重畳技術が開発されている。重畳される付加的な情報は、テキスト、アイコン、又はアニメーション等の様々な種類の表示オブジェクトがユーザの眼前に表示されることで可視化され得る。 In recent years, an image superimposition technique called augmented reality (AR) has been developed in which additional information is superposed on a real space and presented to a user. The superimposed additional information can be visualized by displaying various types of display objects such as text, icons, or animations in front of the user.
AR技術はエンターテインメント、マーケティング、観光、工業等の分野において幅広く使用されており、AR技術を用いた様々な商品やサービスが提案されている。例えば、AR技術を用いたものの一例として、特開2014−127148号公報(特許文献1)には「撮像画像を取得し、該撮像画像に含まれている所定のトリガ情報を認識するトリガ認識部と、前記撮像画像が撮像された時点の状況又は過去のコンテンツの取得状況、及び前記トリガ認識部が認識した前記所定のトリガ情報に対応した、拡張現実情報が含まれるコンテンツを取得するコンテンツ取得部と、を備える、情報処理装置」が記載されている。 AR technology is widely used in fields such as entertainment, marketing, tourism, and industry, and various products and services using AR technology have been proposed. For example, as an example of using AR technology, Japanese Patent Application Laid-Open No. 2014-127148 (Patent Document 1) states that "a trigger recognition unit that acquires an image and recognizes predetermined trigger information contained in the image". And, the content acquisition unit that acquires the content including the augmented reality information corresponding to the situation at the time when the captured image is captured or the acquisition status of the past content, and the predetermined trigger information recognized by the trigger recognition unit. And, an information processing device provided with.
上記の特許文献1においては、複数の異なるARマーカを順番に検知して、当該ARマーカが検知された順番によって異なるARコンテンツを表示する技術が記載されている。特許文献1に係る発明によれば、複数のARマーカで位置的又は時間的連動性を持たせ、過去に検知されたARコンテンツと異なる、新しいARコンテンツを提供することができる。
The above-mentioned
しかしながら、特許文献1の発明では、同時に検知された複数の異なるARマーカの組み合わせによって仮想オブジェクトの表示位置や表示形式を決定することが検討されておらず、特定の仮想オブジェクトに対するユーザの注目点に基づいてARコンテンツを更に追加することも検討されていない。
However, in the invention of
そこで、本発明は、同時に検知された複数の異なるARマーカの種類、数、位置等に基づいて、現実空間に表示する仮想オブジェクトの表示位置及び表示形式を決定し、特定の仮想オブジェクトに対するユーザの注目点に基づいて他の仮想オブジェクトを追加する情報表示装置を提供することを目的とする。 Therefore, the present invention determines the display position and display format of the virtual object to be displayed in the real space based on the types, numbers, positions, etc. of a plurality of different AR markers detected at the same time, and determines the display position and display format of the virtual object to be displayed in the real space. An object of the present invention is to provide an information display device for adding other virtual objects based on a point of interest.
上記の課題を解決するために、代表的な本発明の1つは、情報表示装置であって、複数のARマーカーを含む現実映像をカメラから取得するデータ送受信部と、現実映像におけるARマーカーのタグ情報、種類及び数を判定し、ARマーカーの種類及び数に基づいて第1の仮想オブジェクトのための第1の表示パターンを決定するデータ分析部と、ARマーカーのタグ情報に基づいて、第1の仮想オブジェクトとなる第1の付加情報を仮想オブジェクト情報管理データベースから取得し、第1の付加情報に基づいて第1の仮想オブジェクトを作成するオブジェクト作成部と、決定した第1の表示パターンに従って、作成した第1の仮想オブジェクトを現実映像に重ね合わせた第1の拡張現実映像を作成し、出力する拡張現実管理部とを含む。 In order to solve the above problems, one of the typical inventions is an information display device, which is a data transmission / reception unit that acquires a real image including a plurality of AR markers from a camera, and an AR marker in the real image. A data analysis unit that determines the tag information, type and number, and determines the first display pattern for the first virtual object based on the type and number of AR markers, and the first based on the tag information of the AR marker. According to the object creation unit that acquires the first additional information that becomes one virtual object from the virtual object information management database and creates the first virtual object based on the first additional information, and the determined first display pattern. Includes an augmented reality management unit that creates and outputs a first augmented reality image in which the created first virtual object is superimposed on the actual image.
本発明によれば、同時に検知された複数の異なるARマーカの種類、数、位置等に基づいて、現実空間に表示する仮想オブジェクトの表示位置及び表示形式を決定し、特定の仮想オブジェクトに対するユーザの注目点に基づいて他の仮想オブジェクトを追加する情報表示装置を提供することができる。
上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
According to the present invention, the display position and display format of a virtual object to be displayed in the real space are determined based on the types, numbers, positions, etc. of a plurality of different AR markers detected at the same time, and the user with respect to a specific virtual object It is possible to provide an information display device that adds other virtual objects based on the point of interest.
Issues, configurations and effects other than those described above will be clarified by the description of the following embodiments.
以下、図面を参照して、本発明の実施形態について説明する。なお、この実施形態により本発明が限定されるものではない。また、図面の記載において、同一部分には同一の符号を付して示している。
(ハードウエア構成)
Hereinafter, embodiments of the present invention will be described with reference to the drawings. The present invention is not limited to this embodiment. Further, in the description of the drawings, the same parts are indicated by the same reference numerals.
(Hardware configuration)
まず、図1を参照して、本開示の実施形態を実施するためのコンピュータシステム300について説明する。本明細書で開示される様々な実施形態の機構及び装置は、任意の適切なコンピューティングシステムに適用されてもよい。コンピュータシステム300の主要コンポーネントは、1つ以上のプロセッサ302、メモリ304、端末インターフェース312、ストレージインタフェース314、I/O(入出力)デバイスインタフェース316、及びネットワークインターフェース318を含む。これらのコンポーネントは、メモリバス306、I/Oバス308、バスインターフェースユニット309、及びI/Oバスインターフェースユニット310を介して、相互的に接続されてもよい。
First, with reference to FIG. 1, a
コンピュータシステム300は、プロセッサ302と総称される1つ又は複数の汎用プログラマブル中央処理装置(CPU)302A及び302Bを含んでもよい。ある実施形態では、コンピュータシステム300は複数のプロセッサを備えてもよく、また別の実施形態では、コンピュータシステム300は単一のCPUシステムであってもよい。各プロセッサ302は、メモリ304に格納された命令を実行し、オンボードキャッシュを含んでもよい。
The
ある実施形態では、メモリ304は、データ及びプログラムを記憶するためのランダムアクセス半導体メモリ、記憶装置、又は記憶媒体(揮発性又は不揮発性のいずれか)を含んでもよい。メモリ304は、本明細書で説明する機能を実施するプログラム、モジュール、及びデータ構造のすべて又は一部を格納してもよい。例えば、メモリ304は、情報表示アプリケーション350を格納していてもよい。ある実施形態では、情報表示アプリケーション350は、後述する機能をプロセッサ302上で実行する命令又は記述を含んでもよい。
In certain embodiments, the
ある実施形態では、情報表示アプリケーション350は、プロセッサベースのシステムの代わりに、またはプロセッサベースのシステムに加えて、半導体デバイス、チップ、論理ゲート、回路、回路カード、および/または他の物理ハードウェアデバイスを介してハードウェアで実施されてもよい。ある実施形態では、情報表示アプリケーション350は、命令又は記述以外のデータを含んでもよい。ある実施形態では、カメラ、センサ、または他のデータ入力デバイス(図示せず)が、バスインターフェースユニット309、プロセッサ302、またはコンピュータシステム300の他のハードウェアと直接通信するように提供されてもよい。
In certain embodiments, the
コンピュータシステム300は、プロセッサ302、メモリ304、表示システム324、及びI/Oバスインターフェースユニット310間の通信を行うバスインターフェースユニット309を含んでもよい。I/Oバスインターフェースユニット310は、様々なI/Oユニットとの間でデータを転送するためのI/Oバス308と連結していてもよい。I/Oバスインターフェースユニット310は、I/Oバス308を介して、I/Oプロセッサ(IOP)又はI/Oアダプタ(IOA)としても知られる複数のI/Oインタフェースユニット312,314,316、及び318と通信してもよい。
The
表示システム324は、表示コントローラ、表示メモリ、又はその両方を含んでもよい。表示コントローラは、ビデオ、オーディオ、又はその両方のデータを表示装置326に提供することができる。また、コンピュータシステム300は、データを収集し、プロセッサ302に当該データを提供するように構成された1つまたは複数のセンサ等のデバイスを含んでもよい。
The
例えば、コンピュータシステム300は、心拍数データやストレスレベルデータ等を収集するバイオメトリックセンサ、湿度データ、温度データ、圧力データ等を収集する環境センサ、及び加速度データ、運動データ等を収集するモーションセンサ等を含んでもよい。これ以外のタイプのセンサも使用可能である。表示システム324は、単独のディスプレイ画面、テレビ、タブレット、又は携帯型デバイスなどの表示装置326に接続されてもよい。
For example, the
I/Oインタフェースユニットは、様々なストレージ又はI/Oデバイスと通信する機能を備える。例えば、端末インタフェースユニット312は、ビデオ表示装置、スピーカテレビ等のユーザ出力デバイスや、キーボード、マウス、キーパッド、タッチパッド、トラックボール、ボタン、ライトペン、又は他のポインティングデバイス等のユーザ入力デバイスのようなユーザI/Oデバイス320の取り付けが可能である。ユーザは、ユーザインターフェースを使用して、ユーザ入力デバイスを操作することで、ユーザI/Oデバイス320及びコンピュータシステム300に対して入力データや指示を入力し、コンピュータシステム300からの出力データを受け取ってもよい。ユーザインターフェースは例えば、ユーザI/Oデバイス320を介して、表示装置に表示されたり、スピーカによって再生されたり、プリンタを介して印刷されたりしてもよい。
The I / O interface unit has a function of communicating with various storages or I / O devices. For example, the
ストレージインタフェース314は、1つ又は複数のディスクドライブや直接アクセスストレージ装置322(通常は磁気ディスクドライブストレージ装置であるが、単一のディスクドライブとして見えるように構成されたディスクドライブのアレイ又は他のストレージ装置であってもよい)の取り付けが可能である。ある実施形態では、ストレージ装置322は、任意の二次記憶装置として実装されてもよい。メモリ304の内容は、ストレージ装置322に記憶され、必要に応じてストレージ装置322から読み出されてもよい。I/Oデバイスインタフェース316は、プリンタ、ファックスマシン等の他のI/Oデバイスに対するインターフェースを提供してもよい。ネットワークインターフェース318は、コンピュータシステム300と他のデバイスが相互的に通信できるように、通信経路を提供してもよい。この通信経路は、例えば、ネットワーク330であってもよい。
The
ある実施形態では、コンピュータシステム300は、マルチユーザメインフレームコンピュータシステム、シングルユーザシステム、又はサーバコンピュータ等の、直接的ユーザインターフェースを有しない、他のコンピュータシステム(クライアント)からの要求を受信するデバイスであってもよい。他の実施形態では、コンピュータシステム300は、デスクトップコンピュータ、携帯型コンピュータ、ノートパソコン、タブレットコンピュータ、ポケットコンピュータ、電話、スマートフォン、又は任意の他の適切な電子機器であってもよい。
In certain embodiments, the
次に、図2を参照して、本発明の実施形態に係る情報表示システムの構成について説明する。 Next, the configuration of the information display system according to the embodiment of the present invention will be described with reference to FIG.
図2は、本発明の実施形態に係る情報表示システム200の構成を示す図である。図2に示すように、情報表示システム200は、主にデータ取得装置210A,210B,制御装置220、及び端末装置240からなる。データ取得装置210A,210B,制御装置220、及び端末装置240は、例えばインターネット等の通信ネットワーク(図示せず)を介して互いに接続されてもよい。
FIG. 2 is a diagram showing a configuration of an
データ取得装置210A,210Bは、周囲の環境に関する情報を収集し、収集した情報を制御装置220に送信するための機能部である。データ取得装置210A,210Bは、対象のデータが取得しやすい場所に設置されてもよい。例えば、サーバの温度のデータを取得した場合には、データ取得装置210A,210Bのそれぞれは、サーバの内部に設置されてもよい。
なお、図2では、データ取得装置210A及び210Bの2つのデータ取得装置を含む構成を一例として示しているが、本発明はこれに限定されず、データ取得装置は1つであってもよく、3つ以上であってもよい。
The data acquisition devices 210A and 210B are functional units for collecting information on the surrounding environment and transmitting the collected information to the control device 220. The data acquisition devices 210A and 210B may be installed in a place where the target data can be easily acquired. For example, when data on the temperature of the server is acquired, each of the data acquisition devices 210A and 210B may be installed inside the server.
Note that FIG. 2 shows a configuration including two data acquisition devices 210A and 210B as an example, but the present invention is not limited to this, and the number of data acquisition devices may be one. It may be 3 or more.
図2に示すように、データ取得装置210A,210Bはそれぞれ、センサー部212A,212B及びデータ送受信部214Aを含む。センサー部212A,212Bは、自然現象や人工物の機械的・電磁気的・熱的・音響的・化学的性質あるいはそれらで示される空間情報・時間情報を、何らかの科学的原理を応用して、人間や機械が扱い易い別媒体の信号に置き換える装置である。
センサー部212A,212Bは、例えばCPUやメモリ使用率データを収集するデジタルセンサ、心拍数データやストレスレベルデータ等を収集するバイオメトリックセンサ、湿度データ、温度データ、水圧データ、気圧データ、照度データ等を収集する環境センサ、及び加速度データ、運動データ等を収集するモーションセンサ等を含んでもよいが、本発明に係るセンサー部はこれに限定されない。
As shown in FIG. 2, the data acquisition devices 210A and 210B include sensor units 212A and 212B and data transmission / reception units 214A, respectively. The sensor units 212A and 212B apply some scientific principle to the mechanical, electromagnetic, thermal, acoustic, and chemical properties of natural phenomena and artificial objects, or the spatial and temporal information indicated by them, by applying some scientific principle to humans. It is a device that replaces the signal of another medium that is easy for the machine to handle.
The sensor units 212A and 212B are, for example, a digital sensor that collects CPU and memory usage data, a biometric sensor that collects heart rate data, stress level data, etc., humidity data, temperature data, water pressure data, pressure data, illuminance data, etc. An environmental sensor that collects data, a motion sensor that collects acceleration data, motion data, and the like may be included, but the sensor unit according to the present invention is not limited to this.
データ送受信部214A,214Bは、センサー部212A,212Bから取得した情報を制御装置220に送信するための機能部である。データ送受信部214A,214Bは、センサー部212A,212Bが取得した情報をインターネット等の通信ネットワーク(図示せず)を介して制御装置220に送信してもよい。なお、データ送受信部214A,214Bは、データの送信に限定されず、制御装置220からの命令を受信し、センサー部212A,212Bを受信した指示に基づいて制御してもよい。 The data transmission / reception units 214A and 214B are functional units for transmitting the information acquired from the sensor units 212A and 212B to the control device 220. The data transmission / reception units 214A and 214B may transmit the information acquired by the sensor units 212A and 212B to the control device 220 via a communication network (not shown) such as the Internet. The data transmission / reception units 214A and 214B are not limited to data transmission, and may receive a command from the control device 220 and control the sensor units 212A and 212B based on the received instruction.
制御装置220は、データ取得装置210A,210Bから受信した情報を管理し、端末装置に出力されるARコンテンツ(仮想オブジェクト等)の生成及び提供を行うための装置である。この制御装置220は、例えばデータ取得装置及び端末装置から離れた場所に設置され、インターネット等の通信ネットワーク(図示せず)を介してデータ取得装置及び端末装置に接続される遠隔サーバ装置として構成されてもよい。 The control device 220 is a device for managing information received from the data acquisition devices 210A and 210B, and generating and providing AR contents (virtual objects, etc.) output to the terminal device. The control device 220 is configured as a remote server device that is installed at a location away from the data acquisition device and the terminal device, and is connected to the data acquisition device and the terminal device via a communication network (not shown) such as the Internet. You may.
図2に示すように、制御装置220は、データ送受信部222,データ分析部224、ストレージ部226,オブジェクト作成部228,拡張現実管理部230、及び視線分析部232を含む。 As shown in FIG. 2, the control device 220 includes a data transmission / reception unit 222, a data analysis unit 224, a storage unit 226, an object creation unit 228, an augmented reality management unit 230, and a line-of-sight analysis unit 232.
データ送受信部222は、上述したデータ取得装置及び後述する端末装置240との情報通信を行うための機能部である。データ送受信部222は、例えば、データの取得頻度を指定する命令をデータ取得装置に送信したり、作成したARコンテンツを端末装置に配信したりすることができる。
The data transmission / reception unit 222 is a functional unit for performing information communication with the data acquisition device described above and the
データ分析部224は、データ取得装置及び端末装置から受信する各種データを分析するための機能部である。データ分析部224は、例えば、後述する端末装置から受信する現実空間の映像に写るARマーカを特定したり、データ取得装置から受信するセンサーデータを解析したりしてもよい。
なお、ここでのARマーカとは、ARコンテンツを表示するトリガとして機能する標識となる、決まったパターンの画像を意味する。ARマーカは、例えばQRコード(登録商標)や他の所定の画像であってもよい。また、一般的には、各ARマーカは、そのARマーカを一意に識別し、どのような付加情報をARコンテンツとして表示すべきかを定義するタグに紐づけられる。その後、ARマーカが検知されると、当該ARマーカのタグに指定されているARコンテンツとなる付加情報が所定の記憶媒体(例えば、後述するストレージ部226)から読み出され、表示される。
The data analysis unit 224 is a functional unit for analyzing various data received from the data acquisition device and the terminal device. The data analysis unit 224 may specify, for example, an AR marker appearing in a real space image received from a terminal device described later, or analyze sensor data received from a data acquisition device.
The AR marker here means an image having a fixed pattern, which serves as a sign functioning as a trigger for displaying AR contents. The AR marker may be, for example, a QR code (registered trademark) or another predetermined image. Further, in general, each AR marker is associated with a tag that uniquely identifies the AR marker and defines what kind of additional information should be displayed as AR content. After that, when the AR marker is detected, additional information to be the AR content specified in the tag of the AR marker is read from a predetermined storage medium (for example, the storage unit 226 described later) and displayed.
ストレージ部226は、情報表示システム200の各機能部機能部が用いる各種データを格納するためのストレージ装置である。ストレージ部226は、例えばフラッシュメモリ、ハードディスクドライブ等、任意の記憶媒体であってもよい。ストレージ部226は、例えば後述するARマーカ・仮想オブジェクト管理テーブル、第1の付加情報管理テーブル、非表示情報管理テーブル、及び第2の付加情報管理テーブルを格納してもよい。
The storage unit 226 is a storage device for storing various data used by each functional unit of the
オブジェクト作成部228は、現実空間の映像に重畳する仮想オブジェクトを生成するための機能部である。オブジェクト作成部228は、データ分析部によって特定されたARマーカのタグに対応する付加情報をストレージ部226から取得し、当該情報に応じた仮想オブジェクトを生成してもよい。例えば、ARマーカのタグに紐づいたARコンテンツが「サーバAの温度表示」である場合には、オブジェクト作成部228は、上述したストレージ部226から、サーバAの温度情報を取得し、当該情報を表示するための仮想オブジェクト(温度値を示す吹き出し、グラフ、アニメーション等)を生成してもよい。
上述したように、仮想オブジェクトを作成する際に、オブジェクト作成部228は、仮想オブジェクトの表示位置及び配置形式を指定する表示パターンを、検知されたARマーカの数、種類、及び位置に基づいて決定してもよい。なお、仮想オブジェクトの表示パターンを決定する処理については後述する。
The object creation unit 228 is a functional unit for generating a virtual object to be superimposed on the image in the real space. The object creation unit 228 may acquire additional information corresponding to the tag of the AR marker specified by the data analysis unit from the storage unit 226 and generate a virtual object according to the information. For example, when the AR content associated with the tag of the AR marker is "temperature display of server A", the object creation unit 228 acquires the temperature information of server A from the storage unit 226 described above, and the information is obtained. You may generate a virtual object (a balloon showing a temperature value, a graph, an animation, etc.) for displaying.
As described above, when creating a virtual object, the object creation unit 228 determines a display pattern that specifies the display position and arrangement format of the virtual object based on the number, type, and position of the detected AR markers. You may. The process of determining the display pattern of the virtual object will be described later.
拡張現実管理部230は、オブジェクト作成部228によって生成される仮想オブジェクトを実空間の映像に重畳させた拡張現実映像を作成し、この拡張現実映像を端末装置に提供する機能部である。拡張現実管理部230は、検知されたARマーカの数、種類、及び位置に基づいて決定された仮想オブジェクトの表示パターンに従って拡張現実映像を作成してもよい。 The augmented reality management unit 230 is a functional unit that creates an augmented reality image in which a virtual object generated by the object creation unit 228 is superimposed on an image in real space, and provides the augmented reality image to a terminal device. The augmented reality management unit 230 may create an augmented reality image according to the display pattern of the virtual object determined based on the number, type, and position of the detected AR markers.
視線分析部232は、後述する端末装置240の映像表示部244に表示される映像において、ユーザの視点の場所(ユーザがどこを見ているか)や頭部に対する眼球の動きを計測し、追跡するための機能部である。視線分析部232は、ユーザの視点の場所や眼球の動きを計測することで、ユーザが映像において注目している箇所(以下、注目点)の座標を特定することができる。後述するように、本発明では、現実空間に重畳する仮想オブジェクトの内容、表地位置、及び表示形式は、注目点の座標の情報に基づいて表示されてもよい。
なお、ここでの視線分析部232は、例えば眼に特殊なコンタクトレンズを取り付け、その動きを測定する手段、光学的な技術を用いて測定する手段、あるいは眼の周りに電極を配置し、眼球を動かすための筋肉などから発生する電位を測定する手段等、任意の手段を用いてもよい。
The line-of-sight analysis unit 232 measures and tracks the location of the user's viewpoint (where the user is looking) and the movement of the eyeball with respect to the head in the image displayed on the image display unit 244 of the
The line-of-sight analysis unit 232 here is, for example, a means for attaching a special contact lens to the eye and measuring its movement, a means for measuring using an optical technique, or a means for arranging an electrode around the eye and eyeball. Any means such as a means for measuring an electric potential generated from a muscle or the like for moving the lens may be used.
端末装置240は、仮想オブジェクトを現実空間の映像に重畳した拡張現実映像をユーザに提供するための装置である。この端末装置240は、例えばヘッドマウントディスプレイ、スマートフォン、タブレット等のコンピューティングデバイスであってもよく、拡張現実映像を表示することが可能なデバイスであれば特に限定されない。
図2に示すように、端末装置240は、データ送受信部241、カメラ部242及び映像表示部244を含んでもよい。
The
As shown in FIG. 2, the
データ送受信部241は、上述した制御装置222との情報通信を行うための機能部である。データ送受信部241は、例えば後述するカメラ部242によって撮像された現実空間の映像を制御装置222に送信したり、制御装置222によって生成された拡張現実映像を受信したりしてもよい。 The data transmission / reception unit 241 is a functional unit for performing information communication with the control device 222 described above. The data transmission / reception unit 241 may transmit, for example, an image of the real space captured by the camera unit 242, which will be described later, to the control device 222, or may receive the augmented reality image generated by the control device 222.
カメラ部242は、現実空間の映像を撮影するための機能部である。このカメラ部242は、現実空間の映像を継続的に撮影し、撮影した映像をリアルタイムで動的に制御装置222に送信してもよい。 The camera unit 242 is a functional unit for capturing an image in the real space. The camera unit 242 may continuously capture an image in the real space and dynamically transmit the captured image to the control device 222 in real time.
映像表示部244は、仮想オブジェクトを現実空間の映像に重畳した拡張現実映像をユーザに表示するためのディスプレイである。 The image display unit 244 is a display for displaying an augmented reality image in which a virtual object is superimposed on an image in the real space to the user.
次に、図3を参照して、本発明の実施形態に係る端末装置の一例について説明する。 Next, an example of the terminal device according to the embodiment of the present invention will be described with reference to FIG.
図3は、本発明の実施形態に係る端末装置240の一例を示す図である。
FIG. 3 is a diagram showing an example of the
上述したように、本発明の実施形態に係る、仮想オブジェクトを現実空間の映像に重畳した拡張現実映像をユーザに提供する端末装置240は、例えば携帯端末240A又はヘッドマウントディスプレイ240Bとして実装されてもよい。
As described above, the
携帯端末240は、ユーザが手で持つコンピューティングデバイスである。この携帯端末240は、例えばスマートフォンやタブレット等であってもよい。端末装置240を携帯端末240Aとして構成することにより、ユーザは小型かつ軽量のデバイスで拡張現実映像を見ることができる。
The
ヘッドマウントディスプレイ240Bは、ユーザの頭部に装着するディスプレイ装置である。このヘッドマウントディスプレイ240Bは、例えば片目のみを覆う単眼型、又は両目を覆う両目型であってもよく、形状やディスプレイ方式は適宜に選択されてもよい。端末装置240をヘッドマウントディスプレイ240Bとして構成することにより、ユーザの手が空くこととなるため、作業をより自由に行うことができる。
The head-mounted
上述した端末装置240の形態は、使用される目的及び環境に基づいて適宜に選択されてもよい。例えば、本発明の実施形態に係る情報表示手段は、観光地で食事やイベントの案内情報を表示するために使用されている場合には、端末装置240を小型かつ軽量な携帯端末240Aとして実装することがユーザの利便性の観点から好ましいことがある。一方、本発明の実施形態に係る情報表示手段は、配管の保守作業を行う際に使用されている場合には、端末装置240をヘッドマウントディスプレイ240Bとして実装することが作業者の作業効率の観点から好ましいことがある。
The form of the
次に、図4〜図7を参照して、本発明の実施形態に係る情報表示手段を用いてARマーカを認識する場合に表示される拡張現実映像の例について説明する。 Next, with reference to FIGS. 4 to 7, an example of an augmented reality image displayed when the AR marker is recognized by using the information display means according to the embodiment of the present invention will be described.
図4〜図7は、本発明の実施形態に係る情報表示手段を用いてARマーカを認識する場合に表示される拡張現実映像の例を示す図である。上述したように、本発明の実施形態に係る情報表示手段は、同時に検知した複数の異なるARマーカの種類、数、位置等に基づいて、現実空間に表示する仮想オブジェクトの表示パターンを決定する。ここでいう表示パターンとは、仮想オブジェクトの形式(例えば、テキスト、グラフ、アニメーション等)や、ベースとなる現実映像において仮想オブジェクトを表示する位置(例えば平面座標)を指定する情報である。
以下、端末装置によって撮影された映像と、当該映像に写っているARマーカに応じて表示される仮想オブジェクトの例について説明する。
4 to 7 are diagrams showing an example of an augmented reality image displayed when the AR marker is recognized by using the information display means according to the embodiment of the present invention. As described above, the information display means according to the embodiment of the present invention determines the display pattern of the virtual object to be displayed in the real space based on the types, numbers, positions, etc. of the plurality of different AR markers detected at the same time. The display pattern referred to here is information that specifies the format of the virtual object (for example, text, graph, animation, etc.) and the position (for example, plane coordinates) for displaying the virtual object in the base real image.
Hereinafter, an example of an image captured by the terminal device and a virtual object displayed according to the AR marker appearing in the image will be described.
図4は、1つのARマーカ425を含む入力映像420と、このARマーカ425に応じて作成される仮想オブジェクト445を含む拡張現実映像440とを示す図である。図4に示す入力映像420が撮影され、ARマーカ425が上述したデータ分析部によって認識されると、仮想オブジェクト445を含む拡張現実映像440がオブジェクト作成部及び拡張現実管理部によって作成され、端末装置の映像表示部に表示される。
FIG. 4 is a diagram showing an
上述したように、本発明の実施形態に係る情報表示手段は、同時に検知した複数の異なるARマーカの種類、数、位置等に基づいて、現実空間に表示する仮想オブジェクトの表示パターン(すなわち、表示位置及び表示形式)を決定する。例えば、図4のように1つだけのARマーカが認識される場合には、当該ARマーカに紐づいた情報を詳細に示す仮想オブジェクトを表示することができる。従って、本発明の実施形態に係る情報表示手段では、例えば認識されるARマーカの数が1つのみの場合には、そのARマーカに紐づいた情報を詳細に示す仮想オブジェクト(例えば仮想オブジェクト445)を表示してもよい。
これにより、ユーザは、認識されたARマーカに対応するARコンテンツの詳細情報を見ることができる。
As described above, the information display means according to the embodiment of the present invention has a display pattern (that is, display) of a virtual object to be displayed in the real space based on the types, numbers, positions, etc. of a plurality of different AR markers detected at the same time. Position and display format) are determined. For example, when only one AR marker is recognized as shown in FIG. 4, a virtual object showing the information associated with the AR marker in detail can be displayed. Therefore, in the information display means according to the embodiment of the present invention, for example, when the number of recognized AR markers is only one, a virtual object (for example, virtual object 445) that shows the information associated with the AR markers in detail. ) May be displayed.
As a result, the user can see the detailed information of the AR content corresponding to the recognized AR marker.
図5は、3つのARマーカを含む入力映像520と、この3つのARマーカに応じて作成される拡張現実映像540とを示す図である。図5に示す入力映像520が撮影され、この3つのARマーカが上述したデータ分析部によって認識されると、3つの仮想オブジェクトを含む拡張現実映像540がオブジェクト作成部及び拡張現実管理部によって作成され、端末装置の映像表示部に表示される。
FIG. 5 is a diagram showing an
図5に示すように、例えば3つのARマーカが認識される場合には、認識したそれぞれのARマーカに紐づいた情報から作成した仮想オブジェクトを表示してもよい。この場合、端末装置の映像表示部の画面の面積や解像度によっては、仮想オブジェクトの情報量は調整されてもよい。例えば、3つのARマーカに紐づいた情報を詳細に示すと画面が混んで見にくくなる場合には、ARマーカに紐づいた情報をより簡潔に示す仮想オブジェクトを作成して表示することができる。 As shown in FIG. 5, for example, when three AR markers are recognized, a virtual object created from the information associated with each recognized AR marker may be displayed. In this case, the amount of information of the virtual object may be adjusted depending on the area and resolution of the screen of the image display unit of the terminal device. For example, if the information associated with the three AR markers is shown in detail and the screen is crowded and difficult to see, a virtual object that more concisely shows the information associated with the AR markers can be created and displayed.
図6は、6つのARマーカを含む入力映像620と、この6つのARマーカに応じて作成される拡張現実映像640とを示す図である。図6に示す入力映像620が撮影され、この6つのARマーカが上述したデータ分析部によって認識されると、6つのARマーカに対応する付加情報をまとめて表示する仮想オブジェクトを含む拡張現実映像640がオブジェクト作成部及び拡張現実管理部によって作成され、端末装置の映像表示部に表示される。
FIG. 6 is a diagram showing an
多数のARマーカが同時に認識される場合には、それぞれのARマーカに紐づいた情報を個別の仮想オブジェクトとして作成して表示すると、映像表示部のディスプレイが仮想オブジェクトで混んでしまい、画面が見にくくなることがある。従って、本発明の実施形態に係る情報表示手段では、例えば認識されるARマーカの数が所定の数(例えば4つ以上)を超えると、それぞれのARマーカに紐づいた情報を個別の仮想オブジェクトとして表示する代わりに、それぞれのARマーカに紐づいた情報を1つのまとめた仮想オブジェクトとして表示してもよい(拡張現実映像640参照)。
これにより、表示されるARコンテンツが見やすくなり、端末装置の映像表示部の画面面積をより効率的に使用することができる。
When a large number of AR markers are recognized at the same time, if the information associated with each AR marker is created and displayed as an individual virtual object, the display of the video display unit will be crowded with the virtual object, making the screen difficult to see. May become. Therefore, in the information display means according to the embodiment of the present invention, for example, when the number of recognized AR markers exceeds a predetermined number (for example, four or more), the information associated with each AR marker is displayed as an individual virtual object. Instead of displaying as, the information associated with each AR marker may be displayed as one integrated virtual object (see Augmented Reality Video 640).
This makes it easier to see the AR content to be displayed, and the screen area of the video display unit of the terminal device can be used more efficiently.
図7は、ユーザの注目点によって表示される仮想オブジェクトを変更する一例を示す図である。上述したように、本発明の実施形態に係る情報表示手段は、ユーザの注目点に基づいて仮想オブジェクトを作成して表示することができる。例えば、図7に示すように、端末装置の視線分析部(例えば図2に示す視線分析部232)は、ユーザの注目点が仮想オブジェクト710に向けられていると判定する場合には、この仮想オブジェクト710に埋め込まれている(後述する)非表示情報から作成した仮想オブジェクト720が表示されてもよい。そして、視線分析部は、ユーザの注目点が仮想オブジェクト710から仮想オブジェクト730に移ったと判定する場合には、この仮想オブジェクト730に埋め込まれている非表示情報から作成した仮想オブジェクト740が表示されてもよい。
これにより、ユーザは手等を使うことなく、目の動きだけで興味のあるARコンテンツを表示させることができる。
FIG. 7 is a diagram showing an example of changing a virtual object displayed according to a user's point of interest. As described above, the information display means according to the embodiment of the present invention can create and display a virtual object based on a user's point of interest. For example, as shown in FIG. 7, when the line-of-sight analysis unit of the terminal device (for example, the line-of-sight analysis unit 232 shown in FIG. 2) determines that the user's point of interest is directed to the
As a result, the user can display the AR content of interest only by moving his / her eyes without using his / her hands.
次に、図8〜図11を参照して、本発明の実施形態に係る情報表示処理において用いられる情報管理テーブルについて説明する。 Next, the information management table used in the information display processing according to the embodiment of the present invention will be described with reference to FIGS. 8 to 11.
図8は、本発明の実施形態に係るARマーカ・仮想オブジェクト管理テーブル800の一例を示す図である。図8に示すARマーカ・仮想オブジェクト管理テーブル800は、仮想オブジェクトとなる付加情報810毎に、当該付加情報に該当するARマーカのタグ820、視線注目状態830、及び仮想オブジェクト形式840を示すテーブルである。撮影された現実映像において特定のARマーカのタグ820が検知されると、上述したオブジェクト作成部は、検知したARマーカのタグ820に対応する仮想オブジェクトの付加情報810及び形式840をARマーカ・仮想オブジェクト管理テーブル800に基づいて特定することができる。
なお、図8に示す仮想オブジェクト形式840は、仮想オブジェクトをどの形式で表示すべきかを指定するものであり、「A」、「B」、「C」、「D」のそれぞれは、例えばテキスト、グラフ、画像、動画等、任意の形式形態を指定するラベルである。
FIG. 8 is a diagram showing an example of the AR marker / virtual object management table 800 according to the embodiment of the present invention. The AR marker / virtual object management table 800 shown in FIG. 8 is a table showing the
The
図9は、本発明の実施形態に係る第1の付加情報管理テーブル900の一例を示す図である。図9に示す第1の付加情報管理テーブル900は、仮想オブジェクト(例えば、ARマーカに基づいて作成される第1の仮想オブジェクト)となる付加情報を格納するテーブルである。撮影された現実映像において特定のARマーカのタグが検知され、当該ARマーカのタグに対応する付加情報が(例えば図8に示すARマーカ・仮想オブジェクト管理テーブル800に基づいて)特定されると、次に、上述したオブジェクト作成部は、特定した付加情報を第1の付加情報管理テーブル900から取得する。その後、オブジェクト作成部は、第1の付加情報管理テーブル900から取得した付加情報に応じた仮想オブジェクトを作成してもよい。
なお、図9に示す第1の付加情報管理テーブル900では、サーバのCPU温度、気温、湿度、イベント等の情報が仮想オブジェクトの付加情報として例示されているが、本発明はそれに限定されず、仮想オブジェクトの付加情報は、本発明に係る情報表示手段の使用される目的及び環境に応じて適宜に構成されてもよい。
FIG. 9 is a diagram showing an example of the first additional information management table 900 according to the embodiment of the present invention. The first additional information management table 900 shown in FIG. 9 is a table that stores additional information that becomes a virtual object (for example, a first virtual object created based on an AR marker). When a tag of a specific AR marker is detected in the captured real image and additional information corresponding to the tag of the AR marker is specified (for example, based on the AR marker / virtual object management table 800 shown in FIG. 8), Next, the object creation unit described above acquires the specified additional information from the first additional information management table 900. After that, the object creation unit may create a virtual object according to the additional information acquired from the first additional information management table 900.
In the first additional information management table 900 shown in FIG. 9, information such as the CPU temperature, temperature, humidity, and event of the server is exemplified as additional information of the virtual object, but the present invention is not limited thereto. The additional information of the virtual object may be appropriately configured according to the purpose and environment in which the information display means according to the present invention is used.
図10は、本発明の実施形態に係る非表示情報管理テーブル1000の一例を示す図である。後述するように、拡張現実映像に重畳される仮想オブジェクトは、複数のエリアに分割されており、それぞれのエリアにおいて、異なる非表示情報が埋め込まれている。この非表示情報は、映像に表示されず、視線分析部によって検知される情報である。視線分析部は、ユーザの注目点が仮想オブジェクトのエリアに向けられていると検知すると、そのエリアに埋め込まれている非表示情報によって指定されている付加情報を指定されているテーブル(例えば、後述する第2付加情報管理テーブル1100)から取得し、当該付加情報に応じて新たな仮想オブジェクト(例えば、第2の仮想オブジェクト)を、非表示情報によって指定されている表示パターンに従って作成し、拡張現実映像に追加する。
例えば、視線分析部は、ユーザの注目点が「CPU温度」のエリアに向けられていると判定すると、当該エリアの条件に従って、プロセッサ毎のCPU使用率を、例えば、後述する第2の付加情報管理テーブル1100から取得し、取得した情報を表形式で示す仮想オブジェクトを作成し、拡張現実映像に追加してもよい。
FIG. 10 is a diagram showing an example of the hidden information management table 1000 according to the embodiment of the present invention. As will be described later, the virtual object superimposed on the augmented reality image is divided into a plurality of areas, and different hidden information is embedded in each area. This non-display information is information that is not displayed in the video and is detected by the line-of-sight analysis unit. When the line-of-sight analysis unit detects that the user's point of interest is directed to the area of the virtual object, a table in which additional information specified by the hidden information embedded in the area is specified (for example, described later). A new virtual object (for example, a second virtual object) is created according to the additional information obtained from the second additional information management table 1100) according to the display pattern specified by the hidden information, and augmented reality. Add to the video.
For example, when the line-of-sight analysis unit determines that the user's point of interest is directed to the area of "CPU temperature", the line-of-sight analysis unit determines the CPU usage rate for each processor according to the conditions of the area, for example, the second additional information described later. A virtual object acquired from the management table 1100 and showing the acquired information in a tabular format may be created and added to the augmented reality image.
図11は、本発明の実施形態に係る第2の付加情報管理テーブル1100の一例を示す図である。図11は、ユーザの注目点が検知される際に、ユーザの注目点のエリアに埋め込まれている非表示情報によって指定される付加情報を格納するテーブルである。図11に示す第2の付加情報は、表示中の第1の仮想オブジェクトがユーザの注目点の対象となった場合に、新たな仮想オブジェクト(例えば、第2、第3、第4等の仮想オブジェクト)を作成するための情報である。また、図11に示すように、この第2の付加情報は、サーバのプロセッサ毎のCPU使用率やイベントの情報等を含んでもよい。
なお、図11に示す第2の付加情報管理テーブル1100では、サーバのCPU使用率やイベント等の情報が付加情報として例示されているが、本発明はそれに限定されず、付加情報は、本発明に係る情報表示手段の使用される目的及び環境に応じて適宜に構成されてもよい。
FIG. 11 is a diagram showing an example of the second additional information management table 1100 according to the embodiment of the present invention. FIG. 11 is a table that stores additional information specified by hidden information embedded in the area of the user's attention when the user's attention is detected. The second additional information shown in FIG. 11 is a new virtual object (for example, a second, third, fourth, etc. virtual object) when the first virtual object being displayed is the target of the user's attention. Information for creating an object). Further, as shown in FIG. 11, the second additional information may include information such as CPU usage rate and event information for each processor of the server.
In the second additional information management table 1100 shown in FIG. 11, information such as the CPU usage rate of the server and events is exemplified as additional information, but the present invention is not limited thereto, and the additional information is the present invention. It may be appropriately configured according to the purpose and environment in which the information display means according to the above is used.
次に、図12を参照して、本発明の実施形態に係る情報表示の処理フローについて説明する。 Next, with reference to FIG. 12, the processing flow of information display according to the embodiment of the present invention will be described.
図12は、本発明の実施形態に係る情報表示の処理1200のフローを示すフローチャートである。
FIG. 12 is a flowchart showing a flow of
まず、ステップS1201では、制御装置のデータ送受信部(例えば、図2に示す制御装置220のデータ送受信部222)は、端末装置(例えば、図2に示す端末装置240)から、現実映像を受信する。この現実映像は、例えば端末装置のカメラ部(例えば、図2に示す242)によって撮影された映像であってもよい。
なお、この映像は、リアルタイムで継続的に撮影された生配信であってもよい。
First, in step S1201, the data transmission / reception unit of the control device (for example, the data transmission / reception unit 222 of the control device 220 shown in FIG. 2) receives a real image from the terminal device (for example, the
It should be noted that this video may be a live distribution continuously shot in real time.
次に、ステップS1202では、制御装置のデータ分析部(例えば、図2に示す制御装置220のデータ分析部224)は、映像におけるARマーカの種類と数を分析する。ここで、データ分析部は、例えば既存の画像処理手段を用いて、受信する映像に埋め込まれているARマーカを検知し、検知したARマーカの種類を判定し、種類毎の数を計算してもよい。 Next, in step S1202, the data analysis unit of the control device (for example, the data analysis unit 224 of the control device 220 shown in FIG. 2) analyzes the type and number of AR markers in the video. Here, the data analysis unit detects the AR marker embedded in the received video by using, for example, an existing image processing means, determines the type of the detected AR marker, and calculates the number for each type. May be good.
次に、ステップS1203では、オブジェクト作成部は、検知したARマーカの種類及び数に基づいて、当該ARマーカに該当する仮想オブジェクトの表示情報をストレージ部から取得する。ここで、オブジェクト作成部は、上述したARマーカ・仮想オブジェクト管理テーブル(例えば、図8に示すARマーカ・仮想オブジェクト管理テーブル800)を用いることで、検知したARマーカに該当する付加情報を特定し、当該付加情報を、第1の付加情報管理テーブル(例えば、図9に示す第1の付加情報管理テーブル900)から取得してもよい。 Next, in step S1203, the object creation unit acquires the display information of the virtual object corresponding to the AR marker from the storage unit based on the type and number of the detected AR markers. Here, the object creation unit identifies additional information corresponding to the detected AR marker by using the above-mentioned AR marker / virtual object management table (for example, the AR marker / virtual object management table 800 shown in FIG. 8). , The additional information may be acquired from the first additional information management table (for example, the first additional information management table 900 shown in FIG. 9).
次に、ステップS1204では、オブジェクト作成部は、検知したARマーカの種類及び数に基づいて、仮想オブジェクトの表示パターンを決定する。ここで、オブジェクト作成部は、上述したARマーカ・仮想オブジェクト管理テーブルを用いることで、検知したARマーカに該当する仮想オブジェクト形式を決定してもよい。例えば、図8を参照して一例を説明すると、後述する図14の処理の結果、付加情報「1」が決定される場合には、オブジェクト作成部は、「C」の仮想オブジェクト形式を決定する。
なお、ステップS1203〜S1204の詳細については、図14を参照して後述する。
Next, in step S1204, the object creation unit determines the display pattern of the virtual object based on the type and number of detected AR markers. Here, the object creation unit may determine the virtual object format corresponding to the detected AR marker by using the AR marker / virtual object management table described above. For example, to explain an example with reference to FIG. 8, when the additional information "1" is determined as a result of the processing of FIG. 14 described later, the object creation unit determines the virtual object format of "C". ..
The details of steps S1203 to S1204 will be described later with reference to FIG.
次に、ステップS1205では、オブジェクト作成部は、ステップS1203でストレージ部から取得した仮想オブジェクトの付加情報と、ステップS1204で決定した表示パターンとに基づいて仮想オブジェクトを作成する。例えば、ストレージ部から取得した付加情報は、「サーバ1CPU温度:60度」と示し、仮想オブジェクトの表示パターンは「テキスト形式」と示す場合には、オブジェクト作成部は、「サーバ1CPU温度:60度」を表形式で示す仮想オブジェクトを作成してもよい。
Next, in step S1205, the object creation unit creates a virtual object based on the additional information of the virtual object acquired from the storage unit in step S1203 and the display pattern determined in step S1204. For example, when the additional information acquired from the storage unit indicates "
次に、ステップS1206では、オブジェクト作成部は、ステップS1205で作成した仮想オブジェクトと、ステップS1201で受信した現実映像とを合成し、仮想オブジェクトが現実映像に重畳されている拡張現実映像を生成する。 Next, in step S1206, the object creation unit synthesizes the virtual object created in step S1205 and the real image received in step S1201 to generate an augmented reality image in which the virtual object is superimposed on the real image.
次に、ステップS1207では、ステップS1206で生成される拡張現実映像が端末装置に送信される。拡張現実映像を受信した端末装置は、当該拡張現実映像を映像表示部に表示する。 Next, in step S1207, the augmented reality image generated in step S1206 is transmitted to the terminal device. The terminal device that has received the augmented reality image displays the augmented reality image on the image display unit.
次に、ステップS1208では、ユーザの注目点の有無が判定される。ユーザ注目点が仮想オブジェクトに向けられている場合には、本処理はステップS1208に進む。ユーザ注目点が仮想オブジェクトに向けられていない場合には、本処理は終了する。
これにより、同時に検知された複数の異なるARマーカの種類、数、位置等に基づいて決定した表示パターンに従って、所望の仮想オブジェクトを作成することができる。
Next, in step S1208, it is determined whether or not the user has a point of interest. If the user's attention is directed to the virtual object, this process proceeds to step S1208. If the user's attention is not directed to the virtual object, this process ends.
As a result, a desired virtual object can be created according to a display pattern determined based on the types, numbers, positions, etc. of a plurality of different AR markers detected at the same time.
次に、図13を参照して、本発明の実施形態に係る注目点分析の処理フローについて説明する。 Next, with reference to FIG. 13, the processing flow of the point of interest analysis according to the embodiment of the present invention will be described.
図13は、本発明の実施形態に係る注目点分析の処理1300のフローを示すフローチャートである。
FIG. 13 is a flowchart showing a flow of the attention
まず、ステップS1301では、制御装置の視線分析部(例えば、図2に示す制御装置220の視線分析部232)は、端末装置(例えば、図2に示す端末装置240)から、ユーザの視線の座標を示す情報を受信し、当該情報を分析することで、拡張現実映像における注目点の座標を算出する。ここでの座標は、例えば一般的な平面座標であってもよい。
First, in step S1301, the line-of-sight analysis unit of the control device (for example, the line-of-sight analysis unit 232 of the control device 220 shown in FIG. 2) has the coordinates of the user's line of sight from the terminal device (for example, the
次に、ステップS1302では、視線分析部は、ステップS1301で算出した注目点の座標が、拡張現実映像に重畳されている仮想オブジェクトのエリアに含まれているか否かを判定する。ユーザの注目点の座標が仮想オブジェクトのエリアに含まれている場合には、本処理はステップS1303に進む。ユーザの注目点の座標が仮想オブジェクトのエリアに含まれていない場合には、本処理は終了する。 Next, in step S1302, the line-of-sight analysis unit determines whether or not the coordinates of the point of interest calculated in step S1301 are included in the area of the virtual object superimposed on the augmented reality image. If the coordinates of the user's point of interest are included in the area of the virtual object, this process proceeds to step S1303. If the coordinates of the user's point of interest are not included in the virtual object area, this process ends.
次に、ステップS1303では、視線分析部は、注目点を含むエリアに埋め込まれている非表示情報を取得する。上述したように、この非表示情報は、追加の仮想オブジェクト(例えば、第2、第3、第4等の仮想オブジェクト)となる付加情報や、当該仮想オブジェクトの表示パターンを指定する条件を示すものである。 Next, in step S1303, the line-of-sight analysis unit acquires the hidden information embedded in the area including the point of interest. As described above, this hidden information indicates additional information that becomes an additional virtual object (for example, a second, third, fourth, etc. virtual object) and a condition for designating a display pattern of the virtual object. Is.
次に、ステップS1304では、視線分析部は、取得した非表示情報に基づいて、追加の仮想オブジェクトの表示パターンを決定する。この表示パターンは、取得した非表示情報によって指定されている条件に応じて決定されてもよい。例えば、非表示情報は、付加情報を「グラフ形式」で表示することを指定する場合には、視線分析部は、追加の仮想オブジェクトの表示パターンを「グラフ形式」として決定してもよい。 Next, in step S1304, the line-of-sight analysis unit determines the display pattern of the additional virtual object based on the acquired non-display information. This display pattern may be determined according to the conditions specified by the acquired non-display information. For example, when the hidden information specifies that the additional information is displayed in the "graph format", the line-of-sight analysis unit may determine the display pattern of the additional virtual object as the "graph format".
次に、ステップS1305では、オブジェクト作成部は、追加の仮想オブジェクトとなる付加情報をストレージ部から取得する。具体的には、オブジェクト作成部は、非表示情報によって指定されている情報を付加情報管理テーブル(例えば、図11に示す第2の付加情報管理テーブル1100)から取得してもよい。 Next, in step S1305, the object creation unit acquires additional information to be an additional virtual object from the storage unit. Specifically, the object creation unit may acquire the information specified by the hidden information from the additional information management table (for example, the second additional information management table 1100 shown in FIG. 11).
次に、ステップS1306では、オブジェクト作成部は、付加情報管理テーブルから取得した付加情報に応じた追加の仮想オブジェクト(例えば、第2の仮想オブジェクト)を作成する。上述したように、この追加の仮想オブジェクトは、ユーザの注目点が含まれているエリアに関する詳細情報を示すものであってもよい。例えば、ユーザの注目点がサーバのCPUの使用率を示すエリアに含まれる場合には、そのサーバのCPUの使用率の時系列を示すグラフが追加の仮想オブジェクトとして作成されてもよい。 Next, in step S1306, the object creation unit creates an additional virtual object (for example, a second virtual object) according to the additional information acquired from the additional information management table. As mentioned above, this additional virtual object may provide detailed information about the area that contains the user's attention. For example, if the user's attention is included in the area showing the CPU usage of the server, a graph showing the time series of the CPU usage of the server may be created as an additional virtual object.
次に、ステップS1307では、オブジェクト作成部は、追加の仮想オブジェクトと、拡張現実映像と(すなわち、第1の仮想オブジェクトが既に重畳されている拡張現実映像)を合成する。具体的には、オブジェクト作成部は、ステップS1306で作成した追加の仮想オブジェクトを、ユーザの注目点の座標に一致する場所に重畳してもよい。 Next, in step S1307, the object creation unit synthesizes the additional virtual object and the augmented reality image (that is, the augmented reality image on which the first virtual object is already superimposed). Specifically, the object creation unit may superimpose the additional virtual object created in step S1306 on a location that matches the coordinates of the user's point of interest.
次に、図14を参照して、本発明の実施形態に係る仮想オブジェクトの表示パターンを決定する処理について説明する。 Next, a process of determining the display pattern of the virtual object according to the embodiment of the present invention will be described with reference to FIG.
図14は、本発明の実施形態に係る仮想オブジェクトの表示パターンを決定する処理1400のフローを示すフローチャートである。図14に示す処理1400は、図12に示す処理1200におけるステップS1203〜S1204に対応し、仮想オブジェクトの表示パターンを決定する処理の詳細を示すものである。
FIG. 14 is a flowchart showing a flow of
まず、ステップS1401では、オブジェクト作成部は、現実映像において特定された全てのARマーカに対して、未分析のフラグを設定する。この未分析のフラグとは、当該ARマーカに対応する付加情報を含む仮想オブジェクトが未作成であることを示すラベルである。例えば、ARマーカ1、ARマーカ2、ARマーカ3、及びARマーカ4が特定された場合には、オブジェクト作成部は、ARマーカ1、ARマーカ2、ARマーカ3、及びARマーカ4のそれぞれに対して未分析のフラグを設定する。
なお、この未分析のフラグは、例えば上述したARマーカ・仮想オブジェクト管理テーブルにおいて格納されてもよい(例示せず)。
First, in step S1401, the object creation unit sets an unanalyzed flag for all the AR markers identified in the real image. The unanalyzed flag is a label indicating that the virtual object including the additional information corresponding to the AR marker has not been created. For example, when the
Note that this unanalyzed flag may be stored, for example, in the AR marker / virtual object management table described above (not shown).
次に、ステップS1402では、オブジェクト作成部は、未分析のフラグが設定されているARマーカの内、1つのARマーカを選択する。ここで選択されるARマーカは、任意のARマーカであってもよい。例えば、未分析のフラグがARマーカ1、ARマーカ2、ARマーカ3、及びARマーカ4に対して設定されている場合、オブジェクト作成部は、ARマーカ1を選択してもよい。
Next, in step S1402, the object creation unit selects one AR marker from the AR markers for which the unanalyzed flag is set. The AR marker selected here may be any AR marker. For example, when the unanalyzed flag is set for the
次に、ステップS1403では、オブジェクト作成部は、上述したARマーカ・仮想オブジェクト管理テーブルを参照して、選択したARマーカに対応する付加情報を取得する。例えば、ARマーカ1が選択された場合には、オブジェクト作成部は、付加情報1、7、及び9を取得する。
Next, in step S1403, the object creation unit refers to the AR marker / virtual object management table described above and acquires additional information corresponding to the selected AR marker. For example, when the
次に、ステップS1404では、オブジェクト作成部は、取得したそれぞれの付加情報に対して、未分析のフラグを設定する。上述したように、この未分析のフラグは、当該付加情報を含む仮想オブジェクトが未作成であることを示すラベルであり、ARマーカ・仮想オブジェクト管理テーブルにおいて格納されてもよい(例示せず)。 Next, in step S1404, the object creation unit sets an unanalyzed flag for each of the acquired additional information. As described above, this unanalyzed flag is a label indicating that the virtual object containing the additional information has not been created, and may be stored in the AR marker / virtual object management table (not shown).
次に、ステップS1405では、オブジェクト作成部は、未分析のフラグが設定されている付加情報の内、1つを選択する。ここで選択される付加情報は、任意のものであってもよい。例えば、未分析のフラグが付加情報1、7、及び9に対して設定されている場合には、オブジェクト作成部は、付加情報1を選択してもよい。
Next, in step S1405, the object creation unit selects one of the additional information for which the unanalyzed flag is set. The additional information selected here may be arbitrary. For example, when the unanalyzed flag is set for the
次に、ステップS1406では、オブジェクト作成部は、ARマーカ・仮想オブジェクト管理テーブルを参照し、選択した付加情報に該当するARマーカと、未分析のARマーカを比較した結果、選択した付加情報に該当するARマーカが未分析のARマーカに含まれているかを判定する(つまり、当該ARマーカが未分析か否かを確認する)。選択した付加情報に該当するARマーカが未分析のARマーカに含まれている場合には、本処理はステップS1407に進み、そうでない場合には、ステップS1408に進む。
例えば、選択した付加情報が付加情報1で、未分析のARマーカがARマーカ1、2、3、4の場合には、付加情報1に該当するARマーカ1が未分析のARマーカに含まれているため、本処理はステップS1408に進む。
Next, in step S1406, the object creation unit refers to the AR marker / virtual object management table, compares the AR marker corresponding to the selected additional information with the unanalyzed AR marker, and corresponds to the selected additional information. It is determined whether the AR marker to be used is included in the unanalyzed AR marker (that is, it is confirmed whether or not the AR marker is unanalyzed). If the AR marker corresponding to the selected additional information is included in the unanalyzed AR marker, the present process proceeds to step S1407, and if not, the process proceeds to step S1408.
For example, when the selected additional information is the
次に、ステップS1407では、未分析のARマーカに含まれていないと判定された付加情報は、条件を満たさないと判定され、その旨を示すラベルが(例えば、ARマーカ・仮想オブジェクト管理テーブルにおいて)設定される。 Next, in step S1407, the additional information determined not to be included in the unanalyzed AR marker is determined not to satisfy the condition, and a label indicating that fact is displayed (for example, in the AR marker / virtual object management table). ) Set.
次に、ステップS1408では、未分析のARマーカに含まれていると判定された付加情報は、条件を満たすと判定され、その旨を示すラベルが、(例えば、ARマーカ・仮想オブジェクト管理テーブルにおいて)設定される。 Next, in step S1408, the additional information determined to be included in the unanalyzed AR marker is determined to satisfy the condition, and a label indicating that fact is displayed (for example, in the AR marker / virtual object management table). ) Set.
次に、ステップS1409では、オブジェクト作成部は、未分析のフラグが設定されている付加情報が残っているか否かを判定する。未分析の付加情報が残っている場合には、本処理はステップS1405に戻り、ステップS1405〜ステップS1408までの処理が未分析の付加情報に対して行われる。未分析の付加情報が残っていない場合には、本処理はステップS1410に進む。この処理は、未分析のフラグが設定されている付加情報が全て処理されるまで繰り返されてもよい。
一例として、ステップS1403で付加情報1、7、及び9が取得され、付加情報1しかステップS1406の判定を受けていない場合には、付加情報7及び付加情報9はまだ未分析データとして残っているため、本処理はステップS1405に戻り、ステップS1405〜ステップS1408までの処理が付加情報7、そして付加情報9のそれぞれに対して行われる。その結果、付加情報1及び付加情報7は、条件を満たすものであると分類され、付加情報9は、条件を満たさないものであると分類される。
Next, in step S1409, the object creation unit determines whether or not additional information for which the unanalyzed flag is set remains. If unanalyzed additional information remains, this process returns to step S1405, and the processes from steps S1405 to steps S1408 are performed on the unanalyzed additional information. If no unanalyzed additional information remains, this process proceeds to step S1410. This process may be repeated until all the additional information for which the unanalyzed flag is set is processed.
As an example, when the
次に、ステップS1410では、オブジェクト作成部は、条件を満たすと分類された情報が複数あるか否かを判定する。条件を満たすと分類された情報が複数ある場合には、本処理はステップS1412に進み、そうでない場合には、本処理はステップS1411に進む。
例えば、付加情報1及び付加情報7は条件を満たすものであると分類された場合には、ステップS1410の判定の結果が「Yes」となるため、本処理はステップS1412に進む。
Next, in step S1410, the object creation unit determines whether or not there is a plurality of information classified as satisfying the conditions. If there are a plurality of information classified as satisfying the conditions, the present process proceeds to step S1412, and if not, the present process proceeds to step S1411.
For example, if the
次に、ステップS1411では、オブジェクト作成部は、条件を満たすと分類された情報が複数ではないため、条件を満たすと分類された1つの付加情報が「利用する情報」として設定する。 Next, in step S1411, since the object creation unit does not have a plurality of information classified when the condition is satisfied, one additional information classified when the condition is satisfied is set as "information to be used".
次に、ステップS1412では、オブジェクト作成部は、ARマーカ・仮想オブジェクト管理テーブルを参照し、最も多くのARマーカに該当する付加情報を「利用する情報」として設定する。例えば、図8のARマーカ・仮想オブジェクト管理テーブルに示されるように、付加情報1は、ARマーカ1の1つのARマーカに該当するが、付加情報7は、ARマーカ1、ARマーカ2、及びARマーカ3の3つのARマーカに該当するため、より多くのARマーカに該当する付加情報7が「利用する情報」として設定される。
Next, in step S1412, the object creation unit refers to the AR marker / virtual object management table and sets additional information corresponding to the most AR markers as “information to be used”. For example, as shown in the AR marker / virtual object management table of FIG. 8, the
次に、ステップS1413では、オブジェクト作成部は、「利用する情報」として設定された付加情報に該当するARマーカのフラグを「未分析」から「分析済み」に変更する。例えば、付加情報7が「利用する情報」として設定された場合には、付加情報7に該当するARマーカ1、ARマーカ2、及びARマーカ3の3つのARマーカのフラグが「未分析」から「分析済み」に変更される。
Next, in step S1413, the object creation unit changes the flag of the AR marker corresponding to the additional information set as "information to be used" from "unanalyzed" to "analyzed". For example, when the
次に、ステップS1414では、データ分析部は、「利用する情報」として設定された付加情報に該当するARマーカについて、現実映像を分析し、それぞれのARマーカの4隅の座標を特定する。例えば、付加情報7が「利用する情報」として設定された場合には、付加情報7に該当するARマーカ1、ARマーカ2、及びARマーカ3の3つのARマーカの座標が特定される。
Next, in step S1414, the data analysis unit analyzes the actual image of the AR marker corresponding to the additional information set as the "information to be used", and specifies the coordinates of the four corners of each AR marker. For example, when the
次に、ステップS1415では、オブジェクト作成部は、特定したARマーカの座標に基づいて、仮想オブジェクトを表示する位置を定義するベース座標を計算する。このベース座標は、仮想オブジェクトを表示する領域の4隅の座標を指定する座標である。仮想オブジェクトのベース座標を計算するためには、オブジェクト作成部は、「利用する情報」として設定された付加情報に該当する全てのARマーカの座標の内、ベース座標となる座標を以下の通りに特定してもよい。
OBJX1:全てのARマーカーのX座標の最小値, OBJY1:全てのARマーカーのY座標の最大値
OBJX2: 全てのARマーカーのX座標の最大値, OBJY2:全てのARマーカーのY座標の最大値
OBJX3:全てのARマーカーのX座標の最小値, OBJY3:全てのARマーカーのY座標の最小値
OBJX4:全てのARマーカーのX座標の最大値, OBJY4:全てのARマーカーのY座標の最小値
なお、本ステップの処理の一例については後述する。
Next, in step S1415, the object creation unit calculates the base coordinates that define the position to display the virtual object based on the coordinates of the specified AR marker. The base coordinates are coordinates that specify the coordinates of the four corners of the area for displaying the virtual object. In order to calculate the base coordinates of the virtual object, the object creation unit sets the coordinates that will be the base coordinates among the coordinates of all AR markers that correspond to the additional information set as "information to be used" as follows. It may be specified.
OBJX1: Minimum value of X coordinate of all AR markers, OBJY1: Maximum value of Y coordinate of all AR markers OBJX2: Maximum value of X coordinate of all AR markers, OBJY2: Maximum value of Y coordinate of all AR markers OBJX3: Minimum value of X coordinate of all AR markers, OBJY3: Minimum value of Y coordinate of all AR markers OBJX4: Maximum value of X coordinate of all AR markers, OBJY4: Minimum value of Y coordinate of all AR markers An example of the processing in this step will be described later.
次に、ステップS1416では、オブジェクト作成部は、未分析のARマーカが残っているか否かを判定する。未分析のARマーカが残っている場合には、本処理はステップS1402へ戻り、ステップS1402〜S1415の処理を繰り返す。未分析のARマーカが残っていない場合には、本処理は終了する。その後、図12に示す処理1200のステップS1205で上述したように、仮想オブジェクトが作成され、本処理のステップS1415で特定されたベース座標に重畳される。
一例として、ステップS1401でARマーカ1、ARマーカ2、ARマーカ3、及びARマーカ4が特定された場合には、上述した処理の結果ARマーカ1〜3が分析され、ARマーカ1〜3の付加情報を含む仮想オブジェクトが作成されるが、ARマーカ4はまだ未分析のフラグが設定されている。そのため、ARマーカ1〜3の処理が終了した後、ステップS1416の判定の結果が「NO」となり、本処理はステップS1402に戻る。続いて、ステップS1402〜S1415がARマーカ4に対して行われる。これにより、現実映像において特定された全てのARマーカに該当する付加情報を含む仮想オブジェクトが作成され、拡張現実映像に重畳されることとなる。
Next, in step S1416, the object creation unit determines whether or not an unanalyzed AR marker remains. If an unanalyzed AR marker remains, this process returns to step S1402 and repeats the processes of steps S1402 to S1415. If no unanalyzed AR marker remains, this process ends. After that, as described above in step S1205 of
As an example, when the
次に、図15を参照して、ARマーカの4隅の座標を特定する一例について説明する。 Next, an example of specifying the coordinates of the four corners of the AR marker will be described with reference to FIG.
図15は、本発明の実施形態に係るARマーカの4隅の座標を特定する一例を示す図である。上述したように、仮想オブジェクトを表示するベース座標は、現実映像において検知されるそれぞれのARマーカの4隅の座標に基づいて特定される。ARマーカの4隅の座標を特定するためには、上述したデータ分析部は、例えばキャニー法、その他の1次の手法、閾値処理と連続処理、2次の手法、微分エッジ検出等のエッジ検出手段や他の既存の画像処理手段を用いることで、検知したARマーカの4隅の座標を特定してもよい。
例えば、図15に示すように、データ分析部は、ARマーカ1510、ARマーカ1520、及びARマーカ1530のそれぞれの4隅の平面座標を特定する。
FIG. 15 is a diagram showing an example of specifying the coordinates of the four corners of the AR marker according to the embodiment of the present invention. As described above, the base coordinates for displaying the virtual object are specified based on the coordinates of the four corners of each AR marker detected in the real image. In order to specify the coordinates of the four corners of the AR marker, the above-mentioned data analysis unit may perform edge detection such as, for example, the Canny method, other primary methods, threshold processing and continuous processing, secondary methods, and differential edge detection. By using means or other existing image processing means, the coordinates of the four corners of the detected AR marker may be specified.
For example, as shown in FIG. 15, the data analysis unit identifies the plane coordinates of each of the four corners of the
次に、図16を参照して、本発明の実施形態に係る仮想オブジェクトのベース座標の一例について説明する。 Next, an example of the base coordinates of the virtual object according to the embodiment of the present invention will be described with reference to FIG.
図16は、本発明の実施形態に係る仮想オブジェクトのベース座標の一例を示す図である。このベース座標は、仮想オブジェクトを表示する領域の4隅の座標を指定する座標であり、現実映像において検知されるARマーカの4隅の座標に基づいて、図14のステップS1415で示す計算法によって計算される。
例えば、図16に示す仮想オブジェクトのベース座標は、(OBJX1,OBJY1)、(OBJX2,OBJY2)、(OBJX3,OBJY3)、(OBJX4,OBJY4)である。
FIG. 16 is a diagram showing an example of base coordinates of a virtual object according to an embodiment of the present invention. The base coordinates are coordinates that specify the coordinates of the four corners of the area for displaying the virtual object, and are calculated by the calculation method shown in step S1415 of FIG. 14 based on the coordinates of the four corners of the AR marker detected in the real image. It is calculated.
For example, the base coordinates of the virtual object shown in FIG. 16 are (OBJX1, OBJY1), (OBJX2, OBJY2), (OBJX3, OBJY3), and (OBJX4, OBJY4).
本発明の実施形態に係る仮想オブジェクトの形式及び位置を示す表示パターンは、同時に検知した複数の異なるARマーカの種類、数、位置等に基づいて決定される。また、上述したように、仮想オブジェクトを表示する領域の4隅の座標は、検知した全てのARマーカの4隅の座標に基づいて計算される。以下では、図17〜図18を参照して、本発明の実施形態に係る仮想オブジェクトの表示パターンの例について説明する。 The display pattern indicating the format and position of the virtual object according to the embodiment of the present invention is determined based on the types, numbers, positions, and the like of a plurality of different AR markers detected at the same time. Further, as described above, the coordinates of the four corners of the area for displaying the virtual object are calculated based on the coordinates of the four corners of all the detected AR markers. Hereinafter, an example of a virtual object display pattern according to an embodiment of the present invention will be described with reference to FIGS. 17 to 18.
図17は、ARマーカが横に並んでいる場合の、仮想オブジェクトの表示パターンの一例を示す図である。図17に示すように、ARマーカ1710、ARマーカ1720、及びARマーカ1730が横に並んでいる場合には、オブジェクト作成部がそれぞれのARマーカ1710、1720、1730の4隅の座標を特定し、これらの座標から仮想オブジェクト1750のベース座標を計算すると、作成される仮想オブジェクト1750のベース座標がARマーカ1710の左下の隅、ARマーカ1710の左上の隅、ARマーカ1730の右下の隅、及びARマーカ1730の右上の隅に該当する座標となる。その結果、ARマーカ1710、1720、1730に応じて作成される仮想オブジェクト1750は、ARマーカ1710、1720、1730が占領していた領域に表示されることとなる。
FIG. 17 is a diagram showing an example of a display pattern of a virtual object when AR markers are arranged side by side. As shown in FIG. 17, when the
図18は、ARマーカが無秩序に並んでいる場合の、仮想オブジェクトの表示パターンの一例を示す図である。図17に示すように、ARマーカ1810、ARマーカ1820、及びARマーカ1830が無秩序に並んでいる場合には、オブジェクト作成部がそれぞれのARマーカ1810、1820、1830の4隅の座標を特定し、これらの座標から仮想オブジェクト1850のベース座標を計算すると、作成される仮想オブジェクト1850のベース座標がARマーカ1810の左の隅、ARマーカ1820の下の隅、ARマーカ1830の上の隅、及びARマーカ1830の右に住みに該当する座標となる。その結果、ARマーカ1810、1820、1830に応じて作成される仮想オブジェクト1850は、ARマーカ1810、1820、及び1830を囲む四角い領域に表示されることとなる。
FIG. 18 is a diagram showing an example of a display pattern of virtual objects when AR markers are arranged in a disorderly manner. As shown in FIG. 17, when the
次に、図19〜図21を参照して、本発明の実施形態に係る情報表示手段をサーバの保守作業に適用した具体例について説明する。 Next, a specific example in which the information display means according to the embodiment of the present invention is applied to the maintenance work of the server will be described with reference to FIGS. 19 to 21.
図19は、サーバラックに配置されているサーバに付いている1つのARマーカ1925を含む現実映像1920と、このARマーカ1925に応じて作成される仮想オブジェクト1945を含む拡張現実映像1940とを示す図である。図19に示す現実映像1920が撮影され、ARマーカ1925が上述したデータ分析部によって認識されると、仮想オブジェクト1945を含む拡張現実映像1940がオブジェクト作成部及び拡張現実管理部によって作成され、端末装置の映像表示部に表示される。
FIG. 19 shows a
上述したように、データ分析部は、ARマーカ1925を認識すると、ARマーカの数、種類、及び位置に基づいて、仮想オブジェクトの表示パターンを決定する。次、オブジェクト作成部は、ARマーカ1925に該当する情報をストレージ部から取得して、この情報を示す仮想オブジェクト1945を作成する。その後、拡張現実管理部は、仮想オブジェクト1945を、データ分析部が決定した表示パターンに従って、現実映像1920に重畳した拡張現実映像1940を端末装置の映像表示部に表示する。
As described above, when the data analysis unit recognizes the
例えば、図19に示すように、ARマーカに応じて作成される仮想オブジェクト1945は、CPU温度、気温、及び湿度に関する情報を示してもよい。このように、サーバの保守作業を行う作業者は、サーバの診断を手動で行うことなく、サーバの状態を示す情報を簡単に確認することができる。
For example, as shown in FIG. 19, the
図20は、サーバラックに配置されている6台のサーバに付いている6つのARマーカを含む現実映像2020と、この6つのARマーカに応じて作成される拡張現実映像2040とを示す図である。図20に示す現実映像2020が撮影され、この6つのARマーカが上述したデータ分析部によって認識されると、仮想オブジェクト2045を含む拡張現実映像2040がオブジェクト作成部及び拡張現実管理部によって作成され、端末装置の映像表示部に表示される。
FIG. 20 is a diagram showing a
上述したように、認識されるARマーカの数が所定の数(例えば4つ以上)を超える場合には、それぞれのARマーカに紐づいた情報を1つのまとめた仮想オブジェクトとして表示することが好ましいことがある。従って、図20に示すように、認識されるARマーカの数が所定の数を超える場合には、オブジェクト作成部は、認識したARマーカに該当し、ストレージ部に格納されている情報に基づいて、サーバラック全体の状態(正常か異常か)を示す仮想オブジェクト2045を作成してもよい。
このように、サーバの保守作業を行う作業者は、サーバ一つ一つを診断することなく、サーバラック全体の状態を簡単に確認することができる。
As described above, when the number of recognized AR markers exceeds a predetermined number (for example, four or more), it is preferable to display the information associated with each AR marker as one collective virtual object. Sometimes. Therefore, as shown in FIG. 20, when the number of recognized AR markers exceeds a predetermined number, the object creation unit corresponds to the recognized AR markers and is based on the information stored in the storage unit. , You may create a
In this way, the worker who performs the maintenance work of the server can easily check the state of the entire server rack without diagnosing each server.
図21は、本発明の実施形態に係る注目点分析をサーバラックの保守作業に適用した具体例を示す図である。 FIG. 21 is a diagram showing a specific example in which the point of interest analysis according to the embodiment of the present invention is applied to the maintenance work of the server rack.
この具体例では、ARマーカに対応する仮想オブジェクトを含む拡張現実映像が既に作成され、表示されていることを前提とする。例えば、図21に示すように、サーバラックに配置されている複数のサーバ毎に、そのサーバの状態(正常又は異常)を示す仮想オブジェクト2120A,2120B,2120Cが表示されているとする。視線分析部(例えば図2に示す視線分析部232)は、ユーザの注目点が1台のサーバに対応する仮想オブジェクト2120Aに向けられていると判定すると、このサーバ(すなわち、仮想オブジェクト2120A)のCPUに関する付加情報であるCPU温度、気温、湿度等を示す仮想オブジェクト2140を拡張現実映像2110に追加してもよい。
In this specific example, it is assumed that the augmented reality image including the virtual object corresponding to the AR marker has already been created and displayed. For example, as shown in FIG. 21, it is assumed that
次に、視線分析部は、ユーザの注目点がサーバのCPUを示す仮想オブジェクト2140に移ったと判定すると、このCPUのそれぞれのコアの使用率を示す情報を仮想オブジェクト2142として表示してもよい。また、次に、視線分析部は、ユーザの注目点がコアの使用率を示す仮想オブジェクト2142に移ったと判定すると、このコアの使用率の推移を示すグラフを仮想オブジェクト2144として表示してもよい。更に、視線分析部は、ユーザの注目点がコアの使用率の推移を示すを仮想オブジェクト2144に移ったと判定すると、この推移に対応する作業日誌を示す仮想オブジェクト2146を表示してもよい。
Next, when the line-of-sight analysis unit determines that the user's attention has shifted to the
このように、ユーザの視線によって計算される注目点を用いることで、ユーザは拡張現実映像に表示される仮想オブジェクトを目線だけで操作できるため、両手が自由に使え、サーバラック保守等の作業をより容易に行うことができる。 In this way, by using the points of interest calculated by the user's line of sight, the user can operate the virtual object displayed in the augmented reality image only with the line of sight, so both hands can be used freely, and work such as server rack maintenance can be performed. It can be done more easily.
次に、図22〜図24を参照して、本発明の実施形態に係る情報表示手段をサーバの保守作業に適用した場合に、必要なデータをデータベースから取得する例について説明する。 Next, an example of acquiring necessary data from the database when the information display means according to the embodiment of the present invention is applied to the maintenance work of the server will be described with reference to FIGS. 22 to 24.
図22は、サーバラックに配置されているサーバに付いているARマーカ2225を含む現実映像2220と、このARマーカ2225にユーザの注目点2235が向けられた場合に作成される仮想オブジェクト2255を含む拡張現実映像2250とを示す図である。
FIG. 22 includes a
上述したように、ARマーカ及び拡張現実映像に重畳される仮想オブジェクトは、複数のエリアに分割されており、それぞれのエリアにおいて、異なる非表示情報が埋め込まれている。この非表示情報は、仮想オブジェクトとなる付加情報、当該付加情報の保存先、及び仮想オブジェクトの表示パターンを指定する。
視線分析部は、ユーザの注目点2235がARマーカ2225の特定のエリアに向けられていると判定した場合、そのエリアに埋め込まれている非表示情報に指定されている情報を指定されているテーブル(例えば、後述する付加情報管理テーブル1100)から取得し、当該情報(CPU温度,気温,湿度等)に応じた仮想オブジェクト2255を、非表示情報によって指定されている表示パターン(例えば、表形式)に従って作成し、拡張現実映像2250に追加する。
As described above, the AR marker and the virtual object superimposed on the augmented reality image are divided into a plurality of areas, and different hidden information is embedded in each area. This non-display information specifies additional information to be a virtual object, a storage destination of the additional information, and a display pattern of the virtual object.
When the line-of-sight analysis unit determines that the user's
図23は、仮想オブジェクト2320に含まれるエリアの一例を示す図である。図23に示すように、仮想オブジェクト2320は、三つのエリア2322、2324、2326に分割されている。それぞれのエリアには、異なる仮想オブジェクトを作成するために用いる付加情報と、その付加情報の形式とを指定する非表示情報が埋め込まれている。
例えば、視線分析部は、ユーザの注目点がCPU温度の情報が表示されているエリア2322に向けられていると判定した場合、エリア2322に埋め込まれている非表示情報に従って、上述した付加情報管理テーブル1100から、過去1時間までの、CPUプロセス名毎のCPU使用率を取得し、その平均値を表の形式で表示する仮想オブジェクト2330を作成してもよい。
FIG. 23 is a diagram showing an example of an area included in the
For example, when the line-of-sight analysis unit determines that the user's attention point is directed to the
また、仮想オブジェクト2320と同様に、新たに作成される仮想オブジェクト2330は、複数のエリア2332、2334、2336に分割されており、それぞれのエリアに非表示情報が埋め込まれている。そのため、図24に示すように、視線分析部は、ユーザの注目点が仮想オブジェクト2330の特定のエリアに向けられていると判定した場合には、そのエリアの非表示情報に従って、新たな仮想オブジェクト2340を作成してもよい。
例えば、図24に示すように、視線分析部は、ユーザの注目点が特定のプロセスxx1の情報が表示されているエリア2332に向けられていると判定した場合、エリア2332に埋め込まれている非表示情報に従って、上述した付加情報管理テーブル1100から、プロセスxx1のCPU使用率の時間変化の様子をグラフ形式で表示する仮想オブジェクト2340を追加で作成してもよい。
Further, similarly to the
For example, as shown in FIG. 24, when the line-of-sight analysis unit determines that the user's point of interest is directed to the
次に、図25を参照して、仮想オブジェクトを固定する動作の一例について説明する。 Next, an example of the operation of fixing the virtual object will be described with reference to FIG. 25.
図25は、本発明の実施形態に係る仮想オブジェクトを固定する動作の一例を示す図である。本発明の実施形態に係る情報表示手段を利用する際には、複数の異なるARマーカの仮想オブジェクトを同時に表示することが望ましい場合がある。例えば、本発明に係る情報表示手段をサーバの保守作業に適用した場合には、ユーザは複数のサーバの情報(CPU温度、近、温度等)を比較したいケースが考えられる。そのため、本発明に係る態様の1つでは、ユーザは、表示中の仮想オブジェクトを特定の動作で固定した状態で、別のARマーカに関する仮想オブジェクトを表示させることができる。
ここで、仮想オブジェクトを固定するための動作は、例えばウインク(片目の瞬き)であってもよい。
FIG. 25 is a diagram showing an example of an operation of fixing a virtual object according to an embodiment of the present invention. When using the information display means according to the embodiment of the present invention, it may be desirable to display a plurality of virtual objects of different AR markers at the same time. For example, when the information display means according to the present invention is applied to server maintenance work, a user may want to compare information (CPU temperature, near temperature, temperature, etc.) of a plurality of servers. Therefore, in one of the aspects according to the present invention, the user can display a virtual object related to another AR marker in a state where the virtual object being displayed is fixed by a specific operation.
Here, the operation for fixing the virtual object may be, for example, a wink (blink of one eye).
一例として、例えば図25に示すように、1つのサーバの情報を示す仮想オブジェクト2520が表示されている状態で、ユーザがウインク等の特定の動作を行うことにより、仮想オブジェクトが固定される。その後、ユーザは、注目点を別のARマーカに移すことで、注目の対象となっているサーバに関する新たな仮想オブジェクト2530が表示される。このように、ユーザは複数のサーバの状態に関する状態を同時に見ることができるため、サーバ保守の作業効率を向上させることができる。
As an example, as shown in FIG. 25, the virtual object is fixed by the user performing a specific operation such as winking while the
以上、本発明の実施の形態について説明したが、本発明は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。 Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present invention.
210A、210B データ取得装置
212A、212B センサー部
214A、214B データ送受信部
220 制御装置
222 データ送受信部
224 データ分析部
226 ストレージ部
228 オブジェクト作成部
230 拡張現実管理部
232 視線分析部
240 端末装置
241 データ送受信部
242 カメラ部
244 映像表示部
210A, 210B Data acquisition device 212A, 212B Sensor unit 214A, 214B Data transmission / reception unit 220 Control device 222 Data transmission / reception unit 224 Data analysis unit 226 Storage unit 228 Object creation unit 230 Augmented reality management unit 232 Line-of-
Claims (7)
複数のARマーカーを含む現実映像をカメラから取得するデータ送受信部と、
前記現実映像におけるARマーカーのタグ情報、種類及び数を判定し、前記ARマーカーの種類及び数に基づいて第1の仮想オブジェクトのための第1の表示パターンを決定するデータ分析部と、
前記ARマーカーのタグ情報に基づいて、前記第1の仮想オブジェクトとなる第1の付加情報を仮想オブジェクト情報管理データベースから取得し、前記第1の付加情報に基づいて前記第1の仮想オブジェクトを作成するオブジェクト作成部と、
決定した前記第1の表示パターンに従って、作成した前記第1の仮想オブジェクトを前記現実映像に重ね合わせた第1の拡張現実映像を作成し、出力する拡張現実管理部と、
を特徴とする情報表示装置。 It is an information display device
A data transmitter / receiver that acquires a real image including multiple AR markers from the camera,
A data analysis unit that determines the tag information, type and number of AR markers in the real image, and determines the first display pattern for the first virtual object based on the type and number of AR markers.
Based on the tag information of the AR marker, the first additional information to be the first virtual object is acquired from the virtual object information management database, and the first virtual object is created based on the first additional information. Object creation part and
An augmented reality management unit that creates and outputs a first augmented reality image in which the created first virtual object is superimposed on the reality image according to the determined first display pattern.
An information display device characterized by.
前記第1の拡張現実映像における利用者の視線位置を判定する視線分析部を更に含み、
前記視線位置が前記第1の仮想オブジェクトに向けられていると判定する場合には、
前記データ分析部は、
前記第1の仮想オブジェクトに基づいて、第2の仮想オブジェクトのための第2の表示パターンを決定し、
前記オブジェクト作成部は、
前記第1の仮想オブジェクトに基づいて、前記第2の仮想オブジェクトとなる第2の付加情報を前記仮想オブジェクト情報管理データベースから取得し、前記第2の付加情報に基づいて前記第2の仮想オブジェクトを作成し、
前記拡張現実管理部は、
前記第2の表示パターンに従って、作成した前記第2の仮想オブジェクトを前記第1の拡張現実映像に重ね合わせた第2の拡張現実映像を作成し、出力する、
ことを特徴とする請求項1に記載の情報表示装置。 The information display device is
It further includes a line-of-sight analysis unit that determines the line-of-sight position of the user in the first augmented reality image.
When it is determined that the line-of-sight position is directed to the first virtual object,
The data analysis unit
Based on the first virtual object, a second display pattern for the second virtual object is determined.
The object creation unit
Based on the first virtual object, the second additional information to be the second virtual object is acquired from the virtual object information management database, and the second virtual object is obtained based on the second additional information. make,
The augmented reality management department
According to the second display pattern, a second augmented reality image is created and output by superimposing the created second virtual object on the first augmented reality image.
The information display device according to claim 1.
複数のエリアに分割されており、
それぞれのエリアにおいて、前記第2の仮想オブジェクトとなる第2の付加情報と、前記第2の仮想オブジェクトの表示パターンとを指定する非表示情報が埋め込まれており、
前記データ分析部は、
前記利用者の視線位置が向けられているエリアに埋め込まれている非表示情報を用いて、前記第2の仮想オブジェクトのための前記第2の表示パターンを決定する、
ことを特徴とする請求項2に記載の情報表示装置。 The first virtual object is
It is divided into multiple areas
In each area, the second additional information that becomes the second virtual object and the non-display information that specifies the display pattern of the second virtual object are embedded.
The data analysis unit
Using the hidden information embedded in the area to which the user's line of sight is directed, the second display pattern for the second virtual object is determined.
The information display device according to claim 2, wherein the information display device is characterized by the above.
前記第1の仮想オブジェクトに対する所定のユーザ動作を検知すると、
前記第1の仮想オブジェクトの表示位置及び表示形式を固定する、
ことを特徴とする請求項2に記載の情報表示装置。 The line-of-sight analysis unit
When a predetermined user action for the first virtual object is detected,
The display position and display format of the first virtual object are fixed.
The information display device according to claim 2, wherein the information display device is characterized by the above.
ことを特徴とする請求項1に記載の情報表示装置。 The first display pattern specifies the display coordinates and the display format of the first virtual object.
The information display device according to claim 1.
前記情報表示方法は、
複数のARマーカーを含む現実映像をカメラから取得する工程と、
前記現実映像におけるARマーカーのタグ情報、種類及び数を判定し、前記ARマーカーの
種類及び数に基づいて第1の仮想オブジェクトのための第1の表示パターンを決定する工程と、
前記ARマーカーのタグ情報に基づいて、前記第1の仮想オブジェクトとなる第1の付加情報を仮想オブジェクト情報管理データベースから取得し、前記第1の付加情報に基づいて前記第1の仮想オブジェクトを作成する工程と、
決定した前記第1の表示パターンに従って、作成した前記第1の仮想オブジェクトを前記現実映像に重ね合わせた第1の拡張現実映像を作成し、出力する工程と、
を含む情報表示方法。 An information display method executed by an information display device.
The information display method is
The process of acquiring a real image including multiple AR markers from the camera,
A step of determining the tag information, type and number of AR markers in the real image, and determining a first display pattern for the first virtual object based on the type and number of AR markers.
Based on the tag information of the AR marker, the first additional information to be the first virtual object is acquired from the virtual object information management database, and the first virtual object is created based on the first additional information. And the process to do
A process of creating and outputting a first augmented reality image in which the created first virtual object is superimposed on the reality image according to the determined first display pattern.
Information display method including.
前記データ取得端末は、
周囲に環境に関するセンサーデータを取得するセンサー部と、
前記センサーデータを前記制御装置に送信する第1のデータ送受信部とを含み、
前記端末装置は、
複数のARマーカーを含む現実映像を取得するカメラ部と、
前記複数のARマーカーを含む前記現実映像を前記制御装置に送信する第2のデータ送受信部と、
前記制御装置から受信する拡張現実映像を表示する映像表示部とを含み、
前記制御装置は、
前記複数のARマーカーを含む前記現実映像を前記端末装置から受信し、前記センサーデータを前記データ取得端末から受信する第3のデータ送受信部と、
前記データ取得端末から受信する前記センサーデータを、仮想オブジェクトを生成するための付加情報として格納する仮想オブジェクト情報管理データベースと、
前記複数のARマーカーを含む前記現実映像におけるARマーカーのタグ情報、種類及び数を判定し、前記ARマーカーの種類及び数に基づいて第1の仮想オブジェクトのための第1の表示パターンを決定するデータ分析部と、
前記ARマーカーのタグ情報に基づいて、前記第1の仮想オブジェクトとなる第1の付加情報を前記仮想オブジェクト情報管理データベースから取得し、前記第1の付加情報に基づいて前記第1の仮想オブジェクトを作成するオブジェクト作成部と、
決定した前記第1の表示パターンに従って、作成した前記第1の仮想オブジェクトを前記現実映像に重ね合わせた第1の拡張現実映像を作成し、前記端末装置に出力する拡張現実管理部と、
を特徴とする情報表示システム。 An information display system in which a data acquisition terminal, a control device, and a terminal device are connected via a communication network.
The data acquisition terminal is
A sensor unit that acquires sensor data related to the surrounding environment,
Including a first data transmission / reception unit that transmits the sensor data to the control device.
The terminal device is
A camera unit that acquires real-life images including multiple AR markers,
A second data transmission / reception unit that transmits the real image including the plurality of AR markers to the control device, and
Including an image display unit that displays an augmented reality image received from the control device.
The control device is
A third data transmission / reception unit that receives the real image including the plurality of AR markers from the terminal device and receives the sensor data from the data acquisition terminal.
A virtual object information management database that stores the sensor data received from the data acquisition terminal as additional information for generating a virtual object, and a virtual object information management database.
The tag information, type and number of AR markers in the real image including the plurality of AR markers are determined, and the first display pattern for the first virtual object is determined based on the types and numbers of the AR markers. Data analysis department and
Based on the tag information of the AR marker, the first additional information to be the first virtual object is acquired from the virtual object information management database, and the first virtual object is obtained based on the first additional information. The object creation part to be created and
An augmented reality management unit that creates a first augmented reality image by superimposing the created first virtual object on the reality image according to the determined first display pattern and outputs the first augmented reality image to the terminal device.
An information display system featuring.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019165916A JP7419003B2 (en) | 2019-09-12 | 2019-09-12 | Information display device, information display method, and information display system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019165916A JP7419003B2 (en) | 2019-09-12 | 2019-09-12 | Information display device, information display method, and information display system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021043752A true JP2021043752A (en) | 2021-03-18 |
JP7419003B2 JP7419003B2 (en) | 2024-01-22 |
Family
ID=74863075
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019165916A Active JP7419003B2 (en) | 2019-09-12 | 2019-09-12 | Information display device, information display method, and information display system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7419003B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113791495A (en) * | 2021-08-27 | 2021-12-14 | 优奈柯恩(北京)科技有限公司 | Method, device, equipment and computer readable medium for displaying information |
CN114900530A (en) * | 2022-04-22 | 2022-08-12 | 冠捷显示科技(厦门)有限公司 | Display device and metastic physical and virtual switching and integrating system and method thereof |
CN116212361A (en) * | 2021-12-06 | 2023-06-06 | 广州视享科技有限公司 | Virtual object display method and device and head-mounted display device |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016018367A (en) * | 2014-07-08 | 2016-02-01 | 沖電気工業株式会社 | Information processing apparatus, information processing method, and program |
JP2018005477A (en) * | 2016-06-30 | 2018-01-11 | 富士通株式会社 | Display control program, display control method and display control device |
JP2019032713A (en) * | 2017-08-08 | 2019-02-28 | キヤノン株式会社 | Information processing device, information processing method, and program |
-
2019
- 2019-09-12 JP JP2019165916A patent/JP7419003B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016018367A (en) * | 2014-07-08 | 2016-02-01 | 沖電気工業株式会社 | Information processing apparatus, information processing method, and program |
JP2018005477A (en) * | 2016-06-30 | 2018-01-11 | 富士通株式会社 | Display control program, display control method and display control device |
JP2019032713A (en) * | 2017-08-08 | 2019-02-28 | キヤノン株式会社 | Information processing device, information processing method, and program |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113791495A (en) * | 2021-08-27 | 2021-12-14 | 优奈柯恩(北京)科技有限公司 | Method, device, equipment and computer readable medium for displaying information |
CN116212361A (en) * | 2021-12-06 | 2023-06-06 | 广州视享科技有限公司 | Virtual object display method and device and head-mounted display device |
CN116212361B (en) * | 2021-12-06 | 2024-04-16 | 广州视享科技有限公司 | Virtual object display method and device and head-mounted display device |
CN114900530A (en) * | 2022-04-22 | 2022-08-12 | 冠捷显示科技(厦门)有限公司 | Display device and metastic physical and virtual switching and integrating system and method thereof |
Also Published As
Publication number | Publication date |
---|---|
JP7419003B2 (en) | 2024-01-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021073268A1 (en) | Augmented reality data presentation method and apparatus, electronic device, and storage medium | |
US10089794B2 (en) | System and method for defining an augmented reality view in a specific location | |
Zhou et al. | Trends in augmented reality tracking, interaction and display: A review of ten years of ISMAR | |
Grasset et al. | Image-driven view management for augmented reality browsers | |
CN105264548B (en) | For generating the label inconspicuous of augmented reality experience | |
WO2022022036A1 (en) | Display method, apparatus and device, storage medium, and computer program | |
CN104871214B (en) | For having the user interface of the device of augmented reality ability | |
EP2508975B1 (en) | Display control device, display control method, and program | |
US20150138065A1 (en) | Head-mounted integrated interface | |
US20140152869A1 (en) | Methods and Systems for Social Overlay Visualization | |
US11232636B2 (en) | Methods, devices, and systems for producing augmented reality | |
US20130135295A1 (en) | Method and system for a augmented reality | |
CN109117684A (en) | System and method for the selective scanning in binocular augmented reality equipment | |
JP7419003B2 (en) | Information display device, information display method, and information display system | |
CN107004279A (en) | Natural user interface camera calibrated | |
JP2017068851A (en) | Information processing device, information processing system, control method thereof, and program | |
CN117197403A (en) | Mixed reality system and method for generating virtual content using the same | |
JP2022505998A (en) | Augmented reality data presentation methods, devices, electronic devices and storage media | |
JP2011227649A (en) | Image processing system, image processing device, image processing method and program | |
CN108594999A (en) | Control method and device for panoramic picture display systems | |
JP7043601B2 (en) | Methods and devices for generating environmental models and storage media | |
JP2016122392A (en) | Information processing apparatus, information processing system, control method and program of the same | |
CN110622110A (en) | Method and apparatus for providing immersive reality content | |
KR20180120456A (en) | Apparatus for providing virtual reality contents based on panoramic image and method for the same | |
KR20190128992A (en) | Information processing apparatus, information processing method, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220822 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230821 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230926 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231016 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240110 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7419003 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |