JP2023044464A - Picture display system, device for displaying picture, and method for displaying picture - Google Patents

Picture display system, device for displaying picture, and method for displaying picture Download PDF

Info

Publication number
JP2023044464A
JP2023044464A JP2021152509A JP2021152509A JP2023044464A JP 2023044464 A JP2023044464 A JP 2023044464A JP 2021152509 A JP2021152509 A JP 2021152509A JP 2021152509 A JP2021152509 A JP 2021152509A JP 2023044464 A JP2023044464 A JP 2023044464A
Authority
JP
Japan
Prior art keywords
image
coordinate system
feature point
unit
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021152509A
Other languages
Japanese (ja)
Inventor
竜志 鵜飼
Ryuji UKAI
敏 大内
Satoshi Ouchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2021152509A priority Critical patent/JP2023044464A/en
Publication of JP2023044464A publication Critical patent/JP2023044464A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a technique that allows an accurate overlap of a real space and a virtual space without much delay of follow-up of a picture to motions of a user.SOLUTION: A picture display system according to one preferred aspect of the present invention includes a feature point position recognition unit, a coordinate processing unit, and a picture display processing unit. The feature point position recognition unit recognizes the position of a feature point of a target on the basis of an image taken by an imaging unit. The coordinate processing unit determines a reference coordinate system on the basis of the position of the feature point, detects a motion of the imaging unit on the basis of sensor information shown by the sensor unit, and corrects the display position of a picture on the basis of the motion of the imaging unit. The picture display unit displays a picture in the corrected display position of a picture when displaying a picture on the basis of the reference coordinate system.SELECTED DRAWING: Figure 1

Description

本発明は映像を表示する技術に関し、特に現実空間に仮想空間の映像を重畳する技術に関する。 The present invention relates to technology for displaying images, and more particularly to technology for superimposing images in virtual space on real space.

現実空間に仮想空間の映像を重畳することで利用者に情報を提示する、ヘッドマウントディスプレイ(HMD)などの映像表示装置及び映像表示システムが知られている。工場などでは、作業工程などのコンテンツを見ながら作業を行うケースがあるが、作業対象の近くにディスプレイなどを配置することが難しい場合がある。そのようなとき、ヘッドマウントディスプレイなどの映像表示装置を使用すれば、作業者は映像表示装置に表示される作業指示などを参照しながら作業を行うことができ、作業効率を改善することができる。 2. Description of the Related Art Video display devices and video display systems, such as head-mounted displays (HMDs), are known that present information to users by superimposing video in virtual space on real space. In factories, etc., there are cases where work is performed while viewing content such as the work process, but it is sometimes difficult to place a display or the like near the work target. In such cases, if a video display device such as a head-mounted display is used, the worker can perform the work while referring to the work instructions displayed on the video display device, thereby improving work efficiency. .

特許文献1には、頭部装着型表示装置において、ユーザから見易い位置に仮想空間を配置してユーザの見たい画像を快適に選択表示することについて記載がある。 Japanese Patent Application Laid-Open No. 2002-200002 describes that, in a head-mounted display device, a virtual space is arranged at a position that is easy for the user to view, and an image that the user wants to see is comfortably selected and displayed.

特許文献2には、カメラの取得画像に基づいて撮影画像に含まれる特徴点の三次元位置を算出する構成について記載がある。 Patent Document 2 describes a configuration for calculating the three-dimensional position of a feature point included in a captured image based on an image captured by a camera.

特開2020-123260号公報Japanese Unexamined Patent Application Publication No. 2020-123260 特開2008-304269号公報Japanese Patent Application Laid-Open No. 2008-304269

利用者が作業指示などのコンテンツを見ながら作業を行う場合、現実空間と仮想空間の位置関係が重要である。利用者が頭部を回転若しくは移動させた場合に、現実空間と仮想空間の位置関係が変わってしまうと、利用者は違和感を覚える場合や、誤った作業指示を受領する場合がある。 When a user works while looking at contents such as work instructions, the positional relationship between the real space and the virtual space is important. If the positional relationship between the real space and the virtual space changes when the user rotates or moves the head, the user may feel uncomfortable or may receive an incorrect work instruction.

特許文献1に記載された頭部装着型表示装置では、利用者の腰部に対する頭部の差分回転量を算出し、頭部の差分回転量に応じて仮想空間に表示する表示コンテンツを変更することで、現実空間と仮想空間の位置関係を合わせている。しかしながら、利用者の動きを基にコンテンツの表示位置を決定しているため、頭部が回転していなくても経時変化によりコンテンツがドリフトしてしまう場合がある。 In the head-mounted display device described in Patent Document 1, the differential amount of rotation of the head with respect to the waist of the user is calculated, and the display content displayed in the virtual space is changed according to the differential amount of rotation of the head. So, the positional relationship between the real space and the virtual space is matched. However, since the display position of the content is determined based on the movement of the user, the content may drift over time even if the head does not rotate.

また、特許文献2ではSLAM(Simultaneous Localization and Mapping)により自己位置推定と環境地図作成を行う情報処理装置が開示されているが、SLAMは計算処理に多大な時間を要するため、SLAMを利用して現実空間を認識して現実空間と仮想空間の位置関係を合わせた場合では利用者の頭部の回転に映像表示装置の映像変更が追従できない、換言すれば遅延が発生するという問題がある。 Further, Patent Document 2 discloses an information processing device that performs self-position estimation and environment map creation by SLAM (Simultaneous Localization and Mapping). If the real space is recognized and the positional relationship between the real space and the virtual space is aligned, there is a problem that the image change of the image display device cannot follow the rotation of the user's head, in other words, a delay occurs.

本発明は、上記課題を解決すべくなされたものであり、本発明の目的は、利用者の動きに対する映像追従の遅延が少なく、現実空間と仮想空間の位置精度の高い重畳が可能な技術を提供することにある。 The present invention has been made to solve the above-mentioned problems, and an object of the present invention is to develop a technology that can superimpose the real space and the virtual space with high positional accuracy with little delay in following the motion of the user. to provide.

本発明の好ましい一側面は、映像表示システムにおいて、特徴点位置認識部と、座標処理部と、映像表示処理部と、を備え、前記特徴点位置認識部は、撮像部で撮影した撮像画像を基に対象物の特徴点の位置を認識し、前記座標処理部は、前記特徴点の位置を基に基準座標系を決定するとともに、センサ部が示すセンサ情報を基に前記撮像部の動きを検出し、映像の表示位置を前記撮像部の動きに基づいて補正し、前記映像表示処理部は、前記基準座標系に基づいて映像を表示する際に、補正された映像の表示位置に映像を表示させる、ことを特徴とする映像表示システムである。 A preferred aspect of the present invention is a video display system comprising a feature point position recognition unit, a coordinate processing unit, and a video display processing unit, wherein the feature point position recognition unit recognizes an image captured by an imaging unit. The coordinate processing unit determines a reference coordinate system based on the position of the feature point, and determines the movement of the imaging unit based on the sensor information indicated by the sensor unit. and corrects the display position of the image based on the movement of the imaging unit, and the image display processing unit displays the image at the corrected display position of the image when displaying the image based on the reference coordinate system. It is a video display system characterized by displaying.

本発明の好ましい他の一側面は、映像を表示する映像表示装置において、対象物を撮影して撮像画像を取得する撮像部と、前記撮像部の動きを検出するセンサ部と、特徴点位置認識部と、座標処理部と、映像表示処理部と、映像を表示する映像表示部と、を備え、前記特徴点位置認識部は、前記撮像画像を基に前記対象物の特徴点の位置を認識し、前記座標処理部は、前記特徴点の位置を基に基準座標系を決定するとともに、前記撮像部の動きに基づいて前記映像表示部が表示する映像の位置の補正情報を生成し、前記映像表示処理部は、前記基準座標系と前記補正情報に基づいて、前記映像の表示位置を決定し、前記映像表示部は、決定された表示位置に映像を表示する、ことを特徴とする映像表示装置である。 Another preferred aspect of the present invention is a video display device for displaying video, comprising: an imaging unit that captures an image of an object and acquires a captured image; a sensor unit that detects movement of the imaging unit; a coordinate processing unit; an image display processing unit; The coordinate processing unit determines a reference coordinate system based on the position of the feature point, generates correction information for the position of the image displayed by the image display unit based on the movement of the imaging unit, and The image display processing unit determines a display position of the image based on the reference coordinate system and the correction information, and the image display unit displays the image at the determined display position. It is a display device.

本発明の好ましい他の一側面は、所望のコンテンツを表示する映像表示方法であって、カメラで撮影した画像中の物体の特徴点の位置を認識する第1のステップ、前記特徴点に基づいて基準座標系を決定する第2のステップ、前記カメラの動きを検知する第3のステップ、前記基準座標系に基づいて前記コンテンツを表示する際に、前記カメラの動きに基づいて前記コンテンツの表示位置を補正する第4のステップ、を実行する映像表示方法である。 Another preferred aspect of the present invention is a video display method for displaying desired content, comprising: a first step of recognizing the position of a feature point of an object in an image captured by a camera; a second step of determining a reference coordinate system; a third step of detecting movement of the camera; and determining a display position of the content based on the movement of the camera when displaying the content based on the reference coordinate system. and a fourth step of correcting the image display method.

本発明によれば、利用者の動きに対する映像追従の遅延が少なく、現実空間と仮想空間の位置精度の高い重畳が可能な技術を提供できる。前述した以外の課題、構成及び効果は、以下の実施例の説明によって明らかにされる。 According to the present invention, it is possible to provide a technology capable of superimposing the real space and the virtual space with high positional accuracy with little delay in following the motion of the user. Problems, configurations, and effects other than those described above will be clarified by the following description of the embodiments.

実施例に係る映像表示装置の機能ブロックの一例を示すブロック図。1 is a block diagram showing an example of functional blocks of a video display device according to an embodiment; FIG. 実施例に係る映像表示装置のハードウェア構成の一構成例を示すブロック図。1 is a block diagram showing an example of a hardware configuration of a video display device according to an embodiment; FIG. 実施例の映像表示装置の一例と利用者を示す模式図。1 is a schematic diagram showing an example of a video display device of an embodiment and a user. FIG. 実施例の映像表示装置の例を示す斜視図。1 is a perspective view showing an example of a video display device according to an embodiment; FIG. 実施例1に係る現実空間と座標系の関係の一例を示す模式図。4A and 4B are schematic diagrams showing an example of a relationship between a physical space and a coordinate system according to the first embodiment; FIG. 実施例1のコンテンツ表示に係るフローチャートの一例を示す流れ図。4 is a flowchart showing an example of a flowchart relating to content display according to the first embodiment; FIG. 実施例1のコンテンツ表示に係る別のフローチャートの一例を示す流れ図。FIG. 10 is a flowchart showing another example of a flowchart relating to content display of the first embodiment; FIG. 実施例に係る特徴点の例を示す模式図。FIG. 4 is a schematic diagram showing an example of feature points according to an embodiment; 実施例に係る映像表示処理部による表示コンテンツの決定方法の一例を示す模式図。FIG. 4 is a schematic diagram showing an example of a method of determining display content by a video display processing unit according to the embodiment; 実施例に係る映像表示処理部による表示コンテンツの決定方法の別の一例を示す模式図。FIG. 4 is a schematic diagram showing another example of a method of determining display content by the video display processing unit according to the embodiment; 実施例に係る映像表示装置が表示する表示コンテンツの位置の例を示す模式図。FIG. 4 is a schematic diagram showing an example of positions of display content displayed by the video display device according to the embodiment; 実施例2に係る特徴点と基準座標系の一例を示した模式図。FIG. 10 is a schematic diagram showing an example of a feature point and a reference coordinate system according to Example 2; 実施例2のコンテンツ表示に係るフローチャートの一例を示した流れ図。FIG. 11 is a flowchart showing an example of a flowchart relating to content display according to the second embodiment; FIG. 実施例3に係る映像表示装置の機能ブロックの一例を示したブロック図。FIG. 11 is a block diagram showing an example of functional blocks of a video display device according to a third embodiment; 実施例3に係る映像表示装置の一例を示した斜視図。FIG. 11 is a perspective view showing an example of a video display device according to Example 3; 実施例3の基準座標系決定に至るフローチャートの一例を示した流れ図。FIG. 11 is a flow chart showing an example of a flow chart leading to determination of a reference coordinate system according to the third embodiment; FIG. 実施例3に係る現実空間にマーカーを重畳表示する様子の一例を示す模式図。FIG. 11 is a schematic diagram showing an example of how markers are superimposed on the physical space according to the third embodiment; 実施例の映像表示装置を活用した第4の実施例である遠隔作業支援システムの構成図。The block diagram of the remote work support system which is 4th Example which utilized the image display apparatus of Example. 遠隔作業支援システムの映像情報伝送システム概要例を示すブロック図。FIG. 2 is a block diagram showing an example of an overview of a video information transmission system of a remote work support system; 実施例4に係る遠隔作業支援システムの一例を示す模式図。FIG. 11 is a schematic diagram showing an example of a remote work support system according to a fourth embodiment;

以下、本発明の実施例について、図面を用いて詳細に説明する。なお、以下の説明は、本発明の一実施形態を説明するためのものであり、本発明の範囲を制限するものではない。従って、当業者であればこれらの各要素又は全要素をこれと同等なものに置換した実施形態を採用することが可能であり、これらの実施形態も本発明の範囲に含まれる。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In addition, the following description is for describing one embodiment of the present invention, and does not limit the scope of the present invention. Therefore, those skilled in the art can adopt embodiments in which each or all of these elements are replaced with equivalents, and these embodiments are also included in the scope of the present invention.

以下に説明する実施例の構成において、同一部分又は同様な機能を有する部分には同一の符号を異なる図面間で共通して用い、重複する説明は省略することがある。 In the configurations of the embodiments described below, the same reference numerals may be used in common for the same parts or parts having similar functions in different drawings, and redundant description may be omitted.

同一あるいは同様な機能を有する要素が複数ある場合には、同一の符号に異なる添字を付して説明する場合がある。ただし、複数の要素を区別する必要がない場合には、添字を省略して説明する場合がある。 When there are a plurality of elements having the same or similar functions, they may be described with the same reference numerals and different suffixes. However, if there is no need to distinguish between multiple elements, the subscripts may be omitted.

本明細書等における「第1」、「第2」、「第3」などの表記は、構成要素を識別するために付するものであり、必ずしも、数、順序、もしくはその内容を限定するものではない。また、構成要素の識別のための番号は文脈毎に用いられ、一つの文脈で用いた番号が、他の文脈で必ずしも同一の構成を示すとは限らない。また、ある番号で識別された構成要素が、他の番号で識別された構成要素の機能を兼ねることを妨げるものではない。 Notations such as “first”, “second”, “third” in this specification etc. are attached to identify the constituent elements, and do not necessarily limit the number, order, or content thereof isn't it. Also, numbers for identifying components are used for each context, and numbers used in one context do not necessarily indicate the same configuration in other contexts. Also, it does not preclude a component identified by a certain number from having the function of a component identified by another number.

図面等において示す各構成の位置、大きさ、形状、範囲などは、発明の理解を容易にするため、実際の位置、大きさ、形状、範囲などを表していない場合がある。このため、本発明は、必ずしも、図面等に開示された位置、大きさ、形状、範囲などに限定されない。 The position, size, shape, range, etc. of each configuration shown in the drawings, etc. may not represent the actual position, size, shape, range, etc., in order to facilitate understanding of the invention. Therefore, the present invention is not necessarily limited to the positions, sizes, shapes, ranges, etc. disclosed in the drawings and the like.

本明細書で引用した刊行物、特許および特許出願は、そのまま本明細書の説明の一部を構成する。 All publications, patents and patent applications cited herein are hereby incorporated by reference into this description.

本明細書において単数形で表される構成要素は、特段文脈で明らかに示されない限り、複数形を含むものとする。 Elements presented herein in the singular shall include the plural unless the context clearly dictates otherwise.

実施例の代表的な一例を示せば以下の通りである。すなわち、映像表示システムは、撮像部と、センサ部と、特徴点位置認識部と、座標処理部と、映像表示処理部とを備える。前記特徴点位置認識部は前記撮像部で撮影した画像を基に対象物の特徴点の位置を認識し、前記座標処理部は、前記特徴点の位置を基に基準座標系を決定すると共に、前記センサ部が示す情報を基に、前記撮像部の前記基準座標系に対する相対ずれを補正して補正座標系あるいは補正座標を決定する。前記映像表示処理部は、前記補正座標系における所定の位置にコンテンツを表示する、あるいは、前記基準座標系における補正された所定の位置にコンテンツを表示する、構成を備える。ここで相対ずれとは、位置のずれおよび角度のずれの両者を含む概念である。 A representative example of the embodiment is as follows. That is, the video display system includes an imaging section, a sensor section, a feature point position recognition section, a coordinate processing section, and a video display processing section. The feature point position recognition unit recognizes the position of the feature point of the object based on the image captured by the imaging unit, the coordinate processing unit determines a reference coordinate system based on the position of the feature point, Based on the information indicated by the sensor unit, a correction coordinate system or correction coordinates is determined by correcting the relative displacement of the imaging unit with respect to the reference coordinate system. The video display processing unit has a configuration for displaying content at a predetermined position in the corrected coordinate system, or displaying content at a corrected predetermined position in the reference coordinate system. Here, relative displacement is a concept that includes both positional displacement and angular displacement.

本実施例において映像表示装置100は、例えばヘッドマウントディスプレイやヘッドアップディスプレイやスマートフォンやタブレット等、映像を表示する機能を有する装置である。 In this embodiment, the image display device 100 is a device having a function of displaying images, such as a head-mounted display, a head-up display, a smart phone, a tablet, or the like.

図1は、本実施例の映像表示装置100の機能ブロックの一例を示す図である。映像表示装置100は、撮像部101と、センサ部102と、特徴点位置認識部103と、座標処理部104と、映像表示処理部105と、映像表示部106と、コントローラー107とを有する。 FIG. 1 is a diagram showing an example of functional blocks of a video display device 100 of this embodiment. The image display device 100 has an imaging unit 101 , a sensor unit 102 , a feature point position recognition unit 103 , a coordinate processing unit 104 , an image display processing unit 105 , an image display unit 106 and a controller 107 .

撮像部101は、映像表示装置100の周辺環境の撮像を行う。センサ部102は、映像表示装置100の動きを検出する。ここで動きとは位置の変位と角度の変化(回転)の両方を含む概念とする。特徴点位置認識部103は、撮像部101が撮像した画像の中から特徴点の位置を認識する。座標処理部104は、映像表示装置100が表示する映像の座標系の処理を行う。映像表示処理部105は、映像表示装置100が表示する映像の表示処理を行う。映像表示部106は、映像の表示を行う。コントローラー107は、映像表示装置100全体を統括的に制御する。各部の詳細は後述する。 The image capturing unit 101 captures an image of the surrounding environment of the image display device 100 . The sensor unit 102 detects motion of the video display device 100 . Here, the concept of motion includes both position displacement and angle change (rotation). The feature point position recognition unit 103 recognizes the positions of feature points in the image captured by the imaging unit 101 . The coordinate processing unit 104 processes the coordinate system of the video displayed by the video display device 100 . The video display processing unit 105 performs display processing of the video displayed by the video display device 100 . The image display unit 106 displays images. The controller 107 centrally controls the entire image display device 100 . Details of each part will be described later.

図2は、本実施例の映像表示装置100のハードウェア構成の一構成例を示す図である。映像表示装置100は、カメラ111と、センサ112と、ディスプレイ113と、CPU(Central Processing Unit)114と、RAM(Random Access Memory)115と、記憶媒体116とを有する。 FIG. 2 is a diagram showing a configuration example of the hardware configuration of the video display device 100 of this embodiment. The image display device 100 has a camera 111 , a sensor 112 , a display 113 , a CPU (Central Processing Unit) 114 , a RAM (Random Access Memory) 115 and a storage medium 116 .

図2で示した一構成例において、映像表示装置100は撮像部101としてカメラ111を備えている。カメラ111の構成は、特許文献2等に記載の公知の構成で良い。 In one configuration example shown in FIG. The configuration of the camera 111 may be a known configuration described in Patent Document 2 or the like.

また、センサ部102としてセンサ112を備えている。センサ112は、カメラ111の動きを検知するため、例えばユーザの頭部の動きを検知する。また、映像表示部106はディスプレイ113を備えている。センサ部102やディスプレイ113の構成は、特許文献1等に記載の公知の構成で良い。 Further, a sensor 112 is provided as the sensor unit 102 . The sensor 112 detects the movement of the camera 111, for example, the movement of the user's head. Also, the video display unit 106 has a display 113 . The configuration of the sensor unit 102 and the display 113 may be a known configuration described in Patent Document 1 or the like.

ディスプレイ113の表示方式は、外界からの視覚情報も受け取ることができる透過型ディスプレイでも、映像情報のみを映し出す非透過型ディスプレイでもよいが、以下では、現実空間に重畳させて画像を視認するため、透過型ディスプレイとして説明する。ディスプレイ113は、両眼用に2つ備えてもよいし、片眼用に1つ備えてもよい。 The display method of the display 113 may be a transmissive display that can receive visual information from the outside world, or a non-transmissive display that displays only video information. A transmissive display will be described. Two displays 113 may be provided for both eyes, or one may be provided for one eye.

CPU114は、記憶媒体116またはRAM115に格納されているプログラムを実行する。具体的には、CPU114がプログラムを実行することにより、映像表示装置100のコントローラー107や、特徴点位置認識部103、座標処理部104、映像表示処理部105等、各部の機能が実現される。 CPU 114 executes programs stored in storage medium 116 or RAM 115 . Specifically, the CPU 114 executes the program to realize the functions of the controller 107 of the image display device 100, the feature point position recognition unit 103, the coordinate processing unit 104, the image display processing unit 105, and the like.

記憶媒体116は、CPU114が実行するプログラムおよび実行に必要な各種パラメータ・データを格納するための媒体である。 The storage medium 116 is a medium for storing programs executed by the CPU 114 and various parameters and data necessary for the execution.

RAM115は、ディスプレイ113で表示するための画像および各種情報を格納するための記憶媒体である。また、RAM115は、CPU114が使用するプログラムやデータの一時保管領域としても機能する。映像表示装置100は、CPU114とRAM115と記憶媒体116をそれぞれ複数有する構成でもよい。 The RAM 115 is a storage medium for storing images to be displayed on the display 113 and various information. The RAM 115 also functions as a temporary storage area for programs and data used by the CPU 114 . The image display device 100 may be configured to have a plurality of CPUs 114, RAMs 115, and storage media 116, respectively.

なお、映像表示装置100のハードウェア構成は、図2に示す構成に限定されない。例えばCPU114、記憶媒体116、RAM115を映像表示装置100とは別体として設けるようにしてもよい。その場合、映像表示装置100は汎用のコンピューター(例えばサーバーコンピューターやパーソナルコンピューター、スマートフォン等)を用いて実現するようにしてもよい。 Note that the hardware configuration of the video display device 100 is not limited to the configuration shown in FIG. For example, the CPU 114 , the storage medium 116 and the RAM 115 may be provided separately from the image display device 100 . In that case, the image display device 100 may be implemented using a general-purpose computer (for example, a server computer, a personal computer, a smart phone, etc.).

例えば、カメラ111、センサ112、ディスプレイ113を利用者が装着するウェアラブルなヘッドマウントディスプレイに実装し、CPU114、RAM115、記憶媒体116は遠隔地のサーバにて構成し、ヘッドマウントディスプレイとサーバをネットワークで接続して構成してもよい。 For example, the camera 111, the sensor 112, and the display 113 are mounted on a wearable head-mounted display worn by the user, the CPU 114, the RAM 115, and the storage medium 116 are configured in a remote server, and the head-mounted display and the server are connected via a network. You can connect and configure.

また、複数のコンピューターをネットワークで接続して、映像表示装置100の各部の機能を各コンピューターが分担することもできる。一方で、映像表示装置100の機能の1つ以上を、専用のハードウェアを用いて実現することもできる。 Also, a plurality of computers can be connected via a network so that each computer can share the function of each section of the image display device 100 . On the other hand, one or more of the functions of the image display device 100 can also be realized using dedicated hardware.

図3は、本実施例の映像表示装置100の一例と利用者700を示す図である。図3に示す映像表示装置100は、利用者700が自身の頭部に装着して利用可能なヘッドマウントディスプレイ(スマートグラスとも称する)である。 FIG. 3 is a diagram showing an example of the video display device 100 and the user 700 of this embodiment. The image display device 100 shown in FIG. 3 is a head-mounted display (also called smart glasses) that can be used by a user 700 wearing it on his/her head.

図4は、本実施例の映像表示装置100の実装形態の一例を示す図である。映像表示装置100は、カメラ111とセンサ112を備えており、本例ではセンサ112としてジャイロセンサを用いている。ジャイロセンサは映像表示装置100の動きを検知できる。 FIG. 4 is a diagram showing an example of a mounting form of the video display device 100 of this embodiment. The image display device 100 includes a camera 111 and a sensor 112, and a gyro sensor is used as the sensor 112 in this example. The gyro sensor can detect movement of the image display device 100 .

ディスプレイ113は、眼鏡のレンズ部に内蔵される。透過型ディスプレイの場合、利用者700はディスプレイ113を透過して外界を視認すると同時に、映像表示部106がディスプレイ113に投影する映像を視認することができる。カメラ111は利用者の前方を撮影し、カメラ画像は利用者が視認する外界にほぼ重なる。次に、本実施例の映像表示装置100の動作を詳細に説明する。 The display 113 is built in the lens portion of the spectacles. In the case of a transmissive display, the user 700 can see the outside world through the display 113 and at the same time can see the image projected on the display 113 by the image display unit 106 . The camera 111 captures an image in front of the user, and the camera image substantially overlaps the external world visually recognized by the user. Next, the operation of the image display device 100 of this embodiment will be described in detail.

図5は、本実施例の現実空間と座標系の関係の一例を示す図である。後に詳細に説明する。 FIG. 5 is a diagram showing an example of the relationship between the physical space and the coordinate system in this embodiment. A detailed description will be given later.

図6は、本実施例の映像表示装置100が実行するコンテンツ表示に係るフローチャートの一例を示す図である。 FIG. 6 is a diagram showing an example of a flowchart relating to content display executed by the video display device 100 of this embodiment.

はじめに、映像表示装置100はカメラ画像を取得する(S101)。映像表示装置100のコントローラー107は撮像部101に対して撮像のコマンドを送付し、撮像部101はコマンドに従って撮像し、撮像部101は撮像した画像をコントローラー107に送信する。 First, the video display device 100 acquires a camera image (S101). The controller 107 of the video display device 100 sends an imaging command to the imaging unit 101 , the imaging unit 101 takes an image according to the command, and the imaging unit 101 sends the captured image to the controller 107 .

図3および図4に示したように、映像表示装置100が備えているカメラ111は、利用者700が映像表示装置100を頭部に装着した際に、利用者700の前方を撮影できるように映像表示装置100に取り付けられている。従って、映像表示装置100はカメラ111の撮影画像を取得することで、利用者700の前方の現実空間における状況を画像として取得することが可能である。すなわち、カメラ111が撮影した画像には、現実空間において利用者の前方に位置している物体131が撮影されている(図5(a))。物体131としては、例えば利用者700が操作する分電盤(の操作パネル)などが想定される。 As shown in FIGS. 3 and 4, the camera 111 included in the video display device 100 is configured to capture an image in front of the user 700 when the user 700 wears the video display device 100 on the head. It is attached to the video display device 100 . Therefore, by acquiring the image captured by the camera 111, the image display device 100 can acquire the situation in the real space in front of the user 700 as an image. That is, in the image captured by the camera 111, an object 131 located in front of the user in the physical space is captured (Fig. 5(a)). As the object 131, for example, a distribution board (an operation panel thereof) operated by the user 700 is assumed.

次に、映像表示装置100は特徴点の位置の認識を行う(S102)。映像表示装置100のコントローラー107は特徴点位置認識部103に撮像部101から受領した撮像画像とコマンドを送付し、特徴点位置認識部103は撮像画像から特徴点132の位置を認識し、認識結果をコントローラー107に送信する(図5(a))。特徴点132の詳細については後述するが、特徴点位置認識部103がコントローラー107から受領した撮像画像の内部において、特徴的な点が特徴点132である。また、特徴点132の位置とは、撮像画像内のどの位置に特徴点132があるかを表す。 Next, the image display device 100 recognizes the positions of feature points (S102). The controller 107 of the video display device 100 sends the captured image received from the imaging unit 101 and the command to the feature point position recognition unit 103, and the feature point position recognition unit 103 recognizes the position of the feature point 132 from the captured image, and obtains the recognition result. is sent to the controller 107 (FIG. 5(a)). Details of the feature point 132 will be described later, but the feature point 132 is a characteristic point in the captured image received by the feature point position recognition unit 103 from the controller 107 . Also, the position of the feature point 132 indicates at which position in the captured image the feature point 132 is located.

次に、映像表示装置100は基準座標系の決定を行う(S103)。映像表示装置100のコントローラー107は座標処理部104に特徴点位置認識部103から受領した特徴点の位置とコマンドを送付し、座標処理部104は特徴点の位置を基に基準座標系を決定し、座標系情報をコントローラー107に送信する。 Next, the image display device 100 determines a reference coordinate system (S103). The controller 107 of the image display device 100 sends the position of the feature points and the command received from the feature point position recognition unit 103 to the coordinate processing unit 104, and the coordinate processing unit 104 determines the reference coordinate system based on the positions of the feature points. , transmits the coordinate system information to the controller 107 .

図5(a)では、特徴点132の位置を基準とし、紙面下方向にx軸133を設定し、紙面右方向にy軸134を設定している。しかしながら本実施例はこれに限られず、特徴点132の位置から所定の方向に所定の距離だけずれた位置をx軸133及びy軸134の原点としてもかまわないし、2つの軸が直交しない座標系を設定してもかまわないし、極座標系を設定してもかまわない。以下では図5(a)のように特徴点132の位置を基準とし、紙面下方向にx軸133を設定し、紙面右方向にy軸134を設定したとして説明を行う。 In FIG. 5A, with the position of the feature point 132 as a reference, the x-axis 133 is set downward on the page, and the y-axis 134 is set rightward on the page. However, this embodiment is not limited to this, and a position shifted by a predetermined distance in a predetermined direction from the position of the feature point 132 may be set as the origin of the x-axis 133 and the y-axis 134, or a coordinate system in which the two axes are not orthogonal. , or the polar coordinate system. In the following description, as shown in FIG. 5A, the position of the feature point 132 is used as a reference, the x-axis 133 is set in the downward direction on the paper surface, and the y-axis 134 is set in the right direction on the paper surface.

また、座標処理部104は撮像部101の撮像画像と、映像表示部106が表示する映像の位置関係に関する情報を事前に備えている。つまり、撮像部101が撮影する画像の画角及び方向及び回転角と、映像表示部106が表示する映像の画角及び方向及び回転角を基に、撮像部101の撮影画像内における所定の位置及び方向が、映像表示部106が表示する映像内において如何なる位置及び方向に対応するかに関する情報を事前に備えている。これにより、撮像画像内の座標と映像内の座標は相互に変換が可能である。かかる位置関係に関する情報は、撮像部101と映像表示部106の仕様に基づいて事前に定めることができる。撮像画像内の第一の座標系と映像内の第二の座標系を変換するための情報を、便宜的に座標変換情報ということがある。 In addition, the coordinate processing unit 104 has in advance information on the positional relationship between the image captured by the imaging unit 101 and the image displayed by the image display unit 106 . That is, based on the angle of view, direction, and rotation angle of the image captured by the image capturing unit 101 and the angle of view, direction, and rotation angle of the image displayed by the image display unit 106, a predetermined position within the image captured by the image capturing unit 101 is determined. and which direction corresponds to which position and direction in the image displayed by the image display unit 106 is provided in advance. As a result, the coordinates in the captured image and the coordinates in the video can be mutually converted. Information regarding such a positional relationship can be determined in advance based on the specifications of the imaging unit 101 and the image display unit 106 . Information for transforming the first coordinate system in the captured image and the second coordinate system in the video may be referred to as coordinate transformation information for convenience.

該位置関係に関する情報を基に、座標処理部104は座標変換情報を用いて、撮像画像内に設定した第一の基準座標系を映像表示部106が表示する映像内における第二の基準座標系に換算する。座標処理部104は映像表示部106が表示する映像内における第二の基準座標系に関する情報をコントローラー107に送信する。具体的には、例えば映像表示部106が表示する映像内における第二の基準座標系の原点及び方向に関する情報である。 Based on the information about the positional relationship, the coordinate processing unit 104 uses the coordinate transformation information to transform the first reference coordinate system set in the captured image into the second reference coordinate system in the video displayed by the video display unit 106. Convert to The coordinate processing unit 104 transmits information regarding the second reference coordinate system in the image displayed by the image display unit 106 to the controller 107 . Specifically, for example, it is information about the origin and direction of the second reference coordinate system in the image displayed by the image display unit 106 .

上記の説明では、座標処理部104は撮像画像内で第一の基準座標系を設定した後、映像表示部106が表示する映像内における第二の基準基準座標系に換算するとして説明したが、本実施例はこれに限られない。座標処理部104は座標変換情報を用いて、特徴点132の位置が、映像表示部106が表示する映像内の如何なる位置に該当するかを計算し、該位置を基準として、映像表示部106が表示する映像内において第二の基準基準座標系を設定してもよい。これにより、座標処理部104における処理を軽減することが可能である。特徴点132の位置の認識及び基準座標系の決定は、撮像画像全体を利用して現実空間全体の空間認識を行わなくてよいため、高速な位置の認識及び基準座標系の決定が可能である。 In the above description, the coordinate processing unit 104 sets the first reference coordinate system in the captured image and then converts it to the second reference coordinate system in the image displayed by the image display unit 106. This embodiment is not limited to this. The coordinate processing unit 104 uses the coordinate conversion information to calculate which position in the image displayed by the image display unit 106 corresponds to the position of the feature point 132, and based on this position, the image display unit 106 A second reference reference coordinate system may be set within the image to be displayed. Thereby, it is possible to reduce the processing in the coordinate processing unit 104 . Recognition of the position of the feature point 132 and determination of the reference coordinate system do not require spatial recognition of the entire physical space using the entire captured image, so high-speed position recognition and determination of the reference coordinate system are possible. .

以上のように、撮像画像内に設定した第一の基準座標系を映像表示部106が表示する映像内における第二の基準座標系に換算する。換算した座標系に基づいて撮像画像内に表示するコンテンツ(オブジェクト)を位置決めすることで、撮像画像内の物体とコンテンツとの位置関係を定めることができる。この結果、現実空間の物体と仮想空間のコンテンツの位置関係を定めることができる。ただし、これはカメラ111の視野が固定されていることが前提である。 As described above, the first reference coordinate system set in the captured image is converted into the second reference coordinate system in the video displayed by the video display unit 106 . By positioning the content (object) to be displayed in the captured image based on the converted coordinate system, the positional relationship between the object and the content in the captured image can be determined. As a result, it is possible to determine the positional relationship between the object in the real space and the content in the virtual space. However, this assumes that the field of view of the camera 111 is fixed.

次に、映像表示装置100は所定時間経過するまで所定時間経過したかの判断を繰り返す(S104)。換言すれば、所定時間経過するまで待機する。具体的には例えば、コントローラー107は、座標処理部104から座標系情報を受領してからの経過時間を計測し、該経過時間が所定の時間を超過しているか否かを所定の間隔で判定し、該経過時間が所定の時間を超過するまで繰り返す。 Next, the image display device 100 repeats the judgment as to whether or not the predetermined time has elapsed until the predetermined time has elapsed (S104). In other words, it waits until the predetermined time elapses. Specifically, for example, the controller 107 measures the elapsed time after receiving the coordinate system information from the coordinate processing unit 104, and determines at predetermined intervals whether the elapsed time exceeds a predetermined time. and repeats until the elapsed time exceeds a predetermined time.

別の方法としては、コントローラー107はループカウンターを備えており、ループカウンターが所定の値を超過しているかを判断し、判断毎にループカウンターの値を所定の値ずつ増加させ、ループカウンターが所定の値を超過するまで繰り返す。 Alternatively, the controller 107 has a loop counter, determines whether the loop counter exceeds a predetermined value, increases the value of the loop counter by a predetermined value each time the determination is made, and the loop counter reaches the predetermined value. Repeat until the value of is exceeded.

別の方法としては、コントローラー107は時刻を取得し、該時刻が所定の時刻から所定の時刻だけ経過した時刻を超過しているか否かを所定の間隔で判定し、取得した時刻が所定の時刻から所定の時刻だけ経過した時刻を超過するまで繰り返す。 As another method, the controller 107 obtains the time, determines at predetermined intervals whether or not the time exceeds the predetermined time after the predetermined time, and determines whether the obtained time is the predetermined time. It is repeated until the time when the predetermined time has passed from is exceeded.

一般に、時間の経過とともにユーザの頭や体が移動するため、カメラ111が動く。第一および第二の基準座標系を決定したステップS103の時点では、撮像画像内の物体とカメラ視点の現実空間の物体の位置関係は対応している。すなわち、撮像画像内の物体の特徴点に規定された第一の基準座標系はカメラ視点の現実空間の物体の特徴点に規定された座標系と等価である。よって第一の基準座標系に基づいて定めた第二の基準座標系に従って表示領域を表示すれば、現実空間の所望の位置にコンテンツを表示できる。 In general, the camera 111 moves as the user's head and body move over time. At the time of step S103 when the first and second reference coordinate systems are determined, the positional relationship between the object in the captured image and the object in the physical space of the camera viewpoint corresponds. That is, the first reference coordinate system defined for the feature points of the object in the captured image is equivalent to the coordinate system defined for the feature points of the object in the physical space of the camera viewpoint. Therefore, by displaying the display area according to the second reference coordinate system determined based on the first reference coordinate system, the content can be displayed at a desired position in the physical space.

しかし、カメラ111の視野が移動すると、ステップS103の時点の撮像画像内の物体と現時点のカメラ視点の現実空間の物体の位置関係は対応しなくなる。すなわち、ステップS103で決定された第一の基準座標系は現実空間の物体の特徴点に規定された座標系と等価ではなくなる。したがって、現実空間の物体と第二の基準座標系に基づく表示領域の位置関係がずれてしまうので補正が必要となる。 However, when the field of view of the camera 111 moves, the positional relationship between the object in the captured image at the time of step S103 and the object in the physical space at the current camera viewpoint no longer corresponds. That is, the first reference coordinate system determined in step S103 is no longer equivalent to the coordinate system defined for the feature points of the object in the physical space. Therefore, since the positional relationship between the object in the physical space and the display area based on the second reference coordinate system is shifted, correction is required.

例えば頭の動きに映像を追従させるため、修正は例えば1秒間に複数回行う。具体的には、30回/秒や60回/秒程度であり、多いほど追従性の観点では好ましいが、処理負荷のため高速にできない場合は、数回/秒でも用途によっては許容される。よって、S104(およびS110)の所定時間はこれらを考慮して定める。 For example, in order to make the image follow the movement of the head, the correction is performed, for example, multiple times per second. Specifically, it is about 30 times/second or 60 times/second, and the higher the number, the better from the viewpoint of followability. Therefore, the predetermined time of S104 (and S110) is determined in consideration of these.

基準座標系の修正のため、映像表示装置100はセンサ情報の取得を行う(S105)。映像表示装置100のコントローラー107はセンサ部102に対してセンサ情報取得のコマンドを送付し、センサ部102はコマンドに従ってセンサ情報を取得し、センサ部102はセンシングしたセンサ情報をコントローラー107に送信する。 In order to correct the reference coordinate system, the image display device 100 acquires sensor information (S105). The controller 107 of the image display device 100 sends a sensor information acquisition command to the sensor section 102 , the sensor section 102 acquires the sensor information according to the command, and the sensor section 102 transmits the sensed sensor information to the controller 107 .

図4に示した映像表示装置100の一例では、映像表示装置100はセンサ112としてジャイロセンサを備えており、ジャイロセンサは映像表示装置100の角速度を計測する。ジャイロセンサはコントローラー107に計測した角速度データを送信する。 In an example of the image display device 100 shown in FIG. 4, the image display device 100 includes a gyro sensor as the sensor 112, and the gyro sensor measures the angular velocity of the image display device 100. FIG. The gyro sensor transmits measured angular velocity data to the controller 107 .

図4に示した映像表示装置100の一例では、映像表示装置100はセンサ112としてジャイロセンサを備えているとしたが、本実施例はこれに限られない。例えば、映像表示装置100はセンサ112として加速度センサを備えており、加速度センサは映像表示装置100の加速度を計測し、加速度センサはコントローラー107に計測した加速度データを送信するとしてもよい。 In the example of the image display device 100 shown in FIG. 4, the image display device 100 includes a gyro sensor as the sensor 112, but this embodiment is not limited to this. For example, the image display device 100 may include an acceleration sensor as the sensor 112 , the acceleration sensor may measure the acceleration of the image display device 100 , and the acceleration sensor may transmit the measured acceleration data to the controller 107 .

次に、映像表示装置100は相対ずれ量の認識及び補正座標系の決定を行う(S106)。映像表示装置100のコントローラー107は座標処理部104にセンサ部102から受領したセンサ情報とコマンドを送付し、座標処理部104は相対ずれ量135の認識及び補正座標系の決定を行い、座標系情報をコントローラー107に送信する。 Next, the image display device 100 recognizes the amount of relative deviation and determines the correction coordinate system (S106). The controller 107 of the image display device 100 sends the sensor information and command received from the sensor unit 102 to the coordinate processing unit 104, and the coordinate processing unit 104 recognizes the relative deviation amount 135 and determines the correction coordinate system, and the coordinate system information to the controller 107 .

一つの例では、S105のセンサ情報は、S103以降の時系列データ(例えばS103以降どのように角速度が変化したかの時系列データ)である。あるいは、センサ情報の値が短時間の間はほぼ一定と仮定して、S105のタイミングにおけるデータでもよい。いずれのデータを用いても、S103の時点以降の相対ずれ量135を計算することができる。 In one example, the sensor information of S105 is time-series data after S103 (for example, time-series data on how the angular velocity changed after S103). Alternatively, the data at the timing of S105 may be used assuming that the value of the sensor information is substantially constant for a short period of time. Any data can be used to calculate the relative displacement amount 135 after S103.

つまり、座標処理部104はコントローラー107から受領したセンサ情報を基に、現実空間における特徴点132の位置と映像表示装置100の位置関係が、映像表示装置100の移動により、基準座標系を決定した時から如何程ずれているかを計算する。 In other words, based on the sensor information received from the controller 107, the coordinate processing unit 104 determines the positional relationship between the position of the feature point 132 in the physical space and the video display device 100 in the reference coordinate system by moving the video display device 100. Calculate how far it is off from time.

本実施例の別の観点では、座標処理部104はコントローラー107から受領したセンサ情報を基に、現実空間における特徴点132の位置と映像表示装置100の位置関係が、映像表示装置100の移動により、前回座標系情報を算出した時から如何程ずれているかを計算する。 From another aspect of this embodiment, the coordinate processing unit 104 changes the positional relationship between the position of the feature point 132 in the physical space and the video display device 100 based on the sensor information received from the controller 107 by moving the video display device 100. , how much the coordinate system information is shifted from the time when the coordinate system information was calculated last time is calculated.

図5(b)に示すように、前回座標系情報を算出した時からのずれ量を、基準座標系を決定した時から積算することで、基準座標系を決定した時からの相対ずれ量135を算出することが可能である。 As shown in FIG. 5B, by accumulating the amount of deviation from when the coordinate system information was calculated last time from when the reference coordinate system was determined, the amount of relative deviation 135 from when the reference coordinate system was determined is calculated. can be calculated.

図4に示した映像表示装置100の一例では、座標処理部104はコントローラーから角速度データを受領する。いま、角速度がほぼ一定と仮定して、S105のタイミングにおける角速度データを用いるとする。前回座標系情報を算出した時から経過した時刻をΔT、角速度をωとすると、前回座標系情報を算出した時からの角度ずれ量はΔT×ωである。前回座標系情報を算出した時からの角度ずれ量を、基準座標系を決定した時から積算することで、第一の基準座標系を決定した時からの角度ずれ量を算出することが可能である。 In the example of the image display device 100 shown in FIG. 4, the coordinate processing unit 104 receives angular velocity data from the controller. Assume now that the angular velocity is substantially constant, and use the angular velocity data at the timing of S105. Let ΔT be the time that has passed since the previous calculation of the coordinate system information, and ω be the angular velocity. By accumulating the amount of angular deviation from when the previous coordinate system information was calculated from the time the reference coordinate system was determined, it is possible to calculate the amount of angular deviation from the time the first reference coordinate system was determined. be.

座標処理部104は、認識した相対ずれ量135を基に、補正座標系の決定を行う。具体的には、座標処理部104は相対ずれと撮像部101の撮像画像との関係に関する情報を事前に備えている。つまり、現実空間における相対ずれが撮像部101の撮像画像内において、如何なる方向の如何なる距離もしくは角度に対応するかに関する情報を事前に備えている。かかる情報は、撮像部101の仕様や、センサ部102の仕様に基づいて定めることができる。該情報及び相対ずれ量を基に、座標処理部104は第一の基準座標系を相対ずれ量に相当する量だけシフト又は回転させ第一の補正座標系を決定する。これにより、映像表示装置100が移動した場合においても、第一の補正座標系は現実空間では略移動しない座標系となる。 The coordinate processing unit 104 determines a correction coordinate system based on the recognized relative displacement amount 135 . Specifically, the coordinate processing unit 104 has information on the relationship between the relative displacement and the captured image of the imaging unit 101 in advance. In other words, information is provided in advance as to what distance or angle in what direction the relative displacement in the physical space corresponds to in the captured image of the imaging unit 101 . Such information can be determined based on the specifications of the imaging unit 101 and the specifications of the sensor unit 102 . Based on the information and the relative deviation amount, the coordinate processing unit 104 shifts or rotates the first reference coordinate system by an amount corresponding to the relative deviation amount, and determines the first correction coordinate system. As a result, even when the image display device 100 moves, the first corrected coordinate system becomes a coordinate system that does not substantially move in the physical space.

図5(c)に示した例では、x軸133及びy軸134によって決定された第一の基準座標系に対して、相対ずれ量135だけシフトした、x’軸136及びy’軸137を第一の補正座標系として決定する。 In the example shown in FIG. 5C, the x'-axis 136 and y'-axis 137 are shifted by the relative displacement amount 135 with respect to the first reference coordinate system determined by the x-axis 133 and the y-axis 134. Determine as the first correction coordinate system.

座標処理部104は座標変換情報を用いて、撮像画像内に設定した第一の補正座標系を映像表示部106が表示する映像内における第二の補正座標系に換算する。座標処理部104は映像表示部106が表示する映像内における第二の補正座標系情報をコントローラー107に送信する。 The coordinate processing unit 104 uses the coordinate conversion information to convert the first corrected coordinate system set in the captured image into the second corrected coordinate system in the video displayed by the video display unit 106 . The coordinate processing unit 104 transmits second corrected coordinate system information in the image displayed by the image display unit 106 to the controller 107 .

上記の説明では、前回座標系情報を算出した時からのずれ量を、基準座標系を決定した時から積算することで、基準座標系を決定した時からの相対ずれ量を算出したが、本実施例はこれに限られない。座標処理部104は、前回座標系情報を算出した時からのずれ量を相対ずれ量とし、前回座標系情報を算出した時の基準座標系若しくは補正座標系と、相対ずれ量から、補正座標系を決定する構成とすることも可能である。すなわち、前回のS106による補正座標系の決定からの差分を次のS106で補正する。これによりずれ量の積算が不要となり、処理を軽減することが可能である。 In the above explanation, the amount of deviation from the time when the coordinate system information was calculated last time is integrated from the time when the reference coordinate system is determined to calculate the amount of relative deviation from when the reference coordinate system was determined. Examples are not limited to this. The coordinate processing unit 104 regards the amount of deviation from when the previous coordinate system information was calculated as the amount of relative deviation, and calculates the corrected coordinate system from the reference coordinate system or the corrected coordinate system when the previous coordinate system information was calculated and the amount of relative deviation. It is also possible to configure to determine That is, the difference from the determination of the corrected coordinate system in the previous S106 is corrected in the next S106. This eliminates the need to integrate the amount of deviation, making it possible to reduce the processing.

上記の説明では、座標処理部104は撮像画像内で第一の補正座標系を設定した後、座標変換情報により映像表示部106が表示する映像内における第二の補正座標系に換算するとして説明したが、本実施例はこれに限られない。座標処理部104は、座標変換情報を用いて、相対ずれ量が、映像表示部106が表示する映像内の如何なる方向及び距離に該当するかを計算し、映像表示部106が表示する映像内において第二の補正座標系を設定してもよい。これにより、座標処理部104における処理を軽減することが可能である。 In the above description, the coordinate processing unit 104 sets the first corrected coordinate system in the captured image, and then converts it to the second corrected coordinate system in the video displayed by the video display unit 106 according to the coordinate conversion information. However, this embodiment is not limited to this. The coordinate processing unit 104 uses the coordinate transformation information to calculate the direction and distance in the image displayed by the image display unit 106 that the relative deviation amount corresponds to, and calculates the direction and distance in the image displayed by the image display unit 106 A second correction coordinate system may be set. Thereby, it is possible to reduce the processing in the coordinate processing unit 104 .

以上説明したように、カメラ111が撮像した撮像画像内の特徴点に基づいて第一の基準座標系を設定し、これに対応した第二の基準座標系を映像表示部106が表示する映像内に設定する。センサ112による信号に基づいてカメラ111の位置や角度変位に起因する相対ずれ量を計算する。図5に示したように、相対ずれ量135は撮像画像内の物体(代表的には基準点)のずれに相当する。この相対ずれ量に基づいて第二の基準座標系を補正する。映像表示部106が表示するコンテンツの位置は補正された第二の基準座標系に基づいて定まるので、第二の基準座標系を撮像画像内の物体のずれに追従するように補正して第二の補正座標系とすることで、利用者700が認知する撮像画像内の物体とコンテンツの相対的位置関係の変化を抑圧することができる。 As described above, the first reference coordinate system is set based on the feature points in the captured image captured by the camera 111, and the second reference coordinate system corresponding to this is set in the video displayed by the video display unit 106. set to Based on the signal from the sensor 112, the amount of relative deviation caused by the position and angular displacement of the camera 111 is calculated. As shown in FIG. 5, the relative displacement amount 135 corresponds to displacement of an object (typically a reference point) in the captured image. The second reference coordinate system is corrected based on this relative deviation amount. The position of the content displayed by the video display unit 106 is determined based on the corrected second reference coordinate system. By using the corrected coordinate system of , it is possible to suppress changes in the relative positional relationship between the object and the content in the captured image recognized by the user 700 .

相対ずれ量の認識及び補正座標系の決定は、現実空間全体の空間認識を行わなくてよいため、高速な相対ずれ量の認識及び補正座標系の決定が可能である。なお、基準座標系の決定(S103)自体を高頻度で繰り返すことでも撮像画像内の物体とコンテンツの相対的位置関係の変化を抑圧することができるが、この場合は基準座標系の決定のための処理の負荷が大きくなるという問題がある。 Recognition of the amount of relative deviation and determination of the correction coordinate system do not require spatial recognition of the entire physical space, so high-speed recognition of the amount of relative deviation and determination of the correction coordinate system are possible. Note that it is possible to suppress changes in the relative positional relationship between the object and the content in the captured image by repeating the decision of the reference coordinate system (S103) itself at a high frequency. There is a problem that the processing load of

次に、映像表示装置100は表示コンテンツの決定を行う(S107)。映像表示装置100のコントローラー107は映像表示処理部105に座標処理部104から受領した座標系情報とコマンドを送付し、映像表示処理部105は映像表示装置100が表示する表示コンテンツの決定を行い、表示コンテンツをコントローラー107に送信する。表示コンテンツの決定については、後に図9で説明する。 Next, the video display device 100 determines display content (S107). The controller 107 of the image display device 100 sends the coordinate system information and commands received from the coordinate processing unit 104 to the image display processing unit 105, and the image display processing unit 105 determines display content to be displayed by the image display device 100. Send the display content to the controller 107 . Determination of display content will be described later with reference to FIG.

映像表示処理部105は、コントローラー107から受領した座標系情報を基に、第二の補正座標系を基準として表示するコンテンツの位置を決定する。映像表示装置100が移動した場合においても、第二の補正座標系は現実空間では略移動しない座標系であるから、映像表示装置100の移動に略影響されない映像表示が可能である。 Based on the coordinate system information received from the controller 107, the video display processing unit 105 determines the position of the content to be displayed with reference to the second corrected coordinate system. Even if the image display device 100 moves, the second correction coordinate system is a coordinate system that does not substantially move in the real space, so image display that is substantially unaffected by the movement of the image display device 100 is possible.

次に、映像表示装置100はコンテンツの表示を行う(S108)。映像表示装置100のコントローラー107は映像表示部106に映像表示処理部105から受領した表示コンテンツとコマンドを送付し、映像表示部106は該表示コンテンツを表示する。 Next, the video display device 100 displays the content (S108). The controller 107 of the image display device 100 sends the display content and command received from the image display processing unit 105 to the image display unit 106, and the image display unit 106 displays the display content.

次に、映像表示装置100は終了コマンドの有無を判定する(S109)。終了コマンドとしては例えば、映像表示装置100の図示しない入力部から入力された情報、若しくは該情報を認識した情報が利用可能である。例えば、映像表示装置100は入力部としてマイクを備え、マイクは利用者700からの音声命令を受信し、映像表示装置100は該音声命令を認識し、所定の命令を認識した場合は終了コマンドが有ると判断する映像表示装置100を構成することが可能である。終了コマンドがある場合には、映像表示装置100はフローを終了する。 Next, the video display device 100 determines whether there is an end command (S109). As the end command, for example, information input from an input unit (not shown) of the image display device 100, or information obtained by recognizing the information can be used. For example, the video display device 100 has a microphone as an input unit, the microphone receives a voice command from the user 700, the video display device 100 recognizes the voice command, and when a predetermined command is recognized, the end command is issued. It is possible to configure the video display device 100 that determines that there is. If there is an end command, the video display device 100 ends the flow.

終了コマンドがない場合、映像表示装置100は所定時間経過するまで所定時間経過したかの判断を繰り返す(S110)。換言すれば、所定時間経過するまで待機する。所定時間経過後、映像表示装置100はセンサ情報の取得(S105)からフローを繰り返す。これにより、所定の時間間隔で、センサ情報に基づく相対ずれ量の認識による補正座標系の決定を繰り返すことができ、映像表示装置100が移動し続ける場合においても、継続して座標系の補正を行うことができ、継続して映像表示装置100の移動に略影響されない映像表示が可能となる。 If there is no end command, the video display device 100 repeats the judgment as to whether the predetermined time has passed (S110). In other words, it waits until the predetermined time elapses. After a predetermined period of time has passed, the image display device 100 repeats the flow from acquisition of sensor information (S105). As a result, determination of the correction coordinate system by recognizing the relative deviation amount based on the sensor information can be repeated at predetermined time intervals, and correction of the coordinate system can be continued even when the image display device 100 continues to move. Thus, it is possible to continuously display an image that is substantially unaffected by movement of the image display device 100 .

図7は、本実施例のコンテンツ表示に係る別のフローチャートの一例を示した図である。図6との差分について説明する。映像表示装置100は、S110において所定時間経過するまで所定時間経過したかの判断を繰り返した後、所定回数経過したかの判断を行う(S111)。具体的には例えば、コントローラー107はループカウンターを備えており、判断の度にループカウンターを所定の値だけ増加させるとともに、ループカウンターが所定の値を超過しているか否かを判断する。 FIG. 7 is a diagram showing an example of another flowchart relating to content display according to the present embodiment. Differences from FIG. 6 will be described. The image display device 100 repeats the determination of whether the predetermined time has passed until the predetermined time has passed in S110, and then determines whether the predetermined number of times has passed (S111). Specifically, for example, the controller 107 has a loop counter, increases the loop counter by a predetermined value each time a determination is made, and determines whether or not the loop counter exceeds the predetermined value.

本実施例の別の観点では、映像表示装置100は前回基準座標系を決定してから所定の時間経過しているか否かを判断し、所定の時間経過している場合には所定回数経過したものと見做す。映像表示装置100は所定回数経過したと判断した場合にはカメラ画像の取得(S101)から繰り返し、所定回数経過したと判断しない場合にはセンサ情報の取得(S105)から繰り返す。 From another aspect of the present embodiment, the image display device 100 determines whether or not a predetermined time has passed since the previous determination of the reference coordinate system, and if the predetermined time has passed, a predetermined number of times has passed. regarded as a thing. If the video display apparatus 100 determines that the predetermined number of times has elapsed, the process repeats from acquisition of the camera image (S101), and if it does not determine that the predetermined number of times has elapsed, the process repeats from the acquisition of the sensor information (S105).

これにより、映像表示装置100は、所定回数ごとや所定の時間ごとにカメラ画像を利用した基準座標系の決定を行うことができ、例えばカメラ111が動かなかった場合でも、信号の経時的なドリフト等が生じることがある。このような信号ドリフトに対しても、映像重畳の位置精度を向上させることが可能となる。基準座標系の更新は、例えば1回/秒程度の頻度で行うことができる。 As a result, the image display apparatus 100 can determine the reference coordinate system using the camera image every predetermined number of times or every predetermined period of time. etc. may occur. It is possible to improve the positional accuracy of video superimposition even with respect to such signal drift. The reference coordinate system can be updated, for example, at a frequency of about once per second.

図8は、本実施例に係る特徴点132の例を示す図である。図8では、物体131の一例として分電盤131Aを示している。特徴点132としては、例えば物体131の頂点151A~151Dを利用することが可能である。 FIG. 8 is a diagram showing an example of feature points 132 according to this embodiment. 8 shows a distribution board 131A as an example of the object 131. As shown in FIG. As the feature points 132, vertices 151A to 151D of the object 131 can be used, for example.

本実施例の別の観点では、特徴点132としては、例えば物体131の辺152A~152Dを利用することが可能である。本実施例の別の観点では、特徴点132としては、物体131の中心153若しくは物体131の重心を利用することが可能である。本実施例の別の観点では、特徴点132としては、物体131の内部にある物体154の所定の位置を利用することが可能である。例えば、物体154の頂点154Aや物体154の辺154Bなどを利用することが可能である。 From another aspect of the present embodiment, sides 152A to 152D of the object 131 can be used as feature points 132, for example. From another point of view of this embodiment, the center 153 of the object 131 or the center of gravity of the object 131 can be used as the feature point 132 . From another aspect of this embodiment, it is possible to use a predetermined position of an object 154 inside the object 131 as the feature point 132 . For example, it is possible to use the vertex 154A of the object 154, the side 154B of the object 154, and the like.

本実施例の別の観点では、特徴点132としては、物体131に記載されている文字列155の所定の位置155Aを利用することが可能である。所定の位置155Aとしては、例えば文字列155の所定の文字数目の文字のうち、一番上の箇所、一番下の箇所、一番右の箇所、一番左の箇所などを利用することが可能である。 From another point of view of this embodiment, it is possible to use a predetermined position 155A of the character string 155 written on the object 131 as the feature point 132 . As the predetermined position 155A, for example, the topmost, bottommost, rightmost, and leftmost positions among the characters of the predetermined number of characters in the character string 155 can be used. It is possible.

本実施例の別の観点では、特徴点132としては、所定の記号156を利用することが可能である。所定の記号は予め決まった記号でもよいし、未知の記号でもよい。記号156は1次元コードや2次元コードなどでもよい。特徴点132としては、物体131が予め備えている物体131の構成物でもよいし、物体131に貼り付けられた物体でもよい。 In another aspect of this embodiment, the feature points 132 can be predetermined symbols 156 . The predetermined symbol may be a predetermined symbol or an unknown symbol. The symbol 156 may be a one-dimensional code, a two-dimensional code, or the like. The feature point 132 may be a component of the object 131 that the object 131 has in advance, or may be an object attached to the object 131 .

以上のように特徴点は予め定義しておくことができ、カメラ111が撮像した撮像画像内から、特徴点位置認識部103が特徴点の色(例えば色相、明度、および彩度)や形状に基づいて公知の手法により抽出することができる。 Feature points can be defined in advance as described above, and the feature point position recognition unit 103 recognizes the color (e.g., hue, brightness, and saturation) and shape of the feature point from the captured image captured by the camera 111. can be extracted by a known method based on the

図9は、本実施例に係る映像表示処理部105による表示コンテンツの決定方法の一例を示す図である。図9では説明のために、利用者700から見た現実空間と仮想空間を合わせて表記している。物体131は現実空間に位置する物体である。座標処理部104は撮像画像内にx’軸136及びy’軸137を第一の補正座標系として決定し、映像表示部106が表示する映像内における第二の補正座標系に換算する。 FIG. 9 is a diagram showing an example of a display content determination method by the video display processing unit 105 according to the present embodiment. For the sake of explanation, FIG. 9 shows both the real space and the virtual space as viewed by the user 700 . An object 131 is an object located in the physical space. The coordinate processing unit 104 determines the x'-axis 136 and the y'-axis 137 in the captured image as the first corrected coordinate system, and converts them into the second corrected coordinate system in the video displayed by the video display unit 106.

いま、理解を助けるための具体的な例として、物体131は現実空間にある物体例えば分電盤などである。この例では、カメラ111の視野は物体131を認識できる程度あればよい。この例では、物体131の右側にコンテンツ162、例えば分電盤の操作マニュアルを表示したい場合を説明する。 Now, as a specific example for helping understanding, the object 131 is an object in the real space, such as a distribution board. In this example, the field of view of the camera 111 may be large enough to recognize the object 131 . In this example, a case will be described where it is desired to display content 162, for example, an operation manual for a distribution board, on the right side of object 131. FIG.

映像表示処理部105は、コントローラー107から受領した座標系情報を基に、第二の補正座標系を基準として表示するコンテンツの位置を決定する。具体的には、映像表示装置100は例えば以下のようにして表示コンテンツの位置を決定する。 Based on the coordinate system information received from the controller 107, the video display processing unit 105 determines the position of the content to be displayed with reference to the second corrected coordinate system. Specifically, the video display device 100 determines the position of the display content, for example, as follows.

映像表示処理部105は仮想空間におけるコンテンツを予め図示しない仮想空間記憶部に格納する。仮想空間記憶部としては例えばRAM115を利用することが可能である。仮想空間記憶部に記憶された仮想空間161には複数のコンテンツの画像が、それぞれ仮想空間161内の所定の位置に位置決めされて収納されている。 The video display processing unit 105 stores contents in the virtual space in advance in a virtual space storage unit (not shown). For example, the RAM 115 can be used as the virtual space storage unit. A plurality of content images are stored in the virtual space 161 stored in the virtual space storage unit while being positioned at predetermined positions in the virtual space 161 .

すなわち、仮想空間に関しては、物体131に対してどの場所にどのコンテンツを表示するかのマップを持っている。具体的には、この例では物体131と仮想空間161の相対的位置関係があらかじめ定められており、コンテンツ162が物体131の右側に位置するように定められている。コンテンツの位置は、例えば第二の座標系に従った座標で示すことができる。仮想空間161のサイズは任意であり大きさに制限はない。なお、現実空間に関してはマップを持っておらず、カメラ画像を基に第一の基準座標系が生成できればよい。 In other words, as for the virtual space, it has a map indicating which contents are to be displayed at which locations with respect to the object 131 . Specifically, in this example, the relative positional relationship between the object 131 and the virtual space 161 is determined in advance, and the content 162 is determined to be positioned on the right side of the object 131 . The position of the content can be indicated by coordinates according to the second coordinate system, for example. The size of the virtual space 161 is arbitrary and the size is not limited. It should be noted that the physical space does not have a map, and it is sufficient if the first reference coordinate system can be generated based on the camera image.

図9の例では、仮想空間161に3つのコンテンツ162A~162Cが左右方向に位置をずらして収納されている。仮想空間161の保存形式は、例えば、ビットマップイメージなどの画像ファイルである。一般的な例では映像表示部106が表示できる画角が小さいので、ここで、映像表示装置100で表示可能な領域は仮想空間161のうち、表示領域163に位置するコンテンツだけであり、その表示領域163の位置は映像表示処理部105により決定される。図9の例では、表示領域163はコンテンツ162Aの一部に重なっており、映像表示装置100は表示領域163内のコンテンツ162Aの一部を表示することができる。 In the example of FIG. 9, three contents 162A to 162C are stored in the virtual space 161 with their positions shifted in the horizontal direction. The storage format of the virtual space 161 is, for example, an image file such as a bitmap image. In a general example, since the angle of view that can be displayed by the image display unit 106 is small, the area that can be displayed by the image display device 100 is only the content located in the display area 163 in the virtual space 161. The position of the area 163 is determined by the video display processing unit 105 . In the example of FIG. 9, the display area 163 overlaps part of the content 162A, and the video display device 100 can display part of the content 162A within the display area 163. In the example of FIG.

表示領域163の位置は、例えば頭の動きに連動して第二の座標系の座標で定められる。このようにカメラの動きに合わせて、表示領域を仮想空間の中から切り出して映像を表示する。頭部の方向を変えることで、視線方向に配置されたコンテンツを見る手法については、例えば特許文献1等に記載の公知技術を採用してよい。 The position of the display area 163 is determined by the coordinates of the second coordinate system in conjunction with the movement of the head, for example. In this way, the display area is cut out from the virtual space and the image is displayed in accordance with the movement of the camera. As for the method of viewing the content arranged in the line-of-sight direction by changing the direction of the head, for example, the known technology described in Patent Literature 1 or the like may be adopted.

すでに説明したように、本実施例では第二の基準座標系自体の補正を行う方式を示したが、第二の基準座標系における表示領域163の座標やコンテンツの座標を補正しても同様の効果がある。この場合には、第二の基準座標系を補正する場合とシフト量は同じで方向を逆向きにシフトさせるように、コンテンツ等の座標を補正すればよい。 As already explained, in the present embodiment, a method of correcting the second reference coordinate system itself was shown, but the same is true even if the coordinates of the display area 163 and the coordinates of the content in the second reference coordinate system are corrected. effective. In this case, the coordinates of the content or the like may be corrected so that the amount of shift is the same as in the case of correcting the second reference coordinate system, but the direction is reversed.

座標処理部104は撮像画像内にx’軸136及びy’軸137を第一の補正座標系として決定した後、仮想空間161内において、x’軸136及びy’軸137が如何なる位置及び如何なる方向に該当するか計算し、仮想空間161内における第二の補正座標系として座標系情報をコントローラー107に送信する。即ち座標系情報は、例えば、仮想空間161若しくは表示領域163のうち少なくとも一方が第二の補正座標系の如何なる位置及び如何なる方向に該当するかを表す。 After determining the x′-axis 136 and the y′-axis 137 in the captured image as the first correction coordinate system, the coordinate processing unit 104 determines the positions and positions of the x′-axis 136 and the y′-axis 137 in the virtual space 161 . It calculates whether it corresponds to the direction, and transmits the coordinate system information to the controller 107 as the second correction coordinate system in the virtual space 161 . That is, the coordinate system information represents, for example, what position and what direction at least one of the virtual space 161 and the display area 163 corresponds to in the second corrected coordinate system.

映像表示処理部105はコントローラー107から仮想空間161内における第二の補正座標系に関する座標系情報を受領し、該第二の補正座標系において所定の位置に表示領域163を設定する。 The image display processing unit 105 receives coordinate system information regarding the second corrected coordinate system in the virtual space 161 from the controller 107, and sets the display area 163 at a predetermined position in the second corrected coordinate system.

映像表示処理部105は、表示領域163内にある情報を表示コンテンツとしてコントローラー107に送信する。第二の補正座標系は現実空間では略移動しない座標系であるから、映像表示装置100が表示するコンテンツは、映像表示装置100の移動に略影響されない。すなわちコンテンツがあたかも現実空間に貼りついているかのように利用者700が知覚する、映像表示が可能である。また、事前にコンテンツを仮想空間記憶部に記憶させておくため、映像表示処理部105が表示コンテンツを決定するたびに仮想空間の一部若しくは全体の描画が不要となり、表示コンテンツの決定の速度を速める、つまり高速化を図ることが可能である。 The video display processing unit 105 transmits information in the display area 163 to the controller 107 as display content. Since the second corrected coordinate system is a coordinate system that does not substantially move in the physical space, the content displayed by the video display device 100 is substantially unaffected by the movement of the video display device 100 . That is, it is possible to display an image that the user 700 perceives as if the content were pasted on the real space. In addition, since the contents are stored in advance in the virtual space storage unit, it becomes unnecessary to draw a part or the whole of the virtual space each time the video display processing unit 105 determines the display content. It is possible to speed up, that is, to increase the speed.

現実空間に重畳させてコンテンツを視認する透過型ディスプレイでは、以上のようにして利用者が物体を視認する際に、表示コンテンツを同時に表示することができる。以上の説明では、基準座標系、補正座標系とも撮影画像内の物体上に規定されるので、基本的に二次元座標系でよい。仮想空間の座標系も同様である。 In a transmissive display in which content is superimposed on the real space and visually recognized, display content can be simultaneously displayed when a user visually recognizes an object as described above. In the above description, both the reference coordinate system and the correction coordinate system are defined on the object in the photographed image, so basically the two-dimensional coordinate system may be used. The same applies to the coordinate system of the virtual space.

図10は、本実施例に係る映像表示処理部105による表示コンテンツの決定方法の別の一例を示す図である。図10では説明のために、利用者700から見た現実空間と仮想空間を合わせて表記している。映像表示処理部105は、映像表示装置が表示するコンテンツ171の補正座標系における座標に関する情報を事前に備えている。例えば、映像表示処理部105は、分電盤の右端から5度の位置に操作マニュアルというコンテンツを表示するといった内容の情報を備えている。この情報は第二の補正座標系の座標として示すことができる。映像表示処理部105は、コンテンツ171の少なくとも一部が表示領域163に重なっていることを認識した場合、表示コンテンツとしてコンテンツ171を描画し、該表示コンテンツをコントローラー107に送信する。 FIG. 10 is a diagram showing another example of the display content determination method by the video display processing unit 105 according to the present embodiment. For the sake of explanation, FIG. 10 shows both the real space and the virtual space seen by the user 700 . The image display processing unit 105 is provided in advance with information regarding the coordinates in the corrected coordinate system of the content 171 displayed by the image display device. For example, the video display processing unit 105 has information such as to display a content called an operation manual at a position 5 degrees from the right end of the distribution board. This information can be expressed as coordinates in a second corrected coordinate system. When recognizing that at least part of the content 171 overlaps the display area 163 , the video display processing unit 105 draws the content 171 as display content and transmits the display content to the controller 107 .

第二の補正座標系は現実空間では略移動しない座標系であるから、映像表示装置100は、映像表示装置100の移動に略影響されない、すなわちコンテンツがあたかも現実空間に貼りついているかのように利用者700が知覚する、映像表示が可能である。例えば、補正座標系が分電盤に貼りついている場合、補正座標系における座標を指定することで、分電盤に貼りついたようにコンテンツを表示できる。また、仮想空間全体の情報を仮想空間記憶部に記憶しなくてよいため、記憶部の使用量削減及び低コスト化を実現可能である。 Since the second corrected coordinate system is a coordinate system that does not substantially move in the physical space, the image display device 100 is not substantially affected by the movement of the image display device 100, that is, the content can be used as if it were attached to the physical space. A video display that is perceived by the person 700 is possible. For example, when the corrected coordinate system is attached to the distribution board, by specifying the coordinates in the corrected coordinate system, the content can be displayed as if it were attached to the distribution board. In addition, since it is not necessary to store the information of the entire virtual space in the virtual space storage unit, it is possible to reduce the usage amount of the storage unit and reduce the cost.

図11は本実施例に係る映像表示装置100が表示する表示コンテンツの位置の例を示す図である。表示コンテンツの表示位置は、以下の方法で物体との位置関係を第一の補正座標系で定め、座標変換情報で第二の補正座標系の座標に変換してあらかじめ決めておくことができる。仮想空間161のコンテンツ162の位置と表示領域163の位置を第二の補正座標系で定めておけば、重なった部分が表示される。 FIG. 11 is a diagram showing an example of positions of display content displayed by the video display device 100 according to the present embodiment. The display position of the display content can be determined in advance by determining the positional relationship with the object in the first correction coordinate system by the following method and converting it into the coordinates of the second correction coordinate system using the coordinate conversion information. If the position of the content 162 in the virtual space 161 and the position of the display area 163 are determined in the second correction coordinate system, the overlapping portion is displayed.

アイポイント180は、映像表示装置100を利用する利用者700の目の位置を示す。また、利用者700が正面を向き正面を見た時に利用者が視認する物体131上の点を中心点181とし、物体131の端を端182とする。 An eye point 180 indicates the eye position of the user 700 who uses the video display device 100 . Also, a point on the object 131 visually recognized by the user 700 when the user 700 faces the front is defined as a center point 181 , and an end of the object 131 is defined as an edge 182 .

映像表示装置100は、例えば表示コンテンツ184が物体131と重ならないように表示する。具体的には、表示コンテンツ184の端183が、物体の端182に対して、中心点181と反対側となるように表示コンテンツ184を表示する。これにより、表示コンテンツ184により利用者700が物体131を認識しにくくなることを防ぐことができ、物体131の視認性を向上させることが可能である。本実施例の別の観点では、中心点181は物体131の中心とすることも可能である。 The video display device 100 displays, for example, the display content 184 so as not to overlap the object 131 . Specifically, the display content 184 is displayed such that the edge 183 of the display content 184 is on the opposite side of the center point 181 with respect to the edge 182 of the object. As a result, it is possible to prevent the display content 184 from making it difficult for the user 700 to recognize the object 131, and the visibility of the object 131 can be improved. In another aspect of this embodiment, center point 181 may be the center of object 131 .

本実施例の別の観点では、アイポイント180と中心点181を結ぶ線分と、アイポイント180と表示コンテンツの端183を結ぶ線分とがなす角度θが所定の角度以上となるように表示コンテンツを表示する。例えば、映像表示装置100は、角度θが2.5度以上となるように表示コンテンツを表示する。これにより利用者700が正面を見ている場合に映像表示装置100は弁別視野の範囲を避けて映像を表示することができるようになるため、利用者700による物体131の視認性を向上させることができる。 From another aspect of the present embodiment, the display content is displayed so that the angle θ between the line segment connecting the eye point 180 and the center point 181 and the line segment connecting the eye point 180 and the edge 183 of the display content is greater than or equal to a predetermined angle. View content. For example, the video display device 100 displays the display content so that the angle θ is 2.5 degrees or more. As a result, when the user 700 is looking at the front, the image display device 100 can display an image while avoiding the range of the discrimination visual field, thereby improving the visibility of the object 131 by the user 700. can be done.

本実施例の別の観点では、映像表示装置100は角度θが15度以上となるように表示コンテンツを表示する。これにより映像表示装置100は有効視野を避けて映像を表示することができるようになるため、利用者700による物体131の視認性を更に向上させることができる。 From another aspect of this embodiment, the video display device 100 displays the display content so that the angle θ is 15 degrees or more. As a result, the image display device 100 can display an image while avoiding the effective field of view, so that the visibility of the object 131 by the user 700 can be further improved.

本実施例の別の観点では、映像表示装置100は角度θが30度以上となるように表示コンテンツを表示する。これにより映像表示装置100は安定注視野を避けて映像を表示することができるようになるため、利用者700による物体131の視認性を更に向上させることができる。 From another aspect of this embodiment, the video display device 100 displays the display content so that the angle θ is 30 degrees or more. As a result, the image display device 100 can display an image while avoiding the stable fixation field, so that the visibility of the object 131 by the user 700 can be further improved.

本実施例の別の観点では、映像表示装置100は角度θが50度以上となるように表示コンテンツを表示する。これにより映像表示装置100は誘導視野を避けて映像を表示することができるようになるため、利用者700による物体131の視認性を更に向上させることができる。 From another aspect of this embodiment, the video display device 100 displays the display content so that the angle θ is 50 degrees or more. As a result, the image display device 100 can display an image while avoiding the induced visual field, so that the visibility of the object 131 by the user 700 can be further improved.

本実施例によれば、撮像部101の撮像画像を基にした基準座標系の決定及びセンサ部102からのセンシング情報を基にした補正座標系の決定を行い、該補正座標系に基づき表示コンテンツの決定を行うため、位置精度の高い映像表示が可能な映像表示装置100を提供可能である。また、高速な特徴点の位置や相対ずれ量の認識、及び基準座標系や補正座標系の決定、表示コンテンツの決定が可能であるため、映像表示装置100の動きに対して遅延の少ない重畳映像を表示可能な映像表示装置100を提供可能である。 According to this embodiment, the reference coordinate system is determined based on the captured image of the imaging unit 101 and the correction coordinate system is determined based on the sensing information from the sensor unit 102, and the display content is displayed based on the correction coordinate system. is determined, it is possible to provide the image display device 100 capable of displaying images with high positional accuracy. In addition, since it is possible to recognize the position of the feature point and the relative deviation amount at high speed, determine the reference coordinate system and the correction coordinate system, and determine the display content, the superimposed image with little delay with respect to the movement of the image display device 100 can be provided.

実施例2では、時間変化と共に基準座標系を決定する際の特徴点が変更可能な構成とした。なお、実施例2において、前述した実施例との相違点を主に説明し、前述した実施例と同じ構成には同じ符号を付し、それらの説明は省略する。 In the second embodiment, the feature point for determining the reference coordinate system can be changed with time. In addition, in Example 2, differences from the above-described examples will be mainly described, and the same components as those of the above-described examples will be given the same reference numerals, and their description will be omitted.

図12は、本実施例に係る特徴点と基準座標系の一例を示した図である。 FIG. 12 is a diagram showing an example of feature points and a reference coordinate system according to this embodiment.

図13は、本実施例のコンテンツ表示に係るフローチャートの一例を示した図である。以下、図7と異なる部分を主に説明する。 FIG. 13 is a diagram showing an example of a flowchart relating to content display according to the present embodiment. Hereinafter, the parts different from FIG. 7 will be mainly described.

図13に示したフローにおいて、S111で所定回数経過したことが判断された場合は特徴点の位置の認識(S202)及び基準座標系の決定(S203)を繰り返し行うが、異なる時刻において特徴点の位置の認識(S202)及び基準座標系の決定(S203)を行う時刻を時刻T1、時刻T2、及び時刻T3とする。ここで時刻T2は時刻T1より後の時刻であり、時刻T3は時刻T2より後の時刻である。 In the flow shown in FIG. 13, when it is determined in S111 that the predetermined number of times has passed, recognition of the position of the feature point (S202) and determination of the reference coordinate system (S203) are repeated. Time T1, time T2, and time T3 are times at which the position is recognized (S202) and the reference coordinate system is determined (S203). Here, the time T2 is the time after the time T1, and the time T3 is the time after the time T2.

なお、特徴点の位置の認識(S202)と基準座標系の決定(S203)が行われる時刻には当然時間差があるが、本実施例では特徴点の位置の認識(S202)及び基準座標系の決定(S203)の時間差には特に言及せず、両者のステップを実行する代表的な時刻として時刻T1等と呼ぶこととする。 There is naturally a time difference between the time when the position of the feature point is recognized (S202) and the time when the reference coordinate system is determined (S203). The time difference between determination (S203) is not particularly mentioned, and a typical time at which both steps are executed is referred to as time T1 or the like.

図12(a)に示すように、時刻T1のS202において、特徴点位置認識部103は特徴点200の位置を認識する。また時刻T1のS203において、座標処理部104は特徴点200の位置を基に基準座標系のx軸202A及びy軸203Aを決定する。 As shown in FIG. 12A, in S202 at time T1, the feature point position recognition unit 103 recognizes the position of the feature point 200. As shown in FIG. In S203 at time T1, the coordinate processing unit 104 determines the x-axis 202A and the y-axis 203A of the reference coordinate system based on the position of the feature point 200. FIG.

時刻T2のS202において、特徴点位置認識部103は特徴点200及び特徴点201の位置を認識し、特徴点200及び特徴点200とは異なる特徴点201の位置の認識結果をコントローラー107に送信する。なお本例では、2つの特徴点を認識するが、3つ以上としてもよい。 In S202 at time T2, the feature point position recognition unit 103 recognizes the positions of the feature points 200 and 201, and transmits the recognition result of the position of the feature points 200 and 201 different from the feature points 200 to the controller 107. . Although two feature points are recognized in this example, three or more feature points may be recognized.

図12(b)に示すように、時刻T2のS203において、コントローラーは特徴点200及び特徴点201の位置の認識結果を座標処理部104に送信する。座標処理部104は特徴点200及び特徴点201の位置の差異204を検出し、時刻T1において決定した基準座標系のx軸202A及びy軸203A、若しくは時刻T2の直前に座標処理部104が決定した補正座標系のx’軸及びy’軸と、特徴点201を基準とした基準座標系のx軸202B及びy軸203Bが略一致するように、特徴点201を基準として基準座標系のx軸202B及びy軸203Bを決定する。 As shown in FIG. 12B, in S203 at time T2, the controller transmits the recognition results of the positions of the feature points 200 and 201 to the coordinate processing unit 104. As shown in FIG. The coordinate processing unit 104 detects a positional difference 204 between the feature point 200 and the feature point 201, and the x-axis 202A and y-axis 203A of the reference coordinate system determined at time T1, or determined by the coordinate processing unit 104 immediately before time T2. x'-axis and y'-axis of the corrected coordinate system and the x-axis 202B and y-axis 203B of the reference coordinate system with the feature point 201 as a reference are substantially aligned with each other. Determine axis 202B and y-axis 203B.

図12(c)に示すように、時刻T3のS202において、特徴点位置認識部103は特徴点201の位置を認識する。また時刻T3のS203において、座標処理部104は特徴点201の位置を基に基準座標系のx軸202B及びy軸203Bを決定する。 As shown in FIG. 12(c), the feature point position recognition unit 103 recognizes the position of the feature point 201 at S202 at time T3. In S203 at time T3, the coordinate processing unit 104 determines the x-axis 202B and the y-axis 203B of the reference coordinate system based on the position of the feature point 201. FIG.

本実施例によれば、映像表示装置100は基準座標系を決定するための特徴点を変更することができる。これにより、映像表示装置100が移動するにつれて、撮像部101が撮像する画像において特徴点が画像の範囲外に出てしまう場合においても、撮像部101が撮像する画像に写っている別の特徴点を利用して基準座標系を決定することができるようになる。従って、映像表示装置100が大きく移動する場合においても、位置精度の高い映像表示が可能な映像表示装置100を提供可能である。 According to this embodiment, the image display device 100 can change the feature points for determining the reference coordinate system. As a result, as the image display device 100 moves, even if the feature point in the image captured by the imaging unit 101 goes out of the range of the image, another feature point captured in the image captured by the imaging unit 101 can be detected. can be used to determine the reference coordinate system. Therefore, it is possible to provide the image display device 100 capable of displaying images with high positional accuracy even when the image display device 100 moves greatly.

実施例3では、利用者700がコマンドで特徴点を示すことが可能な構成とした。なお、実施例3において、前述した実施例との相違点を主に説明し、前述した実施例と同じ構成には同じ符号を付し、それらの説明は省略する。 In the third embodiment, the configuration is such that the user 700 can indicate a feature point with a command. In addition, in Example 3, differences from the above-described examples will be mainly described, and the same components as those of the above-described examples will be given the same reference numerals, and descriptions thereof will be omitted.

図14は、本実施例に係る映像表示装置100の機能ブロックの一例を示す図である。映像表示装置100は、入力部301と、コマンド認識部302と、を備える。 FIG. 14 is a diagram showing an example of functional blocks of the video display device 100 according to this embodiment. The video display device 100 includes an input section 301 and a command recognition section 302 .

図15は、本実施例に係る映像表示装置100の一例を示す図である。映像表示装置100は、入力部301としてマイク310を備える。 FIG. 15 is a diagram showing an example of the video display device 100 according to this embodiment. The video display device 100 includes a microphone 310 as an input section 301 .

図16は、本実施例の基準座標系の決定に至るフローチャートの一例を示した図である。 FIG. 16 is a diagram showing an example of a flowchart leading to determination of the reference coordinate system in this embodiment.

はじめに、映像表示装置100は、マーカーを表示する(S301)。コントローラー107は、映像表示処理部105にコマンドを送信する。映像表示処理部105はコマンドに従い、表示コンテンツにマーカーを描画し、該表示コンテンツをコントローラー107に送信する。 First, the image display device 100 displays a marker (S301). The controller 107 transmits commands to the video display processing unit 105 . The video display processing unit 105 draws a marker on the display content and transmits the display content to the controller 107 according to the command.

図17は、本実施例に係る現実空間にマーカーを重畳表示する様子の一例を示す図である。映像表示装置100が表示する映像領域320の一部にマーカー321を表示する。図16ではマーカーとして「+」の記号を利用する例とした。 FIG. 17 is a diagram showing an example of how markers are superimposed and displayed in the physical space according to the present embodiment. A marker 321 is displayed in part of the image area 320 displayed by the image display device 100 . FIG. 16 shows an example of using a "+" symbol as a marker.

次に、映像表示装置100は特徴点を指定するコマンドの有無を判定する(S302)。入力部301は入力部に入力された情報をコントローラー107に送信する。コントローラーは入力部から入力された情報をコマンド認識部302に送信する。コマンド認識部302はコントローラーから受信した情報に所定のコマンドが存在するか否かを検出する。コマンド認識部302は検出結果をコントローラー107に送信する。 Next, the video display device 100 determines whether or not there is a command designating a feature point (S302). The input unit 301 transmits information input to the input unit to the controller 107 . The controller transmits information input from the input unit to the command recognition unit 302 . A command recognition unit 302 detects whether or not a predetermined command exists in the information received from the controller. Command recognition unit 302 transmits the detection result to controller 107 .

入力部301としてマイク310を備える映像表示装置の例では、コマンド認識部302は、例えばマイクがセンシングした音の情報に、利用者700が発した所定の文字列、例えば「特徴点セット」が含まれているか検出する。所定の文字列が含まれている場合、コマンド認識部302は特徴点を指定するコマンド有りとして認識結果をコントローラー107に送信する。 In an example of a video display device that includes a microphone 310 as the input unit 301, the command recognition unit 302 includes, for example, a predetermined character string uttered by the user 700, such as "feature point set," in sound information sensed by the microphone. detect if it is If a predetermined character string is included, the command recognition unit 302 transmits the recognition result to the controller 107 as a command specifying a feature point.

コントローラー107は、コマンド認識部302から、特徴点を指定するコマンド有りとの認識結果を受領するまで繰り返す。 The controller 107 repeats until it receives a recognition result indicating that there is a command specifying a feature point from the command recognition unit 302 .

次に、映像表示装置100は、マーカーを非表示にする(S303)。コントローラー107は、映像表示処理部105にコマンドを送信する。映像表示処理部105はコマンドに従い、表示コンテンツにマーカーを描画しないように動作を変更し、該表示コンテンツをコントローラー107に送信する。 Next, the video display device 100 hides the marker (S303). The controller 107 transmits commands to the video display processing unit 105 . In accordance with the command, the video display processing unit 105 changes the operation so as not to draw the marker on the display content, and transmits the display content to the controller 107 .

次に、映像表示装置100はカメラ画像を取得する(S101)。 Next, the video display device 100 acquires a camera image (S101).

次に、映像表示装置100は特徴点の位置の認識を行う(S304)。コントローラー107はマーカー321の所定の位置322を特徴点位置認識部103に送信し、特徴点位置認識部103はカメラ画像のうちマーカーの位置322を特徴点とする。そして該特徴点のカメラ画像内における位置を認識する。 Next, the image display device 100 recognizes the position of the feature point (S304). The controller 107 transmits the predetermined position 322 of the marker 321 to the feature point position recognition unit 103, and the feature point position recognition unit 103 uses the marker position 322 in the camera image as a feature point. Then, the position of the feature point within the camera image is recognized.

上記ではマーカーの位置322を特徴点としたが、本発明はこれに限られない。例えばマーカーの近傍を特徴点とすることも可能である。例えば、カメラ画像のうちマーカーの位置を中心として所定の画素範囲の中に存在する物体を特徴点とすることも可能である。これにより、マーカーの位置に物体がない場合でも特徴点を設定することが可能となる。 Although the position 322 of the marker is used as a feature point in the above description, the present invention is not limited to this. For example, the vicinity of the marker can be set as the feature point. For example, it is possible to use an object existing within a predetermined pixel range around the position of the marker in the camera image as a feature point. This makes it possible to set feature points even when there is no object at the position of the marker.

本発明の別の観点では、例えばマーカーが示す場所若しくはその近傍を特徴点とすることも可能である。例えばマーカーとして矢印を表示し、矢印の先端若しくはその近傍を特徴点とすることも可能である。これにより。マーカーが物体に重なることを避けることができ、視認性の向上を図ることが可能となる。 In another aspect of the present invention, for example, the location indicated by the marker or the vicinity thereof can be used as the feature point. For example, it is possible to display an arrow as a marker and use the tip of the arrow or its vicinity as a feature point. By this. It is possible to prevent the marker from overlapping with the object, and it is possible to improve the visibility.

上記のフローが本実施例に係る映像表示装置100の特徴点の位置の認識フローであり、特徴点の位置の認識(S304)以降は図7等のS104の実行以降を実行する。 The above flow is the feature point position recognition flow of the video display apparatus 100 according to the present embodiment, and after the feature point position recognition (S304), the steps after S104 in FIG. 7 and the like are executed.

本実施例によれば、利用者700がコマンドで特徴点を示すことが可能であり、利用者700の意図に合わせた基準座標系の決定が可能となる。また、映像表示装置100が特徴点を決定しづらい場合においても、利用者の意図により特徴点を指定することができ、安定して位置精度の高い映像表示が可能な映像表示装置100を提供可能である。 According to this embodiment, it is possible for the user 700 to indicate a feature point with a command, and it is possible to determine the reference coordinate system according to the intention of the user 700 . In addition, even when it is difficult for the image display device 100 to determine the feature points, it is possible to provide the image display device 100 capable of stably displaying images with high positional accuracy by designating the feature points according to the user's intention. is.

実施例4は、作業員が組み立てや製造、検査、保守、点検などを行っている工場、現場の遠隔作業支援システム450に活用した一実施例である。 Example 4 is an example that is utilized in a remote work support system 450 in factories and sites where workers perform assembly, manufacturing, inspection, maintenance, inspection, and the like.

図18は本実施例に係る映像表示装置100を活用した遠隔作業支援システム450の例を示す一構成図である。 FIG. 18 is a configuration diagram showing an example of a remote work support system 450 utilizing the video display device 100 according to this embodiment.

作業員701は、本実施例の映像表示装置100を携帯し、工場ラインの製品組み立てや検査等を行っている。映像表示装置100は、前述のような空間上にバーチャルイメージを投影し、作業手順書や、図面、チェックリストなど作業支援のためのコンテンツを表示している。本発明の実施例では、作業員701の手作業の邪魔にならない視界上の範囲表示も空間位置座標を決めることで、常に映像を表示することが可能で使い勝手が大幅に向上する技術を搭載しても良い。例えば視線方向中心から水平±10°~±75°、垂直-60°~-90°は表示しないように、自動、もしくは作業員701側若しくは管理者420側で設定が可能で、手元、足元にコンテンツが表示されることなく、安全に手元、足元の視野確保と確認が可能で、動き回る点検作業や組立作業においても安心、安全に作業を進めることができる。 A worker 701 carries the image display device 100 of the present embodiment, and performs product assembly, inspection, and the like on a factory line. The image display device 100 projects a virtual image onto the space as described above, and displays contents for work support, such as work procedure manuals, drawings, and checklists. In the embodiment of the present invention, by determining the spatial position coordinates of the range display on the visual field that does not interfere with the manual work of the worker 701, it is possible to always display the image, and it is equipped with a technology that greatly improves usability. can be For example, horizontal ±10° to ±75° and vertical -60° to -90° from the center of the line of sight can be set not to be displayed automatically or by the worker 701 side or the manager 420 side. It is possible to safely secure and confirm the field of view at hand and feet without displaying content, and work can be carried out safely and securely even during inspection work and assembly work that requires moving around.

映像表示装置100は図示しない通信手段を備えており、Wi-Fi(商標)、LTE(商標)、5G、6G、有線、光などローカル、パブリック無線などのネットワーク401を介して、遠隔地にいる管理者420の遠隔管理装置410と接続され、情報共有を行っている。作業員701はエッジ端末であるタブレット、スマートフォン、HMD、PC(Personal Computer)などの映像表示装置100を所有し、ネットワーク401を通じてデータの授受を実施する。ネットワーク401を経て、作業者周辺のカメラ402の映像、センサ403のデータ、装置404の状態等のセンシングデータなどをエッジサーバ407や管理者420に伝送する。エッジサーバ407や管理者420は各種情報をもとに状況認識、判断、予測(特に危険、異常、異常行動などの予知)を実施する。また、このようにして異常状態を認識した時などに、エッジサーバ407や管理者420は映像表示装置100などの表示映像や音声、指示信号を通して作業指示や注意喚起を作業員701に伝える。 The image display device 100 is equipped with a communication means (not shown), and is remotely located via a network 401 such as Wi-Fi (trademark), LTE (trademark), 5G, 6G, wired, optical, local, public wireless, or the like. It is connected to the remote management device 410 of the administrator 420 and shares information. A worker 701 owns a video display device 100 such as a tablet, smartphone, HMD, or PC (Personal Computer), which is an edge terminal, and exchanges data through the network 401 . Via the network 401 , the image of the camera 402 around the worker, the data of the sensor 403 , the sensing data such as the state of the device 404 , etc. are transmitted to the edge server 407 and the administrator 420 . The edge server 407 and administrator 420 carry out situation recognition, judgment, and prediction (particularly prediction of danger, abnormality, and abnormal behavior) based on various information. Also, when an abnormal state is recognized in this way, the edge server 407 and the administrator 420 give work instructions and alerts to the worker 701 through display images, sounds, and instruction signals on the image display device 100 and the like.

また、作業員701が図面や作業工程での疑問を問い合わせ、作業工程のチェックミスなどを自動的に判別する図示しない作業管理システムを組み込む場合、作業員701もしくは管理者420は、リアルタイムに現場の状況に対応した表示コンテンツをエッジ端末などの映像表示装置100にて表示することが可能である。さらには、作業指示、文字入力、手書き入力などの作業指示をサポートするコンテンツも管理者420から表示し、作業員701の疑問、質問、悩みを表示コンテンツにより解消することができる。このとき、表示コンテンツは上述の作業員701の視線の絶対座標位置もしくは、コンテンツにより作業員701の視線の邪魔にならないような絶対座標もしくは相対座標配置で表示され、この場合は作業手元や歩行の邪魔にならない位置へ表示されるため、より快適な遠隔作業支援システム450を提供できる。 In addition, when the worker 701 asks questions about drawings and work processes, and incorporates a work management system (not shown) that automatically discriminates check errors in the work process, the worker 701 or the manager 420 can monitor the site in real time. Display content corresponding to the situation can be displayed on the video display device 100 such as an edge terminal. Furthermore, contents supporting work instructions such as work instructions, character input, and handwritten input can be displayed by the administrator 420, and questions, questions, and worries of the worker 701 can be resolved by the displayed contents. At this time, the display content is displayed at the above-described absolute coordinate position of the line of sight of the worker 701, or at an absolute coordinate or relative coordinate arrangement that does not interfere with the line of sight of the worker 701. Since it is displayed in a position that does not get in the way, a more comfortable remote work support system 450 can be provided.

このように現実空間に仮想空間の映像を重畳することで利用者に情報を提示するヘッドマウントディスプレイなどの使い勝手の良い映像表示装置100及び遠隔作業支援システム450が提供できる。工場などでは、作業工程などのコンテンツを見ながら作業を行うケースがあるが、作業対象の近くにディスプレイや図面や作業工程表などの紙媒体を配置することが難しい場合、あるいは高所などの両手を必要とする作業がある。そのようなとき、ヘッドマウントディスプレイなどの映像表示装置100と上述の遠隔作業支援システム450を使用すれば、作業員701は映像表示装置100に表示される作業指示などを参照しながら作業を行うことができ、上述の使い勝手に優れた遠隔作業支援システム450を活用することで、安心安全かつ作業効率を改善することができる。 By superimposing the image of the virtual space on the real space in this way, it is possible to provide a user-friendly image display device 100 such as a head-mounted display that presents information to the user and the remote work support system 450 . In factories, etc., there are cases where work is performed while viewing content such as the work process, but when it is difficult to place paper media such as displays, drawings, and work process charts near the work target, or when it is difficult to place both hands in a high place There are tasks that require In such a case, if the video display device 100 such as a head-mounted display and the remote work support system 450 are used, the worker 701 can perform the work while referring to the work instructions displayed on the video display device 100. By utilizing the above-described remote work support system 450, which is excellent in usability, it is possible to improve safety and security and work efficiency.

管理者420は作業員701と同一のネットワーク401の内部に位置していてもかまわないし、インターネットを介した別の場所に位置していてもかまわない。また、上述のエッジサーバ407のうち、少なくとも一部はクラウドサーバ408であってもよい。遠隔作業支援システム450は、エッジサーバ407が備えていてもよいし、クラウドサーバ408は備えていてもよい。 The administrator 420 may be located inside the same network 401 as the worker 701, or may be located in another location via the Internet. Also, at least part of the edge servers 407 described above may be cloud servers 408 . The remote work support system 450 may be provided in the edge server 407 or may be provided in the cloud server 408 .

図19は、本実施例の遠隔作業支援システム450に組み込まれている、映像伝送システムの概略構成図例である。例えば、作業員701の作業環境を観察するカメラ402に 4K, 30fps性能のカメラを活用する。カメラからPC431への情報伝送は USB 3.0が利用される。またPC431からWi-Fi6ルータ432 (IEEE 802.11ax, 9.6Gbps) を活用し映像情報を伝送する。また、Wi-Fi6ネットワーク433を介して遠隔側に位置する管理者420に映像情報、音声、センサ情報などを双方向または片方向重点的に通信する機能を有する。遠隔管理側に設置されたWi-Fiルータ434を活用しPC435へ接続する。例えば、Wi-Fi ルータ434からPC435へへの接続は1000BASE-T (IEEE 802.3ab)とし、情報を授受する構成とする。これにより、映像情報、音声情報を200ms以内の低遅延によりスムーズに通信可能となる。 FIG. 19 is an example of a schematic configuration diagram of a video transmission system incorporated in the remote work support system 450 of this embodiment. For example, a 4K, 30 fps camera is used as the camera 402 that observes the work environment of the worker 701 . USB 3.0 is used for information transmission from the camera to the PC 431 . Also, the PC 431 utilizes the Wi-Fi6 router 432 (IEEE 802.11ax, 9.6 Gbps) to transmit video information. It also has a function of bi-directionally or uni-directionally focused communication of video information, audio, sensor information, etc. to the administrator 420 located on the remote side via the Wi-Fi6 network 433 . The Wi-Fi router 434 installed on the remote management side is used to connect to the PC 435 . For example, the connection from the Wi-Fi router 434 to the PC 435 is 1000BASE-T (IEEE 802.3ab) to exchange information. As a result, video information and audio information can be smoothly communicated with a low delay of 200 ms or less.

以上のように高速低遅延で4K映像情報と音声情報を、最低限2本以上を送信可能な遠隔作業支援システム450を図19の情報伝送システムで実現し、かつ同時に上述の発明による映像コンテンツの空間表示を100ms以内で実現できる。このため、トータルの遅延量は300ms以下となり、人間が遅延を感じる遅延時間300ms以下を実現できる。これにより、低遅延300ms以下の4K映像伝送システムを構築でき、使い勝手が向上した遠隔作業支援システム450を実現できる。 As described above, the remote work support system 450 capable of transmitting at least two or more pieces of 4K video information and audio information at high speed and low delay is realized by the information transmission system of FIG. Spatial display can be achieved within 100ms. Therefore, the total amount of delay is 300 ms or less, and a delay time of 300 ms or less that humans perceive can be realized. As a result, a 4K video transmission system with a low delay of 300 ms or less can be constructed, and a remote work support system 450 with improved usability can be realized.

図20は遠隔作業支援システム450の一例を示す図である。作業員701は映像表示装置100を携行している。映像表示装置100は図示しないカメラを備えている。カメラは作業員701の前方を撮影しており、その撮影画像はネットワーク401を介して管理者420の遠隔管理装置410に伝送される。遠隔管理装置410はカメラ映像を表示し、管理者420はその表示映像460を視認する。 FIG. 20 is a diagram showing an example of a remote work support system 450. As shown in FIG. A worker 701 carries the image display device 100 with him. The image display device 100 has a camera (not shown). The camera captures an image in front of the worker 701 , and the captured image is transmitted to the remote control device 410 of the manager 420 via the network 401 . Remote management device 410 displays the camera image, and administrator 420 visually recognizes the displayed image 460 .

カメラが撮影した画像には少なくとも物体131が撮影されている。表示映像460は例えばタッチ操作若しくは手書き入力が可能なタブレットなどに表示されている。管理者420は表示画像を認識し、作業員701への指示をタッチ操作若しくは手書き入力において入力する。例えば作業員701が作業を行うべき所定の位置を丸印や矢印などで示すことで入力する。入力された指示はネットワーク401を介して映像表示装置100に伝送され、映像表示装置100はその指示を表示する。 At least an object 131 is captured in the image captured by the camera. The display image 460 is displayed on, for example, a tablet capable of touch operation or handwriting input. The manager 420 recognizes the displayed image and inputs instructions to the worker 701 by touch operation or handwritten input. For example, the worker 701 inputs by indicating a predetermined position where the work should be performed with a circle or an arrow. The input instruction is transmitted to the image display device 100 via the network 401, and the image display device 100 displays the instruction.

カメラが撮影した映像は、作業員701の動きなどにより動的に変化していることがある。その場合には、遠隔作業支援システム450は図示しない指示位置認識部を備えており、指示位置認識部はカメラが撮影した映像に写っている物体131を認識すると共に、利用者が入力した指示の位置と物体131の相対位置を認識し、映像表示装置100が表示すべき指示の位置を物体131との相対位置としてネットワーク401を介して伝送する。映像表示装置100は物体131との相対位置を基に、指示を表示する。映像表示装置100が表示する映像の表示処理は映像表示処理部105が行う。即ち、本実施例では撮像部101の撮像画像を基にした基準座標系の決定及びセンサ部102からのセンシング情報を基にした補正座標系の決定を行い、該補正座標系に基づき表示コンテンツの決定を行うため、高い位置精度で、映像表示装置100は指示を表示可能である。 The video captured by the camera may change dynamically due to the movement of the worker 701 or the like. In this case, the remote work support system 450 includes an indicated position recognition unit (not shown), which recognizes the object 131 appearing in the image captured by the camera and recognizes the instruction input by the user. The position and the relative position of the object 131 are recognized, and the position of the instruction to be displayed by the video display device 100 is transmitted via the network 401 as the relative position to the object 131 . The image display device 100 displays instructions based on the relative position with respect to the object 131 . The video display processing unit 105 performs the display processing of the video displayed by the video display device 100 . That is, in this embodiment, a reference coordinate system is determined based on the captured image of the imaging unit 101 and a correction coordinate system is determined based on sensing information from the sensor unit 102, and display content is determined based on the correction coordinate system. To make decisions, the video display device 100 can display instructions with a high degree of positional accuracy.

なお、映像表示装置100が表示する指示の位置は、物体131の上に重なるように重畳表示されてもよいし、物体131と重ならないように表示してもよい。例えば、図17で示したように映像表示装置100は、表示コンテンツ184が物体131と重ならないように表示してもよい。 Note that the position of the instruction displayed by the image display device 100 may be superimposed on the object 131 or may be displayed so as not to overlap the object 131 . For example, as shown in FIG. 17 , the video display device 100 may display the display content 184 so as not to overlap the object 131 .

上記では作業員701が作業を行うべき所定の位置を丸印や矢印などで示すことで入力としたが、本発明はこれに限られない。例えば、遠隔管理装置410はマイク及び音声認識部を備えており、管理者420は音声により作業員701への指示を発し、マイクが管理者420の音声を収集し、収集した音声を音声認識部が認識をし、認識した指示を入力としてもよい。 In the above description, the worker 701 inputs by indicating the predetermined position where the work should be performed with a circle or an arrow, but the present invention is not limited to this. For example, the remote management device 410 has a microphone and a voice recognition unit, the manager 420 issues instructions to the worker 701 by voice, the microphone collects the voice of the manager 420, and the collected voice is transmitted to the voice recognition unit. may recognize and use the recognized instruction as an input.

本実施例の別の観点では、管理者420は前述のように音声により指示を入力すると共に、表示映像460が表示されているタブレットなどで指示を表示する位置に関しても入力し、映像表示装置100は表示する位置に指示を表示するように構成してもよい。 From another aspect of the present embodiment, the administrator 420 inputs the instructions by voice as described above, and also inputs the position of displaying the instructions on the tablet or the like on which the display image 460 is displayed. may be configured to display the instructions at the displayed position.

以上の説明では管理者420は音声により指示を入力するとしたが、本発明はこれに限られない。例えば、エッジサーバ407若しくはクラウドサーバ408若しくは遠隔管理装置410若しくは遠隔作業支援システム450が備えるデータベースから、所定の指示を取得し、取得した指示を入力としてもよい。 Although the administrator 420 inputs instructions by voice in the above description, the present invention is not limited to this. For example, a predetermined instruction may be obtained from a database included in the edge server 407, the cloud server 408, the remote management device 410, or the remote work support system 450, and the obtained instruction may be used as an input.

上記実施例では、表示領域163の位置を利用者700の頭部の方向に合わせて決めることを想定した。この場合、仮想空間は現実空間に固定される。ただし、特許文献1記載のように、表示領域163の位置を利用者700の頭部と腰部の動きの差分に基づいて決めることもできる。この場合利用者700から見ると、仮想空間は常に腰部の方向に合わせて移動する。 In the above embodiment, it is assumed that the position of the display area 163 is determined according to the direction of the head of the user 700 . In this case, the virtual space is fixed to the real space. However, as described in Patent Document 1, the position of the display area 163 can also be determined based on the difference between the movements of the user's 700 head and waist. In this case, when viewed from the user 700, the virtual space always moves in the direction of the waist.

上記実施例によれば、少ない処理量で利用者の頭部の動きに対する映像追従の遅延が少なく、現実空間と仮想空間の位置精度の高い重畳が可能となるため、消費エネルギーが少なく、炭素排出量を減らし、地球温暖化を防止、持続可能な社会の実現に寄与することができる。 According to the above embodiment, with a small amount of processing, there is little delay in following the motion of the user's head, and it is possible to superimpose the real space and the virtual space with high position accuracy, so energy consumption is low and carbon emissions are low. It can reduce the amount, prevent global warming, and contribute to the realization of a sustainable society.

なお、本発明は前述した実施例に限定されるものではなく、発明の趣旨内における様々な変形例及び同等の構成が含まれる。例えば、前述した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を有するものに本発明は限定されない。また、ある実施例の構成の一部を他の実施例の構成に置き換えてもよい。また、ある実施例の構成に他の実施例の構成を加えてもよい。また、各実施例の構成の一部について、他の構成の追加・削除・置換をしてもよい。 The present invention is not limited to the above-described embodiments, and includes various modifications and equivalent configurations within the scope of the invention. For example, the above-described embodiments have been described in detail in order to explain the present invention in an easy-to-understand manner, and the present invention is not necessarily limited to those having all the configurations described. Also, part of the configuration of one embodiment may be replaced with the configuration of another embodiment. Moreover, the configuration of another embodiment may be added to the configuration of one embodiment. Further, additions, deletions, and replacements of other configurations may be made for a part of the configuration of each embodiment.

また、前述した各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等により、ハードウェアで実現してもよく、プロセッサがそれぞれの機能を実現するプログラムを解釈し実行することにより、ソフトウェアで実現してもよい。 In addition, each configuration, function, processing unit, processing means, etc. described above may be realized by hardware, for example, by designing a part or all of them with an integrated circuit, and the processor realizes each function. It may be realized by software by interpreting and executing a program to execute.

各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリ、ハードディスク、SSD(Solid State Drive)等の記憶装置、又は、ICカード、SDメモリーカード、DVD等の記録媒体に格納することができる。 Information such as programs, tables, and files that implement each function can be stored in storage devices such as memory, hard disks, SSDs (Solid State Drives), or recording media such as IC cards, SD memory cards, and DVDs. .

また、制御線や情報線は説明上必要と考えられるものを示しており、実装上必要な全ての制御線や情報線を示しているとは限らない。実際には、ほとんど全ての構成が相互に接続されていると考えてよい。 In addition, the control lines and information lines indicate those considered necessary for explanation, and do not necessarily indicate all the control lines and information lines necessary for mounting. In practice, it can be considered that almost all configurations are interconnected.

100:映像表示装置、101:撮像部、102:センサ部、103:特徴点位置認識部、104:座標処理部、105:映像表示処理部、106:映像表示部、107:コントローラー、111:カメラ、112:センサ、113:ディスプレイ、114:CPU、115:RAM、116:記憶媒体、121:ジャイロセンサ、122:加速度センサ、131:物体、131A:分電盤、132:特徴点、133:x軸、134:y軸、135:相対ずれ量、136:x’軸、137:y’軸、151:頂点、152:辺、153:中心、154:物体、154A:頂点、154B:辺、155:文字列、155A:所定の位置、156:記号、161:仮想空間、162:コンテンツ、163:表示領域、171:コンテンツ、180:アイポイント、181:中心点、182:端、183:端、184:表示コンテンツ、200:特徴点、201:特徴点、202:x軸、203:y軸、204:位置の差異、301:入力部、302:コマンド認識部、310:マイク、320:映像領域、321:マーカー、322:位置、401:ネットワーク、402:カメラ、403:センサ、404:装置、407:エッジサーバ、408:クラウドサーバ、410:遠隔管理装置、420:管理者、450:遠隔作業支援システム、460:表示映像、700:利用者、701:作業員 100: video display device, 101: imaging unit, 102: sensor unit, 103: feature point position recognition unit, 104: coordinate processing unit, 105: video display processing unit, 106: video display unit, 107: controller, 111: camera , 112: sensor, 113: display, 114: CPU, 115: RAM, 116: storage medium, 121: gyro sensor, 122: acceleration sensor, 131: object, 131A: distribution board, 132: feature point, 133: x Axes 134: y-axis 135: relative displacement amount 136: x'-axis 137: y'-axis 151: vertex 152: side 153: center 154: object 154A: vertex 154B: side 155 : character string, 155A: predetermined position, 156: symbol, 161: virtual space, 162: content, 163: display area, 171: content, 180: eye point, 181: center point, 182: edge, 183: edge, 184: display content, 200: feature point, 201: feature point, 202: x-axis, 203: y-axis, 204: position difference, 301: input unit, 302: command recognition unit, 310: microphone, 320: image area , 321: marker, 322: position, 401: network, 402: camera, 403: sensor, 404: device, 407: edge server, 408: cloud server, 410: remote management device, 420: administrator, 450: remote work Support system, 460: Display image, 700: User, 701: Worker

Claims (15)

映像表示システムにおいて、
特徴点位置認識部と、
座標処理部と、
映像表示処理部と、を備え、
前記特徴点位置認識部は、撮像部で撮影した撮像画像を基に対象物の特徴点の位置を認識し、
前記座標処理部は、前記特徴点の位置を基に基準座標系を決定するとともに、センサ部が示すセンサ情報を基に前記撮像部の動きを検出し、映像の表示位置を前記撮像部の動きに基づいて補正し、
前記映像表示処理部は、前記基準座標系に基づいて映像を表示する際に、補正された映像の表示位置に映像を表示させる、ことを特徴とする映像表示システム。
In the image display system,
a feature point position recognition unit;
a coordinate processing unit;
and a video display processing unit,
The feature point position recognition unit recognizes the position of the feature point of the object based on the captured image captured by the imaging unit,
The coordinate processing unit determines a reference coordinate system based on the positions of the feature points, detects the movement of the image capturing unit based on sensor information indicated by the sensor unit, and determines the display position of the image by the movement of the image capturing unit. corrected based on
The image display system, wherein the image display processing unit displays the image at a corrected image display position when the image is displayed based on the reference coordinate system.
請求項1記載の映像表示システムにおいて、
前記座標処理部は、前記撮像画像と表示する映像の位置関係に関する座標変換情報に基づいて、前記撮像画像中の第一の基準座標系を第二の基準座標系に変換し、
前記映像表示処理部は、前記第二の基準座標系に基づいて映像を表示させる、ことを特徴とする映像表示システム。
The video display system according to claim 1,
The coordinate processing unit converts a first reference coordinate system in the captured image into a second reference coordinate system based on coordinate conversion information regarding a positional relationship between the captured image and a video to be displayed,
The image display system, wherein the image display processing unit displays an image based on the second reference coordinate system.
請求項1記載の映像表示システムにおいて、
前記座標処理部は、前記基準座標系を補正して補正座標系を決定することにより映像の表示位置を前記撮像部の動きに基づいて補正し、
前記映像表示処理部は、前記補正座標系における所定の位置にコンテンツを表示させる、ことを特徴とする映像表示システム。
The video display system according to claim 1,
The coordinate processing unit corrects the display position of the image based on the movement of the imaging unit by correcting the reference coordinate system to determine a correction coordinate system,
The video display system, wherein the video display processing unit displays the content at a predetermined position in the corrected coordinate system.
請求項1記載の映像表示システムにおいて、
前記映像を表示する映像表示部、前記映像表示処理部、前記撮像部、前記センサ部、前記特徴点位置認識部、および前記座標処理部は、ウェアラブルな映像表示装置内に有する、ことを特徴とする映像表示システム。
The video display system according to claim 1,
The image display unit for displaying the image, the image display processing unit, the imaging unit, the sensor unit, the feature point position recognition unit, and the coordinate processing unit are included in a wearable image display device. video display system.
請求項1記載の映像表示システムにおいて、
前記センサ部は、ジャイロセンサおよび加速度センサの少なくともひとつを備える、ことを特徴とする映像表示システム。
The video display system according to claim 1,
The image display system, wherein the sensor unit includes at least one of a gyro sensor and an acceleration sensor.
請求項1記載の映像表示システムにおいて、
前記座標処理部は、前記基準座標系を決定した後の前記撮像部の動きに基づいて、前記映像の表示位置を補正する、ことを特徴とする映像表示システム。
The video display system according to claim 1,
The image display system according to claim 1, wherein the coordinate processing section corrects the display position of the image based on the movement of the imaging section after the reference coordinate system is determined.
請求項1記載の映像表示システムにおいて、
前記座標処理部は、前記特徴点の位置を基に基準座標系を決定した時刻から、所定時間以上経過した後、再度前記特徴点の位置を基に基準座標系を決定及び更新する、ことを特徴とする映像表示システム。
The video display system according to claim 1,
The coordinate processing unit determines and updates the reference coordinate system again based on the positions of the feature points after a predetermined time or more has elapsed from the time when the reference coordinate system was determined based on the positions of the feature points. An image display system characterized by:
請求項1記載の映像表示システムにおいて、
前記特徴点位置認識部は、前記座標処理部が第一の特徴点の位置を基に基準座標系を決定した時刻T1から所定時間以上経過した時刻T2において、前記第一の特徴点と、前記第一の特徴点とは異なる第二の特徴点と、の位置を認識し、
前記座標処理部は、時刻T2に前記特徴点位置認識部が認識した前記第二の特徴点の位置を基に基準座標系を決定及び更新し、
前記特徴点位置認識部は、時刻T2から所定時間以上経過した時刻T3において、前記第二の特徴点の位置を認識し、
前記座標処理部は、時刻T3に前記特徴点位置認識部が認識した前記第二の特徴点の位置を基に基準座標系を決定及び更新する、ことを特徴とする映像表示システム。
The video display system according to claim 1,
The feature point position recognition unit recognizes the first feature point and the recognizing the position of a second feature point different from the first feature point;
The coordinate processing unit determines and updates a reference coordinate system based on the positions of the second feature points recognized by the feature point position recognition unit at time T2,
The feature point position recognition unit recognizes the position of the second feature point at time T3 after a predetermined period of time or more has elapsed from time T2,
The image display system, wherein the coordinate processing unit determines and updates the reference coordinate system based on the position of the second feature point recognized by the feature point position recognition unit at time T3.
請求項1記載の映像表示システムにおいて、
前記特徴点は、前記撮像画像に写っている対象物のエッジ若しくは隅、または前記撮像画像のうち色相、明度、および彩度の少なくとも一つの変化が所定以上ある点、またはあらかじめ定めた所定の物体である、ことを特徴とする映像表示システム。
The video display system according to claim 1,
The feature point is an edge or corner of the object in the captured image, or a point in the captured image where at least one of hue, brightness, and saturation changes more than a predetermined amount, or a predetermined object. A video display system characterized by:
請求項1記載の映像表示システムにおいて、
入力部と、
前記撮像画像に重ねて映像を表示する映像表示部と、
前記入力部に入力されたコマンドを認識するコマンド認識部と、を備え、
前記撮像画像に重ねて所定の映像を表示した後、前記コマンド認識部が所定のコマンドを認識すると、前記特徴点位置認識部は、前記撮像画像の前記所定の映像の場所、該場所の近傍、該映像が示す場所、該映像が示す場所の近傍のうちいずれかを特徴点として該特徴点の位置を認識する、ことを特徴とする映像表示システム。
The video display system according to claim 1,
an input unit;
a video display unit that displays a video superimposed on the captured image;
a command recognition unit that recognizes a command input to the input unit;
After displaying a predetermined video superimposed on the captured image, when the command recognition unit recognizes a predetermined command, the feature point position recognition unit recognizes the location of the predetermined video in the captured image, the vicinity of the location, 1. An image display system, wherein either a location indicated by said image or a vicinity of said location indicated by said image is defined as a feature point and the position of said feature point is recognized.
請求項3記載の映像表示システムにおいて、
前記所定の位置は、利用者の前方から所定の角度以上離れた位置、あるいは、利用者の前方を基準としたときに前記特徴点より離れた位置である、ことを特徴とする映像表示システム。
In the video display system according to claim 3,
The image display system, wherein the predetermined position is a position away from the front of the user by a predetermined angle or more, or a position away from the feature point with respect to the front of the user.
映像を表示する映像表示装置において、
対象物を撮影して撮像画像を取得する撮像部と、
前記撮像部の動きを検出するセンサ部と、
特徴点位置認識部と、
座標処理部と、
映像表示処理部と、
映像を表示する映像表示部と、を備え、
前記特徴点位置認識部は、前記撮像画像を基に前記対象物の特徴点の位置を認識し、
前記座標処理部は、前記特徴点の位置を基に基準座標系を決定するとともに、前記撮像部の動きに基づいて前記映像表示部が表示する映像の位置の補正情報を生成し、
前記映像表示処理部は、前記基準座標系と前記補正情報に基づいて、前記映像の表示位置を決定し、
前記映像表示部は、決定された表示位置に映像を表示する、
ことを特徴とする映像表示装置。
In a video display device that displays video,
an imaging unit that captures an object and acquires a captured image;
a sensor unit that detects the movement of the imaging unit;
a feature point position recognition unit;
a coordinate processing unit;
a video display processing unit;
and a video display unit that displays video,
The feature point position recognition unit recognizes the position of the feature point of the object based on the captured image,
The coordinate processing unit determines a reference coordinate system based on the position of the feature point, and generates correction information for the position of the image displayed by the image display unit based on the movement of the imaging unit,
The video display processing unit determines a display position of the video based on the reference coordinate system and the correction information,
the image display unit displays the image at the determined display position;
An image display device characterized by:
所望のコンテンツを表示する映像表示方法であって、
カメラで撮影した画像中の物体の特徴点の位置を認識する第1のステップ、
前記特徴点に基づいて基準座標系を決定する第2のステップ、
前記カメラの動きを検知する第3のステップ、
前記基準座標系に基づいて前記コンテンツを表示する際に、前記カメラの動きに基づいて前記コンテンツの表示位置を補正する第4のステップ、
を実行する映像表示方法。
A video display method for displaying desired content,
a first step of recognizing the positions of the feature points of the object in the image taken by the camera;
a second step of determining a reference coordinate system based on said feature points;
a third step of detecting movement of the camera;
a fourth step of correcting the display position of the content based on the movement of the camera when displaying the content based on the reference coordinate system;
A video display method that executes
請求項13記載の映像表示方法において、
前記補正は、前記基準座標系を補正座標系に補正する処理、および、前記コンテンツの座標を補正する処理の少なくとも一つを含む、
映像表示方法。
In the image display method according to claim 13,
The correction includes at least one of a process of correcting the reference coordinate system to a correction coordinate system and a process of correcting the coordinates of the content.
Image display method.
請求項13記載の映像表示方法において、
前記カメラと前記カメラの動きを検知するセンサは、利用者が装着する映像表示装置に備え付けられており、
前記利用者が前記物体を視認する際に、前記コンテンツが同時に表示される、
映像表示方法。
In the image display method according to claim 13,
The camera and a sensor for detecting movement of the camera are provided in a video display device worn by a user,
the content is simultaneously displayed when the user views the object;
Image display method.
JP2021152509A 2021-09-17 2021-09-17 Picture display system, device for displaying picture, and method for displaying picture Pending JP2023044464A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021152509A JP2023044464A (en) 2021-09-17 2021-09-17 Picture display system, device for displaying picture, and method for displaying picture

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021152509A JP2023044464A (en) 2021-09-17 2021-09-17 Picture display system, device for displaying picture, and method for displaying picture

Publications (1)

Publication Number Publication Date
JP2023044464A true JP2023044464A (en) 2023-03-30

Family

ID=85725903

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021152509A Pending JP2023044464A (en) 2021-09-17 2021-09-17 Picture display system, device for displaying picture, and method for displaying picture

Country Status (1)

Country Link
JP (1) JP2023044464A (en)

Similar Documents

Publication Publication Date Title
US11796309B2 (en) Information processing apparatus, information processing method, and recording medium
KR102366293B1 (en) System and method for monitoring field based augmented reality using digital twin
US10198870B2 (en) Information processing apparatus, information processing system, and information processing method
US10936874B1 (en) Controller gestures in virtual, augmented, and mixed reality (xR) applications
US10852847B2 (en) Controller tracking for multiple degrees of freedom
JP6586824B2 (en) Image processing apparatus, image processing method, and image processing program
EP3422153A1 (en) System and method for selective scanning on a binocular augmented reality device
KR102182162B1 (en) Head mounted display and method for controlling the same
JP2016126365A (en) Display system, display device, information display method, and program
KR20210086072A (en) System and method for real-time monitoring field work
WO2017043145A1 (en) Information processing device, information processing method, and program
JP2019008623A (en) Information processing apparatus, information processing apparatus control method, computer program, and storage medium
JP6630504B2 (en) Work action support navigation system and method, computer program for work action support navigation, storage medium storing program for work action support navigation, self-propelled robot equipped with work action support navigation system, used in work action support navigation system Intelligent helmet
WO2015093130A1 (en) Information processing device, information processing method, and program
JP2005174021A (en) Method and device for presenting information
JP2016122392A (en) Information processing apparatus, information processing system, control method and program of the same
US11443719B2 (en) Information processing apparatus and information processing method
JP5215211B2 (en) Related information display position specifying system and related information display position specifying program
CN103713387A (en) Electronic device and acquisition method
JP2021162607A (en) Display system, information processing apparatus, and display control method for display system
US11475606B2 (en) Operation guiding system for operation of a movable device
JP2023044464A (en) Picture display system, device for displaying picture, and method for displaying picture
JP2016053935A (en) Visualization display method, first device and program, and field of view change method, first device and program
US11402900B2 (en) Augmented reality system comprising an aircraft and control method therefor
KR20180060403A (en) Control apparatus for drone based on image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240125