JP2023044464A - Picture display system, device for displaying picture, and method for displaying picture - Google Patents
Picture display system, device for displaying picture, and method for displaying picture Download PDFInfo
- Publication number
- JP2023044464A JP2023044464A JP2021152509A JP2021152509A JP2023044464A JP 2023044464 A JP2023044464 A JP 2023044464A JP 2021152509 A JP2021152509 A JP 2021152509A JP 2021152509 A JP2021152509 A JP 2021152509A JP 2023044464 A JP2023044464 A JP 2023044464A
- Authority
- JP
- Japan
- Prior art keywords
- image
- coordinate system
- feature point
- unit
- processing unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 238000012545 processing Methods 0.000 claims abstract description 104
- 230000033001 locomotion Effects 0.000 claims abstract description 37
- 238000003384 imaging method Methods 0.000 claims abstract description 36
- 238000012937 correction Methods 0.000 claims description 33
- 230000008569 process Effects 0.000 claims description 10
- 230000001133 acceleration Effects 0.000 claims description 7
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 34
- 238000003860 storage Methods 0.000 description 17
- 239000003550 marker Substances 0.000 description 16
- 210000003128 head Anatomy 0.000 description 15
- 238000006073 displacement reaction Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 12
- 238000009826 distribution Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000007689 inspection Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000009466 transformation Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 206010000117 Abnormal behaviour Diseases 0.000 description 1
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 229910052799 carbon Inorganic materials 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000010792 warming Methods 0.000 description 1
Images
Abstract
Description
本発明は映像を表示する技術に関し、特に現実空間に仮想空間の映像を重畳する技術に関する。 The present invention relates to technology for displaying images, and more particularly to technology for superimposing images in virtual space on real space.
現実空間に仮想空間の映像を重畳することで利用者に情報を提示する、ヘッドマウントディスプレイ(HMD)などの映像表示装置及び映像表示システムが知られている。工場などでは、作業工程などのコンテンツを見ながら作業を行うケースがあるが、作業対象の近くにディスプレイなどを配置することが難しい場合がある。そのようなとき、ヘッドマウントディスプレイなどの映像表示装置を使用すれば、作業者は映像表示装置に表示される作業指示などを参照しながら作業を行うことができ、作業効率を改善することができる。 2. Description of the Related Art Video display devices and video display systems, such as head-mounted displays (HMDs), are known that present information to users by superimposing video in virtual space on real space. In factories, etc., there are cases where work is performed while viewing content such as the work process, but it is sometimes difficult to place a display or the like near the work target. In such cases, if a video display device such as a head-mounted display is used, the worker can perform the work while referring to the work instructions displayed on the video display device, thereby improving work efficiency. .
特許文献1には、頭部装着型表示装置において、ユーザから見易い位置に仮想空間を配置してユーザの見たい画像を快適に選択表示することについて記載がある。 Japanese Patent Application Laid-Open No. 2002-200002 describes that, in a head-mounted display device, a virtual space is arranged at a position that is easy for the user to view, and an image that the user wants to see is comfortably selected and displayed.
特許文献2には、カメラの取得画像に基づいて撮影画像に含まれる特徴点の三次元位置を算出する構成について記載がある。 Patent Document 2 describes a configuration for calculating the three-dimensional position of a feature point included in a captured image based on an image captured by a camera.
利用者が作業指示などのコンテンツを見ながら作業を行う場合、現実空間と仮想空間の位置関係が重要である。利用者が頭部を回転若しくは移動させた場合に、現実空間と仮想空間の位置関係が変わってしまうと、利用者は違和感を覚える場合や、誤った作業指示を受領する場合がある。 When a user works while looking at contents such as work instructions, the positional relationship between the real space and the virtual space is important. If the positional relationship between the real space and the virtual space changes when the user rotates or moves the head, the user may feel uncomfortable or may receive an incorrect work instruction.
特許文献1に記載された頭部装着型表示装置では、利用者の腰部に対する頭部の差分回転量を算出し、頭部の差分回転量に応じて仮想空間に表示する表示コンテンツを変更することで、現実空間と仮想空間の位置関係を合わせている。しかしながら、利用者の動きを基にコンテンツの表示位置を決定しているため、頭部が回転していなくても経時変化によりコンテンツがドリフトしてしまう場合がある。 In the head-mounted display device described in Patent Document 1, the differential amount of rotation of the head with respect to the waist of the user is calculated, and the display content displayed in the virtual space is changed according to the differential amount of rotation of the head. So, the positional relationship between the real space and the virtual space is matched. However, since the display position of the content is determined based on the movement of the user, the content may drift over time even if the head does not rotate.
また、特許文献2ではSLAM(Simultaneous Localization and Mapping)により自己位置推定と環境地図作成を行う情報処理装置が開示されているが、SLAMは計算処理に多大な時間を要するため、SLAMを利用して現実空間を認識して現実空間と仮想空間の位置関係を合わせた場合では利用者の頭部の回転に映像表示装置の映像変更が追従できない、換言すれば遅延が発生するという問題がある。 Further, Patent Document 2 discloses an information processing device that performs self-position estimation and environment map creation by SLAM (Simultaneous Localization and Mapping). If the real space is recognized and the positional relationship between the real space and the virtual space is aligned, there is a problem that the image change of the image display device cannot follow the rotation of the user's head, in other words, a delay occurs.
本発明は、上記課題を解決すべくなされたものであり、本発明の目的は、利用者の動きに対する映像追従の遅延が少なく、現実空間と仮想空間の位置精度の高い重畳が可能な技術を提供することにある。 The present invention has been made to solve the above-mentioned problems, and an object of the present invention is to develop a technology that can superimpose the real space and the virtual space with high positional accuracy with little delay in following the motion of the user. to provide.
本発明の好ましい一側面は、映像表示システムにおいて、特徴点位置認識部と、座標処理部と、映像表示処理部と、を備え、前記特徴点位置認識部は、撮像部で撮影した撮像画像を基に対象物の特徴点の位置を認識し、前記座標処理部は、前記特徴点の位置を基に基準座標系を決定するとともに、センサ部が示すセンサ情報を基に前記撮像部の動きを検出し、映像の表示位置を前記撮像部の動きに基づいて補正し、前記映像表示処理部は、前記基準座標系に基づいて映像を表示する際に、補正された映像の表示位置に映像を表示させる、ことを特徴とする映像表示システムである。 A preferred aspect of the present invention is a video display system comprising a feature point position recognition unit, a coordinate processing unit, and a video display processing unit, wherein the feature point position recognition unit recognizes an image captured by an imaging unit. The coordinate processing unit determines a reference coordinate system based on the position of the feature point, and determines the movement of the imaging unit based on the sensor information indicated by the sensor unit. and corrects the display position of the image based on the movement of the imaging unit, and the image display processing unit displays the image at the corrected display position of the image when displaying the image based on the reference coordinate system. It is a video display system characterized by displaying.
本発明の好ましい他の一側面は、映像を表示する映像表示装置において、対象物を撮影して撮像画像を取得する撮像部と、前記撮像部の動きを検出するセンサ部と、特徴点位置認識部と、座標処理部と、映像表示処理部と、映像を表示する映像表示部と、を備え、前記特徴点位置認識部は、前記撮像画像を基に前記対象物の特徴点の位置を認識し、前記座標処理部は、前記特徴点の位置を基に基準座標系を決定するとともに、前記撮像部の動きに基づいて前記映像表示部が表示する映像の位置の補正情報を生成し、前記映像表示処理部は、前記基準座標系と前記補正情報に基づいて、前記映像の表示位置を決定し、前記映像表示部は、決定された表示位置に映像を表示する、ことを特徴とする映像表示装置である。 Another preferred aspect of the present invention is a video display device for displaying video, comprising: an imaging unit that captures an image of an object and acquires a captured image; a sensor unit that detects movement of the imaging unit; a coordinate processing unit; an image display processing unit; The coordinate processing unit determines a reference coordinate system based on the position of the feature point, generates correction information for the position of the image displayed by the image display unit based on the movement of the imaging unit, and The image display processing unit determines a display position of the image based on the reference coordinate system and the correction information, and the image display unit displays the image at the determined display position. It is a display device.
本発明の好ましい他の一側面は、所望のコンテンツを表示する映像表示方法であって、カメラで撮影した画像中の物体の特徴点の位置を認識する第1のステップ、前記特徴点に基づいて基準座標系を決定する第2のステップ、前記カメラの動きを検知する第3のステップ、前記基準座標系に基づいて前記コンテンツを表示する際に、前記カメラの動きに基づいて前記コンテンツの表示位置を補正する第4のステップ、を実行する映像表示方法である。 Another preferred aspect of the present invention is a video display method for displaying desired content, comprising: a first step of recognizing the position of a feature point of an object in an image captured by a camera; a second step of determining a reference coordinate system; a third step of detecting movement of the camera; and determining a display position of the content based on the movement of the camera when displaying the content based on the reference coordinate system. and a fourth step of correcting the image display method.
本発明によれば、利用者の動きに対する映像追従の遅延が少なく、現実空間と仮想空間の位置精度の高い重畳が可能な技術を提供できる。前述した以外の課題、構成及び効果は、以下の実施例の説明によって明らかにされる。 According to the present invention, it is possible to provide a technology capable of superimposing the real space and the virtual space with high positional accuracy with little delay in following the motion of the user. Problems, configurations, and effects other than those described above will be clarified by the following description of the embodiments.
以下、本発明の実施例について、図面を用いて詳細に説明する。なお、以下の説明は、本発明の一実施形態を説明するためのものであり、本発明の範囲を制限するものではない。従って、当業者であればこれらの各要素又は全要素をこれと同等なものに置換した実施形態を採用することが可能であり、これらの実施形態も本発明の範囲に含まれる。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In addition, the following description is for describing one embodiment of the present invention, and does not limit the scope of the present invention. Therefore, those skilled in the art can adopt embodiments in which each or all of these elements are replaced with equivalents, and these embodiments are also included in the scope of the present invention.
以下に説明する実施例の構成において、同一部分又は同様な機能を有する部分には同一の符号を異なる図面間で共通して用い、重複する説明は省略することがある。 In the configurations of the embodiments described below, the same reference numerals may be used in common for the same parts or parts having similar functions in different drawings, and redundant description may be omitted.
同一あるいは同様な機能を有する要素が複数ある場合には、同一の符号に異なる添字を付して説明する場合がある。ただし、複数の要素を区別する必要がない場合には、添字を省略して説明する場合がある。 When there are a plurality of elements having the same or similar functions, they may be described with the same reference numerals and different suffixes. However, if there is no need to distinguish between multiple elements, the subscripts may be omitted.
本明細書等における「第1」、「第2」、「第3」などの表記は、構成要素を識別するために付するものであり、必ずしも、数、順序、もしくはその内容を限定するものではない。また、構成要素の識別のための番号は文脈毎に用いられ、一つの文脈で用いた番号が、他の文脈で必ずしも同一の構成を示すとは限らない。また、ある番号で識別された構成要素が、他の番号で識別された構成要素の機能を兼ねることを妨げるものではない。 Notations such as “first”, “second”, “third” in this specification etc. are attached to identify the constituent elements, and do not necessarily limit the number, order, or content thereof isn't it. Also, numbers for identifying components are used for each context, and numbers used in one context do not necessarily indicate the same configuration in other contexts. Also, it does not preclude a component identified by a certain number from having the function of a component identified by another number.
図面等において示す各構成の位置、大きさ、形状、範囲などは、発明の理解を容易にするため、実際の位置、大きさ、形状、範囲などを表していない場合がある。このため、本発明は、必ずしも、図面等に開示された位置、大きさ、形状、範囲などに限定されない。 The position, size, shape, range, etc. of each configuration shown in the drawings, etc. may not represent the actual position, size, shape, range, etc., in order to facilitate understanding of the invention. Therefore, the present invention is not necessarily limited to the positions, sizes, shapes, ranges, etc. disclosed in the drawings and the like.
本明細書で引用した刊行物、特許および特許出願は、そのまま本明細書の説明の一部を構成する。 All publications, patents and patent applications cited herein are hereby incorporated by reference into this description.
本明細書において単数形で表される構成要素は、特段文脈で明らかに示されない限り、複数形を含むものとする。 Elements presented herein in the singular shall include the plural unless the context clearly dictates otherwise.
実施例の代表的な一例を示せば以下の通りである。すなわち、映像表示システムは、撮像部と、センサ部と、特徴点位置認識部と、座標処理部と、映像表示処理部とを備える。前記特徴点位置認識部は前記撮像部で撮影した画像を基に対象物の特徴点の位置を認識し、前記座標処理部は、前記特徴点の位置を基に基準座標系を決定すると共に、前記センサ部が示す情報を基に、前記撮像部の前記基準座標系に対する相対ずれを補正して補正座標系あるいは補正座標を決定する。前記映像表示処理部は、前記補正座標系における所定の位置にコンテンツを表示する、あるいは、前記基準座標系における補正された所定の位置にコンテンツを表示する、構成を備える。ここで相対ずれとは、位置のずれおよび角度のずれの両者を含む概念である。 A representative example of the embodiment is as follows. That is, the video display system includes an imaging section, a sensor section, a feature point position recognition section, a coordinate processing section, and a video display processing section. The feature point position recognition unit recognizes the position of the feature point of the object based on the image captured by the imaging unit, the coordinate processing unit determines a reference coordinate system based on the position of the feature point, Based on the information indicated by the sensor unit, a correction coordinate system or correction coordinates is determined by correcting the relative displacement of the imaging unit with respect to the reference coordinate system. The video display processing unit has a configuration for displaying content at a predetermined position in the corrected coordinate system, or displaying content at a corrected predetermined position in the reference coordinate system. Here, relative displacement is a concept that includes both positional displacement and angular displacement.
本実施例において映像表示装置100は、例えばヘッドマウントディスプレイやヘッドアップディスプレイやスマートフォンやタブレット等、映像を表示する機能を有する装置である。
In this embodiment, the
図1は、本実施例の映像表示装置100の機能ブロックの一例を示す図である。映像表示装置100は、撮像部101と、センサ部102と、特徴点位置認識部103と、座標処理部104と、映像表示処理部105と、映像表示部106と、コントローラー107とを有する。
FIG. 1 is a diagram showing an example of functional blocks of a
撮像部101は、映像表示装置100の周辺環境の撮像を行う。センサ部102は、映像表示装置100の動きを検出する。ここで動きとは位置の変位と角度の変化(回転)の両方を含む概念とする。特徴点位置認識部103は、撮像部101が撮像した画像の中から特徴点の位置を認識する。座標処理部104は、映像表示装置100が表示する映像の座標系の処理を行う。映像表示処理部105は、映像表示装置100が表示する映像の表示処理を行う。映像表示部106は、映像の表示を行う。コントローラー107は、映像表示装置100全体を統括的に制御する。各部の詳細は後述する。
The
図2は、本実施例の映像表示装置100のハードウェア構成の一構成例を示す図である。映像表示装置100は、カメラ111と、センサ112と、ディスプレイ113と、CPU(Central Processing Unit)114と、RAM(Random Access Memory)115と、記憶媒体116とを有する。
FIG. 2 is a diagram showing a configuration example of the hardware configuration of the
図2で示した一構成例において、映像表示装置100は撮像部101としてカメラ111を備えている。カメラ111の構成は、特許文献2等に記載の公知の構成で良い。
In one configuration example shown in FIG. The configuration of the
また、センサ部102としてセンサ112を備えている。センサ112は、カメラ111の動きを検知するため、例えばユーザの頭部の動きを検知する。また、映像表示部106はディスプレイ113を備えている。センサ部102やディスプレイ113の構成は、特許文献1等に記載の公知の構成で良い。
Further, a
ディスプレイ113の表示方式は、外界からの視覚情報も受け取ることができる透過型ディスプレイでも、映像情報のみを映し出す非透過型ディスプレイでもよいが、以下では、現実空間に重畳させて画像を視認するため、透過型ディスプレイとして説明する。ディスプレイ113は、両眼用に2つ備えてもよいし、片眼用に1つ備えてもよい。
The display method of the
CPU114は、記憶媒体116またはRAM115に格納されているプログラムを実行する。具体的には、CPU114がプログラムを実行することにより、映像表示装置100のコントローラー107や、特徴点位置認識部103、座標処理部104、映像表示処理部105等、各部の機能が実現される。
記憶媒体116は、CPU114が実行するプログラムおよび実行に必要な各種パラメータ・データを格納するための媒体である。
The
RAM115は、ディスプレイ113で表示するための画像および各種情報を格納するための記憶媒体である。また、RAM115は、CPU114が使用するプログラムやデータの一時保管領域としても機能する。映像表示装置100は、CPU114とRAM115と記憶媒体116をそれぞれ複数有する構成でもよい。
The
なお、映像表示装置100のハードウェア構成は、図2に示す構成に限定されない。例えばCPU114、記憶媒体116、RAM115を映像表示装置100とは別体として設けるようにしてもよい。その場合、映像表示装置100は汎用のコンピューター(例えばサーバーコンピューターやパーソナルコンピューター、スマートフォン等)を用いて実現するようにしてもよい。
Note that the hardware configuration of the
例えば、カメラ111、センサ112、ディスプレイ113を利用者が装着するウェアラブルなヘッドマウントディスプレイに実装し、CPU114、RAM115、記憶媒体116は遠隔地のサーバにて構成し、ヘッドマウントディスプレイとサーバをネットワークで接続して構成してもよい。
For example, the
また、複数のコンピューターをネットワークで接続して、映像表示装置100の各部の機能を各コンピューターが分担することもできる。一方で、映像表示装置100の機能の1つ以上を、専用のハードウェアを用いて実現することもできる。
Also, a plurality of computers can be connected via a network so that each computer can share the function of each section of the
図3は、本実施例の映像表示装置100の一例と利用者700を示す図である。図3に示す映像表示装置100は、利用者700が自身の頭部に装着して利用可能なヘッドマウントディスプレイ(スマートグラスとも称する)である。
FIG. 3 is a diagram showing an example of the
図4は、本実施例の映像表示装置100の実装形態の一例を示す図である。映像表示装置100は、カメラ111とセンサ112を備えており、本例ではセンサ112としてジャイロセンサを用いている。ジャイロセンサは映像表示装置100の動きを検知できる。
FIG. 4 is a diagram showing an example of a mounting form of the
ディスプレイ113は、眼鏡のレンズ部に内蔵される。透過型ディスプレイの場合、利用者700はディスプレイ113を透過して外界を視認すると同時に、映像表示部106がディスプレイ113に投影する映像を視認することができる。カメラ111は利用者の前方を撮影し、カメラ画像は利用者が視認する外界にほぼ重なる。次に、本実施例の映像表示装置100の動作を詳細に説明する。
The
図5は、本実施例の現実空間と座標系の関係の一例を示す図である。後に詳細に説明する。 FIG. 5 is a diagram showing an example of the relationship between the physical space and the coordinate system in this embodiment. A detailed description will be given later.
図6は、本実施例の映像表示装置100が実行するコンテンツ表示に係るフローチャートの一例を示す図である。
FIG. 6 is a diagram showing an example of a flowchart relating to content display executed by the
はじめに、映像表示装置100はカメラ画像を取得する(S101)。映像表示装置100のコントローラー107は撮像部101に対して撮像のコマンドを送付し、撮像部101はコマンドに従って撮像し、撮像部101は撮像した画像をコントローラー107に送信する。
First, the
図3および図4に示したように、映像表示装置100が備えているカメラ111は、利用者700が映像表示装置100を頭部に装着した際に、利用者700の前方を撮影できるように映像表示装置100に取り付けられている。従って、映像表示装置100はカメラ111の撮影画像を取得することで、利用者700の前方の現実空間における状況を画像として取得することが可能である。すなわち、カメラ111が撮影した画像には、現実空間において利用者の前方に位置している物体131が撮影されている(図5(a))。物体131としては、例えば利用者700が操作する分電盤(の操作パネル)などが想定される。
As shown in FIGS. 3 and 4, the
次に、映像表示装置100は特徴点の位置の認識を行う(S102)。映像表示装置100のコントローラー107は特徴点位置認識部103に撮像部101から受領した撮像画像とコマンドを送付し、特徴点位置認識部103は撮像画像から特徴点132の位置を認識し、認識結果をコントローラー107に送信する(図5(a))。特徴点132の詳細については後述するが、特徴点位置認識部103がコントローラー107から受領した撮像画像の内部において、特徴的な点が特徴点132である。また、特徴点132の位置とは、撮像画像内のどの位置に特徴点132があるかを表す。
Next, the
次に、映像表示装置100は基準座標系の決定を行う(S103)。映像表示装置100のコントローラー107は座標処理部104に特徴点位置認識部103から受領した特徴点の位置とコマンドを送付し、座標処理部104は特徴点の位置を基に基準座標系を決定し、座標系情報をコントローラー107に送信する。
Next, the
図5(a)では、特徴点132の位置を基準とし、紙面下方向にx軸133を設定し、紙面右方向にy軸134を設定している。しかしながら本実施例はこれに限られず、特徴点132の位置から所定の方向に所定の距離だけずれた位置をx軸133及びy軸134の原点としてもかまわないし、2つの軸が直交しない座標系を設定してもかまわないし、極座標系を設定してもかまわない。以下では図5(a)のように特徴点132の位置を基準とし、紙面下方向にx軸133を設定し、紙面右方向にy軸134を設定したとして説明を行う。
In FIG. 5A, with the position of the
また、座標処理部104は撮像部101の撮像画像と、映像表示部106が表示する映像の位置関係に関する情報を事前に備えている。つまり、撮像部101が撮影する画像の画角及び方向及び回転角と、映像表示部106が表示する映像の画角及び方向及び回転角を基に、撮像部101の撮影画像内における所定の位置及び方向が、映像表示部106が表示する映像内において如何なる位置及び方向に対応するかに関する情報を事前に備えている。これにより、撮像画像内の座標と映像内の座標は相互に変換が可能である。かかる位置関係に関する情報は、撮像部101と映像表示部106の仕様に基づいて事前に定めることができる。撮像画像内の第一の座標系と映像内の第二の座標系を変換するための情報を、便宜的に座標変換情報ということがある。
In addition, the coordinate
該位置関係に関する情報を基に、座標処理部104は座標変換情報を用いて、撮像画像内に設定した第一の基準座標系を映像表示部106が表示する映像内における第二の基準座標系に換算する。座標処理部104は映像表示部106が表示する映像内における第二の基準座標系に関する情報をコントローラー107に送信する。具体的には、例えば映像表示部106が表示する映像内における第二の基準座標系の原点及び方向に関する情報である。
Based on the information about the positional relationship, the coordinate
上記の説明では、座標処理部104は撮像画像内で第一の基準座標系を設定した後、映像表示部106が表示する映像内における第二の基準基準座標系に換算するとして説明したが、本実施例はこれに限られない。座標処理部104は座標変換情報を用いて、特徴点132の位置が、映像表示部106が表示する映像内の如何なる位置に該当するかを計算し、該位置を基準として、映像表示部106が表示する映像内において第二の基準基準座標系を設定してもよい。これにより、座標処理部104における処理を軽減することが可能である。特徴点132の位置の認識及び基準座標系の決定は、撮像画像全体を利用して現実空間全体の空間認識を行わなくてよいため、高速な位置の認識及び基準座標系の決定が可能である。
In the above description, the coordinate
以上のように、撮像画像内に設定した第一の基準座標系を映像表示部106が表示する映像内における第二の基準座標系に換算する。換算した座標系に基づいて撮像画像内に表示するコンテンツ(オブジェクト)を位置決めすることで、撮像画像内の物体とコンテンツとの位置関係を定めることができる。この結果、現実空間の物体と仮想空間のコンテンツの位置関係を定めることができる。ただし、これはカメラ111の視野が固定されていることが前提である。
As described above, the first reference coordinate system set in the captured image is converted into the second reference coordinate system in the video displayed by the
次に、映像表示装置100は所定時間経過するまで所定時間経過したかの判断を繰り返す(S104)。換言すれば、所定時間経過するまで待機する。具体的には例えば、コントローラー107は、座標処理部104から座標系情報を受領してからの経過時間を計測し、該経過時間が所定の時間を超過しているか否かを所定の間隔で判定し、該経過時間が所定の時間を超過するまで繰り返す。
Next, the
別の方法としては、コントローラー107はループカウンターを備えており、ループカウンターが所定の値を超過しているかを判断し、判断毎にループカウンターの値を所定の値ずつ増加させ、ループカウンターが所定の値を超過するまで繰り返す。 Alternatively, the controller 107 has a loop counter, determines whether the loop counter exceeds a predetermined value, increases the value of the loop counter by a predetermined value each time the determination is made, and the loop counter reaches the predetermined value. Repeat until the value of is exceeded.
別の方法としては、コントローラー107は時刻を取得し、該時刻が所定の時刻から所定の時刻だけ経過した時刻を超過しているか否かを所定の間隔で判定し、取得した時刻が所定の時刻から所定の時刻だけ経過した時刻を超過するまで繰り返す。 As another method, the controller 107 obtains the time, determines at predetermined intervals whether or not the time exceeds the predetermined time after the predetermined time, and determines whether the obtained time is the predetermined time. It is repeated until the time when the predetermined time has passed from is exceeded.
一般に、時間の経過とともにユーザの頭や体が移動するため、カメラ111が動く。第一および第二の基準座標系を決定したステップS103の時点では、撮像画像内の物体とカメラ視点の現実空間の物体の位置関係は対応している。すなわち、撮像画像内の物体の特徴点に規定された第一の基準座標系はカメラ視点の現実空間の物体の特徴点に規定された座標系と等価である。よって第一の基準座標系に基づいて定めた第二の基準座標系に従って表示領域を表示すれば、現実空間の所望の位置にコンテンツを表示できる。
In general, the
しかし、カメラ111の視野が移動すると、ステップS103の時点の撮像画像内の物体と現時点のカメラ視点の現実空間の物体の位置関係は対応しなくなる。すなわち、ステップS103で決定された第一の基準座標系は現実空間の物体の特徴点に規定された座標系と等価ではなくなる。したがって、現実空間の物体と第二の基準座標系に基づく表示領域の位置関係がずれてしまうので補正が必要となる。
However, when the field of view of the
例えば頭の動きに映像を追従させるため、修正は例えば1秒間に複数回行う。具体的には、30回/秒や60回/秒程度であり、多いほど追従性の観点では好ましいが、処理負荷のため高速にできない場合は、数回/秒でも用途によっては許容される。よって、S104(およびS110)の所定時間はこれらを考慮して定める。 For example, in order to make the image follow the movement of the head, the correction is performed, for example, multiple times per second. Specifically, it is about 30 times/second or 60 times/second, and the higher the number, the better from the viewpoint of followability. Therefore, the predetermined time of S104 (and S110) is determined in consideration of these.
基準座標系の修正のため、映像表示装置100はセンサ情報の取得を行う(S105)。映像表示装置100のコントローラー107はセンサ部102に対してセンサ情報取得のコマンドを送付し、センサ部102はコマンドに従ってセンサ情報を取得し、センサ部102はセンシングしたセンサ情報をコントローラー107に送信する。
In order to correct the reference coordinate system, the
図4に示した映像表示装置100の一例では、映像表示装置100はセンサ112としてジャイロセンサを備えており、ジャイロセンサは映像表示装置100の角速度を計測する。ジャイロセンサはコントローラー107に計測した角速度データを送信する。
In an example of the
図4に示した映像表示装置100の一例では、映像表示装置100はセンサ112としてジャイロセンサを備えているとしたが、本実施例はこれに限られない。例えば、映像表示装置100はセンサ112として加速度センサを備えており、加速度センサは映像表示装置100の加速度を計測し、加速度センサはコントローラー107に計測した加速度データを送信するとしてもよい。
In the example of the
次に、映像表示装置100は相対ずれ量の認識及び補正座標系の決定を行う(S106)。映像表示装置100のコントローラー107は座標処理部104にセンサ部102から受領したセンサ情報とコマンドを送付し、座標処理部104は相対ずれ量135の認識及び補正座標系の決定を行い、座標系情報をコントローラー107に送信する。
Next, the
一つの例では、S105のセンサ情報は、S103以降の時系列データ(例えばS103以降どのように角速度が変化したかの時系列データ)である。あるいは、センサ情報の値が短時間の間はほぼ一定と仮定して、S105のタイミングにおけるデータでもよい。いずれのデータを用いても、S103の時点以降の相対ずれ量135を計算することができる。
In one example, the sensor information of S105 is time-series data after S103 (for example, time-series data on how the angular velocity changed after S103). Alternatively, the data at the timing of S105 may be used assuming that the value of the sensor information is substantially constant for a short period of time. Any data can be used to calculate the
つまり、座標処理部104はコントローラー107から受領したセンサ情報を基に、現実空間における特徴点132の位置と映像表示装置100の位置関係が、映像表示装置100の移動により、基準座標系を決定した時から如何程ずれているかを計算する。
In other words, based on the sensor information received from the controller 107, the coordinate
本実施例の別の観点では、座標処理部104はコントローラー107から受領したセンサ情報を基に、現実空間における特徴点132の位置と映像表示装置100の位置関係が、映像表示装置100の移動により、前回座標系情報を算出した時から如何程ずれているかを計算する。
From another aspect of this embodiment, the coordinate
図5(b)に示すように、前回座標系情報を算出した時からのずれ量を、基準座標系を決定した時から積算することで、基準座標系を決定した時からの相対ずれ量135を算出することが可能である。
As shown in FIG. 5B, by accumulating the amount of deviation from when the coordinate system information was calculated last time from when the reference coordinate system was determined, the amount of
図4に示した映像表示装置100の一例では、座標処理部104はコントローラーから角速度データを受領する。いま、角速度がほぼ一定と仮定して、S105のタイミングにおける角速度データを用いるとする。前回座標系情報を算出した時から経過した時刻をΔT、角速度をωとすると、前回座標系情報を算出した時からの角度ずれ量はΔT×ωである。前回座標系情報を算出した時からの角度ずれ量を、基準座標系を決定した時から積算することで、第一の基準座標系を決定した時からの角度ずれ量を算出することが可能である。
In the example of the
座標処理部104は、認識した相対ずれ量135を基に、補正座標系の決定を行う。具体的には、座標処理部104は相対ずれと撮像部101の撮像画像との関係に関する情報を事前に備えている。つまり、現実空間における相対ずれが撮像部101の撮像画像内において、如何なる方向の如何なる距離もしくは角度に対応するかに関する情報を事前に備えている。かかる情報は、撮像部101の仕様や、センサ部102の仕様に基づいて定めることができる。該情報及び相対ずれ量を基に、座標処理部104は第一の基準座標系を相対ずれ量に相当する量だけシフト又は回転させ第一の補正座標系を決定する。これにより、映像表示装置100が移動した場合においても、第一の補正座標系は現実空間では略移動しない座標系となる。
The coordinate
図5(c)に示した例では、x軸133及びy軸134によって決定された第一の基準座標系に対して、相対ずれ量135だけシフトした、x’軸136及びy’軸137を第一の補正座標系として決定する。
In the example shown in FIG. 5C, the x'-
座標処理部104は座標変換情報を用いて、撮像画像内に設定した第一の補正座標系を映像表示部106が表示する映像内における第二の補正座標系に換算する。座標処理部104は映像表示部106が表示する映像内における第二の補正座標系情報をコントローラー107に送信する。
The coordinate
上記の説明では、前回座標系情報を算出した時からのずれ量を、基準座標系を決定した時から積算することで、基準座標系を決定した時からの相対ずれ量を算出したが、本実施例はこれに限られない。座標処理部104は、前回座標系情報を算出した時からのずれ量を相対ずれ量とし、前回座標系情報を算出した時の基準座標系若しくは補正座標系と、相対ずれ量から、補正座標系を決定する構成とすることも可能である。すなわち、前回のS106による補正座標系の決定からの差分を次のS106で補正する。これによりずれ量の積算が不要となり、処理を軽減することが可能である。
In the above explanation, the amount of deviation from the time when the coordinate system information was calculated last time is integrated from the time when the reference coordinate system is determined to calculate the amount of relative deviation from when the reference coordinate system was determined. Examples are not limited to this. The coordinate
上記の説明では、座標処理部104は撮像画像内で第一の補正座標系を設定した後、座標変換情報により映像表示部106が表示する映像内における第二の補正座標系に換算するとして説明したが、本実施例はこれに限られない。座標処理部104は、座標変換情報を用いて、相対ずれ量が、映像表示部106が表示する映像内の如何なる方向及び距離に該当するかを計算し、映像表示部106が表示する映像内において第二の補正座標系を設定してもよい。これにより、座標処理部104における処理を軽減することが可能である。
In the above description, the coordinate
以上説明したように、カメラ111が撮像した撮像画像内の特徴点に基づいて第一の基準座標系を設定し、これに対応した第二の基準座標系を映像表示部106が表示する映像内に設定する。センサ112による信号に基づいてカメラ111の位置や角度変位に起因する相対ずれ量を計算する。図5に示したように、相対ずれ量135は撮像画像内の物体(代表的には基準点)のずれに相当する。この相対ずれ量に基づいて第二の基準座標系を補正する。映像表示部106が表示するコンテンツの位置は補正された第二の基準座標系に基づいて定まるので、第二の基準座標系を撮像画像内の物体のずれに追従するように補正して第二の補正座標系とすることで、利用者700が認知する撮像画像内の物体とコンテンツの相対的位置関係の変化を抑圧することができる。
As described above, the first reference coordinate system is set based on the feature points in the captured image captured by the
相対ずれ量の認識及び補正座標系の決定は、現実空間全体の空間認識を行わなくてよいため、高速な相対ずれ量の認識及び補正座標系の決定が可能である。なお、基準座標系の決定(S103)自体を高頻度で繰り返すことでも撮像画像内の物体とコンテンツの相対的位置関係の変化を抑圧することができるが、この場合は基準座標系の決定のための処理の負荷が大きくなるという問題がある。 Recognition of the amount of relative deviation and determination of the correction coordinate system do not require spatial recognition of the entire physical space, so high-speed recognition of the amount of relative deviation and determination of the correction coordinate system are possible. Note that it is possible to suppress changes in the relative positional relationship between the object and the content in the captured image by repeating the decision of the reference coordinate system (S103) itself at a high frequency. There is a problem that the processing load of
次に、映像表示装置100は表示コンテンツの決定を行う(S107)。映像表示装置100のコントローラー107は映像表示処理部105に座標処理部104から受領した座標系情報とコマンドを送付し、映像表示処理部105は映像表示装置100が表示する表示コンテンツの決定を行い、表示コンテンツをコントローラー107に送信する。表示コンテンツの決定については、後に図9で説明する。
Next, the
映像表示処理部105は、コントローラー107から受領した座標系情報を基に、第二の補正座標系を基準として表示するコンテンツの位置を決定する。映像表示装置100が移動した場合においても、第二の補正座標系は現実空間では略移動しない座標系であるから、映像表示装置100の移動に略影響されない映像表示が可能である。
Based on the coordinate system information received from the controller 107, the video
次に、映像表示装置100はコンテンツの表示を行う(S108)。映像表示装置100のコントローラー107は映像表示部106に映像表示処理部105から受領した表示コンテンツとコマンドを送付し、映像表示部106は該表示コンテンツを表示する。
Next, the
次に、映像表示装置100は終了コマンドの有無を判定する(S109)。終了コマンドとしては例えば、映像表示装置100の図示しない入力部から入力された情報、若しくは該情報を認識した情報が利用可能である。例えば、映像表示装置100は入力部としてマイクを備え、マイクは利用者700からの音声命令を受信し、映像表示装置100は該音声命令を認識し、所定の命令を認識した場合は終了コマンドが有ると判断する映像表示装置100を構成することが可能である。終了コマンドがある場合には、映像表示装置100はフローを終了する。
Next, the
終了コマンドがない場合、映像表示装置100は所定時間経過するまで所定時間経過したかの判断を繰り返す(S110)。換言すれば、所定時間経過するまで待機する。所定時間経過後、映像表示装置100はセンサ情報の取得(S105)からフローを繰り返す。これにより、所定の時間間隔で、センサ情報に基づく相対ずれ量の認識による補正座標系の決定を繰り返すことができ、映像表示装置100が移動し続ける場合においても、継続して座標系の補正を行うことができ、継続して映像表示装置100の移動に略影響されない映像表示が可能となる。
If there is no end command, the
図7は、本実施例のコンテンツ表示に係る別のフローチャートの一例を示した図である。図6との差分について説明する。映像表示装置100は、S110において所定時間経過するまで所定時間経過したかの判断を繰り返した後、所定回数経過したかの判断を行う(S111)。具体的には例えば、コントローラー107はループカウンターを備えており、判断の度にループカウンターを所定の値だけ増加させるとともに、ループカウンターが所定の値を超過しているか否かを判断する。
FIG. 7 is a diagram showing an example of another flowchart relating to content display according to the present embodiment. Differences from FIG. 6 will be described. The
本実施例の別の観点では、映像表示装置100は前回基準座標系を決定してから所定の時間経過しているか否かを判断し、所定の時間経過している場合には所定回数経過したものと見做す。映像表示装置100は所定回数経過したと判断した場合にはカメラ画像の取得(S101)から繰り返し、所定回数経過したと判断しない場合にはセンサ情報の取得(S105)から繰り返す。
From another aspect of the present embodiment, the
これにより、映像表示装置100は、所定回数ごとや所定の時間ごとにカメラ画像を利用した基準座標系の決定を行うことができ、例えばカメラ111が動かなかった場合でも、信号の経時的なドリフト等が生じることがある。このような信号ドリフトに対しても、映像重畳の位置精度を向上させることが可能となる。基準座標系の更新は、例えば1回/秒程度の頻度で行うことができる。
As a result, the
図8は、本実施例に係る特徴点132の例を示す図である。図8では、物体131の一例として分電盤131Aを示している。特徴点132としては、例えば物体131の頂点151A~151Dを利用することが可能である。
FIG. 8 is a diagram showing an example of feature points 132 according to this embodiment. 8 shows a
本実施例の別の観点では、特徴点132としては、例えば物体131の辺152A~152Dを利用することが可能である。本実施例の別の観点では、特徴点132としては、物体131の中心153若しくは物体131の重心を利用することが可能である。本実施例の別の観点では、特徴点132としては、物体131の内部にある物体154の所定の位置を利用することが可能である。例えば、物体154の頂点154Aや物体154の辺154Bなどを利用することが可能である。
From another aspect of the present embodiment, sides 152A to 152D of the
本実施例の別の観点では、特徴点132としては、物体131に記載されている文字列155の所定の位置155Aを利用することが可能である。所定の位置155Aとしては、例えば文字列155の所定の文字数目の文字のうち、一番上の箇所、一番下の箇所、一番右の箇所、一番左の箇所などを利用することが可能である。
From another point of view of this embodiment, it is possible to use a
本実施例の別の観点では、特徴点132としては、所定の記号156を利用することが可能である。所定の記号は予め決まった記号でもよいし、未知の記号でもよい。記号156は1次元コードや2次元コードなどでもよい。特徴点132としては、物体131が予め備えている物体131の構成物でもよいし、物体131に貼り付けられた物体でもよい。
In another aspect of this embodiment, the feature points 132 can be predetermined
以上のように特徴点は予め定義しておくことができ、カメラ111が撮像した撮像画像内から、特徴点位置認識部103が特徴点の色(例えば色相、明度、および彩度)や形状に基づいて公知の手法により抽出することができる。
Feature points can be defined in advance as described above, and the feature point
図9は、本実施例に係る映像表示処理部105による表示コンテンツの決定方法の一例を示す図である。図9では説明のために、利用者700から見た現実空間と仮想空間を合わせて表記している。物体131は現実空間に位置する物体である。座標処理部104は撮像画像内にx’軸136及びy’軸137を第一の補正座標系として決定し、映像表示部106が表示する映像内における第二の補正座標系に換算する。
FIG. 9 is a diagram showing an example of a display content determination method by the video
いま、理解を助けるための具体的な例として、物体131は現実空間にある物体例えば分電盤などである。この例では、カメラ111の視野は物体131を認識できる程度あればよい。この例では、物体131の右側にコンテンツ162、例えば分電盤の操作マニュアルを表示したい場合を説明する。
Now, as a specific example for helping understanding, the
映像表示処理部105は、コントローラー107から受領した座標系情報を基に、第二の補正座標系を基準として表示するコンテンツの位置を決定する。具体的には、映像表示装置100は例えば以下のようにして表示コンテンツの位置を決定する。
Based on the coordinate system information received from the controller 107, the video
映像表示処理部105は仮想空間におけるコンテンツを予め図示しない仮想空間記憶部に格納する。仮想空間記憶部としては例えばRAM115を利用することが可能である。仮想空間記憶部に記憶された仮想空間161には複数のコンテンツの画像が、それぞれ仮想空間161内の所定の位置に位置決めされて収納されている。
The video
すなわち、仮想空間に関しては、物体131に対してどの場所にどのコンテンツを表示するかのマップを持っている。具体的には、この例では物体131と仮想空間161の相対的位置関係があらかじめ定められており、コンテンツ162が物体131の右側に位置するように定められている。コンテンツの位置は、例えば第二の座標系に従った座標で示すことができる。仮想空間161のサイズは任意であり大きさに制限はない。なお、現実空間に関してはマップを持っておらず、カメラ画像を基に第一の基準座標系が生成できればよい。
In other words, as for the virtual space, it has a map indicating which contents are to be displayed at which locations with respect to the
図9の例では、仮想空間161に3つのコンテンツ162A~162Cが左右方向に位置をずらして収納されている。仮想空間161の保存形式は、例えば、ビットマップイメージなどの画像ファイルである。一般的な例では映像表示部106が表示できる画角が小さいので、ここで、映像表示装置100で表示可能な領域は仮想空間161のうち、表示領域163に位置するコンテンツだけであり、その表示領域163の位置は映像表示処理部105により決定される。図9の例では、表示領域163はコンテンツ162Aの一部に重なっており、映像表示装置100は表示領域163内のコンテンツ162Aの一部を表示することができる。
In the example of FIG. 9, three
表示領域163の位置は、例えば頭の動きに連動して第二の座標系の座標で定められる。このようにカメラの動きに合わせて、表示領域を仮想空間の中から切り出して映像を表示する。頭部の方向を変えることで、視線方向に配置されたコンテンツを見る手法については、例えば特許文献1等に記載の公知技術を採用してよい。
The position of the
すでに説明したように、本実施例では第二の基準座標系自体の補正を行う方式を示したが、第二の基準座標系における表示領域163の座標やコンテンツの座標を補正しても同様の効果がある。この場合には、第二の基準座標系を補正する場合とシフト量は同じで方向を逆向きにシフトさせるように、コンテンツ等の座標を補正すればよい。
As already explained, in the present embodiment, a method of correcting the second reference coordinate system itself was shown, but the same is true even if the coordinates of the
座標処理部104は撮像画像内にx’軸136及びy’軸137を第一の補正座標系として決定した後、仮想空間161内において、x’軸136及びy’軸137が如何なる位置及び如何なる方向に該当するか計算し、仮想空間161内における第二の補正座標系として座標系情報をコントローラー107に送信する。即ち座標系情報は、例えば、仮想空間161若しくは表示領域163のうち少なくとも一方が第二の補正座標系の如何なる位置及び如何なる方向に該当するかを表す。
After determining the x′-
映像表示処理部105はコントローラー107から仮想空間161内における第二の補正座標系に関する座標系情報を受領し、該第二の補正座標系において所定の位置に表示領域163を設定する。
The image
映像表示処理部105は、表示領域163内にある情報を表示コンテンツとしてコントローラー107に送信する。第二の補正座標系は現実空間では略移動しない座標系であるから、映像表示装置100が表示するコンテンツは、映像表示装置100の移動に略影響されない。すなわちコンテンツがあたかも現実空間に貼りついているかのように利用者700が知覚する、映像表示が可能である。また、事前にコンテンツを仮想空間記憶部に記憶させておくため、映像表示処理部105が表示コンテンツを決定するたびに仮想空間の一部若しくは全体の描画が不要となり、表示コンテンツの決定の速度を速める、つまり高速化を図ることが可能である。
The video
現実空間に重畳させてコンテンツを視認する透過型ディスプレイでは、以上のようにして利用者が物体を視認する際に、表示コンテンツを同時に表示することができる。以上の説明では、基準座標系、補正座標系とも撮影画像内の物体上に規定されるので、基本的に二次元座標系でよい。仮想空間の座標系も同様である。 In a transmissive display in which content is superimposed on the real space and visually recognized, display content can be simultaneously displayed when a user visually recognizes an object as described above. In the above description, both the reference coordinate system and the correction coordinate system are defined on the object in the photographed image, so basically the two-dimensional coordinate system may be used. The same applies to the coordinate system of the virtual space.
図10は、本実施例に係る映像表示処理部105による表示コンテンツの決定方法の別の一例を示す図である。図10では説明のために、利用者700から見た現実空間と仮想空間を合わせて表記している。映像表示処理部105は、映像表示装置が表示するコンテンツ171の補正座標系における座標に関する情報を事前に備えている。例えば、映像表示処理部105は、分電盤の右端から5度の位置に操作マニュアルというコンテンツを表示するといった内容の情報を備えている。この情報は第二の補正座標系の座標として示すことができる。映像表示処理部105は、コンテンツ171の少なくとも一部が表示領域163に重なっていることを認識した場合、表示コンテンツとしてコンテンツ171を描画し、該表示コンテンツをコントローラー107に送信する。
FIG. 10 is a diagram showing another example of the display content determination method by the video
第二の補正座標系は現実空間では略移動しない座標系であるから、映像表示装置100は、映像表示装置100の移動に略影響されない、すなわちコンテンツがあたかも現実空間に貼りついているかのように利用者700が知覚する、映像表示が可能である。例えば、補正座標系が分電盤に貼りついている場合、補正座標系における座標を指定することで、分電盤に貼りついたようにコンテンツを表示できる。また、仮想空間全体の情報を仮想空間記憶部に記憶しなくてよいため、記憶部の使用量削減及び低コスト化を実現可能である。
Since the second corrected coordinate system is a coordinate system that does not substantially move in the physical space, the
図11は本実施例に係る映像表示装置100が表示する表示コンテンツの位置の例を示す図である。表示コンテンツの表示位置は、以下の方法で物体との位置関係を第一の補正座標系で定め、座標変換情報で第二の補正座標系の座標に変換してあらかじめ決めておくことができる。仮想空間161のコンテンツ162の位置と表示領域163の位置を第二の補正座標系で定めておけば、重なった部分が表示される。
FIG. 11 is a diagram showing an example of positions of display content displayed by the
アイポイント180は、映像表示装置100を利用する利用者700の目の位置を示す。また、利用者700が正面を向き正面を見た時に利用者が視認する物体131上の点を中心点181とし、物体131の端を端182とする。
An
映像表示装置100は、例えば表示コンテンツ184が物体131と重ならないように表示する。具体的には、表示コンテンツ184の端183が、物体の端182に対して、中心点181と反対側となるように表示コンテンツ184を表示する。これにより、表示コンテンツ184により利用者700が物体131を認識しにくくなることを防ぐことができ、物体131の視認性を向上させることが可能である。本実施例の別の観点では、中心点181は物体131の中心とすることも可能である。
The
本実施例の別の観点では、アイポイント180と中心点181を結ぶ線分と、アイポイント180と表示コンテンツの端183を結ぶ線分とがなす角度θが所定の角度以上となるように表示コンテンツを表示する。例えば、映像表示装置100は、角度θが2.5度以上となるように表示コンテンツを表示する。これにより利用者700が正面を見ている場合に映像表示装置100は弁別視野の範囲を避けて映像を表示することができるようになるため、利用者700による物体131の視認性を向上させることができる。
From another aspect of the present embodiment, the display content is displayed so that the angle θ between the line segment connecting the
本実施例の別の観点では、映像表示装置100は角度θが15度以上となるように表示コンテンツを表示する。これにより映像表示装置100は有効視野を避けて映像を表示することができるようになるため、利用者700による物体131の視認性を更に向上させることができる。
From another aspect of this embodiment, the
本実施例の別の観点では、映像表示装置100は角度θが30度以上となるように表示コンテンツを表示する。これにより映像表示装置100は安定注視野を避けて映像を表示することができるようになるため、利用者700による物体131の視認性を更に向上させることができる。
From another aspect of this embodiment, the
本実施例の別の観点では、映像表示装置100は角度θが50度以上となるように表示コンテンツを表示する。これにより映像表示装置100は誘導視野を避けて映像を表示することができるようになるため、利用者700による物体131の視認性を更に向上させることができる。
From another aspect of this embodiment, the
本実施例によれば、撮像部101の撮像画像を基にした基準座標系の決定及びセンサ部102からのセンシング情報を基にした補正座標系の決定を行い、該補正座標系に基づき表示コンテンツの決定を行うため、位置精度の高い映像表示が可能な映像表示装置100を提供可能である。また、高速な特徴点の位置や相対ずれ量の認識、及び基準座標系や補正座標系の決定、表示コンテンツの決定が可能であるため、映像表示装置100の動きに対して遅延の少ない重畳映像を表示可能な映像表示装置100を提供可能である。
According to this embodiment, the reference coordinate system is determined based on the captured image of the
実施例2では、時間変化と共に基準座標系を決定する際の特徴点が変更可能な構成とした。なお、実施例2において、前述した実施例との相違点を主に説明し、前述した実施例と同じ構成には同じ符号を付し、それらの説明は省略する。 In the second embodiment, the feature point for determining the reference coordinate system can be changed with time. In addition, in Example 2, differences from the above-described examples will be mainly described, and the same components as those of the above-described examples will be given the same reference numerals, and their description will be omitted.
図12は、本実施例に係る特徴点と基準座標系の一例を示した図である。 FIG. 12 is a diagram showing an example of feature points and a reference coordinate system according to this embodiment.
図13は、本実施例のコンテンツ表示に係るフローチャートの一例を示した図である。以下、図7と異なる部分を主に説明する。 FIG. 13 is a diagram showing an example of a flowchart relating to content display according to the present embodiment. Hereinafter, the parts different from FIG. 7 will be mainly described.
図13に示したフローにおいて、S111で所定回数経過したことが判断された場合は特徴点の位置の認識(S202)及び基準座標系の決定(S203)を繰り返し行うが、異なる時刻において特徴点の位置の認識(S202)及び基準座標系の決定(S203)を行う時刻を時刻T1、時刻T2、及び時刻T3とする。ここで時刻T2は時刻T1より後の時刻であり、時刻T3は時刻T2より後の時刻である。 In the flow shown in FIG. 13, when it is determined in S111 that the predetermined number of times has passed, recognition of the position of the feature point (S202) and determination of the reference coordinate system (S203) are repeated. Time T1, time T2, and time T3 are times at which the position is recognized (S202) and the reference coordinate system is determined (S203). Here, the time T2 is the time after the time T1, and the time T3 is the time after the time T2.
なお、特徴点の位置の認識(S202)と基準座標系の決定(S203)が行われる時刻には当然時間差があるが、本実施例では特徴点の位置の認識(S202)及び基準座標系の決定(S203)の時間差には特に言及せず、両者のステップを実行する代表的な時刻として時刻T1等と呼ぶこととする。 There is naturally a time difference between the time when the position of the feature point is recognized (S202) and the time when the reference coordinate system is determined (S203). The time difference between determination (S203) is not particularly mentioned, and a typical time at which both steps are executed is referred to as time T1 or the like.
図12(a)に示すように、時刻T1のS202において、特徴点位置認識部103は特徴点200の位置を認識する。また時刻T1のS203において、座標処理部104は特徴点200の位置を基に基準座標系のx軸202A及びy軸203Aを決定する。
As shown in FIG. 12A, in S202 at time T1, the feature point
時刻T2のS202において、特徴点位置認識部103は特徴点200及び特徴点201の位置を認識し、特徴点200及び特徴点200とは異なる特徴点201の位置の認識結果をコントローラー107に送信する。なお本例では、2つの特徴点を認識するが、3つ以上としてもよい。
In S202 at time T2, the feature point
図12(b)に示すように、時刻T2のS203において、コントローラーは特徴点200及び特徴点201の位置の認識結果を座標処理部104に送信する。座標処理部104は特徴点200及び特徴点201の位置の差異204を検出し、時刻T1において決定した基準座標系のx軸202A及びy軸203A、若しくは時刻T2の直前に座標処理部104が決定した補正座標系のx’軸及びy’軸と、特徴点201を基準とした基準座標系のx軸202B及びy軸203Bが略一致するように、特徴点201を基準として基準座標系のx軸202B及びy軸203Bを決定する。
As shown in FIG. 12B, in S203 at time T2, the controller transmits the recognition results of the positions of the feature points 200 and 201 to the coordinate
図12(c)に示すように、時刻T3のS202において、特徴点位置認識部103は特徴点201の位置を認識する。また時刻T3のS203において、座標処理部104は特徴点201の位置を基に基準座標系のx軸202B及びy軸203Bを決定する。
As shown in FIG. 12(c), the feature point
本実施例によれば、映像表示装置100は基準座標系を決定するための特徴点を変更することができる。これにより、映像表示装置100が移動するにつれて、撮像部101が撮像する画像において特徴点が画像の範囲外に出てしまう場合においても、撮像部101が撮像する画像に写っている別の特徴点を利用して基準座標系を決定することができるようになる。従って、映像表示装置100が大きく移動する場合においても、位置精度の高い映像表示が可能な映像表示装置100を提供可能である。
According to this embodiment, the
実施例3では、利用者700がコマンドで特徴点を示すことが可能な構成とした。なお、実施例3において、前述した実施例との相違点を主に説明し、前述した実施例と同じ構成には同じ符号を付し、それらの説明は省略する。
In the third embodiment, the configuration is such that the
図14は、本実施例に係る映像表示装置100の機能ブロックの一例を示す図である。映像表示装置100は、入力部301と、コマンド認識部302と、を備える。
FIG. 14 is a diagram showing an example of functional blocks of the
図15は、本実施例に係る映像表示装置100の一例を示す図である。映像表示装置100は、入力部301としてマイク310を備える。
FIG. 15 is a diagram showing an example of the
図16は、本実施例の基準座標系の決定に至るフローチャートの一例を示した図である。 FIG. 16 is a diagram showing an example of a flowchart leading to determination of the reference coordinate system in this embodiment.
はじめに、映像表示装置100は、マーカーを表示する(S301)。コントローラー107は、映像表示処理部105にコマンドを送信する。映像表示処理部105はコマンドに従い、表示コンテンツにマーカーを描画し、該表示コンテンツをコントローラー107に送信する。
First, the
図17は、本実施例に係る現実空間にマーカーを重畳表示する様子の一例を示す図である。映像表示装置100が表示する映像領域320の一部にマーカー321を表示する。図16ではマーカーとして「+」の記号を利用する例とした。
FIG. 17 is a diagram showing an example of how markers are superimposed and displayed in the physical space according to the present embodiment. A
次に、映像表示装置100は特徴点を指定するコマンドの有無を判定する(S302)。入力部301は入力部に入力された情報をコントローラー107に送信する。コントローラーは入力部から入力された情報をコマンド認識部302に送信する。コマンド認識部302はコントローラーから受信した情報に所定のコマンドが存在するか否かを検出する。コマンド認識部302は検出結果をコントローラー107に送信する。
Next, the
入力部301としてマイク310を備える映像表示装置の例では、コマンド認識部302は、例えばマイクがセンシングした音の情報に、利用者700が発した所定の文字列、例えば「特徴点セット」が含まれているか検出する。所定の文字列が含まれている場合、コマンド認識部302は特徴点を指定するコマンド有りとして認識結果をコントローラー107に送信する。
In an example of a video display device that includes a
コントローラー107は、コマンド認識部302から、特徴点を指定するコマンド有りとの認識結果を受領するまで繰り返す。
The controller 107 repeats until it receives a recognition result indicating that there is a command specifying a feature point from the
次に、映像表示装置100は、マーカーを非表示にする(S303)。コントローラー107は、映像表示処理部105にコマンドを送信する。映像表示処理部105はコマンドに従い、表示コンテンツにマーカーを描画しないように動作を変更し、該表示コンテンツをコントローラー107に送信する。
Next, the
次に、映像表示装置100はカメラ画像を取得する(S101)。
Next, the
次に、映像表示装置100は特徴点の位置の認識を行う(S304)。コントローラー107はマーカー321の所定の位置322を特徴点位置認識部103に送信し、特徴点位置認識部103はカメラ画像のうちマーカーの位置322を特徴点とする。そして該特徴点のカメラ画像内における位置を認識する。
Next, the
上記ではマーカーの位置322を特徴点としたが、本発明はこれに限られない。例えばマーカーの近傍を特徴点とすることも可能である。例えば、カメラ画像のうちマーカーの位置を中心として所定の画素範囲の中に存在する物体を特徴点とすることも可能である。これにより、マーカーの位置に物体がない場合でも特徴点を設定することが可能となる。
Although the
本発明の別の観点では、例えばマーカーが示す場所若しくはその近傍を特徴点とすることも可能である。例えばマーカーとして矢印を表示し、矢印の先端若しくはその近傍を特徴点とすることも可能である。これにより。マーカーが物体に重なることを避けることができ、視認性の向上を図ることが可能となる。 In another aspect of the present invention, for example, the location indicated by the marker or the vicinity thereof can be used as the feature point. For example, it is possible to display an arrow as a marker and use the tip of the arrow or its vicinity as a feature point. By this. It is possible to prevent the marker from overlapping with the object, and it is possible to improve the visibility.
上記のフローが本実施例に係る映像表示装置100の特徴点の位置の認識フローであり、特徴点の位置の認識(S304)以降は図7等のS104の実行以降を実行する。
The above flow is the feature point position recognition flow of the
本実施例によれば、利用者700がコマンドで特徴点を示すことが可能であり、利用者700の意図に合わせた基準座標系の決定が可能となる。また、映像表示装置100が特徴点を決定しづらい場合においても、利用者の意図により特徴点を指定することができ、安定して位置精度の高い映像表示が可能な映像表示装置100を提供可能である。
According to this embodiment, it is possible for the
実施例4は、作業員が組み立てや製造、検査、保守、点検などを行っている工場、現場の遠隔作業支援システム450に活用した一実施例である。
Example 4 is an example that is utilized in a remote
図18は本実施例に係る映像表示装置100を活用した遠隔作業支援システム450の例を示す一構成図である。
FIG. 18 is a configuration diagram showing an example of a remote
作業員701は、本実施例の映像表示装置100を携帯し、工場ラインの製品組み立てや検査等を行っている。映像表示装置100は、前述のような空間上にバーチャルイメージを投影し、作業手順書や、図面、チェックリストなど作業支援のためのコンテンツを表示している。本発明の実施例では、作業員701の手作業の邪魔にならない視界上の範囲表示も空間位置座標を決めることで、常に映像を表示することが可能で使い勝手が大幅に向上する技術を搭載しても良い。例えば視線方向中心から水平±10°~±75°、垂直-60°~-90°は表示しないように、自動、もしくは作業員701側若しくは管理者420側で設定が可能で、手元、足元にコンテンツが表示されることなく、安全に手元、足元の視野確保と確認が可能で、動き回る点検作業や組立作業においても安心、安全に作業を進めることができる。
A
映像表示装置100は図示しない通信手段を備えており、Wi-Fi(商標)、LTE(商標)、5G、6G、有線、光などローカル、パブリック無線などのネットワーク401を介して、遠隔地にいる管理者420の遠隔管理装置410と接続され、情報共有を行っている。作業員701はエッジ端末であるタブレット、スマートフォン、HMD、PC(Personal Computer)などの映像表示装置100を所有し、ネットワーク401を通じてデータの授受を実施する。ネットワーク401を経て、作業者周辺のカメラ402の映像、センサ403のデータ、装置404の状態等のセンシングデータなどをエッジサーバ407や管理者420に伝送する。エッジサーバ407や管理者420は各種情報をもとに状況認識、判断、予測(特に危険、異常、異常行動などの予知)を実施する。また、このようにして異常状態を認識した時などに、エッジサーバ407や管理者420は映像表示装置100などの表示映像や音声、指示信号を通して作業指示や注意喚起を作業員701に伝える。
The
また、作業員701が図面や作業工程での疑問を問い合わせ、作業工程のチェックミスなどを自動的に判別する図示しない作業管理システムを組み込む場合、作業員701もしくは管理者420は、リアルタイムに現場の状況に対応した表示コンテンツをエッジ端末などの映像表示装置100にて表示することが可能である。さらには、作業指示、文字入力、手書き入力などの作業指示をサポートするコンテンツも管理者420から表示し、作業員701の疑問、質問、悩みを表示コンテンツにより解消することができる。このとき、表示コンテンツは上述の作業員701の視線の絶対座標位置もしくは、コンテンツにより作業員701の視線の邪魔にならないような絶対座標もしくは相対座標配置で表示され、この場合は作業手元や歩行の邪魔にならない位置へ表示されるため、より快適な遠隔作業支援システム450を提供できる。
In addition, when the
このように現実空間に仮想空間の映像を重畳することで利用者に情報を提示するヘッドマウントディスプレイなどの使い勝手の良い映像表示装置100及び遠隔作業支援システム450が提供できる。工場などでは、作業工程などのコンテンツを見ながら作業を行うケースがあるが、作業対象の近くにディスプレイや図面や作業工程表などの紙媒体を配置することが難しい場合、あるいは高所などの両手を必要とする作業がある。そのようなとき、ヘッドマウントディスプレイなどの映像表示装置100と上述の遠隔作業支援システム450を使用すれば、作業員701は映像表示装置100に表示される作業指示などを参照しながら作業を行うことができ、上述の使い勝手に優れた遠隔作業支援システム450を活用することで、安心安全かつ作業効率を改善することができる。
By superimposing the image of the virtual space on the real space in this way, it is possible to provide a user-friendly
管理者420は作業員701と同一のネットワーク401の内部に位置していてもかまわないし、インターネットを介した別の場所に位置していてもかまわない。また、上述のエッジサーバ407のうち、少なくとも一部はクラウドサーバ408であってもよい。遠隔作業支援システム450は、エッジサーバ407が備えていてもよいし、クラウドサーバ408は備えていてもよい。
The
図19は、本実施例の遠隔作業支援システム450に組み込まれている、映像伝送システムの概略構成図例である。例えば、作業員701の作業環境を観察するカメラ402に 4K, 30fps性能のカメラを活用する。カメラからPC431への情報伝送は USB 3.0が利用される。またPC431からWi-Fi6ルータ432 (IEEE 802.11ax, 9.6Gbps) を活用し映像情報を伝送する。また、Wi-Fi6ネットワーク433を介して遠隔側に位置する管理者420に映像情報、音声、センサ情報などを双方向または片方向重点的に通信する機能を有する。遠隔管理側に設置されたWi-Fiルータ434を活用しPC435へ接続する。例えば、Wi-Fi ルータ434からPC435へへの接続は1000BASE-T (IEEE 802.3ab)とし、情報を授受する構成とする。これにより、映像情報、音声情報を200ms以内の低遅延によりスムーズに通信可能となる。
FIG. 19 is an example of a schematic configuration diagram of a video transmission system incorporated in the remote
以上のように高速低遅延で4K映像情報と音声情報を、最低限2本以上を送信可能な遠隔作業支援システム450を図19の情報伝送システムで実現し、かつ同時に上述の発明による映像コンテンツの空間表示を100ms以内で実現できる。このため、トータルの遅延量は300ms以下となり、人間が遅延を感じる遅延時間300ms以下を実現できる。これにより、低遅延300ms以下の4K映像伝送システムを構築でき、使い勝手が向上した遠隔作業支援システム450を実現できる。
As described above, the remote
図20は遠隔作業支援システム450の一例を示す図である。作業員701は映像表示装置100を携行している。映像表示装置100は図示しないカメラを備えている。カメラは作業員701の前方を撮影しており、その撮影画像はネットワーク401を介して管理者420の遠隔管理装置410に伝送される。遠隔管理装置410はカメラ映像を表示し、管理者420はその表示映像460を視認する。
FIG. 20 is a diagram showing an example of a remote
カメラが撮影した画像には少なくとも物体131が撮影されている。表示映像460は例えばタッチ操作若しくは手書き入力が可能なタブレットなどに表示されている。管理者420は表示画像を認識し、作業員701への指示をタッチ操作若しくは手書き入力において入力する。例えば作業員701が作業を行うべき所定の位置を丸印や矢印などで示すことで入力する。入力された指示はネットワーク401を介して映像表示装置100に伝送され、映像表示装置100はその指示を表示する。
At least an
カメラが撮影した映像は、作業員701の動きなどにより動的に変化していることがある。その場合には、遠隔作業支援システム450は図示しない指示位置認識部を備えており、指示位置認識部はカメラが撮影した映像に写っている物体131を認識すると共に、利用者が入力した指示の位置と物体131の相対位置を認識し、映像表示装置100が表示すべき指示の位置を物体131との相対位置としてネットワーク401を介して伝送する。映像表示装置100は物体131との相対位置を基に、指示を表示する。映像表示装置100が表示する映像の表示処理は映像表示処理部105が行う。即ち、本実施例では撮像部101の撮像画像を基にした基準座標系の決定及びセンサ部102からのセンシング情報を基にした補正座標系の決定を行い、該補正座標系に基づき表示コンテンツの決定を行うため、高い位置精度で、映像表示装置100は指示を表示可能である。
The video captured by the camera may change dynamically due to the movement of the
なお、映像表示装置100が表示する指示の位置は、物体131の上に重なるように重畳表示されてもよいし、物体131と重ならないように表示してもよい。例えば、図17で示したように映像表示装置100は、表示コンテンツ184が物体131と重ならないように表示してもよい。
Note that the position of the instruction displayed by the
上記では作業員701が作業を行うべき所定の位置を丸印や矢印などで示すことで入力としたが、本発明はこれに限られない。例えば、遠隔管理装置410はマイク及び音声認識部を備えており、管理者420は音声により作業員701への指示を発し、マイクが管理者420の音声を収集し、収集した音声を音声認識部が認識をし、認識した指示を入力としてもよい。
In the above description, the
本実施例の別の観点では、管理者420は前述のように音声により指示を入力すると共に、表示映像460が表示されているタブレットなどで指示を表示する位置に関しても入力し、映像表示装置100は表示する位置に指示を表示するように構成してもよい。
From another aspect of the present embodiment, the
以上の説明では管理者420は音声により指示を入力するとしたが、本発明はこれに限られない。例えば、エッジサーバ407若しくはクラウドサーバ408若しくは遠隔管理装置410若しくは遠隔作業支援システム450が備えるデータベースから、所定の指示を取得し、取得した指示を入力としてもよい。
Although the
上記実施例では、表示領域163の位置を利用者700の頭部の方向に合わせて決めることを想定した。この場合、仮想空間は現実空間に固定される。ただし、特許文献1記載のように、表示領域163の位置を利用者700の頭部と腰部の動きの差分に基づいて決めることもできる。この場合利用者700から見ると、仮想空間は常に腰部の方向に合わせて移動する。
In the above embodiment, it is assumed that the position of the
上記実施例によれば、少ない処理量で利用者の頭部の動きに対する映像追従の遅延が少なく、現実空間と仮想空間の位置精度の高い重畳が可能となるため、消費エネルギーが少なく、炭素排出量を減らし、地球温暖化を防止、持続可能な社会の実現に寄与することができる。 According to the above embodiment, with a small amount of processing, there is little delay in following the motion of the user's head, and it is possible to superimpose the real space and the virtual space with high position accuracy, so energy consumption is low and carbon emissions are low. It can reduce the amount, prevent global warming, and contribute to the realization of a sustainable society.
なお、本発明は前述した実施例に限定されるものではなく、発明の趣旨内における様々な変形例及び同等の構成が含まれる。例えば、前述した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を有するものに本発明は限定されない。また、ある実施例の構成の一部を他の実施例の構成に置き換えてもよい。また、ある実施例の構成に他の実施例の構成を加えてもよい。また、各実施例の構成の一部について、他の構成の追加・削除・置換をしてもよい。 The present invention is not limited to the above-described embodiments, and includes various modifications and equivalent configurations within the scope of the invention. For example, the above-described embodiments have been described in detail in order to explain the present invention in an easy-to-understand manner, and the present invention is not necessarily limited to those having all the configurations described. Also, part of the configuration of one embodiment may be replaced with the configuration of another embodiment. Moreover, the configuration of another embodiment may be added to the configuration of one embodiment. Further, additions, deletions, and replacements of other configurations may be made for a part of the configuration of each embodiment.
また、前述した各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等により、ハードウェアで実現してもよく、プロセッサがそれぞれの機能を実現するプログラムを解釈し実行することにより、ソフトウェアで実現してもよい。 In addition, each configuration, function, processing unit, processing means, etc. described above may be realized by hardware, for example, by designing a part or all of them with an integrated circuit, and the processor realizes each function. It may be realized by software by interpreting and executing a program to execute.
各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリ、ハードディスク、SSD(Solid State Drive)等の記憶装置、又は、ICカード、SDメモリーカード、DVD等の記録媒体に格納することができる。 Information such as programs, tables, and files that implement each function can be stored in storage devices such as memory, hard disks, SSDs (Solid State Drives), or recording media such as IC cards, SD memory cards, and DVDs. .
また、制御線や情報線は説明上必要と考えられるものを示しており、実装上必要な全ての制御線や情報線を示しているとは限らない。実際には、ほとんど全ての構成が相互に接続されていると考えてよい。 In addition, the control lines and information lines indicate those considered necessary for explanation, and do not necessarily indicate all the control lines and information lines necessary for mounting. In practice, it can be considered that almost all configurations are interconnected.
100:映像表示装置、101:撮像部、102:センサ部、103:特徴点位置認識部、104:座標処理部、105:映像表示処理部、106:映像表示部、107:コントローラー、111:カメラ、112:センサ、113:ディスプレイ、114:CPU、115:RAM、116:記憶媒体、121:ジャイロセンサ、122:加速度センサ、131:物体、131A:分電盤、132:特徴点、133:x軸、134:y軸、135:相対ずれ量、136:x’軸、137:y’軸、151:頂点、152:辺、153:中心、154:物体、154A:頂点、154B:辺、155:文字列、155A:所定の位置、156:記号、161:仮想空間、162:コンテンツ、163:表示領域、171:コンテンツ、180:アイポイント、181:中心点、182:端、183:端、184:表示コンテンツ、200:特徴点、201:特徴点、202:x軸、203:y軸、204:位置の差異、301:入力部、302:コマンド認識部、310:マイク、320:映像領域、321:マーカー、322:位置、401:ネットワーク、402:カメラ、403:センサ、404:装置、407:エッジサーバ、408:クラウドサーバ、410:遠隔管理装置、420:管理者、450:遠隔作業支援システム、460:表示映像、700:利用者、701:作業員 100: video display device, 101: imaging unit, 102: sensor unit, 103: feature point position recognition unit, 104: coordinate processing unit, 105: video display processing unit, 106: video display unit, 107: controller, 111: camera , 112: sensor, 113: display, 114: CPU, 115: RAM, 116: storage medium, 121: gyro sensor, 122: acceleration sensor, 131: object, 131A: distribution board, 132: feature point, 133: x Axes 134: y-axis 135: relative displacement amount 136: x'-axis 137: y'-axis 151: vertex 152: side 153: center 154: object 154A: vertex 154B: side 155 : character string, 155A: predetermined position, 156: symbol, 161: virtual space, 162: content, 163: display area, 171: content, 180: eye point, 181: center point, 182: edge, 183: edge, 184: display content, 200: feature point, 201: feature point, 202: x-axis, 203: y-axis, 204: position difference, 301: input unit, 302: command recognition unit, 310: microphone, 320: image area , 321: marker, 322: position, 401: network, 402: camera, 403: sensor, 404: device, 407: edge server, 408: cloud server, 410: remote management device, 420: administrator, 450: remote work Support system, 460: Display image, 700: User, 701: Worker
Claims (15)
特徴点位置認識部と、
座標処理部と、
映像表示処理部と、を備え、
前記特徴点位置認識部は、撮像部で撮影した撮像画像を基に対象物の特徴点の位置を認識し、
前記座標処理部は、前記特徴点の位置を基に基準座標系を決定するとともに、センサ部が示すセンサ情報を基に前記撮像部の動きを検出し、映像の表示位置を前記撮像部の動きに基づいて補正し、
前記映像表示処理部は、前記基準座標系に基づいて映像を表示する際に、補正された映像の表示位置に映像を表示させる、ことを特徴とする映像表示システム。 In the image display system,
a feature point position recognition unit;
a coordinate processing unit;
and a video display processing unit,
The feature point position recognition unit recognizes the position of the feature point of the object based on the captured image captured by the imaging unit,
The coordinate processing unit determines a reference coordinate system based on the positions of the feature points, detects the movement of the image capturing unit based on sensor information indicated by the sensor unit, and determines the display position of the image by the movement of the image capturing unit. corrected based on
The image display system, wherein the image display processing unit displays the image at a corrected image display position when the image is displayed based on the reference coordinate system.
前記座標処理部は、前記撮像画像と表示する映像の位置関係に関する座標変換情報に基づいて、前記撮像画像中の第一の基準座標系を第二の基準座標系に変換し、
前記映像表示処理部は、前記第二の基準座標系に基づいて映像を表示させる、ことを特徴とする映像表示システム。 The video display system according to claim 1,
The coordinate processing unit converts a first reference coordinate system in the captured image into a second reference coordinate system based on coordinate conversion information regarding a positional relationship between the captured image and a video to be displayed,
The image display system, wherein the image display processing unit displays an image based on the second reference coordinate system.
前記座標処理部は、前記基準座標系を補正して補正座標系を決定することにより映像の表示位置を前記撮像部の動きに基づいて補正し、
前記映像表示処理部は、前記補正座標系における所定の位置にコンテンツを表示させる、ことを特徴とする映像表示システム。 The video display system according to claim 1,
The coordinate processing unit corrects the display position of the image based on the movement of the imaging unit by correcting the reference coordinate system to determine a correction coordinate system,
The video display system, wherein the video display processing unit displays the content at a predetermined position in the corrected coordinate system.
前記映像を表示する映像表示部、前記映像表示処理部、前記撮像部、前記センサ部、前記特徴点位置認識部、および前記座標処理部は、ウェアラブルな映像表示装置内に有する、ことを特徴とする映像表示システム。 The video display system according to claim 1,
The image display unit for displaying the image, the image display processing unit, the imaging unit, the sensor unit, the feature point position recognition unit, and the coordinate processing unit are included in a wearable image display device. video display system.
前記センサ部は、ジャイロセンサおよび加速度センサの少なくともひとつを備える、ことを特徴とする映像表示システム。 The video display system according to claim 1,
The image display system, wherein the sensor unit includes at least one of a gyro sensor and an acceleration sensor.
前記座標処理部は、前記基準座標系を決定した後の前記撮像部の動きに基づいて、前記映像の表示位置を補正する、ことを特徴とする映像表示システム。 The video display system according to claim 1,
The image display system according to claim 1, wherein the coordinate processing section corrects the display position of the image based on the movement of the imaging section after the reference coordinate system is determined.
前記座標処理部は、前記特徴点の位置を基に基準座標系を決定した時刻から、所定時間以上経過した後、再度前記特徴点の位置を基に基準座標系を決定及び更新する、ことを特徴とする映像表示システム。 The video display system according to claim 1,
The coordinate processing unit determines and updates the reference coordinate system again based on the positions of the feature points after a predetermined time or more has elapsed from the time when the reference coordinate system was determined based on the positions of the feature points. An image display system characterized by:
前記特徴点位置認識部は、前記座標処理部が第一の特徴点の位置を基に基準座標系を決定した時刻T1から所定時間以上経過した時刻T2において、前記第一の特徴点と、前記第一の特徴点とは異なる第二の特徴点と、の位置を認識し、
前記座標処理部は、時刻T2に前記特徴点位置認識部が認識した前記第二の特徴点の位置を基に基準座標系を決定及び更新し、
前記特徴点位置認識部は、時刻T2から所定時間以上経過した時刻T3において、前記第二の特徴点の位置を認識し、
前記座標処理部は、時刻T3に前記特徴点位置認識部が認識した前記第二の特徴点の位置を基に基準座標系を決定及び更新する、ことを特徴とする映像表示システム。 The video display system according to claim 1,
The feature point position recognition unit recognizes the first feature point and the recognizing the position of a second feature point different from the first feature point;
The coordinate processing unit determines and updates a reference coordinate system based on the positions of the second feature points recognized by the feature point position recognition unit at time T2,
The feature point position recognition unit recognizes the position of the second feature point at time T3 after a predetermined period of time or more has elapsed from time T2,
The image display system, wherein the coordinate processing unit determines and updates the reference coordinate system based on the position of the second feature point recognized by the feature point position recognition unit at time T3.
前記特徴点は、前記撮像画像に写っている対象物のエッジ若しくは隅、または前記撮像画像のうち色相、明度、および彩度の少なくとも一つの変化が所定以上ある点、またはあらかじめ定めた所定の物体である、ことを特徴とする映像表示システム。 The video display system according to claim 1,
The feature point is an edge or corner of the object in the captured image, or a point in the captured image where at least one of hue, brightness, and saturation changes more than a predetermined amount, or a predetermined object. A video display system characterized by:
入力部と、
前記撮像画像に重ねて映像を表示する映像表示部と、
前記入力部に入力されたコマンドを認識するコマンド認識部と、を備え、
前記撮像画像に重ねて所定の映像を表示した後、前記コマンド認識部が所定のコマンドを認識すると、前記特徴点位置認識部は、前記撮像画像の前記所定の映像の場所、該場所の近傍、該映像が示す場所、該映像が示す場所の近傍のうちいずれかを特徴点として該特徴点の位置を認識する、ことを特徴とする映像表示システム。 The video display system according to claim 1,
an input unit;
a video display unit that displays a video superimposed on the captured image;
a command recognition unit that recognizes a command input to the input unit;
After displaying a predetermined video superimposed on the captured image, when the command recognition unit recognizes a predetermined command, the feature point position recognition unit recognizes the location of the predetermined video in the captured image, the vicinity of the location, 1. An image display system, wherein either a location indicated by said image or a vicinity of said location indicated by said image is defined as a feature point and the position of said feature point is recognized.
前記所定の位置は、利用者の前方から所定の角度以上離れた位置、あるいは、利用者の前方を基準としたときに前記特徴点より離れた位置である、ことを特徴とする映像表示システム。 In the video display system according to claim 3,
The image display system, wherein the predetermined position is a position away from the front of the user by a predetermined angle or more, or a position away from the feature point with respect to the front of the user.
対象物を撮影して撮像画像を取得する撮像部と、
前記撮像部の動きを検出するセンサ部と、
特徴点位置認識部と、
座標処理部と、
映像表示処理部と、
映像を表示する映像表示部と、を備え、
前記特徴点位置認識部は、前記撮像画像を基に前記対象物の特徴点の位置を認識し、
前記座標処理部は、前記特徴点の位置を基に基準座標系を決定するとともに、前記撮像部の動きに基づいて前記映像表示部が表示する映像の位置の補正情報を生成し、
前記映像表示処理部は、前記基準座標系と前記補正情報に基づいて、前記映像の表示位置を決定し、
前記映像表示部は、決定された表示位置に映像を表示する、
ことを特徴とする映像表示装置。 In a video display device that displays video,
an imaging unit that captures an object and acquires a captured image;
a sensor unit that detects the movement of the imaging unit;
a feature point position recognition unit;
a coordinate processing unit;
a video display processing unit;
and a video display unit that displays video,
The feature point position recognition unit recognizes the position of the feature point of the object based on the captured image,
The coordinate processing unit determines a reference coordinate system based on the position of the feature point, and generates correction information for the position of the image displayed by the image display unit based on the movement of the imaging unit,
The video display processing unit determines a display position of the video based on the reference coordinate system and the correction information,
the image display unit displays the image at the determined display position;
An image display device characterized by:
カメラで撮影した画像中の物体の特徴点の位置を認識する第1のステップ、
前記特徴点に基づいて基準座標系を決定する第2のステップ、
前記カメラの動きを検知する第3のステップ、
前記基準座標系に基づいて前記コンテンツを表示する際に、前記カメラの動きに基づいて前記コンテンツの表示位置を補正する第4のステップ、
を実行する映像表示方法。 A video display method for displaying desired content,
a first step of recognizing the positions of the feature points of the object in the image taken by the camera;
a second step of determining a reference coordinate system based on said feature points;
a third step of detecting movement of the camera;
a fourth step of correcting the display position of the content based on the movement of the camera when displaying the content based on the reference coordinate system;
A video display method that executes
前記補正は、前記基準座標系を補正座標系に補正する処理、および、前記コンテンツの座標を補正する処理の少なくとも一つを含む、
映像表示方法。 In the image display method according to claim 13,
The correction includes at least one of a process of correcting the reference coordinate system to a correction coordinate system and a process of correcting the coordinates of the content.
Image display method.
前記カメラと前記カメラの動きを検知するセンサは、利用者が装着する映像表示装置に備え付けられており、
前記利用者が前記物体を視認する際に、前記コンテンツが同時に表示される、
映像表示方法。 In the image display method according to claim 13,
The camera and a sensor for detecting movement of the camera are provided in a video display device worn by a user,
the content is simultaneously displayed when the user views the object;
Image display method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021152509A JP2023044464A (en) | 2021-09-17 | 2021-09-17 | Picture display system, device for displaying picture, and method for displaying picture |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021152509A JP2023044464A (en) | 2021-09-17 | 2021-09-17 | Picture display system, device for displaying picture, and method for displaying picture |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023044464A true JP2023044464A (en) | 2023-03-30 |
Family
ID=85725903
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021152509A Pending JP2023044464A (en) | 2021-09-17 | 2021-09-17 | Picture display system, device for displaying picture, and method for displaying picture |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023044464A (en) |
-
2021
- 2021-09-17 JP JP2021152509A patent/JP2023044464A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11796309B2 (en) | Information processing apparatus, information processing method, and recording medium | |
KR102366293B1 (en) | System and method for monitoring field based augmented reality using digital twin | |
US10198870B2 (en) | Information processing apparatus, information processing system, and information processing method | |
US10936874B1 (en) | Controller gestures in virtual, augmented, and mixed reality (xR) applications | |
US10852847B2 (en) | Controller tracking for multiple degrees of freedom | |
JP6586824B2 (en) | Image processing apparatus, image processing method, and image processing program | |
EP3422153A1 (en) | System and method for selective scanning on a binocular augmented reality device | |
KR102182162B1 (en) | Head mounted display and method for controlling the same | |
JP2016126365A (en) | Display system, display device, information display method, and program | |
KR20210086072A (en) | System and method for real-time monitoring field work | |
WO2017043145A1 (en) | Information processing device, information processing method, and program | |
JP2019008623A (en) | Information processing apparatus, information processing apparatus control method, computer program, and storage medium | |
JP6630504B2 (en) | Work action support navigation system and method, computer program for work action support navigation, storage medium storing program for work action support navigation, self-propelled robot equipped with work action support navigation system, used in work action support navigation system Intelligent helmet | |
WO2015093130A1 (en) | Information processing device, information processing method, and program | |
JP2005174021A (en) | Method and device for presenting information | |
JP2016122392A (en) | Information processing apparatus, information processing system, control method and program of the same | |
US11443719B2 (en) | Information processing apparatus and information processing method | |
JP5215211B2 (en) | Related information display position specifying system and related information display position specifying program | |
CN103713387A (en) | Electronic device and acquisition method | |
JP2021162607A (en) | Display system, information processing apparatus, and display control method for display system | |
US11475606B2 (en) | Operation guiding system for operation of a movable device | |
JP2023044464A (en) | Picture display system, device for displaying picture, and method for displaying picture | |
JP2016053935A (en) | Visualization display method, first device and program, and field of view change method, first device and program | |
US11402900B2 (en) | Augmented reality system comprising an aircraft and control method therefor | |
KR20180060403A (en) | Control apparatus for drone based on image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240125 |