JP2019075125A - Transmission terminal, reception terminal, transmission/reception system, and program therefor - Google Patents

Transmission terminal, reception terminal, transmission/reception system, and program therefor Download PDF

Info

Publication number
JP2019075125A
JP2019075125A JP2018209211A JP2018209211A JP2019075125A JP 2019075125 A JP2019075125 A JP 2019075125A JP 2018209211 A JP2018209211 A JP 2018209211A JP 2018209211 A JP2018209211 A JP 2018209211A JP 2019075125 A JP2019075125 A JP 2019075125A
Authority
JP
Japan
Prior art keywords
index image
image
orientation
display
virtual object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018209211A
Other languages
Japanese (ja)
Other versions
JP6711885B2 (en
Inventor
渡辺 和宏
Kazuhiro Watanabe
和宏 渡辺
泰敬 森下
Yasutaka Morishita
泰敬 森下
順一郎 島村
Junichiro Shimamura
順一郎 島村
彰久 塩崎
Akihisa Shiozaki
彰久 塩崎
貴裕 山本
Takahiro Yamamoto
貴裕 山本
弘幸 尾渡
Hiroyuki Owatari
弘幸 尾渡
高平 木津
Kohei Kizu
高平 木津
武司 中田
Takeshi Nakada
武司 中田
亘 加来
Wataru Kako
亘 加来
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018209211A priority Critical patent/JP6711885B2/en
Publication of JP2019075125A publication Critical patent/JP2019075125A/en
Application granted granted Critical
Publication of JP6711885B2 publication Critical patent/JP6711885B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide a technology for displaying a virtual object related to sharing of each user in association with common position coordinates on a real space when performing so-called augmented reality display in which a plurality of users display the virtual objects in association with the position coordinates on the real space, respectively.SOLUTION: An information processing system is formed by using first and second HMDs 100 each including: a head mounting part 101 to be mounted on a head H of the user; an imaging part 102, a display part 104 for displaying an image of virtual information while superposing it on a field of view of the user; and an information processing part 150. The first HMD 100 includes an index image projection part 103 for projecting an index image (virtual object 5041). The second HMD is configured to share an image of predetermined virtual information while changing a display position/size/direction of the image of the virtual information on the basis of the index image projected on a real object by the first HMD.SELECTED DRAWING: Figure 1

Description

本発明は、送信端末、受信端末、送受信システム、およびそのプログラムに関し、仮想オブジェクトを現実空間上の位置座標と関連させて表示する拡張現実(Augmented Reality)または複合現実(Mixed Reality)の技術に関する。   The present invention relates to a transmitting terminal, a receiving terminal, a transmission / reception system, and a program thereof, and relates to a technique of Augmented Reality or Mixed Reality which displays a virtual object in association with position coordinates in a real space.

近年、2以上の情報処理端末により同一の現実空間をそれぞれ異なる視点から見たときに、仮想オブジェクトがあたかもその現実空間上に存在するかのように、前記2以上の情報処理端末上にそれぞれ異なる向き(画角)で表示する技術が提案されている。この技術を実現するためには、いわゆるジオタグ(geotag)が必要とされている。   In recent years, when the same physical space is viewed from different viewpoints by two or more data processing terminals, the virtual objects are different on the two or more data processing terminals as if they were present on the physical space. There has been proposed a technique for displaying the orientation (field angle). In order to realize this technology, so-called geotags are required.

ジオタグは仮想オブジェクトに対して緯度と経度(場合によっては高度)と方向の情報を予め付与したものである。その緯度・経度を含む現実空間を情報処理端末を通じて見たときにジオタグ情報に基づいて仮想オブジェクトの表示上の位置および向きを決定すれば、あたかもその現実空間上に存在するようにその仮想オブジェクトを表示することが可能となる。また2以上の情報処理端末に対して共通のジオタグ情報が利用できるようにすれば、各情報処理端末が異なる視点から現実空間を見たときも、あたかもその現実空間上に仮想オブジェクトが存在するかのように、それぞれ異なる向き(画角)で表示できる。   A geotag is a virtual object given in advance information of latitude, longitude (possibly altitude) and direction. When the real space including the latitude and longitude is viewed through the information processing terminal, if the display position and the direction on the display of the virtual object are determined based on the geotag information, the virtual object is displayed as if it exists on the real space. It becomes possible to display. Also, if common geotag information can be used for two or more information processing terminals, if each information processing terminal sees the real space from different viewpoints, is it as if a virtual object exists on the real space? Can be displayed in different directions (angles of view).

ところで、このジオタグは、仮想オブジェクトに対して現実空間上の位置座標と関連させて予め付与されているものであるから、2以上の情報処理端末に対して「その場で」共通に表示させたい仮想オブジェクトには利用することができない。   By the way, since this geotag is given to the virtual object in advance in association with the position coordinates in the real space, it is desirable to display "commonly" on the spot for two or more information processing terminals It can not be used for virtual objects.

これに対して、例えば特許文献1は、1の画像処理装置上に表示する仮想オブジェクトについて、他の画像処理装置にその位置データを通知し、当該他の画像処理装置上で不整合なく表示できるようにする技術を開示する。具体的には、もともと仮想オブジェクトを表示していた端末から別の端末に対して、その仮想オブジェクトの位置や方向の情報を通知する技術を開示している。つまり、それまでジオタグ情報が付されていないデータに対して、元の端末において、仮想表示しているいずれかの時点でジオタグ情報を付与し、そのデータを共有にしたときそのジオタグ情報を共有先の別の端末に通知する。   On the other hand, for example, with regard to a virtual object to be displayed on one image processing apparatus, Patent Document 1 can notify the other image processing apparatus of its position data, and can display it on the other image processing apparatus without inconsistency. Disclose the technology to do so. Specifically, a technique is disclosed in which information on the position and direction of the virtual object is notified from the terminal that originally displayed the virtual object to another terminal. That is, with respect to data to which geotag information has not been added until then, geotag information is added at one of the virtual display points in the original terminal, and when that data is shared, the geotag information is shared Notify another terminal of

特開2011−175439号公報JP, 2011-175439, A

しかしながら、特許文献1が開示する方法では、個々の情報処理端末が、精度よく位置および方向の情報を取得できることが必要である。しかしながら、現在一般的に使用されているGPS(Global Positioning System)による位置情報は数メートルの誤差があると言われ、また、屋内や地下等で電波遮断により位置取得できない場合もある。   However, in the method disclosed in Patent Document 1, it is necessary for each information processing terminal to be able to accurately acquire position and direction information. However, the position information based on GPS (Global Positioning System) generally used at present is said to have an error of several meters, and there are also cases where position acquisition can not be performed due to radio wave interruption indoors or underground.

本発明の目的は、1つの情報処理端末で拡張現実表示していた仮想オブジェクトについて「共有」が指示されたとき、他の情報処理端末との共有を可能とする技術を提供することにある。   An object of the present invention is to provide a technology that enables sharing with another information processing terminal when “sharing” is instructed for a virtual object displayed in augmented reality on one information processing terminal.

本発明に係る送信端末は、第1の使用者の頭部または顔部に装着され、仮想物体を表示するための3次元形状データを送信する送信端末であって、
前記仮想物体を共有するか否かを選択する選択手段と、
前記現実物体が表示され、かつ前記現実物体の近傍に前記選択手段により共有すると選択されうる又は選択された仮想物体を仮想空間内における第1の視点から見た画像が表示される第1の表示手段と、
装着者同士の身体接触に基づき、前記仮想物体の共有に係るグループを設定するグループ設定手段と、
を有することを特徴とする。
A transmitting terminal according to the present invention is a transmitting terminal which is attached to the head or face of a first user and transmits three-dimensional shape data for displaying a virtual object.
Selection means for selecting whether to share the virtual object;
A first display in which the real object is displayed, and an image of the virtual object which can be selected or selected to be shared by the selection means in the vicinity of the real object is viewed from a first viewpoint in the virtual space Means,
Group setting means for setting a group relating to sharing of the virtual object based on physical contact between the wearers;
It is characterized by having.

本発明に係る受信端末は、第2の使用者の頭部または顔部に装着され、仮想物体を表示するための3次元形状データを請求項1〜6のいずれか1項に記載の送信端末から受信する受信端末であって、
前記3次元形状データと指標画像を投影するための指標画像元データとを受信する受信手段と、
前記現実物体の上に投影された指標画像を撮像して第2の指標画像撮像データを得る第2の撮像手段と、
前記現実物体が表示され、かつ前記現実物体の近傍に前記選択手段により共有すると選
択された前記仮想物体を仮想空間内における第2の視点から見た画像が表示される第2の表示手段と、
前記指標画像元データ、および前記第2の指標画像撮像データに基づいて、
現実空間における、前記指標画像の位置姿勢、および前記第2の撮像手段の位置姿勢、の関係と、
前記仮想空間における、前記仮想物体の位置姿勢、および前記第2の視点の位置姿勢、の関係とが
略同じになるように前記第2の視点の位置姿勢を決定する計算手段と
を有し、
前記第2の撮像手段の位置姿勢および前記第2の視点の位置姿勢は、前記第2の使用者の頭部または顔部の位置姿勢の変化に逐次追随する
ことを特徴とする。
The receiving terminal according to the present invention is a transmitting terminal according to any one of claims 1 to 6, which is mounted on the head or face of a second user and which displays three-dimensional data for displaying a virtual object. A receiving terminal to receive from
Receiving means for receiving the three-dimensional shape data and index image source data for projecting an index image;
A second imaging unit for capturing an index image projected on the real object to obtain second index image imaging data;
Second display means for displaying the real object and displaying an image of the virtual object selected to be shared by the selection means in the vicinity of the real object as viewed from a second viewpoint in the virtual space;
Based on the index image original data and the second index image imaging data,
A relationship between the position and orientation of the index image and the position and orientation of the second imaging unit in a physical space;
Calculating means for determining the position and orientation of the second viewpoint such that the relationship between the position and orientation of the virtual object and the position and orientation of the second viewpoint in the virtual space is substantially the same;
The position and orientation of the second imaging means and the position and orientation of the second viewpoint follow the changes in the position and orientation of the head or face of the second user.

本発明に係る送受信システムは、前記送信端末と、前記受信端末と、を有することを特徴とる。   A transmitting and receiving system according to the present invention is characterized by comprising the transmitting terminal and the receiving terminal.

本発明によれば、高精度の位置測定手段や別のプロジェクション投影手段を必要とせずに、現実空間上の共通の位置に、共有に表示することが指示された仮想オブジェクトを拡張現実表示することができる。   According to the present invention, an augmented reality display of a virtual object instructed to be displayed in common at a common position on the real space without the need for a highly accurate position measurement unit or another projection projection unit Can.

本発明の情報処理システムで使用される本発明の情報処理端末の代表的な実施形態を示す図である。It is a figure which shows typical embodiment of the information processing terminal of this invention used by the information processing system of this invention. 本実施形態の情報処理システムを構成する第1の情報処理端末の判断・処理の流れを示すフローチャートである。It is a flowchart which shows the flow of judgment / process of the 1st information processing terminal which comprises the information processing system of this embodiment. 本実施形態に係る情報処理システムを構成する第2の情報処理端末の判断・処理の流れを示すフローチャートである。It is a flowchart which shows the flow of judgment / process of the 2nd information processing terminal which comprises the information processing system which concerns on this embodiment. 第1の情報処理端末の表示部における表示遷移の一例を示し、前半の4つの表示状態(401)〜(404)を示す遷移図である。It is a transition diagram which shows an example of the display transition in the display part of a 1st information processing terminal, and shows four display states (401)-(404) of the first half. 第1の情報処理端末の表示部における表示遷移の一例を示し、後半の4つの表示状態(405)〜(408)を示す遷移図である。It is a transition diagram which shows an example of the display transition in the display part of a 1st information processing terminal, and shows four display states (405)-(408) of the latter half. 本実施形態の情報処理端末の使用状態を一連の手順で模式的に示し、設定段階(501)と開始段階(502)を示す状態図である。It is a state diagram which shows the use condition of the information processing terminal of this embodiment typically in a series of procedures, and shows a setting step (501) and a start step (502). 本実施形態の情報処理端末の使用状態を一連の手順で模式的に示し、共有指示の段階(503)と指標を投影する投影段階(504)を示す状態図である。It is a state diagram which shows the use condition of the information processing terminal of this embodiment typically in a series of procedures, and shows the step of a share instruction | indication (503) and the projection step (504) which projects an index. 本実施形態の情報処理端末の使用状態を模式的に示し、共有可能となった段階(505)を示す状態図である。It is a state figure which shows the use condition of the information processing terminal of this embodiment typically, and shows the step (505) which became shareable. 本実施形態の情報処理端末の本体内に内蔵された電子回路の構成を示すブロック図である。It is a block diagram which shows the structure of the electronic circuit incorporated in the main body of the information processing terminal of this embodiment.

本実施形態に係る送受信システムの送受信端末(情報処理端末)は送信端末としての機能と受信端末としての機能を兼ね備えるが、説明の都合上、送信端末と、受信端末とに分けて説明する。   The transmission / reception terminal (information processing terminal) of the transmission / reception system according to the present embodiment has a function as a transmission terminal and a function as a reception terminal, but for convenience of explanation, the transmission terminal and the reception terminal will be separately described.

送信端末は、第1の使用者の頭部または顔部に装着され、投影手段と、第1の撮像手段と、第1の表示手段と、送信手段と、を有する。
投影手段は、指標画像元データに基づいて指標画像を現実物体の上に投影する。
第1の撮像手段は、前記投影手段によって前記現実物体の上に投影された前記指標画像を撮像して第1の指標画像撮像データを得る。
第1の表示手段には、前記現実物体が表示され、かつ前記現実物体の近傍に前記仮想物体を仮想空間内における第1の視点から見た画像が表示される。
送信手段は、1)仮想物体を表示するための3次元形状データ、2)前記指標画像元データ、および3)前記指標画像撮像データを送信する。
前記投影手段の位置姿勢、前記第1の撮像手段の位置姿勢および前記第1の視点の位置姿勢は、前記第1の使用者の頭部または顔部の位置姿勢の変化に逐次追随する。
The transmission terminal is mounted on the head or face of the first user, and has projection means, first imaging means, first display means, and transmission means.
The projection means projects the index image onto the real object based on the index image source data.
First imaging means captures the index image projected onto the real object by the projection means to obtain first index image imaging data.
On the first display means, the real object is displayed, and an image of the virtual object seen from a first viewpoint in a virtual space is displayed in the vicinity of the real object.
The transmitting means transmits 1) three-dimensional shape data for displaying a virtual object, 2) the index image source data, and 3) the index image pickup data.
The position and orientation of the projection unit, the position and orientation of the first imaging unit, and the position and orientation of the first viewpoint sequentially follow changes in the position and orientation of the head or face of the first user.

受信端末は、第2の使用者の頭部または顔部に装着され、受信手段と、第2の撮像手段と、第2の表示手段と、計算手段とを有する。
受信手段は、送信端末から送信された1)仮想物体を表示するための3次元形状データ、2)前記指標画像元データ、および3)前記第1の指標画像撮像データと、を受信する。
第2の撮像手段は、前記現実物体の上に投影された前記指標画像を撮像して第2の指標画像撮像データを得る。
第2の表示手段には、前記現実物体が表示され、かつ前記現実物体の近傍に前記仮想物体を仮想空間内における第2の視点から見た画像が表示される。
計算手段は、前記指標画像元データ、前記第1の指標画像撮像データ、および前記第2の指標画像撮像データに基づいて、
現実空間における、前記指標画像の位置姿勢、および前記第2の撮像手段の位置姿勢、の関係と、
前記仮想空間における、前記仮想物体の位置姿勢、および前記第2の視点の位置姿勢、の関係とが
略同じになるように前記第2の視点の位置姿勢を決定する。
そして、前記第2の撮像手段の位置姿勢および前記第2の視点の位置姿勢は、前記第2の使用者の頭部または顔部の位置姿勢の変化に逐次追随する。
The receiving terminal is mounted on the head or face of the second user, and includes receiving means, second imaging means, second display means, and calculation means.
The receiving means receives 1) three-dimensional shape data for displaying a virtual object, 2) the index image original data, and 3) the first index image imaging data transmitted from the transmission terminal.
A second imaging unit captures the index image projected on the real object to obtain second index image imaging data.
On the second display means, the real object is displayed, and an image of the virtual object seen from a second viewpoint in the virtual space is displayed in the vicinity of the real object.
The calculation means is based on the index image original data, the first index image imaging data, and the second index image imaging data.
A relationship between the position and orientation of the index image and the position and orientation of the second imaging unit in a physical space;
The position and orientation of the second viewpoint are determined such that the relationship between the position and orientation of the virtual object and the position and orientation of the second viewpoint in the virtual space is substantially the same.
Then, the position and orientation of the second imaging means and the position and orientation of the second viewpoint sequentially follow changes in the position and orientation of the head or face of the second user.

以下に、本発明の好適な実施形態(実施例)を図面に基づいて説明する。
本実施形態に係る情報処理端末(送受信端末)を図1、図2、図3、図6等を参照して説明する。
Hereinafter, preferred embodiments (examples) of the present invention will be described based on the drawings.
An information processing terminal (transmission / reception terminal) according to the present embodiment will be described with reference to FIG. 1, FIG. 2, FIG. 3, FIG. 6, and the like.

<情報処理端末(送受信端末)の外観の構成>
情報処理端末(送受信端末)は、情報処理機能を有したコンピュータを基本要素として構成される。以下の説明では、情報処理端末として、人の頭部に装着されるHMD(Head Mounted Display)の例で説明する。以下の説明では、説明の便宜上、原則的に「情報処理端末」の代わりに「HMD」と記す。2つのHMDはそれぞれ使用者の頭部に装着する装着手段と、投影手段と、撮像手段と、表示手段と、情報処理手段と、を備えている。
<Configuration of Appearance of Information Processing Terminal (Transmit / Receive Terminal)>
The information processing terminal (transmission / reception terminal) is configured with a computer having an information processing function as a basic element. In the following description, an example of an HMD (Head Mounted Display) mounted on the head of a person as an information processing terminal will be described. In the following description, for convenience of description, in principle, it will be described as "HMD" instead of "information processing terminal". Each of the two HMDs includes a mounting unit to be mounted on the head of the user, a projection unit, an imaging unit, a display unit, and an information processing unit.

図1の(A),(B),(C)は、HMD100の外観図を示す。図1(A)は正面側から見た外観斜視図、図1(B)は背面側から見た外観斜視図、図1(C)は使用者の頭部に装着された状態の側面図である。一般的にHMDには、伸縮可能な頭部装着部材により、接眼部が使用者の眼の周りに密着・固定するようにしたいわゆるゴーグル・タイプや、使用者の頭部全体を覆うようにして顎の部分で固定するようにした、いわゆるヘルメット・タイプなど種々のタイプがある。また、近年は、装着性を考慮し、使用者の耳にフレームを掛けて固定する、比較的軽量の眼鏡フレーム・タイプのものも登場している。
図1の(A)〜(C)に示したHMD100は、上記のいわゆるゴーグル・タイプに相当するものである。
(A), (B), and (C) of FIG. 1 show the external view of HMD100. 1 (A) is an external perspective view from the front side, FIG. 1 (B) is an external perspective view from the rear side, and FIG. 1 (C) is a side view of a state of being attached to the head of the user. is there. Generally, in the HMD, a so-called goggle type in which the eyepiece is in close contact and fixed around the user's eye or an entire head of the user is covered by an extendable head mounting member. There are various types such as so-called helmet types that are fixed at the jaw portion. Also, in recent years, a relatively lightweight eyeglass frame type has also appeared, in which a frame is attached to and fixed to the user's ear in consideration of wearability.
The HMD 100 shown in (A) to (C) of FIG. 1 corresponds to the so-called goggle type described above.

HMD100において、頭部装着部101は、HMD100を使用者の頭部に装着させるものであり、図1に示すように、番号121〜125を付した複数の構成部材からなる。図1(C)に示すようにHMD100を使用者の頭部Hに装着するには、まず、アジャスタ122で長さ調整部123を緩めた状態で頭部Hにかぶる。そして、額装着部125を頭部Hの額に密着させてから側頭装着部121と後頭装着部124を各々側頭部、後頭部に密着させるように、アジャスタ122で長さ調整部123を絞める。   In the HMD 100, the head mounting unit 101 is for mounting the HMD 100 on the head of the user, and as shown in FIG. 1, is composed of a plurality of constituent members numbered 121 to 125. In order to attach the HMD 100 to the head H of the user as shown in FIG. 1C, first, the head H is covered with the length adjustment portion 123 loosened by the adjuster 122. Then, after the forehead attachment portion 125 is brought into close contact with the forehead of the head H, the length adjustment portion 123 is squeezed with the adjuster 122 so that the temporal attachment portion 121 and the occipital attachment portion 124 are brought into close contact with the temporal region and occipital region. .

撮像部102はいわゆるデジタルカメラであって、図1(C)に示すように番号112,116,117を付した複数の部材から構成され、HMD100を頭部Hに装着した使用者の向く方向と略同方向を撮像し、使用者の頭部の位置姿勢の変化に逐次追随する。具体的には、入射窓112を介してHMD100の外部から入射した光を光学プリズム117によってHMD100の内部に導き、撮像センサ116により受光する。なお部材112,116,117は、それぞれ、左眼と右眼に対応する要素を有し、図中ではそれぞれ記号「L」と「R」を付して区別している。   The imaging unit 102 is a so-called digital camera, and is composed of a plurality of members denoted by reference numerals 112, 116, and 117 as shown in FIG. 1C, and the direction of the user facing the HMD 100 attached to the head H Images are taken in substantially the same direction, and sequentially follow changes in the position and orientation of the user's head. Specifically, light incident from the outside of the HMD 100 through the incident window 112 is guided to the inside of the HMD 100 by the optical prism 117, and is received by the imaging sensor 116. The members 112, 116, and 117 have elements corresponding to the left eye and the right eye, respectively, and are distinguished by adding symbols "L" and "R" in the drawing.

投影部103は、いわゆるプロジェクタであり、投影レンズ、画像表示素子、発光素子等からなる。
表示部104は、図1の(B),(C)に示すように番号110,114,115を付した複数の部材から構成される。また記号の「L」と「R」は前述の通り左眼用と右眼用を示す。使用者の眼の位置に相対するように、眼鏡における眼鏡レンズに相当する位置に設けられたものであり、具体的には、カラー液晶ディスプレイ114が表示する画像を光学プリズム115によって導き、スクリーン110に表示する。
The projection unit 103 is a so-called projector, and includes a projection lens, an image display element, a light emitting element, and the like.
The display part 104 is comprised from the several member which attached number 110,114,115, as shown to FIG. 1, (B), (C). The symbols "L" and "R" indicate for the left eye and for the right eye as described above. It is provided at a position corresponding to the spectacle lens in the glasses so as to be opposed to the position of the user's eyes, and more specifically, the image displayed by the color liquid crystal display 114 is guided by the optical prism 115, Display on

ここで、現実世界の光景にグラフィックスを重畳表示する方式として、グラス・シースルー(光学シースルー)方式とビデオ・シースルー方式とがある。グラス・シースルー方式は、透明または半透明の眼鏡レンズをスクリーンとしてグラフィックスを投影し、現実世界の光景にグラフィックスを光学的に重畳する。ビデオ・シースルー方式は、撮像装置が撮像している現実世界の光景にグラフィックスを電気的に重畳する。   Here, there are a glass see-through (optical see-through) method and a video see-through method as methods for superimposing graphics on a scene in the real world. The glass see-through method projects graphics using a transparent or translucent spectacle lens as a screen, and optically superimposes graphics on a real-world scene. The video see-through method electrically superimposes graphics on the view of the real world captured by an imaging device.

HMD100が前述のビデオ・シースルー型である場合は、スクリーン110は原則として透過度を有さず、導光された画像をそのまま表示する。
これに対して、HMD100が前述のグラス・シースルー型である場合は、スクリーン110はいわゆるハーフミラーで構成される。すなわち、一定の透過度を有し、使用者が現実空間の光景を光学的に見ることができるようになっている。同時に、表面または裏面もしくは内部に埋め込まれて設けられたミラーにより、カラー液晶ディスプレイ114が表示し光学プリズム115によって導かれたグラフィックスの画像を使用者の眼の方向に反射する。即ち、グラス・シースルー型の場合には、現実空間の光景と仮想オブジェクト(仮想物体)の画像とが、スクリーン110において光学的に重畳される。
When the HMD 100 is of the above-described video see-through type, the screen 110 basically has no transparency, and displays the guided image as it is.
On the other hand, when the HMD 100 is of the above-mentioned glass see-through type, the screen 110 is configured by a so-called half mirror. That is, it has a certain degree of transmission, and allows the user to optically view the scene in real space. At the same time, the color liquid crystal display 114 displays and reflects the graphic image guided by the optical prism 115 in the direction of the user's eyes by a mirror embedded on the front or back or inside. That is, in the case of the glass see-through type, the view of the real space and the image of the virtual object (virtual object) are optically superimposed on the screen 110.

表示部104の光学プリズム115からの出力光と撮像部102の光学プリズム117への入力光は使用者の瞳の光軸と一致するようになっており、撮像センサ116は、使用者の顔の位置及び方向(位置姿勢)によって見られる現実空間画像を撮像する。
ビデオ・シースルー型HMD100の場合には、カラー液晶ディスプレイ114は、撮像センサ116によって取得された現実空間画像と仮想オブジェクトの画像とを電気的に重畳(画像合成)した拡張現実画像を表示する。
一方、グラス・シースルー型HMD100の場合には、カラー液晶ディスプレイ114は、原則として、仮想オブジェクトの画像のみを表示する。
The output light from the optical prism 115 of the display unit 104 and the input light to the optical prism 117 of the imaging unit 102 coincide with the optical axis of the user's pupil, and the imaging sensor 116 Capture a real space image seen by position and direction (position and orientation).
In the case of the video see-through HMD 100, the color liquid crystal display 114 displays an augmented reality image in which the real space image acquired by the imaging sensor 116 and the image of the virtual object are electrically superimposed (image synthesis).
On the other hand, in the case of the glass see-through HMD 100, the color liquid crystal display 114 basically displays only the image of the virtual object.

<情報処理端末の内部(電子回路)の構成>
図6に示されるように、HMD100は、さらに、電子回路要素として、表示制御部130、撮像制御部140、CPU150、メモリ160、電源部170、通信部180、投影制御部190を備えている。これらの電子回路要素は、HMD100の本体(頭部装着部101を含む)の内部に埋め込まれ、外観としては図示されない。
上記において、CPU150、メモリ160、表示制御部130、撮像制御部140、投影制御部190は、HMD100の情報処理手段を構成している。
<Configuration of Internal (Electronic Circuit) of Information Processing Terminal>
As shown in FIG. 6, the HMD 100 further includes a display control unit 130, an imaging control unit 140, a CPU 150, a memory 160, a power supply unit 170, a communication unit 180, and a projection control unit 190 as electronic circuit elements. These electronic circuit elements are embedded inside the main body of the HMD 100 (including the head mounting portion 101) and are not shown in appearance.
In the above, the CPU 150, the memory 160, the display control unit 130, the imaging control unit 140, and the projection control unit 190 constitute an information processing unit of the HMD 100.

表示制御部130は、表示部104の表示制御を行う。例えば、現実空間画像に重畳表示(画像合成)する仮想オブジェクトの画像の大きさや位置、向き、色彩、透過度、現実空間画像が変更したことに伴う移動や明度の変更などを制御する。   The display control unit 130 performs display control of the display unit 104. For example, it controls the size and position, orientation, color, transparency of the image of the virtual object to be superimposed (image synthesis) on the physical space image, and control of movement and lightness change due to the physical space image changing.

撮像制御部140は、撮像データを用いた所定の演算処理による演算結果に基づいて露光制御、測距制御等を行う。これにより、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理等が行われる。また、撮像部102が光学フィルタを光路上から挿脱する機構や防振機構等を備えている場合は、撮像データその他の条件によりフィルタの挿脱や防振等の制御を行う。   The imaging control unit 140 performs exposure control, distance measurement control, and the like based on the calculation result by predetermined calculation processing using the imaging data. As a result, AF (Auto Focus) processing, AE (Auto Exposure) processing, AWB (Auto White Balance) processing, etc. are performed. When the imaging unit 102 includes a mechanism for inserting and removing the optical filter from the optical path, a vibration reduction mechanism, and the like, control of the insertion and removal of the filter and the vibration reduction is performed according to the imaging data and other conditions.

CPU150は、HMD100全体の演算処理を行う。後述するメモリ160に記録されたプログラムを実行することで、本実施形態の各処理を実現する。
メモリ160はワーク領域および不揮発性領域より成る。ワーク領域には、不揮発性領域から読み出されたプログラムやシステム制御用の定数、変数が展開される。また、現実空間に重畳して表示する仮想オブジェクトの画像のデータが、表示のために保持される。また、撮像部102により撮像されA/D変換された撮像データが、画像解析や画像処理等の目的で展開される。
The CPU 150 performs arithmetic processing of the entire HMD 100. Each process of the present embodiment is realized by executing a program recorded in a memory 160 described later.
The memory 160 comprises a work area and a non-volatile area. In the work area, a program read from the non-volatile area and constants and variables for system control are expanded. In addition, data of an image of a virtual object to be displayed superimposed on a physical space is held for display. In addition, the imaging data imaged and A / D converted by the imaging unit 102 is expanded for the purpose of image analysis, image processing, and the like.

電源部170は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなり、HMD100全体に電源を供給する。ユーザ操作その他の条件により電源オン、電源オフを切り替える電源スイッチを備える。
通信部180は、CPU150の制御に基づき、WiFiDirect等の規格に従って他のHMD100との通信を行い3次元形状データや位置姿勢に関するデータ等を送受信する。
投影制御部190は、投影部103の投影動作の制御を行う。
The power supply unit 170 includes a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, a Li battery or the like, an AC adapter or the like, and supplies power to the entire HMD 100. It has a power switch that switches power on / off according to user operation and other conditions.
The communication unit 180 communicates with another HMD 100 according to a standard such as WiFiDirect based on the control of the CPU 150 to transmit and receive three-dimensional shape data, data related to position and orientation, and the like.
The projection control unit 190 controls the projection operation of the projection unit 103.

<情報処理端末の判断・処理の流れ>
図2は上記構成を有する第1のHMD100で実行される判断および処理の流れを示し、図3は上記構成を有する第2のHMD100(受信端末)で実行される判断および処理の流れを示している。なお、この判断および処理は、CPU150がメモリ160の不揮発性領域に記録されたプログラムをワーク領域に展開して実行することで実現する。
<Flow of judgment / process of information processing terminal>
FIG. 2 shows the flow of determination and processing performed by the first HMD 100 having the above configuration, and FIG. 3 shows the flow of determination and processing performed by the second HMD 100 (receiving terminal) having the above configuration. There is. Note that this determination and processing are realized by the CPU 150 developing and executing a program recorded in a non-volatile area of the memory 160 in a work area.

<第1の情報処理端末の判断・処理の流れ>
まず図2を参照して、データの共有を指示するユーザ(使用者)の使用に係る第1のHMD100(送信端末)の判断・処理の流れを説明する。
ステップS201では、第1のHMD100は、これを使用するユーザにより電源が投入されると、撮像部102により現実空間の撮像を開始する。
<Flow of determination / process of first information processing terminal>
First, with reference to FIG. 2, the flow of determination and processing of the first HMD 100 (transmission terminal) according to use of a user (user) who instructs sharing of data will be described.
In step S201, when the power is turned on by the user using the first HMD 100, the imaging unit 102 starts imaging of the physical space.

ステップS202では、表示部104に、撮像している現実空間の画像に重畳して、所定の表示条件(大きさや位置、向き、色彩、透過度等)により、仮想オブジェクトの画像を表示する。電源投入直後に表示する仮想グラフィックスは、情報処理端末としての仕様により、例えば、そのHMD100のユーザの管理に係る不揮発性領域の記憶領域を象徴的に表すグラフィックス(立体アイコン)等であってもよい。また、電源切断前に表示されていたグラフィックスを回復して用いることとしてもよい。   In step S202, the image of the virtual object is displayed on the display unit 104 under predetermined display conditions (size, position, orientation, color, transparency, etc.) superimposed on the image of the physical space being captured. The virtual graphics displayed immediately after the power is turned on are, for example, graphics (three-dimensional icons) that symbolically represent the storage area of the nonvolatile area related to the management of the user of the HMD 100 according to the specifications as the information processing terminal It is also good. In addition, graphics displayed before power-off may be recovered and used.

ステップS203では、第1のHMD100は、ユーザにより表示している仮想グラフィックスのいずれかに対して指示・操作がされたかを判定する。この場合において、現実空間の画像に重畳して表示している仮想グラフィックスは、いわゆるグラフィカル・ユーザ・インターフェース(以下、「GUI」という)に該当する。
例えばユーザの管理に係る記憶領域を象徴的に表す立体アイコン(ストレージアイコン)を表示していた場合に、ユーザのジェスチャー操作等により「開く」が指示されたときは、その記憶領域に記憶されているファイル等を表すグラフィックスを表示する。また、例えば、「靴」のデザインデータを象徴的に表すアイコンを表示していた場合において、ユーザのジェスチャー操作等により「開く」が指示されたときは、その「靴」の立体モデルを現実空間の画像に重畳して表示する。
In step S203, the first HMD 100 determines which of the virtual graphics being displayed by the user has been instructed / operated. In this case, virtual graphics displayed superimposed on the image in the real space correspond to so-called graphical user interfaces (hereinafter referred to as "GUI").
For example, when a three-dimensional icon (storage icon) symbolically representing a storage area related to user management is displayed, when “open” is instructed by the user's gesture operation or the like, it is stored in the storage area Display graphics that represent files Also, for example, when an icon representing the design data of “shoes” is displayed symbolically, when “open” is instructed by the user's gesture operation or the like, the three-dimensional model of “shoes” is displayed in the real space Superimposed on the image of.

ところで、現実空間の画像に仮想グラフィックスを重畳表示するとき、これを現実空間上の位置座標と関連させて表示する、いわゆる拡張現実表示を行う場合と、現実空間上の位置座標とは関連させないで表示する場合(拡張現実表示を行わない場合)とがある。どのような場合に拡張現実表示をし、どのような場合に拡張現実表示をしないかは、所定の条件に基づく。この拡張現実表示を行うか行わないかの条件の設定については後述する。   By the way, when displaying virtual graphics superimposed on an image in real space, this is displayed in association with position coordinates in real space, so-called augmented reality display is not related to position coordinates in real space There are cases where it is displayed by (when not displaying augmented reality). When to display augmented reality and when to not display augmented reality are based on predetermined conditions. The setting of the condition for performing or not performing the augmented reality display will be described later.

ユーザにより仮想グラフィックスに対して指示・操作がされたときは(ステップS203でYES)、その指示・操作が、そのグラフィックスが示すデータを「共有」することの指示・操作かを判定する(ステップS204)。「共有」以外の指示・操作である場合は、その指示の内容を実行する(ステップS205)。   When the user instructs or operates on virtual graphics (YES in step S203), it is determined whether the instruction or operation is an instruction or operation of “sharing” data indicated by the graphic ( Step S204). If the instruction / operation is other than "sharing", the content of the instruction is executed (step S205).

ステップS209で、ユーザの指示・操作が、この「共有」の指示・操作であったときは、まず、投影部103より、当該共有が指示された仮想グラフィックスを表示している表示位置と略同方向となる現実空間上の方向に指標画像を投影する。ただし、このとき、以下のステップS206〜S209に示すように、角度センサにより検知した投影方向角度に基づき、指標画像が垂直または水平方向に投影されたものと同様となるように、指標画像をいわゆる台形補正する。   If it is determined in step S209 that the instruction / operation of the user is the instruction / operation of “share”, first, the display unit 103 displays the virtual graphics for which the sharing is instructed and the display position at which the virtual graphics are displayed. The index image is projected in the same direction on the real space. However, at this time, as shown in the following steps S206 to S209, based on the projection direction angle detected by the angle sensor, the index image is so-called so that it becomes similar to that projected in the vertical or horizontal direction. Correct the keystone.

例えば、HMD100が指標画像を、壁面などの略垂直な面に向けて、水平方向に対してθの角度をなす向きに投影している場合は、指標画像の投影方向に沿った方向(HMD100から見たときの、いわゆる上下の方向)と、HMD100から見たときの下辺に対する上辺とが、それぞれ1/cosθ倍に変形されることとなる。そこで元の画像について、それぞれcosθ倍する補正をすれば、情報処理端末の角度に関わらず水平に投影されたものと同様となる。   For example, when the HMD 100 projects the index image toward a substantially vertical surface such as a wall surface in a direction forming an angle of θ with the horizontal direction, the direction along the projection direction of the index image (from the HMD 100 The so-called upper and lower directions) and the upper side with respect to the lower side as viewed from the HMD 100 are each deformed by 1 / cos θ. Therefore, if correction is performed to multiply the original image by cos θ, respectively, it becomes similar to one projected horizontally regardless of the angle of the information processing terminal.

また、HMD100が指標画像を、テーブル面などの略水平な面に向けて、水平方向に対してθの角度をなす向きに投影している場合は、指標画像の投影方向に沿った方向(HMD100から見たときの、いわゆる上下の方向)と、HMD100から見たときの下辺に対する上辺とが、それぞれ-1/sinθ倍に変形されることとなる。そこで元の画像について、それぞれ-sinθ倍する補正をすれば、HMD100の角度に関わらず垂直に投影されたものと同様となる。   When the HMD 100 projects the index image toward a substantially horizontal surface such as a table surface in a direction forming an angle of θ with the horizontal direction, the direction along the projection direction of the index image (HMD 100 The so-called upper and lower direction) when viewed from the top and the upper side relative to the lower side when viewed from the HMD 100 are each deformed by −1 / sin θ times. Therefore, if the original image is corrected to be multiplied by −sin θ, it becomes similar to that projected vertically regardless of the angle of the HMD 100.

例えば、HMD100の姿勢(水平方向に対する角度θ)が-45°≦θ≦45°であるときは略垂直な面に向けて投影するものと推定できる。
また、HMD100の姿勢(水平方向に対する角度θ)がθ≦-45°またはθ≧45°であるときは略水平な面に向けて投影するものと推定できる。
For example, when the attitude (angle θ with respect to the horizontal direction) of the HMD 100 is −45 ° ≦ θ ≦ 45 °, it can be estimated that projection is performed toward a substantially vertical plane.
Further, when the attitude (angle θ with respect to the horizontal direction) of the HMD 100 is θ ≦ −45 ° or θθ45 °, it can be estimated that projection is performed toward a substantially horizontal surface.

つまり、ステップS206において、角度センサにより投影方向角度を取得し、ステップS207において、略垂直な面または略水平な面のどちらに向けて投影するかを推定する。
ステップS208において、投影面が略垂直な面または略水平な面のどちらかに応じて指標画像をいわゆる台形補正する。
ステップS209において、補正された指標画像を投影部103によって投影面に投影する。
That is, in step S206, the projection direction angle is acquired by the angle sensor, and in step S207, it is estimated whether to project toward a substantially vertical surface or a substantially horizontal surface.
In step S208, the index image is subjected to so-called keystone correction in accordance with either a substantially vertical surface or a substantially horizontal surface.
In step S209, the projection unit 103 projects the corrected index image on the projection surface.

次に、ステップS210では、この投影された指標画像を撮像部102により撮像する。この指標画像の元の画像は先に述べたプロセスにより垂直または水平方向に投影されたものと同様となる台形補正がされているから、撮像された指標画像の傾きは、HMD100の撮像方向と投影面との間の傾きを反映したものとなる。また、撮像された指標画像の大きさは、投影画像の広がり角度と撮像レンズの倍率(いわゆるズーム比)を考慮した補正を行うことにより、HMD100と投影面との間の距離を反映したものとなる。   Next, in step S210, the projected index image is captured by the imaging unit 102. Since the original image of this index image is subjected to trapezoidal correction similar to that projected in the vertical or horizontal direction by the process described above, the inclination of the imaged index image is determined by the imaging direction of the HMD 100 and the projection. It reflects the inclination between the surface. In addition, the size of the captured index image reflects the distance between the HMD 100 and the projection plane by performing correction in consideration of the spread angle of the projection image and the magnification (so-called zoom ratio) of the imaging lens. Become.

次に、ステップS211で、共有が指示された仮想グラフィックスの位置、向き(位置姿勢)、大きさを、指標画像の撮像画像に基づき変更して重畳表示する。このようにすると、あたかも当該仮想物体が、指標投影された実在オブジェクト上に置かれていたり、接着されていたりするかのように拡張現実表示することが可能となる。   Next, in step S211, the position, orientation (position and orientation), and size of the virtual graphics instructed to be shared are changed and superimposed based on the captured image of the index image. In this way, it is possible to display augmented reality as if the virtual object is placed or glued on the index-projected real object.

上記において、第1のHMD100で投影部103による指標画像の投影方向と撮像部102による指標画像の撮像方向とは、第1のユーザの視点(位置姿勢)と一致している。第1のHMD100で、投影に使用される指標画像元データと、投影された指標画像を撮像して得た指標画像撮像データとに基づき、指標画像が投影された投影面の傾き等を特定する。そして、この傾き等を「共有」が指示された仮想物体の位置姿勢に反映させて投影面の近傍に重畳表示し、拡張現実表示を行う。   In the above, in the first HMD 100, the projection direction of the index image by the projection unit 103 and the imaging direction of the index image by the imaging unit 102 coincide with the viewpoint (position and orientation) of the first user. In the first HMD 100, based on index image source data used for projection and index image imaging data obtained by imaging the projected index image, the inclination or the like of the projection surface on which the index image is projected is specified. . Then, the inclination and the like are reflected on the position and orientation of the virtual object instructed to be “shared” and superimposed and displayed in the vicinity of the projection plane, thereby performing the augmented reality display.

なお、指標画像の投影は、HMD100の撮像部102が撮像可能なものであれば、人の眼に可視な光線によるものでも、不可視な光線(例えば赤外線)によるものでもどちらでもよい。あるいは、連続した投影でなく、例えば一定の時間間隔で不連続に投影するものでもよい。
これにより、例えば、実在のオブジェクト(投影面)の上に模様などが描かれていて、可視光線による連続投影では投影された指標画像と投影面の模様との区別が困難なため、指標としての認識が困難な場合であっても、指標画像の認識を容易とすることができる。赤外光による投影・認識により模様等の影響を取り除いたり、一定の時間間隔で不連続に投影し、投影前後の撮像画像の差分から投影された画像を抽出したりすることによって、指標画像の認識を容易とすることが可能となる。
Note that the projection of the index image may be by a ray visible to the human eye or by an invisible ray (for example, infrared rays) as long as the imaging unit 102 of the HMD 100 can capture an image. Alternatively, instead of continuous projection, for example, it may project discontinuously at fixed time intervals.
Thus, for example, a pattern or the like is drawn on a real object (projection plane), and it is difficult to distinguish between a projected index image and a projection plane pattern in continuous projection using visible light, Even when recognition is difficult, recognition of the index image can be facilitated. By removing the influence of a pattern or the like by projection / recognition by infrared light, or by projecting discontinuously at fixed time intervals and extracting the projected image from the difference between the captured image before and after the projection, the index image It becomes possible to make recognition easy.

次に、ステップS212では、第1のHMD100の通信部180より、上記の仮想物体に係る情報(3次元形状データ、位置姿勢データ等)と指標画像に係る情報(指標画像元データ、指標画像撮像データ)とを送信する。
また、ステップS213では、表示部104に「共有設定中」であることを示す表示を行う。この表示は、例えば「共有設定中」等の文字を表示するものであってもよいし、仮想オブジェクトのグラフィックスをそれまでと異なる色彩や透過度で表示したり、点滅させて表示するようなものでもよい。
Next, in step S212, the information (three-dimensional shape data, position and orientation data, etc.) related to the virtual object and the information (index image original data, index image imaging) related to the index image from the communication unit 180 of the first HMD 100 Data) and send.
In step S213, the display unit 104 displays a message indicating that “sharing setting is in progress”. This display may display, for example, characters such as "in sharing setting", or may display graphics of a virtual object in a color or transparency different from before or blink them. It may be something.

そして、他のHMD100(第2のHMD100)から送信される、確認信号を受信するまで待機する(ステップS214)。確認信号については後述する。
ただし、所定の終了条件を設け、条件を充足したとき(例えば、所定の時間の経過があったとき)は待機を終了する(ステップS215)。確認信号を受信したときは「共有設定中」の表示を消去する(ステップS216)。
And it waits until it receives a confirmation signal transmitted from other HMD100 (2nd HMD100) (Step S214). The confirmation signal will be described later.
However, a predetermined end condition is provided, and when the condition is satisfied (for example, when a predetermined time has elapsed), the standby is ended (step S215). When the confirmation signal is received, the display of "in sharing setting" is erased (step S216).

<第2の情報処理端末の判断・処理の流れ>
図3を参照して、第2のHMD100(受信端末)の判断・処理の流れを説明する。
ステップS301で、第2のHMD100は、これを使用する第2のユーザにより電源が投入されると、撮像部102により現実空間の撮像を開始する。
そして、ステップS302で、第2のHMD100は、他の第1のHMD100から送信される、共有指示された仮想物体に係る情報(3次元形状データ、位置姿勢データ)と指標画像に係る情報(指標画像元データ、指標画像撮像データ)を受信するまで待機する。
ただし、所定の終了条件を設け、条件を充足したとき(例えばユーザの所定の操作があったとき)は待機を終了する(ステップS303)。
<Flow of determination / process of second information processing terminal>
The flow of the determination and processing of the second HMD 100 (receiving terminal) will be described with reference to FIG.
In step S301, when the power is turned on by the second user who uses the second HMD 100, the second HMD 100 starts imaging of the physical space by the imaging unit 102.
Then, in step S302, the second HMD 100 transmits information (three-dimensional shape data, position and orientation data) related to the virtual object instructed to be shared and information related to the index image (index information) transmitted from the other first HMD 100. It waits until the original image data, the index image imaging data) is received.
However, a predetermined termination condition is provided, and when the condition is satisfied (for example, when a predetermined operation by the user is made), the standby is terminated (step S303).

ステップS304で、第2のHMD100は、共有指示された仮想物体に係る情報と指標画像に係る情報を受信したときは、第2のHMD100の表示部(第2の表示部)に、この「情報を受信した旨」を第2のユーザに対して表示する。このとき、第1のHMD100の位置を取得できたならば、ユーザに対してその方向を向くように促す表示をすることとしてもよい。   In step S304, when the second HMD 100 receives the information related to the virtual object instructed to be shared and the information related to the index image, the second HMD 100 displays this information on the display unit (second display unit) of the second HMD 100. Is displayed to the second user. At this time, if the position of the first HMD 100 can be acquired, a display prompting the user to turn in that direction may be displayed.

そして、ステップS305では、第2のHMDの撮像部(第2の撮像部)が撮像している画像中に第1のHMDの投影部が投影している指標画像があるかを判定する。
ステップS306では、指標画像があったときは、まず、その旨の「確認信号」を第1のHMD100に発信する。これは、すなわち、当該仮想オブジェクトを共有した旨を第1のHYMD100(およびそのユーザ)に通知するものである。第2のHMD100の撮像部102による撮像方向は、これを使用するユーザの視点および視線と一致している。
Then, in step S305, it is determined whether there is an index image projected by the projection unit of the first HMD in the image captured by the imaging unit (second imaging unit) of the second HMD.
In step S306, when there is an index image, first, a “confirmation signal” to that effect is transmitted to the first HMD 100. This is to notify the first HYMD 100 (and its user) that the virtual object has been shared. The imaging direction by the imaging unit 102 of the second HMD 100 matches the viewpoint and line of sight of the user who uses this.

また、ステップS307では、撮像画像中の指標画像の位置、大きさ、向き(方向および傾き)を取得する。
例えば、指標画像の模様が点対称でもなく、線対称でもなければ、受信した指標画像元データと第1の指標画像撮像データとを比較することによって、指標画像が投影された現実物体(投影面)の位置姿勢と投影面に対する第1の撮像手段の位置姿勢が特定できる。
また、受信した指標画像元データと第2の指標画像撮像データとを比較することによって、投影面に対する第2の撮像手段の位置姿勢が特定できる。
そして、第1の撮像手段の位置姿勢と、投影面の位置姿勢と、第2の撮像手段の位置姿勢との関係が特定されれば、
仮想空間内の第1の視点の位置姿勢と、投影面上またはその近傍に重畳して表示される仮想物体の位置姿勢と、仮想空間内の第2の視点の位置姿勢との関係を特定することができる。
In step S307, the position, size, and orientation (direction and inclination) of the index image in the captured image are acquired.
For example, if the pattern of the index image is neither point-symmetrical nor line-symmetrical, the actual image on which the index image is projected (the projection surface is obtained by comparing the received index image original data with the first index image imaging data And the position and orientation of the first imaging means with respect to the projection plane can be specified.
Further, the position and orientation of the second imaging means with respect to the projection plane can be specified by comparing the received index image original data with the second index image pickup data.
Then, if the relationship between the position and orientation of the first imaging means, the position and orientation of the projection plane, and the position and orientation of the second imaging means is specified,
Identify the relationship between the position and orientation of the first viewpoint in the virtual space, the position and orientation of the virtual object displayed superimposed on or near the projection plane, and the position and orientation of the second viewpoint in the virtual space be able to.

そして、ステップS308では、共有指示された仮想物体に係る情報(形状データ、位置姿勢のデータ)に基づくレンダリングを実施する。
ステップS309では、レンダリングにより得られたバーチャル情報の画像(仮想グラフィックスの画像)を撮像部102が撮像する現実空間の画像に重畳して、表示部104に表示する。
このようにして位置姿勢が特定され、投影面上またはその近傍に重畳して表示される仮想物体(例えば、投影面の約1cm上方に配置され、第1の視点から右側面が見える仮想物体)を、仮想空間内の第2の視点から見た画像が第2の表示部104に表示される。
例えば、図5Cに示すような位置関係であれば、ユーザP3の表示部には、投影面の約1cm上方に配置され、「右」側面から見た仮想物体(靴)が表示され、ユーザP1の表示部には、投影面の約1cm上方に配置され、「左」側面から見た仮想物体が表示される。
Then, in step S308, rendering is performed based on information (shape data, data of position and orientation) related to the virtual object instructed to be shared.
In step S309, the image of virtual information (image of virtual graphics) obtained by rendering is superimposed on the image of real space captured by the imaging unit 102 and displayed on the display unit 104.
In this way, the position and orientation are specified, and a virtual object displayed superimposed on or near the projection surface (for example, a virtual object disposed about 1 cm above the projection surface and whose right side can be seen from the first viewpoint) The second display unit 104 displays an image obtained by viewing the image from the second viewpoint in the virtual space.
For example, in the positional relationship as shown in FIG. 5C, the display portion of the user P3 is disposed about 1 cm above the projection plane, and a virtual object (shoes) viewed from the "right" side is displayed. In the display section of, the virtual object viewed from the “left” side is displayed about 1 cm above the projection plane.

上記のステップS307,S308,S309によって、第2のHMD100において、第1のHMD100により投影された指標画像を介して、仮想オブジェクト(仮想物体)の共有化が実行される。当該ステップS307,S308,S309は、共有化処理のためのステップS311を構成し、共有化手段を実現している。これにより、第1のHMD100で表示された所定の仮想オブジェクト(ステップS211)が、第2のHMD100においてもその視点に基づき表示され、共有化が実現される。   In the second HMD 100, sharing of a virtual object (virtual object) is performed through the above-described steps S307, S308, and S309 through the index image projected by the first HMD 100. Steps S307, S308, and S309 constitute step S311 for the sharing process, and realize the sharing means. Thereby, the predetermined virtual object (step S211) displayed on the first HMD 100 is also displayed on the second HMD 100 based on the viewpoint, and sharing is realized.

第2のHMD100は、共有指示された仮想オブジェクトに係るバーチャル情報の画像を重畳表示した以降は、当該バーチャル情報の画像を、あたかも現実空間の特定の位置に実在するかのように拡張現実表示する(ステップS310)。すなわち、現実空間を撮像した撮像画像の特徴点の認識により、例えば第2のHMD100がその特定の位置に近付いたと認識したときは、当該オブジェクトのグラフィックスが大きくなるように再レンダリングして撮像画像に重畳する。
また、仮に、上記の特定の位置が使用者の視界(すなわち撮像画像)から外れれば、一旦、仮想オブジェクトのグラフィックスを消去する。しかし、当該特定の位置が再び使用者の視界に入ったときは、メモリ160に記憶した特徴点の情報に基づき、その位置に実在しているように仮想オブジェクトのグラフィックスを再表示する。
After the second HMD 100 displays the image of the virtual information related to the sharing instructed virtual object in a superimposed manner, the image of the virtual information is displayed as if it were present at a specific position in the real space. (Step S310). That is, when, for example, the second HMD 100 recognizes that the second HMD 100 has approached the specific position by recognizing the feature points of the captured image obtained by capturing the real space, the image is re-rendered so that the graphics of the object become large. Superimposed on
Also, temporarily, if the above specific position deviates from the user's field of view (i.e., the captured image), the graphics of the virtual object are erased once. However, when the specific position is again in the field of view of the user, the graphics of the virtual object are redisplayed as existing at that position, based on the information of the feature points stored in the memory 160.

<実施形態の作用・効果>
以上をまとめると、第1のHMD100は、それが拡張現実表示している仮想オブジェクトについて、そのユーザ(使用者)から「共有」にする指示があったときは、その拡張現実表示している方向に向けて指標画像を投影する。第2のHMD100は、その投影された指標画像を撮像し、当該指標画像と、送信された共有を指示された仮想物体に係る情報および指標画像に係る情報とに基づき、仮想物体を拡張現実表示する。
第2のHMD100の撮像画像における上記の指標画像は、当然、第2のHMD100の視点から見たものであり、また現実物体(例えば「テーブル」等)の投影される面の傾き等を反映したものである。
<Operation / Effect of Embodiment>
To summarize the above, when the first HMD 100 instructs the user (user) to “share” the virtual object displayed in augmented reality, the direction in which the augmented reality is displayed Project the index image towards the The second HMD 100 captures the projected index image, and displays the virtual object on an augmented reality display based on the index image, and information on the transmitted sharing instructed virtual object and information on the index image. Do.
The above-described index image in the captured image of the second HMD 100 is, as a matter of course, viewed from the viewpoint of the second HMD 100, and reflects the inclination or the like of the projected surface of the real object (for example, "table" etc.) It is a thing.

すなわち、第2のHMD100が、その撮像画像における指標画像の位置、大きさ、向き(方向および傾き)に対応した位置姿勢の仮想物体のグラフィックスを生成し、その表示部に拡張現実表示する。これにより、第1のHMD100と第2のHMD100とは、同じ物体があたかも現実空間上の同じ位置にあるかのように、それぞれの表示部104上にそれぞれの視点から表示することが可能となる。
そこで、例えば第1のユーザがその仮想物体を指などの現実物体によって指し示すと、第2の表示部には、その仮想物体とその現実物体とが重畳表示され、第2のユーザには第1のユーザがその仮想物体を指し示しているように見える。よって、第1のユーザと第2のユーザとが仮想物体を「共有」しているのに適した拡張現実表示が可能となる。
That is, the second HMD 100 generates graphics of a virtual object of a position and orientation corresponding to the position, size, and orientation (direction and inclination) of the index image in the captured image, and displays augmented reality on the display unit. Thus, the first HMD 100 and the second HMD 100 can display the same object from the respective viewpoints on the respective display units 104 as if they were at the same position in the real space. .
Therefore, for example, when the first user points the virtual object by a real object such as a finger, the virtual object and the real object are superimposed and displayed on the second display unit, and the first user is notified to the first user. Appear to be pointing at the virtual object. Thus, an augmented reality display suitable for the first user and the second user to "share" a virtual object is possible.

この際、第1の表示部に表示される仮想物体を描画する際の第1の視点の位置姿勢と、第2の表示部に表示される仮想物体を描画する際の第2の視点の位置視点との関係は、第1の撮像部の位置姿勢と、第2の撮像部の位置姿勢の関係と略一致している。
いわゆるジオタグ(geotag)によっても同様の見え方をさせることは可能であるが、本発明の情報処理端末(例えば上記実施形態で説明したHMD100)は、仮想オブジェクトにあらかじめ緯度・経度の情報を付与する必要がない。また各端末の緯度・経度の情報を取得する必要もない。
本発明の情報処理端末を用いたシステムでは、第1のユーザと第2のユーザが存在する現実空間内に指標画像を投影可能な現実物体が存在し、第1の端末から投影面に投影された指標画像を、第1の端末と第2の端末のそれぞれが撮像可能であればよい。
共通の指標画像を第1の端末と第2の端末のそれぞれの位置姿勢からそれぞれが撮像することによって、現実空間における第1の撮像部の位置姿勢と、投影面の位置姿勢と、第2の撮像部の位置姿勢との相対的な関係(第1の相対的関係)を特定することができる。
そして、仮想空間における第1の端末の視点の位置姿勢と、仮想物体の位置姿勢と、第2の端末の視点の位置姿勢との相対的な関係(第2の相対的関係)が第1の相対的関係と略同じになるように第2の端末の視点の位置姿勢を特定する。
これにより投影面の近傍に重畳表示される仮想物体を、第1の視点から見た画像を第1の表示手段に表示し、同じ仮想物体を第2の視点から見た画像を第2の表示手段に表示することができ、共有の拡張現実表示が可能である点に発明の効果を有している。
At this time, the position and orientation of the first viewpoint when drawing a virtual object displayed on the first display unit, and the position of the second viewpoint when drawing a virtual object displayed on the second display unit. The relationship with the viewpoint substantially matches the relationship between the position and orientation of the first imaging unit and the position and orientation of the second imaging unit.
Although it is possible to give the same appearance by so-called geotags, the information processing terminal of the present invention (for example, the HMD 100 described in the above embodiment) gives the virtual object information of latitude and longitude in advance. There is no need. In addition, it is not necessary to acquire the latitude and longitude information of each terminal.
In the system using the information processing terminal of the present invention, there is a real object capable of projecting an index image in the real space where the first user and the second user exist, and the first terminal is projected on the projection plane It is sufficient if the first terminal and the second terminal can each capture an index image.
By imaging the common index image from the position and orientation of each of the first terminal and the second terminal, the position and orientation of the first imaging unit in the physical space, the position and orientation of the projection plane, and the second The relative relationship (first relative relationship) with the position and orientation of the imaging unit can be specified.
Then, the relative relationship (second relative relationship) between the position and orientation of the viewpoint of the first terminal in the virtual space, the position and orientation of the virtual object, and the position and orientation of the viewpoint of the second terminal is the first The position and orientation of the viewpoint of the second terminal are specified so as to be substantially the same as the relative relationship.
Thus, a virtual object displayed superimposed in the vicinity of the projection plane is displayed on the first display means as viewed from the first viewpoint, and a second display of the same virtual object viewed from the second viewpoint is displayed. It has the effect of the invention in that it can be displayed on the means and shared augmented reality display is possible.

<第1の情報処理端末の表示部における表示遷移>
次に、図4A,4Bを参照して、使用者によりバーチャル情報の画像を共有する指示があったときに指標画像を投影する第1のHMD100の動作例について説明する。図4A,4Bでは、第1のHMD100の表示部104における表示遷移を一連の表示状態(401)〜(408)で示している。前半の4つの表示状態(401)〜(404)は図4Aに示され、後半の4つの表示状態(405)〜(408)は図4Bに示される。
<Display transition in display unit of first information processing terminal>
Next, with reference to FIGS. 4A and 4B, an operation example of the first HMD 100 for projecting an index image when a user instructs to share an image of virtual information will be described. In FIGS. 4A and 4B, display transition in the display unit 104 of the first HMD 100 is shown by a series of display states (401) to (408). The first four display states (401) to (404) are shown in FIG. 4A, and the last four display states (405) to (408) are shown in FIG. 4B.

表示状態(401)は、第1のHMD100における電源投入直後の表示の例を示している。表示状態(401)において符号4011は、撮像部102により撮像された現実空間の撮像画像を示している。また符号4012は、撮像画像4011に重畳された仮想グラフィックスであり、ここでは、第1のHMD100のユーザの管理に係る記憶領域を表すストレージ・アイコンを表示している。   The display state (401) shows an example of display immediately after power on in the first HMD 100. In the display state (401), reference numeral 4011 indicates a captured image of the physical space captured by the imaging unit 102. Further, reference numeral 4012 is virtual graphics superimposed on the captured image 4011, and here, a storage icon representing a storage area related to the management of the user of the first HMD 100 is displayed.

表示状態(402)は、このストレージ・アイコン4012に対してユーザが「指でつまむ」ジェスチャーにより指示・操作をしようとしている様態を表わしている。ユーザの手4023は撮像部102により撮像された現実空間の撮像画像の一部である。ここで、仮想グラフィックス4022に対して、ユーザの親指の甲側(爪のある側)部分4024が手前に、ユーザの人差し指の腹側(爪のない側)部分4025が奥に表示されるような表示制御がなされている。
これは、ユーザに対してグラフィックスを指でつまむ視覚的な感覚を生じさせるためになされるものであって、撮像画像から人の指の甲側部分と腹側部分とをそれぞれ識別し抽出する画像処理技術に基づくものである。このような画像処理技術は、例えば特開2012−53674号公報が開示するように既に公知となっている。
The display state (402) represents a mode in which the user is going to instruct / operate the storage icon 4012 by a "finger pinch" gesture. The user's hand 4023 is a part of the captured image of the real space captured by the imaging unit 102. Here, with respect to the virtual graphic 4022, the back side (nail side) portion 4024 of the user's thumb is displayed in front, and the belly side (nail side) portion 4025 of the user's index finger is displayed in back Display control is done.
This is done to give the user a visual sense of pinching graphics with a finger, and an image that identifies and extracts the back side portion and the ventral side portion of the human finger from the captured image, respectively. It is based on processing technology. Such an image processing technique is already known as disclosed in, for example, Japanese Patent Application Laid-Open No. 2012-53674.

表示状態(403)は、ユーザの所定のジェスチャー操作によりストレージ・アイコン4031に対して「ストレージの内容を表示する(いわゆる「開く」)」が指示されている様態を表わしている。ここで、当該所定のジェスチャー操作は「アイコンを指でつまんだ後、親指と人差し指をつけたままずらしていく」というジェスチャーである。このジェスチャーは、束ねたカードを扇状に開く動作と共通することから「開く」という言葉を想起させやすく、いわゆる「開く」を指示するジェスチャーとして好適である。
もちろん、いわゆる「開く」を指示するジェスチャーとして、他のジェスチャーが割り当てられていても問題はない。
The display state (403) represents a mode in which "display the contents of storage (so-called" open ")" is instructed on the storage icon 4031 by a predetermined gesture operation of the user. Here, the predetermined gesture operation is a gesture that “the icon is pinched with a finger and then shifted with the thumb and forefinger attached”. This gesture is common to the operation of opening the bundled cards in a fan-like manner, so it is easy to recall the word “open”, and is suitable as a gesture for instructing so-called “open”.
Of course, there is no problem if another gesture is assigned as a so-called "open" gesture.

表示状態(404)は、表示状態(403)においてストレージ・アイコン4031に対して「開く」というユーザの指示が実行された結果として、ストレージ・アイコン4031が表していた記憶領域の下位レベルの階層が表示された様態を表わしている。この表示状態(404)において、アイコン4041〜4048は、それぞれ第1のHMD100の記憶部に記憶されているデータまたはファイルを表示するアイコンである。例えば、アイコン4048は、表示部104に立体モデルを表示するアプリケーション・ソフトウェアの1ファイルを表示するものである。   In the display state (404), the lower-level hierarchy of the storage area represented by the storage icon 4031 is displayed as a result of the user's instruction to "open" the storage icon 4031 in the display state (403). It represents the displayed mode. In this display state (404), the icons 4041 to 4048 are icons for displaying data or files stored in the storage unit of the first HMD 100, respectively. For example, the icon 4048 is for displaying one file of application software for displaying a three-dimensional model on the display unit 104.

図4Bに示す表示状態(405)は、ユーザの所定のジェスチャー操作によりファイル・アイコン4052に対して「(アプリケーション・ソフトウェアを起動して)ファイルを開く」が指示されている様態を表わしている。ここで、当該所定のジェスチャー操作は、表示状態(403)でなされたのと同様の「アイコンを指でつまんだ後、親指と人差し指をつけたままずらしていく」ジェスチャーである。   The display state (405) shown in FIG. 4B represents a mode in which "(Open application software)" is instructed to the file icon 4052 by the user's predetermined gesture operation. Here, the predetermined gesture operation is a gesture similar to that performed in the display state (403), "a gesture of pinching the icon with a finger and moving with the thumb and forefinger attached".

表示状態(406)は、立体モデルを表示するアプリケーション・ソフトウェアが起動しアイコン4052が示すファイルがメモリ160に展開されて「靴」のオブジェクト4062が、現実空間の撮像画像4061に重畳して表示されている様態を表わしている。   In the display state (406), application software for displaying a solid model is activated, the file indicated by the icon 4052 is expanded in the memory 160, and the "shoe" object 4062 is displayed superimposed on the captured image 4061 in the real space Represents the manner in which

表示状態(407)は、表示状態(406)の立体モデル4062に対して、ユーザにより「オブジェクトを指でつまんだ後、親指と人差し指をつけたままずらしていく」というジェスチャーがなされた状態を表している。このジェスチャーがなされると、このジェスチャーに応じてオブジェクトに対してユーザが指示可能なコマンドのメニューが表示される。コマンドとしては「COPY」、「CUT」、「EDIT」、「SHARE」などがある。ユーザは、メニュー表示後にさらに親指をずらして1つのコマンドを指示・選択することができる。   The display state (407) represents a state in which the user has made a gesture "squeezing an object with a finger and shifting with the thumb and forefinger still applied" on the solid model 4062 in the display state (406). ing. When this gesture is made, a menu of commands that can be instructed by the user on the object is displayed according to the gesture. The commands include "COPY", "CUT", "EDIT", "SHARE" and the like. After displaying the menu, the user can further shift the thumb to indicate / select one command.

表示状態(408)は、ユーザによりコマンド「SHARE」が選択され、オブジェクトの「共有」が指示された結果として、このオブジェクトを現実空間上の位置座標に関連させた拡張現実表示をしている様態を表わしている。すなわち、図において撮像画像4081は現実世界の撮像画像であり、仮想オブジェクト4082は拡張現実表示された仮想オブジェクトである。
例えば仮想オブジェクトの下に影を表示するなどによって、仮想オブジェクトである「靴」が現実のオブジェクトの「テーブル」の上に置かれているかのように拡張現実表示されているため、図の上では仮想と現実の見分けがつけられないようになっている。
In the display state (408), an augmented reality display in which the object is associated with position coordinates in the real space as a result of the command "SHARE" being selected by the user and the "share" of the object being instructed Represents That is, in the drawing, the captured image 4081 is a captured image of the real world, and the virtual object 4082 is a virtual object displayed in augmented reality.
For example, by displaying a shadow under the virtual object, the virtual object “shoes” is displayed as if it were placed on the “table” of the real object, so that augmented reality is displayed. It can not distinguish between virtual and real.

表示状態(407)から表示状態(408)に遷移する際に、仮想オブジェクトの表示が、いわゆる通常の重畳表示から拡張現実表示に変更された。このように表示態様が変更されたのは、共有ファイルを示すオブジェクトについては拡張現実表示をし、共有していないファイルを示すオブジェクトについては拡張現実表示ではない、いわゆる通常の重畳表示をするように表示の条件を設定していたためである。このように、ファイルが共有か非共有かにより拡張現実に係る表示態様か非拡張現実に係る表示態様かを異ならせるのは以下の理由による。   When transitioning from the display state (407) to the display state (408), the display of the virtual object is changed from so-called normal superimposed display to augmented reality display. The display mode is changed in such a manner so as to display an augmented reality display for an object indicating a shared file, and not an augmented reality display for an object indicating a file not shared. This is because the display conditions were set. The reason why the display mode according to the augmented reality or the display mode according to the non-augmented reality is different depending on whether the file is shared or not shared is as follows.

すなわち、複数のユーザ(使用者)が特定の場所に集まってミーティングやコラボレーション等を行う場合に、オブジェクトが実際にその場にあるかのように拡張現実表示がされると、打ち合わせやコラボレーションの効果や効率が向上する。例えば一人のユーザが仮想オブジェクトを指し示しながらプレゼンテーションを行ったとき、他のユーザらはその仮想オブジェクトとそれを指し示すプレゼンターが同時に見えるからである。   That is, when a plurality of users (users) gather at a specific place to perform a meeting or collaboration, if the augmented reality display is performed as if the object is actually present, the effect of the meeting or collaboration And improve efficiency. For example, when one user gives a presentation pointing to a virtual object, the other users can simultaneously see the virtual object and a presenter pointing to it.

他方、表示をするものが他のユーザとの共有しない「非共有」のファイルに係るオブジェクトである場合は非拡張現実表示とすれば、オブジェクトの表示は現実空間上の位置座標に関連させられない。このため、たとえばユーザがその位置座標の方向を向いていない場合にはオブジェクトが表示されないこととなる。
つまり、「非共有」のファイルに係るオブジェクトについては拡張現実表示をせず、「共有」のファイルに係るオブジェクトについては拡張現実表示をするように表示様態を変更することが合理的である。
On the other hand, if the display object is an object related to a "non-shared" file not shared with other users, the display of the object can not be related to the position coordinates in the real space if the non-augmented reality display is used. . Therefore, for example, when the user does not face the direction of the position coordinates, the object is not displayed.
In other words, it is rational to change the display mode so as not to display the augmented reality display for the object related to the file “non-shared” and to display the augmented reality display for the object related to the file “shared”.

<第1および第2の情報処理端末の使用状態に基づく一連の手順>
次に、図5A,5B,5Cを参照して、前述した第1および第2のHMD100を使用して仮想オブジェクトの「共有」を行うための一連の手順の例を説明する。この例ではHMD100を頭部に装着した複数の使用者が特定の場所に集まってミーティング等を行う。このような場合に、1人の使用者により仮想オブジェクトの「共有」が指示され、他の使用者がその仮想オブジェクトをそれぞれの視点から共通の位置座標に関連させて拡張現実表示する様子を、模式的に表したものである。
<A series of procedures based on the usage state of the first and second information processing terminals>
Next, with reference to FIGS. 5A, 5B, and 5C, an example of a series of procedures for “sharing” virtual objects using the first and second HMDs 100 described above will be described. In this example, a plurality of users wearing the HMD 100 on their heads gather at a specific place to hold a meeting or the like. In such a case, one user instructs "sharing" of the virtual object, and the other user displays the virtual object in relation to the common position coordinates from each viewpoint and displays the augmented reality, It is represented schematically.

上記一連の手順のうち、図5Aは設定段階(501)と開始段階(502)を示す。図5Bは第1のHMD100から見た表示態様であって共有指示の段階(503)と当該第1のHMD100から指標を投影する投影段階(504)を示す。図5Cは第1のHMD100から投影された指標に基づき第2のHMD100との間で仮想オブジェクトを共有可能となった状態(505)を示す。   Of the above sequence, FIG. 5A shows the setting step (501) and the starting step (502). FIG. 5B shows a display mode as viewed from the first HMD 100, and shows a step of sharing instruction (503) and a projection step (504) of projecting an index from the first HMD 100. FIG. 5C shows a state (505) in which a virtual object can be shared with the second HMD 100 based on the index projected from the first HMD 100.

設定段階(501)において、それぞれ前述したHMD100を装着した使用者P1,P2が、所定の方法によりユーザ・グループ設定を行っている。ここでは、HMD100を装着した使用者P1,P2同士が握手をするというジェスチャーが、グループ設定の方法となっている。このジェスチャーをグループ設定の方法とすることについては、以下のような意義を有する。   In the setting step (501), the users P1 and P2 wearing the above-described HMD 100 perform user group setting by a predetermined method. Here, a gesture in which the users P1 and P2 wearing the HMD 100 shake hands with each other is a method of group setting. About making this gesture the method of group setting, it has the following meaning.

第1にミーティング前の所作として「握手」は自然であること。第2に、他のジェスチャー(例えば「お辞儀」)に比べて、ジェスチャーがされたか否かの識別が確実であるため、不用意にオブジェクト共有がされることを防止できること。第3に、実際に握手がされたこと(握手がされたような外観を呈したのみならず、実際の身体接触があったこと)に基づいてグループ設定することにより、意図しない者をグループに加えるおそれがなく安全性の高いグループ設定が可能となること。
第3の意義を実現可能とするためには、HMD100が、それぞれ、例えば電界状態の変移等によりHMD100の装着者同士の身体接触を検知する手段を備えてることが必要となる。なお、電界状態の変移により身体接触を検知する技術は、例えば特開2010−193129号公報等が開示するように、公知な技術である。
First of all, "handshake" is natural as a pre-meeting act. Second, it is possible to prevent careless sharing of objects because identification of whether or not a gesture has been made is reliable as compared with other gestures (for example, "bow"). Third, by setting groups based on the fact that the handshake was actually performed (not only the appearance that the handshake was performed but also the actual physical contact), the unintended person is put into the group. It is possible to set a group with high security without fear of adding it.
In order to realize the third significance, it is necessary for the HMDs 100 to be provided with means for detecting the body contact between the wearers of the HMDs 100, for example, by the transition of the electric field state or the like. In addition, the technique which detects a body contact by the transition of an electric field state is a well-known technique, as Unexamined-Japanese-Patent No. 2010-193129 etc. disclose, for example.

開始段階(502)は、グループ設定された3人のHMD100の使用者P1,P2、P3が実在オブジェクトのテーブル5021を囲んでいる様子を示している。この状態において、3人の共有に係る仮想オブジェクトはまだ何もないため、3人のHMD100はそれぞれ異なる仮想オブジェクトを表示している。   The start step (502) shows that three group-set HMD 100 users P 1, P 2, P 3 surround the real object table 5021. In this state, three HMDs 100 display different virtual objects because there are no virtual objects related to the three sharing.

段階(503)は、1つのHMD100の使用者(装着者)P3から見た表示の様態である。ここで、仮想オブジェクト5031はこの使用者P3に対してのみ表示されている。段階(503)では、この使用者P3の手指5032によりこの仮想オブジェクトの「共有」を指示するジェスチャー操作が行われている。   Step (503) is the display mode as viewed from one user (wearer) P 3 of one HMD 100. Here, the virtual object 5031 is displayed only for the user P3. In step (503), a gesture operation is performed to designate “sharing” of the virtual object by the finger 5032 of the user P 3.

投影段階(504)は、使用者P3に装備されたHMD100より指標画像5041がテーブル5021上に投影されている様子を表わしている。   The projection step (504) shows that the index image 5041 is projected on the table 5021 from the HMD 100 equipped to the user P3.

共有段階(505)は、他の使用者P1,P2の第2のHMD100が指標画像5041をそれぞれ認識し、それに基づいて、各表示部にこの共有に係る仮想オブジェクト5051のそれぞれの視点からの画像を拡張現実表示している様子を模式的に表している。つまり、共有段階(505)における靴の仮想オブジェクト5051は、HMD100の使用者(装着者)P1〜P3以外には表示されない(見えない)。
しかし、HMD100の使用者(装着者)P1〜P3の各表示手段に、あたかもテーブル5021の上に実際に置かれているかのように各使用者の視点から見た仮想オブジェクト5051が表示されていることを模式的に示している。
In the sharing step (505), the second HMDs 100 of the other users P1 and P2 respectively recognize the index image 5041, and based on that, an image from each viewpoint of the virtual object 5051 related to the sharing is displayed on each display unit. It shows schematically how augmented reality is displayed. That is, the virtual object 5051 of the shoe in the sharing stage (505) is not displayed (invisible) except for the users (wearers) P1 to P3 of the HMD 100.
However, on each display means of the users (wearers) P1 to P3 of the HMD 100, virtual objects 5051 viewed from the viewpoints of the respective users are displayed as if they were actually placed on the table 5021. The thing is shown schematically.

グループに属する使用者P1〜P3にとって、この仮想オブジェクト5051はあたかも実在するように共通に表示されているため、グループ内で打ち合わせやコラボレーションをするのに際して便利である。例えば「靴」のデザインを説明するために、使用者の1人が「靴」のオブジェクトを手にとっていろいろに方向を変えながら、指で指し示しつつ「ここの形状は…」等と説明を加えると、他の使用者には指し示した指と共にオブジェクトが表示される。
このため、説明の内容が分かりやすくなる。あるいは、他の使用者が「ここはこうした方が…」等と、指等で指し示しながら意見を言えば、それがどの部分についての意見かも明確である。また、仮想オブジェクト5051について、グループのユーザが編集・改変をする操作が可能となっているときは、例えば色彩や模様を変更しながら打ち合わせを進めるといった利用が可能である。
For the users P1 to P3 belonging to the group, the virtual objects 5051 are displayed in common as if they existed, which is convenient for meeting and collaborating within the group. For example, in order to explain the design of "shoes", when one of the users changes the direction of the "shoes" object while pointing in various ways, pointing at it with a finger and adding a description such as "this shape is ..." The object is displayed with the finger pointed to other users.
For this reason, the contents of the explanation become easy to understand. Alternatively, if another user points out an opinion while pointing with a finger or the like, such as "this one is better ...", it is also clear which part of the opinion it is. In addition, when it is possible for the user of the group to perform an operation of editing and modifying the virtual object 5051, for example, it is possible to use it to advance the meeting while changing the color and the pattern.

なお、「共有」設定されたオブジェクトをグループのユーザがどのように操作し得るかは、HMD100一般の「共有」の考え方と同様にすることができる。すなわち、グループ設定した際の、グループ・ユーザの「権限」の設定に基づく。例えば「閲覧のみ」や「改変・上書可能」等の権限がグループ・ユーザに対して予め設定される。また、いつグループ解除するかについては、解除操作をしたときとする他、例えば、HMD100同士が所定距離以上離れたとき等をグループ解除の条件とすることができる。   In addition, how the user of the group can operate the object set as “shared” can be made the same as the “shared” way of thinking of the HMD 100 in general. That is, it is based on the setting of the “authority” of the group / user at the time of setting the group. For example, the authority such as “view only” or “modifiable / overwritable” is set in advance for the group / user. In addition, when it is determined that the group release is performed, the group release condition can be, for example, when the HMDs 100 are separated by a predetermined distance or more, in addition to the release operation.

以上をまとめると、バーチャル情報の画像の共有を指示する側の使用者の使用に係る情報処理端末(第1のHMD100)は、その共有の指示があったときに、指標画像を投影する。前述したように、他の情報処理端末(第2のHMD100)はこの投影された指標画像に基づき共有指示に係るバーチャル情報の画像を表示するのであるから、共有指示があってはじめて、他の情報処理端末は当該バーチャル情報の画像を表示できることになる。すなわち、共有指示がないときには他の情報処理端末には当該バーチャル情報の画像は表示されないため、セキュリティ性よく情報管理できることとなる。   To summarize the above, the information processing terminal (first HMD 100) according to the use of the user who instructs sharing of the image of the virtual information projects the index image when the sharing instruction is given. As described above, since the other information processing terminal (second HMD 100) displays the image of the virtual information related to the sharing instruction based on the projected index image, the other information is not received until the sharing instruction is given. The processing terminal can display the image of the virtual information. That is, since the image of the virtual information is not displayed on the other information processing terminal when there is no sharing instruction, the information can be managed with high security.

<他の実施形態>
この実施形態では、バーチャル情報の画像の共有指示に係る指標画像を撮像したとき、所定の確認信号を発信するHMD100の例について説明する。
本実施形態にかかるHMD100は、図3のステップS306において説明したように、指標画像を撮像したとき、その旨の「確認信号」を、当該指標画像を投影表示しているHMD100に発信する。
Other Embodiments
In this embodiment, an example of the HMD 100 that transmits a predetermined confirmation signal when an index image related to an instruction to share an image of virtual information is captured will be described.
When the HMD 100 according to the present embodiment captures an index image as described in step S306 in FIG. 3, the HMD 100 transmits a “confirmation signal” to that effect to the HMD 100 projecting and displaying the index image.

指標画像を投影する指標画像投影手段は本実施形態に係るHMD100の一部であり、頭部装着手段により使用者の頭部に装着されている。このため、他のHMD100が指標画像を「確認」するまで、すなわち他のHMD100の撮像手段により指標画像が撮像されるまでは、指標画像を投影するHMD100の使用者は、頭部を大きく動かしてはならない。しかし、他のHMD100により指標画像が「確認」された後は、その旨がすみやかに通知され、使用者はもはや頭部を動かしてもよいと認識できることが合理的である。   An index image projection unit that projects an index image is a part of the HMD 100 according to the present embodiment, and is mounted on the head of the user by the head mounting unit. For this reason, until the other HMD 100 "confirms" the index image, that is, until the index image is captured by the imaging means of the other HMD 100, the user of the HMD 100 who projects the index image moves the head greatly. It must not be. However, after the indicator image has been "confirmed" by another HMD 100, it is rationally notified that the user can immediately move the head.

本実施形態に係るHMD100が、バーチャル情報の画像の共有指示に係る指標画像を撮像したとき、所定の確認信号を発信するのはこの通知を行うためであり、この確認信号は以下のように利用することができる。   When the HMD 100 according to the present embodiment captures an index image relating to an instruction to share an image of virtual information, a predetermined confirmation signal is sent to perform this notification, and this confirmation signal is used as follows. can do.

例えば、指標画像を投影するHMD100は、指標画像を投影した後、「確認信号」を受信するまでの間は、その使用者に対して頭部を動かさないように表示することとしてもよい。
あるいは、グループ設定されたHMD100が3以上ある場合において、その多くから「確認信号」を受信しないときは、指標画像の投影状態が適切でないと推測できる。このため、指標画像を投影するHMD100はその使用者に対して投影状態を改善するように表示することとしてもよい。
逆に、グループ設定されたHMD100が3以上ある場合において、その多くから「確認信号」を受信し、ごく一部から「確認信号」を受信しないときは、「確認信号」を発信しないHMD100の指標画像の撮像状態が適切でないと推測できる。この場合、その少ない数のHMD100の使用者に対して撮像状態を改善するように表示することとしてもよい。
For example, the HMD 100 that projects the index image may display that the user does not move the head while projecting the index image and until receiving the “confirmation signal”.
Alternatively, in the case where three or more HMDs 100 are set as a group, it is possible to infer that the projection state of the index image is not appropriate when the “confirmation signal” is not received from many of them. Therefore, the HMD 100 that projects the index image may be displayed to the user to improve the projection state.
Conversely, when there are three or more HMDs 100 set as a group, the indicator of the HMD 100 that does not transmit the "confirmation signal" when the "confirmation signal" is received from many of them and the "confirmation signal" is not received from a small part It can be inferred that the imaging condition of the image is not appropriate. In this case, display may be made to improve the imaging state to the user of the small number of HMDs 100.

以上をまとめると、バーチャル情報の画像を共有する側(指標画像を撮像する側)の使用者の使用に係るHMD100は、指標画像を撮像したとき所定の確認信号を発信する。この確認信号の数がHMD100全体の数に対して多いか少ないかに基づき、指標画像を投影する使用者または指標画像を撮像する使用者に対して適切な使用を促す表示をすることが可能となる。   To summarize the above, the HMD 100 associated with the use of the user who shares the image of the virtual information (the side that captures the index image) transmits a predetermined confirmation signal when the index image is captured. Based on whether the number of confirmation signals is larger or smaller than the number of the entire HMD 100, it is possible to make a display prompting appropriate use to the user projecting the index image or the user capturing the index image. Become.

以上、説明したように、本発明の情報処理端末(HMD100等)によれば、1つの情報処理端末が現実のオブジェクト上に投影した指標画像に基づき、他の情報処理端末は共有指示された仮想オブジェクトをその表示部に拡張現実表示することが可能となる。従って、データやファイルの「共有」に最適な、拡張現実表示をすることが可能となる。   As described above, according to the information processing terminal (HMD 100 or the like) of the present invention, based on the index image projected by one information processing terminal on a real object, another information processing terminal is instructed to share It is possible to display the object on its display unit in augmented reality. Therefore, it is possible to display augmented reality that is optimal for "sharing" data and files.

<その他の実施形態>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するコンピュータプログラムを、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
以上の実施形態で説明された構成、形状、大きさおよび配置関係については本発明が理解・実施できる程度に概略的に示したものにすぎない。従って本発明は、説明された実施形態に限定されるものではなく、特許請求の範囲に示される技術的思想の範囲を逸脱しない限り様々な形態に変更することができる。
<Other Embodiments>
The present invention is also realized by executing the following processing. That is, a computer program for realizing the functions of the above-described embodiment is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU or MPU etc.) of the system or apparatus reads and executes the program. It is a process.
The configurations, shapes, sizes, and arrangement relationships described in the above embodiments are merely schematically shown to the extent that the present invention can be understood and implemented. Therefore, the present invention is not limited to the described embodiments, and can be modified in various forms without departing from the scope of the technical idea shown in the claims.

100 HMD(情報処理端末)
101 頭部装着部
102 撮像部
103 投影部
104 表示部
130 表示制御部
140 撮像制御部
150 CPU
160 メモリ
170 電源部
180 通信部
190 投影制御部
4082 仮想オブジェクト
5021 テーブル
5031 仮想オブジェクト
5041 指標画像
5051 仮想オブジェクト
100 HMD (information processing terminal)
101 head mounted unit 102 imaging unit 103 projection unit 104 display unit 130 display control unit 140 imaging control unit 150 CPU
160 Memory 170 Power Supply Unit 180 Communication Unit 190 Projection Control Unit 4082 Virtual Object 5021 Table 5031 Virtual Object 5041 Index Image 5051 Virtual Object

Claims (12)

第1の使用者の頭部または顔部に装着され、仮想物体を表示するための3次元形状データを送信する送信端末であって、
前記仮想物体を共有するか否かを選択する選択手段と、
現実物体が表示され、かつ前記現実物体の近傍に前記選択手段により共有すると選択されうる又は選択された仮想物体を仮想空間内における第1の視点から見た画像が表示される第1の表示手段と、
装着者同士の身体接触に基づき、前記仮想物体の共有に係るグループを設定するグループ設定手段と、
を有することを特徴とする送信端末。
A transmitting terminal mounted on the head or face of a first user and transmitting three-dimensional shape data for displaying a virtual object,
Selection means for selecting whether to share the virtual object;
A first display means for displaying a real object and displaying an image of a virtual object which can be selected or selected to be shared by the selection means in the vicinity of the real object from a first viewpoint in a virtual space When,
Group setting means for setting a group relating to sharing of the virtual object based on physical contact between the wearers;
A transmitting terminal characterized by having:
計測された端末間の距離に基づいて、前記仮想物体の共有に係るグループを解除するグループ解除手段を更に有することを特徴とする請求項1に記載の送信端末。   The transmitting terminal according to claim 1, further comprising: group releasing means for releasing a group relating to sharing of the virtual object based on the measured distance between the terminals. 指標画像元データに基づいて指標画像を現実物体の上に投影する投影手段と、
前記3次元形状データと前記指標画像元データとを送信する送信手段と、を更に有し、
前記投影手段は、前記選択手段により共有すると選択された場合、前記指標画像を投影することを特徴とする請求項1に記載の送信端末。
Projection means for projecting an index image onto a real object based on the index image source data;
And transmitting means for transmitting the three-dimensional shape data and the index image source data.
The transmission terminal according to claim 1, wherein the projection unit projects the index image when it is selected to be shared by the selection unit.
前記投影手段の位置姿勢、前記第1の視点の位置姿勢は、前記第1の使用者の頭部または顔部の位置姿勢の変化に逐次追随することを特徴とする請求項2に記載の送信端末。   3. The transmission according to claim 2, wherein the position and orientation of the projection means and the position and orientation of the first viewpoint sequentially follow changes in the position and orientation of the head or face of the first user. Terminal. 更に、前記投影手段により投影される指標画像を撮像して第1の指標画像撮像データを得る第1の撮像手段を備えることを特徴とする請求項3または4に記載の送信端末。   5. The transmission terminal according to claim 3, further comprising: a first imaging unit configured to capture an index image projected by the projection unit to obtain first index image imaging data. 前記選択手段は、前記表示手段が表示している仮想物体に関するジェスチャーに基づいて、前記仮想物体を共有するか否かを選択することを特徴とする請求項1〜5のいずれか1項に記載の送信端末。   The said selection means selects whether it shares the said virtual object based on the gesture regarding the virtual object which the said display means is displaying, The any one of the Claims 1-5 characterized by the above-mentioned. Sending terminal. 第2の使用者の頭部または顔部に装着され、仮想物体を表示するための3次元形状データを請求項1〜6のいずれか1項に記載の送信端末から受信する受信端末であって、
前記3次元形状データと指標画像を投影するための指標画像元データとを受信する受信手段と、
前記現実物体の上に投影された指標画像を撮像して第2の指標画像撮像データを得る第2の撮像手段と、
前記現実物体が表示され、かつ前記現実物体の近傍に前記選択手段により共有すると選択された前記仮想物体を仮想空間内における第2の視点から見た画像が表示される第2の表示手段と、
前記指標画像元データ、および前記第2の指標画像撮像データに基づいて、
現実空間における、前記指標画像の位置姿勢、および前記第2の撮像手段の位置姿勢、の関係と、
前記仮想空間における、前記仮想物体の位置姿勢、および前記第2の視点の位置姿勢、の関係とが
略同じになるように前記第2の視点の位置姿勢を決定する計算手段と
を有し、
前記第2の撮像手段の位置姿勢および前記第2の視点の位置姿勢は、前記第2の使用者の頭部または顔部の位置姿勢の変化に逐次追随する
ことを特徴とする受信端末。
A receiving terminal for receiving three-dimensional shape data attached to the head or face of a second user for displaying a virtual object from the transmitting terminal according to any one of claims 1 to 6, ,
Receiving means for receiving the three-dimensional shape data and index image source data for projecting an index image;
A second imaging unit for capturing an index image projected on the real object to obtain second index image imaging data;
Second display means for displaying the real object and displaying an image of the virtual object selected to be shared by the selection means in the vicinity of the real object as viewed from a second viewpoint in the virtual space;
Based on the index image original data and the second index image imaging data,
A relationship between the position and orientation of the index image and the position and orientation of the second imaging unit in a physical space;
Calculating means for determining the position and orientation of the second viewpoint such that the relationship between the position and orientation of the virtual object and the position and orientation of the second viewpoint in the virtual space is substantially the same;
A receiving terminal characterized in that the position and orientation of the second imaging means and the position and orientation of the second viewpoint sequentially follow changes in the position and orientation of the head or face of the second user.
前記現実物体の上に投影された前記指標画像を、前記受信端末の前記第2の撮像手段によって撮像したときに、所定の確認信号を前記送信端末に発信する発信手段を
さらに有することを特徴とする請求項7に記載の受信端末。
The imaging apparatus further comprises transmission means for transmitting a predetermined confirmation signal to the transmission terminal when the index image projected onto the real object is captured by the second imaging means of the reception terminal. The receiving terminal according to claim 7.
前記指標画像が不可視の光線により投影され、
前記送信端末の第1の撮像手段および前記受信端末の第2の撮像手段が、いずれも前記不可視の光線により投影された前記指標画像を撮像可能であることを特徴とする請求項7または8に記載の受信端末。
The indicator image is projected by an invisible ray,
The first image pickup means of the transmission terminal and the second image pickup means of the reception terminal can pick up the index image projected by the invisible light beam, respectively. Receiving terminal described.
請求項1〜6のいずれか1項に記載の送信端末と、請求項7〜9のいずれか1項に記載の受信端末と、を有することを特徴とする送受信システム。   A transmission / reception system comprising: the transmission terminal according to any one of claims 1 to 6; and the reception terminal according to any one of claims 7 to 9. コンピュータを、請求項1〜6のいずれか1項に記載の送信端末の各手段として機能させるための、コンピュータプログラム。   The computer program for functioning a computer as each means of the transmission terminal of any one of Claims 1-6. コンピュータを、請求項7〜9のいずれか1項に記載の受信端末の各手段として機能させるための、コンピュータプログラム。   The computer program for functioning a computer as each means of the receiving terminal of any one of Claims 7-9.
JP2018209211A 2018-11-06 2018-11-06 Transmission terminal, reception terminal, transmission/reception system, and its program Active JP6711885B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018209211A JP6711885B2 (en) 2018-11-06 2018-11-06 Transmission terminal, reception terminal, transmission/reception system, and its program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018209211A JP6711885B2 (en) 2018-11-06 2018-11-06 Transmission terminal, reception terminal, transmission/reception system, and its program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014070615A Division JP2015192436A (en) 2014-03-28 2014-03-28 Transmission terminal, reception terminal, transmission/reception system and program therefor

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020092932A Division JP7024010B2 (en) 2020-05-28 2020-05-28 Sending terminal, receiving terminal, sending / receiving system, and its program

Publications (2)

Publication Number Publication Date
JP2019075125A true JP2019075125A (en) 2019-05-16
JP6711885B2 JP6711885B2 (en) 2020-06-17

Family

ID=66543213

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018209211A Active JP6711885B2 (en) 2018-11-06 2018-11-06 Transmission terminal, reception terminal, transmission/reception system, and its program

Country Status (1)

Country Link
JP (1) JP6711885B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021068405A (en) * 2019-10-24 2021-04-30 未來市股▲ふん▼有限公司 Virtual object operating system and virtual object operating method
WO2023008277A1 (en) * 2021-07-26 2023-02-02 株式会社Nttドコモ Content sharing system
JP2023026312A (en) * 2021-08-11 2023-02-24 株式会社Abal Composite space bodily sensation system
WO2024111790A1 (en) * 2022-11-21 2024-05-30 삼성전자주식회사 Wearable device for displaying visual object for controlling virtual object, and method therefor
US12026838B2 (en) 2020-12-21 2024-07-02 Toyota Jidosha Kabushiki Kaisha Display system and server

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012168646A (en) * 2011-02-10 2012-09-06 Sony Corp Information processing apparatus, information sharing method, program, and terminal device
JP2013218459A (en) * 2012-04-06 2013-10-24 Sony Corp Information processor, information processing method and information processing system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012168646A (en) * 2011-02-10 2012-09-06 Sony Corp Information processing apparatus, information sharing method, program, and terminal device
JP2013218459A (en) * 2012-04-06 2013-10-24 Sony Corp Information processor, information processing method and information processing system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021068405A (en) * 2019-10-24 2021-04-30 未來市股▲ふん▼有限公司 Virtual object operating system and virtual object operating method
US12026838B2 (en) 2020-12-21 2024-07-02 Toyota Jidosha Kabushiki Kaisha Display system and server
WO2023008277A1 (en) * 2021-07-26 2023-02-02 株式会社Nttドコモ Content sharing system
JP2023026312A (en) * 2021-08-11 2023-02-24 株式会社Abal Composite space bodily sensation system
WO2024111790A1 (en) * 2022-11-21 2024-05-30 삼성전자주식회사 Wearable device for displaying visual object for controlling virtual object, and method therefor

Also Published As

Publication number Publication date
JP6711885B2 (en) 2020-06-17

Similar Documents

Publication Publication Date Title
JP2015192436A (en) Transmission terminal, reception terminal, transmission/reception system and program therefor
JP6393367B2 (en) Tracking display system, tracking display program, tracking display method, wearable device using them, tracking display program for wearable device, and operation method of wearable device
JP6711885B2 (en) Transmission terminal, reception terminal, transmission/reception system, and its program
CN110275297B (en) Head-mounted display device, display control method, and recording medium
JP6376807B2 (en) Display device, display control method, and program
US9612665B2 (en) Information processing apparatus and method of controlling the same
US20170289533A1 (en) Head mounted display, control method thereof, and computer program
US10567730B2 (en) Display device and control method therefor
JP6094305B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP7243193B2 (en) Display system, display system control method, information processing device, and information processing device control program
KR20130034125A (en) Augmented reality function glass type monitor
US11076100B2 (en) Displaying images on a smartglasses device based on image data received from external camera
CN112840379A (en) Information processing apparatus, information processing method, and program
JP7024010B2 (en) Sending terminal, receiving terminal, sending / receiving system, and its program
JP2015087523A (en) Head-mounted display device, method for controlling head-mounted display device, and image display system
CN111736692B (en) Display method, display device, storage medium and head-mounted device
JP2018018315A (en) Display system, display unit, information display method, and program
JP6304415B2 (en) Head-mounted display device and method for controlling head-mounted display device
CN111488072A (en) Information processing apparatus, control method for information processing apparatus, and recording medium
JP2021069045A (en) Display control device, display control method, program, and storage media
US20240073511A1 (en) Electronic apparatus, control method for electronic apparatus and storage medium
CN112558847B (en) Method for controlling interface display and head-mounted display
WO2023040562A1 (en) Information display method, near-eye display device, and electronic device
JP6669183B2 (en) Head mounted display and control method of head mounted display
JP2024039718A (en) Electronic apparatus, method for controlling electronic apparatus, program, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200305

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200428

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200528

R151 Written notification of patent or utility model registration

Ref document number: 6711885

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D03