WO2022009329A1 - Alignment apparatus and alignment method - Google Patents

Alignment apparatus and alignment method Download PDF

Info

Publication number
WO2022009329A1
WO2022009329A1 PCT/JP2020/026680 JP2020026680W WO2022009329A1 WO 2022009329 A1 WO2022009329 A1 WO 2022009329A1 JP 2020026680 W JP2020026680 W JP 2020026680W WO 2022009329 A1 WO2022009329 A1 WO 2022009329A1
Authority
WO
WIPO (PCT)
Prior art keywords
plane
virtual space
unit
intersection line
existing
Prior art date
Application number
PCT/JP2020/026680
Other languages
French (fr)
Japanese (ja)
Inventor
弘記 向山
航 大神
亮平 山崎
Original Assignee
三菱電機エンジニアリング株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機エンジニアリング株式会社 filed Critical 三菱電機エンジニアリング株式会社
Priority to JP2022534552A priority Critical patent/JP7462755B2/en
Priority to PCT/JP2020/026680 priority patent/WO2022009329A1/en
Publication of WO2022009329A1 publication Critical patent/WO2022009329A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention comprises: a plane setting unit (41) that sets a plane (11a) present in a virtual space (10a) simulating a real space including a virtual object, and a plane (11b) corresponding to the plane (11a) and present in a virtual space (10b) simulating a real space; a plane extraction unit (42) that extracts, on the basis of the setting results from the plane setting unit (41), a plane (12a) intersecting the plane (11a) and present in the virtual space (10a), and a plane (12b) corresponding to the plane (12a) and present in the virtual space (10b); and a conversion unit (43) that aligns, on the basis of the setting results from the plane setting unit (41) and the extraction results from the plane extraction unit (42), the position and direction in the virtual space (10a) with the position and direction in the virtual space (10b).

Description

位置合わせ装置及び位置合わせ方法Alignment device and alignment method
 本開示は、2つの仮想空間の位置及び方向を合わせる位置合わせ装置及び位置合わせ方法に関する。 The present disclosure relates to an alignment device and an alignment method for aligning the positions and directions of two virtual spaces.
 従来、ディスプレイに仮想オブジェクトを表示することで、ユーザに対して現実空間に仮想オブジェクトが存在しているかのように認識させるMR(Mixed Reality)デバイスが知られている(例えば特許文献1参照)。このMRデバイスでは、仮想オブジェクトが現実空間における特定の位置及び方向に存在しているかのように仮想オブジェクトの表示を行う場合、仮想オブジェクトを有する現実空間を模した仮想空間と、ディスプレイを通してユーザから見える現実空間を模した仮想空間との位置及び方向を一致させる必要がある。この2つの仮想空間の位置及び方向は、ユーザによる移動操作及び回転操作により合わせられる。 Conventionally, an MR (Mixed Reality) device that makes a user recognize a virtual object as if it exists in the real space by displaying the virtual object on a display is known (see, for example, Patent Document 1). In this MR device, when the virtual object is displayed as if it exists at a specific position and direction in the real space, the user can see the virtual object through the virtual space that imitates the real space having the virtual object and the display. It is necessary to match the position and direction with the virtual space that imitates the real space. The positions and directions of these two virtual spaces are matched by a movement operation and a rotation operation by the user.
特表2019-532382号公報Special Table 2019-532382 Gazette
 上記のように、従来のMRデバイスでは、2つの仮想空間の位置及び方向を一致させる際に、ユーザが移動操作又は回転操作を行う必要がある。 As described above, in the conventional MR device, it is necessary for the user to perform a movement operation or a rotation operation when matching the positions and directions of the two virtual spaces.
 本開示は、上記のような課題を解決するためになされたもので、2つの仮想空間を一致させる際に、ユーザによる操作を不要とする位置合わせ装置を提供することを目的としている。 The present disclosure has been made to solve the above-mentioned problems, and an object of the present disclosure is to provide an alignment device that does not require an operation by a user when matching two virtual spaces.
 本開示に係る位置合わせ装置は、仮想オブジェクトを有する現実空間を模した第1の仮想空間に存在する第1の平面、及び、現実空間を模した第2の仮想空間に存在する当該第1の平面に相当する第2の平面を設定する平面設定部と、平面設定部による設定結果に基づいて、第1の仮想空間に存在する第1の平面と交わる第3の平面、及び、第2の仮想空間に存在する第3の平面に相当する第4の平面を抽出する平面抽出部と、平面設定部による設定結果及び平面抽出部による抽出結果に基づいて、第1の仮想空間における位置及び方向を、第2の仮想空間における位置及び方向に合わせる変換部とを備えたことを特徴とする。 The alignment device according to the present disclosure is a first plane existing in a first virtual space imitating a real space having a virtual object, and the first one existing in a second virtual space imitating a real space. A plane setting unit that sets a second plane corresponding to a plane, a third plane that intersects the first plane existing in the first virtual space based on the setting result by the plane setting unit, and a second plane. Position and direction in the first virtual space based on the plane extraction unit that extracts the fourth plane corresponding to the third plane existing in the virtual space, the setting result by the plane setting unit, and the extraction result by the plane extraction unit. Is provided with a conversion unit that matches the position and direction in the second virtual space.
 本開示によれば、上記のように構成したので、2つの仮想空間を一致させる際に、ユーザによる操作が不要となる。 According to the present disclosure, since it is configured as described above, no operation by the user is required when matching the two virtual spaces.
実施の形態1に係るMRデバイスの構成例を示す図である。It is a figure which shows the configuration example of the MR device which concerns on Embodiment 1. FIG. 実施の形態1に係る演算処理部の構成例を示す図である。It is a figure which shows the structural example of the arithmetic processing part which concerns on Embodiment 1. FIG. 実施の形態1に係る演算処理部の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the arithmetic processing part which concerns on Embodiment 1. 実施の形態1における平面設定部の動作例を示す図である。It is a figure which shows the operation example of the plane setting part in Embodiment 1. 実施の形態1における平面抽出部の動作例を示す図である。It is a figure which shows the operation example of the plane extraction part in Embodiment 1. 実施の形態1における平面抽出部の動作例を示す図である。It is a figure which shows the operation example of the plane extraction part in Embodiment 1. 実施の形態1における平面抽出部の動作例を示す図である。It is a figure which shows the operation example of the plane extraction part in Embodiment 1. 実施の形態1における平面抽出部の動作例を示す図である。It is a figure which shows the operation example of the plane extraction part in Embodiment 1. 実施の形態1における変換部の動作例を示す図である。It is a figure which shows the operation example of the conversion part in Embodiment 1. FIG. 実施の形態1における変換部の動作例を示す図である。It is a figure which shows the operation example of the conversion part in Embodiment 1. FIG. 実施の形態1における変換部の動作例を示す図である。It is a figure which shows the operation example of the conversion part in Embodiment 1. FIG. 実施の形態1における変換部の動作例を示す図である。It is a figure which shows the operation example of the conversion part in Embodiment 1. FIG. 実施の形態1における変換部の動作例を示す図である。It is a figure which shows the operation example of the conversion part in Embodiment 1. FIG. 実施の形態1における変換部の動作例を示す図である。It is a figure which shows the operation example of the conversion part in Embodiment 1. FIG. 実施の形態1における変換部の動作例を示す図である。It is a figure which shows the operation example of the conversion part in Embodiment 1. FIG. 図16A、図16Bは、実施の形態1に係る演算処理部のハードウェア構成例を示す図である。16A and 16B are diagrams showing a hardware configuration example of the arithmetic processing unit according to the first embodiment.
 以下、実施の形態について図面を参照しながら詳細に説明する。
実施の形態1.
 図1は実施の形態1に係るMRデバイス(仮想オブジェクト表示装置)の構成例を示す図である。
 MRデバイスは、ディスプレイ1に仮想オブジェクトを表示することで、ユーザに対して現実空間に仮想オブジェクトが存在しているかのように認識させる。MRデバイスとしては、例えば、Hololens(登録商標)、Hololens2又はMagic Leap(登録商標)等のヘッドマウントディスプレイ方式のウェアラブルコンピュータが挙げられる。MRデバイスは、図1に示すように、ディスプレイ1、記憶部2、センサ部3、演算処理部(位置合わせ装置)4及び表示制御部5を備えている。
Hereinafter, embodiments will be described in detail with reference to the drawings.
Embodiment 1.
FIG. 1 is a diagram showing a configuration example of an MR device (virtual object display device) according to the first embodiment.
By displaying the virtual object on the display 1, the MR device makes the user recognize that the virtual object exists in the real space. MR devices include, for example, head-mounted display wearable computers such as HoloLens®, Hollens2 or Magic Leap®. As shown in FIG. 1, the MR device includes a display 1, a storage unit 2, a sensor unit 3, an arithmetic processing unit (alignment device) 4, and a display control unit 5.
 ディスプレイ1は、透明な表示デバイスである。ディスプレイ1としては、ヘッドマウントディスプレイ又はゴーグル等が挙げられる。 Display 1 is a transparent display device. Examples of the display 1 include a head-mounted display, goggles, and the like.
 記憶部2は、MRデバイスで扱われる各種情報を示すデータを記憶する。例えば、記憶部2は、仮想空間(第1の仮想空間)10aを示す形状データを記憶している。仮想空間10aは、ディスプレイ1に表示される仮想オブジェクトを有する仮想空間であり、現実空間を模して事前に作成された仮想空間である。 The storage unit 2 stores data indicating various information handled by the MR device. For example, the storage unit 2 stores shape data indicating the virtual space (first virtual space) 10a. The virtual space 10a is a virtual space having a virtual object displayed on the display 1, and is a virtual space created in advance by imitating a real space.
 センサ部3は、ユーザがディスプレイ1を通して見ている現実空間の形状を認識し、当該形状に基づいて仮想空間(第2の仮想空間)10bを作成する。仮想空間10bは、MRデバイスが仮想空間内の自己位置を定めるために作成する仮想空間であり、現実空間を模した仮想空間である。この仮想空間10bは、ユーザがディスプレイ1を通して見ている現実空間に対し、位置及び方向が一致(略一致の意味を含む)している。 The sensor unit 3 recognizes the shape of the real space that the user sees through the display 1, and creates a virtual space (second virtual space) 10b based on the shape. The virtual space 10b is a virtual space created by the MR device to determine its own position in the virtual space, and is a virtual space imitating a real space. The position and direction of the virtual space 10b match (including the meaning of substantially matching) with respect to the real space that the user sees through the display 1.
 演算処理部4は、記憶部2に記憶された仮想空間10aの位置及び方向を、センサ部3により作成された仮想空間10bの位置及び方向に合わせる。この演算処理部4の詳細については後述する。 The arithmetic processing unit 4 aligns the position and direction of the virtual space 10a stored in the storage unit 2 with the position and direction of the virtual space 10b created by the sensor unit 3. The details of the arithmetic processing unit 4 will be described later.
 表示制御部5は、演算処理部4による処理結果に基づいて、記憶部2に記憶されたデータが示す仮想オブジェクトを、ディスプレイ1に表示する。 The display control unit 5 displays the virtual object indicated by the data stored in the storage unit 2 on the display 1 based on the processing result by the arithmetic processing unit 4.
 なお図1では、演算処理部4がMRデバイスの内部に設けられた場合を示した。しかしながら、これに限らず、演算処理部4はMRデバイスの外部に設けられていてもよい。 Note that FIG. 1 shows a case where the arithmetic processing unit 4 is provided inside the MR device. However, the present invention is not limited to this, and the arithmetic processing unit 4 may be provided outside the MR device.
 次に、演算処理部4の構成例について、図2を参照しながら説明する。
 演算処理部4は、図2に示すように、平面設定部41、平面抽出部42及び変換部43を備えている。
Next, a configuration example of the arithmetic processing unit 4 will be described with reference to FIG.
As shown in FIG. 2, the arithmetic processing unit 4 includes a plane setting unit 41, a plane extraction unit 42, and a conversion unit 43.
 平面設定部41は、仮想空間10aに存在する平面(第1の平面)11a、及び、仮想空間10bに存在する平面(第2の平面)11bを設定する。すなわち、平面設定部41は、平面11aの方程式及び平面11bの方程式を生成する。平面11aは、例えば床面又は天井面等の水平平面である。平面11bは、平面11aに相当する平面である。 The plane setting unit 41 sets a plane (first plane) 11a existing in the virtual space 10a and a plane (second plane) 11b existing in the virtual space 10b. That is, the plane setting unit 41 generates the equation of the plane 11a and the equation of the plane 11b. The plane 11a is a horizontal plane such as a floor surface or a ceiling surface. The plane 11b is a plane corresponding to the plane 11a.
 平面抽出部42は、平面設定部41による設定結果に基づいて、仮想空間10aに存在する平面(第3の平面)12a、及び、仮想空間10bに存在する平面(第4の平面)12bを抽出する。すなわち、平面抽出部42は、平面12aの方程式及び平面12bの方程式を生成する。平面12aは、平面11aと交わる平面である。平面12bは、平面12aに相当する平面であり、平面11bと交わる平面である。 The plane extraction unit 42 extracts the plane (third plane) 12a existing in the virtual space 10a and the plane (fourth plane) 12b existing in the virtual space 10b based on the setting result by the plane setting unit 41. do. That is, the plane extraction unit 42 generates the equation of the plane 12a and the equation of the plane 12b. The plane 12a is a plane that intersects the plane 11a. The plane 12b is a plane corresponding to the plane 12a and intersects the plane 11b.
 なお、平面抽出部42は、平面12bについては、以下の手順で抽出を行う。
 まず、平面抽出部42は、平面11aと交わる平面を抽出し、当該平面を法線方向によりグループに分ける。なお、平面が平面11aと交わるかは、当該平面の方程式から得た法線の傾きから判別可能である。そして、平面抽出部42は、グループ毎に第1の分布情報を作成する。第1の分布情報は、上記平面の法線方向(奥行き方向)における位置を示す情報である。この際、平面抽出部42は、平面11aと上記平面との交差線を求め、当該交差線の位置から第1の分布情報を作成する。
 同様に、平面抽出部42は、平面11bと交わる平面を抽出し、当該平面を法線方向によりグループに分ける。なお、平面が平面11bと交わるかは、当該平面の方程式から得た法線の傾きから判別可能である。そして、平面抽出部42は、グループ毎に第2の分布情報を作成する。第2の分布情報は、上記平面の法線方向(奥行き方向)における位置を示す情報である。この際、平面抽出部42は、平面11bと上記平面との交差線を求め、当該交差線の位置から第2の分布情報を作成する。
 そして、平面抽出部42は、第1の分布情報及び第2の分布情報から位置関係が一致するグループを抽出する。そして、平面抽出部42は、仮想空間10aにおける上記抽出したグループに平面12aが含まれている場合、仮想空間10bにおける当該抽出したグループに含まれる、当該平面12aと同じ位置関係にある平面を、平面12bとする。
The plane extraction unit 42 extracts the plane 12b according to the following procedure.
First, the plane extraction unit 42 extracts a plane that intersects the plane 11a, and divides the plane into groups according to the normal direction. Whether or not the plane intersects the plane 11a can be determined from the slope of the normal obtained from the equation of the plane. Then, the plane extraction unit 42 creates the first distribution information for each group. The first distribution information is information indicating the position of the plane in the normal direction (depth direction). At this time, the plane extraction unit 42 obtains the intersection line between the plane 11a and the plane, and creates the first distribution information from the position of the intersection line.
Similarly, the plane extraction unit 42 extracts a plane that intersects the plane 11b, and divides the plane into groups according to the normal direction. Whether or not the plane intersects the plane 11b can be determined from the slope of the normal obtained from the equation of the plane. Then, the plane extraction unit 42 creates the second distribution information for each group. The second distribution information is information indicating the position of the plane in the normal direction (depth direction). At this time, the plane extraction unit 42 obtains the intersection line between the plane 11b and the plane, and creates the second distribution information from the position of the intersection line.
Then, the plane extraction unit 42 extracts a group having a matching positional relationship from the first distribution information and the second distribution information. Then, when the plane 12a is included in the extracted group in the virtual space 10a, the plane extraction unit 42 uses the plane included in the extracted group in the virtual space 10b and having the same positional relationship as the plane 12a. It is a plane 12b.
 変換部43は、平面設定部41による設定結果及び平面抽出部42による抽出結果に基づいて、仮想空間10aにおける位置及び方向を、仮想空間10bにおける位置及び方向に合わせる。変換部43は、図2に示すように、方向変換部(第1の方向変換部)44、位置変換部45及び方向変換部(第2の方向変換部)46を有している。 The conversion unit 43 adjusts the position and direction in the virtual space 10a to the position and direction in the virtual space 10b based on the setting result by the plane setting unit 41 and the extraction result by the plane extraction unit 42. As shown in FIG. 2, the conversion unit 43 includes a direction change unit (first direction change unit) 44, a position change unit 45, and a direction change unit (second direction change unit) 46.
 方向変換部44は、仮想空間10aにおける方向(第1の方向)13aを、仮想空間10bにおける方向(第2の方向)13bに合わせるように傾ける。方向13bは、方向13aに相当する。 The direction changing unit 44 tilts the direction (first direction) 13a in the virtual space 10a so as to match the direction (second direction) 13b in the virtual space 10b. Direction 13b corresponds to direction 13a.
 この際、まず、方向変換部44は、仮想空間10aに存在する交差線(第1の交差線)14a及び交差線(第2の交差線)15aを求める。交差線14aは、1つの平面11aと1つの平面12aとが交わる線分である。交差線15aは、上記平面11aと上記平面12aとは平行ではない1つの平面12aとが交わる線分である。そして、方向変換部44は、交差線14a及び交差線15aと同一方向のベクトルの外積から、方向13aと同一方向のベクトルを求める。
 同様に、方向変換部44は、仮想空間10bに存在する交差線(第3の交差線)14b及び交差線(第4の交差線)15bを求める。交差線14bは、1つの平面11bと1つの平面12bとが交わる線分である。交差線15bは、上記平面11bと上記平面12bとは平行ではない1つの平面12bとが交わる線分である。そして、方向変換部44は、交差線14b及び交差線15bと同一方向のベクトルの外積から、方向13bと同一方向のベクトルを求める。
 その後、方向変換部44は、仮想空間10aにおける方向13aを、仮想空間10bにおける方向13aに合わせるように傾ける。この際、方向変換部44は、仮想空間10aに存在する交差線14a及び交差線15aも傾ける。
At this time, first, the direction changing unit 44 obtains the intersection line (first intersection line) 14a and the intersection line (second intersection line) 15a existing in the virtual space 10a. The intersection line 14a is a line segment where one plane 11a and one plane 12a intersect. The intersection line 15a is a line segment where the plane 11a and one plane 12a that is not parallel to the plane 12a intersect. Then, the direction changing unit 44 obtains a vector in the same direction as the direction 13a from the outer product of the vectors in the same direction as the crossing line 14a and the crossing line 15a.
Similarly, the direction changing unit 44 obtains the intersection line (third intersection line) 14b and the intersection line (fourth intersection line) 15b existing in the virtual space 10b. The intersection line 14b is a line segment where one plane 11b and one plane 12b intersect. The intersection line 15b is a line segment where the plane 11b and one plane 12b that is not parallel to the plane 12b intersect. Then, the direction changing unit 44 obtains a vector in the same direction as the direction 13b from the outer product of the vectors in the same direction as the crossing line 14b and the crossing line 15b.
After that, the direction changing unit 44 tilts the direction 13a in the virtual space 10a so as to match the direction 13a in the virtual space 10b. At this time, the direction changing unit 44 also tilts the intersection line 14a and the intersection line 15a existing in the virtual space 10a.
 位置変換部45は、仮想空間10aに存在する点(第1の点)16aを、仮想空間10bに存在する点(第2の点)16bに合わせるように移動させる。点16aは、一意の点である。点16bは、点16aに相当する点であり、一意の点である。 The position conversion unit 45 moves the point (first point) 16a existing in the virtual space 10a so as to match the point (second point) 16b existing in the virtual space 10b. Point 16a is a unique point. The point 16b is a point corresponding to the point 16a and is a unique point.
 この際、まず、位置変換部45は、交差線14a及び交差線15aの組合せのうち、同一平面上に存在する交差線14a及び交差線15aの交点座標を点16aとして求める。
 同様に、位置変換部45は、交差線14b及び交差線15bの組合せのうち、同一平面上に存在する交差線14a及び交差線15aに相当する交差線14b及び交差線15bの交点座標を点16bとして求める。
 その後、位置変換部45は、仮想空間10aに存在する点16aを、仮想空間10bに存在する点16bに合わせるように移動させる。
At this time, first, the position conversion unit 45 obtains the intersection coordinates of the intersection lines 14a and the intersection lines 15a existing on the same plane as the points 16a among the combinations of the intersection lines 14a and the intersection lines 15a.
Similarly, among the combinations of the intersection line 14b and the intersection line 15b, the position conversion unit 45 sets the intersection coordinates of the intersection line 14a and the intersection line 15b corresponding to the intersection line 14a and the intersection line 15a on the same plane as the point 16b. Ask as.
After that, the position conversion unit 45 moves the point 16a existing in the virtual space 10a so as to match the point 16b existing in the virtual space 10b.
 方向変換部46は、仮想空間10aにおける方向(第3の方向)17aを、仮想空間10bにおける方向(第4の方向)17bに合わせるように傾ける。方向17aは、方向13aに垂直な方向である。方向17bは、方向17aに相当する方向であり、方向13bに垂直な方向である。 The direction changing unit 46 tilts the direction (third direction) 17a in the virtual space 10a so as to match the direction (fourth direction) 17b in the virtual space 10b. The direction 17a is a direction perpendicular to the direction 13a. The direction 17b is a direction corresponding to the direction 17a and is a direction perpendicular to the direction 13b.
 この際、方向変換部46は、交差線14a又は交差線15aと同一方向のベクトルと、方向13aと同一方向のベクトルとの外積により、方向17aと同一方向のベクトルを求める。
 同様に、方向変換部46は、交差線14b又は交差線15bと同一方向のベクトルと、方向13bと同一方向のベクトルとの外積により、方向17bと同一方向のベクトルを求める。
 その後、方向変換部46は、仮想空間10aにおける方向17aを、仮想空間10bにおける方向17bに合わせるように傾ける。すなわち、方向変換部46は、仮想空間10aを方向13a回りに回転させる。
At this time, the direction changing unit 46 obtains a vector in the same direction as the direction 17a by the outer product of the vector in the same direction as the intersection line 14a or the intersection line 15a and the vector in the same direction as the direction 13a.
Similarly, the direction changing unit 46 obtains a vector in the same direction as the direction 17b by the outer product of the vector in the same direction as the crossing line 14b or the crossing line 15b and the vector in the same direction as the direction 13b.
After that, the direction changing unit 46 tilts the direction 17a in the virtual space 10a so as to match the direction 17b in the virtual space 10b. That is, the direction changing unit 46 rotates the virtual space 10a around the direction 13a.
 なおここでは、演算処理部4がMRデバイスに適用された場合を示した。しかしながら、これに限らず、演算処理部4は、AR(Augmented Reality)デバイスに適用されていてもよい。 Here, the case where the arithmetic processing unit 4 is applied to the MR device is shown. However, the present invention is not limited to this, and the arithmetic processing unit 4 may be applied to an AR (Augmented Reality) device.
 次に、図2に示す実施の形態1における演算処理部4の動作例について、図3を参照しながら説明する。
 ここで、MRデバイスによる仮想オブジェクトの表示では、ディスプレイ1を通して見える現実空間のどこに仮想オブジェクトを仮想的に存在させるかを決める必要がある。現行では、MRデバイスが自己の保有するセンサ部で認識した現実空間の形状に基づいて仮想空間を構築し、表示する仮想オブジェクトを仮想空間内の不定の位置又はユーザ操作による位置指定によって表示位置を決める。
Next, an operation example of the arithmetic processing unit 4 in the first embodiment shown in FIG. 2 will be described with reference to FIG.
Here, in the display of the virtual object by the MR device, it is necessary to determine where in the real space seen through the display 1 the virtual object is virtually present. Currently, the MR device constructs a virtual space based on the shape of the real space recognized by its own sensor unit, and displays the virtual object to be displayed at an indefinite position in the virtual space or by specifying the position by user operation. decide.
 ここで、仮想オブジェクトを現実空間における特定の位置及び方向に存在しているかのように表示する場合、仮想オブジェクトが存在する仮想空間における特定の座標値及び方向を、MRデバイスが自己位置を推定するために現実空間の特徴に基づいて作成した仮想空間における特定の座標値及び方向に一致させる必要がある。 Here, when the virtual object is displayed as if it exists in a specific position and direction in the real space, the MR device estimates its own position at a specific coordinate value and direction in the virtual space in which the virtual object exists. Therefore, it is necessary to match specific coordinate values and directions in the virtual space created based on the characteristics of the real space.
 具体例を挙げれば、現実空間における気流の流れをMRにより可視化する場合、第1の仮想空間及び第2の仮想空間の位置及び方向を一致させなければならない。なお、第1の仮想空間は、現実空間(現存する建築物の空間形状)のBIM(Building Information Modeling)データ等の建築CAD(Computer-Aided Design)データの形状(気流解析に用いる形状)で作成された仮想空間である。第2の仮想空間は、MRデバイスが現実空間に基づいて作成した仮想空間である。 To give a specific example, when visualizing the flow of airflow in the real space by MR, the positions and directions of the first virtual space and the second virtual space must be matched. The first virtual space is created by the shape (shape used for airflow analysis) of architectural CAD (Computer-Aided Design) data such as BIM (Building Information Modeling) data of the real space (space shape of an existing building). It is a virtual space that has been created. The second virtual space is a virtual space created by the MR device based on the real space.
 MRデバイスが表示を開始した後に、ユーザによる移動操作及び回転操作により、第1の仮想空間の位置及び方向を、第2の仮想空間に合わせることは可能である。しかしながら、この方法では、作業が煩雑であり、ユーザが期待するものではない。そのため、2つの仮想空間はユーザによる移動操作及び回転操作を行わずに一致させることが求められる。 After the MR device starts displaying, it is possible to adjust the position and direction of the first virtual space to the second virtual space by a movement operation and a rotation operation by the user. However, this method is complicated and is not what the user expects. Therefore, it is required that the two virtual spaces are matched without performing a movement operation and a rotation operation by the user.
 しかしながら、予め用意された仮想オブジェクトが存在する第1の仮想空間と、MRデバイスが自己の位置を推定するために作成した第2の仮想空間は、それぞれ独立した仮想空間である。また、MRデバイスが作成した第2の仮想空間の位置及び方向は、作成時の条件(空間認識を開始した位置及び方向等)により変動する。よって、第1の仮想空間と第2の仮想空間とを一致させる情報は事前に決められるものではない。 However, the first virtual space in which the virtual object prepared in advance exists and the second virtual space created by the MR device to estimate its own position are independent virtual spaces. Further, the position and direction of the second virtual space created by the MR device vary depending on the conditions at the time of creation (position and direction at which spatial recognition is started, etc.). Therefore, the information for matching the first virtual space and the second virtual space cannot be determined in advance.
 MRデバイスを起動して現実空間の認識を開始する瞬間の、現実空間における位置及び向きを、固定された三脚等により厳密に指定できれば、MRデバイスにより作成される仮想空間の位置及び方向を予め想定することは可能である。しかしながら、この方法は、現実的な運用方法とは言えない。 If the position and orientation in the real space at the moment when the MR device is activated and the recognition of the real space is started can be strictly specified by a fixed tripod or the like, the position and direction of the virtual space created by the MR device are assumed in advance. It is possible to do. However, this method is not a realistic operation method.
 一方、特許文献1では、仮想オブジェクトを仮想空間に再配置する方法が提示されている。しかしながら、この方法は仮想オブジェクトをMRデバイスが現実空間に基づいて作成した仮想空間上の任意の平面(例えば壁又は机の上)に沿うように、自動で回転させ配置するように、ユーザによる仮想オブジェクトを空間内で移動させる際の疲労を低減させることを目的とした、仮想オブジェクトの移動に緩い拘束条件を発生させるものである。 On the other hand, Patent Document 1 presents a method of rearranging a virtual object in a virtual space. However, this method is virtual by the user so that the virtual object is automatically rotated and placed along any plane (eg, on a wall or desk) in the virtual space created by the MR device based on the real space. It creates a loose constraint on the movement of a virtual object, with the aim of reducing fatigue when moving the object in space.
 そのため、この方法では前述のような2つの仮想空間の一致を、ユーザの何らかのインタラクションによる移動操作及び回転操作を伴わずに実行することはできない。 Therefore, in this method, the matching of the two virtual spaces as described above cannot be executed without the movement operation and the rotation operation by some interaction of the user.
 この問題を解決するためには、形状が一致する2つの仮想空間の位置及び方向を必ず一意に決めることができる厳格な拘束条件を導き出す必要がある。 In order to solve this problem, it is necessary to derive strict constraints that can always uniquely determine the position and direction of two virtual spaces with matching shapes.
 そこで、実施の形態1に係る演算処理部4は、まず、仮想空間10aの方向13aを仮想空間10bの方向13bに合わせる。そして、演算処理部4は、仮想空間10aと仮想空間10bに存在する一意の点16a,16bを一致させる。これにより、演算処理部4は、2つの仮想空間を、上記一意の点16a,16bを通る軸周りの回転誤差を除いて、一致させる。最後に、演算処理部4は、仮想空間10aの方向17aを仮想空間10bの方向17bに合わせる。これにより、演算処理部4は、仮想空間10aを仮想空間10bに対し、位置及び方向(傾き)ともに一致させる。 Therefore, the arithmetic processing unit 4 according to the first embodiment first aligns the direction 13a of the virtual space 10a with the direction 13b of the virtual space 10b. Then, the arithmetic processing unit 4 makes the virtual space 10a and the unique points 16a and 16b existing in the virtual space 10b match. As a result, the arithmetic processing unit 4 makes the two virtual spaces match, except for the rotation error around the axis passing through the unique points 16a and 16b. Finally, the arithmetic processing unit 4 aligns the direction 17a of the virtual space 10a with the direction 17b of the virtual space 10b. As a result, the arithmetic processing unit 4 makes the virtual space 10a coincide with the virtual space 10b in both position and direction (inclination).
 これにより、演算処理部4は、表示用に予め用意した仮想オブジェクトが属する仮想空間10aの位置及び方向を、センサ部3が現実空間の形状を基に作成した仮想空間10bの位置及び方向と一致させることができる。そのため、仮想オブジェクト表示装置は、表示したい仮想オブジェクトを、ユーザが移動操作及び回転操作することなく、ディスプレイ1を通して見える現実空間の任意の位置及び向きに存在しているかのように表示可能になる。 As a result, the arithmetic processing unit 4 matches the position and direction of the virtual space 10a to which the virtual object prepared in advance for display belongs with the position and direction of the virtual space 10b created by the sensor unit 3 based on the shape of the real space. Can be made to. Therefore, the virtual object display device can display the virtual object to be displayed as if it exists at an arbitrary position and orientation in the real space seen through the display 1 without the user moving or rotating the virtual object.
 なお以下では、平面11a及び平面11bが水平平面であり、平面12a及び平面12bが垂直平面であるとする。また、方向13a及び方向13bが垂直方向であり、方向17a及び方向17bが水平方向であるとする。 In the following, it is assumed that the plane 11a and the plane 11b are horizontal planes, and the planes 12a and 12b are vertical planes. Further, it is assumed that the directions 13a and 13b are vertical directions, and the directions 17a and 17b are horizontal directions.
 演算処理部4の動作例では、図3に示すように、まず、平面設定部41は、仮想空間10aに存在する水平平面、及び、仮想空間10bに存在する水平平面を設定する(ステップST301)。以下では、図4に示すように、仮想空間10aに存在する水平平面をA-HPlane(n)と称し、仮想空間10bに存在する水平平面をB-HPlane(n)と称す。図4では、A-HPlane(1),B-HPlane(1)が図示されている。 In the operation example of the arithmetic processing unit 4, as shown in FIG. 3, first, the plane setting unit 41 sets a horizontal plane existing in the virtual space 10a and a horizontal plane existing in the virtual space 10b (step ST301). .. In the following, as shown in FIG. 4, the horizontal plane existing in the virtual space 10a is referred to as A-HPlane (n), and the horizontal plane existing in the virtual space 10b is referred to as B-HPplane (n). In FIG. 4, A-HPlane (1) and B-HPlane (1) are illustrated.
 水平平面としては、通常、仮想空間内の床面又は天井面が選択されることが想定される。また、床面及び天井面は、法線の向き、及び、平面が仮想空間内の平面の集合のうちの上端及び下端の何れに属しているかによって、容易に選択可能である。
 また、水平平面として、机の上面等のように、床面及び天井面以外の平面が選択されてもよい。この場合、仮想空間内の高さ方向の情報から容易に平面の選択が可能である。
As the horizontal plane, it is usually assumed that a floor surface or a ceiling surface in the virtual space is selected. Further, the floor surface and the ceiling surface can be easily selected depending on the direction of the normal line and whether the plane belongs to the upper end or the lower end of the set of planes in the virtual space.
Further, as the horizontal plane, a plane other than the floor surface and the ceiling surface may be selected, such as the upper surface of a desk. In this case, the plane can be easily selected from the information in the height direction in the virtual space.
 次いで、平面抽出部42は、平面設定部41による設定結果に基づいて、仮想空間10aに存在する垂直平面、及び、仮想空間10bに存在する垂直平面を抽出する(ステップST302)。以下では、図5に示すように、仮想空間10aに存在する垂直平面をA-Plane(n)と称し、仮想空間10bに存在する垂直平面をB-Plane(n)と称す。図5では、A-Plane(1),A-Plane(2),B-Plane(1),B-Plane(2)が図示されている。 Next, the plane extraction unit 42 extracts the vertical plane existing in the virtual space 10a and the vertical plane existing in the virtual space 10b based on the setting result by the plane setting unit 41 (step ST302). In the following, as shown in FIG. 5, the vertical plane existing in the virtual space 10a is referred to as A-Plane (n), and the vertical plane existing in the virtual space 10b is referred to as B-Plane (n). In FIG. 5, A-Plane (1), A-Plane (2), B-Plane (1), and B-Plane (2) are illustrated.
 ここで、平面抽出部42は、仮想空間10a及び仮想空間10bから、同等の平面の組合せを抽出する必要がある。ここで課題となるのは、仮想空間10bは、センサ部3が現実空間の形状を認識した後に作成されるため、仮想空間10aに存在する平面12aに相当する平面12bを予め選定できない点である。また、MRデバイスが仮想空間の描画のために定義する表示計算用の3次元空間内において、仮想空間10bが作成される位置及び方向は、センサ部3が現実空間の形状の認識を始める時点での、センサ部3と現実空間との位置関係により相対的に決まる。そのため、仮想空間10aに存在する平面12aの位置を基に、仮想空間10bに存在する平面12bを選定できない点も課題である。
 そのため、平面抽出部42は、上記の課題の下、仮想空間10bから、仮想空間10aの平面12aに相当する平面12bを抽出するため、以下のような処理を行う。
Here, the plane extraction unit 42 needs to extract an equivalent combination of planes from the virtual space 10a and the virtual space 10b. The problem here is that the virtual space 10b is created after the sensor unit 3 recognizes the shape of the real space, so that the plane 12b corresponding to the plane 12a existing in the virtual space 10a cannot be selected in advance. .. Further, in the three-dimensional space for display calculation defined by the MR device for drawing the virtual space, the position and direction in which the virtual space 10b is created are determined when the sensor unit 3 starts recognizing the shape of the real space. It is relatively determined by the positional relationship between the sensor unit 3 and the real space. Therefore, there is also a problem that the plane 12b existing in the virtual space 10b cannot be selected based on the position of the plane 12a existing in the virtual space 10a.
Therefore, the plane extraction unit 42 performs the following processing in order to extract the plane 12b corresponding to the plane 12a of the virtual space 10a from the virtual space 10b under the above-mentioned problem.
 まず、図6に示すように、平面抽出部42は、A-HPlane(n)と交わる平面を抽出し、当該平面を法線方向によりグループに分ける。なお、平面がA-HPlane(n)と交わるかは、当該平面の方程式から得た法線の傾きから判別可能である。図6では、同一グループの平面として、A-Plane(2)~A-Plane(6)が図示されている。なお、A-Plane(5),A-Plane(6)が抽出される部位は、部屋の柱等の一面であり、図4等では図示されていない部位である。そして、図7に示すように、平面抽出部42は、グループ毎に第1の分布情報を作成する。この際、平面抽出部42は、A-HPlane(n)と上記平面との交差線を求め、当該交差線の位置から第1の分布情報を作成する。図7では、図6に示されるグループの第1の分布情報が示す位置として、A-P(1)~A-P(4)が示されている。
 同様に、平面抽出部42は、B-HPlane(n)と交わる平面を抽出し、当該平面を法線方向によりグループに分ける。なお、平面がB-Plane(n)と交わるかは、当該平面の方程式から得た法線の傾きから判別可能である。図8では、同一グループの平面として、B-Plane(2)~B-Plane(6)が図示されている。なお、B-Plane(5),B-Plane(6)が抽出される部位は、部屋の柱等の一面であり、図4等では図示されていない部位である。そして、平面抽出部42は、グループ毎に第2の分布情報を作成する。この際、平面抽出部42は、A-HPlane(n)と上記平面との交差線を求め、当該交差線の位置から第2の分布情報を作成する。図8では、図8に示されるグループの第2の分布情報が示す位置として、B-P(1)~B-P(4)が示されている。
 そして、図8に示すように、平面抽出部42は、第1の分布情報及び第2の分布情報から位置関係が一致するグループを抽出する。そして、平面抽出部42は、仮想空間10aにおける上記抽出したグループにA-Plane(n)が含まれている場合、仮想空間10bにおける当該抽出したグループに含まれる、当該A-Plane(n)と同じ位置関係にある平面を、B-Plane(n)とする。
First, as shown in FIG. 6, the plane extraction unit 42 extracts a plane intersecting with A-HPlane (n), and divides the plane into groups according to the normal direction. Whether or not the plane intersects with A-HPlane (n) can be determined from the slope of the normal obtained from the equation of the plane. In FIG. 6, A-Plane (2) to A-Plane (6) are shown as planes of the same group. The portion from which A-Plane (5) and A-Plane (6) are extracted is one surface of a pillar or the like in a room, and is not shown in FIG. 4 or the like. Then, as shown in FIG. 7, the plane extraction unit 42 creates the first distribution information for each group. At this time, the plane extraction unit 42 obtains the intersection line between the A-HPlane (n) and the plane, and creates the first distribution information from the position of the intersection line. In FIG. 7, AP (1) to AP (4) are shown as positions indicated by the first distribution information of the group shown in FIG.
Similarly, the plane extraction unit 42 extracts a plane intersecting with the B-HPlane (n) and divides the plane into groups according to the normal direction. Whether or not the plane intersects with B-Plane (n) can be determined from the slope of the normal obtained from the equation of the plane. In FIG. 8, B-Plane (2) to B-Plane (6) are shown as planes of the same group. The portion from which B-Plane (5) and B-Plane (6) are extracted is one surface of a pillar or the like in a room, which is not shown in FIG. 4 or the like. Then, the plane extraction unit 42 creates the second distribution information for each group. At this time, the plane extraction unit 42 obtains the intersection line between the A-HPlane (n) and the plane, and creates the second distribution information from the position of the intersection line. In FIG. 8, BP (1) to BP (4) are shown as positions indicated by the second distribution information of the group shown in FIG.
Then, as shown in FIG. 8, the plane extraction unit 42 extracts a group having a matching positional relationship from the first distribution information and the second distribution information. Then, when the A-Plane (n) is included in the extracted group in the virtual space 10a, the plane extraction unit 42 together with the A-Plane (n) included in the extracted group in the virtual space 10b. A plane having the same positional relationship is referred to as B-Plane (n).
 なお図8に示すように、仮想空間10b内に対象とされる平面が複数存在する場合も想定される。図8では、仮想空間10bにおいて、A-P(2)と同じ位置関係にあるものはB-P(2)であり、そのB-P(2)に位置する平面はB-Plane(3),B-Plane(4)の2つである。しかしながら、この平面は無限平面として定義されるため、同一平面上に存在する平面であればどの平面が選択されてもよく、同一の結果が得られる。 As shown in FIG. 8, it is assumed that there are a plurality of target planes in the virtual space 10b. In FIG. 8, in the virtual space 10b, the one having the same positional relationship as the AP (2) is the BP (2), and the plane located in the BP (2) is the B-Plane (3). , B-Plane (4). However, since this plane is defined as an infinite plane, any plane existing on the same plane may be selected, and the same result can be obtained.
 なお、対象とする現実空間が例えば何も物が置かれていない立方体状の空間である場合、同一の仮想空間内に奥行き方向の位置関係が全く同じグループが複数存在することも考えられる。このような場合、仮想空間10aについては予め方位を示す情報を付与し、仮想空間10bについては、MRデバイスにジャイロセンサ等の方位を検知可能なセンサを設け、当該センサにより検知された方位を示す情報を付与する。そして、平面抽出部42は、仮想空間10aに付与された方位を示す情報及び仮想空間10bに付与された方位を示す情報に基づいて、平面12b(ここではB-Plane(n))の抽出を行う。 If the target real space is, for example, a cubic space in which nothing is placed, it is possible that there are multiple groups with exactly the same positional relationship in the depth direction in the same virtual space. In such a case, information indicating the direction is given in advance to the virtual space 10a, and for the virtual space 10b, a sensor capable of detecting the direction such as a gyro sensor is provided in the MR device to indicate the direction detected by the sensor. Give information. Then, the plane extraction unit 42 extracts the plane 12b (here, B-Plane (n)) based on the information indicating the orientation given to the virtual space 10a and the information indicating the orientation given to the virtual space 10b. conduct.
 次いで、方向変換部44は、仮想空間10aにおける垂直方向を、仮想空間10bにおける垂直方向に合わせるように傾ける(ステップST303)。 Next, the direction changing unit 44 tilts the vertical direction in the virtual space 10a so as to match the vertical direction in the virtual space 10b (step ST303).
 この際、まず、図9,10に示すように、方向変換部44は、仮想空間10aに存在する交差線14a及び交差線15aを求める。交差線14aは、1つのA-HPlane(n)と1つのA-Plane(n)とが交わる線分である。図9では、交差線14aは、A-HPlane(1)とA-Plane(1)とが交わる線分である。交差線15aは、上記A-HPlane(n)と上記A-Plane(n)とは平行ではない1つのA-Plane(n)とが交わる線分である。図10では、交差線15aは、A-HPlane(1)とA-Plane(2)とが交わる線分である。そして、図11に示すように、方向変換部44は、交差線14a及び交差線15aと同一方向のベクトル14a’,15a’の外積から、垂直方向と同一方向のベクトル13a’を求める。
 同様に、図9,10に示すように、方向変換部44は、仮想空間10bに存在する交差線14b及び交差線15bを求める。交差線14bは、1つのB-HPlane(n)と1つのB-Plane(n)とが交わる線分である。図9では、交差線14bは、B-HPlane(1)とB-Plane(1)とが交わる線分である。交差線15bは、上記B-HPlane(n)と上記B-Plane(n)とは平行ではない1つのB-Plane(n)とが交わる線分である。図10では、交差線15bは、B-HPlane(1)とB-Plane(2)とが交わる線分である。そして、図11に示すように、方向変換部44は、交差線14b及び交差線15bと同一方向のベクトル14b’,15b’の外積から、垂直方向と同一方向のベクトル13b’を求める。
 その後、図13に示すように、方向変換部44は、仮想空間10aにおける垂直方向を、仮想空間10bにおける垂直方向に合わせるように傾ける。この際、方向変換部44は、仮想空間10aに存在する交差線14a及び交差線15aも傾ける。
At this time, first, as shown in FIGS. 9 and 10, the direction changing unit 44 obtains the intersection line 14a and the intersection line 15a existing in the virtual space 10a. The intersection line 14a is a line segment where one A-HPlane (n) and one A-Plane (n) intersect. In FIG. 9, the crossing line 14a is a line segment where A-HPlane (1) and A-Plane (1) intersect. The intersection line 15a is a line segment where the A-HPlane (n) and one A-Plane (n) that is not parallel to the A-Plane (n) intersect. In FIG. 10, the crossing line 15a is a line segment where A-HPlane (1) and A-Plane (2) intersect. Then, as shown in FIG. 11, the direction changing unit 44 obtains the vector 13a'in the same direction as the vertical direction from the outer product of the vectors 14a'and 15a' in the same direction as the crossing line 14a and the crossing line 15a.
Similarly, as shown in FIGS. 9 and 10, the direction changing unit 44 obtains the intersection line 14b and the intersection line 15b existing in the virtual space 10b. The intersection line 14b is a line segment where one B-HPlane (n) and one B-Plane (n) intersect. In FIG. 9, the crossing line 14b is a line segment where the B-HPlane (1) and the B-Plane (1) intersect. The intersection line 15b is a line segment where the B-HPlane (n) and one B-Plane (n) that is not parallel to the B-Plane (n) intersect. In FIG. 10, the crossing line 15b is a line segment where the B-HPlane (1) and the B-Plane (2) intersect. Then, as shown in FIG. 11, the direction changing unit 44 obtains the vector 13b'in the same direction as the vertical direction from the outer product of the vectors 14b'and 15b' in the same direction as the crossing line 14b and the crossing line 15b.
After that, as shown in FIG. 13, the direction changing unit 44 tilts the vertical direction in the virtual space 10a so as to match the vertical direction in the virtual space 10b. At this time, the direction changing unit 44 also tilts the intersection line 14a and the intersection line 15a existing in the virtual space 10a.
 次いで、位置変換部45は、仮想空間10aに存在する点16aを、仮想空間10bに存在する点16bに合わせるように移動させる(ステップST304)。 Next, the position conversion unit 45 moves the point 16a existing in the virtual space 10a so as to match the point 16b existing in the virtual space 10b (step ST304).
 この際、まず、図12に示すように、位置変換部45は、交差線14a及び交差線15aの組合せのうち、同一平面上に存在する交差線14a及び交差線15aの交点座標を点16aとして求める。なお図12では、方向変換部44が仮想空間10aの方向を変換する前に、位置変換部45が点16aを求めている。そのため、方向変換部44は、仮想空間10aに対する方向変換に伴い、上記点16aも傾ける。
 同様に、図12に示すように、位置変換部45は、交差線14b及び交差線15bの組合せのうち、同一平面上に存在する交差線14a及び交差線15aに相当する交差線14b及び交差線15bの交点座標を点16bとして求める。
 その後、図14に示すように、位置変換部45は、仮想空間10aに存在する点16aを、仮想空間10bに存在する点16bに合わせるように移動させる(符号1401参照)。
At this time, first, as shown in FIG. 12, the position conversion unit 45 uses the intersection coordinates of the intersection lines 14a and the intersection lines 15a existing on the same plane as points 16a among the combinations of the intersection lines 14a and the intersection lines 15a. demand. In FIG. 12, the position changing unit 45 obtains the point 16a before the direction changing unit 44 changes the direction of the virtual space 10a. Therefore, the direction changing unit 44 also tilts the above point 16a as the direction is changed with respect to the virtual space 10a.
Similarly, as shown in FIG. 12, among the combinations of the intersection lines 14b and the intersection lines 15b, the position conversion unit 45 includes the intersection lines 14a and the intersection lines 14b and the intersection lines corresponding to the intersection lines 14a and the intersection lines 15a existing on the same plane. The intersection coordinates of 15b are obtained as points 16b.
After that, as shown in FIG. 14, the position conversion unit 45 moves the point 16a existing in the virtual space 10a so as to match the point 16b existing in the virtual space 10b (see reference numeral 1401).
 次いで、方向変換部46は、仮想空間10aにおける水平方向を、仮想空間10bにおける水平方向に合わせるように傾ける(ステップST305)。 Next, the direction changing unit 46 tilts the horizontal direction in the virtual space 10a so as to match the horizontal direction in the virtual space 10b (step ST305).
 この際、図15に示すように、方向変換部46は、交差線14a又は交差線15aと同一方向のベクトルと、垂直方向と同一方向のベクトル13a’との外積により、水平方向と同一方向のベクトル17a’を求める。
 同様に、方向変換部46は、交差線14b又は交差線15bと同一方向のベクトルと、垂直方向と同一方向のベクトル13b’との外積により、水平方向と同一方向のベクトル17b’を求める。
 その後、方向変換部46は、仮想空間10aにおける水平方向を、仮想空間10bにおける水平方向に合わせるように傾ける。すなわち、方向変換部46は、仮想空間10aを垂直方向回りに回転させる(符号1501参照)。
At this time, as shown in FIG. 15, the direction changing unit 46 is in the same direction as the horizontal direction due to the outer product of the vector in the same direction as the intersection line 14a or the intersection line 15a and the vector 13a'in the same direction as the vertical direction. Find the vector 17a'.
Similarly, the direction changing unit 46 obtains the vector 17b'in the same direction as the horizontal direction by the outer product of the vector in the same direction as the intersection line 14b or the intersection line 15b and the vector 13b'in the same direction as the vertical direction.
After that, the direction changing unit 46 tilts the horizontal direction in the virtual space 10a so as to match the horizontal direction in the virtual space 10b. That is, the direction changing unit 46 rotates the virtual space 10a in the vertical direction (see reference numeral 1501).
 以上のように、この実施の形態1によれば、演算処理部(位置合わせ装置)4は、仮想オブジェクトを有する現実空間を模した仮想空間10aに存在する平面11a、及び、現実空間を模した仮想空間10bに存在する当該平面11aに相当する平面11bを設定する平面設定部41と、平面設定部41による設定結果に基づいて、仮想空間10aに存在する平面11aと交わる平面12a、及び、仮想空間10bに存在する平面12aに相当する平面12bを抽出する平面抽出部42と、平面設定部41による設定結果及び平面抽出部42による抽出結果に基づいて、仮想空間10aにおける位置及び方向を、仮想空間10bにおける位置及び方向に合わせる変換部43とを備えた。これにより、実施の形態1に係る演算処理部4は、2つの仮想空間を一致させる際に、ユーザによる操作が不要となる。 As described above, according to the first embodiment, the arithmetic processing unit (alignment device) 4 imitates the plane 11a existing in the virtual space 10a imitating the real space having the virtual object and the real space. A plane setting unit 41 that sets a plane 11b corresponding to the plane 11a existing in the virtual space 10b, a plane 12a intersecting the plane 11a existing in the virtual space 10a, and a virtual plane 12a based on the setting result by the plane setting unit 41. Based on the plane extraction unit 42 that extracts the plane 12b corresponding to the plane 12a existing in the space 10b, the setting result by the plane setting unit 41, and the extraction result by the plane extraction unit 42, the position and direction in the virtual space 10a are virtually set. A conversion unit 43 for adjusting to a position and direction in the space 10b is provided. As a result, the arithmetic processing unit 4 according to the first embodiment does not require an operation by the user when matching the two virtual spaces.
 最後に、図16を参照して、実施の形態1における演算処理部4のハードウェア構成例を説明する。
 演算処理部4における平面設定部41、平面抽出部42、方向変換部44、位置変換部45及び方向変換部46の各機能は、処理回路101により実現される。処理回路101は、図16Aに示すように、専用のハードウェアであってもよいし、図16Bに示すように、メモリ103に格納されるプログラムを実行するCPU(Central Processing Unit、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサ、又はDSP(Digital Signal Processor)ともいう)102であってもよい。
Finally, with reference to FIG. 16, a hardware configuration example of the arithmetic processing unit 4 according to the first embodiment will be described.
Each function of the plane setting unit 41, the plane extraction unit 42, the direction changing unit 44, the position changing unit 45, and the direction changing unit 46 in the arithmetic processing unit 4 is realized by the processing circuit 101. As shown in FIG. 16A, the processing circuit 101 may be dedicated hardware, or as shown in FIG. 16B, a CPU (Central Processing Unit, central processing unit, central processing unit) that executes a program stored in the memory 103. It may be a processing unit, an arithmetic unit, a microprocessor, a microprocessor, a processor, or a DSP (also referred to as a Digital Signal Processor) 102.
 処理回路101が専用のハードウェアである場合、処理回路101は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、又はこれらを組み合わせたものが該当する。平面設定部41、平面抽出部42、方向変換部44、位置変換部45及び方向変換部46の各部の機能それぞれを処理回路101で実現してもよいし、各部の機能をまとめて処理回路101で実現してもよい。 When the processing circuit 101 is dedicated hardware, the processing circuit 101 may be, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), or an FPGA (Field Programmable Gate). Array) or a combination of these is applicable. The functions of each of the plane setting unit 41, the plane extraction unit 42, the direction changing unit 44, the position changing unit 45, and the direction changing unit 46 may be realized by the processing circuit 101, or the functions of each unit may be collectively realized by the processing circuit 101. It may be realized by.
 処理回路101がCPU102の場合、平面設定部41、平面抽出部42、方向変換部44、位置変換部45及び方向変換部46の機能は、ソフトウェア、ファームウェア、又はソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェア及びファームウェアはプログラムとして記述され、メモリ103に格納される。処理回路101は、メモリ103に記憶されたプログラムを読み出して実行することにより、各部の機能を実現する。すなわち、演算処理部4は、処理回路101により実行されるときに、例えば図3に示した各ステップが結果的に実行されることになるプログラムを格納するためのメモリ103を備える。また、これらのプログラムは、平面設定部41、平面抽出部42、方向変換部44、位置変換部45及び方向変換部46の手順及び方法をコンピュータに実行させるものであるともいえる。ここで、メモリ103としては、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM(Electrically EPROM)等の不揮発性又は揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、又はDVD(Digital Versatile Disc)等が該当する。 When the processing circuit 101 is the CPU 102, the functions of the plane setting unit 41, the plane extraction unit 42, the direction changing unit 44, the position changing unit 45, and the direction changing unit 46 are realized by software, firmware, or a combination of software and firmware. The firmware. The software and firmware are described as a program and stored in the memory 103. The processing circuit 101 realizes the functions of each part by reading and executing the program stored in the memory 103. That is, the arithmetic processing unit 4 includes a memory 103 for storing a program in which, for example, each step shown in FIG. 3 is executed as a result when executed by the processing circuit 101. Further, it can be said that these programs cause a computer to execute the procedures and methods of the plane setting unit 41, the plane extraction unit 42, the direction changing unit 44, the position changing unit 45, and the direction changing unit 46. Here, the memory 103 includes, for example, a non-volatile or volatile semiconductor such as a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, an EPROM (Erasable Program ROM), or an EEPROM (Electrically EPROM). A magnetic disk, a flexible disk, an optical disk, a compact disk, a mini disk, a DVD (Digital Versaille Disc), or the like is applicable.
 なお、平面設定部41、平面抽出部42、方向変換部44、位置変換部45及び方向変換部46の各機能について、一部を専用のハードウェアで実現し、一部をソフトウェア又はファームウェアで実現するようにしてもよい。例えば、平面設定部41については専用のハードウェアとしての処理回路101でその機能を実現し、平面抽出部42、方向変換部44、位置変換部45及び方向変換部46については処理回路101がメモリ103に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。 For each function of the plane setting unit 41, the plane extraction unit 42, the direction conversion unit 44, the position conversion unit 45, and the direction conversion unit 46, a part is realized by dedicated hardware and a part is realized by software or firmware. You may try to do it. For example, the plane setting unit 41 is realized by a processing circuit 101 as dedicated hardware, and the processing circuit 101 is a memory for the plane extraction unit 42, the direction changing unit 44, the position changing unit 45, and the direction changing unit 46. The function can be realized by reading and executing the program stored in 103.
 このように、処理回路101は、ハードウェア、ソフトウェア、ファームウェア、又はこれらの組み合わせによって、上述の各機能を実現することができる。 As described above, the processing circuit 101 can realize each of the above-mentioned functions by hardware, software, firmware, or a combination thereof.
 なお、実施の形態の任意の構成要素の変形、若しくは実施の形態の任意の構成要素の省略が可能である。 It is possible to modify any component of the embodiment or omit any component of the embodiment.
 本開示に係る位置合わせ装置は、2つの仮想空間を一致させる際に、ユーザによる操作が不要となり、2つの仮想空間の位置及び方向を合わせる位置合わせ装置等に用いるのに適している。 The alignment device according to the present disclosure does not require any operation by the user when matching the two virtual spaces, and is suitable for use as an alignment device or the like that aligns the positions and directions of the two virtual spaces.
 1 ディスプレイ、2 記憶部、3 センサ部、4 演算処理部、5 表示制御部、41 平面設定部、42 平面抽出部、43 変換部、44 方向変換部(第1の方向変換部)、45 位置変換部、46 方向変換部(第2の方向変換部)、101 処理回路、102 CPU、103 メモリ。 1 display, 2 storage unit, 3 sensor unit, 4 arithmetic processing unit, 5 display control unit, 41 plane setting unit, 42 plane extraction unit, 43 conversion unit, 44 direction conversion unit (first direction conversion unit), 45 position Conversion unit, 46 direction conversion unit (second direction conversion unit), 101 processing circuit, 102 CPU, 103 memory.

Claims (7)

  1.  仮想オブジェクトを有する現実空間を模した第1の仮想空間に存在する第1の平面、及び、現実空間を模した第2の仮想空間に存在する当該第1の平面に相当する第2の平面を設定する平面設定部と、
     前記平面設定部による設定結果に基づいて、第1の仮想空間に存在する第1の平面と交わる第3の平面、及び、第2の仮想空間に存在する第3の平面に相当する第4の平面を抽出する平面抽出部と、
     前記平面設定部による設定結果及び前記平面抽出部による抽出結果に基づいて、第1の仮想空間における位置及び方向を、第2の仮想空間における位置及び方向に合わせる変換部と
     を備えた位置合わせ装置。
    A first plane existing in a first virtual space imitating a real space having a virtual object, and a second plane corresponding to the first plane existing in a second virtual space imitating a real space. The plane setting part to be set and
    Based on the setting result by the plane setting unit, the third plane intersecting with the first plane existing in the first virtual space and the fourth plane corresponding to the third plane existing in the second virtual space. A plane extractor that extracts a plane, and a plane extractor
    An alignment device provided with a conversion unit that aligns a position and direction in a first virtual space with a position and direction in a second virtual space based on a setting result by the plane setting unit and an extraction result by the plane extraction unit. ..
  2.  前記変換部は、
     第1の仮想空間における第1の方向を、第2の仮想空間における第1の方向に相当する第2の方向に合わせるように傾ける第1の方向変換部と、
     第1の仮想空間に存在する第1の点を、第2の仮想空間に存在する第1の点に相当する第2の点に合わせるように移動させる位置変換部と、
    第1の仮想空間における第1の方向に垂直な方向である第3の方向を、第2の仮想空間における第3の方向に相当する第4の方向に合わせるように傾ける第2の方向変換部とを有する
     ことを特徴とする請求項1記載の位置合わせ装置。
    The conversion unit
    A first direction changing unit that tilts the first direction in the first virtual space so as to match the second direction corresponding to the first direction in the second virtual space.
    A position changing unit that moves the first point existing in the first virtual space so as to match the second point corresponding to the first point existing in the second virtual space.
    A second direction changer that tilts a third direction, which is a direction perpendicular to the first direction in the first virtual space, so as to match a fourth direction corresponding to the third direction in the second virtual space. The alignment device according to claim 1, wherein the alignment device has and.
  3.  前記第1の方向変換部は、
     1つの第1の平面と1つの第3の平面とが交わる第1の交差線を求め、当該第1の平面と当該第3の平面とは平行ではない1つの第3の平面とが交わる第2の交差線を求め、第1の交差線及び第2の交差線と同一方向のベクトルの外積から第1の方向と同一方向のベクトルを求め、
     1つの第2の平面と1つの第4の平面とが交わる第3の交差線を求め、当該第2の平面と当該第4の平面とは平行ではない1つの第4の平面とが交わる第4の交差線を求め、第3の交差線及び第4の交差線と同一方向のベクトルの外積から第2の方向と同一方向のベクトルを求める
     ことを特徴とする請求項2記載の位置合わせ装置。
    The first direction changing unit is
    Find the first crossing line where one first plane and one third plane intersect, and the first plane where the first plane and one third plane that is not parallel to the third plane intersect. Obtain the intersection line of 2, and obtain the vector in the same direction as the first direction from the outer product of the vector in the same direction as the first intersection line and the second intersection line.
    Find the third intersection where one second plane and one fourth plane intersect, and the second plane where the second plane and one fourth plane that is not parallel to the fourth plane intersect. The alignment device according to claim 2, wherein the intersection of 4 is obtained, and the vector in the same direction as the second direction is obtained from the outer product of the vector in the same direction as the third intersection and the fourth intersection. ..
  4.  前記位置変換部は、
     第1の交差線及び第2の交差線の組合せのうち、同一平面上に存在する第1の交差線及び第2の交差線の交点座標を第1の点として求め、
     第3の交差線及び第4の交差線の組合せのうち、同一平面上に存在する第1の交差線及び第2の交差線に相当する第3の交差線及び第4の交差線の交点座標を第2の点として求める
     ことを特徴とする請求項3記載の位置合わせ装置。
    The position conversion unit is
    Of the combinations of the first intersection line and the second intersection line, the intersection coordinates of the first intersection line and the second intersection line existing on the same plane are obtained as the first point.
    Of the combinations of the third intersection line and the fourth intersection line, the intersection coordinates of the third intersection line and the fourth intersection line corresponding to the first intersection line and the second intersection line existing on the same plane. 3. The alignment device according to claim 3, wherein the alignment device is obtained as a second point.
  5.  前記第2の方向変換部は、
     第1の交差線又は第2の交差線と同一方向のベクトルと、第1の方向と同一方向のベクトルとの外積により、第3の方向と同一方向のベクトルを求め、
     第3の交差線又は第4の交差線と同一方向のベクトルと、第2の方向と同一方向のベクトルとの外積により、第4の方向と同一方向のベクトルを求める
     ことを特徴とする請求項4記載の位置合わせ装置。
    The second direction changing unit is
    The vector in the same direction as the third direction is obtained by the outer product of the vector in the same direction as the first intersection line or the second intersection line and the vector in the same direction as the first direction.
    A claim characterized in that a vector in the same direction as the fourth direction is obtained by the outer product of a vector in the same direction as the third intersection line or the fourth intersection line and a vector in the same direction as the second direction. 4. The alignment device according to 4.
  6.  前記平面抽出部は、
     第1の平面と交わる平面を抽出し、当該平面を法線方向によりグループに分け、当該グループ毎に当該平面の法線方向における位置を示す第1の分布情報を作成し、
     第2の平面と交わる平面を抽出し、当該平面を法線方向によりグループに分け、当該グループ毎に当該平面の法線方向における位置を示す第2の分布情報を作成し、
     第1の分布情報及び第2の分布情報から位置関係が一致するグループを抽出し、第1の仮想空間における当該抽出したグループに第3の平面が含まれている場合、第2の仮想空間における当該抽出したグループに含まれる、当該第3の平面と同じ位置関係にある平面を、第4の平面とする
     ことを特徴とする請求項1から請求項5のうちの何れか1項記載の位置合わせ装置。
    The plane extraction unit
    A plane that intersects with the first plane is extracted, the plane is divided into groups according to the normal direction, and the first distribution information indicating the position of the plane in the normal direction is created for each group.
    A plane that intersects with the second plane is extracted, the plane is divided into groups according to the normal direction, and a second distribution information indicating the position of the plane in the normal direction is created for each group.
    When a group having a matching positional relationship is extracted from the first distribution information and the second distribution information, and the extracted group in the first virtual space includes a third plane, the second virtual space is used. The position according to any one of claims 1 to 5, wherein a plane included in the extracted group and having the same positional relationship as the third plane is set as the fourth plane. Matching device.
  7.  平面設定部が、仮想オブジェクトを有する現実空間を模した第1の仮想空間に存在する第1の平面、及び、現実空間を模した第2の仮想空間に存在する当該第1の平面に相当する第2の平面を設定するステップと、
     平面抽出部が、前記平面設定部による設定結果に基づいて、第1の仮想空間に存在する第1の平面と交わる第3の平面、及び、第2の仮想空間に存在する第3の平面に相当する第4の平面を抽出するステップと、
     変換部が、前記平面設定部による設定結果及び前記平面抽出部による抽出結果に基づいて、第1の仮想空間における位置及び方向を、第2の仮想空間における位置及び方向に合わせるステップと
     を有する位置合わせ方法。
    The plane setting unit corresponds to the first plane existing in the first virtual space imitating the real space having the virtual object and the first plane existing in the second virtual space imitating the real space. The step to set the second plane and
    Based on the setting result by the plane setting unit, the plane extraction unit becomes a third plane that intersects with the first plane existing in the first virtual space and a third plane existing in the second virtual space. The step of extracting the corresponding fourth plane,
    A position where the conversion unit has a step of adjusting the position and direction in the first virtual space to the position and direction in the second virtual space based on the setting result by the plane setting unit and the extraction result by the plane extraction unit. Matching method.
PCT/JP2020/026680 2020-07-08 2020-07-08 Alignment apparatus and alignment method WO2022009329A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022534552A JP7462755B2 (en) 2020-07-08 2020-07-08 Alignment device and alignment method
PCT/JP2020/026680 WO2022009329A1 (en) 2020-07-08 2020-07-08 Alignment apparatus and alignment method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/026680 WO2022009329A1 (en) 2020-07-08 2020-07-08 Alignment apparatus and alignment method

Publications (1)

Publication Number Publication Date
WO2022009329A1 true WO2022009329A1 (en) 2022-01-13

Family

ID=79552446

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/026680 WO2022009329A1 (en) 2020-07-08 2020-07-08 Alignment apparatus and alignment method

Country Status (2)

Country Link
JP (1) JP7462755B2 (en)
WO (1) WO2022009329A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012151851A (en) * 2011-01-20 2012-08-09 Samsung Electronics Co Ltd Camera motion estimating method and device using depth information, and augmented reality system
JP2015121892A (en) * 2013-12-20 2015-07-02 キヤノンマーケティングジャパン株式会社 Image processing apparatus, and image processing method
US20170154471A1 (en) * 2014-06-26 2017-06-01 Korea Advanced Institute Of Science And Technology Apparatus and method for providing augmented reality interaction service

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012151851A (en) * 2011-01-20 2012-08-09 Samsung Electronics Co Ltd Camera motion estimating method and device using depth information, and augmented reality system
JP2015121892A (en) * 2013-12-20 2015-07-02 キヤノンマーケティングジャパン株式会社 Image processing apparatus, and image processing method
US20170154471A1 (en) * 2014-06-26 2017-06-01 Korea Advanced Institute Of Science And Technology Apparatus and method for providing augmented reality interaction service

Also Published As

Publication number Publication date
JPWO2022009329A1 (en) 2022-01-13
JP7462755B2 (en) 2024-04-05

Similar Documents

Publication Publication Date Title
JP6314394B2 (en) Information processing apparatus, setting method, setting program, system, and management apparatus
US11024079B1 (en) Three-dimensional room model generation using panorama paths and photogrammetry
JP6265027B2 (en) Display device, position specifying program, and position specifying method
US10937247B1 (en) Three-dimensional room model generation using ring paths and photogrammetry
US10290155B2 (en) 3D virtual environment interaction system
JP6625523B2 (en) HUD object design and display method.
AU2014277858B2 (en) System and method for controlling a display
US20110216090A1 (en) Real-time interactive augmented reality system and method and recording medium storing program for implementing the method
BR102013027358B1 (en) System and method for augmented reality executed by a data processing system having at least one processor
US8223145B2 (en) Method and system for 3D object positioning in 3D virtual environments
US10706624B1 (en) Three-dimensional room model generation using panorama paths with augmented reality guidance
EP3721321B1 (en) Augmented reality measurement and schematic generating system
JP2002042173A (en) Three-dimensional analysis tool for drawing
US10529145B2 (en) Touch gestures for navigation and interacting with content in a three-dimensional space
US20110267347A1 (en) Systems and methods for primitive intersection in ray tracing
JP2016006589A (en) Display device, control program and control method
US10645275B1 (en) Three-dimensional room measurement process with augmented reality guidance
CN111984171A (en) Method and device for generating furniture movement track
JP2010277115A (en) Harness verification device and harness verification program
WO2022009329A1 (en) Alignment apparatus and alignment method
JP2018169875A (en) Intersection determination program, intersection determination method, and intersection determination device
JP5077077B2 (en) Movement explanation device and movement explanation program
JP6980802B2 (en) Methods, equipment and computer programs to provide augmented reality
US10643344B1 (en) Three-dimensional room measurement process
JP2018132847A (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20944279

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022534552

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20944279

Country of ref document: EP

Kind code of ref document: A1