JPWO2020023582A5 - - Google Patents

Download PDF

Info

Publication number
JPWO2020023582A5
JPWO2020023582A5 JP2021503757A JP2021503757A JPWO2020023582A5 JP WO2020023582 A5 JPWO2020023582 A5 JP WO2020023582A5 JP 2021503757 A JP2021503757 A JP 2021503757A JP 2021503757 A JP2021503757 A JP 2021503757A JP WO2020023582 A5 JPWO2020023582 A5 JP WO2020023582A5
Authority
JP
Japan
Prior art keywords
processing unit
metric
user
map
camera system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021503757A
Other languages
Japanese (ja)
Other versions
JP7309849B2 (en
JP2021530817A (en
Publication date
Application filed filed Critical
Priority claimed from PCT/US2019/043154 external-priority patent/WO2020023582A1/en
Publication of JP2021530817A publication Critical patent/JP2021530817A/en
Publication of JPWO2020023582A5 publication Critical patent/JPWO2020023582A5/ja
Priority to JP2023110450A priority Critical patent/JP2023126303A/en
Application granted granted Critical
Publication of JP7309849B2 publication Critical patent/JP7309849B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本開示の付加的および他の目的、特徴、ならびに利点は、発明を実施するための形態、図、および請求項に説明される。
本発明は、例えば、以下を提供する。
(項目1)
ユーザの頭部上に装着されるように構成される装置であって、
グラフィックをユーザに提示するように構成される画面と、
前記ユーザが位置する環境を視認するように構成されるカメラシステムと、
少なくとも部分的に、前記カメラシステムからの出力に基づいて、マップを決定するように構成される処理ユニットであって、前記マップは、前記環境に対して前記ユーザを位置特定するために、前記処理ユニットによる使用のために構成される、処理ユニットと
を備え、
前記装置の処理ユニットはまた、前記マップを使用して前記ユーザを位置特定することの成功の可能性を示すメトリックを取得するように構成され、前記処理ユニットは、前記メトリックを算出することによって、または前記メトリックを受信することによって、前記メトリックを取得するように構成される、装置。
(項目2)
前記処理ユニットは、異なるカメラ位置と関連付けられる着目点の同時可視性に基づいて、前記メトリックを決定するように構成される、項目1に記載の装置。
(項目3)
前記メトリックは、前記環境に対して前記ユーザを位置特定するために使用可能な基準点の数を示す、項目1に記載の装置。
(項目4)
前記メトリックは、1つ以上の視認方向における前記ユーザを位置特定することの成功の可能性を示す、項目1に記載の装置。
(項目5)
前記処理ユニットは、着目点が異なるカメラ位置から検出された回数に基づいて、前記メトリックを決定するように構成される、項目1に記載の装置。
(項目6)
前記処理ユニットは、任意の凸包を決定せずに、前記メトリックを決定するように構成される、項目1に記載の装置。
(項目7)
前記メトリックは、指向性に基づく値を有する、項目1に記載の装置。
(項目8)
前記メトリックは、複数のセルのうちの1つに関するものであり、前記セルはそれぞれ、前記環境の一部の3次元空間を表し、前記メトリックは、前記複数のセルのうちの1つ内の位置に基づく値を有する、項目1に記載の装置。
(項目9)
前記メトリックは、複数のセルのうちの1つに関するものであり、前記セルはそれぞれ、前記環境の一部の3次元空間を表す、項目1に記載の装置。
(項目10)
前記カメラシステムは、複数の画像を取得するように構成され、前記処理ユニットは、
視認方向の同一範囲に属する前記画像のサブセットを識別することと、
前記画像のサブセット内の画像に関する個別のスコアを決定することと、
前記スコアを総和し、総スコアを取得することと
によって、前記複数のセルのうちの1つに関する前記メトリックを決定するように構成される、項目9に記載の装置。
(項目11)
前記処理ユニットはまた、前記総スコアを前記画像のサブセット内の画像の数で除算することによって、平均スコアを決定するように構成される、項目10に記載の装置。
(項目12)
前記処理ユニットは、基準点と前記複数の画像を関連付ける同時可視性グラフにアクセスすることによって、前記個別のスコアを決定するように構成される、項目10に記載の装置。
(項目13)
前記同時可視性グラフは、前記基準点のいずれが前記複数の画像内のものの中で可視であるかを示す、項目12に記載の装置。
(項目14)
前記処理ユニットは、前記画像のサブセット内の画像の対応するもの内で検出された基準点の数を決定することによって、前記個別のスコアのそれぞれを決定するように構成される、項目10に記載の装置。
(項目15)
前記処理ユニットはまた、前記マップによる被覆度を示す面積スコアを決定するように構成される、項目1に記載の装置。
(項目16)
前記処理ユニットは、
複数の画像を前記カメラシステムから取得することと、
同時可視性値を決定することであって、前記同時可視性値はそれぞれ、前記複数の画像の対応するもの内で検出された基準点の数を示す、ことと
によって、前記メトリックを決定するように構成される、項目1に記載の装置。
(項目17)
前記処理ユニットは、前記メトリックの値を改良するための前記カメラシステムの所望の視認方向を決定するように構成される、項目1に記載の装置。
(項目18)
前記処理ユニットは、前記決定された所望の視認方向に基づいて、前記グラフィックを生成するように構成され、前記グラフィックは、前記ユーザに、前記カメラシステムの現在の視認方向を前記所望の視認方向に変化させるように命令するように構成される、項目17に記載の装置。
(項目19)
前記処理ユニットは、前記所望の視認方向が達成された後、前記メトリックを更新するように構成される、項目18に記載の装置。
(項目20)
前記処理ユニットは、前記データが前記マップを決定するために使用される場合、サニタイゼーションを実施し、そうでなければ、前記マップに関して望ましくない寄与を提供するであろうデータを除去するか、または考慮しないように構成される、項目1に記載の装置。
(項目21)
前記データは、前記カメラシステムからの画像を含み、前記処理ユニットは、(1)前記画像を除去するか、または考慮しないこと、(2)前記画像内の基準点の識別を考慮しないこと、および/または(3)前記画像と関連付けられる、光線または線を考慮しないことによって、前記サニタイゼーションを実施するように構成される、項目20に記載の装置。
(項目22)
前記処理ユニットは、バンドル調整を実施し、前記カメラシステムからの1つ以上の画像と関連付けられる1つ以上の光線を調節するように構成され、前記処理ユニットは、前記サニタイゼーションを実施し、前記データを除去した後、前記バンドル調整を実施するように構成される、項目20に記載の装置。
(項目23)
前記処理ユニットは、前記カメラシステムからの画像、3次元基準点、および前記カメラシステムのカメラ間の相対的配向に基づいて、最適化を実施するように構成される、項目1に記載の装置。
(項目24)
前記処理ユニットは、前記カメラシステムから取得される画像に関するスコアを決定するように構成される、項目1に記載の装置。
(項目25)
前記スコアは、前記画像が制約されている程度を示す、項目24に記載の装置。
(項目26)
前記処理ユニットは、基準点測定のJacobianに基づいて、前記スコアを決定するように構成される、項目24に記載の装置。
(項目27)
前記処理ユニットは、前記スコアに基づいて、データサニタイゼーションを実施するように構成され、
前記処理ユニットは、前記データサニタイゼーションを実施するとき、前記画像の制約を除去する、または前記画像を除去するように構成される、
項目24に記載の装置。
(項目28)
前記処理ユニットは、
複数のマップセグメントを決定することと、
前記マップセグメントを接続することと
によって、前記マップを決定するように構成される、項目1に記載の装置。
(項目29)
前記処理ユニットは、画像を前記カメラシステムから取得し、前記画像をリンクさせることによって、前記マップセグメントの第1のマップセグメントを決定するように構成され、前記画像は、前記カメラシステムによってシーケンスにおいて生成される、項目28に記載の装置。
(項目30)
前記処理ユニットは、
付加的画像を前記カメラシステムから取得することと、
前記付加的画像に関するスコアを決定することと、
前記カメラシステムからの付加的画像のスコアが基準を満たすことに応答して、前記マップセグメントの第2のマップセグメントを開始することと
を行うように構成される、項目29に記載の装置。
(項目31)
前記処理ユニットは、前記スコアが、前記第1のマップセグメントに対する制約度を有する前記画像が閾値を下回ることを示すとき、前記第2のマップセグメントを開始するように構成される、項目30に記載の装置。
(項目32)
ユーザの頭部上に装着されるように構成される装置によって実施される方法であって、前記装置は、グラフィックをユーザに提示するように構成される画面と、前記ユーザが位置する環境を視認するように構成されるカメラシステムと、処理ユニットとを有し、前記方法は、
前記処理ユニットによって、前記カメラシステムからの出力を取得することと、
前記処理ユニットによって、少なくとも部分的に、前記カメラシステムからの出力に基づいて、マップを決定することであって、前記マップは、前記環境に対して前記ユーザを位置特定するために、前記処理ユニットによる使用のために構成される、ことと、
前記処理ユニットによって、前記マップを使用して前記ユーザを位置特定することの成功の可能性を示すメトリックを取得することであって、前記取得する行為は、前記処理ユニットによって、前記メトリックを算出することまたは前記メトリックを受信することを含む、ことと
を含む、方法。
Additional and other objects, features, and advantages of the disclosure are set forth in the detailed description, drawings, and claims.
The present invention provides, for example, the following.
(Item 1)
A device configured to be worn on a user's head, comprising:
a screen configured to present graphics to a user;
a camera system configured to view an environment in which the user is located;
A processing unit configured, at least in part, to determine a map based, at least in part, on the output from the camera system, the map adapted to localize the user with respect to the environment. a processing unit configured for use by the unit;
with
A processing unit of the device is also configured to obtain a metric indicative of the likelihood of success in locating the user using the map, the processing unit calculating the metric to: or a device configured to obtain said metric by receiving said metric.
(Item 2)
The apparatus of item 1, wherein the processing unit is configured to determine the metric based on simultaneous visibility of points of interest associated with different camera positions.
(Item 3)
2. The apparatus of item 1, wherein the metric indicates a number of reference points available for locating the user with respect to the environment.
(Item 4)
2. The apparatus of item 1, wherein the metric indicates the likelihood of success in locating the user in one or more viewing directions.
(Item 5)
The apparatus of item 1, wherein the processing unit is configured to determine the metric based on the number of times a point of interest is detected from different camera positions.
(Item 6)
The apparatus of item 1, wherein the processing unit is configured to determine the metric without determining any convex hull.
(Item 7)
2. The apparatus of item 1, wherein the metric has a value based on directivity.
(Item 8)
The metric is for one of a plurality of cells, each cell representing a three-dimensional space of a portion of the environment, and the metric is a position within one of the plurality of cells. A device according to item 1, having a value based on
(Item 9)
2. The apparatus of item 1, wherein the metric is for one of a plurality of cells, each cell representing a three-dimensional space of a portion of the environment.
(Item 10)
The camera system is configured to acquire a plurality of images, the processing unit comprising:
identifying subsets of the images that belong to the same range of viewing directions;
determining individual scores for images in the subset of images;
summing the scores to obtain a total score;
10. The apparatus of item 9, configured to determine the metric for one of the plurality of cells by:
(Item 11)
11. The apparatus of item 10, wherein the processing unit is also configured to determine an average score by dividing the total score by the number of images in the subset of images.
(Item 12)
11. The apparatus of item 10, wherein the processing unit is configured to determine the individual score by accessing a simultaneous visibility graph associating reference points with the plurality of images.
(Item 13)
13. The apparatus of item 12, wherein the simultaneous visibility graph indicates which of the reference points are visible among those in the plurality of images.
(Item 14)
11. The method of item 10, wherein the processing unit is configured to determine each of the individual scores by determining a number of fiducial points detected in a corresponding one of the images in the subset of images. device.
(Item 15)
The apparatus of item 1, wherein the processing unit is also configured to determine an area score indicative of coverage by the map.
(Item 16)
The processing unit is
acquiring a plurality of images from the camera system;
determining simultaneous visibility values, each of said simultaneous visibility values indicating the number of fiducial points detected within a corresponding one of said plurality of images;
Apparatus according to item 1, configured to determine said metric by:
(Item 17)
Apparatus according to item 1, wherein the processing unit is configured to determine a desired viewing direction of the camera system for improving the value of the metric.
(Item 18)
The processing unit is configured to generate the graphic based on the determined desired viewing direction, the graphic instructing the user to change the current viewing direction of the camera system to the desired viewing direction. 18. Apparatus according to item 17, configured to command to change.
(Item 19)
19. The apparatus of item 18, wherein the processing unit is configured to update the metric after the desired viewing direction is achieved.
(Item 20)
The processing unit performs sanitization if the data is used to determine the map, and otherwise removes data that would provide an undesirable contribution to the map, or The apparatus of item 1, configured not to consider.
(Item 21)
The data includes images from the camera system, and the processing unit (1) removes or does not consider the images, (2) does not consider identifying fiducials within the images, and /or (3) The apparatus of item 20, configured to perform the sanitization by not considering light rays or lines associated with the image.
(Item 22)
The processing unit is configured to perform bundle adjustment and adjust one or more rays associated with one or more images from the camera system; the processing unit performs the sanitization; 21. Apparatus according to item 20, configured to perform said bundle adjustment after removing data.
(Item 23)
The apparatus of item 1, wherein the processing unit is configured to perform optimization based on images from the camera system, 3D reference points, and relative orientations between cameras of the camera system.
(Item 24)
Apparatus according to item 1, wherein the processing unit is configured to determine a score for images acquired from the camera system.
(Item 25)
25. Apparatus according to item 24, wherein the score indicates the degree to which the image is constrained.
(Item 26)
25. The apparatus of item 24, wherein the processing unit is configured to determine the score based on the Jacobian of reference point measurements.
(Item 27)
the processing unit is configured to perform data sanitization based on the score;
the processing unit is configured to remove constraints on the image or to remove the image when performing the data sanitization;
25. Apparatus according to item 24.
(Item 28)
The processing unit is
determining a plurality of map segments;
connecting the map segments;
A device according to item 1, configured to determine said map by:
(Item 29)
The processing unit is configured to determine a first map segment of the map segments by obtaining images from the camera system and linking the images, the images generated in sequence by the camera system. 29. Apparatus according to item 28, wherein:
(Item 30)
The processing unit is
acquiring additional images from the camera system;
determining a score for the additional image;
initiating a second of the map segments in response to scores of additional images from the camera system meeting criteria;
30. Apparatus according to item 29, configured to perform
(Item 31)
31. The method of claim 30, wherein the processing unit is configured to initiate the second map segment when the score indicates that the image with a degree of constraint on the first map segment is below a threshold. device.
(Item 32)
A method performed by a device configured to be worn on the head of a user, the device viewing a screen configured to present graphics to the user and an environment in which the user is located. and a processing unit, the method comprising:
obtaining, by the processing unit, an output from the camera system;
determining, by the processing unit, a map based, at least in part, on output from the camera system, the map adapted to localize the user with respect to the environment; configured for use by
Obtaining, by the processing unit, a metric indicative of the likelihood of success in locating the user using the map, the act of obtaining calculating, by the processing unit, the metric. or receiving said metric;
A method, including

Claims (32)

ユーザの頭部上に装着されるように構成される装置であって、
グラフィックを前記ユーザに提示するように構成される画面と、
前記ユーザが位置する環境を視認するように構成されるカメラシステムと、
記カメラシステムからの出力に少なくとも部分的に基づいて、マップを決定するように構成される処理ユニットであって、前記マップは、前記環境に対して前記ユーザを位置特定するために、前記処理ユニットによる使用のために構成される、処理ユニットと
を備え、
前記装置の前記処理ユニットはまた、前記マップを使用して前記ユーザを位置特定することの成功の可能性を示すメトリックを取得するように構成され、前記処理ユニットは、前記メトリックを算出することによって、または前記メトリックを受信することによって、前記メトリックを取得するように構成される、装置。
A device configured to be worn on a user's head, comprising:
a screen configured to present graphics to the user;
a camera system configured to view an environment in which the user is located;
A processing unit configured to determine a map based at least in part on the output from the camera system, the map adapted to localize the user with respect to the environment. a processing unit configured for use by the unit;
The processing unit of the device is also configured to obtain a metric indicative of the likelihood of success in locating the user using the map, the processing unit by calculating the metric or an apparatus configured to obtain said metric by receiving said metric.
前記処理ユニットは、異なるカメラ位置と関連付けられる着目点の同時可視性に基づいて、前記メトリックを決定するように構成される、請求項1に記載の装置。 2. The apparatus of claim 1, wherein the processing unit is configured to determine the metric based on simultaneous visibility of points of interest associated with different camera positions. 前記メトリックは、前記環境に対して前記ユーザを位置特定するために使用可能な基準点の数を示す、請求項1に記載の装置。 2. The apparatus of claim 1, wherein the metric indicates a number of reference points available for locating the user with respect to the environment. 前記メトリックは、1つ以上の視認方向における前記ユーザを位置特定することの成功の可能性を示す、請求項1に記載の装置。 2. The apparatus of claim 1, wherein the metric indicates a likelihood of success in locating the user in one or more viewing directions. 前記処理ユニットは、着目点が異なるカメラ位置から検出された回数に基づいて、前記メトリックを決定するように構成される、請求項1に記載の装置。 2. The apparatus of claim 1, wherein the processing unit is configured to determine the metric based on the number of times a point of interest is detected from different camera positions. 前記処理ユニットは、任意の凸包を決定せずに、前記メトリックを決定するように構成される、請求項1に記載の装置。 2. The apparatus of claim 1, wherein the processing unit is configured to determine the metric without determining any convex hull. 前記メトリックは、指向性に基づく値を有する、請求項1に記載の装置。 2. The apparatus of claim 1, wherein the metric has a value based on directivity. 前記メトリックは、複数のセルのうちの1つに関するものであり、前記セルはそれぞれ、前記環境の一部の3次元空間を表し、前記メトリックは、前記複数のセルのうちの1つ内の位置に基づく値を有する、請求項1に記載の装置。 The metric is for one of a plurality of cells, each cell representing a three-dimensional space of a portion of the environment, and the metric is a position within one of the plurality of cells. 2. The device of claim 1, having a value based on: 前記処理ユニットはまた、前記マップによる被覆度を示す面積スコアを決定するように構成される、請求項1に記載の装置。 2. The apparatus of claim 1, wherein the processing unit is also configured to determine an area score indicative of coverage by the map. 前記処理ユニットは、前記メトリックの値を改良するための前記カメラシステムの所望の視認方向を決定するように構成される、請求項1に記載の装置。 2. The apparatus of claim 1, wherein the processing unit is configured to determine a desired viewing direction of the camera system for improving the value of the metric. 前記処理ユニットは、前記決定された所望の視認方向に基づいて、前記グラフィックを生成するように構成され、前記グラフィックは、前記ユーザに、前記カメラシステムの現在の視認方向を前記所望の視認方向に変化させるように命令するように構成される、請求項10に記載の装置。 The processing unit is configured to generate the graphic based on the determined desired viewing direction, the graphic instructing the user to change the current viewing direction of the camera system to the desired viewing direction. 11. The device of claim 10 , configured to command to change. 前記処理ユニットは、前記所望の視認方向が達成された後、前記メトリックを更新するように構成される、請求項11に記載の装置。 12. The apparatus of Claim 11 , wherein the processing unit is configured to update the metric after the desired viewing direction is achieved. 前記処理ユニットは、前記カメラシステムからの画像、3次元基準点、および前記カメラシステムのカメラ間の相対的配向に基づいて、最適化を実施するように構成される、請求項1に記載の装置。 2. The apparatus of claim 1, wherein the processing unit is configured to perform optimization based on images from the camera system, 3D reference points, and relative orientations between cameras of the camera system. . 前記処理ユニットは、前記カメラシステムから取得される画像に関するスコアを決定するように構成される、請求項1に記載の装置。 2. The apparatus of claim 1, wherein the processing unit is configured to determine scores for images acquired from the camera system. 前記スコアは、前記画像が制約されている程度を示す、請求項14に記載の装置。 15. The apparatus of Claim 14 , wherein the score indicates the extent to which the image is constrained. 前記処理ユニットは、基準点測定のJacobianに基づいて、前記スコアを決定するように構成される、請求項14に記載の装置。 15. The apparatus of claim 14 , wherein the processing unit is configured to determine the score based on a Jacobian of reference point measurements. ユーザの頭部上に装着されるように構成される装置であって、
グラフィックを前記ユーザに提示するように構成される画面と、
前記ユーザが位置する環境を視認するように構成されるカメラシステムと、
前記カメラシステムからの出力に少なくとも部分的に基づいて、マップを決定するように構成される処理ユニットであって、前記マップは、前記環境に対して前記ユーザを位置特定するために、前記処理ユニットによる使用のために構成される、処理ユニットと
を備え、
前記装置の前記処理ユニットはまた、前記マップを使用して前記ユーザを位置特定することの成功の可能性を示すメトリックを取得するように構成され、前記処理ユニットは、前記メトリックを算出することによって、または前記メトリックを受信することによって、前記メトリックを取得するように構成され、
前記メトリックは、複数のセルのうちの1つに関するものであり、前記セルはそれぞれ、前記環境の一部の3次元空間を表す装置。
A device configured to be worn on a user's head, comprising:
a screen configured to present graphics to the user;
a camera system configured to view an environment in which the user is located;
a processing unit configured to determine a map based, at least in part, on output from the camera system, the map to localize the user with respect to the environment; a processing unit configured for use by
with
The processing unit of the device is also configured to obtain a metric indicative of the likelihood of success in locating the user using the map, the processing unit by calculating the metric , or configured to obtain said metric by receiving said metric,
The apparatus of claim 1, wherein the metric is for one of a plurality of cells, each cell representing a three-dimensional space of a portion of the environment.
前記カメラシステムは、複数の画像を取得するように構成され、前記処理ユニットは、
視認方向の同一範囲に属する前記画像のサブセットを識別することと、
前記画像のサブセット内の画像に関する個別のスコアを決定することと、
前記スコアを総和し、総スコアを取得することと
によって、前記複数のセルのうちの1つに関する前記メトリックを決定するように構成される、請求項17に記載の装置。
The camera system is configured to acquire a plurality of images, the processing unit comprising:
identifying subsets of the images that belong to the same range of viewing directions;
determining individual scores for images in the subset of images;
18. The apparatus of claim 17 , configured to determine the metric for one of the plurality of cells by: summing the scores to obtain a total score.
前記処理ユニットはまた、前記総スコアを前記画像のサブセット内の画像の数で除算することによって、平均スコアを決定するように構成される、請求項18に記載の装置。 19. The apparatus of Claim 18 , wherein the processing unit is also configured to determine an average score by dividing the total score by the number of images in the subset of images. 前記処理ユニットは、基準点と前記複数の画像を関連付ける同時可視性グラフにアクセスすることによって、前記個別のスコアを決定するように構成される、請求項18に記載の装置。 19. The apparatus of Claim 18 , wherein the processing unit is configured to determine the individual score by accessing a simultaneous visibility graph associating reference points with the plurality of images. 前記同時可視性グラフは、前記基準点のいずれが前記複数の画像内のものの中で可視であるかを示す、請求項20に記載の装置。 21. The apparatus of claim 20 , wherein the simultaneous visibility graph indicates which of the reference points are visible among those in the plurality of images. 前記処理ユニットは、前記画像のサブセット内の画像の対応するもの内で検出された基準点の数を決定することによって、前記個別のスコアのそれぞれを決定するように構成される、請求項18に記載の装置。 19. The processing unit of claim 18 , wherein the processing unit is configured to determine each of the individual scores by determining the number of fiducial points detected in corresponding ones of the images in the subset of images. Apparatus as described. ユーザの頭部上に装着されるように構成される装置であって、
グラフィックを前記ユーザに提示するように構成される画面と、
前記ユーザが位置する環境を視認するように構成されるカメラシステムと、
前記カメラシステムからの出力に少なくとも部分的に基づいて、マップを決定するように構成される処理ユニットであって、前記マップは、前記環境に対して前記ユーザを位置特定するために、前記処理ユニットによる使用のために構成される、処理ユニットと
を備え、
前記装置の前記処理ユニットはまた、前記マップを使用して前記ユーザを位置特定することの成功の可能性を示すメトリックを取得するように構成され、前記処理ユニットは、前記メトリックを算出することによって、または前記メトリックを受信することによって、前記メトリックを取得するように構成され、
前記処理ユニットは、
複数の画像を前記カメラシステムから取得することと、
同時可視性値を決定することであって、前記同時可視性値はそれぞれ、前記複数の画像の対応するもの内で検出された基準点の数を示す、ことと
によって、前記メトリックを決定するように構成される装置。
A device configured to be worn on a user's head, comprising:
a screen configured to present graphics to the user;
a camera system configured to view an environment in which the user is located;
a processing unit configured to determine a map based, at least in part, on output from the camera system, the map to localize the user with respect to the environment; a processing unit configured for use by
with
The processing unit of the device is also configured to obtain a metric indicative of the likelihood of success in locating the user using the map, the processing unit by calculating the metric , or configured to obtain said metric by receiving said metric,
The processing unit is
acquiring a plurality of images from the camera system;
determining the metric by A device configured to:
ユーザの頭部上に装着されるように構成される装置であって、
グラフィックを前記ユーザに提示するように構成される画面と、
前記ユーザが位置する環境を視認するように構成されるカメラシステムと、
前記カメラシステムからの出力に少なくとも部分的に基づいて、マップを決定するように構成される処理ユニットであって、前記マップは、前記環境に対して前記ユーザを位置特定するために、前記処理ユニットによる使用のために構成される、処理ユニットと
を備え、
前記装置の前記処理ユニットはまた、前記マップを使用して前記ユーザを位置特定することの成功の可能性を示すメトリックを取得するように構成され、前記処理ユニットは、前記メトリックを算出することによって、または前記メトリックを受信することによって、前記メトリックを取得するように構成され、
前記処理ユニットはデータが前記マップを決定するために使用される場合、サニタイゼーションを実施し、そうでなけれ前記マップに関して望ましくない寄与を提供するであろう前記データを除去するまたは考慮しないように構成される装置。
A device configured to be worn on a user's head, comprising:
a screen configured to present graphics to the user;
a camera system configured to view an environment in which the user is located;
a processing unit configured to determine a map based, at least in part, on output from the camera system, the map adapted to localize the user with respect to the environment; a processing unit configured for use by
with
The processing unit of the device is also configured to obtain a metric indicative of the likelihood of success in locating the user using the map, the processing unit by calculating the metric , or configured to obtain said metric by receiving said metric,
The processing unit performs sanitization when data is used to determine the map, and removes or does not consider the data that would otherwise provide an undesirable contribution to the map. A device configured to .
前記データは、前記カメラシステムからの画像を含み、前記処理ユニットは、(1)前記画像を除去するまたは考慮しないこと、(2)前記画像内の基準点の識別を考慮しないこと、および/または(3)前記画像と関連付けられる、光線または線を考慮しないことによって、前記サニタイゼーションを実施するように構成される、請求項24に記載の装置。 The data includes images from the camera system, and the processing unit is configured to (1) remove or disregard the images, (2) disregard identification of fiducials within the images, and/or or (3) the apparatus of claim 24 , configured to perform the sanitization by not considering light rays or lines associated with the image. 前記処理ユニットは、バンドル調整を実施し、前記カメラシステムからの1つ以上の画像と関連付けられる1つ以上の光線を調節するように構成され、前記処理ユニットは、前記サニタイゼーションを実施し、前記データを除去した後、前記バンドル調整を実施するように構成される、請求項24に記載の装置。 The processing unit is configured to perform bundle adjustment and adjust one or more rays associated with one or more images from the camera system; the processing unit performs the sanitization; 25. The apparatus of claim 24 , configured to perform said bundle adjustment after removing data. ユーザの頭部上に装着されるように構成される装置であって、
グラフィックを前記ユーザに提示するように構成される画面と、
前記ユーザが位置する環境を視認するように構成されるカメラシステムと、
前記カメラシステムからの出力に少なくとも部分的に基づいて、マップを決定するように構成される処理ユニットであって、前記マップは、前記環境に対して前記ユーザを位置特定するために、前記処理ユニットによる使用のために構成される、処理ユニットと
を備え、
前記装置の前記処理ユニットはまた、前記マップを使用して前記ユーザを位置特定することの成功の可能性を示すメトリックを取得するように構成され、前記処理ユニットは、前記メトリックを算出することによって、または前記メトリックを受信することによって、前記メトリックを取得するように構成され、
前記処理ユニットは、前記カメラシステムから取得される画像に関するスコアを決定するように構成され、
前記処理ユニットは、前記スコアに基づいて、データサニタイゼーションを実施するように構成され、
前記処理ユニットは、前記データサニタイゼーションを実施するとき、前記画像の制約を除去する、または前記画像を除去するように構成される装置。
A device configured to be worn on a user's head, comprising:
a screen configured to present graphics to the user;
a camera system configured to view an environment in which the user is located;
a processing unit configured to determine a map based, at least in part, on output from the camera system, the map to localize the user with respect to the environment; a processing unit configured for use by
with
The processing unit of the device is also configured to obtain a metric indicative of the likelihood of success in locating the user using the map, the processing unit by calculating the metric , or configured to obtain said metric by receiving said metric,
the processing unit is configured to determine a score for images acquired from the camera system;
the processing unit is configured to perform data sanitization based on the score;
The apparatus of claim 1, wherein the processing unit is configured to deconstrain or remove the image when performing the data sanitization.
ユーザの頭部上に装着されるように構成される装置であって、
グラフィックを前記ユーザに提示するように構成される画面と、
前記ユーザが位置する環境を視認するように構成されるカメラシステムと、
前記カメラシステムからの出力に少なくとも部分的に基づいて、マップを決定するように構成される処理ユニットであって、前記マップは、前記環境に対して前記ユーザを位置特定するために、前記処理ユニットによる使用のために構成される、処理ユニットと
を備え、
前記装置の前記処理ユニットはまた、前記マップを使用して前記ユーザを位置特定することの成功の可能性を示すメトリックを取得するように構成され、前記処理ユニットは、前記メトリックを算出することによって、または前記メトリックを受信することによって、前記メトリックを取得するように構成され、
前記処理ユニットは、
複数のマップセグメントを決定することと、
前記マップセグメントを接続することと
によって、前記マップを決定するように構成される装置。
A device configured to be worn on a user's head, comprising:
a screen configured to present graphics to the user;
a camera system configured to view an environment in which the user is located;
a processing unit configured to determine a map based, at least in part, on output from the camera system, the map adapted to localize the user with respect to the environment; a processing unit configured for use by
with
The processing unit of the device is also configured to obtain a metric indicative of the likelihood of success in locating the user using the map, the processing unit by calculating the metric , or configured to obtain said metric by receiving said metric,
The processing unit is
determining a plurality of map segments;
An apparatus configured to determine said map by connecting said map segments.
前記処理ユニットは、画像を前記カメラシステムから取得し、前記画像をリンクさせることによって、前記マップセグメントの第1のマップセグメントを決定するように構成され、前記画像は、前記カメラシステムによってシーケンスにおいて生成される、請求項28に記載の装置。 The processing unit is configured to determine a first map segment of the map segments by obtaining images from the camera system and linking the images, the images generated in sequence by the camera system. 29. The apparatus of claim 28, wherein: 前記処理ユニットは、
付加的画像を前記カメラシステムから取得することと、
前記付加的画像に関するスコアを決定することと、
前記カメラシステムからの前記付加的画像のスコアが基準を満たすことに応答して、前記マップセグメントの第2のマップセグメントを開始することと
を行うように構成される、請求項29に記載の装置。
The processing unit is
acquiring additional images from the camera system;
determining a score for the additional image;
30. The apparatus of claim 29, configured to: initiate a second of the map segments in response to scores of the additional images from the camera system meeting criteria. .
前記処理ユニットは、前記スコアが、前記第1のマップセグメントに対する制約度を有する前記画像が閾値を下回ることを示すとき、前記第2のマップセグメントを開始するように構成される、請求項30に記載の装置。 31. The processing unit of claim 30, wherein the processing unit is configured to initiate the second map segment when the score indicates that the image with a degree of constraint on the first map segment is below a threshold. Apparatus as described. ユーザの頭部上に装着されるように構成される装置によって実施される方法であって、前記装置は、グラフィックを前記ユーザに提示するように構成される画面と、前記ユーザが位置する環境を視認するように構成されるカメラシステムと、処理ユニットとを有し、前記方法は、
前記処理ユニットによって、前記カメラシステムからの出力を取得することと、
前記処理ユニットによって前記カメラシステムからの出力に少なくとも部分的に基づいて、マップを決定することであって、前記マップは、前記環境に対して前記ユーザを位置特定するために、前記処理ユニットによる使用のために構成される、ことと、
前記処理ユニットによって、前記マップを使用して前記ユーザを位置特定することの成功の可能性を示すメトリックを取得することであって、前記取得する行為は、前記処理ユニットによって、前記メトリックを算出することまたは前記メトリックを受信することを含む、ことと
を含む、方法。
A method performed by a device configured to be worn on the head of a user, the device displaying a screen configured to present graphics to the user and an environment in which the user is located. Having a camera system configured to view and a processing unit, the method comprises:
obtaining, by the processing unit, an output from the camera system;
determining, by the processing unit, a map based at least in part on output from the camera system, the map being used by the processing unit to locate the user with respect to the environment; configured for use; and
Obtaining, by the processing unit, a metric indicative of the likelihood of success in locating the user using the map, the act of obtaining calculating, by the processing unit, the metric. or receiving said metric.
JP2021503757A 2018-07-24 2019-07-24 Method and Apparatus for Determining and/or Evaluating Localization Maps of Image Display Devices Active JP7309849B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023110450A JP2023126303A (en) 2018-07-24 2023-07-05 Method and apparatus for determining and/or evaluating localizing map of image display device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862702829P 2018-07-24 2018-07-24
US62/702,829 2018-07-24
PCT/US2019/043154 WO2020023582A1 (en) 2018-07-24 2019-07-24 Methods and apparatuses for determining and/or evaluating localizing maps of image display devices

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023110450A Division JP2023126303A (en) 2018-07-24 2023-07-05 Method and apparatus for determining and/or evaluating localizing map of image display device

Publications (3)

Publication Number Publication Date
JP2021530817A JP2021530817A (en) 2021-11-11
JPWO2020023582A5 true JPWO2020023582A5 (en) 2022-07-29
JP7309849B2 JP7309849B2 (en) 2023-07-18

Family

ID=69178530

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021503757A Active JP7309849B2 (en) 2018-07-24 2019-07-24 Method and Apparatus for Determining and/or Evaluating Localization Maps of Image Display Devices
JP2023110450A Pending JP2023126303A (en) 2018-07-24 2023-07-05 Method and apparatus for determining and/or evaluating localizing map of image display device

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023110450A Pending JP2023126303A (en) 2018-07-24 2023-07-05 Method and apparatus for determining and/or evaluating localizing map of image display device

Country Status (5)

Country Link
US (3) US11182614B2 (en)
EP (1) EP3827302A4 (en)
JP (2) JP7309849B2 (en)
CN (2) CN112639664B (en)
WO (1) WO2020023582A1 (en)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3339807B1 (en) * 2016-12-20 2024-03-13 HERE Global B.V. An apparatus and associated methods for determining the location of a vehicle
JP6484603B2 (en) * 2016-12-26 2019-03-13 新日鉄住金ソリューションズ株式会社 Information processing apparatus, system, information processing method, and program
CN112639664B (en) 2018-07-24 2023-03-24 奇跃公司 Method and device for determining and/or evaluating a positioning map of an image display device
WO2020036898A1 (en) 2018-08-13 2020-02-20 Magic Leap, Inc. A cross reality system
US11227435B2 (en) 2018-08-13 2022-01-18 Magic Leap, Inc. Cross reality system
EP3857291A4 (en) 2018-09-25 2021-11-24 Magic Leap, Inc. Systems and methods for augmented reality
WO2020072985A1 (en) 2018-10-05 2020-04-09 Magic Leap, Inc. Rendering location specific virtual content in any location
JP2022551735A (en) 2019-10-15 2022-12-13 マジック リープ, インコーポレイテッド Cross-reality system using wireless fingerprints
JP2022551733A (en) 2019-10-15 2022-12-13 マジック リープ, インコーポレイテッド Cross-reality system with localization service
WO2021076757A1 (en) 2019-10-15 2021-04-22 Magic Leap, Inc. Cross reality system supporting multiple device types
EP4052086A4 (en) * 2019-10-31 2023-11-15 Magic Leap, Inc. Cross reality system with quality information about persistent coordinate frames
EP4059007A4 (en) 2019-11-12 2023-11-01 Magic Leap, Inc. Cross reality system with localization service and shared location-based content
EP4062380A4 (en) * 2019-11-18 2023-11-29 Magic Leap, Inc. Mapping and localization of a passable world
WO2021118962A1 (en) 2019-12-09 2021-06-17 Magic Leap, Inc. Cross reality system with simplified programming of virtual content
USD952673S1 (en) 2019-12-09 2022-05-24 Magic Leap, Inc. Portion of a display screen with transitional graphical user interface for guiding graphics
US11830149B2 (en) 2020-02-13 2023-11-28 Magic Leap, Inc. Cross reality system with prioritization of geolocation information for localization
WO2021163300A1 (en) 2020-02-13 2021-08-19 Magic Leap, Inc. Cross reality system with map processing using multi-resolution frame descriptors
JP2023514205A (en) 2020-02-13 2023-04-05 マジック リープ, インコーポレイテッド Cross-reality system with accurate shared maps
CN115151947B (en) * 2020-02-20 2024-03-19 奇跃公司 Cross-reality system with WIFI/GPS-based map merging
EP4111425A4 (en) 2020-02-26 2024-03-13 Magic Leap Inc Cross reality system with fast localization
US11501489B2 (en) 2020-02-27 2022-11-15 Magic Leap, Inc. Cross reality system for large scale environment reconstruction
EP4115329A4 (en) 2020-03-03 2024-04-24 Magic Leap Inc Efficient localization based on multiple feature types
US11900547B2 (en) 2020-04-29 2024-02-13 Magic Leap, Inc. Cross reality system for large scale environments

Family Cites Families (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1040861A (en) 1909-01-13 1912-10-08 John Parkinson Bland Apparatus for preparing stereotype-matrices.
US1026246A (en) 1910-05-07 1912-05-14 Addressograph Co Printing device.
US6549203B2 (en) * 1999-03-12 2003-04-15 Terminal Reality, Inc. Lighting and shadowing methods and arrangements for use in computer graphic simulations
US20030169334A1 (en) * 2001-08-06 2003-09-11 Michael Braithwaite Iris capture device having expanded capture volume
US20050088435A1 (en) * 2003-10-23 2005-04-28 Z. Jason Geng Novel 3D ear camera for making custom-fit hearing devices for hearing aids instruments and cell phones
US7542034B2 (en) * 2004-09-23 2009-06-02 Conversion Works, Inc. System and method for processing video images
JP5403861B2 (en) 2006-11-06 2014-01-29 キヤノン株式会社 Information processing apparatus and information processing method
US20080167807A1 (en) * 2007-01-09 2008-07-10 Jien-Yang Chang Navigation system with immediate language transform and method thereof
US8065429B2 (en) * 2007-06-28 2011-11-22 Nokia Corporation System, apparatus and method for associating an anticipated success indication with data delivery
US8379021B1 (en) * 2008-01-30 2013-02-19 Adobe Systems Incorporated System and methods for rendering height-field images with hard and soft shadows
JP2009237846A (en) 2008-03-27 2009-10-15 Sony Corp Information processor, information processing method, and computer program
US20100026710A1 (en) * 2008-07-29 2010-02-04 Ati Technologies Ulc Integration of External Input Into an Application
US8504322B2 (en) 2008-12-01 2013-08-06 Agilent Technologies, Inc. Likelihood map system for localizing an emitter
US9098926B2 (en) * 2009-02-06 2015-08-04 The Hong Kong University Of Science And Technology Generating three-dimensional façade models from images
US9147206B2 (en) * 2009-08-31 2015-09-29 Accenture Global Services Limited Model optimization system using variable scoring
US8350758B1 (en) * 2009-10-01 2013-01-08 Lighthouse Signal Systems LLC Systems and methods for indoor geolocation based on yield of RF signals
US20150309316A1 (en) * 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
US20140063055A1 (en) * 2010-02-28 2014-03-06 Osterhout Group, Inc. Ar glasses specific user interface and control interface based on a connected external device type
US20130314303A1 (en) * 2010-02-28 2013-11-28 Osterhout Group, Inc. Ar glasses with user action control of and between internal and external applications with feedback
US9224050B2 (en) * 2010-03-16 2015-12-29 The University Of Sydney Vehicle localization in open-pit mining using GPS and monocular camera
KR101782057B1 (en) * 2010-05-03 2017-09-26 삼성전자주식회사 Apparatus for building map and method thereof
US20120306850A1 (en) * 2011-06-02 2012-12-06 Microsoft Corporation Distributed asynchronous localization and mapping for augmented reality
GB201116443D0 (en) * 2011-09-23 2011-11-02 Airbus Operations Ltd Installation optimisation
JP2013225245A (en) 2012-04-23 2013-10-31 Sony Corp Image processing device, image processing method, and program
GB2502622B (en) * 2012-06-01 2015-04-29 Sony Comp Entertainment Europe Apparatus and method of augmenting video
US20150193977A1 (en) * 2012-08-31 2015-07-09 Google Inc. Self-Describing Three-Dimensional (3D) Object Recognition and Control Descriptors for Augmented Reality Interfaces
ES2780575T3 (en) * 2013-01-21 2020-08-26 Vricon Systems Ab A procedure and arrangement for providing a 3d model
US9472017B2 (en) * 2013-01-29 2016-10-18 Siemens Aktiengesellschaft Fast rendering of curved reformation of a 3D tubular structure
AU2014248874B2 (en) 2013-03-11 2019-07-11 Magic Leap, Inc. System and method for augmented and virtual reality
US10262462B2 (en) * 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
US10533850B2 (en) 2013-07-12 2020-01-14 Magic Leap, Inc. Method and system for inserting recognized object data into a virtual world
KR102227059B1 (en) 2013-09-06 2021-03-15 쓰리엠 이노베이티브 프로퍼티즈 컴파니 Multilayer reflective polarizer
US9630105B2 (en) * 2013-09-30 2017-04-25 Sony Interactive Entertainment Inc. Camera based safety mechanisms for users of head mounted displays
CA2888943C (en) * 2013-10-03 2015-08-18 Sulon Technologies Inc. Augmented reality system and method for positioning and mapping
US20150145887A1 (en) * 2013-11-25 2015-05-28 Qualcomm Incorporated Persistent head-mounted content display
CN107300769B (en) 2013-11-27 2019-12-13 奇跃公司 Virtual and augmented reality systems and methods
WO2015165071A1 (en) * 2014-04-30 2015-11-05 Google Inc. Identifying entities to be investigated using storefront recognition
GB201409625D0 (en) * 2014-05-30 2014-07-16 Isis Innovation Vehicle localisation
CN106663411A (en) * 2014-11-16 2017-05-10 易欧耐特感知公司 Systems and methods for augmented reality preparation, processing, and application
CN104537709B (en) * 2014-12-15 2017-09-29 西北工业大学 It is a kind of that method is determined based on the real-time three-dimensional reconstruction key frame that pose changes
WO2016095983A1 (en) * 2014-12-17 2016-06-23 Here Global B.V. Providing constraint to a position
US9866815B2 (en) 2015-01-05 2018-01-09 Qualcomm Incorporated 3D object segmentation
US9984283B2 (en) * 2015-02-14 2018-05-29 The Trustees Of The University Of Pennsylvania Methods, systems, and computer readable media for automated detection of abnormalities in medical images
US10676303B2 (en) * 2015-04-30 2020-06-09 Krones Aktiengesellschaft Method and apparatus for supplying, staging and for replacing rolls with flat material and/or film material wound thereonto
US10332265B1 (en) * 2015-09-30 2019-06-25 Hrl Laboratories, Llc Robust recognition on degraded imagery by exploiting known image transformation under motion
EP3369034B1 (en) * 2015-10-26 2023-07-05 RealD Spark, LLC Intelligent privacy system, apparatus, and method thereof
US10415978B2 (en) * 2015-11-20 2019-09-17 Samsung Electronics Co., Ltd. Landmark location determination
DE102015120221A1 (en) * 2015-11-23 2017-05-24 Alfred Kärcher Gmbh & Co. Kg Floor cleaning system and method for cleaning a floor surface
JP6688088B2 (en) 2016-01-19 2020-04-28 キヤノン株式会社 Information processing apparatus and control method thereof
JPWO2017134886A1 (en) * 2016-02-02 2018-11-22 ソニー株式会社 Information processing apparatus, information processing method, and recording medium
EP3217361B1 (en) * 2016-03-11 2021-12-15 Imagination Technologies Limited Importance sampling for determining a light map
JP2017207818A (en) 2016-05-16 2017-11-24 キヤノン株式会社 Image processing apparatus, image processing method and program
US10037626B2 (en) * 2016-06-30 2018-07-31 Microsoft Technology Licensing, Llc Interaction with virtual objects based on determined restrictions
JP7054677B2 (en) 2016-08-10 2022-04-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Camera work generation method and video processing equipment
US10902158B2 (en) * 2017-11-16 2021-01-26 International Business Machines Corporation Daylight livability index from images
US10810754B2 (en) * 2018-04-24 2020-10-20 Ford Global Technologies, Llc Simultaneous localization and mapping constraints in generative adversarial networks for monocular depth estimation
US10455351B1 (en) * 2018-05-04 2019-10-22 Microsoft Technology Licensing, Llc Sharing geo-located information
US20190373413A1 (en) * 2018-06-01 2019-12-05 Apple Inc. Feature-based slam with z-axis location
CN112639664B (en) 2018-07-24 2023-03-24 奇跃公司 Method and device for determining and/or evaluating a positioning map of an image display device

Similar Documents

Publication Publication Date Title
JPWO2020023582A5 (en)
US11687151B2 (en) Methods and apparatuses for determining and/or evaluating localizing maps of image display devices
CN109561296B (en) Image processing apparatus, image processing method, image processing system, and storage medium
JP6503906B2 (en) Image processing apparatus, image processing method and image processing program
EP3113110B1 (en) Image processing device and image processing method
US20050058336A1 (en) Measuring the location of objects arranged on a surface, using multi-camera photogrammetry
EP3622481B1 (en) Method and system for calibrating a velocimetry system
EP2294555A1 (en) Three dimensional mesh modeling
WO2012081687A1 (en) Information processing apparatus, information processing method, and program
JP2018113021A5 (en)
CN111388092A (en) Positioning tracking piece, registration method, storage medium and electronic equipment
JP5494427B2 (en) Image processing program and image processing apparatus
JP4283816B2 (en) Three-dimensional environment information acquisition apparatus, three-dimensional environment information acquisition method, and recording medium storing a program realizing the method
CN108053481B (en) Method and device for generating three-dimensional point cloud normal vector and storage medium
JP3919722B2 (en) Skin shape measuring method and skin shape measuring apparatus
CN110796699B (en) Optimal view angle selection method and three-dimensional human skeleton detection method for multi-view camera system
JP5448952B2 (en) Same person determination device, same person determination method, and same person determination program
US20220292707A1 (en) Estimation device, learning device, control method and storage medium
JP2020201823A (en) Image processing device, image processing method, and program
JP6762108B2 (en) Target detection device, processing method, program
JP4830585B2 (en) Image processing apparatus and image processing method
CN111829489B (en) Visual positioning method and device
JP6306903B2 (en) Information processing apparatus, information processing apparatus control method, and program
JP6981340B2 (en) Display control programs, devices, and methods
JP2021152764A (en) Information processing device, information processing method, and program