JP7658977B2 - 仮想コンテンツの動的併置 - Google Patents
仮想コンテンツの動的併置 Download PDFInfo
- Publication number
- JP7658977B2 JP7658977B2 JP2022548434A JP2022548434A JP7658977B2 JP 7658977 B2 JP7658977 B2 JP 7658977B2 JP 2022548434 A JP2022548434 A JP 2022548434A JP 2022548434 A JP2022548434 A JP 2022548434A JP 7658977 B2 JP7658977 B2 JP 7658977B2
- Authority
- JP
- Japan
- Prior art keywords
- coordinate data
- persistent coordinate
- persistent
- mounted device
- head
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0081—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. enlarging, the entrance or exit pupil
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Optics & Photonics (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- Pure & Applied Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Human Computer Interaction (AREA)
- Computing Systems (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Description
本願は、その内容が参照することによってその全体として本明細書に組み込まれる、2020年2月10日に出願された、米国仮出願第62/972,541号の利益を主張する。
本発明は、例えば、以下の項目を提供する。
(項目1)
システムであって、
ディスプレイおよび1つまたはそれを上回るセンサを有する頭部装着型デバイスと、
1つまたはそれを上回るプロセッサであって、
第1の持続座標データ、第2の持続座標データ、および関係データを受信することと、
前記1つまたはそれを上回るセンサを介して受信された入力に基づいて、第3の持続座標データおよび第4の持続座標データを決定することと、
前記第1の持続座標データが前記第3の持続座標データに対応するかどうかを決定することと、
前記第1の持続座標データが前記第3の持続座標データに対応することの決定に従って、
前記第2の持続座標データが前記第4の持続座標データに対応するかどうかを決定することと、
前記第2の持続座標データが前記第4の持続座標データに対応することの決定に従って、
前記頭部装着型デバイスのディスプレイを介して、前記関係データおよび前記第2の持続座標データを使用して、仮想オブジェクトを表示することと、
前記第2の持続座標データが前記第4の持続座標データに対応しないことの決定に従って、
前記頭部装着型デバイスのディスプレイを介して、前記関係データおよび前記第1の持続座標データを使用して、前記仮想オブジェクトを表示することと、
前記第1の持続座標データが前記第3の持続座標データに対応しないことの決定に従って、
前記頭部装着型デバイスのディスプレイを介して、前記仮想オブジェクトを表示しないようにすることと
を含む方法を実行するように構成される、1つまたはそれを上回るプロセッサと
を備える、システム。
(項目2)
前記第1の持続座標データは、第1の場所に対応し、前記第2の持続座標データは、第2の場所に対応し、前記第2の場所は、前記第1の場所より前記頭部装着型デバイスの場所に近い、項目1に記載のシステム。
(項目3)
前記頭部装着型デバイスは、第1の頭部装着型デバイスであり、前記第1の持続座標データは、第2の頭部装着型デバイスから受信される、項目1に記載のシステム。
(項目4)
前記頭部装着型デバイスは、第1の頭部装着型デバイスであり、前記関係データは、第2の頭部装着型デバイスから受信される、項目1に記載のシステム。
(項目5)
前記方法はさらに、前記仮想オブジェクトに対応するデータを受信することを含む、項目1に記載のシステム。
(項目6)
前記第3の持続座標データは、前記頭部装着型デバイスの現在の場所に対応する、項目1に記載のシステム。
(項目7)
前記関係データは、変換行列を備える、項目1に記載のシステム。
(項目8)
方法であって、
第1の持続座標データ、第2の持続座標データ、および関係データを受信することと、
頭部装着型デバイスの1つまたはそれを上回るセンサを介して受信された入力に基づいて、第3の持続座標データおよび第4の持続座標データを決定することと、
前記第1の持続座標データが前記第3の持続座標データに対応するかどうかを決定することと、
前記第1の持続座標データが前記第3の持続座標データに対応することの決定に従って、
前記第2の持続座標データが前記第4の持続座標データに対応するかどうかを決定することと、
前記第2の持続座標データが前記第4の持続座標データに対応することの決定に従って、
前記頭部装着型デバイスのディスプレイを介して、前記関係データおよび前記第2の持続座標データを使用して、仮想オブジェクトを表示することと、
前記第2の持続座標データが前記第4の持続座標データに対応しないことの決定に従って、
前記頭部装着型デバイスのディスプレイを介して、前記関係データおよび前記第1の持続座標データを使用して、前記仮想オブジェクトを表示することと、
前記第1の持続座標データが前記第3の持続座標データに対応しないことの決定に従って、
前記頭部装着型デバイスのディスプレイを介して、前記仮想オブジェクトを表示しないようにすることと
を含む、方法。
(項目9)
前記第1の持続座標データは、第1の場所に対応し、前記第2の持続座標データは、第2の場所に対応し、前記第2の場所は、前記第1の場所より前記頭部装着型デバイスの場所に近い、項目8に記載の方法。
(項目10)
前記頭部装着型デバイスは、第1の頭部装着型デバイスであり、前記第1の持続座標データは、第2の頭部装着型デバイスから受信される、項目8に記載の方法。
(項目11)
前記頭部装着型デバイスは、第1の頭部装着型デバイスであり、前記関係データは、第2の頭部装着型デバイスから受信される、項目8に記載の方法。
(項目12)
前記仮想オブジェクトに対応するデータを受信することをさらに含む、項目8に記載の方法。
(項目13)
前記第3の持続座標データは、前記頭部装着型デバイスの現在の場所に対応する、項目8に記載の方法。
(項目14)
前記関係データは、変換行列を備える、項目8に記載の方法。
(項目15)
非一過性コンピュータ可読媒体であって、前記非一過性コンピュータ可読媒体は、命令を記憶しており、前記命令は、1つまたはそれを上回るプロセッサによって実行されると、前記1つまたはそれを上回るプロセッサに、
第1の持続座標データ、第2の持続座標データ、および関係データを受信することと、
頭部装着型デバイスの1つまたはそれを上回るセンサを介して受信された入力に基づいて、第3の持続座標データおよび第4の持続座標データを決定することと、
前記第1の持続座標データが第3の持続座標データに対応するかどうかを決定することと、
前記第1の持続座標データが前記第3の持続座標データに対応することの決定に従って、
前記第2の持続座標データが前記第4の持続座標データに対応するかどうかを決定することと、
前記第2の持続座標データが前記第4の持続座標データに対応することの決定に従って、
前記頭部装着型デバイスのディスプレイを介して、前記関係データおよび前記第2の持続座標データを使用して、仮想オブジェクトを表示することと、
前記第2の持続座標データが前記第4の持続座標データに対応しないことの決定に従って、
前記頭部装着型デバイスのディスプレイを介して、前記関係データおよび前記第1の持続座標データを使用して、仮想オブジェクトを表示することと、
前記第1の持続座標データが前記第3の持続座標データに対応しないことの決定に従って、
前記頭部装着型デバイスのディスプレイを介して、前記仮想オブジェクトを表示しないようにすることと
を含む方法を実行させる、非一過性コンピュータ可読媒体。
(項目16)
前記第1の持続座標データは、第1の場所に対応し、前記第2の持続座標データは、第2の場所に対応し、前記第2の場所は、前記第1の場所より前記頭部装着型デバイスの場所に近い、項目15に記載の非一過性コンピュータ可読媒体。
(項目17)
前記頭部装着型デバイスは、第1の頭部装着型デバイスであり、前記第1の持続座標データは、第2の頭部装着型デバイスから受信される、項目15に記載の非一過性コンピュータ可読媒体。
(項目18)
前記頭部装着型デバイスは、第1の頭部装着型デバイスであり、前記関係データは、第2の頭部装着型デバイスから受信される、項目15に記載の非一過性コンピュータ可読媒体。
(項目19)
前記方法はさらに、前記仮想オブジェクトに対応するデータを受信することを含む、項目15に記載の非一過性コンピュータ可読媒体。
(項目20)
前記第3の持続座標データは、前記頭部装着型デバイスの現在の場所に対応する、項目15に記載の非一過性コンピュータ可読媒体。
(項目21)
前記関係データは、変換行列を備える、項目15に記載の非一過性コンピュータ可読媒体。
(項目22)
システムであって、
ディスプレイおよび1つまたはそれを上回るセンサを有する頭部装着型デバイスと、
1つまたはそれを上回るプロセッサであって、
第1の持続座標データを受信することと、
関係データを受信することであって、前記関係データは、位置を前記第1の持続座標データに関連させる、ことと、
前記1つまたはそれを上回るセンサを介して受信された入力に基づいて、第2の持続座標データを決定することと、
前記第1の持続座標データが前記第2の持続座標データに対応するかどうかを決定することと、
前記第1の持続座標データが前記第2の持続座標データに対応することの決定に従って、前記頭部装着型デバイスのディスプレイを介して、前記第1の持続座標データに基づいて、および前記関係データに基づいて、仮想オブジェクトを表示することと、
前記第1の持続座標データが前記第2の持続座標データに対応しないことの決定に従って、前記頭部装着型デバイスのディスプレイを介して、前記仮想オブジェクトを表示しないようにすることと
を含む方法を実行するように構成される、1つまたはそれを上回るプロセッサと
を備える、システム。
(項目23)
前記頭部装着型デバイスは、第1の頭部装着型デバイスであり、前記方法はさらに、前記第2の持続座標データを第2の頭部装着型デバイスに伝送することを含む、項目22に記載のシステム。
(項目24)
前記頭部装着型デバイスは、第1の頭部装着型デバイスであり、前記第1の持続座標データは、第2の頭部装着型デバイスから受信される、項目22に記載のシステム。
(項目25)
前記頭部装着型デバイスは、第1の頭部装着型デバイスであり、前記関係データは、第2の頭部装着型デバイスから受信される、項目22に記載のシステム。
(項目26)
前記方法はさらに、前記仮想オブジェクトに対応するデータを受信することを含む、項目22に記載のシステム。
(項目27)
前記第2の持続座標データは、前記頭部装着型デバイスの現在の場所に対応する、項目22に記載のシステム。
(項目28)
前記関係データは、変換行列を備える、項目22に記載のシステム。
実施例の以下の説明では、本明細書の一部を形成し、例証として、実践され得る具体的実施例が示される、付随の図面を参照する。他の実施例も、使用されることができ、構造変更が、開示される実施例の範囲から逸脱することなく、行われることができることを理解されたい。
Claims (20)
- システムであって、
ディスプレイおよび1つ以上のセンサを有する第1の頭部装着型デバイスと、
1つ以上のプロセッサであって、
第1の持続座標データ、第2の持続座標データ、および関係データを第2の頭部装着型デバイスから受信することであって、前記第1の持続座標データおよび前記第2の持続座標データは、前記第2の頭部装着型デバイスの位置に関連する、ことと、
前記1つ以上のセンサを介して受信された入力に基づいて、第3の持続座標データおよび第4の持続座標データを決定することであって、前記第3の持続座標データおよび前記第4の持続座標データは、前記第1の頭部装着型デバイスの位置に関連する、ことと、
前記第1の持続座標データが前記第3の持続座標データに対応するかどうかを決定することと、
前記第1の持続座標データが前記第3の持続座標データに対応することの決定に従って、
前記第2の持続座標データが前記第4の持続座標データに対応するかどうかを決定することと、
前記第2の持続座標データが前記第4の持続座標データに対応することの決定に従って、
前記第1の頭部装着型デバイスの前記ディスプレイを介して、前記関係データおよび前記第2の持続座標データを使用して、仮想オブジェクトを表示することと、
前記第2の持続座標データが前記第4の持続座標データに対応しないことの決定に従って、
前記第1の頭部装着型デバイスの前記ディスプレイを介して、前記関係データおよび前記第1の持続座標データを使用して、前記仮想オブジェクトを表示することと、
前記第1の持続座標データが前記第3の持続座標データに対応しないことの決定に従って、
前記第1の頭部装着型デバイスの前記ディスプレイを介して、前記仮想オブジェクトを表示しないようにすることと
を含む方法を実行するように構成される、1つ以上のプロセッサと
を備える、システム。 - 前記第1の持続座標データは、第1の場所に対応し、前記第2の持続座標データは、第2の場所に対応し、前記第2の場所は、前記第1の場所より前記第1の頭部装着型デバイスの場所に近い、請求項1に記載のシステム。
- 前記方法はさらに、前記仮想オブジェクトに対応するデータを受信することを含む、請求項1に記載のシステム。
- 前記第3の持続座標データは、前記第1の頭部装着型デバイスの現在の場所に対応する、請求項1に記載のシステム。
- 前記関係データは、変換行列を備える、請求項1に記載のシステム。
- 方法であって、
第1の持続座標データ、第2の持続座標データ、および関係データを第2の頭部装着型デバイスから受信することであって、前記第1の持続座標データおよび前記第2の持続座標データは、前記第2の頭部装着型デバイスの位置に関連する、ことと、
第1の頭部装着型デバイスの1つ以上のセンサを介して受信された入力に基づいて、第3の持続座標データおよび第4の持続座標データを決定することであって、前記第3の持続座標データおよび前記第4の持続座標データは、前記第1の頭部装着型デバイスの位置に関連する、ことと、
前記第1の持続座標データが前記第3の持続座標データに対応するかどうかを決定することと、
前記第1の持続座標データが前記第3の持続座標データに対応することの決定に従って、
前記第2の持続座標データが前記第4の持続座標データに対応するかどうかを決定することと、
前記第2の持続座標データが前記第4の持続座標データに対応することの決定に従って、
前記第1の頭部装着型デバイスのディスプレイを介して、前記関係データおよび前記第2の持続座標データを使用して、仮想オブジェクトを表示することと、
前記第2の持続座標データが前記第4の持続座標データに対応しないことの決定に従って、
前記第1の頭部装着型デバイスの前記ディスプレイを介して、前記関係データおよび前記第1の持続座標データを使用して、前記仮想オブジェクトを表示することと、
前記第1の持続座標データが前記第3の持続座標データに対応しないことの決定に従って、
前記第1の頭部装着型デバイスの前記ディスプレイを介して、前記仮想オブジェクトを表示しないようにすることと
を含む、方法。 - 前記第1の持続座標データは、第1の場所に対応し、前記第2の持続座標データは、第2の場所に対応し、前記第2の場所は、前記第1の場所より前記第1の頭部装着型デバイスの場所に近い、請求項6に記載の方法。
- 前記仮想オブジェクトに対応するデータを受信することをさらに含む、請求項6に記載の方法。
- 前記第3の持続座標データは、前記第1の頭部装着型デバイスの現在の場所に対応する、請求項6に記載の方法。
- 前記関係データは、変換行列を備える、請求項6に記載の方法。
- 非一過性コンピュータ可読媒体であって、前記非一過性コンピュータ可読媒体は、命令を記憶しており、前記命令は、1つ以上のプロセッサによって実行されると、前記1つ以上のプロセッサに、
第1の持続座標データ、第2の持続座標データ、および関係データを第2の頭部装着型デバイスから受信することであって、前記第1の持続座標データおよび前記第2の持続座標データは、前記第2の頭部装着型デバイスの位置に関連する、ことと、
第1の頭部装着型デバイスの1つ以上のセンサを介して受信された入力に基づいて、第3の持続座標データおよび第4の持続座標データを決定することであって、前記第3の持続座標データおよび前記第4の持続座標データは、前記第1の頭部装着型デバイスの位置に関連する、ことと、
前記第1の持続座標データが第3の持続座標データに対応するかどうかを決定することと、
前記第1の持続座標データが前記第3の持続座標データに対応することの決定に従って、
前記第2の持続座標データが前記第4の持続座標データに対応するかどうかを決定することと、
前記第2の持続座標データが前記第4の持続座標データに対応することの決定に従って、
前記第1の頭部装着型デバイスのディスプレイを介して、前記関係データおよび前記第2の持続座標データを使用して、仮想オブジェクトを表示することと、
前記第2の持続座標データが前記第4の持続座標データに対応しないことの決定に従って、
前記第1の頭部装着型デバイスの前記ディスプレイを介して、前記関係データおよび前記第1の持続座標データを使用して、仮想オブジェクトを表示することと、
前記第1の持続座標データが前記第3の持続座標データに対応しないことの決定に従って、
前記第1の頭部装着型デバイスの前記ディスプレイを介して、前記仮想オブジェクトを表示しないようにすることと
を含む方法を実行させる、非一過性コンピュータ可読媒体。 - 前記第1の持続座標データは、第1の場所に対応し、前記第2の持続座標データは、第2の場所に対応し、前記第2の場所は、前記第1の場所より前記第1の頭部装着型デバイスの場所に近い、請求項11に記載の非一過性コンピュータ可読媒体。
- 前記方法はさらに、前記仮想オブジェクトに対応するデータを受信することを含む、請求項11に記載の非一過性コンピュータ可読媒体。
- 前記第3の持続座標データは、前記第1の頭部装着型デバイスの現在の場所に対応する、請求項11に記載の非一過性コンピュータ可読媒体。
- 前記関係データは、変換行列を備える、請求項11に記載の非一過性コンピュータ可読媒体。
- システムであって、
ディスプレイおよび1つ以上のセンサを有する第1の頭部装着型デバイスと、
1つ以上のプロセッサであって、
第1の持続座標データを第2の頭部装着型デバイスから受信することであって、前記第1の持続座標データは、前記第2の頭部装着型デバイスの位置に関連する、ことと、
関係データを前記第2の頭部装着型デバイスから受信することであって、前記関係データは、仮想オブジェクトの位置を前記第1の持続座標データに関連させる、ことと、
前記1つ以上のセンサを介して受信された入力に基づいて、第2の持続座標データを決定することであって、前記第2の持続座標データは、前記第1の頭部装着型デバイスの現在の位置に関連する、ことと、
前記第1の持続座標データが前記第2の持続座標データに対応するかどうかを決定することと、
前記第1の持続座標データが前記第2の持続座標データに対応することの決定に従って、前記第1の頭部装着型デバイスの前記ディスプレイを介して、前記第1の持続座標データに基づいて、および前記関係データに基づいて、前記仮想オブジェクトを表示することと、
前記第1の持続座標データが前記第2の持続座標データに対応しないことの決定に従って、前記第1の頭部装着型デバイスの前記ディスプレイを介して、前記仮想オブジェクトを表示しないようにすることと
を含む方法を実行するように構成される、1つ以上のプロセッサと
を備える、システム。 - 前記方法はさらに、前記第2の持続座標データを第2の頭部装着型デバイスに伝送することを含む、請求項16に記載のシステム。
- 前記方法はさらに、前記仮想オブジェクトに対応するデータを受信することを含む、請求項16に記載のシステム。
- 前記第2の持続座標データは、前記第1の頭部装着型デバイスの現在の場所に対応する、請求項16に記載のシステム。
- 前記関係データは、変換行列を備える、請求項16に記載のシステム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2025021666A JP2025067980A (ja) | 2020-02-10 | 2025-02-13 | 仮想コンテンツの動的併置 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202062972541P | 2020-02-10 | 2020-02-10 | |
US62/972,541 | 2020-02-10 | ||
PCT/US2021/017508 WO2021163224A1 (en) | 2020-02-10 | 2021-02-10 | Dynamic colocation of virtual content |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2025021666A Division JP2025067980A (ja) | 2020-02-10 | 2025-02-13 | 仮想コンテンツの動的併置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023513250A JP2023513250A (ja) | 2023-03-30 |
JP7658977B2 true JP7658977B2 (ja) | 2025-04-08 |
Family
ID=77176861
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022548434A Active JP7658977B2 (ja) | 2020-02-10 | 2021-02-10 | 仮想コンテンツの動的併置 |
JP2025021666A Pending JP2025067980A (ja) | 2020-02-10 | 2025-02-13 | 仮想コンテンツの動的併置 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2025021666A Pending JP2025067980A (ja) | 2020-02-10 | 2025-02-13 | 仮想コンテンツの動的併置 |
Country Status (5)
Country | Link |
---|---|
US (3) | US11335070B2 (ja) |
EP (1) | EP4104165A4 (ja) |
JP (2) | JP7658977B2 (ja) |
CN (1) | CN115699157A (ja) |
WO (1) | WO2021163224A1 (ja) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10977858B2 (en) | 2017-03-30 | 2021-04-13 | Magic Leap, Inc. | Centralized rendering |
JP7499749B2 (ja) | 2018-07-24 | 2024-06-14 | マジック リープ, インコーポレイテッド | アプリケーション共有 |
JP7658977B2 (ja) | 2020-02-10 | 2025-04-08 | マジック リープ, インコーポレイテッド | 仮想コンテンツの動的併置 |
CN117827004A (zh) | 2020-02-14 | 2024-04-05 | 奇跃公司 | 会话管理器 |
CN115398316B (zh) | 2020-02-14 | 2025-08-26 | 奇跃公司 | 3d对象注释 |
JP2023514573A (ja) | 2020-02-14 | 2023-04-06 | マジック リープ, インコーポレイテッド | ツールブリッジ |
US11360733B2 (en) * | 2020-09-10 | 2022-06-14 | Snap Inc. | Colocated shared augmented reality without shared backend |
US11587255B1 (en) | 2020-09-25 | 2023-02-21 | Snap Inc. | Collaborative augmented reality eyewear with ego motion alignment |
US11568616B1 (en) * | 2021-11-29 | 2023-01-31 | Varjo Technologies Oy | Display apparatuses and methods for facilitating location-based virtual content |
US12130998B1 (en) * | 2022-01-20 | 2024-10-29 | Apple Inc. | Application content management in 3D environments |
US12198278B2 (en) * | 2022-04-08 | 2025-01-14 | Quabbin Patent Holdings, Inc. | Manifesting a virtual object in a virtual environment |
US12284698B2 (en) | 2022-07-20 | 2025-04-22 | Snap Inc. | Secure peer-to-peer connections between mobile devices |
US12236512B2 (en) | 2022-08-23 | 2025-02-25 | Snap Inc. | Avatar call on an eyewear device |
US12229901B2 (en) | 2022-10-05 | 2025-02-18 | Snap Inc. | External screen streaming for an eyewear device |
CN117036460A (zh) * | 2023-04-18 | 2023-11-10 | 北京字跳网络技术有限公司 | 空间内物体的标定方法、装置、设备、介质和程序 |
US12353783B2 (en) | 2023-08-24 | 2025-07-08 | Snap Inc. | Time synchronization for shared extended reality experiences |
CN119225536A (zh) * | 2024-10-08 | 2024-12-31 | 广州火点数字科技有限公司 | 混合现实多人交互大空间定位、对齐、协同系统及方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014514652A (ja) | 2011-03-29 | 2014-06-19 | クアルコム,インコーポレイテッド | 骨格追跡を使用した物理的表面上への仮想投影上での選択的な手のオクルージョン |
JP2017199238A (ja) | 2016-04-28 | 2017-11-02 | 株式会社カプコン | 仮想空間表示システム |
CN108008820A (zh) | 2017-12-14 | 2018-05-08 | 深圳位形空间科技有限公司 | 重定向行走方法、重定向行走服务器及重定向行走系统 |
US20200042792A1 (en) | 2017-03-02 | 2020-02-06 | Nokia Technologies Oy | Audio processing |
Family Cites Families (109)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4852988A (en) | 1988-09-12 | 1989-08-01 | Applied Science Laboratories | Visor and camera providing a parallax-free field-of-view image for a head-mounted eye movement measurement system |
US6847336B1 (en) | 1996-10-02 | 2005-01-25 | Jerome H. Lemelson | Selectively controllable heads-up display system |
US6130670A (en) | 1997-02-20 | 2000-10-10 | Netscape Communications Corporation | Method and apparatus for providing simple generalized conservative visibility |
US6456285B2 (en) | 1998-05-06 | 2002-09-24 | Microsoft Corporation | Occlusion culling for complex transparent scenes in computer generated graphics |
US6771264B1 (en) | 1998-08-20 | 2004-08-03 | Apple Computer, Inc. | Method and apparatus for performing tangent space lighting and bump mapping in a deferred shading graphics processor |
US6433760B1 (en) | 1999-01-14 | 2002-08-13 | University Of Central Florida | Head mounted display with eyetracking capability |
US9811237B2 (en) | 1999-04-06 | 2017-11-07 | Iii Holdings 2, Llc | Visual navigation of virtual environments through logical processes |
US6491391B1 (en) | 1999-07-02 | 2002-12-10 | E-Vision Llc | System, apparatus, and method for reducing birefringence |
CA2316473A1 (en) | 1999-07-28 | 2001-01-28 | Steve Mann | Covert headworn information display or data display or viewfinder |
US7050955B1 (en) | 1999-10-01 | 2006-05-23 | Immersion Corporation | System, method and data structure for simulated interaction with graphical objects |
GB2389293B (en) | 2000-12-06 | 2004-10-13 | Sun Microsystems Inc | Using ancillary geometry for visibility determination |
CA2348135A1 (en) * | 2001-05-17 | 2002-11-17 | Cedara Software Corp. | 3-d navigation for x-ray imaging system |
CA2362895A1 (en) | 2001-06-26 | 2002-12-26 | Steve Mann | Smart sunglasses or computer information display built into eyewear having ordinary appearance, possibly with sight license |
DE10132872B4 (de) | 2001-07-06 | 2018-10-11 | Volkswagen Ag | Kopfmontiertes optisches Durchsichtssystem |
US20030030597A1 (en) | 2001-08-13 | 2003-02-13 | Geist Richard Edwin | Virtual display apparatus for mobile activities |
US7064766B2 (en) | 2001-10-18 | 2006-06-20 | Microsoft Corporation | Intelligent caching data structure for immediate mode graphics |
US7443401B2 (en) | 2001-10-18 | 2008-10-28 | Microsoft Corporation | Multiple-level graphics processing with animation interval generation |
AU2003239385A1 (en) | 2002-05-10 | 2003-11-11 | Richard R. Reisman | Method and apparatus for browsing using multiple coordinated device |
CA2388766A1 (en) | 2002-06-17 | 2003-12-17 | Steve Mann | Eyeglass frames based computer display or eyeglasses with operationally, actually, or computationally, transparent frames |
US6943754B2 (en) | 2002-09-27 | 2005-09-13 | The Boeing Company | Gaze tracking system, eye-tracking assembly and an associated method of calibration |
JP2004199496A (ja) * | 2002-12-19 | 2004-07-15 | Sony Corp | 情報処理装置および方法、並びにプログラム |
US7347551B2 (en) | 2003-02-13 | 2008-03-25 | Fergason Patent Properties, Llc | Optical system for monitoring eye movement |
US7088374B2 (en) | 2003-03-27 | 2006-08-08 | Microsoft Corporation | System and method for managing visual structure, timing, and animation in a graphics processing system |
US7500747B2 (en) | 2003-10-09 | 2009-03-10 | Ipventure, Inc. | Eyeglasses with electrical components |
US8434027B2 (en) | 2003-12-15 | 2013-04-30 | Quantum Matrix Holdings, Llc | System and method for multi-dimensional organization, management, and manipulation of remote data |
US7290216B1 (en) | 2004-01-22 | 2007-10-30 | Sun Microsystems, Inc. | Method and apparatus for implementing a scene-graph-aware user interface manager |
US7800614B2 (en) | 2004-02-17 | 2010-09-21 | Oracle America, Inc. | Efficient communication in a client-server scene graph system |
CN1960670B (zh) | 2004-04-01 | 2011-02-23 | 威廉·C·托奇 | 用于监控眼睛运动的生物传感器、通信器、和控制器及其使用方法 |
US7450130B2 (en) | 2005-09-14 | 2008-11-11 | Microsoft Corporation | Adaptive scheduling to maintain smooth frame rate |
US8696113B2 (en) | 2005-10-07 | 2014-04-15 | Percept Technologies Inc. | Enhanced optical and perceptual digital eyewear |
US20070081123A1 (en) | 2005-10-07 | 2007-04-12 | Lewis Scott W | Digital eyewear |
US8275031B2 (en) | 2005-12-15 | 2012-09-25 | Broadcom Corporation | System and method for analyzing multiple display data rates in a video system |
US8244051B2 (en) | 2006-03-15 | 2012-08-14 | Microsoft Corporation | Efficient encoding of alternative graphic sets |
US7911950B2 (en) | 2006-07-03 | 2011-03-22 | Cisco Technology, Inc. | Adapter and method to support long distances on existing fiber |
US20080122838A1 (en) | 2006-09-27 | 2008-05-29 | Russell Dean Hoover | Methods and Systems for Referencing a Primitive Located in a Spatial Index and in a Scene Index |
US20130073978A1 (en) | 2011-09-16 | 2013-03-21 | Social Communications Company | Capabilities based management of virtual areas |
US20090278852A1 (en) | 2008-05-09 | 2009-11-12 | Production Resource Group L.L.C | Control of 3D objects in a light displaying device |
US8368705B2 (en) | 2008-07-16 | 2013-02-05 | Google Inc. | Web-based graphics rendering system |
US8253730B1 (en) | 2008-08-29 | 2012-08-28 | Adobe Systems Incorporated | System and method for construction of data structures for ray tracing using bounding hierarchies |
WO2010035141A2 (en) | 2008-09-24 | 2010-04-01 | Erwan Maigret | Method and system for rendering or interactive lighting of a complex three dimensional scene |
US8441496B1 (en) | 2008-09-30 | 2013-05-14 | Adobe Systems Incorporated | Method and system for modifying and rendering scenes via display lists |
US20110213664A1 (en) | 2010-02-28 | 2011-09-01 | Osterhout Group, Inc. | Local advertising content on an interactive head-mounted eyepiece |
US8890946B2 (en) | 2010-03-01 | 2014-11-18 | Eyefluence, Inc. | Systems and methods for spatially controlled scene illumination |
JP5764556B2 (ja) | 2010-06-15 | 2015-08-19 | 株式会社Adeka | 内燃機関用潤滑油組成物 |
US8531355B2 (en) | 2010-07-23 | 2013-09-10 | Gregory A. Maltz | Unitized, vision-controlled, wireless eyeglass transceiver |
US8860760B2 (en) | 2010-09-25 | 2014-10-14 | Teledyne Scientific & Imaging, Llc | Augmented reality (AR) system and method for tracking parts and visually cueing a user to identify and locate parts in a scene |
US9292973B2 (en) | 2010-11-08 | 2016-03-22 | Microsoft Technology Licensing, Llc | Automatic variable virtual focus for augmented reality displays |
FR2974474B1 (fr) | 2011-04-19 | 2017-11-17 | Prologue | Procedes et appareils de production et de traitement de representations de scenes multimedias |
US20130127849A1 (en) | 2011-05-26 | 2013-05-23 | Sebastian Marketsmueller | Common Rendering Framework and Common Event Model for Video, 2D, and 3D Content |
US9323325B2 (en) | 2011-08-30 | 2016-04-26 | Microsoft Technology Licensing, Llc | Enhancing an object of interest in a see-through, mixed reality display device |
US20130077147A1 (en) | 2011-09-22 | 2013-03-28 | Los Alamos National Security, Llc | Method for producing a partially coherent beam with fast pattern update rates |
US8929589B2 (en) | 2011-11-07 | 2015-01-06 | Eyefluence, Inc. | Systems and methods for high-resolution gaze tracking |
US8611015B2 (en) | 2011-11-22 | 2013-12-17 | Google Inc. | User interface |
US8235529B1 (en) | 2011-11-30 | 2012-08-07 | Google Inc. | Unlocking a screen using eye tracking information |
US10013053B2 (en) | 2012-01-04 | 2018-07-03 | Tobii Ab | System for gaze interaction |
US8638498B2 (en) | 2012-01-04 | 2014-01-28 | David D. Bohn | Eyebox adjustment for interpupillary distance |
US9274338B2 (en) | 2012-03-21 | 2016-03-01 | Microsoft Technology Licensing, Llc | Increasing field of view of reflective waveguide |
US20150199788A1 (en) | 2012-04-12 | 2015-07-16 | Google Inc. | Accelerating graphical rendering through legacy graphics compilation |
US9122321B2 (en) | 2012-05-04 | 2015-09-01 | Microsoft Technology Licensing, Llc | Collaboration environment using see through displays |
US9873045B2 (en) | 2012-05-25 | 2018-01-23 | Electronic Arts, Inc. | Systems and methods for a unified game experience |
US8989535B2 (en) | 2012-06-04 | 2015-03-24 | Microsoft Technology Licensing, Llc | Multiple waveguide imaging structure |
US9069554B2 (en) | 2012-09-24 | 2015-06-30 | Qualcomm Innovation Center, Inc. | Systems and methods to coordinate resource usage in tightly sandboxed environments |
CN103023872B (zh) | 2012-11-16 | 2016-01-06 | 杭州顺网科技股份有限公司 | 一种云游戏服务平台 |
KR102205374B1 (ko) | 2012-12-06 | 2021-01-21 | 아이플루언스, 인크. | 아이 트래킹 웨어러블 디바이스들 및 사용을 위한 방법들 |
CA2896985A1 (en) | 2013-01-03 | 2014-07-10 | Meta Company | Extramissive spatial imaging digital eye glass for virtual or augmediated vision |
US20140195918A1 (en) | 2013-01-07 | 2014-07-10 | Steven Friedlander | Eye tracking user interface |
US9230294B2 (en) | 2013-03-15 | 2016-01-05 | Dreamworks Animation Llc | Preserving and reusing intermediate data |
US20140267234A1 (en) * | 2013-03-15 | 2014-09-18 | Anselm Hook | Generation and Sharing Coordinate System Between Users on Mobile |
EP3995952A1 (en) | 2013-04-19 | 2022-05-11 | Huawei Technologies Co., Ltd. | Method for displaying a 3d scene graph on a screen |
CA2913218C (en) * | 2013-05-24 | 2022-09-27 | Awe Company Limited | Systems and methods for a shared mixed reality experience |
US9799127B2 (en) | 2014-03-03 | 2017-10-24 | Deep Node, Inc. | Displaying a live stream of events using a dynamically-constructed three-dimensional data tree |
US11570114B2 (en) | 2014-03-04 | 2023-01-31 | Mobophiles, Inc. | System and method of adaptive rate control and traffic management |
US10572215B1 (en) | 2014-03-31 | 2020-02-25 | Amazon Technologies, Inc. | Extendable architecture for augmented reality system |
US9519481B2 (en) | 2014-06-27 | 2016-12-13 | International Business Machines Corporation | Branch synthetic generation across multiple microarchitecture generations |
AU2014403813A1 (en) | 2014-08-20 | 2017-02-02 | Landmark Graphics Corporation | Optimizing computer hardware resource utilization when processing variable precision data |
WO2016029349A1 (en) | 2014-08-26 | 2016-03-03 | Honeywell International Inc. | Annotating three-dimensional displays |
KR102244619B1 (ko) | 2014-09-30 | 2021-04-26 | 삼성전자 주식회사 | 가속 구조를 생성 및 탐색하는 방법 |
US10062354B2 (en) | 2014-10-10 | 2018-08-28 | DimensionalMechanics, Inc. | System and methods for creating virtual environments |
US10810797B2 (en) | 2015-05-22 | 2020-10-20 | Otoy, Inc | Augmenting AR/VR displays with image projections |
EP3104271A1 (en) | 2015-06-08 | 2016-12-14 | Hans-Henry Sandbaek | Running remote java applications through a local, plugin-free web browser |
US10665020B2 (en) | 2016-02-15 | 2020-05-26 | Meta View, Inc. | Apparatuses, methods and systems for tethering 3-D virtual elements to digital content |
WO2017214576A1 (en) * | 2016-06-10 | 2017-12-14 | Dirtt Environmental Solutions, Inc. | Mixed-reality and cad architectural design environment |
US10467814B2 (en) | 2016-06-10 | 2019-11-05 | Dirtt Environmental Solutions, Ltd. | Mixed-reality architectural design environment |
US10417803B2 (en) | 2016-06-17 | 2019-09-17 | The Boeing Company | Multiple-pass rendering of a digital three-dimensional model of a structure |
US20180114368A1 (en) | 2016-10-25 | 2018-04-26 | Adobe Systems Incorporated | Three-dimensional model manipulation and rendering |
MX395185B (es) | 2016-12-05 | 2025-03-25 | Univ Case Western Reserve | Sistemas, métodos y medios para mostrar presentaciones interactivas de realidad aumentada. |
US10147243B2 (en) | 2016-12-05 | 2018-12-04 | Google Llc | Generating virtual notation surfaces with gestures in an augmented and/or virtual reality environment |
EP3340012A1 (en) | 2016-12-26 | 2018-06-27 | CaptoGlove International Limited | Haptic interaction method, tool and system |
US12153723B2 (en) | 2017-03-06 | 2024-11-26 | Universal City Studios Llc | Systems and methods for layered virtual features in an amusement park environment |
WO2018175335A1 (en) | 2017-03-24 | 2018-09-27 | Pcms Holdings, Inc. | Method and system for discovering and positioning content into augmented reality space |
US10977858B2 (en) | 2017-03-30 | 2021-04-13 | Magic Leap, Inc. | Centralized rendering |
IL303169B2 (en) | 2017-03-30 | 2024-08-01 | Magic Leap Inc | Centralized rendering |
US10871934B2 (en) * | 2017-05-04 | 2020-12-22 | Microsoft Technology Licensing, Llc | Virtual content displayed with shared anchor |
GB201709199D0 (en) * | 2017-06-09 | 2017-07-26 | Delamont Dean Lindsay | IR mixed reality and augmented reality gaming system |
US10685456B2 (en) | 2017-10-12 | 2020-06-16 | Microsoft Technology Licensing, Llc | Peer to peer remote localization for devices |
US20190180506A1 (en) | 2017-12-11 | 2019-06-13 | Tsunami VR, Inc. | Systems and methods for adding annotations to virtual objects in a virtual environment |
US10559133B2 (en) | 2018-02-07 | 2020-02-11 | Dell Products L.P. | Visual space management across information handling system and augmented reality |
US10403047B1 (en) | 2018-03-01 | 2019-09-03 | Dell Products L.P. | Information handling system augmented reality through a virtual object anchor |
WO2019199569A1 (en) | 2018-04-09 | 2019-10-17 | Spatial Inc. | Augmented reality computing environments |
US11049322B2 (en) | 2018-06-18 | 2021-06-29 | Ptc Inc. | Transferring graphic objects between non-augmented reality and augmented reality media domains |
US11087538B2 (en) | 2018-06-26 | 2021-08-10 | Lenovo (Singapore) Pte. Ltd. | Presentation of augmented reality images at display locations that do not obstruct user's view |
US10977868B2 (en) | 2018-06-29 | 2021-04-13 | Factualvr, Inc. | Remote collaboration methods and systems |
JP7499749B2 (ja) | 2018-07-24 | 2024-06-14 | マジック リープ, インコーポレイテッド | アプリケーション共有 |
US11227435B2 (en) | 2018-08-13 | 2022-01-18 | Magic Leap, Inc. | Cross reality system |
US10854006B2 (en) * | 2018-11-15 | 2020-12-01 | Palo Alto Research Center Incorporated | AR-enabled labeling using aligned CAD models |
JP7658977B2 (ja) | 2020-02-10 | 2025-04-08 | マジック リープ, インコーポレイテッド | 仮想コンテンツの動的併置 |
CN115398316B (zh) | 2020-02-14 | 2025-08-26 | 奇跃公司 | 3d对象注释 |
CN117827004A (zh) | 2020-02-14 | 2024-04-05 | 奇跃公司 | 会话管理器 |
JP2023514573A (ja) | 2020-02-14 | 2023-04-06 | マジック リープ, インコーポレイテッド | ツールブリッジ |
-
2021
- 2021-02-10 JP JP2022548434A patent/JP7658977B2/ja active Active
- 2021-02-10 CN CN202180027133.6A patent/CN115699157A/zh active Pending
- 2021-02-10 WO PCT/US2021/017508 patent/WO2021163224A1/en not_active Application Discontinuation
- 2021-02-10 US US17/173,125 patent/US11335070B2/en active Active
- 2021-02-10 EP EP21753609.3A patent/EP4104165A4/en not_active Withdrawn
-
2022
- 2022-04-18 US US17/723,245 patent/US12079938B2/en active Active
-
2024
- 2024-07-15 US US18/773,432 patent/US20240371116A1/en active Pending
-
2025
- 2025-02-13 JP JP2025021666A patent/JP2025067980A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014514652A (ja) | 2011-03-29 | 2014-06-19 | クアルコム,インコーポレイテッド | 骨格追跡を使用した物理的表面上への仮想投影上での選択的な手のオクルージョン |
JP2017199238A (ja) | 2016-04-28 | 2017-11-02 | 株式会社カプコン | 仮想空間表示システム |
US20200042792A1 (en) | 2017-03-02 | 2020-02-06 | Nokia Technologies Oy | Audio processing |
CN108008820A (zh) | 2017-12-14 | 2018-05-08 | 深圳位形空间科技有限公司 | 重定向行走方法、重定向行走服务器及重定向行走系统 |
Also Published As
Publication number | Publication date |
---|---|
US20210248827A1 (en) | 2021-08-12 |
EP4104165A1 (en) | 2022-12-21 |
JP2023513250A (ja) | 2023-03-30 |
US20240371116A1 (en) | 2024-11-07 |
JP2025067980A (ja) | 2025-04-24 |
WO2021163224A1 (en) | 2021-08-19 |
US12079938B2 (en) | 2024-09-03 |
US20220245905A1 (en) | 2022-08-04 |
EP4104165A4 (en) | 2023-07-12 |
CN115699157A (zh) | 2023-02-03 |
US11335070B2 (en) | 2022-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7658977B2 (ja) | 仮想コンテンツの動的併置 | |
JP7681609B2 (ja) | 3dオブジェクト注釈 | |
JP7539478B2 (ja) | セッションマネージャ | |
JP7627720B2 (ja) | 複合現実における空間命令およびガイド | |
JP7558268B2 (ja) | 非均一ステレオレンダリング | |
US11477599B2 (en) | Delayed audio following | |
US12096204B2 (en) | Delayed audio following | |
JP7635249B2 (ja) | 遅延オーディオ追従 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240205 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20241112 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20241118 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250213 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250325 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250327 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7658977 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |