JP7464235B2 - 多層ビューイングシステムおよび方法 - Google Patents
多層ビューイングシステムおよび方法 Download PDFInfo
- Publication number
- JP7464235B2 JP7464235B2 JP2022068646A JP2022068646A JP7464235B2 JP 7464235 B2 JP7464235 B2 JP 7464235B2 JP 2022068646 A JP2022068646 A JP 2022068646A JP 2022068646 A JP2022068646 A JP 2022068646A JP 7464235 B2 JP7464235 B2 JP 7464235B2
- Authority
- JP
- Japan
- Prior art keywords
- target object
- imager
- physical layer
- stationary
- headset
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 62
- 230000003190 augmentative effect Effects 0.000 claims description 113
- 230000003068 static effect Effects 0.000 claims description 9
- 230000003213 activating effect Effects 0.000 claims 2
- 238000005286 illumination Methods 0.000 description 34
- 238000012545 processing Methods 0.000 description 14
- 238000004891 communication Methods 0.000 description 11
- 210000003128 head Anatomy 0.000 description 11
- 238000010586 diagram Methods 0.000 description 8
- 210000001747 pupil Anatomy 0.000 description 7
- 230000008439 repair process Effects 0.000 description 6
- 238000012423 maintenance Methods 0.000 description 5
- 230000004807 localization Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000001755 vocal effect Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 238000013024 troubleshooting Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000004418 eye rotation Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000314 lubricant Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000002688 persistence Effects 0.000 description 1
- 230000010287 polarization Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/388—Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Optics & Photonics (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
- Processing Or Creating Images (AREA)
Description
Claims (21)
- 遠隔ユーザによって選択されたターゲット物体の位置に対応させて、注釈をウェアラブルヘッドセット上に投影する多層ビューイングシステムであって、
ターゲット物体を含む視野を有する画像を取得するように構成された静止イメージャと、
1つ以上の物理層マーキングを前記ターゲット物体のターゲット領域に投影するように制御可能な静止ビームプロジェクタと、
前記静止イメージャおよび前記静止ビームプロジェクタとは別個のヘッドセットであって、
拡張現実ディスプレイであって、前記ヘッドセットを装着している現地ユーザが前記拡張現実ディスプレイを通して前記ターゲット物体を直接見ることを可能にするのに十分に透明であり、前記現地ユーザに直接見えるように、直接見える前記ターゲット物体上にスーパーインポーズされた注釈を表示するように構成されている、該拡張現実ディスプレイ、および
前記拡張現実ディスプレイの前の領域のシーン画像を取得するように構成されたシーンイメージャまたは前記拡張現実ディスプレイの前にヘッドセットビームを投影するように構成されたヘッドセットビームプロジェクタを含む、該ヘッドセットと、
プロセッサであって、
前記静止イメージャによって取得された画像を前記遠隔ユーザに提供し、
前記遠隔ユーザから、前記注釈の表示のための、選択された場所に対応する、提供された前記画像の一部の指定を受け取り、
前記静止ビームプロジェクタを作動させて、前記ターゲット物体の前記ターゲット領域上に、前記1つ以上の物理層マーキングを投影し、
前記シーン画像内の前記1つ以上の物理層マーキングの画像を識別することによって、または、前記静止イメージャによって取得される画像内における、前記1つ以上の物理層マーキングに対する前記ヘッドセットビームによって形成されるマークの前記場所に基づいて、前記拡張現実ディスプレイの向きを決定し、
前記注釈が、前記ターゲット領域に対して前記選択された位置に表示されるときに、前記現地ユーザによって知覚可能であるように、前記拡張現実ディスプレイ上に前記注釈を表示するための表示場所を計算し、
計算された前記表示場所で前記ヘッドセットの前記拡張現実ディスプレイ上に前記注釈を表示する、ように構成された、該プロセッサと、を備える、多層ビューイングシステム。 - 前記選択された位置は、1つ以上の前記物理層マーキングの位置である、請求項1に記載のシステム。
- 前記遠隔ユーザがコンピュータである、請求項1に記載のシステム。
- 前記遠隔ユーザによって操作されて、前記静止イメージャ、前記静止ビームプロジェクタ、前記シーンイメージャおよび/または前記拡張現実ディスプレイの作動を制御するように構成されたユーザコントロールを更に備える、請求項1に記載のシステム。
- 前記静止ビームプロジェクタが、レーザを備える、請求項1に記載のシステム。
- 前記静止ビームプロジェクタが、パターンの形で前記物理層マーキングを投影するように構成されている、請求項1に記載のシステム。
- 前記静止イメージャの視野が、前記物理層マーキングが前記静止ビームプロジェクタによって投影され得る少なくとも前記ターゲット物体の領域を完全にカバーするのに十分大きい、請求項1に記載のシステム。
- 前記静止ビームプロジェクタが、前記ターゲット物体の表面の上で前記1つ以上の物理層マーキングを走査するようにさらに構成されている、請求項1に記載のシステム。
- 前記プロセッサが、前記表面の傾斜角を計算するようにさらに構成されている、請求項8に記載のシステム。
- 遠隔ステーションをさらに含む、請求項1に記載のシステム。
- 前記遠隔ステーションが、遠隔ディスプレイおよびユーザコントロールを備える、請求項10に記載のシステム。
- 前記静止イメージャおよび前記静止ビームプロジェクタが、単一の静止ユニットに組み込まれている、請求項1に記載のシステム。
- 少なくとも1つの追加のイメージャまたは少なくとも1つの追加のプロジェクタをさらに含む、請求項1に記載のシステム。
- 前記プロセッサが、前記少なくとも1つの追加のイメージャを操作して、前記静止イメージャには見えないと識別された前記ターゲット物体の領域の画像を取得するか、または前記少なくとも1つの追加のプロジェクタを操作して、前記静止ビームプロジェクタによって放出されたビームにアクセスできないと識別された前記ターゲット物体の領域上にマーキングを投影するように、さらに構成されている、請求項13に記載のシステム。
- 静止イメージャと、静止ビームプロジェクタと、拡張現実ディスプレイを含む、前記静止イメージャおよび前記静止ビームプロジェクタとは別個のヘッドセットであって、前記拡張現実ディスプレイが、前記ヘッドセットを装着している現地ユーザが前記拡張現実ディスプレイを通してターゲット物体を直接見ることを可能にするのに十分に透明であり、直接見える前記ターゲット物体上にスーパーインポーズされて見ることができる注釈を表示するように構成されている、該ヘッドセットと、を含む、遠隔ユーザによって選択された前記ターゲット物体の位置に対応させて、前記注釈をウェアラブルヘッドセット上に投影するビューイングシステムの操作方法であって、
前記ヘッドセットは、前記拡張現実ディスプレイの前の領域のシーン画像を取得するように構成されたシーンイメージャ、または、前記拡張現実ディスプレイの前にヘッドセットビームを投影するように構成されたヘッドセットビームプロジェクタを更に含み、
前記方法は、
前記静止イメージャによって取得された画像を前記遠隔ユーザに提供するステップと、
前記遠隔ユーザから、前記注釈の表示のための、選択された場所に対応する、提供された前記画像の一部の指定を受け取るステップと、
前記静止ビームプロジェクタを作動させて、前記ターゲット物体のターゲット領域上に、1つ以上の物理層マーキングを投影するステップと、
前記シーンイメージャを使用して、1つ以上の物理層マーキングが前記静止ビームプロジェクタによって前記ターゲット物体の前記ターゲット領域上に投影されるときの前記ターゲット物体のシーン画像を、または前記静止イメージャを使用して、前記1つ以上の物理層マーキングおよび前記ヘッドセットビームによって形成されたマークを含む画像を、取得するステップと、
取得された前記シーン画像内において、前記1つ以上の物理層マーキングの画像の場所に基づいて、または、前記静止イメージャによって取得される画像内において、前記1つ以上の物理層マーキングの画像に対する前記ヘッドセットビームによって形成された前記マークの前記場所に基づいて、前記拡張現実ディスプレイの向きを決定するステップと、
前記注釈が、前記ターゲット領域に対して前記選択された位置に表示されるときに、前記現地ユーザによって知覚可能であるように、前記拡張現実ディスプレイ上に前記注釈を表示するための表示場所を計算するステップと、
計算された前記表示場所で前記ヘッドセットの前記拡張現実ディスプレイ上に前記注釈を表示するステップと、を含む、方法。 - 前記ターゲット物体の前記シーン画像を取得するステップが、前記1つ以上の物理層マーキングのうちのある物理層マーキングが前記ターゲット物体の表面にわたって走査されるときに、複数の前記シーン画像を連続的に取得するステップを含む、請求項15に記載の方法。
- 連続して取得された前記シーン画像内の走査された前記物理層マーキングの前記画像の場所を識別することによって、前記表面の傾斜角を計算するステップをさらに含む、請求項16に記載の方法。
- 前記シーンイメージャを使用して取得する前に、重ね合わせ較正手順が実行される、請求項15に記載の方法。
- 前記重ね合わせ較正手順が、前記静止ビームプロジェクタを操作して、1つ以上の較正物理層マーキングを前記ターゲット物体に投影するステップを含む、請求項18に記載の方法。
- 前記重ね合わせ較正手順が、前記注釈が、そのマーキングにスーパーインポーズされるときに前記1つ以上の較正物理層マーキングのマーキングを見ている前記ヘッドセットのユーザに見えるように、前記拡張現実ディスプレイ上に較正注釈を表示するステップをさらに含む、請求項19に記載の方法。
- 前記選択された位置は、1つ以上の前記物理層マーキングの位置である、請求項15に記載の方法。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762577332P | 2017-10-26 | 2017-10-26 | |
US62/577,332 | 2017-10-26 | ||
JP2020522975A JP2021500676A (ja) | 2017-10-26 | 2018-10-25 | 多層ビューイングシステムおよび方法 |
PCT/IL2018/051143 WO2019082188A1 (en) | 2017-10-26 | 2018-10-25 | METHOD AND SYSTEM FOR MULTILAYER VISUALIZATION |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020522975A Division JP2021500676A (ja) | 2017-10-26 | 2018-10-25 | 多層ビューイングシステムおよび方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022106801A JP2022106801A (ja) | 2022-07-20 |
JP7464235B2 true JP7464235B2 (ja) | 2024-04-09 |
Family
ID=64184147
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020522975A Pending JP2021500676A (ja) | 2017-10-26 | 2018-10-25 | 多層ビューイングシステムおよび方法 |
JP2022068646A Active JP7464235B2 (ja) | 2017-10-26 | 2022-04-19 | 多層ビューイングシステムおよび方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020522975A Pending JP2021500676A (ja) | 2017-10-26 | 2018-10-25 | 多層ビューイングシステムおよび方法 |
Country Status (7)
Country | Link |
---|---|
US (1) | US11368670B2 (ja) |
EP (1) | EP3701357B1 (ja) |
JP (2) | JP2021500676A (ja) |
KR (2) | KR20230003654A (ja) |
CN (1) | CN111417916B (ja) |
IL (1) | IL274205B2 (ja) |
WO (1) | WO2019082188A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111124228A (zh) * | 2019-12-23 | 2020-05-08 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN112634773B (zh) * | 2020-12-25 | 2022-11-22 | 北京市商汤科技开发有限公司 | 增强现实的呈现方法、装置、展示设备及存储介质 |
US20230060838A1 (en) * | 2021-09-02 | 2023-03-02 | Snap Inc. | Scan-based messaging for electronic eyewear devices |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011523728A (ja) | 2008-04-09 | 2011-08-18 | ヒューレット−パッカード デベロップメント カンパニー エル.ピー. | 遠隔制御式ポインティング |
JP2013218459A (ja) | 2012-04-06 | 2013-10-24 | Sony Corp | 情報処理装置、情報処理方法及び情報処理システム |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2566109B1 (fr) | 1984-06-15 | 1991-08-30 | Sfim | Ensemble de visee optique, de designation et de poursuite d'objectif |
US5719622A (en) | 1996-02-23 | 1998-02-17 | The Regents Of The University Of Michigan | Visual control selection of remote mechanisms |
US20020030637A1 (en) | 1998-10-29 | 2002-03-14 | Mann W. Stephen G. | Aremac-based means and apparatus for interaction with computer, or one or more other people, through a camera |
US6774869B2 (en) * | 2000-12-22 | 2004-08-10 | Board Of Trustees Operating Michigan State University | Teleportal face-to-face system |
CA2576010C (en) * | 2004-08-03 | 2011-07-26 | Silverbrook Research Pty Ltd | Head mounted display with wave front modulator |
US20120249797A1 (en) * | 2010-02-28 | 2012-10-04 | Osterhout Group, Inc. | Head-worn adaptive display |
US10180572B2 (en) * | 2010-02-28 | 2019-01-15 | Microsoft Technology Licensing, Llc | AR glasses with event and user action control of external applications |
US9182487B2 (en) | 2011-06-22 | 2015-11-10 | The Boeing Company | Advanced remote nondestructive inspection system and process |
US9954908B2 (en) * | 2013-01-22 | 2018-04-24 | General Electric Company | Systems and methods for collaborating in a non-destructive testing system |
US20150084990A1 (en) * | 2013-04-07 | 2015-03-26 | Laor Consulting Llc | Augmented reality medical procedure aid |
US10533850B2 (en) * | 2013-07-12 | 2020-01-14 | Magic Leap, Inc. | Method and system for inserting recognized object data into a virtual world |
KR101652888B1 (ko) | 2014-08-20 | 2016-09-01 | 재단법인 아산사회복지재단 | 수술 내비게이션에 의해 수술도구를 표시하는 방법 |
US10037312B2 (en) * | 2015-03-24 | 2018-07-31 | Fuji Xerox Co., Ltd. | Methods and systems for gaze annotation |
EP3281403A4 (en) | 2015-04-06 | 2018-03-07 | Scope Technologies US Inc. | Methods and apparatus for augmented reality applications |
US10350839B2 (en) | 2015-05-21 | 2019-07-16 | The Boeing Company | Remote advanced repair guidance |
US9503681B1 (en) | 2015-05-29 | 2016-11-22 | Purdue Research Foundation | Simulated transparent display with augmented reality for remote collaboration |
US20180122143A1 (en) * | 2016-03-15 | 2018-05-03 | Sutherland Cook Ellwood, JR. | Hybrid photonic vr/ar systems |
CN206270499U (zh) | 2016-11-14 | 2017-06-20 | 南昌大学 | 一种便携式高效远距离准确目标定位系统 |
-
2018
- 2018-10-25 JP JP2020522975A patent/JP2021500676A/ja active Pending
- 2018-10-25 US US16/758,471 patent/US11368670B2/en active Active
- 2018-10-25 KR KR1020227044483A patent/KR20230003654A/ko not_active Application Discontinuation
- 2018-10-25 CN CN201880069881.9A patent/CN111417916B/zh active Active
- 2018-10-25 KR KR1020207014555A patent/KR20200072535A/ko not_active Application Discontinuation
- 2018-10-25 IL IL274205A patent/IL274205B2/en unknown
- 2018-10-25 EP EP18799875.2A patent/EP3701357B1/en active Active
- 2018-10-25 WO PCT/IL2018/051143 patent/WO2019082188A1/en unknown
-
2022
- 2022-04-19 JP JP2022068646A patent/JP7464235B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011523728A (ja) | 2008-04-09 | 2011-08-18 | ヒューレット−パッカード デベロップメント カンパニー エル.ピー. | 遠隔制御式ポインティング |
JP2013218459A (ja) | 2012-04-06 | 2013-10-24 | Sony Corp | 情報処理装置、情報処理方法及び情報処理システム |
Non-Patent Citations (1)
Title |
---|
加藤博一,外3名,"マーカー追跡に基づく拡張現実感システムとそのキャリブレーション",日本バーチャルリアリティ学会論文誌,日本バーチャルリアリティ学会,1999年,第4巻,第4号,p.607-616 |
Also Published As
Publication number | Publication date |
---|---|
IL274205A (en) | 2020-06-30 |
US20200260068A1 (en) | 2020-08-13 |
CN111417916B (zh) | 2023-12-22 |
EP3701357A1 (en) | 2020-09-02 |
CN111417916A (zh) | 2020-07-14 |
WO2019082188A1 (en) | 2019-05-02 |
US11368670B2 (en) | 2022-06-21 |
KR20230003654A (ko) | 2023-01-06 |
IL274205B2 (en) | 2024-05-01 |
JP2022106801A (ja) | 2022-07-20 |
IL274205B1 (en) | 2024-01-01 |
EP3701357B1 (en) | 2023-08-23 |
KR20200072535A (ko) | 2020-06-22 |
JP2021500676A (ja) | 2021-01-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7464235B2 (ja) | 多層ビューイングシステムおよび方法 | |
US10798339B2 (en) | Telepresence management | |
US7369101B2 (en) | Calibrating real and virtual views | |
EP2903551B1 (en) | Digital system for surgical video capturing and display | |
JP5032343B2 (ja) | 仮想物体を表示する方法および装置、ならびに環境画像に仮想物体を重ね合せるための方法および装置 | |
EP1413917A2 (en) | Finder, marker presentation member, and presentation method of positioning marker for calibration photography | |
US20140300632A1 (en) | Augmented reality apparatus | |
US11017745B2 (en) | Method, computer readable storage medium having instructions, apparatus and system for calibrating augmented reality goggles in a transportation vehicle, transportation vehicle suitable for the method, and augmented reality goggles suitable for the method | |
JPH11202256A (ja) | 頭部搭載型画像表示装置 | |
US20190236847A1 (en) | Method and system for aligning digital display of images on augmented reality glasses with physical surrounds | |
CN109822224B (zh) | 一种激光打标方法和打标装置 | |
JP2019164420A (ja) | 透過型頭部装着型表示装置および透過型頭部装着型表示装置の制御方法、透過型頭部装着型表示装置の制御のためのコンピュータープログラム | |
JPH1163927A (ja) | 頭部位置・姿勢の計測装置および作業監視装置 | |
JP2018182570A (ja) | 視線情報共有方法および視線情報共有システム | |
US10502554B2 (en) | Process and device for determining the 3D coordinates of an object | |
JP2016110177A (ja) | 3次元入力装置及び入力システム | |
WO2020130006A1 (ja) | 情報投影システム、制御装置、及び情報投影方法 | |
EP3415866A1 (en) | Device, system, and method for displaying measurement gaps | |
JP6540426B2 (ja) | 表示システム、表示装置、情報表示方法、及び、プログラム | |
JP2021162607A (ja) | 表示システム、情報処理装置及び表示システムの表示制御方法 | |
JP6733401B2 (ja) | 表示システム、表示装置、情報表示方法、及び、プログラム | |
CN111565307A (zh) | 一种基于mr远程空间同步指导方法和系统 | |
US11977694B2 (en) | Remote pointing device | |
JP2018028579A (ja) | 表示装置および表示方法 | |
EP3265865B1 (en) | Sensor assisted head mounted displays for welding |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220419 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220419 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220707 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230620 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230920 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231205 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240205 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240312 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240320 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7464235 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |