JP7258084B2 - データキャプチャ及び送信のコンプライアンスを強制するための視野(fov)及びキーコードで制限された拡張現実 - Google Patents
データキャプチャ及び送信のコンプライアンスを強制するための視野(fov)及びキーコードで制限された拡張現実 Download PDFInfo
- Publication number
- JP7258084B2 JP7258084B2 JP2021112687A JP2021112687A JP7258084B2 JP 7258084 B2 JP7258084 B2 JP 7258084B2 JP 2021112687 A JP2021112687 A JP 2021112687A JP 2021112687 A JP2021112687 A JP 2021112687A JP 7258084 B2 JP7258084 B2 JP 7258084B2
- Authority
- JP
- Japan
- Prior art keywords
- fov
- video camera
- user
- marker
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
- G06F3/0317—Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface
- G06F3/0321—Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface by optically sensing the absolute position with respect to a regularly patterned surface forming a passive digitiser, e.g. pen optically detecting position indicative tags printed on a paper sheet
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
- G06V10/225—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on a marking or identifier characterising the area
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/113—Recognition of static hand signs
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/02—Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/08—Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations
- G09B5/14—Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations with provision for individual teacher-student communication
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B2027/0192—Supplementary details
- G02B2027/0198—System for aligning or maintaining alignment of an image in a predetermined direction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Description
この出願は、2017年10月20日に出願された「Field of View (FOV) Restriction Techniques and Key Control for Augmented Reality (AR) Data Transmission Compliance」という名称の米国仮出願第62/575,204号に対する35 U.S.C. 119(e)における優先権の利益を主張し、この全内容を参照により援用する。
本発明は、拡張現実(AR:Augmented Reality)に関し、より詳細には、制約された環境のデータキャプチャ及び送信のコンプライアンスにおける安全なユーザ相互作用のための視野(FOV:Field of View)及びキーコードで制限されたARの分野に関する。
技術者の目(カメラ)が動き始めると、マーカは、センサのFOV
420のエッジ近くになり(「黄色」)、それにより、オブジェクト及び当面のタスクへの焦点を維持するための技術者へのリマインダとして、警告信号(オーディオ、ビデオ、振動)を発行させる。カメラは有効に留まり、ビデオは送信及び表示のためにキャプチャされる。技術者のLOSが遠すぎる方まで動いた場合、センサのFOVは、マーカ404とのペアリングを失い(「赤色」)、それにより、位置調整条件に違反し、ビデオカメラを無効にさせる。いくつかの場合、位置調整条件を満たすために単にマーカに戻って見ることにより、カメラをオンに戻してもよい。他の場合、マスタはシステムを初期化することを必要としてもよい。
ビデオカメラの指向方向をユーザの動きに従わせるステップと、
ローカルシーン内のオブジェクトのビデオカメラの視野(FOV)内のビデオ信号をキャプチャするステップと、
遠隔地から、前記オブジェクトを操作するためのハンドジェスチャを受信するステップと、
前記ハンドジェスチャを前記ビデオ信号に重ね、前記オブジェクトの操作の際に前記ユーザに命令するために前記ユーザに対する拡張現実を表示するステップと、
前記ビデオ信号をキャプチャする前に、前記ビデオカメラのFOVがマーカに関してユーザ定義の許容可能なFOV内にあるように、前記ビデオカメラの指向方向が前記ローカルシーン内の前記マーカに対する位置調整条件を満たすか否かを決定するステップと、
前記位置調整条件が満たされない場合、前記ビデオ信号内のキャプチャから、前記ユーザ定義の許容可能なFOV外にある前記カメラのFOVの部分を少なくとも除外するように、前記カメラを制御するステップと
を含む方法。
ビデオカメラの指向方向をユーザの動きに従わせるステップと、
ローカルシーン内のオブジェクトのカメラの視野(FOV)内のビデオ信号をキャプチャするステップと、
遠隔地から、前記オブジェクトを操作するためのハンドジェスチャを受信するステップと、
前記ハンドジェスチャを前記ビデオ信号に位置合わせして重ね、前記オブジェクトの操作の際に前記ユーザに命令するために前記ユーザに対する拡張現実を表示するステップと、
ユーザ識別情報、センサ/マーカペアリング、及び前記マーカに関してユーザ定義の許容可能なFOVを提供する指定の許容値のフィールドを少なくとも含むユーザキーコードを受信するステップと、
前記シーン内のマーカに対する前記センサのペアリングを検証するステップと、
前記カメラのFOVが前記マーカに関して前記ユーザ定義の許容可能なFOV内にあるように、位置調整条件を強制するために、前記カメラのFOVと、前記ビデオカメラの指向方向の位置調整許容値とを較正するステップと、
前記ビデオ信号をキャプチャする前に、前記カメラの指向方向が前記マーカへの前記位置調整許容値を満たすか否かを決定するために前記センサを使用するステップと、
前記位置調整条件が満たされない場合、前記ビデオカメラをオフにするステップと
を含む方法。
ユーザの動きに従った指向方向を有するビデオカメラであり、ローカルシーン内のオブジェクトのカメラのFOV内のビデオ信号をキャプチャするように構成されたビデオカメラと、
遠隔地から、前記オブジェクトを操作するためのハンドジェスチャを受信し、前記ハンドジェスチャを前記ビデオ信号に重ね、前記オブジェクトの操作の際に前記ユーザに命令するために前記ユーザに対する拡張現実を提示するユーザディスプレイと、
ユーザの動きに従った指向方向を有するセンサであり、前記カメラの視野(FOV)がユーザ定義の許容可能なFOV内にあるように、前記ビデオカメラの指向方向が前記シーン内のマーカに対する位置調整条件を満たすか否かを決定するように構成されたセンサと、
前記ビデオ信号内のキャプチャから、前記ユーザ定義の許容可能なFOV外にある前記カメラのFOVの部分を少なくとも除外するように、前記カメラを制御するように構成されたプロセッサと
を含むARシステム。
Claims (24)
- データキャプチャ及び送信のコンプライアンスのためにローカル拡張現実(AR)環境においてビデオ信号からシーンの部分を除外する方法であって、
ビデオカメラの指向方向をユーザの動きに従わせるステップと、
ローカルシーン内のオブジェクトのビデオカメラの視野(FOV)内のビデオ信号をキャプチャするステップと、
遠隔地から、前記オブジェクトを操作するためのオーディオ、テキスト又はビデオのメディアの形式の命令を受信するステップと、
前記命令を前記ビデオ信号に重ね、前記オブジェクトの操作の際に前記ユーザに命令するために前記ユーザに対する拡張現実を表示するステップと、
前記ビデオカメラのFOVがマーカに関してユーザ定義の許容可能なFOV内にあるように、前記ビデオカメラの指向方向が前記ローカルシーン内の前記マーカに対する位置調整条件を満たすか否かを決定するステップと、
前記位置調整条件が満たされない場合、前記ビデオ信号内のキャプチャから、前記ユーザ定義の許容可能なFOV外にある前記ビデオカメラのFOVの部分を少なくとも除外するように、前記ビデオカメラを制御するステップと
を含む方法。 - 前記ローカルシーンは、除外されたデータを含み、前記ビデオカメラは、前記除外されたデータのキャプチャを防止するよう、前記ユーザ定義の許容可能なFOV内からの画像のみが前記ビデオカメラによりキャプチャされるように制御される、請求項1に記載の方法。
- 前記ビデオカメラのFOVが前記ユーザ定義の許容可能なFOV内に留まっていても、前記位置調整条件が満たされないバッファゾーンを作成するように、前記ビデオカメラのFOVを低減するステップを更に含む、請求項2に記載の方法。
- 前記位置調整条件を満たすためのセンサのFOV内の前記マーカの存在を検出するように構成された別のセンサを更に含み、
前記ビデオカメラのFOVが前記ユーザ定義の許容可能なFOV内に留まっていても、前記位置調整条件が満たされないバッファゾーンを作成するように、前記センサのFOVを低減するステップを含む、請求項2に記載の方法。 - 前記マーカは、指向方向がユーザの動きに従う別のセンサとペアリングされる、請求項1に記載の方法。
- 前記ビデオカメラの指向方向が前記位置調整条件に違反するのに近づきつつあるときに、警告信号を前記ユーザに発行するステップを更に含む、請求項1に記載の方法。
- 除外ゾーンを作成するように、センサのFOVによって前記ローカルシーン内の更なるマーカの存在を検出するように構成されたセンサを更に含む、請求項1に記載の方法。
- 前記更なるマーカの検出は、前記ビデオカメラを無効にする、請求項7に記載の方法。
- データキャプチャ及び送信のコンプライアンスのために、ローカル拡張現実(AR)環境においてビデオ信号から、除外されたデータを含むローカルシーンの部分を除外する方法であって、
前記ローカルシーン内のビデオカメラの視野(FOV)内のビデオ信号をキャプチャするステップと、
遠隔地から、オーディオ、テキスト又はビデオのメディアの形式の命令を受信するステップと、
前記命令を前記ビデオ信号に重ね、ユーザに命令するために前記ユーザに対する拡張現実を表示するステップと、
前記ビデオカメラのFOVがマーカに関してユーザ定義の許容可能なFOV内にあるように、前記ビデオカメラの指向方向が前記ローカルシーン内の前記マーカに対する位置調整条件を満たすか否かを決定するステップと、
前記位置調整条件が満たされない場合、前記ビデオ信号内のキャプチャから、前記ユーザ定義の許容可能なFOV外にある前記ビデオカメラのFOVの部分を少なくとも除外し、前記除外されたデータのキャプチャ及び送信を防止するように、前記ビデオカメラを制御するステップと
を含む方法。 - 前記ビデオカメラは、前記除外されたデータのキャプチャを防止するよう、前記ユーザ定義の許容可能なFOV内からの画像のみが前記ビデオカメラによりキャプチャされるように制御される、請求項9に記載の方法。
- 前記ビデオカメラのFOVが前記ユーザ定義の許容可能なFOV内に留まっていても、前記位置調整条件が満たされないバッファゾーンを作成するように、前記ビデオカメラのFOVを低減するステップを更に含む、請求項10に記載の方法。
- 前記位置調整条件を満たすためのセンサのFOV内の前記マーカの存在を検出するように構成された別のセンサを更に含み、
前記ビデオカメラのFOVが前記ユーザ定義の許容可能なFOV内に留まっていても、前記位置調整条件が満たされないバッファゾーンを作成するように、前記センサのFOVを低減するステップを含む、請求項10に記載の方法。 - 前記マーカは、別のセンサとペアリングされる、請求項9に記載の方法。
- 前記ビデオカメラの指向方向が前記位置調整条件に違反するのに近づきつつあるときに、警告信号を前記ユーザに発行するステップを更に含む、請求項9に記載の方法。
- 除外ゾーンを作成するように、センサのFOVによって前記ローカルシーン内の更なるマーカの存在を検出するように構成されたセンサを更に含む、請求項9に記載の方法。
- 前記更なるマーカの検出は、前記ビデオカメラを無効にする、請求項15に記載の方法。
- データキャプチャ及び送信のコンプライアンスのために、ビデオ信号から、除外されたデータを含むローカルシーンの部分を除外する方法であって、
前記ローカルシーン内のビデオカメラの視野(FOV)内のビデオ信号をキャプチャするステップと、
前記ビデオカメラのFOVがマーカに関してユーザ定義の許容可能なFOV内にあるように、前記ビデオカメラの指向方向が前記ローカルシーン内の前記マーカに対する位置調整条件を満たすか否かを決定するステップと、
前記位置調整条件が満たされない場合、前記ビデオ信号内のキャプチャから、前記ユーザ定義の許容可能なFOV外にある前記ビデオカメラのFOVの部分を少なくとも除外し、前記除外されたデータのキャプチャ及び送信を防止するように、前記ビデオカメラを制御するステップと
を含む方法。 - 前記ビデオカメラは、前記除外されたデータのキャプチャを防止するよう、前記ユーザ定義の許容可能なFOV内からの画像のみが前記ビデオカメラによりキャプチャされるように制御される、請求項17に記載の方法。
- 前記ビデオカメラのFOVが前記ユーザ定義の許容可能なFOV内に留まっていても、前記位置調整条件が満たされないバッファゾーンを作成するように、前記ビデオカメラのFOVを低減するステップを更に含む、請求項18に記載の方法。
- 前記位置調整条件を満たすためのセンサのFOV内の前記マーカの存在を検出するように構成された別のセンサを更に含み、
前記ビデオカメラのFOVが前記ユーザ定義の許容可能なFOV内に留まっていても、前記位置調整条件が満たされないバッファゾーンを作成するように、前記センサのFOVを低減するステップを含む、請求項18に記載の方法。 - 前記マーカは、別のセンサとペアリングされる、請求項17に記載の方法。
- 前記ビデオカメラの指向方向が前記位置調整条件に違反するのに近づきつつあるときに、警告信号をユーザに発行するステップを更に含む、請求項17に記載の方法。
- 除外ゾーンを作成するように、センサのFOVによって前記ローカルシーン内の更なるマーカの存在を検出するように構成されたセンサを更に含む、請求項17に記載の方法。
- 前記更なるマーカの検出は、前記ビデオカメラを無効にする、請求項23に記載の方法。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762575204P | 2017-10-20 | 2017-10-20 | |
US62/575,204 | 2017-10-20 | ||
US15/907,853 | 2018-02-28 | ||
US15/907,853 US10403046B2 (en) | 2017-10-20 | 2018-02-28 | Field of view (FOV) and key code limited augmented reality to enforce data capture and transmission compliance |
JP2020518769A JP6911201B2 (ja) | 2017-10-20 | 2018-09-25 | データキャプチャ及び送信のコンプライアンスを強制するための視野(fov)及びキーコードで制限された拡張現実 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020518769A Division JP6911201B2 (ja) | 2017-10-20 | 2018-09-25 | データキャプチャ及び送信のコンプライアンスを強制するための視野(fov)及びキーコードで制限された拡張現実 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021177398A JP2021177398A (ja) | 2021-11-11 |
JP7258084B2 true JP7258084B2 (ja) | 2023-04-14 |
Family
ID=66169979
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020518769A Active JP6911201B2 (ja) | 2017-10-20 | 2018-09-25 | データキャプチャ及び送信のコンプライアンスを強制するための視野(fov)及びキーコードで制限された拡張現実 |
JP2021112687A Active JP7258084B2 (ja) | 2017-10-20 | 2021-07-07 | データキャプチャ及び送信のコンプライアンスを強制するための視野(fov)及びキーコードで制限された拡張現実 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020518769A Active JP6911201B2 (ja) | 2017-10-20 | 2018-09-25 | データキャプチャ及び送信のコンプライアンスを強制するための視野(fov)及びキーコードで制限された拡張現実 |
Country Status (10)
Country | Link |
---|---|
US (2) | US10403046B2 (ja) |
EP (2) | EP3698230B1 (ja) |
JP (2) | JP6911201B2 (ja) |
KR (2) | KR102662027B1 (ja) |
AU (1) | AU2018351858B2 (ja) |
CA (1) | CA3076505C (ja) |
ES (2) | ES2957809T3 (ja) |
IL (2) | IL273497A (ja) |
PL (1) | PL3698230T3 (ja) |
WO (1) | WO2019079003A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11792499B2 (en) | 2021-10-21 | 2023-10-17 | Raytheon Company | Time-delay to enforce data capture and transmission compliance in real and near real time video |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10735691B2 (en) | 2016-11-08 | 2020-08-04 | Rockwell Automation Technologies, Inc. | Virtual reality and augmented reality for industrial automation |
US10866631B2 (en) * | 2016-11-09 | 2020-12-15 | Rockwell Automation Technologies, Inc. | Methods, systems, apparatuses, and techniques for employing augmented reality and virtual reality |
SE541650C2 (en) * | 2017-05-30 | 2019-11-19 | Crunchfish Ab | Improved activation of a virtual object |
US20190079591A1 (en) | 2017-09-14 | 2019-03-14 | Grabango Co. | System and method for human gesture processing from video input |
DE102017219441A1 (de) * | 2017-10-30 | 2019-05-02 | Robert Bosch Gmbh | Verfahren zum Trainieren eines zentralen Künstlichen-Intelligenz-Moduls |
WO2020096743A1 (en) * | 2018-11-09 | 2020-05-14 | Beckman Coulter, Inc. | Service glasses with selective data provision |
GB201818357D0 (en) * | 2018-11-12 | 2018-12-26 | Forsberg Services Ltd | Locating system |
US10926416B2 (en) * | 2018-11-21 | 2021-02-23 | Ford Global Technologies, Llc | Robotic manipulation using an independently actuated vision system, an adversarial control scheme, and a multi-tasking deep learning architecture |
US20200349737A1 (en) * | 2019-05-03 | 2020-11-05 | Fanuc America Corporation | Multi-target calibration and augmentation |
CN110300225A (zh) * | 2019-06-28 | 2019-10-01 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN111311995A (zh) * | 2020-03-23 | 2020-06-19 | 宁波视科物电科技有限公司 | 一种基于增强现实技术的远程教学系统及教学方法 |
US11374808B2 (en) | 2020-05-29 | 2022-06-28 | Corning Research & Development Corporation | Automated logging of patching operations via mixed reality based labeling |
US11295135B2 (en) * | 2020-05-29 | 2022-04-05 | Corning Research & Development Corporation | Asset tracking of communication equipment via mixed reality based labeling |
US11592907B2 (en) * | 2020-10-20 | 2023-02-28 | Google Llc | Gesture-triggered augmented-reality |
CN115631323A (zh) * | 2021-01-22 | 2023-01-20 | 四川智能小子科技有限公司 | Ar导览系统及ar导览方法 |
JP7160393B1 (ja) * | 2021-04-22 | 2022-10-25 | 博雄 村田 | 情報表示装置及び情報表示システム並びに情報表示方法 |
US20230067564A1 (en) * | 2021-08-31 | 2023-03-02 | Htc Corporation | Virtual image display system and calibration method for pointing direction of controller thereof |
US11696011B2 (en) | 2021-10-21 | 2023-07-04 | Raytheon Company | Predictive field-of-view (FOV) and cueing to enforce data capture and transmission compliance in real and near real time video |
US11700448B1 (en) | 2022-04-29 | 2023-07-11 | Raytheon Company | Computer/human generation, validation and use of a ground truth map to enforce data capture and transmission compliance in real and near real time video of a local scene |
WO2024071681A1 (ko) * | 2022-09-26 | 2024-04-04 | 삼성전자 주식회사 | 이미지를 제공하는 방법 및 이를 지원하는 웨어러블 전자 장치 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000228741A (ja) | 1999-02-05 | 2000-08-15 | Fuji Photo Optical Co Ltd | 雲台制御システム |
WO2015170409A1 (ja) | 2014-05-09 | 2015-11-12 | 日立マクセル株式会社 | 撮像装置及び撮像システム |
JP2016167688A (ja) | 2015-03-09 | 2016-09-15 | 富士通株式会社 | 画像生成方法、システム、装置、及び端末 |
JP2017108263A (ja) | 2015-12-09 | 2017-06-15 | 富士通株式会社 | 端末、位置関係算出プログラムおよび位置関係算出方法 |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5594469A (en) * | 1995-02-21 | 1997-01-14 | Mitsubishi Electric Information Technology Center America Inc. | Hand gesture machine control system |
US6356437B1 (en) | 1999-03-29 | 2002-03-12 | Siemens Dematic Postal Automation, L.P. | System, apparatus and method for providing a portable customizable maintenance support instruction system |
US7126558B1 (en) | 2001-10-19 | 2006-10-24 | Accenture Global Services Gmbh | Industrial augmented reality |
DE10159610B4 (de) | 2001-12-05 | 2004-02-26 | Siemens Ag | System und Verfahren zur Erstellung einer Dokumentation von Arbeitsvorgängen, insbesondere im Umfeld Produktion, Montage, Service oder Wartung |
JP4206488B2 (ja) * | 2004-07-08 | 2009-01-14 | 日本電信電話株式会社 | 画像処理装置、撮影システム、画像処理方法、画像処理プログラム、および、記録媒体 |
JP4677269B2 (ja) * | 2005-04-08 | 2011-04-27 | キヤノン株式会社 | 情報処理方法およびシステム |
US20080030575A1 (en) | 2006-08-03 | 2008-02-07 | Davies Paul R | System and method including augmentable imagery feature to provide remote support |
WO2010094065A1 (en) * | 2009-02-17 | 2010-08-26 | Jumbuck Entertainment Limited | Augmented reality system and method |
JP2011097238A (ja) * | 2009-10-28 | 2011-05-12 | Nec Corp | プライバシー保護画像加工機能を有する端末装置、その方法及びそのプログラム |
US9810549B2 (en) * | 2011-01-06 | 2017-11-07 | University Of Utah Research Foundation | Systems, methods, and apparatus for calibration of and three-dimensional tracking of intermittent motion with an inertial measurement unit |
US8761448B1 (en) * | 2012-12-13 | 2014-06-24 | Intel Corporation | Gesture pre-processing of video stream using a markered region |
US9336629B2 (en) * | 2013-01-30 | 2016-05-10 | F3 & Associates, Inc. | Coordinate geometry augmented reality process |
JP6393986B2 (ja) | 2013-12-26 | 2018-09-26 | セイコーエプソン株式会社 | 頭部装着型表示装置、画像表示システム、および、頭部装着型表示装置の制御方法 |
US9852545B2 (en) * | 2014-02-11 | 2017-12-26 | Osterhout Group, Inc. | Spatial location presentation in head worn computing |
US10203762B2 (en) | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
JP2017523817A (ja) * | 2014-05-09 | 2017-08-24 | ザ・チルドレンズ・ホスピタル・オブ・フィラデルフィアThe Children’S Hospital Of Philadelphia | 可搬型外科手術の方法、システムおよび装置 |
CN106937531B (zh) * | 2014-06-14 | 2020-11-06 | 奇跃公司 | 用于产生虚拟和增强现实的方法和系统 |
CN107004044A (zh) * | 2014-11-18 | 2017-08-01 | 皇家飞利浦有限公司 | 增强现实设备的用户引导系统和方法、使用 |
US10600015B2 (en) * | 2015-06-24 | 2020-03-24 | Karl Storz Se & Co. Kg | Context-aware user interface for integrated operating room |
WO2017027338A1 (en) * | 2015-08-07 | 2017-02-16 | Pcms Holdings, Inc. | Apparatus and method for supporting interactive augmented reality functionalities |
WO2017177019A1 (en) | 2016-04-08 | 2017-10-12 | Pcms Holdings, Inc. | System and method for supporting synchronous and asynchronous augmented reality functionalities |
JP2017211766A (ja) * | 2016-05-24 | 2017-11-30 | 株式会社Screenホールディングス | 画像処理システム、画像処理プログラム、および画像処理方法 |
CN106228544B (zh) * | 2016-07-14 | 2018-11-06 | 郑州航空工业管理学院 | 一种基于稀疏表示和标签传播的显著性检测方法 |
US20180092698A1 (en) * | 2016-10-04 | 2018-04-05 | WortheeMed, Inc. | Enhanced Reality Medical Guidance Systems and Methods of Use |
US10777018B2 (en) * | 2017-05-17 | 2020-09-15 | Bespoke, Inc. | Systems and methods for determining the scale of human anatomy from images |
US10916058B2 (en) * | 2017-09-21 | 2021-02-09 | Becton, Dickinson And Company | Augmented reality devices for hazardous contaminant testing |
-
2018
- 2018-02-28 US US15/907,853 patent/US10403046B2/en active Active
- 2018-09-25 CA CA3076505A patent/CA3076505C/en active Active
- 2018-09-25 JP JP2020518769A patent/JP6911201B2/ja active Active
- 2018-09-25 PL PL18789290T patent/PL3698230T3/pl unknown
- 2018-09-25 EP EP18789290.6A patent/EP3698230B1/en active Active
- 2018-09-25 ES ES21188467T patent/ES2957809T3/es active Active
- 2018-09-25 AU AU2018351858A patent/AU2018351858B2/en active Active
- 2018-09-25 KR KR1020227015059A patent/KR102662027B1/ko active IP Right Grant
- 2018-09-25 ES ES18789290T patent/ES2899668T3/es active Active
- 2018-09-25 WO PCT/US2018/052626 patent/WO2019079003A1/en active Application Filing
- 2018-09-25 EP EP21188467.1A patent/EP3920007B1/en active Active
- 2018-09-25 KR KR1020207007808A patent/KR102395939B1/ko active IP Right Grant
-
2019
- 2019-05-20 US US16/416,939 patent/US10679425B2/en active Active
-
2020
- 2020-03-22 IL IL273497A patent/IL273497A/en active IP Right Grant
- 2020-11-17 IL IL278756A patent/IL278756B/en unknown
-
2021
- 2021-07-07 JP JP2021112687A patent/JP7258084B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000228741A (ja) | 1999-02-05 | 2000-08-15 | Fuji Photo Optical Co Ltd | 雲台制御システム |
WO2015170409A1 (ja) | 2014-05-09 | 2015-11-12 | 日立マクセル株式会社 | 撮像装置及び撮像システム |
JP2016167688A (ja) | 2015-03-09 | 2016-09-15 | 富士通株式会社 | 画像生成方法、システム、装置、及び端末 |
JP2017108263A (ja) | 2015-12-09 | 2017-06-15 | 富士通株式会社 | 端末、位置関係算出プログラムおよび位置関係算出方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11792499B2 (en) | 2021-10-21 | 2023-10-17 | Raytheon Company | Time-delay to enforce data capture and transmission compliance in real and near real time video |
Also Published As
Publication number | Publication date |
---|---|
IL273497A (en) | 2020-05-31 |
IL278756A (en) | 2021-01-31 |
EP3920007A1 (en) | 2021-12-08 |
WO2019079003A1 (en) | 2019-04-25 |
JP6911201B2 (ja) | 2021-07-28 |
KR102395939B1 (ko) | 2022-05-11 |
AU2018351858B2 (en) | 2022-08-25 |
CA3076505C (en) | 2024-02-06 |
US10679425B2 (en) | 2020-06-09 |
CA3076505A1 (en) | 2019-04-25 |
JP2020537230A (ja) | 2020-12-17 |
EP3698230B1 (en) | 2021-09-08 |
KR20220062432A (ko) | 2022-05-16 |
KR20200068651A (ko) | 2020-06-15 |
EP3698230A1 (en) | 2020-08-26 |
JP2021177398A (ja) | 2021-11-11 |
EP3920007B1 (en) | 2023-07-05 |
US20190122437A1 (en) | 2019-04-25 |
US20190272677A1 (en) | 2019-09-05 |
IL278756B (en) | 2021-07-29 |
AU2018351858A1 (en) | 2020-03-12 |
PL3698230T3 (pl) | 2022-04-25 |
US10403046B2 (en) | 2019-09-03 |
ES2899668T3 (es) | 2022-03-14 |
ES2957809T3 (es) | 2024-01-26 |
KR102662027B1 (ko) | 2024-04-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7258084B2 (ja) | データキャプチャ及び送信のコンプライアンスを強制するための視野(fov)及びキーコードで制限された拡張現実 | |
EP2048557B1 (de) | Optoelektronischer Sensor und mobile Vorrichtung sowie Verfahren zur Konfiguration | |
EP3265865A1 (en) | Sensor assisted head mounted displays for welding | |
US10389992B2 (en) | Immersive display and method of operating immersive display for real-world object alert | |
JP2008502992A (ja) | イメージの情報を与える交信方法 | |
JP2017191490A (ja) | 技能伝承システム及び方法 | |
WO2017169841A1 (ja) | 表示装置および表示制御方法 | |
TWI806778B (zh) | 加強即時與近即時視訊中資料擷取與傳輸合規性之預測式視野與提示技術 | |
US11792499B2 (en) | Time-delay to enforce data capture and transmission compliance in real and near real time video | |
WO2021199853A1 (ja) | 情報登録装置、情報登録システム、情報登録方法およびプログラム記憶媒体 | |
US20230262316A1 (en) | Single camera time-delay to enforce data transmission compliance in real and near real time video | |
US11700448B1 (en) | Computer/human generation, validation and use of a ground truth map to enforce data capture and transmission compliance in real and near real time video of a local scene | |
US11783547B2 (en) | Apparatus and method for displaying an operational area | |
KR20220058122A (ko) | Hmd를 활용한 현장과 원격지의 협업 시스템 및 방법 | |
EP3454015A1 (en) | Apparatus and method for displaying an operational area | |
KR20160022482A (ko) | 원거리 군사 훈련 모니터링 시스템 | |
Grespan et al. | Safety in the OR | |
JPH04128783A (ja) | 視線方向検出装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210707 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220621 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220802 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221031 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230307 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230404 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7258084 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |