JP2022106801A - 多層ビューイングシステムおよび方法 - Google Patents

多層ビューイングシステムおよび方法 Download PDF

Info

Publication number
JP2022106801A
JP2022106801A JP2022068646A JP2022068646A JP2022106801A JP 2022106801 A JP2022106801 A JP 2022106801A JP 2022068646 A JP2022068646 A JP 2022068646A JP 2022068646 A JP2022068646 A JP 2022068646A JP 2022106801 A JP2022106801 A JP 2022106801A
Authority
JP
Japan
Prior art keywords
target object
augmented reality
imager
physical layer
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022068646A
Other languages
English (en)
Other versions
JP7464235B2 (ja
Inventor
ウルマン、シモン
Ullman Shimon
ハラリ、ダニエル
Harari Daniel
アッシフ、リアブ
Assif Liav
コイフマン、イガル
Koifman Igal
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yeda Research and Development Co Ltd
Original Assignee
Yeda Research and Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yeda Research and Development Co Ltd filed Critical Yeda Research and Development Co Ltd
Publication of JP2022106801A publication Critical patent/JP2022106801A/ja
Application granted granted Critical
Publication of JP7464235B2 publication Critical patent/JP7464235B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/388Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】マーキングと実際にターゲット機器の正確な位置合わせを行う多層ビューイングシステム及び方法を提供する。【解決手段】多層ビューイングシステム110は、静止イメージャ及び物理層マーキングを物体の領域に投影するビームプロジェクタ(指向性照明源103)と、装着しているユーザが、ディスプレイを通して物体を直接見ること及び物体にスーパーインポーズされた注釈を表示することができるように十分に透明である拡張現実ディスプレイを含むヘッドセット106と、ターゲット10に対する選択された場所を受け取り、取得した画像内のマーキングの画像又は物体上のマーキングを識別することによって拡張現実ディスプレイの向きを決定し、注釈が選択された位置に表示されるときにユーザによって知覚できるように、拡張現実ディスプレイ上に注釈を表示するための表示場所を計算し、計算された表示場所に注釈を表示するプロセッサと、を有する。【選択図】図1

Description

本発明は、多層ビューイングシステムおよび方法に関する。
複雑な機器や機械のメンテナンス、組み立て、サービス、または操作では、「現場」、つまり物理的に機器の近くに位置し、機器の一部を手動で操縦することができる現地操作者が、遠隔地にいて機器と直接相互作用することのできない遠隔操作者と一緒に操作する、2人の人間の操作者間の協力が必要になることがよくある。2人の操作者は、機械または機器の一部の操作者、または顧客サイトで機器を修理する現地技術者が、操作を援助、指導、監督、および/または承認する専門家(例えば、遠隔サイトにいる)と一緒に働くなど、専門知識のレベルが異なる場合がある。あるいは、2人の操作者が同じレベルの専門知識を持っている場合があり(おそらく専門知識の補完分野で)、機器の複雑な問題について共同トラブルシューティングセッション(またはブレーンストーミング)を行う。
例えば、技術者(または現場の操作者)が、故障により生産が停止した機械を修理するために働く場合がある。技術者はトラブルシューティングおよび修理の手順を実施しようとする場合があるが、遠隔コールセンターにいる技術専門家からの支援を必要とする場合がある。別の例では、現地技術者が、上級職員による承認を必要とする複雑な修理を行う必要がある場合がある。そのような承認を受ける前に、現地技術者は、例えば遠隔地の監督者に障害を実証するように要求される場合がある。さらに別の例では、初心者の操作者が、異なるサイトにいる経験豊富な操作者の遠隔ガイダンスを必要とする場合がある。
このような共同メンテナンスや修理は、現在、画像やビデオによるコミュニケーションを利用して行うことができる。コミュニケーションにより、参加者は、機器の外観、図や説明書などの補助資料、説明やガイダンスの口頭によるコミュニケーションなどの情報を共有し得る。例えば、現場の操作者が機器の画像を遠隔地の専門家に送信する場合がある。遠隔地の専門家は、イラストや写真などの補足資料を添えた口頭のガイダンスやアドバイスを現地操作者に与える場合がある。現地操作者と遠隔地の専門家との間に言語的または文化的な違いがある場合、そのようなガイダンスは時間がかかり難しい場合がある。加えて、ビデオ、オーディオ、またはポインティング機器の取り扱い、貧弱な照明、ノイズ、または他の要因のような環境要因などの、人間工学的またはその他の制約は、このプロセスの難易度を高くし得る。
このような共同メンテナンス、修理、または操作中に、遠隔参加者が機器のオンライン遠隔ディスプレイビデオを使用して機器の位置にマークを付けることを可能にすることはしばしば非常に役立ち、一方で現地参加者はこのマーキングを機器に上重ねして見ることができる。例えば、遠隔地の専門家は、特定のターゲット(例えば、ノブ、ねじ、スイッチ、ワイヤ、または所望のパーツ)にマークを付け、現場の参加者または操作者にターゲットに対する特定の操作を行うように指示することができる(例えば、ノブを回す、ねじを開ける、スイッチを操作する、ワイヤを接続または切断する、または別の操作)。拡張現実(AR)ディスプレイ(ARメガネ、または別のシースルーARディスプレイなど)は、現場の参加者によって使用され得、一方遠隔地の専門家は、現場のカメラ(例えば、ARゴーグルに搭載されている)からのビデオを使用して機器の特定の場所を指定するためのマーキングを生成する。次に、拡張現実システムは、現場の操作者にARディスプレイ上のマーキングの画像を提示し、それによりマーキングが「現実世界」のターゲットの上に上重ねされるようにする。例えば、遠隔地の専門家は、機器の一部であり、特定の方向に回すノブにマークを付け得る。ARシステムを使用して、現場の技術者は、問題のノブの上に重ねられた、またはそれを指しているマーキングをディスプレイ上で見ることができ、おそらく、ノブを回す方向など、行うべき操作のなんらかの説明を備えている。
このようなARの使用には、ARレイヤディスプレイ上に表示されるマーキングと実際のターゲット機器の位置との間の正確な位置合わせが必要な場合がある。遠隔地の専門家が生成したマークは、ターゲット機器の上に重ねられた状態で現場の操作者に見えるべきであり、高精度でターゲットを指すことが期待され得る。わずかなずれでも、機器の間違った部分で操作が実行される可能性がある。ARシステムにおいて、そのような位置合わせを高精度で得るには、典型的には、機器に対するARディスプレイの正確な位置、およびユーザの目および/または瞳孔に対するARディスプレイの相対位置を考慮に入れる複雑な手順が必要である。そのような正確な位置合わせは、複雑な較正手順を必要とする場合があり、位置合わせの精度は時間と共に低下する可能性がある。
本発明の実施形態に従って、ターゲット物体を含む視野を有する画像を取得するように構成された静止イメージャと、1つ以上の物理層マーキングをターゲット物体のターゲット領域に投影するように制御可能なビームプロジェクタと、拡張現実ディスプレイおよび拡張現実ディスプレイの前の領域のシーン画像を取得するように構成されたシーンイメージャまたは拡張現実ディスプレイの前にヘッドセットビームを投影するように構成されたヘッドセットビームプロジェクタを含むヘッドセットであって、拡張現実ディスプレイが、ヘッドセットを装着している現地ユーザが拡張現実ディスプレイを通してターゲット物体を直接見ることを可能にするのに十分に透明であり、現地ユーザに見えるように直接見えるターゲット物体上にスーパーインポーズされた注釈を表示するように構成されている、該ヘッドセットと、プロセッサであって、注釈の表示のための、ターゲット領域に対して選択された場所を受け取り、シーン画像内の1つ以上の物理層マーキングの画像を識別することによって、または、1つ以上の物理層マーキングの画像、および静止イメージャによって取得される画像内のヘッドセットビームによって形成されたマークの画像、を識別することによって、拡張現実ディスプレイの向きを決定し、注釈が、ターゲット領域に対して選択された場所の位置に表示されるときに、現地ユーザによって知覚可能であるように、拡張現実ディスプレイ上に注釈を表示するための表示位置の場所を計算し、計算された表示場所で拡張現実ディスプレイ上に注釈を表示する、ように構成された、該プロセッサと、を含む、多層ビューイングシステムが提供されている。
さらに、本発明の実施形態によれば、ビームプロジェクタは、ユーザコントロールの操作によって制御可能である。
さらに、本発明の実施形態によれば、ユーザコントロールは、遠隔ユーザが、静止イメージャによって取得されるターゲット物体の画像上のターゲット領域を示すことよってビームプロジェクタを制御することを可能にする。
さらに、本発明の一実施形態によれば、ユーザコントロールは、静止イメージャによって取得されるターゲット物体の画像上の選択された場所を示すことによって、選択された場所の入力を可能にするように構成される。
さらに、本発明の実施形態によれば、ビームプロジェクタは、レーザを含む。
さらに、本発明の実施形態によれば、ビームプロジェクタは、パターンの形で物理層マーキングを投影するように構成されている。
さらに、本発明の一実施形態によれば、静止イメージャの視野は、物理層マーキングがビームプロジェクタによって投影され得る少なくともターゲット物体の領域を完全にカバーするのに十分大きく、シーンイメージャの視野よりも大きくそれを含む。
さらに、本発明の実施形態によれば、ビームプロジェクタはターゲット物体の表面の上で1つ以上の物理層マーキングを走査するようにさらに構成されている。
さらに、本発明の実施形態によれば、プロセッサは表面の傾斜角を計算するようにさらに構成されている。
さらに、本発明の一実施形態によれば、システムは遠隔ステーションを含む。
さらに、本発明の実施形態によれば、遠隔ステーションは、遠隔ディスプレイおよびユーザコントロールを含む。
さらに、本発明の実施形態によれば、静止イメージャおよびビームプロジェクタは、単一の静止ユニットに組み込まれる。
さらに、本発明の実施形態によれば、システムは、少なくとも1つの追加のイメージャまたは少なくとも1つの追加のプロジェクタを含む。
さらに、本発明の実施形態によれば、プロセッサは、少なくとも1つの追加のイメージャを操作して、静止イメージャには見えないと識別されたターゲット物体の領域の画像を取得するか、または少なくとも1つの追加のプロジェクタを操作して、ビームプロジェクタによって放出されたビームにアクセスできないと識別されたターゲット物体の領域上にマーキングを投影するようにさらに構成されている。
本発明の実施形態によれば、静止イメージャと、ビームプロジェクタと、拡張現実ディスプレイおよび拡張現実ディスプレイの前の領域のシーン画像を取得するように構成されたシーンイメージャまたは拡張現実ディスプレイの前にヘッドセットビームを投影するように構成されたヘッドセットビームプロジェクタを含むヘッドセットと、を含む、ビューイングシステムの操作方法がさらに提供されており、拡張現実ディスプレイは、ヘッドセットを装着している現地ユーザが拡張現実ディスプレイを通してターゲット物体を直接見ることを可能にするように十分透明であり、直接見えるターゲット物体上にスーパーインポーズされて見ることができる注釈を表示するように構成されており、本方法は、シーンイメージャを使用して、1つ以上の物理層マーキングがビームプロジェクタによってターゲット物体のターゲット領域上に投影されるときのターゲット物体のシーン画像を、または静止イメージャを使用して、1つ以上の物理層マーキングおよびヘッドセットビームによって形成されたマークを含む画像を、取得するステップと、注釈の表示のための、ターゲット領域に対して選択された場所を受け取るステップと、取得されたシーン画像において、1つ以上の物理層マーキングの画像、または1つ以上の物理層マーキングの画像およびヘッドセットビームによって形成されたマークの画像、を識別するステップと、注釈が、ターゲット領域に対して選択された位置に表示されるときに、現地ユーザによって知覚可能であるように、拡張現実ディスプレイ上に注釈を表示するための表示位置の場所を計算するステップと、計算された表示場所で拡張現実ディスプレイ上に注釈を表示するステップと、を含む。
さらに、本発明の実施形態によれば、ターゲット物体のシーン画像を取得するステップは、1つ以上の物理層マーキングのうちのある物理層マーキングがターゲット物体の表面にわたって走査されるときに複数のシーン画像を連続して取得するステップを含む。
さらに、本発明の実施形態によれば、本方法は、連続して取得されたシーン画像内の走査された物理層マーキングの画像の場所を識別することによって、表面の傾斜角を計算するステップを含む。
さらに、本発明の実施形態によれば、シーンイメージャを使用して取得する前に、重ね合わせ較正手順が実行される。
さらに、本発明の実施形態によれば、重ね合わせ較正手順は、ビームプロジェクタを操作して、1つ以上の較正物理層マーキングをターゲット物体に投影するステップを含む。
さらに、本発明の一実施形態によれば、重ね合わせ較正手順は、注釈が、そのマーキングにスーパーインポーズされるときに1つ以上の較正物理層マーキングのマーキングを見ているヘッドセットのユーザに見えるように、拡張現実ディスプレイ上に較正注釈を表示するステップをさらに含む。
発明とみなされる主題は、本明細書の結論部分で特に指摘され、明確に請求される。しかし、本発明は、その目的、特徴、および利点と共に、操作構成および方法の両方に関して、添付の図面と共に読まれる場合、以下の詳細な説明を参照することによって最もよく理解され得る。
ウェアラブルヘッドセットを備えた多層ビューイングシステムを模式的に図示する。 静止イメージャ201を備えた多層ビューイングシステムを模式的に図示する。 第2の指向性照明源を備えた多層ビューシステムを模式的に図示する。 本発明の実施形態による、多層ビューイングシステムを模式的に図示する。 本発明の実施形態による、多層ビューイングシステムの操作の方法を示すフローチャートである。
実例を簡略かつ明確にするために、図に示される要素は、必ずしも縮尺通りに描かれていないことが理解されよう。例えば、いくつかの要素の寸法は、明確にするために他の要素に比較して誇張され得る。さらに、適切であると考えられる場合、対応する要素または類似の要素を示すために、参照番号が図の間で繰り返され得る。
以下の詳細な説明において、本発明の完全な理解を提供するために、多くの具体的な詳細が記載される。しかし、本発明は、これらの具体的な詳細を伴わずに実行され得ることが、当業者には理解される。他の事例では、本発明を不明瞭にしないために、周知の方法、手順、およびコンポーネント、モジュール、ユニットおよび/または回路は、詳細には説明されていない。一実施形態に関して説明されるいくつかの特徴または要素は、他の実施形態に関して説明される特徴または要素と組み合わせられ得る。明確にするために、同じまたは類似の特徴または要素の議論は繰り返されない場合がある。
本発明の実施形態はこの点に関して限定されないが、例えば、「処理」、「コンピューティング」、「計算」、「決定」、「確立」、「分析」、「チェック」、などのような用語を使用する議論は、コンピュータ、コンピューティングプラットフォーム、コンピューティングシステム、または他の電子的コンピューティングデバイスの操作(複数可)および/またはプロセス(複数可)を指す場合があり、コンピュータのレジスタおよび/またはメモリ内の物理的(例えば、電子)量として表されるデータを、コンピュータのレジスタおよび/またはメモリ内、または操作および/またはプロセスを行うための命令を格納し得る他の情報の非一時的記憶媒体内の物理量として同様に表される他のデータに操作および/または変換する。本発明の実施形態はこの点に関して限定されないが、本明細書で使用される「複数(plurality)」および「複数(a plurality)」という用語は、例えば、「多数(multiple)」または「2つ以上(two or more)」を含み得る。「複数(plurality)」または「複数(a plurality)」という用語は、本明細書全体を通して、2つ以上のコンポーネント、デバイス、要素、ユニット、パラメータなどを説明するために使用される場合がある。明示的に述べられていない限り、本明細書で説明される方法の実施形態は、特定の順序またはシーケンスに制約されない。加えて、説明されている方法の実施形態またはその要素のいくつかは、同じ時点で、または併行して、同時に発生もしくは行うことができる。
本発明の実施形態によれば、多層拡張現実(AR)システムは、遠隔ユーザがターゲット場所をマークし、シースルーの拡張現実ディスプレイを介して現地ユーザに見え得るターゲット物体に関連する追加情報を追加することを可能にするように構成される。情報には、ターゲット物体に直接投影された物理層マーキング(例えば、投影光ビームを介して)、および拡張現実ディスプレイに表示される注釈またはその他のマーキング(このようなすべてのマーキングを本明細書では注釈と呼ぶ)を含む「仮想層」が含まれ、それは、ARディスプレイ(例えば、ARゴーグルまたは別のヘッドアップディスプレイ)を介して見えるターゲット物体の直接ビューにスーパーインポーズされて現地ユーザによって見え得る。
遠隔ユーザは、ターゲット物体からの遠隔サイトの実際の物理的な距離に関係なく(例えば、隣接する部屋の近くであってもよく、ターゲット物体と同じ部屋内の別の場所であってもよい)、遠隔ユーザがターゲット物体に直接物理的にアクセスできない遠隔サイトにいる場合がある(例えば、別の建物、都市、国、またはその他の場所)。
ターゲット物体には、例えば、機器、工作物、人体または動物の体、植物、サンプル(例えば、生物学的、化学的、地質学的、または他のタイプのサンプル)、または現地ユーザが見るために遠隔ユーザによってマークされ得る他のターゲット物体が含まれる。現地ユーザは、典型的には、ターゲット物体への直接アクセス(例えば、直接の物理的接触またはツールの使用のいずれかを介して)を有するようにターゲット機器のサイトに位置している。
多層ビューイングシステムは、遠隔ビューア(例えば、パンチルトズームカメラ、webカメラ、または他のタイプのカメラ)にターゲット区域の画像を提供する少なくとも1つの静止イメージャ、物理層のマークおよび/または画像を投影できる遠隔制御プロジェクタ、現地ユーザの目とターゲット物体との間に位置するシースルーディスプレイ(例えば、ARゴーグル、ヘッドアップディスプレイ、または他のシースルーディスプレイ)に画像を投影するための拡張現実プロジェクタを典型的に含む拡張現実ディスプレイ、および拡張現実ディスプレイによって表示される情報をターゲット物体と位置合わせし、プロジェクタの動きを制御するように構成されたプロセッサ、を含む。
典型的には、システムは、各々が1つ以上のイメージャ(本明細書では静止イメージャと各々呼ばれる)およびプロジェクタを含む1つ以上の静止ユニットを含み得る。各ユニットは、典型的には、(例えば、プロセッサ、プロセッサへの通信リンク、制御回路、または他のコントローラコンポーネントのうちの1つ以上を含む)コントローラを含む。各静止イメージャの視野は、典型的には、ターゲット物体を含み、少なくとも1つのビームプロジェクタでマークされ得る空間の領域を完全にカバーするのに十分な大きさである。ユニットのコントローラは、ユニットの静止イメージャからの画像を使用して、閉ループでのビームプロジェクタの操作と静止イメージャとの間を調整するように構成され得る。
典型的には、システムは、ヘッドマウントヘッドセットユニット(拡張現実ディスプレイを含む)を含み、ヘッドセットユニットには、典型的には、現地ユーザの直接正面の(視線方向の)シーンを撮像するように構成されたシーンイメージャが含まれる。場合によっては、ヘッドセットは、ヘッドセットの正面に(例えば、視線方向に)直接ビームを投射するように構成されたビームプロジェクタ(例えば、シーンイメージャに加えて、またはその代わりのいずれかの)を含み得る。
各静止ユニットは、ターゲットの少なくとも一部に画像化して投影するようにターゲットの近くに位置付けられている。1つを超える静止ユニットが含まれている場合、最適な設定には、異なる静止イメージャが異なる方向からターゲット物体を見るように(そして異なる方向からビームをターゲット物体に投影するように)様々な静止ユニットを配置することが含まれる。このため、1つの静止ユニットへの直接の視線がないターゲット物体のセクションは、別の場所にある追加の静止ユニットによってカバーされ得る。典型的には、少なくとも1つの静止ユニットは、固定された(例えば、移動しない限り所定の位置に留まる)場所、例えば、三脚またはスタンドの上、テーブル、カート、または他の家具の上、棚(shelf)、棚(ledge)、または、壁、天井、あるいはターゲットの取り付け可能な静止部分に取り付けられた他の固定構造の上、に取り付けられ、さもなければ自律的に移動できない構造物に取り付けられる。1つ以上の追加の静止ユニットが、現地ユーザまたは別の人の体の一部(例えば、肩、胴、腕、または他の部分)に取り付けられてもよい。
イメージャ(静止またはヘッドマウント)には、例えば、ビデオカメラ、連続した画像を取得するように構成されたカメラ、または別のタイプの撮像デバイスが含まれる。イメージャは、可視画像、赤外線画像、または別のスペクトル範囲の画像を取得するように構成され得る。いくつかの例では、イメージャは、双眼鏡ペアまたは2つ以上のイメージャの他の組み合わせを含み得る。
多層ビューイングシステムはまた、ターゲットの近くに位置する現地ユーザの頭に装着されるヘッドマウントイメージャ(本明細書では「シーンイメージャ」と呼ばれる)を含み得る。典型的には、ヘッドマウントイメージャは、現地ユーザの頭の前にある視野の画像を取得するように構成されている。このため、ヘッドマウントイメージャの視野は、現地ユーザの頭が回転すると変化し得る。ヘッドマウントイメージャの視野は、現地ユーザが所与の動きで見ている現在の視野に近いものにし得る。しかしながら、現在の視野は現地ユーザの頭に対して現地ユーザの目が向けられている方向によっても決まるため、現在の視野はヘッドマウントイメージャの視野と正確に一致しない場合がある。典型的には、ヘッドマウントイメージャの視野は、現地ユーザの目の向きに関係なく、現在の視野を包含するように十分に大きくなっている。
本明細書で使用されるとき、カメラは、ターゲットのサイトで現地ユーザまたは他の人と一緒に移動しない固定具に取り付けられた場合、静止していると見なされる。現地ユーザの動きとは無関係に移動可能な回転可能または平行移動可能なマウントに取り付けられたイメージャも、静止していると見なされる。
遠隔ユーザは、多層ビューイングシステムの遠隔ステーションを操作し得る。例えば、遠隔ステーションは、遠隔ディスプレイを含み得、それを介して、遠隔ユーザは、1つ以上の静止イメージャ、ヘッドマウントイメージャ、またはその両方によって取得された画像を見ることができる。遠隔ステーションは、現地ユーザが見るためのマーキングのために、遠隔ユーザが、ターゲットの画像の領域を示すか、または固定座標でターゲット上の位置を示すことを可能にする1つ以上の制御を含む。これらの制御は、遠隔ユーザが注釈を追加したり、さもなければマークする情報を追加したりすることを可能にし得る。
多層ビューイングシステムは、1つ以上のマーキングをターゲット物体のターゲット領域に直接投影するためのプロジェクタを含む。このようなマーキングは、本明細書では物理層マーキングと呼ばれる。例えば、プロジェクタは、光線をターゲット物体に投影することができるレーザ、または別の照明デバイスを含み得る。投影ビームは、可視光を含んでもよく、またはヘッドマウントイメージャ(および以下で説明する拡張現実ディスプレイ)を介して現地ユーザが見ることができる非可視光(例えば、赤外線)を含んでもよい。いくつかの例では、プロジェクタは、ラスターパターンまたは他のパターンで迅速に走査されるように構成され得る。(本明細書で使用されるとき、高速走査とは、パターンを有する完全な走査ビームが、残像により、静止した形の安定した表示として観察者に知覚されるような速度で走査することを指す)。いくつかのそのような例では、ビームは、一次元または二次元の輪郭またはターゲット領域の他の表示を概略示す、またはそうでなければ提供するパターンで走査し得る。いくつかのそのような例では、投影ビームの強度は、ビームの走査と並行して変調されてもよく、それにより、ターゲット領域を照らすか、またはより複雑なマーキングを形成する(例えば、注釈を使用するか、さもなければ領域の単純な輪郭よりも複雑にして、ターゲット領域を視野内の他の領域から区別する)。
いくつかの例では、プロジェクタは、(例えば、現地ユーザにガイダンスを提供するために、または現地ユーザへの質問を明確にするために)遠隔ユーザによって操作されてもよい。いくつかの例では、プロジェクタは、遠隔ユーザまたは現地ユーザのいずれかによって操作されてもよい(例えば、マークされた場所に遠隔ユーザの注意を引くのに使用するために)。いくつかの例では、現地ユーザおよび遠隔ユーザによる操作のために、別個のプロジェクタが提供されてもよい。いくつかの例では、2つ以上の異なるプロジェクタによって作成されたビームは、それらの色、スポット形状、またはその他によって、互いに区別可能であることができる。
現地ユーザには、拡張現実ディスプレイが提供される。典型的には、拡張現実ディスプレイは現地ユーザの頭に装着され、ヘッドマウントイメージャを備えた単一のヘッドマウントユニットの一部であり得る。拡張現実ディスプレイは、現地ユーザの目で見られるシーンにスーパーインポーズされて、現地ユーザによって見られる画像を表示するように構成される。典型的には、拡張現実ディスプレイには透明または半透明のゴーグルが含まれており、それを通して現地ユーザが、ターゲット物体(または任意の他のシーン)を(光を電子信号に変換することを介在させることなく、光学系のみを介した直接の視線を介して)直接見ることができ、かつ現地ユーザのターゲット物体の直接のビューを完全に覆い隠すことなく、追加のマーキング(例えば、英数字テキスト、記号、枠取り、強調表示、または他のマーキングの形態の)をそれに投影さもなければ表示し得る。このようなマーキングは、本明細書では拡張現実層マーキングと呼ばれる。
多層ビューイングシステムのプロセッサ(例えば、拡張現実ディスプレイまたは他の場所に組み込まれている)は、拡張現実ディスプレイに表示される任意の情報をターゲット物体と位置合わせするように構成され得る。例えば、注釈には、ターゲット物体のターゲット領域またはコンポーネントの識別、ターゲット領域内の物体の検査または操作(例えば、ノブやボルトなどの物体の回転、物体への力の適用、カバーの解放、潤滑剤または他の物質の適用、外科的または他の医療的手順の適用、サンプリング、または他の修正または操作)に関する表示された命令または記号(例えば、動きまたは回転の方向を示すもの)、ターゲット物体のコンポーネントの色分け、またはその他の注釈、が含まれ得る。位置合わせは、注釈が、現地ユーザが見るときに拡張現実ディスプレイ上の意図した場所に位置付けされることを保証する。
例えば、プロセッサは、意図された位置合わせを達成するために、ヘッドマウントイメージャによって取得された画像を用いてターゲット物体の物理層マーキングを利用するように構成され得る。例えば、物理層マーキングは、ターゲット物体上の特定のターゲット場所をマークするためにユーザによって制御され得る。典型的には、遠隔ユーザは、静止イメージャによって取得された遠隔表示画像上の場所を選択し得る。遠隔ユーザは、同じディスプレイ上で、拡張現実ディスプレイ上に表示されることになる特定の注釈の場所を示し得る。典型的には、多層ビューイングシステムは、既知の技術(例えば、画像処理技術)を適用して、静止イメージャの典型的により大きな視野内でヘッドマウントイメージャの視野の場所を決定し得る。プロセッサは、画像処理技術を適用して、ヘッドマウントイメージャによって取得される物理層マーキングの画像を識別するように構成され得る。次に、プロセッサは、(例えば、静止イメージャの視野のディスプレイ上でユーザによって示されるときに)画像化された物理層マーキングに対する場所で拡張現実層に注釈を適用するように構成され得る。このため、表示される注釈は、物理層マーキング、つまりターゲット物体に対して意図した場所に表示される。
代替的にまたは追加して、拡張現実ディスプレイを備えたヘッドセットに結合されているヘッドセットプロジェクタは、ヘッドセットの向きを示すビームを投射し得る。ヘッドセットプロジェクタによって投射されるビームは、追加のヘッドセットマーキングでターゲット物体(物理的)をマークし得る。例えば、静止イメージャによって画像化されるような、(静止)ビームプロジェクタによって投影される物理層マーキングに対するヘッドセットマーキングの場所は、1つ以上の静止物体(例えば、ターゲット物体または静止イメージャ)に対するヘッドセットの向きを示す場合がある。例えば、ヘッドセットマーキングは、その色、形状、偏光、または他の特性によって、取得された画像内で物理層マーキングと区別できる場合がある。
注釈と物理層マーキングとの間の位置合わせの正確さは、ARディスプレイに対する目の回転を補償するために連続的に調整され得ることに留意されたい。例えば、初期較正手順の間、例えば、ターゲット物体での作業を開始する前に、現地ユーザの目の視線方向と物理層マーキングとの間の位置合わせが決定され得る。例えば、現地ユーザは、マーキングを真正面に見ながら(例えば、目が顔の直接前方を見て)、物理層マーキングを見てそれに直面するように要求される場合がある。同時に、拡張現実ディスプレイを操作して、注釈をマークの形で表示し得る。注釈マークの場所は、注釈マークが、物理層マーキングと一致するように現地ユーザによって見えるまで、(例えば、現地ユーザによって操作される制御によって、または遠隔ユーザとの通信を介して)調整され得る。
代替的にまたは追加して、例えば、現地ユーザの顔とヘッドセットとは静止したままであるのに対して、現地ユーザは、物理層マーキングがターゲット物体上の異なる場所(例えば、ターゲット物体の中心にあるポイントおよび縁部にあるポイント)に投影されるときに、ターゲット物体に直面するように要求されることがある。ターゲット物体(例えば、静止イメージャによって取得された画像内の)上の、およびヘッドマウントシーンイメージャによって取得された画像内の、マーキングの位置を分析して、ターゲット物体に対して固定されている座標系(例えば、グローバルまたはローカル座標系に対して定義されるような、静止座標)、およびヘッドマウントシーンイメージャに対して定義された可動座標系からの変換を生成し得る。
初期位置合わせ較正中に見える物理層マーキング内のポイント数を増やすか、または物理層マーキングのポイント間の分離により、初期位置合わせ較正の精度の向上をもたらし得る。
初期位置合わせの後、システムは、現地ユーザの目の計算された向きに従って注釈の配置を調整し続け得る。例えば、注釈は、物理層マーキングによってマークされたターゲット物体のターゲット領域上にスーパーインポーズされて見えるように表示されるように意図されている場合がある。現地ユーザが現在物理層マーキングを見ていると想定し得る(例えば、それにより注釈が現地ユーザにとって有用であると想定される)。
例えば、標準的な画像分析技術を適用して、ヘッドマウントシーンイメージャの視野の、したがってヘッドセットの(例えば、ターゲット物体に対する)向きを識別し得る。代替的にまたは追加して、ヘッドマウントユニットがビームプロジェクタを含む場合、ヘッドマウントプロジェクタによって投影されるマークの画像化された位置は、ヘッドセットの向きの決定を可能にし得る。(場合によっては、ヘッドセットマウントビームプロジェクタを使用したヘッドセットの向きの決定は、現地ユーザの体に取り付けられた追加のイメージャによって容易になることがある。)
ヘッドセットおよび拡張現実ディスプレイの向きが決定された後、物理層マーキングの画像化された位置(現地ユーザが見ていると想定される)とヘッドマウントシーンイメージャの向きとの間の角度の隔たりは、ヘッドマウントシーンイメージャに対する現地ユーザの目の回転に等しいと想定され得る。拡張現実ディスプレイに表示される注釈は、適宜変位する場合がある。例えば、注釈は、初期位置合わせ較正に基づいて、物理層マーキングが拡張現実ディスプレイを介して現地ユーザに表示されることが計算されている位置に表示されてもよい。
物理層マーキングと拡張現実層の注釈との間のこのような位置合わせが、他の手法よりも有利な場合がある。加えて、そのような位置合わせは、目の瞳孔追跡またはそのような位置合わせを達成するための他の技法の複雑さを回避し得る。
場合によっては、プロセッサは、各ターゲット領域に対するビームプロジェクタ座標に対して、(静止イメージャの視野で測定して)ターゲット物体上の物理層マーキングの座標をマップするように構成され得る。これは、物理層マーキングをターゲット物体上の新しい位置に高速でオープンループで移動することを可能にし得る。
さらに、プロセッサは、このマーカー位置マップを使用して、遠隔ユーザによって定義された、または(イメージャの視野に位置合わせされている)ターゲット物体の画像から得られたターゲット物体のコンポーネントまたは領域を選択的に照明または輪郭を描くように構成され得る。連続して取得された画像フレーム内の物理層マーキング区域上のプロジェクタスポットの移動速度を解釈して、画像平面(または画像平面に垂直)に対するターゲット物体の表面の向き、またはプロジェクタの向きを生成し得る。そのような方向の知識は、物理層マーキングの配置の精度をさらに高めるために、または現在イメージャに見えていないターゲット物体の一部にユーザを導く際に利用され得る。場合によっては、プロセッサは、ヘッドセットがテスト物体、物理層マーキング、または別の特定の領域に面しているとプロセッサが判断したときに、オーディオコンテンツ(例えば、口頭による説明)または他の非視覚的コンテンツを再生するように構成され得る。
図1は、ウェアラブルヘッドセットを備えた多層ビューイングシステムを模式的に図示する。多層ビューイングシステム110は、ターゲット物体10を操作している少なくとも1人のユーザのための同期されたターゲット位置特定を可能にし得る。
いくつかの例では、参加者のうちの少なくとも1人(例えば、ターゲット物体10のメンテナンスに参加している現地または遠隔ユーザ)は、コンピュータ化されたシステムによって置き換えられてもよい。例えば、コンピュータ化されたシステムは、シーンの画像を受け取り、例えば画像処理技術を適用することによって、マークされるターゲット物体10上の場所を決定し、この場所を人間のユーザが見るためにマークしてもよい。いくつかの例では、人間のユーザは、多層ビューイングシステム110のコンピュータ化されたシステムによって生成されたターゲットの位置特定の助けを借りてターゲット物体10を手動で操作するために現場にいる現地ユーザであり得る。いくつかの例では、人間のユーザは、ターゲット物体10の遠隔にいる遠隔ユーザであり得、ターゲット物体10の画像を送信するためのカメラを有する現場コンピュータ化システムからターゲットの位置特定の助けを借りてターゲット物体を遠隔で操作し得る(例えば、遠隔ユーザが遠隔でロボットアームを操縦して)。
いくつかの例では、少なくとも1人の参加者またはユーザは、ターゲット物体10のターゲット領域20上で操作を行うこと(例えば、回路基板のコンポーネントを交換するために、または他の修理やメンテナンスを行うために)を意図する、物理的に現場にいる、またはターゲット物体10の近くにいる現地ユーザであり得る。現地ユーザは、視野102を有する少なくとも1つのイメージャ101(例えば、ビデオカメラ)を装備し得る。いくつかの例では、イメージャ101は、ターゲット領域20を含む視野102で画像を捕捉するように構成され得る。いくつかの例では、イメージャ101は、視野102が、ターゲット物体10を手動で操作している現地ユーザの目の実際の視野に対応し得るように、現地ユーザによって(例えば、頭に)着用可能であり得る。
いくつかの例では、現地ユーザはまた、物理層マーキング107でターゲット領域20を示すためにビーム104を放出するように構成された少なくとも1つの指向性照明源103(例えば、レーザ源または他のビーム源)を装備し得る。いくつかの例では、指向性照明源103は、ビーム104が現地ユーザの頭の方向(例えば、注視の方向)に対応し得るように、現地ユーザによって着用可能であり得る。このため、物理層マーキング107は、ターゲット物体10上の現地ユーザの注視点を他の(例えば、遠隔の)ユーザに示し得る。
いくつかの例では、イメージャ101および/または指向性照明源103は、ターゲット領域20と適切に位置合わせするように、ユーザ(現地または遠隔の)によって移動可能および/または制御可能であり得る。
いくつかの例では、多層ビューイングシステム110は、イメージャ101から信号を受け取り、指向性照明源103を制御するように構成された少なくとも1つのプロセッサ105を含み得る。いくつかの例では、イメージャ101および/または指向性照明源103の動きは、プロセッサ105によって制御され得る。いくつかの例では、プロセッサ105とイメージャ101および指向性照明源103との間の通信は、少なくとも部分的に(例えば、Wi-Fiおよび/またはBluetooth(登録商標)を介して)無線であり得る。
ヘッドセット106は、現地ユーザが着用することができる。ヘッドセット106は、(例えば、ユーザの目がユーザの顔の真正面を見て、瞳孔が中央の位置にある場合)現地ユーザの通常の視野に位置合わせされた視野を有するイメージャ101を少なくとも含み得、それは現地ユーザの視線を他のユーザに示し得る。ヘッドセット106はまた、(例えば、ヘッドセットに固定された)指向性照明源103を含み得、その結果、ユーザの頭の動きは、ヘッドセット106の対応する動きを引き起こし得、それにより、現地ユーザがビーム104を照準して物理層マーキング107をターゲット領域20上に配置することを可能にする。指向性照明源103はまた、可動であり、遠隔ユーザと現地ユーザの両方によって制御可能であり得る。
いくつかの例では、プロセッサ105は、ヘッドセット106に組み込まれてもよい。いくつかの例では、ヘッドセット106は、他のデバイスと(例えば、無線で)通信するための通信モジュールを含み得る。いくつかの例では、イメージャ101および指向性照明源103のうちの少なくとも1つは、ヘッドセット106とは別に動かされてもよい。
図2Aは、静止イメージャ201を備えた多層ビューイングシステム200を模式的に示す。静止イメージャ201は、ターゲット物体10を操作している現地ユーザを支援する遠隔ユーザによって制御および/または動かされ得る。いくつかの例では、静止イメージャ201は、プロセッサ105および/またはリモートサーバと通信し得る。例えば、イメージャ101は、第1の視野(視野202)でターゲット領域20に向けられてもよく、静止イメージャ201は、視野202(例えば、視野102よりも広い視野)で異なる位置からターゲット領域20に向けられてもよい。例えば、静止イメージャ201を操作する遠隔ユーザは、現在現地ユーザには見えないターゲット物体10での追加の要素を観察する場合がある。別の例として、遠隔ユーザは、例えば現地ユーザとの音声通信を介して(例えば、ヘッドセット106の専用スピーカを介して)物理層マーキング107をターゲット領域20に正確に適用するようにビーム104の位置合わせを修正し得、こうして現地ユーザの動きを指導する。
いくつかの例では、静止イメージャ201は、現地操作者がイメージャ101によるターゲット物体10の視界を遮っているときに、ターゲット物体10またはターゲット領域20のより良好な(例えば、より広い視野、より安定した、またはそうでなければ好ましい)視界を可能にし得る。例えば、遠隔ユーザは、静止イメージャ201を使用して、異なる視野角からターゲット物体10を見ることができる。いくつかの例では、遠隔ユーザは、イメージャ101および静止イメージャ201の両方から画像を同時に受信し得る。いくつかの例では、多層ビューイングシステム200の異なるイメージャは、例えば、1つは可視光で1つは赤外線で、異なるスペクトル帯域の画像を取得し得る。いくつかの例では、多層ビューイングシステム200のイメージャは、現地ユーザの視線の方向を決定するために視線検出を検出し、例えば、それに応じて指向性照明源103を方向付けるように構成され得る。
いくつかの例では、多層ビューイングシステムの少なくとも1つのイメージャは、周囲照明によって照らされていないターゲット物体10内の部分を照らすために追加の照明ユニットを装備し得る。
図2Bは、第2の指向性照明源203を備えた多層ビューイングシステム210を模式的に図示する。第2の指向性照明源203は、ターゲット物体10を操作している現地ユーザを支援する遠隔ユーザによって制御(例えば、回転または並進)され得る。例えば、遠隔ユーザは、第2の指向性照明源203を制御して、第2のビーム204を照準し、それにより第2の物理層マーキング207をターゲット物体10上の特定の点に適用し得る。別の例として、遠隔ユーザは、第2の物理層マーキング207を適用して、物理層マーキング107によって示される現在のターゲット領域20がエラーであることを示し、正しいターゲット領域20を示し得る。
いくつかの例では、第2の指向性照明源203は、物理的に変位され、静止イメージャ201から別個に制御可能(例えば、プロセッサ105によって)であり得る。
例えば、第2の指向性照明源203は、レーザポインタであってもよく、レーザポインタ(第2の指向性照明源203)からの指向性光線(第2のビーム204)がターゲット物体10の表面に衝突する点で可視照明(第2の物理層マーキング207)を作り出し得る。第2の物理層マーキング207は、他のユーザまたは参加者に見える場合がある。マーキングが仮想のみ(例えば、拡張現実デバイスを使用して)である方法とは対照的に、そのような物理的マーキングは、ターゲット要素(ターゲット領域20)の正確な位置特定を可能にすることが理解されるべきである。
いくつかの例では、第2の指向性照明源203は、ビーム間の視覚的な区別を可能にするために、ビーム104の色とは異なる色を有する第2のビーム204を放出し得る。1つまたは2つのイメージャおよび指向性照明源が図に示されているが、任意の数の要素が可能であり得ることに留意されたい。例えば、多層ビューイングシステムは、2人の遠隔ユーザによって制御される第2および第3のイメージャおよび第2および第3の指向性照明源を含み得、それにより、指向性照明源から放出される各ビームが異なる色を有し得る。
いくつかの例によれば、対応するユーザ(または操作者)の視線の方向を決定するために、事前定義された位置に対する少なくとも1つのイメージャまたは指向性照明源の方向が感知され得る。いくつかの例では、各イメージャまたは指向性照明源の初期位置は、任意の動きを初期位置と比較できるように事前定義され得る。いくつかの例では、各イメージャまたは指向性照明源の向きまたは位置決めは、全地球測位システム(GPS)デバイス、加速度計、ジャイロスコープ、または他の位置または向きセンサによって決定され得る。
いくつかの例によれば、少なくとも2つの指向性照明源が、ターゲット物体10上の単一の点に向かってビームを同時に放出し得る。この様態では、滑らかな表面からの反射の影響が考慮され得る。例えば、2つの指向性照明源103が、異なる位置に位置付けされ、単一の場所に向けてビーム104を放出し得る。いくつかの例では、そのような複数の指向性照明源の感知された向きは、複数のイメージャの視野の中で正確な位置合わせを可能にし、したがって、画像重ね合わせを使用していくつかのフレームの組み合わせを可能にする。
いくつかの例によれば、多層ビューイングシステム210は、プロセッサ105に結合され、少なくとも1つの記号(またはパターン)を参加者に見えるようにターゲット物体10に投影するように構成された少なくとも1つのプロジェクタ205を含み得る。例えば、プロジェクタ205は、ターゲット領域20の近くの特定のノブを回すための命令を投影し得る。いくつかの例では、少なくとも1つのプロジェクタ205が少なくとも1つの指向性照明源に埋め込まれてもよい。いくつかの例では、投影はヘッドセット上に表示されてもよい。
いくつかの例では、多層ビューイングシステム210のイメージャによって取得された画像は、将来の処理のためにプロセッサ105と通信するメモリユニットに格納され得る。例えば、ターゲット物体10に対する操作の参加者は、ターゲット物体10の現在のビューを以前に取得された画像と比較し得る。
いくつかの例では、イメージャまたは指向性照明源は、ターゲット物体10の部品に取り付けられてもよく、現地ユーザの身体部分に搭載されてもよく、または三脚またはフレックスアームなどの取り付けデバイスを使用してターゲット物体10の近くに配置されてもよい。いくつかの例では、ターゲット物体10の各タイプの操縦またはターゲット物体10の各領域は、イメージャまたは指向性照明源の配置に有利であると以前に決定された場所に関連付けられ得る。
いくつかの例では、遠隔ユーザは、現地ユーザをガイドして、ターゲット物体10の特定の部分であって、現在現地ユーザには見えない部分の操縦を行い得る。そのような例では、遠隔ユーザは、第2の指向性照明源203を操作して、現地ユーザがその部品を突き止めることを可能にする大体の方向を示す第2の物理層マーキング207を提供する。遠隔ユーザは、機器サイトの広角ビューを見て、関心のある部分への現地ユーザのガイダンスを容易にし得る。
図3は、本発明の実施形態による、多層ビューイングシステムを模式的に図示する。
典型的には、多層システム300は、現地ユーザ(例えば、直接見ることができ、場合によっては、ターゲット物体10の少なくとも一部に触れ、処理し、または操縦するために物理的に接触するユーザ)が装着するためのヘッドセット306と、遠隔ユーザが操作するための遠隔ステーション320とを含む。遠隔ユーザは、ターゲット物体10から物理的に離れた場所にいてもよく、ターゲット物体10の近くにいるが、ヘッドセット306を着用しているユーザであってもよく、または現地ユーザと同一であってもよい。
遠隔ステーション320は、典型的には、ユーザコントロール322および遠隔ディスプレイ324を含む。例えば、ユーザコントロール322は、静止イメージャ201、ビームプロジェクタ303、拡張現実シーンイメージャ301、および拡張現実ディスプレイ302のうちの1つ以上の動作を制御するために遠隔ユーザによって操作され得る。遠隔ディスプレイ324は、静止イメージャ201、拡張現実シーンイメージャ301、または1つ以上の他のソース(例えば、プロセッサ105に関連付けられたデータ記憶デバイスから、あるいは遠隔ユーザがアクセスできる別のソースから検索されたターゲット物体10に関連する画像または他のドキュメント)のうちの1つ以上からの画像を表示するために使用され得る。ターゲット物体10の取得画像を遠隔ディスプレイ324上で見ている遠隔ユーザは、ユーザコントロール322を操作して、表示された画像上のターゲット場所(ターゲット領域20)を示し、ビームプロジェクタ303に物理層マーキング307を示された場所に投影させ得る。ターゲット物体10の取得画像を遠隔ディスプレイ324上で見ている遠隔ユーザは、ユーザコントロール322を操作して、表示された画像上の選択された場所を示し、拡張現実ディスプレイ302に注釈310を選択された場所に表示させ得る。例えば、拡張現実ディスプレイ302は、拡張現実ディスプレイ302の半透明シースルーコンポーネント上に注釈を投影するように構成されたプロジェクタを含んでもよく、または、そうでなければ(例えば、液晶ディスプレイまたは他の方法を用いて)注釈310を拡張現実ディスプレイ302上に表示するように構成されてもよい。
多層システム300では、ターゲット物体10のターゲット領域20は、ビームプロジェクタ303(これは、図2Bの第2の指向性照明源203と同一または同様であり得る)によって投射される投影ビーム304を用いて物理層マーキング307でマークされ得る。例えば、ビームプロジェクタ303の操作は、プログラムされた命令に従って自動的に、または多層システム300のユーザ(例えば、遠隔ユーザ)によって操作される制御装置に応答して、プロセッサ105によって制御され得る。
場合によっては、ビームプロジェクタ303は、静止イメージャ201(例えば、独立して移動可能または回転可能であるが単一のスタンドに取り付けられている)を含む単一の静止ユニット312の一部であってもよい。場合によっては、多層システム300は、例えば、追加の静止位置または可動位置に位置付けられた、2つ以上の静止ユニット312を含み得る。例えば、追加の静止ユニット312は、現地ユーザまたは別の人により、例えば、肩または胴体に着用されてもよい。場合によっては、ビームプロジェクタ303および静止イメージャ201は、互いに独立して配置され得る別個のユニットであってもよい。場合によっては、ビームプロジェクタ303は、投影ビーム304の方向を制御するためにアクチュエータによって移動可能または回転可能な1つ以上のミラー、レンズ、プリズム、または他の要素の光学システムを備え得る。ビームプロジェクタ303は、投影ビーム304を放出するためのレーザ源または別の源(例えば、コリメート光学系を備えた拡散光源)を含み得る。ビームプロジェクタ303は、物理層マーキング307を輪郭、図、記号、英数字、または他のパターンの形でターゲット物体10上に投影するために、投影ビーム304をラスターパターンまたは他のパターンで移動させるように操作され得るピコプロジェクタまたはミニプロジェクタを含み得る。
加えて、多層システム300のプロセッサ105は、拡張現実ディスプレイ302上に注釈310を表示するように構成され得る。典型的には、拡張現実ディスプレイ302は、多層システム300の現地ユーザが装着することができるヘッドセット306に組み込まれる。ヘッドセット306のゴーグルは、現地ユーザが拡張現実ディスプレイ302を介してターゲット領域20および物理層マーキング307を含むターゲット物体10を直接見ることを可能にするように、十分に透明(または半透明)であり得る。拡張現実ディスプレイ302は、注釈310をゴーグルに投影するか、そうでなければ表示するように構成された、プロジェクタまたは他のコンポーネントを含む。このため、現地ユーザは、拡張現実ディスプレイ302上に表示された注釈310を、ターゲット物体10の直接ビューにスーパーインポーズされた、または上重ねされたものとして見ることができる。注釈は、英数字、記号(例えば、矢印または他の記号)、輪郭、図面または図、強調表示(例えば、関心のある区域をカバーする領域の色合い)、または他の注釈を含み得る。
プロセッサ105は、コンピュータまたは処理回路などの1つ以上の別個の処理ユニットを含み得る。別個の処理ユニットの一部またはすべては、例えば、有線(電気ケーブルまたは光ケーブル)または無線通信チャネルを介して相互通信するように構成され得る。場合によっては、別個の処理ユニットのうちの1つ以上のが、自律的に、かつ他の処理ユニットとは独立して動作するように構成され得る。例えば、ヘッドセット306は、ヘッドセット306の拡張現実ディスプレイ302を制御するように構成されたまたは専用となる処理ユニットを含み得る。静止ユニット312は、静止イメージャ201およびビームプロジェクタ303の操作の間の連携(例えば、閉ループの連携)を容易にするための処理ユニット(例えば、処理回路)を含み得る(例えば、静止イメージャ201によって取得された画像上で識別された正しいターゲット領域に物理層マーキング307を投影することを確実にするために)。
場合によっては、ヘッドセット306は、オーディオスピーカーまたはヘッドホン、ヘッドセット306の向きを示すポインティングデバイスビーム、または他のコンポーネント(例えば、プロセッサ105の一部または全部、電源、または他のコンポーネント)を含み得る。場合によっては、ヘッドセット306は、現地ユーザの目330(典型的には、両方の目を表すものとして理解される)の視線方向の計算を支援するために目330を撮像するように構成された背面カメラを含み得る。
典型的には、ヘッドセット306はまた、ヘッドセット306および拡張現実ディスプレイ302の前にあるシーンの画像を取得するように構成された少なくとも1つの拡張現実シーンイメージャ301を含み得る。拡張現実シーンイメージャ301は、拡張現実ディスプレイ302に対して固定され得る。典型的には、拡張現実シーンイメージャ301は、拡張現実シーンイメージャ301の視野が、(例えば、ゴーグルの)拡張現実ディスプレイ302を介して現地観察者が見るものと少なくともほぼ一致するように、方向付けられ、かつ(例えば、適切なレンズ焦点距離で)調整され得る。現地ユーザの頭が回転するか、別の方法で移動するとき、拡張現実シーンイメージャ301は、そのために拡張現実ディスプレイ302と連動して移動し得る。
代替的にまたは拡張現実シーンイメージャ301に加えて、ヘッドセット306は、ヘッドセット306の方向を示すビーム(例えば、ビーム104)を投影するように構成された、ヘッドセットビームプロジェクタ(例えば、図1に示されるような指向性照明源103であって、明確さのために図3には示されていない)を含み得る。
注釈310は、ターゲット物体10の特定の部分または領域に関連し得る。例えば、注釈310は、部品または領域の識別を支援し得、部品または領域に対する操作を操縦または実行する際に現地にガイダンスを提供し得、またはそうでなければ部品または領域に関連し得る。したがって、プロセッサ105は、拡張現実ディスプレイ302によって表示される注釈310を、現地ユーザの目330によって現在見られているシーンと位置合わせするように構成され得る。
静止イメージャ201の視野202は、ターゲット物体10の画像を取得するように、現地ユーザによってまたは遠隔ユーザによって調整(例えば、方向付け、ズーム、またはその両方)され得る。典型的には、静止イメージャ201の視野202は、ビームプロジェクタ303によってマークされ得る少なくともターゲット物体10の領域を含む空間の領域を完全にカバーするのに十分に大きい。場合によっては、視野202は、拡張現実シーンイメージャ301の視野(拡張現実ディスプレイ302)よりも広くてもよい。多層システム300の遠隔ステーション320における遠隔ユーザは、静止イメージャ201によって取得されたターゲット物体10の画像を遠隔ディスプレイ324上で見ることができる。次に、遠隔ユーザは、ユーザコントロール322を操作して、物理層マーキング307によってマークされるべき選択された場所を画像上に示し得る。遠隔ユーザはまた、ユーザコントロール322を操作して、拡張現実ディスプレイ302上に表示されるべきで注釈310のコンテンツを示し得る。
プロセッサ105は、注釈310の選択された場所およびコンテンツの指示を受信するように構成され得る。プロセッサ105は、静止イメージャ201および拡張現実シーンイメージャ301の各々によって取得されたターゲット物体10の画像を分析し、取得された画像の各々における1つ以上の物理層マーキング307の画像を識別するように構成され得る。
図3に模式的に示されている例では、注釈310は、物理層マーキング307にスーパーインポーズされて目330によって見える。この場合、プロセッサ105は、拡張現実シーンイメージャ301によって取得された画像(または、ヘッドセットマウントビームプロジェクタによって投射されたビーム)を分析して、ターゲット物体10および物理層マーキング307に対するヘッドセット306の向きを決定し得る。例えば、目330が物理層マーキング307を直接見ていると仮定し得る。ヘッドセット306の向きが物理層マーキング307に直接向いていない場合、物理層マーキング307の方向からのヘッドセット306の角度ずれは、ヘッドセット306が面する方向から離れた目330の回転に等しいと想定され得る。この情報を使用して、注釈310は、目330と物理層マーキング307とを結ぶ直線上にあると計算された場所で拡張現実ディスプレイ302上に表示され得る。
場合によっては、注釈310を表示するための拡張現実ディスプレイ302の操作の前に、位置合わせ較正手順が行われ得る。
例えば、現地ユーザは、目330が物理層マーキング307に向かって真正面を向いている間に、投影された物理層マーキング307に面する(例えば、ヘッドセット306を向ける)ように要求され得る。次に、注釈310を拡張現実ディスプレイ302上に表示し得る。拡張現実ディスプレイ302上の注釈310の場所は、注釈310が物理層マーキング307にスーパーインポーズされて見えると現地ユーザが報告するまで、(例えば、現地ユーザによって操作される制御によって、または現地ユーザと通信している遠隔ユーザによって)調整され得る。このようにして、目330と拡張現実ディスプレイ302との間のベースライン位置合わせが確立され得る。
位置合わせ較正手順の別の例として、複数の物理層マーキング307が(例えば、異なる色または形状の投影ビーム304で)同時に投影されるか、静止イメージャ201および拡張現実シーンイメージャ301による画像取得と連携したシーケンスで順次投影されてもよい。現地ユーザは、これらの投影された物理層マーキング307のうちの1つ以上を見るように求められ得る。プロセッサ105は、拡張現実シーンイメージャ301によって見られるように、識別された物理層マーキング307を利用して、ターゲット物体10に対して静止している座標系(例えば、グローバルまたはローカル座標系)の座標を識別し得る。場合によっては、プロセッサ105は、既知のターゲット物体10の表面の図面またはデジタル記述(例えば、3次元モデル)を利用して、物理層マーキング307の3次元座標を識別し得る。場合によっては、プロセッサ105は、ターゲット物体10の(例えば、既知の曲率の)表面にわたって既知の速度で走査される物理層マーキング307の順次取得された画像を利用して、物理層マーキング307が投影される表面の傾斜角を計算し、それによりイメージャ(静止イメージャ201または拡張現実シーンイメージャ301)と物理層マーキング307との間の相対距離を計算し得る(したがって、取得された画像における物理層マーキング307の画像の(ピクセル)座標によって導出され得る2次元に加えて、第3の次元を提供する)。
例えば、静止座標系は、1つ以上の静止イメージャ201によって取得される画像に基づき得る。注釈310のための選択された場所が遠隔ユーザによって(例えば、ターゲット物体10の表示された画像上に)示されるとき、その注釈310(例えば、遠隔ユーザによって入力されたコンテンツを有する)は、拡張現実ディスプレイ302によって、静止座標系に従って決定されたターゲット物体10に対する場所に表示され得る。このため、注釈310は、例えば遠隔ユーザによって示された、ターゲット物体10に対して選択された場所で拡張現実ディスプレイ302上に表示されるので現地ユーザによって知覚され得る。
多層システム300におけるターゲット物体10との注釈310の重ね合わせは、物理層マーキングを欠くシステムにおける重ね合わせよりも正確かつ単純であり得る。物理層マーキングを欠くシステムでは、注釈とターゲット物体との位置合わせは、拡張現実ディスプレイのみの視認方向に基づき得、例えば、ヘッドセットマウントイメージャの視野を静止イメージャの視野と比較することに基づく。そのような場合、現地ユーザの視線の方向がヘッドセットマウントイメージャのポインティング方向と一致しない(例えば、ヘッドセットは右を指しユーザの目を左に向けている)場合、注釈はターゲット物体に対して正しい位置で知覚されないことがある(例えば、右に遠すぎる)。
いくつかの拡張現実ゴーグルには、ゴーグルに対する瞳孔の位置を検出するために、瞳孔位置センサ(例えば、着用者の目に向いているカメラ)が備えられている。拡張現実シーンイメージャ301による物理層マーキング307の検出を瞳孔位置センサからのデータと組み合わせることにより、瞳孔位置センサのみを使用して可能であるよりも優れた精度で、かつより簡単な(またはより速い)アルゴリズムで注釈310の正確な位置決めが可能になり得る。
多層システム300によって可能になる注釈310の改善された重ね合わせは、注釈310が、あいまいさまたは間近な特徴を回避しながら、ターゲット物体10の1つ以上のコンポーネントを概説しまたは強調することを可能にし得る。(典型的な拡張現実システムでは、コンポーネント合成画像が、見えるコンポーネントの上または横に、または、コンポーネントがそのような画像であることを概説または強調することによって表示される。)
多層システム300は、ターゲット物体10の関心のあるすべての区域上に物理層マーキング307の配置を可能にするように、ビームプロジェクタ303の位置決めを容易にするように構成され得る。
例えば、物理層マーキング307は、ラスターパターンなどの所定のパターンでターゲット物体10の表面の上を自動的に走査されてもよい。走査中に、静止イメージャ201によって、および拡張現実シーンイメージャ301によって取得された物理層マーキング307の連続した画像は、投影ビーム304が(例えば、ターゲット物体10の他のコンポーネントによる、または付近の他の物体によるシャドウイングのために)到達できないターゲット物体10上の位置を検出し得る。同様に、プロセッサ105が、静止イメージャ201および拡張現実シーンイメージャ301のうちの一方には見えるが、他方には見えない、ターゲット物体10の領域を検出する場合がある。そのような領域の自動識別は、そのような領域(または「盲点」)の発生を排除または低減するために、静止イメージャ201およびターゲット物体10のうちの1つ以上の再配置を容易にし得る。
そのような領域(「盲点」)の発生が避けられない場合(例えば、ターゲット物体10の3次元構造のために、または障害物や壁の存在のために)、追加のビームプロジェクタ、静止イメージャ、または静止ユニット(例えば、ビームプロジェクタ303、静止イメージャ201、または静止ユニット312に加えて)が提供されてもよい。プロセッサ105は、静止イメージャ201では見えない、またはビームプロジェクタ303の投影ビーム304で到達できないターゲット物体10の部分に物理層マーキング307が見えるようにまたは適用され得るように、追加コンポーネントの位置決めを支援するように構成され得る。
プロセッサ105は、ターゲット物体10の領域上に物理層マーキング307の投影を可能にするために、必要に応じて、異なる静止イメージャまたはビームプロジェクタの間で自動的に切り替わるように構成され得る。そのような切り替え機能はまた、例えば、ツールまたは物体の挿入によって、現地ユーザによる操縦によって、ターゲット物体10の再成形によって(例えば、カバーの開閉、部品の取り外しや追加、または他の方法による)、または他の状況下で、1つの投影ビーム304が(一時的に)ブロックされている場合にも、物理層マーキング307の継続的な適用を可能にし得る。
場合によっては、投影ビーム304、拡張現実ディスプレイ302による注釈310が、物理層マーキング307の代わりになり得る。
典型的には、ビームプロジェクタ303は安定した様態で取り付けられるので、物理層マーキング307は、3次元表面の典型的な拡張現実マーキングよりも正確であり得る。ターゲット物体10の表面の上の物理層マーキング307の初期走査中に、ターゲット物体10の表面の各領域の傾斜角を領域の位置と相関させる(例えば、物理層マーキング307の画像化された走査速度を投影ビーム304の実際の走査速度と比較することによって、またはその他の方法で)ターゲット物体10のマップが作成され得る。ターゲット物体10の表面の詳細な知識は、物理層マーキング307の正確な位置決めを可能にし得る。
図4は、本発明の実施形態による、多層ビューイングシステムの操作の方法を示すフローチャートである。
本明細書で参照される任意のフローチャートに関して、図示された方法の、フローチャートのブロックによって表された個別の操作への分割は、便宜および明確さのためだけに選択されていることを理解されたい。図示された方法の個別の操作への代替的分割が、可能であり同等の結果を有する。図示された方法の個別の操作へのそのような代替的分割は、図示された方法の他の実施形態を表すものとして理解されるべきである。
同様に、別段の指示がない限り、本明細書で参照されるフローチャートのブロックによって表される操作の実行の図示された順序は、便宜および明確さのためだけに選択されていることを理解されたい。図示された方法の操作は、代替的順序で、または同時に実行されてもよく、同等の結果を有する。図示された方法の操作のそのような並べ替えは、図示された方法の他の実施形態を表すものとして理解されるべきである。
多層操作方法400は、例えば、拡張現実ディスプレイ302上に注釈310を表示するという遠隔ユーザによる要求に応答して、多層システム300のプロセッサ105によって実行され得る。
多層操作方法400の実行の前に、初期重ね合わせ較正手順が行われ得る。典型的には、初期重ね合わせ較正手順は、ターゲット物体10上への1つ以上の物理層マーキング307の投影、およびヘッドセット306を装着している現地ユーザによる1つ以上の応答またはアクションの要求を含み得る。例えば、そのような応答は、物理層マーキング307に向き合って見るステップ、注釈310を物理層マーキング307と位置合わせすることを支援するステップ、または他のアクションを含み得る。初期重ね合わせ較正手順は、現地ユーザがヘッドセット306を装着していて、ターゲット物体10に作業を開始する位置にいるときに行われ得る。場合によっては、例えば、ヘッドセット306が現地ユーザの頭から取り外されて交換されたとき、またはヘッドセット306が滑ったか、さもなければ現地ユーザの頭の上で動かされたとき、または他の状況で、初期重ね合わせ較正手順が繰り返されることがある。
ビームプロジェクタ303は、1つ以上の物理層マーキング307をターゲット物体10上に投影するように操作され得る(ブロック410)。投影された物理層マーキング307は、ターゲット物体10のターゲット領域20でターゲット物体10上に投影され得る。例えば、遠隔ステーションの遠隔ユーザは、投影ビーム304の方向を制御するためにユーザコントロール322を操作し得る。
ターゲット領域20または物理層マーキング307に対して選択された場所に注釈310を表示するための命令が(例えば、遠隔ステーション320から)受信され得る(ブロック420)。例えば、遠隔ユーザは、静止イメージャ201によって取得されたターゲット物体10の画像および物理層マーキング307を表示している遠隔ディスプレイ324上でターゲット物体10見ることができる。遠隔ユーザは、ユーザコントロール322を操作して、表示された画像上の場所をマークし得(例えば、注釈310が表示される物理層マーキング307またはその近くに)、かつ注釈310のコンテンツを入力し得る。
拡張現実ディスプレイ302の向きが決定され得る(ブロック430)。例えば、ターゲット物体10の画像および1つ以上の物理層マーキング307(例えば、同時にまたは順次に表示される)が、拡張現実シーンイメージャ301によって取得され得る。次に、プロセッサ105は、画像処理技術を適用して、ヘッドセット306が向いている方向を決定し得る。別の例として、ターゲット物体10の画像および物理層マーキング307は、ヘッドセット306に組み込まれている、または結合されている指向性照明源103によって放出されるビーム104によって形成されるマーキングと共に、静止イメージャ201によって取得され得る。2つの撮像されたビームの相対的な場所は、物理層マーキング307に対する拡張現実ディスプレイ302の向きを示し得る。
プロセッサ105は、例えば、初期重ね合わせ較正手順またはその他の方法に基づいて、拡張現実ディスプレイ302を見ている現地ユーザの目330が、ターゲット物体10に対して選択された場所に表示される注釈310を知覚し得るように、拡張現実ディスプレイ302上に注釈310を表示するための表示場所を計算し得る(ブロック440)。例えば、プロセッサ105は、取得した画像を分析して、ヘッドセット306の対面方向と物理層マーキング307に向かう実際の方向との間の角度ずれを計算し、かつ拡張現実ディスプレイ302上に注釈310を表示するための場所を計算し得、それにより、目330が、ターゲット物体10または物理層マーキング307に対して選択された場所でターゲット物体10上にスーパーインポーズされたものとして注釈310を見ると期待される。
次に、プロセッサ105は、拡張現実ディスプレイ302に、計算された表示位置に注釈310を表示させて、物理層マーキング307の画像に対して示された位置で知覚されるようにする(ブロック450)。
本明細書では本発明の特定の特徴が図示され、説明されてきたが、当業者には、多くの修正、置換、変更、および同等物が思い浮かぶであろう。したがって、添付の特許請求の範囲は、本発明の真の精神に収まるように、全てのそのような修正および変更を網羅することを意図していることを理解されたい。
様々な実施形態が提示されてきた。もちろん、これらの実施形態の各々は、提示された他の実施形態からの特徴を含み得、具体的に説明されていない実施形態が、本明細書で説明されている様々な特徴を含み得る。
本発明の実施形態に従って、ターゲット物体を含む視野を有する画像を取得するように構成された静止イメージャと、1つ以上の物理層マーキングをターゲット物体のターゲット領域に投影するように制御可能なビームプロジェクタ(静止ビームプロジェクタ)と、拡張現実ディスプレイおよび拡張現実ディスプレイの前の領域のシーン画像を取得するように構成されたシーンイメージャまたは拡張現実ディスプレイの前にヘッドセットビームを投影するように構成されたヘッドセットビームプロジェクタを含むヘッドセットであって、拡張現実ディスプレイが、ヘッドセットを装着している現地ユーザが拡張現実ディスプレイを通してターゲット物体を直接見ることを可能にするのに十分に透明であり、現地ユーザに見えるように直接見えるターゲット物体上にスーパーインポーズされた注釈を表示するように構成されている、該ヘッドセットと、プロセッサであって、注釈の表示のための、ターゲット領域に対して選択された場所を受け取り、シーン画像内の1つ以上の物理層マーキングの画像を識別することによって、または、1つ以上の物理層マーキングの画像、および静止イメージャによって取得される画像内のヘッドセットビームによって形成されたマークの画像、を識別することによって、拡張現実ディスプレイの向きを決定し、注釈が、ターゲット領域に対して選択された場所の位置に表示されるときに、現地ユーザによって知覚可能であるように、拡張現実ディスプレイ上に注釈を表示するための表示位置の場所を計算し、計算された表示場所で拡張現実ディスプレイ上に注釈を表示する、ように構成された、該プロセッサと、を含む、多層ビューイングシステムが提供されている。
本発明の実施形態によれば、静止イメージャと、ビームプロジェクタ(静止ビームプロジェクタ)と、拡張現実ディスプレイおよび拡張現実ディスプレイの前の領域のシーン画像を取得するように構成されたシーンイメージャまたは拡張現実ディスプレイの前にヘッドセットビームを投影するように構成されたヘッドセットビームプロジェクタを含むヘッドセットと、を含む、ビューイングシステムの操作方法がさらに提供されており、拡張現実ディスプレイは、ヘッドセットを装着している現地ユーザが拡張現実ディスプレイを通してターゲット物体を直接見ることを可能にするように十分透明であり、直接見えるターゲット物体上にスーパーインポーズされて見ることができる注釈を表示するように構成されており、本方法は、シーンイメージャを使用して、1つ以上の物理層マーキングがビームプロジェクタによってターゲット物体のターゲット領域上に投影されるときのターゲット物体のシーン画像を、または静止イメージャを使用して、1つ以上の物理層マーキングおよびヘッドセットビームによって形成されたマークを含む画像を、取得するステップと、注釈の表示のための、ターゲット領域に対して選択された場所を受け取るステップと、取得されたシーン画像において、1つ以上の物理層マーキングの画像、または1つ以上の物理層マーキングの画像およびヘッドセットビームによって形成されたマークの画像、を識別するステップと、注釈が、ターゲット領域に対して選択された位置に表示されるときに、現地ユーザによって知覚可能であるように、拡張現実ディスプレイ上に注釈を表示するための表示位置の場所を計算するステップと、計算された表示場所で拡張現実ディスプレイ上に注釈を表示するステップと、を含む。
本発明の実施形態に従って、ターゲット物体を含む視野を有する画像を取得するように構成された静止イメージャと、1つ以上の物理層マーキングをターゲット物体のターゲット領域に投影するように制御可能なビームプロジェクタ(静止ビームプロジェクタ)と、静止イメージャおよび静止ビームプロジェクタとは別個のヘッドセットであって、拡張現実ディスプレイであって、ヘッドセットを装着している現地ユーザが拡張現実ディスプレイを通してターゲット物体を直接見ることを可能にするのに十分に透明であり、現地ユーザに直接見えるように、直接見えるターゲット物体上にスーパーインポーズされた注釈を表示するように構成されている、該拡張現実ディスプレイ、および、拡張現実ディスプレイの前の領域のシーン画像を取得するように構成されたシーンイメージャまたは拡張現実ディスプレイの前にヘッドセットビームを投影するように構成されたヘッドセットビームプロジェクタを含む該ヘッドセットと、プロセッサであって、注釈の表示のための、ターゲット領域に対して選択された場所を受け取り、シーン画像内の1つ以上の物理層マーキングの画像を識別することによって、または、静止イメージャによって取得される画像内における、1つ以上の物理層マーキングに対するヘッドセットビームによって形成されるマークの場所に基づいて、拡張現実ディスプレイの向きを決定し、注釈が、ターゲット領域に対して選択された場所の位置に表示されるときに、現地ユーザによって知覚可能であるように、拡張現実ディスプレイ上に注釈を表示するための表示位置の場所を計算し、計算された表示場所で拡張現実ディスプレイ上に注釈を表示する、ように構成された、該プロセッサと、を含む、多層ビューイングシステムが提供されている。
本発明の実施形態によれば、静止イメージャと、ビームプロジェクタ(静止ビームプロジェクタ)と、拡張現実ディスプレイを含む、静止イメージャおよび静止ビームプロジェクタとは別個のヘッドセットであって、拡張現実ディスプレイは、ヘッドセットを装着している現地ユーザが拡張現実ディスプレイを通してターゲット物体を直接見ることを可能にするように十分透明であり、直接見えるターゲット物体上にスーパーインポーズされて見ることができる注釈を表示するように構成されている、該ヘッドセットと、を含む、ビューイングシステムの操作方法がさらに提供されており、本方法は、シーンイメージャを使用して、1つ以上の物理層マーキングがビームプロジェクタによってターゲット物体のターゲット領域上に投影されるときのターゲット物体のシーン画像を、または静止イメージャを使用して、1つ以上の物理層マーキングおよびヘッドセットビームによって形成されたマークを含む画像を、取得するステップと、注釈の表示のための、ターゲット領域に対して選択された場所を受け取るステップと、取得されたシーン画像において、1つ以上の物理層マーキングの画像の場所に基づいて、または、静止イメージャによって取得される画像内において、1つ以上の物理層マーキングの画像に対するヘッドセットビームによって形成されたマークの場所に基づいて、拡張現実ディスプレイの向きを決定するステップと、注釈が、ターゲット領域に対して選択された位置に表示されるときに、現地ユーザによって知覚可能であるように、拡張現実ディスプレイ上に注釈を表示するための表示位置の場所を計算するステップと、計算された表示場所で拡張現実ディスプレイ上に注釈を表示するステップと、を含む。

Claims (20)

  1. 多層ビューイングシステムであって、
    ターゲット物体を含む視野を有する画像を取得するように構成された静止イメージャと、
    1つ以上の物理層マーキングを前記ターゲット物体のターゲット領域に投影するように制御可能なビームプロジェクタと、
    拡張現実ディスプレイおよび前記拡張現実ディスプレイの前の領域のシーン画像を取得するように構成されたシーンイメージャまたは前記拡張現実ディスプレイの前にヘッドセットビームを投影するように構成されたヘッドセットビームプロジェクタを含むヘッドセットであって、前記拡張現実ディスプレイが、前記ヘッドセットを装着している現地ユーザが前記拡張現実ディスプレイを通して前記ターゲット物体を直接見ることを可能にするのに十分に透明であり、前記現地ユーザに直接見えるように、直接見える前記ターゲット物体上にスーパーインポーズされた注釈を表示するように構成されている、該ヘッドセットと、
    プロセッサであって、
    前記注釈の表示のための、前記ターゲット領域に対して選択された場所を受け取り、
    前記シーン画像内の前記1つ以上の物理層マーキングの画像を識別することによって、または、前記1つ以上の物理層マーキングの画像、および前記静止イメージャによって取得される画像内の前記ヘッドセットビームによって形成されるマークの画像を識別することによって、前記拡張現実ディスプレイの向きを決定し、
    前記注釈が、前記ターゲット領域に対して前記選択された位置に表示されるときに、前記現地ユーザによって知覚可能であるように、前記拡張現実ディスプレイ上に前記注釈を表示するための表示場所を計算し、
    計算された前記表示場所で前記拡張現実ディスプレイ上に前記注釈を表示する、ように構成された、該プロセッサと、を備える、多層ビューイングシステム。
  2. 前記ビームプロジェクタが、ユーザコントロールの操作によって制御可能である、請求項1に記載のシステム。
  3. 前記ユーザコントロールが、前記静止イメージャによって取得される前記ターゲット物体の画像上の前記ターゲット領域の指示によって、遠隔ユーザが前記ビームプロジェクタを制御することを可能にする、請求項2に記載のシステム。
  4. ユーザコントロールが、前記静止イメージャによって取得される前記ターゲット物体の画像上の前記選択された場所の指示によって、前記選択された場所の入力を可能にするように構成されている、請求項1に記載のシステム。
  5. 前記ビームプロジェクタが、レーザを備える、請求項1に記載のシステム。
  6. 前記ビームプロジェクタが、パターンの形で前記物理層マーキングを投影するように構成されている、請求項1に記載のシステム。
  7. 前記静止イメージャの視野が、前記物理層マーキングが前記ビームプロジェクタによって投影され得る少なくとも前記ターゲット物体の領域を完全にカバーするのに十分大きい、請求項1に記載のシステム。
  8. 前記ビームプロジェクタが、前記ターゲット物体の表面の上で前記1つ以上の物理層マーキングを走査するようにさらに構成されている、請求項1に記載のシステム。
  9. 前記プロセッサが、前記表面の傾斜角を計算するようにさらに構成されている、請求項8に記載のシステム。
  10. 遠隔ステーションをさらに含む、請求項1に記載のシステム。
  11. 前記遠隔ステーションが、遠隔ディスプレイおよびユーザコントロールを備える、請求項10に記載のシステム。
  12. 前記静止イメージャおよび前記ビームプロジェクタが、単一の静止ユニットに組み込まれている、請求項1に記載のシステム。
  13. 少なくとも1つの追加のイメージャまたは少なくとも1つの追加のプロジェクタをさらに含む、請求項1に記載のシステム。
  14. 前記プロセッサが、前記少なくとも1つの追加のイメージャを操作して、前記静止イメージャには見えないと識別された前記ターゲット物体の領域の画像を取得するか、または前記少なくとも1つの追加のプロジェクタを操作して、前記ビームプロジェクタによって放出されたビームにアクセスできないと識別された前記ターゲット物体の領域上にマーキングを投影するように、さらに構成されている、請求項13に記載のシステム。
  15. 静止イメージャと、ビームプロジェクタと、拡張現実ディスプレイおよび前記拡張現実ディスプレイの前の領域のシーン画像を取得するように構成されたシーンイメージャまたは前記拡張現実ディスプレイの前にヘッドセットビームを投影するように構成されたヘッドセットビームプロジェクタを含むヘッドセットと、を含む、ビューイングシステムの操作方法であって、前記拡張現実ディスプレイが、前記ヘッドセットを装着している現地ユーザが前記拡張現実ディスプレイを通してターゲット物体を直接見ることを可能にするのに十分に透明であり、直接見える前記ターゲット物体上にスーパーインポーズされて見ることができる注釈を表示するように構成されており、
    前記シーンイメージャを使用して、1つ以上の物理層マーキングが前記ビームプロジェクタによって前記ターゲット物体のターゲット領域上に投影されるときの前記ターゲット物体のシーン画像を、または前記静止イメージャを使用して、前記1つ以上の物理層マーキングおよび前記ヘッドセットビームによって形成されたマークを含む画像を、取得するステップと、
    前記注釈の表示のための、前記ターゲット領域に対して選択された場所を受け取るステップと、
    取得された前記シーン画像において、前記1つ以上の物理層マーキングの画像、または前記1つ以上の物理層マーキングの画像および前記ヘッドセットビームによって形成された前記マークの画像、を識別するステップと、
    前記注釈が、前記ターゲット領域に対して前記選択された位置に表示されるときに、前記現地ユーザによって知覚可能であるように、前記拡張現実ディスプレイ上に前記注釈を表示するための表示場所を計算するステップと、
    計算された前記表示場所で前記拡張現実ディスプレイ上に前記注釈を表示するステップと、を含む、方法。
  16. 前記ターゲット物体の前記シーン画像を取得するステップが、前記1つ以上の物理層マーキングのうちのある物理層マーキングが前記ターゲット物体の表面にわたって走査されるときに、複数の前記シーン画像を連続的に取得するステップを含む、請求項15に記載の方法。
  17. 連続して取得された前記シーン画像内の走査された前記物理層マーキングの前記画像の場所を識別することによって、前記表面の傾斜角を計算するステップをさらに含む、請求項16に記載の方法。
  18. 前記シーンイメージャを使用して取得する前に、重ね合わせ較正手順が実行される、請求項15に記載の方法。
  19. 前記重ね合わせ較正手順が、前記ビームプロジェクタを操作して、1つ以上の較正物理層マーキングを前記ターゲット物体に投影するステップを含む、請求項18に記載の方法。
  20. 前記重ね合わせ較正手順が、前記注釈が、そのマーキングにスーパーインポーズされるときに前記1つ以上の較正物理層マーキングのマーキングを見ている前記ヘッドセットのユーザに見えるように、前記拡張現実ディスプレイ上に較正注釈を表示するステップをさらに含む、請求項19に記載の方法。
JP2022068646A 2017-10-26 2022-04-19 多層ビューイングシステムおよび方法 Active JP7464235B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201762577332P 2017-10-26 2017-10-26
US62/577,332 2017-10-26
PCT/IL2018/051143 WO2019082188A1 (en) 2017-10-26 2018-10-25 METHOD AND SYSTEM FOR MULTILAYER VISUALIZATION
JP2020522975A JP2021500676A (ja) 2017-10-26 2018-10-25 多層ビューイングシステムおよび方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020522975A Division JP2021500676A (ja) 2017-10-26 2018-10-25 多層ビューイングシステムおよび方法

Publications (2)

Publication Number Publication Date
JP2022106801A true JP2022106801A (ja) 2022-07-20
JP7464235B2 JP7464235B2 (ja) 2024-04-09

Family

ID=64184147

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020522975A Pending JP2021500676A (ja) 2017-10-26 2018-10-25 多層ビューイングシステムおよび方法
JP2022068646A Active JP7464235B2 (ja) 2017-10-26 2022-04-19 多層ビューイングシステムおよび方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020522975A Pending JP2021500676A (ja) 2017-10-26 2018-10-25 多層ビューイングシステムおよび方法

Country Status (7)

Country Link
US (1) US11368670B2 (ja)
EP (1) EP3701357B1 (ja)
JP (2) JP2021500676A (ja)
KR (2) KR20200072535A (ja)
CN (1) CN111417916B (ja)
IL (1) IL274205B2 (ja)
WO (1) WO2019082188A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111124228A (zh) * 2019-12-23 2020-05-08 联想(北京)有限公司 一种信息处理方法及电子设备
CN112634773B (zh) * 2020-12-25 2022-11-22 北京市商汤科技开发有限公司 增强现实的呈现方法、装置、展示设备及存储介质
CN117916693A (zh) * 2021-09-02 2024-04-19 斯纳普公司 用于电子眼镜设备的基于扫描的消息收发

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011523728A (ja) * 2008-04-09 2011-08-18 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. 遠隔制御式ポインティング
JP2013218459A (ja) * 2012-04-06 2013-10-24 Sony Corp 情報処理装置、情報処理方法及び情報処理システム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2566109B1 (fr) 1984-06-15 1991-08-30 Sfim Ensemble de visee optique, de designation et de poursuite d'objectif
US5719622A (en) 1996-02-23 1998-02-17 The Regents Of The University Of Michigan Visual control selection of remote mechanisms
US20020030637A1 (en) 1998-10-29 2002-03-14 Mann W. Stephen G. Aremac-based means and apparatus for interaction with computer, or one or more other people, through a camera
US6774869B2 (en) * 2000-12-22 2004-08-10 Board Of Trustees Operating Michigan State University Teleportal face-to-face system
JP2008508621A (ja) * 2004-08-03 2008-03-21 シルバーブルック リサーチ ピーティワイ リミテッド ウォークアップ印刷
US20120249797A1 (en) * 2010-02-28 2012-10-04 Osterhout Group, Inc. Head-worn adaptive display
US10180572B2 (en) * 2010-02-28 2019-01-15 Microsoft Technology Licensing, Llc AR glasses with event and user action control of external applications
US9182487B2 (en) 2011-06-22 2015-11-10 The Boeing Company Advanced remote nondestructive inspection system and process
US9954908B2 (en) * 2013-01-22 2018-04-24 General Electric Company Systems and methods for collaborating in a non-destructive testing system
US20150084990A1 (en) * 2013-04-07 2015-03-26 Laor Consulting Llc Augmented reality medical procedure aid
US10295338B2 (en) * 2013-07-12 2019-05-21 Magic Leap, Inc. Method and system for generating map data from an image
KR101652888B1 (ko) 2014-08-20 2016-09-01 재단법인 아산사회복지재단 수술 내비게이션에 의해 수술도구를 표시하는 방법
US10037312B2 (en) * 2015-03-24 2018-07-31 Fuji Xerox Co., Ltd. Methods and systems for gaze annotation
EP3281403A4 (en) 2015-04-06 2018-03-07 Scope Technologies US Inc. Methods and apparatus for augmented reality applications
US10350839B2 (en) 2015-05-21 2019-07-16 The Boeing Company Remote advanced repair guidance
US9503681B1 (en) 2015-05-29 2016-11-22 Purdue Research Foundation Simulated transparent display with augmented reality for remote collaboration
US20180122143A1 (en) * 2016-03-15 2018-05-03 Sutherland Cook Ellwood, JR. Hybrid photonic vr/ar systems
CN206270499U (zh) 2016-11-14 2017-06-20 南昌大学 一种便携式高效远距离准确目标定位系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011523728A (ja) * 2008-04-09 2011-08-18 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. 遠隔制御式ポインティング
JP2013218459A (ja) * 2012-04-06 2013-10-24 Sony Corp 情報処理装置、情報処理方法及び情報処理システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
加藤博一,外3名: ""マーカー追跡に基づく拡張現実感システムとそのキャリブレーション"", 日本バーチャルリアリティ学会論文誌, vol. 第4巻,第4号, JPN6021016451, 1999, pages 607 - 616, ISSN: 0005087537 *

Also Published As

Publication number Publication date
US20200260068A1 (en) 2020-08-13
CN111417916B (zh) 2023-12-22
KR20230003654A (ko) 2023-01-06
IL274205B2 (en) 2024-05-01
JP7464235B2 (ja) 2024-04-09
CN111417916A (zh) 2020-07-14
IL274205A (en) 2020-06-30
US11368670B2 (en) 2022-06-21
EP3701357A1 (en) 2020-09-02
JP2021500676A (ja) 2021-01-07
KR20200072535A (ko) 2020-06-22
EP3701357B1 (en) 2023-08-23
IL274205B1 (en) 2024-01-01
WO2019082188A1 (en) 2019-05-02

Similar Documents

Publication Publication Date Title
JP7464235B2 (ja) 多層ビューイングシステムおよび方法
US7369101B2 (en) Calibrating real and virtual views
JP5032343B2 (ja) 仮想物体を表示する方法および装置、ならびに環境画像に仮想物体を重ね合せるための方法および装置
EP2903551B1 (en) Digital system for surgical video capturing and display
US6891518B2 (en) Augmented reality visualization device
US20140300632A1 (en) Augmented reality apparatus
US20150084990A1 (en) Augmented reality medical procedure aid
EP1413917A2 (en) Finder, marker presentation member, and presentation method of positioning marker for calibration photography
US8690581B2 (en) Opthalmoscope simulator
CN107004279A (zh) 自然用户界面相机校准
JP2006072903A (ja) 画像合成方法及び装置
CN105589199A (zh) 显示装置、显示装置的控制方法以及程序
JP2013054661A (ja) 情報表示システム、情報表示方法、及び情報表示用プログラム
JP2007042055A (ja) 画像処理方法、画像処理装置
CN109822224B (zh) 一种激光打标方法和打标装置
US11017745B2 (en) Method, computer readable storage medium having instructions, apparatus and system for calibrating augmented reality goggles in a transportation vehicle, transportation vehicle suitable for the method, and augmented reality goggles suitable for the method
US20190236847A1 (en) Method and system for aligning digital display of images on augmented reality glasses with physical surrounds
US11698535B2 (en) Systems and methods for superimposing virtual image on real-time image
JP2018180090A (ja) 作業教育システム
US20160189422A1 (en) Process and Device for Determining the 3D Coordinates of an Object
US11543663B2 (en) System and method for alignment between real and virtual objects in a head-mounted optical see-through display
JP2016208331A (ja) 作業支援システム
JP6540426B2 (ja) 表示システム、表示装置、情報表示方法、及び、プログラム
JP2005323310A (ja) 視野共有装置、視野移動量入力装置、画像表示装置、撮影範囲投影方法、視野移動量入力装置の制御方法、画像表示装置の制御方法、視野共有装置のプログラム、視野移動量入力装置のプログラム及び画像表示装置のプログラム
JP2018018315A (ja) 表示システム、表示装置、情報表示方法、及び、プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220419

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240320

R150 Certificate of patent or registration of utility model

Ref document number: 7464235

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150