JP2021500690A - 自己展開型拡張現実ベースのサービス命令ライブラリ - Google Patents

自己展開型拡張現実ベースのサービス命令ライブラリ Download PDF

Info

Publication number
JP2021500690A
JP2021500690A JP2020542682A JP2020542682A JP2021500690A JP 2021500690 A JP2021500690 A JP 2021500690A JP 2020542682 A JP2020542682 A JP 2020542682A JP 2020542682 A JP2020542682 A JP 2020542682A JP 2021500690 A JP2021500690 A JP 2021500690A
Authority
JP
Japan
Prior art keywords
content
display
mobile device
live video
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020542682A
Other languages
English (en)
Other versions
JP2021500690A5 (ja
Inventor
スヴェン ペーター プレヴァハル
スヴェン ペーター プレヴァハル
ヨルグ サブシンスキ
ヨルグ サブシンスキ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2021500690A publication Critical patent/JP2021500690A/ja
Publication of JP2021500690A5 publication Critical patent/JP2021500690A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2111/00Details relating to CAD techniques
    • G06F2111/18Details relating to CAD techniques using virtual or augmented reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Multimedia (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Evolutionary Computation (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

拡張現実(AR)サービス提供案内が、ディスプレイとカメラとをもつモバイルデバイス30、90を使用する。ARコンテンツ80を、カメラによってキャプチャされたライブビデオフィード96と整合させるために、同時位置特定及びマッピング(SLAM)などのコンピュータビジョン(CV)処理102が実施される。整合されたARコンテンツは、モバイルデバイスのディスプレイ上に表示される。一例では、モバイルデバイスは、透明ディスプレイ92、94とカメラ20とをもつヘッドアップディスプレイ(HUD)90である。別の例では、モバイルデバイスは、前面ディスプレイ34と後向きカメラ36とをもつセルフォン又はタブレットコンピュータ30である。ARコンテンツ80は、ARコンテンツをサービスコールの記録されたビデオ40と整合させる(70)ためにCV処理54によって生成される。整合させること(72)は、ユーザ入力によってサービスコールの記録されたビデオにおいて特定された関心ロケーション(LOI)を整合させることを含む。

Description

以下は、一般に現場サービス提供(servicing)技術に関し、より詳細には、医療イメージングデバイス及びシステムサービス提供技術、拡張ビジョン技術、並びに関連技術に関する。
医療イメージングデバイスは、磁気共鳴イメージング(MRI)デバイス、透過型コンピュータ断層撮影(CT)イメージングデバイス、陽電子放射断層撮影(PET)イメージングデバイス及び単一光子放射コンピュータ断層撮影(SPECT)イメージングのためのガンマカメラなどの放射イメージングシステムなど、極めて複雑なシステム、単一のデバイスにおいて複数のモダリティを与えるハイブリッドシステム、例えばPET/CTイメージングデバイス又はSPECT/CTイメージングデバイス、並びに、一般に画像誘導治療(iGT)デバイスと呼ばれる、生検又は他の介入医療プロシージャを案内するために設計されたイメージングデバイスを含む。これらは、例示的な例にすぎない。
現代の医療イメージングデバイス及びシステムは、保守の観点から異例の課題を提示する。これらは、一般に、多種多様な目的のための多数のサブシステムを含み、これらのサブシステムは、例えば、患者を載せ、イメージング検査エリアに移送し、その後、降ろすための機械及び電気機械システム、CTイメージングデバイスの場合のX線管アセンブリ及びX線検出器アレイ、同じくCTの場合の回転ガントリーアセンブリ、PETイメージングデバイスの場合の放射線検出器モジュールの環状リング、ガンマカメラの場合の放射線検出器ヘッド及び患者を中心としてそのヘッドを操作するための関連するロボットハードウェア、MRIの場合の超電導磁石及び関連する液体ヘリウムタンク及び/又は他のクリオスタットハードウェア、コンピュータ化されたコントローラ、制御ボタン、スイッチ、タッチセンシティブディスプレイなどのユーザインターフェーシング構成要素などを含む。医療イメージングデバイスのサービス提供は、通常、現場において、すなわち、医療イメージングデバイスが配備された病院又は他の医療施設において実施されなければならない。その上、病院及び他の医療施設は、患者にイメージング又は画像誘導治療を提供するために、これらのデバイスがほぼ連続的に利用可能であることを期待するので、サービス提供ダウンタイムを最小限に抑えることが極めて望ましい。
また、サービス提供の見地からのさらなる困難は、医療イメージングデバイスが、通常、製造業者によるほぼ恒常的な開発下にあり、様々なオプション構成要素及び構成要素パッケージを伴って販売され、結果として、同じ形式/モデルの医療イメージングデバイスの異なる配備された取付けでは、同じ形式/モデルにもかかわらず、医療イメージングデバイスがいつ製造されたかに応じて、及び顧客がどのオプションを購入することを決めたかに応じて、異なる構成要素を有する。
これらの考慮事項により、サービス担当者が、現場において遭遇するあらゆる潜在的保守タスクに関して完全に精通することは、特に難しくなる。サービス担当者は、書かれたサービスマニュアル及び/又はコンピュータ支援設計(CAD)図面を調べるが、これらは、経時的に古くなり、又はいくつかのオプション構成要素を含めることができないことがある。CAD図面の場合、サービス担当者は、参照されるべきである正しい図面(構成要素、バージョンなど)を確認するのが困難である。さらに、サービスマニュアルが現場サービス担当者によって書かれない場合、マニュアルは、現場サービス提供を実施するときにのみ明らかになる態様を扱うことができず、例えば、特定の構成要素は、現場においてアクセスすることが困難であるが、この困難は、サービスマニュアルを起草する設計技師によって認識されない。
現場におけるサービス担当者にとっての別のリソースは、サービスを受ける特定の構成要素、デバイスなどを専門とする専門家への電話又はビデオ会議アクセスである。これは、専門家の貴重な時間を占有し、現場サービス人員と専門家との間の協調を必要とし、専門家がサービス提供時間中に「オンコール(on call)」でなければならないか、コールのための日/時が、前もってスケジュールされなければならないかのいずれかである。さらに、専門家は、限られた情報を有し、それに基づいて支援を与える。この情報は、一般に、サービス人員によって与えられる構成要素及びその環境の口頭説明と、場合によっては、セルラー電話(セルフォン)又は他のモバイルデバイスの内蔵カメラを使用して与えられる構成要素のビデオとを含む。サービス人員から専門家に状況データを転送する際に、及び/又はサービス人員に専門家のアドバイスを伝達する際に、重要な情報が失われ得る。
以下に、新規の改善されたシステム及び方法を開示する。
1つの開示される態様では、拡張現実(AR)ベースのサービス提供案内(servicing guidance)デバイスが、ディスプレイとカメラとを備えるモバイルデバイスと、ARコンテンツを、モバイルデバイスのカメラによってキャプチャされたライブビデオフィード(live video feed)と整合させることと、モバイルデバイスのディスプレイ上にライブビデオフィードと整合されたARコンテンツを表示することとを行うために、コンピュータビジョン(CV)処理を実施するようにプログラムされた電子プロセッサとを備える。
別の開示される態様では、ARベースのサービス提供案内方法が、コンピュータを使用して、サービスコールの記録されたビデオにおける少なくとも1つの関心ロケーション(LOI)を特定する、コンピュータにおけるユーザ入力を受信する動作と、ARコンテンツの部分を少なくとも1つのLOIと整合させることを含む、ARコンテンツをサービスコールの記録されたビデオと整合させるためにCV処理を実施する動作とを有する、ARコンテンツをオーサリングする(author)ステップと、電子プロセッサ、及びディスプレイとカメラとを備えるモバイルデバイスを使用して、オーサリングされたARコンテンツを、モバイルデバイスのカメラによって作り出されたライブビデオフィードと整合させるために、電子プロセッサを使用してCV処理を実施するステップと、モバイルデバイスのディスプレイ上に、ライブビデオフィードと整合されたオーサリングされたARコンテンツを表示するステップとを有する、オーサリングされたARコンテンツを提示するステップとを有する。
別の開示される態様では、サービス提供案内のためのARコンテンツをオーサリングするためのARコンテンツオーサリングデバイスが、開示される。ARコンテンツオーサリングデバイスは、コンピュータと、ARコンテンツオーサリング方法を実施するための、コンピュータによって読取り可能及び実行可能な命令を記憶する非一時的記憶媒体とを備え、ARコンテンツオーサリング方法は、サービスコールの記録されたビデオにおける少なくとも1つのLOIを特定する、コンピュータにおけるユーザ入力を受信するステップと、ARコンテンツの部分を少なくとも1つのLOIと整合させるステップを有する、ARコンテンツをサービスコールの記録されたビデオと整合させるためにCV処理を実施するステップとを有する。
1つの利点は、サービス担当者にリアルタイム自動支援を与えることにある。
別の利点は、サービスコールを支援するために、リアルタイム拡張現実(AR)コンテンツを与えることにある。
別の利点は、サービスコールを支援するために、サービス人員の視点から提示され、実施されるべきサービス動作と緊密に統合されたリアルタイムARコンテンツを与えることにある。
別の利点は、サービスコールを支援するために、ARコンテンツを組み込んだプレビューモードに切り替わる能力と組み合わせて、リアルタイムARコンテンツを与えることにある。
別の利点は、適切なARコンテンツを自動的に決定するためにリアルタイムビデオフィードを活用する、リアルタイムARコンテンツを与えることにある。
別の利点は、ARベースのサービス命令をオーサリングするためのデータを与えるために、既存のサービスコールを活用することにある。
別の利点は、既存のARベースのサービス命令の更新を効果的にオーサリングするためのデータを与えるために、既存のサービスコールを活用することにある。
所与の実施形態は、上記の利点のいずれをも与えないか、又は上記の利点のうちの1つ、2つ、3つ以上又はすべてを与え、及び/或いは当業者が、本開示を読み、理解すると明らかになるような他の利点を与える。
本発明は、様々な構成要素及び構成要素の配置の形態、並びに様々なステップ及びステップの配置の形態をとる。図面は、好ましい実施形態を示すためのものにすぎず、本発明を限定するものと解釈されるべきではない。
拡張現実(AR)ベースのサービス命令をオーサリングするためのデータを与えるために、医療イメージングデバイスに対する保守を実施するためのサービスコールを活用するための実施形態を、そのデータを使用するARコンテンツオーサリングデバイスの図式表現とともに、概略的に示す図である。 図1のARコンテンツオーサリングデバイスのより詳細な実施形態を概略的に示す図である。 図1及び図2のARコンテンツオーサリングデバイスによってオーサリングされたARコンテンツを配信するための、ARベースのサービス命令配信デバイスを概略的に示す図である。
本明細書で開示される改善では、拡張現実(AR)ベースのサービスマニュアルのためのARコンテンツをオーサリングするための基礎を与えるために、医療イメージングデバイスに対する保守を実施するためのサービスコールの(随意にオーディオを含む)ビデオ記録が活用される。サービスコールは、通常のカメラを使用して記録され、又は深度情報を与えるために、ステレオカメラが使用され、及び/又はレンジカメラが使用される。単一の(非レンジ)カメラが使用される場合、技術者が動き回るにつれて、異なるバンテージポイント(vantage point)から深度情報が抽出される。カメラは、サービス人員の「一人称(first−person)」ビューを与えるために頭部装着される。サービスコール中に、ポインタが随意に、関心ロケーション(LOI)をマークするために使用され、及び/又は、記録のために、流れている口頭解説を与える。
サービスコールの記録されたビデオを、同じ又は同様の保守タスクを対象とする将来のサービスコールをサポートするためのARコンテンツに変換するために、オーサリングシステムが使用される。オーサリングシステムは、サービス人員のロケーションと顕著な環境(例えば、サービス提供される構成要素及び場合によっては隣接する構成要素)とを同時にマッピングするために、同時位置特定及びマッピング(SLAM)アルゴリズムなどのコンピュータビジョン(CV)技術を使用する。抽出されたマップは、記録されたビデオ中の構成要素を、構成要素のコンピュータ支援設計(CAD)図面と整合させるために、及びLOIを3次元空間に空間中で位置決めするために使用され得る。次いで、人間のエディタが口頭説明オーバーレイを追加する(又は、これは、書かれたサービスマニュアルのテキスト音声転写(text−to−speech transcription)を使用して行われる)。人間のエディタはまた、適宜に、LOIマーカーを示すオーバーレイを追加し、随意に、部品番号、CAD図面、CADアニメーション又は他の視覚に訴えるもの(visual)を示すポップアップウィンドウ、主要な部品のカラー化された強調表示など、サービス技術者を支援する他のARコンテンツを追加する。現場での使用を容易にするために、様々な停止ポイントが、ARコンテンツに追加され、及び/又は、ARコンテンツは、エピソードにセグメント化され、エピソードは、異なる順序で再生(すなわち非線形再生)されて、異なる順序でステップが実施されるサービスコールのハンドリングを可能にすることができる。
オーサリングされたARベースのサービスマニュアルコンテンツを使用するために、サービス技術者は、サービス下の構成要素のサービス人員の実際のビューに重畳されるように、ARオーバーレイをHUDの透明スクリーン上に提示する、透明ディスプレイを有するヘッドアップディスプレイ(HUD)(すなわち、シースルー(see−through)ディスプレイ)を着用する。HUDは、技術者のビューをキャプチャするカメラをさらに備え、ARコンテンツオーバーレイ(及び、与えられた場合、オーディオ再生)を、サービス人員のリアルタイムビューと一致させるように、ARコンテンツをこのリアルタイムビデオフィードと整合させるためにSLAMアルゴリズムを適用する。
随意に、サービス人員は、重畳ARコンテンツを伴って、ARコンテンツをオーサリングするために使用されるサービスコールのあらかじめ記録されたビデオが表示される、プレビューモードを選択することができる。このようにして、サービス人員は、保守タスクのステップがどのように実施されるかのプレビューを見ることができる。有利には、AR処理は、このプレビューモードでは、(i)ARコンテンツを、ライブビデオフィードではなくプレビュービデオと整合させるためにSLAM処理を実施することと、(ii)透明ディスプレイ上にアンダーレイとして、あらかじめ記録されたビデオコンテンツを表示することとを除いて、変更されない。
さらなる企図された変形実施形態では、適切なARコンテンツを自動的に取り出して、提示するために、ライブビデオフィードを処理して、特定の構成要素又は副構成要素を特定する。
例示的な実施形態では、HUDはシースルーディスプレイを採用し、シースルーディスプレイは、有利には、サービス人員がリアルタイムで構成要素を直接観測することを可能にするために、ARコンテンツオーバーレイを除いて透明である。この変形実施形態では、HUDは、(ビデオ拡張現実として知られる)ARコンテンツのアンダーレイとして、ライブビデオフィードが表示される不透明ディスプレイを採用し、この変形実施形態では、サービス人員は、リアルタイムビデオフィード表示を観察することによって、サービス提供されている構成要素を間接的に「見る」。
別の企図された変形実施形態では、HUDの代わりに、ARコンテンツは、セルフォン又は他のモバイルデバイスのディスプレイスクリーン上に表示され得、リアルタイムビデオフィードを生成するために、たいていのセルフォン及び他のモバイルデバイスに設けられた内蔵カメラを活用する。この場合、デバイスは、セルフォンディスプレイ上にアンダーレイとしてライブビデオフィードを表示することによって、ビデオ拡張現実において動作する。
開示される手法は、ARベースのサービスマニュアルを更新するためにも使用され得る。例えば、サービス人員が、例えば、サービス提供されている特定の配備された医療イメージングデバイスの構成要素における代替部品の使用により、予期しない問題に遭遇した場合、HUDのカメラによって与えられたライブフィードがオーサリングシステムとともに使用されて、この代替部品に適した更新されたARコンテンツを作り出す。
図1を参照すると、サービスコールを記録するためのシステムが示されている。例示的なサービスコールの対象は、イメージングデバイス10であり、この例示的な例では、イメージングデバイス10は、透過型コンピュータ断層撮影(CT)イメージングガントリー12と、陽電子放射断層撮影(PET)イメージングガントリー14とを備えるハイブリッドイメージングデバイスであり、すなわち、例示的なイメージングデバイスは、CT/PETイメージングデバイス10である。より一般的には、サービスコールの対象は、任意のタイプのイメージングデバイス、例えば、スタンドアロンPET又はスタンドアロンCTイメージングデバイス、磁気共鳴イメージング(MRI)デバイス、単一光子放射コンピュータ断層撮影(SPECT)イメージングのためのガンマカメラ、画像誘導治療(iGT)デバイスなどである。さらにより一般的には、開示されるARベースのサービス提供案内デバイス及び方法は、現場で実施されるサービス提供のための任意のタイプのシステム又はデバイスに適用され、例えば、放射線治療送出デバイス(radiation therapy delivery device)、磁石などの調査デバイス、低温システム、工場ロボットシステム、処理炉などに適用される。サービスコールは、ビデオを記録することが可能であり、好ましくは、好都合なフォームファクタを有するモバイルカメラ18を使用して記録される。例示的な例では、モバイルカメラ18は、眼鏡21に搭載されたステレオカメラ20を備える。ステレオカメラ20は、左眼カメラ22と右眼カメラ24とを備え、それにより、有利に、人間の両眼視をシミュレートするためにステレオビデオを取得する。ステレオカメラ20を眼鏡21に搭載することによって、モバイルカメラ18は、「一人称」を与え、眼鏡21が、サービス提供を実施する(又は、サービス提供の実施に参加する)サービス人員によって着用された場合、サービスコールの記録されたビデオは、有利には、サービス人員の視点又はバンテージポイントからのものである。構造的支持として眼鏡21を採用する例示的なモバイルカメラ18の代わりに、別のアイウェアフォームファクタ、例えばゴーグルが使用され、或いはヘッドバンド又はヘルメットなどに搭載されたカメラが、サービスコールのビデオを記録するために同様のバンテージ(vantage)を与えることができる。ステレオカメラ20を使用することによって、記録されたビデオは、有利には、本質的に両眼であり、3次元(3D)情報を抽出するための深度情報を与えることができる。ただし、代替実施形態では、単眼カメラが採用され、この場合、コンピュータビジョンは、概して、(サービス提供中のサービス人員の頭部の移動による)カメラの自然な移動によって与えられる異なるバンテージポイントに基づく3D情報を抽出することができる。別の企図された変形実施形態として、従来の光学カメラが、深度情報を与えるためにレンジカメラによって拡張される。
例示的なアイウェア搭載カメラ20をもつモバイルカメラ18に関する困難は、モバイルカメラ18が、電子プロセッサを搭載するための限られた支持構造を与えることであり、すなわち、眼鏡21上に、ビデオ生成及び随意の処理をハンドリングするための十分な処理能力をもつマイクロプロセッサ又はマイクロコントローラを組み込むことが困難であることである。このことは、例示的な実施形態では、例示的なセルラー電話(セルフォン、これは、アプリケーションプログラム又は「アプリ」を実行する能力があるときはスマートフォンと呼ばれることがある)又はタブレットコンピュータなど、モバイルデバイス30とワイヤレス通信しているモバイルカメラ18を有することによって対処される。ワイヤレス接続32は、非限定的な例示として、Bluetooth(商標)ワイヤレス接続、WiFi接続、又は他の短距離又は中距離ワイヤレス接続である。ワイヤード接続も企図され、例えば、USBケーブルが、モバイルカメラ18をモバイルデバイス30と物理的に接続する。例示的なモバイルデバイス30は、モバイルデバイス30の前面上に配設された不透明ディスプレイ34、及びモバイルデバイス30の反対側の裏面上に配置された(図1では見えないように遮断され、したがって想像線で示されている)後向きカメラ36など、一般的な構成要素を備える。そのようなモバイルデバイスにとって一般的であるように、ディスプレイ34は、好ましくは、タッチセンシティブディスプレイ、例えば、静電容量式タッチセンシティブディスプレイ、又は表面弾性波(SAW)ディスプレイであり、その結果、ユーザは、アプリケーションプログラム(「アプリ」)を実行すること、入力を与えること、「ソフト」キーボードを動作させることなどのために、タッチによってモバイルデバイス30と対話することができる。
記録されたビデオ40は、ワイヤレス接続32を介してアイウェアベースのモバイルカメラ18からモバイルデバイス30に送信される。モバイルデバイス30は、一般に、オーディオ成分を記録されたビデオ40に与えるために使用されるマイクロフォン38をも備え、又は代替的に、マイクロフォンが眼鏡21に搭載され(図示せず)、別の代替として、記録されたビデオ40は記録された音を有しない(映像のみ)。サービスコールの記録中に、モバイルデバイス30は、随意に、例えば他のアプリを実行することによって、他のタスクを実施している。例えば、セルフォンの形態のモバイルデバイス30は、サービスコールについてリモートの専門家42(例えば、実施されている特定のサービスに関する、及び/又はサービスを受けている特定のデバイス10又はそのデバイスの構成要素に関する専門的な知識をもつ人間の専門家)と電話で話し合うために使用される。
次に説明されるように、記録されたビデオ40は、後続のサービスコール中での使用のために、拡張ビジョン(AR)コンテンツをオーサリングするための基礎を与える。この目的で、図1に概略的に示されているように、記録されたビデオ40は、ARコンテンツオーサリング方法54を実施するための、非一時的記憶媒体(図示せず、ハードディスクドライブ、RAID、又は他の磁気記憶媒体;フラッシュメモリ、ソリッドステートドライブ、又は他の電子記憶媒体;光ディスク又は他の光記憶媒体;それらの様々な組合せなど)から読み取られた命令を実行する、コンピュータ52の形態のARコンテンツオーサリングデバイス50に転送される。ARコンテンツオーサリングは、例えば、ARコンテンツ(例えば、コンピュータ支援設計(CAD)図面56からとられた部品番号アノテーション、CAD図面又はCAD図面の部分を示すピクチャインピクチャ(PIP)ウィンドウ、或いはCAD図面56から生成されたアニメーションなど)を、記録されたビデオ40と整合させるために、同時位置特定及びマッピング(SLAM)処理などのコンピュータビジョン(CV)処理を使用して、CAD図面56を、記録されたビデオ40に空間的に登録することを伴う。
図1が、サービスコールのビデオ40をキャプチャするための1つの例示的な配置を示すにすぎないことを理解されたい。すでに述べたように、他のタイプのアイウェア又はヘッドウェア(例えばゴーグル、ヘッドバンド、ヘルメットなど)が、サービス提供プロセスの一人称ビューを与えるためのモバイルカメラ18のための支持構造として働き、さらに、すでに述べたように、ステレオカメラ20は、別のタイプのカメラ、例えば、単眼カメラ、カメラとレンジカメラとの組合せなどによって置き換えられる。他の実施形態では、サービスコールの記録されたビデオは、サービス人員の一人称ビューからのものでない。例えば、代替の実施形態では、モバイルカメラはモバイルデバイス30を備え、モバイルデバイス30の裏面上に配置された後向きカメラ36がサービスコールを記録するためのカメラとして働く。この場合、バンテージは、一人称でないことになるが、サービス人員(又はアシスタント)は、サービスプロセス全体又は関心のサービスプロセスの部分(例えば困難な部分)のみを記録するように適宜に後向きカメラ36を向けるようにモバイルデバイス30を保持することができる。
ARコンテンツをオーサリングするのを支援するために、いくつかの実施形態では、サービスコールの記録されたビデオ40によってキャプチャされたサービス提供を実施するサービス人員は、ポインタ62又は他の弁別的ポインティング機構(いくつかの例では、サービス人員の指又は手にすぎないことがある)を使用して関心ロケーション(LOI)60を能動的に指す。他の実施形態では、LOIは、記録されたビデオ40を記録した後に、例えば、ユーザが、記録されたビデオ40のフレーム中のLOIをマークするためにコンピュータ52の1つ又は複数のユーザ入力デバイス(例えば、例示的なキーボード64及び/又はマウス66)を操作することによって、ラベリングされる。
次に図2を参照しながら、非一時的記憶媒体(図示せず)から読み取られた命令を実行するコンピュータ52によって実施されるARコンテンツオーサリングデバイス50の例示的な実施形態が説明される。ARオーサリングプロセス54は、記録されたビデオ40と、(随意に、構成要素の部品番号、3Dレンダリング、アニメーションなどのデータを含む)CAD図面56など、ARコンテンツを生成するための情報とを入力として受信する。動作70において、イメージングデバイス10の様々な構成要素(図1参照、より一般的には、サービス提供を受けるシステム又はデバイスの様々な構成要素)が、コンピュータビジョン(CV)処理を使用して、記録されたビデオ40にマッピングされる。好ましい実施形態では、マッピング動作70は、サービス人員のロケーション(一人称ビデオを仮定して、又は記録されたビデオ40がモバイルデバイス30によって取得された場合、モバイルデバイス30のロケーション)と、一方では、構成要素又はデバイス10上の基準ポイントとを、記録されたビデオ40の連続フレームによって与えられる観測のシーケンスのコンテンツに最適にマッピングするために、ベイズ推定又は別の機械学習技法を採用する同時位置特定及びマッピング(SLAM)処理を使用して、実施される。随意に、CAD図面56によって与えられる構成要素基準ポイントの空間レイアウトなどのアプリオリに知られている情報が、マッピング70を改善するために使用される。SLAM処理タスクは、確率論的定式化P(c(t),c(t),...,c(t),p(t)|f,...,ft)によって数学的に定式化され、ここで、c(t),c(t),...,c(t)は、時間tにおける構成要素又はデバイス10の基準ポイントのロケーションであり(ここで、一般性の喪失なしに、n個の基準ポイントが仮定される)、p(t)は、時間tにおけるサービス人員のロケーションであり、f,...,fは、時間tまでの記録されたビデオ40のフレームである。ロボットビジョンマッピング、自動運転車両ナビゲーション技術などのための知られている様々なSLAMアルゴリズムが、マッピング動作70を実施するために好適に適用される。動作72において、LOIは、(例えば、記録されたビデオ40からのビデオフレームを表示し、ユーザがマウス66を使用してLOI上をクリックすることを可能にすることによって)(1つ又は複数の)ユーザインターフェーシングデバイス64、66を介してユーザから受信されるか、又はSLAM処理70中に記録されたビデオ40から自動的に抽出される。この後者の手法は、記録されたビデオ40において少なくとも1つのLOI(例えば、図1に示されている例示的なLOI60)を示す、記録されたビデオ40によってキャプチャされたユーザ動作(例えば、ポインタ62を使用して指すこと、図1参照)を検出するために、コンピュータ52によってSLAM又は他のCV処理を実施することを伴う。この示されたLOI60は、次いで、SLAM処理70においてマッピングされるべき基準ポイント(cLOI(t))のうちの1つになる。
動作74において、SLAM処理70及びLOI指定72の結果を使用して、ARコンテンツが、記録されたビデオ40と整合される。例えば、CAD情報の部品番号でLOIを「ラベリング」するように、部品番号アノテーションなどのアノテーション、PIPウィンドウとして示されるCAD図面又はCAD図面部分、又はPIPウィンドウとして示されるCADアニメーションが、LOIにおいて又はLOIの極めて近くに追加される。より高度な手法では、主要な部品或いは部品組合せ又はアセンブリのワイヤフレーム図面が、CAD図面56から抽出され、ARコンテンツとしてオーバーレイされ、この場合も、SLAM処理70及びLOI指定72によるマッピング出力を使用して、記録されたビデオ40に示されている(1つ又は複数の)部品の実際の画像と整合される。このようにオーサリングされたARコンテンツは、随意に、(例えば、部品アセンブリの異なる部品を区別するために異なる色を使用して)カラーコード化されるか、又は場合によっては強調表示される。口頭ナレーションの形態のARコンテンツも、追加される。この場合、ARコンテンツは、記録されたビデオ40を作成するフレームの時間シーケンスと整合する、時間的シーケンスを有することが仮定され、ナレーションは、様々なサービス提供タスクがビデオ中で実施されるときと、時間的に同期するように追加される。随意の動作76において、ARコンテンツは、停止ポイントを追加すること及び/又はARコンテンツを独立したエピソードにセグメント化することによって、時間的にセグメント化される。例えば、サービス提供が、サービス提供を必要とする第2のアセンブリをあらわにするために、第1のアセンブリをデバイス10から取り外すことを伴う場合、第1のアセンブリの取外しは1つのエピソードであり、あらわにされた第2のアセンブリのサービス提供は、別個の異なるエピソードである。手動動作を可能にするためにARコンテンツ時間進行を停止することを可能にするために、停止ポイントが追加され、例えば、取付け前に部品に注油する必要がある場合、注油プロセス中に停止ポイントを追加することは道理にかなう。
得られたオーサリングされたARコンテンツは、保守プロシージャARライブラリ構成要素80を形成する。いくつかの実施形態では、本明細書で後で説明されるように、ARライブラリ構成要素80は、図2に概略的に示されているプレビュービデオ41として(随意に、ARコンテンツオーサリング動作76と同様に、セグメント化及び/又は停止ポイントを追加した後に)記憶された、記録されたビデオ40を含むか、又はそれへのアクセスを有する。このプレビュービデオ41は、与えられた場合、サービス人員による要求時に、重畳ARコンテンツを含むサービス提供プロシージャのプレビューを与えるために使用される。
全体的なAR保守プロシージャライブラリの一部として、ARライブラリ構成要素80は随意に、動作82において、サービス提供動作の知覚可能なシーケンスのARサポートを与えるために他のARライブラリ構成要素とさまざまにリンクされる。例えば、図1のCTガントリー12のX線管を交換するプロセスについて考える。このサービス提供は、X線管にアクセスするためにCTガントリー12を開くことと、X線管を取り外すことと、場合によっては、新しいX線管の何らかのセットアップ又は設定を実施することと、新しいX線管を取り付けることと、次いでCTガントリー12を再構築することとを伴う。これらのステップの各々は、1つの手法では、別個のARライブラリ構成要素によってサポートされ、次いでそれらが互いに好適にリンクされる。したがって、サービス人員は、CTガントリーを開くことのARコンテンツライブラリ構成要素を最初にロードし、観察し、これが完了すると、次のライブラリ構成要素(例えば新しいX線管を設定すること)が、自動的にリンクされ、起動されるなどである。変形実施形態では、リンキング動作82は、ビデオコンテンツに基づいて自動化され、例えば、ARコンテンツライブビデオフィードの再生中(図3を参照する、本明細書の後の説明を参照)、ライブビデオフィードはCV処理を使用して分析されて、サービス提供下の特定のモデル、タイプ、又は他の固有の構成要素を検出し、次いで、その特定のモデル、タイプ、又は他の固有の構成要素のための正しいARライブラリ構成要素を呼び出す。
図3を参照すると、図2に関して説明されたARコンテンツオーサリングによって生成されたARライブラリ構成要素80は、後続のサービスコール(すなわち、図1に関して説明された記録されたビデオ40を生成するために記録されたサービスコールの後で実施されるサービスコール)を実施するサービス人員に好適に提示される。ARコンテンツは、ステレオカメラ20が搭載された眼鏡21の形態の例示的なヘッドアップディスプレイ(HUD)90など、好適なモバイルデバイスを使用して提示される。したがって、HUD90は、図1に関してすでに説明されたアイウェアベースのモバイルカメラ18と同様であることがわかるが、HUD90は透明ディスプレイをさらに備え、例示的な場合には、眼鏡21の左眼フレームにおいて搭載された左透明ディスプレイ92と、眼鏡21の右眼フレームにおいて搭載された右透明ディスプレイ94とを備える。したがって、HUD90はシースルーARディスプレイを構成し、シースルーARディスプレイでは、ユーザ(例えばサービス人員)は、透明ディスプレイ92、94を通して観察することによって、実際のシーンを直接見て、一方、透明ディスプレイ92、94上にARコンテンツを表示することによって、ARコンテンツは、この実際に観察されたシーンに重畳される。例示的な眼鏡ベースのHUD90は、一例であり、多数の他のHUD設計が企図される。変形実施形態では、HUDは、左眼と右眼の両方にわたって延在する単一のレンズをもつゴーグルを採用し、この実施形態では、透明ディスプレイは、左眼と右眼の両方にわたって同様に延在する単一の透明ディスプレイである。
シースルーARディスプレイは、サービス人員が、その人の視覚によって与えられる最大視力を有するように、実際のシーンを直接見る(例えば、サービス提供されている構成要素を実際に見る)という点で非常に大きな利点を有する(サービス人員が、近視であるか或いは場合によっては処方眼鏡又はコンタクトを必要とする場合、サービス人員は、好適に、HUD90を使用するとともに処方コンタクトを着用するか、又は、随意に、透明ディスプレイ92、94を形成するガラスが、眼の処方(ocular prescription)を組み込むように変更されるかのいずれかである)。しかしながら、代替実施形態では、ビデオARディスプレイを採用することが企図される。この代替実施形態では、透明ディスプレイ92、94は、ステレオカメラ20によってキャプチャされた実際のシーンのビデオフィードを表示する、不透明ディスプレイによって置き換えられる。その場合、表示されたビデオフィードは、表示されたARコンテンツのアンダーレイとして働く。ビデオARディスプレイを使用したこの手法は、一般に、ビデオディスプレイが、より粗い解像度のものになることになり、及び/又は、例示的なシースルーHUD90によって与えられる実際のシーンの直接ビューと比較して、他の光学的低下を有するという欠点を有する。
サービスプロシージャをサポートするためのARコンテンツを与えるために、ライブビデオフィード96が、Bluetooth(商標)又は別の短距離から中距離のワイヤレス通信プロトコルを介して(又は、代替的に、ワイヤードUSB又は他のワイヤード接続を介して)モバイルデバイス30(例えばセルフォン又はタブレットコンピュータ)に通信され、モバイルデバイス30は、ライブビデオフィード96を、例えば、4Gなどのセルラー通信プロトコルを介して、或いはインターネットサービスプロバイダ(ISP)へのWiFiリンク及び/又は病院電子ネットワークなどを介してサーバコンピュータ100に中継する。サーバコンピュータ100は、ARライブラリ構成要素80のARコンテンツをライブビデオフィード96にマッピングし、エージェント(この実施形態ではHUD90)を位置特定するように、整合102を実施するために、非一時的記憶媒体(図示せず、ハードディスクドライブ、RAID、又は他の磁気記憶媒体;フラッシュメモリ、ソリッドステートドライブ、又は他の電子記憶媒体;光ディスク又は他の光記憶媒体;それらの様々な組合せなど)に記憶された命令を実行する。整合102は、前に説明されたマッピング70(図2参照)と同様にSLAM処理によって実施される。ライブビデオフィード96にマッピングされたARコンテンツは、好適に、ARライブラリ構成要素80において定義されたARコンテンツ、例えば、部品番号アノテーション、CAD図面又はCAD図面の部分を表示するアノテーション付きピクチャインピクチャ(PIP)ウィンドウ、及び/又は口頭ナレーションが付随するCADアニメーションなどを含む。例えば、整合されたARコンテンツは、SLAM処理によって、ライブビデオフィード96において特定されたLOIと整合された、マーカーを含む。別の例として、整合されたARコンテンツは、CV処理102によって、ライブビデオフィード96において特定されたLOIと整合されたアノテーション(部品番号アノテーション、CAD図面又はCAD図面部分、或いはCADアニメーションなど)を含む。
得られたARコンテンツ104は、4G、WiFi/ISP/インターネット又は他の通信経路を介してモバイルデバイス30に送信され、次には、Bluetooth(商標)又は他の短距離から中距離のワイヤレス通信を介してモバイルデバイス30からHUD90に送信される。HUD90において、ARコンテンツ104は、サービス人員が、透明ディスプレイ92、94を通して見るとき、サービス人員が見る実際のシーンのビュー上に重畳されるものとして視覚的に知覚する不透明又は半透明なテキスト及び/又は画像として、透明ディスプレイ92、94上に表示される(ビデオARディスプレイが採用される代替実施形態では、ライブビデオフィード96はアンダーレイとして表示され、ARコンテンツ104がそのアンダーレイの上に重畳される)。
HUD90は、随意に、制御のためのユーザインターフェースを備える。例示的な一実施形態では、これは、モバイルデバイス30上で動作するARユーザインターフェース(UI)アプリケーションプログラム(「AR UIアプリ」)106として実施される。AR UIアプリ106を介して、サービス人員は、ARコンテンツをオン又はオフにすること(例えば、後者は、サービス人員が、ARコンテンツの支援を必要としないことを確信している場合、及び/又は、ARコンテンツが、サービス提供されている構成要素を見えないように遮断している場合、有用である)、特定のARコンテンツエピソードを実行すること、ARコンテンツを休止すること(この場合も、ARコンテンツは、概して、ライブビデオフィード96と同期する時間シーケンスとして提示される)、ARコンテンツの輝度、透過性、及び/又は他の表示特性を調節すること、オーディオナレーションをオン又はオフにすることなどを選択することなど、様々な制御動作を実施することができる。いくつかの実施形態では、AR UIアプリ106は、サービス人員がARコンテンツと対話するための1つ又は複数の機構を与え、例えば、HUD90が注視追跡技術を備える場合、好適な制御機構は、ARコンテンツ要素(例えば、PIPウィンドウ、部品番号アノテーションなど)に注視を向け、次いで、コマンドを話すためのものであり、コマンドは、マイクロフォン38によって検出され、話されたコマンドを解釈するために音声認識(speech recognition)によって処理される。話されたコマンドを介してではなく、ユーザコマンドは、代わりに、モバイルデバイス30のタッチセンシティブディスプレイ34上に表示されたソフト制御(ボタン、スイッチ、ソフトキーボードなど)を介して入力される。これらは、例示的なユーザインターフェーシング能力及び制御入力機構にすぎず、より一般的には、ARコンテンツの提示を制御するために好適に使用される実質的に任意のタイプのユーザインターフェーシング能力及び/又は制御入力機構が採用される。
引き続き図3を参照すると、いくつかの実施形態では、サービス提供プレビューが与えられる。すでに言及されたように、プレビュービデオ41はこの目的で与えられ、プレビュービデオ41は、何らかの随意の処理(例えば停止ポイントの挿入及び/又はエピソードへのセグメント化、図2の動作76参照)を用いて(図2に関して前に説明された)ARコンテンツ80をオーサリングするための基礎として使用された、記録されたビデオ40を含む。プレビューモードを採用するために、ユーザは、動作110において、例えばAR UIアプリ106を使用して、プレビューを要求する。応答する動作112において、サーバコンピュータ100は、プレビューモードに切り替わるように命令される(例えば、コマンドが、ライブビデオフィード96をサーバ100に伝達するために使用される同じ4G又は他の通信経路に沿って送られ、随意に、プレビューモードに切り替わったとき、サーバへのライブビデオフィードのこの通信はオフにされる)。コマンド112は、サーバに、AR整合プロセス102に対する変更114を実施させる。この変更は、ARコンテンツがプレビュービデオ41と整合されるように、ライブビデオフィード96の代わりにプレビュービデオ41を使用することと、ARコンテンツのアンダーレイとしてプレビュービデオ41を追加することとを有する。アンダーレイプレビュービデオとともにプレビュービデオと整合されたARコンテンツのこの合成は、次いで、モバイルデバイス30に送信されるARコンテンツ104になる。モバイルデバイス30において、動作116において、重畳ARコンテンツをもつプレビュービデオは、モバイルデバイスのディスプレイ34上に表示される(同時に、HUD90へのARコンテンツフィードはオフにされる)。次いで、サービス人員は、無関係のARコンテンツが透明ディスプレイ92、94上に現れることによって妨害されることなしに、モバイルデバイス30のディスプレイ34上でプレビューを観察することができる。モバイルデバイス30のディスプレイ34上でのプレビューの表示は、このコンテンツがもはやステレオカメラ20からのライブビデオフィードと空間的に整合されないので、概して好ましいが、別の実施形態では、透明ディスプレイ92、94上にプレビューを表示することが企図される。
図3の例示的な実施形態は、計算的に複雑なSLAM処理102を実施するために、サーバコンピュータ100を採用し、これは、モバイルデバイス30及びHUD90が、限られた処理能力を有する場合に有益である。同様に、AR UIアプリ106を実行するモバイルデバイス30を使用してユーザインターフェーシングを与えることは、モバイルデバイス30のタッチセンシティブディスプレイ34及び随意に他の特徴(例えばマイクロフォン38)を活用して、ユーザフレンドリインターフェースシングを与える。代替実施形態では、これらの動作/処理は、場合によっては分散される。1つの企図される実施形態では、すべての処理及びユーザインターフェーシングがHUDと統合され、HUDは、この企図される実施形態では、単一ユニットARベースのサービス提供案内デバイスを提供するために、ARライブラリ構成要素80を記憶する(又は、クラウドサーバからこのコンテンツをダウンロードする)ためのフラッシュメモリなどを備える。別の変形実施形態として、動作102は、モバイルデバイス30において、ARライブラリ構成要素80を使用して実施され、ARライブラリ構成要素80は、全体がモバイルデバイス30にダウンロードされるか又はクラウドサーバからストリーミングされるかのいずれかである。これらは、同じく例示的な変形実施形態にすぎない。
その上、例示的なHUD90は、ARコンテンツを提示する別のモバイルデバイスによって置き換えられる。例えば、モバイルデバイス30、例えばセルフォン又はタブレットコンピュータは、ARコンテンツを提示するように働く(この変形実施形態では、HUD90は省略される)。モバイルデバイス30を使用して、サービスコールをサポートするARコンテンツを提示するために、サービス人員は、後向きカメラ36をサービス提供されている構成要素に向け、ライブビデオフィード96は後向きカメラ36によって記録される。サーバコンピュータは、ARコンテンツを生成するためにすでに説明された動作102を介してライブビデオフィードを処理し、それをモバイルデバイス30に返送し、モバイルデバイス30は、ARコンテンツが重畳されたライブビデオフィード96を表示する(又は、代替的に、ライブビデオフィード96へのARコンテンツの重畳は、サーバコンピュータ100において実施され、サーバコンピュータ100は次いで、アンダーレイライブビデオフィードが合成されたARコンテンツを返送する)。有利には、サービス人員は、後向きカメラ36が、サービス提供されている構成要素に向けられた状態で、モバイルデバイス30のディスプレイ34を観察することができ、その結果、モバイルデバイス30は、ビデオARディスプレイとして動作する。
図1と図3とを比較参照すると、いくつかの実施形態では、ARコンテンツサポートにおいて使用されたHUD90は、図1の記録されたビデオ40を記録するためのモバイルカメラ18としても使用され得、すなわち、HUD90は、図1のモバイルカメラ18の代わりに使用され得ることが理解されよう。そのような相互運用性は、以下の貴重な利点を有する。サービスコール中にHUD90によってキャプチャされたライブビデオフィード96は、随意に図1の記録されたビデオ40として使用されて、更新された又は追加のARコンテンツを生成するために図2のようにさらなるARオーサリングを実施するための基礎として働き得る。例えば、CTガントリー12のX線管を交換する前の例では、ARコンテンツを与えるためにHUD90を使用するサービス人員が、ARコンテンツを作成するために記録されたサービスコール中で取り付けられたモデルとは異なる、新しいモデルのX線管を有すると仮定する。この場合、サービス人員は、新しいモデルのX線管を取り付けるときに、ライブビデオフィード96を記録することができる。これは、図1に関して前に説明したように、リモートの専門家42からの電話アドバイスを得ることを伴う。新しいモデルのX線管の取付けの記録されたライブビデオフィード96は、次いで、図2のARコンテンツオーサリングを実施するための基礎として働く記録されたビデオ40になる。その後、新しいモデルのX線管が後続のサービスコールにおいて取り付けられるとき、新しいモデルのX線管に適した新たにオーサリングされたARコンテンツが、ARベースの案内を与えるために使用され得る。図2のように更新ARコンテンツオーサリングを実施する際に、動作82において、所与の後続のサービスコールのために、どのモデルのX線管が取り付けられているかに応じて古いモデルの管の取付けをサポートするためのARコンテンツ又は新しいモデルの管の取付けをサポートするARコンテンツのいずれかをロードするリンクが、追加され得る。このリンクは手動である(例えば、ユーザは、正しいARサポートコンテンツをロードするために、AR UI106を介してX線管モデル番号を入力する)か、又は自動である(例えば、サービス人員がX線管を最初に注視したとき、モデル番号又はモデルを区別する特徴が、CV処理を介して検出され、取り付けられているX線管のための正しいARコンテンツにリンクするために使用される)。
例示的な実施形態では、図2のARコンテンツオーサリング方法54は、図3に関して説明されたようにARベースのサービス命令の送出において後で使用するためのARコンテンツ80を生成するために、医療イメージングデバイスを修理又は保守するために実施されたサービスコールの記録されたビデオ40を処理する。しかしながら、図2のARコンテンツオーサリング方法54は、追加又は代替として、実施された保守又は修理アクションをイメージングデバイス10に反映するためにアノテーション付きARログエントリを作成することなど、他の目的のために、記録されたビデオ40を処理するために適用される。オーサリングされたARコンテンツは、保守を検証し、計画される保守の要件を相関させるためのツールを与えるために、保守チェックの記録として使用され得る。
保守又は修理ログ記録適用例において、ARコンテンツログエントリは、一般に、動作72、74において作成されたARコンテンツアノテーションとともに、記録されたビデオ40を含み、(記録されたビデオ40とARアノテーションとを含む)ARコンテンツログエントリは、好適に、イメージングデバイス10の電子サービスログに記憶される。LOI指定動作72は、サービス人員がサービス提供したロケーションを特定するために、サービスコールの完了の直後にそのサービス人員によって実施され、動作74は、サービス人員が、部品番号アノテーション、実施されたサービス及び/又はそのサービスの何らかの異例の態様の口頭及び/又はテキスト(随意に音声テキスト)口頭及び/又はテキスト説明、検査された構成要素の記録されたビデオの拡張として働くサービス人員によってもたらされた検査観測結果など、ARコンテンツを追加することを伴う。これらの実施形態では、ユーザ動作72、74は、例えば、サービス人員によって携帯されたタブレットコンピュータ、セルフォン、又は他のポータブル電子デバイス上で実施される。何らかのアノテーション付きARコンテンツが、自動的に生成され、例えば、タイムスタンプ情報、サービス担当者の識別情報(代替的に、これは手動で追加されるARコンテンツであり得る)、構成要素のCVベースの自動識別情報、又は記録されたビデオ40中に出現する他の物体などを追加する。
本発明は、好ましい実施形態に関して説明された。上記の詳細な説明を読み、理解した他者は、変更及び改変に想到する。本発明は、すべてのそのような変更及び改変が、添付の特許請求の範囲又はそれの均等物の範囲内に入る限りにおいて、それらの変更及び改変を含むものと解釈されるものである。

Claims (21)

  1. 拡張現実(AR)ベースのサービス提供案内デバイスであって、前記ARベースのサービス提供案内デバイスは、
    ディスプレイとカメラとを備えるモバイルデバイスと、
    ARコンテンツを、前記モバイルデバイスの前記カメラによってキャプチャされたライブビデオフィードと整合させることと、前記モバイルデバイスの前記ディスプレイ上に、前記ライブビデオフィードと整合された前記ARコンテンツを表示することとを行うために、コンピュータビジョン(CV)処理を実施するようにプログラムされた電子プロセッサと
    を備える、拡張現実(AR)ベースのサービス提供案内デバイス。
  2. 整合された前記ARコンテンツが、前記CV処理によって、前記ライブビデオフィードにおいて特定された関心ロケーション(LOI)と整合された、マーカーを含む、
    請求項1に記載のARベースのサービス提供案内デバイス。
  3. 整合された前記ARコンテンツが、前記CV処理によって、前記ライブビデオフィードにおいて特定された前記関心ロケーション(LOI)と整合された、アノテーションを含む、
    請求項1又は2に記載のARベースのサービス提供案内デバイス。
  4. 前記アノテーションが、部品番号アノテーション、コンピュータ支援設計(CAD)図面若しくはCAD図面部分、又はCADアニメーションである、
    請求項3に記載のARベースのサービス提供案内デバイス。
  5. 前記モバイルデバイスがヘッドアップディスプレイ(HUD)を備え、前記ディスプレイが透明ディスプレイであり、前記カメラが、前記透明ディスプレイを通して見る前記HUDのユーザの視点に対応する前記ライブビデオフィードをキャプチャするように配置され、
    前記電子プロセッサが、前記HUDの前記透明ディスプレイ上に前記ライブビデオフィードを表示することなしに、前記透明ディスプレイ上に、前記ライブビデオフィードと整合された前記ARコンテンツを表示するようにプログラムされた、
    請求項1から4のいずれか一項に記載のARベースのサービス提供案内デバイス。
  6. 前記モバイルデバイスがセルラー電話(セルフォン)又はタブレットコンピュータを備え、前記ディスプレイが、前記セルフォン又は前記タブレットコンピュータの前面上に配設された不透明ディスプレイであり、前記カメラが、前記セルフォン又は前記タブレットコンピュータの反対側の裏面上に配置された後向きカメラであり、
    前記電子プロセッサが、前記セルフォン又は前記タブレットコンピュータの前記不透明ディスプレイ上に、前記後向きカメラによってキャプチャされた前記ライブビデオフィードと整合された前記ARコンテンツと、前記ARコンテンツのアンダーレイとしての前記ライブビデオフィードとの両方を表示するようにプログラムされた、
    請求項1から4のいずれか一項に記載のARベースのサービス提供案内デバイス。
  7. 前記電子プロセッサが、前記ARコンテンツを、前記モバイルデバイスの前記カメラによって作り出された前記ライブビデオフィードの代わりに使用されるプレビュービデオと整合させるために、前記CV処理を実施することと、前記モバイルデバイスの前記ディスプレイ上に、前記プレビュービデオと整合された前記ARコンテンツと、前記ARコンテンツのアンダーレイとして表示される前記プレビュービデオとの両方を同時に表示することとによって、サービス提供プレビューを実施するようにさらにプログラムされた、
    請求項1から6のいずれか一項に記載のARベースのサービス提供案内デバイス。
  8. 前記電子プロセッサが、
    前記ARコンテンツを、前記モバイルデバイスの前記カメラによって作り出された前記ライブビデオフィードと整合させるために、前記CV処理を実施するようにプログラムされた、サーバコンピュータと、
    前記サーバコンピュータに、前記モバイルデバイスの前記カメラによって作り出された前記ライブビデオフィードを送信することと、前記サーバコンピュータから、前記ライブビデオフィードと整合された前記ARコンテンツを受信することと、前記モバイルデバイスの前記ディスプレイ上に、前記ライブビデオフィードと整合された前記ARコンテンツを表示することとを行うようにプログラムされた、前記モバイルデバイスのプロセッサと
    を備える、
    請求項1から7のいずれか一項に記載のARベースのサービス提供案内デバイス。
  9. 前記CV処理が、前記ARコンテンツを、前記モバイルデバイスの前記カメラによって作り出された前記ライブビデオフィードと整合させるための同時位置特定及びマッピング(SLAM)処理を含む、
    請求項1から8のいずれか一項に記載のARベースのサービス提供案内デバイス。
  10. 前記ARコンテンツの少なくとも一部分を、ユーザ入力によってサービスコールの記録されたビデオにおいて特定された少なくとも1つの関心ロケーション(LOI)と整合させることを含む、前記ARコンテンツを前記サービスコールの前記記録されたビデオと整合させることを含む動作によって、前記ARコンテンツを生成するために、CV処理を実施するようにプログラムされたコンピュータをさらに備える、
    請求項1から9のいずれか一項に記載のARベースのサービス提供案内デバイス。
  11. 拡張現実(AR)ベースのサービス提供案内方法であって、前記ARベースのサービス提供案内方法は、
    コンピュータを使用して、サービスコールの記録されたビデオにおける少なくとも1つの関心ロケーション(LOI)を特定する、前記コンピュータにおけるユーザ入力を受信する動作と、ARコンテンツの部分を前記少なくとも1つのLOIと整合させることを含む、前記ARコンテンツを前記サービスコールの前記記録されたビデオと整合させるためにコンピュータビジョン(CV)処理を実施する動作とを有する、ARコンテンツをオーサリングするステップと、
    電子プロセッサ、及びディスプレイとカメラとを備えるモバイルデバイスを使用して、オーサリングされた前記ARコンテンツを、前記モバイルデバイスの前記カメラによって作り出されたライブビデオフィードと整合させるために、前記電子プロセッサを使用してコンピュータビジョン(CV)処理を実施するステップと、前記モバイルデバイスの前記ディスプレイ上に、前記ライブビデオフィードと整合されたオーサリングされた前記ARコンテンツを表示するステップとを有する、オーサリングされた前記ARコンテンツを提示するステップと
    を有する、拡張現実(AR)ベースのサービス提供案内方法。
  12. 前記少なくとも1つのLOIと整合された前記ARコンテンツの前記部分が、部品番号アノテーション、コンピュータ支援設計(CAD)図面アノテーション、及びCADアニメーションアノテーションのうちの1つ又は複数を含む、
    請求項11に記載のARベースのサービス提供案内方法。
  13. 前記モバイルデバイスがヘッドアップディスプレイ(HUD)を備え、前記ディスプレイが透明ディスプレイであり、前記カメラが、前記透明ディスプレイを通して見る前記HUDのユーザの視点に対応する前記ライブビデオフィードをキャプチャするように配置され、オーサリングされた前記ARコンテンツを提示するステップが、
    前記HUDの前記透明ディスプレイ上に前記ライブビデオフィードを表示することなしに、前記透明ディスプレイ上に、前記ライブビデオフィードと整合された前記ARコンテンツを表示するステップ
    を有する、請求項11又は12に記載のARベースのサービス提供案内方法。
  14. 前記モバイルデバイスがセルラー電話(セルフォン)又はタブレットコンピュータを備え、前記ディスプレイが、前記セルフォン又は前記タブレットコンピュータの前面上に配設された不透明ディスプレイであり、前記カメラが、前記セルフォン又は前記タブレットコンピュータの反対側の裏面上に配置された後向きカメラであり、オーサリングされた前記ARコンテンツを前記提示するステップが、
    前記セルフォン又は前記タブレットコンピュータの前記不透明ディスプレイ上に、前記後向きカメラによってキャプチャされた前記ライブビデオフィードと整合された前記ARコンテンツと、前記ARコンテンツのアンダーレイとしての前記ライブビデオフィードとの両方を表示するステップ
    を有する、請求項11又は12に記載のARベースのサービス提供案内方法。
  15. 前記電子プロセッサと前記モバイルデバイスとを使用して、オーサリングされた前記ARコンテンツを、前記モバイルデバイスの前記カメラによって作り出された前記ライブビデオフィードの代わりに使用されるプレビュービデオと整合させるために、前記CV処理を実施することと、前記モバイルデバイスの前記ディスプレイ上に、前記プレビュービデオと整合されたオーサリングされた前記ARコンテンツと、オーサリングされた前記ARコンテンツのアンダーレイとして表示される前記プレビュービデオとの両方を同時に表示することとによって、サービス提供プレビューを実施するステップ
    をさらに有する、請求項11から14のいずれか一項に記載のARベースのサービス提供案内方法。
  16. 前記電子プロセッサは、オーサリングされた前記ARコンテンツを、前記カメラによって作り出された前記ライブビデオフィードと整合させるために前記CV処理を実施するために使用されるサーバコンピュータと、前記モバイルデバイスの前記ディスプレイ上に、前記ライブビデオフィードと整合されたオーサリングされた前記ARコンテンツを表示するために使用される前記モバイルデバイスのプロセッサとを備え、前記ARベースのサービス提供案内方法は、
    前記モバイルデバイスから前記サーバコンピュータに前記ライブビデオフィードを通信するステップと、
    前記サーバコンピュータから前記モバイルデバイスに前記ライブビデオフィードと整合されたオーサリングされた前記ARコンテンツを通信するステップと
    をさらに有する、請求項11から15のいずれか一項に記載のARベースのサービス提供案内方法。
  17. 前記ARコンテンツを前記サービスコールの前記記録されたビデオと整合させるために実施される前記CV処理が、同時位置特定及びマッピング(SLAM)処理を含み、
    オーサリングされた前記ARコンテンツを、前記モバイルデバイスの前記カメラによって作り出されたライブビデオフィードと整合させるために実施される前記CV処理が、SLAM処理を含む、
    請求項11から16のいずれか一項に記載のARベースのサービス提供案内方法。
  18. サービス提供案内のために拡張現実(AR)コンテンツをオーサリングするためのARコンテンツオーサリングデバイスであって、前記ARコンテンツオーサリングデバイスは、
    コンピュータと、
    ARコンテンツオーサリング方法を実施するための、前記コンピュータによって読取り可能及び実行可能な命令を記憶する非一時的記憶媒体とを備え、前記ARコンテンツオーサリング方法が、
    サービスコールの記録されたビデオにおける少なくとも1つの関心ロケーション(LOI)を特定する、前記コンピュータにおけるユーザ入力を受信するステップと、
    ARコンテンツの部分を前記少なくとも1つのLOIと整合させるステップを有する、前記ARコンテンツを前記サービスコールの前記記録されたビデオと整合させるためにコンピュータビジョン(CV)処理を実施するステップとを有する、
    ARコンテンツオーサリングデバイス。
  19. 少なくとも1つのLOIを特定する前記ユーザ入力を受信することが、
    前記サービスコールの前記記録されたビデオにおける前記ユーザ入力を受信することであって、前記記録されたビデオにおける少なくとも1つのLOIを示す、前記記録されたビデオによってキャプチャされたユーザ動作を検出するために、前記コンピュータによってCV処理が実施される、受信することを含む、
    請求項18に記載のARコンテンツオーサリングデバイス。
  20. 前記CV処理が、同時位置特定及びマッピング(SLAM)処理を含む、
    請求項18又は19に記載のARコンテンツオーサリングデバイス。
  21. 前記ARコンテンツオーサリング方法が、前記サービスコールの前記記録されたビデオと、整合された前記ARコンテンツとを、
    プレビュービデオを含む保守プロシージャARライブラリ構成要素、又は
    医療イメージングデバイスの電子サービスログに記憶された、前記記録されたビデオと、整合された前記ARコンテンツとを含むARサービスログエントリ
    のうちの1つとして記憶するステップをさらに有する、
    請求項18から20のいずれか一項に記載のARコンテンツオーサリングデバイス。
JP2020542682A 2017-10-23 2018-10-18 自己展開型拡張現実ベースのサービス命令ライブラリ Pending JP2021500690A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762575553P 2017-10-23 2017-10-23
US62/575553 2017-10-23
PCT/EP2018/078635 WO2019081350A1 (en) 2017-10-23 2018-10-18 SERVICE INSTRUCTION LIBRARY BASED ON SELF-EXPANSION ENHANCED REALITY

Publications (2)

Publication Number Publication Date
JP2021500690A true JP2021500690A (ja) 2021-01-07
JP2021500690A5 JP2021500690A5 (ja) 2021-11-25

Family

ID=63921550

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020542682A Pending JP2021500690A (ja) 2017-10-23 2018-10-18 自己展開型拡張現実ベースのサービス命令ライブラリ

Country Status (5)

Country Link
US (1) US11861898B2 (ja)
EP (1) EP3701355A1 (ja)
JP (1) JP2021500690A (ja)
CN (1) CN111386511A (ja)
WO (1) WO2019081350A1 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021500690A (ja) * 2017-10-23 2021-01-07 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 自己展開型拡張現実ベースのサービス命令ライブラリ
US11804679B2 (en) 2018-09-07 2023-10-31 Cilag Gmbh International Flexible hand-switch circuit
US11896279B2 (en) 2018-09-07 2024-02-13 Cilag Gmbh International Surgical modular energy system with footer module
US11923084B2 (en) 2018-09-07 2024-03-05 Cilag Gmbh International First and second communication protocol arrangement for driving primary and secondary devices through a single port
US11031128B2 (en) * 2019-01-25 2021-06-08 Fresenius Medical Care Holdings, Inc. Augmented reality-based training and troubleshooting for medical devices
USD939545S1 (en) 2019-09-05 2021-12-28 Cilag Gmbh International Display panel or portion thereof with graphical user interface for energy module
US11830602B2 (en) 2020-10-02 2023-11-28 Cilag Gmbh International Surgical hub having variable interconnectivity capabilities
US11963683B2 (en) 2020-10-02 2024-04-23 Cilag Gmbh International Method for operating tiered operation modes in a surgical system
US11672534B2 (en) 2020-10-02 2023-06-13 Cilag Gmbh International Communication capability of a smart stapler
US11877897B2 (en) 2020-10-02 2024-01-23 Cilag Gmbh International Situational awareness of instruments location and individualization of users to control displays
US11748924B2 (en) 2020-10-02 2023-09-05 Cilag Gmbh International Tiered system display control based on capacity and user operation
US11992372B2 (en) 2020-10-02 2024-05-28 Cilag Gmbh International Cooperative surgical displays
US11963727B2 (en) 2021-03-30 2024-04-23 Cilag Gmbh International Method for system architecture for modular energy system
US11968776B2 (en) 2021-03-30 2024-04-23 Cilag Gmbh International Method for mechanical packaging for modular energy system
US11950860B2 (en) 2021-03-30 2024-04-09 Cilag Gmbh International User interface mitigation techniques for modular energy systems
US11978554B2 (en) 2021-03-30 2024-05-07 Cilag Gmbh International Radio frequency identification token for wireless surgical instruments
US11980411B2 (en) 2021-03-30 2024-05-14 Cilag Gmbh International Header for modular energy system
US11857252B2 (en) 2021-03-30 2024-01-02 Cilag Gmbh International Bezel with light blocking features for modular energy system
US20220331048A1 (en) * 2021-04-14 2022-10-20 Cilag Gmbh International Utilization of surgical data values and situational awareness to control the overlay in surgical field view
CN113404318A (zh) * 2021-07-06 2021-09-17 中建八局第三建设有限公司 基于bim、uwb和ar技术的临边洞口施工管控方法
US20240045491A1 (en) * 2022-08-05 2024-02-08 Alexander Sourov Medical image overlays for augmented reality experiences

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012108711A (ja) * 2010-11-17 2012-06-07 Nec Casio Mobile Communications Ltd 端末装置、端末装置の動作方法、及び拡張現実システム
WO2013094366A1 (ja) * 2011-12-22 2013-06-27 村田機械株式会社 産業機械システムおよび産業機械システム用情報処理機器
JP2014123193A (ja) * 2012-12-20 2014-07-03 Kddi Corp フィールド作業支援装置
WO2014162823A1 (ja) * 2013-04-04 2014-10-09 ソニー株式会社 情報処理装置、情報処理方法およびプログラム

Family Cites Families (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE50003531D1 (de) * 1999-03-02 2003-10-09 Siemens Ag System und verfahren zur situationsgerechten unterstützung der interaktion mit hilfe von augmented-reality-technologien
US8489408B2 (en) * 2002-10-18 2013-07-16 Kabushiki Kaisha Toshiba Medical equipment management apparatus which predicts future status of medical equipment
DE102005061211B4 (de) * 2004-12-22 2023-04-06 Abb Schweiz Ag Verfahren zum Erzeugen einer Mensch-Maschine-Benutzer-Oberfläche
US10387612B2 (en) * 2006-06-14 2019-08-20 Koninklijke Philips N.V. Multi-modality medical image layout editor
US20080123910A1 (en) * 2006-09-19 2008-05-29 Bracco Imaging Spa Method and system for providing accuracy evaluation of image guided surgery
US20100159434A1 (en) * 2007-10-11 2010-06-24 Samsun Lampotang Mixed Simulator and Uses Thereof
US20100257252A1 (en) * 2009-04-01 2010-10-07 Microsoft Corporation Augmented Reality Cloud Computing
US8400548B2 (en) * 2010-01-05 2013-03-19 Apple Inc. Synchronized, interactive augmented reality displays for multifunction devices
US20110316845A1 (en) * 2010-06-25 2011-12-29 Palo Alto Research Center Incorporated Spatial association between virtual and augmented reality
US9424371B2 (en) * 2010-11-05 2016-08-23 Autodesk, Inc. Click to accept as built modeling
US20120166462A1 (en) * 2010-12-28 2012-06-28 Microsoft Corporation Automated image data processing and visualization
WO2012142250A1 (en) * 2011-04-12 2012-10-18 Radiation Monitoring Devices, Inc. Augumented reality system
US8832233B1 (en) * 2011-07-20 2014-09-09 Google Inc. Experience sharing for conveying communication status
EP2560145A3 (en) 2011-08-18 2017-03-15 Layar B.V. Methods and systems for enabling the creation of augmented reality content
US20150040074A1 (en) 2011-08-18 2015-02-05 Layar B.V. Methods and systems for enabling creation of augmented reality content
US9235819B2 (en) * 2011-11-04 2016-01-12 Canon Kabushiki Kaisha Printing system, image forming apparatus, and method
US11397462B2 (en) * 2012-09-28 2022-07-26 Sri International Real-time human-machine collaboration using big data driven augmented reality technologies
US9953618B2 (en) * 2012-11-02 2018-04-24 Qualcomm Incorporated Using a plurality of sensors for mapping and localization
US20140320529A1 (en) 2013-04-26 2014-10-30 Palo Alto Research Center Incorporated View steering in a combined virtual augmented reality system
US9269003B2 (en) * 2013-04-30 2016-02-23 Qualcomm Incorporated Diminished and mediated reality effects from reconstruction
WO2014179745A1 (en) * 2013-05-02 2014-11-06 Qualcomm Incorporated Methods for facilitating computer vision application initialization
US9495761B2 (en) * 2013-11-04 2016-11-15 The Regents Of The University Of California Environment mapping with automatic motion model selection
US9740935B2 (en) * 2013-11-26 2017-08-22 Honeywell International Inc. Maintenance assistant system
JP2015118442A (ja) * 2013-12-17 2015-06-25 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US20150219767A1 (en) * 2014-02-03 2015-08-06 Board Of Regents, The University Of Texas System System and method for using global navigation satellite system (gnss) navigation and visual navigation to recover absolute position and attitude without any prior association of visual features with known coordinates
US20150262412A1 (en) * 2014-03-17 2015-09-17 Qualcomm Incorporated Augmented reality lighting with dynamic geometry
US20150325047A1 (en) * 2014-05-06 2015-11-12 Honeywell International Inc. Apparatus and method for providing augmented reality for maintenance applications
EP3146729A4 (en) * 2014-05-21 2018-04-11 Millennium Three Technologies Inc. Fiducial marker patterns, their automatic detection in images, and applications thereof
US9723109B2 (en) * 2014-05-28 2017-08-01 Alexander Hertel Platform for constructing and consuming realm and object feature clouds
CN104274247A (zh) * 2014-10-20 2015-01-14 上海电机学院 医学手术导航方法
US20160133230A1 (en) * 2014-11-11 2016-05-12 Bent Image Lab, Llc Real-time shared augmented reality experience
US20170243403A1 (en) * 2014-11-11 2017-08-24 Bent Image Lab, Llc Real-time shared augmented reality experience
US20160140868A1 (en) * 2014-11-13 2016-05-19 Netapp, Inc. Techniques for using augmented reality for computer systems maintenance
US10154239B2 (en) * 2014-12-30 2018-12-11 Onpoint Medical, Inc. Image-guided surgery with surface reconstruction and augmented reality visualization
GB2534359A (en) * 2015-01-15 2016-07-27 Corin Ltd System and method for patient implant alignment
US11150482B2 (en) * 2015-02-25 2021-10-19 Facebook Technologies, Llc Augmented reality content creation
US9846972B2 (en) * 2015-04-06 2017-12-19 Scope Technologies Us Inc. Method and apparatus for sharing augmented reality applications to multiple clients
US20160358383A1 (en) * 2015-06-05 2016-12-08 Steffen Gauglitz Systems and methods for augmented reality-based remote collaboration
US10037627B2 (en) * 2015-08-14 2018-07-31 Argis Technologies Llc Augmented visualization system for hidden structures
US10430040B2 (en) * 2016-01-18 2019-10-01 Microsoft Technology Licensing, Llc Method and an apparatus for providing a multitasking view
US10187686B2 (en) * 2016-03-24 2019-01-22 Daqri, Llc Recording remote expert sessions
GB2568426B (en) * 2016-08-17 2021-12-15 Synaptive Medical Inc Methods and systems for registration of virtual space with real space in an augmented reality system
US20180082414A1 (en) * 2016-09-21 2018-03-22 Astralink Ltd. Methods Circuits Assemblies Devices Systems Platforms and Functionally Associated Machine Executable Code for Computer Vision Assisted Construction Site Inspection
US20210327303A1 (en) * 2017-01-24 2021-10-21 Tienovix, Llc System and method for augmented reality guidance for use of equipment systems
US10140773B2 (en) * 2017-02-01 2018-11-27 Accenture Global Solutions Limited Rendering virtual objects in 3D environments
US20180239313A1 (en) * 2017-02-22 2018-08-23 Stellar Vdc Residential, Llc Building model with virtual capture of as built features and objective performance tracking
US10659768B2 (en) * 2017-02-28 2020-05-19 Mitsubishi Electric Research Laboratories, Inc. System and method for virtually-augmented visual simultaneous localization and mapping
US9892564B1 (en) * 2017-03-30 2018-02-13 Novarad Corporation Augmenting real-time views of a patient with three-dimensional data
US10249095B2 (en) * 2017-04-07 2019-04-02 Microsoft Technology Licensing, Llc Context-based discovery of applications
US10692287B2 (en) * 2017-04-17 2020-06-23 Microsoft Technology Licensing, Llc Multi-step placement of virtual objects
US20180324229A1 (en) * 2017-05-05 2018-11-08 Tsunami VR, Inc. Systems and methods for providing expert assistance from a remote expert to a user operating an augmented reality device
WO2018222756A1 (en) * 2017-05-30 2018-12-06 Ptc Inc. Object initiated communication
US10127290B1 (en) * 2017-07-19 2018-11-13 Facebook, Inc. Systems and methods for distributing augmented-reality effects
US10212000B1 (en) * 2017-07-25 2019-02-19 Daqri, Llc Computer vision based activation
EP3438859A1 (en) * 2017-08-01 2019-02-06 Predict Srl Method for providing remote assistance services using mixed and/or augmented reality visors and system for implementing it
JP2021500690A (ja) * 2017-10-23 2021-01-07 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 自己展開型拡張現実ベースのサービス命令ライブラリ
US10699165B2 (en) * 2017-10-30 2020-06-30 Palo Alto Research Center Incorporated System and method using augmented reality for efficient collection of training data for machine learning
US10854006B2 (en) * 2018-11-15 2020-12-01 Palo Alto Research Center Incorporated AR-enabled labeling using aligned CAD models
US20200210967A1 (en) * 2018-12-31 2020-07-02 Palo Alto Research Center Incorporated Method and system for rule-based augmentation of perceptions

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012108711A (ja) * 2010-11-17 2012-06-07 Nec Casio Mobile Communications Ltd 端末装置、端末装置の動作方法、及び拡張現実システム
WO2013094366A1 (ja) * 2011-12-22 2013-06-27 村田機械株式会社 産業機械システムおよび産業機械システム用情報処理機器
JP2014123193A (ja) * 2012-12-20 2014-07-03 Kddi Corp フィールド作業支援装置
WO2014162823A1 (ja) * 2013-04-04 2014-10-09 ソニー株式会社 情報処理装置、情報処理方法およびプログラム

Also Published As

Publication number Publication date
US11861898B2 (en) 2024-01-02
WO2019081350A1 (en) 2019-05-02
CN111386511A (zh) 2020-07-07
EP3701355A1 (en) 2020-09-02
US20200342228A1 (en) 2020-10-29

Similar Documents

Publication Publication Date Title
JP2021500690A (ja) 自己展開型拡張現実ベースのサービス命令ライブラリ
US11730545B2 (en) System and method for multi-client deployment of augmented reality instrument tracking
Sauer et al. Mixed reality in visceral surgery: development of a suitable workflow and evaluation of intraoperative use-cases
US20210022599A1 (en) Augmented and extended reality glasses for use in surgery visualization and telesurgery
Silva et al. Emerging applications of virtual reality in cardiovascular medicine
CN109069103B (zh) 超声成像探头定位
EP2671114B1 (en) Imaging system and method for imaging and displaying an operator's work-site
US9001036B2 (en) Systems and methods of camera-based fingertip tracking
US20120256950A1 (en) Medical support apparatus, medical support method, and medical support system
KR20130108643A (ko) 응시 및 제스처 인터페이스를 위한 시스템들 및 방법들
JP2015527760A (ja) 時空間的不確実性を管理するためのシステム及び方法
WO2020197621A1 (en) Spatially consistent representation of hand motion
EP3803540B1 (en) Gesture control of medical displays
EP3445249B1 (en) Ultrasound imaging probe positioning
US20230093342A1 (en) Method and system for facilitating remote presentation or interaction
CN110301013A (zh) 用于手术室中的预测性工作流程的增强现实
WO2021062375A1 (en) Augmented and extended reality glasses for use in surgery visualization and telesurgery
CN113168906A (zh) 用于增强现实-增强现场维修支持的系统和方法
CN104969547A (zh) 用于3d视觉内容的自动化评估的技术
KR20220156870A (ko) 확장 현실 레코더
US10854005B2 (en) Visualization of ultrasound images in physical space
Tuladhar et al. A recent review and a taxonomy for hard and soft tissue visualization‐based mixed reality
Indhumathi et al. Multi-modal VR for medical simulation
Qian Augmented Reality Assistance for Surgical Interventions Using Optical See-through Head-mounted Displays
Karolczak et al. A stereoscopic viewer of the results of vessel segmentation in 3D magnetic resonance angiography images

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211014

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211014

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221007

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230710

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20231005

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240226