JP2020505686A - 手術室における予測ワークフローのための拡張現実 - Google Patents

手術室における予測ワークフローのための拡張現実 Download PDF

Info

Publication number
JP2020505686A
JP2020505686A JP2019537826A JP2019537826A JP2020505686A JP 2020505686 A JP2020505686 A JP 2020505686A JP 2019537826 A JP2019537826 A JP 2019537826A JP 2019537826 A JP2019537826 A JP 2019537826A JP 2020505686 A JP2020505686 A JP 2020505686A
Authority
JP
Japan
Prior art keywords
augmented reality
user
procedure
head
activity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019537826A
Other languages
English (en)
Other versions
JP2020505686A5 (ja
JP7004729B2 (ja
Inventor
モリー ララ フレックスマン
モリー ララ フレックスマン
アイマン アララオ
アイマン アララオ
アシシュ パンセ
アシシュ パンセ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2020505686A publication Critical patent/JP2020505686A/ja
Publication of JP2020505686A5 publication Critical patent/JP2020505686A5/ja
Application granted granted Critical
Publication of JP7004729B2 publication Critical patent/JP7004729B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B23/00Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
    • G09B23/28Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3995Multi-modality markers

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Business, Economics & Management (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • General Business, Economics & Management (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Graphics (AREA)
  • Optics & Photonics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Chemical & Material Sciences (AREA)
  • Medicinal Chemistry (AREA)

Abstract

拡張現実システムは、ユーザに案内を提供するためのディスプレイを有する頭部装着可能拡張現実プラットフォーム152を備える。予測モジュール115は、手順においてトレーニングされ、現在の状態に基づいて手順における次のアクティビティを予測するように構成される。画像生成モジュール148は、予測モジュールに応答して、頭部装着可能拡張現実プラットフォームを通して、ユーザに、予測される次のアクティビティの視覚的合図を提供する。

Description

本開示は、拡張現実システム及び方法に関し、より詳細には、手術室環境におけるワークフローを改善するための、履歴及び選好に基づく挙動予測のためのシステム及び方法に関する。
ハイブリッド手術室(OR)及びカテーテル検査室(カテ室(cathlab))は、広い範囲のイメージングプロトコルをサポートする。これらのプロトコルの数及びタイプは、手順(procedure)の各ステップのための正しいプロトコルを最適に見つけるには複雑であり得る。さらに、手順中に支援なしに新しいプロトコル、特徴、及びツールを導入することを試みるときに問題が起こる。
一例では、インターベンショナルX線スイートが、イメージングを最適化し、様々な画像フォーマットを獲得し、複雑なプロトコルを実施するための莫大な範囲の特徴及びツールを提供する。ユーザ対話が、一般に、イメージングモジュール、ジオメトリモジュール、xperモジュール、及びレビューモジュールなど、モジュールを介して、並びに、キーボード、マウス、及び(データ及びレビューモニタなど)モニタを介した一般的なオンスクリーン対話を通して実施される。これらのモジュールのうちのいくつか(一般に、ジオメトリ、イメージング、及びxperモジュール)は、制御室内のサイドテーブルにも存在する。
拡張現実は、概して、ライブ画像ストリームが、追加のコンピュータ生成情報によって補われる状況を指す。ライブ画像ストリームは、カメラ、スマートフォン、タブレットなどを使用して提供され得る。この画像ストリームは、ユーザに対する表示によって拡張される。
本原理によれば、拡張現実システムが、ユーザに案内を提供するためのディスプレイを有する頭部装着可能拡張現実プラットフォームを備える。予測モジュールが、手順においてトレーニングされ、現在の状態に基づいて手順における次のアクティビティを予測するように構成される。画像生成モジュールが、予測モジュールに応答して、頭部装着可能拡張現実プラットフォームを通して、ユーザに、予測される次のアクティビティの視覚的合図を提供する。
別の拡張現実システムが、ユーザに案内を提供するためのディスプレイを有する頭部装着可能拡張現実プラットフォームを備える。1つ又は複数のモデルが、手順のアクティビティを記憶し、予測モジュールが、少なくとも1つの手順においてトレーニングされ、1つ又は複数のモデルと比較した現在の状態に基づいて少なくとも1つの手順における次のアクティビティを予測するように構成されて、現在のアクティビティに適合する最良のモデルを決定して、次のアクティビティを予測するか、又は少なくとも1つの手順におけるアクティビティのシーケンスを通してユーザを案内する。画像生成モジュールが、予測モジュールに応答して、頭部装着可能拡張現実プラットフォームのディスプレイを通して、ユーザに、予測される次のアクティビティの視覚的合図を提供する。
拡張現実システムにおける次のステップを予測するための方法が、頭部装着可能拡張現実プラットフォームを使用して、手順における現在の状態を表すデータを収集するステップと、現在の状態のデータと、過去のアクティビティのための記憶された履歴データとに基づいて、手順における次のアクティビティを予測するステップと、ユーザに、予測される次のアクティビティを示すために、頭部装着可能拡張現実プラットフォーム中のディスプレイ上に視覚的合図を生成するステップとを有する。
本開示のこれら及び他の目的、特徴及び利点は、添付の図面を参照して読まれ、本開示の例示的な実施形態の以下の詳細な説明から明らかになろう。
本開示は、以下の図を参照しながら、以下の好ましい実施形態の説明を詳細に提示する。
一実施形態による、アクティビティ予測又は案内を伴う拡張現実システムを示すブロック図/流れ図である。 別の実施形態による、例示的なトレーニング入力又は現在の状態入力を備える、別の拡張現実システムを示す別のブロック図/流れ図である。 一実施形態による、頭部装着ディスプレイを通した、及びシーケンスにおける次のアクティビティのための視覚的合図を示す、ビューを示す図である。 一実施形態による、頭部装着ディスプレイを通した、及びシーケンスにおける次のアクティビティのための視覚的合図を示す、図3からの後続のビューを示す図である。 例示的な実施形態による、拡張現実システムを用いたアクティビティ予測又は案内のための方法を示す流れ図である。
本原理によれば、拡張現実学習及びカスタマイゼーションのためのシステム、デバイス及び方法が提供される。本明細書で説明される実施形態は、医療手順、又は、たとえば、製造環境などにおける他の作業環境アクティビティに関連付けられた、拡張現実案内のための予測能力を提供する。特に有用な実施形態では、頭部装着ディスプレイが利用され、これは、ディスプレイ眼鏡、ディスプレイレンズ、コンタクトレンズ、頭部装着ディスプレイスクリーン、タブレット、スマートフォンを伴う仮想現実フィクスチャなどを含むことができる。
オペレータが拡張現実を利用する場合、ユーザのビュー、ジェスチャー、及びイメージングシステムとの対話の追跡が実施され得る。この情報から、オペレータの作業のやり方が、決定及びモデル化され得る。次いで、モデル及び手順ステップが、同じユーザ又は他のユーザのための次のステップを予測するために利用され得る。ワークフローを改善し、手順回数を低減するために、合図及びトリガが、頭部装着ディスプレイデバイス上に視覚的に表示されて、ワークフローを指示するか、又は適切な手順の順序付けを促すことができる。いくつかの実施形態では、拡張現実予測システムは、新しいワークフロー、ツール、デバイス及び特徴の導入を支援することができる。拡張現実はまた、フィードバック情報として利用され、拡張現実インターフェースを通してユーザに示唆を提供し得る。
一実施形態では、拡張現実は、ハイブリッド手術室又はカテーテル室内で臨床手順中に次のステップを予測するために利用され得る。そのような環境には、多数の入力モジュール、多数のボタン、ダイヤル、スクリーン、キーボード、マウス、遠隔制御装置などがある。拡張現実予測システムは、次のアクションを予測する際に、効率的及び高速なやり方で実施するための案内を提供することによって、複雑化を低減する。イメージングデバイスのパラメータ(たとえば、フレームレート、放射線強度、減算オン/オフなど)を変化させる複数のイメージングプロトコルがあるので、最適なイメージングプロトコルを選択することは、画像品質の改善、並びに患者及びスタッフに対する線量の低減をもたらすことができる。拡張現実予測システムは、画像品質の改善及び線量の低減を提供するために必要とされる、最適なイメージングプロトコル及び設定に関する案内を提供することができる。さらに、拡張現実予測システムは、ユーザが、新しい技術、プロトコル、又は特徴を学習するのを支援することができ、さもなければ、これらは、学習することが困難であり、それにより、採択が減ることがある。システムは、どのスイッチ、スライダー、ノブ、制御装置などを調整するべきか、及びどの程度だけ調整するべきかを、仮想的に示すことができる。教育用画像、サウンド、ビデオ、バーバル又はテキスト命令が表示され、必要又は要望に応じて、好都合なロケーションにおいて表示され得る。
本発明は医療器具に関して説明されるが、本発明の教示ははるかに広義であり、任意の拡張現実器具及び手順に適用可能であり、手順は、たとえば、原子炉、製造環境、或いは拡張現実が利用され得る任意の他の環境又は適用例に関する手順を含むことを理解されたい。いくつかの実施形態では、本原理は、生物学的又は機械的システムのための複雑な手順を追跡又は分析する際に利用される。特に、本原理は、心臓、循環系、肺、消化管、排出器など、身体、人間などのすべてのエリアにおける、医療処置又は診断のための手順に適用可能である。図に示される要素は、ハードウェア及びソフトウェアの様々な組合せにおいて実施され、単一の要素又は複数の要素において組み合わせられる機能を提供する。
図に示される様々な要素の機能は、専用ハードウェア、並びに適切なソフトウェアに関連してソフトウェアを実行することが可能なハードウェアの使用によって提供され得る。プロセッサによって提供されるとき、機能は、単一の専用プロセッサによって、単一の共有プロセッサによって、又はそのうちのいくつかが共有され得る複数の個々のプロセッサによって提供され得る。その上、「プロセッサ」又は「コントローラ」という用語の明示的使用は、ソフトウェアを実行することが可能なハードウェアを排他的に指すと解釈されるべきでなく、限定はしないが、デジタル信号プロセッサ(「DSP」)ハードウェア、ソフトウェアを記憶するための読取り専用メモリ(「ROM」)、ランダムアクセスメモリ(「RAM」)、不揮発性記憶装置などを暗黙的に含むことができる。
その上、本発明の原理、態様及び実施形態、並びにその特定の例を具陳する本明細書でのすべての記述は、その構造的等価物と機能的等価物の両方を包含することが意図される。さらに、そのような等価物は、現在知られている等価物、並びに将来において開発される等価物(すなわち、構造にかかわらず、同じ機能を実施する開発される任意の要素)の両方を含むことが意図される。したがって、たとえば、本明細書で提示されるブロック図が、本発明の原理を具現する例示的なシステム構成要素及び/又は回路の概念ビューを表すことが、当業者によって理解されよう。同様に、任意のフローチャート、流れ図などが、コンピュータ可読記憶媒体で実質的に表され、コンピュータ又はプロセッサによって、そのようなコンピュータ又はプロセッサが明示的に示されているか否かにかかわらず、そのように実行される様々なプロセスを表すことが理解されよう。
さらに、本発明の実施形態は、コンピュータ又は任意の命令実行システムによって、又はそれに関して使用するためのプログラムコードを提供する、コンピュータ使用可能又はコンピュータ可読記憶媒体からアクセス可能なコンピュータプログラム製品の形態をとることができる。本明細書では、コンピュータ使用可能又はコンピュータ可読記憶媒体は、命令実行システム、装置又はデバイスによって、又はそれに関して使用するためのプログラムを含むか、記憶するか、通信するか、伝搬するか又はトランスポートする任意の装置であり得る。媒体は、電子、磁気、光、電磁、赤外又は半導体システム(又は装置又はデバイス)或いは伝搬媒体であり得る。コンピュータ可読媒体の例としては、半導体又はソリッドステートメモリ、磁気テープ、リムーバブルコンピュータディスケット、ランダムアクセスメモリ(RAM)、読取り専用メモリ(ROM)、剛性磁気ディスク、及び光ディスクがある。光ディスクの現在の例としては、コンパクトディスク読取り専用メモリ(CD−ROM)、コンパクトディスク読取り/書込み(CD−R/W)、Blu−Ray(商標)及びDVDがある。
本原理の「一実施形態」並びにそれの他の変形形態への本明細書における言及は、実施形態に関して説明される特定の特徴、構造、特性などが、本原理の少なくとも1つの実施形態に含まれることを意味する。したがって、本明細書全体にわたって様々な箇所に現れる、「一実施形態では」という句、並びに任意の他の変形形態の出現は、必ずしもすべてが同じ実施形態を指しているとは限らない。
たとえば、「A/B」、「A及び/又はB」及び「A及びBのうちの少なくとも1つ」の場合、「/」、「及び/又は」、及び「のうちの少なくとも1つ」のうちのいずれの使用も、第1のリストされたオプション(A)のみの選択、第2のリストされたオプション(B)のみの選択、又は両方のオプション(A及びB)の選択を包含することが意図されることを理解されたい。さらなる例として、「A、B、及び/又はC」及び「A、B、及びCのうちの少なくとも1つ」の場合、そのような表現法は、第1のリストされたオプション(A)のみの選択、第2のリストされたオプション(B)のみの選択、第3のリストされたオプション(C)のみの選択、第1及び第2のリストされたオプション(A及びB)のみの選択、第1及び第3のリストされたオプション(A及びC)のみの選択、第2及び第3のリストされたオプション(B及びC)のみの選択、又はすべての3つのオプション(A及びB及びC)の選択を包含することが意図される。これは、この技術及び関連技術における当業者によって直ちに明らかになるように、リストされた項目の数だけ拡張される。
また、層、領域又は物質などの要素が、別の要素「上に」あると言及されるとき、その要素は直接別の要素上にあり得、又は介在要素も存在し得ることが理解されよう。対照的に、要素が、別の要素「の直接上に」あると言及されるとき、介在要素は存在しない。また、要素が、別の要素に「接続される」又は「結合される」と言及されるとき、その要素は別の要素に直接接続又は結合され得、或いは介在要素が存在し得ることが理解されよう。対照的に、要素が、別の要素に「直接接続される」又は「直接結合される」と言及されるとき、介在要素は存在しない。
次に、同様の数字が同じ又は同様の要素を表す図面を参照し、最初に図1を参照すると、例示的な一実施形態による、拡張現実予測のためのシステム100が例示的に示されている。システム100は、ワークステーション112に組み込まれ得るモジュールの集合を備えることができるか、単一のコンソールを備えることができるか、又は互いに接続された別個のモジュールを備えることができる。ワークステーション112は、好ましくは、1つ又は複数のプロセッサ114と、プログラム及びアプリケーションを記憶するためのメモリ116とを備える。メモリ116は、1つ又は複数のモデル142をトレーニングするために1つ又は複数の入力からのフィードバックを解釈することと、過去のイベント又はイベントシーケンスに基づいて将来の挙動を予測する(又は案内する)ために、その1つ又は複数のモデル142を利用することとを行うように構成された、予測モジュール115を記憶する。
予測モジュール115は、データベース又はアクションログ134に記憶された履歴データを利用する。この情報は、1つ又は複数のモデル142を構築するために利用される。アクションログ134は、拡張現実セッション中にユーザアクティビティを記憶する。アクションログ134は、イベントデータ(たとえば、時間データ、カウント(アクションが実施された回数(たとえば、イベント又は手順ステップ)))、アクションのタイプ、アクションを登録するソース又は機器、アクションの大きさ又は特性、ユーザの識別情報、アクションのビデオ又は画像などを記憶する。入力のタイプは、適用例、機器、環境の構成などに応じて、広範囲にわたって変化することができることを理解されたい。アクションログ134に入力されたデータは、入力タイプ又はソースに基づいて分類され得るが、多数の入力を伴う、より大規模な設定では、分類器又は分類モジュール168が利用される。分類器168は、入力を受信し、モデル比較及びデータベース記憶のための使いやすさのために入力をタグ付けする。予測モジュール115は、1つ又は複数の手順の適切な実施を学習するように構成され、複数のやり方で行う。各やり方は、必要又は要望に応じて、構成されるか又は場合によっては入力の異なるセットに依拠する。
たとえば、一実施形態では、拡張現実ユーザ150が、頭部装着デバイス152を利用する。デバイス152は、任意の好適な頭部装着仮想現実システム、たとえば、GOOGLE GLASS(商標)、HOLOLENS(商標)、MAGIC LEAP(商標)、VUSIX(商標)、META(商標))を含むことができ、2次元又は3次元能力を含むことができる。デバイス152は、手順中にユーザ150に案内を提供するために、オーバーレイ或いは他の画像又はインジケータの形態の視覚フィードバックを提供する。デバイス152はまた、ユーザ150の現在のアクション又はアクティビティに関するフィードバックを提供するために、カメラ158又は他の1つ又は複数のセンサーデバイスを備えることができる。一実施形態では、仮想スクリーンが、スマートな又は好都合なロケーションにおいて、及び適切な時間において、室内でデバイス152中に(ディスプレイ上に)表示され得る。これらの仮想スクリーンは、予測される次のセットアップとして生成され得るか、或いは、ユーザの選好に応じて、手動で又は自動的に有効にされ得る。仮想スクリーンは、じゃまにならない所にスクリーンを移動するために、視線追跡に応じて移動され得るか、又は、仮想スクリーンは、手順における指定された時間において、(たとえば、壁上の又は1つの機器上の)あるスポットに配置され得る。
さらに、データは、たとえば、トレーニングモードで、複数のソースを含む拡張現実を使用しているユーザから集められ得る。一例では、環境内でのユーザビュー及び/又は他のビューのカメラフィードが、カメラ158によって、及び(1つ又は複数の)遠隔カメラ132によって提供され得る。視線追跡及び/又は頭部追跡が、頭部装着デバイスの能力を使用して、或いは網膜スキャナ160、及び/又は1つ又は複数の動き追跡デバイス162、たとえば、加速度計、赤外線追跡、光ファイバー追跡、電磁(EM)追跡、若しくは(1つ又は複数の)他の追跡メカニズムを使用して、網膜追跡によって提供され得る。別の実施形態では、ボイスコマンドが、アクションを予測するために、又は将来のアクションを案内するために、記憶され、モデル化され、利用され得る。マイクロフォン130が、バーバルコマンドを記録するために利用され得、スピーカー136が、ユーザにフィードバック又は案内を提供するために利用されて、シーケンスにおける次のアクションを指示するか、或いは1つ又は複数の次のアクションのための警告又はアドバイスを提供し得る。
別の実施形態では、手のジェスチャー又は身体の構成が、トレーニングし、次のアクションを予測するために利用され得る。手のジェスチャー又は身体の構成は、遠隔追跡システム(たとえば、赤外線カメラ)によるカメラ132を使用して、及び/又はユーザ150上に設けられた1つ又は複数のセンサー154を使用して決定され得る。たとえば、センサー154は、ユーザ150の腕又は手156上に配置されて、その動きを追跡することができる。ここで説明される任意の数の技術が、ジェスチャー追跡のために利用され得る。
1つ又は複数のソースから受信された情報が、手順中に他の利用可能なデータと組み合わせられ得る。データベース134及び/又は分類器168は、データをイベントの手順シーケンスに編成することができる。イベントのこのシーケンスは、手順(及び、ユーザID、手順の変形タイプなど、他の指標)に関連付けられ、よく知っているアクションシーケンスが検出されたとき、手順の残りを通して拡張現実においてユーザを案内するために、或いは手順中に必要又は要望に応じて設定を変更するために呼び出され得る。
例として、ユーザは、患者又は他の監視されるオブジェクト128に対して医療手順を行うことによって、システム100をトレーニングすることができる(たとえば、物理的トレーニングモデル)。イメージングシステム110が、X線システム、超音波システム、コンピュータ断層撮影(CT)システム、磁気共鳴(MR)システムなどを備えることができる。一実施形態では、イメージングシステム110は、CアームX線システムを備える。手順は、X線画像126が収集されている、ある量の時間の間、ディスプレイ118上に自身の眼の焦点を合わせることをユーザ150に要求するか、又は、ユーザ150は、ディスプレイ118とインターフェースモジュール166との間で何度も自身の焦点合わせを変更し、これは、X線画像モード、X線露出条件、ビュー設定などを制御するために利用される。システム100は、ディスプレイ118上のユーザ150の視線を検知し、ディスプレイ118からのディスプレイイメージングモードを記録し、手の動き、インターフェースモジュール166の設定など、他のデータを利用して、これらのアクティビティを所与の手順に関連付けることができる。このデータは、データベース134及び/又は分類器168を使用して、分類され、関連付けられる。関連付けられたデータは、この手順に関連付けられ得るモデル142を構築するために利用され得る。モデル142は、使用される設定、経時的に利用されるイメージングモード、イメージングパラメータ(たとえば、フルオロフレーバー、コントラスト、フレーム毎秒など)、(たとえば、外科的ツール、ロボット、イメージング機器などの)デバイス追跡情報、ユーザジェスチャー追跡、(患者、ユーザ及びスタッフに対する)線量情報などを含むことができる。このデータが集められ、処理されると、モデル142はトレーニングされる。
次いで、モデル142は、予測モジュール115によって利用されて、手順における次のステップを予測するか、或いはモデル142によって記憶された履歴に基づいて将来の設定又はアクションに関する案内を提供する。モデル142は、適切な時間において適切な機器及び周辺機器に伝達される、ステップ及び設定の単純なリストであり得るか、又は、モデル142は、(デバイス設定、画像、ビデオ、器具識別情報などを含む)前の実施において存在した状態の履歴の綿密なカタログであり得る。特に有用な実施形態では、ステップ、設定、使用される機器などは、自身の拡張現実ディスプレイデバイス152を通して、ユーザ150に伝達される。これは、テキストメッセージ、色変化、強度変化、オーディオフィードバック、ビデオなどを含むことができる。一実施形態では、(放射線投与量情報に基づく)人々が立つべき最適な場所、機器のための最適な場所などを含む、次の手順をセットアップするための室内レイアウト/機器セットアップが、予測され得る。このレイアウト/セットアップ情報は、過去のレイアウトに基づくか、又は予測モジュール115によって実行された最適化に基づき、所与の手順のための効率的なワークフローを提供することができる。
たとえば、手順に備えて、システム100は、モデル142に従って、異なる機器のための適切な設定などを決定するために、ユーザ150のアクティビティを監視する。いくつかのアクティビティの後に、システム100は、次のステップ、又はステップの次の手順シーケンスを予測することができる。X線イメージング中に、ユーザ150は、ある量の時間の間、ディスプレイ118上に焦点が合わせられ、ディスプレイ118とインターフェースモデル166との間で何度も自分の視線を変更する。インターフェースモジュール166は、ジオメトリモジュール、イメージングモジュール、レビューモジュール、及び/又はxperモジュールのうちの1つ又は複数を含むことができ、これらは、X線制御室内に存在し得る。予測モジュール115は、モデル142によって識別されたものと同じ手順が展開されていたと予測する。システム100は、ユーザ150に、前のタスクの完了時に、次のタスクを実施するように促す。予測は、ディスプレイデバイス152上のテキストメッセージの形態をとるか、或いは、回すべき次のノブ又は操作すべき次のスイッチを示す、矢印又は他のグラフィックの形態をとることができる。任意の数の、視覚、オーディオ又は触覚の、トリガ又はフィードバックメカニズムが展開され得る。
一例では、イメージングビューモードが、手順内のステップに応じて切り替えられ得る。たとえば、モード又はディスプレイ118は、たとえば、骨又は高密度軟組織中の血管を視覚化するためにインターベンショナルラジオロジーにおいて使用される透視技法のタイプである、デジタルサブトラクション血管造影(DSA)モードから、経食道心エコー(TEE)超音波画像モードのためのフル3Dビューに切り替えられ得る。選択されるイメージングパラメータは、拡張現実ディスプレイ152において切り替えられるか又は示され得る(たとえば、フレーム毎秒、X線のためのフルオロフレーバー、深度、超音波のためのゲインなど)。特定のソフトウェアツール又はハードウェア器具102とのユーザ対話が、示されるか又は予測され得る(たとえば、EchoNavigator(商標)、VesselNavigator(商標)においてターゲットマーカーを配置する)又は、使用されるべき次の器具を予測するなど。次の器具は、たとえば、デバイス追跡器104からの(たとえば、(「光形状検知」、「ファイバー形状検知」、「光ファイバー3D形状検知」、「光ファイバー形状検知及び位置特定」などとしても知られる)Fiber−Optical RealShape(商標)、その場追跡(超音波)、光追跡、EM追跡などを用いた)デバイス追跡情報を使用して、拡張現実ディスプレイ152において、位置決めされ、強調表示され得る。他の実施形態では、ツール又はイメージング機器のロボット測位情報が利用され得る。
予測モジュール115は、次のステップのための複数の可能性のためのスコアを生成するために、集められたデータの組合せを利用する。最高スコアが、次のステップ又はアクションのための最も可能性がある候補モデルを提供する。たとえば、どのモデル142が現在のアクティビティに最も良く適合するかに関して、手順のアクティビティを記憶する1つ又は複数のモデル142が、予測モジュール115によって決定され得る。最良適合モデルは、手順中の次のアクティビティを予測するために利用され得る。予測モジュール115は、必要に応じて、音声認識、音声生成、音声テキスト生成、テキスト生成及びジェスチャー認識アルゴリズムを含むことができる。
予測モデル142、分類器モジュール168及び予測モジュール115は、たとえば、ニューラルネットワーク、多層パーセプトロン(MLP)、サポートベクターマシン(SVP)、単純ベイズ、k近傍法など、1つ又は複数の知られている学習技法を利用することができる。予測モジュール115は、任意の好適なスコアリング方法、たとえば、最大エントロピー、最尤などを利用することができる。
一実施形態では、ワークステーション112は、1つ又は複数のソースからのフィードバックを受信することと、拡張現実ディスプレイ152において、テキスト表示、グラフィック表示、強度変化などを提供することとを行うように構成された、画像生成モジュール148を備える。拡張現実ディスプレイ152は、ユーザ150に、次のステップの予測のための案内を提供するために、オーバーレイ又は他のレンダリングを利用することができる。
1つ又は複数のソースからの情報の組合せが、手順中にモデル142を学習及びトレーニングするために利用され得る。モデル142は、手順のその時点において使用されるデバイスを学習し、手順の様々なフェーズ中に利用されるイメージングモード/プロトコルを学習し、手順の各フェーズ中の室内レイアウトと、ワークフローに対するその影響とを理解し、手順中にどこでユーザがワークフローに苦労するかを学習し、室内の異なるロケーションにおけるピーク線量プロファイルを学習する、などである。システム100が情報から学習し、それぞれの1つ又は複数のモデル142が作成されると、システム100は、予測することと、ユーザのワークフローを支援することとを開始することができる。
システム100は、どのイメージングプロトコルを次に使用するべきかを示唆することができる(又は、次のイメージングプロトコルを、(1つ又は複数のディスプレイモニタを備えることができる)インターフェースモジュール166上に、オプションとしてすでにプルアップしておくことができる)。システム100は、画像品質(たとえば、ゲイン、フォーカス、深度、フレームレートなど)を改善するための最適化を示唆することができる。システム100は、インベントリ及び課金の目的で、手順中に使用されるデバイスのインベントリを保有することができる。システム100は、使用すべき次のデバイスなどを示唆することができる。
特に有用な実施形態では、システム100は、異なるプロトコル、フルオロフレーバー、cアーム位置、又は室内で立っている人々のための異なるロケーションを選択することによって、患者及び/又はスタッフに対する線量を低減する機会がいつあるかを示唆することができる。システム100は、同様であった過去の事例に基づいて、適切な時間において、プロトコル、イメージングデータ、デバイス情報、カメラフィードなどを提起することができる。次のステップは、特にユーザが新しいプロトコル、ツール、又は特徴を学習しているとき、「規定された」ワークフロー中に予測され得る。この場合、システム100は、ワークフローを学習していないことがあるが、新しいプロトコル、ツール、又は特徴にユーザを導くように、ワークフローをプログラムしている。システム100は、手順におけるその時点のための履歴データに基づいて、患者の統計、線量情報、異なるモダリティ画像などのような関連するスクリーンを立ち上げることができる。システム100はまた、システム100が学習したことに基づいて、同様の事例からの参照を提起することができる。
また、システム100は、複数の異なるモード又はこれらのモードの組合せによって、フィードバック又は予測情報をユーザと共有するために使用され得る。一実施形態では、オーバーレイ画像がディスプレイデバイス152において使用されて、次のステップにユーザを案内し、ある事(適切な手順、この前に行われたことなど)についてユーザに警告し、同様の事例、患者又はシナリオからの画像を、比較のためにライブ画像の隣に又はライブ画像の上に表示し、ユーザにオーディオフィードバックを提供し、触覚デバイス又はシステム138を使用してユーザに触覚フィードバックを提供し得る。
1つ又は複数のモデル142は、ある特定のユーザのためにトレーニングされ得るか、或いは、たとえば、部門、病院、国において、又はグローバルに、複数のユーザにわたってトレーニング情報を組み込むことができる。これは、サイト、プライバシー問題などにわたって、技術的な多様可能性を考慮に入れることができる。一実施形態では、1人のオペレータ又はユーザからの学習が、単に、そのオペレータ又はユーザのために予測するために使用される。別の実施形態では、所与の病院内のオペレータのためのすべての学習が、あるオペレータのために予測するために使用される。さらに他の実施形態では、(グローバルな)システムの使用にわたるすべての学習が、あるオペレータのために予測するために利用される。これは、アルゴリズム/データのクラウドベースストレージ、又はロケーション間のネットワーク通信を含むことができる。
ユーザは、ユーザがより多くのフィードバックを希望するか、又は、新しいタスクを試みており、洞察を希望するとき、予測/示唆の量を大きくすることによって、予測/示唆の量を制御することができるか、或いは、ユーザが、どんな示唆をも希望しない極めて異例の手順を行っている場合、予測/示唆の量を小さくすることができる。予測制御装置122が、インターフェースモジュール166上に、インターフェース120上に、又は予測特徴の手動制御を可能にするための任意の他の好都合なロケーションにおいて設けられ得る。制御装置122は、ユーザ150の予測又は案内の所望のレベルに基づく、予測示唆又は案内の可変レベルを備えることができる。制御装置122は、自動式に設定され得、これは、ユーザのアクティビティに基づいて自動的に予測及び示唆をトリガする。
ユーザ150は、ユーザ150がシステム100をよりよく知るようになるにつれて、追加のトレーニング情報を追加することができる。これは、手順中に追加のボイスコマンド/説明を追加すること、デバイス追跡のためのカメラビューにおいてデバイスパッケージをキャプチャすることを確実にすること、興味深い物又は重要な物を指すための、手又は他のジェスチャーを提供すること、或いは、次のステップを予測するように予測モジュール115をトリガするために、追加のデータを提供することを含む。このようにして、ユーザ150は、特定のジェスチャー又は音声を指定して、手順における特定のステップを識別することができる。これは、トレーニングし、次のステップをより正確に予測するのを支援する。
事例又は手順の最後に、集められた情報のすべて、作成された特定のモデルなどが、「事例ファイル」として保存され得る。これは、将来の事例のための参照として引き出され得るか、又はトレーニング目的で使用され得る。ユーザインターフェース120はまた、ユーザが、追加の注釈、ステップ、及びアクションを追加することによって、事例ファイルを変更及び改善することを可能にすることができる。
本実施形態は、ワークフローを学習及び予測するための、カテ室又はハイブリッド手術室における拡張現実の使用に適用される。本実施形態はまた、たとえば、モバイルX線、超音波、MR、内視鏡検査、CTなど、或いは、任意の他の手順、商業又は工業用途、医療などに適用可能である。
ワークステーション112は、患者128又は他の対象者の画像を閲覧するためのディスプレイ118を備える。ディスプレイ118はまた、ユーザが、ワークステーション112並びにその構成要素及び機能、又はシステム100内の任意の他の要素と対話することを可能にする。これは、さらに、キーボード、マウス、ジョイスティック、触覚デバイス、或いはワークステーション112からのユーザフィードバック及びワークステーション112との対話を可能にするための任意の他の周辺機器又は制御を含む、インターフェース120によって容易にされる。
図2を参照すると、ブロック図/流れ図が、別の実施形態による、拡張現実予測システム200を示す。システム200は、拡張現実プラットフォーム202を備える。プラットフォーム202は、拡張現実インターフェースを提供するために必要とされる任意の数の構成要素を備えることができる。これらの構成要素は、カメラ、マイクロフォン、頭部及び視線追跡デバイス、ジェスチャー認識、室内マッピングアプリケーション、視覚化デバイス(たとえば、GOOGLE GLASS(商標)、HOLOLENS(商標)、MAGIC LEAP(商標)、VUSIX(商標)、META(商標)頭部装着スマートフォン又はタブレットディスプレイ、カスタム頭部装着ディスプレイなど)を含むことができる。手順又は他のスクリプト化されたアクティビティに関連付けられた、アクティビティ及び選好を学習するために、情報が、プラットフォーム202から及び他のソースから収集される。
他のソースは、イメージングプロトコル212、線量情報210、ユーザ入力208、ナビゲーション情報206などに関する情報を含むことができる。イメージングプロトコル212は、イメージング設定、ビュー、イメージングシステムのタイプ(X線など)などを含むことができる。線量情報210は、イメージング、対象者セットアップなどを含む、機器アクティビティに関連付けられた放射線レベルを含むことができる。線量情報210は、タイミングを決定する際に有用であり得るが、ワークフローを改善するためのメトリックとしても有用であり得る(たとえば、より低い線量は改善である)。ユーザ入力208は、任意のユーザ選好、制限、警告又は任意の他の有用な情報を含むことができる。ナビゲーション情報206は、ジェスチャー、手術室のナビゲーション、器具のナビゲーション又は使用、頭部装着可能拡張現実プラットフォームの動き、患者の位置又は動き、イメージングシステムの位置又は動き、及び手順において利用された(1つ又は複数の)器具の位置又は動きなどを含むことができる。さらに、ナビゲーション情報206は、(たとえば、放射線量に基づく)人々が立つべき最適な場所、機器のための最適な場所などを含む、次の手順のためにセットアップするための室内レイアウト情報を含むことができる。また、他のカテゴリーの情報及びパラメータが、例示的に説明されたものの代わりに、又はそれに加えて利用され得る。
(1つ又は複数のソースからの)収集された情報204が、学習モジュール214において、特定のアクティビティのプロファイル又はモデルを作成するために、関連付けられるか又は組み合わせられる。この実施形態では、学習モジュール214は、図1で説明された、分類モジュール168、モデル142及びデータベース134の態様の一部又は全部を含むことができる。学習モジュール214は、拡張現実プラットフォーム202、イメージングプロトコル212、線量情報210、ユーザ入力208、ナビゲーション情報206などからの入力の所与のセットを用いて、ワークフローの次のステップを予測するためのモデルをトレーニングするために使用される1つ又は複数の学習アルゴリズムを実行する。計算顕著性モデルが、ユーザがどこを見ているかを追跡するために利用され得る。これは、ジェスチャー追跡とともに、将来の動きを予測するように学習モジュール214を教示するために利用され得る。
一例では、予測コンピュータビジョンが、手順イベント又はステップに関連付けられたアクティビティに関する追加の情報を提供するために、同様に利用され得る。一実施形態では、画像の視覚表現が、カメラを用いて集められ得、パターンを発見し、これらのパターンをビン又はカテゴリーに分類するために利用され得る。次いで、この情報は、将来のアクティビティを分類するために利用されるか、又は同様の挙動が生じたときに次の動きを予測する際に利用される。また、深層学習ベース目標認識が使用され得る。
学習モジュール214は、異なるデータソース間の関連付けを作成して、モデル及び/又は関連付けを作成する。たとえば、所与のサイト(サイト1、サイト2)について、ユーザ1が、手順中に収集された情報を含む、ワークフローパターン216を有し、サイト1におけるユーザ2が、同じ又は異なる手順のための異なるワークフローパターン218を有する。そのパターンは、比較され、組み合わせられて(クラスタ)、モデル(たとえば、予測モデル)を形成することができる。
十分なトレーニングの後に、そのシステムがワークフローに公開され得る。比較に基づいて、異なる仮説が、予測される次のステップのために決定され得る。これらの仮説は、予測モジュール115によって、最も可能性がある予測される次のステップを決定するために、(1つ又は複数の)モデルに対してスコアリングされ得る。これらの予測は、構成要素のいずれか又はすべてを次のステップのために準備するためにこれらの構成要素を変更するためにこれらの構成要素に提供され得るか、又は、それらの予測は、単に、拡張現実プラットフォーム202を着用しているユーザに提供され得、そのユーザは、予測に基づいて行動するか又は予測によって案内される。
図3及び図4を参照すると、頭部装着ディスプレイからの例示的なビューが、本原理による別の態様を示す。頭部装着ディスプレイからのビュー302が、ノブ310を有する現実のデバイス308を含む。また、現実のディスプレイ304と、第1の向き又はイメージングプロトコルを有する、ディスプレイ304におけるオブジェクト306とが示されている。テキストラベル312及び矢印が、予測される次のステップが、ノブ310を調整することを含むことをユーザ(たとえば、頭部装着ディスプレイの着用者)に示すために、仮想的に生成される。
一実施形態では、ディスプレイ304、さらには機器308は、予測又はユーザ選好に応じて自動的に生成された、仮想ディスプレイ又はデバイスであり得る。次のステップ又は指示は、シーケンスにおける次のアクションを実施するためのビュー302、303において表示され得る。仮想ディスプレイ304は、必要又は要望に応じて、有用な情報を示すか又は案内を提供する、画像、ビデオ、グラフィックを表示することができる。
ノブ310が調整されると、システムは次の予測を行う。ここで、次の予測は、図4に示されているように、ディスプレイ308において次のビュー303に変更することである。これは自動的に行われ得るか、又は、システムは、プロンプト、たとえば、ビューを変更する314を提供して、ディスプレイ308上の画像306のビューを変更することができる。任意の数の追加の視覚、ボイス、サウンド又は触覚プロンプトが、利用され得る。
図5を参照すると、拡張現実システム手順における次のステップのための予測又は案内のための方法が例示的に示されている。ブロック402において、1つ又は複数のモデルが、手順のアクティビティ(履歴)を記憶することによってトレーニングされ、その結果、1つ又は複数のモデルは、現在のアクティビティシーケンスに適合するように利用されて、手順における次のアクティビティを予測し得る。トレーニングステップは、特定の手順について随意であり、モデルは、早い時間において作成され、データベースに記憶され得る。
ブロック404において、手順における現在の状態を表す(及び、好ましくは、モデルに記憶されたデータに対応する)データが、頭部装着可能拡張現実プラットフォーム、及び任意の他のデータ収集メカニズム、たとえば、マイクロフォン、カメラ、線量計、ナビゲーション情報などを使用して収集される。
ブロック406において、次のアクティビティが、現在の状態のデータと、過去のアクティビティのための記憶された履歴データとに基づいて、手順において(たとえば、案内実施形態のために)予測されるか、又は示される。現在の状態は、ユーザアクションのシーケンス、眼の動き、頭部の動き、ジェスチャー、眼の焦点合わせ、放射線量情報、並びに、頭部装着可能拡張現実プラットフォーム、及び手順において利用される機器のうちの少なくとも1つのためのナビゲーション情報、のうちの少なくとも1つを含む。ユーザアクションは、眼の動き、頭部の動き、ジェスチャー、機器の使用及び眼の焦点合わせのうちの少なくとも1つを含むことができる。他の情報、たとえば、室内又は個人に関する空間情報、機器タイプなどが、現在の状態及びユーザアクションをも評価するために集められ得る。
ブロック408において、ユーザに、予測される次のアクティビティを示すために、視覚的合図が、頭部装着可能拡張現実プラットフォーム中のディスプレイ上に生成される。さらに、非視覚的合図又は指示も、1つ又は複数のフィードバックデバイス、たとえば、スピーカー、触覚デバイス、ディスプレイなどによって生成され得る。視覚的合図は、自動的に、適切な時間においてスマートな場所において(頭部装着ディスプレイを通して)室内に仮想スクリーンを追加することができるか、又は(たとえば、じゃまにならないようになど)手順における指定された時間において、あるスポットにスクリーンを移動することを含むことができる。
ブロック410において、ユーザは、頭部装着可能拡張現実プラットフォーム中のディスプレイ上の視覚的合図を使用して、手順におけるアクティビティのシーケンスを通して案内され得る。これは、次のステップを予測することに加えて、又はその代わりに行われ得る。一実施形態では、アクティビティは、カメラを使用してユーザの視点から記憶され得、ユーザは、カメラによって記憶されたアクティビティを使用して、頭部装着可能拡張現実プラットフォームを用いて手順におけるアクティビティのシーケンスを通して案内され得る。このようにして、実際のビデオが、次のステップを示すために利用され得る。
ブロック412において、予測又は示唆レベルが、手動で調整又は設定され得る。これは、特に、所与の手順を実施している経験を積んだユーザのために、ワークフローを改善するのを支援するために、予測又は案内の量を制御する。
添付の特許請求の範囲を解釈する際には以下を理解されたい。
a)「備える、含む、有する」という単語は、所与の請求項に記載されているもの以外の他の要素又は行為が存在することを除外するものではない。
b)単数形の要素は、複数のそのような要素が存在することを除外するものではない。
c)特許請求の範囲中のいかなる参照符号も、それらの範囲を限定するものではない。
d)いくつかの「手段」は、同じ項目或いはハードウェア又はソフトウェア実施構造又は機能によって表される。
e)特に示されない限り、行為の特定のシーケンスが必要とされることは意図されない。
(例示的なものであり、限定するものではないことが意図される)手術室における予測ワークフローのための拡張現実のための好ましい実施形態について説明したが、上記の教示に照らして修正及び変形が当業者によって行われ得ることに留意されたい。したがって、添付の特許請求の範囲によって概説される、本明細書で開示される実施形態の範囲内にある、開示される本開示の特定の実施形態において変更が行われ得ることを理解されたい。したがって、特許法によって必要とされる詳細及び委細について説明したが、特許請求され、特許証によって保護されることが望まれるものが、添付の特許請求の範囲に記載される。

Claims (22)

  1. ユーザに案内を提供するためのディスプレイを有する頭部装着可能拡張現実プラットフォームと、
    少なくとも1つの手順においてトレーニングされ、現在の状態に基づいて前記少なくとも1つの手順における次のアクティビティを予測する、予測モジュールと、
    前記予測モジュールに応答して、前記頭部装着可能拡張現実プラットフォームを通して、前記ユーザに、予測される次のアクティビティの視覚的合図を提供するための、画像生成モジュールと
    を備える、拡張現実システム。
  2. 前記現在の状態が、セッションの開始をトリガするためのユーザアクションのシーケンスを含む、請求項1に記載の拡張現実システム。
  3. 前記ユーザアクションが、眼の動き、頭部の動き、ジェスチャー、機器の使用及び眼の焦点合わせのうちの少なくとも1つを含む、請求項2に記載の拡張現実システム。
  4. 前記現在の状態が、イメージングモダリティからの線量情報を含む、請求項1に記載の拡張現実システム。
  5. 1つ又は複数のフィードバックデバイスによって提供される、非視覚的合図又は指示をさらに備える、請求項1に記載の拡張現実システム。
  6. 手順のアクティビティを記憶する1つ又は複数のモデルであって、現在のアクティビティに適合し、前記少なくとも1つの手順における前記次のアクティビティを予測するモデルを決定するために、前記予測モジュールによって利用される、1つ又は複数のモデルをさらに備える、請求項1に記載の拡張現実システム。
  7. 手順のアクティビティを記憶する1つ又は複数のモデルであって、前記少なくとも1つの手順におけるアクティビティのシーケンスを通してユーザを案内するために利用される、1つ又は複数のモデルをさらに備える、請求項1に記載の拡張現実システム。
  8. ユーザの視点からのアクティビティを記憶するためのカメラであって、前記頭部装着可能拡張現実プラットフォーム上の前記カメラによって記憶された前記アクティビティを使用して、手順におけるアクティビティのシーケンスを通してユーザを案内するためのカメラをさらに備える、請求項1に記載の拡張現実システム。
  9. 前記現在の状態が、前記頭部装着可能拡張現実プラットフォーム、患者、イメージングシステム、及び前記手順において利用される器具のうちの少なくとも1つのためのナビゲーション情報を含む、請求項1に記載の拡張現実システム。
  10. ユーザに案内を提供するためのディスプレイを有する頭部装着可能拡張現実プラットフォームと、
    手順のアクティビティを記憶する1つ又は複数のモデルと、
    少なくとも1つの手順においてトレーニングされ、前記1つ又は複数のモデルと比較した現在の状態に基づいて前記少なくとも1つの手順における次のアクティビティを予測し、その結果、現在のアクティビティに適合する最良のモデルが利用されて、前記次のアクティビティを予測するか、又は前記少なくとも1つの手順におけるアクティビティのシーケンスを通してユーザを案内する、予測モジュールと、
    前記予測モジュールに応答して、前記頭部装着可能拡張現実プラットフォームの前記ディスプレイを通して、前記ユーザに、予測される次のアクティビティの視覚的合図を提供するための、画像生成モジュールと
    を備える、拡張現実システム。
  11. 前記現在の状態が、セッションの開始をトリガするためのユーザアクションのシーケンスを含む、請求項10に記載の拡張現実システム。
  12. 前記ユーザアクションが、眼の動き、頭部の動き、ジェスチャー、機器の使用及び眼の焦点合わせのうちの少なくとも1つを含む、請求項11に記載の拡張現実システム。
  13. 前記現在の状態が、イメージングモダリティからの線量情報を含む、請求項10に記載の拡張現実システム。
  14. 1つ又は複数のフィードバックデバイスによって提供される、非視覚的合図又は指示をさらに備える、請求項10に記載の拡張現実システム。
  15. ユーザの視点からのアクティビティを記憶するためのカメラであって、前記頭部装着可能拡張現実プラットフォーム上の前記カメラによって記憶された前記アクティビティを使用して、手順におけるアクティビティのシーケンスを通してユーザを案内するためのカメラをさらに備える、請求項10に記載の拡張現実システム。
  16. 前記現在の状態が、前記頭部装着可能拡張現実プラットフォーム、患者、イメージングシステム、及び前記手順において利用される器具のうちの少なくとも1つのためのナビゲーション情報を含む、請求項10に記載のシステム。
  17. 拡張現実システムにおける次のステップを予測するための方法であって、前記方法が、
    頭部装着可能拡張現実プラットフォームを使用して、手順における現在の状態を表すデータを収集するステップと、
    前記現在の状態の前記データと、過去のアクティビティのための記憶された履歴データとに基づいて、前記手順における次のアクティビティを予測するステップと、
    ユーザに、予測される次のアクティビティを示すために、前記頭部装着可能拡張現実プラットフォーム中のディスプレイ上に視覚的合図を生成するステップと
    を有する、方法。
  18. 前記現在の状態が、ユーザアクションのシーケンス、眼の動き、頭部の動き、ジェスチャー、眼の焦点合わせ、機器の使用、放射線量情報、並びに、前記頭部装着可能拡張現実プラットフォーム、患者、イメージングシステム、及び前記手順において利用される器具のうちの少なくとも1つのためのナビゲーション情報、のうちの少なくとも1つを含む、請求項17に記載の方法。
  19. 手順のアクティビティを記憶することによって、1つ又は複数のモデルをトレーニングするステップであって、その結果、前記1つ又は複数のモデルが、現在のアクティビティシーケンスに適合するように利用されて、前記手順における前記次のアクティビティを予測する、トレーニングするステップをさらに有する、請求項17に記載の方法。
  20. 前記頭部装着可能拡張現実プラットフォーム中の前記ディスプレイ上の視覚的合図を使用して、前記手順におけるアクティビティのシーケンスを通してユーザを案内するステップをさらに有する、請求項17に記載の方法。
  21. 前記視覚的合図を生成するステップが、1つ又は複数のフィードバックデバイスによって非視覚的合図又は指示を生成するステップをさらに有する、請求項17に記載の方法。
  22. カメラを使用してユーザの視点からのアクティビティを記憶するステップと、
    前記カメラによって記憶された前記アクティビティを使用して、前記頭部装着可能拡張現実プラットフォームを用いて前記手順におけるアクティビティのシーケンスを通して前記ユーザを案内するステップと
    をさらに有する、請求項17に記載の方法。
JP2019537826A 2017-01-17 2018-01-15 手術室における予測ワークフローのための拡張現実 Active JP7004729B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762447081P 2017-01-17 2017-01-17
US62/447,081 2017-01-17
PCT/EP2018/050816 WO2018134143A1 (en) 2017-01-17 2018-01-15 Augmented reality for predictive workflow in an operating room

Publications (3)

Publication Number Publication Date
JP2020505686A true JP2020505686A (ja) 2020-02-20
JP2020505686A5 JP2020505686A5 (ja) 2021-02-25
JP7004729B2 JP7004729B2 (ja) 2022-01-21

Family

ID=61163662

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019537826A Active JP7004729B2 (ja) 2017-01-17 2018-01-15 手術室における予測ワークフローのための拡張現実

Country Status (5)

Country Link
US (1) US11527321B2 (ja)
EP (1) EP3571699A1 (ja)
JP (1) JP7004729B2 (ja)
CN (1) CN110301013A (ja)
WO (1) WO2018134143A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021145821A (ja) * 2020-03-18 2021-09-27 学校法人帝京大学 放射線量可視化装置

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11250947B2 (en) * 2017-02-24 2022-02-15 General Electric Company Providing auxiliary information regarding healthcare procedure and system performance using augmented reality
US10665032B2 (en) * 2018-10-12 2020-05-26 Accenture Global Solutions Limited Real-time motion feedback for extended reality
US11605161B2 (en) * 2019-01-10 2023-03-14 Verily Life Sciences Llc Surgical workflow and activity detection based on surgical videos
EP3923298A1 (en) * 2020-06-11 2021-12-15 Koninklijke Philips N.V. Image-based adapting of medical equipment
US20220039882A1 (en) * 2020-08-06 2022-02-10 Biosense Webster (Israel) Ltd. Use of machine learning to improve workflow during mapping and treatment of cardiac arrhythmias
US20240021318A1 (en) * 2020-08-28 2024-01-18 Luxsonic Technologies, Inc. System and method for medical imaging using virtual reality
US20220096197A1 (en) * 2020-09-30 2022-03-31 Verb Surgical Inc. Augmented reality headset for a surgical robot
CN117062570A (zh) * 2021-03-22 2023-11-14 皇家飞利浦有限公司 用于便携式超声方法和装置的基于深度学习的实时眼睛注视跟踪
WO2024120852A1 (en) * 2022-12-07 2024-06-13 Koninklijke Philips N.V. Automated modulation of radiation dosage based on ai detection of obfuscating noise and behavior
CN116661600A (zh) * 2023-06-02 2023-08-29 南开大学 基于多视角行为辨识的多人协同外科手术虚拟实训系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11197159A (ja) * 1998-01-13 1999-07-27 Hitachi Ltd 手術支援システム
JP2000084096A (ja) * 1998-09-14 2000-03-28 Sumitomo Heavy Ind Ltd 位置合わせ方法及び装置
JP2004065815A (ja) * 2002-08-09 2004-03-04 Toshiba Medical System Co Ltd 放射線量推定装置および放射線診断装置
JP2012040268A (ja) * 2010-08-23 2012-03-01 Ge Medical Systems Global Technology Co Llc X線ct装置
JP2013063223A (ja) * 2011-09-20 2013-04-11 Toshiba Corp X線ct装置、及び、放射線治療装置
JP2016148968A (ja) * 2015-02-12 2016-08-18 セイコーエプソン株式会社 頭部装着型表示装置、制御システム、頭部装着型表示装置の制御方法、および、コンピュータープログラム

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1827505A4 (en) * 2004-11-09 2017-07-12 Biosensors International Group, Ltd. Radioimaging
US8355928B2 (en) * 2007-12-05 2013-01-15 Siemens Medical Solutions Usa, Inc. Medical user interface and workflow management system
JP5927116B2 (ja) * 2009-07-01 2016-05-25 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 結腸造影のためのシステムおよびその作動方法
WO2012104780A1 (en) * 2011-02-04 2012-08-09 Koninklijke Philips Electronics N.V. Identification of medical concepts for imaging protocol selection
WO2012104786A2 (en) * 2011-02-04 2012-08-09 Koninklijke Philips Electronics N.V. Imaging protocol update and/or recommender
US8507869B2 (en) * 2011-10-27 2013-08-13 General Electric Company Methods and systems for adaptive tomographic imaging
CN102495959A (zh) * 2011-12-05 2012-06-13 无锡智感星际科技有限公司 一种基于位置映射的增强现实平台系统及应用方法
US20130297331A1 (en) * 2012-05-01 2013-11-07 Siemens Aktiengesellschaft Medical Imaging Guideline Compliance System
US9198626B2 (en) * 2012-06-22 2015-12-01 University Of Utah Research Foundation Dynamic power control of computed tomography radiation source
US20140037049A1 (en) * 2012-07-31 2014-02-06 General Electric Company Systems and methods for interventional imaging
US10824310B2 (en) 2012-12-20 2020-11-03 Sri International Augmented reality virtual personal assistant for external representation
WO2014100311A1 (en) * 2012-12-21 2014-06-26 Volcano Corporation Adaptive interface for a medical imaging system
KR101716421B1 (ko) * 2013-06-21 2017-03-14 삼성전자주식회사 정보 제공 방법 및 정보 제공을 위한 의료 진단 장치
US20150081315A1 (en) * 2013-09-13 2015-03-19 Radiology Resources International, Llc Method for selecting medical imaging protocols
US9740935B2 (en) * 2013-11-26 2017-08-22 Honeywell International Inc. Maintenance assistant system
WO2016025586A1 (en) * 2014-08-13 2016-02-18 Community Care Of North Carolina, Inc. Electronically predicting corrective options based on a sensed physiological characteristic
US20160306172A1 (en) * 2015-04-20 2016-10-20 NSF International Computer-implemented techniques for remotely interacting with performance of food quality, food safety, and workplace safety tasks
US10761599B2 (en) * 2015-08-04 2020-09-01 Artilux, Inc. Eye gesture tracking
EP3446142A1 (en) * 2016-04-21 2019-02-27 Koninklijke Philips N.V. Magnetic resonance imaging of arterial structures
US20170352282A1 (en) * 2016-06-03 2017-12-07 International Business Machines Corporation Image-based feedback for assembly instructions
DE102016215109A1 (de) * 2016-08-12 2018-02-15 Siemens Healthcare Gmbh Verfahren und Datenverarbeitungseinheit zum Optimieren eines Bildrekonstruktionsalgorithmus
US10304348B2 (en) * 2016-08-23 2019-05-28 International Business Machines Corporation System, method and computer program product for packing
US10444987B2 (en) * 2016-12-19 2019-10-15 Microsoft Technology Licensing, Llc Facilitating selection of holographic keyboard keys
US20180322627A1 (en) * 2017-05-05 2018-11-08 General Electric Company Methods and systems for acquisition of medical images for an ultrasound exam

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11197159A (ja) * 1998-01-13 1999-07-27 Hitachi Ltd 手術支援システム
JP2000084096A (ja) * 1998-09-14 2000-03-28 Sumitomo Heavy Ind Ltd 位置合わせ方法及び装置
JP2004065815A (ja) * 2002-08-09 2004-03-04 Toshiba Medical System Co Ltd 放射線量推定装置および放射線診断装置
JP2012040268A (ja) * 2010-08-23 2012-03-01 Ge Medical Systems Global Technology Co Llc X線ct装置
JP2013063223A (ja) * 2011-09-20 2013-04-11 Toshiba Corp X線ct装置、及び、放射線治療装置
JP2016148968A (ja) * 2015-02-12 2016-08-18 セイコーエプソン株式会社 頭部装着型表示装置、制御システム、頭部装着型表示装置の制御方法、および、コンピュータープログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021145821A (ja) * 2020-03-18 2021-09-27 学校法人帝京大学 放射線量可視化装置
JP7496592B2 (ja) 2020-03-18 2024-06-07 学校法人帝京大学 放射線量可視化装置

Also Published As

Publication number Publication date
US20200126661A1 (en) 2020-04-23
CN110301013A (zh) 2019-10-01
JP7004729B2 (ja) 2022-01-21
WO2018134143A1 (en) 2018-07-26
US11527321B2 (en) 2022-12-13
EP3571699A1 (en) 2019-11-27

Similar Documents

Publication Publication Date Title
JP7004729B2 (ja) 手術室における予測ワークフローのための拡張現実
JP7146772B2 (ja) コンテクストオーバレイを提供する拡張現実インターベンションシステム
US11011078B2 (en) System and method for three-dimensional augmented reality guidance for use of medical equipment
CN105009031B (zh) 增强现实设备以及在其上操作用户界面的方法
US20190117190A1 (en) Ultrasound imaging probe positioning
US20200268349A1 (en) System and method for analysis of medical equipment system results generated by augmented reality guidance of medical equipment systems
CN115768370A (zh) 用于视频和音频分析的系统和方法
EP4128171A1 (en) Method and system for facilitating remote presentation or interaction
WO2017182417A1 (en) Ultrasound imaging probe positioning
US20240087472A1 (en) Training system for hygiene equipment
Opromolla et al. A usability study of a gesture recognition system applied during the surgical procedures
Hui et al. A new precise contactless medical image multimodal interaction system for surgical practice
US12026837B2 (en) Adapting an augmented and/or virtual reality
US20210358220A1 (en) Adapting an augmented and/or virtual reality
Stuij Usability evaluation of the kinect in aiding surgeon computer interaction
WO2024056854A1 (en) System, method, and computer program for a surgical imaging system
Ruegger Touchless interaction with 3D images in the operating room

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220104

R150 Certificate of patent or registration of utility model

Ref document number: 7004729

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150