JP7417337B2 - 情報処理システム、情報処理方法及びプログラム - Google Patents

情報処理システム、情報処理方法及びプログラム Download PDF

Info

Publication number
JP7417337B2
JP7417337B2 JP2023139978A JP2023139978A JP7417337B2 JP 7417337 B2 JP7417337 B2 JP 7417337B2 JP 2023139978 A JP2023139978 A JP 2023139978A JP 2023139978 A JP2023139978 A JP 2023139978A JP 7417337 B2 JP7417337 B2 JP 7417337B2
Authority
JP
Japan
Prior art keywords
information
user
information processing
augmented reality
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023139978A
Other languages
English (en)
Other versions
JP2023164901A (ja
Inventor
友理 永代
季 斎藤
博史 小山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tokyo NUC
Original Assignee
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tokyo NUC filed Critical University of Tokyo NUC
Priority to JP2023139978A priority Critical patent/JP7417337B2/ja
Publication of JP2023164901A publication Critical patent/JP2023164901A/ja
Application granted granted Critical
Publication of JP7417337B2 publication Critical patent/JP7417337B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H80/00ICT specially adapted for facilitating communication between medical practitioners or patients, e.g. for collaborative diagnosis, therapy or health monitoring
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • A61B2090/502Headgear, e.g. helmet, spectacles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Epidemiology (AREA)
  • Physics & Mathematics (AREA)
  • Primary Health Care (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Robotics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Graphics (AREA)
  • Business, Economics & Management (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Image Analysis (AREA)

Description

本発明は、情報処理システム、情報処理方法及びプログラムに関する。
医療に関する様々な情報を他の者、特に他の医師と共有したい場面が存在する。例えば、特許文献1には、医療に関する情報の一例である患者の情報を共有する医療支援システムが開示されている。
特開2019-109763号公報
しかしながら、特許文献1に開示されているシステムのように、文字や画像等の客観的な情報を共有することは可能であっても、手術中の手や医療器具の動きといった医師の技能的な情報を伝達又は共有することは、難しい。これは例えば、熟練の医師が手技の習得向上を目指す研修医に、自身の手技を教示したい場面や、当該分野の専門医どうしが集まって、各人の有するスキルを全体で共有したい場面等が該当する。すなわち、このような場面に際して、これらの医療手技に係る情報を、他の者に正確に伝達又は共有することが難しい。
本発明では上記事情を鑑み、より正確な医療手技に係る情報の伝達又は共有を可能とする情報処理システム等を提供することとした。
本発明の一態様によれば、情報処理システムが提供される。この情報処理システムは、制御部を備える。制御部は、次の各ステップを実行するように構成される。読出ステップでは、ユーザに参照させたい医療手技である参照手技に関する参照情報を読み出す。参照情報は、参照手技における追跡箇所の3次元位置を含む。第1の受付ステップでは、ユーザが視認する外界を撮像した撮像画像を受け付ける。生成ステップでは、追跡箇所の3次元位置と、撮像画像とに基づいて、参照手技に関する拡張現実をユーザに提示するための表示情報を生成する。拡張現実では、参照手技において用いられる医療器具又はこの医療器具を操る手の態様が3次元で再現される。
このような態様によれば、他の者との医療手技に係る情報の伝達又は共有を、情報量を高めてより正確に実現することができる。
第1及び第2の実施形態に係る情報処理システム1を表す構成図である。 第1及び第2の実施形態に係る情報処理装置2のハードウェア構成を示すブロック図である。 第1及び第2の実施形態に係る拡張現実提示装置3のハードウェア構成を示すブロック図である。 第1及び第2の実施形態に係る拡張現実提示装置3における制御部33等によって実現される機能を示すブロック図である。 第1の実施形態に係る情報処理装置2によって実行される情報処理の流れを示すアクティビティ図である。 情報提供者が行う参照手技を撮像装置211で撮像する態様を示した概要図である。 第1の実施形態に係る拡張現実提示装置3によって実行される情報処理の流れを示すアクティビティ図である。 ユーザに視認される表示部34の画面5の態様一例を示した図である。 ユーザに視認される表示部34の画面5の態様一例を示した図である。 第2の実施形態に係る情報処理システム1によって実行される情報処理の流れを示すアクティビティ図である。
以下、図面を用いて本発明の実施形態について説明する。以下に示す実施形態中で示した各種特徴事項は、互いに組み合わせ可能である。
ところで、本実施形態に登場するソフトウェアを実現するためのプログラムは、コンピュータが読み取り可能な非一時的な記録媒体(Non-Transitory Computer-Readable Medium)として提供されてもよいし、外部のサーバからダウンロード可能に提供されてもよいし、外部のコンピュータで当該プログラムを起動させてクライアント端末でその機能を実現(いわゆるクラウドコンピューティング)するように提供されてもよい。
また、本実施形態において「部」とは、例えば、広義の回路によって実施されるハードウェア資源と、これらのハードウェア資源によって具体的に実現されうるソフトウェアの情報処理とを合わせたものも含みうる。また、本実施形態においては様々な情報を取り扱うが、これら情報は、例えば電圧・電流を表す信号値の物理的な値、0又は1で構成される2進数のビット集合体としての信号値の高低、又は量子的な重ね合わせ(いわゆる量子ビット)によって表され、広義の回路上で通信・演算が実行されうる。
また、広義の回路とは、回路(Circuit)、回路類(Circuitry)、プロセッサ(Processor)、及びメモリ(Memory)等を少なくとも適当に組み合わせることによって実現される回路である。すなわち、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等を含むものである。
[第1の実施形態]
1.ハードウェア構成
本節では、第1の実施形態のハードウェア構成について説明する。
1.1 情報処理システム1
図1は、本実施形態に係る情報処理システム1を表す構成図である。情報処理システム1は、情報処理装置2と、拡張現実提示装置3とを備え、これらがネットワーク11を通じて接続されている。これらの構成要素についてさらに説明する。ここで、情報処理システム1に例示されるシステムとは、1つ又はそれ以上の装置又は構成要素からなるものである。したがって、情報処理装置2や拡張現実提示装置3単体であってもシステムの一例となる。
1.2 情報処理装置2
図2は、本実施形態に係る情報処理装置2のハードウェア構成を示すブロック図である。情報処理装置2は、通信部21と、記憶部22と、制御部23とを有し、これらの構成要素が情報処理装置2の内部において通信バス20を介して電気的に接続されている。各構成要素についてさらに説明する。
通信部21は、USB、IEEE1394、Thunderbolt(登録商標)、有線LANネットワーク通信等といった有線型の通信手段が好ましいものの、無線LANネットワーク通信、3G/LTE/5G等のモバイル通信、Bluetooth(登録商標)通信等を必要に応じて含めてもよい。すなわち、これら複数の通信手段の集合として実施することがより好ましい。
本実施形態では、情報処理装置2は、通信部21を介して、ネットワーク11経由で拡張現実提示装置3と種々の情報を通信するように構成される。
また、本実施形態では、情報処理装置2は、通信部21を介して撮像装置211と接続されている。撮像装置211は、外界の情報を撮像可能に構成される、いわゆるビジョンセンサ(カメラ)である。撮像装置211は、ユーザにとっての情報提供者が行う医療手技を撮像するように構成される。撮像された撮像画像IM1を時系列化したデータとして、情報提供者の医療手技を含む動画ファイルが記録されるとよい。
撮像装置211のフレームレートは、特に限定されないが、例えば10fps以上であり、好ましくは、30fps以上であり、より好ましくは60fps以上である。フレームレートを高くすることで、後述の参照情報IF1の時間分解能を高くすることができる。
記憶部22は、前述の記載により定義される様々な情報を記憶する。これは、例えば、制御部23によって実行される情報処理装置2に係る種々のプログラム等を記憶するソリッドステートドライブ(Solid State Drive:SSD)等のストレージデバイスとして、あるいは、プログラムの演算に係る一時的に必要な情報(引数、配列等)を記憶するランダムアクセスメモリ(Random Access Memory:RAM)等のメモリとして実施されうる。また、これらの組合せであってもよい。
制御部23は、情報処理装置2に関連する全体動作の処理・制御を行う。制御部23は、例えば不図示の中央処理装置(Central Processing Unit:CPU)である。制御部23は、記憶部22に記憶された所定のプログラムを読み出すことによって、情報処理装置2に係る種々の機能を実現する。すなわち、記憶部22に記憶されているソフトウェアによる情報処理が、ハードウェアの一例である制御部23によって具体的に実現される構成となっている。
1.3 拡張現実提示装置3
図3は、本実施形態に係る拡張現実提示装置3のハードウェア構成を示すブロック図である。拡張現実提示装置3は、ユーザに拡張現実を提供する装置である。拡張現実提示装置3は、通信部31と、記憶部32と、制御部33と、表示部34と、入力部35と、撮像部36とを有し、これらの構成要素が拡張現実提示装置3の内部において通信バス30を介して電気的に接続されている。各構成要素についてさらに説明する。
通信部31は、USB、IEEE1394、Thunderbolt、有線LANネットワーク通信等といった有線型の通信手段が好ましいものの、無線LANネットワーク通信、3G/LTE/5G等のモバイル通信、Bluetooth(登録商標)通信等を必要に応じて含めてもよい。すなわち、これら複数の通信手段の集合として実施することがより好ましい。
本実施形態では、拡張現実提示装置3は、通信部31を介して、情報処理装置2とネットワーク11経由で種々の情報を通信するように構成される。
記憶部32は、前述の記載により定義される様々な情報を記憶する。これは、例えば、制御部33によって実行される拡張現実提示装置3に係る種々のプログラム等を記憶するソリッドステートドライブ(Solid State Drive:SSD)等のストレージデバイスとして、あるいは、プログラムの演算に係る一時的に必要な情報(引数、配列等)を記憶するランダムアクセスメモリ(Random Access Memory:RAM)等のメモリとして実施されうる。また、これらの組合せであってもよい。
特に、記憶部32は、情報処理装置2から受信した参照情報IF1を記憶している。記憶部32は、これ以外にも制御部33によって実行される拡張現実提示装置3に係る種々のプログラム等を記憶している。
制御部33は、拡張現実提示装置3に関連する全体動作の処理・制御を行う。制御部33は、例えば不図示の中央処理装置(Central Processing Unit:CPU)である。制御部33は、記憶部32に記憶された所定のプログラムを読み出すことによって、拡張現実提示装置3に係る種々の機能を実現する。すなわち、記憶部32に記憶されているソフトウェアによる情報処理が、ハードウェアの一例である制御部33によって具体的に実現されることで、制御部33が、後述の各機能部を備える。これらについては、次節においてさらに詳述する。なお、制御部33は単一であることに限定されず、機能ごとに複数の制御部33を有するように実施してもよい。またそれらの組合せであってもよい。
表示部34は、ユーザが視認可能且つ操作可能なグラフィカルユーザインターフェース(Graphical User Interface:GUI)の画面5を表示するように構成される(図8及び図9参照)。ここでは、表示部34は、拡張現実提示装置3の筐体に含まれるものとして説明する。好ましくは、表示部34は、ユーザが装着可能なウェアラブルデバイスに含まれる。換言すると、拡張現実提示装置3は、ユーザがその目の周囲を覆うように装着可能なヘッドマウントディスプレイ方式のデバイスとして構成されるとよい。このような構成の拡張現実提示装置3を採用することで、よりユーザの没入感を高めることができる。さらに好ましくは、表示部34は、外界からの光をユーザに向かう方向に透過させるように構成されるとよい。このような構成により、ユーザは、外界の情報を光学的に直接視認することができ、ユーザビリティが向上する。
入力部35は、ユーザによってなされた操作入力を受け付けるように構成される。入力部35は、例えば拡張現実提示装置3に設けられたスイッチボタンである。当該入力が命令信号として、通信バス30を介して制御部33に転送され、制御部33が必要に応じて所定の制御や演算を実行しうる。
撮像部36は、外界の情報を撮像可能に構成される、いわゆるビジョンセンサ(カメラ)である。ここでは、撮像部36は、拡張現実提示装置3の筐体に含まれるものとして説明する。撮像部36は、ユーザが行う医療手技を撮像画像IM2として撮像することで、所望の追跡箇所をトラッキングするように構成される。なお、撮像画像IM2は、トラッキングのためにメモリに一時記憶させるだけのデータとして実施してもよいし、動画ファイルとして記録されるように実施してもよい。
撮像部36のフレームレートは、特に限定されないが、例えば10fps以上であり、好ましくは、30fps以上であり、より好ましくは60fps以上である。フレームレートを高くすることで、トラッキングの時間分解能を高くすることができる。
2.機能構成
本節では、本実施形態の機能構成について説明する。前述の通り、記憶部32に記憶されているソフトウェアによる情報処理がハードウェアの一例である制御部33によって具体的に実現されることで、制御部33に含まれる各機能部として実行されうる。
図4は、本実施形態に係る拡張現実提示装置3における制御部33等によって実現される機能を示すブロック図である。具体的には、情報処理システム1の一例である拡張現実提示装置3は、受付部331と、読出部332と、特定部333と、生成部334と、AR制御部335とを備える。
受付部331は、種々の情報を受け付けるように構成される。例えば、受付部331は、情報処理装置2から送信された参照情報IF1を受け付けてもよい。
読出部332は、受付部331が受け付けた又は予め記憶部32に記憶された種々の情報を読み出すように構成される。例えば、読出部332は、ユーザにAR情報6を提示するために、予め記憶部32に記憶された参照情報IF1を参照してもよい。これについては後にさらに詳述する。
特定部333は、撮像画像IM1や撮像画像IM2に基づいて、種々の情報を特定するように構成される。例えば、特定部333は、撮像画像IM2に基づいて、ユーザが視認可能な術野53やユーザの医療手技であるユーザ手技を特定するように構成される。これについては後にさらに詳述する。
生成部334は、種々の表示情報IF2を生成するように構成される。表示情報IF2とは、画面、画像、アイコン、メッセージ等といった、ユーザが視認可能な態様で生成された情報そのものでもよいし、例えば拡張現実提示装置3の表示部34に画面、画像、アイコン、メッセージ等を表示させるためのレンダリング情報であってもよい。前述の表示部34は、生成部334によって生成された表示情報IF2に基づいて、画面5を表示する(図8及び図9参照)。
AR制御部335は、ユーザに提示する拡張現実の内容又は態様を制御するように構成される。これについては後にさらに詳述する。
3.情報処理方法
本節では、前述した情報処理システム1の情報処理方法について説明する。ここでは、情報処理装置2を使用する情報提供者は、ユーザの指導医であり、ユーザは、指導医から医療手技を指導される研修医であるものとして説明する。また、拡張現実提示装置3は、前述したヘッドマウントディスプレイ方式のデバイスであるものとし、ユーザがこれを装着しているものとして説明する。
3.1 情報処理装置2による情報処理
まず、情報処理装置2の情報処理について説明する。図5は、第1の実施形態に係る情報処理装置2によって実行される情報処理の流れを示すアクティビティ図である。図6は、情報提供者が行う参照手技を撮像装置211で撮像する態様を示した概要図である。
先に、図5の各アクティビティに沿って、情報処理の流れを概説する。はじめに、情報提供者が撮像装置211の前で医療手技である参照手技を実施する(アクティビティA001)。この間、撮像装置211が参照手技を含む撮像画像IM1を撮像する(アクティビティA002)。続いて、情報処理装置2における制御部23が記憶部22に記憶された所定のプログラムを読み出すことで、撮像画像IM1から追跡箇所の3次元位置を抽出した参照情報IF1を生成する(アクティビティA003)。最後に、情報処理装置2が、通信部21を介して、ネットワーク11経由で参照情報IF1を、ユーザが使用する拡張現実提示装置3に送信する(アクティビティA004)。
続いて、図5で概説された情報処理の詳細部分を説明する。アクティビティA002では、図6に示されるように、撮像装置211によって情報提供者の参照手技が撮像画像IM1として撮像される。参照手技において、情報提供者は、左手4Lで医療器具の一例である攝子41を使用し、右手4Rで医療器具の一例である持針器42を使用している。好ましくは、撮像装置211は、予め定められた追跡箇所の3次元位置が把握可能な撮像画像IM1を撮像する。かかる追跡箇所は、攝子41や持針器42等の医療器具に対して設定される。図6においては不図示であるが、攝子41や持針器42等に追跡用のマーカを付してもよい。
なお、本実施形態でいう医療器具とは、医療に関する器具全般を指すものとする。すなわち、医療器具は、例えば、薬機法の分類に則る機械器具と、針糸等の医療用品とを含むものである。
アクティビティA003において、制御部23は、予め記憶された所定のプログラムを読み出すことで、撮像画像IM1に対して画像処理を実行する。かかる画像処理によって、術野43に対する追跡箇所、例えば攝子41や持針器42の少なくとも一部の3次元位置が抽出される。特に、撮像装置211から見て奥行きの情報を取得するにあたっては、画角に対しての攝子41や持針器42の相対的な大きさから推測して取得してもよいし、フォーカスの度合いから取得してもよいし、ステレオ視によってより正確に取得してもよい。参照情報IF1は、上記の3次元位置を有する情報であれば、その形態は問わず、例えば、座標だけを有する情報でもよいし、3次元位置が把握可能な2値化された画像でもよい。
このような構成により、アクティビティA003において生成される参照情報IF1は、参照手技における追跡箇所の3次元位置を含んでいる。より具体的には、この3次元位置は、参照手技の術野43に対する相対的な位置であるとよい。かかる態様によれば、後続の拡張現実提示装置3の情報処理において、よりユーザが把握しやすい拡張現実を提示することができる。これについては、次にさらに説明する。
3.2 拡張現実提示装置3による情報処理
次に、拡張現実提示装置3の情報処理について説明する。図7は、第1の実施形態に係る拡張現実提示装置3によって実行される情報処理の流れを示すアクティビティ図である。図8及び図9は、ユーザに視認される表示部34の画面5の態様一例を示した図である。
先に、図7の各アクティビティに沿って、情報処理の流れを概説する。はじめに、制御部33の機能部である読出部332は、読出ステップとして、ユーザに参照させたい医療手技である参照手技に関する参照情報IF1を読み出す(アクティビティA101)。参照情報IF1は、情報処理装置2において生成され、予め拡張現実提示装置3の記憶部32に記憶されたものである。
続いて、拡張現実提示装置3を頭部に装着したユーザが、撮像部36の画角に入るように視線を自身の医療手技(以下、ユーザ手技と呼ぶ)に向けて、これを実施する。すなわち、撮像部36が、ユーザが視認する外界とユーザ手技とを含む撮像画像IM2を撮像する(アクティビティA102)。
続いて、受付部331は、第1の受付ステップとして、ユーザが視認する外界を撮像した撮像画像IM2を受け付ける(アクティビティA103)。具体的には、制御部33が、撮像画像IM2を記憶部32の一例であるメモリに一次記憶させている。
続いて、特定部333は、第1の特定ステップとして、撮像画像IM2から、ユーザが視認可能な術野53を特定し、第2の特定ステップとして、撮像画像IM2から、ユーザの医療手技であるユーザ手技を特定する。具体的には、制御部33が、記憶部32に記憶された所定のプログラムを読み出すことで、撮像画像IM2から、医療器具の一例である、攝子51及び持針器52と、術野53とを特定し、その位置情報を取得している(アクティビティA104)。
続いて、生成部334は、生成ステップとして、参照情報IF1に含まれる追跡箇所の3次元位置と、撮像画像IM2から特定されたユーザ手技とに基づいて、参照手技に関するAR情報6(拡張現実)をユーザに提示するための表示情報IF2を生成する(アクティビティA105)。この表示情報IF2は、例えばレンダリング情報である。
続いて、表示部34は、外界と、AR情報6による参照手技とを重畳させた状態をユーザが視認可能となるように、表示情報IF2に基づく画面5を表示する(アクティビティA106)。
上記のアクティビティA102~A106が各フレーム単位で繰り返し実行されることで、ユーザに拡張現実が提示されることとなる。
以上をまとめると、この情報処理方法は、次の各ステップを備える。読出ステップでは、ユーザに参照させたい医療手技である参照手技に関する参照情報IF1を読み出す。ここで参照情報IF1は、参照手技における追跡箇所の3次元位置を含む。第1の受付ステップでは、ユーザが視認する外界を撮像した撮像画像IM2を受け付ける。生成ステップでは、追跡箇所の3次元位置と、撮像画像IM2とに基づいて、参照手技に関するAR情報6(拡張現実)をユーザに提示するための表示情報IF2を生成する。この拡張現実では、参照手技において用いられる医療器具又はこの医療器具を操る手の態様が3次元で再現される。
続いて、図7で概説された情報処理の詳細部分を説明する。図8に示されるように、ユーザは、左手5Lで医療器具の一例である攝子51を使用し、右手5Rで医療器具の一例である持針器52を使用し、術野53が視認される模型54を用いて手術を行う練習をしている。
図8に示されるように、攝子51は、マーカ511を有し、持針器52は、マーカ521を有し、模型54は、マーカ541を有している。これらを認識させることにより、特定部333は、撮像画像IM2において、術野53に対する攝子51及び持針器52の位置情報を特定している。なお、術野53上に情報を重畳するだけでよければ、マーカ541の情報のみを採用してもよい。そして、生成部334は、医療器具が術野53上に重畳されたAR情報6(拡張現実)をユーザに提示するための表示情報IF2を生成する。
具体的には、このAR情報6(拡張現実)では、参照手技において用いられる医療器具の態様が3次元で再現されている。AR情報6で再現される医療器具とは、例えば、AR攝子61やAR持針器62であり、これは、参照手技における攝子41や持針器42に対応している。特に、ユーザの術野53上にAR情報6を重畳させることで、ユーザ本人目線の、より詳細且つ正確な情報を伝達することができる。
好ましくは、図8に示されるように、生成部334は、ユーザ手技の態様に応じて、AR情報6(拡張現実)をユーザに提示するための表示情報IF2を変化させて生成するとよい。例えば、AR制御部335によって、ユーザ手技の態様に応じて、AR情報6(拡張現実)における参照手技の進行が制御されてもよい。図8では、攝子51及び持針器52の位置と、AR攝子61及びAR持針器62の位置とが近く、姿勢も略同様であることに留意されたい。具体的には、AR制御部335が、特定部333が撮像画像IM2から取得したユーザ手技の態様から、これに対応する参照手技の再生場面を推定する制御を実行している。このような態様によれば、ユーザが、自身にとって好ましいペースで、情報提供者の参照手技を確認することができ、ユーザビリティの向上が期待される。
また好ましくは、図9に示されるように、AR情報6に基づく拡張現実では、現在のユーザ手技の態様に比べて、時系列的に未来の手順を示す参照手技が再現されてもよい。図9では、攝子51及び持針器52の位置と、AR攝子61及びAR持針器62の位置とが離れ、それぞれの姿勢も異なっていることに留意されたい。これは、攝子51及び持針器52の位置から想定される場面よりも、時系列的に未来の場面のAR攝子61及びAR持針器62が提示されているためである。このような態様によれば、ユーザが、自身の現在の手技の態様と比較しながら、情報提供者の参照手技を確認することができ、さらなるユーザビリティの向上が期待される。
さらに好ましくは、AR情報6に基づく拡張現実では、例えばAR攝子61やAR持針器62等、医療器具の態様の時系列変化について、変化する各態様を重ねて、ユーザに提示してもよい。この変化する各態様は、例えば、離散的に選択されたフレームに基づくものである。換言すると、図9では、AR攝子61及びAR持針器62に対して残像のようなエフェクトを付していることが確認される。このようなエフェクトを採用することで、ユーザに、参照手技の時系列の動きをより分かりやすく把握させることができ、さらなるユーザビリティの向上が期待される。
第1の実施形態に係る情報処理システム1によれば、他の者との医療手技に係る情報の伝達又は共有を、情報量を高めてより正確に実現することができる。
[第2の実施形態]
第2の実施形態に係る情報処理システム1について説明する。第2の実施形態に係る情報処理システム1は、図1~図4に示される第1の実施形態に係る情報処理システム1と同様のハードウェア構成及び機能構成を有する。したがって、これらの説明を省略する。
図10は、第2の実施形態に係る情報処理システム1によって実行される情報処理の流れを示すアクティビティ図である。
以下、図10の各アクティビティに沿って、情報処理の流れを説明する。まず、情報処理装置2側の処理として、撮像装置211によって撮像される撮像画像IM1の各フレーム単位で参照情報IF1が生成される(アクティビティA201)。ここでの参照情報IF1は、例えば、情報提供者の、術野43に対する攝子41及び持針器42の位置情報を各フレーム単位で含むものであればよく、拡張現実提示装置3側でストリーミング再生可能な撮像画像IM1そのものでもよい。続いて、拡張現実提示装置3における通信部31が、ネットワーク11経由でこれを継続的に受信する(アクティビティA202)
次に、拡張現実提示装置3側の処理として、拡張現実提示装置3を頭部に装着したユーザが、撮像部36の画角に入るように視線を自身の医療手技(ユーザ手技)に向けて、これを実施する。すなわち、撮像部36が、ユーザが視認する外界とユーザ手技とを含む撮像画像IM2を撮像する(アクティビティA203)。続いて、受付部331が撮像画像IM2を受け付けると、特定部333が、撮像画像IM2から、医療器具の一例である、攝子51及び持針器52と、術野53とを特定し、その位置情報を取得する(アクティビティA204)。
続いて、生成部334は、生成ステップとして、参照情報IF1に含まれる追跡箇所の3次元位置と、撮像画像IM2から特定されたユーザ手技とに基づいて、参照手技に関するAR情報6(拡張現実)をユーザに提示するための表示情報IF2を生成する(アクティビティA205)。この表示情報IF2は、例えばレンダリング情報である。
続いて、表示部34は、外界と、AR情報6による参照手技とを重畳させた状態をユーザが視認可能となるように、表示情報IF2に基づく画面5を表示する(アクティビティA206)。
アクティビティA201及びA202と、アクティビティA203~A206が、それぞれフレーム単位で繰り返し実行されることで、ユーザに拡張現実が提示されることとなる。
以上をまとめると、第2の実施形態では、受付部331が、第2の受付ステップとして、ネットワーク11を介して外部、例えば情報処理装置2から参照情報IF1を受け付ける。読出部332は、情報処理装置2から受け付けた参照情報IF1を読み出す。より好ましくは、受付部331は、第2の受付ステップとして、ユーザと異なる者である情報提供者が実施中の参照手技に関する参照情報IF1を継続的に受け付ける。読出部332は、受け付けた参照情報IF1を継続的に読み出す。生成部334は、情報提供者が実施中の参照手技に関するAR情報6(拡張現実)を、ユーザに提示する。
第2の実施形態に係る情報処理システム1によれば、第1の実施形態に係る情報処理システム1同様に、他の者との医療手技に係る情報の伝達又は共有を、情報量を高めてより正確に実現することができる。特に、第2の実施形態に係る情報処理システム1によれば、情報提供者が実施中の参照手技を、AR情報6として略リアルタイムにユーザに提示することができる。これにより、例えば、情報提供者がユーザと直接コミュニケーションをとりながら、ユーザに参照手技を共有することが可能となる。
[その他]
前述の実施形態に係る情報処理システム1に関して、以下のような態様を採用してもよい。
(1)情報提供者は情報処理装置2を使うものとして説明したが、情報処理装置2が拡張現実提示装置3と同様の構成を有してもよい。すなわち、情報提供者が拡張現実提示装置3を用いて自身の医療手技を含む撮像画像IM1を撮像し、これに基づく参照情報IF1が、ユーザが使用する拡張現実提示装置3に共有されてもよい。
(2)第1の実施形態に係る情報処理装置2と、拡張現実提示装置3とをネットワーク11を介して接続せず、それぞれオフラインで動作させてもよい。このような場合、情報処理装置2で生成された参照情報IF1を、ネットワーク11を経由する以外の通信手法や記憶媒体等を介して、拡張現実提示装置3に共有することとなる。
(3)前述の実施形態では、情報処理装置2において、撮像画像IM1から画像処理がなされて参照情報IF1が抽出されるものとして説明したが、参照情報IF1が撮像画像IM1そのものであってもよい。さらに例えば、拡張現実提示装置3の特定部333が参照情報IF1である撮像画像IM1に基づいて、参照手技における追跡箇所の3次元位置を特定するように構成されてもよい。このように、参照情報IF1の態様は、多種多様であり、特に限定されるものではない。
(4)拡張現実提示装置3の表示部34が外界からの光をユーザに向かう方向に透過させるように構成されていなくてもよい。すなわち、撮像部36によって撮像された外界の情報である撮像画像IM2を画面5の一部として表示部34に表示させ、これにAR情報6が重畳されるように実施することができる。
(5)図8及び図9に示されている、攝子51、持針器52及び模型54に付したマーカ511、マーカ521及びマーカ541を採用しなくてもよい。例えば、形状や色情報等から、マーカレスで、攝子51、持針器52及び術野53を認識させ、この位置情報を取得するように実施してもよい。また、認識の手法に限らず、位置情報に加えて、医療器具の姿勢情報や色彩等の光学的情報を合わせて取得するように実施してもよい。これらの情報を合わせて加味することで、より精度の高い情報共有を実現することができる。
(6)医療器具の種類は、特に限定されず、外科手術に限定されるものでもない。例えば、針糸、注射器、カテーテル等が含まれてもよいし、つまむ機械器具、縫う機械器具、切る機械器具、剥離する機械器具等が含まれてもよい。より具体的には、無鈎攝子、有鈎攝子、マッチュー持針器、超硬付へガール持針器、マイクロ持針器直型フック付、マイクロ持針器反型フック付、直剪刀両鈍、反剪刀両鈍、メイヨー直剪刀、メイヨー反剪刀、超硬付メッツエンバーム剪刀直型、ペアン止血鉗子直無鈎、ペアン止血鉗子反無鈎、アリス鉗子、腸鉗子直型、ケリー鉗子等が挙げられる。
(7)ユーザと、情報提供者との関係は、研修医と、指導医とに限定されず、例えば、専門分野の異なる医師どうしでもよい。特に、第2の実施形態に係る情報処理システム1を用いることで、情報提供者が実際の外科手術を行っている場面を、ユーザに略リアルタイムに共有することも可能である。
(8)AR情報6に基づく拡張現実では、参照手技の進行速度が可変に構成されてもよい。好ましくは、ユーザが入力部35を操作して、所望の進行速度に設定することができるとよい。このような態様によれば、ユーザが、自身にとって好ましいペースで、情報提供者の参照手技を確認することができ、ユーザビリティの向上が期待される。
(9)AR情報6に基づく拡張現実では、例えばAR攝子61やAR持針器62等、医療器具の透過度が可変に構成されてもよい。好ましくは、ユーザが入力部35を操作して、所望の透過度に設定することができるとよい。このような態様によれば、ユーザが、自身にとって好ましいように視認具合を調整しつつ、情報提供者の参照手技を確認することができ、ユーザビリティの向上が期待される。
(10)参照情報IF1を生成するにあたって、情報提供者が使用する医療器具に代えて、これらの医療器具を操る左手4Lや右手4Rを追跡箇所としてもよい。そして、AR情報6に基づく拡張現実では、AR攝子61やAR持針器62等の医療器具に代えて、これらの医療器具を操る手が再現されてもよい。すなわち、情報提供者の左手4L及び右手4Rに対応したそれぞれの手を模したAR情報6が、生成されればよい。かかる場合も、AR制御部335が必要に応じてAR情報6の内容を制御することができるとよい。
(11)撮像装置211に代えて、又はこれとともに種々のセンサを用いてもよい。例えば、ビジョンセンサだけではなく、赤外線センサ、レーザレンジファインダ、LIDAR等が適宜使用されてもよい。また、複数の撮像装置211を用いてもよい。このような態様によって、外界の3次元の情報をより精度高く取得することができる。
(12)図7のアクティビティ図におけるアクティビティの一部を省略してもよい。実施にあたって、例えば、アクティビティA102やアクティビティA104等を省略することができる。
(13)第2の実施形態に関連し、情報処理装置2から拡張現実提示装置3への略リアルタイムの情報共有に加えて、拡張現実提示装置3から情報処理装置2への略リアルタイムの情報共有を行ってもよい。例えば、ユーザが行ったユーザ手技を、略リアルタイムで、情報提供者にさらに共有できることが好ましい。このような双方向の略リアルタイムな情報共有を実現することで、より情報量の高い伝達を実現することができる。
(14)上記の実施形態では、生成部334が、ユーザ手技の態様に応じて、AR情報6(拡張現実)をユーザに提示するための表示情報IF2を変化させて生成することについて説明したが、かかる表示情報IF2は、手技そのものを表すAR情報6に係るものに限定されない。例えば、ユーザ手技の良し悪しを採点した採点結果や、警告、アドバイス等を含みうる。また、生成部334は、視覚以外の五感でユーザに感知される情報をさらに生成してもよい。換言すると、生成部334が表示情報IF2以外の種々の情報、例えば音声情報、触覚情報、嗅覚情報等を生成してもよい。好ましくは、情報提供者が情報処理装置2を用いて参照手技を記録する際に、これらの種々の情報を合わせて記録するように実施するとよい。このような態様によれば、よりユーザに分かりやすく情報を伝達することができる。
(15)本実施形態を、頒布可能なプログラムとして実施してもよい。このプログラムは、コンピュータに、情報処理システム1における各ステップを実行させるものである。
(16)さらに、次に記載の各態様で提供されてもよい。
前記情報処理システムにおいて、前記追跡箇所は、前記医療器具又はこの医療器具を操る手に対して設定され、前記3次元位置は、前記参照手技の術野に対する相対的な位置である、もの。
前記情報処理システムにおいて、前記制御部は、第1の特定ステップをさらに実行するように構成され、前記第1の特定ステップでは、前記撮像画像から、前記ユーザが視認可能な術野を特定し、前記生成ステップでは、前記医療器具又はこの医療器具を操る手が前記術野上に重畳された拡張現実を前記ユーザに提示するための表示情報を生成する、もの。
前記情報処理システムにおいて、前記制御部は、第2の特定ステップをさらに実行するように構成され、前記第2の特定ステップでは、前記撮像画像から、前記ユーザの医療手技であるユーザ手技を特定し、前記生成ステップでは、前記ユーザ手技の態様に応じて、前記拡張現実を前記ユーザに提示するための表示情報を変化させて生成する、もの。
前記情報処理システムにおいて、前記拡張現実では、前記ユーザ手技の態様に応じて、前記参照手技の進行が制御される、もの。
前記情報処理システムにおいて、前記拡張現実では、現在の前記ユーザ手技の態様に比べて、時系列的に未来の手順を示す前記参照手技が再現される、もの。
前記情報処理システムにおいて、前記拡張現実では、前記参照手技の進行速度が可変に構成される、もの。
前記情報処理システムにおいて、前記拡張現実では、前記医療器具又はこの医療器具を操る手の透過度が可変に構成される、もの。
前記情報処理システムにおいて、前記拡張現実では、前記医療器具又はこの医療器具を操る手の態様の時系列変化について、変化する各態様を重ねて、前記ユーザに提示する、もの。
前記情報処理システムにおいて、前記変化する各態様は、離散的に選択されたフレームに基づく、もの。
前記情報処理システムにおいて、前記読出ステップでは、予め記憶された前記参照情報を読み出す、もの。
前記情報処理システムにおいて、前記制御部は、第2の受付ステップをさらに実行するように構成され、前記第2の受付ステップでは、ネットワークを介して外部から前記参照情報を受け付け、前記読出ステップでは、外部から受け付けた前記参照情報を読み出す、もの。
前記情報処理システムにおいて、前記第2の受付ステップでは、前記ユーザと異なる者が実施中の前記参照手技に関する参照情報を継続的に受け付け、前記読出ステップでは、受け付けた前記参照情報を継続的に読み出し、前記生成ステップでは、実施中の前記参照手技に関する拡張現実を、前記ユーザに提示する、もの。
前記情報処理システムにおいて、表示部をさらに備え、前記表示部は、前記外界からの光を前記ユーザに向かう方向に透過させるように構成され、前記外界と前記参照手技とを重畳させた状態を前記ユーザが視認可能となるように、前記表示情報に基づく画面を表示するように構成され、もの。
前記情報処理システムにおいて、前記表示部は、ユーザが装着可能なウェアラブルデバイスに含まれる、もの。
情報処理方法であって、前記情報処理システムの各ステップを備える、方法。
プログラムであって、コンピュータに、前記情報処理システムにおける各ステップを実行させる、もの。
もちろん、この限りではない。
最後に、本発明に係る種々の実施形態を説明したが、これらは、例として提示したものであり、発明の範囲を限定することは意図していない。当該新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。当該実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
1 :情報処理システム
11 :ネットワーク
2 :情報処理装置
20 :通信バス
21 :通信部
211 :撮像装置
22 :記憶部
23 :制御部
24 :表示部
3 :拡張現実提示装置
30 :通信バス
31 :通信部
32 :記憶部
33 :制御部
331 :受付部
332 :読出部
333 :特定部
334 :生成部
335 :AR制御部
34 :表示部
35 :入力部
36 :撮像部
4L :左手
4R :右手
41 :攝子
42 :持針器
43 :術野
5 :画面
5L :左手
5R :右手
51 :攝子
511 :マーカ
52 :持針器
521 :マーカ
53 :術野
54 :模型
541 :マーカ
6 :AR情報
61 :AR攝子
62 :AR持針器
IF1 :参照情報
IF2 :表示情報
IM1 :撮像画像
IM2 :撮像画像

Claims (4)

  1. 情報処理システムであって、
    次の各ステップがなされるようにプログラムを実行可能なプロセッサを備え、
    取得ステップでは、ユーザとは異なる者が行う第1の医療手技中の追跡箇所に関する情報と、前記ユーザが視認する外界を撮像した撮像画像とを取得し、
    特定ステップでは、前記撮像画像に基づいて、前記ユーザが行う第2の医療手技を特定し、
    提示ステップでは、前記追跡箇所に関する情報と前記第2の医療手技とに応じた拡張現実(但し、前記第1の医療手技をお手本動画として表示する拡張現実と、前記お手本動画の表示内容を変化させた動画を表示する拡張現実とを除く。)を、前記ユーザに提示する、システム。
  2. 情報処理システムであって、
    次の各ステップがなされるようにプログラムを実行可能なプロセッサを備え、
    取得ステップでは、ユーザとは異なる者が行う第1の医療手技中の追跡箇所に関する情報と、前記ユーザが視認する外界を撮像した撮像画像とを取得し、
    提示ステップでは、前記追跡箇所に関する情報と前記撮像画像とに基づいて生成された拡張現実(但し、前記第1の医療手技をお手本動画として表示する拡張現実と、前記お手本動画の表示内容を変化させた動画を表示する拡張現実とを除く。)を、前記ユーザに提示し、ここで前記拡張現実では、前記第1の医療手技の進行速度が可変に構成される、システム。
  3. 情報処理方法であって、
    請求項1又は2に記載の情報処理システムの各ステップを備える、方法。
  4. プログラムであって、
    コンピュータに、請求項1又は2に記載の情報処理システムにおける各ステップを実行させる、プログラム。
JP2023139978A 2021-03-23 2023-08-30 情報処理システム、情報処理方法及びプログラム Active JP7417337B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023139978A JP7417337B2 (ja) 2021-03-23 2023-08-30 情報処理システム、情報処理方法及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021048820A JP7345866B2 (ja) 2021-03-23 2021-03-23 情報処理システム、情報処理方法及びプログラム
JP2023139978A JP7417337B2 (ja) 2021-03-23 2023-08-30 情報処理システム、情報処理方法及びプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021048820A Division JP7345866B2 (ja) 2021-03-23 2021-03-23 情報処理システム、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2023164901A JP2023164901A (ja) 2023-11-14
JP7417337B2 true JP7417337B2 (ja) 2024-01-18

Family

ID=83397287

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021048820A Active JP7345866B2 (ja) 2021-03-23 2021-03-23 情報処理システム、情報処理方法及びプログラム
JP2023139978A Active JP7417337B2 (ja) 2021-03-23 2023-08-30 情報処理システム、情報処理方法及びプログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2021048820A Active JP7345866B2 (ja) 2021-03-23 2021-03-23 情報処理システム、情報処理方法及びプログラム

Country Status (5)

Country Link
US (1) US20240074818A1 (ja)
EP (1) EP4318408A4 (ja)
JP (2) JP7345866B2 (ja)
CN (1) CN116940995A (ja)
WO (1) WO2022202860A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015097825A1 (ja) 2013-12-26 2015-07-02 独立行政法人科学技術振興機構 動き学習支援装置及び動き学習支援方法
JP2016512658A (ja) 2012-12-26 2016-04-28 ビパール, エルエルシー 多重現実環境における役割切り替えのためのシステムおよび方法
JP2019512658A (ja) 2016-03-23 2019-05-16 キュンドン ナビエン シーオー.,エルティーディー. 空気調和機とその制御方法
JP2020144233A (ja) 2019-03-06 2020-09-10 株式会社日立製作所 学習支援システム、学習支援装置及びプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109310476B (zh) * 2016-03-12 2020-04-03 P·K·朗 用于手术的装置与方法
KR20230133940A (ko) 2016-07-25 2023-09-19 매직 립, 인코포레이티드 증강 현실 및 가상 현실 안경류를 사용한 이미징 수정, 디스플레이 및 시각화
JP6560331B2 (ja) 2017-12-19 2019-08-14 オリンパス株式会社 医療支援システム、ファイルサーバー、患者画像データ取得方法、患者画像データ取得プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016512658A (ja) 2012-12-26 2016-04-28 ビパール, エルエルシー 多重現実環境における役割切り替えのためのシステムおよび方法
WO2015097825A1 (ja) 2013-12-26 2015-07-02 独立行政法人科学技術振興機構 動き学習支援装置及び動き学習支援方法
JP2019512658A (ja) 2016-03-23 2019-05-16 キュンドン ナビエン シーオー.,エルティーディー. 空気調和機とその制御方法
JP2020144233A (ja) 2019-03-06 2020-09-10 株式会社日立製作所 学習支援システム、学習支援装置及びプログラム

Also Published As

Publication number Publication date
US20240074818A1 (en) 2024-03-07
CN116940995A (zh) 2023-10-24
JP2023164901A (ja) 2023-11-14
EP4318408A4 (en) 2024-09-04
JP2022147538A (ja) 2022-10-06
EP4318408A1 (en) 2024-02-07
JP7345866B2 (ja) 2023-09-19
WO2022202860A1 (ja) 2022-09-29

Similar Documents

Publication Publication Date Title
US11547520B2 (en) Systems, methods, and computer-readable storage media for controlling aspects of a robotic surgical device and viewer adaptive stereoscopic display
US20220336078A1 (en) System and method for tracking a portion of the user as a proxy for non-monitored instrument
RU2740259C2 (ru) Позиционирование датчика ультразвуковой визуализации
JP2022507478A (ja) 拡張現実を利用した手術補助装置
CN114641251A (zh) 外科手术虚拟现实用户接口
US11094283B2 (en) Head-wearable presentation apparatus, method for operating the same, and medical-optical observation system
US20230186574A1 (en) Systems and methods for region-based presentation of augmented content
CN113768619B (zh) 路径定位方法、信息显示装置、存储介质及集成电路芯片
US20180014903A1 (en) Head-mountable computing device, method and computer program product
Zinchenko et al. Virtual reality control of a robotic camera holder for minimally invasive surgery
US20200250498A1 (en) Information processing apparatus, information processing method, and program
JP7417337B2 (ja) 情報処理システム、情報処理方法及びプログラム
KR20110049703A (ko) 수술 로봇 시스템 및 그 복강경 조작 방법
US10854005B2 (en) Visualization of ultrasound images in physical space
KR101114234B1 (ko) 수술 로봇 시스템 및 그 복강경 조작 방법
WO2022219491A1 (en) System and method for tracking a portion of the user as a proxy for non-monitored instrument
WO2022219501A1 (en) System comprising a camera array deployable out of a channel of a tissue penetrating surgical device
JP2023504266A (ja) 外科用イメージングの拡張現実ディスプレイ
US20220142722A1 (en) Method and system for controlling dental machines
JP2022147538A5 (ja)
JP2024513991A (ja) トリガイベントに基づいて術野のディスプレイオーバーレイを変更するためのシステム及び方法
JP2024514640A (ja) 画面上及び画面外で発生する混合された要素及びアクションを表示するレンダリングされた要素で直接視覚化される混合
GB2611556A (en) Augmented reality ultrasound-control system for enabling remote direction of a user of ultrasound equipment by experienced practitioner
JP2021133170A (ja) 医用画像処理装置、医用画像処理方法および医用画像処理プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231004

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231004

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20231004

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231225

R150 Certificate of patent or registration of utility model

Ref document number: 7417337

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150