JP7245360B2 - 学習モデルの生成方法、プログラム、手技支援システム、情報処理装置、情報処理方法及び内視鏡用プロセッサ - Google Patents

学習モデルの生成方法、プログラム、手技支援システム、情報処理装置、情報処理方法及び内視鏡用プロセッサ Download PDF

Info

Publication number
JP7245360B2
JP7245360B2 JP2021562557A JP2021562557A JP7245360B2 JP 7245360 B2 JP7245360 B2 JP 7245360B2 JP 2021562557 A JP2021562557 A JP 2021562557A JP 2021562557 A JP2021562557 A JP 2021562557A JP 7245360 B2 JP7245360 B2 JP 7245360B2
Authority
JP
Japan
Prior art keywords
endoscope
procedure information
procedure
learning model
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021562557A
Other languages
English (en)
Other versions
JPWO2021111879A1 (ja
Inventor
智広 神戸
浩平 池谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hoya Corp
Original Assignee
Hoya Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hoya Corp filed Critical Hoya Corp
Publication of JPWO2021111879A1 publication Critical patent/JPWO2021111879A1/ja
Application granted granted Critical
Publication of JP7245360B2 publication Critical patent/JP7245360B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Theoretical Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Data Mining & Analysis (AREA)
  • Radiology & Medical Imaging (AREA)
  • Software Systems (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Pathology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Optics & Photonics (AREA)
  • Databases & Information Systems (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Quality & Reliability (AREA)
  • Multimedia (AREA)
  • Urology & Nephrology (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Astronomy & Astrophysics (AREA)
  • Endoscopes (AREA)
  • Image Analysis (AREA)

Description

本技術は、学習モデルの生成方法、プログラム、手技支援システム、情報処理装置、情報処理方法及び内視鏡用プロセッサに関する。
医療施設では、担当者の経験やスキルの違いから、手技内容に相違が出ないようにするため、担当者の能力に応じたサポートが行われている。担当者の能力に応じたサポートを実施するためには、担当者の手技内容、手技能力等を適切に把握し、これらの情報に基づいて、サポート内容を提示することが重要である。手技能力の決定方法として、特許文献1では、運動感知カメラから受け取ったユーザの運動のセンサデータを解析して手技が行われている間にユーザの能力データを取得し、取得した能力データを能力モデルと比較することによって能力計量を決定する方法が開示されている。
特表2015-519596号公報
しかしながら、特許文献1に開示の方法においては、内視鏡の手技における十分なデータを取得できないという問題があり、内視鏡の手技を支援するための適切な支援情報が提示されないことが懸念される。
本開示の目的は、内視鏡の手技における手技情報に基づいて、手技を支援する適切な情報を出力する学習モデルの生成方法、プログラム、手技支援システム、情報処理装置、情報処理方法及び内視鏡用プロセッサを提供することにある。
本開示の一態様における学習モデルの生成方法は、内視鏡を操作する内視鏡操作者による前記内視鏡の操作の各段階における前記内視鏡により撮影された内視鏡画像及び前記内視鏡操作者の手技に関する手技情報を取得し、取得した内視鏡画像及び手技情報と次段階における手技情報とを含む教師データに基づき、内視鏡画像及び手技情報を入力した場合に次段階の手技情報を出力するよう学習された学習モデルを生成する。
本開示によれば、内視鏡の手技における手技情報に基づいて、手技を支援する適切な情報を出力することができる。
実施形態1における学習モデル生成システムの概要図である。 学習モデル生成システムの構成例を示すブロック図である。 履歴DBに記憶される情報の内容例を示す図である。 学習モデルの構成を説明する説明図である。 学習モデルの異なる構成を説明する説明図である。 情報処理装置で実行される処理手順の一例を示すフローチャートである。 実施形態2における学習モデル生成システムの概要図である。 実施形態2の学習モデルの構成を説明する説明図である。 実施形態3における学習モデル生成システムの概要図である。 実施形態3の学習モデルの構成を説明する説明図である。 実施形態4の学習モデル生成システムの構成例を示すブロック図である。 実施形態5の手技支援システムの構成例を示すブロック図である。 内視鏡用プロセッサで実行される処理手順の一例を示すフローチャートである。 表示装置で表示される画面例を示す図である。 実施形態6の内視鏡用プロセッサで実行される処理手順の一例を示すフローチャートである。 実施形態7の内視鏡用プロセッサで実行される処理手順の一例を示すフローチャートである。 実施形態8の内視鏡用プロセッサで実行される処理手順の一例を示すフローチャートである。 実施形態9の手技支援システムの構成例を示すブロック図である。 評価モデルの構成を説明する説明図である。 内視鏡用プロセッサで実行される処理手順の一例を示すフローチャートである。 実施形態11における画面例を示す図である。 実施形態11の内視鏡用プロセッサで実行される処理手順の一例を示すフローチャートである。 実施形態13の内視鏡用プロセッサで実行される処理手順の一例を示すフローチャートである。
本発明をその実施の形態を示す図面を参照して具体的に説明する。
(実施形態1)
図1は、実施形態1における学習モデル生成システム110の概要図である。学習モデル生成システム110は、内視鏡1、内視鏡用プロセッサ2、検出装置4及び情報処理装置5を含む。内視鏡用プロセッサ2には、表示装置3が接続されている。内視鏡1、内視鏡用プロセッサ2及び表示装置3は、コネクタを介して接続されており、電気信号、映像信号等の送受信を行う。内視鏡用プロセッサ2及び検出装置4は夫々情報処理装置5と、例えばLAN(Local Area Network)等のネットワークNを介して通信可能に接続されている。
内視鏡1は、例えば上部消化管用の内視鏡または大腸内視鏡である。内視鏡1は、挿入管11と、該挿入管11に操作部12及びユニバーサルコード13を介して連結されたコネクタ部14とを備え、コネクタ部14により内視鏡用プロセッサ2に接続して使用される。
挿入管11は長尺であり、被検者の消化管等の管腔臓器に挿入される部分である。挿入管11の先端には、観察窓を介して被写体からの反射光を受光して光電変換する撮像素子が配置される。撮像素子は、CCD(Charge Coupled Device)イメージセンサ、CMD(Charge Modulation Device)イメージセンサ又はCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等が備えられている。光電変換により生成された電気信号は、図示しない信号処理回路によりA/D変換、ノイズ除去などの信号処理が施され、内視鏡用プロセッサ2に出力される。挿入管11の先端には、後述のチャンネル入口と連結したチャンネル出口、洗浄水や空気を噴出、吸引するノズル等が設けられている。挿入管11には、3軸加速度センサ、ジャイロセンサ、地磁気センサ又は磁気コイルセンサ等の物理検出装置が実装され、内視鏡1が被検者の体内に挿入された際、これら物理検出装置からの検出結果を取得するものであってもよい。
操作部12は、内視鏡操作者により把持されて各種の手技を行うために設けてあり、レリーズボタン、内視鏡の先端を曲げるためのアングルノブ等を備えている。操作部12は、例えば送気、送水、送ガス等の周辺機器の操作指示信号の入力を受け付ける。さらに操作部12は、チャンネル入口を備えている。チャンネル入口には、処置具等を挿入する挿入口を有する鉗子栓が固定されている。挿入口から挿入される処置具は、例えば、鉗子、把持具、注射針、生検針、スネア、クランプ、ハサミ、メス、切開器具、内視鏡ステープラ、組織ループ、クリップアプライヤ、縫合糸送達器具等である。
ユニバーサルコード13は長尺であり、第一端が操作部12に、第二端がコネクタ部14にそれぞれ接続されている。ユニバーサルコード13には、挿入管11及び操作部12から延設されるファイバーバンドル、ケーブル束、送気チューブおよび送水チューブ等が挿通されている。ファイバーバンドル等の一端は、コネクタ部14の通信用コネクタ(図示せず)に配設され、内視鏡用プロセッサ2に接続される。
内視鏡用プロセッサ2は、内視鏡1の撮像素子から取り込まれた画像に対してガンマ補正、ホワイトバランス補正、シェーディング補正等の各種画像処理を行なってユーザが目視しやすい状態にした内視鏡画像を生成して、表示装置3に出力する情報処理装置である。
表示装置3は、液晶ディスプレイ又は有機EL(electroluminescence)ディスプレイ等である。表示装置3は、内視鏡用プロセッサ2から出力された画像等を表示する。
検出装置4は、内視鏡1の内視鏡操作者の動作の3Dデータを検出する検出装置であり、例えば3Dレーザセンサである。検出装置4は、有線又は無線により情報処理装置5と接続されている。検出装置4は、検出した検出値を情報処理装置5へ送信する。3Dレーザセンサは、例えば、TOF(Time Of Flight)方式により、対象物までの距離及び方向を所定の解像度で検出し、対象物上の各点の3次元位置座標を示す3Dデータを出力する。3Dレーザセンサは、水平方向及び垂直方向の検出範囲を示す画角、及び検出範囲の中心と3Dレーザセンサとを結ぶ中心線の向きが変更可能に構成されている。検出装置4は、例えば検出対象物の位置に基づいて画角及び向きを調整することにより、検出対象物の位置が変化した場合であっても高い解析度を維持することができる。検出装置4は、例えば内視鏡操作者の内視鏡1を操作する両手及び両腕の移動範囲を画角とするよう設定される。検出装置4は、内視鏡操作者の全身を含む範囲を画角とするよう設定されてもよい。
検出装置4から情報処理装置5へ送信される検出値は、各時刻において検出装置4で検出される対象物上の点群に含まれる各点の3D座標値をセンサ座標系で表した3Dデータ群である。情報処理装置5は、取得した3Dデータ群から、内視鏡操作者の各部位についての座標値を算出する。3Dデータ群から人体の各部位の座標値を算出する方法は、例えば、特開2018-169720号公開公報に記載されている方法を用いてよい。
内視鏡操作者の各部位とは、検出対象物の姿勢を特定するための特徴点となる関節などの人体の部位である。例えば、各部位は、右手、右手首、右肘、右肩、左手、左手首、左肘、左肩等である。各部位には、頭、肩の中心、背骨、右膝、右足首、右足、左膝、左足首、左足等が含まれてもよい。各部位の座標値としては、例えば各部位の軸方向を示すベクトル及び回転を表すクォータニオンを用いることができる。検出装置4を用いて、内視鏡操作者の各部位における3次元位置座標を検出することで、内視鏡操作者の手指の動作、手首の捻り等の内視鏡操作に関する詳細な動作を高精度に検出する。
なお、検出装置4は、3Dレーザセンサに限定されるものではない。検出装置4は、内視鏡操作者の動作を検出するものであればよく、例えばイメージセンサ等であってよい。検出装置4は、複数の撮像素子からなるステレオカメラであってもよい。
情報処理装置5は、例えばサーバコンピュータである。情報処理装置5は、内視鏡用プロセッサ2及び検出装置4から内視鏡の手技に関する情報を取得し、取得した情報に基づき内視鏡操作者の手技を支援する手技情報を出力する学習モデルを生成する。実施形態1において、情報処理装置5は1台のサーバコンピュータとして説明するが、複数のサーバコンピュータで機能又は処理を分散させてもよいし、1台の大型コンピュータに仮想的に生成される複数のサーバコンピュータ(インスタンス)の内の1つであってもよい。
図2は、学習モデル生成システム110の構成例を示すブロック図である。内視鏡用プロセッサ2は、制御部21、記憶部22、入出力I/F(Interface )23、光源24及び通信部25を含む。各構成はバスで接続されている。本実施形態では、内視鏡用プロセッサ2は一台の情報処理装置であるものとして説明するが、複数台により分散して処理させてもよく、または仮想マシンにより構成されていてもよい。
制御部21は、CPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)等の演算処理装置を含む。制御部21は、内蔵するROM(Read Only Memory)及びRAM(Random Access Memory)等のメモリを用いて処理を実行する。制御部21は、記憶部22に記憶されたプログラムを読み出して実行することにより、内視鏡用プロセッサ2に係る種々の情報処理、制御処理等を行う。図2では制御部21を単一のプロセッサであるものとして説明するが、マルチプロセッサであってもよい。
記憶部22は、例えばハードディスク又はSSD(Solid State Drive )等の不揮発性メモリを含む。記憶部22は、制御部21が参照するプログラム及びデータを記憶する。
入出力I/F23は、内視鏡用プロセッサ2に接続された外部機器とシリアル通信するための通信インターフェースである。入出力I/F23には、例えばディスプレイ等の表示装置3、キーボード等の入力装置が接続されている。制御部21は、入力装置に対する外部からの操作に応じて発生した入力信号に基づき行った情報処理の結果を表示装置3に出力する。
光源24は、観察対象の照明に用いる照明光を発する光源を備える。光源24は、例えば、波長域が異なる複数色のLED(Light Emitting Diode)等の半導体光源、レーザーダイオードと蛍光体の組み合わせ、又はキセノンランプ等である。光源24の点灯、消灯および明るさの変更は、制御部21により制御される。なお、本実施形態では、内視鏡用プロセッサ2が光源一体型であるが、これに限るものではない。例えば、内視鏡用プロセッサ2は、光源装置と分離する光源分離型であってもよい。
通信部25は、ネットワークNを介した通信を実現する通信インターフェースである。制御部21は、通信部25によりネットワークNを介して情報処理装置5と通信接続が可能である。なお通信部25が備える通信インターフェースは、例えば、Bluetooth(登録商標)、WiFi(登録商標)等の近距離無線通信用のアンテナを含む無線通信モジュールを用いて通信を行ってもよい。また、通信部25は、USB等の有線の通信インターフェースを備えていてもよい。
情報処理装置5は、制御部51、記憶部52、通信部53及び入出力I/F54を含む。制御部51は、一又は複数のCPU、MPU、GPU等の演算処理装置を含む。制御部51は、内蔵するROM及びRAM等のメモリを用いて処理を実行する。制御部51は、記憶部52に記憶されたプログラム5Pを読み出して実行することにより、情報処理装置5に係る種々の情報処理、制御処理等を行う。
記憶部52は、例えばハードディスク又はSSD等の不揮発性メモリを含む。記憶部52は、プログラム5Pを記憶するほか、制御部51が参照する他のプログラム及びデータを記憶する。記憶部52に記憶されたプログラム5Pは、情報処理装置5が読み取り可能な記録媒体5Aから読み出されたプログラム5Pを記憶したものであってもよい。また、図示しない通信網に接続されている図示しない外部コンピュータからプログラム5Pをダウンロードし、記憶部52に記憶させたものであってもよい。記憶部52は、履歴DB(Data Base :データベース)521及び学習モデル522を記憶する。学習モデル522は、内視鏡操作者の内視鏡の手技を支援する手技情報を識別する識別器であり、機械学習により生成された学習モデルである。なお記憶部52は、複数の記憶装置により構成されていてもよく、情報処理装置5に接続された外部記憶装置であってもよい。
通信部53は、ネットワークNを介した通信を実現する通信インターフェースである。制御部51は、通信部53によりネットワークNを介して内視鏡用プロセッサ2及び検出装置4と通信接続が可能である。
入出力I/F54は、例えば、USB又はD-SUB等の通信規格に準拠したものであり、入出力I/F54に接続された外部機器とシリアル通信するための通信インターフェースである。入出力I/F64には、例えばディスプレイ等の出力装置、キーボード等の入力装置が接続されている。
図3は、履歴DB521に記憶される情報の内容例を示す図である。情報処理装置5は、内視鏡1の操作に熟練した内視鏡操作者の手技に関する手技情報を収集し、履歴DB521に記憶する。履歴DB521は、履歴情報を識別する履歴IDに対応付けて、日時、内視鏡画像、検出値及び操作データを含む手技情報等を記憶している。
日時には、内視鏡手技が行なわれた日時が記録されている。図3では、一例として10ミリ秒単位でデータが記録される。内視鏡画像には、内視鏡1により撮影された内視鏡画像が記録されている。内視鏡画像は、静止画像又は複数のフレームの静止画像から構成される動画像である。検出値は、内視鏡操作者の両手及び両腕等の動作を示す状態データである。検出値には、例えば、検出装置4により検出された各日時の時点における、3Dデータ群、又は3Dデータ群から算出される内視鏡操作者の各部位についての座標値と各部位とが対応付けて記録されている。操作データは、内視鏡1の先端の操作データに関する情報であり、内視鏡1の体内への挿入量、内視鏡1の先端の湾曲方向、光源24の光量に関する情報等が含まれてよい。内視鏡1の体内への挿入量は、内視鏡1の挿入管11に設けられた3軸加速度センサ等の物理検出装置から検出された検出値が記録される。内視鏡1の湾曲方向は、内視鏡用プロセッサ2から得られる操作部12の湾曲ボタンの操作データが記録される。光源24の光量は、内視鏡用プロセッサ2から得られる光源24に対する輝度の制御データが記録される。なお図3は一例であって、履歴DB521の記憶内容は限定されるものではない。
図4は、学習モデル522の構成を説明する説明図である。学習モデル522は、ニューラルネットワークを用いた深層学習によって、生成され、学習される。学習モデル522は、例えばCNN(Convolution Neural Network)である。図4に示す例では、学習モデル522は、内視鏡画像データ及び手技情報を入力する入力層と、実施中の手技に対する次段階における手技情報を出力する出力層と、内視鏡画像データ及び手技情報の特徴量を抽出する中間層とを備える。中間層は、内視鏡画像データ及び手技情報の特徴量を抽出する複数のノードを有し、各種パラメータを用いて抽出された画像特徴量を出力層に受け渡す。中間層は、畳み込み層、プーリング層及び全結合層等を含んでよい。学習モデル522は、設定されている手技情報を出力する複数の出力層を有する。
学習モデル522の入力層へ入力される入力データは、所定段階における、内視鏡1により撮影された内視鏡画像及び手技情報である。内視鏡画像は、静止画像又は複数のフレームの静止画像から構成される動画像である。手技情報は検出値及び操作データを含んでよい。検出値は、検出装置4により検出された3Dデータ群、又は3Dデータ群から算出される内視鏡操作者の各部位についての座標値を含む、内視鏡操作者の両手及び両腕等の状態データである。操作データは、内視鏡1の挿入量、湾曲方向及び光量等の操作データを含む。なおこの場合において、内視鏡画像データは図示しない畳み込み層、コンボリューション層を介して入力層に入力されてよい。
学習モデル522の出力層から出力される出力データは、所定段階において実施中の手技に対する次段階の手技情報である。例えば、入力データが時刻tnにおける内視鏡画像及び手技情報である場合、出力データは、時刻tn+1における手技情報である。学習モデル522は、手技情報として、例えば検出値、挿入量、湾曲方向及び光量を夫々出力する複数の出力層を有する。検出値を出力する出力層は、設定されている検出値に各々対応するチャネルを含み、各検出値に対する確度をスコアとして出力する。情報処理装置5は、スコアが最も高い検出値、あるいはスコアが閾値以上である検出値を、検出値を出力する出力層の出力データとすることができる。なお出力層は、それぞれの検出値の確度を出力する複数の出力チャネルを有する代わりに、最も確度の高い検出値を出力する1個の出力ノードを有してもよい。同様に、挿入量、湾曲方向及び光量の各出力層からは、挿入量、湾曲方向及び光量の出力データが夫々出力される。このように、学習モデル522は、所定段階における内視鏡画像及び手技情報が入力された場合に、次段階の手技情報を出力する。
上記では、学習モデル522は複数の出力層を有する構成を説明したが、学習モデル522は一つの出力層を有する構成であってもよい。情報処理装置5は、検出値、挿入量、湾曲方向及び光量を夫々出力する出力層を有する学習モデル522を複数備えていてもよい。この場合において、各学習モデル522には、出力する手技情報に応じた入力データが入力されてよい。例えば、手技情報として検出値を出力する学習モデル522に入力される入力データは、内視鏡画像及び検出値のみであってもよく、内視鏡画像、検出値及び操作データが全て入力されてもよい。
上記では、手技情報として内視鏡操作者の両手及び両腕の状態データである検出値と、挿入量、湾曲方向及び光量である操作データとが含まれる例を説明したが、学習モデル522に入力され、出力される手技情報は限定されるものではない。内視鏡1の操作による手技とは、例えば内視鏡1による被検者の消化管等の検査・観察、処置具による手技等が含まれる。手技情報には、これら手技内容データが含まれてよい。
例えば病変の切除を含む手技において、手技内容データを入力要素とする学習モデル522は、入力される手技情報に処置具である注射針の挿入を示す手技内容データが含まれる場合、次段階の手技情報として生理食塩水の注入等の手技内容データを出力とする構成であってもよい。また、手技情報には、内視鏡1に対する送気・送水の操作データ、内視鏡用プロセッサ2の用いる内視鏡画像に画像処理を施す際のパラメータ等が含まれてもよい。また手技情報には、内視鏡画像に応じた病変の有無及び内容等の病変データが含まれてよい。例えば、学習モデル522から出力される手技情報には、入力データである内視鏡画像から判定された病変データが含まれてよい。また、学習モデル522は、入力される手技情報に病変データを含み、該病変データに対応付けられた手技内容、光量情報等の手技情報を出力してもよい。
学習モデル522は、U-Net等のアルゴリズムを用いて、次段階の手技情報の画像を生成するものであってもよい。図5は、学習モデル522の異なる構成を説明する説明図である。学習モデル522は、エンコーダ部及びデコーダ部を備える。エンコーダ部は、入力データをエンコーディングして特徴量を抽出し、デコーダ部は、抽出された特徴量をデコーディングして画像生成を行う。学習モデル522の入力層へ入力される入力データは、所定段階における、内視鏡1により撮影された内視鏡画像及び内視鏡操作者の両手及び両腕の状態データである検出値である。学習モデル522の出力層から出力される出力データは、所定段階の次段階の両手及び両腕の状態データに基づき生成された、次段階の両手及び両腕の状態を示す画像である。画像は、3次元位置座標に基づく3D画像であってもよい。
学習モデル522は、上記の例に限られず、時系列データを取得した場合には、例えばリカレントニューラルネットワーク(RNN:Recurrent Neural Network)を用いてもよい。学習モデル522は、Seq2SeqのRNNを用いて、複数の次段階の手技情報を予測してもよい。また学習モデル522は、CNN以外のニューラルネットワーク、他のアルゴリズムによって学習されたモデルであってもよい。
上記のように構成される学習モデル生成システム110にて、学習モデルを生成する機械学習処理が実行される。図6は、情報処理装置5で実行される処理手順の一例を示すフローチャートである。
情報処理装置5の制御部51は、内視鏡操作者の内視鏡1の各操作段階における内視鏡画像及び手技情報を取得する(ステップS11)。手技情報には、各操作段階における内視鏡操作者の両手及び両腕の状態データ、内視鏡1の挿入量、湾曲方向及び光量の操作データが含まれる。具体的には、制御部51は、内視鏡用プロセッサ2から、内視鏡画像、内視鏡1の挿入量、湾曲方向及び光量等の操作データを取得する。更に制御部51は、検出装置4から検出値を取得する。
制御部51は、取得した各操作段階(例えば時刻tnの段階)における内視鏡画像及び手技情報に、履歴DB521に記録された各操作段階の次段階(例えば時刻tn+1の段階)における手技情報をラベル付けした教師データを生成する(ステップS12)。履歴DB521には、過去に実施された熟練内視鏡操作者による内視鏡検査の各操作段階における情報が大量に記録されている。制御部51は、これら大量のデータを用いて、取得した各操作段階における内視鏡画像及び手技情報夫々に対し次段階における手技情報を対応付けた教師データを生成する。
制御部51は、生成した教師データを用いて、内視鏡画像及び手技情報を入力した場合に次段階における手技情報を出力する学習モデル522を生成する(ステップS13)。具体的には、制御部51は、所定段階における内視鏡画像及び手技情報をニューラルネットワークの入力層に入力する。制御部21は、次段階における手技情報の予測値を出力層から取得する。制御部51は、手技情報の予測値を、正解値である手技情報と比較し、出力層から出力される予測値が正解値に近づくよう、中間層での演算処理に用いるモデルパラメータを最適化する。最適化されたモデルパラメータを、定義されたニューラルネットワークに適用することによって、学習モデル522は、内視鏡画像データ及び手技情報が入力された場合に次段階における手技情報を出力することが可能である。制御部51は、生成した学習モデル522を記憶部52に格納し、一連の処理を終了する。
上記では、一連の処理を情報処理装置5の制御部51が実行する例を説明したが、本実施形態はこれに限定されない。上記の処理は、一部又は全部が内視鏡用プロセッサ2の制御部21で実行されるものであってもよい。すなわち、内視鏡用プロセッサ2が、実質的に情報処理装置5を含むものであってもよい。また学習モデル522は、情報処理装置5により生成され、内視鏡用プロセッサ2で学習されたものであってもよい。情報処理装置5の制御部51と内視鏡用プロセッサ2の制御部21とは、例えばプロセス間通信を行うことにより協働して一連の処理を行うものであってもよい。
本実施形態によれば、内視鏡1の操作手技に熟練した内視鏡操作者の操作データを含む教師データを用いて、内視鏡の手技において、実施段階の内視鏡画像及び手技情報に応じた次段階の手技情報を出力する学習モデル522が生成される。学習モデル522により、各操作段階に応じた精度のよい手技情報の出力が可能となる。
(実施形態2)
実施形態2では、学習モデル生成システム120は、内視鏡1の手技を行う内視鏡室内を撮影する撮影装置6を更に含み、撮影装置6で撮影された室内画像を用いた学習モデル522が生成される。図7は、実施形態2における学習モデル生成システム120の概要図である。以下では、実施形態2について、実施形態1と異なる点を説明する。後述する構成を除く他の構成については実施形態1と同様であるので、共通する構成については同一の符号を付してその詳細な説明を省略する。
撮影装置6は、内視鏡1の操作を行う内視鏡操作者及び内視鏡1による被検者を含む内視鏡室内に設置される、カメラ等の撮影機能を有する撮影装置である。撮影装置6は、有線又は無線によりネットワークNを介して情報処理装置5と通信接続されている。撮影装置6は、撮影した室内画像を情報処理装置5へ送信する。撮影装置6により撮影される室内画像には、内視鏡室内の内視鏡操作者、被検者、内視鏡操作者を補助する看護師等の補助者、内視鏡室内の処置具の載置台等、内視鏡室内の各種の状態を示す画像が含まれる。
図8は、実施形態2の学習モデル522の構成を説明する説明図である。学習モデル522は、内視鏡画像、手技情報及び室内画像が入力された場合に、次段階の手技情報を出力するよう学習される。学習モデル522の入力層へ入力される入力データは、所定段階における、内視鏡1により撮影された内視鏡画像、手技情報及び室内画像である。手技情報は、例えば検出装置4の検出値、内視鏡1の挿入量、湾曲方向及び光量等の操作データの少なくともいずれか一つを含んでよい。室内画像データには、内視鏡操作者及び被検者の相対位置情報、被検者の体の向き、処置具の準備状態等の情報が含まれている。なおこの場合において、内視鏡画像及び室内画像の画像データは図示しない畳み込み層、コンボリューション層を介して入力層に入力されてよい。
学習モデル522の出力層から出力される出力データは、所定段階において実施中の手技に対する次段階の手技情報である。手技情報は、内視鏡操作者の両手及び両腕等の状態データを含む。手技情報は、次段階の処置具の情報(例えばスネア準備、電気メス準備等)、次段階の内視鏡操作者及び被検者の位置関係の情報(例えば右足1歩前、両足1歩左等)等を含んでよい。
情報処理装置5は、各操作段階における内視鏡画像、手技情報及び室内画像に、各操作段階の次段階における手技情報をラベル付けした教師データを生成し、生成した教師データを用いて、内視鏡画像、手技情報及び室内画像を入力した場合に次段階における手技情報を出力する学習モデル522を生成する。
本実施形態によれば、学習モデル522は、撮影装置6により取得された室内画像を用いて、より実施内容に応じた手技情報を出力することができる。室内の状況に応じた手技情報が出力されるため、内視鏡操作者のみならず他の補助者等も含めたサポートが可能となる。
(実施形態3)
実施形態3では、学習モデル生成システム130は、内視鏡操作者の視線データを検出する視線検出装置7を更に含み、視線検出装置7で検出された視線データを用いた学習モデル522が生成される。図9は、実施形態3における学習モデル生成システム130の概要図である。以下では、実施形態3について、実施形態1と異なる点を説明する。後述する構成を除く他の構成については実施形態1と同様であるので、共通する構成については同一の符号を付してその詳細な説明を省略する。
視線検出装置7は、例えばイメージセンサ等の視線検出センサを有する検出装置である。視線検出装置7は、眼鏡型等のウェアラブルデバイスの態様であってもよい。視線検出装置7は、内視鏡操作者の視線の動きを検出する。視線検出装置7は、有線又は無線によりネットワークNを介して情報処理装置5と通信接続されている。視線検出装置7は、検出した視線データを情報処理装置5へ送信する。
図10は、実施形態3の学習モデル522の構成を説明する説明図である。学習モデル522の入力層へ入力される入力データは、所定段階における、内視鏡1により撮影された内視鏡画像、手技情報及び視線検出装置7から取得した視線データである。手技情報は、例えば検出装置4の検出値、内視鏡1の挿入量、湾曲方向及び光量等の操作データの少なくともいずれか一つを含んでよい。
学習モデル522は、例えば手技情報及び視線データを夫々出力する複数の出力層を備える。各出力層から出力される出力データは、夫々所定段階において実施中の手技に対する次段階の手技情報及び視線データである。
情報処理装置5は、各操作段階における内視鏡画像、手技情報及び視線データに、各操作段階の次段階における手技情報及び視線データをラベル付けした教師データを生成し、生成した教師データを用いて、内視鏡画像、手技情報及び視線データを入力した場合に次段階における手技情報及び視線データを出力する学習モデル522を生成する。
本実施形態によれば、学習モデル522は、視線データ等の微妙な動きをデータ化して取得することにより、認識し易い情報として出力することができる。
(実施形態4)
実施形態4では、学習モデル生成システム140の情報処理装置5は、手技レベルに応じた複数種類の学習モデル522を生成する。図11は、実施形態4の学習モデル生成システム140の構成例を示すブロック図である。以下では、実施形態4について、実施形態1と異なる点を説明する。後述する構成を除く他の構成については実施形態1と同様であるので、共通する構成については同一の符号を付してその詳細な説明を省略する。実施形態4の情報処理装置5では、記憶部52に複数の学習モデル522が記憶されている。
内視鏡1の内視鏡操作者には、内視鏡1の操作に未熟な内視鏡操作者から熟練した内視鏡操作者まで、各種の手技レベルの内視鏡操作者が想定される。このような場合においては、内視鏡操作者の手技レベルに応じて異なる手技情報が提供されることが好ましい。学習モデル生成システム140では、手技レベルに応じた学習モデル522を複数生成することで、内視鏡操作者の手技レベルに応じた手技情報の出力を行う。
学習モデル522は、例えば手技レベル初級者、中級者、上級者、エキスパート等の、異なる手技レベル毎にそれぞれ生成されており、各学習モデル522からは、夫々手技レベルに応じた情報のみを出力データとするよう構成される。例えば、初心者用の学習モデル522からは、状態データ、挿入量、湾曲方向及び光量を全て含む操作データ等が出力され、エキスパート用の学習モデル522からは、光量を含む操作データのみが手技情報として出力される。この場合において、各学習モデル522は、出力データに応じた情報のみを入力要素としてよい。すなわち、手技情報として光量を出力とするエキスパート用の学習モデル522においては、入力要素に含まれる手技情報は光量のみでよく、他の操作データ及び状態データは入力要素に含まれないものであってよい。なお、学習モデル生成システム140は、学習モデル522の入力要素として内視鏡操作者の手技レベルを含んで学習することにより、1つの学習モデル522により手技レベルに応じた出力データを出力するものであってもよい。
なお、複数種類の学習モデル522は、手技レベル以外の要素に基づき用意されていてもよい。例えば、情報処理装置5は、内視鏡操作者の生体属性情報に応じた複数種類の学習モデル522を生成してもよい。
内視鏡1の内視鏡操作者は、夫々身長、体重、性別、手のサイズ、握力、利き手、視力、色覚特性等の様々な生体属性情報を有する。例えば、内視鏡操作者の身長、手のサイズ等により、内視鏡の湾曲操作は異なる。また、視力、色覚特性等により適切な光量、画質設定は異なる。このような場合においては、内視鏡操作者の生体属性情報に応じて異なる手技情報が提供されることが好ましい。学習モデル522は、例えば生体属性情報の身長、体重、性別等に基づき区分される体格に応じて、異なる内視鏡操作者の体格区分毎に複数種類が生成される。例えば「大」「中」「小」に区分される各体格区分に対応する学習モデル522からは、夫々「大」「中」「小」の体格に応じた手技情報が出力されるよう構成される。なお、学習モデル生成システム140は、学習モデル522の入力要素として内視鏡操作者の生体属性情報を含んで学習することにより、1つの学習モデル522により生体属性情報に応じた出力データを出力するものであってもよい。
本実施形態によれば、学習モデル522は、内視鏡操作者の手技レベル、生体属性情報等に応じて、個々の操作者に適切な手技情報を出力することができる。
(実施形態5)
実施形態5では、学習モデル生成システムで生成された学習モデル522を用いて、内視鏡用プロセッサ2が、内視鏡1の操作を行う内視鏡操作者へ手技情報を提供する手技支援システムを実現する。図12は、実施形態5の手技支援システム210の構成例を示すブロック図である。以下では、実施形態5について、実施形態1と異なる点を説明する。後述する構成を除く他の構成については実施形態1の学習モデル生成システム110と同様であるので、共通する構成については同一の符号を付してその詳細な説明を省略する。
実施形態5の手技支援システム210は、内視鏡1、内視鏡用プロセッサ2及び検出装置4を含む。内視鏡用プロセッサ2には、表示装置3が接続されている。内視鏡用プロセッサ2は、検出装置4と有線又は無線によりネットワークNを介して通信可能に接続されている。
実施形態5の内視鏡用プロセッサ2は、記憶部22に、プログラム2P及び学習モデル522を記憶するほか、制御部21が参照する他のプログラム及びデータを記憶する。記憶部22に記憶されたプログラム2Pは、内視鏡用プロセッサ2が読み取り可能な記録媒体2Aから読み出されたプログラム2Pを記憶したものであってもよい。また、図示しない通信網に接続されている図示しない外部コンピュータからプログラム2Pをダウンロードし、記憶部22に記憶させたものであってもよい。
制御部21は、記憶部22に記憶されたプログラム2Pを読み出して実行することにより、内視鏡画像及び内視鏡操作者の手技情報等を取得し、取得した内視鏡画像及び内視鏡操作者の手技情報に応じた次段階の手技情報を出力する本開示特有の内視鏡用プロセッサ2として機能させる。
図13は、内視鏡用プロセッサ2で実行される処理手順の一例を示すフローチャートである。例えば内視鏡操作者による内視鏡1の操作手技が開始され内視鏡1の撮影が開始されると、内視鏡用プロセッサ2の制御部21で以下の処理が実行される。
制御部21は、内視鏡1から撮像画像を取得し、取得した撮像画像に所定の画像処理を施した内視鏡画像を取得する(ステップS21)。ついで制御部21は、手技情報を取得する(ステップS22)。手技情報には、内視鏡操作者の両手及び両腕等の状態データと、内視鏡1の挿入量、湾曲方向及び光量等の操作データとの少なくともいずれか一方が含まれる。具体的には、制御部21は、検出装置4にて検出された検出値を取得する。制御部21は、検出装置4から取得した3Dデータ群から内視鏡操作者の各部位についての座標値を算出する。さらに制御部21は、内視鏡1の挿入量、湾曲方向及び光量等の操作データを取得する。制御部21は、取得した内視鏡画像及び手技情報を一時的に記憶部22に記憶する。
制御部21は、記憶した内視鏡画像及び手技情報を学習モデル522に入力する(ステップS23)。学習モデル522は、実施形態1において説明した学習モデル522であり、内視鏡画像及び手技情報を入力した場合に、次段階の手技情報を出力する。具体的には、学習モデル522は、内視鏡画像及び内視鏡操作者の両手及び両腕等の状態データを入力した場合に、次段階の両手及び両腕等の状態データ、又は該状態データに基づき生成された画像を出力する。学習モデル522は、内視鏡画像及び内視鏡1の挿入量、湾曲方向及び光量等の操作データを入力した場合に、次段階の操作データを出力するものであってもよい。
学習モデル522に入力される内視鏡画像は、内視鏡1に設けられた撮像素子により撮影されて、内視鏡用プロセッサ2に伝送された撮影画像そのものであってもよく、又は撮影画像に対して内視鏡用プロセッサ2内部で所定の画像処理を行なった内視鏡画像であってもよい。学習モデル522に入力される手技情報には、内視鏡操作者の両手及び両腕等の状態データと、内視鏡1の挿入量、湾曲方向及び光量等の操作データとの少なくとも一方が含まれている。
制御部21は、学習モデル522から出力される次段階の手技情報を取得する(ステップS24)。学習モデル522から出力される手技情報には、次段階における内視鏡操作者の両手及び両腕等の状態データと、内視鏡1の挿入量、湾曲方向及び光量等の操作データとの少なくとも一方が含まれている。学習モデル522から出力される手技情報は、内視鏡操作者の両手及び両腕等の状態データに基づく画像であってもよい。
制御部21は、取得した手技情報と内視鏡画像とを対応付けて表示する画面情報を生成する。制御部21は、生成した手技情報を含む画面情報を表示装置3を介して表示し(ステップS25)、一連の処理を終了する。なお制御部21は、ステップS25の処理を実行後、再度ステップS21の処理を実行すべくループ処理を行うものであってもよい。
本実施形態において、内視鏡用プロセッサ2が実行する処理の一部を、内視鏡用プロセッサ2と通信接続された実施形態1の情報処理装置5又は他の外部サーバが行うものであってもよい。
図14は、表示装置3で表示される画面例を示す図である。画面には、内視鏡画像及び次段階の手技情報が表示される。内視鏡用プロセッサ2の制御部21は、学習モデル522の出力情報に基づき、手技情報の表示内容を記憶した不図示のテーブルを参照し、次段階の手技情報を表示する画像情報を生成する。制御部21は、所定段階の内視鏡画像と、生成した次段階の手技情報を表示する画像情報とを対応付けて表示装置3に表示する。表示装置3には、次段階の手技情報として、例えば内視鏡1の挿入量、湾曲方向等の操作に関する情報と、その他の送気・送水等の手技全体に関する情報とが並列に表示される。挿入量の変化量は、「+1(1cm挿入する)」「-1(1cm抜去する)」「0(現状維持)」等で表示されてよい。学習モデル522から画像による手技情報が出力される場合には、該画像を含んだ画面が表示されてよい。学習モデル522から次々段階等を含む複数段階の手技情報を取得した場合には、複数段階の情報が並列して表示されてよい。
制御部21は、室内画像、視線データ等を取得した場合には、これらの画像データ等を含む画面を表示してよい。更に、制御部21は、内視鏡用プロセッサ2と通信接続された外部測定装置から被検者の血圧、心拍等の生体情報を取得し、手技情報と共に画面に表示してよい。各種の情報を集約して表示装置3へ表示させることにより、内視鏡操作者が複数のモニタに視線を移動させることなく情報を得ることができ、情報の見逃しを防止する。
制御部21は、画面情報の出力に加えて、警告音、合成音声、画面の点滅等により、手技情報を手技者に通知してもよい。例えば、次段階の湾曲方向の操作量が予め設定される閾値以上の場合等、注意を要する手技情報が出力情報に含まれる場合には、図示しないスピーカを介して警告音、合成音声等により手技者に通知することが好ましい。また、手技情報に、内視鏡用プロセッサ2に対する設定情報が含まれる場合においては、例えば表示装置3への出力に代えて、又は表示装置3への出力に加えて、内視鏡用プロセッサ2に変更指示が出力されてもよい。例えば光源24の輝度変更、画質パラメータ変更等の内視鏡用プロセッサ2の設定に関する変更は、内視鏡用プロセッサ2にて自動で行われることにより内視鏡操作者の負担を軽減することができる。
本実施形態によれば、学習モデル522を用いて、内視鏡操作者の実施する手技内容に応じた手技情報が提供される。熟練内視鏡操作者の手技データに基づき推定された次段階の手技情報が提供されるため、誤った手技が実施されることを防止し、手技に未熟な内視鏡操作者であっても熟練内視鏡操作者と同様の手技内容を実施することが可能となる。内視鏡用プロセッサ2は、学習モデル522を用いて、内視鏡画像及び検出装置4の検出値等により高速且つ高精度に取得された実施段階の手技に関する情報に基づき、内視鏡1に特有の微妙な手指の動作を含む次段階の手技情報を出力する。
(実施形態6)
実施形態6では、手技支援システム220は、内視鏡1の操作を行う内視鏡室内を撮影する撮影装置6を更に含む点で実施形態5と異なる。内視鏡用プロセッサ2は、内視鏡画像、手技情報及び室内画像が入力された場合に、次段階の手技情報を出力するよう学習された学習モデル522を用いて手技情報を提供する。
図15は、実施形態6の内視鏡用プロセッサ2で実行される処理手順の一例を示すフローチャートである。実施形態5の図13と共通する処理については同一のステップ番号を付してその詳細な説明を省略する。
制御部21は、内視鏡画像を取得し(ステップS21)、手技情報を取得する(ステップS22)。手技情報には、操作者の両手及び両腕等の操作データ、内視鏡1の挿入量、湾曲方向及び光量等の操作データの少なくともいずれか一つが含まれてよい。ついで制御部21は、撮影装置6から室内画像を取得する(ステップS31)。制御部21は、取得した内視鏡画像、手技情報及び室内画像を一時的に記憶部22に記憶する。
制御部21は、記憶した内視鏡画像、手技情報及び室内画像を学習モデル522に入力する(ステップS32)。学習モデル522は、実施形態2において説明した学習モデル522であり、内視鏡画像、手技情報及び室内画像を入力した場合に、次段階の手技情報を出力する。制御部21は、学習モデル522から出力される次段階の手技情報を取得する(ステップS33)。制御部21は、取得した手技情報と内視鏡画像とを対応付けて表示する画面情報を生成する。制御部21は、生成した手技情報を含む画面情報を表示装置3を介して表示し(ステップS25)、一連の処理を終了する。
表示装置3に表示される画面には、内視鏡画像、次段階の操作情報、室内画像、生体情報等の領域が含まれている。次段階の操作情報には、例えば内視鏡操作者の両手及び両腕等の状態データ、内視鏡操作者及び被検者の位置関係に基づく動作情報、処置具の情報等が含まれる。
(実施形態7)
実施形態7では、手技支援システム230は、内視鏡操作者の視線データを検出する視線検出装置7を更に含む点で実施形態5と異なる。内視鏡用プロセッサ2は、内視鏡画像、手技情報及び視線データが入力された場合に、次段階の手技情報及び視線データを出力するよう学習された学習モデル522を用いて手技情報を提供する。
図16は、実施形態7の内視鏡用プロセッサ2で実行される処理手順の一例を示すフローチャートである。実施形態5の図13と共通する処理については同一のステップ番号を付してその詳細な説明を省略する。
制御部21は、内視鏡画像を取得し(ステップS21)、手技情報を取得する(ステップS22)。手技情報には、操作者の両手及び両腕等の操作データ、内視鏡1の挿入量、湾曲方向及び光量等の操作データの少なくともいずれか一つが含まれてよい。ついで制御部21は、視線検出装置7から視線データを取得する(ステップS41)。制御部21は、取得した内視鏡画像、手技情報及び視線データを一時的に記憶部22に記憶する。
制御部21は、記憶した内視鏡画像、手技情報及び視線データを学習モデル522に入力する(ステップS42)。学習モデル522は、実施形態3において説明した学習モデル522であり、内視鏡画像、手技情報及び視線データを入力した場合に、次段階の手技情報及び視線データを出力する。制御部21は、学習モデル522から出力される次段階の手技情報及び視線データを取得する(ステップS43)。制御部21は、取得した手技情報及び視線データと内視鏡画像とを対応付けて表示する画面情報を生成する。制御部21は、生成した手技情報及び視線データを含む画面情報を表示装置3を介して表示し(ステップS25)、一連の処理を終了する。
表示装置3に表示される画面には、内視鏡画像、視線画像、次段階の操作情報、視線データ等の領域が含まれている。なお、制御部21は、図示しないスピーカを介して合成音声等により視線データを出力してもよい。内視鏡操作者が眼鏡型のウェアラブルデバイスからなる視線検出装置7を着用している場合には、制御部21は、次段階の視線方向に対応するレンズの一部を点灯させる等により、視線データを出力してもよい。
(実施形態8)
実施形態8では、手技支援システム240の内視鏡用プロセッサ2は、複数種類の学習モデル522を記憶部に記憶している点で実施形態5と異なる。内視鏡用プロセッサ2は、内視鏡操作者に応じて特定された学習モデル522を用いて手技情報を提供する。
図17は、実施形態8の内視鏡用プロセッサ2で実行される処理手順の一例を示すフローチャートである。実施形態5の図13と共通する処理については同一のステップ番号を付してその詳細な説明を省略する。
制御部21は、例えば、内視鏡1の内視鏡操作者の手技レベル、生体属性情報等の内視鏡操作者情報を予め取得し記憶している不図示のデータベース等を参照し内視鏡操作者の手技レベルを取得することにより、手技レベル(内視鏡操作者情報)を特定する(ステップS51)。手技レベルは、例えば内視鏡操作者の過去の内視鏡1の操作内容に基づき判定されデータベースに記録されている。なお、内視鏡用プロセッサ2は、タッチパネル又はキーボード等の入力装置により、内視鏡操作者から内視鏡操作者情報の選択入力を受け付けるものであってもよい。
内視鏡1の操作が開始され、制御部21は、内視鏡画像を取得し(ステップS21)、手技情報を取得する(ステップS22)。制御部21は、取得した内視鏡画像及び手技情報を一時的に記憶部22に記憶する。
内視鏡用プロセッサ2の記憶部22は、実施形態4において説明した手技レベルに応じた複数の学習モデル522を記憶している。制御部21は、予め手技レベルと各学習モデル522の識別情報とを関連付けて記録したデータベース等を参照し、特定した手技レベルに基づき使用する学習モデル522を選択する(ステップS52)。制御部21は、記憶した内視鏡画像及び手技情報を、選択した学習モデル522に入力し(ステップS23)、学習モデル522から出力される次段階の手技情報等を取得する(ステップS24)。学習モデル522からは、内視鏡操作者の手技レベルに応じた手技情報のみが出力される。なお、制御部21は、特定した手技レベルを学習モデル522の入力要素の一つとして入力し、手技レベルに応じた手技情報を出力としてもよい。制御部21は、取得した手技情報と内視鏡画像とを対応付けて表示する画面情報を生成する。制御部21は、生成した手技情報を含む画面情報を表示装置3を介して表示し(ステップS25)、一連の処理を終了する。
上記において、内視鏡用プロセッサ2は、生体属性情報に応じて異なる複数種類の学習モデル522を用いてもよい。制御部21は、ステップS51において、内視鏡操作者の手技レベルに代えて内視鏡操作者の身長、体重等の生体属性情報を取得し、内視鏡操作者の体格(内視鏡操作者情報)を特定する。制御部21は、ステップS52において、予め体格と学習モデル522の識別情報とを関連付けて記録したデータベース等を参照し、特定した内視鏡操作者の体格に基づき使用する学習モデル522を選択する。学習モデル522からは、内視鏡操作者の体格に応じた手技情報が出力される。
なお、内視鏡操作者が初めて内視鏡1の手技を行う場合等、内視鏡操作者の手技レベルがデータベースに未登録である場合には、内視鏡操作者の手技レベル以外の属性情報に基づく汎用的設定により仮レベルが特定されてもよい。例えば、内視鏡操作者の経験年数に基づき、内視鏡操作者の経験年数が1年未満である場合には初級者レベル、経験年数が1年以上5年未満である場合には中級者レベルが汎用的に適用されるとよい。また、対象となる内視鏡操作者の生体属性情報に基づき、対象内視鏡操作者の生体属性情報に最も近似する生体属性情報が含まれる内視鏡操作者を導出し、導出した内視鏡操作者の手技レベルを仮レベルとして適用してもよい。更にまた、手技の開始前に、例えば大腸モデル等のシミュレーション装置を用いた手技を行うことにより仮想的な手技レベルを導出し、導出した仮想的な手技レベルを仮レベルとして適用してもよい。
本実施形態によれば、内視鏡用プロセッサ2により特定された内視鏡操作者の手技レベル又は生体属性情報等に応じた情報のみを出力するよう調整された学習モデル522を用いて手技情報が出力される。個々の内視鏡操作者に適した手技情報が提供されるため、様々な手技レベル又は生体属性等を有する内視鏡操作者であっても、夫々に利用価値の高いサポート情報を提供することが可能となる。
(実施形態9)
実施形態9では、手技支援システム250の内視鏡用プロセッサ2は、内視鏡操作者の手技レベルを評価する評価モデル523を用いて内視鏡操作者の手技レベルを評価する。図18は、実施形態9の手技支援システム250の構成例を示すブロック図である。以下では、実施形態9について、実施形態5と異なる点を説明する。後述する構成を除く他の構成については実施形態5と同様であるので、共通する構成については同一の符号を付してその詳細な説明を省略する。
内視鏡用プロセッサ2の記憶部22は、評価モデル523を更に記憶する。評価モデル523は、内視鏡操作者の手技レベルを評価する評価器であり、機械学習により生成された学習モデルである。
図19は、評価モデル523の構成を説明する説明図である。評価モデル523は、ニューラルネットワークを用いた深層学習によって、生成され、学習される。図19に示す例では、評価モデル523は、内視鏡画像データ及び手技情報を入力する入力層と、能力レベルを出力する出力層と、内視鏡画像データ及び手技情報の特徴量を抽出する中間層とを備える。中間層は、内視鏡画像データ及び手技情報の特徴量を抽出する複数のノードを有し、各種パラメータを用いて抽出された画像特徴量を出力層に受け渡す。中間層は、畳み込み層、プーリング層等を含んでよい。評価モデル523は、設定されている手技レベルに各々対応するチャネルを含む出力層を有し、出力層は、各手技レベルに対する確度をスコアとして出力する。
評価モデル523への入力データは、内視鏡1により撮影された内視鏡画像及び手技情報である。手技情報は、内視鏡操作者の両手及び両腕等の状態データを示す検出値、内視鏡1の挿入量、湾曲方向及び光量等の操作データを含んでよい。入力データには、さらに室内画像、視線データ等が含まれてもよい。なおこの場合において、画像情報は図示しない畳み込み層、コンボリューション層を介して入力層に入力されてよい。評価モデル523からの出力データは、内視鏡画像データ及び手技情報に対する手技者の手技レベルである。手技レベルは、例えば初級者、中級者、上級者及びエキスパートに区分される。
評価モデル523は、内視鏡画像及び手技情報と、内視鏡画像及び手技情報における手技レベルとを関連付けて記録した教師データベースを使用して、モデルパラメータが調整されている。教師データは、内視鏡画像及び手技情報に対し手技レベルがラベル付けされたデータセットとして構築される。例えば、大腸内視鏡検査において、盲腸到達率が95パーセント以上、且つ盲腸到達時間が5分以内である内視鏡操作者は中級者以上であるとされている。初回検査時における腫瘍発見率が30パーセント以上である内視鏡操作者はエキスパートとされている。ポリペクトミー、又は他の内視鏡的粘膜切除術において、所定時間以内に1回の通電で切除を行う内視鏡操作者は手技レベルが高いとされている。また、手技時における腕、手首、手指等の動作に無駄がない場合にも、内視鏡操作者の手技レベルが高いとされる。評価モデル523は、これらの知見に沿った教師データを用いて学習を実行する。
評価モデル523は、学習用の入力データとして、内視鏡画像データ及び手技情報を入力する。評価モデル523は、学習用の入力データ夫々に対する手技レベルを教師データとして、内視鏡画像データ及び手技情報が入力された場合に手技レベルを出力するように学習される。学習が進行すると、学習済みのモデルパラメータが得られる。評価モデル523は、学習済みのモデルパラメータを、定義されたニューラルネットワークに適用することによって、内視鏡画像データ及び手技情報が入力された場合に、手技レベルを出力することが可能である。
なお、評価モデル523は、ニューラルネットワークを用いた深層学習に限られず、他のアルゴリズムによって学習されたモデルであってもよく、特定の数式によって評価値を導出するものであってもよい。
図20は、内視鏡用プロセッサ2で実行される処理手順の一例を示すフローチャートである。例えば内視鏡操作者による内視鏡1の操作手技が開始され内視鏡1の撮影が開始されると、手技情報の推定処理に並行して、内視鏡用プロセッサ2の制御部21で以下の処理が実行される。
制御部21は、内視鏡画像を取得し(ステップS61)、手技情報を取得する(ステップS62)。制御部21は、取得した内視鏡画像及び手技情報を評価モデル523に入力し(ステップS63)、評価モデル523から出力される手技レベルを取得する(ステップS64)。制御部21は、内視鏡操作者情報を記憶するデータベース等に、取得した手技レベルを内視鏡操作者に対応付けて記憶し(ステップS65)、一連の処理を終了する。
内視鏡用プロセッサ2が複数種類の手技レベルに応じた学習モデル522を記憶する場合においては、制御部21は、上記で評価した手技レベルを用いて、使用する学習モデル522の特定を行ってよい。さらに制御部21は、学習モデル522及び評価モデル523を用いて、リアルタイムで取得する手技レベルに応じた手技情報を出力してもよい。制御部21は、内視鏡1の操作実施時において、手技レベルの評価処理及び手技情報の推定処理を並行して実行する。制御部21は、評価モデル523から出力される手技レベルをリアルタイムで取得し、取得した手技レベルに応じて使用する学習モデル522の選択を随時変更する。制御部21は、選択した学習モデル522から出力される手技情報を取得する。このように、制御部21は、手技実施中に変化する内視鏡操作者の手技レベルに応じた学習モデル522を用いることにより、手技の実施内容に基づき変化する内視鏡操作者の手技レベルによって、出力する手技情報を変化させる。
本実施形態によれば、学習モデル522及び評価モデル523により、内視鏡操作者への手技情報の提供と、内視鏡操作者の手技レベルの評価とが並行して行われる。手技情報の出力内容はリアルタイムで評価される手技レベルに応じて変更可能なため、実施内容に即した適切な手技情報を提供することができる。
(実施形態10)
実施形態10では、内視鏡用プロセッサ2は、学習モデル522を用いて内視鏡1の種類に応じた次段階の手技情報を推定する。
情報処理装置5は、内視鏡1の種類に応じた複数種類の学習モデル522を生成する。内視鏡用プロセッサ2は、内視鏡1の種類に応じた複数種類の学習モデル522を取得し、記憶部52に記憶している。各学習モデル522は、内視鏡1の種類に応じて、例えば湾曲方向の入力データ及び出力データが異なる。例えば上部消化管用の内視鏡又は大腸内視鏡の場合、操作部12は、内視鏡1の先端を上下方向に曲げるための上下アングルノブ及び左右方向に曲げるための左右アングルノブを備える。従って、湾曲方向には上下左右の4方向に対する操作データが含まれる。一方、気管支用又は耳鼻科用の内視鏡1の場合、操作部12は、上下アングルノブのみを備え、湾曲方向には上下の2方向が含まれる。従って、内視鏡1の種類が気管支用又は耳鼻科用である場合には、学習モデル522は、湾曲方向として上下の2方向に対する操作データのみを入力データとし、上下の2方向に対する操作データのみを出力データとする構成であることが好ましい。
なお、アングルノブがジョイスティック等により構成される場合には、湾曲方向は操作角度を用いて示されるとよい。また、気管支用又は耳鼻科用の内視鏡1用の学習モデル522においては、手技情報の操作データに内視鏡1の挿入管11の全体の回転(ひねり)方向及び回転量が含まれてもよい。
内視鏡用プロセッサ2の制御部21は、内視鏡用プロセッサ2に接続される内視鏡1のコネクタ形状、又は内視鏡1から得られる信号情報等から、内視鏡1の種類を特定する。制御部21は、例えば、図示しない読取部を介した内視鏡1の識別コードの取得、内視鏡操作者からの入力の受け付け等により内視鏡1の種類を取得してもよい。制御部21は、内視鏡1の種類と各学習モデル522の識別情報とを関連付けて記録したデータベース等を参照し、特定した内視鏡1の種類に基づき使用する学習モデル522を選択する。制御部21は、内視鏡画像及び手技情報を、選択した学習モデル522に入力し、学習モデル522から出力される次段階の手技情報等を取得する。
なお、学習モデル522は、内視鏡1の種類を入力要素に含み、内視鏡1の種類に応じた出力データを出力とするものであってもよい。この場合、制御部21は、特定した内視鏡1の種類、内視鏡画像及び手技情報を学習モデル522に入力し、学習モデル522から出力される次段階の手技情報等を取得する。内視鏡用プロセッサ2は、予め決められる接続予定の内視鏡1の種類に応じて、接続予定の内視鏡1の種類に応じた1つの学習モデル522のみを記憶部52に記憶するものであってもよい。
本実施形態によれば、内視鏡1の種類に応じた手技情報が出力されるため、より手技状態に即したサポート情報を提供することが可能となる。
(実施形態11)
実施形態11では、3次元画像を用いて手技情報を示す画面情報を表示する。図21は、実施形態11における画面例を示す図である。
図21に示す如く、画像情報に基づき表示装置3に表示される画面には、内視鏡画像と、次段階の手技情報を3次元画像を用いて示すナビゲーション画像とが含まれている。例えば、ナビゲーション画像は、被検者の気管支等の管腔臓器を仮想的に示す3次元画像上に、内視鏡1の操作方向(次段階の手技情報)を示すオブジェクトを重畳して表示する画像である。3次元画像は、管腔臓器の全体を示す全体画像と、内視鏡1の位置及び視点方向に応じた管腔臓器の内腔(観察部位)を示す内腔画像とを含んでよい。内腔画像は、仮想的な3D内視鏡画像に相当する。
制御部21は、予め超音波診断装置又はX線CT装置等による断層像データに基づき生成された被検者の管腔臓器の3次元画像を取得し、記憶部22に記憶している。制御部21は、挿入管11に設けられた物理検出装置の検出値に基づき、内視鏡画像が撮像された時点における内視鏡1の先端の位置及び視点方向を推定する。制御部21は、推定した位置及び視点方向に応じた3次元画像を特定する。制御部21は、特定した3次元画像上に、次段階の手技情報を示すオブジェクトを重畳して表示するナビゲーション画像を生成する。例えば処置具に関する情報等といった手技情報の一部は、テキストデータ等により3次元画像とは離れた位置に表示されてよい。制御部21は、内視鏡画像と、次段階の手技情報を含むナビゲーション画像とを関連付けた画面情報を生成し、生成した画面情報を表示装置3へ出力する。
上記において、内視鏡用プロセッサ2は、内視鏡操作者の手技レベルに応じて画面情報を変更してもよい。例えば、制御部21は、内視鏡操作者の手技レベルが初級者と特定された場合には、上述したナビゲーション画像を含む画面情報を生成する。制御部21は、手技レベルがエキスパートと特定された場合には、ナビゲーション画像を含まない画面情報を生成してよい。制御部21は、手技レベルがエキスパートと特定された場合において、所定条件を満たさないときにはナビゲーション画像を含む画面情報を表示してもよい。所定条件を満たさないとは、例えば、分岐箇所における操作方向(挿入方向)が誤っている、学習モデル522から出力された次段階の手技情報と、次段階における内視鏡1の実際の操作データとが一致しない等を含んでよい。
図22は、実施形態11の内視鏡用プロセッサ2で実行される処理手順の一例を示すフローチャートである。実施形態5の図13と共通する処理については同一のステップ番号を付してその詳細な説明を省略する。
内視鏡用プロセッサ2の制御部21は、例えば、内視鏡操作者情報を記憶している不図示のデータベース等を参照し内視鏡操作者の手技レベルを取得することにより、手技レベル(内視鏡操作者情報)を特定する(ステップS71)。
制御部21は、図13に示したステップS21からステップS24の処理を実行し、学習モデル522により次段階の手技情報を取得する。制御部21は、所定の条件を満たすか否かを判定する(ステップS72)。例えば、制御部21は、内視鏡1の操作が間違っていないか否かを判定する。操作が間違っていない、すなわち条件を満たすと判定した場合(S72:NO)、制御部21は、内視鏡画像を表示する画面情報を生成する(ステップS73)。制御部21は、生成した内視鏡画像を表示する画面情報を表示装置3を介して表示し(ステップS74)、処理を終了する。
操作が間違っている、すなわち条件を満たさないと判定した場合(S72:YES)、制御部21は、内視鏡画像の撮像時点における内視鏡1の先端の位置及び視点方向を推定し、推定した位置及び視点方向に応じた3次元画像を取得する(ステップS75)。制御部21は、取得した3次元画像上に次段階の手技情報を重畳して表示するナビゲーション画像と、内視鏡画像とを対応付けて表示する画面情報を生成する(ステップS76)。制御部21は、生成した画面情報を表示装置3を介して表示し(ステップS77)、一連の処理を終了する。
本実施形態によれば、3次元画像上に手技情報が表示されるため、容易に手技情報を認識することができる。また、内視鏡操作者の手技レベルや手技実態に応じた手技情報が表示されるため、より好適に内視鏡操作者の手技を支援することができる。
(実施形態12)
実施形態12では、内視鏡用プロセッサ2は、学習モデル522を用いて内視鏡用プロセッサ2の種類に応じた次段階の手技情報を推定する。
情報処理装置5は、内視鏡用プロセッサ2の種類に応じた複数種類の学習モデル522を生成する。内視鏡用プロセッサ2は、自装置に対応する内視鏡用プロセッサ2の種類に応じた学習モデル522を取得し、記憶部52に記憶している。例えば、学習モデル522は、内視鏡画像と、内視鏡用プロセッサ2における光量(光量比)及び画像処理に係るパラメータを含む手技情報とを入力した場合に、次段階における光量(光量比)及び画像処理に係るパラメータを含む手技情報を出力する。
内視鏡用プロセッサ2は、例えば、光源24に含まれる青色の光を出射する半導体光源と、黄色の蛍光を出射する蛍光体とを組み合わせることで、通常光観察用の白色光による白色光画像を生成する。内視鏡用プロセッサ2はまた、青色の光を放射する半導体光源と紫色の光を放射する半導体光源とを組み合わせることで、特殊光観察用の照明光による特殊光画像を生成する。特殊光観察は、狭帯域の照明光を使用することにより、例えば粘膜の深部を走行する血管等を強調して表示する技術である。
内視鏡用プロセッサ2の制御部21は、半導体光源や蛍光体からの光の光量又は光量比と、画像処理に係るパラメータとを制御することで、内視鏡操作者が観察しやすい画像を生成する。同一の内視鏡1を用いた場合であっても、使用される内視鏡用プロセッサ2の種類により光源24が出射する光のスペクトラム分布が異なるため、表示装置3に表示される内視鏡画像の色調が異なる。従って、内視鏡用プロセッサ2の種類に応じて、光量(光量比)、画像処理に係るパラメータを変化させることで、生成される内視鏡画像に対する内視鏡操作者の視認性を向上し、手技精度の向上を支援することができる。なお、学習モデル522の出力とする光量は、例えば、検査開始から盲腸等の所定部位まで挿入するときには通常光観察用の白色光に係る光量とし、所定部位から抜去するときには特殊光観察用の照明光に係る光量としてもよい。
学習モデル522は、内視鏡用プロセッサ2の種類に関する情報を入力要素に含み、内視鏡用プロセッサ2の種類に応じた出力データを出力とするものであってもよい。すなわち、学習モデル522は、光量及び画像処理に係るパラメータを含む手技情報、内視鏡画像並びに内視鏡用プロセッサ2の種類を入力した場合に、次段階における光量及び画像処理に係るパラメータを含む手技情報を出力するものであってよい。
学習モデル522はまた、手技レベルに応じて異なる光量及び画像処理パラメータを含む手技情報を出力するものであってもよい。例えば、内視鏡操作者の手技レベルがエキスパートであるときには、学習モデル522は、通常光観察用の白色光による白色光画像の生成に適した光量及び画像処理パラメータを含む手技情報を出力する。手技レベルが初心者であるときには、学習モデル522は、特殊光観察用の照明光により血管等を強調表示する特殊光画像の生成に適した光量及び画像処理パラメータを含む手技情報を出力する。手技レベルが初心者である場合には、制御部21は、出力した光量及び画像処理パラメータに基づき、自動で光源24の制御及び画像処理を実行することが好ましい。学習モデル522は、手技レベルに応じた手技情報を教師データに用いて学習することにより、各手技レベルに適した手技情報を出力とすることができる。
半導体光源を含む光源24を備える内視鏡用プロセッサ2を用いる場合において、内視鏡操作者が経験の長いエキスパートであるときには、従来のキセノンランプによる内視鏡画像の方が観察しやすい場合がある。学習モデル522は、手技レベルに応じて、キセノンランプによる内視鏡画像に近い画像の生成に適した光量及び画像処理パラメータを含む手技情報を出力するものであってもよい。なお制御部21は、学習モデル522の出力データと、光量及び画像処理パラメータとの対応情報を格納するデータベース(不図示)を記憶部22に記憶してもよい。制御部21は、当該データベースから読み出した光量及び画像処理パラメータに基づく変換処理を実行することにより、内視鏡操作者に適した画像を生成してもよい。
上述の処理において、学習モデル522に入力する内視鏡画像と、表示装置3に表示される内視鏡画像とは異なるものであってよい。例えば、制御部21は、学習モデル522から出力される次段階の光量及び画像処理パラメータに基づく処理を実行し、内視鏡操作者が目視しやすい状態にした表示用内視鏡画像を生成する。また、制御部21は、学習モデル522から出力される次段階の光量及び画像処理パラメータとは異なる画像処理パラメータに基づく処理を実行し、学習モデル522による特徴量抽出に適した入力用内視鏡画像を生成する。制御部21は、生成した表示用内視鏡画像を表示装置3へ表示させると共に、入力用内視鏡画像を学習モデル522に入力し、次段階の手技情報を出力する。なお、入力用内視鏡画像は、次段階の光量及び画像処理パラメータに基づく処理が実行されていない画像であればよい。すなわち、入力用内視鏡画像は、新たな画像処理が施されるものに限定されず、内視鏡1の撮像素子から取り込まれた画像データそのものであってもよい。
本実施形態によれば、内視鏡用プロセッサ2に応じた手技情報が出力されるため、内視鏡操作者の利便性を向上し、好適に手技を支援することができる。
(実施形態13)
実施形態13では、手技状況に応じて手技情報の出力内容を変更する。図23は、実施形態13の内視鏡用プロセッサ2で実行される処理手順の一例を示すフローチャートである。実施形態5の図13と共通する処理については同一のステップ番号を付してその詳細な説明を省略する。
内視鏡用プロセッサ2の制御部21は、撮影装置6から室内画像を取得する(ステップS81)。撮影装置6は、マイクロフォン等の音声入力デバイスを備え、画像データ及び音声データの時間軸を合わせた音声付きの動画像(室内画像)を生成するものであってよい。制御部21は、図13に示したステップS21からステップS24の処理を実行し、学習モデル522により次段階の手技情報を取得する。
制御部21は、室内画像の音声データを解析する(ステップS82)。制御部21は、解析結果に基づき、対応済みの手技情報を特定する(ステップS83)。具体的には、制御部21は、音声データの解析結果と学習モデル522の出力データ(手技情報)とを比較することにより、解析結果と一致する出力データを特定する。例えば、所定の処置具の準備を指示する内容が音声データに含まれていた場合において、学習モデル522の出力データに同一の処置具が含まれるときは、既に次段階の処置具の準備ができているため、処置具に関する手技情報の表示が不要である。なお、制御部21は、音声データの解析処理による解析結果を取得するものに限定されず、室内画像の画像解析による解析結果を取得してもよい。
制御部21は、特定した解析結果と一致する出力データ以外の出力データ、すなわち未対応の手技情報と、内視鏡画像とを対応付けて表示する画面情報を生成する。制御部21は、生成した画面情報を表示装置3を介して表示し(ステップS84)、一連の処理を終了する。
制御部21は、解析結果と出力データとが一致しない場合において、解析結果の音声データが誤っていると推定されるときは、「〇〇の方がよいですよ」等の、処置具の変更を促す画面情報や合成音声を出力してもよい。音声データに処置具の名称が含まれる場合において、音声データの処置具と、学習モデル522から出力される処置具とが異なる場合には、指示が誤っていると推定される。この場合においては、新たな処置具を強調して提示することで、内視鏡操作者又は補助者の確認漏れを防止することが好ましい。
本実施形態によれば、学習モデル522を用いて内視鏡室内の状態に応じた情報を出力することで、より好適に手技を支援することができる。
(実施形態14)
実施形態14では、内視鏡1は飛行時間型(TOF)センサを備え、TOFセンサによる検出値が手技情報に含まれる。実施形態14において、内視鏡1の挿入管11は、対象物までの距離を検出可能なTOFセンサを先端に備えている。内視鏡用プロセッサ2の光源24は、TOFセンサに検出させる赤外光を発する光源を備えている。TOFセンサは、光源24から発光される赤外光が対象物に反射して受光するまでの時間を検出する。TOFセンサを用いることにより、挿入管11の先端から対象物(体内部位)までの距離や、対象物の形状に関するデータを取得することができる。TOFセンサは、検出結果を内視鏡用プロセッサ2に出力する。
実施形態14の学習モデル522は、TOFセンサによる検出値を含む手技情報と、内視鏡画像とを入力した場合に、次段階の手技情報を出力する。入力される検出値は、TOFセンサによる検出値そのものであってもよく、検出値に基づき得られる対象物(観察部位である病変部)の距離又は形状を示すデータであってもよい。本実施形態によれば、学習モデル522は、TOFセンサによる検出値を含む手技情報に基づき、より精度の高い内視鏡1の先端の操作データを出力することができる。
今回開示した実施の形態は、全ての点で例示であって、制限的なものではないと考えられるべきである。各実施例にて記載されている技術的特徴は互いに組み合わせることができ、本発明の範囲は、請求の範囲内での全ての変更及び請求の範囲と均等の範囲が含まれることが意図される。
210 手技支援システム
1 内視鏡
2 内視鏡用プロセッサ
21 制御部
22 記憶部
2P プログラム
3 表示装置
4 検出装置
5 情報処理装置
51 制御部
52 記憶部
5P プログラム
522 学習モデル
523 評価モデル
6 撮影装置
7 視線検出装置

Claims (30)

  1. 内視鏡を操作する内視鏡操作者による前記内視鏡の操作の各段階における前記内視鏡により撮影された内視鏡画像及び前記内視鏡操作者の手技に関する手技情報を取得し、
    前記手技情報は3Dレーザセンサを用いて検出された前記内視鏡操作者の両腕及び両手の状態データを含み、
    取得した内視鏡画像及び手技情報と次段階における手技情報とを含む教師データに基づき、内視鏡画像と両腕及び両手の状態データを含む手技情報とを入力した場合に次段階の両腕及び両手の状態データを含む手技情報を出力するよう学習された学習モデルを生成する
    学習モデルの生成方法。
  2. 内視鏡を操作する内視鏡操作者による前記内視鏡の操作の各段階における前記内視鏡により撮影された内視鏡画像及び前記内視鏡操作者の手技に関する手技情報を取得し、
    前記手技情報は前記内視鏡により撮影された内視鏡画像を取得する内視鏡用プロセッサにおける光量及び画像処理に係るパラメータを含み、
    取得した内視鏡画像及び手技情報と次段階における手技情報とを含む教師データに基づき、内視鏡画像と光量及び画像処理に係るパラメータを含む手技情報とを入力した場合に、次段階における光量及び画像処理に係るパラメータを含む手技情報を出力するよう学習された学習モデルを生成する
    学習モデルの生成方法。
  3. 前記内視鏡の先端の操作データを含む手技情報を取得し、
    前記学習モデルに内視鏡画像と内視鏡の先端の操作データを含む手技情報とを入力した場合に、次段階の内視鏡の先端の操作データを含む手技情報を出力するよう学習された前記学習モデルを生成する
    請求項1又は請求項2に記載の学習モデルの生成方法。
  4. 前記学習モデルに内視鏡画像と両腕及び両手の状態データを含む手技情報とを入力した場合に、次段階の両腕及び両手の状態データを含む手技情報に基づく画像を出力するよう学習された前記学習モデルを生成する
    請求項1又は請求項3に記載の学習モデルの生成方法。
  5. 前記内視鏡操作者を含む室内画像を撮影する撮影装置から室内画像を取得し、
    取得した内視鏡画像、手技情報及び室内画像と次段階における手技情報とを含む教師データに基づき、前記学習モデルに内視鏡画像、手技情報及び室内画像を入力した場合に、次段階の手技情報を出力するよう学習された前記学習モデルを生成する
    請求項1から請求項4のいずれか1項に記載の学習モデルの生成方法。
  6. 前記内視鏡操作者の視線データを取得し、
    取得した内視鏡画像、手技情報及び視線データと、次段階における手技情報及び視線データとを含む教師データに基づき、前記学習モデルに内視鏡画像、手技情報及び視線データを入力した場合に次段階の手技情報及び視線データを出力するよう学習された前記学習モデルを生成する
    請求項1から請求項5のいずれか1項に記載の学習モデルの生成方法。
  7. 前記内視鏡操作者の前記内視鏡の手技に対する手技レベルに応じて複数種類の前記学習モデルを生成する
    請求項1から請求項6のいずれか1項に記載の学習モデルの生成方法。
  8. 前記内視鏡操作者の体格に応じて複数種類の前記学習モデルを生成する
    請求項1から請求項7のいずれか1項に記載の学習モデルの生成方法。
  9. 内視鏡を操作する内視鏡操作者による前記内視鏡の操作の各段階における前記内視鏡により撮影された内視鏡画像及び前記内視鏡操作者の手技に関する手技情報を取得し、
    前記手技情報は3Dレーザセンサを用いて検出された前記内視鏡操作者の両腕及び両手の状態データを含み、
    内視鏡画像及び手技情報と次段階における手技情報とを含む教師データに基づき、内視鏡画像と両腕及び両手の状態データを含む手技情報とを入力した場合に次段階の両腕及び両手の状態データを含む手技情報を出力するよう学習された学習モデルに、取得した内視鏡画像と両腕及び両手の状態データを含む手技情報とを入力して、次段階の両腕及び両手の状態データを含む手技情報を出力する
    処理をコンピュータに実行させるプログラム。
  10. 内視鏡を操作する内視鏡操作者による前記内視鏡の操作の各段階における前記内視鏡により撮影された内視鏡画像及び前記内視鏡操作者の手技に関する手技情報を取得し、
    前記手技情報は前記内視鏡により撮影された内視鏡画像を取得する内視鏡用プロセッサにおける光量及び画像処理に係るパラメータを含み、
    内視鏡画像及び手技情報と次段階における手技情報とを含む教師データに基づき、内視鏡画像と光量及び画像処理に係るパラメータを含む手技情報とを入力した場合に次段階における光量及び画像処理に係るパラメータを含む手技情報を出力するよう学習された学習モデルに、取得した内視鏡画像と光量及び画像処理に係るパラメータを含む手技情報とを入力して、次段階における光量及び画像処理に係るパラメータを含む手技情報を出力する
    処理をコンピュータに実行させるプログラム。
  11. 前記内視鏡の先端の操作データを含む手技情報を取得し、
    前記学習モデルに、取得した内視鏡画像と内視鏡の先端の操作データを含む手技情報とを入力して、次段階の内視鏡の先端の操作データを含む手技情報を出力する
    処理をコンピュータに実行させる請求項又は請求項10に記載のプログラム。
  12. 前記学習モデルは、内視鏡画像と両腕及び両手の状態データを含む手技情報とを入力した場合に、次段階の両腕及び両手の状態データを含む手技情報に基づく画像を出力するよう学習されており、
    前記内視鏡操作者の両腕及び両手の状態データを含む手技情報を取得し、
    前記学習モデルに、取得した内視鏡画像と両腕及び両手の状態データを含む手技情報とを入力して、次段階の両腕及び両手の状態データを含む手技情報に基づく画像を出力する
    処理をコンピュータに実行させる請求項9又は請求項11に記載のプログラム。
  13. 前記内視鏡操作者を含む室内画像を撮影する撮影装置から室内画像を取得し、
    内視鏡画像、手技情報及び室内画像と次段階における手技情報とを含む教師データに基づき、内視鏡画像、手技情報及び室内画像を入力した場合に次段階の手技情報を出力するよう学習された前記学習モデルに、取得した内視鏡画像、手技情報及び室内画像を入力して、次段階の手技情報を出力する
    処理をコンピュータに実行させる請求項から請求項12のいずれか1項に記載のプログラム。
  14. 前記内視鏡操作者の視線データを取得し、
    内視鏡画像、手技情報及び視線データと、次段階における手技情報及び視線データとを含む教師データに基づき、内視鏡画像、手技情報及び視線データを入力した場合に次段階の手技情報及び視線データを出力するよう学習された前記学習モデルに、取得した内視鏡画像、手技情報及び視線データを入力し、次段階における手技情報及び視線データを出力する
    処理をコンピュータに実行させる請求項から請求項13のいずれか1項に記載のプログラム。
  15. 前記内視鏡操作者の前記内視鏡の手技に対する手技レベルを特定し、
    手技レベルに応じて用意された複数種類の前記学習モデルから、特定した前記内視鏡操作者の前記内視鏡の手技に対する手技レベルに対応する学習モデルを選択する
    処理をコンピュータに実行させる請求項から請求項14のいずれか1項に記載のプログラム。
  16. 前記手技情報の出力に並行して、前記内視鏡操作者の前記内視鏡の手技に対する手技レベルを特定する
    処理をコンピュータに実行させる請求項から請求項15のいずれか1項に記載のプログラム。
  17. 前記内視鏡操作者の体格を特定し、
    前記内視鏡操作者の体格に応じて用意された複数種類の前記学習モデルから、特定した前記内視鏡操作者の体格に対応する学習モデルを選択する
    処理をコンピュータに実行させる請求項から請求項16のいずれか1項に記載のプログラム。
  18. 前記内視鏡用プロセッサは半導体光源を備えており、
    前記次段階における光量及び画像処理に係るパラメータを含む手技情報に基づき、キセノンランプを光源に用いた場合の内視鏡画像に近似する内視鏡画像を生成する
    処理をコンピュータに実行させる請求項10に記載のプログラム。
  19. 前記内視鏡操作者の前記内視鏡の手技に対する手技レベルを特定し、
    特定した前記手技レベルに応じて、第1の前記手技レベルである場合には前記学習モデルから出力される次段階の手技情報を表示し、
    第1の前記手技レベルよりも高い第2の前記手技レベルである場合において、所定の条件を満たすときは、前記学習モデルから出力される次段階の手技情報を表示せず、所定の条件を満たさないときは前記学習モデルから出力される次段階の手技情報を表示する
    処理をコンピュータに実行させる請求項から請求項18のいずれか1項に記載のプログラム。
  20. 前記内視鏡操作者を含む室内画像を撮影する撮影装置から室内画像を取得し、
    取得した室内画像に基づき、前記学習モデルから出力される次段階の手技情報のうち対応済みの手技情報を特定し、
    特定した前記対応済みの手技情報を除く前記学習モデルから出力される次段階の手技情報を表示する
    処理をコンピュータに実行させる請求項から請求項19のいずれか1項に記載のプログラム。
  21. 被検者の管腔臓器を示す3次元画像上に、次段階の手技情報を重畳して表示する画面情報を出力する
    処理をコンピュータに実行させる請求項から請求項20のいずれか1項に記載のプログラム。
  22. 内視鏡画像を撮影する内視鏡と、前記内視鏡を操作する内視鏡操作者の両腕及び両手の状態データを示す手技情報を取得する3Dレーザセンサと、内視鏡用プロセッサとを備え、
    前記内視鏡用プロセッサは、
    前記内視鏡操作者による前記内視鏡の操作の各段階における前記内視鏡画像及び前記手技情報を取得する取得部と、
    内視鏡画像及び手技情報と次段階における手技情報とを含む教師データに基づき、内視鏡画像及び手技情報を入力した場合に次段階の手技情報を出力するよう学習された学習モデルと、
    前記取得部が取得した内視鏡画像及び手技情報を前記学習モデルに入力して、次段階の手技情報を出力する出力部と
    を備える手技支援システム。
  23. 内視鏡を操作する内視鏡操作者による前記内視鏡の操作の各段階における前記内視鏡により撮影された内視鏡画像及び前記内視鏡操作者の手技に関する手技情報であって、3Dレーザセンサを用いて検出された前記内視鏡操作者の両腕及び両手の状態データを含む手技情報を取得する取得部と、
    取得した内視鏡画像及び手技情報と次段階における手技情報とを含む教師データに基づき、内視鏡画像と両腕及び両手の状態データを含む手技情報とを入力した場合に次段階の両腕及び両手の状態データを含む手技情報を出力する学習モデルを生成する生成部と
    を備える情報処理装置。
  24. 内視鏡を操作する内視鏡操作者による前記内視鏡の操作の各段階における前記内視鏡により撮影された内視鏡画像及び前記内視鏡操作者の手技に関する手技情報であって、前記内視鏡により撮影された内視鏡画像を取得する内視鏡用プロセッサにおける光量及び画像処理に係るパラメータを含む手技情報を取得する取得部と、
    取得した内視鏡画像及び手技情報と次段階における手技情報とを含む教師データに基づき、内視鏡画像と光量及び画像処理に係るパラメータを含む手技情報とを入力した場合に、次段階における光量及び画像処理に係るパラメータを含む手技情報を出力する学習モデルを生成する生成部と
    を備える情報処理装置。
  25. 内視鏡を操作する内視鏡操作者による前記内視鏡の操作の各段階における前記内視鏡により撮影された内視鏡画像及び前記内視鏡操作者の手技に関する手技情報を取得し、
    前記手技情報は3Dレーザセンサを用いて検出された前記内視鏡操作者の両腕及び両手の状態データを含み、
    取得した内視鏡画像及び手技情報と次段階における手技情報とを含む教師データに基づき、内視鏡画像と両腕及び両手の状態データを含む手技情報とを入力した場合に次段階の両腕及び両手の状態データを含む手技情報を出力するよう学習された学習モデルを生成する
    処理をコンピュータに実行させるプログラム。
  26. 内視鏡を操作する内視鏡操作者による前記内視鏡の操作の各段階における前記内視鏡により撮影された内視鏡画像及び前記内視鏡操作者の手技に関する手技情報を取得し、
    前記手技情報は前記内視鏡により撮影された内視鏡画像を取得する内視鏡用プロセッサにおける光量及び画像処理に係るパラメータを含み、
    取得した内視鏡画像及び手技情報と次段階における手技情報とを含む教師データに基づき、内視鏡画像と光量及び画像処理に係るパラメータを含む手技情報とを入力した場合に、次段階における光量及び画像処理に係るパラメータを含む手技情報を出力するよう学習された学習モデルを生成する
    処理をコンピュータに実行させるプログラム。
  27. 内視鏡を操作する内視鏡操作者による前記内視鏡の操作の各段階における前記内視鏡により撮影された内視鏡画像及び前記内視鏡操作者の手技に関する状態データを含む手技情報をコンピュータが取得し、
    前記手技情報は3Dレーザセンサを用いて検出された前記内視鏡操作者の両腕及び両手の状態データを含み、
    内視鏡画像及び手技情報と次段階における手技情報とを含む教師データに基づき、内視鏡画像と両腕及び両手の状態データを含む手技情報とを入力した場合に次段階の両腕及び両手の状態データを含む手技情報を出力するよう学習された学習モデルに、取得した前記内視鏡画像と両腕及び両手の状態データを含む手技情報とを入力して、次段階の両腕及び両手の状態データを含む手技情報を出力する
    情報処理方法。
  28. 内視鏡を操作する内視鏡操作者による前記内視鏡の操作の各段階における前記内視鏡により撮影された内視鏡画像及び前記内視鏡操作者の手技に関する操作データを含む手技情報をコンピュータが取得し、
    前記手技情報は前記内視鏡により撮影された内視鏡画像を取得する内視鏡用プロセッサにおける光量及び画像処理に係るパラメータを含み、
    内視鏡画像及び手技情報と次段階における手技情報とを含む教師データに基づき、内視鏡画像と光量及び画像処理に係るパラメータを含む手技情報とを入力した場合に次段階における光量及び画像処理に係るパラメータを含む手技情報を出力するよう学習された学習モデルに、取得した前記内視鏡画像と光量及び画像処理に係るパラメータを含む手技情報とを入力して、次段階における光量及び画像処理に係るパラメータを含む手技情報を出力する
    情報処理方法。
  29. 内視鏡を操作する内視鏡操作者による前記内視鏡の操作の各段階における前記内視鏡により撮影された内視鏡画像及び前記内視鏡操作者の手技に関する手技情報であって、3Dレーザセンサを用いて検出された前記内視鏡操作者の両腕及び両手の状態データを含む手技情報を取得する取得部と、
    内視鏡画像及び手技情報と次段階における手技情報とを含む教師データに基づき、内視鏡画像と両腕及び両手の状態データを含む手技情報とを入力した場合に次段階の両腕及び両手の状態データを含む手技情報を出力するよう学習された学習モデルと、
    前記取得部が取得した内視鏡画像と両腕及び両手の状態データを含む手技情報とを前記学習モデルに入力して、次段階の両腕及び両手の状態データを含む手技情報を出力する出力部と
    を備える内視鏡用プロセッサ。
  30. 内視鏡を操作する内視鏡操作者による前記内視鏡の操作の各段階における前記内視鏡により撮影された内視鏡画像及び前記内視鏡操作者の手技に関する手技情報であって、前記内視鏡により撮影された内視鏡画像を取得する内視鏡用プロセッサにおける光量及び画像処理に係るパラメータを含む手技情報を取得する取得部と、
    内視鏡画像及び手技情報と次段階における手技情報とを含む教師データに基づき、内視鏡画像と光量及び画像処理に係るパラメータを含む手技情報とを入力した場合に、次段階における光量及び画像処理に係るパラメータを含む手技情報を出力するよう学習された学習モデルと、
    前記取得部が取得した内視鏡画像と光量及び画像処理に係るパラメータを含む手技情報とを前記学習モデルに入力して、次段階における光量及び画像処理に係るパラメータを含む手技情報を出力する出力部と
    を備える内視鏡用プロセッサ。
JP2021562557A 2019-12-05 2020-11-18 学習モデルの生成方法、プログラム、手技支援システム、情報処理装置、情報処理方法及び内視鏡用プロセッサ Active JP7245360B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019220681 2019-12-05
JP2019220681 2019-12-05
PCT/JP2020/042991 WO2021111879A1 (ja) 2019-12-05 2020-11-18 学習モデルの生成方法、プログラム、手技支援システム、情報処理装置、情報処理方法及び内視鏡用プロセッサ

Publications (2)

Publication Number Publication Date
JPWO2021111879A1 JPWO2021111879A1 (ja) 2021-06-10
JP7245360B2 true JP7245360B2 (ja) 2023-03-23

Family

ID=76221911

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021562557A Active JP7245360B2 (ja) 2019-12-05 2020-11-18 学習モデルの生成方法、プログラム、手技支援システム、情報処理装置、情報処理方法及び内視鏡用プロセッサ

Country Status (3)

Country Link
US (1) US20220277461A1 (ja)
JP (1) JP7245360B2 (ja)
WO (1) WO2021111879A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023037413A1 (ja) * 2021-09-07 2023-03-16 オリンパス株式会社 データ取得システムおよびデータ取得方法
JPWO2023053333A1 (ja) * 2021-09-30 2023-04-06
WO2023119599A1 (ja) * 2021-12-23 2023-06-29 オリンパスメディカルシステムズ株式会社 医療支援システムおよび医療支援方法
CN115359066B (zh) * 2022-10-24 2022-12-27 岱川医疗(深圳)有限责任公司 用于内窥镜的病灶检测方法、装置、电子设备及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001000448A (ja) 1999-06-21 2001-01-09 Hitachi Ltd 手術装置
JP2010108388A (ja) 2008-10-31 2010-05-13 Konica Minolta Medical & Graphic Inc 情報処理装置
JP2017102755A (ja) 2015-12-02 2017-06-08 池上通信機株式会社 機械学習支援装置
WO2018211674A1 (ja) 2017-05-18 2018-11-22 オリンパス株式会社 画像処理装置、画像処理方法およびプログラム
WO2018216283A1 (ja) 2017-05-25 2018-11-29 オリンパス株式会社 集中制御装置及び機器操作方法
WO2019008726A1 (ja) 2017-07-06 2019-01-10 オリンパス株式会社 管状挿入装置
WO2019111512A1 (ja) 2017-12-05 2019-06-13 ソニー・オリンパスメディカルソリューションズ株式会社 医療用情報処理装置、および情報処理方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1027089A (ja) * 1996-07-11 1998-01-27 Fuji Xerox Co Ltd コンピュータ操作支援装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001000448A (ja) 1999-06-21 2001-01-09 Hitachi Ltd 手術装置
JP2010108388A (ja) 2008-10-31 2010-05-13 Konica Minolta Medical & Graphic Inc 情報処理装置
JP2017102755A (ja) 2015-12-02 2017-06-08 池上通信機株式会社 機械学習支援装置
WO2018211674A1 (ja) 2017-05-18 2018-11-22 オリンパス株式会社 画像処理装置、画像処理方法およびプログラム
WO2018216283A1 (ja) 2017-05-25 2018-11-29 オリンパス株式会社 集中制御装置及び機器操作方法
WO2019008726A1 (ja) 2017-07-06 2019-01-10 オリンパス株式会社 管状挿入装置
WO2019111512A1 (ja) 2017-12-05 2019-06-13 ソニー・オリンパスメディカルソリューションズ株式会社 医療用情報処理装置、および情報処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
丸谷 宜史 Takafumi MARUTANI,手術工程に適応的な熟練医の手術手技教示システムの開発 Development of surgical skills training system to teach expert physician's skill appropriate for surgical process,電子情報通信学会技術研究報告 Vol.116 No.37 IEICE Technical Report,日本,一般社団法人電子情報通信学会 The Institute of Electronics,Information and Communication Engineers,2016年05月12日,第116巻,第53頁-第58頁

Also Published As

Publication number Publication date
WO2021111879A1 (ja) 2021-06-10
US20220277461A1 (en) 2022-09-01
JPWO2021111879A1 (ja) 2021-06-10

Similar Documents

Publication Publication Date Title
JP7245360B2 (ja) 学習モデルの生成方法、プログラム、手技支援システム、情報処理装置、情報処理方法及び内視鏡用プロセッサ
US20230190244A1 (en) Biopsy apparatus and system
US20220336078A1 (en) System and method for tracking a portion of the user as a proxy for non-monitored instrument
US20210345893A1 (en) Indicator system
CN105979899B (zh) 用于设备感知柔性工具配准的系统和方法
JP5676058B1 (ja) 内視鏡システム及び内視鏡システムの作動方法
JP5771757B2 (ja) 内視鏡システム及び内視鏡システムの作動方法
JP7323647B2 (ja) 内視鏡検査支援装置、内視鏡検査支援装置の作動方法及びプログラム
US20240024034A2 (en) Systems and methods for hybrid imaging and navigation
US11871904B2 (en) Steerable endoscope system with augmented view
WO2019130868A1 (ja) 画像処理装置、プロセッサ装置、内視鏡システム、画像処理方法、及びプログラム
WO2020165978A1 (ja) 画像記録装置、画像記録方法および画像記録プログラム
US20230009335A1 (en) Guided anatomical manipulation for endoscopic procedures
US20220218180A1 (en) Endoscope insertion control device, endoscope insertion control method, and non-transitory recording medium in which endoscope insertion control program is recorded
JP7457415B2 (ja) コンピュータプログラム、学習モデルの生成方法、及び支援装置
US20220096164A1 (en) Systems and methods for facilitating optimization of an imaging device viewpoint during an operating session of a computer-assisted operation system
US20220322917A1 (en) Endoscope processor, endoscope, and endoscope system
CN113317874A (zh) 一种医学图像处理装置及介质
WO2024029502A1 (ja) 内視鏡検査支援装置、内視鏡検査支援方法、及び、記録媒体
WO2023053333A1 (ja) 処理システム及び情報処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211028

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230310

R150 Certificate of patent or registration of utility model

Ref document number: 7245360

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150