JP2022128414A - 深層学習に基づく気管挿管位置決め方法、装置及び記憶媒体 - Google Patents

深層学習に基づく気管挿管位置決め方法、装置及び記憶媒体 Download PDF

Info

Publication number
JP2022128414A
JP2022128414A JP2022014750A JP2022014750A JP2022128414A JP 2022128414 A JP2022128414 A JP 2022128414A JP 2022014750 A JP2022014750 A JP 2022014750A JP 2022014750 A JP2022014750 A JP 2022014750A JP 2022128414 A JP2022128414 A JP 2022128414A
Authority
JP
Japan
Prior art keywords
target information
tracheal intubation
target
deep learning
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022014750A
Other languages
English (en)
Other versions
JP7347738B2 (ja
Inventor
姜虹
Hong Jiang
夏明�
Ming Xia
常敏
Min Chang
張栄福
rong fu Zhang
李峰
Feng Li
徐天意
tian yi Xu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ninth People's Hospital School Medicine Shanghai Jiao Tong Univ
Original Assignee
Ninth People's Hospital School Medicine Shanghai Jiao Tong Univ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ninth People's Hospital School Medicine Shanghai Jiao Tong Univ filed Critical Ninth People's Hospital School Medicine Shanghai Jiao Tong Univ
Publication of JP2022128414A publication Critical patent/JP2022128414A/ja
Application granted granted Critical
Publication of JP7347738B2 publication Critical patent/JP7347738B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000096Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • G06V10/811Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30021Catheter; Guide wire
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/031Recognition of patterns in medical or anatomical images of internal organs

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Databases & Information Systems (AREA)
  • Robotics (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Probability & Statistics with Applications (AREA)
  • Geometry (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)

Abstract

Figure 2022128414000001
【課題】深層学習に基づく気管挿管位置決め方法、装置及び記憶媒体を提供する。
【解決手段】気管口及び食道口をリアルタイムで迅速に検出する方法は、ダイレイテッド畳み込みと特徴マップとの融合に基づくYOLOv3ネットワークを構築し、訓練されたYOLOv3ネットワークを介して画像の特徴情報を抽出し、第1のターゲット情報を得るステップと、センサーによって検出された二酸化炭素濃度差に従って、ベクトル位置決めの方式で第2のターゲット情報を決定するステップと、前記第1のターゲット情報と前記第2のターゲット情報を融合して最終的なターゲット位置を得るステップと、を含む。
【選択図】図2

Description

本発明はコンピュータ補助医療技術分野に関し、特に、深層学習に基づくマルチモーダル気管挿管位置決め方法及び装置に関する。
気管内挿管は麻酔医師が全身麻酔状態での患者に対して気道管理を行う重要な手段であり、気道の流れが順調であるように保持し、通気し酸素を供給し、呼吸を支持し、酸素化を維持する等の面で重要な役割を果たしている。麻酔医師は気道挿管を行う過程において大変多いチャレンジ、例えば、マスクによる通気困難、挿管困難等に直面することになる。関連文献の報道によれば、全身麻酔を受けた患者において、マスクによる通気困難の発生率は約0.9%~12.8%であり、挿管困難の発生率は約0.5%~10%であり、同時にマスクによる通気困難と挿管困難が現れる発生率は約0.01%~0.07%である。困難又は失敗な気道挿管はしばしば非常に由々しい結果を引き起こすことになり、永久的な脳損傷ひいては死亡を含む。このため、最大限に患者の安全を保証するように、臨床においてよくファイバースコープによる案内下で、覚醒状態において挿管する方式で麻酔医師を補助して患者に対して気道挿管を行っている。
近年、人工知能技術がすさまじい勢いで発展しており、医学分野と麻酔分野においても初歩的に探索されており、気管挿管の面で、より知能化、自動化した挿管装置が初歩的に研究開発されている。2012年、カナダのHemmerlingらは遠隔操縦の気管挿管装置‐ケプラー型気管挿管システム(KIS)を発明し、初めて気管挿管に用いるロボットシステムであり、該操作システムは気管挿管操作を遠隔制御可能であることを初めて検証して実現した。スイスのチューリッヒ大学のBiroらは喉頭部の画像識別技術に基づく自動化内視鏡での気管挿管装置(REALITI)を研究開発し、リアルタイムに画像を識別し、遠位端で自動的に位置決める機能を有し、操作者が内視鏡先端の湾曲運動をマニュアル制御し、画像識別で声門開口を検出した場合、ユーザが1つの専用の押しボタンを保持することで自動モデルをアクティブにすることができ、自動モデルで内視鏡先端が声門開口の幾何中心点へ移動し、気管に入るまでとする。
気道挿管技術が多くの研究進展が取得されたものの、ほとんど相変わらず単一の内視鏡画像に基づく画像形成方式である。挿管する過程の中で、内視鏡画像の視角が比較的小さく、画像のコントラスト、ターゲットの距離、ターゲットの大きさ等のいずれも変化が発生することになり、医師が迅速にターゲットを確定するためにならない。また、痰液及び気道分泌物も気管口、食道口等のターゲットを遮ることになり、干渉を引き起こす。したがって、ターゲットを迅速に確定できる方法が早急に必要である。
本発明が解決しようとする技術課題は深層学習に基づくマルチモーダル気管挿管位置決め方法及び装置を提供し、気管口及び食道口を迅速にリアルタイムで検出することができる。
本発明はその技術課題を解決するために用いられる技術手段は、深層学習に基づく気管挿管位置決め方法において、
(1)ダイレイテッド畳み込みと特徴マップとの融合に基づくYOLOv3ネットワークを構築し、訓練されたYOLOv3ネットワークを介して画像の特徴情報を抽出し、第1のターゲット情報を得るステップと、
(2)センサーによって検出された二酸化炭素濃度差に従って、ベクトル位置決めの方式で第2のターゲット情報を決定するステップと、
(3)前記第1のターゲット情報と前記第2のターゲット情報を融合して最終的なターゲット位置を得るステップと、を含む。
前記ステップ(1)では、YOLOv3ネットワークは残差モジュールを用いて前記前記内視鏡画像の異なる基準のターゲット特徴情報を抽出し、前記残差モジュールは3つの並行する残差ブロックを備え、残差ブロック毎の首部と尾部に1×1のコンボリューションカーネルを増加し、前記3つの並行する残差ブロックの拡張率が異なり、前記3つの並行する残差ブロック中のダイレイテッド畳み込みのウェイトは共有する。
前記ステップ(1)では、YOLOv3ネットワークの出力層は特徴ピラミッドネットワークを介して2つの異なる基準の特徴マップを生成する。
前記特徴ピラミッドネットワークを介して特徴マップを生成するとは、本層のコンボリューション層から出力した特徴マップをアップサンプリングして、ネットワーク中の前層のコンボリューション層の出力とテンソルをつなぎ合わせて、特徴マップを得ることを指す。
前記ステップ(1)では、YOLOv3ネットワークの損失関数は、検出枠中心座標誤差損失、検出枠高さと幅誤差損失、信頼度誤差損失及び分類誤差損失を備える。
前記ステップ(2)では、センサーは計4個を有し、センサー毎に位置標定を行うことで、直角座標系を確立して、前記座標系に基づいて第2のターゲット情報を決定し、具体的には、
Figure 2022128414000002
式中、OC1、OC2、OC3、OC4はそれぞれ4つのセンサーで測定して得た二酸化炭素濃度ベクトルであり、 は 及び と前記直角座標系中 軸との挟角、又はOC2及びOC4と前記直角座標系中、y軸との挟角であり、δは標準化因子である。
前記ステップ(3)は、具体的に、前記第1のターゲット情報の境界枠の中心座標と前記第2のターゲット情報の中心位置を画像座標系中にマッピングして得られた座標位置の重み付けを行って融合させ、最終的なターゲット位置を得る。
本発明がその技術課題を解決するために用いられる技術手段は、深層学習に基づく気管挿管位置決め装置において、ダイレイテッド畳み込みと特徴マップとの融合に基づくYOLOv3ネットワークを構築し、訓練されたYOLOv3ネットワークを介して画像の特徴情報を抽出し、第1のターゲット情報を得るための第1のターゲット情報取得モジュールと、センサーによって検出された二酸化炭素濃度差に従って、ベクトル位置決めの方式で第2のターゲット情報を決定する第2のターゲット情報取得モジュールと、前記第1のターゲット情報と前記第2のターゲット情報を融合して最終的なターゲット位置を得るための最終的なターゲット位置取得モジュールと、を備える。
本発明がその技術課題を解決するために用いられる技術手段は、コンピュータデバイスにおいて、メモリ及びプロセッサを備え、前記メモリにコンピュータプログラムが記憶され、前記コンピュータプログラムが前記プロセッサに実行される場合、前記プロセッサが上記気管挿管位置決め方法のステップを実行する。
本発明がその技術課題を解決するために用いられる技術手段は、コンピュータ可読記憶媒体において、前記コンピュータ可読記憶媒体にコンピュータプログラムが記憶され、上記の気管挿管位置決め方法を実現するように、前記コンピュータプログラムがプロセッサに実行される。
上記の技術手段を用いたため、本発明と従来技術とを比べて、以下の優れた点及び積極的な効果を有する。本発明は内視鏡の画像情報と二酸化炭素濃度情報を融合することにより、気管口と食道口の検出効果を高めた。本発明は従来のYOLOv3のDarknet53バックボーンネットワークを改善し、ウェイトを共有して並行する多分岐ダイレイテッド畳み込み残差モジュールを構築し、バックボーンネットワークの画像特徴を抽出する能力を高めた。次に、YOLOv3もともとの出力層を保留する上で、特徴マップピラミッドを利用して別の2つの異なる基準の特徴マップを生成して、特徴マップに対してアップサンプリングとテンソルをつなぎ合わせ、小寸法のターゲットへの検出効果を引き上げた。同時に、4つの二酸化炭素濃度差を用いてベクトル位置決めアルゴリズムによりターゲットの中心位置を決定する。最終的に、その得られたターゲット情報と画像で得られたターゲット情報を融合し、気管位置を決定する。本発明とその他の方法とを比べて、気管口及び食道口の検出精度を高めたと共に、マルチモーダル気管挿管補助サンプル装置は模擬人体において気管挿管補助案内を行うことが実行可能であり、比較的満足した操作時間と成功率を有することを実験によって証明した。
図1は本発明実施形態の気管挿管位置決め方法のコンピュータデバイスのハードウェア構成図である。 図2は本発明第1の実施形態のフローチャートである。 図3は本発明の第1の実施形態におけるダイレイテッド畳み込みと特徴との融合に基づくYOLOv3ネットワークを示す図である。 図4は本発明の第1の実施形態における残差モジュールを示す図である。 図5は本発明の第2の実施形態の構造を示す図である。
以下、具体的な実施例を合わせて、本発明についてさらに説明する。なお、これらの実施例は本発明を説明するのみに用いられ、本発明の範囲を限定するためのものではない。またなお、本発明に述べられた内容を読んだ後、当業者は本発明について種々の変更又は改正を行うことができ、これらの等価形態も同様に本願に添付される特許請求の範囲に限定される範囲に入る。
本発明の実施形態は、モバイル機器、コンピュータデバイス、又は類似の演算装置(例えば、ECU)、システムにおいて実行可能である。コンピュータデバイスを例にして、図1は気管挿管位置決めのコンピュータデバイスのハードウェア構成図である。図1に示すように、このコンピュータデバイスは、1つ又は複数の(図中1つのみ示された)プロセッサ101(プロセッサ101は中央処理装置CPU、画像プロセッサGPU、デジタル信号プロセッサDSP、マイクロプロセッサMCU又はプログラマブル論理デバイスFPGA等の処理装置を含んでもよいが、但しこれに限らない)と、ユーザと交互に入出力するためのインターフェース102と、データを記憶するためのメモリ103と、通信機能に用いる伝送装置104と、を含んでもよい。なお、図1に示される構成はただ意思を表明するだけであり、上記電子装置の構成を限定するものではない。例えば、コンピュータデバイスは、図1に示されるものよりも多い又は少ないモジュールをさらに含んでもよく、又は図1に示されるものとは異なる配置を有する。
入出力インターフェース102は、1つ又は複数のディスプレイ、タッチパネル等に接続され、コンピュータデバイスから伝送されたデータを表示するのに用いられることができ、キーボード、タッチペン、タッチパッド及び/又はマウス等にさらに接続され、例えば、選択、作成、編集等のユーザ指令を入力するのに用いられることができる。
メモリ103は、アプリケーションソフトウェアのソフトウェアプログラム及びモジュール、例えば、本発明実施形態における気管挿管位置決め方法に対応するプログラム指令/モジュールを記憶するのに用いられることができ、プロセッサ101は、メモリ103内に記憶されたソフトウェアプログラム及びモジュールを実行することによって、各種の機能アプリケーション及びデータ処理を実行すると、上記の気管挿管位置決め方法を実現することができる。メモリ103は、高速ランダム・アクセス・メモリを含んでもよく、不揮発性メモリ、例えば、1つ又は複数の磁性記憶装置、フラッシュメモリ、又はその他の不揮発性固体メモリをさらに含んでもよい。ある実例では、メモリ103は、プロセッサ101に対して遠隔に設置されたメモリをさらに含んでもよく、これらの遠隔メモリがネットワークを介してコンピュータデバイスに接続される。上記のネットワークの実例は、インターネット、イントラネット、ローカル・エリア・ネットワーク、移動通信ネット及びその組み合せを含むが、但しこれに限らない。
伝送装置104は、1つのネットワーク経由でデータの送受信に用いられる。上記のネットワークの具体的な実例は、コンピュータデバイスの通信供給者が提供したインターネットを含んでもよい。上記の動作環境下で、本発明は気管挿管位置決め方法を提供した。
図2は本発明第1の実施形態の気管挿管位置決め方法のフローチャートを示している。具体的には、次のようなステップを含む。
ステップ201:ダイレイテッド畳み込みと特徴マップとの融合に基づくYOLOv3ネットワークを構築し、前記YOLOv3ネットワークを介して前記内視鏡画像の特徴情報を抽出し、第1のターゲット情報を得た。
具体的に言えば、気道挿管を行う過程の中で、ターゲット基準の変化が比較的大きく、深層ネットワークにおける小基準のターゲットの語義情報が紛失することになる。しかしながら、従来のYOLOv3バックボーンネットワーク中のコンボリューションカーネルの大きさは固定したものであり、その画像特徴情報を抽出する能力は限りがある。このため、図3に示すように、本実施形態はダイレイテッド畳み込みと特徴との融合に基づくYOLOv3ネットワークを提出した。
まず、図4に示すように、画像からより豊富な特徴を抽出するように、YOLOv3バックボーンネットワークDarknet53を改善し、ウェイトを共有し並行する多分岐ダイレイテッド畳み込み残差モジュール(Multiple Branch Dilated Convolution Block,MD-Block)を設計した。このモジュールは異なる拡張率のダイレイテッド畳み込みカーネルを用いて異なる基準のターゲット特徴情報を抽出すると共に、アップサンプリングとテンソルをつなぎ合わせる技術を介して特徴マップの数を増加し、小ターゲットを検出する精度を引き上げた。もともとの残差ブロックに3つの並行する残差ブロックを用いて取って代わり、残差ブロック毎の首部と尾部に1×1のコンボリューションカーネルを増加することで、チャンネル数の不変を確保した。同時に、3つの異なる拡張率の3×3のダイレイテッド畳み込みを用いてもともとの3×3の普通のコンボリューションに取って代わり、かつ、この3つの並行する残差ブロック中のダイレイテッド畳み込みのウェイトを共有しているものである。本実施形態では、バックボーンネットワークDarknet53中の残差ブロックを設計されたウェイトを共有した並行する多分岐ダイレイテッド畳み込み残差モジュールに全部取り替えた。
次に、より浅層の特徴をさらに検出するために、YOLOv3もともとの出力層を保持する上で、特徴ピラミッドネットワークを介して別の2つの異なる基準の特徴マップを生成する。具体的なプロセスは次の通りである。出力した52×52寸法の特徴マップに対してアップサンプリングを行って、バックボーンネットワークにおける浅層104×104のコンボリューション層の出力とテンソルをつなぎ合わせて、104×104寸法の特徴マップを出力する。類似に、出力した104×104大きさの特徴マップに対してアップサンプリングを行い、バックボーンネットワークにおける208×208大きさのコンボリューション層の出力とテンソルをつなぎ合わせて、208×208寸法の特徴マップを出力する。表1はウェイトを共有した並行する多分岐ダイレイテッド畳み込み残差モジュールのパラメータ配置を書き連ねている。
Figure 2022128414000003
本実施形態はYOLOv3ネットワークを介して予測した境界枠の中心座標、幅及び高さについて二乗平均誤差損失を用いる。同時に、分類する際、Softmax分類関数に代えて複数のlogstic回帰を使い、バイナリ交差エントロピー関数により境界枠分類損失及び信頼度損失を計算する。仮に得られた特徴マップの大きさをS×Sとし、グリッド毎にB個のアンカー枠が生じ、予選枠毎にネットワークを経て最終的にS×S×B個の境界枠を得、最終的な損失関数L[total]は検出枠中心座標誤差損失L{mid}、検出枠高さと幅誤差損失L[margin]、信頼度誤差損失L[conf]と分類誤差損失L[class]を含む。ある1つの予選枠とリアルフレームとの交差集合の割合がその他の予選枠より大きいと定義すると、この予選枠を用いて現在のターゲットを検出する。
Figure 2022128414000004
上記の各式中、
Figure 2022128414000005
改善したネットワークについて訓練を行う過程の中で、本実施形態は訓練パラメータについて相応の配置を行った。具体的には、batchの大きさを4に設置し、subdivisionsを8に設置し、採集した80枚の画像を8グループに平均に割り振り、それぞれ訓練を行い、重み値の減衰を0.0005に設置し、運動量を0.9に設置した。訓練の後期に、学習の減衰策略をstepに設置し、学習率変動因子を0.1に設置し、ランダム勾配降下法(Stochastic Gradient Descent SGD)を用いてネットワークのパラメータを更新する。
ステップ202:センサーによって検出された二酸化炭素濃度差に従って、ベクトル位置決めの方式で第2のターゲット情報を決定する。
具体的に言えば、本実施形態は測定して得られた4つの二酸化炭素濃度差に従ってベクトル位置決めアルゴリズムによりターゲットの中心位置を決定する。具体的な方法は次の通りである。4つの二酸化炭素センサーの取付け位置に基づいて、二酸化炭素センサー毎に位置標定を行うことで、直角座標系を確立する。仮にセンサー1、センサー2、センサー3及びセンサー4で測定して得られた二酸化炭素濃度ベクトルをそれぞれOC1、OC2、OC3、OC4とし、θをOC1及びOC3と前記直角座標系中、x軸との挟角、又はOC2及びOC4と前記直角座標系中、y軸との挟角とすると、確立された座標系に基づいて下式によってターゲット中心点の座標位置(x0,y0)を算出することができる。
Figure 2022128414000006
式中、δは標準化因子である。
ステップ203:前記第1のターゲット情報と前記第2のターゲット情報とを融合して最終的なターゲット位置を得る。つまり、画像座標系と二酸化炭素ベクトル位置決め座標系(即ち直角座標系)との転化関係を確立し、複数の二酸化炭素濃度差ベクトル位置決め方法で算出したターゲット中心位置(即ち第2のターゲット情報)を画像座標系中にマッピングし、(b[cx], B[cy])と記す。さらに、それとダイレイテッド畳み込みと特徴との融合に基づいて改善したYOLOv3ネットワークモデルを介して計算して得られた境界枠の中心座標(即ち第1のターゲット情報)とを重み付けて融合し、最終的に正確なターゲット中心座標を得る。具体的には、改善したYOLOv3ネットワークに基づいてまず境界枠毎に4つのずれ量t[x]、t[y]、t[w]、t[h]を予測することで、それぞれ予測したターゲット対象の中心座標、ターゲット予選枠の幅と高さを表す。この他、ネットワークも予選枠にはターゲット対象が存在する確率値及びターゲット対象の所属する類別を評価して出力することになる。仮にターゲット対象の所在するグリッドが画像の左上角からオフセットし、オフセットした長さと幅をそれぞれc[x]、c[y]とし、予測枠の幅と高さをそれぞれp[w]、p[h]とすると、下式によって、ネットワークの画像座標での予測したターゲット境界枠の中心座標情報を得る。
Figure 2022128414000007
式中、σはsigmoid関数を表す。
さらに、ネットワークを介して予測したターゲット境界枠の中心座標(即第1のターゲット情報)と複数の二酸化炭素濃度差ベクトル位置決めアルゴリズムで算出したターゲット中心位置(即ち第2のターゲット情報)を画像座標系にマッピングした後得られた座標(b[cx], b[cy])とを重み付けて融合し、得られた最終的なターゲット枠の中心座標は次の通りである。
Figure 2022128414000008
式中、b[x]、b[y]、b[w]、b[h]はそれぞれ最終的に算出したターゲット境界枠の中心座標、幅及び高さを表し、α、βはそれぞれ重み因子を表す。
図5は本発明の第2の実施形態の気管挿管位置決め装置を示す図である。この装置は図2に示される方法フローを実行するのに用いられ、この装置は第1のターゲット情報取得モジュール501と、第2のターゲット情報取得モジュール502と、最終的なターゲット位置取得モジュール503と、を備える。
第1のターゲット情報取得モジュール501は、ダイレイテッド畳み込みと特徴マップとの融合に基づくYOLOv3ネットワークを構築し、訓練されたYOLOv3ネットワークを介して前記内視鏡画像の特徴情報を抽出し、第1のターゲット情報を得るのに用いられる。構築したYOLOv3ネットワークは残差モジュールを用いて前記内視鏡画像の異なる基準のターゲット特徴情報を抽出する。前記残差モジュールは3つの並行する残差ブロックを備え、残差ブロック毎の首部と尾部に1×1のコンボリューションカーネルを増加する。前記3つの並行する残差ブロックの拡張率が異なり、前記3つの並行する残差ブロックにおけるダイレイテッド畳み込みのウェイトを共有するものである。このYOLOv3ネットワークの出力層は特徴ピラミッドネットワークを介して2つの異なる基準の特徴マップを生成する。前記特徴ピラミッドネットワークを介して特徴マップを生成するとは、本層のコンボリューション層から出力した特徴マップをアップサンプリングして、ネットワーク中の前層のコンボリューション層の出力とテンソルをつなぎ合わせて、特徴マップを得ることを指す。このYOLOv3ネットワークの損失関数は、検出枠中心座標誤差損失、検出枠高さと幅誤差損失、信頼度誤差損失と分類誤差損失を備える。第2のターゲット情報取得モジュール502は、センサーによって検出された二酸化炭素濃度差に従ってベクトル位置決めの方式で第2のターゲット情報を決定するのに用いられる。最終的なターゲット位置取得モジュール503は、前記第1のターゲット情報と前記第2のターゲット情報とを融合して最終的なターゲット位置を得るのに用いられる。
2020年10月に上海交通大学医学院付属第九人民医院麻酔課の標準化された訓練における1~2学年のレジデントドクター16名を選んで実験対象とし、この16名のレジデントドクターのいずれも経鼻/経口気管挿管の経験を有しているが、しかし、いずれも本発明の実施形態の使用経験がない。16名のレジデントドクターのいずれも困難気道の模擬人体において40回の操作練習をやり遂げ、あらゆる操作記録も完全に記録されている。全てのレジデントドクターの640回の操作において、平均操作時間は30.39±29.39s、最長時間は310sで、成功した回数は595回であり、成功率は93%であった。
本発明は内視鏡の画像情報と二酸化炭素濃度情報を融合することにより、気管口と食道口の検出効果を高めたことを発見し易い。本発明は従来のYOLOv3のDarknet53バックボーンネットワークを改善し、ウェイトを共有した並行する多分岐ダイレイテッド畳み込み残差モジュールを構築し、バックボーンネットワークの画像特徴を抽出する能力を高めた。次に、YOLOv3もともとの出力層を保留する上で、特徴マップピラミッドを利用して別の2つの異なる基準の特徴マップを生成して、特徴マップに対してアップサンプリングとテンソルをつなぎ合わせ、小寸法のターゲットへの検出効果を引き上げた。
同時に、4つの二酸化炭素濃度差を用いてベクトル位置決めアルゴリズムによりターゲットの中心位置を決定する。最終的に、その得られたターゲット情報と画像で得られたターゲット情報を融合し、気管位置を決定する。本発明とその他の方法とを比べて、気管口及び食道口の検出精度を高めたと共に、マルチモーダル気管挿管補助サンプル装置は模擬人体において気管挿管補助案内を行うことが実行可能であり、比較的満足した操作時間と成功率を有することを実験によって証明した。

Claims (10)

  1. 深層学習に基づく気管挿管位置決め方法において、
    (1)ダイレイテッド畳み込みと特徴マップとの融合に基づくYOLOv3ネットワークを構築し、訓練されたYOLOv3ネットワークを介して画像の特徴情報を抽出し、第1のターゲット情報を得るステップと、
    (2)センサーによって検出された二酸化炭素濃度差に従って、ベクトル位置決めの方式で第2のターゲット情報を決定するステップと、
    (3)前記第1のターゲット情報と前記第2のターゲット情報を融合して最終的なターゲット位置を得るステップと、を含む。
  2. 前記ステップ(1)では、YOLOv3ネットワークは残差モジュールを用いて前記前記内視鏡画像の異なる基準のターゲット特徴情報を抽出し、前記残差モジュールは3つの並行する残差ブロックを備え、残差ブロック毎の首部と尾部に1×1のコンボリューションカーネルを増加し、前記3つの並行する残差ブロックの拡張率が異なり、前記3つの並行する残差ブロック中のダイレイテッド畳み込みのウェイトは共有することを特徴とする請求項1に記載の深層学習に基づく気管挿管位置決め方法。
  3. 前記ステップ(1)では、YOLOv3ネットワークの出力層は特徴ピラミッドネットワークを介して2つの異なる基準の特徴マップを生成することを特徴とする請求項1に記載の深層学習に基づく気管挿管位置決め方法。
  4. 前記特徴ピラミッドネットワークを介して特徴マップを生成するとは、本層のコンボリューション層から出力した特徴マップをアップサンプリングして、ネットワーク中の前層のコンボリューション層の出力とテンソルをつなぎ合わせて、特徴マップを得ることを指すことを特徴とする請求項3に記載の深層学習に基づく気管挿管位置決め方法。
  5. 前記ステップ(1)では、YOLOv3ネットワークの損失関数は、検出枠中心座標誤差損失、検出枠高さと幅誤差損失、信頼度誤差損失及び分類誤差損失を備えることを特徴とする請求項1に記載の深層学習に基づく気管挿管位置決め方法。
  6. 前記ステップ(2)では、センサーは計4個を有し、センサー毎に位置標定を行うことで、直角座標系を確立して、前記座標系に基づいて第2のターゲット情報を決定し、具体的には、
    Figure 2022128414000009
    式中、OC1、OC2、OC3、OC4はそれぞれ4つのセンサーで測定して得た二酸化炭素濃度ベクトルであり、θはOC1及びOC3と前記直角座標系中、x軸との挟角又はOC2及びOC4と前記直角座標系中、y軸との挟角であり、δは標準化因子であることを特徴とする請求項1に記載の深層学習に基づく気管挿管位置決め方法。
  7. 前記ステップ(3)は、具体的に、前記第1のターゲット情報の境界枠の中心座標と前記第2のターゲット情報の中心位置を画像座標系中にマッピングして得られた座標位置の重み付けを行って融合させ、最終的なターゲット位置を得ることを特徴とする請求項1に記載の深層学習に基づく気管挿管位置決め方法。
  8. 深層学習に基づく気管挿管位置決め装置において、ダイレイテッド畳み込みと特徴マップとの融合に基づくYOLOv3ネットワークを構築し、訓練されたYOLOv3ネットワークを介して画像の特徴情報を抽出し、第1のターゲット情報を得るための第1のターゲット情報取得モジュールと、センサーによって検出された二酸化炭素濃度差に従って、ベクトル位置決めの方式で第2のターゲット情報を決定する第2のターゲット情報取得モジュールと、前記第1のターゲット情報と前記第2のターゲット情報を融合して最終的なターゲット位置を得るための最終的なターゲット位置取得モジュールと、を備えることを特徴とする深層学習に基づく気管挿管位置決め装置。
  9. メモリ及びプロセッサを備えるコンピュータデバイスにおいて、前記メモリにコンピュータプログラムが記憶され、前記コンピュータプログラムが前記プロセッサに実行される場合、前記プロセッサが請求項1~7のいずれか1項に記載の前記気管挿管位置決め方法のステップを実行することを特徴とするコンピュータデバイス。
  10. コンピュータ可読記憶媒体において、前記コンピュータ可読記憶媒体にコンピュータプログラムが記憶され、請求項1~7のいずれか1項に記載の気管挿管位置決め方法を実現するように、前記コンピュータプログラムがプロセッサに実行されることを特徴とするコンピュータ可読記憶媒体。
JP2022014750A 2021-02-22 2022-02-02 深層学習に基づく気管挿管位置決め方法、装置及び記憶媒体 Active JP7347738B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202110196669.2 2021-02-22
CN202110196669.2A CN112907539B (zh) 2021-02-22 2021-02-22 基于深度学习的气管插管定位方法、装置和存储介质

Publications (2)

Publication Number Publication Date
JP2022128414A true JP2022128414A (ja) 2022-09-01
JP7347738B2 JP7347738B2 (ja) 2023-09-20

Family

ID=76124337

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022014750A Active JP7347738B2 (ja) 2021-02-22 2022-02-02 深層学習に基づく気管挿管位置決め方法、装置及び記憶媒体

Country Status (4)

Country Link
US (1) US20220265360A1 (ja)
EP (1) EP4070714A1 (ja)
JP (1) JP7347738B2 (ja)
CN (1) CN112907539B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024075900A1 (ko) * 2022-10-06 2024-04-11 (의)삼성의료재단 소아 기관삽관 깊이추정 방법 및 장치

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113521470A (zh) * 2021-07-27 2021-10-22 上海理工大学 一种多模态气管插管导引方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150059736A1 (en) * 2010-04-21 2015-03-05 Chunyuan Qiu Intubation systems and methods based on airway pattern identification

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW443937B (en) * 2000-03-10 2001-07-01 Dung Jin Sheng Method and device for positioning cannula in human trachea
CN1358548A (zh) * 2000-12-20 2002-07-17 董金生 人体气管的插管装置
US8166967B2 (en) * 2007-08-15 2012-05-01 Chunyuan Qiu Systems and methods for intubation
CN203417385U (zh) * 2013-07-22 2014-02-05 内蒙古民族大学 二氧化碳检测式气管导管
CN108159541A (zh) * 2018-02-13 2018-06-15 李武兰 一种气管插管引导装置
CN112076372A (zh) * 2019-06-13 2020-12-15 上海交通大学医学院附属第九人民医院 一种基于呼气末二氧化碳浓度分布的插管装置
CN110473619B (zh) * 2019-08-16 2022-05-27 电子科技大学 基于深度学习的纤支镜插管辅助决策系统
CN111312371B (zh) * 2020-02-14 2022-06-24 首都医科大学附属北京儿童医院 针对新生儿气管插管的预警方法、服务器及系统
CN111760153A (zh) * 2020-06-12 2020-10-13 上海交通大学医学院附属第九人民医院 一种气体导航可视化清醒气管插管装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150059736A1 (en) * 2010-04-21 2015-03-05 Chunyuan Qiu Intubation systems and methods based on airway pattern identification

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024075900A1 (ko) * 2022-10-06 2024-04-11 (의)삼성의료재단 소아 기관삽관 깊이추정 방법 및 장치

Also Published As

Publication number Publication date
US20220265360A1 (en) 2022-08-25
EP4070714A1 (en) 2022-10-12
CN112907539B (zh) 2021-11-23
CN112907539A (zh) 2021-06-04
JP7347738B2 (ja) 2023-09-20

Similar Documents

Publication Publication Date Title
KR102014377B1 (ko) 학습 기반 수술동작 인식 방법 및 장치
WO2021129064A9 (zh) 姿态获取方法、关键点坐标定位模型的训练方法和装置
US12051199B2 (en) Image processing method and apparatus, server, medical image processing device and storage medium
Lin et al. AANet: Adaptive attention network for COVID-19 detection from chest X-ray images
JP7347738B2 (ja) 深層学習に基づく気管挿管位置決め方法、装置及び記憶媒体
WO2017133009A1 (zh) 一种基于卷积神经网络的深度图像人体关节定位方法
CN110390674B (zh) 图像处理方法、装置、存储介质、设备以及系统
WO2019052062A1 (zh) 基于人工智能的医学影像报告生成系统及方法
Zhu Computer Vision‐Driven Evaluation System for Assisted Decision‐Making in Sports Training
Peng et al. Autonomous recognition of multiple surgical instruments tips based on arrow OBB-YOLO network
CN111222486B (zh) 手部姿态识别模型的训练方法、装置、设备及存储介质
Zhao et al. An intelligent augmented reality training framework for neonatal endotracheal intubation
CN110427994A (zh) 消化道内镜图像处理方法、装置、存储介质、设备及系统
CN116091432A (zh) 一种用于医疗内窥镜检查的质控方法、装置及计算机设备
CN110570425A (zh) 一种基于深度强化学习算法的肺结节分析方法及装置
CN118212501A (zh) 一种肺癌多发病灶检测方法、系统、设备及介质
Liu et al. Key algorithm for human motion recognition in virtual reality video sequences based on hidden markov model
Tian et al. RGB oralscan video-based orthodontic treatment monitoring
Qin et al. Vision-based pointing estimation and evaluation in toddlers for autism screening
CN116687328A (zh) 导管的移动控制装置、方法及存储介质
Zheng et al. Self-supervised 3d patient modeling with multi-modal attentive fusion
CN115861920A (zh) 基于方舱医院的病人异常识别方法、装置、服务器及存储介质
CN114121218A (zh) 应用于手术的虚拟场景构建方法、装置、设备及介质
CN115399840A (zh) 信息处理方法及相关装置
CN114067422A (zh) 一种用于辅助驾驶的视线检测方法、装置及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220302

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230824

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230824

R150 Certificate of patent or registration of utility model

Ref document number: 7347738

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150