JP2022128414A - 深層学習に基づく気管挿管位置決め方法、装置及び記憶媒体 - Google Patents
深層学習に基づく気管挿管位置決め方法、装置及び記憶媒体 Download PDFInfo
- Publication number
- JP2022128414A JP2022128414A JP2022014750A JP2022014750A JP2022128414A JP 2022128414 A JP2022128414 A JP 2022128414A JP 2022014750 A JP2022014750 A JP 2022014750A JP 2022014750 A JP2022014750 A JP 2022014750A JP 2022128414 A JP2022128414 A JP 2022128414A
- Authority
- JP
- Japan
- Prior art keywords
- target information
- tracheal intubation
- target
- deep learning
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000002627 tracheal intubation Methods 0.000 title claims abstract description 43
- 238000000034 method Methods 0.000 title claims abstract description 31
- 238000013135 deep learning Methods 0.000 title claims abstract description 13
- CURLTUGMZLYLDI-UHFFFAOYSA-N Carbon dioxide Chemical compound O=C=O CURLTUGMZLYLDI-UHFFFAOYSA-N 0.000 claims abstract description 38
- 229910002092 carbon dioxide Inorganic materials 0.000 claims abstract description 19
- 239000001569 carbon dioxide Substances 0.000 claims abstract description 19
- 230000004927 fusion Effects 0.000 claims abstract description 10
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 15
- 239000013598 vector Substances 0.000 claims description 14
- 230000015654 memory Effects 0.000 claims description 13
- 238000001514 detection method Methods 0.000 claims description 12
- 230000006870 function Effects 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 7
- 238000005070 sampling Methods 0.000 claims description 4
- 239000000284 extract Substances 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 5
- 238000012549 training Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 210000003437 trachea Anatomy 0.000 description 3
- 238000009423 ventilation Methods 0.000 description 3
- 206010002091 Anaesthesia Diseases 0.000 description 2
- 230000037005 anaesthesia Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000002695 general anesthesia Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 206010036790 Productive cough Diseases 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000006931 brain damage Effects 0.000 description 1
- 231100000874 brain damage Toxicity 0.000 description 1
- 208000029028 brain injury Diseases 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 210000004704 glottis Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012141 orotracheal intubation Methods 0.000 description 1
- 230000001706 oxygenating effect Effects 0.000 description 1
- 238000006213 oxygenation reaction Methods 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 230000028327 secretion Effects 0.000 description 1
- 210000003802 sputum Anatomy 0.000 description 1
- 208000024794 sputum Diseases 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
- A61B1/000096—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/66—Analysis of geometric attributes of image moments or centre of gravity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/809—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
- G06V10/811—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/102—Modelling of surgical devices, implants or prosthesis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/107—Visualisation of planned trajectories or target regions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10068—Endoscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20016—Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30021—Catheter; Guide wire
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
- G06V2201/031—Recognition of patterns in medical or anatomical images of internal organs
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Surgery (AREA)
- Biomedical Technology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Veterinary Medicine (AREA)
- Heart & Thoracic Surgery (AREA)
- Public Health (AREA)
- Animal Behavior & Ethology (AREA)
- Biophysics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Radiology & Medical Imaging (AREA)
- Bioinformatics & Computational Biology (AREA)
- Databases & Information Systems (AREA)
- Robotics (AREA)
- Computational Linguistics (AREA)
- Quality & Reliability (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Probability & Statistics with Applications (AREA)
- Geometry (AREA)
- Signal Processing (AREA)
- Optics & Photonics (AREA)
- Pathology (AREA)
Abstract
Description
近年、人工知能技術がすさまじい勢いで発展しており、医学分野と麻酔分野においても初歩的に探索されており、気管挿管の面で、より知能化、自動化した挿管装置が初歩的に研究開発されている。2012年、カナダのHemmerlingらは遠隔操縦の気管挿管装置‐ケプラー型気管挿管システム(KIS)を発明し、初めて気管挿管に用いるロボットシステムであり、該操作システムは気管挿管操作を遠隔制御可能であることを初めて検証して実現した。スイスのチューリッヒ大学のBiroらは喉頭部の画像識別技術に基づく自動化内視鏡での気管挿管装置(REALITI)を研究開発し、リアルタイムに画像を識別し、遠位端で自動的に位置決める機能を有し、操作者が内視鏡先端の湾曲運動をマニュアル制御し、画像識別で声門開口を検出した場合、ユーザが1つの専用の押しボタンを保持することで自動モデルをアクティブにすることができ、自動モデルで内視鏡先端が声門開口の幾何中心点へ移動し、気管に入るまでとする。
気道挿管技術が多くの研究進展が取得されたものの、ほとんど相変わらず単一の内視鏡画像に基づく画像形成方式である。挿管する過程の中で、内視鏡画像の視角が比較的小さく、画像のコントラスト、ターゲットの距離、ターゲットの大きさ等のいずれも変化が発生することになり、医師が迅速にターゲットを確定するためにならない。また、痰液及び気道分泌物も気管口、食道口等のターゲットを遮ることになり、干渉を引き起こす。したがって、ターゲットを迅速に確定できる方法が早急に必要である。
本発明はその技術課題を解決するために用いられる技術手段は、深層学習に基づく気管挿管位置決め方法において、
(1)ダイレイテッド畳み込みと特徴マップとの融合に基づくYOLOv3ネットワークを構築し、訓練されたYOLOv3ネットワークを介して画像の特徴情報を抽出し、第1のターゲット情報を得るステップと、
(2)センサーによって検出された二酸化炭素濃度差に従って、ベクトル位置決めの方式で第2のターゲット情報を決定するステップと、
(3)前記第1のターゲット情報と前記第2のターゲット情報を融合して最終的なターゲット位置を得るステップと、を含む。
前記ステップ(1)では、YOLOv3ネットワークは残差モジュールを用いて前記前記内視鏡画像の異なる基準のターゲット特徴情報を抽出し、前記残差モジュールは3つの並行する残差ブロックを備え、残差ブロック毎の首部と尾部に1×1のコンボリューションカーネルを増加し、前記3つの並行する残差ブロックの拡張率が異なり、前記3つの並行する残差ブロック中のダイレイテッド畳み込みのウェイトは共有する。
前記ステップ(1)では、YOLOv3ネットワークの出力層は特徴ピラミッドネットワークを介して2つの異なる基準の特徴マップを生成する。
前記特徴ピラミッドネットワークを介して特徴マップを生成するとは、本層のコンボリューション層から出力した特徴マップをアップサンプリングして、ネットワーク中の前層のコンボリューション層の出力とテンソルをつなぎ合わせて、特徴マップを得ることを指す。
前記ステップ(1)では、YOLOv3ネットワークの損失関数は、検出枠中心座標誤差損失、検出枠高さと幅誤差損失、信頼度誤差損失及び分類誤差損失を備える。
前記ステップ(2)では、センサーは計4個を有し、センサー毎に位置標定を行うことで、直角座標系を確立して、前記座標系に基づいて第2のターゲット情報を決定し、具体的には、
前記ステップ(3)は、具体的に、前記第1のターゲット情報の境界枠の中心座標と前記第2のターゲット情報の中心位置を画像座標系中にマッピングして得られた座標位置の重み付けを行って融合させ、最終的なターゲット位置を得る。
本発明がその技術課題を解決するために用いられる技術手段は、深層学習に基づく気管挿管位置決め装置において、ダイレイテッド畳み込みと特徴マップとの融合に基づくYOLOv3ネットワークを構築し、訓練されたYOLOv3ネットワークを介して画像の特徴情報を抽出し、第1のターゲット情報を得るための第1のターゲット情報取得モジュールと、センサーによって検出された二酸化炭素濃度差に従って、ベクトル位置決めの方式で第2のターゲット情報を決定する第2のターゲット情報取得モジュールと、前記第1のターゲット情報と前記第2のターゲット情報を融合して最終的なターゲット位置を得るための最終的なターゲット位置取得モジュールと、を備える。
本発明がその技術課題を解決するために用いられる技術手段は、コンピュータデバイスにおいて、メモリ及びプロセッサを備え、前記メモリにコンピュータプログラムが記憶され、前記コンピュータプログラムが前記プロセッサに実行される場合、前記プロセッサが上記気管挿管位置決め方法のステップを実行する。
本発明がその技術課題を解決するために用いられる技術手段は、コンピュータ可読記憶媒体において、前記コンピュータ可読記憶媒体にコンピュータプログラムが記憶され、上記の気管挿管位置決め方法を実現するように、前記コンピュータプログラムがプロセッサに実行される。
本発明の実施形態は、モバイル機器、コンピュータデバイス、又は類似の演算装置(例えば、ECU)、システムにおいて実行可能である。コンピュータデバイスを例にして、図1は気管挿管位置決めのコンピュータデバイスのハードウェア構成図である。図1に示すように、このコンピュータデバイスは、1つ又は複数の(図中1つのみ示された)プロセッサ101(プロセッサ101は中央処理装置CPU、画像プロセッサGPU、デジタル信号プロセッサDSP、マイクロプロセッサMCU又はプログラマブル論理デバイスFPGA等の処理装置を含んでもよいが、但しこれに限らない)と、ユーザと交互に入出力するためのインターフェース102と、データを記憶するためのメモリ103と、通信機能に用いる伝送装置104と、を含んでもよい。なお、図1に示される構成はただ意思を表明するだけであり、上記電子装置の構成を限定するものではない。例えば、コンピュータデバイスは、図1に示されるものよりも多い又は少ないモジュールをさらに含んでもよく、又は図1に示されるものとは異なる配置を有する。
入出力インターフェース102は、1つ又は複数のディスプレイ、タッチパネル等に接続され、コンピュータデバイスから伝送されたデータを表示するのに用いられることができ、キーボード、タッチペン、タッチパッド及び/又はマウス等にさらに接続され、例えば、選択、作成、編集等のユーザ指令を入力するのに用いられることができる。
メモリ103は、アプリケーションソフトウェアのソフトウェアプログラム及びモジュール、例えば、本発明実施形態における気管挿管位置決め方法に対応するプログラム指令/モジュールを記憶するのに用いられることができ、プロセッサ101は、メモリ103内に記憶されたソフトウェアプログラム及びモジュールを実行することによって、各種の機能アプリケーション及びデータ処理を実行すると、上記の気管挿管位置決め方法を実現することができる。メモリ103は、高速ランダム・アクセス・メモリを含んでもよく、不揮発性メモリ、例えば、1つ又は複数の磁性記憶装置、フラッシュメモリ、又はその他の不揮発性固体メモリをさらに含んでもよい。ある実例では、メモリ103は、プロセッサ101に対して遠隔に設置されたメモリをさらに含んでもよく、これらの遠隔メモリがネットワークを介してコンピュータデバイスに接続される。上記のネットワークの実例は、インターネット、イントラネット、ローカル・エリア・ネットワーク、移動通信ネット及びその組み合せを含むが、但しこれに限らない。
伝送装置104は、1つのネットワーク経由でデータの送受信に用いられる。上記のネットワークの具体的な実例は、コンピュータデバイスの通信供給者が提供したインターネットを含んでもよい。上記の動作環境下で、本発明は気管挿管位置決め方法を提供した。
図2は本発明第1の実施形態の気管挿管位置決め方法のフローチャートを示している。具体的には、次のようなステップを含む。
ステップ201:ダイレイテッド畳み込みと特徴マップとの融合に基づくYOLOv3ネットワークを構築し、前記YOLOv3ネットワークを介して前記内視鏡画像の特徴情報を抽出し、第1のターゲット情報を得た。
具体的に言えば、気道挿管を行う過程の中で、ターゲット基準の変化が比較的大きく、深層ネットワークにおける小基準のターゲットの語義情報が紛失することになる。しかしながら、従来のYOLOv3バックボーンネットワーク中のコンボリューションカーネルの大きさは固定したものであり、その画像特徴情報を抽出する能力は限りがある。このため、図3に示すように、本実施形態はダイレイテッド畳み込みと特徴との融合に基づくYOLOv3ネットワークを提出した。
まず、図4に示すように、画像からより豊富な特徴を抽出するように、YOLOv3バックボーンネットワークDarknet53を改善し、ウェイトを共有し並行する多分岐ダイレイテッド畳み込み残差モジュール(Multiple Branch Dilated Convolution Block,MD-Block)を設計した。このモジュールは異なる拡張率のダイレイテッド畳み込みカーネルを用いて異なる基準のターゲット特徴情報を抽出すると共に、アップサンプリングとテンソルをつなぎ合わせる技術を介して特徴マップの数を増加し、小ターゲットを検出する精度を引き上げた。もともとの残差ブロックに3つの並行する残差ブロックを用いて取って代わり、残差ブロック毎の首部と尾部に1×1のコンボリューションカーネルを増加することで、チャンネル数の不変を確保した。同時に、3つの異なる拡張率の3×3のダイレイテッド畳み込みを用いてもともとの3×3の普通のコンボリューションに取って代わり、かつ、この3つの並行する残差ブロック中のダイレイテッド畳み込みのウェイトを共有しているものである。本実施形態では、バックボーンネットワークDarknet53中の残差ブロックを設計されたウェイトを共有した並行する多分岐ダイレイテッド畳み込み残差モジュールに全部取り替えた。
次に、より浅層の特徴をさらに検出するために、YOLOv3もともとの出力層を保持する上で、特徴ピラミッドネットワークを介して別の2つの異なる基準の特徴マップを生成する。具体的なプロセスは次の通りである。出力した52×52寸法の特徴マップに対してアップサンプリングを行って、バックボーンネットワークにおける浅層104×104のコンボリューション層の出力とテンソルをつなぎ合わせて、104×104寸法の特徴マップを出力する。類似に、出力した104×104大きさの特徴マップに対してアップサンプリングを行い、バックボーンネットワークにおける208×208大きさのコンボリューション層の出力とテンソルをつなぎ合わせて、208×208寸法の特徴マップを出力する。表1はウェイトを共有した並行する多分岐ダイレイテッド畳み込み残差モジュールのパラメータ配置を書き連ねている。
ステップ202:センサーによって検出された二酸化炭素濃度差に従って、ベクトル位置決めの方式で第2のターゲット情報を決定する。
具体的に言えば、本実施形態は測定して得られた4つの二酸化炭素濃度差に従ってベクトル位置決めアルゴリズムによりターゲットの中心位置を決定する。具体的な方法は次の通りである。4つの二酸化炭素センサーの取付け位置に基づいて、二酸化炭素センサー毎に位置標定を行うことで、直角座標系を確立する。仮にセンサー1、センサー2、センサー3及びセンサー4で測定して得られた二酸化炭素濃度ベクトルをそれぞれOC1、OC2、OC3、OC4とし、θをOC1及びOC3と前記直角座標系中、x軸との挟角、又はOC2及びOC4と前記直角座標系中、y軸との挟角とすると、確立された座標系に基づいて下式によってターゲット中心点の座標位置(x0,y0)を算出することができる。
ステップ203:前記第1のターゲット情報と前記第2のターゲット情報とを融合して最終的なターゲット位置を得る。つまり、画像座標系と二酸化炭素ベクトル位置決め座標系(即ち直角座標系)との転化関係を確立し、複数の二酸化炭素濃度差ベクトル位置決め方法で算出したターゲット中心位置(即ち第2のターゲット情報)を画像座標系中にマッピングし、(b[cx], B[cy])と記す。さらに、それとダイレイテッド畳み込みと特徴との融合に基づいて改善したYOLOv3ネットワークモデルを介して計算して得られた境界枠の中心座標(即ち第1のターゲット情報)とを重み付けて融合し、最終的に正確なターゲット中心座標を得る。具体的には、改善したYOLOv3ネットワークに基づいてまず境界枠毎に4つのずれ量t[x]、t[y]、t[w]、t[h]を予測することで、それぞれ予測したターゲット対象の中心座標、ターゲット予選枠の幅と高さを表す。この他、ネットワークも予選枠にはターゲット対象が存在する確率値及びターゲット対象の所属する類別を評価して出力することになる。仮にターゲット対象の所在するグリッドが画像の左上角からオフセットし、オフセットした長さと幅をそれぞれc[x]、c[y]とし、予測枠の幅と高さをそれぞれp[w]、p[h]とすると、下式によって、ネットワークの画像座標での予測したターゲット境界枠の中心座標情報を得る。
さらに、ネットワークを介して予測したターゲット境界枠の中心座標(即第1のターゲット情報)と複数の二酸化炭素濃度差ベクトル位置決めアルゴリズムで算出したターゲット中心位置(即ち第2のターゲット情報)を画像座標系にマッピングした後得られた座標(b[cx], b[cy])とを重み付けて融合し、得られた最終的なターゲット枠の中心座標は次の通りである。
図5は本発明の第2の実施形態の気管挿管位置決め装置を示す図である。この装置は図2に示される方法フローを実行するのに用いられ、この装置は第1のターゲット情報取得モジュール501と、第2のターゲット情報取得モジュール502と、最終的なターゲット位置取得モジュール503と、を備える。
第1のターゲット情報取得モジュール501は、ダイレイテッド畳み込みと特徴マップとの融合に基づくYOLOv3ネットワークを構築し、訓練されたYOLOv3ネットワークを介して前記内視鏡画像の特徴情報を抽出し、第1のターゲット情報を得るのに用いられる。構築したYOLOv3ネットワークは残差モジュールを用いて前記内視鏡画像の異なる基準のターゲット特徴情報を抽出する。前記残差モジュールは3つの並行する残差ブロックを備え、残差ブロック毎の首部と尾部に1×1のコンボリューションカーネルを増加する。前記3つの並行する残差ブロックの拡張率が異なり、前記3つの並行する残差ブロックにおけるダイレイテッド畳み込みのウェイトを共有するものである。このYOLOv3ネットワークの出力層は特徴ピラミッドネットワークを介して2つの異なる基準の特徴マップを生成する。前記特徴ピラミッドネットワークを介して特徴マップを生成するとは、本層のコンボリューション層から出力した特徴マップをアップサンプリングして、ネットワーク中の前層のコンボリューション層の出力とテンソルをつなぎ合わせて、特徴マップを得ることを指す。このYOLOv3ネットワークの損失関数は、検出枠中心座標誤差損失、検出枠高さと幅誤差損失、信頼度誤差損失と分類誤差損失を備える。第2のターゲット情報取得モジュール502は、センサーによって検出された二酸化炭素濃度差に従ってベクトル位置決めの方式で第2のターゲット情報を決定するのに用いられる。最終的なターゲット位置取得モジュール503は、前記第1のターゲット情報と前記第2のターゲット情報とを融合して最終的なターゲット位置を得るのに用いられる。
2020年10月に上海交通大学医学院付属第九人民医院麻酔課の標準化された訓練における1~2学年のレジデントドクター16名を選んで実験対象とし、この16名のレジデントドクターのいずれも経鼻/経口気管挿管の経験を有しているが、しかし、いずれも本発明の実施形態の使用経験がない。16名のレジデントドクターのいずれも困難気道の模擬人体において40回の操作練習をやり遂げ、あらゆる操作記録も完全に記録されている。全てのレジデントドクターの640回の操作において、平均操作時間は30.39±29.39s、最長時間は310sで、成功した回数は595回であり、成功率は93%であった。
本発明は内視鏡の画像情報と二酸化炭素濃度情報を融合することにより、気管口と食道口の検出効果を高めたことを発見し易い。本発明は従来のYOLOv3のDarknet53バックボーンネットワークを改善し、ウェイトを共有した並行する多分岐ダイレイテッド畳み込み残差モジュールを構築し、バックボーンネットワークの画像特徴を抽出する能力を高めた。次に、YOLOv3もともとの出力層を保留する上で、特徴マップピラミッドを利用して別の2つの異なる基準の特徴マップを生成して、特徴マップに対してアップサンプリングとテンソルをつなぎ合わせ、小寸法のターゲットへの検出効果を引き上げた。
同時に、4つの二酸化炭素濃度差を用いてベクトル位置決めアルゴリズムによりターゲットの中心位置を決定する。最終的に、その得られたターゲット情報と画像で得られたターゲット情報を融合し、気管位置を決定する。本発明とその他の方法とを比べて、気管口及び食道口の検出精度を高めたと共に、マルチモーダル気管挿管補助サンプル装置は模擬人体において気管挿管補助案内を行うことが実行可能であり、比較的満足した操作時間と成功率を有することを実験によって証明した。
Claims (10)
- 深層学習に基づく気管挿管位置決め方法において、
(1)ダイレイテッド畳み込みと特徴マップとの融合に基づくYOLOv3ネットワークを構築し、訓練されたYOLOv3ネットワークを介して画像の特徴情報を抽出し、第1のターゲット情報を得るステップと、
(2)センサーによって検出された二酸化炭素濃度差に従って、ベクトル位置決めの方式で第2のターゲット情報を決定するステップと、
(3)前記第1のターゲット情報と前記第2のターゲット情報を融合して最終的なターゲット位置を得るステップと、を含む。 - 前記ステップ(1)では、YOLOv3ネットワークは残差モジュールを用いて前記前記内視鏡画像の異なる基準のターゲット特徴情報を抽出し、前記残差モジュールは3つの並行する残差ブロックを備え、残差ブロック毎の首部と尾部に1×1のコンボリューションカーネルを増加し、前記3つの並行する残差ブロックの拡張率が異なり、前記3つの並行する残差ブロック中のダイレイテッド畳み込みのウェイトは共有することを特徴とする請求項1に記載の深層学習に基づく気管挿管位置決め方法。
- 前記ステップ(1)では、YOLOv3ネットワークの出力層は特徴ピラミッドネットワークを介して2つの異なる基準の特徴マップを生成することを特徴とする請求項1に記載の深層学習に基づく気管挿管位置決め方法。
- 前記特徴ピラミッドネットワークを介して特徴マップを生成するとは、本層のコンボリューション層から出力した特徴マップをアップサンプリングして、ネットワーク中の前層のコンボリューション層の出力とテンソルをつなぎ合わせて、特徴マップを得ることを指すことを特徴とする請求項3に記載の深層学習に基づく気管挿管位置決め方法。
- 前記ステップ(1)では、YOLOv3ネットワークの損失関数は、検出枠中心座標誤差損失、検出枠高さと幅誤差損失、信頼度誤差損失及び分類誤差損失を備えることを特徴とする請求項1に記載の深層学習に基づく気管挿管位置決め方法。
- 前記ステップ(3)は、具体的に、前記第1のターゲット情報の境界枠の中心座標と前記第2のターゲット情報の中心位置を画像座標系中にマッピングして得られた座標位置の重み付けを行って融合させ、最終的なターゲット位置を得ることを特徴とする請求項1に記載の深層学習に基づく気管挿管位置決め方法。
- 深層学習に基づく気管挿管位置決め装置において、ダイレイテッド畳み込みと特徴マップとの融合に基づくYOLOv3ネットワークを構築し、訓練されたYOLOv3ネットワークを介して画像の特徴情報を抽出し、第1のターゲット情報を得るための第1のターゲット情報取得モジュールと、センサーによって検出された二酸化炭素濃度差に従って、ベクトル位置決めの方式で第2のターゲット情報を決定する第2のターゲット情報取得モジュールと、前記第1のターゲット情報と前記第2のターゲット情報を融合して最終的なターゲット位置を得るための最終的なターゲット位置取得モジュールと、を備えることを特徴とする深層学習に基づく気管挿管位置決め装置。
- メモリ及びプロセッサを備えるコンピュータデバイスにおいて、前記メモリにコンピュータプログラムが記憶され、前記コンピュータプログラムが前記プロセッサに実行される場合、前記プロセッサが請求項1~7のいずれか1項に記載の前記気管挿管位置決め方法のステップを実行することを特徴とするコンピュータデバイス。
- コンピュータ可読記憶媒体において、前記コンピュータ可読記憶媒体にコンピュータプログラムが記憶され、請求項1~7のいずれか1項に記載の気管挿管位置決め方法を実現するように、前記コンピュータプログラムがプロセッサに実行されることを特徴とするコンピュータ可読記憶媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110196669.2 | 2021-02-22 | ||
CN202110196669.2A CN112907539B (zh) | 2021-02-22 | 2021-02-22 | 基于深度学习的气管插管定位方法、装置和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022128414A true JP2022128414A (ja) | 2022-09-01 |
JP7347738B2 JP7347738B2 (ja) | 2023-09-20 |
Family
ID=76124337
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022014750A Active JP7347738B2 (ja) | 2021-02-22 | 2022-02-02 | 深層学習に基づく気管挿管位置決め方法、装置及び記憶媒体 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220265360A1 (ja) |
EP (1) | EP4070714A1 (ja) |
JP (1) | JP7347738B2 (ja) |
CN (1) | CN112907539B (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024075900A1 (ko) * | 2022-10-06 | 2024-04-11 | (의)삼성의료재단 | 소아 기관삽관 깊이추정 방법 및 장치 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113521470A (zh) * | 2021-07-27 | 2021-10-22 | 上海理工大学 | 一种多模态气管插管导引方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150059736A1 (en) * | 2010-04-21 | 2015-03-05 | Chunyuan Qiu | Intubation systems and methods based on airway pattern identification |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW443937B (en) * | 2000-03-10 | 2001-07-01 | Dung Jin Sheng | Method and device for positioning cannula in human trachea |
CN1358548A (zh) * | 2000-12-20 | 2002-07-17 | 董金生 | 人体气管的插管装置 |
US8166967B2 (en) * | 2007-08-15 | 2012-05-01 | Chunyuan Qiu | Systems and methods for intubation |
CN203417385U (zh) * | 2013-07-22 | 2014-02-05 | 内蒙古民族大学 | 二氧化碳检测式气管导管 |
CN108159541A (zh) * | 2018-02-13 | 2018-06-15 | 李武兰 | 一种气管插管引导装置 |
CN112076372A (zh) * | 2019-06-13 | 2020-12-15 | 上海交通大学医学院附属第九人民医院 | 一种基于呼气末二氧化碳浓度分布的插管装置 |
CN110473619B (zh) * | 2019-08-16 | 2022-05-27 | 电子科技大学 | 基于深度学习的纤支镜插管辅助决策系统 |
CN111312371B (zh) * | 2020-02-14 | 2022-06-24 | 首都医科大学附属北京儿童医院 | 针对新生儿气管插管的预警方法、服务器及系统 |
CN111760153A (zh) * | 2020-06-12 | 2020-10-13 | 上海交通大学医学院附属第九人民医院 | 一种气体导航可视化清醒气管插管装置 |
-
2021
- 2021-02-22 CN CN202110196669.2A patent/CN112907539B/zh active Active
-
2022
- 2022-01-26 EP EP22153533.9A patent/EP4070714A1/en active Pending
- 2022-02-02 JP JP2022014750A patent/JP7347738B2/ja active Active
- 2022-02-17 US US17/674,825 patent/US20220265360A1/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150059736A1 (en) * | 2010-04-21 | 2015-03-05 | Chunyuan Qiu | Intubation systems and methods based on airway pattern identification |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024075900A1 (ko) * | 2022-10-06 | 2024-04-11 | (의)삼성의료재단 | 소아 기관삽관 깊이추정 방법 및 장치 |
Also Published As
Publication number | Publication date |
---|---|
US20220265360A1 (en) | 2022-08-25 |
EP4070714A1 (en) | 2022-10-12 |
CN112907539B (zh) | 2021-11-23 |
CN112907539A (zh) | 2021-06-04 |
JP7347738B2 (ja) | 2023-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102014377B1 (ko) | 학습 기반 수술동작 인식 방법 및 장치 | |
WO2021129064A9 (zh) | 姿态获取方法、关键点坐标定位模型的训练方法和装置 | |
US12051199B2 (en) | Image processing method and apparatus, server, medical image processing device and storage medium | |
Lin et al. | AANet: Adaptive attention network for COVID-19 detection from chest X-ray images | |
JP7347738B2 (ja) | 深層学習に基づく気管挿管位置決め方法、装置及び記憶媒体 | |
WO2017133009A1 (zh) | 一种基于卷积神经网络的深度图像人体关节定位方法 | |
CN110390674B (zh) | 图像处理方法、装置、存储介质、设备以及系统 | |
WO2019052062A1 (zh) | 基于人工智能的医学影像报告生成系统及方法 | |
Zhu | Computer Vision‐Driven Evaluation System for Assisted Decision‐Making in Sports Training | |
Peng et al. | Autonomous recognition of multiple surgical instruments tips based on arrow OBB-YOLO network | |
CN111222486B (zh) | 手部姿态识别模型的训练方法、装置、设备及存储介质 | |
Zhao et al. | An intelligent augmented reality training framework for neonatal endotracheal intubation | |
CN110427994A (zh) | 消化道内镜图像处理方法、装置、存储介质、设备及系统 | |
CN116091432A (zh) | 一种用于医疗内窥镜检查的质控方法、装置及计算机设备 | |
CN110570425A (zh) | 一种基于深度强化学习算法的肺结节分析方法及装置 | |
CN118212501A (zh) | 一种肺癌多发病灶检测方法、系统、设备及介质 | |
Liu et al. | Key algorithm for human motion recognition in virtual reality video sequences based on hidden markov model | |
Tian et al. | RGB oralscan video-based orthodontic treatment monitoring | |
Qin et al. | Vision-based pointing estimation and evaluation in toddlers for autism screening | |
CN116687328A (zh) | 导管的移动控制装置、方法及存储介质 | |
Zheng et al. | Self-supervised 3d patient modeling with multi-modal attentive fusion | |
CN115861920A (zh) | 基于方舱医院的病人异常识别方法、装置、服务器及存储介质 | |
CN114121218A (zh) | 应用于手术的虚拟场景构建方法、装置、设备及介质 | |
CN115399840A (zh) | 信息处理方法及相关装置 | |
CN114067422A (zh) | 一种用于辅助驾驶的视线检测方法、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220202 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220302 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230202 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230324 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230630 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230713 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230824 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230824 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7347738 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |