JP2024518723A - スモークレベル推定のための電子装置及び方法 - Google Patents

スモークレベル推定のための電子装置及び方法 Download PDF

Info

Publication number
JP2024518723A
JP2024518723A JP2023564455A JP2023564455A JP2024518723A JP 2024518723 A JP2024518723 A JP 2024518723A JP 2023564455 A JP2023564455 A JP 2023564455A JP 2023564455 A JP2023564455 A JP 2023564455A JP 2024518723 A JP2024518723 A JP 2024518723A
Authority
JP
Japan
Prior art keywords
smoke
image
physical space
level
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023564455A
Other languages
English (en)
Inventor
コ-カイ ホアン
ワンシン スー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JP2024518723A publication Critical patent/JP2024518723A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • G06F18/2193Validation; Performance evaluation; Active pattern learning techniques based on specific statistical tests
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B18/04Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating
    • A61B18/12Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating by passing a current through the tissue to be heated, e.g. high-frequency current
    • A61B18/14Probes or electrodes therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • G06F18/2178Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/273Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion removing elements interfering with the pattern to be recognised
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B2018/00571Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body for achieving a particular surgical effect
    • A61B2018/00595Cauterization
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2218/00Details of surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B2218/001Details of surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body having means for irrigation and/or aspiration of substances to and/or from the surgical site
    • A61B2218/007Aspiration
    • A61B2218/008Aspiration for smoke evacuation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Otolaryngology (AREA)
  • Plasma & Fusion (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Surgical Instruments (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)

Abstract

スモーク推定のための電子装置を提供する。電子装置は、物理的空間の複数の画像のうちの第1の画像を受け取る。電子装置は、受け取った第1の画像に対する訓練済みニューラルネットワークモデルの適用に基づいて物理的空間内のスモークを検出する。電子装置は、物理的空間内の検出されたスモーク、及びスモークの検出に対応する訓練済みニューラルネットワークモデルの出力に基づいて、物理的空間のヒートマップを生成する。電子装置は、生成されたヒートマップの正規化に基づいて物理的空間内のスモークのレベルを推定する。【選択図】 図1

Description

〔関連出願との相互参照/引用による組み入れ〕
なし。
本開示の様々な実施形態は、スモークレベルの推定に関する。具体的には、本開示の様々な実施形態は、スモークレベルの推定のための電子装置及び方法に関する。
医療技術の進歩は、外科手術などの健康及び医療サービスの様々な発展をもたらした。従来、外科医は、外科手術中に(電気焼灼装置などの)電気手術装置を利用することがある。電気焼灼装置を使用する際の一般的副生成物として、サージカルスモーク(surgical smoke)を挙げることができる。サージカルスモークは、外科手術中に電気焼灼装置のプローブからの加熱による組織の破壊に起因して発生することがある。通常、サージカルスモークは、外科手術が行われている手術部位に高濃度で局在して、外科手術中に手術部位の可視性を妨げることがある。さらに、頻繁にサージカルスモークに曝されると、外科医及び補助スタッフなどのサージカルスモークを吸入した職員の健康に悪影響が及ぶ恐れがある。場合によっては、高濃度のサージカルスモークによって外科医及び補助スタッフの目及び上気道に炎症が生じることもある。
手術室又は手術部位における従来のスモーク検出法は、特殊センサなどのさらなるハードウェアを必要とする場合があり、このためこのようなハードウェアの設置コスト及びメンテナンスコストが増加してしまうことがある。また、このような方法では、手術室内の強力な光によってリアルタイムスモーク検出の結果も不正確になる。従来の方法では、手術室からのスモークの除去のために、排煙設備を適宜に手動で作動させることが必要となり得る。手術中に手動で排煙設備を作動させることは、外科医及び補助スタッフにとって不便と考えられる。さらに、このような手動による排煙法では、手術部位又は手術室からのスモークの除去が正確又は効果的でない場合もある。
当業者には、説明したシステムと、本出願の残り部分において図面を参照しながら示す本開示のいくつかの態様とを比較することにより、従来の慣習的な手法の限界及び不利点が明らかになるであろう。
実質的に少なくとも1つの図に関連して図示及び/又は説明し、特許請求の範囲にさらに完全に示すような、電子スモークレベル推定装置及び方法を提供する。
全体を通じて同じ要素を同じ参照符号によって示す添付図面を参照しながら本開示の以下の詳細な説明を検討することにより、本開示のこれらの及びその他の特徴及び利点を理解することができる。
本開示の実施形態による、スモークレベル推定のための例示的なネットワーク環境を示すブロック図である。 本開示の実施形態による、スモークレベル推定のための例示的な電子装置を示すブロック図である。 本開示の実施形態による、スモークレベル推定のための例示的な動作を図3Bと共に示す図である。 本開示の実施形態による、スモークレベル推定のための例示的な動作を図3Aと共に示す図である。 本開示の実施形態による、スモークレベル推定に基づく物理的空間の可視性強化のための例示的な方法を示す図である。 本開示の実施形態による、スモークレベル推定に基づく物理的空間の可視性強化のための例示的な方法を示す図である。 本開示の実施形態による、スモークレベル推定のための例示的な方法を示すフローチャートである。
開示する物理的空間内のスモークレベル推定のための電子装置及び方法では、後述する実装を見出すことができる。本開示の例示的な態様は、物理的空間(例えば、手術部位又は手術室)の複数の画像のうちの第1の画像を受け取るように構成できる電子装置を提供する。電子装置は、受け取った第1の画像に訓練済みニューラルネットワークモデルを適用するように構成することができる。電子装置は、訓練済みニューラルネットワークモデルの適用に基づいて物理的空間内のスモークを検出するように構成することができる。電子装置は、物理的空間内の検出されたスモーク、及びスモークの検出に対応する訓練済みニューラルネットワークモデルの出力に基づいて、物理的空間のヒートマップを生成するように構成することができる。電子装置は、生成されたヒートマップの正規化に基づいて物理的空間内のスモークのレベルを推定するように構成することができる。
ある実施形態によれば、電子装置は、受け取った第1の画像の各画素サブセットに対応するスモークを、スモークの強度の複数のカテゴリのうちの特定のカテゴリに分類するように構成することができる。この分類は、各画素サブセットに対応する訓練済みニューラルネットワークモデルの信頼スコアに基づくことができる。電子装置は、スモークの分類に基づいてヒートマップに重みを割り当てるように構成することができる。電子装置は、割り当てられた重みに基づいて、それぞれが複数のカテゴリのうちの特定のカテゴリに対応する複数の領域を決定するようにさらに構成することができる。複数の領域の各領域は、(軽度のスモーク、中度のスモーク、又は重度のスモークなどの)特定のカテゴリに分類された画素サブセットを含むことができる。
ある実施形態によれば、電子装置は、決定された複数の領域間の1又は2以上の重複領域を決定するようにさらに構成することができる。電子装置は、ヒートマップから1又は2以上の重複領域を排除するようにさらに構成することができる。電子装置は、1又は2以上の重複領域の排除に基づいて物理的空間内のスモークのレベルを推定するようにさらに構成される。ある実施形態によれば、電子装置は、推定されるスモークのレベルに基づいて物理的空間からスモークを排気するように排煙装置を制御するよう構成することができる。
電子装置は、訓練済みニューラルネットワークモデルの利用によってスモークのレベルを推定することができ、従ってスモーク検出のために(専用センサなどの)さらなるハードウェアを使用する必要性を排除することができる。訓練済みニューラルネットワークモデルを使用することで、外科手術中のスモークのリアルタイム推定の精度を高めることができる。電子装置は、推定されるスモークのレベルに基づいて物理的空間からスモークを排気するように排煙装置を自動的に制御する(排煙装置の自動スイッチオン又はスイッチオフなどを行う)ことにより、外科手術中の手術部位の可視性を向上させるとともに、外科医及び補助スタッフに健康的な作業環境を提供することができる。また、排煙装置の自動制御は、手術スタッフの手動労力を伴わずに手術室からのスモークの排気を可能にし、従ってユーザの利便性、物理的空間からのスモークの除去の正確さ及び精度を向上させることができる。従って、電子装置は、スモークレベル推定及び(手術部位又は手術室などの)物理的空間からのスモーク排気のためのロバストな方法を提供することができる。
図1は、本開示の実施形態による、スモークレベル推定のための例示的なネットワーク環境を示すブロック図である。図1にはネットワーク環境100を示す。ネットワーク環境100は、電子装置102、サーバ104、画像取り込み装置114、及び排煙装置116を含むことができる。電子装置102は、ヒートマップ110を生成するように構成されたニューラルネットワークモデル108を含むことができる。画像取り込み装置114は、第1の画像106A、第2の画像106B及び第Nの画像106Nなどの複数の画像106を取り込むことができる。ネットワーク環境100は、通信ネットワーク112をさらに含むことができる。電子装置102、サーバ104、画像取り込み装置114及び排煙装置116は、通信ネットワーク112を介して互いに通信することができる。
電子装置102は、訓練済みニューラルネットワークモデル108の適用によって(手術部位又は手術室などの)物理的空間内のスモークのレベルを推定するように構成できる好適なロジック、回路及び/又はインターフェイスを含むことができる。電子装置102は、推定されたスモークのレベルに基づいて物理的空間からスモークを排気するように排煙装置116を制御するようさらに構成することができる。ある実施形態では、電子装置102を、サーバ104から訓練済みニューラルネットワークモデル108を受け取るように構成することができる。別の実施形態では、電子装置102を、ニューラルネットワークモデル108を生成し、訓練データに基づいてニューラルネットワークモデルを訓練するようにさらに構成することができる。いくつかの事例では、電子装置102が、サーバ104から(スモークに関する1又は2以上の特徴などの)訓練データを受け取ることができる。さらに、電子装置102は、画像取り込み装置114の作動を制御するとともに画像取り込み装置114の1又は2以上の撮像パラメータを制御し、制御に基づいて画像取り込み装置114から複数の画像106を受け取ることができる。電子装置102の例としては、以下に限定するわけではないが、コンピュータ装置、スマートフォン、電子ヘルスケア装置、携帯電話機、ゲーム装置、メインフレームマシン、サーバ、コンピュータワークステーション、及び/又は消費者向け電子(CE)装置を挙げることができる。
サーバ104は、様々な用途のための複数のニューラルネットワークモデルを記憶するように構成できる好適なロジック、回路及びインターフェイス及び/又はコードを含むことができる。例えば、複数のニューラルネットワークモデルは、スモーク検出のための1又は2以上の特徴を使用して訓練できるニューラルネットワークモデル108を含むことができる。サーバ104は、訓練済みニューラルネットワークモデル108を電子装置102に送信することができる。サーバ104は、(電子装置102などの)複数の電子装置と通信して、新たな訓練データを定期的に生成するための情報を収集することができる。サーバ104は、生成された訓練データを定期的に電子装置102に送信することができる。サーバ104は、クラウドサーバとして実装され、ウェブアプリケーション、クラウドアプリケーション、ハイパーテキスト転送プロトコル(HTTP)リクエスト、リポジトリ操作、及びファイル転送などを通じて動作を実行することができる。サーバ104の他の実装例としては、以下に限定するわけではないが、データベースサーバ、ファイルサーバ、ウェブサーバ、メディアサーバ、アプリケーションサーバ、メインフレームサーバ、又はクラウドコンピューティングサーバを挙げることができる。
少なくとも1つの実施形態では、当業者に周知の複数の技術を使用することにより、サーバ104を複数の分散型クラウドベースリソースとして実装することができる。当業者であれば、本開示の範囲は、サーバ104及び電子装置102を2つの別個のエンティティとして実装することに限定されるものではないと理解するであろう。いくつかの実施形態では、本開示の範囲から逸脱することなく、サーバ104の機能を全体的に又は少なくとも部分的に電子装置102に組み込むこともできる。
(ディープニューラルネットワークなどの)ニューラルネットワークモデル108は、例えば(単複の)活性化関数、重みの数、コスト関数、正則化関数、入力サイズ、及び層の数などのハイパーパラメータによって定めることができる。ニューラルネットワークモデル108は、複数の層状に配置された人工ニューロンをノードとする計算ネットワーク又はシステムとすることができる。ニューラルネットワークモデル108の複数の層は、入力層、1又は2以上の隠れ層、及び出力層を含むことができる。複数の層の各層は1又は2以上のノード(又は、例えば円によって表される人工ニューロン)を含むことができる。入力層の全てのノードの出力は、(単複の)隠れ層の少なくとも1つのノードに結合することができる。同様に、各隠れ層の入力は、ニューラルネットワークモデル108の他の層の少なくとも1つのノードの出力に結合することができる。各隠れ層の出力は、ニューラルネットワークモデル108の他の層の他の層の少なくとも1つのノードの入力に結合することができる。最終層の(単複の)ノードは、少なくとも1つの隠れ層から入力を受け取って結果を出力することができる。層の数及び各層のノード数は、ニューラルネットワークモデル108のハイパーパラメータから決定することができる。このようなパラメータは、ニューラルネットワークモデル108の訓練前、訓練中、又は訓練後に設定することができる。ある実施形態によれば、電子装置102は、ニューラルネットワークモデル108を、複数の画像106に基づくスモーク検出、ヒートマップに基づく(軽度のスモーク、中度のスモーク、又は重度のスモークなどの)スモーク分類、及びスモークレベル推定のために訓練するように構成することができる。別の実施形態では、サーバ104が、ニューラルネットワークモデル108を訓練するように構成され、電子装置102上にホストされたニューラルネットワークモデル108を定期的に更新することができる。
ニューラルネットワークモデル108の各ノードは、ニューラルネットワークモデル108の訓練中に調整できるパラメータセットを有する数学関数(例えば、シグモイド関数又は正規化線形ユニット(rectified linear unit))に対応することができる。パラメータセットは、例えば重みパラメータ及び正則化パラメータなどを含むことができる。各ノードは、ニューラルネットワークモデル108の他の(単複の)層(例えば、前の(単複の)層)のノードからの1又は2以上の入力に基づいて、数学関数を使用して出力を計算することができる。ニューラルネットワークモデル108のノードの全部又は一部は、同じ又は異なる数学関数に対応することができる。
ある実施形態によれば、電子装置102は、受け取った第1の画像106A内の1又は2以上の画素サブセットに関連する1又は2以上の特徴に基づいてニューラルネットワークモデル108を訓練して訓練済みニューラルネットワークモデル108を取得することができる。ニューラルネットワークモデル108は、スモークを検出してヒートマップ110を生成するように訓練することができる。1又は2以上の特徴は、1又は2以上の画素サブセットにおけるスモークの強度、1又は2以上の画素サブセットにおけるスモークの形状、或いは1又は2以上の画素サブセットにおけるスモークの色のうちの少なくとも1つを含むことができる。例えば、電子装置102は、ニューラルネットワークモデル108を訓練するためにニューラルネットワークモデル108に複数の画像を入力することができる。例えば、これらの画像は、異なる形状のスモーク、異なる色のスモーク、及び(重度のスモーク、中度のスモーク、軽度のスモークなどの)異なるタイプのスモークなどの画像を含むことができる。ニューラルネットワークモデル108は、入力画像に基づいてスモークを検出し、スモークを分類し、スモークのレベルを推定するように訓練することができる。別の実施形態では、ニューラルネットワークモデル108を、スモークの強度、スモークの形状又はスモークの色などの訓練データセットの特徴に基づいてスモークを検出するように事前訓練することができる。
ニューラルネットワークモデル108の訓練では、(スモークの第1の画像106Aなどの)所与の入力に対する(スモークレベル推定などの)最終層の出力がニューラルネットワークモデル108の損失関数に基づく(スモークレベル推定に対応するグランドトゥルース画像などの)正しい結果に一致するかどうかに基づいて、ニューラルネットワークモデル108の各ノードの1又は2以上のパラメータを更新することができる。上記プロセスは、損失関数の最小値を達成して訓練エラーを最小化できるまで同じ又は異なる入力について繰り返すことができる。当業では複数の訓練法が知られており、これらは、例えば以下に限定するわけではないが、勾配降下法、確率的勾配降下法、バッチ勾配降下法、勾配ブースト法及びメタヒューリスティック法などを含むことができる。
ある実施形態では、ニューラルネットワークモデル108が、例えば電子装置102上で実行可能なアプリケーションのソフトウェアコンポーネントとして実装できる電子データを含むことができる。ニューラルネットワークモデル108は、電子装置102などの処理装置による実行のために、ライブラリ、外部スクリプト、又はその他のロジック/命令に依拠することができる。ニューラルネットワークモデル108は、電子装置102などのコンピュータ装置がスモークの検出及びヒートマップ110の生成に関連する1又は2以上の動作を実行することを可能にすることができる。これに加えて又は代えて、ニューラルネットワークモデル108は、プロセッサ、(人工知能(AI)アクセラレータチップなどの)コプロセッサ、マイクロプロセッサ、フィールドプログラマブルゲートアレイ(FPGA)、又は特定用途向け集積回路(ASIC)を含むハードウェアを使用して実装することもできる。いくつかの実施形態では、ニューラルネットワークモデル108を、ハードウェア及びソフトウェアの両方の組み合わせを使用して実装することもできる。
ニューラルネットワークモデル108の例としては、以下に限定するわけではないが、ディープニューラルネットワーク(DNN)、畳み込みニューラルネットワーク(CNN)、CNN-再帰型ニューラルネットワーク(CNN-RNN)、R-CNN、Fast R-CNN、Faster R-CNN、(YOLOv3などの)You Only Look Once(YOLO)ネットワーク、CNN+ANN、敵対的生成ネットワーク(GAN)、及び/又はこのようなネットワークの組み合わせを挙げることができる。いくつかの実施形態では、ニューラルネットワークモデル108が、複数のディープニューラルネットワーク(DNN)のハイブリッドアーキテクチャに基づくことができる。
図1では、電子装置102と一体化されたニューラルネットワークモデル108を示しているが、本開示はこのように限定されるものではない。従って、いくつかの実施形態では、本開示の範囲から逸脱することなく、ニューラルネットワークモデル108を電子装置102から分離することもできる。
ヒートマップ110は、カラーコーディング法を使用して複数の画像106のうちの第1の画像106Aに基づいて物理的空間内の検出されたスモークの大きさ又は強度をグラフィックで表現したものとすることができる。電子装置102は、物理的空間内の検出されたスモークと、訓練済みニューラルネットワークモデル108による検出されたスモークの(重度のスモーク、中度のスモーク、又は軽度のスモークなどの)分類とに基づいてヒートマップ110を生成するように構成することができる。ヒートマップ110は、カラーコーディング法を利用して第1の画像106A内の画素の異なる値を表すことができる。例えば、ヒートマップ110は、訓練済みニューラルネットワークモデル108の出力として、受け取られた第1の画像106Aの複数の画素の画素サブセット毎に異なる色を含むことができる。ある実施形態では、訓練済みニューラルネットワークモデル108によるスモーク検出の信頼スコアに基づいてヒートマップ110に重み付けすることができる。例えば、スモークの強度の複数のカテゴリのうちの特定のカテゴリへのスモークの分類に基づいてヒートマップ110に重みを割り当てることができる。重み付けされたヒートマップ110は、スモークレベルの推定のために物理的空間内のスモークを定量化するために使用することができる。ヒートマップ110及び重みの割り当ての詳細については、例えば図3A及び図3Bでさらに説明する。
通信ネットワーク112は、電子装置102、サーバ104、画像取り込み装置114及び排煙装置116が互いに通信できるようにする通信媒体を含むことができる。例えば、電子装置102は、通信ネットワーク112を介して画像取り込み装置114から(第1の画像106Aなどの)複数の画像106を受け取ることができる。別の例では、電子装置102が、通信ネットワーク112を介してサーバ104からニューラルネットワークモデル108の訓練データを受け取ることができる。通信ネットワーク114は、有線接続又は無線接続の一方とすることができる。通信ネットワーク112の例としては、以下に限定するわけではないが、インターネット、クラウドネットワーク、ワイヤレスフィデリティ(Wi-Fi)ネットワーク、(ロングタームエボリューション又は第5世代新無線(5G NR)などの)モバイルワイヤレスネットワーク、パーソナルエリアネットワーク(PAN)、ローカルエリアネットワーク(LAN)、又はメトロポリタンエリアネットワーク(MAN)を挙げることができる。ネットワーク環境100内の様々な装置は、様々な有線及び無線通信プロトコルに従って通信ネットワーク112に接続するように構成することができる。このような有線及び無線通信プロトコルの例としては、以下に限定するわけではないが、伝送制御プロトコル及びインターネットプロトコル(TCP/IP)、ユーザデータグラムプロトコル(UDP)、ハイパーテキスト転送プロトコル(HTTP)、ファイル転送プロトコル(FTP)、ZigBee、EDGE、IEEE802.11、ライトフィデリティ(Li-Fi)、802.16、IEEE802.11s、IEEE802.11g、マルチホップ通信、無線アクセスポイント(AP)、装置間通信、セルラー通信プロトコル及びBluetooth(BT)通信プロトコルのうちの少なくとも1つを挙げることができる。
画像取り込み装置114は、電子装置102からの制御信号に基づいて複数の画像106を取り込むように構成できる好適なロジック、回路及びインターフェイス、及び/又はコードを含むことができる。画像取り込み装置114は、解像度、視野、フレームレート(例えば、1秒当たりフレーム数)及び倍率などの1又は2以上のパラメータを含むことができる。画像取り込み装置114のパラメータは、電子装置102によって制御することができる。1又は2以上の実施形態では、画像取り込み装置114が、外科手術のビデオの(複数の画像106などの)複数のフレームを記録して、記憶のために電子装置102又はサーバ104に送信することができる。画像取り込み装置114の例としては、以下に限定するわけではないが、イメージセンサ、広角カメラ、アクションカメラ、閉回路テレビ(CCTV)カメラ、カムコーダ、デジタルカメラ、カメラ付き電話機、飛行時間カメラ(ToFカメラ)、暗視カメラ、全天球カメラ、パノラマカメラ、アクションカメラ、広角カメラ、閉回路テレビ(CCTV)カメラ、360度画像取り込み能力を有するその他の画像取り込み装置、又はその他の画像取り込み装置を挙げることができる、
排煙装置116は、推定されるスモーク検出レベルに基づいて(手術部位又は手術室などの)物理的空間からスモークを排気する好適なロジック、回路、及びインターフェイス、ハードウェアコンポーネント、及び/又はコードを含むことができる。排煙装置116は、ハウジング、1又は2以上の吸引ファン、吸引ファンに結合された変速モータ、ハウジングに取り外し可能に取り付けられた異なる直径の1又は2以上の吸引チューブ、吸引チューブの下流の1又は2以上のエアフィルタ、及び(腹腔鏡手術用途などの)用途に応じてその他のコンポーネントを含むことができる。当業者であれば、排煙装置116は、本明細書で説明するコンポーネント又はシステムに加えて、他の好適なコンポーネント又はシステムを含むこともできると理解するであろう。他のコンポーネント又はシステムの詳細な説明については、簡潔にするために本開示からは省略する。ある実施形態では、電子装置102が、物理的空間内の推定されるスモーク検出レベルに基づいて排煙装置116の作動及び非作動を制御することができる。別の実施形態では、電子装置102が、物理的空間内の推定されるスモーク検出レベルに基づいて排煙装置116のモータ及び吸引ファンの速度を制御することができる。
動作中、画像取り込み装置114は、外科手術中に(手術部位又は手術室などの)物理的空間の複数の画像106を取り込むように構成することができる。例えば、外科手術は、1又は2以上の外科医及び/又は補助スタッフが行うことができる。別の例では、外科手術が、外科医による外科手術の実行をロボットシステムが遠隔的に又は手術室内で支援できるロボット支援手術であることができる。外科手術では、患者の組織を焼灼するために(電気焼灼装置などの)電気手術装置が使用されることがある。このような事例では、電気焼灼装置の使用によって手術部位に(サージカルスモークなどの)スモークが発生することがある。いくつかの実施形態では、画像取り込み装置114が、外科手術を支援するために外科手術のビデオをリアルタイムで取り込むことができる。
電子装置102は、画像取り込み装置114から(手術部位又は手術室などの)物理的空間の複数の画像106のうちの第1の画像106Aを受け取るように構成することができる。例えば、複数の画像106は、画像取り込み装置114によって取り込まれた外科手術のビデオの異なるフレームであることができる。ある実施形態によれば、電子装置102は、画像取り込み装置114からリアルタイムで、電子装置102のメモリから、又はサーバ104から通信ネットワーク112を介して、のうちの少なくとも1つによって複数の画像106のうちの第1の画像106Aを受け取るように構成することができる。第1の画像106Aを受け取る詳細については、例えば図3Aでさらに説明する。
電子装置102は、受け取られた第1の画像106Aに訓練済みニューラルネットワークモデル108を適用するようにさらに構成することができる。電子装置102は、訓練済みニューラルネットワークモデル108の適用に基づいて物理的空間内のスモークを検出するように構成することができる。スモークの検出の詳細については、例えば図3Aにさらに示す。
電子装置102は、物理的空間内の検出されたスモーク、及びスモークの検出に対応する訓練済みニューラルネットワークモデル108の出力に基づいて、(手術部位又は手術室などの)物理的空間のヒートマップ110を生成するように構成することができる。ある実施形態によれば、電子装置102は、受け取られた第1の画像106Aの複数の画素の各画素サブセットに対応する信頼スコアを訓練済みニューラルネットワークモデル108の出力として取得するように構成することができる。信頼スコアは、受け取られた第1の画像106Aの各画素サブセットに対応するスモークの検出に関連することができる。電子装置102は、各画素サブセットの信頼スコアに基づいてヒートマップ110を生成することができる。ヒートマップ110の生成の詳細については、例えば図3Aにさらに示す。
ある実施形態によれば、電子装置102は、訓練済みニューラルネットワークモデル108に基づいて、受け取られた第1の画像106Aの各画素サブセットに対応するスモークを、スモークの強度の複数のカテゴリのうちの特定のカテゴリに分類するように構成することができる。この分類は、各画素サブセットに対応する信頼スコアに基づくことができる。例えば、スモークの強度の複数のカテゴリは、軽度のスモーク、中度のスモーク、及び重度のスモークを含むことができる。さらに、電子装置102は、スモークの分類に基づいてヒートマップ110に重みを割り当てることができる。スモークの分類及び重みの割り当ての詳細については、例えば図3Aにさらに示す。
ある実施形態によれば、電子装置102は、割り当てられた重みに基づいて、それぞれが複数のカテゴリのうちの特定のカテゴリに対応する複数の領域をさらに決定することができる。複数の領域の各領域は、特定のカテゴリに分類された画素サブセットを含むことができる。電子装置102は、決定された複数の領域間の1又は2以上の重複領域をさらに決定して、ヒートマップ110から重複領域を排除することができる。複数の領域の決定及び重複領域の排除の詳細については、例えば図3A及び図3Bにさらに示す。
電子装置102は、重複領域を排除した後にヒートマップ110をさらに正規化することができる。例えば、ヒートマップの正規化は、ヒートマップの値を0~1の範囲に調整することを含むことができる。電子装置102は、正規化に基づいて物理的空間内のスモークのレベルを推定することができる。いくつかの実施形態では、物理的空間の第1の画像106A内の推定されるスモークのレベルが0~1の範囲であることができる。スモークのレベルの推定の詳細については、例えば図3Bにさらに示す。
ある実施形態によれば、電子装置102は、推定されたスモークのレベルに基づいて物理的空間からスモークを排気するように排煙装置116を制御するようさらに構成することができる。排煙装置116の制御の詳細については、例えば図3Bにさらに示す。
ある実施形態によれば、電子装置102は、推定されたスモークのレベルに基づいて物理的空間の第1の可視性レベルを示す第1の画像106Aを表示するようにディスプレイ画面を制御するよう構成することができる。電子装置102は、第1の可視性レベルが可視性閾値よりも低い場合に物理的空間からスモークを排気するように排煙装置116をさらに制御することができる。電子装置102は、スモークの排気に基づいて物理的空間の複数の画像106のうちの(第2の画像106Bなどの)第2の画像を表示するようにディスプレイ画面を制御することができる。第2の画像106Bは、可視性閾値以上の第2の可視性レベルを示すことができる。スモークを排気するように排煙装置116を制御する詳細については、例えば図4Aにさらに示す。
ある実施形態によれば、電子装置102は、推定されたスモークのレベルに基づいて、物理的空間の第1の可視性レベルを示す第1の画像106Aを表示するようにディスプレイ画面を制御するよう構成することができる。電子装置102は、第1の可視性レベルが可視性閾値よりも低い場合、第1の画像106Aにヘイズ除去プロセス(dehazing process)をさらに適用することができる。電子装置102は、ヘイズ除去プロセスの適用に基づいて、物理的空間の複数の画像106のうちの第2の画像106Bを表示するようにディスプレイ画面をさらに制御することができる。第2の画像106Bは、可視性閾値以上の第2の可視性レベルを示すことができる。例えば、第2の画像106Bは、ヘイズ除去された第1の画像106Aであることができる。ヘイズ除去プロセスの適用の詳細については、例えば図4Bにさらに示す。
図2は、本開示の実施形態による、スモークレベル推定のための例示的な電子装置を示すブロック図である。図2の説明は、図1の要素に関連して行う。図2には電子装置102のブロック図200を示す。電子装置102は、回路202、メモリ204、入力/出力(I/O)装置206、及びネットワークインターフェイス208を含むことができる。回路202は、メモリ204、I/O装置206及びネットワークインターフェイス208に通信可能に結合することができる。いくつかの実施形態では、メモリ204がニューラルネットワークモデル108を含むことができる。I/O装置206は、ディスプレイ画面206Aをさらに含むことができる。
回路202は、電子装置102によって実行される異なる動作に関連するプログラム命令を実行するように構成できる好適なロジック、回路及びインターフェイスを含むことができる。例えば、回路202は、物理的空間の(第1の画像106Aなどの)画像に訓練済みニューラルネットワークモデル108を適用して物理的空間内のスモークを検出し、検出されたスモークに基づいて重み付けされた(ヒートマップ110などの)ヒートマップを生成し、重み付けされたヒートマップの正規化に基づいてスモークのレベルを推定するように構成することができる。回路202は、独立したプロセッサとして実装できる1又は2以上の特殊処理ユニットを含むことができる。ある実施形態では、1又は2以上の特殊処理ユニットを、1又は2以上の特殊処理ユニットの機能をまとめて実行する統合プロセッサ又はプロセッサ群として実装することができる。回路202は、当業で周知の複数のプロセッサ技術に基づいて実装することができる。回路202の実装例は、X86ベースのプロセッサ、グラフィックプロセッシングユニット(GPU)、縮小命令セットコンピューティング(RISC)プロセッサ、特定用途向け集積回路(ASIC)プロセッサ、複合命令セットコンピューティング(CISC)プロセッサ、マイクロコントローラ、中央処理装置(CPU)、及び/又はその他の制御回路とすることができる。
メモリ204は、回路202によって実行されるプログラム命令を記憶するように構成できる好適なロジック、回路及びインターフェイスを含むことができる。メモリ204は、ニューラルネットワークモデル108を記憶するように構成することができる。メモリ204は、画像取り込み装置114から受け取られた複数の画像106と、生成されたヒートマップ110とを記憶するように構成することができる。メモリ204は、サーバ104から受け取られた、ニューラルネットワークモデル108を訓練するための訓練データを記憶するようにさらに構成することができる。メモリ204の実装例としては、以下に限定するわけではないが、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、電気的に消去可能なプログラマブルリードオンリメモリ(EEPROM)、ハードディスクドライブ(HDD)、固体ドライブ(SSD)、CPUキャッシュ、及び/又はセキュアデジタル(SD)カードなどを挙げることができる。
I/O装置206は、(外科医又は手術スタッフなどの)ユーザから入力を受け取り、受け取った入力に基づいて(第1の画像106Aを表示することなどの)出力を提供するように構成できる好適なロジック、回路及びインターフェイスを含むことができる。様々な入力及び出力装置を含むことができるI/O装置206は、回路202と通信するように構成することができる。例えば、I/O装置206は、(重度のスモーク、中度のスモーク、又は軽度のスモークなどの)スモークの強度の複数のカテゴリのうちのユーザ定義カテゴリのスモークを検出するためのユーザ入力を受け取ることができる。I/O装置206は、物理的空間の第1の可視性レベルを示す第1の画像106Aを表示することができるディスプレイ画面206Aをさらに含むことができる。ディスプレイ画面206Aは、物理的空間の第1の可視性レベルとは異なる第2の可視性レベルを示すことができる第2の画像106Bをさらに表示することができる。I/O装置206の例としては、以下に限定するわけではないが、タッチ画面、ディスプレイ装置、キーボード、マウス、ジョイスティック、マイク、及びスピーカを挙げることができる。
ネットワークインターフェイス208は、通信ネットワーク112を介して回路202、サーバ104、画像取り込み装置114及び排煙装置116間の通信を容易にするように構成できる好適なロジック、回路及びインターフェイスを含むことができる。ネットワークインターフェイス208は、(Bluetooth(商標)などの)無線接続又は(ローカルエリアネットワーク(LAN)ケーブルなどの)有線接続を介して回路202を画像取り込み装置114及び排煙装置116に接続するようにさらに構成することができる。ネットワークインターフェイス208は、様々な既知の技術を使用して通信ネットワーク112との間の電子装置102の有線又は無線通信をサポートするように実装することができる。ネットワークインターフェイス208は、以下に限定するわけではないが、アンテナ、無線周波数(RF)トランシーバ、1又は2以上の増幅器、チューナ、1又は2以上の発振器、デジタルシグナルプロセッサ、コーダ-デコーダ(CODEC)チップセット、加入者IDモジュール(SIM)カード、又はローカルバッファ回路を含むことができる。ネットワークインターフェイス208は、インターネット、イントラネットなどのネットワーク、又はセルラー電話ネットワーク、無線ローカルエリアネットワーク(LAN)及びメトロポリタンエリアネットワーク(MAN)などの無線ネットワークと無線通信を介して通信するように構成することができる。無線通信は、グローバルシステムフォーモバイルコミュニケーションズ(GSM)、拡張データGSM環境(EDGE)、広帯域符号分割多重アクセス(W-CDMA)、ロングタームエボリューション(LTE)、5G NR、符号分割多重アクセス(CDMA)、時分割多重アクセス(TDMA)、Bluetooth(商標)、(IEEE802.11a、IEEE802.11b、IEEE802.11g又はIEEE802.11nなどの)ワイヤレスフィデリティ(WiFi)、ボイスオーバーインターネットプロトコル(VoIP)、ライトフィデリティ(Li-Fi)、ワールドワイド・インターオペラビリティ・フォー・マイクロウェーブ・アクセス(Wi-MAX)、電子メール用プロトコル、インスタントメッセージ、及びショートメッセージサービス(SMS)などの複数の通信標準、プロトコル及び技術のうちの1つ又は2つ以上を使用するように構成することができる。
図1で説明したような電子装置102によって実行される機能又は動作は、回路202によって実行することができる。回路202によって実行される動作については、例えば図3A、図3B、図4A及び図4Bで詳細に説明する。
図3Aに、本開示の実施形態による、スモークレベル推定のための例示的な動作を示す。図3Aの説明は、図1及び図2の要素に関連して行う。図3Aには、本明細書で説明する302~316の例示的な動作を示すブロック図300Aを示す。ブロック図300Aに示す例示的な動作は302から開始することができ、図1の電子装置102又は図2の回路202などのいずれかのコンピュータシステム、装置又はデバイスによって実行することができる。
302において、物理的空間の複数の画像106のうちの第1の画像302Aを受け取ることができる。ある実施形態によれば、回路202は、画像取り込み装置114から複数の画像106のうちの第1の画像302Aを受け取るように構成することができる。例えば、第1の画像302Aは、外科手術の(患者の手術部位などの)手術野の画像とすることができる。別の例では、第1の画像302Aを、外科手術を実行できる手術室の画像とすることができる。第1の画像106Aは、画像取り込み装置114によって取り込まれたビデオの第1のフレームに対応することができる。
ある実施形態によれば、回路202は、電子装置102のオンラインモード動作時に画像取り込み装置114から第1の画像302Aをリアルタイムで受け取るように構成することができる。回路202は、画像取り込み装置114からビデオの(複数の画像106などの)複数のフレームの各フレームをリアルタイムで受け取ることができる。別の実施形態では、回路202を、電子装置102のオフラインモード動作時に電子装置102のメモリ204又はサーバ104から第1の画像302Aを受け取るように構成することができる。
304において、受け取られた第1の画像302Aに訓練済みニューラルネットワークモデル108を適用することができる。ある実施形態によれば、回路202は、(手術部位又は手術室などの)物理的空間内のスモークの検出のために、受け取られた第1の画像302Aに訓練済みニューラルネットワークモデル108を適用するように構成することができる。回路202は、訓練済みニューラルネットワークモデル108に第1の画像302Aを入力することができる。いくつかの実施形態では、回路202が、スモークの検出のために、受け取った第1の画像302A内の(異なる画素サブセットなどの)異なる領域に訓練済みニューラルネットワークモデル108を適用することができる。
306において、第1の画像302Aに対する訓練済みニューラルネットワークモデル108の適用に基づいて物理的空間内のスモークを検出することができる。ある実施形態によれば、回路202は、第1の画像302Aに対する訓練済みニューラルネットワークモデル108の適用に基づいて物理的空間内のスモークを検出するように構成することができる。
訓練済みニューラルネットワークモデル108は、受け取られた第1の画像302Aの1又は2以上の画素サブセットにおけるスモークの強度、形状及び色などの特徴の検出によって物理的空間内のスモークを検出することができる。例示的なシナリオでは、第1の画像302Aが、電気焼灼装置から放出されたスモークを示すことができる。ニューラルネットワークモデル108は、第1の画像302A内のスモークの検出に基づいて物理的空間内のスモークを検出することができる。
308において、受け取られた第1の画像302Aの各画素サブセットに対応する信頼スコアを取得することができる。ある実施形態によれば、回路202は、受け取られた第1の画像302Aの各画素サブセットに対応する信頼スコアを訓練済みニューラルネットワークモデル108の出力として取得するように構成することができる。信頼スコアは、受け取られた第1の画像302Aの各画素サブセットに対応するスモークの検出に関連することができる。ある例では、信頼スコアが、入力された第1の画像302A内のスモークをニューラルネットワークモデル108が検出する信頼度を指定することができる。いくつかの事例では、信頼スコアを、2値(0又は1)又は0~1の尤度を表す浮動小数点数とすることができる。信頼スコアが高ければ高いほど、ニューラルネットワークモデル108の信頼度が高いことを示すことができる。
例えば、外科手術は、手術室内の患者の腹部領域において行うことができる。第1の画像302Aは、患者の腹部領域において外科手術が行われているシーンと、電気焼灼装置からのスモークとを含むことができる。第1の画像302Aは、患者の腹部領域に入射する1又は2以上の光源からの光の反射をさらに含むことができる。ある実施形態では、第1の画像302Aの(1又は2以上の画素サブセットなどの)1又は2以上の領域がスモークを含むことができ、第1の画像302Aの他の領域が光の反射を含むことができる。回路202は、受け取られた第1の画像302Aの画素サブセット毎のスモークの検出の信頼スコアを訓練済みニューラルネットワークモデル108の出力として取得することができる。ある実施形態では、信頼スコアが0~1の範囲内であることができる。
例えば、ニューラルネットワークモデル108は、第1の画像302Aの第1の画素サブセットにおいてスモークを検出し、第1の画像302Aの第1の画素サブセットにおけるスモークの検出に対応する0.95の信頼スコアを出力することができる。回路202は、第1の画素サブセットにおける検出されたスモークに対応する0.95の信頼スコアを取得することができる。さらに、ニューラルネットワークモデル108は、第1の画像302Aの第2の画素サブセットにおいてスモークの不在を検出し、第1の画像302Aの第2の画素サブセットにおいて検出されたスモークの不在に対応する0.90の信頼スコアを出力することができる。回路202は、第1の画像302Aの第2の画素サブセットにおける検出されたスモークの不在に対応する0.90の信頼スコアを取得することができる。
いくつかの実施形態では、ニューラルネットワークモデル108が、スモークの強度、形状及び色などのスモークの特徴を複数の画素の第3の画素サブセット内の特徴と比較することができる。例えば、ニューラルネットワークモデル108は、第3の画素サブセットにおける一致する強度及び一致する形状のスモークに基づいて第3の画素サブセットにおけるスモークを検出したものの、スモークの色は一致しないことがある。このような場合、ニューラルネットワークモデル108は、第3の画素サブセットにおけるスモークの検出に対応する低い信頼スコア(例えば、0.86)を出力することができる。ある実施形態では、ニューラルネットワークモデル108が、複数の画素の画素毎に信頼スコアを出力することができる。
310において、物理的空間内の検出されたスモーク、及びスモークの検出に対応する訓練済みニューラルネットワークモデル108の(信頼スコアなどの)出力に基づいて、物理的空間のヒートマップ310Aを生成することができる。ある実施形態によれば、回路202は、物理的空間内の検出されたスモーク、及びスモークの検出に対応する訓練済みニューラルネットワークモデル108の(画素サブセット毎の信頼スコアなどの)出力に基づいて、物理的空間のヒートマップ310Aを生成するように構成することができる。
いくつかの実施形態では、ニューラルネットワークモデル108を、ヒートマップ310Aを生成するように訓練することができる。例示的なシナリオでは、受け取られた第1の画像302A内の画素サブセットに関連する特徴に基づいてヒートマップ310Aを生成することができる。例えば、ヒートマップ310Aは、物理的空間内のスモークの視覚的表現であることができる。スモークが外科手術の手術部位などの特定のスポットに局在している場合には、ヒートマップ310A内の特定のカラースキームを使用して、手術部位におけるスモークの濃度を物理的空間の他の領域と区別することができる。回路202は、第1の画像302Aの異なる領域における検出されたスモークの濃度に基づいて、第1の画像302Aの各画素サブセットに対応する色を割り当てることができる。例えば、ヒートマップ310Aのカラースキームは、高濃度のスモークについては濃い赤色を含むことができ、中濃度のスモークについては明るいオレンジ色を含むことができ、低濃度のスモークについては黄色を含むことができる。ヒートマップ310Aのカラースキームは、スモークが存在しないと考えられる画素に対応する青色をさらに含むことができる。例えば、回路202は、検出されたスモークの痕跡が存在しないと考えられる画素に対応する濃い青色を割り当てることができる。別の例では、回路202が、スモークの痕跡がわずかに存在すると考えられる画素に対応する薄い青色を割り当てることができる。ヒートマップには、本開示の範囲から逸脱することなく、スモークの濃度又は強度を表すために他のカラースキームを使用することもできる。
312において、受け取られた第1の画像302Aの各画素サブセットに対応するスモークを、訓練済みニューラルネットワークモデル108に基づいてスモークの強度の複数のカテゴリのうちの特定のカテゴリに分類することができる。ある実施形態によれば、回路202は、受け取られた第1の画像302Aの各画素サブセットに対応するスモークを、訓練済みニューラルネットワークモデル108に基づいてスモークの強度の複数のカテゴリのうちの特定のカテゴリに分類するように構成することができる。この分類は、各画素サブセットに対応する信頼スコアに基づくことができる。
複数のカテゴリは、例えば軽度のスモーク、中度のスモーク、及び重度のスモークを含むことができる。例示的なシナリオでは、外科手術中に電気焼灼装置の近傍に(濃いスモークなどの)スモークが集中することがある。ニューラルネットワークモデル108は、電気焼灼装置の近傍で検出されたスモークに対応する画素の信頼スコアを0.92として出力することができる。ニューラルネットワークモデル108は、スモークの検出及び信頼スコアに基づいて、第1の画像302A内の電気焼灼装置の近傍のスモークを重度のスモークとして分類することができる。
さらに、電気焼灼装置の周辺のスモークは、電気焼灼装置の近傍のスモークに比べて濃度が薄い可能性がある。ニューラルネットワークモデル108は、第1の画像302A内の電気焼灼装置の周囲で検出されたスモークに対応する画素の信頼スコアを0.90として出力することができる。ニューラルネットワークモデル108は、スモークの検出及び信頼スコアに基づいて、第1の画像302A内の電気焼灼装置の周辺のスモークを中度のスモークとして分類することができる。
さらに、電気焼灼装置から離れたスモークは、電気焼灼装置の周辺のスモークと比べて濃度が薄い可能性がある。ニューラルネットワークモデル108は、第1の画像302A内の電気焼灼装置から離れて検出されたスモークに対応する画素の信頼スコアを0.86として出力することができる。ニューラルネットワークモデル108は、スモークの検出及び信頼スコアに基づいて、第1の画像302A内の電気焼灼装置から離れたスモークを軽度のスモークとして分類することができる。
ある実施形態によれば、回路202は、複数のカテゴリのうちのユーザ定義カテゴリのスモークの検出に対応するユーザ入力を受け取ることができる。例示的なシナリオでは、回路202が、外科手術を行っている外科医又は補助スタッフからユーザ入力を受け取ることができる。例えば、外科医は、スモークが重度のスモークである場合に物理的空間からのスモークの排気を必要とすることができる。回路202は、外科医から「重度のスモーク」の検出に対応するユーザ入力を受け取ることができる。回路202は、ユーザ入力に基づいて、その後の排気のためにニューラルネットワークモデル108によるスモークの分類を利用して重度のスモークを検出することができる。
314において、スモークの分類に基づいてヒートマップ310Aに重みを割り当てることができる。ある実施形態によれば、回路202は、スモークの分類に基づいてヒートマップ310Aに重みを割り当てるように構成することができる。例示的なシナリオでは、割り当てられる重みが0~1の範囲であることができる。例えば、ヒートマップ310Aの重度のスモークとして分類されるスモークを含む画素に対応する1又は2以上の第1の領域には「1」の重みを割り当てることができる。ヒートマップ310Aの中度のスモークとして分類されるスモークを含む画素に対応する1又は2以上の第2の領域には「0.5」の重みを割り当てることができる。ヒートマップ310Aの軽度のスモークとして分類される検出されたスモークを含む画素に対応する1又は2以上の第3の領域には「0.1」の重みを割り当てることができる。ヒートマップ310Aの検出されたスモークを含まない画素に対応する1又は2以上の第4の領域には「0」の重みを割り当てることができる。なお、0~1のスケールの重みは一例として示すものにすぎず、ヒートマップ310Aへの重みの割り当てには、本開示の範囲から逸脱することなく他のスケールを使用することもできる。
316において、割り当てられた重みに基づいて複数の領域を決定することができる。複数の領域の各領域は、複数のカテゴリの特定のカテゴリに対応することができる。ある実施形態によれば、回路202は、割り当てられた重みに基づいて、それぞれが複数のカテゴリの特定のカテゴリに対応する複数の領域を決定するように構成することができる。複数の領域の各領域は、特定のカテゴリに分類された画素サブセットを含むことができる。いくつかの実施形態では、回路202が、訓練済みニューラルネットワークモデル108によって(スモークなどの)関心物体を含んでいると予測されるバウンディングボックスに基づいて複数の領域を決定することができる。訓練済みニューラルネットワークモデル108は、第1の画像302A内の(スモークなどの)物体を検出するためにバウンディングボックスを予測することができる。例えば、バウンディングボックスは、異なるカテゴリの検出されたスモークを含むことができる複数の領域の境界(矩形又は円形境界)を定めることができる。ある実施形態によれば、訓練済みニューラルネットワークモデル108の出力は、(スモークなどの)関心物体のバウンディングボックス座標を含むことができる。
例えば、回路202は、生成されたヒートマップ310A内の第1の領域316A、第2の領域316B、第3の領域316C、第4の領域316D、第5の領域316E及び第6の領域316Fなどの複数の領域を決定することができる。例示的なシナリオでは、決定された第1の領域316Aが、第1の領域316Aに対応する画素に割り当てられた「1」の重みに基づいて重度のスモークのカテゴリに対応することができる。決定された第2の領域316Bは、第2の領域316Bに対応する画素に割り当てられた「0.5」の重みに基づいて中度のスモークのカテゴリに対応することができる。第3の領域316Cは、第3の領域316Cに対応する画素に割り当てられた「0.1」の重みに基づいて軽度のスモークのカテゴリに対応することができる。第4の領域316Dは、第4の領域316Dに対応する画素に割り当てられた「0.5」の重みに基づいて中度のスモークのカテゴリに対応することができる。第5の領域316Eは、第5の領域316Eに対応する画素に割り当てられた「0.1」の重みに基づいて軽度のスモークのカテゴリに対応することができる。第6の領域316Fは、第6の領域316Fに対応する画素に割り当てられた「0.5」の重みに基づいて中度のスモークのカテゴリに対応することができる。
ブロック図300Aの1又は2以上のブロックに関連する例示的な動作については離散ブロックで示しているが、これらは例示的な動作の実装に応じてさらなるブロックに分割し、より少ないブロックに結合し、又は削除することもできる。
図3Bに、本開示の実施形態による、スモークレベル推定のための例示的な動作を示す。図3Bの説明は、図1及び図2の要素に関連して行う。図3Bには、本明細書で説明する318~328の例示的な動作を示すブロック図300Bを示す。制御は、図3Aのブロック316からブロック318に進むことができる。
318において、(第1の領域316A、第2の領域316B、第3の領域316C、第4の領域316D、第5の領域316E、及び第6の領域316Fなどの)決定された複数の領域間の1又は2以上の重複領域を決定することができる。ある実施形態によれば、回路202は、第1の重複領域318A、第2の重複領域318B、及び第3の重複領域318Cなどの重複領域を決定するように構成することができる。
例えば、回路202は、第1の領域316Aと第2の領域316Bとの間の第1の重複領域318Aを決定することができる。回路202は、第3の領域316Cと第4の領域316Dとの間の第2の重複領域318Bを決定することができる。回路202は、第1の領域316Aと、第5の領域316Eと、第6の領域316Fとの間の第3の重複領域318Cを決定することができる。例えば、第1の領域316A及び第2の領域316Bは、(第1の領域316Aなどの)一方の領域の1又は2以上の画素サブセットの位置が(第2の領域316Bなどの)もう一方の領域の1又は2以上の画素サブセットに近いことによって重複していると考えられる。いくつかの事例では、物理的空間の同じ領域内のスモークがニューラルネットワークモデル108によって重度のスモーク及び軽度のスモークの両方として分類されることによって、ヒートマップ310Aの第1の領域316A及び第2の領域316Bが重複することもある。
320において、ヒートマップ310Aから1又は2以上の重複領域を排除することができる。ある実施形態によれば、回路202は、ヒートマップ310Aから重複領域を排除するように構成することができる。例えば、回路202は、ヒートマップ310Aから第1の重複領域318A、第2の重複領域318B及び第3の重複領域318Cを排除してヒートマップ320Aを取得することができる。
例えば、回路202は、(第1の領域316Aと第2の領域316Bとの間の重複領域などの)第1の重複領域318Aを、(重度のスモーク及び強度の中度のスモークなどの)両カテゴリのスモークを含んでいると判定することができる。回路202は、100%未満の精度のスモークの分類を示している可能性があるヒートマップ310Aの領域を除去するために第1の重複領域318Aを排除することができる。同様に、回路202は、ヒートマップ320Aを取得するために第2の重複領域318B及び第3の重複領域318Cを排除することもできる。
322において、ヒートマップ320Aを正規化することができる。ある実施形態によれば、回路202は、ヒートマップ320Aを正規化するように構成することができる。回路202によって利用される正規化方法の例としては、以下に限定するわけではないが、min-max特徴スケーリング法、変動係数(coefficient of variation)法、標準化モーメント(standardized moment)法、シグモイド関数法、スチューデント化残差(studentized residual)法、及び標準スコア法を挙げることができる。ヒートマップ320Aの値は、スモーク推定のための単一値を0~1の範囲内で取得するように正規化することができる。ある実施形態では、ヒートマップ320Aの正規化に、複数の領域の各領域の割り当てられた重みを使用することができる。別の実施形態では、ヒートマップ320Aの正規化が、ヒートマップ320A内の(領域316A~316Fなどの)複数の領域に割り当てられた重みの平均を取得する平均化プロセスをさらに含むことができる。
324において、スモークのレベルを推定することができる。ある実施形態によれば、回路202は、重複領域の排除及びヒートマップ320Aの正規化に基づいてスモークのレベルを推定するように構成することができる。いくつかの実施形態では、物理的空間の第1の画像302A内の推定されるスモークのレベルが0~1の範囲内であることができ、0の値は最も低いスモークのレベルを示し、1の値は最も高いスモークのレベルを示す。
例えば、ヒートマップ320Aは、第1の領域316A、第2の領域316B、第3の領域316C、第4の領域316D、第5の領域316E及び第6の領域316Fなどの6つの領域を含むことができる。第1の領域316Aは「1」の重みに関連し、第2の領域316Bは「0.5」の重みに関連し、第3の領域316Cは「0.1」の重みに関連することができる。第4の領域316Dは「0.5」の重みに関連し、第5の領域316Eは「0.1」の重みに関連し、第6の領域316Fは「0.5」の重みに関連することができる。回路202は、6つの領域の割り当てられた重みに基づいて、物理的空間全体のスモークのレベルを0~1で推定することができる。例えば、回路202は、正規化プロセス及び平均化プロセスに基づいてスモークのレベルを「0.55」であると推定することができる。
326において、推定されるスモークのレベルを閾値レベル(例えば、0.5)以上であると判定することができる。ある実施形態によれば、回路202は、推定されるスモークのレベルを閾値レベル以上であると判定するように構成することができる。
328において、スモークのレベルが閾値レベル以上であるとの判定に基づいて排煙装置116を制御することができる。ある実施形態によれば、回路202を、推定されるスモークのレベルが閾値レベル以上であるとの判定に基づいて排煙装置116を制御するように構成することができる。例えば、推定されるスモークのレベルを、閾値レベルである0.5よりも高い0.55とすることができる。回路202は、物理的空間からスモークを排気してスモークのレベルを閾値レベル未満にするように排煙装置116を制御することができる。
ある実施形態によれば、回路202は、物理的空間内の推定されるスモークのレベルが閾値レベル以上である場合に排煙装置116をオンにしてスモークを排気するように構成することができる。回路202は、スモークのレベルが0.55である場合に排煙装置116のスイッチをオンすることができる。さらに、回路202は、物理的空間内の推定されるスモークのレベルが閾値レベル未満である場合に排煙装置116をオフにすることができる。回路202は、スモークの排気後に、手術手順のビデオストリームからの(第2の画像106B~第Nの画像106Nなどの)後続フレームを処理してリアルタイムでスモークのレベルを決定することができる。例えば、回路202は、物理的空間内のスモークのレベルが(0.5などの)閾値レベルを下回る0.45に達した場合に排煙装置116をオフにすることができる。回路202は、外科手術中に(手術部位又は手術室などの)物理的空間内の推定されるスモークのレベルが閾値レベルを上回った場合に排煙装置116をオンにするプロセスを繰り返すことができる。
ブロック図300Bの1又は2以上のブロックに関連する例示的な動作については離散ブロックで示しているが、これらは例示的な動作の実装に応じてさらなるブロックに分割し、より少ないブロックに結合し、又は削除することもできる。
図4Aに、本開示の実施形態による、スモークレベル推定に基づく物理的空間の可視性強化のための例示的な方法を示す。図4Aの説明は、図1、図2、図3A及び図3Bの要素に関連して行う。図4Aには、本明細書で説明する402~408の例示的な動作を示すブロック図400Aを示す。ブロック図400Aに示す例示的な動作は402から開始することができ、図1の電子装置102又は図2の回路202などのいずれかのコンピュータシステム、装置又はデバイスによって実行することができる。
402において、ディスプレイ画面206Aを、(図3Bの324で説明したような)推定されるスモークのレベルに基づいて(第1の画像106A又は第1の画像302Aなどの)第1の画像を表示するように制御することができる。ある実施形態によれば、回路202は、第1の画像302Aを表示するようにディスプレイ画面206Aを制御するよう構成することができる。例示的なシナリオでは、回路202が、外科手術中に(オンラインモードなどで)画像取り込み装置114からリアルタイムで第1の画像302Aを受け取り、外科手術を実行する外科医などの人員への支援のために第1の画像302Aをリアルタイムで表示することができる。第1の画像302Aは、(図3Bの324で説明したような)推定されるスモークのレベルに基づいて(手術部位又は手術室などの)物理的空間の第1の可視性レベルを示すことができる。例えば、推定されるスモークのレベルは0.7であることができる。いくつかの実施形態では、第1の可視性レベルが0~1の範囲であることができ、「0」は最も低い可視性レベルであり、「1」は最も高い可視性レベルである。なお、推定されるスモークのレベルが高ければ高いほど物理的空間の可視性レベルは低くなることができ、逆もまた同様である。例示的なシナリオでは、推定されるスモークのレベルに基づいて物理的空間の第1の可視性レベルが低くなることができる(例えば、0.43)。
404において、第1の可視性レベルが可視性閾値よりも低いと判定することができる。ある実施形態によれば、回路202は、第1の可視性レベルが可視性閾値よりも低いと判定することができる。例えば、可視性閾値は0.8であることができる。ある実施形態では、可視性閾値を、外科医及び/又は補助スタッフの選好に基づいてユーザ入力によって設定することができる。別の実施形態では、可視性閾値がニューラルネットワークモデル108によって設定され、(手術のタイプなどの)用途又は物理的空間の(照明条件などの)環境条件毎に異なることができる。別の実施形態では、可視性閾値を、異なるレベルのスモークのシミュレーションによる実験、及び手術野の視界が影響を受けない可視性レベルを可視性閾値として選択することに基づいて設定することができる。
406において、(0.43などの)第1の可視性レベルが(0.8などの)可視性閾値よりも低い可能性があるとの判定に基づいて、物理的空間からスモークを排気するように排煙装置116を制御することができる。回路202は、物理的空間からスモークを排気するように排煙装置116を制御することができる。回路202は、(オンラインモードなどの)外科手術中にリアルタイムで排煙装置116を制御することができる。排煙装置116の制御の詳細については、例えば図3Bに示している。
408において、ディスプレイ画面206Aを、スモークの排気に基づいて物理的空間の複数の画像106のうちの第2の画像(例えば、第2の画像106B)を表示するように制御することができる。ある実施形態によれば、回路202は、スモークの排気に基づいて物理的空間の複数の画像106のうちの第2の画像106Bを表示するようにディスプレイ画面206Aを制御するよう構成することができる。第2の画像106Bは、(0.8などの)可視性閾値以上の第2の可視性レベルを示すことができる。例えば、第2の画像106Bの第2の可視性レベルは、物理的空間からのスモークの排気に基づいて0.9であることができる。このように、電子装置102は、外科手術中に手術部位の可視性をリアルタイムで改善し、外科医及び補助スタッフに健康的な作業環境を提供することができる。
ブロック図400Aの1又は2以上のブロックに関連する例示的な動作については離散ブロックで示しているが、これらは例示的な動作の実装に応じてさらなるブロックに分割し、より少ないブロックに結合し、又は削除することもできる。
図4Bに、本開示の実施形態による、スモークレベル推定に基づく物理的空間の可視性強化のための例示的な方法を示す。図4Bの説明は、図1、図2、図3A、図3B及び図4Aの要素に関連して行う。図4Bには、本明細書で説明する410~416の例示的な動作を示すブロック図400Bを示す。ブロック図400Bに示す例示的な動作は410から開始することができ、図1の電子装置102又は図2の回路202などのいずれかのコンピュータシステム、装置又はデバイスによって実行することができる。
410において、ディスプレイ画面206Aを、(図3Bの324において説明したような)推定されるスモークのレベルに基づいて第1の画像302Aを表示するように制御することができる。ある実施形態によれば、回路202は、第1の画像302Aを表示するようにディスプレイ画面206Aを制御するよう構成することができる。例示的なシナリオでは、回路202が、画像取り込み装置114からオフラインモードで第1の画像302Aを受け取り、外科手術後に第1の画像302Aを表示することができる。第1の画像302Aは、推定されるスモークのレベルに基づいて物理的空間の第1の可視性レベルを示すことができる。410における第1の画像302Aの表示は、402における第1の画像302Aの表示と同じであることができる。第1の画像302Aの表示の詳細については、例えば図4Aの402に示している。
412において、第1の可視性レベルが可視性閾値よりも低いと判定することができる。ある実施形態によれば、回路202は、第1の可視性レベルが(0.8などの)可視性閾値よりも低いと判定することができる。
414において、第1の可視性レベルが可視性閾値よりも低い可能性があるとの判定に基づいて、第1の画像302Aに(画像ヘイズ除去などの)ヘイズ除去プロセスを適用することができる。ある実施形態によれば、回路202は、第1の可視性レベルが可視性閾値よりも低い可能性があるとの判定に基づいて、第1の画像302Aにヘイズ除去プロセスを適用するように構成することができる。ヘイズ除去プロセスは、第1の画像302Aからスモークの影響を除去し、コントラスト及び顕色が改善された曇りのない画像を提供するために第1の画像302Aに適用することができる。例えば、ヘイズ除去プロセスは、ディープラーニングベースの技術に基づくことができる。ヘイズ除去プロセスは、コンピュータビジョン技術、ディープマルチモデルフュージョンネットワーク(deep multi-model fusion network)法、高密度接続ピラミッドデヘイジングネットワーク(densely connected pyramid dehazing network:DCPDN)法、フィーチャフュージョンアテンションネットワーク(feature fusion attention network:FFA-Net)アーキテクチャ法などに基づくことができる。回路202は、例えば外科手術後にオフラインモードでヘイズ除去プロセスを適用することができる。ヘイズ除去プロセスは、画像強調用途のために利用することができる。いくつかの実施形態では、回路202が、外科手術中に第1の画像302Aを画像処理するためにオンラインモードでヘイズ除去プロセスを適用することもできる。
416において、ディスプレイ画面206Aを、ヘイズ除去プロセスの適用に基づいて物理的空間の複数の画像106のうちの第2の画像106Bを表示するように制御することができる。ある実施形態によれば、回路202は、ヘイズ除去プロセスの適用に基づいて物理的空間の複数の画像106のうちの第2の画像106Bを表示するようにディスプレイ画面206Aを制御するよう構成することができる。第2の画像106Bは、可視性閾値以上の第2の可視性レベルを示すことができる。例えば、ヘイズ除去プロセスの適用後には、第2の画像106Bの第2の可視性レベルが0.95であることができる。
ブロック図400Bの1又は2以上のブロックに関連する例示的な動作については離散ブロックで示しているが、これらは例示的な動作の実装に応じてさらなるブロックに分割し、より少ないブロックに結合し、又は削除することもできる。
図5は、本開示の実施形態による、スモークレベル推定のための例示的な方法を示すフローチャートである。
図5の説明は、図1、図2、図3A、図3B、図4A及び図4Bの要素に関連して行う。図5にはフローチャート500を示す。フローチャート500に示す方法は、電子装置102又は回路202などのいずれかのコンピュータシステムによって実行することができる。方法は、502から開始して504に進むことができる。
504において、(手術部位又は手術室などの)物理的空間の複数の画像(複数の画像106などの)のうちの(第1の画像106Aなどの)第1の画像を受け取ることができる。ある実施形態によれば、回路202は、物理的空間の複数の画像106のうちの第1の画像106Aを受け取るように構成することができる。第1の画像106Aを受け取る詳細については、例えば図3Aにさらに示している。
506において、受け取られた第1の画像106Aに対する(ニューラルネットワークモデル108などの)訓練済みニューラルネットワークモデルの適用に基づいて物理的空間内のスモークを検出することができる。ある実施形態によれば、回路202は、受け取られた第1の画像106Aに対する訓練済みニューラルネットワークモデル108の適用に基づいて物理的空間内のスモークを検出するように構成することができる。スモークの検出の詳細については、例えば図3Aにさらに示している。
508において、物理的空間内の検出されたスモーク、及びスモークの検出に対応する訓練済みニューラルネットワークモデル108の出力に基づいて、物理的空間の(ヒートマップ110などの)ヒートマップを生成することができる。ある実施形態によれば、回路202は、物理的空間内の検出されたスモーク、及びスモークの検出に対応する訓練済みニューラルネットワークモデル108の出力に基づいて、物理的空間のヒートマップ110を生成するように構成することができる。ヒートマップ110の生成の詳細については、例えば図3Aにさらに示している。
510において、生成されたヒートマップ110の正規化に基づいて物理的空間内のスモークのレベルを推定することができる。ある実施形態によれば、回路202は、生成されたヒートマップ110の正規化に基づいて物理的空間内のスモークのレベルを推定するように構成することができる。スモークのレベルの推定の詳細については、例えば図3Bにさらに示している。制御は終了に進むことができる。
フローチャート500は、502、504、506、508及び510などの離散的動作として示しているが、本開示はこのように限定されるものではない。従って、いくつかの実施形態では、開示する実施形態の本質を損なうことなく、このような離散的動作を、特定の実施形態に応じてさらなる動作にさらに分割し、より少ない動作に組み合わせ、又は削除することもできる。
本開示の様々な実施形態は、(電子装置402などの)機械及び/又はコンピュータが実行できる命令を記憶した非一時的コンピュータ可読媒体及び/又は記憶媒体を提供することができる。これらの命令は、物理的空間の(複数の画像106などの)複数の画像のうちの(第1の画像106Aなどの)第1の画像を受け取ることを含むことができる動作を機械及び/又はコンピュータに実行させることができる。動作は、受け取った第1の画像106Aに対する(ニューラルネットワークモデル108などの)訓練済みニューラルネットワークモデルの適用に基づいて物理的空間内のスモークを検出することをさらに含むことができる。動作は、物理的空間内の検出されたスモーク、及びスモークの検出に対応する訓練済みニューラルネットワークモデル108の出力に基づいて、物理的空間の(ヒートマップ110などの)ヒートマップを生成することをさらに含むことができる。動作は、生成されたヒートマップ110の正規化に基づいて物理的空間内のスモークのレベルを推定することをさらに含むことができる。
本開示の例示的な態様は、(回路202などの)回路を含む(図1の電子装置102などの)電子装置を提供することができる。回路202は、物理的空間の(複数の画像106などの)複数の画像のうちの(第1の画像106Aなどの)第1の画像を受け取るように構成することができる。回路202は、受け取った第1の画像106Aに対する(ニューラルネットワークモデル108などの)訓練済みニューラルネットワークモデルの適用に基づいて物理的空間内のスモークを検出するようにさらに構成することができる。回路202は、物理的空間内の検出されたスモーク、及びスモークの検出に対応する訓練済みニューラルネットワークモデル108の出力に基づいて、物理的空間の(ヒートマップ110などの)ヒートマップを生成するようにさらに構成することができる。回路202は、生成されたヒートマップ110の正規化に基づいて物理的空間内のスモークのレベルを推定するようにさらに構成することができる。
ある実施形態によれば、回路202は、受け取られた第1の画像106Aの複数の画素の各画素サブセットに対応する信頼スコアを訓練済みニューラルネットワークモデル108の出力として取得するようにさらに構成することができる。信頼スコアは、受け取られた第1の画像106Aの各画素サブセットに対応するスモークの検出に関連することができる。回路202は、各画素サブセットの信頼スコアに基づいてヒートマップ110をさらに生成することができる。
ある実施形態によれば、回路202は、訓練済みニューラルネットワークモデル108に基づいて、受け取られた第1の画像106Aの各画素サブセットに対応するスモークをスモークの強度の複数のカテゴリのうちの特定のカテゴリに分類するようにさらに構成することができる。分類は、各画素サブセットに対応する信頼スコアに基づくことができる。回路202は、スモークの分類に基づいてヒートマップ110に重みをさらに割り当てることができる。
ある実施形態によれば、回路202は、割り当てられた重みに基づいて、それぞれが複数のカテゴリのうちの特定のカテゴリに対応する(第1の領域316A、第2の領域316B、...第6の領域316Fなどの)複数の領域を決定するようにさらに構成することができる。複数の領域の各領域は、特定のカテゴリに分類された画素サブセットを含むことができる。回路202は、(第1の領域316A、第2の領域316B、...第6の領域316Fなどの)決定された複数の領域間の(第1の重複領域318A、第2の重複領域318B、第3の重複領域318Cなどの)1又は2以上の重複領域をさらに決定することができる。さらに、回路202は、ヒートマップ110から1又は2以上の重複領域を排除することができる。回路202は、(第1の重複領域318A、第2の重複領域318B、第3の重複領域318Cなどの)1又は2以上の重複領域の除去に基づいて物理的空間内のスモークのレベルをさらに推定することができる。
ある実施形態によれば、回路202は、ユーザ入力を受け取るようにさらに構成することができる。ユーザ入力は、複数のカテゴリのうちのユーザ定義カテゴリのスモークの検出に対応することができる。
ある実施形態によれば、物理的空間の第1の画像内の推定されるスモークのレベルが0~1の範囲内であることができる。
ある実施形態によれば、回路202は、複数の画像106のうちの第1の画像106Aを、画像センサからリアルタイムで、電子装置102のメモリから、及び/又は(サーバ104などの)サーバから、のうちの少なくとも1つによって受け取るように構成することができる。
ある実施形態によれば、回路202は、推定されたスモークのレベルに基づいて物理的空間からスモークを排気するように(排煙装置116などの)排煙装置を制御するようさらに構成することができる。
ある実施形態によれば、回路202は、物理的空間内の推定されるスモークのレベルが閾値レベル以上である場合に排煙装置116をオンにしてスモークを排気するようにさらに構成することができる。回路202は、物理的空間内の推定されるスモークのレベルが閾値レベル未満である場合に排煙装置116をオフにするようにさらに構成することができる。ある実施形態によれば、閾値レベルは0.5であることができる。
ある実施形態によれば、回路202は、推定されるスモークのレベルに基づいて物理的空間の第1の可視性レベルを示す第1の画像106Aを表示するように(ディスプレイ画面206Aなどの)ディスプレイ画面を制御するようさらに構成することができる。回路202は、第1の可視性レベルが可視性閾値よりも低い場合に物理的空間からスモークを排気するように排煙装置116をさらに制御することができる。回路202は、スモークの排気に基づいて物理的空間の複数の画像106のうちの(第2の画像106Bなどの)第2の画像を表示するようにディスプレイ画面206Aをさらに制御することができる。第2の画像106Bは、可視性閾値以上の第2の可視性レベルを示すことができる。
ある実施形態によれば、回路202は、推定されるスモークのレベルに基づいて物理的空間の第1の可視性レベルを示す第1の画像106Aを表示するようにディスプレイ画面206Aを制御するようさらに構成することができる。回路202は、第1の可視性レベルが可視性閾値よりも低い場合に第1の画像106Aにヘイズ除去プロセスをさらに適用することができる。回路202は、ヘイズ除去プロセスの適用に基づいて物理的空間の複数の画像106のうちの第2の画像106Bを表示するようにディスプレイ画面206Aをさらに制御することができる。第2の画像106Bは、可視性閾値以上の第2の可視性レベルを示すことができる。
ある実施形態によれば、回路202は、受け取られた第1の画像106A内の1又は2以上の画素サブセットに関連する1又は2以上の特徴に基づいてニューラルネットワークモデルを訓練して訓練済みニューラルネットワークモデル108を取得するようにさらに構成することができる。ニューラルネットワークモデル108は、スモークを検出してヒートマップ110を生成するように訓練することができる。1又は2以上の特徴は、1又は2以上の画素サブセットにおけるスモークの強度、1又は2以上の画素サブセットにおけるスモークの形状、或いは1又は2以上の画素サブセットにおけるスモークの色のうちの少なくとも1つを含む。
本開示は、ハードウェアで実現することも、又はハードウェアとソフトウェアとの組み合わせで実現することもできる。本開示は、少なくとも1つのコンピュータシステム内で集中方式で実現することも、又は異なる要素を複数の相互接続されたコンピュータシステムにわたって分散できる分散方式で実現することもできる。本明細書で説明した方法を実行するように適合されたコンピュータシステム又はその他の装置が適することができる。ハードウェアとソフトウェアとの組み合わせは、ロードされて実行された時に本明細書で説明した方法を実行するようにコンピュータシステムを制御することができるコンピュータプログラムを含む汎用コンピュータシステムとすることができる。本開示は、他の機能も実行する集積回路の一部を含むハードウェアで実現することができる。
本開示は、本明細書で説明した方法の実装を可能にする全ての特徴を含み、コンピュータシステムにロードされた時にこれらの方法を実行できるコンピュータプログラム製品に組み込むこともできる。本文脈におけるコンピュータプログラムとは、情報処理能力を有するシステムに特定の機能を直接的に、或いはa)別の言語、コード又は表記法への変換、b)異なる内容形態での複製、のいずれか又は両方を行った後に実行させるように意図された命令セットの、あらゆる言語、コード又は表記法におけるあらゆる表現を意味する。
いくつかの実施形態を参照しながら本開示を説明したが、当業者であれば、本開示の範囲から逸脱することなく様々な変更を行うことができ、同等物を代用することもできると理解するであろう。また、本開示の範囲から逸脱することなく、特定の状況又は内容を本開示の教示に適合させるように多くの修正を行うこともできる。従って、本開示は、開示した特定の実施形態に限定されるものではなく、添付の特許請求の範囲内に収まる全ての実施形態を含むように意図される。
100 ネットワーク環境
102 電子装置
104 サーバ
106 複数の画像
106A 第1の画像
106B 第2の画像
106N 第Nの画像
108 ニューラルネットワークモデル
110 ヒートマップ
112 通信ネットワーク
114 画像取り込み装置
116 排煙装置

Claims (20)

  1. 電子装置であって、
    物理的空間の複数の画像のうちの第1の画像を受け取り、
    前記受け取られた第1の画像に対する訓練済みニューラルネットワークモデルの適用に基づいて前記物理的空間内のスモークを検出し、
    前記物理的空間内の前記検出されたスモーク、及び前記スモークの前記検出に対応する前記訓練済みニューラルネットワークモデルの出力に基づいて、前記物理的空間のヒートマップを生成し、
    前記生成されたヒートマップの正規化に基づいて前記物理的空間内の前記スモークのレベルを推定する、
    ように構成された回路を備える、
    ことを特徴とする電子装置。
  2. 前記回路は、
    前記受け取られた第1の画像の複数の画素の各画素サブセットに対応する信頼スコアであって、前記受け取られた第1の画像の各画素サブセットに対応する前記スモークの前記検出に関連する信頼スコアを、前記訓練済みニューラルネットワークモデルの出力として取得し、
    各画素サブセットの前記信頼スコアに基づいて前記ヒートマップを生成する、
    ようにさらに構成される、請求項1に記載の電子装置。
  3. 前記回路は、
    前記訓練済みニューラルネットワークモデルに基づいて、前記受け取られた第1の画像の各画素サブセットに対応する前記スモークを、各画素サブセットに対応する前記信頼スコアに基づいて前記スモークの強度の複数のカテゴリのうちの特定のカテゴリに分類し、
    前記スモークの分類に基づいて前記ヒートマップに重みを割り当てる、
    ようにさらに構成される、請求項2に記載の電子装置。
  4. 前記回路は、
    前記割り当てられた重みに基づいて、それぞれが前記複数のカテゴリのうちの前記特定のカテゴリに対応する複数の領域であって、前記特定のカテゴリに分類された前記画素サブセットをそれぞれが含む複数の領域を決定し、
    前記決定された複数の領域間の1又は2以上の重複領域を決定し、
    前記ヒートマップから前記1又は2以上の重複領域を排除し、
    前記1又は2以上の重複領域の前記排除に基づいて前記物理的空間内の前記スモークの前記レベルを推定する、
    ようにさらに構成される、請求項3に記載の電子装置。
  5. 前記回路は、ユーザ入力を受け取るようにさらに構成され、
    前記ユーザ入力は、前記複数のカテゴリのうちのユーザ定義カテゴリの前記スモークの前記検出に対応する、
    請求項3に記載の電子装置。
  6. 前記物理的空間の前記第1の画像における前記推定される前記スモークのレベルは0~1の範囲内である、
    請求項1に記載の電子装置。
  7. 前記回路は、前記複数の画像のうちの前記第1の画像を、画像センサからリアルタイムで、前記電子装置のメモリから、又はサーバから、のうちの少なくとも1つによって受け取るように構成される、
    請求項1に記載の電子装置。
  8. 前記回路は、前記推定される前記スモークのレベルに基づいて前記物理的空間から前記スモークを排気するように排煙装置を制御するようさらに構成される、
    請求項1に記載の電子装置。
  9. 前記回路は、
    前記物理的空間内の前記推定される前記スモークのレベルが閾値以上である場合に前記排煙装置をオンにして前記スモークを排気し、
    前記物理的空間内の前記推定される前記スモークのレベルが閾値レベル未満になった場合に前記排煙装置をオフにする、
    ようにさらに構成される、請求項8に記載の電子装置。
  10. 前記閾値レベルは0.5である、
    請求項9に記載の電子装置。
  11. 前記回路は、
    前記推定される前記スモークのレベルに基づいて、前記物理的空間の第1の可視性レベルを示す前記第1の画像を表示するようにディスプレイ画面を制御し、
    前記第1の可視性レベルが可視性閾値よりも低い場合に前記物理的空間から前記スモークを排気するように排煙装置を制御し、
    前記スモークの前記排気に基づいて、前記物理的空間の前記複数の画像のうちの、前記可視性閾値以上の第2の可視性レベルを示す第2の画像を表示するように前記ディスプレイ画面を制御する、
    ようにさらに構成される、請求項1に記載の電子装置。
  12. 前記回路は、
    前記推定される前記スモークのレベルに基づいて、前記物理的空間の第1の可視性レベルを示す前記第1の画像を表示するようにディスプレイ画面を制御し、
    前記第1の可視性レベルが可視性閾値よりも低い場合に前記第1の画像にヘイズ除去プロセスを適用し、
    前記ヘイズ除去プロセスの適用に基づいて、前記物理的空間の前記複数の画像のうちの、前記可視性閾値以上の第2の可視性レベルを示す第2の画像を表示するように前記ディスプレイ画面を制御する、
    ようにさらに構成される、請求項1に記載の電子装置。
  13. 前記回路は、前記受け取られた第1の画像内の1又は2以上の画素サブセットに関連する1又は2以上の特徴に基づいてニューラルネットワークモデルを訓練して前記訓練済みニューラルネットワークモデルを取得するようにさらに構成され、
    前記ニューラルネットワークモデルは、前記スモークを検出して前記ヒートマップを生成するように訓練され、
    前記1又は2以上の特徴は、前記1又は2以上の画素サブセットにおける前記スモークの強度、前記1又は2以上の画素サブセットにおける前記スモークの形状、又は前記1又は2以上の画素サブセットにおける前記スモークの色のうちの少なくとも1つを含む、
    請求項1に記載の電子装置。
  14. 物理的空間の複数の画像のうちの第1の画像を受け取ることと、
    前記受け取られた第1の画像に対する訓練済みニューラルネットワークモデルの適用に基づいて前記物理的空間内のスモークを検出することと、
    前記物理的空間内の前記検出されたスモーク、及び前記スモークの前記検出に対応する前記訓練済みニューラルネットワークモデルの出力に基づいて、前記物理的空間のヒートマップを生成することと、
    前記生成されたヒートマップの正規化に基づいて前記物理的空間内の前記スモークのレベルを推定することと、
    を含むことを特徴とする方法。
  15. 前記受け取られた第1の画像の複数の画素の各画素サブセットに対応する信頼スコアであって、前記受け取られた第1の画像の各画素サブセットに対応する前記スモークの前記検出に関連する信頼スコアを、前記訓練済みニューラルネットワークモデルの出力として取得することと、
    各画素サブセットの前記信頼スコアに基づいて前記ヒートマップを生成することと、
    をさらに含む、請求項14に記載の方法。
  16. 前記訓練済みニューラルネットワークモデルに基づいて、前記受け取られた第1の画像の各画素サブセットに対応する前記スモークを、各画素サブセットに対応する前記信頼スコアに基づいて前記スモークの強度の複数のカテゴリのうちの特定のカテゴリに分類することと、
    前記スモークの分類に基づいて前記ヒートマップに重みを割り当てることと、
    をさらに含む、請求項15に記載の方法。
  17. 前記割り当てられた重みに基づいて、それぞれが前記複数のカテゴリのうちの前記特定のカテゴリに対応する複数の領域であって、前記特定のカテゴリに分類された前記画素サブセットをそれぞれが含む複数の領域を決定することと、
    前記決定された複数の領域間の1又は2以上の重複領域を決定することと、
    前記ヒートマップから前記1又は2以上の重複領域を排除することと、
    前記1又は2以上の重複領域の前記排除に基づいて前記物理的空間内の前記スモークの前記レベルを推定することと、
    をさらに含む、請求項16に記載の方法。
  18. 前記推定される前記スモークのレベルに基づいて前記物理的空間から前記スモークを排気するように排煙装置を制御することをさらに含む、
    請求項14に記載の方法。
  19. 前記推定される前記スモークのレベルに基づいて、前記物理的空間の第1の可視性レベルを示す前記第1の画像を表示するようにディスプレイ画面を制御することと、
    前記第1の可視性レベルが可視性閾値よりも低い場合に前記物理的空間から前記スモークを排気するように排煙装置を制御することと、
    前記スモークの前記排気に基づいて、前記物理的空間の前記複数の画像のうちの、前記可視性閾値以上の第2の可視性レベルを示す第2の画像を表示するように前記ディスプレイ画面を制御することと、
    をさらに含む、請求項14に記載の方法。
  20. コンピュータ実行可能命令を記憶した非一時的コンピュータ可読媒体であって、前記コンピュータ実行可能命令は、プロセッサによって実行された時に、前記プロセッサに、
    物理的空間の複数の画像のうちの第1の画像を受け取ることと、
    前記受け取られた第1の画像に対する訓練済みニューラルネットワークモデルの適用に基づいて前記物理的空間内のスモークを検出することと、
    前記物理的空間内の前記検出されたスモーク、及び前記スモークの前記検出に対応する前記訓練済みニューラルネットワークモデルの出力に基づいて、前記物理的空間のヒートマップを生成することと、
    前記生成されたヒートマップの正規化に基づいて前記物理的空間内の前記スモークのレベルを推定することと、
    を含む動作を実行させる、ことを特徴とする非一時的コンピュータ可読媒体。
JP2023564455A 2021-04-30 2022-04-27 スモークレベル推定のための電子装置及び方法 Pending JP2024518723A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US17/246,092 2021-04-30
US17/246,092 US20220346855A1 (en) 2021-04-30 2021-04-30 Electronic device and method for smoke level estimation
PCT/IB2022/053922 WO2022229882A1 (en) 2021-04-30 2022-04-27 Electronic device and method for smoke level estimation

Publications (1)

Publication Number Publication Date
JP2024518723A true JP2024518723A (ja) 2024-05-02

Family

ID=81603513

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023564455A Pending JP2024518723A (ja) 2021-04-30 2022-04-27 スモークレベル推定のための電子装置及び方法

Country Status (4)

Country Link
US (1) US20220346855A1 (ja)
EP (1) EP4302277A1 (ja)
JP (1) JP2024518723A (ja)
WO (1) WO2022229882A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114638767B (zh) * 2022-05-18 2022-08-16 山东师范大学 基于生成对抗网络的腹腔镜影像除烟方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5334778B2 (ja) * 2009-09-28 2013-11-06 ホーチキ株式会社 火災警報器の試験設備
US9010313B2 (en) * 2011-10-11 2015-04-21 Conrad S. Mikulec Cookery air purification and exhaust system
US9805472B2 (en) * 2015-02-18 2017-10-31 Sony Corporation System and method for smoke detection during anatomical surgery
CN104766433A (zh) * 2015-04-23 2015-07-08 河南理工大学 基于数据融合的电气火灾报警系统
US20170289504A1 (en) * 2016-03-31 2017-10-05 Ants Technology (Hk) Limited. Privacy Supporting Computer Vision Systems, Methods, Apparatuses and Associated Computer Executable Code
JP2018157917A (ja) * 2017-03-22 2018-10-11 ソニー株式会社 制御装置、制御方法、制御システム、およびプログラム
CN111428694A (zh) * 2020-04-27 2020-07-17 石盼成 基于区块链的智慧工地异常烟雾监测系统
CN112232107A (zh) * 2020-08-18 2021-01-15 中国商用飞机有限责任公司 一种图像式烟雾探测系统及方法
US20220147748A1 (en) * 2020-11-12 2022-05-12 Texas Instruments Incorporated Efficient object detection using deep learning techniques
WO2022187681A1 (en) * 2021-03-05 2022-09-09 Drs Network & Imaging Systems, Llc Method and system for automated target recognition

Also Published As

Publication number Publication date
EP4302277A1 (en) 2024-01-10
US20220346855A1 (en) 2022-11-03
WO2022229882A1 (en) 2022-11-03

Similar Documents

Publication Publication Date Title
JP7058373B2 (ja) 医療画像に対する病変の検出及び位置決め方法、装置、デバイス、及び記憶媒体
WO2018188453A1 (zh) 人脸区域的确定方法、存储介质、计算机设备
CN109478239B (zh) 检测图像中的对象的方法和对象检测系统
EP3968272A1 (en) Medical endoscope image identification method and system, and endoscope image system
JP6942488B2 (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
CN108304758B (zh) 人脸特征点跟踪方法及装置
JP2022534337A (ja) ビデオターゲット追跡方法と装置、コンピュータ装置、プログラム
US9330446B2 (en) Method and apparatus for processing image
CN111325739A (zh) 肺部病灶检测的方法及装置,和图像检测模型的训练方法
US11170266B2 (en) Apparatus and method for identifying object
JP6624629B2 (ja) 魚計数装置、魚計数方法、魚数の予測装置、魚数の予測方法、魚計数システムおよび魚数予測システム
CN111225611A (zh) 用于帮助分析目标对象中的伤口的系统和方法
WO2022121130A1 (zh) 电力目标检测方法、装置、计算机设备和存储介质
WO2021013049A1 (zh) 前景图像获取方法、前景图像获取装置和电子设备
JP2024518723A (ja) スモークレベル推定のための電子装置及び方法
JP2020504383A (ja) 画像前景の検出装置、検出方法及び電子機器
KR20200139616A (ko) 이상 개체 검출 장치 및 방법
KR20200009530A (ko) 이상 개체 검출 시스템 및 방법
JP2022548453A (ja) 画像分割方法及び装置、電子デバイス並びに記憶媒体
JP7459452B2 (ja) ニューラルネットワークモデルベースの深度推定
CN110766631A (zh) 人脸图像的修饰方法、装置、电子设备和计算机可读介质
CN116843647A (zh) 肺野面积确定、肺发育评估方法及装置、电子设备和介质
WO2020112729A1 (en) Detection-guided tracking of human dynamics
US20230135230A1 (en) Electronic device and method for spatial synchronization of videos
KR102364728B1 (ko) 피사체의 프레임 데이터로부터 캐릭터 모션을 생성하는 방법 및 이를 이용한 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231019