JP2023534792A - 内視鏡の挿入及び除去検出システム - Google Patents
内視鏡の挿入及び除去検出システム Download PDFInfo
- Publication number
- JP2023534792A JP2023534792A JP2023501345A JP2023501345A JP2023534792A JP 2023534792 A JP2023534792 A JP 2023534792A JP 2023501345 A JP2023501345 A JP 2023501345A JP 2023501345 A JP2023501345 A JP 2023501345A JP 2023534792 A JP2023534792 A JP 2023534792A
- Authority
- JP
- Japan
- Prior art keywords
- endoscope
- patient
- camera
- monitoring
- rate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003780 insertion Methods 0.000 title claims abstract description 26
- 230000037431 insertion Effects 0.000 title claims abstract description 26
- 238000001514 detection method Methods 0.000 title description 2
- 238000012544 monitoring process Methods 0.000 claims abstract description 55
- 238000001356 surgical procedure Methods 0.000 claims abstract description 37
- 238000000034 method Methods 0.000 claims description 50
- 230000015654 memory Effects 0.000 claims description 31
- 230000008859 change Effects 0.000 claims description 28
- 238000001914 filtration Methods 0.000 claims 1
- 238000012545 processing Methods 0.000 abstract description 19
- 230000002159 abnormal effect Effects 0.000 abstract description 3
- 238000004891 communication Methods 0.000 description 20
- 230000006870 function Effects 0.000 description 16
- 238000004458 analytical method Methods 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 4
- 230000000977 initiatory effect Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 239000008280 blood Substances 0.000 description 2
- 210000004369 blood Anatomy 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 208000015181 infectious disease Diseases 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000002324 minimally invasive surgery Methods 0.000 description 2
- 239000003607 modifier Substances 0.000 description 2
- 230000036407 pain Effects 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 238000012552 review Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 206010002091 Anaesthesia Diseases 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000037005 anaesthesia Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 230000003750 conditioning effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000000523 sample Substances 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00006—Operational features of endoscopes characterised by electronic signal processing of control signals
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00062—Operational features of endoscopes provided with means for preventing overuse
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/40—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/30—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00011—Operational features of endoscopes characterised by signal transmission
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/313—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes
-
- G—PHYSICS
- G04—HOROLOGY
- G04F—TIME-INTERVAL MEASURING
- G04F10/00—Apparatus for measuring unknown time intervals by electric means
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Engineering & Computer Science (AREA)
- Public Health (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Physics & Mathematics (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Radiology & Medical Imaging (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Optics & Photonics (AREA)
- Biophysics (AREA)
- Veterinary Medicine (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Urology & Nephrology (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Endoscopes (AREA)
- Medical Treatment And Welfare Office Work (AREA)
Abstract
内視鏡を使用して実施される外科的処置の経過時間を決定するためのシステムが開示される。システムは、手術室の効率を評価する目的で、限定されるものではないが手術室の整合性及び異常な処理時間の頻度のような手術室のパフォーマンスの評価指標を決定して、手術室の監視を管理するために経過時間を決定するように構成可能である。システムは、患者への内視鏡の挿入を決定することと、患者からの内視鏡の除去を決定することとを含むことができる。次いで、システムは、患者への内視鏡の挿入時期と、患者からの内視鏡の除去時期とに基づいて手術の経過時間を生成することができる。【選択図】 図1
Description
本開示は、概して、内視鏡手術システムに関し、より具体的には、患者への内視鏡の挿入及び患者からの内視鏡の除去を監視することにより、外科医が手術タスクを実施する全経過時間を測定するように構成された内視鏡手術システムに関する。
今日、医療行為における効率性の一層の向上が要求されているなかで、管理チームは、医療行為を効率化することを常に模索している。手術室を監督する管理チームは、手術室の使用効率を決定して、このような手術室の利用に関連するコストを制御することを試みてきた。多くの場合、手術室の効率は、患者に麻酔を投与する継続時間、プローブを挿入する前のジョイントクリーニングの継続時間、実際の手術及び他のイベントの継続時間が含まれ得る1つの完全なケースの継続時間を分析することによって決定されてきた。手術室の全体的な効率を分析することは、手術室の使用との関連において記録された時間が包括的なものである場合には困難であり、信頼できないことが判明している。したがって、手術室の効率を分析するためのより堅調なシステムが必要とされている。
内視鏡を使用して実施される外科的処置の経過時間を決定するためのシステムが開示される。システムは、手術室の効率を評価するために、限定されるものではないが例えば、手術室の整合性及び異常な処理時間の頻度等の手術室のパフォーマンスの評価指標を決定して、手術室の監視を管理するために経過時間を決定するように構成可能である。システムは、患者への内視鏡の挿入を決定することと、患者からの内視鏡の除去を決定することとを含むことができる。次いで、システムは、患者への内視鏡の挿入時期と、患者からの内視鏡の除去時期とに基づいて手術の経過時間を生成することができる。システムは、この手術の経過時間を、1つ又は複数のネットワークを介して通信することができる。
内視鏡下低侵襲外科手術では、小切開を通して体内構造に視覚的にアクセスするために内視鏡を使用することができる。小切開は、少ない痛み、感染リスクの低減、回復の加速、及び失血の低減を結果的にもたらすことができる。内視鏡は、手術部位の唯一の視野を外科医に提供し、したがって、外科医は、内視鏡が患者に挿入されているときにだけ手術を行うことができる。システムは、内視鏡がいつ患者に挿入されるか、及びいつ患者から除去されるかを決定し、次いで、外科的処置の経過時間を決定するように構成されている。システムは、内視鏡がいつ患者に挿入されるか、及びいつ患者から除去されるかを示すために収集することができる情報の複数のソースを使用することができる。これらのソースは、精度を向上させるために、ケース開始の修飾子としての初期ホワイトバランスステップ、継続的な監視による自動露光ステータス、及びこれらのイベント中における画像処理を使用した画像分析を含む。内視鏡は、ポータル間で移動及び洗浄されるので、患者に対する医療処置中、これら両方のイベントが繰り返し発生することが想定される。医療処置中、内視鏡の遠位端に取り付けられたカメラには、最良の画像を外科医に提供するため、ゲイン及び露光時間と照明レベルとの調整が施される。内視鏡が患者に挿入されると、これらのパラメータの一意のシグネチャを使用して患者への内視鏡の挿入が特定される。
内視鏡を使用して実施される外科的処置の経過時間を決定するためのシステムは、命令を格納するメモリと、演算を行う命令を実行するプロセッサとを含むことができる。演算は、内視鏡の遠位端の内部に配置されたカメラのカメラパラメータを監視して、患者への内視鏡の挿入時期を特定することにより、内視鏡が患者に挿入された挿入時期を決定することを含むことができる。演算はまた、カメラパラメータを監視して、患者からの内視鏡の除去時期を特定することにより、患者からの内視鏡の除去時期を決定することを含むことができる。演算はまた、患者への内視鏡の挿入時期と、患者からの内視鏡の除去時期とに基づいて、手術の経過時間を生成することを含むことができる。
カメラパラメータを監視して、患者への内視鏡の挿入時期を特定する演算は、カメラ露光指数の変化率を監視して、内視鏡が患者に挿入された時点を特定することを含むことができる。カメラ露光指数の変化率を監視することは、露光時間と信号ゲインの組み合わせから形成されるカメラ露光指数の変化率を監視することを含むことができる。
カメラパラメータを監視して、患者からの内視鏡の除去時期を特定する演算は、カメラ露光指数の変化率を監視して、内視鏡が患者から除去された時点を特定することを含むことができる。カメラ露光指数の変化率を監視する演算は、露光時間と信号ゲインの組み合わせから形成されるカメラ露光指数の変化率を監視することを含むことができる。
システムはまた、潜在的な偽信号を考慮するように構成可能である。静止画像をキャプチャすることは、内視鏡の挿入と同じように露光指数に影響を及ぼす。システムは、画像キャプチャイベントを把握しており、内視鏡の挿入及び除去をミュートすることができるので、この種の偽トリガを拒絶することができる。例えば、システムは、演算が、カメラの内部で静止画像キャプチャイベントの兆候を受信することと、静止画像キャプチャイベント中に、カメラに関連付けられたカメラ露光指数を無視して、患者への内視鏡の挿入の誤った特定を防止することとを含むように、機能することができる。これに加え、システムはまた、演算が、カメラの内部での静止画像キャプチャイベントを示す兆候を受信することと、静止画像キャプチャイベント中に、カメラに関連付けられたカメラ露光指数を無視して、患者からの内視鏡の除去の誤った特定を防止することとを含むように、機能することができる。
システムはまた、監視されるカメラパラメータの分析をさらに精密化するように構成可能である。例えば、限定を目的とするものではないが、システムは、それぞれのピークに関連付けられた要素、すなわちピークの一意の特性を提供するそれぞれのピークの時間幅と、ピークに対する論理的順序とを特定するように構成可能である。システムはまた、イベント同士の間の期間を分析して、どのイベントが発生したかを明らかにするシグネチャを特定することができるように構成可能である。システムはまた、イベントの継続時間を分析して、どのイベントが発生したかを決定することができる。システムは、イベントの論理的シーケンスを分析して、挿入イベント及び除去イベントを決定することができる。システムは、限定されるものではないが「ケース開始」、「画像キャプチャ」、及び「ホワイトバランス」のようなイベントを特定して、内視鏡の挿入イベント及び内視鏡の除去イベントの特定を補助するように構成可能である。システムはまた、短期間に繰り返し発生する複数のピークをフィルタアウトして、挿入イベント及び除去イベントの誤った特定を防止するように構成可能である。
内視鏡を使用して実施される外科的処置の経過時間を決定するための本システムの利点は、患者の手術中ではあるが他の補助的な活動が発生している総時間ではなく、外科医が実際に患者に対して作業している際に費やされた時間を決定することが、本システムによって可能となることである。
これらの実施形態及びその他の実施形態は、以下でより詳細に説明される。
図1~図6に示されているように、内視鏡12を使用して実施される外科的処置の経過時間を決定するためのシステム10が開示される。システム10は、手術室の効率を評価するために、限定されるものではないが例えば、手術室の整合性及び異常な処理時間の頻度等の手術室のパフォーマンスの評価指標を決定して、手術室の監視を管理するために経過時間を決定するように構成可能である。システム10は、患者14への内視鏡12の挿入を決定することと、患者14からの内視鏡12の除去を決定することとを含むことができる。次いで、システム10は、患者14への内視鏡12の挿入時期と、患者14からの内視鏡12の除去時期とに基づいて、手術の経過時間を生成することができる。システム10は、この手術の経過時間を、1つ又は複数のネットワーク24を介して通信することができる。
内視鏡下低侵襲外科手術では、小切開を通して体内構造に視覚的にアクセスするために内視鏡12を使用することができる。小切開は、少ない痛み、感染リスクの低減、回復の加速、及び失血の低減を結果的にもたらすことができる。内視鏡は、手術部位の唯一の視野を外科医に提供し、したがって、外科医は、内視鏡が患者14に挿入されているときにだけ手術を行うことができる。システム10は、内視鏡12がいつ患者14に挿入されるか、及びいつ患者14から除去されるかを決定し、次いで、外科的処置の経過時間を決定するように構成されている。システム10は、内視鏡12がいつ患者14に挿入されるか、及びいつ患者14から除去されるかを示すために収集することができる情報の複数のソースを使用することができる。これらのソースは、精度を向上させるために、ケース開始の修飾子としての初期ホワイトバランスステップ、継続的な監視による自動露光ステータス、及びこれらのイベント中における画像処理を使用した画像分析を含む。内視鏡12は、ポータル間で移動及び洗浄されるので、患者14に対する医療処置中、これら両方のイベントが繰り返し発生することが想定される。図4に示されているように、医療処置中、内視鏡12の遠位端22に取り付けられたカメラ20には、最良の画像を外科医に提供するためにゲイン及び露光時間と照明レベルとの調整が施される。内視鏡12が患者14に挿入されると、これらのパラメータの一意のシグネチャを使用して患者14への内視鏡12の挿入が特定される。
内視鏡12を使用して実施される外科的処置の経過時間を決定するためのシステム10は、命令を格納するメモリ18と、演算を行う命令を実行するプロセッサ24とを含むことができる。メモリ18及びプロセッサ24は、サーバ160の内部に収容可能であり、サーバ160は、ユーザが他のデバイスを介して遠隔地のデータにアクセスすることを可能にする通信ネットワーク135と通信することができる。演算は、内視鏡12の遠位端22の内部に配置されているカメラ20のカメラパラメータを監視して、患者14への内視鏡12の挿入時期を特定することにより、患者14に挿入される内視鏡12の挿入時期を決定することを含むことができる。演算はまた、カメラパラメータを監視して、患者14からの内視鏡12の除去時期を特定することにより、患者14からの内視鏡12の除去時期を決定することを含むことができる。演算はまた、患者14への内視鏡12の挿入時期と、患者14からの内視鏡12の除去時期とに基づいて、手術の経過時間を生成することを含むことができる。
システム10は、少なくとも1つの実施形態において、自動露出機構(AEC)信号を監視することによって、カメラ20のカメラパラメータを監視することにより、患者14に挿入される内視鏡12の挿入時期を決定することができる。システム10は、ステップ48において、AEC信号を監視することと、限定されるものではないが例えばケース開始、ケース終了、ホワイトバランス、ビデオキャプチャ、及び画像キャプチャ等の、ソフトウェア駆動型イベントを監視することとによって、データを収集することができる。図3に示されているように、システム10は、ステップ50において、システム10が標的の特徴イベントを検出することを可能にするための信号調整を含むことができる。システム10は、ステップ52において特徴検出を含むことができる。システム10が標的の特徴を検出すると、システム10は、ステップ54において、例えばスコープイン(Scope In)イベントと称される、内視鏡12が患者14に挿入されるとき、及び、スコープアウト(Scope Out)イベントと称される、内視鏡12が患者14から除去されるとき等のイベントを保存することができる。
カメラパラメータを監視して、患者14への内視鏡12の挿入時期を特定する演算は、図4に示されているようなカメラ露光指数の変化率を監視して、内視鏡12が患者14に挿入された時点を特定することを含むことができる。カメラ露光指数の変化率を監視することは、露光時間と信号ゲインの組み合わせから形成されるカメラ露光指数の変化率を監視することを含むことができる。
カメラパラメータを監視して、患者14からの内視鏡12の除去時期を特定する演算は、内視鏡12が患者14から除去された時点を特定するためにカメラ露光指数の変化率を監視することを含むことができる。カメラ露光指数の変化率を監視する演算は、露光時間と信号ゲインの組み合わせから形成されるカメラ露光指数の変化率を監視することを含むことができる。
システム10は、潜在的な偽信号を考慮するようにも構成可能である。静止画像をキャプチャすることは、内視鏡の挿入と同じように露光指数に影響を及ぼす。システム10は、画像キャプチャイベントを把握しており、内視鏡の挿入及び除去をミュートすることができるので、この種の偽トリガを拒絶することができる。例えば、システム10は、演算が、カメラ20の内部で静止画像キャプチャイベントの兆候を受信することと、静止画像キャプチャイベント中に、カメラ20に関連付けられたカメラ露光指数を無視して、患者14への内視鏡12の挿入に関する誤った特定を防止することとを含むように、機能することができる。これに加え、システムは、演算が、カメラ20の内部で静止画像キャプチャイベントを示す兆候を受信することと、静止画像キャプチャイベント中に、カメラに関連付けられたカメラ露光指数を無視して、患者14からの内視鏡12の除去に関する誤った特定を防止することとを含むように、機能することもできる。
図2に示されているように、内視鏡12を使用して実施される外科的処置の経過時間を決定するための方法30が開示される。方法30は、ステップ32において、内視鏡12の遠位端22の内部に配置されているカメラ20のカメラパラメータを監視して、患者14への内視鏡12の挿入時期を特定することにより、患者14への内視鏡12の挿入時期を決定することを含むことができる。ステップ32を実施する方法は、図3のステップ48~54に従うことができる。方法30は、ステップ34において、カメラパラメータを監視して、患者14からの内視鏡12の除去時期を特定することにより、患者14からの内視鏡12の除去時期を決定することを含むこともできる。ステップ34を実施する方法は、図3のステップ48~54に従うことができる。方法30は、ステップ36において、患者14への内視鏡12の挿入時期と、患者14からの内視鏡12の除去時期とに基づいて、手術の経過時間を生成することを含むこともできる。
カメラ20のカメラパラメータを監視して、患者14への内視鏡12の挿入時期を特定することにより、患者14への内視鏡12の挿入時期を決定するステップ32は、カメラ露光指数の変化率を監視して、内視鏡12が患者14に挿入された時点を特定することを含むことができる。カメラ露光指数の変化率を監視することを含むステップ32は、カメラの露光時間と信号ゲインの組み合わせから形成されるカメラ露光指数の変化率を監視することを含むことができる。
方法30はまた、カメラ20の内部で静止画像キャプチャイベントの兆候を受信することと、静止画像キャプチャイベント中に、カメラ20に関連付けられたカメラ露光指数を無視して、患者14への内視鏡12の挿入の誤った特定を防止することとを含むことができる。
カメラ20のカメラパラメータを監視して、患者14からの内視鏡12の除去時期を特定することにより、患者14からの内視鏡12の除去時期を決定するステップ34は、カメラ露光指数の変化率を監視して、内視鏡12が患者14から除去された時点を特定することを含むことができる。カメラ露光指数の変化率を監視することを含むステップ32は、露光時間と信号ゲインの組み合わせから形成されるカメラ露光指数の変化率を監視することを含むことができる。
方法30は、ステップ38において、カメラ20の内部で静止画像キャプチャイベントの兆候を受信することと、静止画像キャプチャイベント中に、カメラ20に関連付けられたカメラ露光指数を無視して、患者14からの内視鏡12の除去の誤った特定を防止することとを含むこともできる。
システム10は、監視されるカメラパラメータの分析をさらに精密化するようにも構成可能である。特に、システム10は、データの論理的分析を用いて、又は前述したカメラパラメータと併せて時間を用いて、例えば内視鏡の挿入又は内視鏡の除去等のイベントがいつ発生したかを決定するように構成可能である。例えば、限定を目的とするものではないが、システム10は、ステップ36において、それぞれのピークに関連付けられた要素、すなわちピークの一意の特性を提供するそれぞれのピークの時間幅と、ピークに対する論理的順序とを特定するように構成可能である。システム10はまた、ステップ36において、イベント同士の間の期間を特定して、どのイベントが発生したかを明らかにするシグネチャを決定することができるように構成可能である。システム10はまた、ステップ36において、イベントの継続時間を分析して、どのイベントが発生したかを決定することができる。システム10は、限定されるものではないが例えば「ケース開始」、「画像キャプチャ」、「ホワイトバランス」、及び「ケース終了」等のイベントの典型的な継続時間を用いて、事前プログラミング可能である。システム10は、イベントの論理的シーケンスを分析して、挿入イベント及び除去イベントを決定することができる。システム10は、限定されるものではないが例えば「ケース開始」、「画像キャプチャ」、「ホワイトバランス」、及び「ケース終了」等のイベントを特定して、内視鏡の挿入イベント及び内視鏡の除去イベントの特定を補助し、かつ偽信号を無視するように構成可能である。システム10はまた、短期間に繰り返し発生する複数のピークをフィルタアウトして、挿入イベント及び除去イベントの誤った特定を防止するように構成可能である。
システム10はまた、プロセッサ1002によってロード及び実行された場合に、内視鏡12の遠位端22の内部に配置されたカメラ20のカメラパラメータを監視して、患者14への内視鏡12の挿入時期を特定することにより、患者14への内視鏡12の挿入時期を決定するステップ32を含む演算を、プロセッサ1002に実行させるための命令を含む、非一時的コンピュータ可読デバイス1022を含むように構成可能である。非一時的コンピュータ可読デバイス1022はまた、カメラパラメータを監視して、患者14からの内視鏡12の除去時期を特定することにより、患者14からの内視鏡12の除去時期を決定するステップ34を含む演算を、プロセッサ1002に実行させるための命令を含むことができる。非一時的コンピュータ可読デバイス1022はまた、患者14への内視鏡12の挿入時期と、患者14からの内視鏡12の除去時期とに基づいて、手術の経過時間を生成するステップ36を含む演算を、プロセッサ1002に実行させるための命令を含むことができる。
図1~図6に示されているように、内視鏡12を使用して実施される外科的処置の経過時間を決定するためのシステム10及び方法30が開示される。システム10は、手術室から離れたコンピューティングデバイスを介して、ユーザがシステム10上の情報にアクセスすることを可能にするように構成可能である。したがって、データの診断及び検討をあらゆる所望の場所において実施することができる。システム10は、機械学習サービス、データ及びコンテンツサービス、コンピューティングアプリケーション及びサービス、クラウドコンピューティングサービス、インターネットサービス、衛星サービス、電話サービス、サービスとしてのソフトウェア(software as a service:SaaS)アプリケーション及びサービス、モバイルアプリケーション及びサービス、サービスとしてのプラットフォーム(platform as a service:PaaS)アプリケーション及びサービス、ウェブサービス、クライアントサーバ、及び任意の他のコンピューティングアプリケーション及びサービスを、サポートするように構成可能であるが、これらのサポートに限定するわけではない。システム10は、第1のユーザ101を含むことができ、第1のユーザ101は、第1のユーザデバイス102を利用してデータ、コンテンツ、及びアプリケーションにアクセスすることができるか、又は種々異なる他のタスク及び機能を実行することができる。一例として、第1のユーザ101は、第1のユーザデバイス102を利用して、システム10に関連付けられたウェブページ、データ、及びコンテンツにアクセスするために利用可能な、第1のユーザデバイス102上で実行されるアプリケーション(例えば、ブラウザ又はモバイルアプリケーション)にアクセスすることができる。システム10は、任意の数のユーザを含むことができる。
第1のユーザ101によって利用される第1のユーザデバイス102は、命令を含むメモリ103と、第1のユーザデバイス102によって実施される種々の演算を行う、メモリ103からの命令を実行するプロセッサ104とを含むことができる。特定の実施形態では、プロセッサ104は、ハードウェア、ソフトウェア、又はそれらの組み合わせであってよい。第1のユーザデバイス102は、インタフェース105(例えば、画面、モニタ、グラフィカルユーザインタフェース等)を含むこともでき、インタフェース105は、第1のユーザ101が、第1のユーザデバイス102上で実行される種々のアプリケーションと相互作用すること、システム10の内部で実行される種々のアプリケーションと相互作用すること、及びシステム10自体と相互作用することを可能にすることができる。特定の実施形態では、第1のユーザデバイス102は、非視覚的な出力を提供するコンポーネントを含むことができる。例えば、第1のユーザデバイス102は、スピーカ、ハプティックコンポーネント、触覚コンポーネント、又は他のコンポーネントを含むことができ、これらは、第1のユーザ101によって知覚及び/又は経験することができる非視覚的な出力を生成するために利用可能である。特定の実施形態では、第1のユーザデバイス102を、インタフェース105を含まないように構成してもよい。特定の実施形態では、第1のユーザデバイス102は、コンピュータ、ラップトップ、タブレットデバイス、ファブレット、サーバ、モバイルデバイス、スマートフォン、スマートウォッチ及び/又は任意の他の種類のコンピューティングデバイスであってよい。例示的に、第1のユーザデバイス102は、図1ではモバイルデバイスとして図示されている。第1のユーザデバイス102は、全地球測位システム(GPS)を含むこともでき、全地球測位システム(GPS)は、GPS受信機、GPS機能を可能にするための任意の他の所要のコンポーネント、加速度計、ジャイロスコープ、センサ、及びモバイルデバイスに適した任意の他のコンポーネントを含むことができる。
第1のユーザ101に加えて、システム10は、第2のユーザ110を含むことができ、第2のユーザ110は、第2のユーザデバイス111を利用してデータ、コンテンツ、及びアプリケーションにアクセスすることができるか、又は種々異なる他のタスク及び機能を実行することができる。第1のユーザ101の場合と同様に、特定の実施形態では、第2のユーザ110は、カメラ20からのデータ、患者における内視鏡の使用の全経過時間、又は他の関連データを検討することができる任意の種類のユーザであってよい。第1のユーザ101に非常に類似して、第2のユーザ110は、第2のユーザデバイス111を利用して、システム10に関連付けられたウェブページ、データ、及びコンテンツにアクセスするために利用可能な、第2のユーザデバイス111上で実行されるアプリケーション(例えば、ブラウザ又はモバイルアプリケーション)にアクセスすることができる。第2のユーザデバイス111は、命令を含むメモリ112と、第2のユーザデバイス111によって実施される種々の演算を行う、メモリ112からの命令を実行するプロセッサ113とを含むことができる。特定の実施形態では、プロセッサ113は、ハードウェア、ソフトウェア、又はそれらの組み合わせであってよい。第2のユーザデバイス111は、インタフェース114(例えば、画面、モニタ、グラフィカルユーザインタフェース等)を含むこともでき、インタフェース114は、第2のユーザ110が、第2のユーザデバイス111上で実行される種々のアプリケーションと相互作用すること、システム10の内部で実行される種々のアプリケーションと相互作用すること、及びシステム10と相互作用することを可能にすることができる。特定の実施形態では、第2のユーザデバイス111は、コンピュータ、ラップトップ、タブレットデバイス、ファブレット、サーバ、モバイルデバイス、スマートフォン、スマートウォッチ及び/又は任意の他の種類のコンピューティングデバイスであってよい。例示的に、第2のユーザデバイス111は、図1のコンピューティングデバイスであってよい。第2のユーザデバイス111は、第1のユーザデバイス102に関して説明したコンポーネントのいずれかを含むこともできる。
特定の実施形態では、第1のユーザデバイス102及び第2のユーザデバイス111は、第1のユーザデバイス102及び第2のユーザデバイス111に格納された、及び/又は、第1のユーザデバイス102及び第2のユーザデバイス111にアクセス可能である、任意の数のソフトウェアアプリケーション及び/又はアプリケーションサービスを有することができる。例えば、第1のユーザデバイス102及び第2のユーザデバイス111は、人工知能ベースのアプリケーション、機械学習ベースのアプリケーション、タスクの完了を容易にするためのアプリケーション、クラウドベースのアプリケーション、検索エンジンアプリケーション、自然言語処理アプリケーション、データベースアプリケーション、アルゴリズムアプリケーション、電話ベースのアプリケーション、製品注文アプリケーション、ビジネスアプリケーション、電子商取引アプリケーション、メディアストリーミングアプリケーション、コンテンツベースのアプリケーション、データベースアプリケーション、ゲームアプリケーション、インターネットベースのアプリケーション、ブラウザアプリケーション、モバイルアプリケーション、サービスベースのアプリケーション、生産性アプリケーション、ビデオアプリケーション、音楽アプリケーション、ソーシャルメディアアプリケーション、プレゼンテーションアプリケーション、任意の他の種類のアプリケーション、任意の種類のアプリケーションサービス、又はそれらの組み合わせを含むことができる。特定の実施形態では、ソフトウェアアプリケーション及びサービスは、第1のユーザ101及び第2のユーザ110がソフトウェアアプリケーションと容易に相互作用することを可能にするための1つ又は複数のグラフィカルユーザインタフェースを含むことができる。ソフトウェアアプリケーション及びサービスはまた、システム10内の任意のデバイス、システム10内の任意のネットワーク、又はそれらの任意の組み合わせと相互作用するために、第1のユーザ101及び第2のユーザ110によって利用可能である。例えば、第1のユーザデバイス102及び第2のユーザデバイス111上で実行されるソフトウェアアプリケーションは、データを受信するためのアプリケーション、データを格納するためのアプリケーション、人口統計学的情報及び嗜好情報を受信するためのアプリケーション、データを変換するためのアプリケーション、数学的アルゴリズムを実行するためのアプリケーション、電子メッセージを生成及び送信するためのアプリケーション、種々の種類のコンテンツを生成及び送信するためのアプリケーション、任意の他の種類のアプリケーション、又はそれらの組み合わせであってよい。特定の実施形態では、第1のユーザデバイス102及び第2のユーザデバイス111は、関連する電話番号、インターネットプロトコルアドレス、デバイス識別子、又は、第1及び第2のユーザデバイス102,111及び/又は第1及び第2のユーザ101,110を一意に識別するための任意の他の識別子を、含むことができる。特定の実施形態では、インターネットプロトコルアドレスに基づいて、第1のユーザデバイス102及び第2のユーザデバイス111からの信号を受信することによって、又は、第1のユーザデバイス102及び第2のユーザデバイス111に対応するプロファイル情報に基づいて、第1のユーザデバイス102及び第2のユーザデバイス111に対応する位置情報を取得することができる。特定の実施形態では、第1のユーザデバイス102及び/又は第2のユーザデバイス111の全地球測位システムを利用することによって、位置情報を取得することができる。
システム10は、通信ネットワーク135を含むこともできる。システム10の通信ネットワーク135は、システム10内のデバイスの各々同士を相互にリンクさせるように構成可能である。例えば、通信ネットワーク135は、第1のユーザデバイス102によって、通信ネットワーク135の内部又は外部の他のデバイスと接続するために利用可能である。付加的に、通信ネットワーク135は、システム10を通過する任意の情報及びデータを送信、生成、及び受信するように構成可能である。特定の実施形態では、通信ネットワーク135は、任意の数のサーバ、データベース、又は他のコンポーネントを含むことができ、サービスプロバイダによって制御可能である。通信ネットワーク135は、クラウドコンピューティングネットワーク、電話ネットワーク、無線ネットワーク、イーサネットネットワーク、衛星ネットワーク、広帯域ネットワーク、セルラネットワーク、プライベートネットワーク、ケーブルネットワーク、インターネット、インターネットプロトコルネットワーク、コンテンツ配信ネットワーク、仮想プライベートネットワーク、任意のネットワーク、又はそれらの任意の組み合わせを、含むこともでき、これらに接続可能でもある。例示的に、サーバ140及びサーバ150は、通信ネットワーク135の内部に含まれているものとして図示されている。
とりわけ、サーバ140,150,160の任意の組み合わせを使用することによって、システム10の機能をサポート及び実行することができる。サーバ140及び150は、通信ネットワーク135内に属し得るが、特定の実施形態では、サーバ140,150は、通信ネットワーク135の外部に属し得る。サーバ140及び150を利用して、例えば第1のユーザデバイス102及び第2のユーザデバイス111上で実行されるアプリケーションによって要求される演算及び機能等の、システム10によって提供される種々の演算及び機能を実行することができる。特定の実施形態では、サーバ140は、命令を含むメモリ141と、サーバ140によって実施される種々の演算を行う、メモリ141からの命令を実行するプロセッサ142とを含むことができる。プロセッサ142は、ハードウェア、ソフトウェア、又はそれらの組み合わせであってよい。同様に、サーバ150は、命令を含むメモリ151と、サーバ150によって実施される種々の演算を行う、メモリ151からの命令を実行するプロセッサ152とを含むことができる。特定の実施形態では、サーバ140,150,及び160は、ネットワークサーバ、ルータ、ゲートウェイ、スイッチ、メディア分配ハブ、信号中継局、サービス制御ポイント、サービススイッチングポイント、ファイアウォール、ルータ、エッジデバイス、ノード、コンピュータ、モバイルデバイス、又は任意の他の適切なコンピューティングデバイス、又はそれらの任意の組み合わせであってよい。特定の実施形態では、サーバ140,150を、通信ネットワーク135、任意のネットワーク、システム10内の任意のデバイス、又はそれらの任意の組み合わせに、通信可能にリンクさせることができる。
システム10のデータベース155を利用して、システム10を通過する情報を格納及び中継し、システム10を通過する情報及び/又はコンテンツをキャッシュし、システム10内のデバイスの各々に関するデータを格納し、データベースの任意の他の典型的な機能を実行することができる。特定の実施形態では、データベース155は、システム10によって実施される任意の演算からの出力と、第1のユーザデバイス102及び第2のユーザデバイス111、サーバ140,150,160、又はそれらの任意の組み合わせによって実施される演算及びそれらによって生成される出力とを格納することができる。特定の実施形態では、データベース155は、システム10及びそのコンポーネントの演算機能を容易にするために、システム10によって利用される任意のデータソースから取得した任意の全ての情報の記録を格納し、内部のデータソース201及び外部のデータソース202から取得した任意の情報及びデータを格納し、集合したモデル208を格納し、評価対象アプリケーション230によって生成された出力を格納し、第1のユーザ101及び第2のユーザ110から及び/又は第1のユーザデバイス102及び第2のユーザデバイス111から受信したフィードバックを格納し、評価対象アプリケーション230と相互作用するために入力又は利用される入力を格納し、システム10によって生成されたソフトウェアコード245を格納し、システム10によって生成された報告242を格納し、システム10によって生成された分析243を格納し、システム10によって生成された試験結果246を格納し、試験データ247を格納し、メディアトレーニングビデオ及びメディアコンテンツを格納し、システム10によって生成及び/又は受信された任意の情報、システム10を通過する任意の他のデータ、又はそれらの任意の組み合わせを格納することができる。特定の実施形態では、データベース155は、通信ネットワーク135、任意の他のネットワーク、又はそれらの組み合わせに接続可能であるか、又は通信ネットワーク135、任意の他のネットワーク、又はそれらの組み合わせの内部に属し得る。特定の実施形態では、データベース155は、任意のデバイスに関連付けられた任意の情報のための、及びシステム10に関連付けられた情報のための中央リポジトリとして機能することができる。さらに、データベース155は、データベース155に関連付けられた種々の演算を行うため、プロセッサ及びメモリを含むことができるか、又はプロセッサ及びメモリに接続可能である。特定の実施形態では、データベース155は、サーバ140,150,160、第1のユーザデバイス102、第2のユーザデバイス111、システム10内の任意のデバイス、任意の他のデバイス、任意のネットワーク、又はそれらの任意の組み合わせに接続可能である。
データベース155はまた、システム10から取得した情報を格納し、第1のユーザ101及び第2のユーザ110に関連付けられた情報を格納し、第1のユーザデバイス102及び第2のユーザデバイス111に関する及び/又は第1のユーザ101及び第2のユーザ110に関する位置情報を格納し、第1のユーザ101及び第2のユーザ110に関連付けられたユーザプロファイルを格納し、システム10内の任意のデバイスに関連付けられたデバイスプロファイルを格納し、システム10を通過する通信を格納し、ユーザ嗜好を格納し、第1のユーザ101及び第2のユーザ110に関する人口統計学的情報を格納し、システム10内の任意のデバイス又は信号に関連付けられた情報を格納し、第1のユーザデバイス102及び第2のユーザデバイス111によってアクセスされたアプリケーションの使用に関連する情報を格納し、システム10内の任意のネットワークから取得した任意の情報を格納し、第1のユーザ101及び第2のユーザ110に関連付けられた履歴データを格納し、デバイス特性を格納し、第1のユーザ101及び第2のユーザ110に関連付けられた任意のデバイスに関連する情報又はそれらの任意の組み合わせを格納することができる。ユーザプロファイルは、限定されるものではないが例えば、ユーザ名、パスワード、連絡先、人口統計学的情報、心理学的情報、個人によって使用された又は個人に関連付けられたアプリケーションの識別情報、個人の任意の属性、任意の他の情報、又はそれらの組み合わせ等の、個人(例えば、第1のユーザ101及び/又は第2のユーザ110)に関連付けられた任意の種類の情報を含むことができる。デバイスプロファイルは、限定されるものではないが例えば、オペレーティングシステム情報、ハードウェア仕様、デバイスのそれぞれのコンポーネント(例えば、センサ、プロセッサ、メモリ、バッテリ等)に関する情報、デバイスの属性、任意の他の情報、又はそれらの組み合わせ等の、デバイスに関連付けられた任意の種類の情報を含むことができる。
特定の実施形態では、データベース155は、システム10自体の演算を容易にするアルゴリズム、システム10によって利用される任意のソフトウェアアプリケーション、又はそれらの任意の組み合わせを格納することができる。特定の実施形態では、データベース155は、システム10によって生成及び/又は処理された任意の情報を格納し、システム10に関して本明細書で開示される任意の演算及び機能に関して開示される任意の情報を格納し、システム10を通過する任意の情報を格納し、又はそれらの任意の組み合わせを格納するように構成可能である。さらに、データベース155は、システム10内の任意のデバイスによって当該データベース155に送信されたクエリを処理するように構成可能である。
特定の実施形態では、システム10は、外部のネットワーク165と通信及び/又は相互作用することができる。特定の実施形態では、外部のネットワーク165は、任意の数のサーバ、データベース、又は他のコンポーネントを含むことができ、特定の実施形態では、サービスプロバイダによって制御可能である。外部のネットワーク165はまた、クラウドコンピューティングネットワーク、電話ネットワーク、無線ネットワーク、イーサネットネットワーク、衛星ネットワーク、広帯域ネットワーク、セルラネットワーク、プライベートネットワーク、ケーブルネットワーク、インターネット、インターネットプロトコルネットワーク、コンテンツ配信ネットワーク、仮想プライベートネットワーク、任意のネットワーク、又はそれらの任意の組み合わせを含むことができ、これらに接続可能でもある。
システム10はまた、システム10の演算機能を実行及びサポートするように構成可能であるソフトウェアアプリケーション又はプログラムを含むことができる。特定の実施形態では、アプリケーションは、第1のユーザデバイス102及び第2のユーザデバイス111等の1つ又は複数のコンピューティングデバイスを利用しているユーザがアクセスすることを可能にすることができるソフトウェアプログラム、ウェブサイト、モバイルアプリケーション、ソフトウェアアプリケーション、ソフトウェアプロセス、又はそれらの組み合わせであってよい。システム10のアプリケーションは、第1のユーザデバイス102若しくは第2のユーザデバイス111上で実行されるブラウザプログラムによって、又は第1のユーザデバイス102若しくは第2のユーザデバイス111上で実行されるモバイルアプリケーションによって確立されるインターネット接続を介して、又は他の適切な手段を介してアクセス可能であってよい。付加的に、アプリケーションは、ユーザ及びコンピューティングデバイスが、当該アプリケーションを使用してアカウントを作成し、認証ユーザ名とパスワードログインとの組み合わせを用いてこの作成したアカウントにサインインすることを可能にすることができる。特定の実施形態では、ソフトウェアアプリケーションは、モバイルアプリケーション又はデスクトップアプリケーション等の、第1のユーザデバイス102及び/又は第2のユーザデバイス111上にインストールされたプログラムとして直接的に実行可能である。特定の実施形態では、ソフトウェアアプリケーションは、サーバ140,150,160の任意の組み合わせにおいて直接的に実行可能である。
ソフトウェアアプリケーションは、ソフトウェアアプリケーション内で実行される、及び/又は、ソフトウェアアプリケーションによってアクセス可能な、複数のプログラム及び/又は機能を含むことができる。例えば、ソフトウェアアプリケーションは、第1のユーザデバイス102及び/又は第2のユーザデバイス111、任意の種類のプログラム、又はそれらの任意の組み合わせによってアクセス可能であってよいウェブコンテンツ及びページを生成するアプリケーションを含むことができる。
本明細書で開示されるシステム及び方法は、さらなる機能及び特徴を含むことができる。例えば、システム10及び方法30の演算機能は、システム10及び方法30によって提供される演算を行うように特別に構成された専用のプロセッサ上で実行されるように構成可能である。とりわけ、システム10及び方法30によって提供される演算特徴及び演算機能は、システム10及び方法30によって提供される機能を容易にするために利用されているコンピューティングデバイスの効率を向上させることができる。例えば、システム10及び方法30は、機械学習を介して将来の行動の性能を最適化することができ、これにより、システム10のプロセッサ及びメモリを使用してシステム10内のデバイスによって実行されなければならないコンピュータ演算量が、本開示で説明したような機械学習を行うことができないシステムの場合よりも削減される。このような文脈において、プロセッサ及びメモリは、システム10によって既に実施されたアクション、演算、及び分析を実施する必要がないので、利用する必要のある処理能力が低くなり得る。特定の実施形態では、システム10は、発見及び/若しくは試験に関連付けられた、並びに/又は、発見及び/若しくは試験からの特定の状態が、特定の処理ハードウェア上ではより高速になる可能性があるということを学習することができる。例えば、複雑な数学的演算及び/又はグラフィックスを有する状態の場合には、浮動小数点プロセッサ又はグラフィックス処理ユニットが設けられていると、システム10がより良好に性能を発揮することができる。結果として、システム10及び方法30によって提供される機能は、本開示で提供されるソフトウェア及び機能を利用することによって、コンピュータリソースの使用における格別の節約を提供することができる。
とりわけ、特定の実施形態では、システム10及び方法の種々の機能及び特徴は、人間の介入なしで演算可能であり、コンピューティングデバイス、ロボット、プログラム及び/又はプロセスによって完全に実行可能である。例えば、特定の実施形態では、システム10によってサポートされる機能を提供するため、複数のコンピューティングデバイスが、システム10のデバイスと相互作用することができる。付加的に、特定の実施形態では、システム10は、欠陥、矛盾及び/又はエラーが当該システム10に導入される可能性を低減するために継続的に演算することができる。特定の実施形態では、システム10及び方法はまた、本開示で説明した特徴及び機能を利用することによって効果的なコンピューティングリソースの管理を提供することができる。例えば、特定の実施形態では、システム10は、カメラ20からデータを取得するための専用であり得るコンピュータプロセッサリソースの量(例えば、プロセッサクロックサイクル、プロセッサ速度、プロセッサキャッシュ等)を指定することができる。例えば、システム10は、データを取得するために、取得したデータを処理するために、及び/又は、カメラ20からデータを取得及び処理するための専用であり得る選択された処理能力を指定するために利用することができるプロセッサのプロセッササイクルの量を示すことができる。
特定の実施形態では、システム10内の任意のデバイス又はプログラムは、メモリデバイスに信号を送信して、メモリデバイスに選択された量のメモリリソースのみをシステム10の種々の演算に割り当てさせることができる。特定の実施形態では、システム10及び方法はまた、システム10内の処理リソース及び/又はメモリリソースの使用が選択された値及び/又はしきい値にある期間にのみシステム10及び方法30の演算機能を実行するために、プロセッサ及びメモリに信号を送信することを含むことができる。特定の実施形態では、システム10及び方法は、システム10によって利用又は生成された任意のデータを格納するため、メモリのうちのどの特定の部分(例えば、メモリセクタ等)を利用すべきかを示す信号を、システム10内で利用されているメモリデバイスに送信することを含むことができる。とりわけ、プロセッサ及びメモリに送信される信号を使用して、システム10によって実施される演算の実行中、コンピューティングリソースの使用を最適化することができる。結果として、そのような特徴は、既存の技術に対する格別の演算効率及び改善を提供する。
次に、図6も参照すると、システム10の例示的な実施形態に関して説明した方法論及び技術の少なくとも一部は、限定されるものではないがコンピュータシステム1000又は他のコンピューティングデバイス等の機械を組み込むことができ、この機械の内部では命令セットが、実行された場合に、上述した方法論又は機能のうちのいずれか1つ又は複数をこの機械に実行させることができる。機械は、システム10によって実施される種々の演算を容易にするように構成可能である。例えば、機械は、限定されるものではないが、システム10内で発生する処理負荷を支援するための処理能力を提供することによって、システム10を通過する命令又はデータを格納するための記憶容量を提供することによって、又はシステム10によって若しくはシステム10内で実施される他の任意の演算を支援することによって、システム10を支援するように構成可能である。
いくつかの実施形態では、機械は、スタンドアローンデバイスとして機能することができる。いくつかの実施形態では、機械は、限定されるものではないが例えば、第1のユーザデバイス102、第2のユーザデバイス111、サーバ140、サーバ150、データベース155、サーバ160、又はそれらの任意の組み合わせ等の、他の機械及びシステムに(例えば、通信ネットワーク135、別のネットワーク、又はそれらの組み合わせを使用して)接続可能であり、このような他の機械及びシステムによって実施される演算を支援することができる。機械は、システム内の他のコンポーネント、システム内の任意のプログラム、又はそれらの任意の組み合わせによって実施される演算を支援することができる。機械は、システム10内の任意のコンポーネントに接続可能である。ネットワーク化された配備では、機械は、サーバ・クライアントユーザ間ネットワーク環境におけるサーバ又はクライアントユーザ機械として機能することができるか、又はピアツーピア(又は分散型)ネットワーク環境におけるピア機械として機能することができる。機械は、サーバコンピュータ、クライアントユーザコンピュータ、パーソナルコンピュータ(PC)、タブレットPC、ラップトップコンピュータ、デスクトップコンピュータ、制御システム、ネットワークルータ、スイッチ又はブリッジ、又はこの機械によって行われるべき行動を指定する(順次の又はその他の)命令セットを実行することができる任意の機械を、含むことができる。さらに、単一の機械が図示されているが、「機械」という語は、本明細書で論じられる方法論のうちのいずれか1つ又は複数を実施するための命令セット(又は複数の命令セット)を個別に又は共働して実行する複数の機械の任意の集合体を含むものであるとも解釈されるべきである。
コンピュータシステム1000は、プロセッサ1002(例えば、中央処理ユニット(CPU)、グラフィックス処理ユニット(GPU)、又はその両方)と、メインメモリ1004と、スタティックメモリ1006とを含むことができ、これらは、バス1008を介して相互に通信する。コンピュータシステム100は、ビデオディスプレイユニット1010をさらに含むことができ、ビデオディスプレイユニット1010は、限定されるものではないが液晶ディスプレイ(LCD)、フラットパネル、ソリッドステートディスプレイ、又は陰極線管(CRT)であってよい。コンピュータシステム100は、限定されるものではないが例えばキーボード等の入力デバイス1012と、限定されるものではないが例えばマウス等のカーソル制御デバイス1014と、ディスクドライブユニット1016と、限定されるものではないが例えばスピーカ又はリモコン等の信号生成デバイス1018と、ネットワークインタフェースデバイス1020とを含むことができる。
ディスクドライブユニット1016は、機械可読媒体1022を含むことができ、機械可読媒体1022上には、限定されるものではないが例えば、本明細書に記載される方法論又は機能のうちのいずれか1つ又は複数を具現化するソフトウェア等の、上述した方法を含む1つ又は複数の命令セット1024が格納されている。命令1024はまた、コンピュータシステム100によって実行されている間、メインメモリ1004、スタティックメモリ1006、若しくはプロセッサ1002、又はそれらの組み合わせの内部に、完全に又は少なくとも部分的に属し得る。メインメモリ1004及びプロセッサ1002はまた、機械可読媒体を構成することができる。
限定されるものではないが特定用途向け集積回路、プログラマブルロジックアレイ、及び他のハードウェアデバイスを含む、専用のハードウェア実装も同様に、本明細書に記載される方法を実装するように構成可能である。種々の実施形態の機器及びシステムを含むことができるアプリケーションは、広義には種々異なる電子システム及びコンピュータシステムを含む。いくつかの実施形態は、モジュール間で及びモジュールを介して通信される関連する制御信号及びデータ信号を有する2つ以上の特定の相互接続されたハードウェアモジュール又はデバイスにおいて、又は特定用途向け集積回路の一部として、機能を実装する。したがって、例示的なシステムは、ソフトウェア実装、ファームウェア実装、及びハードウェア実装に適用可能である。
本開示の種々の実施形態によれば、本明細書に記載される方法は、コンピュータプロセッサ上で実行されるソフトウェアプログラムとして機能するために意図されている。さらに、ソフトウェアによる実装は、限定されるものではないが分散処理又はコンポーネント/オブジェクト分散処理、並列処理を含むことができ、又は仮想機械処理も、本明細書に記載される方法を実装するように構成可能である。
本開示は、命令1024を収容する機械可読媒体1022を企図しており、これにより、通信ネットワーク135、別のネットワーク、又はそれらの組み合わせに接続されたデバイスは、命令を使用して、音声、ビデオ、又はデータを送信又は受信することができ、通信ネットワーク135、別のネットワーク、又はそれらの組み合わせを介して通信することができる。命令1024はさらに、通信ネットワーク135、別のネットワーク、又はそれらの組み合わせにわたって、ネットワークインタフェースデバイス1020を介して、送信可能又は受信可能である。
機械可読媒体1022は、例示的な実施形態では単一の媒体として図示されているが、「機械可読媒体」という用語は、1つ又は複数の命令セットを格納する単一又は複数の媒体(例えば、集中型又は分散型データベース及び/又は関連するキャッシュ及びサーバ)を含むものとして解釈されるべきである。「機械可読媒体」という用語は、機械によって実行される命令セットを格納、符号化、又は搬送することが可能であって、かつ本開示の方法論のうちのいずれか1つ又は複数を機械に実行させる、任意の媒体を含むものであるとも解釈されるべきである。
したがって、「機械可読媒体」、「機械可読デバイス」、又は「コンピュータ可読デバイス」という用語は、限定されるものではないが、メモリデバイス、例えば1つ又は複数の読み出し専用(不揮発性)メモリ、ランダムアクセスメモリ、若しくは他の書き換え可能(揮発性)メモリを収容するメモリカード若しくは他のパッケージ等のソリッドステートメモリとして、例えばディスク若しくはテープ等の光磁気媒体若しくは光媒体として、又は、有形記憶媒体と同等の配布媒体であると見なされる他の自己完結型の情報のアーカイブ若しくはアーカイブの集合を含むものとして、解釈されるべきである。「機械可読媒体」、「機械可読デバイス」、又は「コンピュータ可読デバイス」は、非一時的なものであってよく、特定の実施形態では、波又は信号自体を含まなくてもよい。したがって、本開示は、本明細書に記載されるソフトウェア実装が格納されている、当該技術分野において承認されている均等物及び後継媒体を含む、本明細書に列挙されている機械可読媒体又は配布媒体のいずれか1つ又は複数を含むものと見なされる。
上記は、本発明の実施形態を例示、説明、及び記述する目的で提供されている。これらの実施形態に対する修正及び適合は、当業者には明らかであろうし、本発明の範囲又は思想から逸脱することなく実施可能である。
Claims (20)
- 内視鏡を使用して実施される外科的処置の経過時間を決定するためのシステムであって、
命令を格納するメモリと、
演算を行う前記命令を実行するプロセッサと
を含み、前記演算は、
内視鏡の内部に配置されたカメラのカメラパラメータを監視して、患者への前記内視鏡の挿入時期を特定することにより、前記内視鏡が患者に挿入された挿入時期を決定することと、
カメラパラメータを監視して、前記患者からの前記内視鏡の除去時期を特定することにより、前記患者からの前記内視鏡の除去時期を決定することと、
前記患者への前記内視鏡の前記挿入時期と、前記患者からの前記内視鏡の前記除去時期とに基づいて、手術の経過時間を生成することと、
を含むことを特徴とする、システム。 - カメラパラメータを監視して、前記患者への前記内視鏡の前記挿入時期を特定する前記演算は、カメラ露光指数の変化率を監視して、前記内視鏡が前記患者に挿入された時点を特定することを含むことを特徴とする、請求項1記載のシステム。
- カメラ露光指数の変化率を監視する前記演算は、露光時間と信号ゲインの組み合わせから形成されるカメラ露光指数の変化率を監視することを含むことを特徴とする、請求項2記載のシステム。
- 前記演算は、前記カメラの内部で静止画像キャプチャイベントの兆候を受信することと、前記静止画像キャプチャイベント中に、前記カメラに関連付けられたカメラ露光指数を無視して、前記患者への前記内視鏡の挿入に関する誤った特定を防止することとをさらに含むことを特徴とする、請求項2記載のシステム。
- カメラパラメータを監視して、前記患者からの前記内視鏡の前記除去時期を特定する前記演算は、カメラ露光指数の変化率を監視して、前記内視鏡が前記患者から除去された時点を特定することを含むことを特徴とする、請求項1記載のシステム。
- カメラ露光指数の変化率を監視する前記演算は、露光時間と信号ゲインの組み合わせから形成されるカメラ露光指数の変化率を監視することを含むことを特徴とする、請求項5記載のシステム。
- 前記演算は、前記カメラの内部で静止画像キャプチャイベントの兆候を受信することと、前記静止画像キャプチャイベント中に、前記カメラに関連付けられたカメラ露光指数を無視して、前記患者からの前記内視鏡の除去に関する誤った特定を防止することとをさらに含むことを特徴とする、請求項5記載のシステム。
- 手術の経過時間を生成することは、イベント同士の間の期間を決定して、どのイベントが発生したかを明らかにするシグネチャを決定することを含むことを特徴とする、請求項1記載のシステム。
- 手術の経過時間を生成することは、ピークの一意の特性を提供するピークの時間幅を含む、ピークに関連付けられた要素と、前記ピークに対する論理的順序とを特定することを含むことを特徴とする、請求項1記載のシステム。
- 手術の経過時間を生成することは、イベントの継続時間を分析して、どのイベントが発生したかを決定することを含むことを特徴とする、請求項1記載のシステム。
- 手術の経過時間を生成することは、イベントの論理的シーケンスを特定して、挿入イベント及び除去イベントを決定することを含むことを特徴とする、請求項1記載のシステム。
- 手術の経過時間を生成することは、短期間に繰り返し発生する複数のピークをフィルタアウトして、挿入イベント及び除去イベントの誤った特定を防止することを含むことを特徴とする、請求項1記載のシステム。
- 内視鏡を使用して実施される外科的処置の経過時間を決定するための方法であって、
内視鏡の内部に配置されたカメラのカメラパラメータを監視して、患者への前記内視鏡の挿入時期を特定することにより、前記内視鏡が前記患者に挿入された挿入時期を決定することと、
カメラパラメータを監視して、前記患者からの前記内視鏡の除去時期を特定すすることにより、前記患者からの前記内視鏡の除去時期を決定することと、
前記患者への前記内視鏡の前記挿入時期と、前記患者からの前記内視鏡の前記除去時期とに基づいて、手術の経過時間を生成することと、
を特徴とする、方法。 - カメラパラメータを監視して、前記患者への前記内視鏡の前記挿入時期を特定することは、カメラ露光指数の変化率を監視して、前記内視鏡が前記患者に挿入された時点を特定することを含むことを特徴とする、請求項13記載の方法。
- カメラ露光指数の変化率を監視することは、露光時間と信号ゲインの組み合わせから形成されるカメラ露光指数の変化率を監視することを含むことを特徴とする、請求項14記載の方法。
- 前記カメラの内部で静止画像キャプチャイベントの兆候を受信することと、前記静止画像キャプチャイベント中に、前記カメラに関連付けられたカメラ露光指数を無視して、前記患者への前記内視鏡の挿入に関する誤った特定を防止することとをさらに特徴とする、請求項14記載の方法。
- カメラパラメータを監視して、前記患者からの前記内視鏡の前記除去時期を特定することは、カメラ露光指数の変化率を監視して、前記内視鏡が前記患者から除去された時点を特定することを含むことを特徴とする、請求項13記載の方法。
- カメラ露光指数の変化率を監視することは、露光時間と信号ゲインの組み合わせから形成されるカメラ露光指数の変化率を監視することを含むことを特徴とする、請求項17記載の方法。
- 前記カメラの内部で静止画像キャプチャイベントの兆候を受信することと、前記静止画像キャプチャイベント中に、前記カメラに関連付けられたカメラ露光指数を無視して、前記患者からの前記内視鏡の除去に関する誤った特定を防止することと
をさらに特徴とする、請求項17記載の方法。 - プロセッサによってロード及び実行された場合に、以下の演算を前記プロセッサに実施させるための命令を含む、非一時的なコンピュータ可読デバイスであって、
内視鏡の内部に配置されたカメラのカメラパラメータを監視して、患者への前記内視鏡の挿入時期を特定することにより、前記内視鏡が前記患者に挿入された挿入時期を決定することと、
カメラパラメータを監視して、前記患者からの前記内視鏡の除去時期を特定することにより、前記患者からの前記内視鏡の除去時期を決定することと、
前記患者への前記内視鏡の前記挿入時期と、前記患者からの前記内視鏡の前記除去時期とに基づいて、手術の経過時間を生成することと、
を特徴とする、非一時的コンピュータ可読デバイス。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/926,075 US12035877B2 (en) | 2020-07-10 | 2020-07-10 | Endoscope insertion and removal detection system |
US16/926,075 | 2020-07-10 | ||
PCT/US2021/041120 WO2022011282A1 (en) | 2020-07-10 | 2021-07-09 | Endoscope insertion and removal detection system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023534792A true JP2023534792A (ja) | 2023-08-14 |
Family
ID=79172515
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023501345A Pending JP2023534792A (ja) | 2020-07-10 | 2021-07-09 | 内視鏡の挿入及び除去検出システム |
Country Status (6)
Country | Link |
---|---|
US (1) | US12035877B2 (ja) |
EP (1) | EP4178413A4 (ja) |
JP (1) | JP2023534792A (ja) |
CN (1) | CN116096283A (ja) |
CA (1) | CA3185578A1 (ja) |
WO (1) | WO2022011282A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024104926A1 (en) * | 2022-11-16 | 2024-05-23 | Sony Group Corporation | A medical control system, method and computer program |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5836869A (en) | 1994-12-13 | 1998-11-17 | Olympus Optical Co., Ltd. | Image tracking endoscope system |
US6468265B1 (en) | 1998-11-20 | 2002-10-22 | Intuitive Surgical, Inc. | Performing cardiac surgery without cardioplegia |
US6791601B1 (en) | 1999-11-11 | 2004-09-14 | Stryker Corporation | Multi-function image and video capture device for use in an endoscopic camera system |
US6842196B1 (en) | 2000-04-04 | 2005-01-11 | Smith & Nephew, Inc. | Method and system for automatic correction of motion artifacts |
US7577841B2 (en) | 2002-08-15 | 2009-08-18 | Digimarc Corporation | Watermark placement in watermarking of time varying media signals |
FR2853792A1 (fr) | 2003-04-11 | 2004-10-15 | France Telecom | Procede de tatouage d'une sequence video a selection adaptative de la zone d'insertion du tatouage, procede de detection, dispositifs, support de donnees et programmes d'ordinateur correspondants |
JP2005118232A (ja) | 2003-10-15 | 2005-05-12 | Olympus Corp | 手術支援システム |
US7232409B2 (en) | 2003-11-20 | 2007-06-19 | Karl Storz Development Corp. | Method and apparatus for displaying endoscopic images |
US20060100497A1 (en) | 2004-11-09 | 2006-05-11 | Hirokazu Sawazaki | Medical information system, program product for use in the medical information system and method of processing data to manage a medical procedures |
US20070238981A1 (en) | 2006-03-13 | 2007-10-11 | Bracco Imaging Spa | Methods and apparatuses for recording and reviewing surgical navigation processes |
US20070248330A1 (en) | 2006-04-06 | 2007-10-25 | Pillman Bruce H | Varying camera self-determination based on subject motion |
US8187174B2 (en) | 2007-01-22 | 2012-05-29 | Capso Vision, Inc. | Detection of when a capsule camera enters into or goes out of a human body and associated operations |
US20080281301A1 (en) | 2007-04-20 | 2008-11-13 | Deboer Charles | Personal Surgical Center |
WO2009128055A1 (en) | 2008-04-15 | 2009-10-22 | Provost Fellows And Scholars Of The College Of The Holy And Undivided Trinity Of Queen Elizabeth Near Dublin | Endoscopy system with motion sensors |
EP2348954A1 (en) | 2008-10-20 | 2011-08-03 | Koninklijke Philips Electronics N.V. | Image-based localization method and system |
BRPI0922450A2 (pt) * | 2008-12-10 | 2015-12-15 | Ambu As | sistema de formação de imagem com parte descartável. |
US9155592B2 (en) | 2009-06-16 | 2015-10-13 | Intuitive Surgical Operations, Inc. | Virtual measurement tool for minimally invasive surgery |
WO2011156001A1 (en) | 2010-06-07 | 2011-12-15 | Sti Medical Systems, Llc | Versatile video interpretation,visualization, and management system |
DE102011012460A1 (de) | 2011-02-25 | 2012-08-30 | Hicat Gmbh | Chirurgisches Instrument mit integrierter Navigationskontrolle |
US10105149B2 (en) | 2013-03-15 | 2018-10-23 | Board Of Regents Of The University Of Nebraska | On-board tool tracking system and methods of computer assisted surgery |
US9489738B2 (en) | 2013-04-26 | 2016-11-08 | Navigate Surgical Technologies, Inc. | System and method for tracking non-visible structure of a body with multi-element fiducial |
DK177984B9 (en) | 2013-11-12 | 2015-03-02 | Simonsen & Weel As | Device for endoscopy |
EP3136943A4 (en) | 2014-05-01 | 2017-12-27 | EndoChoice, Inc. | System and method of scanning a body cavity using a multiple viewing elements endoscope |
US10342410B2 (en) | 2016-10-26 | 2019-07-09 | Virgo Surgical Video Solutions, Inc. | Automated system for medical video recording and storage |
JP6465452B2 (ja) * | 2016-12-22 | 2019-02-06 | オリンパス株式会社 | 内視鏡挿入形状観測装置 |
CN112020321A (zh) * | 2018-03-29 | 2020-12-01 | 270医疗器械公司 | 医学成像系统和用于检测其位置的方法 |
US10910103B2 (en) * | 2018-12-14 | 2021-02-02 | Verb Surgical Inc. | Method and system for extracting an actual surgical duration from a total operating room (OR) time of a surgical procedure |
US11484384B2 (en) * | 2019-02-21 | 2022-11-01 | Theator inc. | Compilation video of differing events in surgeries on different patients |
-
2020
- 2020-07-10 US US16/926,075 patent/US12035877B2/en active Active
-
2021
- 2021-07-09 WO PCT/US2021/041120 patent/WO2022011282A1/en unknown
- 2021-07-09 JP JP2023501345A patent/JP2023534792A/ja active Pending
- 2021-07-09 CN CN202180061927.4A patent/CN116096283A/zh active Pending
- 2021-07-09 CA CA3185578A patent/CA3185578A1/en active Pending
- 2021-07-09 EP EP21837887.5A patent/EP4178413A4/en active Pending
Also Published As
Publication number | Publication date |
---|---|
CN116096283A (zh) | 2023-05-09 |
EP4178413A1 (en) | 2023-05-17 |
US20220011724A1 (en) | 2022-01-13 |
CA3185578A1 (en) | 2022-01-13 |
US12035877B2 (en) | 2024-07-16 |
WO2022011282A1 (en) | 2022-01-13 |
EP4178413A4 (en) | 2024-07-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10321342B2 (en) | Methods and systems for performance monitoring for mobile applications | |
US9384114B2 (en) | Group server performance correction via actions to server subset | |
JP2020030811A (ja) | 応答時間を確定するための方法及び装置 | |
JP4891605B2 (ja) | ソフトウェア管理システム及びソフトウェア配信サーバ | |
RU2616540C2 (ru) | Способ и система для контроля биометрических данных | |
US9658917B2 (en) | Server performance correction using remote server actions | |
CN110659109A (zh) | 一种openstack集群虚拟机监控系统及方法 | |
JP2023534792A (ja) | 内視鏡の挿入及び除去検出システム | |
CN108322917B (zh) | 无线网络接入故障定位方法、设备、系统及存储介质 | |
CN111916203B (zh) | 健康检测方法、装置、电子设备及存储介质 | |
CN112992325A (zh) | 一种监护对象的检测数据处理方法、系统及装置 | |
US11776294B2 (en) | Method, apparatus, computing device and computer-readable storage medium for monitoring use of target item | |
CA3015178C (en) | Tool for identifying occurrence of acute incident symptomatic of mental condition or disorder | |
CN113342608A (zh) | 流式计算引擎任务的监控方法及装置 | |
EP3921747A1 (en) | Systems and methods for item response modelling of digital assessments | |
JP2017068691A (ja) | 診断プログラム、診断方法および診断装置 | |
KR102427085B1 (ko) | 학습 서비스를 제공하는 전자 장치 및 이의 동작 방법 | |
US20230290115A1 (en) | Method, apparatus and non-transitory computer readable medium | |
CN110633182B (zh) | 用于监控服务器稳定性的系统、方法和装置 | |
US8055760B1 (en) | Firewall doctor | |
US20170319079A1 (en) | Method of calculating blood pressure using a mobile device | |
US20220175469A1 (en) | Interactive Tendon Repair Guide System | |
JP2020201751A (ja) | ユーザ状態推定装置 | |
US20220375550A1 (en) | System and method for detecting issues in clinical study site and subject compliance | |
JP2020091802A (ja) | 検証装置、教師データ、教師データ生成装置、異常判定装置、検証方法、教師データ生成方法、異常判定方法、および制御プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230803 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240404 |