JP2021112220A - Image processing system, image processing device, image processing method and program - Google Patents
Image processing system, image processing device, image processing method and program Download PDFInfo
- Publication number
- JP2021112220A JP2021112220A JP2018079066A JP2018079066A JP2021112220A JP 2021112220 A JP2021112220 A JP 2021112220A JP 2018079066 A JP2018079066 A JP 2018079066A JP 2018079066 A JP2018079066 A JP 2018079066A JP 2021112220 A JP2021112220 A JP 2021112220A
- Authority
- JP
- Japan
- Prior art keywords
- white light
- image processing
- blood
- image
- bleeding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/045—Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/579—Depth or shape recovery from multiple images from motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Engineering & Computer Science (AREA)
- Radiology & Medical Imaging (AREA)
- Heart & Thoracic Surgery (AREA)
- Biophysics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Optics & Photonics (AREA)
- Pathology (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Biomedical Technology (AREA)
- Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Endoscopes (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本開示は、画像処理システム、画像処理装置、画像処理方法及びプログラムに関する。 The present disclosure relates to an image processing system, an image processing apparatus, an image processing method and a program.
医療現場において、生体内部を観察するための機器である内視鏡や顕微鏡等に対して装着が可能な手術用カメラが普及するのに伴い、医師が生体内部の患部を直接肉眼で確認するのではなく、手術用カメラを用いて取得された映像により患部を確認しながら患部を治療する場面が増加している。近年、手術用カメラで取得された画像に対して目的に応じた画像処理を施すことで手術の支援を行う技術が、数多く提案されている。 With the widespread use of surgical cameras that can be attached to endoscopes and microscopes, which are devices for observing the inside of a living body in the medical field, doctors can directly check the affected part inside the living body with the naked eye. Instead, the number of scenes in which the affected area is treated while being confirmed by images acquired using a surgical camera is increasing. In recent years, many techniques have been proposed to support surgery by performing image processing according to a purpose on an image acquired by a surgical camera.
上記のような手術支援技術の一つとして、例えば、以下の特許文献1には、奥行情報を用いることで立体的な構造や物体間の位置関係の情報を得られやすくする技術が開示されている。この特許文献1では、出血により生じた血溜まりの厚さを解析し、得られた厚さが所定の厚さ以上となった位置を、出血位置として検出する旨が開示されている。
As one of the above-mentioned surgical support techniques, for example, the following
しかし、血溜まりの下部に存在する臓器表面は平面ではなく、凹凸がある場合が多い。そのため、特許文献1に開示された技術では、出血位置ではない箇所を出血位置であると判断する可能性がある。医療現場において出血位置の正確な特定は、場合によっては患者の生命にも関わる重要な問題であり、出血位置の正確な特定には、なお改善の余地がある。
However, the surface of the organ existing in the lower part of the blood clot is not flat and often has irregularities. Therefore, in the technique disclosed in
そこで、本開示では、上記事情に鑑みて、手術時における術部の出血箇所をより正確に把握することが可能な、画像処理システム、画像処理装置、画像処理方法及びプログラムを提案する。 Therefore, in view of the above circumstances, the present disclosure proposes an image processing system, an image processing device, an image processing method, and a program capable of more accurately grasping the bleeding part of the surgical site at the time of surgery.
本開示によれば、白色光を照射する白色光源を少なくとも有し、手術が行われている生体の一部である術部に対し前記白色光を照射する光源装置と、前記光源装置により前記白色光が照射された前記術部の白色光画像を取得する手術用カメラと、異なる時点で取得された複数の前記白色光画像を用い、当該複数の白色光画像間における前記術部の時間変化に基づいて、前記術部における出血位置を特定する画像処理装置と、を備える、画像処理システムが提供される。 According to the present disclosure, a light source device that has at least a white light source that irradiates white light and irradiates the surgical site that is a part of a living body in which surgery is performed with the white light, and the white light source device. Using a surgical camera that acquires a white light image of the surgical site irradiated with light and a plurality of the white light images acquired at different time points, the time change of the surgical site between the plurality of white light images Based on this, an image processing system including an image processing device for identifying a bleeding position in the surgical site is provided.
また、本開示によれば、白色光を照射する白色光源を少なくとも有する光源装置からの前記白色光により照明されている、手術が行われている生体の一部である術部を、手術用カメラにより異なる時点で撮像することで得られる複数の白色光画像を用い、当該複数の白色光画像間における前記術部の時間変化に基づいて、前記術部における出血位置を特定する特定部、を備える、画像処理装置が提供される。 Further, according to the present disclosure, a surgical camera that is a part of a living body under surgery, which is illuminated by the white light from a light source device having at least a white light source that irradiates white light. A plurality of white light images obtained by imaging at different time points are used, and a specific portion for identifying a bleeding position in the surgical site is provided based on a time change of the surgical site between the plurality of white light images. , An image processing apparatus is provided.
また、本開示によれば、白色光を照射する白色光源を少なくとも有する光源装置からの前記白色光により照明されている、手術が行われている生体の一部である術部を、手術用カメラにより異なる時点で撮像することで得られる複数の白色光画像を用い、当該複数の白色光画像間における前記術部の時間変化に基づいて、前記術部における出血位置を特定すること、を含む画像処理方法が提供される。 Further, according to the present disclosure, a surgical camera that is a part of a living body under surgery, which is illuminated by the white light from a light source device having at least a white light source that irradiates white light. An image including identifying a bleeding position in the surgical site based on a time change of the surgical site between the plurality of white light images using a plurality of white light images obtained by imaging at different time points. A processing method is provided.
また、本開示によれば、白色光を照射する白色光源を少なくとも有し、手術が行われている生体の一部である術部に対し前記白色光を照射する光源装置、及び、前記光源装置により前記白色光が照射された前記術部の白色光画像を取得する手術用カメラの双方と相互に通信が可能なコンピュータを、前記手術用カメラによって異なる時間で取得された複数の前記白色光画像を用い、当該複数の画像間における前記術部の時間変化に基づいて、前記術部における出血位置を特定する特定部、として機能させるための、プログラムが提供される。 Further, according to the present disclosure, a light source device that has at least a white light source that irradiates white light and irradiates the surgical site that is a part of a living body in which surgery is performed with the white light, and the light source device. A computer capable of communicating with both of the surgical cameras that acquire the white light image of the surgical site irradiated with the white light by the surgical camera, and a plurality of the white light images acquired by the surgical camera at different times. Is provided to provide a program for functioning as a specific part for identifying a bleeding position in the surgical part based on a time change of the surgical part between the plurality of images.
本開示によれば、手術用カメラは、術部の白色光画像を異なる時点で取得し、画像処理装置は、異なる時点で取得された複数の白色光画像間における術部の時間変化に基づいて、術部における出血位置を特定する。 According to the present disclosure, a surgical camera acquires white light images of a surgical site at different time points, and an image processing device is based on a time change of the surgical site between a plurality of white light images acquired at different time points. , Identify the location of bleeding in the surgical site.
以上説明したように本開示によれば、手術時における術部の出血箇所をより正確に把握することが可能となる。 As described above, according to the present disclosure, it is possible to more accurately grasp the bleeding site of the surgical site at the time of surgery.
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、又は、上記の効果に代えて、本明細書に示されたいずれかの効果、又は、本明細書から把握され得る他の効果が奏されてもよい。 It should be noted that the above effects are not necessarily limited, and any of the effects shown in the present specification, or other effects that can be grasped from the present specification, together with the above effects or in place of the above effects. The effect of may be achieved.
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Preferred embodiments of the present disclosure will be described in detail below with reference to the accompanying drawings. In the present specification and the drawings, components having substantially the same functional configuration are designated by the same reference numerals, so that duplicate description will be omitted.
また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。 Further, in the present specification and the drawings, a plurality of components having substantially the same functional configuration may be distinguished by adding different alphabets after the same reference numerals. However, if it is not necessary to distinguish each of the plurality of components having substantially the same functional configuration, only the same reference numerals are given.
なお、説明は以下の順序で行うものとする。
<1.構成>
<1−1.内視鏡手術システム1の構成>
<1−2.画像処理システム10の構成>
<2.動作>
<3.ハードウェア構成>
<4.結び>
The explanations will be given in the following order.
<1. Configuration>
<1-1. Configuration of
<1-2. Configuration of
<2. Operation>
<3. Hardware configuration>
<4. Conclusion>
<1.構成>
<1−1.内視鏡手術システム1の構成>
まず、本開示に係る技術が適用され得る内視鏡手術システム1の概略構成を説明する。図1は、本開示に係る技術が適用され得る内視鏡手術システム1の概略的な構成の一例を示す図である。内視鏡手術システム1は、医療現場において開腹手術に代わって行われる内視鏡下手術に用いられる。
<1. Configuration>
<1-1. Configuration of
First, a schematic configuration of an
内視鏡手術では、腹壁を切って開腹する代わりに、トロッカ200a〜200dと称される開孔器具が患部230の腹壁に取り付けられる。トロッカ200a〜200dから手術用カメラ110、エネルギ処置具210や鉗子220が患者の体腔内に挿入される。手術用カメラ110によって撮像された患部230の画像をリアルタイムで見ながら、エネルギ処置具210等によって、例えば、患部230を切除する等の処置が行われる。なお、図示は省略しているが、手術用カメラ110、エネルギ処置具210や鉗子220は、術中に、術者、助手、スコピスト又はロボット等によって支持される。
In endoscopic surgery, instead of cutting and opening the abdominal wall, a laparotomy device called a trocca 200a-200d is attached to the abdominal wall of the affected
内視鏡下手術が行われる手術室内には、内視鏡手術のための装置類を搭載するカート190、患者が横たわるベッド240、フットスイッチ250が配置される。カート190は、医療機器として、例えば、カメラコントロールユニット(Camera Control Unit:CCU)100、光源装置130、出力装置140、処置具制御装置150、気腹装置160、レコーダ170及びプリンタ180の装置を載置している。
In the operating room where endoscopic surgery is performed, a
(手術用カメラ110)
手術用カメラ110は、手術が行われている術部の画像を取得する機能を有する。手術用カメラ110は、後述する光源装置130から術部に照射される光の種類に応じた画像を取得する。手術用カメラ110は、例えば、白色光が照射された術部の画像である白色光画像や、近赤外光帯に属する波長を有する近赤外光が照射された術部の画像である近赤外光画像、所定の波長を有するレーザ光が術部に照射されたレーザ光画像等を取得する。白色光画像及び近赤外光画像は、手術用カメラ110に複数の撮像素子を備えさせ、白色光画像と近赤外光画像とで異なる撮像素子により撮像されてもよいし、光源装置130の光源を切り替えて、単一のイメージャで白色光画像と近赤外光画像とが撮像されてもよい。手術用カメラ110により撮像された患部230の画像信号は、カメラケーブルを介してRAWデータとしてCCU100に伝送される。取得された画像は、レコーダ170や、CCU100が有する図2に示すような記憶部1250に保存されてもよい。手術用カメラ110とCCU100とは、カメラケーブルの他、無線による通信方法で接続されてもよい。手術用カメラ110としては、例えば、内視鏡や手術用顕微鏡が用いられてよい。なお、図示する例では、硬性の鏡筒を有するいわゆる硬性鏡として構成される手術用カメラ110を図示しているが、手術用カメラ110は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。カメラケーブルとしては、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブル等の有線の伝送ケーブルが用いられてもよい。
(Surgery camera 110)
The
手術用カメラ110には光源装置130が接続されており、当該光源装置130によって生成された光が、手術用カメラ110の先端に設けられた鏡筒の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者の体腔内の観察対象に向かって照射される。
A
(CCU100)
CCU100は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、手術用カメラ110及び出力装置140の動作を統括的に制御する。具体的には、CCU100は、手術用カメラ110から受け取った画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。CCU100は、当該画像処理を施した画像信号を出力装置140に提供する。また、CCU100は、手術用カメラ110に対して制御信号を送信し、その駆動を制御する。当該制御信号には、倍率や焦点距離等、撮像条件に関する情報が含まれ得る。
(CCU100)
The
(光源装置130)
光源装置130は、白色光を照射する白色光源を有する。光源装置130は、必要に応じて、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。光源装置130は、白色光源に加えて、例えば、近赤外光帯に属する波長を有する近赤外光を照射する近赤外光源及び所定の波長を有するレーザ光を照射するレーザ光源の少なくともいずれかを備えることが好ましい。また、光源装置130は、異なる波長の近赤外光を照射する近赤外光光源を複数有してもよい。光源装置130は、術部を撮影する際の照射光を手術用カメラ110に供給する。特殊光観察では、後述するように、術部の出血位置の特定や、出血量の算出等が行われてもよい。また、特殊鋼観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging:NBI)が行われてもよい。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察するもの(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得るもの等が行われ得る。光源装置130は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
(Light source device 130)
The
(出力装置140)
出力装置140は、CCU100からの制御により、当該CCU100によって画像処理が施された画像信号に基づく画像を表示する。また、出力装置は、CCU100からの制御により所定の音声を発する。
(Output device 140)
The
(処置具制御装置150)
処置具制御装置150は、組織の焼灼、切開又は血管の封止等のためのエネルギ処置具210の駆動を制御する。処置具制御装置150は、例えば、患部230を切断するエネルギ処置具210に対して高周波電流を出力する高周波出力装置である。
(Treatment tool control device 150)
The treatment
(気腹装置160)
気腹装置160は、送気、吸気手段を備え、患者体内、例えば腹部領域に空気を送気して患者の体腔を膨らませる装置である。気腹装置160により患者の体腔が膨らむことで、手術用カメラ110による視野の確保及び術者の作業空間の確保が可能となる。
(Pneumoperitoneum device 160)
The
(レコーダ170)
レコーダ170は、手術に関する各種の情報を記録可能な装置である。レコーダ170は、手術用カメラ110により取得された画像が記録されてもよいし、後述するCCU100が有する特徴点検出部1210や特徴量検出部1220が取得した各種の情報が履歴情報として記録されていてもよい。更に、レコーダ170には、本実施形態に係る画像処理システム10が何らかの処理を行う際に保存する必要が生じた様々なパラメータや処理の途中経過等が適宜記録されてもよい。
(Recorder 170)
The
(プリンタ180)
プリンタ180は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
(Printer 180)
The
(フットスイッチ250)
フットスイッチ250は、術者や助手等の操作をトリガ信号として、CCU100や処置具制御装置150を制御する。なお、CCU100や処置具制御装置150の制御は、フットスイッチ250限られず、タッチパネルや音声入力等によって行われてもよい。
(Foot switch 250)
The
以上、本開示に係る技術が適用され得る内視鏡手術システム1の概略構成について説明した。なお、本開示に係る技術は、上記のような内視鏡手術システムのみならず、顕微鏡を用いた手術に使用される顕微鏡手術システムに対しても適用が可能である。
The schematic configuration of the
<1−2.画像処理システム10の構成>
次に、本開示の実施形態に係る画像処理システム10の構成例について説明する。図2は、本開示の実施形態に係る画像処理システム10の構成例を示す図である。本開示の実施形態に係る画像処理システム10は、例えば図1に示したような内視鏡手術システム1等の一機能として実装されることが可能である。以下では、内視鏡手術システム1に、以下で詳述する画像処理システム10が実装される場合を例に挙げて、詳細な説明を行うものとする。本開示の実施形態に係る画像処理システム10は、図2に示したように、画像処理装置120を備える。この画像処理装置120は、例えば、先だって説明したCCU100に実装される。この場合に、本開示の実施形態に係る画像処理装置120は、内視鏡手術システム1に実装されている手術用カメラ110、光源装置130、及び、出力装置140と相互に連携を取りながら、各種の処理を実施する。また、本開示の実施形態に係る画像処理装置120は、図1に示したような内視鏡手術システム1における手術用カメラ110、光源装置130、及び、出力装置140ではなく、これら手術用カメラ110、光源装置130及び出力装置140と同様の機能を有するものと相互に連携を取りながら、各種の処理を実施することも可能である。
<1-2. Configuration of
Next, a configuration example of the
本開示の実施形態に係る画像処理装置120は、手術用カメラ110によって、異なる時点で取得された、白色光源を少なくとも有する光源装置により照明された、手術が行われている生体の一部である術部の複数の画像を用い、当該複数の白色光画像間における術部の時間変化に基づいて、術部における出血位置を特定する。また、画像処理装置120は、手術用カメラ110によって異なる時点で取得された、白色光画像以外の画像(例えば、近赤外光画像又はレーザ光画像の少なくとも何れかを更に用いて、術部における出血位置等を特定することも可能である。以下では、手術用カメラ110によって異なる時点で取得された、様々な種類(白色光画像、近赤外光画像、レーザ光画像など)の複数の画像を、まとめて「複数の画像」と称することとする。本開示の実施形態に係る画像処理装置120は、図2に示したように、特徴点検出部1210と、特徴量検出部1220と、出力制御部1230と、光源切替部1240と、記憶部1250とを備える。
The
(特徴点検出部1210)
本開示の実施形態に係る特徴点検出部1210は、手術用カメラ110が取得した複数の白色光画像を用い、これら複数の白色光画像をそれぞれ解析することで、白色光画像を特徴づける点である「特徴点」を複数の白色光画像のそれぞれから検出する。本開示の実施形態に係る特徴点検出部1210は、図2に示したように、三次元情報取得部1211及び血液検出部1212を有する。三次元情報取得部1211は、手術用カメラ110で取得された白色光画像に表示された領域の三次元情報を取得する。血液検出部1212は、白色光画像に表示された領域に存在しうる血液を検出し、血液の分布に関する血液分布情報を取得する。三次元情報とは、手術用カメラ110で取得された画像領域の位置に関する位置情報、及び、当該画像に表示された領域の立体形状に関する形状情報をいう。特徴点検出部1210は、取得した三次元情報や血液の位置情報を特徴量検出部1220に送信する。
(Feature point detection unit 1210)
The feature
(三次元情報取得部1211)
三次元情報取得部1211は、手術用カメラ110で取得された白色光画像を解析することで、手術用カメラ110の位置や姿勢を推定し、白色光画像に表示された部分の三次元空間での位置を把握して、三次元情報を取得する。このような手術用カメラ110の位置や姿勢の推定、白色光画像上に表示された部分の位置の把握等は、SLAM(Simultaneous Localization and Mapping)等の公知の自己位置推定技術で行うことができる。図3は、カメラの撮影画像から抽出された特徴点を説明するための説明図である。例えば、図3に示すように、術部を撮像した画像を含め、一般的な画像の中には、画像の中に存在する各種の物体の構造や位置関係等を特徴づけるような、様々な特徴点が存在する。そこで、三次元情報取得部1211は、画像中に存在する特徴となる点(特徴点FP)を検出し、この特徴点FPの時間経過を追跡することで、カメラの位置や姿勢の推定、及び、画像上に表示された部分に関する位置の把握等を行うことができる。このような方法を用いて、三次元情報取得部1211は、手術用カメラ110の位置や姿勢の推定、及び、画像上に表示された部分に関する位置の把握等を行うことができる。上記のような自己位置推定技術を利用することで、三次元情報取得部1211は、術中の患者の体動や術者による操作等により手術用カメラ110が移動した場合にも、画像に表示された領域の位置を把握することができ、三次元情報を取得することが可能となる。
(Three-dimensional information acquisition unit 1211)
The three-dimensional
また、上記のような自己位置推定技術を本開示の技術に適用することで、手術用カメラ110の動きについて何らかの仮説が得られる場合には、仮説に基づいた将来の手術用カメラ110の位置及び姿勢を用い、それまでに推定されている特徴点の位置を画像上に投影し、特徴点FPの出現位置を予測することができる。図4は、特徴点FPの出現位置の予測方法を説明するための模式図である。位置C1に位置する手術用カメラ110が物体Pを撮像し、領域A1の画像を取得すると、取得された画像の表示領域A1から、物体Pに関する特徴点FP1が抽出される。その後、手術用カメラ110が位置C1から位置C2に移動すると、手術用カメラ110は、位置C2の位置から表示される表示領域A2に存在する、物体Pに関する特徴点FP2を抽出する。さらに、手術用カメラ110が位置C2から位置C3に移動すると、手術用カメラ110は、位置C3の位置から表示される表示領域A3に存在する、物体Pに関する特徴点FP3を抽出する。ここで、手術用カメラ110が続いて位置C4に移動することが予測されるとき、表示領域A1における特徴点FP1の位置、表示領域A2における特徴点FP2の位置、及び、表示領域A3における特徴点FP3の位置からそれぞれ推定される物体Pの位置と、位置C3と位置C4との位置関係と、に基づき、推定される特徴点FP4の位置を表示領域A4に投影することで、表示領域A4における特徴点の出現位置を予測することができる。
Further, if any hypothesis about the movement of the
三次元情報取得部1211は、上記の自己位置推定技術を用いて手術用カメラ110の位置や姿勢を推定することができる。これにより、三次元情報取得部1211は、術中の患者の体動により手術用カメラ110が移動して術部が出力装置140に表示されていない場合にも、推定した位置をある程度の期間随時保存しておくことで、術部の位置を把握することができる。図5A及び図5Bは、位置及び姿勢が推定された手術用カメラ110による術部の画像を取得する方法を説明するための説明図である。例えば、手術用カメラ110により撮像された画像が術部からずれており、ユーザが把握したい血液Bの領域が出力装置140に表示されていない場合でも、三次元情報取得部1211は、血液Bの領域の位置を予測できる。そのため、ユーザは、手術用カメラ110を所望の位置に移動させ、出力装置140に血液Bの領域を表示させることができるし、例えば図5Bに示すように、画像の表示領域の位置を把握しながら特定の部分を拡大表示することができる。
The three-dimensional
(血液検出部1212)
血液検出部1212は、手術用カメラ110により取得された白色光画像を構成する色情報と、三次元情報取得部1211により取得された三次元情報とに基づいて、白色光画像に表示された領域における血液を検出し、血液分布情報を取得する。詳細には、白色光画像の中から白色光画像中に存在する血液を識別する識別器を予め作成しておき、作成した識別器を手術用カメラ110で取得された白色光画像に適用することで、血液分布情報が得られる。ここで、図6A〜図6Cを参照しながら、血液分布情報の取得方法について説明する。図6Aは、血液を検出する方法の一例を説明するための説明図である。図6Bは、血液を検出するために作成された特徴量平面の一例を示す模式図である。図6Cは、血液の分布が表示された画像を示す模式図である。
(Blood detection unit 1212)
The
まず、識別器を作成するための学習画像を用いて、血液領域を画像処理装置120に学習させる。図6Aは、学習画像の一例を示す図である。図6Aでは、学習画像として、臓器表面の一部に血液Bが存在する画像を示している。図6Aでは、点P1は血液として学習させた部分を示し、点P2は、臓器領域であると学習させた部分を示している。識別器は、例えば、学習画像に表示された血液領域及び血液領域以外の領域のRGB等の色情報、並びに、血液領域の三次元情報、及び、臓器表面が表示された臓器領域の三次元情報から算出された表面粗さや表面粗さの標準偏差等に基づいて作成される。図6Aに示したような学習画像を複数用いて、上記のように血液領域と臓器領域とを学習させ、学習結果データを作成する。学習結果データとして、例えば、図6Bに示すように、縦軸を色情報をとし、横軸を表面粗さをとした特徴量平面を作成して、血管領域が示す色情報と表面粗さとの組み合わせが占める特徴量領域と、臓器領域が示す色情報と表面粗さとの組み合わせが占める特徴量領域と、の境界を示す識別面fを特定する。例えばこのようにして、画像の中から画像中に存在する血液を識別する識別器を構築すればよいその後、血液検出部1212は、構築した識別器(例えば、図6Bに示したような特徴量平面における識別面f)を用いて、手術用カメラ110により取得された画像において血液が存在する箇所を特定する。具体的には、血液検出部1212は、手術用カメラ110により取得された画像を所定のサイズに分割し、三次元情報取得部1211で取得された三次元情報から、画像の分割された範囲毎にRGB及び表面粗さを算出する。その後、血液検出部1212は、上記の識別面fに関する情報に基づき、それぞれの分割された範囲について、得られたRGBと表面粗さの組み合わせが上記の特徴量平面上のいずれの領域にプロットされるかを判断して、画像の分割されたそれぞれの範囲が血液であるかどうか判断する。上記のようにして、図6Cに示すように、手術用カメラ110で取得された画像における血液Bの分布に関する血液分布情報を取得することができる。
First, the
また、血液検出部1212は、上記の方法により異物の存在を検出することも可能である。例えば、術部に術具を放置した場合、術具が表示された領域の色情報及び表面粗さは、血液領域の色情報及び表面粗さ並びに臓器領域の色情報及び表面粗さと大きく相違する。従って、術具が表示された領域に対応して上記特徴量平面においてプロットされる位置は、血液領域及び臓器領域としてプロットされる位置と著しく異なる。よって、血液検出部1212は、異物の存在を検出することが可能となる。また、異物の存在は、上記のような識別器を用いた手法ではなく、公知の各種の物体認識技術を用いて検出することも可能であり、例えば、手術に用いられる様々な術具を物体認識することで、術具の放置を検出することもできる。
The
(特徴量検出部1220)
本開示の実施形態に係る特徴量検出部1220は、特徴点検出部1210から取得した三次元情報と血液分布情報とを少なくとも用いて、画像に表示されたそれぞれの領域における、血液に関する特徴量を検出する。本開示の実施形態に係る特徴量検出部1220は、図2に示したように、出血判定部1221、出血位置特定部1222及び血液量算出部1223を有する。出血判定部1221は、手術用カメラ110で取得された画像に表示された領域において出血の発生の有無を判定する。出血位置特定部1222は、異なる時点で取得された複数の画像を用い、当該複数の画像間における術部の時間変化に基づいて、前記術部における出血位置を特定する機能を有する。血液量算出部1223は、手術用カメラ110で取得された画像に表示された血液の血液量を算出する。
(Feature quantity detection unit 1220)
The feature
(出血判定部1221)
出血判定部1221は、異なる時刻で取得された複数の白色光画像の血液分布情報に基づいて、画像に表示された領域において出血が発生したか否かを判定する。詳細には、出血判定部1221は、各時点における白色光画像の血液分布情報に基づいて、血液が存在する領域の面積及び当該面積の変化量を算出し、血液が存在する領域の面積の変化量が所定の閾値を超えたときに、出血が発生したと判定することができる。また、出血判定部1221は、後述する血液量算出部1223により算出された血液量の変化量に基づいて出血の発生の有無を判定することができる。ここで、血液領域の面積は、取得された白色光画像における血液領域の画素数と表示された白色光画像の倍率とから算出することができ、面積の変化量は、算出された血液領域の面積の時間変化から算出することができる。
(Bleeding determination unit 1221)
The bleeding
ここで、図7を参照して、出血の発生の有無の判定方法を具体的に説明する。図7は、出血の発生の有無の判定方法を説明するための説明図である。図7上段に示すグラフは、縦軸を血液領域の面積とし、横軸を時刻として、取得された白色光画像上の血液領域の面積の推移を示すグラフである。図7中段に示すグラフは、縦軸を血液領域の面積の変化量とし、横軸を時刻として、取得された白色光画像上の血液領域の面積の変化量の推移を示すグラフである。図7下段には、各時刻t1〜t6で取得された白色光画像を示している。ここで、各時刻t1〜t6は、例えば、それぞれ10フレームずつ時間が経過した時刻となっている。図7中段に示すように、血液領域の面積の変化量について予め閾値T(かかる閾値Tは、予め第三者によって設定されたものであってもよいし、ユーザによって設定されたものであってもよい。)が設定され、血液領域の面積の変化量が閾値Tを超えたときに、出血判定部1221は、出血が発生したと判定することができる。図7では、時刻t2の時点で出血が発生したと判定される。出血判定部1221は、各時点の白色光画像について画像処理を施し、各時点の画像間の血液領域の面積の差分を算出する。血液領域の面積の変化量は、図8下段に示すように、各時点の画像間の血液領域の面積の差分である。そのため、手術用カメラ110の位置が直前の時点の位置からずれた場合は、そのずれに応じて画像に表示される血液分布が変化するため、所定の術部における血液領域の面積および血液領域の面積の変化量の算出が正確にできなくなる可能性がある。その場合、三次元情報取得部1211により取得された三次元情報を基に位置のずれを補正することで、正確に血液領域の面積を算出することが可能となる。
Here, with reference to FIG. 7, a method for determining the presence or absence of bleeding will be specifically described. FIG. 7 is an explanatory diagram for explaining a method for determining the presence or absence of bleeding. The graph shown in the upper part of FIG. 7 is a graph showing the transition of the area of the blood region on the acquired white light image, with the vertical axis representing the area of the blood region and the horizontal axis representing the time. The graph shown in the middle of FIG. 7 is a graph showing the transition of the amount of change in the area of the blood region on the acquired white light image, with the vertical axis representing the amount of change in the area of the blood region and the horizontal axis representing the time. The lower part of FIG. 7 shows white light images acquired at each time t 1 to t 6. Here, each time t 1 to t 6 is, for example, a time when 10 frames have elapsed. As shown in the middle part of FIG. 7, the threshold value T (the threshold value T may be set in advance by a third party or is set by the user) with respect to the amount of change in the area of the blood region. When the amount of change in the area of the blood region exceeds the threshold value T, the bleeding
(出血位置特定部1222)
出血位置特定部1222は、複数の白色光画像が取得された各時点における血液分布情報に基づいて、血液の分布の状態の推移を遡ることで出血位置を特定する。図8は、出血位置を特定する方法を説明するための説明図である。図8上段に示すグラフは、縦軸を血液領域の面積とし、横軸を時刻として、取得された白色光画像上の血液領域の面積を示すグラフである。図8中段には、各時刻t1〜t6で取得された白色光画像を示している。ここで、各時刻t1〜t6は、例えば、それぞれ10フレームずつ時間が経過した時刻となっている。図8下段は、図8中段に示した各白色光画像の差分を示した図である。例えば、図8下部の左図は、時刻t3の時点で取得された白色光画像と時刻t2の時点で取得された白色光画像の差分を示している。図8下部の左から2番目の図は、時刻t4の時点で取得された白色光画像と時刻t3の時点で取得された白色光画像の差分を示している。同様に、図8下部の左から3番目の図及び図8下部の左から4番目の図は、それぞれ時刻t5の時点で取得された白色光画像と時刻t4の時点で取得された白色光画像の差分、及び時刻t6の時点で取得された白色光画像と時刻t5の時点で取得された白色光画像の差分を示している。白色光画像に表示された領域における血液領域の面積が増加するに伴って、図8中段の図に示すように、表示された血液領域が拡大している。血液領域は、出血位置を起点として拡大するため、出血位置特定部1222は、各時点の白色光画像に表示された血液領域を時間方向に遡ることで、出血位置を特定することが可能である。例えば、図8下段に示すように、血液領域の差分が生じる時刻t2の時点で出血が発生したことを確認することができる。そして、時刻t3の時点で取得された白色光画像と時刻t2の時点で取得された白色光画像の差分を示した画像から、出血位置を特定することができる。これにより、従来の技術と比較してより正確に出血位置をユーザは認識することができる。
(Bleeding position identification part 1222)
The bleeding
また、出血位置特定部1222は、上記したように、時間の経過に伴って血液の分布の推移を把握することができる。従って、出血位置特定部1222は、過去の時点の白色光画像に表示された血液領域と最新の時点の白色光画像に表示された血液領域とを比較し、血液領域が拡大する方向及び拡大する血液領域の変化量を算出することで、将来の血液の分布を推定することが可能である。出血位置特定部1222は、例えば、図8上段のグラフに示すように、今度の時刻t7の時点における血液領域面積を推定することができるし、図8中段右図に示すように、今後の時刻t7における血液分布を推定することができる。なお、各時点の白色光画像について画像処理及び各時点の白色光画像間の血液領域の面積の差分を算出は、出血位置特定部1222が行ってもよい。
Further, as described above, the bleeding
また、出血位置特定部1222は、光源装置130から術部に対して所定の波長を有するレーザ光が照射され、異なる時点でレーザ光が照射されて取得された複数のレーザ光画像を用いて出血位置を特定することも可能である。例えば、光源装置130が干渉性の高いレーザ光を発生するレーザ光源を有し、当該レーザ光が血液に照射されると血液によりレーザ光が散乱する。散乱した光はそれぞれ位相が異なるため、手術用カメラ110の結像面において散乱光がランダムに干渉し、斑点模様の光強度分布のパターン(いわゆる、スペックルパターン)が得られる。光強度分布のパターンは、物体の動きに応じて動的に変化するため、この光強度分布のパターンを血液流動情報として利用することができる。出血位置では、血液の流出に伴い動きが大きい領域となるため、上記のようなスペックルパターンにおいて、出血位置に近い領域ほど、スペックルパターンから得られるスペックル画像では、その輝度値が大きなものとなるはずである。そこで、出血位置特定部1222は、スペックル画像を公知の各種の方法により算出し、算出したスペックル画像における輝度値の分布に基づき、出血位置を特定することができる。
Further, the bleeding
更に、出血位置特定部1222は、上記のような各種の方法を用いてそれぞれ出血位置を特定し、各種の方法から得られた出血位置に関する情報を統合的に判断することで、より正確な出血位置を特定することも可能である。
Further, the bleeding
(出血量算出部1223)
血液量算出部1223は、手術用カメラ110で取得された画像に表示された血液の体積を算出する。血液量の算出には、白色光が照射された術部の画像である白色光画像又は、白色光画像と近赤外光画像が用いられる。白色光画像が用いられる場合、血液量算出部1223は、例えば、白色光画像に表示された血液の厚みが一定であると仮定し、その血液の厚みと白色光画像に表示された血液領域の面積との積を表示された領域における血液量とすることができる。
(Bleeding amount calculation unit 1223)
The blood
また、血液量算出部1223は、近赤外光が照射された術部の画像である近赤外光画像を用いて血液量を算出することもできる。この場合、血液量の算出には、複数の近赤外光画像が用いられてもよい。図9A〜図9D、図10A及び図10Bを参照して、近赤外光画像を用い血液の体積の算出方法を説明する。図9A左図は、上方から白色光が照射された術部を側面から示した模式図である。図9B左図、図9C左図及び図9D左図は、それぞれ、波長λ1、波長λ2及び波長λ3を有する近赤外光が照射された術部を側面から示した模式図である。図9A右図は、手術用カメラ110により取得された白色光が照射された術部の画像を示す模式図である。図9B右図、図9C右図及び図9D右図は、それぞれ、手術用カメラ110により取得された、波長λ1、波長λ2及び波長λ3を有する近赤外光が照射された術部の画像を示した模式図である。ここで、波長λ1、波長λ2及び波長λ3は、λ1<λ2<λ3の関係が成立するものとする。図10A左図は、白色光画像を示した模式図であり、図10A右図は、当該白色光画像を用いて血液検出部1212により検出された血液領域を示した模式図である。図10B左図は、図10A左側の図に示された画像と同一の領域の近赤外光画像を示した模式図であり、図10B右図は、当該近赤外光画像を用いて血液検出部1212により検出された血液領域を示した模式図である。
In addition, the blood
白色光WLは、物質の表面で赤色に相当する波長の光が反射されるため、図9Aに示すように、それぞれ厚さの異なる血液B1、血液B2及び血液B3の表面で反射される。そのため、取得される白色光画像には、血液B1、血液B2及び血液B3が映し出される。一方で、近赤外光は血液中のヘモグロビンにより吸収される。波長が短い近赤外光ほど血液中のヘモグロビンによる吸収の程度は大きく、波長が長い近赤外光ほど血液中のヘモグロビンによる吸収の程度は小さい。そのため、図9Bに示すように、波長λ1の近赤外光が照射されて取得された近赤外光画像において、厚みの小さい血液B1では、波長λ1の近赤外光の多くは透過して血液の下部の臓器表面で反射されるため、手術用カメラ110では血液B1は認識されない。また、血液B1より厚みの大きい血液B2及び血液B3では、波長λ1の近赤外光の多くは吸収される。そのため、波長λ1の近赤外光が照射されて取得された近赤外光画像では、血液B2及び血液B3は、血液B2及び血液B3以外の部分と区別して表示される。波長λ2の近赤外光が照射されて取得された近赤外光画像においては、図9Cに示すように、血液B1及び血液B2では、波長λ2の近赤外光の多くは透過して血液の下部の臓器表面で反射される。そのため、血液B1及び血液B2は手術用カメラ110では認識されない。また、血液B1及び血液B2より厚みの大きい血液B3では、波長λ2の近赤外光の多くは吸収される。そのため、波長λ2の近赤外光が照射されて取得された近赤外光画像では、血液B3は、血液B3以外の部分と区別して表示される。また、波長λ3の近赤外光が照射されて取得された近赤外光画像においては、図9Dに示すように、厚みの大きい血液B3でも波長λ3の近赤外光の多くは透過して血液の下部の臓器表面で反射される。そのため、血液B1、血液B2及び血液B3はいずれも表示されない。よって、図10A左図に示すように、白色光画像では血液B1と血液B2はいずれも表示されるため、図10A右図に示すように、血液検出部1212は血液B1及び血液B2のいずれも検出することができる。一方で、図10B左図に示すように、波長λ1を有する近赤外光を照射した近赤外光画像では、厚みが小さい血液B1は表示されないため、図10B右図に示すように、血液検出部1212は血液B2のみを検出することができる。
Since the white light WL reflects light having a wavelength corresponding to red on the surface of the substance, it is reflected on the surfaces of blood B1, blood B2, and blood B3 having different thicknesses, as shown in FIG. 9A. Therefore, blood B1, blood B2, and blood B3 are projected on the acquired white light image. On the other hand, near-infrared light is absorbed by hemoglobin in the blood. The shorter the wavelength of near-infrared light, the greater the degree of absorption by hemoglobin in blood, and the longer the wavelength of near-infrared light, the smaller the degree of absorption by hemoglobin in blood. Therefore, as shown in FIG. 9B, in the near-infrared light image near-infrared light of wavelength lambda 1 is acquired by irradiation, the thickness of small blood B1, many of near infrared light having a wavelength lambda 1 transmitted Blood B1 is not recognized by the
上記のように、近赤外光画像に表示される血液は、照射される近赤外光の波長によって異なる。よって、光源装置130から術部に対して異なる波長の近赤外光を照射して得られる複数の近赤外光画像の差分を取ることで、波長と血液の厚みとを対応付けることが可能となり、血液の厚みを算出することが可能となる。以上のようにして、算出された血液の厚みと、その厚みを有する血液領域の面積との積を求め、その積の合計を表示された領域における血液量とすることができる。
As described above, the blood displayed in the near-infrared light image differs depending on the wavelength of the irradiated near-infrared light. Therefore, it is possible to associate the wavelength with the thickness of blood by taking the difference between a plurality of near-infrared light images obtained by irradiating the surgical site with near-infrared light having different wavelengths from the
このように、近赤外光画像を用いた血液量の算出方法は、白色光画像を用いた上記の血液量の算出方法と比較してより正確に血液量を算出することが可能となる。そして、血液量算出部1223は、複数の時点で取得された近赤外光画像について上記の処理を行うことで、血液量の変化量を算出することが可能となる。なお、白色光は血液の表面で反射されるため、ある波長の近赤外光が照射されて得られた近赤外光画像に替えて、白色光画像を使用してもよい。このように、血液量算出部1223は、複数の近赤外光画像及び白色光画像のうちの少なくとも2以上の画像で算出された血液量を比較し、近赤外光画像又は白色光画像に表示された領域おける血液量の変化量を算出することができる。
As described above, the blood volume calculation method using the near-infrared light image can calculate the blood volume more accurately than the above-mentioned blood volume calculation method using the white light image. Then, the blood
(出力制御部1230)
出力制御部1230は、出力装置140が出力する情報の内容及び出力方法を制御する。例えば、出力制御部1230は、手術用カメラ110により取得された画像、当該画像の三次元情報、出血発生をユーザに対して知らせる表示もしくは音声による通知、出血位置に関する表示、出血量等の情報を出力装置140に出力させる。出力制御部1230が出力装置140に出力させる情報の種類は、予めユーザによって設定されていてもよい。また、出力制御部1230が、手術用カメラ110により取得された画像情報、三次元情報、出血位置に関する情報、血液量に関する情報等を受信したときに、出力装置140に出力指示を送信してもよい。
(Output control unit 1230)
The
図11及び図12を参照して、出力制御部1230が出力装置140に出力させる情報について説明する。図11は、出力装置140に表示された情報の一例を示す模式図である。図12は、出力装置140に出力された情報の他の一例を示す模式図である。
Information to be output to the
例えば、図11には、手術用カメラ110により取得されたリアルタイムの画像(MONITOR 1)、リアルタイムの画像に出血位置を示す表示が重畳された画像(MONITOR 2)、出血前後の動画像(MONITOR 3)、出血位置の拡大画像(MONITOR 4)、及び出血量のグラフが出力装置140に表示されている。出力制御部1230は、上記以外にも、近赤外光画像、レーザ光が照射された術部の画像であるレーザ光画像を出力装置140に表示させてもよい。また、出力制御部1230は、血液領域を示す表示を白色光画像に重畳して出力装置140に表示させてもよい。出力制御部1230は、出血量が所定の値を超えたときに、表示や警告音を出力装置140に出力させてもよい。また、出力制御部1230は、出血位置特定部1222により推定された将来の血液の分布を出力装置140に表示させてもよい。
For example, FIG. 11 shows a real-time image (MONITOR 1) acquired by the
リアルタイムの画像に出血位置を示す表示が重畳された画像、又は出血前後の動画像が出力装置140に表示されることで、従来では厚く溜まった血液に覆われるために発見することが困難であった出血箇所をユーザは容易に認識することができ、より迅速に止血作業に着手することが可能となる。出血量のグラフが出力装置140に表示されることで、ユーザは、バイタルの確認、内視鏡手術から開腹手術への移行や輸血開始のタイミング等の判断を行うことが可能となる。将来の血液分布が出力装置140に表示されることで、ユーザは血液が溜まる前の術部の様子を認識することが可能となる。
Since the image showing the bleeding position is superimposed on the real-time image or the moving image before and after the bleeding is displayed on the
また、出力制御部1230は、表示された画像中に複数の出血位置が存在する場合は、出血位置近傍の血液領域の変化の程度又は血液の移動速度に応じて、異なる態様の出血位置を示す表示が重畳された画像を表示させてもよい。例えば、血液領域の変化の程度又は移動速度が大きい血液付近に存在する出血位置を示す表示が強調表示されてもよい。血液領域の変化の程度または移動速度が大きい血液付近の出血位置ほど、優先して処置すべき出血位置であることが多い。そのため、出力制御部1230が、上記のように血液領域の変化の程度又は移動速度が大きい血液付近に存在する出血位置を出力装置140に強調表示させることで、ユーザは迅速に止血などの処置を行うことができる。
Further, when a plurality of bleeding positions are present in the displayed image, the
また、出力制御部1230は、図12に示すように、手術用カメラ110により取得されたリアルタイムの画像に表示された領域から、過去に特定された出血位置が外れた場合、出血位置の方向を示す表示dをリアルタイムの画像に重畳して表示させることができる。これにより、出血後に手術用カメラ110がぶれて出血位置が取得された画像に表示されなくなった場合でも、ユーザは迅速に出血位置を認識して、処置を行うことができる。
Further, as shown in FIG. 12, the
上記の出力される画像や音声等は、ユーザが予め出力内容を設定することにより、リアルタイムの画像と併せて選択的に出力されてもよい。また、リアルタイムの画像に出血位置を示す表示が重畳された画像、出血前後の動画像や出血位置の拡大画像等は、出血判定部1221によって出血が発生したと判定されたときに、出力制御部1230が出力指示を出力装置140に送信することによって、表示されてもよい。出血関連情報は、上記のような、出血の発生に関する情報、血液領域の面積、当該面積の変化量、血液量、血液量の変化量、出血位置の表示、出血発生前後の動画像、出血位置の方向を示す表示等、術部の出血に関連するあらゆる情報を含むものである。
The output image, sound, and the like may be selectively output together with the real-time image by setting the output contents in advance by the user. In addition, an image in which a display showing the bleeding position is superimposed on a real-time image, a moving image before and after the bleeding, an enlarged image of the bleeding position, and the like are output control units when the bleeding
(光源切替部1240)
光源切替部1240は、光源装置130から照射される光を切り替える。例えば、ユーザにより操作される入力装置から切替指示が光源切替部1240に送信される。かかる切替指示により、光源装置130は、白色光光源、近赤外光光源及びレーザ光源を切り替え、ユーザ所望の光を術部に照射する。
(Light source switching unit 1240)
The light
(記憶部1250)
記憶部1250には、手術用カメラ110により取得された画像が記録されている。記憶部1250には、画像処理装置120が上記のような各種の処理を実施する際に利用する各種のプログラムやデータベース等が適宜記録されている。また、記憶部1250には、上記のような特徴点検出部1210や特徴量検出部1220が取得した各種の情報が履歴情報として記録されていてもよい。更に、記憶部1250には、例えば、血液検出部1212、出血判定部1221、出血位置特定部1222及び血液量算出部1223のそれぞれがそれぞれの処理を行う際に、保存する必要が生じた様々なパラメータや処理の途中経過等が適宜記録されてもよい。血液検出部1212、出血判定部1221、出血位置特定部1222及び血液量算出部1223が実行する処理に限られず、本実施形態に係る画像処理システム10が何らかの処理を行う際に保存する必要が生じた様々なパラメータや処理の途中経過等が適宜記録されてもよい。この記憶部1250は、通信部1260、特徴点検出部1210、特徴量検出部1220等が、自由にリード/ライト処理を実施することが可能である。記憶部1250は、画像を保存、上書きして予めユーザが設定した時間の画像を保存してもよい。また、記憶部1250は、出血判定部1221により出血が発生したと判定された時点の前後の、予めユーザが設定した時間の画像は上書きされないように保存されてもよい。
(Memory unit 1250)
An image acquired by the
(通信部1260)
通信部1260は、ネットワークを介して、手術用カメラ110との情報通信を行う機能を有する。具体的には、通信部1260は、手術用カメラ110から画像を受信する。また、通信部1260は、手術用カメラ110に対して制御信号を送信し、その駆動を制御する機能を有する。当該制御信号には、倍率や焦点距離等、撮像条件に関する情報が含まれ得る。
(Communication unit 1260)
The
<2.動作>
続いて、本開示の実施形態に係る画像処理システム10の動作の一例について詳細に説明する。
<2. Operation>
Subsequently, an example of the operation of the
まず、光源切替部1240により、光源装置130の光源が白色光光源に設定され、手術が行われている術部に対して白色光が照射される。手術用カメラ110は、術部の白色光画像を取得する。取得された白色光画像は、画像処理装置120の通信部1260を介して特徴点検出部1210、出力制御部1230及び記憶部1250に送信される。ここで出力制御部1230は、受信した白色光画像を出力装置140に送信し、出力装置140は、受信した白色光画像をリアルタイム画像として表示する。また、記憶部1250に送信された白色光画像は、ユーザに予め設定された時間だけ記録される。
First, the light
次いで、特徴点検出部1210に備えられた三次元情報取得部1211は、取得された白色光画像に表示された領域の位置や形状に関する三次元情報を取得する。特徴点検出部1210に備えられた血液検出部1212は、手術用カメラ110により取得された白色光画像を構成する色情報及び三次元情報取得部1211で取得された三次元情報に基づいて、画像に表示された領域における血液を検出し、血液分布情報を生成する。詳細には、手術用カメラ110により取得された画像を所定のサイズに分割し、三次元情報取得部1211で取得された三次元情報から、画像の分割された範囲毎に表面粗さを算出する。画像の分割された範囲毎のRGBと算出された表面粗さを、縦軸を色情報をとし、横軸を表面粗さをとした特徴量平面上にプロットして、画像の分割されたそれぞれの範囲が血液領域であるか否かを判断する。三次元情報と血液分布情報は、特徴量検出部1220及び記憶部1250に送信される。記憶部1250に記録された血液分布情報は、記憶部1250に記録された白色光画像とともに出力制御部1230に送信される。血液分布情報は白色光画像に適用され、血液領域を示す表示が当該白色光画像に重畳して表示された画像として出力制御部1230により出力される。
Next, the three-dimensional
続いて、特徴量検出部1220に備えられた血液量算出部1223は、近赤外光画像を用いて血液量を算出する。光源切替部1240は、光源装置130の光源を白色光源から近赤外光光源に切り替える。光源の切り替えは、例えば、ユーザのフットスイッチ250の操作によって行われる。光源装置130は、術部に対して波長の異なる近赤外光を照射する。血液量算出部1223は、術部に対して異なる波長の近赤外光を照射して得られる複数の近赤外光画像の差分を取り、血液の厚みを算出する。算出された血液の厚みと、その厚みを有する血液領域の面積との積を求め、その積の合計を表示された領域における血液量とする。血液量算出部1223は、2枚以上の画像で算出された血液量を比較し、近赤外光画像又は白色光画像に表示された領域おける血液量の変化量を算出する。
Subsequently, the blood
出血判定部1221は、血液量算出部1223により算出された血液量の変化量から出血の発生を判定する。具体的には、血液量の変化量についてユーザにより閾値が設定され、血液量の変化量が閾値を超えたときに、出血判定部1221は、出血が発生したと判定する。また、出血判定部1221は、血液領域の面積の変化量に基づいて出血の発生の有無を判定してもよい。詳細には、出血判定部1221は、各時点の白色光画像について画像処理を施し、各時点の画像間の血液領域の面積の差分を算出する。血液領域の面積の変化量についてユーザにより閾値が予め設定され、血液領域の面積の変化量が閾値を超えたときに、出血判定部1221は、出血が発生したと判定してもよい。
The bleeding
続いて、出血位置特定部1222は、記憶部1250に保存された複数の白色光画像及び当該白色光画像が取得された各時点における血液分布情報読み出す。読み出された白色光画像及び血液分布情報を利用して、血液の分布の状態の推移を把握する。この血液の分布の状態を遡り、血液が生じた位置を出血位置を特定する。
Subsequently, the bleeding
血液量算出部により算出された血液量、出血が発生した時刻や特定された出血位置等の情報は、出力制御部1230又は記憶部1250の少なくともいずれかに送信される。
Information such as the blood volume calculated by the blood volume calculation unit, the time when bleeding occurs, and the specified bleeding position is transmitted to at least one of the
そして、出力制御部1230は、手術用カメラ110から送信されたリアルタイムの画像、血液量算出部から送信された出血量、出血位置特定部により特定された出血位置が表示された画像等を、適宜出力装置140に出力させる。出血位置が表示された画像は、記憶部1250から読み出される。上記の処理は随時実行される。
Then, the
<3.ハードウェア構成>
以上、本開示に係る実施形態について説明した。上述した画像処理は、ソフトウェアと、以下に説明する情報処理装置のハードウェアとの協働により実現される。
<3. Hardware configuration>
The embodiments according to the present disclosure have been described above. The above-mentioned image processing is realized by the collaboration between the software and the hardware of the information processing apparatus described below.
次に、本開示の一実施形態に係る画像処理装置120のハードウェア構成例について説明する。図13は、本開示の一実施形態に係る画像処理装置120のハードウェア構成例を示すブロック図である。図13を参照すると、画像処理装置120は、例えば、CPU1270と、ROM1271と、RAM1272と、ホストバス1273と、ブリッジ1274と、外部バス1275と、インタフェース1276と、入力装置1277と、表示装置1278と、音声出力装置1279と、ストレージ装置1280と、ドライブ1281と、接続ポート1282と、リムーバブル記憶媒体1283と、を有する。なお、ここで示すハードウェア構成は一例であり、構成要素の一部が省略されてもよい。また、ここで示される構成要素以外の構成要素をさらに含んでもよい。
Next, a hardware configuration example of the
(CPU1270)
CPU1270は、例えば、演算処理装置又は制御装置として機能し、ROM1271、RAM1272、ストレージ装置1280、又はリムーバブル記憶媒体1283に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。
(CPU1270)
The
(ROM1271、RAM1272)
ROM1271は、CPU1270に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM1272には、例えば、CPU1270に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
(ROM1271, RAM1272)
The
(ホストバス1273、ブリッジ1274、外部バス1275、インタフェース1276)
CPU1270、ROM1271、RAM1272は、例えば、高速なデータ伝送が可能なホストバス1273を介して相互に接続される。一方、ホストバス1273は、例えば、ブリッジ1274を介して比較的データ伝送速度が低速な外部バス876に接続される。また、外部バス1275は、インタフェース1276を介して種々の構成要素と接続される。
(
The
(入力装置1277)
入力装置1277には、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられ得る。さらに、入力装置1277としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラが用いられることもある。また、入力装置1277には、マイクロフォンなどの音声入力装置が含まれる。本開示の技術が適用され得る内視鏡手術システム1では、フットスイッチ250が入力装置1277として用いられることが好ましい。
(Input device 1277)
For the
(表示装置1278、音声出力装置1279)
表示装置1278は、例えば、CRT(Cathode Ray Tube)、LCD、又は有機EL等のディスプレイ装置、プリンタ等であり、音声出力装置1279は、スピーカー、ヘッドホン等のオーディオ出力装置等である。表示装置1278及び音声出力装置1279は、いずれも取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。
(
The
(ストレージ装置1280)
ストレージ装置1280は、各種のデータを格納するための装置である。ストレージ装置1280としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。
(Storage device 1280)
The
(ドライブ1281)
ドライブ1281は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記憶媒体1283に記録された情報を読み出し、又はリムーバブル記憶媒体1283に情報を書き込む装置である。
(Drive 1281)
The
(リムーバブル記憶媒体1283)
リムーバブル記憶媒体1283は、例えば、DVDメディア、Blu−ray(登録商標)メディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記憶媒体1283は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。
(Removable storage medium 1283)
The
(接続ポート1282)
接続ポート1282は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)、RS−232Cポート、又は光オーディオ端子等のような外部接続機器902を接続するためのポートである。
(Connection port 1282)
The
<4.結び>
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
<4. Conclusion>
Although the preferred embodiments of the present disclosure have been described in detail with reference to the accompanying drawings, the technical scope of the present disclosure is not limited to such examples. It is clear that a person having ordinary knowledge in the technical field of the present disclosure can come up with various modifications or modifications within the scope of the technical ideas described in the claims. Of course, it is understood that the above also belongs to the technical scope of the present disclosure.
本開示の技術によれば、手術時における術部の出血箇所をより正確に把握することが可能となる。また、患者の体動があった場合でも安定した出血位置の推定が可能となる。また、出血量の推移をユーザが認識することが可能となる。上記により、ユーザは迅速に止血作業に取り掛かることが可能となり、手術時間が短縮され、出血量を抑制できる。また、出血量をユーザが認識できることで、バイタルの確認、内視鏡手術から開腹手術への移行や輸血開始のタイミング等の判断を行うことが可能となる。その結果、患者の術後の回復を早めることが可能となる。 According to the technique of the present disclosure, it is possible to more accurately grasp the bleeding site of the surgical site at the time of surgery. In addition, it is possible to estimate a stable bleeding position even when the patient moves. In addition, the user can recognize the transition of the bleeding amount. As a result, the user can start the hemostasis work quickly, the operation time can be shortened, and the amount of bleeding can be suppressed. In addition, since the user can recognize the amount of bleeding, it is possible to confirm vital signs, determine the transition from endoscopic surgery to laparotomy, and determine the timing of starting blood transfusion. As a result, it is possible to accelerate the postoperative recovery of the patient.
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、又は、上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。 In addition, the effects described herein are merely explanatory or exemplary and are not limited. That is, the technique according to the present disclosure may exhibit other effects apparent to those skilled in the art from the description of the present specification, in addition to or in place of the above effects.
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
白色光を照射する白色光源を少なくとも有し、手術が行われている生体の一部である術部に対し前記白色光を照射する光源装置と、
前記光源装置により前記白色光が照射された前記術部の白色光画像を取得する手術用カメラと、
異なる時点で取得された複数の前記白色光画像を用い、当該複数の白色光画像間における前記術部の時間変化に基づいて、前記術部における出血位置を特定する画像処理装置と、
を備える、
画像処理システム。
(2)
前記画像処理装置は、前記白色光画像に表示された領域の三次元情報を取得し、
前記白色光画像を構成する色情報及び前記三次元情報に基づいて、前記白色光画像に表示された領域に存在する血液を検出して、前記血液の分布に関する血液分布情報を取得し、
前記複数の前記白色光画像が取得された各時点における前記血液分布情報に基づいて、前記血液の分布の状態の推移を遡ることで前記出血位置を特定する、
(1)に記載の画像処理システム。
(3)
前記画像処理装置は、前記各時点における前記血液分布情報に基づいて、前記血液が存在する領域の面積の変化量、前記白色光画像に表示された領域に存在する血液量及び前記血液量の変化量の少なくともいずれかを算出する、
(1)又は(2)に記載の画像処理システム。
(4)
前記画像処理装置は、前記面積の変化量が所定の閾値を超えたときに、前記白色光画像に表示された領域において出血が発生したと判定する、
(1)〜(3)のいずれか1項に記載の画像処理システム。
(5)
前記画像処理装置は、前記血液量の変化量が所定の閾値を超えたときに、前記白色光画像に表示された領域において出血が発生したと判定する、
(1)〜(3)のいずれか1項に記載の画像処理システム。
(6)
前記画像処理装置は、複数の前記各時点における前記血液の分布の推移に基づいて、将来の前記血液の分布を推定する、 前記光源装置は、近赤外光帯に属する波長を有する近赤外光を照射する近赤外光源を備え、
前記手術用カメラは、前記近赤外光が前記術部に照射された複数の近赤外光画像を更に取得し、
前記画像処理装置は、複数の前記近赤外光画像及び前記白色光画像のうちの少なくとも2以上の画像に基づいて、前記近赤外光画像又は前記白色光画像に表示された領域おける前記血液量及び前記血液量の変化量を算出する、
(5)に記載の画像処理システム。
(7)
前記画像処理装置は、複数の異なる時点における前記血液の分布の推移に基づいて、将来の前記血液の分布を推定する、
(1)〜(3)のいずれか1項に記載の画像処理システム。
(8)
前記画像処理装置は、前記三次元情報に基づいて、前記白色光画像に表示された領域に存在する異物の存在を検出する、
(1)又は(2)に記載の画像処理システム。
(9)
前記光源装置は、所定の波長を有するレーザ光を照射するレーザ光源を備え、
前記手術用カメラは、前記レーザ光が照射された前記術部のレーザ光画像を更に取得し、
前記画像処理装置は、前取得した前記レーザ光画像を用いて血液の流動に関する血液流動情報を取得し、前記血液流動情報に基づいて前記出血位置を特定する、
(1)に記載の画像処理システム。
(10)
前記画像処理装置は、前記白色光画像に表示された領域において出血が発生したと判定したときに、前記出血に関する出血関連情報を出力する、
(1)に記載の画像処理システム。
(11)
前記画像処理装置は、特定した前記出血位置を所定の方法で出力する、
(1)に記載の画像処理システム。
(12)
前記画像処理装置は、出血が発生したと判定された前記白色光画像が取得された時点から所定の時間遡った時点を起点として、前記起点から所定の時間経過するまでの前記白色光画像を出力する、
(1)に記載の画像処理システム。
(13)
前記画像処理装置は、前記血液量又は前記血液量の変化量の少なくともいずれかが所定の閾値を超えたときに、出血の発生を喚起する所定の信号を出力する、
(1)〜(3)のいずれか1項に記載の画像処理システム。
(14)
前記画像処理装置は、前記出血位置を示す表示を最新の前記時点の前記白色光画像に重畳して表示する、
(1)に記載の画像処理システム。
(15)
前記画像処理装置は、前記白色光画像に表示された領域において、前記血液量の変化量又は前記血液が存在する領域の面積の変化量に応じて、前記出血位置を示す表示を変化させる、
(1)〜(3)のいずれか1項に記載の画像処理システム。
(16)
前記画像処理装置は、前記出血位置が前記手術用カメラにより取得される前記白色光画像に表示された領域から外れた場合に、前記出血位置の方向を示す表示を出力する、
(1)に記載の画像処理システム。
(17)
前記画像処理装置は、前記白色光画像に表示された領域における出血量の変化を出力する、
(1)に記載の画像処理システム。
(18)
前記画像処理装置は、複数の前記異なる時点における前記血液の分布の推移に基づいて、推定された将来の前記血液の分布を出力する、
(1)又は(2)に記載の画像処理システム。
(19)
白色光を照射する白色光源を少なくとも有する光源装置からの前記白色光により照明されている、手術が行われている生体の一部である術部を、手術用カメラにより異なる時点で撮像することで得られる複数の白色光画像を用い、当該複数の白色光画像間における前記術部の時間変化に基づいて、前記術部における出血位置を特定する特定部、を備える、
画像処理装置。
(20)
白色光を照射する白色光源を少なくとも有する光源装置からの前記白色光により照明されている、手術が行われている生体の一部である術部を、手術用カメラにより異なる時点で撮像することで得られる複数の白色光画像を用い、当該複数の白色光画像間における前記術部の時間変化に基づいて、前記術部における出血位置を特定すること、を含む
画像処理方法。
(21)
白色光を照射する白色光源を少なくとも有し、手術が行われている生体の一部である術部に対し前記白色光を照射する光源装置、及び、前記光源装置により前記白色光が照射された前記術部の白色光画像を取得する手術用カメラの双方と相互に通信が可能なコンピュータを、
前記手術用カメラによって異なる時間で取得された複数の前記白色光画像を用い、当該複数の画像間における前記術部の時間変化に基づいて、前記術部における出血位置を特定する特定部、として機能させるための、
プログラム。
The following configurations also belong to the technical scope of the present disclosure.
(1)
A light source device that has at least a white light source that irradiates white light and irradiates the surgical site that is a part of the living body in which surgery is performed with the white light.
A surgical camera that acquires a white light image of the surgical site irradiated with the white light by the light source device, and
An image processing device that identifies a bleeding position in the surgical site based on a time change of the surgical site between the plurality of white light images using a plurality of the white light images acquired at different time points.
To prepare
Image processing system.
(2)
The image processing device acquires three-dimensional information of the region displayed on the white light image, and obtains three-dimensional information.
Based on the color information and the three-dimensional information constituting the white light image, blood existing in the region displayed on the white light image is detected, and blood distribution information regarding the distribution of the blood is acquired.
The bleeding position is specified by tracing back the transition of the state of the blood distribution based on the blood distribution information at each time point when the plurality of white light images are acquired.
The image processing system according to (1).
(3)
The image processing device is based on the blood distribution information at each time point, the amount of change in the area of the region where the blood is present, the amount of blood existing in the region displayed in the white light image, and the change in the blood volume. Calculate at least one of the quantities,
The image processing system according to (1) or (2).
(4)
The image processing device determines that bleeding has occurred in the region displayed on the white light image when the amount of change in the area exceeds a predetermined threshold value.
The image processing system according to any one of (1) to (3).
(5)
The image processing device determines that bleeding has occurred in the region displayed on the white light image when the amount of change in blood volume exceeds a predetermined threshold value.
The image processing system according to any one of (1) to (3).
(6)
The image processing device estimates the future distribution of the blood based on the transition of the distribution of the blood at each of the plurality of time points. The light source device has a wavelength belonging to the near-infrared light band. Equipped with a near-infrared light source that irradiates light
The surgical camera further acquires a plurality of near-infrared light images in which the near-infrared light irradiates the surgical site.
The image processing apparatus is based on at least two or more of the plurality of near-infrared light images and the white light image, and the blood in the near-infrared light image or the region displayed in the white light image. Calculate the amount and the amount of change in the blood volume,
The image processing system according to (5).
(7)
The image processing apparatus estimates the future distribution of the blood based on the transition of the distribution of the blood at a plurality of different time points.
The image processing system according to any one of (1) to (3).
(8)
The image processing device detects the presence of foreign matter existing in the region displayed on the white light image based on the three-dimensional information.
The image processing system according to (1) or (2).
(9)
The light source device includes a laser light source that irradiates a laser beam having a predetermined wavelength.
The surgical camera further acquires a laser beam image of the surgical site irradiated with the laser beam.
The image processing apparatus acquires blood flow information regarding blood flow using the previously acquired laser beam image, and identifies the bleeding position based on the blood flow information.
The image processing system according to (1).
(10)
The image processing device outputs bleeding-related information regarding the bleeding when it is determined that bleeding has occurred in the region displayed on the white light image.
The image processing system according to (1).
(11)
The image processing device outputs the specified bleeding position by a predetermined method.
The image processing system according to (1).
(12)
The image processing device outputs the white light image from the starting point to the elapse of a predetermined time, starting from a time point retroactive to a predetermined time from the time when the white light image determined to have caused bleeding has been acquired. do,
The image processing system according to (1).
(13)
The image processing device outputs a predetermined signal for urging the occurrence of bleeding when at least one of the blood volume and the change amount of the blood volume exceeds a predetermined threshold value.
The image processing system according to any one of (1) to (3).
(14)
The image processing device superimposes and displays a display indicating the bleeding position on the latest white light image at the time point.
The image processing system according to (1).
(15)
The image processing device changes the display indicating the bleeding position in the region displayed on the white light image according to the amount of change in the blood volume or the amount of change in the area of the region where the blood is present.
The image processing system according to any one of (1) to (3).
(16)
The image processing device outputs a display indicating the direction of the bleeding position when the bleeding position deviates from the area displayed in the white light image acquired by the surgical camera.
The image processing system according to (1).
(17)
The image processing device outputs a change in the amount of bleeding in the region displayed in the white light image.
The image processing system according to (1).
(18)
The image processing apparatus outputs an estimated future distribution of the blood based on the transition of the distribution of the blood at a plurality of different time points.
The image processing system according to (1) or (2).
(19)
By imaging the surgical site, which is a part of the living body under surgery, illuminated by the white light from a light source device having at least a white light source that irradiates white light, at different time points with a surgical camera. Using the obtained plurality of white light images, a specific portion for identifying a bleeding position in the surgical site based on a time change of the surgical site between the plurality of white light images is provided.
Image processing device.
(20)
By imaging the surgical site, which is a part of the living body under surgery, illuminated by the white light from a light source device having at least a white light source that irradiates white light, at different time points with a surgical camera. An image processing method including identifying a bleeding position in the surgical site based on a time change of the surgical site between the plurality of white light images using the obtained plurality of white light images.
(21)
A light source device that has at least a white light source that irradiates white light and irradiates the surgical site that is a part of the living body undergoing surgery with the white light, and the light source device that irradiates the white light. A computer capable of communicating with both of the surgical cameras that acquire the white light image of the surgical site.
Using the plurality of white light images acquired by the surgical camera at different times, it functions as a specific part for identifying the bleeding position in the surgical part based on the time change of the surgical part between the plurality of images. To make you
program.
1 内視鏡手術システム
10 画像処理システム
100 CCU
110 手術用カメラ
120 画像処理装置
130 光源装置
140 出力装置
1210 特徴点検出部
1211 三次元情報取得部
1212 血液検出部
1220 特徴量検出部
1221 出血判定部
1222 出血位置特定部
1223 血液量算出部
1230 出力制御部
1240 光源切替部
1250 記憶部
1260 通信部
1
110
Claims (21)
前記光源装置により前記白色光が照射された前記術部の白色光画像を取得する手術用カメラと、
異なる時点で取得された複数の前記白色光画像を用い、当該複数の白色光画像間における前記術部の時間変化に基づいて、前記術部における出血位置を特定する画像処理装置と、
を備える、
画像処理システム。 A light source device that has at least a white light source that irradiates white light and irradiates the surgical site that is a part of the living body in which surgery is performed with the white light.
A surgical camera that acquires a white light image of the surgical site irradiated with the white light by the light source device, and
An image processing device that identifies a bleeding position in the surgical site based on a time change of the surgical site between the plurality of white light images using a plurality of the white light images acquired at different time points.
To prepare
Image processing system.
前記白色光画像を構成する色情報及び前記三次元情報に基づいて、前記白色光画像に表示された領域に存在する血液を検出して、前記血液の分布に関する血液分布情報を取得し、
前記複数の前記白色光画像が取得された各時点における前記血液分布情報に基づいて、前記血液の分布の状態の推移を遡ることで前記出血位置を特定する、
請求項1に記載の画像処理システム。 The image processing device acquires three-dimensional information of the region displayed on the white light image, and obtains three-dimensional information.
Based on the color information and the three-dimensional information constituting the white light image, blood existing in the region displayed on the white light image is detected, and blood distribution information regarding the distribution of the blood is acquired.
The bleeding position is specified by tracing back the transition of the state of the blood distribution based on the blood distribution information at each time point when the plurality of white light images are acquired.
The image processing system according to claim 1.
請求項2に記載の画像処理システム。 The image processing device is based on the blood distribution information at each time point, the amount of change in the area of the region where the blood is present, the amount of blood existing in the region displayed in the white light image, and the change in the blood volume. Calculate at least one of the quantities,
The image processing system according to claim 2.
請求項3に記載の画像処理システム。 The image processing device determines that bleeding has occurred in the region displayed on the white light image when the amount of change in the area exceeds a predetermined threshold value.
The image processing system according to claim 3.
請求項3に記載の画像処理システム。 The image processing device determines that bleeding has occurred in the region displayed on the white light image when the amount of change in blood volume exceeds a predetermined threshold value.
The image processing system according to claim 3.
前記手術用カメラは、前記近赤外光が前記術部に照射された複数の近赤外光画像を更に取得し、
前記画像処理装置は、複数の前記近赤外光画像及び前記白色光画像のうちの少なくとも2以上の画像に基づいて、前記近赤外光画像又は前記白色光画像に表示された領域おける前記血液量及び前記血液量の変化量を算出する、
請求項5に記載の画像処理システム。 The light source device includes a near-infrared light source that irradiates near-infrared light having a wavelength belonging to the near-infrared light band.
The surgical camera further acquires a plurality of near-infrared light images in which the near-infrared light irradiates the surgical site.
The image processing apparatus is based on at least two or more of the plurality of near-infrared light images and the white light image, and the blood in the near-infrared light image or the region displayed in the white light image. Calculate the amount and the amount of change in the blood volume,
The image processing system according to claim 5.
請求項3に記載の画像処理システム。 The image processing apparatus estimates the future distribution of the blood based on the transition of the distribution of the blood at a plurality of different time points.
The image processing system according to claim 3.
請求項2に記載の画像処理システム。 The image processing device detects the presence of foreign matter existing in the region displayed on the white light image based on the three-dimensional information.
The image processing system according to claim 2.
前記手術用カメラは、前記レーザ光が照射された前記術部のレーザ光画像を更に取得し、
前記画像処理装置は、取得した前記レーザ光画像を用いて血液の流動に関する血液流動情報を取得し、前記血液流動情報に基づいて前記出血位置を特定する、
請求項1に記載の画像処理システム。 The light source device includes a laser light source that irradiates a laser beam having a predetermined wavelength.
The surgical camera further acquires a laser beam image of the surgical site irradiated with the laser beam.
The image processing apparatus acquires blood flow information regarding blood flow using the acquired laser beam image, and identifies the bleeding position based on the blood flow information.
The image processing system according to claim 1.
請求項1に記載の画像処理システム。 The image processing device outputs bleeding-related information regarding the bleeding when it is determined that bleeding has occurred in the region displayed on the white light image.
The image processing system according to claim 1.
請求項1に記載の画像処理システム。 The image processing device outputs the specified bleeding position by a predetermined method.
The image processing system according to claim 1.
請求項1に記載の画像処理システム。 The image processing device outputs the white light image from the starting point to the elapse of a predetermined time, starting from a time point retroactive to a predetermined time from the time when the white light image determined to have caused bleeding has been acquired. do,
The image processing system according to claim 1.
請求項3に記載の画像処理システム。 The image processing device outputs a predetermined signal for urging the occurrence of bleeding when at least one of the blood volume and the change amount of the blood volume exceeds a predetermined threshold value.
The image processing system according to claim 3.
請求項1に記載の画像処理システム。 The image processing device superimposes and displays a display indicating the bleeding position on the latest white light image at the time point.
The image processing system according to claim 1.
請求項3に記載の画像処理システム。 The image processing device changes the display indicating the bleeding position in the region displayed on the white light image according to the amount of change in the blood volume or the amount of change in the area of the region where the blood is present.
The image processing system according to claim 3.
請求項1に記載の画像処理システム。 The image processing device outputs a display indicating the direction of the bleeding position when the bleeding position deviates from the area displayed in the white light image acquired by the surgical camera.
The image processing system according to claim 1.
請求項1に記載の画像処理システム。 The image processing device outputs a change in the amount of bleeding in the region displayed in the white light image.
The image processing system according to claim 1.
請求項2に記載の画像処理システム。 The image processing apparatus outputs an estimated future distribution of the blood based on the transition of the distribution of the blood at a plurality of different time points.
The image processing system according to claim 2.
画像処理装置。 By imaging the surgical site, which is a part of the living body under surgery, illuminated by the white light from a light source device having at least a white light source that irradiates white light, at different time points with a surgical camera. Using the obtained plurality of white light images, a specific portion for identifying a bleeding position in the surgical site based on a time change of the surgical site between the plurality of white light images is provided.
Image processing device.
画像処理方法。 By imaging the surgical site, which is a part of the living body under surgery, illuminated by the white light from a light source device having at least a white light source that irradiates white light, at different time points with a surgical camera. An image processing method including identifying a bleeding position in the surgical site based on a time change of the surgical site between the plurality of white light images using the obtained plurality of white light images.
前記手術用カメラによって異なる時間で取得された複数の前記白色光画像を用い、当該複数の画像間における前記術部の時間変化に基づいて、前記術部における出血位置を特定する特定部、として機能させるための、
プログラム。
A light source device that has at least a white light source that irradiates white light and irradiates the surgical site that is a part of the living body undergoing surgery with the white light, and the light source device that irradiates the white light. A computer capable of communicating with both of the surgical cameras that acquire the white light image of the surgical site.
Using the plurality of white light images acquired by the surgical camera at different times, it functions as a specific part for identifying the bleeding position in the surgical part based on the time change of the surgical part between the plurality of images. To make you
program.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018079066A JP2021112220A (en) | 2018-04-17 | 2018-04-17 | Image processing system, image processing device, image processing method and program |
PCT/JP2019/004770 WO2019202827A1 (en) | 2018-04-17 | 2019-02-12 | Image processing system, image processing device, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018079066A JP2021112220A (en) | 2018-04-17 | 2018-04-17 | Image processing system, image processing device, image processing method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021112220A true JP2021112220A (en) | 2021-08-05 |
Family
ID=68239509
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018079066A Pending JP2021112220A (en) | 2018-04-17 | 2018-04-17 | Image processing system, image processing device, image processing method and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2021112220A (en) |
WO (1) | WO2019202827A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024004013A1 (en) * | 2022-06-28 | 2024-01-04 | 国立研究開発法人国立がん研究センター | Program, information processing method, and information processing device |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11045075B2 (en) | 2018-12-10 | 2021-06-29 | Covidien Lp | System and method for generating a three-dimensional model of a surgical site |
WO2021152785A1 (en) * | 2020-01-30 | 2021-08-05 | 株式会社インキュビット | Video playback system |
US20230069802A1 (en) * | 2020-01-30 | 2023-03-02 | Anaut Inc. | Recording Medium and Image Playback Method |
JPWO2022191129A1 (en) | 2021-03-09 | 2022-09-15 | ||
CN116963655A (en) | 2021-03-09 | 2023-10-27 | 富士胶片株式会社 | Endoscope system and working method thereof |
CN116963654A (en) | 2021-03-09 | 2023-10-27 | 富士胶片株式会社 | Endoscope system and working method thereof |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011036372A (en) * | 2009-08-10 | 2011-02-24 | Tohoku Otas Kk | Medical image recording apparatus |
JP5510796B2 (en) * | 2010-01-12 | 2014-06-04 | 独立行政法人産業技術総合研究所 | Minimally invasive angiogenesis measuring device |
US9877633B2 (en) * | 2012-07-25 | 2018-01-30 | Intuitive Surgical Operations, Inc | Efficient and interactive bleeding detection in a surgical system |
-
2018
- 2018-04-17 JP JP2018079066A patent/JP2021112220A/en active Pending
-
2019
- 2019-02-12 WO PCT/JP2019/004770 patent/WO2019202827A1/en active Application Filing
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024004013A1 (en) * | 2022-06-28 | 2024-01-04 | 国立研究開発法人国立がん研究センター | Program, information processing method, and information processing device |
Also Published As
Publication number | Publication date |
---|---|
WO2019202827A1 (en) | 2019-10-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2021112220A (en) | Image processing system, image processing device, image processing method and program | |
JP6931121B2 (en) | Surgical recognition system | |
US11819188B2 (en) | Machine-learning-based visual-haptic system for robotic surgical platforms | |
JP7500667B2 (en) | Indicator System | |
US12102397B2 (en) | Step-based system for providing surgical intraoperative cues | |
US20220095903A1 (en) | Augmented medical vision systems and methods | |
JP7542039B2 (en) | Automated Endoscopic Video Enhancement | |
US11266294B2 (en) | Image processing device, endoscopic surgery system, and image processing method | |
KR102214789B1 (en) | Dual-mode stereo imaging system for tracking and control in surgical and interventional procedures | |
CN115279298A (en) | Analyzing surgical trends and providing user recommendations via a surgical system | |
JP2019162339A (en) | Surgery supporting system and display method | |
KR20210056239A (en) | Surgical scene assessment based on computer vision | |
JPWO2018168261A1 (en) | CONTROL DEVICE, CONTROL METHOD, AND PROGRAM | |
US20230225804A1 (en) | Systems and methods for tag-based instrument control | |
JP7354608B2 (en) | Medical observation system, medical observation method, and information processing device | |
CN115443108A (en) | Surgical procedure guidance system | |
CN114025701A (en) | Surgical tool tip and orientation determination | |
JP7146318B1 (en) | Computer program, learning model generation method, and surgery support device | |
US20220148209A1 (en) | Medical system, signal processing device, and signal processing method | |
JP2024513992A (en) | System with a camera array deployable outside the channel of a tissue-penetrating surgical device | |
CN113365569B (en) | Robotic surgical method | |
JP7147890B2 (en) | Information processing system, information processing method and program | |
JP7044140B2 (en) | Surgical support system, image processing method and information processing equipment | |
WO2024004013A1 (en) | Program, information processing method, and information processing device | |
US20240164706A1 (en) | In-vivo observation system, observation system, in-vivo observation method, and in-vivo observation device |