JP2021112220A - Image processing system, image processing device, image processing method and program - Google Patents

Image processing system, image processing device, image processing method and program Download PDF

Info

Publication number
JP2021112220A
JP2021112220A JP2018079066A JP2018079066A JP2021112220A JP 2021112220 A JP2021112220 A JP 2021112220A JP 2018079066 A JP2018079066 A JP 2018079066A JP 2018079066 A JP2018079066 A JP 2018079066A JP 2021112220 A JP2021112220 A JP 2021112220A
Authority
JP
Japan
Prior art keywords
white light
image processing
blood
image
bleeding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018079066A
Other languages
Japanese (ja)
Inventor
穂 高橋
Minoru Takahashi
穂 高橋
大介 菊地
Daisuke Kikuchi
大介 菊地
貴美 水倉
Takami Mizukura
貴美 水倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Priority to JP2018079066A priority Critical patent/JP2021112220A/en
Priority to PCT/JP2019/004770 priority patent/WO2019202827A1/en
Publication of JP2021112220A publication Critical patent/JP2021112220A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Radiology & Medical Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Endoscopes (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

To provide an image processing system, image processing device, image processing method and program which allow a user to more correctly grasp a bleeding spot in a surgical area in the surgery.SOLUTION: An image processing system according to the present disclosure comprises: a light source device which has at least a white light source emitting white light and emits the white light to a surgical area being a portion of a living body in which the surgery is performed; a surgical camera which acquires a white light image of the surgical area to which the white light is emitted by the light source device; and an image processing device which specifies a bleeding position in the surgical area on the basis of the temporal change of the surgical area in the plurality of white light images by using the plurality of white light images acquired at the different time points.SELECTED DRAWING: Figure 8

Description

本開示は、画像処理システム、画像処理装置、画像処理方法及びプログラムに関する。 The present disclosure relates to an image processing system, an image processing apparatus, an image processing method and a program.

医療現場において、生体内部を観察するための機器である内視鏡や顕微鏡等に対して装着が可能な手術用カメラが普及するのに伴い、医師が生体内部の患部を直接肉眼で確認するのではなく、手術用カメラを用いて取得された映像により患部を確認しながら患部を治療する場面が増加している。近年、手術用カメラで取得された画像に対して目的に応じた画像処理を施すことで手術の支援を行う技術が、数多く提案されている。 With the widespread use of surgical cameras that can be attached to endoscopes and microscopes, which are devices for observing the inside of a living body in the medical field, doctors can directly check the affected part inside the living body with the naked eye. Instead, the number of scenes in which the affected area is treated while being confirmed by images acquired using a surgical camera is increasing. In recent years, many techniques have been proposed to support surgery by performing image processing according to a purpose on an image acquired by a surgical camera.

上記のような手術支援技術の一つとして、例えば、以下の特許文献1には、奥行情報を用いることで立体的な構造や物体間の位置関係の情報を得られやすくする技術が開示されている。この特許文献1では、出血により生じた血溜まりの厚さを解析し、得られた厚さが所定の厚さ以上となった位置を、出血位置として検出する旨が開示されている。 As one of the above-mentioned surgical support techniques, for example, the following Patent Document 1 discloses a technique that makes it easy to obtain information on a three-dimensional structure and a positional relationship between objects by using depth information. There is. Patent Document 1 discloses that the thickness of a blood clot generated by bleeding is analyzed, and a position where the obtained thickness becomes a predetermined thickness or more is detected as a bleeding position.

特開2016−93210号公報Japanese Unexamined Patent Publication No. 2016-93210

しかし、血溜まりの下部に存在する臓器表面は平面ではなく、凹凸がある場合が多い。そのため、特許文献1に開示された技術では、出血位置ではない箇所を出血位置であると判断する可能性がある。医療現場において出血位置の正確な特定は、場合によっては患者の生命にも関わる重要な問題であり、出血位置の正確な特定には、なお改善の余地がある。 However, the surface of the organ existing in the lower part of the blood clot is not flat and often has irregularities. Therefore, in the technique disclosed in Patent Document 1, there is a possibility that a portion other than the bleeding position is determined to be the bleeding position. Accurate identification of the bleeding position in the medical field is an important problem that may be life-threatening for the patient in some cases, and there is still room for improvement in the accurate identification of the bleeding position.

そこで、本開示では、上記事情に鑑みて、手術時における術部の出血箇所をより正確に把握することが可能な、画像処理システム、画像処理装置、画像処理方法及びプログラムを提案する。 Therefore, in view of the above circumstances, the present disclosure proposes an image processing system, an image processing device, an image processing method, and a program capable of more accurately grasping the bleeding part of the surgical site at the time of surgery.

本開示によれば、白色光を照射する白色光源を少なくとも有し、手術が行われている生体の一部である術部に対し前記白色光を照射する光源装置と、前記光源装置により前記白色光が照射された前記術部の白色光画像を取得する手術用カメラと、異なる時点で取得された複数の前記白色光画像を用い、当該複数の白色光画像間における前記術部の時間変化に基づいて、前記術部における出血位置を特定する画像処理装置と、を備える、画像処理システムが提供される。 According to the present disclosure, a light source device that has at least a white light source that irradiates white light and irradiates the surgical site that is a part of a living body in which surgery is performed with the white light, and the white light source device. Using a surgical camera that acquires a white light image of the surgical site irradiated with light and a plurality of the white light images acquired at different time points, the time change of the surgical site between the plurality of white light images Based on this, an image processing system including an image processing device for identifying a bleeding position in the surgical site is provided.

また、本開示によれば、白色光を照射する白色光源を少なくとも有する光源装置からの前記白色光により照明されている、手術が行われている生体の一部である術部を、手術用カメラにより異なる時点で撮像することで得られる複数の白色光画像を用い、当該複数の白色光画像間における前記術部の時間変化に基づいて、前記術部における出血位置を特定する特定部、を備える、画像処理装置が提供される。 Further, according to the present disclosure, a surgical camera that is a part of a living body under surgery, which is illuminated by the white light from a light source device having at least a white light source that irradiates white light. A plurality of white light images obtained by imaging at different time points are used, and a specific portion for identifying a bleeding position in the surgical site is provided based on a time change of the surgical site between the plurality of white light images. , An image processing apparatus is provided.

また、本開示によれば、白色光を照射する白色光源を少なくとも有する光源装置からの前記白色光により照明されている、手術が行われている生体の一部である術部を、手術用カメラにより異なる時点で撮像することで得られる複数の白色光画像を用い、当該複数の白色光画像間における前記術部の時間変化に基づいて、前記術部における出血位置を特定すること、を含む画像処理方法が提供される。 Further, according to the present disclosure, a surgical camera that is a part of a living body under surgery, which is illuminated by the white light from a light source device having at least a white light source that irradiates white light. An image including identifying a bleeding position in the surgical site based on a time change of the surgical site between the plurality of white light images using a plurality of white light images obtained by imaging at different time points. A processing method is provided.

また、本開示によれば、白色光を照射する白色光源を少なくとも有し、手術が行われている生体の一部である術部に対し前記白色光を照射する光源装置、及び、前記光源装置により前記白色光が照射された前記術部の白色光画像を取得する手術用カメラの双方と相互に通信が可能なコンピュータを、前記手術用カメラによって異なる時間で取得された複数の前記白色光画像を用い、当該複数の画像間における前記術部の時間変化に基づいて、前記術部における出血位置を特定する特定部、として機能させるための、プログラムが提供される。 Further, according to the present disclosure, a light source device that has at least a white light source that irradiates white light and irradiates the surgical site that is a part of a living body in which surgery is performed with the white light, and the light source device. A computer capable of communicating with both of the surgical cameras that acquire the white light image of the surgical site irradiated with the white light by the surgical camera, and a plurality of the white light images acquired by the surgical camera at different times. Is provided to provide a program for functioning as a specific part for identifying a bleeding position in the surgical part based on a time change of the surgical part between the plurality of images.

本開示によれば、手術用カメラは、術部の白色光画像を異なる時点で取得し、画像処理装置は、異なる時点で取得された複数の白色光画像間における術部の時間変化に基づいて、術部における出血位置を特定する。 According to the present disclosure, a surgical camera acquires white light images of a surgical site at different time points, and an image processing device is based on a time change of the surgical site between a plurality of white light images acquired at different time points. , Identify the location of bleeding in the surgical site.

以上説明したように本開示によれば、手術時における術部の出血箇所をより正確に把握することが可能となる。 As described above, according to the present disclosure, it is possible to more accurately grasp the bleeding site of the surgical site at the time of surgery.

なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、又は、上記の効果に代えて、本明細書に示されたいずれかの効果、又は、本明細書から把握され得る他の効果が奏されてもよい。 It should be noted that the above effects are not necessarily limited, and any of the effects shown in the present specification, or other effects that can be grasped from the present specification, together with the above effects or in place of the above effects. The effect of may be achieved.

本開示に係る技術思想を用いた内視鏡手術システムの一例を示す図である。It is a figure which shows an example of the endoscopic surgery system using the technical idea which concerns on this disclosure. 本開示の実施形態に係る画像処理システムの構成を示すブロック図である。It is a block diagram which shows the structure of the image processing system which concerns on embodiment of this disclosure. カメラの撮影画像から抽出された特徴点を説明するための説明図である。It is explanatory drawing for demonstrating the feature point extracted from the image taken by a camera. 同実施形態に係る特徴点の出現位置の予測方法を説明するための模式図である。It is a schematic diagram for demonstrating the method of predicting the appearance position of the feature point which concerns on this embodiment. 同実施形態に係る位置及び姿勢が推定された手術用カメラにより画像を取得する方法を説明するための説明図である。It is explanatory drawing for demonstrating the method of acquiring an image by the surgical camera which estimated the position and the posture which concerns on this embodiment. 同実施形態に係る位置及び姿勢が推定された手術用カメラにより画像を取得する方法を説明するための説明図である。It is explanatory drawing for demonstrating the method of acquiring an image by the surgical camera which estimated the position and the posture which concerns on this embodiment. 同実施形態に係る血液を検出する方法の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the method of detecting blood which concerns on this embodiment. 同実施形態に係る血液を検出するために作成された特徴量平面の一例を示す模式図である。It is a schematic diagram which shows an example of the feature amount plane created for detecting the blood which concerns on the same embodiment. 同実施形態に係る血液の分布が表示された画像を示す模式図である。It is a schematic diagram which shows the image which displayed the distribution of blood which concerns on the same embodiment. 同実施形態に係る出血を判定する方法の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the method of determining the bleeding which concerns on the said embodiment. 同実施形態に係る出血位置を特定する方法の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the method of specifying the bleeding position which concerns on this embodiment. 同実施形態に係る出血量を算出する方法の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the method of calculating the bleeding amount which concerns on the same embodiment. 同実施形態に係る出血量を算出する方法の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the method of calculating the bleeding amount which concerns on the same embodiment. 同実施形態に係る出血量を算出する方法の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the method of calculating the bleeding amount which concerns on the same embodiment. 同実施形態に係る出血量を算出する方法の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the method of calculating the bleeding amount which concerns on the same embodiment. 同実施形態に係る白色光画像を用いて得られた血液の分布が表示された画像を示す模式図である。It is a schematic diagram which shows the image which displayed the distribution of blood obtained by using the white light image which concerns on the same embodiment. 同実施形態に係る近赤外光画像を用いて得られた血液の分布が表示された画像を示す模式図である。It is a schematic diagram which shows the image which displayed the distribution of blood obtained by using the near-infrared light image which concerns on the same embodiment. 同実施形態に係る出力方法の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the output method which concerns on this embodiment. 同実施形態に係る出力方法の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the output method which concerns on this embodiment. 同実施形態に係る制御システムのハードウェア構成例を示す図である。It is a figure which shows the hardware configuration example of the control system which concerns on this embodiment.

以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Preferred embodiments of the present disclosure will be described in detail below with reference to the accompanying drawings. In the present specification and the drawings, components having substantially the same functional configuration are designated by the same reference numerals, so that duplicate description will be omitted.

また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。 Further, in the present specification and the drawings, a plurality of components having substantially the same functional configuration may be distinguished by adding different alphabets after the same reference numerals. However, if it is not necessary to distinguish each of the plurality of components having substantially the same functional configuration, only the same reference numerals are given.

なお、説明は以下の順序で行うものとする。
<1.構成>
<1−1.内視鏡手術システム1の構成>
<1−2.画像処理システム10の構成>
<2.動作>
<3.ハードウェア構成>
<4.結び>
The explanations will be given in the following order.
<1. Configuration>
<1-1. Configuration of endoscopic surgery system 1>
<1-2. Configuration of image processing system 10>
<2. Operation>
<3. Hardware configuration>
<4. Conclusion>

<1.構成>
<1−1.内視鏡手術システム1の構成>
まず、本開示に係る技術が適用され得る内視鏡手術システム1の概略構成を説明する。図1は、本開示に係る技術が適用され得る内視鏡手術システム1の概略的な構成の一例を示す図である。内視鏡手術システム1は、医療現場において開腹手術に代わって行われる内視鏡下手術に用いられる。
<1. Configuration>
<1-1. Configuration of endoscopic surgery system 1>
First, a schematic configuration of an endoscopic surgery system 1 to which the technique according to the present disclosure can be applied will be described. FIG. 1 is a diagram showing an example of a schematic configuration of an endoscopic surgery system 1 to which the technique according to the present disclosure can be applied. The endoscopic surgery system 1 is used for endoscopic surgery performed in place of open surgery in the medical field.

内視鏡手術では、腹壁を切って開腹する代わりに、トロッカ200a〜200dと称される開孔器具が患部230の腹壁に取り付けられる。トロッカ200a〜200dから手術用カメラ110、エネルギ処置具210や鉗子220が患者の体腔内に挿入される。手術用カメラ110によって撮像された患部230の画像をリアルタイムで見ながら、エネルギ処置具210等によって、例えば、患部230を切除する等の処置が行われる。なお、図示は省略しているが、手術用カメラ110、エネルギ処置具210や鉗子220は、術中に、術者、助手、スコピスト又はロボット等によって支持される。 In endoscopic surgery, instead of cutting and opening the abdominal wall, a laparotomy device called a trocca 200a-200d is attached to the abdominal wall of the affected area 230. The surgical camera 110, the energy treatment tool 210 and the forceps 220 are inserted into the body cavity of the patient from the troccers 200a to 200d. While viewing the image of the affected area 230 captured by the surgical camera 110 in real time, a procedure such as excising the affected area 230 is performed by an energy treatment tool 210 or the like. Although not shown, the surgical camera 110, the energy treatment tool 210, and the forceps 220 are supported by an operator, an assistant, a scopist, a robot, or the like during the operation.

内視鏡下手術が行われる手術室内には、内視鏡手術のための装置類を搭載するカート190、患者が横たわるベッド240、フットスイッチ250が配置される。カート190は、医療機器として、例えば、カメラコントロールユニット(Camera Control Unit:CCU)100、光源装置130、出力装置140、処置具制御装置150、気腹装置160、レコーダ170及びプリンタ180の装置を載置している。 In the operating room where endoscopic surgery is performed, a cart 190 equipped with devices for endoscopic surgery, a bed 240 on which a patient lies, and a foot switch 250 are arranged. The cart 190 includes, for example, a camera control unit (Camera Control Unit: CCU) 100, a light source device 130, an output device 140, a treatment tool control device 150, a pneumoperitoneum device 160, a recorder 170, and a printer 180 as medical devices. It is location.

(手術用カメラ110)
手術用カメラ110は、手術が行われている術部の画像を取得する機能を有する。手術用カメラ110は、後述する光源装置130から術部に照射される光の種類に応じた画像を取得する。手術用カメラ110は、例えば、白色光が照射された術部の画像である白色光画像や、近赤外光帯に属する波長を有する近赤外光が照射された術部の画像である近赤外光画像、所定の波長を有するレーザ光が術部に照射されたレーザ光画像等を取得する。白色光画像及び近赤外光画像は、手術用カメラ110に複数の撮像素子を備えさせ、白色光画像と近赤外光画像とで異なる撮像素子により撮像されてもよいし、光源装置130の光源を切り替えて、単一のイメージャで白色光画像と近赤外光画像とが撮像されてもよい。手術用カメラ110により撮像された患部230の画像信号は、カメラケーブルを介してRAWデータとしてCCU100に伝送される。取得された画像は、レコーダ170や、CCU100が有する図2に示すような記憶部1250に保存されてもよい。手術用カメラ110とCCU100とは、カメラケーブルの他、無線による通信方法で接続されてもよい。手術用カメラ110としては、例えば、内視鏡や手術用顕微鏡が用いられてよい。なお、図示する例では、硬性の鏡筒を有するいわゆる硬性鏡として構成される手術用カメラ110を図示しているが、手術用カメラ110は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。カメラケーブルとしては、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブル等の有線の伝送ケーブルが用いられてもよい。
(Surgery camera 110)
The surgical camera 110 has a function of acquiring an image of the surgical site where surgery is being performed. The surgical camera 110 acquires an image according to the type of light emitted to the surgical site from the light source device 130 described later. The surgical camera 110 is, for example, a white light image which is an image of a surgical part irradiated with white light, or a near infrared image which is an image of a surgical part irradiated with near-infrared light having a wavelength belonging to the near-infrared light band. An infrared light image, a laser light image obtained by irradiating the surgical site with a laser light having a predetermined wavelength, or the like is acquired. The white light image and the near-infrared light image may be captured by the surgical camera 110 provided with a plurality of imaging elements and different imaging elements for the white light image and the near-infrared light image, or the light source device 130. The light source may be switched to capture a white light image and a near-infrared light image with a single imager. The image signal of the affected area 230 captured by the surgical camera 110 is transmitted to the CCU 100 as RAW data via the camera cable. The acquired image may be stored in the recorder 170 or the storage unit 1250 of the CCU 100 as shown in FIG. The surgical camera 110 and the CCU 100 may be connected by a wireless communication method in addition to the camera cable. As the surgical camera 110, for example, an endoscope or a surgical microscope may be used. In the illustrated example, the surgical camera 110 configured as a so-called rigid mirror having a rigid lens barrel is illustrated, but the surgical camera 110 is configured as a so-called flexible mirror having a flexible lens barrel. May be good. As the camera cable, a wired transmission cable such as an electric signal cable compatible with electric signal communication, an optical fiber compatible with optical communication, or a composite cable thereof may be used.

手術用カメラ110には光源装置130が接続されており、当該光源装置130によって生成された光が、手術用カメラ110の先端に設けられた鏡筒の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者の体腔内の観察対象に向かって照射される。 A light source device 130 is connected to the surgical camera 110, and the light generated by the light source device 130 is transmitted to the mirror by a light guide extending inside a lens barrel provided at the tip of the surgical camera 110. The light is guided to the tip of the cylinder and irradiated toward the observation target in the patient's body cavity through the objective lens.

(CCU100)
CCU100は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、手術用カメラ110及び出力装置140の動作を統括的に制御する。具体的には、CCU100は、手術用カメラ110から受け取った画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。CCU100は、当該画像処理を施した画像信号を出力装置140に提供する。また、CCU100は、手術用カメラ110に対して制御信号を送信し、その駆動を制御する。当該制御信号には、倍率や焦点距離等、撮像条件に関する情報が含まれ得る。
(CCU100)
The CCU 100 is composed of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and the like, and controls the operations of the surgical camera 110 and the output device 140 in an integrated manner. Specifically, the CCU 100 performs various image processing for displaying an image based on the image signal, such as development processing (demosaic processing), on the image signal received from the surgical camera 110. The CCU 100 provides the image signal subjected to the image processing to the output device 140. Further, the CCU 100 transmits a control signal to the surgical camera 110 and controls the driving thereof. The control signal may include information about imaging conditions such as magnification and focal length.

(光源装置130)
光源装置130は、白色光を照射する白色光源を有する。光源装置130は、必要に応じて、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。光源装置130は、白色光源に加えて、例えば、近赤外光帯に属する波長を有する近赤外光を照射する近赤外光源及び所定の波長を有するレーザ光を照射するレーザ光源の少なくともいずれかを備えることが好ましい。また、光源装置130は、異なる波長の近赤外光を照射する近赤外光光源を複数有してもよい。光源装置130は、術部を撮影する際の照射光を手術用カメラ110に供給する。特殊光観察では、後述するように、術部の出血位置の特定や、出血量の算出等が行われてもよい。また、特殊鋼観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging:NBI)が行われてもよい。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察するもの(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得るもの等が行われ得る。光源装置130は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
(Light source device 130)
The light source device 130 has a white light source that irradiates white light. The light source device 130 may be configured to be able to supply light in a predetermined wavelength band corresponding to special light observation, if necessary. In addition to the white light source, the light source device 130 is, for example, at least one of a near-infrared light source that irradiates near-infrared light having a wavelength belonging to the near-infrared light band and a laser light source that irradiates laser light having a predetermined wavelength. It is preferable to have a laser. Further, the light source device 130 may have a plurality of near-infrared light sources that irradiate near-infrared light having different wavelengths. The light source device 130 supplies the irradiation light for photographing the surgical portion to the surgical camera 110. In the special light observation, as will be described later, the bleeding position of the surgical site may be specified, the amount of bleeding may be calculated, and the like. Further, in special steel observation, for example, by utilizing the wavelength dependence of light absorption in body tissue, light in a narrow band is irradiated as compared with the irradiation light (that is, white light) in normal observation. So-called narrow band imaging (NBI), in which a predetermined tissue such as a blood vessel on the surface layer of the mucous membrane is photographed with high contrast, may be performed. Alternatively, in the special light observation, fluorescence observation may be performed in which an image is obtained by fluorescence generated by irradiating with excitation light. In fluorescence observation, the body tissue is irradiated with excitation light to observe the fluorescence from the body tissue (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally injected into the body tissue and the body tissue is injected. An excitation light corresponding to the fluorescence wavelength of the reagent may be irradiated to obtain a fluorescence image. The light source device 130 may be configured to be capable of supplying narrow band light and / or excitation light corresponding to such special light observation.

(出力装置140)
出力装置140は、CCU100からの制御により、当該CCU100によって画像処理が施された画像信号に基づく画像を表示する。また、出力装置は、CCU100からの制御により所定の音声を発する。
(Output device 140)
The output device 140 displays an image based on an image signal that has been image-processed by the CCU 100 under the control of the CCU 100. Further, the output device emits a predetermined sound under the control of the CCU 100.

(処置具制御装置150)
処置具制御装置150は、組織の焼灼、切開又は血管の封止等のためのエネルギ処置具210の駆動を制御する。処置具制御装置150は、例えば、患部230を切断するエネルギ処置具210に対して高周波電流を出力する高周波出力装置である。
(Treatment tool control device 150)
The treatment tool control device 150 controls the drive of the energy treatment tool 210 for cauterizing, incising, sealing a blood vessel, or the like of a tissue. The treatment tool control device 150 is, for example, a high-frequency output device that outputs a high-frequency current to the energy treatment tool 210 that cuts the affected portion 230.

(気腹装置160)
気腹装置160は、送気、吸気手段を備え、患者体内、例えば腹部領域に空気を送気して患者の体腔を膨らませる装置である。気腹装置160により患者の体腔が膨らむことで、手術用カメラ110による視野の確保及び術者の作業空間の確保が可能となる。
(Pneumoperitoneum device 160)
The pneumoperitoneum device 160 is a device provided with air supply and inspiration means, and air is supplied to the patient's body, for example, the abdominal region to inflate the patient's body cavity. By expanding the body cavity of the patient by the pneumoperitoneum device 160, it is possible to secure the field of view and the working space of the operator by the surgical camera 110.

(レコーダ170)
レコーダ170は、手術に関する各種の情報を記録可能な装置である。レコーダ170は、手術用カメラ110により取得された画像が記録されてもよいし、後述するCCU100が有する特徴点検出部1210や特徴量検出部1220が取得した各種の情報が履歴情報として記録されていてもよい。更に、レコーダ170には、本実施形態に係る画像処理システム10が何らかの処理を行う際に保存する必要が生じた様々なパラメータや処理の途中経過等が適宜記録されてもよい。
(Recorder 170)
The recorder 170 is a device capable of recording various information related to surgery. The recorder 170 may record an image acquired by the surgical camera 110, and various information acquired by the feature point detection unit 1210 and the feature amount detection unit 1220 of the CCU 100, which will be described later, are recorded as history information. You may. Further, the recorder 170 may appropriately record various parameters that need to be saved when the image processing system 10 according to the present embodiment performs some processing, the progress of the processing, and the like.

(プリンタ180)
プリンタ180は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
(Printer 180)
The printer 180 is a device capable of printing various information related to surgery in various formats such as texts, images, and graphs.

(フットスイッチ250)
フットスイッチ250は、術者や助手等の操作をトリガ信号として、CCU100や処置具制御装置150を制御する。なお、CCU100や処置具制御装置150の制御は、フットスイッチ250限られず、タッチパネルや音声入力等によって行われてもよい。
(Foot switch 250)
The foot switch 250 controls the CCU 100 and the treatment tool control device 150 by using an operation of an operator, an assistant, or the like as a trigger signal. The control of the CCU 100 and the treatment tool control device 150 is not limited to the foot switch 250, and may be performed by a touch panel, voice input, or the like.

以上、本開示に係る技術が適用され得る内視鏡手術システム1の概略構成について説明した。なお、本開示に係る技術は、上記のような内視鏡手術システムのみならず、顕微鏡を用いた手術に使用される顕微鏡手術システムに対しても適用が可能である。 The schematic configuration of the endoscopic surgery system 1 to which the technique according to the present disclosure can be applied has been described above. The technique according to the present disclosure can be applied not only to the endoscopic surgery system as described above, but also to the microscopic surgery system used for surgery using a microscope.

<1−2.画像処理システム10の構成>
次に、本開示の実施形態に係る画像処理システム10の構成例について説明する。図2は、本開示の実施形態に係る画像処理システム10の構成例を示す図である。本開示の実施形態に係る画像処理システム10は、例えば図1に示したような内視鏡手術システム1等の一機能として実装されることが可能である。以下では、内視鏡手術システム1に、以下で詳述する画像処理システム10が実装される場合を例に挙げて、詳細な説明を行うものとする。本開示の実施形態に係る画像処理システム10は、図2に示したように、画像処理装置120を備える。この画像処理装置120は、例えば、先だって説明したCCU100に実装される。この場合に、本開示の実施形態に係る画像処理装置120は、内視鏡手術システム1に実装されている手術用カメラ110、光源装置130、及び、出力装置140と相互に連携を取りながら、各種の処理を実施する。また、本開示の実施形態に係る画像処理装置120は、図1に示したような内視鏡手術システム1における手術用カメラ110、光源装置130、及び、出力装置140ではなく、これら手術用カメラ110、光源装置130及び出力装置140と同様の機能を有するものと相互に連携を取りながら、各種の処理を実施することも可能である。
<1-2. Configuration of image processing system 10>
Next, a configuration example of the image processing system 10 according to the embodiment of the present disclosure will be described. FIG. 2 is a diagram showing a configuration example of the image processing system 10 according to the embodiment of the present disclosure. The image processing system 10 according to the embodiment of the present disclosure can be implemented as one function of, for example, the endoscopic surgery system 1 as shown in FIG. In the following, a detailed description will be given by taking as an example a case where the image processing system 10 described in detail below is mounted on the endoscopic surgery system 1. As shown in FIG. 2, the image processing system 10 according to the embodiment of the present disclosure includes an image processing device 120. The image processing device 120 is mounted on the CCU 100 described above, for example. In this case, the image processing device 120 according to the embodiment of the present disclosure cooperates with the surgical camera 110, the light source device 130, and the output device 140 mounted on the endoscopic surgery system 1 while coordinating with each other. Perform various processes. Further, the image processing device 120 according to the embodiment of the present disclosure is not the surgical camera 110, the light source device 130, and the output device 140 in the endoscopic surgery system 1 as shown in FIG. 1, but these surgical cameras. It is also possible to carry out various processes while coordinating with those having the same functions as the 110, the light source device 130 and the output device 140.

本開示の実施形態に係る画像処理装置120は、手術用カメラ110によって、異なる時点で取得された、白色光源を少なくとも有する光源装置により照明された、手術が行われている生体の一部である術部の複数の画像を用い、当該複数の白色光画像間における術部の時間変化に基づいて、術部における出血位置を特定する。また、画像処理装置120は、手術用カメラ110によって異なる時点で取得された、白色光画像以外の画像(例えば、近赤外光画像又はレーザ光画像の少なくとも何れかを更に用いて、術部における出血位置等を特定することも可能である。以下では、手術用カメラ110によって異なる時点で取得された、様々な種類(白色光画像、近赤外光画像、レーザ光画像など)の複数の画像を、まとめて「複数の画像」と称することとする。本開示の実施形態に係る画像処理装置120は、図2に示したように、特徴点検出部1210と、特徴量検出部1220と、出力制御部1230と、光源切替部1240と、記憶部1250とを備える。 The image processing device 120 according to the embodiment of the present disclosure is a part of a living body under surgery, illuminated by a light source device having at least a white light source, acquired by a surgical camera 110 at different times. Using a plurality of images of the surgical site, the bleeding position in the surgical site is specified based on the time change of the surgical site between the plurality of white light images. Further, the image processing device 120 further uses at least one of an image other than the white light image (for example, a near-infrared light image or a laser light image) acquired at different time points by the surgical camera 110 in the surgical site. It is also possible to specify the bleeding position and the like. In the following, a plurality of images of various types (white light image, near infrared light image, laser light image, etc.) acquired at different time points by the surgical camera 110. The image processing apparatus 120 according to the embodiment of the present disclosure includes a feature point detection unit 1210, a feature amount detection unit 1220, and a feature amount detection unit 1220, as shown in FIG. It includes an output control unit 1230, a light source switching unit 1240, and a storage unit 1250.

(特徴点検出部1210)
本開示の実施形態に係る特徴点検出部1210は、手術用カメラ110が取得した複数の白色光画像を用い、これら複数の白色光画像をそれぞれ解析することで、白色光画像を特徴づける点である「特徴点」を複数の白色光画像のそれぞれから検出する。本開示の実施形態に係る特徴点検出部1210は、図2に示したように、三次元情報取得部1211及び血液検出部1212を有する。三次元情報取得部1211は、手術用カメラ110で取得された白色光画像に表示された領域の三次元情報を取得する。血液検出部1212は、白色光画像に表示された領域に存在しうる血液を検出し、血液の分布に関する血液分布情報を取得する。三次元情報とは、手術用カメラ110で取得された画像領域の位置に関する位置情報、及び、当該画像に表示された領域の立体形状に関する形状情報をいう。特徴点検出部1210は、取得した三次元情報や血液の位置情報を特徴量検出部1220に送信する。
(Feature point detection unit 1210)
The feature point detection unit 1210 according to the embodiment of the present disclosure uses a plurality of white light images acquired by the surgical camera 110 and analyzes each of the plurality of white light images to characterize the white light image. A certain "feature point" is detected from each of a plurality of white light images. As shown in FIG. 2, the feature point detection unit 1210 according to the embodiment of the present disclosure includes a three-dimensional information acquisition unit 1211 and a blood detection unit 1212. The three-dimensional information acquisition unit 1211 acquires the three-dimensional information of the region displayed on the white light image acquired by the surgical camera 110. The blood detection unit 1212 detects blood that may exist in the region displayed on the white light image, and acquires blood distribution information regarding the blood distribution. The three-dimensional information refers to the position information regarding the position of the image region acquired by the surgical camera 110 and the shape information regarding the three-dimensional shape of the region displayed on the image. The feature point detection unit 1210 transmits the acquired three-dimensional information and blood position information to the feature amount detection unit 1220.

(三次元情報取得部1211)
三次元情報取得部1211は、手術用カメラ110で取得された白色光画像を解析することで、手術用カメラ110の位置や姿勢を推定し、白色光画像に表示された部分の三次元空間での位置を把握して、三次元情報を取得する。このような手術用カメラ110の位置や姿勢の推定、白色光画像上に表示された部分の位置の把握等は、SLAM(Simultaneous Localization and Mapping)等の公知の自己位置推定技術で行うことができる。図3は、カメラの撮影画像から抽出された特徴点を説明するための説明図である。例えば、図3に示すように、術部を撮像した画像を含め、一般的な画像の中には、画像の中に存在する各種の物体の構造や位置関係等を特徴づけるような、様々な特徴点が存在する。そこで、三次元情報取得部1211は、画像中に存在する特徴となる点(特徴点FP)を検出し、この特徴点FPの時間経過を追跡することで、カメラの位置や姿勢の推定、及び、画像上に表示された部分に関する位置の把握等を行うことができる。このような方法を用いて、三次元情報取得部1211は、手術用カメラ110の位置や姿勢の推定、及び、画像上に表示された部分に関する位置の把握等を行うことができる。上記のような自己位置推定技術を利用することで、三次元情報取得部1211は、術中の患者の体動や術者による操作等により手術用カメラ110が移動した場合にも、画像に表示された領域の位置を把握することができ、三次元情報を取得することが可能となる。
(Three-dimensional information acquisition unit 1211)
The three-dimensional information acquisition unit 1211 estimates the position and orientation of the surgical camera 110 by analyzing the white light image acquired by the surgical camera 110, and in the three-dimensional space of the part displayed on the white light image. Acquire 3D information by grasping the position of. Such estimation of the position and posture of the surgical camera 110, grasping the position of the portion displayed on the white light image, and the like can be performed by a known self-position estimation technique such as SLAM (Simultaneus Localization and Mapping). .. FIG. 3 is an explanatory diagram for explaining the feature points extracted from the image taken by the camera. For example, as shown in FIG. 3, in general images including images of surgical sites, there are various types that characterize the structures and positional relationships of various objects existing in the images. There are feature points. Therefore, the three-dimensional information acquisition unit 1211 detects a feature point (feature point FP) existing in the image, and tracks the time passage of the feature point FP to estimate the position and orientation of the camera and to estimate the posture. , It is possible to grasp the position of the part displayed on the image. Using such a method, the three-dimensional information acquisition unit 1211 can estimate the position and posture of the surgical camera 110, grasp the position of the portion displayed on the image, and the like. By using the self-position estimation technique as described above, the three-dimensional information acquisition unit 1211 is displayed on the image even when the surgical camera 110 is moved due to the body movement of the patient during the operation or the operation by the operator. It is possible to grasp the position of the area and acquire three-dimensional information.

また、上記のような自己位置推定技術を本開示の技術に適用することで、手術用カメラ110の動きについて何らかの仮説が得られる場合には、仮説に基づいた将来の手術用カメラ110の位置及び姿勢を用い、それまでに推定されている特徴点の位置を画像上に投影し、特徴点FPの出現位置を予測することができる。図4は、特徴点FPの出現位置の予測方法を説明するための模式図である。位置Cに位置する手術用カメラ110が物体Pを撮像し、領域Aの画像を取得すると、取得された画像の表示領域Aから、物体Pに関する特徴点FPが抽出される。その後、手術用カメラ110が位置Cから位置Cに移動すると、手術用カメラ110は、位置Cの位置から表示される表示領域Aに存在する、物体Pに関する特徴点FPを抽出する。さらに、手術用カメラ110が位置Cから位置Cに移動すると、手術用カメラ110は、位置Cの位置から表示される表示領域Aに存在する、物体Pに関する特徴点FPを抽出する。ここで、手術用カメラ110が続いて位置Cに移動することが予測されるとき、表示領域Aにおける特徴点FPの位置、表示領域Aにおける特徴点FPの位置、及び、表示領域Aにおける特徴点FPの位置からそれぞれ推定される物体Pの位置と、位置Cと位置Cとの位置関係と、に基づき、推定される特徴点FPの位置を表示領域Aに投影することで、表示領域Aにおける特徴点の出現位置を予測することができる。 Further, if any hypothesis about the movement of the surgical camera 110 can be obtained by applying the self-position estimation technique as described above to the technique of the present disclosure, the position of the future surgical camera 110 based on the hypothesis and the position of the future surgical camera 110 based on the hypothesis Using the posture, the positions of the feature points estimated so far can be projected on the image, and the appearance position of the feature point FP can be predicted. FIG. 4 is a schematic diagram for explaining a method of predicting the appearance position of the feature point FP. Surgical camera 110 located at the position C 1 takes an image of the object P, when acquiring an image of an area A 1, the display area A 1 of the acquired image, the feature point FP 1 relates to an object P is extracted. After that, when the surgical camera 110 moves from the position C 1 to the position C 2 , the surgical camera 110 extracts the feature point FP 2 related to the object P existing in the display area A 2 displayed from the position C 2. do. Further, when the surgical camera 110 moves from the position C 2 to the position C 3 , the surgical camera 110 extracts the feature point FP 3 related to the object P existing in the display area A 3 displayed from the position C 3. do. Here, when it is expected to move to the position C 4 followed by surgical camera 110, the display position of the feature point FP 1 in the area A 1, the position of the feature point FP 2 in the display area A 2, and a display the position of the object P to be estimated from each of the position of the feature point FP 3 in the area a 3, the positional relationship between the position C 4 and the position C 3, based on the display position of the feature point FP 4 estimated area a by projecting the 4, it is possible to predict the occurrence position of the feature point in the display area a 4.

三次元情報取得部1211は、上記の自己位置推定技術を用いて手術用カメラ110の位置や姿勢を推定することができる。これにより、三次元情報取得部1211は、術中の患者の体動により手術用カメラ110が移動して術部が出力装置140に表示されていない場合にも、推定した位置をある程度の期間随時保存しておくことで、術部の位置を把握することができる。図5A及び図5Bは、位置及び姿勢が推定された手術用カメラ110による術部の画像を取得する方法を説明するための説明図である。例えば、手術用カメラ110により撮像された画像が術部からずれており、ユーザが把握したい血液Bの領域が出力装置140に表示されていない場合でも、三次元情報取得部1211は、血液Bの領域の位置を予測できる。そのため、ユーザは、手術用カメラ110を所望の位置に移動させ、出力装置140に血液Bの領域を表示させることができるし、例えば図5Bに示すように、画像の表示領域の位置を把握しながら特定の部分を拡大表示することができる。 The three-dimensional information acquisition unit 1211 can estimate the position and posture of the surgical camera 110 by using the above-mentioned self-position estimation technique. As a result, the three-dimensional information acquisition unit 1211 saves the estimated position at any time for a certain period of time even when the surgical camera 110 moves due to the body movement of the patient during the operation and the surgical unit is not displayed on the output device 140. By doing so, the position of the surgical site can be grasped. 5A and 5B are explanatory views for explaining a method of acquiring an image of the surgical site by the surgical camera 110 whose position and posture are estimated. For example, even if the image captured by the surgical camera 110 is deviated from the surgical site and the area of blood B that the user wants to grasp is not displayed on the output device 140, the three-dimensional information acquisition unit 1211 can use the blood B. The position of the area can be predicted. Therefore, the user can move the surgical camera 110 to a desired position and cause the output device 140 to display the blood B region. For example, as shown in FIG. 5B, the user can grasp the position of the image display region. However, a specific part can be enlarged and displayed.

(血液検出部1212)
血液検出部1212は、手術用カメラ110により取得された白色光画像を構成する色情報と、三次元情報取得部1211により取得された三次元情報とに基づいて、白色光画像に表示された領域における血液を検出し、血液分布情報を取得する。詳細には、白色光画像の中から白色光画像中に存在する血液を識別する識別器を予め作成しておき、作成した識別器を手術用カメラ110で取得された白色光画像に適用することで、血液分布情報が得られる。ここで、図6A〜図6Cを参照しながら、血液分布情報の取得方法について説明する。図6Aは、血液を検出する方法の一例を説明するための説明図である。図6Bは、血液を検出するために作成された特徴量平面の一例を示す模式図である。図6Cは、血液の分布が表示された画像を示す模式図である。
(Blood detection unit 1212)
The blood detection unit 1212 is a region displayed on the white light image based on the color information constituting the white light image acquired by the surgical camera 110 and the three-dimensional information acquired by the three-dimensional information acquisition unit 1211. Detects blood in and acquires blood distribution information. Specifically, a discriminator for identifying blood existing in the white light image from the white light image is prepared in advance, and the created discriminator is applied to the white light image acquired by the surgical camera 110. Then, blood distribution information can be obtained. Here, a method of acquiring blood distribution information will be described with reference to FIGS. 6A to 6C. FIG. 6A is an explanatory diagram for explaining an example of a method for detecting blood. FIG. 6B is a schematic view showing an example of a feature plane created for detecting blood. FIG. 6C is a schematic diagram showing an image showing the distribution of blood.

まず、識別器を作成するための学習画像を用いて、血液領域を画像処理装置120に学習させる。図6Aは、学習画像の一例を示す図である。図6Aでは、学習画像として、臓器表面の一部に血液Bが存在する画像を示している。図6Aでは、点P1は血液として学習させた部分を示し、点P2は、臓器領域であると学習させた部分を示している。識別器は、例えば、学習画像に表示された血液領域及び血液領域以外の領域のRGB等の色情報、並びに、血液領域の三次元情報、及び、臓器表面が表示された臓器領域の三次元情報から算出された表面粗さや表面粗さの標準偏差等に基づいて作成される。図6Aに示したような学習画像を複数用いて、上記のように血液領域と臓器領域とを学習させ、学習結果データを作成する。学習結果データとして、例えば、図6Bに示すように、縦軸を色情報をとし、横軸を表面粗さをとした特徴量平面を作成して、血管領域が示す色情報と表面粗さとの組み合わせが占める特徴量領域と、臓器領域が示す色情報と表面粗さとの組み合わせが占める特徴量領域と、の境界を示す識別面fを特定する。例えばこのようにして、画像の中から画像中に存在する血液を識別する識別器を構築すればよいその後、血液検出部1212は、構築した識別器(例えば、図6Bに示したような特徴量平面における識別面f)を用いて、手術用カメラ110により取得された画像において血液が存在する箇所を特定する。具体的には、血液検出部1212は、手術用カメラ110により取得された画像を所定のサイズに分割し、三次元情報取得部1211で取得された三次元情報から、画像の分割された範囲毎にRGB及び表面粗さを算出する。その後、血液検出部1212は、上記の識別面fに関する情報に基づき、それぞれの分割された範囲について、得られたRGBと表面粗さの組み合わせが上記の特徴量平面上のいずれの領域にプロットされるかを判断して、画像の分割されたそれぞれの範囲が血液であるかどうか判断する。上記のようにして、図6Cに示すように、手術用カメラ110で取得された画像における血液Bの分布に関する血液分布情報を取得することができる。 First, the image processing device 120 is made to learn the blood region by using the learning image for creating the classifier. FIG. 6A is a diagram showing an example of a learning image. FIG. 6A shows an image in which blood B is present on a part of the surface of the organ as a learning image. In FIG. 6A, point P1 indicates a portion trained as blood, and point P2 indicates a portion trained to be an organ region. The discriminator is, for example, color information such as RGB of the blood region and regions other than the blood region displayed on the learning image, three-dimensional information of the blood region, and three-dimensional information of the organ region on which the organ surface is displayed. It is created based on the surface roughness calculated from and the standard deviation of the surface roughness. Using a plurality of learning images as shown in FIG. 6A, the blood region and the organ region are trained as described above, and learning result data is created. As the learning result data, for example, as shown in FIG. 6B, a feature plane having color information on the vertical axis and surface roughness on the horizontal axis is created, and the color information and surface roughness indicated by the blood vessel region are obtained. The identification surface f indicating the boundary between the feature amount region occupied by the combination and the feature amount region occupied by the combination of the color information and the surface roughness indicated by the organ region is specified. For example, in this way, a discriminator that discriminates the blood present in the image from the image may be constructed. Then, the blood detection unit 1212 may use the constructed discriminator (for example, a feature amount as shown in FIG. 6B). The identification surface f) on the plane is used to identify the location of blood in the image acquired by the surgical camera 110. Specifically, the blood detection unit 1212 divides the image acquired by the surgical camera 110 into a predetermined size, and from the three-dimensional information acquired by the three-dimensional information acquisition unit 1211, for each divided range of the image. RGB and surface roughness are calculated. After that, the blood detection unit 1212 plots the obtained combination of RGB and surface roughness in any region on the feature amount plane for each divided range based on the information regarding the identification surface f. It is determined whether or not each divided range of the image is blood. As described above, as shown in FIG. 6C, blood distribution information regarding the distribution of blood B in the image acquired by the surgical camera 110 can be acquired.

また、血液検出部1212は、上記の方法により異物の存在を検出することも可能である。例えば、術部に術具を放置した場合、術具が表示された領域の色情報及び表面粗さは、血液領域の色情報及び表面粗さ並びに臓器領域の色情報及び表面粗さと大きく相違する。従って、術具が表示された領域に対応して上記特徴量平面においてプロットされる位置は、血液領域及び臓器領域としてプロットされる位置と著しく異なる。よって、血液検出部1212は、異物の存在を検出することが可能となる。また、異物の存在は、上記のような識別器を用いた手法ではなく、公知の各種の物体認識技術を用いて検出することも可能であり、例えば、手術に用いられる様々な術具を物体認識することで、術具の放置を検出することもできる。 The blood detection unit 1212 can also detect the presence of a foreign substance by the above method. For example, when the surgical instrument is left in the surgical site, the color information and surface roughness of the area where the surgical instrument is displayed are significantly different from the color information and surface roughness of the blood region and the color information and surface roughness of the organ region. .. Therefore, the positions plotted in the feature plane corresponding to the area where the surgical instrument is displayed are significantly different from the positions plotted as the blood area and the organ area. Therefore, the blood detection unit 1212 can detect the presence of a foreign substance. Further, the presence of a foreign substance can be detected by using various known object recognition techniques instead of the above-mentioned method using a discriminator. For example, various surgical tools used for surgery can be detected as an object. By recognizing it, it is possible to detect the neglect of the surgical instrument.

(特徴量検出部1220)
本開示の実施形態に係る特徴量検出部1220は、特徴点検出部1210から取得した三次元情報と血液分布情報とを少なくとも用いて、画像に表示されたそれぞれの領域における、血液に関する特徴量を検出する。本開示の実施形態に係る特徴量検出部1220は、図2に示したように、出血判定部1221、出血位置特定部1222及び血液量算出部1223を有する。出血判定部1221は、手術用カメラ110で取得された画像に表示された領域において出血の発生の有無を判定する。出血位置特定部1222は、異なる時点で取得された複数の画像を用い、当該複数の画像間における術部の時間変化に基づいて、前記術部における出血位置を特定する機能を有する。血液量算出部1223は、手術用カメラ110で取得された画像に表示された血液の血液量を算出する。
(Feature quantity detection unit 1220)
The feature amount detection unit 1220 according to the embodiment of the present disclosure uses at least the three-dimensional information and the blood distribution information acquired from the feature point detection unit 1210 to determine the feature amount related to blood in each region displayed in the image. To detect. As shown in FIG. 2, the feature amount detecting unit 1220 according to the embodiment of the present disclosure includes a bleeding determination unit 1221, a bleeding position specifying unit 1222, and a blood volume calculating unit 1223. The bleeding determination unit 1221 determines whether or not bleeding has occurred in the area displayed in the image acquired by the surgical camera 110. The bleeding position specifying unit 1222 has a function of specifying a bleeding position in the surgical site based on a time change of the surgical site between the plurality of images using a plurality of images acquired at different time points. The blood volume calculation unit 1223 calculates the blood volume of the blood displayed in the image acquired by the surgical camera 110.

(出血判定部1221)
出血判定部1221は、異なる時刻で取得された複数の白色光画像の血液分布情報に基づいて、画像に表示された領域において出血が発生したか否かを判定する。詳細には、出血判定部1221は、各時点における白色光画像の血液分布情報に基づいて、血液が存在する領域の面積及び当該面積の変化量を算出し、血液が存在する領域の面積の変化量が所定の閾値を超えたときに、出血が発生したと判定することができる。また、出血判定部1221は、後述する血液量算出部1223により算出された血液量の変化量に基づいて出血の発生の有無を判定することができる。ここで、血液領域の面積は、取得された白色光画像における血液領域の画素数と表示された白色光画像の倍率とから算出することができ、面積の変化量は、算出された血液領域の面積の時間変化から算出することができる。
(Bleeding determination unit 1221)
The bleeding determination unit 1221 determines whether or not bleeding has occurred in the region displayed on the image based on the blood distribution information of the plurality of white light images acquired at different times. Specifically, the bleeding determination unit 1221 calculates the area of the region where blood exists and the amount of change in the area based on the blood distribution information of the white light image at each time point, and changes in the area of the region where blood exists. When the amount exceeds a predetermined threshold, it can be determined that bleeding has occurred. In addition, the bleeding determination unit 1221 can determine the presence or absence of bleeding based on the amount of change in blood volume calculated by the blood volume calculation unit 1223, which will be described later. Here, the area of the blood region can be calculated from the number of pixels of the blood region in the acquired white light image and the magnification of the displayed white light image, and the amount of change in the area is the calculated blood region. It can be calculated from the time change of the area.

ここで、図7を参照して、出血の発生の有無の判定方法を具体的に説明する。図7は、出血の発生の有無の判定方法を説明するための説明図である。図7上段に示すグラフは、縦軸を血液領域の面積とし、横軸を時刻として、取得された白色光画像上の血液領域の面積の推移を示すグラフである。図7中段に示すグラフは、縦軸を血液領域の面積の変化量とし、横軸を時刻として、取得された白色光画像上の血液領域の面積の変化量の推移を示すグラフである。図7下段には、各時刻t〜tで取得された白色光画像を示している。ここで、各時刻t〜tは、例えば、それぞれ10フレームずつ時間が経過した時刻となっている。図7中段に示すように、血液領域の面積の変化量について予め閾値T(かかる閾値Tは、予め第三者によって設定されたものであってもよいし、ユーザによって設定されたものであってもよい。)が設定され、血液領域の面積の変化量が閾値Tを超えたときに、出血判定部1221は、出血が発生したと判定することができる。図7では、時刻tの時点で出血が発生したと判定される。出血判定部1221は、各時点の白色光画像について画像処理を施し、各時点の画像間の血液領域の面積の差分を算出する。血液領域の面積の変化量は、図8下段に示すように、各時点の画像間の血液領域の面積の差分である。そのため、手術用カメラ110の位置が直前の時点の位置からずれた場合は、そのずれに応じて画像に表示される血液分布が変化するため、所定の術部における血液領域の面積および血液領域の面積の変化量の算出が正確にできなくなる可能性がある。その場合、三次元情報取得部1211により取得された三次元情報を基に位置のずれを補正することで、正確に血液領域の面積を算出することが可能となる。 Here, with reference to FIG. 7, a method for determining the presence or absence of bleeding will be specifically described. FIG. 7 is an explanatory diagram for explaining a method for determining the presence or absence of bleeding. The graph shown in the upper part of FIG. 7 is a graph showing the transition of the area of the blood region on the acquired white light image, with the vertical axis representing the area of the blood region and the horizontal axis representing the time. The graph shown in the middle of FIG. 7 is a graph showing the transition of the amount of change in the area of the blood region on the acquired white light image, with the vertical axis representing the amount of change in the area of the blood region and the horizontal axis representing the time. The lower part of FIG. 7 shows white light images acquired at each time t 1 to t 6. Here, each time t 1 to t 6 is, for example, a time when 10 frames have elapsed. As shown in the middle part of FIG. 7, the threshold value T (the threshold value T may be set in advance by a third party or is set by the user) with respect to the amount of change in the area of the blood region. When the amount of change in the area of the blood region exceeds the threshold value T, the bleeding determination unit 1221 can determine that bleeding has occurred. In Figure 7, bleeding is determined to have occurred at time t 2. The bleeding determination unit 1221 performs image processing on the white light image at each time point and calculates the difference in the area of the blood region between the images at each time point. As shown in the lower part of FIG. 8, the amount of change in the area of the blood region is the difference in the area of the blood region between the images at each time point. Therefore, when the position of the surgical camera 110 deviates from the position at the time immediately before, the blood distribution displayed in the image changes according to the deviation, so that the area of the blood region and the blood region in the predetermined surgical site There is a possibility that the amount of change in area cannot be calculated accurately. In that case, the area of the blood region can be accurately calculated by correcting the positional deviation based on the three-dimensional information acquired by the three-dimensional information acquisition unit 1211.

(出血位置特定部1222)
出血位置特定部1222は、複数の白色光画像が取得された各時点における血液分布情報に基づいて、血液の分布の状態の推移を遡ることで出血位置を特定する。図8は、出血位置を特定する方法を説明するための説明図である。図8上段に示すグラフは、縦軸を血液領域の面積とし、横軸を時刻として、取得された白色光画像上の血液領域の面積を示すグラフである。図8中段には、各時刻t〜tで取得された白色光画像を示している。ここで、各時刻t〜tは、例えば、それぞれ10フレームずつ時間が経過した時刻となっている。図8下段は、図8中段に示した各白色光画像の差分を示した図である。例えば、図8下部の左図は、時刻tの時点で取得された白色光画像と時刻tの時点で取得された白色光画像の差分を示している。図8下部の左から2番目の図は、時刻tの時点で取得された白色光画像と時刻tの時点で取得された白色光画像の差分を示している。同様に、図8下部の左から3番目の図及び図8下部の左から4番目の図は、それぞれ時刻tの時点で取得された白色光画像と時刻tの時点で取得された白色光画像の差分、及び時刻tの時点で取得された白色光画像と時刻tの時点で取得された白色光画像の差分を示している。白色光画像に表示された領域における血液領域の面積が増加するに伴って、図8中段の図に示すように、表示された血液領域が拡大している。血液領域は、出血位置を起点として拡大するため、出血位置特定部1222は、各時点の白色光画像に表示された血液領域を時間方向に遡ることで、出血位置を特定することが可能である。例えば、図8下段に示すように、血液領域の差分が生じる時刻tの時点で出血が発生したことを確認することができる。そして、時刻tの時点で取得された白色光画像と時刻tの時点で取得された白色光画像の差分を示した画像から、出血位置を特定することができる。これにより、従来の技術と比較してより正確に出血位置をユーザは認識することができる。
(Bleeding position identification part 1222)
The bleeding position specifying unit 1222 identifies the bleeding position by tracing back the transition of the blood distribution state based on the blood distribution information at each time point when a plurality of white light images are acquired. FIG. 8 is an explanatory diagram for explaining a method of identifying a bleeding position. The graph shown in the upper part of FIG. 8 is a graph showing the area of the blood region on the acquired white light image, with the vertical axis representing the area of the blood region and the horizontal axis representing the time. The middle part of FIG. 8 shows white light images acquired at each time t 1 to t 6. Here, each time t 1 to t 6 is, for example, a time when 10 frames have elapsed. The lower part of FIG. 8 is a diagram showing the difference between the white light images shown in the middle part of FIG. For example, the left view of the lower 8 shows the difference of the obtained white light image at the time of the obtained white-light image and the time t 2 at time t 3. The second diagram from the left in FIG. 8 bottom shows the difference of the obtained white light image at the time of the white light image and the time t 3 when being acquired at the time point t 4. Likewise, the fourth diagram from the left in the third figures and 8 in the lower left of the lower 8 white obtained at the time of the acquired white-light image and the time t 4 at each time t 5 shows the optical image difference, and the difference of the obtained white light image at the time of the white light image and the time t 5 that is acquired at the time point t 6. As the area of the blood region in the region displayed on the white light image increases, the displayed blood region expands as shown in the middle figure of FIG. Since the blood region expands from the bleeding position as the starting point, the bleeding position specifying portion 1222 can identify the bleeding position by tracing back the blood region displayed in the white light image at each time point in the time direction. .. For example, as shown in the lower part of FIG. 8, it can be confirmed that bleeding at time t 2 the difference between the blood region occurs occurs. Then, it is possible from an image showing the difference of the obtained white light image at the time of the white light image and the time t 2 acquired at the time point t 3, to identify a bleeding position. As a result, the user can recognize the bleeding position more accurately as compared with the conventional technique.

また、出血位置特定部1222は、上記したように、時間の経過に伴って血液の分布の推移を把握することができる。従って、出血位置特定部1222は、過去の時点の白色光画像に表示された血液領域と最新の時点の白色光画像に表示された血液領域とを比較し、血液領域が拡大する方向及び拡大する血液領域の変化量を算出することで、将来の血液の分布を推定することが可能である。出血位置特定部1222は、例えば、図8上段のグラフに示すように、今度の時刻tの時点における血液領域面積を推定することができるし、図8中段右図に示すように、今後の時刻tにおける血液分布を推定することができる。なお、各時点の白色光画像について画像処理及び各時点の白色光画像間の血液領域の面積の差分を算出は、出血位置特定部1222が行ってもよい。 Further, as described above, the bleeding position specifying unit 1222 can grasp the transition of the blood distribution with the passage of time. Therefore, the bleeding position specifying unit 1222 compares the blood region displayed on the white light image at the past time point with the blood region displayed on the white light image at the latest time point, and the direction and expansion of the blood region are expanded. By calculating the amount of change in the blood region, it is possible to estimate the future distribution of blood. Bleeding position specifying unit 1222, for example, as shown in the graph of FIG. 8 the upper, it can be estimated blood region area at the time of the upcoming time t 7, as shown in FIG. 8 middle right, the future it can be estimated blood distribution at time t 7. The bleeding position specifying unit 1222 may perform image processing on the white light image at each time point and calculation of the difference in the area of the blood region between the white light images at each time point.

また、出血位置特定部1222は、光源装置130から術部に対して所定の波長を有するレーザ光が照射され、異なる時点でレーザ光が照射されて取得された複数のレーザ光画像を用いて出血位置を特定することも可能である。例えば、光源装置130が干渉性の高いレーザ光を発生するレーザ光源を有し、当該レーザ光が血液に照射されると血液によりレーザ光が散乱する。散乱した光はそれぞれ位相が異なるため、手術用カメラ110の結像面において散乱光がランダムに干渉し、斑点模様の光強度分布のパターン(いわゆる、スペックルパターン)が得られる。光強度分布のパターンは、物体の動きに応じて動的に変化するため、この光強度分布のパターンを血液流動情報として利用することができる。出血位置では、血液の流出に伴い動きが大きい領域となるため、上記のようなスペックルパターンにおいて、出血位置に近い領域ほど、スペックルパターンから得られるスペックル画像では、その輝度値が大きなものとなるはずである。そこで、出血位置特定部1222は、スペックル画像を公知の各種の方法により算出し、算出したスペックル画像における輝度値の分布に基づき、出血位置を特定することができる。 Further, the bleeding position specifying unit 1222 bleeds using a plurality of laser light images obtained by irradiating the surgical site with a laser beam having a predetermined wavelength from the light source device 130 and irradiating the laser beam at different time points. It is also possible to specify the position. For example, the light source device 130 has a laser light source that generates a laser beam having high coherence, and when the laser beam is irradiated to blood, the laser beam is scattered by the blood. Since the scattered lights have different phases, the scattered lights randomly interfere with each other on the imaging surface of the surgical camera 110, and a spotted light intensity distribution pattern (so-called speckle pattern) is obtained. Since the pattern of the light intensity distribution changes dynamically according to the movement of the object, this pattern of the light intensity distribution can be used as blood flow information. In the bleeding position, the area becomes a region where the movement is large due to the outflow of blood. Therefore, in the speckle pattern as described above, the region closer to the bleeding position has a larger brightness value in the speckle image obtained from the speckle pattern. Should be. Therefore, the bleeding position specifying unit 1222 can calculate the bleeding position by various known methods, and can specify the bleeding position based on the distribution of the brightness value in the calculated speckle image.

更に、出血位置特定部1222は、上記のような各種の方法を用いてそれぞれ出血位置を特定し、各種の方法から得られた出血位置に関する情報を統合的に判断することで、より正確な出血位置を特定することも可能である。 Further, the bleeding position specifying unit 1222 identifies the bleeding position by using various methods as described above, and comprehensively determines the information on the bleeding position obtained from the various methods to make more accurate bleeding. It is also possible to specify the position.

(出血量算出部1223)
血液量算出部1223は、手術用カメラ110で取得された画像に表示された血液の体積を算出する。血液量の算出には、白色光が照射された術部の画像である白色光画像又は、白色光画像と近赤外光画像が用いられる。白色光画像が用いられる場合、血液量算出部1223は、例えば、白色光画像に表示された血液の厚みが一定であると仮定し、その血液の厚みと白色光画像に表示された血液領域の面積との積を表示された領域における血液量とすることができる。
(Bleeding amount calculation unit 1223)
The blood volume calculation unit 1223 calculates the volume of blood displayed in the image acquired by the surgical camera 110. A white light image, which is an image of the surgical site irradiated with white light, or a white light image and a near-infrared light image are used for calculating the blood volume. When a white light image is used, the blood volume calculation unit 1223 assumes, for example, that the thickness of the blood displayed in the white light image is constant, and the thickness of the blood and the blood region displayed in the white light image. The product with the area can be the blood volume in the indicated area.

また、血液量算出部1223は、近赤外光が照射された術部の画像である近赤外光画像を用いて血液量を算出することもできる。この場合、血液量の算出には、複数の近赤外光画像が用いられてもよい。図9A〜図9D、図10A及び図10Bを参照して、近赤外光画像を用い血液の体積の算出方法を説明する。図9A左図は、上方から白色光が照射された術部を側面から示した模式図である。図9B左図、図9C左図及び図9D左図は、それぞれ、波長λ、波長λ及び波長λを有する近赤外光が照射された術部を側面から示した模式図である。図9A右図は、手術用カメラ110により取得された白色光が照射された術部の画像を示す模式図である。図9B右図、図9C右図及び図9D右図は、それぞれ、手術用カメラ110により取得された、波長λ、波長λ及び波長λを有する近赤外光が照射された術部の画像を示した模式図である。ここで、波長λ、波長λ及び波長λは、λ<λ<λの関係が成立するものとする。図10A左図は、白色光画像を示した模式図であり、図10A右図は、当該白色光画像を用いて血液検出部1212により検出された血液領域を示した模式図である。図10B左図は、図10A左側の図に示された画像と同一の領域の近赤外光画像を示した模式図であり、図10B右図は、当該近赤外光画像を用いて血液検出部1212により検出された血液領域を示した模式図である。 In addition, the blood volume calculation unit 1223 can also calculate the blood volume using a near-infrared light image which is an image of the surgical site irradiated with near-infrared light. In this case, a plurality of near-infrared light images may be used for calculating the blood volume. A method for calculating the volume of blood will be described using near-infrared light images with reference to FIGS. 9A-9D, 10A and 10B. The left figure of FIG. 9A is a schematic view showing the surgical site irradiated with white light from above from the side surface. The left figure of FIG. 9B, the left figure of FIG. 9C, and the left figure of FIG. 9D are schematic views showing from the side the surgical site irradiated with near-infrared light having wavelength λ 1 , wavelength λ 2, and wavelength λ 3, respectively. .. The right figure of FIG. 9A is a schematic view showing an image of the surgical site irradiated with white light acquired by the surgical camera 110. 9B right, 9C right and 9D right are the surgical sites irradiated with near-infrared light having wavelength λ 1 , wavelength λ 2 and wavelength λ 3, respectively, acquired by the surgical camera 110. It is a schematic diagram which showed the image of. Here, it is assumed that the relationship of λ 123 is established for the wavelength λ 1 , the wavelength λ 2 and the wavelength λ 3. The left figure of FIG. 10A is a schematic view showing a white light image, and the right figure of FIG. 10A is a schematic view showing a blood region detected by the blood detection unit 1212 using the white light image. The left figure of FIG. 10B is a schematic view showing a near-infrared light image of the same region as the image shown on the left side of FIG. 10A, and the right figure of FIG. 10B is a blood using the near-infrared light image. It is a schematic diagram which showed the blood region detected by the detection part 1212.

白色光WLは、物質の表面で赤色に相当する波長の光が反射されるため、図9Aに示すように、それぞれ厚さの異なる血液B1、血液B2及び血液B3の表面で反射される。そのため、取得される白色光画像には、血液B1、血液B2及び血液B3が映し出される。一方で、近赤外光は血液中のヘモグロビンにより吸収される。波長が短い近赤外光ほど血液中のヘモグロビンによる吸収の程度は大きく、波長が長い近赤外光ほど血液中のヘモグロビンによる吸収の程度は小さい。そのため、図9Bに示すように、波長λの近赤外光が照射されて取得された近赤外光画像において、厚みの小さい血液B1では、波長λの近赤外光の多くは透過して血液の下部の臓器表面で反射されるため、手術用カメラ110では血液B1は認識されない。また、血液B1より厚みの大きい血液B2及び血液B3では、波長λの近赤外光の多くは吸収される。そのため、波長λの近赤外光が照射されて取得された近赤外光画像では、血液B2及び血液B3は、血液B2及び血液B3以外の部分と区別して表示される。波長λの近赤外光が照射されて取得された近赤外光画像においては、図9Cに示すように、血液B1及び血液B2では、波長λの近赤外光の多くは透過して血液の下部の臓器表面で反射される。そのため、血液B1及び血液B2は手術用カメラ110では認識されない。また、血液B1及び血液B2より厚みの大きい血液B3では、波長λの近赤外光の多くは吸収される。そのため、波長λの近赤外光が照射されて取得された近赤外光画像では、血液B3は、血液B3以外の部分と区別して表示される。また、波長λの近赤外光が照射されて取得された近赤外光画像においては、図9Dに示すように、厚みの大きい血液B3でも波長λの近赤外光の多くは透過して血液の下部の臓器表面で反射される。そのため、血液B1、血液B2及び血液B3はいずれも表示されない。よって、図10A左図に示すように、白色光画像では血液B1と血液B2はいずれも表示されるため、図10A右図に示すように、血液検出部1212は血液B1及び血液B2のいずれも検出することができる。一方で、図10B左図に示すように、波長λを有する近赤外光を照射した近赤外光画像では、厚みが小さい血液B1は表示されないため、図10B右図に示すように、血液検出部1212は血液B2のみを検出することができる。 Since the white light WL reflects light having a wavelength corresponding to red on the surface of the substance, it is reflected on the surfaces of blood B1, blood B2, and blood B3 having different thicknesses, as shown in FIG. 9A. Therefore, blood B1, blood B2, and blood B3 are projected on the acquired white light image. On the other hand, near-infrared light is absorbed by hemoglobin in the blood. The shorter the wavelength of near-infrared light, the greater the degree of absorption by hemoglobin in blood, and the longer the wavelength of near-infrared light, the smaller the degree of absorption by hemoglobin in blood. Therefore, as shown in FIG. 9B, in the near-infrared light image near-infrared light of wavelength lambda 1 is acquired by irradiation, the thickness of small blood B1, many of near infrared light having a wavelength lambda 1 transmitted Blood B1 is not recognized by the surgical camera 110 because it is reflected on the surface of the organ below the blood. Further, in blood B2 and blood B3 having a thickness larger than that of blood B1, most of the near-infrared light having a wavelength of λ 1 is absorbed. Therefore, in the near-infrared light image obtained by irradiating the near-infrared light having the wavelength λ 1 , the blood B2 and the blood B3 are displayed separately from the parts other than the blood B2 and the blood B3. In the near-infrared light image near-infrared light of wavelength lambda 2 is acquired by irradiation, as shown in FIG. 9C, the blood B1 and blood B2, many of near infrared light having a wavelength lambda 2 passes Is reflected on the surface of the organ below the blood. Therefore, blood B1 and blood B2 are not recognized by the surgical camera 110. Further, in blood B1 and blood B3 having a thickness larger than that of blood B2, most of the near-infrared light having a wavelength of λ 2 is absorbed. Therefore, in the near-infrared light image obtained by irradiating the near-infrared light having the wavelength λ 2, the blood B3 is displayed separately from the portion other than the blood B3. Further, in the near-infrared light image obtained by irradiating the near-infrared light of the wavelength λ 3 , as shown in FIG. 9D, most of the near-infrared light of the wavelength λ 3 is transmitted even in the thick blood B3. Then it is reflected on the surface of the organ below the blood. Therefore, blood B1, blood B2, and blood B3 are not displayed. Therefore, as shown in the left figure of FIG. 10A, both blood B1 and blood B2 are displayed in the white light image. Therefore, as shown in the right figure of FIG. 10A, the blood detection unit 1212 has both blood B1 and blood B2. Can be detected. On the other hand, as shown in the left figure of FIG. 10B, the blood B1 having a small thickness is not displayed in the near-infrared light image irradiated with the near-infrared light having the wavelength λ 1, and therefore, as shown in the right figure of FIG. 10B. The blood detection unit 1212 can detect only blood B2.

上記のように、近赤外光画像に表示される血液は、照射される近赤外光の波長によって異なる。よって、光源装置130から術部に対して異なる波長の近赤外光を照射して得られる複数の近赤外光画像の差分を取ることで、波長と血液の厚みとを対応付けることが可能となり、血液の厚みを算出することが可能となる。以上のようにして、算出された血液の厚みと、その厚みを有する血液領域の面積との積を求め、その積の合計を表示された領域における血液量とすることができる。 As described above, the blood displayed in the near-infrared light image differs depending on the wavelength of the irradiated near-infrared light. Therefore, it is possible to associate the wavelength with the thickness of blood by taking the difference between a plurality of near-infrared light images obtained by irradiating the surgical site with near-infrared light having different wavelengths from the light source device 130. , It becomes possible to calculate the thickness of blood. As described above, the product of the calculated blood thickness and the area of the blood region having the thickness can be obtained, and the total of the products can be used as the blood volume in the displayed region.

このように、近赤外光画像を用いた血液量の算出方法は、白色光画像を用いた上記の血液量の算出方法と比較してより正確に血液量を算出することが可能となる。そして、血液量算出部1223は、複数の時点で取得された近赤外光画像について上記の処理を行うことで、血液量の変化量を算出することが可能となる。なお、白色光は血液の表面で反射されるため、ある波長の近赤外光が照射されて得られた近赤外光画像に替えて、白色光画像を使用してもよい。このように、血液量算出部1223は、複数の近赤外光画像及び白色光画像のうちの少なくとも2以上の画像で算出された血液量を比較し、近赤外光画像又は白色光画像に表示された領域おける血液量の変化量を算出することができる。 As described above, the blood volume calculation method using the near-infrared light image can calculate the blood volume more accurately than the above-mentioned blood volume calculation method using the white light image. Then, the blood volume calculation unit 1223 can calculate the amount of change in blood volume by performing the above processing on the near-infrared light images acquired at a plurality of time points. Since white light is reflected on the surface of blood, a white light image may be used instead of the near-infrared light image obtained by irradiating with near-infrared light of a certain wavelength. In this way, the blood volume calculation unit 1223 compares the blood volume calculated in at least two or more of the plurality of near-infrared light images and the white light image, and obtains the near-infrared light image or the white light image. The amount of change in blood volume in the displayed area can be calculated.

(出力制御部1230)
出力制御部1230は、出力装置140が出力する情報の内容及び出力方法を制御する。例えば、出力制御部1230は、手術用カメラ110により取得された画像、当該画像の三次元情報、出血発生をユーザに対して知らせる表示もしくは音声による通知、出血位置に関する表示、出血量等の情報を出力装置140に出力させる。出力制御部1230が出力装置140に出力させる情報の種類は、予めユーザによって設定されていてもよい。また、出力制御部1230が、手術用カメラ110により取得された画像情報、三次元情報、出血位置に関する情報、血液量に関する情報等を受信したときに、出力装置140に出力指示を送信してもよい。
(Output control unit 1230)
The output control unit 1230 controls the content and output method of the information output by the output device 140. For example, the output control unit 1230 outputs information such as an image acquired by the surgical camera 110, three-dimensional information of the image, a display notifying the user of the occurrence of bleeding or a voice notification, a display regarding the bleeding position, and the amount of bleeding. Output to the output device 140. The type of information output by the output control unit 1230 to the output device 140 may be set in advance by the user. Further, when the output control unit 1230 receives the image information, the three-dimensional information, the information on the bleeding position, the information on the blood volume, etc. acquired by the surgical camera 110, the output instruction may be transmitted to the output device 140. good.

図11及び図12を参照して、出力制御部1230が出力装置140に出力させる情報について説明する。図11は、出力装置140に表示された情報の一例を示す模式図である。図12は、出力装置140に出力された情報の他の一例を示す模式図である。 Information to be output to the output device 140 by the output control unit 1230 will be described with reference to FIGS. 11 and 12. FIG. 11 is a schematic diagram showing an example of the information displayed on the output device 140. FIG. 12 is a schematic diagram showing another example of the information output to the output device 140.

例えば、図11には、手術用カメラ110により取得されたリアルタイムの画像(MONITOR 1)、リアルタイムの画像に出血位置を示す表示が重畳された画像(MONITOR 2)、出血前後の動画像(MONITOR 3)、出血位置の拡大画像(MONITOR 4)、及び出血量のグラフが出力装置140に表示されている。出力制御部1230は、上記以外にも、近赤外光画像、レーザ光が照射された術部の画像であるレーザ光画像を出力装置140に表示させてもよい。また、出力制御部1230は、血液領域を示す表示を白色光画像に重畳して出力装置140に表示させてもよい。出力制御部1230は、出血量が所定の値を超えたときに、表示や警告音を出力装置140に出力させてもよい。また、出力制御部1230は、出血位置特定部1222により推定された将来の血液の分布を出力装置140に表示させてもよい。 For example, FIG. 11 shows a real-time image (MONITOR 1) acquired by the surgical camera 110, an image (MONITOR 2) in which a display showing a bleeding position is superimposed on the real-time image, and a moving image before and after bleeding (MONITOR 3). ), An enlarged image of the bleeding position (MONITOR 4), and a graph of the bleeding amount are displayed on the output device 140. In addition to the above, the output control unit 1230 may display a near-infrared light image and a laser light image which is an image of the surgical part irradiated with the laser light on the output device 140. Further, the output control unit 1230 may superimpose the display indicating the blood region on the white light image and display it on the output device 140. The output control unit 1230 may output a display or a warning sound to the output device 140 when the amount of bleeding exceeds a predetermined value. Further, the output control unit 1230 may display the future blood distribution estimated by the bleeding position specifying unit 1222 on the output device 140.

リアルタイムの画像に出血位置を示す表示が重畳された画像、又は出血前後の動画像が出力装置140に表示されることで、従来では厚く溜まった血液に覆われるために発見することが困難であった出血箇所をユーザは容易に認識することができ、より迅速に止血作業に着手することが可能となる。出血量のグラフが出力装置140に表示されることで、ユーザは、バイタルの確認、内視鏡手術から開腹手術への移行や輸血開始のタイミング等の判断を行うことが可能となる。将来の血液分布が出力装置140に表示されることで、ユーザは血液が溜まる前の術部の様子を認識することが可能となる。 Since the image showing the bleeding position is superimposed on the real-time image or the moving image before and after the bleeding is displayed on the output device 140, it is difficult to find it because it is covered with thickly accumulated blood in the past. The user can easily recognize the bleeding site and can start the hemostasis work more quickly. By displaying the graph of the amount of bleeding on the output device 140, the user can confirm vital signs, determine the transition from endoscopic surgery to laparotomy, the timing of starting blood transfusion, and the like. By displaying the future blood distribution on the output device 140, the user can recognize the state of the surgical site before the blood is accumulated.

また、出力制御部1230は、表示された画像中に複数の出血位置が存在する場合は、出血位置近傍の血液領域の変化の程度又は血液の移動速度に応じて、異なる態様の出血位置を示す表示が重畳された画像を表示させてもよい。例えば、血液領域の変化の程度又は移動速度が大きい血液付近に存在する出血位置を示す表示が強調表示されてもよい。血液領域の変化の程度または移動速度が大きい血液付近の出血位置ほど、優先して処置すべき出血位置であることが多い。そのため、出力制御部1230が、上記のように血液領域の変化の程度又は移動速度が大きい血液付近に存在する出血位置を出力装置140に強調表示させることで、ユーザは迅速に止血などの処置を行うことができる。 Further, when a plurality of bleeding positions are present in the displayed image, the output control unit 1230 indicates different bleeding positions depending on the degree of change in the blood region near the bleeding position or the moving speed of blood. An image in which the display is superimposed may be displayed. For example, a display indicating a bleeding position existing in the vicinity of blood having a large degree of change in the blood region or a large movement speed may be highlighted. The bleeding position near the blood where the degree of change in the blood region or the moving speed is large is often the bleeding position to be treated with priority. Therefore, the output control unit 1230 causes the output device 140 to highlight the bleeding position existing in the vicinity of the blood having a large degree of change in the blood region or a large movement speed as described above, so that the user can quickly take measures such as hemostasis. It can be carried out.

また、出力制御部1230は、図12に示すように、手術用カメラ110により取得されたリアルタイムの画像に表示された領域から、過去に特定された出血位置が外れた場合、出血位置の方向を示す表示dをリアルタイムの画像に重畳して表示させることができる。これにより、出血後に手術用カメラ110がぶれて出血位置が取得された画像に表示されなくなった場合でも、ユーザは迅速に出血位置を認識して、処置を行うことができる。 Further, as shown in FIG. 12, the output control unit 1230 determines the direction of the bleeding position when the bleeding position specified in the past deviates from the area displayed in the real-time image acquired by the surgical camera 110. The indicated display d can be superimposed and displayed on a real-time image. As a result, even if the surgical camera 110 is shaken after bleeding and the bleeding position is not displayed in the acquired image, the user can quickly recognize the bleeding position and perform treatment.

上記の出力される画像や音声等は、ユーザが予め出力内容を設定することにより、リアルタイムの画像と併せて選択的に出力されてもよい。また、リアルタイムの画像に出血位置を示す表示が重畳された画像、出血前後の動画像や出血位置の拡大画像等は、出血判定部1221によって出血が発生したと判定されたときに、出力制御部1230が出力指示を出力装置140に送信することによって、表示されてもよい。出血関連情報は、上記のような、出血の発生に関する情報、血液領域の面積、当該面積の変化量、血液量、血液量の変化量、出血位置の表示、出血発生前後の動画像、出血位置の方向を示す表示等、術部の出血に関連するあらゆる情報を含むものである。 The output image, sound, and the like may be selectively output together with the real-time image by setting the output contents in advance by the user. In addition, an image in which a display showing the bleeding position is superimposed on a real-time image, a moving image before and after the bleeding, an enlarged image of the bleeding position, and the like are output control units when the bleeding determination unit 1221 determines that bleeding has occurred. The 1230 may be displayed by transmitting an output instruction to the output device 140. The bleeding-related information includes information on the occurrence of bleeding, the area of the blood area, the amount of change in the area, the amount of blood, the amount of change in blood volume, the display of the bleeding position, the moving image before and after the occurrence of bleeding, and the bleeding position. It contains all information related to bleeding at the surgical site, such as a display indicating the direction of.

(光源切替部1240)
光源切替部1240は、光源装置130から照射される光を切り替える。例えば、ユーザにより操作される入力装置から切替指示が光源切替部1240に送信される。かかる切替指示により、光源装置130は、白色光光源、近赤外光光源及びレーザ光源を切り替え、ユーザ所望の光を術部に照射する。
(Light source switching unit 1240)
The light source switching unit 1240 switches the light emitted from the light source device 130. For example, a switching instruction is transmitted from the input device operated by the user to the light source switching unit 1240. In response to such a switching instruction, the light source device 130 switches between a white light light source, a near infrared light source, and a laser light source, and irradiates the surgical site with light desired by the user.

(記憶部1250)
記憶部1250には、手術用カメラ110により取得された画像が記録されている。記憶部1250には、画像処理装置120が上記のような各種の処理を実施する際に利用する各種のプログラムやデータベース等が適宜記録されている。また、記憶部1250には、上記のような特徴点検出部1210や特徴量検出部1220が取得した各種の情報が履歴情報として記録されていてもよい。更に、記憶部1250には、例えば、血液検出部1212、出血判定部1221、出血位置特定部1222及び血液量算出部1223のそれぞれがそれぞれの処理を行う際に、保存する必要が生じた様々なパラメータや処理の途中経過等が適宜記録されてもよい。血液検出部1212、出血判定部1221、出血位置特定部1222及び血液量算出部1223が実行する処理に限られず、本実施形態に係る画像処理システム10が何らかの処理を行う際に保存する必要が生じた様々なパラメータや処理の途中経過等が適宜記録されてもよい。この記憶部1250は、通信部1260、特徴点検出部1210、特徴量検出部1220等が、自由にリード/ライト処理を実施することが可能である。記憶部1250は、画像を保存、上書きして予めユーザが設定した時間の画像を保存してもよい。また、記憶部1250は、出血判定部1221により出血が発生したと判定された時点の前後の、予めユーザが設定した時間の画像は上書きされないように保存されてもよい。
(Memory unit 1250)
An image acquired by the surgical camera 110 is recorded in the storage unit 1250. In the storage unit 1250, various programs, databases, and the like used when the image processing device 120 performs various processes as described above are appropriately recorded. Further, the storage unit 1250 may record various types of information acquired by the feature point detection unit 1210 and the feature amount detection unit 1220 as history information. Further, in the storage unit 1250, for example, the blood detection unit 1212, the bleeding determination unit 1221, the bleeding position identification unit 1222, and the blood volume calculation unit 1223 each need to be stored when performing their respective processes. Parameters, processing progress, etc. may be recorded as appropriate. Not limited to the processing executed by the blood detection unit 1212, the bleeding determination unit 1221, the bleeding position identification unit 1222, and the blood volume calculation unit 1223, it is necessary to save the image processing system 10 according to the present embodiment when performing any processing. Various parameters and the progress of processing may be recorded as appropriate. In the storage unit 1250, the communication unit 1260, the feature point detection unit 1210, the feature amount detection unit 1220, and the like can freely perform read / write processing. The storage unit 1250 may save and overwrite the image to save the image for a time set in advance by the user. In addition, the storage unit 1250 may store images for a time set in advance by the user before and after the time when the bleeding determination unit 1221 determines that bleeding has occurred so as not to be overwritten.

(通信部1260)
通信部1260は、ネットワークを介して、手術用カメラ110との情報通信を行う機能を有する。具体的には、通信部1260は、手術用カメラ110から画像を受信する。また、通信部1260は、手術用カメラ110に対して制御信号を送信し、その駆動を制御する機能を有する。当該制御信号には、倍率や焦点距離等、撮像条件に関する情報が含まれ得る。
(Communication unit 1260)
The communication unit 1260 has a function of performing information communication with the surgical camera 110 via the network. Specifically, the communication unit 1260 receives an image from the surgical camera 110. Further, the communication unit 1260 has a function of transmitting a control signal to the surgical camera 110 and controlling the driving thereof. The control signal may include information about imaging conditions such as magnification and focal length.

<2.動作>
続いて、本開示の実施形態に係る画像処理システム10の動作の一例について詳細に説明する。
<2. Operation>
Subsequently, an example of the operation of the image processing system 10 according to the embodiment of the present disclosure will be described in detail.

まず、光源切替部1240により、光源装置130の光源が白色光光源に設定され、手術が行われている術部に対して白色光が照射される。手術用カメラ110は、術部の白色光画像を取得する。取得された白色光画像は、画像処理装置120の通信部1260を介して特徴点検出部1210、出力制御部1230及び記憶部1250に送信される。ここで出力制御部1230は、受信した白色光画像を出力装置140に送信し、出力装置140は、受信した白色光画像をリアルタイム画像として表示する。また、記憶部1250に送信された白色光画像は、ユーザに予め設定された時間だけ記録される。 First, the light source switching unit 1240 sets the light source of the light source device 130 to a white light light source, and white light is applied to the surgical part where the operation is being performed. The surgical camera 110 acquires a white light image of the surgical site. The acquired white light image is transmitted to the feature point detection unit 1210, the output control unit 1230, and the storage unit 1250 via the communication unit 1260 of the image processing device 120. Here, the output control unit 1230 transmits the received white light image to the output device 140, and the output device 140 displays the received white light image as a real-time image. Further, the white light image transmitted to the storage unit 1250 is recorded for a time preset by the user.

次いで、特徴点検出部1210に備えられた三次元情報取得部1211は、取得された白色光画像に表示された領域の位置や形状に関する三次元情報を取得する。特徴点検出部1210に備えられた血液検出部1212は、手術用カメラ110により取得された白色光画像を構成する色情報及び三次元情報取得部1211で取得された三次元情報に基づいて、画像に表示された領域における血液を検出し、血液分布情報を生成する。詳細には、手術用カメラ110により取得された画像を所定のサイズに分割し、三次元情報取得部1211で取得された三次元情報から、画像の分割された範囲毎に表面粗さを算出する。画像の分割された範囲毎のRGBと算出された表面粗さを、縦軸を色情報をとし、横軸を表面粗さをとした特徴量平面上にプロットして、画像の分割されたそれぞれの範囲が血液領域であるか否かを判断する。三次元情報と血液分布情報は、特徴量検出部1220及び記憶部1250に送信される。記憶部1250に記録された血液分布情報は、記憶部1250に記録された白色光画像とともに出力制御部1230に送信される。血液分布情報は白色光画像に適用され、血液領域を示す表示が当該白色光画像に重畳して表示された画像として出力制御部1230により出力される。 Next, the three-dimensional information acquisition unit 1211 provided in the feature point detection unit 1210 acquires three-dimensional information regarding the position and shape of the region displayed in the acquired white light image. The blood detection unit 1212 provided in the feature point detection unit 1210 is based on the color information constituting the white light image acquired by the surgical camera 110 and the three-dimensional information acquired by the three-dimensional information acquisition unit 1211. Detects blood in the area displayed in and generates blood distribution information. Specifically, the image acquired by the surgical camera 110 is divided into predetermined sizes, and the surface roughness is calculated for each divided range of the image from the three-dimensional information acquired by the three-dimensional information acquisition unit 1211. .. RGB and the calculated surface roughness for each divided range of the image are plotted on a feature plane with the vertical axis representing the color information and the horizontal axis representing the surface roughness, and each of the divided images is plotted. Determine if the range of is the blood region. The three-dimensional information and the blood distribution information are transmitted to the feature amount detection unit 1220 and the storage unit 1250. The blood distribution information recorded in the storage unit 1250 is transmitted to the output control unit 1230 together with the white light image recorded in the storage unit 1250. The blood distribution information is applied to the white light image, and the display indicating the blood region is output by the output control unit 1230 as an image displayed superimposed on the white light image.

続いて、特徴量検出部1220に備えられた血液量算出部1223は、近赤外光画像を用いて血液量を算出する。光源切替部1240は、光源装置130の光源を白色光源から近赤外光光源に切り替える。光源の切り替えは、例えば、ユーザのフットスイッチ250の操作によって行われる。光源装置130は、術部に対して波長の異なる近赤外光を照射する。血液量算出部1223は、術部に対して異なる波長の近赤外光を照射して得られる複数の近赤外光画像の差分を取り、血液の厚みを算出する。算出された血液の厚みと、その厚みを有する血液領域の面積との積を求め、その積の合計を表示された領域における血液量とする。血液量算出部1223は、2枚以上の画像で算出された血液量を比較し、近赤外光画像又は白色光画像に表示された領域おける血液量の変化量を算出する。 Subsequently, the blood volume calculation unit 1223 provided in the feature amount detection unit 1220 calculates the blood volume using the near-infrared light image. The light source switching unit 1240 switches the light source of the light source device 130 from a white light source to a near infrared light source. The switching of the light source is performed, for example, by operating the foot switch 250 of the user. The light source device 130 irradiates the surgical site with near-infrared light having a different wavelength. The blood volume calculation unit 1223 calculates the thickness of blood by taking the difference between a plurality of near-infrared light images obtained by irradiating the surgical site with near-infrared light having different wavelengths. The product of the calculated blood thickness and the area of the blood region having the thickness is obtained, and the total of the products is taken as the blood volume in the displayed region. The blood volume calculation unit 1223 compares the blood volumes calculated by two or more images, and calculates the amount of change in the blood volume in the region displayed on the near-infrared light image or the white light image.

出血判定部1221は、血液量算出部1223により算出された血液量の変化量から出血の発生を判定する。具体的には、血液量の変化量についてユーザにより閾値が設定され、血液量の変化量が閾値を超えたときに、出血判定部1221は、出血が発生したと判定する。また、出血判定部1221は、血液領域の面積の変化量に基づいて出血の発生の有無を判定してもよい。詳細には、出血判定部1221は、各時点の白色光画像について画像処理を施し、各時点の画像間の血液領域の面積の差分を算出する。血液領域の面積の変化量についてユーザにより閾値が予め設定され、血液領域の面積の変化量が閾値を超えたときに、出血判定部1221は、出血が発生したと判定してもよい。 The bleeding determination unit 1221 determines the occurrence of bleeding from the amount of change in blood volume calculated by the blood volume calculation unit 1223. Specifically, a threshold value is set by the user for the amount of change in blood volume, and when the amount of change in blood volume exceeds the threshold value, the bleeding determination unit 1221 determines that bleeding has occurred. In addition, the bleeding determination unit 1221 may determine the presence or absence of bleeding based on the amount of change in the area of the blood region. Specifically, the bleeding determination unit 1221 performs image processing on the white light image at each time point and calculates the difference in the area of the blood region between the images at each time point. A threshold value is preset by the user for the amount of change in the area of the blood region, and when the amount of change in the area of the blood region exceeds the threshold value, the bleeding determination unit 1221 may determine that bleeding has occurred.

続いて、出血位置特定部1222は、記憶部1250に保存された複数の白色光画像及び当該白色光画像が取得された各時点における血液分布情報読み出す。読み出された白色光画像及び血液分布情報を利用して、血液の分布の状態の推移を把握する。この血液の分布の状態を遡り、血液が生じた位置を出血位置を特定する。 Subsequently, the bleeding position specifying unit 1222 reads out a plurality of white light images stored in the storage unit 1250 and blood distribution information at each time point when the white light images are acquired. Using the read white light image and blood distribution information, the transition of the blood distribution state is grasped. The state of this blood distribution is traced back, and the position where blood is generated is used to identify the bleeding position.

血液量算出部により算出された血液量、出血が発生した時刻や特定された出血位置等の情報は、出力制御部1230又は記憶部1250の少なくともいずれかに送信される。 Information such as the blood volume calculated by the blood volume calculation unit, the time when bleeding occurs, and the specified bleeding position is transmitted to at least one of the output control unit 1230 or the storage unit 1250.

そして、出力制御部1230は、手術用カメラ110から送信されたリアルタイムの画像、血液量算出部から送信された出血量、出血位置特定部により特定された出血位置が表示された画像等を、適宜出力装置140に出力させる。出血位置が表示された画像は、記憶部1250から読み出される。上記の処理は随時実行される。 Then, the output control unit 1230 appropriately displays a real-time image transmitted from the surgical camera 110, a bleeding amount transmitted from the blood volume calculation unit, an image displaying the bleeding position specified by the bleeding position specifying unit, and the like. Output to the output device 140. The image showing the bleeding position is read out from the storage unit 1250. The above process is executed at any time.

<3.ハードウェア構成>
以上、本開示に係る実施形態について説明した。上述した画像処理は、ソフトウェアと、以下に説明する情報処理装置のハードウェアとの協働により実現される。
<3. Hardware configuration>
The embodiments according to the present disclosure have been described above. The above-mentioned image processing is realized by the collaboration between the software and the hardware of the information processing apparatus described below.

次に、本開示の一実施形態に係る画像処理装置120のハードウェア構成例について説明する。図13は、本開示の一実施形態に係る画像処理装置120のハードウェア構成例を示すブロック図である。図13を参照すると、画像処理装置120は、例えば、CPU1270と、ROM1271と、RAM1272と、ホストバス1273と、ブリッジ1274と、外部バス1275と、インタフェース1276と、入力装置1277と、表示装置1278と、音声出力装置1279と、ストレージ装置1280と、ドライブ1281と、接続ポート1282と、リムーバブル記憶媒体1283と、を有する。なお、ここで示すハードウェア構成は一例であり、構成要素の一部が省略されてもよい。また、ここで示される構成要素以外の構成要素をさらに含んでもよい。 Next, a hardware configuration example of the image processing device 120 according to the embodiment of the present disclosure will be described. FIG. 13 is a block diagram showing a hardware configuration example of the image processing device 120 according to the embodiment of the present disclosure. Referring to FIG. 13, the image processing apparatus 120 includes, for example, a CPU 1270, a ROM 1271, a RAM 1272, a host bus 1273, a bridge 1274, an external bus 1275, an interface 1276, an input device 1277, and a display device 1278. It has an audio output device 1279, a storage device 1280, a drive 1281, a connection port 1282, and a removable storage medium 1283. The hardware configuration shown here is an example, and some of the components may be omitted. Further, components other than the components shown here may be further included.

(CPU1270)
CPU1270は、例えば、演算処理装置又は制御装置として機能し、ROM1271、RAM1272、ストレージ装置1280、又はリムーバブル記憶媒体1283に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。
(CPU1270)
The CPU 1270 functions as, for example, an arithmetic processing device or a control device, and controls all or a part of the operation of each component based on various programs recorded in the ROM 1271, the RAM 1272, the storage device 1280, or the removable storage medium 1283. ..

(ROM1271、RAM1272)
ROM1271は、CPU1270に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM1272には、例えば、CPU1270に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
(ROM1271, RAM1272)
The ROM 1271 is a means for storing a program read into the CPU 1270, data used for calculation, and the like. The RAM 1272 temporarily or permanently stores, for example, a program read into the CPU 1270, various parameters that change as appropriate when the program is executed, and the like.

(ホストバス1273、ブリッジ1274、外部バス1275、インタフェース1276)
CPU1270、ROM1271、RAM1272は、例えば、高速なデータ伝送が可能なホストバス1273を介して相互に接続される。一方、ホストバス1273は、例えば、ブリッジ1274を介して比較的データ伝送速度が低速な外部バス876に接続される。また、外部バス1275は、インタフェース1276を介して種々の構成要素と接続される。
(Host bus 1273, bridge 1274, external bus 1275, interface 1276)
The CPU 1270, ROM 1271, and RAM 1272 are connected to each other via, for example, a host bus 1273 capable of high-speed data transmission. On the other hand, the host bus 1273 is connected to the external bus 876, which has a relatively low data transmission speed, via, for example, a bridge 1274. Further, the external bus 1275 is connected to various components via the interface 1276.

(入力装置1277)
入力装置1277には、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられ得る。さらに、入力装置1277としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラが用いられることもある。また、入力装置1277には、マイクロフォンなどの音声入力装置が含まれる。本開示の技術が適用され得る内視鏡手術システム1では、フットスイッチ250が入力装置1277として用いられることが好ましい。
(Input device 1277)
For the input device 1277, for example, a mouse, a keyboard, a touch panel, buttons, switches, levers, and the like can be used. Further, as the input device 1277, a remote controller capable of transmitting a control signal using infrared rays or other radio waves may be used. Further, the input device 1277 includes a voice input device such as a microphone. In the endoscopic surgery system 1 to which the technique of the present disclosure can be applied, it is preferable that the foot switch 250 is used as the input device 1277.

(表示装置1278、音声出力装置1279)
表示装置1278は、例えば、CRT(Cathode Ray Tube)、LCD、又は有機EL等のディスプレイ装置、プリンタ等であり、音声出力装置1279は、スピーカー、ヘッドホン等のオーディオ出力装置等である。表示装置1278及び音声出力装置1279は、いずれも取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。
(Display device 1278, audio output device 1279)
The display device 1278 is, for example, a display device such as a CRT (Cathode Ray Tube), an LCD, or an organic EL, a printer, or the like, and the audio output device 1279 is an audio output device such as a speaker or a headphone. The display device 1278 and the voice output device 1279 are both devices capable of visually or audibly notifying the user of the acquired information.

(ストレージ装置1280)
ストレージ装置1280は、各種のデータを格納するための装置である。ストレージ装置1280としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。
(Storage device 1280)
The storage device 1280 is a device for storing various types of data. As the storage device 1280, for example, a magnetic storage device such as a hard disk drive (HDD), a semiconductor storage device, an optical storage device, a magneto-optical storage device, or the like is used.

(ドライブ1281)
ドライブ1281は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記憶媒体1283に記録された情報を読み出し、又はリムーバブル記憶媒体1283に情報を書き込む装置である。
(Drive 1281)
The drive 1281 is a device that reads information recorded on a removable storage medium 1283 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, or writes information to the removable storage medium 1283.

(リムーバブル記憶媒体1283)
リムーバブル記憶媒体1283は、例えば、DVDメディア、Blu−ray(登録商標)メディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記憶媒体1283は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。
(Removable storage medium 1283)
The removable storage medium 1283 is, for example, a DVD media, a Blu-ray (registered trademark) media, an HD DVD media, various semiconductor storage media, and the like. Of course, the removable storage medium 1283 may be, for example, an IC card equipped with a non-contact type IC chip, an electronic device, or the like.

(接続ポート1282)
接続ポート1282は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)、RS−232Cポート、又は光オーディオ端子等のような外部接続機器902を接続するためのポートである。
(Connection port 1282)
The connection port 1282 is a port for connecting an external connection device 902 such as a USB (Universal Serial Bus) port, an IEEE1394 port, a SCSI (Small Computer System Interface), an RS-232C port, or an optical audio terminal. be.

<4.結び>
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
<4. Conclusion>
Although the preferred embodiments of the present disclosure have been described in detail with reference to the accompanying drawings, the technical scope of the present disclosure is not limited to such examples. It is clear that a person having ordinary knowledge in the technical field of the present disclosure can come up with various modifications or modifications within the scope of the technical ideas described in the claims. Of course, it is understood that the above also belongs to the technical scope of the present disclosure.

本開示の技術によれば、手術時における術部の出血箇所をより正確に把握することが可能となる。また、患者の体動があった場合でも安定した出血位置の推定が可能となる。また、出血量の推移をユーザが認識することが可能となる。上記により、ユーザは迅速に止血作業に取り掛かることが可能となり、手術時間が短縮され、出血量を抑制できる。また、出血量をユーザが認識できることで、バイタルの確認、内視鏡手術から開腹手術への移行や輸血開始のタイミング等の判断を行うことが可能となる。その結果、患者の術後の回復を早めることが可能となる。 According to the technique of the present disclosure, it is possible to more accurately grasp the bleeding site of the surgical site at the time of surgery. In addition, it is possible to estimate a stable bleeding position even when the patient moves. In addition, the user can recognize the transition of the bleeding amount. As a result, the user can start the hemostasis work quickly, the operation time can be shortened, and the amount of bleeding can be suppressed. In addition, since the user can recognize the amount of bleeding, it is possible to confirm vital signs, determine the transition from endoscopic surgery to laparotomy, and determine the timing of starting blood transfusion. As a result, it is possible to accelerate the postoperative recovery of the patient.

また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、又は、上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。 In addition, the effects described herein are merely explanatory or exemplary and are not limited. That is, the technique according to the present disclosure may exhibit other effects apparent to those skilled in the art from the description of the present specification, in addition to or in place of the above effects.

なお、以下のような構成も本開示の技術的範囲に属する。
(1)
白色光を照射する白色光源を少なくとも有し、手術が行われている生体の一部である術部に対し前記白色光を照射する光源装置と、
前記光源装置により前記白色光が照射された前記術部の白色光画像を取得する手術用カメラと、
異なる時点で取得された複数の前記白色光画像を用い、当該複数の白色光画像間における前記術部の時間変化に基づいて、前記術部における出血位置を特定する画像処理装置と、
を備える、
画像処理システム。
(2)
前記画像処理装置は、前記白色光画像に表示された領域の三次元情報を取得し、
前記白色光画像を構成する色情報及び前記三次元情報に基づいて、前記白色光画像に表示された領域に存在する血液を検出して、前記血液の分布に関する血液分布情報を取得し、
前記複数の前記白色光画像が取得された各時点における前記血液分布情報に基づいて、前記血液の分布の状態の推移を遡ることで前記出血位置を特定する、
(1)に記載の画像処理システム。
(3)
前記画像処理装置は、前記各時点における前記血液分布情報に基づいて、前記血液が存在する領域の面積の変化量、前記白色光画像に表示された領域に存在する血液量及び前記血液量の変化量の少なくともいずれかを算出する、
(1)又は(2)に記載の画像処理システム。
(4)
前記画像処理装置は、前記面積の変化量が所定の閾値を超えたときに、前記白色光画像に表示された領域において出血が発生したと判定する、
(1)〜(3)のいずれか1項に記載の画像処理システム。
(5)
前記画像処理装置は、前記血液量の変化量が所定の閾値を超えたときに、前記白色光画像に表示された領域において出血が発生したと判定する、
(1)〜(3)のいずれか1項に記載の画像処理システム。
(6)
前記画像処理装置は、複数の前記各時点における前記血液の分布の推移に基づいて、将来の前記血液の分布を推定する、 前記光源装置は、近赤外光帯に属する波長を有する近赤外光を照射する近赤外光源を備え、
前記手術用カメラは、前記近赤外光が前記術部に照射された複数の近赤外光画像を更に取得し、
前記画像処理装置は、複数の前記近赤外光画像及び前記白色光画像のうちの少なくとも2以上の画像に基づいて、前記近赤外光画像又は前記白色光画像に表示された領域おける前記血液量及び前記血液量の変化量を算出する、
(5)に記載の画像処理システム。
(7)
前記画像処理装置は、複数の異なる時点における前記血液の分布の推移に基づいて、将来の前記血液の分布を推定する、
(1)〜(3)のいずれか1項に記載の画像処理システム。
(8)
前記画像処理装置は、前記三次元情報に基づいて、前記白色光画像に表示された領域に存在する異物の存在を検出する、
(1)又は(2)に記載の画像処理システム。
(9)
前記光源装置は、所定の波長を有するレーザ光を照射するレーザ光源を備え、
前記手術用カメラは、前記レーザ光が照射された前記術部のレーザ光画像を更に取得し、
前記画像処理装置は、前取得した前記レーザ光画像を用いて血液の流動に関する血液流動情報を取得し、前記血液流動情報に基づいて前記出血位置を特定する、
(1)に記載の画像処理システム。
(10)
前記画像処理装置は、前記白色光画像に表示された領域において出血が発生したと判定したときに、前記出血に関する出血関連情報を出力する、
(1)に記載の画像処理システム。
(11)
前記画像処理装置は、特定した前記出血位置を所定の方法で出力する、
(1)に記載の画像処理システム。
(12)
前記画像処理装置は、出血が発生したと判定された前記白色光画像が取得された時点から所定の時間遡った時点を起点として、前記起点から所定の時間経過するまでの前記白色光画像を出力する、
(1)に記載の画像処理システム。
(13)
前記画像処理装置は、前記血液量又は前記血液量の変化量の少なくともいずれかが所定の閾値を超えたときに、出血の発生を喚起する所定の信号を出力する、
(1)〜(3)のいずれか1項に記載の画像処理システム。
(14)
前記画像処理装置は、前記出血位置を示す表示を最新の前記時点の前記白色光画像に重畳して表示する、
(1)に記載の画像処理システム。
(15)
前記画像処理装置は、前記白色光画像に表示された領域において、前記血液量の変化量又は前記血液が存在する領域の面積の変化量に応じて、前記出血位置を示す表示を変化させる、
(1)〜(3)のいずれか1項に記載の画像処理システム。
(16)
前記画像処理装置は、前記出血位置が前記手術用カメラにより取得される前記白色光画像に表示された領域から外れた場合に、前記出血位置の方向を示す表示を出力する、
(1)に記載の画像処理システム。
(17)
前記画像処理装置は、前記白色光画像に表示された領域における出血量の変化を出力する、
(1)に記載の画像処理システム。
(18)
前記画像処理装置は、複数の前記異なる時点における前記血液の分布の推移に基づいて、推定された将来の前記血液の分布を出力する、
(1)又は(2)に記載の画像処理システム。
(19)
白色光を照射する白色光源を少なくとも有する光源装置からの前記白色光により照明されている、手術が行われている生体の一部である術部を、手術用カメラにより異なる時点で撮像することで得られる複数の白色光画像を用い、当該複数の白色光画像間における前記術部の時間変化に基づいて、前記術部における出血位置を特定する特定部、を備える、
画像処理装置。
(20)
白色光を照射する白色光源を少なくとも有する光源装置からの前記白色光により照明されている、手術が行われている生体の一部である術部を、手術用カメラにより異なる時点で撮像することで得られる複数の白色光画像を用い、当該複数の白色光画像間における前記術部の時間変化に基づいて、前記術部における出血位置を特定すること、を含む
画像処理方法。
(21)
白色光を照射する白色光源を少なくとも有し、手術が行われている生体の一部である術部に対し前記白色光を照射する光源装置、及び、前記光源装置により前記白色光が照射された前記術部の白色光画像を取得する手術用カメラの双方と相互に通信が可能なコンピュータを、
前記手術用カメラによって異なる時間で取得された複数の前記白色光画像を用い、当該複数の画像間における前記術部の時間変化に基づいて、前記術部における出血位置を特定する特定部、として機能させるための、
プログラム。
The following configurations also belong to the technical scope of the present disclosure.
(1)
A light source device that has at least a white light source that irradiates white light and irradiates the surgical site that is a part of the living body in which surgery is performed with the white light.
A surgical camera that acquires a white light image of the surgical site irradiated with the white light by the light source device, and
An image processing device that identifies a bleeding position in the surgical site based on a time change of the surgical site between the plurality of white light images using a plurality of the white light images acquired at different time points.
To prepare
Image processing system.
(2)
The image processing device acquires three-dimensional information of the region displayed on the white light image, and obtains three-dimensional information.
Based on the color information and the three-dimensional information constituting the white light image, blood existing in the region displayed on the white light image is detected, and blood distribution information regarding the distribution of the blood is acquired.
The bleeding position is specified by tracing back the transition of the state of the blood distribution based on the blood distribution information at each time point when the plurality of white light images are acquired.
The image processing system according to (1).
(3)
The image processing device is based on the blood distribution information at each time point, the amount of change in the area of the region where the blood is present, the amount of blood existing in the region displayed in the white light image, and the change in the blood volume. Calculate at least one of the quantities,
The image processing system according to (1) or (2).
(4)
The image processing device determines that bleeding has occurred in the region displayed on the white light image when the amount of change in the area exceeds a predetermined threshold value.
The image processing system according to any one of (1) to (3).
(5)
The image processing device determines that bleeding has occurred in the region displayed on the white light image when the amount of change in blood volume exceeds a predetermined threshold value.
The image processing system according to any one of (1) to (3).
(6)
The image processing device estimates the future distribution of the blood based on the transition of the distribution of the blood at each of the plurality of time points. The light source device has a wavelength belonging to the near-infrared light band. Equipped with a near-infrared light source that irradiates light
The surgical camera further acquires a plurality of near-infrared light images in which the near-infrared light irradiates the surgical site.
The image processing apparatus is based on at least two or more of the plurality of near-infrared light images and the white light image, and the blood in the near-infrared light image or the region displayed in the white light image. Calculate the amount and the amount of change in the blood volume,
The image processing system according to (5).
(7)
The image processing apparatus estimates the future distribution of the blood based on the transition of the distribution of the blood at a plurality of different time points.
The image processing system according to any one of (1) to (3).
(8)
The image processing device detects the presence of foreign matter existing in the region displayed on the white light image based on the three-dimensional information.
The image processing system according to (1) or (2).
(9)
The light source device includes a laser light source that irradiates a laser beam having a predetermined wavelength.
The surgical camera further acquires a laser beam image of the surgical site irradiated with the laser beam.
The image processing apparatus acquires blood flow information regarding blood flow using the previously acquired laser beam image, and identifies the bleeding position based on the blood flow information.
The image processing system according to (1).
(10)
The image processing device outputs bleeding-related information regarding the bleeding when it is determined that bleeding has occurred in the region displayed on the white light image.
The image processing system according to (1).
(11)
The image processing device outputs the specified bleeding position by a predetermined method.
The image processing system according to (1).
(12)
The image processing device outputs the white light image from the starting point to the elapse of a predetermined time, starting from a time point retroactive to a predetermined time from the time when the white light image determined to have caused bleeding has been acquired. do,
The image processing system according to (1).
(13)
The image processing device outputs a predetermined signal for urging the occurrence of bleeding when at least one of the blood volume and the change amount of the blood volume exceeds a predetermined threshold value.
The image processing system according to any one of (1) to (3).
(14)
The image processing device superimposes and displays a display indicating the bleeding position on the latest white light image at the time point.
The image processing system according to (1).
(15)
The image processing device changes the display indicating the bleeding position in the region displayed on the white light image according to the amount of change in the blood volume or the amount of change in the area of the region where the blood is present.
The image processing system according to any one of (1) to (3).
(16)
The image processing device outputs a display indicating the direction of the bleeding position when the bleeding position deviates from the area displayed in the white light image acquired by the surgical camera.
The image processing system according to (1).
(17)
The image processing device outputs a change in the amount of bleeding in the region displayed in the white light image.
The image processing system according to (1).
(18)
The image processing apparatus outputs an estimated future distribution of the blood based on the transition of the distribution of the blood at a plurality of different time points.
The image processing system according to (1) or (2).
(19)
By imaging the surgical site, which is a part of the living body under surgery, illuminated by the white light from a light source device having at least a white light source that irradiates white light, at different time points with a surgical camera. Using the obtained plurality of white light images, a specific portion for identifying a bleeding position in the surgical site based on a time change of the surgical site between the plurality of white light images is provided.
Image processing device.
(20)
By imaging the surgical site, which is a part of the living body under surgery, illuminated by the white light from a light source device having at least a white light source that irradiates white light, at different time points with a surgical camera. An image processing method including identifying a bleeding position in the surgical site based on a time change of the surgical site between the plurality of white light images using the obtained plurality of white light images.
(21)
A light source device that has at least a white light source that irradiates white light and irradiates the surgical site that is a part of the living body undergoing surgery with the white light, and the light source device that irradiates the white light. A computer capable of communicating with both of the surgical cameras that acquire the white light image of the surgical site.
Using the plurality of white light images acquired by the surgical camera at different times, it functions as a specific part for identifying the bleeding position in the surgical part based on the time change of the surgical part between the plurality of images. To make you
program.

1 内視鏡手術システム
10 画像処理システム
100 CCU
110 手術用カメラ
120 画像処理装置
130 光源装置
140 出力装置
1210 特徴点検出部
1211 三次元情報取得部
1212 血液検出部
1220 特徴量検出部
1221 出血判定部
1222 出血位置特定部
1223 血液量算出部
1230 出力制御部
1240 光源切替部
1250 記憶部
1260 通信部
1 Endoscopic surgery system 10 Image processing system 100 CCU
110 Surgical camera 120 Image processing device 130 Light source device 140 Output device 1210 Feature point detection unit 1211 Three-dimensional information acquisition unit 1212 Blood detection unit 1220 Feature amount detection unit 1221 Bleeding determination unit 1222 Bleeding position identification unit 1223 Blood volume calculation unit 1230 Output Control unit 1240 Light source switching unit 1250 Storage unit 1260 Communication unit

Claims (21)

白色光を照射する白色光源を少なくとも有し、手術が行われている生体の一部である術部に対し前記白色光を照射する光源装置と、
前記光源装置により前記白色光が照射された前記術部の白色光画像を取得する手術用カメラと、
異なる時点で取得された複数の前記白色光画像を用い、当該複数の白色光画像間における前記術部の時間変化に基づいて、前記術部における出血位置を特定する画像処理装置と、
を備える、
画像処理システム。
A light source device that has at least a white light source that irradiates white light and irradiates the surgical site that is a part of the living body in which surgery is performed with the white light.
A surgical camera that acquires a white light image of the surgical site irradiated with the white light by the light source device, and
An image processing device that identifies a bleeding position in the surgical site based on a time change of the surgical site between the plurality of white light images using a plurality of the white light images acquired at different time points.
To prepare
Image processing system.
前記画像処理装置は、前記白色光画像に表示された領域の三次元情報を取得し、
前記白色光画像を構成する色情報及び前記三次元情報に基づいて、前記白色光画像に表示された領域に存在する血液を検出して、前記血液の分布に関する血液分布情報を取得し、
前記複数の前記白色光画像が取得された各時点における前記血液分布情報に基づいて、前記血液の分布の状態の推移を遡ることで前記出血位置を特定する、
請求項1に記載の画像処理システム。
The image processing device acquires three-dimensional information of the region displayed on the white light image, and obtains three-dimensional information.
Based on the color information and the three-dimensional information constituting the white light image, blood existing in the region displayed on the white light image is detected, and blood distribution information regarding the distribution of the blood is acquired.
The bleeding position is specified by tracing back the transition of the state of the blood distribution based on the blood distribution information at each time point when the plurality of white light images are acquired.
The image processing system according to claim 1.
前記画像処理装置は、前記各時点における前記血液分布情報に基づいて、前記血液が存在する領域の面積の変化量、前記白色光画像に表示された領域に存在する血液量及び前記血液量の変化量の少なくともいずれかを算出する、
請求項2に記載の画像処理システム。
The image processing device is based on the blood distribution information at each time point, the amount of change in the area of the region where the blood is present, the amount of blood existing in the region displayed in the white light image, and the change in the blood volume. Calculate at least one of the quantities,
The image processing system according to claim 2.
前記画像処理装置は、前記面積の変化量が所定の閾値を超えたときに、前記白色光画像に表示された領域において出血が発生したと判定する、
請求項3に記載の画像処理システム。
The image processing device determines that bleeding has occurred in the region displayed on the white light image when the amount of change in the area exceeds a predetermined threshold value.
The image processing system according to claim 3.
前記画像処理装置は、前記血液量の変化量が所定の閾値を超えたときに、前記白色光画像に表示された領域において出血が発生したと判定する、
請求項3に記載の画像処理システム。
The image processing device determines that bleeding has occurred in the region displayed on the white light image when the amount of change in blood volume exceeds a predetermined threshold value.
The image processing system according to claim 3.
前記光源装置は、近赤外光帯に属する波長を有する近赤外光を照射する近赤外光源を備え、
前記手術用カメラは、前記近赤外光が前記術部に照射された複数の近赤外光画像を更に取得し、
前記画像処理装置は、複数の前記近赤外光画像及び前記白色光画像のうちの少なくとも2以上の画像に基づいて、前記近赤外光画像又は前記白色光画像に表示された領域おける前記血液量及び前記血液量の変化量を算出する、
請求項5に記載の画像処理システム。
The light source device includes a near-infrared light source that irradiates near-infrared light having a wavelength belonging to the near-infrared light band.
The surgical camera further acquires a plurality of near-infrared light images in which the near-infrared light irradiates the surgical site.
The image processing apparatus is based on at least two or more of the plurality of near-infrared light images and the white light image, and the blood in the near-infrared light image or the region displayed in the white light image. Calculate the amount and the amount of change in the blood volume,
The image processing system according to claim 5.
前記画像処理装置は、複数の異なる時点における前記血液の分布の推移に基づいて、将来の前記血液の分布を推定する、
請求項3に記載の画像処理システム。
The image processing apparatus estimates the future distribution of the blood based on the transition of the distribution of the blood at a plurality of different time points.
The image processing system according to claim 3.
前記画像処理装置は、前記三次元情報に基づいて、前記白色光画像に表示された領域に存在する異物の存在を検出する、
請求項2に記載の画像処理システム。
The image processing device detects the presence of foreign matter existing in the region displayed on the white light image based on the three-dimensional information.
The image processing system according to claim 2.
前記光源装置は、所定の波長を有するレーザ光を照射するレーザ光源を備え、
前記手術用カメラは、前記レーザ光が照射された前記術部のレーザ光画像を更に取得し、
前記画像処理装置は、取得した前記レーザ光画像を用いて血液の流動に関する血液流動情報を取得し、前記血液流動情報に基づいて前記出血位置を特定する、
請求項1に記載の画像処理システム。
The light source device includes a laser light source that irradiates a laser beam having a predetermined wavelength.
The surgical camera further acquires a laser beam image of the surgical site irradiated with the laser beam.
The image processing apparatus acquires blood flow information regarding blood flow using the acquired laser beam image, and identifies the bleeding position based on the blood flow information.
The image processing system according to claim 1.
前記画像処理装置は、前記白色光画像に表示された領域において出血が発生したと判定したときに、前記出血に関する出血関連情報を出力する、
請求項1に記載の画像処理システム。
The image processing device outputs bleeding-related information regarding the bleeding when it is determined that bleeding has occurred in the region displayed on the white light image.
The image processing system according to claim 1.
前記画像処理装置は、特定した前記出血位置を所定の方法で出力する、
請求項1に記載の画像処理システム。
The image processing device outputs the specified bleeding position by a predetermined method.
The image processing system according to claim 1.
前記画像処理装置は、出血が発生したと判定された前記白色光画像が取得された時点から所定の時間遡った時点を起点として、前記起点から所定の時間経過するまでの前記白色光画像を出力する、
請求項1に記載の画像処理システム。
The image processing device outputs the white light image from the starting point to the elapse of a predetermined time, starting from a time point retroactive to a predetermined time from the time when the white light image determined to have caused bleeding has been acquired. do,
The image processing system according to claim 1.
前記画像処理装置は、前記血液量又は前記血液量の変化量の少なくともいずれかが所定の閾値を超えたときに、出血の発生を喚起する所定の信号を出力する、
請求項3に記載の画像処理システム。
The image processing device outputs a predetermined signal for urging the occurrence of bleeding when at least one of the blood volume and the change amount of the blood volume exceeds a predetermined threshold value.
The image processing system according to claim 3.
前記画像処理装置は、前記出血位置を示す表示を最新の前記時点の前記白色光画像に重畳して表示する、
請求項1に記載の画像処理システム。
The image processing device superimposes and displays a display indicating the bleeding position on the latest white light image at the time point.
The image processing system according to claim 1.
前記画像処理装置は、前記白色光画像に表示された領域において、前記血液量の変化量又は前記血液が存在する領域の面積の変化量に応じて、前記出血位置を示す表示を変化させる、
請求項3に記載の画像処理システム。
The image processing device changes the display indicating the bleeding position in the region displayed on the white light image according to the amount of change in the blood volume or the amount of change in the area of the region where the blood is present.
The image processing system according to claim 3.
前記画像処理装置は、前記出血位置が前記手術用カメラにより取得される前記白色光画像に表示された領域から外れた場合に、前記出血位置の方向を示す表示を出力する、
請求項1に記載の画像処理システム。
The image processing device outputs a display indicating the direction of the bleeding position when the bleeding position deviates from the area displayed in the white light image acquired by the surgical camera.
The image processing system according to claim 1.
前記画像処理装置は、前記白色光画像に表示された領域における出血量の変化を出力する、
請求項1に記載の画像処理システム。
The image processing device outputs a change in the amount of bleeding in the region displayed in the white light image.
The image processing system according to claim 1.
前記画像処理装置は、複数の前記異なる時点における前記血液の分布の推移に基づいて、推定された将来の前記血液の分布を出力する、
請求項2に記載の画像処理システム。
The image processing apparatus outputs an estimated future distribution of the blood based on the transition of the distribution of the blood at a plurality of different time points.
The image processing system according to claim 2.
白色光を照射する白色光源を少なくとも有する光源装置からの前記白色光により照明されている、手術が行われている生体の一部である術部を、手術用カメラにより異なる時点で撮像することで得られる複数の白色光画像を用い、当該複数の白色光画像間における前記術部の時間変化に基づいて、前記術部における出血位置を特定する特定部、を備える、
画像処理装置。
By imaging the surgical site, which is a part of the living body under surgery, illuminated by the white light from a light source device having at least a white light source that irradiates white light, at different time points with a surgical camera. Using the obtained plurality of white light images, a specific portion for identifying a bleeding position in the surgical site based on a time change of the surgical site between the plurality of white light images is provided.
Image processing device.
白色光を照射する白色光源を少なくとも有する光源装置からの前記白色光により照明されている、手術が行われている生体の一部である術部を、手術用カメラにより異なる時点で撮像することで得られる複数の白色光画像を用い、当該複数の白色光画像間における前記術部の時間変化に基づいて、前記術部における出血位置を特定すること、を含む
画像処理方法。
By imaging the surgical site, which is a part of the living body under surgery, illuminated by the white light from a light source device having at least a white light source that irradiates white light, at different time points with a surgical camera. An image processing method including identifying a bleeding position in the surgical site based on a time change of the surgical site between the plurality of white light images using the obtained plurality of white light images.
白色光を照射する白色光源を少なくとも有し、手術が行われている生体の一部である術部に対し前記白色光を照射する光源装置、及び、前記光源装置により前記白色光が照射された前記術部の白色光画像を取得する手術用カメラの双方と相互に通信が可能なコンピュータを、
前記手術用カメラによって異なる時間で取得された複数の前記白色光画像を用い、当該複数の画像間における前記術部の時間変化に基づいて、前記術部における出血位置を特定する特定部、として機能させるための、
プログラム。
A light source device that has at least a white light source that irradiates white light and irradiates the surgical site that is a part of the living body undergoing surgery with the white light, and the light source device that irradiates the white light. A computer capable of communicating with both of the surgical cameras that acquire the white light image of the surgical site.
Using the plurality of white light images acquired by the surgical camera at different times, it functions as a specific part for identifying the bleeding position in the surgical part based on the time change of the surgical part between the plurality of images. To make you
program.
JP2018079066A 2018-04-17 2018-04-17 Image processing system, image processing device, image processing method and program Pending JP2021112220A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018079066A JP2021112220A (en) 2018-04-17 2018-04-17 Image processing system, image processing device, image processing method and program
PCT/JP2019/004770 WO2019202827A1 (en) 2018-04-17 2019-02-12 Image processing system, image processing device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018079066A JP2021112220A (en) 2018-04-17 2018-04-17 Image processing system, image processing device, image processing method and program

Publications (1)

Publication Number Publication Date
JP2021112220A true JP2021112220A (en) 2021-08-05

Family

ID=68239509

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018079066A Pending JP2021112220A (en) 2018-04-17 2018-04-17 Image processing system, image processing device, image processing method and program

Country Status (2)

Country Link
JP (1) JP2021112220A (en)
WO (1) WO2019202827A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024004013A1 (en) * 2022-06-28 2024-01-04 国立研究開発法人国立がん研究センター Program, information processing method, and information processing device

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11045075B2 (en) 2018-12-10 2021-06-29 Covidien Lp System and method for generating a three-dimensional model of a surgical site
WO2021152785A1 (en) * 2020-01-30 2021-08-05 株式会社インキュビット Video playback system
US20230069802A1 (en) * 2020-01-30 2023-03-02 Anaut Inc. Recording Medium and Image Playback Method
JPWO2022191129A1 (en) 2021-03-09 2022-09-15
CN116963655A (en) 2021-03-09 2023-10-27 富士胶片株式会社 Endoscope system and working method thereof
CN116963654A (en) 2021-03-09 2023-10-27 富士胶片株式会社 Endoscope system and working method thereof

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011036372A (en) * 2009-08-10 2011-02-24 Tohoku Otas Kk Medical image recording apparatus
JP5510796B2 (en) * 2010-01-12 2014-06-04 独立行政法人産業技術総合研究所 Minimally invasive angiogenesis measuring device
US9877633B2 (en) * 2012-07-25 2018-01-30 Intuitive Surgical Operations, Inc Efficient and interactive bleeding detection in a surgical system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024004013A1 (en) * 2022-06-28 2024-01-04 国立研究開発法人国立がん研究センター Program, information processing method, and information processing device

Also Published As

Publication number Publication date
WO2019202827A1 (en) 2019-10-24

Similar Documents

Publication Publication Date Title
JP2021112220A (en) Image processing system, image processing device, image processing method and program
JP6931121B2 (en) Surgical recognition system
US11819188B2 (en) Machine-learning-based visual-haptic system for robotic surgical platforms
JP7500667B2 (en) Indicator System
US12102397B2 (en) Step-based system for providing surgical intraoperative cues
US20220095903A1 (en) Augmented medical vision systems and methods
JP7542039B2 (en) Automated Endoscopic Video Enhancement
US11266294B2 (en) Image processing device, endoscopic surgery system, and image processing method
KR102214789B1 (en) Dual-mode stereo imaging system for tracking and control in surgical and interventional procedures
CN115279298A (en) Analyzing surgical trends and providing user recommendations via a surgical system
JP2019162339A (en) Surgery supporting system and display method
KR20210056239A (en) Surgical scene assessment based on computer vision
JPWO2018168261A1 (en) CONTROL DEVICE, CONTROL METHOD, AND PROGRAM
US20230225804A1 (en) Systems and methods for tag-based instrument control
JP7354608B2 (en) Medical observation system, medical observation method, and information processing device
CN115443108A (en) Surgical procedure guidance system
CN114025701A (en) Surgical tool tip and orientation determination
JP7146318B1 (en) Computer program, learning model generation method, and surgery support device
US20220148209A1 (en) Medical system, signal processing device, and signal processing method
JP2024513992A (en) System with a camera array deployable outside the channel of a tissue-penetrating surgical device
CN113365569B (en) Robotic surgical method
JP7147890B2 (en) Information processing system, information processing method and program
JP7044140B2 (en) Surgical support system, image processing method and information processing equipment
WO2024004013A1 (en) Program, information processing method, and information processing device
US20240164706A1 (en) In-vivo observation system, observation system, in-vivo observation method, and in-vivo observation device