JP2013094173A - Observation system, marking device, observation device and endoscope diagnostic system - Google Patents

Observation system, marking device, observation device and endoscope diagnostic system Download PDF

Info

Publication number
JP2013094173A
JP2013094173A JP2011236449A JP2011236449A JP2013094173A JP 2013094173 A JP2013094173 A JP 2013094173A JP 2011236449 A JP2011236449 A JP 2011236449A JP 2011236449 A JP2011236449 A JP 2011236449A JP 2013094173 A JP2013094173 A JP 2013094173A
Authority
JP
Japan
Prior art keywords
affected part
information
affected
mark
marking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011236449A
Other languages
Japanese (ja)
Inventor
Noboru Taguchi
昇 田口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Advanced Layers Inc
Original Assignee
Konica Minolta Advanced Layers Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Advanced Layers Inc filed Critical Konica Minolta Advanced Layers Inc
Priority to JP2011236449A priority Critical patent/JP2013094173A/en
Publication of JP2013094173A publication Critical patent/JP2013094173A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Endoscopes (AREA)
  • Laser Surgery Devices (AREA)
  • Surgical Instruments (AREA)

Abstract

PROBLEM TO BE SOLVED: To timely provide affected part information inside a body cavity to a doctor without increasing a work burden on a medical worker such as the doctor.SOLUTION: This observation system includes: a marking device applying marking to an affected part inside the body cavity of a patient; and an observation device displaying the video of the affected part. The marking device has: a storage device allocating a peculiar mark to the affected part information, and storing a database wherein the affected part information and the peculiar mark are associated; a marking unit capable of being introduced into the body cavity; and a drive part driving the marking unit so as to mark the peculiar mark to the affected part or the vicinity of the affected part. The observation device has: an acquisition part acquiring a video signal of the affected part; a detection part detecting the peculiar mark marked to the affected part or the vicinity of the affected part by use of the video signal; an extraction part extracting the affected part information from the database based on the detected peculiar mark; and a display processing part displaying the video of the affected part or the vicinity of the affected part and the affected part information on a screen.

Description

本発明は、体腔内部の観察を行う観察システム、並びにこの観察システムに用いられるマーキング装置及び観察装置に関する。また、本発明は、このマーキング装置又は観察装置を備えた内視鏡診断システムに関する。   The present invention relates to an observation system for observing the inside of a body cavity, and a marking device and an observation device used in this observation system. The present invention also relates to an endoscope diagnosis system provided with this marking device or observation device.

先端部に固体撮像素子等のカメラを備えた内視鏡を用いて体腔(消化器系の場合、食道及び胃等)内部を観察する技術が、広く用いられている。内視鏡は一般に、長尺のプローブ又は処置具等を挿通可能なチャンネルを備えており、内視鏡カメラを用いて体腔内の患部を観察しつつ、プローブを用いて患部について測定を行ったり処置具を用いて患部に処置を施したりすることができる。   A technique for observing the inside of a body cavity (such as the esophagus and stomach in the case of a digestive system) using an endoscope having a camera such as a solid-state imaging device at the tip is widely used. Endoscopes generally have a channel through which a long probe or treatment tool can be inserted, and while observing the affected part in a body cavity using an endoscope camera, the probe is used to measure the affected part. A treatment tool can be used to treat the affected area.

例えば特許文献1には、複数のクリップが装填されているシースを、内視鏡のチャンネルから体腔内部に導入し、これらのクリップを順次使用して患部の生体組織を止血又はマーキングの目的で挟持(クリッピング)する技術が、開示されている。各クリップ上には、シース内のクリップ残数が例えば数字で表示されている。そのため、処置を行う医師は、内視鏡カメラで撮像した体腔内部の映像を画面上で見て、その体腔内部の生体組織を挟持しているクリップ上に表示された数字を確認することができ、この数字からシース内のクリップ残数を把握することができる。   For example, in Patent Document 1, a sheath loaded with a plurality of clips is introduced into a body cavity from an endoscope channel, and these clips are sequentially used to hold a living tissue in an affected area for the purpose of hemostasis or marking. A technique for (clipping) is disclosed. On each clip, the number of remaining clips in the sheath is displayed, for example, as a number. Therefore, the doctor performing the treatment can check the number displayed on the clip holding the living tissue inside the body cavity by viewing the image inside the body cavity captured by the endoscope camera on the screen. From this number, the remaining number of clips in the sheath can be grasped.

特開2009−233315号公報JP 2009-233315 A

ところで、患者の体腔内の患部に手術を施そうとする場合、手術前に、手術対象の患部或いはその周辺の患部についての過去の検査或いは処置に関する情報を参照して、手術における処置方法を検討することは、非常に重要である。これは手術中においても同様である。また、過去の手術或いは投薬等の処置による患部の状態変化を観察してその効果を確認する場合がある。さらに、体内検査の際に、処置を施さないまでも、病変に結び付く可能性のある何らかの兆候を医師が発見したときに、その兆候を発現した患部を所見に基づいて分類しておき、後日その患部について病変が生じているかどうか等を確認する場合もある。ここで、検査或いは処置は、複数回にわたって行われることがあり、検査或いは処置を受けた患部も、複数箇所に点在することがある。そのため、各患部についての毎回の検査或いは処置に関する情報を記録及び管理することが求められる。   By the way, when an operation is to be performed on an affected part in a body cavity of a patient, a treatment method in the operation is examined with reference to information on past examinations or treatments on the affected part to be operated or a surrounding affected part before the operation. It is very important to do. The same is true during surgery. In addition, the effect may be confirmed by observing changes in the state of the affected area due to past operations such as surgery or medication. In addition, when a doctor discovers any signs that may lead to lesions, even if no treatment is performed during the internal examination, the affected areas that have developed the signs are classified based on the findings, and later In some cases, it is confirmed whether or not a lesion has occurred in the affected area. Here, the examination or treatment may be performed a plurality of times, and the affected part that has undergone the examination or treatment may be scattered in a plurality of places. Therefore, it is required to record and manage information on each examination or treatment for each affected part.

しかしながら、多くの情報が記録及び管理されている場合に、例えば手術中に、それらの情報のうち参照したい情報だけを抽出して参照するために何らかの煩雑な手作業が伴えば、手術中の医師等、医療従事者の作業負担を増大させる虞がある。   However, when a lot of information is recorded and managed, for example, during surgery, if some complicated manual operation is involved to extract and refer to only the information that is desired to be referred to, the doctor who is operating There is a risk of increasing the work load of medical staff.

本発明の目的は、医師等の医療従事者の作業負担を増大させることなく、体腔内部の患部情報をタイムリーに医師に提供することができる、観察システム、マーキング装置、観察装置及び内視鏡診断システムを提供することである。   An object of the present invention is to provide an observation system, a marking device, an observation device, and an endoscope that can provide a doctor with timely information on an affected area inside a body cavity without increasing the work burden of a medical staff such as a doctor. It is to provide a diagnostic system.

本発明に係る観察システムは、
患者の体腔内の患部にマーキングを施すマーキング装置と、
前記患部の映像を観察のために表示する観察装置と、を有し、
前記マーキング装置は、
前記患部についての情報である患部情報に、固有のマークを割り当てて、前記患部情報と前記固有のマークとが対応付けられたデータベースを記憶する記憶装置と、
前記体腔に導入可能なマーキングユニットと、
前記固有のマークを前記患部又は患部付近にマーキングするよう前記マーキングユニットを駆動する駆動部と、を有し、
前記観察装置は、
前記患部の映像信号を取得する取得部と、
前記患部又は患部付近にマーキングされた前記固有のマークを、取得された前記映像信号を用いて検出する検出部と、
前記データベースから前記患部情報を、検出された前記固有のマークに基づいて抽出する抽出部と、
取得された前記映像信号に基づく映像と共に、抽出された前記患部情報を、前記画面上に表示させる表示処理部と、を有する。
The observation system according to the present invention is:
A marking device for marking the affected area in the body cavity of the patient;
An observation device for displaying an image of the affected part for observation,
The marking device is
A storage device for storing a database in which a specific mark is assigned to the affected part information, which is information about the affected part, and the affected part information and the unique mark are associated;
A marking unit that can be introduced into the body cavity;
A drive unit that drives the marking unit to mark the unique mark on or near the affected part, and
The observation device includes:
An acquisition unit for acquiring a video signal of the affected area;
A detection unit that detects the unique mark marked on or near the affected part using the acquired video signal;
An extraction unit for extracting the affected area information from the database based on the detected unique mark;
A display processing unit for displaying the extracted affected area information on the screen together with the video based on the acquired video signal.

本発明に係るマーキング装置は、
患者の体腔内の患部についての情報である患部情報に、固有のマークを割り当てて、前記患部情報と前記固有のマークとが対応付けられたデータベースを記憶する記憶装置と、
前記体腔に導入可能なマーキングユニットと、
前記固有のマークを前記患部又は患部付近にマーキングするよう前記マーキングユニットを駆動する駆動部と、
を有する。
The marking device according to the present invention is
A storage device for storing a database in which a unique mark is assigned to the affected part information, which is information about the affected part in the patient's body cavity, and the affected part information and the unique mark are associated with each other;
A marking unit that can be introduced into the body cavity;
A drive unit that drives the marking unit to mark the unique mark on or near the affected part; and
Have

本発明に係る観察装置は、
患者の体腔内の患部の映像信号を取得する取得部と、
前記患部又は患部付近にマーキングされたマークを、取得された前記映像信号を用いて検出する検出部と、
前記患部についての情報である患部情報と前記患部情報に割り当てられた固有のマークとが対応付けられたデータベースから、前記患部情報を、検出された前記マークに基づいて抽出する抽出部と、
取得された前記映像信号に基づく映像と共に、抽出された前記患部情報を、前記画面上に表示させる表示処理部と、
を有する。
The observation apparatus according to the present invention is
An acquisition unit for acquiring a video signal of the affected part in the body cavity of the patient;
A detection unit for detecting a mark marked on or near the affected part using the acquired video signal;
An extraction unit that extracts the diseased part information based on the detected mark from a database in which diseased part information that is information about the diseased part is associated with a unique mark assigned to the diseased part information;
A display processing unit that displays the extracted affected area information on the screen together with the video based on the acquired video signal;
Have

本発明に係る内視鏡診断システムは、
上記のマーキング装置と、
前記体腔に導入可能に形成され、前記患部を撮像する撮像素子を有する内視鏡本体と、
撮像された前記患部の映像信号を処理する内視鏡装置と、を有し、
前記マーキング装置の前記マーキングユニットは、前記内視鏡本体に装着されている。
An endoscopic diagnosis system according to the present invention includes:
The above marking device;
An endoscope body formed so as to be able to be introduced into the body cavity and having an image sensor for imaging the affected area;
An endoscope device that processes the imaged video signal of the affected area,
The marking unit of the marking device is attached to the endoscope body.

本発明に係る内視鏡診断システムは、
上記の観察装置と、
前記体腔に挿入可能に形成され、前記患部を撮像する撮像素子を有する内視鏡本体と、
前記観察装置を内蔵し、撮像された前記患部の映像信号を処理する内視鏡装置と、
を有する。
An endoscopic diagnosis system according to the present invention includes:
The above observation device;
An endoscope main body formed to be insertable into the body cavity and having an image sensor for imaging the affected area;
An endoscope device that incorporates the observation device and processes the imaged video signal of the affected area;
Have

本発明によれば、医師等の医療従事者の作業負担を増大させることなく、体腔内部の患部情報をタイムリーに医師に提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the affected part information inside a body cavity can be provided to a doctor timely, without increasing the work burden of medical workers, such as a doctor.

本発明の実施の形態1に係る内視鏡診断システムの構成を示す図The figure which shows the structure of the endoscope diagnostic system which concerns on Embodiment 1 of this invention. 同実施の形態に係る内視鏡本体の先端部の斜視図The perspective view of the front-end | tip part of the endoscope main body which concerns on the embodiment 同実施の形態に係るマーキングユニットの構成を示す図The figure which shows the structure of the marking unit which concerns on the same embodiment 図3Aのマーキングユニットの駆動状態を示す図The figure which shows the drive state of the marking unit of FIG. 3A 図3Bのマーキングユニットによりマーキングされたマークを示す図The figure which shows the mark marked by the marking unit of FIG. 3B 同実施の形態に係るマーキング動作を説明するためのフロー図Flow chart for explaining the marking operation according to the embodiment 同実施の形態に係る患部IDと患部情報とを対応付けて記録するデータベースを示す図The figure which shows the database which matches and records affected part ID and affected part information which concern on the embodiment 同実施の形態に係る患部IDとマークパターン情報を対応付けて記録するデータベースを示す図The figure which shows the database which matches and records affected part ID and mark pattern information which concern on the embodiment 図4のマーキング動作によりマークを患部付近にマーキングした状態を示す図The figure which shows the state which marked the mark by the marking operation | movement of FIG. 同実施の形態に係る画像処理動作を説明するためのフロー図Flow chart for explaining the image processing operation according to the embodiment 図8の画像処理動作により合成映像を表示した状態を示す図The figure which shows the state which displayed the synthetic | combination image | video by the image processing operation of FIG. 本発明の実施の形態2に係る内視鏡診断システムの構成を示す図The figure which shows the structure of the endoscope diagnostic system which concerns on Embodiment 2 of this invention. 本発明の実施の形態3に係る内視鏡診断システムの構成を示す図The figure which shows the structure of the endoscope diagnostic system which concerns on Embodiment 3 of this invention. 同実施の形態に係る内視鏡本体の先端部の斜視図The perspective view of the front-end | tip part of the endoscope main body which concerns on the embodiment

以下、本発明の実施の形態について、図面を用いて詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

(実施の形態1)
図1は、本発明の実施の形態1に係る内視鏡診断システムの構成を示す図である。図1の内視鏡診断システム1は、内視鏡本体2、内視鏡装置3、ベースユニット4、入力装置6、及びモニター8を有する。なお、図1においては、オプショナルな診断装置として、光学プローブ10及びベースユニット4から構成される光学的な診断装置を装着した例が示されている。
(Embodiment 1)
FIG. 1 is a diagram showing a configuration of an endoscope diagnosis system according to Embodiment 1 of the present invention. The endoscope diagnosis system 1 in FIG. 1 includes an endoscope main body 2, an endoscope apparatus 3, a base unit 4, an input device 6, and a monitor 8. FIG. 1 shows an example in which an optical diagnostic device including an optical probe 10 and a base unit 4 is mounted as an optional diagnostic device.

内視鏡本体2は、体腔内に導入可能に形成された可撓性を有する長尺の導入部21と、導入部21の基端部21aに設けられた操作部22と、操作部22を介して導入部21と内視鏡装置3とを通信可能に接続するケーブル23と、を有する。   The endoscope main body 2 includes a flexible long introduction portion 21 formed so as to be capable of being introduced into a body cavity, an operation portion 22 provided at a proximal end portion 21a of the introduction portion 21, and an operation portion 22. And the cable 23 that connects the introduction unit 21 and the endoscope apparatus 3 so as to communicate with each other.

導入部21は、体腔内部を進入する際に体腔の湾曲に追従して容易に湾曲可能な可撓性を、その略全長にわたって有する。また、導入部21は、操作部22のノブ22aの操作に従って先端部21b側の一定範囲(操作可能部21c)を任意の角度で湾曲させることができる機構(図示せず)を有する。   The introduction portion 21 has flexibility over substantially the entire length so that it can be easily bent following the curvature of the body cavity when entering the inside of the body cavity. In addition, the introduction part 21 has a mechanism (not shown) that can bend a certain range (operable part 21c) on the tip part 21b side at an arbitrary angle in accordance with the operation of the knob 22a of the operation part 22.

導入部21は、その先端部21bの斜視図である図2に示すように、カメラCA、ライトガイドLG、チャンネルCH及びマーキングユニットMUを有する。   As shown in FIG. 2 which is a perspective view of the distal end portion 21b, the introduction portion 21 includes a camera CA, a light guide LG, a channel CH, and a marking unit MU.

ライトガイドLGは、内視鏡装置3の照明光源31により発光された光(可視光)を先端部21bまで導光し、その光を先端部21bから出射させる。   The light guide LG guides light (visible light) emitted from the illumination light source 31 of the endoscope device 3 to the distal end portion 21b and emits the light from the distal end portion 21b.

カメラCAは、固体撮像素子を備えた電子カメラであり、ライトガイドLGから出射された光で照明された領域を撮像し、その信号(撮像信号)を内視鏡装置3に伝送する。   The camera CA is an electronic camera provided with a solid-state image sensor, images an area illuminated with light emitted from the light guide LG, and transmits a signal (imaging signal) to the endoscope apparatus 3.

マーキングユニットMUについては後述する。   The marking unit MU will be described later.

チャンネルCHは、操作部22に形成された導入口22bと連通するように導入部21に形成された例えば2.6mm径の内腔である。チャンネルCHには、患部の観察、患部の診断及び患部の手術等を行うための様々な機器を挿通することができる。例えば、図1に示すように、体腔内の対象部位の検査及び診断を光学的に行うためのプローブ本体11を挿通可能である。   The channel CH is a lumen having a diameter of, for example, 2.6 mm formed in the introduction portion 21 so as to communicate with the introduction port 22 b formed in the operation portion 22. Various devices for observing the affected area, diagnosing the affected area, performing surgery on the affected area, and the like can be inserted into the channel CH. For example, as shown in FIG. 1, a probe main body 11 for optically inspecting and diagnosing a target part in a body cavity can be inserted.

プローブ本体11は、図1に示すように、プローブ基端部11aからプローブ先端部11bまで延在する長尺の可撓性線状部材である。プローブ本体11は、プローブ基端部11aに設けられたコネクターを介してベースユニット4に接続されている。プローブ本体11は、チャンネルCHへの挿通により体腔に導入され、ベースユニット4のレーザー41から発光されたレーザー光を導光し、その光を体腔内の観察対象部位(例えば患部)への照射光として出射する。   As shown in FIG. 1, the probe main body 11 is a long flexible linear member extending from the probe base end portion 11a to the probe tip end portion 11b. The probe body 11 is connected to the base unit 4 via a connector provided at the probe base end portion 11a. The probe main body 11 is introduced into the body cavity by being inserted into the channel CH, guides the laser light emitted from the laser 41 of the base unit 4, and irradiates the light to the observation target site (for example, the affected part) in the body cavity. To be emitted.

また、プローブ本体11は、観察対象部位からの反射光を受光し、その光をベースユニット4の分光器42へ導光する。分光器42へ導光された光は、分光器42によりスペクトル解析を施される。スペクトル解析結果は、コンピューター43のCPU(Central Processing Unit)43aにより画像処理等を施され、グラフとしてモニター7に表示される。CPU43aにおいて病状等についての判定を行い、その判定結果をメモリー43bに保存すると共にモニター7に表示するようにしても良い。また、コンピューター43における各種の解析及び判定の実行及び設定等は、入力装置5(例えばキーボード又はマウス等)を操作することによって行うことができる。   Further, the probe body 11 receives reflected light from the site to be observed and guides the light to the spectroscope 42 of the base unit 4. The light guided to the spectroscope 42 is subjected to spectrum analysis by the spectroscope 42. The spectrum analysis result is subjected to image processing and the like by a CPU (Central Processing Unit) 43a of the computer 43 and displayed on the monitor 7 as a graph. The CPU 43a may determine a medical condition and the like, and the determination result may be stored in the memory 43b and displayed on the monitor 7. The execution and setting of various analyzes and determinations in the computer 43 can be performed by operating the input device 5 (for example, a keyboard or a mouse).

なお、本実施の形態では上記のとおり、内視鏡診断システム1に組み合わせるためのオプショナルな装置として、光学プローブ10と分光法による解析を行うベースユニット4とを使用する構成を例示しているが、これらの使用は一例であり、必須ではない。   In the present embodiment, as described above, the configuration using the optical probe 10 and the base unit 4 that performs the analysis by the spectroscopic method is exemplified as an optional device for combining with the endoscope diagnosis system 1. These uses are examples and are not essential.

マーキングユニットMUは、図2に示すように内視鏡本体2の導入部21の先端部21bに埋設により装着されているため、内視鏡本体2と共に体腔に導入可能である。   As shown in FIG. 2, the marking unit MU is embedded in the distal end portion 21 b of the introduction portion 21 of the endoscope main body 2 and can be introduced into the body cavity together with the endoscope main body 2.

マーキングユニットMUの先端部には、図3Aに示すように多数のAPC(Argon Plasma Coagulation)アプリケーター素子51がマトリクス状に配設されている。   As shown in FIG. 3A, a large number of APC (Argon Plasma Coagulation) applicator elements 51 are arranged in a matrix at the tip of the marking unit MU.

APCアプリケーター素子(以下、単に「素子」という)51は、内視鏡装置3のマーカードライバー32(駆動部)により個別に駆動される。各素子51は、駆動されると、アルゴンガスを噴射すると共にこのアルゴンガスを媒体として高周波電流を流し、これにより、アルゴンガスを吹き付けられた個所の生体組織を焼灼(凝固)させる。したがって、体腔内の任意の部位にマーキングユニットMUを近接させた状態で、任意の素子51を駆動させる(図3B)ことによって、その部位に任意のマーク(図3C)をマーキングすることができる。   APC applicator elements (hereinafter simply referred to as “elements”) 51 are individually driven by a marker driver 32 (drive unit) of the endoscope apparatus 3. Each element 51, when driven, injects argon gas and causes a high-frequency current to flow through the argon gas as a medium, thereby cauterizing (solidifying) the living tissue where the argon gas is blown. Therefore, an arbitrary mark (FIG. 3C) can be marked on the site by driving the arbitrary element 51 in a state where the marking unit MU is brought close to the arbitrary site in the body cavity (FIG. 3B).

なお、本実施の形態では、高周波により体腔内の生体組織を焼灼する非接触型の焼灼方式として周知であるAPCを、マークのマーキング方法として利用しているが、APC以外の方式も使用可能である。例えば、レーザーによる光学的焼灼方式、吸引若しくは押圧による圧痕方式、生体適合材料のプレートによるインプラント方式、又は生体適合材料の色素による入れ墨方式等が使用可能である。   In this embodiment, APC, which is well-known as a non-contact type cauterization method for cauterizing living tissue in a body cavity by high frequency, is used as a mark marking method, but methods other than APC can also be used. is there. For example, an optical cauterization method using a laser, an indentation method using suction or pressing, an implant method using a plate of a biocompatible material, or a tattoo method using a dye of a biocompatible material can be used.

また、本実施の形態では、マークの種類としてマトリクス型二次元コードを採用しているが、これとは異なる種類も使用可能である。例えば、バーコード、文字又は記号等が使用可能である。   In this embodiment, the matrix type two-dimensional code is adopted as the mark type, but a different type can also be used. For example, bar codes, characters or symbols can be used.

内視鏡装置3は、既述の照明光源31及びマーカードライバー32のほかに、映像処理部33、画像処理部34、記憶装置35、及びCPU36を有し、入力装置6及びモニター8に接続されている。   The endoscope device 3 includes a video processing unit 33, an image processing unit 34, a storage device 35, and a CPU 36 in addition to the illumination light source 31 and the marker driver 32 described above, and is connected to the input device 6 and the monitor 8. ing.

映像処理部33は、内視鏡本体2から撮像信号を受信し、この撮像信号に対して所定の信号処理を施し、処理後の信号を内視鏡映像信号としてモニター8に出力して、内視鏡映像信号に基づく映像(内視鏡映像)をモニター8の画面上に表示させる。すなわち、体腔内の患部が撮像されると、その映像がモニター8に表示される。映像処理部33は、内視鏡映像信号を画像処理部34にも出力する。   The video processing unit 33 receives an imaging signal from the endoscope body 2, performs predetermined signal processing on the imaging signal, and outputs the processed signal to the monitor 8 as an endoscope video signal. A video (endoscopic video) based on the endoscope video signal is displayed on the screen of the monitor 8. That is, when the affected part in the body cavity is imaged, the image is displayed on the monitor 8. The video processing unit 33 also outputs the endoscope video signal to the image processing unit 34.

画像処理部34は、患者情報の画像を示す患者情報画像信号を生成し、モニター8の画面上で内視鏡映像に患者情報を重畳させる。画像処理動作については後述する。   The image processing unit 34 generates a patient information image signal indicating an image of patient information, and superimposes the patient information on the endoscope video on the screen of the monitor 8. The image processing operation will be described later.

記憶装置35は、内視鏡装置3に内蔵されたHDD(Hard Disk Drive)等の記憶装置である。なお、記憶装置35は、内視鏡装置3に内蔵されたものでなくても良く、例えば内視鏡装置3に外付けされたものであっても良いし、或いは通信ネットワーク上に存在するものであっても良い。   The storage device 35 is a storage device such as an HDD (Hard Disk Drive) built in the endoscope device 3. Note that the storage device 35 does not have to be built in the endoscope device 3, for example, may be externally attached to the endoscope device 3, or exists on a communication network. It may be.

CPU36は、内視鏡装置3内の上記各部の動作を制御する制御部である。CPU36の制御の実行及び停止、並びに内視鏡装置3への各種情報の入力等は、入力装置6(例えばキーボード又はマウス等)を操作することによって行うことができる。   The CPU 36 is a control unit that controls the operation of each unit in the endoscope apparatus 3. The execution and stop of the control of the CPU 36 and the input of various information to the endoscope device 3 can be performed by operating the input device 6 (for example, a keyboard or a mouse).

次いで、内視鏡診断システム1において実行されるマーキング動作について説明する。図4は、マーキング動作を説明するためのフロー図である。   Next, the marking operation executed in the endoscope diagnosis system 1 will be described. FIG. 4 is a flowchart for explaining the marking operation.

まず、マーキングユニットMUを近接させている患部(マーキング対象患部)の識別情報(患部ID)が選定される(ステップS11)。   First, identification information (affected part ID) of an affected part (marked target affected part) that is approaching the marking unit MU is selected (step S11).

ここで、患部IDは、過去に検査又は処置が施された患部を識別するための情報である。患部IDは、図5に示すように、患者の識別情報(患者ID)、患部についての検査又は処置が行われた日時の情報、及びその検査又は処置についての判定結果の情報と共に、データベースDB1として記憶装置35に記憶されている。患部に関するこれらの情報(以下、総称として「患部情報」という)は、図5に例示した情報に限定されるものではなく、医師による現在又は将来の診断に役立つものであればいかなる情報であっても良い。例えば、検査時又は処置時に撮像された患部の画像情報等も、患部情報として利用可能である。   Here, the affected area ID is information for identifying an affected area that has been previously examined or treated. As shown in FIG. 5, the affected area ID is a database DB1, together with patient identification information (patient ID), information on the date and time when the examination or treatment for the affected area was performed, and information on the determination result about the examination or treatment. It is stored in the storage device 35. These pieces of information relating to the affected area (hereinafter collectively referred to as “affected area information”) are not limited to the information illustrated in FIG. 5, and may be any information that is useful for current or future diagnosis by a doctor. Also good. For example, image information or the like of an affected part imaged at the time of examination or treatment can be used as affected part information.

患部IDの選定は、例えば、入力装置6の操作によって、データベースDB1内の情報を記憶装置35から読み出してモニター8に一覧表示させた後、任意の患部IDを選択することによって、行うことができる。   The affected area ID can be selected, for example, by selecting any affected area ID after reading the information in the database DB1 from the storage device 35 and displaying the list on the monitor 8 by operating the input device 6. .

CPU36は、選定された患部IDに対応する患部情報に所定の計算アルゴリズムを適用することにより、マークのパターンを生成する(ステップS12)。マークのパターンが、マーキング対象患部に固有の情報から生成されるため、患部ごとに異なるマークを得ることができる。また、患部情報は、対応する患部についての過去の検査又は処置に関する情報(履歴情報)を含んでいるため、その情報に変更があれば異なるマークを生成することもできる。よって、1つの患部に対して複数の履歴情報がある場合には、これら複数の履歴情報に対して共通のマークを生成することも、履歴情報ごとに異なるマークを生成することも、可能である。   The CPU 36 generates a mark pattern by applying a predetermined calculation algorithm to the affected area information corresponding to the selected affected area ID (step S12). Since the pattern of the mark is generated from information unique to the affected area to be marked, a different mark can be obtained for each affected area. Further, since the affected area information includes information (history information) related to past examinations or treatments for the corresponding affected area, a different mark can be generated if the information is changed. Therefore, when there are a plurality of pieces of history information for one affected part, it is possible to generate a common mark for the plurality of pieces of history information, or to generate a different mark for each piece of history information. .

なお、生成されるマークのパターンは、入力装置6によるユーザー指示に従ったパターンであっても良い。また、患部情報だけでなく別の情報(例えば、内視鏡本体2の製品シリアル番号、或いは患者についての電子カルテから生成される関連情報等)も加味して、マークのパターンを生成しても良い。   The generated mark pattern may be a pattern in accordance with a user instruction from the input device 6. Further, not only the affected part information but also other information (for example, the product serial number of the endoscope body 2 or related information generated from the electronic medical record about the patient) may be used to generate the mark pattern. good.

本実施の形態では、マークのパターンの生成とは、マーキングの際にオン(駆動状態)にすべき素子51とマーキングの際にオフ(非駆動状態)にすべき素子51とを決定することを意味する。よって、マーキングユニットMUにおいて例えば図3Aに示すように76本の素子51が使用される場合は、パターン生成の結果として得られるマークパターン情報は、各素子51のオンオフを示す情報である。マークパターン情報の一例としては、76桁のビットから成り且つ各桁のビット値により各素子51のオンオフ(例えば、オンの場合、ビット値=1とし、オフの場合、ビット値=0とする)を示すビット列が挙げられる。   In the present embodiment, the generation of the mark pattern means determining the element 51 to be turned on (driving state) at the time of marking and the element 51 to be turned off (non-driving state) at the time of marking. means. Therefore, for example, when 76 elements 51 are used in the marking unit MU as shown in FIG. 3A, the mark pattern information obtained as a result of pattern generation is information indicating on / off of each element 51. As an example of the mark pattern information, each element 51 is composed of 76 digits and the bit value of each digit is turned on / off (for example, bit value = 1 when on, bit value = 0 when off). A bit string indicating

このようにしてCPU36は、患部情報に、固有のマークを割り当てる。   In this way, the CPU 36 assigns a unique mark to the affected area information.

CPU36は、生成されたマークパターン情報を、図6に示すように、患者ID及び患者ID等の患者情報に対応付けてデータベースDB2として記憶装置35に記憶させる(ステップS13)。なお、図5、6のデータベースDB1、DB2は統合されていても良い。   As shown in FIG. 6, the CPU 36 stores the generated mark pattern information in the storage device 35 as the database DB2 in association with patient information such as a patient ID and a patient ID (step S13). The databases DB1 and DB2 in FIGS. 5 and 6 may be integrated.

そして、マーカードライバー32がマークパターン情報に従って各素子51を駆動し、これにより、マーキングユニットMUは、固有のマークをマーキング対象患部又は患部付近にマーキングする(ステップS14)。なお、マークは、図7に示すように患部周辺の部位にマーキングされることが好ましい。   Then, the marker driver 32 drives each element 51 according to the mark pattern information, whereby the marking unit MU marks a unique mark on or near the affected part to be marked (step S14). In addition, it is preferable that a mark is marked on the site | part surrounding an affected part as shown in FIG.

以上のようにして内視鏡診断システム1においてマーキング動作が実行される。   The marking operation is executed in the endoscope diagnosis system 1 as described above.

上記マーキングに関与する記憶装置35、マーカードライバー32及びマーキングユニットMUの組合せは、患者の体腔内の患部又は患部付近にマーキングを施すマーキング装置を構成する。   The combination of the storage device 35, the marker driver 32, and the marking unit MU involved in the marking constitutes a marking device that performs marking on or in the vicinity of the affected part in the body cavity of the patient.

次いで、内視鏡診断システム1において実行される画像処理動作について説明する。図8は、画像処理動作を説明するためのフロー図である。   Next, an image processing operation executed in the endoscope diagnosis system 1 will be described. FIG. 8 is a flowchart for explaining the image processing operation.

まず、画像処理部34は、映像処理部33から内視鏡映像信号を受信する(ステップS21)。すなわち、画像処理部34は、患部の映像信号を取得可能な取得部を構成する。   First, the image processing unit 34 receives an endoscope video signal from the video processing unit 33 (step S21). That is, the image processing unit 34 constitutes an acquisition unit that can acquire a video signal of the affected part.

そして、画像処理部34は、内視鏡映像信号に対して画像認識(例えばパターンマッチング、形状認識、エッジ抽出処理、色抽出又はバーコード認識等)を実行し(ステップS22)、その結果として、患部又は患部付近にマーキングされているマークの位置情報を取得し(ステップS23)、そのマークのパターンを特定する(ステップS24)。つまり、画像認識により、内視鏡映像のどの部分にどのようなマークがあるかが検出される。すなわち、画像処理部34は、患部又は患部付近にマーキングされたマークを、内視鏡画像信号を用いて検出する検出部を構成する。   Then, the image processing unit 34 performs image recognition (for example, pattern matching, shape recognition, edge extraction processing, color extraction, or barcode recognition) on the endoscope video signal (step S22), and as a result, The position information of the mark marked at or near the affected part is acquired (step S23), and the pattern of the mark is specified (step S24). That is, what kind of mark is present in which part of the endoscopic video is detected by image recognition. That is, the image processing unit 34 constitutes a detection unit that detects a mark marked at or near the affected part using an endoscope image signal.

なお、内視鏡診断システム1の解像度はマーク検出に十分なレベルであるものとする。試算によれば、カメラCAと患部との離間距離が5mm、画角が140度、カメラCAの画素数が正方40万画素と仮定すると、1平方mmあたり最大で18×18画素程度の二次元コードのマークを検出可能である。   It is assumed that the resolution of the endoscope diagnosis system 1 is at a level sufficient for mark detection. According to a trial calculation, assuming that the separation distance between the camera CA and the affected part is 5 mm, the angle of view is 140 degrees, and the number of pixels of the camera CA is 400,000 pixels square, the maximum is about 18 × 18 pixels per square mm. The mark of the code can be detected.

マーク検出後、画像処理部34は、データベースDB1、DB2を参照する。そして、画像処理部34は、特定されたパターンを表すマークパターン情報から患部IDを特定し、その患部IDを基に、検出されたマークに対応する患部情報をデータベースDB1から抽出する(ステップS25)。すなわち、画像処理部34は、検出されたマークに基づいて、データベースDB1、DB2から患部情報を抽出する抽出部を構成する。   After the mark detection, the image processing unit 34 refers to the databases DB1 and DB2. Then, the image processing unit 34 specifies the affected part ID from the mark pattern information representing the specified pattern, and extracts the affected part information corresponding to the detected mark from the database DB1 based on the affected part ID (step S25). . That is, the image processing unit 34 constitutes an extraction unit that extracts diseased part information from the databases DB1 and DB2 based on the detected marks.

そして、画像処理部34は、抽出された患部情報のうち、内視鏡映像に重畳して表示する情報を選択する(ステップS26)。文字の情報或いは画像の情報等のように情報の形式による選択を行っても良いし、日時情報或いは判定結果情報等のように情報の内容による選択を行っても良い。また、複数の患部又は患部付近にそれぞれマーキングされた複数のマークが表示及び検出されるときには、複数の患部情報が抽出されることになるが、この場合は、これら複数の患部情報のうちいずれかの患部情報を選択しても良い。この選択は、入力装置6を用いてユーザーが手動で行っても良い。   Then, the image processing unit 34 selects information to be displayed superimposed on the endoscopic video from the extracted affected part information (step S26). Selection may be made according to the information format such as character information or image information, or selection may be made based on the information content such as date / time information or determination result information. In addition, when a plurality of marks each marked at or near a plurality of affected areas are displayed and detected, a plurality of affected area information is extracted. In this case, any one of the plurality of affected area information is extracted. The affected area information may be selected. This selection may be made manually by the user using the input device 6.

そして、画像処理部34は、選択された患部情報を示す患部情報画像信号を生成し(ステップS27)、これをモニター8に出力する(ステップS28)ことによって、モニター8の画面上で患部情報を内視鏡映像に重畳して表示させる。これにより、図9に示すように、内視鏡映像に患部情報が重畳された合成映像をモニター8の画面上に表示することができる。すなわち、内視鏡映像信号をモニター8に出力する映像処理部33と患部情報画像信号をモニター8に出力する画像処理部34との組合せは、内視鏡映像と共に患部情報をモニター8の画面上に表示させる表示処理部を構成する。   Then, the image processing unit 34 generates an affected part information image signal indicating the selected affected part information (step S27), and outputs the signal to the monitor 8 (step S28), whereby the affected part information is displayed on the screen of the monitor 8. It is displayed superimposed on the endoscope video. As a result, as shown in FIG. 9, it is possible to display on the screen of the monitor 8 a composite image in which the affected area information is superimposed on the endoscope image. That is, the combination of the video processing unit 33 that outputs an endoscopic video signal to the monitor 8 and the image processing unit 34 that outputs an affected part information image signal to the monitor 8 allows the affected part information to be displayed on the screen of the monitor 8 together with the endoscopic video. A display processing unit to be displayed is configured.

図9に示すように、合成映像において、検出されたマークを囲む識別表示を追加し、患部情報をこの識別表示に隣接させることによって、表示中の患部情報とその患部情報の表示の根拠となったマークとの対応関係を明確にすることができる。   As shown in FIG. 9, in the composite video, an identification display surrounding the detected mark is added, and the affected area information is adjacent to this identification display, thereby providing a basis for displaying the affected area information being displayed and the affected area information. Correspondence with the mark can be clarified.

なお、表示された合成映像を記憶装置35に記憶させるようにしても良い。   The displayed composite video may be stored in the storage device 35.

また、内視鏡映像に重畳する患部情報を半透過状態で表示させても良い。また、モニター8の画面上で患部情報を、内視鏡映像に重畳せず内視鏡映像の枠外に表示させても良い。患部情報の表示位置は、ユーザーが選択できるようにしても良い。   Further, the affected area information superimposed on the endoscopic image may be displayed in a semi-transmissive state. Further, the affected area information may be displayed outside the frame of the endoscope image without being superimposed on the endoscope image on the screen of the monitor 8. The display position of the affected area information may be selectable by the user.

また、モニター8の画面上に内視鏡映像をそのまま表示させるモードと、モニター8の画面上に合成映像を表示させるモードと、をユーザーが任意に切り替えられるようにしても良い。   In addition, the user may arbitrarily switch between a mode in which the endoscope video is displayed as it is on the screen of the monitor 8 and a mode in which the synthesized video is displayed on the screen of the monitor 8.

また、モニター8の画面上に、複数の患部又は患部付近にそれぞれマーキングされた複数のマークが表示されるときには、これら複数のマークにそれぞれ対応する患部情報を同時に表示させるようにしても良い。この場合、各マークと各患部情報との対応関係が識別可能な態様で、複数のマーク及び複数の患部情報を表示させることが好ましい。対応関係が識別可能な態様とは、例えば色分けである。   In addition, when a plurality of marks each marked at or near the affected area are displayed on the screen of the monitor 8, affected area information corresponding to each of the plurality of marks may be displayed at the same time. In this case, it is preferable to display a plurality of marks and a plurality of affected part information in such a manner that the correspondence between each mark and each affected part information can be identified. The mode in which the correspondence relationship can be identified is, for example, color coding.

以上のようにして内視鏡診断システム1において画像処理動作が実行される。   As described above, the image processing operation is executed in the endoscope diagnosis system 1.

上記合成映像の表示に関与する映像処理部33及び画像処理部34の組合せは、患部の映像を医師の観察のために表示する観察装置を構成する。また、この観察装置と前述のマーキング装置との組合せは、観察システムを構成する。   The combination of the video processing unit 33 and the image processing unit 34 involved in the display of the composite video constitutes an observation apparatus that displays the video of the affected part for the doctor's observation. Moreover, the combination of this observation apparatus and the above-mentioned marking apparatus comprises an observation system.

以上説明したように、本実施の形態によれば、マーキング装置は、患部情報に、固有のマークを割り当てて、患部情報とそのマークとが対応付けられたデータベースDB1、DB2を記憶装置35に記憶させ、マーキングユニットMUによりそのマークを患部又は患部付近にマーキングする。そして、観察装置は、内視鏡映像信号を受信し、この信号を用いてマークを検出し、このマークを基にデータベースDB1、DB2から患部情報を抽出し、この患部情報を内視鏡映像信号と共にモニター8の画面上に表示させる。言い換えれば、患部情報を記号化したマークを予め患部又は患部付近にマーキングしておき、その後に体腔内の患部を撮像した際に、自動的にそのマークを認識して患部情報を患部の映像と共に表示する。その間、特に煩雑な手作業は必要でない。したがって、医師等の医療従事者の作業負担を増大させることなく、医師の診断に役立つ患部情報をタイムリーに医師に提供することができる。その結果として、手術中の医師の術技を簡便化するだけでなく医師の迅速且つ的確な判断に寄与することができる。   As described above, according to the present embodiment, the marking device assigns a unique mark to the affected area information, and stores the databases DB1 and DB2 in which the affected area information and the mark are associated with each other in the storage device 35. The marking unit MU marks the mark at or near the affected area. The observation apparatus receives the endoscope video signal, detects a mark using this signal, extracts affected part information from the databases DB1 and DB2 based on the mark, and uses the affected part information as an endoscope video signal. At the same time, it is displayed on the screen of the monitor 8. In other words, when the mark that symbolizes the affected area information is marked in advance in the vicinity of the affected area or the affected area, and then the affected area in the body cavity is imaged, the mark is automatically recognized and the affected area information is displayed together with the image of the affected area. indicate. Meanwhile, no particularly complicated manual work is necessary. Therefore, the affected part information useful for the diagnosis of the doctor can be provided to the doctor in a timely manner without increasing the work burden of the medical staff such as the doctor. As a result, it is possible not only to simplify the doctor's technique during the operation, but also to contribute to the doctor's quick and accurate judgment.

また、本実施の形態では、マーキングユニットMUを内視鏡本体2に装着し、観察装置を内視鏡装置3に内蔵させたことにより、上記と同様の作用効果を内視鏡手術環境において実現することができる。   In the present embodiment, the marking unit MU is attached to the endoscope body 2 and the observation device is built in the endoscope device 3, so that the same effect as described above is realized in the endoscopic surgical environment. can do.

(実施の形態2)
図10は、本発明の実施の形態2に係る内視鏡診断システムの構成を示す図である。図10に示す本実施の形態の内視鏡診断システムの構成は、図1に示す実施の形態1の内視鏡診断システムの構成と類似する。よって、本実施の形態では、実施の形態1で説明したものと同一の又は対応する構成要素には同一の参照符号を付してその詳細な説明を省略し、実施の形態1との相違点を中心に説明する。
(Embodiment 2)
FIG. 10 is a diagram showing a configuration of an endoscope diagnosis system according to Embodiment 2 of the present invention. The configuration of the endoscope diagnosis system of the present embodiment shown in FIG. 10 is similar to the configuration of the endoscope diagnosis system of the first embodiment shown in FIG. Therefore, in the present embodiment, the same or corresponding components as those described in the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted, and the difference from the first embodiment. The explanation will be focused on.

本実施の形態では、観察装置60は、内視鏡装置3とは別体として形成された筐体を有し、内視鏡装置3に外付けされている。観察装置60は、内視鏡本体2とケーブル24により接続されており、マーカードライバー32、画像処理部34、記憶装置35、映像信号受信部61及びCPU62を有する。   In the present embodiment, the observation device 60 has a housing formed as a separate body from the endoscope device 3 and is externally attached to the endoscope device 3. The observation device 60 is connected to the endoscope body 2 by the cable 24 and includes a marker driver 32, an image processing unit 34, a storage device 35, a video signal receiving unit 61, and a CPU 62.

映像信号受信部61は、内視鏡映像信号の取得部として外部から映像信号を取り込み可能な信号端子を備えており、内視鏡装置3から内視鏡映像信号を受信することができる。信号端子は、例えば、BNC端子、S端子、AV端子、D端子、DV端子、SCART端子、RGB端子、又はHD−MI端子等である。また、映像信号受信部61は、アンプ回路を備えており、受信された内視鏡映像信号を増幅し、増幅後の内視鏡映像信号をモニター64及び画像処理部34に出力する。この結果として、内視鏡映像をモニター64の画面上に表示させることができる。   The video signal receiving unit 61 includes a signal terminal capable of capturing a video signal from the outside as an endoscope video signal acquisition unit, and can receive an endoscope video signal from the endoscope device 3. The signal terminal is, for example, a BNC terminal, S terminal, AV terminal, D terminal, DV terminal, SCART terminal, RGB terminal, or HD-MI terminal. The video signal receiving unit 61 includes an amplifier circuit, amplifies the received endoscope video signal, and outputs the amplified endoscope video signal to the monitor 64 and the image processing unit 34. As a result, an endoscopic video can be displayed on the screen of the monitor 64.

また、画像処理部34は、患部情報画像信号をモニター64に出力する。   Further, the image processing unit 34 outputs an affected part information image signal to the monitor 64.

よって、内視鏡映像に患部情報が重畳された合成映像を、モニター64の画面上に表示することができる。なお、これとは別に、モニター8の画面上に内視鏡映像をそのまま表示させることができる。   Therefore, a composite image in which affected area information is superimposed on an endoscopic image can be displayed on the screen of the monitor 64. Apart from this, the endoscope image can be displayed as it is on the screen of the monitor 8.

CPU62は、観察装置60内の上記各部の動作を制御する制御部である。CPU62の制御の実行及び停止、並びに観察装置60への各種情報の入力等は、入力装置63(例えばキーボード又はマウス等)を操作することによって行うことができる。   The CPU 62 is a control unit that controls the operation of each unit in the observation apparatus 60. The execution and stop of the control of the CPU 62 and the input of various information to the observation device 60 can be performed by operating the input device 63 (for example, a keyboard or a mouse).

本実施の形態では、映像信号受信部61と画像処理部34との組合せが、表示処理部を構成する。   In the present embodiment, the combination of the video signal receiving unit 61 and the image processing unit 34 constitutes a display processing unit.

このように、観察装置60と内視鏡装置3とを併用することによって、実施の形態1で述べたものと同様の作用効果を実現することができる。なお、本実施の形態においては、観察装置60を、内視鏡装置3とは別体にしているので、観察装置60を必要としない内視鏡診断システムが必要とされる場合は、比較的容易にそのようなシステムを製造することができる。この場合、内視鏡本体2の製造段階でマーキングユニットMUを設けないようにすればコスト低減に有利である。   As described above, by using the observation device 60 and the endoscope device 3 in combination, it is possible to realize the same operational effects as those described in the first embodiment. In the present embodiment, since the observation device 60 is separated from the endoscope device 3, when an endoscope diagnosis system that does not require the observation device 60 is required, the observation device 60 is relatively Such a system can be easily manufactured. In this case, if the marking unit MU is not provided in the manufacturing stage of the endoscope main body 2, it is advantageous for cost reduction.

(実施の形態3)
図11は、本発明の実施の形態3に係る内視鏡診断システムの構成を示す図である。図11に示す本実施の形態の内視鏡診断システムの構成は、図10に示す実施の形態2の内視鏡診断システムの構成と類似する。よって、本実施の形態では、実施の形態1、2で説明したものと同一の又は対応する構成要素には同一の参照符号を付してその詳細な説明を省略し、実施の形態1、2との相違点を中心に説明する。
(Embodiment 3)
FIG. 11 is a diagram showing a configuration of an endoscope diagnosis system according to Embodiment 3 of the present invention. The configuration of the endoscope diagnosis system of the present embodiment shown in FIG. 11 is similar to the configuration of the endoscope diagnosis system of the second embodiment shown in FIG. Therefore, in this embodiment, the same or corresponding components as those described in Embodiments 1 and 2 are denoted by the same reference numerals, and detailed description thereof is omitted, and Embodiments 1 and 2 are omitted. The difference will be mainly described.

本実施の形態では、図12に示すように、マーキングユニットMUが、内視鏡本体2の導入部21に装着されておらず、チャンネルCHを介して体腔に導入可能に形成されたユニット本体を有し、ケーブル71により観察装置60に接続されている。   In the present embodiment, as shown in FIG. 12, the marking unit MU is not attached to the introduction part 21 of the endoscope body 2, and a unit body formed so as to be introduced into the body cavity via the channel CH. And connected to the observation device 60 by a cable 71.

したがって、マーキングユニットMUを、内視鏡本体2のチャンネルCHを介して体腔に導入すれば、体腔内の患部又は患部付近にマーキングを施すことができる。   Therefore, if the marking unit MU is introduced into the body cavity via the channel CH of the endoscope main body 2, marking can be performed on the affected part in the body cavity or in the vicinity of the affected part.

本実施の形態においては、観察装置60が内視鏡装置3及び内視鏡本体2とは独立しているため、観察装置60を準備して、既存の内視鏡装置及び内視鏡本体に組み合わせることで、内視鏡診断システムを構成することができる。   In the present embodiment, since the observation device 60 is independent of the endoscope device 3 and the endoscope main body 2, the observation device 60 is prepared, and the existing endoscope device and endoscope main body are installed. By combining them, an endoscope diagnosis system can be configured.

なお、観察装置60は、実施の形態1のように内視鏡装置3に内蔵されていても良い。ここで、マーカードライバー32及びCPU62の組合せが、内視鏡装置3とは別体を成すように配置されていても良い。その場合、マーキングユニットMU、マーカードライバー32及びCPU62から構成されるマーキング装置を、内視鏡診断システム1のオプションユニットとして提供することができる。   Note that the observation apparatus 60 may be incorporated in the endoscope apparatus 3 as in the first embodiment. Here, the combination of the marker driver 32 and the CPU 62 may be arranged so as to be separate from the endoscope apparatus 3. In that case, a marking device including the marking unit MU, the marker driver 32, and the CPU 62 can be provided as an optional unit of the endoscope diagnosis system 1.

以上、本発明の実施の形態について説明した。今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment of the present invention has been described above. The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

1 内視鏡診断システム
2 内視鏡本体
3 内視鏡装置
4 ベースユニット
5、6、63 入力装置
7、8、64 モニター
10 光学プローブ
31 照明光源
32 マーカードライバー
33 映像処理部
34 画像処理部
35 記憶装置
36、62 CPU
51 APCアプリケーター素子
61 映像信号受信部
CA カメラ
CH チャンネル
LG ライトガイド
MU マーキングユニット
DESCRIPTION OF SYMBOLS 1 Endoscope diagnostic system 2 Endoscope main body 3 Endoscope apparatus 4 Base unit 5, 6, 63 Input device 7, 8, 64 Monitor 10 Optical probe 31 Illumination light source 32 Marker driver 33 Image processing part 34 Image processing part 35 Storage device 36, 62 CPU
51 APC Applicator Element 61 Video Signal Receiver CA Camera CH Channel LG Light Guide MU Marking Unit

Claims (10)

患者の体腔内の患部にマーキングを施すマーキング装置と、
前記患部の映像を観察のために表示する観察装置と、を有し、
前記マーキング装置は、
前記患部についての情報である患部情報に、固有のマークを割り当てて、前記患部情報と前記固有のマークとが対応付けられたデータベースを記憶する記憶装置と、
前記体腔に導入可能なマーキングユニットと、
前記固有のマークを前記患部又は患部付近にマーキングするよう前記マーキングユニットを駆動する駆動部と、を有し、
前記観察装置は、
前記患部の映像信号を取得する取得部と、
前記患部又は患部付近にマーキングされた前記固有のマークを、取得された前記映像信号を用いて検出する検出部と、
前記データベースから前記患部情報を、検出された前記固有のマークに基づいて抽出する抽出部と、
取得された前記映像信号に基づく映像と共に、抽出された前記患部情報を、前記画面上に表示させる表示処理部と、を有する、
観察システム。
A marking device for marking the affected area in the body cavity of the patient;
An observation device for displaying an image of the affected part for observation,
The marking device is
A storage device for storing a database in which a specific mark is assigned to the affected part information, which is information about the affected part, and the affected part information and the unique mark are associated;
A marking unit that can be introduced into the body cavity;
A drive unit that drives the marking unit to mark the unique mark on or near the affected part, and
The observation device includes:
An acquisition unit for acquiring a video signal of the affected area;
A detection unit that detects the unique mark marked on or near the affected part using the acquired video signal;
An extraction unit for extracting the affected area information from the database based on the detected unique mark;
A display processing unit for displaying the extracted affected area information on the screen together with a video based on the acquired video signal,
Observation system.
前記制御部は、前記患部についての過去の検査又は処置に関する情報を含む前記患部情報に基づいてマークのパターンを生成することにより、前記患部情報に前記固有のマークを割り当てる、
請求項1に記載の観察システム。
The control unit assigns the unique mark to the affected part information by generating a pattern of the mark based on the affected part information including information on past examinations or treatments about the affected part.
The observation system according to claim 1.
前記表示処理部は、複数の患部又は患部付近にそれぞれマーキングされた複数の固有のマークを前記画面上に表示するとき、いずれかの固有のマークに対応する患部情報を選択的に表示させる、
請求項1又は2に記載の観察システム。
The display processing unit selectively displays the affected part information corresponding to any of the unique marks when displaying on the screen a plurality of unique marks respectively marked near the affected part or a plurality of affected parts.
The observation system according to claim 1 or 2.
前記表示処理部は、複数の患部又は患部付近にそれぞれマーキングされた複数の固有のマークと前記複数の固有のマークにそれぞれ対応する患部情報とを、各固有のマークと各患部情報との対応関係が識別可能な態様で、前記画面上に表示させる、
請求項1又は2に記載の観察システム。
The display processing unit includes a plurality of unique marks each marked at or near a plurality of affected parts and affected part information corresponding to each of the plurality of unique marks, and correspondence between each unique mark and each affected part information. Is displayed on the screen in an identifiable manner,
The observation system according to claim 1 or 2.
患者の体腔内の患部についての情報である患部情報に、固有のマークを割り当てて、前記患部情報と前記固有のマークとが対応付けられたデータベースを記憶する記憶装置と、
前記体腔に導入可能なマーキングユニットと、
前記固有のマークを前記患部又は患部付近にマーキングするよう前記マーキングユニットを駆動する駆動部と、
を有するマーキング装置。
A storage device for storing a database in which a unique mark is assigned to the affected part information, which is information about the affected part in the patient's body cavity, and the affected part information and the unique mark are associated with each other;
A marking unit that can be introduced into the body cavity;
A drive unit that drives the marking unit to mark the unique mark on or near the affected part; and
Marking device having
前記マーキングユニットは、内視鏡本体とは別体として形成され、前記内視鏡本体のチャンネルを介して前記体腔に導入される、
請求項5に記載のマーキング装置。
The marking unit is formed as a separate body from the endoscope main body, and is introduced into the body cavity via a channel of the endoscope main body.
The marking device according to claim 5.
患者の体腔内の患部の映像信号を取得する取得部と、
前記患部又は患部付近にマーキングされたマークを、取得された前記映像信号を用いて検出する検出部と、
前記患部についての情報である患部情報と前記患部情報に割り当てられた固有のマークとが対応付けられたデータベースから、前記患部情報を、検出された前記マークに基づいて抽出する抽出部と、
取得された前記映像信号に基づく映像と共に、抽出された前記患部情報を、前記画面上に表示させる表示処理部と、
を有する観察装置。
An acquisition unit for acquiring a video signal of the affected part in the body cavity of the patient;
A detection unit for detecting a mark marked on or near the affected part using the acquired video signal;
An extraction unit that extracts the diseased part information based on the detected mark from a database in which diseased part information that is information about the diseased part is associated with a unique mark assigned to the diseased part information;
A display processing unit that displays the extracted affected area information on the screen together with the video based on the acquired video signal;
An observation device.
内視鏡装置に外付けされ、
前記取得部は、前記内視鏡装置から出力された前記映像信号を受信する、
請求項7に記載の観察装置。
Attached to the endoscope device,
The acquisition unit receives the video signal output from the endoscope device;
The observation apparatus according to claim 7.
請求項5に記載のマーキング装置と、
前記体腔に導入可能に形成され、前記患部を撮像する撮像素子を有する内視鏡本体と、
撮像された前記患部の映像信号を処理する内視鏡装置と、を有し、
前記マーキング装置の前記マーキングユニットは、前記内視鏡本体に装着されている、
内視鏡診断システム。
A marking device according to claim 5;
An endoscope body formed so as to be able to be introduced into the body cavity and having an image sensor for imaging the affected area;
An endoscope device that processes the imaged video signal of the affected area,
The marking unit of the marking device is attached to the endoscope body,
Endoscopic diagnosis system.
請求項7に記載の観察装置と、
前記体腔に挿入可能に形成され、前記患部を撮像する撮像素子を有する内視鏡本体と、
前記観察装置を内蔵し、撮像された前記患部の映像信号を処理する内視鏡装置と、
を有する内視鏡診断システム。
An observation device according to claim 7;
An endoscope main body formed to be insertable into the body cavity and having an image sensor for imaging the affected area;
An endoscope device that incorporates the observation device and processes the imaged video signal of the affected area;
Endoscopic diagnosis system having
JP2011236449A 2011-10-27 2011-10-27 Observation system, marking device, observation device and endoscope diagnostic system Pending JP2013094173A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011236449A JP2013094173A (en) 2011-10-27 2011-10-27 Observation system, marking device, observation device and endoscope diagnostic system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011236449A JP2013094173A (en) 2011-10-27 2011-10-27 Observation system, marking device, observation device and endoscope diagnostic system

Publications (1)

Publication Number Publication Date
JP2013094173A true JP2013094173A (en) 2013-05-20

Family

ID=48616814

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011236449A Pending JP2013094173A (en) 2011-10-27 2011-10-27 Observation system, marking device, observation device and endoscope diagnostic system

Country Status (1)

Country Link
JP (1) JP2013094173A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150006807A (en) * 2013-07-09 2015-01-19 주식회사바텍 method and system for diagnosis of oral lesion using medical image
WO2016185912A1 (en) * 2015-05-19 2016-11-24 ソニー株式会社 Image processing apparatus, image processing method, and surgical system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150006807A (en) * 2013-07-09 2015-01-19 주식회사바텍 method and system for diagnosis of oral lesion using medical image
KR101684998B1 (en) 2013-07-09 2016-12-12 주식회사바텍 method and system for diagnosis of oral lesion using medical image
WO2016185912A1 (en) * 2015-05-19 2016-11-24 ソニー株式会社 Image processing apparatus, image processing method, and surgical system
US10413369B2 (en) 2015-05-19 2019-09-17 Sony Corporation Device, method, and system for image guided surgical resection

Similar Documents

Publication Publication Date Title
JP6905274B2 (en) Devices, systems, and methods for mapping tissue oxygenation
US20220133416A1 (en) Medical user interfaces and related methods of use
JP4477230B2 (en) Optical student examination apparatus and tissue diagnosis method
EP1867271B1 (en) Endoscope insertion shape detecting device
US8965474B2 (en) Tissue imaging system and in vivo monitoring method
US20070015989A1 (en) Endoscope Image Recognition System and Method
US20070015967A1 (en) Autosteering vision endoscope
CN107427202B (en) Device, system and method for illuminating a structure of interest inside a human or animal body
JP2009512539A (en) System and method for non-endoscopic optical biopsy detection of diseased tissue
US20210186594A1 (en) Heat invasion observation apparatus, endoscope system, heat invasion observation system, and heat invasion observation method
US20230081866A1 (en) Methods and systems for generating simulated intraoperative imaging data of a subject
US11867896B2 (en) Endoscope system and medical image processing system
Seibel et al. Scanning single fiber endoscopy: a new platform technology for integrated laser imaging, diagnosis, and future therapies
WO2020188682A1 (en) Diagnosis support device, diagnosis support method, and program
US8979737B2 (en) Control apparatus, bio-optical measurement apparatus and endoscope system
JP2010000284A (en) Surgical procedure using ic tag
US20230360221A1 (en) Medical image processing apparatus, medical image processing method, and medical image processing program
JP2013094173A (en) Observation system, marking device, observation device and endoscope diagnostic system
US20230092920A1 (en) Systems and methods of analyzing a kidney stone
WO2020203034A1 (en) Endoscopic system
US20230248209A1 (en) Assistant device, endoscopic system, assistant method, and computer-readable recording medium
WO2015069657A1 (en) Advanced systems and methods for providing real-time anatomical guidance in a diagnostic or therapeutic procedure
JPWO2015182674A1 (en) Control device, bio-optical measurement device, and endoscope system
WO2021206557A1 (en) A surgical tool, system and method for tissue characterisation
JP2021065293A (en) Image processing method, image processing device, image processing program, teacher data generation method, teacher data generation device, teacher data generation program, learned model generation method, learned model generation device, diagnosis support method, diagnosis support device, diagnosis support program, and recording medium that records the program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20130417