JP2011200283A - Controller, endoscope system, program, and control method - Google Patents

Controller, endoscope system, program, and control method Download PDF

Info

Publication number
JP2011200283A
JP2011200283A JP2010067706A JP2010067706A JP2011200283A JP 2011200283 A JP2011200283 A JP 2011200283A JP 2010067706 A JP2010067706 A JP 2010067706A JP 2010067706 A JP2010067706 A JP 2010067706A JP 2011200283 A JP2011200283 A JP 2011200283A
Authority
JP
Japan
Prior art keywords
image
endoscope
light image
vivo data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010067706A
Other languages
Japanese (ja)
Inventor
Keiji Higuchi
圭司 樋口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2010067706A priority Critical patent/JP2011200283A/en
Publication of JP2011200283A publication Critical patent/JP2011200283A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a controller for improving detection precision of an affected part, and to provide an endoscope system, a program, a control method, and the like.SOLUTION: The controller 18 includes a first in vivo data acquisition part 185, a second in vivo data acquisition part 186, and an output control unit 181. A special optical image is acquired by a first endoscope apparatus 10, an image including a region of interest is detected from the inside of the special optical image, and a position of interest information showing the position of the first endoscope apparatus 10 when the image including the region of interest is picked up. In such a case, the first in vivo data acquisition part 185 acquires the first in vivo data including position of interest information. The second in vivo data acquisition part 186 acquires second in vivo data including second positional information showing the position of a second endoscope apparatus 15. The output control unit 181 outputs guide information for guiding the second endoscope apparatus 15 on the basis of the first in vivo data and the second in vivo data.

Description

本発明は、制御装置、内視鏡システム、プログラム及び制御方法等に関する。   The present invention relates to a control device, an endoscope system, a program, a control method, and the like.

近年では、体腔検査において患者が飲み込んで使用するカプセル型内視鏡が普及している。このカプセル型内視鏡は、各臓器を通過する際に体腔内を順次撮影していき、医師は、撮影完了後にその画像をチェックすることで病変の検出や診断を行う。   In recent years, capsule endoscopes that are swallowed and used by patients in body cavity examinations have become widespread. This capsule endoscope sequentially captures the inside of a body cavity when passing through each organ, and a doctor checks the image after completion of imaging to detect or diagnose a lesion.

特開2009−22446号公報JP 2009-22446 A

しかしながら、カプセル型内視鏡は病変の検出を行うものであり、検出した病変の処置にはスコープ型内視鏡を用いるのが一般的である。そのため、医師が処置する際には、カプセル型内視鏡で検出された病変の位置へスコープ型内視鏡を操作する必要があるという課題がある。   However, the capsule endoscope detects a lesion, and a scope endoscope is generally used to treat the detected lesion. Therefore, when a doctor treats, there is a problem that it is necessary to operate the scope endoscope to the position of the lesion detected by the capsule endoscope.

例えば特許文献1には、体内の画像を取得する処理などの体内検出処理によって取得されたデータを受信し、その受信したデータを解析して統合表示する手法が開示されている。この手法では、例えば、カプセル内視鏡による処理を最初に行って患者の特定の病状についての情報を取得し、その取得された情報をダブルバルーンカプセル内視鏡による処理に使用する。   For example, Patent Literature 1 discloses a technique for receiving data acquired by in-vivo detection processing such as processing for acquiring an in-vivo image, and analyzing and displaying the received data in an integrated manner. In this technique, for example, information about a specific medical condition of a patient is acquired by first performing processing with a capsule endoscope, and the acquired information is used for processing with a double balloon capsule endoscope.

しかしながら、この手法では、多種多様な病変を精度良く検出することが困難であるという課題がある。例えば、カプセル内視鏡において白色光のみを用いて画像を取得した場合、画像処理や医師による目視において検出が困難な病変も存在する。   However, this method has a problem that it is difficult to accurately detect a wide variety of lesions. For example, when an image is acquired using only white light in a capsule endoscope, there is a lesion that is difficult to detect by image processing or visual inspection by a doctor.

本発明の幾つかの態様によれば、病変の検出精度を向上する制御装置、内視鏡システム、プログラム及び制御方法等を提供できる。   According to some aspects of the present invention, it is possible to provide a control device, an endoscope system, a program, a control method, and the like that improve the detection accuracy of a lesion.

本発明の一態様は、特定の波長帯域の情報を含む特殊光画像が第1の内視鏡装置により取得され、注目すべき領域である注目領域を含む画像が前記特殊光画像の中から検出され、前記注目領域を含む画像が撮像された際の前記第1の内視鏡装置の位置を示す注目位置情報が取得される場合に、前記注目位置情報を含む前記第1の体内データを取得する第1体内データ取得部と、白色光の波長帯域の情報を含む通常光画像が第2の内視鏡装置により取得される場合に、前記第2の内視鏡装置により取得された前記通常光画像と、前記第2の内視鏡装置の位置を示す第2の位置情報とを含む前記第2の体内データを取得する第2体内データ取得部と、前記第1の体内データと前記第2の体内データに基づいて、前記第2の内視鏡装置を誘導するための誘導情報を出力する制御を行う出力制御部と、を含む制御装置に関係する。   In one embodiment of the present invention, a special light image including information of a specific wavelength band is acquired by the first endoscope device, and an image including a region of interest that is a region of interest is detected from the special light image The first in-vivo data including the attention position information is acquired when attention position information indicating the position of the first endoscope apparatus when the image including the attention area is captured is acquired. The first in-vivo data acquisition unit, and the normal image acquired by the second endoscope device when the normal light image including the information of the wavelength band of white light is acquired by the second endoscope device. A second in-vivo data acquisition unit that acquires the second in-vivo data including an optical image and second position information indicating the position of the second endoscope device; the first in-vivo data; Based on the in-vivo data of 2, the second endoscope apparatus is guided An output control unit for performing control to output the guidance information of, relating to a control device including a.

本発明の一態様によれば、第2の内視鏡装置が使用される際に、第1の体内データと第2の体内データに基づいて誘導情報を出力することが可能になる。また、注目領域を含む画像を特殊光画像の中から検出することが可能になる。   According to one aspect of the present invention, when the second endoscope apparatus is used, it is possible to output guidance information based on the first in-vivo data and the second in-vivo data. In addition, an image including a region of interest can be detected from the special light image.

また、本発明の他の態様は、特定の波長帯域の情報を含む特殊光画像を取得する第1の内視鏡装置と、前記第1の内視鏡装置により取得された前記特殊光画像の中から、注目すべき領域である注目領域を含む画像を検出する注目領域検出部と、前記注目領域を含む画像が撮像された際の前記第1の内視鏡装置の位置を示す注目位置情報を取得する第1位置情報取得部と、白色光の波長帯域の情報を含む通常光画像を取得する第2の内視鏡装置と、前記注目位置情報を含む情報を第1の体内データとして取得する第1体内データ取得部と、前記第2の内視鏡装置により取得された前記通常光画像と、前記第2の内視鏡装置の位置を示す第2の位置情報を含む情報を第2の体内データとして取得する第2体内データ取得部と、前記第1の体内データと前記第2の体内データに基づいて、前記第2の内視鏡装置を誘導するための誘導情報を出力する制御を行う出力制御部と、を含む内視鏡システムに関係する。   According to another aspect of the present invention, a first endoscope device that acquires a special light image including information of a specific wavelength band, and the special light image acquired by the first endoscope device are provided. Attention position information indicating the position of the first endoscope apparatus when an image including the attention area is picked up, and an attention area detection section that detects an image including the attention area that is an attention area A first position information acquisition unit that acquires information, a second endoscope device that acquires a normal light image including information on the wavelength band of white light, and information including the attention position information is acquired as first in-vivo data Information including a first in-vivo data acquisition unit, the normal light image acquired by the second endoscopic device, and second position information indicating the position of the second endoscopic device. A second in-vivo data acquisition unit for acquiring in-vivo data, and the first in-vivo data Based on the second body data and relates to an endoscope system including and an output control unit for performing control to output the guidance information for guiding the second endoscope device.

また、本発明の他の態様は、特定の波長帯域の情報を含む特殊光画像と、白色光の波長帯域の情報を含む第1の通常光画像とを取得する第1の内視鏡装置と、白色光の波長帯域の情報を含む第2の通常光画像を取得する第2の内視鏡装置と、前記特殊光画像の中から、注目すべき領域である注目領域を含む画像を検出する注目領域検出部と、前記第1の通常光画像を含む第1の体内データを取得する第1体内データ取得部と、前記第2の通常光画像を含む第2の体内データを取得する第2体内データ取得部と、前記第1体内データの前記第1の通常光画像と、前記第2の体内データの前記第2の通常光画像を対応付ける画像対応付け部と、前記画像対応付け部による対応付の結果に基づいて、前記第2の内視鏡装置を誘導するための誘導情報を出力する制御を行う出力制御部と、を含み、前記第1の内視鏡装置は、前記注目領域検出部により前記特殊光画像の中から前記注目領域を含む画像が検出された場合に、前記注目領域を含む画像が撮像された位置における前記第1の通常光画像を取得し、前記画像対応付け部は、前記注目領域を含む画像が撮像された位置における前記第1の通常光画像と、前記第2の通常光画像を対応付ける内視鏡システムに関係する。   According to another aspect of the present invention, a first endoscope apparatus that acquires a special light image including information on a specific wavelength band and a first normal light image including information on a wavelength band of white light; A second endoscope device that acquires a second normal light image including information on a wavelength band of white light, and an image including a region of interest that is a region of interest from the special light image is detected. A region of interest detection unit, a first in-vivo data acquisition unit that acquires first in-vivo data including the first normal light image, and a second that acquires second in-vivo data including the second normal light image Correspondence by the in-vivo data acquisition unit, the first normal light image of the first in-vivo data, the second normal light image of the second in-vivo data, and the image association unit Guide information for guiding the second endoscopic device based on the attached result An output control unit that performs output control, wherein the first endoscopic device detects the image including the region of interest from the special light image by the region of interest detection unit. The first normal light image at a position where an image including a region of interest is captured is acquired, and the image association unit includes the first normal light image at a position where an image including the region of interest is captured; The present invention relates to an endoscope system that associates the second normal light image.

また、本発明の他の態様は、特定の波長帯域の情報を含む第1の特殊光画像を取得する第1の内視鏡装置と、特定の波長帯域の情報を含む第2の特殊光画像を取得する第2の内視鏡装置と、前記第1の特殊光画像の中から、注目すべき領域である注目領域を含む特殊光画像を検出する注目領域検出部と、前記注目領域検出部により検出された特殊光画像を含む第1の体内データを取得する第1体内データ取得部と、前記第2の内視鏡装置により取得された前記第2の特殊光画像を含む第2の体内データを取得する第2体内データ取得部と、前記第1体内データの特殊光画像と、前記第2の体内データの前記第2の特殊光画像を対応付ける画像対応付け部と、前記画像対応付け部による対応付の結果に基づいて、前記第2の内視鏡装置を誘導するための誘導情報を出力する制御を行う出力制御部と、を含む内視鏡システムに関係する。   According to another aspect of the present invention, a first endoscope device that acquires a first special light image including information on a specific wavelength band, and a second special light image including information on a specific wavelength band are provided. A second endoscopic device that acquires a target area, a target area detection unit that detects a special light image including a target area that is a target area from the first special light image, and the target area detection unit A first in-vivo data acquiring unit that acquires first in-vivo data including the special light image detected by the second in-vivo data, and a second in-vivo including the second special light image acquired by the second endoscope device A second in-vivo data acquisition unit for acquiring data, a special light image of the first in-vivo data, an image association unit for associating the second special light image of the second in-vivo data, and the image association unit The second endoscope apparatus is guided based on the result of the association by An output control unit for performing control to output the guidance information for, related to the endoscope system including the.

また、本発明の他の態様は、白色光の波長帯域の情報を含む第1の通常光画像を取得する第1の内視鏡装置と、白色光の波長帯域の情報を含む第2の通常光画像を取得する第2の内視鏡装置と、前記第1の通常光画像の中から、注目すべき領域である注目領域を含む通常光画像を検出する注目領域検出部と、前記注目領域検出部により検出された通常光画像を含む第1の体内データを取得する第1体内データ取得部と、前記第2の内視鏡装置により取得された前記第2の通常光画像を含む第2の体内データを取得する第2体内データ取得部と、前記第1体内データの通常光画像と、前記第2の体内データの前記第2の通常光画像を対応付ける画像対応付け部と、前記画像対応付け部による対応付の結果に基づいて、前記第2の内視鏡装置を誘導するための誘導情報を出力する制御を行う出力制御部と、を含む内視鏡システムに関係する。   In another aspect of the present invention, a first endoscope device that acquires a first normal light image including information on the wavelength band of white light, and a second normal that includes information on the wavelength band of white light. A second endoscope device that acquires a light image; a region of interest detection unit that detects a normal light image including a region of interest that is a region of interest from the first normal light image; and the region of interest A first in-vivo data acquisition unit that acquires first in-vivo data including a normal light image detected by the detection unit; and a second that includes the second normal light image acquired by the second endoscope device. A second in-vivo data acquisition unit for acquiring the in-vivo data, an ordinary light image of the first in-vivo data, an image association unit for associating the second ordinary light image of the second in-vivo data, and the image correspondence Based on the result of the correspondence by the attaching unit, the second endoscope apparatus is invited. An output control unit for controlling outputting the guidance information to be related to an endoscope system including a.

また、本発明の他の態様は、特定の波長帯域の情報を含む特殊光画像が第1の内視鏡装置により取得され、注目すべき領域である注目領域を含む画像が前記特殊光画像の中から検出され、前記注目領域を含む画像が撮像された際の前記第1の内視鏡装置の位置を示す注目位置情報が取得される場合に、前記注目位置情報を含む前記第1の体内データを取得する第1体内データ取得部と、白色光の波長帯域の情報を含む通常光画像が第2の内視鏡装置により取得される場合に、前記第2の内視鏡装置により取得された前記通常光画像と、前記第2の内視鏡装置の位置を示す第2の位置情報とを含む前記第2の体内データを取得する第2体内データ取得部と、前記第1の体内データと前記第2の体内データに基づいて、前記第2の内視鏡装置を誘導するための前記誘導情報を出力する制御を行う出力制御部として、コンピュータを機能させるプログラムに関係する。   According to another aspect of the present invention, a special light image including information on a specific wavelength band is acquired by the first endoscope device, and an image including a region of interest that is a region of interest is the special light image. The first body including the attention position information when attention position information indicating the position of the first endoscope apparatus when the image including the attention area is captured is acquired from the inside. A first in-vivo data acquisition unit for acquiring data and a normal light image including information on the wavelength band of white light are acquired by the second endoscope device, and are acquired by the second endoscope device. A second in-vivo data acquisition unit that acquires the second in-vivo data including the normal light image and second position information indicating the position of the second endoscope device; and the first in-vivo data. And inviting the second endoscopic device based on the second in-vivo data. An output control unit for performing control for outputting the guidance information to be a program causing a computer to function.

また、本発明の他の態様は、特定の波長帯域の情報を含む特殊光画像が第1の内視鏡装置により取得され、注目すべき領域である注目領域を含む画像が前記特殊光画像の中から検出され、前記注目領域を含む画像が撮像された際の前記第1の内視鏡装置の位置を示す注目位置情報が取得される場合に、前記注目位置情報を含む前記第1の体内データを取得し、白色光の波長帯域の情報を含む通常光画像が第2の内視鏡装置により取得される場合に、前記第2の内視鏡装置により取得された前記通常光画像と、前記第2の内視鏡装置の位置を示す第2の位置情報とを含む前記第2の体内データを取得し、前記第1の体内データと前記第2の体内データに基づいて、前記第2の内視鏡装置を誘導するための前記誘導情報を出力する制御方法に関係する。   According to another aspect of the present invention, a special light image including information on a specific wavelength band is acquired by the first endoscope device, and an image including a region of interest that is a region of interest is the special light image. The first body including the attention position information when attention position information indicating the position of the first endoscope apparatus when the image including the attention area is captured is acquired from the inside. The normal light image obtained by the second endoscopic device when data is obtained and a normal light image including information on the wavelength band of white light is obtained by the second endoscopic device; The second in-vivo data including second position information indicating the position of the second endoscopic device is acquired, and the second in-vivo data is obtained based on the first in-vivo data and the second in-vivo data. Related to a control method for outputting the guidance information for guiding an endoscope apparatus That.

また、本発明の他の態様は、特定の波長帯域の情報を含む特殊光画像を第1の内視鏡装置により取得し、前記第1の内視鏡装置により取得された前記特殊光画像の中から、注目すべき領域である注目領域を含む画像を検出し、前記注目領域を含む画像が撮像された際の前記第1の内視鏡装置の位置を示す注目位置情報を取得し、白色光の波長帯域の情報を含む通常光画像を第2の内視鏡装置により取得し、前記注目位置情報を含む情報を第1の体内データとして取得し、前記第2の内視鏡装置により取得された前記通常光画像と、前記第2の内視鏡装置の位置を示す第2の位置情報を含む情報を第2の体内データとして取得し、前記第1の体内データと前記第2の体内データに基づいて、前記第2の内視鏡装置を誘導するための誘導情報を出力する制御を行う制御方法に関係する。   In another aspect of the present invention, a special light image including information of a specific wavelength band is acquired by the first endoscope device, and the special light image acquired by the first endoscope device is acquired. An image including a region of interest, which is a region of interest, is detected, and attention position information indicating the position of the first endoscope device when the image including the region of interest is captured is acquired. A normal light image including information on the wavelength band of light is acquired by the second endoscope device, information including the attention position information is acquired as first in-vivo data, and acquired by the second endoscope device Information including the normal light image and the second position information indicating the position of the second endoscope device is acquired as second in-vivo data, and the first in-vivo data and the second in-vivo data are acquired. Based on the data, guidance information for guiding the second endoscope apparatus is output. Relating to the control method performs control to.

また、本発明の他の態様は、特定の波長帯域の情報を含む特殊光画像を第1の内視鏡装置により取得し、前記第1の内視鏡装置により取得された前記特殊光画像の中から、注目すべき領域である注目領域を含む画像を検出し、前記注目領域を含む画像が検出された場合に、前記注目領域を含む画像が撮像された位置における、白色光の波長帯域の情報を含む第1の通常光画像を取得し、前記注目領域を含む画像が撮像された位置における前記第1の通常光画像を含む第1の体内データを取得し、白色光の波長帯域の情報を含む第2の通常光画像を第2の内視鏡装置により取得し、前記第2の通常光画像を含む第2の体内データを取得し、前記第1体内データの前記第1の通常光画像と、前記第2の体内データの前記第2の通常光画像を対応付け、前記画像対応付け部による対応付の結果に基づいて、前記第2の内視鏡装置を誘導するための誘導情報を出力する制御を行う制御方法に関係する。   In another aspect of the present invention, a special light image including information of a specific wavelength band is acquired by the first endoscope device, and the special light image acquired by the first endoscope device is acquired. When an image including a region of interest, which is a region of interest, is detected, and an image including the region of interest is detected, the wavelength band of white light at the position where the image including the region of interest is captured is detected. A first normal light image including information is acquired, first in-vivo data including the first normal light image at a position where the image including the region of interest is captured, and information on the wavelength band of white light Is acquired by a second endoscope device, second in-vivo data including the second normal light image is acquired, and the first normal light of the first in-vivo data is acquired. Associating the image with the second normal light image of the second in-vivo data , The image based on the result of with response by associating unit, related to the control method for performing control to output the guidance information for guiding the second endoscope device.

本実施形態の第1のシステム構成例。The 1st system configuration example of this embodiment. 受信機と受信装置の装着についての説明図。Explanatory drawing about mounting | wearing of a receiver and a receiver. 位置情報、検出情報の説明図。Explanatory drawing of position information and detection information. 出力制御部の第1の詳細な構成例。The 1st detailed structural example of an output control part. ナビゲーション情報の表示例。A display example of navigation information. 出力制御部の第2の詳細な構成例。The 2nd detailed structural example of an output control part. ナビゲーション情報の表示例。A display example of navigation information. 出力制御部の第3の詳細な構成例。The 3rd detailed structural example of an output control part. 体内マップの説明図。Explanatory drawing of a body map. 体内マップの表示例。Display example of in-vivo map. 本実施形態の第2のシステム構成例。The 2nd system configuration example of this embodiment. 本実施形態の第3のシステム構成例。The 3rd system configuration example of this embodiment. 第3のシステム構成例の動作説明図。Operation | movement explanatory drawing of the 3rd system configuration example. カプセル型内視鏡の第1の詳細な構成例。1 is a first detailed configuration example of a capsule endoscope. 特殊光光源が照射する特殊光の例。An example of special light emitted by a special light source. 図16(A)は、白色光光源が照射する白色光の例であり、図16(B)は、特殊光を透過するフィルタの例である。FIG. 16A is an example of white light emitted from a white light source, and FIG. 16B is an example of a filter that transmits special light. カプセル型内視鏡の第2の詳細な構成例。The 2nd detailed structural example of a capsule type | mold endoscope. ソフトウェア処理で用いられるコンピュータの構成例。The structural example of the computer used by software processing. ソフトウェア処理で用いられるコンピュータの構成例。The structural example of the computer used by software processing. 本実施形態の処理を説明するためのフローチャート。The flowchart for demonstrating the process of this embodiment. 本実施形態の処理を説明するためのフローチャート。The flowchart for demonstrating the process of this embodiment. 本実施形態の処理を説明するためのフローチャート。The flowchart for demonstrating the process of this embodiment. 本実施形態の処理を説明するためのフローチャート。The flowchart for demonstrating the process of this embodiment.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.システム構成例
上述のように、カプセル型内視鏡を用いて病変を検出し、その病変の処置をスコープ型内視鏡を用いて行う場合、検出した病変の場所を医師が探す必要があるという課題がある。また、病変検出の確実性を向上するという課題がある。本実施形態では、特殊光画像を用いて病変の検出を行うことで病変検出の確実性を向上し、検出された病変の場所に誘導するためのナビゲーション情報を医師に提供する。図1に、この本実施形態のシステム構成例を示す。
1. System configuration example As described above, when a lesion is detected using a capsule endoscope and the treatment of the lesion is performed using a scope endoscope, a doctor needs to find the location of the detected lesion There are challenges. There is also a problem of improving the certainty of lesion detection. In this embodiment, the detection of a lesion using a special light image improves the certainty of lesion detection, and provides navigation information for guiding to the location of the detected lesion to a doctor. FIG. 1 shows an example of the system configuration of this embodiment.

なお以下では、第1の内視鏡装置がカプセル型内視鏡であり、第2の内視鏡装置がスコープ型内視鏡である場合を例に説明するが、これらの内視鏡装置は他の内視鏡装置であってもよい。例えば、第1の内視鏡装置はスコープ型内視鏡であってもよい。   In the following, a case where the first endoscope device is a capsule endoscope and the second endoscope device is a scope endoscope will be described as an example. Other endoscope apparatuses may be used. For example, the first endoscope apparatus may be a scope type endoscope.

このシステム構成例は、第1の内視鏡システム100、第2の内視鏡システム200を含む。そして、第1の内視鏡システム100は、カプセル型内視鏡10(広義には第1の内視鏡装置)、第1の受信機11、第1の受信装置12、画像処理装置13(例えばコンピュータ)、記憶装置14を含む。第2の内視鏡システム200は、スコープ型内視鏡15(広義には第2の内視鏡装置)、第2の受信機16、第2の受信装置17、制御装置18(内視鏡制御装置。例えばプロセッサ)、出力装置19を含む。   This system configuration example includes a first endoscope system 100 and a second endoscope system 200. The first endoscope system 100 includes a capsule endoscope 10 (first endoscope device in a broad sense), a first receiver 11, a first receiving device 12, and an image processing device 13 ( For example, a computer) and a storage device 14. The second endoscope system 200 includes a scope endoscope 15 (second endoscope device in a broad sense), a second receiver 16, a second receiver 17, and a control device 18 (endoscope). A control device (for example, a processor) and an output device 19.

カプセル型内視鏡10は、患者が飲み込んで用い、消化管の粘膜等を撮影する。このカプセル型内視鏡10は、撮像部101、第1画像取得部102、発信機103、制御部104を含む。撮像部101は、例えば図示しないレンズ系と、撮像素子、A/D変換回路により構成される。第1画像取得部102は、階調変換や補間処理等を行う図示しない画像処理部等で構成され、撮像部101からの画像に基づいて通常光画像(白色光画像)や特殊光画像を生成する。発信機103は、図示しない音波発信部または電波発信部を有し、音波または電波を発信する。そして、撮像部101は、第1画像取得部102へ接続し、第1画像取得部102は、発信機103へ接続する。制御部104は、撮像部101と、第1画像取得部102、発信機103へ接続する。   The capsule endoscope 10 is swallowed by a patient and used to photograph the mucous membrane of the digestive tract. The capsule endoscope 10 includes an imaging unit 101, a first image acquisition unit 102, a transmitter 103, and a control unit 104. The imaging unit 101 includes, for example, a lens system (not shown), an imaging element, and an A / D conversion circuit. The first image acquisition unit 102 includes an image processing unit (not shown) that performs gradation conversion, interpolation processing, and the like, and generates a normal light image (white light image) and a special light image based on the image from the imaging unit 101. To do. The transmitter 103 has a sound wave transmission unit or a radio wave transmission unit (not shown), and transmits a sound wave or a radio wave. The imaging unit 101 is connected to the first image acquisition unit 102, and the first image acquisition unit 102 is connected to the transmitter 103. The control unit 104 is connected to the imaging unit 101, the first image acquisition unit 102, and the transmitter 103.

受信機11は、図示しない音波受信部または電波受信部を有する複数の受信機で構成され、発信機103からの音波または電波を受信する。この受信機11は、受信装置12の記憶部121へ接続する。   The receiver 11 includes a plurality of receivers having a sound wave receiving unit or a radio wave receiving unit (not shown), and receives sound waves or radio waves from the transmitter 103. The receiver 11 is connected to the storage unit 121 of the receiving device 12.

受信装置12は、カプセル型内視鏡10からの撮影画像等の受信を行う。この受信装置12は、記憶部121、制御部122、I/F部123を含む。そして、記憶部121は、画像処理装置13の取得部135へ接続し、制御部122は、記憶部121へ接続する。I/F部123は、制御部122と双方向に接続する。なお、受信装置12は、USBケーブル等を用いて画像処理装置13に着脱可能であり、記憶部121に保存されているデータを画像処理装置13から読み取ることが可能である。   The receiving device 12 receives a captured image or the like from the capsule endoscope 10. The receiving device 12 includes a storage unit 121, a control unit 122, and an I / F unit 123. The storage unit 121 is connected to the acquisition unit 135 of the image processing apparatus 13, and the control unit 122 is connected to the storage unit 121. The I / F unit 123 is bidirectionally connected to the control unit 122. The receiving device 12 can be attached to and detached from the image processing device 13 using a USB cable or the like, and can read data stored in the storage unit 121 from the image processing device 13.

画像処理装置13は、病変が撮像された際のカプセル型内視鏡10の位置を示す注目位置情報を取得する。この画像処理装置13は、注目領域検出部131、第1位置情報取得部132、制御部133、I/F部134、取得部135を含む。取得部135は、記憶部121から画像等の記憶データを読み出す。注目領域検出部131は、画像から注目領域を検出する。第1位置情報取得部132は、各撮像画像の位置情報や、注目位置情報を取得する。そして、取得部135は、注目領域検出部131と第1位置情報取得部132へ接続し、第1位置情報取得部132は、記憶装置14へ接続する。但し、記憶装置14は、画像処理装置13の図示しないインターフェース等に着脱可能である。制御部133は、注目領域検出部131、第1位置情報取得部132、取得部135へ接続する。I/F部134は、制御部133と双方向に接続する。   The image processing device 13 acquires attention position information indicating the position of the capsule endoscope 10 when the lesion is imaged. The image processing device 13 includes an attention area detection unit 131, a first position information acquisition unit 132, a control unit 133, an I / F unit 134, and an acquisition unit 135. The acquisition unit 135 reads storage data such as an image from the storage unit 121. The attention area detection unit 131 detects the attention area from the image. The first position information acquisition unit 132 acquires position information of each captured image and attention position information. The acquisition unit 135 is connected to the attention area detection unit 131 and the first position information acquisition unit 132, and the first position information acquisition unit 132 is connected to the storage device 14. However, the storage device 14 can be attached to and detached from an interface (not shown) of the image processing device 13. The control unit 133 is connected to the attention area detection unit 131, the first position information acquisition unit 132, and the acquisition unit 135. The I / F unit 134 is bi-directionally connected to the control unit 133.

記憶装置14は、画像処理装置13からの画像や位置情報を記憶し、例えばフラッシュメモリや磁気ディスク、ネットワーク上のディスクなどのストレージにより実現される。この記憶装置14は、制御装置18の第1体内データ取得部185へ接続する。但し記憶装置14は、制御装置18の図示しないインターフェース等に着脱可能である。   The storage device 14 stores the image and position information from the image processing device 13, and is realized by a storage such as a flash memory, a magnetic disk, or a network disk. The storage device 14 is connected to the first in-vivo data acquisition unit 185 of the control device 18. However, the storage device 14 can be attached to and detached from an interface (not shown) of the control device 18.

スコープ型内視鏡15(狭義にはスコープ部)は、例えば下部内視鏡(大腸内視鏡)であり、体腔に挿入して撮影や処置を行う。このスコープ型内視鏡15は、撮像部151、第2画像取得部152、発信機153、制御部154、I/F部155を含む。撮像部151は、例えば図示しないレンズ系と、撮像素子、A/D変換回路で構成される。第2画像取得部152は、階調変換や補間処理等を行う図示しない画像処理部等で構成され、撮像部151からの画像に基づいて通常光画像や特殊光画像を生成する。発信機153は、例えばスコープ型内視鏡15のスコープの先端部に設けられる。そして、撮像部151は、第2画像取得部152へ接続し、第2画像取得部152は、制御装置18の第2体内データ取得部186へ接続する。制御部154は、撮像部151と、第2画像取得部152、発信機153へ接続する。I/F部155は、制御部154と双方向に接続する。   The scope-type endoscope 15 (scope section in a narrow sense) is, for example, a lower endoscope (large intestine endoscope), and is inserted into a body cavity to perform imaging and treatment. The scope endoscope 15 includes an imaging unit 151, a second image acquisition unit 152, a transmitter 153, a control unit 154, and an I / F unit 155. The imaging unit 151 includes, for example, a lens system (not shown), an imaging element, and an A / D conversion circuit. The second image acquisition unit 152 includes an image processing unit (not shown) that performs gradation conversion, interpolation processing, and the like, and generates a normal light image and a special light image based on the image from the imaging unit 151. The transmitter 153 is provided, for example, at the distal end of the scope of the scope endoscope 15. The imaging unit 151 is connected to the second image acquisition unit 152, and the second image acquisition unit 152 is connected to the second in-vivo data acquisition unit 186 of the control device 18. The control unit 154 is connected to the imaging unit 151, the second image acquisition unit 152, and the transmitter 153. The I / F unit 155 is bidirectionally connected to the control unit 154.

受信機16は、図示しない音波受信部または電波受信部を有し、発信機153からの音波または電波を受信する。この受信機16は、受信装置17の第2位置情報取得部171へ接続する。   The receiver 16 includes a sound wave receiving unit or a radio wave receiving unit (not shown), and receives a sound wave or a radio wave from the transmitter 153. The receiver 16 is connected to the second position information acquisition unit 171 of the receiving device 17.

受信装置17は、音波または電波の受信によりスコープ型内視鏡15の体内位置を取得する。この受信装置17は、第2位置情報取得部171、制御部172、I/F部173を含む。そして、第2位置情報取得部171は、制御装置18の第2体内データ取得部186へ接続し、制御部172は、第2位置情報取得部171へ接続し、I/F部173は、制御部172と双方向に接続する。   The receiving device 17 acquires the in-vivo position of the scope endoscope 15 by receiving sound waves or radio waves. The receiving device 17 includes a second position information acquisition unit 171, a control unit 172, and an I / F unit 173. The second position information acquisition unit 171 is connected to the second in-vivo data acquisition unit 186 of the control device 18, the control unit 172 is connected to the second position information acquisition unit 171, and the I / F unit 173 is controlled. It connects to the unit 172 in both directions.

制御装置18は、ナビゲーション情報の生成や、第2の内視鏡システム200の制御、画像や音声等の出力制御を行う。この制御装置18は、出力制御部181(提示部)、制御部182、I/F部183、第1体内データ取得部185、第2体内データ取得部186を含む。第1体内データ取得部185は、第1の内視鏡システム100により取得された第1の体内データを取得する。第2体内データ取得部186は、第2の内視鏡システム200により取得された第2の体内データを取得する。出力制御部181は、第1の体内データと第2の体内データを用いてナビゲーション情報の出力制御を行う。そして、第1体内データ取得部185と第2体内データ取得部186は、出力制御部181へ接続し、出力制御部181は、出力装置19へ接続する。制御部182は、第1体内データ取得部185と、第2体内データ取得部186、出力制御部181へ接続する。I/F部183は、制御部182と双方向に接続する。   The control device 18 generates navigation information, controls the second endoscope system 200, and controls output of images and sounds. The control device 18 includes an output control unit 181 (presentation unit), a control unit 182, an I / F unit 183, a first in-vivo data acquisition unit 185, and a second in-vivo data acquisition unit 186. The first in-vivo data acquisition unit 185 acquires first in-vivo data acquired by the first endoscope system 100. The second in-vivo data acquisition unit 186 acquires the second in-vivo data acquired by the second endoscope system 200. The output control unit 181 performs output control of navigation information using the first in-vivo data and the second in-vivo data. The first in-vivo data acquisition unit 185 and the second in-vivo data acquisition unit 186 are connected to the output control unit 181, and the output control unit 181 is connected to the output device 19. The control unit 182 is connected to the first in-vivo data acquisition unit 185, the second in-vivo data acquisition unit 186, and the output control unit 181. The I / F unit 183 is connected to the control unit 182 in both directions.

出力装置19は、カプセル型内視鏡10とスコープ型内視鏡15の撮像画像の表示や、ナビゲーション情報の表示、ナビゲーション情報の音声出力を行う。例えば、出力装置19は、ナビゲーション情報として体内マップや、注目位置、方向、距離を出力する。出力装置19は、例えば液晶表示装置等の表示装置や、スピーカ等の音声出力装置により構成される。   The output device 19 performs display of captured images of the capsule endoscope 10 and the scope endoscope 15, display of navigation information, and audio output of navigation information. For example, the output device 19 outputs an in-vivo map, a target position, a direction, and a distance as navigation information. The output device 19 includes a display device such as a liquid crystal display device and a sound output device such as a speaker.

なお、上述の制御部104、122、133、154、172、182は、例えばマイクロコンピュータやCPUで構成される。I/F部123、134、155、173、183は、電源スイッチや、変数設定などを行うためのインターフェースを備える。   The above-described control units 104, 122, 133, 154, 172, and 182 are constituted by, for example, a microcomputer or a CPU. The I / F units 123, 134, 155, 173, and 183 include a power switch and an interface for performing variable setting.

2.第1の内視鏡システムの処理例
次に、本実施形態の処理について説明する。本実施形態では、まずカプセル型内視鏡を用いて医師が検査・診断を行い、その検査・診断結果に基づいてスコープ型内視鏡(下部内視鏡)を用いて患部の処置を行う。
2. Processing Example of First Endoscope System Next, processing of the present embodiment will be described. In the present embodiment, first, a doctor performs an examination / diagnosis using a capsule endoscope, and an affected area is treated using a scope endoscope (lower endoscope) based on the examination / diagnosis result.

まず、カプセル型内視鏡による検査・診断時の本実施形態の処理について説明する。第1の内視鏡システム100は、第1の体内データを取得し、取得した第1の体内データを第2の内視鏡システム200に出力する。この第1の体内データは、体腔内の種々の情報を含むデータであり、例えば画像や内視鏡の位置情報、注目領域(病変)の位置情報を含むデータである。   First, the processing of this embodiment at the time of examination / diagnosis using a capsule endoscope will be described. The first endoscope system 100 acquires the first in-vivo data and outputs the acquired first in-vivo data to the second endoscope system 200. The first in-vivo data is data including various information in the body cavity, for example, data including position information of an image and an endoscope and position information of a region of interest (lesion).

具体的には、図2に示すように、患者は複数の受信機11を腹部周辺に装着し、受信装置12を携帯または装着する。患者は、受信機11の装着後、カプセル型内視鏡10を飲み込む。カプセル型内視鏡10は、その撮像部101で体内の画像を撮像し、第1画像取得部102が撮像画像の画像データ(動画データ)を取得する。   Specifically, as shown in FIG. 2, the patient wears a plurality of receivers 11 around the abdomen and carries or wears the receiving device 12. The patient swallows the capsule endoscope 10 after the receiver 11 is attached. The capsule endoscope 10 captures an in-vivo image with the imaging unit 101, and the first image acquisition unit 102 acquires image data (moving image data) of the captured image.

具体的には、カプセル型内視鏡10は、体内画像として、通常光画像と特殊光画像を撮影する。ここで、通常光画像は、白色光の波長帯域の照明を照射することで取得され、白色光の波長帯域は、例えば380nm〜650nmである。また、特殊光画像は、特定の波長帯域を照射することにより得られる。あるいは、白色光を照射して得られた反射光を、特定の波長帯域を透過するフィルタで処理することで得られる。この特定の波長帯域は、例えば390〜445nm及び530〜550nmの2帯域や、490〜625nmの1帯域である。特殊光画像は、波長帯域に応じて特定の病変を検出する性能に優れている。なお、本実施形態では、通常光画像と特殊光画像を両方撮影してもよく、特殊光画像のみを撮影してもよい。   Specifically, the capsule endoscope 10 captures a normal light image and a special light image as in-vivo images. Here, the normal light image is acquired by illuminating illumination in the wavelength band of white light, and the wavelength band of white light is, for example, 380 nm to 650 nm. The special light image is obtained by irradiating a specific wavelength band. Alternatively, it can be obtained by processing reflected light obtained by irradiating white light with a filter that transmits a specific wavelength band. This specific wavelength band is, for example, two bands of 390 to 445 nm and 530 to 550 nm and one band of 490 to 625 nm. The special light image is excellent in the performance of detecting a specific lesion according to the wavelength band. In the present embodiment, both the normal light image and the special light image may be taken, or only the special light image may be taken.

撮影された画像は、カプセル型内視鏡10の発信機103により電波に乗せて発信される。また、発信機103は、電波の発信と同時に、カプセル型内視鏡10の位置を検出するための短期間のパルス状の音波を発信する。この発信機103からの電波と音波は、受信機11により受信され、受信機11は、各受信機にパルス音波が到達した時間を測定する。そして、受信装置12が、カプセル型内視鏡装置10からの撮像画像と、発信機11からの音波到達時間を記憶部121に記憶する。   The captured image is transmitted on radio waves by the transmitter 103 of the capsule endoscope 10. The transmitter 103 transmits a short-term pulsed sound wave for detecting the position of the capsule endoscope 10 simultaneously with the transmission of the radio wave. The radio waves and sound waves from the transmitter 103 are received by the receiver 11, and the receiver 11 measures the time when the pulse sound wave arrives at each receiver. Then, the receiving device 12 stores the captured image from the capsule endoscope device 10 and the sound wave arrival time from the transmitter 11 in the storage unit 121.

カプセル型内視鏡10の体内通過が終了した後、上記情報が保存された記憶部121を画像処理装置13に接続する。画像処理装置13の取得部135は、記憶部121から撮影画像や音波到達時間を読み出し、注目領域検出部131と第1位置情報取得部132に出力する。   After the capsule endoscope 10 finishes passing through the body, the storage unit 121 storing the information is connected to the image processing apparatus 13. The acquisition unit 135 of the image processing apparatus 13 reads out the captured image and the sound wave arrival time from the storage unit 121 and outputs them to the attention area detection unit 131 and the first position information acquisition unit 132.

注目領域検出部131は、読み出された撮影画像の中から注目領域を検出する。具体的には、注目領域検出部131は、特殊光画像の色相が所定範囲内であることを判定基準として扁平上皮癌等の病変部を検出したり、通常光画像の色相が所定範囲内であることを判定基準として出血部位を検出したりする。例えば、注目領域検出部131は、所定の色相範囲に入る画素数をカウントし、その画素数が全画素数の所定割合以上であることを判定基準として注目領域を検出する。あるいは、注目領域検出部131は、所定の色相範囲に入る画素を統合し、その統合した領域を注目候補領域とする。そして、その注目候補領域の面積等を信頼度として算出し、その信頼度が所定閾値以上であることを判定基準として注目領域を検出してもよい。   The attention area detector 131 detects the attention area from the read captured image. Specifically, the attention area detection unit 131 detects a lesion such as squamous cell carcinoma based on the fact that the hue of the special light image is within a predetermined range, or the hue of the normal light image is within the predetermined range. A bleeding site is detected based on the existence of a criterion. For example, the attention area detection unit 131 counts the number of pixels that fall within a predetermined hue range, and detects the attention area based on a determination criterion that the number of pixels is equal to or greater than a predetermined ratio of the total number of pixels. Alternatively, the attention area detection unit 131 integrates pixels that fall within a predetermined hue range, and sets the integrated area as the attention candidate area. Then, the area or the like of the attention candidate region may be calculated as the reliability, and the attention region may be detected using the determination criterion that the reliability is equal to or greater than a predetermined threshold.

また、注目領域検出部131は、既知の画像認識手法により注目領域を検出してもよい。例えば、既知の画像認識手法として、注目画素とその周辺画素との画素値変化量が所定閾値以上であることを判定基準として注目領域を検出してもよい(特開2008−93172)。あるいは、注目領域検出部131は、パターンマッチングを用いてポリープ等の形状に一致することを判定基準として注目領域を検出してもよい。   Further, the attention area detection unit 131 may detect the attention area by a known image recognition method. For example, as a known image recognition method, a region of interest may be detected based on a determination criterion that a pixel value change amount between a pixel of interest and its surrounding pixels is equal to or greater than a predetermined threshold (Japanese Patent Laid-Open No. 2008-93172). Alternatively, the attention area detection unit 131 may detect the attention area by using pattern matching as a criterion for matching with a shape such as a polyp.

なお、注目領域検出部131は、特殊光画像や通常光画像の色空間を変換して注目領域を検出することも可能である。具体的には、下式(1)に示すように、注目領域検出部131は、RGB色空間をT 、T 、T 色空間に変換する。例えば、注目領域検出部131は、特定の色を強調する擬似カラー化を下式(1)の変換により行う。
Note that the attention area detection unit 131 can also detect the attention area by converting the color space of the special light image or the normal light image. Specifically, as shown in the following formula (1), the attention area detection unit 131 converts the RGB color space into the T i 0 , T i 1 , and T i 2 color spaces. For example, the attention area detection unit 131 performs pseudo color conversion for emphasizing a specific color by conversion of the following expression (1).

第1位置情報取得部132は、注目領域検出部131からの検出情報と受信装置12からの音波到達時間に基づいて、注目領域が検出された画像の撮影位置を示す注目位置情報を取得する。具体的には、第1位置情報取得部132は、発信機103と各受信機との距離を音波到達時間から計算する。そして、第1位置情報取得部132は、計算した発信機103と各受信機の距離と、予めわかっている各受信機間の位置関係から、三角法等を用いて撮影位置(座標)を求める。   The first position information acquisition unit 132 acquires attention position information indicating the shooting position of the image in which the attention region is detected based on the detection information from the attention region detection unit 131 and the sound wave arrival time from the reception device 12. Specifically, the first position information acquisition unit 132 calculates the distance between the transmitter 103 and each receiver from the sound wave arrival time. Then, the first position information acquisition unit 132 obtains a photographing position (coordinates) using trigonometry or the like from the calculated distance between the transmitter 103 and each receiver and the positional relationship between each receiver that is known in advance. .

また、第1位置情報取得部132は、注目領域を含む画像だけでなく他の画像が撮影された位置を示す位置情報を取得する。この位置情報は、上記と同様に、音波到達時間を用いて取得される。そして、第1位置情報取得部132は、注目位置情報と他の位置情報の双方を含む第1の位置情報を出力する。なお、本実施形態では、第1位置情報取得部132は、注目位置情報と他の位置情報の双方を取得してもよく、注目位置情報のみを取得してもよい。   In addition, the first position information acquisition unit 132 acquires position information indicating not only an image including a region of interest but also a position where another image is captured. This position information is acquired using the sound wave arrival time as described above. And the 1st position information acquisition part 132 outputs the 1st position information containing both attention position information and other position information. In the present embodiment, the first position information acquisition unit 132 may acquire both attention position information and other position information, or may acquire only attention position information.

画像処理装置13は、上記処理により取得した画像、第1の位置情報、注目位置情報を第1の体内データとして記憶装置14に保存する。図3に、記憶装置14に記憶される第1の体内データの例を示す。図3に示すように、カプセル型内視鏡10で撮像された通常光画像及び特殊光画像が記憶され、その画像に対応するカプセル型内視鏡10の2次元座標(x、y)と注目領域フラグが記憶される。画像にはインデックスが付され、その画像インデックスに対して座標とフラグが対応付けられている。この画像インデックスは、例えば動画として撮影された体内画像の中の何番目の画像(フレーム)であるかを示す番号であり、あるいは、静止画として撮影された体内画像のファイルを示す番号(ファイル名)である。注目領域フラグは、例えば画像が注目領域を含む場合は“1”、含まない場合は“0”である。   The image processing device 13 stores the image acquired by the above processing, the first position information, and the attention position information in the storage device 14 as first in-vivo data. FIG. 3 shows an example of first in-vivo data stored in the storage device 14. As shown in FIG. 3, the normal light image and the special light image captured by the capsule endoscope 10 are stored, and the two-dimensional coordinates (x, y) of the capsule endoscope 10 corresponding to the image and the attention are stored. A region flag is stored. An image is indexed, and coordinates and flags are associated with the image index. This image index is, for example, a number indicating an in-vivo image (frame) in an in-vivo image captured as a moving image, or a number (file name) indicating an in-vivo image file captured as a still image. ). The attention area flag is, for example, “1” when the image includes the attention area, and “0” when the image does not include the attention area.

医師は、上記の保存された情報をPC等で閲覧し、病変を含む画像の診断を行い、処置が必要か否かを判断する。処置が必要な場合、後述するスコープ型内視鏡システムによる処置を行う。   The doctor browses the stored information on a PC or the like, diagnoses an image including a lesion, and determines whether treatment is necessary. When treatment is necessary, treatment by a scope type endoscope system described later is performed.

なお、画像処理装置13は、カプセル型内視鏡10の撮像画像の要約処理を行ってもよい。すなわち、カプセル型内視鏡10が体内に停留した場合、同じ範囲が撮像された画像が多数取得されるため、その同じ範囲が撮像された画像を省略して撮像画像の枚数を減らす処理を行ってもよい。   Note that the image processing device 13 may perform a summary process of the captured image of the capsule endoscope 10. That is, when the capsule endoscope 10 is stopped in the body, a large number of images in which the same range is captured are acquired, and therefore processing for reducing the number of captured images by omitting images captured in the same range is performed. May be.

また、上記においては、音波により位置情報の取得を行なったが、本実施形態では、電波により位置情報を取得してもよい。   In the above description, the position information is acquired using sound waves. However, in the present embodiment, the position information may be acquired using radio waves.

3.第2の内視鏡システムの処理例
次に、スコープ型内視鏡による処置時の本実施形態の処理について説明する。まず、記憶装置14を第2の内視鏡システム200の制御装置18に接続する。そして、制御装置18の第1体内データ取得部185が、記憶装置14から第1の体内データを読み出す。
3. Processing Example of Second Endoscope System Next, processing of this embodiment at the time of treatment with a scope endoscope will be described. First, the storage device 14 is connected to the control device 18 of the second endoscope system 200. Then, the first in-vivo data acquisition unit 185 of the control device 18 reads the first in-vivo data from the storage device 14.

患者は、受信機16と受信装置17を腹部周辺に装着する。例えば、図2で上述した受信機11、受信装置12と同様に装着する。装着後、医師は、患者の体腔内にスコープ型内視鏡15を挿入し、スコープ型内視鏡15の撮像部151が体内の画像を撮像し、第2画像取得部152が画像(画像データ)を取得する。例えば、第2画像取得部152は、通常光画像と特殊光画像を取得する。第2画像取得部152は、取得した画像を制御装置18の第2体内データ取得部186に対して出力する。なお、本実施形態では、第2画像取得部152は、通常光画像のみを取得してもよい。   The patient wears the receiver 16 and the receiver 17 around the abdomen. For example, it is mounted in the same manner as the receiver 11 and the receiving device 12 described above with reference to FIG. After wearing, the doctor inserts the scope endoscope 15 into the body cavity of the patient, the imaging unit 151 of the scope endoscope 15 captures an image inside the body, and the second image acquisition unit 152 captures the image (image data). ) To get. For example, the second image acquisition unit 152 acquires a normal light image and a special light image. The second image acquisition unit 152 outputs the acquired image to the second in-vivo data acquisition unit 186 of the control device 18. In the present embodiment, the second image acquisition unit 152 may acquire only the normal light image.

スコープ型内視鏡15の先端に配置された発信機153は、所定間隔でパルス音波を発信する。受信機16が、発信された音波を受信し、各受信機により音波が受信されるまでの時間を測定する。そして、受信装置17の第2位置情報取得部171が、受信機16で測定した音波受信までの時間から、スコープ型内視鏡15の体内位置(第2の位置情報)を計算する。この体内位置の計算は、上述のカプセル型内視鏡10の場合と同様に三角法等を用いて行う。第2位置情報取得部171は、求めたスコープ型内視鏡15の体内位置情報を制御装置18の第2体内データ取得部186に対して出力する。   A transmitter 153 disposed at the distal end of the scope endoscope 15 transmits pulsed sound waves at a predetermined interval. The receiver 16 receives the transmitted sound wave and measures the time until the sound wave is received by each receiver. Then, the second position information acquisition unit 171 of the receiving device 17 calculates the in-vivo position (second position information) of the scope endoscope 15 from the time until the sound wave reception measured by the receiver 16. The calculation of the in-vivo position is performed using trigonometry or the like as in the case of the capsule endoscope 10 described above. The second position information acquisition unit 171 outputs the obtained in-vivo position information of the scope endoscope 15 to the second in-vivo data acquisition unit 186 of the control device 18.

第2体内データ取得部186は、第2画像取得部152からの撮影画像と第2位置情報取得部132からの第2の位置情報を、第2の体内データとして取得する。例えば、スコープ型内視鏡15の現在位置である第2の位置情報は、2次元座標(x’、y’)で表される。   The second in-vivo data acquisition unit 186 acquires the captured image from the second image acquisition unit 152 and the second position information from the second position information acquisition unit 132 as second in-vivo data. For example, the second position information that is the current position of the scope endoscope 15 is represented by two-dimensional coordinates (x ′, y ′).

出力制御部181は、第1体内データ取得部185からの第1の体内データと、第2体内データ取得部186からの第2の体内データに基づいて、病変等の注目位置とスコープ型内視鏡15の位置との位置関係を表すナビゲーション情報を出力する制御を行う。後述するように、出力制御部181は、例えば注目位置が接近したことを知らせる画像や警告音を出力したり、消化管の配置を表した体内マップ上に注目位置と内視鏡位置を表示したりする。また、出力制御部181は、スコープ型内視鏡15の撮影画像を出力装置19に表示する制御を行う。   Based on the first in-vivo data from the first in-vivo data acquisition unit 185 and the second in-vivo data from the second in-vivo data acquisition unit 186, the output control unit 181 Control is performed to output navigation information representing the positional relationship with the position of the mirror 15. As will be described later, the output control unit 181 outputs, for example, an image or warning sound indicating that the target position is approaching, or displays the target position and the endoscope position on an in-vivo map representing the arrangement of the digestive tract. Or Further, the output control unit 181 performs control to display the captured image of the scope endoscope 15 on the output device 19.

以上説明したように、ナビゲーション情報を医師に提示することで、第2の内視鏡装置の操作をサポートし、医師による診断・処置時の負荷低減や患者の負担軽減に寄与できる。また、カプセル型内視鏡10により特殊光画像を撮影し、その特殊光画像から病変検出を行うことで、病変検出の精度を向上できる。   As described above, by presenting the navigation information to the doctor, it is possible to support the operation of the second endoscope apparatus and contribute to reducing the burden on the diagnosis and treatment by the doctor and the burden on the patient. Moreover, the accuracy of lesion detection can be improved by capturing a special light image with the capsule endoscope 10 and detecting the lesion from the special light image.

4.出力制御部の詳細な構成例、ナビゲーション情報の例
図4〜図10を用いて、第1の体内データと第2の体内データに基づいてナビゲーション情報を出力する出力制御部の詳細な構成例について説明する。図4に、注目位置が接近した場合にナビゲーション情報を出力する第1の詳細な構成例を示す。この出力制御部181は、判定部401を含む。
4). Detailed Configuration Example of Output Control Unit, Example of Navigation Information Detailed configuration example of the output control unit that outputs navigation information based on the first in-vivo data and the second in-vivo data with reference to FIGS. explain. FIG. 4 shows a first detailed configuration example for outputting navigation information when the target position approaches. The output control unit 181 includes a determination unit 401.

判定部401は、第1の体内データと第2の体内データに基づいて、スコープ型内視鏡15が注目位置に接近した(近づいた、または到達した)ことを判定する。具体的には、判定部401は、スコープ型内視鏡15の現在位置から各注目位置までの距離(広義には距離情報)を計算し、所定距離以内に注目位置がある場合に接近したと判定する。例えば、判定部401は、第2の位置情報と注目位置情報に基づいて、各注目位置までの直線距離を計算する。あるいは、判定部401は、第1の位置情報と第2の位置情報と注目位置情報に基づいて、カプセル型内視鏡10の軌跡に沿った、各注目位置までの距離を計算する。   The determination unit 401 determines that the scope endoscope 15 has approached (approached or reached) the target position based on the first in-vivo data and the second in-vivo data. Specifically, the determination unit 401 calculates a distance (distance information in a broad sense) from the current position of the scope endoscope 15 to each target position, and approaches when the target position is within a predetermined distance. judge. For example, the determination unit 401 calculates a linear distance to each target position based on the second position information and the target position information. Or the determination part 401 calculates the distance to each attention position along the locus | trajectory of the capsule endoscope 10 based on 1st position information, 2nd position information, and attention position information.

出力制御部181は、スコープ型内視鏡15が注目位置に接近したと判定部401により判定された場合、ナビゲーション情報を出力する制御を行う。例えば、図5のD1に示すように、出力制御部181は、スコープ型内視鏡15の撮影画像を出力装置19に表示し、D2に示すように、注目領域の方向側に警告表示を光らせたり点滅させたりする。あるいは、出力制御部181は、注目領域の位置の方向を示す矢印等の方向画像を表示する。あるいは、出力制御部181は、スコープ型内視鏡15が注目位置に接近した場合に、ビープ音等の警告音や音声を出力装置19に出力する。   The output control unit 181 performs a control to output navigation information when the determination unit 401 determines that the scope endoscope 15 has approached the target position. For example, as shown in D1 of FIG. 5, the output control unit 181 displays the captured image of the scope-type endoscope 15 on the output device 19, and, as shown in D2, flashes a warning display toward the direction of the attention area. Or blink. Alternatively, the output control unit 181 displays a direction image such as an arrow indicating the direction of the position of the attention area. Alternatively, the output control unit 181 outputs a warning sound such as a beep sound and a sound to the output device 19 when the scope endoscope 15 approaches the target position.

図6に、最短距離の注目位置に関するナビゲーション情報を出力する第2の詳細な構成例を示す。この出力制御部181は、位置選択部501、距離算出部502を含む。   FIG. 6 shows a second detailed configuration example for outputting navigation information related to the attention position at the shortest distance. The output control unit 181 includes a position selection unit 501 and a distance calculation unit 502.

距離算出部502は、第1の体内データと第2の体内データに基づいて、スコープ型内視鏡15と各注目位置の距離(広義には距離情報)を算出する。例えば、距離算出部502は、第2の位置情報と注目位置情報に基づいて、各注目位置までの直線距離を計算する。あるいは、距離算出部502は、第1の位置情報と第2の位置情報と注目位置情報に基づいて、カプセル型内視鏡10の軌跡に沿った、各注目位置までの距離を計算する。   The distance calculation unit 502 calculates the distance between the scope endoscope 15 and each target position (distance information in a broad sense) based on the first in-vivo data and the second in-vivo data. For example, the distance calculation unit 502 calculates a linear distance to each target position based on the second position information and the target position information. Alternatively, the distance calculation unit 502 calculates the distance to each target position along the trajectory of the capsule endoscope 10 based on the first position information, the second position information, and the target position information.

位置選択部501は、距離算出部502により算出された距離に基づいて、スコープ型内視鏡15に最も近い距離にある注目位置を選択する。   The position selection unit 501 selects a target position that is closest to the scope endoscope 15 based on the distance calculated by the distance calculation unit 502.

出力制御部181は、位置選択部501により選択された注目位置までの方向や距離の情報を出力する制御を行う。例えば、図7のE1に示すように、最も近い注目位置の方向を示す矢印等の方向画像を表示し、E2に示すように、その注目位置までの距離を表示する。   The output control unit 181 performs control to output information on the direction and distance to the target position selected by the position selection unit 501. For example, a direction image such as an arrow indicating the direction of the closest attention position is displayed as indicated by E1 in FIG. 7, and a distance to the attention position is indicated as indicated by E2.

図8に、体内マップ上にスコープ型内視鏡15の現在位置を表示する第3の詳細な構成例を示す。この出力制御部181は、マップ生成部601、対応付け部602を含む。   FIG. 8 shows a third detailed configuration example for displaying the current position of the scope endoscope 15 on the in-vivo map. The output control unit 181 includes a map generation unit 601 and an association unit 602.

マップ生成部601は、第1の体内データに基づいて体内マップを生成する。図9に、体内マップの例を示す。この体内マップは、カプセル型内視鏡10が体腔内を移動した軌跡を表したマップであり、例えば図3等で上述のカプセル型内視鏡10の位置(x、y)を2次元マップ上に順次プロットしたものである。また、マップ生成部601は、注目位置情報が示す位置を体内マップ上にマッピングする。すなわち、病変部等を含む画像が撮影された位置を体内マップ上にマッピングする。   The map generation unit 601 generates an in-vivo map based on the first in-vivo data. FIG. 9 shows an example of the in-vivo map. This in-vivo map is a map representing the trajectory of the capsule endoscope 10 moving in the body cavity. For example, the position (x, y) of the capsule endoscope 10 described above in FIG. Are plotted sequentially. The map generation unit 601 maps the position indicated by the position-of-interest information on the in-vivo map. That is, the position where the image including the lesioned part is taken is mapped on the in-vivo map.

対応付け部602は、マップ生成部601により生成された体内マップ上に、スコープ型内視鏡15の位置を対応付ける。例えば、スコープ型内視鏡15の現在位置は2次元座標(x’、y’)で表され、体内マップの2次元座標上に座標(x’、y’)をマッピングする。   The association unit 602 associates the position of the scope endoscope 15 on the in-vivo map generated by the map generation unit 601. For example, the current position of the scope-type endoscope 15 is represented by two-dimensional coordinates (x ′, y ′), and coordinates (x ′, y ′) are mapped onto the two-dimensional coordinates of the in-vivo map.

出力制御部181は、スコープ型内視鏡15の位置と注目領域の位置がマッピングされた体内マップを出力装置19に出力する。例えば、図10のA1に示すように、画像表示領域にスコープ型内視鏡15の撮像画像を表示し、A2に示すように、マップ表示領域に体内マップを表示する。そして、A3に示すように、体内マップ上にスコープ型内視鏡15の位置を示すマークを表示する。また、A4に示すように、体内マップ上に病変等の注目領域の位置を示すマークを表示し、スコープ型内視鏡15を注目領域まで誘導するためのガイド表示とする。   The output control unit 181 outputs an in-vivo map in which the position of the scope endoscope 15 and the position of the region of interest are mapped to the output device 19. For example, as shown in A1 of FIG. 10, the captured image of the scope endoscope 15 is displayed in the image display area, and the in-vivo map is displayed in the map display area as shown in A2. Then, as shown at A3, a mark indicating the position of the scope endoscope 15 is displayed on the in-vivo map. Also, as shown at A4, a mark indicating the position of the region of interest such as a lesion is displayed on the in-vivo map, and a guide display for guiding the scope endoscope 15 to the region of interest is used.

5.第2のシステム構成例
上記実施形態では、音波によりスコープ型内視鏡15の位置情報を取得する場合について説明したが、本実施形態では、スコープ型内視鏡15の挿入長から位置情報を取得してもよい。図11に、その第2のシステム構成例を示す。
5. Second System Configuration Example In the above embodiment, the case where the position information of the scope endoscope 15 is acquired by sound waves has been described. However, in the present embodiment, the position information is acquired from the insertion length of the scope endoscope 15. May be. FIG. 11 shows a second system configuration example.

図11に示すシステム構成例は、第1の内視鏡システム100、第2の内視鏡システム200を含む。第1の内視鏡システム100は、カプセル型内視鏡20、受信機21、受信装置22、画像処理装置23、記憶装置24を含む。第2の内視鏡システム200は、スコープ型内視鏡25、制御装置26、出力装置27を含む。なお、第1の内視鏡システム100については、上述の第1のシステム構成例と同様の構成及び動作であるため、説明を省略する。   The system configuration example shown in FIG. 11 includes a first endoscope system 100 and a second endoscope system 200. The first endoscope system 100 includes a capsule endoscope 20, a receiver 21, a receiving device 22, an image processing device 23, and a storage device 24. The second endoscope system 200 includes a scope endoscope 25, a control device 26, and an output device 27. Note that the first endoscope system 100 has the same configuration and operation as the first system configuration example described above, and thus the description thereof is omitted.

スコープ型内視鏡25は、撮像部251、第2画像取得部252、制御部253、I/F部254、挿入長情報取得部255を含む。そして、撮像部251は、第2画像取得部252へ接続し、第2画像取得部252は、制御装置26の第2体内データ取得部266へ接続する。挿入長情報取得部255は、制御装置26の第2位置情報取得部261へ接続する。制御部253は、撮像部251と、第2画像取得部252と、挿入長情報取得部255へ接続する。I/F部254は、制御部253と双方向に接続する。   The scope endoscope 25 includes an imaging unit 251, a second image acquisition unit 252, a control unit 253, an I / F unit 254, and an insertion length information acquisition unit 255. The imaging unit 251 is connected to the second image acquisition unit 252, and the second image acquisition unit 252 is connected to the second in-vivo data acquisition unit 266 of the control device 26. The insertion length information acquisition unit 255 is connected to the second position information acquisition unit 261 of the control device 26. The control unit 253 is connected to the imaging unit 251, the second image acquisition unit 252, and the insertion length information acquisition unit 255. The I / F unit 254 is bidirectionally connected to the control unit 253.

制御装置26は、第2位置情報取得部261、出力制御部262、制御部263、I/F部264、第1体内データ取得部265、第2体内データ取得部266を含む。そして、第1体内データ取得部265は、第2位置情報取得部261と出力制御部262へ接続する。第2位置情報取得部261は、第2体内データ取得部266へ接続し、第2体内データ取得部266は、出力制御部262へ接続する。出力制御部262は、出力装置27へ接続する。制御部263は、第1体内データ取得部265と、第2体内データ取得部266、第2位置情報取得部261、出力制御部262へ接続する。I/F部264は、制御部263と双方向に接続する。   The control device 26 includes a second position information acquisition unit 261, an output control unit 262, a control unit 263, an I / F unit 264, a first in-vivo data acquisition unit 265, and a second in-vivo data acquisition unit 266. Then, the first in-vivo data acquisition unit 265 is connected to the second position information acquisition unit 261 and the output control unit 262. The second position information acquisition unit 261 is connected to the second in-vivo data acquisition unit 266, and the second in-vivo data acquisition unit 266 is connected to the output control unit 262. The output control unit 262 is connected to the output device 27. The control unit 263 is connected to the first in-vivo data acquisition unit 265, the second in-vivo data acquisition unit 266, the second position information acquisition unit 261, and the output control unit 262. The I / F unit 264 is connected to the control unit 263 in both directions.

次に、第2のシステム構成例の処理例について説明する。まず、医師が患者の体腔内にスコープ型内視鏡25を挿入し、第2画像取得部252が通常光画像や特殊光画像を取得する。このとき、挿入長情報取得部255が、体内に挿入されたスコープ型内視鏡25の挿入長情報(長さ情報、距離情報)を取得する。例えば、患者の肛門付近にスキャナを取り付け、スコープ型内視鏡25の挿入部についている目盛りをスキャナが読み取ることで、挿入長情報を取得する。   Next, a processing example of the second system configuration example will be described. First, the doctor inserts the scope endoscope 25 into the body cavity of the patient, and the second image acquisition unit 252 acquires the normal light image and the special light image. At this time, the insertion length information acquisition unit 255 acquires insertion length information (length information, distance information) of the scope endoscope 25 inserted into the body. For example, the insertion length information is obtained by attaching a scanner near the anus of the patient and reading the scale on the insertion portion of the scope endoscope 25 by the scanner.

第2位置情報取得部261は、挿入長情報と注目位置情報を対応付ける。具体的には、第2位置情報取得部261は、カプセル型内視鏡20の位置情報に基づいて、肛門(広義には基準位置)から各位置までの距離を計算する。例えば、図3で上述のように、カプセル型内視鏡20の座標(x、y)を用いて、肛門の座標から各座標までの軌跡に沿った距離を計算する。そして、第2位置情報取得部261は、その各座標までの距離と挿入長距離から、スコープ型内視鏡25の現在位置を決定する。   The second position information acquisition unit 261 associates the insertion length information with the target position information. Specifically, the second position information acquisition unit 261 calculates the distance from the anus (reference position in a broad sense) to each position based on the position information of the capsule endoscope 20. For example, as described above with reference to FIG. 3, using the coordinates (x, y) of the capsule endoscope 20, the distance along the locus from the anal coordinates to each coordinate is calculated. Then, the second position information acquisition unit 261 determines the current position of the scope endoscope 25 from the distance to each coordinate and the insertion long distance.

そして、第2体内データ取得部266が、スコープ型内視鏡25の位置情報と撮影画像を第2の体内データとして取得する。出力制御部262は、第1の体内データと第2の体内データに基づいてナビゲーション情報を出力装置27に出力する。ナビゲーション情報は、図4〜図10等で上述のように、注目位置の方向を示す画像や、注目位置までの距離、体内マップ、警告音等である。   Then, the second in-vivo data acquisition unit 266 acquires the position information of the scope endoscope 25 and the captured image as second in-vivo data. The output control unit 262 outputs navigation information to the output device 27 based on the first in-vivo data and the second in-vivo data. As described above with reference to FIGS. 4 to 10, the navigation information includes an image indicating the direction of the target position, a distance to the target position, an in-vivo map, a warning sound, and the like.

6.第3のシステム構成例
上記実施形態では、音波や挿入長から位置情報を取得する場合について説明したが、本実施形態では、画像のマッチングにより位置情報を取得してもよい。図12に、その第3のシステム構成例を示す。
6). Third System Configuration Example In the above embodiment, the case where the position information is acquired from the sound wave or the insertion length has been described. However, in the present embodiment, the position information may be acquired by image matching. FIG. 12 shows a third system configuration example.

図12に示す第3のシステム構成例は、第1の内視鏡システム100、第2の内視鏡システム200を含む。第1の内視鏡システム100は、カプセル型内視鏡30、受信機31、受信装置32を含む。第2の内視鏡システム200は、スコープ型内視鏡33、制御装置34、出力装置35を含む。なお、スコープ型内視鏡33については、第1のシステム構成例と構成及び動作が同様であるため説明を省略する。   The third system configuration example shown in FIG. 12 includes a first endoscope system 100 and a second endoscope system 200. The first endoscope system 100 includes a capsule endoscope 30, a receiver 31, and a receiving device 32. The second endoscope system 200 includes a scope endoscope 33, a control device 34, and an output device 35. The scope endoscope 33 has the same configuration and operation as those of the first system configuration example, and therefore the description thereof is omitted.

カプセル型内視鏡30は、特殊光画像を撮影し、特殊光画像から注目領域を検出した場合に通常光画像を撮影する。カプセル型内視鏡30は、撮像部301、第1画像取得部302、注目領域検出部303、発信機304、制御部305を含む。そして、撮像部301は、第1画像取得部302へ接続し、第1画像取得部302は、注目領域検出部303と発信機304へ接続する。注目領域検出部303は、撮像部301と発信機304へ接続する。制御部305は、撮像部301、第1画像取得部302、注目領域検出部303、発信機304へ接続する。   The capsule endoscope 30 captures a special light image, and captures a normal light image when a region of interest is detected from the special light image. The capsule endoscope 30 includes an imaging unit 301, a first image acquisition unit 302, a region of interest detection unit 303, a transmitter 304, and a control unit 305. The imaging unit 301 is connected to the first image acquisition unit 302, and the first image acquisition unit 302 is connected to the attention area detection unit 303 and the transmitter 304. The attention area detection unit 303 is connected to the imaging unit 301 and the transmitter 304. The control unit 305 is connected to the imaging unit 301, the first image acquisition unit 302, the attention area detection unit 303, and the transmitter 304.

受信装置32は、記憶部321、制御部322、I/F部323を含む。そして、記憶部321は、制御装置34の第1体内データ取得部345へ接続し、制御部322は、記憶部321へ接続し、I/F部323は、制御部322と双方向に接続する。記憶部321は、制御装置345に対してUSBケーブル等により着脱可能である。また、記憶部321は、受信装置32から取り外すことが可能であり、例えばフラッシュメモリや磁気ディスク、ネットワーク上のディスクなどのストレージにより構成される。   The receiving device 32 includes a storage unit 321, a control unit 322, and an I / F unit 323. The storage unit 321 is connected to the first in-vivo data acquisition unit 345 of the control device 34, the control unit 322 is connected to the storage unit 321, and the I / F unit 323 is bidirectionally connected to the control unit 322. . The storage unit 321 can be attached to and detached from the control device 345 with a USB cable or the like. The storage unit 321 can be detached from the receiving device 32, and is configured by a storage such as a flash memory, a magnetic disk, or a network disk.

制御装置34は、カプセル型内視鏡30により取得された注目領域の画像と、スコープ型内視鏡33の撮影画像をマッチングしてナビゲーション情報を表示する。制御装置34は、画像対応付け部341、出力制御部342、制御部343、I/F部344、第1体内データ取得部345、第2体内データ取得部346を含む。そして、第1体内データ取得部345と第2体内データ取得部346は、画像対応付け部341と出力制御部342へ接続する。画像対応付け部341は、出力制御部342へ接続する。制御部343は、画像対応付け部341、出力制御部342、第1体内データ取得部345、第2体内データ取得部346へ接続する。I/F部344は、制御部343と双方向に接続する。   The control device 34 displays navigation information by matching the image of the region of interest acquired by the capsule endoscope 30 with the captured image of the scope endoscope 33. The control device 34 includes an image association unit 341, an output control unit 342, a control unit 343, an I / F unit 344, a first in-vivo data acquisition unit 345, and a second in-vivo data acquisition unit 346. The first in-vivo data acquisition unit 345 and the second in-vivo data acquisition unit 346 are connected to the image association unit 341 and the output control unit 342. The image association unit 341 is connected to the output control unit 342. The control unit 343 connects to the image association unit 341, the output control unit 342, the first in-vivo data acquisition unit 345, and the second in-vivo data acquisition unit 346. The I / F unit 344 is connected to the control unit 343 in both directions.

次に、第3のシステム構成例の処理例について説明する。まず、第1の内視鏡システム100の処理例について説明する。   Next, a processing example of the third system configuration example will be described. First, a processing example of the first endoscope system 100 will be described.

まず患者は、受信機31と受信装置32を、図2で上述の受信機11と受信装置22と同様に装着する。このとき、本実施形態では位置情報を取得しないため、受信機31を体表面に密着させる必要はない。   First, the patient wears the receiver 31 and the receiving device 32 in the same manner as the receiver 11 and the receiving device 22 described above with reference to FIG. At this time, since position information is not acquired in this embodiment, it is not necessary to make the receiver 31 adhere to the body surface.

次に、図13のC1に示すように、患者がカプセル型内視鏡30を飲み込むと、撮像部301が消化管内を撮影し、C2に示すように、第1画像取得部302が特殊光画像を取得する。注目領域検出部303は、特殊光画像から病変等の注目領域をリアルタイムに検出する。   Next, as shown in C1 of FIG. 13, when the patient swallows the capsule endoscope 30, the imaging unit 301 captures the inside of the digestive tract, and as shown in C2, the first image acquisition unit 302 displays the special light image. To get. The attention area detection unit 303 detects an attention area such as a lesion from the special light image in real time.

C3に示すように、注目領域検出部303が注目領域TR1、TR2を検出した場合、C4に示すように、撮像部301が消化管内を撮影し、第1画像取得部302が通常光画像を取得する。この通常光画像は、注目領域TR1、TR2の検出と同時(略同時を含む)に撮影される。   As shown in C3, when the attention area detection unit 303 detects the attention areas TR1 and TR2, as shown in C4, the imaging unit 301 images the inside of the digestive tract, and the first image acquisition unit 302 acquires the normal light image. To do. This normal light image is taken at the same time (including substantially simultaneously) with the detection of the attention areas TR1 and TR2.

撮影された特殊光画像と通常光画像は、発信機304から受信機31へ送信される。受信機で受信された特殊光画像と通常光画像は、受信装置32の記憶部321に記憶される。   The captured special light image and normal light image are transmitted from the transmitter 304 to the receiver 31. The special light image and the normal light image received by the receiver are stored in the storage unit 321 of the receiving device 32.

次に、第2の内視鏡システム200の処理例について説明する。カプセル型内視鏡30による診断が終了した後、記憶部321を制御装置34に接続する。制御装置34の第1体内データ取得部345が、記憶部321から特殊光画像と、注目領域TR1、TR2が撮影された通常光画像を第1の体内データとして取得する。   Next, a processing example of the second endoscope system 200 will be described. After the diagnosis by the capsule endoscope 30 is completed, the storage unit 321 is connected to the control device 34. The first in-vivo data acquisition unit 345 of the control device 34 acquires the special light image and the normal light image obtained by capturing the attention areas TR1 and TR2 from the storage unit 321 as first in-vivo data.

図13のC5に示すように、医師が患者の消化管内にスコープ型内視鏡33を挿入する。撮像部331が消化管内を撮影し、第2画像取得部332が通常光画像を取得する。そして、制御装置34の第2体内データ取得部346は、通常光画像を第2の体内データとして取得する。   As shown at C5 in FIG. 13, the doctor inserts the scope endoscope 33 into the patient's digestive tract. The imaging unit 331 images the inside of the digestive tract, and the second image acquisition unit 332 acquires a normal light image. And the 2nd in-vivo data acquisition part 346 of the control apparatus 34 acquires a normal light image as 2nd in-vivo data.

画像対応付け部341は、カプセル型内視鏡30により撮影された注目領域TR1、TR2を含む通常光画像と、スコープ型内視鏡33により撮影された通常光画像のマッチング処理を行う。例えば、マッチング処理として、公知の画像認識技術(例えばViola-Jones)が用いられる。   The image association unit 341 performs a matching process between the normal light image including the attention areas TR1 and TR2 captured by the capsule endoscope 30 and the normal light image captured by the scope endoscope 33. For example, a known image recognition technique (for example, Viola-Jones) is used as the matching process.

図13のC6に示すように、例えば画像に注目領域TR1が含まれ、カプセル型内視鏡30の画像の注目領域TR1とマッチングがとれた場合、出力制御部342は、注目領域に接近したことを示すナビゲーション情報を出力装置35に出力する。例えば、ナビゲーション情報として、ビープ音やエクスクラメーションマーク表示等のアテンション情報を出力する。   As shown in C6 of FIG. 13, for example, when the attention area TR1 is included in the image and matching with the attention area TR1 of the image of the capsule endoscope 30 is made, the output control unit 342 has approached the attention area. Is output to the output device 35. For example, attention information such as a beep sound or an exclamation mark display is output as navigation information.

なお、上記では通常光画像と通常光画像のマッチング処理を行う場合を例に説明したが、本実施形態では、他の組み合わせでマッチング処理を行ってもよい。例えば、スコープ型内視鏡33により特殊光画像を取得し、その特殊光画像とカプセル型内視鏡30により取得した特殊光画像とをマッチング処理してもよい。   In the above description, the case of performing the matching process between the normal light image and the normal light image has been described as an example. However, in the present embodiment, the matching process may be performed in other combinations. For example, a special light image may be acquired by the scope endoscope 33, and the special light image and the special light image acquired by the capsule endoscope 30 may be matched.

7.マッチング処理
上述のように、画像対応付け部341は、カプセル型内視鏡30により撮影された注目領域の画像と、スコープ型内視鏡33により撮影された画像とのマッチング処理を行う。以下では、この画像対応付け部341が行うマッチング処理の詳細例について説明する。
7). Matching Process As described above, the image association unit 341 performs a matching process between the image of the region of interest captured by the capsule endoscope 30 and the image captured by the scope endoscope 33. Below, the detailed example of the matching process which this image matching part 341 performs is demonstrated.

画像対応付け部341は、カプセル型内視鏡30の画像からテンプレート画像を取得する。このテンプレート画像は、注目領域を含む領域をトリミングした画像である。例えば、カプセル型内視鏡30の注目領域検出部303が、撮影画像内での注目領域の座標を取得し、制御装置34の第1体内データ取得部345が、その座標を第1の体内データとして取得する。そして、画像対応付け部341が、注目領域の座標に基づいてトリミングすることで、テンプレート画像を取得する。   The image association unit 341 acquires a template image from the image of the capsule endoscope 30. This template image is an image obtained by trimming a region including a region of interest. For example, the attention area detection unit 303 of the capsule endoscope 30 acquires the coordinates of the attention area in the captured image, and the first in-vivo data acquisition unit 345 of the control device 34 uses the coordinates as the first in-vivo data. Get as. Then, the image association unit 341 acquires a template image by trimming based on the coordinates of the attention area.

そして、画像対応付け部341は、取得したテンプレート画像とスコープ型内視鏡33の撮影画像とのテンプレートマッチング処理を行う。具体的には、画像対応付け部341は、スコープ型内視鏡33の撮像画像に対してラスタスキャン順にテンプレート画像を移動し、各位置での類似度を算出する。例えば、画像対応付け部341は、下式(2)に示すSSD(Sum of Squared Difference)により各座標(k,l)での類似度RSSD(k,l)を算出する。あるいは、下式(3)に示すSAD(Sum of Absolute Difference)により類似度RSAD(k,l)を算出する。ここで、下式(2)、(3)のC(i+k,j+l)は、スコープ型内視鏡33の撮影画像の画素値であり、B(i,j)は、テンプレート画像の画素値である。また、N、Mは、テンプレート画像の水平方向と垂直方向の画素数であり、i、jは、テンプレート画像の画素の座標である。
Then, the image association unit 341 performs template matching processing between the acquired template image and the captured image of the scope endoscope 33. Specifically, the image association unit 341 moves the template image in the raster scan order with respect to the captured image of the scope endoscope 33, and calculates the similarity at each position. For example, the image association unit 341 calculates the similarity R SSD (k, l) at each coordinate (k, l) by SSD (Sum of Squared Difference) represented by the following equation (2). Alternatively, the similarity R SAD (k, l) is calculated by SAD (Sum of Absolute Difference) shown in the following expression (3). Here, C (i + k, j + l) in the following expressions (2) and (3) is a pixel value of the captured image of the scope endoscope 33, and B (i, j) is a pixel value of the template image. is there. N and M are the numbers of pixels in the horizontal and vertical directions of the template image, and i and j are the coordinates of the pixels of the template image.

8.カプセル型内視鏡の詳細な構成例
図14、図17に、特殊光画像を取得するカプセル型内視鏡の詳細な構成例を示す。図14には、カプセル型内視鏡の第1の詳細な構成例を示す。このカプセル型内視鏡300は、光源310、集光レンズ320、照明レンズ330(照明光学系)、撮像素子340、結像レンズ350、集積回路装置390を含む。
8). Detailed Configuration Example of Capsule Endoscope FIGS. 14 and 17 show a detailed configuration example of a capsule endoscope that acquires a special light image. FIG. 14 shows a first detailed configuration example of the capsule endoscope. The capsule endoscope 300 includes a light source 310, a condenser lens 320, an illumination lens 330 (illumination optical system), an image sensor 340, an imaging lens 350, and an integrated circuit device 390.

光源310は、特殊光または白色光を照射する。特殊光は、例えば特定の波長帯域を透過するフィルタに白色光を透過させることで生成する。集光レンズ320は、光源310からの照射光を照明光学系330に集光させる。照明光学系330は、撮影領域に照明光を配光する。結像レンズ350は、撮影領域からの反射光を撮像素子340に結像させる。撮像素子340は、例えばCMOSセンサやCCD等のイメージセンサで構成され、被写体像を撮像する。集積回路装置390は、ASIC等で実現され、A/D変換部、画像処理部、第1検出部、音波発信部、電波発信部、制御部等を有する。   The light source 310 emits special light or white light. The special light is generated, for example, by transmitting white light through a filter that transmits a specific wavelength band. The condensing lens 320 condenses the irradiation light from the light source 310 on the illumination optical system 330. The illumination optical system 330 distributes illumination light to the imaging region. The imaging lens 350 forms an image of the reflected light from the imaging region on the image sensor 340. The image sensor 340 is configured by an image sensor such as a CMOS sensor or a CCD, for example, and captures a subject image. The integrated circuit device 390 is realized by an ASIC or the like, and includes an A / D conversion unit, an image processing unit, a first detection unit, a sound wave transmission unit, a radio wave transmission unit, a control unit, and the like.

図15〜図16(B)に、光源310の照射光の波長帯域例を示す。図15に示すように、光源310は、390nm〜445nm(B2)の帯域と530nm〜550nm(G2)の帯域の特殊光を照射する。そして、撮像素子340は、その特殊光の反射光を受光することで、上記帯域の特殊光画像を撮像する。   FIG. 15 to FIG. 16B show examples of wavelength bands of light emitted from the light source 310. As shown in FIG. 15, the light source 310 emits special light in a band of 390 nm to 445 nm (B2) and a band of 530 nm to 550 nm (G2). Then, the image sensor 340 receives the reflected light of the special light to capture a special light image in the band.

または、図16(A)に示すように、光源310は、380nm〜650nmの帯域の白色光を照射してもよい。この場合、撮像素子340と結像レンズ350の間にフィルタを設けることで、特殊光画像を撮像する。具体的には、図16(B)に示すように、390nm〜445nm(B2)の帯域と530nm〜550nm(G2)の透過帯域を有するフィルタを設ける。そして、白色光の反射光をフィルタで透過し、上記帯域の特殊光画像を撮像する。   Alternatively, as illustrated in FIG. 16A, the light source 310 may emit white light in a band of 380 nm to 650 nm. In this case, a special light image is captured by providing a filter between the image sensor 340 and the imaging lens 350. Specifically, as illustrated in FIG. 16B, a filter having a band of 390 nm to 445 nm (B2) and a transmission band of 530 nm to 550 nm (G2) is provided. And the reflected light of white light is permeate | transmitted with a filter, and the special light image of the said band is imaged.

図17には、通常光画像を撮像する撮像素子と特殊光画像を撮像する撮像素子を有する第2の詳細な構成例を示す。このカプセル型内視鏡300は、光源310(白色光光源)、集光レンズ320、照明光学系330、第1の撮像素子340、結像レンズ350、第2の撮像素子360、特殊光フィルタ370、ハーフミラー380、集積回路装置390を含む。   FIG. 17 shows a second detailed configuration example having an image sensor that captures a normal light image and an image sensor that captures a special light image. The capsule endoscope 300 includes a light source 310 (white light source), a condensing lens 320, an illumination optical system 330, a first image sensor 340, an imaging lens 350, a second image sensor 360, and a special light filter 370. , Half mirror 380, and integrated circuit device 390.

光源310は、白色光を照射する。ハーフミラー380は、結像レンズ350からの光を第1の撮像素子340と第2の撮像素子360に分配する。特殊光フィルタ370は、白色の反射光のうちの特定の波長帯域の光を透過させる。例えば、特殊光フィルタ370は、図16(B)で上述の透過帯域を有するフィルタにより構成される。第1の撮像素子340は、特殊光フィルタ370を透過した特殊光が結像され、特殊光画像を撮像する。第2の撮像素子360は、フィルタを透過しない白色光の被写体像が結像され、通常光画像を撮影する。   The light source 310 emits white light. The half mirror 380 distributes the light from the imaging lens 350 to the first image sensor 340 and the second image sensor 360. The special light filter 370 transmits light in a specific wavelength band in the white reflected light. For example, the special optical filter 370 is configured by a filter having the above-described transmission band in FIG. The first imaging element 340 forms an image of the special light that has passed through the special light filter 370 and images a special light image. The second image sensor 360 forms a subject image of white light that does not pass through the filter, and captures a normal light image.

9.本実施形態の概要
以上、内視鏡システムの全体構成について説明したが、第2の内視鏡システムの制御装置はその処理を単独で行うことが可能である。以下では、上記において具体的に説明した本実施形態のうち、制御装置の概要について説明する。なお、以下では原則として図1に示すシステム構成例に付した符号を用いて説明するが、第1体内データ取得部、第2体内データ取得部、出力制御部等の同一の構成要素については、図11、図12に示す第2、第3のシステム構成例においても同様である。
9. Overview of the present embodiment The overall configuration of the endoscope system has been described above, but the control device of the second endoscope system can perform the processing alone. Below, the outline | summary of a control apparatus is demonstrated among this embodiment demonstrated concretely above. In the following description, in principle, the description will be made using the reference numerals attached to the system configuration example shown in FIG. 1. The same applies to the second and third system configuration examples shown in FIGS.

さて、上述のように、カプセル型内視鏡を用いて病変を検出し、その病変の処置をスコープ型内視鏡を用いて行う場合、検出した病変の場所を医師が探す必要があるという課題がある。また、病変検出の確実性を向上するという課題がある。   As described above, when a lesion is detected using a capsule endoscope, and the treatment of the lesion is performed using a scope endoscope, a problem is that a doctor needs to find the location of the detected lesion. There is. There is also a problem of improving the certainty of lesion detection.

この点、本実施形態によれば、図1等で上述のように、制御装置18は、第1体内データ取得部185、第2体内データ取得部186、出力制御部181を含む。そして、特定の波長帯域の情報を含む特殊光画像が第1の内視鏡装置10(カプセル型内視鏡)により取得される。その特殊光画像の中から注目すべき領域である注目領域を含む画像が検出され、その注目領域を含む画像が撮像された際の第1の内視鏡装置10の位置を示す注目位置情報が取得される。また、白色光の波長帯域の情報を含む通常光画像(白色光画像)が第2の内視鏡装置15(スコープ型内視鏡)により取得される。この場合に、第1体内データ取得部185は、注目位置情報を含む第1の体内データを取得する。第2の体内データ取得部186は、第2の内視鏡装置15により取得された通常光画像と、第2の内視鏡装置15の位置を示す第2の位置情報とを含む第2の体内データを取得する。そして、出力制御部181は、第1の体内データと第2の体内データに基づいて、第2の内視鏡装置15を誘導するための誘導情報(ナビゲーション情報)を出力する制御を行う。   In this regard, according to the present embodiment, the control device 18 includes the first in-vivo data acquisition unit 185, the second in-vivo data acquisition unit 186, and the output control unit 181 as described above with reference to FIG. And the special light image containing the information of a specific wavelength band is acquired by the 1st endoscope apparatus 10 (capsule type endoscope). From the special light image, an image including a region of interest, which is a region of interest, is detected, and attention position information indicating the position of the first endoscope device 10 when the image including the region of interest is captured is obtained. To be acquired. Further, a normal light image (white light image) including information on the wavelength band of white light is acquired by the second endoscope apparatus 15 (scope type endoscope). In this case, the first in-vivo data acquisition unit 185 acquires first in-vivo data including the position information of interest. The second in-vivo data acquisition unit 186 includes a normal light image acquired by the second endoscope device 15 and second position information indicating the position of the second endoscope device 15. Get in-vivo data. Then, the output control unit 181 performs control to output guidance information (navigation information) for guiding the second endoscope device 15 based on the first in-vivo data and the second in-vivo data.

これにより、カプセル型内視鏡を用いて検出された病変の位置へスコープ型内視鏡を操作することが容易になる。また、病変検出の確実性を向上することが可能になる。具体的には、第1の体内データと第2の体内データに基づいて誘導情報が提示され、その誘導情報に従ってスコープ型内視鏡を操作することで、医師が容易にスコープ型内視鏡を病変位置まで挿入できる。これにより、病変の見落としや患者の負担を減らすことができる。また、カプセル型内視鏡による病変診断時に、扁平上皮癌等の特定の病変の検出精度を向上できる特殊光画像を用いることで、通常光画像では発見しにくい病変の検出精度を向上できる。   Thereby, it becomes easy to operate the scope endoscope to the position of the lesion detected using the capsule endoscope. In addition, the certainty of lesion detection can be improved. Specifically, guidance information is presented based on the first in-vivo data and the second in-vivo data, and by operating the scope endoscope according to the guidance information, the doctor can easily operate the scope endoscope. Can be inserted up to the lesion location. Thereby, the oversight of the lesion and the burden on the patient can be reduced. In addition, when a lesion is diagnosed by a capsule endoscope, the use of a special light image that can improve the detection accuracy of a specific lesion such as squamous cell carcinoma can improve the detection accuracy of a lesion that is difficult to detect with a normal light image.

ここで、注目領域とは、使用者にとって観察の優先順位が他の領域よりも相対的に高い領域であり、例えば、使用者が医者であり治療を希望した場合、粘膜部や病変部を写した領域を指す。また、他の例として、医者が観察したいと欲した対象が泡や便であれば、注目領域は、その泡部分や便部分を写した領域になる。即ち、使用者が注目すべき対象は、その観察目的によって異なるが、いずれにしても、その観察に際し、使用者にとって観察の優先順位が他の領域よりも相対的に高い領域が注目領域となる。また、注目領域は特殊光画像の画素の特徴量(色相、彩度等)を用いて検出することができる。例えば、下式(4)や(5)に示すように、特徴量に対して閾値を設定することで注目領域を検出でき、その閾値は、注目領域の種類に応じて変化する。例えば第1の種類の注目領域に対する色相、彩度等の特徴量の閾値と、第2の種類の注目領域に対する特徴量の閾値は異なった値になる。そして、注目領域の種類が変わった場合には、この特徴量の閾値を変えるだけで済み、注目領域の検出後の処理(注目位置情報の取得処理、出力制御処理等)については、本実施形態で説明した処理と同様の処理で実現することができる。
−70°< 色相H < 30° ・・・ (4)
16 < 彩度C < 128 ・・・ (5)
Here, the attention area is an area where the priority of observation for the user is higher than other areas. For example, if the user is a doctor and desires treatment, the mucous membrane area and the lesion area are copied. Refers to the area. As another example, if the object that the doctor desires to observe is a bubble or stool, the region of interest is a region in which the bubble or stool portion is copied. In other words, the object that the user should pay attention to depends on the purpose of observation, but in any case, in the observation, the region where the priority of observation for the user is relatively higher than other regions becomes the region of interest. . The attention area can be detected using the feature amount (hue, saturation, etc.) of the pixel of the special light image. For example, as shown in the following formulas (4) and (5), the attention area can be detected by setting a threshold value for the feature amount, and the threshold value changes according to the type of the attention area. For example, the threshold value of the feature amount such as hue and saturation for the first type of attention region is different from the threshold value of the feature amount for the second type of attention region. Then, when the type of the attention area changes, it is only necessary to change the threshold value of the feature amount. Processing after detection of the attention area (attention position information acquisition processing, output control processing, etc.) is performed in this embodiment. It can be realized by the same processing as that described in the above.
−70 ° <Hue H <30 ° (4)
16 <saturation C <128 (5)

また、上記の誘導情報とは、出力制御部181が出力装置19に出力する情報であり、その出力された情報をユーザが認識して第2の内視鏡装置15を注目領域の位置まで操作するための情報である。例えば、誘導情報は、図5のD2に示す注目領域の方向を示す表示や、図7のE2に示す注目領域までの距離を表す情報や、図10のA2に示す体内マップや、注目領域に接近した場合に出力するビープ音や、注目領域に接近したことをアナウンスする音声である。   The guidance information is information that the output control unit 181 outputs to the output device 19, and the user recognizes the output information and operates the second endoscope device 15 to the position of the attention area. It is information to do. For example, the guidance information is displayed on the display indicating the direction of the attention area indicated by D2 in FIG. 5, the information indicating the distance to the attention area indicated by E2 in FIG. 7, the in-vivo map indicated by A2 in FIG. It is a beep sound that is output when approaching, or a sound that announces that it has approached the region of interest.

また、本実施形態では、図4等で上述のように、出力制御部181は判定部401を有する。この判定部401は、第2の位置情報が示すスコープ型内視鏡15の位置が、注目位置情報が示す位置に接近したか否かを判定する。そして、出力制御部181は、注目位置情報が示す位置にスコープ型内視鏡15の位置が接近したと判定部401により判定された場合に、スコープ型内視鏡15の位置から注目位置情報が示す位置への方向を示す方向画像(例えば図5のD2、図7のE1)を誘導情報として出力する制御を行う。   In the present embodiment, the output control unit 181 includes the determination unit 401 as described above with reference to FIG. The determination unit 401 determines whether or not the position of the scope endoscope 15 indicated by the second position information has approached the position indicated by the target position information. When the determination unit 401 determines that the position of the scope-type endoscope 15 has approached the position indicated by the position-of-interest information, the output control unit 181 obtains the position-of-interest information from the position of the scope-type endoscope 15. Control is performed to output a direction image (for example, D2 in FIG. 5 and E1 in FIG. 7) indicating the direction to the indicated position as guidance information.

このようにすれば、スコープ型内視鏡15が注目領域に接近した場合に、その接近した注目領域の方向を示すことができ、医師によるスコープ型内視鏡15の直感的な操作を補助できる。   In this way, when the scope endoscope 15 approaches the attention area, the direction of the approached attention area can be indicated, and an intuitive operation of the scope endoscope 15 by the doctor can be assisted. .

また、図6等で上述のように、出力制御部181は位置選択部501を有する。この位置選択部501は、複数の注目位置情報が取得された場合に、その複数の注目位置情報が示す複数の位置のうち、第2の位置情報が示すスコープ型内視鏡15の位置から最も近距離の位置を選択する。そして、出力制御部181は、スコープ型内視鏡15の位置から、位置選択部501により選択された位置への方向を示す方向画像を誘導情報として出力する制御を行う。   Further, as described above with reference to FIG. 6 and the like, the output control unit 181 includes the position selection unit 501. When a plurality of attention position information is acquired, the position selection unit 501 is the most from the position of the scope endoscope 15 indicated by the second position information among the plurality of positions indicated by the plurality of attention position information. Select a short distance position. Then, the output control unit 181 performs control to output a direction image indicating the direction from the position of the scope endoscope 15 to the position selected by the position selection unit 501 as guidance information.

このようにすれば、複数の注目領域が検出された場合に、その複数の注目領域のうちの最も近い注目領域への方向を示すことができ、医師によるスコープ型内視鏡15の効率的な操作を補助できる。   In this way, when a plurality of attention areas are detected, the direction to the closest attention area among the plurality of attention areas can be indicated, and the efficient use of the scope-type endoscope 15 by the doctor can be indicated. Can assist the operation.

また、図6等で上述のように、出力制御部181は距離算出部502と位置選択部501を有する。距離算出部502は、複数の注目位置情報が取得された場合に、その複数の注目位置情報が示す複数の位置と、第2の位置情報が示すスコープ型内視鏡15の位置との間の距離を算出する。位置選択部501は、距離算出部502により算出された距離に基づいて、複数の位置のうち、スコープ型内視鏡15の位置から最も近距離の位置を選択する。そして、出力制御部181は、位置選択部501により選択された位置と、スコープ型内視鏡15の位置との間の距離情報(例えば図7のE2)を誘導情報として出力する制御を行う。   Further, as described above with reference to FIG. 6 and the like, the output control unit 181 includes the distance calculation unit 502 and the position selection unit 501. The distance calculation unit 502, when a plurality of attention position information is acquired, between the plurality of positions indicated by the plurality of attention position information and the position of the scope endoscope 15 indicated by the second position information. Calculate the distance. Based on the distance calculated by the distance calculation unit 502, the position selection unit 501 selects a position closest to the position of the scope endoscope 15 from among a plurality of positions. Then, the output control unit 181 performs control to output distance information (for example, E2 in FIG. 7) between the position selected by the position selection unit 501 and the position of the scope endoscope 15 as guidance information.

このようにすれば、複数の注目領域が検出された場合に、その複数の注目領域のうちの最も近い注目領域までの距離を示すことができ、医師によるスコープ型内視鏡15の効率的な操作を補助できる。   In this way, when a plurality of attention areas are detected, the distance to the closest attention area among the plurality of attention areas can be indicated, and the doctor can efficiently use the scope endoscope 15. Can assist the operation.

また、図8等で上述のように、出力制御部181はマップ生成部601と対応付け部602を有する。マップ生成部601は、体内の空間(第1の内視鏡装置の通過軌跡、消化管の配置や構造、体腔の配置や構造)の全体または一部を表現した体内マップ(例えば図9に示す2次元マップ)を生成する。対応付け部602は、マップ生成部601により生成された体内マップ上において、注目位置情報と第2の位置情報とを対応付ける(マッピングする)。そして、出力制御部181は、注目位置情報と第2の位置情報とが対応付けられた体内マップ(例えば図10のA2)を出力する制御を行う。   Further, as described above with reference to FIG. 8 and the like, the output control unit 181 includes the map generation unit 601 and the association unit 602. The map generation unit 601 is an in-vivo map (for example, shown in FIG. 9) that represents the whole or a part of the space in the body (the trajectory of the first endoscope device, the arrangement and structure of the digestive tract, the arrangement and structure of the body cavity). 2D map) is generated. The associating unit 602 associates (maps) the target position information and the second position information on the in-vivo map generated by the map generating unit 601. Then, the output control unit 181 performs control to output an in-vivo map (for example, A2 in FIG. 10) in which the target position information and the second position information are associated with each other.

このようにすれば、注目領域とスコープ型内視鏡15の現在位置がマッピングされた体内マップを誘導情報として表示できる。これにより、医師が患者の体内の全体イメージを容易に把握できる。そして、体内マップ上に注目領域とスコープ型内視鏡15の位置をマッピングすることで、注目領域とスコープ型内視鏡15の位置関係を容易に把握できる。   In this way, an in-vivo map in which the region of interest and the current position of the scope endoscope 15 are mapped can be displayed as guidance information. Thereby, a doctor can grasp | ascertain the whole image of a patient's body easily. Then, by mapping the attention area and the position of the scope endoscope 15 on the in-vivo map, the positional relationship between the attention area and the scope endoscope 15 can be easily grasped.

また、図1等で上述のように、第1の内視鏡装置10により画像が取得された際の第1の内視鏡装置10の位置を示す第1の位置情報が第1位置情報取得部132により取得される。この場合に、第1体内データ取得部185は、第1の位置情報を含む第1の体内データを取得する。そして、マップ生成部601は、その第1の体内データに含まれる第1の位置情報から体内マップを生成する。   Further, as described above with reference to FIG. 1 and the like, the first position information indicating the position of the first endoscope apparatus 10 when the image is acquired by the first endoscope apparatus 10 is the first position information acquisition. Acquired by the unit 132. In this case, the first in-vivo data acquisition unit 185 acquires first in-vivo data including the first position information. Then, the map generation unit 601 generates an in-vivo map from the first position information included in the first in-vivo data.

このようにすれば、体内を通過したカプセル型内視鏡の軌跡に基づいて、体内の空間の全体または一部を表現した体内マップを生成できる。   In this way, based on the locus of the capsule endoscope that has passed through the body, it is possible to generate an in-vivo map that represents all or part of the space inside the body.

また、図11等で上述のように、制御装置26は、第2の内視鏡装置25の位置を示す第2の位置情報を取得する第2位置情報取得部261を含む。そして、第2位置情報取得部261は、第2の内視鏡装置25の挿入距離を示す挿入長情報(挿入距離情報)に基づいて、第2の位置情報を取得する。   In addition, as described above with reference to FIG. 11 and the like, the control device 26 includes a second position information acquisition unit 261 that acquires second position information indicating the position of the second endoscope device 25. Then, the second position information acquisition unit 261 acquires the second position information based on the insertion length information (insertion distance information) indicating the insertion distance of the second endoscope device 25.

このようにすれば、スコープ型内視鏡の位置情報を取得するための発信機や受信機が不要となる。これにより、受信機を患者に装着する等の処置前の準備作業を省略できる。また、機器の削減によりコストを削減できる。   This eliminates the need for a transmitter or receiver for acquiring position information of the scope endoscope. Thereby, the preparatory work before treatment, such as mounting the receiver on the patient, can be omitted. In addition, the cost can be reduced by reducing the number of devices.

次に、上記制御装置を含む内視鏡システム全体の概要について説明する。   Next, an overview of the entire endoscope system including the control device will be described.

図1等で上述のように、本実施形態の内視鏡システムは、第1の内視鏡装置10(カプセル型内視鏡)、注目領域検出部131、第1位置情報取得部132、第2の内視鏡装置15(スコープ型内視鏡)、第1体内データ取得部185、第2体内データ取得部186、出力制御部181を含む。そして、第1の内視鏡装置10(カプセル型内視鏡)は特殊光画像を取得する。注目領域検出部131は、第1の内視鏡装置10により取得された特殊光画像の中から注目領域を含む画像を検出する。第1位置情報取得部132は、注目領域を含む画像が撮像された際の第1の内視鏡装置10の位置を示す注目位置情報を取得する。第2の内視鏡装置15は通常光画像を取得する。第1体内データ取得部185は、注目位置情報を含む情報を第1の体内データとして取得する。第2体内データ取得部186は、第2の内視鏡装置15により取得された通常光画像と、第2の内視鏡装置15の位置を示す第2の位置情報を含む情報を第2の体内データとして取得する。そして、出力制御部181は、第1、第2の体内データに基づいて、第2の内視鏡装置15を誘導するための誘導情報を出力する。   As described above with reference to FIG. 1 and the like, the endoscope system of the present embodiment includes the first endoscope apparatus 10 (capsule endoscope), the attention area detection unit 131, the first position information acquisition unit 132, the first position information acquisition unit 132, and the first position information acquisition unit 132. 2 endoscope apparatuses 15 (scope type endoscopes), a first in-vivo data acquisition unit 185, a second in-vivo data acquisition unit 186, and an output control unit 181. Then, the first endoscope apparatus 10 (capsule endoscope) acquires a special light image. The attention area detection unit 131 detects an image including the attention area from the special light image acquired by the first endoscope apparatus 10. The first position information acquisition unit 132 acquires attention position information indicating the position of the first endoscope apparatus 10 when an image including the attention area is captured. The second endoscope apparatus 15 acquires a normal light image. The first in-vivo data acquisition unit 185 acquires information including attention position information as first in-vivo data. The second in-vivo data acquisition unit 186 receives the information including the normal light image acquired by the second endoscope device 15 and the second position information indicating the position of the second endoscope device 15 as the second information. Obtained as internal data. Then, the output control unit 181 outputs guidance information for guiding the second endoscope apparatus 15 based on the first and second in-vivo data.

これにより、カプセル型内視鏡を用いて検出された病変の位置へスコープ型内視鏡を操作することが容易になる。また、病変検出の確実性を向上することが可能になる。具体的には、カプセル型内視鏡による病変診断時に、扁平上皮癌等の特定の病変の検出精度を向上できる特殊光画像を用いることで、通常光画像では発見しにくい病変の検出精度を向上できる。   Thereby, it becomes easy to operate the scope endoscope to the position of the lesion detected using the capsule endoscope. In addition, the certainty of lesion detection can be improved. Specifically, when detecting lesions using a capsule endoscope, the detection accuracy of lesions that are difficult to detect with normal light images is improved by using special light images that can improve the detection accuracy of specific lesions such as squamous cell carcinoma. it can.

また、図14等で上述のように、第1の内視鏡装置300(カプセル型内視鏡)は、特定の波長帯域の光を発する光源310(特殊光光源)を有する。そして、第1の内視鏡装置10は、その光源310からの特定の波長帯域の光を用いて特殊光画像を取得する。   Further, as described above with reference to FIG. 14 and the like, the first endoscope apparatus 300 (capsule endoscope) includes the light source 310 (special light source) that emits light in a specific wavelength band. Then, the first endoscope apparatus 10 acquires a special light image using light of a specific wavelength band from the light source 310.

このようにすれば、特定の病変を検出する精度に優れる特殊光画像を取得できる。例えば、後述するNBIを用いれば、特殊光光源を照射することで粘膜表層の毛細血管や粘膜微細模様の強調表示がされるため、粘膜表層の毛細血管や粘膜微細模様に異常を生ずる病変の検出が容易になる。   In this way, it is possible to acquire a special light image with excellent accuracy for detecting a specific lesion. For example, if NBI, which will be described later, is used, capillary blood vessels and fine mucosal patterns on the mucosal surface are highlighted by irradiating a special light source. Becomes easier.

また、図17等で上述のように、第1の内視鏡装置300は、白色光の波長帯域の光を発する光源310(白色光光源)と、特定の波長帯域の光を透過するフィルタ370と、を有する。そして、第1の内視鏡装置300は、光源310からの光を被写体に照射して得られた光(例えば、反射光や透過光)をフィルタ370に通過させることで、特殊光画像を取得する。   In addition, as described above with reference to FIG. 17 and the like, the first endoscope apparatus 300 includes a light source 310 (white light source) that emits light in the wavelength band of white light and a filter 370 that transmits light in a specific wavelength band. And having. The first endoscope apparatus 300 acquires a special light image by allowing light (for example, reflected light or transmitted light) obtained by irradiating the subject with light from the light source 310 to pass through the filter 370. To do.

このようにすれば、白色光光源310とフィルタ370を設けることで、特殊光光源を設けることなく特殊光画像を取得できる。また、白色光光源310を設けているため、ハーフミラー380を更に設けることで、通常光画像と特殊光画像を同時に取得することも可能になる。   In this way, by providing the white light source 310 and the filter 370, a special light image can be acquired without providing a special light source. Further, since the white light source 310 is provided, the normal light image and the special light image can be simultaneously acquired by further providing the half mirror 380.

また、本実施形態では、第2の内視鏡装置15は、白色光の波長帯域の光を発する白色光光源を有する。そして、第2の内視鏡装置15は、白色光光源からの白色の波長帯域の光を用いて、通常光画像を取得する。例えば、図1に示す第2の内視鏡装置15の撮像部151が、図示しない白色光光源を有する。   In the present embodiment, the second endoscope apparatus 15 includes a white light source that emits light in the wavelength band of white light. And the 2nd endoscope apparatus 15 acquires a normal light image using the light of the white wavelength band from a white light source. For example, the imaging unit 151 of the second endoscope apparatus 15 shown in FIG. 1 has a white light source (not shown).

このようにすれば、白色光光源を用いることで照明を明るくすることが容易になるため、高輝度の画像を取得でき、画像を観察しやすくできる。また、白色光光源は多くの内視鏡装置に搭載されているため、従来と同様の観察操作性を確保できる。   In this way, it becomes easy to brighten the illumination by using the white light source, so that a high-luminance image can be acquired and the image can be easily observed. Further, since the white light source is mounted on many endoscope apparatuses, the same observation operability as that of the prior art can be ensured.

また、図1等で上述のように、第1位置情報取得部132は、第1の内視鏡装置10に設けられた発信機103からの電波または音波が、第1の内視鏡装置10の外部の測位点(受信機11の装着位置)に設けられた受信機11で受信されることで取得された位置情報(例えばxy座標)を、注目位置情報として取得する。   In addition, as described above with reference to FIG. 1 and the like, the first position information acquisition unit 132 is configured so that radio waves or sound waves from the transmitter 103 provided in the first endoscope apparatus 10 are transmitted from the first endoscope apparatus 10. Position information (for example, xy coordinates) acquired by receiving by a receiver 11 provided at an external positioning point (a mounting position of the receiver 11) is acquired as attention position information.

このようにすれば、受信機により電波または音波を受信することで、カプセル型内視鏡の体内位置を測定し、画像処理装置13がその体内位置を高精度に取得できる。   In this way, by receiving radio waves or sound waves by the receiver, the internal position of the capsule endoscope can be measured, and the image processing apparatus 13 can acquire the internal position with high accuracy.

また、図1等で上述のように、注目領域検出部131は、特殊光画像に含まれる各画素の色を変換し、変換後の特殊光画像に基づいて注目領域を検出する。例えば、注目領域検出部131は、上述の式(1)の変換式により色空間を変換する。   Further, as described above with reference to FIG. 1 and the like, the attention area detection unit 131 converts the color of each pixel included in the special light image, and detects the attention area based on the converted special light image. For example, the attention area detection unit 131 converts the color space using the above-described conversion formula (1).

このようにすれば、検出したい注目領域の特性(分光特性など)に応じて、注目領域とそれ以外の領域との分離能が向上するような色変換を行うことができる。これにより、検出精度を向上し、検出もれを抑止することができる。   In this way, it is possible to perform color conversion that improves the separation between the attention area and other areas according to the characteristics (spectral characteristics, etc.) of the attention area to be detected. Thereby, detection accuracy can be improved and detection leakage can be suppressed.

また、本実施形態では、特定の波長帯域は、白色光の波長帯域(例えば380nm〜650nm)よりも狭い帯域である(NBI:Narrow Band Imaging)。例えば、通常光画像および特殊光画像は生体内を写した生体内画像であり、生体内画像に含まれる特定の波長帯域は、血液中のヘモグロビンに吸収される波長の波長帯域である。このヘモグロビンに吸収される波長は、例えば390ナノメータ〜445ナノメータ(第1の狭帯域光。狭帯域光のB2成分)、または530ナノメータ〜550ナノメータ(第2の狭帯域光。狭帯域光のG2成分)である。   In the present embodiment, the specific wavelength band is a band narrower than the wavelength band of white light (for example, 380 nm to 650 nm) (NBI: Narrow Band Imaging). For example, the normal light image and the special light image are in-vivo images obtained by copying the inside of the living body, and the specific wavelength band included in the in-vivo image is a wavelength band of a wavelength that is absorbed by hemoglobin in blood. The wavelength absorbed by this hemoglobin is, for example, 390 to 445 nanometers (first narrowband light; B2 component of narrowband light), or 530 to 550 nanometers (second narrowband light; G2 of narrowband light). Component).

これにより、生体の表層部及び、深部に位置する血管の構造を観察することが可能になる。また得られた信号を特定のチャンネル(G2→R、B2→G,B)に入力することで、扁平上皮癌等の通常光では視認が難しい病変などを褐色等で表示することができ、病変部の見落としを抑止することができる。なお、390nm〜445nmまたは530nm〜550nmとは、ヘモグロビンに吸収されるという特性及び、それぞれ生体の表層部または深部まで到達するという特性から得られた数字である。ただし、この場合の波長帯域はこれに限定されず、例えばヘモグロビンによる吸収と生体の表層部又は深部への到達に関する実験結果等の変動要因により、波長帯域の下限値が0〜10%程度減少し、上限値が0〜10%程度上昇することも考えられる。   Thereby, it becomes possible to observe the structure of the blood vessel located in the surface layer part and the deep part of the living body. In addition, by inputting the obtained signals to specific channels (G2 → R, B2 → G, B), lesions that are difficult to see with normal light such as squamous cell carcinoma can be displayed in brown, etc. Oversight of parts can be suppressed. Note that 390 nm to 445 nm or 530 nm to 550 nm are numbers obtained from the characteristic of being absorbed by hemoglobin and the characteristic of reaching the surface layer or the deep part of the living body, respectively. However, the wavelength band in this case is not limited to this. For example, the lower limit of the wavelength band is reduced by about 0 to 10% due to the variation factors such as the absorption by hemoglobin and the experimental results regarding the arrival of the living body on the surface layer or the deep part. It is also conceivable that the upper limit value increases by about 0 to 10%.

また、本実施形態では、通常光画像および特殊光画像は生体内を写した生体内画像であり、その生体内画像に含まれる特定の波長帯域は、蛍光物質が発する蛍光の波長帯域であってもよい。例えば、特定の波長帯域は、490ナノメータ〜625ナノメータの波長帯域であってもよい。   In the present embodiment, the normal light image and the special light image are in-vivo images obtained by copying the inside of the living body, and the specific wavelength band included in the in-vivo image is a wavelength band of fluorescence emitted from the fluorescent substance. Also good. For example, the specific wavelength band may be a wavelength band of 490 nanometers to 625 nanometers.

これにより、AFI(Auto Fluorescence Imaging)と呼ばれる蛍光観察が可能となる。励起光(390nm〜470nm)を照射することで、コラーゲンなどの蛍光物質からの自家蛍光(intrinsic fluorescence。490nm〜625nm)を観察することができる。このような観察では病変を正常粘膜とは異なった色調で強調表示することができ、病変部の見落としを抑止すること等が可能になる。なお490nm〜625nmという数字は、前述の励起光を照射した際、コラーゲン等の蛍光物質が発する自家蛍光の波長帯域を示したものである。ただし、この場合の波長帯域はこれに限定されず、例えば蛍光物質が発する蛍光の波長帯域に関する実験結果等の変動要因により、波長帯域の下限値が0〜10%程度減少し、上限値が0〜10%程度上昇することも考えられる。また、ヘモグロビンに吸収される波長帯域(540nm〜560nm)を同時に照射し、擬似カラー画像を生成してもよい。   This enables fluorescence observation called AFI (Auto Fluorescence Imaging). By irradiating excitation light (390 nm to 470 nm), autofluorescence (intrinsic fluorescence from 490 nm to 625 nm) from a fluorescent substance such as collagen can be observed. In such observation, the lesion can be highlighted with a color tone different from that of the normal mucous membrane, and the oversight of the lesion can be suppressed. The numbers from 490 nm to 625 nm indicate the wavelength band of autofluorescence emitted by fluorescent materials such as collagen when irradiated with the above-described excitation light. However, the wavelength band in this case is not limited to this. For example, the lower limit of the wavelength band is reduced by about 0 to 10% and the upper limit is 0 due to a variation factor such as an experimental result regarding the wavelength band of the fluorescence emitted by the fluorescent material. A rise of about 10% is also conceivable. Alternatively, a pseudo color image may be generated by simultaneously irradiating a wavelength band (540 nm to 560 nm) absorbed by hemoglobin.

また、本実施形態では、生体内画像に含まれる特定の波長帯域は、赤外光の波長帯域であってもよい。例えば、特定の波長帯域は、790ナノメータ〜820ナノメータ、または905ナノメータ〜970ナノメータの波長帯域であってもよい。   In the present embodiment, the specific wavelength band included in the in-vivo image may be a wavelength band of infrared light. For example, the specific wavelength band may be a wavelength band of 790 nanometers to 820 nanometers, or 905 nanometers to 970 nanometers.

これにより、IRI(Infra Red Imaging)と呼ばれる赤外光観察が可能となる。赤外光が吸収されやすい赤外指標薬剤であるICG(インドシアニングリーン)を静脈注射した上で、上記波長帯域の赤外光を照射することで、人間の目では視認が難しい粘膜深部の血管や血流情報を強調表示することができ、胃癌の深達度診断や治療方針の判定などが可能になる。なお、790nm〜820nmという数字は赤外指標薬剤の吸収がもっとも強いという特性から求められ、905nm〜970nmという数字は赤外指標薬剤の吸収がもっとも弱いという特性から求められたものである。ただし、この場合の波長帯域はこれに限定されず、例えば赤外指標薬剤の吸収に関する実験結果等の変動要因により、波長帯域の下限値が0〜10%程度減少し、上限値が0〜10%程度上昇することも考えられる。   Thereby, infrared light observation called IRI (Infra Red Imaging) becomes possible. Intravenous injection of ICG (Indocyanine Green), an infrared index drug that easily absorbs infrared light, and then irradiating with infrared light in the above wavelength band, it is difficult to visually recognize the blood vessels in the deep mucosa And blood flow information can be highlighted, making it possible to diagnose the depth of gastric cancer and determine the treatment policy. The numbers 790 nm to 820 nm are obtained from the characteristic that the absorption of the infrared index drug is strongest, and the numbers 905 nm to 970 nm are calculated from the characteristic that the absorption of the infrared index drug is the weakest. However, the wavelength band in this case is not limited to this. For example, the lower limit of the wavelength band is reduced by about 0 to 10% and the upper limit is 0 to 10 due to a variation factor such as an experimental result regarding absorption of the infrared index drug. It can also be expected to increase by about%.

また、本実施形態では、取得された通常光画像に基づいて、特殊光画像を生成する特殊光画像取得部を含んでもよい。例えば、図1に示す第1画像取得部102が通常光画像を取得し、第1画像取得部102が図示しない特殊光画像取得部を含み、その特殊光画像取得部が、取得された通常光画像から特殊光画像を生成してもよい。   Moreover, in this embodiment, you may include the special light image acquisition part which produces | generates a special light image based on the acquired normal light image. For example, the first image acquisition unit 102 illustrated in FIG. 1 acquires a normal light image, the first image acquisition unit 102 includes a special light image acquisition unit (not shown), and the special light image acquisition unit includes the acquired normal light. A special light image may be generated from the image.

具体的には、特殊光画像取得部は、取得された通常光画像から、白色光の波長帯域における信号を抽出する信号抽出部を含み、特殊光画像取得部は、抽出された白色光の波長帯域における信号に基づいて、特定の波長帯域における信号を含む特殊光画像を生成してもよい。例えば、信号抽出部は、通常光画像のRGB信号から10nm刻みに被写体の分光反射率特性を推定し、特殊光画像取得部は、その推定された信号成分を上記特定の帯域で積算して特殊光画像を生成する。   Specifically, the special light image acquisition unit includes a signal extraction unit that extracts a signal in the wavelength band of white light from the acquired normal light image, and the special light image acquisition unit includes the wavelength of the extracted white light. A special light image including a signal in a specific wavelength band may be generated based on the signal in the band. For example, the signal extraction unit estimates the spectral reflectance characteristics of the subject in 10 nm increments from the RGB signal of the normal light image, and the special light image acquisition unit integrates the estimated signal component in the specific band and performs special processing. Generate a light image.

より具体的には、特殊光画像取得部は、白色光の波長帯域における信号から、特定の波長帯域における信号を算出するためのマトリクスデータを設定するマトリクスデータ設定部を含んでもよい。そして、特殊光画像取得部は、設定されたマトリクスデータを用いて、白色光の波長帯域における信号から特定の波長帯域における信号を算出して、特殊光画像を生成してもよい。例えば、マトリクスデータ設定部は、特定の波長帯域の照射光の分光特性が10nm刻みに記述されたテーブルデータをマトリクスデータとして設定する。そして、このテーブルデータに記述された分光特性(係数)を、推定された被写体の分光反射率特性に乗算して積算し、特殊光画像を生成する。   More specifically, the special light image acquisition unit may include a matrix data setting unit that sets matrix data for calculating a signal in a specific wavelength band from a signal in the wavelength band of white light. Then, the special light image acquisition unit may generate a special light image by calculating a signal in a specific wavelength band from a signal in the wavelength band of white light using the set matrix data. For example, the matrix data setting unit sets table data in which spectral characteristics of irradiation light in a specific wavelength band are described in increments of 10 nm as matrix data. Then, the spectral characteristics (coefficients) described in the table data are multiplied by the estimated spectral reflectance characteristics of the subject and integrated to generate a special light image.

これにより、通常光画像に基づいて特殊光画像を生成することができるため、通常光を照射する1つの光源と、通常光を撮像する1つの撮像素子のみでもシステムを実現することが可能になる。そのため、カプセル型内視鏡や、スコープ型内視鏡の挿入部を小さくすることができ、また部品が少なくてすむためコストを下げる効果も期待できる。   As a result, the special light image can be generated based on the normal light image, so that the system can be realized with only one light source that irradiates the normal light and one image sensor that images the normal light. . Therefore, the capsule endoscope and the insertion part of the scope endoscope can be made small, and the cost can be expected to be reduced because the number of parts is reduced.

また、図12等で上述のように、内視鏡システムは、第1の内視鏡装置30、第2の内視鏡装置33、注目領域検出部303、第1体内データ取得部345、第2体内データ取得部346、画像対応付け部341、出力制御部342を含む。そして、第1の内視鏡装置30は特殊光画像(例えば図13のC2)を取得し、注目領域検出部303は、特殊光画像の中から注目領域を含む画像(C3)を検出する。第1の内視鏡装置30は、特殊光画像の中から注目領域を含む画像が検出された場合に、注目領域を含む画像が撮像された位置における第1の通常光画像(C4)を取得する。そして、第1体内データ取得部345は、その第1の通常光画像を含む第1の体内データを取得する。第2の内視鏡装置33は、第2の通常光画像(C6)を取得し、第2体内データ取得部346は、その第2の通常光画像を含む第2の体内データを取得する。画像対応付け部341は、注目領域を含む第1の通常光画像と、第2の通常光画像とを対応付ける(マッチング処理する)。そして、出力制御部342は、対応付の結果に基づいて誘導情報を出力する制御を行う。   In addition, as described above with reference to FIG. 12 and the like, the endoscope system includes the first endoscope device 30, the second endoscope device 33, the attention area detection unit 303, the first in-vivo data acquisition unit 345, A two-body data acquisition unit 346, an image association unit 341, and an output control unit 342 are included. Then, the first endoscope apparatus 30 acquires a special light image (for example, C2 in FIG. 13), and the attention area detection unit 303 detects an image (C3) including the attention area from the special light image. The first endoscope apparatus 30 acquires the first normal light image (C4) at the position where the image including the attention area is captured when the image including the attention area is detected from the special light image. To do. Then, the first in-vivo data acquisition unit 345 acquires the first in-vivo data including the first normal light image. The second endoscope apparatus 33 acquires the second normal light image (C6), and the second in-vivo data acquisition unit 346 acquires the second in-vivo data including the second normal light image. The image association unit 341 associates (matches) the first normal light image including the region of interest with the second normal light image. And the output control part 342 performs control which outputs guidance information based on the result of matching.

このようにすれば、カプセル型内視鏡による病変検出時に特殊光画像を用いることで、通常光画像では発見しにくい病変の検出精度を向上できる。また、スコープ型内視鏡による処置時に通常光画像を用いることで、医者が観察しやすい通常光画像を見ながらスコープ型内視鏡を操作できる。また、位置情報を取得するための送信機や受信機を省略できるため、コスト削減等を図ることができる。   In this way, the use of the special light image at the time of lesion detection with a capsule endoscope can improve the detection accuracy of a lesion that is difficult to find with a normal light image. Further, by using the normal light image at the time of the treatment by the scope endoscope, the scope endoscope can be operated while viewing the normal light image that can be easily observed by the doctor. Further, since a transmitter and a receiver for acquiring position information can be omitted, cost reduction can be achieved.

なお、本実施形態では、特殊光画像同士で対応付けを行ってもよい。すなわち、第1の内視鏡装置30は第1の特殊光画像を取得し、注目領域検出部303は、第1の特殊光画像の中から注目領域を含む画像を検出する。第1体内データ取得部345は、注目領域を含む第1の特殊光画像を含む第1の体内データを取得する。第2の内視鏡装置33は、第2の特殊光画像を取得し、第2体内データ取得部346は、その第2の特殊光画像を含む第2の体内データを取得する。画像対応付け部341は、注目領域を含む第1の特殊光画像と、第2の特殊光画像とを対応付ける。   In the present embodiment, the special light images may be associated with each other. That is, the first endoscope apparatus 30 acquires the first special light image, and the attention area detection unit 303 detects an image including the attention area from the first special light image. The first in-vivo data acquisition unit 345 acquires first in-vivo data including the first special light image including the region of interest. The second endoscope device 33 acquires a second special light image, and the second in-vivo data acquisition unit 346 acquires second in-vivo data including the second special light image. The image association unit 341 associates the first special light image including the region of interest with the second special light image.

このようにすれば、色相等の特徴量を抽出することが容易な特殊光画像どうしで第1と第2の内視鏡装置の画像を対応付けることができるため、対応付けの精度を向上できる。例えば、上述のNBIを用いた場合、扁平上皮癌等の特定の病変に特有な色相値が現れるため、他の領域と区別されやすくなり、マッチング精度を向上できる。   In this way, since the images of the first and second endoscope apparatuses can be associated with each other with the special light images for which feature quantities such as hues can be easily extracted, the accuracy of the association can be improved. For example, when the above-described NBI is used, a hue value peculiar to a specific lesion such as squamous cell carcinoma appears, so that it can be easily distinguished from other regions, and matching accuracy can be improved.

また、本実施形態では、通常光画像から注目領域を検出し、通常光同士で対応付けを行ってもよい。すなわち、第1の内視鏡装置30は第1の通常光画像を取得し、注目領域検出部303は、第1の通常光画像の中から注目領域を含む画像を検出する。第1体内データ取得部345は、注目領域を含む第1の通常光画像を含む第1の体内データを取得する。第2の内視鏡装置33は、第2の通常光画像を取得し、第2体内データ取得部346は、その第2の通常光画像を含む第2の体内データを取得する。画像対応付け部341は、注目領域を含む第1の通常光画像と、第2の通常光画像とを対応付ける。   In the present embodiment, the attention area may be detected from the normal light image, and the normal light may be associated with each other. That is, the first endoscope apparatus 30 acquires the first normal light image, and the attention area detection unit 303 detects an image including the attention area from the first normal light image. The first in-vivo data acquisition unit 345 acquires first in-vivo data including the first normal light image including the region of interest. The second endoscopic device 33 acquires a second normal light image, and the second in-vivo data acquisition unit 346 acquires second in-vivo data including the second normal light image. The image association unit 341 associates the first normal light image including the region of interest with the second normal light image.

このようにすれば、通常光画像で検出容易な出血部位やポリープ等の病変に対して、対応付の精度を向上できる。   In this way, it is possible to improve the accuracy with which a lesion such as a bleeding site or a polyp that is easily detected with a normal light image can be detected.

10.ソフトウェア
上記の本実施形態では、制御装置18(または制御装置26、34)を構成する各部をハードウェアで構成することとしたが、これに限定されるものではない。例えば、スコープ型内視鏡などの撮像装置を用いて予め取得された画像に対して、CPUが各部の処理を行う構成とし、CPUがプログラムを実行することによってソフトウェアとして実現することとしてもよい。あるいは、各部が行う処理の一部をソフトウェアで構成することとしてもよい。
10. Software In the present embodiment described above, each unit configuring the control device 18 (or the control devices 26 and 34) is configured by hardware. However, the present invention is not limited to this. For example, the CPU may be configured to perform processing of each unit on an image acquired in advance using an imaging device such as a scope endoscope, and may be realized as software by the CPU executing a program. Alternatively, a part of processing performed by each unit may be configured by software.

制御装置18の各部が行う処理をソフトウェアとして実現する場合には、ワークステーションやパソコン等の公知のコンピュータシステムを制御装置18として用いることができる。そして、制御装置18の各部が行う処理を実現するためのプログラム(制御プログラム)を予め用意し、この制御プログラムをコンピュータシステムのCPUが実行することによって実現できる。   When the processing performed by each unit of the control device 18 is realized as software, a known computer system such as a workstation or a personal computer can be used as the control device 18. A program (control program) for realizing processing performed by each unit of the control device 18 is prepared in advance, and the control program can be executed by the CPU of the computer system.

図18は、本変形例におけるコンピュータシステム600の構成を示すシステム構成図であり、図18は、このコンピュータシステム600における本体部610の構成を示すブロック図である。図18に示すように、コンピュータシステム600は、本体部610と、本体部610からの指示によって表示画面621に画像等の情報を表示するためのディスプレイ620と、このコンピュータシステム600に種々の情報を入力するためのキーボード630と、ディスプレイ620の表示画面621上の任意の位置を指定するためのマウス640とを備える。   FIG. 18 is a system configuration diagram showing a configuration of a computer system 600 in this modification, and FIG. 18 is a block diagram showing a configuration of a main body 610 in the computer system 600. As shown in FIG. 18, the computer system 600 includes a main body 610, a display 620 for displaying information such as an image on the display screen 621 according to an instruction from the main body 610, and various information on the computer system 600. A keyboard 630 for inputting and a mouse 640 for designating an arbitrary position on the display screen 621 of the display 620 are provided.

また、このコンピュータシステム600における本体部610は、図19に示すように、CPU611と、RAM612と、ROM613と、ハードディスクドライブ(HDD)614と、CD−ROM660を受け入れるCD−ROMドライブ615と、USBメモリ670を着脱可能に接続するUSBポート616と、ディスプレイ620、キーボード630およびマウス640を接続するI/Oインターフェース617と、ローカルエリアネットワークまたは広域エリアネットワーク(LAN/WAN)N1に接続するためのLANインターフェース618を備える。   Further, as shown in FIG. 19, a main body 610 in the computer system 600 includes a CPU 611, a RAM 612, a ROM 613, a hard disk drive (HDD) 614, a CD-ROM drive 615 that accepts a CD-ROM 660, and a USB memory. USB port 616 to which 670 is detachably connected, I / O interface 617 to which display 620, keyboard 630 and mouse 640 are connected, and a LAN interface for connection to a local area network or wide area network (LAN / WAN) N1 618.

さらに、このコンピュータシステム600には、インターネット等の公衆回線N3に接続するためのモデム650が接続されるとともに、LANインターフェース618およびローカルエリアネットワークまたは広域エリアネットワークN1を介して、他のコンピュータシステムであるパソコン(PC)681、サーバ682、プリンタ683等が接続される。   Further, the computer system 600 is connected to a modem 650 for connecting to a public line N3 such as the Internet, and is another computer system via a LAN interface 618 and a local area network or a wide area network N1. A personal computer (PC) 681, a server 682, a printer 683, and the like are connected.

そして、このコンピュータシステム600は、所定の記録媒体に記録された制御プログラム(例えば図21のS21〜S27)を参照して、後述する処理手順を実現するための制御プログラムを読み出して実行することで制御装置を実現する。ここで、所定の記録媒体とは、CD−ROM660やUSBメモリ670の他、MOディスクやDVDディスク、フレキシブルディスク(FD)、光磁気ディスク、ICカード等を含む「可搬用の物理媒体」、コンピュータシステム600の内外に備えられるHDD614やRAM612、ROM613等の「固定用の物理媒体」、モデム650を介して接続される公衆回線N3や、他のコンピュータシステム(PC)681またはサーバ682が接続されるローカルエリアネットワークまたは広域エリアネットワークN1等のように、プログラムの送信に際して短期にプログラムを記憶する「通信媒体」等、コンピュータシステム600によって読み取り可能な制御プログラムを記録するあらゆる記録媒体を含む。   The computer system 600 refers to a control program (for example, S21 to S27 in FIG. 21) recorded on a predetermined recording medium, and reads and executes a control program for realizing a processing procedure to be described later. Realize the control device. Here, the predetermined recording medium is a “portable physical medium” including an MO disk, a DVD disk, a flexible disk (FD), a magneto-optical disk, an IC card, etc. in addition to the CD-ROM 660 and the USB memory 670, a computer A “fixed physical medium” such as HDD 614, RAM 612, and ROM 613 provided inside and outside the system 600, a public line N3 connected via the modem 650, and another computer system (PC) 681 or server 682 are connected. It includes any recording medium that records a control program readable by the computer system 600, such as a “communication medium” that stores a program in a short time when transmitting the program, such as a local area network or a wide area network N1.

すなわち、制御プログラムは、「可搬用の物理媒体」「固定用の物理媒体」「通信媒体」等の記録媒体にコンピュータ読み取り可能に記録されるものであり、コンピュータシステム600は、このような記録媒体から制御プログラムを読み出して実行することで制御装置を実現する。なお、制御プログラムは、コンピュータシステム600によって実行されることに限定されるものではなく、他のコンピュータシステム(PC)681またはサーバ682が制御プログラムを実行する場合や、これらが協働して制御プログラムを実行するような場合にも、本発明を同様に適用することができる。   That is, the control program is recorded on a recording medium such as “portable physical medium”, “fixed physical medium”, and “communication medium” in a computer-readable manner, and the computer system 600 includes such a recording medium. The control device is realized by reading out and executing the control program from. Note that the control program is not limited to be executed by the computer system 600, and when the other computer system (PC) 681 or the server 682 executes the control program, or these cooperate with each other. The present invention can be similarly applied to the case where the above is executed.

各部が行う処理の一部をソフトウェアで構成する場合の一例として、制御装置18の処理をソフトウェアで実現する場合の処理手順を、図20〜23のフローチャートを用いて説明する。   As an example of a case where a part of processing performed by each unit is configured by software, a processing procedure when the processing of the control device 18 is realized by software will be described with reference to flowcharts of FIGS.

図20〜23には、内視鏡システム全体の処理手順を示す。制御装置18は、例えばこの処理手順のうちのS21〜S27、S41〜S47、S61〜S70を実行する。なお、画像処理装置13についても同様に、PC等のコンピュータシステムによるソフトウェア的な処理により実現できる。この場合、画像処理装置13は、図20〜図23に示す処理手順のうちの例えばS6〜S9を実行する。   20 to 23 show processing procedures of the entire endoscope system. For example, the control device 18 executes S21 to S27, S41 to S47, and S61 to S70 in this processing procedure. Similarly, the image processing apparatus 13 can be realized by software processing by a computer system such as a PC. In this case, the image processing apparatus 13 executes, for example, S6 to S9 in the processing procedure illustrated in FIGS.

図20には、カプセル型内視鏡10を含む第1の内視鏡システム100の処理手順を示す。図20に示すように、この処理が開始されると、撮像部101が画像を撮像し(S1)、第1画像取得部102が特殊光画像と通常光画像を取得し(S2)、受信機11が音波を受信し(S3)、記憶部121が画像や音波受信情報(音波受信時間)を記憶する(S4)。カプセル型内視鏡10による撮像が終了していない場合(S5、No)には、再び撮像を行う(S1)。カプセル型内視鏡による撮像が終了した場合(S5、Yes)には、取得部135が、画像や音波受信情報を取得する(S6)。第1位置情報取得部132が、音波受信情報から第1の位置情報を取得する(S7)。注目領域検出部131が、特殊光画像から注目領域を検出し、第1位置情報取得部132が、注目位置情報を取得する(S8)。記憶装置14に第1の体内データを記憶させる(S9)。   FIG. 20 shows a processing procedure of the first endoscope system 100 including the capsule endoscope 10. As shown in FIG. 20, when this process is started, the imaging unit 101 captures an image (S1), the first image acquisition unit 102 acquires a special light image and a normal light image (S2), and the receiver 11 receives sound waves (S3), and the storage unit 121 stores images and sound wave reception information (sound wave reception time) (S4). If the imaging by the capsule endoscope 10 has not been completed (S5, No), the imaging is performed again (S1). When the imaging by the capsule endoscope is completed (S5, Yes), the acquisition unit 135 acquires an image and sound wave reception information (S6). The first position information acquisition unit 132 acquires first position information from the sound wave reception information (S7). The attention area detection unit 131 detects the attention area from the special light image, and the first position information acquisition unit 132 acquires the attention position information (S8). The first in-vivo data is stored in the storage device 14 (S9).

図21には、スコープ型内視鏡15を含む第2の内視鏡システム200の処理手順を示す。図21に示すように、この処理が開始されると、第1体内データ取得部185が第1の体内データを記憶装置14から取得し(S21)、マップ生成部601が体内マップを生成する(S22)。そして、スコープ型内視鏡15が画像を撮像し、第2位置情報取得部171が第2位置情報を取得し、第2体内データ取得部186が第2の体内データを取得する(S23)。対応付け部602が、体内マップと第2位置情報を対応付け(S24)、出力制御部181が誘導情報を生成し(S25)、出力制御部181が、画像、体内マップ、誘導情報を出力装置19に出力する(S26)。スコープ型内視鏡15による処置が終了していない場合(S27、No)には、再び撮像を行い(S23)、スコープ型内視鏡15による処置が終了した場合(S27、Yes)には、処理を終了する。   FIG. 21 shows a processing procedure of the second endoscope system 200 including the scope endoscope 15. As shown in FIG. 21, when this process is started, the first in-vivo data acquisition unit 185 acquires the first in-vivo data from the storage device 14 (S21), and the map generation unit 601 generates an in-vivo map ( S22). Then, the scope endoscope 15 captures an image, the second position information acquisition unit 171 acquires the second position information, and the second in-vivo data acquisition unit 186 acquires the second in-vivo data (S23). The association unit 602 associates the in-vivo map with the second position information (S24), the output control unit 181 generates guidance information (S25), and the output control unit 181 outputs the image, the in-vivo map, and the guidance information to the output device. 19 (S26). When the treatment by the scope endoscope 15 has not been completed (S27, No), imaging is performed again (S23), and when the treatment by the scope endoscope 15 is completed (S27, Yes), The process ends.

図22には、注目領域への接近時に誘導情報を出力する場合の誘導情報生成手順を示す。図22に示すように、この処理が開始されると、距離算出部502が、第1の位置情報I1と第2の位置情報I2を取得し、距離|I1−I2|を算出する(S41)。位置選択部501は、I1が複数ある場合(S42、Yes)には、距離|I1−I2|が最小であるI1を採用する。位置選択部501は、I1が1つである場合(S42、No)には、取得されたI1をそのまま採用する。出力制御部181は、距離|I1−I2|が所定の閾値Th以下である場合(S45、Yes)には、距離情報として距離|I1−I2|を取得し(S46)、方向情報としてI1−I2の符号を取得する(S47)。出力制御部181は、距離|I1−I2|が所定の閾値Thより大きい場合(S45、No)には、処理を終了する。   FIG. 22 shows a guidance information generation procedure when guidance information is output when approaching the region of interest. As shown in FIG. 22, when this process is started, the distance calculation unit 502 acquires the first position information I1 and the second position information I2, and calculates the distance | I1-I2 | (S41). . When there are a plurality of I1 (S42, Yes), the position selection unit 501 employs I1 having the minimum distance | I1-I2 |. The position selection unit 501 adopts the acquired I1 as it is when the number of I1 is one (S42, No). When the distance | I1-I2 | is equal to or smaller than the predetermined threshold Th (S45, Yes), the output control unit 181 acquires the distance | I1-I2 | as distance information (S46), and I1-I2 as direction information. The sign of I2 is acquired (S47). If the distance | I1-I2 | is greater than the predetermined threshold Th (S45, No), the output control unit 181 ends the process.

図23には、画像のマッチング処理により誘導情報を生成する場合の誘導情報生成手順を示す。このフローを実行する場合、距離情報の取得や体内マップの生成等のステップを実行しなくともよい。すなわち、図21のS22、S24等を実行しなくともよい。図23に示すように、この処理が開始されると、制御装置34は、観察部位が特殊光で病変判定すべき部位であるか判断する(S61)。この判断は、例えばユーザにより操作インターフェースから入力された情報に基づいて行われる。あるいは、使用部位を表す情報がスコープ型内視鏡15に記憶され、その情報を読み取ることで判断が行われてもよい。   FIG. 23 shows a guide information generation procedure when guide information is generated by image matching processing. When executing this flow, it is not necessary to execute steps such as acquisition of distance information and generation of an in-vivo map. That is, S22, S24, etc. in FIG. 21 need not be executed. As shown in FIG. 23, when this process is started, the control device 34 determines whether the observation site is a site where lesions should be determined with special light (S61). This determination is made based on, for example, information input from the operation interface by the user. Or the information showing a use site | part may be memorize | stored in the scope type | mold endoscope 15, and judgment may be performed by reading the information.

特殊光で判定する部位である場合(S61、Yes)には、画像対応付け部341は、スコープ型内視鏡15により取得された特殊光画像を取得し(S62)、カプセル型内視鏡10により取得された注目領域を含む特殊光画像を取得する(S63)。画像対応付け部341は、これらの画像を比較する(S64)。最終の注目領域でない場合(S65、No)には、カプセル型内視鏡10により取得された注目領域を含む次の特殊光画像を取得する(S63)。最終の注目領域である場合(S65、Yes)には、出力制御部342は、一致した画像があった場合に誘導情報を出力する(S70)。   If the region is determined by special light (S61, Yes), the image association unit 341 acquires the special light image acquired by the scope endoscope 15 (S62), and the capsule endoscope 10 The special light image including the attention area acquired by the above is acquired (S63). The image association unit 341 compares these images (S64). If it is not the final region of interest (S65, No), the next special light image including the region of interest acquired by the capsule endoscope 10 is acquired (S63). If it is the final region of interest (S65, Yes), the output control unit 342 outputs guidance information when there is a matched image (S70).

特殊光で判定する部位でない場合(S61、No)には、画像対応付け部341は、スコープ型内視鏡15により取得された通常光画像を取得し(S66)、カプセル型内視鏡10により取得された注目領域を含む通常光画像を取得する(S67)。画像対応付け部341は、これらの画像を比較する(S68)。最終の注目領域でない場合(S69、No)には、カプセル型内視鏡10により取得された注目領域を含む次の通常光画像を取得する(S67)。最終の注目領域である場合(S69、Yes)には、出力制御部342は、一致した画像があった場合に誘導情報を出力する(S70)。   If it is not a part to be determined by special light (S61, No), the image association unit 341 acquires a normal light image acquired by the scope endoscope 15 (S66), and the capsule endoscope 10 A normal light image including the acquired attention area is acquired (S67). The image association unit 341 compares these images (S68). If it is not the final region of interest (S69, No), the next normal light image including the region of interest acquired by the capsule endoscope 10 is acquired (S67). If it is the final region of interest (S69, Yes), the output control unit 342 outputs guidance information when there is a matched image (S70).

以上の実施形態によれば、例えばカプセル型内視鏡等により第1の体内データを蓄積し、その蓄積された第1の体内データと、スコープ型内視鏡15により取得された第2の体内データに対してPC等のコンピュータシステムでソフトウェア的に処理を行うことが可能になる。   According to the above embodiment, the first in-vivo data is accumulated by, for example, a capsule endoscope, and the accumulated first in-vivo data and the second in-vivo acquired by the scope-type endoscope 15 are stored. Data can be processed in software by a computer system such as a PC.

また本実施形態は、本実施形態の各部(第1体内データ取得部、第2体内データ取得部、出力制御部、画像対応付け部等)を実現するプログラムコードが記録されたコンピュータプログラムプロダクトにも適用できる。   The present embodiment is also applied to a computer program product in which a program code for realizing each unit (first in-vivo data acquisition unit, second in-vivo data acquisition unit, output control unit, image association unit, etc.) of the present embodiment is recorded. Applicable.

またコンピュータプログラムプロダクトは、例えば、プログラムコードが記録された情報記憶媒体(DVD等の光ディスク媒体、ハードディスク媒体、メモリ媒体等)、プログラムコードが記録されたコンピュータ、プログラムコードが記録されたインターネットシステム(例えば、サーバとクライアント端末を含むシステム)など、プログラムコードが組み込まれた情報記憶媒体、装置、機器或いはシステム等である。この場合に、本実施形態の各構成要素や各処理プロセスは各モジュールにより実装され、これらの実装されたモジュールにより構成されるプログラムコードは、コンピュータプログラムプロダクトに記録される。   The computer program product includes, for example, an information storage medium (an optical disk medium such as a DVD, a hard disk medium, a memory medium, etc.) on which a program code is recorded, a computer on which the program code is recorded, and an Internet system (for example, a program code is recorded). , A system including a server and a client terminal), etc., an information storage medium, apparatus, device or system in which a program code is incorporated. In this case, each component and each processing process of this embodiment are mounted by each module, and the program code constituted by these mounted modules is recorded in the computer program product.

以上、本発明を適用した実施形態およびその変形例について説明したが、本発明は、各実施形態やその変形例そのままに限定されるものではなく、実施段階では、発明の要旨を逸脱しない範囲内で構成要素を変形して具体化することができる。また、上記した各実施形態や変形例に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、各実施形態や変形例に記載した全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施の形態や変形例で説明した構成要素を適宜組み合わせてもよい。このように、発明の主旨を逸脱しない範囲内において種々の変形や応用が可能である。   As mentioned above, although embodiment and its modification which applied this invention were described, this invention is not limited to each embodiment and its modification as it is, and in the range which does not deviate from the summary of invention in an implementation stage. The component can be modified and embodied. Further, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above-described embodiments and modifications. For example, some constituent elements may be deleted from all the constituent elements described in each embodiment or modification. Furthermore, you may combine suitably the component demonstrated in different embodiment and modification. Thus, various modifications and applications are possible without departing from the spirit of the invention.

また、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語(第1の内視鏡装置、第2の内視鏡装置、通常光画像等)と共に記載された用語(カプセル型内視鏡、スコープ型内視鏡、白色光画像等)は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。   Further, in the specification or drawings, terms (capsule type endoscopes) described at least once together with different terms having a broader meaning or the same meaning (first endoscope device, second endoscope device, normal light image, etc.). Mirror, scope endoscope, white light image, etc.) may be replaced by the different terms anywhere in the specification or drawings.

10 第1の内視鏡装置、11 受信機、12 受信装置、13 画像処理装置、
14 記憶装置、15 第2の内視鏡装置、16 受信機、17 受信装置、
18 制御装置、19 出力装置、100 第1の内視鏡システム、101 撮像部、
102 画像取得部、103 発信機、104 制御部、121 記憶部、
122 制御部、123 I/F部、131 注目領域検出部、
132 第1位置情報取得部、133 制御部、134 I/F部、135 取得部、
151 撮像部、152 画像取得部、153 発信機、154 制御部、
155 I/F部、171 第2位置情報取得部、172 制御部、173 I/F部、
181 出力制御部、182 制御部、183 I/F部、
185 第1体内データ取得部、186 第2体内データ取得部、
300 カプセル型内視鏡、310 光源、320 集光レンズ、330 照明レンズ、
340 撮像素子、341 画像対応付け部、350 結像レンズ、360 撮像素子、
370 特殊光フィルタ、380 ハーフミラー、390 集積回路装置、
401 判定部、501 位置選択部、502 距離算出部、
600 コンピュータシステム、601 マップ生成部、602 対応付け部、
610 本体部、615 ドライブ、616 ポート、617 インターフェース、
620 ディスプレイ、621 表示画面、630 キーボード、640 マウス、
650 モデム、670 メモリ、682 サーバ、683 プリンタ、
I1 第1の位置情報、I2 第2の位置情報、N1 広域エリアネットワーク、
N3 公衆回線、Th 閾値、TR1 注目領域
10 first endoscope apparatus, 11 receiver, 12 receiving apparatus, 13 image processing apparatus,
14 storage devices, 15 second endoscope device, 16 receiver, 17 receiving device,
18 control device, 19 output device, 100 first endoscope system, 101 imaging unit,
102 image acquisition unit, 103 transmitter, 104 control unit, 121 storage unit,
122 control unit, 123 I / F unit, 131 attention area detection unit,
132 first position information acquisition unit, 133 control unit, 134 I / F unit, 135 acquisition unit,
151 imaging unit, 152 image acquisition unit, 153 transmitter, 154 control unit,
155 I / F unit, 171 second position information acquisition unit, 172 control unit, 173 I / F unit,
181 output control unit, 182 control unit, 183 I / F unit,
185 1st in-vivo data acquisition part, 186 2nd in-vivo data acquisition part,
300 capsule endoscope, 310 light source, 320 condenser lens, 330 illumination lens,
340 imaging device, 341 image association unit, 350 imaging lens, 360 imaging device,
370 special optical filter, 380 half mirror, 390 integrated circuit device,
401 determination unit, 501 position selection unit, 502 distance calculation unit,
600 computer system, 601 map generation unit, 602 association unit,
610 body, 615 drive, 616 port, 617 interface,
620 display, 621 display screen, 630 keyboard, 640 mouse,
650 modem, 670 memory, 682 server, 683 printer,
I1 first location information, I2 second location information, N1 wide area network,
N3 public line, Th threshold, TR1 attention area

Claims (30)

特定の波長帯域の情報を含む特殊光画像が第1の内視鏡装置により取得され、注目すべき領域である注目領域を含む画像が前記特殊光画像の中から検出され、前記注目領域を含む画像が撮像された際の前記第1の内視鏡装置の位置を示す注目位置情報が取得される場合に、前記注目位置情報を含む前記第1の体内データを取得する第1体内データ取得部と、
白色光の波長帯域の情報を含む通常光画像が第2の内視鏡装置により取得される場合に、前記第2の内視鏡装置により取得された前記通常光画像と、前記第2の内視鏡装置の位置を示す第2の位置情報とを含む前記第2の体内データを取得する第2体内データ取得部と、
前記第1の体内データと前記第2の体内データに基づいて、前記第2の内視鏡装置を誘導するための誘導情報を出力する制御を行う出力制御部と、
を含むことを特徴とする制御装置。
A special light image including information on a specific wavelength band is acquired by the first endoscope device, and an image including a region of interest, which is a region of interest, is detected from the special light image and includes the region of interest A first in-vivo data acquisition unit that acquires the first in-vivo data including the attention position information when the attention position information indicating the position of the first endoscope apparatus when the image is captured is acquired. When,
When a normal light image including information on the wavelength band of white light is acquired by the second endoscope device, the normal light image acquired by the second endoscope device, and the second internal image A second in-vivo data acquisition unit that acquires the second in-vivo data including second position information indicating the position of the endoscope device;
An output control unit that performs control to output guidance information for guiding the second endoscope apparatus based on the first in-vivo data and the second in-vivo data;
The control apparatus characterized by including.
請求項1において、
前記出力制御部は、
前記第2の位置情報が示す前記第2の内視鏡装置の位置が、前記注目位置情報が示す位置に接近したか否かを判定する判定部を有し、
前記出力制御部は、
前記注目位置情報が示す位置に前記第2の内視鏡装置の位置が接近したと前記判定部により判定された場合に、前記第2の内視鏡装置の位置から前記注目位置情報が示す位置への方向を示す方向画像を前記誘導情報として出力する制御を行うことを特徴とする制御装置。
In claim 1,
The output control unit
A determination unit that determines whether the position of the second endoscope apparatus indicated by the second position information has approached the position indicated by the position-of-interest information;
The output control unit
The position indicated by the attention position information from the position of the second endoscope apparatus when the determination unit determines that the position of the second endoscope apparatus has approached the position indicated by the attention position information. A control device that performs control to output a direction image indicating a direction to the direction information.
請求項1において、
前記出力制御部は、
複数の注目位置情報が取得された場合に、前記複数の注目位置情報が示す複数の位置のうち、前記第2の位置情報が示す前記第2の内視鏡装置の位置から最も近距離の位置を選択する位置選択部を有し、
前記出力制御部は、
前記第2の内視鏡装置の位置から、前記位置選択部により選択された位置への方向を示す方向画像を前記誘導情報として出力する制御を行うことを特徴とする制御装置。
In claim 1,
The output control unit
The position closest to the position of the second endoscope device indicated by the second position information among the plurality of positions indicated by the plurality of attention position information when a plurality of attention position information is acquired. A position selection unit for selecting
The output control unit
A control apparatus that performs control to output a direction image indicating a direction from a position of the second endoscope apparatus to a position selected by the position selection unit as the guidance information.
請求項1において、
前記出力制御部は、
複数の注目位置情報が取得された場合に、前記複数の注目位置情報が示す複数の位置と、前記第2の位置情報が示す前記第2の内視鏡装置の位置との間の距離を算出する距離算出部と、
前記距離算出部により算出された距離に基づいて、前記複数の位置のうち、前記第2の内視鏡装置の位置から最も近距離の位置を選択する位置選択部と、
を有し、
前記出力制御部は、
前記位置選択部により選択された位置と、前記第2の内視鏡装置の位置との間の距離情報を前記誘導情報として出力する制御を行うことを特徴とする制御装置。
In claim 1,
The output control unit
When a plurality of attention position information is acquired, a distance between a plurality of positions indicated by the plurality of attention position information and a position of the second endoscope device indicated by the second position information is calculated. A distance calculation unit to perform,
Based on the distance calculated by the distance calculation unit, a position selection unit that selects a position at the shortest distance from the position of the second endoscope device among the plurality of positions;
Have
The output control unit
A control apparatus that performs control to output distance information between the position selected by the position selection unit and the position of the second endoscope apparatus as the guidance information.
請求項1において、
前記出力制御部は、
体内の空間の全体または一部を表現した体内マップを生成するマップ生成部と、
前記マップ生成部により生成された前記体内マップ上において、前記注目位置情報と前記第2の位置情報とを対応付ける対応付け部と、
を有し、
前記出力制御部は、
前記注目位置情報と前記第2の位置情報とが対応付けられた前記体内マップを出力する制御を行うことを特徴とする制御装置。
In claim 1,
The output control unit
A map generator that generates an in-vivo map that represents all or part of the body space;
On the in-vivo map generated by the map generation unit, an association unit that associates the attention position information and the second position information;
Have
The output control unit
A control apparatus that performs control to output the in-vivo map in which the attention position information and the second position information are associated with each other.
請求項5において、
前記第1体内データ取得部は、
前記第1の内視鏡装置により画像が取得された際の前記第1の内視鏡装置の位置を示す第1の位置情報が取得される場合に、前記第1の位置情報を含む前記第1の体内データを取得し、
前記マップ生成部は、
前記第1の体内データに含まれる前記第1の位置情報から前記体内マップを生成することを特徴とする制御装置。
In claim 5,
The first in-vivo data acquisition unit
When the first position information indicating the position of the first endoscope apparatus when the image is acquired by the first endoscope apparatus is acquired, the first position information including the first position information is acquired. Get in-body data of 1
The map generation unit
The control apparatus generating the in-vivo map from the first position information included in the first in-vivo data.
請求項1において、
前記第2の内視鏡装置の位置を示す前記第2の位置情報を取得する第2位置情報取得部を含み、
前記第2位置情報取得部は、
前記第2の内視鏡装置の挿入距離を示す挿入距離情報に基づいて、前記第2の位置情報を取得することを特徴とする内視鏡システム。
In claim 1,
A second position information acquisition unit that acquires the second position information indicating the position of the second endoscope device;
The second position information acquisition unit
The endoscope system according to claim 1, wherein the second position information is acquired based on insertion distance information indicating an insertion distance of the second endoscope apparatus.
特定の波長帯域の情報を含む特殊光画像を取得する第1の内視鏡装置と、
前記第1の内視鏡装置により取得された前記特殊光画像の中から、注目すべき領域である注目領域を含む画像を検出する注目領域検出部と、
前記注目領域を含む画像が撮像された際の前記第1の内視鏡装置の位置を示す注目位置情報を取得する第1位置情報取得部と、
前記注目位置情報を含む情報を第1の体内データとして取得する第1体内データ取得部と、
白色光の波長帯域の情報を含む通常光画像を取得する第2の内視鏡装置と、
前記第2の内視鏡装置により取得された前記通常光画像と、前記第2の内視鏡装置の位置を示す第2の位置情報を含む情報を第2の体内データとして取得する第2体内データ取得部と、
前記第1の体内データと前記第2の体内データに基づいて、前記第2の内視鏡装置を誘導するための誘導情報を出力する制御を行う出力制御部と、
を含むことを特徴とする内視鏡システム。
A first endoscope device for acquiring a special light image including information of a specific wavelength band;
An attention area detection unit that detects an image including an attention area that is an attention area from the special light image acquired by the first endoscope device;
A first position information acquisition unit that acquires attention position information indicating a position of the first endoscope device when an image including the attention area is captured;
A first in-vivo data acquisition unit that acquires information including the attention position information as first in-vivo data;
A second endoscope device for acquiring a normal light image including information on a wavelength band of white light;
The second in-vivo device acquires information including the normal light image acquired by the second endoscope device and second position information indicating the position of the second endoscope device as second in-vivo data. A data acquisition unit;
An output control unit that performs control to output guidance information for guiding the second endoscope apparatus based on the first in-vivo data and the second in-vivo data;
An endoscopic system comprising:
請求項8において、
前記第1の内視鏡装置は、
前記特定の波長帯域の光を発する特殊光光源を有し、
前記第1の内視鏡装置は、
前記特殊光光源からの前記特定の波長帯域の光を用いて前記特殊光画像を取得することを特徴とする内視鏡システム。
In claim 8,
The first endoscope apparatus is:
A special light source that emits light of the specific wavelength band;
The first endoscope apparatus is:
An endoscope system, wherein the special light image is acquired using light of the specific wavelength band from the special light source.
請求項8において、
前記第1の内視鏡装置は、
白色光の波長帯域の光を発する白色光光源と、
前記特定の波長帯域の光を透過するフィルタと、
を有し、
前記第1の内視鏡装置は、
前記白色光光源からの光を被写体に照射して得られた光を前記フィルタに通過させることで、前記特殊光画像を取得することを特徴とする内視鏡システム。
In claim 8,
The first endoscope apparatus is:
A white light source that emits light in the wavelength band of white light;
A filter that transmits light of the specific wavelength band;
Have
The first endoscope apparatus is:
An endoscope system characterized in that the special light image is obtained by allowing light obtained by irradiating a subject with light from the white light source to pass through the filter.
請求項8において、
前記第2の内視鏡装置は、
白色光の波長帯域の光を発する白色光光源を有し、
前記第2の内視鏡装置は、
前記白色光光源からの前記白色の波長帯域の光を用いて、前記通常光画像を取得することを特徴とすることを特徴とする内視鏡システム。
In claim 8,
The second endoscope apparatus is:
A white light source that emits light in the wavelength band of white light;
The second endoscope apparatus is:
An endoscope system, wherein the normal light image is acquired using light in the white wavelength band from the white light source.
請求項8において、
前記第1位置情報取得部は、
前記第1の内視鏡装置に設けられた発信機からの電波または音波が、前記第1の内視鏡装置の外部の測位点に設けられた受信機で受信されることで取得された位置情報を、前記注目位置情報として取得することを特徴とする内視鏡システム。
In claim 8,
The first position information acquisition unit
A position obtained by receiving radio waves or sound waves from a transmitter provided in the first endoscope apparatus by a receiver provided at a positioning point outside the first endoscope apparatus. An endoscope system characterized in that information is acquired as the attention position information.
請求項8において、
前記注目領域検出部は、
前記特殊光画像に含まれる各画素の色を変換し、変換後の特殊光画像に基づいて前記注目領域を検出することを特徴とする内視鏡システム。
In claim 8,
The attention area detector
An endoscope system, wherein the color of each pixel included in the special light image is converted, and the attention area is detected based on the converted special light image.
請求項8において、
前記特定の波長帯域は、前記白色光の波長帯域よりも狭い帯域であることを特徴とする内視鏡システム。
In claim 8,
The endoscope system according to claim 1, wherein the specific wavelength band is a band narrower than the wavelength band of the white light.
請求項14において、
前記通常光画像および前記特殊光画像は生体内を写した生体内画像であり、
前記生体内画像に含まれる前記特定の波長帯域は、血液中のヘモグロビンに吸収される波長の波長帯域であることを特徴とする内視鏡システム。
In claim 14,
The normal light image and the special light image are in-vivo images obtained by copying the inside of the living body,
The endoscope system according to claim 1, wherein the specific wavelength band included in the in-vivo image is a wavelength band of a wavelength absorbed by hemoglobin in blood.
請求項15において、
前記特定の波長帯域は、390ナノメータ〜445ナノメータ、または530ナノメータ〜550ナノメータであることを特徴とする内視鏡システム。
In claim 15,
The specific wavelength band is 390 nanometers to 445 nanometers, or 530 nanometers to 550 nanometers.
請求項8において、
前記通常光画像および前記特殊光画像は生体内を写した生体内画像であり、
前記生体内画像に含まれる前記特定の波長帯域は、蛍光物質が発する蛍光の波長帯域であることを特徴とする内視鏡システム。
In claim 8,
The normal light image and the special light image are in-vivo images obtained by copying the inside of the living body,
The endoscope system according to claim 1, wherein the specific wavelength band included in the in-vivo image is a wavelength band of fluorescence emitted from a fluorescent substance.
請求項17において、
前記特定の波長帯域は、490ナノメータ〜625ナノメータの波長帯域であることを特徴とする内視鏡システム。
In claim 17,
The endoscope system characterized in that the specific wavelength band is a wavelength band of 490 nm to 625 nm.
請求項8において、
前記通常光画像および前記特殊光画像は生体内を写した生体内画像であり、
前記生体内画像に含まれる前記特定の波長帯域は、赤外光の波長帯域であることを特徴とする内視鏡システム。
In claim 8,
The normal light image and the special light image are in-vivo images obtained by copying the inside of the living body,
The endoscope system, wherein the specific wavelength band included in the in-vivo image is a wavelength band of infrared light.
請求項19において、
前記特定の波長帯域は、790ナノメータ〜820ナノメータ、または905ナノメータ〜970ナノメータの波長帯域であることを特徴とする内視鏡システム。
In claim 19,
The endoscope system characterized in that the specific wavelength band is a wavelength band of 790 nanometers to 820 nanometers, or 905 nanometers to 970 nanometers.
請求項8において、
前記第1の内視鏡装置は、
白色光の波長帯域の光を発する白色光光源と、
前記特殊光画像を取得する特殊光画像取得部と、
を有し、
前記第1の内視鏡装置は、
前記白色光光源からの光を用いて通常光画像を取得し、
前記特殊光画像取得部は、
前記第1の内視鏡装置により取得された前記通常光画像に基づいて、前記特殊光画像を生成することを特徴とする内視鏡システム。
In claim 8,
The first endoscope apparatus is:
A white light source that emits light in the wavelength band of white light;
A special light image acquisition unit for acquiring the special light image;
Have
The first endoscope apparatus is:
A normal light image is acquired using light from the white light source,
The special light image acquisition unit
An endoscope system, wherein the special light image is generated based on the normal light image acquired by the first endoscope apparatus.
請求項21において、
前記特殊光画像取得部は、
取得された前記通常光画像から、白色光の波長帯域における信号を抽出する信号抽出部を含み、
前記特殊光画像取得部は、
抽出された前記白色光の波長帯域における信号に基づいて、前記特定の波長帯域における信号を含む前記特殊光画像を生成することを特徴とする内視鏡システム。
In claim 21,
The special light image acquisition unit
A signal extraction unit for extracting a signal in the wavelength band of white light from the acquired normal light image;
The special light image acquisition unit
An endoscope system, wherein the special light image including the signal in the specific wavelength band is generated based on the extracted signal in the wavelength band of the white light.
請求項22において、
前記特殊光画像取得部は、
前記白色光の波長帯域における信号から、前記特定の波長帯域における信号を算出するためのマトリクスデータを設定するマトリクスデータ設定部を含み、
前記特殊光画像取得部は、
設定された前記マトリクスデータを用いて、前記白色光の波長帯域における信号から前記特定の波長帯域における信号を算出して、前記特殊光画像を生成することを特徴とする内視鏡システム。
In claim 22,
The special light image acquisition unit
A matrix data setting unit for setting matrix data for calculating a signal in the specific wavelength band from a signal in the wavelength band of the white light;
The special light image acquisition unit
An endoscope system, wherein the special light image is generated by calculating a signal in the specific wavelength band from a signal in the wavelength band of the white light using the set matrix data.
特定の波長帯域の情報を含む特殊光画像と、白色光の波長帯域の情報を含む第1の通常光画像とを取得する第1の内視鏡装置と、
白色光の波長帯域の情報を含む第2の通常光画像を取得する第2の内視鏡装置と、
前記特殊光画像の中から、注目すべき領域である注目領域を含む画像を検出する注目領域検出部と、
前記第1の通常光画像を含む第1の体内データを取得する第1体内データ取得部と、
前記第2の通常光画像を含む第2の体内データを取得する第2体内データ取得部と、
前記第1体内データの前記第1の通常光画像と、前記第2の体内データの前記第2の通常光画像を対応付ける画像対応付け部と、
前記画像対応付け部による対応付の結果に基づいて、前記第2の内視鏡装置を誘導するための誘導情報を出力する制御を行う出力制御部と、
を含み、
前記第1の内視鏡装置は、
前記注目領域検出部により前記特殊光画像の中から前記注目領域を含む画像が検出された場合に、前記注目領域を含む画像が撮像された位置における前記第1の通常光画像を取得し、
前記画像対応付け部は、
前記注目領域を含む画像が撮像された位置における前記第1の通常光画像と、前記第2の通常光画像を対応付けることを特徴とする内視鏡システム。
A first endoscope device that acquires a special light image including information on a specific wavelength band and a first normal light image including information on a wavelength band of white light;
A second endoscope apparatus for acquiring a second normal light image including information on a wavelength band of white light;
An attention area detection unit that detects an image including an attention area that is an attention area from the special light image;
A first in-vivo data acquisition unit for acquiring first in-vivo data including the first normal light image;
A second in-vivo data acquisition unit for acquiring second in-vivo data including the second normal light image;
An image associating unit for associating the first normal light image of the first in-vivo data with the second normal light image of the second in-vivo data;
An output control unit that performs control to output guidance information for guiding the second endoscope apparatus based on a result of association by the image association unit;
Including
The first endoscope apparatus is:
When an image including the region of interest is detected from the special light image by the region of interest detection unit, the first normal light image at a position where the image including the region of interest is captured,
The image association unit
An endoscope system, wherein the first normal light image and the second normal light image at a position where an image including the region of interest is captured are associated with each other.
特定の波長帯域の情報を含む第1の特殊光画像を取得する第1の内視鏡装置と、
特定の波長帯域の情報を含む第2の特殊光画像を取得する第2の内視鏡装置と、
前記第1の特殊光画像の中から、注目すべき領域である注目領域を含む特殊光画像を検出する注目領域検出部と、
前記注目領域検出部により検出された特殊光画像を含む第1の体内データを取得する第1体内データ取得部と、
前記第2の内視鏡装置により取得された前記第2の特殊光画像を含む第2の体内データを取得する第2体内データ取得部と、
前記第1体内データの特殊光画像と、前記第2の体内データの前記第2の特殊光画像を対応付ける画像対応付け部と、
前記画像対応付け部による対応付の結果に基づいて、前記第2の内視鏡装置を誘導するための誘導情報を出力する制御を行う出力制御部と、
を含むことを特徴とする内視鏡システム。
A first endoscope device that acquires a first special light image including information of a specific wavelength band;
A second endoscopic device for acquiring a second special light image including information of a specific wavelength band;
An attention area detection unit that detects a special light image including an attention area that is an attention area from the first special light image;
A first in-vivo data acquisition unit for acquiring first in-vivo data including the special light image detected by the attention area detection unit;
A second in-vivo data acquisition unit for acquiring second in-vivo data including the second special light image acquired by the second endoscopic device;
An image association unit that associates the special light image of the first in-vivo data with the second special light image of the second in-vivo data;
An output control unit that performs control to output guidance information for guiding the second endoscope apparatus based on a result of association by the image association unit;
An endoscopic system comprising:
白色光の波長帯域の情報を含む第1の通常光画像を取得する第1の内視鏡装置と、
白色光の波長帯域の情報を含む第2の通常光画像を取得する第2の内視鏡装置と、
前記第1の通常光画像の中から、注目すべき領域である注目領域を含む通常光画像を検出する注目領域検出部と、
前記注目領域検出部により検出された通常光画像を含む第1の体内データを取得する第1体内データ取得部と、
前記第2の内視鏡装置により取得された前記第2の通常光画像を含む第2の体内データを取得する第2体内データ取得部と、
前記第1体内データの通常光画像と、前記第2の体内データの前記第2の通常光画像を対応付ける画像対応付け部と、
前記画像対応付け部による対応付の結果に基づいて、前記第2の内視鏡装置を誘導するための誘導情報を出力する制御を行う出力制御部と、
を含むことを特徴とする内視鏡システム。
A first endoscope device for acquiring a first normal light image including information on a wavelength band of white light;
A second endoscope apparatus for acquiring a second normal light image including information on a wavelength band of white light;
An attention area detection unit that detects a normal light image including an attention area that is an attention area from the first normal light image;
A first in-vivo data acquisition unit that acquires first in-vivo data including a normal light image detected by the attention area detection unit;
A second in-vivo data acquisition unit for acquiring second in-vivo data including the second normal light image acquired by the second endoscopic device;
An image association unit for associating the normal light image of the first in-vivo data with the second normal light image of the second in-vivo data;
An output control unit that performs control to output guidance information for guiding the second endoscope apparatus based on a result of association by the image association unit;
An endoscopic system comprising:
特定の波長帯域の情報を含む特殊光画像が第1の内視鏡装置により取得され、注目すべき領域である注目領域を含む画像が前記特殊光画像の中から検出され、前記注目領域を含む画像が撮像された際の前記第1の内視鏡装置の位置を示す注目位置情報が取得される場合に、前記注目位置情報を含む前記第1の体内データを取得する第1体内データ取得部と、
白色光の波長帯域の情報を含む通常光画像が第2の内視鏡装置により取得される場合に、前記第2の内視鏡装置により取得された前記通常光画像と、前記第2の内視鏡装置の位置を示す第2の位置情報とを含む前記第2の体内データを取得する第2体内データ取得部と、
前記第1の体内データと前記第2の体内データに基づいて、前記第2の内視鏡装置を誘導するための前記誘導情報を出力する制御を行う出力制御部として、
コンピュータを機能させることを特徴とするプログラム。
A special light image including information on a specific wavelength band is acquired by the first endoscope device, and an image including a region of interest, which is a region of interest, is detected from the special light image and includes the region of interest A first in-vivo data acquisition unit that acquires the first in-vivo data including the attention position information when the attention position information indicating the position of the first endoscope apparatus when the image is captured is acquired. When,
When a normal light image including information on the wavelength band of white light is acquired by the second endoscope device, the normal light image acquired by the second endoscope device, and the second internal image A second in-vivo data acquisition unit that acquires the second in-vivo data including second position information indicating the position of the endoscope device;
Based on the first in-vivo data and the second in-vivo data, as an output control unit that performs control to output the guidance information for guiding the second endoscope device,
A program characterized by causing a computer to function.
特定の波長帯域の情報を含む特殊光画像が第1の内視鏡装置により取得され、注目すべき領域である注目領域を含む画像が前記特殊光画像の中から検出され、前記注目領域を含む画像が撮像された際の前記第1の内視鏡装置の位置を示す注目位置情報が取得される場合に、前記注目位置情報を含む前記第1の体内データを取得し、
白色光の波長帯域の情報を含む通常光画像が第2の内視鏡装置により取得される場合に、前記第2の内視鏡装置により取得された前記通常光画像と、前記第2の内視鏡装置の位置を示す第2の位置情報とを含む前記第2の体内データを取得し、
前記第1の体内データと前記第2の体内データに基づいて、前記第2の内視鏡装置を誘導するための前記誘導情報を出力することを特徴とする制御方法。
A special light image including information on a specific wavelength band is acquired by the first endoscope device, and an image including a region of interest, which is a region of interest, is detected from the special light image and includes the region of interest When attention position information indicating the position of the first endoscope device when an image is captured is acquired, the first in-vivo data including the attention position information is acquired;
When a normal light image including information on the wavelength band of white light is acquired by the second endoscope device, the normal light image acquired by the second endoscope device, and the second internal image Obtaining the second in-vivo data including second position information indicating the position of the endoscope device;
A control method for outputting the guidance information for guiding the second endoscope apparatus based on the first in-vivo data and the second in-vivo data.
特定の波長帯域の情報を含む特殊光画像を第1の内視鏡装置により取得し、
前記第1の内視鏡装置により取得された前記特殊光画像の中から、注目すべき領域である注目領域を含む画像を検出し、
前記注目領域を含む画像が撮像された際の前記第1の内視鏡装置の位置を示す注目位置情報を取得し、
白色光の波長帯域の情報を含む通常光画像を第2の内視鏡装置により取得し、
前記注目位置情報を含む情報を第1の体内データとして取得し、
前記第2の内視鏡装置により取得された前記通常光画像と、前記第2の内視鏡装置の位置を示す第2の位置情報を含む情報を第2の体内データとして取得し、
前記第1の体内データと前記第2の体内データに基づいて、前記第2の内視鏡装置を誘導するための誘導情報を出力する制御を行うことを特徴とする制御方法。
A special light image including information on a specific wavelength band is acquired by the first endoscope device,
From the special light image acquired by the first endoscope device, an image including a region of interest that is a region of interest is detected,
Acquiring attention position information indicating a position of the first endoscope device when an image including the attention area is captured;
A normal light image including information on the wavelength band of white light is acquired by the second endoscope device,
Obtaining information including the attention position information as first in-vivo data;
Obtaining the normal light image acquired by the second endoscope device and information including second position information indicating the position of the second endoscope device as second in-vivo data;
A control method characterized by performing control to output guidance information for guiding the second endoscope apparatus based on the first in-vivo data and the second in-vivo data.
特定の波長帯域の情報を含む特殊光画像を第1の内視鏡装置により取得し、
前記第1の内視鏡装置により取得された前記特殊光画像の中から、注目すべき領域である注目領域を含む画像を検出し、
前記注目領域を含む画像が検出された場合に、前記注目領域を含む画像が撮像された位置における、白色光の波長帯域の情報を含む第1の通常光画像を取得し、
前記注目領域を含む画像が撮像された位置における前記第1の通常光画像を含む第1の体内データを取得し、
白色光の波長帯域の情報を含む第2の通常光画像を第2の内視鏡装置により取得し、
前記第2の通常光画像を含む第2の体内データを取得し、
前記第1体内データの前記第1の通常光画像と、前記第2の体内データの前記第2の通常光画像を対応付け、
前記画像対応付け部による対応付の結果に基づいて、前記第2の内視鏡装置を誘導するための誘導情報を出力する制御を行うことを特徴とする制御方法。
A special light image including information on a specific wavelength band is acquired by the first endoscope device,
From the special light image acquired by the first endoscope device, an image including a region of interest that is a region of interest is detected,
When an image including the attention area is detected, a first normal light image including information on a wavelength band of white light at a position where the image including the attention area is captured;
Obtaining first in-vivo data including the first normal light image at a position where an image including the region of interest is captured;
A second normal light image including information on the wavelength band of white light is acquired by the second endoscope device,
Obtaining second in-vivo data including the second normal light image;
Associating the first normal light image of the first in-vivo data with the second normal light image of the second in-vivo data;
A control method characterized by performing control to output guidance information for guiding the second endoscope apparatus based on a result of association by the image association unit.
JP2010067706A 2010-03-24 2010-03-24 Controller, endoscope system, program, and control method Withdrawn JP2011200283A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010067706A JP2011200283A (en) 2010-03-24 2010-03-24 Controller, endoscope system, program, and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010067706A JP2011200283A (en) 2010-03-24 2010-03-24 Controller, endoscope system, program, and control method

Publications (1)

Publication Number Publication Date
JP2011200283A true JP2011200283A (en) 2011-10-13

Family

ID=44877718

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010067706A Withdrawn JP2011200283A (en) 2010-03-24 2010-03-24 Controller, endoscope system, program, and control method

Country Status (1)

Country Link
JP (1) JP2011200283A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013133370A1 (en) * 2012-03-08 2013-09-12 オリンパス株式会社 Image processing device, program, and image processing method
JP2013183912A (en) * 2012-03-08 2013-09-19 Olympus Corp Image summarization device and program
US9576362B2 (en) 2012-03-07 2017-02-21 Olympus Corporation Image processing device, information storage device, and processing method to acquire a summary image sequence
US9706901B2 (en) 2014-01-29 2017-07-18 Industry-Academic Cooperation Foundation, Younsei University Internal device, external device, diagnosis apparatus including the same, and endoscope apparatus
US9740939B2 (en) 2012-04-18 2017-08-22 Olympus Corporation Image processing device, information storage device, and image processing method
JP2018114303A (en) * 2012-07-25 2018-07-26 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Efficient and interactive bleeding detection in surgical system
JP2018138141A (en) * 2017-02-24 2018-09-06 ソニー・オリンパスメディカルソリューションズ株式会社 Endoscope apparatus
WO2018179986A1 (en) * 2017-03-30 2018-10-04 富士フイルム株式会社 Endoscope system, processor device, and method for operating endoscope system
WO2020017212A1 (en) * 2018-07-20 2020-01-23 富士フイルム株式会社 Endoscope system
JPWO2019039259A1 (en) * 2017-08-25 2020-10-29 富士フイルム株式会社 Diagnostic support system, endoscopic system, processor, and diagnostic support method

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9576362B2 (en) 2012-03-07 2017-02-21 Olympus Corporation Image processing device, information storage device, and processing method to acquire a summary image sequence
WO2013133370A1 (en) * 2012-03-08 2013-09-12 オリンパス株式会社 Image processing device, program, and image processing method
JP2013183912A (en) * 2012-03-08 2013-09-19 Olympus Corp Image summarization device and program
US9547794B2 (en) 2012-03-08 2017-01-17 Olympus Corporation Image processing device, information storage device, and image processing method
US9672619B2 (en) 2012-03-08 2017-06-06 Olympus Corporation Image processing device, information storage device, and image processing method
US9740939B2 (en) 2012-04-18 2017-08-22 Olympus Corporation Image processing device, information storage device, and image processing method
US10037468B2 (en) 2012-04-18 2018-07-31 Olympus Corporation Image processing device, information storage device, and image processing method
US10772482B2 (en) 2012-07-25 2020-09-15 Intuitive Surgical Operations, Inc. Efficient and interactive bleeding detection in a surgical system
JP2018114303A (en) * 2012-07-25 2018-07-26 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Efficient and interactive bleeding detection in surgical system
JP7124011B2 (en) 2012-07-25 2022-08-23 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Systems and methods of operating bleeding detection systems
JP2020171716A (en) * 2012-07-25 2020-10-22 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Surgical system and method with bleeding detection unit
US9706901B2 (en) 2014-01-29 2017-07-18 Industry-Academic Cooperation Foundation, Younsei University Internal device, external device, diagnosis apparatus including the same, and endoscope apparatus
JP2018138141A (en) * 2017-02-24 2018-09-06 ソニー・オリンパスメディカルソリューションズ株式会社 Endoscope apparatus
WO2018179986A1 (en) * 2017-03-30 2018-10-04 富士フイルム株式会社 Endoscope system, processor device, and method for operating endoscope system
JPWO2018179986A1 (en) * 2017-03-30 2020-01-16 富士フイルム株式会社 Endoscope system, processor device, and method of operating endoscope system
JPWO2019039259A1 (en) * 2017-08-25 2020-10-29 富士フイルム株式会社 Diagnostic support system, endoscopic system, processor, and diagnostic support method
US11103197B2 (en) 2017-08-25 2021-08-31 Fujifilm Corporation Diagnosis support system, endoscope system, processor and diagnosis support method
WO2020017212A1 (en) * 2018-07-20 2020-01-23 富士フイルム株式会社 Endoscope system
CN112423645A (en) * 2018-07-20 2021-02-26 富士胶片株式会社 Endoscope system
CN112423645B (en) * 2018-07-20 2023-10-31 富士胶片株式会社 endoscope system

Similar Documents

Publication Publication Date Title
US8767057B2 (en) Image processing device, image processing method, and program
JP2011200283A (en) Controller, endoscope system, program, and control method
JP2011156203A (en) Image processor, endoscope system, program, and image processing method
US9662042B2 (en) Endoscope system for presenting three-dimensional model image with insertion form image and image pickup image
US11123150B2 (en) Information processing apparatus, assistance system, and information processing method
JP7176041B2 (en) Medical image processing device and method, endoscope system, processor device, diagnosis support device and program
JPWO2019054045A1 (en) Medical image processing equipment, medical image processing methods and medical image processing programs
US20220198742A1 (en) Processor for endoscope, program, information processing method, and information processing device
JP5771757B2 (en) Endoscope system and method for operating endoscope system
WO2019138773A1 (en) Medical image processing apparatus, endoscope system, medical image processing method, and program
JP2018027272A (en) Imaging System
JP2012005512A (en) Image processor, endoscope apparatus, endoscope system, program, and image processing method
WO2016174911A1 (en) Photodynamic diagnosis apparatus and photodynamic diagnosis method
JP2009213627A (en) Endoscopic examination system and examination method using the same
WO2012014437A1 (en) Image processor, image processing method and image processing program
JP7326308B2 (en) MEDICAL IMAGE PROCESSING APPARATUS, OPERATION METHOD OF MEDICAL IMAGE PROCESSING APPARATUS, ENDOSCOPE SYSTEM, PROCESSOR DEVICE, DIAGNOSTIC SUPPORT DEVICE, AND PROGRAM
JP5935498B2 (en) Information processing apparatus, information processing method, program, and information processing system
WO2019155931A1 (en) Surgical system, image processing device, and image processing method
JP2007244746A (en) Observation system
US20210366593A1 (en) Medical image processing apparatus and medical image processing method
JP2012024518A (en) Device, method, and program for assisting endoscopic observation
JP2023164610A (en) Image processing apparatus, image processing method, and image processing system
WO2019087969A1 (en) Endoscope system, reporting method, and program
JP2008272370A (en) Medical guide system
WO2019088008A1 (en) Image processing apparatus, image processing method, program, and endoscope system

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130604