JP2022132940A - Endoscope and endoscope system - Google Patents

Endoscope and endoscope system Download PDF

Info

Publication number
JP2022132940A
JP2022132940A JP2021031697A JP2021031697A JP2022132940A JP 2022132940 A JP2022132940 A JP 2022132940A JP 2021031697 A JP2021031697 A JP 2021031697A JP 2021031697 A JP2021031697 A JP 2021031697A JP 2022132940 A JP2022132940 A JP 2022132940A
Authority
JP
Japan
Prior art keywords
endoscope
information
subject
shape
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021031697A
Other languages
Japanese (ja)
Other versions
JP7541941B2 (en
Inventor
哲矢 西村
Tetsuya Nishimura
悠 吉森
Yu Yoshimori
進吾 増野
Shingo Masuno
裕章 鈴木
Hiroaki Suzuki
高志 原田
Takashi Harada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2021031697A priority Critical patent/JP7541941B2/en
Publication of JP2022132940A publication Critical patent/JP2022132940A/en
Application granted granted Critical
Publication of JP7541941B2 publication Critical patent/JP7541941B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Endoscopes (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

To provide an endoscope and an endoscope system which can reduce an oversight risk of a disease, suppress increase in advance notice and inspection time to a spot where a lesion part is invisible and reduce a damage risk to a tissue surface in an organism.SOLUTION: An endoscope comprises: an insertion unit which has a tip part on a tip side and is inserted into a subject; an imaging unit which is arranged in the tip part and can acquire an optical image in the subject; and a LiDAR unit which is arranged in the insertion unit and can acquire three-dimensional information in the subject. The LIDAR unit acquires specific shape information about a specific shape existing in a visible region and an invisible region in an imaging region that can be imaged by the imaging unit as the three-dimensional information in the subject.SELECTED DRAWING: Figure 2

Description

本発明は、内視鏡及び内視鏡システムに関する。 The present invention relates to endoscopes and endoscope systems.

一般的に、多くの内視鏡は、先端部に撮像ユニットを備え、被検体に挿入されると、撮像ユニットにより、先端部の長軸方向前方を観察する。近年、内視鏡において、観察対象までの距離を取得することが行われており、特許文献1では撮像ユニット以外に距離センサを備える内視鏡が開示されている。 In general, many endoscopes have an imaging unit at the distal end, and when inserted into a subject, the imaging unit observes the front of the distal end in the longitudinal direction. In recent years, endoscopes have been used to acquire the distance to an observation target, and Patent Document 1 discloses an endoscope provided with a distance sensor in addition to an imaging unit.

特開2014-117446号公報JP 2014-117446 A 特許5993370号公報Japanese Patent No. 5993370

ところで、生体内の組織表面の一例である、大腸をはじめとする消化管は特有のひだを有している。そのため、撮像ユニットにより、先端部の長軸方向前方を観察する場合、さらに距離センサで距離を測定する場合において、ひだが病変を内視鏡から隠すことがある。すなわち、ひだの裏側等の死角に存在する病変部が見逃す恐れがある。 By the way, the gastrointestinal tract including the large intestine, which is an example of tissue surfaces in vivo, has unique folds. Therefore, when the imaging unit is used to observe the front of the distal end in the longitudinal direction, and when the distance sensor is used to measure the distance, the folds may hide the lesion from the endoscope. In other words, there is a risk that lesions present in blind spots such as the back side of folds may be overlooked.

一方で、特許文献2には先端にバルーンや複数突起形状を持たせた内視鏡によって、ひだを物理的に引き延ばし観察可能な領域を拡大する手法も知られている。しかしながら、ひだを物理的に引き延ばすことによる検査時間の増加、消化管へのダメージリスクなどが懸念され、結果的に患者への負担が増加する恐れがある。 On the other hand, Patent Literature 2 discloses a method of physically stretching a fold and enlarging an observable region by using an endoscope having a balloon or multiple protrusions at the tip. However, physical stretching of the folds raises concerns about an increase in examination time and a risk of damage to the digestive tract, which may result in an increased burden on the patient.

本発明はこのような事情に鑑みてなされたものであり、病変部の見逃しリスクの低減、病変部の見えていないところに対する事前の報知及び検査時間の増加を抑え、生体内の組織表面へのダメージリスクを低減できる内視鏡及び内視鏡システムを提供することを目的とする。 The present invention has been made in view of such circumstances, and is intended to reduce the risk of overlooking a lesion, to give advance notice of a lesion that is not visible, to suppress an increase in examination time, and to prevent an increase in examination time. An object of the present invention is to provide an endoscope and an endoscope system that can reduce the risk of damage.

第1形態の内視鏡は、先端側に先端部を有し、被検体内に挿入される挿入部と、先端部に配置され被検体内の光学画像を取得可能な撮像ユニットと、挿入部に配置され被検体内の三次元情報を取得可能なLiDARユニットと、を備える内視鏡であって、LiDARユニットは、被検体内の三次元情報として、撮像ユニットによって撮像可能な撮像領域における、視認可能領域及び視認不能領域に存在する特異形状に関する特異形状情報を取得する。 The endoscope of the first form includes an insertion section that has a distal end on the distal end side and is inserted into the subject, an imaging unit that is arranged at the distal end and is capable of acquiring an optical image of the interior of the subject, and an insertion section. and a LiDAR unit capable of acquiring three-dimensional information within the subject, wherein the LiDAR unit provides three-dimensional information within the subject in an imaging area that can be imaged by the imaging unit, Acquiring singular shape information about singular shapes existing in the visible area and the invisible area.

第2形態の内視鏡において、特異形状は、病変部に関する形状である。 In the second form of endoscope, the peculiar shape is a shape related to the lesion.

第3形態の内視鏡において、LiDARユニットは、被検体内の三次元情報として、挿入部が挿入された被検体の体腔に関する体腔情報を取得する。 In the endoscope of the third embodiment, the LiDAR unit acquires body cavity information regarding the body cavity of the subject into which the insertion section is inserted, as three-dimensional information inside the subject.

第4形態の内視鏡システムは、上記の内視鏡と、撮像ユニット及びLiDARユニットの間で信号の送受信を行う、プロセッサ及びメモリを備えるプロセッサ装置と、を備え、プロセッサは、LiDARユニットにより取得された特異形状情報に基づき特異形状を検出する。 The endoscope system of the fourth form includes the above-described endoscope, and a processor device including a processor and a memory that transmits and receives signals between the imaging unit and the LiDAR unit. A singular shape is detected based on the received singular shape information.

第5形態の内視鏡システムにおいて、メモリは、病変部の形状に関する情報をメモリに記憶し、プロセッサは、LiDARユニットにより取得された三次元情報の中から、メモリに記憶された病変部の形状に関する情報との類似度を求めて特異形状を検出する。 In the endoscope system of the fifth embodiment, the memory stores information about the shape of the lesion, and the processor selects the shape of the lesion stored in the memory from the three-dimensional information acquired by the LiDAR unit. A singular shape is detected by obtaining a degree of similarity with information related to

第6形態の内視鏡システムにおいて、プロセッサは、特異形状を検出したことを報知する報知処理を実行する。 In the endoscope system of the sixth form, the processor executes notification processing for notifying that the peculiar shape has been detected.

第7形態の内視鏡システムにおいて、プロセッサは、特異形状を検出したことをメモリに記憶し、かつ、任意のタイミングで特異形状を検出したことを報知する報知処理を実行する。 In the endoscope system of the seventh embodiment, the processor stores the detection of the peculiar shape in the memory, and executes notification processing of notifying the detection of the peculiar shape at an arbitrary timing.

第8形態の内視鏡システムにおいて、プロセッサは、特異形状を検出した際、音による報知処理を実行する。 In the endoscope system of the eighth form, the processor executes notification processing by sound when detecting the peculiar shape.

第9形態の内視鏡システムにおいて、プロセッサ装置に接続される表示装置を備え、プロセッサは、表示装置に光学画像を表示し、特異形状を検出した際、表示装置への表示による報知処理を実行する。 The endoscope system of the ninth form includes a display device connected to the processor device, the processor displays an optical image on the display device, and executes notification processing by displaying on the display device when a peculiar shape is detected. do.

第10形態の内視鏡システムにおいて、プロセッサ装置に接続される表示装置を備え、LiDARユニットは、被検体内の三次元情報として、挿入部が挿入された被検体の体腔に関する体腔情報を取得し、プロセッサは、LiDARユニットが取得した体腔情報に基づいて被検体の体腔の三次元モデルを作成する。 In the endoscope system of the tenth form, a display device connected to the processor device is provided, and the LiDAR unit acquires body cavity information regarding the body cavity of the subject into which the insertion portion is inserted as three-dimensional information inside the subject. , the processor creates a three-dimensional model of the body cavity of the subject based on the body cavity information acquired by the LiDAR unit.

第11形態の内視鏡システムにおいて、プロセッサは、三次元モデルにおける特異形状の位置を位置情報としてメモリに記憶する。 In the endoscope system of the eleventh form, the processor stores the position of the peculiar shape in the three-dimensional model in the memory as position information.

第12形態の内視鏡システムにおいて、プロセッサは、表示装置に、メモリに記憶された位置情報に基づき特異形状の位置を含む三次元モデルを表示する。 In the endoscope system of the twelfth form, the processor displays the three-dimensional model including the position of the peculiar shape on the display device based on the position information stored in the memory.

第13形態の内視鏡システムにおいて、プロセッサは、表示装置に、三次元モデルの中に先端部の位置を表示する。 In the endoscope system of the thirteenth form, the processor displays the position of the tip in the three-dimensional model on the display device.

本発明によれば、病変部の見逃しリスクの低減、病変部の見えていないところに対する事前の報知及び検査時間の増加を抑え、生体内の組織表面へのダメージリスクを低減できる。 According to the present invention, it is possible to reduce the risk of overlooking a lesion, suppress advance notification of an invisible lesion, suppress an increase in examination time, and reduce the risk of damage to the tissue surface in the living body.

図1は内視鏡システムの構成の一例を示す概略構成図である。FIG. 1 is a schematic configuration diagram showing an example of the configuration of an endoscope system. 図2は内視鏡の先端部の拡大図である。FIG. 2 is an enlarged view of the distal end of the endoscope. 図3は内視鏡システムのブロック図である。FIG. 3 is a block diagram of the endoscope system. 図4はCPUで実現される処理機能を示すブロック図である。FIG. 4 is a block diagram showing processing functions realized by a CPU. 図5は内視鏡による被検体内の観察を説明する図である。FIG. 5 is a diagram for explaining observation of the inside of a subject using an endoscope. 図6は図5の位置P1での観察画像を説明するための図である。FIG. 6 is a diagram for explaining an observation image at position P1 in FIG. 図7は図5の位置P2での観察画像を説明するための図である。FIG. 7 is a diagram for explaining an observation image at position P2 in FIG. 図8は図5の位置P3での観察画像を説明するための図である。FIG. 8 is a diagram for explaining an observation image at position P3 in FIG. 図9は内視鏡によるひだの裏側の観察状態を説明する図である。FIG. 9 is a diagram for explaining the observation state of the back side of a fold with an endoscope. 図10は観察画像と三次元モデルとを表示装置に表示させた場合の模式図である。FIG. 10 is a schematic diagram showing an observation image and a three-dimensional model displayed on a display device. 図11は内視鏡の先端部の拡大図である。FIG. 11 is an enlarged view of the distal end of the endoscope. 図12は超音波内視鏡システムの構成の一例を示す概略構成図である。FIG. 12 is a schematic configuration diagram showing an example of configuration of an ultrasonic endoscope system. 図13は超音波内視鏡の先端部の拡大図である。FIG. 13 is an enlarged view of the distal end portion of the ultrasonic endoscope. 図14は超音波内視鏡による被検体内の観察を説明する図である。FIG. 14 is a diagram for explaining observation of the inside of a subject using an ultrasonic endoscope. 図15は超音波画像と三次元モデルとを表示装置に表示させた場合の模式図である。FIG. 15 is a schematic diagram of a case where an ultrasonic image and a three-dimensional model are displayed on a display device.

以下、添付図面にしたがって、実施形態の内視鏡及び内視鏡システムの好ましい実施形態について説明する。 Preferred embodiments of an endoscope and an endoscope system according to embodiments will be described below with reference to the accompanying drawings.

<内視鏡システムの構成図>
図1は、内視鏡10を備えた内視鏡システム1の構成図である。内視鏡システム1は、内視鏡10、光源装置14、プロセッサ装置16及び表示装置18を備える。
<Configuration diagram of endoscope system>
FIG. 1 is a configuration diagram of an endoscope system 1 including an endoscope 10. As shown in FIG. The endoscope system 1 includes an endoscope 10 , a light source device 14 , a processor device 16 and a display device 18 .

内視鏡10は、操作部材が配置された操作部22と、操作部22の先端側に設けられ、被検体内に挿入される挿入部24と、を備える。挿入部24は、基端から先端に向かう長軸方向Axを有し、基端から先端に向って順に軟性部26と、湾曲部28と、先端部30とを備えている。 The endoscope 10 includes an operation section 22 in which operation members are arranged, and an insertion section 24 provided on the distal end side of the operation section 22 and inserted into the subject. The insertion section 24 has a longitudinal direction Ax extending from the proximal end to the distal end, and includes a flexible section 26, a curved section 28, and a distal section 30 in order from the proximal end toward the distal end.

操作部22は、全体として略円筒状に構成される。操作部22は、操作部本体34と、操作部本体34に連接された把持部36と、を有する。把持部36の先端側に、挿入部24の基端が、折れ止め管38を介して設けられる。 The operation part 22 is configured in a substantially cylindrical shape as a whole. The operation portion 22 has an operation portion main body 34 and a grip portion 36 connected to the operation portion main body 34 . A proximal end of the insertion portion 24 is provided on the distal end side of the grasping portion 36 via a bend prevention tube 38 .

操作部本体34には、操作部材の一つして湾曲部28を湾曲操作する一対のアングルノブ40、40及びロックレバー42、42が設けられる。操作部本体34には、送気送水ボタン44と、吸引ボタン46と、複数の操作ボタン48とが長軸方向Axに沿って並列して配置される。操作ボタン48は、観察した光学画像の静止や記録等の操作及びその機能を切り替えるためのボタンである。 The operation portion main body 34 is provided with a pair of angle knobs 40 and lock levers 42 , 42 for bending the bending portion 28 as one of the operation members. An air/water supply button 44 , a suction button 46 , and a plurality of operation buttons 48 are arranged in parallel along the long axis direction Ax on the operation unit main body 34 . The operation button 48 is a button for switching operations such as stillness and recording of the observed optical image and its function.

操作部22の把持部36には、処置具を導入する処置具導入口52が配置される。処置具導入口52から導入された処置具(不図示)は、処置具チャンネルに挿通され、先端部30の先端から外部に導出される。 A treatment instrument introduction port 52 for introducing a treatment instrument is arranged in the grip portion 36 of the operation section 22 . A treatment instrument (not shown) introduced from the treatment instrument introduction port 52 is passed through the treatment instrument channel and led out from the distal end of the distal end portion 30 .

操作部本体34には、ユニバーサルケーブル54が備えられる。ユニバーサルケーブル54の先端側には、コネクタ装置56が設けられる。コネクタ装置56は光源装置14に着脱自在に接続される。光源装置14はプロセッサ装置16と電気的に接続しており、内視鏡10のコネクタ装置56は光源装置14を介してプロセッサ装置16と接続する。光源装置14とコネクタ装置56とは制御信号、画像信号等を光通信の送受信できる。光源装置14は、コネクタ装置56を介して光通信で送受信した制御信号等をプロセッサ装置16に伝送する。光源装置14はコネクタ装置56を介して内視鏡10を駆動するための電力を無線で供給する。 A universal cable 54 is provided in the operation unit main body 34 . A connector device 56 is provided on the distal end side of the universal cable 54 . The connector device 56 is detachably connected to the light source device 14 . The light source device 14 is electrically connected to the processor device 16 , and the connector device 56 of the endoscope 10 is connected to the processor device 16 via the light source device 14 . The light source device 14 and the connector device 56 can transmit and receive control signals, image signals and the like by optical communication. The light source device 14 transmits to the processor device 16 a control signal or the like transmitted and received by optical communication via the connector device 56 . The light source device 14 wirelessly supplies power for driving the endoscope 10 via the connector device 56 .

<内視鏡の先端部>
図2は内視鏡の先端部の拡大図である。内視鏡10の先端部30は平面視で略円形の形状を有する。先端部30の先端面には、観察窓70と、観察窓70の両側に配置される2個の照明窓72と、鉗子口74と、送気送水ノズル75とが配置される。
<Tip of endoscope>
FIG. 2 is an enlarged view of the distal end of the endoscope. A distal end portion 30 of the endoscope 10 has a substantially circular shape in plan view. An observation window 70 , two illumination windows 72 arranged on both sides of the observation window 70 , a forceps port 74 , and an air/water supply nozzle 75 are arranged on the distal end surface of the distal end portion 30 .

操作部本体34の送気送水ボタン44(図1参照)を操作することにより、送気送水ノズル75にエア又は水を供給できる。送気送水ボタン44は、2段階操作可能なボタンであり、1段目の操作によってエアを供給し、2段目の操作によって水を供給する。処置具導入口52から導入された処置具が鉗子口74から突出される。吸引ボタン46を操作すると、鉗子口74から血液等の体液が吸引される。 Air or water can be supplied to the air/water nozzle 75 by operating the air/water supply button 44 (see FIG. 1) of the operation portion main body 34 . The air/water supply button 44 is a button that can be operated in two stages, the first operation supplying air and the second operation supplying water. A treatment instrument introduced from the treatment instrument introduction port 52 protrudes from the forceps port 74 . When the suction button 46 is operated, body fluid such as blood is suctioned from the forceps port 74 .

内視鏡10において、LiDAR(light detection and ranging)ユニット76が配置される。LiDARユニット76は、レーザ光源78と、光センサ80と、後述する制御回路とを備える。LiDARユニット76は、レーザ光源78からレーザ光を対象物に照射し、対象物に当たって跳ね返ってくるレーザ光を光センサ80で検出することにより、対象物に当たって跳ね返ってくるまでの時間を計測する。これにより対象物までの距離や方向が測定される。LiDARユニット76は、対象物までの距離の情報を点群として取得することで、三次元情報を取得できる。 A LiDAR (light detection and ranging) unit 76 is arranged in the endoscope 10 . The LiDAR unit 76 includes a laser light source 78, an optical sensor 80, and control circuitry to be described below. The LiDAR unit 76 irradiates an object with a laser beam from a laser light source 78 and detects the laser beam that bounces off the object with an optical sensor 80 to measure the time until the laser beam bounces off the object. This allows the distance and direction to the object to be measured. The LiDAR unit 76 can acquire three-dimensional information by acquiring information on the distance to the object as a point cloud.

<内視鏡システムのブロック図>
図3は、内視鏡システム1のブロック図である。図3に示すように、内視鏡10の先端部30に、撮像ユニット100及びLiDARユニット76が配置され、プロセッサ装置16との間で信号の送受信可能に構成される。
<Block diagram of endoscope system>
FIG. 3 is a block diagram of the endoscope system 1. As shown in FIG. As shown in FIG. 3 , the imaging unit 100 and the LiDAR unit 76 are arranged at the distal end portion 30 of the endoscope 10 and configured to be capable of transmitting and receiving signals to and from the processor device 16 .

撮像ユニット100は、撮像レンズ101と、撮像レンズ101に対し基端の側に配置される撮像素子102と、AFE(Analog Front End)103と、制御回路104とを備える。 The image pickup unit 100 includes an image pickup lens 101 , an image pickup element 102 arranged on the base end side of the image pickup lens 101 , an AFE (Analog Front End) 103 , and a control circuit 104 .

撮像ユニット100は、観察窓70に対応する位置に撮像レンズ101が配置される。撮像素子102は、例えば、CMOS(Complementary MOS)型のカラー撮像素子である。 The imaging unit 100 has an imaging lens 101 arranged at a position corresponding to the observation window 70 . The imaging device 102 is, for example, a CMOS (Complementary MOS) type color imaging device.

長軸方向Axから前方を直視した観察像が撮像レンズ101を介して撮像素子102に取り込まれる。撮像素子102は観察像を電気信号に変換する。AFE103により撮像素子102からのアナログ信号が調整される。制御回路104は撮像素子102の動作を制御する。内視鏡10の挿入部24(図1参照)を被検体内に挿入することにより、撮像ユニット100は被検体内の光学画像を取得できる。撮像ユニット100は光学画像を取得できれば、その構成は適宜変更でき、図3の構成に限定されない。 An observation image viewed directly ahead from the longitudinal direction Ax is captured by the imaging device 102 via the imaging lens 101 . The imaging device 102 converts the observed image into an electrical signal. An analog signal from the imaging element 102 is adjusted by the AFE 103 . A control circuit 104 controls the operation of the image sensor 102 . By inserting the insertion portion 24 (see FIG. 1) of the endoscope 10 into the subject, the imaging unit 100 can acquire an optical image of the interior of the subject. The configuration of the imaging unit 100 can be changed as appropriate as long as it can acquire an optical image, and is not limited to the configuration of FIG.

内視鏡10の先端部30の先端面の側に、LiDARユニット76が配置される。LiDARユニット76は、レーザ光源78及び光センサ80と、レーザ光源78及び光センサ80の基端の側に配置される制御回路82と、を備える。 A LiDAR unit 76 is arranged on the distal end face side of the distal end portion 30 of the endoscope 10 . The LiDAR unit 76 comprises a laser light source 78 and a light sensor 80 and a control circuit 82 arranged proximal to the laser light source 78 and the light sensor 80 .

LiDARユニット76のレーザ光源78は、例えば、垂直共振面発光レーザ(VCSEL:Vertical Cavity Surface Emitting Laser)を適用できる。光センサ80は、例えば、単一光子アバランシェダイオード(SPAD:Single Photon Avalanche Diode)を適用できる。また、図示しない回折光学素子(DOE:Diffractive Optical Element)をレーザ光源78の照射面の配置することにより、レーザ光源78からのレーザ光が所定の方向、また所定のパターンで照射される。 For the laser light source 78 of the LiDAR unit 76, for example, a Vertical Cavity Surface Emitting Laser (VCSEL) can be applied. The photosensor 80 can apply, for example, a Single Photon Avalanche Diode (SPAD). Further, by arranging a diffractive optical element (DOE) (not shown) on the irradiation surface of the laser light source 78, the laser light from the laser light source 78 is irradiated in a predetermined direction and in a predetermined pattern.

制御回路82はLiDARユニット76の全体を制御する。LiDARユニット76の制御回路82は、レーザ光源78からレーザ光を対象物に照射し、対象物に当たって跳ね返ってくるレーザ光を光センサ80で検出することにより、対象物に当たって跳ね返ってくるまでの時間を計測する。これにより対象物までの距離や方向が測定される。LiDARユニット76は、対象物までの三次元情報を点群として取得する。内視鏡10を被検体内に挿入することにより、LiDARユニット76は被検体内の三次元情報を取得できる。LiDARユニット76は三次元情報を取得できれば、その構成は適宜変更でき、図3の構成に限定されない。LiDARユニット76により取得される被検体内の三次元情報は、被検体の体腔に関する体腔情報及び病変部に関する形状に代表される特異形状に関する特異形状情報を含むことができる。 A control circuit 82 controls the entire LiDAR unit 76 . The control circuit 82 of the LiDAR unit 76 irradiates the object with a laser beam from the laser light source 78, and detects the laser beam that bounces off the object with the optical sensor 80, thereby measuring the time until the laser beam hits the object and bounces off. measure. This allows the distance and direction to the object to be measured. The LiDAR unit 76 acquires three-dimensional information up to the object as a point cloud. By inserting the endoscope 10 into the subject, the LiDAR unit 76 can acquire three-dimensional information inside the subject. As long as the LiDAR unit 76 can acquire three-dimensional information, its configuration can be changed as appropriate, and is not limited to the configuration shown in FIG. The three-dimensional information inside the subject acquired by the LiDAR unit 76 can include body cavity information about the body cavity of the subject and specific shape information about a specific shape represented by a shape about a lesion.

先端部30には、2個のライトガイド110が配置される。2個のライトガイド110の出射面が2個の照明窓72のそれぞれに対応するように位置決めされる。 Two light guides 110 are arranged at the distal end portion 30 . The exit surfaces of the two light guides 110 are positioned to correspond to the two illumination windows 72, respectively.

光源装置14は、照明用の光源140と、光源制御回路141とを備える。光源装置14は、光源140からの光をライトガイド110の入射端に入射させる。光源140の照明光の照度は、光源制御回路141により制御される。 The light source device 14 includes a light source 140 for illumination and a light source control circuit 141 . The light source device 14 causes the light from the light source 140 to enter the incident end of the light guide 110 . The illuminance of illumination light from the light source 140 is controlled by a light source control circuit 141 .

プロセッサ装置16は、画像入力コントローラ161とCPU(Central Processing Unit;中央処理装置)162とを備える。撮像ユニット100から出力された光学画像が画像入力コントローラ161を介して、CPU162に入力される。CPU162は光学画像に必要な画像処理を実行する。表示制御部163はCPU162により画像処理された光学画像を表示装置18に表示する。術者は、表示装置18に表示された被検体内の光学画像を視認できる。 The processor device 16 includes an image input controller 161 and a CPU (Central Processing Unit) 162 . An optical image output from the imaging unit 100 is input to the CPU 162 via the image input controller 161 . CPU 162 performs image processing necessary for the optical image. The display control unit 163 displays the optical image processed by the CPU 162 on the display device 18 . The operator can visually recognize the optical image of the inside of the subject displayed on the display device 18 .

CPU162は、光学画像に対して画像処理の他、表示装置18に表示する光学画像の切替や重畳処理、電子ズーム処理、操作モードに応じた光学画像の表示切替、光学画像からの特定成分(例えば、輝度信号)の抽出等を行う。 The CPU 162 performs image processing on the optical image, switching of the optical image to be displayed on the display device 18, superimposition processing, electronic zoom processing, display switching of the optical image according to the operation mode, and processing of specific components (for example, , luminance signal).

LiDARユニット76により取得された被検体内の三次元情報はCPU162に入力される。CPU162は、被検体内の三次元情報に対し各種の処理を実行する。CPU162は、被検体内の三次元情報に含まれる特異形状情報に基づき特異形状を検出できる。また、CPU162は、被検体内の三次元情報の体腔情報に基づき三次元モデルを作成できる。 Three-dimensional information inside the subject acquired by the LiDAR unit 76 is input to the CPU 162 . The CPU 162 executes various processes on the three-dimensional information inside the subject. The CPU 162 can detect the peculiar shape based on the peculiar shape information included in the three-dimensional information within the subject. Further, the CPU 162 can create a three-dimensional model based on the body cavity information of the three-dimensional information inside the subject.

CPU162が特異形状を検出したことを示す存在情報、及び/又は作成された三次元モデルが、表示制御部163を介して表示装置18に表示される。CPU162は、特異形状の存在情報と光学画像との重畳処理、光学画像と特異形状及び三次元モデルとの分離処理等を実行する。CPU162による処理結果が、表示制御部163を介して表示装置18に表示される。 Existence information indicating that the CPU 162 has detected the peculiar shape and/or the created three-dimensional model is displayed on the display device 18 via the display control unit 163 . The CPU 162 executes a process of superimposing the presence information of the singular shape and the optical image, a process of separating the optical image from the singular shape and the three-dimensional model, and the like. A processing result by the CPU 162 is displayed on the display device 18 via the display control unit 163 .

メモリ165は、CPU162が行う処理に必要な情報、例えば、プログラム、光学画像、三次元情報、CPU162等の処理に伴って生成される情報、入力された任意の情報等を記憶する。メモリ165の記憶されていない情報は、内視鏡システム1の外部から記録媒体、ネットワークを介して取得できる。ネットワーク上のデータベース等の外部メモリが、内視鏡システム1のメモリの一部として使用される。 The memory 165 stores information necessary for processing performed by the CPU 162, such as programs, optical images, three-dimensional information, information generated along with the processing of the CPU 162, arbitrary input information, and the like. Information not stored in the memory 165 can be acquired from outside the endoscope system 1 via a recording medium or network. An external memory such as a database on a network is used as part of the memory of the endoscope system 1 .

音処理部166は、CPU162のからの信号に基づいてスピーカ167から音を出力させる。音は、警告音、音声等、術者が認識できる限りにおいて、その種類は限定されない。音処理部166は、音を生成してもよいし、メモリ165に記憶された音を利用してもよい。 The sound processing unit 166 causes the speaker 167 to output sound based on the signal from the CPU 162 . The type of sound is not limited as long as it can be recognized by the operator, such as warning sound or voice. The sound processing unit 166 may generate sounds or use sounds stored in the memory 165 .

プロセッサ装置16は、操作部168を備える。操作部168は図示しない操作モード設定切替スイッチを備える。光源装置14の照射を操作できる。術者等は、操作部168及び入力インターフェイス(I/F)169を介して、CPU162に各処理を指示できる。 The processor unit 16 has an operation unit 168 . The operation unit 168 includes an operation mode setting switch (not shown). The illumination of the light source device 14 can be manipulated. An operator or the like can instruct the CPU 162 to perform each process via the operation unit 168 and the input interface (I/F) 169 .

CPU162は、撮像ユニット100の制御回路104と、LiDARユニット76の制御回路82と、光源装置14の光源制御回路141等、内視鏡システム1の全体を制御できる。 The CPU 162 can control the entire endoscope system 1 including the control circuit 104 of the imaging unit 100, the control circuit 82 of the LiDAR unit 76, the light source control circuit 141 of the light source device 14, and the like.

図4は、CPU162で実現される処理機能を示すブロック図である。CPU162は、例えば、画像処理部170と、検出処理部171と、報知処理部172と、三次元モデル作成部173と、位置検出処理部174とを備えることができる。画像処理部170、検出処理部171、報知処理部172、三次元モデル作成部173及び位置検出処理部174はCPU162の一部であり、プロセッサであるCPU162が各部の処理を実行する。 FIG. 4 is a block diagram showing processing functions implemented by the CPU 162. As shown in FIG. The CPU 162 can include, for example, an image processing unit 170 , a detection processing unit 171 , a notification processing unit 172 , a three-dimensional model creation unit 173 and a position detection processing unit 174 . The image processing unit 170, the detection processing unit 171, the notification processing unit 172, the three-dimensional model creation unit 173, and the position detection processing unit 174 are part of the CPU 162, and the CPU 162, which is a processor, executes the processing of each unit.

<内視鏡による観察>
図5は内視鏡の挿入部を被検体内に挿入した状態を示す図である。図5においては、内視鏡10が、例えば、消化管の一つである大腸200に挿入され、位置P1、位置P2及び位置P3で観察を行うことを示す。位置P1、位置P2及び位置P3は、内視鏡10を大腸200に沿って矢印に示す前進方向F、又は矢印に示す後退方向Bに移動することにより変更できる。図5では、位置P1、位置P2及び位置P3における内視鏡10は重ねて表示されている。生体内の組織表面として消化管の内壁を例示したが、呼吸器(気管、気管支等)等の生体内の組織表面を含むことができる。
<Observation with an endoscope>
FIG. 5 is a diagram showing a state in which the insertion portion of the endoscope is inserted into the subject. FIG. 5 shows that the endoscope 10 is inserted into, for example, the large intestine 200, which is one of the digestive tracts, and observations are made at positions P1, P2, and P3. The positions P1, P2 and P3 can be changed by moving the endoscope 10 along the large intestine 200 in the forward direction F indicated by the arrow or the backward direction B indicated by the arrow. In FIG. 5, the endoscopes 10 at positions P1, P2, and P3 are displayed in an overlapping manner. Although the inner wall of the gastrointestinal tract is exemplified as the in vivo tissue surface, the surface of in vivo tissue such as the respiratory tract (trachea, bronchi, etc.) can also be included.

大腸200は、内面に複数のひだ201を有している。ひだ201の表側(内視鏡10の後退方向Bを向く側)にポリープ等の病変部202、又はひだ201の裏側(内視鏡10の前進方向Fを向く側)に病変部202が存在し得る。ひだ201の表側の存在する病変部202は、内視鏡10の撮像ユニット100により比較的容易に観察できる。一方で、ひだ201の裏側に存在する病変部202は、死角となるため撮像ユニット100により観察することが難しくなる。 The large intestine 200 has a plurality of folds 201 on its inner surface. A lesion 202 such as a polyp exists on the front side of the fold 201 (the side facing the backward direction B of the endoscope 10), or the lesion 202 exists on the back side of the fold 201 (the side facing the forward direction F of the endoscope 10). obtain. A lesion 202 existing on the front side of the fold 201 can be observed relatively easily by the imaging unit 100 of the endoscope 10 . On the other hand, the lesion 202 present on the back side of the fold 201 becomes a blind spot and is difficult to observe with the imaging unit 100 .

実施形態の内視鏡10は、先端部30には、撮像ユニット100と、LiDARユニット76とを備え、大腸200の内面を観察する。視野範囲V1は撮像ユニット100の視野範囲であり、視野範囲V2はLiDARユニット76の視野範囲である。LiDARユニット76が取得する三次元情報には、撮像ユニット100によって撮像可能な撮像領域以外に存在する特異形状に関する情報(以下、「特異形状情報」という。)が含まれる。すなわち、LiDARユニット76は、被検体内の三次元情報として、視野範囲V1で示される撮像ユニット100によって撮像可能な撮像領域における、視認可能領域及び視認不能領域に存在する特異形状に関する特異形状情報を取得可能である。なお、本例における特異形状情報は、特異形状を特定する点群までの距離を示す距離情報であるが、特異形状を特定できるものであれば他の情報であってもよい。LiDARユニット76の視野範囲V2は、撮像領域における、視認可能領域及び視認不能領域を含む。ここで、図5において、被検体内の三次元情報は、例えば、大腸200の内面の三次元情報である。 The endoscope 10 of the embodiment includes an imaging unit 100 and a LiDAR unit 76 at the distal end portion 30 to observe the inner surface of the large intestine 200 . The viewing range V1 is the viewing range of the imaging unit 100, and the viewing range V2 is the viewing range of the LiDAR unit 76. FIG. The three-dimensional information acquired by the LiDAR unit 76 includes information (hereinafter referred to as “peculiar shape information”) on a unique shape existing outside the imaging area that can be imaged by the imaging unit 100 . That is, the LiDAR unit 76 provides, as three-dimensional information within the subject, unique shape information about unique shapes existing in the visible region and the invisible region in the imaging region that can be imaged by the imaging unit 100 indicated by the visual field range V1. It is obtainable. The singular shape information in this example is distance information indicating the distance to the point group that specifies the singular shape, but other information may be used as long as the singular shape can be specified. The viewing range V2 of the LiDAR unit 76 includes visible and non-visible areas in the imaging area. Here, in FIG. 5, the three-dimensional information inside the subject is three-dimensional information on the inner surface of the large intestine 200, for example.

撮像ユニット100における、視認不能領域は、図5において、撮像領域の観察対象の裏面、例えば、ひだ201に隠れた領域である。視認不能領域として、ひだ201に隠れた領域の他、経路の先で曲がってブラインドになっている領域、内視鏡10を後退方向Bに移動する際の手前側等を例示できる。 The invisible area in the imaging unit 100 is an area hidden by the back surface of the observation target in the imaging area, for example, the folds 201 in FIG. Examples of the invisible region include a region hidden by the folds 201, a blind region that bends at the end of the path, and the near side when the endoscope 10 is moved in the backward direction B.

したがって、内視鏡10は、撮像ユニット100以外に、LiDARユニット76を備えることにより、ひだ201の裏側等の視認不能領域に存在する病変部202の存在を検出することが可能になる。LiDARユニット76を備えることにより、視認能領域に存在する病変部202の存在を検出することも可能になる。 Therefore, by providing the LiDAR unit 76 in addition to the imaging unit 100 , the endoscope 10 can detect the presence of the lesion 202 existing in the invisible region such as the back side of the fold 201 . The provision of the LiDAR unit 76 also makes it possible to detect the presence of lesions 202 present in the visibility area.

図6から図8は、図5の位置P1、位置P2及び位置P3に対応する観察画像を示す。図6の観察画像は位置P1に対応し、図7の観察画像は位置P2に対応し、図8の観察画像は位置P3に対応する。なお、図6、図7及び図8には光学画像DP1、DP2及びDP3が示されるが、位置P1、P2及びP3と対応付けされない場合、単に光学画像DPと称する場合がある。 6 to 8 show observation images corresponding to positions P1, P2 and P3 in FIG. The observed image in FIG. 6 corresponds to position P1, the observed image in FIG. 7 corresponds to position P2, and the observed image in FIG. 8 corresponds to position P3. Although optical images DP1, DP2, and DP3 are shown in FIGS. 6, 7, and 8, they may simply be referred to as optical images DP when they are not associated with positions P1, P2, and P3.

図6に示すように、観察画像として、内視鏡10が位置P1に位置する場合において、視野範囲V1の撮像ユニット100により取得された光学画像DP1が表示される。撮像ユニット100により取得される光学画像DP1は、画像処理部170(図4参照)により画像処理等が実行され、表示装置18に表示される。光学画像DP1は、大腸200の内面に存在するひだ201と、ひだ201の表側に存在する病変部202とを含んでいる。 As shown in FIG. 6, when the endoscope 10 is positioned at the position P1, an optical image DP1 acquired by the imaging unit 100 in the visual field range V1 is displayed as an observation image. The optical image DP<b>1 acquired by the imaging unit 100 is subjected to image processing and the like by the image processing unit 170 (see FIG. 4 ), and displayed on the display device 18 . The optical image DP1 includes folds 201 present on the inner surface of the large intestine 200 and lesions 202 present on the front side of the folds 201 .

LiDARユニット76は、撮像ユニット100が光学画像DP1を取得する間、視野範囲V2における三次元情報を取得する。被検体内の三次元情報はCPU162(図5参照)に入力され、検出処理部171が検出処理を実行する。後述するように、検出処理部171はLiDARユニット76により取得された三次元情報の中から、特異形状に関する特異形状情報を抽出することで、特異形状を検出する。ここで、LiDARユニット76が取得した三次元情報には、撮像ユニット100の視認不能領域であるひだ201の裏側に存在する病変部202に代表される特異形状に関する特異形状情報が含まれない。一方で、視認能領域であるひだ201の表側に存在する病変部202に関する特異形状情報が含まれている。この場合、検出処理部171ではひだ201の裏側に存在する特異形状の検出は行われないが、ひだ201の表側に存在する特異形状の検出が行われる。図6において、検出処理部171が特異形状を検出した際、報知処理部172は、例えば、報知画像WIを表示装置18に表示するよう画像処理部170に指示する。画像処理部170は光学画像DP1に報知画像WIを重畳し、表示制御部163を介して表示装置18に表示させる。図6の光学画像DP1では、病変部202に楕円形状の報知画像WIを重畳して表示し、さらに光学画像DP1の外周に円弧状の報知画像WIを表示する。報知画像WIは、術者が認識できれば、特に限定されず、色、文字、アイコンの有無などを適用することができる。 The LiDAR unit 76 acquires three-dimensional information in the viewing range V2 while the imaging unit 100 acquires the optical image DP1. Three-dimensional information inside the subject is input to the CPU 162 (see FIG. 5), and the detection processing unit 171 executes detection processing. As will be described later, the detection processing unit 171 detects the peculiar shape by extracting peculiar shape information about the peculiar shape from the three-dimensional information acquired by the LiDAR unit 76 . Here, the three-dimensional information acquired by the LiDAR unit 76 does not include peculiar shape information about a peculiar shape typified by the lesion 202 existing behind the fold 201 which is the invisible area of the imaging unit 100 . On the other hand, it contains peculiar shape information about the lesion 202 present on the front side of the fold 201, which is the visibility area. In this case, the detection processing unit 171 does not detect the peculiar shape present on the back side of the fold 201 , but detects the peculiar shape present on the front side of the fold 201 . In FIG. 6, when the detection processing unit 171 detects a peculiar shape, the notification processing unit 172 instructs the image processing unit 170 to display the notification image WI on the display device 18, for example. The image processing unit 170 superimposes the notification image WI on the optical image DP<b>1 and causes the display device 18 to display it via the display control unit 163 . In the optical image DP1 of FIG. 6, an elliptical notification image WI is superimposed on the lesion 202 and displayed, and an arc-shaped notification image WI is displayed on the outer circumference of the optical image DP1. The notification image WI is not particularly limited as long as it can be recognized by the operator, and colors, characters, presence/absence of icons, and the like can be applied.

報知画像WIは、術者に病変部202が存在する可能性があることを認識させるだけでもよく、また、図6に示すように、報知画像WIは、病変部202が存在する可能性と、その位置の両方を認識させてもよい。 The notification image WI only needs to make the operator aware of the possibility that the lesion 202 exists, and as shown in FIG. Both locations may be recognized.

LiDARユニット76により取得された被検体内の三次元情報は、検出処理部171による検出処理と並列して、メモリ165に記憶してもよい。記憶された被検体内の三次元情報に基づいて、CPU162の三次元モデル作成部173は、三次元モデルを作成できる。また、作成された三次元モデルは画像処理部170に加工され、表示制御部163を介して、表示装置18に表示できる。 The three-dimensional information inside the subject acquired by the LiDAR unit 76 may be stored in the memory 165 in parallel with the detection processing by the detection processing unit 171 . Based on the stored three-dimensional information within the subject, the three-dimensional model creation unit 173 of the CPU 162 can create a three-dimensional model. Also, the created three-dimensional model can be processed by the image processing unit 170 and displayed on the display device 18 via the display control unit 163 .

検出処理部171の処理方法は特に限定されない。例えば、メモリ165に、実際の病変部の形状に関する情報(以下、「病変部形状情報」)記憶させる。病変部形状情報は観察する被検体の部位ごとに複数種類を記憶してもよい。検出処理部171は、メモリ165に記憶された病変部の形状に関する情報を参照し、LiDARユニット76から取得された三次元情報の中から、所定の領域(判定領域)毎に、メモリ165に記憶された病変部形状情報との類似度を求め、予め設定した類似度の閾値より高い領域の情報を特異形状情報として抽出し、抽出した特異形状情報に基づいて特異形状を検出してもよい。 A processing method of the detection processing unit 171 is not particularly limited. For example, the memory 165 stores information about the shape of the actual lesion (hereinafter referred to as “lesion shape information”). A plurality of types of lesion shape information may be stored for each site of the subject to be observed. The detection processing unit 171 refers to the information about the shape of the lesion stored in the memory 165, and stores in the memory 165 for each predetermined area (determination area) from the three-dimensional information acquired from the LiDAR unit 76. It is also possible to obtain a similarity with the lesion shape information obtained, extract information of a region higher than a preset similarity threshold as peculiar shape information, and detect a peculiar shape based on the extracted peculiar shape information.

また、検出処理部171は、LiDARユニット76により取得された三次元情報から三次元形状を特定し、他の部分と異なる形状を特異形状として検出してもよい。 Further, the detection processing unit 171 may specify a three-dimensional shape from the three-dimensional information acquired by the LiDAR unit 76 and detect a shape different from other portions as a singular shape.

検出処理部171は特異形状を検出すると、リアルタイムで特異形状を検出したことを報知できる。また、検出したことを検出情報としてメモリ165に記憶してもよい。報知処理部172は、メモリ165に記憶された検出情報に基づいて、任意のタイミングで特異形状を検出したことを報知できる。 When the detection processing unit 171 detects the peculiar shape, it can notify the detection of the peculiar shape in real time. Further, the detection may be stored in the memory 165 as detection information. Based on the detection information stored in the memory 165, the notification processing unit 172 can notify that the peculiar shape has been detected at any timing.

図7に示すように、観察画像として、内視鏡10が位置P2に位置する場合において、撮像ユニット100により取得された光学画像DP2が表示装置18に表示される。図6と同様に、光学画像DP2は、大腸200の内面に存在するひだ201を含んでいる。 As shown in FIG. 7, an optical image DP2 acquired by the imaging unit 100 is displayed on the display device 18 as an observation image when the endoscope 10 is positioned at the position P2. Similar to FIG. 6, optical image DP2 includes folds 201 present on the inner surface of large intestine 200. FIG.

内視鏡10が、前進方向Fに移動したことにより、ひだ201の表側の病変部202はDP2には表示されていない。また、光学画像DP2の位置において、ひだ201の裏側に存在する病変部202は視認能領域に存在しないので、ひだ201の裏側の病変部202は表示されていない。 Since the endoscope 10 has moved in the forward direction F, the lesion 202 on the front side of the fold 201 is not displayed in DP2. Also, at the position of the optical image DP2, the lesion 202 on the back side of the fold 201 is not present in the visible region, so the lesion 202 on the back side of the fold 201 is not displayed.

内視鏡10が位置P2に位置する場合、位置P1と異なり、LiDARユニット76が取得した三次元情報には、撮像ユニット100の視認不能領域であるひだ201の裏側に存在する病変部202に代表される特異形状に関する特異形状情報が含まれているので、検出処理部171はひだ201の裏側に存在する特異形状を検出する。この場合、図7において、検出処理部171が特異形状を検出した際、報知処理部172は、例えば、報知画像WIを表示装置18に表示するよう画像処理部170に指示する。画像処理部170は光学画像DP1に報知画像WIを重畳し、表示制御部163を介して表示装置18に表示させる。表示装置18の光学画像DP2には、裏側に存在する病変部202は表示されないが、病変部202に対応する位置に、病変部202の存在が検出されたことを報知する報知画像WIが重畳して表示される。図7の光学画像DP2では、破線の楕円曲線の報知画像WIと、矢印形状の報知画像WIが表示されている。 When the endoscope 10 is positioned at the position P2, unlike the position P1, the three-dimensional information acquired by the LiDAR unit 76 includes the lesion 202 present behind the fold 201, which is an invisible area of the imaging unit 100. The detection processing unit 171 detects the peculiar shape existing on the back side of the fold 201 because the peculiar shape information about the peculiar shape to be formed is included. In this case, in FIG. 7, when the detection processing unit 171 detects the peculiar shape, the notification processing unit 172 instructs the image processing unit 170 to display the notification image WI on the display device 18, for example. The image processing unit 170 superimposes the notification image WI on the optical image DP<b>1 and causes the display device 18 to display it via the display control unit 163 . Although the lesion 202 existing on the back side is not displayed in the optical image DP2 of the display device 18, the notification image WI for notifying that the existence of the lesion 202 has been detected is superimposed on the position corresponding to the lesion 202. displayed. In the optical image DP2 of FIG. 7, an elliptical curve notification image WI with a dashed line and an arrow-shaped notification image WI are displayed.

図8に示すように、観察画像として、内視鏡10が位置P3に位置する場合において、撮像ユニット100により取得された光学画像DP3が表示装置18に表示される。光学画像は、大腸200の内面に存在するひだ201を含んでいる。一方で、光学画像は、ひだ201の表側及び裏側に存在する病変部202を含んでいない。 As shown in FIG. 8, an optical image DP3 acquired by the imaging unit 100 is displayed on the display device 18 as an observation image when the endoscope 10 is positioned at the position P3. The optical image includes folds 201 present on the inner surface of colon 200 . On the other hand, the optical image does not include the lesions 202 present on the front and back sides of the fold 201 .

内視鏡10が位置P3に位置する場合、LiDARユニット76が取得した三次元情報には、撮像ユニット100の視認不能領域である経路の先で曲がってブラインドになっている領域における病変部202に関する特異形状情報が含まれる。被検体内の三次元情報はCPU162(図5参照)に入力され、検出処理部171が検出処理を実行する。三次元情報が特異形状情報を含んでいるので、検出処理部171は特異形状が存在することを検出している。 When the endoscope 10 is positioned at the position P3, the three-dimensional information acquired by the LiDAR unit 76 includes information about the lesion 202 in the blind area that bends ahead of the path, which is the invisible area of the imaging unit 100. Contains singular shape information. Three-dimensional information inside the subject is input to the CPU 162 (see FIG. 5), and the detection processing unit 171 executes detection processing. Since the three-dimensional information includes peculiar shape information, the detection processing unit 171 detects the existence of the peculiar shape.

図8において、検出処理部171が特異形状を検出した際、報知処理部172は、例えば、報知画像WIを表示装置18に表示するよう画像処理部170に指示する。画像処理部170は光学画像DP3に報知画像WIを重畳し、表示制御部163を介して表示装置18に表示させる。経路の先で曲がってブラインドになっている領域のひだ201の表側に存在する病変部202の位置に対応する。報知画像WIを光学画像DP3と合わせて表示することにより、術者は、経路の先で曲がってブラインドになっている領域に病変部202が存在する可能性を認識できる。報知画像WIは病変部202の見えていないところに対する事前の報知を行う。図8の表示装置18では、光学画像DP3の外周に円弧状の報知画像WIを表示し、さらに光学画像DP3の外側に破線の楕円曲線の報知画像WIを重畳して表示する。光学画像DP3の外周に円弧状の報知画像WIは、図6の光学画像DP1の外周に円弧状の報知画像WIと異なる色であることが好ましい。 In FIG. 8, when the detection processing unit 171 detects a peculiar shape, the notification processing unit 172 instructs the image processing unit 170 to display the notification image WI on the display device 18, for example. The image processing unit 170 superimposes the notification image WI on the optical image DP3 and causes the display device 18 to display it via the display control unit 163 . It corresponds to the position of the lesion 202 present on the front side of the fold 201 in the area that bends ahead of the path and becomes blind. By displaying the notification image WI together with the optical image DP3, the operator can recognize the possibility that the lesion 202 exists in the blind area that bends ahead of the route. The notification image WI provides advance notification of the lesion 202 that is not visible. In the display device 18 of FIG. 8, an arc-shaped notification image WI is displayed on the outer periphery of the optical image DP3, and a dashed elliptic curve notification image WI is superimposed and displayed on the outside of the optical image DP3. The arc-shaped notification image WI around the optical image DP3 preferably has a different color from the arc-shaped notification image WI around the optical image DP1 in FIG.

図9に示すように、報知画像WIが表示されたタイミングで、術者は、表示装置18に表示された光学画像を確認しながら、アングルノブ40、40(図1参照)を操作し、撮像ユニット100によりひだ201の裏側を直接観察する。撮像ユニット100が病変部202の光学画像を取得する。術者が病変部202の光学画像を視認でき、診断等が可能になる。 As shown in FIG. 9, at the timing when the notification image WI is displayed, the operator operates the angle knobs 40, 40 (see FIG. 1) while confirming the optical image displayed on the display device 18 to take an image. The unit 100 directly observes the back side of the fold 201 . The imaging unit 100 acquires an optical image of the lesion 202 . The operator can visually recognize the optical image of the lesion 202, thereby enabling diagnosis and the like.

なお、図6から図8において、報知画像WIにより報知処理が実施された場合を説明した。しかしながら、検出処理部171が特異形状を検出した際、報知処理部172は、スピーカ167から音を出力させるように音処理部166に指示してもよい。また、報知画像WIと音とにより報知処理を同時に実行してもよい。スピーカ167の設置位置は、特に限定されず、表示装置18に接続されていても、内蔵されていてもよい。 In addition, in FIGS. 6 to 8, the case where the notification process is performed using the notification image WI has been described. However, when the detection processing unit 171 detects the peculiar shape, the notification processing unit 172 may instruct the sound processing unit 166 to output sound from the speaker 167 . Also, the notification process may be executed simultaneously using the notification image WI and the sound. The installation position of the speaker 167 is not particularly limited, and it may be connected to the display device 18 or may be built therein.

図6から図8では、内視鏡10が前進方向Fに移動するのに合わせて、任意のタイミングとして、光学画像DP3に報知画像WIをリアルタイムで表示する場合を示す。しかしながら、光学画像DP3に報知画像WIをリアルタイムとは異なるタイミングで表示してもよい。 FIGS. 6 to 8 show a case where the notification image WI is displayed in real time on the optical image DP3 at arbitrary timing as the endoscope 10 moves in the forward direction F. FIG. However, the notification image WI may be displayed on the optical image DP3 at a timing different from real time.

例えば、内視鏡10を前進方向Fに移動させた際に、特定位置において、LiDARユニット76が取得した三次元情報に含まれる特異形状情報に基づいて、検出処理部171が特異形状を検出し、検出情報(特異形状に示す情報)をメモリ165に記憶する。さらに内視鏡10を前進方向Fに移動させて観察を続ける。観察を終えて内視鏡10を後退方向Bに移動させて内視鏡10が特定位置に到達した際、メモリ165に記憶された検出情報に基づいて、報知処理部172が処理を実行する。光学画像DP3に報知画像WIが表示される。このように任意のタイミングで報知処理が可能である。任意のタイミングで、術者が病変部202の光学画像を視認でき、診断等が可能になる。 For example, when the endoscope 10 is moved in the forward direction F, the detection processing unit 171 detects a peculiar shape at a specific position based on the peculiar shape information included in the three-dimensional information acquired by the LiDAR unit 76. , the detection information (information indicating the singular shape) is stored in the memory 165 . Furthermore, the endoscope 10 is moved in the forward direction F to continue observation. When the endoscope 10 is moved in the backward direction B after observation and reaches a specific position, the notification processing unit 172 executes processing based on the detection information stored in the memory 165 . A notification image WI is displayed in the optical image DP3. In this way, notification processing can be performed at arbitrary timing. The operator can visually recognize the optical image of the lesion 202 at an arbitrary timing, enabling diagnosis and the like.

上述したように実施形態によれば、病変部202が見逃がされるリスクを低減できる。特異形状である病変部202が検出されない場合、内視鏡10による観察は通常の手順で行われる。その結果、検査時間を短縮でき、また消化管へのダメージリスクを低減できる。 As described above, according to the embodiment, the risk of overlooking the lesion 202 can be reduced. If the lesion 202 having a unique shape is not detected, observation with the endoscope 10 is performed in a normal procedure. As a result, examination time can be shortened, and the risk of damage to the gastrointestinal tract can be reduced.

上述において、ひだ201の裏側に存在する病変部202を特異形状として検出し、光学画像DP3に報知画像WIを表示させる場合を説明した。ただし、これに限定されず、ひだ201の表側に存在する病変部202を特異形状として検出した場合においても、報知画像WIを光学画像DPに重畳表示してもよい。病変部202を見逃すリスクを低減できる。 In the above description, the case where the lesion 202 existing on the back side of the fold 201 is detected as a peculiar shape and the notification image WI is displayed on the optical image DP3 has been described. However, the present invention is not limited to this, and even when the lesion 202 existing on the front side of the fold 201 is detected as a peculiar shape, the notification image WI may be displayed superimposed on the optical image DP. The risk of overlooking the lesion 202 can be reduced.

次に、LiDARユニット76から取得される被検体内の三次元情報から三次元モデルを作成する場合を説明する。 Next, a case of creating a three-dimensional model from the three-dimensional information inside the subject acquired from the LiDAR unit 76 will be described.

図5に示すように、内視鏡10の撮像ユニット100により光学画像が取得され、LiDARユニット76により被検体内の三次元情報が取得される。三次元モデル作成部173は、三次元情報に基づいて三次元モデルを作成する。三次元情報は被検体内の体腔に関する体腔情報を含んでおり、三次元モデル作成部173は、被検体の体腔の三次元モデルを作成できる。 As shown in FIG. 5, the imaging unit 100 of the endoscope 10 acquires an optical image, and the LiDAR unit 76 acquires three-dimensional information inside the subject. The 3D model creating unit 173 creates a 3D model based on the 3D information. The three-dimensional information includes body cavity information about body cavities in the subject, and the three-dimensional model creation unit 173 can create a three-dimensional model of the body cavity of the subject.

内視鏡10は消化管に挿入され、前進方向Fに移動しながら観察する。内視鏡10は被検体内の三次元情報を順次取得する。したがって、内視鏡10が前進方向Fに進むにしたがって、三次元モデル作成部173は被検体の体腔の三次元モデルを順次作成する。作成された三次元モデルを表示装置18に順次表示してもよい。 The endoscope 10 is inserted into the digestive tract and observed while moving in the forward direction F. The endoscope 10 sequentially acquires three-dimensional information inside the subject. Therefore, as the endoscope 10 advances in the forward direction F, the three-dimensional model creating unit 173 sequentially creates three-dimensional models of the body cavity of the subject. The created three-dimensional model may be displayed on the display device 18 in sequence.

検出処理部171が、LiDARユニット76により取得された三次元情報に含まれる特異形状情報に基づいて特異形状を検出すると、三次元モデル作成部173は、三次元モデルにおける特異形状の位置を位置情報としてメモリ165に記憶する。体腔の三次元モデル及び特異形状の位置情報は、画像処理部170により画像処理等が実行され、表示装置18に表示できる。 When the detection processing unit 171 detects a singular shape based on the singular shape information included in the three-dimensional information acquired by the LiDAR unit 76, the three-dimensional model creation unit 173 converts the position of the singular shape in the three-dimensional model to the position information. is stored in the memory 165 as . The three-dimensional model of the body cavity and the positional information of the peculiar shape are subjected to image processing and the like by the image processing unit 170 and can be displayed on the display device 18 .

内視鏡10が前進方向Fに移動し、最前方位置に到達すると、三次元モデル作成部173は、被検体内の全体における特異形状の位置情報と体腔の三次元モデルとを作成できる。被検体の体腔の三次元モデルと特異形状の位置情報とをメモリ165に記憶してもよい。 When the endoscope 10 moves in the forward direction F and reaches the forwardmost position, the three-dimensional model creation unit 173 can create the position information of the unique shape throughout the subject and the three-dimensional model of the body cavity. The memory 165 may store the three-dimensional model of the body cavity of the subject and the positional information of the specific shape.

図4に示されるCPU162の位置検出処理部174が、内視鏡10の先端部30の位置情報を取得する。 A position detection processing unit 174 of the CPU 162 shown in FIG. 4 acquires position information of the distal end portion 30 of the endoscope 10 .

位置検出処理部174は、内視鏡10の先端部30の位置及び方向を位置情報として取得する。位置検出処理部174により取得された先端部30の位置情報は、画像処理部170により画像処理等が実行され、表示装置18において、先端部30の位置情報は、特異形状の位置情報と体腔の三次元モデルとに重畳して表示できる。 The position detection processing unit 174 acquires the position and direction of the distal end portion 30 of the endoscope 10 as position information. The position information of the distal end portion 30 acquired by the position detection processing portion 174 is subjected to image processing and the like by the image processing portion 170, and on the display device 18, the positional information of the distal end portion 30 is combined with the positional information of the unique shape and the position of the body cavity. It can be displayed superimposed on the 3D model.

位置検出処理部174は、例えば、内視鏡10の先端部30に搭載された検出センサ(不図示)から位置情報を取得してもよい。検出センサとして磁気センサを利用した内視鏡位置検出システムを適用できる。 The position detection processing unit 174 may acquire position information from a detection sensor (not shown) mounted on the distal end portion 30 of the endoscope 10, for example. An endoscope position detection system using a magnetic sensor as a detection sensor can be applied.

位置検出処理部174は、三次元モデル作成部173により順次作成された三次元モデルから内視鏡10の先端部30の位置情報を取得してもよい。例えば、作成された三次元モデルの一つを基準とし、次に作成された三次元モデルと比較する。基準となる三次元モデルの特徴部分が、次に作成された三次元モデルにおいて、どの程度拡大又は縮小されたかを算出し、移動量を求め。先端部30の位置情報を推定できる。 The position detection processing section 174 may acquire the position information of the distal end portion 30 of the endoscope 10 from the three-dimensional model sequentially created by the three-dimensional model creating section 173 . For example, one of the created three-dimensional models is used as a reference and compared with the next created three-dimensional model. Calculate how much the characterizing portion of the reference three-dimensional model is enlarged or reduced in the next created three-dimensional model, and obtain the amount of movement. Positional information of the tip 30 can be estimated.

三次元モデル作成部173は、取得された三次元情報と光学画像と先端部30の位置情報とを対応付けて三次元モデルを作成し、メモリ165に記憶してもよい。内視鏡10による処置後において、三次元モデルを利用できる。例えば、高品質の光学画像と三次元情報に含まれる特異形状情報を利用することにより、質の高い機械学習用の教師データとして利用可能である。 The three-dimensional model creation unit 173 may create a three-dimensional model by associating the acquired three-dimensional information, the optical image, and the positional information of the distal end portion 30 and store it in the memory 165 . A three-dimensional model is available after treatment with the endoscope 10 . For example, by using a high-quality optical image and peculiar shape information contained in three-dimensional information, it can be used as high-quality teacher data for machine learning.

図10は、観察画像と三次元モデルとを表示装置に表示させた場合の模式図である。図10に示すように、表示装置18には光学画像DPと三次元モデルMDとが並列して一画面に表示される。なお、図10において、一回挿入した内視鏡10を盲腸付近まで前進させた後、後退させた場合であり、大腸の末端までの大腸モデル300の画像が作成されている。 FIG. 10 is a schematic diagram of an observation image and a three-dimensional model displayed on a display device. As shown in FIG. 10, the optical image DP and the three-dimensional model MD are displayed side by side on one screen on the display device 18 . In FIG. 10, the endoscope 10 that has been inserted once is advanced to the vicinity of the cecum and then retracted, and an image of the large intestine model 300 is created up to the end of the large intestine.

光学画像DPは内視鏡10の撮像ユニット100から得られた光学画像である。三次元モデルMDは三次元モデル作成部173により作成される。三次元モデルMDは大腸モデル300と、ひだモデル301と、特異形状モデルである病変部モデル302と、を含んでいる。さらに、内視鏡モデル310と先端モデル330とが含まれる。先端モデル330は、位置検出処理部174の位置情報に基づいて、大腸モデル300における相対位置を示す。術者は、内視鏡10の先端部30の実際の位置を三次元モデルMDにより確認できる。 The optical image DP is an optical image obtained from the imaging unit 100 of the endoscope 10 . A three-dimensional model MD is created by the three-dimensional model creation unit 173 . The three-dimensional model MD includes a large intestine model 300, a fold model 301, and a lesion model 302, which is a peculiar shape model. Further included is an endoscope model 310 and a tip model 330 . The tip model 330 indicates the relative position in the large intestine model 300 based on the position information of the position detection processing section 174 . The operator can confirm the actual position of the distal end portion 30 of the endoscope 10 from the three-dimensional model MD.

光学画像DPは、大腸200の内面を表示する。光学画像DPは、ひだ201と、特異形状の病変部202(不図示)に対応する位置に報知画像WIとを表示する。 Optical image DP displays the inner surface of large intestine 200 . The optical image DP displays a fold 201 and a notification image WI at a position corresponding to a peculiar-shaped lesion 202 (not shown).

術者は、光学画像DPの報知画像WIと三次元モデルMDの病変部モデル303とを確認できるので、ひだ201の裏側の病変部202を見逃すリスクを低減できる。 Since the operator can confirm the notification image WI of the optical image DP and the lesion model 303 of the three-dimensional model MD, the risk of overlooking the lesion 202 behind the fold 201 can be reduced.

図2の内視鏡10の先端部30の先端面にLiDARユニット76を配置する場合を例示した。ただし、この位置に限定されない。図11は、内視鏡10の先端部30の拡大図である。図11に示すように、LiDARユニット76を先端部30の外周面(側面)に配置してもよい。 The case where the LiDAR unit 76 is arranged on the distal end surface of the distal end portion 30 of the endoscope 10 in FIG. 2 is illustrated. However, it is not limited to this position. FIG. 11 is an enlarged view of the distal end portion 30 of the endoscope 10. FIG. As shown in FIG. 11 , the LiDAR unit 76 may be arranged on the outer peripheral surface (side surface) of the distal end portion 30 .

図2及び図11の内視鏡10において、1個のLiDARユニット76を先端部30に配置する場合を示したが、少なくとも1個のLiDARユニット76が先端部30に配置されればよい。例えば、複数のLiDARユニット76を配置する場合、先端部30の外周面(側面)に、長軸方向Axを中心とする周方向に沿って等間隔にLiDARユニット76を配置できる。同様に、少なくとも1個の撮像ユニット100が先端部30に配置されればよく、複数の撮像ユニット100を配置できる。 2 and 11 show the case where one LiDAR unit 76 is arranged at the distal end portion 30 , at least one LiDAR unit 76 may be arranged at the distal end portion 30 . For example, when a plurality of LiDAR units 76 are arranged, the LiDAR units 76 can be arranged on the outer peripheral surface (side surface) of the distal end portion 30 at regular intervals along the circumferential direction centered on the longitudinal direction Ax. Similarly, at least one imaging unit 100 needs only to be arranged at the distal end portion 30, and a plurality of imaging units 100 can be arranged.

次に、トランスデューサを備える超音波内視鏡にLiDARユニットを適用した場合について説明する。図12は超音波内視鏡システムの構成の一例を示す概略構成図である。なお、図1に示す内視鏡システムと同様の構成には同様の符号を付して説明を省略する場合がある。 Next, a case where the LiDAR unit is applied to an ultrasonic endoscope having a transducer will be described. FIG. 12 is a schematic configuration diagram showing an example of configuration of an ultrasonic endoscope system. In addition, the same code|symbol may be attached|subjected to the same structure as the endoscope system shown in FIG. 1, and description may be abbreviate|omitted.

<超音波内視鏡システムの構成図>
内視鏡システム1は、コンベックス型の超音波内視鏡11、光源装置14、プロセッサ装置16、超音波用プロセッサ装置17及び表示装置18を備える。
<Configuration diagram of ultrasonic endoscope system>
The endoscope system 1 includes a convex ultrasonic endoscope 11 , a light source device 14 , a processor device 16 , an ultrasonic processor device 17 and a display device 18 .

超音波内視鏡11は、操作部材が配置された操作部22と、操作部22の先端側に設けられ、被検体内に挿入される挿入部24と、を備える。挿入部24は、基端から先端に向って順に軟性部26と、湾曲部28と、先端部30とを備えている。トランスデューサ90が先端部30に配置される。 The ultrasonic endoscope 11 includes an operation section 22 in which an operation member is arranged, and an insertion section 24 provided on the distal end side of the operation section 22 and inserted into the subject. The insertion section 24 includes a flexible section 26, a curved section 28, and a distal section 30 in order from the proximal end toward the distal end. A transducer 90 is positioned at the tip 30 .

操作部本体34は、図1の内視鏡10とは異なり、起立台35(図13参照)を起立させる起立レバー50を備える。また、ユニバーサルケーブル54の先端には光源用コネクタ57及び超音波用コネクタ59を備える。光源用コネクタ57には、プロセッサ用コネクタ58が分岐して設けられる。光源用コネクタ57は光源装置14に着脱自在に接続される。プロセッサ用コネクタ58はプロセッサ装置16に着脱自在に接続される。超音波用コネクタ59が超音波用プロセッサ装置17に着脱自在に接続される。 Unlike the endoscope 10 shown in FIG. 1, the operation section main body 34 includes an erection lever 50 for erecting an erection table 35 (see FIG. 13). A light source connector 57 and an ultrasonic wave connector 59 are provided at the tip of the universal cable 54 . A processor connector 58 is branched from the light source connector 57 . The light source connector 57 is detachably connected to the light source device 14 . The processor connector 58 is detachably connected to the processor device 16 . An ultrasound connector 59 is detachably connected to the ultrasound processor device 17 .

超音波用プロセッサ装置17はトランスデューサ90に超音波を発生させる。また、超音波用プロセッサ装置17は、トランスデューサ90が受信した観察対象からのエコー信号に基づいて超音波画像を生成する。超音波画像は表示装置18に表示される。 The ultrasonic processor unit 17 causes the transducer 90 to generate ultrasonic waves. Further, the ultrasound processor device 17 generates an ultrasound image based on echo signals from the observation target received by the transducer 90 . The ultrasound image is displayed on the display device 18 .

<超音波内視鏡の先端部>
図13は超音波内視鏡の先端部の拡大図である。図13に示すように、先端部30は、先端部本体31と、先端部本体31の先端の側にトランスデューサ90と、を備える。トランスデューサ90は、コンベックス型の超音波振動子91を備える。
<Tip of ultrasonic endoscope>
FIG. 13 is an enlarged view of the distal end portion of the ultrasonic endoscope. As shown in FIG. 13 , the tip 30 includes a tip body 31 and a transducer 90 on the tip side of the tip body 31 . The transducer 90 has a convex ultrasonic transducer 91 .

先端部本体31の傾斜面32には、観察窓70と、2個の照明窓72と、送気送水ノズル75とが配置される。傾斜面32は、長軸方向Axに対して観察窓70が照明窓72より基端の側に近づく方向に傾斜する。 An observation window 70 , two illumination windows 72 , and an air/water nozzle 75 are arranged on the inclined surface 32 of the tip body 31 . The inclined surface 32 is inclined in a direction in which the observation window 70 approaches the base end side from the illumination window 72 with respect to the longitudinal direction Ax.

処置具導出口33が、先端部本体31の基端の側に設けられる。処置具導出口33に連通する凹状の起立台収容部37が先端部本体31に設けられる。起立台35が、処置具導出口33からの導出方向を変更する回動可能に、起立台収容部37に配置される。 A treatment instrument lead-out port 33 is provided on the proximal end side of the tip body 31 . A recessed standing table accommodating portion 37 that communicates with the treatment instrument outlet 33 is provided in the distal end portion main body 31 . The standing table 35 is arranged in the standing table accommodating portion 37 so as to be rotatable to change the direction of withdrawal from the treatment instrument outlet 33 .

起立台35は、操作ワイヤ(不図示)を介して操作部本体34の起立レバー50(図12参照)に連結される。起立レバー50の操作によって操作ワイヤが押し引き操作されると、起立台35が軸を介して回動し、起立台35の起立角度が変更される。 The stand 35 is connected to the stand-up lever 50 (see FIG. 12) of the operation section main body 34 via an operation wire (not shown). When the operation wire is pushed and pulled by operating the erecting lever 50, the erecting table 35 rotates through the shaft, and the erecting angle of the erecting table 35 is changed.

内視鏡10と同様の撮像ユニット100(図3参照)が先端部本体31の観察窓70に対応する位置に配置される。さらに、超音波内視鏡11は、先端部本体31の傾斜面32に内視鏡10と同様のLiDARユニット76が配置される。LiDARユニット76はレーザ光源78と、光センサ80と、を備える。 An imaging unit 100 (see FIG. 3) similar to the endoscope 10 is arranged at a position corresponding to the observation window 70 of the tip body 31 . Furthermore, the ultrasonic endoscope 11 has a LiDAR unit 76 similar to that of the endoscope 10 arranged on the inclined surface 32 of the distal end body 31 . LiDAR unit 76 comprises a laser light source 78 and an optical sensor 80 .

超音波内視鏡11は、トランスデューサ90により被検体内の超音波画像を取得でき、撮像ユニット100により被検体内の光学画像を取得でき、LiDARユニット76により被検体内の三次元情報を取得できる。図12に示すプロセッサ装置16は、図1に示すプロセッサ装置16と同様に光学画像及び三次元情報を処理するためのCPU162等を備える。 The ultrasonic endoscope 11 can acquire an ultrasonic image inside the subject with the transducer 90, an optical image inside the subject with the imaging unit 100, and three-dimensional information inside the subject with the LiDAR unit 76. . The processor device 16 shown in FIG. 12 includes a CPU 162 and the like for processing optical images and three-dimensional information, like the processor device 16 shown in FIG.

図14は、超音波内視鏡11により消化管を観察する状態を示すである。図14には、被検体内の胃220と十二指腸222と膵臓224とが示される。一般的に、超音波内視鏡11のトランスデューサ90を胃220の内壁に押し当てて擦るようにして引きながら、つまりトランスデューサ90を走査しながら、膵臓224の超音波画像を観察する。トランスデューサ90を押し当てている間、光学画像は胃220の内壁しか見えず、超音波画像のみでトランスデューサ90の位置を把握する必要がある。超音波画像での位置把握は難易度が高く、手技の長時間化や医師の早期育成の妨げとなる。 FIG. 14 shows a state of observing the gastrointestinal tract with the ultrasonic endoscope 11. As shown in FIG. FIG. 14 shows the stomach 220, duodenum 222, and pancreas 224 within the subject. In general, an ultrasound image of the pancreas 224 is observed while the transducer 90 of the ultrasound endoscope 11 is pressed against the inner wall of the stomach 220 and pulled as if rubbing, that is, while scanning the transducer 90 . While pressing the transducer 90, only the inner wall of the stomach 220 can be seen in the optical image, and it is necessary to grasp the position of the transducer 90 only with the ultrasound image. It is very difficult to grasp the position using an ultrasound image, which makes the procedure long and hinders the early training of doctors.

実施形態の超音波内視鏡11はLiDARユニット76により被検体内の三次元情報を取得できるので、プロセッサ装置16のCPU162等により、被検体の体腔の三次元モデルを作成できる。さらに、被検体の体腔の三次元モデルに、位置検出処理部174により取得された超音波内視鏡11の先端部30の位置を重畳して表示できる。 Since the ultrasonic endoscope 11 of the embodiment can acquire three-dimensional information inside the subject by means of the LiDAR unit 76, the CPU 162 of the processor device 16 and the like can create a three-dimensional model of the body cavity of the subject. Furthermore, the position of the distal end portion 30 of the ultrasonic endoscope 11 acquired by the position detection processing unit 174 can be superimposed and displayed on the three-dimensional model of the body cavity of the subject.

図15は超音波画像と三次元モデルとを表示装置に表示させた場合の模式図である。図15に示すように、表示装置18には超音波画像UIと三次元モデルMDとが並列して一画面に表示される。 FIG. 15 is a schematic diagram of a case where an ultrasonic image and a three-dimensional model are displayed on a display device. As shown in FIG. 15, the display device 18 displays the ultrasonic image UI and the three-dimensional model MD side by side on one screen.

超音波画像UIは超音波内視鏡11のトランスデューサ90から得られた超音波画像である。三次元モデルMDは、三次元モデル作成部173(図4参照)により作成される。三次元モデルMDは、胃モデル320と、十二指腸モデル322とを含んでいる。さらに、内視鏡モデル311と先端モデル330とが含まれる。先端モデル330は、位置検出処理部174(図4参照)の位置情報に基づいて、胃モデル320及び十二指腸モデル322における相対位置を示す。術者は、超音波内視鏡11の先端部30の実際の位置を三次元モデルMDにより確認できる。 The ultrasound image UI is an ultrasound image obtained from the transducer 90 of the ultrasound endoscope 11 . The 3D model MD is created by the 3D model creating unit 173 (see FIG. 4). The 3D model MD includes a stomach model 320 and a duodenum model 322 . Further included is an endoscope model 311 and a tip model 330 . The tip model 330 indicates the relative positions of the stomach model 320 and the duodenum model 322 based on the position information of the position detection processing unit 174 (see FIG. 4). The operator can confirm the actual position of the distal end portion 30 of the ultrasonic endoscope 11 from the three-dimensional model MD.

超音波内視鏡11の先端部30の位置をリアルタイムで術者が確認できるので、トランスデューサ90を容易に走査できる。 Since the operator can confirm the position of the distal end portion 30 of the ultrasonic endoscope 11 in real time, the transducer 90 can be easily scanned.

実施形態の超音波内視鏡11は、CT(Computed Tomography)から三次元情報を取得する必要がないので、CTを備えない小規模な病院で特に有用である。CTを利用しない場合、被検者の被爆リスクが低減される。さらに、手技時間の短縮、医師の育成の促進及びEUSの普及の促進が期待される。 Since the ultrasonic endoscope 11 of the embodiment does not need to acquire three-dimensional information from CT (Computed Tomography), it is particularly useful in small-scale hospitals without CT. If CT is not used, the exposure risk of the subject is reduced. Furthermore, it is expected to shorten procedure time, promote the training of doctors, and promote the spread of EUS.

以上、本発明について説明したが、本発明は、上述の例には限定されず、本発明の要旨を逸脱しない範囲において、各種の改良や変形を行ってもよいのはもちろんである。 Although the present invention has been described above, the present invention is not limited to the above examples, and various improvements and modifications may be made without departing from the scope of the present invention.

<その他>
上記実施形態において、各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
<Others>
In the above embodiment, the hardware structure of the processing unit that executes various processes is various processors as shown below. For various processors, the circuit configuration can be changed after manufacturing such as CPU (Central Processing Unit), which is a general-purpose processor that executes software (program) and functions as various processing units, FPGA (Field Programmable Gate Array), etc. Programmable Logic Device (PLD), which is a processor, ASIC (Application Specific Integrated Circuit), etc. be

1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種または異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部は1つのプロセッサで構成できる。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。 One processing unit may be composed of one of these various processors, or may be composed of two or more processors of the same type or different types (eg, multiple FPGAs, or combinations of CPUs and FPGAs). may Moreover, a plurality of processing units can be configured by one processor. As an example of configuring a plurality of processing units in a single processor, first, as represented by a computer such as a client or server, a single processor is configured by combining one or more CPUs and software. There is a form in which a processor functions as multiple processing units. Secondly, as typified by System On Chip (SoC), etc., there is a form of using a processor that realizes the function of the entire system including a plurality of processing units with a single IC (Integrated Circuit) chip. be. In this way, the various processing units are configured using one or more of the above various processors as a hardware structure.

さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。 Further, the hardware structure of these various processors is, more specifically, an electrical circuit that combines circuit elements such as semiconductor elements.

1 内視鏡システム
10 内視鏡
11 超音波内視鏡
14 光源装置
16 プロセッサ装置
17 超音波用プロセッサ装置
18 表示装置
22 操作部
24 挿入部
26 軟性部
28 湾曲部
30 先端部
31 先端部本体
32 傾斜面
33 処置具導出口
34 操作部本体
35 起立台
36 把持部
37 起立台収容部
38 折れ止め管
40 アングルノブ
42 ロックレバー
44 送気送水ボタン
46 吸引ボタン
48 操作ボタン
50 起立レバー
52 処置具導入口
54 ユニバーサルケーブル
56 コネクタ装置
57 光源用コネクタ
58 プロセッサ用コネクタ
59 超音波用コネクタ
70 観察窓
72 照明窓
74 鉗子口
75 送気送水ノズル
76 LiDARユニット
78 レーザ光源
80 光センサ
82 制御回路
90 トランスデューサ
91 超音波振動子
100 撮像ユニット
101 撮像レンズ
102 撮像素子
103 AFE
104 制御回路
110 ライトガイド
140 光源
141 光源制御回路
161 画像入力コントローラ
162 CPU
163 表示制御部
165 メモリ
166 音処理部
167 スピーカ
168 操作部
169 入力インターフェイス
170 画像処理部
171 検出処理部
172 報知処理部
173 三次元モデル作成部
174 位置検出処理部
200 大腸
201 ひだ
202 病変部
220 胃
222 十二指腸
224 膵臓
300 大腸モデル
301 ひだモデル
302 病変部モデル
310 内視鏡モデル
311 内視鏡モデル
320 胃モデル
322 十二指腸モデル
330 先端モデル
Ax 長軸方向
DP 光学画像
DP1 光学画像
DP2 光学画像
DP3 光学画像
MD 三次元モデル
P1 位置
P2 位置
P3 位置
UI 超音波画像
V1 視野範囲
V2 視野範囲
WI 報知画像
1 endoscope system 10 endoscope 11 ultrasonic endoscope 14 light source device 16 processor device 17 ultrasonic processor device 18 display device 22 operation section 24 insertion section 26 flexible section 28 bending section 30 distal section 31 distal section main body 32 Inclined surface 33 Treatment instrument outlet 34 Operation unit main body 35 Standing table 36 Grasping part 37 Standing table housing part 38 Bent stop tube 40 Angle knob 42 Lock lever 44 Air supply/water supply button 46 Suction button 48 Operation button 50 Standing lever 52 Treatment instrument introduction Port 54 Universal cable 56 Connector device 57 Light source connector 58 Processor connector 59 Ultrasonic connector 70 Observation window 72 Illumination window 74 Forceps port 75 Air/water nozzle 76 LiDAR unit 78 Laser light source 80 Optical sensor 82 Control circuit 90 Transducer 91 Super Acoustic oscillator 100 Imaging unit 101 Imaging lens 102 Imaging device 103 AFE
104 control circuit 110 light guide 140 light source 141 light source control circuit 161 image input controller 162 CPU
163 display control unit 165 memory 166 sound processing unit 167 speaker 168 operation unit 169 input interface 170 image processing unit 171 detection processing unit 172 notification processing unit 173 three-dimensional model creation unit 174 position detection processing unit 200 large intestine 201 fold 202 lesion 220 stomach 222 duodenum 224 pancreas 300 large intestine model 301 fold model 302 lesion model 310 endoscope model 311 endoscope model 320 stomach model 322 duodenum model 330 tip model Ax longitudinal direction DP optical image DP1 optical image DP2 optical image DP3 optical image MD Three-dimensional model P1 Position P2 Position P3 Position UI Ultrasonic image V1 Visual field range V2 Visual field range WI Notification image

Claims (13)

先端側に先端部を有し、被検体内に挿入される挿入部と、
前記先端部に配置され前記被検体内の光学画像を取得可能な撮像ユニットと、
前記挿入部に配置され前記被検体内の三次元情報を取得可能なLiDARユニットと、を備える内視鏡であって、
前記LiDARユニットは、前記被検体内の三次元情報として、前記撮像ユニットによって撮像可能な撮像領域における、視認可能領域及び視認不能領域に存在する特異形状に関する特異形状情報を取得する、内視鏡。
an insertion section having a distal end on the distal end side and inserted into the subject;
an imaging unit arranged at the distal end portion and capable of acquiring an optical image of the inside of the subject;
and a LiDAR unit arranged in the insertion section and capable of acquiring three-dimensional information within the subject,
The endoscope, wherein the LiDAR unit acquires, as three-dimensional information within the subject, singular shape information about a singular shape existing in a visible region and a non-visually visible region in an imaging region that can be imaged by the imaging unit.
前記特異形状は、病変部に関する形状である、請求項1に記載の内視鏡。 The endoscope according to claim 1, wherein said specific shape is a shape related to a lesion. 前記LiDARユニットは、前記被検体内の三次元情報として、前記挿入部が挿入された前記被検体の体腔に関する体腔情報を取得する、請求項1又は2に記載の内視鏡。 3. The endoscope according to claim 1, wherein said LiDAR unit acquires body cavity information regarding a body cavity of said subject into which said insertion portion is inserted, as three-dimensional information within said subject. 請求項1から3のいずれか一項に記載の内視鏡と、
前記撮像ユニット及び前記LiDARユニットの間で信号の送受信を行う、プロセッサ及びメモリを備えるプロセッサ装置と、
を備える内視鏡システムであって、
前記プロセッサは、前記LiDARユニットにより取得された前記特異形状情報に基づき前記特異形状を検出する、内視鏡システム。
an endoscope according to any one of claims 1 to 3;
a processor device comprising a processor and a memory for transmitting and receiving signals between the imaging unit and the LiDAR unit;
An endoscope system comprising:
The endoscope system, wherein the processor detects the peculiar shape based on the peculiar shape information obtained by the LiDAR unit.
前記メモリは、病変部の形状に関する情報を記憶し、
前記プロセッサは、前記LiDARユニットにより取得された前記三次元情報の中から、前記メモリに記憶された前記病変部の形状に関する情報との類似度を求めて前記特異形状を検出する、請求項4に記載の内視鏡システム。
the memory stores information about the shape of the lesion;
5. The processor, from the three-dimensional information acquired by the LiDAR unit, detects the peculiar shape by obtaining a degree of similarity with the information on the shape of the lesion stored in the memory. An endoscopic system as described.
前記プロセッサは、前記特異形状を検出したことを報知する報知処理を実行する、請求項4又は5に記載の内視鏡システム。 The endoscope system according to claim 4 or 5, wherein said processor executes notification processing for notifying that said peculiar shape has been detected. 前記プロセッサは、前記特異形状を検出したことを前記メモリに記憶し、かつ、任意のタイミングで前記特異形状を検出したことを報知する報知処理を実行する、請求項6に記載の内視鏡システム。 7. The endoscope system according to claim 6, wherein said processor stores detection of said peculiar shape in said memory, and performs notification processing for notifying said detection of said peculiar shape at arbitrary timing. . 前記プロセッサは、前記特異形状を検出した際、音による報知処理を実行する、請求項6又は7に記載の内視鏡システム。 The endoscope system according to claim 6 or 7, wherein said processor executes notification processing by sound when detecting said singular shape. 前記プロセッサ装置に接続される表示装置を備え、
前記プロセッサは、前記表示装置に前記光学画像を表示し、前記特異形状を検出した際、前記表示装置への表示による報知処理を実行する、請求項6から8のいずれか一項に記載の内視鏡システム。
a display device connected to the processor device;
The processor according to any one of claims 6 to 8, wherein the optical image is displayed on the display device, and when the singular shape is detected, notification processing is performed by displaying on the display device. optic system.
前記プロセッサ装置に接続される表示装置を備え、
前記LiDARユニットは、前記被検体内の三次元情報として、前記挿入部が挿入された前記被検体の体腔に関する体腔情報を取得し、
前記プロセッサは、前記LiDARユニットが取得した前記体腔情報に基づいて前記被検体の体腔の三次元モデルを作成する、請求項4から9のいずれか一項に記載の内視鏡システム。
a display device connected to the processor device;
The LiDAR unit acquires body cavity information regarding a body cavity of the subject into which the insertion portion is inserted, as three-dimensional information within the subject,
The endoscope system according to any one of claims 4 to 9, wherein the processor creates a three-dimensional model of the body cavity of the subject based on the body cavity information acquired by the LiDAR unit.
前記プロセッサは、前記三次元モデルにおける前記特異形状の位置を位置情報として前記メモリに記憶する、請求項10に記載の内視鏡システム。 The endoscope system according to claim 10, wherein said processor stores the position of said peculiar shape in said three-dimensional model in said memory as position information. 前記プロセッサは、前記表示装置に、前記メモリに記憶された位置情報に基づき前記特異形状の位置を含む前記三次元モデルを表示する、請求項11に記載の内視鏡システム。 12. The endoscope system according to claim 11, wherein the processor displays the three-dimensional model including the position of the unique shape on the display device based on the positional information stored in the memory. 前記プロセッサは、前記表示装置に、前記三次元モデルの中に前記先端部の位置を表示する、請求項12に記載の内視鏡システム。 13. The endoscope system of claim 12, wherein the processor displays the position of the tip in the three-dimensional model on the display device.
JP2021031697A 2021-03-01 2021-03-01 Endoscope and endoscope system Active JP7541941B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021031697A JP7541941B2 (en) 2021-03-01 2021-03-01 Endoscope and endoscope system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021031697A JP7541941B2 (en) 2021-03-01 2021-03-01 Endoscope and endoscope system

Publications (2)

Publication Number Publication Date
JP2022132940A true JP2022132940A (en) 2022-09-13
JP7541941B2 JP7541941B2 (en) 2024-08-29

Family

ID=83229240

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021031697A Active JP7541941B2 (en) 2021-03-01 2021-03-01 Endoscope and endoscope system

Country Status (1)

Country Link
JP (1) JP7541941B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6049518B2 (en) 2013-03-27 2016-12-21 オリンパス株式会社 Image processing apparatus, endoscope apparatus, program, and operation method of image processing apparatus
JP6485694B2 (en) 2015-03-26 2019-03-20 ソニー株式会社 Information processing apparatus and method
JP6141559B1 (en) 2015-07-06 2017-06-07 オリンパス株式会社 Medical device, medical image generation method, and medical image generation program
US20170366773A1 (en) 2016-06-21 2017-12-21 Siemens Aktiengesellschaft Projection in endoscopic medical imaging

Also Published As

Publication number Publication date
JP7541941B2 (en) 2024-08-29

Similar Documents

Publication Publication Date Title
JP4153963B2 (en) Endoscope insertion shape detection device
US7935048B2 (en) Method and system for navigating within a flexible organ of the body of a patient
US9662042B2 (en) Endoscope system for presenting three-dimensional model image with insertion form image and image pickup image
JP2023010809A (en) Medical image processing device, endoscope system, operation method and program of medical image processing device, and recording medium
JP5486432B2 (en) Image processing apparatus, operating method thereof, and program
JP2009213627A (en) Endoscopic examination system and examination method using the same
JP2005111273A (en) Endoscopy apparatus, and image forming method for endoscopy apparatus
JP5988907B2 (en) Endoscope system
KR20140108066A (en) Endoscope system and control method thereof
JP7218425B2 (en) Endoscopic Ultrasound System and Method of Operating Endoscopic Ultrasound System
JP2006230906A (en) Medical diagnostic system and apparatus, and endoscope
JP2010069018A (en) Medical guide system
WO2013011733A1 (en) Endoscope guidance system and endoscope guidance method
WO2020165978A1 (en) Image recording device, image recording method, and image recording program
JPWO2018051565A1 (en) Ultrasonic endoscope and ultrasonic endoscope system
US20180161063A1 (en) Ultrasound observation apparatus, method of operating ultrasound observation apparatus, and computer readable recording medium
JP2017225700A (en) Observation support device and endoscope system
JP2004097696A (en) Endoscopic observing apparatus
JP7158596B2 (en) Endoscopic Ultrasound System and Method of Operating Endoscopic Ultrasound System
JP2011183000A (en) Endoscope apparatus
JP7541941B2 (en) Endoscope and endoscope system
CN116261419A (en) System and method for a triple imaging hybrid probe
WO2024042895A1 (en) Image processing device, endoscope, image processing method, and program
JP3943923B2 (en) Ultrasound diagnostic imaging equipment
CN102028502B (en) Electronic laryngoscope system with color Doppler ultrasound scanning function

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240617

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240819

R150 Certificate of patent or registration of utility model

Ref document number: 7541941

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150