JP2022132940A - Endoscope and endoscope system - Google Patents
Endoscope and endoscope system Download PDFInfo
- Publication number
- JP2022132940A JP2022132940A JP2021031697A JP2021031697A JP2022132940A JP 2022132940 A JP2022132940 A JP 2022132940A JP 2021031697 A JP2021031697 A JP 2021031697A JP 2021031697 A JP2021031697 A JP 2021031697A JP 2022132940 A JP2022132940 A JP 2022132940A
- Authority
- JP
- Japan
- Prior art keywords
- endoscope
- information
- subject
- shape
- processor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003287 optical effect Effects 0.000 claims abstract description 75
- 238000003384 imaging method Methods 0.000 claims abstract description 58
- 230000003902 lesion Effects 0.000 claims abstract description 56
- 238000003780 insertion Methods 0.000 claims abstract description 18
- 230000037431 insertion Effects 0.000 claims abstract description 18
- 238000012545 processing Methods 0.000 claims description 95
- 238000001514 detection method Methods 0.000 claims description 48
- 201000010099 disease Diseases 0.000 abstract 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 abstract 1
- 238000007689 inspection Methods 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 22
- 210000002429 large intestine Anatomy 0.000 description 15
- 238000002604 ultrasonography Methods 0.000 description 12
- 238000000034 method Methods 0.000 description 11
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 10
- 238000005286 illumination Methods 0.000 description 8
- 210000001035 gastrointestinal tract Anatomy 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 210000002784 stomach Anatomy 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 210000001198 duodenum Anatomy 0.000 description 5
- 238000002591 computed tomography Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000005452 bending Methods 0.000 description 3
- 238000001727 in vivo Methods 0.000 description 3
- 210000000496 pancreas Anatomy 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- ORQBXQOJMQIAOY-UHFFFAOYSA-N nobelium Chemical compound [No] ORQBXQOJMQIAOY-UHFFFAOYSA-N 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 208000037062 Polyps Diseases 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 210000001124 body fluid Anatomy 0.000 description 1
- 239000010839 body fluid Substances 0.000 description 1
- 210000000621 bronchi Anatomy 0.000 description 1
- 210000004534 cecum Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 210000001072 colon Anatomy 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 210000002345 respiratory system Anatomy 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 210000003437 trachea Anatomy 0.000 description 1
Images
Landscapes
- Instruments For Viewing The Inside Of Hollow Bodies (AREA)
- Endoscopes (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
Description
本発明は、内視鏡及び内視鏡システムに関する。 The present invention relates to endoscopes and endoscope systems.
一般的に、多くの内視鏡は、先端部に撮像ユニットを備え、被検体に挿入されると、撮像ユニットにより、先端部の長軸方向前方を観察する。近年、内視鏡において、観察対象までの距離を取得することが行われており、特許文献1では撮像ユニット以外に距離センサを備える内視鏡が開示されている。
In general, many endoscopes have an imaging unit at the distal end, and when inserted into a subject, the imaging unit observes the front of the distal end in the longitudinal direction. In recent years, endoscopes have been used to acquire the distance to an observation target, and
ところで、生体内の組織表面の一例である、大腸をはじめとする消化管は特有のひだを有している。そのため、撮像ユニットにより、先端部の長軸方向前方を観察する場合、さらに距離センサで距離を測定する場合において、ひだが病変を内視鏡から隠すことがある。すなわち、ひだの裏側等の死角に存在する病変部が見逃す恐れがある。 By the way, the gastrointestinal tract including the large intestine, which is an example of tissue surfaces in vivo, has unique folds. Therefore, when the imaging unit is used to observe the front of the distal end in the longitudinal direction, and when the distance sensor is used to measure the distance, the folds may hide the lesion from the endoscope. In other words, there is a risk that lesions present in blind spots such as the back side of folds may be overlooked.
一方で、特許文献2には先端にバルーンや複数突起形状を持たせた内視鏡によって、ひだを物理的に引き延ばし観察可能な領域を拡大する手法も知られている。しかしながら、ひだを物理的に引き延ばすことによる検査時間の増加、消化管へのダメージリスクなどが懸念され、結果的に患者への負担が増加する恐れがある。 On the other hand, Patent Literature 2 discloses a method of physically stretching a fold and enlarging an observable region by using an endoscope having a balloon or multiple protrusions at the tip. However, physical stretching of the folds raises concerns about an increase in examination time and a risk of damage to the digestive tract, which may result in an increased burden on the patient.
本発明はこのような事情に鑑みてなされたものであり、病変部の見逃しリスクの低減、病変部の見えていないところに対する事前の報知及び検査時間の増加を抑え、生体内の組織表面へのダメージリスクを低減できる内視鏡及び内視鏡システムを提供することを目的とする。 The present invention has been made in view of such circumstances, and is intended to reduce the risk of overlooking a lesion, to give advance notice of a lesion that is not visible, to suppress an increase in examination time, and to prevent an increase in examination time. An object of the present invention is to provide an endoscope and an endoscope system that can reduce the risk of damage.
第1形態の内視鏡は、先端側に先端部を有し、被検体内に挿入される挿入部と、先端部に配置され被検体内の光学画像を取得可能な撮像ユニットと、挿入部に配置され被検体内の三次元情報を取得可能なLiDARユニットと、を備える内視鏡であって、LiDARユニットは、被検体内の三次元情報として、撮像ユニットによって撮像可能な撮像領域における、視認可能領域及び視認不能領域に存在する特異形状に関する特異形状情報を取得する。 The endoscope of the first form includes an insertion section that has a distal end on the distal end side and is inserted into the subject, an imaging unit that is arranged at the distal end and is capable of acquiring an optical image of the interior of the subject, and an insertion section. and a LiDAR unit capable of acquiring three-dimensional information within the subject, wherein the LiDAR unit provides three-dimensional information within the subject in an imaging area that can be imaged by the imaging unit, Acquiring singular shape information about singular shapes existing in the visible area and the invisible area.
第2形態の内視鏡において、特異形状は、病変部に関する形状である。 In the second form of endoscope, the peculiar shape is a shape related to the lesion.
第3形態の内視鏡において、LiDARユニットは、被検体内の三次元情報として、挿入部が挿入された被検体の体腔に関する体腔情報を取得する。 In the endoscope of the third embodiment, the LiDAR unit acquires body cavity information regarding the body cavity of the subject into which the insertion section is inserted, as three-dimensional information inside the subject.
第4形態の内視鏡システムは、上記の内視鏡と、撮像ユニット及びLiDARユニットの間で信号の送受信を行う、プロセッサ及びメモリを備えるプロセッサ装置と、を備え、プロセッサは、LiDARユニットにより取得された特異形状情報に基づき特異形状を検出する。 The endoscope system of the fourth form includes the above-described endoscope, and a processor device including a processor and a memory that transmits and receives signals between the imaging unit and the LiDAR unit. A singular shape is detected based on the received singular shape information.
第5形態の内視鏡システムにおいて、メモリは、病変部の形状に関する情報をメモリに記憶し、プロセッサは、LiDARユニットにより取得された三次元情報の中から、メモリに記憶された病変部の形状に関する情報との類似度を求めて特異形状を検出する。 In the endoscope system of the fifth embodiment, the memory stores information about the shape of the lesion, and the processor selects the shape of the lesion stored in the memory from the three-dimensional information acquired by the LiDAR unit. A singular shape is detected by obtaining a degree of similarity with information related to
第6形態の内視鏡システムにおいて、プロセッサは、特異形状を検出したことを報知する報知処理を実行する。 In the endoscope system of the sixth form, the processor executes notification processing for notifying that the peculiar shape has been detected.
第7形態の内視鏡システムにおいて、プロセッサは、特異形状を検出したことをメモリに記憶し、かつ、任意のタイミングで特異形状を検出したことを報知する報知処理を実行する。 In the endoscope system of the seventh embodiment, the processor stores the detection of the peculiar shape in the memory, and executes notification processing of notifying the detection of the peculiar shape at an arbitrary timing.
第8形態の内視鏡システムにおいて、プロセッサは、特異形状を検出した際、音による報知処理を実行する。 In the endoscope system of the eighth form, the processor executes notification processing by sound when detecting the peculiar shape.
第9形態の内視鏡システムにおいて、プロセッサ装置に接続される表示装置を備え、プロセッサは、表示装置に光学画像を表示し、特異形状を検出した際、表示装置への表示による報知処理を実行する。 The endoscope system of the ninth form includes a display device connected to the processor device, the processor displays an optical image on the display device, and executes notification processing by displaying on the display device when a peculiar shape is detected. do.
第10形態の内視鏡システムにおいて、プロセッサ装置に接続される表示装置を備え、LiDARユニットは、被検体内の三次元情報として、挿入部が挿入された被検体の体腔に関する体腔情報を取得し、プロセッサは、LiDARユニットが取得した体腔情報に基づいて被検体の体腔の三次元モデルを作成する。 In the endoscope system of the tenth form, a display device connected to the processor device is provided, and the LiDAR unit acquires body cavity information regarding the body cavity of the subject into which the insertion portion is inserted as three-dimensional information inside the subject. , the processor creates a three-dimensional model of the body cavity of the subject based on the body cavity information acquired by the LiDAR unit.
第11形態の内視鏡システムにおいて、プロセッサは、三次元モデルにおける特異形状の位置を位置情報としてメモリに記憶する。 In the endoscope system of the eleventh form, the processor stores the position of the peculiar shape in the three-dimensional model in the memory as position information.
第12形態の内視鏡システムにおいて、プロセッサは、表示装置に、メモリに記憶された位置情報に基づき特異形状の位置を含む三次元モデルを表示する。 In the endoscope system of the twelfth form, the processor displays the three-dimensional model including the position of the peculiar shape on the display device based on the position information stored in the memory.
第13形態の内視鏡システムにおいて、プロセッサは、表示装置に、三次元モデルの中に先端部の位置を表示する。 In the endoscope system of the thirteenth form, the processor displays the position of the tip in the three-dimensional model on the display device.
本発明によれば、病変部の見逃しリスクの低減、病変部の見えていないところに対する事前の報知及び検査時間の増加を抑え、生体内の組織表面へのダメージリスクを低減できる。 According to the present invention, it is possible to reduce the risk of overlooking a lesion, suppress advance notification of an invisible lesion, suppress an increase in examination time, and reduce the risk of damage to the tissue surface in the living body.
以下、添付図面にしたがって、実施形態の内視鏡及び内視鏡システムの好ましい実施形態について説明する。 Preferred embodiments of an endoscope and an endoscope system according to embodiments will be described below with reference to the accompanying drawings.
<内視鏡システムの構成図>
図1は、内視鏡10を備えた内視鏡システム1の構成図である。内視鏡システム1は、内視鏡10、光源装置14、プロセッサ装置16及び表示装置18を備える。
<Configuration diagram of endoscope system>
FIG. 1 is a configuration diagram of an
内視鏡10は、操作部材が配置された操作部22と、操作部22の先端側に設けられ、被検体内に挿入される挿入部24と、を備える。挿入部24は、基端から先端に向かう長軸方向Axを有し、基端から先端に向って順に軟性部26と、湾曲部28と、先端部30とを備えている。
The
操作部22は、全体として略円筒状に構成される。操作部22は、操作部本体34と、操作部本体34に連接された把持部36と、を有する。把持部36の先端側に、挿入部24の基端が、折れ止め管38を介して設けられる。
The
操作部本体34には、操作部材の一つして湾曲部28を湾曲操作する一対のアングルノブ40、40及びロックレバー42、42が設けられる。操作部本体34には、送気送水ボタン44と、吸引ボタン46と、複数の操作ボタン48とが長軸方向Axに沿って並列して配置される。操作ボタン48は、観察した光学画像の静止や記録等の操作及びその機能を切り替えるためのボタンである。
The operation portion
操作部22の把持部36には、処置具を導入する処置具導入口52が配置される。処置具導入口52から導入された処置具(不図示)は、処置具チャンネルに挿通され、先端部30の先端から外部に導出される。
A treatment
操作部本体34には、ユニバーサルケーブル54が備えられる。ユニバーサルケーブル54の先端側には、コネクタ装置56が設けられる。コネクタ装置56は光源装置14に着脱自在に接続される。光源装置14はプロセッサ装置16と電気的に接続しており、内視鏡10のコネクタ装置56は光源装置14を介してプロセッサ装置16と接続する。光源装置14とコネクタ装置56とは制御信号、画像信号等を光通信の送受信できる。光源装置14は、コネクタ装置56を介して光通信で送受信した制御信号等をプロセッサ装置16に伝送する。光源装置14はコネクタ装置56を介して内視鏡10を駆動するための電力を無線で供給する。
A
<内視鏡の先端部>
図2は内視鏡の先端部の拡大図である。内視鏡10の先端部30は平面視で略円形の形状を有する。先端部30の先端面には、観察窓70と、観察窓70の両側に配置される2個の照明窓72と、鉗子口74と、送気送水ノズル75とが配置される。
<Tip of endoscope>
FIG. 2 is an enlarged view of the distal end of the endoscope. A
操作部本体34の送気送水ボタン44(図1参照)を操作することにより、送気送水ノズル75にエア又は水を供給できる。送気送水ボタン44は、2段階操作可能なボタンであり、1段目の操作によってエアを供給し、2段目の操作によって水を供給する。処置具導入口52から導入された処置具が鉗子口74から突出される。吸引ボタン46を操作すると、鉗子口74から血液等の体液が吸引される。
Air or water can be supplied to the air/
内視鏡10において、LiDAR(light detection and ranging)ユニット76が配置される。LiDARユニット76は、レーザ光源78と、光センサ80と、後述する制御回路とを備える。LiDARユニット76は、レーザ光源78からレーザ光を対象物に照射し、対象物に当たって跳ね返ってくるレーザ光を光センサ80で検出することにより、対象物に当たって跳ね返ってくるまでの時間を計測する。これにより対象物までの距離や方向が測定される。LiDARユニット76は、対象物までの距離の情報を点群として取得することで、三次元情報を取得できる。
A LiDAR (light detection and ranging)
<内視鏡システムのブロック図>
図3は、内視鏡システム1のブロック図である。図3に示すように、内視鏡10の先端部30に、撮像ユニット100及びLiDARユニット76が配置され、プロセッサ装置16との間で信号の送受信可能に構成される。
<Block diagram of endoscope system>
FIG. 3 is a block diagram of the
撮像ユニット100は、撮像レンズ101と、撮像レンズ101に対し基端の側に配置される撮像素子102と、AFE(Analog Front End)103と、制御回路104とを備える。
The
撮像ユニット100は、観察窓70に対応する位置に撮像レンズ101が配置される。撮像素子102は、例えば、CMOS(Complementary MOS)型のカラー撮像素子である。
The
長軸方向Axから前方を直視した観察像が撮像レンズ101を介して撮像素子102に取り込まれる。撮像素子102は観察像を電気信号に変換する。AFE103により撮像素子102からのアナログ信号が調整される。制御回路104は撮像素子102の動作を制御する。内視鏡10の挿入部24(図1参照)を被検体内に挿入することにより、撮像ユニット100は被検体内の光学画像を取得できる。撮像ユニット100は光学画像を取得できれば、その構成は適宜変更でき、図3の構成に限定されない。
An observation image viewed directly ahead from the longitudinal direction Ax is captured by the
内視鏡10の先端部30の先端面の側に、LiDARユニット76が配置される。LiDARユニット76は、レーザ光源78及び光センサ80と、レーザ光源78及び光センサ80の基端の側に配置される制御回路82と、を備える。
A
LiDARユニット76のレーザ光源78は、例えば、垂直共振面発光レーザ(VCSEL:Vertical Cavity Surface Emitting Laser)を適用できる。光センサ80は、例えば、単一光子アバランシェダイオード(SPAD:Single Photon Avalanche Diode)を適用できる。また、図示しない回折光学素子(DOE:Diffractive Optical Element)をレーザ光源78の照射面の配置することにより、レーザ光源78からのレーザ光が所定の方向、また所定のパターンで照射される。
For the
制御回路82はLiDARユニット76の全体を制御する。LiDARユニット76の制御回路82は、レーザ光源78からレーザ光を対象物に照射し、対象物に当たって跳ね返ってくるレーザ光を光センサ80で検出することにより、対象物に当たって跳ね返ってくるまでの時間を計測する。これにより対象物までの距離や方向が測定される。LiDARユニット76は、対象物までの三次元情報を点群として取得する。内視鏡10を被検体内に挿入することにより、LiDARユニット76は被検体内の三次元情報を取得できる。LiDARユニット76は三次元情報を取得できれば、その構成は適宜変更でき、図3の構成に限定されない。LiDARユニット76により取得される被検体内の三次元情報は、被検体の体腔に関する体腔情報及び病変部に関する形状に代表される特異形状に関する特異形状情報を含むことができる。
A
先端部30には、2個のライトガイド110が配置される。2個のライトガイド110の出射面が2個の照明窓72のそれぞれに対応するように位置決めされる。
Two
光源装置14は、照明用の光源140と、光源制御回路141とを備える。光源装置14は、光源140からの光をライトガイド110の入射端に入射させる。光源140の照明光の照度は、光源制御回路141により制御される。
The
プロセッサ装置16は、画像入力コントローラ161とCPU(Central Processing Unit;中央処理装置)162とを備える。撮像ユニット100から出力された光学画像が画像入力コントローラ161を介して、CPU162に入力される。CPU162は光学画像に必要な画像処理を実行する。表示制御部163はCPU162により画像処理された光学画像を表示装置18に表示する。術者は、表示装置18に表示された被検体内の光学画像を視認できる。
The
CPU162は、光学画像に対して画像処理の他、表示装置18に表示する光学画像の切替や重畳処理、電子ズーム処理、操作モードに応じた光学画像の表示切替、光学画像からの特定成分(例えば、輝度信号)の抽出等を行う。
The
LiDARユニット76により取得された被検体内の三次元情報はCPU162に入力される。CPU162は、被検体内の三次元情報に対し各種の処理を実行する。CPU162は、被検体内の三次元情報に含まれる特異形状情報に基づき特異形状を検出できる。また、CPU162は、被検体内の三次元情報の体腔情報に基づき三次元モデルを作成できる。
Three-dimensional information inside the subject acquired by the
CPU162が特異形状を検出したことを示す存在情報、及び/又は作成された三次元モデルが、表示制御部163を介して表示装置18に表示される。CPU162は、特異形状の存在情報と光学画像との重畳処理、光学画像と特異形状及び三次元モデルとの分離処理等を実行する。CPU162による処理結果が、表示制御部163を介して表示装置18に表示される。
Existence information indicating that the
メモリ165は、CPU162が行う処理に必要な情報、例えば、プログラム、光学画像、三次元情報、CPU162等の処理に伴って生成される情報、入力された任意の情報等を記憶する。メモリ165の記憶されていない情報は、内視鏡システム1の外部から記録媒体、ネットワークを介して取得できる。ネットワーク上のデータベース等の外部メモリが、内視鏡システム1のメモリの一部として使用される。
The
音処理部166は、CPU162のからの信号に基づいてスピーカ167から音を出力させる。音は、警告音、音声等、術者が認識できる限りにおいて、その種類は限定されない。音処理部166は、音を生成してもよいし、メモリ165に記憶された音を利用してもよい。
The
プロセッサ装置16は、操作部168を備える。操作部168は図示しない操作モード設定切替スイッチを備える。光源装置14の照射を操作できる。術者等は、操作部168及び入力インターフェイス(I/F)169を介して、CPU162に各処理を指示できる。
The
CPU162は、撮像ユニット100の制御回路104と、LiDARユニット76の制御回路82と、光源装置14の光源制御回路141等、内視鏡システム1の全体を制御できる。
The
図4は、CPU162で実現される処理機能を示すブロック図である。CPU162は、例えば、画像処理部170と、検出処理部171と、報知処理部172と、三次元モデル作成部173と、位置検出処理部174とを備えることができる。画像処理部170、検出処理部171、報知処理部172、三次元モデル作成部173及び位置検出処理部174はCPU162の一部であり、プロセッサであるCPU162が各部の処理を実行する。
FIG. 4 is a block diagram showing processing functions implemented by the
<内視鏡による観察>
図5は内視鏡の挿入部を被検体内に挿入した状態を示す図である。図5においては、内視鏡10が、例えば、消化管の一つである大腸200に挿入され、位置P1、位置P2及び位置P3で観察を行うことを示す。位置P1、位置P2及び位置P3は、内視鏡10を大腸200に沿って矢印に示す前進方向F、又は矢印に示す後退方向Bに移動することにより変更できる。図5では、位置P1、位置P2及び位置P3における内視鏡10は重ねて表示されている。生体内の組織表面として消化管の内壁を例示したが、呼吸器(気管、気管支等)等の生体内の組織表面を含むことができる。
<Observation with an endoscope>
FIG. 5 is a diagram showing a state in which the insertion portion of the endoscope is inserted into the subject. FIG. 5 shows that the
大腸200は、内面に複数のひだ201を有している。ひだ201の表側(内視鏡10の後退方向Bを向く側)にポリープ等の病変部202、又はひだ201の裏側(内視鏡10の前進方向Fを向く側)に病変部202が存在し得る。ひだ201の表側の存在する病変部202は、内視鏡10の撮像ユニット100により比較的容易に観察できる。一方で、ひだ201の裏側に存在する病変部202は、死角となるため撮像ユニット100により観察することが難しくなる。
The
実施形態の内視鏡10は、先端部30には、撮像ユニット100と、LiDARユニット76とを備え、大腸200の内面を観察する。視野範囲V1は撮像ユニット100の視野範囲であり、視野範囲V2はLiDARユニット76の視野範囲である。LiDARユニット76が取得する三次元情報には、撮像ユニット100によって撮像可能な撮像領域以外に存在する特異形状に関する情報(以下、「特異形状情報」という。)が含まれる。すなわち、LiDARユニット76は、被検体内の三次元情報として、視野範囲V1で示される撮像ユニット100によって撮像可能な撮像領域における、視認可能領域及び視認不能領域に存在する特異形状に関する特異形状情報を取得可能である。なお、本例における特異形状情報は、特異形状を特定する点群までの距離を示す距離情報であるが、特異形状を特定できるものであれば他の情報であってもよい。LiDARユニット76の視野範囲V2は、撮像領域における、視認可能領域及び視認不能領域を含む。ここで、図5において、被検体内の三次元情報は、例えば、大腸200の内面の三次元情報である。
The
撮像ユニット100における、視認不能領域は、図5において、撮像領域の観察対象の裏面、例えば、ひだ201に隠れた領域である。視認不能領域として、ひだ201に隠れた領域の他、経路の先で曲がってブラインドになっている領域、内視鏡10を後退方向Bに移動する際の手前側等を例示できる。
The invisible area in the
したがって、内視鏡10は、撮像ユニット100以外に、LiDARユニット76を備えることにより、ひだ201の裏側等の視認不能領域に存在する病変部202の存在を検出することが可能になる。LiDARユニット76を備えることにより、視認能領域に存在する病変部202の存在を検出することも可能になる。
Therefore, by providing the
図6から図8は、図5の位置P1、位置P2及び位置P3に対応する観察画像を示す。図6の観察画像は位置P1に対応し、図7の観察画像は位置P2に対応し、図8の観察画像は位置P3に対応する。なお、図6、図7及び図8には光学画像DP1、DP2及びDP3が示されるが、位置P1、P2及びP3と対応付けされない場合、単に光学画像DPと称する場合がある。 6 to 8 show observation images corresponding to positions P1, P2 and P3 in FIG. The observed image in FIG. 6 corresponds to position P1, the observed image in FIG. 7 corresponds to position P2, and the observed image in FIG. 8 corresponds to position P3. Although optical images DP1, DP2, and DP3 are shown in FIGS. 6, 7, and 8, they may simply be referred to as optical images DP when they are not associated with positions P1, P2, and P3.
図6に示すように、観察画像として、内視鏡10が位置P1に位置する場合において、視野範囲V1の撮像ユニット100により取得された光学画像DP1が表示される。撮像ユニット100により取得される光学画像DP1は、画像処理部170(図4参照)により画像処理等が実行され、表示装置18に表示される。光学画像DP1は、大腸200の内面に存在するひだ201と、ひだ201の表側に存在する病変部202とを含んでいる。
As shown in FIG. 6, when the
LiDARユニット76は、撮像ユニット100が光学画像DP1を取得する間、視野範囲V2における三次元情報を取得する。被検体内の三次元情報はCPU162(図5参照)に入力され、検出処理部171が検出処理を実行する。後述するように、検出処理部171はLiDARユニット76により取得された三次元情報の中から、特異形状に関する特異形状情報を抽出することで、特異形状を検出する。ここで、LiDARユニット76が取得した三次元情報には、撮像ユニット100の視認不能領域であるひだ201の裏側に存在する病変部202に代表される特異形状に関する特異形状情報が含まれない。一方で、視認能領域であるひだ201の表側に存在する病変部202に関する特異形状情報が含まれている。この場合、検出処理部171ではひだ201の裏側に存在する特異形状の検出は行われないが、ひだ201の表側に存在する特異形状の検出が行われる。図6において、検出処理部171が特異形状を検出した際、報知処理部172は、例えば、報知画像WIを表示装置18に表示するよう画像処理部170に指示する。画像処理部170は光学画像DP1に報知画像WIを重畳し、表示制御部163を介して表示装置18に表示させる。図6の光学画像DP1では、病変部202に楕円形状の報知画像WIを重畳して表示し、さらに光学画像DP1の外周に円弧状の報知画像WIを表示する。報知画像WIは、術者が認識できれば、特に限定されず、色、文字、アイコンの有無などを適用することができる。
The
報知画像WIは、術者に病変部202が存在する可能性があることを認識させるだけでもよく、また、図6に示すように、報知画像WIは、病変部202が存在する可能性と、その位置の両方を認識させてもよい。
The notification image WI only needs to make the operator aware of the possibility that the
LiDARユニット76により取得された被検体内の三次元情報は、検出処理部171による検出処理と並列して、メモリ165に記憶してもよい。記憶された被検体内の三次元情報に基づいて、CPU162の三次元モデル作成部173は、三次元モデルを作成できる。また、作成された三次元モデルは画像処理部170に加工され、表示制御部163を介して、表示装置18に表示できる。
The three-dimensional information inside the subject acquired by the
検出処理部171の処理方法は特に限定されない。例えば、メモリ165に、実際の病変部の形状に関する情報(以下、「病変部形状情報」)記憶させる。病変部形状情報は観察する被検体の部位ごとに複数種類を記憶してもよい。検出処理部171は、メモリ165に記憶された病変部の形状に関する情報を参照し、LiDARユニット76から取得された三次元情報の中から、所定の領域(判定領域)毎に、メモリ165に記憶された病変部形状情報との類似度を求め、予め設定した類似度の閾値より高い領域の情報を特異形状情報として抽出し、抽出した特異形状情報に基づいて特異形状を検出してもよい。
A processing method of the
また、検出処理部171は、LiDARユニット76により取得された三次元情報から三次元形状を特定し、他の部分と異なる形状を特異形状として検出してもよい。
Further, the
検出処理部171は特異形状を検出すると、リアルタイムで特異形状を検出したことを報知できる。また、検出したことを検出情報としてメモリ165に記憶してもよい。報知処理部172は、メモリ165に記憶された検出情報に基づいて、任意のタイミングで特異形状を検出したことを報知できる。
When the
図7に示すように、観察画像として、内視鏡10が位置P2に位置する場合において、撮像ユニット100により取得された光学画像DP2が表示装置18に表示される。図6と同様に、光学画像DP2は、大腸200の内面に存在するひだ201を含んでいる。
As shown in FIG. 7, an optical image DP2 acquired by the
内視鏡10が、前進方向Fに移動したことにより、ひだ201の表側の病変部202はDP2には表示されていない。また、光学画像DP2の位置において、ひだ201の裏側に存在する病変部202は視認能領域に存在しないので、ひだ201の裏側の病変部202は表示されていない。
Since the
内視鏡10が位置P2に位置する場合、位置P1と異なり、LiDARユニット76が取得した三次元情報には、撮像ユニット100の視認不能領域であるひだ201の裏側に存在する病変部202に代表される特異形状に関する特異形状情報が含まれているので、検出処理部171はひだ201の裏側に存在する特異形状を検出する。この場合、図7において、検出処理部171が特異形状を検出した際、報知処理部172は、例えば、報知画像WIを表示装置18に表示するよう画像処理部170に指示する。画像処理部170は光学画像DP1に報知画像WIを重畳し、表示制御部163を介して表示装置18に表示させる。表示装置18の光学画像DP2には、裏側に存在する病変部202は表示されないが、病変部202に対応する位置に、病変部202の存在が検出されたことを報知する報知画像WIが重畳して表示される。図7の光学画像DP2では、破線の楕円曲線の報知画像WIと、矢印形状の報知画像WIが表示されている。
When the
図8に示すように、観察画像として、内視鏡10が位置P3に位置する場合において、撮像ユニット100により取得された光学画像DP3が表示装置18に表示される。光学画像は、大腸200の内面に存在するひだ201を含んでいる。一方で、光学画像は、ひだ201の表側及び裏側に存在する病変部202を含んでいない。
As shown in FIG. 8, an optical image DP3 acquired by the
内視鏡10が位置P3に位置する場合、LiDARユニット76が取得した三次元情報には、撮像ユニット100の視認不能領域である経路の先で曲がってブラインドになっている領域における病変部202に関する特異形状情報が含まれる。被検体内の三次元情報はCPU162(図5参照)に入力され、検出処理部171が検出処理を実行する。三次元情報が特異形状情報を含んでいるので、検出処理部171は特異形状が存在することを検出している。
When the
図8において、検出処理部171が特異形状を検出した際、報知処理部172は、例えば、報知画像WIを表示装置18に表示するよう画像処理部170に指示する。画像処理部170は光学画像DP3に報知画像WIを重畳し、表示制御部163を介して表示装置18に表示させる。経路の先で曲がってブラインドになっている領域のひだ201の表側に存在する病変部202の位置に対応する。報知画像WIを光学画像DP3と合わせて表示することにより、術者は、経路の先で曲がってブラインドになっている領域に病変部202が存在する可能性を認識できる。報知画像WIは病変部202の見えていないところに対する事前の報知を行う。図8の表示装置18では、光学画像DP3の外周に円弧状の報知画像WIを表示し、さらに光学画像DP3の外側に破線の楕円曲線の報知画像WIを重畳して表示する。光学画像DP3の外周に円弧状の報知画像WIは、図6の光学画像DP1の外周に円弧状の報知画像WIと異なる色であることが好ましい。
In FIG. 8, when the
図9に示すように、報知画像WIが表示されたタイミングで、術者は、表示装置18に表示された光学画像を確認しながら、アングルノブ40、40(図1参照)を操作し、撮像ユニット100によりひだ201の裏側を直接観察する。撮像ユニット100が病変部202の光学画像を取得する。術者が病変部202の光学画像を視認でき、診断等が可能になる。
As shown in FIG. 9, at the timing when the notification image WI is displayed, the operator operates the angle knobs 40, 40 (see FIG. 1) while confirming the optical image displayed on the
なお、図6から図8において、報知画像WIにより報知処理が実施された場合を説明した。しかしながら、検出処理部171が特異形状を検出した際、報知処理部172は、スピーカ167から音を出力させるように音処理部166に指示してもよい。また、報知画像WIと音とにより報知処理を同時に実行してもよい。スピーカ167の設置位置は、特に限定されず、表示装置18に接続されていても、内蔵されていてもよい。
In addition, in FIGS. 6 to 8, the case where the notification process is performed using the notification image WI has been described. However, when the
図6から図8では、内視鏡10が前進方向Fに移動するのに合わせて、任意のタイミングとして、光学画像DP3に報知画像WIをリアルタイムで表示する場合を示す。しかしながら、光学画像DP3に報知画像WIをリアルタイムとは異なるタイミングで表示してもよい。
FIGS. 6 to 8 show a case where the notification image WI is displayed in real time on the optical image DP3 at arbitrary timing as the
例えば、内視鏡10を前進方向Fに移動させた際に、特定位置において、LiDARユニット76が取得した三次元情報に含まれる特異形状情報に基づいて、検出処理部171が特異形状を検出し、検出情報(特異形状に示す情報)をメモリ165に記憶する。さらに内視鏡10を前進方向Fに移動させて観察を続ける。観察を終えて内視鏡10を後退方向Bに移動させて内視鏡10が特定位置に到達した際、メモリ165に記憶された検出情報に基づいて、報知処理部172が処理を実行する。光学画像DP3に報知画像WIが表示される。このように任意のタイミングで報知処理が可能である。任意のタイミングで、術者が病変部202の光学画像を視認でき、診断等が可能になる。
For example, when the
上述したように実施形態によれば、病変部202が見逃がされるリスクを低減できる。特異形状である病変部202が検出されない場合、内視鏡10による観察は通常の手順で行われる。その結果、検査時間を短縮でき、また消化管へのダメージリスクを低減できる。
As described above, according to the embodiment, the risk of overlooking the
上述において、ひだ201の裏側に存在する病変部202を特異形状として検出し、光学画像DP3に報知画像WIを表示させる場合を説明した。ただし、これに限定されず、ひだ201の表側に存在する病変部202を特異形状として検出した場合においても、報知画像WIを光学画像DPに重畳表示してもよい。病変部202を見逃すリスクを低減できる。
In the above description, the case where the
次に、LiDARユニット76から取得される被検体内の三次元情報から三次元モデルを作成する場合を説明する。
Next, a case of creating a three-dimensional model from the three-dimensional information inside the subject acquired from the
図5に示すように、内視鏡10の撮像ユニット100により光学画像が取得され、LiDARユニット76により被検体内の三次元情報が取得される。三次元モデル作成部173は、三次元情報に基づいて三次元モデルを作成する。三次元情報は被検体内の体腔に関する体腔情報を含んでおり、三次元モデル作成部173は、被検体の体腔の三次元モデルを作成できる。
As shown in FIG. 5, the
内視鏡10は消化管に挿入され、前進方向Fに移動しながら観察する。内視鏡10は被検体内の三次元情報を順次取得する。したがって、内視鏡10が前進方向Fに進むにしたがって、三次元モデル作成部173は被検体の体腔の三次元モデルを順次作成する。作成された三次元モデルを表示装置18に順次表示してもよい。
The
検出処理部171が、LiDARユニット76により取得された三次元情報に含まれる特異形状情報に基づいて特異形状を検出すると、三次元モデル作成部173は、三次元モデルにおける特異形状の位置を位置情報としてメモリ165に記憶する。体腔の三次元モデル及び特異形状の位置情報は、画像処理部170により画像処理等が実行され、表示装置18に表示できる。
When the
内視鏡10が前進方向Fに移動し、最前方位置に到達すると、三次元モデル作成部173は、被検体内の全体における特異形状の位置情報と体腔の三次元モデルとを作成できる。被検体の体腔の三次元モデルと特異形状の位置情報とをメモリ165に記憶してもよい。
When the
図4に示されるCPU162の位置検出処理部174が、内視鏡10の先端部30の位置情報を取得する。
A position
位置検出処理部174は、内視鏡10の先端部30の位置及び方向を位置情報として取得する。位置検出処理部174により取得された先端部30の位置情報は、画像処理部170により画像処理等が実行され、表示装置18において、先端部30の位置情報は、特異形状の位置情報と体腔の三次元モデルとに重畳して表示できる。
The position
位置検出処理部174は、例えば、内視鏡10の先端部30に搭載された検出センサ(不図示)から位置情報を取得してもよい。検出センサとして磁気センサを利用した内視鏡位置検出システムを適用できる。
The position
位置検出処理部174は、三次元モデル作成部173により順次作成された三次元モデルから内視鏡10の先端部30の位置情報を取得してもよい。例えば、作成された三次元モデルの一つを基準とし、次に作成された三次元モデルと比較する。基準となる三次元モデルの特徴部分が、次に作成された三次元モデルにおいて、どの程度拡大又は縮小されたかを算出し、移動量を求め。先端部30の位置情報を推定できる。
The position
三次元モデル作成部173は、取得された三次元情報と光学画像と先端部30の位置情報とを対応付けて三次元モデルを作成し、メモリ165に記憶してもよい。内視鏡10による処置後において、三次元モデルを利用できる。例えば、高品質の光学画像と三次元情報に含まれる特異形状情報を利用することにより、質の高い機械学習用の教師データとして利用可能である。
The three-dimensional model creation unit 173 may create a three-dimensional model by associating the acquired three-dimensional information, the optical image, and the positional information of the
図10は、観察画像と三次元モデルとを表示装置に表示させた場合の模式図である。図10に示すように、表示装置18には光学画像DPと三次元モデルMDとが並列して一画面に表示される。なお、図10において、一回挿入した内視鏡10を盲腸付近まで前進させた後、後退させた場合であり、大腸の末端までの大腸モデル300の画像が作成されている。
FIG. 10 is a schematic diagram of an observation image and a three-dimensional model displayed on a display device. As shown in FIG. 10, the optical image DP and the three-dimensional model MD are displayed side by side on one screen on the
光学画像DPは内視鏡10の撮像ユニット100から得られた光学画像である。三次元モデルMDは三次元モデル作成部173により作成される。三次元モデルMDは大腸モデル300と、ひだモデル301と、特異形状モデルである病変部モデル302と、を含んでいる。さらに、内視鏡モデル310と先端モデル330とが含まれる。先端モデル330は、位置検出処理部174の位置情報に基づいて、大腸モデル300における相対位置を示す。術者は、内視鏡10の先端部30の実際の位置を三次元モデルMDにより確認できる。
The optical image DP is an optical image obtained from the
光学画像DPは、大腸200の内面を表示する。光学画像DPは、ひだ201と、特異形状の病変部202(不図示)に対応する位置に報知画像WIとを表示する。
Optical image DP displays the inner surface of
術者は、光学画像DPの報知画像WIと三次元モデルMDの病変部モデル303とを確認できるので、ひだ201の裏側の病変部202を見逃すリスクを低減できる。
Since the operator can confirm the notification image WI of the optical image DP and the lesion model 303 of the three-dimensional model MD, the risk of overlooking the
図2の内視鏡10の先端部30の先端面にLiDARユニット76を配置する場合を例示した。ただし、この位置に限定されない。図11は、内視鏡10の先端部30の拡大図である。図11に示すように、LiDARユニット76を先端部30の外周面(側面)に配置してもよい。
The case where the
図2及び図11の内視鏡10において、1個のLiDARユニット76を先端部30に配置する場合を示したが、少なくとも1個のLiDARユニット76が先端部30に配置されればよい。例えば、複数のLiDARユニット76を配置する場合、先端部30の外周面(側面)に、長軸方向Axを中心とする周方向に沿って等間隔にLiDARユニット76を配置できる。同様に、少なくとも1個の撮像ユニット100が先端部30に配置されればよく、複数の撮像ユニット100を配置できる。
2 and 11 show the case where one
次に、トランスデューサを備える超音波内視鏡にLiDARユニットを適用した場合について説明する。図12は超音波内視鏡システムの構成の一例を示す概略構成図である。なお、図1に示す内視鏡システムと同様の構成には同様の符号を付して説明を省略する場合がある。 Next, a case where the LiDAR unit is applied to an ultrasonic endoscope having a transducer will be described. FIG. 12 is a schematic configuration diagram showing an example of configuration of an ultrasonic endoscope system. In addition, the same code|symbol may be attached|subjected to the same structure as the endoscope system shown in FIG. 1, and description may be abbreviate|omitted.
<超音波内視鏡システムの構成図>
内視鏡システム1は、コンベックス型の超音波内視鏡11、光源装置14、プロセッサ装置16、超音波用プロセッサ装置17及び表示装置18を備える。
<Configuration diagram of ultrasonic endoscope system>
The
超音波内視鏡11は、操作部材が配置された操作部22と、操作部22の先端側に設けられ、被検体内に挿入される挿入部24と、を備える。挿入部24は、基端から先端に向って順に軟性部26と、湾曲部28と、先端部30とを備えている。トランスデューサ90が先端部30に配置される。
The
操作部本体34は、図1の内視鏡10とは異なり、起立台35(図13参照)を起立させる起立レバー50を備える。また、ユニバーサルケーブル54の先端には光源用コネクタ57及び超音波用コネクタ59を備える。光源用コネクタ57には、プロセッサ用コネクタ58が分岐して設けられる。光源用コネクタ57は光源装置14に着脱自在に接続される。プロセッサ用コネクタ58はプロセッサ装置16に着脱自在に接続される。超音波用コネクタ59が超音波用プロセッサ装置17に着脱自在に接続される。
Unlike the
超音波用プロセッサ装置17はトランスデューサ90に超音波を発生させる。また、超音波用プロセッサ装置17は、トランスデューサ90が受信した観察対象からのエコー信号に基づいて超音波画像を生成する。超音波画像は表示装置18に表示される。
The
<超音波内視鏡の先端部>
図13は超音波内視鏡の先端部の拡大図である。図13に示すように、先端部30は、先端部本体31と、先端部本体31の先端の側にトランスデューサ90と、を備える。トランスデューサ90は、コンベックス型の超音波振動子91を備える。
<Tip of ultrasonic endoscope>
FIG. 13 is an enlarged view of the distal end portion of the ultrasonic endoscope. As shown in FIG. 13 , the
先端部本体31の傾斜面32には、観察窓70と、2個の照明窓72と、送気送水ノズル75とが配置される。傾斜面32は、長軸方向Axに対して観察窓70が照明窓72より基端の側に近づく方向に傾斜する。
An
処置具導出口33が、先端部本体31の基端の側に設けられる。処置具導出口33に連通する凹状の起立台収容部37が先端部本体31に設けられる。起立台35が、処置具導出口33からの導出方向を変更する回動可能に、起立台収容部37に配置される。
A treatment instrument lead-out
起立台35は、操作ワイヤ(不図示)を介して操作部本体34の起立レバー50(図12参照)に連結される。起立レバー50の操作によって操作ワイヤが押し引き操作されると、起立台35が軸を介して回動し、起立台35の起立角度が変更される。
The
内視鏡10と同様の撮像ユニット100(図3参照)が先端部本体31の観察窓70に対応する位置に配置される。さらに、超音波内視鏡11は、先端部本体31の傾斜面32に内視鏡10と同様のLiDARユニット76が配置される。LiDARユニット76はレーザ光源78と、光センサ80と、を備える。
An imaging unit 100 (see FIG. 3) similar to the
超音波内視鏡11は、トランスデューサ90により被検体内の超音波画像を取得でき、撮像ユニット100により被検体内の光学画像を取得でき、LiDARユニット76により被検体内の三次元情報を取得できる。図12に示すプロセッサ装置16は、図1に示すプロセッサ装置16と同様に光学画像及び三次元情報を処理するためのCPU162等を備える。
The
図14は、超音波内視鏡11により消化管を観察する状態を示すである。図14には、被検体内の胃220と十二指腸222と膵臓224とが示される。一般的に、超音波内視鏡11のトランスデューサ90を胃220の内壁に押し当てて擦るようにして引きながら、つまりトランスデューサ90を走査しながら、膵臓224の超音波画像を観察する。トランスデューサ90を押し当てている間、光学画像は胃220の内壁しか見えず、超音波画像のみでトランスデューサ90の位置を把握する必要がある。超音波画像での位置把握は難易度が高く、手技の長時間化や医師の早期育成の妨げとなる。
FIG. 14 shows a state of observing the gastrointestinal tract with the
実施形態の超音波内視鏡11はLiDARユニット76により被検体内の三次元情報を取得できるので、プロセッサ装置16のCPU162等により、被検体の体腔の三次元モデルを作成できる。さらに、被検体の体腔の三次元モデルに、位置検出処理部174により取得された超音波内視鏡11の先端部30の位置を重畳して表示できる。
Since the
図15は超音波画像と三次元モデルとを表示装置に表示させた場合の模式図である。図15に示すように、表示装置18には超音波画像UIと三次元モデルMDとが並列して一画面に表示される。
FIG. 15 is a schematic diagram of a case where an ultrasonic image and a three-dimensional model are displayed on a display device. As shown in FIG. 15, the
超音波画像UIは超音波内視鏡11のトランスデューサ90から得られた超音波画像である。三次元モデルMDは、三次元モデル作成部173(図4参照)により作成される。三次元モデルMDは、胃モデル320と、十二指腸モデル322とを含んでいる。さらに、内視鏡モデル311と先端モデル330とが含まれる。先端モデル330は、位置検出処理部174(図4参照)の位置情報に基づいて、胃モデル320及び十二指腸モデル322における相対位置を示す。術者は、超音波内視鏡11の先端部30の実際の位置を三次元モデルMDにより確認できる。
The ultrasound image UI is an ultrasound image obtained from the
超音波内視鏡11の先端部30の位置をリアルタイムで術者が確認できるので、トランスデューサ90を容易に走査できる。
Since the operator can confirm the position of the
実施形態の超音波内視鏡11は、CT(Computed Tomography)から三次元情報を取得する必要がないので、CTを備えない小規模な病院で特に有用である。CTを利用しない場合、被検者の被爆リスクが低減される。さらに、手技時間の短縮、医師の育成の促進及びEUSの普及の促進が期待される。
Since the
以上、本発明について説明したが、本発明は、上述の例には限定されず、本発明の要旨を逸脱しない範囲において、各種の改良や変形を行ってもよいのはもちろんである。 Although the present invention has been described above, the present invention is not limited to the above examples, and various improvements and modifications may be made without departing from the scope of the present invention.
<その他>
上記実施形態において、各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
<Others>
In the above embodiment, the hardware structure of the processing unit that executes various processes is various processors as shown below. For various processors, the circuit configuration can be changed after manufacturing such as CPU (Central Processing Unit), which is a general-purpose processor that executes software (program) and functions as various processing units, FPGA (Field Programmable Gate Array), etc. Programmable Logic Device (PLD), which is a processor, ASIC (Application Specific Integrated Circuit), etc. be
1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種または異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部は1つのプロセッサで構成できる。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。 One processing unit may be composed of one of these various processors, or may be composed of two or more processors of the same type or different types (eg, multiple FPGAs, or combinations of CPUs and FPGAs). may Moreover, a plurality of processing units can be configured by one processor. As an example of configuring a plurality of processing units in a single processor, first, as represented by a computer such as a client or server, a single processor is configured by combining one or more CPUs and software. There is a form in which a processor functions as multiple processing units. Secondly, as typified by System On Chip (SoC), etc., there is a form of using a processor that realizes the function of the entire system including a plurality of processing units with a single IC (Integrated Circuit) chip. be. In this way, the various processing units are configured using one or more of the above various processors as a hardware structure.
さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。 Further, the hardware structure of these various processors is, more specifically, an electrical circuit that combines circuit elements such as semiconductor elements.
1 内視鏡システム
10 内視鏡
11 超音波内視鏡
14 光源装置
16 プロセッサ装置
17 超音波用プロセッサ装置
18 表示装置
22 操作部
24 挿入部
26 軟性部
28 湾曲部
30 先端部
31 先端部本体
32 傾斜面
33 処置具導出口
34 操作部本体
35 起立台
36 把持部
37 起立台収容部
38 折れ止め管
40 アングルノブ
42 ロックレバー
44 送気送水ボタン
46 吸引ボタン
48 操作ボタン
50 起立レバー
52 処置具導入口
54 ユニバーサルケーブル
56 コネクタ装置
57 光源用コネクタ
58 プロセッサ用コネクタ
59 超音波用コネクタ
70 観察窓
72 照明窓
74 鉗子口
75 送気送水ノズル
76 LiDARユニット
78 レーザ光源
80 光センサ
82 制御回路
90 トランスデューサ
91 超音波振動子
100 撮像ユニット
101 撮像レンズ
102 撮像素子
103 AFE
104 制御回路
110 ライトガイド
140 光源
141 光源制御回路
161 画像入力コントローラ
162 CPU
163 表示制御部
165 メモリ
166 音処理部
167 スピーカ
168 操作部
169 入力インターフェイス
170 画像処理部
171 検出処理部
172 報知処理部
173 三次元モデル作成部
174 位置検出処理部
200 大腸
201 ひだ
202 病変部
220 胃
222 十二指腸
224 膵臓
300 大腸モデル
301 ひだモデル
302 病変部モデル
310 内視鏡モデル
311 内視鏡モデル
320 胃モデル
322 十二指腸モデル
330 先端モデル
Ax 長軸方向
DP 光学画像
DP1 光学画像
DP2 光学画像
DP3 光学画像
MD 三次元モデル
P1 位置
P2 位置
P3 位置
UI 超音波画像
V1 視野範囲
V2 視野範囲
WI 報知画像
1
104
163
Claims (13)
前記先端部に配置され前記被検体内の光学画像を取得可能な撮像ユニットと、
前記挿入部に配置され前記被検体内の三次元情報を取得可能なLiDARユニットと、を備える内視鏡であって、
前記LiDARユニットは、前記被検体内の三次元情報として、前記撮像ユニットによって撮像可能な撮像領域における、視認可能領域及び視認不能領域に存在する特異形状に関する特異形状情報を取得する、内視鏡。 an insertion section having a distal end on the distal end side and inserted into the subject;
an imaging unit arranged at the distal end portion and capable of acquiring an optical image of the inside of the subject;
and a LiDAR unit arranged in the insertion section and capable of acquiring three-dimensional information within the subject,
The endoscope, wherein the LiDAR unit acquires, as three-dimensional information within the subject, singular shape information about a singular shape existing in a visible region and a non-visually visible region in an imaging region that can be imaged by the imaging unit.
前記撮像ユニット及び前記LiDARユニットの間で信号の送受信を行う、プロセッサ及びメモリを備えるプロセッサ装置と、
を備える内視鏡システムであって、
前記プロセッサは、前記LiDARユニットにより取得された前記特異形状情報に基づき前記特異形状を検出する、内視鏡システム。 an endoscope according to any one of claims 1 to 3;
a processor device comprising a processor and a memory for transmitting and receiving signals between the imaging unit and the LiDAR unit;
An endoscope system comprising:
The endoscope system, wherein the processor detects the peculiar shape based on the peculiar shape information obtained by the LiDAR unit.
前記プロセッサは、前記LiDARユニットにより取得された前記三次元情報の中から、前記メモリに記憶された前記病変部の形状に関する情報との類似度を求めて前記特異形状を検出する、請求項4に記載の内視鏡システム。 the memory stores information about the shape of the lesion;
5. The processor, from the three-dimensional information acquired by the LiDAR unit, detects the peculiar shape by obtaining a degree of similarity with the information on the shape of the lesion stored in the memory. An endoscopic system as described.
前記プロセッサは、前記表示装置に前記光学画像を表示し、前記特異形状を検出した際、前記表示装置への表示による報知処理を実行する、請求項6から8のいずれか一項に記載の内視鏡システム。 a display device connected to the processor device;
The processor according to any one of claims 6 to 8, wherein the optical image is displayed on the display device, and when the singular shape is detected, notification processing is performed by displaying on the display device. optic system.
前記LiDARユニットは、前記被検体内の三次元情報として、前記挿入部が挿入された前記被検体の体腔に関する体腔情報を取得し、
前記プロセッサは、前記LiDARユニットが取得した前記体腔情報に基づいて前記被検体の体腔の三次元モデルを作成する、請求項4から9のいずれか一項に記載の内視鏡システム。 a display device connected to the processor device;
The LiDAR unit acquires body cavity information regarding a body cavity of the subject into which the insertion portion is inserted, as three-dimensional information within the subject,
The endoscope system according to any one of claims 4 to 9, wherein the processor creates a three-dimensional model of the body cavity of the subject based on the body cavity information acquired by the LiDAR unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021031697A JP7541941B2 (en) | 2021-03-01 | 2021-03-01 | Endoscope and endoscope system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021031697A JP7541941B2 (en) | 2021-03-01 | 2021-03-01 | Endoscope and endoscope system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022132940A true JP2022132940A (en) | 2022-09-13 |
JP7541941B2 JP7541941B2 (en) | 2024-08-29 |
Family
ID=83229240
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021031697A Active JP7541941B2 (en) | 2021-03-01 | 2021-03-01 | Endoscope and endoscope system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7541941B2 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6049518B2 (en) | 2013-03-27 | 2016-12-21 | オリンパス株式会社 | Image processing apparatus, endoscope apparatus, program, and operation method of image processing apparatus |
JP6485694B2 (en) | 2015-03-26 | 2019-03-20 | ソニー株式会社 | Information processing apparatus and method |
JP6141559B1 (en) | 2015-07-06 | 2017-06-07 | オリンパス株式会社 | Medical device, medical image generation method, and medical image generation program |
US20170366773A1 (en) | 2016-06-21 | 2017-12-21 | Siemens Aktiengesellschaft | Projection in endoscopic medical imaging |
-
2021
- 2021-03-01 JP JP2021031697A patent/JP7541941B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP7541941B2 (en) | 2024-08-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4153963B2 (en) | Endoscope insertion shape detection device | |
US7935048B2 (en) | Method and system for navigating within a flexible organ of the body of a patient | |
US9662042B2 (en) | Endoscope system for presenting three-dimensional model image with insertion form image and image pickup image | |
JP2023010809A (en) | Medical image processing device, endoscope system, operation method and program of medical image processing device, and recording medium | |
JP5486432B2 (en) | Image processing apparatus, operating method thereof, and program | |
JP2009213627A (en) | Endoscopic examination system and examination method using the same | |
JP2005111273A (en) | Endoscopy apparatus, and image forming method for endoscopy apparatus | |
JP5988907B2 (en) | Endoscope system | |
KR20140108066A (en) | Endoscope system and control method thereof | |
JP7218425B2 (en) | Endoscopic Ultrasound System and Method of Operating Endoscopic Ultrasound System | |
JP2006230906A (en) | Medical diagnostic system and apparatus, and endoscope | |
JP2010069018A (en) | Medical guide system | |
WO2013011733A1 (en) | Endoscope guidance system and endoscope guidance method | |
WO2020165978A1 (en) | Image recording device, image recording method, and image recording program | |
JPWO2018051565A1 (en) | Ultrasonic endoscope and ultrasonic endoscope system | |
US20180161063A1 (en) | Ultrasound observation apparatus, method of operating ultrasound observation apparatus, and computer readable recording medium | |
JP2017225700A (en) | Observation support device and endoscope system | |
JP2004097696A (en) | Endoscopic observing apparatus | |
JP7158596B2 (en) | Endoscopic Ultrasound System and Method of Operating Endoscopic Ultrasound System | |
JP2011183000A (en) | Endoscope apparatus | |
JP7541941B2 (en) | Endoscope and endoscope system | |
CN116261419A (en) | System and method for a triple imaging hybrid probe | |
WO2024042895A1 (en) | Image processing device, endoscope, image processing method, and program | |
JP3943923B2 (en) | Ultrasound diagnostic imaging equipment | |
CN102028502B (en) | Electronic laryngoscope system with color Doppler ultrasound scanning function |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231207 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240617 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240726 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240819 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7541941 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |