JP4776919B2 - Medical image processing device - Google Patents
Medical image processing device Download PDFInfo
- Publication number
- JP4776919B2 JP4776919B2 JP2004378011A JP2004378011A JP4776919B2 JP 4776919 B2 JP4776919 B2 JP 4776919B2 JP 2004378011 A JP2004378011 A JP 2004378011A JP 2004378011 A JP2004378011 A JP 2004378011A JP 4776919 B2 JP4776919 B2 JP 4776919B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- imaging
- endoscope
- cylindrical body
- esophagus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012545 processing Methods 0.000 title claims description 66
- 238000003384 imaging method Methods 0.000 claims description 68
- 238000011161 development Methods 0.000 claims description 54
- 210000000056 organ Anatomy 0.000 claims description 25
- 238000006243 chemical reaction Methods 0.000 claims description 23
- 230000018109 developmental process Effects 0.000 description 52
- 210000003238 esophagus Anatomy 0.000 description 33
- 238000000034 method Methods 0.000 description 29
- 230000008569 process Effects 0.000 description 23
- 210000000981 epithelium Anatomy 0.000 description 22
- 208000023514 Barrett esophagus Diseases 0.000 description 11
- 208000023665 Barrett oesophagus Diseases 0.000 description 11
- 210000002784 stomach Anatomy 0.000 description 10
- 239000002775 capsule Substances 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 238000003780 insertion Methods 0.000 description 7
- 230000037431 insertion Effects 0.000 description 7
- 238000005286 illumination Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000012937 correction Methods 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 238000003745 diagnosis Methods 0.000 description 3
- 210000004877 mucosa Anatomy 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 230000003902 lesion Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000012327 Endoscopic diagnosis Methods 0.000 description 1
- 241000167880 Hirundinidae Species 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000002405 diagnostic procedure Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 210000004211 gastric acid Anatomy 0.000 description 1
- 210000001156 gastric mucosa Anatomy 0.000 description 1
- 210000000936 intestine Anatomy 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 210000000214 mouth Anatomy 0.000 description 1
- 210000004400 mucous membrane Anatomy 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000010992 reflux Methods 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
Images
Landscapes
- Endoscopes (AREA)
- Image Processing (AREA)
Description
本発明は、内視鏡画像等の医療画像から幾何学的に変換して、展開図の画像を生成する画像処理を行う医療画像処理装置に関する。 The present invention relates to a medical image processing apparatus that performs image processing for geometrically converting a medical image such as an endoscopic image to generate an image of a developed view.
近年、内視鏡は医療分野などにおいて広く採用されるようになった。例えば、食道の病気の一つにバレット食道がある。
食道は扁平上皮の粘膜でおおわれており、胃や腸は円柱上皮の粘膜でおおわれている。バレット食道は食道への胃酸の逆流により、胃と食道の接合部付近の食道粘膜(扁平上皮)が胃から連続して円柱上皮に変性すると考えられている。
バレット食道の診断方法として、胃と食道の接合部から連続して存在する円柱上皮の広がり方、円柱上皮と扁平上皮との境界の特徴的な形状を内視鏡で観察する内視鏡診断が利用される。
従来技術としての特開平8−256295号公報には、得られる内視鏡画像における周辺部で発生する光学歪みを補正する手段を開示している。
The esophagus is covered with squamous mucosa, and the stomach and intestines are covered with columnar epithelium. In Barrett's esophagus, it is thought that esophageal mucosa (squamous epithelium) near the junction between the stomach and the esophagus continuously degenerates into columnar epithelium due to the reflux of gastric acid into the esophagus.
Endoscopic diagnosis is a diagnostic method for Barrett's esophagus, in which the columnar epithelium that continues from the junction between the stomach and the esophagus is spread, and the characteristic shape of the boundary between the columnar and squamous epithelium is observed with an endoscope. Used.
Japanese Patent Application Laid-Open No. 8-256295 as a prior art discloses means for correcting optical distortion generated in the peripheral portion of an obtained endoscopic image.
上記特開平8−256295号公報では、内視鏡画像における周辺部で発生する光学歪みを補正することができるが、直視型の内視鏡を用いて略円管形状の食道を観察した場合、食道と内視鏡先端の位置・向き、光学歪み等の影響により円柱上皮の広がり方や円柱上皮と扁平上皮の境界の特徴を認識し易い状態で表示することができない。
つまり、従来例では診断し易い展開図(の画像)で表示することができなかった。
In the above-mentioned JP-A-8-256295, it is possible to correct the optical distortion generated in the peripheral portion in the endoscopic image, but when observing a substantially circular tube-shaped esophagus using a direct-view type endoscope, Due to the influence of the position and orientation of the esophagus and the endoscope tip, optical distortion, etc., it is impossible to display how the columnar epithelium spreads and the features of the boundary between the columnar epithelium and the squamous epithelium in an easily recognizable state.
That is, in the conventional example, it was not possible to display a developed view (image) that is easy to diagnose.
(発明の目的)
本発明は上述した点に鑑みてなされたもので、バレット食道等の管状部位を撮像した医療画像から診断し易い展開図の画像を生成することができる医療画像処理装置を提供することを目的とする。
本発明は、さらに、より正確な展開図の画像が得られる医療画像処理装置を提供することも目的とする。
(Object of invention)
The present invention has been made in view of the above points, and an object thereof is to provide a medical image processing apparatus capable of generating an image of a developed view that is easy to diagnose from a medical image obtained by imaging a tubular part such as Barrett's esophagus. To do.
It is another object of the present invention to provide a medical image processing apparatus that can obtain a more accurately developed image.
本発明の医療画像処理装置は、体腔内の画像を撮像する撮像手段と、前記撮像手段によって撮像された医療画像と、予め得られた管状体腔器官のモデル形状から得られる画像との相関性から、当該撮像手段と前記体腔内の位置関係を推定する位置推定手段と、前記位置推定手段により得られた位置関係を用いて前記撮像手段による医療画像を、前記管状体腔器官の管壁を近似した円柱体の内表面に投影した画像に変換する画像変換手段と、前記画像変換手段により得られた変換画像を展開図の画像として表示手段に出力する展開図出力手段と、を有することを特徴とする。
上記構成により、撮像された医療画像とモデル画像を用いて撮像手段と体腔内の器官との位置関係を推定することにより正確な展開図を生成することができる。より正確な展開図を生成することによってバレット食道のような病変の診断能力を改善することができる。
The medical image processing apparatus of the present invention is based on the correlation between an imaging unit that captures an image in a body cavity, a medical image captured by the imaging unit, and an image obtained from a model shape of a tubular body cavity organ obtained in advance. The position estimation means for estimating the positional relationship in the body cavity with the imaging means, and the medical image by the imaging means approximated the tube wall of the tubular body cavity organ using the positional relationship obtained by the position estimation means The image conversion means for converting into an image projected on the inner surface of the cylindrical body, and the development drawing output means for outputting the conversion image obtained by the image conversion means to the display means as an image of the development drawing, To do.
With the above configuration, it is possible to generate an accurate development view by estimating the positional relationship between the imaging means and the organ in the body cavity using the captured medical image and model image. Generating more accurate developments can improve the diagnostic ability of lesions such as Barrett's esophagus.
本発明によれば、食道等の管状部位の内表面の状態を診断し易い状態で観察できるようになる。 ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to observe in the state which is easy to diagnose the state of the inner surface of tubular parts, such as an esophagus.
以下、図面を参照して本発明の実施例を説明する。 Embodiments of the present invention will be described below with reference to the drawings.
図1から図8は、本発明の実施例1に係り、図1は本発明の実施例1を備えた内視鏡システムの構成を示し、図2は食道のような管状器官(管状部位)に挿入された内視鏡により撮像する様子を示し、図3は図2の内視鏡の撮像装置により撮像された内視鏡画像を示し、図4はCPUによる画像処理機能を示し、図5は展開図を生成する為の処理フローを示し、図6は内視鏡画像と展開図の関係を示し、図7は展開図から得られる座標位置と内視鏡画像の各画素との位置関係の説明図を示し、図8は生成された展開図と内視鏡画像をモニタに表示した図を示す。
図1に示す内視鏡システム1は、内視鏡観察装置2と、この内視鏡観察装置2により得られた内視鏡画像に対して画像処理を行うパーソナルコンピュータ等により構成される本発明の医療画像処理装置の実施例1となる内視鏡画像処理装置(以下、単に画像処理装置と略記)3と、この画像処理装置3により画像処理された画像を表示する表示モニタ4とから構成される。
1 to 8 relate to a first embodiment of the present invention, FIG. 1 shows a configuration of an endoscope system including the first embodiment of the present invention, and FIG. 2 shows a tubular organ (tubular portion) such as an esophagus. FIG. 3 shows an endoscope image captured by the endoscope imaging device of FIG. 2, FIG. 4 shows an image processing function by the CPU, and FIG. Shows the processing flow for generating a development view, FIG. 6 shows the relationship between the endoscopic image and the development view, and FIG. 7 shows the positional relationship between the coordinate position obtained from the development view and each pixel of the endoscopic image. FIG. 8 is a diagram showing a generated development view and an endoscopic image displayed on a monitor.
An
内視鏡観察装置2は、体腔内に挿入される内視鏡6と、この内視鏡6に照明光を供給する光源装置7と、内視鏡6の撮像手段に対する信号処理を行うカメラコントロールユニット(CCUと略記)8と、このCCU8から出力される映像信号が入力されることにより、撮像素子で撮影した内視鏡画像を表示するモニタ9とを有する。
内視鏡6は、体腔内に挿入される挿入部11と、この挿入部11の後端に設けられた操作部12とを有する。また、挿入部11内には照明光を伝送するライトガイド13が挿通されている。
このライドガイド13の後端は、光源装置7に接続される。そして、この光源装置7から供給される照明光をライトガイド13により転送し、挿入部11の先端部14に設けた照明窓に取り付けられた先端面から(伝送した照明光を)出射し、患部等の被写体を照明する。
The
The
The rear end of the
照明窓に隣接する観察窓に取り付けた対物レンズ15と、この対物レンズ15の結像位置に配置された固体撮像素子としての例えば電荷結合素子(CCDと略記)16とによる撮像装置17が設けてある。そして、このCCD16の撮像面に結蔵された光学像は、このCCD16により光電変換される。
このCCD16は、信号線を介してCCU8と接続され、このCCU8からCCD駆動信号が印加されることにより、CCD16は光電変換した画像信号を出力する。この画像信号は、CCU8内の映像処理回路により信号処理され、映像信号に変換される。この映像信号はモニタ9に出力され、モニタ9の表示面には、内視鏡画像が表示される。この映像信号は、画像処理装置3にも入力される。
An
The
この画像処理装置3は、内視鏡観察装置2から入力される内視鏡画像に対応する映像信号が入力される画像入力部21と、この画像入力部21から入力された画像データに対する画像処理を行う中央演算処理装置としてのCPU22と、このCPU22により画像処理を実行させる処理プログラム(制御プログラム)を記憶する処理プログラム記憶部23とを有する。
また、この画像処理装置3は画像入力部21から入力される画像データ等を記憶する画像記憶部24と、CPU22により処理された情報等を記憶する情報記憶部25と、CPU22により処理された画像データ及び情報等を記憶装置インターフエース26を介して記憶する記憶装置としてのハードディスク27と、CPU22により処理された画像データ等を表示するための表示処理を行う表示処理部28と、ユーザが画像処理のパラメータ等のデータ入力や指示操作を行うキーボードなどからなる入力操作部29とを有する。
The image processing device 3 includes an
The image processing apparatus 3 includes an
そして、この表示処理部28により生成された映像信号は、表示モニタ4に表示され、この表示モニタ4の表示面には画像処理された処理画像が表示される。なお、画像入力部21、CPU22、処理プログラム記憶部23、画像記憶部24、情報記憶部25、記憶装置インターフェース26、表示処理部28、入力操作部29は、データバス30を介して互いに接続されている。
本実施例においては、図2に示すように、例えば食道31のような管状器官或いは管状部位内に直視型の内視鏡6の挿入部11が挿入され、先端部14に設けた撮像装置17により、食道31の内壁等が撮像される。
The video signal generated by the
In the present embodiment, as shown in FIG. 2, for example, an
図3は、この直視型の内視鏡6によって撮像されたバレット食道の内視鏡画像Iaの1例を示している。バレット食道は、胃と食道の接合部から口腔に向かって連続的に食道粘膜(扁平上皮)が胃粘膜(円柱上皮)に変性した状態である。この変性した円柱上皮の広がり方や円柱上皮と扁平上皮との境界の特徴的な形状を内視鏡6によって観察することにより、術者はバレット食道の診断を行う。
図3の内視鏡画像Iaの場合には、食道31から胃内部に至る管状部位部分が最暗部画像33、その周囲に胃及び食道の接合部の画像34、接合部の周囲の円柱上皮の画像35、そしてこの円柱上皮の周囲の扁平上皮の画像36が表示されている。
本実施例では、食道31のような管状器官の対象物を直視型の内視鏡6によって撮像し、撮像された内視鏡画像Iaを幾何学的に変換して、展開図を生成する処理を行い、生成された対象物の展開図を表示モニタ4で表示する。
FIG. 3 shows an example of an endoscopic image Ia of Barrett's esophagus imaged by this direct-
In the case of the endoscopic image Ia in FIG. 3, the tubular part extending from the
In the present embodiment, a processing for generating an unfolded view by capturing an object of a tubular organ such as the
画像処理装置3を構成するCPU22は、図4に示すように、幾何学的な変換を行う幾何学的画像変換手段(機能)22aと、幾何学的な変換により展開図の画像を表示モニタ4に出力する展開図出力手段(機能)22bと有し、この表示モニタ4の表示面には展開図の画像(或いは単に展開図と略記)が表示される。
本実施例においては、図4に示した幾何学的画像変換手段22aと、展開図出力手段22bをソフトウェア的に実現しており、このために処理プログラム記憶部23に記憶(格納)された処理プログラムをCPU22は読み出し、CPU22は、この処理プログラムに従って図5に示す処理手順を実行する。
次に図5を参照して、本実施例の動作を説明する。
As shown in FIG. 4, the
In the present embodiment, the geometric image conversion means 22a and the development drawing output means 22b shown in FIG. 4 are realized by software, and the processing stored (stored) in the processing
Next, the operation of this embodiment will be described with reference to FIG.
画像処理装置3の動作が開始すると、CPU22は処理プログラム記憶部23の処理プログラムを読み出し、その処理プログラムに従った処理を開始する。CPU22は最初のステップS1において、内視鏡観察装置2のCCU8から画像入力部21を経て入力される内視鏡画像Iaの画像データを取得する。
そして、次のステップS2においてCPU22は、取得された画像データに対して歪曲収差補正(例えば特開平8−256295号公報参照)や、ノイズ除去等の前処理を行い、ステップS3において内視鏡画像Ia内の最暗部の位置を検出し、検出された最暗部の重心位置を内視鏡画像Iaの座標の中心位置とする。
本実施例においては、内視鏡画像Ia内の最暗部の位置を中心に展開図を生成する。最暗部の検出方法として内視鏡画像Iaを複数の領域に分割し、分割された領域の平均輝度を算出し、最小の平均輝度を有する領域を最暗部の位置として求める。
When the operation of the image processing apparatus 3 starts, the
In the next step S2, the
In this embodiment, a development view is generated around the position of the darkest part in the endoscopic image Ia. As a method for detecting the darkest part, the endoscopic image Ia is divided into a plurality of areas, the average luminance of the divided areas is calculated, and the area having the minimum average luminance is obtained as the position of the darkest part.
図6(A)に示すように内視鏡画像Iaの2次元の直交座標系をX−Yとし、この内視鏡画像Iaから図6(B)に示すように展開図Ibの座標系をθ−Zとする極座標系とする。なお座標系X−Yにおける座標位置はx、yで示す。また、極座標系θ−Zにおける座標位置は、周方向の位置を表すθ、中心からの距離位置を示すzで示す。
なお、図6では内視鏡画像Iaから展開図Ibが生成された場合の関係を分かりやすくするために、内視鏡画像Iaにおける扁平上皮と円柱上皮の境界、円柱上皮と胃食道の接合部の境界等を展開図にした場合にはどのような形状で表示されるかを矢印で対応付けて示している。ここで、θA、θB、θCは、θが0度、45度、90度の場合を示したものであり、また、後述する他の実施例でも同様に示している。
次にステップS4とステップS5において展開図Ibの座標位置S(θ、z)の初期値を設定する。つまり、ステップS4において、CPU22は、θ=0とし、ステップS5においてz=0とする。
ステップS6において設定され展開図Ibの座標S(θ、z)に対応する内視鏡画像Iaの座標位置を以下の式(1)によって求める。
In FIG. 6, in order to facilitate understanding of the relationship when the developed view Ib is generated from the endoscopic image Ia, the boundary between the squamous epithelium and the columnar epithelium in the endoscopic image Ia, and the junction between the columnar epithelium and the gastroesophageal tract When the boundary or the like is shown in a development view, an arrow indicates which shape is displayed. Here, θA, θB, and θC show the cases where θ is 0 degree, 45 degrees, and 90 degrees, and are similarly shown in other examples described later.
Next, in step S4 and step S5, an initial value of the coordinate position S (θ, z) of the development view Ib is set. That is, in step S4, the
The coordinate position of the endoscopic image Ia set in step S6 and corresponding to the coordinate S (θ, z) of the developed view Ib is obtained by the following equation (1).
ステップS7において算出された座標P(x、y)が内視鏡画像Ia内に存在するかを判断する。
そして、内視鏡画像Ia内に存在する場合は、ステップS8に進む。図7に示すように式(1)より得られた内視鏡画像の座標P(x、y)の位置は、画素間の中に存在する可能性がある為、ステップS8で線形補間等の処理を用いて座標P(x、y)の輝度値を算出する。例えば、得られた座標位置(符号×で示す)の周囲の4画素○(斜線で示したもの)の輝度値と位置関係から座標位置×の輝度値を求める。
なお、輝度値としては、カラー撮像を行っている場合には、各色信号の輝度値に相当する。
It is determined whether the coordinates P (x, y) calculated in step S7 are present in the endoscopic image Ia.
And when it exists in the endoscopic image Ia, it progresses to step S8. As shown in FIG. 7, since the position of the coordinate P (x, y) of the endoscopic image obtained from the equation (1) may exist between pixels, linear interpolation or the like is performed in step S8. The luminance value at the coordinates P (x, y) is calculated using the process. For example, the luminance value of the coordinate position x is obtained from the luminance value and the positional relationship of the four pixels ◯ (shown by diagonal lines) around the obtained coordinate position (denoted by a symbol x).
Note that the luminance value corresponds to the luminance value of each color signal when color imaging is performed.
ステップS9においてステップS8で求めた輝度値を展開図の座標S(θ、z)の輝度値とする。次にステップS10に進み展開図のzの値を変更(例えばzの増分Δz=1)し、ステップS6に戻る。
一方、ステップS7において算出された座標P(x、y)が内視鏡画像Ia内に存在しない場合、ステップS11へ進み、展開図Ibのθの値を変更する(例えばθの増分Δθ=π/180、つまり1°)。
次のステップS12において、θが2π(360°)より小さければステップS5に戻り、展開図生成の処理を継続する。一方、θが2π以上になった場合、展開図が生成されたと判断しステップS13に進み、内視鏡画像Iaと展開図Ibとを表示モニタ4に出力し、処理を終了する。
In step S9, the luminance value obtained in step S8 is set as the luminance value of the coordinate S (θ, z) in the development view. Next, the process proceeds to step S10, the value of z in the development view is changed (for example, z increment Δz = 1), and the process returns to step S6.
On the other hand, if the coordinate P (x, y) calculated in step S7 does not exist in the endoscopic image Ia, the process proceeds to step S11, and the value of θ in the developed view Ib is changed (for example, an increment of θ Δθ = π). / 180 or 1 °).
In the next step S12, if [theta] is smaller than 2 [pi] (360 [deg.]), The process returns to step S5 to continue the process of generating a development view. On the other hand, if θ is equal to or greater than 2π, it is determined that a development view has been generated, the process proceeds to step S13, the endoscopic image Ia and the development view Ib are output to the
そして、図8に示すように表示モニタ4には、内視鏡画像Iaと展開図Ibが表示される。なお、図8においては、内視鏡画像Iaと展開図Ibとの両方を表示しているが、展開図Ibのみを表示してもよい。
このように本実施例においては、展開図Ibを生成してこの展開図Ibを内視鏡画像Iaと共に表示モニタ4に表示するようにしているので、単に内視鏡画像Iaの場合よりも周方向(θ方向)と奥行き方向(z方向)との値をより比較等がし易い状態で表示できるので、バレット食道等の管状器官の診断をより客観的に行い易くなる。
As shown in FIG. 8, the
As described above, in this embodiment, the development view Ib is generated and displayed on the display monitor 4 together with the endoscopic image Ia. Since the values of the direction (θ direction) and the depth direction (z direction) can be displayed in a state where it is easier to compare, the diagnosis of tubular organs such as Barrett's esophagus can be performed more objectively.
従来例では、図8における内視鏡画像Iaのみが表示され、この内視鏡画像Iaでは管状器官等の内面を2次元的に投影した画像となっており、例えば奥行き方向の距離によって、縮小された状態で各部が表示される。
このため、例えば奥行き方向の値が異なる部分を比較しようとしても、各部が奥行き方向の距離により、そのスケールが異なっているため、比較することが簡単にできない。 これに対して、本実施例によれば、2次元的に撮像された内視鏡画像Iaにおける各画素の位置を、中心位置を通る基準線の回りの周方向の位置と、この周方向と直交する(中心位置からの)距離位置とに変換した状態で、各画素の輝度値の情報を貼り付け、周方向の位置、つまり角θの値で展開して表示するようにしている。
In the conventional example, only the endoscopic image Ia in FIG. 8 is displayed, and this endoscopic image Ia is an image obtained by two-dimensionally projecting the inner surface of a tubular organ or the like. Each part is displayed in the state where it is done.
For this reason, for example, even if an attempt is made to compare portions having different values in the depth direction, comparison cannot be easily performed because the scales of the respective portions differ depending on the distance in the depth direction. On the other hand, according to the present embodiment, the position of each pixel in the endoscopic image Ia that is two-dimensionally imaged, the circumferential position around the reference line passing through the center position, and the circumferential direction In a state of being converted to a perpendicular distance position (from the center position), information on the luminance value of each pixel is pasted, and developed and displayed at the circumferential position, that is, the value of the angle θ.
このため、本実施例によれば、奥行き方向の距離が異なる位置でも、周方向のスケールを揃えて表示でき、従って場所が異なる部位での比較が簡単に行え、診断し易く表示できる。
従って本実施例は、以下の効果を有する。
直視型の内視鏡6により撮像された食道31のような管状器官の内視鏡画像Iaに対して幾何学的な変換を行うことで、胃と食道の接合部から連続的に存在する円柱上皮の広がり方、円柱上皮と扁平上皮の特徴的な形状を容易に観察できる為、バレット食道等の診断を行い易くする効果がある。
For this reason, according to the present embodiment, even in the position where the distance in the depth direction is different, the scales in the circumferential direction can be aligned and displayed, so that the comparison can be easily performed at different locations and can be displayed easily.
Therefore, the present embodiment has the following effects.
By performing geometric transformation on the endoscopic image Ia of the tubular organ such as the
次に図9から図13を参照して本発明の実施例2を説明する。
本実施例は、図1の画像処理装置3と同じハードウェアの構成である。そして、実施例1とは処理プログラム記憶部23に記憶される処理プログラムの内容が異なる。
本実施例では、図9に示すように食道内面を、この食道内面の平均的な直径の値とした円柱体41と仮定して、内視鏡6の(CCD16の)撮像面42により撮像される内視鏡画像を円柱体41の表面に投影する。
つまり、図9に示すように(撮像装置17を構成するCCD16の)撮像面42に撮像される内視鏡画像を円柱体41の表面に、円柱体41の内側を通して投影する。この場合、円柱体41のサイズは、略食道の管壁(内壁)の値、より具体的にはその平均値に設定する。
Next,
This embodiment has the same hardware configuration as that of the image processing apparatus 3 in FIG. And the content of the processing program memorize | stored in the processing program memory |
In this embodiment, as shown in FIG. 9, assuming that the inner surface of the esophagus is a
That is, as shown in FIG. 9, an endoscopic image imaged on the imaging surface 42 (of the
つまり、円管に近い食道内面を対物レンズ15及びCCD16からなる撮像装置17によりCCD16の撮像面42に結像し、その結像により光電変換されて撮像される主に食道及び胃につながる接合部付近の内視鏡画像を、その食道内側の管壁を近似した円柱体41の内表面に対物レンズ15により投影した画像を生成するように幾何学的な変換を行う。
そして、この幾何学的な変換により、内視鏡画像が投影された円柱体41を展開することにより、その円柱体41に投影された内視鏡画像の展開図(の画像)を生成し、展開図を表示モニタ4等の表示装置に出力して、その表示装置の表示面に展開図を表示するようにする。
In other words, the inner surface of the esophagus close to the circular tube is imaged on the
Then, by developing the
展開図を生成する処理手順を図10のフローチャートにより説明する。
実施例1と同様に画像処理装置3の動作が開始すると、CPU22は、処理プログラム記憶部23の処理プログラムを読み出し、その処理プログラムに従った処理を開始する。CPU22は、最初のステップS21において、内視鏡観察装置2のCCU8から画像入力部21を経て入力される内視鏡画像Iaの画像データを取得する。
そして、次のステップS22においてCPU22は、取得された画像データに対して歪曲収差補正(特開平8−256295号公報参照)や、ノイズ除去等の前処理を行い、さらにステップS23において内視鏡画像内の最暗部の位置を検出し、検出された位置を内視鏡画像の座標の中心位置とする。
図9に示すように内視鏡画像(CCD16の撮像面42)上の座標系をX−Y、円柱体表面の座標系をθ−Zとする。
A processing procedure for generating a development view will be described with reference to the flowchart of FIG.
When the operation of the image processing apparatus 3 starts as in the first embodiment, the
In the next step S22, the
As shown in FIG. 9, the coordinate system on the endoscopic image (the
図11に示すように内視鏡画像Iaの各画素をI(i、j)(1≦i≦i_max、1≦j≦j_max)、最暗部の位置をI(io、jo)とすると、図9の内視鏡画像の座標系X−Yにおける座標P(x、y)と、内視鏡画像Iaの画素位置I(i、j)との関係は以下の式(2)で表される。
ただし、xCCDとyCCDはX軸、Y軸方向の画素間の距離である。 However, x CCD and y CCD are distances between pixels in the X-axis and Y-axis directions.
次にステップS24とステップS25において内視鏡画像Iaの画素の初期位置I(1、1)を設定する。つまり、画素位置パラメータi=1,j=1と設定する。そして、次のステップS26においてCPU22は、内視鏡画像Iaの座標P(x、y)に対応する円柱体41の表面の座標C(θ、z)を以下の式(3)によって求める。
ただし、fは撮像系(具体的には対物レンズ15)の焦点距離、rは円柱体41の半径(例えば食道の平均的な直径より半径を算出)、αは画角である。 Here, f is the focal length of the imaging system (specifically, the objective lens 15), r is the radius of the cylindrical body 41 (for example, the radius is calculated from the average diameter of the esophagus), and α is the angle of view.
ステップS27においてCPU22は、内視鏡画像Iaの画素I(i、j)(今の場合にはi=1,j=1)に対応する円柱体41の表面の座標位置C(θ、z)を画像記憶部24等で記憶する処理を行う。
次のステップS28において、CPU22は、パラメータiを1増分(水平方向に画素を隣の画素に移動)し、ステップS29においてパラメータiがi_max以下かの判断を行い、パラメータiがi_max以下であれば、ステップS26に戻り、処理を継続する。
一方、パラメータiがi_maxより大きくなった場合には、CPU22は、次のステップS30の処理に進み、このステップS30においてCPU22は、パラメータjを1増分(垂直方向に画素を隣の画素に移動)する。
In step S27, the
In the next step S28, the
On the other hand, when the parameter i becomes larger than i_max, the
次のステップS31においてCPU22は、パラメータjがj_max以下かの判断を行い、パラメータjがj_max以下であれば、ステップS25に戻り、処理を継続する。
一方、パラメータjがj_maxより大きくなった場合には、CPUは、次のステップS32の処理に移る。
このステップS32においてCPU22は、内視鏡画像Iaの全ての画素I(i、j)に対応する円柱体41の表面の座標位置C(θ、z)を求め、展開図を(以下で述べるように、補間処理により)生成する。
図12(B)に示す円柱体表面の座標系θ−zに、図12(A)の内視鏡画像Iaの各画素の輝度値を貼り付ける。
In the next step S31, the
On the other hand, when the parameter j becomes larger than j_max, the CPU proceeds to the process of the next step S32.
In this step S32, the
The luminance value of each pixel of the endoscopic image Ia in FIG. 12A is pasted on the coordinate system θ-z of the cylindrical body surface shown in FIG.
図13に示す展開図Ibで表示される円柱体表面に貼り付けられた画素は、不均一に存在し、Zの値が大きくなる程、粗くなる。
また、図13に示すように貼り付けられた各画素は、表示モニタ4等の表示装置に表示される画像の各画素位置と一致しない為、補間処理によって表示装置に表示する画像、すなわち展開図Ibを生成する。
つまり、CPU22はステップS32において、上記補間処理を行い、表示モニタ4等の表示装置に表示可能な画像、すなわち展開図Ibを生成する。そして、CPU22はステップS33において、この展開図Ibを内視鏡画像Iaと共に表示モニタ4に出力する。そして、ステップS34に示すように表示モニタ4には、図8のように展開図Ib及び内視鏡画像Iaが表示され、この処理を終了する。但し、この展開図Ibは実施例1とはz方向に関する傾向が異なる展開図として表示される。
The pixels pasted on the surface of the cylindrical body displayed in the developed view Ib shown in FIG. 13 are non-uniformly present and become rougher as the value of Z increases.
Further, since each pixel pasted as shown in FIG. 13 does not coincide with each pixel position of the image displayed on the display device such as the
That is, in step S32, the
本実施例は以下の効果を有する。
食道31のような管状器官の内面を円柱体41と仮定し、内視鏡6の撮像面に撮影される内視鏡画像Iaを円柱体41に投影することによって展開図Ibを生成する為、実施例1よりも正確な展開図Ibを生成できる。
つまり、実施例1では、内視鏡画像Iaの各位置を、この内視鏡画像Iaにおける中心からの距離zと、中心を通る基準位置からの周方向の位置情報としての角θとによる極座標系に変換して、角θにより展開して距離zと共に展開図Ibとして表示するようにしたのに対し、本実施例では食道31の管状部位(管状器官)を円柱体41と見なして、内視鏡画像Iaの位置をその円柱体41の表面に投影して展開図Ibを生成するようにしているので、より実際の状態を反映した展開図Ibを生成できる。
This embodiment has the following effects.
Assuming that the inner surface of a tubular organ such as the
In other words, in the first embodiment, each position of the endoscopic image Ia is expressed in polar coordinates by the distance z from the center in the endoscopic image Ia and the angle θ as the position information in the circumferential direction from the reference position passing through the center. In the present embodiment, the tubular portion (tubular organ) of the
従って、本実施例によれば、奥行き方向(管腔の軸方向)における値が異なる部分においてもより比較に耐える展開図Ibを得ることができる。
なお、実施例1及び実施例2では内視鏡画像内の最暗部の位置を検出して内視鏡画像Iaの中心位置としていたが、輝度の変化方向から中心位置を推定することもできる(特開2003−93328号公報参照)。
Therefore, according to the present embodiment, it is possible to obtain a development view Ib that can withstand comparison even in a portion having different values in the depth direction (axial direction of the lumen).
In the first and second embodiments, the position of the darkest part in the endoscopic image is detected and set as the center position of the endoscopic image Ia. However, the center position can also be estimated from the luminance change direction ( JP 2003-93328 A).
次に図14から図17を参照して本発明の実施例3を説明する。
本画像処理装置の構成は、実施例1と同じであり、処理プログラム記憶部23に記憶される処理プログラムが異なる。そして、この処理プログラムにより以下の処理を行う。 本実施例では、食道のような管状器官を円柱体41と仮定し、内視鏡先端(の撮像手段)と管状器官との位置関係をモデル画像及び内視鏡画像を用いて推定する。
そして、推定された位置関係に基いて内視鏡6によって撮影された内視鏡画像を円柱体41の表面に投影し、投影された画像を展開した展開図として表示モニタ4等の表示装置に表示する。
Next, Embodiment 3 of the present invention will be described with reference to FIGS.
The configuration of the image processing apparatus is the same as that of the first embodiment, and the processing programs stored in the processing
Then, an endoscopic image photographed by the
上記位置関係を推定するために、本実施例においては、内視鏡6の先端に設けられた撮像装置17(の撮像面)と円柱体41の位置関係を変更した複数のモデル画像を生成し、生成された複数のモデル画像と実際に撮影された内視鏡画像Iaとのマッチング処理を行い、撮影された内視鏡画像Iaに近いモデル画像を検出する。
そして、検出されたモデル画像から撮像装置17と円柱体41の位置関係を推定する。モデル画像の生成方法を図14により説明する。
図14は、食道のような管状器官の内面を円柱体41と仮定し、撮像装置17の撮像面42と円柱体41の位置関係を示した図である。実施例2においては、撮像面42の光軸が円柱体41の中心を通る条件設定をしていたが、本実施例ではこの条件を外すと共に、両者が傾いている場合も考慮する。
In order to estimate the positional relationship, in this embodiment, a plurality of model images in which the positional relationship between the imaging device 17 (imaging surface) provided at the distal end of the
Then, the positional relationship between the
FIG. 14 is a diagram illustrating the positional relationship between the
円柱体41を基準とした座標系をXL−YL−ZLとすると円柱体41表面の座標(xL、yL、zL)は以下の式(4)で表される。
また、撮像面42を基準とした座標系をX−Y−Zとすると、円柱体41の座標系XL−YL−ZLとの関係は以下の式(5)で表される。
ただし、Rは回転行列、Mは並進行列である。つまり、行列RとMは、撮像装置17の撮像面42に対する円柱体41の位置関係を表すパラメータとなる。
However, R is a rotation matrix and M is a parallel progression. That is, the matrices R and M are parameters representing the positional relationship of the
撮像面42によって撮影される内視鏡画像を基準とした座標系をXI−YIとすると、撮像面42の座標系X−Y−Zとの関係は、以下の式(6)で表される。
図15に示すように光源Qが物体から有限の距離dにあり、この光源Qを点光源と仮定し、この物体の具体例としての円柱体表面は、光源Qの光を拡散反射すると仮定した場合、円柱体表面の反射光Iは、以下の式(7)で表される。
ただし、kは面の拡散反射率、Iqは光源Qの光度、βは点Wにおける面の法線と光源方向QWのなす角度、dは点Wと光源Qの距離である。 Here, k is the diffuse reflectance of the surface, Iq is the luminous intensity of the light source Q, β is the angle formed by the normal of the surface at the point W and the light source direction QW, and d is the distance between the point W and the light source Q.
従って、撮像装置17に対する円柱体41の位置・向きを設定することにより円柱体表面の位置Bから撮像装置17により撮影される内視鏡画像上の位置Aを式(4)〜(6)で求め、そのときの輝度値を式(7)で算出することができる。
図16(A)は撮像装置17が円柱体41の中心線51上に存在し、中心線51方向に向いている場合に得られるモデル画像63a、図16(B)は撮像装置17を図16(A)の状態から平行に移動した場合に得られるモデル画像63b、図16(C)は撮像装置17を(A)の状態から平行に移動し、向きを変更した場合に得られるモデル画像63cである。
従って、撮像装置17と円柱体の位置−向きを複数設定し、複数のモデル画像を生成する。
Accordingly, by setting the position / orientation of the
16A shows a
Accordingly, a plurality of position-directions of the
そして、図17に示すフローチャートに沿って処理し、以下に説明するように展開図Ibを生成する。
実施例1と同様に画像処理装置3の動作が開始すると、CPU22は処理プログラム記憶部23の処理プログラムを読み出し、その処理プログラムに従った処理を開始する。CPU22は最初のステップS41において、内視鏡観察装置2のCCU8から画像入力部21を経て入力される内視鏡画像の画像データを取得する。
そして、次のステップS42においてCPU22は、取得された画像データに対して歪曲収差補正(特開平8−256295号公報)や、ノイズ除去等の前処理を行い、ステップS43においてモデル画像とのマッチング処理を行う。マッチング処理は正規化相互相関等により取得された内視鏡画像とモデル画像との相関値を計算し、相関が最も高いモデル画像を検出する。
Then, processing is performed according to the flowchart shown in FIG. 17, and a development view Ib is generated as described below.
When the operation of the image processing apparatus 3 starts as in the first embodiment, the
In the next step S42, the
ステップS43のマッチング処理により取得された画像データと最も相関の高いモデル画像を検出し、検出されたモデル画像から撮像装置17と円柱体41の位置・向きの関係を求める。実施例1の図6(A)に示すように内視鏡画像Iaの座標系をX−Yとし、展開図の座標系は、θL−ZLとする。
次にステップS44とステップS45において円柱体表面の座標S(θL、zL)の初期値を設定する。ステップS46において設定された座標S(θL、zL)に対応する内視鏡画像の座標P(xI、yI)を式(4)〜(6)によって求める。
A model image having the highest correlation with the image data acquired by the matching process in step S43 is detected, and the relationship between the position and orientation of the
Next, in step S44 and step S45, initial values of the coordinates S (θ L , z L ) of the cylindrical body surface are set. The coordinates P (x I , y I ) of the endoscope image corresponding to the coordinates S (θ L , z L ) set in step S46 are obtained by equations (4) to (6).
ステップS47において算出された座標P(xI、yI)が内視鏡画像内に存在するかを判断する。内視鏡画像内に存在する場合はステップS48に進む。 It is determined whether the coordinates P (x I , y I ) calculated in step S47 exist in the endoscopic image. If it exists in the endoscopic image, the process proceeds to step S48.
実施例1の図7に示すように内視鏡画像の座標P(xI、yI)の位置は、画素間の中間に存在する可能性がある為、ステップS48で線形補間等の処理を用いて座標P(xI、yI)の輝度値を算出する。
例えば、得られた座標位置×の周囲4画素○(斜線)の輝度値と位置関係から座標位置×の輝度値を求める。
ステップS49においてステップS48で求めた輝度値を展開図の座標S(θL、zL)の輝度値とする。
次にステップS50に進み、展開図のZLの値を変更(例えばΔzL=1)し、ステップS46に進む。
As shown in FIG. 7 of the first embodiment, the position of the coordinates P (x I , y I ) of the endoscopic image may exist in the middle between the pixels, and therefore processing such as linear interpolation is performed in step S48. The luminance value of the coordinates P (x I , y I ) is calculated by using this.
For example, the luminance value at the coordinate position x is obtained from the luminance value and the positional relationship between the obtained four pixels around the coordinate position x (shaded line).
In step S49, the luminance value obtained in step S48 is set as the luminance value of coordinates S (θ L , z L ) in the development view.
Next, the process proceeds to step S50, the value of Z L in the developed view is changed (for example, Δz L = 1), and the process proceeds to step S46.
ステップS47において算出された座標P(xI、yI)が内視鏡の画像内に存在しない場合、ステップS51へ進み展開図のθLの値を変更する。(例えばΔθL=π/l80:1°)
ステップS52でθLが2π(360°)より小さければステップS45へ進み展開図生成の処理を継続する。θLが2π以上になった場合、展開図が生成されたと判断しステップS53に進み、実施例1のように内視鏡画像と展開図を表示モニタ4に表示し処理を終了する(展開図のみを表示してもよい)。
本実施例は以下の効果を有する。
If the coordinates P (x I , y I ) calculated in step S47 do not exist in the endoscope image, the process proceeds to step S51 and the value of θ L in the development view is changed. (For example, Δθ L = π / l80: 1 °)
Theta L in step S52 to continue processing the product view deployment proceeds to if step S45 is smaller than 2π (360 °). If theta L is equal to or greater than 2 [pi, the process proceeds to then step S53 determines that the developed view has been generated, and ends the display process the developed view and an endoscopic image on the display monitor 4 as in Example 1 (exploded view Only may be displayed).
This embodiment has the following effects.
食道のような管状の器官を円柱体41と仮定し、円柱体41と撮像装置17の位置・向きの関係を画像から推定し、推定された位置・向きに基いて内視鏡画像の展開図を生成する為、実施例2よりもさらに正確な展開図を生成できる。
実施例1〜実施例3では、細長の挿入部11を有する内視鏡6を用いて説明したが、図18に示すようなカプセル型内視鏡82の場合にも適用できる。
図18に示すように変形例を備えたカプセル型内視鏡システム81は患者が飲み込むことにより体腔内を撮像するカプセル型内視鏡装置(以下ではカプセル型内視鏡と略記)82と、患者の体外に配置され、カプセル型内視鏡82からの画像データを受信して記録する体外装置83と、この体外装置83から画像が入力される画像処理装置84とからなる。
Assuming that a tubular organ such as the esophagus is a
In the first to third embodiments, the
As shown in FIG. 18, a
カプセル型内視鏡82は、カプセル状の容器内に照明手段としての例えばLED85と、照明された被写体の像を結ぶ対物レンズ86及びその結像位置に配置され、撮像を行う撮像手段を構成するCCD87と、このCCD87により撮像された撮像信号に対する信号処理等を行う制御回路88と、撮像された画像を無線で送信する処理を行う無線回路89と、各回路等に電力を供給する電池90を有する。
また、体外装置83は、カプセル型内視鏡82の無線回路89のアンテナ89aから電波を複数のアンテナ91a、91b、91cを介して無線回路92で受信し、その信号を制御回路93に送る。この制御回路93により、映像信号に変換して画像処理装置84に出力する。
The
The
そして、画像処理装置84は、上述した各実施例等の処理を行う。
なお、制御回路93は、複数のアンテナ91a〜91cにより、カプセル型内視鏡82の位置を推定する位置検出機能93aを有する。そして、この位置検出機能93aを利用して、検出対象の画像を選択設定しても良い。つまり、この位置検出機能93aにより、食道から胃に至る境界に近い部位を撮像しているか否かを検出して、或程度境界に近い部位を撮像している場合には、上述した場合と同様に内視鏡画像として展開図の生成に利用するようにしても良い。
このようにすると、検出対象となる食道から胃に至る境界に近い部位の生体粘膜を効率良く判定することができる。
なお、上述した各実施例を部分的に組み合わせる等して構成される実施例等も本発明に属する。
Then, the
The
In this way, it is possible to efficiently determine the biological mucous membrane in a region close to the boundary from the esophagus to be detected to the stomach.
Note that embodiments configured by partially combining the above-described embodiments also belong to the present invention.
[付記]
1.請求項5において、前記中心位置設定手段は、医療画像内の最暗部を検出し、検出され最暗部の重心位置を中心位置とする手段であることを特徴とする。
2.請求項5において、前記中心位置設定手段は、画像内の輝度の変化方向から中心位置を推定する手段であることを特徴とする。
3.請求項1において、撮像手段によって撮像される前記医療画像の歪曲収差を補正する歪曲収差補正手段を有することを特徴とする。
4.請求項1において、さらに、撮像手段で撮像された前記医療画像と、前記変換画像とを表示する表示手段とを有することを特徴とする請求項1に記載の医療画像処理装置。
[Appendix]
1. 5. The center position setting means according to
2. 5. The center position setting means according to
3. 2. The apparatus according to
4). The medical image processing apparatus according to
5.請求項1において、前記画像変換手段は、体腔内を撮像した前記医療画像から円柱体の表面に投影される2次元画像を生成する幾何学的な画像変換を行うことを特徴とする。6.体腔内の画像を撮像する撮像手段と、
前記撮像手段によって撮像された医療画像により撮像手段と体腔内の位置関係を推定する位置推定手段と、
前記位置推定手段により得られた位置関係を用いて前記撮像手段による医療画像を幾何学的に変換する画像変換手段と、
前記画像変換手段により得られた変換画像を表示する表示手段と、
を有することを特徴とする医療画像処理装置。
5. The image conversion unit according to
Position estimation means for estimating the positional relationship between the imaging means and the body cavity from the medical image captured by the imaging means;
An image conversion means for geometrically converting a medical image by the imaging means using the positional relationship obtained by the position estimation means;
And Viewing means that displays the converted image obtained by the image conversion means,
A medical image processing apparatus comprising:
7.付記6において、前記位置推定手段は、体腔内の器官のモデル形状から得られる画像と前記撮像手段による医療画像との相関性から位置関係を推定する手段であることを特徴とする。
7). In
8.付記7において、前記体腔内の器官のモデル形状から得られる画像は、撮像手段に対して異なる位置関係のモデル形状を複数設定し、設定された位置関係により算出する手段を有することを特徴とする。
(付記6〜8の目的)より正確な展開図を生成することによってバレット食道のような病変の診断能力を改善することを目的として、付記6〜8の構成にした。
(付記6〜8の作用効果)撮像手段と円柱状器官(管状器官)との位置関係を推定することにより正確な展開図を生成することができる。
8). The
(Purpose of Supplementary Notes 6-8) For the purpose of improving the diagnostic ability of lesions such as Barrett's esophagus by generating a more accurate developed view, the configuration of Supplementary Notes 6-8 was adopted.
(Functions and effects of
9.体腔内を撮像した医療画像に対して幾何学的に変換する画像変換ステップと、
前記画像変換ステップにより得られた変換画像を展開図の画像として表示手段に出力する展開図出力ステップと、
を有することを特徴とする医療画像処理方法。
10.付記9において、前記画像変換ステップは、前記医療画像を極座標系へ変換する変換ステップにより構成されることを特徴とする。
9. An image conversion step for geometrically converting a medical image obtained by imaging the inside of the body cavity;
A development view output step of outputting the converted image obtained by the image conversion step as a development view image to a display means;
A medical image processing method comprising:
10. Appendix 9 is characterized in that the image conversion step is constituted by a conversion step of converting the medical image into a polar coordinate system.
前記画像変換手段は、前記医療画像を円柱体に投影する変換手段により構成されることを特徴とする請求項1に記載の医療画像処理装置。
The medical image processing apparatus according to
11.付記9において、前記画像変換ステップは、体腔内を撮像した前記医療画像から円柱体の表面に投影される2次元画像を生成する幾何学的な画像変換を行うことを特徴とする。
12.付記9において、さらに、撮像手段によって撮像される前記医療画像の中心位置を設定する中心位置設定ステップを有することを特徴とする。
11. Appendix 9 is characterized in that the image conversion step performs geometric image conversion for generating a two-dimensional image projected on the surface of a cylindrical body from the medical image obtained by imaging the inside of a body cavity.
12 Appendix 9 further includes a center position setting step for setting a center position of the medical image picked up by the image pickup means.
体腔内に挿入して食道等の管状器官を撮像した画像からその管状器官に近い形状の円柱体に投影するなどして展開図として表示される画像を生成するようにしているため、奥行き方向の値が異なる部分でも同じスケールで表示でき、比較などがし易くかつ客観的な診断も行い画像を得ることができる。 An image that is inserted into a body cavity and imaged of a tubular organ such as the esophagus is projected onto a cylindrical body having a shape close to the tubular organ, etc. Even parts with different values can be displayed on the same scale, making comparison easy and objective diagnosis can also be performed to obtain an image.
1…内視鏡システム
2…内視鏡観察装置
3…画像処理装置
4…表示モニタ
6…内視鏡
7…光源装置
8…CCU
11…挿入部
15…対物レンズ
16…CCD
17…撮像装置
21…画像入力部
22…CPU
22a…幾何学的変換手段
22b…展開図出力手段
23…処理プログラム記憶部
24…画像記憶部
25…情報記憶部
27…ハードディスク
28…表示処理部
29…入力操作部
31…食道
41…円柱体
42…撮像面
Ia…内視鏡画像
Ib…展開図(展開図の画像)
代理人 弁理士 伊藤 進
DESCRIPTION OF
11 ...
17 ...
22a ... Geometric transformation means 22b ... Development drawing output means 23 ... Processing
Attorney Susumu Ito
Claims (2)
前記撮像手段によって撮像された医療画像と、予め得られた管状体腔器官のモデル形状から得られる画像との相関性から、当該撮像手段と前記体腔内の位置関係を推定する位置推定手段と、
前記位置推定手段により得られた位置関係を用いて前記撮像手段による医療画像を、前記管状体腔器官の管壁を近似した円柱体の内表面に投影した画像に変換する画像変換手段と、
前記画像変換手段により得られた変換画像を展開図の画像として表示手段に出力する展開図出力手段と、
を有することを特徴とする医療画像処理装置。 An imaging means for imaging an image in the body cavity;
A position estimation means for estimating a positional relationship between the imaging means and the body cavity from a correlation between a medical image captured by the imaging means and an image obtained from a model shape of a tubular body cavity organ obtained in advance ;
An image conversion means for converting a medical image by the imaging means into an image projected on an inner surface of a cylindrical body approximating a tube wall of the tubular body cavity organ using the positional relationship obtained by the position estimation means;
A development view output means for outputting the converted image obtained by the image conversion means to the display means as an image of the development view;
A medical image processing apparatus comprising:
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004378011A JP4776919B2 (en) | 2004-12-27 | 2004-12-27 | Medical image processing device |
KR1020077014516A KR100890102B1 (en) | 2004-12-27 | 2005-12-21 | Medical image processing apparatus, and medical image processing method |
CN2005800406014A CN101065052B (en) | 2004-12-27 | 2005-12-21 | Medical image processing device and method |
PCT/JP2005/023493 WO2006070669A1 (en) | 2004-12-27 | 2005-12-21 | Medical image processing apparatus, and medical image processing method |
EP05820108.8A EP1832223B1 (en) | 2004-12-27 | 2005-12-21 | Medical image processing apparatus, and medical image processing method |
US11/821,898 US7857752B2 (en) | 2004-12-27 | 2007-06-26 | Medical image processing apparatus and medical image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004378011A JP4776919B2 (en) | 2004-12-27 | 2004-12-27 | Medical image processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006181109A JP2006181109A (en) | 2006-07-13 |
JP4776919B2 true JP4776919B2 (en) | 2011-09-21 |
Family
ID=36734631
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004378011A Expired - Fee Related JP4776919B2 (en) | 2004-12-27 | 2004-12-27 | Medical image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4776919B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5853768B2 (en) * | 2012-02-29 | 2016-02-09 | 澁谷工業株式会社 | Container appearance inspection device |
WO2014207932A1 (en) | 2013-06-28 | 2014-12-31 | メディア株式会社 | Periodontal disease inspection device and image processing program used for periodontal disease inspection device |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2836863B2 (en) * | 1989-02-21 | 1998-12-14 | オリンパス光学工業株式会社 | Endoscope insertion control device |
JP3415000B2 (en) * | 1997-08-26 | 2003-06-09 | 東京都下水道サービス株式会社 | Pipe development system |
JP4716545B2 (en) * | 2000-06-28 | 2011-07-06 | オリンパス株式会社 | Surgical microscope equipment |
-
2004
- 2004-12-27 JP JP2004378011A patent/JP4776919B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2006181109A (en) | 2006-07-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4585048B2 (en) | Endoscope system | |
KR100890102B1 (en) | Medical image processing apparatus, and medical image processing method | |
JP4753104B2 (en) | 3D image construction apparatus and method, and program | |
US7813538B2 (en) | Shadowing pipe mosaicing algorithms with application to esophageal endoscopy | |
JP4885388B2 (en) | Endoscope insertion direction detection method | |
US10492668B2 (en) | Endoscope system and control method thereof | |
JP4832927B2 (en) | Medical image processing apparatus and medical image processing method | |
WO2014136579A1 (en) | Endoscope system and endoscope system operation method | |
JP5620552B2 (en) | Capsule endoscope system, operation method of image display device, and image display program | |
US10736559B2 (en) | Method and apparatus for estimating area or volume of object of interest from gastrointestinal images | |
JP6774552B2 (en) | Processor device, endoscopic system and how to operate the processor device | |
US20170347989A1 (en) | Medical apparatus, medical-image generating method, and recording medium on which medical-image generating program is recorded | |
WO2014148184A1 (en) | Endoscope system and operation method of endoscope system | |
WO2021171465A1 (en) | Endoscope system and method for scanning lumen using endoscope system | |
JPWO2017115442A1 (en) | Image processing apparatus, image processing method, and image processing program | |
US20210274089A1 (en) | Method and Apparatus for Detecting Missed Areas during Endoscopy | |
JP2006187470A (en) | Medical image processing apparatus | |
JP2009028248A (en) | Medical image processing apparatus and medical image processing method | |
JP4776919B2 (en) | Medical image processing device | |
JP7179837B2 (en) | Endoscope device, endoscope image display method, and operation method of endoscope device | |
JP4668624B2 (en) | Image processing device for esophageal mucosa | |
TWI428855B (en) | The Method of Restoring Three Dimensional Image of Capsule Endoscopy | |
US20240000299A1 (en) | Image processing apparatus, image processing method, and program | |
US20070073103A1 (en) | Diagnostic device for tubular organs | |
KR100879686B1 (en) | Endoscope system, endoscope device, and image processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071102 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101005 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110405 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110602 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110621 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110629 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4776919 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140708 Year of fee payment: 3 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |