JP2010088699A - Medical image processing system - Google Patents

Medical image processing system Download PDF

Info

Publication number
JP2010088699A
JP2010088699A JP2008262388A JP2008262388A JP2010088699A JP 2010088699 A JP2010088699 A JP 2010088699A JP 2008262388 A JP2008262388 A JP 2008262388A JP 2008262388 A JP2008262388 A JP 2008262388A JP 2010088699 A JP2010088699 A JP 2010088699A
Authority
JP
Japan
Prior art keywords
image
endoscopic
ultrasonic
unit
processing system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008262388A
Other languages
Japanese (ja)
Inventor
Eiji Kasahara
英司 笠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
National Center for Child Health and Development
Original Assignee
National Center for Child Health and Development
Aloka Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Center for Child Health and Development, Aloka Co Ltd filed Critical National Center for Child Health and Development
Priority to JP2008262388A priority Critical patent/JP2010088699A/en
Publication of JP2010088699A publication Critical patent/JP2010088699A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Endoscopes (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To meet the demand that the conventional endoscope image has a narrow range of view and should be enlarged so as to include more tissues around it. <P>SOLUTION: The medical image processing system includes an ultrasonic diagnostic apparatus 10 and an endoscope 12. The endoscope 12 will produce endoscopic images in a traditional way. In the ultrasonic diagnostic apparatus, arithmetic operation will be done on a processing start plane across the original point of observation and on a plurality of visual lines starting from the processing start plane. Then rendering will be done for the respective visual lines. By this, an ultrasonic image will be constructed. A coordinate operation will be done in reference to the coordinate data output from coordinate operation parts 24 and 54. For synthesizing the endoscopic image with the ultrasonic image, a correlative operation is used to determine the appropriate positional relationship of a user. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は医療画像処理システムに関し、特に、内視画像と超音波画像とを合成するシステムに関する。   The present invention relates to a medical image processing system, and more particularly to a system for synthesizing an endoscopic image and an ultrasonic image.

内視装置は、内視手段としての内視鏡を備える。内視鏡の先端部には前方(つまり観察方向)に視野を有するCCD等のセンサが設けられる。その他、先端部には発光器、手術具を突出させる開口、等が存在する。一般に、センサの視野範囲は小さいため、内視画像を見ながら、目的組織を探し出すのが困難又は面倒であるとの問題がある。例えば、双胎児間輸血症候群という疾病に対しては、子宮内に内視鏡を挿入して、その内視鏡による画像観察下において、内視鏡内に挿入された手術具により、胎児間における胎盤血流の吻合部を遮断する手術が行われる。その際、内視鏡のセンサによる視野は、例えば10〜20mm程度であるから、胎盤上の吻合部を内視画像だけから探索、特定するのは一般に困難であり、それに時間を要するという問題がある。   The endoscope device includes an endoscope as an endoscope means. A sensor such as a CCD having a visual field in front (that is, the observation direction) is provided at the distal end portion of the endoscope. In addition, a light emitting device, an opening for projecting the surgical tool, and the like exist at the tip. In general, since the field of view of a sensor is small, there is a problem that it is difficult or troublesome to find a target tissue while viewing an endoscopic image. For example, for a disease called twin-to-fetal transfusion syndrome, an endoscope is inserted into the uterus, and an image is observed with the endoscope. Surgery is performed to block the placental blood flow anastomosis. At that time, since the field of view of the endoscope sensor is, for example, about 10 to 20 mm, it is generally difficult to search and specify the anastomosis portion on the placenta only from the endoscopic image, and it takes time. is there.

一方、近時、三次元超音波診断技術が実用化されつつある。この技術によれば、生体内の三次元領域に対して超音波の送受波を行ってボリュームデータを取得し、そのボリュームデータに基づいて体内組織についての積算画像、ボリュームレンダリング画像等を形成できる。その技術を活用し、内視鏡を用いた診断や治療に役立てることが望まれている。   On the other hand, recently, three-dimensional ultrasonic diagnostic technology is being put into practical use. According to this technique, volume data is acquired by transmitting and receiving ultrasonic waves to and from a three-dimensional region in a living body, and an integrated image, a volume rendering image, and the like for a body tissue can be formed based on the volume data. It is desired to utilize this technique for diagnosis and treatment using an endoscope.

特開平10−113333号公報Japanese Patent Laid-Open No. 10-113333 特開2004−358096号公報JP 2004-358096 A

特許文献1には、内視鏡(あるいは腹腔鏡)を用いた手術において、断層像撮影による支援を行うシステムが開示されている。同文献には断層像を得る装置の例として超音波診断装置が記載されている。そのシステムでは、内視鏡画像上において術者により着目点が指定されると、その着目点と内視鏡基準点との間の相対位置が求められ、一方、内視鏡基準点の絶対位置が求められ、その相対位置と絶対位置とから着目点の絶対位置が求められている。特許文献1に記載された装置は、内視鏡の観察対象について断層撮影位置を演算するものに過ぎない。   Patent Document 1 discloses a system for assisting by tomographic imaging in an operation using an endoscope (or laparoscope). This document describes an ultrasonic diagnostic apparatus as an example of an apparatus for obtaining a tomographic image. In the system, when a point of interest is specified by an operator on an endoscopic image, the relative position between the point of interest and the endoscope reference point is obtained, while the absolute position of the endoscope reference point is obtained. The absolute position of the point of interest is obtained from the relative position and the absolute position. The apparatus described in Patent Document 1 is merely a device that calculates a tomographic position for an observation target of an endoscope.

特許文献2には、超音波内視鏡装置が記載されている。この装置は、内視鏡による画像と、超音波診断による画像とを対応付けて表示するものであり、その対応付けに際して相互相関演算が利用されている。この装置において、内視鏡にはCCDカメラと超音波振動子とが併設され、三次元の超音波データは内視鏡を手前に引き出すマニュアル走査によって取得されている。また、この装置は、内視鏡による三次元表面形状データと超音波診断による三次元表面形状データとを空間的に対応付けるものである。それは、内視鏡の位置決めのための支援画像を提供するものではない。   Patent Document 2 describes an ultrasonic endoscope apparatus. This apparatus displays an image obtained by an endoscope and an image obtained by ultrasonic diagnosis in association with each other, and a cross-correlation operation is used for the association. In this apparatus, the endoscope is provided with a CCD camera and an ultrasonic transducer, and three-dimensional ultrasonic data is acquired by manual scanning for pulling the endoscope forward. In addition, this apparatus spatially associates three-dimensional surface shape data obtained by an endoscope with three-dimensional surface shape data obtained by ultrasonic diagnosis. It does not provide support images for endoscope positioning.

本発明の目的は、内視鏡の位置決め操作を支援できる画像を提供することにある。   An object of the present invention is to provide an image capable of supporting an endoscope positioning operation.

本発明の他の目的は、組織表面上の構造の他、組織内部の構造も反映された画像を提供することにある。   Another object of the present invention is to provide an image reflecting the structure on the tissue surface as well as the structure inside the tissue.

本発明に係るシステムは、前方に存在する視野内の局所組織を観察するためのセンサが備えられた内視部と、前記センサからの信号に基づいて内視画像を形成する内視画像形成部と、前記局所組織を含む三次元空間に対して超音波の送受波を行ってボリュームデータを取得する超音波プローブと、前記ボリュームデータに基づいて、前記センサの前方に存在する広域組織を表す超音波画像を形成する超音波画像形成部と、前記広域組織を表す超音波画像と前記局所組織を表す内視画像とを相互に位置合わせしつつ合成して合成画像を形成する画像合成部と、を含む。   The system according to the present invention includes an endoscopic unit provided with a sensor for observing a local tissue in a visual field existing ahead, and an endoscopic image forming unit that forms an endoscopic image based on a signal from the sensor An ultrasonic probe for acquiring volume data by transmitting and receiving ultrasonic waves to and from a three-dimensional space including the local tissue, and an ultrasound representing a wide-area tissue existing in front of the sensor based on the volume data. An ultrasonic image forming unit that forms a sound image, an image combining unit that forms an image by combining the ultrasonic image representing the wide-area tissue and the endoscopic image representing the local tissue while aligning each other; including.

上記構成によれば、内視画像と超音波画像とが合成された合成画像が形成され、それが望ましくは画面上に表示される。内視画像は、従来同様の光学的な観察像であってもよいし、画像合成のためにそれを加工あるいは修正した後の画像であってもよい。超音波画像は、センサ前方の広域組織を表した画像であり、そのような超音波画像を背景として内視画像を合成すれば、局所組織とその周辺の組織との関係を把握することが容易となる。超音波画像は、立体的な部分領域を二次元画像に投影したものであるのが望ましく、例えば、ボリュームレンダリング画像、積算画像等であってもよい。内視画像形成用の視点と超音波画像形成用の視点がおよそ近い関係にあるのが望ましい。また、2つの画像のスケール等を相互に近付けておくのが望ましい。いずれにしても、光学的に観察可能な領域の周囲に何らかの形で周辺組織の様子が反映されるならば、仮に両画像の間に歪みあるいは不連続性が若干生じても、内視部の操作を支援することが可能となる。   According to the above configuration, a composite image obtained by combining the endoscopic image and the ultrasonic image is formed, and is preferably displayed on the screen. The endoscopic image may be an optical observation image similar to the conventional one, or may be an image after processing or correcting it for image synthesis. An ultrasound image is an image of a wide-area tissue in front of the sensor. By synthesizing an endoscopic image against such an ultrasound image, it is easy to grasp the relationship between the local tissue and the surrounding tissue. It becomes. The ultrasonic image is desirably a three-dimensional partial region projected onto a two-dimensional image, and may be, for example, a volume rendering image, an integrated image, or the like. It is desirable that the viewpoint for forming an endoscopic image and the viewpoint for forming an ultrasonic image are approximately close to each other. It is also desirable that the scales of the two images be close to each other. In any case, if some form of surrounding tissue is reflected around the optically observable region, even if some distortion or discontinuity occurs between the two images, It becomes possible to support the operation.

望ましくは、前記画像合成部は、前記超音波画像における一部分に前記内視画像を重合し又ははめ込むことにより前記合成画像を形成し、前記合成画像は、前記内視部と前記超音波プローブとの相対的な位置関係の変更に伴ってリアルタイムで更新される。重合方式が採用される場合においては、広域組織を表した超音波画像の全体に対して内視画像が重ね合わされる。その場合、内視画像は上書き画像となり、内視画像に透過性をもたせて背景となる超音波画像部分が透けて見えるようにしてもよい。はめ込み方式が採用される場合には、超音波画像における内視画像相当部分がくり抜かれ(穴あき画像化)、そのくり抜き部分に内視画像が嵌め込まれる。その場合には内視画像のサイズを計測し、その結果に基づいて超音波画像のくり抜きサイズを決定するのが望ましい。   Preferably, the image synthesizing unit forms the synthesized image by superimposing or fitting the endoscopic image on a part of the ultrasonic image, and the synthesized image includes the endoscopic unit and the ultrasonic probe. It is updated in real time as the relative positional relationship changes. When the superposition method is adopted, the endoscopic image is superimposed on the entire ultrasonic image representing the wide-area tissue. In this case, the endoscopic image may be an overwritten image, and the endoscopic image may be made transparent so that the ultrasonic image portion as the background can be seen through. When the fitting method is adopted, a portion corresponding to the endoscopic image in the ultrasonic image is cut out (perforated imaging), and the endoscopic image is fitted into the cut out portion. In that case, it is desirable to measure the size of the endoscopic image and determine the cutout size of the ultrasonic image based on the result.

合成画像がリアルタイムで更新されれば、内視部の位置決めを容易に行うことができる。つまり、内視画像の周辺に超音波画像部分が存在しているために、内視部をどの方向に動かせばよいのかを判断することが容易となる。そして、その視野を実際に移動させれば、内視画像の内容が更新されることになるので、疾患部の探知が容易となる。内視部の視野の移動は、体外操作によってなされるのが一般的である。視野の移動に伴い、超音波画像を固定しておいて、超音波画像上で内視画像を相対的に運動させるようにしてもよいし、内視画像を固定しておいて、超音波画像を相対的に移動させるようにしてもよい。あるいは、両者が運動する態様を採用することも可能である。いずれにしても操作支援の観点から適切な更新方式を形成するのが望ましい。   If the composite image is updated in real time, the endoscopic part can be easily positioned. That is, since there is an ultrasonic image portion around the endoscopic image, it is easy to determine in which direction the endoscopic portion should be moved. If the field of view is actually moved, the content of the endoscopic image is updated, so that the diseased part can be easily detected. The movement of the visual field of the endoscopic part is generally performed by an extracorporeal operation. As the visual field moves, the ultrasonic image may be fixed and the endoscopic image may be moved relative to the ultrasonic image, or the endoscopic image may be fixed and the ultrasonic image You may make it move relatively. Or it is also possible to employ | adopt the aspect which both move. In any case, it is desirable to form an appropriate update method from the viewpoint of operation support.

望ましくは、前記超音波画像形成部は、前記センサにおける観察原点及びそこから前方への視野方向を特定する特定手段と、前記ボリュームデータを処理する手段であって、前記観察原点に基づいて前記視野方向に交差する処理開始面を特定し、その処理開始面よりも前方に存在する部分ボリュームデータを処理することにより前記超音波画像を形成する部分ボリュームデータ処理手段と、を含む。この構成によれば、センサにおける観察原点がまず特定される。つまり、内視用視点の空間的な座標が特定される。また、その観察原点から前方への視野方向が特定される。視野方向は望ましくは立体的な視野域における中心軸に一致する。つまり、センサから観察した様子が超音波画像上でも再現されるように、観察原点から前方に存在する部分ボリュームデータが特定され、それを利用して超音波画像が形成される。超音波プローブを体表上に当接して、そこからボリュームデータを取得するようにしてもよいし、体腔内プローブを利用して体内からボリュームデータを取得するようにしてもよい。   Preferably, the ultrasonic image forming unit is a specifying unit that specifies an observation origin in the sensor and a visual field direction forward therefrom, and a unit that processes the volume data, the visual field based on the observation origin. Partial volume data processing means for identifying the processing start surface that intersects the direction and processing the partial volume data existing ahead of the processing start surface to form the ultrasonic image. According to this configuration, the observation origin in the sensor is first specified. That is, the spatial coordinates of the endoscopic viewpoint are specified. Further, the viewing direction from the observation origin to the front is specified. The viewing direction preferably coincides with the central axis in the stereoscopic viewing area. That is, partial volume data existing forward from the observation origin is specified so that the state observed from the sensor is reproduced on the ultrasonic image, and an ultrasonic image is formed using the partial volume data. An ultrasonic probe may be brought into contact with the body surface and volume data may be acquired therefrom, or volume data may be acquired from the body using an intracavity probe.

望ましくは、前記部分ボリュームデータ処理手段は、前記処理開始面から前方側に伸びる複数の視線を設定し、前記各視線上においてレンダリング演算を行う。この構成によれば、望ましくは並行投影法にしたがって部分ボリュームデータが投影処理される。但し、センサあるいはその周辺から放射状に出る視線群を設定するようにしてもよい。センサ(及び光学系)の視野特性に応じて視線群の配列を設定するのが望ましい。レンダリング方法としてはボリュームレンダリング法、積算投影法、最大値投影法、最小値投影法などが考えられるが、いずれにしても三次元空間を画像に反映できるレンダリング法を選択するのが望ましい。   Preferably, the partial volume data processing means sets a plurality of lines of sight extending forward from the processing start surface, and performs a rendering operation on each line of sight. According to this configuration, the partial volume data is preferably projected in accordance with the parallel projection method. However, a line-of-sight group that radiates from the sensor or its periphery may be set. It is desirable to set the line-of-sight group arrangement according to the visual field characteristics of the sensor (and the optical system). As a rendering method, a volume rendering method, an integral projection method, a maximum value projection method, a minimum value projection method, and the like can be considered. In any case, it is desirable to select a rendering method that can reflect a three-dimensional space in an image.

望ましくは、前記超音波画像は、前記センサの前方に存在する広域組織の表面上を走行する表面血管及び当該広域組織の内部を走行する内部血管の両者を表現し得る画像である。内部血管まで画像化されれば、外科手術における安全性を高められる。   Preferably, the ultrasonic image is an image that can represent both a surface blood vessel that runs on the surface of a wide area tissue existing in front of the sensor and an internal blood vessel that runs inside the wide area tissue. If the internal blood vessels are imaged, safety in surgery can be improved.

望ましくは、前記内視部及び前記超音波プローブの位置関係を特定する位置情報を取得する手段を含み、前記観察原点及び前記視野方向は前記位置情報に基づいて特定される。位置情報は、磁場を利用した測位システム、赤外光を利用した測位システム、電波を利用した測位システム、等を使って取得可能である。超音波プローブを当てる位置を決めておき、かつ、内視部の挿入位置がある程度決まっているなら、2つの画像をマニュアルで位置決めして合成することも可能であるが、その場合にはリアルタイム性が損なわれる。よって、超音波プローブ及び内視部の相対的位置関係をリアルタイムで計測できるように構成するのが望ましい。   Desirably, it includes means for acquiring position information for specifying a positional relationship between the endoscopic part and the ultrasonic probe, and the observation origin and the visual field direction are specified based on the position information. The position information can be acquired using a positioning system using a magnetic field, a positioning system using infrared light, a positioning system using radio waves, and the like. If the position to which the ultrasonic probe is applied is determined and the insertion position of the endoscopic part is determined to some extent, it is possible to manually position and combine the two images, but in that case real-time characteristics Is damaged. Therefore, it is desirable that the relative positional relationship between the ultrasonic probe and the endoscopic unit can be measured in real time.

望ましくは、前記位置情報を取得する手段は、前記超音波プローブの位置を計測する第1位置検出ユニットと、前記内視部の位置を計測する第2位置検出ユニットと、を含む。ここで、各ユニットが磁場を利用した測位システムで構成される場合、各ユニットは磁場発生器と磁気センサセットとで構成される。各ユニットが赤外線を利用した測位システムで構成される場合、各ユニットは赤外線送受波器と赤外線反射器とで構成される。内視部の先端に測位用の装置を設けるようにしてもよいし、内視部が棒状体あるいはあまり形状が変化しないものであれば、内視部における体外部分に測位用の装置を設けることが可能である。相関演算等の画像処理を利用して両画像のマッチング処理を行えば、位置情報の計測精度が高くなくても、画像処理により両画像の位置決め精度を向上できる。   Preferably, the means for acquiring the position information includes a first position detection unit that measures the position of the ultrasonic probe and a second position detection unit that measures the position of the endoscopic unit. Here, when each unit is configured by a positioning system using a magnetic field, each unit is configured by a magnetic field generator and a magnetic sensor set. When each unit is composed of a positioning system using infrared rays, each unit is composed of an infrared transducer and an infrared reflector. A positioning device may be provided at the distal end of the endoscopic unit, and if the endoscopic unit is a rod-like body or a shape that does not change so much, a positioning device is provided on the external part of the endoscopic unit. Is possible. If matching processing of both images is performed using image processing such as correlation calculation, the positioning accuracy of both images can be improved by image processing even if the measurement accuracy of the position information is not high.

望ましくは、前記画像合成部は、前記超音波画像を背景としてその一部分に前記内視画像を半透明にして重合する。望ましくは、前記超音波画像は単色画像であり、前記内視画像はカラー画像である。望ましくは、前記画像合成部は、前記内視画像と前記超音波画像との間で相対的な位置関係を逐次的に変化させつつ相関演算を繰り返すことにより、前記内視画像と前記超音波画像との適正位置関係を探索する。   Preferably, the image composition unit superimposes the endoscopic image on a part of the ultrasonic image as a background. Preferably, the ultrasonic image is a monochromatic image and the endoscopic image is a color image. Preferably, the image synthesizing unit repeats a correlation calculation while sequentially changing a relative positional relationship between the endoscopic image and the ultrasonic image, thereby performing the endoscopic image and the ultrasonic image. Search for the appropriate positional relationship.

望ましくは、前記画像合成部は、前記内視画像に対して二値化処理を適用し、二値化内視画像を形成する手段と、前記超音波画像に対して二値化処理を適用し、二値化超音波画像を形成する手段と、前記二値化内視画像と前記二値化超音波画像との間で相対的な位置関係を逐次的に変化させながら相関演算を実行する手段と、前記相関演算の結果に基づいて前記適正位置関係を特定する手段と、を含む。異種画像であっても各画像を二値化処理すれば相関演算が容易となる。   Preferably, the image composition unit applies a binarization process to the endoscopic image, forms a binarized endoscopic image, and applies a binarization process to the ultrasonic image. Means for forming a binarized ultrasonic image; and means for executing a correlation operation while sequentially changing a relative positional relationship between the binarized endoscopic image and the binarized ultrasonic image And means for specifying the appropriate positional relationship based on the result of the correlation calculation. Correlation calculation is facilitated by binarizing each image even if it is a different type of image.

望ましくは、前記相対的な位置関係の逐次的変化においては、前記二値化内視画像と前記二値化超音波画像との間で、相対的縮尺率可変、相対的並行移動及び相対的回転移動の内の少なくとも1つが実行される。特に望ましくはそれらの全部が多重的に実行される。   Preferably, in the sequential change of the relative positional relationship, the relative scale ratio is variable, the relative translation and the relative rotation are performed between the binarized endoscopic image and the binarized ultrasonic image. At least one of the movements is performed. Particularly preferably, all of them are executed in multiple.

望ましくは、観察の対象となる組織は胎盤であり、前記内視画像には前記胎盤上を走行する血管の像が含まれ、前記超音波画像には前記胎盤上を走行する血管の像及び前記胎盤内を走行する血管の像が含まれ、前記内視画像及び前記超音波画像は、少なくとも前記内視部の移動に伴ってリアルタイムで更新され、前記合成画像の観察下において前記内視部に差し込まれた手術器具が操作される。   Preferably, the tissue to be observed is a placenta, the endoscopic image includes an image of blood vessels running on the placenta, and the ultrasound image includes an image of blood vessels running on the placenta and the An image of a blood vessel traveling in the placenta is included, and the endoscopic image and the ultrasound image are updated in real time at least with the movement of the endoscopic unit, and the endoscopic unit is observed under observation of the composite image. The inserted surgical instrument is operated.

本発明に係る超音波診断装置は、前方に存在する視野内の局所組織を観察するためのセンサが備えられた内視部と、前記センサからの信号に基づいて内視画像を形成する内視画像形成部と、を備えた内視装置に接続される超音波診断装置であって、前記局所組織を含む三次元空間に対して超音波の送受波を行ってボリュームデータを取得する超音波プローブと、前記ボリュームデータに基づいて、前記センサの前方に存在する広域組織を表す超音波画像を形成する超音波画像形成部と、前記広域組織を表す超音波画像と前記局所組織を表す内視画像とを相互に位置合わせしつつ合成して合成画像を形成する画像合成部と、を含む。   An ultrasonic diagnostic apparatus according to the present invention includes an endoscopic unit provided with a sensor for observing a local tissue in a visual field existing in front, and an endoscopic image that forms an endoscopic image based on a signal from the sensor. An ultrasonic diagnostic apparatus connected to an endoscopic device including an image forming unit, and acquiring volume data by transmitting and receiving ultrasonic waves to and from a three-dimensional space including the local tissue An ultrasonic image forming unit that forms an ultrasonic image representing a wide-area tissue existing in front of the sensor based on the volume data, an ultrasonic image representing the wide-area tissue, and an endoscopic image representing the local tissue And an image composition unit that forms a composite image by aligning them with each other.

以上説明したように、本発明によれば、内視鏡の位置決め操作を支援できる画像を提供できる。あるいは、組織表面上の構造の他、組織内部の構造も反映された画像を提供できる。   As described above, according to the present invention, it is possible to provide an image that can support the positioning operation of the endoscope. Alternatively, an image reflecting the structure inside the tissue as well as the structure on the tissue surface can be provided.

以下、本発明の好適な実施形態を図面に基づいて説明する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described with reference to the drawings.

図1には、本発明に係る医療画像処理システムの好適な実施形態が示されており、図1はその全体構成を示すブロック図である。図1に示されるシステムは、内視鏡による治療と超音波診断とを組み合わせたシステムであり、本実施形態において対象となる組織は子宮中の胎盤である。もちろん、他の組織に対して本発明に係るシステムを用いることも可能である。   FIG. 1 shows a preferred embodiment of a medical image processing system according to the present invention, and FIG. 1 is a block diagram showing the overall configuration thereof. The system shown in FIG. 1 is a system that combines endoscopic treatment and ultrasound diagnosis, and the target tissue in this embodiment is the placenta in the uterus. Of course, the system according to the present invention can be used for other tissues.

図1において、本実施形態に係るシステムは、大別して、超音波診断装置10と内視装置12とで構成される。ただし、画像処理機能を外部コンピュータ等に委ねることも可能であり、その場合には、本システムが、超音波診断装置、内視装置及びコンピュータによって構成される。本実施形態に係るシステムの実現に当たっては多様な構成が考えられる。   In FIG. 1, the system according to the present embodiment is roughly composed of an ultrasonic diagnostic apparatus 10 and an endoscopic apparatus 12. However, it is also possible to entrust the image processing function to an external computer or the like. In this case, the present system is configured by an ultrasonic diagnostic apparatus, an endoscopic apparatus, and a computer. Various configurations are conceivable for realizing the system according to the present embodiment.

超音波診断装置10について説明する。プローブ14は、超音波を送受波する送受波器であり、本実施形態においては生体内の三次元空間に対して超音波の送受波を行う3Dプローブが用いられている。プローブ14は、具体的には、プローブヘッド、プローブケーブル及びプローブコネクタ等からなるものである。プローブヘッド内にはアレイ振動子16が設けられている。このアレイ振動子16は本実施形態において2Dアレイ振動子であり、その2Dアレイ振動子16により超音波ビームが形成され、その超音波ビームが二次元走査されて三次元のデータ取り込み空間が形成される。その三次元空間内からボリュームデータが取得される。もちろん、1Dアレイ振動子を機械的に走査することにより三次元空間を形成するようにしてもよい。   The ultrasonic diagnostic apparatus 10 will be described. The probe 14 is a transmitter / receiver that transmits / receives an ultrasonic wave. In this embodiment, a 3D probe that transmits / receives an ultrasonic wave to / from a three-dimensional space in a living body is used. Specifically, the probe 14 includes a probe head, a probe cable, a probe connector, and the like. An array transducer 16 is provided in the probe head. The array transducer 16 is a 2D array transducer in the present embodiment, and an ultrasonic beam is formed by the 2D array transducer 16, and the ultrasonic beam is scanned two-dimensionally to form a three-dimensional data capturing space. The Volume data is acquired from within the three-dimensional space. Of course, a three-dimensional space may be formed by mechanically scanning the 1D array transducer.

符号18は測位システムを示している。測位システム18は、可動側デバイス20、固定側デバイス22及び座標データ演算部24により構成される。後に説明する測位システム48も同様の構成を示している。例えば、磁場を利用して測位を行う方式が採用される場合、固定側デバイス22は磁場発生器であり、可動側デバイス20は磁気センサユニットによって構成される。その磁気センサユニットの出力が座標データ演算部24に送られ、その座標データ演算部24において、固定側デバイス22を座標原点としたところでの可動側デバイス20の空間的な座標が計測される。測位システム18が赤外線を用いたものであれば、固定側デバイス22は赤外線送受波器であり、可動側デバイス20は赤外線反射器となる。これ以外にも各種の方式を採用し得る。いずれにしても、プローブ14(具体的にはプローブヘッド)の空間的な座標が計測される。ロボットアーム等を使用してプローブヘッドを支持する構成が採用される場合、各アームに設けられたエンコーダの出力からプローブヘッドの三次元座標を得ることも可能である。座標データ演算部24は後に説明する超音波画像形成部32に対して、座標データ(XP,YP,ZP,Xθ,Yθ,Zθ)を出力する。 Reference numeral 18 denotes a positioning system. The positioning system 18 includes a movable device 20, a fixed device 22, and a coordinate data calculation unit 24. A positioning system 48 described later has a similar configuration. For example, when a method of performing positioning using a magnetic field is adopted, the fixed device 22 is a magnetic field generator, and the movable device 20 is configured by a magnetic sensor unit. The output of the magnetic sensor unit is sent to the coordinate data calculation unit 24, and the coordinate data calculation unit 24 measures the spatial coordinates of the movable device 20 with the fixed device 22 as the coordinate origin. If the positioning system 18 uses infrared rays, the fixed side device 22 is an infrared transducer, and the movable side device 20 is an infrared reflector. Various other methods can be adopted. In any case, the spatial coordinates of the probe 14 (specifically, the probe head) are measured. When a configuration in which the probe head is supported using a robot arm or the like is employed, it is also possible to obtain the three-dimensional coordinates of the probe head from the output of the encoder provided in each arm. The coordinate data calculation unit 24 outputs coordinate data (X P , Y P , Z P , Xθ, Yθ, Zθ) to an ultrasonic image forming unit 32 described later.

送受信部26は、送信部としての送信ビームフォーマーおよび受信部としての受信ビームフォーマーからなるものである。送信時において、送受信部26からアレイ振動子16に対して複数の送信信号が並列的に供給される。これによりアレイ振動子16において送信ビームが形成される。受信時において、生体内からの反射波はアレイ振動子16にて受波され、アレイ振動子16から複数の受信信号が送受信部26へ並列的に出力される。送受信部26においては、複数の受信信号に対して整相加算処理を適用し、これによって整相加算後の受信信号すなわちビームデータを得る。   The transmission / reception unit 26 includes a transmission beam former as a transmission unit and a reception beam former as a reception unit. At the time of transmission, a plurality of transmission signals are supplied in parallel from the transmission / reception unit 26 to the array transducer 16. As a result, a transmission beam is formed in the array transducer 16. At the time of reception, the reflected wave from the living body is received by the array transducer 16, and a plurality of received signals are output from the array transducer 16 to the transmission / reception unit 26 in parallel. In the transmission / reception unit 26, a phasing addition process is applied to a plurality of reception signals, thereby obtaining a reception signal after phasing addition, ie, beam data.

そのビームデータは信号処理部28へ出力される。信号処理部28は、検波回路、対数圧縮回路、等の各種回路を有しており、ビームデータに対して所定の信号を処理を実行する。その処理後のビームデータは3Dメモリ30に格納される。その書き込みの際に座標変換が適用され、各ビームデータを構成するエコーデータ(ボクセルデータ)はそれに対応するアドレスに格納される。もちろん、読み出し時において座標変換が適用されてもよい。座標変換は、一般に、送受波座標系からメモリ空間座標系への変換を意味するものである。これによって、3Dメモリ30内にはボリュームデータが格納されることになる。   The beam data is output to the signal processing unit 28. The signal processing unit 28 includes various circuits such as a detection circuit and a logarithmic compression circuit, and executes a predetermined signal on the beam data. The processed beam data is stored in the 3D memory 30. Coordinate transformation is applied at the time of writing, and echo data (voxel data) constituting each beam data is stored at the corresponding address. Of course, coordinate transformation may be applied at the time of reading. The coordinate conversion generally means conversion from a transmission / reception wave coordinate system to a memory space coordinate system. As a result, volume data is stored in the 3D memory 30.

本実施形態においては、内視装置12によって観察されている局所組織が含まれるように三次元エコデータ取り込み空間すなわち三次元空間が形成されており、逆に言えば、そのような適正な位置に三次元空間が形成されるように3Dプローブ14の位置決めが行われている。したがって、3Dメモリ30内には、内視画像化の対象となっている局所組織を含む広域組織に対応したボリュームデータが格納されることになる。   In the present embodiment, a three-dimensional eco data capturing space, that is, a three-dimensional space, is formed so as to include a local tissue observed by the endoscopic device 12, and conversely, at such an appropriate position. The 3D probe 14 is positioned so that a three-dimensional space is formed. Accordingly, the 3D memory 30 stores volume data corresponding to a wide area organization including a local tissue that is an object of endoscopic imaging.

超音波画像形成部32は、ボリュームデータにおける部分的なデータ(部分ボリュームデータ)に基づいてそれをレンダリング処理することにより投影画像としての超音波画像を形成している。その場合においては、内視画像における観察点すなわち視点と同じ方向から超音波画像が形成されるようにデータ処理が実行されている。その際においては、座標データ演算部24から出力される上記の座標データが参照され、また、後述する座標データ演算部54から出力される座標データ(xc,yc,zc,xθ,yθ,zθ)が参照される。つまり、プローブヘッドの三次元座標と内視鏡の三次元座標とが参照され、両者の空間的な位置関係に基づいて、部分ボリュームデータが特定され、つまり視点とレンダリング方向とが特定され、それらを利用して投影処理が実行されている。その場合においては、必要に応じて、二つの測位システム18,48の間における既知の空間的な位置関係が利用され、また、可動側デバイス20,50と座標計測の対象となる点との位置関係等の情報が参照される。 The ultrasonic image forming unit 32 forms an ultrasonic image as a projection image by performing rendering processing based on partial data (partial volume data) in the volume data. In that case, data processing is executed so that an ultrasonic image is formed from the same direction as the observation point, that is, the viewpoint in the endoscopic image. At that time, the coordinate data output from the coordinate data calculation unit 24 is referred to, and the coordinate data (x c , y c , z c , xθ, yθ output from the coordinate data calculation unit 54 described later). , zθ). That is, the three-dimensional coordinates of the probe head and the three-dimensional coordinates of the endoscope are referred to, and based on the spatial positional relationship between the two, partial volume data is identified, that is, the viewpoint and the rendering direction are identified. Projection processing is executed using. In that case, a known spatial positional relationship between the two positioning systems 18 and 48 is used as necessary, and the positions of the movable devices 20 and 50 and the points to be subjected to coordinate measurement are also determined. Information such as relationships is referenced.

画像合成部34は、超音波画像上に後に説明する内視画像を合成するモジュールである。合成の仕方としては、重合方式及びはめ込み方式が考えられ、重合方式の場合においては、超音波画像上に内視画像が部分的に重ね合わされる。はめ込み方式が採用される場合には、内視画像がはめ込まれる領域が超音波画像上から除去され、すなわち穴空き状態とされ、その空いた部分に内視画像がはめ込まれる。もちろん、画像合成の方式としては、従来から知られている各種の方式を採用することができる。本実施形態においては、二つの画像の合成にあたって両者の相対的な位置関係を段階的に変化させながら逐次的に相関演算が実行されており、相関値が最も良好となる状態として両者の適正位置関係が認定されている。そのような適正位置関係の下で二つの画像が合成されれば、画像間における位置ずれを最小限にでき、また画像間におけるひずみも少なくすることが可能となる。ただし、そのような相関演算は必要に応じて実行されればよく、二つの画像を単純に重ね合わせるだけでも一定の効果を得られる。   The image synthesizing unit 34 is a module that synthesizes an endoscopic image described later on an ultrasonic image. As a synthesis method, a superposition method and a fitting method are conceivable. In the superposition method, the endoscopic image is partially overlapped on the ultrasonic image. When the fitting method is employed, the region where the endoscopic image is fitted is removed from the ultrasonic image, that is, a hole is formed, and the endoscopic image is fitted into the vacant portion. Of course, various conventionally known methods can be employed as the image composition method. In the present embodiment, in the synthesis of two images, the correlation calculation is sequentially performed while changing the relative positional relationship between the two in a stepwise manner. The relationship is certified. If the two images are combined under such an appropriate positional relationship, the positional deviation between the images can be minimized, and the distortion between the images can be reduced. However, such correlation calculation only needs to be executed as necessary, and a certain effect can be obtained by simply superimposing two images.

以上のように、画像合成部34において合成画像が生成されると、その画像データが表示部36に送られ、表示部36の画面上に合成画像が表示される。その合成画像は、光学的な画像と音響的な画像とが組み合わさった新しい画像であり、具体的には、従来同様の光学像の周囲に超音波画像が表され、従来においては見えなかった周辺部の構造や様子を超音波画像を通じて認識することが可能となるので、内視鏡操作の支援を行うことができ、また患部を迅速に探知できるという利点が得られる。内視画像については画像合成に先立って加工や修正を施すことも可能であり、これは超音波画像についても同様である。例えば、エッジ強調処理やコントラスト強調処理等を施すようにしてもよい。   As described above, when a composite image is generated in the image composition unit 34, the image data is sent to the display unit 36, and the composite image is displayed on the screen of the display unit 36. The composite image is a new image in which an optical image and an acoustic image are combined. Specifically, an ultrasonic image is displayed around an optical image similar to the conventional one, and was not visible in the past. Since it is possible to recognize the structure and state of the peripheral part through an ultrasonic image, it is possible to provide support for endoscopic operation and to quickly detect the affected part. The endoscopic image can be processed and modified prior to image synthesis, and this is the same for the ultrasonic image. For example, edge enhancement processing, contrast enhancement processing, or the like may be performed.

主制御部38は、超音波診断装置10に含まれる各構成の動作制御を行っており、主制御部38は具体的にはCPUと動作プログラムとによって構成されるものである。主制御部38には操作パネル40が接続されており、ユーザーは操作パネル40を利用して動作条件の設定を行ったり、パラメータの入力を行ったりすることが可能である。ちなみに、超音波画像形成部32及び画像合成部34はソフトウェアの機能として実現することが可能であり、超音波診断装置10内においてそのようなプログラム処理を行うことも可能ではあるが、ボリュームデータを外部PCへ転送し、外部PC上において画像処理を行わせることも可能である。ただし、内視鏡操作の支援にあたっては合成画像がリアルタイムで更新されるのが望ましく、そのようなリアルタイム性を実現できるシステムを構築するのが望ましい。本実施形態においては、超音波診断装置10に対して内視装置12が組み合わされており、すなわち内視装置12からの画像データを超音波診断装置10において利用することにより、リアルタイムで表示される超音波画像上に同じくリアルタイムで表示される内視画像が合成されている。   The main control unit 38 performs operation control of each component included in the ultrasonic diagnostic apparatus 10, and the main control unit 38 is specifically configured by a CPU and an operation program. An operation panel 40 is connected to the main control unit 38, and the user can set operating conditions and input parameters using the operation panel 40. Incidentally, the ultrasonic image forming unit 32 and the image synthesizing unit 34 can be realized as software functions, and such program processing can be performed in the ultrasonic diagnostic apparatus 10, but volume data is stored. It is also possible to transfer to an external PC and perform image processing on the external PC. However, it is desirable that the composite image is updated in real time in support of the endoscope operation, and it is desirable to construct a system that can realize such real time performance. In the present embodiment, the endoscopic device 12 is combined with the ultrasonic diagnostic apparatus 10, that is, the image data from the endoscopic apparatus 12 is used in the ultrasonic diagnostic apparatus 10 and displayed in real time. An endoscopic image that is also displayed in real time on the ultrasonic image is synthesized.

次に、内視装置12について説明する。符号42は内視鏡を示している。内視鏡42は体内に挿入される部分と体外に位置決めされる部分とからなるものである。体内部分にはイメージセンサ44及び発光器46等が設けられている。イメージセンサ44は例えばCCDカメラである。もちろん他の画像取得デバイスを設けるようにしてもよい。発光器46は画像取り込み時において前方を照らすためのデバイスである。ただし、例えば高感度赤外線センサ等を利用することにより、発光器46を省略することも可能である。内視鏡42の中には複数のチャンネル(図示せず)が設けられており、いずれかのチャンネルを利用して術具を挿入し、胎盤表面上を走行している血管等に対する処置を行うことが可能である。   Next, the endoscopic device 12 will be described. Reference numeral 42 denotes an endoscope. The endoscope 42 includes a part inserted into the body and a part positioned outside the body. An image sensor 44, a light emitter 46, and the like are provided in the body part. The image sensor 44 is a CCD camera, for example. Of course, other image acquisition devices may be provided. The light emitter 46 is a device for illuminating the front when capturing an image. However, the light emitter 46 can be omitted by using, for example, a high-sensitivity infrared sensor. A plurality of channels (not shown) are provided in the endoscope 42, and a surgical instrument is inserted using any of the channels to perform a treatment on a blood vessel or the like running on the placenta surface. It is possible.

測位システム48は、上述したように可動側デバイス50、固定側デバイス52及び座標データ演算部54により構成される。本実施形態において可動側デバイス50は内視鏡42の体外部分に配置されているが、もちろんそのデバイス50が体内部分に配置されていてもよい。いずれにおいてもイメージセンサ44における観察原点すなわち視点の座標が直接的にまたは間接的に計測されるように構成するのが望ましい。座標データ演算部54から出力される座標データは上述したように超音波画像形成部32に入力され、そのような情報を利用して上述した超音波画像処理が実行される。   As described above, the positioning system 48 includes the movable device 50, the fixed device 52, and the coordinate data calculation unit 54. In the present embodiment, the movable device 50 is disposed on the external part of the endoscope 42, but the device 50 may of course be disposed on the internal part. In any case, it is desirable that the observation origin, that is, the coordinates of the viewpoint in the image sensor 44 is measured directly or indirectly. The coordinate data output from the coordinate data calculation unit 54 is input to the ultrasonic image forming unit 32 as described above, and the ultrasonic image processing described above is executed using such information.

内視装置本体45には内視画像形成部47が設けられており、内視画像形成部47はイメージセンサ44から出力される信号に基づいて光学像としての内視画像を形成している。その画像データは上述したように画像合成部34に出力される。   An endoscopic image forming unit 47 is provided in the endoscopic device main body 45, and the endoscopic image forming unit 47 forms an endoscopic image as an optical image based on a signal output from the image sensor 44. The image data is output to the image composition unit 34 as described above.

図2には、三次元空間60が示されている。この三次元空間60は超音波の送受波が行われる領域であり、上述したボリュームデータに相当するものである。三次元空間60はプローブヘッド56における超音波ビームの電子的な走査により構成される。図2においては立方体形状の三次元空間60が示されているが、その形状は立方体には限られない。例えば、コンベックス型の1Dアレイ振動子を機械的に揺動走査させる方式では、角錐型の三次元空間が形成されることになる。   A three-dimensional space 60 is shown in FIG. This three-dimensional space 60 is an area where ultrasonic waves are transmitted and received, and corresponds to the volume data described above. The three-dimensional space 60 is configured by electronic scanning of an ultrasonic beam in the probe head 56. Although a cubic three-dimensional space 60 is shown in FIG. 2, the shape is not limited to a cube. For example, in the method of mechanically swinging and scanning a convex 1D array transducer, a pyramid three-dimensional space is formed.

三次元空間60は本実施形態において子宮の一部を含んでおり、図示されるようにそこには胎盤62の一部が含まれている。符号62Aは胎盤表面を表しており、その表面(表層)62Aには複数の血管64が走行している。   The three-dimensional space 60 includes a part of the uterus in this embodiment, and a part of the placenta 62 is included therein as shown. Reference numeral 62A represents the surface of the placenta, and a plurality of blood vessels 64 run on the surface (surface layer) 62A.

内視鏡58は本実施形態において硬質の棒状部材として構成されており、腹部に形成された孔を通じて内視鏡58の先端部が子宮内に差し込まれる。内視鏡58の先端部あるいはそれ以外の部分に屈曲性を持った間接部が設けられてもよい。内視鏡58の先端部には上述したイメージセンサが設けられ、そのイメージセンサによる視野範囲が符号66で示されている。図に示されるように視野範囲66は胎盤表面62Aにおけるごくわずかの領域であり、疾患部分をその視野範囲を通じて探知するのは容易でない。つまり、視野範囲66の周辺に存在する組織の様子についても情報を得たいというニーズがある。そこで、本実施形態においては上述したように内視画像と超音波画像との組み合わせが実現されている。   The endoscope 58 is configured as a hard rod-like member in the present embodiment, and the distal end portion of the endoscope 58 is inserted into the uterus through a hole formed in the abdomen. An indirect portion having flexibility may be provided at the distal end portion of the endoscope 58 or other portion. The above-described image sensor is provided at the distal end portion of the endoscope 58, and a visual field range by the image sensor is indicated by reference numeral 66. As shown in the figure, the visual field range 66 is a very small area on the placenta surface 62A, and it is not easy to detect the diseased part through the visual field range. That is, there is a need to obtain information about the state of the tissue existing around the visual field range 66. Therefore, in the present embodiment, as described above, a combination of an endoscopic image and an ultrasonic image is realized.

図3乃至図6を用いて超音波画像の作成例について説明する。図3において、本実施形態ではまず内視鏡58におけるイメージセンサ上の視点すなわち中心点に相当する観察原点58Aが特定される。その特定を行うために上述した測位システムが設けられている。すなわち、内視鏡58を操作した場合においても各状態において観察原点58Aの空間的な位置を特定することができる。ただし、その位置を厳密に特定できなくても、後の画像相関処理の結果として内視画像と超音波画像の良好なマッチング状態を得ることが可能である。観察原点58Aが特定されると、そこから視野前方へ伸びる基準方向すなわち視野方向70が特定される。その視野方向70は視野範囲66の中心軸に相当するものであり、あるいは、内視鏡58の軸方向に相当するものである。   An example of creating an ultrasound image will be described with reference to FIGS. In FIG. 3, in this embodiment, first, an observation origin 58A corresponding to a viewpoint on the image sensor, that is, a center point, in the endoscope 58 is specified. In order to perform the identification, the above-described positioning system is provided. That is, even when the endoscope 58 is operated, the spatial position of the observation origin 58A can be specified in each state. However, even if the position cannot be specified precisely, it is possible to obtain a good matching state between the endoscopic image and the ultrasonic image as a result of the subsequent image correlation processing. When the observation origin 58A is specified, the reference direction extending from the front of the visual field, that is, the visual field direction 70 is specified. The visual field direction 70 corresponds to the central axis of the visual field range 66, or corresponds to the axial direction of the endoscope 58.

次に、図4に示されるように、観察原点58Aを基準として処理開始面72が設定される。この処理開始面72は具体的には3Dメモリの三次元記憶空間上に設定されるものである。本実施形態においては、処理開始面72は観察原点58Aを通過する面であって基準方向72に直交する面である。処理開始面72の大きさは任意に設定することが可能であるが、少なくとも視野範囲66の周辺をカバーできるようにそのサイズが定められるのが望ましく、特に望ましくはボリュームデータの全体を通過する程度の大きさを持った範囲として定められる。観察原点58Aを通過する面としてではなくそれよりも前方の位置に処理開始面72が設定されるようにしてもよい。すなわち、本実施形態においては、胎盤表面とイメージセンサとの間に羊水が存在しており、この羊水は超音波画像にほとんど反映されない部分であるため、必要に応じて処理開始面を前方に設定することが考えられる。もちろん処理開始面を後方に設定することも可能である。   Next, as shown in FIG. 4, a processing start surface 72 is set with reference to the observation origin 58A. Specifically, the processing start surface 72 is set on the three-dimensional storage space of the 3D memory. In the present embodiment, the processing start surface 72 is a surface that passes through the observation origin 58 </ b> A and is orthogonal to the reference direction 72. Although the size of the processing start surface 72 can be arbitrarily set, it is desirable that the size is determined so as to cover at least the periphery of the visual field range 66, and it is particularly desirable that the processing start surface 72 passes through the entire volume data. It is determined as a range having a size of. The processing start surface 72 may be set not at the surface passing through the observation origin 58A but at a position ahead of it. That is, in this embodiment, there is amniotic fluid between the placenta surface and the image sensor, and this amniotic fluid is a part that is hardly reflected in the ultrasonic image, so the processing start surface is set forward as necessary. It is possible to do. Of course, it is also possible to set the processing start surface behind.

次に、図5に示されるように、処理開始面72を基準としてそれに直交する方向として視線(レイ)群74が設定される。視線群74は複数の視線76により構成されるものである。本実施形態において複数の視線76は互いに平行であるが、非平行の関係をもって複数の視線76が設定されてもよい。例えば、観察原点58Aから放射状に複数の視線76が設定されるようにしてもよい。そして、各視線毎にレンダリングが演算実行され、すなわち各視線毎に画素値が決定される。それらの画素値を二次元平面上にマッピングすれば超音波画像を構成することが可能である。レンダリングの方法としては、積算投影法があげられ、特に望ましくはボリュームレンダリング法を適用するのが望ましい。本実施形態においては、胎盤の表層部分のみならず胎盤の内部についても超音波画像に反映されるようにレンダリング条件が定められている。   Next, as shown in FIG. 5, a line-of-sight (ray) group 74 is set as a direction orthogonal to the processing start surface 72 as a reference. The line-of-sight group 74 includes a plurality of lines of sight 76. In the present embodiment, the plurality of lines of sight 76 are parallel to each other, but the plurality of lines of sight 76 may be set in a non-parallel relationship. For example, a plurality of lines of sight 76 may be set radially from the observation origin 58A. Then, rendering is performed for each line of sight, that is, a pixel value is determined for each line of sight. By mapping these pixel values on a two-dimensional plane, an ultrasonic image can be constructed. An example of the rendering method is a cumulative projection method, and it is particularly desirable to apply the volume rendering method. In the present embodiment, rendering conditions are determined so that not only the surface layer portion of the placenta but also the inside of the placenta is reflected in the ultrasound image.

このようなレンダリング処理の結果として形成された超音波画像が図6に模式的に示されている。図6において波線の円84は内視鏡による視野範囲を表している。その範囲の周辺部が広く画像化されていることを理解できる。そこには血管群78が存在し、その血管群78は表層を走行している血管80と内部を走行している血管82とを含むものである。もちろん、レンダリング条件を変えることによりレンダリングする深さを自由に変更することが可能である。   An ultrasonic image formed as a result of such rendering processing is schematically shown in FIG. In FIG. 6, a wavy line circle 84 represents the field of view range by the endoscope. It can be understood that the periphery of the range is widely imaged. There is a blood vessel group 78, and the blood vessel group 78 includes a blood vessel 80 running on the surface layer and a blood vessel 82 running inside. Of course, it is possible to freely change the rendering depth by changing the rendering conditions.

以上のように、超音波画像が構成されると、その超音波画像と内視画像とが合成される訳であるが、本実施形態においては上述したように二つの画像間において相関演算が実行されている。すなわち二つの画像が空間的に位置整合するようにマッチング処理が実行されている。そのために、各画像が二値化処理される。   As described above, when an ultrasound image is configured, the ultrasound image and the endoscopic image are combined, but in this embodiment, correlation calculation is performed between the two images as described above. Has been. That is, the matching process is performed so that the two images are spatially aligned. For this purpose, each image is binarized.

図7の(A)には内視画像86が示されている。その画像は視野範囲に相当する円形の画像である。その内部には血管88が表れている。これに対して二値化処理が施され、それにより生成されたものが二値化画像90であり、それが図7の(B)に示されている。二値化処理にあたっては、血管部分に対して1(または0)が与えられ、それ以外の組織部分に対して0(または1)が与えられる。   In FIG. 7A, an endoscopic image 86 is shown. The image is a circular image corresponding to the visual field range. A blood vessel 88 appears inside thereof. A binarization process is performed on this, and a binarized image 90 generated thereby is shown in FIG. 7B. In the binarization process, 1 (or 0) is given to the blood vessel part, and 0 (or 1) is given to the other tissue parts.

一方、超音波画像に対しても二値化処理が施される。具体的には、図6に示した超音波画像76に対して血管と組織とを弁別する閾値を利用して二値化処理が施され、それにより生成されたものが図8に示す二値化画像96である。波線の円形84は内視画像の視野範囲を表している。本実施形態では、この図8に示した二値化画像96と図7の(B)に示した二値化画像90との間で、両者の位置関係を段階的に変化させながら相関演算が繰り返し実行され、最良の相関値が得られた時点をもって適正位置関係であると認定されている。そしてその適正位置関係にある二つの超音波画像(二値化前の画像)及び内視画像(二値化前の画像)が合成され、これにより合成画像が生成されている。その一例が図9に示されている。合成画像100は超音波画像76上に内視画像86を重合させてなる画像である。超音波画像76は本実施形態において白黒画像であり、内視画像86はカラー画像である。一般に光学像である内視画像86の方が鮮明であるため、合成画像100においては、注目している円形の領域内において、背景に対してくっきりと組織が浮かび上がった様子が顕在化することになる。内視鏡を移動させれば、視野範囲が移動することになるため、内視画像86の内容がリアルタイムに更新される。この場合、超音波画像76上において内視画像86の位置を変化させるようにしてもよいし、内視画像86の画面表示位置を固定した状態において、超音波画像76を移動させあるいはその内容を更新するようにしてもよい。イメージセンサと組織との間の距離を計測することにより、内視画像のサイズを距離に応じて動的に変化させるようにしてもよい。本実施形態においては、二つの画像間において不連続性あるいは歪みが生じていたとしても、内視画像86の周辺にある程度の確からしさをもって組織構造を表す画像を表示できるため、内視鏡の操作を支援でき、また患部の特定を容易にできるという利点がある。すなわち実際に注目しているのは内視画像86であり、その視野範囲を移動させれば鮮明な部位を移動させることができるのであり、周辺に存在する画像はあくまでも支援を行うものにすぎないため、二つの画像間において位置ずれ等が多少あったとしても従来に比べて利便性を向上することが可能である。   On the other hand, binarization processing is also performed on the ultrasonic image. Specifically, a binarization process is performed on the ultrasound image 76 shown in FIG. 6 using a threshold value for discriminating blood vessels and tissues, and the binary image shown in FIG. This is a converted image 96. A wavy line circle 84 represents the visual field range of the endoscopic image. In the present embodiment, correlation calculation is performed while the positional relationship between the binarized image 96 shown in FIG. 8 and the binarized image 90 shown in FIG. It is repeatedly executed, and it is recognized as an appropriate positional relationship when the best correlation value is obtained. Then, the two ultrasonic images (image before binarization) and the endoscopic image (image before binarization) that are in the proper positional relationship are synthesized, thereby generating a synthesized image. An example is shown in FIG. The composite image 100 is an image obtained by superimposing the endoscopic image 86 on the ultrasonic image 76. In this embodiment, the ultrasonic image 76 is a black and white image, and the endoscopic image 86 is a color image. Since the endoscopic image 86, which is an optical image, is generally clearer, in the synthesized image 100, a state in which the tissue clearly emerges with respect to the background in the circular area of interest is manifested. become. If the endoscope is moved, the visual field range is moved, so that the content of the endoscopic image 86 is updated in real time. In this case, the position of the endoscopic image 86 may be changed on the ultrasonic image 76, or the ultrasonic image 76 is moved or the content thereof is moved in a state where the screen display position of the endoscopic image 86 is fixed. You may make it update. The size of the endoscopic image may be dynamically changed according to the distance by measuring the distance between the image sensor and the tissue. In the present embodiment, even if discontinuity or distortion occurs between two images, an image representing a tissue structure can be displayed around the endoscopic image 86 with a certain degree of certainty. There is an advantage that it is possible to support, and the identification of the affected part can be facilitated. That is, what is actually focused on is the endoscopic image 86, and if the visual field range is moved, a clear part can be moved, and the image existing in the vicinity is only for assistance. Therefore, even if there is some misalignment between the two images, it is possible to improve convenience compared to the conventional case.

次に、図10及び図11を用いてシステムの動作例を説明する。図10には図11に示した超音波画像形成部32の動作例が示されており、図11には図1に示した画像合成部34の動作例が示されている。   Next, an example of the operation of the system will be described with reference to FIGS. FIG. 10 shows an operation example of the ultrasonic image forming unit 32 shown in FIG. 11, and FIG. 11 shows an operation example of the image composition unit 34 shown in FIG.

まず、図10を参照すると、S101では、図3に示したように、観察原点と基準方向とが演算される。この場合においては、内視装置に備えられた測位システムによる座標データが利用される。もちろん、内視鏡の観察方向あるいは観察原点が既知であれば測位システムを用いる必要はない。S102では、図4に示したように処理開始面が特定される。S103では、図5に示したように処理開始面から伸びる複数の視線が設定され、各視線(レイ)に沿ってレンダリング演算を行うことにより、部分ボリュームデータに対する処理が実行され、これにより部分ボリュームデータが反映されたレンダリング画像としての超音波画像が形成される。その超音波画像の一例については図6に示したとおりである。   First, referring to FIG. 10, in S101, the observation origin and the reference direction are calculated as shown in FIG. In this case, coordinate data obtained by a positioning system provided in the endoscope is used. Of course, if the observation direction or the observation origin of the endoscope is known, there is no need to use a positioning system. In S102, the processing start surface is specified as shown in FIG. In S103, as shown in FIG. 5, a plurality of lines of sight extending from the processing start surface are set, and by performing a rendering operation along each line of sight (ray), processing for the partial volume data is executed. An ultrasonic image is formed as a rendering image reflecting the data. An example of the ultrasonic image is as shown in FIG.

次に、図11を参照すると、S201では、内視装置により得られた内視画像が二値化処理され、これにより二値化内視画像が生成される。同様に、S202では、超音波画像が二値化処理され、これにより二値化超音波画像が生成される。S203では、超音波二値化画像の基準軸点に内視二値化画像の中心を一致させつつ、両者が仮に合成される。ここで、基準軸点は、超音波画像における基準軸に相当する点であり、その点に内視二値化画像の中心点を一致させることにより、三次元空間内において二つの画像を概ね整合させることが可能である。その初期状態を基準として、以下のように相関演算における探索幅が設定されることになる。   Next, referring to FIG. 11, in S201, the endoscopic image obtained by the endoscopic device is binarized, thereby generating a binarized endoscopic image. Similarly, in S202, the ultrasonic image is binarized, thereby generating a binarized ultrasonic image. In S203, both are temporarily combined while the center of the endoscopic binarized image matches the reference axis point of the ultrasonic binarized image. Here, the reference axis point is a point corresponding to the reference axis in the ultrasonic image, and by aligning the central point of the endoscopic binarized image with this point, the two images are roughly aligned in the three-dimensional space. It is possible to make it. Based on the initial state, the search width in the correlation calculation is set as follows.

S204〜S206では画像の縮尺率を変更させながら相関演算が実行される。具体的には、一方の画像(望ましくは内視二値化画像)を拡大または縮小させて、S205において二つの画像間において相関値が演算される。そして、S206において相関値が最大とみなされるまで、一方画像の縮尺率を変更させながらの相関演算が繰り返し実行される。S206において相関値が最大であると認定された場合、S207〜S209における平行移動をさせながらの相関値演算処理が実行される。   In S204 to S206, the correlation calculation is executed while changing the scale ratio of the image. Specifically, one image (preferably an endoscopic binarized image) is enlarged or reduced, and a correlation value is calculated between the two images in S205. Then, until the correlation value is regarded as the maximum in S206, the correlation calculation while changing the scale ratio of the one image is repeatedly executed. When it is determined in S206 that the correlation value is the maximum, correlation value calculation processing is performed while performing parallel movement in S207 to S209.

具体的には、S207において、一方画像を上下あるいは左右の方向に平行移動させる処理が実行されて、S208において、その平行移動後における状態において相関値が演算される。そして、平行移動を繰り返しながら、S209において相関値が最大とみなされるまで相関値演算が繰り返し実行される。S209において相関値が最大であると判断された場合でも、S210〜S212の工程が実行される。具体的には、S210において一方画像を回転させて、S211において相関値が演算される。この処理がS212において相関値最大であると判断されるまで繰り返し実行される。S212において相関値が最大であると判断された場合、S213が実行される。   Specifically, in S207, one image is translated in the vertical and horizontal directions, and in S208, a correlation value is calculated in the state after the translation. Then, while repeating the parallel movement, the correlation value calculation is repeatedly executed until the correlation value is regarded as the maximum in S209. Even if it is determined in S209 that the correlation value is the maximum, the processes of S210 to S212 are executed. Specifically, one image is rotated in S210, and a correlation value is calculated in S211. This process is repeatedly executed until it is determined in S212 that the correlation value is maximum. If it is determined in S212 that the correlation value is maximum, S213 is executed.

S213では、今までの推移から相関値が飽和しているか否かが判断されても、飽和していなければS204以降の各工程が繰り返し実行される。すなわち、条件の組み合わせを変更させながら相関値が飽和するまで二つの画像の最良マッチング状態が探索されることになる。S213において相関値が飽和したと判断された場合、S214において超音波画像と内視画像とが合成され、それが画面上に表示されることになる。図11においては、拡大縮小処理、平行移動処理、回転処理の三つの変化が含まれていたら、そのうちの一つまたは二つを実施するようにしてもよい。ただし、特に拡大縮小処理を含めることにより、イメージセンサ等を対象物表面との間における距離が不知であったとしても二つの画像の縮尺を整合させて違和感のない合成画像を構築できるという利点がある。   In S213, even if it is determined whether the correlation value is saturated or not from the transition so far, if it is not saturated, each step after S204 is repeatedly executed. That is, the best matching state of the two images is searched until the correlation value is saturated while changing the combination of conditions. When it is determined that the correlation value is saturated in S213, the ultrasonic image and the endoscopic image are combined and displayed on the screen in S214. In FIG. 11, if three changes of enlargement / reduction processing, parallel movement processing, and rotation processing are included, one or two of them may be implemented. However, by including the enlargement / reduction processing in particular, even if the distance between the image sensor and the object surface is unknown, there is an advantage that the scale of the two images can be matched to construct a composite image without a sense of incongruity. is there.

本実施形態においては、立体的な領域が画像化された超音波画像を利用しているため、組織内部を走行する血管を表示することが可能であり、これにより手術器具を利用して血管の処置を行うような場合においてもその安全性を高められるという利点がある。   In the present embodiment, since an ultrasonic image in which a three-dimensional region is imaged is used, it is possible to display blood vessels that run inside the tissue, thereby using a surgical instrument. There is an advantage that the safety can be improved even in the case where treatment is performed.

本発明に係る医療画像処理システムの好適な実施形態を示すブロック図である。1 is a block diagram showing a preferred embodiment of a medical image processing system according to the present invention. 三次元空間を示す概念図である。It is a conceptual diagram which shows a three-dimensional space. 観察原点及び基準方向の設定を説明するための図である。It is a figure for demonstrating the setting of an observation origin and a reference direction. 処理開始面の設定を説明するための図である。It is a figure for demonstrating the setting of a process start surface. 複数の視線の設定を説明するための図である。It is a figure for demonstrating the setting of several eyes | visual_axis. 超音波画像の一例を示す図である。It is a figure which shows an example of an ultrasonic image. 内視画像に対する二値化処理を説明するための図である。It is a figure for demonstrating the binarization process with respect to an endoscopic image. 二値化処理された超音波画像を示す図である。It is a figure which shows the ultrasonic image by which the binarization process was carried out. 合成画像の一例を示す図である。It is a figure which shows an example of a synthesized image. 図1に示した超音波画像形成部の処理内容を示すフローチャートである。3 is a flowchart illustrating processing contents of an ultrasonic image forming unit illustrated in FIG. 1. 図1に示した画像合成部の内容を示すフローチャートである。It is a flowchart which shows the content of the image synthetic | combination part shown in FIG.

符号の説明Explanation of symbols

10 超音波診断装置、12 内視装置、14 プローブ、18 測位システム、32 超音波画像形成部、34 画像合成部、42 内視鏡、44 イメージセンサ、45 内視装置本体、47 内視画像形成部、48 測位システム。   DESCRIPTION OF SYMBOLS 10 Ultrasonic diagnostic apparatus, 12 Endoscopic apparatus, 14 Probe, 18 Positioning system, 32 Ultrasonic image forming part, 34 Image composition part, 42 Endoscope, 44 Image sensor, 45 Endoscopic apparatus main body, 47 Endoscopic image formation Department, 48 positioning system.

Claims (14)

前方に存在する視野内の局所組織を観察するためのセンサが備えられた内視部と、
前記センサからの信号に基づいて内視画像を形成する内視画像形成部と、
前記局所組織を含む三次元空間に対して超音波の送受波を行ってボリュームデータを取得する超音波プローブと、
前記ボリュームデータに基づいて、前記センサの前方に存在する広域組織を表す超音波画像を形成する超音波画像形成部と、
前記広域組織を表す超音波画像と前記局所組織を表す内視画像とを相互に位置合わせしつつ合成して合成画像を形成する画像合成部と、
を含むことを特徴とする医療画像処理システム。
An endoscopic portion provided with a sensor for observing a local tissue in a visual field existing in front;
An endoscopic image forming unit that forms an endoscopic image based on a signal from the sensor;
An ultrasonic probe for acquiring volume data by transmitting and receiving ultrasonic waves to and from a three-dimensional space including the local tissue;
An ultrasonic image forming unit that forms an ultrasonic image representing a wide-area tissue existing in front of the sensor based on the volume data;
An image composition unit that forms a composite image by combining the ultrasonic image representing the wide-area tissue and the endoscopic image representing the local tissue while aligning each other;
A medical image processing system comprising:
請求項1記載のシステムにおいて、
前記画像合成部は、前記超音波画像における一部分に前記内視画像を重合し又ははめ込むことにより前記合成画像を形成し、
前記合成画像は、前記内視部と前記超音波プローブとの相対的な位置関係の変更に伴ってリアルタイムで更新される、ことを特徴とする医療画像処理システム。
The system of claim 1, wherein
The image composition unit forms the composite image by superimposing or fitting the endoscopic image on a part of the ultrasonic image,
The medical image processing system, wherein the composite image is updated in real time as the relative positional relationship between the endoscopic unit and the ultrasonic probe is changed.
請求項1又は2記載のシステムにおいて、
前記超音波画像形成部は、
前記センサにおける観察原点及びそこから前方への視野方向を特定する特定手段と、
前記ボリュームデータを処理する手段であって、前記観察原点に基づいて前記視野方向に交差する処理開始面を特定し、その処理開始面よりも前方に存在する部分ボリュームデータを処理することにより前記超音波画像を形成する部分ボリュームデータ処理手段と、
を含むことを特徴とする医療画像処理システム。
The system according to claim 1 or 2,
The ultrasonic image forming unit includes:
A specifying means for specifying an observation origin in the sensor and a visual field direction forward therefrom;
A means for processing the volume data, wherein a processing start surface that intersects the visual field direction is identified based on the observation origin, and the partial volume data that exists in front of the processing start surface is processed to process the volume data; Partial volume data processing means for forming a sonic image;
A medical image processing system comprising:
請求項3記載のシステムにおいて、
前記部分ボリュームデータ処理手段は、前記処理開始面から前方側に伸びる複数の視線を設定し、前記各視線上においてレンダリング演算を行う、ことを特徴とする医療画像処理システム。
The system of claim 3, wherein
The medical data processing system, wherein the partial volume data processing unit sets a plurality of lines of sight extending forward from the processing start surface and performs a rendering operation on each line of sight.
請求項4記載のシステムにおいて、
前記超音波画像は、前記センサの前方に存在する広域組織の表面上を走行する表面血管及び当該広域組織の内部を走行する内部血管の両者を表現し得る画像である、ことを特徴とする医療画像処理システム。
The system of claim 4, wherein
The ultrasonic image is an image that can represent both a surface blood vessel that runs on the surface of a wide-area tissue existing in front of the sensor and an internal blood vessel that runs inside the wide-area tissue. Image processing system.
請求項3記載のシステムにおいて、
前記内視部及び前記超音波プローブの位置関係を特定する位置情報を取得する手段を含み、
前記観察原点及び前記視野方向は前記位置情報に基づいて特定される、
ことを特徴とする医療画像処理システム。
The system of claim 3, wherein
Means for acquiring position information for specifying a positional relationship between the endoscopic unit and the ultrasonic probe;
The observation origin and the visual field direction are specified based on the position information.
A medical image processing system characterized by that.
請求項6記載のシステムにおいて、
前記位置情報を取得する手段は、
前記超音波プローブの位置を計測する第1位置検出ユニットと、
前記内視部の位置を計測する第2位置検出ユニットと、
を含むことを特徴とする医療画像処理システム。
The system of claim 6, wherein
The means for acquiring the position information includes:
A first position detection unit for measuring the position of the ultrasonic probe;
A second position detection unit for measuring the position of the endoscopic part;
A medical image processing system comprising:
請求項1記載のシステムにおいて、
前記画像合成部は、前記超音波画像を背景としてその一部分に前記内視画像を半透明にして重合する、ことを特徴とする医療画像処理システム。
The system of claim 1, wherein
The medical image processing system, wherein the image synthesizing unit superimposes the endoscopic image on a part of the ultrasonic image as a background to make it translucent.
請求項1乃至8のいずれか1項に記載のシステムにおいて、
前記超音波画像は単色画像であり、
前記内視画像はカラー画像である、ことを特徴とする医療画像処理システム。
The system according to any one of claims 1 to 8,
The ultrasound image is a monochromatic image;
The medical image processing system, wherein the endoscopic image is a color image.
請求項1乃至9のいずれか1項に記載のシステムにおいて、
前記画像合成部は、前記内視画像と前記超音波画像との間で相対的な位置関係を逐次的に変化させつつ相関演算を繰り返すことにより、前記内視画像と前記超音波画像との適正位置関係を探索する、ことを特徴とする医療画像処理システム。
The system according to any one of claims 1 to 9,
The image synthesizing unit repeats the correlation calculation while sequentially changing the relative positional relationship between the endoscopic image and the ultrasonic image, thereby appropriately adjusting the endoscopic image and the ultrasonic image. A medical image processing system characterized by searching for a positional relationship.
請求項10記載のシステムにおいて、
前記画像合成部は、
前記内視画像に対して二値化処理を適用し、二値化内視画像を形成する手段と、
前記超音波画像に対して二値化処理を適用し、二値化超音波画像を形成する手段と、
前記二値化内視画像と前記二値化超音波画像との間で相対的な位置関係を逐次的に変化させながら相関演算を実行する手段と、
前記相関演算の結果に基づいて前記適正位置関係を特定する手段と、
を含むことを特徴とする医療画像処理システム。
The system of claim 10, wherein
The image composition unit
Means for applying a binarization process to the endoscopic image to form a binarized endoscopic image;
Means for applying a binarization process to the ultrasonic image to form a binarized ultrasonic image;
Means for performing a correlation operation while sequentially changing a relative positional relationship between the binarized endoscopic image and the binarized ultrasonic image;
Means for identifying the appropriate positional relationship based on the result of the correlation calculation;
A medical image processing system comprising:
請求項11記載のシステムにおいて、
前記相対的な位置関係の逐次的変化においては、前記二値化内視画像と前記二値化超音波画像との間で、相対的縮尺率可変、相対的並行移動及び相対的回転移動の内の少なくとも1つが実行される、ことを特徴とする医療画像処理システム。
The system of claim 11, wherein
In the sequential change of the relative positional relationship, among the binarized endoscopic image and the binarized ultrasonic image, the relative scale ratio is variable, the relative parallel movement, and the relative rotational movement. A medical image processing system, wherein at least one of the following is executed.
請求項1乃至12のいずれか1項に記載のシステムにおいて、
観察の対象となる組織は胎盤であり、
前記内視画像には前記胎盤上を走行する血管の像が含まれ、
前記超音波画像には前記胎盤上を走行する血管の像及び前記胎盤内を走行する血管の像が含まれ、
前記内視画像及び前記超音波画像は、少なくとも前記内視部の移動に伴ってリアルタイムで更新され、
前記合成画像の観察下において前記内視部に差し込まれた手術器具が操作される、
ことを特徴とする医療画像処理システム。
The system according to any one of claims 1 to 12,
The tissue to be observed is the placenta,
The endoscopic image includes an image of blood vessels running on the placenta,
The ultrasound image includes an image of blood vessels that run on the placenta and an image of blood vessels that run in the placenta,
The endoscopic image and the ultrasound image are updated in real time at least with the movement of the endoscopic unit,
A surgical instrument inserted into the endoscopic part is operated under observation of the composite image.
A medical image processing system characterized by that.
前方に存在する視野内の局所組織を観察するためのセンサが備えられた内視部と、前記センサからの信号に基づいて内視画像を形成する内視画像形成部と、を備えた内視装置に接続される超音波診断装置であって、
前記局所組織を含む三次元空間に対して超音波の送受波を行ってボリュームデータを取得する超音波プローブと、
前記ボリュームデータに基づいて、前記センサの前方に存在する広域組織を表す超音波画像を形成する超音波画像形成部と、
前記広域組織を表す超音波画像と前記局所組織を表す内視画像とを相互に位置合わせしつつ合成して合成画像を形成する画像合成部と、
を含むことを特徴とする超音波診断装置。
An endoscope provided with an endoscopic unit provided with a sensor for observing a local tissue in a visual field existing in front and an endoscopic image forming unit configured to form an endoscopic image based on a signal from the sensor An ultrasonic diagnostic apparatus connected to the apparatus,
An ultrasonic probe for acquiring volume data by transmitting and receiving ultrasonic waves to and from a three-dimensional space including the local tissue;
An ultrasonic image forming unit that forms an ultrasonic image representing a wide-area tissue existing in front of the sensor based on the volume data;
An image composition unit that forms a composite image by combining the ultrasonic image representing the wide-area tissue and the endoscopic image representing the local tissue while aligning each other;
An ultrasonic diagnostic apparatus comprising:
JP2008262388A 2008-10-09 2008-10-09 Medical image processing system Pending JP2010088699A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008262388A JP2010088699A (en) 2008-10-09 2008-10-09 Medical image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008262388A JP2010088699A (en) 2008-10-09 2008-10-09 Medical image processing system

Publications (1)

Publication Number Publication Date
JP2010088699A true JP2010088699A (en) 2010-04-22

Family

ID=42252023

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008262388A Pending JP2010088699A (en) 2008-10-09 2008-10-09 Medical image processing system

Country Status (1)

Country Link
JP (1) JP2010088699A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012249757A (en) * 2011-06-01 2012-12-20 Olympus Corp Image processing device
CN102908158A (en) * 2011-08-02 2013-02-06 三星电子株式会社 Method and apparatus for processing medical image, and robotic surgery system using image guidance
KR20150117685A (en) * 2013-02-13 2015-10-20 지이 메디컬 시스템즈 글로발 테크놀러지 캄파니 엘엘씨 Ultrasound image displaying apparatus and method for displaying ultrasound image
JP2018000775A (en) * 2016-07-07 2018-01-11 東芝メディカルシステムズ株式会社 Ultrasonic diagnostic apparatus and medical image processor
WO2023083352A1 (en) * 2021-11-12 2023-05-19 北京智愈医疗科技有限公司 Multi-image information fusion method for tissue cutting path planning, system, medium, and electronic device
CN116650022A (en) * 2023-08-01 2023-08-29 湖南科迈森医疗科技有限公司 Method and system for assisting in positioning uterine focus by fusion of ultrasonic and endoscopic images

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10113333A (en) * 1996-10-15 1998-05-06 Hitachi Ltd Tomograph for endoscope-assisted operation
JP2002017729A (en) * 2000-07-11 2002-01-22 Toshiba Corp Endoscope ultrasonograph
JP2005278988A (en) * 2004-03-30 2005-10-13 Aloka Co Ltd Ultrasonic image processing apparatus
JP2007531553A (en) * 2003-10-21 2007-11-08 ザ ボード オブ トラスティーズ オブ ザ リーランド スタンフォード ジュニア ユニヴァーシティ Intraoperative targeting system and method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10113333A (en) * 1996-10-15 1998-05-06 Hitachi Ltd Tomograph for endoscope-assisted operation
JP2002017729A (en) * 2000-07-11 2002-01-22 Toshiba Corp Endoscope ultrasonograph
JP2007531553A (en) * 2003-10-21 2007-11-08 ザ ボード オブ トラスティーズ オブ ザ リーランド スタンフォード ジュニア ユニヴァーシティ Intraoperative targeting system and method
JP2005278988A (en) * 2004-03-30 2005-10-13 Aloka Co Ltd Ultrasonic image processing apparatus

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012249757A (en) * 2011-06-01 2012-12-20 Olympus Corp Image processing device
CN102908158A (en) * 2011-08-02 2013-02-06 三星电子株式会社 Method and apparatus for processing medical image, and robotic surgery system using image guidance
JP2013031660A (en) * 2011-08-02 2013-02-14 Samsung Electronics Co Ltd Method and apparatus for processing medical image, and robotic surgery system using image guidance
EP2554137A3 (en) * 2011-08-02 2015-04-29 Samsung Electronics Co., Ltd. Method and apparatus for processing medical image, and robotic surgery system using image guidance
KR20150117685A (en) * 2013-02-13 2015-10-20 지이 메디컬 시스템즈 글로발 테크놀러지 캄파니 엘엘씨 Ultrasound image displaying apparatus and method for displaying ultrasound image
KR102286299B1 (en) * 2013-02-13 2021-08-06 지이 메디컬 시스템즈 글로발 테크놀러지 캄파니 엘엘씨 Ultrasound image displaying apparatus and method for displaying ultrasound image
JP2018000775A (en) * 2016-07-07 2018-01-11 東芝メディカルシステムズ株式会社 Ultrasonic diagnostic apparatus and medical image processor
WO2023083352A1 (en) * 2021-11-12 2023-05-19 北京智愈医疗科技有限公司 Multi-image information fusion method for tissue cutting path planning, system, medium, and electronic device
CN116650022A (en) * 2023-08-01 2023-08-29 湖南科迈森医疗科技有限公司 Method and system for assisting in positioning uterine focus by fusion of ultrasonic and endoscopic images
CN116650022B (en) * 2023-08-01 2023-11-24 湖南科迈森医疗科技有限公司 Method and system for assisting in positioning uterine focus by fusion of ultrasonic and endoscopic images

Similar Documents

Publication Publication Date Title
JP5208495B2 (en) Medical system
US10127629B2 (en) System and method of providing real-time dynamic imagery of a medical procedure site using multiple modalities
CN106890025B (en) Minimally invasive surgery navigation system and navigation method
US7794388B2 (en) Method and apparatus for generating at least one section of a virtual 3D model of a body interior
JP4868959B2 (en) Body cavity probe device
US9173632B2 (en) Ultrasonic diagnosis system and image data display control program
JP6323335B2 (en) Image processing apparatus, image processing method, and program
US10456106B2 (en) Ultrasonic diagnostic apparatus, medical image processing apparatus, and medical image processing method
JP5161013B2 (en) Medical guide system
JP2007526066A (en) System for guiding medical instruments in a patient
JP2017500947A (en) System for automatic needle recalibration detection
JP2007136133A (en) System for presenting augmented reality
JP2018057428A (en) Ultrasonic diagnosis apparatus and ultrasonic diagnosis support program
JP2008220802A (en) Medical image diagnostic apparatus
JP2010088699A (en) Medical image processing system
JP5527841B2 (en) Medical image processing system
JP2009291295A (en) Medical image processor, ultrasonic diagnostic apparatus and ultrasonic image acquisition program
JP2017225700A (en) Observation support device and endoscope system
US20160367221A1 (en) Ultrasound diagnosis apparatus
US20120095341A1 (en) Ultrasonic image processing apparatus and ultrasonic image processing method
JP4869197B2 (en) Medical guide device
JP4869189B2 (en) Medical guide system
JP4343592B2 (en) Ultrasonic diagnostic equipment
JP6068017B2 (en) Ultrasonic diagnostic apparatus and image generation program
JP4700405B2 (en) Ultrasonic diagnostic equipment

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20100423

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20110511

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20110512

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121120

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130604

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130723

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131126