JP2011104079A - Medical image processing system - Google Patents

Medical image processing system Download PDF

Info

Publication number
JP2011104079A
JP2011104079A JP2009261696A JP2009261696A JP2011104079A JP 2011104079 A JP2011104079 A JP 2011104079A JP 2009261696 A JP2009261696 A JP 2009261696A JP 2009261696 A JP2009261696 A JP 2009261696A JP 2011104079 A JP2011104079 A JP 2011104079A
Authority
JP
Japan
Prior art keywords
image
ultrasonic
endoscope
endoscopic
processing system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009261696A
Other languages
Japanese (ja)
Other versions
JP5527841B2 (en
Inventor
Ichiro Sakuma
一郎 佐久間
Hongen Liao
洪恩 廖
Eiji Kasahara
英司 笠原
Takeshi Mochizuki
剛 望月
Toshio Chiba
敏雄 千葉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
National Center for Child Health and Development
University of Tokyo NUC
Original Assignee
National Center for Child Health and Development
University of Tokyo NUC
Aloka Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Center for Child Health and Development, University of Tokyo NUC, Aloka Co Ltd filed Critical National Center for Child Health and Development
Priority to JP2009261696A priority Critical patent/JP5527841B2/en
Publication of JP2011104079A publication Critical patent/JP2011104079A/en
Application granted granted Critical
Publication of JP5527841B2 publication Critical patent/JP5527841B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image supporting the positioning operation of an endoscope since the visual field range of a conventional endoscopic image is small, so that there is a desire to see peripheral tissues and since when generating a synthetic image by synthesizing the endoscopic image and an ultrasonic image, it is desired to position both of the images by a simple constitution. <P>SOLUTION: A medical image processing system is composed of an ultrasonograph 10 and an endoscopic apparatus 12. The endoscopic apparatus 12 forms the endoscopic image as a conventional one. The ultrasonograph 10 obtains volume data and identifies a plurality of high luminance points included in the data. The high luminance points express a plurality of spheres of reflection provided at the distal end of the endoscope 42. Since the three-dimensional position of the distal end can be identified from the high luminance points, the ultrasonic image as a projection image is formed from the volume data on the basis of the three-dimensional position. The endoscopic image which expressed a local area is superimposed on the ultrasonic image covering a wide area, and a synthetic image like this is displayed. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は医療画像処理システムに関し、特に、内視画像と超音波画像とを合成する機能を備えた医療画像処理システムに関する。   The present invention relates to a medical image processing system, and more particularly to a medical image processing system having a function of combining an endoscopic image and an ultrasonic image.

内視装置は、内視鏡を備える。内視鏡の先端部には前方に視野を有するCCD等の観察手段が設けられる。その他、先端部には発光器、手術具を突出させる開口等が存在する。一般に、観察手段の視野範囲は小さいため、内視画像を見ながら、目的組織を探し出すのは困難又は面倒である。例えば、双胎児間輸血症候群という疾病に対しては、子宮内に内視鏡を挿入して、内視鏡による画像観察下において、内視鏡内に挿入された手術具により、双胎児間における胎盤血流の吻合部を遮断する手術が行われる。その際、内視鏡のセンサによる視野は、例えば10〜20mm程度であるから、胎盤上の吻合部を内視画像だけから探索、特定するのは一般に困難であり、また時間を要するという問題がある。   The endoscope device includes an endoscope. An observation means such as a CCD having a visual field in front is provided at the distal end of the endoscope. In addition, a light emitting device, an opening for projecting the surgical tool, and the like exist at the tip. In general, since the visual field range of the observation means is small, it is difficult or troublesome to find the target tissue while viewing the endoscopic image. For example, for a disease called twin-to-female transfusion syndrome, an endoscope is inserted into the uterus, and the image is observed with the endoscope. Surgery is performed to block the placental blood flow anastomosis. At that time, since the field of view of the endoscope sensor is, for example, about 10 to 20 mm, it is generally difficult to search and specify the anastomosis portion on the placenta only from the endoscopic image, and it takes time. is there.

一方、近時、三次元超音波診断技術が実用化されつつある。この技術によれば、生体内の三次元領域に対して超音波の送受波を行ってボリュームデータを取得し、そのボリュームデータに基づいて、体内組織についての積算画像、ボリュームレンダリング画像等を形成できる。その技術を内視鏡を用いた診断や治療に役立てることが望まれている。   On the other hand, recently, three-dimensional ultrasonic diagnostic technology is being put into practical use. According to this technology, volume data is obtained by transmitting and receiving ultrasonic waves to and from a three-dimensional region in a living body, and an integrated image, a volume rendering image, and the like for a body tissue can be formed based on the volume data. . It is desired to make use of this technique for diagnosis and treatment using an endoscope.

特許文献1には、内視鏡(あるいは腹腔鏡)を用いた手術において、断層像撮影による支援を行うシステムが開示されている。同文献には断層像を得る装置の例として超音波診断装置が記載されている。そのシステムでは、内視鏡画像上において術者により着目点が指定されると、その着目点に対する内視鏡基準点の相対位置が求められ、一方、内視鏡基準点の絶対位置が求められ、その相対位置と絶対位置とから着目点の絶対位置が求められている。特許文献1に記載された装置は、内視鏡の観察対象について断層撮影位置を演算するものでしかない。   Patent Document 1 discloses a system for assisting by tomographic imaging in an operation using an endoscope (or laparoscope). This document describes an ultrasonic diagnostic apparatus as an example of an apparatus for obtaining a tomographic image. In the system, when a point of interest is specified by an operator on an endoscopic image, the relative position of the endoscope reference point with respect to the point of interest is obtained, while the absolute position of the endoscope reference point is obtained. The absolute position of the target point is obtained from the relative position and the absolute position. The apparatus described in Patent Document 1 only calculates a tomographic position for an observation target of an endoscope.

特許文献2には、超音波内視鏡装置が記載されている。この装置では、内視鏡による画像と、超音波診断による画像とを対応付けで表示するものであり、その対応付けに際して相互相関演算が利用されている。この装置において、内視鏡にはCCDカメラと超音波振動子とが併設され、三次元の超音波データは内視鏡を手前に引き抜く手動走査によって取得されている。この装置は、内視鏡による三次元表面形状データと超音波診断による三次元表面形状データとを空間的に対応付けるものに過ぎず、内視鏡の位置決めのための支援画像を提供するものではない。   Patent Document 2 describes an ultrasonic endoscope apparatus. In this apparatus, an image obtained by an endoscope and an image obtained by ultrasonic diagnosis are displayed in association with each other, and a cross-correlation calculation is used for the association. In this apparatus, the endoscope is provided with a CCD camera and an ultrasonic transducer, and three-dimensional ultrasonic data is acquired by manual scanning by pulling the endoscope forward. This apparatus merely spatially associates the three-dimensional surface shape data obtained by the endoscope with the three-dimensional surface shape data obtained by the ultrasonic diagnosis, and does not provide a support image for positioning the endoscope. .

特開平10−113333号公報Japanese Patent Laid-Open No. 10-113333 特開2004−358096号公報JP 2004-358096 A

以上のように、視野の狭い内視画像だけから対象部位を特定するのは困難であるため、そのような視野の狭い内視画像と視野の広い超音波画像とを合成し、その合成画像を内視鏡位置決め用の支援画像として術者に提供することが望まれる。ところが、内視鏡装置と超音波診断装置は通常、別体に構成されているので、両者の座標系は互いに独立している。内視画像と超音波画像とを位置合わせして合成するために、それぞれの装置に大掛かりな測位手段を付加すると、システム全体の構成が複雑化してしまう。簡易な構成で上記の操作支援画像を形成することが望まれる。   As described above, since it is difficult to specify a target region only from an endoscopic image with a narrow field of view, such an endoscopic image with a narrow field of view and an ultrasonic image with a wide field of view are synthesized, and the synthesized image is obtained. It is desired to provide the surgeon with a support image for positioning the endoscope. However, since the endoscope apparatus and the ultrasonic diagnostic apparatus are usually configured separately, their coordinate systems are independent of each other. If a large positioning means is added to each device in order to align and synthesize an endoscopic image and an ultrasonic image, the configuration of the entire system becomes complicated. It is desired to form the operation support image with a simple configuration.

本発明の目的は、内視鏡の位置決め操作を支援する画像を提供することにある。   An object of the present invention is to provide an image that supports an endoscope positioning operation.

本発明の他の目的は、簡易な構成で、内視鏡の位置決め操作を支援する画像を生成できるようにすることにある。   Another object of the present invention is to enable generation of an image that supports an endoscope positioning operation with a simple configuration.

本発明に係るシステムは、超音波反射体を備えた先端部を有し、体内に挿入される内視鏡と、前記内視鏡の先端部を含む三次元空間に対して超音波を送受波する超音波プローブと、前記三次元空間に対する超音波の送受波により得られたボリュームデータに含まれる超音波反射体固有エコーに基づいて前記先端部についての三次元座標情報を演算する座標演算手段と、前記三次元座標情報に基づいて、前記ボリュームデータを用いて超音波画像を形成する超音波画像形成手段と、前記超音波画像と前記内視鏡を用いて取得される内視画像とを合成することにより合成画像を生成する画像合成手段と、を含むことを特徴とするものである。   The system according to the present invention has a distal end portion including an ultrasonic reflector, and transmits and receives ultrasonic waves to and from an endoscope inserted into the body and a three-dimensional space including the distal end portion of the endoscope. An ultrasonic probe, and coordinate calculation means for calculating three-dimensional coordinate information about the tip based on an ultrasonic reflector specific echo included in volume data obtained by transmitting and receiving ultrasonic waves to and from the three-dimensional space; Based on the three-dimensional coordinate information, an ultrasonic image forming unit that forms an ultrasonic image using the volume data, and the ultrasonic image and an endoscopic image acquired using the endoscope are combined. And an image composition means for generating a composite image.

上記構成によれば、内視鏡の先端部に超音波反射体が設けられているので、当該先端部が超音波プローブによって形成される三次元空間(三次元エコーデータ取込空)に差し込まれると、超音波反射体からの反射波が固有エコーとして観測されることになる。すなわち、体内組織や内視鏡本体との識別が可能なように、あるいは、それ自身をエコー信号上識別できるような条件の下で、超音波反射体が内視鏡における既知の箇所に予め設けられる。超音波反射体固有エコーを識別できれば、超音波送受波座標系における先端部の位置を容易に特定できる。つまり、三次元座標情報を求めることが可能となる。それは望ましくは相対座標情報であり、つまり、ボリュームデータに対する先端部の相対的な位置を表すものである。よって、超音波プローブの位置や姿勢を計測する必要がなくなるし、内視鏡の位置や姿勢を計測する必要もなくなる。これによりシステム構成を大幅に簡略化できる。合成画像は、超音波画像と内視画像(光学像)とを合成したものである。その合成は望ましくはリアルタイムで実行される。内視画像だけでは広いエリアを観察できずに患部を特定することが難しかったが、高域超音波画像が背景画像として表示されるので、それを観察することによって患部の特定が容易化される。内視鏡あるいは手術器具の操作を支援する画像を提供できるので、診断治療の安全性を高められ、また使用者の負担を大幅に軽減できる。   According to the above configuration, since the ultrasonic reflector is provided at the distal end portion of the endoscope, the distal end portion is inserted into a three-dimensional space (three-dimensional echo data capturing sky) formed by the ultrasonic probe. Then, the reflected wave from the ultrasonic reflector is observed as a specific echo. In other words, an ultrasonic reflector is provided in advance in a known part of the endoscope so that it can be distinguished from the body tissue and the endoscope body, or under the condition that it can be identified by an echo signal. It is done. If the ultrasonic reflector specific echo can be identified, the position of the tip in the ultrasonic transmission / reception coordinate system can be easily specified. That is, three-dimensional coordinate information can be obtained. It is preferably relative coordinate information, that is, the relative position of the tip with respect to the volume data. Therefore, it is not necessary to measure the position and posture of the ultrasonic probe, and it is not necessary to measure the position and posture of the endoscope. As a result, the system configuration can be greatly simplified. The composite image is a composite of an ultrasonic image and an endoscopic image (optical image). The synthesis is preferably performed in real time. Although it was difficult to identify the affected area without observing a wide area with the endoscopic image alone, the high-frequency ultrasound image is displayed as a background image, so it is easier to identify the affected area by observing it. . Since an image supporting the operation of the endoscope or the surgical instrument can be provided, the safety of the diagnostic treatment can be improved and the burden on the user can be greatly reduced.

望ましくは、前記超音波反射体は前記先端部に設けられた複数の反射要素により構成される。複数の反射要素(特に3つ以上の相互に離間した反射要素)を利用すれば先端部の位置及び姿勢の両者を特定可能である。望ましくは、前記複数の反射要素は前記先端部の中心軸の周りの環状経路上に設けられ、それらが反射要素列を構成する。この構成によれば一部の反射要素が内視鏡の本体に隠れてしまっても残りの反射要素を特定可能となる。望ましくは、前記反射要素列は6個以上の反射球により構成される。この構成によれば、基本的に、先端部の位置及び姿勢によらずに、基本的に常に3つ以上の反射球を観測することが可能となる。内視鏡本体の表面から各反射球(強反射要素)が突出しているのが望ましいが、組織や案内用筒部材との接触が問題となるのであれば、各反射球を埋め込むことも可能である。球体を利用すればいずれの方向から超音波が到来しても確実に反射波を得られる。なお、内視鏡の外表面に超音波吸収層を設けて各反射球がより顕著に観測されるようにしてもよい。   Preferably, the ultrasonic reflector is composed of a plurality of reflecting elements provided at the tip. By using a plurality of reflective elements (particularly, three or more reflective elements spaced apart from each other), it is possible to specify both the position and the posture of the tip portion. Preferably, the plurality of reflective elements are provided on an annular path around the central axis of the tip, and constitute a reflective element array. According to this configuration, even if some of the reflective elements are hidden behind the endoscope body, the remaining reflective elements can be specified. Preferably, the reflective element array is composed of six or more reflective spheres. According to this configuration, basically, three or more reflecting spheres can be basically observed regardless of the position and posture of the tip. It is desirable that each reflecting sphere (strongly reflecting element) protrudes from the surface of the endoscope body. However, if contact with tissue or a guide cylinder member becomes a problem, each reflecting sphere can be embedded. is there. If a sphere is used, a reflected wave can be reliably obtained no matter which direction the ultrasonic wave arrives. Note that an ultrasonic absorption layer may be provided on the outer surface of the endoscope so that each reflecting sphere can be observed more prominently.

望ましくは、前記座標演算手段は、前記ボリュームデータの中から、前記超音波反射体固有エコーとして、複数の反射要素固有エコーを抽出する抽出手段と、前記複数の反射要素固有エコーについての複数の三次元位置に基づいて、前記三次元座標情報を演算する解析手段と、を含む。強反射体からのエコーは高輝度エコーとなり、ボリュームデータ内において組織等からのエコーとは容易に識別可能なものである。   Preferably, the coordinate calculation means includes extraction means for extracting a plurality of reflection element specific echoes as the ultrasonic reflector specific echoes from the volume data, and a plurality of cubics for the plurality of reflection element specific echoes. Analyzing means for calculating the three-dimensional coordinate information based on the original position. The echo from the strong reflector is a high-intensity echo and can be easily distinguished from the tissue or the like in the volume data.

望ましくは、前記抽出手段は、前記ボリュームデータの中から複数の高輝度エコーを抽出する高輝度エコー抽出手段と、前記複数の高輝度エコーについての相互の位置関係に基づいて、前記各高輝度エコーが反射要素固有エコーであるか否かを識別する反射要素固有エコー抽出手段と、を含む。高輝度ノイズを除外するために、高輝度エコー間の距離を参照するのが望ましい。すなわち、一定距離以上離れた高輝度エコーをノイズとして判定可能である。ここで、その距離は三次元空間内で定義されるものである。   Preferably, the extraction means includes a high-intensity echo extraction means for extracting a plurality of high-intensity echoes from the volume data, and the high-intensity echoes based on a mutual positional relationship between the plurality of high-intensity echoes. Reflection element specific echo extraction means for identifying whether or not is a reflection element specific echo. In order to exclude high luminance noise, it is desirable to refer to the distance between high luminance echoes. That is, it is possible to determine a high-intensity echo separated by a certain distance or more as noise. Here, the distance is defined in a three-dimensional space.

望ましくは、前記高輝度エコー抽出手段は、判別閾値を段階的に引き下げつつ前記ボリュームデータを構成する各ボクセルデータと前記判別閾値とを比較することにより前記複数の高輝度エコーを抽出する。このような処理により、状況に応じて、3つ以上の高輝度エコーを容易に特定することが可能となる。   Preferably, the high-intensity echo extraction unit extracts the plurality of high-intensity echoes by comparing each determination value with each voxel data constituting the volume data while gradually decreasing the determination threshold value. Such processing makes it possible to easily specify three or more high-intensity echoes depending on the situation.

望ましくは、前記反射要素固有エコー抽出手段は、高輝度エコー相互間距離に基づいて反射要素固有エコーを識別する。望ましくは、前記反射要素固有エコー抽出手段は、前記高輝度エコー相互間距離が上限値と下限値との間に含まれる条件を満たした3つ以上の反射要素固有エコーを抽出する。   Preferably, the reflection element specific echo extraction means identifies the reflection element specific echo based on a distance between high-intensity echoes. Preferably, the reflection element specific echo extraction unit extracts three or more reflection element specific echoes that satisfy a condition in which the distance between the high-intensity echoes is included between an upper limit value and a lower limit value.

本発明に係るシステムは、強反射体としての超音波反射体及び内視手段を備えた先端部を有し、体内に挿入される内視鏡と、前記内視鏡を用いて取得される信号に基づいて内視画像を形成する内視画像形成手段と、体外に設けられ、前記内視鏡の先端部を含む三次元空間に対して超音波を送受波する超音波プローブと、前記三次元空間に対する超音波の送受波により得られたボリュームデータに含まれる超音波反射体固有エコーに基づいて、前記先端部についての三次元座標情報を演算する座標演算手段と、前記三次元座標情報に基づいて、前記ボリュームデータを用いて超音波画像を形成する手段であって、当該超音波画像として前記内視画像の視野域をカバーする投影画像を形成する超音波画像形成手段と、前記超音波画像と前記内視画像とを合成することにより合成画像を生成する画像合成手段と、前記合成画像を前記内視鏡を操作する者に対して提供する表示手段と、を含むことを特徴とするものである。   The system which concerns on this invention has the front-end | tip part provided with the ultrasonic reflector as a strong reflector, and an endoscopic means, the endoscope inserted in a body, and the signal acquired using the said endoscope An endoscopic image forming means for forming an endoscopic image based on the ultrasonic probe, an ultrasonic probe that is provided outside the body and transmits / receives ultrasonic waves to / from a three-dimensional space including the distal end of the endoscope, and the three-dimensional Coordinate calculation means for calculating three-dimensional coordinate information about the tip based on an ultrasonic reflector specific echo contained in volume data obtained by transmitting and receiving ultrasonic waves to and from space, and based on the three-dimensional coordinate information Means for forming an ultrasound image using the volume data, the ultrasound image forming means for forming a projection image covering the field of view of the endoscopic image as the ultrasound image, and the ultrasound image And the endoscopy Is characterized in that comprises an image synthesizing means for generating a composite image by synthesizing the door, and a display means for providing the composite image to a person operating the endoscope.

望ましくは、前記超音波画像形成手段は、前記ボリュームデータに対して前記内視手段の視野をカバーする視線群を設定する手段と、前記視線群を構成する各視線に沿って前記先端部側からその前方へレンダリングを実行することにより前記各視線ごとに画素値を演算し、これにより前記超音波画像を形成する手段と、を含む。レンダリング方法としてボリュームレンダリング法や積算投影法などがあげられる。エコーレベルを輝度に対応させた画像を形成するようにしてもよいし、ドプラ情報に基づく画像を形成するようにしてもよい。   Preferably, the ultrasonic image forming unit is configured to set a line-of-sight group that covers the visual field of the endoscopic unit with respect to the volume data, and from the distal end side along each line of sight constituting the line-of-sight group. Means for calculating a pixel value for each line of sight by executing rendering in front thereof, thereby forming the ultrasonic image. Examples of rendering methods include volume rendering and cumulative projection. An image in which the echo level corresponds to the luminance may be formed, or an image based on Doppler information may be formed.

望ましくは、前記画像合成手段は、広域画像としての前記超音波画像上に狭域画像としての内視画像を重合することにより前記合成画像を生成する。望ましくは、前記内視鏡は、双胎児間輸血症候群の治療のために子宮内に挿入される器具であってレーザー出射機能を備えた治療用器具である。   Desirably, the said image composition means produces | generates the said synthesized image by superimposing the endoscopic image as a narrow area image on the said ultrasonic image as a wide area image. Preferably, the endoscope is a therapeutic instrument that is inserted into the uterus for the treatment of a twin-to-twin transfusion syndrome and has a laser emission function.

本発明によれば、内視鏡の位置決め操作を支援する画像を提供できる。あるいは、簡易な構成で、内視鏡の位置決め操作を支援する画像を生成できる。   ADVANTAGE OF THE INVENTION According to this invention, the image which assists positioning operation of an endoscope can be provided. Alternatively, an image that supports the positioning operation of the endoscope can be generated with a simple configuration.

本発明に係る医療画像処理システムの好適な実施形態を示すブロック図である。1 is a block diagram showing a preferred embodiment of a medical image processing system according to the present invention. 三次元空間(実空間)を示す概念図である。It is a conceptual diagram which shows a three-dimensional space (real space). 観察原点及び基準方向の設定を説明するための図である。It is a figure for demonstrating the setting of an observation origin and a reference direction. 処理開始面の設定を説明するための図である。It is a figure for demonstrating the setting of a process start surface. 複数の視線の設定を説明するための図である。It is a figure for demonstrating the setting of several eyes | visual_axis. 超音波画像の一例を示す図である。It is a figure which shows an example of an ultrasonic image. 内視画像に対する二値化処理を説明するための図である。It is a figure for demonstrating the binarization process with respect to an endoscopic image. 二値化処理された超音波画像を示す図である。It is a figure which shows the ultrasonic image by which the binarization process was carried out. 合成画像(内視鏡操作支援画像)の一例を示す図である。It is a figure which shows an example of a synthesized image (endoscope operation assistance image). 図1に示した超音波画像形成部の処理内容を示すフローチャートである。3 is a flowchart illustrating processing contents of an ultrasonic image forming unit illustrated in FIG. 1. 図1に示した画像合成部の内容を示すフローチャートである。It is a flowchart which shows the content of the image synthetic | combination part shown in FIG. 内視鏡の先端部(特に強反射体列)を示す正面図である。It is a front view which shows the front-end | tip part (especially strong reflector row | line | column) of an endoscope. 内視鏡の先端部(特に強反射体列)を示す斜視図である。It is a perspective view which shows the front-end | tip part (especially strong reflector row | line | column) of an endoscope. しきい値を段階的に変化させながら高輝度点抽出処理を行った結果を示す概念図である。It is a conceptual diagram which shows the result of having performed the high-intensity point extraction process, changing a threshold value in steps. 観察原点を求めるための3つの高輝度点を抽出する処理を示すフローチャートである。It is a flowchart which shows the process which extracts three high-intensity points for calculating | requiring an observation origin. 高輝度点とノイズの弁別条件を説明するための図である。It is a figure for demonstrating the discrimination condition of a high-intensity point and noise. 中心点(観察原点)の演算方法を説明するための図である。It is a figure for demonstrating the calculation method of a center point (observation origin).

以下、本発明の好適な実施形態を図面に基づいて説明する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described with reference to the drawings.

(1)システム全体の説明
図1には、本発明に係る医療画像処理システムの好適な実施形態が示されており、図1はその全体構成を示すブロック図である。図1に示されるシステムは、内視鏡による治療と超音波診断とを組み合わせたシステムであり、本実施形態において対象となる組織は子宮中の胎盤である。もちろん、他の組織に対して本発明に係るシステムを用いることも可能である。
(1) Description of Overall System FIG. 1 shows a preferred embodiment of a medical image processing system according to the present invention, and FIG. 1 is a block diagram showing the overall configuration thereof. The system shown in FIG. 1 is a system that combines endoscopic treatment and ultrasound diagnosis, and the target tissue in this embodiment is the placenta in the uterus. Of course, the system according to the present invention can be used for other tissues.

図1において、本実施形態に係るシステムは、大別して、超音波診断装置10と内視装置12とで構成される。ただし、画像処理機能を外部コンピュータ等に委ねることも可能であり、その場合には、本システムが、超音波診断装置、内視装置及びコンピュータによって構成される。本実施形態に係るシステムの実現に当たっては多様な構成が考えられる。   In FIG. 1, the system according to the present embodiment is roughly composed of an ultrasonic diagnostic apparatus 10 and an endoscopic apparatus 12. However, it is also possible to entrust the image processing function to an external computer or the like. In this case, the present system is configured by an ultrasonic diagnostic apparatus, an endoscopic apparatus, and a computer. Various configurations are conceivable for realizing the system according to the present embodiment.

超音波診断装置10について説明する。プローブ14は、超音波を送受波する送受波器であり、本実施形態においては生体内の三次元空間に対して超音波の送受波を行う3Dプローブが用いられている。プローブ14は、具体的には、プローブヘッド、プローブケーブル及びプローブコネクタ等からなるものである。プローブヘッド内にはアレイ振動子16が設けられている。このアレイ振動子16は本実施形態において2Dアレイ振動子であり、その2Dアレイ振動子16により超音波ビームが形成され、その超音波ビームが二次元走査されて三次元のデータ取込空間が形成される。その三次元空間内からボリュームデータが取得される。もちろん、1Dアレイ振動子を機械的に走査することにより三次元空間を形成するようにしてもよい。   The ultrasonic diagnostic apparatus 10 will be described. The probe 14 is a transmitter / receiver that transmits / receives an ultrasonic wave. In this embodiment, a 3D probe that transmits / receives an ultrasonic wave to / from a three-dimensional space in a living body is used. Specifically, the probe 14 includes a probe head, a probe cable, a probe connector, and the like. An array transducer 16 is provided in the probe head. The array transducer 16 is a 2D array transducer in the present embodiment, and an ultrasonic beam is formed by the 2D array transducer 16, and the ultrasonic beam is two-dimensionally scanned to form a three-dimensional data capture space. Is done. Volume data is acquired from within the three-dimensional space. Of course, a three-dimensional space may be formed by mechanically scanning the 1D array transducer.

送受信部26は、送信部としての送信ビームフォーマーおよび受信部としての受信ビームフォーマーからなるものである。送信時において、送受信部26からアレイ振動子16に対して複数の送信信号が並列的に供給される。これによりアレイ振動子16において送信ビームが形成される。受信時において、生体内からの反射波はアレイ振動子16にて受波され、アレイ振動子16から複数の受信信号が送受信部26へ並列的に出力される。送受信部26においては、複数の受信信号に対して整相加算処理を適用し、これによって整相加算後の受信信号すなわちビームデータを得る。   The transmission / reception unit 26 includes a transmission beam former as a transmission unit and a reception beam former as a reception unit. At the time of transmission, a plurality of transmission signals are supplied in parallel from the transmission / reception unit 26 to the array transducer 16. As a result, a transmission beam is formed in the array transducer 16. At the time of reception, the reflected wave from the living body is received by the array transducer 16, and a plurality of reception signals are output from the array transducer 16 to the transmission / reception unit 26 in parallel. In the transmission / reception unit 26, a phasing addition process is applied to a plurality of reception signals, thereby obtaining a reception signal after phasing addition, that is, beam data.

そのビームデータは信号処理部28へ出力される。信号処理部28は、検波回路、対数圧縮回路、等の各種回路を有しており、ビームデータに対して所定の信号処理を実行する。その処理後のビームデータは3Dメモリ30に格納される。その書き込みの際に座標変換が適用され、各ビームデータを構成するエコーデータ(ボクセルデータ)はそれに対応するアドレスに格納される。もちろん、読み出し時において座標変換が適用されてもよい。座標変換は、一般に、送受波座標系からメモリ空間座標系への変換を意味するものである。これによって、3Dメモリ30内にはボリュームデータが格納されることになる。   The beam data is output to the signal processing unit 28. The signal processing unit 28 includes various circuits such as a detection circuit and a logarithmic compression circuit, and executes predetermined signal processing on the beam data. The processed beam data is stored in the 3D memory 30. Coordinate transformation is applied at the time of writing, and echo data (voxel data) constituting each beam data is stored at the corresponding address. Of course, coordinate transformation may be applied at the time of reading. The coordinate conversion generally means conversion from a transmission / reception wave coordinate system to a memory space coordinate system. As a result, volume data is stored in the 3D memory 30.

本実施形態においては、内視装置12によって観察されている局所組織が含まれるように三次元エコーデータ取り込み空間すなわち三次元空間が形成されており、逆に言えば、そのような適正な位置に三次元空間が形成されるように3Dプローブ14の位置決めが行われる。したがって、3Dメモリ30内には、内視画像化の対象となっている局所組織を含む広域組織に対応したボリュームデータが格納されることになる。   In the present embodiment, a three-dimensional echo data capturing space, that is, a three-dimensional space, is formed so as to include the local tissue observed by the endoscopic device 12, and conversely, at such an appropriate position. The 3D probe 14 is positioned so that a three-dimensional space is formed. Accordingly, the 3D memory 30 stores volume data corresponding to a wide area organization including a local tissue that is an object of endoscopic imaging.

座標演算部102は、ボリュームデータに対して後に図14及び図15に示す処理を適用することにより、レンダリングの際に必要となる座標データを演算する。その座標データは、内視観察原点及び視野中心方向を特定する情報である。そのような座標データに基づいて超音波画像を形成する際のレンダリング条件が定められる。座標演算部102における具体的な演算内容については後に図12以降の各図を参照して詳細に説明する。   The coordinate calculation unit 102 calculates coordinate data necessary for rendering by applying the processing shown in FIGS. 14 and 15 later to the volume data. The coordinate data is information for specifying the endoscopic observation origin and the visual field center direction. Rendering conditions for forming an ultrasonic image are determined based on such coordinate data. The specific calculation contents in the coordinate calculation unit 102 will be described in detail later with reference to the drawings after FIG.

超音波画像形成部32は、ボリュームデータにおける部分的なデータ(部分ボリュームデータ)に基づいてそれをレンダリング処理することにより投影画像としての超音波画像を形成している。その場合においては、内視画像における観察点すなわち視点と同じ方向から超音波画像が形成されるようにデータ処理が実行されている。その際においては、相対座標演算部102から出力される座標データが参照される。   The ultrasonic image forming unit 32 forms an ultrasonic image as a projection image by performing rendering processing based on partial data (partial volume data) in the volume data. In that case, data processing is executed so that an ultrasonic image is formed from the same direction as the observation point, that is, the viewpoint in the endoscopic image. In that case, the coordinate data output from the relative coordinate calculation unit 102 is referred to.

画像合成部34は、超音波画像上に後に説明する内視画像を合成するモジュールである。合成の仕方としては、重合方式及びはめ込み方式が考えられ、重合方式の場合においては、超音波画像上に内視画像が部分的に重ね合わされる。はめ込み方式が採用される場合には、内視画像がはめ込まれる領域が超音波画像上から除去され、すなわち穴空き状態とされ、その空いた部分に内視画像がはめ込まれる。もちろん、画像合成の方式としては、従来から知られている各種の方式を採用することができる。本実施形態においては、二つの画像の合成にあたって両者の相対的な位置関係を段階的に変化させながら逐次的に相関演算が実行されており、相関値が最も良好となる状態として両者の適正位置関係が認定されている。そのような適正位置関係の下で二つの画像が合成されれば、画像間における位置ずれを最小限にでき、また画像間におけるひずみも少なくすることが可能となる。ただし、そのような相関演算は必要に応じて実行されればよく、二つの画像を単純に重ね合わせるだけでも一定の効果を得られる。   The image synthesizing unit 34 is a module that synthesizes an endoscopic image described later on an ultrasonic image. As a synthesis method, a superposition method and a fitting method are conceivable. In the superposition method, the endoscopic image is partially overlapped on the ultrasonic image. When the fitting method is employed, the region where the endoscopic image is fitted is removed from the ultrasonic image, that is, a hole is formed, and the endoscopic image is fitted into the vacant portion. Of course, various conventionally known methods can be employed as the image composition method. In the present embodiment, in the synthesis of two images, the correlation calculation is sequentially performed while changing the relative positional relationship between the two in a stepwise manner. The relationship is certified. If the two images are combined under such an appropriate positional relationship, the positional deviation between the images can be minimized, and the distortion between the images can be reduced. However, such correlation calculation only needs to be executed as necessary, and a certain effect can be obtained by simply superimposing two images.

以上のように、画像合成部34において合成画像が生成されると、その画像データが表示部36に送られ、表示部36の画面上に合成画像が表示される。その合成画像は、光学的な画像と音響的な画像とが組み合わさった新しい画像であり、具体的には、従来同様の光学像の周囲に超音波画像が表され、従来においては見えなかった周辺部の構造や様子を超音波画像を通じて認識することが可能となるので、内視鏡操作の支援を行うことができ、また患部を迅速に探知できるという利点が得られる。内視画像については画像合成に先立って加工や修正を施すことも可能であり、これは超音波画像についても同様である。例えば、エッジ強調処理やコントラスト強調処理等を施すようにしてもよい。   As described above, when a composite image is generated in the image composition unit 34, the image data is sent to the display unit 36, and the composite image is displayed on the screen of the display unit 36. The composite image is a new image in which an optical image and an acoustic image are combined. Specifically, an ultrasonic image is displayed around an optical image similar to the conventional one, and was not visible in the past. Since it is possible to recognize the structure and state of the peripheral part through an ultrasonic image, it is possible to provide support for endoscopic operation and to quickly detect the affected part. The endoscopic image can be processed and modified prior to image synthesis, and this is the same for the ultrasonic image. For example, edge enhancement processing, contrast enhancement processing, or the like may be performed.

主制御部38は、超音波診断装置10に含まれる各構成の動作制御を行っており、主制御部38は具体的にはCPUと動作プログラムとによって構成されるものである。主制御部38には操作パネル40が接続されており、ユーザーは操作パネル40を利用して動作条件の設定を行ったり、パラメータの入力を行ったりすることが可能である。ちなみに、超音波画像形成部32及び画像合成部34はソフトウェアの機能として実現することが可能であり、超音波診断装置10内においてそのようなプログラム処理を行うことも可能ではあるが、ボリュームデータを外部PCへ転送し、外部PC上において画像処理を行わせることも可能である。ただし、内視鏡操作の支援にあたっては合成画像がリアルタイムで更新されるのが望ましく、そのようなリアルタイム性を実現できるシステムを構築するのが望ましい。本実施形態においては、超音波診断装置10に対して内視装置12が組み合わされており、すなわち内視装置12からの画像データを超音波診断装置10において利用することにより、リアルタイムで表示される超音波画像上に同じくリアルタイムで表示される内視画像が合成されている。   The main control unit 38 performs operation control of each component included in the ultrasonic diagnostic apparatus 10, and the main control unit 38 is specifically configured by a CPU and an operation program. An operation panel 40 is connected to the main control unit 38, and the user can set operating conditions and input parameters using the operation panel 40. Incidentally, the ultrasonic image forming unit 32 and the image synthesizing unit 34 can be realized as software functions, and such program processing can be performed in the ultrasonic diagnostic apparatus 10, but volume data is stored. It is also possible to transfer to an external PC and perform image processing on the external PC. However, it is desirable that the composite image is updated in real time in support of the endoscope operation, and it is desirable to construct a system that can realize such real time performance. In the present embodiment, the endoscopic device 12 is combined with the ultrasonic diagnostic apparatus 10, that is, the image data from the endoscopic apparatus 12 is used in the ultrasonic diagnostic apparatus 10 and displayed in real time. An endoscopic image that is also displayed in real time on the ultrasonic image is synthesized.

次に、内視装置12について説明する。符号42は内視鏡を示している。内視鏡42は体内に挿入される部分と体外に位置決めされる部分とからなるものである。体内部分にはイメージセンサ44及び発光器46等が設けられている。イメージセンサ44は例えばCCDカメラである。もちろん他の画像取得デバイスを設けるようにしてもよい。発光器46は画像取り込み時において前方を照らすためのデバイスである。ただし、例えば高感度赤外線センサ等を利用することにより、発光器46を省略することも可能である。内視鏡42の中には1又は複数のチャンネル(図示せず)が設けられており、いずれかのチャンネルを利用して術具を挿入し、胎盤表面上を走行している血管等に対する処置を行うことが可能である。   Next, the endoscopic device 12 will be described. Reference numeral 42 denotes an endoscope. The endoscope 42 includes a part inserted into the body and a part positioned outside the body. An image sensor 44, a light emitter 46, and the like are provided in the body part. The image sensor 44 is a CCD camera, for example. Of course, other image acquisition devices may be provided. The light emitter 46 is a device for illuminating the front when capturing an image. However, the light emitter 46 can be omitted by using, for example, a high-sensitivity infrared sensor. One or a plurality of channels (not shown) are provided in the endoscope 42, and a surgical instrument is inserted using any of the channels to treat a blood vessel or the like running on the surface of the placenta. Can be done.

内視装置本体45には内視画像形成部47が設けられており、内視画像形成部47はイメージセンサ44から出力される信号に基づいて光学像としての内視画像を形成している。その画像データは上述したように画像合成部34に出力される。   An endoscopic image forming unit 47 is provided in the endoscopic device main body 45, and the endoscopic image forming unit 47 forms an endoscopic image as an optical image based on a signal output from the image sensor 44. The image data is output to the image composition unit 34 as described above.

図2には、三次元空間60が示されている。この三次元空間60は超音波の送受波が行われる領域(実空間)であり、上述したボリュームデータに相当するものである。三次元空間60はプローブヘッド56における超音波ビームの電子的な走査により構成される。図2においては立方体形状の三次元空間60が示されているが、その形状は立方体には限られない。例えば、コンベックス型の1Dアレイ振動子を機械的に揺動走査させる方式では、角錐型の三次元空間が形成されることになる。   A three-dimensional space 60 is shown in FIG. This three-dimensional space 60 is a region (real space) where ultrasonic waves are transmitted and received, and corresponds to the volume data described above. The three-dimensional space 60 is configured by electronic scanning of an ultrasonic beam in the probe head 56. Although a cubic three-dimensional space 60 is shown in FIG. 2, the shape is not limited to a cube. For example, in the method of mechanically swinging and scanning a convex 1D array transducer, a pyramid three-dimensional space is formed.

三次元空間60は本実施形態において子宮の一部を含んでおり、図示されるようにそこには胎盤62の一部が含まれている。符号62Aは胎盤表面を表しており、その表面(表層)62Aには複数の血管64が走行している。   The three-dimensional space 60 includes a part of the uterus in this embodiment, and a part of the placenta 62 is included therein as shown. Reference numeral 62A represents the surface of the placenta, and a plurality of blood vessels 64 run on the surface (surface layer) 62A.

内視鏡58は本実施形態において硬質の棒状部材として構成されており、腹部に形成された孔を通じて内視鏡58の先端部が子宮内に差し込まれる。内視鏡58の先端部あるいはそれ以外の部分に屈曲性を持った関節部が設けられてもよい。内視鏡58の先端部には上述したイメージセンサが設けられ、そのイメージセンサによる視野範囲が符号66で示されている。図に示されるように視野範囲66は胎盤表面62Aにおけるごくわずかの領域であり、疾患部分をその視野範囲を通じて探知するのは容易でない。つまり、視野範囲66の周辺に存在する組織の様子についても情報を得たいというニーズがある。そこで、本実施形態においては上述したように内視画像と超音波画像との組み合わせが実現されている。   The endoscope 58 is configured as a hard rod-like member in the present embodiment, and the distal end portion of the endoscope 58 is inserted into the uterus through a hole formed in the abdomen. A joint portion having flexibility may be provided at the distal end portion of the endoscope 58 or other portions. The above-described image sensor is provided at the distal end portion of the endoscope 58, and a visual field range by the image sensor is indicated by reference numeral 66. As shown in the figure, the visual field range 66 is a very small area on the placenta surface 62A, and it is not easy to detect the diseased part through the visual field range. That is, there is a need to obtain information about the state of the tissue existing around the visual field range 66. Therefore, in the present embodiment, as described above, a combination of an endoscopic image and an ultrasonic image is realized.

図3乃至図6を用いて超音波画像の作成例について説明する。図3において、本実施形態ではまず内視鏡58におけるイメージセンサ上の視点すなわち中心点に相当する観察原点58Aが特定される。その特定は図1に示した座標演算部102により行われている。観察原点58Aの三次元位置は、ボリュームデータが存在するデータ空間の三次元座標系に従って特定されるものである。なお、実際の観察窓の中心と先端部の中心とがずれていても、換言すれば、実際の観察窓の中心ではなく先端部の中心だけを特定できる場合であっても、上記したマッチング処理が実行されるので、2つの画像の合成において問題は生じない。観察原点58Aと共に、そこから視野前方へ伸びる基準方向すなわち視野方向70が特定される。その特定も図1に示した相対座標演算部102において行われているが、その演算を超音波画像形成部32において行うようにしてもよい。視野方向70は視野範囲66の中心軸に相当するものであり、あるいは、内視鏡58の軸方向に相当するものである。   An example of creating an ultrasound image will be described with reference to FIGS. In FIG. 3, in this embodiment, first, an observation origin 58A corresponding to a viewpoint on the image sensor, that is, a center point, in the endoscope 58 is specified. The identification is performed by the coordinate calculation unit 102 shown in FIG. The three-dimensional position of the observation origin 58A is specified according to the three-dimensional coordinate system of the data space where the volume data exists. In addition, even if the center of the actual observation window and the center of the tip portion are deviated, in other words, even when only the center of the tip portion can be specified instead of the center of the actual observation window, the above-described matching processing is performed. Is executed, there is no problem in the synthesis of the two images. Along with the observation origin 58A, a reference direction extending from the front of the visual field, that is, the visual field direction 70 is specified. The identification is also performed in the relative coordinate calculation unit 102 shown in FIG. 1, but the calculation may be performed in the ultrasonic image forming unit 32. The visual field direction 70 corresponds to the central axis of the visual field range 66 or corresponds to the axial direction of the endoscope 58.

次に、図4に示されるように、観察原点58Aを基準として処理開始面72が設定される。この処理開始面72は具体的には3Dメモリの三次元記憶空間上に設定されるものである。本実施形態においては、処理開始面72は観察原点58Aを通過する面であって基準方向72に直交する面である。処理開始面72の大きさは任意に設定することが可能であるが、少なくとも視野範囲66の周辺をカバーできるようにそのサイズが定められるのが望ましく、特に望ましくはボリュームデータの全体を通過する程度の大きさを持った範囲として定められる。観察原点58Aを通過する面としてではなくそれよりも前方の位置に処理開始面72が設定されるようにしてもよい。すなわち、本実施形態においては、胎盤表面とイメージセンサとの間に羊水が存在しており、この羊水は超音波画像にほとんど反映されない部分であるため、必要に応じて処理開始面を前方に設定することが考えられる。もちろん処理開始面を後方に設定することも可能である。   Next, as shown in FIG. 4, a processing start surface 72 is set with reference to the observation origin 58A. Specifically, the processing start surface 72 is set on the three-dimensional storage space of the 3D memory. In the present embodiment, the processing start surface 72 is a surface that passes through the observation origin 58 </ b> A and is orthogonal to the reference direction 72. Although the size of the processing start surface 72 can be arbitrarily set, it is desirable that the size is determined so as to cover at least the periphery of the visual field range 66, and it is particularly desirable that the processing start surface 72 passes through the entire volume data. It is determined as a range having a size of. The processing start surface 72 may be set not at the surface passing through the observation origin 58A but at a position ahead of it. That is, in this embodiment, there is amniotic fluid between the placenta surface and the image sensor, and this amniotic fluid is a part that is hardly reflected in the ultrasonic image, so the processing start surface is set forward as necessary. It is possible to do. Of course, it is also possible to set the processing start surface behind.

次に、図5に示されるように、処理開始面72を基準としてそれに直交する方向として視線(レイ)群74が設定される。視線群74は複数の視線76により構成されるものである。本実施形態において複数の視線76は互いに平行であるが、非平行の関係をもって複数の視線76が設定されてもよい。例えば、観察原点58Aから放射状に複数の視線76が設定されるようにしてもよい。そして、各視線毎にレンダリングが演算実行され、すなわち各視線毎に画素値が決定される。それらの画素値を二次元平面上にマッピングすれば超音波画像を構成することが可能である。レンダリングの方法としては、積算投影法があげられ、特に望ましくはボリュームレンダリング法を適用するのが望ましい。本実施形態においては、胎盤の表層部分のみならず胎盤の内部についても超音波画像に反映されるようにレンダリング条件が定められている。   Next, as shown in FIG. 5, a line-of-sight (ray) group 74 is set as a direction orthogonal to the processing start surface 72 as a reference. The line-of-sight group 74 includes a plurality of lines of sight 76. In the present embodiment, the plurality of lines of sight 76 are parallel to each other, but the plurality of lines of sight 76 may be set in a non-parallel relationship. For example, a plurality of lines of sight 76 may be set radially from the observation origin 58A. Then, rendering is performed for each line of sight, that is, a pixel value is determined for each line of sight. By mapping these pixel values on a two-dimensional plane, an ultrasonic image can be constructed. An example of the rendering method is a cumulative projection method, and it is particularly desirable to apply the volume rendering method. In the present embodiment, rendering conditions are determined so that not only the surface layer portion of the placenta but also the inside of the placenta is reflected in the ultrasound image.

このようなレンダリング処理の結果として形成された超音波画像が図6に模式的に示されている。図6において波線の円84は内視鏡による視野範囲を表している。その範囲の周辺部が広く画像化されていることを理解できる。そこには血管群78が存在し、その血管群78は表層を走行している血管80と内部を走行している血管82とを含むものである。もちろん、レンダリング条件を変えることによりレンダリングする深さを自由に変更することが可能である。   An ultrasonic image formed as a result of such rendering processing is schematically shown in FIG. In FIG. 6, a wavy line circle 84 represents the field of view range by the endoscope. It can be understood that the periphery of the range is widely imaged. There is a blood vessel group 78, and the blood vessel group 78 includes a blood vessel 80 running on the surface layer and a blood vessel 82 running inside. Of course, it is possible to freely change the rendering depth by changing the rendering conditions.

以上のように、超音波画像が構成されると、その超音波画像と内視画像とが合成される訳であるが、本実施形態においては上述したように二つの画像間において相関演算が実行されている。すなわち二つの画像が空間的に位置整合するようにマッチング処理が実行されている。そのために、各画像が二値化処理される。   As described above, when an ultrasound image is configured, the ultrasound image and the endoscopic image are combined, but in this embodiment, correlation calculation is performed between the two images as described above. Has been. That is, the matching process is performed so that the two images are spatially aligned. For this purpose, each image is binarized.

図7の(A)には内視画像86が示されている。その画像は視野範囲に相当する円形の画像である。その内部には血管88が表れている。これに対して二値化処理が施され、それにより生成されたものが二値化画像90であり、それが図7の(B)に示されている。二値化処理にあたっては、血管部分に対して1(または0)が与えられ、それ以外の組織部分に対して0(または1)が与えられる。   In FIG. 7A, an endoscopic image 86 is shown. The image is a circular image corresponding to the visual field range. A blood vessel 88 appears inside thereof. A binarization process is performed on this, and a binarized image 90 generated thereby is shown in FIG. 7B. In the binarization process, 1 (or 0) is given to the blood vessel part, and 0 (or 1) is given to the other tissue parts.

一方、超音波画像に対しても二値化処理が施される。具体的には、図6に示した超音波画像76に対して血管と組織とを弁別する閾値を利用して二値化処理が施され、それにより生成されたものが図8に示す二値化画像96である。波線の円形84は内視画像の視野範囲を表している。本実施形態では、この図8に示した二値化画像96と図7の(B)に示した二値化画像90との間で、両者の位置関係を段階的に変化させながら相関演算が繰り返し実行され、最良の相関値が得られた時点をもって適正位置関係であると認定されている。そしてその適正位置関係にある二つの超音波画像(二値化前の画像)及び内視画像(二値化前の画像)が合成され、これにより合成画像が生成されている。その一例が図9に示されている。合成画像100は超音波画像76上に内視画像86を重合させてなる画像である。超音波画像76は本実施形態において白黒画像であり、内視画像86はカラー画像である。一般に光学像である内視画像86の方が鮮明であるため、合成画像100においては、注目している円形の領域内において、背景に対してくっきりと組織が浮かび上がった様子が顕在化することになる。内視鏡を移動させれば、視野範囲が移動することになるため、内視画像86の内容がリアルタイムに更新される。この場合、超音波画像76上において内視画像86の位置を変化させるようにしてもよいし、内視画像86の画面表示位置を固定した状態において、超音波画像76を移動させあるいはその内容を更新するようにしてもよい。イメージセンサと組織との間の距離を計測することにより、内視画像のサイズを距離に応じて動的に変化させるようにしてもよい。本実施形態においては、二つの画像間において不連続性あるいは歪みが生じていたとしても、内視画像86の周辺にある程度の確からしさをもって組織構造を表す画像を表示できるため、内視鏡の操作を支援でき、また患部の特定を容易にできるという利点がある。すなわち実際に注目しているのは内視画像86であり、その視野範囲を移動させれば鮮明な部位を移動させることができるのであり、周辺に存在する画像はあくまでも支援を行うものにすぎないため、二つの画像間において位置ずれ等が多少あったとしても従来に比べて利便性を向上することが可能である。   On the other hand, binarization processing is also performed on the ultrasonic image. Specifically, a binarization process is performed on the ultrasound image 76 shown in FIG. 6 using a threshold value for discriminating blood vessels and tissues, and the binary image shown in FIG. This is a converted image 96. A wavy line circle 84 represents the visual field range of the endoscopic image. In the present embodiment, correlation calculation is performed while the positional relationship between the binarized image 96 shown in FIG. 8 and the binarized image 90 shown in FIG. It is repeatedly executed, and it is recognized as an appropriate positional relationship when the best correlation value is obtained. Then, the two ultrasonic images (image before binarization) and the endoscopic image (image before binarization) that are in the proper positional relationship are synthesized, thereby generating a synthesized image. An example is shown in FIG. The composite image 100 is an image obtained by superimposing the endoscopic image 86 on the ultrasonic image 76. In this embodiment, the ultrasonic image 76 is a black and white image, and the endoscopic image 86 is a color image. Since the endoscopic image 86, which is an optical image, is generally clearer, in the synthesized image 100, a state in which the tissue clearly emerges with respect to the background in the circular area of interest is manifested. become. If the endoscope is moved, the visual field range is moved, so that the content of the endoscopic image 86 is updated in real time. In this case, the position of the endoscopic image 86 may be changed on the ultrasonic image 76, or the ultrasonic image 76 is moved or the content thereof is moved in a state where the screen display position of the endoscopic image 86 is fixed. You may make it update. The size of the endoscopic image may be dynamically changed according to the distance by measuring the distance between the image sensor and the tissue. In the present embodiment, even if discontinuity or distortion occurs between two images, an image representing a tissue structure can be displayed around the endoscopic image 86 with a certain degree of certainty. There is an advantage that it is possible to support, and the identification of the affected part can be facilitated. That is, what is actually focused on is the endoscopic image 86, and if the visual field range is moved, a clear part can be moved, and the image existing in the vicinity is only for assistance. Therefore, even if there is some misalignment between the two images, it is possible to improve convenience compared to the conventional case.

次に、図10及び図11を用いてシステムの動作例を説明する。図10には図11に示した超音波画像形成部32の動作例が示されており、図11には図1に示した画像合成部34の動作例が示されている。   Next, an example of the operation of the system will be described with reference to FIGS. FIG. 10 shows an operation example of the ultrasonic image forming unit 32 shown in FIG. 11, and FIG. 11 shows an operation example of the image composition unit 34 shown in FIG.

まず、図10を参照すると、S101では、後に図12乃至図17を用いて詳述する手法に基づいて、観察原点と基準方向とが演算される。具体的には内視鏡先端部の中心点とそこから前方の方向(プローブから見て前方の中心軸方向)が特定される。S102では、図4に示したように処理開始面が特定される。処理開始面が先に求まるならば、基準方向の特定を省略することもできる。S103では、図5に示したように処理開始面から伸びる複数の視線が設定され、各視線(レイ)に沿ってレンダリング演算を行うことにより、部分ボリュームデータに対する処理が実行され、これにより部分ボリュームデータが反映されたレンダリング画像としての超音波画像が形成される。その超音波画像の一例については図6に示したとおりである。   First, referring to FIG. 10, in S101, the observation origin and the reference direction are calculated based on a method that will be described in detail later with reference to FIGS. Specifically, the center point of the distal end portion of the endoscope and the forward direction therefrom (the forward central axis direction as viewed from the probe) are specified. In S102, the processing start surface is specified as shown in FIG. If the processing start surface is obtained first, the specification of the reference direction can be omitted. In S103, as shown in FIG. 5, a plurality of lines of sight extending from the processing start surface are set, and by performing a rendering operation along each line of sight (ray), processing for the partial volume data is executed. An ultrasonic image is formed as a rendering image reflecting the data. An example of the ultrasonic image is as shown in FIG.

次に、図11を参照すると、S201では、内視装置により得られた内視画像が二値化処理され、これにより二値化内視画像が生成される。同様に、S202では、超音波画像が二値化処理され、これにより二値化超音波画像が生成される。S203では、超音波二値化画像の基準軸点に内視二値化画像の中心点を一致させつつ、両者が仮に合成される。ここで、基準軸点は、超音波画像における基準軸に相当する点であり、その点に内視二値化画像の中心点を一致させることにより、三次元空間内において二つの画像を概ね整合させることが可能である。その初期状態を基準として、以下のように相関演算における探索幅が設定されることになる。   Next, referring to FIG. 11, in S201, the endoscopic image obtained by the endoscopic device is binarized, thereby generating a binarized endoscopic image. Similarly, in S202, the ultrasonic image is binarized, thereby generating a binarized ultrasonic image. In S203, both are synthesize | combined temporarily, making the center point of an endoscopic binarized image correspond with the reference axis point of an ultrasonic binarized image. Here, the reference axis point is a point corresponding to the reference axis in the ultrasonic image, and by aligning the central point of the endoscopic binarized image with this point, the two images are roughly aligned in the three-dimensional space. It is possible to make it. Based on the initial state, the search width in the correlation calculation is set as follows.

S204〜S206では画像の縮尺率を変更させながら相関演算が実行される。具体的には、一方の画像(望ましくは内視二値化画像)を拡大または縮小させて、S205において二つの画像間において相関値が演算される。そして、S206において相関値が最大とみなされるまで、一方画像の縮尺率を変更させながらの相関演算が繰り返し実行される。S206において相関値が最大であると認定された場合、S207〜S209における平行移動をさせながらの相関値演算処理が実行される。   In S204 to S206, the correlation calculation is executed while changing the scale ratio of the image. Specifically, one image (preferably an endoscopic binarized image) is enlarged or reduced, and a correlation value is calculated between the two images in S205. Then, until the correlation value is regarded as the maximum in S206, the correlation calculation while changing the scale ratio of the one image is repeatedly executed. When it is determined in S206 that the correlation value is the maximum, correlation value calculation processing is performed while performing parallel movement in S207 to S209.

具体的には、S207において、一方画像を上下あるいは左右の方向に平行移動させる処理が実行されて、S208において、その平行移動後における状態において相関値が演算される。そして、平行移動を繰り返しながら、S209において相関値が最大とみなされるまで相関値演算が繰り返し実行される。S209において相関値が最大であると判断された場合でも、S210〜S212の工程が実行される。具体的には、S210において一方画像を回転させて、S211において相関値が演算される。この処理がS212において相関値最大であると判断されるまで繰り返し実行される。S212において相関値が最大であると判断された場合、S213が実行される。   Specifically, in S207, one image is translated in the vertical and horizontal directions, and in S208, a correlation value is calculated in the state after the translation. Then, while repeating the parallel movement, the correlation value calculation is repeatedly executed until the correlation value is regarded as the maximum in S209. Even if it is determined in S209 that the correlation value is the maximum, the processes of S210 to S212 are executed. Specifically, one image is rotated in S210, and a correlation value is calculated in S211. This process is repeatedly executed until it is determined in S212 that the correlation value is maximum. If it is determined in S212 that the correlation value is maximum, S213 is executed.

S213では、今までの推移から相関値が飽和しているか否かが判断されても、飽和していなければS204以降の各工程が繰り返し実行される。すなわち、条件の組み合わせを変更させながら相関値が飽和するまで二つの画像の最良マッチング状態が探索されることになる。S213において相関値が飽和したと判断された場合、S214において超音波画像と内視画像とが合成され、それが画面上に表示されることになる。図11においては、拡大縮小処理、平行移動処理、回転処理の三つの変化が含まれていたら、そのうちの一つまたは二つを実施するようにしてもよい。ただし、特に拡大縮小処理を含めることにより、イメージセンサ等を対象物表面との間における距離が不知であったとしても二つの画像の縮尺を整合させて違和感のない合成画像を構築できるという利点がある。   In S213, even if it is determined whether the correlation value is saturated or not from the transition so far, if it is not saturated, each step after S204 is repeatedly executed. That is, the best matching state of the two images is searched until the correlation value is saturated while changing the combination of conditions. When it is determined that the correlation value is saturated in S213, the ultrasonic image and the endoscopic image are combined and displayed on the screen in S214. In FIG. 11, if three changes of enlargement / reduction processing, parallel movement processing, and rotation processing are included, one or two of them may be implemented. However, by including the enlargement / reduction processing in particular, even if the distance between the image sensor and the object surface is unknown, there is an advantage that the scale of the two images can be matched to construct a composite image without a sense of incongruity. is there.

上記構成においては、立体的な領域が画像化された超音波画像を利用しているため、組織内部を走行する血管を表示することが可能であり、これにより手術器具を利用して血管の処置を行うような場合においてもその安全性を高められるという利点がある。本実施形態では、合成画像が術者にリアルタイムで提供され、それを見ながら胎盤上における治療部位を速やかに特定できる。つまり、内視鏡を操作してそれを適切に位置決めできる。患部の周辺も一度に観察できるから、不用意に先端部が組織に接触してしまうことも未然に防止できる。治療部位が特定されたならばそこに対してレーザー光が照射される。   In the above configuration, since an ultrasonic image in which a three-dimensional region is imaged is used, it is possible to display a blood vessel that travels inside the tissue, thereby using a surgical instrument to treat the blood vessel. There is an advantage that the safety can be improved even in the case of performing. In this embodiment, the synthesized image is provided to the operator in real time, and the treatment site on the placenta can be quickly identified while viewing the composite image. In other words, the endoscope can be appropriately positioned by operating the endoscope. Since the periphery of the affected area can be observed at a time, it is possible to prevent the tip from inadvertently contacting the tissue. If a treatment site is specified, a laser beam is irradiated to the treatment site.

(2)反射体を利用した相対座標演算方法の説明
次に図12乃至図17を用いて反射体を用いた相対座標演算方法について詳述する。
(2) Description of Relative Coordinate Calculation Method Using Reflector Next, a relative coordinate calculation method using a reflector will be described in detail with reference to FIGS.

図12及び図13には内視鏡42の先端部が示されている。図12は平面図であり、図13は斜視図である。先端部の先端面42Aには光学的観察のための観察窓106、照射窓108及び鉗子口110が設けられている。先端面42Aの中心と観察窓106の中心は一致していないが、画像合成時においてマッチング処理が適用されるので、その位置ずれは問題とならない。観察窓106はイメージセンサによって光学像を取り込むための窓部材により構成されている。照射窓108は発光器で生じた光を前方へ照射するための窓部材により構成されている。鉗子口110は器具を挿通させるチャンネルの端部を構成し、そこには血管焼灼用のレーザー治療器が挿入される。先端面42Aは円形の面であり、その周囲(周縁)には反射体112が設けられている。具体的には、反射体112は、複数の反射球(反射要素)114からなるリング状の反射球列を構成している。各反射球114は超音波を強く反射する特殊材料からなる微小球体(ポーラス)により構成されている。本実施形態では、8個の反射球114が設けられており、それらの相互間隔(相互角度)は一定ピッチ(等角度)である。一般に6個以上の反射球を設ければプローブの位置によらずに少なくとも3つの反射球からのエコーを観測することが可能となる。すなわち、一部の反射球が内視鏡本体に裏側に隠れても他の反射球からのエコーを常に観測することが可能である。相互の位置関係は既知であるので、3つ以上の反射球の三次元位置を特定できれば、三次元空間内における、先端面42Aの位置、具体的にはその中心位置を演算することが可能となる。中心位置から前方へ伸びる軸方向(基準方向)は、先端面の中心から出る方向であってプローブから遠ざかる方向として定義され得る。なお、内視鏡本体からのエコーも観測されるが、そのようなエコーを低減して各反射球からのエコーを顕在化させるために、内視鏡本体の外表面に超音波吸収層を設けるようにしてもよい。   12 and 13 show the distal end portion of the endoscope 42. FIG. 12 is a plan view, and FIG. 13 is a perspective view. An observation window 106, an irradiation window 108, and a forceps port 110 for optical observation are provided on the distal end surface 42A of the distal end portion. Although the center of the distal end surface 42A and the center of the observation window 106 do not coincide with each other, since the matching process is applied at the time of image synthesis, the positional deviation does not become a problem. The observation window 106 is composed of a window member for capturing an optical image by an image sensor. The irradiation window 108 is constituted by a window member for irradiating light generated by the light emitter forward. The forceps port 110 constitutes an end portion of a channel through which the instrument is inserted, and a laser treatment device for blood vessel ablation is inserted therein. The tip surface 42A is a circular surface, and a reflector 112 is provided on the periphery (periphery). Specifically, the reflector 112 constitutes a ring-shaped reflective sphere array composed of a plurality of reflective spheres (reflective elements) 114. Each reflecting sphere 114 is composed of a microsphere (porous) made of a special material that strongly reflects ultrasonic waves. In this embodiment, eight reflecting spheres 114 are provided, and their mutual interval (mutual angle) is a constant pitch (equal angle). In general, if six or more reflecting spheres are provided, echoes from at least three reflecting spheres can be observed regardless of the position of the probe. That is, even if some of the reflecting spheres are hidden behind the endoscope body, it is possible to always observe echoes from other reflecting spheres. Since the mutual positional relationship is known, if the three-dimensional positions of three or more reflecting spheres can be specified, the position of the tip surface 42A, specifically the center position thereof, in the three-dimensional space can be calculated. Become. The axial direction (reference direction) extending forward from the center position can be defined as a direction that leaves the center of the tip surface and moves away from the probe. Echoes from the endoscope body are also observed, but an ultrasonic absorption layer is provided on the outer surface of the endoscope body in order to reduce such echoes and make the echoes from each reflecting sphere appear. You may do it.

図14には、高輝度点の抽出処理が概念図として示されている。(A)には、三次元空間(実空間)60が示されている。これはプローブヘッド56による超音波の送受波空間に相当する。内視鏡58の先端部がその三次元空間60内に位置している。内視鏡58の先端部には超音波反射体(反射球列)112が設けられている。(B)乃至(F)にはボリュームデータに相当する三次元空間(データ空間)116が示されている。しきい値αは各エコーデータ(ボクセルデータ)を二値化する際に用いられる閾値である。(B)に示す例では、しきい値αにα1が設定されており、(B)にはそのようなしきい値αを用いて二値化処理を行った結果が示されている。ここでは符号118で示すように1つの高輝度点が抽出されている。この高輝度点はいずれかの反射球に相当するものである。(C)には、しきい値αを1段階下げてα2とした上で、それを用いて二値化処理を行った場合の処理結果が示されている。符号120で示されるように、2つの反射球に相当する2つの高輝度点が抽出されている。組織は相対的に見て低輝度であるから、この段階では抽出されない。(D)には、しきい値αを更に1段階下げてα3とした上で、それを用いて二値化処理を行った場合の処理結果が示されている。符号120で示すように、上記同様に、2つの高輝度点が抽出される一方において、符号122で示すように、高輝度ノイズに相当する高輝度点が抽出されている。(E)には、しきい値αを更に1段階下げてα4とした上で、それを用いて二値化処理を行った場合の処理結果が示されている。符号124で示されるように、3つの反射球に対応する3つの高輝度点と、ノイズに相当する1つの高輝度点が抽出されている。このように、段階的にしきい値αを下げていくと、反射球に相当する高輝度点の個数が増加することになるが、その一方、高輝度ノイズもヒットしてしまう可能性が高くなる。   FIG. 14 shows a high-luminance point extraction process as a conceptual diagram. (A) shows a three-dimensional space (real space) 60. This corresponds to an ultrasonic wave transmission / reception space by the probe head 56. The distal end portion of the endoscope 58 is located in the three-dimensional space 60. An ultrasonic reflector (reflecting sphere array) 112 is provided at the distal end portion of the endoscope 58. (B) to (F) show a three-dimensional space (data space) 116 corresponding to volume data. The threshold value α is a threshold value used when binarizing each echo data (voxel data). In the example shown in (B), α1 is set as the threshold value α, and (B) shows the result of binarization processing using such a threshold value α. Here, one high luminance point is extracted as indicated by reference numeral 118. This high luminance point corresponds to one of the reflecting spheres. (C) shows a processing result when the threshold value α is lowered by one step to α2 and binarization processing is performed using the threshold value α. As indicated by reference numeral 120, two high luminance points corresponding to two reflecting spheres are extracted. Since the tissue is relatively low in brightness, it is not extracted at this stage. (D) shows a processing result when the threshold value α is further lowered by one step to α3 and binarization processing is performed using the threshold value α. As indicated by reference numeral 120, as described above, two high-intensity points are extracted. On the other hand, as indicated by reference numeral 122, a high-intensity point corresponding to high-intensity noise is extracted. (E) shows a processing result when the threshold value α is further lowered by one level to α4 and binarization processing is performed using the threshold value α. As indicated by reference numeral 124, three high luminance points corresponding to the three reflecting spheres and one high luminance point corresponding to noise are extracted. As described above, when the threshold value α is lowered step by step, the number of high luminance points corresponding to the reflecting spheres increases, but on the other hand, there is a high possibility that high luminance noise will be hit. .

そこで、本実施形態においては後に詳述するように高輝度点間の距離(三次元空間内での距離)を計測し、その距離が所定値以上である場合や所定値以下である場合に高輝度ノイズであると判定するようにしている。例えば、3つの高輝度点が存在している場合において、特定の2つの高輝度点については相互間距離が一定条件を満たし、特定の1つの高輝度点については他の2つの高輝度点との間における距離が一定条件を満たさない場合には当該高輝度点をノイズであると判定している。そのようなノイズ除去処理を適用した結果として、(F)に示すような結果が得られる。すなわち、その三次元空間116には、3つの反射球に相当する3つの高輝度点(固有エコー)だけが含まれており、ノイズに相当する高輝度点は除外されている。もちろん、4つ以上の反射球に相当する4つ以上の高輝度点が抽出されてもよい。少なくとも3つの高輝度点を抽出できれば、それらの3点によって、先端部が有する先端面を空間的に定義でき、同時に、その中心点も定義することができる。基準方向は中心点を通過する前方方向として定義される。   Therefore, in this embodiment, as will be described in detail later, the distance between the high luminance points (the distance in the three-dimensional space) is measured, and the distance is high when the distance is greater than or equal to a predetermined value. It is determined that it is luminance noise. For example, when there are three high-intensity points, the distance between two specific high-intensity points satisfies a certain condition, and one specific high-intensity point is compared with the other two high-intensity points. If the distance between them does not satisfy a certain condition, it is determined that the high luminance point is noise. As a result of applying such noise removal processing, a result as shown in (F) is obtained. That is, the three-dimensional space 116 includes only three high-luminance points (specific echoes) corresponding to three reflecting spheres, and excludes high-luminance points corresponding to noise. Of course, four or more high-luminance points corresponding to four or more reflecting spheres may be extracted. If at least three high-luminance points can be extracted, the tip surface of the tip portion can be spatially defined by these three points, and at the same time, the center point can be defined. The reference direction is defined as the forward direction passing through the center point.

図15には、3つ(あるいはそれ以上)の反射球を特定する処理がフローチャートとして示されている。   FIG. 15 is a flowchart showing a process for specifying three (or more) reflecting spheres.

S301では、初期設定として、しきい値αに最大値が設定される。S302では、しきい値αを用いてボリュームデータに対して二値化処理が適用される。すなわち、しきい値αを超えるボクセルデータが1に変換され、それ以外のボクセルデータが0に変換される。S303では、二値化後の後処理として例えば細線化処理が適用される。高輝度点が広がりを有している場合にその中心点を1点として特定するためにこの細線化処理が実行されている。但し、この処理は必要な場合に実行すればよい。S304では、値1のデータを有するボクセルが2つ以上存在している場合に、そのようなボクセル相互間の距離が演算される。S305では、演算された距離が所定条件を満たすかそれを外れるかが判断され、その判断結果に基づいてノイズに相当する高輝度点であることが判明した場合にはそれが除外(抹消)される。距離に基づく判別手法については後に図16を用いて説明する。S305の処理は通常、3つ以上の高輝度点が求められた場合に遂行される。もちろん、ノイズ除去処理方法として距離に基づくもの以外の手法を適用するようにしてもよい。例えば、高輝度点のサイズや形状を識別基準として利用することも考えられる。S306では、高輝度点の個数がカウントされ、そのカウント値が3以上であれば、処理がS3008へ移行し、そうでなければ処理がS302へ移行する。すなわち、しきい値αを段階的に1つずつ引き下げながら上記処理が繰り返し実行される。S308では、所定条件を満たした近い距離関係にある3つの高輝度点の各座標が演算され、それが出力される。すなわち、処理が図10に示したS101に移行する。3点の座標から先端面が定義され、同時に、その中心の三次元位置が特定され、そこから前方へ伸びる垂線として基準方向が特定される。   In S301, a maximum value is set as the threshold value α as an initial setting. In S302, binarization processing is applied to the volume data using the threshold value α. That is, voxel data exceeding the threshold value α is converted to 1, and the other voxel data is converted to 0. In S303, for example, thinning processing is applied as post-processing after binarization. This thinning process is performed in order to specify the center point as one point when the high luminance point has a spread. However, this processing may be executed when necessary. In S304, when there are two or more voxels having data of value 1, the distance between such voxels is calculated. In S305, it is determined whether the calculated distance satisfies the predetermined condition or not, and if it is determined that the high-intensity point corresponding to the noise is based on the determination result, it is excluded (erased). The The discrimination method based on the distance will be described later with reference to FIG. The process of S305 is normally performed when three or more high-luminance points are obtained. Of course, methods other than those based on distance may be applied as the noise removal processing method. For example, it is conceivable to use the size and shape of a high-luminance point as an identification criterion. In S306, the number of high luminance points is counted, and if the count value is 3 or more, the process proceeds to S3008, otherwise the process proceeds to S302. That is, the above process is repeatedly executed while decreasing the threshold value α step by step. In S308, the coordinates of the three high-intensity points having a close distance satisfying the predetermined condition are calculated and output. That is, the process moves to S101 shown in FIG. The tip surface is defined from the coordinates of the three points, and at the same time, the three-dimensional position of the center is specified, and the reference direction is specified as a perpendicular extending from there.

図16には、超音波反射体112を構成する複数の反射球114の相互位置関係が示されている。三次元空間内においては、隣接する2つの反射球114の間隔はaであって、それは既知である。また、2つの反射球の間の距離としてもっとも長いものはbであって、それも既知である。つまり、正規の高輝度点であれば、相互間距離は必ずa以上b以下となるのである。逆に言えば、2つの高輝度点間の距離がその条件を満たさない場合、それらの内の一方又は両方がノイズである可能性がある。その内の一方について既に正規の高輝度点であると判明しているのであれば、他方についてノイズであると判断することが可能となる。ちなみに、複数の反射球の間隔を不揃いとして、中心軸周りにおける先端部の回転方位まで特定できるようにしてもよい。その場合には実際の反射球の配列に基づいて判定条件を定めればよい。   FIG. 16 shows the mutual positional relationship between the plurality of reflecting spheres 114 constituting the ultrasonic reflector 112. In the three-dimensional space, the interval between two adjacent reflecting spheres 114 is a, which is known. The longest distance between two reflecting spheres is b, which is also known. That is, the distance between the points is always a to b in the case of a regular high luminance point. Conversely, if the distance between two high brightness points does not satisfy the condition, one or both of them may be noise. If one of them has already been found to be a regular high luminance point, it can be determined that the other is noise. Incidentally, the intervals between the plurality of reflecting spheres may be uneven, and the rotational orientation of the tip portion around the central axis may be specified. In that case, the determination condition may be determined based on the actual arrangement of the reflecting spheres.

図17には、先端面の中心点を特定する方法が概念図として示されている。いま、相互に隣り合う高輝度点P1,P2,P3の三次元位置(三次元座標)が特定された場合、隣接する高輝度点ペアが2つあり、それらのペアを通過する2つの直線L1,L2が特定される。各直線L1,L2上の距離はaである。各直線L1,L2の中点が特定され、その中点を通過する垂線(直交線)L3,L4が特定される。それらの交点として中心点Oが特定される。図17に示す例では、3つの高輝度点が並んでいたが、そうでない場合であっても、3つの点によって定義される2つの直線を基準としてその中点を採る垂線として中心点を容易に特定できる。中心点はレンダリングを行う際の基準点となるものである。もっとも、中心点から観察窓の位置を特定し、その位置をレンダリング基準点とするようにしてもよい。3点が決まれば先端面を定義でき、それをレンダリング開始面あるいはレンダリング基準面として用いるようにしてもよい。本実施形態においては、複数の反射球を円環状に並べたので、プローブの位置がどこにあっても基本的に少なくとも3つの高輝度点を抽出することが可能である。   FIG. 17 is a conceptual diagram showing a method for specifying the center point of the tip surface. Now, when the three-dimensional positions (three-dimensional coordinates) of the high-luminance points P1, P2, and P3 adjacent to each other are specified, there are two adjacent high-luminance point pairs, and two straight lines L1 passing through these pairs. , L2 is identified. The distance on each straight line L1, L2 is a. A midpoint of each straight line L1, L2 is specified, and perpendicular lines (orthogonal lines) L3, L4 passing through the midpoint are specified. A center point O is specified as the intersection between them. In the example shown in FIG. 17, three high-intensity points are arranged, but even if this is not the case, the center point can be easily set as a perpendicular line taking the midpoint with reference to two straight lines defined by the three points. Can be specified. The center point is a reference point for rendering. However, the position of the observation window may be specified from the center point, and the position may be used as the rendering reference point. If three points are determined, a front end surface can be defined, and it may be used as a rendering start surface or a rendering reference surface. In the present embodiment, since the plurality of reflecting spheres are arranged in an annular shape, basically at least three high-luminance points can be extracted regardless of the position of the probe.

次に、参考までに、3つの高輝度点(三次元空間内の3点)を含む平面の式の求め方を説明する。3点の座標は以下の通りである。

Figure 2011104079
Next, for reference, a method for obtaining a plane equation including three high-luminance points (three points in a three-dimensional space) will be described. The coordinates of the three points are as follows.
Figure 2011104079

求めるべき平面は以下の式によって定義されるものとする。

Figure 2011104079
The plane to be obtained is defined by the following equation.
Figure 2011104079

具体的には上記式に含まれる3つの係数a,b,cを求める。dは上記3つの係数に含めて計算できるので、ここでは便宜上d=1として計算することができる。つまり、

Figure 2011104079
において、d=1とすると、上記(1)式は、以下のように表現される。
Figure 2011104079
Specifically, three coefficients a, b, and c included in the above formula are obtained. Since d can be calculated by being included in the above three coefficients, it can be calculated as d = 1 for convenience. That means
Figure 2011104079
Where d = 1, the above equation (1) is expressed as follows.
Figure 2011104079

上記3点は上記(3)式を満たすことから,次の連立方程式を満たすa、b、cを求めることにより、平面の式が得られる。

Figure 2011104079
Since the above three points satisfy the above equation (3), a plane equation can be obtained by obtaining a, b, and c that satisfy the following simultaneous equations.
Figure 2011104079

行列式の表現を用いて、この連立方程式を解くことにすると、(4)式は次のように表現される。

Figure 2011104079
If this simultaneous equation is solved using the expression of the determinant, the expression (4) is expressed as follows.
Figure 2011104079

上記(5)式の両辺に行列Pの逆行列を掛けることにより、行列Kが求まる。

Figure 2011104079
A matrix K is obtained by multiplying both sides of the above equation (5) by the inverse matrix of the matrix P.
Figure 2011104079

ここで、

Figure 2011104079
であるから、Kは、
Figure 2011104079
により求めることが可能である。但し、以下の通りである。
Figure 2011104079
here,
Figure 2011104079
So K is
Figure 2011104079
It is possible to obtain by However, it is as follows.
Figure 2011104079

したがって、平面の式は以下のように求められる。

Figure 2011104079
Therefore, the plane equation is obtained as follows.
Figure 2011104079

上記実施形態の構成によれば、送受波座標系において、内視鏡の先端部の三次元座標を特定できるから、プローブ及び内視鏡のそれぞれに測位装置を設けてそれぞれの絶対座標を計測する必要がなく、システム構成を簡略化できると共に、位置決め精度も高められる。超音波画像の生成及び画像合成は、ボリュームスキャンごとにリアルタイムで行われるので、合成画像を術者に提供して、内視鏡の操作を支援することができるから、診断治療を円滑に遂行させることができ、しかも安全性も高められる。このように本システムは医療上有益なる効果を生じさせるものである。   According to the configuration of the above embodiment, since the three-dimensional coordinates of the distal end portion of the endoscope can be specified in the transmission / reception coordinate system, a positioning device is provided in each of the probe and the endoscope to measure each absolute coordinate. This is not necessary, and the system configuration can be simplified and the positioning accuracy can be improved. Ultrasonic image generation and image synthesis are performed in real time for each volume scan, so the synthesized image can be provided to the surgeon and assist the operation of the endoscope, so that diagnostic treatment can be performed smoothly. It is possible to improve safety. Thus, this system produces a medically beneficial effect.

10 超音波診断装置、12 内視装置、14 プローブ、32 超音波画像形成部、34 画像合成部、42 内視鏡、44 イメージセンサ、45 内視装置本体、47 内視画像形成部、102 座標演算部。   DESCRIPTION OF SYMBOLS 10 Ultrasonic diagnostic apparatus, 12 Endoscopic apparatus, 14 Probe, 32 Ultrasonic image forming part, 34 Image composition part, 42 Endoscope, 44 Image sensor, 45 Endoscopic apparatus main body, 47 Endoscopic image forming part, 102 Coordinates Arithmetic unit.

Claims (13)

超音波反射体を備えた先端部を有し、体内に挿入される内視鏡と、
前記内視鏡の先端部を含む三次元空間に対して超音波を送受波する超音波プローブと、
前記三次元空間に対する超音波の送受波により得られたボリュームデータに含まれる超音波反射体固有エコーに基づいて前記先端部についての三次元座標情報を演算する座標演算手段と、
前記三次元座標情報に基づいて、前記ボリュームデータを用いて超音波画像を形成する超音波画像形成手段と、
前記超音波画像と前記内視鏡を用いて取得される内視画像とを合成することにより合成画像を生成する画像合成手段と、
を含むことを特徴とする医療画像処理システム。
An endoscope having a tip with an ultrasonic reflector and inserted into the body;
An ultrasonic probe for transmitting and receiving ultrasonic waves to and from a three-dimensional space including the tip of the endoscope;
Coordinate calculation means for calculating three-dimensional coordinate information about the tip based on an ultrasonic reflector specific echo included in volume data obtained by transmitting and receiving ultrasonic waves to and from the three-dimensional space;
An ultrasonic image forming means for forming an ultrasonic image using the volume data based on the three-dimensional coordinate information;
Image synthesizing means for generating a synthesized image by synthesizing the ultrasonic image and an endoscopic image acquired using the endoscope;
A medical image processing system comprising:
請求項1記載のシステムにおいて、
前記超音波反射体は前記先端部に設けられた複数の反射要素により構成される、ことを特徴とする医療画像処理システム。
The system of claim 1, wherein
The medical image processing system, wherein the ultrasonic reflector is composed of a plurality of reflecting elements provided at the tip.
請求項2記載のシステムにおいて、
前記複数の反射要素は前記先端部の中心軸の周りの環状経路上に設けられ、それらが反射要素列を構成する、ことを特徴とする医療画像処理システム。
The system of claim 2, wherein
The medical image processing system, wherein the plurality of reflective elements are provided on an annular path around a central axis of the tip, and constitute a reflective element array.
請求項3記載のシステムにおいて、
前記反射要素列は6個以上の反射球により構成される、ことを特徴とする医療画像処理システム。
The system of claim 3, wherein
The medical image processing system, wherein the reflective element array is composed of six or more reflective spheres.
請求項2乃至4のいずれか1項に記載のシステムにおいて、
前記座標演算手段は、
前記ボリュームデータの中から、前記超音波反射体固有エコーとして、複数の反射要素固有エコーを抽出する抽出手段と、
前記複数の反射要素固有エコーについての複数の三次元位置に基づいて、前記三次元座標情報を演算する解析手段と、
を含むことを特徴とする医療画像処理システム。
The system according to any one of claims 2 to 4,
The coordinate calculation means includes
Extracting means for extracting a plurality of reflection element specific echoes as the ultrasonic reflector specific echoes from the volume data;
Analysis means for calculating the three-dimensional coordinate information based on a plurality of three-dimensional positions of the plurality of reflection element specific echoes;
A medical image processing system comprising:
請求項5記載のシステムにおいて、
前記抽出手段は、
前記ボリュームデータの中から複数の高輝度エコーを抽出する高輝度エコー抽出手段と、
前記複数の高輝度エコーについての相互の位置関係に基づいて、前記各高輝度エコーが反射要素固有エコーであるか否かを識別する反射要素固有エコー抽出手段と、
を含むことを特徴とする医療画像処理システム。
The system of claim 5, wherein
The extraction means includes
High intensity echo extraction means for extracting a plurality of high intensity echoes from the volume data;
Reflection element specific echo extraction means for identifying whether each of the high intensity echoes is a reflection element specific echo based on the mutual positional relationship of the plurality of high intensity echoes;
A medical image processing system comprising:
請求項6記載のシステムにおいて、
前記高輝度エコー抽出手段は、判別閾値を段階的に引き下げつつ前記ボリュームデータを構成する各ボクセルデータと前記判別閾値とを比較することにより前記複数の高輝度エコーを抽出する、ことを特徴とする医療画像処理システム。
The system of claim 6, wherein
The high-intensity echo extraction unit extracts the plurality of high-intensity echoes by comparing each determination value with each voxel data constituting the volume data while gradually decreasing the determination threshold. Medical image processing system.
請求項6又は7記載のシステムにおいて、
前記反射要素固有エコー抽出手段は、高輝度エコー相互間距離に基づいて反射要素固有エコーを識別する、ことを特徴とする医療画像処理システム。
The system according to claim 6 or 7,
The medical image processing system, wherein the reflection element specific echo extraction means identifies the reflection element specific echo based on a distance between high-intensity echoes.
請求項8記載のシステムにおいて、
前記反射要素固有エコー抽出手段は、前記高輝度エコー相互間距離が上限値と下限値との間に含まれる条件を満たした3つ以上の反射要素固有エコーを抽出する、ことを特徴とする医療システム。
The system of claim 8, wherein
The reflection element specific echo extraction unit extracts three or more reflection element specific echoes that satisfy a condition in which the distance between the high-intensity echoes is included between an upper limit value and a lower limit value. system.
強反射体としての超音波反射体及び内視手段を備えた先端部を有し、体内に挿入される内視鏡と、
前記内視鏡を用いて取得される信号に基づいて内視画像を形成する内視画像形成手段と、
体外に設けられ、前記内視鏡の先端部を含む三次元空間に対して超音波を送受波する超音波プローブと、
前記三次元空間に対する超音波の送受波により得られたボリュームデータに含まれる超音波反射体固有エコーに基づいて、前記先端部についての三次元座標情報を演算する座標演算手段と、
前記三次元座標情報に基づいて、前記ボリュームデータを用いて超音波画像を形成する手段であって、当該超音波画像として前記内視画像の視野域をカバーする投影画像を形成する超音波画像形成手段と、
前記超音波画像と前記内視画像とを合成することにより合成画像を生成する画像合成手段と、
前記合成画像を前記内視鏡を操作する者に対して提供する表示手段と、
を含むことを特徴とする医療画像処理システム。
An endoscope having an ultrasonic reflector as a strong reflector and a distal end portion provided with an endoscopic means, and inserted into the body;
An endoscopic image forming means for forming an endoscopic image based on a signal acquired using the endoscope;
An ultrasonic probe that is provided outside the body and transmits and receives ultrasonic waves to and from a three-dimensional space including the tip of the endoscope;
Coordinate calculation means for calculating three-dimensional coordinate information about the tip based on the ultrasonic reflector specific echo contained in the volume data obtained by transmitting and receiving ultrasonic waves to and from the three-dimensional space;
Based on the three-dimensional coordinate information, an ultrasonic image forming unit that forms an ultrasonic image using the volume data, and forms a projection image that covers a visual field area of the endoscopic image as the ultrasonic image. Means,
Image combining means for generating a combined image by combining the ultrasonic image and the endoscopic image;
Display means for providing the composite image to a person operating the endoscope;
A medical image processing system comprising:
請求項10記載の装置において、
前記超音波画像形成手段は、
前記ボリュームデータに対して前記内視手段の視野をカバーする視線群を設定する手段と、
前記視線群を構成する各視線に沿って前記先端部側からその前方へレンダリングを実行することにより前記各視線ごとに画素値を演算し、これにより前記超音波画像を形成する手段と、
を含むことを特徴とする医療画像処理システム。
The apparatus of claim 10.
The ultrasonic image forming means includes:
Means for setting a line-of-sight group covering the field of view of the endoscopic means for the volume data;
Means for calculating a pixel value for each line of sight by performing rendering from the tip side to the front along each line of sight constituting the line of sight group, thereby forming the ultrasonic image;
A medical image processing system comprising:
請求項10記載の装置において、
前記画像合成手段は、広域画像としての前記超音波画像上に狭域画像としての内視画像を重合することにより前記合成画像を生成する、ことを特徴とする医療画像処理システム。
The apparatus of claim 10.
The medical image processing system, wherein the image synthesizing unit generates the synthesized image by superimposing an endoscopic image as a narrow area image on the ultrasonic image as a wide area image.
請求項10乃至12のいずれか1項に記載のシステムにおいて、
前記内視鏡は、双胎児間輸血症候群の治療のために子宮内に挿入される器具であってレーザー出射機能を備えた治療用器具である、ことを特徴とする医療画像処理システム。
The system according to any one of claims 10 to 12,
A medical image processing system, wherein the endoscope is a therapeutic instrument that is inserted into a uterus for treatment of a twin-to-twin transfusion syndrome and has a laser emission function.
JP2009261696A 2009-11-17 2009-11-17 Medical image processing system Expired - Fee Related JP5527841B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009261696A JP5527841B2 (en) 2009-11-17 2009-11-17 Medical image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009261696A JP5527841B2 (en) 2009-11-17 2009-11-17 Medical image processing system

Publications (2)

Publication Number Publication Date
JP2011104079A true JP2011104079A (en) 2011-06-02
JP5527841B2 JP5527841B2 (en) 2014-06-25

Family

ID=44228292

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009261696A Expired - Fee Related JP5527841B2 (en) 2009-11-17 2009-11-17 Medical image processing system

Country Status (1)

Country Link
JP (1) JP5527841B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103445756A (en) * 2012-05-31 2013-12-18 广州宝胆医疗器械科技有限公司 Rocket-like multichannel hard gallbladder endoscope
JP2019517291A (en) * 2016-05-31 2019-06-24 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Image-based fusion of endoscopic and ultrasound images
JP2019534110A (en) * 2016-11-16 2019-11-28 テラテク・コーポレーシヨン Portable ultrasound system
CN111225618A (en) * 2017-09-06 2020-06-02 德亚特管理私人有限公司 Image forming apparatus
US11317895B2 (en) 2018-12-27 2022-05-03 Samsung Medison Co., Ltd. Ultrasound diagnosis apparatus and method of operating the same
US11857363B2 (en) 2012-03-26 2024-01-02 Teratech Corporation Tablet ultrasound system

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0295246A (en) * 1988-09-30 1990-04-06 Toshiba Corp In-liquid inspection device
JPH09122098A (en) * 1995-10-31 1997-05-13 Toshiba Corp Movement information detector for tip part of endoscope probe
JPH10507104A (en) * 1994-08-19 1998-07-14 バイオセンス・インコーポレイテッド Diagnosis and handling of medical equipment and video system
JPH11110588A (en) * 1997-10-02 1999-04-23 Hitachi Medical Corp Three-dimensional image display
JP2002200058A (en) * 2000-10-17 2002-07-16 Koninkl Philips Electronics Nv Intravascular position recognizing and imaging method other than x-rays
JP2006198032A (en) * 2005-01-18 2006-08-03 Olympus Corp Surgery support system
JP2006288755A (en) * 2005-04-11 2006-10-26 Olympus Medical Systems Corp Medical treatment device
JP2007136133A (en) * 2005-11-18 2007-06-07 Toshio Fukuda System for presenting augmented reality
JP2008253581A (en) * 2007-04-05 2008-10-23 Olympus Medical Systems Corp Treatment instrument system

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0295246A (en) * 1988-09-30 1990-04-06 Toshiba Corp In-liquid inspection device
JPH10507104A (en) * 1994-08-19 1998-07-14 バイオセンス・インコーポレイテッド Diagnosis and handling of medical equipment and video system
JPH09122098A (en) * 1995-10-31 1997-05-13 Toshiba Corp Movement information detector for tip part of endoscope probe
JPH11110588A (en) * 1997-10-02 1999-04-23 Hitachi Medical Corp Three-dimensional image display
JP2002200058A (en) * 2000-10-17 2002-07-16 Koninkl Philips Electronics Nv Intravascular position recognizing and imaging method other than x-rays
JP2006198032A (en) * 2005-01-18 2006-08-03 Olympus Corp Surgery support system
JP2006288755A (en) * 2005-04-11 2006-10-26 Olympus Medical Systems Corp Medical treatment device
JP2007136133A (en) * 2005-11-18 2007-06-07 Toshio Fukuda System for presenting augmented reality
JP2008253581A (en) * 2007-04-05 2008-10-23 Olympus Medical Systems Corp Treatment instrument system

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11857363B2 (en) 2012-03-26 2024-01-02 Teratech Corporation Tablet ultrasound system
CN103445756A (en) * 2012-05-31 2013-12-18 广州宝胆医疗器械科技有限公司 Rocket-like multichannel hard gallbladder endoscope
JP2019517291A (en) * 2016-05-31 2019-06-24 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Image-based fusion of endoscopic and ultrasound images
JP7133474B2 (en) 2016-05-31 2022-09-08 コーニンクレッカ フィリップス エヌ ヴェ Image-based fusion of endoscopic and ultrasound images
JP2019534110A (en) * 2016-11-16 2019-11-28 テラテク・コーポレーシヨン Portable ultrasound system
CN111225618A (en) * 2017-09-06 2020-06-02 德亚特管理私人有限公司 Image forming apparatus
JP2020532394A (en) * 2017-09-06 2020-11-12 デ・ラート・ビヘーア・ベー・フェー Imaging device
US11317895B2 (en) 2018-12-27 2022-05-03 Samsung Medison Co., Ltd. Ultrasound diagnosis apparatus and method of operating the same

Also Published As

Publication number Publication date
JP5527841B2 (en) 2014-06-25

Similar Documents

Publication Publication Date Title
JP6462164B2 (en) System and method for improved imaging of objects in images
JP4868959B2 (en) Body cavity probe device
JP6615603B2 (en) Medical image diagnostic apparatus and medical image diagnostic program
US20170095226A1 (en) Ultrasonic diagnostic apparatus and medical image diagnostic apparatus
JP5527841B2 (en) Medical image processing system
JP2009153863A (en) Medical system
WO2014076931A1 (en) Image-processing apparatus, image-processing method, and program
JP2007136133A (en) System for presenting augmented reality
JP2008220802A (en) Medical image diagnostic apparatus
JP2010069018A (en) Medical guide system
JP6125380B2 (en) Ultrasonic diagnostic apparatus, medical image processing apparatus, and image processing program
WO2013011733A1 (en) Endoscope guidance system and endoscope guidance method
JP5477889B2 (en) Medical navigation system
JP2009291295A (en) Medical image processor, ultrasonic diagnostic apparatus and ultrasonic image acquisition program
JP2012513238A (en) Automatic 3D acoustic imaging for medical procedure guidance
JP4205957B2 (en) Ultrasonic diagnostic equipment
JP2010088699A (en) Medical image processing system
JP5942217B2 (en) Ultrasonic diagnostic apparatus, ultrasonic image processing apparatus, and ultrasonic image processing program
US20120123249A1 (en) Providing an optimal ultrasound image for interventional treatment in a medical system
US20120095341A1 (en) Ultrasonic image processing apparatus and ultrasonic image processing method
JP4869197B2 (en) Medical guide device
JP4869189B2 (en) Medical guide system
JP5354885B2 (en) Ultrasound diagnostic system
JP2000116655A5 (en)
WO2022181517A1 (en) Medical image processing apparatus, method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121003

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131001

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140401

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140411

R150 Certificate of patent or registration of utility model

Ref document number: 5527841

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees