WO2004100794A1 - 超音波画像処理装置 - Google Patents

超音波画像処理装置 Download PDF

Info

Publication number
WO2004100794A1
WO2004100794A1 PCT/JP2004/006865 JP2004006865W WO2004100794A1 WO 2004100794 A1 WO2004100794 A1 WO 2004100794A1 JP 2004006865 W JP2004006865 W JP 2004006865W WO 2004100794 A1 WO2004100794 A1 WO 2004100794A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
ultrasonic
data
dimensional
processing apparatus
Prior art date
Application number
PCT/JP2004/006865
Other languages
English (en)
French (fr)
Inventor
Junichi Ichikawa
Masayoshi Abe
Original Assignee
Olympus Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corporation filed Critical Olympus Corporation
Priority to EP04733142.6A priority Critical patent/EP1625827B1/en
Publication of WO2004100794A1 publication Critical patent/WO2004100794A1/ja
Priority to US11/271,478 priority patent/US7697779B2/en

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/12Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N29/00Investigating or analysing materials by the use of ultrasonic, sonic or infrasonic waves; Visualisation of the interior of objects by transmitting ultrasonic or sonic waves through the object
    • G01N29/04Analysing solids
    • G01N29/06Visualisation of the interior, e.g. acoustic microscopy
    • G01N29/0609Display arrangements, e.g. colour displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof

Definitions

  • the present invention relates to an ultrasonic image processing apparatus that transmits and receives ultrasonic waves to and from an inspection target and performs image processing for obtaining an ultrasonic image.
  • ultrasonic diagnostic apparatuses have been widely used in the medical field and the industrial field.
  • This ultrasonic diagnostic apparatus non-invasively diagnoses the inspection object ⁇ by transmitting and receiving ultrasonic waves to and from the inspection object.
  • an ultrasonic diagnostic apparatus In the ultrasonic diagnostic apparatus, an image obtained by ultrasonic scanning is a two-dimensional image. For this reason, an ultrasonic diagnostic apparatus may be used in combination with an ultrasonic image processing apparatus that constructs a three-dimensional image from a two-dimensional image in order to provide a user with an image that is easier to diagnose.
  • FIG. 24 of Japanese Patent Laid-Open Publication No. 2000-3108164 discloses a device capable of displaying a three-dimensional image.
  • the present invention has been made in view of the above points, and has as its object to provide an ultrasonic image processing apparatus capable of changing and displaying a display state of a display object by a simple operation using image operation input means. And Disclosure of the invention
  • the ultrasonic image processing apparatus uses the three-dimensional echo data to detect In an ultrasonic image processing apparatus capable of displaying an ultrasonic image of an object,
  • Image construction means for constructing a three-dimensional image based on the echo data
  • An image operation input means for operating to change the display state of the constructed three-dimensional image
  • Image display state changing means for changing a display state of the constructed three-dimensional image based on input information input to the image operation input means
  • FIG. 1 is a block diagram showing the overall configuration of an ultrasonic diagnostic apparatus provided with one embodiment of the present invention
  • FIG. 2 is an explanatory diagram showing a state of ultrasonic scanning for obtaining a two-dimensional image and a three-dimensional image.
  • FIG. 3 is a diagram showing a state where a radial image or the like is obtained from the operation of FIG.
  • FIG. 4 is a diagram showing a display example in which a two-dimensional image and a three-dimensional image are simultaneously displayed in four display areas.
  • Fig. 5 is a diagram showing a display example in which a 2D image and a 3D image with a different layout from Fig. 4 are displayed simultaneously.
  • Figure 6 is a flowchart showing the processing procedure of the method for detecting the boundary position of multiple echoes for removing multiple echoes.
  • Figure 7 is an explanatory diagram of the detection of the multiple echo boundary position
  • FIG. 8 is a flowchart showing a processing procedure of 3D image drawing.
  • FIG. 9 is a flowchart showing a processing procedure for displaying a three-dimensional image in a state corresponding to an operation such as a rotation operation by the image operation input means.
  • Figures 1OA and 10B show examples of display of 3D images before and after the rotation operation.
  • Figures 11A, 11B and 11C show the 3D images before and after the cross-section movement operation.
  • FIGS. 12A and 12B are diagrams showing display examples of a three-dimensional image before and after a scroll operation.
  • an ultrasonic diagnostic apparatus 1 includes an ultrasonic probe 2 for transmitting and receiving ultrasonic waves, and an ultrasonic probe 2 connected to the ultrasonic probe 2.
  • An ultrasonic observation device 3 that performs signal processing on an echo signal obtained by the ultrasonic observation device to display an ultrasonic tomographic image, and performs various image processing based on the echo data obtained by the ultrasonic observation device 3.
  • a monitor 5 connected to the image processing apparatus main body 4 and displaying an ultrasonic tomographic image and a three-dimensional image. .
  • the ultrasonic probe 2 has an elongated probe insertion section 6, and an ultrasonic transducer 7 for transmitting and receiving ultrasonic waves is built in the distal end side of the probe insertion section 6.
  • the ultrasonic vibrator 7 is attached to a distal end of a flexible shaft 8 penetrated into the probe inlet 6.
  • a driving unit 9 is built in a gripping portion at the rear end of the probe insertion unit 6.
  • the driving unit 9 includes a first motor and a second motor (not shown), and rotates the first motor to rotate the ultrasonic vibrator 7 to sequentially emit ultrasonic waves radially. I have.
  • the second motor constituting the drive unit 9 moves the flexible shaft 8 in the axial direction (for example, the Z-axis direction in the longitudinal direction) of the probe insertion unit 6 by the rotation thereof, and The ultrasonic wave emitted by 7 is linearly scanned in the Z-axis direction.
  • the image processing apparatus main body 4 is connected to the ultrasonic observation apparatus 3 by a cable 11.
  • the image processing apparatus body 14 includes a network interface (abbreviated as I / F) 12 connected to the cable 11, image processing for generating tomographic images and three-dimensional images, and processing for removing multiple echoes.
  • I / F network interface
  • DVD-RAM 17 and MOD 18 may be connected via USB or Ethernet (R).
  • the image processing apparatus includes the image processing apparatus main body 4, a monitor 5, a DVD-RAM 17, a MOD 18, a trackball 21, and a keyboard 22.
  • the program is stored, for example, on a magneto-optical disk (abbreviated as MO) 25 that is attached to and detached from the MOD 18.
  • MO magneto-optical disk
  • the program may be stored in another recording medium such as a CD-ROM.
  • the CPU 13 reads the program from the HDD 15 and performs processing according to the program.
  • the ultrasonic diagnostic apparatus 1 rotates the ultrasonic vibrator 7 (at the tip of the flexible shaft 8) in the probe inlet 6 while moving the ultrasonic vibrator 7 in the Z direction to radially radiate ultrasonic waves in a direction orthogonal to the Z axis.
  • Waves are transmitted to the object to be inspected, and the reflected ultrasonic waves reflected at the change in acoustic impedance on the object to be inspected are received and converted into electrical signals by the ultrasonic vibrator 7, which is inside the ultrasonic observation device 3.
  • the signal is amplified and then detected by, and is further subjected to AZD conversion to digital echo data (sound ray data), which is temporarily stored in a memory or the like in the ultrasonic observation apparatus 3.
  • the probe input unit can be obtained from a large number of sound ray data obtained. It is possible to generate a two-dimensional ultrasound image (hereinafter referred to as a radial image) Gr of a cross section almost perpendicular to the 6 axis direction (that is, the Z axis direction).
  • the ultrasonic vibrator 7 is linearly moved at predetermined pitch units from the position Pa to the position Pc in the Z direction.
  • the radial images Gr at predetermined pitches from the number N1 to the Nnth are stored in the HDD 15 of the image processing apparatus main body 4 via the ultrasonic observation apparatus 3.
  • the obtained radial image G r is transferred to the memory 14 and stored in the memory space as shown in FIG. 3.
  • the data of the (vertical) linear image GV 1 when the radial image G r is viewed from the side from the memory space is obtained.
  • the CPU 13 interpolates the interval, transfers the interpolated interval to the frame memory 16, and can display the radial image Gr and the corresponding rear image GV 1 on the monitor 5.
  • a three-dimensional image Gs is generated from the radial image Gr shown in FIG. 3, and for example, as shown in FIG. 4, the display unit of the monitor 5 has four image display areas (specifically, The radial image display area, the vertical linear image display area, the horizontal linear image display area, and the three-dimensional image display area) respectively include the radial image Gr, the vertical linear image Gvl, and the horizontal linear image Gh1 (as viewed from the right). , 3D images G s and are displayed.
  • the vertical linear image GV 1 and the horizontal linear image Gh 1 are correspondingly moved. Is updated and displayed. That is, a vertical linear image GV1 corresponding to the position of the cut line Y1 displayed on the radial image Gr is displayed, and a horizontal linear image Gh1 corresponding to the position of the cutline X1 is displayed. In the 3D image display area, a 3D image Gs is displayed with a cut plane Ml, ⁇ 2 corresponding to the cut lines Yl, XI.
  • a track is used as an input means for moving the cut line.
  • the ball 21 is illustrated, a mouse, a joystick, a trackpad, a cursor / key, or the like may be used.
  • the positions of the cut lines Y 1, 1 ⁇ cut surface ⁇ 1 and M 2 can be changed by a user operation.
  • the CPU 13 performs processing for generating a radial image Gr, linear images Gvl, Ghl, and a three-dimensional image Gs corresponding to the changed position, and the monitor 5 displays those images.
  • the display layout can be changed and displayed.
  • the layout shown in FIG. 4 and the layout shown in FIG. 5 can be switched (selected) and displayed, and the user can freely select the layout of FIG. 4 and the layout of FIG.
  • the layout of the image display shown in FIG. 5 is such that the upper and lower display positions of the left radial image G r and the vertical recurrent image G v 1 in FIG. 4 are swapped, and the right horizontal linear image G h1 and the three-dimensional image G s
  • the layout is such that the upper and lower display positions are interchanged.
  • the multiple echo portion is removed so that the state of the inner wall surface is displayed in an easily understandable manner.
  • the linear scanning direction can be easily understood by displaying the multiple echoes at the start point without removing the entire multiple echoes.
  • the position of the two vertices near the head is detected for the first frame, and for all the sound rays in that frame, and the frequency of the second vertex is the highest.
  • the multi-echo boundary position is calculated by multiplying a predetermined coefficient based on the high position.
  • the CPU 13 in the image processing apparatus body 4 of the present embodiment detects the maximum intensity (maximum luminance) of the echo data with respect to all the echo data (sound ray data) in the first frame.
  • Means a reference intensity calculating means for calculating a reference intensity set corresponding to the detected maximum intensity, and a (separation) distance from a position at which ultrasonic waves are transmitted / received to a position at which echo data is equal to or greater than the reference intensity.
  • Boundary position calculating means for calculating a boundary position (the type of echo data changes) by multiplying the distance by a set coefficient, and an echo between the ultrasonic transmission / reception position and the boundary position It has a function as an echo data erasing means for erasing data. Then, using the echo data from which the echo data on the ultrasonic vibrator 7 side has been erased from the boundary position calculated by the echo data erasing means, a three-dimensional image from which multiple processes have been removed can be quickly displayed.
  • the multiple echo boundary position is detected for (the digital sound ray data of) the first frame obtained first, and the subsequent multiple echo boundary position data obtained from this detection result is used to determine the subsequent multiple echo boundary position.
  • the boundary position of multiple echoes can be calculated by simple processing, and the calculation result can be used for sound ray data of other frames to easily and quickly eliminate the effects of multiple echoes. It is possible to quickly display 3D images etc. from which multiple echo parts have been removed.
  • sound ray data is provided corresponding to the time position in order to detect the (luminance peak) vertex position by frequency in the first step S1 shown in FIG.
  • Initialize the array for storing detection frequency data hereinafter referred to as the apex position frequency array
  • the apex position frequency array to store the frequency content of each array element, that is, the frequency count to 0.
  • step S2 the parameter i representing the number of the current ray is set to 1 for the whole ray (specifically, 5 12 rays), and the step number is set for this i-th ray.
  • the maximum luminance (maximum intensity) is calculated as shown in step S3.
  • the maximum luminance is calculated by comparing the value of the first captured data in the sound ray data with the value of the next captured data, and comparing the data with the next data except for the larger one. Can be calculated for the maximum luminance at.
  • the first and second threshold values V1 for calculating the luminance of the two peaks are set to V2.
  • the first and second threshold values V 1 are set to V 2 and
  • V 2 0.6 of maximum brightness Is set to Note that VI may be set to about 0.8 ⁇ V1 ⁇ 1.0, and V2 may be set to V2 and V1.
  • step S5 for a part that is, for example, 1 to 8 from the beginning of the current sound ray data, the first threshold V1 or more is satisfied from the beginning, and the second It is determined whether there is sound ray data that satisfies the condition not less than the threshold value V2.
  • the purpose is to calculate the boundary position of the multiple echo portion, it is sufficient to perform the process only for a part from the head of the sound ray data.
  • step S 6 the frequency of the vertex position frequency array element (frequency of the vertex position frequency array corresponding to the (second vertex) position of the sound ray data that satisfies the second threshold value V 2 when this determination condition is satisfied.
  • the count is incremented by 1, and the process proceeds to the next step S7.
  • step S5 if the sound ray data does not satisfy both conditions in step S5, 1 is added to i as shown in step S8, and the process returns to step S2. The same processing is performed on the next sound ray data. Do.
  • step S7 it is determined whether or not i is larger than the last ray number, that is, i> 5 1 2. If not, step S 8 is performed and step S 2 is performed. Return and repeat the same process for the next sound ray.
  • step S9 the process proceeds to step S9, and the second (second) in the entire sound ray is targeted for the vertex position frequency array.
  • the array element Am at the position with the highest frequency as the vertex is calculated by detecting the one with the highest frequency count stored in all the array elements.
  • step S10 the position obtained by multiplying the second (second) vertex position P2 corresponding to the array element Am at the most frequent position by a predetermined coefficient C is defined as the multiplex boundary position P Calculate as b.
  • the second vertex position P 2 sets the position of the ultrasonic wave emitting surface of the ultrasonic vibrator 7 to 0, the second vertex position P 2 is determined from the position of the ultrasonic wave emitting surface of the ultrasonic vibrator 7. It represents the distance to position P2. That is, the second vertex position P 2 is a distance from the position where the ultrasonic wave is transmitted / received to the second vertex position P 2.
  • the predetermined coefficient C determines the position of the end portion of the echo waveform having the position P 2 of the second vertex. Therefore, the predetermined coefficient C is multiplied by the multiplied echo boundary position P b Instead of determining the position, the multiple echo boundary position pb may be determined by directly calculating the position of the end portion of the echo waveform having the position P 2 of the second term point.
  • FIG. 7 is an explanatory diagram of the processing of FIG. Fig. 7 shows the radial image of the first frame obtained in the lower part.
  • the waveform of the sound ray data (echo data) obtained when scanning in that direction is shown above, for example, as shown by the horizontal line. Shown in In this case, the horizontal axis indicates distance or time, and the vertical axis indicates luminance.
  • the first and second vertices can be detected by performing the processing shown in FIG. 6 described above. Then, by multiplying the position P2 of the second vertex by the predetermined coefficient C, the end position of the echo waveform forming the second vertex can be detected as the multiple echo boundary position Pb.
  • FIG. 6 shows a waveform for one piece of sound ray data.
  • the multi-echo boundary position Pb is calculated from the one having the maximum frequency for all sound rays.
  • Echo data sound ray data
  • the multiple echoes were removed by removing all data values to, for example, 0. Echo data (sound ray data) will be obtained.
  • the most frequent array element Am is automatically calculated. Number of ray data or number of all ray data that satisfy condition 5 May be limited by the ratio or the like. If the ratio of sound ray data that satisfies the condition of step S5 is small, a detection error may be displayed and the processing may be terminated.
  • initial settings such as an inner wall display portion for displaying a three-dimensional image are set, and a parameter n indicating a frame number is set to 1.
  • next step S12 the n-th (in this case, the first) sound ray data for one frame is acquired, and in the next step S13, the multiple echo boundary position is determined as described with reference to FIG. A process for calculating Pb is performed.
  • next step S14 a part on the ultrasonic transmission / reception side from the multiple echo boundary position Pb is removed from the entire sound ray data of this frame to remove the multiple echo part, and the three-dimensional image drawing process is started.
  • next step S15 the parameter n is incremented by 1, and in the next step S16, the sound ray data of the n-th frame is obtained, and the sound ray data of that frame is obtained.
  • the multiple echo boundary position Pb (obtained in step S13) is applied to remove the multiple echo portion in the n-th frame. Furthermore, it uses the sound ray data of the n-th frame from which the multiple echo part has been removed for drawing a three-dimensional image.
  • next step S 18 it is determined whether the process has been performed up to the last frame number (that is, whether it is equal to or greater than the last frame number). .
  • the multiplex echo boundary position Pb is calculated from the sound ray data of the first frame, and the multiplex echo boundary position Pb is calculated. Remove the multiple echoes in that frame and start the 3D image rendering process. After that, the sound ray data of the frame is obtained sequentially Since a part of the multiplex process is removed from the sound ray data of the frame and used for constructing a three-dimensional image, drawing of the three-dimensional image proceeds sequentially with the sequential acquisition of the frame.
  • the CPU 13 draws a three-dimensional image as described above.
  • the drawing of the three-dimensional image is generated by the processing shown in FIG. Triggered by operation input from image operation input means such as, etc., performs processing such as wall movement, rotation, scrolling etc. in response to the input operation, and reconstructs 3D images with different display states almost in real time .
  • step S21 wall coordinate data of a wall part in the three-dimensional image is created as shown in step S21.
  • This wall coordinate data is data representing a substantially cylindrical surface in the case of a body cavity inner wall.
  • step S22 the wall coordinate data is converted into the wall coordinate data in accordance with the current state, and processing such as movement and rotation is performed.
  • next step S24 for each surface of the cube, a portion that intersects with the converted wall surface coordinate data is removed, and in the remaining region, an ultrasonic cross-sectional image corresponding to each surface is drawn.
  • step S25 the three-dimensional image shown in step S25 is drawn.
  • a drawing example of this three-dimensional image is, for example, FIG. 1OA, and the wall surface is displayed with, for example, a skin color.
  • step S26 it is determined whether or not the user has an image operation input means by the track pole 21 (provided in the present image processing apparatus). If the image operation input means is not operated, the process returns to step S25, and the display of the three-dimensional image is maintained without change.
  • step S 22 Return to 2 and perform the processing corresponding to the operation in real time.
  • a rotation operation, a cross-sectional movement, a scroll operation, or the like is performed by the trackball 21 as an image operation input means
  • a minute operation amount due to each operation is detected, this is used as a trigger, and the minute operation amount is almost reduced.
  • processing from steps S22 to S25 is performed, and in step S26, the presence or absence of an operation input such as a rotation operation is determined.
  • the process returns to step S22 again in synchronization with the operation or the like, and the same processing is performed.
  • the operation of rotation, cross-section movement and scrolling is performed, a region of interest may be marked, and rotation, cross-section movement and scrolling may be performed using the marking as a mark.
  • the three-dimensional image displayed in conjunction with the rotation operation or the like also rotates, and the user performs an operation using the image operation input unit.
  • a 3D image corresponding to the operation input is displayed almost in real time.
  • FIGS. 10A and 10B show three-dimensional image examples before and after the rotation operation. That is, the three-dimensional image shown in FIG. 10A is rotated and moved by the operation input of the rotation operation by the track pole 21, and the three-dimensional image rotated and displayed as shown in FIG. 10B is displayed.
  • a three-dimensional image corresponding to a case where the three-dimensional image shown in FIG. 10A is rotated around a central axis for transmitting and receiving ultrasonic waves radially is displayed.
  • the rotation operation updates the wall data (inner wall data) whose display is specified, and also updates the tomographic data of the vertical and horizontal cross-sections around it.
  • the three-dimensional image obtained by the rotation operation in the present embodiment corresponds to the rotation operation about the axis of the recursive movement of the ultrasonic transducer 7, and therefore, the three-dimensional image around the central axis in the two-dimensional radial image. Corresponds to the rotation operation of.
  • the region of interest such as the wall surface in the body cavity can be displayed as a three-dimensional image, and the three-dimensional image and the region of interest can be displayed by the pointing device such as the track pole 21.
  • the display state is updated in real time for the operation, the user can observe the desired 3D image, and it is easy to diagnose An environment that can provide acoustic images can be realized.
  • the rotation, cross-sectional movement, and scroll operation are those realized in the case of a two-dimensional tomographic image and are extended in a three-dimensional image.
  • the display state of the corresponding 2D image can be changed by performing operations such as rotation on the 3D image, and the operations such as rotation can be performed on the 3D image in the same way as in the 2D image. You can change the display state.
  • the image operation input means is not limited to the track pole 21 but may be another operation input means such as the above-mentioned mouse / scroller.
  • the display state of the three-dimensional image is changed by a simple operation of the image operation input means, for example, rotation, cross-sectional movement, and scrolling of the ultrasonic image.
  • the display state of the 3D image can be easily changed, and especially when applied to an ultrasonic image obtained in the body cavity, the display state of the region of interest can be easily changed, and the observation in the body cavity can be performed. It is also useful in the industrial field.

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • General Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Immunology (AREA)
  • Acoustics & Sound (AREA)
  • Biochemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Investigating Or Analyzing Materials By The Use Of Ultrasonic Waves (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

3次元画像を表示する場合は、エコーデータにより3次元画像の壁面座標データが作成され(S21)、現在の状態に対応してその壁面座標データが移動や回転等の変換され(S22)、さらに壁面座標データにおける3次元表示する立方体部分との交差部分が抽出され、その交差部分のデータを基に壁面が描画され(S23)、立方体の各面について、変換処理後の壁面座標データと交差する部分が除去され、残りの領域には各面の断層像が描画され(S24)、3次元画像が描画され(S25)、そして、画像入力手段による操作入力の有ると、ステップS22に戻りその操作入力に対応した処理が繰り返されて、操作入力に対応した表示状態の3次元描画がリアルタイムで描画されるようになっている。その結果、簡単な操作で表示対象物の表示状態を変更して表示することが可能である。

Description

明 細 書 超音波画像処理装置 技術分野
本発明は、 検査対象物に対し超音波を送受信して超音波画像を得るための画像 処理を行う超音波画像処理装置に関する。 背景技術
近年、 超音波診断装置は、 医療用分野及び工業用分野において、 広く用いられ ている。 この超音波診断装置は、 超音波を検査対象物に対して送受信することに より、 検査対象物內を非侵襲的に診断するものである。
前記超音波診断装置は、超音波の走査により得られる画像が 2次元画像となる。 このため、 超音波診断装置は、 ユーザに対してより診断し易い画像を提供するた めに、 2次元画像から 3次元画像を構築する超音波画像処理装置と組み合わせて 使用される場合がある。
例えば、 3本国特許公開 2 0 0 0— 3 1 6 8 6 4号公報の図 2 4には、 3次元 画像を表示できるようにしたものが開示されている。
従来例では、 表示させる前に各種パラメータの設定を行った後、 3次元画像を 表示 (構築) するようにしていた。
このような従来の超音波画像処理装置では、 3次元画像を構築した場合、 内壁 面等の関心領域の表示をマウス等の画像操作手段による簡単な操作で変更するこ とができなかった。
本発明は、 上述した点に鑑みてなされたもので、 画像操作入力手段による簡単 な操作で表示対象物の表示状態を変更して表示することができる超音波画像処理 装置を提供することを目的とする。 発明の開示
本発明の超音波画像処理装置は、 3次元領域のエコーデータを用いて検查対象 物の超音波画像を表示可能とする超音波画像処理装置において、
前記エコーデータに基づき 3次元画像を構築する画像構築手段と、
前記構築された 3次元画像の表示状態を変更するよう操作する画像操作入力手 段と、
前記画像操作入力手段に入力された入力情報に基づいて前記構築された 3次元 画像の表示状態を変更する画像表示状態変更手段と、
を備える。 図面の簡単な説明
図 1は、 本発明の 1実施の形態を備えた超音波診断装置の全体構成を示すプロ ック図、
図 2は、 2次元画像と 3次元画像を得るための超音波走査の様子を示す説明図、 図 3は、 図 2の動作からラジアル画像等が得られる様子を示す図、
図 4は、 4つの表示エリアに 2次元画像と 3次元画像を同時に表示した表示例 を示す図、 .
図 5は、 図 4とは異なるレイアウトでの 2次元画像と 3次元画像を同時に表示 した表示例を示す図、 '
図 6.は、 多重エコーを除去するための多重エコー境界位置の検出方法の処理手 順を示すフローチヤ一ト図、
図 7は、 多重エコー境界位置の検出の説明図、
図 8は、 3次元画像描画の処理手順を示すフローチャート図、
図 9は、 画像操作入力手段による回転操作等の操作に対応した状態の 3次元画 像の表示処理を行う処理手順を示すフローチャート図、
図 1 O A及び図 1 0 Bは、 回転操作前後の 3次元画像の表示例を示す図、 図 1 1 A、 図 1 1 B及ぴ図 1 1 Cは、 断面移動操作前後の 3次元画像の表示例 を示す図、
図 1 2 A及び図 1 2 Bは、 スクロール操作前後の 3次元画像の表示例を示す図 である。 発明を実施するための最良の形態
以下、 図面を参照して本発明の実施の形態を説明する。
図 1ないし図 1 2 Bは、 本発明の 1実施の形態を示している。 図 1に示すよう に本発明の 1実施の形態を備えた超音波診断装置 1は、 超音波の送受波を行う超 音波プローブ 2と、 この超音波プローブ 2に接続され、 この超音波プローブ 2に より得られるエコー信号に対して信号処理を施して超音波断層像の表示を可能と する超音波観測装置 3と、 この超音波観測装置 3により得られたエコーデータを 基に各種画像処理を行う超音波画像処理装置本体 (以下、 画像処理装置本体と略 記) 4と、 この画像処理装置本体 4に接続され、 超音波断層像及び 3次元画像を 表示するモニタ 5とを有している。
前記超音波プローブ 2は、 細長のプローブ挿入部 6を有し、 このプローブ揷入 部 6の先端側に超音波を送受波する超音波振動子 7が内蔵されている。 この超音 波振動子 7は、 前記プローブ揷入部 6内に揷通されたフレキシブルシャフト 8の 先端に取り付けられている。 前記プローブ揷入部 6の後端の把持部内には、 駆動 部 9が内蔵されている。 この駆動部 9は、 図示しない第 1モータ及ぴ第 2モータ を備え、 前記第 1モータを回転することにより超音波振動子 7を回転駆動して超 音波を放射状に順次出射するようになっている。 また、 駆動部 9を構成する前記 第 2モータは、 その回転により、 前記フレキシブルシャフト 8をプローブ揷入部 6の軸方向 (長手方向で例えば Z軸方向とする) に移動させ、 前記超音波振動子 7により出射される超音波を Z軸方向にリニア走査するようになっている。
前記画像処理装置本体 4は、 前記超音波観測装置 3にケーブル 1 1により接続 されている。 この画像処理装置本体 1 4は、 ケーブル 1 1に接続されるネットヮ 一クインタフエース ( I / Fと略記) 1 2と、 断層像及び 3次元画像を生成する 画像処理や、 多重エコーの除去処理等を行う C P U 1 3と、 この C P U 1 3によ り画像処理のワークエリアとして使用されたり、 画像処理に必要なデータの一時 格納などに利用されるメモリ 1 4と、 前記 C P U 1 3が行う画像処理のプロダラ ムデータや画像データが記録されるハードディスク装置(H D Dと略記) 1 5と、 モニタ 5に表示される画像データが一時格納されるフレームメモリ 1 6と、 画像 データの記録を再現可能に保存 (記録) する大容量の記録手段としての D V D— RAMI 7及ぴ光磁気ディスク装置(MODと略記) 1 8とのインタフェース( I /F) としてのスカジ IZS (SCS I I/Fと略記) 1 9と、 入力デバイスと して操作指示や選択を行う トラックポール 21及ぴ操作指示や選択の他にコマン ドゃデータ入力を行うキーポード 2 2に対する I /Fとしての入力デバイス I /
F 23とを内蔵し、 ネットワーク IZF 12、 CPU 1 3, メモリ 14、 HDD 1 5、 フレームメモリ 16、 SCS I I /F 18 , 入力デバイス I/F 21はノ ス 24により接続され、 データを転送可能になっている。
なお、 D VD— R AM 1 7及び MOD 18は、 U SBやイーサネツット (R) を介して接続しても良い。
なおまた、 画像処理装置は、 前記画像処理装置本体 4と、 モニタ 5と、 DVD -RAM 1 7と、 MOD 18と、 トラックボール 21及ぴキーボード 22とで構 成される。 本実施の形態では、 プログラムは、 例えば MOD 18に着脱される光 磁気ディスク (MOと略記) 25に格納される。 この MO 25を MOD 18に揷 入し、 このプログラムをインストールする作業により、 HDD 1 5にそのプログ ラムが実行形式で格納されるようになる。
前記 M025の代わりに、 CD— ROM等の他の記録媒体にプログラムを格納 しても良い。 ィンストールした後は、 C PU 13は HDD 1 5からプログラムを 読み出してそのプログラムに沿った処理を行うようになる。
上述のように駆動部 9には、 第 1モータと第 2モータとを設けてあるので、 第 1モータと第 2モータとを同期させて同時に回転駆動させることによって、 超音 波を出射して 3次元領域を走査し、 Z軸方向の座標位置が少しづつ異なる断層像 を多数得ることができ、これらの断層像から 3次元画像を構築することができる。 図 2はその概略の動作を示す。 この超音波診断装置 1は、 プローブ揷入部 6内 の (フレキシブルシャフト 8の先端の) 超音波振動子 7を Z方向に移動しながら 回転駆動して超音波を Z軸に直交する方向に放射状に検査対象物側に送波し、 検 查対象物側の音響インピーダンスの変化部分で反射された反射超音波を受波して 超音波振動子 7で電気信号に変換され、 超音波観測装置 3内部で増幅等された後 検波され、 さらに AZD変換されてデジタルのエコーデータ (音線データ) とな り超音波観測装置 3内部のメモリ等に一時格納されるようになつている。 この構成では、 前記超音波振動子 7が 1回転するまでに超音波を放射状に送受 波する本数を多くする (例えば 5 1 2本) ことにより、 得られる多数の音線デー タからプローブ揷入部 6の軸方向 (つまり Z軸方向) にほぼ垂直な断面の 2次元 超音波画像 (以下、 ラジアル画像と記す) G rを生成することができる。
前記超音波振動子 7は、 Z方向に P aから P cの位置まで、 所定のピッチ単位 でリニア状に移動される。 その結果、 超音波観測装置 3を経て画像処理装置本体 4の HDD 1 5には、 番号 N 1から Nn番目までの、 所定のピッチ毎のラジアル 画像 G rが格納される。 得られたラジアル画像 G rは、 メモリ 14に転送され、 そのメモリ空間には図 3の如く格納され、 さらにメモリ空間からラジアル画像 G rを横から見た (垂直) リニア画像 G V 1のデータが読み出され、 CPU 1 3は 間を補間してフレームメモリ 1 6に転送し、 モニタ 5にラジアル画像 G r及ぴ対 応するリユア画像 G V 1を表示することができる。
また、 本実施の形態では、 図 3に示すラジアル画像 G rから 3次元画像 G sを 生成し、 例えば図 4に示すように、 モニタ 5の表示部には 4つの画像表示エリア (具体的には、 ラジアル画像表示エリア、 垂直リニア画像表示エリア、 水平リニ ァ画像表示エリア、 3次元画像表示エリア) にそれぞれラジアル画像 G r、 垂直 リニア画像 Gv l、 (右側から見た) 水平リニア画像 Gh 1、 3次元画像 G sと を表示する。
この場合、 本実施の形態では、 ラジアル画像 G r上に設定したカットライン Y 1、 X 1をトラックボール 2 1で移動すると、 それに対応して垂直リニア画像 G V 1と、 水平リニア画像 Gh 1 とが更新して表示される。 つまり、 ラジアル画像 G rに表示された力ットライン Y 1の位置に対応した垂直リニア画像 G V 1が表 示され、カツトライン X 1の位置に対応した水平リニア画像 Gh 1が表示される。 また、 3次元画像表示エリアには、 カットライン Y l、 X Iに対応した切断面 Ml, Μ2で 3次元画像 G sが表示される。
また、 垂直リニア画像 Gv 1上で、 或いは水平リニア画像 Gh 1上で、 カット ライン Z 1を移動すると、 ラジアル画像 G r及ぴ 3次元画像 G sの手前側のラジ ァル画像部分が更新される。
なお、 本実施の形態では、 カットラインを移動させる入力手段としてトラック ボール 2 1を例示したが、 マウス、 ジョイスティック、 トラックパッド、 カーソ ^/キーなどを用いても良い。
本実施の形態では、 前記カットライン Y 1 , 1ゃ切断面]^ 1、 M 2は、 ユー ザの操作で位置を変更することが可能である。 C P U 1 3は、 変更された位置に 対応したラジアル画像 G r、 リニア画像 G v l 、 G h l、 3次元画像 G sを生成 する処理を行い、 モニタ 5にはそれらの画像が表示される。
また、 本実施の形態では、 表示のレイアウトを変更して表示できるようにして いる。 つまり、 図 4に示すレイアウトと図 5に示すレイアウトを切り替えて (選 択して) 表示できるようにしており、 ユーザは自由に図 4のレイアウトと図 5の レイァゥトを選択できる。
図 5に示す画像表示のレイァゥトは、 図 4における左側のラジアル画像 G rと 垂直リユア画像 G v 1 との上下の表示位置を入れ替え、 さらに右側の水平リニア 画像 G h 1 と 3次元画像 G sとの上下の表示位置を入れ替えたレイアウトにして いる。 なお、 図 5における 3次元画像 G sの表示例では、 多重エコー部分を除去 して内壁面の状態を分かり易く表示するようにしている。 この場合、 多重エコー の全部を除去しないで、 始点位置での多重エコーを残して表示することにより、 リニア走査方向を分かり易くしている。
本実施の形態では以下に説明するように、 最初のフレームを対象にそのフレー ム中の全音線を対象として、 先頭付近に存在する 2頂点の位置を検出し、 2番目 の頂点として最も頻度が高い位置を基にして、 所定係数を乗算して多重エコー境 界位置を算出するようにしている。
このため、 本実施の形態の画像処理装置本体 4における C P U 1 3は、 最初の フレームにおける全エコーデータ (音線データ) に対してエコーデータの最大強 度 (最大輝度) を検出する最大強度検出手段と、 検出された最大強度に対応して 設定された基準強度を算出する基準強度算出手段と、 超音波を送受信する位置か ら、 エコーデータが基準強度以上となる位置までの (離間) 距離を算出し、 その 距離に設定された係数を乗算して (エコーデータの種類が変化する) 境界位置を 算出する境界位置算出手段と、 超音波を送受信する位置から前記境界位置間にお けるエコーデータを消去するェコーデータ消去手段との機能を持つ。 そして、 エコーデータ消去手段により算出された境界位置より超音波振動子 7 側となるェコーデータを消去したェコーデータを用いて、 多重工コ一を除去した 3次元画像を迅速に表示できるようにしている。
次に本実施の形態における多重工コーを除去するために多重工コ一部分の境界 となる多重エコー境界位置を検出方法の処理を図 6のフローチャートを参照して 説明する。
本実施の形態では、 最初に取得された最初のフレーム (のデジタルの音線デー タ) を対象として多重エコー境界位置を検出し、 この検出結果で取得された多重 エコー境界位置のデータにより以後のフレーム全てに対して適用することによ り、 簡単な処理で多重エコー境界位置を算出し、 その算出結果を他のフレームの 音線データに利用することにより簡単かつ迅速に多重エコーの影響を排除でき、 多重エコー部分を除去した 3次元画像等を迅速に表示できるようにしている。 この多重エコー境界位置の検出処理が開始すると、 図 6に示す最初のステップ S 1で (輝度ピーク) 頂点位置を頻度により検出するために、 音線データを時間 位置に対応して設けられ、 その検出頻度データを格納するための配列 (以下、 頂 点位置頻度配列という) を初期化 (各配列要素の頻度を表す記憶内容、 つまり頻 度カウント数を 0に) する。
次のステップ S 2で全音線 (具体的には 5 1 2本の音線) データに対して現在 の音線の番号を表すパラメータ iを 1にし、 この第 i番目の音線に対してステツ プ S 3に示すように最大輝度 (最大強度) を算出する。
この最大輝度は、 例えば音線データにおける時間的に最初に取り込んだデータ を次に取り込んだデータと値を比較し、 大きい方を残してさらに次のデータと比 較することによりその音線データ全体における最大輝度のものを算出することが できる。
次のステップ S 4では、 ステップ S 3で得られた最大輝度の結果を基に、 2頂 点の輝度を算出するための第 1及ぴ第 2のしきい値 V 1を V 2を設定する。 本実 施の形態では、 第 1及ぴ第 2のしきい値 V 1を V 2として、
¥ 1 =最大輝度の0 . 8
V 2 =最大輝度の 0 . 6 に設定している。 なお、 V Iとしては 0 . 8 < V 1 < 1 . 0程度に設定すれば 良く、 また V 2は V 2く V 1で設定しても良い。
そして、 ステップ S 5に示すように、 現在の音線データの先頭から例えば 1ノ 8となる一部を対象に、 先頭から第 1のしきい値 V 1以上の条件を満たし、 かつ 第 2のしきい値 V 2以上の条件を満たす音線データの有無を判断する。この場合、 多重エコー部分の境界位置を算出する目的であるので、 このように音線データの 先頭側からの一部に対して行うのみで十分である。
そして、 ステップ S 6に示すようにこの判断条件を満たす場合における第 2の しきい値 V 2を満たす音線データの (第 2の頂点) 位置に対応する頂点位置頻度 配列の配列要素 (の頻度カウント数) に 1を加算し、 次のステップ S 7に進む。 一方、 ステップ S 5の両条件を満たさない音線データの場合にはステップ S 8に 示すように iに 1を加算してステップ S 2に戻り、 次の音線データに対して同様 の処理を行う。
次のステップ S 7では、 iが最後の音線の番号より大きいか、 つまり i > 5 1 2であるかの判断を行い、 これに該当しない場合にはステップ S 8を経てステツ プ S 2に戻り、 次の音線で同様の処理を繰り返す。
そして、 ステップ S 7により最後の音線 i = 5 1 2まで、 同様の処理を行った ら、ステップ S 9に移り、頂点位置頻度配列を対象として、全音線中で、第 2 ( 2 番目) の頂点として最も頻度が高い位置の配列要素 A mを、 全配列要素に格納さ れた頻度カウント数が最大のものを検出することにより算出する。
そして、 ステップ S 1 0に示すようにこの最も頻度が高い位置の配列要素 A m に対応する第 2 ( 2番目) の頂点位置 P 2に所定係数 Cを乗算した位置を多重工 コー境界位置 P bとして算出する。
なお、 この第 2の頂点位置 P 2は超音波振動子 7の超音波放射面の位置を 0に 設定しているので、 この超音波振動子 7の超音波放射面の位置から第 2の頂点位 置 P 2までの距離を表すことになる。 即ち、 この第 2の頂点位置 P 2は、 超音波 を送受信する位置から第 2の頂点位置 P 2までの距離である。
この所定係数 Cは第 2の頂点の位置 P 2を持つェコ一波形の終端部分の位置を 決定するものであり、 従ってこの所定係数 Cを乗算して多重エコー境界位置 P b を決定する代わりに第 2の項点の位置 P 2を持つエコー波形の終端部分の位置を 直接算出することによって多重エコー境界位置 p bを決定するようにしても良 い。
この場合、所定係数 Cとして、本実施の形態では C = 2 . 6を採用しているが、 この値に限定されるものでなく、 例えば 2 . 0く Cく 3 . 0にしても良い。
このようにして、 多重エコー境界位置 P bを算出することにより、 この多重ェコ 一境界位置 P bを以後に取得されるフレーム全てに適用することにより、 簡単に 多重エコーを除去でき、 従って 2次元の複数フレームの超音波データから多重工 コーを除去した 3次元画像の構築を迅速に行うことができ、 従ってその 3次元画 像の表示を迅速に行うことができる。
図 7は図 6の処理の説明図を示す。 図 7では下方部分に最初に得たフレームの ラジアル画像を示し、 その場合の例えば横方向のラインで示すようにその方向に 走査した場合に得た音線データ (エコーデータ) の波形をその上に示す。 この場 合、 横軸は距離或いは時間を示し、 縦軸は輝度を示している。
この音線データでは、 超音波プローブ 2のシース部分等による反射で多重工コ 一が発生し、 図 7に示すように通常は第 1 ( 1番目) の頂点に続いて第 2 ( 2番 目) の頂点が現れる場合が一般的である。
本実施の形態では、 上述した図 6に示した処理を行うことにより、 第 1及び第 2の頂点 (ピーク位置) を検出することができる。 そして、 第 2の頂点の位置 P 2から所定係数 Cを乗算することにより、 第 2の頂点を形成するエコー波形の終 端位置を多重エコー境界位置 P bとして検出することができる。 なお、 図 6では ある 1つの音線データに対する波形を示し、 図 6の処理では全音線に対して行つ てその最大の頻度を有するものから多重エコー境界位置 P bを算出する。
そして、多重エコー境界位置 P bより超音波の送受信側となるエコーデータ(音 線データ) を全てを除去 (該当するデータの値を例えば全て 0に) することによ り多重エコーが除去されたエコーデータ (音線データ) が得られることになる。 また、 図 6のフローチャートでは、 簡単化のため、 ステップ S 5の条件を満た す音線データがあると、 最も頻度が高い配列要素 Amを自動的に算出するように しているが、 ステップ S 5の条件を満たす音線データの数或いは全音線データ数 に対する割合等により制限するようにしても良い。 また、 ステップ S 5の条件を 満たす音線データの割合が少ないような場合には検出エラーの表示を行って処理 を終了するようにしても良レ、。
次に、 上記多重エコー境界位置 P bの検出を利用して、 迅速に 3次元画像を描 画 (表示) する処理を図 8のフローチャートを参照して説明する。
最初となるステップ S 1 1で 3次元画像を表示する場合の内壁面表示部分等の 初期設定を行うと共に、 フレーム番号を示すパラメータ nを 1に設定する。
そして次のステップ S 1 2で、 第 n番目 (この場合、 第 1 ) の 1フレーム分の 音線データの取得を行い、 次のステップ S 1 3で図 6により説明したように多重 エコー境界位置 P bを算出する処理を行う。
次のステップ S 1 4でこのフレームの全音線データから多重エコー境界位置 P bより超音波送受側となる部分を除去して多重エコー部分を除去して 3次元画像 描画の処理を開始する。
次のステップ S 1 5でパラメータ nを 1インクリメントして、 次のステップ S 1 6で第 n番目のフレームの音線デ タの取得処理を行い、 そのフレームの音線 データを取得する。
そして、 次のステップ S 1 7で、 (ステップ S 1 3により得た) 多重エコー境 界位置 P bを適用して、 その第 nフレームでの多重エコー部分を除去する。 さら に、 その多重エコー部分が除去された第 nフレームの音線データを用いて 3次元 画像の描画に使用する。
次のステップ S 1 8で、,最終フレーム数まで行ったか (つまり、 最終フレーム の番号以上か) の判断を行い、 最終フレーム番号までの場合にはステップ S 1 5 に戻り、 同様の処理を繰り返す。
この繰り返しにより、 リエア走査 (移動) によるフレーム画像の取得と共に、 3次元画像の描画が逐次に進む。
このようにして、設定されたリユア範囲を超音波プローブ 2で走査を行う場合、 最初のフレームの音線データにより多重エコー境界位置 P bを算出し、 この多重 エコー境界位置 P bを算出すると、そのフレームでの多重エコー部分を除去して、 3次元画像の描画処理を開始する。 以後は順次フレームの音線データが得られる とそのフレームの音線データから多重工コ一部分を除去して 3次元画像構築に利 用するので、 フレームの順次取得と共に、 3次元画像の描画が順次進む。
そして、 所定のリユア走査範囲に対する走査を終了すると、 その 3次元画像の 描画処理も殆ど同じ時刻に完了し、 その 3次元画像描画の処理を終了することに なる。
また、 本実施の形態では C P U 1 3は上述のように 3次元画像を描画するが、 その 3次元画像の描画は以下の図 9に示すような処理で生成し、 ユーザによるト ラックポール 2 1等の画像操作入力手段による操作入力をトリガとして、 その入 力操作に対応して壁面の移動、 回転、 スクロール等の処理を行い、 表示状態が異 なる 3次元画像の再構築を殆どリアルタイムで行う。
以下、 図 9を参照して 3次元画像の描画処理を説明する。
3次元画像の描画のために、 ステップ S 2 1に示すようにこの 3次元画像にお ける壁面部分の壁面座標データが作成される。 この壁面座標データは、 体腔内壁 の場合には略円筒状の面を表すデータとなる。 そして、 ステップ S 2 2に示すよ うにこの壁面座標データに対して現在の状態に対応して、 壁面座標データを変換 し、 移動及ぴ回転等の処理が行われる。
そして、 次のステップ S 2 3において、 変換処理後の壁面座標データにより、 3次元表示する立方体部分との交差部分を抽出し、 その交差部分のデータを基に 壁面を描画する。
さらに次のステップ S 2 4において、 立方体の各面について、 変換処理後の壁 面座標データと交差する部分を除去し、 残りの領域には各面に対応した超音波断 層像を描画する。
そして、 ステップ S 2 5に示す 3次元画像が描画される。 この 3次元画像の描 画例は例えば図 1 O Aであり、壁面が例えば肌色に着色された状態で表示される。 そして、 次のステップ S 2 6により、 ユーザによる (本画像処理装置に設けら れている) トラックポール 2 1等による画像操作入力手段の有無が判断される。 この画像操作入力手段が操作されない場合には、 ステップ S 2 5に戻り、 変化し ない状態で 3次元画像の表示が維持される。
一方、 画像操作入力手段が操作されると、 その操作入力を受付けてステップ S 2 2に戻り、 リアルタイムにその操作に対応する処理を行う。
例えば画像操作入力手段としてのトラックボール 2 1により回転操作や断面移 動やスクロール操作等が行われると、 各操作による微小な操作量を検出するとそ れをトリガとして、 その微小な操作量と殆ど同時にステップ S 2 2から S 2 5ま での処理を行い、 さらに続くステップ S 2 6で回転操作等の操作入力の有無を判 断し、 引き続いて回転操作等がされると、 その微小な回転操作等に連動して再び ステップ S 2 2に戻り同様の処理を行う。 なお、 回転、 断面移動及ぴスクロール の操作を行う場合、関心領域をマーキングし、そのマーキングを目印として回転、 断面移動及ぴスクロールを行っても良い。
このため、 ユーザが壁面等の関心領域に対して回転操作等を行うと、 回転操作 等に連動して表示される 3次元画像も回転移動することになり、 ユーザが画像操 作入力手段による操作入力を行うとその操作入力と殆どリアルタイムで対応する 3次元画像が表示されることになる。
図 1 0 A及び図 1 0 Bは回転操作前後の 3次元画像例を示す。 つまり、 図 1 0 Aに示す 3次元画像はトラックポール 2 1による回転操作の操作入力により回転 移動され、 図 1 0 Bに示すように回転操作された 3次元画像が表示される。
つまり、 超音波を放射状に送受信する中心軸の回りで図 1 0 Aに示す 3次元画 像を回転した場合に相当する 3次元画像を表示する。この場合、回転操作により、 表示が指定された壁面データ (内壁面データ) は更新されると共に、 その周囲の 縦横の断面の断層像のデータも更新される。
このように、 本実施形態における回転操作による 3次元画像は超音波振動子 7 のリユア移動の軸の回りでの回転操作に相当するものであり、 従って 2次元のラ ジアル画像における中心軸の周りの回転操作に対応する。
また、 断面移動の操作の場合には、 断面移動の操作前の 3次元画像が図 1 1 A であると、 トラックボール 2 1により基準面として縦断面や横断面を指定して移 動操作を行うと図 1 1 Bや図 1 1 Cに示すように縦断面や横断面が移動した 3次 元画像となる。
また、 トラックポール 2 1によりスクロール操作を行うと、 スクロール操作前 の図 1 2 Aに示す 3次元画像は、 スクロール操作後には図 1 2 Bに示す 3次元画 像となる。
このスクロール操作の場合には、 ラジアル画像の中心軸がスクロール操作の方 向に移動 (スクロール) されることになる。
このように、 本実施の形態によれば、 体腔内の壁面等の関心領域を 3次元画像 で表示できるようにすると共に、 トラックポール 2 1等のポインティングデバイ スにより、 3次元画像や関心領域を指定等して回転、 断面移動やスクロール等の 操作を行うことにより、 その操作に対してリアルタイムに表示状態を更新され、 ユーザは所望とする 3次元画像を観察することができ、 診断し易い超音波画像を 提供できる環境を実現できる。
また、 本実施の形態では回転、 断面移動及びスクロール操作は 2次元の断層像 の場合において、実現されているものを 3次元画像において拡張したものであり、 従って、 ユーザは 2次元画像において従来通りに回転等の操作を行って対応する 2次元画像の表示状態を変更できると共に、 さらに 3次元画像においても同様に 回転等の操作を行うことにより、 2次元画像の場合と同様に 3次元画像の表示状 態を変更できる。
なお、 画像操作入力手段はトラックポール 2 1に限らず、 上述したマウスゃス クロールパー等、 他の操作入力手段でも良い。
本発明においては、 広い範囲において異なる実施形態が、 発明の精神及ぴ範囲 から逸脱することなく、 本発明に基づいて、 構成できることは明白である。 本発 明は、 添付のクレームによって限定される以外は、 その特定の実施態様によって 制約されない。 産業上の利用可能性
以上説明したように、 本発明に係る超音波画像処理装置よれば、 画像操作入力 手段による簡単な操作で 3次元画像の表示状態を変更する、 例えば超音波画像の 回転、 断面移動及びスクロールなどをして 3次元画像の表示状態を簡単に変更す ることができ、 特に体腔内で得られた超音波画像に適用すると、 関心領域の表示 状態を容易に変更することができ、 体腔内の観察に有用であり、 さらに工業用分 野においても有用である。 関連出願のクロスリファレンス
本出願は、 200 3年 5月 1 6日に日本国に出願された特願 2003 - 1 3 9 5 1 8号を優先権主張の基礎として出願するものであり、 上記の内容は、 本願明 細書、 請求の範囲、 図面に引用されたものである。

Claims

請求の範囲
1 . 3次元領域のェコ一デ一夕を用いて検査対象物の超音波画像を表示可能とす る超音波画像処理装置において、
前記エコーデータに基づき 3次元画像を構築する画像構築手段と、
前記構築された · 3次元画像の表示状態を変更するよう操作する画像操作入力手 段と、
前記画像操作入力手段により入力された入力情報に基づいて前記構築された 3 次元画像の表示状態を変更する画像表示状態変更手段と、
を備えることを特徴とする超音波画像処理装置。
2 . 3次元領域のェコ一デ一夕を用いて検査対象物の超音波画像を表示可能とす る超音波画像処理装置において、
前記検査対象物に対して 3次元領域を走査するように超音波を送受信して検査 対象物のェコ一データを得る 3次元領域超音波走査手段と、 ' 前記ェコーデ一夕に基づき 3次元画像を構築する画像構築手段と、
前記構築された 3次元画像の表示状態を変更するよう操作する画像操作入力手 段と、
前記画像操作入力手段により入力された入力情報に基づいて前記構築された 3 次元画像の表示状態を変更する画像表示状態変更手段と、
を備えることを特徴とする超音波画像処理装置。
3 . 請求項 2に記載の超音波画像処理装置であって、
前記 3次元領域超音波走査手段は、プローブ先端部に配置した超音波振動子と、 この超音波振動子を放射方向に走査する走査手段と、 前記超音波振動子を軸方向 に走査する走査手段とを有し、 前記放射方向走査手段と軸方向走査手段とを同時 に駆動して前記超音波振動子から超音波を出射して 3次元領域を走査し、 軸方向 の座標位置が少しずつ異なるエコーデ一夕.を得ることを特徴とする。
4 . 請求項 3に記載の超音波画像処理装置であって、
前記超音波振動子を放射方向に操作する走査手段及び軸方向に走査する走査手 段は、 前記プローブの後部に配置した第 1のモ一夕及び第 2のモー夕であること を特徴とする。
5 . 請求項 1又は 2に記載の超音波画像処理装置であって、
前記画像構築手段は、 最初のフレームにおける全エコーデ タに対してエコー データの最大強度を検出する最大強度検出手段と、 この検出された最大強度に対 応して設定された基準強度を算出する基準強度算出手段と、 超音波を送受信する 位置からエコーデータが基準強度以上となる位置までの距離を算出し、 その距離 に設定された係数を乗算して境界位置を算出する境界位置算出手段と、 を備えて いることを特徴とする。
6 . 請求項 5に記載の超音波画像処理装置であって、
前記画像構築手段は、 さらに超音波を送受信する位置から前記境界位置間にお けるエコーデータを消去するエコーデータ消去手段を有し、 前記ェコーデータ消 去手段により算出された境界位置より前記超音波振動子側となるェコーデータを 消去したエコーデータを用いて、 多重エコーを除去した 3次元画像を表示可能と したことを特徴とする。
7 . 請求項 6に記載の超音波画像処理装置であって、
前記エコーデータ消去手段は、 最初に取得された最初のフレームのデジタル音 線データを対象として多重エコー境界位置を検出するステップと、 この検出結果 により検出された多重エコー境界位置のデータにより以後のフレーム全てに対し て適用して多重エコー境界位置を算出するステップと、 この算出結果を他のフレ 一ムの音線データに利用することにより多重エコーの影響を排除するステップと を有することを特徴とする。
8 . 請求項 1又は 2に記載の超音波画像処理装置であって、
前記画像構築手段により構築される 3次元画像は、 前記表示状態変更手段によ つてリアルタイムに更新可能であることを特徴とする。
9 . 請求項 8に記載の超音波画像処理装置であって、
前記 3次元画像状態の更新は、 前記表示状態変更手段により任意に設定された 基準位置に対する超音波画像のスクロールを含むことを特徴とする。
1 0 . 請求項 8に記載の超音波画像処理装置であって、
前記 3次元画像状態の更新は、 前記表示状態変更手段により任意に設定された 基準平面に対する超音波画像の断面移動を含むことを特徴とする。
1 1 . 請求項 8に記載の超音波画像処理装置であって、
前記 3次元画像状態の更新は、 前記表示状態変更手段により任意に設定され た軸に対する超音波画像の回転からなることを特徴とする。
1 2 . 請求項 1又は 2に記載の超音波画像処理装置であって、
前記画像表示状態変更手段は、 前記エコーデータにより 3次元画像の壁面座標 データを作成するステップと、 この作成した壁面座標データに対して現在の状態 に対応して、 前記画像操作入力手段により移動、 回転などの変換を施すステップ と、 この変換処理後の前記壁面座標データにより、 3次元表示する立方体部分と の交差部分を抽出し、 この交差部分のデータを基に壁面を描画するステツプと、 立方体の各面について、 変換処理後の壁面座標データと交差する部分を除去して 残りの領域には各面に対応した超音波断層像を描写するステップと、 前記 3次元 画像を描写するステップと、 を有することを特徴とする。
1 3 . 請求項 1 2に記載の超音波画像処理装置であって、
前記画像表示状態変更手段は、 さらに前記画像操作入力手段による入力の有無 を判断し、 この画像操作入力手段による入力がないときには、 変化しない状態で 3次元画像の表示を維持し、 前記画像操作入力手段による入力があるときには、 現在の状態に対応して、 前記画像操作入力手段により移動、 回転などの変換を施 すステップに戻るステップを有することを特徴とする。
PCT/JP2004/006865 2003-05-16 2004-05-14 超音波画像処理装置 WO2004100794A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP04733142.6A EP1625827B1 (en) 2003-05-16 2004-05-14 Ultrasonic image processing apparatus
US11/271,478 US7697779B2 (en) 2003-05-16 2005-11-10 Ultrasonic image processing apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003139518A JP4245976B2 (ja) 2003-05-16 2003-05-16 超音波画像処理装置
JP2003-139518 2003-05-16

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US11/271,478 Continuation US7697779B2 (en) 2003-05-16 2005-11-10 Ultrasonic image processing apparatus

Publications (1)

Publication Number Publication Date
WO2004100794A1 true WO2004100794A1 (ja) 2004-11-25

Family

ID=33447343

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/006865 WO2004100794A1 (ja) 2003-05-16 2004-05-14 超音波画像処理装置

Country Status (4)

Country Link
US (1) US7697779B2 (ja)
EP (1) EP1625827B1 (ja)
JP (1) JP4245976B2 (ja)
WO (1) WO2004100794A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090174554A1 (en) 2005-05-11 2009-07-09 Eric Bergeron Method and system for screening luggage items, cargo containers or persons
US7991242B2 (en) 2005-05-11 2011-08-02 Optosecurity Inc. Apparatus, method and system for screening receptacles and persons, having image distortion correction functionality
JP2007301030A (ja) * 2006-05-09 2007-11-22 Toshiba Corp 超音波診断装置
US7899232B2 (en) 2006-05-11 2011-03-01 Optosecurity Inc. Method and apparatus for providing threat image projection (TIP) in a luggage screening system, and luggage screening system implementing same
US8494210B2 (en) 2007-03-30 2013-07-23 Optosecurity Inc. User interface for use in security screening providing image enhancement capabilities and apparatus for implementing same
WO2008149540A1 (ja) * 2007-06-04 2008-12-11 Panasonic Corporation 超音波診断装置および超音波診断装置に利用される超音波プローブ
DE102007032609A1 (de) * 2007-07-11 2009-03-05 Corpus.E Ag Kostengünstige Erfassung der inneren Raumform von Fußbekleidung und Körpern
JP5220780B2 (ja) * 2010-02-05 2013-06-26 オリンパス株式会社 画像処理装置、内視鏡システム、プログラム及び画像処理装置の作動方法
US9033879B2 (en) * 2011-02-08 2015-05-19 General Electric Company Portable imaging system with remote accessibility
AU2012304490B2 (en) 2011-09-07 2015-06-25 Rapiscan Systems, Inc. X-ray inspection system that integrates manifest data with imaging/detection processing
KR101501518B1 (ko) * 2012-06-11 2015-03-11 삼성메디슨 주식회사 3차원(3d) 초음파 영상과 2차원(2d) 초음파 영상을 디스플레이하는 방법 및 장치
US10302807B2 (en) 2016-02-22 2019-05-28 Rapiscan Systems, Inc. Systems and methods for detecting threats and contraband in cargo
AU2021351347A1 (en) * 2020-09-29 2023-06-01 Terumo Kabushiki Kaisha Image processing device, image processing system, image display method, and image processing program
WO2022085373A1 (ja) * 2020-10-22 2022-04-28 テルモ株式会社 画像処理装置、画像処理システム、画像表示方法、及び画像処理プログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02196383A (ja) * 1989-01-26 1990-08-02 Toshiba Corp 画像表示装置
JP2000210261A (ja) * 1998-11-24 2000-08-02 Siemens Ag 指示モニタ―に再現可能な像を表示かつ処理するための方法および装置
JP2002306482A (ja) * 2001-04-17 2002-10-22 Olympus Optical Co Ltd 超音波画像処理装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4798210A (en) * 1984-03-28 1989-01-17 National Biomedical Research Foundation Three-dimensional imaging system
US5170347A (en) * 1987-11-27 1992-12-08 Picker International, Inc. System to reformat images for three-dimensional display using unique spatial encoding and non-planar bisectioning
US6005916A (en) * 1992-10-14 1999-12-21 Techniscan, Inc. Apparatus and method for imaging with wavefields using inverse scattering techniques
US5842473A (en) * 1993-11-29 1998-12-01 Life Imaging Systems Three-dimensional imaging system
US5454371A (en) * 1993-11-29 1995-10-03 London Health Association Method and system for constructing and displaying three-dimensional images
US6106465A (en) * 1997-08-22 2000-08-22 Acuson Corporation Ultrasonic method and system for boundary detection of an object of interest in an ultrasound image
JP2000316864A (ja) 1999-05-11 2000-11-21 Olympus Optical Co Ltd 超音波診断装置
JP3741212B2 (ja) * 2001-07-26 2006-02-01 セイコーエプソン株式会社 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および白黒伸張処理方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02196383A (ja) * 1989-01-26 1990-08-02 Toshiba Corp 画像表示装置
JP2000210261A (ja) * 1998-11-24 2000-08-02 Siemens Ag 指示モニタ―に再現可能な像を表示かつ処理するための方法および装置
JP2002306482A (ja) * 2001-04-17 2002-10-22 Olympus Optical Co Ltd 超音波画像処理装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1625827A4 *

Also Published As

Publication number Publication date
US20060084872A1 (en) 2006-04-20
EP1625827A1 (en) 2006-02-15
JP2004344185A (ja) 2004-12-09
JP4245976B2 (ja) 2009-04-02
EP1625827B1 (en) 2017-01-18
EP1625827A4 (en) 2010-07-21
US7697779B2 (en) 2010-04-13

Similar Documents

Publication Publication Date Title
US7697779B2 (en) Ultrasonic image processing apparatus
JP5433240B2 (ja) 超音波診断装置及び画像表示装置
JP3407169B2 (ja) 超音波画像立体表示装置及び超音波画像立体表示方法
JP5095304B2 (ja) 超音波診断装置
JP4309936B2 (ja) 超音波診断装置
JP4262517B2 (ja) 超音波画像処理装置
JP4328077B2 (ja) 超音波診断装置
KR100907967B1 (ko) 초음파 진단 장치 및 초음파 화상 표시 방법
JP4768315B2 (ja) 超音波信号処理装置及び超音波信号処理方法
JP2000296129A (ja) 超音波診断装置
JP2000276550A (ja) 医療用診断装置及び医療診断用アプリケーションの起動チェック方法
JP4197993B2 (ja) 超音波診断装置
JP4109155B2 (ja) 超音波画像処理装置
JP4343592B2 (ja) 超音波診断装置
JP2003325511A (ja) 超音波画像処理装置
JP5139037B2 (ja) 超音波診断装置及び画像処理装置
JP4838449B2 (ja) 超音波診断装置
JP2002306482A (ja) 超音波画像処理装置
JP2002306481A (ja) 超音波画像処理装置
JP3905419B2 (ja) 超音波画像処理装置
JP2006130162A (ja) 超音波診断装置
JP4054282B2 (ja) 超音波画像処理装置
JP2008264563A (ja) 超音波診断装置
JP2004337460A (ja) 超音波画像処理装置
JP4445744B2 (ja) 超音波画像生成装置の作動方法及び超音波画像生成プログラム

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
REEP Request for entry into the european phase

Ref document number: 2004733142

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2004733142

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 11271478

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 2004733142

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 11271478

Country of ref document: US