WO2022065050A1 - 超音波診断装置および超音波診断装置の制御方法 - Google Patents

超音波診断装置および超音波診断装置の制御方法 Download PDF

Info

Publication number
WO2022065050A1
WO2022065050A1 PCT/JP2021/033135 JP2021033135W WO2022065050A1 WO 2022065050 A1 WO2022065050 A1 WO 2022065050A1 JP 2021033135 W JP2021033135 W JP 2021033135W WO 2022065050 A1 WO2022065050 A1 WO 2022065050A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
ultrasonic
interest
region
radiation
Prior art date
Application number
PCT/JP2021/033135
Other languages
English (en)
French (fr)
Inventor
理子 越野
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2022551864A priority Critical patent/JPWO2022065050A1/ja
Priority to EP21872181.9A priority patent/EP4218603A4/en
Publication of WO2022065050A1 publication Critical patent/WO2022065050A1/ja
Priority to US18/180,674 priority patent/US20230225713A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/502Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of breast, i.e. mammography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4417Constructional features of apparatus for radiation diagnosis related to combined acquisition of different diagnostic modalities
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5247Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0825Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of the breast, e.g. mammography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • A61B8/4254Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient using sensors mounted on the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4416Constructional features of the ultrasonic, sonic or infrasonic diagnostic device related to combined acquisition of different diagnostic modalities, e.g. combination of ultrasound and X-ray acquisitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5261Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from different diagnostic modalities, e.g. ultrasound and X-ray
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/14Transformations for image registration, e.g. adjusting or mapping for alignment of images
    • G06T3/147Transformations for image registration, e.g. adjusting or mapping for alignment of images using affine transformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof

Definitions

  • the present invention relates to an ultrasonic diagnostic apparatus for inspecting the breast of a subject and a control method of the ultrasonic diagnostic apparatus.
  • an ultrasonic diagnostic device has been used to inspect lesions and the like in a subject.
  • an ultrasonic diagnostic apparatus Prior to the examination using such an ultrasonic diagnostic apparatus, the inside of the subject is inspected in advance using an image diagnostic apparatus different from the ultrasonic diagnostic apparatus such as a CT (Computed Tomography) apparatus.
  • CT Computer Tomography
  • a user such as a doctor observes both an ultrasonic image taken by an ultrasonic diagnostic device and a medical image taken by another diagnostic imaging device to make a diagnosis of a lesion or the like of a subject. I often do it.
  • Patent Document 1 As described above, in order to improve the accuracy of diagnosis using two medical images different from each other, for example, an ultrasonic diagnostic apparatus as disclosed in Patent Document 1 has been developed.
  • a two-dimensional CT cross-sectional image representing a cross section corresponding to an ultrasonic image is selected based on three-dimensional data of a subject obtained by CT imaging, and the selected CT cross-sectional image and ultrasonic waves are selected. Displaying images is disclosed.
  • the subject is inspected while lying on the examination table or the like. Will be.
  • the breasts of the subjects are imaged from the same orientation, and the shapes of the breasts of the subjects at the time of imaging can be the same as each other. .. Therefore, when an inspection using a CT device is performed prior to an inspection using the ultrasonic diagnostic device, it is possible to easily obtain an ultrasonic image and a CT cross-sectional image that are easy for the user to compare.
  • the present invention has been made to solve such conventional problems, and the user can easily compare the ultrasonic image and the radiographic image, and the ultrasonic diagnosis can improve the diagnostic accuracy for the subject. It is an object of the present invention to provide a control method of an apparatus and an ultrasonic diagnostic apparatus.
  • the ultrasonic diagnostic apparatus transmits and receives an ultrasonic beam to and from an ultrasonic probe and an ultrasonic probe to the subject, thereby detecting a region of interest of the subject's breast imaged in a radiographic image.
  • the ultrasonic image is created.
  • An image adjustment unit that adjusts the radiographic image and the ultrasonic image so that the area of interest that is being imaged and the area of interest that is being imaged in the ultrasonic image are oriented in the same direction, and an adjusted unit that has been adjusted by the image adjustment unit. It is characterized by including a monitor for displaying a radiographic image and an ultrasonic image.
  • the probe orientation information is preferably the position information of the ultrasonic probe specified by the user or the position information detected by the position sensor mounted on the ultrasonic probe.
  • the image adjustment unit can generate an adjusted radiation image and an ultrasonic image by performing at least one of rotation processing and inversion processing on at least one of the entire radiation image and the entire ultrasonic image.
  • an area of interest extraction unit that extracts the area of interest from the radiation image and the ultrasound image, respectively, in which case the image adjustment unit is extracted from the area of interest and the ultrasound image extracted from the radiation image.
  • Adjusted radio and ultrasound images can be generated by subjecting at least one of the regions of interest to at least one of a rotation process and an inversion process.
  • the image adjustment unit can duplicately display the subject orientation mark indicating the orientation of the subject on the adjusted radiographic image and ultrasonic image. Further, the image adjusting unit generates an adjusted radiographic image and an ultrasonic image so that the region of interest captured in the radiographic image and the region of interest captured in the ultrasonic image have the same size. Can be done. In this case, it is preferable that the image adjustment unit determines the ratio of the sizes of the adjusted radiation image and the ultrasonic image based on the pixel-to-pixel distance of the radiation image and the pixel-to-pixel distance of the ultrasonic image.
  • the image adjustment unit performs rotation conversion of the radiation image based on the rotation angle of the radiation source when the radiation image is acquired in a state where the radiation source is arranged in a direction inclined with respect to the vertical direction. , It is preferable to adjust the radiographic and ultrasonic images.
  • the tag of the radiographic image includes the radiographic image breast information indicating whether the breast of the subject captured in the radiographic image is the left or right breast
  • the image adjustment unit uses the radiographic image breast information and the user. Based on the input information indicating whether the breast of the subject captured in the ultrasound image is the left or right breast, the breast of the subject and the ultrasound image captured in the radiograph are imaged. Radiographic and ultrasound images can be adjusted if the breasts of the subject being breasts match each other.
  • the image adjustment unit can further adjust the already adjusted radiographic image and ultrasonic image based on the readjustment information input by the user.
  • the control method of the ultrasonic diagnostic apparatus is to send and receive an ultrasonic beam to a subject using an ultrasonic probe to include an area of interest in the subject's breast imaged in a radiographic image.
  • the region of interest captured in the ultrasound image based on the ultrasound image orientation information stored in the tag of the ultrasound image that generated the ultrasound image and the probe orientation information of the ultrasound probe when the ultrasound image was taken. It is characterized in that the radiation image and the ultrasonic image are adjusted so that the region of interest captured in the ultrasonic image and the region of interest are oriented in the same direction as each other, and the adjusted radiation image and the ultrasonic image are displayed on the monitor.
  • the ultrasonic diagnostic apparatus creates a radiation image based on the radiation image orientation information stored in the tag of the ultrasonic image and the probe orientation information of the ultrasonic probe when the ultrasonic image is taken.
  • An image adjustment unit that adjusts the radiographic image and the ultrasonic image so that the area of interest that is being imaged and the area of interest that is being imaged in the ultrasonic image are oriented in the same direction, and an adjusted unit that has been adjusted by the image adjustment unit. Since the monitor for displaying the ultrasonic image and the ultrasonic image is provided, the user can easily compare the ultrasonic image and the ultrasonic image, and the diagnostic accuracy for the subject can be improved.
  • Embodiment 1 of this invention It is a block diagram which shows the structure of the ultrasonic diagnostic apparatus which concerns on Embodiment 1 of this invention. It is a schematic diagram of the example of the radiographic image stored in the server in Embodiment 1 of this invention. It is a schematic diagram of the ultrasonic probe in Embodiment 1 of this invention. It is a block diagram which shows the structure of the transmission / reception circuit in Embodiment 1 of this invention. It is a block diagram which shows the structure of the image generation part in Embodiment 1 of this invention. It is a schematic diagram of the example of the ultrasonic image in Embodiment 1 of this invention. It is a schematic diagram of the example of the radiographic image adjusted in Embodiment 1 of this invention.
  • FIG. 3 is a schematic diagram of another example of a radiographic image and an ultrasonic image displayed on a monitor in the first embodiment of the present invention. It is a schematic diagram of another example of the radiographic image adjusted in Embodiment 1 of this invention. It is a schematic diagram of the example of the sub-window on the radiographic image and the sub-window on the ultrasonic image displayed on the monitor in the first embodiment of the present invention.
  • Embodiment 1 of this invention It is a schematic diagram of the example of the region of interest displayed in the subwindow in Embodiment 1 of this invention. It is a block diagram which shows the structure of the ultrasonic diagnostic apparatus which concerns on Embodiment 2 of this invention. It is a block diagram which shows the structure of the ultrasonic diagnostic apparatus which concerns on Embodiment 3 of this invention.
  • FIG. 1 shows the configuration of the ultrasonic diagnostic apparatus 1 according to the first embodiment of the present invention.
  • the ultrasonic diagnostic apparatus 1 includes an ultrasonic probe 2 and a diagnostic apparatus main body 3.
  • the ultrasonic probe 2 and the diagnostic device main body 3 are connected to each other. Further, the diagnostic device main body 3 is connected to the external server 4 via the network NW.
  • the ultrasonic probe 2 includes an oscillator array 11, and a transmission / reception circuit 12 is sequentially connected to the oscillator array 11.
  • the diagnostic device main body 3 includes an image generation unit 22, and the image generation unit 22 is connected to the transmission / reception circuit 12 of the ultrasonic probe 2. Further, the display control unit 23 and the monitor 24 are sequentially connected to the image generation unit 22. Further, the memory 25 is connected to the image generation unit 22. Further, the diagnostic device main body 3 includes a communication unit 21, and the communication unit 21 is connected to the server 4 via the network NW. Further, the memory 25 is connected to the communication unit 21. Further, the image adjustment unit 27 is connected to the memory 25. Further, the image adjustment unit 27 is connected to the display control unit 23.
  • the main body control unit 29 is connected to the transmission / reception circuit 12, the communication unit 21, the image generation unit 22, the display control unit 23, the memory 25, and the image adjustment unit 27 of the ultrasonic probe 2.
  • the input device 30 is connected to the main body control unit 29.
  • the processor 31 is composed of a communication unit 21, an image generation unit 22, a display control unit 23, an image adjustment unit 27, and a main body control unit 29.
  • the server 4 is installed in, for example, a hospital or the like, and is installed in a remote place with respect to the place where the diagnostic device main body 3 is arranged.
  • the server 4 manages image data, and can be used, for example, in a so-called PACS (Picture Archiving and Communication System).
  • the server 4 stores in advance a radiation image T1 as shown in FIG. 2, which is taken by a radiation diagnostic device (not shown).
  • the radiographic image T1 stored on the server 4 includes a region of interest A1 suspected to be a lesion.
  • the radiation image T1 has a tag for storing information about the radiation image T1.
  • the radiation image orientation information which is information regarding the orientation of the subject in the radiation image T1, such as the Foot) direction, is stored.
  • DICOM Digital Imaging and COmmunications in Medicine
  • a radiographic image T1 in which the breast of the subject is taken from the so-called CC (CranioCaudal: head-tail) direction is shown, and the radiographic image T1 is shown in the R direction indicating the R direction.
  • Four subject orientation marks indicating the orientation of the subject are arranged, that is, the mark D1, the L direction mark D2 indicating the L direction, the A direction mark D3 indicating the A direction, and the P direction mark D4 indicating the P direction.
  • the ultrasonic probe 2 has a housing J containing various electric circuits and the like and made of resin and the like.
  • the housing J has a grip portion J1 for the user who inspects the subject to grip the ultrasonic probe 2, and a tip portion J2 in which the oscillator array 11 is located, on one side of the side portion of the housing J.
  • One protrusion-shaped marker M is formed in the vicinity of the tip portion J2.
  • the orientation in which the marker M is formed allows the user to grasp the orientation of the ultrasonic probe 2.
  • the orientation of the subject in the ultrasonic image such as the A direction, the P direction, the R direction, the L direction, the H direction, or the F direction is set with reference to the orientation of the marker M.
  • the oscillator array 11 of the ultrasonic probe 2 shown in FIG. 1 has a plurality of ultrasonic oscillators arranged one-dimensionally or two-dimensionally. Each of these ultrasonic transducers transmits ultrasonic waves according to a drive signal supplied from the transmission / reception circuit 12, receives ultrasonic echoes from a subject, and outputs a signal based on the ultrasonic echoes.
  • Each ultrasonic transducer is, for example, a piezoelectric ceramic represented by PZT (Lead Zirconate Titanate), a polymer piezoelectric element represented by PVDF (Poly Vinylidene Di Fluoride), and PMN-.
  • PT Lead Magnesium Niobate-Lead Titanate: lead magnesiumidene fluoride-lead titanate solid solution
  • the transmission / reception circuit 12 transmits ultrasonic waves from the oscillator array 11 under the control of the probe control unit 15 and generates a sound line signal based on the received signal acquired by the oscillator array 11.
  • the transmission / reception circuit 12 includes a pulsar 16 connected to the oscillator array 11, an amplification unit 17 sequentially connected in series from the oscillator array 11, an AD (Analog Digital) conversion unit 18, and a beam. It has a former 19.
  • the pulsar 16 includes, for example, a plurality of pulse generators, and transmits from a plurality of ultrasonic oscillators of the oscillator array 11 based on a transmission delay pattern selected according to a control signal from the probe control unit 15.
  • Each drive signal is supplied to a plurality of ultrasonic transducers by adjusting the delay amount so that the ultrasonic waves to be generated form an ultrasonic beam.
  • a pulsed or continuous wave voltage is applied to the electrodes of the ultrasonic vibrator of the vibrator array 11, the piezoelectric body expands and contracts, and the pulsed or continuous wave ultrasonic waves are generated from the respective ultrasonic vibrators. Is generated, and an ultrasonic beam is formed from the combined wave of those sound waves.
  • the transmitted ultrasonic beam is reflected by, for example, a target such as a site of a subject, and propagates toward the oscillator array 11 of the ultrasonic probe 2.
  • the ultrasonic echo propagating toward the oscillator array 11 in this way is received by each ultrasonic oscillator constituting the oscillator array 11.
  • each ultrasonic oscillator constituting the oscillator array 11 expands and contracts by receiving the propagating ultrasonic echo, generates a received signal which is an electric signal, and amplifies these received signals. Output to 17.
  • the amplification unit 17 amplifies the reception signal input from each ultrasonic vibrator constituting the vibrator array 11, and transmits the amplified reception signal to the AD conversion unit 18.
  • the AD conversion unit 18 converts the reception signal transmitted from the amplification unit 17 into digital reception data.
  • the beam former 19 performs so-called reception focus processing by giving and adding delays to each received data received from the AD conversion unit 18. By this reception focus processing, each received data converted by the AD conversion unit 18 is phase-adjusted and added, and a sound line signal in which the focus of the ultrasonic echo is narrowed down is acquired.
  • the communication unit 21 is composed of a circuit including an antenna for transmitting and receiving radio waves, a circuit for connecting to a LAN (Local Area Network), and the like, and is composed of a main body control unit 29. Under the control of, the communication with the server 4 is performed via the network NW. The communication unit 21 can receive the radiation image T1 and the like from the server 4 via the network NW.
  • the image generation unit 22 has a configuration in which a signal processing unit 32, a DSC (Digital Scan Converter) 33, and an image processing unit 34 are sequentially connected in series.
  • the signal processing unit 32 attenuates the sound line signal transmitted from the transmission / reception circuit 12 of the ultrasonic probe 2 by a distance according to the depth of the ultrasonic reflection position using the sound velocity value set by the main body control unit 29. After the correction of the above, the envelope detection process is performed to generate a B-mode image signal which is tomographic image information about the tissue in the subject.
  • the DSC 33 converts the B-mode image signal generated by the signal processing unit 32 into an image signal according to a normal television signal scanning method (raster conversion).
  • the image processing unit 34 performs various necessary image processing such as gradation processing on the B mode image signal input from the DSC 33, and then sends the B mode image signal to the display control unit 23 and the memory 25.
  • the B-mode image signal processed by the image processing unit 34 is referred to as an ultrasonic image.
  • the memory 25 is for storing the ultrasonic image generated by the image generation unit 22 and the radiation image T1 and the like transmitted from the server 4 to the communication unit 21 via the network NW.
  • the ultrasonic image stored in the memory 25 is read out under the control of the main body control unit 29 and sent to the display control unit 23 and the image adjustment unit 27. Further, the radiation image T1 stored in the memory 25 is read out under the control of the main body control unit 29 and sent to the image adjustment unit 27.
  • Examples of the memory 25 include a flash memory, an HDD (Hard Disc Drive), an SSD (Solid State Drive), an FD (Flexible Disc), and an MO disk (Magneto-Optical disc). Disk), MT (Magnetic Tape), RAM (Random Access Memory), CD (Compact Disc), DVD (Digital Versatile Disc), SD card (Secure Digital card:) A secure digital card) and a recording medium such as a USB memory (Universal Serial Bus memory) can be used.
  • a flash memory an HDD (Hard Disc Drive), an SSD (Solid State Drive), an FD (Flexible Disc), and an MO disk (Magneto-Optical disc).
  • Disk Magnetic Tape
  • RAM Random Access Memory
  • CD Compact Disc
  • DVD Digital Versatile Disc
  • SD card Secure Digital card
  • a secure digital card) and a recording medium such as a USB memory (Universal Serial Bus memory) can be used.
  • the image adjusting unit 27 is based on the radiation image orientation information stored in the tag of the radiation image T1 stored in the memory 25 and the probe orientation information of the ultrasonic probe 2 when the ultrasonic image is taken.
  • the radiation image T1 and the ultrasonic image are adjusted so that the region of interest A1 captured by the radiation image T1 and the region of interest captured by the ultrasonic image are oriented in the same direction.
  • the probe orientation information is information regarding the orientation of the subject in the ultrasonic image, such as the A direction, the P direction, the R direction, the L direction, the H direction, and the F direction.
  • the image adjustment unit 27 sets the probe orientation information based on the information input by the user's input operation via the input device 30. Thereby, for example, as shown in FIG. 6, the R direction mark D5 indicating the R direction, the L direction mark D6 indicating the L direction, the A direction mark D7 indicating the A direction, and the P direction are represented with respect to the ultrasonic image U1.
  • Four subject orientation marks indicating the orientation of the subject are added to the P direction mark D8.
  • the ultrasonic image U1 shown in FIG. 6 is a photograph of the breast of the subject.
  • the image adjusting unit 27 has, for example, the R direction mark D1 and the R direction mark D5, the L direction mark D2 and the L direction mark D6, A with respect to the radiation image T1 shown in FIG. 2 and the ultrasonic image U1 shown in FIG.
  • the direction mark D3 and the A direction mark D7, and the P direction mark D4 and the P direction mark D8 are adjusted so as to face each other in the same direction.
  • the image adjusting unit 27 rotates the radiation image T1 shown in FIG. 2 clockwise by 90 degrees so that the R direction mark D1 side is tilted toward the P direction mark D4 side, and then flips left and right. That is, the radiation image T1 can be adjusted in the direction shown in FIG. 7 by inverting the R direction mark D1 side and the L direction mark D2 side.
  • the R direction mark D1 and the R direction mark D5 In the ultrasonic image U1 shown in FIG. 6 and the radial image T1 shown in FIG. 7, the R direction mark D1 and the R direction mark D5, the L direction mark D2 and the L direction mark D6, the A direction mark D3 and the A direction mark D7, and the P direction.
  • the marks D4 and the P-direction marks D8 are oriented in the same direction as each other, and the region of interest A1 in the radiographic image T1 and the region of interest A2 in the ultrasonic image U1 are also oriented in the same direction.
  • the main body control unit 29 controls each part of the diagnostic apparatus main body 3 according to a program or the like recorded in advance.
  • the display control unit 23, under the control of the main body control unit 29, has the ultrasonic image U1 generated by the image generation unit 22 and the radiation image T1 transmitted from the server 4 to the communication unit 21 via the network NW. After performing a predetermined process, the image is displayed on the monitor 24.
  • the monitor 24 performs various displays under the control of the display control unit 23.
  • the monitor 24 includes, for example, a display device such as an LCD (Liquid Crystal Display) or an organic EL display (Organic Electroluminescence Display).
  • the input device 30 of the diagnostic device main body 3 is for the user to perform an input operation.
  • the input device 30 is composed of, for example, a keyboard, a mouse, a trackball, a touch pad, a touch panel, and other devices for the user to perform an input operation.
  • the processor 31 including the communication unit 21, the image generation unit 22, the display control unit 23, the image adjustment unit 27, and the main body control unit 29 performs various processing on the CPU (Central Processing Unit) and the CPU. It consists of control programs to be performed, but FPGA (Field Programmable Gate Array: Feed Programmable Gate Array), DSP (Digital Signal Processor: Digital Signal Processor), ASIC (Application Specific Integrated Circuit: Application Specific Integrated Circuit), It may be configured by using a GPU (Graphics Processing Unit) or another IC (Integrated Circuit), or may be configured by combining them.
  • FPGA Field Programmable Gate Array: Feed Programmable Gate Array
  • DSP Digital Signal Processor: Digital Signal Processor
  • ASIC Application Specific Integrated Circuit: Application Specific Integrated Circuit
  • the communication unit 21, the image generation unit 22, the display control unit 23, the image adjustment unit 27, and the main body control unit 29 can be partially or wholly integrated into one CPU or the like.
  • step S1 the radiation image T1 stored in the server 4 is transmitted to the communication unit 21 via the network NW based on the input operation of the user via the input device 30, and the radiation image T1 is transmitted. It is saved in the memory 25.
  • this radiographic image T1 includes a region of interest A1 suspected to be a lesion.
  • the tag of the radiographic image T1 stores the radiographic image orientation information, and based on the radiographic image orientation information, the radiographic image T1 has the R direction mark D1, the L direction mark D2, the A direction mark D3, and P.
  • the direction mark D4 is arranged.
  • step S2 a plurality of frames of the ultrasonic image U are taken in a state where the ultrasonic probe 2 is in contact with the body surface of the subject by the user.
  • the transmission / reception circuit 12 performs reception focus processing using preset sound velocity values under the control of the probe control unit 15 to generate a sound line signal.
  • the sound line signal generated by the transmission / reception circuit 12 in this way is transmitted to the image generation unit 22.
  • the image generation unit 22 generates an ultrasonic image U1 as shown in FIG. 6 by using the sound line signal transmitted from the transmission / reception circuit 12.
  • the generated ultrasonic image U1 is stored in the memory 25.
  • the image adjustment unit 27 sets the probe orientation information based on the user's input operation via the input device 30.
  • the user confirms the direction of the marker M formed on the ultrasonic probe 2 as shown in FIG. 3 and the orientation of the subject, and obtains information regarding the orientation of the subject in the ultrasonic image U1. input.
  • the R direction mark D5 the R direction mark D5
  • the L direction mark D6 the A direction mark D7
  • the P direction mark D8 are arranged.
  • step S4 the image adjusting unit 27 takes an image on the radiation image T1 based on the radiation image orientation information stored in the tag of the radiation image T1 saved in step S1 and the probe orientation information set in step S3.
  • the radiation image T1 and the ultrasonic image U1 are adjusted so that the region of interest A1 and the region of interest A2 captured by the ultrasonic image U1 are oriented in the same direction.
  • the image adjusting unit 27 adjusts the direction shown in FIG. 7 by, for example, rotating the radiation image T1 shown in FIG. 2 clockwise and then flipping it left and right.
  • the orientation of the region of interest A1 in the radiographic image T1 shown in FIG. 7 and the orientation of the region of interest A2 in the ultrasonic image U1 shown in FIG. 6 can be adjusted to be the same orientation as each other. This makes it easier for the user to compare the region of interest A1 in the radiographic image T1 with the region of interest A2 in the ultrasonic image U1.
  • step S5 as shown in FIG. 9, the radiation image T1 and the ultrasonic image U1 adjusted in step S4 are displayed on the monitor 24. In this way, the operation of the ultrasonic diagnostic apparatus 1 according to the first embodiment shown in the flowchart of FIG. 8 is completed.
  • the radiation image orientation information stored in the tag of the radiation image T1 and the ultrasonic waves when the ultrasonic image U1 is taken.
  • the radiographic image T1 and the ultrasonic image U1 are adjusted so that the orientation of the region of interest A1 in the radiographic image T1 and the orientation of the region of interest A2 in the ultrasonic image U1 are the same as each other. .. Therefore, the user can easily compare the region of interest A1 in the radiographic image T1 and the region of interest A2 in the ultrasonic image U1, and can improve the diagnostic accuracy for the regions of interest A1 and A2.
  • the image generation unit 22 is provided in the diagnostic apparatus main body 3, but may be provided in the ultrasonic probe 2 instead of being provided in the diagnostic apparatus main body 3.
  • the ultrasonic probe 2 and the diagnostic device main body 3 are connected to each other by wired communication, the ultrasonic probe 2 and the diagnostic device main body 3 can also be connected to each other by wireless communication.
  • diagnostic device main body 3 is provided with one memory 25, it can also be provided with a plurality of memories depending on the application and the like.
  • the radiographic image T1 is transmitted from the server 4 to the diagnostic apparatus main body 3 via the network NW, the radiographic image T1 is not limited to being transmitted from the server 4.
  • the radiation image T1 can also be transmitted from a radiation diagnostic device (not shown) to the diagnostic device main body 3.
  • the shape of the marker M is not particularly limited as long as the direction of the ultrasonic probe 2 can be indicated.
  • the marker M may have, for example, a recessed shape, or may have a planar shape and a pattern.
  • the R direction mark D1, the L direction mark D2, the A direction mark D3, the P direction mark D4, and the like are arranged on the radiation image T1, but the form of the mark indicating the direction is particularly limited to this. Not limited. For example, by arranging a so-called schema for schematically representing the breast on the radiation image T1 and arranging a mark indicating the direction of the radiation source when the radiation image T1 is taken on the schema, the radiation image T1 Can indicate the direction in.
  • the form of the mark indicating the direction is not limited to the R direction mark D5, the L direction mark D6, the A direction mark D7, the P direction mark D8, and the like.
  • the ultrasonic image U1 is arranged. Can indicate the direction in.
  • the position and orientation of the probe mark superimposed on the schema on the ultrasonic image U1 can be set by a user's input operation via the input device 30.
  • the image adjustment unit 27 can set the probe orientation information based on the orientation of the probe mark input to the user.
  • the mark indicating the direction in the radiographic image T1 and the mark indicating the direction in the ultrasonic image U1 need not be displayed on the monitor 24. However, by displaying these marks on the monitor 24, the user can easily grasp that the orientation of the region of interest A1 in the radiographic image T1 and the orientation of the region of interest A2 in the ultrasonic image U1 are the same. Can be done.
  • the reversing process is not particularly limited to left-right reversal.
  • the image adjusting unit 27 can also perform a so-called upside-down process of inverting the R-direction mark D1 side and the L-direction mark D2 side of the radiation image T1 shown in FIG.
  • the image adjusting unit 27 inverts the radiation image T1 with respect to an axis that divides the radiation image T1 into two equal parts in the left-right direction or an axis that divides the radiation image T1 into two equal parts in the vertical direction.
  • the process is not limited to the process, and an arbitrary axis can be set and the process of inverting the radiation image T1 with respect to the axis can be performed.
  • the ultrasonic image U1 may be subjected to rotation processing and inversion processing instead of the radiation image T1, and both the radiation image T1 and the ultrasonic image U1 may be subjected to rotation processing and inversion processing.
  • the shooting directions of the radiation image T1 and the ultrasonic image U1 are particularly limited. Not done.
  • a radiographic image T2 in which the breast of a subject is photographed from the so-called MLO (Medio Lateral Oblique) direction and an ultrasonic image U2 taken from the corresponding direction.
  • MLO Medium Lateral Oblique
  • the orientation of the region of interest A3 in the radiation image T2 and the orientation of the region of interest A4 in the ultrasonic image U2 can be the same.
  • the HR (Head Right) direction mark C1 and the H direction mark C5 the FL (Foot Left: foot left) direction mark C2 and the F direction mark C6,
  • the A-direction mark C3 and the A-direction mark C7, and the P-direction mark C4 and the P-direction mark C8 each face the same direction.
  • the image adjusting unit 27 rotates the radiation source T1 as shown in FIG. 11 when the radiation image T2 is acquired by photographing from the MLO direction in which the radiation source is rotated by the rotation angle Q.
  • the radiation image T2 and the ultrasonic image U2 can be adjusted after the rotation conversion based on the angle Q.
  • the image adjusting unit 27 not only captures the image of the subject's breast from the MLO direction, but also obtains the radiation image T1 in a state where the radiation source is arranged in a direction inclined with respect to the vertical direction.
  • the radiographic image T2 and the ultrasonic image U2 can be adjusted. As a result, the user can more easily compare the region of interest A3 in the radiographic image T2 and the region of interest A4 in the ultrasonic image U2, so that the diagnostic accuracy for the subject can be improved.
  • the tag of the radiation image T1 can include the radiation image breast information indicating which of the left and right breasts the subject's breast captured in the radiation image T1 is, and further, for example, via the input device 30.
  • the user can input the ultrasonic image breast information indicating which of the left and right breasts the subject's breast is captured in the ultrasonic image U1.
  • the image adjusting unit 27 has the breast of the subject imaged on the radiographic image T1 and the breast of the subject imaged on the ultrasonic image U1 based on the radiographic image breast information and the ultrasonic image breast information.
  • the radial image T1 and the ultrasonic image U1 can be adjusted so that the orientation of the region of interest A1 in the radiation image T1 and the orientation of the region of interest A2 in the ultrasonic image U1 are the same only when they match each other.
  • the user can easily compare the region of interest A1 and the region of interest A2 in the radiographic image T1 and the ultrasonic image U1 in which the same breast is imaged, so that the diagnostic accuracy for the subject can be improved.
  • the image adjustment unit 27 may further adjust the radiation image T1 and the ultrasonic image U1 that have already been adjusted and displayed on the monitor 24 based on the readjustment information input by the user via the input device 30. can.
  • the radiographic image T1 and the ultrasonic image U1 can be readjusted so that the user can easily compare them, and the diagnostic accuracy for the subject can be further improved.
  • the main body control unit 29 informs the user of a part of the region including the region of interest A1 in the radiation image T1 and the ultrasonic image U1. It is also possible to rotate and invert some areas including the designated area of interest A2 and display them on the monitor 24.
  • the sub-window W1 is arranged on the radiation image T1 and the sub-window W2 is arranged on the ultrasonic image U1, and the orientation of the region of interest A1 and the orientation of the region of interest A2 are the same.
  • the region of interest B1 in the radiation image T1 adjusted so as to be displayed in the subwindow W1 on the radiation image T1 and the ultrasonic image U1 adjusted so that the orientation of the region of interest A1 and the orientation of the region of interest A2 are the same.
  • the region of interest B2 in the above can be displayed in the sub-window W2 on the ultrasonic image U1. This allows the user to easily compare the region of interest B1 and the region of interest B2 facing in the same direction.
  • the main body control unit 29 has the same size of the region of interest B1 in the subwindow W1 and the region of interest B2 in the subwindow W2 based on, for example, the interpixel distance of the radiation image T1 and the interpixel distance of the ultrasonic image U1.
  • the region of interest B1 or the region of interest B2 can be enlarged and displayed so as to be. This allows the user to more easily compare the region of interest B1 and the region of interest B2.
  • the main body control unit 29 may expand both the region of interest B1 and the region of interest B2 so that the region of interest B1 in the sub-window W1 and the region of interest B2 in the sub-window W2 have the same size.
  • the inter-pixel distance of the radiation image T1 and the ultrasonic image U1 is the actual length per pixel in each of the radiation image T1 and the ultrasonic image U1.
  • Information regarding the inter-pixel distance of the ultrasonic image U1 is stored in advance in, for example, the image adjusting unit 27. Further, the information regarding the inter-pixel distance of the radiation image T1 is stored in advance in the tag of the radiation image T1, for example.
  • the main body control unit 29 indicates the direction in the radiation image T1 such as the R direction mark F1, the L direction mark F2, the A direction mark F3, and the P direction mark F4 in the sub window W1.
  • a mark can be displayed.
  • the main body control unit 29 can also display the mark indicating the direction in the ultrasonic image U1 in the sub-window W2 on the ultrasonic image U1.
  • Embodiment 2 In the first embodiment, an example of setting the region of interest A2 in the ultrasonic image U1 based on a user's input operation via the input device 30 is described, but image analysis is performed on the ultrasonic image U1. Thereby, the region of interest A2 can also be extracted.
  • the ultrasonic diagnostic apparatus 1A includes the diagnostic apparatus main body 3A instead of the diagnostic apparatus main body 3 in the ultrasonic diagnostic apparatus 1 of the first embodiment shown in FIG. There is.
  • the area of interest extraction unit 41 is added to the diagnostic device main body 3A, and the main body control unit 29A is provided instead of the main body control unit 29.
  • a processor 31A including the region of interest extraction unit 41 is configured.
  • the region of interest extraction unit 41 is connected to the memory 25. Further, the image adjustment unit 27 and the main body control unit 29A are connected to the region of interest extraction unit 41.
  • the region of interest extraction unit 41 extracts the region of interest A2 in the ultrasonic image U1 by performing image analysis on the ultrasonic image U1 stored in the memory 25.
  • the region of interest extraction unit 41 stores, for example, typical pattern data of the region of interest A2 in advance as a template, calculates the similarity to the pattern data while searching the ultrasonic image U1, and the similarity is a threshold value. It can be considered that the region of interest A2 exists in the above-mentioned and maximum location.
  • the image adjusting unit 27 adjusts the radiographic image T1 and the ultrasonic image U1 so that the orientation of the region of interest A1 in the radiographic image T1 and the orientation of the region of interest A2 in the ultrasonic image U1 are the same.
  • the orientation of the region of interest A1 in the radiation image T1 and the region of interest A2 in the ultrasonic image U1 are the same as in the first embodiment. Since the radiation image T1 and the ultrasonic image U1 are adjusted so that the orientations are the same as each other, the user can easily compare the region of interest A1 in the radiation image T1 and the region of interest A2 in the ultrasonic image U1. , The diagnostic accuracy for the regions of interest A1 and A2 can be improved.
  • the main body control unit 29 includes a part of the region including the region of interest A1 in the radiation image T1 as shown in FIG. It is also possible to rotate and invert some regions including the region of interest A2 extracted by the region of interest extraction unit 41 in the ultrasonic image U1 and display them on the monitor 24.
  • the main body control unit 29 has the size of the region of interest B1 in the sub-window W1 and the region of interest B2 in the sub-window W2 based on, for example, the inter-pixel distance of the radiation image T1 and the inter-pixel distance of the ultrasonic image U1.
  • the region of interest B1 or region of interest B2 can be enlarged and displayed so that This allows the user to more easily compare the region of interest B1 and the region of interest B2.
  • the main body control unit 29 indicates the direction in the radiation image T1 such as the R direction mark F1, the L direction mark F2, the A direction mark F3, and the P direction mark F4 in the sub window W1.
  • a mark can be displayed.
  • the main body control unit 29 can also display the mark indicating the direction in the ultrasonic image U1 in the sub-window W2 on the ultrasonic image U1.
  • the region of interest extraction unit 41 performs image analysis on the ultrasonic image U1 to extract the region of interest A2 in the ultrasonic image U1, but performs image analysis on the radiation image T1.
  • the region of interest A1 in the radiation image T1 can also be extracted.
  • Embodiment 3 In the first embodiment, it is explained that the probe orientation information is set based on the input operation of the user via the input device 30, but for example, the orientation of the ultrasonic probe 2 is detected and the detected ultrasonic probe 2 is detected.
  • the probe orientation information may be set based on the orientation of the sound wave probe 2.
  • the ultrasonic diagnostic apparatus 1B according to the third embodiment includes the ultrasonic probe 2B instead of the ultrasonic probe 2 in the ultrasonic diagnostic apparatus 1 according to the first embodiment shown in FIG. There is.
  • the position sensor 42 is added to the ultrasonic probe 2 in the first embodiment.
  • the position sensor 42 is connected to the memory 25 of the diagnostic apparatus main body 3 and the main body control unit 29.
  • the position sensor 42 is a sensor for detecting position information including the orientation of the ultrasonic probe 2B, and is, for example, a magnetic sensor, an optical position sensor, an acceleration sensor, a gyro sensor, and a GPS (Global Positioning System). Can include sensors, etc.
  • the position information of the ultrasonic probe 2B detected by the position sensor 42 is sent to the memory 25 of the diagnostic apparatus main body 3, and the ultrasonic image U1 is generated by the image generation unit 22 under the control of the main body control unit 29. Each time, it is associated with the ultrasonic image U1 and stored in the memory 25.
  • the image adjusting unit 27 receives the ultrasonic image U1 and the radiographic image T1 from the memory 25, sets the probe orientation information based on the position information of the ultrasonic probe 2B associated with the ultrasonic image U1, and sets the probe orientation information. Based on the information and the radiographic image orientation information of the radiographic image T1, the radiographic image T1 and the ultrasonic image U1 so that the orientation of the region of interest A1 in the radiographic image T1 and the orientation of the region of interest A2 in the ultrasonic image U1 are the same. To adjust.
  • the orientation of the region of interest A1 and the ultrasonic waves in the radiation image T1 are the same as in the first embodiment. Since the radiation image T1 and the ultrasonic image U1 are adjusted so that the orientations of the regions of interest A2 in the image U1 are the same, the user can select the region A1 in the radiation image T1 and the region A2 in the ultrasonic image U1. It can be easily compared and the diagnostic accuracy for the regions of interest A1 and A2 can be improved.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

超音波診断装置(1)は、超音波プローブ(2)と、放射線画像に撮像されている被検体の乳房の関心領域を含む超音波画像を生成する画像生成部(22)と、放射線画像のタグに格納されている放射線画像向き情報と、超音波画像を撮影した際の超音波プローブ(2)のプローブ向き情報とに基づいて、放射線画像に撮像されている関心領域と超音波画像に撮像されている関心領域とが互いに同じ向きとなるように放射線画像および超音波画像を調整する画像調整部(27)と、画像調整部(27)により調整された調整済みの放射線画像および超音波画像を表示するモニタ(24)とを備える。

Description

超音波診断装置および超音波診断装置の制御方法
 本発明は、被検体の乳房を検査するための超音波診断装置および超音波診断装置の制御方法に関する。
 従来から、超音波診断装置を用いて被検体内の病変部等に対する検査が行われている。このような超音波診断装置を用いた検査の前に、予め、CT(Computed Tomography:コンピュータ断層撮影)装置等の、超音波診断装置とは異なる画像診断装置を用いて被検体内の検査がなされることが多い。この場合に、医師等のユーザは、超音波診断装置により撮影された超音波画像と、その他の画像診断装置により撮影された医用画像の双方を観察して、被検体の病変部等に対する診断を行うことが多い。
 このように、互いに異なる2つの医用画像を用いた診断の精度を向上させるために、例えば、特許文献1に開示されるような超音波診断装置が開発されている。特許文献1には、CT撮影により得られた被検体の3次元データに基づいて、超音波画像に対応する断面を表す2次元のCT断面画像を選出し、選択されたCT断面画像と超音波画像を表示することが開示されている。
特開2020-39877号公報
 ところで、被検体の乳房に対して超音波診断装置を用いた検査が行われる場合には、超音波診断装置を用いた検査の前に、いわゆるマンモグラフィと呼ばれる検査が行われることが多い。
 ここで、特許文献1に開示されているような、超音波診断装置を用いた検査およびCT装置を用いた検査の双方において、被検体は、診察台等に仰向けになった状態で検査が行われる。これにより、超音波診断装置を用いた検査およびCT装置を用いた検査において、互いに同一の向きから被検体の乳房が撮影され、撮影時の被検体の乳房の形状も互いに同一とすることができる。そのため、超音波診断装置を用いた検査に先立ってCT装置を用いた検査が行われる場合は、ユーザが比較しやすい超音波画像とCT断面画像を容易に得ることができる。
 しかしながら、マンモグラフィにより被検体の乳房の放射線画像を撮影する場合には、被検体が立った状態で撮影が行われ、さらに、いわゆる圧迫板と撮影台とで乳房を圧迫した状態で撮影が行われるため、マンモグラフィにおける被検体の乳房の形状と、超音波診断装置を用いた検査における被検体の乳房の形状が異なる。そのため、超音波画像が表す断面と同一の断面を表す放射線画像を撮影することは困難であり、医師等のユーザが超音波画像と放射線画像とを比較しにくいという問題があった。
 本発明は、このような従来の問題点を解決するためになされたものであり、ユーザが超音波画像と放射線画像を容易に比較でき、被検体に対する診断精度を向上させることができる超音波診断装置および超音波診断装置の制御方法を提供することを目的とする。
 本発明に係る超音波診断装置は、超音波プローブと、被検体に対し超音波プローブを用いて超音波ビームの送受信を行うことにより、放射線画像に撮像されている被検体の乳房の関心領域を含む超音波画像を生成する画像生成部と、放射線画像のタグに格納されている放射線画像向き情報と、超音波画像を撮影した際の超音波プローブのプローブ向き情報とに基づいて、放射線画像に撮像されている関心領域と超音波画像に撮像されている関心領域とが互いに同じ向きとなるように放射線画像および超音波画像を調整する画像調整部と、画像調整部により調整された調整済みの放射線画像および超音波画像を表示するモニタとを備えることを特徴とする。
 プローブ向き情報は、ユーザにより指定された超音波プローブの位置情報、または、超音波プローブに搭載された位置センサにより検出される位置情報であることが好ましい。
 画像調整部は、放射線画像の全体および超音波画像の全体の少なくとも一方に、回転処理および反転処理の少なくとも一方を施すことにより調整済みの放射線画像および超音波画像を生成することができる。
 もしくは、放射線画像および超音波画像からそれぞれ関心領域を抽出する関心領域抽出部を備えることができ、その場合に、画像調整部は、放射線画像から抽出された関心領域および超音波画像から抽出された関心領域の少なくとも一方に、回転処理および反転処理の少なくとも一方を施すことにより調整済みの放射線画像および超音波画像を生成することができる。
 また、画像調整部は、調整済みの放射線画像および超音波画像に、被検体の向きを表す被検体向きマークを重複表示することができる。
 また、画像調整部は、放射線画像に撮像されている関心領域と超音波画像に撮像されている関心領域とが互いに同じサイズとなるように、調整済みの放射線画像および超音波画像を生成することができる。
 この場合に、画像調整部は、放射線画像のピクセル間距離と超音波画像のピクセル間距離に基づいて、調整済みの放射線画像および超音波画像のサイズの比率を決定することが好ましい。
 また、画像調整部は、放射線源が鉛直方向に対して傾斜した方向に配置された状態において放射線画像が取得されている場合に、放射線画像を放射線源の回転角度に基づいて回転変換させた後に、放射線画像および超音波画像を調整することが好ましい。
 また、放射線画像のタグは、放射線画像に撮像されている被検体の乳房が左右の乳房のいずれであるかを表す放射線画像乳房情報を含み、画像調整部は、放射線画像乳房情報と、ユーザにより入力された、超音波画像に撮像されている被検体の乳房が左右の乳房のいずれであるかを表す情報とに基づいて、放射線画像に撮像されている被検体の乳房と超音波画像に撮像されている被検体の乳房が互いに一致する場合に、放射線画像および超音波画像を調整することができる。
 また、画像調整部は、ユーザにより入力された再調整情報に基づいて、既に調整された放射線画像および超音波画像を更に調整することができる。
 本発明に係る超音波診断装置の制御方法は、被検体に対し超音波プローブを用いて超音波ビームの送受信を行うことにより、放射線画像に撮像されている被検体の乳房の関心領域を含む超音波画像を生成し、放射線画像のタグに格納されている放射線画像向き情報と、超音波画像を撮影した際の超音波プローブのプローブ向き情報とに基づいて、放射線画像に撮像されている関心領域と超音波画像に撮像されている関心領域とが互いに同じ向きとなるように放射線画像および超音波画像を調整し、調整済みの放射線画像および超音波画像をモニタに表示することを特徴とする。
 本発明によれば、超音波診断装置が、放射線画像のタグに格納されている放射線画像向き情報と、超音波画像を撮影した際の超音波プローブのプローブ向き情報とに基づいて、放射線画像に撮像されている関心領域と超音波画像に撮像されている関心領域とが互いに同じ向きとなるように放射線画像および超音波画像を調整する画像調整部と、画像調整部により調整された調整済みの放射線画像および超音波画像を表示するモニタとを備えるため、ユーザが超音波画像と放射線画像を容易に比較でき、被検体に対する診断精度を向上させることができる。
本発明の実施の形態1に係る超音波診断装置の構成を示すブロック図である。 本発明の実施の形態1におけるサーバに保存されている放射線画像の例の模式図である。 本発明の実施の形態1における超音波プローブの模式図である。 本発明の実施の形態1における送受信回路の構成を示すブロック図である。 本発明の実施の形態1における画像生成部の構成を示すブロック図である。 本発明の実施の形態1における超音波画像の例の模式図である。 本発明の実施の形態1において調整された放射線画像の例の模式図である。 本発明の実施の形態1に係る超音波診断装置の動作を示すフローチャートである。 本発明の実施の形態1においてモニタに表示された放射線画像と超音波画像の例の模式図である。 本発明の実施の形態1においてモニタに表示された放射線画像と超音波画像の他の例の模式図である。 本発明の実施の形態1において調整された放射線画像の他の例の模式図である。 本発明の実施の形態1においてモニタに表示された放射線画像上のサブウィンドウと超音波画像上のサブウィンドウの例の模式図である。 本発明の実施の形態1においてサブウィンドウに表示された関心領域の例の模式図である。 本発明の実施の形態2に係る超音波診断装置の構成を示すブロック図である。 本発明の実施の形態3に係る超音波診断装置の構成を示すブロック図である。
 以下、この発明の実施の形態を添付図面に基づいて説明する。
 以下に記載する構成要件の説明は、本発明の代表的な実施態様に基づいてなされるが、本発明はそのような実施態様に限定されるものではない。
 なお、本明細書において、「~」を用いて表される数値範囲は、「~」の前後に記載される数値を下限値および上限値として含む範囲を意味する。
 本明細書において、「同一」、「同じ」は、技術分野で一般的に許容される誤差範囲を含むものとする。
実施の形態1
 図1に、本発明の実施の形態1に係る超音波診断装置1の構成を示す。超音波診断装置1は、超音波プローブ2と、診断装置本体3を備えている。超音波プローブ2と診断装置本体3は、互いに接続されている。また、診断装置本体3は、ネットワークNWを介して外部のサーバ4と互いに接続されている。
 超音波プローブ2は、振動子アレイ11を備えており、振動子アレイ11に、送受信回路12が順次接続されている。
 診断装置本体3は、画像生成部22を備えており、画像生成部22は、超音波プローブ2の送受信回路12に接続されている。また、画像生成部22に、表示制御部23およびモニタ24が順次接続されている。また、画像生成部22に、メモリ25が接続されている。また、診断装置本体3は、通信部21を備えており、通信部21は、ネットワークNWを介してサーバ4に接続されている。また、通信部21に、メモリ25が接続されている。また、メモリ25に、画像調整部27が接続されている。また、画像調整部27は、表示制御部23が接続されている。
 また、超音波プローブ2の送受信回路12、通信部21、画像生成部22、表示制御部23、メモリ25および画像調整部27に、本体制御部29が接続されている。また、本体制御部29に、入力装置30が接続されている。
 また、通信部21、画像生成部22、表示制御部23、画像調整部27および本体制御部29により、プロセッサ31が構成されている。
 サーバ4は、例えば病院等に設置され、診断装置本体3が配置されている場所に対する遠隔地に設置される。サーバ4は、画像データを管理するものであり、例えば、いわゆるPACS(Picture Archiving and Communication System:医療用画像管理システム)に使用されることができる。
 サーバ4には、図示しない放射線診断装置により撮影された、図2に示すような放射線画像T1が予め保存されている。サーバ4に保存されている放射線画像T1は、病変部の疑いがある関心領域A1を含んでいる。また、放射線画像T1は、放射線画像T1に関する情報を格納するためのタグを有している。このタグには、例えば、いわゆるA(Anterior:前面)方向、P(Posterior:背面)方向、R(Right:右)方向、L(Left:左)方向、H(Head:頭)方向、F(Foot:足)方向等の、放射線画像T1における被検体の向きに関する情報である、放射線画像向き情報が格納されている。
 なお、放射線画像T1のタグとして、いわゆるDICOM(Digital Imaging and COmmunications in Medicine)規格のタグを用いることができる。
 また、図2に示す例では、被検体の乳房が、いわゆるCC(Cranio Caudal:頭尾)方向から撮影された放射線画像T1が示されており、放射線画像T1上に、R方向を表すR方向マークD1、L方向を表すL方向マークD2、A方向を表すA方向マークD3、P方向を表すP方向マークD4の、被検体の向きを表す4つの被検体向きマークが配置されている。
 超音波プローブ2は、図3に示すように、各種の電気回路等を内蔵し且つ樹脂等からなるハウジングJを有している。ハウジングJは、被検体に対する検査を行うユーザが超音波プローブ2を把持するための把持部J1と、振動子アレイ11が位置する先端部J2を有しており、ハウジングJの側部の片側において、先端部J2の近傍に1つの突起状のマーカMが形成されている。マーカMが形成されている向きにより、ユーザは、超音波プローブ2の向きを把握することができる。また、マーカMの向きを基準として、A方向、P方向、R方向、L方向、H方向、または、F方向等の超音波画像における被検体の向きが設定される。
 図1に示す超音波プローブ2の振動子アレイ11は、1次元または2次元に配列された複数の超音波振動子を有している。これらの超音波振動子は、それぞれ送受信回路12から供給される駆動信号にしたがって超音波を送信すると共に、被検体からの超音波エコーを受信して、超音波エコーに基づく信号を出力する。各超音波振動子は、例えば、PZT(Lead Zirconate Titanate:チタン酸ジルコン酸鉛)に代表される圧電セラミック、PVDF(Poly Vinylidene Di Fluoride:ポリフッ化ビニリデン)に代表される高分子圧電素子およびPMN-PT(Lead Magnesium Niobate-Lead Titanate:マグネシウムニオブ酸鉛-チタン酸鉛固溶体)に代表される圧電単結晶等からなる圧電体の両端に電極を形成することにより構成される。
 送受信回路12は、プローブ制御部15による制御の下で、振動子アレイ11から超音波を送信し且つ振動子アレイ11により取得された受信信号に基づいて音線信号を生成する。送受信回路12は、図4に示すように、振動子アレイ11に接続されるパルサ16と、振動子アレイ11から順次直列に接続される増幅部17、AD(Analog Digital)変換部18、およびビームフォーマ19を有している。
 パルサ16は、例えば、複数のパルス発生器を含んでおり、プローブ制御部15からの制御信号に応じて選択された送信遅延パターンに基づいて、振動子アレイ11の複数の超音波振動子から送信される超音波が超音波ビームを形成するようにそれぞれの駆動信号を、遅延量を調節して複数の超音波振動子に供給する。このように、振動子アレイ11の超音波振動子の電極にパルス状または連続波状の電圧が印加されると、圧電体が伸縮し、それぞれの超音波振動子からパルス状または連続波状の超音波が発生して、それらの超音波の合成波から、超音波ビームが形成される。
 送信された超音波ビームは、例えば、被検体の部位等の対象において反射され、超音波プローブ2の振動子アレイ11に向かって伝搬する。このように振動子アレイ11に向かって伝搬する超音波エコーは、振動子アレイ11を構成するそれぞれの超音波振動子により受信される。この際に、振動子アレイ11を構成するそれぞれの超音波振動子は、伝搬する超音波エコーを受信することにより伸縮して、電気信号である受信信号を発生させ、これらの受信信号を増幅部17に出力する。
 増幅部17は、振動子アレイ11を構成するそれぞれの超音波振動子から入力された受信信号を増幅し、増幅した受信信号をAD変換部18に送信する。AD変換部18は、増幅部17から送信された受信信号をデジタルの受信データに変換する。ビームフォーマ19は、AD変換部18から受け取った各受信データに対してそれぞれの遅延を与えて加算することにより、いわゆる受信フォーカス処理を行う。この受信フォーカス処理により、AD変換部18で変換された各受信データが整相加算され且つ超音波エコーの焦点が絞り込まれた音線信号が取得される。
 また、通信部21は、電波の送信および受信を行うためのアンテナを含む回路、および、LAN(Local Area Network:ローカルエリアネットワーク)接続を行うための回路等により構成されており、本体制御部29の制御の下で、ネットワークNWを介してサーバ4との通信を行う。通信部21は、放射線画像T1等を、ネットワークNWを介してサーバ4から受信することができる。
 画像生成部22は、図5に示すように、信号処理部32、DSC(Digital Scan Converter:デジタルスキャンコンバータ)33および画像処理部34が順次直列に接続された構成を有している。
 信号処理部32は、超音波プローブ2の送受信回路12から送出された音線信号に対し、本体制御部29により設定される音速値を用いて超音波の反射位置の深度に応じて距離による減衰の補正を施した後、包絡線検波処理を施すことにより、被検体内の組織に関する断層画像情報であるBモード画像信号を生成する。
 DSC33は、信号処理部32で生成されたBモード画像信号を通常のテレビジョン信号の走査方式に従う画像信号に変換(ラスター変換)する。
 画像処理部34は、DSC33から入力されるBモード画像信号に階調処理等の各種の必要な画像処理を施した後、Bモード画像信号を表示制御部23およびメモリ25に送出する。以降は、画像処理部34により画像処理が施されたBモード画像信号を、超音波画像と呼ぶ。
 メモリ25は、画像生成部22により生成された超音波画像、および、サーバ4からネットワークNWを経由して通信部21に送信された放射線画像T1等を保存するためのものである。メモリ25に保存された超音波画像は、本体制御部29による制御の下で読み出され、表示制御部23および画像調整部27に送出される。また、メモリ25に保存された放射線画像T1は、本体制御部29による制御の下で読み出され、画像調整部27に送出される。
 メモリ25としては、例えば、フラッシュメモリ、HDD(Hard Disc Drive:ハードディスクドライブ)、SSD(Solid State Drive:ソリッドステートドライブ)、FD(Flexible Disc:フレキシブルディスク)、MOディスク(Magneto-Optical disc:光磁気ディスク)、MT(Magnetic Tape:磁気テープ)、RAM(Random Access Memory:ランダムアクセスメモリ)、CD(Compact Disc:コンパクトディスク)、DVD(Digital Versatile Disc:デジタルバーサタイルディスク)、SDカード(Secure Digital card:セキュアデジタルカード)、および、USBメモリ(Universal Serial Bus memory:ユニバーサルシリアルバスメモリ)等の記録メディア等を用いることができる。
 画像調整部27は、メモリ25に保存されている放射線画像T1のタグに格納されている放射線画像向き情報と、超音波画像が撮影された際の超音波プローブ2のプローブ向き情報とに基づいて、放射線画像T1に撮像されている関心領域A1と、超音波画像に撮像されている関心領域とが互いに同じ向きとなるように、放射線画像T1と超音波画像を調整する。
 ここで、プローブ向き情報とは、A方向、P方向、R方向、L方向、H方向、および、F方向等の、超音波画像における被検体の向きに関する情報である。画像調整部27は、入力装置30を介したユーザの入力操作により入力された情報に基づいて、プローブ向き情報を設定する。これにより、例えば図6に示すように、超音波画像U1に対して、R方向を表すR方向マークD5、L方向を表すL方向マークD6、A方向を表すA方向マークD7およびP方向を表すP方向マークD8の、被検体の向きを表す4つの被検体向きマークが付与される。なお、図6に示される超音波画像U1は、被検体の乳房を撮影したものである。
 画像調整部27は、例えば、図2に示す放射線画像T1と、図6に示す超音波画像U1に対して、R方向マークD1とR方向マークD5、L方向マークD2とL方向マークD6、A方向マークD3とA方向マークD7、P方向マークD4とP方向マークD8が、それぞれ互いに同一の方向を向くように調整する。
 この場合に、画像調整部27は、例えば、図2に示す放射線画像T1を、右回りすなわちR方向マークD1側をP方向マークD4側に傾けるように、90度回転させた上で、左右反転すなわちR方向マークD1側とL方向マークD2側を反転させることにより、図7に示すような向きに放射線画像T1を調整することができる。
 図6に示す超音波画像U1と図7に示す放射線画像T1において、R方向マークD1とR方向マークD5、L方向マークD2とL方向マークD6、A方向マークD3とA方向マークD7、P方向マークD4とP方向マークD8は、それぞれ互いに同じ方向を向いており、放射線画像T1における関心領域A1と超音波画像U1における関心領域A2も、同じ向きである。
 本体制御部29は、予め記録されたプログラム等にしたがって診断装置本体3の各部を制御する。
 表示制御部23は、本体制御部29の制御の下、画像生成部22により生成された超音波画像U1およびサーバ4からネットワークNWを経由して通信部21に送信された放射線画像T1等に対して所定の処理を施して、モニタ24に表示する。
 モニタ24は、表示制御部23による制御の下、種々の表示を行う。モニタ24は、例えば、LCD(Liquid Crystal Display:液晶ディスプレイ)、または、有機ELディスプレイ(Organic Electroluminescence Display)等のディスプレイ装置を含む。
 診断装置本体3の入力装置30は、ユーザが入力操作を行うためのものである。入力装置30は、例えば、キーボード、マウス、トラックボール、タッチパッドおよびタッチパネル等のユーザが入力操作を行うための装置等により構成される。
 なお、通信部21、画像生成部22、表示制御部23、画像調整部27および本体制御部29を含むプロセッサ31は、CPU(Central Processing Unit:中央処理装置)、および、CPUに各種の処理を行わせるための制御プログラムから構成されるが、FPGA(Field Programmable Gate Array:フィードプログラマブルゲートアレイ)、DSP(Digital Signal Processor:デジタルシグナルプロセッサ)、ASIC(Application Specific Integrated Circuit:アプリケーションスペシフィックインテグレイテッドサーキット)、GPU(Graphics Processing Unit:グラフィックスプロセッシングユニット)、または、その他のIC(Integrated Circuit:集積回路)を用いて構成されてもよく、もしくはそれらを組み合わせて構成されてもよい。
 また、通信部21、画像生成部22、表示制御部23、画像調整部27および本体制御部29は、部分的にあるいは全体的に1つのCPU等に統合させて構成されることもできる。
 以下では、本発明の実施の形態に係る超音波診断装置1の動作を説明する。
 まず、ステップS1において、入力装置30を介したユーザの入力操作等に基づいて、サーバ4に保存されている放射線画像T1がネットワークNWを経由して通信部21に送信され、その放射線画像T1がメモリ25に保存される。この放射線画像T1は、図2に示すように、病変部の疑いがある関心領域A1を含んでいる。また、放射線画像T1のタグには、放射線画像向き情報が格納されており、その放射線画像向き情報に基づいて、放射線画像T1に、R方向マークD1、L方向マークD2、A方向マークD3およびP方向マークD4が配置されている。
 次に、ステップS2において、ユーザにより超音波プローブ2が被検体の体表に接触した状態で複数フレームの超音波画像Uが撮影される。
 この際に、送受信回路12は、プローブ制御部15の制御の下で、予め設定された音速値を用いて受信フォーカス処理を行って、音線信号を生成する。このようにして送受信回路12により生成された音線信号は、画像生成部22に送出される。画像生成部22は、送受信回路12から送出された音線信号を用いて図6に示すような超音波画像U1を生成する。生成された超音波画像U1は、メモリ25に保存される。
 続くステップS3において、画像調整部27は、入力装置30を介したユーザの入力操作に基づいて、プローブ向き情報を設定する。この際に、ユーザは、例えば、図3に示すような超音波プローブ2に形成されたマーカMの方向と、被検体の向きを確認しながら、超音波画像U1における被検体の向きに関する情報を入力する。これにより、例えば図6に示すように、超音波画像U1において、R方向マークD5、L方向マークD6、A方向マークD7およびP方向マークD8が配置される。
 ステップS4において、画像調整部27は、ステップS1で保存された放射線画像T1のタグに格納された放射線画像向き情報と、ステップS3で設定されたプローブ向き情報とに基づいて、放射線画像T1に撮像されている関心領域A1と超音波画像U1に撮像されている関心領域A2とが互いに同じ向きとなるように、放射線画像T1と超音波画像U1を調整する。
 画像調整部27は、例えば、図2に示す放射線画像T1を右回りに回転した上で、左右反転させることにより、図7に示す向きに調整する。これにより、図7に示す放射線画像T1における関心領域A1の向きと、図6に示す超音波画像U1における関心領域A2の向きを、互いに同じ向きとなるように調整できる。
 これにより、ユーザが、放射線画像T1における関心領域A1と超音波画像U1における関心領域A2を比較しやすくなる。
 最後に、ステップS5において、図9に示すように、ステップS4で調整された放射線画像T1および超音波画像U1がモニタ24に表示される。
 このようにして、図8のフローチャートに示す実施の形態1に係る超音波診断装置1の動作が完了する。
 以上のように、本発明の実施の形態1に係る超音波診断装置1によれば、放射線画像T1のタグに格納された放射線画像向き情報と、超音波画像U1が撮影された際の超音波プローブ2のプローブ向き情報に基づいて、放射線画像T1における関心領域A1の向きと超音波画像U1における関心領域A2の向きが互いに同じになるように、放射線画像T1と超音波画像U1が調整される。そのため、ユーザが、放射線画像T1における関心領域A1と超音波画像U1における関心領域A2を容易に比較することができ、関心領域A1、A2に対する診断精度を向上させることができる。
 なお、超音波診断装置1において、画像生成部22は、診断装置本体3に備えられているが、診断装置本体3に備えられる代わりに超音波プローブ2に備えられていてもよい。
 また、超音波プローブ2と診断装置本体3が有線通信により互いに接続されることが説明されているが、超音波プローブ2と診断装置本体3は、無線通信により互いに接続されることもできる。
 また、診断装置本体3は、1つのメモリ25を備えているが、用途等に応じて複数のメモリを備えることもできる。
 また、サーバ4からネットワークNWを経由して診断装置本体3に放射線画像T1が送信されることが説明されているが、放射線画像T1は、サーバ4から送信されることに限定されない。例えば、放射線画像T1は、図示しない放射線診断装置から診断装置本体3に送信されることもできる。
 また、図3において、突起状のマーカMが示されているが、マーカMの形状は、超音波プローブ2の向きを示すことができれば、特に限定されない。マーカMは、例えば、窪んだ形状を有していてもよく、平面形状で模様が施されたものであってもよい。
 また、放射線画像T1に、R方向マークD1、L方向マークD2、A方向マークD3およびP方向マークD4等が配置されることが説明されているが、方向を表すマークの形態は、特にこれに限定されない。例えば、乳房を模式的に表すための、いわゆるシェーマを放射線画像T1上に配置し、そのシェーマ上に放射線画像T1を撮影する際の放射線源の向きを表すマークを配置することにより、放射線画像T1における方向を示すことができる。
 また、超音波画像U1についても、方向を表すマークの形態は、R方向マークD5、L方向マークD6、A方向マークD7およびP方向マークD8等に限定されない。例えば、シェーマを超音波画像U1上に配置し、そのシェーマ上に超音波画像U1を撮影する際の超音波プローブ2の位置および向きを表す、いわゆるプローブマークを配置することにより、超音波画像U1における方向を示すことができる。
 また、超音波画像U1上のシェーマに重畳されるプローブマークの位置と向きは、入力装置30を介したユーザの入力操作により設定されることができる。この場合に、画像調整部27は、ユーザに入力されたプローブマークの向きに基づいて、プローブ向き情報を設定することができる。
 また、放射線画像T1における方向を表すマークおよび超音波画像U1における方向を表すマークは、モニタ24に表示しなくてもよい。しかしながら、これらのマークがモニタ24に表示されることにより、ユーザは、放射線画像T1における関心領域A1の向きと超音波画像U1における関心領域A2の向きが同じであることを、容易に把握することができる。
 また、画像調整部27により、放射線画像T1に対して左右反転を行う例が説明されているが、反転処理は、左右反転に特に限定されない。例えば、画像調整部27は、図2に示す放射線画像T1のR方向マークD1側とL方向マークD2側を反転させる、いわゆる上下反転の処理を行うこともできる。また、画像調整部27は、反転処理として、左右方向において放射線画像T1を2等分するような軸または上下方向において放射線画像T1を2等分するような軸に対して放射線画像T1を反転する処理を行うことに限定されず、任意の軸を設定し、その軸に対して放射線画像T1を反転する処理を行うこともできる。
 また、放射線画像T1における関心領域A1の向きと超音波画像U1における関心領域A2の向きを同じにするために、放射線画像T1に対して回転処理および反転処理を行う例が説明されているが、放射線画像T1の代わりに超音波画像U1に対して回転処理および反転処理を行ってもよく、放射線画像T1と超音波画像U1の双方に対して回転処理および反転処理を行ってもよい。
 また、CC方向から撮影された放射線画像T1と、それに対応する向きから撮影された超音波画像U1を調整する例が説明されているが、放射線画像T1および超音波画像U1の撮影方向は特に限定されない。例えば、図10に示すように、いわゆるMLO(Medio Lateral Oblique:内外斜位)方向から被検体の乳房を撮影した放射線画像T2と、それに対応する向きから撮影された超音波画像U2に対して、回転および反転を行うことにより、放射線画像T2における関心領域A3の向きと超音波画像U2における関心領域A4の向きを同じにすることができる。
 図10の例では、放射線画像T2と超音波画像U2において、HR(Head Right:頭右)方向マークC1とH方向マークC5、FL(Foot Left:足左)方向マークC2とF方向マークC6、A方向マークC3とA方向マークC7、P方向マークC4とP方向マークC8が、それぞれ、同じ方向を向いている。
 また、例えば、MLO方向から被検体の乳房を撮影する場合には、放射線源を任意の回転角度に回転させた状態で乳房の撮影が行われる。そのため、画像調整部27は、放射線源を回転角度Qで回転させたMLO方向からの撮影により放射線画像T2が取得されている場合に、図11に示すように、放射線画像T1を放射線源の回転角度Qに基づいて回転変換した後に、放射線画像T2と超音波画像U2を調整することができる。
 画像調整部27は、MLO方向から被検体の乳房が撮影される場合だけでなく、放射線源が鉛直方向に対して傾斜した方向に配置された状態において放射線画像T1が取得されている場合に、放射線画像T2および超音波画像U2を調整することができる。
 これにより、ユーザは、より容易に放射線画像T2における関心領域A3と超音波画像U2における関心領域A4を比較できるため、被検体に対する診断精度を向上させることができる。
 また、放射線画像T1のタグは、放射線画像T1に撮像された被検体の乳房が左右のいずれの乳房であるかを表す放射線画像乳房情報を含むことができ、さらに、例えば入力装置30を介してユーザにより、超音波画像U1に撮像された被検体の乳房が左右のいずれの乳房であるかを表す超音波画像乳房情報が入力されることができる。
 この状態において、画像調整部27は、放射線画像乳房情報と超音波画像乳房情報に基づいて、放射線画像T1に撮像された被検体の乳房と、超音波画像U1に撮像された被検体の乳房が互いに一致する場合にのみ、放射線画像T1における関心領域A1の向きと超音波画像U1における関心領域A2の向きが互いに同じになるように、放射線画像T1と超音波画像U1を調整することができる。
 これにより、ユーザは、同一の乳房を撮像した放射線画像T1と超音波画像U1において関心領域A1と関心領域A2を容易に比較できるため、被検体に対する診断精度を向上させることができる。
 また、画像調整部27は、入力装置30を介してユーザにより入力された再調整情報に基づいて、既に調整され且つモニタ24に表示された放射線画像T1と超音波画像U1を更に調整することができる。これにより、放射線画像T1と超音波画像U1を、ユーザが比較しやすいように再調整することが可能であり、被検体に対する診断精度をさらに向上させることができる。
 また、本体制御部29は、放射線画像T1の全体と超音波画像U1の全体を回転および反転させる代わりに、放射線画像T1における関心領域A1を含む一部の領域と、超音波画像U1においてユーザに指定された関心領域A2を含む一部の領域を回転および反転させて、それらをモニタ24に表示させることもできる。
 例えば、図12に示すように、放射線画像T1上にサブウィンドウW1を配置し且つ超音波画像U1上にサブウィンドウW2を配置して、さらに、関心領域A1の向きと関心領域A2の向きが同じになるように調整された放射線画像T1における関心領域B1を、放射線画像T1上のサブウィンドウW1内に表示し、関心領域A1の向きと関心領域A2の向きが同じになるように調整された超音波画像U1における関心領域B2を超音波画像U1上のサブウィンドウW2内に表示することができる。
 これにより、ユーザは、互いに同じ方向を向いた関心領域B1と関心領域B2を容易に比較することができる。
 また、本体制御部29は、例えば、放射線画像T1のピクセル間距離と超音波画像U1のピクセル間距離に基づいて、サブウィンドウW1内の関心領域B1とサブウィンドウW2内の関心領域B2の大きさが同じになるように、関心領域B1または関心領域B2を拡大して表示することができる。これにより、ユーザは、関心領域B1と関心領域B2を、より容易に比較することができる。
 なお、本体制御部29は、サブウィンドウW1内の関心領域B1とサブウィンドウW2内の関心領域B2の大きさが同じになるように、関心領域B1と関心領域B2の双方を拡大してもよい。
 ここで、放射線画像T1および超音波画像U1のピクセル間距離とは、放射線画像T1および超音波画像U1のそれぞれにおける、1ピクセル当たりの実際の長さのことである。例えば、放射線画像T1のピクセル間距離が0.1mmであり、超音波画像U1のピクセル間距離が0.5mmである場合に、超音波画像U1のサイズに対する放射線画像T1のサイズ比率を、0.1mm/0.5mm=0.2に決定することができる。
 なお、超音波画像U1のピクセル間距離に関する情報は、例えば、画像調整部27に予め記憶されている。また、放射線画像T1のピクセル間距離に関する情報は、例えば、放射線画像T1のタグに予め格納されている。
 また、本体制御部29は、例えば、図13に示すように、サブウィンドウW1内に、R方向マークF1、L方向マークF2、A方向マークF3およびP方向マークF4等の、放射線画像T1における方向を表すマークを表示することができる。これにより、ユーザは、サブウィンドウW1内の関心領域B1が、回転および反転等の調整がなされたものであることを容易に把握することができる。
 また、本体制御部29は、同様の理由から、超音波画像U1上のサブウィンドウW2においても、超音波画像U1における方向を表すマークを表示することができる。
実施の形態2
 実施の形態1において、超音波画像U1における関心領域A2を、入力装置30を介したユーザの入力操作に基づいて設定する例が説明されているが、超音波画像U1に対して画像解析を行うことにより、関心領域A2を抽出することもできる。
 図14に示すように、実施の形態2に係る超音波診断装置1Aは、図1に示す実施の形態1の超音波診断装置1において、診断装置本体3の代わりに診断装置本体3Aを備えている。
 診断装置本体3Aは、実施の形態1における診断装置本体3において、関心領域抽出部41が追加され、本体制御部29の代わりに本体制御部29Aを備えている。また、プロセッサ31の代わりに、関心領域抽出部41を含むプロセッサ31Aが構成されている。
 診断装置本体3Aにおいて、メモリ25に、関心領域抽出部41が接続されている。また、関心領域抽出部41に、画像調整部27および本体制御部29Aが接続されている。
 関心領域抽出部41は、メモリ25に保存されている超音波画像U1に対して画像解析を行うことにより、超音波画像U1内の関心領域A2を抽出する。
 関心領域抽出部41は、例えば、関心領域A2の典型的なパターンデータをテンプレートとして予め記憶しておき、超音波画像U1をサーチしながらパターンデータに対する類似度を算出し、類似度がしきい値以上かつ最大となった場所に関心領域A2が存在するとみなすことができる。
 なお、関心領域A2の抽出方法として、単純なテンプレートマッチングを用いる方法の他に、例えば、Csurka et al.: Visual Categorization with Bags of Keypoints, Proc. of ECCV Workshop on Statistical Learning in Computer Vision, pp.59-74 (2004)に記載されている機械学習手法、あるいは、Krizhevsk et al.: ImageNet Classification with Deep Convolutional Neural Networks, Advances in Neural Information Processing Systems 25, pp.1106-1114 (2012)に記載されているディープラーニングを用いた一般画像認識手法等を用いることができる。
 画像調整部27は、放射線画像T1における関心領域A1の向きと超音波画像U1における関心領域A2の向きが同じになるように、放射線画像T1および超音波画像U1を調整する。
 以上から、超音波画像U1における関心領域A2を画像解析により抽出する場合であっても、実施の形態1と同様に、放射線画像T1における関心領域A1の向きと超音波画像U1における関心領域A2の向きが互いに同じになるように、放射線画像T1と超音波画像U1が調整されるため、ユーザが、放射線画像T1における関心領域A1と超音波画像U1における関心領域A2を容易に比較することができ、関心領域A1、A2に対する診断精度を向上させることができる。
 なお、本体制御部29は、放射線画像T1の全体と超音波画像U1の全体を回転および反転させる代わりに、図12に示すように、放射線画像T1における関心領域A1を含む一部の領域と、超音波画像U1において関心領域抽出部41により抽出された関心領域A2を含む一部の領域を回転および反転させて、それらをモニタ24に表示させることもできる。
 この際に、本体制御部29は、例えば、放射線画像T1のピクセル間距離と超音波画像U1のピクセル間距離に基づいて、サブウィンドウW1内の関心領域B1とサブウィンドウW2内の関心領域B2の大きさが同じになるように、関心領域B1または関心領域B2を拡大して表示することができる。これにより、ユーザは、関心領域B1と関心領域B2を、より容易に比較することができる。
 また、本体制御部29は、例えば、図13に示すように、サブウィンドウW1内に、R方向マークF1、L方向マークF2、A方向マークF3およびP方向マークF4等の、放射線画像T1における方向を表すマークを表示することができる。これにより、ユーザは、サブウィンドウW1内の関心領域B1が、回転および反転等の調整がなされたものであることを容易に把握することができる。
 また、本体制御部29は、同様の理由から、超音波画像U1上のサブウィンドウW2においても、超音波画像U1における方向を表すマークを表示することができる。
 また、関心領域抽出部41は、超音波画像U1に対して画像解析を行って、超音波画像U1内の関心領域A2を抽出しているが、放射線画像T1に対して画像解析を行って、放射線画像T1内の関心領域A1を抽出することもできる。
実施の形態3
 実施の形態1では、入力装置30を介したユーザの入力操作に基づいてプローブ向き情報が設定されることが説明されているが、例えば、超音波プローブ2の向きを検出し、検出された超音波プローブ2の向きに基づいてプローブ向き情報が設定されてもよい。
 図15に示すように、実施の形態3に係る超音波診断装置1Bは、図1に示す実施の形態1の超音波診断装置1において、超音波プローブ2の代わりに超音波プローブ2Bを備えている。
 実施の形態3における超音波プローブ2Bは、実施の形態1における超音波プローブ2において、位置センサ42が追加されている。位置センサ42は、診断装置本体3のメモリ25および本体制御部29に接続されている。
 位置センサ42は、超音波プローブ2Bの向きを含む位置情報を検出するためのセンサであり、例えば、磁気センサ、光位置センサ、加速度センサ、ジャイロセンサ、GPS(Global Positioning System:全地球測位システム)センサ、等を含むことができる。位置センサ42により検出された超音波プローブ2Bの位置情報は、診断装置本体3のメモリ25に送出され、本体制御部29の制御の下で、画像生成部22により超音波画像U1が生成される毎に、その超音波画像U1に関連付けられてメモリ25に保存される。
 画像調整部27は、メモリ25から超音波画像U1と放射線画像T1を受け取り、その超音波画像U1に関連付けられた超音波プローブ2Bの位置情報に基づいて、プローブ向き情報を設定し、そのプローブ向き情報と、放射線画像T1の放射線画像向き情報に基づいて、放射線画像T1における関心領域A1の向きと超音波画像U1における関心領域A2の向きが同じになるように、放射線画像T1と超音波画像U1を調整する。
 以上から、位置センサ42により検出された超音波プローブ2Bの位置情報に基づいてプローブ向き情報が設定される場合でも、実施の形態1と同様に、放射線画像T1における関心領域A1の向きと超音波画像U1における関心領域A2の向きが互いに同じになるように、放射線画像T1と超音波画像U1が調整されるため、ユーザが、放射線画像T1における関心領域A1と超音波画像U1における関心領域A2を容易に比較することができ、関心領域A1、A2に対する診断精度を向上させることができる。
1,1A,1B 超音波診断装置、2,2B 超音波プローブ、3,3A 診断装置本体、4 サーバ、11 振動子アレイ、12 送受信回路、15 プローブ制御部、16 パルサ、17 増幅部、18 AD変換部、19 ビームフォーマ、21 通信部、22 画像生成部、23 表示制御部、24 モニタ、25 メモリ、27 画像調整部、29,29A 本体制御部、30 入力装置、31,31A プロセッサ、32 信号処理部、33 DSC、34 画像処理部、41 関心領域抽出部、42 位置センサ、A1~A4,B1,B2 関心領域、C1 HR方向マーク、C2 FL方向マーク、C3,C7,D3,D7,F3 A方向マーク、C4,C8,D4,D8,F4 P方向マーク、C5 H方向マーク、C6 F方向マーク、D1,D5,F1 R方向マーク、D2,D6,F2 L方向マーク、J ハウジング、J1 把持部、J2 先端部、M マーク、NW ネットワーク、Q 回転角度、T1,T2 放射線画像、U1,U2 超音波画像、W1,W2 サブウィンドウ。

Claims (11)

  1.  超音波プローブと、
     被検体に対し前記超音波プローブを用いて超音波ビームの送受信を行うことにより、放射線画像に撮像されている前記被検体の乳房の関心領域を含む超音波画像を生成する画像生成部と、
     前記放射線画像のタグに格納されている放射線画像向き情報と、前記超音波画像を撮影した際の前記超音波プローブのプローブ向き情報とに基づいて、前記放射線画像に撮像されている前記関心領域と前記超音波画像に撮像されている前記関心領域とが互いに同じ向きとなるように前記放射線画像および前記超音波画像を調整する画像調整部と、
     前記画像調整部により調整された調整済みの前記放射線画像および前記超音波画像を表示するモニタと
     を備える超音波診断装置。
  2.  前記プローブ向き情報は、ユーザにより指定された前記超音波プローブの位置情報、または、前記超音波プローブに搭載された位置センサにより検出される位置情報である請求項1に記載の超音波診断装置。
  3.  前記画像調整部は、前記放射線画像の全体および前記超音波画像の全体の少なくとも一方に、回転処理および反転処理の少なくとも一方を施すことにより前記調整済みの前記放射線画像および前記超音波画像を生成する請求項1または2に記載の超音波診断装置。
  4.  前記放射線画像および前記超音波画像からそれぞれ前記関心領域を抽出する関心領域抽出部を備え、
     前記画像調整部は、前記放射線画像から抽出された前記関心領域および前記超音波画像から抽出された前記関心領域の少なくとも一方に、回転処理および反転処理の少なくとも一方を施すことにより前記調整済みの前記放射線画像および前記超音波画像を生成する請求項1または2に記載の超音波診断装置。
  5.  前記画像調整部は、前記調整済みの前記放射線画像および前記超音波画像に、前記被検体の向きを表す被検体向きマークを重複表示する請求項1~4のいずれか一項に記載の超音波診断装置。
  6.  前記画像調整部は、前記放射線画像に撮像されている前記関心領域と前記超音波画像に撮像されている前記関心領域とが互いに同じサイズとなるように、前記調整済みの前記放射線画像および前記超音波画像を生成する請求項1~5のいずれか一項に記載の超音波診断装置。
  7.  前記画像調整部は、前記放射線画像のピクセル間距離と前記超音波画像のピクセル間距離に基づいて、前記調整済みの前記放射線画像および前記超音波画像のサイズの比率を決定する請求項6に記載の超音波診断装置。
  8.  前記画像調整部は、放射線源が鉛直方向に対して傾斜した方向に配置された状態において前記放射線画像が取得されている場合に、前記放射線画像を前記放射線源の回転角度に基づいて回転変換させた後に、前記放射線画像および前記超音波画像を調整する請求項1~7のいずれか一項に記載の超音波診断装置。
  9.  前記放射線画像の前記タグは、前記放射線画像に撮像されている前記被検体の乳房が左右の乳房のいずれであるかを表す放射線画像乳房情報を含み、
     前記画像調整部は、前記放射線画像乳房情報と、前記ユーザにより入力された、前記超音波画像に撮像されている前記被検体の乳房が左右の乳房のいずれであるかを表す情報とに基づいて、前記放射線画像に撮像されている前記被検体の乳房と前記超音波画像に撮像されている前記被検体の乳房が互いに一致する場合に、前記放射線画像および前記超音波画像を調整する請求項1~8のいずれか一項に記載の超音波診断装置。
  10.  前記画像調整部は、前記ユーザにより入力された再調整情報に基づいて、既に調整された前記放射線画像および前記超音波画像を更に調整する請求項1~9のいずれか一項に記載の超音波診断装置。
  11.  被検体に対し超音波プローブを用いて超音波ビームの送受信を行うことにより、放射線画像に撮像されている前記被検体の乳房の関心領域を含む超音波画像を生成し、
     前記放射線画像のタグに格納されている放射線画像向き情報と、前記超音波画像を撮影した際の前記超音波プローブのプローブ向き情報とに基づいて、前記放射線画像に撮像されている前記関心領域と前記超音波画像に撮像されている前記関心領域とが互いに同じ向きとなるように前記放射線画像および前記超音波画像を調整し、
     調整済みの前記放射線画像および前記超音波画像をモニタに表示する
     超音波診断装置の制御方法。
PCT/JP2021/033135 2020-09-28 2021-09-09 超音波診断装置および超音波診断装置の制御方法 WO2022065050A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022551864A JPWO2022065050A1 (ja) 2020-09-28 2021-09-09
EP21872181.9A EP4218603A4 (en) 2020-09-28 2021-09-09 ULTRASOUND DIAGNOSTIC DEVICE AND METHOD FOR CONTROLLING ULTRASOUND DIAGNOSTIC DEVICE
US18/180,674 US20230225713A1 (en) 2020-09-28 2023-03-08 Ultrasound diagnostic apparatus and control method for ultrasound diagnostic apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020162263 2020-09-28
JP2020-162263 2020-09-28

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/180,674 Continuation US20230225713A1 (en) 2020-09-28 2023-03-08 Ultrasound diagnostic apparatus and control method for ultrasound diagnostic apparatus

Publications (1)

Publication Number Publication Date
WO2022065050A1 true WO2022065050A1 (ja) 2022-03-31

Family

ID=80846498

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/033135 WO2022065050A1 (ja) 2020-09-28 2021-09-09 超音波診断装置および超音波診断装置の制御方法

Country Status (4)

Country Link
US (1) US20230225713A1 (ja)
EP (1) EP4218603A4 (ja)
JP (1) JPWO2022065050A1 (ja)
WO (1) WO2022065050A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008086742A (ja) * 2006-01-19 2008-04-17 Toshiba Corp 超音波プローブの軌跡表現装置及び超音波診断装置
JP2015100661A (ja) * 2013-11-28 2015-06-04 コニカミノルタ株式会社 医用画像システム及びプログラム
JP2015231438A (ja) * 2014-06-09 2015-12-24 株式会社東芝 医用画像診断装置、超音波診断装置および医用画像処理装置
JP2018050761A (ja) * 2016-09-27 2018-04-05 キヤノン株式会社 画像処理装置および画像処理方法
JP2020039877A (ja) 2018-09-13 2020-03-19 キヤノンメディカルシステムズ株式会社 医用画像診断装置、医用画像診断方法及び超音波診断装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6396940B1 (en) * 1999-05-27 2002-05-28 Litton Systems, Inc. Optical correlator based automated pathologic region of interest selector for integrated 3D ultrasound and digital mammography
JP2004248818A (ja) * 2003-02-19 2004-09-09 Fuji Photo Film Co Ltd 異常陰影の検出結果表示方法および装置並びにプログラム
JP2014504918A (ja) * 2010-12-14 2014-02-27 ホロジック, インコーポレイテッド 画像診断に使用するために複数の異なる画像処理システムからの3次元画像データを重ね合わせるシステムおよび方法
JP6258026B2 (ja) * 2013-12-09 2018-01-10 東芝メディカルシステムズ株式会社 超音波診断装置
US10198822B2 (en) * 2016-10-27 2019-02-05 International Business Machines Corporation Systems and user interfaces for determination of electro magnetically identified lesions as included in medical images of differing perspectives

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008086742A (ja) * 2006-01-19 2008-04-17 Toshiba Corp 超音波プローブの軌跡表現装置及び超音波診断装置
JP2015100661A (ja) * 2013-11-28 2015-06-04 コニカミノルタ株式会社 医用画像システム及びプログラム
JP2015231438A (ja) * 2014-06-09 2015-12-24 株式会社東芝 医用画像診断装置、超音波診断装置および医用画像処理装置
JP2018050761A (ja) * 2016-09-27 2018-04-05 キヤノン株式会社 画像処理装置および画像処理方法
JP2020039877A (ja) 2018-09-13 2020-03-19 キヤノンメディカルシステムズ株式会社 医用画像診断装置、医用画像診断方法及び超音波診断装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CSURKA ET AL.: "Visual Categorization with Bags of Keypoints", PROC. OF ECCV WORKSHOP ON STATISTICAL LEARNING IN COMPUTER VISION, 2004, pages 59 - 74
KRIZHEVSK ET AL.: "ImageNet Classification with Deep Convolutional Neural Networks", ADVANCES IN NEURAL INFORMATION PROCESSING SYSTEMS, vol. 25, 2012, pages 1106 - 1114
See also references of EP4218603A4

Also Published As

Publication number Publication date
EP4218603A4 (en) 2024-03-27
EP4218603A1 (en) 2023-08-02
JPWO2022065050A1 (ja) 2022-03-31
US20230225713A1 (en) 2023-07-20

Similar Documents

Publication Publication Date Title
JPH11123192A (ja) 生体部位の画像生成表示装置
JP2009082402A (ja) 医用画像診断システム、医用撮像装置、医用画像格納装置、及び、医用画像表示装置
US20120029344A1 (en) Radiological image radiographiing method and apparatus
CN109788942B (zh) 超声波诊断装置及超声波诊断装置的控制方法
JP2006288471A (ja) 3次元超音波診断装置及びボリュームデータ表示領域設定方法
US11116481B2 (en) Ultrasound diagnostic apparatus and control method of ultrasound diagnostic apparatus
WO2022065050A1 (ja) 超音波診断装置および超音波診断装置の制御方法
JP7453400B2 (ja) 超音波システムおよび超音波システムの制御方法
US20230200783A1 (en) Ultrasound system and control method of ultrasound system
US20230200779A1 (en) Ultrasound system and control method of ultrasound system
JP7411109B2 (ja) 超音波診断装置および超音波診断装置の制御方法
EP4309586A1 (en) Ultrasonic diagnostic device and method for controlling ultrasonic diagnostic device
US11857375B2 (en) Medical imaging system
EP4186437B1 (en) Ultrasound image analysis apparatus, ultrasound diagnostic apparatus, and control method for ultrasound image analysis apparatus
US20230414203A1 (en) Image display apparatus and control method of image display apparatus
US20230240654A1 (en) Ultrasound diagnostic apparatus and display method of ultrasound diagnostic apparatus
US20230301618A1 (en) Ultrasound diagnostic apparatus and control method of ultrasound diagnostic apparatus
WO2024127992A1 (ja) 超音波診断装置および超音波診断装置の制御方法
US20230157670A1 (en) Ultrasound diagnostic apparatus and control method of ultrasound diagnostic apparatus
JP2023147906A (ja) 超音波診断装置および超音波診断装置の制御方法
JP2024025865A (ja) 超音波診断装置の制御方法および超音波診断装置
CN116158783A (zh) 超声波图像分析装置、超声波诊断装置及超声波图像分析装置的控制方法
JP2023141907A (ja) 超音波診断システムおよび超音波診断システムの制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21872181

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022551864

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2021872181

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021872181

Country of ref document: EP

Effective date: 20230428