WO2022064981A1 - 超音波システムおよび超音波システムの制御方法 - Google Patents

超音波システムおよび超音波システムの制御方法 Download PDF

Info

Publication number
WO2022064981A1
WO2022064981A1 PCT/JP2021/032082 JP2021032082W WO2022064981A1 WO 2022064981 A1 WO2022064981 A1 WO 2022064981A1 JP 2021032082 W JP2021032082 W JP 2021032082W WO 2022064981 A1 WO2022064981 A1 WO 2022064981A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
ultrasonic
interest
region
reference information
Prior art date
Application number
PCT/JP2021/032082
Other languages
English (en)
French (fr)
Inventor
理子 越野
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2022551229A priority Critical patent/JP7453400B2/ja
Priority to EP21872112.4A priority patent/EP4218602A4/en
Publication of WO2022064981A1 publication Critical patent/WO2022064981A1/ja
Priority to US18/177,526 priority patent/US20230200776A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography
    • A61B8/145Echo-tomography characterised by scanning multiple planes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0825Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of the breast, e.g. mammography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/465Displaying means of special interest adapted to display user selection data, e.g. icons or menus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B8/468Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means allowing annotation or message recording
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B8/469Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means for selection of a region of interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/56Details of data transmission or power supply
    • A61B8/565Details of data transmission or power supply involving data transmission via a network

Definitions

  • the present invention relates to an ultrasonic system for inspecting the breast of a subject and a control method of the ultrasonic system.
  • an ultrasonic diagnostic device has been used to inspect a lesion in the breast of a subject.
  • an examination using a radiation diagnostic device is often performed in advance, and a user such as a doctor can use a radiographic image taken by the radiodiagnosis device and an ultrasound.
  • a user such as a doctor can use a radiographic image taken by the radiodiagnosis device and an ultrasound.
  • Patent Document 1 a region of interest suspected to be a lesion of the breast in a radiographic image is designated, and a portion corresponding to the designated region of interest is photographed.
  • An image display device has been developed that identifies an ultrasonic image and displays the ultrasonic image.
  • the lesion portion in the breast of the subject usually has a three-dimensional shape
  • a user such as a doctor uses the three-dimensional shape of the lesion portion in order to make an accurate diagnosis. It is preferable to grasp.
  • the user can diagnose the region of interest in the breast of the subject while observing both the radiographic image and the ultrasonic image including the region of interest including the suspected lesions of the same lesion. It may be difficult to grasp the three-dimensional shape of the region of interest in detail only by observing the two-dimensional images such as a radiographic image and an ultrasonic image.
  • the present invention has been made to solve such conventional problems, and an object of the present invention is to provide an ultrasonic system and a control method of an ultrasonic system capable of improving diagnostic accuracy for a region of interest. do.
  • an ultrasonic probe and a plurality of frames in which the region of interest of the subject's breast is photographed by transmitting and receiving an ultrasonic beam to and from the subject using the ultrasonic probe are used.
  • the reference information linking unit can store the identification information of the radiographic image in which the region of interest is captured in the tag of the volume rendered image as reference information.
  • the radiographic image includes two radiographic images obtained by capturing the region of interest from two different directions, and the reference information linking unit uses the identification information of each of the two radiographic images as reference information in the volume rendered image. Can be stored in tags.
  • the reference information linking unit can also store the identification information of another two-dimensional ultrasonic image in which the region of interest is captured in the tag of the volume rendered image as reference information.
  • the other two-dimensional ultrasonic image includes two two-dimensional ultrasonic images in which two tomographic planes orthogonal to each other with respect to the region of interest are captured, and the reference information linking portion is two two-dimensional.
  • Each identification information of the ultrasonic image can be stored in the tag of the volume rendered image as reference information.
  • the ultrasonic system can include an ultrasonic diagnostic apparatus and a server connected to the ultrasonic diagnostic apparatus, in which case the ultrasonic diagnostic apparatus includes an ultrasonic probe, an image generator, and a volume rendering image generator. It can also have a reference information linking unit and a communication unit that transmits the volume rendered image associated with the reference information to the server.
  • the ultrasound system further comprises a viewer connected to the server, the viewer having an input device on which the user performs an input operation and a monitor displaying a radiographic or two-dimensional ultrasound image in which the area of interest is captured.
  • a viewer connected to the server, the viewer having an input device on which the user performs an input operation and a monitor displaying a radiographic or two-dimensional ultrasound image in which the area of interest is captured.
  • the region of interest of the radiation or 2D ultrasound image displayed on the monitor is specified by the user via the input device, the volume rendered image containing the region of interest is displayed on the monitor. be able to.
  • the radiation image, the two-dimensional ultrasound image, and the volume rendering in which the region of interest is captured are captured, respectively.
  • the image can be displayed on the monitor.
  • the volume rendering image generation unit can generate a volume rendering image by using surface rendering.
  • the ultrasonic system can also include an image memory for storing the volume rendered image.
  • the control method of the ultrasonic system according to the present invention is a multi-frame two-dimensional superimposition in which the region of interest of the breast of the subject is photographed by transmitting and receiving an ultrasonic beam to the subject using an ultrasonic probe. It is characterized in that an ultrasonic image is generated, a volume-rendered image including a region of interest is generated based on a two-dimensional ultrasonic image of a plurality of frames, and the volume-rendered image is associated with reference information regarding the region of interest.
  • the ultrasonic system transmits and receives an ultrasonic beam to and from a subject using an ultrasonic probe and an ultrasonic probe, whereby a plurality of frames in which the region of interest of the subject's breast is photographed are captured.
  • An image generator that generates a two-dimensional ultrasonic image
  • a volume-rendered image generator that generates a volume-rendered image including a region of interest based on a multi-frame two-dimensional ultrasonic image
  • a volume-rendered image with respect to the region of interest Since the reference information linking unit for linking to the reference information is provided, the diagnostic accuracy for the region of interest can be improved.
  • Embodiment FIG. 1 shows the configuration of the ultrasonic system 1 according to the embodiment of the present invention.
  • the ultrasonic system 1 includes an ultrasonic diagnostic apparatus 2, a server 3, and a viewer 4.
  • the ultrasonic diagnostic apparatus 2 and the server 3 are connected to each other via a network NW. Further, the server 3 and the viewer 4 are connected to each other via the network NW.
  • the ultrasonic diagnostic apparatus 2 includes an ultrasonic probe 5 and a diagnostic apparatus main body 6.
  • the ultrasonic probe 5 includes an oscillator array 11, and a transmission / reception circuit 12 is connected to the oscillator array 11. Further, a position sensor 13 is attached to the ultrasonic probe 5.
  • the diagnostic device main body 6 includes an ultrasonic image generation unit 22, and a transmission / reception circuit 12 of an ultrasonic probe 5 is connected to the ultrasonic image generation unit 22. Further, the display control unit 23 and the main body side monitor 24 are sequentially connected to the ultrasonic image generation unit 22. Further, the memory 25 is connected to the ultrasonic image generation unit 22 and the position sensor 13 of the ultrasonic probe 5. Further, the diagnostic device main body 6 includes a main body side communication unit 21, and the main body side communication unit 21 is connected to the server 3 via the network NW. Further, the memory 25 is connected to the communication unit 21 on the main body side. Further, a VR (Volume Rendering) image generation unit 26 is connected to the main body side communication unit 21 and the memory 25. Further, the display control unit 23 and the reference information linking unit 27 are connected to the VR image generation unit 26. The communication unit 21 on the main body side and the memory 25 are connected to the reference information linking unit 27.
  • the communication unit 21 on the main body side and the memory 25 are connected to the reference information linking
  • the main body control unit 29 is attached to the transmission / reception circuit 12, the position sensor 13, the main body side communication unit 21, the ultrasonic image generation unit 22, the display control unit 23, the memory 25, the VR image generation unit 26, and the reference information linking unit 27. It is connected. Further, the input device 30 is connected to the main body control unit 29. Further, the main body side processor 31 is composed of the main body side communication unit 21, the ultrasonic image generation unit 22, the display control unit 23, the VR image generation unit 26, the reference information linking unit 27, and the main body control unit 29.
  • the oscillator array 11 of the ultrasonic probe 5 shown in FIG. 1 has a plurality of ultrasonic oscillators arranged one-dimensionally or two-dimensionally. Each of these ultrasonic transducers transmits ultrasonic waves according to a drive signal supplied from the transmission / reception circuit 12, receives ultrasonic echoes from a subject, and outputs a signal based on the ultrasonic echoes.
  • Each ultrasonic transducer is, for example, a piezoelectric ceramic represented by PZT (Lead Zirconate Titanate), a polymer piezoelectric element represented by PVDF (Poly Vinylidene Di Fluoride), and PMN-.
  • PT Lead Magnesium Niobate-Lead Titanate: lead magnesiumidene fluoride-lead titanate solid solution
  • the transmission / reception circuit 12 transmits ultrasonic waves from the oscillator array 11 under the control of the probe control unit 15 and generates a sound line signal based on the received signal acquired by the oscillator array 11.
  • the transmission / reception circuit 12 includes a pulsar 16 connected to the oscillator array 11, an amplification unit 17 sequentially connected in series from the oscillator array 11, an AD (Analog Digital) conversion unit 18, and a beam. It has a former 19.
  • the pulsar 16 includes, for example, a plurality of pulse generators, and transmits from a plurality of ultrasonic oscillators of the oscillator array 11 based on a transmission delay pattern selected according to a control signal from the probe control unit 15.
  • Each drive signal is supplied to a plurality of ultrasonic transducers by adjusting the delay amount so that the ultrasonic waves to be generated form an ultrasonic beam.
  • a pulsed or continuous wave voltage is applied to the electrodes of the ultrasonic vibrator of the vibrator array 11, the piezoelectric body expands and contracts, and the pulsed or continuous wave ultrasonic waves are generated from the respective ultrasonic vibrators. Is generated, and an ultrasonic beam is formed from the combined wave of those sound waves.
  • the transmitted ultrasonic beam is reflected by, for example, a target such as a site of a subject, and propagates toward the oscillator array 11 of the ultrasonic probe 5.
  • the ultrasonic echo propagating toward the oscillator array 11 in this way is received by each ultrasonic oscillator constituting the oscillator array 11.
  • each ultrasonic oscillator constituting the oscillator array 11 expands and contracts by receiving the propagating ultrasonic echo, generates a received signal which is an electric signal, and amplifies these received signals. Output to 17.
  • the amplification unit 17 amplifies the reception signal input from each ultrasonic vibrator constituting the vibrator array 11, and transmits the amplified reception signal to the AD conversion unit 18.
  • the AD conversion unit 18 converts the reception signal transmitted from the amplification unit 17 into digital reception data.
  • the beam former 19 performs so-called reception focus processing by giving and adding delays to each received data received from the AD conversion unit 18. By this reception focus processing, each received data converted by the AD conversion unit 18 is phase-adjusted and added, and a sound line signal in which the focus of the ultrasonic echo is narrowed down is acquired.
  • the position sensor 13 is attached to the ultrasonic probe 5 and detects the position information of the ultrasonic probe 5.
  • the position information of the ultrasonic probe 5 detected by the position sensor 13 is transmitted to the memory 25.
  • the position sensor 13 may include, for example, a magnetic sensor, an acceleration sensor, a gyro sensor, an optical position sensor, a GPS (Global Positioning System) sensor, or the like.
  • the main body side communication unit 21 of the diagnostic device main body 6 is composed of a circuit including an antenna for transmitting and receiving radio waves, a circuit for making a LAN (Local Area Network) connection, and the like. , Communicates with the server 3 and the viewer 4 via the network NW under the control of the main body control unit 29.
  • the communication unit 21 on the main body side can receive the identification information of the radiographic image and the like from the server 3 via the network NW.
  • the ultrasonic image generation unit 22 has a configuration in which a signal processing unit 32, a DSC (Digital Scan Converter) 33, and an image processing unit 34 are sequentially connected in series.
  • a signal processing unit 32 a DSC (Digital Scan Converter) 33
  • an image processing unit 34 an image processing unit 34 is sequentially connected in series.
  • the signal processing unit 32 corrects the attenuation of the sound line signal received from the main body side communication unit 21 by the distance according to the depth of the ultrasonic reflection position using the sound velocity value set by the main body control unit 29. After that, the envelope detection process is performed to generate a B-mode image signal which is tomographic image information about the tissue in the subject.
  • the DSC 33 converts the B-mode image signal generated by the signal processing unit 32 into an image signal according to a normal television signal scanning method (raster conversion).
  • the image processing unit 34 performs various necessary image processing such as gradation processing on the B mode image signal input from the DSC 33, and then sends the B mode image signal to the display control unit 23 and the memory 25.
  • the B-mode image signal that has been image-processed by the image processing unit 34 is referred to as a two-dimensional ultrasonic image.
  • the memory 25 stores information such as a two-dimensional ultrasonic image generated by the ultrasonic image generation unit 22, position information of the ultrasonic probe 5 acquired by the position sensor 13, and a radiation image transmitted from the server 3. It is for doing. Further, in the memory 25, the position information of the ultrasonic probe 5 when the two-dimensional ultrasonic image is taken each time the two-dimensional ultrasonic image is stored in the memory 25 under the control of the main body control unit 29. Is associated with and stored in the 2D ultrasound image.
  • the two-dimensional ultrasonic image and the position information of the ultrasonic probe 5 stored in the memory 25 are read out under the control of the main body control unit 29 and sent to the VR image generation unit 26. Further, the information such as the radiographic image stored in the memory 25 is read out under the control of the main body control unit 29 and sent to the reference information linking unit 27.
  • Examples of the memory 25 include a flash memory, an HDD (Hard Disc Drive), an SSD (Solid State Drive), an FD (Flexible Disc), and an MO disk (Magneto-Optical disc). Disk), MT (Magnetic Tape), RAM (Random Access Memory), CD (Compact Disc), DVD (Digital Versatile Disc), SD card (Secure Digital card:) A secure digital card) and a recording medium such as a USB memory (Universal Serial Bus memory) can be used.
  • a flash memory an HDD (Hard Disc Drive), an SSD (Solid State Drive), an FD (Flexible Disc), and an MO disk (Magneto-Optical disc).
  • Disk Magnetic Tape
  • RAM Random Access Memory
  • CD Compact Disc
  • DVD Digital Versatile Disc
  • SD card Secure Digital card
  • a secure digital card) and a recording medium such as a USB memory (Universal Serial Bus memory) can be used.
  • the VR image generation unit 26 automatically extracts the region of interest A1 as shown in FIG. 4 by performing image analysis on each of the two-dimensional ultrasonic images of a plurality of frames stored in the memory 25. , A volume-rendered image as shown in FIG. 5, which represents the three-dimensional shape of the region of interest A1 based on the position information of the two-dimensional ultrasonic image U of a plurality of frames and the ultrasonic probe 5 detected by the position sensor 13. Generate X.
  • the region of interest A1 is a region suspected to be a lesion of the subject.
  • the VR image generation unit 26 stores typical pattern data of the region of interest A1 as a template in advance, calculates the similarity with respect to the pattern data while searching for a two-dimensional ultrasonic image, and the similarity is threshold. It can be considered that the region of interest A1 exists in the place where the value is equal to or greater than the maximum value.
  • the VR image generation unit 26 extracts, for example, the contour of the region of interest A1 for the two-dimensional ultrasonic image U of a plurality of frames, and the contour of the region of interest A1 extracted in the two-dimensional ultrasonic image U of the plurality of frames.
  • the position information of the area of interest A1 is aligned using the information of the above and the position information of the ultrasonic probe 5 when each two-dimensional ultrasonic image U is taken, and the volume rendering of the area of interest A1 is performed by the so-called surface rendering method.
  • Image X can be generated.
  • the method of generating the volume rendering image X of the region of interest A1 is not limited to surface rendering, and for example, a so-called volume rendering method using the entire information of the region of interest A1 in the two-dimensional ultrasonic image U of a plurality of frames. May be used.
  • the VR image generation unit 26 constructs a three-dimensional model of the region of interest A1 by a method such as surface rendering, displays the three-dimensional model on the monitor 24 on the main body side, and uses the input device 30 for the user.
  • a volume rendering image X can be generated by taking a so-called screenshot of the 3D model in a state where the 3D model is rotated, enlarged, and reduced on the main body side monitor 24 by an input operation.
  • the reference information associating unit 27 associates the volume rendering image X generated by the VR image generation unit 26 with the reference information regarding the region of interest A1.
  • the reference information regarding the region of interest A1 is, for example, the identification information of the radiation image captured by the region of interest A1 transmitted from the server 3 to the communication unit 21 on the main body side via the network NW, and the VR image generation unit 26. This is information including identification information of a typical two-dimensional ultrasonic image U among the two-dimensional ultrasonic images U of a plurality of frames used when the volume rendered image X is generated.
  • a two-dimensional ultrasonic image U representing a fault passing through the center of the three-dimensional shape of the region of interest A1 based on the position information of the ultrasonic probe 5 detected by the position sensor 13 by the VR image generation unit 26.
  • the identification information of the two-dimensional ultrasonic image U is a representative two-dimensional ultrasonic image U among the multi-frame two-dimensional ultrasonic images U used when the volume rendered image X is generated. Can be sent to the reference information associating unit 27 as the identification information of.
  • the reference information linking unit 27 generates a tag for storing information for the volume rendered image X, and provides reference information including the identification information of the radiation image and the identification information of the two-dimensional ultrasonic image U. By storing the volume rendered image X in the tag, the volume rendered image X can be associated with the reference information.
  • DICOM Digital Imaging and COmmunications in Medicine
  • SOP Insight UID Service Objective Pair Instance Unique IDentifier
  • SOP instance URID SOP instance URID
  • a Study Instance Unique IDentifier Inspection Instance UID
  • Series Instance Unique IDentifier Series Instance Unique IDentifier
  • the volume rendering image X associated with the reference information by the reference information linking unit 27 in this way is transmitted from the main body side communication unit 21 to the server 3 via the network NW.
  • the main body control unit 29 controls each part of the ultrasonic probe 5 and each part of the diagnostic apparatus main body 6 according to a program or the like recorded in advance.
  • the display control unit 23 of the diagnostic apparatus main body 6 has a two-dimensional ultrasonic image U generated by the ultrasonic image generation unit 22 and a volume rendering image X generated by the VR image generation unit 26 under the control of the main body control unit 29. Etc. are subjected to predetermined processing and displayed on the monitor 24 on the main body side.
  • the monitor 24 on the main body side performs various displays under the control of the display control unit 23.
  • the main body side monitor 24 includes, for example, a display device such as an LCD (Liquid Crystal Display) and an organic EL display (Organic Electroluminescence Display).
  • the input device 30 of the diagnostic device main body 6 is for the user to perform an input operation.
  • the input device 30 is composed of, for example, a keyboard, a mouse, a trackball, a touch pad, a touch panel, and other devices for the user to perform an input operation.
  • the main body side processor 31 including the main body side communication unit 21, the ultrasonic image generation unit 22, the display control unit 23, the VR image generation unit 26, the reference information linking unit 27, and the main body control unit 29 is a CPU (Central Processing Unit). : Central processing unit) and a control program for causing the CPU to perform various processes, such as FPGA (Field Programmable Gate Array), DSP (Digital Signal Processor), It may be configured using ASICs (Application Specific Integrated Circuits), GPUs (Graphics Processing Units), and other ICs (Integrated Circuits), or they may be configured. It may be configured in combination.
  • FPGA Field Programmable Gate Array
  • DSP Digital Signal Processor
  • main body side communication unit 21, the ultrasonic image generation unit 22, the display control unit 23, the VR image generation unit 26, the reference information linking unit 27, and the main body control unit 29 are partially or wholly one CPU or the like. It can also be integrated into.
  • the server 3 includes a server-side communication unit 41.
  • a database management unit 42 is connected to the server-side communication unit 41.
  • the memory 43 is connected to the database management unit 42, and the server-side communication unit 41 is connected to the memory 43.
  • the server control unit 44 is connected to the server-side communication unit 41, the database management unit 42, and the memory 43.
  • a server processor (not shown) is configured by the server-side communication unit 41, the database management unit 42, and the server control unit 44.
  • the server 3 is installed in, for example, a hospital or the like, and is installed in a remote place with respect to the place where the diagnostic device main body 6 is arranged.
  • the server 3 manages image data, and is used, for example, when a user such as a doctor makes a diagnosis for a region of interest A1 of a subject.
  • the server 3 can be used for a so-called PACS (Picture Archiving and Communication System).
  • the server-side communication unit 41 is composed of a circuit including an antenna for transmitting and receiving radio waves, a circuit for making a LAN connection, and the like, and is composed of a server control unit 44. Under, communication is performed with the viewer 4 and the diagnostic device main body 6 via the network NW.
  • the database management unit 42 links the volume rendering image X and the volume rendering image X based on the information of the tag of the volume rendering image X transmitted from the diagnostic device main body 6 to the server side communication unit 41 via the network NW.
  • Image data such as the attached two-dimensional ultrasonic image U and a radial image are associated with each other.
  • the database management unit 42 creates a database of information related to the volume rendered image X, and stores the databased information in the memory 43.
  • the memory 43 stores a volume rendering image X, a two-dimensional ultrasonic image U, a radiographic image, and other information whose mutual relationships are stored in a database by the database management unit 42.
  • the information stored in the memory 43 is sent to the server-side communication unit 41 under the control of the server control unit 44, and is transmitted to the viewer 4 and the diagnostic device main body 6 via the network NW.
  • a flash memory for example, a flash memory, an HDD, an SSD, an FD, a MO disk, an MT, a RAM, a CD, a DVD, an SD card, a recording medium such as a USB memory, or the like can be used.
  • the server control unit 44 controls each unit of the server 3 according to a program or the like recorded in advance.
  • the viewer 4 includes a viewer-side communication unit 51, and a display control unit 52 and a viewer-side monitor 53 are sequentially connected to the viewer-side communication unit 51. Further, the viewer control unit 54 is connected to the viewer side communication unit 51 and the display control unit 52. Further, the input device 55 is connected to the viewer control unit 54.
  • the viewer 4 is installed in, for example, a hospital or the like, and is installed in a place away from the place where the diagnostic device main body 6 is installed.
  • the viewer 4 is configured by, for example, a personal computer or the like, and is used when a user such as a doctor browses data stored in the server 3.
  • the viewer 4 can be used for so-called PACS.
  • the viewer side communication unit 51 is composed of a circuit including an antenna for transmitting and receiving radio waves, a circuit for making a LAN connection, and the like. It communicates with the server 3 via the network NW under the viewer control unit 54.
  • the display control unit 52 of the viewer 4 Under the control of the viewer control unit 54, the display control unit 52 of the viewer 4 performs predetermined processing on the two-dimensional ultrasonic image U, the volume rendering image X, the radiation image, and the like received from the server 3 on the viewer side. Displayed on the monitor 53.
  • the viewer side monitor 53 performs various displays under the control of the display control unit 52.
  • the viewer side monitor 53 includes a display device such as an LCD and an organic EL display.
  • the input device 55 of the viewer 4 is for the user to perform an input operation.
  • the input device 55 is composed of, for example, a keyboard, a mouse, a trackball, a touch pad, a touch panel, and the like.
  • a radiographic image of a region of interest suspected to be a lesion in the breast of the subject is stored in the memory 43 of the server 3, and the region of interest A1 that is the same as the region of interest included in the radiographic image.
  • the region of interest A1 Will be described, for example, by using an ultrasonic system 1 constructed in a hospital.
  • step S1 the main body control unit 29 receives an instruction to start an inspection on the subject by a user's input operation or the like via the input device 30 of the diagnostic device main body 6. As a result, the test for the subject is started.
  • a command from the main body control unit 29 to transmit the radiographic image stored in the memory 43 of the server 3 to the diagnostic apparatus main body 6 is transmitted to the server 3 via the main body side communication unit 21, and the server 3 A radiographic image is transmitted from the main body 6 to the main body side communication unit 21 of the diagnostic device main body 6.
  • the transmitted radiographic image is transmitted from the main body side communication unit 21 to the memory 25 and stored in the memory 25.
  • step S2 the two-dimensional ultrasonic image U is taken while the ultrasonic probe 5 is moved by the user in a state of being in contact with the body surface of the subject.
  • the transmission / reception circuit 12 performs reception focus processing using a preset sound velocity value under the control of the probe control unit 15 to generate a sound line signal.
  • the sound line signal generated by the transmission / reception circuit 12 in this way is transmitted to the main body side communication unit 21 of the diagnostic apparatus main body 6 and further sent to the ultrasonic image generation unit 22.
  • the ultrasonic image generation unit 22 generates a two-dimensional ultrasonic image U as shown in FIG. 4 using a sound line signal received from the communication unit 21 on the main body side.
  • step S3 the position sensor 13 attached to the ultrasonic probe 5 acquires the position information of the ultrasonic probe 5 when the two-dimensional ultrasonic image U is generated in step S2.
  • step S4 the main body control unit 29 correlates the two-dimensional ultrasonic image U generated in step S2 and the position information of the ultrasonic probe 5 acquired in step S3 with each other and stores them in the memory 25 of the diagnostic apparatus main body 6. do.
  • step S5 it is determined whether or not the shooting of the two-dimensional ultrasonic image U is completed. For example, when an instruction to end the shooting of the two-dimensional ultrasonic image U is input by the user's input operation via the input device 30 of the diagnostic device main body 6, it is determined that the shooting of the two-dimensional ultrasonic image U is finished. If the instruction to end the shooting of the two-dimensional ultrasonic image U is not input, it is determined that the shooting of the two-dimensional ultrasonic image U is continued.
  • step S2 When it is determined that the shooting of the two-dimensional ultrasonic image U is continued, the process returns to step S2, and the two-dimensional ultrasonic image U is newly generated. After that, the position information of the ultrasonic probe 5 is acquired in step S3, the position information of the two-dimensional ultrasonic image U and the ultrasonic probe 5 is stored in the memory 25 in step S4, and the process proceeds to step S5. In this way, as long as it is determined that the shooting of the two-dimensional ultrasonic image U is continued, the processes of steps S2 to S5 are repeated.
  • step S5 If it is determined in step S5 that the shooting of the two-dimensional ultrasonic image U is completed, the process proceeds to step S6.
  • step S6 the VR image generation unit 26 automatically selects the region of interest A1 suspected to be a lesion from each of the multi-frame two-dimensional ultrasonic image U stored in the memory 25 by repeating steps S2 to S5. Extract to.
  • step S7 the VR image generation unit 26 uses the position information of the ultrasonic probe 5 stored in association with the two-dimensional ultrasonic image U each time the two-dimensional ultrasonic image U is generated in step S4. Then, by aligning the region of interest A1 extracted with respect to the two-dimensional ultrasonic image U of a plurality of frames in step S6, the volume rendering image X as shown in FIG. 5 is generated. At this time, the VR image generation unit 26 can generate a volume rendering image X by, for example, extracting the contour of the region of interest A1 in the two-dimensional ultrasonic image U of a plurality of frames and using the surface rendering method. can.
  • volume-rendered image X of the region of interest A1 is generated in this way, the user can easily grasp the three-dimensional shape of the region of interest A1 of the subject by confirming the shape of the volume-rendered image X. can do.
  • the reference information linking unit 27 links the volume rendering image X generated in step S7 to the reference information regarding the region of interest A1.
  • the reference information linking unit 27 generates, for example, a tag for storing information for the volume rendered image X, and the plurality of frames used when generating the volume rendered image X in step S7.
  • the identification information of the typical one-frame two-dimensional ultrasonic image U among the two-dimensional ultrasonic images U of the above is stored in the tag of the volume rendered image X as reference information.
  • a typical one-frame two-dimensional ultrasonic image U is selected by, for example, the VR image generation unit 26 and sent to the reference information linking unit 27.
  • the VR image generation unit 26 stores the identification information of the radiation image stored in the memory 25 in step S1 as reference information in the tag of the volume rendering image X.
  • the volume rendering image X associated with the reference information is transmitted from the main body side communication unit 21 to the server side communication unit 41 of the server 3 via the network NW.
  • the server 3 can acquire the volume rendered image X more quickly than the case where the volume rendered image X is generated after transmitting the two-dimensional ultrasonic image U of a plurality of frames to the server 3. , The user can more smoothly diagnose the region of interest A1 of the subject using the server 3.
  • step S9 the database management unit 42 of the server 3 volume renders based on the reference information stored in the tag of the volume rendering image X transmitted to the server side communication unit 41 via the network NW.
  • the image X and the two-dimensional ultrasonic image U and the radiation image associated with the tag are associated with each other to create a database of the relationship between these image data.
  • the image data in which the mutual relationship is stored in the database in this way is stored in the memory 43 of the server 3.
  • step S10 for example, a command to browse the two-dimensional ultrasonic image U stored in the server 3 is input by an input operation of a user such as a doctor via the input device 55 of the viewer 4. And the information requesting the transmission of the two-dimensional ultrasonic image U is transmitted from the viewer 4 to the server 3, and the two-dimensional ultrasonic image U stored in the memory 43 of the server 3 in step S9 is the server-side communication unit 41.
  • the two-dimensional ultrasonic image U transmitted from the viewer 4 to the viewer 4 and received by the viewer-side communication unit 51 is displayed on the viewer-side monitor 53.
  • the two-dimensional ultrasonic image U displayed on the viewer side monitor 53 includes the region of interest A1 as shown in FIG.
  • step S11 the viewer control unit 54 determines whether or not the region of interest A1 in the two-dimensional ultrasonic image U displayed on the viewer side monitor 53 is designated by the user. If it is determined that the region of interest A1 is not designated by the user, the process returns to step S11. On the other hand, if it is determined that the region of interest A1 is designated by the user, the process proceeds to step S12.
  • step S12 the volume rendering image X associated with the two-dimensional ultrasonic image U displayed on the viewer side monitor 53 is displayed in the vicinity of the two-dimensional ultrasonic image U as shown in FIG.
  • a command to transmit the volume rendering image X associated with the two-dimensional ultrasonic image U displayed on the viewer side monitor 53 is sent from the viewer control unit 54 to the server 3 via the viewer side communication unit 51. Will be sent.
  • the server control unit 44 reads the volume rendering image X associated with the two-dimensional ultrasonic image U displayed on the viewer side monitor 53 from the memory 43, and communicates with the server side. It is transmitted from the unit 41 to the viewer 4.
  • the volume rendered image X is received by the viewer side communication unit 51, sent to the display control unit 52, and displayed on the viewer side monitor 53.
  • step S12 the operation of the ultrasonic system 1 according to the flowchart of FIG. 8 ends.
  • the volume rendered image X of the region of interest A1 is generated based on the two-dimensional ultrasonic image U of a plurality of frames. Therefore, the three-dimensional shape of the region of interest A1 suspected to be a lesion in the subject can be easily grasped, and the diagnostic accuracy for the region of interest A1 can be improved.
  • the volume rendered image X generated in the diagnostic apparatus main body 6 is associated with the reference information regarding the region of interest A1, the volume rendered image X associated with the reference information is transmitted to the server 3, and the memory of the server 3 is stored. Since it is stored in 43, for example, a multi-frame two-dimensional ultrasonic image U is transmitted to the server 3, and the volume rendering image X is generated in the server 3, so that the server 3 can perform volume rendering more quickly. Since the image X can be acquired, the user can more smoothly diagnose the region of interest A1 of the subject using the server 3.
  • the ultrasonic image generation unit 22 is provided in the diagnostic device main body 6, but may be provided in the ultrasonic probe 5 instead of being provided in the diagnostic device main body 6.
  • the ultrasonic probe 5 and the diagnostic device main body 6 are connected to each other by wired communication, the ultrasonic probe 5 and the diagnostic device main body 6 can also be connected to each other by wireless communication.
  • the diagnostic device main body 6 is provided with one memory 25, for example, a plurality of memories can be provided depending on the application. Further, the server 3 can also be provided with a plurality of memories instead of one memory 43 in the same manner.
  • server 3 and the viewer 4 exist independently of each other and are connected via the network NW, they can be configured integrally.
  • the ultrasonic system 1 is constructed in a hospital, but any of the ultrasonic diagnostic apparatus 2, the server 3, and the viewer 4 It may be installed in a remote facility such as another hospital.
  • the radiographic image stored in the server 3 is transmitted to the diagnostic apparatus main body 6 when the examination for the subject is started in step S1, but the diagnostic apparatus main body is transmitted from the radiological diagnostic apparatus (not shown).
  • a radiographic image is transmitted to No. 6, and this radiographic image can also be stored in the memory 25.
  • step S2 it is explained by the user that the ultrasonic probe 5 is moved in a state of being in contact with the body surface of the subject, but when the region of interest A1 to be inspected is sufficiently small, It is also possible to take a multi-frame two-dimensional ultrasonic image U in which the region of interest A1 is captured by so-called electronic scanning or the like while the position of the ultrasonic probe 5 is fixed. In this way, when the examination of the subject can be completed with the position of the ultrasonic probe 5 fixed, the position information of the ultrasonic probe 5 does not need to be used, so that the ultrasonic probe 5 is positioned.
  • the sensor 13 may not be provided.
  • step S2 can be performed after step S3, and steps S2 and S3. Can also be done at the same time.
  • step S6 it is explained that the VR image generation unit 26 automatically extracts the region of interest A1 for each of the two-dimensional ultrasonic images U of a plurality of frames, but the region of interest A1 is designated.
  • the method is not limited to this.
  • the region of interest A1 can also be designated based on a user's input operation via the input device 30.
  • a plurality of regions of interest A1 may be extracted in one ultrasonic image U.
  • a two-dimensional ultrasonic image including a plurality of interest regions A1 is triggered by the extraction of a plurality of interest regions A1 in any of the two-dimensional ultrasonic images U of a plurality of frames.
  • U is displayed on the monitor 24 on the main body side, and one of the plurality of regions of interest A1 is selected by the user via the input device 30 of the diagnostic device main body 6.
  • the information of the region of interest A1 selected by the user is sent to the VR image generation unit 26 via the main body control unit 29, and the VR image generation unit 26 of the region of interest A1 same as the region of interest A1 selected by the user. Extraction is performed on the two-dimensional ultrasonic image U of a plurality of frames.
  • the volume rendering image X of the region of interest A1 selected by the user on the viewer 4 side is generated, and the reference information is stored in the tag of the volume rendering image X in step S8.
  • This reference information includes information on the coordinates of the region of interest A1 selected by the user in the two-dimensional ultrasonic image U.
  • the relationship between the reference information including the information of the coordinates of the region of interest A1 selected by the user and the volume rendered image X is stored in a database in step S9 and stored in the memory 43 of the server 3.
  • the two-dimensional ultrasonic image U is displayed on the viewer side monitor 53 in step S10, and when the same interest region A1 as the interest region A1 selected by the user in step S6 is selected in step S11, the coordinates thereof.
  • the volume rendering image X associated with the information is superimposed on the two-dimensional ultrasonic image U and displayed on the viewer side monitor 53.
  • radiographic images are taken in two different directions, such as the (internal and external oblique position) directions.
  • the memory 43 of the server 3 stores two radiographic images taken from two different directions.
  • the reference information linking unit 27 of the diagnostic apparatus main body 6 can store the identification information of the two radiographic images stored in the memory 43 of the server 3 in the tag of the volume rendered image X as reference information.
  • the VR image generation unit 26 has a typical one-frame two-dimensional ultrasonic image U among the plurality of frames of the two-frame ultrasonic image U stored in the memory 25 of the diagnostic apparatus main body 6.
  • the two-dimensional ultrasonic image U representing the fault plane orthogonal to the fault plane represented by the two-dimensional ultrasonic image U is based on the position information of the two-dimensional ultrasonic image U of a plurality of frames and the ultrasonic probe 5. And these two-frame two-dimensional ultrasonic images U can be sent to the reference information linking unit 27.
  • the reference information linking unit 27 can store the identification information of the two-frame two-dimensional ultrasonic image U representing the tomographic planes along two different directions in the tag of the volume rendered image X. Further, these two-frame two-dimensional ultrasonic images U are transmitted from the main body side communication unit 21 to the server 3 via the network NW, and are correlated with the volume rendering image X by the database management unit 42. , Stored in the memory 43 of the server 3.
  • step S12 when it is determined in step S11 that the region of interest A1 on the two-dimensional ultrasonic image U displayed on the viewer side monitor 53 is designated by the user, in step S12, as shown in FIG. 9, two-dimensional. It is explained that the volume rendering image X is displayed in the vicinity of the region of interest A1 on the ultrasonic image U, but further, other information associated with the volume rendering image X is displayed on the viewer side monitor 53. You can also.
  • the radiation image R associated with the volume rendering image X can be displayed on the viewer side monitor 53.
  • the radiation image R includes the region of interest A2 corresponding to the region of interest A1 in the two-dimensional ultrasonic image U.
  • a so-called schema S and a probe mark arranged on the schema S are based on the position information of the ultrasonic probe 5 when the two-dimensional ultrasonic image U associated with the volume rendered image X is captured. P may be displayed on the viewer side monitor 53.
  • the schema S schematically representing the breast of the subject is superimposed and displayed on the two-dimensional ultrasonic image U.
  • the radiation image R is displayed on the viewer side monitor 53 instead of the two-dimensional ultrasonic image U, and the region of interest A2 in the radiation image R is set by the user via the input device 55 of the viewer 4. It is also possible to superimpose the volume rendered image X associated with the radiation image R on the radiation image R and display it on the viewer side monitor 53 with the selection as a trigger. In this case, the user who operates the viewer 4 can easily grasp the three-dimensional shape of the region of interest A2 in the radiographic image R, so that the accuracy of diagnosis for the region of interest A2 can be improved.
  • Main unit control unit 30, 55 input device, 31 main unit side processor, 32 signal processing unit, 33 DSC, 34 image processing unit, 41 server side communication unit, 42 database management unit, 44 server control unit, 52 viewer side communication unit, 53 Viewer side monitor, 54 Viewer control unit, A1, A2 area of interest, NW network, P probe mark, R radiation image, S schema, U 2D ultrasonic image, X volume rendered image.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Public Health (AREA)
  • Molecular Biology (AREA)
  • Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Physiology (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

超音波システム(1)は、超音波プローブ(2)と、被検体に対し超音波プローブ(2)を用いて超音波ビームの送受信を行うことにより、それぞれ被検体の乳房の関心領域が撮影された複数フレームの2次元超音波画像を生成する画像生成部(22)と、複数フレームの2次元超音波画像に基づいて関心領域を含むボリュームレンダリング画像を生成するボリュームレンダリング画像生成部(26)と、ボリュームレンダリング画像を、関心領域に関する参照情報に紐付ける参照情報紐付け部(27)とを備える。

Description

超音波システムおよび超音波システムの制御方法
 本発明は、被検体の乳房を検査するための超音波システムおよび超音波システムの制御方法に関する。
 従来から、超音波診断装置を用いて被検体の乳房における病変部の検査が行われている。このような超音波診断装置を用いた検査の前に、予め、放射線診断装置を用いた検査が行われることが多く、医師等のユーザは、放射線診断装置により撮影された放射線画像と、超音波診断装置により撮影された超音波画像の双方を確認することにより、被検体の乳房における病変部の診断を行うことが多い。
 そこで、ユーザが円滑に診断を行えるように、例えば特許文献1には、放射線画像における乳房の病変部の疑いがある関心領域を指定し、指定された関心領域に対応する部分が撮影された超音波画像を特定し、その超音波画像を表示する画像表示装置が開発されている。
特開2014-14489号公報
 ところで、被検体の乳房における病変部は、通常、3次元的な形状を有していることが多く、医師等のユーザは、精確な診断をするために、病変部の3次元的な形状を把握することが好ましい。特許文献1の技術では、ユーザは、互いに同一の病変部の疑いがある関心領域を含む放射線画像と超音波画像の双方を観察しながら被検体の乳房における関心領域の診断を行うことができるが、2次元的な画像である放射線画像と超音波画像を観察するだけでは、関心領域の3次元的な形状を詳細に把握することは困難な場合があった。
 本発明は、このような従来の問題点を解決するためになされたものであり、関心領域に対する診断精度を向上させることができる超音波システムおよび超音波システムの制御方法を提供することを目的とする。
 本発明に係る超音波システムは、超音波プローブと、被検体に対し超音波プローブを用いて超音波ビームの送受信を行うことにより、それぞれ被検体の乳房の関心領域が撮影された複数フレームの2次元超音波画像を生成する画像生成部と、複数フレームの2次元超音波画像に基づいて関心領域を含むボリュームレンダリング画像を生成するボリュームレンダリング画像生成部と、ボリュームレンダリング画像を、関心領域に関する参照情報に紐付ける参照情報紐付け部とを備えることを特徴とする。
 参照情報紐付け部は、関心領域が撮像された放射線画像の識別情報を、参照情報としてボリュームレンダリング画像のタグに格納することができる。
 この場合に、放射線画像は、関心領域を互いに異なる2方向から撮影した2つの放射線画像を含み、参照情報紐付け部は、2つの放射線画像のそれぞれの識別情報を、参照情報としてボリュームレンダリング画像のタグに格納することができる。
 参照情報紐付け部は、関心領域が撮像された他の2次元超音波画像の識別情報を、参照情報としてボリュームレンダリング画像のタグに格納することもできる。
 この場合に、他の2次元超音波画像は、関心領域に対して互いに直交する2つの断層面が撮像された2つの2次元超音波画像を含み、参照情報紐付け部は、2つの2次元超音波画像のそれぞれの識別情報を、参照情報としてボリュームレンダリング画像のタグに格納することができる。
 超音波システムは、超音波診断装置と、超音波診断装置に接続されたサーバとを備えることができ、この場合に、超音波診断装置は、超音波プローブ、画像生成部、ボリュームレンダリング画像生成部および参照情報紐付け部と、参照情報に紐付けられたボリュームレンダリング画像をサーバに送信する通信部とを有することができる。
 超音波システムは、さらに、サーバに接続されたビューワを備え、ビューワは、ユーザが入力操作を行う入力装置と関心領域が撮像された放射線画像または2次元超音波画像を表示するモニタとを有することができ、この場合に、モニタに表示された放射線画像または2次元超音波画像の関心領域がユーザにより入力装置を介して指定された場合に、関心領域を含むボリュームレンダリング画像がモニタに表示されることができる。
 さらに、モニタに表示された放射線画像または2次元超音波画像の関心領域がユーザにより入力装置を介して指定された場合に、それぞれ関心領域が撮像された放射線画像と2次元超音波画像とボリュームレンダリング画像がモニタに表示されることができる。
 ボリュームレンダリング画像生成部は、サーフェイスレンダリングを利用してボリュームレンダリング画像を生成することができる。
 また、超音波システムは、ボリュームレンダリング画像を保存する画像メモリを備えることができる。
 本発明に係る超音波システムの制御方法は、被検体に対し超音波プローブを用いて超音波ビームの送受信を行うことにより、それぞれ被検体の乳房の関心領域が撮影された複数フレームの2次元超音波画像を生成し、複数フレームの2次元超音波画像に基づいて関心領域を含むボリュームレンダリング画像を生成し、ボリュームレンダリング画像を、関心領域に関する参照情報に紐付けることを特徴とする。
 本発明によれば、超音波システムが、超音波プローブと、被検体に対し超音波プローブを用いて超音波ビームの送受信を行うことにより、それぞれ被検体の乳房の関心領域が撮影された複数フレームの2次元超音波画像を生成する画像生成部と、複数フレームの2次元超音波画像に基づいて関心領域を含むボリュームレンダリング画像を生成するボリュームレンダリング画像生成部と、ボリュームレンダリング画像を、関心領域に関する参照情報に紐付ける参照情報紐付け部とを備えるため、関心領域に対する診断精度を向上させることができる。
本発明の実施の形態に係る超音波システムの構成を示すブロック図である。 本発明の実施の形態における送受信回路の構成を示すブロック図である。 本発明の実施の形態における超音波画像生成部の構成を示すブロック図である。 本発明の実施の形態において生成される2次元超音波画像の例の模式図である。 本発明の実施の形態において生成されるボリュームレンダリング画像の例の模式図である。 本発明の実施の形態におけるサーバの構成を示す図である。 本発明の実施の形態におけるビューワの構成を示す図である。 本発明の実施の形態に係る超音波システムの動作を示すフローチャートである。 本発明の実施の形態におけるビューワ側モニタに表示された2次元超音波画像とボリュームレンダリング画像の例の模式図である。 本発明の実施の形態におけるビューワ側モニタに表示された2次元超音波画像とボリュームレンダリング画像と放射線画像の例の模式図である。 本発明の実施の形態におけるビューワ側モニタに表示された放射線画像とボリュームレンダリング画像の例の模式図である。
 以下、この発明の実施の形態を添付図面に基づいて説明する。
 以下に記載する構成要件の説明は、本発明の代表的な実施態様に基づいてなされるが、本発明はそのような実施態様に限定されるものではない。
 なお、本明細書において、「~」を用いて表される数値範囲は、「~」の前後に記載される数値を下限値および上限値として含む範囲を意味する。
 本明細書において、「同一」、「同じ」は、技術分野で一般的に許容される誤差範囲を含むものとする。
実施の形態
 図1に、本発明の実施の形態に係る超音波システム1の構成を示す。超音波システム1は、超音波診断装置2、サーバ3およびビューワ4を備えている。超音波診断装置2とサーバ3は、ネットワークNWを介して互いに接続されている。また、サーバ3とビューワ4は、ネットワークNWを介して互いに接続されている。
 図1に示すように、超音波診断装置2は、超音波プローブ5と診断装置本体6を備えている。超音波プローブ5は、振動子アレイ11を備えており、振動子アレイ11に、送受信回路12が接続されている。また、超音波プローブ5には、位置センサ13が取り付けられている。
 診断装置本体6は、超音波画像生成部22を備え、超音波画像生成部22に、超音波プローブ5の送受信回路12が接続されている。また、超音波画像生成部22に、表示制御部23および本体側モニタ24が順次接続されている。また、超音波画像生成部22と超音波プローブ5の位置センサ13に、メモリ25が接続されている。また、診断装置本体6は、本体側通信部21を備えており、本体側通信部21は、ネットワークNWを経由してサーバ3に接続されている。また、本体側通信部21にメモリ25が接続されている。また、本体側通信部21とメモリ25に、VR(Volume Rendering:ボリュームレンダリング)画像生成部26が接続されている。また、VR画像生成部26に、表示制御部23と参照情報紐付け部27が接続されている。参照情報紐付け部27に、本体側通信部21とメモリ25が接続されている。
 また、送受信回路12、位置センサ13、本体側通信部21、超音波画像生成部22、表示制御部23、メモリ25、VR画像生成部26および参照情報紐付け部27に、本体制御部29が接続されている。また、本体制御部29に、入力装置30が接続されている。
 また、本体側通信部21、超音波画像生成部22、表示制御部23、VR画像生成部26、参照情報紐付け部27および本体制御部29により、本体側プロセッサ31が構成されている。
 図1に示す超音波プローブ5の振動子アレイ11は、1次元または2次元に配列された複数の超音波振動子を有している。これらの超音波振動子は、それぞれ送受信回路12から供給される駆動信号にしたがって超音波を送信すると共に、被検体からの超音波エコーを受信して、超音波エコーに基づく信号を出力する。各超音波振動子は、例えば、PZT(Lead Zirconate Titanate:チタン酸ジルコン酸鉛)に代表される圧電セラミック、PVDF(Poly Vinylidene Di Fluoride:ポリフッ化ビニリデン)に代表される高分子圧電素子およびPMN-PT(Lead Magnesium Niobate-Lead Titanate:マグネシウムニオブ酸鉛-チタン酸鉛固溶体)に代表される圧電単結晶等からなる圧電体の両端に電極を形成することにより構成される。
 送受信回路12は、プローブ制御部15による制御の下で、振動子アレイ11から超音波を送信し且つ振動子アレイ11により取得された受信信号に基づいて音線信号を生成する。送受信回路12は、図2に示すように、振動子アレイ11に接続されるパルサ16と、振動子アレイ11から順次直列に接続される増幅部17、AD(Analog Digital)変換部18、およびビームフォーマ19を有している。
 パルサ16は、例えば、複数のパルス発生器を含んでおり、プローブ制御部15からの制御信号に応じて選択された送信遅延パターンに基づいて、振動子アレイ11の複数の超音波振動子から送信される超音波が超音波ビームを形成するようにそれぞれの駆動信号を、遅延量を調節して複数の超音波振動子に供給する。このように、振動子アレイ11の超音波振動子の電極にパルス状または連続波状の電圧が印加されると、圧電体が伸縮し、それぞれの超音波振動子からパルス状または連続波状の超音波が発生して、それらの超音波の合成波から、超音波ビームが形成される。
 送信された超音波ビームは、例えば、被検体の部位等の対象において反射され、超音波プローブ5の振動子アレイ11に向かって伝搬する。このように振動子アレイ11に向かって伝搬する超音波エコーは、振動子アレイ11を構成するそれぞれの超音波振動子により受信される。この際に、振動子アレイ11を構成するそれぞれの超音波振動子は、伝搬する超音波エコーを受信することにより伸縮して、電気信号である受信信号を発生させ、これらの受信信号を増幅部17に出力する。
 増幅部17は、振動子アレイ11を構成するそれぞれの超音波振動子から入力された受信信号を増幅し、増幅した受信信号をAD変換部18に送信する。AD変換部18は、増幅部17から送信された受信信号をデジタルの受信データに変換する。ビームフォーマ19は、AD変換部18から受け取った各受信データに対してそれぞれの遅延を与えて加算することにより、いわゆる受信フォーカス処理を行う。この受信フォーカス処理により、AD変換部18で変換された各受信データが整相加算され且つ超音波エコーの焦点が絞り込まれた音線信号が取得される。
 位置センサ13は、超音波プローブ5に取り付けられ、超音波プローブ5の位置情報を検出する。位置センサ13により検出された超音波プローブ5の位置情報は、メモリ25に送信される。
 また、位置センサ13としては、例えば、磁気センサ、加速度センサ、ジャイロセンサ、光位置センサ、または、GPS(Global Positioning System:全地球測位システム)センサ等を含むことができる。
 診断装置本体6の本体側通信部21は、電波の送信および受信を行うためのアンテナを含む回路、および、LAN(Local Area Network:ローカルエリアネットワーク)接続を行うための回路等により構成されており、本体制御部29の制御の下で、ネットワークNWを介してサーバ3およびビューワ4との通信を行う。本体側通信部21は、放射線画像の識別情報等を、ネットワークNWを介してサーバ3から受信することができる。
 超音波画像生成部22は、図3に示すように、信号処理部32、DSC(Digital Scan Converter:デジタルスキャンコンバータ)33および画像処理部34が順次直列に接続された構成を有している。
 信号処理部32は、本体側通信部21から受信した音線信号に対し、本体制御部29により設定される音速値を用いて超音波の反射位置の深度に応じて距離による減衰の補正を施した後、包絡線検波処理を施すことにより、被検体内の組織に関する断層画像情報であるBモード画像信号を生成する。
 DSC33は、信号処理部32で生成されたBモード画像信号を通常のテレビジョン信号の走査方式に従う画像信号に変換(ラスター変換)する。
 画像処理部34は、DSC33から入力されるBモード画像信号に階調処理等の各種の必要な画像処理を施した後、Bモード画像信号を表示制御部23およびメモリ25に送出する。以降は、画像処理部34により画像処理が施されたBモード画像信号を、2次元超音波画像と呼ぶ。
 メモリ25は、超音波画像生成部22により生成された2次元超音波画像、位置センサ13により取得された超音波プローブ5の位置情報、および、サーバ3から送信された放射線画像等の情報を保存するためのものである。また、メモリ25には、本体制御部29の制御の下で、2次元超音波画像がメモリ25に保存される毎に、2次元超音波画像が撮影された際の超音波プローブ5の位置情報が、その2次元超音波画像に関連付けられて保存される。
 また、メモリ25に保存された2次元超音波画像および超音波プローブ5の位置情報は、本体制御部29による制御の下で読み出され、VR画像生成部26に送出される。
 また、メモリ25に保存された放射線画像等の情報は、本体制御部29による制御の下で読み出され、参照情報紐付け部27に送出される。
 メモリ25としては、例えば、フラッシュメモリ、HDD(Hard Disc Drive:ハードディスクドライブ)、SSD(Solid State Drive:ソリッドステートドライブ)、FD(Flexible Disc:フレキシブルディスク)、MOディスク(Magneto-Optical disc:光磁気ディスク)、MT(Magnetic Tape:磁気テープ)、RAM(Random Access Memory:ランダムアクセスメモリ)、CD(Compact Disc:コンパクトディスク)、DVD(Digital Versatile Disc:デジタルバーサタイルディスク)、SDカード(Secure Digital card:セキュアデジタルカード)、および、USBメモリ(Universal Serial Bus memory:ユニバーサルシリアルバスメモリ)等の記録メディア等を用いることができる。
 VR画像生成部26は、メモリ25に保存された複数フレームの2次元超音波画像のそれぞれに対して、画像解析を行うことにより、図4に示すように、関心領域A1を自動的に抽出し、複数フレームの2次元超音波画像Uと位置センサ13により検出された超音波プローブ5の位置情報に基づいて、関心領域A1の3次元的な形状を表す、図5に示すようなボリュームレンダリング画像Xを生成する。
 ここで、関心領域A1は、被検体の病変部の疑いがある領域である。
 VR画像生成部26は、例えば、関心領域A1の典型的なパターンデータをテンプレートとして予め記憶しておき、2次元超音波画像をサーチしながらパターンデータに対する類似度を算出し、類似度がしきい値以上かつ最大となった場所に関心領域A1が存在するとみなすことができる。
 なお、関心領域A1を抽出する方法としては、単純なテンプレートマッチングを用いる方法の他に、例えば、Csurka et al.: Visual Categorization with Bags of Keypoints, Proc. of ECCV Workshop on Statistical Learning in Computer Vision, pp.59-74 (2004)に記載されている機械学習手法、あるいは、Krizhevsk et al.: ImageNet Classification with Deep Convolutional Neural Networks, Advances in Neural Information Processing Systems 25, pp.1106-1114 (2012)に記載されているディープラーニングを用いた一般画像認識手法等を用いることができる。
 また、VR画像生成部26は、例えば、複数フレームの2次元超音波画像Uに対して関心領域A1の輪郭を抽出し、複数フレームの2次元超音波画像Uにおいて抽出された関心領域A1の輪郭の情報と、それぞれの2次元超音波画像Uが撮影された際の超音波プローブ5の位置情報を用いて関心領域A1の位置合わせを行い、いわゆるサーフェイスレンダリングの方法により、関心領域A1のボリュームレンダリング画像Xを生成することができる。
 なお、関心領域A1のボリュームレンダリング画像Xの生成方法としては、サーフェイスレンダリングに限らず、例えば、複数フレームの2次元超音波画像Uにおける関心領域A1の全体の情報を用いて、いわゆるボリュームレンダリングの方法を用いてもよい。
 また、VR画像生成部26は、例えば、サーフェイスレンダリング等の方法により、関心領域A1の3次元モデルを構築し、その3次元モデルを本体側モニタ24に表示させ、入力装置30を介したユーザの入力操作により本体側モニタ24において3次元モデルを回転、拡大および縮小させた状態で、3次元モデルに対していわゆるスクリーンショットを撮影することにより、ボリュームレンダリング画像Xを生成することができる。
 参照情報紐付け部27は、VR画像生成部26により生成されたボリュームレンダリング画像Xを、関心領域A1に関する参照情報に紐付ける。
 関心領域A1に関する参照情報とは、例えば、サーバ3からネットワークNWを経由して本体側通信部21に送信された、関心領域A1が撮影された放射線画像の識別情報、および、VR画像生成部26によりボリュームレンダリング画像Xが生成される際に使用された複数フレームの2次元超音波画像Uのうちの代表的な2次元超音波画像Uの識別情報等を含む情報である。
 ここで、例えば、VR画像生成部26により、位置センサ13により検出された超音波プローブ5の位置情報に基づいて、関心領域A1の3次元形状の中心を通る断層を表す2次元超音波画像Uが選出され、その2次元超音波画像Uの識別情報が、ボリュームレンダリング画像Xが生成される際に使用された複数フレームの2次元超音波画像Uのうちの代表的な2次元超音波画像Uの識別情報として、参照情報紐付け部27に送出されることができる。
 また、参照情報紐付け部27は、ボリュームレンダリング画像Xに対して、情報を格納するためのタグを生成し、放射線画像の識別情報および2次元超音波画像Uの識別情報を含む参照情報を、ボリュームレンダリング画像Xのタグに格納することにより、ボリュームレンダリング画像Xを参照情報に紐付けることができる。
 ここで、ボリュームレンダリング画像Xのタグとして、例えば、いわゆるDICOM(Digital Imaging and COmmunications in Medicine)を使用することができる。詳細には、ボリュームレンダリング画像XのDICOMタグ内に含める、放射線画像の識別情報および2次元超音波画像Uの識別情報を含む参照情報として、それらの画像のSOP Instance UID(Service Objective Pair Instance Unique IDentifier:SOPインスタンスUID)を使用することができる。また、上記の参照情報として、SOP Instance UIDに加えて、Study Instance UID(Study Instance Unique IDentifier:検査インスタンスUID)、Series Instance UID(Series Instance Unique IDentifier:シリーズインスタンスUID)を使用してもよい。
 このようにして参照情報紐付け部27により、参照情報に紐付けられたボリュームレンダリング画像Xは、本体側通信部21からネットワークNWを経由してサーバ3に送信される。
 本体制御部29は、予め記録されたプログラム等にしたがって超音波プローブ5の各部および診断装置本体6の各部を制御する。
 診断装置本体6の表示制御部23は、本体制御部29の制御の下、超音波画像生成部22により生成された2次元超音波画像UおよびVR画像生成部26により生成されたボリュームレンダリング画像X等に対して所定の処理を施して、本体側モニタ24に表示する。
 本体側モニタ24は、表示制御部23による制御の下、種々の表示を行う。本体側モニタ24は、例えば、LCD(Liquid Crystal Display:液晶ディスプレイ)、および、有機ELディスプレイ(Organic Electroluminescence Display)等のディスプレイ装置を含む。
 診断装置本体6の入力装置30は、ユーザが入力操作を行うためのものである。入力装置30は、例えば、キーボード、マウス、トラックボール、タッチパッドおよびタッチパネル等のユーザが入力操作を行うための装置等により構成される。
 なお、本体側通信部21、超音波画像生成部22、表示制御部23、VR画像生成部26、参照情報紐付け部27および本体制御部29を含む本体側プロセッサ31は、CPU(Central Processing Unit:中央処理装置)、および、CPUに各種の処理を行わせるための制御プログラムから構成されるが、FPGA(Field Programmable Gate Array:フィードプログラマブルゲートアレイ)、DSP(Digital Signal Processor:デジタルシグナルプロセッサ)、ASIC(Application Specific Integrated Circuit:アプリケーションスペシフィックインテグレイテッドサーキット)、GPU(Graphics Processing Unit:グラフィックスプロセッシングユニット)、および、その他のIC(Integrated Circuit:集積回路)を用いて構成されてもよく、もしくはそれらを組み合わせて構成されてもよい。
 また、本体側通信部21、超音波画像生成部22、表示制御部23、VR画像生成部26、参照情報紐付け部27および本体制御部29は、部分的にあるいは全体的に1つのCPU等に統合させて構成されることもできる。
 図6に示すように、サーバ3は、サーバ側通信部41を備えている。サーバ側通信部41には、データベース管理部42が接続されている。また、データベース管理部42にメモリ43が接続され、メモリ43にサーバ側通信部41が接続されている。また、サーバ側通信部41、データベース管理部42およびメモリ43に、サーバ制御部44が接続されている。
 なお、サーバ側通信部41、データベース管理部42およびサーバ制御部44により、図示しないサーバプロセッサが構成されている。
 サーバ3は、例えば病院等に設置されており、診断装置本体6が配置されている場所に対する遠隔地に設置されている。サーバ3は、画像データを管理するものであり、例えば、医師等のユーザが被検体の関心領域A1に対する診断を行う際に使用される。具体例としては、サーバ3は、いわゆるPACS(Picture Archiving and Communication System:医療用画像管理システム)に使用されることができる。
 サーバ側通信部41は、本体側通信部21と同様に、電波の送信および受信を行うためのアンテナを含む回路、および、LAN接続を行うための回路等により構成されており、サーバ制御部44の下で、ビューワ4および診断装置本体6と、ネットワークNWを介した通信を行う。
 データベース管理部42は、ネットワークNWを介して診断装置本体6からサーバ側通信部41に送信されたボリュームレンダリング画像Xのタグの情報に基づいて、そのボリュームレンダリング画像Xと、ボリュームレンダリング画像Xに紐付けられた2次元超音波画像Uおよび放射線画像等の画像データを、それぞれ相互に関連付ける。このようにして、データベース管理部42は、ボリュームレンダリング画像Xに関連する情報をデータベース化し、データベース化された情報をメモリ43に保存する。
 メモリ43は、データベース管理部42によって相互関係がデータベース化されたボリュームレンダリング画像X、2次元超音波画像U、放射線画像およびその他の情報を保存するものである。メモリ43に保存されている情報は、サーバ制御部44による制御の下で、サーバ側通信部41に送出され、ネットワークNWを経由してビューワ4および診断装置本体6に送信される。
 メモリ43としては、例えば、フラッシュメモリ、HDD、SSD、FD、MOディスク、MT、RAM、CD、DVD、SDカード、USBメモリ等の記録メディア等を用いることができる。
 サーバ制御部44は、予め記録されたプログラム等にしたがってサーバ3の各部を制御する。
 図7に示すように、ビューワ4は、ビューワ側通信部51を備えており、ビューワ側通信部51に、表示制御部52およびビューワ側モニタ53が順次接続されている。また、ビューワ側通信部51と表示制御部52に、ビューワ制御部54が接続されている。また、ビューワ制御部54に、入力装置55が接続されている。
 ビューワ4は、例えば病院等に設置され、診断装置本体6の設置場所に対して離れた場所に設置されている。ビューワ4は、例えば、パーソナルコンピュータ等により構成され、医師等のユーザがサーバ3に保存されているデータを閲覧する際に使用される。具体例としては、ビューワ4は、いわゆるPACSに使用されることができる。
 ビューワ側通信部51は、本体側通信部21およびサーバ側通信部41と同様に、電波の送信および受信を行うためのアンテナを含む回路、および、LAN接続を行うための回路等により構成されており、ビューワ制御部54の下で、サーバ3とネットワークNWを介した通信を行う。
 ビューワ4の表示制御部52は、ビューワ制御部54の制御の下で、サーバ3から受信した2次元超音波画像U、ボリュームレンダリング画像Xおよび放射線画像等に対して所定の処理を施してビューワ側モニタ53に表示する。
 ビューワ側モニタ53は、表示制御部52による制御の下で、種々の表示を行う。ビューワ側モニタ53は、例えば、LCDおよび有機ELディスプレイ等のディスプレイ装置を含む。
 ビューワ4の入力装置55は、ユーザが入力操作を行うためのものである。入力装置55は、例えば、キーボード、マウス、トラックボール、タッチパッドおよびタッチパネル等により構成される。
 以下では、図8に示すフローチャートを用いて本発明の実施の形態に係る超音波システム1の動作を説明する。この動作説明では、サーバ3のメモリ43に、被検体の乳房において病変部の疑いがある関心領域を撮影した放射線画像が保存されており、その放射線画像に含まれる関心領域と同一の関心領域A1を、例えば病院内において構築された超音波システム1を用いて検査する例を説明する。
 まず、ステップS1において、本体制御部29は、診断装置本体6の入力装置30を介したユーザの入力操作等による、被検体に対する検査を開始する旨の指示を受け付ける。これにより、被検体に対する検査が開始される。この際に、本体制御部29から、サーバ3のメモリ43に保存されている放射線画像を診断装置本体6に送信する旨の指令が本体側通信部21を介してサーバ3に送信され、サーバ3から診断装置本体6の本体側通信部21に放射線画像が送信される。送信された放射線画像は、本体側通信部21からメモリ25に送出され、メモリ25に保存される。
 次に、ステップS2において、ユーザにより超音波プローブ5が被検体の体表に接触した状態で移動されながら、2次元超音波画像Uが撮影される。
 この際に、送受信回路12は、プローブ制御部15の制御の下で、予め設定された音速値を用いて受信フォーカス処理を行って、音線信号を生成する。このようにして送受信回路12により生成された音線信号は、診断装置本体6の本体側通信部21に送信され、さらに、超音波画像生成部22に送出される。超音波画像生成部22は、本体側通信部21から受信した音線信号を用いて図4に示すような2次元超音波画像Uを生成する。
 続くステップS3において、超音波プローブ5に取り付けられた位置センサ13により、ステップS2で2次元超音波画像Uが生成された際の超音波プローブ5の位置情報が取得される。
 ステップS4において、本体制御部29は、ステップS2で生成された2次元超音波画像UとステップS3で取得された超音波プローブ5の位置情報とを互いに関連付けて診断装置本体6のメモリ25に保存する。
 ステップS5において、2次元超音波画像Uの撮影が終了するか否かが判定される。例えば、診断装置本体6の入力装置30を介したユーザの入力操作により、2次元超音波画像Uの撮影を終了する指示が入力された場合に、2次元超音波画像Uの撮影が終了すると判定され、2次元超音波画像Uの撮影を終了する指示が入力されない場合に、2次元超音波画像Uの撮影が続行されると判定される。
 2次元超音波画像Uの撮影が続行されると判定されると、ステップS2に戻り、2次元超音波画像Uが新たに生成される。その後、ステップS3で超音波プローブ5の位置情報が取得され、ステップS4で2次元超音波画像Uと超音波プローブ5の位置情報がメモリ25に保存され、ステップS5に進む。このようにして、2次元超音波画像Uの撮影が続行されると判定される限り、ステップS2~ステップS5の処理が繰り返される。
 ステップS5において、2次元超音波画像Uの撮影が終了すると判定された場合には、ステップS6に進む。
 ステップS6において、VR画像生成部26は、ステップS2~ステップS5の繰り返しによりメモリ25に保存された複数フレームの2次元超音波画像Uのそれぞれから、病変部の疑いがある関心領域A1を自動的に抽出する。
 次に、ステップS7において、VR画像生成部26は、ステップS4で2次元超音波画像Uが生成される毎に2次元超音波画像Uに関連付けて保存された超音波プローブ5の位置情報を用いて、ステップS6で複数フレームの2次元超音波画像Uに対して抽出された関心領域A1の位置合わせを行うことにより、図5に示すようなボリュームレンダリング画像Xを生成する。この際に、VR画像生成部26は、例えば、複数フレームの2次元超音波画像Uにおける関心領域A1の輪郭を抽出し、サーフェイスレンダリングの方法を用いることにより、ボリュームレンダリング画像Xを生成することができる。
 このようにして、関心領域A1のボリュームレンダリング画像Xが生成されるため、ユーザは、ボリュームレンダリング画像Xの形状を確認することにより、被検体の関心領域A1の3次元的な形状を容易に把握することができる。
 続くステップS8において、参照情報紐付け部27は、ステップS7で生成されたボリュームレンダリング画像Xを、関心領域A1に関する参照情報に紐付ける。この際に、参照情報紐付け部27は、例えば、ボリュームレンダリング画像Xに対して、情報を格納するためのタグを生成し、ステップS7でボリュームレンダリング画像Xを生成する際に使用された複数フレームの2次元超音波画像Uのうち代表的な1フレームの2次元超音波画像Uの識別情報を、参照情報として、ボリュームレンダリング画像Xのタグに格納する。代表的な1フレームの2次元超音波画像Uは、例えば、VR画像生成部26により選出され、参照情報紐付け部27に送出される。
 また、VR画像生成部26は、ステップS1でメモリ25に保存された放射線画像の識別情報を、参照情報として、ボリュームレンダリング画像Xのタグに格納する。
 参照情報に紐付けられたボリュームレンダリング画像Xは、本体側通信部21からネットワークNWを経由してサーバ3のサーバ側通信部41へと送信される。
 このように、ボリュームレンダリング画像Xは、サーバ3内で生成されず、診断装置本体6内で生成さるため、診断装置本体6内で生成された1枚のボリュームレンダリング画像Xをサーバ3に送信すればよく、例えば、サーバ3に複数フレームの2次元超音波画像Uを送信する必要が無い。そのため、例えばサーバ3に複数フレームの2次元超音波画像Uを送信した後でボリュームレンダリング画像Xが生成される場合と比較して、サーバ3がより迅速にボリュームレンダリング画像Xを取得することができ、ユーザは、サーバ3を用いてより円滑に被検体の関心領域A1の診断を行うことが可能である。
 また、サーバ3のメモリ43に複数フレームの2次元超音波画像Uを保存する必要がなく、その代わりに、メモリ43に1枚のボリュームレンダリング画像Xが保存されるため、サーバ3上に保存されるデータ量の増大を抑制することができる。
 次に、ステップS9において、サーバ3のデータベース管理部42は、ネットワークNWを経由してサーバ側通信部41に送信されたボリュームレンダリング画像Xのタグに格納されている参照情報に基づいて、ボリュームレンダリング画像Xと、そのタグに紐付いた2次元超音波画像Uおよび放射線画像を相互に関連付けて、これらの画像データの間の関係をデータベース化する。このようにして相互関係がデータベース化された画像データは、サーバ3のメモリ43に保存される。
 続いて、ステップS10において、例えば、ビューワ4の入力装置55を介した医師等のユーザの入力操作により、サーバ3に保存されている2次元超音波画像Uを閲覧する旨の指令が入力されると、2次元超音波画像Uの送信を要求する旨の情報がビューワ4からサーバ3に送信され、ステップS9でサーバ3のメモリ43に保存された2次元超音波画像Uがサーバ側通信部41からビューワ4に送信され、ビューワ側通信部51により受信された2次元超音波画像Uがビューワ側モニタ53に表示される。
 ビューワ側モニタ53に表示される2次元超音波画像Uは、図4に示されるように、関心領域A1を含んでいる。
 続くステップS11において、ビューワ制御部54は、ビューワ側モニタ53に表示された2次元超音波画像Uにおける関心領域A1がユーザによって指定されたか否かを判定する。関心領域A1がユーザによって指定されていないと判定された場合には、ステップS11に戻る。一方、関心領域A1がユーザによって指定されたと判定された場合には、ステップS12に進む。
 ステップS12において、ビューワ側モニタ53に表示されている2次元超音波画像Uに関連付けられたボリュームレンダリング画像Xが、図9に示すように、2次元超音波画像Uの近傍に表示される。
 この際に、ビューワ側モニタ53に表示されている2次元超音波画像Uに関連付けられたボリュームレンダリング画像Xを送信する旨の指令がビューワ制御部54からビューワ側通信部51を介してサーバ3に送信される。サーバ制御部44は、ビューワ4から受信した指令に基づいて、ビューワ側モニタ53に表示されている2次元超音波画像Uに紐付けられたボリュームレンダリング画像Xをメモリ43から読み出して、サーバ側通信部41からビューワ4に送信する。このボリュームレンダリング画像Xは、ビューワ側通信部51に受信されて、表示制御部52に送出され、ビューワ側モニタ53に表示される。
 これにより、ユーザは、2次元超音波画像U上の関心領域A1が示す被検体の病変部の疑いがある箇所について3次元的な形状を容易に把握することができる。
 このようにしてステップS12が完了すると、図8のフローチャートにしたがう超音波システム1の動作が終了する。
 以上のように、本発明の実施の形態に係る超音波システム1によれば、複数フレームの2次元超音波画像Uに基づいて関心領域A1のボリュームレンダリング画像Xが生成されるため、ユーザに対して被検体における病変部の疑いがある関心領域A1の3次元的な形状を容易に把握させ、関心領域A1に対する診断精度を向上させることができる。
 また、診断装置本体6内で生成されたボリュームレンダリング画像Xが関心領域A1に関する参照情報に紐付けられ、参照情報に紐付けられたボリュームレンダリング画像Xがサーバ3に送信されて、サーバ3のメモリ43に保存されるため、例えばサーバ3に複数フレームの2次元超音波画像Uが送信され、サーバ3内でボリュームレンダリング画像Xが生成される場合と比較して、サーバ3がより迅速にボリュームレンダリング画像Xを取得できるため、ユーザは、サーバ3を使用してより円滑に被検体の関心領域A1の診断を行うことができる。
 また、メモリ43に複数フレームの2次元超音波画像Uを保存する必要が無く、その代わりに、メモリ43に1枚のボリュームレンダリング画像Xが保存されるため、サーバ3上に保存されるデータ量の増大を抑制することができる。
 なお、超音波システム1において、超音波画像生成部22は、診断装置本体6に備えられているが、診断装置本体6に備えられる代わりに超音波プローブ5に備えられていてもよい。
 また、超音波プローブ5と診断装置本体6が有線通信により互いに接続されることが説明されているが、超音波プローブ5と診断装置本体6は、無線通信により互いに接続されることもできる。
 また、診断装置本体6は、1つのメモリ25を備えているが、例えば、用途に応じて複数のメモリを備えることができる。
 また、サーバ3も同様にして、1つのメモリ43の代わりに複数のメモリを備えることができる。
 また、サーバ3とビューワ4は、互いに独立して存在し、ネットワークNWを介して接続されることが説明されているが、一体的に構成されることもできる。
 また、図8のフローチャートを用いた超音波システム1の動作説明では、超音波システム1が病院内において構築される例が説明されているが、超音波診断装置2、サーバ3およびビューワ4のいずれかが、他の病院等の離れた施設等に設置されていてもよい。
 また、ステップS1において被検体に対する検査が開始された際に、サーバ3に保存された放射線画像が診断装置本体6に送信されることが説明されているが、図示しない放射線診断装置から診断装置本体6に放射線画像が送信され、この放射線画像がメモリ25に保存されることもできる。
 また、ステップS2において、ユーザにより、超音波プローブ5が被検体の体表上に接触した状態で移動されることが説明されているが、検査対象の関心領域A1が十分に小さい場合には、超音波プローブ5の位置を固定したまま、いわゆる電子スキャン等により、関心領域A1が写る複数フレームの2次元超音波画像Uを撮影することもできる。このように、超音波プローブ5の位置を固定したままの状態で被検体の検査が完了できる場合には、超音波プローブ5の位置情報を使用しなくてよいため、超音波プローブ5は、位置センサ13を備えていなくてもよい。
 また、ステップS2において2次元超音波画像Uが生成され、ステップS3において超音波プローブ5の位置情報が取得されているが、ステップS3の後にステップS2が行われることができ、ステップS2とステップS3が同時に行われることもできる。
 また、ステップS6において、VR画像生成部26が、複数フレームの2次元超音波画像Uのそれぞれに対して関心領域A1を自動的に抽出することが説明されているが、関心領域A1を指定する方法は、これに限定されない。例えば、関心領域A1は、入力装置30を介したユーザの入力操作に基づいて指定されることもできる。
 また、ステップS6において、1つの超音波画像U内に複数の関心領域A1が抽出される場合がある。この場合には、例えば、ステップS6において、複数フレームの2次元超音波画像Uのいずれかで複数の関心領域A1が抽出されたことをトリガとして、複数の関心領域A1を含む2次元超音波画像Uが本体側モニタ24に表示され、診断装置本体6の入力装置30を介してユーザにより、複数の関心領域A1のうちの1つが選択される。さらに、ユーザに選択された関心領域A1の情報が本体制御部29を介してVR画像生成部26に送出され、VR画像生成部26により、ユーザが選択した関心領域A1と同一の関心領域A1の抽出が、複数フレームの2次元超音波画像Uに対して行われる。
 その後のステップS7において、ビューワ4側でユーザにより選択された関心領域A1のボリュームレンダリング画像Xが生成され、ステップS8でそのボリュームレンダリング画像Xのタグに参照情報が格納される。この参照情報には、2次元超音波画像Uにおける、ユーザにより選択された関心領域A1の座標の情報が含まれる。ユーザにより選択された関心領域A1の座標の情報を含む参照情報とボリュームレンダリング画像Xとの関係は、ステップS9においてデータベース化され、サーバ3のメモリ43に保存される。
 この状態でステップS10においてビューワ側モニタ53に2次元超音波画像Uが表示され、ステップS11において、ステップS6でユーザが選択した関心領域A1と同一の関心領域A1が選択されると、その座標の情報に紐付けられたボリュームレンダリング画像Xが2次元超音波画像Uに重畳してビューワ側モニタ53に表示される。
 また、被検体の乳房の放射線画像が撮影される場合には、通常、病変部の疑いがある関心領域A2に対して、例えば、いわゆるCC(Cranio Caudal:頭尾)方向とMLO(Medio Lateral Oblique:内外斜位)方向等の、互いに異なる2方向においてそれぞれ放射線画像の撮影が行われることが多い。この場合に、サーバ3のメモリ43には、互いに異なる2方向から撮影された2つの放射線画像が保存される。さらに、診断装置本体6の参照情報紐付け部27は、サーバ3のメモリ43に保存された2つの放射線画像の識別情報を、参照情報として、ボリュームレンダリング画像Xのタグに格納することができる。
 また、被検体の乳房の2次元超音波画像Uが撮影される場合には、通常、病変部の疑いがある関心領域A1に対して互いに直交する2つの断層面が撮影され、これらの2つの2次元超音波画像Uが被検体の診断の際に参照されることが多い。そこで、例えば、VR画像生成部26は、ステップS8において、診断装置本体6のメモリ25に保存されている複数フレームの2次元超音波画像Uのうち、代表的な1フレームの2次元超音波画像Uを選出し、その2次元超音波画像Uが表す断層面に直交する断層面を表す2次元超音波画像Uを、複数フレームの2次元超音波画像Uと超音波プローブ5の位置情報に基づいて生成し、これらの2フレームの2次元超音波画像Uを参照情報紐付け部27に送出することができる。
 この場合に、参照情報紐付け部27は、2つの異なる方向に沿った断層面を表す2フレームの2次元超音波画像Uの識別情報を、ボリュームレンダリング画像Xのタグに格納することができる。また、これらの2フレームの2次元超音波画像Uは、本体側通信部21からネットワークNWを経由してサーバ3に送信され、データベース管理部42によりボリュームレンダリング画像Xと相互に関連付けられた後で、サーバ3のメモリ43に保存される。
 また、ステップS11で、ビューワ側モニタ53に表示された2次元超音波画像U上の関心領域A1がユーザにより指定されたと判定された場合に、ステップS12において、図9に示すように、2次元超音波画像U上の関心領域A1の近傍にボリュームレンダリング画像Xを表示させることが説明されているが、さらに、ボリュームレンダリング画像Xに紐付けられた他の情報をビューワ側モニタ53に表示させることもできる。
 例えば、図10に示すように、ボリュームレンダリング画像Xに加えて、そのボリュームレンダリング画像Xに紐付けられた放射線画像Rがビューワ側モニタ53に表示されることもできる。図10に示す例では、放射線画像Rは、2次元超音波画像Uにおける関心領域A1に対応する関心領域A2を含んでいる。
 また、例えば、ボリュームレンダリング画像Xに紐付けられた2次元超音波画像Uが撮影された際の超音波プローブ5の位置情報に基づいて、いわゆるシェーマSと、シェーマS上に配置されたプローブマークPがビューワ側モニタ53に表示されてもよい。図10の例では、被検体の乳房を模式的に表すシェーマSが2次元超音波画像Uに重畳して表示されている。
 また、図11に示すように、2次元超音波画像Uの代わりに放射線画像Rをビューワ側モニタ53に表示し、放射線画像Rにおける関心領域A2が、ビューワ4の入力装置55を介してユーザにより選択されたことをトリガとして、放射線画像Rに紐付けられたボリュームレンダリング画像Xを、放射線画像Rに重畳してビューワ側モニタ53に表示することもできる。
 この場合に、ビューワ4を操作するユーザは、放射線画像Rにおける関心領域A2の3次元的な形状を容易に把握できるため、関心領域A2に対する診断の精度を向上させることができる。
1 超音波システム、2 超音波診断装置、3 サーバ、4 ビューワ、5 超音波プローブ、6 診断装置本体、11 振動子アレイ、12 送受信回路、13 位置センサ、16 パルサ、17 増幅部、18 AD変換部、19 ビームフォーマ、21 本体側通信部、22 超音波画像生成部、23,52 表示制御部、24 本体側モニタ、25,43 メモリ、26 VR画像生成部、27 参照情報紐付け部、29 本体制御部、30,55 入力装置、31 本体側プロセッサ、32 信号処理部、33 DSC、34 画像処理部、41 サーバ側通信部、42 データベース管理部、44 サーバ制御部、52 ビューワ側通信部、53 ビューワ側モニタ、54 ビューワ制御部、A1,A2 関心領域、NW ネットワーク、P プローブマーク、R 放射線画像、S シェーマ、U 2次元超音波画像、X ボリュームレンダリング画像。

Claims (11)

  1.  超音波プローブと、
     被検体に対し前記超音波プローブを用いて超音波ビームの送受信を行うことにより、それぞれ前記被検体の乳房の関心領域が撮影された複数フレームの2次元超音波画像を生成する画像生成部と、
     前記複数フレームの2次元超音波画像に基づいて前記関心領域を含むボリュームレンダリング画像を生成するボリュームレンダリング画像生成部と、
     前記ボリュームレンダリング画像を、前記関心領域に関する参照情報に紐付ける参照情報紐付け部と
     を備える超音波システム。
  2.  前記参照情報紐付け部は、前記関心領域が撮像された放射線画像の識別情報を、前記参照情報として前記ボリュームレンダリング画像のタグに格納する請求項1に記載の超音波システム。
  3.  前記放射線画像は、前記関心領域を互いに異なる2方向から撮影した2つの放射線画像を含み、
     前記参照情報紐付け部は、前記2つの放射線画像のそれぞれの識別情報を、前記参照情報として前記ボリュームレンダリング画像のタグに格納する請求項2に記載の超音波システム。
  4.  前記参照情報紐付け部は、前記関心領域が撮像された他の2次元超音波画像の識別情報を、前記参照情報として前記ボリュームレンダリング画像のタグに格納する請求項1に記載の超音波システム。
  5.  前記他の2次元超音波画像は、前記関心領域に対して互いに直交する2つの断層面が撮像された2つの2次元超音波画像を含み、
     前記参照情報紐付け部は、前記2つの2次元超音波画像のそれぞれの識別情報を、前記参照情報として前記ボリュームレンダリング画像のタグに格納する請求項4に記載の超音波システム。
  6.  超音波診断装置と、
     前記超音波診断装置に接続されたサーバと
     を備え、
     前記超音波診断装置は、前記超音波プローブ、前記画像生成部、前記ボリュームレンダリング画像生成部および前記参照情報紐付け部と、前記参照情報に紐付けられた前記ボリュームレンダリング画像を前記サーバに送信する通信部とを有する請求項1~5のいずれか一項に記載の超音波システム。
  7.  前記サーバに接続されたビューワを備え、
     前記ビューワは、
     ユーザが入力操作を行う入力装置と
     前記関心領域が撮像された前記放射線画像または前記2次元超音波画像を表示するモニタと
     を有し、
     前記モニタに表示された前記放射線画像または前記2次元超音波画像の前記関心領域が前記ユーザにより前記入力装置を介して指定された場合に、前記関心領域を含む前記ボリュームレンダリング画像が前記モニタに表示される請求項6に記載の超音波システム。
  8.  前記モニタに表示された前記放射線画像または前記2次元超音波画像の前記関心領域が前記ユーザにより前記入力装置を介して指定された場合に、それぞれ前記関心領域が撮像された前記放射線画像と前記2次元超音波画像と前記ボリュームレンダリング画像が前記モニタに表示される請求項7に記載の超音波システム。
  9.  前記ボリュームレンダリング画像生成部は、サーフェイスレンダリングを利用して前記ボリュームレンダリング画像を生成する請求項1~8のいずれか一項に記載の超音波システム。
  10.  前記ボリュームレンダリング画像を保存する画像メモリを備える請求項1~9のいずれか一項に記載の超音波システム。
  11.  被検体に対し超音波プローブを用いて超音波ビームの送受信を行うことにより、それぞれ前記被検体の乳房の関心領域が撮影された複数フレームの2次元超音波画像を生成し、
     前記複数フレームの2次元超音波画像に基づいて前記関心領域を含むボリュームレンダリング画像を生成し、
     前記ボリュームレンダリング画像を、前記関心領域に関する参照情報に紐付ける
     超音波システムの制御方法。
PCT/JP2021/032082 2020-09-24 2021-09-01 超音波システムおよび超音波システムの制御方法 WO2022064981A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022551229A JP7453400B2 (ja) 2020-09-24 2021-09-01 超音波システムおよび超音波システムの制御方法
EP21872112.4A EP4218602A4 (en) 2020-09-24 2021-09-01 ULTRASONIC SYSTEM AND METHOD FOR CONTROLLING THE ULTRASONIC SYSTEM
US18/177,526 US20230200776A1 (en) 2020-09-24 2023-03-02 Ultrasound system and control method of ultrasound system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020160122 2020-09-24
JP2020-160122 2020-09-24

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/177,526 Continuation US20230200776A1 (en) 2020-09-24 2023-03-02 Ultrasound system and control method of ultrasound system

Publications (1)

Publication Number Publication Date
WO2022064981A1 true WO2022064981A1 (ja) 2022-03-31

Family

ID=80846456

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/032082 WO2022064981A1 (ja) 2020-09-24 2021-09-01 超音波システムおよび超音波システムの制御方法

Country Status (4)

Country Link
US (1) US20230200776A1 (ja)
EP (1) EP4218602A4 (ja)
JP (1) JP7453400B2 (ja)
WO (1) WO2022064981A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005245503A (ja) * 2004-03-01 2005-09-15 Toshiba Corp 超音波診断装置、画像表示装置及び画像表示方法
JP2011092685A (ja) * 2009-09-30 2011-05-12 Fujifilm Corp 診断支援システム、診断支援プログラムおよび診断支援方法
JP2014014489A (ja) 2012-07-09 2014-01-30 Toshiba Corp 画像表示装置
JP2014036885A (ja) * 2013-10-24 2014-02-27 Canon Inc 画像診断装置、画像診断方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120256920A1 (en) * 2011-04-05 2012-10-11 Julian Marshall System and Method for Fusing Computer Assisted Detection in a Multi-Modality, Multi-Dimensional Breast Imaging Environment
WO2012161088A1 (ja) * 2011-05-26 2012-11-29 株式会社東芝 超音波診断装置
JP6849462B2 (ja) * 2017-02-06 2021-03-24 キヤノンメディカルシステムズ株式会社 医用情報処理システム及び医用画像処理装置
JP7431729B2 (ja) * 2017-11-08 2024-02-15 コーニンクレッカ フィリップス エヌ ヴェ 超音波胸部画像と他の撮像モダリティの胸部画像とを相関させる超音波システム及び方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005245503A (ja) * 2004-03-01 2005-09-15 Toshiba Corp 超音波診断装置、画像表示装置及び画像表示方法
JP2011092685A (ja) * 2009-09-30 2011-05-12 Fujifilm Corp 診断支援システム、診断支援プログラムおよび診断支援方法
JP2014014489A (ja) 2012-07-09 2014-01-30 Toshiba Corp 画像表示装置
JP2014036885A (ja) * 2013-10-24 2014-02-27 Canon Inc 画像診断装置、画像診断方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CSURKA ET AL.: "Visual Categorization with Bags of Keypoints", PROC. OF ECCV WORKSHOP ON STATISTICAL LEARNING IN COMPUTER VISION, 2004, pages 59 - 74
KRIZHEVSK ET AL.: "ImageNet Classification with Deep Convolutional Neural Networks", ADVANCES IN NEURAL INFORMATION PROCESSING SYSTEMS, vol. 25, 2012, pages 1106 - 1114
See also references of EP4218602A4

Also Published As

Publication number Publication date
EP4218602A4 (en) 2024-03-20
JP7453400B2 (ja) 2024-03-19
EP4218602A1 (en) 2023-08-02
JPWO2022064981A1 (ja) 2022-03-31
US20230200776A1 (en) 2023-06-29

Similar Documents

Publication Publication Date Title
JP7259052B2 (ja) 超音波診断装置および超音波診断装置の制御方法
WO2018047910A1 (ja) 超音波診断システム及び超音波診断システムの制御方法
JPWO2018051578A1 (ja) 超音波診断装置及び超音波診断装置の制御方法
JP2023026610A (ja) 超音波診断装置および超音波診断装置の制御方法
JP7074871B2 (ja) 超音波診断装置および超音波診断装置の制御方法
WO2018047404A1 (ja) 超音波診断システムおよび超音波診断システムの制御方法
WO2019064706A1 (ja) 超音波診断装置および超音波診断装置の制御方法
US11116481B2 (en) Ultrasound diagnostic apparatus and control method of ultrasound diagnostic apparatus
WO2022064981A1 (ja) 超音波システムおよび超音波システムの制御方法
JP6554607B2 (ja) 超音波診断装置および超音波診断装置の制御方法
JP7411109B2 (ja) 超音波診断装置および超音波診断装置の制御方法
JP7301231B2 (ja) 超音波診断装置、超音波診断装置の制御方法および超音波診断装置用プロセッサ
WO2022065050A1 (ja) 超音波診断装置および超音波診断装置の制御方法
US20230200783A1 (en) Ultrasound system and control method of ultrasound system
WO2022064868A1 (ja) 超音波システムおよび超音波システムの制御方法
JP2020048928A (ja) 超音波診断装置および超音波診断装置の制御方法
JP2020048968A (ja) 超音波診断装置および超音波診断装置の制御方法
WO2022196088A1 (ja) 超音波診断装置および超音波診断装置の制御方法
WO2022190712A1 (ja) 超音波診断装置および超音波診断装置の制御方法
JP2024006678A (ja) 超音波診断装置および超音波診断装置の制御方法
JP2023087303A (ja) 超音波診断装置および超音波診断装置の制御方法
JP2024068927A (ja) 超音波診断システムの制御方法および超音波診断システム
CN117257343A (zh) 图像显示装置及图像显示装置的控制方法
JP2024025865A (ja) 超音波診断装置の制御方法および超音波診断装置
JP2023182996A (ja) 超音波診断装置および超音波診断装置の制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21872112

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022551229

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021872112

Country of ref document: EP

Effective date: 20230424