WO2018097050A1 - 情報処理装置、情報処理方法、情報処理システムおよびプログラム - Google Patents

情報処理装置、情報処理方法、情報処理システムおよびプログラム Download PDF

Info

Publication number
WO2018097050A1
WO2018097050A1 PCT/JP2017/041405 JP2017041405W WO2018097050A1 WO 2018097050 A1 WO2018097050 A1 WO 2018097050A1 JP 2017041405 W JP2017041405 W JP 2017041405W WO 2018097050 A1 WO2018097050 A1 WO 2018097050A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
image
photoacoustic
time
acquired
Prior art date
Application number
PCT/JP2017/041405
Other languages
English (en)
French (fr)
Inventor
拓 井上
Original Assignee
キヤノン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2017200400A external-priority patent/JP7129158B2/ja
Application filed by キヤノン株式会社 filed Critical キヤノン株式会社
Publication of WO2018097050A1 publication Critical patent/WO2018097050A1/ja
Priority to US16/398,959 priority Critical patent/US20190254638A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography

Definitions

  • the disclosure of the present specification relates to an information processing device, an information processing method, an information processing system, and a program.
  • An ultrasound imaging apparatus and a photoacoustic imaging apparatus are used as an imaging apparatus for imaging the state inside a subject in a minimally invasive manner. According to these devices, it is possible to acquire an ultrasound image and a photoacoustic image as a moving image or a still image, and use an imaging method called elastography that images the elasticity of tissue by the ultrasound imaging device. Is also possible. That is, various imaging methods are available.
  • Patent Document 1 describes, in an apparatus capable of acquiring an ultrasonic image and a photoacoustic image, a start address of data constituting an ultrasonic image in one frame and a start address of data constituting a photoacoustic image. It is disclosed to generate incidental information.
  • An information processing apparatus is an ultrasonic wave that is a signal related to a photoacoustic signal that is a signal related to photoacoustics generated by irradiation of light to an object and a reflected wave of an ultrasonic wave that is irradiated to the object
  • Signal acquiring means for acquiring any of signals
  • information acquiring means for acquiring operation information which is information related to an operation for acquiring the photoacoustic signal, and output for outputting an object including the operation information to an external device And means.
  • the information processing apparatus enables an apparatus for reproducing a moving image to obtain information related to an operation for capturing an image from incidental information. This can improve the workflow of the user for observing the moving image.
  • an object is irradiated with light, and an acoustic wave generated by expansion generated inside the object is referred to as a photoacoustic wave.
  • an acoustic wave transmitted from the transducer or a reflected wave (echo) which the transmitted acoustic wave is reflected inside the object is referred to as an ultrasonic wave.
  • a method of imaging using ultrasonic waves and a method of imaging using photoacoustics are used.
  • the ultrasonic waves emitted from the transducer are reflected by the tissue inside the object according to the difference in acoustic impedance, and the time until the reflected wave reaches the transducer or the reflected wave It is a method of generating an image based on intensity. Images imaged using ultrasound are hereinafter referred to as ultrasound images. The user can operate while changing the angle etc. of the probe, and can observe ultrasound images of various cross sections in real time.
  • the imaging method using a photoacoustic wave is a method of producing
  • An image imaged using photoacoustic is hereinafter referred to as a photoacoustic image.
  • information related to optical characteristics such as the degree of light absorption of each tissue is depicted.
  • photoacoustic imaging for example, it is known that blood vessels can be depicted by the optical properties of hemoglobin, and its application to evaluation of tumor malignancy etc. is being studied.
  • an imaging device for obtaining an image obtained by combining the imaging of an ultrasound image and the imaging of a photoacoustic image and the respective characteristics has been studied.
  • both an ultrasound image and a photoacoustic image are imaged using ultrasound from a subject, it is possible to perform imaging of an ultrasound image and imaging of a photoacoustic image with the same imaging device.
  • an ultrasound signal and a photoacoustic signal can be acquired by one probe, and an imaging device that performs imaging of an ultrasound image and imaging of a photoacoustic image without complicating the hardware configuration is realized. it can.
  • the photoacoustic image is displayed at a desired position of the user. It is possible to acquire it together.
  • diagnosis is performed by referring to an image obtained by a desired imaging method among images acquired by the above-described various imaging methods by a doctor, it is possible to use data of an ultrasound image or a photoacoustic image in one frame. By including the address in the incidental information, there is a possibility that the image of the imaging method desired by the doctor can not be displayed quickly.
  • the incidental information information that can quickly display the image of the imaging method desired by the doctor.
  • a section including the photoacoustic image can be quickly identified when the moving image is reproduced.
  • FIG. 1 is a diagram showing an example of the configuration of an inspection system 102 including an information processing apparatus 107 according to the first embodiment.
  • An inspection system 102 capable of generating an ultrasound image and a photoacoustic image is connected to various external devices via a network 110.
  • the respective configurations and various external devices included in the inspection system 102 do not have to be installed in the same facility, as long as they are communicably connected.
  • the inspection system 102 includes an information processing apparatus 107, a probe 103, a signal collection unit 104, a display unit 109, and an operation unit 108.
  • the information processing apparatus 107 acquires, from the HIS / RIS 111, information related to an examination including imaging of an ultrasonic image and a photoacoustic image, and controls the probe 103 and the display unit 109 when the examination is performed.
  • the information processing apparatus 107 acquires an ultrasound signal and a photoacoustic signal from the probe 103 and the signal collection unit 104.
  • the information processing apparatus 107 acquires an ultrasound image based on an ultrasound signal, and acquires a photoacoustic image based on a photoacoustic signal.
  • the information processing apparatus 107 may further acquire a superimposed image in which the photoacoustic image is superimposed on the ultrasound image.
  • the information processing apparatus 107 transmits and receives information to and from an external apparatus such as the HIS / RIS 111 or the PACS 112 in accordance with standards such as HL7 (Health level 7) and DICOM (Digital Imaging and Communications in Medicine).
  • the area in the subject 101 for which an ultrasound image is captured by the inspection system 102 is, for example, an area such as a circulatory area, a breast, a liver, a pancreas, and an abdomen. Further, in the inspection system 102, for example, an ultrasonic image of a subject to which an ultrasonic contrast agent using microbubbles is administered may be taken.
  • the region in the subject in which the photoacoustic image is captured by the inspection system 102 is, for example, a region such as a circulatory region, a breast, a diameter portion, an abdomen, a limb including a finger and a toe.
  • a blood vessel region including a neovascular vessel or a plaque of a blood vessel wall may be taken as a target of imaging of the photoacoustic image.
  • a photoacoustic image of the subject 101 administered with a dye such as methylene blue or indocyanine green, gold fine particles, or a substance obtained by accumulating or chemically modifying them as a contrast agent is imaged.
  • the probe 103 is operated by the user, and transmits an ultrasonic signal and a photoacoustic signal to the signal collection unit 104 and the information processing apparatus 107.
  • the probe 103 is controlled by the imaging control unit 302. Also, the user can control the probe 103 via an input unit (not shown) such as a freeze button provided on the probe 103.
  • the probe 103 transmits, to the information processing apparatus 107, information of an operation input made by the user.
  • the probe 103 includes a transmission / reception unit 105 and an irradiation unit 106.
  • the probe 103 transmits an ultrasonic wave from the transmitting and receiving unit 105 and receives the reflected wave at the transmitting and receiving unit 105.
  • the probe 103 also emits light from the irradiation unit 106 to the subject, and the photoacoustic signal is received by the transmission / reception unit 105.
  • the probe 103 is controlled so that transmission of an ultrasonic wave for acquiring an ultrasonic wave signal and light irradiation for acquiring a photoacoustic signal are performed when information indicating contact with a subject is received. Is preferred.
  • the transmitting / receiving unit 105 includes at least one transducer (not shown), a matching layer (not shown), a damper (not shown), and an acoustic lens (not shown).
  • the transducer (not shown) is made of a substance exhibiting a piezoelectric effect, such as PZT (lead zirconate titanate) or PVDF (polyvinylidene difluoride).
  • the transducer (not shown) may be one other than the piezoelectric element, and is, for example, a transducer using capacitive micro-machined ultrasonic transducers (CMUT) or a Fabry-Perot interferometer.
  • CMUT capacitive micro-machined ultrasonic transducers
  • Fabry-Perot interferometer Fabry-Perot interferometer
  • the ultrasonic signal consists of frequency components of 2 to 20 MHz and the photoacoustic signal consists of frequency components of 0.1 to 100 MHz, and a transducer (not shown) that can detect these frequencies, for example, is used.
  • the signal obtained by the transducer (not shown) is a time resolved signal.
  • the amplitude of the received signal represents a value based on the sound pressure received by the transducer at each time.
  • the transmission / reception unit 105 includes a circuit (not shown) for electronic focusing or a control unit.
  • the arrangement form of the transducers (not shown) is, for example, a sector, a linear array, a convex, an annular array, a matrix array.
  • the probe 103 acquires an ultrasonic signal and a photoacoustic signal.
  • the probe 103 may acquire ultrasonic signals and photoacoustic signals alternately, may acquire them simultaneously, or may acquire them in a predetermined manner.
  • the transmitting and receiving unit 105 may include an amplifier (not shown) for amplifying a time-series analog signal received by a transducer (not shown).
  • Transducers may be divided into transmission and reception depending on the purpose of imaging ultrasound images. Also, the transducer (not shown) may be divided into one for imaging an ultrasound image and one for imaging a photoacoustic image.
  • the irradiation unit 106 includes a light source (not shown) for acquiring a photoacoustic signal, and an optical system (not shown) for guiding pulsed light emitted from the light source (not shown) to a subject.
  • the pulse width of the light emitted from the light source (not shown) is, for example, a pulse width of 1 ns or more and 100 ns or less.
  • the wavelength of the light which a light source (not shown) injects is a wavelength of 400 nm or more and 1600 nm or less, for example. When imaging blood vessels in the vicinity of the surface of the subject with high resolution, wavelengths having a large absorption in blood vessels of 400 nm or more and 700 nm or less are preferable.
  • the wavelength which is 700 nm-1100 nm which is hard to be absorbed by tissues, such as water and fat is preferred.
  • the light source (not shown) is, for example, a laser or a light emitting diode.
  • the irradiation unit 106 may use a light source capable of converting a wavelength to obtain a photoacoustic signal using light of a plurality of wavelengths.
  • the irradiation unit 106 may be configured to include a plurality of light sources generating light of different wavelengths and to be able to irradiate light of different wavelengths alternately from the respective light sources.
  • Lasers are, for example, solid-state lasers, gas lasers, dye lasers, semiconductor lasers.
  • a pulse laser such as an Nd: YAG laser or an alexandrite laser may be used.
  • a Ti: sa laser or an optical parametric oscillator (OPO) laser which uses Nd: YAG laser light as excitation light may be used as a light source (not shown).
  • a microwave source may be used as a light source (not shown).
  • an optical element such as a lens, a mirror, or an optical fiber is used.
  • the optical system may be provided with a diffusion plate for diffusing the emitted light.
  • the optical system may be provided with a lens or the like so that the beam can be focused.
  • the signal collection unit 104 converts each of the reflected wave received by the probe 103 and the analog signal related to photoacoustics into a digital signal.
  • the signal collection unit 104 transmits the ultrasonic signal and the photoacoustic signal converted into the digital signal to the information processing apparatus 107.
  • the display unit 109 displays an image captured by the inspection system 102 and information on an inspection based on control from the information processing apparatus 107.
  • the display unit 109 provides an interface for receiving a user's instruction based on control from the information processing device 107.
  • Display unit 109 is, for example, a liquid crystal display.
  • the operation unit 108 transmits information related to user's operation input to the information processing apparatus 107.
  • the operation unit 108 is, for example, a keyboard, a trackball, and various buttons for performing operation input related to inspection.
  • the display unit 109 and the operation unit 108 may be integrated as a touch panel display. Further, the information processing apparatus 107, the display unit 109, and the operation unit 108 do not have to be separate devices, and may be realized as a console integrated with these configurations.
  • the information processing apparatus 107 may have a plurality of probes.
  • the HIS / RIS 111 is a system for managing patient information and examination information.
  • the HIS Hospital Information System
  • the HIS includes an electronic medical record system, an ordering system and a medical accounting system.
  • the RIS Radiology Information System
  • the examination information includes an examination ID for uniquely identifying the examination information and information on the imaging technique included in the examination.
  • an inspection system 102 may be connected to an ordering system built for each department.
  • the HIS / RIS 111 transmits, to the information processing apparatus 107, the information of the inspection performed by the inspection system 102 in response to the inquiry from the information processing apparatus 107.
  • the HIS / RIS 111 receives information on the progress of the examination from the information processing apparatus 107.
  • the HIS / RIS 111 receives, from the information processing apparatus 107, information indicating that the examination has been completed, the HIS / RIS 111 performs a process for accounting.
  • a PACS (Picture Archiving and Communication System) 112 is a database system that holds images obtained by various imaging devices inside and outside the facility.
  • the PACS 112 manages a medical image and a storage unit (not shown) that stores incidental information such as imaging conditions of such medical images, parameters of image processing including reconstruction and patient information, and information stored in the storage unit. And a controller (not shown).
  • the PACS 112 stores an ultrasonic image, a photoacoustic image, and a superimposed image, which are objects output from the information processing apparatus 107. It is preferable that communication between the PACS 112 and the information processing apparatus 107 and various images stored in the PACS 112 conform to a standard such as HL7 or DICOM. In the various images output from the information processing apparatus 107, additional information is associated with various tags in accordance with the DICOM standard, and stored.
  • the Viewer 113 is a terminal for image diagnosis, reads an image stored in the PACS 112 or the like, and displays the image for diagnosis.
  • the doctor causes the Viewer 113 to display and observe the image, and records the information obtained as a result of the observation as a diagnostic imaging report.
  • the image diagnostic report created using the Viewer 113 may be stored in the Viewer 113 or may be output and stored in the PACS 112 or a report server (not shown).
  • the Printer 114 prints an image stored in the PACS 112 or the like.
  • the Printer 114 is, for example, a film printer, and outputs the image stored in the PACS 112 or the like by printing it on a film.
  • FIG. 2 is a diagram showing an example of the hardware configuration of the information processing apparatus 107.
  • the information processing apparatus 107 is, for example, a computer.
  • the information processing apparatus 107 includes a CPU 201, a ROM 202, a RAM 203, a storage device 204, a USB 205, a communication circuit 206, a probe connector port 207, and a graphics board 208. These are communicably connected by BUS.
  • the BUS is used to transmit and receive data between connected hardware and to transmit an instruction from the CPU 201 to other hardware.
  • a CPU (Central Processing Unit) 201 is a control circuit that integrally controls the information processing apparatus 107 and each unit connected thereto.
  • the CPU 201 executes control by executing a program stored in the ROM 202.
  • the CPU 201 also executes a display driver, which is software for controlling the display unit 109, and performs display control on the display unit 109. Furthermore, the CPU 201 performs input / output control to the operation unit 108.
  • a ROM (Read Only Memory) 202 stores a program and data in which a procedure of control by the CPU 201 is stored.
  • the ROM 202 stores a boot program of the information processing apparatus 107 and various initial data.
  • various programs for realizing the processing of the information processing apparatus 107 are stored.
  • a RAM (Random Access Memory) 203 provides a storage area for work when the CPU 201 performs control by an instruction program.
  • the RAM 203 has a stack and a work area.
  • the RAM 203 stores a program for executing processing in the information processing apparatus 107 and each unit connected thereto, and various parameters used in image processing.
  • the RAM 203 stores a control program to be executed by the CPU 201, and temporarily stores various data when the CPU 201 executes various controls.
  • the storage device 204 is an auxiliary storage device that stores various data such as an ultrasound image and a photoacoustic image.
  • the storage device 204 is, for example, a hard disk drive (HDD) or a solid state drive (SSD).
  • a USB (Universal Serial Bus) 205 is a connection unit connected to the operation unit 108.
  • the communication circuit 206 is a circuit for performing communication with each unit constituting the inspection system 102 and various external devices connected to the network 110.
  • the communication circuit 206 stores, for example, information to be output in a transfer packet, and outputs the information to an external device via the network 110 by communication technology such as TCP / IP.
  • the information processing apparatus 107 may have a plurality of communication circuits in accordance with a desired communication mode.
  • the probe connector port 207 is a connection port for connecting the probe 103 to the information processing apparatus 107.
  • the graphics board 208 includes a graphics processing unit (GPU) and a video memory.
  • the GPU performs, for example, an operation related to reconstruction processing for generating a photoacoustic image from a photoacoustic signal.
  • the HDMI (High Definition Multimedia Interface) 209 is a connection unit connected to the display unit 109.
  • the CPU 201 and the GPU are an example of a processor.
  • the ROM 202, the RAM 203, and the storage device 204 are examples of a memory.
  • the information processing apparatus 107 may have a plurality of processors. In the first embodiment, when the processor of the information processing apparatus 107 executes a program stored in the memory, the functions of the units of the information processing apparatus 107 are realized.
  • the information processing apparatus 107 may have a CPU or a GPU that performs specific processing exclusively, or an application specific integrated circuit (ASIC).
  • the information processing apparatus 107 may have an FPGA (Field-Programmable Gate Array) in which specific processing or all processing is programmed.
  • FIG. 3 is a diagram showing an example of a functional configuration of the information processing apparatus 107.
  • the information processing apparatus 107 includes an examination control unit 301, an imaging control unit 302, an image processing unit 303, an output control unit 304, a communication unit 305, and a display control unit 306.
  • the examination control unit 301 acquires examination order information from the HIS / RIS 111.
  • the examination order includes information on the patient to be examined and information on the imaging technique.
  • the inspection control unit 301 transmits information on an inspection order to the imaging control unit 302. Further, the examination control unit 301 causes the display unit 109 to display the information on the examination in order to present the information on the examination to the user via the display control unit 306.
  • the information on the examination displayed on the display unit 109 includes information on the patient who is undergoing the examination, information on the imaging technique included in the examination, and an image that has already been generated after imaging is completed. Further, the examination control unit 301 transmits information on the progress of the examination to the HIS / RIS 111 via the communication unit 305.
  • the imaging control unit 302 controls the probe 103 based on the information on the imaging procedure received from the examination control unit 301, and acquires an ultrasound signal and a photoacoustic signal from the probe 103 and the signal collection unit 104.
  • the imaging control unit 302 instructs the irradiation unit 106 to emit light.
  • the imaging control unit 302 instructs the transmitting and receiving unit 105 to transmit an ultrasonic wave.
  • the imaging control unit 302 executes an instruction to the irradiation unit 106 and an instruction to the transmission / reception unit 105 based on the user's operation input and information of the imaging technique. Further, the imaging control unit 302 instructs the transmitting and receiving unit 105 to receive an ultrasonic wave.
  • the imaging control unit 302 instructs the signal collection unit 104 to sample a signal.
  • the imaging control unit 302 controls the probe 103 as described above to distinguish and acquire an ultrasonic signal and a photoacoustic signal.
  • the imaging control unit 302 is an example of an information acquisition unit that acquires timing information.
  • the imaging control unit 302 acquires operation information which is information of an operation input performed by the user in the examination.
  • the user can perform an operation input related to imaging of an ultrasound image and a photoacoustic image through a user interface displayed on the display unit 109.
  • the imaging control unit 302 acquires operation information of the user on the information processing apparatus 107.
  • the operation information of the user on the probe 103 is acquired from the probe 103. That is, the imaging control unit 302 is an example of an information acquisition unit that acquires operation information.
  • the imaging control unit 302 may further acquire information on the acquired timing of the ultrasonic signal and the photoacoustic signal (hereinafter, referred to as timing information).
  • the timing information is, for example, information indicating the timing of light irradiation or transmission of ultrasonic waves by the imaging control unit 302 controlling the probe 103.
  • the information indicating the timing may be time or may be an elapsed time from the start of the examination.
  • the imaging control unit 302 acquires the ultrasound signal and the photoacoustic signal converted into the digital signal output from the signal collection unit 104. That is, the imaging control unit 302 is an example of a signal acquisition unit that acquires an ultrasound signal and a photoacoustic signal.
  • the imaging control unit 302 is an example of an information acquisition unit that acquires timing information.
  • the image processing unit 303 generates an ultrasound image, a photoacoustic image, and a superimposed image in which the photoacoustic image is superimposed on the ultrasound image.
  • the image processing unit 303 also generates a moving image composed of an ultrasonic image and a photoacoustic image.
  • the image processing unit 303 generates a photoacoustic image based on the photoacoustic signal acquired by the imaging control unit 302.
  • the image processing unit 303 reconstructs a distribution of acoustic waves (hereinafter referred to as initial sound pressure distribution) when light is irradiated based on the photoacoustic signal.
  • the image processing unit 303 obtains the absorption coefficient distribution of light in the subject by dividing the reconstructed initial sound pressure distribution by the light fluence distribution of the subject of the light irradiated to the subject.
  • the concentration distribution of the substance in the subject is acquired from the absorption coefficient distribution for a plurality of wavelengths by using the fact that the degree of absorption of light in the subject is different according to the wavelength of the light irradiated to the subject.
  • the image processing unit 303 acquires the concentration distribution of the substance within the subject of oxyhemoglobin and deoxyhemoglobin.
  • the image processing unit 303 acquires an oxygen saturation distribution as a ratio of the oxyhemoglobin concentration to the deoxyhemoglobin concentration.
  • the photoacoustic image generated by the image processing unit 303 is, for example, an image showing at least one of the above-described initial sound pressure distribution, light fluence distribution, absorption coefficient distribution, substance concentration distribution, and oxygen saturation distribution.
  • the image processing unit 303 acquires a bright line obtained by converting the amplitude of the reflected wave of the ultrasound signal into luminance, and changes the display position of the bright line in accordance with the scanning of the ultrasound beam to obtain an ultrasound image (B mode image).
  • the image processing unit 303 can generate an ultrasonic image (C mode image) consisting of three cross sections orthogonal to each other.
  • the image processing unit 303 generates an arbitrary cross section and a three-dimensional image after rendering based on the three-dimensional ultrasound image.
  • the image processing unit 303 is an example of an image acquisition unit that acquires at least one of an ultrasonic image and a photoacoustic image.
  • the output control unit 304 generates an object for transmitting various types of information to an external device such as the PACS 112 or the Viewer 113 according to the control from the inspection control unit 301 or the user's operation input.
  • An object is information to be transmitted from the information processing apparatus 107 to an external apparatus such as the PACS 112 or Viewer 113.
  • the output control unit 304 generates a DICOM object for outputting the ultrasound image and the photoacoustic image generated by the image processing unit 303, and the superimposed image thereof to the PACS 112.
  • the objects output to the external device include incidental information attached as various tags conforming to the DICOM standard.
  • the incidental information includes, for example, patient information, information indicating an imaging device that has captured the image, an image ID for uniquely identifying the image, and an examination ID for uniquely identifying an examination in which the image is captured. , Information of the probe 103 is included.
  • the incidental information generated by the output control unit 304 includes operation information which is information related to the user's operation input performed in the examination.
  • a communication unit 305 controls transmission and reception of information between an information processing apparatus 107 and an external apparatus such as the HIS / RIS 111, PACS 112, and Viewer 113 via the network 110.
  • the transmission / reception control unit 128 receives the inspection order information from the HIS / RIS 111.
  • the transmission / reception control unit 128 transmits the object generated by the damage processing control unit 127 to the PACS 112 or Viewer 113.
  • the display control unit 306 controls the display unit 109 to cause the display unit 109 to display information.
  • the display control unit 306 causes the display unit 109 to display information in response to an input from another module or a user's operation input via the operation unit 108.
  • the display control unit 306 is an example of a display control unit.
  • FIG. 4 illustrates an example of processing in which the information processing apparatus 107 captures a moving image composed of an ultrasonic image and a photoacoustic image, generates incidental information, and outputs an object including the moving image and the incidental information to an external device. It is a flowchart shown. In the following, a case will be described by way of example in which a photoacoustic image is simultaneously taken based on the user's operation input while taking an ultrasonic image. In the following processing, unless otherwise noted, the subject that implements each processing is the CPU 201 or GPU. Also, information acquired by the information processing apparatus 107 will be described using FIG. 5 to FIG. 9 as appropriate.
  • step S401 the examination control unit 301 receives an instruction to start imaging.
  • the examination control unit 301 acquires examination order information from the HIS / RIS 111.
  • the display control unit 306 causes the display unit 109 to display information on the examination indicated by the examination order and a user interface for the user to input an instruction for the examination.
  • Imaging is started by the imaging start instruction input to the user interface via the operation unit 108. The imaging of the ultrasound image is started based on the user's operation input or automatically.
  • the imaging control unit 302 controls the probe 103 and the signal acquisition unit 104 to start imaging of an ultrasound image.
  • the user presses the probe 103 against the subject 101 to perform imaging at a desired position.
  • the imaging control unit 302 acquires an ultrasound signal that is a digital signal and timing information related to acquisition of the ultrasound signal, and stores the acquired signal in the RAM 203.
  • the image processing unit 303 generates an ultrasound image by performing processing such as phasing addition (Delay and Sum) on the ultrasound signal. Note that the ultrasonic signal stored in the RAM 203 may be deleted after the ultrasonic image is generated.
  • the image processing unit 303 causes the display unit 109 to display the acquired ultrasound image via the display control unit 306.
  • the imaging control unit 302 and the image processing unit 303 repeatedly execute these steps, and update the ultrasound image displayed on the display unit 109. Thereby, the ultrasonic image is displayed as a moving image.
  • step S403 the output control unit 304 starts processing for storing the image data acquired by the image processing unit 303 and the incidental information.
  • An instruction to start storage is issued by an operation input to the information processing apparatus 107 or the probe 103.
  • step S404 the imaging control unit 302 receives an instruction to end ultrasonic imaging.
  • the display control unit 306 causes the display unit 109 to display a user interface for performing operation input related to the examination.
  • the user can issue an instruction to end ultrasonic imaging by an operation input to the user interface.
  • an operation input to an input unit (not shown) of the probe 103 can give an instruction to end ultrasonic imaging. If an instruction to end is received, the process proceeds to step S411. If no instruction is received, the process proceeds to step S405.
  • step S405 the imaging control unit 302 receives an instruction to start photoacoustic imaging.
  • the user can issue an instruction to start photoacoustic imaging by an operation input to the user interface related to the inspection or an operation input to the probe 103. If the instruction to start is accepted, the process proceeds to step S406, and if there is no instruction, the process proceeds to step S407.
  • the imaging control unit 302 acquires, as operation information, information indicating an operation on the imaging apparatus instructing an imaging method and a time when the operation is performed.
  • the imaging control unit 302 is an example of an information acquisition unit.
  • step S406 the imaging control unit 302 controls the probe 103 and the signal collection unit 104 to start imaging of a photoacoustic image.
  • the user presses the probe 103 against the subject 101 to perform imaging at a desired position.
  • the imaging control unit 302 acquires a photoacoustic signal that is a digital signal and timing information regarding acquisition of the photoacoustic signal, and stores the acquired information in the RAM 203.
  • the image processing unit 303 generates a photoacoustic image by performing processing such as Universal Back-Projection (UBP) on the photoacoustic signal. Note that the photoacoustic signal stored in the RAM 203 may be deleted when the photoacoustic image is generated.
  • UBP Universal Back-Projection
  • the image processing unit 303 causes the display unit 109 to display the acquired photoacoustic image via the display control unit 306.
  • the imaging control unit 302 and the image processing unit 303 repeatedly execute these steps to update the photoacoustic image displayed on the display unit 109. Thereby, the photoacoustic image is displayed as a moving image.
  • the imaging control unit 302 receives an instruction to end ultrasonic imaging in step S404, the imaging control unit 302 controls the probe 103 to end photoacoustic imaging. .
  • step S407 the imaging control unit 302 receives an instruction to end photoacoustic imaging.
  • the user can issue an instruction to end the photoacoustic imaging by an operation input to the user interface related to the inspection or an operation input to the probe 103. If an end instruction is received, the process proceeds to step S408. If no instruction is received, the process proceeds to step S409.
  • steps S405 and S407 since the user performs an operation input related to imaging of a photoacoustic image, the imaging control unit 302 acquires operation information.
  • step S408 the imaging control unit 302 controls the probe 103 to end imaging of the photoacoustic image.
  • step S409 the shooting control unit 302 receives an instruction to shoot a still image.
  • the user can issue an instruction to capture a still image by operation input to the user interface related to the examination or operation input to the probe 103.
  • the still image may be a still image of an ultrasound image or may be a still image of a photoacoustic image, or a still image of a superimposed image in which a photoacoustic image is superimposed on an ultrasound image It may be If an instruction to shoot a still image is received, the process proceeds to step S410. If no instruction is received, the process proceeds to step S404.
  • step S410 the imaging control unit 302 controls the probe 103 and the signal acquisition unit 104 to execute processing for imaging a still image.
  • the imaging control unit 302 controls the probe 103 and the signal acquisition unit 104 under conditions such as a unique operation mode for capturing a still image and a sampling cycle.
  • Processing for the image processing unit 303 to acquire an ultrasound image and a photoacoustic image is the same as the processing described in steps S402 and S408.
  • the imaging control unit 302 acquires timing information of an ultrasound image and a photoacoustic image.
  • the timing information of the ultrasound image is information on the timing at which the ultrasound signal used for the ultrasound image is acquired.
  • the timing information in the case where a plurality of ultrasound signals are used for one ultrasound image may be information on the timing at which any ultrasound signal is acquired, and operation is performed for each ultrasound image acquired in one examination. It should just be unified.
  • the timing at which the ultrasound signal is acquired may be the timing at which the information processing apparatus 107 receives the ultrasound signal, or may be the timing at which the probe 103 transmits the ultrasound to the subject 101, or the probe 103 receives the ultrasound
  • the timing may be the same, the timing when the drive signal of transmission / reception of the ultrasonic wave to the probe 103 is detected, or the timing when the signal collection unit 104 receives the ultrasonic signal.
  • the timing information of the photoacoustic image is information on the timing at which the photoacoustic signal used for the photoacoustic image is acquired.
  • the timing information in the case where a plurality of photoacoustic signals are used for one photoacoustic image may be information on the timing at which any photoacoustic signal is obtained, and operation is performed for each photoacoustic image obtained in one inspection. It should just be unified.
  • the timing at which the photoacoustic signal is acquired may be the timing at which the information processing apparatus 107 receives the photoacoustic signal, or may be the timing at which the probe 103 irradiates the object 101 with light, or the probe 103 receives the photoacoustic It may be timing, timing at which a drive signal to the probe 103 for light irradiation or photoacoustic reception is detected, or timing at which the signal collection unit 104 receives a photoacoustic signal.
  • the imaging control unit 302 acquires at least one of the time when the ultrasound image is acquired and the time when the photoacoustic image is acquired as timing information (time information).
  • the imaging control unit 302 is an example of an information acquisition unit.
  • step S411 the output control unit 304 saves the information acquired during step S403 to step S411, and ends the process related to saving.
  • FIG. 5 is a diagram showing an example of the configuration of data acquired in the processing related to storage that is started in step S403 and is ended in step S411.
  • the storage data 501 is stored in the storage device 204.
  • the stored data 501 includes incidental information 502 and image data 503.
  • the incidental information 502 is recorded in the header portion of the storage data 501.
  • the image data 503 includes the ultrasound images 509 to 515 and the photoacoustic images 516 to 519 acquired in the steps S403 to S411.
  • the ultrasonic images 509 to 515 are given identifiers U1 to U7 for uniquely identifying them.
  • the photoacoustic images 516 to 519 have identifiers P1 to P4 for uniquely identifying them.
  • the incidental information 502 includes object information 504 indicating an attribute of the object 101, probe information 505 which is information of the probe 103 used for imaging, timing information 506, operation information 507, and correspondence information 508. .
  • the subject information 504 includes, for example, at least one of information such as a subject ID, a subject name, age, blood pressure, heart rate, body temperature, height, weight, previous illness, gestational age, and examination information.
  • information on the electrocardiogram and the oxygen saturation may be stored as the subject information 504.
  • the probe information 505 includes information on the probe 103 such as the type of the probe 103, the position at the time of imaging, and the tilt.
  • the inspection system 102 may include a magnetic sensor (not shown) for detecting the position and inclination of the probe 103, and the imaging control unit 302 may obtain these pieces of information from the magnetic sensor (not shown).
  • the timing information 506 is information on the timing at which each of the ultrasound images 509 to 515 and the photoacoustic images 516 to 519 is acquired.
  • FIG. 6 is a diagram showing an example of the timing information 506. As shown in FIG. In each row of the timing information 506, a time and an identifier of an image frame acquired at that time are recorded in chronological order. For example, a row 601 represents that a frame U3 of an ultrasound image and a frame P1 of a photoacoustic image are acquired at time ti3.
  • the operation information 507 is information of an operation input performed by the user when acquiring the ultrasound images 509 to 515 and the photoacoustic images 516 to 519.
  • FIG. 7 is a diagram showing an example of the operation information 507. As shown in FIG. On each line of the operation information 507, the time and the content of the operation instructed at that time are recorded in chronological order. For example, a row 701 indicates that an instruction to start photoacoustic imaging has been issued at time to1. For example, the timing at which the user performed an operation input using the operation unit 108 is recorded as an instruction time.
  • the correspondence information 508 is information indicating the correspondence between the timing of acquisition of the ultrasound images 509 to 515 and the photoacoustic images 516 to 519 and the timing of the operation input of the user.
  • FIG. 8 shows an example of the correspondence information 508.
  • an operation input from the user or an identifier of the acquired image is recorded in chronological order.
  • (Um, Pn) represents that a frame Um of an ultrasound image and a frame Pn of a photoacoustic image are acquired substantially simultaneously.
  • (Um,-) represents that only a frame Um of an ultrasound image is acquired at a certain timing.
  • the line starting with the mark "#" represents the content of the user's operation input.
  • rows 801 to 804 indicate that frames U1 and U2 of ultrasound images are sequentially acquired following an instruction to start ultrasound imaging, and then instructions to start photoacoustic imaging are issued.
  • the correspondence information 508 can include virtual operation input without an operation input by the user.
  • the virtual operation input is an operation input automatically performed by the device, and when the information processing device 107 executes a series of processing triggered by the operation input by the user, logic such as progress or completion of the processing. Represents a typical event.
  • “#Still image shooting completion” in line 806 is a virtual operation input, and represents completion of processing for still image shooting that is triggered by an instruction to start still image shooting in line 805.
  • the virtual operation input is automatically inserted into the correspondence information 508 by the output control unit 304.
  • step S412 the imaging control unit 302 controls the probe 103 to end the imaging of the ultrasound image and the imaging of the photoacoustic image.
  • step S413 the output control unit 304 generates an object to be output to the external device based on the information stored up to step S411.
  • the communication unit 305 outputs the object to an external device such as the PACS 112.
  • FIG. 9 is a diagram showing an example of the object generated in step S413.
  • the DICOM object 901 includes incidental information 902 and image data 903.
  • the incidental information 902 is described, for example, in the header portion of the image data 903.
  • the incidental information 902 includes object information 904, probe information 905, and correspondence information 906.
  • the subject information 904 corresponds to the subject information 504 shown in FIG.
  • the probe information 905 corresponds to the probe information 505 shown in FIG.
  • the correspondence information 906 corresponds to the correspondence information 508 shown in FIG.
  • Each information included in the incidental information 902 may include the same information as the corresponding information shown in FIG. 5, or may include only the information required in the DICOM standard. It may include only predetermined items set arbitrarily.
  • the subject information 904 may be only information indicating the subject ID, the age, the gender, and the examination ID.
  • the incidental information 902 may not include the probe information 905.
  • the correspondence information 906 includes operation information and timing information, it is not essential.
  • the incidental information 902 includes timing information corresponding to the timing information 506 shown in FIG. 5 and operation information corresponding to the operation information 507. May be further included.
  • the image data 903 includes ultrasound images 907 to 913 and photoacoustic images 914 to 917.
  • the photoacoustic images 914 to 917 are associated as overlay images for the ultrasonic images 909 to 912, respectively.
  • the photoacoustic image may be separated from the DICOM object 901 and may be another DICOM object such as a color soft copy presentation state (CSPS).
  • CSPS color soft copy presentation state
  • the output control unit 304 may convert the photoacoustic image into an annotation object.
  • the superimposed image of the ultrasound image and the photoacoustic image may be secondary capture.
  • FIG. 10 is a timing chart of processing relating to acquisition of an ultrasound image and a photoacoustic image.
  • Diagrams 1001 to 1007 show that time progresses as each of the diagrams proceeds to the right in the drawing.
  • Times ti1 to ti7 and times to1 to to3 indicate times at rising or falling portions in each diagram, respectively.
  • Diagram 1001 represents the timing for the acquisition of ultrasound signals.
  • the probe 103 starts transmitting an ultrasonic wave to the subject 101, and the acquired reflected wave is appropriately transmitted as an ultrasonic signal to the information processing apparatus 107.
  • the imaging control unit 302 ends the reception of the ultrasound signal.
  • U1 to U7 represent each frame corresponding to each ultrasound image. The frames U1 to U7 start transmission of ultrasonic waves to the subject at times ti1 to ti7, respectively.
  • Diagram 1002 represents the timing for acquiring an ultrasound image.
  • the image processing unit 303 starts generation of an ultrasound image.
  • the image processing unit 303 completes the generation of an ultrasound image, and the information processing apparatus 107 acquires an ultrasound image.
  • Diagram 1003 represents the timing for the display of ultrasound images.
  • the display control unit 306 starts the display of the frame U1, and sequentially switches the frames to the frames U2 to U7 at a predetermined rate to perform display.
  • Diagram 1004 represents the timing for the acquisition of the photoacoustic signal.
  • the probe 103 starts irradiation of light to the subject 101, and the acquired photoacoustic is appropriately transmitted to the information processing apparatus 107 as a photoacoustic signal.
  • the imaging control unit 302 ends the reception of the photoacoustic signal.
  • P1 to P4 represent each frame corresponding to each photoacoustic image. The frames P1 to P4 start to emit light to the subject at times ti3 to ti6, respectively.
  • Diagram 1005 represents the timing for the acquisition of the photoacoustic image.
  • the image processing unit 303 starts generating a photoacoustic image.
  • the image processing unit 303 ends the generation of the photoacoustic image, and the information processing apparatus 107 acquires the photoacoustic image.
  • Diagram 1006 represents the timing for the display of the photoacoustic image. When acquisition of the photoacoustic image is completed, it is possible to display the photoacoustic image.
  • the display control unit 306 starts the display of the frame P1, switches the frames to the frames P2 to P4 at a predetermined rate, and performs display.
  • a diagram 1007 represents the timing of the operation input by the user. At times to1 to to3, an instruction to start photoacoustic imaging, an instruction to perform still image imaging, and an instruction to end photoacoustic imaging are input.
  • the step S402 of performing ultrasonic imaging corresponds to the portions of the frames U1 to U4 and the frames U6 to U7 of the diagrams 1001, 1002, and 1003.
  • the process of S410 for taking a still image corresponds to the portion of the frame U5.
  • the step of S406 for performing photoacoustic imaging corresponds to the portions of the frames P1 to P2 and the frame P4 of the diagrams 1004, 1005, and 1006.
  • the process of S410 for taking a still image corresponds to the portion of the frame P3.
  • FIG. 11 is a flowchart illustrating an example of a series of processes for the output control unit 304 to acquire the correspondence information 508.
  • the subject that implements each processing is the CPU 201 or GPU.
  • step S1101 the output control unit 304 sets a temporary variable ti indicating the acquisition time of the image and a temporary variable F indicating the image frame group in the time of the first line of the timing information 506 and the image frame group.
  • step S1102 the output control unit 304 sets a temporary variable to representing the time of the operation input and a temporary variable E representing the operation content in the time and the operation content of the first line of the operation information 507, respectively.
  • the output control unit 304 takes action based on the timing when the image recorded in the timing information 506 is acquired and the order of the user's operation input timing recorded in the operation information 507. Information 508 is acquired.
  • step S1103 the output control unit 304 acquires information on tmax, to, ti.
  • tmax is a flag value for detecting the end of the time recorded in the timing information 506 or the operation information 507. If (1) to is different from tmax and (2) ti is tmax or if to is earlier than ti holds, the process proceeds to step S1140, and if not, the process proceeds to step S1110 .
  • step S1104 the output control unit 304 adds the content of the temporary variable E to the last line of the correspondence information 508.
  • the output control unit 304 may convert the wording and format of the operation content stored in the temporary variable E, and add it to the correspondence information 508. For example, in the correspondence information 508 illustrated in FIG. 8, a mark “#” may be added to the beginning of the text indicating the operation content to clearly indicate that the information is related to the operation input.
  • step S1105 the output control unit 304 determines whether to insert a virtual operation after E based on the operation content represented by the temporary variable E. For example, when the operation of E is a start instruction of still image shooting, it is determined that a completion operation of still image shooting is inserted as a virtual operation after E.
  • the process for inserting a virtual operation can be set in advance by the user. If it is determined in step S1105 that a virtual operation is to be inserted, the process advances to step S1106; otherwise, the process advances to step S1107.
  • step S1106 the output control unit 304 sets virtual operation content in the temporary variable E, and further determines the virtual operation time based on the virtual operation content and sets it to to. For example, when the virtual operation is a completion operation of still image shooting, the acquisition time of the still image set in the temporary variable ti is used as the time of the completion operation of still image shooting.
  • the virtual operation is an operation that indicates that a predetermined time t has elapsed from the user's operation input E ′, the time obtained by adding t to the time of E ′ is taken as the time of the virtual operation. .
  • step S1107 the output control unit 304 acquires, based on the operation information 507, information related to the operation performed at a time later than the time set to the temporary variable to. If there is an operation performed at a time later than the time set to "to", the process advances to step S1108; otherwise, the process advances to step S1109.
  • step S1108 based on the operation information 507, the output control unit 304 reads the time and the operation content described in the line next to the time set in the temporary variable to, and sets them in the to and temporary variable E respectively. . Thereafter, the process proceeds to step S1103.
  • step S1109 the output control unit 304 sets the value of the temporary variable to to tmax.
  • tmax is a flag value for detecting the end of the time recorded in the operation information 507.
  • step S1110 the output control unit 304 acquires the value set in ti. If ti is different from tmax, the process proceeds to step S1111, and if the same, the process illustrated in FIG. 11 ends.
  • step S1111 the output control unit 304 adds the image frame group held by the temporary variable F to the last line of the correspondence information 508. For example, when the temporary variable F holds the set of the frame Um of the ultrasound image and the frame Pn of the photoacoustic image, “(Um, Pn)” is added to the last line of the correspondence information 508.
  • step S1112 based on the timing information 506, the output control unit 304 acquires information on an image frame acquired at a time later than the time set in the temporary variable ti. If there is an image frame acquired later than the time set to ti, the process advances to step S1113; otherwise, the process advances to step S1114.
  • step S1113 the output control unit 304 reads the time and the image frame group described in the line following the time set in the temporary variable ti based on the timing information 506, and sets them in the temporary variable F and ti, respectively. Do. Thereafter, the process proceeds to step S1103.
  • step S1114 the output control unit 304 sets the value of the temporary variable ti to tmax.
  • tmax is a flag value for detecting the end of the time recorded in the timing information 506. Thereafter, the process proceeds to step S1103.
  • the timing at which the ultrasound image and the photoacoustic image are acquired is stored as the timing information 506 in FIG. 6 in step S403. Further, the timing of the operation input, that is, the operation information is stored as the operation information 507 in FIG. 7 in step S403.
  • correspondence information 508 shown in FIG. 8 is obtained. Then, in step S413, the DICOM object 901 including the correspondence information 906 shown in FIG. 9 is transmitted to the PACS 112.
  • operation information at the time of shooting is associated with image data.
  • the viewer 113 uses the viewer 113 to display a moving image including an ultrasound image and a photoacoustic image
  • the viewer 113 performs efficiency on a portion related to the user's operation input based on the correspondence information 906 included in the DICOM object 901. Can be displayed.
  • the viewer 113 can easily specify the frame section acquired together with the photoacoustic image data in the continuous ultrasonic image frame group by referring to the correspondence information 508 including the operation information.
  • the user can perform an operation input on the operation information displayed on the user interface of the Viewer 113, and can specify a specific time point or section.
  • the Viewer 113 causes the user interface to display an ultrasound image or a photoacoustic image at a designated specific time point or section. This allows the doctor to make an efficient diagnosis. Specifically, for example, when an instruction to display a superimposed image of an ultrasound image and a photoacoustic image is received from a doctor, the Viewer 113 reads time to 1 and time to 3 included in the correspondence information 508, and the time Acquire and display an ultrasound image and a photoacoustic image in a period from to1 to time to3.
  • the correspondence information 508 includes the time to1 at which the shooting of the photoacoustic image movie was started and the time to3 at which the photoacoustic image movie ended, so that the viewer 113 recognizes the photoacoustic image frame and movie where the movie of the photoacoustic image starts.
  • the frame of the photoacoustic image to be finished can be identified.
  • various procedures such as photographing of still images of photoacoustic images and ultrasonic images and photographing of moving images are performed in a series of examinations, it is possible to use a specific procedure only by the information of acquired frames. It is difficult to observe an image paying attention.
  • the user can display the image data of the timing at which the desired operation is performed on the viewer 113 simply by using a series of operations performed by the user and the acquired image data as one moving image data. Need to confirm from the first frame of data.
  • a doctor can perform diagnosis efficiently. The processing according to the first embodiment enables the Viewer 113 to reliably display an image according to the doctor's intention.
  • Second Embodiment In the second embodiment, an example in which a section between a plurality of operation inputs is associated with timing when an image is acquired will be described based on timing information and operation information.
  • the configuration of the inspection system 102 including the information processing apparatus 107 according to the second embodiment, the hardware configuration of the information processing apparatus 107, and the functional configuration of the information processing apparatus 107 are the examples shown in FIG. 1, FIG. 2 and FIG. It is similar. About the common part, the detailed explanation is omitted here by using the above-mentioned explanation.
  • the output control unit 304 saves the storage data 501 shown in FIG. 5 in the storage device 204 in step S403 shown in FIG.
  • the correspondence information 508 included in the incidental information 502 records the correspondence between a plurality of operation input sections and the timing at which an image is acquired.
  • FIG. 12 is a diagram showing an example of the correspondence information 508. As shown in FIG. The lines starting with the mark “#” indicate the contents of the user's operation input and the start of a section (hereinafter referred to as an operation section) in which a specific process is performed by the operation input. In the correspondence information 508, operation sections are recorded in chronological order. The operation section is switched using a user's operation input as a trigger. For example, a row 1201 corresponds to an operation section in which both ultrasonic imaging and photoacoustic imaging are performed, and a row 1204 corresponds to an operation section in which still image shooting is performed.
  • a row 1201 corresponds to an operation section in which both ultrasonic imaging and photoacoustic imaging are performed
  • a row 1204 corresponds to an operation section in which still image shooting is performed.
  • the frame U4 of the ultrasound image and the frame P2 of the photoacoustic image are approximately simultaneously at a time after the acquisition time of U3 and P1 in the operation section of the row 1201 Indicates that it has been acquired.
  • FIG. 13 is a flowchart illustrating an example of a series of processes for the output control unit 304 to acquire the correspondence information 508.
  • the subject that implements each processing is the CPU 201 or GPU.
  • step S1301 the output control unit 304 sets a temporary variable ti indicating an acquisition time of an image and a temporary variable F indicating an image frame group to the time of the first row of the timing information 506 and the image frame group.
  • step S1302 the output control unit 304 sets a temporary variable to representing the time of the operation instruction and a temporary variable E representing the operation content in the time and the operation content of the first line of the operation information 507, respectively.
  • step S1303 the output control unit 304 sets the temporary variable S representing the operation section to NULL.
  • the operation section is a section in which the content of processing related to imaging is continuously performed. For example, it is a section where ultrasonic imaging is performed.
  • the output control unit 304 acquires the correspondence information 508 based on the order of the operation section between the plurality of operation inputs and the timing at which the image is acquired.
  • step S1304 the output control unit 304 acquires information on tmax, to, ti.
  • tmax is a flag value for detecting the end of the time recorded in the timing information 506 or the operation information 507. If (1) to is different from tmax and (2) ti is tmax or if to is earlier than ti holds, the process proceeds to step S1305, and if not, the process proceeds to step S1310 .
  • step S1305 the output control unit 304 determines whether to switch the content of the temporary variable S based on the content of the temporary variable E and the content of the temporary variable S. For example, if S is set to NULL, then E corresponds to the content of the first line of operation information. In that case, the output control unit 304 determines to switch S to the content of E. E corresponds to, for example, an operation of starting ultrasound imaging, and the output control unit 304 determines that S is to be switched to an operation section for performing ultrasound imaging. When S is an operation section for performing ultrasonic imaging, and the operation of E is an operation input for starting photoacoustic imaging, the output control unit 304 is an operation for performing both processing of ultrasonic imaging and photoacoustic imaging.
  • step S1307 If it is determined that the operation section is not to be switched, the process proceeds to step S1307.
  • step S1306 the output control unit 304 updates the value of the temporary variable S to a new operation section, and adds the content of S to the last line of the correspondence information 508.
  • steps S1307 to S1314 are the same as the processes in steps S1107 to S1114 shown in FIG.
  • the detailed description is omitted here by using the above description.
  • the timing at which the ultrasound image and the photoacoustic image are acquired is stored as the timing information 506 in FIG. 6 in step S403. Further, the timing of the operation input, that is, the operation information is stored as the operation information 507 in FIG. 7 in step S403.
  • FIG. 7 is an excerpt of the operation information 507, and the first line is an operation for starting ultrasound imaging, and the last line is an operation for ending ultrasound imaging.
  • timings of a plurality of operation inputs are associated with timings at which images are acquired.
  • the viewer 113 uses the viewer 113 to display a moving image including an ultrasound image and a photoacoustic image
  • the viewer 113 performs efficiency on a portion related to the user's operation input based on the correspondence information 906 included in the DICOM object 901. Can be displayed.
  • the viewer 113 can easily identify a frame section acquired together with photoacoustic image data in a series of ultrasonic image frames.
  • the Viewer 113 presents, on the user interface, the frame section acquired together with the photoacoustic image data in the ultrasound image frame group.
  • the user can specify a desired frame section from among the plurality of presented frame sections.
  • the Viewer 113 displays the frame section designated by the user on the user interface.
  • the user simply uses the series of operations performed by the user and the acquired image data as one moving image data to display image data of the timing at which the desired operation is performed on the Viewer 113. You need to confirm from the first frame. According to the configuration of the second embodiment, a doctor can perform diagnosis efficiently.
  • the above-mentioned embodiment demonstrated the example which acquires an ultrasound image and a photoacoustic image in a series of test
  • the information processing apparatus 107 may perform the association by the display control unit 306. Further, the display control unit 306 causes the display unit 109 to display a still image and a moving image including either an ultrasound image or a photoacoustic image. The display control unit 306 may cause the display unit 109 to display a superimposed image in which the correlated ultrasonic image and the photoacoustic image are superimposed. If there is a still image taken in the middle of shooting a moving image, the display control unit 306 specifies a frame in which the still image is acquired during reproduction of the moving image, and displays the still image as distinguishable. It may be displayed on the unit 109. In another example, the display control unit 306 may cause the display unit 109 to display the frame corresponding to the still image longer than the frame rate.
  • FIG. 14 is an example of a screen displayed by a display device (not shown) that displays a medical image based on the information acquired by the information processing apparatus according to the embodiment of the present invention.
  • a display device (not shown) is, for example, a computer, and is communicably connected to the information processing apparatus 107.
  • the display device (not shown) may be an examination device, a computer used by a doctor for observing a medical image, or any diagnosis support device.
  • the display device (not shown) acquires the DICOM object from the information processing device 107.
  • the display apparatus acquires, from the PACS 112, the DICOM object transmitted from the information processing apparatus 107 to the PACS 112 and stored.
  • the display device reads the incidental information 902 and the image data 903 from the DICOM object 901.
  • a display device displays the image data 903 on a screen so that the incidental information 902 can be referred to.
  • a medical image 1406 is displayed by the display device (not shown).
  • the image data 903 is composed of a moving image
  • a progress bar of the moving image and a button 1410 for performing an operation input relating to reproduction are displayed.
  • the buttons 1401 to 1405 correspond to the correspondence information 906 included in the incidental information 902. 8 shows the contents of correspondence information 906, button 1401 corresponds to the contents of line 801, button 1402 corresponds to the contents of line 804, button 1403 corresponds to the contents of line 805, and button 1404 corresponds to the contents of line 807. Corresponds to the content.
  • Button 1405 corresponds to the contents of line 808.
  • the display device (not shown) provides a marker function so that a doctor (user) can easily observe a medical image corresponding to each information of the correspondence information 906.
  • the button 1401 corresponds to the start position of the moving image
  • the button 1402 corresponds to the marker 1407
  • the button 1403 corresponds to the marker 1408,
  • the button 1404 corresponds to the marker 1409
  • the button 1405 corresponds to the end position of the moving image.
  • the button 1403 is pressed, which corresponds to the time when the still image was captured while capturing the ultrasonic moving image and the photoacoustic moving image.
  • the reproduction of the moving image jumps to the position of the marker 1408, and a superimposed image of the ultrasound image shown in the frame U5 illustrated in FIG. 8 and the photoacoustic image shown in the frame P3 is displayed as the medical image 1406.
  • the information processing apparatus As described above, based on the DICOM object acquired by the information processing apparatus according to the embodiment of the present invention, it is possible to easily display the medical image at the timing when the photographer of the medical image performs some operation.
  • the present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. Can also be realized. It can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.
  • a circuit eg, an ASIC
  • the information processing apparatus in each of the above-described embodiments may be realized as a single apparatus, or a plurality of apparatuses may be communicably combined with each other to execute the above-described processing, either of which is an embodiment of the present invention.
  • the above-described processing may be executed by a common server device or a group of servers.
  • the information processing apparatus and the plurality of apparatuses constituting the information processing system only need to be able to communicate at a predetermined communication rate, and do not need to be present in the same facility or in the same country.
  • a program of software that implements the functions of the embodiments described above is supplied to a system or apparatus, and a computer of the system or apparatus reads and executes a code of the supplied program. Including the form.
  • the program code itself which is installed in the computer to realize the processing according to the embodiment by the computer, is also one of the embodiments of the present invention.
  • an OS or the like running on the computer performs part or all of the actual processing, and the functions of the above-described embodiment may be realized by the processing. .

Abstract

情報処理装置は、撮像装置により撮像された超音波画像および光音響画像の少なくとも一方を取得し、超音波画像および光音響画像の少なくとも一方に関して、撮像方法を指示する撮像装置に対する操作および操作を行った時刻を示す情報を操作情報として取得し、超音波画像が取得された時刻および光音響画像が取得された時刻の少なくとも一方を時刻情報として取得し、操作情報と時刻情報と超音波画像および前記光音響画像の少なくとも一方とを対応付けて外部装置に出力する。

Description

情報処理装置、情報処理方法、情報処理システムおよびプログラム
 本明細書の開示は、情報処理装置、情報処理方法、情報処理システムおよびプログラムに関する。
 被検体内部の状態を低侵襲に画像化する撮像装置として、超音波撮像装置や光音響撮像装置が利用されている。これらの装置によれば、超音波画像および光音響画像を動画または静止画として取得することが可能であり、超音波撮像装置により組織の弾性を画像化するエラストグラフィと呼ばれる撮像方法を利用することも可能である。すなわち、さまざまな撮像方法が利用可能である。特許文献1には、超音波画像と光音響画像とを取得可能な装置において、1フレーム内における超音波画像を構成するデータの開始アドレスおよび光音響画像を構成するデータの開始アドレスが記載された付帯情報を生成することが開示されている。
特開2014‐217652号公報
 本発明の実施形態に係る情報処理装置は、被検体への光の照射により発生する光音響に関する信号である光音響信号と、被検体に照射された超音波の反射波に関する信号である超音波信号とのいずれかを取得する信号取得手段と、前記光音響信号を取得するための操作に関する情報である操作情報を取得する情報取得手段と、前記操作情報を含むオブジェクトを外部装置に出力する出力手段と、を有することを特徴とする。
 本発明の実施形態に係る情報処理装置により、動画を再生する装置は付帯情報から画像を撮像するための操作に関する情報を取得可能となる。これにより、動画の観察にかかるユーザのワークフローを向上することができる。
本発明の実施形態に係る情報処理装置を含むシステムの構成の一例を示す図である。 本発明の実施形態に係る情報処理装置のハードウェア構成の一例を示す図である。 本発明の実施形態に係る情報処理装置の機能構成の一例を示す図である。 本発明の実施形態に係る情報処理装置により行われる処理の一例を示すフローチャートである。 本発明の実施形態に係る情報処理装置により取得される情報の一例を示す図である。 本発明の実施形態に係る情報処理装置により取得される情報の一例を示す図である。 本発明の実施形態に係る情報処理装置により取得される情報の一例を示す図である。 本発明の実施形態に係る情報処理装置により取得される情報の一例を示す図である。 本発明の実施形態に係る情報処理装置により外部装置に出力されるオブジェクトの一例を示す図である。 本発明の実施形態に係る情報処理装置により行われる処理の一例を示すタイミングチャートである。 本発明の実施形態に係る情報処理装置により行われる処理の一例を示すフローチャートである。 発明の実施形態に係る情報処理装置により取得される情報の一例を示す図である。 本発明の実施形態に係る情報処理装置により行われる処理の一例を示すフローチャートである。 本発明の実施形態に係る情報処理装置により取得された情報に基づいて、表示される画面の一例である。
 以下、図面を参照して本発明の実施形態を説明する。
 [第1の実施形態]
 本願明細書では、被検体に光を照射し、被検体内部で生じた膨張によって発生する音響波を光音響波と称する。また、トランスデューサから送信された音響波または当該送信された音響波が被検体内部で反射した反射波(エコー)を超音波と称する。
 被検体内部の状態を低侵襲に画像化する方法として、超音波を用いた画像化の方法や光音響を用いた画像化の手法が利用されている。超音波を用いた画像化の方法は、たとえばトランスデューサから発振された超音波が被検体内部の組織で音響インピーダンスの差に応じて反射され、反射波がトランスデューサに到達するまでの時間や反射波の強度に基づいて画像を生成する方法である。超音波を用いて画像化された画像を以下では超音波画像と称する。ユーザはプローブの角度等を変えながら操作し、様々な断面の超音波画像をリアルタイムに観察することができる。超音波画像には臓器や組織の形状が描出され、腫瘍の発見等に活用されている。また、光音響波を用いた画像化の方法は、たとえば光を照射された被検体内部の組織が断熱膨張することにより発生する超音波(光音響)に基づいて画像を生成する方法である。光音響を用いて画像化された画像を以下では光音響画像と称する。光音響画像には各組織の光の吸収の度合いといった光学特性に関連した情報が描出される。光音響画像では、たとえばヘモグロビンの光学特性により血管を描出できることが知られており、腫瘍の悪性度の評価等への活用が検討されている。
 診断の精度を高めるために、被検体の同一部位を、異なる原理に基づいて異なる現象を画像化することにより、様々な情報を収集する場合がある。超音波画像の撮影と光音響画像の撮影と、それぞれの特性を組み合わせた画像を得るための撮像装置が検討されている。特に、超音波画像も光音響画像も被検体からの超音波を利用して画像化されることから、超音波画像の撮像と光音響画像の撮像とを同じ撮像装置で行うことも可能である。より具体的には、被検体に照射した反射波と光音響とを同じトランスデューサで受信する構成とすることができる。これにより、超音波信号と光音響信号とを一つのプローブで取得することができ、ハードウェア構成が複雑にならずに、超音波画像の撮像と光音響画像の撮像とを行う撮像装置を実現できる。
 このように超音波画像と光音響画像とを取得可能な撮像装置で動画を撮影する場合には、たとえば超音波画像の動画を表示部に表示させながら、ユーザの所望の位置で光音響画像を併せて取得することが考えられる。医師が上述した様々な撮像方法により取得された画像のうち所望の撮像方法で得られた画像を参照することで診断を行う場合、1フレーム内の超音波画像または光音響画像を構成するデータのアドレスを付帯情報に含ませることでは、医師が望む撮像方法の画像を迅速に表示できないおそれがある。すなわち、付帯情報に医師が望む撮像方法の画像を迅速に表示できるような情報を含ませる必要がある。第1の実施形態では、一連の超音波画像からなる動画の一部の区間で光音響画像を含む場合には、当該動画の再生時に光音響画像を含む区間を速やかに特定できるようにすることを目的とする。
 [情報処理装置の構成]
 図1は、第1の実施形態に係る情報処理装置107を含む検査システム102の構成の一例を示す図である。超音波画像と光音響画像とを生成可能な検査システム102は、ネットワーク110を介して各種の外部装置と接続されている。検査システム102に含まれる各構成および各種の外部装置は、同じ施設内に設置されている必要はなく、通信可能に接続されていればよい。
 検査システム102は、情報処理装置107、プローブ103、信号収集部104、表示部109、操作部108を含む。情報処理装置107は、超音波画像ならびに光音響画像の撮像を含む検査に関する情報をHIS/RIS111から取得し、当該検査が行われる際にプローブ103や表示部109を制御する。情報処理装置107は、プローブ103および信号収集部104から超音波信号と光音響信号とを取得する。情報処理装置107は、超音波信号に基づいて超音波画像を取得し、光音響信号に基づいて光音響画像を取得する。情報処理装置107は、さらに超音波画像に光音響画像を重畳した重畳画像を取得してもよい。情報処理装置107は、HL7(Health level 7)およびDICOM(Digital Imaging and Communicationsin Medicine)といった規格に準じて、HIS/RIS111やPACS112といった外部装置との間で情報の送受信を行う。
 検査システム102で超音波画像を撮像される被検体101内の領域は、たとえば循環器領域、乳房、肝臓、膵臓、腹部といった領域である。また、検査システム102では、たとえば微小気泡を利用した超音波造影剤を投与した被検体の超音波画像を撮像してもよい。
 また、検査システム102で光音響画像を撮像される被検体内の領域は、たとえば循環器領域、乳房、径部、腹部、手指および足指を含む四肢といった領域である。特に、被検体内の光吸収に関する特性に応じて、新生血管や血管壁のプラークを含む血管領域を、光音響画像の撮像の対象としてもよい。検査システム102では、たとえばメチレンブルー(methylene blue)やインドシアニングリーン(indocyaninegreen)といった色素や、金微粒子、それらを集積あるいは化学的に修飾した物質を造影剤として投与した被検体101の光音響画像を撮像してもよい。
 プローブ103は、ユーザにより操作され、超音波信号と光音響信号とを信号収集部104および情報処理装置107に送信する。プローブ103は、撮影制御部302により制御される。また、ユーザはプローブ103に設けられた、フリーズボタンといった入力部(不図示)を介してプローブ103を制御することができる。プローブ103は、ユーザが行った操作入力の情報を情報処理装置107に送信する。プローブ103は、送受信部105と照射部106とを含む。プローブ103は、送受信部105から超音波を送信し、反射波を送受信部105で受信する。また、プローブ103は照射部106から被検体に光を照射し、光音響を送受信部105で受信する。プローブ103は、被検体との接触を示す情報を受信したときに、超音波信号を取得するための超音波の送信ならびに光音響信号を取得するための光照射が実行されるように制御されることが好ましい。
 送受信部105は、少なくとも1つのトランスデューサ(不図示)と、整合層(不図示)、ダンパー(不図示)、音響レンズ(不図示)を含む。トランスデューサ(不図示)はPZT(lead zirconate titanate)やPVDF(polyvinylidene difluoride)といった、圧電効果を示す物質からなる。トランスデューサ(不図示)は圧電素子以外のものでもよく、たとえば静電容量型トランスデューサ(CMUT:capacitive micro-machined ultrasonic transducers)、ファブリペロー干渉計を用いたトランスデューサである。典型的には、超音波信号は2~20MHz、光音響信号は0.1~100MHzの周波数成分からなり、トランスデューサ(不図示)は、たとえばこれらの周波数を検出できるものが用いられる。トランスデューサ(不図示)により得られる信号は時間分解信号である。受信された信号の振幅は各時刻にトランスデューサで受信される音圧に基づく値を表したものである。送受信部105は、電子フォーカスのための回路(不図示)もしくは制御部を含む。トランスデューサ(不図示)の配列形は、たとえばセクタ、リニアアレイ、コンベックス、アニュラアレイ、マトリクスアレイである。プローブ103は、超音波信号と光音響信号とを取得する。プローブ103は超音波信号と光音響信号とを交互に取得してもよいし、同時に取得してもよいし、予め定められた態様で取得してもよい。
 送受信部105は、トランスデューサ(不図示)が受信した時系列のアナログ信号を増幅する増幅器(不図示)を備えていてもよい。トランスデューサ(不図示)は、超音波画像の撮像の目的に応じて、送信用と受信用とに分割されてもよい。また、トランスデューサ(不図示)は、超音波画像の撮像用と、光音響画像の撮像用とに分割されてもよい。
 照射部106は、光音響信号を取得するための光源(不図示)と、光源(不図示)から射出されたパルス光を被検体へ導く光学系(不図示)とを含む。光源(不図示)が射出する光のパルス幅は、たとえば1ns以上、100ns以下のパルス幅である。また、光源(不図示)が射出する光の波長は、たとえば400nm以上、1600nm以下の波長である。被検体の表面近傍の血管を高解像度でイメージングする場合は、400nm以上、700nm以下の、血管での吸収が大きい波長が好ましい。また、被検体の深部をイメージングする場合には、700nm以上、1100nm以下の、水や脂肪といった組織で吸収されにくい波長が好ましい。
 光源(不図示)は、たとえばレーザーや発光ダイオードである。照射部106は、複数の波長の光を用いて光音響信号を取得するために、波長を変換できる光源を用いてもよい。あるいは、照射部106は、互いに異なる波長の光を発生する複数の光源を備え、それぞれの光源から交互に異なる波長の光を照射できる構成であってもよい。レーザーは、たとえば固体レーザー、ガスレーザー、色素レーザー、半導体レーザーである。光源(不図示)として、Nd:YAGレーザーやアレキサンドライトレーザーといったパルスレーザーを用いてもよい。また、Nd:YAGレーザーの光を励起光とするTi:saレーザーやOPO(optical parametric oscillators)レーザーを光源(不図示)として用いてもよい。また、光源(不図示)として、マイクロウェーブ源を用いてもよい。
 光学系(不図示)には、レンズ、ミラー、光ファイバといった光学素子が用いられる。被検体が乳房である場合には、パルス光のビーム径を広げて照射することが好ましいため、光学系(不図示)は射出される光を拡散させる拡散板を備えていてもよい。あるいは解像度を上げるために、光学系(不図示)はレンズ等を備え、ビームをフォーカスできる構成であってもよい。
 信号収集部104は、プローブ103で受信した反射波並びに光音響に関するアナログ信号を、それぞれデジタル信号に変換する。信号収集部104は、デジタル信号に変換された超音波信号ならびに光音響信号を情報処理装置107に送信する。
 表示部109は、情報処理装置107からの制御に基づいて、検査システム102で撮像された画像や、検査に関する情報を表示する。表示部109は、情報処理装置107からの制御に基づいて、ユーザの指示を受け付けるためのインタフェースを提供する。表示部109は、たとえば液晶ディスプレイである。
 操作部108は、ユーザの操作入力に関する情報を情報処理装置107に送信する。操作部108は、たとえばキーボードやトラックボールや、検査に関する操作入力を行うための各種のボタンである。
 なお、表示部109と操作部108はタッチパネルディスプレイとして統合されていてもよい。また、情報処理装置107と表示部109と操作部108は別体の装置である必要はなく、これらの構成が統合された操作卓として実現されてもよい。情報処理装置107は、複数のプローブを有していてもよい。
 HIS/RIS111は、患者の情報や検査の情報を管理するためのシステムである。HIS(Hospital Information System)は、病院の業務を支援するシステムである。HISは、電子カルテシステム、オーダリングシステムや医事会計システムを含む。RIS(Radiology Information System)は、放射線部門における検査情報を管理し、撮像装置でのそれぞれの検査の進捗を管理するシステムである。検査情報は、一意に識別するための検査IDや、当該検査に含まれる撮影手技に関する情報を含む。検査システム102にはRISに代えて、あるいはRISに加えて、部門ごとに構築されたオーダリングシステムが接続されていてもよい。HIS/RIS111により、検査のオーダ発行から会計までが連携して管理される。HIS/RIS111は、情報処理装置107からの問い合わせに応じて、検査システム102で行う検査の情報を情報処理装置107に送信する。HIS/RIS111は、情報処理装置107から検査の進捗に関する情報を受信する。そして、HIS/RIS111は、検査が完了したことを示す情報を情報処理装置107から受信すると、会計のための処理を行う。
 PACS(Picture Archiving and Communication System)112は、施設内外の各種の撮像装置で得られた画像を保持するデータベースシステムである。PACS112は、医用画像およびかかる医用画像の撮影条件や、再構成を含む画像処理のパラメータや患者情報といった付帯情報を記憶する記憶部(不図示)と、当該記憶部に記憶される情報を管理するコントローラ(不図示)とを有する。PACS112は、情報処理装置107から出力されたオブジェクトである、超音波画像や光音響画像や重畳画像を記憶する。PACS112と情報処理装置107との通信や、PACS112に記憶される各種の画像はHL7やDICOMといった規格に則していることが好ましい。情報処理装置107から出力される各種の画像は、DICOM規格に則って各種のタグに付帯情報が関連付けられ、記憶されている。
 Viewer113は、画像診断用の端末であり、PACS112等に記憶された画像を読み出し、診断のために表示する。医師は、Viewer113に画像を表示させて観察し、当該観察の結果得られた情報を画像診断レポートとして記録する。Viewer113を用いて作成された画像診断レポートは、Viewer113に記憶されていてもよいし、PACS112やレポートサーバ(不図示)に出力され、記憶されてもよい。
 Printer114は、PACS112等に記憶された画像を印刷する。Printer114はたとえばフィルムプリンタであり、PACS112等に記憶された画像をフィルムに印刷することにより出力する。
 図2は、情報処理装置107のハードウェア構成の一例を示す図である。情報処理装置107は、たとえばコンピュータである。情報処理装置107は、CPU201、ROM202、RAM203、記憶装置204、USB205、通信回路206、プローブコネクタポート207、グラフィックスボード208を有する。これらはBUSにより通信可能に接続されている。BUSは接続されたハードウェア間でのデータの送受信や、CPU201から他のハードウェアへの命令を送信するために使用される。
 CPU(Central Processing Unit)201は情報処理装置107およびこれに接続する各部を統合的に制御する制御回路である。CPU201はROM202に格納されているプログラムを実行することにより制御を実施する。またCPU201は、表示部109を制御するためのソフトウェアであるディスプレイドライバを実行し、表示部109に対する表示制御を行う。さらにCPU201は、操作部108に対する入出力制御を行う。
 ROM(Read Only Memory)202は、CPU201による制御の手順を記憶させたプログラムやデータを格納する。ROM202は、情報処理装置107のブートプログラムや各種初期データを記憶する。また、情報処理装置107の処理を実現するための各種のプログラムを記憶する。
 RAM(Random Access Memory)203は、CPU201が命令プログラムによる制御を行う際に作業用の記憶領域を提供するものである。RAM203は、スタックとワーク領域とを有する。RAM203は、情報処理装置107およびこれに接続する各部における処理を実行するためのプログラムや、画像処理で用いる各種パラメータを記憶する。RAM203は、CPU201が実行する制御プログラムを格納し、CPU201が各種制御を実行する際の様々なデータを一時的に格納する。
 記憶装置204は、超音波画像や光音響画像などの各種のデータを保存する補助記憶装置である。記憶装置204は、たとえばHDD(Hard Disk Drive)や、SSD(Solid State Drive)である。
 USB(Universal Serial Bus)205は操作部108と接続する接続部である。
 通信回路206は検査システム102を構成する各部や、ネットワーク110に接続されている各種の外部装置との通信を行うための回路である。通信回路206は、たとえば出力する情報を転送用パケットに格納してTCP/IPといった通信技術により、ネットワーク110を介して外部装置に出力する。情報処理装置107は、所望の通信形態にあわせて、複数の通信回路を有していてもよい。
 プローブコネクタポート207は、プローブ103を情報処理装置107に接続するための接続口である。
 グラフィックスボード208は、GPU(Graphics Processing Unit)、ビデオメモリを含む。GPUは、たとえば光音響信号から光音響画像を生成するための再構成処理に係る演算を行う。
 HDMI(登録商標)(High Definition Multimedia Interface)209は、表示部109と接続する接続部である。
 CPU201やGPUはプロセッサの一例である。また、ROM202やRAM203や記憶装置204はメモリの一例である。情報処理装置107は複数のプロセッサを有していてもよい。第1の実施形態においては、情報処理装置107のプロセッサがメモリに格納されているプログラムを実行することにより、情報処理装置107の各部の機能が実現される。
 また、情報処理装置107は特定の処理を専用に行うCPUやGPU、ASIC(Application Specific Integrated Circuit)を有していても良い。情報処理装置107は特定の処理あるいは全ての処理をプログラムしたFPGA(Field-Programmable Gate Array)を有していてもよい。
 図3は、情報処理装置107の機能構成の一例を示す図である。情報処理装置107は、検査制御部301、撮影制御部302、画像処理部303、出力制御部304、通信部305、表示制御部306を有する。
 検査制御部301は、検査制御部301は、HIS/RIS111から検査オーダの情報を取得する。検査オーダには、検査を受ける患者の情報や、撮影手技に関する情報が含まれる。検査制御部301は、撮影制御部302に検査オーダに関する情報を送信する。また、検査制御部301は、表示制御部306を介してユーザに検査に関する情報を提示するために表示部109に当該検査の情報を表示させる。表示部109に表示される検査の情報には、検査を受ける患者の情報や、当該検査に含まれる撮影手技の情報や、既に撮像が完了して生成された画像が含まれる。さらに検査制御部301は、通信部305を介して当該検査の進捗に関する情報をHIS/RIS111に送信する。
 撮影制御部302は、検査制御部301から受信した撮影手技の情報に基づいてプローブ103を制御し、超音波信号と光音響信号とをプローブ103および信号収集部104から取得する。撮影制御部302は、照射部106に対して光の照射を指示する。撮影制御部302は、送受信部105に対して超音波の送信を指示する。撮影制御部302は、照射部106への指示と送受信部105への指示とをユーザの操作入力や撮影手技の情報に基づいて実行する。また、撮影制御部302は送受信部105に対して超音波の受信を指示する。撮影制御部302は信号収集部104に対して信号のサンプリングを指示する。撮影制御部302は上述のようにプローブ103を制御し、超音波信号と光音響信号とを区別して取得する。また撮影制御部302は、タイミング情報を取得する情報取得手段の一例である。さらに、撮影制御部302は、検査においてユーザが行った操作入力の情報である操作情報を取得する。ユーザは、表示部109に表示されるユーザインタフェースを介して、超音波画像と光音響画像の撮像にかかる操作入力を行うことができる。撮影制御部302は、情報処理装置107に対するユーザの操作情報を取得する。また、プローブ103から、プローブ103に対するユーザの操作情報を取得する。すなわち、撮影制御部302は、操作情報を取得する情報取得手段の一例である。
 撮影制御部302はさらに、超音波信号および光音響信号の取得したタイミングに関する情報(以下では、タイミング情報と称する。)を取得してもよい。タイミング情報とは、たとえば撮影制御部302がプローブ103を制御して光の照射や超音波の送信のタイミングを示す情報である。タイミングを示す情報とは、時刻であってもよいし、検査を開始してからの経過時間であってもよい。なお、撮影制御部302は、信号収集部104から出力されたデジタル信号に変換された超音波信号ならびに光音響信号を取得する。すなわち、撮影制御部302は、超音波信号および光音響信号を取得する信号取得手段の一例である。また撮影制御部302は、タイミング情報を取得する情報取得手段の一例である。
 画像処理部303は、超音波画像と光音響画像と、超音波画像に対して光音響画像を重畳させた重畳画像とを生成する。また、画像処理部303は超音波画像および光音響画像からなる動画を生成する。
 具体的には、画像処理部303は撮影制御部302により取得された光音響信号に基づいて光音響画像を生成する。画像処理部303は、光音響信号に基づいて光が照射された時の音響波の分布(以下、初期音圧分布と称する。)を再構成する。画像処理部303は、再構成された初期音圧分布を、被検体に照射された光の被検体の光フルエンス分布で除することにより、被検体内における光の吸収係数分布を取得する。また、被検体に照射する光の波長に応じて、被検体内で光の吸収の度合いが異なることを利用して、複数の波長に対する吸収係数分布から被検体内の物質の濃度分布を取得する。たとえば画像処理部303は、オキシヘモグロビンとデオキシヘモグロビンの被検体内における物質の濃度分布を取得する。さらに画像処理部303は、オキシヘモグロビン濃度のデオキシヘモグロビン濃度に対する割合として酸素飽和度分布を取得する。画像処理部303により生成される光音響画像は、たとえば上述した初期音圧分布、光フルエンス分布、吸収係数分布、物質の濃度分布および酸素飽和度分布の少なくとも一つの情報を示す画像である。
 また、画像処理部303は超音波信号の反射波の振幅を輝度に変換した輝線を取得し、超音波ビームの走査に合わせて輝線の表示位置を変えることにより超音波画像(Bモード画像)を生成する。プローブ103が3次元プローブである場合には、画像処理部303は、直交する3断面からなる超音波画像(Cモード画像)を生成することができる。画像処理部303は、3次元の超音波画像に基づいて任意の断面やレンダリング後の立体画像を生成する。画像処理部303は、超音波画像と光音響画像の少なくとも一方を取得する画像取得手段の一例である。
 出力制御部304は、検査制御部301からの制御やユーザの操作入力に応じて、各種の情報をPACS112やViewer113といった外部装置に送信するためのオブジェクトを生成する。オブジェクトとは、情報処理装置107からPACS112やViewer113といった外部装置に送信される対象となる情報である。たとえば出力制御部304は、画像処理部303で生成された超音波画像や光音響画像、これらの重畳画像をPACS112に出力するためのDICOMオブジェクトを生成する。外部装置に出力されるオブジェクトには、DICOM規格に則った各種のタグとして付帯された付帯情報が含まれる。付帯情報には、たとえば患者情報や、当該画像を撮像した撮像装置を示す情報や、当該画像を一意に識別するための画像IDや、当該画像を撮像した検査を一意に識別するための検査ID、プローブ103の情報が含まれる。
 また、出力制御部304により生成される付帯情報には、検査の中で行われたユーザの操作入力に関する情報である操作情報が含まれる。
 通信部305は、ネットワーク110を介してHIS/RIS111やPACS112、Viewer113といった外部装置と情報処理装置107との間での、情報の送受信を制御する。送受信制御部128は、HIS/RIS111から検査オーダの情報を受信する。送受信制御部128は、写損処理制御部127で生成されたオブジェクトをPACS112やViewer113に送信する。
 表示制御部306は、表示部109を制御して、表示部109に情報を表示させる。表示制御部306は、他のモジュールからの入力や、操作部108を介したユーザの操作入力に応じて、表示部109に情報を表示させる。表示制御部306は、表示制御手段の一例である。
 [情報処理装置107による一連の処理]
 図4は、情報処理装置107が超音波画像と光音響画像とからなる動画を撮影し、付帯情報を生成し、当該動画と当該付帯情報とを含むオブジェクトを外部装置に出力する処理の一例を示すフローチャートである。以下では、超音波画像を撮影中にユーザの操作入力に基づいて光音響画像を併せて撮影する場合を例に説明する。下記の処理において、特に断りがない場合、各処理を実現する主体は、CPU201またはGPUである。また、適宜図5乃至図9を用いて、情報処理装置107により取得される情報について説明する。
 ステップS401において、検査制御部301は撮影を開始する指示を受け付ける。まず、検査制御部301はHIS/RIS111より検査オーダの情報を取得する。表示制御部306は表示部109に当該検査オーダにより示される検査の情報と、当該検査に対する指示をユーザが入力するためのユーザインタフェースとを表示させる。操作部108を介して当該ユーザインタフェースに入力された、撮影開始の指示により、撮影が開始される。ユーザの操作入力に基づいて、あるいは自動的に超音波画像の撮像が開始される。
 ステップS402において、撮影制御部302はプローブ103と信号収集部104とを制御して、超音波画像の撮像を開始する。ユーザはプローブ103を被検体101に押し当て、所望の位置の撮像を行う。撮影制御部302は、デジタル信号である超音波信号と、当該超音波信号の取得に関するタイミング情報とを取得し、RAM203に記憶する。画像処理部303は、超音波信号に対して整相加算(Delay and Sum)等の処理を行うことにより、超音波画像を生成する。なお、超音波画像を生成したところで、RAM203に保存された超音波信号は削除されてもよい。画像処理部303は取得した超音波画像を、表示制御部306を介して表示部109に表示させる。撮影制御部302および画像処理部303はこれらの工程を繰り返し実行し、表示部109に表示される超音波画像を更新する。これにより、超音波画像が動画として表示される。
 ステップS403において、出力制御部304は、画像処理部303で取得された画像データと、付帯情報との保存にかかる処理を開始する。保存開始の指示は、情報処理装置107またはプローブ103に対する操作入力により行われる。
 ステップS404において、撮影制御部302は、超音波撮像を終了する指示を受け付ける。検査中、表示制御部306は、検査に関する操作入力を行うためのユーザインタフェースを表示部109に表示させている。ユーザは当該ユーザインタフェースに対する操作入力により超音波撮像を終了する指示を行うことができる。別の例では、プローブ103の入力部(不図示)に対する操作入力により、超音波撮像を終了する指示を行うことができる。終了の指示を受け付けるとステップS411に進み、指示がない場合はステップS405に進む。
 ステップS405において、撮影制御部302は、光音響撮像を開始する指示を受け付ける。ユーザは検査に関するユーザインタフェースに対する操作入力またはプローブ103に対する操作入力により、光音響撮像を開始する指示を行うことができる。開始の指示を受け付けるとステップS406に進み、指示が無い場合はステップS407に進む。
 ステップS404およびステップS405において撮影制御部302は、撮像方法を指示する前記撮像装置に対する操作および前記操作を行った時刻を示す情報を操作情報として取得する。この観点では、撮影制御部302は情報取得手段の一例である。
 ステップS406において、撮影制御部302はプローブ103と信号収集部104とを制御して、光音響画像の撮像を開始する。ユーザはプローブ103を被検体101に押し当て、所望の位置の撮像を行う。撮影制御部302は、デジタル信号である光音響信号と、当該光音響信号の取得に関するタイミング情報とを取得し、RAM203に記憶する。画像処理部303は、光音響信号に対してUniversal Back-Projection(UBP)等の処理を行うことにより、光音響画像を生成する。なお、光音響画像を生成したところで、RAM203に保存された光音響信号は削除されてもよい。画像処理部303は取得した光音響画像を、表示制御部306を介して表示部109に表示させる。撮影制御部302および画像処理部303はこれらの工程を繰り返し実行し、表示部109に表示される光音響画像を更新する。これにより、光音響画像が動画として表示される。なお、ステップS406からステップS404に移行し、ステップS404において撮影制御部302が超音波撮像を終了する指示を受け付けた場合には、撮影制御部302はプローブ103を制御して光音響撮像を終了する。
 ステップS407において、撮影制御部302は、光音響撮像を終了する指示を受け付ける。ユーザは検査に関するユーザインタフェースに対する操作入力またはプローブ103に対する操作入力により、光音響撮像を終了する指示を行うことができる。終了の指示を受け付けるとステップS408に進み、指示が無い場合はステップS409に進む。
 ステップS405およびステップS407において、ユーザは光音響画像の撮像に関する操作入力を行っているので、撮影制御部302は操作情報を取得する。
 ステップS408において、撮影制御部302はプローブ103を制御して光音響画像の撮像を終了する。
 ステップS409において、撮影制御部302は、静止画を撮影する指示を受け付ける。ユーザは検査に関するユーザインタフェースに対する操作入力またはプローブ103に対する操作入力により、静止画を撮影する指示を行うことができる。ここで、静止画は超音波画像の静止画であってもよいし、光音響画像の静止画であってもよいし、超音波画像に対して光音響画像が重畳された重畳画像の静止画であってもよい。静止画を撮影する指示を受け付けるとステップS410に進み、指示が無い場合はステップS404に進む。
 ステップS410において、撮影制御部302はプローブ103と信号収集部104とを制御して、静止画を撮影する処理を実行する。撮影制御部302は静止画を撮影するための固有の動作モードやサンプリング周期といった条件でプローブ103および信号収集部104を制御する。画像処理部303が超音波画像および光音響画像を取得するための処理は、ステップS402およびステップS408で説明した処理と同様である。
 ステップS404からステップS410までの処理において、撮影制御部302は超音波画像および光音響画像のタイミング情報を取得する。超音波画像のタイミング情報は、当該超音波画像に用いられた超音波信号が取得されたタイミングに関する情報である。一の超音波画像に複数の超音波信号が用いられる場合のタイミング情報は、任意の超音波信号が取得されたタイミングに関する情報でよく、一の検査で取得されたそれぞれの超音波画像で運用が統一されていればよい。超音波信号が取得されたタイミングは、情報処理装置107が超音波信号を受信したタイミングでもよいし、プローブ103が被検体101に超音波を送信したタイミングでもよいし、プローブ103が超音波を受信したタイミングでもよいし、プローブ103に対する超音波の送受信の駆動信号が検知されたタイミングでもよいし、信号収集部104が超音波信号を受信したタイミングでもよい。光音響画像のタイミング情報は、当該光音響画像に用いられた光音響信号が取得されたタイミングに関する情報である。一の光音響画像に複数の光音響信号が用いられる場合のタイミング情報は、任意の光音響信号が取得されたタイミングに関する情報でよく、一の検査で取得されたそれぞれの光音響画像で運用が統一されていればよい。光音響信号が取得されたタイミングは、情報処理装置107が光音響信号を受信したタイミングでもよいし、プローブ103が被検体101に光を照射したタイミングでもよいし、プローブ103が光音響を受信したタイミングでもよいし、光の照射或いは光音響の受信のプローブ103に対する駆動信号が検知されたタイミングでもよいし、信号収集部104が光音響信号を受信したタイミングでもよい。
 すなわち、撮影制御部302は超音波画像が取得された時刻および光音響画像が取得された時刻の少なくとも一方をタイミング情報(時刻情報)として取得する。この観点では、撮影制御部302は情報取得手段の一例である。
 ステップS411において、出力制御部304は、ステップS403からステップS411までの間に取得された情報を保存し、保存に係る処理を終了する。
 図5は、ステップS403で開始され、ステップS411で終了される保存に係る処理で取得されるデータの構成の一例を示す図である。保存データ501は、記憶装置204に保存される。保存データ501は、付帯情報502と画像データ503とを含む。たとえば、付帯情報502は保存データ501のヘッダー部に記録される。
 画像データ503は、ステップS403からステップS411までの間に取得された超音波画像509~515と光音響画像516~519とを含む。図5に示す例では、超音波画像509~515には、それぞれを一意に識別するための識別子U1~U7が付されている。また、光音響画像516~519には、それぞれを一意に識別するための識別子P1~P4が付されている。
 付帯情報502は、被検体101の属性を表す被検体情報504と、撮像に使用されたプローブ103の情報であるプローブ情報505と、タイミング情報506と、操作情報507と、対応情報508とを含む。
 被検体情報504は、たとえば、被検体ID、被検体氏名、年齢、血圧、心拍数、体温、身長、体重、既往症、妊娠週数、および検査情報といった情報のうちの少なくとも一つの情報を含む。なお、検査システム102が心電計(不図示)やパルスオキシメータ(不図示)を含む場合には、心電図や酸素飽和度に関する情報を被検体情報504として保存してもよい。
 プローブ情報505は、プローブ103の種類、撮像時の位置や傾きといったプローブ103に関する情報を含む。検査システム102はプローブ103の位置や傾きを検知する磁気センサ(不図示)を備えていてもよく、撮影制御部302は磁気センサ(不図示)からこれらの情報を取得してもよい。
 タイミング情報506は、超音波画像509~515および光音響画像516~519のそれぞれが取得されたタイミングに関する情報である。
 図6は、タイミング情報506の一例を示す図である。タイミング情報506の各行には、時刻と、その時刻に取得された画像フレームの識別子が、時系列順に記録される。例えば行601は、時刻ti3に超音波画像のフレームU3と光音響画像のフレームP1とが取得されたことを表す。
 操作情報507は、超音波画像509~515および光音響画像516~519を取得するにあたりユーザが行った操作入力の情報である。
 図7は、操作情報507の一例を示す図である。操作情報507の各行には、時刻と、その時刻に指示された操作の内容が、時系列順に記録される。例えば行701は、時刻to1に光音響撮像を開始する指示が行われたことを表す。たとえば、ユーザが操作部108を用いて操作入力を行ったタイミングが、指示時刻として記録される。
 対応情報508は、超音波画像509~515と光音響画像516~519との取得に関して、それらが取得されたタイミングとユーザの操作入力のタイミングとの対応を示す情報である。
 図8は対応情報508の一例を示す図である。対応情報508の各行には、ユーザからの操作入力、もしくは取得された画像の識別子が、時系列順に記録される。(Um,Pn)は、超音波画像のフレームUmと光音響画像のフレームPnが略同時に取得されたことを表す。(Um,-)は、あるタイミングで超音波画像のフレームUmのみが取得されたことを表す。マーク「#」で始まる行は、ユーザの操作入力の内容を表す。例えば行801-804は、超音波撮像を開始する指示に続いて、超音波画像のフレームU1、U2が順に取得され、その後に光音響撮像を開始する指示がなされたことを示す。
 対応情報508には、ユーザによる操作入力を伴わない仮想的な操作入力を含むことができる。仮想的な操作入力とは、装置により自動的に行われる操作入力であり、ユーザによる操作入力をトリガとして、情報処理装置107が一連の処理を実行する場合に、処理の途中経過や完了といった論理的な事象を表す。例えば、行806の「♯静止画撮影の完了」は仮想的な操作入力であり、行805の静止画撮影の開始指示をトリガとして実行される静止画撮影にかかる処理の完了を表す。仮想的な操作入力は、出力制御部304によって対応情報508に自動的に挿入される。
 ステップS412において、撮影制御部302はプローブ103を制御して超音波画像の撮像および光音響画像の撮像を終了する。
 ステップS413において、出力制御部304は、ステップS411までに保存された情報に基づいて、外部装置に出力するためのオブジェクトを生成する。通信部305は、オブジェクトをPACS112といった外部装置に出力する。
 図9は、ステップS413で生成されるオブジェクトの一例を示す図である。DICOMオブジェクト901は、付帯情報902と、画像データ903とを含む。付帯情報902は、たとえば画像データ903のヘッダー部に記載される。
 付帯情報902は、被検体情報904と、プローブ情報905と、対応情報906とを含む。被検体情報904は、図5に示す被検体情報504と対応する。プローブ情報905は、図5に示すプローブ情報505と対応する。対応情報906は、図5に示す対応情報508と対応する。付帯情報902に含まれるそれぞれの情報は、図5に示した対応するそれぞれの情報と同一の情報を含んでいてもよいし、DICOM規格において必須とされる情報のみを含んでいてもよいし、任意に設定される所定の項目のみを含んでいてもよい。たとえば、被検体情報904は被検体ID、年齢、性別、検査IDそれぞれ示す情報のみでもよい。付帯情報902は、プローブ情報905を含んでいなくてもよい。また、対応情報906には操作情報とタイミング情報とが含まれているので必須ではないが、付帯情報902は図5に示すタイミング情報506と対応するタイミング情報や、操作情報507と対応する操作情報をさらに含んでいてもよい。
 画像データ903は、超音波画像907~913と光音響画像914~917とを含む。図9に示す例では、超音波画像909~912のそれぞれに対するオーバーレイ画像として光音響画像914~917がそれぞれ対応づけられる。
 DICOMオブジェクト901の別の例では、光音響画像をDICOMオブジェクト901から分離して、CSPS(Color Softcopy Presentation State)といった別のDICOMオブジェクトとしてもよい。CSPSを用いる場合、出力制御部304は光音響画像をアノテーションオブジェクトに変換してもよい。また別の例では、超音波画像と光音響画像との重畳画像をSecondary Captureとしてもよい。
 図10は、超音波画像および光音響画像の取得に係る処理のタイミングチャートである。ダイヤグラム1001~1007はそれぞれ、紙面右方向に進むと時間が経過することを示す。時刻ti1~ti7および時刻to1~to3は、それぞれ各ダイヤグラムにおける立ち上がり部または立ち下がり部における時刻を表す。
 ダイヤグラム1001は、超音波信号の取得に関するタイミングを表す。立ち上がり部で、プローブ103は被検体101に超音波の送信を開始し、取得された反射波は適宜超音波信号として情報処理装置107に送信される。立ち下がり部で、撮影制御部302は超音波信号の受信を終了する。U1~U7は、それぞれの超音波画像に対応する各フレームを表す。フレームU1~U7は、それぞれ時刻ti1~ti7に被検体への超音波の送信を開始する。
 ダイヤグラム1002は、超音波画像の取得に関するタイミングを表す。立ち上がり部で、画像処理部303は超音波画像の生成を開始する。立ち下がり部で、画像処理部303は超音波画像の生成を完了し、情報処理装置107は超音波画像を取得する。
 ダイヤグラム1003は、超音波画像の表示に関するタイミングを表す。超音波画像の取得が完了した時点で、当該超音波画像を表示することが可能となる。表示制御部306は、フレームU1の表示を開始して、所定のレートでフレームU2~U7へ順次フレームを切り替えて表示を行う。
 ダイヤグラム1004は、光音響信号の取得に関するタイミングを表す。立ち上がり部で、プローブ103は被検体101に光の照射を開始し、取得された光音響は適宜光音響信号として情報処理装置107に送信される。立ち下がり部で撮影制御部302は光音響信号の受信を終了する。P1~P4は、それぞれの光音響画像に対応する各フレームを表す。フレームP1~P4は、それぞれ時刻ti3~ti6に被検体への光の照射を開始する。
 ダイヤグラム1005は、光音響画像の取得に関するタイミングを表す。立ち上がり部で、画像処理部303は光音響画像の生成を開始する。立ち下がり部で、画像処理部303は光音響画像の生成を終了し、情報処理装置107は光音響画像を取得する。
 ダイヤグラム1006は、光音響画像の表示に関するタイミングを表す。光音響画像の取得が完了した時点で、当該光音響画像を表示することが可能となる。表示制御部306は、フレームP1の表示を開始して、所定のレートでフレームP2~P4へフレームを切り替えて表示を行う。
 ダイヤグラム1007は、ユーザによる操作入力のタイミングを表す。時刻to1~to3に、それぞれ光音響撮像を開始する指示、静止画撮影を行う指示、光音響撮像を終了する指示が入力されている。
 超音波撮像を行うS402の工程は、ダイヤグラム1001、1002、1003のフレームU1~U4およびフレームU6~U7の部分に対応する。静止画撮影を行うS410の工程は、フレームU5の部分に対応する。光音響撮像を行うS406の工程は、ダイヤグラム1004、1005、1006のフレームP1~P2およびフレームP4の部分に対応する。静止画撮影を行うS410の工程は、フレームP3の部分に対応する。
 図11は、出力制御部304が対応情報508を取得するための一連の処理の一例を示すフローチャートである。下記の処理において、特に断りがない場合、各処理を実現する主体は、CPU201またはGPUである。
 ステップS1101において、出力制御部304は画像の取得時刻を表す一時変数ti、画像フレーム群を表す一時変数Fを、タイミング情報506の最初の行の時刻と画像フレーム群にそれぞれ設定する。
 ステップS1102において、出力制御部304は操作入力の時刻を表す一時変数to、操作内容を表す一時変数Eを、操作情報507の最初の行の時刻と操作内容にそれぞれ設定する。
 以下のステップS1103乃至ステップS1114において、出力制御部304は、タイミング情報506に記録された画像が取得されたタイミングと、操作情報507に記録されたユーザの操作入力のタイミングの順序に基づいて、対応情報508を取得する。
 ステップS1103において、出力制御部304は、tmax、to、tiに関する情報を取得する。ここで、tmaxは、タイミング情報506あるいは操作情報507に記録された時刻の終端を検出するためのフラグ値である。(1)toがtmaxと異なる、かつ(2)tiがtmaxである、またはtoがtiよりも前の時刻である、が成り立つ場合にはステップS1140に進み、成り立たない場合にはステップS1110に進む。
 ステップS1104において、出力制御部304は、一時変数Eの内容を対応情報508の最終行に追加する。出力制御部304は、一時変数Eに記憶された操作内容の文言や形式を変換して、対応情報508に追加してもよい。例えば、図8に示す対応情報508では、操作内容を表す文言の先頭にマーク「#」を付加して、操作入力に関する情報であることを明示するようにしてもよい。
 ステップS1105において、出力制御部304は、一時変数Eが表す操作内容に基づいて、Eの後に仮想の操作を挿入するか否かを判定する。例えば、Eの操作が静止画撮影の開始指示の場合は、Eの後に静止画撮影の完了操作を、仮想的な操作として挿入すると判定する。仮想の操作を挿入するべき処理は、事前にユーザが設定しておくことができる。ステップS1105において、仮想の操作を挿入すると判定される場合にはステップS1106に進み、判定されない場合にはステップS1107に進む。
 ステップS1106において、出力制御部304は、一時変数Eに仮想的な操作内容を設定し、さらに当該仮想的な操作内容に基づいて、当該仮想的な操作時刻を決定してtoに設定する。例えば、仮想的な操作が、静止画撮影の完了操作の場合には、一時変数tiに設定されている静止画像の取得時刻を、静止画撮影の完了操作の時刻として用いる。また、仮想的な操作が、ユーザの操作入力E’から一定時間tが経過したことを表す操作の場合には、E’の時刻にtを加えた時刻を、仮想的な操作の時刻とする。
 ステップS1107において、出力制御部304は、操作情報507に基づいて、一時変数toに設定された時刻よりも後の時刻に行われた操作に関する情報を取得する。toに設定された時刻よりも後の時刻に行われた操作が存在する場合にはステップS1108に進み、存在しない場合にはステップS1109に進む。
 ステップS1108において、出力制御部304は、操作情報507に基づいて、一時変数toに設定された時刻の次の行に記載された時刻と操作内容を読み出して、それぞれtoと一時変数Eに設定する。その後、ステップS1103に進む。
 ステップS1109において、出力制御部304は、一時変数toの値をtmaxに設定する。tmaxは、操作情報507に記録された時刻の終端を検出するためのフラグ値である。
 ステップS1110において、出力制御部304は、tiに設定された値を取得する。tiがtmaxと異なる場合にはステップS1111に進み、同じ場合には図11に示す処理を終了する。
 ステップS1111において、出力制御部304は、一時変数Fが保持する画像フレーム群を、対応情報508の最終行に追加する。例えば、一時変数Fが、超音波画像のフレームUmと光音響画像のフレームPnの組を保持している場合には、対応情報508の最終行に「(Um,Pn)」を追加する。
 ステップS1112において、出力制御部304は、タイミング情報506に基づいて、一時変数tiに設定された時刻よりも後の時刻に取得した画像フレームに関する情報を取得する。tiに設定された時刻よりも後に取得された画像フレームが存在する場合にはステップS1113に進み、存在しない場合にはステップS1114に進む。
 ステップS1113において、出力制御部304は、タイミング情報506に基づいて、一時変数tiに設定された時刻の次の行に記載された時刻と画像フレーム群を読み出して、それぞれtiと一時変数Fに設定する。その後、ステップS1103に進む。
 ステップS1114において、出力制御部304は、一時変数tiの値をtmaxに設定する。tmaxは、タイミング情報506に記録された時刻の終端を検出するためのフラグ値である。その後、ステップS1103に進む。
 超音波画像および光音響画像が取得されたタイミングが、ステップS403において図6のタイミング情報506として保存される。また、操作入力のタイミングすなわち操作情報が、ステップS403において図7の操作情報507として保存される。S403からステップS411において、タイミング情報506および操作情報507に基づいて図11に示すフローに従って処理を行うと、図8に示す対応情報508が得られる。そしてステップS413において、図9に示す対応情報906を含むDICOMオブジェクト901が、PACS112に送信される。
 第1の実施形態の構成によって、撮影時の操作情報が画像データと対応付けられる。ユーザがViewer113を用いて、超音波画像と光音響画像とを含む動画を表示する際には、Viewer113はDICOMオブジェクト901に含まれる対応情報906に基づいて、ユーザの操作入力に関連する箇所を効率的に表示させることができる。例えばViewer113は、操作情報を含む対応情報508を参照することで連続した超音波画像フレーム群の中で、光音響画像データと共に取得されたフレーム区間を容易に特定することができる。ユーザはViewer113のユーザインタフェースに表示される操作情報に対して操作入力を行い、特定の時点や区間を指定することができる。Viewer113は指定された特定の時点や区間における超音波画像又は光音響画像をユーザインタフェースに表示させる。これにより、医師は効率的に診断を行うことができる。具体的には、例えば、医師から超音波画像と光音響画像との重畳画像を表示する旨の指示を受け付けた場合、Viewer113は、対応情報508に含まれる時刻to1と時刻to3とを読み、時刻to1から時刻to3までの期間の超音波画像および光音響画像を取得・表示する。たとえば、光音響画像の動画の撮影を開始した時刻to1と終了した時刻to3とが対応情報508に含まれていることにより、Viewer113は光音響画像の動画が開始する光音響画像のフレームと動画が終了する光音響画像のフレームとを特定することができる。特に、一連の検査に置いて光音響画像や超音波画像の静止画の撮影、動画の撮影といった様々な手技が行われた場合には、単に取得されたフレームの情報だけでは、特定の手技に着目して画像の観察を行うことが難しい。また、単にユーザが行った一連の操作と取得された画像データとを一つの動画データとするのみでは、所望の操作が行われたタイミングの画像データをViewer113に表示させるために、ユーザは当該動画データの最初のフレームから確認する必要がある。第1の実施形態の構成により、医師は効率的に診断を行うことができる。第1の実施形態にかかる処理により、Viewer113は医師の意図に沿った画像を確実に表示することが可能になる。
 [第2の実施形態]
 第2の実施形態では、タイミング情報と操作情報とに基づいて、複数の操作入力の間の区間と画像が取得されたタイミングとの対応付けを行う例を説明する。
 第2の実施形態にかかる情報処理装置107を含む検査システム102の構成、情報処理装置107のハードウェア構成、情報処理装置107の機能構成は、それぞれ図1、図2、図3に示す例と同様である。共通する部分については上述した説明を援用することにより、ここでは詳しい説明を省略する。
 第2の実施形態において、出力制御部304は図4に示すステップS403において、図5に示す保存データ501を記憶装置204に保存する。付帯情報502に含まれる対応情報508は、複数の操作入力の区間と、画像が取得されたタイミングとの対応が記録される。
 図12は、対応情報508の一例を示す図である。マーク「#」で始まる行はそれぞれ、ユーザの操作入力の内容と、当該操作入力により特定の処理が行われる区間(以下では、操作区間と称する。)の開始を表す。対応情報508には、それぞれ操作区間が時系列順に記録される。操作区間は、ユーザの操作入力をトリガとして切り替えられる。例えば行1201は、超音波撮像と光音響撮像の両方を行う操作区間と対応し、行1204は、静止画撮影を行う操作区間と対応する。これは、図7の行702に示す静止画撮影を開始するための操作入力をトリガとして、行1201が示す操作区間から行1204が示す操作区間に切り替えられた例である。操作区間を示す行に続いて、当該操作区間の間に取得された画像の識別子が、時系列に記録される。例えば、行1202の(U3,P1)は、行1201が示す操作区間において、超音波画像のフレームU3と光音響画像のフレームP1が同時に取得されたことを表す。そして、行1203の(U4,P2)は、行1201の操作区間内の、U3とP1の取得時刻よりも後の時刻に、超音波画像のフレームU4と光音響画像のフレームP2とが略同時に取得されたことを表す。
 図13は、出力制御部304が対応情報508を取得するための一連の処理の一例を示すフローチャートである。下記の処理において、特に断りがない場合、各処理を実現する主体は、CPU201またはGPUである。
 ステップS1301において、出力制御部304は、画像の取得時刻を表す一時変数ti、画像フレーム群を表す一時変数Fを、タイミング情報506の最初の行の時刻と画像フレーム群にそれぞれ設定する。
 ステップS1302において、出力制御部304は、操作指示の時刻を表す一時変数to、操作内容を表す一時変数Eを、操作情報507の最初の行の時刻と操作内容にそれぞれ設定する。
 ステップS1303において、出力制御部304は、操作区間を表す一時変数SをNULLに設定する。ここで操作区間とは、撮像に関する処理の内容が継続して行われる区間である。たとえば、超音波撮像を行う区間である。
 以下のステップS1304乃至ステップS1314において、出力制御部304は、複数の操作入力の間の操作区間と、画像が取得されたタイミングとの順序に基づいて、対応情報508を取得する。
 ステップS1304において、出力制御部304は、tmax、to、tiに関する情報を取得する。ここで、tmaxは、タイミング情報506あるいは操作情報507に記録された時刻の終端を検出するためのフラグ値である。(1)toがtmaxと異なる、かつ(2)tiがtmaxである、またはtoがtiよりも前の時刻である、が成り立つ場合にはステップS1305に進み、成り立たない場合にはステップS1310に進む。
 ステップS1305において、出力制御部304は、一時変数Eの内容と一時変数Sの内容とに基づいて、一時変数Sの内容を切り替えるか否かを判定する。例えば、SがNULLに設定されている場合は、Eが操作情報の最初の行の内容に対応する。その場合、出力制御部304はSをEの内容に切り替えると判定する。Eはたとえば超音波撮像を開始する操作と対応し、出力制御部304はSを超音波撮像を行う操作区間に切り替えると判定する。Sが超音波撮像を行う操作区間で、Eの操作が光音響撮像を開始するための操作入力である場合は、出力制御部304は超音波撮像と光音響撮像との両方の処理を行う操作区間に切り替えると判定する。操作区間の切り替えにかかる各種の条件、操作入力の内容との対応関係は、ユーザが予め設定しておくことができる。操作区間を切り替えると判定される場合にはステップS1306に進み、切り替えないと判定される場合にはステップS1307に進む。
 ステップS1306において、出力制御部304は、一時変数Sの値を、新たな操作区間に更新し、Sの内容を対応情報508の最終行に追加する。
 ステップS1307乃至ステップS1314における処理は、図11に示すステップS1107乃至S1114の処理と同様である。上述した説明を援用することにより、ここでは詳しい説明を省略する。
 超音波画像および光音響画像が取得されたタイミングが、ステップS403において図6のタイミング情報506として保存される。また、操作入力のタイミングすなわち操作情報が、ステップS403において図7の操作情報507として保存される。図7は操作情報507の抜粋であり、最初の行は超音波撮像を開始する操作、最後の行は超音波撮像を終了する操作である場合を例に説明する。ステップS403からステップS411において、タイミング情報506および操作情報507に基づいて図13に示すフローに従って処理を行うと、図12に示す対応情報508が得られる。そしてS413において、図9に示す対応情報906を含むDICOMオブジェクト901が、PACS112に送信される。
 第2の実施形態の構成によって、複数の操作入力のタイミングと画像が取得されたタイミングとが対応付けられる。ユーザがViewer113を用いて、超音波画像と光音響画像とを含む動画を表示する際には、Viewer113はDICOMオブジェクト901に含まれる対応情報906に基づいて、ユーザの操作入力に関連する箇所を効率的に表示させることができる。例えばViewer113は、連続した超音波画像フレーム群の中で、光音響画像データと共に取得されたフレーム区間を容易に特定することができる。Viewer113はユーザインタフェースに、超音波画像フレーム群の中で光音響画像データとともに取得されたフレーム区間を提示する。ユーザは提示された複数のフレーム区間の中から所望のフレーム区間を指定することができる。Viewer113は、ユーザにより指定されたフレーム区間をユーザインタフェースに表示させる。単にユーザが行った一連の操作と取得された画像データとを一つの動画データとするのみでは、所望の操作が行われたタイミングの画像データをViewer113に表示させるために、ユーザは当該動画データの最初のフレームから確認する必要がある。第2の実施形態の構成により、医師は効率的に診断を行うことができる。
 [変形例]
 上述の実施形態では、図4においてユーザが画像を保存する指示を入力する例を説明したが、本発明はこれに限らない。たとえば検査において取得された画像を全て保存することとし、ステップS402およびステップS411の処理を行わなくてもよい。
 上述の実施形態では、一連の検査において超音波画像と光音響画像とを取得し、対応付けを行う例を説明した。情報処理装置107は当該対応付けを表示制御部306により行ってもよい。また、超音波画像または光音響画像のいずれかを含む静止画および動画を、表示制御部306は表示部109に表示させる。表示制御部306は、対応づけられた超音波画像と光音響画像とを重畳した重畳画像を表示部109に表示させてもよい。動画の撮影の途中で撮影された静止画がある場合には、表示制御部306は当該動画の再生中に静止画が取得されたフレームを特定して、静止画であることを識別可能に表示部109に表示させてもよい。別の例では、表示制御部306は静止画に対応するフレームの表示時間をフレームレートよりも長くして表示部109に表示させてもよい。
 図14は、本発明の実施形態に係る情報処理装置により取得される情報に基づいて医用画像を表示する表示装置(不図示)により表示される画面の一例である。表示装置(不図示)はたとえばコンピュータであり、情報処理装置107と通信可能に接続されている。表示装置(不図示)は検像装置であってもよいし、医師が医用画像の観察に用いるコンピュータであってもよいし、任意の診断支援装置であってもよい。表示装置(不図示)は、情報処理装置107からDICOMオブジェクトを取得する。または、表示装置(不図示)は、情報処理装置107によりPACS112に送信され、保存されたDICOMオブジェクトを、PACS112から取得する。
 表示装置(不図示)が図9に例示するDICOMオブジェクト901を取得した場合を例に説明する。表示装置(不図示)はDICOMオブジェクト901から付帯情報902と画像データ903とを読み出す。表示装置(不図示)は画像データ903を表示させる画面において、付帯情報902を参照できるように表示する。
 表示装置(不図示)により、医用画像1406が表示される。ここでは画像データ903が動画で構成されるので、動画のプログレスバーならびに再生に関する操作入力を行うボタン1410が表示されている。ボタン1401~1405は付帯情報902に含まれる対応情報906と対応する。図8は対応情報906の内容であり、ボタン1401は行801の内容と対応し、ボタン1402は行804の内容と対応し、ボタン1403は行805の内容と対応し、ボタン1404は行807の内容と対応し。ボタン1405は行808の内容と対応している。
 表示装置(不図示)は、対応情報906のそれぞれの情報と対応する医用画像を医師(ユーザ)が観察しやすいように、マーカー機能を提供する。ボタン1401は動画の開始位置と対応し、ボタン1402はマーカー1407と対応し、ボタン1403はマーカー1408と対応し、ボタン1404はマーカー1409と対応し、ボタン1405は動画の終了位置と対応する。ユーザはボタン1401~ボタン1405のいずれか1つのボタンを押下する操作入力を行うと、表示装置(不図示)に対応する医用画像、すなわち対応する動画の位置の医用画像が表示される。図14ではボタン1403が押下された場合を例示しており、これは超音波動画及び光音響動画を撮影中に静止画を撮影した時刻に対応する。マーカー1408の位置に動画の再生がジャンプし、医用画像1406として図8に例示するフレームU5で示される超音波画像とフレームP3で示される光音響画像との重畳画像が表示される。
 このように、本発明の実施形態に係る情報処理装置により取得されたDICOMオブジェクトに基づいて、医用画像の撮影者が何らかの操作を行ったタイミングの医用画像を簡易に表示させることが可能である。
 本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワークまたは記憶媒体を介してシステムまたは装置に供給し、そのシステムまたは装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
 上述の各実施形態における情報処理装置は、単体の装置として実現してもよいし、複数の装置を互いに通信可能に組合せて上述の処理を実行する形態としてもよく、いずれも本発明の実施形態に含まれる。共通のサーバ装置あるいはサーバ群で、上述の処理を実行することとしてもよい。情報処理装置および情報処理システムを構成する複数の装置は所定の通信レートで通信可能であればよく、また同一の施設内あるいは同一の国に存在することを要しない。
 本発明の実施形態には、前述した実施形態の機能を実現するソフトウェアのプログラムを、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータが該供給されたプログラムのコードを読みだして実行するという形態を含む。
 したがって、実施形態に係る処理をコンピュータで実現するために、該コンピュータにインストールされるプログラムコード自体も本発明の実施形態の一つである。また、コンピュータが読みだしたプログラムに含まれる指示に基づき、コンピュータで稼働しているOSなどが、実際の処理の一部または全部を行い、その処理によっても前述した実施形態の機能が実現され得る。
 上述の実施形態を適宜組み合わせた形態も、本発明の実施形態に含まれる。
 本発明は上記実施の形態に制限されるものではなく、本発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、本発明の範囲を公にするために以下の請求項を添付する。
 本願は、2016年11月24日提出の日本国特許出願特願2016-228064、2017年10月16日提出の日本国特許出願特願2017-200400を基礎として優先権を主張するものであり、その記載内容の全てをここに援用する。

Claims (15)

  1.  撮像装置により撮像された超音波画像および光音響画像の少なくとも一方を取得する画像取得手段と、
     前記超音波画像および前記光音響画像の少なくとも一方に関して、撮像方法を指示する前記撮像装置に対する操作および前記操作を行った時刻を示す情報を操作情報として取得し、前記超音波画像が取得された時刻および前記光音響画像が取得された時刻の少なくとも一方を時刻情報として取得する情報取得手段と、
     前記操作情報と前記時刻情報と超音波画像および前記光音響画像の少なくとも一方とを対応付けて外部装置に出力する出力手段と、
     を有することを特徴とする情報処理装置。
  2.  前記操作情報は、前記撮像方法の開始を示す情報と終了を示す情報とを含むことを特徴とする請求項1に記載の情報処理装置。
  3.  前記操作情報は、ユーザの前記操作に基づいて自動的に行われた操作および前記自動的に操作が行われた時刻を示す情報を含むことを特徴とする請求項1または請求項2のいずれか1項に記載の情報処理装置。
  4.  前記出力手段は、前記操作を行った時刻と前記超音波画像および前記光音響画像の少なくとも一方の取得された時刻の順序を識別可能に対応付けた付帯情報を前記外部装置に出力することを特徴とする請求項1乃至請求項3のいずれか1項に記載の情報処理装置。
  5.  光音響信号に基づいて光音響画像を取得し、超音波信号に基づいて超音波画像を取得する画像取得手段をさらに有することを特徴とする請求項1乃至請求項4のいずれか1項に記載の情報処理装置。
  6.  前記情報取得手段は、超音波信号および光音響信号を取得したタイミングに関するタイミング情報をさらに取得し、
     前記出力手段は、前記タイミング情報に基づいて得られる、前記超音波画像と前記光音響画像との対応関係を示す対応情報をさらに対応付けて前記外部装置に出力することを特徴とする請求項1乃至請求項5のいずれか1項に記載の情報処理装置。
  7.  前記撮像方法は、動画に含まれる超音波画像または光音響画像の撮像、または、静止画に含まれる超音波画像または光音響画像の撮像、の少なくともいずれかに関わることを特徴とする請求項1乃至請求項6のいずれか1項に記載の情報処理装置。
  8.  撮像方法を指示する撮像装置に対する操作および前記操作を行った時刻を示す情報である操作情報を含む付帯情報と、前記操作情報と対応づけられた超音波画像または光音響画像の少なくともいずれかの画像データを含むオブジェクトを取得する取得手段と、
     前記操作情報を読みだして前記操作により取得された画像データを表示部に表示させる表示制御手段と、
     を有することを特徴とする情報処理装置。
  9.  前記表示制御手段は、前記操作情報に関する情報を前記表示部に表示させ、
     前記表示された前記操作情報に関する情報に対するユーザの操作入力を受け付ける受付手段をさらに有し、
     前記表示制御手段は、前記受け付けられた前記操作情報に関する情報と対応する前記操作により取得された前記画像データを前記表示部に表示させることを特徴とする請求項8に記載の情報処理装置。
  10.  撮像装置により撮像された超音波画像および光音響画像の少なくとも一方を取得する画像取得手段と、
     前記超音波画像および前記光音響画像の少なくとも一方に関して、撮像方法を指示する前記撮像装置に対する操作および前記操作を行った時刻を示す情報を操作情報として取得し、前記超音波画像が取得された時刻および前記光音響画像が取得された時刻の少なくとも一方を時刻情報として取得する情報取得手段と、
     前記操作情報と前記時刻情報と超音波画像および前記光音響画像の少なくとも一方とを対応付けて外部装置に出力する出力手段と、
     を有することを特徴とする情報処理システム。
  11.  撮像方法を指示する撮像装置に対する操作および前記操作を行った時刻を示す情報である操作情報を含む付帯情報と、前記操作情報と対応づけられた超音波画像または光音響画像の少なくともいずれかの画像データを含むオブジェクトを取得する取得手段と、
     前記操作情報を読みだして前記操作により取得された画像データを表示部に表示させる表示制御手段と
     をさらに有することを特徴とする情報処理システム。
  12.  撮像装置により撮像された超音波画像および光音響画像の少なくとも一方を取得する画像取得工程と、
     前記超音波画像および前記光音響画像の少なくとも一方に関して、撮像方法を指示する前記撮像装置に対する操作および前記操作を行った時刻を示す情報を操作情報として取得し、前記超音波画像が取得された時刻および前記光音響画像が取得された時刻の少なくとも一方を時刻情報として取得する情報取得工程と、
     前記操作情報と前記時刻情報と超音波画像および前記光音響画像の少なくとも一方とを対応付けて外部装置に出力する出力工程と、
     を有することを特徴とする情報処理方法。
  13.  撮像装置により超音波画像および光音響画像の少なくとも一方を撮像するための操作および前記操作を行った時刻を示す情報を操作情報として取得する第1の工程と、
     前記超音波画像が取得された時刻および前記光音響画像が取得された時刻の少なくとも一方を時刻情報として取得する第2の工程と、
     前記操作情報と前記時刻情報とに基づいて付帯情報を取得する第3の工程と、
     前記付帯情報に基づいて、前記操作と前記取得された前記超音波画像または前記光音響画像の少なくともいずれかとの対応を識別可能に表示部に表示させる第4の工程と、
     を有することを特徴とする情報処理方法。
  14.  撮像装置により超音波画像および光音響画像の少なくとも一方を撮像するための操作および前記操作を行った時刻を示す情報を操作情報として取得する第1の工程と、
     前記超音波画像が取得された時刻および前記光音響画像が取得された時刻の少なくとも一方を時刻情報として取得する第2の工程と、
     前記操作を示す情報を表示部に表示させる第3の工程と、
     前記操作を示す情報に対するユーザの指定を受け付ける第4の工程と、
     前記指定された前記操作が行われた時刻と、前記時刻情報とに基づいて、前記超音波画像または前記光音響画像の少なくともいずれか一方の画像を前記表示部に表示させる第5の工程と、
     を有することを特徴とする情報処理方法。
  15.  請求項12乃至請求項14のいずれか一項に記載の情報処理方法をコンピュータに実行させるためのプログラム。
PCT/JP2017/041405 2016-11-24 2017-11-17 情報処理装置、情報処理方法、情報処理システムおよびプログラム WO2018097050A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/398,959 US20190254638A1 (en) 2016-11-24 2019-04-30 Information-processing apparatus, method for processing information, information-processing system, and non-transitory computer-readable medium

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2016-228064 2016-11-24
JP2016228064 2016-11-24
JP2017-200400 2017-10-16
JP2017200400A JP7129158B2 (ja) 2016-11-24 2017-10-16 情報処理装置、情報処理方法、情報処理システムおよびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/398,959 Continuation US20190254638A1 (en) 2016-11-24 2019-04-30 Information-processing apparatus, method for processing information, information-processing system, and non-transitory computer-readable medium

Publications (1)

Publication Number Publication Date
WO2018097050A1 true WO2018097050A1 (ja) 2018-05-31

Family

ID=62195949

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/041405 WO2018097050A1 (ja) 2016-11-24 2017-11-17 情報処理装置、情報処理方法、情報処理システムおよびプログラム

Country Status (1)

Country Link
WO (1) WO2018097050A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002200077A (ja) * 2000-12-18 2002-07-16 Ge Medical Systems Global Technology Co Llc 超音波検査の間に収集された撮像以外のデータを取得および分析するための方法および装置
JP2007175232A (ja) * 2005-12-27 2007-07-12 Olympus Medical Systems Corp 超音波診断装置
JP2009261522A (ja) * 2008-04-23 2009-11-12 Olympus Medical Systems Corp 医用画像生成システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002200077A (ja) * 2000-12-18 2002-07-16 Ge Medical Systems Global Technology Co Llc 超音波検査の間に収集された撮像以外のデータを取得および分析するための方法および装置
JP2007175232A (ja) * 2005-12-27 2007-07-12 Olympus Medical Systems Corp 超音波診断装置
JP2009261522A (ja) * 2008-04-23 2009-11-12 Olympus Medical Systems Corp 医用画像生成システム

Similar Documents

Publication Publication Date Title
JP3863414B2 (ja) 超音波診断装置
US11602329B2 (en) Control device, control method, control system, and non-transitory recording medium for superimpose display
JP5019205B2 (ja) 超音波診断装置
JP5364238B2 (ja) 超音波診断装置、医用画像処理装置、及び医用画像処理プログラム
US20060116583A1 (en) Ultrasonic diagnostic apparatus and control method thereof
JP6704828B2 (ja) 制御装置、制御方法、制御システム及びプログラム
JP2019171160A (ja) 医用画像診断装置及び医用画像表示装置
WO2018008439A1 (en) Apparatus, method and program for displaying ultrasound image and photoacoustic image
US20180008235A1 (en) Apparatus, method, and program for obtaining information derived from ultrasonic waves and photoacoustic waves
JP6305773B2 (ja) 超音波診断装置、画像処理装置及びプログラム
US20190150894A1 (en) Control device, control method, control system, and non-transitory storage medium
US20190209137A1 (en) Information processing apparatus, information processing method, and storage medium
WO2018008661A1 (ja) 制御装置、制御方法、制御システム及びプログラム
JP2006175219A (ja) 超音波診断装置及びその制御方法
JP7129158B2 (ja) 情報処理装置、情報処理方法、情報処理システムおよびプログラム
WO2018097050A1 (ja) 情報処理装置、情報処理方法、情報処理システムおよびプログラム
JP6570508B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2018011928A (ja) 制御装置、制御方法、制御システム及びプログラム
US20190205336A1 (en) Information processing apparatus, information processing method, information processing system, and non-transitory computer-readable medium
WO2018008664A1 (ja) 制御装置、制御方法、制御システム及びプログラム
JP2006197965A (ja) 超音波診断装置
JP2009279265A (ja) 超音波診断装置、画像処理装置及び超音波診断装置の診断方法並びに診断プログラム
JP2017042603A (ja) 被検体情報取得装置
JP2003102727A (ja) 超音波診断装置及び画像再生装置
JP2020028671A (ja) 画像処理装置、画像処理方法、プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17874805

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17874805

Country of ref document: EP

Kind code of ref document: A1