WO2024106635A1 - 광음향 영상 및 초음파 영상의 합성영상 입력장치 및 그 방법 - Google Patents
광음향 영상 및 초음파 영상의 합성영상 입력장치 및 그 방법 Download PDFInfo
- Publication number
- WO2024106635A1 WO2024106635A1 PCT/KR2023/004902 KR2023004902W WO2024106635A1 WO 2024106635 A1 WO2024106635 A1 WO 2024106635A1 KR 2023004902 W KR2023004902 W KR 2023004902W WO 2024106635 A1 WO2024106635 A1 WO 2024106635A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- ultrasonic
- photoacoustic
- ultrasound
- input
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 24
- 239000000523 sample Substances 0.000 claims abstract description 147
- 238000012546 transfer Methods 0.000 claims abstract description 15
- 238000002604 ultrasonography Methods 0.000 claims description 130
- 239000002131 composite material Substances 0.000 claims description 96
- 238000007689 inspection Methods 0.000 claims description 70
- 238000012360 testing method Methods 0.000 claims description 25
- 238000000926 separation method Methods 0.000 claims description 24
- 230000015556 catabolic process Effects 0.000 claims description 2
- 238000006731 degradation reaction Methods 0.000 claims description 2
- 230000002194 synthesizing effect Effects 0.000 abstract description 3
- 230000003287 optical effect Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 16
- 238000000386 microscopy Methods 0.000 description 10
- 210000004204 blood vessel Anatomy 0.000 description 9
- 238000003384 imaging method Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000002347 injection Methods 0.000 description 4
- 239000007924 injection Substances 0.000 description 4
- 238000010895 photoacoustic effect Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 239000000835 fiber Substances 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 3
- 241000699670 Mus sp. Species 0.000 description 2
- 206010028980 Neoplasm Diseases 0.000 description 2
- 201000011510 cancer Diseases 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000006866 deterioration Effects 0.000 description 2
- 201000010099 disease Diseases 0.000 description 2
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 2
- 239000003814 drug Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 241000700159 Rattus Species 0.000 description 1
- 241000700157 Rattus norvegicus Species 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000001066 destructive effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 239000012528 membrane Substances 0.000 description 1
- 230000007170 pathology Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 210000005166 vasculature Anatomy 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/52—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/5215—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
- A61B8/5238—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
- A61B8/5261—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from different diagnostic modalities, e.g. ultrasound and X-ray
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0033—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
- A61B5/0035—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for acquisition of images from more than one imaging mode, e.g. combining MRI and optical tomography
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0093—Detecting, measuring or recording by applying one single type of energy and measuring its conversion into another type of energy
- A61B5/0095—Detecting, measuring or recording by applying one single type of energy and measuring its conversion into another type of energy by applying light and detecting acoustic waves, i.e. photoacoustic measurements
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/44—Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
- A61B8/4416—Constructional features of the ultrasonic, sonic or infrasonic diagnostic device related to combined acquisition of different diagnostic modalities, e.g. combination of ultrasound and X-ray acquisitions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/44—Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
- A61B8/4444—Constructional features of the ultrasonic, sonic or infrasonic diagnostic device related to the probe
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/54—Control of the diagnostic device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10132—Ultrasound image
- G06T2207/10136—3D ultrasound image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Definitions
- the present invention relates to a composite image input device and method of a photoacoustic image and an ultrasound image. More specifically, the present invention relates to a device for inputting a composite image of a photoacoustic image and an ultrasound image, and more specifically, to a device for inputting a composite image of a photoacoustic image and an ultrasonic image.
- the present invention relates to a composite image input device and method of photoacoustic images and ultrasound images that can generate a photoacoustic and ultrasound composite image by combining photoacoustic images and ultrasound images.
- a technique for using photoacoustic effects to obtain information on the state of an object, especially its interior, and generate image information from this has recently been in the spotlight, and much research is being conducted on this, especially in the medical field.
- the medical field there are cases where it is necessary to visually check the status information inside the living body during the treatment of a disease.
- the tool that is currently widely used to generate image information inside the living body is -Ray, CT, MRI, etc.
- these methods have many drawbacks, such as the equipment being expensive, the resolution of the generated image being very low, the field of view (FOV) being narrow, the time required to produce the image being long, or continuous use being harmful to the human body. It has been reported that it is accompanied by problems.
- photoacoustic imaging can be an important technology in the medical field because it can show information related to blood vessels inside the human body.
- the ultrasound system can output an ultrasound signal to a test object and receive an ultrasound signal output from the test object to generate an ultrasound image.
- ultrasound systems are widely used in various fields because they have non-invasive and non-destructive properties for the object.
- ultrasound systems have been used to generate two-dimensional or three-dimensional images of the internal shape of an object.
- ultrasound images can show information related to the structure of the human body.
- photoacoustic images mainly show information related to blood vessels
- ultrasound images mainly show information related to structures. Therefore, there is a need for a technology that can simultaneously display information related to the structure of the human body and information related to blood vessels.
- the object of the present invention is to create a photoacoustic image and ultrasonic image that is a composite image of the exterior and/or interior of an inspection object by moving the photoacoustic probe and the ultrasonic probe at high speed.
- the purpose is to provide a composite image input device and method.
- a composite image input device of a photoacoustic image and an ultrasonic image performs linear movement of the photoacoustic probe and the ultrasonic probe in a first direction and linear movement in a second direction substantially perpendicular to the first direction.
- a transfer unit that creates three-dimensional image information about the inspection object by two-dimensionally scanning the inspection object, and moves the photoacoustic probe and the ultrasonic probe linearly relative to the inspection object in the first direction or the second direction.
- An optoacoustic input unit 10 that outputs a laser pulse output to the inspection object and generates a photoacoustic image signal by receiving a first ultrasound input from the inspection object by the laser pulse output; an ultrasonic input unit 20 that outputs an ultrasonic wave to the test object, receives a second ultrasound input from the test object based on the ultrasonic output, and generates an ultrasound image signal; an analog-to-digital converter 30 that receives the photoacoustic image signal and the ultrasonic image signal and converts them into digital image signals; and a main control unit (40) that receives the digital image signal, generates photoacoustic image information and ultrasound image information for the inspection object, and synthesizes the photoacoustic image information and the ultrasound image information to generate a photoacoustic ultrasound composite image. );, wherein a first position at which the laser pulse output is focused on the inspection object and a second position at which the ultrasonic output is focused may be separated by a set separation distance.
- the laser pulse output and the ultrasonic output may each be focused on different positions of the inspection object at the same point in time or within the same data input period.
- the photoacoustic input unit 10 includes a laser probe 11 that outputs the laser pulse output to the inspection object, and a first ultrasonic probe 12 that receives the first ultrasonic input, and the ultrasonic input unit ( 20) may include a second ultrasound probe 21 that outputs the ultrasound output to the test object and receives the second ultrasound input.
- the laser probe 11 and the first ultrasonic probe 12 are arranged alternately at an angle greater than 45 degrees, and the second ultrasonic probe 21 is interposed between the laser probe 11 and the first ultrasonic probe 12.
- the laser probe 11 and the first ultrasonic probe 12 are arranged alternately at an angle greater than 45 degrees, and the second ultrasonic probe 21 is interposed between the laser probe 11 and the first ultrasonic probe 12.
- the laser probe 11, the first ultrasonic probe 12, and the second ultrasonic probe 21 may be installed in one housing 201 and transported together.
- the first location and the second location may be spaced apart in the first direction or the second direction.
- the separation distance is the best image quality or no image quality degradation of the photoacoustic image and ultrasonic image from the plurality of photoacoustic image information and the ultrasonic image information input while varying the separation distance, with respect to the set laser and ultrasonic output conditions or input conditions.
- the shortest distance can be extracted and preset.
- the separation distance can be set in real time to the shortest distance by determining the image quality of the photoacoustic image and the ultrasonic image from the input photoacoustic image information and the ultrasonic image information.
- the separation distance may be controlled by moving the second ultrasonic probe 21, which receives the second ultrasonic input, in parallel or rotating it about a reference axis.
- the photoacoustic image information or the ultrasonic image information may be shifted by the separation distance and synthesized.
- the ultrasonic input unit 20 generates an ultrasonic output signal (output channel) for generating the ultrasonic output, receives the first ultrasonic input and the second ultrasonic input, and generates a photoacoustic image signal and an ultrasonic image signal, respectively. and an ultrasonic transceiver 22 that generates an ultrasonic transceiver, wherein the ultrasonic transceiver includes a first input channel and a second input channel, and the photoacoustic image signal is generated when the first ultrasonic input is input to the first input channel.
- the ultrasonic image signal may be generated by inputting the second ultrasonic input to the second input channel.
- a pulse signal generator 60 that generates and outputs reference pulse signals at set intervals; a first linear encoder generating linear motion information in the first direction of the photoacoustic probe; a laser generator 13 that outputs laser pulses to the inspection object at set intervals according to the reference pulse signal and the first direction linear motion information; and a trigger control unit 50 that generates an output trigger signal at set intervals according to the reference pulse signal and the first direction linear motion information.
- the ultrasonic transceiver 20 may generate the photoacoustic image signal and the ultrasonic image signal corresponding to the first direction linear motion information, respectively, according to the output trigger signal.
- the second ultrasonic probe 21 outputs an ultrasonic output corresponding to the output trigger signal generated by the trigger control unit 50, and provides the ultrasonic input corresponding to the first direction linear motion information according to the output trigger signal. You can receive input.
- the photoacoustic digital image signal is sequentially converted into the photoacoustic image information corresponding to each trigger pulse of the output trigger signal in the positive or negative direction of the first direction in units of the scan line. to generate photoacoustic image information about the inspection object,
- the ultrasonic digital image signal is sequentially synthesized in the scan line unit in the positive or negative direction of the first direction to produce the ultrasonic image information corresponding to each trigger pulse of the output trigger signal.
- ultrasound image information about the test object can be generated.
- the laser pulse output or the ultrasonic output may be output simultaneously.
- a reference pulse signal may be output to the trigger control unit and the laser generator.
- the first ultrasonic input and the second ultrasonic input may be performed alternately within each scanning line.
- the method of inputting a composite image of a photoacoustic image and an ultrasound image according to an embodiment of the present invention is to input a composite image of a photoacoustic image and an ultrasound image using the composite image input device 1 of the photoacoustic image and an ultrasound image according to the method described above. It can be obtained.
- photoacoustic images can be generated in a short time with one two-dimensional scan.
- a composite image can be created by combining and ultrasound images.
- information related to the structure inside the human body using ultrasound images and information related to blood vessels using photoacoustic images can be displayed simultaneously in one image, which will help doctors make more accurate diagnoses of diseases inside the human body. You can.
- FIG. 1 is a block diagram schematically showing a composite image input device of a photoacoustic image and an ultrasound image according to an embodiment of the present invention.
- FIG. 2 is a block diagram schematically showing a photoacoustic input unit in the composite image input device of the photoacoustic image and ultrasound image of FIG. 1.
- FIG. 3 is a block diagram schematically showing an ultrasonic input unit in the composite image input device of the photoacoustic image and ultrasonic image of FIG. 1.
- Figure 4 is a conceptual diagram schematically showing a composite image input device of an optical resolution type photoacoustic image and an ultrasound image according to another embodiment of the present invention.
- FIG. 5 is a timing diagram schematically showing a method of generating a composite image by a photoacoustic image signal in the composite image input device of the photoacoustic image and ultrasound image of FIG. 1.
- FIG. 6 is a timing diagram schematically showing a method of generating a composite image by an ultrasound image signal in the composite image input device of the photoacoustic image and ultrasound image of FIG. 1.
- FIG. 7 is a diagram showing an image acquisition block in which a photoacoustic probe and an ultrasonic probe are installed integrally in the composite image input device of the photoacoustic image and ultrasonic image of FIG. 1.
- FIG. 8 is a diagram showing an example of images of a laboratory rat input and generated by the composite image input device of the photoacoustic image and ultrasound image of FIG. 1.
- 'unit' refers not only to a hardware configuration such as FPGA or ASIC, but also to a software configuration. However, 'wealth' is not limited to software or hardware.
- the 'part' may be configured to reside on an addressable storage medium and may be configured to run on one or more processors. Thus, as an example, 'part' refers to components such as software components, object-oriented software components, class components and task components, as well as processes, functions, properties, procedures, and subroutines.
- a method of generating a photoacoustic image of an object, such as the inside of a living body, using the photoacoustic effect is as follows. First, an optical beam (e.g., a laser beam) is irradiated to a specific area of the living body for which a 3D image is to be acquired, and a photoacoustic signal is generated according to thermal elastic expansion that occurs in the specific area by the irradiated beam. (Ultrasonic signal) is acquired through an ultrasonic probe (ultrasonic transducer), and the acquired photoacoustic signal is processed through a predetermined signal process to generate 3D photoacoustic image information about the inside of the living body.
- an optical beam e.g., a laser beam
- ultrasonic probe ultrasonic transducer
- a method of generating an ultrasound image of the inside of a test object for example, a living body, is as follows. First, an ultrasonic beam is irradiated to a specific area of the living body for which a 3D image is to be acquired, the ultrasonic signal generated in the specific area by the irradiated ultrasound beam is acquired through an ultrasonic probe (ultrasonic transducer), and the obtained Ultrasound signals are processed to generate 3D ultrasound image information about the inside of a living body.
- an ultrasonic probe ultrasonic transducer
- a high-speed scanning photoacoustic image input device may include a photo-acoustic microscope (PAM). Additionally, the photoacoustic probe of a photoacoustic microscope (PAM) can scan a target area including an inspection object while moving at high speed using a slider crank mechanism.
- a high-speed scanning photoacoustic image input device can convert the unidirectional rotational motion of a drive motor into a linear reciprocating motion of a photoacoustic probe connected to the drive motor.
- a three-dimensional image of the test object (subject) can be generated by two-dimensionally scanning the test object using the linear motion of the photoacoustic probe and the vertical movement perpendicular to the linear motion.
- the photoacoustic microscope (PAM) of the present invention is an optical-resolution photoacoustic microscope (PAM) with spatial resolution of the micron scale by focusing an optical beam (for example, a laser beam).
- Optical-Resolution PAM, OR-PAM can be used.
- Optical resolution photoacoustic microscopy (OR-PAM) can utilize a tighter optical focus.
- acoustic-resolution photoacoustic microscopy can use a tighter acoustic focus.
- optical resolution photoacoustic microscopy OR-PAM
- OR-PAM optical resolution photoacoustic microscopy
- AR-PAM acoustic resolution photoacoustic microscopy
- Optical resolution photoacoustic microscopy uses confocal and optical excitation beams to maximize signal-to-noise ratio (SNR) and optimize spatial resolution.
- Coaxial configuration of the beam and acoustic detection beam can be applied.
- Volumetric imaging is typically achieved by point-by-point raster scanning of optical and acoustic beams, for which a stepping motor scanning stage can be applied.
- the scanning speed (and therefore imaging speed) and scanning range of optical resolution photoacoustic microscopy (OR-PAM) due to the scanning step size required by micron-level lateral resolution. can be low (B-scan rate of approximately 1 [Hz] in 1 [mm] scanning range). Because of this low imaging speed, it has been difficult to acquire tissue's dynamic information, such as transient drug response and skin vasculature, by optical resolution photoacoustic microscopy (OR-PAM). Did not do it.
- FIG. 1 schematically shows a block diagram of a composite image input device of a photoacoustic image and an ultrasound image according to an embodiment of the present invention.
- FIG. 2 is a block diagram of the photoacoustic input unit 10 in the composite image input device 1 of FIG. 1.
- FIG. 3 shows a block diagram of the ultrasonic input unit 20 in the composite image input device 1 of FIG. 1.
- Figure 4 schematically shows a conceptual diagram of a composite image input device of an optical resolution type photoacoustic image and an ultrasound image according to another embodiment of the present invention.
- FIG. 5 shows a timing diagram showing how a composite image is generated by a photoacoustic image signal in the composite image input device of FIG. 1.
- FIG. 6 shows a timing diagram showing how a composite image is generated by an ultrasonic image signal in the composite image input device of FIG. 1.
- the composite image input device 1 of the photoacoustic image and the ultrasonic image integrates the photoacoustic probes 11 and 12 and the ultrasonic probe 21 to substantially perform linear motion in the first direction and linear motion in the first direction.
- a three-dimensional photoacoustic and ultrasonic composite image of the inspection object can be generated by two-dimensionally scanning the inspection object through linear motion in the second direction perpendicular to the object.
- the composite image input device 1 moves the photoacoustic probe and the ultrasonic probe as one unit at high speed to generate and synthesize photoacoustic images and ultrasonic images of the interior and/or exterior of the inspection object, respectively, in one operation.
- Two-dimensional scanning can quickly create a composite image that combines photoacoustic images and ultrasound images.
- the composite image input device 1 is equipped with a photoacoustic probe and an ultrasonic probe, respectively, and acquires photoacoustic images and ultrasonic images from different points of the inspection object, so that the photoacoustic image is generated without interference between the photoacoustic input signal and the ultrasonic input signal. and ultrasound images can be input. Therefore, the composite image input device 1 can quickly receive photoacoustic images and ultrasound images through a single two-dimensional scan.
- the photoacoustic probe includes a laser probe 11 that outputs laser output to the inspection object 100, and a second ultrasonic probe that receives the first ultrasonic input from the inspection object 100 by the laser output of the laser probe 11. 1 may include an ultrasonic probe 12. Additionally, the ultrasonic probe may include a second ultrasonic probe 21 that outputs ultrasonic output to the test object and generates an ultrasound image signal by receiving a second ultrasound input from the test object through the ultrasonic output.
- a composite image input device (1) of a photoacoustic image and an ultrasound image includes a transfer unit; Photoacoustic input unit 10; Ultrasonic input unit (20); Analog to digital conversion unit (30); and a main control unit 40.
- the transfer unit may cause the optoacoustic probe and the ultrasonic probe to move linearly relative to the test object 100 in the first direction and/or the second direction.
- the transfer unit may be implemented to move the photoacoustic probe and the ultrasonic probe as one unit, or to move the stage on which the inspection object is fixed.
- the photoacoustic input unit 10 outputs a laser pulse output to the inspection object 100, receives the first ultrasonic input corresponding to the photoacoustic input coming from the inspection object 100 by the laser pulse output, and generates a photoacoustic image signal. can be created.
- the laser pulse output may be a photoacoustic output
- the first ultrasonic input may be a photoacoustic input.
- the ultrasound input unit 20 may output an ultrasound output to the test object 100 and receive a second ultrasound input from the test object 100 through the ultrasound output to generate an ultrasound image signal.
- the analog-to-digital converter 30 can receive photoacoustic image signals and ultrasonic image signals and convert them into digital image signals.
- the digital image signal may include a photoacoustic digital image signal and an ultrasonic digital image signal.
- the main control unit 40 receives a digital image signal, generates photoacoustic image information and ultrasonic image information for the inspection object 100, and synthesizes the photoacoustic image information and ultrasonic image information to generate a photoacoustic ultrasonic composite image. You can.
- the first position where the laser pulse output is focused on the inspection object 100 and the second position where the ultrasonic output is focused may be separated by a set separation distance. At this time, each of the laser pulse output and ultrasonic output can be point-focused to improve resolution when inputting a single image.
- the first position where the laser pulse output is focused and the second position where the ultrasonic output is focused are spaced apart, so that a photoacoustic and ultrasonic composite image can be obtained within a short time with one two-dimensional scanning.
- the transfer unit may include the motion controller and transfer stage of FIG. 4. At this time, the transfer stage may install a photoacoustic probe and an ultrasonic probe inside the housing 201 of FIG. 7 and linearly move the housing 201 in the first direction and/or the second direction.
- the transfer unit includes a linear encoder 70 capable of measuring the linear movement amount of the photoacoustic probe and the ultrasonic probe, and can measure the linear movement amount of the photoacoustic probe and the ultrasonic probe in the first direction and the second direction, respectively.
- the linear encoder 70 includes a first linear encoder that generates first direction linear motion information of the photoacoustic probe and the ultrasonic probe; and a second linear encoder that generates second direction linear motion information of the photoacoustic probe and the ultrasonic probe.
- the photoacoustic input unit 10 includes a laser generator 13 that generates laser output, a laser probe 11 that outputs laser output to the inspection object, and a first ultrasonic input generated from the inspection object. It may include a first ultrasound probe 12 that receives an input, and an ultrasound receiver 14 that receives the first ultrasound input and generates a photoacoustic image signal. At this time, the laser output may be a laser pulse output.
- the ultrasonic input unit 20 outputs ultrasonic output to the inspection object 100, includes a second ultrasonic probe 21 that receives a second ultrasonic input, and an ultrasonic wave for generating the ultrasonic output. It may include an ultrasound transceiver 22 that generates an output signal and receives a second ultrasound input to generate an ultrasound image signal.
- the ultrasonic transceiver 22 may include a first input channel, a second input channel, and a first output channel.
- the photoacoustic image signal may be generated by inputting a first ultrasonic input to a first input channel, and the ultrasonic image signal may be generated by inputting a second ultrasonic input to a second input channel.
- the ultrasonic transceiver 22 may include the ultrasonic receiver 14 of the photoacoustic input unit 10.
- the ultrasonic output generated by the ultrasonic transceiver unit 22 may be output through the first output channel.
- the ultrasonic input may be an ultrasonic pulse input.
- the ultrasonic output may be an ultrasonic pulse output.
- the ultrasonic transceiver 22 may generate an ultrasonic output signal for generating an ultrasonic output, and may receive a first ultrasonic input and a second ultrasonic input to generate a photoacoustic image signal and an ultrasonic image signal, respectively. At this time, the photoacoustic image signal may be generated from the first ultrasonic input, and the ultrasonic image signal may be generated from the second ultrasonic input.
- the ultrasonic transceiver 22 generates an ultrasonic pulse and outputs it through the ultrasonic probe 21, and includes a pulser/receiver that receives the ultrasonic signal reflected from the inspection object through the ultrasonic probe 21. and may further include an amplifier that amplifies the input ultrasonic signal.
- the analog-to-digital converter 30 can receive the photoacoustic image signal and the ultrasonic image signal from the ultrasonic transceiver 20 and convert them into digital image signals.
- the digital image signal may include a digital photoacoustic image obtained by converting an analog photoacoustic image signal into digital and a digital ultrasound image signal obtained by converting an analog ultrasonic image signal into digital.
- the main control unit 40 receives a digital photoacoustic image signal and a digital ultrasound image signal from the analog-to-digital conversion unit 30, respectively, and generates photoacoustic image information and ultrasonic image information of the inspection object, and generates photoacoustic image information and ultrasonic image information. By synthesizing information, a photoacoustic ultrasound composite image can be created. At this time, each of the digitized photoacoustic image information and ultrasound image information may include each location information of the inspection object and digital image information corresponding to the location information.
- the main control unit 40 may simultaneously display the photoacoustic image and ultrasound image of the inspection object on one display (eg, monitor).
- the user can check the photoacoustic image and ultrasound image of the test object at the same time through the monitor.
- the composite image input device 1 of the photoacoustic image and the ultrasound image can simultaneously display structure-related information and blood vessel-related information inside the human body through the photoacoustic and ultrasound composite image.
- the user can check information related to blood vessels through photoacoustic images on one screen, and at the same time check information related to structures through ultrasound images.
- the ultrasonic transceiver 22 includes a pulser that generates an ultrasonic pulse signal and outputs it through the ultrasonic probe 21, and a receiver that receives the ultrasonic signal generated from the inspection object through the ultrasonic probe 21. can do. That is, the ultrasonic transceiver unit 22 includes an ultrasonic pulser capable of outputting an ultrasonic pulse, so that, unlike a typical photoacoustic input device, a separate ultrasonic pulse can be output to the inspection object through the ultrasonic probe 21. You can.
- the ultrasonic input received from the inspection object may be a first ultrasonic input generated in the inspection object by laser pulse output or a second ultrasonic input generated in the inspection object by ultrasonic pulse output.
- the ultrasound probe 21 included in the photoacoustic probes 11 and 21 receives the ultrasound signal output from the inspection object.
- ultrasonic output according to the ultrasonic output signal generated by the ultrasonic transceiver 22 can be output to the inspection object.
- the ultrasonic probe 21 not only receives the ultrasonic signal generated from the inspection object according to the laser pulse output through the ultrasonic transceiver 22 and generates an optoacoustic image,
- the ultrasonic output according to the ultrasonic output signal generated by the ultrasonic transceiver unit 22 can be output to the inspection object, and the ultrasonic signal generated from the inspection object accordingly can be input through the ultrasonic transceiver unit 22 to generate an ultrasound image.
- the first location for receiving the photoacoustic image signal and the second location for receiving the ultrasonic image signal may be different. That is, the laser pulse output and ultrasonic output can be focused on different positions of the inspection object at the same time or within the same data input period.
- signal interference between the first ultrasonic input and the second ultrasonic input can be prevented by varying the first and second positions without having to distinguish between the timing at which the laser pulse output is output and the timing at which the ultrasonic pulse output is output.
- the timing at which the ultrasonic probe 21 receives the ultrasonic signal (first ultrasonic input) generated from the inspection object according to the laser pulse output and the ultrasonic waves generated from the inspection object according to the ultrasonic pulse output There is no need to differentiate the timing of receiving the signal (second ultrasonic input).
- the photoacoustic image and the ultrasound image can be input at the same time, and the composite image input time can be shortened.
- the composite image input time can be shortened.
- FIG. 7 shows an image acquisition block 200 in which an optoacoustic probe and an ultrasonic probe are installed integrally in the composite image input device 1 of FIG. 1.
- the image acquisition block 200 has a photoacoustic probe and an ultrasonic probe installed in a housing 201 including an upper support block 210 and a lower support block 220, and performs scanning for composite image input.
- the photoacoustic probe and ultrasonic probe may be moved together.
- the photoacoustic probe may include a laser probe 11 and a first ultrasonic probe 12, and the ultrasonic probe may include a second ultrasonic probe 21.
- the laser output unit 11, the first ultrasonic probe 12, and the second ultrasonic probe 21 may be installed in one housing 210 and transported together.
- the laser probe 11 and the first ultrasonic probe 12 forming the photoacoustic probe may be arranged to be staggered at an angle greater than 45 degrees, for example, 90 degrees.
- the laser probe 11 When the inspection object 100 is placed on the lower surface of the image acquisition block 200, the laser probe 11 is disposed in the vertical direction, so that the laser output passes from top to bottom to reach the inspection object 100 and performs the inspection.
- the ultrasonic input generated from the object 100 may be input into the interior of the lower support block 220, and the path may be changed through a half mirror disposed inside the ultrasonic input to be input to the first ultrasonic probe 12.
- the second ultrasonic probe 21 may be arranged to be staggered or substantially parallel to any one of the laser output unit 11 and the first ultrasonic probe 12 at an angle smaller than 45 degrees. In the embodiment shown in the figure, the second ultrasonic probe 21 may be arranged parallel to the laser output unit 11.
- the separation distance is set as the horizontal distance between the first position, which is the focusing position of the laser output unit 11, and the second position, which is the focusing position of the second ultrasonic probe 21, and the laser output unit 11 Even when the laser output and the ultrasonic output of the second ultrasonic probe 21 are applied simultaneously, a photoacoustic image and an ultrasonic image can be obtained simultaneously without interference between the two signals due to the separation distance.
- first ultrasonic probe 12 and the second ultrasonic probe 21 may be arranged substantially parallel to each other in the direction from the top to the bottom of the housing 201. In this case, it may be placed at a right angle to the side of the housing 201 near the first ultrasonic probe 12.
- the laser probe 11 and the second ultrasonic probe 21 are configured so that the first position at which the laser output is focused and the second position at which the ultrasonic output is focused are perpendicular to the first scanning direction and/or the first direction. may be arranged to be spaced apart in a second direction.
- the image acquisition block 200 is fixed to the transfer stage (M/S) of FIG. 4 and can perform two-dimensional scanning of a designated area.
- the image acquisition block 200 When the image acquisition block 200 is transferred in the first direction and scanning of the nth line is completed, the image acquisition block 200 is transferred in the second direction at a set step interval and transferred in the direction opposite to the first direction.
- scanning of the n+1th line is completed and the line is transferred for a set distance and number of times in the second direction, two-dimensional scanning can be completed.
- the image acquisition block 200 may be installed on the transfer stage (M/S) such that the laser probe 11 is spaced apart from the second ultrasonic probe 21 in the first direction.
- the first location and the second location may be spaced apart in the first direction.
- the first position and the second position may be separated by a separation distance from the same nth scan line.
- the image acquisition block 200 may be installed on the transfer stage (M/S) such that the laser probe 11 is spaced apart from the second ultrasonic probe 21 in the second direction.
- the first location and the second location may be spaced apart in the second direction.
- the first position and the second position may be separated by a distance formed by the number of scan lines set in different scan lines.
- the separation distance is determined by determining the best image quality of the photoacoustic image and ultrasonic image (e.g. It can be set in advance by extracting the shortest distance without deterioration in clarity) or image quality.
- the separation distance may be set in real time to the shortest distance by determining the image quality (eg, clarity) of the photoacoustic image and ultrasonic image from the input photoacoustic image information and ultrasonic image information.
- image quality eg, clarity
- Changes in the separation distance can be controlled so that the position of the second ultrasonic probe 21 moves horizontally or rotates.
- the position of the second ultrasonic probe 21 may be moved horizontally and the separation distance may be controlled to change. In this case, accurate control of the separation distance may be easy.
- the second ultrasonic probe 21 may be controlled to rotate around a reference axis to change the separation distance. In this case, control may be possible by adjusting the angle of the separation distance by a small amount.
- 3D image information for the inspection object is generated by one-time 2D scanning of the housing, and the first and second ultrasonic waves can be input alternately with a time difference within each scanning line. .
- the synthesized image may be generated by shifting the photoacoustic image information or the ultrasonic image information by the separation distance and combining them.
- the composite image input device 1 of a photoacoustic image and an ultrasound image includes a photoacoustic input unit 10, an ultrasonic input unit 20, an analog-to-digital conversion unit 30, and a main control unit 40. It may include a trigger control unit 50, a pulse signal generator 60, and a linear encoder 70.
- the pulse signal generator 60 may generate and output a reference pulse signal at a set interval (eg, a constant time interval).
- the linear encoder 70 may include a first linear encoder that generates linear motion information in a first direction and a second linear encoder that generates linear motion information in a second direction that is substantially perpendicular to the first direction.
- the linear encoder 70 may generate a linear encoder pulse signal corresponding to first direction linear motion information of the photoacoustic probes 11 and 12.
- the laser generator 10 may output laser pulses at set intervals (e.g., constant position and/or time) to the inspection object according to the reference pulse signal and the linear encoder pulse signal corresponding to the first direction linear motion information. . As shown in FIG. 5, the laser pulse can be generated so that the linear encoder pulse signal is synchronized with the reference pulse signal after input.
- the laser generator 10 outputs a laser pulse according to the linear encoder pulse signal and the reference pulse signal generated by the pulse signal generator 60, so photoacoustic image information corresponding to accurate position information is generated without a separate scanning trigger. It becomes possible to create
- the trigger control unit 50 may generate an output trigger signal at a set interval (e.g., a constant position and/or time) according to the reference pulse signal and the linear encoder pulse signal corresponding to the first direction linear motion information.
- a set interval e.g., a constant position and/or time
- the first output trigger signal is used as an ultrasonic start signal in the corresponding scanning line (nth scanning line), and after inputting the ultrasonic start signal, a preset number of ultrasonic waves can be input.
- the output trigger signal is generated in synchronization with the linear encoder pulse signal and the reference pulse signal, so ultrasonic image information from ultrasonic input can include ultrasonic image information at accurate position information.
- the ultrasonic transceiver 22 generates an ultrasonic output signal corresponding to the output trigger signal, and the ultrasonic probe 21 irradiates an ultrasonic pulse output to the work object 100 according to the ultrasonic output signal. Accordingly, ultrasonic input is output from the work object 100, and the ultrasonic transceiver unit 22 receives the ultrasonic input through the ultrasonic probe 21 and outputs a digital ultrasonic image signal to the analog-to-digital converter 30. .
- the main control unit 40 receives the digital ultrasound image signal and combines it with each location information to generate an ultrasound image, and combines it with the photoacoustic image generated by combining each location information to generate a composite image.
- the ultrasonic transceiver unit 22 can generate a photoacoustic image signal and an ultrasonic image signal corresponding to linear motion information in the first direction according to the output trigger signal, and the photoacoustic image signal and the ultrasonic image signal are generated at an accurate location. A composite image can be created.
- the ultrasonic transceiver 22 includes the ultrasonic receiver 14 of the photoacoustic input unit 10 and can be used as one device.
- the ultrasonic probe 21 outputs ultrasonic output corresponding to the output trigger signal generated by the trigger control unit 50, and receives the ultrasonic input corresponding to first direction linear motion information according to the output trigger signal.
- the main control unit 40 sequentially synthesizes photoacoustic image information corresponding to each trigger pulse of the output trigger signal in the positive or negative direction of the first direction on a scan line basis to provide photoacoustic image information for the inspection object. Generates ultrasound image information for the object to be inspected by sequentially synthesizing the ultrasound image information corresponding to each trigger pulse of the output trigger signal in the positive or negative direction of the first direction in the same scan line unit. And, within the same scan line, photoacoustic image information and ultrasonic image information can be synthesized according to the position information (linear encoder pulse signal) included in the output trigger signal to generate a composite image.
- the linear encoder pulse signal may be a pulse signal output from the linear encoder 70 or a signal corresponding to an integer multiple of the pulse signal.
- photoacoustic image information and ultrasonic image information are generated for each scan line while moving the photoacoustic probes 11 and 21 in the second direction.
- Two-dimensional scanning can also be performed while generating image information.
- the composite image input device 1 of a photoacoustic image and an ultrasound image may include an output selection unit that selects a laser pulse output or an ultrasound output to be output.
- the output selector may select to output a laser pulse output through the laser probe 11 or output an ultrasonic pulse output through the ultrasonic probe 21 according to the output selection signal generated by the main control unit 40.
- the output selection unit is included inside the pulse signal generator 60, and can be controlled so that the reference pulse signal is output to the laser generator 10 or to the trigger control unit 50 according to the output selection signal input from the main control unit 40. there is.
- the main control unit 40 generates and outputs an output selection signal for laser output or ultrasonic output
- the pulse signal generator 60 generates and outputs a reference pulse signal according to the output selection signal to the trigger control unit 50 for ultrasonic output or the laser output. It can be output using the laser generator 10 for output.
- the composite image input device 1 of the photoacoustic image and the ultrasound image may further include a second linear encoder that generates a linear encoder pulse signal corresponding to the second direction linear motion information of the photoacoustic probes 11 and 12. You can.
- the composite image input device 1 of the photoacoustic image and the ultrasound image includes the plane coordinate values of the photoacoustic probes 11 and 12 determined by the first direction linear motion information and the second direction linear motion information and the plane coordinates thereof. It may further include a memory that stores photoacoustic image information in the values, plane coordinate values of the photoacoustic probes 11 and 12, and ultrasonic image information for the inspection object in the plane coordinate values.
- the composite image input device 1 of a photoacoustic image and an ultrasound image can be implemented by the composite image input device 2 of an optical resolution type photoacoustic image and an ultrasound image schematically shown in FIG. 4 .
- the composite image input device (2) of the photoacoustic image and ultrasound image is a laser pulse generated from the laser generator (L/G) through a half wave plate (HWP), variable beam splitter/attenuator (VBA), and ), passes through a fiber coupler (FC), is transmitted through a polarization-maintaining single-mode fiber (PM-SMF), and can be irradiated to the inspection object by a laser probe.
- the laser probe includes a ferrule coupled to the end of the polarizing fiber, a band pass filter (BPF), first and second objective lenses (OL1 & OL2), and a corrective lens (CL). may include.
- the ultrasonic pulse generated from the ultrasonic transceiver can be irradiated to the test object through the ultrasonic probe (SFT), and the first and second ultrasonic inputs generated from the test object are 1 It can be input to an ultrasonic transceiver (Pulser/Receiver, P/R) through an ultrasonic probe (SFT) and a second ultrasonic probe (not shown).
- the ultrasonic image signal input through the ultrasonic transceiver (P/R) is input to the signal processing device (S/P) corresponding to the analog-to-digital converter 30 and the main control unit 40, and is converted into a photoacoustic image signal and an ultrasonic image signal. is created, and a composite image can be created.
- the composite image can be displayed on the monitor (DIS) so that the user can easily identify it.
- the laser pulse output and ultrasonic pulse output are irradiated to the inspection object through an optical-acoustic beam combiner (OABC), or the first ultrasonic input generated from the inspection object is an optical-acoustic beam combiner (OABC).
- OABC optical-acoustic beam combiner
- SFT ultrasonic probe
- the ultrasonic pulse output, first ultrasonic input, and second ultrasonic input may output or input water contained in a water dish as a medium, and a plastic membrane (PMB) may be disposed on the upper and lower surfaces of the water dish.
- PMB plastic membrane
- the photoacoustic probe may be transferred in the first direction and/or the second direction by the transfer stage when scanning the inspection object, and the operation of the transfer stage may be controlled by the motion controller (M/C).
- M/C motion controller
- the composite image input method of the photoacoustic image and the ultrasound image is to synthesize the photoacoustic image and the ultrasound image using the composite image input device 1 of the photoacoustic image and the ultrasound image by the method described above. Video can be obtained.
- the composite image input method of the photoacoustic image and the ultrasound image is a method in which the composite image is generated by the photoacoustic image signal shown in the timing diagram of FIG. 5 and the ultrasonic image signal shown in the timing diagram of FIG. 6. Photoacoustic and ultrasound composite images are obtained according to the method by which the composite image is generated.
- FIG. 8 shows examples of images of laboratory rats input and generated by the composite image input device 1 of the photoacoustic image and ultrasound image of FIG. 1.
- the upper row shows images before (Pre-injection) injection of cancer cells into experimental mice
- the lower row shows images after (Post-injection) injection of cancer cells into experimental mice.
- a photograph of the test object an ultrasound image (US image), a photoacoustic image (PA image), and a composite image (Merged image) are shown in order.
- the structure of the test object can be clearly identified in the ultrasound image (US image), and the image centered on the blood vessels of the test object can be well identified in the photoacoustic image (PA image). You can.
- the merged image compared to the photoacoustic image, which only shows the distribution of blood vessels, the structure is displayed together, so it can be seen that how the blood vessels in a certain part of the test object are distributed is clearly shown. This appearance can be displayed on the monitor (DIS) of FIG. 4 so that the user can easily identify it.
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Animal Behavior & Ethology (AREA)
- Pathology (AREA)
- Veterinary Medicine (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Public Health (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Acoustics & Sound (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
Abstract
본 발명의 일 실시예에 따른 광음향 영상 및 초음파 영상의 합성 영상 입력장치는, 프로브의 제1방향 직선이동과 제2 방향 직선이동에 의하여 검사 대상체를 2차원 스캐닝하여 3차원 영상정보를 생성하는 것으로, 프로브를 검사 대상체에 대하여 제1 방향 또는 제2 방향으로 직선운동시키는 이송부; 검사 대상체에 레이저 펄스 출력을 출력하고, 검사 대상체로부터 나오는 초음파 입력을 입력받아 광음향 영상 신호를 생성하는 광음향 입력부; 검사 대상체에 초음파 출력을 출력하고, 검사 대상체로부터 나오는 초음파 입력을 입력받아 초음파 영상 신호를 생성하는 초음파 입력부; 광음향 영상 신호 및 초음파 영상 신호를 각각 입력받아 각각 디지털 영상신호로 변환하는 아날로그 디지털 변환부; 및 디지털 영상신호를 입력받아 검사 대상체에 대한 광음향 영상정보 및 초음파 영상정보를 합성하여 광음향 초음파 합성영상을 생성하는 메인 제어부를 구비하고, 검사 대상체에 레이저 펄스 출력이 포커싱되는 제1 위치와 초음파 출력이 포커싱되는 제2 위치가 설정된 이격 거리 만큼 떨어질 수 있다.
Description
본 발명은 광음향 영상 및 초음파 영상의 합성영상 입력장치 및 그 방법에 관한 것으로, 보다 상세하게는 광음향 프로브(probe)와 초음파 프로브를 일체로 고속으로 움직이면서 검사 대상체(피검체)의 내부에 대한 광음향 영상과 초음파 영상 영상이 합성된 광음향 초음파 합성영상을 생성할 수 있는 광음향 영상 및 초음파 영상의 합성영상 입력장치 및 그 방법에 관한 것이다.
어떤 대상체에 매우 큰 에너지를 갖는 광을 조사(irradiation)하면 광 에너지를 흡수한 대상체는 열적으로 탄성 팽창(thermally elastic expansion)을 하게 되는데, 이러한 탄성 팽창으로 인해 압력파(pressure wave)가 발생되며 발생된 압력파는 초음파(ultrasonic wave)의 형태를 띤다. 이러한 현상을 소위 '광음향 효과(photo-acoustic effect)'라 하며, 이러한 팽창으로 인해 발생되는 초음파 신호를 광음향 신호라 한다.
광음향 효과를 이용하여 대상체, 특히 대상체 내부의 상태 정보를 획득하여 이를 영상 정보로 생성하는 기법이 최근 각광을 받고 있는데, 특히 의학 분야에서 이에 대한 많은 연구가 이루어지고 있다. 의학 분야에서는 질병의 치료 과정에서 생체 내부의 상태 정보를 가시적으로 확인해야 하는 경우가 있는데, 현재 생체 내부의 영상 정보의 생성 방식으로 많이 활용되고 있는 툴(tool)로는, 이미 잘 알려진 바와 같이, X-ray, CT, MRI 등이 있다. 하지만 이들 방식은 장비가 고가이거나 생성된 영상의 해상도가 매우 낮거나 시계(FOV, Field of View)가 협소하거나 영상 구현에 소요되는 시간이 길거나 지속적 사용으로 인해 오히려 인체에 해가 될 수 있는 등 여러 문제점을 수반하고 있음이 보고되고 있다.
따라서 광음향 효과를 이용하여 생체의 내부 상태에 대한 영상정보(광음향 영상)를 생성하는 방안이 이들 방식의 대안으로 주목을 받고 있다. 특히, 광음향 영상은 인체 내부의 혈관 관련 정보를 보여줄 수 있어서 의학 분야에서 중요한 기술이 될 수 있다.
한편, 초음파 시스템은 검사 대상체에 초음파 신호를 출력하고 검사 대상체로부터 출력되는 초음파 신호를 입력받아 초음파 영상을 생성할 수 있다. 특히, 초음파 시스템은 대상체에 대해 비침습 및 비파괴 특성을 가지고 있으므로 다양한 분야에서 널리 이용되고 있다. 근래에는 초음파 시스템이 대상체의 내부 형상의 2차원 또는 3차원 영상을 생성하는데 이용되고 있다. 특히, 초음파 영상은 인체의 구조와 관련된 정보를 보여줄 수 있다.
하지만, 광음향 영상은 주로 혈관과 관련된 정보를 보여주고, 초음파 영상은 주로 구조와 관련된 정보를 보여줄 수 있다. 따라서, 인체 내부의 구조 관련 정보와 혈관 관련 정보를 동시에 보여줄 수 있는 기술이 필요하다.
본 발명의 목적은, 광음향 프로브 및 초음파 프로브를 일체로 고속으로 움직이면서, 검사 대상체의 외부 및/또는 내부에 대한 광음향 영상과 초음파 영상이 합성된 합성영상을 생성할 수 있는 광음향 영상 및 초음파 영상의 합성영상 입력장치 및 방법을 제공하는 것이다.
본 발명의 일 실시예에 따른 광음향 영상 및 초음파 영상의 합성 영상 입력장치는, 광음향 프로브 및 초음파 프로브의 제1방향 직선이동과 상기 제1방향에 실질적으로 수직인 제2 방향 직선이동에 의하여 검사 대상체를 2차원 스캐닝하여 상기 검사 대상체에 대한 3차원 영상정보를 생성하는 것으로, 상기 광음향 프로브 및 상기 초음파 프로브를 상기 검사 대상체에 대하여 상기 제1 방향 또는 상기 제2 방향으로 직선 상대운동시키는 이송부; 상기 검사 대상체에 레이저 펄스 출력을 출력하고, 상기 레이저 펄스 출력에 의하여 상기 검사 대상체로부터 나오는 제1 초음파 입력을 입력받아 광음향 영상 신호를 생성하는 광음향 입력부(10); 상기 검사 대상체에 초음파 출력을 출력하고, 상기 초음파 출력에 의하여 상기 검사 대상체로부터 나오는 제2 초음파 입력을 입력받아 초음파 영상 신호를 생성하는 초음파 입력부(20); 상기 광음향 영상 신호 및 초음파 영상 신호를 각각 입력받아 각각 디지털 영상신호로 변환하는 아날로그 디지털 변환부(30); 및 상기 디지털 영상신호를 입력받아 상기 검사 대상체에 대한 광음향 영상정보 및 초음파 영상정보를 생성하고, 상기 광음향 영상정보 및 상기 초음파 영상정보를 합성하여 광음향 초음파 합성영상을 생성하는 메인 제어부(40);를 구비하고, 상기 검사 대상체에 상기 레이저 펄스 출력이 포커싱되는 제1 위치와 상기 초음파 출력이 포커싱되는 제2 위치가 설정된 이격 거리 만큼 떨어질 수 있다.
동일한 시점 또는 동일한 데이터 입력 주기 내에서 상기 레이저 펄스 출력 및 상기 초음파 출력이 각각 상기 검사 대상체의 다른 위치에 포인트 포커싱될 수 있다.
상기 광음향 입력부(10)가, 상기 레이저 펄스 출력을 상기 검사 대상체에 출력하는 레이저 프로브(11), 및 상기 제1 초음파 입력을 입력받는 제1 초음파 프로브(12)를 포함하고, 상기 초음파 입력부(20)가, 상기 초음파 출력을 상기 검사 대상체에 출력하고, 상기 제2 초음파 입력을 입력받는 제2 초음파 프로브(21)를 포함할 수 있다.
상기 레이저 프로브(11)와 상기 제1 초음파 프로브(12)가 45도 보다 더 큰 각도로 엇갈리게 배치되고, 상기 제2 초음파 프로브(21)가 상기 레이저 프로브(11) 및 상기 제1 초음파 프로브(12) 중 어느 하나와 45도 보다 더 작은 각도로 엇갈리게 또는 실질적으로 평행하게 배치될 수 있다.
상기 레이저 프로브(11), 상기 제1 초음파 프로브(12), 및 상기 제2 초음파 프로브(21)가 하나의 하우징(201)에 설치되어 함께 이송될 수 있다.
상기 제1 위치와 상기 제2 위치가 상기 제1 방향 또는 상기 제2 방향으로 이격될 수 있다.
상기 이격 거리는, 설정된 레이저 및 초음파 출력 조건 또는 입력 조건에 대하여, 이격 거리를 달리하면서 입력된 다수의 상기 광음향 영상정보와 상기 초음파 영상정보로부터 광음향 영상과 초음파 영상의 최상의 화질 또는 화질 저하가 없는 최단 거리를 추출하여 미리 설정될 수 있다.
상기 이격 거리는, 입력되는 상기 광음향 영상정보와 상기 초음파 영상정보로부터 광음향 영상과 초음파 영상의 화질을 판단하여 최단 거리로 실시간 설정될 수 있다.
상기 이격 거리는 상기 제2 초음파 입력을 입력받는 제2 초음파 프로브(21)가 평행이동되거나 기준축을 중심으로 회전되어 제어될 수 있다.
상기 광음향 영상정보 또는 상기 초음파 영상정보가 상기 이격 거리 만큼 쉬프트 되어 합성될 수 있다.
상기 초음파 입력부(20)가 상기 초음파 출력을 생성하기 위한 초음파 출력신호(출력 채널)를 생성하고, 상기 제1 초음파 입력 및 상기 제2 초음파 입력을 각각 입력받아 각각 광음향 영상 신호와 초음파 영상 신호를 생성하는 초음파 송수신부(22);를 포함하고, 상기 초음파 송수신부는 제1 입력채널과 제2 입력채널을 포함하고, 상기 광음향 영상신호는 상기 제1 초음파 입력이 상기 제1입력 채널로 입력되어 생성되고, 상기 초음파 영상신호는 상기 제2 초음파 입력이 상기 제2입력 채널로 입력되어 생성될 수 있다.
설정된 간격의 기준 펄스 신호를 생성하여 출력하는 펄스 신호 발생기(60); 상기 광음향 프로브의 상기 제1 방향 직선 운동 정보를 생성하는 제1 리니어 엔코더; 상기 기준 펄스 신호와 상기 제1 방향 직선 운동 정보에 따라 상기 검사 대상체에 설정된 간격으로 레이저 펄스를 출력하는 레이저 발생기(13); 및 상기 기준 펄스 신호와 상기 제1 방향 직선 운동 정보에 따라 설정된 간격으로 출력 트리거 신호를 생성하는 트리거 제어부(50);를 구비할 수 있다.
상기 초음파 송수신부(20)에서, 상기 출력 트리거 신호에 따라 상기 제1 방향 직선 운동 정보에 대응되는 상기 광음향 영상 신호 및 초음파 영상 신호를 각각 생성할 수 있다.
상기 제2 초음파 프로브(21)가, 트리거 제어부(50)에서 생성되는 출력 트리거 신호에 대응되는 초음파 출력을 출력하고, 상기 출력 트리거 신호에 따라 상기 제1 방향 직선 운동 정보에 대응되는 상기 초음파 입력을 입력받을 수 있다.
상기 메인 제어부(40)에서, 광음향 디지털 영상신호를 상기 스캔 라인 단위로 제1 방향의 양의 방향 또는 음의 방향으로 상기 출력 트리거 신호의 각각의 트리거 펄스에 대응되는 상기 광음향 영상정보를 순차적으로 합성하여 상기 검사 대상체에 대한 광음향 영상정보를 생성하고,
상기 메인 제어부(40)에서, 초음파 디지털 영상신호를 상기 스캔 라인 단위로 제1 방향의 양의 방향 또는 음의 방향으로 상기 출력 트리거 신호의 각각의 트리거 펄스에 대응되는 상기 초음파 영상정보를 순차적으로 합성하여 상기 검사 대상체에 대한 초음파 영상정보를 생성할 수 있다.
상기 레이저 펄스 출력 또는 상기 초음파 출력이 동시에 출력될 수 있다.
기준 펄스 신호가 상기 트리거 제어부 및 상기 레이저 발생기로 출력될 수 있다.
1회의 상기 하우징의 상기 2차원 스캐닝에 의하여 상기 검사 대상체에 대한 3차원 영상정보를 생성하며,
각각의 스캐닝 라인 내에서 상기 제1 초음파 입력과 상기 제2 초음파 입력이 교대로 이루어질 수 있다.
본 발명의 일 실시예에 따른 광음향 영상 및 초음파 영상의 합성영상 입력방법은 위에서 설명된 방법에 의하여 광음향 영상 및 초음파 영상의 합성영상 입력장치(1)를 이용하여 광음향 및 초음파 합성영상을 획득할 수 있다.
본 발명에 따르면, 광음향 프로브 및 초음파 프로브를 일체로 고속으로 움직이면서 검사 대상체의 내부 및/또는 외부에 대한 광음향 영상과 초음파 영상을 각각 생성함으로써, 한 번의 2차원 스캔으로 빠른 시간 내에 광음향 영상과 초음파 영상을 합성한 합성영상을 생성할 수 있다.
또한, 초음파 영상에 의한 인체 내부의 구조 관련 정보와 광음향 영상에 의한 혈관 관련 정보를 하나의 영상에 동시에 보여줄 수 있으므로, 인체 내부의 질병 등의 진단에서 의사가 좀 더 정확하게 진단할 수 있도록 도와줄 수 있다.
도 1은 본 발명의 일 실시예에 따른 광음향 영상 및 초음파 영상의 합성영상 입력장치를 개략적으로 도시한 블록도이다.
도 2는 도 1의 광음향 영상 및 초음파 영상의 합성영상 입력장치에서 광음향 입력부를 개략적으로 도시한 블록도이다.
도 3은 도 1의 광음향 영상 및 초음파 영상의 합성영상 입력장치에서 초음파 입력부를 개략적으로 도시한 블록도이다.
도 4는 본 발명의 다른 실시예에 따른 광학적 해상도 타입의 광음향 영상 및 초음파 영상의 합성영상 입력장치를 개략적으로 도시한 개념도이다.
도 5는 도 1의 광음향 영상 및 초음파 영상의 합성영상 입력장치에서 광음향 영상신호에 의하여 합성영상이 생성되는 방법을 개략적으로 도시한 타이밍도이다.
도 6은 도 1의 광음향 영상 및 초음파 영상의 합성영상 입력장치에서 초음파 영상신호에 의하여 합성영상이 생성되는 방법을 개략적으로 도시한 타이밍도이다.
도 7은 도 1의 광음향 영상 및 초음파 영상의 합성영상 입력장치에서 광음향 프로브와 초음파 프로브가 일체로 설치된 영상 획득 블록을 보여주는 도면이다.
도 8은 도 1의 광음향 영상 및 초음파 영상의 합성영상 입력장치에 의하여 입력 및 생성되는 실험용 쥐에 대한 영상들의 이미지의 예를 보여주는 도면이다.
이하, 본 발명을 실시하기 위한 구체적인 내용을 본 발명의 바람직한 실시예들을 기준으로 첨부 도면을 참조하여 상세히 설명한다. 이때, 하나의 실시예의 도면에 개시된 것으로, 다른 실시예의 도면에 개시된 구성 요소와 동일한 구성 요소에 대해서는 동일한 참조 번호를 부여하고, 다른 실시예에서의 설명이 동일하게 적용될 수 있으며, 이에 대한 자세한 설명은 생략할 수 있다. 또한, 본 발명과 관련된 공지 기능 혹은 구성은 공지 기술을 참조하고, 여기서는 그에 대한 상세한 설명은 간략히 하거나 생략한다.
아울러 본 명세서에서 사용되는 용어들은 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어(general term)들이 사용되었으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 발명자가 임의로 선정한 용어도 있으며 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는 단순한 용어의 명칭이 아닌 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
본 명세서 전체에서 어떤 부분이 어떤 구성 요소를 '포함'한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있음을 의미한다. 또한, 본 명세서에서 사용되는 '부'라는 용어는 FPGA 또는 ASIC과 같은 하드웨어 구성만이 아닌 소프트웨어 구성도 의미한다. 그렇지만 '부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서 일례로서 '부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '부'들로 결합되거나 추가적인 구성요소들과 '부'들로 더 분리될 수 있다.
광음향 효과를 이용하여 대상체 예를 들어 생체 내부에 대한 광음향 영상을 생성하는 방법은 다음과 같다. 먼저, 3차원 영상을 획득하고자 하는 생체의 특정 부위에 광학 빔(beam, 예를 들어 레이저 빔)을 조사하고, 조사된 빔에 의해 그 특정 부위에서 발생하는 열적 탄성 팽창에 따라 발생하는 광음향 신호(초음파 신호)를 초음파 프로브(초음파 트랜스듀서)를 통해 획득하고, 그 획득한 광음향 신호를 소정의 신호 처리를 통해 생체 내부에 대한 3차원 광음향 영상정보를 생성하게 된다.
또한, 검사 대상체 예를 들어 생체 내부에 대한 초음파 영상을 생성하는 방법은 다음과 같다. 먼저, 3차원 영상을 획득하고자 하는 생체의 특정 부위에 초음파 빔을 조사하고, 조사된 초음파 빔에 의해 그 특정 부위에서 발생하는 초음파 신호를 초음파 프로브(초음파 트랜스듀서)를 통해 획득하고, 그 획득한 초음파 신호를 소정의 신호 처리를 통해 생체 내부에 대한 3차원 초음파 영상정보를 생성하게 된다.
본 발명의 일 실시예에 따른 고속 스캔 광음향 영상 입력장치는 광음향 현미경(photo-acoustic microscopy, PAM)을 포함할 수 있다. 또한, 광음향 현미경(PAM)의 광음향 프로브는 슬라이더 크랭크 메카니즘을 이용하여 고속으로 이동시키면서 검사 대상체를 포함한 대상 영역을 스캐닝할 수 있다. 고속 스캔 광음향 영상 입력장치는 구동 모터의 일방향 회전 운동(rotational motion)을 구동 모터와 연결된 광음향 프로브(probe)의 직선 왕복 운동(reciprocating motion)으로 전환시킬 수 있다. 또한, 광음향 프로브의 직선 운동과 직선 운동에 수직인 수직 방향 운동에 의하여 검사 대상체를 2차원 스캐닝하여 검사 대상체(피검체)에 대한 3차원 영상을 생성할 수 있다.
본 발명의 광음향 현미경(PAM)은 광학적 빔(optical beam, 예를 들어 레이저 빔)을 포커싱(focusing)하여 마이크론 스케일(micron scale)의 공간 해상도(spatial resolution)를 갖는 광학적 해상도의 광음향 현미경(Optical-Resolution PAM, OR-PAM)를 사용할 수 있다. 광학적 해상도의 광음향 현미경(OR-PAM)은 보다 타이트(tight)한 광학적 초점(optical focus)을 이용할 수 있다.
한편, 어쿠스틱 해상도의 광음향 현미경(acoustic-resolution PAM, AR-PAM)은 보다 타이트(tight)한 어쿠스틱 초점(acoustic focus)을 이용할 수 있다. 광학적 해상도의 광음향 현미경(OR-PAM)은 어쿠스틱 빔보다 훨씬 더 타이트한 광학적 빔에 의존하기 때문에, 어쿠스틱 해상도의 광음향 현미경(AR-PAM)에 비하여 고해상도의 영상을 얻을 수 있는 장점이 있다. 아울러 풍부한 광학적 흡수 대비도(rich optical absorption contrast)를 갖기에 많은 분야 예를 들어 생물학(biology), 피부 과학(dermatology), 신경학(neurology), 종양학(oncology), 안과학(ophthalmology) 및 병리학(pathology) 등 의학과 관련된 대부분의 분야에서 유력한 영상화 수단(imaging tool)이 될 수 있다.
광학적 해상도의 광음향 현미경(OR-PAM)은 신호대 잡음비(signal-to-noise ratio, SNR)의 최대화와 공간 해상도의 최적화(optimizing)를 얻기 위하여, 공초점(confocal) 및 광학적 여기 빔(optical excitation beam)과 어쿠스틱 감지 빔(acoustic detection beam)의 동축 구성(coaxial configuration)을 적용할 수 있다. 공간 영상화(volumetric imaging)는 전형적으로 광학적 및 어쿠스틱 빔의 점대점 래스터 스캐닝(point-by-point raster scanning)에 의해 이루어지며, 이를 위하여 스테핑 모터 스캐닝 스테이지(stepping motor scanning stage)가 적용될 수 있다.
마이크론 레벨 수준의 수평 해상도(lateral resolution)에 의해 요구되는 스캐닝 스텝 간격(scanning step size) 때문에 광학적 해상도의 광음향 현미경(OR-PAM)의 스캐닝 속도(이에 따른 영상화 속도)와 스캐닝 범위(scanning range)는 낮을 수 있다(1[mm] 스캐닝 범위에서 대략 1[Hz]의 B-scan rate). 이러한 낮은 영상화 속도 때문에 광학적 해상도의 광음향 현미경(OR-PAM)에 의한 변하는 약물 반응(transient drug response)과 피부 맥관 구조(skin vasculature)와 같은 조직의 동적 정보(tissue's dynamic information)의 획득은 그간 용이하지 않았다.
한편, 광학적 해상도의 광음향 현미경(OR-PAM)의 스캐닝 범위에 해당하는 관측 시야(Field of view, FOV)를 향상시키고, 스캐닝 속도를 증가 또는 스캐닝 소요 시간(scanning time)을 단축시키며, 아울러 높은 신호대 잡음비(SNR)를 유지하기 위한 다양한 방법이 있을 수 있는데, 광학적 해상도의 광음향 현미경(OR-PAM)의 구현을 위해서는 이들 세가지 특성의 트레이드-오프(trade-off)가 요구되며 이러한 트레이드-오프는 이들 세 특성을 모두 만족시키는 광학적 해상도의 광음향 현미경(OR-PAM)의 구현을 어렵게 하는 요소로 작용할 수 있다. 왜냐하면 스캐닝 소요 시간은 레이저의 펄스 반복 속도(pulse repetition rate)와 스캐닝 메커니즘에 좌우됨과 아울러 조직 내에서의 광음향파(PA wave)의 음속(sound speed)에 의해 제한되기 때문이다.
도 1에는 본 발명의 일 실시예에 따른 광음향 영상 및 초음파 영상의 합성영상 입력장치의 블록도가 개략적으로 도시되어 있다. 도 2에는 도 1의 합성영상 입력장치(1)에서 광음향 입력부(10)의 블록도가 되시되어 있다. 도 3에는 도 1의 합성영상 입력장치(1)에서 초음파 입력부(20)의 블록도가 되시되어 있다. 도 4에는 본 발명의 다른 실시예에 따른 광학적 해상도 타입의 광음향 영상 및 초음파 영상의 합성영상 입력장치의 개념도가 개략적으로 도시되어 있다.
도 5에는 도 1의 합성영상 입력장치에서 광음향 영상신호에 의하여 합성영상이 생성되는 방법을 나타내는 타이밍도가 도시되어 있다. 도 6에는 도 1의 합성영상 입력장치에서 초음파 영상신호에 의하여 합성영상이 생성되는 방법을 나타내는 타이밍도가 도시되어 있다.
도면을 참조하면, 광음향 영상 및 초음파 영상의 합성영상 입력장치(1)는 광음향 프로브(11, 12)와 초음파 프로브(21)를 일체로 제1방향 직선운동과 제1방향 직선운동에 실질적으로 수직인 제2 방향 직선운동에 의하여 검사 대상체를 2차원 스캐닝하여 검사 대상체에 대한 3차원의 광음향 및 초음파 합성영상을 생성할 수 있다.
본 발명에 따르면, 합성영상 입력장치(1)는 광음향 프로브 및 초음파 프로브를 일체로 고속으로 움직이면서 검사 대상체의 내부 및/또는 외부에 대한 광음향 영상과 초음파 영상을 각각 생성하여 합성함으로써, 한 번의 2차원 스캔으로 빠른 시간 내에 광음향 영상과 초음파 영상을 합성한 합성 영상을 생성할 수 있다.
합성영상 입력장치(1)는 광음향 프로브와 초음파 프로브를 각각 구비하고 검사 대상체의 서로 다른 포인트에서 광음향 영상과 초음파 영상을 각각 획득하므로, 광음향 입력 신호와 초음파 입력 신호의 간섭 없이 광음향 영상과 초음파 영상을 입력받을 수 있게 된다. 따라서, 합성영상 입력장치(1)는 1회의 2차원 스캔으로 신속하게 광음향 영상과 초음파 영상을 입력받을 수 있게 된다.
이때, 광음향 프로브는, 검사 대상체(100)에 레이저 출력을 출력하는 레이저 프로브(11)와, 레이저 프로브(11)의 레이저 출력에 의하여 검사 대상체(100)로부터 나오는 제1 초음파 입력을 입력받는 제1 초음파 프로브(12)를 포함할 수 있다. 또한, 초음파 프로브는 검사 대상체에 초음파 출력을 출력하고, 초음파 출력에 의하여 검사 대상체로부터 나오는 제2 초음파 입력을 입력받아 초음파 영상 신호를 생성하는 제2 초음파 프로브(21)를 포함할 수 있다.
광음향 영상 및 초음파 영상의 합성 영상 입력장치(1)는 이송부; 광음향 입력부(10); 초음파 입력부(20); 아날로그 디지털 변환부(30); 및 메인 제어부(40)를 포함할 수 있다.
이송부는 광음향 프로브 및 초음파 프로브를 검사 대상체(100)에 대하여 제1 방향 및/또는 제2 방향으로 직선 상대운동시킬 수 있다. 이송부는 광음향 프로브와 초음파 프로브를 일체로 이동시키거나, 검사대상체가 고정된 스테이지를 이동시키도록 구현될 수 있다.
광음향 입력부(10)는 검사 대상체(100)에 레이저 펄스 출력을 출력하고, 레이저 펄스 출력에 의하여 검사 대상체(100)로부터 나오는 광음향 입력에 해당하는 제1 초음파 입력을 입력받아 광음향 영상 신호를 생성할 수 있다. 이때, 레이저 펄스 출력은 광음향 출력이 될 수 있으며, 제1 초음파 입력은 광음향 입력이 될 수 있다.
초음파 입력부(20)는 검사 대상체(100)에 초음파 출력을 출력하고, 초음파 출력에 의하여 검사 대상체(100)로부터 나오는 제2 초음파 입력을 입력받아 초음파 영상 신호를 생성할 수 있다. 아날로그 디지털 변환부(30)는 광음향 영상 신호 및 초음파 영상 신호를 각각 입력받아 각각 디지털 영상신호로 변환할 수 있다. 이때, 디지털 영상신호는 광음향 디지털 영상신호 및 초음파 디지털 영상신호를 포함할 수 있다.
메인 제어부(40)는 디지털 영상신호를 입력받아 검사 대상체(100)에 대한 광음향 영상정보 및 초음파 영상정보를 생성하고, 광음향 영상정보 및 초음파 영상정보를 합성하여 광음향 초음파 합성영상을 생성할 수 있다.
검사 대상체(100)에 레이저 펄스 출력이 포커싱되는 제1 위치와 초음파 출력이 포커싱되는 제2 위치가 설정된 이격 거리 만큼 떨어질 수 있다. 이때, 레이저 펄스 출력 및 초음파 출력 각각은 포인트 포커싱 되어 한번의 영상 입력시의 해상도를 향상시킬 수 있다.
따라서, 합성영상 입력장치(1)에서는 레이저 펄스 출력이 포커싱되는 제1 위치와 초음파 출력이 포커싱되는 제2 위치가 이격되도록 함으로써, 1회의 2차원 스캐닝으로 짧은 시간 내에 광음향 및 초음파 합성영상을 얻으면서도 광음향 영상과 초음파 영상이 서로 간섭이 없는 합성영상을 얻을 수 있다.
이송부는 도 4의 모션제어기 및 이송 스테이지를 포함할 수 있다. 이때, 이송 스테이지는 도 7의 하우징(201) 내부에 광음향 프로브 및 초음파 프로브를 설치하고, 하우징(201)을 제1 방향 및/또는 제2 방향으로 직선운동시킬 수 있다.
또한, 이송부는 광음향 프로브 및 초음파 프로브의 직선 이동량을 측정할 수 있는 리니어 엔코더(70)를 포함하여, 광음향 프로브 및 초음파 프로브의 제1 방향 및 제2 방향의 직선 이동량을 각각 측정할 수 있다. 이를 위하여, 리니어 엔코더(70)는 광음향 프로브 및 초음파 프로브의 제1 방향 직선 운동 정보를 생성하는 제1 리니어 엔코더; 및 광음향 프로브 및 초음파 프로브의 제2 방향 직선 운동 정보를 생성하는 제2 리니어 엔코더를 포함할 수 있다.
광음향 입력부(10)는, 도 2에 도시된 바와 같이, 레이저 출력을 생성하는 레이저 발생기(13), 레이저 출력을 검사 대상체에 출력하는 레이저 프로브(11), 검사 대상체로부터 생성된 제1 초음파 입력을 입력받는 제1 초음파 프로브(12), 및 제1 초음파 입력을 입력받아 광음향 영상 신호를 생성하는 초음파 수신부(14)를 포함할 수 있다. 이때, 레이저 출력은 레이저 펄스 출력이 될 수 있다.
초음파 입력부(20)는, 도 3에 도시된 바와 같이, 초음파 출력을 검사 대상체(100)에 출력하고, 제2 초음파 입력을 입력받는 제2 초음파 프로브(21), 및 초음파 출력을 생성하기 위한 초음파 출력신호를 생성하고, 제2 초음파 입력을 입력받아 초음파 영상 신호를 생성하는 초음파 송수신부(22)를 포함할 수 있다.
이때, 초음파 송수신부(22)는 제1 입력채널과 제2 입력채널, 및 제1 출력채널을 포함할 수 있다. 광음향 영상신호는 제1 초음파 입력이 제1입력 채널로 입력되어 생성되고, 초음파 영상신호는 제2 초음파 입력이 제2입력 채널로 입력되어 생성될 수 있다. 이 경우, 초음파 송수신부(22)는 광음향 입력부(10)의 초음파 수신부(14)를 포함할 수 있다. 또한, 초음파 송수신부(22)에서 생성된 초음파 출력은 제1 출력채널을 통하여 출력될 수 있다. 이때, 초음파 입력은 초음파 펄스 입력이 될 수 있다. 초음파 출력은 초음파 펄스 출력이 될 수 있다.
초음파 송수신부(22)는 초음파 출력을 생성하기 위한 초음파 출력신호를 생성하고, 제1 초음파 입력 및 제2 초음파 입력을 각각 입력받아 각각 광음향 영상신호와 초음파 영상신호를 생성할 수 있다. 이때, 광음향 영상신호는 제1 초음파 입력으로부터 생성되고, 초음파 영상신호는 제2 초음파 입력으로부터 생성될 수 있다. 초음파 송수신부(22)는 초음파 펄스를 생성하여 초음파 프로브(21)를 통하여 출력하고, 검사 대상체로부터 반사되는 초음파 신호를 초음파 프로브(21)를 통하여 입력받는 펄서(pulser)/리시버(receiver)를 포함하며, 입력된 초음파 신호를 증폭하는 증폭기를 더 포함할 수 있다.
아날로그 디지털 변환부(30)는 초음파 송수신부(20)로부터 광음향 영상신호 및 초음파 영상신호를 각각 입력받아 각각 디지털 영상신호로 변환할 수 있다. 이때, 디지털 영상신호는 아날로그 광음향 영상신호가 디지털로 변환된 디지털 광음향 영상과 아날로그 초음파 영상신호가 디지털로 변환된 디지털 초음파 영상신호를 포함할 수 있다.
메인 제어부(40)는 아날로그 디지털 변환부(30)로부터 디지털 광음향 영상신호와 디지털 초음파 영상신호를 각각 입력받아 검사 대상체의 광음향 영상정보 및 초음파 영상정보를 생성하고, 광음향 영상정보 및 초음파 영상정보를 합성하여 광음향 초음파 합성영상을 생성할 수 있다. 이때, 디지털화된 광음향 영상정보 및 초음파 영상정보 각각은 검사 대상체의 각각의 위치 정보와 그 위치 정보에 대응되는 디지털 영상정보를 포함할 수 있다.
따라서, 검사 대상체에서 각각의 위치 정보에 대응되는 광음향 영상정보와 초음파 영상정보를 생성하고 이를 합성하여 각각의 위치 정보에 대응되는 광음향 초음파 합성영상을 생성할 수 있게 된다. 메인 제어부(40)는 하나의 디스플레이(예를 들어, 모니터)에 검사 대상체의 광음향 영상과 초음파 영상을 동시에 디스플레이할 수 있다.
이 경우, 사용자는 모니터를 통하여 검사 대상체에 대한 광음향 영상과 초음파 영상을 한꺼번에 확인할 수 있게 된다. 그에 따라, 광음향 영상 및 초음파 영상의 합성 영상 입력장치(1)는 광음향 및 초음파 합성영상을 통하여 인체 내부의 구조 관련 정보와 혈관 관련 정보를 동시에 보여줄 수 있게 된다. 즉, 사용자는 하나의 화면에서 광음향 영상을 통하여 혈관과 관련된 정보를 확인하면서, 동시에 초음파 영상을 통하여 구조와 관련된 정보를 확인할 수 있게 된다.
초음파 송수신부(22)는 초음파 펄스 신호를 생성하여 초음파 프로브(21)를 통하여 출력하는 펄서(pulser)와 검사 대상체로부터 생성된 초음파 신호를 초음파 프로브(21)를 통하여 입력받는 리시버(receiver)를 포함할 수 있다. 즉, 초음파 송수신부(22)가 초음파 펄스를 출력할 수 있는 초음파 펄서(pulser)를 포함함으로써, 통상의 광음향 입력장치에서와는 달리 별도의 초음파 펄스를 초음파 프로브(21)를 통하여 검사 대상체로 출력할 수 있다.
또한, 검사 대상체로부터 입력받는 초음파 입력은 레이저 펄스 출력에 의하여 검사 대상체에서 생성되는 제1 초음파 입력 또는 초음파 펄스 출력에 의하여 검사 대상체에서 생성되는 제2 초음파 입력이 될 수 있다.
즉, 본 발명의 일 실시예에 따른 광음향 영상 및 초음파 영상의 합성 영상 입력장치(1)에서는 광음향 프로브(11, 21)에 포함되는 초음파 프로브(21)는, 검사 대상체로부터 출력되는 초음파 신호를 입력받아 초음파 수신부로 전송하는 통상의 광음향 프로브와는 달리, 초음파 송수신부(22)에서 생성된 초음파 출력신호에 따른 초음파 출력을 검사 대상체로 출력할 수 있다.
따라서, 본 발명의 일 실시예에 따른 초음파 프로브(21)는, 레이저 펄스 출력에 따라 검사 대상체에서 생성되는 초음파 신호를 초음파 송수신부(22)를 통하여 입력받아 광음향 영상을 생성하도록 할 뿐만 아니라, 초음파 송수신부(22)에서 생성된 초음파 출력신호에 따른 초음파 출력을 검사 대상체로 출력하고 그에 따라 검사 대상체에서 생성된 초음파 신호를 초음파 송수신부(22)를 통하여 입력받아 초음파 영상을 생성하도록 할 수 있다.
이때, 본 발명의 일 실시예에 따른 합성 영상 입력장치(1)에서는 광음향 영상신호를 입력받는 제1 위치와 초음파 영상신호를 입력받는 제2 위치를 다르게 할 수 있다. 즉, 동일한 시점 또는 동일한 데이터 입력 주기 내에서 레이저 펄스 출력 및 초음파 출력이 각각 검사 대상체의 다른 위치에 포인트 포커싱되도록 할 수 있다.
이 경우, 레이저 펄스 출력이 출력되는 타이밍과 초음파 펄스 출력이 출력되는 타이밍을 구분할 필요없이 제1 위치와 제2 위치를 다르게 함으로써 제1 초음파 입력과 제2 초음파 입력의 신호 간섭을 방지할 수 있다.
즉, 합성 영상 입력장치(1)에서는 초음파 프로브(21)가 레이저 펄스 출력에 따라 검사 대상체에서 생성되는 초음파 신호(제1 초음파 입력)를 입력받는 타이밍과 초음파 펄스 출력에 따라 검사 대상체에서 생성되는 초음파 신호(제2 초음파 입력)를 입력받는 타이밍을 구분하여 입력받을 필요가 없다.
따라서, 광음향 영상과 초음파 영상을 동시에 입력받을 수 있으며, 합성영상 입력 시간을 단축할 수 있다. 특히, 합성 영상 입력장치(1)에서와 같이 광음향 프로브 및 초음파 프로브를 빠른 속도로 움직이면서 스캐닝 하는 경우에도 해상도의 저하없는 영상을 입력받을 수 있게 된다.
도 7에는 도 1의 합성영상 입력장치(1)에서 광음향 프로브와 초음파 프로브가 일체로 설치된 영상 획득 블록(200)이 도시되어 있다.
도면을 참조하면, 영상 획득 블록(200)은 상부 지지블록(210)과 하부 지지블록(220)을 포함하여 이루어진 하우징(201)에 광음향 프로브와 초음파 프로브가 설치되어, 합성영상 입력을 위한 스캐닝 작동 시에 광음향 프로브와 초음파 프로브가 함께 이동될 수 있다. 이때, 광음향 프로브는 레이저 프로브(11) 및 제1 초음파 프로브(12)를 포함하고, 초음파 프로브는 제2 초음파 프로브(21)를 포함할 수 있다. 이 경우, 스캔 시에 레이저 출력부(11), 제1 초음파 프로브(12), 및 제2 초음파 프로브(21)가 하나의 하우징(210)에 설치되어 함께 이송될 수 있다.
광음향 프로브를 형성하는 레이저 프로브(11)와 제1 초음파 프로브(12)는 45도 보다 더 큰 각도 예를 들어 90도로 엇갈리게 배치될 수 있다. 영상 획득 블록(200)의 하면에 검사 대상체(100)가 배치되는 경우에, 레이저 프로브(11)가 상하 방향으로 배치되어, 레이저 출력이 위에서 아래로 통과되어 검사 대상체(100)에 도달하고, 검사 대상체(100)에서 생성된 초음파 입력이 하부 지지블록(220)의 내부로 입력되고, 그 내부에 배치되는 하프 미러를 통하여 경로가 변경되어 제1 초음파 프로브(12)로 입력될 수 있다.
제2 초음파 프로브(21)는 레이저 출력부(11) 및 상기 제1 초음파 프로브(12) 중 어느 하나와 45도 보다 더 작은 각도로 엇갈리게 또는 실질적으로 평행하게 배치될 수 있다. 도면에 도시된 실시예에서는 제2 초음파 프로브(21)는 레이저 출력부(11)와 평행하게 배치될 수 있다.
이 경우, 레이저 출력부(11)의 포커싱 위치인 제1 위치와 제2 초음파 프로브(21)의 포커싱 위치인 제2 위치의 수평으로 이격된 거리만큼 이격 거리가 설정되고, 레이저 출력부(11)의 레이저 출력과 제2 초음파 프로브(21)의 초음파 출력이 동시에 가해지는 경우에도 이격 거리에 의하여 2개 신호의 간섭없이 동시에 광음향 영상과 초음파 영상을 얻을 수 있게 된다.
다른 실시예로서, 하우징(201)의 상면에 제1 초음파 프로브(12)와 제2 초음파 프로브(21)가 상면으로부터 하면 방향으로 실질적으로 평행하게 배치될 수도 있다. 이 경우, 하우징(201)의 제1 초음파 프로브(12) 부근의 측면에 직각으로 배치될 수 있다.
도 7에서, 레이저 프로브(11) 및 제2 초음파 프로브(21)는, 레이저 출력이 포커싱되는 제1 위치와 초음파 출력이 포커싱되는 제2 위치는 스캐닝되는 제1 방향 및/또는 제1 방향과 수직인 제2 방향으로 이격되도록, 배치될 수 있다. 이 경우, 영상 획득 블록(200)이 도 4의 이송 스테이지(M/S)에 고정되어 정해진 영역에 대해서 2차원 스캐닝할 수 있다.
영상 획득 블록(200)이 제1 방향으로 이송되면서 n번째의 라인에 대한 스캐닝이 완료되면, 영상 획득 블록(200)이 제2 방향으로 설정된 스텝 간격으로 이송되고 제1 방향의 반대방향으로 이송되면서 n+1번째 라인에 대한 스캐닝이 완료되고, 제2 방향으로 설정된 거리 및 횟수 만큼 이송되면 2차원 스캐닝이 완료될 수 있다.
일 실시예로서, 영상 획득 블록(200)이 이송 스테이지(M/S)에 레이저 프로브(11)가 제2 초음파 프로브(21)로 제1 방향으로 이격되게 설치될 수 있다. 이 경우, 제1 위치와 제2 위치가 제1 방향으로 이격될 수 있다. 이 경우, 제1 위치와 제2 위치가 동일한 n번째 스캔 라인에서 이격 거리만큼 이격될 수 있다.
다른 실시예로서, 영상 획득 블록(200)이 이송 스테이지(M/S)에 레이저 프로브(11)가 제2 초음파 프로브(21)로 제2 방향으로 이격되게 설치될 수 있다. 이 경우, 제1 위치와 제2 위치가 제2 방향으로 이격될 수 있다. 이 경우, 제1 위치와 제2 위치가 서로 다른 스캔 라인에서 설정된 스캔 라인 수에 의하여 형성되는 이격 거리만큼 이격될 수 있다.
일 실시예로서, 이격 거리는 설정된 레이저 및 초음파 출력 조건 또는 입력 조건에 대하여, 이격 거리를 달리하면서 입력된 다수의 광음향 영상정보와 초음파 영상정보로부터 광음향 영상과 초음파 영상의 최상의 화질(예를 들어 선명도) 또는 화질 저하가 없는 최단 거리를 추출하여 미리 설정될 수 있다.
다른 실시예로서, 이격 거리는 입력되는 광음향 영상정보와 초음파 영상정보로부터 광음향 영상과 초음파 영상의 화질(예를 들어 선명도)을 판단하여 최단 거리로 실시간 설정될 수 있다.
이격 거리의 변경은 제2 초음파 프로브(21)의 위치가 수평이동하거나 회전되도록 제어될 수 있다. 일 실시예로서, 제2 초음파 프로브(21)의 위치가 수평이동되어 이격 거리가 변경되도록 제어될 수 있다. 이 경우, 이격 거리의 정확한 제어가 용이할 수 있다. 다른 실시예로서, 제2 초음파 프로브(21)가 기준축을 중심으로 회전되어 이격 거리가 변경되도록 제어될 수 있다. 이 경우, 이격 거리의 작은량의 각도 조절로 제어가 가능할 수 있다.
다른 실시예로서, 1회의 하우징의 2차원 스캐닝에 의하여 검사 대상체에 대한 3차원 영상정보를 생성하며, 각각의 스캐닝 라인 내에서 제1 초음파 입력과 제2 초음파 입력이 시간차를 두고서 교대로 이루어질 수 있다.
이때, 합성 영상은 광음향 영상정보 또는 상기 초음파 영상정보가 이격 거리 만큼 쉬프트 되어 합성함으로써 생성될 수 있다.
도 1에 도시된 바와 같이 광음향 영상 및 초음파 영상의 합성 영상 입력장치(1)는 광음향 입력부(10), 초음파 입력부(20), 아날로그 디지털 변환부(30), 및 메인 제어부(40), 트리거 제어부(50), 펄스 신호 발생기(60), 리니어 엔코더(70)를 포함할 수 있다.
펄스 신호 발생기(60)는 설정된 간격(예를 들어, 일정한 시간 간격)의 기준 펄스 신호를 생성하여 출력할 수 있다. 리니어 엔코더(70)는 제1 방향의 직선 운동 정보를 생성하는 제1 리니어 엔코더와 제1 방향과 실질적으로 수직인 제2 방향 직선 운동 정보를 생성하는 제2 리니어 엔코더를 포함할 수 있다. 리니어 엔코더(70)는 광음향 프로브(11, 12)의 제1 방향 직선 운동 정보에 해당하는 리니어 엔코더 펄스 신호를 생성할 수 있다.
레이저 발생기(10)는 기준 펄스 신호와 제1 방향 직선 운동 정보에 해당하는 리니어 엔코더 펄스 신호에 따라 검사 대상체에 설정된 간격(예를들어, 일정한 위치 및/또는 시간)으로 레이저 펄스를 출력할 수 있다. 도 5에 도시된 바와 같이, 레이저 펄스는 리니어 엔코더 펄스 신호가 입력 후의 기준 펄스 신호에 동기되도록 생성될 수 있다.
이 경우, 레이저 발생기(10)에서 리니어 엔코더 펄스 신호와 펄스 신호 발생기(60)에서 생성된 기준 펄스 신호에 따라 레이저 펄스를 출력하므로, 별도의 스캐닝 트리거 없이 정확한 위치 정보에 대응되는 광음향 영상 정보를 생성할 수 있게 된다.
한편, 트리거 제어부(50)는 기준 펄스 신호와 제1 방향 직선 운동 정보에 해당하는 리니어 엔코더 펄스 신호에 따라 설정된 간격(예를 들어, 일정한 위치 및/또는 시간)으로 출력 트리거 신호를 생성할 수 있다. 도 5 및 도 6에 도시된 바와 같이, 해당 스캐닝 라인(n번째 스캐닝 라인)에서는 첫 번째 출력 트리거 신호가 초음파 개시신호로 사용되고, 초음파 개시신호 입력 후 미리 설정된 개수의 초음파 입력이 이루어질 수 있게 된다. 이 경우, 도 5에 도시된 바와 같이 출력 트리거 신호는 리니어 엔코더 펄스 신호와 기준 펄스 신호에 동기되어 생성되므로, 초음파 입력에 의한 초음파 영상정보에는 정확한 위치 정보에서의 초음파 영상정보가 포함될 수 있게 된다.
초음파 송수신부(22)는 출력 트리거 신호에 대응되는 초음파 출력 신호를 생성하고, 초음파 프로브(21)는 초음파 출력 신호에 따라 초음파 펄스 출력을 작업 대상물(100)에 조사한다. 그에 따라, 작업 대상물(100)에서는 초음파 입력이 출력되고, 초음파 송수신부(22)에서 초음파 프로브(21)를 통하여 초음파 입력을 입력받아 아날로그 디지털 변환부(30)로 디지털 초음파 영상신호를 출력하게 된다. 메인 제어부(40)에서는 디지털 초음파 영상신호를 입력받아 각각의 위치 정보와 결합하여 초음파 영상을 생성하고, 각각의 위치 정보와 결합하여 생성된 광음향 영상과 합성하여 합성영상을 생성하게 된다.
이때, 초음파 송수신부(22)에서는 출력 트리거 신호에 따라 제1 방향 직선운동 정보에 대응되는 광음향 영상신호 및 초음파 영상신호를 각각 생성할 수 있게 되고, 정확한 위치에서 광음향 영상신호와 초음파 영상신호의 합성영상이 생성될 수 있게 된다. 초음파 송수신부(22)는 광음향 입력부(10)의 초음파 수신부(14)를 포함하여 하나의 장치로 사용될 수 있다.
초음파 프로브(21)는 트리거 제어부(50)에서 생성되는 출력 트리거 신호에 대응되는 초음파 출력을 출력하고, 출력 트리거 신호에 따라 제1 방향 직선 운동 정보에 대응되는 상기 초음파 입력을 입력받을 수 있게 된다.
메인 제어부(40)는 스캔 라인 단위로 제1 방향의 양의 방향 또는 음의 방향으로 출력 트리거 신호의 각각의 트리거 펄스에 대응되는 광음향 영상정보를 순차적으로 합성하여 검사 대상체에 대한 광음향 영상정보를 생성하고, 동일한 스캔 라인 단위로 제1 방향의 양의 방향 또는 음의 방향으로 출력 트리거 신호의 각각의 트리거 펄스에 대응되는 상기 초음파 영상정보를 순차적으로 합성하여 검사 대상체에 대한 초음파 영상정보를 생성하고, 동일한 스캔 라인 내에서 출력 트리거 신호에 포함된 위치 정보(리니어 엔코더 펄스 신호)에 따라 광음향 영상정보와 초음파 영상정보를 합성하여 합성영상을 생성할 수 있게 된다.
한편, 리니어 엔코더 펄스 신호는 리니어 엔코더(70)에서 출력되는 펄스 신호 또는 펄스 신호의 정수배에 해당하는 신호가 될 수 있다.
일 실시예로서, 하나의 스캔 라인에 대하여 광음향 영상정보와 초음파 영상정보를 생성한 후에 광음향 프로브(11, 21)를 제2 방향으로 이동시키면서 각각의 스캔 라인에 대하여 광음향 영상정보와 초음파 영상정보를 생성하면서, 2차원 스캐닝을 수행할 수도 있다.
광음향 영상 및 초음파 영상의 합성 영상 입력장치(1)는 레이저 펄스 출력 또는 초음파 출력이 출력되도록 선택하는 출력 선택부를 포함할 수 있다. 출력 선택부는 메인 제어부(40)에서 생성되는 출력 선택 신호에 따라 레이저 프로브(11)를 통하여 레이저 펄스 출력이 출력되거나 초음파 프로브(21)를 통하여 초음파 펄스 출력이 출력되도록 선택할 수 있다.
출력 선택부는 펄스 신호 발생기(60) 내부에 포함되고, 메인 제어부(40)로부터 입력되는 출력 선택 신호에 따라 기준 펄스 신호가 레이저 발생기(10)로 출력되거나 트리거 제어부(50)로 출력되도록 제어될 수 있다.
이때, 메인 제어부(40)는 레이저 출력 또는 초음파 출력의 출력 선택 신호를 생성하여 출력하고, 펄스 신호 발생기(60)는 출력 선택 신호에 따라 기준 펄스 신호를 초음파 출력을 위한 트리거 제어부(50) 또는 레이저 출력을 위한 레이저 발생기(10)로 출력할 수 있다.
한편, 광음향 영상 및 초음파 영상의 합성 영상 입력장치(1)는 광음향 프로브(11, 12)의 제2 방향 직선 운동 정보에 해당하는 리니어 엔코더 펄스 신호를 생성하는 제2 리니어 엔코더를 더 포함할 수 있다.
또한, 광음향 영상 및 초음파 영상의 합성 영상 입력장치(1)는 제1 방향 직선 운동 정보와 제2 방향 직선 운동 정보에 의하여 정해지는 광음향 프로브(11, 12)의 평면 좌표값과 그 평면 좌표값에서의 광음향 영상 정보, 및 광음향 프로브(11, 12)의 평면 좌표값과 그 평면 좌표값에서의 검사 대상체에 대한 초음파 영상정보를 저장하는 메모리를 더 포함할 수 있다.
광음향 영상 및 초음파 영상의 합성 영상 입력장치(1)는 도 4에 개략적으로 도시된 광학적 해상도 타입의 광음향 영상 및 초음파 영상의 합성 영상 입력장치(2)에 의하여 구현될 수 있다.
광음향 영상 및 초음파 영상의 합성 영상 입력장치(2)는 레이저 발생기(L/G)에서 생성된 레이저 펄스가 하프 웨이브 플레이트(Half Wave Plate, HWP), 변동 빔 스플리터(Variable Beam Splitter/Attenuator, VBA), 파이버 커플러(Fiber Coupler, FC)를 통과하고, 편광 파이버(Polarization-Maintaining Single-Mode Fiber, PM-SMF)를 통하여 전송되고, 레이저 프로브에 의하여 검사 대상체에 조사될 수 있다. 이때, 레이저 프로브는 편광 파이버의 끝단과 결합되는 페룰, 대역 통과 필터(Band Pass Filter, BPF), 제1 및 제2 대물 렌즈(Objective Lens, OL1 & OL2), 및 교정 렌즈(Corrective Lens, CL)를 포함할 수 있다.
한편, 초음파 송수신기(Pulser/Receiver, P/R)에서 생성된 초음파 펄스는 초음파 프로브(SFT)를 통하여 검사 대상체에 조사될 수 있으며, 검사 대상체에서 생성된 제1 초음파 입력 및 제2 초음파 입력은 제1 초음파 프로브(SFT) 및 제2 초음파 프로브(미도시)를 통하여 초음파 송수신기(Pulser/Receiver, P/R)로 입력될 수 있다. 초음파 송수신기(P/R)를 통하여 입력된 초음파 영상신호는 아날로그 디지털 변환부(30) 및 메인 제어부(40)에 대응되는 신호처리장치(S/P)에 입력되어 광음향 영상신호와 초음파 영상신호가 생성되고, 합성 영상이 생성될 수 있다. 합성 영상은 모니터(DIS)에 표시되어 사용자가 쉽게 식별할 수 있도록 할 수 있다.
레이저 펄스 출력과 초음파 펄스 출력은 광학-음향 빔 합성기(Optical-Acoustic Beam Combiner, OABC)를 통하여 검사 대상체에 조사되거나, 검사 대상체에서 생성된 제1 초음파 입력은 광학-음향 빔 합성기(Optical-Acoustic Beam Combiner, OABC)를 통하여 초음파 프로브(SFT)로 입력될 수 있다.
초음파 펄스 출력과 제1 초음파 입력 및 제2 초음파 입력은 물접시에 담겨진 물을 매질로 출력 또는 입력될 수 있으며, 물접시의 상하면에는 플라스틱 맴브레인(Plastic Membrane, PMB)이 배치될 수 있다.
한편, 광음향 프로브는 검사 대상체를 스캔할 때 이송 스테이지에 의하여 제1 방향 및/또는 제2 방향으로 이송될 수 있으며, 이송 스테이지의 작동은 모션 제어기(M/C)에 의하여 제어될 수 있다.
한편, 본 발명의 일 실시예에 따른 광음향 영상 및 초음파 영상의 합성 영상 입력방법은 위에서 설명된 방법에 의하여 광음향 영상 및 초음파 영상의 합성 영상 입력장치(1)를 이용하여 광음향 및 초음파 합성 영상을 획득할 수 있다. 이때, 광음향 영상 및 초음파 영상의 합성 영상 입력방법은 도 5의 타이밍도에 의하여 도시된 광음향 영상신호에 의하여 합성영상이 생성되는 방법과 도 6의 타이밍도에 의하여 도시된 초음파 영상신호에 의하여 합성영상이 생성되는 방법에 의하여 광음향 및 초음파 합성 영상을 획득하게 된다.
도 8에는 도 1의 광음향 영상 및 초음파 영상의 합성영상 입력장치(1)에 의하여 입력 및 생성되는 실험용 쥐에 대한 영상들의 이미지의 예들이 도시되어 있다.
도면을 참조하면, 윗줄에는 실험용 쥐에 대해 암세포를 주입하기 전(Pre-injection)의 이미지들이 도시되어 있으며, 아랫줄에는 실험용 쥐에 대해 암세포를 주입한 후(Post-injection)의 이미지들이 도시되어 있다. 각각의 경우, 검사 대상체에 대한 사진과 초음파 영상의 이미지(US image), 광음향 영상의 이미지(PA image), 합성영상의 이미지(Merged image)들이 순서대로 도시되어 있다.
각각의 경우, 초음파 영상의 이미지(US image)에서는 검사 대상체의 구조에 대한 모습이 잘 식별될 수 있으며, 광음향 영상의 이미지(PA image)에서는 검사 대상체의 혈관을 중심으로 하는 모습이 잘 식별될 수 있다. 합성영상의 이미지(Merged image)에서는 혈관의 분포들만 보이는 광음향 영상에 비하여 구조에 대한 모습이 함께 표시되어 검사 대상체의 어떤 부위의 혈관이 어떻게 분포되어 있는지가 잘 나타나 있음을 알 수 있다. 이러한 모습은 도 4의 모니터(DIS)에 표시되어 사용자가 쉽게 식별할 수 있도록 할 수 있다.
이제까지 본 발명의 기술적 사상을 그 사상의 구체성을 담보하는 본 발명의 바람직한 실시예의 개시를 통해 개진하였다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 그 바람직한 실시예가 본 발명의 기술적 사상(본질적 특성)에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예는 한정적 관점이 아닌 설명적 관점에서 고려되어야 하며, 본 발명의 권리범위에는 청구범위에 개시된 사항뿐만 아니라 이와 균등한 범위 내에 있는 모든 차이도 포함되는 것으로 해석되어야 할 것이다.
Claims (20)
- 광음향 프로브 및 초음파 프로브의 제1방향 직선이동과 상기 제1방향에 실질적으로 수직인 제2 방향 직선이동에 의하여 검사 대상체를 2차원 스캐닝하여 상기 검사 대상체에 대한 3차원 영상정보를 생성하는 것으로,상기 광음향 프로브 및 상기 초음파 프로브를 상기 검사 대상체에 대하여 상기 제1 방향 또는 상기 제2 방향으로 직선 상대운동시키는 이송부;상기 검사 대상체에 레이저 펄스 출력을 출력하고, 상기 레이저 펄스 출력에 의하여 상기 검사 대상체로부터 나오는 제1 초음파 입력을 입력받아 광음향 영상 신호를 생성하는 광음향 입력부(10);상기 검사 대상체에 초음파 출력을 출력하고, 상기 초음파 출력에 의하여 상기 검사 대상체로부터 나오는 제2 초음파 입력을 입력받아 초음파 영상 신호를 생성하는 초음파 입력부(20);상기 광음향 영상 신호 및 초음파 영상 신호를 각각 입력받아 각각 디지털 영상신호로 변환하는 아날로그 디지털 변환부(30); 및상기 디지털 영상신호를 입력받아 상기 검사 대상체에 대한 광음향 영상정보 및 초음파 영상정보를 생성하고, 상기 광음향 영상정보 및 상기 초음파 영상정보를 합성하여 광음향 초음파 합성영상을 생성하는 메인 제어부(40);를 구비하고,상기 검사 대상체에 상기 레이저 펄스 출력이 포커싱(포인트 포커싱) 되는 제1 위치와 상기 초음파 출력이 포커싱(포인트 포커싱) 되는 제2 위치가 설정된 이격 거리 만큼 떨어진 광음향 영상 및 초음파 영상의 합성 영상 입력장치.
- 제1항에 있어서,동일한 시점 또는 동일한 데이터 입력 주기 내에서 상기 레이저 펄스 출력 및 상기 초음파 출력이 각각 상기 검사 대상체의 다른 위치에 포인트 포커싱되는 광음향 영상 및 초음파 영상의 합성 영상 입력장치.
- 제1항에 있어서,상기 광음향 입력부(10)가, 상기 레이저 펄스 출력을 상기 검사 대상체에 출력하는 레이저 프로브(11), 및 상기 제1 초음파 입력을 입력받는 제1 초음파 프로브(12)를 포함하고,상기 초음파 입력부(20)가, 상기 초음파 출력을 상기 검사 대상체에 출력하고, 상기 제2 초음파 입력을 입력받는 제2 초음파 프로브(21)를 포함하는 광음향 영상 및 초음파 영상의 합성 영상 입력장치.
- 제3항에 있어서,상기 레이저 프로브(11)와 상기 제1 초음파 프로브(12)가 45도 보다 더 큰 각도로 엇갈리게 배치되고,상기 제2 초음파 프로브(21)가 상기 레이저 프로브(11) 및 상기 제1 초음파 프로브(12) 중 어느 하나와 45도 보다 더 작은 각도로 엇갈리게 또는 실질적으로 평행하게 배치되는 광음향 영상 및 초음파 영상의 합성 영상 입력장치.
- 제3항에 있어서,상기 레이저 프로브(11), 상기 제1 초음파 프로브(12), 및 상기 제2 초음파 프로브(21)가 하나의 하우징(201)에 설치되어 함께 이송되는 광음향 영상 및 초음파 영상의 합성 영상 입력장치.
- 제1항에 있어서,상기 제1 위치와 상기 제2 위치가 상기 제1 방향 또는 상기 제2 방향으로 이격된 광음향 영상 및 초음파 영상의 합성 영상 입력장치.
- 제1항에 있어서,상기 이격 거리는, 설정된 레이저 및 초음파 출력 조건 또는 입력 조건에 대하여, 이격 거리를 달리하면서 입력된 다수의 상기 광음향 영상정보와 상기 초음파 영상정보로부터 광음향 영상과 초음파 영상의 최상의 화질 또는 화질 저하가 없는 최단 거리를 추출하여 미리 설정되는 광음향 영상 및 초음파 영상의 합성 영상 입력장치.
- 제1항에 있어서,상기 이격 거리는, 입력되는 상기 광음향 영상정보와 상기 초음파 영상정보로부터 광음향 영상과 초음파 영상의 화질을 판단하여 최단 거리로 실시간 설정되는 광음향 영상 및 초음파 영상의 합성 영상 입력장치.
- 제1항에 있어서,상기 이격 거리는 상기 제2 초음파 입력을 입력받는 제2 초음파 프로브(21)가 평행이동되거나 기준축을 중심으로 회전되어 제어되는 광음향 영상 및 초음파 영상의 합성 영상 입력장치.
- 제1항에 있어서,상기 광음향 영상정보 또는 상기 초음파 영상정보가 상기 이격 거리 만큼 쉬프트 되어 합성되는 광음향 영상 및 초음파 영상의 합성 영상 입력장치.
- 제1항에 있어서,상기 초음파 입력부(20)가 상기 초음파 출력을 생성하기 위한 초음파 출력신호(출력 채널)를 생성하고, 상기 제1 초음파 입력 및 상기 제2 초음파 입력을 각각 입력받아 각각 광음향 영상 신호와 초음파 영상 신호를 생성하는 초음파 송수신부(22);를 포함하고,상기 초음파 송수신부는 제1 입력채널과 제2 입력채널을 포함하고, 상기 광음향 영상신호는 상기 제1 초음파 입력이 상기 제1입력 채널로 입력되어 생성되고,상기 초음파 영상신호는 상기 제2 초음파 입력이 상기 제2입력 채널로 입력되어 생성되는 광음향 영상 및 초음파 영상의 합성 영상 입력장치.
- 제1항에 있어서,설정된 간격의 기준 펄스 신호를 생성하여 출력하는 펄스 신호 발생기(60);상기 광음향 프로브의 상기 제1 방향 직선 운동 정보를 생성하는 제1 리니어 엔코더;상기 기준 펄스 신호와 상기 제1 방향 직선 운동 정보에 따라 상기 검사 대상체에 설정된 간격으로 레이저 펄스를 출력하는 레이저 발생기(13); 및상기 기준 펄스 신호와 상기 제1 방향 직선 운동 정보에 따라 설정된 간격으로 출력 트리거 신호를 생성하는 트리거 제어부(50);를 구비하는 광음향 영상 및 초음파 영상의 합성 영상 입력장치.
- 제11항에 있어서,상기 초음파 송수신부(20)에서, 상기 출력 트리거 신호에 따라 상기 제1 방향 직선 운동 정보에 대응되는 상기 광음향 영상 신호 및 초음파 영상 신호를 각각 생성하는 광음향 영상 및 초음파 영상의 합성 영상 입력장치.
- 제2항에 있어서,상기 제2 초음파 프로브(21)가, 트리거 제어부(50)에서 생성되는 출력 트리거 신호에 대응되는 초음파 출력을 출력하고,상기 출력 트리거 신호에 따라 상기 제1 방향 직선 운동 정보에 대응되는 상기 초음파 입력을 입력받는 광음향 영상 및 초음파 영상의 합성 영상 입력장치.
- 제1항에 있어서,상기 메인 제어부(40)에서, 광음향 디지털 영상신호를 상기 스캔 라인 단위로 제1 방향의 양의 방향 또는 음의 방향으로 상기 출력 트리거 신호의 각각의 트리거 펄스에 대응되는 상기 광음향 영상정보를 순차적으로 합성하여 상기 검사 대상체에 대한 광음향 영상정보를 생성하고,상기 메인 제어부(40)에서, 초음파 디지털 영상신호를 상기 스캔 라인 단위로 제1 방향의 양의 방향 또는 음의 방향으로 상기 출력 트리거 신호의 각각의 트리거 펄스에 대응되는 상기 초음파 영상정보를 순차적으로 합성하여 상기 검사 대상체에 대한 초음파 영상정보를 생성하는 광음향 영상 및 초음파 영상의 합성 영상 입력장치.
- 제1항에 있어서,상기 레이저 펄스 출력 또는 상기 초음파 출력이 동시에 출력되는 광음향 영상 및 초음파 영상의 합성 영상 입력장치.
- 제3항에 있어서,기준 펄스 신호가 상기 트리거 제어부 및 상기 레이저 발생기로 출력되는 광음향 영상 및 초음파 영상의 합성 영상 입력장치.
- 제5항에 있어서,1회의 상기 하우징의 상기 2차원 스캐닝에 의하여 상기 검사 대상체에 대한 3차원 영상정보를 생성하며,각각의 스캐닝 라인 내에서 상기 제1 초음파 입력과 상기 제2 초음파 입력이 교대로 이루어지는 광음향 영상 및 초음파 영상의 합성 영상 입력장치.
- 제5항에 있어서,상기 광음향 프로브 또는 상기 초음파 프로브의 상기 제2 방향 직선 운동 정보를 생성하는 제2 리니어 엔코더를 더 구비하고,상기 제1 방향 직선 운동 정보와 상기 제2 방향 직선 운동 정보에 의하여 정해지는 상기 광음향 프로브의 평면 좌표값과 상기 평면 좌표값에서의 상기 광음향 영상 정보, 및 상기 광음향 프로브의 평면 좌표값과 상기 평면 좌표값에서의 상기 검사 대상체에 대한 초음파 영상정보를 저장하는 메모리를 더 구비하는 광음향 영상 및 초음파 영상의 합성 영상 입력장치.
- 제1항 내지 제19항 중 어느 하나의 항의 광음향 영상 및 초음파 영상의 합성 영상 입력장치에 의하여 광음향 및 초음파 합성 영상을 획득하는 광음향 영상 및 초음파 영상의 합성 영상 입력방법.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220151226A KR20240069977A (ko) | 2022-11-14 | 2022-11-14 | 광음향 영상 및 초음파 영상의 합성영상 입력장치 및 그 방법 |
KR10-2022-0151226 | 2022-11-14 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2024106635A1 true WO2024106635A1 (ko) | 2024-05-23 |
Family
ID=91029093
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/KR2023/004902 WO2024106635A1 (ko) | 2022-11-14 | 2023-04-12 | 광음향 영상 및 초음파 영상의 합성영상 입력장치 및 그 방법 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20240156354A1 (ko) |
KR (1) | KR20240069977A (ko) |
WO (1) | WO2024106635A1 (ko) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011101492A2 (en) * | 2010-02-22 | 2011-08-25 | Universite Pierre Et Marie Curie (Paris 6) | Apparatus for the treatment of brain affections and method implementing thereof |
JP2013017760A (ja) * | 2011-07-14 | 2013-01-31 | Fujifilm Corp | 光音響画像生成装置及び方法 |
JP2018011950A (ja) * | 2016-07-08 | 2018-01-25 | キヤノン株式会社 | 超音波及び光音響波に由来する情報を取得する装置、方法、及びプログラム |
KR101952921B1 (ko) * | 2016-09-19 | 2019-02-28 | 포항공과대학교 산학협력단 | 초음파와 광음향 신호 검출용 카테터 및 이를 이용한 초음파 영상과 광음향 영상 획득 시스템 |
KR102301418B1 (ko) * | 2021-01-07 | 2021-09-10 | 부경대학교 산학협력단 | 고속 스캔 광음향 영상 입력장치 및 그 제어방법 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101949404B1 (ko) | 2016-01-18 | 2019-02-19 | 포항공과대학교 산학협력단 | Mems 스캐너를 이용한 광음향/초음파 손잡이형 펜타입 프로브, 및 이를 이용한 광음향 영상 획득 시스템 및 방법 |
KR101749602B1 (ko) | 2016-04-05 | 2017-06-21 | 포항공과대학교 산학협력단 | 비전도성 유체를 이용한 광해상도 광음향 현미경, 및 이를 이용한 광음향 영상 획득 시스템 및 방법 |
KR102036058B1 (ko) | 2019-05-10 | 2019-10-24 | 부경대학교 산학협력단 | 초음파 고속 스캔장치 |
-
2022
- 2022-11-14 KR KR1020220151226A patent/KR20240069977A/ko not_active Application Discontinuation
-
2023
- 2023-04-12 WO PCT/KR2023/004902 patent/WO2024106635A1/ko unknown
- 2023-07-24 US US18/225,243 patent/US20240156354A1/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011101492A2 (en) * | 2010-02-22 | 2011-08-25 | Universite Pierre Et Marie Curie (Paris 6) | Apparatus for the treatment of brain affections and method implementing thereof |
JP2013017760A (ja) * | 2011-07-14 | 2013-01-31 | Fujifilm Corp | 光音響画像生成装置及び方法 |
JP2018011950A (ja) * | 2016-07-08 | 2018-01-25 | キヤノン株式会社 | 超音波及び光音響波に由来する情報を取得する装置、方法、及びプログラム |
KR101952921B1 (ko) * | 2016-09-19 | 2019-02-28 | 포항공과대학교 산학협력단 | 초음파와 광음향 신호 검출용 카테터 및 이를 이용한 초음파 영상과 광음향 영상 획득 시스템 |
KR102301418B1 (ko) * | 2021-01-07 | 2021-09-10 | 부경대학교 산학협력단 | 고속 스캔 광음향 영상 입력장치 및 그 제어방법 |
Also Published As
Publication number | Publication date |
---|---|
US20240156354A1 (en) | 2024-05-16 |
KR20240069977A (ko) | 2024-05-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2022149119A1 (ko) | 고속 스캔 광음향 영상 입력장치 및 그 제어방법 | |
CN102824154B (zh) | 一种基于oct的复合内窥镜成像系统及成像方法 | |
US8238012B2 (en) | Optical image-capturing apparatus | |
Seibel et al. | Unique features of optical scanning, single fiber endoscopy | |
WO2019143123A1 (en) | Ultrasound imaging apparatus and method of controlling the same | |
JP2002525133A (ja) | 改良された観察品質を呈する内視装置 | |
WO2015016403A1 (ko) | 융합 영상을 획득하는 장치 및 방법 | |
CN103040429A (zh) | 一种用于口腔的光学影像检测装置和成像方法 | |
CN202821285U (zh) | 一种基于oct的复合内窥镜成像系统 | |
CN101884524A (zh) | 基于自适应光学技术的宽视场光学相干层析仪 | |
JP2008194108A (ja) | 位置方向検出機能付き3次元上特性測定・表示装置 | |
WO2015041446A1 (ko) | 현미경 시스템 및 현미경 시스템의 증강 현실 이미지 제공 방법 | |
RU184084U1 (ru) | Устройство эндоскопического зонда для оптической когерентной томографии | |
JP7277560B2 (ja) | 被験体を非侵襲的に検査するためのマルチモード撮像システムおよび方法 | |
WO2024106635A1 (ko) | 광음향 영상 및 초음파 영상의 합성영상 입력장치 및 그 방법 | |
WO2020111731A1 (ko) | 3차원 광음향 영상 장치 | |
WO2024106634A1 (ko) | 광음향 영상 및 초음파 영상 획득장치 및 그 방법 | |
WO2024071546A1 (ko) | 광음향 영상 및 초음파 영상의 합성 영상 입력장치 및 그 방법 | |
CN203153692U (zh) | 一种用于口腔的光学影像检测装置 | |
JP2000126188A (ja) | 光断層イメ―ジング装置 | |
WO2015199385A1 (ko) | 항 노화를 위한 초음파와 oct를 결합한 피부 진단 및 치료 시스템 | |
KR101296369B1 (ko) | 가시광 레이저빔을 이용한 표적 스캐닝 광단층 촬영 시스템 | |
US20050281476A1 (en) | Examination apparatus | |
CN118019497A (zh) | 图像生成方法、图像生成程序以及图像生成装置 | |
WO2023200141A1 (ko) | 방수갈바노미터 광음향 현미경 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 23891712 Country of ref document: EP Kind code of ref document: A1 |