WO2016159417A1 - Image processing device and method removing afterimage of ultrasonic image - Google Patents

Image processing device and method removing afterimage of ultrasonic image Download PDF

Info

Publication number
WO2016159417A1
WO2016159417A1 PCT/KR2015/003308 KR2015003308W WO2016159417A1 WO 2016159417 A1 WO2016159417 A1 WO 2016159417A1 KR 2015003308 W KR2015003308 W KR 2015003308W WO 2016159417 A1 WO2016159417 A1 WO 2016159417A1
Authority
WO
WIPO (PCT)
Prior art keywords
frame data
afterimage
frame
filter coefficients
rate
Prior art date
Application number
PCT/KR2015/003308
Other languages
French (fr)
Korean (ko)
Inventor
이지하
Original Assignee
알피니언메디칼시스템 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 알피니언메디칼시스템 주식회사 filed Critical 알피니언메디칼시스템 주식회사
Priority to PCT/KR2015/003308 priority Critical patent/WO2016159417A1/en
Publication of WO2016159417A1 publication Critical patent/WO2016159417A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves

Definitions

  • the present embodiment relates to an image processing apparatus and method for removing afterimages that may occur in an ultrasound image.
  • Ultrasound medical devices have non-invasive and non-destructive characteristics, and thus are widely used in the medical field for obtaining information inside an object. Without the need for a surgical operation to directly incise and observe an object, an ultrasound medical apparatus can provide a doctor with a high-resolution image of an inside of an object in real time, and thus is very important in the medical field.
  • the ultrasound medical apparatus transmits an ultrasound signal to an object and forms an ultrasound image by using an ultrasound signal (for example, an ultrasound echo signal) reflected from the object.
  • an ultrasound signal for example, an ultrasound echo signal
  • an ultrasound image may be formed without any problem.
  • an afterimage may occur on the formed ultrasound image.
  • an ultrasound image to be formed varies according to preset information (eg, frame rate) in the device. Accordingly, there is a need for an ultrasound system having an ultrasound image processing apparatus that adaptively removes an afterimage occurring in an ultrasound image that is changed together when preset information is changed in the device.
  • preset information eg, frame rate
  • An embodiment of the present invention is to provide an ultrasound image processing apparatus and method including a filter for adaptively filtering an afterimage based on information input by an operator of an ultrasound medical apparatus.
  • the frame data generation unit for generating frame data on the basis of the reflected signal of the ultrasonic wave transmitted to the object and the frame data generation unit, the previous weighted frame data and the frame data generation unit And a residual image processing unit for generating frame data from which afterimages are removed by weighted averaging currently input frame data using filter coefficients, wherein the filter coefficients include a decay ratio, a frame rate, and an afterimage sustain frequency.
  • the filter coefficients include a decay ratio, a frame rate, and an afterimage sustain frequency.
  • a coefficient generator for generating filter coefficients using a frame rate, a persistence frequency, and a predetermined decay ratio, currently input frame data, previously A weighted average of the generated weighted frame data using the filter coefficients to generate frame data from which residual images are removed, and a storage unit for storing frame data weighted averaged by the filtering unit.
  • the filter coefficient is determined using a frame rate, a persistence frequency and a decay ratio. And weighted averaging the currently input frame data and previous weight frame data using filter coefficients to generate final weight frame data.
  • afterimages can be efficiently removed by adaptively adjusting filter coefficients according to information set to acquire an ultrasound image.
  • the filter coefficients can be calculated by a simple operation without additional memory for separately storing each filter coefficient corresponding to the information input by the operator.
  • FIG. 1 is a block diagram illustrating an ultrasound medical apparatus according to an embodiment of the present invention.
  • FIG. 2 is a block diagram schematically illustrating an afterimage processing unit according to an exemplary embodiment of the present invention.
  • FIG. 3 is a diagram illustrating a process of filtering by a filtering unit according to an embodiment of the present invention.
  • FIG. 4 is a flowchart illustrating a procedure of an ultrasonic image processing method according to an embodiment of the present invention.
  • 'include' a certain component, which may further include other components rather than excluding other components unless otherwise stated. it means.
  • 'unit' and 'module' refer to a unit that processes at least one function or operation, which may be implemented by hardware or software or a combination of hardware and software.
  • FIG. 1 is a block diagram illustrating an ultrasound medical apparatus according to an embodiment of the present invention.
  • an ultrasound medical apparatus 100 may include a transducer 110, a frame data generator 120, a controller 130, an afterimage processor 140, and a display unit 150. ).
  • the configuration shown in FIG. 1 in relation to the ultrasound medical apparatus 100 is only an embodiment, and in other embodiments, some blocks may be added, changed, or deleted.
  • the ultrasound medical apparatus 100 according to the present embodiment may be a device for performing a hardware-based ultrasound diagnosis, but may be implemented in software, for example, a central processing unit (CPU) and a general purpose graphic processing unit (GPGPU). ) May be configured to parallelize the functionality of each component in software.
  • CPU central processing unit
  • GPU general purpose graphic processing unit
  • the transducer 110 includes a transducer element for converting an electrical signal into acoustic energy (or vice versa), and transmits the converted ultrasonic waves (acoustic energy) to the object, and transmits the ultrasonic waves reflected from the object. Receives an echo signal and converts it into an electrical signal.
  • the transducer may include a plurality of transducer elements, and the plurality of transducer elements may be formed in a one-dimensional or two-dimensional array.
  • the transducer 110 transmits focused ultrasound toward a focal point under the control of the controller 130 and receives an echo signal reflected from the object to form one scan line.
  • all of the plurality of transducer elements included in the transducer may be used, but in some cases, only one of the plurality of transducer elements may be used to An ultrasound scan line may be formed.
  • the transducer 110 sequentially transmits ultrasound to each scan line and collects data, thereby acquiring data for generating an ultrasound image of one frame.
  • the transducer 110 has been described as transmitting focused ultrasound, but the present invention is not limited thereto.
  • the transducer 110 may transmit unfocused ultrasound, such as a plane wave, and may receive data for generating an ultrasound image of one frame by receiving an echo signal of the transmitted ultrasound.
  • the frame data generation unit 120 generates frame data based on the reflection signal of the ultrasonic wave received by the transducer.
  • the frame data generator 120 includes a beamformer 122, a signal processor 124, and a scan converter 126.
  • the beamformer 122 includes a transmit beamformer and a receive beamformer.
  • the transmit beamformer delays the electrical signal applied to each transducer element so that ultrasound is focused on the object.
  • the reason for delaying the electrical signal is that each element has a different distance to the focal point where the ultrasound is focused on the object.
  • the transmission beamformer delays the electrical signal applied to each element differently according to the distance between the element and the focal point, thereby focusing the ultrasound to the desired focal point of the object.
  • each transducer element When each transducer element receives the reflected signal and converts the signal into an electrical signal, the reception beamformer delays the signal output from each transducer element and converts the signal into the same phase signal. As described above, since there is a difference in distance between the respective elements and the focal point, each converted electric signal is out of phase with each ultrasonic path.
  • the receive beamformer converts the electrical signal into the same phase through a time delay that compensates for path differences along different paths. Each electrical signal converted to the same phase is used as data to combine with each other to form one scan line.
  • the signal processor 124 converts the electrical signal received from the beamformer 122 into baseband signals and detects an envelope using a quadrature demodulator to generate one scan line data. .
  • the transducer sequentially generates and transmits one frame data by repeatedly transmitting and receiving ultrasonic waves to each scan line and generating scan line data accordingly.
  • the scan converter 126 records the generated frame data in a memory, matches the scanning direction of the data with the pixel direction of the display unit, and maps the corresponding data to the pixel position of the display unit. In other words, the scan converter converts the generated frame data into image data and then outputs it to the display unit.
  • the controller 130 receives an instruction by an operator's operation and performs overall management of the frame data generator 120.
  • the controller 130 controls the frame data generator so that the transducer 110 transmits ultrasonic pulses having the same phase.
  • the controller 130 transmits a control signal including a command by an operator's operation to control the frame data generator.
  • Commands by the operator's operation include a frame rate, persistence frequency, attenuation rate, and the like.
  • the afterimage processing unit 140 receives the frame data from the signal processing unit 124 and filters the filter using a filter to remove the afterimage of the received frame data. This will be described in more detail with reference to FIGS. 2 and 3.
  • the display unit 150 outputs the final frame data from which the afterimage is removed by the afterimage processing unit 140.
  • the scan converter 126 is described as being positioned between the signal processor 124 and the afterimage processor 140.
  • the present invention is not limited thereto, and the scan converter 126 is the afterimage processor. It may be connected to the rear end of 140.
  • the scan converting unit 126 may be connected to the rear end of the afterimage processing unit 140 and scan-convert the data from which the afterimages are removed, and then output the scan data to the display unit 150.
  • FIG. 2 is a block diagram illustrating an afterimage processing unit according to an embodiment of the present invention
  • FIG. 3 is a diagram illustrating a process of filtering by a filtering unit according to an embodiment of the present invention.
  • the filter coefficient is described as ⁇ for convenience.
  • the afterimage processor 120 includes a filter 210, a coefficient generator 220, and a storage 230.
  • the filtering unit 210 receives the frame data from the signal processor or the scan converter, and filters the residual image of the received frame data.
  • the filtering unit 210 filters the residual image by performing a weighted average of the received frame data and the previous weighted frame data to filter the residual image of the received frame data.
  • the filtering unit 210 uses a filter coefficient received from the coefficient generator as a weight to multiply each of the received frame data and the previous weighted frame data. Looking at the filtering unit 210 to filter the residual image using the weighted average as follows.
  • K denotes a frame number
  • denotes a filter coefficient
  • x (k) denotes the k-th input frame data
  • y (k-1) denotes the weighted average of the (k-1) th frame. It means weighted frame data.
  • the current weighted frame data is derived by linear combination between the previous weighted frame data and the currently input frame data.
  • the k th weight frame data y (k) is a value obtained by multiplying the k th received frame data x (k) by ⁇ (filter coefficient) and the previous weight frame data y (k-1) 1- ⁇ . It can be calculated as the sum of the product of (filter coefficients).
  • the filtering unit may be implemented, for example, as shown in FIG. 3.
  • the filtering unit 210 may include a first multiplier 310, a delay unit 320, a second multiplier 330, and an adder 340.
  • the first multiplier 310 multiplies the filter coefficient ⁇ generated by the coefficient generator 220 with the currently input frame data and outputs the multiplier 340 to the adder 340. Meanwhile, the weighted frame data generated by the weighting average just before the filtering unit 210 is delayed by one frame by the delay unit 320.
  • the second multiplier 330 multiplies the previous weighted frame data output from the delayer 320 by the filter coefficients 1- ⁇ and outputs the result to the adder 340.
  • the adder 340 adds the output of the first multiplier 310 and the output of the second multiplier 330 to generate current weighted frame data.
  • the number of frames n effectively used for weighted averaging may be calculated by the frame rate and persistence frequency set by the operator. For example, as shown in Equation 2, the frame rate can be obtained by dividing the afterimage sustain frequency.
  • the frame rate means a value indicating how many frame data are generated per second.
  • Afterimage persistence frequency refers to an inverse value of the time (period) of afterimage persistence in a human eye.
  • the coefficient generator 220 generates filter coefficients used by the filtering unit.
  • the filter coefficients can be calculated by a nonlinear function of the number of frames and the decay rate effectively used to weight the average.
  • the number of frames effectively used for weighted averaging can be calculated using the frame rate and the residual persistence frequency, as described above.
  • the process of estimating the filter coefficient will be described in more detail.
  • y (0) refers to the first frame data input
  • K represents a decay rate.
  • the decay rate means the ratio between the frame data y (n) immediately before the afterimage disappears and the first input frame data y (0).
  • This attenuation rate K can experimentally obtain how much the residual image of the first input frame data remains after n frames have elapsed. Therefore, the filter coefficient ⁇ can be calculated by the decay rate K and the number of frames n in which the afterimage persists, as shown in Equation (5).
  • Equation 6 Since the frame number n effectively used for the weighted average can be calculated by dividing the frame rate by the afterimage sustain frequency as described in Equation 2, Equation 6 holds.
  • Equation 6 since the filter coefficient is configured in the form of a simple exponential function of the decay rate, it is not necessary to store all the filter coefficients corresponding to each condition according to a predetermined condition. Filter coefficients can be generated.
  • the coefficient generator 220 receives the input parameter from the controller and calculates a filter coefficient based on the above-described method when a parameter by manipulation such as attenuation rate, frame rate, and residual image sustain frequency is input from the operator.
  • a parameter by manipulation such as attenuation rate, frame rate, and residual image sustain frequency is input from the operator.
  • the filter coefficients can be generated by a simple operation from the parameters of the operation, the time required for filtering can be reduced, and the filter coefficients calculated according to the parameters are stored in the form of a lookup table in advance.
  • the coefficient generator can be implemented without a memory.
  • the present invention is not limited thereto.
  • the filter coefficients calculated by Equation 6 are stored in a memory in the form of a lookup table, and when a parameter such as attenuation rate, frame rate and residual persistence frequency is input from an operator, the lookup table It may also be possible to implement the coefficient generator 210 by searching for a filter coefficient corresponding to the parameter input from the.
  • the storage unit 230 stores previous weighted frame data previously generated through the filtering process of the filtering unit 220 and current weighted frame data generated through the filtering process of the filtering unit 220.
  • the storage unit 230 provides previous weighted frame data required for the filtering process to remove residual images of the received frame data.
  • the filtering unit 220 stores the current weighted frame data generated by performing the filtering process according to the number of frames n effectively used to perform the weighted average.
  • the afterimage processor 120 includes a filtering unit 210, a coefficient generator 220, and a storage unit 230.
  • the filtering unit 210 receives the frame data from the signal processor or the scan converter, and filters the residual image of the received frame data.
  • the filtering unit 210 filters the residual image by performing a weighted average of the received frame data and the previous weighted frame data to filter the residual image of the received frame data.
  • the filtering unit 210 uses a filter coefficient received from the coefficient generator as a weight to multiply each of the received frame data and the previous weighted frame data.
  • the filtering method 210 filters the residual image as follows.
  • the current weighted frame data is the (k-A + 1) th frame data input from the kth input (currently input) frame weighted by 1 / n and the (kA) th input.
  • the weighted frame data is weighted as 0.x (n fractional part of n) / n and can be calculated as a sum of these.
  • the coefficient generator 220 generates a filter coefficient (weighted value) used in the filtering unit.
  • the number n of frames effectively used for weighted averaging can be known by dividing the frame rate among the parameters by the operation by the residual persistence frequency. Therefore, the coefficient generator calculates n values, n integer parts and n fractional parts from the frame rate and the residual persistence frequency among the parameters by the operation. The calculated n value, the integer part of n and the fractional part of n are provided to the filtering part and used as a filter coefficient in the filtering part.
  • the storage unit 230 stores previously input frame data required by the filtering unit. In addition, since the frame data currently input is required to weight average the frame data to be input later, when the weighted frame data of the currently input frame data is obtained (filtering is completed), the storage unit also stores the currently input frame data. do.
  • Each component included in the afterimage removal unit illustrated in FIG. 2 is connected to a communication path connecting a software module or a hardware module inside the device to operate organically with each other. These components communicate using one or more communication buses or signal lines.
  • FIG. 4 is a flowchart illustrating a procedure of an ultrasonic image processing method according to an embodiment of the present invention.
  • the filter coefficient is generated using the frame rate, the afterimage persistence frequency, and the decay rate (S410).
  • the coefficient generator included in the afterimage removal unit receives parameters from an operation such as a frame rate, an afterimage persistence frequency, and a decay rate from the control unit. Using the received information, the filter coefficient is calculated based on the method described above with reference to FIG.
  • the filter coefficients consist of the exponential function of the above parameters.
  • the exponential function may be expressed in the form of having an attenuation rate lower and a value obtained by dividing the frame rate by the afterimage sustain frequency as an exponent.
  • a weighted average of the currently received frame data and the previous weighted frame data using the filter coefficients (S420).
  • the generated filter coefficients, the current frame data, and the previous weighted frame data are received, and the currently received frame data and the previous weighted frame data are multiplied by different weight values composed of the filter coefficients.
  • the weighted average is obtained by multiplying the received frame data by the filter coefficient ⁇ and multiplying the previous weighted frame data by subtracting the filter coefficient (1- ⁇ ). In this way, the weighted average is obtained to remove the afterimage present in the frame data.
  • FIG. 4 processes S410 to S420 are described as being sequentially executed. However, this is only illustrative of the technical idea of the exemplary embodiment of the present invention. In other words, a person of ordinary skill in the art to which an embodiment of the present invention belongs may execute or change the order described in FIG. 4 without departing from the essential characteristics of an embodiment of the present invention, or one of processes S410 to S420. Since the above processes may be variously modified and modified to be executed in parallel, FIG. 4 is not limited to the time series order.
  • the processes illustrated in FIG. 4 may be embodied as computer readable codes on a computer readable recording medium.
  • the computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer system is stored.
  • a computer-readable recording medium may include a magnetic storage medium (eg, a ROM, a floppy disk, a hard disk, etc.), an optical reading medium (eg, a CD-ROM, a DVD, etc.) and a carrier wave (eg, Storage media such as transmission over the Internet).
  • the computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.
  • control unit 140 afterimage processing unit

Abstract

Disclosed are an image processing device and method removing an afterimage of an ultrasonic image. According to one aspect of one embodiment of the present invention, the main purpose is to provide an ultrasonic image processing method and device provided with a filter which adaptively filters an afterimage according to information input by a person operating an ultrasonic medical device.

Description

초음파 영상의 잔상을 제거하는 영상처리장치 및 방법An image processing apparatus and method for removing afterimages of ultrasound images
본 실시예는 초음파 영상에서 발생 가능한 잔상을 제거하기 위한 영상처리장치 및 방법에 관한 것이다.The present embodiment relates to an image processing apparatus and method for removing afterimages that may occur in an ultrasound image.
이 부분에 기술된 내용은 단순히 본 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.The contents described in this section merely provide background information on the present embodiment and do not constitute a prior art.
초음파 의료장치는 무침습 및 비파괴 특성을 가지고 있어, 대상체 내부의 정보를 얻기 위한 의료 분야에서 널리 이용되고 있다. 대상체를 직접 절개하여 관찰하는 외과 수술의 필요 없이, 초음파 의료장치는 대상체 내부의 고해상도 영상을 실시간으로 의사에게 제공할 수 있어 의료 분야에서 매우 중요하게 사용되고 있다.Ultrasound medical devices have non-invasive and non-destructive characteristics, and thus are widely used in the medical field for obtaining information inside an object. Without the need for a surgical operation to directly incise and observe an object, an ultrasound medical apparatus can provide a doctor with a high-resolution image of an inside of an object in real time, and thus is very important in the medical field.
초음파 의료장치는 초음파 신호를 대상체에 송신하고 대상체로부터 반사되는 초음파 신호(예컨대, 초음파 에코신호)를 이용하여 초음파 영상을 형성한다. 초음파 의료장치가 초음파 영상을 형성함에 있어, 정지되어 있는 대상체의 초음파 영상을 형성하는 경우에는 별다른 문제없이 초음파 영상을 형성할 수 있다. 그러나 초음파 의료장치가 움직이는 대상체의 초음파 영상을 형성하는 경우에는 형성한 초음파 영상에 잔상이 생기게 된다. The ultrasound medical apparatus transmits an ultrasound signal to an object and forms an ultrasound image by using an ultrasound signal (for example, an ultrasound echo signal) reflected from the object. When the ultrasound medical apparatus forms an ultrasound image, when an ultrasound image of the stationary object is formed, an ultrasound image may be formed without any problem. However, when the ultrasound medical apparatus forms an ultrasound image of a moving object, an afterimage may occur on the formed ultrasound image.
한편, 초음파 의료장치는 장치 내에 기 설정된 정보(예를 들어, 프레임 레이트 등)에 따라 형성하는 초음파 영상이 달라진다. 따라서 장치 내에 기 설정된 정보가 변경되는 경우, 이에 따라 함께 변경되는 초음파 영상에 발생하는 잔상을 적응적으로 제거하는 초음파 영상처리장치를 구비한 초음파 시스템에 대한 필요가 있다.Meanwhile, in the ultrasound medical apparatus, an ultrasound image to be formed varies according to preset information (eg, frame rate) in the device. Accordingly, there is a need for an ultrasound system having an ultrasound image processing apparatus that adaptively removes an afterimage occurring in an ultrasound image that is changed together when preset information is changed in the device.
본 실시예는, 초음파 의료장치의 조작자에 의해 입력된 정보에 따라 적응적으로 잔상을 필터링하는 필터를 구비한 초음파 영상처리장치 및 방법을 제공하는 데 일 목적이 있다.An embodiment of the present invention is to provide an ultrasound image processing apparatus and method including a filter for adaptively filtering an afterimage based on information input by an operator of an ultrasound medical apparatus.
본 실시예의 일 측면에 의하면, 대상체로 송신된 초음파의 반사신호에 기초하여 프레임데이터를 생성하는 프레임데이터 생성부 및 상기 프레임데이터 생성부와 연결되며, 이전의 가중 프레임데이터 및 상기 프레임데이터 생성부로부터 현재 입력되는 프레임데이터를 필터 계수를 이용하여 가중 평균함으로써 잔상이 제거된 프레임데이터를 생성하는 잔상 처리부를 포함하고, 상기 필터 계수는 감쇄율(Decay Ratio), 프레임 레이트(frame Rate) 및 잔상 지속 주파수(Persistence Frequency)의 비선형함수로부터 유도되는 것을 특징으로 하는 초음파 의료장치를 제공한다.According to an aspect of the present embodiment, the frame data generation unit for generating frame data on the basis of the reflected signal of the ultrasonic wave transmitted to the object and the frame data generation unit, the previous weighted frame data and the frame data generation unit And a residual image processing unit for generating frame data from which afterimages are removed by weighted averaging currently input frame data using filter coefficients, wherein the filter coefficients include a decay ratio, a frame rate, and an afterimage sustain frequency. It provides an ultrasound medical device, characterized in that it is derived from a nonlinear function of Persistence Frequency.
본 실시예의 다른 측면에 의하면, 프레임 레이트(frame Rate), 잔상 지속 주파수(Persistence Frequency) 및 기 설정된 감쇄율(Decay Ratio)을 이용하여 필터 계수를 생성하는 계수 생성부와 현재 입력된 프레임데이터, 이전에 생성된 가중 프레임데이터를 상기 필터 계수를 이용하여 가중 평균함으로써, 잔상을 제거한 프레임데이터를 생성하는 필터링부 및 상기 필터링부에 의해 가중 평균되는 프레임데이터를 저장하는 저장부를 포함하는 것을 특징으로 하는 초음파 영상처리장치를 제공한다.According to another aspect of the present embodiment, a coefficient generator for generating filter coefficients using a frame rate, a persistence frequency, and a predetermined decay ratio, currently input frame data, previously A weighted average of the generated weighted frame data using the filter coefficients to generate frame data from which residual images are removed, and a storage unit for storing frame data weighted averaged by the filtering unit. Provide a processing device.
또한 본 실시예의 다른 측면에 의하면, 잔상 효과를 감소시키기 위한 초음파 영상처리방법에 있어서, 프레임 레이트(Frame Rate), 잔상 지속 주파수(Persistence Frequency) 및 감쇄율(Decay Ratio)을 이용하여 필터 계수를 결정하는 단계 및 현재 입력된 프레임데이터와 이전의 가중 프레임 데이터를 필터 계수를 이용하여 가중 평균하여 최종 가중 프레임 데이터를 생성하는 단계를 포함하는 것을 특징으로 하는 초음파 영상처리방법을 제공한다.According to another aspect of the present embodiment, in the ultrasonic image processing method for reducing the afterimage effect, the filter coefficient is determined using a frame rate, a persistence frequency and a decay ratio. And weighted averaging the currently input frame data and previous weight frame data using filter coefficients to generate final weight frame data.
이상에서 설명한 바와 같이 본 실시예의 일 측면에 따르면, 초음파 영상을 획득하기 위해 설정하는 정보에 따라 적응적으로 필터 계수를 조절함으로써 잔상을 효율적으로 제거할 수 있는 장점이 있다.As described above, according to an aspect of the present embodiment, there is an advantage in that afterimages can be efficiently removed by adaptively adjusting filter coefficients according to information set to acquire an ultrasound image.
또 다른 측면에 의하면, 조작자에 의해 입력된 정보에 대응되는 각각의 필터 계수를 별도로 저장하기 위한 추가적인 메모리 없이도, 간단한 연산으로 필터 계수를 산출할 수 있는 효과가 있다.According to another aspect, there is an effect that the filter coefficients can be calculated by a simple operation without additional memory for separately storing each filter coefficient corresponding to the information input by the operator.
도 1은 본 발명의 일 실시예에 따른 초음파 의료장치를 도식화한 블럭도이다.1 is a block diagram illustrating an ultrasound medical apparatus according to an embodiment of the present invention.
도 2는 본 발명의 일 실시예에 따른 잔상 처리부를 도식화한 블럭도이다.2 is a block diagram schematically illustrating an afterimage processing unit according to an exemplary embodiment of the present invention.
도 3은 본 발명의 일 실시예에 따른 필터링부가 필터링을 하는 과정을 도시한 도면이다.3 is a diagram illustrating a process of filtering by a filtering unit according to an embodiment of the present invention.
도 4는 본 발명의 일 실시예에 따른 초음파 영상처리방법의 순서를 도시한 순서도이다.4 is a flowchart illustrating a procedure of an ultrasonic image processing method according to an embodiment of the present invention.
이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, some embodiments of the present invention will be described in detail through exemplary drawings. In adding reference numerals to the components of each drawing, it should be noted that the same reference numerals are assigned to the same components as much as possible even though they are shown in different drawings. In addition, in describing the present invention, when it is determined that the detailed description of the related well-known configuration or function may obscure the gist of the present invention, the detailed description thereof will be omitted.
또한, 명세서 전체에서, 어떤 부분이 어떤 구성요소를 '포함', '구비'한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 '…부', '모듈' 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.In addition, throughout the specification, when a part is said to include, 'include' a certain component, which may further include other components rather than excluding other components unless otherwise stated. it means. In addition, as described in the specification. The terms 'unit' and 'module' refer to a unit that processes at least one function or operation, which may be implemented by hardware or software or a combination of hardware and software.
도 1은 본 발명의 일 실시예에 따른 초음파 의료장치를 도식화한 블럭도이다.1 is a block diagram illustrating an ultrasound medical apparatus according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 일 실시예에 따른 초음파 의료장치(100)는 트랜스듀서(110), 프레임데이터 생성부(120), 제어부(130), 잔상 처리부(140) 및 디스플레이부(150)를 포함한다. 초음파 의료장치(100)와 관련하여 도 1에 도시된 구성은 일 실시 예에 불과하며, 다른 실시예에서는 일부 블록이 추가, 변경 또는 삭제될 수 있다. 또한 본 실시예에 따른 초음파 의료장치(100)는 하드웨어 기반의 초음파 진단을 수행하는 장치일 수 있으나, 소프트웨어적으로 구현될 수도 있으며, 예컨대, CPU(Central Processing Unit) 및 GPGPU(General Purpose Graphic Processing Unit)를 이용하여, 각 구성요소의 기능을 소프트웨어적으로 병렬 처리하도록 구성될 수 있다.Referring to FIG. 1, an ultrasound medical apparatus 100 according to an exemplary embodiment of the present invention may include a transducer 110, a frame data generator 120, a controller 130, an afterimage processor 140, and a display unit 150. ). The configuration shown in FIG. 1 in relation to the ultrasound medical apparatus 100 is only an embodiment, and in other embodiments, some blocks may be added, changed, or deleted. In addition, the ultrasound medical apparatus 100 according to the present embodiment may be a device for performing a hardware-based ultrasound diagnosis, but may be implemented in software, for example, a central processing unit (CPU) and a general purpose graphic processing unit (GPGPU). ) May be configured to parallelize the functionality of each component in software.
트랜스듀서(110)는 전기 신호를 음향 에너지로(또는, 그 반대로) 변환하는 트랜스듀서 앨리먼트(Transducer Element)를 포함하여, 변환한 초음파(음향 에너지)를 대상체에 전송하고, 대상체로부터 반사되는 초음파의 에코 신호를 수신하여 전기 신호로 변환한다. 트랜스듀서는 복수 개의 트랜스듀서 엘리먼트를 포함할 수 있으며, 복수 개의 트랜스듀서 엘리먼트는 1 차원 또는 2차원 어레이 형태로 형성될 수 있다.The transducer 110 includes a transducer element for converting an electrical signal into acoustic energy (or vice versa), and transmits the converted ultrasonic waves (acoustic energy) to the object, and transmits the ultrasonic waves reflected from the object. Receives an echo signal and converts it into an electrical signal. The transducer may include a plurality of transducer elements, and the plurality of transducer elements may be formed in a one-dimensional or two-dimensional array.
트랜스듀서(110)는 하나의 스캔라인을 형성하기 위해, 제어부(130)의 제어에 따라 초점을 향해 집속 초음파를 송신하고 대상체로부터 반사되는 에코 신호를 수신한다. 대상체로 송신하는 하나의 초음파 스캔라인(Scanline)을 형성함에 있어서, 트랜스듀서에 포함된 복수 개의 트랜스듀서 엘리먼트 모두를 사용할 수도 있지만, 경우에 따라서는, 복수 개의 트랜스듀서 엘리먼트 중 일부만을 사용하여 하나의 초음파 스캔라인을 형성할 수 있다.The transducer 110 transmits focused ultrasound toward a focal point under the control of the controller 130 and receives an echo signal reflected from the object to form one scan line. In forming one ultrasonic scanline to transmit to the object, all of the plurality of transducer elements included in the transducer may be used, but in some cases, only one of the plurality of transducer elements may be used to An ultrasound scan line may be formed.
트랜스듀서(110)에 의해 순차적으로 각 스캔라인에 초음파를 송신하고 데이터를 수집하는 과정을 반복함으로써 한 프레임의 초음파 영상을 생성하기 위한 데이터가 획득된다.The transducer 110 sequentially transmits ultrasound to each scan line and collects data, thereby acquiring data for generating an ultrasound image of one frame.
한편, 본 실시예에서는 트랜스듀서(110)가 집속 초음파를 송신하는 것으로 설명하였으나, 본 발명이 이에 한정되는 것은 아니다. 예컨대, 트랜스듀서(110)는 평면파(Plane Wave)와 같은 비집속 초음파를 송신하고, 송신된 초음파의 에코신호를 수신하여 한 프레임의 초음파 영상을 생성하기 위한 데이터를 획득할 수도 있다.Meanwhile, in the present embodiment, the transducer 110 has been described as transmitting focused ultrasound, but the present invention is not limited thereto. For example, the transducer 110 may transmit unfocused ultrasound, such as a plane wave, and may receive data for generating an ultrasound image of one frame by receiving an echo signal of the transmitted ultrasound.
프레임데이터 생성부(120)는 트랜스듀서가 수신한 초음파의 반사 신호를 기초로 프레임데이터를 생성한다. 프레임데이터 생성부(120)는 빔포머(122), 신호 처리부(124) 및 주사 변환부(126)를 포함한다.The frame data generation unit 120 generates frame data based on the reflection signal of the ultrasonic wave received by the transducer. The frame data generator 120 includes a beamformer 122, a signal processor 124, and a scan converter 126.
빔포머(122)는 송신 빔포머 및 수신 빔포머를 포함한다. The beamformer 122 includes a transmit beamformer and a receive beamformer.
송신 빔포머는 대상체에 초음파가 집속되도록 각 트랜스듀서 엘리먼트로 인가되는 전기 신호를 지연시킨다. 이렇게 전기 신호를 지연시키는 이유는 각각의 엘리먼트들은 대상체에 초음파가 집속되는 초점까지의 거리가 서로 다른 데에서 기인한다. 송신 빔포머는 엘리먼트와 초점 간의 거리에 따라 각 엘리먼트에 인가되는 전기 신호를 서로 다르게 지연시킴으로써, 대상체의 원하는 초점으로 초음파가 집속되도록 한다.The transmit beamformer delays the electrical signal applied to each transducer element so that ultrasound is focused on the object. The reason for delaying the electrical signal is that each element has a different distance to the focal point where the ultrasound is focused on the object. The transmission beamformer delays the electrical signal applied to each element differently according to the distance between the element and the focal point, thereby focusing the ultrasound to the desired focal point of the object.
수신 빔포머는 각 트랜스듀서 엘리먼트가 반사신호를 수신하여 전기신호로 변환하여 출력하면, 각 트랜스듀서 엘리먼트로부터 출력된 신호를 지연시켜 동일 위상의 신호로 변환한다. 전술하였듯이, 각각의 엘리먼트들과 초점까지의 거리 차가 존재하므로, 각각의 변환된 전기 신호는 각 초음파의 경로에 따라 위상이 서로 상이하다. 수신 빔포머는 상이한 경로에 따른 경로 차를 보상하는 시간 지연을 통해 위상이 동일한 전기 신호로 변환한다. 동일 위상으로 변환된 각 전기 신호들은 서로 합쳐져 하나의 스캔라인을 형성하는 데이터로 사용된다.When each transducer element receives the reflected signal and converts the signal into an electrical signal, the reception beamformer delays the signal output from each transducer element and converts the signal into the same phase signal. As described above, since there is a difference in distance between the respective elements and the focal point, each converted electric signal is out of phase with each ultrasonic path. The receive beamformer converts the electrical signal into the same phase through a time delay that compensates for path differences along different paths. Each electrical signal converted to the same phase is used as data to combine with each other to form one scan line.
신호 처리부(124)는 빔포머(122)로부터 수신한 전기 신호를 기저 대역 신호(Baseband Signals)로 변화시키고 직교 복조기(Quadrature Demodulator)를 사용해 포락선(Envelope)을 검출하여 하나의 스캔라인 데이터를 생성한다.The signal processor 124 converts the electrical signal received from the beamformer 122 into baseband signals and detects an envelope using a quadrature demodulator to generate one scan line data. .
전술한 바와 같이 트랜스듀서가 순차적으로 각 스캔라인에 순차적으로 각 스캔라인에 초음파를 송수신하고 그에 따른 스캔라인 데이터를 생성하는 과정을 반복하여 하나의 프레임데이터를 생성한다.As described above, the transducer sequentially generates and transmits one frame data by repeatedly transmitting and receiving ultrasonic waves to each scan line and generating scan line data accordingly.
주사 변환부(126)는 생성된 프레임데이터를 메모리에 기록하고 데이터의 주사 방향을 디스플레이부의 픽셀 방향과 일치시키며, 해당 데이터를 디스플레이부의 픽셀 위치로 매핑한다. 다시 말해서, 주사 변환부는 생성된 프레임데이터를 영상 데이터로 변환한 후에 디스플레이부로 출력되도록 한다. The scan converter 126 records the generated frame data in a memory, matches the scanning direction of the data with the pixel direction of the display unit, and maps the corresponding data to the pixel position of the display unit. In other words, the scan converter converts the generated frame data into image data and then outputs it to the display unit.
제어부(130)는 조작자의 조작에 의한 명령(Instruction)을 입력받아 프레임데이터 생성부(120)에 대한 전반적인 관리를 수행한다. 제어부(130)는 프레임데이터 생성부를 제어하여 트랜스듀서(110)가 동일한 위상을 갖는 초음파 펄스들을 송신하도록 한다. 제어부(130)는 프레임데이터 생성부를 제어하기 위하여 조작자의 조작에 의한 명령을 포함한 제어신호를 송신한다. 조작자의 조작에 의한 명령은 프레임 레이트(Frame Rate), 잔상 지속 주파수(Persistence Frequency) 및 감쇄율 등을 포함한다.The controller 130 receives an instruction by an operator's operation and performs overall management of the frame data generator 120. The controller 130 controls the frame data generator so that the transducer 110 transmits ultrasonic pulses having the same phase. The controller 130 transmits a control signal including a command by an operator's operation to control the frame data generator. Commands by the operator's operation include a frame rate, persistence frequency, attenuation rate, and the like.
잔상 처리부(140)는 신호 처리부(124)로부터 프레임데이터를 수신하여 필터를 이용하여 필터링을 함으로써, 수신한 프레임데이터의 잔상을 제거한다. 이에 대해서는 도 2 및 도 3을 참조하여 보다 구체적으로 설명하기로 한다.The afterimage processing unit 140 receives the frame data from the signal processing unit 124 and filters the filter using a filter to remove the afterimage of the received frame data. This will be described in more detail with reference to FIGS. 2 and 3.
디스플레이부(150)는 잔상 처리부(140)에 의해 잔상이 제거된 최종 프레임데이터를 출력한다.The display unit 150 outputs the final frame data from which the afterimage is removed by the afterimage processing unit 140.
본 발명의 실시예에서는 주사 변환부(126)가 신호 처리부(124)와 잔상 처리부(140) 사이에 위치하는 것으로 설명하였으나, 본 발명이 이에 한정되는 것은 아니며, 주사 변환부(126)는 잔상 처리부(140)의 후단에 연결될 수도 있다. 주사 변환부(126)은 잔상 처리부(140)의 후단에 연결되어 잔상이 제거된 데이터를 주사 변환한 후에 디스플레이부(150)로 출력할 수도 있다.In the exemplary embodiment of the present invention, the scan converter 126 is described as being positioned between the signal processor 124 and the afterimage processor 140. However, the present invention is not limited thereto, and the scan converter 126 is the afterimage processor. It may be connected to the rear end of 140. The scan converting unit 126 may be connected to the rear end of the afterimage processing unit 140 and scan-convert the data from which the afterimages are removed, and then output the scan data to the display unit 150.
도 2는 본 발명의 일 실시예에 따른 잔상 처리부를 도식화한 블럭도이고, 도 3은 본 발명의 일 실시예에 따른 필터링부가 필터링을 하는 과정을 도시한 도면이다. 도 3에 있어서, 필터 계수는 편의상 α로 기재되었다.2 is a block diagram illustrating an afterimage processing unit according to an embodiment of the present invention, and FIG. 3 is a diagram illustrating a process of filtering by a filtering unit according to an embodiment of the present invention. In Fig. 3, the filter coefficient is described as α for convenience.
도 2를 참조하면, 본 발명의 일 실시예에 따른 잔상 처리부(120)는 필터링부(210), 계수 생성부(220) 및 저장부(230)를 포함한다.2, the afterimage processor 120 according to an exemplary embodiment of the present invention includes a filter 210, a coefficient generator 220, and a storage 230.
필터링부(210)는 신호 처리부 또는 주사 변환부로부터 프레임데이터를 수신하여, 수신한 프레임데이터의 잔상을 필터링한다. 필터링부(210)는 수신한 프레임데이터의 잔상을 필터링하기 위해 수신한 프레임데이터와 이전의 가중 프레임데이터를 가중 평균을 하는 방식으로 잔상을 필터링한다. 필터링부(210)가 수신한 프레임데이터와 이전의 가중 프레임데이터를 가중 평균함에 있어, 수신한 프레임데이터와 이전의 가중 프레임데이터 각각에 곱할 가중치는 계수 생성부로부터 수신한 필터 계수를 이용한다. 필터링부(210)가 가중평균을 이용하여 잔상을 필터링하는 방식을 수학식으로 살펴보면 다음과 같다.The filtering unit 210 receives the frame data from the signal processor or the scan converter, and filters the residual image of the received frame data. The filtering unit 210 filters the residual image by performing a weighted average of the received frame data and the previous weighted frame data to filter the residual image of the received frame data. In the weighted average of the received frame data and the previous weighted frame data, the filtering unit 210 uses a filter coefficient received from the coefficient generator as a weight to multiply each of the received frame data and the previous weighted frame data. Looking at the filtering unit 210 to filter the residual image using the weighted average as follows.
수학식 1 Equation 1
여기서 k는 프레임 번호를 의미하고, α는 필터 계수를 의미하고, x(k)는 k번째 입력된 프레임데이터를, y(k-1)은 (k-1)번째 프레임까지 가중 평균된 이전의 가중 프레임데이터를 의미한다. 수학식 1을 참조하면, 현재의 가중 프레임데이터는 이전의 가중 프레임데이터와 현재 입력된 프레임데이터 간의 선형결합(Linear Combination)에 의해 유도된다. 구체적으로 설명하면, k번째 가중 프레임데이터 y(k)는 k번째 수신한 프레임데이터 x(k)에 α(필터 계수)를 곱한 값과 이전의 가중 프레임데이터 y(k-1)에 1-α(필터 계수)를 곱한 값의 합으로 계산할 수 있다. 이를 위해, 필터링부는, 예컨대 도 3과 같이 구현될 수 있다.K denotes a frame number, α denotes a filter coefficient, x (k) denotes the k-th input frame data, and y (k-1) denotes the weighted average of the (k-1) th frame. It means weighted frame data. Referring to Equation 1, the current weighted frame data is derived by linear combination between the previous weighted frame data and the currently input frame data. Specifically, the k th weight frame data y (k) is a value obtained by multiplying the k th received frame data x (k) by α (filter coefficient) and the previous weight frame data y (k-1) 1-α. It can be calculated as the sum of the product of (filter coefficients). To this end, the filtering unit may be implemented, for example, as shown in FIG. 3.
필터링부의 구성을 도시한 도 3을 참조하면, 필터링부(210)는 제1 곱셈기(310), 지연기(320), 제2 곱셈기(330) 및 가산기(340)를 포함할 수 있다.Referring to FIG. 3 illustrating a configuration of the filtering unit, the filtering unit 210 may include a first multiplier 310, a delay unit 320, a second multiplier 330, and an adder 340.
초음파를 송신하여 획득한 프레임데이터가 입력되면, 제1곱셈기(310)는 계수 생성부(220)에서 생성된 필터 계수 α와 현재 입력된 프레임데이터를 곱하여 가산기(340)로 출력한다. 한편, 필터링부(210)가 직전에 가중 평균하여 생성한 가중 프레임데이터는 지연기(320)에 의해 한 프레임만큼 지연된다. 제2곱셈기(330)은 지연기(320)로부터 출력되는 이전 가중 프레임데이터에 필터 계수(1- α)를 곱하여 가산기(340)로 출력한다. 가산기(340)은 제1곱셈기(310)의 출력과 제2곱셈기(330)의 출력을 서로 더하여 현재의 가중 프레임데이터를 생성한다.When the frame data obtained by transmitting the ultrasound is input, the first multiplier 310 multiplies the filter coefficient α generated by the coefficient generator 220 with the currently input frame data and outputs the multiplier 340 to the adder 340. Meanwhile, the weighted frame data generated by the weighting average just before the filtering unit 210 is delayed by one frame by the delay unit 320. The second multiplier 330 multiplies the previous weighted frame data output from the delayer 320 by the filter coefficients 1-α and outputs the result to the adder 340. The adder 340 adds the output of the first multiplier 310 and the output of the second multiplier 330 to generate current weighted frame data.
가중 평균을 하는데 유효하게 사용되는 프레임 수 n은 조작자가 설정한 프레임 레이트(Frame Rate)와 잔상 지속 주파수(Persistence Frequency)에 의해 산출될 수 있다. 예컨대, 수학식 2에서 보는 바와 같이, 프레임 레이트를 잔상 지속 주파수를 나누어 구할 수 있다.The number of frames n effectively used for weighted averaging may be calculated by the frame rate and persistence frequency set by the operator. For example, as shown in Equation 2, the frame rate can be obtained by dividing the afterimage sustain frequency.
수학식 2
Figure PCTKR2015003308-appb-M000002
Equation 2
Figure PCTKR2015003308-appb-M000002
프레임 레이트란 초당 몇 개의 프레임데이터가 생성되는지를 나타내는 값을 의미한다. 잔상 지속 주파수는 인간의 눈에 잔상이 지속되는 시간(주기)의 역수 값을 의미한다. 프레임 레이트에 잔상 지속 주파수를 나누면(프레임 레이트에 잔상이 지속되는 시간을 곱한 것과 동일), 잔상이 몇 프레임 동안 지속되는지를 알 수 있다. 따라서 수학식 2를 이용해 구한 횟수만큼 가중 평균을 반복하면, 프레임데이터에 존재하는 잔상이 효과적으로 제거될 수 있다.  The frame rate means a value indicating how many frame data are generated per second. Afterimage persistence frequency refers to an inverse value of the time (period) of afterimage persistence in a human eye. By dividing the persistence frequency by the frame rate (the same as multiplying the duration of the afterimage by the frame rate), you can see how many frames the afterimage lasts. Therefore, if the weighted average is repeated as many times as obtained using Equation 2, afterimages existing in the frame data can be effectively removed.
계수 생성부(220)는 필터링부에서 사용하는 필터 계수를 생성한다. 필터 계수는 가중 평균을 하는데 유효하게 사용되는 프레임 수와 감쇄율의 비선형 함수에 의해 산출될 수 있다. 여기서, 가중 평균을 하는데 유효하게 사용되는 프레임 수는, 전술한 바와 같이, 프레임 레이트와 잔상 지속 주파수를 이용하여 계산될 수 있다. 이하에서는, 필터 계수를 추정하는 과정을 보다 상세히 설명한다The coefficient generator 220 generates filter coefficients used by the filtering unit. The filter coefficients can be calculated by a nonlinear function of the number of frames and the decay rate effectively used to weight the average. Here, the number of frames effectively used for weighted averaging can be calculated using the frame rate and the residual persistence frequency, as described above. Hereinafter, the process of estimating the filter coefficient will be described in more detail.
수학식 3
Figure PCTKR2015003308-appb-M000003
Equation 3
Figure PCTKR2015003308-appb-M000003
최초로 입력된 프레임데이터 외에 추가적으로 수신되는 프레임데이터가 없고 프레임데이터에서 잔상이 시간에 따라 일정한 비율로 감소한다고 가정하면, x(k)=0이므로, 수학식 1로부터 수학식 2가 유도될 수 있다. 여기서, y(0)은 최초로 입력된 프레임데이터를 의미하고, y(k)(k=1, 2, … n)는 k번째 프레임이 획득되는 시간이 경과한 시점에서의 잔상이 감소된 프레임데이터를 의미한다. n번째 프레임의 시간이 경과한 시점까지 y(0)의 잔상이 지속된다고 하면, 수학식 3으로부터 수학식 4을 얻을 수 있다. Assuming that there is no additional frame data received in addition to the first input frame data and the afterimage in the frame data decreases at a constant rate with time, equation (2) can be derived from equation (1) since x (k) = 0. Here, y (0) refers to the first frame data input, and y (k) (k = 1, 2, ... n) refers to the frame data of which the afterimage is reduced at the time when the k-th frame is acquired. Means. If the afterimage of y (0) persists until the time of the nth frame elapses, (4) can be obtained from (3).
수학식 4
Figure PCTKR2015003308-appb-M000004
Equation 4
Figure PCTKR2015003308-appb-M000004
수학식 4에서 K는 감쇄율을 나타낸다. 감쇄율이란 잔상이 없어지기 직전의 프레임데이터 y(n)과 최초 입력된 프레임 데이터 y(0)간의 비율을 의미한다. 이러한 감쇄율 K는 최초 입력된 프레임데이터의 잔상이 n 프레임의 시간이 경과한 후 얼마만큼의 크기로 남아 있는지를 실험적으로 획득할 수 있다. 따라서 필터 계수 α는 수학식 5에서 보는 바와 같이, 감쇄율 K와 잔상이 지속되는 프레임 수 n에 의해 계산할 수 있다.In Equation 4, K represents a decay rate. The decay rate means the ratio between the frame data y (n) immediately before the afterimage disappears and the first input frame data y (0). This attenuation rate K can experimentally obtain how much the residual image of the first input frame data remains after n frames have elapsed. Therefore, the filter coefficient α can be calculated by the decay rate K and the number of frames n in which the afterimage persists, as shown in Equation (5).
수학식 5
Figure PCTKR2015003308-appb-M000005
Equation 5
Figure PCTKR2015003308-appb-M000005
가중 평균을 하는데 유효하게 사용되는 프레임 수 n은, 수학식 2에서 설명한 바와 같이, 프레임 레이트를 잔상 지속 주파수로 나눔으로써 계산할 수 있기 때문에, 수학식 6이 성립한다..Since the frame number n effectively used for the weighted average can be calculated by dividing the frame rate by the afterimage sustain frequency as described in Equation 2, Equation 6 holds.
수학식 6
Figure PCTKR2015003308-appb-M000006
Equation 6
Figure PCTKR2015003308-appb-M000006
수학식 6에서 알 수 있는 바와 같이, 필터 계수는 감쇄율의 간단한 지수함수의 형태로 구성되기 때문에, 별도로 기 설정된 조건에 따라 각각의 조건에 해당하는 필터 계수를 모두 저장하고 있을 필요 없이, 간단한 연산으로 필터 계수를 생성할 수 있다.As can be seen from Equation 6, since the filter coefficient is configured in the form of a simple exponential function of the decay rate, it is not necessary to store all the filter coefficients corresponding to each condition according to a predetermined condition. Filter coefficients can be generated.
계수 생성부(220)는 조작자로부터 감쇄율, 프레임 레이트 및 잔상 지속 주파수 등의 조작에 의한 파라미터가 입력되면, 입력된 파라미터를 제어부로부터 수신하여 전술한 방식에 근거하여 필터 계수를 연산한다. 본 발명의 실시예에 따르면 조작에 의한 파라미터로부터 간단한 연산에 의해 필터 계수를 생성할 수 있으므로, 필터링을 위해 소요되는 시간을 줄일 수 있을 뿐 아니라 파라미터에 따라 계산된 필터 계수를 미리 룩업테이블 형식으로 저장하기 위한 메모리 없이 계수 생성부를 구현할 수 있다는 장점이 있다. 다만, 본 발명이 이에 한정되는 것은 아니며, 예컨대 수학식 6에 의해 계산된 필터 계수들을 룩업테이블 형식으로 메모리에 저장해 두고, 조작자로부터 감쇄율, 프레임 레이트 및 잔상 지속 주파수 등의 파라미터가 입력되면, 룩업테이블에서 입력된 파라미터에 대응하는 필터 계수를 검색하는 방식으로 계수 생성부(210)를 구현하는 것도 가능할 것이다.The coefficient generator 220 receives the input parameter from the controller and calculates a filter coefficient based on the above-described method when a parameter by manipulation such as attenuation rate, frame rate, and residual image sustain frequency is input from the operator. According to an embodiment of the present invention, since the filter coefficients can be generated by a simple operation from the parameters of the operation, the time required for filtering can be reduced, and the filter coefficients calculated according to the parameters are stored in the form of a lookup table in advance. There is an advantage that the coefficient generator can be implemented without a memory. However, the present invention is not limited thereto. For example, the filter coefficients calculated by Equation 6 are stored in a memory in the form of a lookup table, and when a parameter such as attenuation rate, frame rate and residual persistence frequency is input from an operator, the lookup table It may also be possible to implement the coefficient generator 210 by searching for a filter coefficient corresponding to the parameter input from the.
저장부(230)는 필터링부(220)의 필터링 과정을 거쳐 기 생성된 이전의 가중 프레임데이터 및 필터링부의 필터링 과정을 거쳐 생성되는 현재의 가중 프레임데이터를 저장한다. 저장부(230)는 필터링부가 수신한 프레임데이터의 잔상을 제거하기 위하여 필터링 과정을 진행함에 있어 필요로 하는 이전의 가중 프레임데이터를 제공한다. 또한 필터링부(220)가 가중 평균을 하는데 유효하게 사용되는 프레임 수 n에 따라 필터링 과정을 진행하여 생성한 현재의 가중 프레임데이터를 저장한다.The storage unit 230 stores previous weighted frame data previously generated through the filtering process of the filtering unit 220 and current weighted frame data generated through the filtering process of the filtering unit 220. The storage unit 230 provides previous weighted frame data required for the filtering process to remove residual images of the received frame data. In addition, the filtering unit 220 stores the current weighted frame data generated by performing the filtering process according to the number of frames n effectively used to perform the weighted average.
도 2를 참조하면, 본 발명의 다른 일 실시예에 따른 잔상 처리부(120)는 필터링부(210), 계수 생성부(220) 및 저장부(230)를 포함한다.Referring to FIG. 2, the afterimage processor 120 according to another exemplary embodiment of the present invention includes a filtering unit 210, a coefficient generator 220, and a storage unit 230.
필터링부(210)는 신호 처리부 또는 주사 변환부로부터 프레임데이터를 수신하여, 수신한 프레임데이터의 잔상을 필터링한다. 필터링부(210)는 수신한 프레임데이터의 잔상을 필터링하기 위해 수신한 프레임데이터와 이전의 가중 프레임데이터를 가중 평균을 하는 방식으로 잔상을 필터링한다. 필터링부(210)가 수신한 프레임데이터와 이전의 가중 프레임데이터를 가중 평균함에 있어, 수신한 프레임데이터와 이전의 가중 프레임데이터 각각에 곱할 가중치는 계수 생성부로부터 수신한 필터 계수를 이용한다. 가중 평균을 하는데 유효하게 사용되는 프레임 수 n가 A.x와 같이 정수부(A)와 소수부(x)로 나뉘는 경우, 필터링부(210)가 잔상을 필터링하는 방식을 수학식으로 살펴보면 다음과 같다.The filtering unit 210 receives the frame data from the signal processor or the scan converter, and filters the residual image of the received frame data. The filtering unit 210 filters the residual image by performing a weighted average of the received frame data and the previous weighted frame data to filter the residual image of the received frame data. In the weighted average of the received frame data and the previous weighted frame data, the filtering unit 210 uses a filter coefficient received from the coefficient generator as a weight to multiply each of the received frame data and the previous weighted frame data. When the number n of frames effectively used to perform the weighted average is divided into the integer part A and the fractional part x, such as A.x, the filtering method 210 filters the residual image as follows.
수학식 7
Figure PCTKR2015003308-appb-M000007
Equation 7
Figure PCTKR2015003308-appb-M000007
여기서 k는 프레임 번호를 의미하고, x(k)는 k번째 입력된 프레임데이터를 의미한다. 수학식 7을 참조하면 현재의 가중 프레임데이터는 k번째 입력된(현재 입력된) 프레임데이터로부터 (k-A+1)번째 입력되었던 프레임데이터는 1/n의 가중치를 부여하고 (k-A)번째 입력되었던 프레임데이터에는 0.x(n의 소수부)/n의 가중치를 부여하여 이들의 합으로 계산할 수 있다.Here k denotes a frame number and x (k) denotes k-th input frame data. Referring to equation (7), the current weighted frame data is the (k-A + 1) th frame data input from the kth input (currently input) frame weighted by 1 / n and the (kA) th input. The weighted frame data is weighted as 0.x (n fractional part of n) / n and can be calculated as a sum of these.
계수 생성부(220)는 필터링부에서 사용하는 필터 계수(가중치)를 생성한다. 전술한 바와 같이 가중 평균을 하는데 유효하게 사용되는 프레임 수 n은 조작에 의한 파라미터 중 프레임 레이트를 잔상 지속 주파수로 나누면 알 수 있다. 따라서 계수 생성부는 조작에 의한 파라미터 중 프레임 레이트와 잔상 지속 주파수로부터 n값, n의 정수부 및 n의 소수부를 연산한다. 연산된 n값, n의 정수부 및 n의 소수부는 필터링부로 제공되어 필터링부에서 필터 계수로 사용된다.The coefficient generator 220 generates a filter coefficient (weighted value) used in the filtering unit. As described above, the number n of frames effectively used for weighted averaging can be known by dividing the frame rate among the parameters by the operation by the residual persistence frequency. Therefore, the coefficient generator calculates n values, n integer parts and n fractional parts from the frame rate and the residual persistence frequency among the parameters by the operation. The calculated n value, the integer part of n and the fractional part of n are provided to the filtering part and used as a filter coefficient in the filtering part.
저장부(230)는 필터링부의 필터링 과정에서 필요로 하는 이전에 입력되었던 프레임데이터들을 저장한다. 또한 현재 입력되는 프레임데이터도 마찬가지로 이후 입력되는 프레임데이터를 가중평균하는데 있어 필요로 하기 때문에 현재 입력되는 프레임데이터의 가중 프레임데이터를 구한 경우(필터링이 완료된 경우), 저장부는 현재 입력된 프레임데이터 역시 저장한다.The storage unit 230 stores previously input frame data required by the filtering unit. In addition, since the frame data currently input is required to weight average the frame data to be input later, when the weighted frame data of the currently input frame data is obtained (filtering is completed), the storage unit also stores the currently input frame data. do.
도 2에 도시된 잔상 제거부에 포함된 각 구성요소는 장치 내부의 소프트웨어적인 모듈 또는 하드웨어적인 모듈을 연결하는 통신 경로에 연결되어 상호 간에 유기적으로 동작한다. 이러한 구성요소는 하나 이상의 통신 버스 또는 신호선을 이용하여 통신한다.Each component included in the afterimage removal unit illustrated in FIG. 2 is connected to a communication path connecting a software module or a hardware module inside the device to operate organically with each other. These components communicate using one or more communication buses or signal lines.
도 4는 본 발명의 일 실시예에 따른 초음파 영상처리방법의 순서를 도시한 순서도이다.4 is a flowchart illustrating a procedure of an ultrasonic image processing method according to an embodiment of the present invention.
프레임 레이트, 잔상 지속 주파수 및 감쇄율을 이용하여 필터 계수를 생성한다(S410). 잔상 제거부에 포함된 계수 생성부는 프레임 레이트, 잔상 지속 주파수 및 감쇄율 등의 조작에 의한 파라미터를 제어부로부터 수신한다. 수신한 정보를 이용하여 도 2를 참조하여 전술한 방식에 근거해 필터 계수를 연산한다. 필터 계수는 전술한 파라미터들의 지수함수로 구성된다. 여기서 지수함수는 감쇄율을 밑으로 하고, 프레임 레이트를 잔상 지속 주파수로 나눈 값을 지수로 하는 형태로 표현될 수 있다.The filter coefficient is generated using the frame rate, the afterimage persistence frequency, and the decay rate (S410). The coefficient generator included in the afterimage removal unit receives parameters from an operation such as a frame rate, an afterimage persistence frequency, and a decay rate from the control unit. Using the received information, the filter coefficient is calculated based on the method described above with reference to FIG. The filter coefficients consist of the exponential function of the above parameters. Here, the exponential function may be expressed in the form of having an attenuation rate lower and a value obtained by dividing the frame rate by the afterimage sustain frequency as an exponent.
필터 계수를 이용하여 현재 수신한 프레임데이터와 이전의 가중 프레임데이터를 가중 평균한다(S420). 생성된 필터 계수, 현재 프레임데이터 및 이전의 가중 프레임데이터를 수신하여, 현재 수신한 프레임데이터와 이전의 가중 프레임데이터에 필터 계수로 구성된 서로 다른 가중치 값을 곱한다. 예컨대, 수학식 1에서와 같이, 수신한 프레임데이터에 필터계수 α를 곱하고 이전의 가중 프레임데이터에 필터계수(1-α)를 뺀 값을 곱하여 가중 평균을 구한다. 이와 같이 가중 평균을 구함으로써 프레임데이터에 존재하는 잔상을 제거한다.A weighted average of the currently received frame data and the previous weighted frame data using the filter coefficients (S420). The generated filter coefficients, the current frame data, and the previous weighted frame data are received, and the currently received frame data and the previous weighted frame data are multiplied by different weight values composed of the filter coefficients. For example, as in Equation 1, the weighted average is obtained by multiplying the received frame data by the filter coefficient α and multiplying the previous weighted frame data by subtracting the filter coefficient (1-α). In this way, the weighted average is obtained to remove the afterimage present in the frame data.
도 4에서는 과정 S410 내지 과정 S420을 순차적으로 실행하는 것으로 기재하고 있으나, 이는 본 발명의 일 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것이다. 다시 말해, 본 발명의 일 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 일 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 도 4에 기재된 순서를 변경하여 실행하거나 과정 S410 내지 과정 S420 중 하나 이상의 과정을 병렬적으로 실행하는 것으로 다양하게 수정 및 변형하여 적용 가능할 것이므로, 도 4는 시계열적인 순서로 한정되는 것은 아니다.In FIG. 4, processes S410 to S420 are described as being sequentially executed. However, this is only illustrative of the technical idea of the exemplary embodiment of the present invention. In other words, a person of ordinary skill in the art to which an embodiment of the present invention belongs may execute or change the order described in FIG. 4 without departing from the essential characteristics of an embodiment of the present invention, or one of processes S410 to S420. Since the above processes may be variously modified and modified to be executed in parallel, FIG. 4 is not limited to the time series order.
한편, 도 4에 도시된 과정들은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 다시 말해서, 컴퓨터가 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등) 및 캐리어 웨이브(예를 들면, 인터넷을 통한 전송)와 같은 저장매체를 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.Meanwhile, the processes illustrated in FIG. 4 may be embodied as computer readable codes on a computer readable recording medium. The computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer system is stored. In other words, a computer-readable recording medium may include a magnetic storage medium (eg, a ROM, a floppy disk, a hard disk, etc.), an optical reading medium (eg, a CD-ROM, a DVD, etc.) and a carrier wave (eg, Storage media such as transmission over the Internet). The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.
이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present embodiment, and those skilled in the art to which the present embodiment belongs may make various modifications and changes without departing from the essential characteristics of the present embodiment. Therefore, the present embodiments are not intended to limit the technical idea of the present embodiment but to describe the present invention, and the scope of the technical idea of the present embodiment is not limited by these embodiments. The scope of protection of the present embodiment should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present embodiment.
(부호의 설명)(Explanation of the sign)
100: 초음파 의료장치 110: 트랜스듀서100: ultrasonic medical device 110: transducer
120: 프레임데이터 생성부 122: 빔포머120: frame data generation unit 122: beamformer
124: 신호 처리부 126: 주사 변환부124: signal processing unit 126: scanning conversion unit
130: 제어부 140: 잔상 처리부130: control unit 140: afterimage processing unit
150: 디스플레이부 210: 필터링부150: display unit 210: filtering unit
220: 계수 생성부 230: 저장부220: coefficient generation unit 230: storage unit
310: 제1 곱셈기 320: 지연기310: first multiplier 320: delay
330: 제2 곱셈기 340: 가산기330: second multiplier 340: adder

Claims (6)

  1. 대상체로 송신된 초음파의 반사신호에 기초하여 프레임데이터를 생성하는 프레임데이터 생성부; 및A frame data generator for generating frame data based on the reflected signal of the ultrasound transmitted to the object; And
    상기 프레임데이터 생성부와 연결되며, 이전의 가중 프레임데이터 및 상기 프레임데이터 생성부로부터 현재 입력되는 프레임데이터를 필터 계수를 이용하여 가중 평균함으로써 잔상이 제거된 프레임데이터를 생성하는 잔상 처리부를 포함하고,A residual image processing unit connected to the frame data generation unit and generating frame data from which residual images are removed by weighted averaging previously weighted frame data and frame data currently input from the frame data generation unit using filter coefficients;
    상기 필터 계수는 감쇄율(Decay Ratio), 프레임 레이트(Frame Rate) 및 잔상 지속 주파수(Persistence Frequency)의 비선형함수로부터 유도되는 것을 특징으로 하는 초음파 의료장치.And the filter coefficients are derived from nonlinear functions of decay ratio, frame rate, and persistence frequency.
  2. 제1항에 있어서,The method of claim 1,
    상기 비선형함수는,The nonlinear function is
    상기 감쇄율을 밑(Base)으로 하고, 상기 프레임 레이트를 상기 잔상 지속 주파수로 나눈 값을 지수로 하는 지수함수 형태로 표현되는 것을 특징으로 하는 초음파 의료장치.And the attenuation rate as a base, and expressed as an exponential function in which the value obtained by dividing the frame rate by the after-image persistence frequency is an exponent.
  3. 프레임 레이트(Frame Rate), 잔상 지속 주파수(Persistence Frequency) 및 기 설정된 감쇄율(Decay Ratio)을 이용하여 필터 계수를 생성하는 계수 생성부;A coefficient generator for generating filter coefficients using a frame rate, a persistence frequency, and a predetermined decay ratio;
    현재 입력된 프레임데이터, 이전에 생성된 가중 프레임데이터를 상기 필터 계수를 이용하여 가중 평균함으로써, 잔상을 제거한 프레임데이터를 생성하는 필터링부; 및A filtering unit which generates frame data from which residual images are removed by weighted averaging currently input frame data and previously generated weight frame data using the filter coefficients; And
    상기 필터링부에 의해 가중 평균되는 프레임데이터를 저장하는 저장부A storage unit for storing frame data weighted and averaged by the filtering unit
    를 포함하는 것을 특징으로 하는 초음파 영상처리장치.Ultrasonic image processing apparatus comprising a.
  4. 제3항에 있어서,The method of claim 3,
    상기 계수 생성부는,The coefficient generator,
    상기 기 설정된 감쇄율을 밑으로 하고, 상기 상기 프레임 레이트를 상기 잔상 지속 주파수로 나눈 값을 지수로 하는 지수함수를 이용하여 상기 필터 계수를 생성하는 것을 특징으로 하는 초음파 영상처리장치.And the filter coefficients are generated by using an exponential function of which the predetermined attenuation rate is lowered and the frame rate divided by the afterimage sustain frequency is an exponential function.
  5. 잔상 효과를 감소시키기 위한 초음파 영상처리방법에 있어서,In the ultrasonic image processing method for reducing the afterimage effect,
    프레임 레이트(Frame Rate), 잔상 지속 주파수(Persistence Frequency) 및 감쇄율(Decay Ratio)을 이용하여 필터 계수를 결정하는 단계 및;Determining filter coefficients using a frame rate, a persistence frequency, and a decay ratio;
    필터 계수를 이용하여 현재 입력된 프레임데이터와 이전의 가중 프레임 데이터를 가중 평균하여 최종 가중 프레임 데이터를 생성하는 단계를 포함하는 것을 특징으로 하는 초음파 영상처리방법.And performing weighted averaging of the currently input frame data and previous weight frame data using filter coefficients to generate final weight frame data.
  6. 제5항에 있어서,The method of claim 5,
    상기 필터 계수는,The filter coefficient is,
    상기 감쇄율을 밑(Base)으로 하고, 상기 프레임 레이트를 상기 잔상 지속 주파수로 나눈 값을 지수로 하는 지수함수로부터 유도되는 것을 특징으로 하는 초음파 영상처리방법.And a derivation function based on the decay rate as a base and a value obtained by dividing the frame rate by the afterimage sustain frequency as an exponent.
PCT/KR2015/003308 2015-04-02 2015-04-02 Image processing device and method removing afterimage of ultrasonic image WO2016159417A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2015/003308 WO2016159417A1 (en) 2015-04-02 2015-04-02 Image processing device and method removing afterimage of ultrasonic image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2015/003308 WO2016159417A1 (en) 2015-04-02 2015-04-02 Image processing device and method removing afterimage of ultrasonic image

Publications (1)

Publication Number Publication Date
WO2016159417A1 true WO2016159417A1 (en) 2016-10-06

Family

ID=57005238

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/003308 WO2016159417A1 (en) 2015-04-02 2015-04-02 Image processing device and method removing afterimage of ultrasonic image

Country Status (1)

Country Link
WO (1) WO2016159417A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11530095B2 (en) 2017-03-06 2022-12-20 Joy Global Underground Mining Llc Chain conveyor and link for same

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004129967A (en) * 2002-10-15 2004-04-30 Ge Medical Systems Global Technology Co Llc Ultrasonographic apparatus
JP2008035971A (en) * 2006-08-02 2008-02-21 Ge Medical Systems Global Technology Co Llc Ultrasonic diagnosing device and motion factor calculating method
US20090225827A1 (en) * 2008-03-07 2009-09-10 Shenzhen Mindray Bio-Medical Electronics Co., Ltd. Method and apparatus for adaptive frame averaging
KR20100069577A (en) * 2008-12-15 2010-06-24 주식회사 메디슨 Data processing system and method
KR20140084065A (en) * 2011-10-12 2014-07-04 세노 메디컬 인스투르먼츠 인코포레이티드 System and method for acquiring optoacoustic data and producing parametric maps thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004129967A (en) * 2002-10-15 2004-04-30 Ge Medical Systems Global Technology Co Llc Ultrasonographic apparatus
JP2008035971A (en) * 2006-08-02 2008-02-21 Ge Medical Systems Global Technology Co Llc Ultrasonic diagnosing device and motion factor calculating method
US20090225827A1 (en) * 2008-03-07 2009-09-10 Shenzhen Mindray Bio-Medical Electronics Co., Ltd. Method and apparatus for adaptive frame averaging
KR20100069577A (en) * 2008-12-15 2010-06-24 주식회사 메디슨 Data processing system and method
KR20140084065A (en) * 2011-10-12 2014-07-04 세노 메디컬 인스투르먼츠 인코포레이티드 System and method for acquiring optoacoustic data and producing parametric maps thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11530095B2 (en) 2017-03-06 2022-12-20 Joy Global Underground Mining Llc Chain conveyor and link for same

Similar Documents

Publication Publication Date Title
JP4928801B2 (en) Ultrasonic diagnostic equipment
WO2014003404A1 (en) Mobile ultrasound diagnosis system using two-dimensional array data and mobile ultrasound diagnosis probe device and ultrasound diagnosis apparatus for the system
WO2013162244A1 (en) Mobile ultrasound diagnosis probe apparatus for using two-dimension array data, mobile ultrasound diagnosis system using the same
WO2018199346A1 (en) Device and method for generating ultrasound vector doppler image using plane wave synthesis
WO2015080317A1 (en) Method and apparatus for compounding ultrasonic images
WO2015133677A1 (en) Device for reducing speckle in ultrasound image
JP4864353B2 (en) Adaptive ultrasound imaging system
EP3187896A1 (en) Method and system for performing baseband digital receiver beamforming on ultrasound signals
CN107550505A (en) X-ray detector, x-ray camera system and x-ray image capture method
WO2016159417A1 (en) Image processing device and method removing afterimage of ultrasonic image
JP2017528271A (en) Acoustic imaging method and apparatus
US9664782B2 (en) Object information acquiring apparatus
WO2020096273A1 (en) Method and system for extracting three-dimensional depth information in image
WO2012067391A2 (en) Color flow imaging method, and ultrasonic device therefor
US7946991B2 (en) Ultrasonic doppler blood flow measuring device
WO2015080318A1 (en) Beamforming method and apparatus using unfocused ultrasonic waves
JPH02164352A (en) Ultrasonic diagnostic image processing device
WO2017171210A1 (en) Novel ultrasonic doppler imaging device using plane wave synthesis and control method therefor
WO2015080315A1 (en) Ultrasonic diagnostic apparatus and method
US11129596B2 (en) Systems and methods for ultrasound multiplexing
WO2017188466A1 (en) Device and method for ultrasound signal processing using composite modulation code
WO2017142134A1 (en) Method for performing beamforming and beamformer
KR102528546B1 (en) Ultrasonic image data transferring method and device to a host computer system
WO2015041380A1 (en) Harmonic imaging method and ultrasound medical device for same
WO2016153098A1 (en) Method and device for improving estimation quality of signal

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15887827

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15887827

Country of ref document: EP

Kind code of ref document: A1