KR20190096085A - Ultrasound system and method for providing insertion position of read instrument - Google Patents

Ultrasound system and method for providing insertion position of read instrument Download PDF

Info

Publication number
KR20190096085A
KR20190096085A KR1020180015605A KR20180015605A KR20190096085A KR 20190096085 A KR20190096085 A KR 20190096085A KR 1020180015605 A KR1020180015605 A KR 1020180015605A KR 20180015605 A KR20180015605 A KR 20180015605A KR 20190096085 A KR20190096085 A KR 20190096085A
Authority
KR
South Korea
Prior art keywords
ultrasound
insertion position
ultrasound image
tool
processor
Prior art date
Application number
KR1020180015605A
Other languages
Korean (ko)
Other versions
KR102572015B1 (en
Inventor
이광재
금승한
Original Assignee
지멘스 메디컬 솔루션즈 유에스에이, 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 지멘스 메디컬 솔루션즈 유에스에이, 인크. filed Critical 지멘스 메디컬 솔루션즈 유에스에이, 인크.
Priority to KR1020180015605A priority Critical patent/KR102572015B1/en
Publication of KR20190096085A publication Critical patent/KR20190096085A/en
Application granted granted Critical
Publication of KR102572015B1 publication Critical patent/KR102572015B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

The present invention relates to a method for providing an insertion position of a read instrument inserted into a target, and an ultrasound system. According to an embodiment of the present invention, the method for providing an insertion position of a read instrument comprises the steps of: forming an ultrasound image of a target; obtaining first position information of an interest region set in the target from the ultrasound image; calculating second position information showing an insertion position of a read instrument on a surface of the target into which the read instrument is inserted in the interest region based on the first position information; and displaying the insertion position of the read instrument corresponding to the second position information on the surface of the target.

Description

검침 도구 삽입 위치를 제공하기 위한 방법 및 초음파 시스템{ULTRASOUND SYSTEM AND METHOD FOR PROVIDING INSERTION POSITION OF READ INSTRUMENT}ULTRASOUND SYSTEM AND METHOD FOR PROVIDING INSERTION POSITION OF READ INSTRUMENT}

본 개시는 대상체로 삽입되는 검침 도구의 삽입 위치를 제공하기 위한 방법 및 초음파 시스템에 관한 것이다.The present disclosure relates to a method and an ultrasound system for providing an insertion position of a metering instrument inserted into a subject.

의료 기술이 발달함에 따라 생체를 직접 절개하지 않고 생체에 최소 크기의 구멍을 낸 후 생체 내부 영상을 보면서 병변이 있는 부위에 에블레이터(ablator) 또는 바이옵시(biopsy) 등의 의료용 바늘(needle)을 삽입하여 치료나 검사를 행하는 기술이 이용되고 있다. 이러한 방법은 의학 영상장비로 생체 내부를 관찰하면서 시술을 행하기 때문에 "영상을 이용하는 시술법" 또는 "중재적 시술법"이라 한다. 즉, 중재적 시술은 CT(computerized tomography), MRI(magnetic resonance imager), 초음파 시스템 등으로부터 얻은 영상을 시술 중에 보면서 피부를 통해 의료용 바늘(검침 도구)을 검사 또는 치료가 필요한 병변에 직접 도달시켜 진단이나 치료를 하는 시술을 말한다.As medical technology develops, a small size hole is made in a living body without directly cutting the living body, and a medical needle such as an ablator or a biopsy is placed on the lesion site while viewing an internal image of the living body. Techniques for insertion and treatment or examination have been used. This method is called "a procedure using an image" or "mediated procedure" because the procedure is performed while observing the inside of the living body with a medical imaging device. In other words, the interventional procedure is diagnosed by directly accessing a medical needle (probe tool) to the lesion requiring examination or treatment through the skin while viewing images obtained from computerized tomography (MRI), magnetic resonance imager (MRI), and ultrasound system. Or treatment to be treated.

이러한 중재적 시술법은 일반적으로 절개가 필요한 외과 치료와 비교할 때, 전신 마취가 필요 없고, 생체(예를 들어, 환자)의 신체적 부담이 적고, 통증이나 고통이 적으며, 입원 기간도 단축되며, 시술 후 일상으로 빠르게 복귀할 수 있어, 의료 비용과 효과 면에서도 많은 이득이 되고 있다.These interventional procedures generally do not require general anesthesia, require less physical burden on the living body (e.g., patient), less pain or pain, shorter hospital stays, and shorter hospitalization compared to surgical treatments that require incisions. It is possible to quickly return to daily life, which is a great benefit in terms of medical cost and effectiveness.

중재적 시술법을 수행할 경우, 의료용 바늘을 생체에 삽입하는 삽입 위치, 삽입 각도 및 얼마만큼의 깊이까지 삽입하여야 하는지에 대한 삽입 깊이 정보는 필수적인 정보에 해당한다. 그러나, 기존의 중재적 시술법에서는 초음파 시스템이 의료용 바늘을 생체로 삽입하는 삽입 위치, 삽입 각도 및 삽입 깊이를 제공하지 않으며, 삽입 위치, 삽입 각도 및 삽입 깊이가 초음파 시스템 사용자의 경험치 등 주관적 요소에 의해서 결정된다. 따라서, 초음파 시스템 사용이 익숙하지 않은 사용자는 중재적 시술법을 용이하게 수행하기 어려웠고, 이러한 사용자가 중재적 시술법을 원활하게 수행하려면 많은 시간과 노력을 필요로 한다.When performing the interventional procedure, the insertion depth information about the insertion position, the insertion angle, and the depth to which the medical needle is inserted into the living body corresponds to essential information. However, in the conventional interventional method, the ultrasound system does not provide the insertion position, the insertion angle, and the insertion depth into which the medical needle is inserted into the living body, and the insertion position, the insertion angle, and the insertion depth are determined by subjective factors such as the experience of the user of the ultrasound system. Is determined. Therefore, it is difficult for a user who is unfamiliar with the use of an ultrasound system to perform an interventional procedure easily, and this user requires a lot of time and effort to perform the interventional procedure smoothly.

본 개시는 대상체로 삽입되는 검침 도구의 삽입 위치를 제공하기 위한 방법 및 초음파 시스템을 제공한다.The present disclosure provides a method and ultrasound system for providing an insertion position of a metering instrument inserted into a subject.

본 개시의 실시예에 따른 초음파 시스템에서 검침 도구 삽입 위치를 제공하는 방법은, 대상체의 초음파 영상을 형성하는 단계, 상기 초음파 영상으로부터 상기 대상체 내에 설정된 관심 영역의 제1 위치 정보를 획득하는 단계; 상기 제1 위치 정보에 기초하여 상기 관심 영역으로 상기 검침 도구를 삽입하기 위한 상기 대상체의 표면 상에서의 상기 검침 도구의 삽입 위치를 나타내는 제2 위치 정보를 산출하는 단계 및 상기 대상체의 표면에 상기 제2 위치 정보에 대응하는 상기 검침 도구의 삽입 위치를 표시하는 단계를 포함할 수 있다.According to an embodiment of the present disclosure, a method of providing an insertion position of a metering tool in an ultrasound system may include forming an ultrasound image of an object, and obtaining first location information of an ROI set in the object from the ultrasound image; Calculating second position information indicating an insertion position of the metering tool on the surface of the object for inserting the metering tool into the region of interest based on the first positional information and the second position on the surface of the object And displaying an insertion position of the meter reading tool corresponding to the position information.

일 실시예에서, 상기 제2 위치 정보를 산출하는 단계는, 상기 제1 위치 정보에 기초하여 상기 대상체 표면으로부터 상기 관심 영역까지의 깊이(depth)를 산출하는 단계; 상기 검침 도구를 상기 대상체 내에 삽입하는 각도(angle)를 획득하는 단계 및 상기 깊이 및 상기 각도를 이용하여 상기 제2 위치 정보를 산출하는 단계를 포함할 수 있다.The calculating of the second position information may include calculating a depth from the object surface to the ROI based on the first position information; The method may include obtaining an angle of inserting the metering tool into the object, and calculating the second position information by using the depth and the angle.

일 실시예에서, 검침 도구 삽입 위치 제공 방법은, 상기 대상체의 표면에 접촉된 상기 초음파 시스템의 초음파 트랜스듀서(ultrasound transducer)로부터 상기 제2 위치 정보에 대응하는 상기 검침 도구의 삽입 위치까지의 거리(length)를 산출하는 단계를 더 포함할 수 있다.In one embodiment, the method for providing a metering tool insertion position may include a distance from an ultrasonic transducer of the ultrasound system in contact with a surface of the object to an insertion position of the metering tool corresponding to the second positional information ( calculating a length) may be further included.

일 실시예에서, 상기 대상체의 표면에 상기 제2 위치 정보에 대응하는 상기 검침 도구의 삽입 위치를 표시하는 단계는, 상기 초음파 트랜스듀서에 포함된 위치 표시부를 이용하여 상기 대상체의 표면에 상기 거리를 측정할 수 있는 시각적 객체를 표시하는 단계를 포함할 수 있다.In one embodiment, displaying the insertion position of the metering tool corresponding to the second position information on the surface of the object, by using the position indicator included in the ultrasonic transducer to the distance to the surface of the object And displaying the measurable visual object.

일 실시예에서, 검침 도구 삽입 위치 제공 방법은, 상기 초음파 시스템의 사용자로부터 수신한 관심 영역 설정 요청 또는 상기 초음파 영상을 이용한 자동 영역 추출 방법에 기초하여 상기 대상체에서 상기 관심 영역을 설정하는 단계를 더 포함할 수 있다.In one embodiment, the method of providing a meter insertion position may further include setting the ROI in the object based on a ROI request from a user of the ultrasound system or an automatic region extraction method using the ultrasound image. It may include.

일 실시예에서, 검침 도구 삽입 위치 제공 방법은, 상기 초음파 영상과 상기 대상체에 삽입된 상기 검침 도구의 이미지를 결합하여 결합 초음파 영상을 형성하는 단계 및 상기 결합 초음파 영상을 디스플레이부를 통하여 표시하는 단계를 더 포함할 수 있다.In one embodiment, the method of providing a metering tool insertion position may include combining the ultrasound image with an image of the metering tool inserted into the object to form a combined ultrasound image and displaying the combined ultrasound image on a display unit. It may further include.

일 실시예에서, 검침 도구 삽입 위치 제공 방법은, 산출된 제2 위치 정보를 상기 초음파 시스템의 디스플레이부에 표시하는 단계를 더 포함할 수 있다.In one embodiment, the method for providing a meter insertion position may further include displaying the calculated second position information on a display unit of the ultrasound system.

본 개시의 실시예에 따른 검침 도구 삽입 위치 제공을 위한 초음파 시스템은, 대상체의 초음파 영상을 형성하고, 상기 초음파 영상으로부터 상기 대상체 내에 설정된 관심 영역의 제1 위치 정보를 획득하며, 상기 제1 위치 정보에 기초하여 상기 관심 영역으로 상기 검침 도구를 삽입하기 위한 상기 대상체의 표면 상에서의 상기 검침 도구의 삽입 위치를 나타내는 제2 위치 정보를 산출하는 프로세서 및 상기 대상체의 표면에 상기 제2 위치 정보에 대응하는 상기 검침 도구의 삽입 위치를 표시하는 위치 표시부를 포함할 수 있다.According to an embodiment of the present disclosure, an ultrasound system for providing an insertion position of a metering tool, forms an ultrasound image of an object, obtains first location information of an ROI set in the object from the ultrasound image, and provides the first location information. A processor for calculating second positional information indicating an insertion position of the metering tool on the surface of the object for inserting the metering tool into the region of interest based on and corresponding to the second positional information on the surface of the object; It may include a position display for displaying the insertion position of the meter reading tool.

일 실시예에서, 상기 프로세서는, 상기 제1 위치 정보에 기초하여 상기 대상체 표면으로부터 상기 관심 영역까지의 깊이(depth)를 산출하고, 상기 검침 도구를 상기 대상체 내에 삽입하는 각도(angle)를 획득하며, 상기 깊이 및 상기 각도를 이용하여 상기 제2 위치 정보를 산출할 수 있다.In one embodiment, the processor calculates a depth from the object surface to the region of interest based on the first location information, obtains an angle of inserting the metering tool into the object, The second position information may be calculated using the depth and the angle.

일 실시예에서, 상기 프로세서는 상기 대상체의 표면에 접촉된 상기 초음파 시스템의 초음파 트랜스듀서(ultrasound transducer)로부터 상기 제2 위치 정보에 대응하는 상기 검침 도구의 삽입 위치까지의 거리(length)를 산출할 수 있다.In one embodiment, the processor may calculate a length from an ultrasonic transducer of the ultrasound system in contact with the surface of the object to an insertion position of the metering tool corresponding to the second position information. Can be.

일 실시예에서, 상기 프로세서는, 상기 초음파 트랜스듀서에 포함된 위치 표시부를 이용하여 상기 대상체의 표면에 상기 거리를 측정할 수 있는 시각적 객체를 표시하도록 제어할 수 있다.In one embodiment, the processor may be configured to display a visual object capable of measuring the distance on the surface of the object by using the position display unit included in the ultrasound transducer.

일 실시예에서, 상기 프로세서는, 상기 초음파 시스템의 사용자로부터 수신한 관심 영역 설정 요청 또는 상기 초음파 영상을 이용한 자동 영역 추출 방법에 기초하여 상기 대상체에서 상기 관심 영역을 설정할 수 있다.In an embodiment, the processor may set the ROI in the object based on an ROI request from a user of the ultrasound system or an automatic region extraction method using the ultrasound image.

일 실시예에서, 상기 프로세서는, 상기 초음파 영상과 상기 대상체에 삽입된 상기 검침 도구의 이미지를 결합하여 결합 초음파 영상을 형성하고, 상기 결합 초음파 영상을 디스플레이부를 통하여 표시하도록 제어할 수 있다.In one embodiment, the processor may combine the ultrasound image and the image of the metering tool inserted into the object to form a combined ultrasound image, and control the display to display the combined ultrasound image through a display unit.

일 실시예에서, 초음파 시스템은, 상기 초음파 영상 및 산출된 제2 위치 정보를 표시하는 디스플레이부를 더 포함할 수 있다.In an embodiment, the ultrasound system may further include a display configured to display the ultrasound image and the calculated second position information.

본 개시의 실시예에 따르면, 초음파 시스템을 이용한 중재적 시술법 수행 시 검침 도구를 생체에 삽입하기 위한 삽입 위치에 대한 정보를 제공할 수 있다. 또한, 초음파 시스템은 삽입 각도 및 삽입 깊이에 대한 정보를 더 제공할 수 있다. 또한, 검침 도구의 삽입 위치에 대한 정보를 시각 정보로서 초음파 시스템의 사용자에게 제공할 수 있기 때문에 사용자가 중재적 시술법을 안정적이고 정확하게 수행하도록 할 수 있다.According to an embodiment of the present disclosure, when performing an interventional procedure using an ultrasound system, information about an insertion position for inserting a metering tool into a living body may be provided. In addition, the ultrasound system may further provide information about the insertion angle and the insertion depth. In addition, since information on the insertion position of the metering tool can be provided to the user of the ultrasound system as visual information, the user can be stably and accurately performing the interventional procedure.

도 1은 본 개시의 일 실시예에 따른 초음파 시스템의 구성을 개략적으로 나타내는 블록도이다.
도 2는 본 개시의 실시예에 따른 검침 도구 삽입 위치 제공을 위한 초음파 시스템의 구성을 보이는 블록도이다.
도 3은 본 개시의 실시예에 따른 대상체의 초음파 영상을 보이는 예시도이다.
도 4는 본 개시의 실시예에 따른 검침 도구 위치 제공 방법의 흐름도이다.
도 5는 본 개시의 실시예에 따른 제2 위치 정보 산출 방법의 흐름도이다.
도 6은 본 개시의 실시예에 따른 위치 표시부가 대상체의 표면에 검침 도구의 삽입 위치를 표시한 예시도이다.
도 7은 본 개시의 실시예에 따른 위치 표시부가 대상체의 표면에 눈금을 표시한 예시도이다.
1 is a block diagram schematically illustrating a configuration of an ultrasound system according to an exemplary embodiment of the present disclosure.
2 is a block diagram showing the configuration of an ultrasound system for providing a metering tool insertion position according to an embodiment of the present disclosure.
3 is an exemplary view showing an ultrasound image of an object according to an exemplary embodiment of the present disclosure.
4 is a flowchart of a method of providing a meter reading tool position according to an embodiment of the present disclosure.
5 is a flowchart of a method of calculating second location information according to an embodiment of the present disclosure.
6 is an exemplary view showing the insertion position of the metering tool on the surface of the object according to an embodiment of the present disclosure.
7 is an exemplary diagram in which a position display unit displays a scale on a surface of an object according to an exemplary embodiment of the present disclosure.

본 개시의 실시예들은 본 개시의 기술적 사상을 설명하기 위한 목적으로 예시된 것이다. 본 개시에 따른 권리범위가 이하에 제시되는 실시예들이나 이들 실시예들에 대한 구체적 설명으로 한정되는 것은 아니다.Embodiments of the present disclosure are illustrated for the purpose of describing the technical spirit of the present disclosure. The scope of the present disclosure is not limited to the embodiments set forth below or the detailed description of these embodiments.

본 개시에 사용되는 모든 기술적 용어들 및 과학적 용어들은, 달리 정의되지 않는 한, 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 일반적으로 이해되는 의미를 갖는다. 본 개시에 사용되는 모든 용어들은 본 개시를 더욱 명확히 설명하기 위한 목적으로 선택된 것이며 본 개시에 따른 권리범위를 제한하기 위해 선택된 것이 아니다.All technical and scientific terms used in the present disclosure, unless defined otherwise, have the meanings that are commonly understood by one of ordinary skill in the art to which this disclosure belongs. All terms used in the present disclosure are selected for the purpose of more clearly describing the present disclosure, and are not selected to limit the scope of the rights according to the present disclosure.

본 개시에서 사용되는 "포함하는", "구비하는", "갖는" 등과 같은 표현은, 해당 표현이 포함되는 어구 또는 문장에서 달리 언급되지 않는 한, 다른 실시예를 포함할 가능성을 내포하는 개방형 용어(open-ended terms)로 이해되어야 한다.As used in this disclosure, expressions such as "comprising", "including", "having", and the like, are open terms that imply the possibility of including other embodiments unless otherwise stated in the phrase or sentence in which the expression is included. should be understood as open-ended terms.

본 개시에서 기술된 단수형의 표현은 달리 언급하지 않는 한 복수형의 의미를 포함할 수 있으며, 이는 청구범위에 기재된 단수형의 표현에도 마찬가지로 적용된다.As used herein, the singular forms "a", "an" and "the" are intended to include the plural forms as well, unless the context clearly indicates otherwise.

본 개시에서 사용되는 "제1", "제2" 등의 표현들은 복수의 구성요소들을 상호 구분하기 위해 사용되며, 해당 구성요소들의 순서 또는 중요도를 한정하는 것은 아니다.Expressions such as “first”, “second”, and the like used in the present disclosure are used to distinguish a plurality of components from each other, and do not limit the order or importance of the components.

본 개시에서 사용되는 용어 "부"는, 소프트웨어, 또는 FPGA(field-programmable gate array), ASIC(application specific integrated circuit)과 같은 하드웨어 구성요소를 의미한다. 그러나, "부"는 하드웨어 및 소프트웨어에 한정되는 것은 아니다. "부"는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고, 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서, "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세서, 함수, 속성, 프로시저, 서브루틴, 프로그램 코드의 세그먼트, 드라이버, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조, 테이블, 어레이 및 변수를 포함한다. 구성요소와 "부" 내에서 제공되는 기능은 더 작은 수의 구성요소 및 "부"로 결합되거나 추가적인 구성요소와 "부"로 더 분리될 수 있다.The term "unit" as used in the present disclosure refers to software or a hardware component such as a field-programmable gate array (FPGA) or an application specific integrated circuit (ASIC). However, "part" is not limited to hardware and software. The "unit" may be configured to be in an addressable storage medium, and may be configured to play one or more processors. Thus, as an example, "parts" means components such as software components, object-oriented software components, class components, and task components, processors, functions, properties, procedures, subroutines, It includes segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables. Functions provided within a component and "part" may be combined into a smaller number of components and "parts" or further separated into additional components and "parts".

본 개시에서 사용되는 "~에 기초하여"라는 표현은, 해당 표현이 포함되는 어구 또는 문장에서 기술되는, 결정, 판단의 행위 또는 동작에 영향을 주는 하나 이상의 인자를 기술하는데 사용되며, 이 표현은 결정, 판단의 행위 또는 동작에 영향을 주는 추가적인 인자를 배제하지 않는다.As used in this disclosure, the expression “based on” is used to describe one or more factors that affect the behavior or behavior of a decision, judgment, described in a phrase or sentence that includes the expression, which expression Does not exclude additional factors that affect decisions, actions of behaviour, or actions.

본 개시에서, 어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 경우, 어떤 구성요소가 다른 구성요소에 직접적으로 연결될 수 있거나 접속될 수 있는 것으로, 또는 새로운 다른 구성요소를 매개로 하여 연결될 수 있거나 접속될 수 있는 것으로 이해되어야 한다.In the present disclosure, when a component is referred to as being "connected" or "connected" to another component, that component can be directly connected to or connected to another component, or a new different configuration It is to be understood that the connection may be or may be connected via an element.

이하, 첨부한 도면들을 참조하여, 본 개시의 실시예들을 설명한다.  첨부된 도면에서, 동일하거나 대응하는 구성요소에는 동일한 참조부호가 부여되어 있다. 또한, 이하의 실시예들의 설명에 있어서, 동일하거나 대응하는 구성요소를 중복하여 기술하는 것이 생략될 수 있다. 그러나, 구성요소에 관한 기술이 생략되어도, 그러한 구성요소가 어떤 실시예에 포함되지 않는 것으로 의도되지 않는다.Hereinafter, embodiments of the present disclosure will be described with reference to the accompanying drawings. In the accompanying drawings, the same or corresponding components are given the same reference numerals. In addition, in the following description of the embodiments, it may be omitted to duplicate the same or corresponding components. However, even if the description of the component is omitted, it is not intended that such component is not included in any embodiment.

본 명세서에서의 "대상체"는 초음파 시스템을 이용하여 초음파 영상을 얻고자 하는 목적물 또는 대상물로서, 생물 또는 무생물일 수 있다. 또한, 대상체가 생물인 경우 인체의 일부를 의미할 수 있고, 대상체에는 간이나, 심장, 자궁, 뇌, 유방, 복부, 혈관(또는 혈류) 등의 장기나, 태아 등이 포함될 수 있으며, 인체의 어느 한 단면이 포함될 수 있다. 또한, 본 명세서에서의 "사용자"는 초음파 시스템을 운영하여 사용할 수 있는 의료 전문가로서, 의사, 간호사, 임상병리사, 소노그래퍼(sonographer) 또는 다른 의료 영상 전문가 등일 수 있으나, 이에 한정되는 것은 아니다.As used herein, an “object” is an object or object for which an ultrasound image is to be obtained using an ultrasound system, and may be living or non-living. In addition, when the subject is a living organism, it may mean a part of the human body, and the subject may include an organ such as the liver, the heart, the uterus, the brain, the breast, the abdomen, the blood vessel (or the bloodstream), or the fetus. Either cross section may be included. In addition, the "user" in the present specification is a medical professional who can operate and use an ultrasound system, and may be a doctor, a nurse, a clinical pathologist, a sonographer or another medical imaging expert, but is not limited thereto.

도 1은 본 개시의 일 실시예에 따른 초음파 시스템의 구성을 개략적으로 나타내는 블록도이다.1 is a block diagram schematically illustrating a configuration of an ultrasound system according to an exemplary embodiment of the present disclosure.

도 1에 도시한 바와 같이, 초음파 시스템(100)은 송신부(110), 초음파 트랜스듀서(ultrasound transducer, 120), 수신부(130), 신호 처리부(140) 및 디스플레이부(150)를 포함할 수 있다.As shown in FIG. 1, the ultrasound system 100 may include a transmitter 110, an ultrasonic transducer 120, a receiver 130, a signal processor 140, and a display 150. .

송신부(110)는 소정의 송신 패턴을 가지도록 전기적 펄스 신호를 지연시키고, 지연된 전기적 펄스 신호를 초음파 트랜스듀서(120)로 전송할 수 있다. 초음파 트랜스듀서(120)는 압전 세라믹 소자에 복수의 매칭 레이어(matching layers)가 적층된 복수의 변환 소자(transducer elements)를 포함하는 초음파 트랜스듀서 어레이(array)를 포함할 수 있다. 초음파 트랜스듀서(120)는 송신부(110)로부터의 지연된 전기적 펄스 신호에 응답하여 초음파 신호를 대상체로 출력할 수 있다. 예를 들어, 대상체는 신체의 일부를 의미할 수 있으며, 간, 심장, 복부 등의 장기나 태아 등이 포함될 수 있다. 또한, 초음파 트랜스듀서(120)는 대상체로부터 반사된 초음파 에코 신호를 수신할 수 있다. 초음파 트랜스듀서(120)는 수신된 초음파 에코 신호를 전기적 신호로 변환하여 수신 신호를 출력할 수 있다. 수신부(130)는 초음파 트랜스듀서(120)에서 출력되는 수신 신호에 초음파 트랜스듀서(120)의 각 변환소자와 집속점 간의 거리를 고려하여 시간 지연을 가한 후, 시간 지연된 수신 신호를 합산하여 수신 집속빔을 형성할 수 있다.The transmitter 110 may delay the electric pulse signal to have a predetermined transmission pattern and transmit the delayed electric pulse signal to the ultrasonic transducer 120. The ultrasonic transducer 120 may include an ultrasonic transducer array including a plurality of transducer elements in which a plurality of matching layers are stacked on a piezoelectric ceramic device. The ultrasound transducer 120 may output an ultrasound signal to the object in response to the delayed electric pulse signal from the transmitter 110. For example, the subject may mean a part of the body, and may include organs such as the liver, the heart, the abdomen, and the fetus. Also, the ultrasound transducer 120 may receive the ultrasound echo signal reflected from the object. The ultrasonic transducer 120 may output the received signal by converting the received ultrasonic echo signal into an electrical signal. The receiver 130 applies a time delay to the received signal output from the ultrasound transducer 120 in consideration of the distance between each conversion element of the ultrasound transducer 120 and the focal point, and then adds the received delayed signal to focus the received signal. It can form a beam.

신호 처리부(140)는 수신 집속빔을 신호 처리하여 초음파 데이터를 형성하고, 초음파 데이터를 이용하여 대상체의 초음파 영상을 형성할 수 있다. 또한, 신호 처리부(140)는 대상체의 초음파 영상을 형성하기 위하여 송신부(110), 초음파 트랜스듀서(120) 및 수신부(130)의 동작을 제어할 수 있다. 일 실시예에 따르면, 신호 처리부(140)는 CPU(Central Processing Unit), 마이크로프로세서(Micro Processor), GPU(Graphic Processing Unit) 등을 포함하는 프로세서로서 구현될 수 있지만, 이에 한정되지 않는다.The signal processor 140 may process the received focusing beam to form ultrasound data, and form an ultrasound image of the object by using the ultrasound data. In addition, the signal processor 140 may control operations of the transmitter 110, the ultrasound transducer 120, and the receiver 130 to form an ultrasound image of the object. According to an embodiment, the signal processor 140 may be implemented as a processor including a central processing unit (CPU), a microprocessor, a graphics processing unit (GPU), and the like, but is not limited thereto.

디스플레이부(150)는 신호 처리부(140)에서 형성된 대상체의 초음파 영상을 디스플레이할 수 있다. 또한, 디스플레이부(150)는 사용자가 디스플레이된 초음파 영상을 이용하여 각종 측정 등을 수행할 수 있도록 하기 위한 사용자 인터페이스(user interface)를 디스플레이할 수 있다. 일 실시예에 따르면, 디스플레이부(150)는 LCD(Liquid Crystal Display), LED(Light Emitting Diode) 디스플레이, OLED(Organic Light Emitting Diode) 디스플레이, 플렉서블(flexible) 디스플레이, CRT(Cathode Ray Tube) 디스플레이, PDP(Plasma Display Panel) 디스플레이 등을 포함할 수 있지만, 이에 한정되지 않는다.The display unit 150 may display an ultrasound image of the object formed by the signal processor 140. In addition, the display unit 150 may display a user interface for allowing a user to perform various measurements using the displayed ultrasound image. According to an embodiment, the display unit 150 may include a liquid crystal display (LCD), a light emitting diode (LED) display, an organic light emitting diode (OLED) display, a flexible display, a cathode ray tube (CRT) display, Plasma Display Panel (PDP) displays may be included, but is not limited thereto.

도 2는 본 개시의 실시예에 따른 검침 도구 삽입 위치 제공을 위한 초음파 시스템의 구성을 보이는 블록도이다.2 is a block diagram showing the configuration of an ultrasound system for providing a metering tool insertion position according to an embodiment of the present disclosure.

일 실시예에서, 초음파 시스템(200)은 프로세서(210), 초음파 트랜스듀서(120), 위치 표시부(220), 디스플레이부(150) 및 시스템 버스(230)를 포함할 수 있다.In one embodiment, the ultrasound system 200 may include a processor 210, an ultrasound transducer 120, a position indicator 220, a display 150, and a system bus 230.

일 실시예에 따르면, 프로세서(210), 초음파 트랜스듀서(120), 위치 표시부(220) 및 디스플레이부(150)는 시스템 버스(230)를 통하여 통신 가능하도록 서로 연결될 수 있다. 또한, 초음파 트랜스듀서(120)와 위치 표시부(220)가 별도의 구성요소로 존재하는 것으로 도시되었지만, 이에 제한되는 것은 아니며, 위치 표시부(220)가 초음파 트랜스듀서(120) 내에 포함되도록 구성될 수도 있다.According to an embodiment, the processor 210, the ultrasonic transducer 120, the position display unit 220, and the display unit 150 may be connected to each other to communicate with each other via the system bus 230. In addition, although the ultrasonic transducer 120 and the position display unit 220 are illustrated as being present as separate components, the present invention is not limited thereto, and the position display unit 220 may be configured to be included in the ultrasonic transducer 120. have.

프로세서(210)는 대상체의 초음파 영상을 형성할 수 있다. 또한, 프로세서(210)는 초음파 영상으로부터 초음파 영상이 포함하는 픽셀(pixel)들간의 위치 정보, 초음파 영상이 포함하는 픽셀들의 세기값(intensity value) 정보 등을 획득할 수 있다. 예를 들어, 프로세서(210)는 초음파 영상으로부터 획득한 픽셀들간의 위치 정보를 이용하여 설정된 관심 영역의 위치를 나타내는 제1 위치 정보의 획득 및 검침 도구의 삽입 위치를 나타내는 제2 위치 정보의 산출을 수행할 수 있다. 제1 위치 정보 획득 및 제2 위치 정보 산출 방법은 후술하도록 한다. 또한, 프로세서(210)는 획득한 픽셀들의 세기값 정보를 미리 설정된 임계값과 비교하여 초음파 영상으로부터 특정 영역을 관심 영역으로 자동 추출할 수 있다. 초음파 영상이 포함하는 픽셀들의 세기값 정보를 이용한 자동 영역 추출 방법은 후술하도록 한다.The processor 210 may form an ultrasound image of the object. In addition, the processor 210 may obtain location information between pixels included in the ultrasound image, intensity value information of pixels included in the ultrasound image, and the like from the ultrasound image. For example, the processor 210 may acquire first position information indicating the location of the ROI set using position information between pixels acquired from the ultrasound image, and calculate second position information indicating an insertion position of the meter reading tool. Can be done. The first location information acquisition method and the second location information calculation method will be described later. In addition, the processor 210 may automatically extract a specific region as the ROI from the ultrasound image by comparing the acquired intensity value information with the preset threshold. An automatic region extraction method using intensity value information of pixels included in the ultrasound image will be described later.

일 실시예에 따르면, 프로세서(210)는 초음파 트랜스듀서(120)의 복수의 압전소자 각각에 전송되는 코드화된 송신 신호를 생성하고, 집속점과 각각의 압전소자와의 거리를 고려하여 코드화된 송신 신호를 지연하여, 초음파 트랜스듀서(120)로 전송한다. 또한, 프로세서(210)는 초음파 트랜스듀서(120)로부터 제공되는 수신 신호를 이용하여 대상체에 대한 초음파 데이터를 형성하고, 초음파 데이터를 이용하여 대상체에 대한 초음파 영상을 형성할 수 있다. 초음파 트랜스듀서(120)는 프로세서(210)로부터 전송된 코드화된 송신신호에 응답하여 송신 집속된 초음파 신호를 출력할 수 있다. 초음파 트랜스듀서(120)는 대상체로 송신한 코드화된 초음파 신호에 대하여 반사되는 다수의 코드화된 초음파 에코신호를 수신하여 수신 신호를 형성할 수 있다. 또한, 프로세서(210)는 대상체의 초음파 영상이 격자 무늬를 포함하도록 형성하여 관심 영역의 위치를 나타내는 제1 위치 정보 획득 및 검침 도구의 삽입 위치를 나타내는 제2 위치 정보의 확인이 용이하도록 도움을 줄 수 있다.According to an embodiment, the processor 210 generates a coded transmission signal transmitted to each of the plurality of piezoelectric elements of the ultrasonic transducer 120 and codes the transmission in consideration of the distance between the focal point and each piezoelectric element. The signal is delayed and transmitted to the ultrasonic transducer 120. In addition, the processor 210 may form ultrasound data of the object using the received signal provided from the ultrasound transducer 120 and form an ultrasound image of the object using the ultrasound data. The ultrasound transducer 120 may output the focused ultrasound signal in response to the coded transmission signal transmitted from the processor 210. The ultrasound transducer 120 may receive a plurality of coded ultrasound echo signals reflected by the coded ultrasound signals transmitted to the object to form a received signal. In addition, the processor 210 may help to make the ultrasound image of the object include a lattice pattern so as to easily acquire the first position information indicating the position of the ROI and to confirm the second position information indicating the insertion position of the meter reading tool. Can be.

일 실시예에서, 프로세서(210)는 형성된 초음파 영상으로부터 대상체 내에 설정된 관심 영역(ROI: region of interest)의 위치를 나타내는 제1 위치 정보를 획득할 수 있다. 예를 들어, 프로세서(210)는 초음파 시스템(200) 사용자로부터 관심 영역 설정 요청 또는 초음파 영상의 세기(intensity) 정보를 이용한 자동 영역 추출 방법에 기초하여 대상체에서 관심 영역(ROI)을 설정하여 제1 위치 정보를 획득할 수 있다. 예를 들어, 관심 영역 설정 요청은 초음파 시스템(200)의 디스플레이부(150)에 표시된 초음파 영상(UI: ultrasound image)을 사용자가 확인하고, 마우스, 트랙볼, 키보드 등과 같은 입력 인터페이스를 이용하여 병변 등의 관심 영역(ROI)을 선택하는 사용자 입력을 포함할 수 있다. 또한, 자동 영역 추출 방법은 초음파 영상(UI)이 포함하는 모든 픽셀들의 세기값(intensity values)과 미리 설정된 임계값을 비교하고, 임계값보다 적은 세기값을 갖는 픽셀들을 선택하여 관심 영역(ROI)으로 설정하는 방법을 포함할 수 있다.In an embodiment, the processor 210 may obtain first location information indicating a location of a region of interest (ROI) set in the object from the formed ultrasound image. For example, the processor 210 sets a region of interest (ROI) on the object based on a request for setting a region of interest from a user of the ultrasound system 200 or an automatic region extraction method using intensity information of an ultrasound image. Location information can be obtained. For example, the request for setting a region of interest may be performed by a user checking an ultrasound image (UI) displayed on the display unit 150 of the ultrasound system 200 and using a input interface such as a mouse, a trackball, a keyboard, or the like. It may include a user input for selecting a region of interest of the ROI. In addition, the automatic region extraction method compares intensity values of all pixels included in the ultrasound image UI with a preset threshold value, selects pixels having an intensity value less than the threshold value, and includes a region of interest (ROI). It may include how to set.

프로세서(210)는 제1 위치 정보에 기초하여 관심 영역(ROI)으로 검침 도구를 삽입하기 위한 대상체의 표면 상에서의 삽입 위치(IP: insertion position)를 나타내는 제2 위치 정보를 산출할 수 있다. 예를 들어, 프로세서(210)는 초음파 영상이 포함하는 모든 픽셀들간의 위치 정보에 기초하여 대상체 표면(SKIN)으로부터 관심 영역(ROI)까지의 깊이(depth)를 산출할 수 있다. 예를 들어, 프로세서(210)는 제1 위치 정보에 기초하여 관심 영역(ROI)의 중심점으로부터의 수직 연장선과 대상체 표면(SKIN)이 만나는 지점을 깊이(depth)로 산출할 수 있지만, 이에 한정되지 않는다.The processor 210 may calculate second position information indicating an insertion position (IP) on the surface of the object for inserting the metering tool into the ROI based on the first position information. For example, the processor 210 may calculate a depth from the object surface SKIN to the ROI based on the location information between all pixels included in the ultrasound image. For example, the processor 210 may calculate, as a depth, a point where the vertical extension line from the center point of the ROI meets the object surface SKIN based on the first location information, but is not limited thereto. Do not.

또한, 프로세서(210)는 검침 도구를 대상체 내에 삽입하는 각도(angle)를 획득할 수 있다. 예를 들어, 프로세서(210)는 미리 설정된 값(예를 들어, 45도)을 검침 도구를 대상체 내에 삽입하는 각도(angle)로 사용할 수도 있고, 사용자로부터 입력된 값을 검침 도구를 대상체 내에 삽입하는 각도(angle)로 사용할 수도 있다.In addition, the processor 210 may obtain an angle for inserting the metering tool into the object. For example, the processor 210 may use a preset value (for example, 45 degrees) as an angle for inserting the metering tool into the object, and inserts a value input from the user into the object. It can also be used as an angle.

또한, 프로세서(210)는 산출된 깊이(depth) 및 획득한 각도(angle)를 이용하여 검침 도구의 대상체 표면(SKIN) 상에서의 삽입 위치(IP)를 나타내는 제2 위치 정보를 산출할 수 있다. 예를 들어, 프로세서(210)는 제1 위치 정보에 기초하여 관심 영역(ROI)의 중심점으로부터 검침 도구를 대상체 내에 삽입하는 각도(angle) 방향으로의 연장선과 대상체의 표면(SKIN)이 만나는 지점의 위치를 제2 위치 정보로 산출할 수 있다.In addition, the processor 210 may calculate second position information indicating the insertion position IP on the object surface SKIN of the meter reading tool using the calculated depth and the obtained angle. For example, the processor 210 may determine an extension line from the center point of the ROI based on the first location information in an angle direction in which the metering tool is inserted into the object and the point where the surface SKIN of the object meets. The position may be calculated as the second position information.

또한, 프로세서(210)는 산출된 검침 도구의 삽입 위치(IP)로부터 관심 영역(ROI)까지의 거리(distance)를 산출할 수 있다. 예를 들어, 프로세서(210)는 관심 영역(ROI)의 중심점으로부터 검침 도구의 대상체 표면(SKIN) 상에서의 삽입 위치(IP)까지의 길이를 거리(distance)로 산출할 수 있다.In addition, the processor 210 may calculate a distance from the calculated insertion position IP of the meter reading tool to the ROI. For example, the processor 210 may calculate the length from the center point of the region of interest ROI to the insertion position IP on the object surface SKIN of the metering tool as a distance.

또한, 프로세서(210)는 산출된 제2 위치 정보를 이용하여, 대상체의 표면(SKIN)에 접촉된 초음파 시스템의 초음파 트랜스듀서(120)로부터 삽입 위치(IP)까지의 거리(length)를 산출할 수 있다. 일 실시예에서, 프로세서(210)는 대상체에 삽입된 검침 도구의 이미지(RII: read instrument image)를 형성하고, 대상체의 초음파 영상(UI)과 대상체에 삽입된 검침 도구의 이미지(RII)를 결합하여 결합 초음파 영상을 형성할 수 있다. 예를 들어, 프로세서(210)는 대상체의 초음파 영상신호를 실시간으로 제공하고, 대상체에 삽입된 검침 도구의 이미지 신호를 실시간으로 획득할 수 있다. 또한, 프로세서(210)는 초음파 영상신호 및 검침 도구의 이미지 신호에 각각 시각 정보(time information)를 부여하고, 시각 정보가 일치하는 초음파 영상신호와 검침 도구의 이미지 신호를 대응시킬 수 있다. 또한, 프로세서(210)는 초음파 영상신호를 수신하여 초음파 영상(UI)을 형성하고, 초음파 영상신호에 대응하는 검침 도구의 이미지 신호를 이용하여 검침 도구의 이미지(RII)와 초음파 영상을 결합하여 대상체의 초음파 영상과 검침 도구의 이미지를 함께 보이는 결합 초음파 영상을 형성할 수 있다. In addition, the processor 210 may calculate a distance from the ultrasound transducer 120 of the ultrasound system contacting the surface SKIN to the insertion position IP by using the calculated second position information. Can be. In one embodiment, the processor 210 forms a read instrument image (RII) of the metering tool inserted into the object and combines the ultrasound image (UI) of the object with the image (RII) of the metering tool inserted into the object. To form a combined ultrasound image. For example, the processor 210 may provide an ultrasound image signal of an object in real time and acquire an image signal of a metering tool inserted into the object in real time. In addition, the processor 210 may provide time information to the ultrasound image signal and the image signal of the meter reading tool, and correspond to the ultrasound image signal corresponding to the time information and the image signal of the meter reading tool. In addition, the processor 210 receives an ultrasound image signal to form an ultrasound image (UI), and combines the image RII of the metering tool and the ultrasound image by using an image signal of the metering tool corresponding to the ultrasound image signal. The combined ultrasound image of the ultrasound image and the image of the metering tool may be formed.

일 실시예에서, 위치 표시부(220)는 프로세서(210)에서 산출된 제2 위치 정보에 대응하는 대상체 표면에 검침 도구의 삽입 위치(IP)를 표시할 수 있다. 예를 들어, 위치 표시부(220)는 레이저(laser) 등과 같은 광학 장치를 포함할 수 있다. 또한, 위치 표시부(220)는 초음파 트랜스듀서(120) 내부에 포함될 수도 있고, 초음파 트랜스듀서(120) 외부에 부착되어 구성될 수도 있다. 예를 들어, 위치 표시부(220)는 프로세서(210)에서 산출된 제2 위치 정보에 기초하여 대상체 표면에 검침 도구의 삽입 위치(IP)를 레이저를 이용하여 포인팅(pointing) 할 수 있다. In an embodiment, the position display unit 220 may display the insertion position IP of the meter reading tool on the object surface corresponding to the second position information calculated by the processor 210. For example, the position display unit 220 may include an optical device such as a laser. In addition, the position display unit 220 may be included in the ultrasonic transducer 120, or may be configured to be attached to the outside of the ultrasonic transducer 120. For example, the position display unit 220 may point the insertion position IP of the meter reading tool on the object surface using a laser based on the second position information calculated by the processor 210.

또한, 위치 표시부(220)는 대상체 표면에 제2 위치 정보에 대응하는 삽입 위치를 사용자가 쉽게 인지할 수 있도록 하기 위하여, 눈금과 같이, 대상체의 표면에 접촉된 초음파 시스템의 초음파 트랜스듀서(120)로부터 삽입 위치(IP)까지의 거리(length)를 설정된 단위로 나눈 시각적 객체를 표시할 수 있다. 예를 들어, 위치 표시부(220)는 대상체 표면에 미리 설정된 단위에 따라 형성된 눈금을 출력하여, 초음파 트랜스듀서로부터 삽입 위치(IP)까지의 거리에 눈금이 표시되도록 할 수 있다. 예를 들어, 프로세서(210)는 초음파 트랜스듀서(120)로부터 삽입 위치(IP)까지의 거리를 대상체 표면에 표시된 눈금 단위로 디스플레이부(150)를 통하여 제공하여 사용자가 대상체 표면(SKIN)에서 검침 도구의 삽입 위치를 용이하게 파악하도록 할 수 있다.In addition, the position display unit 220, so that the user can easily recognize the insertion position corresponding to the second position information on the surface of the object, such as a scale, the ultrasonic transducer 120 of the ultrasound system in contact with the surface of the object The visual object obtained by dividing the length from the insertion position IP to the insertion unit IP by a predetermined unit may be displayed. For example, the position display unit 220 may output a scale formed according to a preset unit on the object surface, such that the scale is displayed at a distance from the ultrasonic transducer to the insertion position IP. For example, the processor 210 may provide a distance from the ultrasound transducer 120 to the insertion position IP through the display unit 150 in the unit of scale displayed on the surface of the object, so that the user may read the meter on the surface of the object SKIN. The insertion position of the tool can be easily identified.

디스플레이부(150)는 프로세서(210)에서 형성된 초음파 영상 및 결합 초음파 영상 중 적어도 하나를 디스플레이 할 수 있다. 또한, 디스플레이부(150)는 프로세서(210)에서 산출된 대상체 표면(SKIN)으로부터 관심 영역까지의 거리(distance), 검침 도구를 대상체 내에 삽입하는 각도(angle) 및 삽입 위치(IP)의 정보 중 적어도 하나를 표시할 수 있다. 또한, 디스플레이부(150)는 프로세서(210)에서 산출된 제2 위치 정보를 디스플레이된 초음파 영상(UI)에 표시할 수도 있다.The display unit 150 may display at least one of an ultrasound image and a combined ultrasound image formed by the processor 210. In addition, the display unit 150 may include information about a distance from the object surface SKIN calculated by the processor 210 to the region of interest, an angle at which the metering tool is inserted into the object, and an insertion position IP. At least one can be displayed. In addition, the display 150 may display the second position information calculated by the processor 210 on the displayed ultrasound image UI.

도 3은 본 개시의 실시예에 따른 대상체의 초음파 영상을 보이는 예시도이다.3 is an exemplary view showing an ultrasound image of an object according to an exemplary embodiment of the present disclosure.

일 실시예에서, 프로세서(210)에서 형성된 대상체의 초음파 영상(UI)이 디스플레이부(150)에 표시될 수 있다. 예를 들어, 디스플레이부(150)는, 대상체의 초음파 영상(UI)에 포함되는 관심 영역(ROI)을 표시할 수 있다.In an embodiment, the ultrasound image UI of the object formed by the processor 210 may be displayed on the display 150. For example, the display unit 150 may display a region of interest ROI included in the ultrasound image UI of the object.

또한, 디스플레이부(150)는 대상체 표면(SKIN)으로부터 관심 영역(ROI)까지의 거리(distance), 검침 도구(BN)를 대상체 내에 삽입하는 각도(angle) 및 검침 도구(BN)가 대상체 내로 삽입되는 삽입 위치(IP)의 정보를 표시할 수 있다. 일 실시예로서, 검침 도구(BN)를 대상체 내에 삽입하는 각도(angle)는 검침 도구(BN)와 대상체의 표면(SKIN) 사이의 각도(angle)를 나타낼 수 있다. 또한, 디스플레이부(150)는 초음파 트랜스듀서(120)가 대상체의 표면(SKIN)에 접촉된 지점으로부터, 관심 영역(ROI)의 중심점으로부터 검침 도구(BN)를 대상체 내에 삽입하는 각도(angle) 방향으로의 연장선과 대상체의 표면(SKIN)이 만나는 지점(IP)까지의 거리(length)를 삽입 위치(IP)의 정보로서 표시할 수 있다. 이를 통해, 사용자는 검침 도구(BN)의 삽입 위치를 확인할 수 있다.In addition, the display unit 150 may include a distance from the object surface SKIN to the ROI, an angle for inserting the metering tool BN into the object, and a metering tool BN inserted into the object. Information of the insertion position IP to be displayed can be displayed. In an embodiment, the angle of inserting the metering tool BN into the object may represent an angle between the metering tool BN and the surface SKIN of the object. In addition, the display unit 150 has an angle direction of inserting the metering tool BN into the object from the point where the ultrasound transducer 120 is in contact with the surface SKIN of the object and from the center point of the ROI. The distance to the point IP at which the extension line and the surface SKIN of the object meet may be displayed as information on the insertion position IP. Through this, the user can check the insertion position of the meter reading tool BN.

다만, 이는 설명의 목적일 뿐, 이에 제한되는 것은 아니며, 형성된 대상체의 초음파 영상(UI)과 관련된 다양한 정보가 디스플레이부(150)에 표시될 수 있다.However, this is only for the purpose of description and the present invention is not limited thereto. Various information related to the ultrasound image UI of the formed object may be displayed on the display unit 150.

도 4는 본 개시의 실시예에 따른 검침 도구 위치 제공 방법의 흐름도이다. 도 4 및 도 5의 흐름도에서 프로세스 단계들, 방법 단계들, 알고리즘들 등이 순차적인 순서로 설명되었지만, 그러한 프로세스들, 방법들 및 알고리즘들은 임의의 적합한 순서로 작동하도록 구성될 수 있다.  다시 말하면, 본 개시의 다양한 실시예들에서 설명되는 프로세스들, 방법들 및 알고리즘들의 단계들이 본 개시에서 기술된 순서로 수행될 필요는 없다. 또한, 일부 단계들이 비동시적으로 수행되는 것으로서 설명되더라도, 다른 실시예에서는 이러한 일부 단계들이 동시에 수행될 수 있다.  또한, 도면에서의 묘사에 의한 프로세스의 예시는 예시된 프로세스가 그에 대한 다른 변화들 및 수정들을 제외하는 것을 의미하지 않으며, 예시된 프로세스 또는 그의 단계들 중 임의의 것이 본 개시의 다양한 실시예들 중 하나 이상에 필수적임을 의미하지 않으며, 예시된 프로세스가 바람직하다는 것을 의미하지 않는다.4 is a flowchart of a method of providing a meter reading tool position according to an embodiment of the present disclosure. Although process steps, method steps, algorithms, and the like are described in sequential order in the flowcharts of FIGS. 4 and 5, such processes, methods, and algorithms may be configured to operate in any suitable order. In other words, the steps of the processes, methods, and algorithms described in various embodiments of the present disclosure need not be performed in the order described in this disclosure. In addition, although some steps are described as being performed asynchronously, in some embodiments these some steps may be performed simultaneously. Moreover, illustration of the process by depiction in the figures does not mean that the illustrated process excludes other changes and modifications thereto, and any of the illustrated process or steps thereof is one of the various embodiments of the present disclosure. It is not meant to be essential to more than one, nor does it mean that the illustrated process is preferred.

단계(S410)에서, 초음파 시스템(200)은 대상체의 초음파 영상을 형성할 수 있다. 예를 들어, 도 1 내지 도 3을 참조하면, 초음파 시스템(200)의 프로세서(210)는 초음파 트랜스듀서(120)의 복수의 압전소자 각각에 전송되는 코드화된 송신 신호를 생성하여 초음파 트랜스듀서(120)로 전송하고, 초음파 트랜스듀서(120)로부터 제공되는 수신 신호를 이용하여 대상체의 초음파 영상을 형성할 수 있다. 초음파 영상은 B 모드 초음파 영상, C 모드 초음파 영상, 3차원 초음파 영상 등을 포함할 수 있지만, 이에 한정되지 않는다.In operation S410, the ultrasound system 200 may form an ultrasound image of the object. For example, referring to FIGS. 1 to 3, the processor 210 of the ultrasound system 200 generates a coded transmission signal transmitted to each of a plurality of piezoelectric elements of the ultrasound transducer 120 to generate an ultrasound transducer ( And transmit an ultrasound image of the object by using the received signal provided from the ultrasound transducer 120. The ultrasound image may include a B mode ultrasound image, a C mode ultrasound image, a 3D ultrasound image, and the like, but is not limited thereto.

단계(S420)에서, 초음파 시스템(200)은 초음파 영상으로부터 대상체 내에 설정된 관심 영역의 제1 위치 정보를 획득할 수 있다. 예를 들어, 도 1 내지 도 3을 참조하면, 프로세서(210)는 형성된 초음파 영상으로부터 대상체 내에 설정된 관심 영역의 제1 위치 정보를 획득할 수 있다. 일 실시예에 따르면, 프로세서(210)는 디스플레이부(150)에 표시된 초음파 영상을 확인한 사용자로부터 관심 영역 설정 요청을 수신하여 제1 위치 정보를 획득할 수도 있고, 초음파 영상이 포함하는 픽셀들의 세기값에 기초한 자동 영역 설정 방법에 의해서 제1 위치 정보를 획득할 수도 있다.In operation S420, the ultrasound system 200 may obtain first location information of the ROI set in the object from the ultrasound image. For example, referring to FIGS. 1 to 3, the processor 210 may obtain first position information of the ROI set in the object from the formed ultrasound image. According to an embodiment of the present disclosure, the processor 210 may receive the ROI setting request from the user who checks the ultrasound image displayed on the display unit 150 to obtain first location information, and the intensity value of the pixels included in the ultrasound image. The first location information may be obtained by using an automatic region setting method based on.

단계(S430)에서, 초음파 시스템(200)은 제1 위치 정보에 기초하여 관심 영역으로 검침 도구를 삽입하기 위한 대상체의 표면 상에서의 검침 도구의 삽입 위치를 나타내는 제2 위치 정보를 산출할 수 있다. 예를 들어, 도 1 내지 도 3을 참조하면, 프로세서(210)는 획득한 제1 위치 정보에 기초하여 관심 영역(ROI)으로 검침 도구를 삽입하기 위한 대상체 표면(SKIN) 상에서의 검침 도구의 삽입 위치(IP)를 나타내는 제2 위치 정보를 산출할 수 있다. 일 실시예에 따르면, 프로세서(210)는 제1 위치 정보에 기초하여 대상체 표면으로부터 관심 영역까지의 깊이(depth)를 산출하고, 검침 도구를 대상체 내에 삽입하는 각도(angle)를 획득하며, 산출된 깊이 및 획득된 각도를 이용하여 제2 위치 정보를 산출할 수 있다.In operation S430, the ultrasound system 200 may calculate second position information indicating an insertion position of the inspection tool on the surface of the object for inserting the inspection tool into the ROI based on the first position information. For example, referring to FIGS. 1 through 3, the processor 210 inserts the metering tool on the object surface SKIN for inserting the metering tool into the ROI based on the obtained first positional information. Second location information indicating the location IP may be calculated. According to an embodiment of the present disclosure, the processor 210 calculates a depth from the object surface to the region of interest based on the first position information, obtains an angle for inserting the metering tool into the object, and calculates the calculated angle. The second position information may be calculated using the depth and the obtained angle.

단계(S440)에서, 초음파 시스템(200)은 대상체의 표면에 제2 위치 정보에 대응하는 검침 도구의 삽입 위치를 표시할 수 있다. 예를 들어, 도 1 내지 도 3을 참조하면, 위치 표시부(220)는 대상체의 표면(SKIN)에 제2 위치 정보에 대응하는 검침 도구의 삽입 위치(IP)를 표시할 수 있다. 일 실시예에 따르면, 초음파 시스템(200)의 위치 표시부(220)는 레이저(laser) 등과 같은 광학 장치를 포함할 수 있으며, 초음파 트랜스듀서(120) 내부에 포함될 수도 있고, 초음파 트랜스듀서(120) 외부에 부착되어 구성될 수도 있다.In operation S440, the ultrasound system 200 may display the insertion position of the meter reading tool corresponding to the second position information on the surface of the object. For example, referring to FIGS. 1 to 3, the position display unit 220 may display the insertion position IP of the meter reading tool corresponding to the second position information on the surface SKIN of the object. According to one embodiment, the position display unit 220 of the ultrasound system 200 may include an optical device such as a laser (laser), may be included in the ultrasonic transducer 120, the ultrasonic transducer 120 It may be configured to be attached to the outside.

도 5는 본 개시의 실시예에 따른 제2 위치 정보 산출 방법의 흐름도이다.5 is a flowchart of a method of calculating second location information according to an embodiment of the present disclosure.

단계(S432)에서, 초음파 시스템(200)은 대상체 표면(SKIN)으로부터 관심 영역(ROI)까지의 깊이(depth)를 산출할 수 있다. 예를 들어, 도 1 내지 도 4를 참조하면, 프로세서(210)는 초음파 영상이 포함하는 모든 픽셀들간의 위치 정보에 기초하여 관심 영역(ROI)의 중심점으로부터의 수직 연장선과 대상체 표면(SKIN)이 만나는 지점을 깊이(depth)로 산출할 수 있지만, 이에 한정되지 않는다.In operation S432, the ultrasound system 200 may calculate a depth from the object surface SKIN to the ROI. For example, referring to FIGS. 1 to 4, the processor 210 determines that the vertical extension line and the object surface SKIN from the center point of the ROI are based on the location information between all pixels included in the ultrasound image. The meeting point may be calculated as a depth, but is not limited thereto.

단계(S434)에서, 초음파 시스템(200)은 검침 도구가 대상체 내에 삽입되는 각도(angle)를 획득할 수 있다. 예를 들어, 도 1 내지 도 4를 참조하면, 프로세서(210)는 미리 설정된 값(예를 들어, 45도)을 검침 도구를 대상체 내에 삽입하는 각도(angle)로 획득할 수도 있고, 사용자로부터 입력된 값을 검침 도구를 대상체 내에 삽입하는 각도(angle)로 획득할 수도 있지만, 이에 한정되지 않는다.In operation S434, the ultrasound system 200 may obtain an angle at which the metering tool is inserted into the object. For example, referring to FIGS. 1 to 4, the processor 210 may obtain a preset value (eg, 45 degrees) as an angle for inserting a metering tool into an object, and input from a user. The obtained value may be obtained as an angle at which the metering tool is inserted into the object, but is not limited thereto.

단계(S436)에서, 초음파 시스템(200)은 산출된 깊이(depth) 및 획득된 각도(angle)를 이용하여 검침 도구의 대상체 표면(SKIN) 상에서의 삽입 위치(IP)를 나타내는 제2 위치 정보를 산출할 수 있다. 예를 들어, 도 1 내지 도 4를 참조하면, 프로세서(210)는 제1 위치 정보에 기초하여 관심 영역(ROI)의 중심점으로부터 검침 도구를 대상체 내에 삽입하는 각도(angle) 방향으로의 연장선과 대상체의 표면(SKIN)이 만나는 지점의 위치를 제2 위치 정보로 산출할 수 있다.In step S436, the ultrasound system 200 uses the calculated depth and the acquired angle to obtain second position information indicating the insertion position IP on the object surface SKIN of the metering tool. Can be calculated. For example, referring to FIGS. 1 to 4, the processor 210 may extend the object and the extension line from the center point of the ROI in the angle direction to insert the metering tool into the object based on the first position information. The position of the point where the surface SKIN meets may be calculated as the second position information.

도 6은 본 개시의 실시예에 따른 위치 표시부가 대상체의 표면에 검침 도구의 삽입 위치를 표시한 예시도이다.6 is an exemplary view showing the insertion position of the metering tool on the surface of the object according to an embodiment of the present disclosure.

일 실시예에서, 위치 표시부(220)는 초음파 영상(UI)으로부터 획득한 픽셀들간의 위치 정보 및 프로세서(210)에서 산출된 제2 위치 정보에 기초하여 대상체 표면에 검침 도구(BN)의 삽입 위치(IP)를 레이저를 이용하여 포인팅(pointing) 할 수 있다.In one embodiment, the position display unit 220 is the insertion position of the metering tool BN on the object surface based on the position information between the pixels obtained from the ultrasound image (UI) and the second position information calculated by the processor 210. (IP) can be pointed using a laser.

예를 들어, 프로세서(210)는 초음파 영상(UI)으로부터 획득한 픽셀들간의 위치 정보에 기초하여 제2 위치 정보에 대응하는 대상체 표면(SKIN) 상에서의 위치에 대한 정보를 위치 표시부(220)로 제공할 수 있고, 위치 표시부(220)는 프로세서(210)에서 제공된 정보를 이용하여 제2 위치 정보에 대응하는 대상체 표면(SKIN) 상에서의 위치를 향해서 포인팅할 수 있다.For example, the processor 210 transmits the information about the position on the object surface SKIN corresponding to the second position information to the position display unit 220 based on the position information between the pixels obtained from the ultrasound image UI. The location display unit 220 may point toward the location on the object surface SKIN corresponding to the second location information by using the information provided by the processor 210.

이를 통해 사용자는 대상체로 검침 도구(BN)를 삽입하기 위한 삽입 위치를 직관적으로 인식할 수 있다.This allows the user to intuitively recognize the insertion position for inserting the meter reading tool BN into the object.

도 7은 본 개시의 실시예에 따른 위치 표시부가 대상체의 표면에 눈금을 표시한 예시도이다.7 is an exemplary diagram in which a position display unit displays a scale on a surface of an object according to an exemplary embodiment of the present disclosure.

일 실시예에서, 위치 표시부(220)는 대상체의 표면(SKIN)에 설정된 단위를 갖는 눈금을 표시할 수 있다. 프로세서(210)는 초음파 트랜스듀서(120)로부터 삽입 위치(IP)까지의 거리를 대상체 표면에 표시된 눈금의 설정된 단위로 디스플레이부(150)에 제공하여 사용자가 대상체 표면(SKIN)에서 검침 도구(BN)의 삽입 위치(IP)를 용이하게 파악하도록 할 수 있다.In an embodiment, the position display unit 220 may display a scale having a unit set on the surface SKIN of the object. The processor 210 provides the distance from the ultrasound transducer 120 to the insertion position IP to the display unit 150 in the set unit of the scale displayed on the object surface so that the user can read the metering tool BN at the object surface SKIN. It is possible to easily determine the insertion position (IP) of the).

예를 들어, 설정된 단위가 1 cm인 경우, 위치 표시부(220)는 대상체의 표면(SKIN)에 초음파 트랜스듀서(120)를 기준으로 cm 단위로 눈금을 표시할 수 있다. 또한, 프로세서(210)는 초음파 트랜스듀서(120)로부터 삽입 위치(IP)까지의 거리(예를 들어, 7 cm)가 도 3에 도시된 ““IP””란에 표시되도록 디스플레이부(150)를 제어할 수 있다.For example, when the set unit is 1 cm, the position display unit 220 may display a scale in cm units on the surface SKIN of the object based on the ultrasound transducer 120. In addition, the processor 210 may display the display unit 150 such that a distance (for example, 7 cm) from the ultrasonic transducer 120 to the insertion position IP is displayed in the “IP” column shown in FIG. 3. Can be controlled.

위의 방법은 특정 실시예들을 통하여 설명되었지만, 위의 방법은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다.  컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다.  컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등이 있다.  또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.  그리고, 위의 실시예들을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 개시가 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.Although the above method has been described through specific embodiments, the above method may also be embodied as computer readable code on a computer readable recording medium. Computer-readable recording media include all kinds of recording devices that store data that can be read by a computer system. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disks, optical data storage devices, and the like. The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion. In addition, functional programs, code, and code segments for implementing the above embodiments can be easily inferred by programmers in the art to which the present disclosure belongs.

본 명세서에서는 본 개시가 일부 실시예들과 관련하여 설명되었지만, 본 개시가 속하는 기술분야의 당업자가 이해할 수 있는 본 개시의 정신 및 범위를 벗어나지 않는 범위에서 다양한 변형 및 변경이 이루어질 수 있다는 점을 알아야 할 것이다.  따라서, 이하의 청구범위는 본 개시의 사상 및 범위 내에 포함될 수 있는 모든 그러한 등가의 구조들을 포함하도록 해석되는 것이 고려되어야 한다.Although the present disclosure has been described in connection with some embodiments, it should be understood that various modifications and changes can be made without departing from the spirit and scope of the disclosure as would be understood by those skilled in the art. something to do. Accordingly, the following claims should be construed to include all such equivalent structures that may be included within the spirit and scope of the present disclosure.

100,200: 초음파 시스템 110: 송신부
120: 초음파 트랜스듀서 130: 수신부
140: 신호 처리부 150: 디스플레이부
210: 프로세서 220: 위치 표시부
230: 시스템 버스
100,200: ultrasonic system 110: transmitter
120: ultrasonic transducer 130: receiver
140: signal processing unit 150: display unit
210: processor 220: location display unit
230: system bus

Claims (14)

초음파 시스템에서 검침 도구 삽입 위치를 제공하는 방법으로서,
대상체의 초음파 영상을 형성하는 단계;
상기 초음파 영상으로부터 상기 대상체 내에 설정된 관심 영역의 제1 위치 정보를 획득하는 단계;
상기 제1 위치 정보에 기초하여 상기 관심 영역으로 상기 검침 도구를 삽입하기 위한 상기 대상체의 표면 상에서의 상기 검침 도구의 삽입 위치를 나타내는 제2 위치 정보를 산출하는 단계; 및
상기 대상체의 표면에 상기 제2 위치 정보에 대응하는 상기 검침 도구의 삽입 위치를 표시하는 단계
를 포함하는 검침 도구 삽입 위치 제공 방법.
A method of providing a metering tool insertion position in an ultrasound system,
Forming an ultrasound image of the object;
Acquiring first location information of a region of interest set in the object from the ultrasound image;
Calculating second position information indicating an insertion position of the metering tool on the surface of the object for inserting the metering tool into the ROI based on the first positional information; And
Displaying an insertion position of the meter reading tool corresponding to the second position information on a surface of the object;
How to provide a reading tool insertion position comprising a.
제1항에 있어서,
상기 제2 위치 정보를 산출하는 단계는,
상기 제1 위치 정보에 기초하여 상기 대상체 표면으로부터 상기 관심 영역까지의 깊이(depth)를 산출하는 단계;
상기 검침 도구를 상기 대상체 내에 삽입하는 각도(angle)를 획득하는 단계; 및
상기 깊이 및 상기 각도를 이용하여 상기 제2 위치 정보를 산출하는 단계
를 포함하는 검침 도구 삽입 위치 제공 방법.
The method of claim 1,
Computing the second location information,
Calculating a depth from the object surface to the region of interest based on the first location information;
Obtaining an angle of inserting the metering tool into the object; And
Calculating the second location information using the depth and the angle
How to provide a reading tool insertion position comprising a.
제1항에 있어서,
상기 대상체의 표면에 접촉된 상기 초음파 시스템의 초음파 트랜스듀서(ultrasound transducer)로부터 상기 제2 위치 정보에 대응하는 상기 검침 도구의 삽입 위치까지의 거리(length)를 산출하는 단계
를 더 포함하는 검침 도구 삽입 위치 제공 방법.
The method of claim 1,
Calculating a length from an ultrasonic transducer of the ultrasound system in contact with the surface of the object to an insertion position of the metering tool corresponding to the second position information;
How to provide a meter insertion tool insertion position further comprising.
제3항에 있어서,
상기 대상체의 표면에 상기 제2 위치 정보에 대응하는 상기 검침 도구의 삽입 위치를 표시하는 단계는,
상기 초음파 트랜스듀서에 포함된 위치 표시부를 이용하여 상기 대상체의 표면에 상기 거리를 측정할 수 있는 시각적 객체를 표시하는 단계
를 포함하는 검침 도구 삽입 위치 제공 방법.
The method of claim 3,
The step of displaying the insertion position of the meter reading tool corresponding to the second position information on the surface of the object,
Displaying a visual object capable of measuring the distance on a surface of the object by using a position display unit included in the ultrasonic transducer
How to provide a reading tool insertion position comprising a.
제1항에 있어서,
상기 초음파 시스템의 사용자로부터 수신한 관심 영역 설정 요청 또는 상기 초음파 영상을 이용한 자동 영역 추출 방법에 기초하여 상기 대상체에서 상기 관심 영역을 설정하는 단계
를 더 포함하는 검침 도구 삽입 위치 제공 방법.
The method of claim 1,
Setting the ROI in the object based on a ROI request from a user of the ultrasound system or an automatic region extraction method using the ultrasound image;
How to provide a meter insertion tool insertion position further comprising.
제1항에 있어서,
상기 초음파 영상과 상기 대상체에 삽입된 상기 검침 도구의 이미지를 결합하여 결합 초음파 영상을 형성하는 단계; 및
상기 결합 초음파 영상을 디스플레이부를 통하여 표시하는 단계
를 더 포함하는 검침 도구 삽입 위치 제공 방법.
The method of claim 1,
Combining the ultrasound image with an image of the metering tool inserted into the object to form a combined ultrasound image; And
Displaying the combined ultrasound image through a display unit;
How to provide a meter insertion tool insertion position further comprising.
제1항에 있어서,
산출된 제2 위치 정보를 상기 초음파 시스템의 디스플레이부에 표시하는 단계
를 더 포함하는 검침 도구 삽입 위치 제공 방법.
The method of claim 1,
Displaying the calculated second position information on a display unit of the ultrasound system;
How to provide a meter insertion tool insertion position further comprising.
검침 도구 삽입 위치 제공을 위한 초음파 시스템으로서,
대상체의 초음파 영상을 형성하고, 상기 초음파 영상으로부터 상기 대상체 내에 설정된 관심 영역의 제1 위치 정보를 획득하며, 상기 제1 위치 정보에 기초하여 상기 관심 영역으로 상기 검침 도구를 삽입하기 위한 상기 대상체의 표면 상에서의 상기 검침 도구의 삽입 위치를 나타내는 제2 위치 정보를 산출하는 프로세서; 및
상기 대상체의 표면에 상기 제2 위치 정보에 대응하는 상기 검침 도구의 삽입 위치를 표시하는 위치 표시부
를 포함하는 초음파 시스템.
An ultrasound system for providing a meter insertion position,
Surface of the object for forming an ultrasound image of the object, obtaining first position information of the ROI set in the object from the ultrasound image, and inserting the metering tool into the ROI based on the first position information. A processor for calculating second position information indicating an insertion position of the meter reading tool on the device; And
Position display unit for displaying the insertion position of the meter reading tool corresponding to the second position information on the surface of the object
Ultrasound system comprising a.
제8항에 있어서,
상기 프로세서는,
상기 제1 위치 정보에 기초하여 상기 대상체 표면으로부터 상기 관심 영역까지의 깊이(depth)를 산출하고, 상기 검침 도구를 상기 대상체 내에 삽입하는 각도(angle)를 획득하며, 상기 깊이 및 상기 각도를 이용하여 상기 제2 위치 정보를 산출하는,
초음파 시스템.
The method of claim 8,
The processor,
Calculate a depth from the surface of the object to the region of interest based on the first location information, obtain an angle to insert the metering tool into the object, and use the depth and the angle Calculating the second position information,
Ultrasound system.
제8항에 있어서,
상기 프로세서는
상기 대상체의 표면에 접촉된 상기 초음파 시스템의 초음파 트랜스듀서(ultrasound transducer)로부터 상기 제2 위치 정보에 대응하는 상기 검침 도구의 삽입 위치까지의 거리(length)를 산출하는,
초음파 시스템.
The method of claim 8,
The processor is
Calculating a length from an ultrasonic transducer of the ultrasound system in contact with the surface of the object to an insertion position of the metering tool corresponding to the second position information,
Ultrasound system.
제10항에 있어서,
상기 프로세서는,
상기 초음파 트랜스듀서에 포함된 위치 표시부를 이용하여 상기 대상체의 표면에 상기 거리를 측정할 수 있는 시각적 객체를 표시하도록 제어하는,
초음파 시스템.
The method of claim 10,
The processor,
Control to display a visual object capable of measuring the distance on the surface of the object using the position display unit included in the ultrasonic transducer,
Ultrasound system.
제8항에 있어서,
상기 프로세서는,
상기 초음파 시스템의 사용자로부터 수신한 관심 영역 설정 요청 또는 상기 초음파 영상을 이용한 자동 영역 추출 방법에 기초하여 상기 대상체에서 상기 관심 영역을 설정하는,
초음파 시스템.
The method of claim 8,
The processor,
Setting the ROI in the object based on a ROI request from a user of the ultrasound system or an automatic region extraction method using the ultrasound image;
Ultrasound system.
제8항에 있어서,
상기 프로세서는,
상기 초음파 영상과 상기 대상체에 삽입된 상기 검침 도구의 이미지를 결합하여 결합 초음파 영상을 형성하고, 상기 결합 초음파 영상을 디스플레이부를 통하여 표시하도록 제어하는,
초음파 시스템.
The method of claim 8,
The processor,
Combining the ultrasound image and the image of the metering tool inserted into the object to form a combined ultrasound image, and controls to display the combined ultrasound image through a display unit,
Ultrasound system.
제8항에 있어서,
상기 초음파 영상 및 산출된 제2 위치 정보를 표시하는 디스플레이부
를 더 포함하는 초음파 시스템.
The method of claim 8,
A display unit for displaying the ultrasound image and the calculated second position information
Ultrasonic system further comprising.
KR1020180015605A 2018-02-08 2018-02-08 Ultrasound system and method for providing insertion position of read instrument KR102572015B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180015605A KR102572015B1 (en) 2018-02-08 2018-02-08 Ultrasound system and method for providing insertion position of read instrument

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180015605A KR102572015B1 (en) 2018-02-08 2018-02-08 Ultrasound system and method for providing insertion position of read instrument

Publications (2)

Publication Number Publication Date
KR20190096085A true KR20190096085A (en) 2019-08-19
KR102572015B1 KR102572015B1 (en) 2023-08-29

Family

ID=67806947

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180015605A KR102572015B1 (en) 2018-02-08 2018-02-08 Ultrasound system and method for providing insertion position of read instrument

Country Status (1)

Country Link
KR (1) KR102572015B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230053043A (en) 2021-10-13 2023-04-21 (주)성광기연 Press mold

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008539932A (en) * 2005-05-10 2008-11-20 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Cannula insertion system
KR20140040531A (en) * 2012-09-26 2014-04-03 삼성메디슨 주식회사 Ultrasound system and method for providing depth information of region of interest
KR20140059023A (en) * 2012-11-07 2014-05-15 삼성메디슨 주식회사 Ultrasound system and method for providing guide line of needle
KR20140066584A (en) * 2012-11-23 2014-06-02 삼성메디슨 주식회사 Ultrasound system and method for providing guide line of needle

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008539932A (en) * 2005-05-10 2008-11-20 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Cannula insertion system
KR20140040531A (en) * 2012-09-26 2014-04-03 삼성메디슨 주식회사 Ultrasound system and method for providing depth information of region of interest
KR20140059023A (en) * 2012-11-07 2014-05-15 삼성메디슨 주식회사 Ultrasound system and method for providing guide line of needle
KR20140066584A (en) * 2012-11-23 2014-06-02 삼성메디슨 주식회사 Ultrasound system and method for providing guide line of needle

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230053043A (en) 2021-10-13 2023-04-21 (주)성광기연 Press mold

Also Published As

Publication number Publication date
KR102572015B1 (en) 2023-08-29

Similar Documents

Publication Publication Date Title
EP3076875B1 (en) An ultrasound system with stereo image guidance or tracking
JP4758355B2 (en) System for guiding medical equipment into a patient's body
US11653897B2 (en) Ultrasonic diagnostic apparatus, scan support method, and medical image processing apparatus
US11642096B2 (en) Method for postural independent location of targets in diagnostic images acquired by multimodal acquisitions and system for carrying out the method
CN104905812B (en) Method and apparatus for displaying a plurality of different images of an object
US20170095226A1 (en) Ultrasonic diagnostic apparatus and medical image diagnostic apparatus
US10524768B2 (en) Medical image diagnostic apparatus and medical image processing apparatus
US20180360427A1 (en) Ultrasonic diagnostic apparatus and medical image processing apparatus
US20120157844A1 (en) System and method to illustrate ultrasound data at independent displays
JP7171168B2 (en) Medical image diagnosis device and medical image processing device
US20160030008A1 (en) System and method for registering ultrasound information to an x-ray image
JP2007307372A (en) Ultrasound system for displaying fusion image of ultrasound image and external medical image
Gonzalez et al. GPU implementation of photoacoustic short-lag spatial coherence imaging for improved image-guided interventions
US10582912B2 (en) Ultrasound diagnosis apparatus and operating method thereof
US20140153358A1 (en) Medical imaging system and method for providing imaging assitance
US20170209118A1 (en) Ultrasonic imaging apparatus and method for controlling the same
KR102697909B1 (en) Ultrasound diagnostic apparatus, and control method for same
KR20170086311A (en) Medical imaging apparatus and operating method for the same
US8663110B2 (en) Providing an optimal ultrasound image for interventional treatment in a medical system
JP2012071138A (en) Slice image display ultrasonic diagnostic apparatus of target object and method thereof
KR102572015B1 (en) Ultrasound system and method for providing insertion position of read instrument
KR20180087698A (en) Ultrasound diagnostic apparatus for displaying shear wave data of the object and method for operating the same
EP3655972B1 (en) Imaging method, controller and imaging system, for monitoring a patient post evar
KR102373986B1 (en) Method and ultrasound system for setting system parameters
KR102035991B1 (en) Method and ultrasound system for generating image of target object

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant