KR20180070878A - Method of providing annotation information of ultrasound probe and ultrasound system - Google Patents

Method of providing annotation information of ultrasound probe and ultrasound system Download PDF

Info

Publication number
KR20180070878A
KR20180070878A KR1020160173394A KR20160173394A KR20180070878A KR 20180070878 A KR20180070878 A KR 20180070878A KR 1020160173394 A KR1020160173394 A KR 1020160173394A KR 20160173394 A KR20160173394 A KR 20160173394A KR 20180070878 A KR20180070878 A KR 20180070878A
Authority
KR
South Korea
Prior art keywords
ultrasonic probe
information
annotation information
head
outline
Prior art date
Application number
KR1020160173394A
Other languages
Korean (ko)
Other versions
KR102107581B1 (en
Inventor
김재영
문재국
Original Assignee
지멘스 메디컬 솔루션즈 유에스에이, 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 지멘스 메디컬 솔루션즈 유에스에이, 인크. filed Critical 지멘스 메디컬 솔루션즈 유에스에이, 인크.
Priority to KR1020160173394A priority Critical patent/KR102107581B1/en
Publication of KR20180070878A publication Critical patent/KR20180070878A/en
Application granted granted Critical
Publication of KR102107581B1 publication Critical patent/KR102107581B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • H04N5/2257

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

A method for providing annotation information of an ultrasonic probe in contact with a target object includes the steps of: acquiring reference images of the ultrasonic probe and the object using at least one camera mounted on the ultrasonic probe; extracting outlines of the ultrasonic probe and the object from the reference images; generating reference annotation information representing position information of the ultrasonic probe for the object based on the extracted outlines and predetermined geometric information of the head of the ultrasonic probe; and displaying the reference annotation information. Accordingly, the present invention can automatically and accurately generate and provide the annotation information representing the position information of the ultrasonic probe for the object.

Description

초음파 프로브의 주석 정보를 제공하는 방법 및 초음파 시스템{METHOD OF PROVIDING ANNOTATION INFORMATION OF ULTRASOUND PROBE AND ULTRASOUND SYSTEM}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a method for providing annotation information of an ultrasonic probe,

본 개시는 초음파 프로브의 주석 정보를 제공하는 방법 및 초음파 시스템에 관한 것이다.The present disclosure relates to a method of providing annotation information of an ultrasonic probe and to an ultrasonic system.

초음파 시스템은 무침습 및 비파괴 특성을 가지고 있으므로, 의료 분야에서 대상체 내부의 정보를 얻기 위한 목적으로 널리 이용되고 있다. 초음파 시스템의 이러한 특성에 의해, 대상체를 직접 절개하여 관찰하는 외과 수술 없이, 초음파 시스템은 대상체 내부의 고해상도 영상을 실시간으로 오퍼레이터에게 제공할 수 있다. 따라서, 초음파 시스템은 의료 분야에서 다양한 질병을 효과적으로 진단하기 위한 중요한 도구가 되었다.Ultrasonic systems are widely used for acquiring internal information in medical fields because they have non-invasive and non-destructive properties. With this characteristic of the ultrasound system, the ultrasound system can provide the operator with a high-resolution image of the object in real time, without performing a surgical operation to directly observe the target object. Thus, ultrasound systems have become an important tool for effectively diagnosing various diseases in the medical field.

초음파 시스템은 초음파 프로브를 이용하여 대상체에 초음파 신호를 송신하고, 대상체로부터 반사되는 초음파 신호(즉, 초음파 에코신호)를 수신한다. 또한, 초음파 시스템은 수신된 초음파 에코신호에 기초하여 대상체의 초음파 영상을 생성하고 표시 장치에 생성된 초음파 영상을 표시한다. 이와 같이, 초음파 프로브를 이용하여 대상체의 초음파 영상을 얻는 경우, 대상체에 접촉된 초음파 프로브의 접촉 위치(스캔 위치) 및 방향(스캔 방향)에 따라 대상체의 초음파 영상의 해상도가 달라지거나, 초음파 영상에 음영이 발생하는 등 대상체의 초음파 영상을 추출하는데 있어 문제가 생길 수 있다.The ultrasound system transmits an ultrasound signal to a target object using an ultrasound probe and receives an ultrasound signal (i.e., an ultrasound echo signal) reflected from the target object. In addition, the ultrasound system generates an ultrasound image of a target object based on the received ultrasound echo signal, and displays an ultrasound image generated in the display device. As described above, when an ultrasound image of a target object is obtained using the ultrasound probe, the resolution of the ultrasound image of the target object varies depending on the contact position (scan position) and direction (scan direction) of the ultrasound probe contacting the target object, A problem may arise in extracting an ultrasound image of a target object such as a shadow is generated.

이러한 추출된 초음파 영상의 오류를 해결하기 위하여, 초음파 시스템은 사용자가 초음파 프로브의 대상체에 대한 접촉 위치 및 방향 정보와 대상체의 기준점으로부터 초음파 프로브까지의 거리 정보를, 초음파 프로브의 위치 정보를 나타내는 주석 정보로서 입력하도록 구성될 수 있으며, 입력된 정보를 저장할 수 있다. 그러나, 사용자에 의해 입력되는 주석 정보는 정확하게 측정된 위치 정보가 아니라, 사용자에 의해 예측된 위치 정보이므로 부정확할 수 있다. 한편, 사용자가 초음파 프로브의 주석 정보를 입력하기 위해서는 초음파 프로브를 프로브 홀더에 거치시킨 후, 컨트롤 패널 등을 이용하여 대상체에 대한 초음파 프로브의 주석 정보를 입력해야 하며, 다음 초음파 영상을 얻기 위해 초음파 프로브를 다시 잡은 후 초음파 프로브의 조작을 수행해야 하므로, 주석 정보의 입력 및 초음파 영상의 획득에 시간이 많이 소요될 뿐만 아니라, 사용자가 주석 정보를 입력하는데 있어 불편함을 겪을 수 있다.In order to solve the error of the extracted ultrasound image, the ultrasound system has a function of allowing the user to adjust the contact position and direction information of the ultrasound probe with respect to the target object and the distance information from the reference point of the target object to the ultrasound probe, And input information can be stored. However, the annotation information input by the user may not be accurately measured position information, but may be inaccurate because it is position information predicted by the user. In order to input the annotation information of the ultrasonic probe, the user inputs the ultrasonic probe into the probe holder and inputs annotation information of the ultrasonic probe to the object using a control panel or the like. In order to obtain the next ultrasonic image, It is necessary to input the annotation information and the acquisition of the ultrasound image in a time-consuming manner, and the user may experience inconvenience in inputting the annotation information.

본 개시는 초음파 프로브에 장착된 적어도 하나의 카메라를 통해 대상체 및 초음파 프로브의 영상을 획득하고, 획득된 영상에 기초하여 대상체에 대한 초음파 프로브의 위치 정보를 나타내는 주석 정보를 자동으로 생성하여 제공하는 방법 및 초음파 시스템을 제공한다.The present disclosure relates to a method of acquiring an image of a target object and an ultrasonic probe through at least one camera mounted on the ultrasonic probe and automatically generating annotation information indicating position information of the ultrasonic probe relative to the object on the basis of the acquired image And an ultrasound system.

일 실시예에 따르면, 대상체에 접촉된 초음파 프로브의 주석 정보를 제공하는 방법은, 초음파 프로브에 장착된 적어도 하나의 카메라를 이용하여 대상체 및 초음파 프로브의 기준 영상을 획득하는 단계와, 기준 영상으로부터 상기 대상체의 윤곽 및 상기 초음파 프로브의 윤곽을 추출하는 단계와, 상기 추출된 윤곽과 상기 초음파 프로브의 헤드의 사전 결정된 기하학적 정보에 기초하여, 상기 대상체에 대한 상기 초음파 프로브의 위치 정보를 나타내는 기준 주석 정보를 생성하는 단계와, 상기 기준 주석 정보를 표시하는 단계를 포함한다.According to one embodiment, a method of providing annotation information of an ultrasonic probe contacting a target object includes the steps of obtaining a reference image of the object and the ultrasonic probe using at least one camera mounted on the ultrasonic probe, Extracting an outline of the object and an outline of the ultrasonic probe based on the extracted contour and the predetermined geometric information of the head of the ultrasonic probe; And displaying the base annotation information.

일 실시예에 있어서, 상기 기준 주석 정보는, 상기 대상체에 대한 상기 초음파 프로브의 접촉 위치 및 방향 정보와, 상기 대상체로부터 상기 초음파 프로브까지의 거리 정보를 포함한다.In one embodiment, the reference annotation information includes contact position and direction information of the ultrasonic probe with respect to the object, and distance information from the object to the ultrasonic probe.

일 실시예에 있어서, 상기 헤드의 사전 결정된 기하학적 정보는 상기 헤드의 길이 정보를 포함한다.In one embodiment, the predetermined geometric information of the head includes length information of the head.

일 실시예에 있어서, 상기 기준 주석 정보를 생성하는 단계는, 상기 대상체의 윤곽에 기초하여 적어도 하나의 기준 객체를 식별하는 단계와, 상기 적어도 하나의 기준 객체에 대한 상기 초음파 프로브의 위치 정보를 생성하는 단계를 포함한다.In one embodiment, generating the reference annotation information comprises: identifying at least one reference object based on an outline of the object; generating location information of the ultrasonic probe with respect to the at least one reference object; .

일 실시예에 있어서, 상기 초음파 프로브의 위치 정보를 생성하는 단계는, 상기 초음파 프로브의 윤곽에서 상기 초음파 프로브의 헤드의 윤곽을 추출하는 단계와, 상기 헤드의 윤곽에 기초하여, 상기 적어도 하나의 기준 객체에 대한 상기 초음파 프로브의 접촉 위치 및 방향 정보를 생성하는 단계와, 상기 적어도 하나의 기준 객체로부터 헤드의 윤곽 상의 기준점까지의 거리 정보를 생성하는 단계를 포함한다.In one embodiment, generating the position information of the ultrasonic probe includes extracting the contour of the head of the ultrasonic probe at the contour of the ultrasonic probe, and determining, based on the contour of the head, Generating contact position and orientation information of the ultrasonic probe with respect to the object; and generating distance information from the at least one reference object to a reference point on the contour of the head.

일 실시예에 있어서, 상기 방법은, 상기 초음파 프로브에 장착된 상기 적어도 하나의 센서를 이용하여 상기 초음파 프로브의 회전 정보를 생성하는 단계를 더 포함하고, 상기 기준 주석 정보는 상기 초음파 프로브의 회전 정보를 더 포함한다.In one embodiment, the method may further comprise generating rotation information of the ultrasonic probe using the at least one sensor mounted on the ultrasonic probe, wherein the reference annotation information includes rotation information of the ultrasonic probe .

일 실시예에 있어서, 상기 방법은, 상기 적어도 하나의 카메라를 이용하여 상기 대상체 및 상기 초음파 프로브의 비교 영상을 획득하는 단계와, 상기 비교 영상 및 상기 초음파 프로브의 헤드의 사전 결정된 기하학적 정보에 기초하여, 상기 대상체에 대한 상기 초음파 프로브의 위치 정보를 나타내는 비교 주석 정보를 생성하는 단계와, 상기 기준 주석 정보 및 상기 비교 주석 정보를 표시하는 단계를 더 포함한다.In one embodiment, the method further comprises: obtaining a comparison image of the object and the ultrasound probe using the at least one camera; and determining, based on the comparative image and the predetermined geometric information of the head of the ultrasound probe Generating comparative annotation information indicating positional information of the ultrasonic probe with respect to the target object, and displaying the base annotation information and the comparative annotation information.

일 실시예에 있어서, 상기 기준 주석 정보 및 비교 주석 정보를 표시하는 단계는, 상기 비교 주석 정보에 따른 상기 초음파 프로브의 현재 위치에서 상기 기준 주석 정보에 따른 상기 초음파 프로브의 기준 위치로 상기 초음파 프로브를 이동시키기 위한 가이드 정보를 생성하여 표시하는 단계를 포함한다.In one embodiment, the step of displaying the reference annotation information and the comparison annotation information may include displaying the reference annotation information and the comparison annotation information on the basis of the reference annotation information, And generating and displaying guide information for moving.

일 실시예에 있어서, 상기 가이드 정보를 생성하여 표시하는 단계는, 상기 현재 위치를 나타내는 제1 표시자와 상기 기준 위치를 나타내는 제2 표시자를 상이하게 생성하여 표시하는 단계를 포함한다.In one embodiment, generating and displaying the guide information may include generating and displaying a first indicator indicating the current position and a second indicator indicating the reference position differently from each other.

다른 실시예에 따르면, 초음파 시스템은, 초음파 프로브와, 상기 초음파 프로브에 장착되며, 대상체 및 상기 초음파 프로브의 기준 영상을 획득하는 적어도 하나의 카메라와, 상기 초음파 프로브 및 상기 적어도 하나의 카메라에 연결되며, 상기 적어도 하나의 카메라로부터 제공되는 상기 기준 영상으로부터 상기 대상체 및 상기 초음파 프로브의 윤곽을 추출하고, 상기 추출된 윤곽과 상기 초음파 프로브의 헤드의 사전 결정된 기하학적 정보에 기초하여, 상기 대상체에 대한 상기 초음파 프로브의 위치 정보를 나타내는 기준 주석 정보를 생성하는 프로세서와, 상기 기준 주석 정보를 표시하는 표시 장치를 포함한다.According to another embodiment, an ultrasound system includes an ultrasound probe, at least one camera mounted on the ultrasound probe, the at least one camera acquiring a reference image of the object and the ultrasound probe, and a probe connected to the ultrasound probe and the at least one camera Extracting the contour of the object and the ultrasonic probe from the reference image provided from the at least one camera, and based on the extracted contour and the predetermined geometric information of the head of the ultrasonic probe, A processor for generating reference annotation information indicating position information of the probe, and a display device for displaying the reference annotation information.

다른 실시예에 있어서, 상기 기준 주석 정보는, 상기 대상체에 대한 상기 초음파 프로브의 접촉 위치 및 방향 정보와, 상기 대상체로부터 상기 초음파 프로브까지의 거리 정보를 포함한다.In another embodiment, the reference annotation information includes contact position and direction information of the ultrasonic probe with respect to the object, and distance information from the object to the ultrasonic probe.

다른 실시예에 있어서, 상기 헤드의 기하학적 정보는 상기 헤드의 길이 정보를 포함한다.In another embodiment, the geometric information of the head includes length information of the head.

다른 실시예에 있어서, 상기 프로세서는, 상기 대상체의 윤곽에 기초하여 적어도 하나의 기준 객체를 식별하고, 상기 적어도 하나의 기준 객체에 대한 상기 초음파 프로브의 위치 정보를 생성한다.In another embodiment, the processor identifies at least one reference object based on an outline of the object, and generates position information of the ultrasonic probe with respect to the at least one reference object.

다른 실시예에 있어서, 상기 프로세서는, 상기 초음파 프로브의 윤곽에서 상기 초음파 프로브의 헤드의 윤곽을 추출하고, 상기 헤드의 윤곽에 기초하여, 상기 적어도 하나의 기준 객체에 대한 상기 초음파 프로브의 접촉 위치 및 방향 정보를 생성하고, 상기 적어도 하나의 기준 객체로부터 상기 헤드의 윤곽 상의 기준점까지의 거리 정보를 생성한다.In another embodiment, the processor is configured to: extract the contour of the head of the ultrasonic probe at the contour of the ultrasonic probe; and based on the contour of the head, determine the contact position of the ultrasonic probe with respect to the at least one reference object, Generates direction information, and generates distance information from the at least one reference object to a reference point on the contour of the head.

다른 실시예에 있어서, 상기 초음파 시스템은, 상기 초음파 프로브에 장착되며, 상기 초음파 프로브의 회전 정보를 생성하는 적어도 하나의 센서를 더 포함하고, 상기 기준 주석 정보는 상기 초음파 프로브의 회전 정보를 더 포함한다.In another embodiment, the ultrasonic system further includes at least one sensor mounted on the ultrasonic probe and generating rotation information of the ultrasonic probe, wherein the reference annotation information further includes rotation information of the ultrasonic probe do.

다른 실시예에 있어서, 상기 적어도 하나의 카메라는, 상기 대상체 및 상기 초음파 프로브의 비교 영상을 더 획득하고, 상기 프로세서는, 상기 비교 영상 및 상기 초음파 프로브의 헤드의 사전 결정된 기하학적 정보에 기초하여, 상기 대상체에 대한 상기 초음파 프로브의 위치 정보를 나타내는 비교 주석 정보를 더 생성하고, 상기 표시 장치는, 상기 기준 주석 정보 및 상기 비교 주석 정보를 더 표시한다.In another embodiment, the at least one camera further obtains a comparison image of the object and the ultrasonic probe, and the processor determines, based on the comparison image and the predetermined geometric information of the head of the ultrasonic probe, Further generates comparative annotation information indicating positional information of the ultrasonic probe with respect to the object, and the display device further displays the reference annotation information and the comparative annotation information.

다른 실시예에 있어서, 상기 프로세서는, 상기 비교 주석 정보에 따른 상기 초음파 프로브의 현재 위치에서 상기 기준 주석 정보에 따른 상기 초음파 프로브의 기준 위치로 상기 상기 초음파 프로브를 이동시키기 위한 가이드 정보를 생성한다.In another embodiment, the processor generates guide information for moving the ultrasonic probe to a reference position of the ultrasonic probe according to the reference annotation information at a current position of the ultrasonic probe according to the comparison annotation information.

다른 실시예에 있어서, 상기 프로세서는, 상기 현재 위치를 나타내는 제1 표시자와 상기 기준 위치를 나타내는 제2 표시자를 상이하게 생성한다.In another embodiment, the processor generates a first indicator indicating the current position and a second indicator indicating the reference position differently.

본 개시에 따르면, 초음파 프로브에 장착된 적어도 하나의 카메라를 통해 획득된 영상을 이용하여 대상체에 대한 초음파 프로브의 위치 정보를 나타내는 주석 정보를 자동으로 그리고 정확하게 생성하여 제공할 수 있다.According to the present disclosure, it is possible to automatically and accurately generate and provide annotation information indicating position information of an ultrasonic probe relative to a target object using an image acquired through at least one camera mounted on the ultrasonic probe.

또한, 본 개시에 따르면, 주석 정보의 입력 및 초음파 영상의 획득에 소요되는 시간을 감소시킬 수 있을 뿐만 아니라, 주석 정보를 획득하는데 있어 사용자의 입력이 요구되지 않기 때문에 사용자의 편의성이 향상될 수 있다.In addition, according to the present disclosure, it is possible not only to reduce the time required for inputting annotation information and acquisition of an ultrasound image, but also to improve the convenience of the user because input of the user is not required in obtaining annotation information .

또한, 본 개시에 따르면, 초음파 프로브의 현재 위치에서 기준 위치로 초음파 프로브를 이동시키기 위한 가이드 정보가 제공될 수 있어, 경과 판단 등의 수행 시에 사용자가 제공된 가이드 정보에 따라 초음파 프로브를 적절한 위치로 이동시킬 수 있다.According to the present invention, guide information for moving the ultrasonic probe from the current position of the ultrasonic probe to the reference position can be provided. Therefore, in performing the lapse judgment, the ultrasonic probe can be moved to an appropriate position Can be moved.

도 1은 본 개시의 일 실시예에 따른 초음파 시스템의 구성을 개략적으로 나타낸 블록도이다.
도 2는 본 개시의 일 실시예에 따른 초음파 프로브 및 촬상 장치를 나타낸 예시도이다.
도 3은 본 개시의 일 실시예에 따른 촬상 장치를 이용하여 기준 영상을 획득하는 예를 나타낸 예시도이다.
도 4는 본 개시의 일 실시예에 따른 기준 영상을 나타낸 예시도이다.
도 5는 본 개시의 일 실시예에 따른 촬상 장치를 이용하여 비교 영상을 획득하는 예를 나타낸 예시도이다.
도 6은 본 개시의 일 실시예에 따른 비교 영상을 나타낸 예시도이다.
도 7은 본 개시의 일 실시예에 따른 프로세서의 구성을 개략적으로 나타낸 블록도이다.
도 8은 본 개시의 일 실시예에 따라 기준 주석 정보를 제공하는 방법을 나타낸 흐름도이다.
도 9는 본 개시의 일 실시예에 따른 대상체 및 초음파 프로브의 윤곽을 나타낸 예시도이다.
도 10은 본 개시의 일 실시예에 따라 가이드 정보를 제공하는 방법을 나타낸 흐름도이다.
도 11은 본 개시의 일 실시예에 따른 가이드 정보를 나타낸 예시도이다.
1 is a block diagram schematically illustrating the configuration of an ultrasound system according to an embodiment of the present disclosure.
2 is an exemplary view showing an ultrasonic probe and an image pickup apparatus according to an embodiment of the present disclosure.
3 is an exemplary view showing an example of acquiring a reference image using an image pickup apparatus according to an embodiment of the present disclosure.
4 is an exemplary view illustrating a reference image according to an embodiment of the present disclosure.
5 is an exemplary view showing an example of acquiring a comparison image using an imaging apparatus according to an embodiment of the present disclosure.
6 is an exemplary view illustrating a comparison image according to an embodiment of the present disclosure.
7 is a block diagram schematically illustrating a configuration of a processor according to an embodiment of the present disclosure;
8 is a flow diagram illustrating a method for providing base annotation information in accordance with one embodiment of the present disclosure.
FIG. 9 is an exemplary view showing an outline of a subject and an ultrasonic probe according to an embodiment of the present disclosure; FIG.
10 is a flow diagram illustrating a method for providing guide information in accordance with one embodiment of the present disclosure.
11 is an exemplary view showing guide information according to an embodiment of the present disclosure.

본 개시의 실시예들은 본 개시의 기술적 사상을 설명하기 위한 목적으로 예시된 것이다. 본 개시에 따른 권리범위가 이하에 제시되는 실시예들이나 이들 실시예들에 대한 구체적 설명으로 한정되는 것은 아니다.The embodiments of the present disclosure are illustrated for the purpose of describing the technical idea of the present disclosure. The scope of the claims according to the present disclosure is not limited to the embodiments described below or to the detailed description of these embodiments.

본 개시에 사용되는 모든 기술적 용어들 및 과학적 용어들은, 달리 정의되지 않는 한, 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 일반적으로 이해되는 의미를 갖는다. 본 개시에 사용되는 모든 용어들은 본 개시를 더욱 명확히 설명하기 위한 목적으로 선택된 것이며 본 개시에 따른 권리범위를 제한하기 위해 선택된 것이 아니다.All technical and scientific terms used in the present disclosure have the meaning commonly understood by one of ordinary skill in the art to which this disclosure belongs unless otherwise defined. All terms used in the disclosure are selected for the purpose of more clearly illustrating the disclosure and are not chosen to limit the scope of the rights under the present disclosure.

본 개시에서 사용되는 "포함하는", "구비하는", "갖는" 등과 같은 표현은, 해당 표현이 포함되는 어구 또는 문장에서 달리 언급되지 않는 한, 다른 실시예를 포함할 가능성을 내포하는 개방형 용어(open-ended terms)로 이해되어야 한다.As used in this disclosure, expressions such as " comprising, "" having," "having, " and the like, unless the context requires otherwise, (open-ended terms).

본 개시에서 기술된 단수형의 표현은 달리 언급하지 않는 한 복수형의 의미를 포함할 수 있으며, 이는 청구범위에 기재된 단수형의 표현에도 마찬가지로 적용된다.The expressions of the singular forms described in this disclosure may include plural meanings unless the context clearly dictates otherwise, and the same applies to the singular expressions set forth in the claims.

본 개시에서 사용되는 "제1", "제2" 등의 표현들은 복수의 구성요소들을 상호 구분하기 위해 사용되며, 해당 구성요소들의 순서 또는 중요도를 한정하는 것은 아니다.As used in this disclosure, expressions such as " first ", "second ", and the like are used to distinguish a plurality of components from each other and do not limit the order or importance of the components.

본 개시에서 사용되는 용어 "부"는, 소프트웨어, 또는 FPGA(field-programmable gate array), ASIC(application specific integrated circuit)과 같은 하드웨어 구성요소를 의미한다. 그러나, "부"는 하드웨어 및 소프트웨어에 한정되는 것은 아니다. "부"는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고, 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서, "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세서, 함수, 속성, 프로시저, 서브루틴, 프로그램 코드의 세그먼트, 드라이버, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조, 테이블, 어레이 및 변수를 포함한다. 구성요소와 "부" 내에서 제공되는 기능은 더 작은 수의 구성요소 및 "부"로 결합되거나 추가적인 구성요소와 "부"로 더 분리될 수 있다.The term "part " as used in this disclosure refers to hardware components such as software or an FPGA (field-programmable gate array), ASIC (application specific integrated circuit). However, "part" is not limited to hardware and software. "Part" may be configured to reside on an addressable storage medium, and may be configured to play back one or more processors. Thus, by way of example, and not limitation, "part (s) " may include but are not limited to elements such as software components, object oriented software components, class components and task components, Microcode, circuitry, data, databases, data structures, tables, arrays, and variables of program code. The functions provided within the component and the "part " may be combined into a smaller number of components and" parts " or further separated into additional components and "parts ".

본 개시에서 사용되는 "~에 기초하여"라는 표현은, 해당 표현이 포함되는 어구 또는 문장에서 기술되는, 결정, 판단의 행위 또는 동작에 영향을 주는 하나 이상의 인자를 기술하는데 사용되며, 이 표현은 결정, 판단의 행위 또는 동작에 영향을 주는 추가적인 인자를 배제하지 않는다.As used in this disclosure, the expression "based on" is used to describe one or more factors affecting an action or an action of a decision, judgment, as described in the phrase or sentence in which the expression is contained, It does not exclude any additional factors that affect the decision, act of judgment or action.

본 개시에서, 어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 경우, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결될 수 있거나 접속될 수 있는 것으로, 또는 새로운 다른 구성요소를 매개로 하여 연결될 수 있거나 접속될 수 있는 것으로 이해되어야 한다.In the present disclosure, when an element is referred to as being "connected" or "connected" to another element, it is to be understood that the element may be directly connected to or connected to the other element, But may be connected or connected via other components.

이하, 첨부한 도면들을 참조하여, 본 개시의 실시예들을 설명한다. 첨부된 도면에서, 동일하거나 대응하는 구성요소에는 동일한 참조부호가 부여되어 있다. 또한, 이하의 실시예들의 설명에 있어서, 동일하거나 대응하는 구성요소를 중복하여 기술하는 것이 생략될 수 있다. 그러나, 구성요소에 관한 기술이 생략되어도, 그러한 구성요소가 어떤 실시예에 포함되지 않는 것으로 의도되지는 않는다.Hereinafter, embodiments of the present disclosure will be described with reference to the accompanying drawings. In the accompanying drawings, the same or corresponding components are denoted by the same reference numerals. In the following description of the embodiments, description of the same or corresponding components may be omitted. However, even if a description of components is omitted, such components are not intended to be included in any embodiment.

본 명세서에서의 "대상체"는 초음파 시스템을 이용하여 초음파 영상을 얻고자 하는 목적물 또는 대상물로서, 생물 또는 무생물일 수 있다. 또한, 대상체가 생물인 경우 인체의 일부를 의미할 수 있고, 대상체에는 간이나, 심장, 자궁, 뇌, 유방, 복부, 혈관(또는 혈류) 등의 장기나, 태아 등이 포함될 수 있으며, 인체의 어느 한 단면이 포함될 수 있다. 또한, 본 명세서에서의 "사용자"는 초음파 시스템을 운영하여 사용할 수 있는 의료 전문가로서, 의사, 간호사, 임상병리사, 소노그래퍼(sonographer) 또는 다른 의료 영상 전문가 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.In the present specification, the term "object" may be an object or an object to be obtained by using an ultrasound system to obtain an ultrasound image, or may be inanimate or inanimate. The object may include a liver, a heart, a uterus, a brain, a breast, an abdomen, organs such as blood vessels (or blood flow), a fetus, and the like. Any one section may be included. The term "user" in this specification may be a medical professional who can operate an ultrasound system and may include a doctor, a nurse, a clinician, a sonographer or other medical imaging specialist, no.

도 1은 본 개시의 일 실시예에 따른 초음파 시스템(100)의 구성을 개략적으로 나타낸 블록도이다. 도 1을 참조하면, 초음파 시스템(100)은 컨트롤 패널(110), 초음파 프로브(120), 촬상 장치(130), 프로세서(140), 저장 장치(150) 및 표시 장치(160)를 포함한다. 또한, 초음파 시스템(100)은 감지 장치(170)를 더 포함할 수 있다. 본 실시예에 있어서, 프로세서(140)는 초음파 시스템(100) 내의 컨트롤 패널(110), 초음파 프로브(120), 촬상 장치(130), 저장 장치(150), 표시 장치(160) 및 감지 장치(170)의 동작을 제어한다.1 is a block diagram schematically illustrating the configuration of an ultrasound system 100 according to an embodiment of the present disclosure. 1, an ultrasound system 100 includes a control panel 110, an ultrasound probe 120, an imaging device 130, a processor 140, a storage device 150, and a display device 160. In addition, the ultrasound system 100 may further include a sensing device 170. In this embodiment, the processor 140 includes a control panel 110, an ultrasonic probe 120, an imaging device 130, a storage device 150, a display device 160, and a sensing device (not shown) in the ultrasound system 100 170).

컨트롤 패널(110)은 사용자로부터 입력 정보를 수신하고, 수신된 입력 정보를 프로세서(140)로 전송하도록 구성될 수 있다. 컨트롤 패널(110)은 사용자로부터 입력을 받을 수 있는 입력 장치(도시되지 않음)를 포함할 수 있고, 이러한 입력 장치는 초음파 시스템(100)에 대하여 사용자 인터페이스로서 기능할 수 있다. 입력 장치는 진단 모드의 선택, 진단 동작의 제어, 진단에 필요한 명령의 입력, 신호 처리 제어, 초음파 영상의 출력 제어 등의 조작을 실행하는데 적합한 다양한 종류의 입력 장치들 중 적어도 하나를 포함할 수 있다. 일 실시예에 따르면, 입력 장치는 트랙볼, 마우스, 키보드, 버튼, 스타일러스 펜, 터치스크린과 같이 명령의 입력이 가능한 디스플레이를 포함하지만, 이에 한정되지 않는 입력 장치들 중의 적어도 하나를 포함할 수 있다. 예를 들어, 입력 장치는 사용자가 초음파 프로브(120)를 손에 쥐거나 이용할 때 입력 정보를 제공할 수 있도록 구성된, 초음파 프로브(120)에 장착된 버튼 또는 키보드를 포함할 수 있다.The control panel 110 may be configured to receive input information from a user and to transmit the received input information to the processor 140. [ The control panel 110 may include an input device (not shown) capable of receiving input from a user, which may function as a user interface to the ultrasonic system 100. The input device may include at least one of various types of input devices suitable for performing operations such as selection of a diagnostic mode, control of a diagnostic operation, input of commands necessary for diagnosis, signal processing control, output control of an ultrasound image, . According to one embodiment, the input device may include at least one of input devices including, but not limited to, a display capable of inputting commands, such as a trackball, a mouse, a keyboard, a button, a stylus pen, For example, the input device may include a button or keyboard mounted on the ultrasonic probe 120 configured to allow the user to provide input information when grasping or using the ultrasonic probe 120 in the hand.

초음파 프로브(120)는 프로세서(140)로부터 대상체의 초음파 영상을 얻기 위한 전기적 신호(이하, "송신신호"라 함)를 수신한다. 또한, 초음파 프로브(120)는 송신신호를 초음파 신호로 변환하고, 변환된 초음파 신호를 대상체에 송신한다. 또한, 초음파 프로브(120)는 대상체로부터 반사되는 초음파 신호(즉, 초음파 에코신호)를 수신하고, 수신된 초음파 에코신호를 전기적 신호(이하, "수신신호"라 함)로 변환한다. 예를 들면, 초음파 프로브(120)는 컨벡스 프로브, 리니어 프로브 등을 포함할 수 있다.The ultrasonic probe 120 receives an electrical signal (hereinafter referred to as a "transmission signal") for obtaining an ultrasound image of a target object from the processor 140. Further, the ultrasonic probe 120 converts the transmission signal into an ultrasonic signal, and transmits the ultrasonic signal to the object. The ultrasonic probe 120 receives an ultrasonic signal (that is, an ultrasonic echo signal) reflected from the object and converts the received ultrasonic echo signal into an electrical signal (hereinafter referred to as a "reception signal"). For example, the ultrasonic probe 120 may include a convex probe, a linear probe, and the like.

촬상 장치(130)는 대상체 및 초음파 프로브(120)를 촬상하여, 대상체 및 초음파 프로브(120)의 영상을 획득하도록 구성될 수 있다. 일 실시예에 있어서, 촬상 장치(130)는 컨트롤 패널(110)를 통해 제공되는 입력 정보에 응답하여, 대상체 및 초음파 프로브(120)의 영상을 획득할 수 있다.The imaging device 130 may be configured to image the object and the ultrasonic probe 120 to acquire an image of the object and the ultrasonic probe 120. In one embodiment, the imaging device 130 may acquire images of the object and the ultrasonic probe 120 in response to input information provided through the control panel 110. [

초음파 프로브(120)를 이용하여 대상체를 최초에 스캔하는 경우에, 촬상 장치(130)는 대상체 및 초음파 프로브(120)를 촬상하여, 대상체 및 초음파 프로브(120)의 영상(이하, "기준 영상"이라 함)을 획득하도록 구성될 수 있다. 예를 들어, 도 3에 도시된 바와 같이 초음파 프로브(120)가 대상체(300)의 복수의 기준 객체 중 하나인 우측 유방(310)에 접촉된 상태에서, 촬상 장치(130)는 대상체(300) 및 초음파 프로브(120)를 촬상한다. 여기서, 복수의 기준 객체는 우측 유방(310), 우측 유방(310)의 유두(311), 좌측 유방(320), 좌측 유방(320)의 유두(321), 우측 겨드랑이(331), 좌측 겨드랑이(332) 등을 포함할 수 있다. 이러한 촬상 동작을 통하여, 촬상 장치(130)는 대상체(300) 및 초음파 프로브(120)의 기준 영상을 획득한다. 도 4에 도시된 바와 같이, 기준 영상(400)은 초음파 헤드(121)를 포함한 초음파 프로브(120), 사용자가 초음파 프로브(120)를 움켜잡는 손, 우측 유방(310), 우측 유방(310)의 유두(311), 좌측 유방(320), 좌측 유방(320)의 유두(321), 및 좌측 겨드랑이(332)를 포함할 수 있다. 촬상 장치(130)에서 생성된 기준 영상은 프로세서(140)에 송신될 수 있다.The image pickup device 130 picks up the object and the ultrasonic probe 120 and displays the image of the object and the ultrasonic probe 120 (hereinafter referred to as "reference image" Quot;). ≪ / RTI > 3, in a state in which the ultrasonic probe 120 is in contact with the right breast 310, which is one of the plurality of reference objects of the object 300, And the ultrasonic probe 120 are imaged. Here, the plurality of reference objects include the right breast 310, the nipple 311 of the right breast 310, the left breast 320, the nipple 321 of the left breast 320, the right armpit 331, 332), and the like. Through this imaging operation, the imaging device 130 acquires reference images of the object 300 and the ultrasonic probe 120. 4, the reference image 400 includes an ultrasonic probe 120 including an ultrasonic head 121, a hand that the user grasps the ultrasonic probe 120, a right breast 310, a right breast 310, The nipple 311 of the left breast 320, the left breast 320, the nipple 321 of the left breast 320, and the left armpit 332. The reference image generated by the imaging device 130 may be transmitted to the processor 140. [

일 실시예에 따르면, 대상체에 대한 경과 판정(follow-up)을 수행하기 위해 초음파 프로브(120)를 이용하여 대상체를 스캔하는 경우에, 촬상 장치(130)는 대상체 및 초음파 프로브(120)를 촬상하여, 대상체 및 초음파 프로브(120)의 영상(이하, "비교 영상"이라 함)을 획득한다. 예를 들어, 대상체(300)에 대한 경과 판정을 수행하기 위해, 도 5에 도시된 바와 같이 초음파 프로브(120)가 대상체(300)의 복수의 기준 객체 중 하나인 우측 유방(310)에 접촉된 상태에서, 촬상 장치(130)는 대상체(300) 및 초음파 프로브(120)를 촬상하여, 도 6에 도시된 바와 같이, 대상체(300) 및 초음파 프로브(120)의 비교 영상(600)을 획득할 수 있다. 촬상 장치(130)에서 생성된 비교 영상은 프로세서(140)에 송신될 수 있다.According to one embodiment, when the object is scanned using the ultrasonic probe 120 to perform follow-up with respect to the object, the imaging device 130 captures the object and the ultrasonic probe 120 (Hereinafter, referred to as a "comparison image") of the object and the ultrasonic probe 120 are obtained. For example, in order to perform the elapsed judgment on the object 300, the ultrasonic probe 120 is brought into contact with the right breast 310, which is one of the plurality of reference objects of the object 300, The imaging device 130 picks up the object 300 and the ultrasonic probe 120 to acquire the comparison image 600 of the object 300 and the ultrasonic probe 120 as shown in Fig. 6 . The comparison image generated by the imaging device 130 may be transmitted to the processor 140. [

일 실시예에 있어서, 촬상 장치(130)는 초음파 프로브(120)의 소정 위치에 장착될 수 있다. 여기서, 소정 위치는 초음파 프로브(120)의 헤드(121: 도 2 참조) 및 대상체의 복수의 기준 객체를 촬상할 수 있는 위치를 나타낸다. 일 예로서, 촬상 장치(130)는 초음파 프로브(120)에 탈부착 가능하게 장착될 수 있다. 다른 예로서, 촬상 장치(130)는 초음파 프로브(120)의 소정 위치에 고정 장착될 수 있다.In one embodiment, the imaging device 130 may be mounted at a predetermined position of the ultrasonic probe 120. Here, the predetermined position indicates a position where the head 121 (see Fig. 2) of the ultrasonic probe 120 and a plurality of reference objects of the object can be imaged. As one example, the imaging device 130 may be detachably mounted to the ultrasonic probe 120. [ As another example, the imaging device 130 may be fixedly mounted at a predetermined position of the ultrasonic probe 120. [

일 실시예에 있어서, 촬상 장치(130)는 프로세서(140)에 무선 또는 유선으로 연결될 수 있다. 또한, 촬상 장치(130)는 적어도 하나의 카메라를 포함할 수 있다. 예를 들면, 촬상 장치(130)는 도 2에 도시된 바와 같이, 초음파 프로브(120)의 소정 위치에 각각 장착되는 2개의 카메라(210, 220)를 포함한다. 본 실시예에 있어서, 2개의 카메라(210, 220)는 초음파 프로브(120)의 헤드(121) 상에 배치된 손잡이부 중에 넓은 면적을 갖는 면들의 상부 중앙에 배치된다.In one embodiment, the imaging device 130 may be connected to the processor 140 wirelessly or wired. In addition, the imaging device 130 may include at least one camera. For example, the imaging device 130 includes two cameras 210 and 220, respectively, mounted at predetermined positions of the ultrasonic probe 120, as shown in FIG. In this embodiment, the two cameras 210 and 220 are disposed at the upper center of the surfaces having a large area in the handle portion disposed on the head 121 of the ultrasonic probe 120.

초음파 프로브(120)에 의해 생성된 수신신호는 저장장치에 저장될 수 있다. 프로세서(140)에 의해 생성된 영상 및 정보(예를 들어, 초음파 영상, 주석 정보, 및 가이드 정보 등)가 저장 장치(150)에 저장될 수 있다. 또한, 저장 장치(150)는 초음파 프로브(120)의 헤드(121)의 사전 결정된 기하학적 정보를 저장한다. 예를 들어, 기하학적 정보는 초음파 프로브(120)의 헤드(121)의 길이 정보 등을 포함할 수 있다. 이에 더하여, 저장 장치(150)는 초음파 시스템(100)에 포함된 구성요소들을 동작시키거나 제어하기 위한 프로그램 명령어들을 저장하도록 구성된다.The received signal generated by the ultrasonic probe 120 may be stored in a storage device. Images and information (e.g., ultrasound images, annotation information, and guide information, etc.) generated by the processor 140 may be stored in the storage device 150. In addition, the storage device 150 stores predetermined geometric information of the head 121 of the ultrasonic probe 120. For example, the geometric information may include length information of the head 121 of the ultrasonic probe 120, and the like. In addition, the storage device 150 is configured to store program instructions for operating or controlling components included in the ultrasound system 100. [

일 실시예에 있어서, 저장 장치(150)는 자기 디스크(예를 들어, 자기 테이프, 플렉시블 디스크, 하드 디스크 등), 광 디스크(예를 들어, CD, DVD 등), 반도체 메모리(예를 들어, USB 메모리, 메모리 카드 등) 등을 포함할 수 있지만, 반드시 이에 한정되는 것은 아니다.In one embodiment, the storage device 150 may be a magnetic disk (e.g., a magnetic tape, a flexible disk, a hard disk, etc.), an optical disk USB memory, memory card, etc.) and the like, but the present invention is not limited thereto.

프로세서(140)는 컨트롤 패널(110)을 통해 수신된 입력 정보에 기초하여, 입력 정보에 대응하는 프로그램 명령어를 나타내는 제어 신호를 초음파 프로브(120)에 송신할 수 있다. 예를 들어, 입력 정보가 초음파 프로브(120)의 동작을 지칭하는 경우, 초음파 프로브(120)가 초음파 신호를 대상체에 송신하고 대상체로부터 반사되는 초음파 에코신호를 수신하도록 제어할 수 있다. 그리고 나서, 프로세서(140)는 초음파 프로브(120)로부터 초음파 에코 신호를 수신할 수 있으며, 이에 기초하여 대상체의 하나 이상의 초음파 영상을 생성할 수 있다.The processor 140 may transmit to the ultrasonic probe 120 a control signal indicating a program command corresponding to the input information based on the input information received via the control panel 110. [ For example, when the input information refers to the operation of the ultrasonic probe 120, the ultrasonic probe 120 may control the ultrasonic probe 120 to transmit the ultrasonic signal to the object and receive the ultrasonic echo signal reflected from the object. The processor 140 may then receive the ultrasound echo signals from the ultrasound probe 120 and may generate one or more ultrasound images of the target based thereon.

일 실시예에서, 프로세서(140)는 저장 장치(150)으로부터 초음파 프로브(120)의 헤드(121)의 사전 결정된 기하학적 정보를 읽어들일 수 있다. 이에 더하여, 프로세서(140)는 촬상 장치(130)로부터 대상체 및 초음파 프로브(120)의 기준 영상 또는 비교 영상을 수신할 수 있다. 프로세서(140)는 초음파 프로브(120)의 헤드(121)의 사전 결정된 기하학적 정보 및 촬상 장치(130)로부터 수신된 영상에 기초하여, 대상체에 대한 초음파 프로브(120)의 위치 정보를 나타내는 주석 정보를 생성한다. 또한, 프로세서(140)는 주석 정보에 기초하여 초음파 프로브(120)의 현재 위치에서 기준 위치로 초음파 프로브(120)를 이동시키기 위한 가이드 정보를 생성하도록 구성될 수 있다.In one embodiment, the processor 140 may read the predetermined geometric information of the head 121 of the ultrasonic probe 120 from the storage device 150. In one embodiment, In addition, the processor 140 may receive a reference image or a comparison image of the object and the ultrasonic probe 120 from the image capturing apparatus 130. The processor 140 calculates annotation information indicating the positional information of the ultrasonic probe 120 with respect to the object based on the predetermined geometric information of the head 121 of the ultrasonic probe 120 and the image received from the imaging device 130 . In addition, the processor 140 may be configured to generate guide information for moving the ultrasonic probe 120 from the current position of the ultrasonic probe 120 to the reference position based on the annotation information.

일 실시예에 있어서, 프로세서(140)는 이상 기술된 제어 동작 또는 이 동작을 실행하는 프로그램 명령어를 실행할 수 있는 CPU(central processing unit), FPGA(field-programmable gate array), ASIC(application specific integrated circuit) 등을 포함할 수 있지만, 반드시 이에 한정되는 것은 아니다.In one embodiment, the processor 140 includes a central processing unit (CPU), a field-programmable gate array (FPGA), an application specific integrated circuit (ASIC) ), But the present invention is not limited thereto.

표시 장치(160)는 프로세서(140)에 의해 생성된 영상 또는 정보를 표시하도록 구성된다. 예를 들어, 표시 장치(160)는 프로세서(140)에 의해 생성된 초음파 영상을 표시할 수 있으며, 프로세서(140)에 의해 생성된 주석 정보를 표시할 수 있다. 또한, 표시 장치(160)는 프로세서(140)에 의해 생성된 가이드 정보를 표시할 수 있으며, 초음파 시스템(100)의 동작 상태에 관한 정보 또는 초음파 영상에 관한 정보를 표시할 수 있다.The display device 160 is configured to display the image or information generated by the processor 140. For example, the display device 160 may display the ultrasound image generated by the processor 140, and may display the annotation information generated by the processor 140. The display device 160 may display the guide information generated by the processor 140 and may display information on the operation state of the ultrasound system 100 or information on the ultrasound image.

일 실시예에 있어서, 표시 장치(160)는 LCD(liquid crystal display), LED(light emitting diode) 디스플레이, TFT-LCD(thin film transistor-liquid crystal display), OLED(organic light-emitting diode) 디스플레이, 플렉서블 디스플레이 등을 포함할 수 있지만, 반드시 이에 한정되는 것은 아니다.In one embodiment, the display device 160 may be a liquid crystal display (LCD), a light emitting diode (LED) display, a thin film transistor-liquid crystal display (TFT-LCD), an organic light- A flexible display, and the like, but the present invention is not limited thereto.

감지 장치(170)는 초음파 프로브(120)의 회전을 감지하여 회전 정보를 생성하도록 구성된다. 감지 장치(170)는 적어도 하나의 센서, 예를 들어, 중력 센서, 자이로 센서, 중력 가속도 센서 등을 포함할 수 있지만, 반드시 이에 한정되는 것은 아니다. 일 실시예에 있어서, 감지 장치(170)는 초음파 프로브(120)의 회전을 감지할 수 있도록 소정 위치에 장착될 수 있다. 일 예로서, 감지 장치(170)는 초음파 프로브(120)의 소정 위치에 탈부착 가능하게 장착될 수 있다. 다른 예로서, 감지 장치(170)는 초음파 프로브(120)의 소정 위치에 고정 장착될 수 있다.The sensing device 170 is configured to sense rotation of the ultrasonic probe 120 to generate rotation information. The sensing device 170 may include, but is not necessarily limited to, at least one sensor, e.g., a gravity sensor, a gyro sensor, a gravitational acceleration sensor, or the like. In one embodiment, the sensing device 170 may be mounted at a predetermined position to sense the rotation of the ultrasonic probe 120. As an example, the sensing device 170 may be detachably mounted at a predetermined position of the ultrasonic probe 120. As another example, the sensing device 170 may be fixedly mounted at a predetermined position of the ultrasonic probe 120.

도 7은 본 개시의 일 실시예에 따른 프로세서(140)의 구성을 개략적으로 나타낸 블록도이다. 도 7을 참조하면, 프로세서(140)는 송신부(710), 송수신 스위치(720), 수신부(730), 신호 처리부(740), 영상 생성부(750), 정보 생성부(760), 및 영상 처리부(770)를 포함할 수 있다.FIG. 7 is a block diagram that schematically illustrates the configuration of processor 140 in accordance with one embodiment of the present disclosure. 7, the processor 140 includes a transmitting unit 710, a transmitting / receiving switch 720, a receiving unit 730, a signal processing unit 740, an image generating unit 750, an information generating unit 760, 770 < / RTI >

송신부(710)는 대상체의 초음파 영상을 얻기 위한 송신신호를 생성하고, 생성된 송신신호를 초음파 프로브(120)에 제공한다. 초음파 프로브(120)는 수신된 송신신호를 초음파 신호로 변환하고, 변환된 초음파 신호를 대상체에 송신한다. 또한, 초음파 프로브(120)는 대상체로부터 반사되는 초음파 에코신호를 수신하여 수신신호를 생성한다.The transmitter 710 generates a transmission signal for obtaining an ultrasound image of a target object, and provides the generated transmission signal to the ultrasound probe 120. The ultrasonic probe 120 converts the received transmission signal into an ultrasonic signal and transmits the ultrasonic signal to the object. Further, the ultrasonic probe 120 receives the ultrasonic echo signal reflected from the object and generates a reception signal.

프로세서(140)에서, 송수신 스위치(720)는 송신부(710)와 수신부(730)를 스위칭할 수 있다. 예를 들면, 송수신 스위치(720)는 듀플렉서(duplexer)를 포함할 수 있다. 일 실시예에서, 송수신 스위치(720)는 초음파 프로브(120)가 송신부(710)로부터 송신신호를 수신하는 경우 초음파 프로브(120)를 송신부(710)에 전기적으로 연결하도록 구성될 수 있다. 이에 반해, 송수신 스위치(720)는 초음파 프로브(120)가 대상체로부터 반사되는 초음파 에코신호를 수신하는 경우, 초음파 프로브(120)를 수신부(730)에 전기적으로 연결하도록 구성될 수 있다.In the processor 140, the transmission / reception switch 720 can switch the transmission unit 710 and the reception unit 730. For example, the transmit / receive switch 720 may include a duplexer. In one embodiment, the transmit / receive switch 720 may be configured to electrically connect the ultrasonic probe 120 to the transmitter 710 when the ultrasonic probe 120 receives a transmit signal from the transmitter 710. The transceiver switch 720 may be configured to electrically connect the ultrasonic probe 120 to the receiver 730 when the ultrasonic probe 120 receives the ultrasonic echo signal reflected from the object.

프로세서(140)에서, 수신부(730)는 초음파 프로브(120)로부터 송수신 스위치(720)를 통해 초음파 에코 신호를 수신하고, 이를 증폭시킬 수 있도록 구성된다. 이에 더하여, 수신부(730)는 증폭된 수신신호를 아날로그-디지털 변환하여 디지털 신호를 생성하도록 구성될 수 있다. 예를 들어, 수신부(730)는 초음파 신호가 대상체를 통과하면서 통상적으로 발생하는 감쇄를 보상하는 시간 이득 보상(time gain compensation; TGC) 유닛(도시하지 않음), 아날로그 신호를 디지털 신호로 변환하는 아날로그-디지털 변환(analog-to-digital conversion) 유닛(도시되지 않음) 등을 포함할 수 있다.In the processor 140, the receiver 730 is configured to receive an ultrasonic echo signal from the ultrasonic probe 120 through the transmission / reception switch 720 and amplify the ultrasonic echo signal. In addition, the receiver 730 may be configured to generate a digital signal by analog-to-digital conversion of the amplified received signal. For example, the receiver 730 may include a time gain compensation (TGC) unit (not shown) that compensates for attenuation that typically occurs when an ultrasonic signal passes through the object, an analog An analog-to-digital conversion unit (not shown), and the like.

프로세서(140)에서, 신호 처리부(740)는 수신부(330)로부터 제공되는 디지털 신호에 신호 처리(예를 들어, 빔 포밍 기법)를 수행하여 수신 집속 신호를 생성하도록 구성된다. 또한, 신호 처리부(740)는 수신 집속 신호에 기초하여 초음파 데이터를 생성할 수 있다. 초음파 데이터는 RF(radio frequency) 데이터, IQ(in-phase/quadrature) 데이터 등을 포함할 수 있다.In the processor 140, the signal processor 740 is configured to perform signal processing (e.g., beamforming) on the digital signal provided from the receiver 330 to generate a receive focus signal. In addition, the signal processing unit 740 can generate ultrasonic data based on the reception focusing signal. The ultrasound data may include radio frequency (RF) data, in-phase / quadrature (IQ) data, and the like.

영상 생성부(750)는 신호 처리부(740)로부터 초음파 데이터를 수신하고, 신호 처리부(740)로부터 제공되는 초음파 데이터에 기초하여 대상체의 하나 이상의 초음파 영상을 생성하도록 구성된다. 예를 들어, 초음파 영상은 B 모드(brithtness mode) 영상 등을 포함할 수 있다. 생성된 초음파 영상은 영상 처리부(770)에 제공될 수 있다.The image generating unit 750 is configured to receive the ultrasound data from the signal processing unit 740 and generate at least one ultrasound image of the target object based on the ultrasound data provided from the signal processing unit 740. For example, the ultrasound image may include a B mode (brithtism mode) image or the like. The generated ultrasound image may be provided to the image processing unit 770.

정보 생성부(760)는 촬상 장치(130)로부터 제공되는 영상에 기초하여, 대상체에 대한 초음파 프로브(120)의 위치 정보를 나타내는 주석 정보를 생성하도록 구성된다. 일 실시예에 따르면, 정보 생성부(760)는 촬상 장치(130)로부터 제공되는 기준 영상에 기초하여, 대상체에 대한 초음파 프로브(120)의 위치 정보를 나타내는 주석 정보(이하, "기준 주석 정보"라 함)를 생성할 수 있다. 이에 더하여, 정보 생성부(760)는 촬상 장치(130)로부터 제공되는 비교 영상에 기초하여, 대상체에 대한 초음파 프로브(120)의 위치 정보를 나타내는 주석 정보(이하, "비교 주석 정보"라 함)를 생성할 수 있다. 예를 들어, 주석 정보(기준 주석 정보, 비교 주석 정보)는 대상체에 대한 초음파 프로브(120)의 접촉 위치 및 방향 정보와, 대상체로부터 초음파 프로브(120)까지의 거리 정보를 포함할 수 있다. 추가적으로, 주석 정보(기준 주석 정보, 비교 주석 정보)는 감지 장치(170)로부터 제공되는 초음파 프로브(120)의 회전 정보를 더 포함할 수 있다.The information generating unit 760 is configured to generate annotation information indicating the positional information of the ultrasonic probe 120 with respect to the object, based on the image provided from the imaging device 130. [ The information generating unit 760 generates annotation information (hereinafter referred to as "reference annotation information") indicating the positional information of the ultrasonic probe 120 with respect to the object based on the reference image provided from the image sensing apparatus 130, Quot;) can be generated. In addition, the information generating unit 760 generates annotation information (hereinafter referred to as "comparison annotation information") indicating the positional information of the ultrasonic probe 120 with respect to the object based on the comparison image provided from the image sensing apparatus 130, Lt; / RTI > For example, the annotation information (reference annotation information, comparative annotation information) may include contact position and direction information of the ultrasonic probe 120 with respect to the object, and distance information from the object to the ultrasonic probe 120. In addition, the annotation information (reference annotation information, comparative annotation information) may further include rotation information of the ultrasonic probe 120 provided from the sensing device 170.

또한, 정보 생성부(760)는 기준 주석 정보 및 비교 주석 정보에 기초하여, 초음파 프로브(120)의 현재 위치에서 기준 위치로 초음파 프로브(120)를 이동시키도록 사용자에게 가이드하는 정보, 즉 가이드 정보를 생성하도록 구성된다. 일 실시예에 있어서, 정보 생성부(760)는 비교 주석 정보로부터 추출 가능한 초음파 프로브(120)의 현재 위치에서, 기준 주석 정보로부터 추출 가능한 초음파 프로브(120)의 기준 위치로 초음파 프로브(120)를 이동시키도록 사용자에게 가이드하는 가이드 정보를 생성할 수 있다. 정보 생성부(760)는 기준 주석 정보, 비교 주석 정보 및 가이드 정보를 영상 처리부(770)에 제공할 수 있다.The information generating unit 760 generates information to guide the user to move the ultrasonic probe 120 from the current position of the ultrasonic probe 120 to the reference position based on the reference annotation information and the comparison annotation information, . The information generating unit 760 may generate the ultrasonic probe 120 at the current position of the ultrasonic probe 120 that can be extracted from the comparison annotation information from a reference position of the ultrasonic probe 120 extractable from the reference annotation information And guide information for guiding the user to move. The information generating unit 760 may provide the reference annotation information, the comparison annotation information, and the guide information to the image processing unit 770.

영상 처리부(770)는 영상 생성부(750)로부터 초음파 영상을 수신하도록 구성되고, 정보 생성부(760)로부터 기준 주석 정보, 비교 주석 영상 및 가이드 정보를 수신하도록 구성될 수 있다. 영상 처리부(770)는 수신된 초음파 영상, 기준 주석 정보, 비교 주석 영상 또는 가이드 정보를 표시 장치(16)에 표시하는 것을 제어하도록 구성된다. 예를 들면, 영상 처리부(770)는 초음파 영상, 기준 주석 정보, 비교 주석 영상 또는 가이드 정보 중 적어도 하나가 표시 장치(160)에 표시되도록 제어할 수 있다. 영상 처리부(770)는 초음파 영상에 영상 처리(예를 들어, 화질 개선 등)를 수행하도록 구성될 수 있다.The image processing unit 770 is configured to receive the ultrasound image from the image generating unit 750 and receive the reference annotation information, the comparison annotation image, and the guide information from the information generating unit 760. The image processor 770 is configured to control the display device 16 to display the received ultrasound image, reference annotation information, comparison annotation image, or guide information. For example, the image processing unit 770 may control the display device 160 to display at least one of the ultrasound image, the reference annotation information, the comparison annotation image, and the guide information. The image processing unit 770 may be configured to perform image processing (e.g., image quality improvement, etc.) on the ultrasound image.

도 8은 본 개시의 일 실시예에 따라 기준 주석 정보를 제공하는 방법을 나타낸 흐름도이다. 도 8에 도시된 흐름도에서 프로세스 단계들, 방법 단계들, 알고리즘들 등이 순차적인 순서로 설명되었지만, 그러한 프로세스들, 방법들 및 알고리즘들은 임의의 적합한 순서로 작동하도록 구성될 수 있다. 다시 말하면, 본 개시의 다양한 실시예들에서 설명되는 프로세스들, 방법들 및 알고리즘들의 단계들이 본 개시에서 기술된 순서로 수행될 필요는 없다. 또한, 일부 단계들이 비동시적으로 수행되는 것으로서 설명되더라도, 다른 실시예에서는 이러한 일부 단계들이 동시에 수행될 수 있다. 또한, 도면에서의 묘사에 의한 프로세스의 예시는 예시된 프로세스가 그에 대한 다른 변화들 및 수정들을 제외하는 것을 의미하지 않으며, 예시된 프로세스 또는 그의 단계들 중 임의의 것이 본 개시의 다양한 실시예들 중 하나 이상에 필수적임을 의미하지 않으며, 예시된 프로세스가 바람직하다는 것을 의미하지 않는다.8 is a flow diagram illustrating a method for providing base annotation information in accordance with one embodiment of the present disclosure. Although the process steps, method steps, algorithms, and the like are described in a sequential order in the flowchart shown in FIG. 8, such processes, methods, and algorithms may be configured to operate in any suitable order. In other words, the steps of the processes, methods and algorithms described in the various embodiments of the present disclosure need not be performed in the order described in this disclosure. Also, although some of the steps are described as being performed asynchronously, some of these steps may be performed concurrently in other embodiments. Also, an illustration of a process by way of illustration in the drawings is not intended to imply that the illustrated process excludes other variations and modifications thereto, and that any of the illustrated processes or steps thereof may be used in various embodiments of the present disclosure Does not imply that it is necessary for more than one, and does not mean that the illustrated process is preferred.

도 8을 참조하면, 단계 S802에서, 대상체 및 초음파 프로브의 기준 영상이 획득된다. 예를 들어, 도 1 내지 도 7을 참조하면, 촬상 장치(130)는 대상체(300) 및 초음파 프로브(120)를 촬상하여, 대상체(300) 및 초음파 프로브(120)의 기준 영상(400)을 획득한다.Referring to Fig. 8, in step S802, a reference image of the object and the ultrasonic probe is obtained. 1 to 7, the image capturing apparatus 130 captures the object 300 and the ultrasonic probe 120, and detects the reference image 400 of the object 300 and the ultrasonic probe 120 .

단계 S804에서, 기준 영상으로부터 대상체 및 초음파 프로브의 윤곽이 추출된다. 예를 들어, 도 1 내지 도 7을 참조하면, 프로세서(140)의 정보 생성부(760)는 기준 영상(400)에 에지 검출 처리(edge detection process)를 수행하여, 대상체(300)의 복수의 기준 객체 중 적어도 하나의 기준 객체의 윤곽 및 초음파 프로브(120)의 윤곽을 추출할 수 있다.In step S804, the contour of the object and the ultrasonic probe is extracted from the reference image. 1 to 7, the information generating unit 760 of the processor 140 performs an edge detection process on the reference image 400 to generate a plurality of The contour of at least one of the reference objects and the contour of the ultrasonic probe 120 can be extracted.

일 실시예에 있어서, 정보 생성부(760)는 도 2에 도시된 카메라(210)로부터 제공되는 기준 영상 또는 카메라(220)로부터 제공되는 기준 영상 중 초음파 프로브(120)의 헤드(121)의 윤곽을 추출할 수 있는 기준 영상을 선택하고, 선택된 기준 영상으로부터 대상체(300)의 복수의 기준 객체 중 적어도 하나의 기준 객체의 윤곽 및 초음파 프로브(120)의 윤곽을 추출할 수 있다. 예를 들면, 정보 생성부(760)는 도 4에서의 기준 영상(400)으로부터, 도 9에 도시된 바와 같이, 우측 유방(310)의 윤곽(910), 우측 유방(310)의 유두(311)의 윤곽(911), 좌측 유방(320)의 윤곽(920), 좌측 유방(320)의 유두(321)의 윤곽(921) 및 좌측 겨드랑이(332)의 윤곽(932)을 추출할 수 있다. 또한, 정보 생성부(760)는 기준 영상(400)으로부터, 도 9에 도시된 바와 같이, 초음파 프로브(120)의 윤곽(940)을 추출하고, 추출된 윤곽(940)으로부터 헤드(121)의 윤곽(941)을 추출할 수 있다.In one embodiment, the information generating unit 760 generates the information of the reference image provided from the camera 210 shown in FIG. 2 or the reference image provided from the camera 220 to the contour of the head 121 of the ultrasonic probe 120 And extract an outline of at least one reference object among the plurality of reference objects of the object 300 and an outline of the ultrasonic probe 120 from the selected reference image. For example, from the reference image 400 in FIG. 4, the information generating unit 760 generates the outline 910 of the right breast 310, the nipple 311 of the right breast 310, The outline 921 of the left breast 320 and the outline 921 of the nipple 321 of the left breast 320 and the outline 932 of the left underarm 332 can be extracted. The information generating unit 760 extracts the contour 940 of the ultrasonic probe 120 from the reference image 400 and extracts the contour 940 of the ultrasonic probe 120 from the extracted contour 940, The outline 941 can be extracted.

단계 S806에서, 추출된 윤곽 및 초음파 프로브의 헤드의 사전 결정된 기하학적 정보에 기초하여, 대상체에 대한 초음파 프로브의 위치 정보를 나타내는 기준 주석 정보가 생성된다. 예를 들어, 도 1 내지 도 7을 참조하면, 정보 생성부(760)는 기준 영상(400)으로부터 추출된 복수의 기준 객체의 윤곽 및 초음파 프로브(120)의 헤드(121)의 윤곽과, 초음파 프로브(120)의 헤드(121)의 사전 결정된 기하학적 정보에 기초하여, 대상체(300)에 대한 초음파 프로브(120)의 위치 정보를 나타내는 기준 주석 정보를 생성한다. 예를 들면, 정보 생성부(760)는 대상체의 윤곽에 기초하여 적어도 하나의 기준 객체를 식별하고, 식별된 적어도 하나의 기준 객체에 대한 초음파 프로브(120)의 위치 정보를 생성한다.In step S806, based on the extracted contour and the predetermined geometric information of the head of the ultrasonic probe, reference annotation information indicating the positional information of the ultrasonic probe with respect to the object is generated. For example, referring to FIGS. 1 to 7, the information generating unit 760 may generate an outline of a plurality of reference objects extracted from the reference image 400, an outline of the head 121 of the ultrasonic probe 120, Based on the predetermined geometric information of the head 121 of the probe 120, the reference annotation information indicating the positional information of the ultrasonic probe 120 with respect to the object 300. [ For example, the information generating unit 760 identifies at least one reference object based on the contour of the object, and generates position information of the ultrasonic probe 120 for the at least one reference object identified.

일 실시예에 있어서, 정보 생성부(760)는 기준 영상(400)으로부터 추출된 복수의 기준 객체의 윤곽(910, 911, 920, 921, 932)에 기초하여, 우측 유방(310), 우측 유방(310)의 유두(311), 좌측 유방(320), 좌측 유방(320)의 유두(312) 및 좌측 겨드랑이(332)를 식별한다. 예를 들면, 복수의 기준 객체의 식별은 사전 결정된 기준 객체에 대한 정보에 기초하여 이루어질 수 있다.In one embodiment, the information generating unit 760 generates the right breast 103 and the right breast 103 based on the outlines 910, 911, 920, 921, and 932 of the plurality of reference objects extracted from the reference image 400, The nipple 312 and the left armpit 332 of the nipple 311, the left breast 320, the left breast 320 of the heart 310 are identified. For example, identification of a plurality of reference objects may be made based on information on a predetermined reference object.

일 실시예에 있어서, 정보 생성부(760)는 초음파 프로브(120)의 헤드(121)의 윤곽(941)에 기초하여 적어도 하나의 기준 객체에 대한 초음파 프로브(120)의 접촉 위치 및 방향 정보를 생성한다. 예를 들면, 정보 생성부(760)는 도 9에 도시된 바와 같이, 초음파 프로브(120)의 헤드(121)의 윤곽(941)에 기초하여, 좌측 겨드랑이(332)의 윤곽(932)을 기준으로 초음파 프로브(120)가 우측 유방(310)에 접촉되어 있음을 나타내는 접촉 위치를 결정한다. 또한, 정보 생성부(760)는 초음파 프로브(120)의 헤드(121)의 윤곽(941)에 기초하여, 초음파 프로브(120)가 우측 유방(310)의 유두(311)의 윤곽(911)을 기준으로 9시 방향에 접촉되어 있고, 좌측 겨드랑이(332)의 윤곽(932)과 평행하게 접촉되어 있음을 나타내는 접촉 방향을 결정한다. 정보 생성부(760)는 결정된 접촉 위치 및 방향에 기초하여, 적어도 하나의 기준 객체(예를 들어, 우측 유방(310))에 대한 초음파 프로브(120)의 접촉 위치 및 방향 정보를 생성한다.The information generating unit 760 generates the information on the contact position and the direction of the ultrasonic probe 120 with respect to at least one reference object based on the outline 941 of the head 121 of the ultrasonic probe 120 . 9, the information generating unit 760 generates the information 960 based on the outline 932 of the left side 332 based on the outline 941 of the head 121 of the ultrasonic probe 120, To determine the contact position indicating that the ultrasonic probe 120 is in contact with the right breast 310. The information generating unit 760 generates the information 960 on the basis of the outline 941 of the head 121 of the ultrasonic probe 120 so that the ultrasonic probe 120 can detect the contour 911 of the nipple 311 of the right breast 310 Which is in contact with the 9 o'clock direction and is in parallel contact with the contour 932 of the left side arm 332 as a reference. The information generating unit 760 generates the contact position and orientation information of the ultrasonic probe 120 with respect to at least one reference object (e.g., the right breast 310) based on the determined contact position and orientation.

또한, 정보 생성부(760)는 초음파 프로브(120)의 헤드(121)의 윤곽(941)에 기초하여, 적어도 하나의 기준 객체로부터 헤드(121)의 윤곽(941) 상의 기준점까지의 거리 정보를 생성할 수 있다. 예를 들어, 헤드(121)의 윤곽(941) 상의 기준점은 헤드의 윤곽(941)의 중심점일 수 있다. 일 실시예에 있어서, 정보 생성부(760)는 추출된 헤드(121)의 윤곽(941)에 기초하여, 도 9에 도시된 바와 같이, 헤드(121)의 윤곽(941) 상의 기준점(중심점)(950)을 결정하고, 초음파 프로브(120)의 헤드(121)의 사전 결정된 기하학적 정보(길이 정보)에 기초하여, 기준점(950)으로부터 우측 유방(310)의 유두(311)까지의 거리를 결정하고, 결정된 거리를 기초하여 거리 정보를 생성한다.The information generating unit 760 may calculate the distance information from at least one reference object to the reference point on the outline 941 of the head 121 based on the outline 941 of the head 121 of the ultrasonic probe 120 Can be generated. For example, the reference point on the contour 941 of the head 121 may be the center point of the contour 941 of the head. 9, the information generating unit 760 generates the reference point (center point) on the outline 941 of the head 121 based on the extracted outline 941 of the head 121, And determines the distance from the reference point 950 to the nipple 311 of the right breast 310 based on predetermined geometrical information (length information) of the head 121 of the ultrasonic probe 120 And generates distance information based on the determined distance.

정보 생성부(760)는 생성된 접촉 위치 및 방향 정보와 생성된 거리 정보를 포함하는 기준 주석 정보를 생성한다. 선택적으로, 기준 주석 정보는 감지 장치(170)로부터 제공되는, 초음파 프로브(120)의 회전 정보를 더 포함할 수 있다.The information generating unit 760 generates reference annotation information including the generated contact position and direction information and generated distance information. Optionally, the reference annotation information may further comprise rotation information of the ultrasonic probe 120, provided from the sensing device 170. [

또한, 정보 생성부(760)는 기준 주석 정보를 저장 장치(150)에 저장할 수 있다. 선택적으로, 정보 생성부(760)는 기준 주석 정보를, 영상 생성부(750)에 의해 생성된 초음파 영상 또는 정보 생성부(760)에 의해 추출된 윤곽 중 적어도 하나에 대응시켜 저장 장치(150)에 저장할 수도 있다.In addition, the information generating unit 760 may store the reference annotation information in the storage device 150. [ Alternatively, the information generating unit 760 may associate the reference annotation information with at least one of the ultrasound image generated by the image generating unit 750 or the outline extracted by the information generating unit 760, .

다시 도 8을 참조하면, 단계 S808에서 기준 주석 정보가 표시된다. 도 1 내지 도 7을 참조하면, 표시 장치(160)는 정보 생성부(760)에 의해 생성된 기준 주석 정보를 표시하도록 구성된다. 일 실시예에 있어서, 기준 주석 정보는 초음파 영상 또는 추출된 윤곽 중 적어도 하나와 함께 표시 장치(160)에 표시될 수 있다. 예를 들어, 기준 주석 정보는 표시자, 수치, 텍스트 등으로 표시될 수 있다.8, reference annotation information is displayed in step S808. Referring to Figs. 1 to 7, the display device 160 is configured to display the base annotation information generated by the information generating unit 760. Fig. In one embodiment, the baseline annotation information may be displayed on the display 160 along with at least one of an ultrasound image or an extracted outline. For example, the base annotation information may be displayed as an indicator, numerical value, text, or the like.

도 10은 본 개시의 일 실시예에 따라 가이드 정보를 제공하는 절차를 나타낸 흐름도이다. 도 10에 도시된 흐름도에서 프로세스 단계들, 방법 단계들, 알고리즘들 등이 순차적인 순서로 설명되었지만, 그러한 프로세스들, 방법들 및 알고리즘들은 임의의 적합한 순서로 작동하도록 구성될 수 있다. 다시 말하면, 본 개시의 다양한 실시예들에서 설명되는 프로세스들, 방법들 및 알고리즘들의 단계들이 본 개시에서 기술된 순서로 수행될 필요는 없다. 또한, 일부 단계들이 비동시적으로 수행되는 것으로서 설명되더라도, 다른 실시예에서는 이러한 일부 단계들이 동시에 수행될 수 있다. 또한, 도면에서의 묘사에 의한 프로세스의 예시는 예시된 프로세스가 그에 대한 다른 변화들 및 수정들을 제외하는 것을 의미하지 않으며, 예시된 프로세스 또는 그의 단계들 중 임의의 것이 본 개시의 다양한 실시예들 중 하나 이상에 필수적임을 의미하지 않으며, 예시된 프로세스가 바람직하다는 것을 의미하지 않는다.10 is a flow diagram illustrating a procedure for providing guide information in accordance with one embodiment of the present disclosure. Although the process steps, method steps, algorithms, and the like are described in a sequential order in the flowchart shown in FIG. 10, such processes, methods, and algorithms may be configured to operate in any suitable order. In other words, the steps of the processes, methods and algorithms described in the various embodiments of the present disclosure need not be performed in the order described in this disclosure. Also, although some of the steps are described as being performed asynchronously, some of these steps may be performed concurrently in other embodiments. Also, an illustration of a process by way of illustration in the drawings is not intended to imply that the illustrated process excludes other variations and modifications thereto, and that any of the illustrated processes or steps thereof may be used in various embodiments of the present disclosure Does not imply that it is necessary for more than one, and does not mean that the illustrated process is preferred.

도 10을 참조하면, 단계 S1002에서, 대상체 및 초음파 프로브의 비교 영상이 획득된다. 예를 들어, 도 1 내지 도 7을 참조하면, 촬상 장치(130)는 대상체 및 초음파 프로브(120)를 촬상하여 대상체(300) 및 초음파 프로브(120)의 비교 영상(600)을 획득할 수 있다.Referring to Fig. 10, in step S1002, a comparison image of the object and the ultrasonic probe is obtained. 1 to 7, the image capturing apparatus 130 can acquire the comparison image 600 of the object 300 and the ultrasonic probe 120 by capturing the object and the ultrasonic probe 120 .

단계 S1004에서, 비교 영상으로부터 대상체 및 초음파 프로브의 윤곽이 추출된다. 예를 들어, 도 1 내지 도 7을 참조하면, 정보 생성부(760)는 촬상 장치(130)로부터 제공되는 비교 영상(600)에 윤곽 검출 처리를 수행하여, 대상체(300) 및 초음파 프로브(120)의 윤곽을 추출할 수 있다.In step S1004, contours of the object and the ultrasonic probe are extracted from the comparison image. 1 to 7, the information generation unit 760 performs contour detection processing on the comparison image 600 provided from the image sensing apparatus 130, and outputs the contour detection processing to the object 300 and the ultrasonic probe 120 ) Can be extracted.

단계 S1006에서, 추출된 윤곽과 초음파 프로브의 헤드의 사전 결정된 기하학적 정보에 기초하여, 대상체에 대한 초음파 프로브의 위치 정보를 나타내는 비교 주석 정보가 생성된다. 예를 들어, 도 1 내지 도 7을 참조하면, 정보 생성부(760)는 추출된 윤곽과 초음파 프로브(120)의 헤드(121)의 사전 결정된 기하학적 정보에 기초하여, 대상체(300)에 대한 초음파 프로브(120)의 위치 정보를 나타내는 비교 주석 정보를 생성한다. 비교 주석 정보를 생성하는 절차는 기준 주석 정보를 생성하는 절차와 유사하므로 그 상세한 설명을 생략한다.In step S1006, based on the extracted contour and the predetermined geometric information of the head of the ultrasonic probe, comparison annotation information indicating the position information of the ultrasonic probe with respect to the object is generated. 1 to 7, the information generating unit 760 may generate ultrasound waves corresponding to the ultrasound waves of the target 300 based on the extracted contour and the predetermined geometric information of the head 121 of the ultrasound probe 120. For example, And generates comparison annotation information indicating position information of the probe 120. [ The procedure for generating the comparative annotation information is similar to the procedure for generating the base annotation information, and a detailed description thereof will be omitted.

단계 S1008에서, 기준 주석 정보 및 비교 주석 정보를 이용하여 가이드 정보가 생성된다. 예를 들어, 도 1 내지 도 7을 참조하면, 정보 생성부(760)는 기준 주석 정보 및 비교 주석 정보를 이용하여 가이드 정보를 생성할 수 있다. 일 실시예에 있어서, 정보 생성부(760)는 비교 주석 정보에 따른 초음파 프로브(120)의 현재 위치에서, 기준 주석 정보에 따른 초음파 프로브(120)의 기준 위치로 초음파 프로브(120)를 이동시키기 위한 가이드 정보를 생성할 수 있다. 예를 들면, 이러한 기준 주석 정보는 저장 장치(150)로부터 추출될 수 있다.In step S1008, guide information is generated using the base annotation information and the comparison annotation information. For example, referring to FIGS. 1 to 7, the information generating unit 760 may generate guide information using the reference annotation information and the comparison annotation information. The information generating unit 760 may be configured to move the ultrasonic probe 120 to the reference position of the ultrasonic probe 120 according to the reference annotation information at the current position of the ultrasonic probe 120 according to the comparison annotation information Can be generated. For example, such reference annotation information may be extracted from the storage device 150. [

일 실시예에 따르면, 정보 생성부(760)는 도 11에 도시된 바와 같이, 초음파 프로브(120)의 현재 위치를 나타내는 제1 위치 표시자(1110)와, 초음파 프로브(120)의 기준 위치를 나타내는 제2 위치 표시자(1120)를 포함하는 가이드 정보(1100)를 생성한다. 이때, 제1 위치 표시자(1110)의 색(예를 들어, 적색)은 제2 위치 표시자(1120)의 색(예를 들어, 녹색)과 상이할 수 있다. 추가적으로, 가이드 정보(1100)는 유방을 나타내는 유방 표시자(1130) 및 유두를 나타내는 유두 표시자(1140)를 더 포함할 수 있다.11, the information generating unit 760 includes a first position indicator 1110 indicating a current position of the ultrasonic probe 120, a second position indicator 1110 indicating a reference position of the ultrasonic probe 120, And a second location indicator 1120 indicating the second location indicator 1120. At this time, the color (e.g., red) of the first location indicator 1110 may be different from the color (e.g., green) of the second location indicator 1120. Additionally, the guide information 1100 may further include a breast indicator 1130 that represents the breast and a nipple indicator 1140 that represents the nipple.

단계 S1010에서 가이드 정보가 표시된다. 예를 들어, 도 1 내지 도 7을 참조하면, 표시 장치(160)는 정보 생성부(760)에 의해 생성된 가이드 정보를 표시할 수 있다. 따라서, 사용자는 표시 장치(160)에 표시된 가이드 정보에 기초하여 초음파 프로브(120)의 현재 위치에서 기준 위치로 초음파 프로브(120)를 이동시킬 수 있다.In step S1010, guide information is displayed. For example, referring to FIGS. 1 to 7, the display device 160 may display the guide information generated by the information generation unit 760. Accordingly, the user can move the ultrasonic probe 120 from the current position of the ultrasonic probe 120 to the reference position on the basis of the guide information displayed on the display device 160.

선택적으로, 표시 장치(160)는 영상 생성부(750)에 의해 생성된 초음파 영상, 대상체(300)의 윤곽 또는 초음파 프로브(120)의 윤곽 중 적어도 하나를 가이드 정보와 함께 표시할 수 있다.Alternatively, the display device 160 may display at least one of the ultrasound image generated by the image generating unit 750, the contour of the object 300, or the contour of the ultrasound probe 120 together with the guide information.

상기 방법은 특정 실시예들을 통하여 설명되었지만, 상기 방법은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등이 있으며, 또한 케리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 상기 실시예들을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 개시가 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.Although the method has been described through particular embodiments, the method may also be implemented as computer readable code on a computer readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored. Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and may be implemented in the form of a carrier wave (for example, transmission over the Internet) . In addition, the computer-readable recording medium may be distributed over network-connected computer systems so that computer readable codes can be stored and executed in a distributed manner. And, functional programs, codes, and code segments for implementing the above embodiments can be easily inferred by programmers in the technical field to which this disclosure belongs.

이상 일부 실시예들과 첨부된 도면에 도시된 예에 의해 본 개시의 기술적 사상이 설명되었지만, 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 이해할 수 있는 본 개시의 기술적 사상 및 범위를 벗어나지 않는 범위에서 다양한 치환, 변형 및 변경이 이루어질 수 있다는 점을 알아야 할 것이다. 또한, 그러한 치환, 변형 및 변경은 첨부된 청구범위 내에 속하는 것으로 생각되어야 한다.Although the technical idea of the present disclosure has been described above by way of some embodiments and examples shown in the accompanying drawings, it is to be understood that the present invention is not limited to the above- It should be understood that various substitutions, changes, and alterations can be made therein without departing from the scope of the invention. It is also to be understood that such substitutions, modifications and variations are intended to be included within the scope of the appended claims.

100: 초음파 시스템 110: 컨트롤 패널
120: 초음파 프로브 121: 초음파 프로브의 헤드
130: 촬상 장치 140: 프로세서
150: 저장 장치 160: 표시 장치
170: 감지 장치 210, 220: 카메라
300: 대상체 310: 우측 유방
311: 우측 유방의 유두 320: 좌측 유방
321: 좌측 유방의 유두 331: 우측 겨드랑이
332: 좌측 겨드랑이 400: 기준 영상
600: 비교 영상 710: 송신부
720: 송수신 스위치 730: 수신부
740: 신호 처리부 750: 영상 생성부
760: 정보 생성부 770: 영상 처리부
910: 우측 유방의 윤곽
911: 우측 유방의 유두의 윤곽
920: 좌측 유방의 윤곽
921: 좌측 유방의 유두의 윤곽
932: 좌측 겨드랑이의 윤곽 940: 초음파 프로브의 윤곽
941: 헤드의 윤곽 1100: 가이드 정보
1110: 제1 위치 표시자 1120: 제2 위치 표시자
1130: 유방 표시자 1140: 유두 표시자
100: Ultrasonic system 110: Control panel
120: Ultrasonic probe 121: Head of ultrasonic probe
130: Image pickup device 140: Processor
150: Storage device 160: Display device
170: sensing device 210, 220: camera
300: subject 310: right breast
311: Nipple of right breast 320: Left breast
321: Nipple of left breast 331: Right arm
332: left armpit 400: reference image
600: comparison image 710:
720: Transmitting / receiving switch 730:
740: Signal processing unit 750:
760: Information generating unit 770:
910: contour of the right breast
911: contour of the right breast's nipple
920: contour of left breast
921: contour of left breast papilla
932: contour of the left armpit 940: contour of the ultrasonic probe
941: Head contour 1100: Guide information
1110: first position indicator 1120: second position indicator
1130: Breast indicator 1140: Nipple indicator

Claims (18)

대상체에 접촉된 초음파 프로브의 주석 정보를 제공하는 방법으로서,
상기 초음파 프로브에 장착된 적어도 하나의 카메라를 이용하여 상기 대상체 및 상기 초음파 프로브의 기준 영상을 획득하는 단계와,
상기 기준 영상으로부터 상기 대상체의 윤곽 및 상기 초음파 프로브의 윤곽을 추출하는 단계와,
상기 대상체의 윤곽, 상기 초음파 프로브의 윤곽 및 상기 초음파 프로브의 헤드의 사전 결정된 기하학적 정보에 기초하여, 상기 대상체에 대한 상기 초음파 프로브의 위치 정보를 나타내는 기준 주석 정보를 생성하는 단계와,
상기 기준 주석 정보를 표시하는 단계
를 포함하는, 방법.
A method of providing annotation information of an ultrasonic probe in contact with a target object,
Acquiring a reference image of the object and the ultrasound probe using at least one camera mounted on the ultrasound probe;
Extracting an outline of the object and an outline of the ultrasonic probe from the reference image,
Generating reference annotation information indicating positional information of the ultrasonic probe relative to the object based on the contour of the object, the contour of the ultrasonic probe, and the predetermined geometric information of the head of the ultrasonic probe;
Displaying the base annotation information
/ RTI >
제1항에 있어서, 상기 기준 주석 정보는, 상기 대상체에 대한 상기 초음파 프로브의 접촉 위치 및 방향 정보와, 상기 대상체로부터 상기 초음파 프로브까지의 거리 정보를 포함하는, 방법.The method according to claim 1, wherein the reference annotation information includes contact position and direction information of the ultrasonic probe with respect to the object, and distance information from the object to the ultrasonic probe. 제1항에 있어서, 상기 헤드의 사전 결정된 기하학적 정보는 상기 헤드의 길이 정보를 포함하는, 방법.2. The method of claim 1, wherein the predetermined geometric information of the head comprises length information of the head. 제1항에 있어서, 상기 기준 주석 정보를 생성하는 단계는,
상기 대상체의 윤곽에 기초하여 적어도 하나의 기준 객체를 식별하는 단계와,
상기 적어도 하나의 기준 객체에 대한 상기 초음파 프로브의 위치 정보를 생성하는 단계
를 포함하는, 방법.
2. The method of claim 1, wherein generating the base annotation information comprises:
Identifying at least one reference object based on an outline of the object;
Generating position information of the ultrasonic probe relative to the at least one reference object
/ RTI >
제4항에 있어서, 상기 초음파 프로브의 위치 정보를 생성하는 단계는,
상기 초음파 프로브의 윤곽에서 상기 초음파 프로브의 헤드의 윤곽을 추출하는 단계와,
상기 헤드의 윤곽에 기초하여, 상기 적어도 하나의 기준 객체에 대한 상기 초음파 프로브의 접촉 위치 및 방향 정보를 생성하는 단계와,
상기 적어도 하나의 기준 객체로부터 상기 헤드의 윤곽 상의 기준점까지의 거리 정보를 생성하는 단계
를 포함하는, 방법.
5. The method of claim 4, wherein generating the position information of the ultrasonic probe comprises:
Extracting an outline of a head of the ultrasonic probe at an outline of the ultrasonic probe;
Generating contact position and orientation information of the ultrasonic probe with respect to the at least one reference object based on the contour of the head;
Generating distance information from the at least one reference object to a reference point on the contour of the head
/ RTI >
제2항에 있어서,
상기 초음파 프로브에 장착된 적어도 하나의 센서를 이용하여 상기 초음파 프로브의 회전 정보를 생성하는 단계
를 더 포함하고,
상기 기준 주석 정보는 상기 초음파 프로브의 회전 정보를 더 포함하는, 방법.
3. The method of claim 2,
Generating rotation information of the ultrasonic probe using at least one sensor mounted on the ultrasonic probe
Further comprising:
Wherein the reference annotation information further comprises rotation information of the ultrasonic probe.
제1항 내지 제6항 중 어느 한 항에 있어서,
상기 적어도 하나의 카메라를 이용하여 상기 대상체 및 상기 초음파 프로브의 비교 영상을 획득하는 단계와,
상기 비교 영상 및 상기 초음파 프로브의 헤드의 사전 결정된 기하학적 정보에 기초하여, 상기 대상체에 대한 상기 초음파 프로브의 위치 정보를 나타내는 비교 주석 정보를 생성하는 단계와,
상기 기준 주석 정보 및 상기 비교 주석 정보를 표시하는 단계
를 더 포함하는, 방법.
7. The method according to any one of claims 1 to 6,
Acquiring a comparison image of the object and the ultrasonic probe using the at least one camera;
Generating comparative annotation information indicating positional information of the ultrasonic probe relative to the object based on the comparison image and the predetermined geometric information of the head of the ultrasonic probe;
Displaying the base annotation information and the comparison annotation information
≪ / RTI >
제7항에 있어서, 상기 기준 주석 정보 및 상기 비교 주석 정보를 표시하는 단계는,
상기 비교 주석 정보에 따른 상기 초음파 프로브의 현재 위치에서 상기 기준 주석 정보에 따른 상기 초음파 프로브의 기준 위치로 상기 초음파 프로브를 이동시키기 위한 가이드 정보를 생성하여 표시하는 단계
를 포함하는, 방법.
8. The method of claim 7, wherein the displaying of the base annotation information and the comparison annotation information comprises:
Generating and displaying guide information for moving the ultrasonic probe to a reference position of the ultrasonic probe according to the reference annotation information at a current position of the ultrasonic probe according to the comparison annotation information,
/ RTI >
제8항에 있어서, 상기 가이드 정보를 생성하여 표시하는 단계는
상기 현재 위치를 나타내는 제1 표시자와 상기 기준 위치를 나타내는 제2 표시자를 상이하게 생성하여 표시하는 단계
를 포함하는, 방법.
The method of claim 8, wherein generating and displaying the guide information comprises:
Generating and displaying a first indicator indicating the current position and a second indicator indicating the reference position differently from each other
/ RTI >
초음파 시스템으로서,
초음파 프로브와,
상기 초음파 프로브에 장착되며, 대상체 및 상기 초음파 프로브의 기준 영상을 획득하는 적어도 하나의 카메라와,
상기 초음파 프로브 및 상기 적어도 하나의 카메라에 연결되며, 상기 적어도 하나의 카메라로부터 제공되는 상기 기준 영상으로부터 상기 대상체의 윤곽 및 상기 초음파 프로브의 윤곽을 추출하고, 상기 대상체의 윤곽, 상기 초음파 프로브의 윤곽 및 상기 초음파 프로브의 헤드의 사전 결정된 기하학적 정보에 기초하여, 상기 대상체에 대한 상기 초음파 프로브의 위치 정보를 나타내는 기준 주석 정보를 생성하는 프로세서와,
상기 기준 주석 정보를 표시하는 표시 장치
를 포함하는, 초음파 시스템.
As an ultrasound system,
An ultrasonic probe,
At least one camera mounted on the ultrasonic probe for acquiring a reference object and a reference image of the ultrasonic probe,
Extracting an outline of the object and an outline of the ultrasonic probe from the reference image provided from the at least one camera, the outline of the object, the outline of the ultrasonic probe, and the outline of the ultrasonic probe, A processor for generating reference annotation information indicating positional information of the ultrasonic probe relative to the object based on predetermined geometric information of the head of the ultrasonic probe;
A display device for displaying the reference annotation information
And an ultrasound system.
제10항에 있어서, 상기 기준 주석 정보는, 상기 대상체에 대한 상기 초음파 프로브의 접촉 위치 및 방향 정보와, 상기 대상체로부터 상기 초음파 프로브까지의 거리 정보를 포함하는, 초음파 시스템.11. The ultrasound system of claim 10, wherein the reference annotation information includes contact position and direction information of the ultrasonic probe with respect to the object, and distance information from the object to the ultrasonic probe. 제10항에 있어서, 상기 헤드의 사전 결정된 기하학적 정보는 상기 헤드의 길이 정보를 포함하는, 초음파 시스템.11. The ultrasound system of claim 10, wherein the predetermined geometric information of the head comprises length information of the head. 제10항에 있어서, 상기 프로세서는,
상기 대상체의 윤곽에 기초하여 적어도 하나의 기준 객체를 식별하고,
상기 적어도 하나의 기준 객체에 대한 상기 초음파 프로브의 위치 정보를 생성하는, 초음파 시스템.
11. The apparatus of claim 10,
Identifying at least one reference object based on the contour of the object,
And generates position information of the ultrasonic probe relative to the at least one reference object.
제13항에 있어서, 상기 프로세서는,
상기 초음파 프로브의 윤곽에서 상기 초음파 프로브의 헤드의 윤곽을 추출하고,
상기 헤드의 윤곽에 기초하여, 상기 적어도 하나의 기준 객체에 대한 상기 초음파 프로브의 접촉 위치 및 방향 정보를 생성하고,
상기 적어도 하나의 기준 객체로부터 상기 헤드의 윤곽 상의 기준점까지의 거리 정보를 생성하는, 초음파 시스템.
14. The apparatus of claim 13,
Extracting an outline of the head of the ultrasonic probe from an outline of the ultrasonic probe,
Generating contact position and orientation information of the ultrasonic probe with respect to the at least one reference object based on the contour of the head,
And generates distance information from the at least one reference object to a reference point on the contour of the head.
제11항에 있어서,
상기 초음파 프로브에 장착되며, 상기 초음파 프로브의 회전 정보를 생성하는 적어도 하나의 센서
를 더 포함하고,
상기 기준 주석 정보는 상기 초음파 프로브의 회전 정보를 더 포함하는, 초음파 시스템.
12. The method of claim 11,
At least one sensor mounted on the ultrasonic probe and generating rotation information of the ultrasonic probe,
Further comprising:
Wherein the reference annotation information further comprises rotation information of the ultrasonic probe.
제10항 내지 제15항 중 어느 한 항에 있어서,
상기 적어도 하나의 카메라는, 상기 대상체 및 상기 초음파 프로브의 비교 영상을 더 획득하고,
상기 프로세서는, 상기 비교 영상 및 상기 초음파 프로브의 헤드의 사전 결정된 기하학적 정보에 기초하여, 상기 대상체에 대한 상기 초음파 프로브의 위치 정보를 나타내는 비교 주석 정보를 더 생성하고,
상기 표시 장치는, 상기 기준 주석 정보 및 상기 비교 주석 정보를 더 표시하는, 초음파 시스템.
16. The method according to any one of claims 10 to 15,
Wherein the at least one camera further obtains a comparison image of the object and the ultrasonic probe,
Wherein the processor further generates comparison annotation information indicating position information of the ultrasonic probe relative to the object based on the comparison image and the predetermined geometric information of the head of the ultrasonic probe,
Wherein the display device further displays the reference annotation information and the comparison annotation information.
제16항에 있어서, 상기 프로세서는, 상기 비교 주석 정보에 따른 상기 초음파 프로브의 현재 위치에서 상기 기준 주석 정보에 따른 상기 초음파 프로브의 기준 위치로 상기 초음파 프로브를 이동시키기 위한 가이드 정보를 생성하는, 초음파 시스템.The apparatus according to claim 16, wherein the processor is configured to generate guide information for moving the ultrasonic probe to a reference position of the ultrasonic probe in accordance with the reference annotation information at a current position of the ultrasonic probe according to the comparison annotation information, system. 제17항에 있어서, 상기 프로세서는, 상기 현재 위치를 나타내는 제1 표시자와 상기 기준 위치를 나타내는 제2 표시자를 상이하게 생성하는, 초음파 시스템.18. The ultrasound system of claim 17, wherein the processor generates a first indicator that indicates the current position and a second indicator that indicates the reference position.
KR1020160173394A 2016-12-19 2016-12-19 Method of providing annotation information of ultrasound probe and ultrasound system KR102107581B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160173394A KR102107581B1 (en) 2016-12-19 2016-12-19 Method of providing annotation information of ultrasound probe and ultrasound system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160173394A KR102107581B1 (en) 2016-12-19 2016-12-19 Method of providing annotation information of ultrasound probe and ultrasound system

Publications (2)

Publication Number Publication Date
KR20180070878A true KR20180070878A (en) 2018-06-27
KR102107581B1 KR102107581B1 (en) 2020-05-07

Family

ID=62790063

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160173394A KR102107581B1 (en) 2016-12-19 2016-12-19 Method of providing annotation information of ultrasound probe and ultrasound system

Country Status (1)

Country Link
KR (1) KR102107581B1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3313282A4 (en) * 2015-06-25 2019-03-06 Rivanna Medical, LLC Ultrasonic guidance of a probe with respect to anatomical features
WO2022072727A3 (en) * 2020-10-02 2022-06-02 Bard Access Systems, Inc. Ultrasound systems and methods for sustained spatial attention
US11759166B2 (en) 2019-09-20 2023-09-19 Bard Access Systems, Inc. Automatic vessel detection tools and methods
US11877810B2 (en) 2020-07-21 2024-01-23 Bard Access Systems, Inc. System, method and apparatus for magnetic tracking of ultrasound probe and generation of 3D visualization thereof
US11890139B2 (en) 2020-09-03 2024-02-06 Bard Access Systems, Inc. Portable ultrasound systems
US11925505B2 (en) 2020-09-25 2024-03-12 Bard Access Systems, Inc. Minimum catheter length tool
US11992363B2 (en) 2020-09-08 2024-05-28 Bard Access Systems, Inc. Dynamically adjusting ultrasound-imaging systems and methods thereof

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100367932B1 (en) * 1999-11-26 2003-01-14 주식회사 메디슨 An apparatus for searching ultrasonic image
JP2008086742A (en) * 2006-01-19 2008-04-17 Toshiba Corp Locus indicating device of ultrasonic probe and ultrasonic diagnostic apparatus
JP2008302220A (en) * 2007-06-04 2008-12-18 Biosense Webster Inc Cardiac mechanical assessment using ultrasound
JP2011031053A (en) * 2003-11-19 2011-02-17 Siemens Medical Solutions Usa Inc Method for detecting and matching anatomical structure in image, method for matching anatomical structure in image, and system for detecting and matching anatomical structure in image
KR20120101040A (en) * 2009-10-30 2012-09-12 더 존스 홉킨스 유니버시티 Visual tracking and annotation of clinically important anatomical landmarks for surgical interventions
JP2015116215A (en) * 2013-12-16 2015-06-25 日立アロカメディカル株式会社 Ultrasonic diagnostic device and program
WO2016110463A1 (en) * 2015-01-06 2016-07-14 Koninklijke Philips N.V. Ultrasound imaging apparatus and method for segmenting anatomical objects

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100367932B1 (en) * 1999-11-26 2003-01-14 주식회사 메디슨 An apparatus for searching ultrasonic image
JP2011031053A (en) * 2003-11-19 2011-02-17 Siemens Medical Solutions Usa Inc Method for detecting and matching anatomical structure in image, method for matching anatomical structure in image, and system for detecting and matching anatomical structure in image
JP2008086742A (en) * 2006-01-19 2008-04-17 Toshiba Corp Locus indicating device of ultrasonic probe and ultrasonic diagnostic apparatus
JP2008302220A (en) * 2007-06-04 2008-12-18 Biosense Webster Inc Cardiac mechanical assessment using ultrasound
KR20120101040A (en) * 2009-10-30 2012-09-12 더 존스 홉킨스 유니버시티 Visual tracking and annotation of clinically important anatomical landmarks for surgical interventions
JP2015116215A (en) * 2013-12-16 2015-06-25 日立アロカメディカル株式会社 Ultrasonic diagnostic device and program
WO2016110463A1 (en) * 2015-01-06 2016-07-14 Koninklijke Philips N.V. Ultrasound imaging apparatus and method for segmenting anatomical objects

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3313282A4 (en) * 2015-06-25 2019-03-06 Rivanna Medical, LLC Ultrasonic guidance of a probe with respect to anatomical features
US11759166B2 (en) 2019-09-20 2023-09-19 Bard Access Systems, Inc. Automatic vessel detection tools and methods
US11877810B2 (en) 2020-07-21 2024-01-23 Bard Access Systems, Inc. System, method and apparatus for magnetic tracking of ultrasound probe and generation of 3D visualization thereof
US11890139B2 (en) 2020-09-03 2024-02-06 Bard Access Systems, Inc. Portable ultrasound systems
US11992363B2 (en) 2020-09-08 2024-05-28 Bard Access Systems, Inc. Dynamically adjusting ultrasound-imaging systems and methods thereof
US11925505B2 (en) 2020-09-25 2024-03-12 Bard Access Systems, Inc. Minimum catheter length tool
WO2022072727A3 (en) * 2020-10-02 2022-06-02 Bard Access Systems, Inc. Ultrasound systems and methods for sustained spatial attention

Also Published As

Publication number Publication date
KR102107581B1 (en) 2020-05-07

Similar Documents

Publication Publication Date Title
KR102107581B1 (en) Method of providing annotation information of ultrasound probe and ultrasound system
JP6268196B2 (en) Consistent continuous ultrasound acquisition for intracranial monitoring
JP2019503268A (en) Ultrasound imaging related to position
US10228785B2 (en) Ultrasound diagnosis apparatus and method and computer-readable storage medium
US11642096B2 (en) Method for postural independent location of targets in diagnostic images acquired by multimodal acquisitions and system for carrying out the method
US11931202B2 (en) Ultrasound automatic scanning system, ultrasound diagnostic apparatus, ultrasound scanning support apparatus
US20180161010A1 (en) Apparatus and method for processing ultrasound image
US20160095573A1 (en) Ultrasonic diagnostic apparatus
CN111053573A (en) Method and system for detecting medical imaging scan planes using probe position feedback
KR102442178B1 (en) Ultrasound diagnosis apparatus and mehtod thereof
US20150305718A1 (en) Ultrasonic diagnostic apparatus
US20150164482A1 (en) Ultrasound diagnostic apparatus, ultrasound image recording method, and non-transitory computer readable recording medium
US20150057546A1 (en) Method of generating body marker and ultrasound diagnosis apparatus using the same
US20120289830A1 (en) Method and ultrasound imaging system for image-guided procedures
US11317895B2 (en) Ultrasound diagnosis apparatus and method of operating the same
JP7321836B2 (en) Information processing device, inspection system and information processing method
JP2021029675A (en) Information processor, inspection system, and information processing method
KR20150114285A (en) Ultrasonic diagnostic apparatus and operating method for the same
US20140024940A1 (en) Ultrasonic diagnostic apparatus and sensor selection apparatus
KR20190085342A (en) Method for controlling ultrasound imaging apparatus and ultrasound imaging aparatus thereof
US20200178846A1 (en) Acoustic wave measurement apparatus and operation method of acoustic wave measurement apparatus
US20140236012A1 (en) Ultrasound diagnosis apparatus
US20220087652A1 (en) Three-dimensional ultrasound imaging support apparatus, three-dimensional ultrasound imaging support method, and three-dimensional ultrasound imaging support program
JP6019362B2 (en) Medical image measuring apparatus and medical image measuring method
US11766236B2 (en) Method and apparatus for displaying ultrasound image providing orientation of fetus and computer program product

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant