KR20180070878A - Method of providing annotation information of ultrasound probe and ultrasound system - Google Patents
Method of providing annotation information of ultrasound probe and ultrasound system Download PDFInfo
- Publication number
- KR20180070878A KR20180070878A KR1020160173394A KR20160173394A KR20180070878A KR 20180070878 A KR20180070878 A KR 20180070878A KR 1020160173394 A KR1020160173394 A KR 1020160173394A KR 20160173394 A KR20160173394 A KR 20160173394A KR 20180070878 A KR20180070878 A KR 20180070878A
- Authority
- KR
- South Korea
- Prior art keywords
- ultrasonic probe
- information
- annotation information
- head
- outline
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/57—Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
-
- H04N5/2257—
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Surgery (AREA)
- Pathology (AREA)
- Radiology & Medical Imaging (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Physics & Mathematics (AREA)
- Molecular Biology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
Abstract
Description
본 개시는 초음파 프로브의 주석 정보를 제공하는 방법 및 초음파 시스템에 관한 것이다.The present disclosure relates to a method of providing annotation information of an ultrasonic probe and to an ultrasonic system.
초음파 시스템은 무침습 및 비파괴 특성을 가지고 있으므로, 의료 분야에서 대상체 내부의 정보를 얻기 위한 목적으로 널리 이용되고 있다. 초음파 시스템의 이러한 특성에 의해, 대상체를 직접 절개하여 관찰하는 외과 수술 없이, 초음파 시스템은 대상체 내부의 고해상도 영상을 실시간으로 오퍼레이터에게 제공할 수 있다. 따라서, 초음파 시스템은 의료 분야에서 다양한 질병을 효과적으로 진단하기 위한 중요한 도구가 되었다.Ultrasonic systems are widely used for acquiring internal information in medical fields because they have non-invasive and non-destructive properties. With this characteristic of the ultrasound system, the ultrasound system can provide the operator with a high-resolution image of the object in real time, without performing a surgical operation to directly observe the target object. Thus, ultrasound systems have become an important tool for effectively diagnosing various diseases in the medical field.
초음파 시스템은 초음파 프로브를 이용하여 대상체에 초음파 신호를 송신하고, 대상체로부터 반사되는 초음파 신호(즉, 초음파 에코신호)를 수신한다. 또한, 초음파 시스템은 수신된 초음파 에코신호에 기초하여 대상체의 초음파 영상을 생성하고 표시 장치에 생성된 초음파 영상을 표시한다. 이와 같이, 초음파 프로브를 이용하여 대상체의 초음파 영상을 얻는 경우, 대상체에 접촉된 초음파 프로브의 접촉 위치(스캔 위치) 및 방향(스캔 방향)에 따라 대상체의 초음파 영상의 해상도가 달라지거나, 초음파 영상에 음영이 발생하는 등 대상체의 초음파 영상을 추출하는데 있어 문제가 생길 수 있다.The ultrasound system transmits an ultrasound signal to a target object using an ultrasound probe and receives an ultrasound signal (i.e., an ultrasound echo signal) reflected from the target object. In addition, the ultrasound system generates an ultrasound image of a target object based on the received ultrasound echo signal, and displays an ultrasound image generated in the display device. As described above, when an ultrasound image of a target object is obtained using the ultrasound probe, the resolution of the ultrasound image of the target object varies depending on the contact position (scan position) and direction (scan direction) of the ultrasound probe contacting the target object, A problem may arise in extracting an ultrasound image of a target object such as a shadow is generated.
이러한 추출된 초음파 영상의 오류를 해결하기 위하여, 초음파 시스템은 사용자가 초음파 프로브의 대상체에 대한 접촉 위치 및 방향 정보와 대상체의 기준점으로부터 초음파 프로브까지의 거리 정보를, 초음파 프로브의 위치 정보를 나타내는 주석 정보로서 입력하도록 구성될 수 있으며, 입력된 정보를 저장할 수 있다. 그러나, 사용자에 의해 입력되는 주석 정보는 정확하게 측정된 위치 정보가 아니라, 사용자에 의해 예측된 위치 정보이므로 부정확할 수 있다. 한편, 사용자가 초음파 프로브의 주석 정보를 입력하기 위해서는 초음파 프로브를 프로브 홀더에 거치시킨 후, 컨트롤 패널 등을 이용하여 대상체에 대한 초음파 프로브의 주석 정보를 입력해야 하며, 다음 초음파 영상을 얻기 위해 초음파 프로브를 다시 잡은 후 초음파 프로브의 조작을 수행해야 하므로, 주석 정보의 입력 및 초음파 영상의 획득에 시간이 많이 소요될 뿐만 아니라, 사용자가 주석 정보를 입력하는데 있어 불편함을 겪을 수 있다.In order to solve the error of the extracted ultrasound image, the ultrasound system has a function of allowing the user to adjust the contact position and direction information of the ultrasound probe with respect to the target object and the distance information from the reference point of the target object to the ultrasound probe, And input information can be stored. However, the annotation information input by the user may not be accurately measured position information, but may be inaccurate because it is position information predicted by the user. In order to input the annotation information of the ultrasonic probe, the user inputs the ultrasonic probe into the probe holder and inputs annotation information of the ultrasonic probe to the object using a control panel or the like. In order to obtain the next ultrasonic image, It is necessary to input the annotation information and the acquisition of the ultrasound image in a time-consuming manner, and the user may experience inconvenience in inputting the annotation information.
본 개시는 초음파 프로브에 장착된 적어도 하나의 카메라를 통해 대상체 및 초음파 프로브의 영상을 획득하고, 획득된 영상에 기초하여 대상체에 대한 초음파 프로브의 위치 정보를 나타내는 주석 정보를 자동으로 생성하여 제공하는 방법 및 초음파 시스템을 제공한다.The present disclosure relates to a method of acquiring an image of a target object and an ultrasonic probe through at least one camera mounted on the ultrasonic probe and automatically generating annotation information indicating position information of the ultrasonic probe relative to the object on the basis of the acquired image And an ultrasound system.
일 실시예에 따르면, 대상체에 접촉된 초음파 프로브의 주석 정보를 제공하는 방법은, 초음파 프로브에 장착된 적어도 하나의 카메라를 이용하여 대상체 및 초음파 프로브의 기준 영상을 획득하는 단계와, 기준 영상으로부터 상기 대상체의 윤곽 및 상기 초음파 프로브의 윤곽을 추출하는 단계와, 상기 추출된 윤곽과 상기 초음파 프로브의 헤드의 사전 결정된 기하학적 정보에 기초하여, 상기 대상체에 대한 상기 초음파 프로브의 위치 정보를 나타내는 기준 주석 정보를 생성하는 단계와, 상기 기준 주석 정보를 표시하는 단계를 포함한다.According to one embodiment, a method of providing annotation information of an ultrasonic probe contacting a target object includes the steps of obtaining a reference image of the object and the ultrasonic probe using at least one camera mounted on the ultrasonic probe, Extracting an outline of the object and an outline of the ultrasonic probe based on the extracted contour and the predetermined geometric information of the head of the ultrasonic probe; And displaying the base annotation information.
일 실시예에 있어서, 상기 기준 주석 정보는, 상기 대상체에 대한 상기 초음파 프로브의 접촉 위치 및 방향 정보와, 상기 대상체로부터 상기 초음파 프로브까지의 거리 정보를 포함한다.In one embodiment, the reference annotation information includes contact position and direction information of the ultrasonic probe with respect to the object, and distance information from the object to the ultrasonic probe.
일 실시예에 있어서, 상기 헤드의 사전 결정된 기하학적 정보는 상기 헤드의 길이 정보를 포함한다.In one embodiment, the predetermined geometric information of the head includes length information of the head.
일 실시예에 있어서, 상기 기준 주석 정보를 생성하는 단계는, 상기 대상체의 윤곽에 기초하여 적어도 하나의 기준 객체를 식별하는 단계와, 상기 적어도 하나의 기준 객체에 대한 상기 초음파 프로브의 위치 정보를 생성하는 단계를 포함한다.In one embodiment, generating the reference annotation information comprises: identifying at least one reference object based on an outline of the object; generating location information of the ultrasonic probe with respect to the at least one reference object; .
일 실시예에 있어서, 상기 초음파 프로브의 위치 정보를 생성하는 단계는, 상기 초음파 프로브의 윤곽에서 상기 초음파 프로브의 헤드의 윤곽을 추출하는 단계와, 상기 헤드의 윤곽에 기초하여, 상기 적어도 하나의 기준 객체에 대한 상기 초음파 프로브의 접촉 위치 및 방향 정보를 생성하는 단계와, 상기 적어도 하나의 기준 객체로부터 헤드의 윤곽 상의 기준점까지의 거리 정보를 생성하는 단계를 포함한다.In one embodiment, generating the position information of the ultrasonic probe includes extracting the contour of the head of the ultrasonic probe at the contour of the ultrasonic probe, and determining, based on the contour of the head, Generating contact position and orientation information of the ultrasonic probe with respect to the object; and generating distance information from the at least one reference object to a reference point on the contour of the head.
일 실시예에 있어서, 상기 방법은, 상기 초음파 프로브에 장착된 상기 적어도 하나의 센서를 이용하여 상기 초음파 프로브의 회전 정보를 생성하는 단계를 더 포함하고, 상기 기준 주석 정보는 상기 초음파 프로브의 회전 정보를 더 포함한다.In one embodiment, the method may further comprise generating rotation information of the ultrasonic probe using the at least one sensor mounted on the ultrasonic probe, wherein the reference annotation information includes rotation information of the ultrasonic probe .
일 실시예에 있어서, 상기 방법은, 상기 적어도 하나의 카메라를 이용하여 상기 대상체 및 상기 초음파 프로브의 비교 영상을 획득하는 단계와, 상기 비교 영상 및 상기 초음파 프로브의 헤드의 사전 결정된 기하학적 정보에 기초하여, 상기 대상체에 대한 상기 초음파 프로브의 위치 정보를 나타내는 비교 주석 정보를 생성하는 단계와, 상기 기준 주석 정보 및 상기 비교 주석 정보를 표시하는 단계를 더 포함한다.In one embodiment, the method further comprises: obtaining a comparison image of the object and the ultrasound probe using the at least one camera; and determining, based on the comparative image and the predetermined geometric information of the head of the ultrasound probe Generating comparative annotation information indicating positional information of the ultrasonic probe with respect to the target object, and displaying the base annotation information and the comparative annotation information.
일 실시예에 있어서, 상기 기준 주석 정보 및 비교 주석 정보를 표시하는 단계는, 상기 비교 주석 정보에 따른 상기 초음파 프로브의 현재 위치에서 상기 기준 주석 정보에 따른 상기 초음파 프로브의 기준 위치로 상기 초음파 프로브를 이동시키기 위한 가이드 정보를 생성하여 표시하는 단계를 포함한다.In one embodiment, the step of displaying the reference annotation information and the comparison annotation information may include displaying the reference annotation information and the comparison annotation information on the basis of the reference annotation information, And generating and displaying guide information for moving.
일 실시예에 있어서, 상기 가이드 정보를 생성하여 표시하는 단계는, 상기 현재 위치를 나타내는 제1 표시자와 상기 기준 위치를 나타내는 제2 표시자를 상이하게 생성하여 표시하는 단계를 포함한다.In one embodiment, generating and displaying the guide information may include generating and displaying a first indicator indicating the current position and a second indicator indicating the reference position differently from each other.
다른 실시예에 따르면, 초음파 시스템은, 초음파 프로브와, 상기 초음파 프로브에 장착되며, 대상체 및 상기 초음파 프로브의 기준 영상을 획득하는 적어도 하나의 카메라와, 상기 초음파 프로브 및 상기 적어도 하나의 카메라에 연결되며, 상기 적어도 하나의 카메라로부터 제공되는 상기 기준 영상으로부터 상기 대상체 및 상기 초음파 프로브의 윤곽을 추출하고, 상기 추출된 윤곽과 상기 초음파 프로브의 헤드의 사전 결정된 기하학적 정보에 기초하여, 상기 대상체에 대한 상기 초음파 프로브의 위치 정보를 나타내는 기준 주석 정보를 생성하는 프로세서와, 상기 기준 주석 정보를 표시하는 표시 장치를 포함한다.According to another embodiment, an ultrasound system includes an ultrasound probe, at least one camera mounted on the ultrasound probe, the at least one camera acquiring a reference image of the object and the ultrasound probe, and a probe connected to the ultrasound probe and the at least one camera Extracting the contour of the object and the ultrasonic probe from the reference image provided from the at least one camera, and based on the extracted contour and the predetermined geometric information of the head of the ultrasonic probe, A processor for generating reference annotation information indicating position information of the probe, and a display device for displaying the reference annotation information.
다른 실시예에 있어서, 상기 기준 주석 정보는, 상기 대상체에 대한 상기 초음파 프로브의 접촉 위치 및 방향 정보와, 상기 대상체로부터 상기 초음파 프로브까지의 거리 정보를 포함한다.In another embodiment, the reference annotation information includes contact position and direction information of the ultrasonic probe with respect to the object, and distance information from the object to the ultrasonic probe.
다른 실시예에 있어서, 상기 헤드의 기하학적 정보는 상기 헤드의 길이 정보를 포함한다.In another embodiment, the geometric information of the head includes length information of the head.
다른 실시예에 있어서, 상기 프로세서는, 상기 대상체의 윤곽에 기초하여 적어도 하나의 기준 객체를 식별하고, 상기 적어도 하나의 기준 객체에 대한 상기 초음파 프로브의 위치 정보를 생성한다.In another embodiment, the processor identifies at least one reference object based on an outline of the object, and generates position information of the ultrasonic probe with respect to the at least one reference object.
다른 실시예에 있어서, 상기 프로세서는, 상기 초음파 프로브의 윤곽에서 상기 초음파 프로브의 헤드의 윤곽을 추출하고, 상기 헤드의 윤곽에 기초하여, 상기 적어도 하나의 기준 객체에 대한 상기 초음파 프로브의 접촉 위치 및 방향 정보를 생성하고, 상기 적어도 하나의 기준 객체로부터 상기 헤드의 윤곽 상의 기준점까지의 거리 정보를 생성한다.In another embodiment, the processor is configured to: extract the contour of the head of the ultrasonic probe at the contour of the ultrasonic probe; and based on the contour of the head, determine the contact position of the ultrasonic probe with respect to the at least one reference object, Generates direction information, and generates distance information from the at least one reference object to a reference point on the contour of the head.
다른 실시예에 있어서, 상기 초음파 시스템은, 상기 초음파 프로브에 장착되며, 상기 초음파 프로브의 회전 정보를 생성하는 적어도 하나의 센서를 더 포함하고, 상기 기준 주석 정보는 상기 초음파 프로브의 회전 정보를 더 포함한다.In another embodiment, the ultrasonic system further includes at least one sensor mounted on the ultrasonic probe and generating rotation information of the ultrasonic probe, wherein the reference annotation information further includes rotation information of the ultrasonic probe do.
다른 실시예에 있어서, 상기 적어도 하나의 카메라는, 상기 대상체 및 상기 초음파 프로브의 비교 영상을 더 획득하고, 상기 프로세서는, 상기 비교 영상 및 상기 초음파 프로브의 헤드의 사전 결정된 기하학적 정보에 기초하여, 상기 대상체에 대한 상기 초음파 프로브의 위치 정보를 나타내는 비교 주석 정보를 더 생성하고, 상기 표시 장치는, 상기 기준 주석 정보 및 상기 비교 주석 정보를 더 표시한다.In another embodiment, the at least one camera further obtains a comparison image of the object and the ultrasonic probe, and the processor determines, based on the comparison image and the predetermined geometric information of the head of the ultrasonic probe, Further generates comparative annotation information indicating positional information of the ultrasonic probe with respect to the object, and the display device further displays the reference annotation information and the comparative annotation information.
다른 실시예에 있어서, 상기 프로세서는, 상기 비교 주석 정보에 따른 상기 초음파 프로브의 현재 위치에서 상기 기준 주석 정보에 따른 상기 초음파 프로브의 기준 위치로 상기 상기 초음파 프로브를 이동시키기 위한 가이드 정보를 생성한다.In another embodiment, the processor generates guide information for moving the ultrasonic probe to a reference position of the ultrasonic probe according to the reference annotation information at a current position of the ultrasonic probe according to the comparison annotation information.
다른 실시예에 있어서, 상기 프로세서는, 상기 현재 위치를 나타내는 제1 표시자와 상기 기준 위치를 나타내는 제2 표시자를 상이하게 생성한다.In another embodiment, the processor generates a first indicator indicating the current position and a second indicator indicating the reference position differently.
본 개시에 따르면, 초음파 프로브에 장착된 적어도 하나의 카메라를 통해 획득된 영상을 이용하여 대상체에 대한 초음파 프로브의 위치 정보를 나타내는 주석 정보를 자동으로 그리고 정확하게 생성하여 제공할 수 있다.According to the present disclosure, it is possible to automatically and accurately generate and provide annotation information indicating position information of an ultrasonic probe relative to a target object using an image acquired through at least one camera mounted on the ultrasonic probe.
또한, 본 개시에 따르면, 주석 정보의 입력 및 초음파 영상의 획득에 소요되는 시간을 감소시킬 수 있을 뿐만 아니라, 주석 정보를 획득하는데 있어 사용자의 입력이 요구되지 않기 때문에 사용자의 편의성이 향상될 수 있다.In addition, according to the present disclosure, it is possible not only to reduce the time required for inputting annotation information and acquisition of an ultrasound image, but also to improve the convenience of the user because input of the user is not required in obtaining annotation information .
또한, 본 개시에 따르면, 초음파 프로브의 현재 위치에서 기준 위치로 초음파 프로브를 이동시키기 위한 가이드 정보가 제공될 수 있어, 경과 판단 등의 수행 시에 사용자가 제공된 가이드 정보에 따라 초음파 프로브를 적절한 위치로 이동시킬 수 있다.According to the present invention, guide information for moving the ultrasonic probe from the current position of the ultrasonic probe to the reference position can be provided. Therefore, in performing the lapse judgment, the ultrasonic probe can be moved to an appropriate position Can be moved.
도 1은 본 개시의 일 실시예에 따른 초음파 시스템의 구성을 개략적으로 나타낸 블록도이다.
도 2는 본 개시의 일 실시예에 따른 초음파 프로브 및 촬상 장치를 나타낸 예시도이다.
도 3은 본 개시의 일 실시예에 따른 촬상 장치를 이용하여 기준 영상을 획득하는 예를 나타낸 예시도이다.
도 4는 본 개시의 일 실시예에 따른 기준 영상을 나타낸 예시도이다.
도 5는 본 개시의 일 실시예에 따른 촬상 장치를 이용하여 비교 영상을 획득하는 예를 나타낸 예시도이다.
도 6은 본 개시의 일 실시예에 따른 비교 영상을 나타낸 예시도이다.
도 7은 본 개시의 일 실시예에 따른 프로세서의 구성을 개략적으로 나타낸 블록도이다.
도 8은 본 개시의 일 실시예에 따라 기준 주석 정보를 제공하는 방법을 나타낸 흐름도이다.
도 9는 본 개시의 일 실시예에 따른 대상체 및 초음파 프로브의 윤곽을 나타낸 예시도이다.
도 10은 본 개시의 일 실시예에 따라 가이드 정보를 제공하는 방법을 나타낸 흐름도이다.
도 11은 본 개시의 일 실시예에 따른 가이드 정보를 나타낸 예시도이다.1 is a block diagram schematically illustrating the configuration of an ultrasound system according to an embodiment of the present disclosure.
2 is an exemplary view showing an ultrasonic probe and an image pickup apparatus according to an embodiment of the present disclosure.
3 is an exemplary view showing an example of acquiring a reference image using an image pickup apparatus according to an embodiment of the present disclosure.
4 is an exemplary view illustrating a reference image according to an embodiment of the present disclosure.
5 is an exemplary view showing an example of acquiring a comparison image using an imaging apparatus according to an embodiment of the present disclosure.
6 is an exemplary view illustrating a comparison image according to an embodiment of the present disclosure.
7 is a block diagram schematically illustrating a configuration of a processor according to an embodiment of the present disclosure;
8 is a flow diagram illustrating a method for providing base annotation information in accordance with one embodiment of the present disclosure.
FIG. 9 is an exemplary view showing an outline of a subject and an ultrasonic probe according to an embodiment of the present disclosure; FIG.
10 is a flow diagram illustrating a method for providing guide information in accordance with one embodiment of the present disclosure.
11 is an exemplary view showing guide information according to an embodiment of the present disclosure.
본 개시의 실시예들은 본 개시의 기술적 사상을 설명하기 위한 목적으로 예시된 것이다. 본 개시에 따른 권리범위가 이하에 제시되는 실시예들이나 이들 실시예들에 대한 구체적 설명으로 한정되는 것은 아니다.The embodiments of the present disclosure are illustrated for the purpose of describing the technical idea of the present disclosure. The scope of the claims according to the present disclosure is not limited to the embodiments described below or to the detailed description of these embodiments.
본 개시에 사용되는 모든 기술적 용어들 및 과학적 용어들은, 달리 정의되지 않는 한, 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 일반적으로 이해되는 의미를 갖는다. 본 개시에 사용되는 모든 용어들은 본 개시를 더욱 명확히 설명하기 위한 목적으로 선택된 것이며 본 개시에 따른 권리범위를 제한하기 위해 선택된 것이 아니다.All technical and scientific terms used in the present disclosure have the meaning commonly understood by one of ordinary skill in the art to which this disclosure belongs unless otherwise defined. All terms used in the disclosure are selected for the purpose of more clearly illustrating the disclosure and are not chosen to limit the scope of the rights under the present disclosure.
본 개시에서 사용되는 "포함하는", "구비하는", "갖는" 등과 같은 표현은, 해당 표현이 포함되는 어구 또는 문장에서 달리 언급되지 않는 한, 다른 실시예를 포함할 가능성을 내포하는 개방형 용어(open-ended terms)로 이해되어야 한다.As used in this disclosure, expressions such as " comprising, "" having," "having, " and the like, unless the context requires otherwise, (open-ended terms).
본 개시에서 기술된 단수형의 표현은 달리 언급하지 않는 한 복수형의 의미를 포함할 수 있으며, 이는 청구범위에 기재된 단수형의 표현에도 마찬가지로 적용된다.The expressions of the singular forms described in this disclosure may include plural meanings unless the context clearly dictates otherwise, and the same applies to the singular expressions set forth in the claims.
본 개시에서 사용되는 "제1", "제2" 등의 표현들은 복수의 구성요소들을 상호 구분하기 위해 사용되며, 해당 구성요소들의 순서 또는 중요도를 한정하는 것은 아니다.As used in this disclosure, expressions such as " first ", "second ", and the like are used to distinguish a plurality of components from each other and do not limit the order or importance of the components.
본 개시에서 사용되는 용어 "부"는, 소프트웨어, 또는 FPGA(field-programmable gate array), ASIC(application specific integrated circuit)과 같은 하드웨어 구성요소를 의미한다. 그러나, "부"는 하드웨어 및 소프트웨어에 한정되는 것은 아니다. "부"는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고, 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서, "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세서, 함수, 속성, 프로시저, 서브루틴, 프로그램 코드의 세그먼트, 드라이버, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조, 테이블, 어레이 및 변수를 포함한다. 구성요소와 "부" 내에서 제공되는 기능은 더 작은 수의 구성요소 및 "부"로 결합되거나 추가적인 구성요소와 "부"로 더 분리될 수 있다.The term "part " as used in this disclosure refers to hardware components such as software or an FPGA (field-programmable gate array), ASIC (application specific integrated circuit). However, "part" is not limited to hardware and software. "Part" may be configured to reside on an addressable storage medium, and may be configured to play back one or more processors. Thus, by way of example, and not limitation, "part (s) " may include but are not limited to elements such as software components, object oriented software components, class components and task components, Microcode, circuitry, data, databases, data structures, tables, arrays, and variables of program code. The functions provided within the component and the "part " may be combined into a smaller number of components and" parts " or further separated into additional components and "parts ".
본 개시에서 사용되는 "~에 기초하여"라는 표현은, 해당 표현이 포함되는 어구 또는 문장에서 기술되는, 결정, 판단의 행위 또는 동작에 영향을 주는 하나 이상의 인자를 기술하는데 사용되며, 이 표현은 결정, 판단의 행위 또는 동작에 영향을 주는 추가적인 인자를 배제하지 않는다.As used in this disclosure, the expression "based on" is used to describe one or more factors affecting an action or an action of a decision, judgment, as described in the phrase or sentence in which the expression is contained, It does not exclude any additional factors that affect the decision, act of judgment or action.
본 개시에서, 어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 경우, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결될 수 있거나 접속될 수 있는 것으로, 또는 새로운 다른 구성요소를 매개로 하여 연결될 수 있거나 접속될 수 있는 것으로 이해되어야 한다.In the present disclosure, when an element is referred to as being "connected" or "connected" to another element, it is to be understood that the element may be directly connected to or connected to the other element, But may be connected or connected via other components.
이하, 첨부한 도면들을 참조하여, 본 개시의 실시예들을 설명한다. 첨부된 도면에서, 동일하거나 대응하는 구성요소에는 동일한 참조부호가 부여되어 있다. 또한, 이하의 실시예들의 설명에 있어서, 동일하거나 대응하는 구성요소를 중복하여 기술하는 것이 생략될 수 있다. 그러나, 구성요소에 관한 기술이 생략되어도, 그러한 구성요소가 어떤 실시예에 포함되지 않는 것으로 의도되지는 않는다.Hereinafter, embodiments of the present disclosure will be described with reference to the accompanying drawings. In the accompanying drawings, the same or corresponding components are denoted by the same reference numerals. In the following description of the embodiments, description of the same or corresponding components may be omitted. However, even if a description of components is omitted, such components are not intended to be included in any embodiment.
본 명세서에서의 "대상체"는 초음파 시스템을 이용하여 초음파 영상을 얻고자 하는 목적물 또는 대상물로서, 생물 또는 무생물일 수 있다. 또한, 대상체가 생물인 경우 인체의 일부를 의미할 수 있고, 대상체에는 간이나, 심장, 자궁, 뇌, 유방, 복부, 혈관(또는 혈류) 등의 장기나, 태아 등이 포함될 수 있으며, 인체의 어느 한 단면이 포함될 수 있다. 또한, 본 명세서에서의 "사용자"는 초음파 시스템을 운영하여 사용할 수 있는 의료 전문가로서, 의사, 간호사, 임상병리사, 소노그래퍼(sonographer) 또는 다른 의료 영상 전문가 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.In the present specification, the term "object" may be an object or an object to be obtained by using an ultrasound system to obtain an ultrasound image, or may be inanimate or inanimate. The object may include a liver, a heart, a uterus, a brain, a breast, an abdomen, organs such as blood vessels (or blood flow), a fetus, and the like. Any one section may be included. The term "user" in this specification may be a medical professional who can operate an ultrasound system and may include a doctor, a nurse, a clinician, a sonographer or other medical imaging specialist, no.
도 1은 본 개시의 일 실시예에 따른 초음파 시스템(100)의 구성을 개략적으로 나타낸 블록도이다. 도 1을 참조하면, 초음파 시스템(100)은 컨트롤 패널(110), 초음파 프로브(120), 촬상 장치(130), 프로세서(140), 저장 장치(150) 및 표시 장치(160)를 포함한다. 또한, 초음파 시스템(100)은 감지 장치(170)를 더 포함할 수 있다. 본 실시예에 있어서, 프로세서(140)는 초음파 시스템(100) 내의 컨트롤 패널(110), 초음파 프로브(120), 촬상 장치(130), 저장 장치(150), 표시 장치(160) 및 감지 장치(170)의 동작을 제어한다.1 is a block diagram schematically illustrating the configuration of an
컨트롤 패널(110)은 사용자로부터 입력 정보를 수신하고, 수신된 입력 정보를 프로세서(140)로 전송하도록 구성될 수 있다. 컨트롤 패널(110)은 사용자로부터 입력을 받을 수 있는 입력 장치(도시되지 않음)를 포함할 수 있고, 이러한 입력 장치는 초음파 시스템(100)에 대하여 사용자 인터페이스로서 기능할 수 있다. 입력 장치는 진단 모드의 선택, 진단 동작의 제어, 진단에 필요한 명령의 입력, 신호 처리 제어, 초음파 영상의 출력 제어 등의 조작을 실행하는데 적합한 다양한 종류의 입력 장치들 중 적어도 하나를 포함할 수 있다. 일 실시예에 따르면, 입력 장치는 트랙볼, 마우스, 키보드, 버튼, 스타일러스 펜, 터치스크린과 같이 명령의 입력이 가능한 디스플레이를 포함하지만, 이에 한정되지 않는 입력 장치들 중의 적어도 하나를 포함할 수 있다. 예를 들어, 입력 장치는 사용자가 초음파 프로브(120)를 손에 쥐거나 이용할 때 입력 정보를 제공할 수 있도록 구성된, 초음파 프로브(120)에 장착된 버튼 또는 키보드를 포함할 수 있다.The
초음파 프로브(120)는 프로세서(140)로부터 대상체의 초음파 영상을 얻기 위한 전기적 신호(이하, "송신신호"라 함)를 수신한다. 또한, 초음파 프로브(120)는 송신신호를 초음파 신호로 변환하고, 변환된 초음파 신호를 대상체에 송신한다. 또한, 초음파 프로브(120)는 대상체로부터 반사되는 초음파 신호(즉, 초음파 에코신호)를 수신하고, 수신된 초음파 에코신호를 전기적 신호(이하, "수신신호"라 함)로 변환한다. 예를 들면, 초음파 프로브(120)는 컨벡스 프로브, 리니어 프로브 등을 포함할 수 있다.The
촬상 장치(130)는 대상체 및 초음파 프로브(120)를 촬상하여, 대상체 및 초음파 프로브(120)의 영상을 획득하도록 구성될 수 있다. 일 실시예에 있어서, 촬상 장치(130)는 컨트롤 패널(110)를 통해 제공되는 입력 정보에 응답하여, 대상체 및 초음파 프로브(120)의 영상을 획득할 수 있다.The
초음파 프로브(120)를 이용하여 대상체를 최초에 스캔하는 경우에, 촬상 장치(130)는 대상체 및 초음파 프로브(120)를 촬상하여, 대상체 및 초음파 프로브(120)의 영상(이하, "기준 영상"이라 함)을 획득하도록 구성될 수 있다. 예를 들어, 도 3에 도시된 바와 같이 초음파 프로브(120)가 대상체(300)의 복수의 기준 객체 중 하나인 우측 유방(310)에 접촉된 상태에서, 촬상 장치(130)는 대상체(300) 및 초음파 프로브(120)를 촬상한다. 여기서, 복수의 기준 객체는 우측 유방(310), 우측 유방(310)의 유두(311), 좌측 유방(320), 좌측 유방(320)의 유두(321), 우측 겨드랑이(331), 좌측 겨드랑이(332) 등을 포함할 수 있다. 이러한 촬상 동작을 통하여, 촬상 장치(130)는 대상체(300) 및 초음파 프로브(120)의 기준 영상을 획득한다. 도 4에 도시된 바와 같이, 기준 영상(400)은 초음파 헤드(121)를 포함한 초음파 프로브(120), 사용자가 초음파 프로브(120)를 움켜잡는 손, 우측 유방(310), 우측 유방(310)의 유두(311), 좌측 유방(320), 좌측 유방(320)의 유두(321), 및 좌측 겨드랑이(332)를 포함할 수 있다. 촬상 장치(130)에서 생성된 기준 영상은 프로세서(140)에 송신될 수 있다.The
일 실시예에 따르면, 대상체에 대한 경과 판정(follow-up)을 수행하기 위해 초음파 프로브(120)를 이용하여 대상체를 스캔하는 경우에, 촬상 장치(130)는 대상체 및 초음파 프로브(120)를 촬상하여, 대상체 및 초음파 프로브(120)의 영상(이하, "비교 영상"이라 함)을 획득한다. 예를 들어, 대상체(300)에 대한 경과 판정을 수행하기 위해, 도 5에 도시된 바와 같이 초음파 프로브(120)가 대상체(300)의 복수의 기준 객체 중 하나인 우측 유방(310)에 접촉된 상태에서, 촬상 장치(130)는 대상체(300) 및 초음파 프로브(120)를 촬상하여, 도 6에 도시된 바와 같이, 대상체(300) 및 초음파 프로브(120)의 비교 영상(600)을 획득할 수 있다. 촬상 장치(130)에서 생성된 비교 영상은 프로세서(140)에 송신될 수 있다.According to one embodiment, when the object is scanned using the
일 실시예에 있어서, 촬상 장치(130)는 초음파 프로브(120)의 소정 위치에 장착될 수 있다. 여기서, 소정 위치는 초음파 프로브(120)의 헤드(121: 도 2 참조) 및 대상체의 복수의 기준 객체를 촬상할 수 있는 위치를 나타낸다. 일 예로서, 촬상 장치(130)는 초음파 프로브(120)에 탈부착 가능하게 장착될 수 있다. 다른 예로서, 촬상 장치(130)는 초음파 프로브(120)의 소정 위치에 고정 장착될 수 있다.In one embodiment, the
일 실시예에 있어서, 촬상 장치(130)는 프로세서(140)에 무선 또는 유선으로 연결될 수 있다. 또한, 촬상 장치(130)는 적어도 하나의 카메라를 포함할 수 있다. 예를 들면, 촬상 장치(130)는 도 2에 도시된 바와 같이, 초음파 프로브(120)의 소정 위치에 각각 장착되는 2개의 카메라(210, 220)를 포함한다. 본 실시예에 있어서, 2개의 카메라(210, 220)는 초음파 프로브(120)의 헤드(121) 상에 배치된 손잡이부 중에 넓은 면적을 갖는 면들의 상부 중앙에 배치된다.In one embodiment, the
초음파 프로브(120)에 의해 생성된 수신신호는 저장장치에 저장될 수 있다. 프로세서(140)에 의해 생성된 영상 및 정보(예를 들어, 초음파 영상, 주석 정보, 및 가이드 정보 등)가 저장 장치(150)에 저장될 수 있다. 또한, 저장 장치(150)는 초음파 프로브(120)의 헤드(121)의 사전 결정된 기하학적 정보를 저장한다. 예를 들어, 기하학적 정보는 초음파 프로브(120)의 헤드(121)의 길이 정보 등을 포함할 수 있다. 이에 더하여, 저장 장치(150)는 초음파 시스템(100)에 포함된 구성요소들을 동작시키거나 제어하기 위한 프로그램 명령어들을 저장하도록 구성된다.The received signal generated by the
일 실시예에 있어서, 저장 장치(150)는 자기 디스크(예를 들어, 자기 테이프, 플렉시블 디스크, 하드 디스크 등), 광 디스크(예를 들어, CD, DVD 등), 반도체 메모리(예를 들어, USB 메모리, 메모리 카드 등) 등을 포함할 수 있지만, 반드시 이에 한정되는 것은 아니다.In one embodiment, the
프로세서(140)는 컨트롤 패널(110)을 통해 수신된 입력 정보에 기초하여, 입력 정보에 대응하는 프로그램 명령어를 나타내는 제어 신호를 초음파 프로브(120)에 송신할 수 있다. 예를 들어, 입력 정보가 초음파 프로브(120)의 동작을 지칭하는 경우, 초음파 프로브(120)가 초음파 신호를 대상체에 송신하고 대상체로부터 반사되는 초음파 에코신호를 수신하도록 제어할 수 있다. 그리고 나서, 프로세서(140)는 초음파 프로브(120)로부터 초음파 에코 신호를 수신할 수 있으며, 이에 기초하여 대상체의 하나 이상의 초음파 영상을 생성할 수 있다.The
일 실시예에서, 프로세서(140)는 저장 장치(150)으로부터 초음파 프로브(120)의 헤드(121)의 사전 결정된 기하학적 정보를 읽어들일 수 있다. 이에 더하여, 프로세서(140)는 촬상 장치(130)로부터 대상체 및 초음파 프로브(120)의 기준 영상 또는 비교 영상을 수신할 수 있다. 프로세서(140)는 초음파 프로브(120)의 헤드(121)의 사전 결정된 기하학적 정보 및 촬상 장치(130)로부터 수신된 영상에 기초하여, 대상체에 대한 초음파 프로브(120)의 위치 정보를 나타내는 주석 정보를 생성한다. 또한, 프로세서(140)는 주석 정보에 기초하여 초음파 프로브(120)의 현재 위치에서 기준 위치로 초음파 프로브(120)를 이동시키기 위한 가이드 정보를 생성하도록 구성될 수 있다.In one embodiment, the
일 실시예에 있어서, 프로세서(140)는 이상 기술된 제어 동작 또는 이 동작을 실행하는 프로그램 명령어를 실행할 수 있는 CPU(central processing unit), FPGA(field-programmable gate array), ASIC(application specific integrated circuit) 등을 포함할 수 있지만, 반드시 이에 한정되는 것은 아니다.In one embodiment, the
표시 장치(160)는 프로세서(140)에 의해 생성된 영상 또는 정보를 표시하도록 구성된다. 예를 들어, 표시 장치(160)는 프로세서(140)에 의해 생성된 초음파 영상을 표시할 수 있으며, 프로세서(140)에 의해 생성된 주석 정보를 표시할 수 있다. 또한, 표시 장치(160)는 프로세서(140)에 의해 생성된 가이드 정보를 표시할 수 있으며, 초음파 시스템(100)의 동작 상태에 관한 정보 또는 초음파 영상에 관한 정보를 표시할 수 있다.The
일 실시예에 있어서, 표시 장치(160)는 LCD(liquid crystal display), LED(light emitting diode) 디스플레이, TFT-LCD(thin film transistor-liquid crystal display), OLED(organic light-emitting diode) 디스플레이, 플렉서블 디스플레이 등을 포함할 수 있지만, 반드시 이에 한정되는 것은 아니다.In one embodiment, the
감지 장치(170)는 초음파 프로브(120)의 회전을 감지하여 회전 정보를 생성하도록 구성된다. 감지 장치(170)는 적어도 하나의 센서, 예를 들어, 중력 센서, 자이로 센서, 중력 가속도 센서 등을 포함할 수 있지만, 반드시 이에 한정되는 것은 아니다. 일 실시예에 있어서, 감지 장치(170)는 초음파 프로브(120)의 회전을 감지할 수 있도록 소정 위치에 장착될 수 있다. 일 예로서, 감지 장치(170)는 초음파 프로브(120)의 소정 위치에 탈부착 가능하게 장착될 수 있다. 다른 예로서, 감지 장치(170)는 초음파 프로브(120)의 소정 위치에 고정 장착될 수 있다.The
도 7은 본 개시의 일 실시예에 따른 프로세서(140)의 구성을 개략적으로 나타낸 블록도이다. 도 7을 참조하면, 프로세서(140)는 송신부(710), 송수신 스위치(720), 수신부(730), 신호 처리부(740), 영상 생성부(750), 정보 생성부(760), 및 영상 처리부(770)를 포함할 수 있다.FIG. 7 is a block diagram that schematically illustrates the configuration of
송신부(710)는 대상체의 초음파 영상을 얻기 위한 송신신호를 생성하고, 생성된 송신신호를 초음파 프로브(120)에 제공한다. 초음파 프로브(120)는 수신된 송신신호를 초음파 신호로 변환하고, 변환된 초음파 신호를 대상체에 송신한다. 또한, 초음파 프로브(120)는 대상체로부터 반사되는 초음파 에코신호를 수신하여 수신신호를 생성한다.The
프로세서(140)에서, 송수신 스위치(720)는 송신부(710)와 수신부(730)를 스위칭할 수 있다. 예를 들면, 송수신 스위치(720)는 듀플렉서(duplexer)를 포함할 수 있다. 일 실시예에서, 송수신 스위치(720)는 초음파 프로브(120)가 송신부(710)로부터 송신신호를 수신하는 경우 초음파 프로브(120)를 송신부(710)에 전기적으로 연결하도록 구성될 수 있다. 이에 반해, 송수신 스위치(720)는 초음파 프로브(120)가 대상체로부터 반사되는 초음파 에코신호를 수신하는 경우, 초음파 프로브(120)를 수신부(730)에 전기적으로 연결하도록 구성될 수 있다.In the
프로세서(140)에서, 수신부(730)는 초음파 프로브(120)로부터 송수신 스위치(720)를 통해 초음파 에코 신호를 수신하고, 이를 증폭시킬 수 있도록 구성된다. 이에 더하여, 수신부(730)는 증폭된 수신신호를 아날로그-디지털 변환하여 디지털 신호를 생성하도록 구성될 수 있다. 예를 들어, 수신부(730)는 초음파 신호가 대상체를 통과하면서 통상적으로 발생하는 감쇄를 보상하는 시간 이득 보상(time gain compensation; TGC) 유닛(도시하지 않음), 아날로그 신호를 디지털 신호로 변환하는 아날로그-디지털 변환(analog-to-digital conversion) 유닛(도시되지 않음) 등을 포함할 수 있다.In the
프로세서(140)에서, 신호 처리부(740)는 수신부(330)로부터 제공되는 디지털 신호에 신호 처리(예를 들어, 빔 포밍 기법)를 수행하여 수신 집속 신호를 생성하도록 구성된다. 또한, 신호 처리부(740)는 수신 집속 신호에 기초하여 초음파 데이터를 생성할 수 있다. 초음파 데이터는 RF(radio frequency) 데이터, IQ(in-phase/quadrature) 데이터 등을 포함할 수 있다.In the
영상 생성부(750)는 신호 처리부(740)로부터 초음파 데이터를 수신하고, 신호 처리부(740)로부터 제공되는 초음파 데이터에 기초하여 대상체의 하나 이상의 초음파 영상을 생성하도록 구성된다. 예를 들어, 초음파 영상은 B 모드(brithtness mode) 영상 등을 포함할 수 있다. 생성된 초음파 영상은 영상 처리부(770)에 제공될 수 있다.The
정보 생성부(760)는 촬상 장치(130)로부터 제공되는 영상에 기초하여, 대상체에 대한 초음파 프로브(120)의 위치 정보를 나타내는 주석 정보를 생성하도록 구성된다. 일 실시예에 따르면, 정보 생성부(760)는 촬상 장치(130)로부터 제공되는 기준 영상에 기초하여, 대상체에 대한 초음파 프로브(120)의 위치 정보를 나타내는 주석 정보(이하, "기준 주석 정보"라 함)를 생성할 수 있다. 이에 더하여, 정보 생성부(760)는 촬상 장치(130)로부터 제공되는 비교 영상에 기초하여, 대상체에 대한 초음파 프로브(120)의 위치 정보를 나타내는 주석 정보(이하, "비교 주석 정보"라 함)를 생성할 수 있다. 예를 들어, 주석 정보(기준 주석 정보, 비교 주석 정보)는 대상체에 대한 초음파 프로브(120)의 접촉 위치 및 방향 정보와, 대상체로부터 초음파 프로브(120)까지의 거리 정보를 포함할 수 있다. 추가적으로, 주석 정보(기준 주석 정보, 비교 주석 정보)는 감지 장치(170)로부터 제공되는 초음파 프로브(120)의 회전 정보를 더 포함할 수 있다.The
또한, 정보 생성부(760)는 기준 주석 정보 및 비교 주석 정보에 기초하여, 초음파 프로브(120)의 현재 위치에서 기준 위치로 초음파 프로브(120)를 이동시키도록 사용자에게 가이드하는 정보, 즉 가이드 정보를 생성하도록 구성된다. 일 실시예에 있어서, 정보 생성부(760)는 비교 주석 정보로부터 추출 가능한 초음파 프로브(120)의 현재 위치에서, 기준 주석 정보로부터 추출 가능한 초음파 프로브(120)의 기준 위치로 초음파 프로브(120)를 이동시키도록 사용자에게 가이드하는 가이드 정보를 생성할 수 있다. 정보 생성부(760)는 기준 주석 정보, 비교 주석 정보 및 가이드 정보를 영상 처리부(770)에 제공할 수 있다.The
영상 처리부(770)는 영상 생성부(750)로부터 초음파 영상을 수신하도록 구성되고, 정보 생성부(760)로부터 기준 주석 정보, 비교 주석 영상 및 가이드 정보를 수신하도록 구성될 수 있다. 영상 처리부(770)는 수신된 초음파 영상, 기준 주석 정보, 비교 주석 영상 또는 가이드 정보를 표시 장치(16)에 표시하는 것을 제어하도록 구성된다. 예를 들면, 영상 처리부(770)는 초음파 영상, 기준 주석 정보, 비교 주석 영상 또는 가이드 정보 중 적어도 하나가 표시 장치(160)에 표시되도록 제어할 수 있다. 영상 처리부(770)는 초음파 영상에 영상 처리(예를 들어, 화질 개선 등)를 수행하도록 구성될 수 있다.The
도 8은 본 개시의 일 실시예에 따라 기준 주석 정보를 제공하는 방법을 나타낸 흐름도이다. 도 8에 도시된 흐름도에서 프로세스 단계들, 방법 단계들, 알고리즘들 등이 순차적인 순서로 설명되었지만, 그러한 프로세스들, 방법들 및 알고리즘들은 임의의 적합한 순서로 작동하도록 구성될 수 있다. 다시 말하면, 본 개시의 다양한 실시예들에서 설명되는 프로세스들, 방법들 및 알고리즘들의 단계들이 본 개시에서 기술된 순서로 수행될 필요는 없다. 또한, 일부 단계들이 비동시적으로 수행되는 것으로서 설명되더라도, 다른 실시예에서는 이러한 일부 단계들이 동시에 수행될 수 있다. 또한, 도면에서의 묘사에 의한 프로세스의 예시는 예시된 프로세스가 그에 대한 다른 변화들 및 수정들을 제외하는 것을 의미하지 않으며, 예시된 프로세스 또는 그의 단계들 중 임의의 것이 본 개시의 다양한 실시예들 중 하나 이상에 필수적임을 의미하지 않으며, 예시된 프로세스가 바람직하다는 것을 의미하지 않는다.8 is a flow diagram illustrating a method for providing base annotation information in accordance with one embodiment of the present disclosure. Although the process steps, method steps, algorithms, and the like are described in a sequential order in the flowchart shown in FIG. 8, such processes, methods, and algorithms may be configured to operate in any suitable order. In other words, the steps of the processes, methods and algorithms described in the various embodiments of the present disclosure need not be performed in the order described in this disclosure. Also, although some of the steps are described as being performed asynchronously, some of these steps may be performed concurrently in other embodiments. Also, an illustration of a process by way of illustration in the drawings is not intended to imply that the illustrated process excludes other variations and modifications thereto, and that any of the illustrated processes or steps thereof may be used in various embodiments of the present disclosure Does not imply that it is necessary for more than one, and does not mean that the illustrated process is preferred.
도 8을 참조하면, 단계 S802에서, 대상체 및 초음파 프로브의 기준 영상이 획득된다. 예를 들어, 도 1 내지 도 7을 참조하면, 촬상 장치(130)는 대상체(300) 및 초음파 프로브(120)를 촬상하여, 대상체(300) 및 초음파 프로브(120)의 기준 영상(400)을 획득한다.Referring to Fig. 8, in step S802, a reference image of the object and the ultrasonic probe is obtained. 1 to 7, the
단계 S804에서, 기준 영상으로부터 대상체 및 초음파 프로브의 윤곽이 추출된다. 예를 들어, 도 1 내지 도 7을 참조하면, 프로세서(140)의 정보 생성부(760)는 기준 영상(400)에 에지 검출 처리(edge detection process)를 수행하여, 대상체(300)의 복수의 기준 객체 중 적어도 하나의 기준 객체의 윤곽 및 초음파 프로브(120)의 윤곽을 추출할 수 있다.In step S804, the contour of the object and the ultrasonic probe is extracted from the reference image. 1 to 7, the
일 실시예에 있어서, 정보 생성부(760)는 도 2에 도시된 카메라(210)로부터 제공되는 기준 영상 또는 카메라(220)로부터 제공되는 기준 영상 중 초음파 프로브(120)의 헤드(121)의 윤곽을 추출할 수 있는 기준 영상을 선택하고, 선택된 기준 영상으로부터 대상체(300)의 복수의 기준 객체 중 적어도 하나의 기준 객체의 윤곽 및 초음파 프로브(120)의 윤곽을 추출할 수 있다. 예를 들면, 정보 생성부(760)는 도 4에서의 기준 영상(400)으로부터, 도 9에 도시된 바와 같이, 우측 유방(310)의 윤곽(910), 우측 유방(310)의 유두(311)의 윤곽(911), 좌측 유방(320)의 윤곽(920), 좌측 유방(320)의 유두(321)의 윤곽(921) 및 좌측 겨드랑이(332)의 윤곽(932)을 추출할 수 있다. 또한, 정보 생성부(760)는 기준 영상(400)으로부터, 도 9에 도시된 바와 같이, 초음파 프로브(120)의 윤곽(940)을 추출하고, 추출된 윤곽(940)으로부터 헤드(121)의 윤곽(941)을 추출할 수 있다.In one embodiment, the
단계 S806에서, 추출된 윤곽 및 초음파 프로브의 헤드의 사전 결정된 기하학적 정보에 기초하여, 대상체에 대한 초음파 프로브의 위치 정보를 나타내는 기준 주석 정보가 생성된다. 예를 들어, 도 1 내지 도 7을 참조하면, 정보 생성부(760)는 기준 영상(400)으로부터 추출된 복수의 기준 객체의 윤곽 및 초음파 프로브(120)의 헤드(121)의 윤곽과, 초음파 프로브(120)의 헤드(121)의 사전 결정된 기하학적 정보에 기초하여, 대상체(300)에 대한 초음파 프로브(120)의 위치 정보를 나타내는 기준 주석 정보를 생성한다. 예를 들면, 정보 생성부(760)는 대상체의 윤곽에 기초하여 적어도 하나의 기준 객체를 식별하고, 식별된 적어도 하나의 기준 객체에 대한 초음파 프로브(120)의 위치 정보를 생성한다.In step S806, based on the extracted contour and the predetermined geometric information of the head of the ultrasonic probe, reference annotation information indicating the positional information of the ultrasonic probe with respect to the object is generated. For example, referring to FIGS. 1 to 7, the
일 실시예에 있어서, 정보 생성부(760)는 기준 영상(400)으로부터 추출된 복수의 기준 객체의 윤곽(910, 911, 920, 921, 932)에 기초하여, 우측 유방(310), 우측 유방(310)의 유두(311), 좌측 유방(320), 좌측 유방(320)의 유두(312) 및 좌측 겨드랑이(332)를 식별한다. 예를 들면, 복수의 기준 객체의 식별은 사전 결정된 기준 객체에 대한 정보에 기초하여 이루어질 수 있다.In one embodiment, the
일 실시예에 있어서, 정보 생성부(760)는 초음파 프로브(120)의 헤드(121)의 윤곽(941)에 기초하여 적어도 하나의 기준 객체에 대한 초음파 프로브(120)의 접촉 위치 및 방향 정보를 생성한다. 예를 들면, 정보 생성부(760)는 도 9에 도시된 바와 같이, 초음파 프로브(120)의 헤드(121)의 윤곽(941)에 기초하여, 좌측 겨드랑이(332)의 윤곽(932)을 기준으로 초음파 프로브(120)가 우측 유방(310)에 접촉되어 있음을 나타내는 접촉 위치를 결정한다. 또한, 정보 생성부(760)는 초음파 프로브(120)의 헤드(121)의 윤곽(941)에 기초하여, 초음파 프로브(120)가 우측 유방(310)의 유두(311)의 윤곽(911)을 기준으로 9시 방향에 접촉되어 있고, 좌측 겨드랑이(332)의 윤곽(932)과 평행하게 접촉되어 있음을 나타내는 접촉 방향을 결정한다. 정보 생성부(760)는 결정된 접촉 위치 및 방향에 기초하여, 적어도 하나의 기준 객체(예를 들어, 우측 유방(310))에 대한 초음파 프로브(120)의 접촉 위치 및 방향 정보를 생성한다.The
또한, 정보 생성부(760)는 초음파 프로브(120)의 헤드(121)의 윤곽(941)에 기초하여, 적어도 하나의 기준 객체로부터 헤드(121)의 윤곽(941) 상의 기준점까지의 거리 정보를 생성할 수 있다. 예를 들어, 헤드(121)의 윤곽(941) 상의 기준점은 헤드의 윤곽(941)의 중심점일 수 있다. 일 실시예에 있어서, 정보 생성부(760)는 추출된 헤드(121)의 윤곽(941)에 기초하여, 도 9에 도시된 바와 같이, 헤드(121)의 윤곽(941) 상의 기준점(중심점)(950)을 결정하고, 초음파 프로브(120)의 헤드(121)의 사전 결정된 기하학적 정보(길이 정보)에 기초하여, 기준점(950)으로부터 우측 유방(310)의 유두(311)까지의 거리를 결정하고, 결정된 거리를 기초하여 거리 정보를 생성한다.The
정보 생성부(760)는 생성된 접촉 위치 및 방향 정보와 생성된 거리 정보를 포함하는 기준 주석 정보를 생성한다. 선택적으로, 기준 주석 정보는 감지 장치(170)로부터 제공되는, 초음파 프로브(120)의 회전 정보를 더 포함할 수 있다.The
또한, 정보 생성부(760)는 기준 주석 정보를 저장 장치(150)에 저장할 수 있다. 선택적으로, 정보 생성부(760)는 기준 주석 정보를, 영상 생성부(750)에 의해 생성된 초음파 영상 또는 정보 생성부(760)에 의해 추출된 윤곽 중 적어도 하나에 대응시켜 저장 장치(150)에 저장할 수도 있다.In addition, the
다시 도 8을 참조하면, 단계 S808에서 기준 주석 정보가 표시된다. 도 1 내지 도 7을 참조하면, 표시 장치(160)는 정보 생성부(760)에 의해 생성된 기준 주석 정보를 표시하도록 구성된다. 일 실시예에 있어서, 기준 주석 정보는 초음파 영상 또는 추출된 윤곽 중 적어도 하나와 함께 표시 장치(160)에 표시될 수 있다. 예를 들어, 기준 주석 정보는 표시자, 수치, 텍스트 등으로 표시될 수 있다.8, reference annotation information is displayed in step S808. Referring to Figs. 1 to 7, the
도 10은 본 개시의 일 실시예에 따라 가이드 정보를 제공하는 절차를 나타낸 흐름도이다. 도 10에 도시된 흐름도에서 프로세스 단계들, 방법 단계들, 알고리즘들 등이 순차적인 순서로 설명되었지만, 그러한 프로세스들, 방법들 및 알고리즘들은 임의의 적합한 순서로 작동하도록 구성될 수 있다. 다시 말하면, 본 개시의 다양한 실시예들에서 설명되는 프로세스들, 방법들 및 알고리즘들의 단계들이 본 개시에서 기술된 순서로 수행될 필요는 없다. 또한, 일부 단계들이 비동시적으로 수행되는 것으로서 설명되더라도, 다른 실시예에서는 이러한 일부 단계들이 동시에 수행될 수 있다. 또한, 도면에서의 묘사에 의한 프로세스의 예시는 예시된 프로세스가 그에 대한 다른 변화들 및 수정들을 제외하는 것을 의미하지 않으며, 예시된 프로세스 또는 그의 단계들 중 임의의 것이 본 개시의 다양한 실시예들 중 하나 이상에 필수적임을 의미하지 않으며, 예시된 프로세스가 바람직하다는 것을 의미하지 않는다.10 is a flow diagram illustrating a procedure for providing guide information in accordance with one embodiment of the present disclosure. Although the process steps, method steps, algorithms, and the like are described in a sequential order in the flowchart shown in FIG. 10, such processes, methods, and algorithms may be configured to operate in any suitable order. In other words, the steps of the processes, methods and algorithms described in the various embodiments of the present disclosure need not be performed in the order described in this disclosure. Also, although some of the steps are described as being performed asynchronously, some of these steps may be performed concurrently in other embodiments. Also, an illustration of a process by way of illustration in the drawings is not intended to imply that the illustrated process excludes other variations and modifications thereto, and that any of the illustrated processes or steps thereof may be used in various embodiments of the present disclosure Does not imply that it is necessary for more than one, and does not mean that the illustrated process is preferred.
도 10을 참조하면, 단계 S1002에서, 대상체 및 초음파 프로브의 비교 영상이 획득된다. 예를 들어, 도 1 내지 도 7을 참조하면, 촬상 장치(130)는 대상체 및 초음파 프로브(120)를 촬상하여 대상체(300) 및 초음파 프로브(120)의 비교 영상(600)을 획득할 수 있다.Referring to Fig. 10, in step S1002, a comparison image of the object and the ultrasonic probe is obtained. 1 to 7, the
단계 S1004에서, 비교 영상으로부터 대상체 및 초음파 프로브의 윤곽이 추출된다. 예를 들어, 도 1 내지 도 7을 참조하면, 정보 생성부(760)는 촬상 장치(130)로부터 제공되는 비교 영상(600)에 윤곽 검출 처리를 수행하여, 대상체(300) 및 초음파 프로브(120)의 윤곽을 추출할 수 있다.In step S1004, contours of the object and the ultrasonic probe are extracted from the comparison image. 1 to 7, the
단계 S1006에서, 추출된 윤곽과 초음파 프로브의 헤드의 사전 결정된 기하학적 정보에 기초하여, 대상체에 대한 초음파 프로브의 위치 정보를 나타내는 비교 주석 정보가 생성된다. 예를 들어, 도 1 내지 도 7을 참조하면, 정보 생성부(760)는 추출된 윤곽과 초음파 프로브(120)의 헤드(121)의 사전 결정된 기하학적 정보에 기초하여, 대상체(300)에 대한 초음파 프로브(120)의 위치 정보를 나타내는 비교 주석 정보를 생성한다. 비교 주석 정보를 생성하는 절차는 기준 주석 정보를 생성하는 절차와 유사하므로 그 상세한 설명을 생략한다.In step S1006, based on the extracted contour and the predetermined geometric information of the head of the ultrasonic probe, comparison annotation information indicating the position information of the ultrasonic probe with respect to the object is generated. 1 to 7, the
단계 S1008에서, 기준 주석 정보 및 비교 주석 정보를 이용하여 가이드 정보가 생성된다. 예를 들어, 도 1 내지 도 7을 참조하면, 정보 생성부(760)는 기준 주석 정보 및 비교 주석 정보를 이용하여 가이드 정보를 생성할 수 있다. 일 실시예에 있어서, 정보 생성부(760)는 비교 주석 정보에 따른 초음파 프로브(120)의 현재 위치에서, 기준 주석 정보에 따른 초음파 프로브(120)의 기준 위치로 초음파 프로브(120)를 이동시키기 위한 가이드 정보를 생성할 수 있다. 예를 들면, 이러한 기준 주석 정보는 저장 장치(150)로부터 추출될 수 있다.In step S1008, guide information is generated using the base annotation information and the comparison annotation information. For example, referring to FIGS. 1 to 7, the
일 실시예에 따르면, 정보 생성부(760)는 도 11에 도시된 바와 같이, 초음파 프로브(120)의 현재 위치를 나타내는 제1 위치 표시자(1110)와, 초음파 프로브(120)의 기준 위치를 나타내는 제2 위치 표시자(1120)를 포함하는 가이드 정보(1100)를 생성한다. 이때, 제1 위치 표시자(1110)의 색(예를 들어, 적색)은 제2 위치 표시자(1120)의 색(예를 들어, 녹색)과 상이할 수 있다. 추가적으로, 가이드 정보(1100)는 유방을 나타내는 유방 표시자(1130) 및 유두를 나타내는 유두 표시자(1140)를 더 포함할 수 있다.11, the
단계 S1010에서 가이드 정보가 표시된다. 예를 들어, 도 1 내지 도 7을 참조하면, 표시 장치(160)는 정보 생성부(760)에 의해 생성된 가이드 정보를 표시할 수 있다. 따라서, 사용자는 표시 장치(160)에 표시된 가이드 정보에 기초하여 초음파 프로브(120)의 현재 위치에서 기준 위치로 초음파 프로브(120)를 이동시킬 수 있다.In step S1010, guide information is displayed. For example, referring to FIGS. 1 to 7, the
선택적으로, 표시 장치(160)는 영상 생성부(750)에 의해 생성된 초음파 영상, 대상체(300)의 윤곽 또는 초음파 프로브(120)의 윤곽 중 적어도 하나를 가이드 정보와 함께 표시할 수 있다.Alternatively, the
상기 방법은 특정 실시예들을 통하여 설명되었지만, 상기 방법은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등이 있으며, 또한 케리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 상기 실시예들을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 개시가 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.Although the method has been described through particular embodiments, the method may also be implemented as computer readable code on a computer readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored. Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and may be implemented in the form of a carrier wave (for example, transmission over the Internet) . In addition, the computer-readable recording medium may be distributed over network-connected computer systems so that computer readable codes can be stored and executed in a distributed manner. And, functional programs, codes, and code segments for implementing the above embodiments can be easily inferred by programmers in the technical field to which this disclosure belongs.
이상 일부 실시예들과 첨부된 도면에 도시된 예에 의해 본 개시의 기술적 사상이 설명되었지만, 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 이해할 수 있는 본 개시의 기술적 사상 및 범위를 벗어나지 않는 범위에서 다양한 치환, 변형 및 변경이 이루어질 수 있다는 점을 알아야 할 것이다. 또한, 그러한 치환, 변형 및 변경은 첨부된 청구범위 내에 속하는 것으로 생각되어야 한다.Although the technical idea of the present disclosure has been described above by way of some embodiments and examples shown in the accompanying drawings, it is to be understood that the present invention is not limited to the above- It should be understood that various substitutions, changes, and alterations can be made therein without departing from the scope of the invention. It is also to be understood that such substitutions, modifications and variations are intended to be included within the scope of the appended claims.
100: 초음파 시스템 110: 컨트롤 패널
120: 초음파 프로브 121: 초음파 프로브의 헤드
130: 촬상 장치 140: 프로세서
150: 저장 장치 160: 표시 장치
170: 감지 장치 210, 220: 카메라
300: 대상체 310: 우측 유방
311: 우측 유방의 유두 320: 좌측 유방
321: 좌측 유방의 유두 331: 우측 겨드랑이
332: 좌측 겨드랑이 400: 기준 영상
600: 비교 영상 710: 송신부
720: 송수신 스위치 730: 수신부
740: 신호 처리부 750: 영상 생성부
760: 정보 생성부 770: 영상 처리부
910: 우측 유방의 윤곽
911: 우측 유방의 유두의 윤곽
920: 좌측 유방의 윤곽
921: 좌측 유방의 유두의 윤곽
932: 좌측 겨드랑이의 윤곽 940: 초음파 프로브의 윤곽
941: 헤드의 윤곽 1100: 가이드 정보
1110: 제1 위치 표시자 1120: 제2 위치 표시자
1130: 유방 표시자 1140: 유두 표시자100: Ultrasonic system 110: Control panel
120: Ultrasonic probe 121: Head of ultrasonic probe
130: Image pickup device 140: Processor
150: Storage device 160: Display device
170: sensing
300: subject 310: right breast
311: Nipple of right breast 320: Left breast
321: Nipple of left breast 331: Right arm
332: left armpit 400: reference image
600: comparison image 710:
720: Transmitting / receiving switch 730:
740: Signal processing unit 750:
760: Information generating unit 770:
910: contour of the right breast
911: contour of the right breast's nipple
920: contour of left breast
921: contour of left breast papilla
932: contour of the left armpit 940: contour of the ultrasonic probe
941: Head contour 1100: Guide information
1110: first position indicator 1120: second position indicator
1130: Breast indicator 1140: Nipple indicator
Claims (18)
상기 초음파 프로브에 장착된 적어도 하나의 카메라를 이용하여 상기 대상체 및 상기 초음파 프로브의 기준 영상을 획득하는 단계와,
상기 기준 영상으로부터 상기 대상체의 윤곽 및 상기 초음파 프로브의 윤곽을 추출하는 단계와,
상기 대상체의 윤곽, 상기 초음파 프로브의 윤곽 및 상기 초음파 프로브의 헤드의 사전 결정된 기하학적 정보에 기초하여, 상기 대상체에 대한 상기 초음파 프로브의 위치 정보를 나타내는 기준 주석 정보를 생성하는 단계와,
상기 기준 주석 정보를 표시하는 단계
를 포함하는, 방법.A method of providing annotation information of an ultrasonic probe in contact with a target object,
Acquiring a reference image of the object and the ultrasound probe using at least one camera mounted on the ultrasound probe;
Extracting an outline of the object and an outline of the ultrasonic probe from the reference image,
Generating reference annotation information indicating positional information of the ultrasonic probe relative to the object based on the contour of the object, the contour of the ultrasonic probe, and the predetermined geometric information of the head of the ultrasonic probe;
Displaying the base annotation information
/ RTI >
상기 대상체의 윤곽에 기초하여 적어도 하나의 기준 객체를 식별하는 단계와,
상기 적어도 하나의 기준 객체에 대한 상기 초음파 프로브의 위치 정보를 생성하는 단계
를 포함하는, 방법.2. The method of claim 1, wherein generating the base annotation information comprises:
Identifying at least one reference object based on an outline of the object;
Generating position information of the ultrasonic probe relative to the at least one reference object
/ RTI >
상기 초음파 프로브의 윤곽에서 상기 초음파 프로브의 헤드의 윤곽을 추출하는 단계와,
상기 헤드의 윤곽에 기초하여, 상기 적어도 하나의 기준 객체에 대한 상기 초음파 프로브의 접촉 위치 및 방향 정보를 생성하는 단계와,
상기 적어도 하나의 기준 객체로부터 상기 헤드의 윤곽 상의 기준점까지의 거리 정보를 생성하는 단계
를 포함하는, 방법.5. The method of claim 4, wherein generating the position information of the ultrasonic probe comprises:
Extracting an outline of a head of the ultrasonic probe at an outline of the ultrasonic probe;
Generating contact position and orientation information of the ultrasonic probe with respect to the at least one reference object based on the contour of the head;
Generating distance information from the at least one reference object to a reference point on the contour of the head
/ RTI >
상기 초음파 프로브에 장착된 적어도 하나의 센서를 이용하여 상기 초음파 프로브의 회전 정보를 생성하는 단계
를 더 포함하고,
상기 기준 주석 정보는 상기 초음파 프로브의 회전 정보를 더 포함하는, 방법.3. The method of claim 2,
Generating rotation information of the ultrasonic probe using at least one sensor mounted on the ultrasonic probe
Further comprising:
Wherein the reference annotation information further comprises rotation information of the ultrasonic probe.
상기 적어도 하나의 카메라를 이용하여 상기 대상체 및 상기 초음파 프로브의 비교 영상을 획득하는 단계와,
상기 비교 영상 및 상기 초음파 프로브의 헤드의 사전 결정된 기하학적 정보에 기초하여, 상기 대상체에 대한 상기 초음파 프로브의 위치 정보를 나타내는 비교 주석 정보를 생성하는 단계와,
상기 기준 주석 정보 및 상기 비교 주석 정보를 표시하는 단계
를 더 포함하는, 방법.7. The method according to any one of claims 1 to 6,
Acquiring a comparison image of the object and the ultrasonic probe using the at least one camera;
Generating comparative annotation information indicating positional information of the ultrasonic probe relative to the object based on the comparison image and the predetermined geometric information of the head of the ultrasonic probe;
Displaying the base annotation information and the comparison annotation information
≪ / RTI >
상기 비교 주석 정보에 따른 상기 초음파 프로브의 현재 위치에서 상기 기준 주석 정보에 따른 상기 초음파 프로브의 기준 위치로 상기 초음파 프로브를 이동시키기 위한 가이드 정보를 생성하여 표시하는 단계
를 포함하는, 방법.8. The method of claim 7, wherein the displaying of the base annotation information and the comparison annotation information comprises:
Generating and displaying guide information for moving the ultrasonic probe to a reference position of the ultrasonic probe according to the reference annotation information at a current position of the ultrasonic probe according to the comparison annotation information,
/ RTI >
상기 현재 위치를 나타내는 제1 표시자와 상기 기준 위치를 나타내는 제2 표시자를 상이하게 생성하여 표시하는 단계
를 포함하는, 방법.The method of claim 8, wherein generating and displaying the guide information comprises:
Generating and displaying a first indicator indicating the current position and a second indicator indicating the reference position differently from each other
/ RTI >
초음파 프로브와,
상기 초음파 프로브에 장착되며, 대상체 및 상기 초음파 프로브의 기준 영상을 획득하는 적어도 하나의 카메라와,
상기 초음파 프로브 및 상기 적어도 하나의 카메라에 연결되며, 상기 적어도 하나의 카메라로부터 제공되는 상기 기준 영상으로부터 상기 대상체의 윤곽 및 상기 초음파 프로브의 윤곽을 추출하고, 상기 대상체의 윤곽, 상기 초음파 프로브의 윤곽 및 상기 초음파 프로브의 헤드의 사전 결정된 기하학적 정보에 기초하여, 상기 대상체에 대한 상기 초음파 프로브의 위치 정보를 나타내는 기준 주석 정보를 생성하는 프로세서와,
상기 기준 주석 정보를 표시하는 표시 장치
를 포함하는, 초음파 시스템.As an ultrasound system,
An ultrasonic probe,
At least one camera mounted on the ultrasonic probe for acquiring a reference object and a reference image of the ultrasonic probe,
Extracting an outline of the object and an outline of the ultrasonic probe from the reference image provided from the at least one camera, the outline of the object, the outline of the ultrasonic probe, and the outline of the ultrasonic probe, A processor for generating reference annotation information indicating positional information of the ultrasonic probe relative to the object based on predetermined geometric information of the head of the ultrasonic probe;
A display device for displaying the reference annotation information
And an ultrasound system.
상기 대상체의 윤곽에 기초하여 적어도 하나의 기준 객체를 식별하고,
상기 적어도 하나의 기준 객체에 대한 상기 초음파 프로브의 위치 정보를 생성하는, 초음파 시스템.11. The apparatus of claim 10,
Identifying at least one reference object based on the contour of the object,
And generates position information of the ultrasonic probe relative to the at least one reference object.
상기 초음파 프로브의 윤곽에서 상기 초음파 프로브의 헤드의 윤곽을 추출하고,
상기 헤드의 윤곽에 기초하여, 상기 적어도 하나의 기준 객체에 대한 상기 초음파 프로브의 접촉 위치 및 방향 정보를 생성하고,
상기 적어도 하나의 기준 객체로부터 상기 헤드의 윤곽 상의 기준점까지의 거리 정보를 생성하는, 초음파 시스템.14. The apparatus of claim 13,
Extracting an outline of the head of the ultrasonic probe from an outline of the ultrasonic probe,
Generating contact position and orientation information of the ultrasonic probe with respect to the at least one reference object based on the contour of the head,
And generates distance information from the at least one reference object to a reference point on the contour of the head.
상기 초음파 프로브에 장착되며, 상기 초음파 프로브의 회전 정보를 생성하는 적어도 하나의 센서
를 더 포함하고,
상기 기준 주석 정보는 상기 초음파 프로브의 회전 정보를 더 포함하는, 초음파 시스템.12. The method of claim 11,
At least one sensor mounted on the ultrasonic probe and generating rotation information of the ultrasonic probe,
Further comprising:
Wherein the reference annotation information further comprises rotation information of the ultrasonic probe.
상기 적어도 하나의 카메라는, 상기 대상체 및 상기 초음파 프로브의 비교 영상을 더 획득하고,
상기 프로세서는, 상기 비교 영상 및 상기 초음파 프로브의 헤드의 사전 결정된 기하학적 정보에 기초하여, 상기 대상체에 대한 상기 초음파 프로브의 위치 정보를 나타내는 비교 주석 정보를 더 생성하고,
상기 표시 장치는, 상기 기준 주석 정보 및 상기 비교 주석 정보를 더 표시하는, 초음파 시스템.16. The method according to any one of claims 10 to 15,
Wherein the at least one camera further obtains a comparison image of the object and the ultrasonic probe,
Wherein the processor further generates comparison annotation information indicating position information of the ultrasonic probe relative to the object based on the comparison image and the predetermined geometric information of the head of the ultrasonic probe,
Wherein the display device further displays the reference annotation information and the comparison annotation information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160173394A KR102107581B1 (en) | 2016-12-19 | 2016-12-19 | Method of providing annotation information of ultrasound probe and ultrasound system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160173394A KR102107581B1 (en) | 2016-12-19 | 2016-12-19 | Method of providing annotation information of ultrasound probe and ultrasound system |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180070878A true KR20180070878A (en) | 2018-06-27 |
KR102107581B1 KR102107581B1 (en) | 2020-05-07 |
Family
ID=62790063
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160173394A KR102107581B1 (en) | 2016-12-19 | 2016-12-19 | Method of providing annotation information of ultrasound probe and ultrasound system |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102107581B1 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3313282A4 (en) * | 2015-06-25 | 2019-03-06 | Rivanna Medical, LLC | Ultrasonic guidance of a probe with respect to anatomical features |
WO2022072727A3 (en) * | 2020-10-02 | 2022-06-02 | Bard Access Systems, Inc. | Ultrasound systems and methods for sustained spatial attention |
US11759166B2 (en) | 2019-09-20 | 2023-09-19 | Bard Access Systems, Inc. | Automatic vessel detection tools and methods |
US11877810B2 (en) | 2020-07-21 | 2024-01-23 | Bard Access Systems, Inc. | System, method and apparatus for magnetic tracking of ultrasound probe and generation of 3D visualization thereof |
US11890139B2 (en) | 2020-09-03 | 2024-02-06 | Bard Access Systems, Inc. | Portable ultrasound systems |
US11925505B2 (en) | 2020-09-25 | 2024-03-12 | Bard Access Systems, Inc. | Minimum catheter length tool |
US11992363B2 (en) | 2020-09-08 | 2024-05-28 | Bard Access Systems, Inc. | Dynamically adjusting ultrasound-imaging systems and methods thereof |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100367932B1 (en) * | 1999-11-26 | 2003-01-14 | 주식회사 메디슨 | An apparatus for searching ultrasonic image |
JP2008086742A (en) * | 2006-01-19 | 2008-04-17 | Toshiba Corp | Locus indicating device of ultrasonic probe and ultrasonic diagnostic apparatus |
JP2008302220A (en) * | 2007-06-04 | 2008-12-18 | Biosense Webster Inc | Cardiac mechanical assessment using ultrasound |
JP2011031053A (en) * | 2003-11-19 | 2011-02-17 | Siemens Medical Solutions Usa Inc | Method for detecting and matching anatomical structure in image, method for matching anatomical structure in image, and system for detecting and matching anatomical structure in image |
KR20120101040A (en) * | 2009-10-30 | 2012-09-12 | 더 존스 홉킨스 유니버시티 | Visual tracking and annotation of clinically important anatomical landmarks for surgical interventions |
JP2015116215A (en) * | 2013-12-16 | 2015-06-25 | 日立アロカメディカル株式会社 | Ultrasonic diagnostic device and program |
WO2016110463A1 (en) * | 2015-01-06 | 2016-07-14 | Koninklijke Philips N.V. | Ultrasound imaging apparatus and method for segmenting anatomical objects |
-
2016
- 2016-12-19 KR KR1020160173394A patent/KR102107581B1/en active IP Right Grant
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100367932B1 (en) * | 1999-11-26 | 2003-01-14 | 주식회사 메디슨 | An apparatus for searching ultrasonic image |
JP2011031053A (en) * | 2003-11-19 | 2011-02-17 | Siemens Medical Solutions Usa Inc | Method for detecting and matching anatomical structure in image, method for matching anatomical structure in image, and system for detecting and matching anatomical structure in image |
JP2008086742A (en) * | 2006-01-19 | 2008-04-17 | Toshiba Corp | Locus indicating device of ultrasonic probe and ultrasonic diagnostic apparatus |
JP2008302220A (en) * | 2007-06-04 | 2008-12-18 | Biosense Webster Inc | Cardiac mechanical assessment using ultrasound |
KR20120101040A (en) * | 2009-10-30 | 2012-09-12 | 더 존스 홉킨스 유니버시티 | Visual tracking and annotation of clinically important anatomical landmarks for surgical interventions |
JP2015116215A (en) * | 2013-12-16 | 2015-06-25 | 日立アロカメディカル株式会社 | Ultrasonic diagnostic device and program |
WO2016110463A1 (en) * | 2015-01-06 | 2016-07-14 | Koninklijke Philips N.V. | Ultrasound imaging apparatus and method for segmenting anatomical objects |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3313282A4 (en) * | 2015-06-25 | 2019-03-06 | Rivanna Medical, LLC | Ultrasonic guidance of a probe with respect to anatomical features |
US11759166B2 (en) | 2019-09-20 | 2023-09-19 | Bard Access Systems, Inc. | Automatic vessel detection tools and methods |
US11877810B2 (en) | 2020-07-21 | 2024-01-23 | Bard Access Systems, Inc. | System, method and apparatus for magnetic tracking of ultrasound probe and generation of 3D visualization thereof |
US11890139B2 (en) | 2020-09-03 | 2024-02-06 | Bard Access Systems, Inc. | Portable ultrasound systems |
US11992363B2 (en) | 2020-09-08 | 2024-05-28 | Bard Access Systems, Inc. | Dynamically adjusting ultrasound-imaging systems and methods thereof |
US11925505B2 (en) | 2020-09-25 | 2024-03-12 | Bard Access Systems, Inc. | Minimum catheter length tool |
WO2022072727A3 (en) * | 2020-10-02 | 2022-06-02 | Bard Access Systems, Inc. | Ultrasound systems and methods for sustained spatial attention |
Also Published As
Publication number | Publication date |
---|---|
KR102107581B1 (en) | 2020-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102107581B1 (en) | Method of providing annotation information of ultrasound probe and ultrasound system | |
JP6268196B2 (en) | Consistent continuous ultrasound acquisition for intracranial monitoring | |
JP2019503268A (en) | Ultrasound imaging related to position | |
US10228785B2 (en) | Ultrasound diagnosis apparatus and method and computer-readable storage medium | |
US11642096B2 (en) | Method for postural independent location of targets in diagnostic images acquired by multimodal acquisitions and system for carrying out the method | |
US11931202B2 (en) | Ultrasound automatic scanning system, ultrasound diagnostic apparatus, ultrasound scanning support apparatus | |
US20180161010A1 (en) | Apparatus and method for processing ultrasound image | |
US20160095573A1 (en) | Ultrasonic diagnostic apparatus | |
CN111053573A (en) | Method and system for detecting medical imaging scan planes using probe position feedback | |
KR102442178B1 (en) | Ultrasound diagnosis apparatus and mehtod thereof | |
US20150305718A1 (en) | Ultrasonic diagnostic apparatus | |
US20150164482A1 (en) | Ultrasound diagnostic apparatus, ultrasound image recording method, and non-transitory computer readable recording medium | |
US20150057546A1 (en) | Method of generating body marker and ultrasound diagnosis apparatus using the same | |
US20120289830A1 (en) | Method and ultrasound imaging system for image-guided procedures | |
US11317895B2 (en) | Ultrasound diagnosis apparatus and method of operating the same | |
JP7321836B2 (en) | Information processing device, inspection system and information processing method | |
JP2021029675A (en) | Information processor, inspection system, and information processing method | |
KR20150114285A (en) | Ultrasonic diagnostic apparatus and operating method for the same | |
US20140024940A1 (en) | Ultrasonic diagnostic apparatus and sensor selection apparatus | |
KR20190085342A (en) | Method for controlling ultrasound imaging apparatus and ultrasound imaging aparatus thereof | |
US20200178846A1 (en) | Acoustic wave measurement apparatus and operation method of acoustic wave measurement apparatus | |
US20140236012A1 (en) | Ultrasound diagnosis apparatus | |
US20220087652A1 (en) | Three-dimensional ultrasound imaging support apparatus, three-dimensional ultrasound imaging support method, and three-dimensional ultrasound imaging support program | |
JP6019362B2 (en) | Medical image measuring apparatus and medical image measuring method | |
US11766236B2 (en) | Method and apparatus for displaying ultrasound image providing orientation of fetus and computer program product |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |