KR102017285B1 - The method and apparatus for changing user interface based on user motion information - Google Patents

The method and apparatus for changing user interface based on user motion information Download PDF

Info

Publication number
KR102017285B1
KR102017285B1 KR1020150151096A KR20150151096A KR102017285B1 KR 102017285 B1 KR102017285 B1 KR 102017285B1 KR 1020150151096 A KR1020150151096 A KR 1020150151096A KR 20150151096 A KR20150151096 A KR 20150151096A KR 102017285 B1 KR102017285 B1 KR 102017285B1
Authority
KR
South Korea
Prior art keywords
user
ultrasound
probe
information
uis
Prior art date
Application number
KR1020150151096A
Other languages
Korean (ko)
Other versions
KR20150129296A (en
Inventor
반대현
김수진
한정호
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020150151096A priority Critical patent/KR102017285B1/en
Publication of KR20150129296A publication Critical patent/KR20150129296A/en
Application granted granted Critical
Publication of KR102017285B1 publication Critical patent/KR102017285B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/465Displaying means of special interest adapted to display user selection data, e.g. icons or menus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Abstract

의료 기기를 통한 대상체의 검진 시 사용되는 사용자 인터페이스(UI; User Interface)를 사용자의 모션 정보에 기초하여 변경시켜 제공하기 위한 방법이 개시된다. 본 발명의 일 실시예에 따라, 사용자의 모션 정보를 획득하고, 획득된 사용자의 모션 정보를 이용하여 UI를 변경하며, 변경된 UI를 디스플레이하는 방법이 개시된다. Disclosed is a method for changing and providing a user interface (UI) used for examination of an object through a medical device based on motion information of a user. According to an embodiment of the present invention, a method of acquiring motion information of a user, changing a UI using the obtained motion information of the user, and displaying the changed UI is disclosed.

Description

사용자의 모션 정보에 기초하여 사용자 인터페이스(UI)를 변경시키는 방법 및 장치{THE METHOD AND APPARATUS FOR CHANGING USER INTERFACE BASED ON USER MOTION INFORMATION} Method and apparatus for changing the user interface based on the motion information of the user {THE METHOD AND APPARATUS FOR CHANGING USER INTERFACE BASED ON USER MOTION INFORMATION}

본 발명은 사용자의 모션 정보에 기초하여 사용자 인터페이스(User Interface)를 변경시켜 제공하는 방법 및 장치에 관한 것이다. The present invention relates to a method and apparatus for changing and providing a user interface based on motion information of a user.

초음파 진단 장치는 프로브(probe)의 트랜스듀서(transducer)로부터 생성되는 초음파 신호를 대상체로 조사하고, 대상체로부터 반사된 에코 신호의 정보를 수신하여 대상체 내부의 부위(예컨대, 연부 조직 등의 단층이나 혈류 등)에 대한 영상을 획득할 수 있다. 특히, 초음파 진단 장치는 대상체 내부의 관찰, 이물질 검출, 및 상해 측정 등 의학적 목적으로 사용될 수 있다. The ultrasound diagnostic apparatus irradiates an ultrasound signal generated from a transducer of a probe to an object, receives information of an echo signal reflected from the object, and detects an area (eg, soft tissue or the like) or blood flow inside the object. Etc.) can be obtained. In particular, the ultrasound diagnostic apparatus may be used for medical purposes such as observation inside an object, foreign matter detection, and injury measurement.

이러한 초음파 진단 장치는 대상체에 대한 정보를 실시간으로 표시 가능하다는 이점이 있다. 또한, 초음파 진단 장치는, X선 등의 피폭이 없어 안정성이 높은 장점이 있어, X선 진단장치, CT(Computerized Tomography) 스캐너, MRI(Magnetic Resonance Image) 장치, 핵의학 진단장치 등의 다른 화상 진단장치와 함께 널리 이용되고 있다.Such an ultrasound diagnostic apparatus has an advantage in that information about an object can be displayed in real time. In addition, the ultrasonic diagnostic apparatus has the advantage of high stability because there is no exposure to X-rays, and other imaging diagnosis such as an X-ray diagnostic apparatus, a computerized tomography (CT) scanner, a magnetic resonance image (MRI) apparatus, and a nuclear medical diagnostic apparatus. It is widely used with the device.

본 발명은 의료 기기를 통한 대상체의 검진 시 사용되는 사용자 인터페이스(UI; User Interface)를 사용자의 모션 정보에 기초하여 변경시켜 제공하기 위한 방법 및 장치에 관한 것이다. The present invention relates to a method and an apparatus for changing and providing a user interface (UI) used for examination of an object through a medical device based on user motion information.

본 발명의 일 실시예에 따른, 의료 기기를 통한 대상체의 검진 시 사용되는 사용자 인터페이스(UI; User Interface)를 사용자의 모션 정보에 기초하여 변경시켜 제공하기 위한 방법은, 사용자의 모션 정보를 획득하는 단계, 획득된 사용자의 모션 정보를 이용하여 UI를 변경하는 단계 및 변경된 UI를 디스플레이하는 단계를 포함할 수 있다. According to an embodiment of the present invention, a method for changing and providing a user interface (UI) used for examination of an object through a medical device based on user motion information may include obtaining motion information of the user. The method may include changing the UI using the obtained motion information of the user and displaying the changed UI.

본 발명의 일 실시예에 따른 사용자의 모션 정보는 현재 프로브의 위치 정보에 기초하여 획득될 수 있다. Motion information of a user according to an embodiment of the present invention may be obtained based on location information of a current probe.

본 발명의 일 실시예에 따른 현재 프로브의 위치 정보는 프로브의 현재의 지시방향, 소정의 기준 지점에 대한 경사각 및 높이값 중 적어도 하나를 포함할 수 있다. The position information of the current probe according to an embodiment of the present invention may include at least one of a current direction of the probe, an inclination angle with respect to a predetermined reference point, and a height value.

본 발명의 일 실시예에 따른 사용자 모션 정보는, 사용자의 지문 정보, 사용자의 홍채 정보, 사용자의 안면 정보 중 적어도 하나를 포함하는 생체 정보에 기초하여 획득될 수 있다. The user motion information according to an embodiment of the present invention may be obtained based on biometric information including at least one of fingerprint information of the user, iris information of the user, and facial information of the user.

본 발명의 일 실시예에 따른 UI는 대상체의 검진 시 사용될 기능을 나타낸 단축 버튼, 스위치, 키보드 및 트랙볼 중 적어도 하나를 포함할 수 있다. The UI according to an embodiment of the present invention may include at least one of a shortcut button, a switch, a keyboard, and a trackball indicating a function to be used when the object is examined.

본 발명의 일 실시예에 따른 획득된 사용자의 모션 정보를 이용하여 UI를 변경하는 단계는, 획득된 사용자의 모션 정보에 따라 UI의 모양, 크기 및 위치 중 적어도 하나를 변경하는 단계를 포함할 수 있다. Changing the UI by using the acquired motion information of the user according to an embodiment of the present invention may include changing at least one of a shape, a size, and a position of the UI according to the obtained motion information of the user. have.

본 발명의 일 실시예에 따른 대상체의 검진 시 사용되는 기능의 빈도에 따라 UI는 모양, 크기 및 위치 중 적어도 하나가 상이하게 제공될 수 있다. According to an embodiment of the present invention, at least one of a shape, a size, and a position may be differently provided according to a frequency of a function used when examining an object.

본 발명의 일 실시예에 따른 외부 입력 신호에 따라 UI는 편집 가능할 수 있다. According to an external input signal according to an embodiment of the present invention, the UI may be editable.

본 발명의 일 실시예에 따른 UI는 대상체의 촬영 영상이 디스플레이되는 디스플레이부 및 디스플레이 기능이 구비된 컨트롤 패널 중 적어도 하나를 통하여 디스플레이될 수 있다. The UI according to an embodiment of the present invention may be displayed through at least one of a display unit displaying a captured image of an object and a control panel provided with a display function.

본 발명의 일 실시예에 따른 사용자의 모션 정보에 따라 컨트롤 패널의 높이 및 각도 중 적어도 하나를 조절하는 단계를 더 포함할 수 있다. The method may further include adjusting at least one of a height and an angle of the control panel according to the motion information of the user according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 사용자의 식별 정보를 획득하는 단계, 획득된 식별 정보에 따라 변경된 UI를 저장하는 단계를 더 포함할 수 있다. The method may further include obtaining identification information of the user according to an embodiment of the present disclosure, and storing the changed UI according to the obtained identification information.

본 발명의 일 실시예에 따른 의료 기기를 통한 대상체의 검진 시 사용되는 사용자 인터페이스(UI; User Interface)를 사용자의 모션 정보에 기초하여 변경시켜 제공하기 위한 장치는, 사용자의 모션 정보를 획득하는 모션 정보 획득부, 획득된 사용자의 모션 정보를 이용하여 UI를 변경하는 UI 변경부 및 변경된 UI의 디스플레이가 가능한 디스플레이부를 포함할 수 있다. An apparatus for changing and providing a user interface (UI) used for examination of an object through a medical device based on motion information of a user according to an embodiment of the present invention may include: a motion for obtaining motion information of the user; It may include an information acquisition unit, a UI change unit for changing the UI using the obtained motion information of the user, and a display unit capable of displaying the changed UI.

본 발명의 일 실시예에 따른 모션 정보 획득부는 센싱부를 더 포함하고, 사용자의 모션 정보는, 센싱부를 통하여 획득된 현재 프로브의 위치 정보에 기초하여 획득될 수 있다. The motion information acquisition unit according to an embodiment of the present invention may further include a sensing unit, and the motion information of the user may be obtained based on location information of the current probe obtained through the sensing unit.

본 발명의 일 실시예에 따른 현재 프로브의 위치 정보는, 프로브의 현재의 지시방향, 소정의 기준 지점에 대한 경사각 및 높이값 중 적어도 하나를 포함할 수 있다. The position information of the current probe according to an embodiment of the present invention may include at least one of a current direction of the probe, an inclination angle with respect to a predetermined reference point, and a height value.

본 발명의 일 실시예에 따른 사용자 모션 정보는, 센싱부를 통하여 획득된 사용자의 지문 정보, 사용자의 홍채 정보, 사용자의 안면 정보 중 적어도 하나를 포함하는 생체 정보에 기초하여 획득될 수 있다. The user motion information according to an embodiment of the present invention may be obtained based on biometric information including at least one of fingerprint information of the user, iris information of the user, and facial information of the user obtained through the sensing unit.

본 발명의 일 실시예에 따른 UI는 대상체의 검진 시 사용될 기능을 나타낸 단축 버튼, 스위치, 키보드 및 트랙볼 중 적어도 하나를 포함할 수 있다. The UI according to an embodiment of the present invention may include at least one of a shortcut button, a switch, a keyboard, and a trackball indicating a function to be used when the object is examined.

본 발명의 일 실시예에 따른 UI 변경부는, 획득된 사용자의 모션 정보에 따라 UI의 모양, 크기 및 위치 중 적어도 하나를 변경할 수 있다. According to an embodiment of the present invention, the UI changer may change at least one of a shape, a size, and a position of the UI according to the acquired motion information of the user.

본 발명의 일 실시예에 따른 UI는 대상체의 검진 시 사용되는 기능의 빈도에 따라 모양, 크기 및 위치 중 적어도 하나가 상이하게 제공될 수 있다. According to an embodiment of the present invention, at least one of a shape, a size, and a position may be differently provided according to a frequency of a function used when examining an object.

본 발명의 일 실시예에 따른 장치는 외부 입력 수신부를 더 포함하고, UI는 외부 입력 수신부를 통하여 수신된 외부 입력 신호에 따라 UI 변경부에 의하여 편집 될 수 있다. The apparatus according to an embodiment of the present invention further includes an external input receiver, and the UI may be edited by the UI changer according to an external input signal received through the external input receiver.

본 발명의 일 실시예에 따른 장치는 디스플레이 기능이 구비된 컨트롤 패널을 더 포함하고, UI는 디스플레이부 및 컨트롤 패널 중 적어도 하나를 통하여 디스플레이될 수 있다. The apparatus according to an embodiment of the present invention further includes a control panel having a display function, and the UI may be displayed through at least one of the display unit and the control panel.

본 발명의 일 실시예에 따른 장치는 제어부를 더 포함하고, 제어부는 사용자의 모션 정보에 따라 컨트롤 패널의 높이 및 각도 중 적어도 하나를 조절할 수 있다. The apparatus according to an embodiment of the present invention further includes a controller, and the controller may adjust at least one of a height and an angle of the control panel according to the motion information of the user.

본 발명의 일 실시예에 따른 장치는 사용자의 식별 정보를 획득하는 식별 정보 획득부, 획득된 식별 정보에 따라 변경된 UI를 저장하는 저장부를 더 포함할 수 있다. The apparatus according to an embodiment of the present invention may further include an identification information acquisition unit for obtaining identification information of the user, and a storage unit for storing the changed UI according to the obtained identification information.

한편, 본 발명의 일 실시예에 의하면, 전술한 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공할 수 있다. Meanwhile, according to an embodiment of the present invention, a computer-readable recording medium having recorded thereon a program for executing the above-described method on a computer can be provided.

본 발명의 일 실시예로서 제공되는 방법 및 장치에 따라, 사용자의 모션 정보를 획득하고, 획득된 모션 정보에 기초하여 사용자 인터페이스(UI)를 변경시켜 디스플레이함으로써 사용자의 의료 기기 활용의 편의성을 증대시킬 수 있다는 효과가 있다. 또한, 사용자 모션 정보에 기초하여 의료 기기의 위치 등을 자동으로 제어함으로써, 촬영 환경 설정에 소모되는 불필요한 시간 낭비를 줄일 수 있다는 효과가 있다. According to the method and the device provided as an embodiment of the present invention, by acquiring the user's motion information, and changing the user interface (UI) based on the obtained motion information to increase the convenience of the user's medical device utilization It can be effective. In addition, by automatically controlling the position of the medical device or the like based on the user motion information, there is an effect that it is possible to reduce unnecessary time wasted in the shooting environment setting.

도 1a는 종래의 의료 기기를 통한 대상체 검진 방법의 일 예를 도시한다.
도 1b는 본 발명의 일 실시예와 관련된 초음파 진단 장치(r1000)의 예시적인 구성을 도시한 블록도이다.
도 1c는 본 발명의 일 실시예와 관련된 무선 프로브(r2000)의 예시적인 구성을 도시한 블록도이다.
도 2는 본 발명의 일 실시예에 따른 의료 기기를 통한 대상체의 검진 시 사용되는 사용자 인터페이스(UI; User Interface)를 사용자의 모션 정보에 기초하여 변경시켜 제공하기 위한 방법의 개략도이다.
도 3은 본 발명의 일 실시예에 따른 사용자의 모션 정보에 기초하여 사용자 인터페이스(UI; User Interface)를 변경시켜 제공하기 위한 방법을 나타낸 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 사용자의 모션 정보 획득의 일 예를 도시한다.
도 5는 본 발명의 다른 실시예에 따라 획득되는 사용자의 모션 정보의 예를 도시한다.
도 6은 본 발명의 일 실시예에 따라 변경되어 제공 가능한 사용자 인터페이스(UI)의 일 예를 도시한다.
도 7은 본 발명의 일 실시예에 따라 사용자의 모션 정보에 기초하여 사용자 인터페이스(UI)가 변경되어 제공되는 양상을 도시한다.
도 8은 본 발명의 다른 실시예에 따라 사용자의 모션 정보에 기초하여 사용자 인터페이스(UI)가 변경되어 제공되는 양상을 도시한다.
도 9a는 본 발명의 일 실시예에 따른 사용자 인터페이스(UI)의 편집 예를 도시한다.
도 9b는 본 발명의 일 실시예에 따라 변경된 사용자 인터페이스(UI)의 사용 예를 도시한다.
도 10은 본 발명의 일 실시예에 따라 사용자 인터페이스(UI)가 제공되는 양상을 도시한다.
도 11은 본 발명의 다른 실시예에 따라 의료 기기의 동작을 제어하는 방법을 나타낸 흐름도이다.
도 12는 본 발명의 다른 실시예에 따른 의료 기기 동작 제어의 일 예를 도시한다.
도 13은 본 발명의 또 다른 실시예에 따라 변경된 UI를 관리하는 방법을 나타낸 흐름도이다.
도 14는 본 발명의 일 실시예에 따른 의료 기기를 통한 대상체의 검진 시 사용되는 사용자 인터페이스(UI; User Interface)를 사용자의 모션 정보에 기초하여 변경시켜 제공하기 위한 장치를 도시한다.
도 15는 본 발명의 일 실시예에 따라 센싱부를 더 포함하는 장치를 도시한다.
도 16은 본 발명의 일 실시예에 따라 센싱부, 외부 입력 수신부 및 컨트롤 패널을 더 포함하는 장치를 도시한다.
도 17은 본 발명의 일 실시예에 따라 센싱부, 외부 입력 수신부, 컨트롤 패널 및 제어부를 더 포함하는 장치를 도시한다.
도 18은 본 발명의 다른 실시예에 따라 사용자의 모션 정보에 기초하여 사용자 인터페이스(UI)를 변경시켜 제공하기 위한 장치를 도시한다.
1A illustrates an example of a method for examining a subject using a conventional medical device.
1B is a block diagram illustrating an exemplary configuration of an ultrasound diagnostic apparatus r1000 according to an embodiment of the present invention.
1C is a block diagram illustrating an exemplary configuration of a wireless probe r2000 according to an embodiment of the present invention.
FIG. 2 is a schematic diagram of a method for changing and providing a user interface (UI) used for examination of an object through a medical device based on user motion information according to an embodiment of the present invention.
3 is a flowchart illustrating a method for changing and providing a user interface (UI) based on motion information of a user according to an embodiment of the present invention.
4 illustrates an example of obtaining motion information of a user according to an embodiment of the present invention.
5 illustrates an example of motion information of a user obtained according to another embodiment of the present invention.
6 illustrates an example of a user interface (UI) that can be changed and provided according to an embodiment of the present invention.
FIG. 7 illustrates an aspect in which a user interface (UI) is changed and provided based on motion information of a user according to an embodiment of the present invention.
FIG. 8 illustrates an aspect in which a user interface (UI) is changed and provided based on motion information of a user according to another embodiment of the present invention.
9A illustrates an example of editing a user interface (UI) in accordance with one embodiment of the present invention.
9B illustrates an example of the use of a modified user interface (UI) in accordance with one embodiment of the present invention.
10 illustrates an aspect in which a user interface (UI) is provided according to an embodiment of the present invention.
11 is a flowchart illustrating a method of controlling the operation of a medical device according to another embodiment of the present invention.
12 illustrates an example of medical device operation control according to another embodiment of the present invention.
13 is a flowchart illustrating a method of managing a changed UI according to another embodiment of the present invention.
FIG. 14 illustrates an apparatus for changing and providing a user interface (UI) used for examination of an object through a medical device based on user motion information according to an embodiment of the present invention.
15 illustrates an apparatus further including a sensing unit according to an embodiment of the present invention.
16 illustrates an apparatus further including a sensing unit, an external input receiver, and a control panel according to an embodiment of the present invention.
17 illustrates an apparatus further comprising a sensing unit, an external input receiver, a control panel, and a controller according to an embodiment of the present invention.
FIG. 18 illustrates an apparatus for changing and providing a user interface (UI) based on motion information of a user according to another embodiment of the present invention.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다. Terms used herein will be briefly described and the present invention will be described in detail.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다. The terms used in the present invention have been selected as widely used general terms as possible in consideration of the functions in the present invention, but this may vary according to the intention or precedent of the person skilled in the art, the emergence of new technologies and the like. In addition, in certain cases, there is also a term arbitrarily selected by the applicant, in which case the meaning will be described in detail in the description of the invention. Therefore, the terms used in the present invention should be defined based on the meanings of the terms and the contents throughout the present invention, rather than the names of the simple terms.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.When any part of the specification is to "include" any component, this means that it may further include other components, except to exclude other components unless otherwise stated. In addition, the terms "... unit", "module", etc. described in the specification mean a unit for processing at least one function or operation, which may be implemented in hardware or software or a combination of hardware and software. .

명세서 전체에서 "초음파 영상"이란 초음파를 이용하여 획득된 대상체(object)에 대한 영상을 의미할 수 있다. Throughout the specification, an “ultrasound image” may refer to an image of an object obtained using ultrasound.

또한, 대상체는 사람 또는 동물, 또는 사람 또는 동물의 일부를 포함할 수 있다. 예를 들어, 대상체는 간, 심장, 자궁, 뇌, 유방, 복부 등의 장기, 또는 혈관을 포함할 수 있다. 또한, 대상체는 팬텀(phantom)을 포함할 수도 있으며, 팬텀은 생물의 밀도와 실효 원자 번호에 아주 근사한 부피를 갖는 물질을 의미할 수 있다.In addition, the subject may comprise a human or animal, or part of a human or animal. For example, the subject may include organs such as the liver, heart, uterus, brain, breast, abdomen, or blood vessels. In addition, the object may include a phantom, and the phantom may refer to a material having a volume very close to the density of the organism and the effective atomic number.

또한, 명세서 전체에서 "사용자"는 의료 전문가로서 의사, 간호사, 임상 병리사, 의료 영상 전문가 등이 될 수 있으며, 의료 장치를 수리하는 기술자가 될 수 있으나, 이에 한정되지는 않는다.In addition, in the entire specification, the "user" may be a doctor, a nurse, a clinical pathologist, a medical imaging expert, or the like, and may be a technician who repairs a medical device, but is not limited thereto.

아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention. As those skilled in the art would realize, the described embodiments may be modified in various different ways, all without departing from the spirit or scope of the present invention. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and like reference numerals designate like parts throughout the specification.

도 1a는 종래의 의료 기기를 통한 대상체 검진 방법의 일 예를 도시한다. 1A illustrates an example of a method for examining a subject using a conventional medical device.

도 1a에 도시된 바와 같이, 사용자는 초음파 진단 장치의 프로브(120)를 이용하여 대상체(10)를 검진할 수 있다. 다시 말해서, 사용자는 프로브(120)와 컨트롤패널(130)을 조작하여 디스플레이부(110)를 통하여 대상체(10)에 대한 촬영 영상을 획득할 수 있다. 대상체(10)에 대한 진단을 정확히 하기 위하여는 대상체(10)에 대한 정밀한 촬영 영상 획득이 선행되어야 한다. As illustrated in FIG. 1A, the user may examine the object 10 using the probe 120 of the ultrasound diagnostic apparatus. In other words, the user may acquire the captured image of the object 10 through the display 110 by manipulating the probe 120 and the control panel 130. In order to accurately diagnose the object 10, a precise captured image of the object 10 must be obtained.

사용자의 의료 기기를 다루는 숙련도에 따라 대상체(10)에 대하여 비교적 정밀한 촬영 영상이 획득될 수 있다. 그러나 대상체의 소정의 부위(예컨대, 간, 신장 등)에 대한 촬영 시 숙련된 사용자라 하더라도 사용자의 자세 등 의료 기기의 사용 위치에 따라 조작의 불편함을 겪을 수도 있고, 정밀한 촬영 영상 획득이 어려울 수도 있다. 예를 들어, 대상체의 촬영 부위, 대상체가 위치한 높이, 사용자의 오른손 또는 왼손 사용 선호도, 소정의 검진 항목에서 소정의 버튼의 사용 빈도 등에 따라 의료 기기 활용 용이성은 숙련도에 무관할 수 있다. A relatively precise captured image may be acquired with respect to the object 10 according to a user's skill in handling a medical device. However, even an experienced user may have an uncomfortable operation depending on the position of the medical device such as a user's posture, or may be difficult to obtain a precisely captured image even when an experienced user takes a picture of a predetermined part (eg, liver, kidney, etc.) of an object. have. For example, the ease of use of the medical device may be irrelevant to the skill level according to the photographing part of the object, the height at which the object is located, the user's right hand or left hand use preference, the frequency of use of a predetermined button in a predetermined examination item, and the like.

예를 들어, 넓은 범위에서 프로브(120)를 움직여서 촬영을 해야 할 경우, 사용자의 신체적 특징 또는 행동적 특징에 따라 컨트롤 패널(130)의 조작이 어려울 수 있다. 다시 말해서, 프로브(120)를 상, 하, 좌, 우 등으로 조작함에 따라 사용자의 자세도 변경될 것이고, 컨트롤 패널(130) 등을 원활하게 조작하기 위하여 사용자는 자세를 재차 수정해야 할 수 있다. 또한, 컨트롤 패널(130) 등의 고정적인 높이, 위치 등은 사용자로 하여금 조작의 불편함을 느끼게 할 수도 있다. For example, when photographing by moving the probe 120 in a wide range, it may be difficult to operate the control panel 130 according to the physical or behavioral characteristics of the user. In other words, as the probe 120 is operated up, down, left, right, etc., the posture of the user may be changed, and the user may need to correct the posture again to smoothly operate the control panel 130. . In addition, the fixed height, position, and the like of the control panel 130 may cause the user to feel inconvenience of the operation.

또한, 사용자의 움직임에 따라 사용자가 디스플레이부(110)를 측면에서 바라볼 수 밖에 없게 되는 경우 등과 같이 사용자의 시선(140)이 변경되는 경우, 대상체에 대한 정밀한 영상 획득 또는 판독이 어려울 수 있다. In addition, when the user's gaze 140 is changed, such as when the user is forced to look at the display 110 from the side according to the movement of the user, accurate image acquisition or reading of the object may be difficult.

따라서, 종래에 비하여 사용자가 의료 기기를 사용하는 위치에 따라 의료 기기의 촬영 환경을 자동으로 최적화함으로써, 사용자의 의료 기기 조작의 편의성을 증대시킬 필요가 있다. 또한, 이러한 의료 기기의 촬영 환경의 최적화는, 대상체에 대한 정밀한 촬영이 가능하고, 촬영 시간을 단축시킬 수 있다는 효과가 있다. Accordingly, there is a need to increase the convenience of the operation of the medical device by automatically optimizing the photographing environment of the medical device according to the position where the user uses the medical device as compared with the conventional art. In addition, the optimization of the photographing environment of the medical device has the effect of enabling accurate photographing of the object and shortening the photographing time.

본 발명의 구체적인 실시예를 설명하기 앞서, 본 발명의 일 실시예와 관련된 초음파 진단 장치의 예시적인 구성에 대하여 도 1b 및 도 1c를 참조하여 이하에서 먼저 설명한다. 설명의 편의상 장치의 각각의 구성요소에 대하여 참조표시(r)를 부가하였다. Before describing a specific embodiment of the present invention, an exemplary configuration of an ultrasound diagnostic apparatus according to an embodiment of the present invention will be described below with reference to FIGS. 1B and 1C. For convenience of explanation, reference marks r have been added for each component of the apparatus.

도 1b는 본 발명의 일 실시예와 관련된 초음파 진단 장치(r1000)의 구성을 도시한 블록도이다. 1B is a block diagram illustrating a configuration of an ultrasound diagnostic apparatus r1000 according to an exemplary embodiment of the present invention.

본 발명의 일 실시예와 관련된 초음파 진단 장치(r1000)는 프로브(r20), 초음파 송수신부(r100), 영상 처리부(r200), 통신부(r300), 메모리(r400), 입력 디바이스(r500), 및 제어부(r600)를 포함할 수 있으며, 상술한 여러 구성들은 버스(r700)를 통해 서로 연결될 수 있다. The ultrasound diagnosis apparatus r1000 according to an embodiment of the present invention may include a probe r20, an ultrasound transceiver r100, an image processor r200, a communicator r300, a memory r400, an input device r500, and The controller r600 may be included, and the above-described various components may be connected to each other through the bus r700.

초음파 진단 장치(r1000)는 카트형뿐만 아니라 휴대형으로도 구현될 수 있다. 휴대형 초음파 진단 장치의 예로는 팩스 뷰어(PACS viewer), 스마트 폰(smart phone), 랩탑 컴퓨터, PDA, 태블릿 PC 등이 있을 수 있으나, 이에 제한되지 않는다.The ultrasound diagnosis apparatus r1000 may be implemented in a portable type as well as a cart type. Examples of the portable ultrasound diagnostic apparatus may include, but are not limited to, a PACS viewer, a smart phone, a laptop computer, a PDA, a tablet PC, and the like.

프로브(r20)는, 초음파 송수신부(r100)로부터 인가된 구동 신호(driving signal)에 따라 대상체(r10)로 초음파 신호를 송출하고, 대상체(r10)로부터 반사된 에코 신호를 수신한다. 프로브(r20)는 복수의 트랜스듀서를 포함하며, 복수의 트랜스듀서는 전달되는 전기적 신호에 따라 진동하며 음향 에너지인 초음파를 발생시킨다. 또한, 프로브(r20)는 초음파 진단 장치(r1000)의 본체와 유선 또는 무선으로 연결될 수 있으며, 초음파 진단 장치(r1000)는 구현 형태에 따라 복수 개의 프로브(r20)를 구비할 수 있다.The probe r20 transmits an ultrasound signal to the object r10 according to a driving signal applied from the ultrasound transceiver r100 and receives an echo signal reflected from the object r10. The probe r20 includes a plurality of transducers, and the plurality of transducers vibrate according to the transmitted electrical signal and generate ultrasonic waves which are acoustic energy. In addition, the probe r20 may be connected to the main body of the ultrasound diagnosis apparatus r1000 by wire or wirelessly, and the ultrasound diagnosis apparatus r1000 may include a plurality of probes r20 according to an implementation form.

송신부(r110)는 프로브(r20)에 구동 신호를 공급하며, 펄스 생성부(r112), 송신 지연부(r114), 및 펄서(r116)를 포함한다. The transmitter r110 supplies a driving signal to the probe r20 and includes a pulse generator r112, a transmission delay unit r114, and a pulser r116.

펄스 생성부(r112)는 소정의 펄스 반복 주파수(PRF, Pulse Repetition Frequency)에 따른 송신 초음파를 형성하기 위한 펄스(pulse)를 생성하며, 송신 지연부(r114)는 송신 지향성(transmission directionality)을 결정하기 위한 지연 시간(delay time)을 펄스에 적용한다. 지연 시간이 적용된 각각의 펄스는, 프로브(r20)에 포함된 복수의 압전 진동자(piezoelectric vibrators)에 각각 대응된다.The pulse generator r112 generates a pulse for forming a transmission ultrasonic wave according to a predetermined pulse repetition frequency (PRF), and the transmission delay unit r114 determines the transmission directionality. Apply a delay time to the pulse. Each pulse to which the delay time is applied corresponds to a plurality of piezoelectric vibrators included in the probe r20.

펄서(r116)는, 지연 시간이 적용된 각각의 펄스에 대응하는 타이밍(timing)으로, 프로브(r20)에 구동 신호(또는, 구동 펄스(driving pulse))를 인가한다. The pulser r116 applies a driving signal (or a driving pulse) to the probe r20 at a timing corresponding to each pulse to which a delay time is applied.

수신부(r120)는 프로브(r20)로부터 수신되는 에코 신호를 처리하여 초음파 데이터를 생성하며, 증폭기(r122), ADC(아날로그 디지털 컨버터, Analog Digital converter)(r124), 수신 지연부(r126), 및 합산부(r128)를 포함할 수 있다. The receiver r120 processes the echo signal received from the probe r20 to generate ultrasonic data, an amplifier r122, an ADC (analog digital converter) r124, a reception delay unit r126, and The adder r128 may be included.

증폭기(r122)는 에코 신호를 각 채널(channel) 마다 증폭하며, ADC(r124)는 증폭된 에코 신호를 아날로그-디지털 변환한다. The amplifier r122 amplifies the echo signal for each channel, and the ADC r124 converts the amplified echo signal to analog-digital conversion.

수신 지연부(r126)는 수신 지향성(reception directionality)을 결정하기 위한 지연 시간을 디지털 변환된 에코 신호에 적용하고, 합산부(r128)는 수신 지연부(r166)에 의해 처리된 에코 신호를 합산함으로써 초음파 데이터를 생성한다.The reception delay unit r126 applies a delay time for determining reception directionality to the digitally converted echo signal, and the adding unit r128 adds the echo signals processed by the reception delay unit r166. Generate ultrasound data.

영상 처리부(r200)는 초음파 송수신부(r100)에서 생성된 초음파 데이터에 대한 주사 변환(scan conversion) 과정을 통해 초음파 영상을 생성하고 디스플레이한다. The image processor r200 generates and displays an ultrasound image through a scan conversion process on the ultrasound data generated by the ultrasound transceiver r100.

한편, 초음파 영상은 A 모드(amplitude mode), B 모드(brightness mode) 및 M 모드(motion mode)에 따라 대상체를 스캔한 그레이 스케일(gray scale)의 초음파 영상뿐만 아니라, 대상체의 움직임을 도플러 영상으로 나타낼 수 있다. 도플러 영상은, 혈액의 흐름을 나타내는 혈류 도플러 영상 (또는, 컬러 도플러 영상으로도 불림), 조직의 움직임을 나타내는 티슈 도플러 영상, 및 대상체의 이동 속도를 파형으로 표시하는 스펙트럴 도플러 영상을 포함할 수 있다. Meanwhile, the ultrasound image is a gray scale ultrasound image of scanning the object according to the A mode, B mode, and M mode, as well as the Doppler image. Can be represented. The Doppler image may include a blood flow Doppler image (or also called a color Doppler image) representing blood flow, a tissue Doppler image representing a tissue movement, and a spectral Doppler image displaying a moving speed of an object as a waveform. have.

B 모드 처리부(r212)는, 초음파 데이터로부터 B 모드 성분을 추출하여 처리한다. The B mode processing unit r212 extracts and processes the B mode component from the ultrasonic data.

영상 생성부(r220)는, B 모드 처리부(r212)에 의해 추출된 B 모드 성분에 기초하여 신호의 강도가 휘도(brightness)로 표현되는 초음파 영상을 생성할 수 있다. The image generator r220 may generate an ultrasound image in which the intensity of the signal is expressed as brightness based on the B mode component extracted by the B mode processor r212.

마찬가지로, 도플러 처리부(r214)는, 초음파 데이터로부터 도플러 성분을 추출하고, 영상 생성부(r220)는 추출된 도플러 성분에 기초하여 대상체의 움직임을 컬러 또는 파형으로 표현하는 도플러 영상을 생성할 수 있다.Similarly, the Doppler processor r214 may extract the Doppler component from the ultrasound data, and the image generator r220 may generate a Doppler image representing the movement of the object in color or waveform based on the extracted Doppler component.

일 실시 예에 의한 영상 생성부(r220)는, 볼륨 데이터에 대한 볼륨 렌더링 과정을 거쳐 3차원 초음파 영상을 생성할 수 있으며, 압력에 따른 대상체(r10)의 변형 정도를 영상화한 탄성 영상 또한 생성할 수도 있다. 나아가, 영상 생성부(r220)는 초음파 영상 상에 여러 가지 부가 정보를 텍스트, 그래픽으로 표현할 수도 있다. 한편, 생성된 초음파 영상은 메모리(r400)에 저장될 수 있다.According to an embodiment, the image generator r220 may generate a 3D ultrasound image through a volume rendering process for volume data, and may also generate an elastic image that images the deformation degree of the object r10 according to pressure. It may be. Furthermore, the image generator r220 may express various additional information in text or graphics on the ultrasound image. The generated ultrasound image may be stored in the memory r400.

디스플레이부(r230)는 생성된 초음파 영상을 표시 출력한다. 디스플레이부(r230)는, 초음파 영상뿐 아니라 초음파 진단 장치(r1000)에서 처리되는 다양한 정보를 GUI(Graphic User Interface)를 통해 화면 상에 표시 출력할 수 있다. 한편, 초음파 진단 장치(r1000)는 구현 형태에 따라 둘 이상의 디스플레이부(r230)를 포함할 수 있다.The display unit r230 displays and outputs the generated ultrasound image. The display unit r230 may display and output not only an ultrasound image but also various information processed by the ultrasound diagnosis apparatus r1000 on a screen through a graphical user interface (GUI). Meanwhile, the ultrasound diagnosis apparatus r1000 may include two or more display units r230 according to an implementation form.

통신부(r300)는, 유선 또는 무선으로 네트워크(r30)와 연결되어 외부 디바이스나 서버와 통신한다. 통신부(r300)는 의료 영상 정보 시스템(PACS, Picture Archiving and Communication System)을 통해 연결된 병원 서버나 병원 내의 다른 의료 장치와 데이터를 주고 받을 수 있다. 또한, 통신부(r300)는 의료용 디지털 영상 및 통신(DICOM, Digital Imaging and Communications in Medicine) 표준에 따라 데이터 통신할 수 있다.The communication unit r300 is connected to the network r30 by wire or wirelessly to communicate with an external device or a server. The communication unit r300 may exchange data with a hospital server or another medical device in the hospital connected through a picture archiving and communication system (PACS). In addition, the communication unit r300 may perform data communication according to a digital imaging and communications in medicine (DICOM) standard.

통신부(r300)는 네트워크(r30)를 통해 대상체의 초음파 영상, 초음파 데이터, 도플러 데이터 등 대상체의 진단과 관련된 데이터를 송수신할 수 있으며, CT, MRI, X-ray 등 다른 의료 장치에서 촬영한 의료 영상 또한 송수신할 수 있다. 나아가, 통신부(r300)는 서버로부터 환자의 진단 이력이나 치료 일정 등에 관한 정보를 수신하여 대상체의 진단에 활용할 수도 있다. 나아가, 통신부(r300)는 병원 내의 서버나 의료 장치뿐만 아니라, 의사나 환자의 휴대용 단말과 데이터 통신을 수행할 수도 있다.The communication unit r300 may transmit and receive data related to the diagnosis of the object, such as an ultrasound image, ultrasound data, and Doppler data of the object, through a network r30, and may be a medical image taken by another medical device such as CT, MRI, or X-ray. It can also send and receive. In addition, the communication unit r300 may receive information on a diagnosis history, a treatment schedule, and the like of the patient from the server and use the same to diagnose the object. In addition, the communication unit r300 may perform data communication with a portable terminal of a doctor or a patient, as well as a server or a medical device in a hospital.

통신부(r300)는 유선 또는 무선으로 네트워크(r30)와 연결되어 서버(r32), 의료 장치(r34), 또는 휴대용 단말(r36)과 데이터를 주고 받을 수 있다. 통신부(r300)는 외부 디바이스와 통신을 가능하게 하는 하나 이상의 구성 요소를 포함할 수 있으며, 예를 들어 근거리 통신 모듈(r310), 유선 통신 모듈(r320), 및 이동 통신 모듈(r330)을 포함할 수 있다.The communication unit r300 may be connected to the network r30 by wire or wirelessly to exchange data with the server r32, the medical device r34, or the portable terminal r36. The communication unit r300 may include one or more components that enable communication with an external device, and may include, for example, a short range communication module r310, a wired communication module r320, and a mobile communication module r330. Can be.

근거리 통신 모듈(r310)은 소정 거리 이내의 근거리 통신을 위한 모듈을 의미할 수 있다. 본 발명의 일 실시 예에 따른 근거리 통신 기술에는 무선 랜(Wireless LAN), 와이파이(Wi-Fi), 블루투스, 지그비(zigbee), WFD(Wi-Fi Direct), UWB(ultra wideband), 적외선 통신(IrDA, infrared Data Association), BLE (Bluetooth Low Energy), NFC(Near Field Communication) 등이 있을 수 있으나, 이에 한정되는 것은 아니다. The short range communication module r310 may mean a module for short range communication within a predetermined distance. Local area communication technology according to an embodiment of the present invention includes a wireless LAN, Wi-Fi, Bluetooth, Zigbee, WFD (Wi-Fi Direct), UWB (ultra wideband), infrared communication ( IrDA (Infrared Data Association), Bluetooth Low Energy (BLE), Near Field Communication (NFC), and the like, but are not limited thereto.

유선 통신 모듈(r320)은 전기적 신호 또는 광 신호를 이용한 통신을 위한 모듈을 의미하며, 일 실시 예에 의한 유선 통신 기술에는 페어 케이블(pair cable), 동축 케이블, 광섬유 케이블, 이더넷(ethernet) 케이블 등이 포함될 수 있다. The wired communication module r320 refers to a module for communication using an electrical signal or an optical signal. The wired communication technology according to an embodiment includes a pair cable, a coaxial cable, an optical fiber cable, an Ethernet cable, and the like. This may be included.

이동 통신 모듈(r330)은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. The mobile communication module r330 transmits and receives a wireless signal with at least one of a base station, an external terminal, and a server on a mobile communication network. Here, the wireless signal may include various types of data according to transmission and reception of a voice call signal, a video call call signal, or a text / multimedia message.

메모리(r400)는 초음파 진단 장치(r1000)에서 처리되는 여러 가지 정보를 저장한다. 예를 들어, 메모리(r400)는 입/출력되는 초음파 데이터, 초음파 영상 등 대상체의 진단에 관련된 의료 데이터를 저장할 수 있고, 초음파 진단 장치(r1000) 내에서 수행되는 알고리즘이나 프로그램을 저장할 수도 있다. The memory r400 stores various types of information processed by the ultrasound diagnosis apparatus r1000. For example, the memory r400 may store medical data related to diagnosis of an object, such as input / output ultrasound data and an ultrasound image, or may store an algorithm or a program performed in the ultrasound diagnosis apparatus r1000.

메모리(r400)는 플래시 메모리, 하드디스크, EEPROM 등 여러 가지 종류의 저장매체로 구현될 수 있다. 또한, 초음파 진단 장치(r1000)는 웹 상에서 메모리(r400)의 저장 기능을 수행하는 웹 스토리지(web storage) 또는 클라우드 서버를 운영할 수도 있다.The memory r400 may be implemented with various types of storage media such as a flash memory, a hard disk, and an EEPROM. Also, the ultrasound diagnosis apparatus r1000 may operate a web storage or a cloud server that performs a storage function of the memory r400 on the web.

입력 디바이스(r500)는, 사용자로부터 초음파 진단 장치(r1000)를 제어하기 위한 데이터를 입력받는 수단을 의미한다. 입력 디바이스(r500)는 키 패드, 마우스, 터치 패널, 터치 스크린, 트랙볼, 조그 스위치 등 하드웨어 구성을 포함할 수 있으나 이에 한정되는 것은 아니며, 심전도 측정 모듈, 호흡 측정 모듈, 음성 인식 센서, 제스쳐 인식 센서, 지문 인식 센서, 홍채 인식 센서, 깊이 센서, 거리 센서 등 다양한 입력 수단을 더 포함할 수 있다. The input device r500 means a means for receiving data for controlling the ultrasound diagnostic apparatus r1000 from a user. The input device r500 may include, but is not limited to, a hardware configuration such as a keypad, a mouse, a touch panel, a touch screen, a trackball, a jog switch, and an ECG measurement module, a respiration measurement module, a voice recognition sensor, and a gesture recognition sensor. The apparatus may further include various input means such as a fingerprint sensor, an iris sensor, a depth sensor, and a distance sensor.

제어부(r600)는 초음파 진단 장치(r1000)의 동작을 전반적으로 제어할 수 있다. 즉, 제어부(r600)는 도 1에 도시된 프로브(r20), 초음파 송수신부(r100), 영상 처리부(r200), 통신부(r300), 메모리(r400), 및 입력 디바이스(r500) 간의 동작을 제어할 수 있다. The controller r600 may control the overall operation of the ultrasound diagnosis apparatus r1000. That is, the controller r600 controls operations between the probe r20, the ultrasonic transceiver r100, the image processor r200, the communicator r300, the memory r400, and the input device r500 illustrated in FIG. 1. can do.

프로브(r20), 초음파 송수신부(r100), 영상 처리부(r200), 통신부(r300), 메모리(r400), 입력 디바이스(r500) 및 제어부(r600) 중 일부 또는 전부는 소프트웨어 모듈에 의해 동작할 수 있으나 이에 제한되지 않으며, 상술한 구성 중 일부가 하드웨어에 의해 동작할 수도 있다. Some or all of the probe r20, the ultrasonic transceiver r100, the image processor r200, the communicator r300, the memory r400, the input device r500 and the controller r600 may be operated by a software module. However, the present invention is not limited thereto, and some of the above-described configurations may be operated by hardware.

또한, 초음파 송수신부(r100), 영상 처리부(r200), 및 통신부(r300) 중 적어도 일부는 제어부(r600)에 포함될 수 있으나, 이러한 구현 형태에 제한되지는 않는다.In addition, at least some of the ultrasound transceiver r100, the image processor r200, and the communicator r300 may be included in the controller r600, but are not limited thereto.

도 1c는 본 발명의 일 실시예와 관련된 무선 프로브(r2000)의 구성을 도시한 블록도이다.1C is a block diagram illustrating a configuration of a wireless probe r2000 according to an embodiment of the present invention.

무선 프로브(r2000)는, 도 1b에서 설명한 바와 같이 복수의 트랜스듀서를 포함하며, 구현 형태에 따라 도 1b의 초음파 송수신부(r100)의 구성을 일부 또는 전부 포함할 수 있다.The wireless probe r2000 may include a plurality of transducers as described with reference to FIG. 1B, and may include some or all of the configuration of the ultrasonic transceiver r100 of FIG. 1B according to an implementation form.

도 1c에 도시된 실시 예에 의한 무선 프로브(r2000)는, 송신부(r2100), 트랜스듀서(r2200), 및 수신부(r2300)를 포함하며, 각각의 구성에 대해서는 1에서 설명한 바 있으므로 자세한 설명은 생략한다. 한편, 무선 프로브(r2000)는 그 구현 형태에 따라 수신 지연부(r2330)와 합산부(r2340)를 선택적으로 포함할 수도 있다. The wireless probe r2000 according to the embodiment illustrated in FIG. 1C includes a transmitter r2100, a transducer r2200, and a receiver r2300, and the detailed descriptions thereof are omitted since they have been described in FIG. 1. do. Meanwhile, the wireless probe r2000 may optionally include a reception delay unit r2330 and an adder r2340 according to its implementation.

무선 프로브(r2000)는, 대상체(r10)로 초음파 신호를 송신하고 에코 신호를 수신하며, 초음파 데이터를 생성하여 도 1의 초음파 진단 장치(r1000)로 무선 전송할 수 있다.The wireless probe r2000 may transmit an ultrasound signal to the object r10, receive an echo signal, generate ultrasound data, and wirelessly transmit the ultrasound signal to the ultrasound diagnosis apparatus r1000 of FIG. 1.

도 2는 본 발명의 일 실시예에 따른 의료 기기를 통한 대상체의 검진 시 사용되는 사용자 인터페이스(UI; User Interface)를 사용자의 모션 정보에 기초하여 변경시켜 제공하기 위한 방법의 개략도이다. FIG. 2 is a schematic diagram of a method for changing and providing a user interface (UI) used for examination of an object through a medical device based on user motion information according to an embodiment of the present invention.

도 2a에서와 같이, 프로브(1200) 연결선의 움직임 방향을 감지하여 사용자가 왼손으로 프로브(1200)를 사용하는지 또는 오른손으로 프로브(1200)를 사용하는지를 파악할 수 있다. 예를 들어, 사용자가 왼손잡이라면, 왼손으로 프로브(1200)를 사용할 수 있다. 마찬가지로, 사용자가 오른손잡이라면, 오른손으로 프로브(1200)를 사용할 수 있다. As shown in FIG. 2A, the direction of movement of the probe 1200 connection line may be sensed to determine whether the user uses the probe 1200 with his left hand or the probe 1200 with his right hand. For example, if the user is left-handed, the probe 1200 may be used with the left hand. Similarly, if the user is right handed, the probe 1200 may be used with the right hand.

이와 같이 사용자의 프로브(1200) 사용 양상에 따라, 컨트롤 패널 상에서 사용자 인터페이스(UI) 등이 각각 다르게 제공될 수 있다. As such, the user interface (UI), etc. may be differently provided on the control panel according to the user's use of the probe 1200.

예를 들어, 도 2b에 도시된 바와 같이, 사용자가 오른손 잡이인 경우, 사용자는 대상체를 자신의 오른편에 위치시키고, 오른손을 이용하여 프로브를 조작하는 것이 편리할 수 있다. 그러므로, 사용자가 오른손 잡이인 경우, 컨트롤 패널 상에 포함되어 촬영 시 사용될 버튼, 트랙볼 등이 오른손용 UI 패턴(131)으로써 제공될 필요가 있다. For example, as shown in FIG. 2B, when the user is right-handed, it may be convenient for the user to position the object on his right side and manipulate the probe using his right hand. Therefore, when the user is right-handed, it is necessary to provide a button, a trackball, and the like, which are included on the control panel and used for shooting, as the right-hand UI pattern 131.

또한, 사용자가 왼손 잡이인 경우, 사용자는 대상체를 자신의 왼편에 위치시키고, 왼손을 이용하여 프로브를 조작하는 것이 편리할 수 있다. 다시 말해서, 사용자가 왼손 잡이인 경우, 컨트롤 패널 상에서는 사용자에게 왼손용 UI 패턴(133)이 제공될 수 있다. In addition, when the user is left-handed, it may be convenient for the user to position the object on his left side and manipulate the probe using his left hand. In other words, when the user is left-handed, the left-hand UI pattern 133 may be provided to the user on the control panel.

또한, 컨트롤 패널 상의 이러한 오른손용 UI 패턴(131)과 왼손용 UI 패턴(133)은 프로브(1200)의 현재의 위치, 위치 변경 등을 포함하는 사용자의 모션 정보에 기초하여 전환될 수 있다. In addition, the right-hand UI pattern 131 and the left-hand UI pattern 133 on the control panel may be switched based on the user's motion information including the current position, the position change, and the like of the probe 1200.

도 3은 본 발명의 일 실시예에 따른 사용자의 모션 정보에 기초하여 사용자 인터페이스(UI; User Interface)를 변경시켜 제공하기 위한 방법을 나타낸 흐름도이다.3 is a flowchart illustrating a method for changing and providing a user interface (UI) based on motion information of a user according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 의료 기기를 통한 대상체의 검진 시 사용되는 사용자 인터페이스(UI; User Interface)를 사용자의 모션 정보에 기초하여 변경시켜 제공하기 위한 방법은, 사용자의 모션 정보를 획득하는 단계(S100), 획득된 사용자의 모션 정보를 이용하여 UI를 변경하는 단계(S200) 및 변경된 UI를 디스플레이하는 단계(S300)를 포함할 수 있다. According to an embodiment of the present invention, a method for changing and providing a user interface (UI) used for examination of an object through a medical device based on user motion information may include obtaining motion information of the user. In operation S100, the method may include changing the UI using the obtained motion information of the user (S200) and displaying the changed UI (S300).

본 발명의 일 실시예에 따라 사용자의 모션 정보를 획득할 수 있다(S100). According to an embodiment of the present invention, motion information of the user may be obtained (S100).

획득된 모션 정보를 이용하여 촬영에 사용될 버튼, 트랙볼 등을 나타내는 사용자 인터페이스(UI) 등을 변경할 수 있다(S200). 이러한 사용자 인터페이스(UI) 등의 변경은 사용자가 의료 기기를 용이하게 조작할 수 있도록 의료 기기 촬영 환경을 최적화하는 것을 포함할 수 있다. The user interface (UI) indicating a button, trackball, etc. to be used for photographing may be changed using the obtained motion information (S200). The change of the user interface (UI) or the like may include optimizing the medical device photographing environment so that a user can easily operate the medical device.

사용자 인터페이스(UI) 등의 변경은, 전술한 바와 같이, 예를 들어, 사용자의 왼손 또는 오른손 선호도에 따라 UI의 배치를 달리하거나, 촬영에 사용되는 버튼의 사용 빈도에 따라 UI의 배치, 크기 등을 조절하여 제공할 수 있다. As described above, the UI may be changed according to the user's left or right hand preference, or the UI may be arranged or sized according to the frequency of use of the button used for shooting. It can be provided by adjusting.

본 발명의 일 실시예에 따라 변경된 UI는 디스플레이부 등을 통하여 사용자에게 제공될 수 있다(S300). According to an embodiment of the present invention, the changed UI may be provided to the user through a display unit (S300).

본 발명의 일 실시예에 따른 사용자의 모션 정보는 프로브의 위치, 사용자의 생체 정보 등으로부터 획득될 수 있다. 이와 관련하여서는 도 4 및 도 5와 관련하여 후술한다. Motion information of the user according to an embodiment of the present invention may be obtained from the position of the probe, the biometric information of the user. This will be described later with reference to FIGS. 4 and 5.

도 4는 본 발명의 일 실시예에 따른 사용자의 모션 정보 획득의 일 예를 도시한다. 4 illustrates an example of obtaining motion information of a user according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 사용자의 모션 정보는 현재의 프로브(1200)의 위치 정보에 기초하여 획득될 수 있다. Motion information of the user according to an embodiment of the present invention may be obtained based on the current position information of the probe 1200.

본 발명의 일 실시예에 따른 현재 프로브(1200)의 위치 정보는 프로브(1200)의 현재의 지시방향, 소정의 기준 지점에 대한 경사각 및 높이값 중 적어도 하나를 포함할 수 있다. The location information of the current probe 1200 according to an embodiment of the present invention may include at least one of a current indicating direction of the probe 1200, an inclination angle with respect to a predetermined reference point, and a height value.

예를 들어, 현재의 프로브(1200)의 위치 정보는 프로브(1200)의 지시 방향에 따라 획득될 수 있다. 예컨대, 프로브(1200)에 포함(예컨대, 초음파 기기와의 연결을 위한 프로브의 단부에 포함 등)되거나 또는 프로브(1200)가 연결될 초음파 기기에 매립(embedded)된 소정의 센서(121) 등을 통하여 프로브(1200)의 현재의 지시 방향 정보가 획득될 수 있다.For example, position information of the current probe 1200 may be obtained according to the direction in which the probe 1200 is directed. For example, through a predetermined sensor 121 or the like included in the probe 1200 (eg, included in the end of the probe for connection with the ultrasonic device) or embedded in the ultrasonic device to which the probe 1200 is to be connected. Current indication direction information of the probe 1200 may be obtained.

이러한 소정의 센서(121)는, 기준선(예컨대, 센서(121)의 중심선(ML))으로부터 프로브(1200) 연결선이 어느 방향을 지향하는 지에 따라 프로브(1200)의 지시 방향을 판단하도록 구성될 수 있다. The predetermined sensor 121 may be configured to determine the direction in which the probe 1200 is directed according to which direction the connection line of the probe 1200 is directed from the reference line (eg, the center line ML of the sensor 121). have.

예컨대, 토글 스위치 원리와 같은 방식의 센서(121) 등을 통하여 프로브(1200)의 지시 방향을 결정할 수 있다. 도 4a에 도시된 바와 같이, 프로브(1200)가 중심선(ML)으로부터 오른쪽으로 편향되어 있다면, 현재 프로브(1200)의 위치 정보는 디스플레이부(2300)과 컨트롤 패널(2500)을 포함하는 초음파 기기의 오른편을 지시하고 있다고 결정될 수 있다. 다시 말해서, 프로브(1200)는 초음파 기기의 오른편에 위치한다는 정보가 획득될 수 있다. For example, the direction of indication of the probe 1200 may be determined through the sensor 121 or the like in the same manner as the toggle switch principle. As shown in FIG. 4A, if the probe 1200 is deflected to the right from the center line ML, the current position information of the probe 1200 may include the display unit 2300 and the control panel 2500. It may be determined that you are pointing to the right. In other words, information that the probe 1200 is located on the right side of the ultrasound apparatus may be obtained.

또한, 도 4a에 도시된 바와 같이, 프로브(1200)가 중심선(ML)으로부터 왼쪽으로 편향되어 있다면, 현재 프로브(1200)의 위치 정보는 디스플레이부(2300)과 컨트롤 패널(2500)을 포함하는 초음파 기기의 왼편을 지시하고 있다고 결정될 수 있다. 다시 말해서, 프로브(1200)는 초음파 기기의 왼편에 위치한다는 정보가 획득될 수 있다. In addition, as shown in FIG. 4A, if the probe 1200 is deflected to the left from the center line ML, the current position information of the probe 1200 includes an ultrasonic wave including the display unit 2300 and the control panel 2500. It may be determined that the left side of the device is pointing. In other words, information that the probe 1200 is located on the left side of the ultrasound apparatus may be obtained.

또한, 본 발명의 일 실시예에 따른 프로브(1200)가 무선인 경우, 소정의 센서(121)는, 무선 통신을 통하여 무선 프로브의 GPS(Global Positioning System) 좌표를 센싱하도록 구성될 수 있다.In addition, when the probe 1200 according to an embodiment of the present invention is wireless, the predetermined sensor 121 may be configured to sense GPS (Global Positioning System) coordinates of the wireless probe through wireless communication.

또한, 본 발명의 일 실시예에 따라 현재 프로브(1200)의 위치 정보는 소정의 기준 지점에 대한 경사각 및 높이값 중 적어도 하나를 포함할 수 있다.In addition, according to an embodiment of the present invention, the position information of the current probe 1200 may include at least one of an inclination angle and a height value with respect to a predetermined reference point.

도 4b에 도시된 바와 같이, 프로브(1200)는 기울기 정보 또는 높이 정보를 획득하기 위한 센서(123) 등을 포함할 수 있다. 이러한 센서(123)는, 자이로 센서, 높이 센서 등을 포함할 수 있다. As shown in FIG. 4B, the probe 1200 may include a sensor 123 or the like for obtaining tilt information or height information. The sensor 123 may include a gyro sensor, a height sensor, or the like.

예를 들어, 현재 프로브(1200)의 위치 정보는 소정의 기준 지점에 대한 경사각 정보로서 획득될 수 있다. 소정의 기준 지점은 의료 기기가 위치한 지면, 환자 테이블 또는 프로브(1200)의 최초 위치(예컨대, 초음파 기기 상에 부착되어 있는 상태의 위치 등) 등을 포함할 수 있다. For example, position information of the current probe 1200 may be obtained as tilt angle information with respect to a predetermined reference point. The predetermined reference point may include the ground on which the medical device is located, the initial position of the patient table or probe 1200 (eg, the position of the state attached to the ultrasound device, etc.).

이러한 경사각 정보에 상응하게 사용자의 현재 모션이 추정될 수 있다. 예를 들면, 경사각의 변화 폭이 커질수록 프로브(1200)의 움직임 정도가 점점 증가한다고 추정될 수 있고, 추정된 프로브(1200)의 움직임에 기초하여 프로브(1200)를 조작중인 사용자의 움직임 각도 범위 등에 대한 모션 정보가 획득될 수 있다. The current motion of the user may be estimated according to this tilt angle information. For example, it may be estimated that the degree of movement of the probe 1200 gradually increases as the change width of the inclination angle increases, and the movement angle range of the user who is operating the probe 1200 based on the estimated movement of the probe 1200. Motion information for the back may be obtained.

예를 들면, 지면(또는 환자 테이블)과 프로브(1200)는 최대 90도의 각도(예컨대, 프로브(1200)가 지면에 수직하게 위치하는 경우)를 이룰 수 있다. 사용자는 촬영이 진행됨에 따라 프로브(1200)를 소정의 방향 및 각도로 이동시킬 수 있다. 프로브(1200)와 지면이 이루는 각도는 소정의 범위(예컨대, 0도 내지 90도) 내에 포함될 수 있다. 예를 들어, 사용자가 대상체의 간 초음파를 촬영하고자 할 경우, 프로브(1200)는 사용자 조작에 따라 지면과 평행(예컨대, 프로브(1200)와 지면은 0도의 각을 이룸)하거나 수직(예컨대, 프로브(1200)와 지면이 90도 각을 이룸)을 이루는 범위 내에서 이동될 수 있다. For example, the ground (or patient table) and the probe 1200 may form an angle of up to 90 degrees (eg, when the probe 1200 is positioned perpendicular to the ground). As the photographing proceeds, the user may move the probe 1200 in a predetermined direction and angle. An angle formed between the probe 1200 and the ground may be included within a predetermined range (eg, 0 degrees to 90 degrees). For example, when the user wants to photograph the ultrasound of the liver of the object, the probe 1200 may be parallel to the ground (eg, the probe 1200 and the ground form an angle of 0 degrees) or vertical (eg, the probe) according to a user's manipulation. 1200 and the ground at an angle of 90 degrees).

다시 말해서, 프로브(1200)가 지면과 평행한 상태에서 프로브(1200)와 지면이 수직인 상태로 프로브(1200)를 이동시킬 경우, 경사각의 변화 폭은 최대가 될 수 있고, 프로브(1200)의 움직임 정도도 최대라고 추정될 수 있으며, 이러한 추정된 프로브(1200)의 움직임에 기초하여 프로브(1200)를 조작중인 사용자의 움직임 정도도 최대라는 모션 정보가 획득될 수 있다.In other words, when the probe 1200 is moved in a state where the probe 1200 is parallel to the ground and the probe 1200 is perpendicular to the ground, the change width of the inclination angle may be maximum, and the width of the probe 1200 may be increased. The degree of movement may also be estimated to be maximum, and motion information indicating that the degree of movement of the user who is operating the probe 1200 is also maximum based on the estimated movement of the probe 1200.

또한, 이와 유사하게 초음파 기기 상에 프로브(1200)가 부착되어 있던 초기 상태의 위치로부터의 경사각이 현재 프로브(1200)의 위치 정보로서 획득될 수 있다. Similarly, the inclination angle from the position of the initial state where the probe 1200 is attached on the ultrasound device may be obtained as the position information of the current probe 1200.

예를 들어, 본 발명의 일 실시예에 따른 센서(123)는, 센서(123)를 기준으로 오른쪽 또는 동편으로의 방위는 양의 각도로 표현되고, 왼쪽 또는 서편으로의 방위는 음의 각도로 표현되도록 구성될 수 있지만 반드시 이에 제한되는 것은 아니다. For example, in the sensor 123 according to an embodiment of the present invention, the direction toward the right or the east side of the sensor 123 is represented by a positive angle, and the direction toward the left or the west side is represented by a negative angle. It may be configured to be represented, but is not necessarily limited thereto.

이에 따라, 프로브(1200)가 최초 위치로부터 현재 오른쪽으로 편향되어 존재하는 경우, 센서(123) 상에서 양의 경사각이 센싱될 수 있고, 현재 프로브(1200)는 센서(123)의 우측에 센싱된 경사각도의 위치에서 존재한다는 정보가 획득될 수 있다. 또한, 프로브(1200)가 최초 위치로부터 현재 왼쪽으로 편향되어 존재하는 경우, 센서(123) 상에서 음의 경사각이 센싱될 수 있고, 현재 프로브(1200)는 센서(123)의 좌측에 센싱된 경사각도의 위치에 존재한다는 정보가 획득될 수 있다. Accordingly, when the probe 1200 is presently biased to the right from the initial position, a positive inclination angle may be sensed on the sensor 123, and the current probe 1200 may be sensed on the right side of the sensor 123. Information that it exists at the location of the figure may be obtained. In addition, when the probe 1200 is presently biased to the left from the initial position, a negative tilt angle may be sensed on the sensor 123, and the current probe 1200 may be sensed on the left side of the sensor 123. Information may be obtained that exists at the position of.

또한, 현재 프로브(1200)의 위치 정보는 소정의 기준 지점에 대한 높이값 정보로서 획득될 수 있다. 소정의 기준 지점은 지면, 환자 테이블 또는 프로브(1200)의 최초 위치(예컨대, 초음파 기기 상에 부착된 상태의 위치 등) 등을 포함할 수 있다. 이러한 경우, 소정의 센서(123)는, 높이 센서일 수 있다. In addition, position information of the current probe 1200 may be obtained as height value information for a predetermined reference point. The predetermined reference point may include the ground, the patient table or the initial position of the probe 1200 (eg, the position attached to the ultrasound device, etc.). In this case, the predetermined sensor 123 may be a height sensor.

예를 들면, 센서(123)는, 현재 프로브(1200)가 지면으로부터 약 120cm의 높이에 위치하고 있다는 정보를 센싱할 수 있다. 또한, 센서(123)는, 프로브(1200)가 예컨대, 초음파 기기 상에 부착된 초기 상태에 비하여 현재 약 5cm정도 낮게 위치하고 있음을 센싱할 수 있다. 다시 말해서, 이러한 소정의 기준 지점에 대한 높이값 정보는, 현재 프로브(1200)의 위치 정보로서 획득될 수 있다. For example, the sensor 123 may sense information that the current probe 1200 is located at a height of about 120 cm from the ground. In addition, the sensor 123 may sense that the probe 1200 is currently positioned about 5 cm lower than the initial state attached to, for example, the ultrasound apparatus. In other words, the height value information for the predetermined reference point may be obtained as position information of the current probe 1200.

본 발명의 일 실시예에 따른 프로브(1200)의 높이값 정보(예컨대, 높이의 변화 정도 등)에 기초하여 프로브(1200)를 조작중인 사용자의 자세의 높낮이 변화 정도를 나타내는 모션 정보가 획득될 수 있다.Based on the height value information (eg, the degree of change in height, etc.) of the probe 1200 according to an embodiment of the present invention, motion information indicating a degree of change in height of the posture of the user who is operating the probe 1200 may be obtained. have.

도 5는 본 발명의 다른 실시예에 따라 획득되는 사용자의 모션 정보의 예를 도시한다.5 illustrates an example of motion information of a user obtained according to another embodiment of the present invention.

본 발명의 일 실시예에 따른 사용자 모션 정보는, 사용자의 지문 정보, 사용자의 홍채 정보, 사용자의 안면 정보 중 적어도 하나를 포함하는 생체 정보에 기초하여 획득될 수 있다. The user motion information according to an embodiment of the present invention may be obtained based on biometric information including at least one of fingerprint information of the user, iris information of the user, and facial information of the user.

본 발명의 일 실시예에 따른 사용자 모션 정보는 사용자의 지문 정보에 기초하여 획득될 수 있다. User motion information according to an embodiment of the present invention may be obtained based on fingerprint information of the user.

예를 들어, 프로브(1200)에 포함된 센서(125)를 통하여 획득된 사용자의 지문 정보(11)에 기초하여, 사용자가 왼손 또는 오른손 중 현재 어느 손으로 프로브(1200)를 파지하였는지에 대하여 결정할 수 있다. For example, based on the fingerprint information 11 of the user acquired through the sensor 125 included in the probe 1200, the user may determine whether the user has gripped the probe 1200 with his left or right hand. have.

다시 말해서, 프로브(1200)에 포함된 센서(125)를 통하여 획득한 사용자의 지문 정보(11)로부터 사용자가 프로브(1200)를 왼손으로 사용하는지 또는 오른손으로 사용하는지에 대한 모션 정보를 획득할 수 있다. In other words, motion information about whether the user uses the probe 1200 for the left hand or the right hand may be obtained from the fingerprint information 11 of the user acquired through the sensor 125 included in the probe 1200. have.

예컨대, 획득된 사용자의 지문 정보(11)가 사용자의 오른손 엄지 또는 검지에 대한 지문이라면, 사용자는 현재 프로브(1200)를 오른손으로 파지하고 있는 것으로 결정되고, 사용자의 오른손으로 프로브(1200) 사용이라는 모션 정보가 획득될 수 있다. For example, if the acquired fingerprint information 11 of the user is the fingerprint of the user's right hand thumb or index finger, it is determined that the user is currently holding the probe 1200 with his right hand, and the user's right hand uses the probe 1200. Motion information can be obtained.

또한, 획득된 사용자의 지문 정보(11)가 사용자의 왼손 엄지 또는 검지에 대한 지문이라면, 사용자는 현재 프로브(1200)를 왼손으로 파지하고 있는 것으로 결정되고, 사용자의 왼손으로 프로브(1200) 사용이라는 모션 정보가 획득될 수 있다. In addition, if the acquired fingerprint information 11 of the user is the fingerprint of the thumb or the index finger of the user, it is determined that the user is holding the probe 1200 with his left hand, and the user may use the probe 1200 with his left hand. Motion information can be obtained.

또한, 본 발명의 일 실시예에 따르면, 프로브(1200)에 포함된 센서(125)를 통하여 획득된 사용자의 지문 정보(11)에 기초하여 현재 프로브를 사용중인 사용자가 누구인지를 식별할 수 있다. 이러한 경우, 사용자의 지문 정보(11)는 사용자 식별 정보(예컨대, ID 등)로서 활용될 수 있다. In addition, according to an embodiment of the present invention, it is possible to identify who is currently using the probe based on the fingerprint information 11 of the user obtained through the sensor 125 included in the probe 1200. . In this case, the fingerprint information 11 of the user can be utilized as user identification information (eg, ID, etc.).

본 발명의 일 실시예에 따른 사용자 모션 정보는, 사용자의 홍채 정보(13), 사용자의 안면 정보(15) 중 적어도 하나에 기초하여 획득될 수 있다.User motion information according to an embodiment of the present invention may be obtained based on at least one of the iris information 13 of the user and the face information 15 of the user.

도 5에 도시된 바와 같이, 초음파 기기 상에 구비된 센서(111) 등을 통하여 사용자의 홍채 정보(13), 사용자의 안면 정보(15) 중 적어도 하나가 획득될 수 있다. 이러한 센서(111)는 초음파 기기의 디스플레이부(2300) 근방에 위치될 수 있지만, 반드시 이에 제한되는 것은 아니다. As illustrated in FIG. 5, at least one of the iris information 13 of the user and the face information 15 of the user may be obtained through the sensor 111 provided on the ultrasound apparatus. The sensor 111 may be located near the display unit 2300 of the ultrasonic device, but is not necessarily limited thereto.

또한, 이러한 센서(111)는 홍채 인식, 안면 인식 기능을 동시에 수행할 수 있거나 또는 홍채 인식 기능, 안면 인식 기능을 갖는 각각의 개별적인 센서로서 구현될 수 있다. In addition, the sensor 111 may simultaneously perform iris recognition and face recognition, or may be implemented as each individual sensor having an iris recognition and face recognition.

본 발명의 일 실시예에 따라, 센서(111)를 통하여 사용자의 홍채 정보(13)가 획득될 수 있다. 사용자의 홍채 정보(13)는 현재 사용자가 누구인지에 대한 사용자 식별 정보, 현재 사용자의 홍채의 현재 위치 등에 대한 정보를 포함할 수 있다. 예를 들어, 센서(111)를 통하여 사용자의 홍채를 판독함으로써, 현재 사용자가 누구인지에 대한 정보를 획득할 수 있다. According to an embodiment of the present invention, the iris information 13 of the user may be obtained through the sensor 111. The iris information 13 of the user may include user identification information about who the current user is, information about the current location of the iris of the current user, and the like. For example, by reading the iris of the user through the sensor 111, information about who the current user is can be obtained.

또한, 센서(111)를 통하여 획득된 홍채의 현재 위치 정보를 이용하여 사용자의 현재 시선을 결정하고, 사용자의 현재 시선에 기초하여 사용자의 모션 정보를 획득할 수 있다. 다시 말해서, 사용자의 눈에서 홍채가 왼쪽으로 편향되어 위치하는지 여부 또는 오른쪽으로 편향되어 위치하는지 여부에 따라서 사용자의 현재의 자세에 대한 정보를 획득할 수 있지만, 반드시 이에 제한되는 것은 아니다. In addition, the current gaze of the user may be determined using current location information of the iris obtained through the sensor 111, and motion information of the user may be obtained based on the current gaze of the user. In other words, information about the current posture of the user may be obtained depending on whether the iris is biased to the left or positioned to the right in the user's eyes, but is not necessarily limited thereto.

예를 들면, 사용자의 눈에서 홍채가 대체로 왼쪽으로 편향되어 위치하는 경우, 사용자의 상체가 오른쪽을 지향하고 있다고 판단될 수 있다. 다시 말해서, 사용자가 현재 오른손으로 프로브(1200) 등을 조작하고 있다고 판단될 수 있다. For example, when the iris is generally biased to the left in the user's eye, it may be determined that the upper body of the user is directed to the right. In other words, it may be determined that the user is currently operating the probe 1200 with his right hand.

이와 유사하게, 사용자의 눈에서 홍채가 대체로 오른쪽으로 편향되어 위치하는 경우, 사용자의 상체가 왼쪽을 지향하고 있다고 판단될 수 있다. 사용자가 현재 왼손으로 프로브(1200) 등을 조작하고 있다고 판단될 수 있다.Similarly, when the iris is generally biased to the right in the user's eye, it may be determined that the upper body of the user is directed to the left. It may be determined that the user is operating the probe 1200 with the left hand.

본 발명의 일 실시예에 따라, 센서(111)를 통하여 사용자의 안면 정보(15)가 획득될 수 있다. 사용자의 안면 정보(15)는 현재 사용자가 누구인지에 대한 사용자 식별 정보, 사용자의 현재 안면 방향 등에 대한 정보를 포함할 수 있다. 예를 들어, 센서(111)를 통하여 사용자의 안면 특징점, 안면 윤곽선 등을 판독함으로써, 현재 사용자가 누구인지에 대한 정보를 획득할 수 있다.According to an embodiment of the present invention, the face information 15 of the user may be obtained through the sensor 111. The facial information 15 of the user may include user identification information about who the current user is, information about the current facial direction of the user, and the like. For example, by reading the facial feature point, the facial contour, and the like of the user through the sensor 111, information about who the current user is can be obtained.

또한, 센서(111)를 통하여 획득된 사용자의 안면 방향 정보를 이용하여 사용자의 주(main) 안면을 결정하고, 사용자의 주 안면에 기초하여 사용자의 모션 정보를 획득할 수 있다. 다시 말해서, 사용자의 안면 면적에 기초하여 사용자의 현재의 주 안면을 결정하고, 결정된 주 안면으로부터 사용자의 현재의 자세에 대한 정보를 획득할 수 있다. In addition, the main face of the user may be determined using face direction information of the user acquired through the sensor 111, and motion information of the user may be obtained based on the main face of the user. In other words, the current main face of the user may be determined based on the face area of the user, and information about the current posture of the user may be obtained from the determined main face.

예를 들면, 사용자의 오른쪽 안면과 왼쪽 안면의 면적을 비교하여, 왼쪽 안면의 면적이 더 넓은 경우, 사용자의 상체가 오른쪽을 지향하고 있다고 판단될 수 있다. 다시 말해서, 사용자가 현재 오른손으로 프로브(1200) 등을 조작하고 있다고 판단될 수 있다. For example, by comparing the area of the right face with the left face of the user, if the area of the left face is larger, it may be determined that the upper body of the user is directed to the right. In other words, it may be determined that the user is currently operating the probe 1200 with his right hand.

이와 유사하게, 사용자의 오른쪽 안면과 왼쪽 안면의 면적을 비교하여, 오른쪽 안면의 면적이 더 넓은 경우, 사용자의 상체가 왼쪽을 지향하고 있다고 판단될 수 있다. 다시 말해서, 사용자가 현재 왼손으로 프로브(1200) 등을 조작하고 있다고 판단될 수 있다.Similarly, by comparing the area of the right face with the left face of the user, when the area of the right face is wider, it may be determined that the upper body of the user is facing the left side. In other words, it may be determined that the user is currently operating the probe 1200 with his left hand.

또한, 사용자의 홍채 정보(13) 및 사용자의 안면 정보(15)를 이용하여 사용자의 모션 정보가 획득될 수 있다. 예를 들어, 사용자의 오른쪽 안면과 왼쪽 안면의 면적을 비교하였지만, 어느 쪽 안면의 면적이 더 넓은지 명확히 구분할 수 없는 경우에, 전술한 방법과 같이 사용자의 홍채 정보를 추가로 고려하여 사용자의 모션 정보를 획득할 수도 있다. In addition, motion information of the user may be obtained using the iris information 13 of the user and the face information 15 of the user. For example, when the area of the right and left faces of the user is compared, but it is not possible to clearly distinguish which area of the face is larger, the user's motion is further considered in consideration of the user's iris information as described above. Information can also be obtained.

도 6은 본 발명의 일 실시예에 따라 변경되어 제공 가능한 사용자 인터페이스(UI)의 일 예를 도시한다. 6 illustrates an example of a user interface (UI) that can be changed and provided according to an embodiment of the present invention.

도 6에서와 같이 본 발명의 일 실시예에 따라 의료 기기에서의 동작 기능을 표시하는 사용자 인터페이스(UI)(예컨대, 611 내지 615)가 디스플레이 되어 제공될 수 있다. As shown in FIG. 6, a user interface (UI) (eg, 611 to 615) indicating an operation function in a medical device may be displayed and provided according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 UI는 대상체의 검진 시 사용될 기능을 나타낸 단축 버튼, 스위치, 키보드 및 트랙볼 중 적어도 하나를 포함할 수 있다. The UI according to an embodiment of the present invention may include at least one of a shortcut button, a switch, a keyboard, and a trackball indicating a function to be used when the object is examined.

본 발명의 일 실시예에 따른 사용자 인터페이스(UI)는, 대상체의 촬영과 관련하여 문자, 숫자 등을 입력할 수 있는 키보드(611) 형태의 UI, 영상의 확대/축소, 해상도 조절, 2D 영상과 3D 영상 간의 전환 등 소정의 기능을 나타낸 적어도 하나의 버튼 또는 스위치(613) 형태의 UI, 트랙볼(615) 형태의 UI 등을 포함할 수 있다. According to an embodiment of the present invention, a user interface (UI) may include a user interface (UI) in the form of a keyboard 611 for inputting letters, numbers, etc., zooming / reducing an image, adjusting a resolution, and a 2D image. It may include a UI in the form of at least one button or switch 613, a UI in the form of a trackball 615, and the like, for example, switching between 3D images.

전술한 키보드(611) 형태의 UI, 적어도 하나의 버튼 또는 스위치(613) 형태의 UI 및 트랙볼(615) 형태의 UI 중 적어도 하나는 가상의 UI 레이아웃(virtual UI layout)으로서 제공될 수 있다.At least one of the above-described UI in the form of a keyboard 611, the UI in the form of at least one button or switch 613, and the UI in the form of a trackball 615 may be provided as a virtual UI layout.

다시 말해서, 본 발명의 일 실시예에 따른 사용자 인터페이스(UI)는 반드시 항상 물리적으로 일정한 형태로만 존재해야 하는 것은 아니고, 디스플레이부(2300) 또는 컨트롤 패널(2500) 상에서 문자, 숫자, 이미지 등의 형태로 소정의 기능을 나타내도록 가상(virtual)으로 존재할 수 있다. In other words, the user interface (UI) according to an embodiment of the present invention does not always need to exist in a physically constant form, but in the form of letters, numbers, images, etc. on the display unit 2300 or the control panel 2500. It may exist virtually to represent a predetermined function.

도 7은 본 발명의 일 실시예에 따라 사용자의 모션 정보에 기초하여 사용자 인터페이스(UI)가 변경되어 제공되는 양상을 도시한다. 설명의 편의상 사용자 인터페이스(UI)를 도 7과 같이 간략화하여 나타낸다. FIG. 7 illustrates an aspect in which a user interface (UI) is changed and provided based on motion information of a user according to an embodiment of the present invention. For convenience of description, the user interface UI is simplified and shown in FIG. 7.

본 발명의 일 실시예에 따라 획득된 사용자의 모션 정보를 이용하여 UI를 변경하는 단계(S200)는, 획득된 사용자의 모션 정보에 따라 UI의 모양, 크기 및 위치 중 적어도 하나를 변경하는 단계를 포함할 수 있다. According to an embodiment of the present disclosure, the step of changing the UI by using the acquired motion information of the user (S200) may include changing at least one of a shape, a size, and a position of the UI according to the acquired motion information of the user. It may include.

도 7a에 도시된 바와 같이, 획득된 사용자의 모션 정보에 따라 UI의 모양이 변경될 수 있다. As shown in FIG. 7A, the shape of the UI may be changed according to the acquired motion information of the user.

예를 들어, 프로브(1200)의 움직임 범위가 매우 넓어진 경우, 다시 말해서 사용자의 움직임이 많아진 경우, 사용자 인터페이스(UI)(611 내지 615)로의 사용자의 터치가 불편할 수 있다. 다시 말해서, 사용자의 손이 사용자 인터페이스(UI)까지 닿지 않거나, 또는 사용자가 UI를 조작하는데 어려움을 느낄 수도 있다. For example, when the movement range of the probe 1200 is very wide, that is, when the movement of the user increases, the user's touch to the user interface (UI) 611 to 615 may be inconvenient. In other words, the user's hand may not reach the user interface (UI), or the user may have difficulty operating the UI.

이러한 경우, 본 발명의 일 실시예에서와 같이, 사용자 인터페이스(UI)의 모양 등을 변경하여 사용자의 편의성을 증대시킬 수 있다. 사용자 인터페이스(UI)는 모양이 변경되는 복수의 가변 UI를 포함할 수 있다. 예를 들어, 도 6의 키보드(611) 형태의 UI, 버튼 또는 스위치(613) 형태의 UI 등을 간략화한 도 7a의 UI(131의 1 내지 3)의 모양을 변경하여 제공(132)할 수 있다. 예컨대, 촬영 과정 동안에 사용자가 버튼 1 또는 버튼 3에 비하여 버튼 2를 더욱 자주 사용한다면, 사용자의 버튼 2에 대한 액세스 확률이 높아지도록 아랫변이 가장 긴 삼각형의 형태로 모양을 변경할 수 있다. 다시 말해서, 버튼 2의 면적이 버튼 1 또는 버튼 3보다 더 크도록 변경할 수 있다. 다만, 사용자 인터페이스(UI)는 모양이 변경되지 않는 UI를 포함할 수도 있다. 예를 들어, 도 6의 트랙볼(615) 형태의 UI를 간략화한 도 7a의 UI는 모양이 변경되지 않을 수 있다.In this case, as in the exemplary embodiment of the present invention, the user's convenience may be increased by changing the shape of the user interface UI. The user interface UI may include a plurality of variable UIs whose shape is changed. For example, the UI 131 in the form of a keyboard 611 of FIG. 6, the UI in the form of a button or switch 613, and the like may be provided 132 by changing the shape of the UI 131 1 to 3 of FIG. 7A. have. For example, if the user uses the button 2 more frequently than the button 1 or the button 3 during the photographing process, the shape of the lower side may be changed to the shape of the longest triangle to increase the access probability of the button 2. In other words, it is possible to change the area of button 2 to be larger than button 1 or button 3. However, the UI may include a UI whose shape does not change. For example, the UI of FIG. 7A, which simplifies the UI in the form of the trackball 615 of FIG. 6, may not change shape.

또한, 복수의 가변 UI의 위치는 변경될 수 있다. 본 발명의 일 실시예에서, 버튼 1 내지 3의 위치를 변경할 수도 있다. 예를 들어, 버튼 3, 버튼 1, 버튼 2의 순서로 배치되도록 UI를 변경할 수 있다. 이러한 경우, 버튼 1이 가장 사용 빈도가 높은 버튼일 수 있고, 버튼 1이 아랫변이 가장 긴 삼각형의 형태를 이룰 수 있지만, 버튼 등 UI의 변경 전후의 모양이 반드시 이에 제한되는 것은 아니다. 다만, 사용자 인터페이스(UI)는 위치가 변경되지 않는 UI를 포함할 수도 있다. 예를 들어, 도 6의 트랙볼(615) 형태의 UI를 간략화한 도 7a의 UI는 위치가 변경되지 않을 수 있다.In addition, the positions of the plurality of variable UIs may be changed. In one embodiment of the present invention, the positions of the buttons 1 to 3 may be changed. For example, the UI may be changed to be arranged in the order of button 3, button 1, and button 2. In this case, the button 1 may be the button with the highest frequency of use, and the button 1 may form a triangle having the longest lower side, but the shape before and after the change of the UI such as the button is not necessarily limited thereto. However, the UI may include a UI whose position does not change. For example, the UI of FIG. 7A, which simplifies the UI in the form of the trackball 615 of FIG. 6, may not change its position.

또한, 도 7b에 도시된 바와 같이, 사용자 인터페이스(UI)는 획득된 사용자의 모션 정보에 따라 UI의 크기가 변경되는 복수의 가변 UI를 포함할 수 있다. In addition, as illustrated in FIG. 7B, the UI may include a plurality of variable UIs whose sizes of the UI are changed according to the acquired motion information of the user.

전술한 바와 같이, 사용자의 움직임이 많아진 경우 UI 패턴(131)의 버튼 등의 크기를 전체적으로 또는 부분적으로 증감시킴으로써, 사용자가 손쉽게 버튼 등의 UI에 액세스할 수 있도록 UI의 크기를 변경하여 제공(135)할 수 있다. As described above, when the user's movement increases, the size of a button or the like of the UI pattern 131 is increased or decreased in whole or in part, thereby changing the size of the UI so that the user can easily access the UI such as the button (135). )can do.

예를 들어, 버튼 1 내지 3의 크기를 증가시켜 제공함으로써, 사용자의 버튼의 접근성을 높일 수 있다. 또한, 이와 유사하게 버튼 1 내지 3의 위치가 사용자와 가깝도록 변경함으로써, 사용자의 버튼의 접근성을 높일 수 있다. 도 7a 및 도 7b에 도시된 실시예에서 버튼 1 내지 버튼 3을 포함하는 UI의 모양, 크기 및 위치 중 적어도 하나는, UI에 관한 사용자의 사용 이력, 사용 빈도 및 액세스 정도 중 적어도 하나를 포함하는 사용 정보에 기초하여 변경될 수 있다. 다만, 사용자 인터페이스(UI)는 크기가 변경되지 않는 UI를 포함할 수도 있다. 예를 들어, 도 6의 트랙볼(615) 형태의 UI를 간략화한 도 7b의 UI는 크기가 변경되지 않을 수 있다. For example, by increasing the size of the buttons 1 to 3, the accessibility of the user's buttons can be improved. Similarly, by changing the positions of the buttons 1 to 3 close to the user, the accessibility of the user's buttons can be improved. In the embodiment illustrated in FIGS. 7A and 7B, at least one of the shape, size, and position of the UI including the buttons 1 to 3 includes at least one of a user's usage history, frequency of use, and degree of access with respect to the UI. It can be changed based on the usage information. However, the UI may include a UI whose size does not change. For example, the UI of FIG. 7B, which simplifies the UI in the form of the trackball 615 of FIG. 6, may not be changed in size.

또한, 도 7c에 도시된 바와 같이, 사용자의 신체적 특징 등에 따라 상이한 패턴의 UI가 제공될 수 있다. In addition, as shown in FIG. 7C, different patterns of UIs may be provided according to physical features of the user.

예를 들어, 사용자가 오른손 잡이인 경우, 오른손용 UI 패턴(131)이 제공될 수 있다. 또한, 사용자가 왼손 잡이인 경우, 왼손용 UI 패턴(133)이 제공될 수 있다. 이러한 오른손용 UI 패턴(131)과 왼손용 UI 패턴(133)은 서로 대칭될 수 있고, 전술한 바와 같이 사용자 모션 정보에 기초하여 상호 전환이 가능할 수 있다. For example, when the user is right-handed, the right-hand UI pattern 131 may be provided. In addition, when the user is left-handed, the left-hand UI pattern 133 may be provided. The right-hand UI pattern 131 and the left-hand UI pattern 133 may be symmetrical with each other, and may be mutually switched based on user motion information as described above.

도 8은 본 발명의 다른 실시예에 따라 사용자의 모션 정보에 기초하여 사용자 인터페이스(UI)가 변경되어 제공되는 양상을 도시한다. FIG. 8 illustrates an aspect in which a user interface (UI) is changed and provided based on motion information of a user according to another embodiment of the present invention.

본 발명의 일 실시예에 따라 대상체의 검진 시 사용되는 기능의 빈도에 따라 UI는 모양, 크기 및 위치 중 적어도 하나가 상이하게 제공될 수 있다.According to an embodiment of the present invention, at least one of a shape, a size, and a position may be differently provided depending on the frequency of a function used when examining an object.

예를 들어, 도 6의 키보드(611) 형태의 UI, 버튼 또는 스위치(613) 형태의 UI 등을 간략화한 도 7의 UI 패턴(131)은 도 8b 및 도 8c에 도시된 바와 같이 대상체의 검진 시 사용되는 기능의 빈도에 따라 UI는 모양, 크기 및 위치 중 적어도 하나가 변경되어 제공(137 또는 139)될 수 있다. 설명의 편의상 도 8a의 UI 패턴(131)은 의료 기기에서 제공될 수 있는 기본 패턴으로 가정한다.For example, the UI pattern 131 of FIG. 7 that simplifies the UI in the form of a keyboard 611 of FIG. 6, the UI in the form of a button or switch 613, and the like, is illustrated in FIGS. 8B and 8C. The UI may be provided (137 or 139) by changing at least one of a shape, a size, and a position according to a frequency of a function used. For convenience of description, it is assumed that the UI pattern 131 of FIG. 8A is a basic pattern that can be provided in a medical device.

예를 들어, 소정의 검진 항목에서 트랙볼은 사용되지 않고, 1 내지 3으로 간략화하여 표시된 버튼형 UI 중 2번 버튼에 상응하는 기능이 가장 많이 사용될 수 있다. 이러한 경우, 도 8b에서와 같이, 기본 패턴(131)에서 트랙볼 기능의 원형 UI가 생략되고, 2번 버튼의 UI의 크기가 가장 크도록 변경되어 제공될 수 있다. For example, the track ball is not used in a predetermined examination item, and a function corresponding to button 2 of the button type UI, which is simplified to 1 to 3, may be most used. In this case, as shown in FIG. 8B, the circular UI of the trackball function may be omitted in the basic pattern 131, and the size of the UI of the button 2 may be changed to be the largest.

도 8에서 설명한 실시예에서, UI의 모양, 크기 및 위치 중 적어도 하나는 사용자가 대상체를 검진 시 자주 사용하는 기능에 관한 사용 정보에 기초하여 변경될 수 있다. 다시 말해서, 사용자에 의하여 사용되지 아니하거나 사용 빈도가 적은 UI는 생략하고, 사용 빈도가 높은 UI를 큰 크기로 제공함으로써, 의료 기기를 조작하는 사용자의 UI로의 접근성 및 편의성을 증대시킬 수 있다. In the embodiment described with reference to FIG. 8, at least one of a shape, a size, and a position of the UI may be changed based on usage information regarding a function that a user frequently uses when examining an object. In other words, by omitting a UI that is not used or used less frequently by the user, and providing a UI with a high frequency of use, the accessibility and convenience of the user who operates the medical device can be increased.

다른 예로서, 소정의 검진 항목에서 사용자가 트랙볼을 주로 사용하고, 버튼형 UI 중 3번 버튼(예를 들면, 확대/축소 기능 등)을 가장 많이 사용한다면, 도 8c에서와 같이, 기본 패턴(131)에서 트랙볼에 해당하는 원형의 UI와 버튼형 UI 중 3번 버튼의 크기를 크게 변경하여 제공(139)할 수 있다. As another example, if a user mainly uses the trackball in a predetermined examination item and most uses the third button (for example, a zoom function, etc.) of the button type UI, the basic pattern 131 as shown in FIG. 8C. ) Can be provided by changing the size of the button 3 of the circular UI and the button-type UI corresponding to the trackball significantly (139).

또한, 사용자의 손 모양과 유사하게 도 8c에서의 패턴(139)과 같이 방사형의 형태로 UI가 배치되어 제공될 수 있지만, 반드시 이에 제한되는 것은 아니다.In addition, although the UI may be disposed and provided in a radial form as in the pattern 139 of FIG. 8C, similar to the shape of the user's hand, the present invention is not limited thereto.

또한, 검사 종류에 따라 사용되는 기능의 빈도 수가 상이할 수 있으므로, 검사 종류에 따라 상이한 패턴의 UI를 제공할 수 있다. In addition, since the frequency of the functions used may vary according to the test type, a UI having a different pattern may be provided according to the test type.

예를 들면, 심장 초음파 검사, 간 초음파 검사, 복부 초음파 검사와 부인과 초음파(Pelvic Ultrasonography) 검사, 도플러 초음파 검사 등 각각의 검사 종류에 따라 초음파 기기에서 제공되는 기능의 사용 빈도 수가 상이할 수 있다. 예컨대, 심장 초음파 검사에서는 영상의 확대/축소 기능과 트랙볼 기능의 사용 빈도 수가 높은 반면에, 간 초음파 검사에서는 영상의 확대/축소 기능과 트랙볼 기능보다는 해상도의 조절 기능 등이 더 많이 사용될 수 있다. For example, the frequency of use of the functions provided by the ultrasound apparatus may vary depending on the types of tests, such as cardiac ultrasound, liver ultrasound, abdominal ultrasound, pelvic ultrasonography, and Doppler ultrasound. For example, in an echocardiography, an image zooming function and a trackball function are frequently used, whereas in liver ultrasound, a resolution adjustment function may be used more than an zooming and trackball function.

다시 말해서, 심장 초음파 검사에서는 영상의 확대/축소 기능을 수행하는 UI와 트랙볼 기능을 수행하는 UI를 다른 UI에 비하여 비교적 크고, 컨트롤 패널(2500)의 중앙부 등에 위치시킬 수 있다. In other words, in the echocardiography, a UI that performs an enlargement / reduction function of an image and a UI that performs a trackball function may be relatively larger than other UIs, and may be positioned in the center of the control panel 2500.

이에 비하여, 간 초음파 검사에서는 영상의 확대/축소 기능의 UI와 트랙볼 기능의 UI의 크기를 줄이거나 생략할 수 있고, 컨트롤 패널(2500)의 중앙부 등에 해상도의 조절 기능을 수행하는 UI가 상대적으로 큰 크기로 배치되도록 UI 패턴을 변경할 수 있다. On the other hand, in the liver ultrasound examination, the size of the UI of the zooming / reducing function of the image and the UI of the trackball function can be reduced or omitted, and the UI of adjusting the resolution of the center of the control panel 2500 is relatively large. You can change the UI pattern so that it is laid out in size.

도 9a는 본 발명의 일 실시예에 따른 사용자 인터페이스(UI)의 편집 예를 도시한다. 9A illustrates an example of editing a user interface (UI) in accordance with one embodiment of the present invention.

본 발명의 일 실시예에 따른 외부 입력 신호에 따라 UI는 편집 가능할 수 있다. According to an external input signal according to an embodiment of the present invention, the UI may be editable.

예를 들어, UI는 사용자 입력에 따라 추가, 삭제, 위치, 크기 변경이 가능하다. 또한, UI는 사용자 입력에 따라 언어, 글꼴, UI 표시 색깔 등의 변경이 가능하다. For example, the UI can be added, deleted, repositioned, and resized according to user input. In addition, the UI may change a language, a font, and a UI display color according to a user input.

예컨대, 사용자 입력에 따라 버튼형 UI의 위치 또는 크기가 변경될 수 있다. For example, the position or size of the button-type UI may change according to a user input.

도 9에 도시된 바와 같이, UI에 대한 사용자의 소정의 입력에 기초하여 UI의 위치 또는 크기가 변경될 수 있다. 본 발명의 일 실시예에 따른 사용자의 소정의 입력은 UI에 대한 적어도 1회의 클릭, 일정 시간 동안의 누름 중 적어도 하나를 포함할 수 있다. 또한 이러한 소정의 입력은 복수의 입력이 동시에 입력되는 경우도 포함할 수 있다. As shown in FIG. 9, the position or size of the UI may be changed based on a user's predetermined input to the UI. The predetermined input of the user according to an embodiment of the present invention may include at least one of at least one click on the UI and a press for a predetermined time. The predetermined input may also include a case where a plurality of inputs are simultaneously input.

예를 들면, 버튼형 UI 중 1번 버튼에 대하여 사용자 입력으로서 약 1초 내지 1.5초의 누름을 통하여 편집 개시 신호를 인가 받고, 1번 버튼을 목표하는 위치로의 드래그 앤 드롭(21) 신호를 인가 받음으로써 1번 버튼의 위치를 변경할 수 있다. For example, an edit start signal is applied to the button 1 of the button type UI as a user input by pressing about 1 second to 1.5 seconds, and a drag and drop 21 signal to the target position of the button 1 is received. To change the position of button 1.

이러한 드래그 앤 드롭(21) 신호는 연속적인 사용자 입력 신호일 수 있다. 다시 말해서, 예컨대 1번 버튼에 대한 드래그 앤 드롭(21)의 사용자 입력 신호는 지속적으로(seamless) 인가되는 신호일 수 있다. 예를 들어, 원터치로 드래그 앤 드롭(21) 신호가 인가될 수 있지만, 반드시 이에 제한되는 것은 아니다. The drag and drop 21 signal may be a continuous user input signal. In other words, for example, the user input signal of the drag and drop 21 for the button 1 may be a signal that is continuously applied. For example, the drag and drop 21 signal may be applied by one touch, but is not necessarily limited thereto.

또한, 예를 들면, 편집 개시 신호를 인가 받은 후, 1번 버튼의 경계선에 대한 소정의 방향으로의 드래그 신호를 인가 받음으로써, 1번 버튼을 확대 또는 축소할 수 있다. Further, for example, after receiving the edit start signal, the first button can be enlarged or reduced by receiving a drag signal in a predetermined direction with respect to the boundary line of the first button.

또한, 예를 들어, 편집 개시 신호를 인가 받은 후, UI를 한번 더 클릭함으로써 해당 UI를 삭제할 수 있다. In addition, for example, after receiving the edit start signal, the UI may be deleted by clicking the UI once again.

또한, 예컨대, UI 이외의 빈 공간에 대하여 사용자로부터 인가된 수초(예컨대, 약 1초 내지 2초 등) 동안의 누름(23)을 통하여 UI 추가 개시 신호를 인가 받아 UI를 추가할 수 있다.In addition, for example, the UI may be added by receiving a UI addition start signal through a press 23 for a few seconds (for example, about 1 second to 2 seconds, etc.) applied by the user to an empty space other than the UI.

또한, 예를 들면, 기존의 UI 또는 새롭게 추가된 UI는 해당 UI에 대한 복수회의 클릭 또는 소정의 패턴(예컨대, 별 모양, 삼각형, 사각형 등) 입력 등을 포함하는 외부 입력 신호에 기초하여 해당 UI의 기능을 재설정할 수 있다. 다시 말해서, 소정의 패턴 또는 클릭 당 해당 UI에 적용 가능한 기능들(예컨대, 2D 영상과 3D 영상 간의 전환, 해상도 조정 등)이 해당 UI상에서 변경되어 표시될 수 있다.Also, for example, an existing UI or a newly added UI may be a UI based on an external input signal including a plurality of clicks or a predetermined pattern (eg, star, triangle, square, etc.) input to the UI. You can reset the function of. In other words, functions (eg, switching between 2D and 3D images, adjusting resolution, etc.) applicable to the corresponding UI per predetermined pattern or click may be displayed on the corresponding UI.

또한, 본 발명의 다른 실시예에 따르면, 기존의 UI 또는 새롭게 추가된 UI에 적용 가능한 기능들이 미리 설정된 테이블 등의 형태로 제공될 수 있다. In addition, according to another embodiment of the present invention, functions applicable to an existing UI or a newly added UI may be provided in the form of a preset table or the like.

예를 들어, 이러한 테이블 등이 팝업 형태로 제공될 수 있거나, 컨트롤 패널(2500) 등의 여백 등에 디스플레이되는 형태로 제공될 수 있다. UI에 대하여 적용 가능한 기능들이 제공되면, 사용자의 매칭 입력(예컨대, 순차 클릭, 드래그 앤 드롭 등)에 따라 기존의 UI 또는 새롭게 추가된 UI에 대한 기능이 재설정될 수 있지만, 반드시 이에 제한되는 것은 아니다. For example, such a table may be provided in the form of a popup, or may be provided in the form of being displayed in a margin of the control panel 2500 or the like. When applicable functions are provided for the UI, the function for the existing UI or newly added UI may be reset according to the user's matching input (eg, sequential click, drag and drop, etc.), but is not necessarily limited thereto. .

이러한 UI와 기능간의 매칭의 순서는 사용자 입력에 따라 적용할 기능을 먼저 선택하고, 선택된 기능이 적용될 UI를 선택하는 방식, 또는 기능을 재설정할 UI를 먼저 선택하고, 선택된 UI에 적용될 기능을 선택하는 방식 중 어느 것을 따르더라도 무방하다. The order of matching between the UI and the function is to first select a function to be applied according to user input, select a UI to which the selected function is applied, or first select a UI to reset the function, and select a function to be applied to the selected UI. You can follow any of the methods.

이와 유사하게, 기존의 UI 또는 새롭게 추가된 UI에 표시된 언어, 글꼴, 색깔 등도 변경되어 표시될 수 있다. 다시 말해서, 사용자의 국적 선택을 위한 신호 등의 외부 입력 신호를 인가 받아 사용자의 사용 언어에 적합하도록 UI 상에 표시된 문자, 숫자 등을 변경할 수 있다. Similarly, the language, font, color, etc. displayed in the existing UI or the newly added UI may be changed and displayed. In other words, by receiving an external input signal such as a signal for selecting the nationality of the user, letters, numbers, and the like displayed on the UI may be changed to suit the user's language.

또한, 사용자의 식별 정보를 포함하는 사용자 프로파일에 포함된 국적에 따라 UI에 표시된 언어가 자동으로 변경될 수도 있다. In addition, the language displayed on the UI may be automatically changed according to the nationality included in the user profile including the identification information of the user.

또한, 미리 설정되어 제공 가능한 색채표 중에서 선택한 색깔로 UI 표시 색깔을 변경하기 위한 신호 등을 외부 입력 신호로서 수신하여, UI에 표시된 색깔을 변경할 수 있다. In addition, a signal for changing the UI display color to a color selected from among preset color tables that can be provided may be received as an external input signal to change the color displayed on the UI.

도 9b는 본 발명의 일 실시예에 따라 변경된 사용자 인터페이스(UI)의 사용 예를 도시한다.9B illustrates an example of the use of a modified user interface (UI) in accordance with one embodiment of the present invention.

본 발명의 일 실시예에 따라 모션 정보에 기초하여 사용자 인터페이스(UI)가 변경되면, 사용자가 UI의 변경을 충분히 인식하지 못한 경우 사용자는 변경된 UI를 사용함에 있어서 혼동을 하거나 오작동을 일으킬 수 있다. 따라서, 본 발명의 일 실시예에 따라 변경된 UI에 대한 사용자의 UI 사용 상태를 나타냄으로써, 전술한 사용자의 혼동 또는 오작동을 방지할 수 있다. When the user interface (UI) is changed based on the motion information according to an embodiment of the present invention, when the user does not fully recognize the change of the UI, the user may be confused or cause a malfunction in using the changed UI. Accordingly, by indicating the UI usage state of the user with respect to the changed UI according to an embodiment of the present invention, it is possible to prevent the user from confusion or malfunction.

이러한 사용자의 UI 사용 상태 제공은 실시간으로 이루어질 수 있다. 또한, 사용자의 UI 사용 상태는 문자, 숫자 등을 포함하는 이미지 및 음성 등의 소리 중 적어도 하나로 제공될 수 있다.The UI use status of the user may be provided in real time. In addition, the UI usage state of the user may be provided as at least one of an image including a letter, a number, and the like and a sound such as a voice.

예를 들어, 소정의 기능을 수행하기 위하여 사용자에 의하여 사용되는 UI를 디스플레이부(2300) 등을 통하여 소정의 시간 동안 사용자에게 표시해줄 수 있다. 이러한 표시를 통하여 사용자는 현재 자신이 사용하고자 하는 UI가 무엇인지를 정확히 인식할 수 있다.For example, the UI used by the user to perform a predetermined function may be displayed to the user for a predetermined time through the display unit 2300. Through this display, the user can recognize exactly what UI he wants to use.

도 9b에 도시된 바와 같이, 변경된 UI (139)에 대하여 사용자가 2번 버튼 (예를 들어, 2D에서 3D로의 전환 기능)을 누른다면(91), 소정의 시간 동안 2번 버튼의 기능에 대한 정보(93)가 디스플레이부(2300)의 좌측 상단 등에 나타날 수 있다. 예를 들어, 사용자가 2번 버튼을 누르면(91), 약 1초 또는 1.5초 동안에 "2D→3D"의 기능 정보(93)가 디스플레이부(2300) 등에 디스플레이되었다가 사라질 수 있지만, 구현 형태가 반드시 이에 제한되는 것은 아니다.As shown in FIG. 9B, if the user presses the second button (eg, 2D to 3D switching function) with respect to the changed UI 139 (91), the function of the second button for a predetermined time is The information 93 may appear on the upper left of the display unit 2300. For example, when the user presses the button 2 (91), the function information 93 of “2D → 3D” may be displayed on the display unit 2300 or the like for about 1 second or 1.5 seconds, but disappears. It is not necessarily limited thereto.

또한, 도 9b에서와 같이, 사용자에 의한 2번 버튼의 누름(91)에 따라, 2번 버튼의 기능(예를 들어, 2D에서 3D로의 전환 기능)이 수행되어 대상체에 대한 3D 영상(115)이 획득될 수 있다. In addition, as shown in FIG. 9B, according to the pressing 91 of the button 2 by the user, the function of the button 2 (for example, a 2D to 3D switching function) is performed to perform a 3D image 115 of the object. Can be obtained.

또한, 사용자의 UI 사용 상태는 음성 등의 소리의 형태로 제공될 수 있다. 전술한 예에서와 같이, 사용자가 2번 버튼을 누르면, "2D에서 3D로 전환합니다"와 같이 사용자의 UI 사용 상태가 음성 메시지의 형태로 사용자에게 제공될 수 있다.In addition, the UI use state of the user may be provided in the form of a sound such as a voice. As in the above example, when the user presses the second button, the UI use state of the user may be provided to the user in the form of a voice message, such as "to switch from 2D to 3D".

도 10은 본 발명의 일 실시예에 따라 사용자 인터페이스(UI)가 제공되는 양상을 도시한다. 10 illustrates an aspect in which a user interface (UI) is provided according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 UI는 대상체의 촬영 영상이 디스플레이되는 디스플레이부(2300) 및 디스플레이 기능이 구비된 컨트롤 패널(2500) 중 적어도 하나를 통하여 디스플레이될 수 있다. The UI according to an embodiment of the present invention may be displayed through at least one of the display unit 2300 on which the photographed image of the object is displayed and the control panel 2500 equipped with the display function.

휴대용 의료 기기의 필요성이 대두되고, 의료 기기의 소형화 추세로 인하여, 대상체에 대한 영상을 디스플레이하기 위한 화면과 컨트롤 패널 제공 화면이 하나의 터치 스크린 상에서 공존할 수 있다. 다시 말해서, 도 10a에 도시된 바와 같이, 대상체에 대한 영상(113)이 UI 패턴(131)과 동일한 화면(예를 들어, 디스플레이부(2300) 등) 상에서 제공될 수 있다.Due to the necessity of a portable medical device and the miniaturization of the medical device, a screen for displaying an image of an object and a control panel providing screen may coexist on a single touch screen. In other words, as illustrated in FIG. 10A, the image 113 of the object may be provided on the same screen as the UI pattern 131 (eg, the display unit 2300).

다만, 이러한 일체형의 디스플레이의 사용은 먼지, 사용자의 지문 등과 같은 이물질로 인하여 대상체에 대한 촬영 영상 판독을 어렵게 할 수도 있다. However, the use of the integrated display may make it difficult to read a photographed image of an object due to a foreign material such as dust or a fingerprint of a user.

본 발명의 일 실시예에 따르면, 도 10b에 도시된 바와 같이, 변경되어 제공 가능한 UI는 촬영 영상의 디스플레이부 이외의 디스플레이 기능이 구비된 컨트롤 패널(2500)을 통하여 제공될 수 있다. 예를 들어, 촬영 영상은 디스플레이부(2300)을 통하여 사용자에게 제공될 수 있고, 소정의 UI 패턴(131)은 디스플레이 기능이 구비된 컨트롤 패널(2500)을 통하여 사용자에게 촬영 영상과 별도로 제공될 수 있다. According to an embodiment of the present invention, as shown in FIG. 10B, the UI that can be changed and provided may be provided through a control panel 2500 having a display function other than the display unit of the captured image. For example, the captured image may be provided to the user through the display unit 2300, and the predetermined UI pattern 131 may be provided separately from the captured image to the user through the control panel 2500 having a display function. have.

도 11은 본 발명의 다른 실시예에 따라 의료 기기의 동작을 제어하는 방법을 나타낸 흐름도이다. 도 12는 본 발명의 다른 실시예에 따른 의료 기기 동작 제어의 일 예를 도시한다.11 is a flowchart illustrating a method of controlling the operation of a medical device according to another embodiment of the present invention. 12 illustrates an example of medical device operation control according to another embodiment of the present invention.

본 발명의 일 실시예에 따른 방법은, 사용자의 모션 정보에 따라 컨트롤 패널의 높이 및 각도 중 적어도 하나를 조절하는 단계(S400)를 더 포함할 수 있다. The method according to an embodiment of the present disclosure may further include adjusting at least one of a height and an angle of the control panel according to the motion information of the user (S400).

사용자의 의료 기기 편의성을 극대화하기 위하여, 사용자의 자세 등이 반영된 모션 정보에 기초하여 의료 기기의 소정의 컴포넌트(예컨대, 디스플레이부(2300), 컨트롤 패널(2500) 등)의 물리적 위치를 조절할 수 있다.In order to maximize the convenience of the user's medical device, the physical position of a predetermined component (eg, the display unit 2300, the control panel 2500, etc.) of the medical device may be adjusted based on motion information reflecting the posture of the user. .

예를 들어, 대상체 촬영 전 사용자가 어떤 손으로 프로브를 파지했는지에 따라 의료 기기의 소정의 컴포넌트(예컨대, 디스플레이부(2300), 컨트롤 패널(2500) 등)의 위치가 자동으로 조정될 수 있다. For example, the position of a predetermined component (eg, the display unit 2300, the control panel 2500, etc.) of the medical device may be automatically adjusted according to which hand the user holds the probe before photographing the object.

예컨대, 사용자가 오른손으로 프로브를 파지한 경우, 촬영 개시에 따라 사용자의 상체는 우향으로 변경될 확률이 매우 높다. 따라서, 사용자의 움직임으로부터 획득된 모션 정보에 따라 디스플레이부(2300), 컨트롤 패널(2500) 등을 사용자를 향하여 상, 하, 좌, 우, 수평 또는 수직, 소정의 각도로 이동시킬 수 있다. 다시 말해서, 디스플레이부(2300), 컨트롤 패널(2500) 등이 사용자와 마주하도록(또는 최대한 사용자의 정면에 위치하도록) 상, 하, 좌, 우, 수평 또는 수직, 소정의 각도로 이동시킬 수 있다. For example, when the user grips the probe with his right hand, the upper body of the user is very likely to change to the right as the photographing starts. Accordingly, the display unit 2300 and the control panel 2500 may be moved upward, downward, leftward, rightward, horizontal or vertical, at a predetermined angle toward the user according to the motion information obtained from the user's movement. In other words, the display unit 2300, the control panel 2500, and the like may be moved up, down, left, right, horizontally or vertically, at a predetermined angle so as to face the user (or as much as possible in front of the user). .

또한, 대상체를 촬영 중인 사용자가 움직임으로써 획득될 수 있는 모션 정보에 기초하여 전술한 바와 같이, 디스플레이부(2300), 컨트롤 패널(2500) 등이 사용자와 마주하도록(또는 최대한 사용자의 정면에 위치하도록) 상, 하, 좌, 우, 수평 또는 수직, 소정의 각도로 이동될 수 있다. Also, as described above, the display unit 2300, the control panel 2500, and the like face the user (or as close to the front of the user as possible) based on the motion information that can be obtained by the user who is shooting the object. ) Up, down, left, right, horizontal or vertical, can be moved at a predetermined angle.

도 12에 도시된 바와 같이, 프로브(1200)의 움직임에 상응하게 컨트롤 패널(2500)의 높이 및 각도 중 적어도 하나가 조절될 수 있다. 다시 말해서, 의료 기기의 소정의 컴포넌트(예컨대, 디스플레이부(2300), 컨트롤 패널(2500) 등)의 위치가 이동될 수 있음에 따라 사용자의 의료 기기의 조작 편의성이 더욱 증대될 수 있다. As shown in FIG. 12, at least one of the height and angle of the control panel 2500 may be adjusted to correspond to the movement of the probe 1200. In other words, as the position of a predetermined component (eg, the display unit 2300, the control panel 2500, etc.) of the medical device may be moved, the user's convenience of the medical device may be further increased.

도 13은 본 발명의 또 다른 실시예에 따라 변경된 UI를 관리하는 방법을 나타낸 흐름도이다.13 is a flowchart illustrating a method of managing a changed UI according to another embodiment of the present invention.

본 발명의 일 실시예에 따른 방법은, 사용자의 식별 정보를 획득하는 단계(S500), 획득된 식별 정보에 따라 변경된 UI를 저장하는 단계(S600)를 더 포함할 수 있지만, 반드시 이에 제한되는 것은 아니다. 예를 들어, 사용자 식별 정보를 획득하는 단계(S500)는 사용자의 모션 정보를 획득하는 단계(S100) 이전에 수행될 수도 있다. The method according to an embodiment of the present invention may further include obtaining identification information of the user (S500) and storing the changed UI according to the obtained identification information (S600), but is not limited thereto. no. For example, acquiring user identification information (S500) may be performed before acquiring motion information of the user (S100).

또한, 사용자 식별 정보를 획득하는 단계(S500)는 사용자의 모션 정보를 획득하는 단계(S100)와 동시에 수행될 수도 있다. In addition, the obtaining of the user identification information (S500) may be performed simultaneously with the obtaining of the motion information of the user (S100).

예를 들면, 전술한 바와 같이, 사용자의 지문 정보, 홍채 정보, 안면 정보 등이 획득됨과 동시에 이러한 사용자의 생체 정보를 포함하는 사용자 프로파일이 획득될 수 있다. 다시 말해서, 사용자 식별 정보는 사용자 생체 정보와 함께 사용자 프로파일에 포함될 수 있고, 이러한 사용자 프로파일은 데이터베이스의 형태로 미리 구축되어 있을 수 있다. For example, as described above, a user profile including biometric information of the user may be obtained at the same time that fingerprint information, iris information, facial information, etc. of the user are obtained. In other words, the user identification information may be included in the user profile together with the user biometric information, and the user profile may be previously built in the form of a database.

예를 들어, 사용자별 선호하는 UI 패턴, 또는 본 발명의 일 실시예에 따라 변경된 UI를 사용자 식별 정보(예컨대, ID 등)에 따라 저장해두고, 사용자는 이후 필요에 따라 자신의 식별 정보에 상응하는 저장된 UI 패턴 등을 로드하여 사용할 수도 있다. For example, a preferred UI pattern for each user, or a changed UI according to an embodiment of the present invention is stored according to user identification information (eg, ID, etc.), and the user may then correspond to his identification information as needed. You can also load and use saved UI patterns.

다시 말해서, 사용자의 신체적 특징, 행동적 특징이 상이할 수 있으므로, 사용자 식별 정보에 따라 적합한 UI 패턴 또는 이전에 변경해둔 UI 패턴 등을 데이터베이스화 해두고, 사용자의 의료 기기 조작 시 해당 사용자의 식별 정보에 상응하는 UI 패턴을 로드하여 의료 기기의 촬영 환경을 설정함으로써, 촬영 시간을 단축시킬 수 있다. In other words, since the physical and behavioral characteristics of the user may be different, a database of appropriate UI patterns or previously changed UI patterns according to the user identification information is stored in a database, and the identification information of the user when the user operates the medical device. By loading the UI pattern corresponding to the setting environment of the medical device, the shooting time can be shortened.

도 14는 본 발명의 일 실시예에 따른 의료 기기를 통한 대상체의 검진 시 사용되는 사용자 인터페이스(UI; User Interface)를 사용자의 모션 정보에 기초하여 변경시켜 제공하기 위한 장치를 도시한다. FIG. 14 illustrates an apparatus for changing and providing a user interface (UI) used in the examination of an object through a medical device based on user motion information according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 의료 기기를 통한 대상체의 검진 시 사용되는 사용자 인터페이스(UI; User Interface)를 사용자의 모션 정보에 기초하여 변경시켜 제공하기 위한 장치(2000)는, 사용자의 모션 정보를 획득하는 모션 정보 획득부(2100), 획득된 사용자의 모션 정보를 이용하여 UI를 변경하는 UI 변경부(2200) 및 변경된 UI의 디스플레이가 가능한 디스플레이부(2300)를 포함할 수 있다. The apparatus 2000 for changing and providing a user interface (UI) used in the examination of an object through a medical device based on the user's motion information according to an embodiment of the present invention may provide the user's motion information. It may include a motion information acquisition unit 2100 to obtain, a UI change unit 2200 for changing the UI using the obtained motion information of the user, and a display unit 2300 capable of displaying the changed UI.

모션 정보 획득부(2100)에서는, 사용자가 왼손으로 프로브(1200)를 사용하는지 또는 오른손으로 프로브(1200)를 사용하는지 등을 나타내는 모션 정보를 획득할 수 있다. The motion information acquisition unit 2100 may acquire motion information indicating whether the user uses the probe 1200 with his left hand or the probe 1200 with his right hand.

예컨대, 왼손을 주로 사용하는 사용자는 자신의 왼편에 대상체(예컨대, 환자)를 위치시키고, 영상 촬영을 진행할 것이다. 또한, 오른손을 주로 사용하는 사용자는 자신의 오른편에 대상체를 위치시키고, 영상 촬영을 진행할 것이다. 다시 말해서, 왼손잡이는 왼손으로 프로브(1200)를 파지하고 영상 촬영을 진행할 수 있고, 오른손잡이는 오른손으로 프로브(1200)를 파지하고 영상 촬영을 진행할 수 있다. For example, a user who mainly uses his left hand will place an object (eg, a patient) on his left side and proceed with imaging. In addition, a user who mainly uses his right hand will place an object on his right side and proceed with imaging. In other words, the left hand may hold the probe 1200 with his left hand and proceed with image capturing, and the right hand may hold the probe 1200 with his right hand and proceed with image capturing.

의료 기기, 특히 초음파 진단 기기의 사용자는 프로브(1200) 뿐만 아니라 컨트롤 패널(2500)을 조작하여 대상체에 대한 영상을 획득한다. 그러므로, 의료 기기 사용자의 활용 편의성을 증대시키기 위하여 사용자의 프로브(1200) 사용 양상에 따라, 컨트롤 패널 상에서 사용자 인터페이스(UI) 등을 상이한 형태로 제공할 수 있다. A user of a medical device, particularly an ultrasound diagnostic device, acquires an image of an object by manipulating the control panel 2500 as well as the probe 1200. Therefore, in order to increase convenience of use of the medical device user, a user interface (UI) or the like may be provided in a different form on the control panel according to the user's use of the probe 1200.

전술한 바와 같이, 사용자가 오른손잡이인 경우, 사용자는 대상체를 자신의 오른편에 위치시키고, 오른손을 이용하여 프로브를 조작하는 것이 편리할 수 있으므로, 컨트롤 패널 상의 버튼 UI, 트랙볼 UI 등이 오른손용 UI 패턴(도 2b의 131)으로써 제공된다면 사용자는 의료 기기의 활용상의 편리함을 느낄 수 있다. As described above, when the user is right-handed, it may be convenient for the user to position the object on his right side and manipulate the probe by using the right hand, so that a button UI, a trackball UI, and the like on the control panel are the right-hand UI. If provided as a pattern (131 of FIG. 2B), the user may feel the convenience of utilizing the medical device.

또한, 이와 유사하게 사용자가 왼손잡이인 경우, 사용자는 대상체를 자신의 왼편에 위치시키고, 왼손을 이용하여 프로브를 조작하는 것이 편리할 수 있으므로, 사용자 편의성을 고려하여 컨트롤 패널 상의 버튼 UI, 트랙볼 UI 등을 왼손용 UI 패턴(도 2b의 133)으로써 제공할 수 있다. Similarly, when the user is left-handed, it may be convenient for the user to place the object on his left side and manipulate the probe using his left hand, so that the user may be able to use a button UI on the control panel, a trackball UI, etc. Can be provided as a left hand UI pattern (133 of FIG. 2B).

이러한 컨트롤 패널 상의 오른손용 UI 패턴(131)과 왼손용 UI 패턴(133)은 사용자의 모션 정보에 기초하여 서로 전환될 수 있다. The right-hand UI pattern 131 and the left-hand UI pattern 133 on the control panel may be switched with each other based on the motion information of the user.

예를 들어, 의료 기기를 사용하는 사용자로서 A 사용자와 B 사용자가 존재하는 경우, 오른손잡이인 A 사용자가 의료 기기를 사용하고자 하는 경우, 본 발명의 일 실시예에 따라 컨트롤 패널(2500) 상에서 오른손용 UI 패턴(도 2b의 131)이 제공될 수 있고, 이에 비하여 왼손잡이인 B 사용자가 의료 기기를 사용하고자 하는 경우, 본 발명의 일 실시예에 따라 컨트롤 패널(2500) 상에서 왼손용 UI 패턴(도 2b의 133)이 제공될 수 있다.For example, when user A and user B exist as a user who uses a medical device, and user A, who is right-handed, wants to use the medical device, the right hand on the control panel 2500 according to an embodiment of the present invention. UI pattern (131 of FIG. 2B) may be provided. In contrast, when a user B who is left-handed wants to use a medical device, the UI pattern for the left hand (FIG. 2) may be provided on the control panel 2500 according to an embodiment of the present disclosure. 133 of 2b may be provided.

다시 말해서, 본 발명의 일 실시예에 따르면, 각각의 사용자는 자신의 신체적 특징 또는 행동적 특징에 제한 받지 않고 의료 기기를 탄력적으로 사용할 수 있고, 사용자에 따라 적합한 패턴의 UI를 제공함으로써 기존에 비하여 사용자 편의성을 증대시킬 수 있다는 효과가 있다. In other words, according to one embodiment of the present invention, each user can flexibly use the medical device without being limited to his or her physical or behavioral characteristics, and provides a UI of a suitable pattern according to the user, There is an effect that can increase the user convenience.

본 발명의 일 실시예에 따라 획득된 모션 정보에 기초하여 사용자 인터페이스(UI) 등을 변경하는 것은, 사용자가 의료 기기를 편리하게 조작할 수 있도록 의료 기기의 촬영 환경을 사용자에게 적응적으로 조정하는 것을 포함할 수 있다. 전술한 바와 같이, 우수 사용자인지, 좌수 사용자인지에 따라 컨트롤 패널(2500) 등의 UI의 배치를 달리하거나, 검진 종류에 따라 UI의 배치, 크기 등을 달리하거나 또는 촬영에 사용되는 버튼의 사용 빈도에 따라 UI의 배치, 크기 등을 조절하여 제공할 수 있다.Changing the user interface (UI) or the like based on the motion information obtained according to an embodiment of the present invention may be configured to adaptively adjust the photographing environment of the medical device to the user so that the user can conveniently operate the medical device. It may include. As described above, depending on whether the user is a good user or a left-handed user, the layout of the UI such as the control panel 2500 may be different, the layout, size, etc. of the UI may be changed depending on the type of examination, or the frequency of use of the buttons used for shooting. Depending on the layout, the size of the UI can be adjusted and provided.

도 15는 본 발명의 일 실시예에 따라 센싱부를 더 포함하는 장치를 도시한다.15 illustrates an apparatus further including a sensing unit according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 모션 정보 획득부(2100)는 센싱부(2110)를 더 포함할 수 있다. The motion information acquisition unit 2100 according to an embodiment of the present invention may further include a sensing unit 2110.

본 발명의 일 실시예에 따른 사용자의 모션 정보는, 센싱부(2110)를 통하여 획득된 현재 프로브의 위치 정보에 기초하여 획득될 수 있다. Motion information of a user according to an exemplary embodiment of the present invention may be obtained based on location information of a current probe acquired through the sensing unit 2110.

본 발명의 일 실시예에 따른 현재 프로브의 위치 정보는, 프로브의 현재의 지시방향, 소정의 기준 지점에 대한 경사각 및 높이값 중 적어도 하나를 포함할 수 있다. The position information of the current probe according to an embodiment of the present invention may include at least one of a current direction of the probe, an inclination angle with respect to a predetermined reference point, and a height value.

예를 들어, 현재의 프로브(1200)의 위치 정보는 프로브(1200)의 현재의 지시 방향에 기초하여 획득될 수 있다. 예컨대, 초음파 기기와의 연결을 위한 프로브(1200)에 포함(예컨대, 프로브의 단부에 포함 등)되거나 또는 프로브(1200)가 연결될 초음파 기기에 매립된 소정의 센서(121) 등을 통하여 프로브(1200)의 현재의 지시 방향 정보가 획득될 수 있다. For example, position information of the current probe 1200 may be obtained based on the current direction of indication of the probe 1200. For example, the probe 1200 may be included in the probe 1200 for connection with the ultrasonic device (eg, included at the end of the probe, etc.) or through a predetermined sensor 121 or the like embedded in the ultrasonic device to which the probe 1200 is connected. Current indication direction information) may be obtained.

이러한 소정의 센서(121)는, 기준선(예컨대, 센서(121)의 중심선(ML))으로부터 프로브(1200) 연결선이 어느 방향을 지향하는 지에 따라 프로브(1200)의 지시 방향을 판단하도록 구성될 수 있다. 다시 말해서, 본 발명의 일 실시예에 따른 소정의 센서(121)는 토글 스위치의 동작 원리와 유사하게 동작할 수 있다. The predetermined sensor 121 may be configured to determine the direction in which the probe 1200 is directed according to which direction the connection line of the probe 1200 is directed from the reference line (eg, the center line ML of the sensor 121). have. In other words, the predetermined sensor 121 according to an embodiment of the present invention may operate similar to the operating principle of the toggle switch.

본원의 도 4a를 다시 참조하면, 프로브(1200)가 중심선(ML)으로부터 오른쪽으로 편향되어 있다면, 현재 프로브(1200)의 위치 정보는 초음파 기기의 오른편을 지시하고 있다고 결정될 수 있다. 예컨대, 프로브(1200)는 초음파 기기의 오른편에 위치한다는 정보가 획득될 수 있다. Referring back to FIG. 4A of the present application, if the probe 1200 is deflected to the right from the center line ML, it may be determined that the position information of the current probe 1200 indicates the right side of the ultrasound apparatus. For example, information that the probe 1200 is located on the right side of the ultrasound apparatus may be obtained.

또한, 이와 달리 프로브(1200)가 중심선(ML)으로부터 왼쪽으로 편향되어 있다면, 현재 프로브(1200)의 위치 정보는 초음파 기기의 왼편을 지시하고 있다고 결정될 수 있다. 다시 말해서, 프로브(1200)는 초음파 기기의 왼편에 위치한다는 정보가 획득될 수 있다. Alternatively, if the probe 1200 is biased to the left from the center line ML, it may be determined that the position information of the current probe 1200 indicates the left side of the ultrasound apparatus. In other words, information that the probe 1200 is located on the left side of the ultrasound apparatus may be obtained.

또한, 본 발명의 일 실시예에 따른 프로브(1200)가 무선인 경우, 소정의 센서(121)는, 무선 통신을 통하여 무선 프로브의 GPS(Global Positioning System) 좌표를 센싱하도록 구성될 수 있다.In addition, when the probe 1200 according to an embodiment of the present invention is wireless, the predetermined sensor 121 may be configured to sense GPS (Global Positioning System) coordinates of the wireless probe through wireless communication.

또한, 본 발명의 일 실시예에 따라 현재 프로브(1200)의 위치 정보는 소정의 기준 지점에 대한 경사각 및 높이값 중 적어도 하나를 포함할 수 있다.In addition, according to an embodiment of the present invention, the position information of the current probe 1200 may include at least one of an inclination angle and a height value with respect to a predetermined reference point.

도 4b에 도시된 바와 같이, 프로브(1200)는 기울기 정보 또는 높이 정보를 획득하기 위한 센서(123) 등을 포함할 수 있다. 이러한 센서(123)는, 자이로 센서, 높이 센서 등을 포함할 수 있다. As shown in FIG. 4B, the probe 1200 may include a sensor 123 or the like for obtaining tilt information or height information. The sensor 123 may include a gyro sensor, a height sensor, or the like.

예를 들어, 현재 프로브(1200)의 위치 정보는 소정의 기준 지점에 대한 경사각 정보로서 획득될 수 있다. 소정의 기준 지점은 의료 기기가 위치한 지면, 환자 테이블 또는 프로브(1200)의 최초 위치(예컨대, 초음파 기기 상에 부착되어 있는 상태의 위치 등) 등을 포함할 수 있다. For example, position information of the current probe 1200 may be obtained as tilt angle information with respect to a predetermined reference point. The predetermined reference point may include the ground on which the medical device is located, the initial position of the patient table or probe 1200 (eg, the position of the state attached to the ultrasound device, etc.).

이러한 경사각 정보에 상응하게 사용자의 현재 모션이 추정될 수 있다. 예를 들면, 경사각의 변화 폭이 커질수록 프로브(1200)의 움직임 정도가 점점 증가한다고 추정될 수 있고, 추정된 프로브(1200)의 움직임에 기초하여 프로브(1200)를 조작중인 사용자의 움직임 각도 범위 등에 대한 모션 정보가 획득될 수 있다. The current motion of the user may be estimated according to this tilt angle information. For example, it may be estimated that the degree of movement of the probe 1200 gradually increases as the change width of the inclination angle increases, and the movement angle range of the user who is operating the probe 1200 based on the estimated movement of the probe 1200. Motion information for the back may be obtained.

예를 들면, 지면(또는 환자 테이블)과 프로브(1200)는 최대 90도의 각도(예컨대, 프로브(1200)가 지면에 수직하게 위치하는 경우)를 이룰 수 있다. 사용자는 촬영이 진행됨에 따라 프로브(1200)를 소정의 방향 및 각도로 이동시킬 수 있다. 프로브(1200)와 지면이 이루는 각도는 소정의 범위(예컨대, 0도 내지 90도) 내에 포함될 수 있다. 예를 들어, 사용자가 대상체의 간 초음파를 촬영하고자 할 경우, 프로브(1200)는 사용자 조작에 따라 지면과 평행(예컨대, 프로브(1200)와 지면은 0도의 각을 이룸)하거나 수직(예컨대, 프로브(1200)와 지면이 90도 각을 이룸)을 이루는 범위 내에서 이동될 수 있다. For example, the ground (or patient table) and the probe 1200 may form an angle of up to 90 degrees (eg, when the probe 1200 is positioned perpendicular to the ground). As the photographing proceeds, the user may move the probe 1200 in a predetermined direction and angle. An angle formed between the probe 1200 and the ground may be included within a predetermined range (eg, 0 degrees to 90 degrees). For example, when the user wants to photograph the ultrasound of the liver of the object, the probe 1200 may be parallel to the ground (eg, the probe 1200 and the ground form an angle of 0 degrees) or vertical (eg, the probe) according to a user's manipulation. 1200 and the ground at an angle of 90 degrees).

다시 말해서, 프로브(1200)가 지면과 평행한 상태에서 프로브(1200)와 지면이 수직인 상태로 프로브(1200)를 이동시킬 경우, 경사각의 변화 폭은 최대가 될 수 있고, 프로브(1200)의 움직임 정도도 최대라고 추정될 수 있으며, 이러한 추정된 프로브(1200)의 움직임에 기초하여 프로브(1200)를 조작중인 사용자의 움직임 정도도 최대라는 모션 정보가 획득될 수 있다.In other words, when the probe 1200 is moved in a state where the probe 1200 is parallel to the ground and the probe 1200 is perpendicular to the ground, the change width of the inclination angle may be maximum, and the width of the probe 1200 may be increased. The degree of movement may also be estimated to be maximum, and motion information indicating that the degree of movement of the user who is operating the probe 1200 is also maximum based on the estimated movement of the probe 1200.

또한, 이와 유사하게 초음파 기기 상에 프로브(1200)가 부착되어 있던 초기 상태의 위치로부터의 경사각이 현재 프로브(1200)의 위치 정보로서 획득될 수 있다. Similarly, the inclination angle from the position of the initial state where the probe 1200 is attached on the ultrasound device may be obtained as the position information of the current probe 1200.

예를 들어, 본 발명의 일 실시예에 따른 센서(123)는, 센서(123)를 기준으로 오른쪽 또는 동편으로의 방위는 양의 각도로 표현되고, 왼쪽 또는 서편으로의 방위는 음의 각도로 표현되도록 구성될 수 있지만 반드시 이에 제한되는 것은 아니다. For example, in the sensor 123 according to an embodiment of the present invention, the direction toward the right or the east side of the sensor 123 is represented by a positive angle, and the direction toward the left or the west side is represented by a negative angle. It may be configured to be represented, but is not necessarily limited thereto.

이에 따라, 프로브(1200)가 최초 위치로부터 현재 오른쪽으로 편향되어 존재하는 경우, 센서(123) 상에서 양의 경사각이 센싱될 수 있고, 현재 프로브(1200)는 센서(123)의 우측에 센싱된 경사각도의 위치에서 존재한다는 정보가 획득될 수 있다. 또한, 프로브(1200)가 최초 위치로부터 현재 왼쪽으로 편향되어 존재하는 경우, 센서(123) 상에서 음의 경사각이 센싱될 수 있고, 현재 프로브(1200)는 센서(123)의 좌측에 센싱된 경사각도의 위치에 존재한다는 정보가 획득될 수 있다.Accordingly, when the probe 1200 is presently biased to the right from the initial position, a positive inclination angle may be sensed on the sensor 123, and the current probe 1200 may be sensed on the right side of the sensor 123. Information that it exists at the location of the figure may be obtained. In addition, when the probe 1200 is presently biased to the left from the initial position, a negative tilt angle may be sensed on the sensor 123, and the current probe 1200 may be sensed on the left side of the sensor 123. Information may be obtained that exists at the position of.

또한, 현재 프로브(1200)의 위치 정보는 소정의 기준 지점에 대한 높이값 정보로서 획득될 수 있다. 소정의 기준 지점은 지면, 환자 테이블 또는 프로브(1200)의 최초 위치(예컨대, 초음파 기기 상에 부착된 상태의 위치 등) 등을 포함할 수 있다. 이러한 경우, 소정의 센서(123)는, 높이 센서일 수 있다. In addition, position information of the current probe 1200 may be obtained as height value information for a predetermined reference point. The predetermined reference point may include the ground, the patient table or the initial position of the probe 1200 (eg, the position attached to the ultrasound device, etc.). In this case, the predetermined sensor 123 may be a height sensor.

예를 들면, 센서(123)는, 현재 프로브(1200)가 지면으로부터 약 120cm의 높이에 위치하고 있다는 정보를 센싱할 수 있다. For example, the sensor 123 may sense information that the current probe 1200 is located at a height of about 120 cm from the ground.

또한, 센서(123)는, 프로브(1200)가 예컨대, 초음파 기기 상에 부착된 초기 상태에 비하여 현재 약 5cm정도 낮게 위치하고 있음을 센싱할 수 있다. 다시 말해서, 이러한 소정의 기준 지점에 대한 높이값 정보는, 현재 프로브(1200)의 위치 정보로서 획득될 수 있다. In addition, the sensor 123 may sense that the probe 1200 is currently positioned about 5 cm lower than the initial state attached to, for example, the ultrasound apparatus. In other words, the height value information for the predetermined reference point may be obtained as position information of the current probe 1200.

본 발명의 일 실시예에 따른 프로브(1200)의 높이값 정보(예컨대, 높이의 변화 정도 등)에 기초하여 프로브(1200)를 조작중인 사용자의 자세의 높낮이 변화 정도를 나타내는 모션 정보가 획득될 수 있다.Based on the height value information (eg, the degree of change in height, etc.) of the probe 1200 according to an embodiment of the present invention, motion information indicating a degree of change in height of the posture of the user who is operating the probe 1200 may be obtained. have.

본 발명의 일 실시예에 따른 사용자 모션 정보는, 센싱부(2110)를 통하여 획득된 사용자의 지문 정보, 사용자의 홍채 정보, 사용자의 안면 정보 중 적어도 하나를 포함하는 생체 정보에 기초하여 획득될 수 있다. The user motion information according to an embodiment of the present invention may be obtained based on biometric information including at least one of a fingerprint information of a user, an iris information of a user, and facial information of a user obtained through the sensing unit 2110. have.

본원의 도 5를 다시 참조하면, 프로브(1200)에 포함된 센서(125)를 통하여 획득된 사용자의 지문 정보(11)에 기초하여, 사용자가 왼손 또는 오른손 중 현재 어느 손으로 프로브(1200)를 파지하였는지에 대하여 결정할 수 있다. Referring back to FIG. 5 of the present application, based on the fingerprint information 11 of the user obtained through the sensor 125 included in the probe 1200, the user may select the probe 1200 with either the left hand or the right hand. It can be determined whether or not gripping.

다시 말해서, 프로브(1200)에 포함된 센서(125)를 통하여 획득한 사용자의 지문 정보(11)로부터 사용자가 프로브(1200)를 왼손으로 사용하는지 또는 오른손으로 사용하는지에 대한 모션 정보를 획득할 수 있다. In other words, motion information about whether the user uses the probe 1200 for the left hand or the right hand may be obtained from the fingerprint information 11 of the user acquired through the sensor 125 included in the probe 1200. have.

예컨대, 획득된 사용자의 지문 정보(11)가 사용자의 오른손 엄지 또는 검지에 대한 지문이라면, 사용자는 현재 프로브(1200)를 오른손으로 파지하고 있는 것으로 결정되고, 사용자의 오른손으로 프로브(1200) 사용이라는 모션 정보가 획득될 수 있다. For example, if the acquired fingerprint information 11 of the user is the fingerprint of the user's right hand thumb or index finger, it is determined that the user is currently holding the probe 1200 with his right hand, and the user's right hand uses the probe 1200. Motion information can be obtained.

또한, 획득된 사용자의 지문 정보(11)가 사용자의 왼손 엄지 또는 검지에 대한 지문이라면, 사용자는 현재 프로브(1200)를 왼손으로 파지하고 있는 것으로 결정되고, 사용자의 왼손으로 프로브(1200) 사용이라는 모션 정보가 획득될 수 있다.In addition, if the acquired fingerprint information 11 of the user is the fingerprint of the thumb or the index finger of the user, it is determined that the user is holding the probe 1200 with his left hand, and the user may use the probe 1200 with his left hand. Motion information can be obtained.

또한, 본 발명의 일 실시예에 따르면, 프로브(1200)에 포함된 센서(125)를 통하여 획득된 사용자의 지문 정보(11)에 기초하여 현재 프로브를 사용중인 사용자가 누구인지를 식별할 수 있다. 이러한 경우, 사용자의 지문 정보(11)는 사용자 식별 정보(예컨대, ID 등)로서 활용될 수 있다.In addition, according to an embodiment of the present invention, it is possible to identify who is currently using the probe based on the fingerprint information 11 of the user obtained through the sensor 125 included in the probe 1200. . In this case, the fingerprint information 11 of the user can be utilized as user identification information (eg, ID, etc.).

또한, 본 발명의 일 실시예에 따른 사용자 모션 정보는, 사용자의 홍채 정보(13), 사용자의 안면 정보(15) 중 적어도 하나에 기초하여 획득될 수 있다. In addition, the user motion information according to an embodiment of the present invention may be obtained based on at least one of the user's iris information 13 and the user's face information 15.

본원도 도 5를 다시 참조하면, 초음파 기기 상에 구비된 센서(111) 등을 통하여 사용자의 홍채 정보(13), 사용자의 안면 정보(15) 중 적어도 하나가 획득될 수 있다. 이러한 센서(111)는 초음파 기기의 디스플레이부(2300) 근방에 위치될 수 있지만, 반드시 이에 제한되는 것은 아니다. 5 again, at least one of the iris information 13 of the user and the face information 15 of the user may be obtained through a sensor 111 provided on the ultrasound apparatus. The sensor 111 may be located near the display unit 2300 of the ultrasonic device, but is not necessarily limited thereto.

또한, 이러한 센서(111)는 홍채 인식, 안면 인식 기능을 동시에 수행할 수 있거나 또는 홍채 인식 기능, 안면 인식 기능을 갖는 각각의 개별적인 센서로서 구현될 수 있다. In addition, the sensor 111 may simultaneously perform iris recognition and face recognition, or may be implemented as each individual sensor having an iris recognition and face recognition.

본 발명의 일 실시예에 따라, 센서(111)를 통하여 사용자의 홍채 정보(13)가 획득될 수 있다. 사용자의 홍채 정보(13)는 현재 사용자가 누구인지에 대한 사용자 식별 정보, 현재 사용자의 홍채의 현재 위치 등에 대한 정보를 포함할 수 있다. 예를 들어, 센서(111)를 통하여 사용자의 홍채를 판독함으로써, 현재 사용자가 누구인지에 대한 정보를 획득할 수 있다. According to an embodiment of the present invention, the iris information 13 of the user may be obtained through the sensor 111. The iris information 13 of the user may include user identification information about who the current user is, information about the current location of the iris of the current user, and the like. For example, by reading the iris of the user through the sensor 111, information about who the current user is can be obtained.

또한, 센서(111)를 통하여 획득된 홍채의 현재 위치 정보를 이용하여 사용자의 현재 시선을 결정하고, 사용자의 현재 시선에 기초하여 사용자의 모션 정보를 획득할 수 있다. 다시 말해서, 사용자의 눈에서 홍채가 왼쪽 또는 오른쪽 중 어느 쪽으로 더 많이 편향되어 위치하는지에 따라 사용자의 현재의 자세에 대한 정보를 획득할 수 있지만, 반드시 이에 제한되는 것은 아니다. In addition, the current gaze of the user may be determined using current location information of the iris obtained through the sensor 111, and motion information of the user may be obtained based on the current gaze of the user. In other words, information about the current posture of the user may be obtained depending on whether the iris is more biased toward the left or the right in the user's eyes, but is not necessarily limited thereto.

예를 들어, 사용자의 눈에서 홍채가 대체로 왼쪽으로 편향되어 위치하는 경우, 사용자의 상체가 오른쪽을 지향하고 있다고 판단될 수 있다. 다시 말해서, 사용자가 현재 오른손으로 프로브(1200) 등을 조작하고 있다고 판단될 수 있다. For example, when the iris is generally biased to the left in the user's eye, it may be determined that the upper body of the user is directed to the right. In other words, it may be determined that the user is currently operating the probe 1200 with his right hand.

이와 유사하게, 사용자의 눈에서 홍채가 대체로 오른쪽으로 편향되어 위치하는 경우, 사용자의 상체가 왼쪽을 지향하고 있다고 판단될 수 있다. 사용자가 현재 왼손으로 프로브(1200) 등을 조작하고 있다고 판단될 수 있다.Similarly, when the iris is generally biased to the right in the user's eye, it may be determined that the upper body of the user is directed to the left. It may be determined that the user is operating the probe 1200 with the left hand.

본 발명의 일 실시예에 따라, 센서(111)를 통하여 사용자의 안면 정보(15)가 획득될 수 있다. 사용자의 안면 정보(15)는 현재 사용자가 누구인지에 대한 사용자 식별 정보, 사용자의 현재 안면 방향 등에 대한 정보를 포함할 수 있다. 예를 들어, 센서(111)를 통하여 사용자의 안면 특징점, 안면 윤곽선 등을 판독함으로써, 현재 사용자가 누구인지에 대한 정보를 획득할 수 있다.According to an embodiment of the present invention, the face information 15 of the user may be obtained through the sensor 111. The facial information 15 of the user may include user identification information about who the current user is, information about the current facial direction of the user, and the like. For example, by reading the facial feature point, the facial contour, and the like of the user through the sensor 111, information about who the current user is can be obtained.

또한, 센서(111)를 통하여 획득된 사용자의 안면 방향 정보를 이용하여 사용자의 주(main) 안면을 결정하고, 사용자의 주 안면에 기초하여 사용자의 모션 정보를 획득할 수 있다. 다시 말해서, 사용자의 안면 면적에 기초하여 사용자의 현재의 주 안면을 결정하고, 결정된 주 안면으로부터 사용자의 현재의 자세에 대한 정보를 획득할 수 있다. In addition, the main face of the user may be determined using face direction information of the user acquired through the sensor 111, and motion information of the user may be obtained based on the main face of the user. In other words, the current main face of the user may be determined based on the face area of the user, and information about the current posture of the user may be obtained from the determined main face.

예를 들면, 사용자의 오른쪽 안면과 왼쪽 안면의 면적을 비교하여, 왼쪽 안면의 면적이 더 넓은 경우, 사용자의 상체가 오른쪽을 지향하고 있다고 판단될 수 있다. 다시 말해서, 사용자가 현재 오른손으로 프로브(1200) 등을 조작하고 있다고 판단될 수 있다. For example, by comparing the area of the right face with the left face of the user, if the area of the left face is larger, it may be determined that the upper body of the user is directed to the right. In other words, it may be determined that the user is currently operating the probe 1200 with his right hand.

이와 유사하게, 사용자의 오른쪽 안면과 왼쪽 안면의 면적을 비교하여, 오른쪽 안면의 면적이 더 넓은 경우, 사용자의 상체가 왼쪽을 지향하고 있다고 판단될 수 있다. 다시 말해서, 사용자가 현재 왼손으로 프로브(1200) 등을 조작하고 있다고 판단될 수 있다.Similarly, by comparing the area of the right face with the left face of the user, when the area of the right face is wider, it may be determined that the upper body of the user is facing the left side. In other words, it may be determined that the user is currently operating the probe 1200 with his left hand.

또한, 사용자의 홍채 정보(13) 및 사용자의 안면 정보(15)를 이용하여 사용자의 모션 정보가 획득될 수 있다. 예를 들어, 사용자의 오른쪽 안면과 왼쪽 안면의 면적을 비교하였지만, 어느 쪽 안면의 면적이 더 넓은지 명확히 구분할 수 없는 경우에, 전술한 방법과 같이 사용자의 홍채 정보를 추가로 고려하여 사용자의 모션 정보를 획득할 수도 있다.In addition, motion information of the user may be obtained using the iris information 13 of the user and the face information 15 of the user. For example, when the area of the right and left faces of the user is compared, but it is not possible to clearly distinguish which area of the face is larger, the user's motion is further considered in consideration of the user's iris information as described above. Information can also be obtained.

본 발명의 일 실시예에 따른 UI는 대상체의 검진 시 사용될 기능을 나타낸 단축 버튼, 스위치, 키보드 및 트랙볼 중 적어도 하나를 포함할 수 있다. The UI according to an embodiment of the present invention may include at least one of a shortcut button, a switch, a keyboard, and a trackball indicating a function to be used when the object is examined.

본원의 도 6을 다시 참조하면, 본 발명의 일 실시예에 따라 의료 기기에서의 동작 기능을 표시하는 사용자 인터페이스(UI)는 키보드(611), 버튼 또는 스위치(613), 트랙볼(615) 등을 포함할 수 있다. Referring back to FIG. 6 of the present application, in accordance with an embodiment of the present invention, a user interface (UI) for displaying operating functions in a medical device includes a keyboard 611, a button or switch 613, a trackball 615, and the like. It may include.

본 발명의 일 실시예에 따른 사용자 인터페이스(UI)는, 대상체의 촬영과 관련하여 문자, 숫자 등을 입력할 수 있는 키보드(611) 형태의 UI, 영상의 확대/축소, 해상도 조절, 2D 영상과 3D 영상 간의 전환 등 소정의 기능을 나타낸 적어도 하나의 버튼 또는 스위치(613) 형태의 UI, 트랙볼(615) 형태의 UI 등을 포함할 수 있다. According to an embodiment of the present invention, a user interface (UI) may include a user interface (UI) in the form of a keyboard 611 for inputting letters, numbers, etc., zooming / reducing an image, adjusting resolution, and 2D image. It may include a UI in the form of at least one button or switch 613, a UI in the form of a trackball 615, and the like, for example, switching between 3D images.

전술한 키보드(611) 형태의 UI, 적어도 하나의 버튼 또는 스위치(613) 형태의 UI 및 트랙볼(615) 형태의 UI 중 적어도 하나는 가상의 UI 레이아웃(virtual UI layout)으로서 제공될 수 있다.At least one of the above-described UI in the form of a keyboard 611, the UI in the form of at least one button or switch 613, and the UI in the form of a trackball 615 may be provided as a virtual UI layout.

다시 말해서, 본 발명의 일 실시예에 따른 사용자 인터페이스(UI)는 반드시 항상 물리적으로 일정한 형태로만 존재해야 하는 것은 아니고, 디스플레이부(2300) 또는 컨트롤 패널(2500) 상에서 문자, 숫자, 이미지 등의 형태로 소정의 기능을 나타내도록 가상(virtual)으로 존재할 수 있다.In other words, the user interface (UI) according to an embodiment of the present invention does not always need to exist in a physically constant form, but in the form of letters, numbers, images, etc. on the display unit 2300 or the control panel 2500. It may exist virtually to represent a predetermined function.

본 발명의 일 실시예에 따른 UI 변경부(2200)는, 획득된 사용자의 모션 정보에 따라 UI의 모양, 크기 및 위치 중 적어도 하나를 변경할 수 있다. UI 변경부(2200)는 프로세서(processor)를 포함하는 하드웨어 장치로 구성될 수 있다. The UI changer 2200 according to an embodiment of the present invention may change at least one of a shape, a size, and a position of the UI according to the obtained motion information of the user. The UI changer 2200 may be configured as a hardware device including a processor.

본 발명의 도 7a를 다시 참조하면, 획득된 사용자의 모션 정보에 따라 UI의 모양이 변경될 수 있다. Referring back to FIG. 7A of the present invention, the shape of the UI may be changed according to the acquired motion information of the user.

예를 들어, 프로브(1200)의 움직임 범위가 매우 넓어진 경우, 다시 말해서 사용자의 움직임이 많아진 경우, 사용자 인터페이스(UI)(611 내지 615)로의 사용자의 터치가 불편할 수 있다. 다시 말해서, 사용자의 손이 사용자 인터페이스(UI)까지 닿지 않거나, 또는 사용자가 UI를 조작하는데 어려움을 느낄 수도 있다. For example, when the movement range of the probe 1200 is very wide, that is, when the movement of the user increases, the user's touch to the user interface (UI) 611 to 615 may be inconvenient. In other words, the user's hand may not reach the user interface (UI), or the user may have difficulty operating the UI.

이러한 경우, 본 발명의 일 실시예에서와 같이, 사용자 인터페이스(UI)의 모양 등을 변경하여 사용자의 편의성을 증대시킬 수 있다. 사용자 인터페이스(UI)는 모양이 변경되는 복수의 가변 UI를 포함할 수 있다. 예컨대, 촬영 과정 동안에 사용자가 버튼 1 또는 버튼 3에 비하여 버튼 2를 더욱 자주 사용한다면, 사용자의 버튼 2에 대한 액세스 확률이 높아지도록 아랫변이 가장 긴 삼각형의 형태로 모양을 변경할 수 있다. 다시 말해서, 버튼 2의 면적이 버튼 1 또는 버튼 3보다 더 크도록 변경할 수 있다. 다만, 사용자 인터페이스(UI)는 모양이 변경되지 않는 UI를 포함할 수도 있다. 예를 들어, 도 6의 트랙볼(615) 형태의 UI를 간략화한 도 7a의 UI는 모양이 변경되지 않을 수 있다.In this case, as in the exemplary embodiment of the present invention, the user's convenience may be increased by changing the shape of the user interface UI. The user interface UI may include a plurality of variable UIs whose shape is changed. For example, if the user uses the button 2 more frequently than the button 1 or the button 3 during the photographing process, the shape of the lower side may be changed to the shape of the longest triangle to increase the access probability of the button 2. In other words, it is possible to change the area of button 2 to be larger than button 1 or button 3. However, the UI may include a UI whose shape does not change. For example, the UI of FIG. 7A, which simplifies the UI in the form of the trackball 615 of FIG. 6, may not change shape.

또한, 복수의 가변 UI의 위치는 변경될 수 있다. 본 발명의 일 실시예에 따르면, 버튼 1 내지 3의 위치를 변경할 수도 있다. 예를 들어, 버튼 3, 버튼 1, 버튼 2의 순서로 배치되도록 UI를 변경할 수 있다. 이러한 경우, 버튼 1이 가장 사용 빈도가 높은 버튼일 수 있고, 버튼 1이 아랫변이 가장 긴 삼각형의 형태를 이룰 수 있지만, 버튼 등 UI의 변경 전후의 모양이 반드시 이에 제한되는 것은 아니다. 다만, 사용자 인터페이스(UI)는 위치가 변경되지 않는 UI를 포함할 수도 있다. 예를 들어, 도 6의 트랙볼(615) 형태의 UI를 간략화한 도 7a의 UI는 위치가 변경되지 않을 수 있다. In addition, the positions of the plurality of variable UIs may be changed. According to an embodiment of the present invention, the positions of the buttons 1 to 3 may be changed. For example, the UI may be changed to be arranged in the order of button 3, button 1, and button 2. In this case, the button 1 may be the button with the highest frequency of use, and the button 1 may form a triangle having the longest lower side, but the shape before and after the change of the UI such as the button is not necessarily limited thereto. However, the UI may include a UI whose position does not change. For example, the UI of FIG. 7A, which simplifies the UI in the form of the trackball 615 of FIG. 6, may not change its position.

또한, 본 발명의 도 7b를 다시 참조하면, 사용자 인터페이스(UI)는 획득된 사용자의 모션 정보에 따라 UI의 크기가 변경되는 복수의 가변 UI를 포함할 수 있다. In addition, referring back to FIG. 7B of the present invention, the UI may include a plurality of variable UIs whose sizes are changed according to the obtained motion information of the user.

전술한 바와 같이, 사용자의 움직임이 많아진 경우 UI 패턴(131)의 버튼 등의 크기를 전체적으로 또는 부분적으로 증감시킴으로써, 사용자가 손쉽게 버튼 등의 UI에 액세스할 수 있도록 UI의 크기를 변경하여 제공(135)할 수 있다. As described above, when the user's movement increases, the size of a button or the like of the UI pattern 131 is increased or decreased in whole or in part, thereby changing the size of the UI so that the user can easily access the UI such as the button (135). )can do.

예를 들어, 버튼 1 내지 3의 크기를 증가시켜 제공함으로써, 사용자의 버튼의 접근성을 높일 수 있다. 또한, 이와 유사하게 버튼 1 내지 3의 위치가 사용자와 가깝도록 변경함으로써, 사용자의 버튼의 접근성을 높일 수 있다. 다만, 사용자 인터페이스(UI)는 크기가 변경되지 않는 UI를 포함할 수도 있다. 예를 들어, 도 6의 트랙볼(615) 형태의 UI를 간략화한 도 7b의 UI는 크기가 변경되지 않을 수 있다. 도 7a 및 도 7b를 도 15와 함께 참조하면, UI 변경부(2200)는 UI에 관한 사용 이력, 사용 빈도 및 액세스 정도 중 적어도 하나를 포함하는 사용 정보에 기초하여 UI의 모양, 크기 및 위치 중 적어도 하나를 변경할 수 있다. For example, by increasing the size of the buttons 1 to 3, the accessibility of the user's buttons can be improved. Similarly, by changing the positions of the buttons 1 to 3 close to the user, the accessibility of the user's buttons can be improved. However, the UI may include a UI whose size does not change. For example, the UI of FIG. 7B, which simplifies the UI in the form of the trackball 615 of FIG. 6, may not be changed in size. Referring to FIGS. 7A and 7B together with FIG. 15, the UI change unit 2200 may determine a shape, size, and position of the UI based on usage information including at least one of a usage history, a frequency of use, and an access level of the UI. You can change at least one.

본원의 도 7c를 다시 참조하면, 사용자의 신체적 특징 등에 기초하여 상이한 패턴의 UI를 제공할 수 있다. Referring back to FIG. 7C of the present application, different patterns of UI may be provided based on the physical characteristics of the user.

우수 사용자에 대하여는, 오른손용 UI 패턴(131)이 제공될 수 있다. 또한, 좌수 사용자에 대하여는, 왼손용 UI 패턴(133)이 제공될 수 있다. 이러한 오른손용 UI 패턴(131)과 왼손용 UI 패턴(133)은 서로 대칭될 수 있고, 전술한 바와 같이 사용자 모션 정보에 기초하여 상호 전환이 가능할 수 있다.For the good user, the right-hand UI pattern 131 may be provided. In addition, the left hand UI pattern 133 may be provided to the left user. The right-hand UI pattern 131 and the left-hand UI pattern 133 may be symmetrical with each other, and may be mutually switched based on user motion information as described above.

본 발명의 일 실시예에 따른 UI는 대상체의 검진 시 사용되는 기능의 빈도에 따라 모양, 크기 및 위치 중 적어도 하나가 상이하게 제공될 수 있다. According to an embodiment of the present invention, at least one of a shape, a size, and a position may be differently provided according to a frequency of a function used when examining an object.

본원의 도 8을 다시 참조하면, UI 패턴(131)은 도 8b 및 도 8c에 도시된 바와 같이 대상체의 검진 시 사용되는 기능의 빈도에 따라 UI는 모양, 크기 및 위치 중 적어도 하나가 변경되어 제공(137 또는 139)될 수 있다. 설명의 편의상 도 8a의 UI 패턴(131)은 의료 기기에서 제공될 수 있는 기본 패턴으로 가정한다.Referring back to FIG. 8 of the present application, the UI pattern 131 is provided with a UI changed in at least one of shape, size, and position according to a frequency of a function used in the examination of an object, as shown in FIGS. 8B and 8C. (137 or 139). For convenience of description, it is assumed that the UI pattern 131 of FIG. 8A is a basic pattern that can be provided in a medical device.

예를 들어, 소정의 검진 항목에서 트랙볼은 사용되지 않고, 1 내지 3으로 간략화하여 표시된 버튼형 UI 중 2번 버튼에 상응하는 기능이 가장 많이 사용될 수 있다. 이러한 경우, 도 8b에서와 같이, 기본 패턴(131)에서 트랙볼 기능의 원형 UI가 생략되고, 2번 버튼의 UI의 크기가 가장 크도록 변경되어 제공될 수 있다. For example, the track ball is not used in a predetermined examination item, and a function corresponding to button 2 of the button type UI, which is simplified to 1 to 3, may be most used. In this case, as shown in FIG. 8B, the circular UI of the trackball function may be omitted in the basic pattern 131, and the size of the UI of the button 2 may be changed to be the largest.

도 8을 도 15와 함께 참조하면, UI 변경부(2200)는 사용자가 대상체를 검진 시 자주 사용하는 기능에 관한 사용 정보에 기초하여 UI의 모양, 크기 및 위치 중 적어도 하나를 변경할 수 있다. 다시 말해서, 사용자에 의하여 사용되지 아니하거나 사용 빈도가 적은 UI는 생략하고, 사용 빈도가 높은 UI를 큰 크기로 제공함으로써, 의료 기기를 조작하는 사용자의 UI로의 접근성 및 편의성을 증대시킬 수 있다. Referring to FIG. 8 along with FIG. 15, the UI changer 2200 may change at least one of a shape, a size, and a position of the UI based on usage information regarding a function frequently used by a user for examining an object. In other words, by omitting a UI that is not used or used less frequently by the user, and providing a UI with a high frequency of use, the accessibility and convenience of the user who operates the medical device can be increased.

다른 예로서, 소정의 검진 항목에서 사용자가 트랙볼을 주로 사용하고, 버튼형 UI 중 3번 버튼(예를 들면, 확대/축소 기능 등)을 가장 많이 사용한다면, 도 8c에서와 같이, 기본 패턴(131)에서 트랙볼에 해당하는 원형의 UI와 버튼형 UI 중 3번 버튼의 크기를 크게 변경하여 제공(139)할 수 있다. As another example, if a user mainly uses the trackball in a predetermined examination item and most uses the third button (for example, a zoom function, etc.) of the button type UI, the basic pattern 131 as shown in FIG. 8C. ) Can be provided by changing the size of the button 3 of the circular UI and the button-type UI corresponding to the trackball significantly (139).

또한, 사용자의 손 모양과 유사하게 도 8c에서의 패턴(139)과 같이 방사형의 형태로 UI가 배치되어 제공될 수 있지만, 반드시 이에 제한되는 것은 아니다.In addition, although the UI may be disposed and provided in a radial form as in the pattern 139 of FIG. 8C, similar to the shape of the user's hand, the present invention is not limited thereto.

또한, 검사 종류에 따라 사용되는 기능의 빈도 수가 상이할 수 있으므로, 검사 종류에 따라 상이한 패턴의 UI를 제공할 수 있다. In addition, since the frequency of the functions used may vary according to the test type, a UI having a different pattern may be provided according to the test type.

예를 들면, 심장 초음파 검사, 간 초음파 검사, 복부 초음파 검사와 부인과 초음파 검사, 도플러 초음파 검사 등 각각의 검사 종류에 따라 초음파 기기에서 제공되는 기능의 사용 빈도 수가 상이할 수 있다. 예컨대, 심장 초음파 검사에서는 영상의 확대/축소 기능과 트랙볼 기능의 사용 빈도 수가 높은 반면에, 간 초음파 검사에서는 영상의 확대/축소 기능과 트랙볼 기능보다는 해상도의 조절 기능 등이 더 많이 사용될 수 있다. For example, the frequency of use of the functions provided in the ultrasound apparatus may vary depending on the types of examinations such as cardiac ultrasound, liver ultrasound, abdominal ultrasound, gynecological ultrasound, and Doppler ultrasound. For example, in an echocardiography, an image zooming function and a trackball function are frequently used, whereas in liver ultrasound, a resolution adjustment function may be used more than an zooming and trackball function.

다시 말해서, 심장 초음파 검사에서는 영상의 확대/축소 기능을 수행하는 UI와 트랙볼 기능을 수행하는 UI를 다른 UI에 비하여 비교적 크고, 컨트롤 패널(2500)의 중앙부 등에 위치시킬 수 있다. In other words, in the echocardiography, a UI that performs an enlargement / reduction function of an image and a UI that performs a trackball function may be relatively larger than other UIs, and may be positioned in the center of the control panel 2500.

이에 비하여, 간 초음파 검사에서는 영상의 확대/축소 기능의 UI와 트랙볼 기능의 UI의 크기를 줄이거나 생략할 수 있고, 컨트롤 패널(2500)의 중앙부 등에 해상도의 조절 기능을 수행하는 UI가 상대적으로 큰 크기로 배치되도록 UI 패턴을 변경할 수 있다.On the other hand, in the liver ultrasound examination, the size of the UI of the zooming / reducing function of the image and the UI of the trackball function can be reduced or omitted, and the UI of adjusting the resolution of the center of the control panel 2500 is relatively large. You can change the UI pattern so that it is laid out in size.

도 16은 본 발명의 일 실시예에 따라 센싱부, 외부 입력 수신부 및 컨트롤 패널을 더 포함하는 장치를 도시한다. 16 illustrates an apparatus further including a sensing unit, an external input receiver, and a control panel according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 장치(2000)는 외부 입력 수신부(2400)를 더 포함할 수 있다. The apparatus 2000 according to an embodiment of the present invention may further include an external input receiver 2400.

본 발명의 일 실시예에 따른 UI는 외부 입력 수신부(2400)를 통하여 수신된 외부 입력 신호에 따라 UI 변경부(2200)에 의하여 편집될 수 있다. The UI according to an embodiment of the present invention may be edited by the UI changer 2200 according to an external input signal received through the external input receiver 2400.

본 발명의 일 실시예에 따른 UI는, 예를 들어, 사용자 입력에 따라 추가, 삭제, 위치, 크기 변경이 가능하다. 또한, UI는 사용자 입력에 따라 언어, 글꼴, UI 표시 색깔 등의 변경이 가능하다. The UI according to an embodiment of the present invention may be added, deleted, positioned, or changed in size according to a user input. In addition, the UI may change a language, a font, and a UI display color according to a user input.

예컨대, 사용자 입력에 따라 버튼형 UI의 위치 또는 크기가 변경될 수 있다. For example, the position or size of the button-type UI may change according to a user input.

본원의 도 9를 다시 참조하면, UI에 대한 사용자의 소정의 입력에 기초하여 UI의 위치 또는 크기가 변경될 수 있다. 본 발명의 일 실시예에 따른 사용자의 소정의 입력은 UI에 대한 적어도 1회의 클릭, 일정 시간 동안의 누름 중 적어도 하나를 포함할 수 있다. 또한 이러한 소정의 입력은 복수의 입력이 동시에 입력되는 경우도 포함할 수 있다. Referring back to FIG. 9 of the present application, the position or size of the UI may be changed based on a user's predetermined input to the UI. The predetermined input of the user according to an embodiment of the present invention may include at least one of at least one click on the UI and a press for a predetermined time. The predetermined input may also include a case where a plurality of inputs are simultaneously input.

예를 들면, 버튼형 UI 중 1번 버튼에 대하여 사용자 입력으로서 약 1초 내지 1.5초의 누름을 통하여 편집 개시 신호를 인가 받고, 1번 버튼을 목표하는 위치로의 드래그 및 드롭(21) 신호를 인가 받음으로써 1번 버튼의 위치를 변경할 수 있다. For example, an edit start signal is applied as a user input to button 1 of the button type UI as a user input, and a drag and drop 21 signal to button 1 is applied to a target position. To change the position of button 1.

이러한 드래그 앤 드롭(21) 신호는 연속적인 사용자 입력 신호일 수 있다. 다시 말해서, 예컨대 1번 버튼에 대한 드래그 앤 드롭(21)의 사용자 입력 신호는 지속적으로(seamless) 인가되는 신호일 수 있다. 예를 들어, 원터치로 드래그 앤 드롭(21) 신호가 인가될 수 있지만, 반드시 이에 제한되는 것은 아니다. The drag and drop 21 signal may be a continuous user input signal. In other words, for example, the user input signal of the drag and drop 21 for the button 1 may be a signal that is continuously applied. For example, the drag and drop 21 signal may be applied by one touch, but is not necessarily limited thereto.

또한, 예를 들면, 편집 개시 신호를 인가 받은 후, 1번 버튼의 경계선에 대한 소정의 방향으로의 드래그 신호를 인가 받음으로써, 1번 버튼을 확대 또는 축소할 수 있다. Further, for example, after receiving the edit start signal, the first button can be enlarged or reduced by receiving a drag signal in a predetermined direction with respect to the boundary line of the first button.

또한, 예를 들어, 편집 개시 신호를 인가 받은 후, UI를 한번 더 클릭함으로써 해당 UI를 삭제할 수 있다. In addition, for example, after receiving the edit start signal, the UI may be deleted by clicking the UI once again.

또한, 예컨대, UI 이외의 빈 공간에 대하여 사용자로부터 인가된 수초(예컨대, 약 1초 내지 2초 등) 동안의 누름(23)을 통하여 UI 추가 개시 신호를 인가 받아 UI를 추가할 수 있다.In addition, for example, the UI may be added by receiving a UI addition start signal through a press 23 for a few seconds (for example, about 1 second to 2 seconds, etc.) applied by the user to an empty space other than the UI.

또한, 예를 들면, 기존의 UI 또는 새롭게 추가된 UI는 해당 UI에 대한 복수회의 클릭 또는 소정의 패턴(예컨대, 별 모양, 삼각형, 사각형 등) 입력 등을 포함하는 외부 입력 신호에 기초하여 해당 UI의 기능을 재설정할 수 있다. 다시 말해서, 소정의 패턴 또는 클릭 당 해당 UI에 적용 가능한 기능들(예컨대, 2D 영상과 3D 영상 간의 전환, 해상도 조정 등)이 해당 UI 상에서 변경되어 표시될 수 있다. Also, for example, an existing UI or a newly added UI may be a UI based on an external input signal including a plurality of clicks or a predetermined pattern (eg, star, triangle, square, etc.) input to the UI. You can reset the function of. In other words, functions (eg, switching between 2D and 3D images, adjusting resolution, etc.) applicable to the corresponding UI per predetermined pattern or click may be displayed on the corresponding UI.

또한, 본 발명의 다른 실시예에 따르면, 기존의 UI 또는 새롭게 추가된 UI에 적용 가능한 기능들이 미리 설정된 테이블 등의 형태로 제공될 수 있다. In addition, according to another embodiment of the present invention, functions applicable to an existing UI or a newly added UI may be provided in the form of a preset table or the like.

예를 들어, 이러한 테이블 등이 팝업 형태로 제공될 수 있거나, 컨트롤 패널(2500) 등의 여백 등에 디스플레이되는 형태로 제공될 수 있다. UI에 대하여 적용 가능한 기능들이 제공되면, 사용자의 매칭 입력(예컨대, 순차 클릭, 드래그 앤 드롭 등)에 따라 기존의 UI 또는 새롭게 추가된 UI에 대한 기능이 재설정될 수 있지만, 반드시 이에 제한되는 것은 아니다. 이러한 UI와 기능 간의 매칭의 순서는 사용자 입력에 따라 적용할 기능을 먼저 선택하고, 선택된 기능이 적용될 UI를 선택하는 방식, 또는 기능을 재설정할 UI를 먼저 선택하고, 선택된 UI에 적용될 기능을 선택하는 방식 중 어느 것을 따르더라도 무방하다. For example, such a table may be provided in the form of a popup, or may be provided in the form of being displayed in a margin of the control panel 2500 or the like. When applicable functions are provided for the UI, the function for the existing UI or newly added UI may be reset according to the user's matching input (eg, sequential click, drag and drop, etc.), but is not necessarily limited thereto. . The order of matching between the UI and the function is to first select a function to be applied according to user input, select a UI to which the selected function will be applied, or first select a UI to reset the function, and select a function to be applied to the selected UI. You can follow any of the methods.

이와 유사하게, 기존의 UI 또는 새롭게 추가된 UI에 표시된 언어, 글꼴, 색깔 등도 변경되어 표시될 수 있다. 다시 말해서, 사용자의 국적 선택을 위한 신호 등의 외부 입력 신호를 인가 받아 사용자의 사용 언어에 적합하도록 UI 상에 표시된 문자, 숫자 등을 변경할 수 있다. 또한, 사용자의 식별 정보를 포함하는 사용자 프로파일에 포함된 국적에 따라 UI에 표시된 언어가 자동으로 변경될 수도 있다. Similarly, the language, font, color, etc. displayed in the existing UI or the newly added UI may be changed and displayed. In other words, by receiving an external input signal such as a signal for selecting the nationality of the user, letters, numbers, and the like displayed on the UI may be changed to suit the user's language. In addition, the language displayed on the UI may be automatically changed according to the nationality included in the user profile including the identification information of the user.

또한, 미리 설정되어 제공 가능한 색채표 중에서 선택한 색깔로 UI 표시 색깔을 변경하기 위한 신호 등을 외부 입력 신호로서 수신하여, UI에 표시된 색깔을 변경할 수 있다.In addition, a signal for changing the UI display color to a color selected from among preset color tables that can be provided may be received as an external input signal to change the color displayed on the UI.

본 발명의 일 실시예에 따른 장치(2000)는, 디스플레이 기능이 구비된 컨트롤 패널(2500)을 더 포함할 수 있다. The apparatus 2000 according to an embodiment of the present invention may further include a control panel 2500 having a display function.

본 발명의 일 실시예에 따른 UI는 디스플레이부(2300) 및 컨트롤 패널(2500) 중 적어도 하나를 통하여 디스플레이될 수 있다. The UI according to an embodiment of the present invention may be displayed through at least one of the display unit 2300 and the control panel 2500.

본 발명의 일 실시예에 따른 UI는 대상체의 촬영 영상이 디스플레이되는 디스플레이부(2300) 및 디스플레이 기능이 구비된 컨트롤 패널(2500) 중 적어도 하나를 통하여 디스플레이될 수 있다. The UI according to an embodiment of the present invention may be displayed through at least one of the display unit 2300 on which the photographed image of the object is displayed and the control panel 2500 equipped with the display function.

휴대용 의료 기기의 필요성이 대두되고, 의료 기기의 소형화 추세로 인하여, 대상체에 대한 영상을 디스플레이하기 위한 화면과 컨트롤 패널 제공 화면이 하나의 터치 스크린 상에서 공존할 수 있다. 다시 말해서, 본원의 도 10a를 다시 참조하면, 대상체에 대한 영상(113)이 UI 패턴(131)과 동일한 화면(예를 들어, 디스플레이부(2300) 등) 상에서 제공될 수 있다.Due to the necessity of a portable medical device and the miniaturization of the medical device, a screen for displaying an image of an object and a control panel providing screen may coexist on a single touch screen. In other words, referring back to FIG. 10A, the image 113 of the object may be provided on the same screen as the UI pattern 131 (eg, the display unit 2300).

다만, 이러한 일체형의 디스플레이의 사용은 먼지, 사용자의 지문 등과 같은 이물질로 인하여 대상체에 대한 촬영 영상 판독을 어렵게 할 수도 있다. However, the use of the integrated display may make it difficult to read a photographed image of an object due to a foreign material such as dust or a fingerprint of a user.

본원의 도 10b를 다시 참조하면, 본 발명의 일 실시예에 따라 변경되어 제공 가능한 UI는 촬영 영상의 디스플레이부 이외의 디스플레이 기능이 구비된 컨트롤 패널(2500)을 통하여 제공될 수 있다. 예를 들면, 촬영 영상은 디스플레이부(2300)을 통하여 사용자에게 제공될 수 있고, 소정의 UI 패턴(131)은 디스플레이 기능이 구비된 컨트롤 패널(2500)을 통하여 사용자에게 촬영 영상과 별도로 제공될 수 있다.Referring back to FIG. 10B of the present application, a UI which can be changed and provided according to an embodiment of the present invention may be provided through a control panel 2500 having a display function other than the display unit of the photographed image. For example, the captured image may be provided to the user through the display unit 2300, and the predetermined UI pattern 131 may be provided to the user separately from the captured image through the control panel 2500 equipped with the display function. have.

도 17은 본 발명의 일 실시예에 따라 센싱부, 외부 입력 수신부, 컨트롤 패널 및 제어부를 더 포함하는 장치를 도시한다. 17 illustrates an apparatus further including a sensing unit, an external input receiver, a control panel, and a controller according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 장치(2000)는 제어부(2600)를 더 포함할 수 있다. 본 발명의 일 실시예에 따른 제어부(2600)는 사용자의 모션 정보에 따라 컨트롤 패널(2500)의 높이 및 각도 중 적어도 하나를 조절할 수 있다. The apparatus 2000 according to an embodiment of the present invention may further include a controller 2600. The controller 2600 according to an exemplary embodiment of the present invention may adjust at least one of the height and the angle of the control panel 2500 according to the motion information of the user.

사용자의 의료 기기 편의성을 극대화하기 위하여, 사용자의 자세 등이 반영된 모션 정보에 기초하여 의료 기기의 소정의 컴포넌트(예컨대, 디스플레이부(2300), 컨트롤 패널(2500) 등)의 물리적 위치를 조절할 수 있다.In order to maximize the convenience of the user's medical device, the physical position of a predetermined component (eg, the display unit 2300, the control panel 2500, etc.) of the medical device may be adjusted based on motion information reflecting the posture of the user. .

예를 들어, 대상체 촬영 전 사용자가 어떤 손으로 프로브를 파지했는지에 따라 의료 기기의 소정의 컴포넌트(예컨대, 디스플레이부(2300), 컨트롤 패널(2500) 등)의 위치가 자동으로 조정될 수 있다. For example, the position of a predetermined component (eg, the display unit 2300, the control panel 2500, etc.) of the medical device may be automatically adjusted according to which hand the user holds the probe before photographing the object.

예컨대, 사용자가 오른손으로 프로브를 파지한 경우, 촬영 개시에 따라 사용자의 상체는 우향으로 변경될 확률이 매우 높다. 따라서, 사용자의 움직임으로부터 획득된 모션 정보에 따라 디스플레이부(2300), 컨트롤 패널(2500) 등을 사용자를 향하여 상, 하, 좌, 우, 수평 또는 수직, 소정의 각도로 이동시킬 수 있다. 다시 말해서, 디스플레이부(2300), 컨트롤 패널(2500) 등이 사용자와 마주하도록(또는 최대한 사용자의 정면에 위치하도록) 상, 하, 좌, 우, 수평 또는 수직, 소정의 각도로 이동시킬 수 있다. For example, when the user grips the probe with his right hand, the upper body of the user is very likely to change to the right as the photographing starts. Accordingly, the display unit 2300 and the control panel 2500 may be moved upward, downward, leftward, rightward, horizontal or vertical, at a predetermined angle toward the user according to the motion information obtained from the user's movement. In other words, the display unit 2300, the control panel 2500, and the like may be moved up, down, left, right, horizontally or vertically, at a predetermined angle so as to face the user (or as much as possible in front of the user). .

또한, 대상체를 촬영 중인 사용자가 움직임으로써 획득될 수 있는 모션 정보에 기초하여 전술한 바와 같이, 디스플레이부(2300), 컨트롤 패널(2500) 등이 사용자와 마주하도록(또는 최대한 사용자의 정면에 위치하도록) 상, 하, 좌, 우, 수평 또는 수직, 소정의 각도로 이동될 수 있다. 본원의 도 12를 다시 참조하면, 프로브(1200)의 움직임에 상응하게 컨트롤 패널(2500)의 높이 및 각도 중 적어도 하나가 조절될 수 있다. 다시 말해서, 의료 기기의 소정의 컴포넌트(예컨대, 디스플레이부(2300), 컨트롤 패널(2500) 등)의 위치가 이동될 수 있음에 따라 사용자의 의료 기기의 조작 편의성이 더욱 증대될 수 있다.Also, as described above, the display unit 2300, the control panel 2500, and the like face the user (or as close to the front of the user as possible) based on the motion information that can be obtained by the user who is shooting the object. ) Up, down, left, right, horizontal or vertical, can be moved at a predetermined angle. Referring back to FIG. 12 of the present disclosure, at least one of the height and angle of the control panel 2500 may be adjusted to correspond to the movement of the probe 1200. In other words, as the position of a predetermined component (eg, the display unit 2300, the control panel 2500, etc.) of the medical device may be moved, the user's convenience of the medical device may be further increased.

도 18은 본 발명의 다른 실시예에 따라 사용자의 모션 정보에 기초하여 사용자 인터페이스(UI)를 변경시켜 제공하기 위한 장치를 도시한다.FIG. 18 illustrates an apparatus for changing and providing a user interface (UI) based on motion information of a user according to another embodiment of the present invention.

본 발명의 일 실시예에 따른 장치(2000)는, 모션 정보 획득부(2100), UI 변경부(2200), 디스플레이부(2300), 외부 입력 수신부(2400), 컨트롤 패널(2500), 제어부(2600)를 포함하고, 나아가 사용자의 식별 정보를 획득하는 식별 정보 획득부(2700) 및 획득된 식별 정보에 따라 변경된 UI를 저장하는 저장부(2800)를 더 포함할 수 있다. The apparatus 2000 according to an exemplary embodiment of the present invention may include a motion information acquirer 2100, a UI changer 2200, a display 2300, an external input receiver 2400, a control panel 2500, and a controller ( 2600, and may further include an identification information acquisition unit 2700 for obtaining identification information of the user and a storage unit 2800 for storing the changed UI according to the obtained identification information.

본 발명의 일 실시예에 따라 식별 정보 획득부(2700)는, 사용자의 식별 정보를 획득할 수 있다. 이러한 획득된 식별 정보는 변경된 UI와 함께 저장부에 저장될 수 있지만, 반드시 이에 제한되는 것은 아니다. According to an embodiment of the present invention, the identification information acquisition unit 2700 may obtain identification information of the user. The obtained identification information may be stored in the storage unit with the changed UI, but is not necessarily limited thereto.

본 발명의 일 실시예에 따른, 사용자 식별 정보를 획득은 사용자의 모션 정보를 획득에 앞서 수행될 수도 있다. According to an embodiment of the present invention, the obtaining of the user identification information may be performed prior to obtaining the motion information of the user.

또한, 사용자 식별 정보를 획득은 사용자의 모션 정보과 동시에 수행될 수도 있다. 예를 들면, 전술한 바와 같이, 사용자의 지문 정보, 홍채 정보, 안면 정보 등이 획득됨과 동시에 이러한 사용자의 생체 정보를 포함하는 사용자 프로파일이 획득될 수 있다. 다시 말해서, 사용자 식별 정보는 사용자 생체 정보와 함께 사용자 프로파일에 포함될 수 있고, 이러한 사용자 프로파일은 데이터베이스의 형태로 미리 구축되어 있을 수 있다.In addition, acquiring user identification information may be performed simultaneously with the motion information of the user. For example, as described above, a user profile including biometric information of the user may be obtained at the same time that fingerprint information, iris information, facial information, etc. of the user are obtained. In other words, the user identification information may be included in the user profile together with the user biometric information, and the user profile may be previously built in the form of a database.

예를 들어, 사용자별 선호하는 UI 패턴, 또는 본 발명의 일 실시예에 따라 변경된 UI를 사용자 식별 정보(예컨대, ID 등)에 따라 저장해두고, 사용자는 이후 필요에 따라 자신의 식별 정보에 상응하는 저장된 UI 패턴 등을 로드하여 사용할 수도 있다. For example, a preferred UI pattern for each user, or a changed UI according to an embodiment of the present invention is stored according to user identification information (eg, ID, etc.), and the user may then correspond to his identification information as needed. You can also load and use saved UI patterns.

다시 말해서, 사용자의 신체적 특징, 행동적 특징이 상이할 수 있으므로, 사용자 식별 정보에 따라 적합한 UI 패턴 또는 이전에 변경해둔 UI 패턴 등을 데이터베이스화 해두고, 사용자의 의료 기기 조작 시 해당 사용자의 식별 정보에 상응하는 UI 패턴을 로드하여 의료 기기의 촬영 환경을 설정함으로써, 촬영 시간을 단축시킬 수 있다.In other words, since the physical and behavioral characteristics of the user may be different, a database of appropriate UI patterns or previously changed UI patterns according to the user identification information is stored in a database, and the identification information of the user when the user operates the medical device. By loading the UI pattern corresponding to the setting environment of the medical device, the shooting time can be shortened.

본 발명의 일 실시예에 따른 장치와 관련하여서는 전술한 방법에 대한 내용이 적용될 수 있다. 따라서, 장치와 관련하여, 전술한 방법에 대한 내용과 동일한 내용에 대하여는 설명을 생략하였다.With regard to the apparatus according to an embodiment of the present invention, the above-described method may be applied. Therefore, with respect to the apparatus, the description of the same contents as those of the above-described method is omitted.

한편, 상술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다.Meanwhile, the above-described embodiments of the present invention can be written as a program that can be executed in a computer, and can be implemented in a general-purpose digital computer that operates the program using a computer-readable recording medium.

이러한 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등) 및 캐리어 웨이브(예를 들면, 인터넷을 통한 전송)와 같은 저장매체를 포함한다.Such computer-readable recording media include, but are not limited to, magnetic storage media (e.g., ROMs, floppy disks, hard disks, etc.), optical reading media (e.g., CD-ROMs, DVDs, etc.) and carrier waves (e.g., the Internet). Storage medium).

이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far I looked at the center of the preferred embodiment for the present invention. Those skilled in the art will appreciate that the present invention can be implemented in a modified form without departing from the essential features of the present invention. Therefore, the disclosed embodiments should be considered in descriptive sense only and not for purposes of limitation. The scope of the present invention is shown in the claims rather than the foregoing description, and all differences within the scope will be construed as being included in the present invention.

Claims (30)

대상체에 조사되고, 상기 대상체에서 반사되는 에코 신호를 발생시키기 위한 초음파 신호를 생성하는 초음파 진단 장치에 있어서,
복수의 UI(User Interface)를 표시하는 터치스크린을 포함하는 컨트롤 패널; 및
상기 초음파 진단 장치를 조작하는 사용자의 상기 복수의 UI에 대한 사용 정보를 획득하는 프로세서;
를 포함하고,
상기 복수의 UI는,
상기 터치스크린 상에 표시되는 모양, 크기 및 위치가 변경되지 않는 트랙볼 UI; 및
상기 터치스크린 상에 표시되는 모양, 크기 및 위치 중 적어도 하나가 변경되는 복수의 가변 UI; 를 포함하고,
상기 프로세서는 상기 복수의 UI에 대한 사용 정보에 기초하여 상기 복수의 가변 UI의 모양, 크기, 및 위치 중 적어도 하나를 변경하고,
상기 복수의 가변 UI는 상기 대상체의 검진 시 사용되는 복수의 기능 중 기설정된 하나의 기능만을 제공하는 UI이고,
상기 복수의 가변 UI 각각은 상기 표시된 초음파 영상을 확대하거나 축소하는 기능 중 어느 하나의 기능을 수행하는 버튼 UI, 문자 및 숫자 중 적어도 하나를 입력하는 사용자 입력을 수신하는 키보드 UI, 및 상기 초음파 영상을 2D 초음파 영상 또는 3D 초음파 영상 중 어느 하나의 영상으로 전환하는 기능을 수행하는 스위치 UI 중 적어도 하나를 포함하는, 초음파 진단 장치.
An ultrasound diagnostic apparatus for generating an ultrasound signal for generating an echo signal irradiated to an object and reflected from the object,
A control panel including a touch screen displaying a plurality of UIs; And
A processor for acquiring usage information of the plurality of UIs of a user who operates the ultrasound diagnosis apparatus;
Including,
The plurality of UI,
A trackball UI that does not change the shape, size, and position displayed on the touch screen; And
A plurality of variable UIs in which at least one of a shape, a size, and a position displayed on the touch screen is changed; Including,
The processor changes at least one of shapes, sizes, and positions of the plurality of variable UIs based on usage information of the plurality of UIs,
The plurality of variable UIs are UIs that provide only one predetermined function among a plurality of functions used when examining the object.
Each of the plurality of variable UIs includes a button UI for performing any one of functions of enlarging or reducing the displayed ultrasound image, a keyboard UI for receiving a user input for inputting at least one of letters and numbers, and the ultrasound image. And at least one of a switch UI for performing a function of switching to one of 2D ultrasound images and 3D ultrasound images.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 제1 항에 있어서,
상기 획득된 대상체의 초음파 영상은 상기 터치스크린 상에 표시되는 것인, 초음파 진단 장치.
The method of claim 1,
The ultrasound image of the acquired object is displayed on the touch screen, the ultrasound diagnostic device.
삭제delete 삭제delete 삭제delete 제1 항에 있어서,
상기 복수의 가변 UI의 모양, 크기 및 위치 중 적어도 하나는 상기 사용자가 상기 대상체를 검사하는 검사 종류에 기초하여 변경되는 것인, 초음파 진단 장치.
The method of claim 1,
At least one of the shape, size and position of the plurality of variable UI is changed based on the type of examination that the user examines the object.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 초음파 진단 장치에 있어서,
대상체에 초음파 신호를 송신하고, 상기 대상체로부터 반사되는 에코 신호를 수신하는 프로브;
상기 에코 신호를 수신하여 초음파 데이터를 생성하는 초음파 송수신부;
상기 초음파 데이터를 주사 변환하여 초음파 영상을 생성하는 초음파 영상 처리부;
상기 초음파 진단 장치의 기능을 제어하여 상기 초음파 영상을 획득하거나 또는 상기 초음파 영상을 조작하는 동작을 수행하는 UI를 표시하는 터치스크린을 포함하는 컨트롤 패널; 및
상기 초음파 진단 장치를 사용하는 사용자의 상기 UI 사용 정보에 기초하여 상기 UI의 모양, 크기 및 위치 중 적어도 하나를 변경하는 프로세서;
를 포함하고,
상기 컨트롤 패널은 상기 UI 중 모양, 크기 및 위치가 변경되지 않는 트랙볼 UI를 상기 터치스크린 상의 제1 영역에 표시하고,
상기 UI 각각은 상기 대상체의 검진 시 사용되는 복수의 기능 중 기설정된 하나의 기능만을 제공하고, 상기 UI는 상기 초음파 영상을 확대하거나 축소하는 기능 중 어느 하나의 기능을 수행하는 버튼 UI, 문자 및 숫자 중 적어도 하나를 입력하는 사용자 입력을 수신하는 키보드 UI, 및 상기 초음파 영상을 2D 초음파 영상 또는 3D 초음파 영상 중 어느 하나의 영상으로 전환하는 기능을 수행하는 스위치 UI 중 적어도 하나를 포함하는 것인, 초음파 진단 장치.
In the ultrasound diagnostic device,
A probe for transmitting an ultrasound signal to an object and receiving an echo signal reflected from the object;
An ultrasonic transceiver unit configured to receive the echo signal and generate ultrasonic data;
An ultrasound image processor configured to scan-convert the ultrasound data to generate an ultrasound image;
A control panel including a touch screen displaying a UI for controlling the function of the ultrasound diagnosis apparatus to acquire the ultrasound image or to operate the ultrasound image; And
A processor configured to change at least one of a shape, a size, and a position of the UI based on the UI usage information of a user who uses the ultrasound diagnosis apparatus;
Including,
The control panel displays a trackball UI of which the shape, size, and position of the UI does not change in the first area on the touch screen,
Each of the UIs provides only one preset function among a plurality of functions used for the examination of the object, and the UI includes a button UI, a letter, and a number for performing any one function of enlarging or reducing the ultrasound image. Ultrasound comprising at least one of a keyboard UI for receiving a user input for inputting at least one of the, and a switch UI for converting the ultrasound image to any one of the 2D ultrasound image or 3D ultrasound image, Diagnostic device.
제18 항에 있어서,
상기 초음파 영상을 표시하는 디스플레이 장치; 를 더 포함하는 것인, 초음파 진단 장치.
The method of claim 18,
A display device for displaying the ultrasound image; To further include, an ultrasound diagnostic device.
삭제delete 대상체에 조사되고, 상기 대상체에서 반사되는 에코 신호를 발생시키기 위한 초음파 신호를 생성하는 초음파 진단 장치를 동작시키는 방법에 있어서,
상기 초음파 진단 장치를 사용하는 사용자가 상기 초음파 진단 장치의 기능을 제어하는 복수의 UI에 대한 사용 정보를 획득하는 단계; 및
획득된 상기 사용 정보에 기초하여 상기 복수의 UI를 변경하는 단계; 를 포함하고,
상기 복수의 UI는 모양, 크기 및 위치가 변경되지 않는 트랙볼 UI 및 모양, 크기 및 위치 중 적어도 하나가 상기 UI를 변경하는 단계에 의해 변경되는 복수의 가변 UI를 포함하고,
상기 복수의 UI는 상기 초음파 진단 장치의 컨트롤 패널 상에 표시되고, 상기 대상체에서 반사되는 에코 신호를 기초로 상기 초음파 진단 장치의 기능을 제어하여 초음파 영상을 획득하거나, 또는 반사되는 에코 신호를 기초로 하여 상기 획득된 대상체의 초음파 영상을 조작하기 위하여 상기 사용자에 의해 동작되고,
상기 복수의 가변 UI 각각은 상기 대상체의 검진 시 사용되는 복수의 기능 중 기설정된 하나의 기능만을 제공하고,
상기 복수의 가변 UI는 상기 획득된 초음파 영상을 확대하거나 축소하는 기능 중 어느 하나의 기능을 수행하는 버튼 UI, 문자 및 숫자 중 적어도 하나를 입력하는 사용자 입력을 수신하는 키보드 UI, 및 상기 초음파 영상을 2D 초음파 영상 또는 3D 초음파 영상 중 어느 하나의 영상으로 전환하는 기능을 수행하는 스위치 UI 중 적어도 하나를 포함하는 것인, 방법.
A method of operating an ultrasound diagnostic apparatus for generating an ultrasound signal for generating an echo signal irradiated to an object and reflected from the object,
Acquiring usage information of a plurality of UIs for controlling a function of the ultrasound diagnosis apparatus by a user using the ultrasound diagnosis apparatus; And
Changing the plurality of UIs based on the obtained usage information; Including,
The plurality of UIs include a trackball UI in which the shape, size and position are not changed, and a plurality of variable UIs in which at least one of shape, size and position is changed by changing the UI.
The plurality of UIs are displayed on the control panel of the ultrasound diagnosis apparatus, and control the function of the ultrasound diagnosis apparatus based on an echo signal reflected from the object to obtain an ultrasound image, or based on the reflected echo signal. Is operated by the user to manipulate the ultrasound image of the obtained object,
Each of the plurality of variable UIs provides only one preset function among a plurality of functions used when examining the object,
The plurality of variable UIs may include a button UI for performing any one of functions of enlarging or reducing the obtained ultrasound image, a keyboard UI for receiving a user input for inputting at least one of letters and numbers, and the ultrasound image. And at least one of a switch UI for performing a function of switching to one of 2D ultrasound images and 3D ultrasound images.
삭제delete 삭제delete 제21 항에 있어서,
상기 사용자의 사용 정보에 기초하여 변경된 상기 복수의 UI를 저장하는 단계; 를 더 포함하는 것인, 방법.
The method of claim 21,
Storing the plurality of UIs changed based on the usage information of the user; It further comprises.
제21 항에 있어서,
상기 획득된 초음파 영상을 디스플레이 장치에 표시하는 단계; 를 더 포함하는 것인, 방법.
The method of claim 21,
Displaying the obtained ultrasound image on a display device; It further comprises.
삭제delete 삭제delete 삭제delete 제1 항에 있어서,
상기 초음파 진단 장치에 포함되는 초음파 프로브의 위치 정보를 통해 상기 초음파 진단 장치를 사용하는 사용자의 모션 정보를 획득하는 센서부; 를 더 포함하고,
상기 컨트롤 패널은 상기 사용자의 모션 정보에 기초하여 상호 전환되는 오른손용 UI 패턴 또는 왼손용 UI 패턴을 표시하는, 초음파 진단 장치.
The method of claim 1,
A sensor unit which acquires motion information of a user who uses the ultrasound diagnostic apparatus through position information of the ultrasound probe included in the ultrasound diagnostic apparatus; More,
The control panel may display a right-hand UI pattern or a left-hand UI pattern that is mutually switched based on the motion information of the user.
삭제delete
KR1020150151096A 2015-10-29 2015-10-29 The method and apparatus for changing user interface based on user motion information KR102017285B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150151096A KR102017285B1 (en) 2015-10-29 2015-10-29 The method and apparatus for changing user interface based on user motion information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150151096A KR102017285B1 (en) 2015-10-29 2015-10-29 The method and apparatus for changing user interface based on user motion information

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020130076586A Division KR20150003560A (en) 2013-07-01 2013-07-01 The method and apparatus for changing user interface based on user motion information

Related Child Applications (2)

Application Number Title Priority Date Filing Date
KR1020170122787A Division KR101953311B1 (en) 2017-09-22 2017-09-22 The apparatus for changing user interface based on user motion information
KR1020190104982A Division KR102169613B1 (en) 2019-08-27 2019-08-27 The method and apparatus for changing user interface based on user motion information

Publications (2)

Publication Number Publication Date
KR20150129296A KR20150129296A (en) 2015-11-19
KR102017285B1 true KR102017285B1 (en) 2019-10-08

Family

ID=54843449

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150151096A KR102017285B1 (en) 2015-10-29 2015-10-29 The method and apparatus for changing user interface based on user motion information

Country Status (1)

Country Link
KR (1) KR102017285B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021101039A1 (en) * 2019-11-22 2021-05-27 삼성전자주식회사 Display device and method for controlling display device

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060020206A1 (en) * 2004-07-01 2006-01-26 Luis Serra System and method for a virtual interface for ultrasound scanners

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090050423A (en) * 2007-11-15 2009-05-20 주식회사 메디슨 Ultrasound system having biometrics device and method for auto controlling of using environment
KR20100084037A (en) * 2009-01-15 2010-07-23 삼성전자주식회사 Apparatus and method for providing user interface

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060020206A1 (en) * 2004-07-01 2006-01-26 Luis Serra System and method for a virtual interface for ultrasound scanners

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021101039A1 (en) * 2019-11-22 2021-05-27 삼성전자주식회사 Display device and method for controlling display device

Also Published As

Publication number Publication date
KR20150129296A (en) 2015-11-19

Similar Documents

Publication Publication Date Title
US10558350B2 (en) Method and apparatus for changing user interface based on user motion information
US10459627B2 (en) Medical image display apparatus and method of providing user interface
EP2821014B1 (en) Sharing information of medical imaging apparatus
EP3114999A1 (en) Apparatus and method of processing medical image
KR20160140237A (en) Ultrasound apparatus and method for displaying ultrasoudn images
KR101599891B1 (en) Untrasound dianognosis apparatus, method and computer-readable storage medium
KR102519424B1 (en) Method of displaying a ultrasound image and apparatus thereof
EP3015070B1 (en) Ultrasound system and method of displaying three-dimensional (3d) image
EP3351181A1 (en) Ultrasound imaging apparatus and ultrasound image display method
KR20160054303A (en) Ultra sonic apparatus and method for scanning thereof
KR102418975B1 (en) Ultrasound apparatus and method for providing information
US10856853B2 (en) Ultrasound diagnosis apparatus, method of controlling ultrasound diagnosis apparatus, and storage medium having the method recorded thereon
KR102017285B1 (en) The method and apparatus for changing user interface based on user motion information
KR20150061621A (en) The method and apparatus for changing user interface based on user motion information
KR102169613B1 (en) The method and apparatus for changing user interface based on user motion information
KR101953311B1 (en) The apparatus for changing user interface based on user motion information
KR101630764B1 (en) Ultrasound diagnosis apparatus, control method for ultrasound diagnosis apparatus, storage medium thereof

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E601 Decision to refuse application
A107 Divisional application of patent
J201 Request for trial against refusal decision
J301 Trial decision

Free format text: TRIAL NUMBER: 2017101004548; TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20170922

Effective date: 20190430

S901 Examination by remand of revocation
GRNO Decision to grant (after opposition)
A107 Divisional application of patent
GRNT Written decision to grant