KR102169613B1 - The method and apparatus for changing user interface based on user motion information - Google Patents

The method and apparatus for changing user interface based on user motion information Download PDF

Info

Publication number
KR102169613B1
KR102169613B1 KR1020190104982A KR20190104982A KR102169613B1 KR 102169613 B1 KR102169613 B1 KR 102169613B1 KR 1020190104982 A KR1020190104982 A KR 1020190104982A KR 20190104982 A KR20190104982 A KR 20190104982A KR 102169613 B1 KR102169613 B1 KR 102169613B1
Authority
KR
South Korea
Prior art keywords
user
probe
information
present
touch screen
Prior art date
Application number
KR1020190104982A
Other languages
Korean (ko)
Other versions
KR20190103122A (en
Inventor
반대현
김수진
한정호
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020190104982A priority Critical patent/KR102169613B1/en
Publication of KR20190103122A publication Critical patent/KR20190103122A/en
Application granted granted Critical
Publication of KR102169613B1 publication Critical patent/KR102169613B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/465Displaying means of special interest adapted to display user selection data, e.g. icons or menus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

의료 기기를 통한 대상체의 검진 시 사용되는 사용자 인터페이스(UI; User Interface)를 사용자의 모션 정보에 기초하여 변경시켜 제공하기 위한 방법이 개시된다. 본 발명의 일 실시예에 따라, 사용자의 모션 정보를 획득하고, 획득된 사용자의 모션 정보를 이용하여 UI를 변경하며, 변경된 UI를 디스플레이하는 방법이 개시된다. Disclosed is a method for changing and providing a user interface (UI) used when examining an object through a medical device based on motion information of a user. According to an embodiment of the present invention, a method of acquiring motion information of a user, changing a UI using the acquired motion information of a user, and displaying a changed UI is disclosed.

Description

사용자의 모션 정보에 기초하여 사용자 인터페이스(UI)를 변경시키는 방법 및 장치{THE METHOD AND APPARATUS FOR CHANGING USER INTERFACE BASED ON USER MOTION INFORMATION} Method and apparatus for changing user interface (UTI) based on user's motion information {THE METHOD AND APPARATUS FOR CHANGING USER INTERFACE BASED ON USER MOTION INFORMATION}

본 발명은 사용자의 모션 정보에 기초하여 사용자 인터페이스(User Interface)를 변경시켜 제공하는 방법 및 장치에 관한 것이다. The present invention relates to a method and apparatus for changing and providing a user interface based on motion information of a user.

초음파 진단 장치는 프로브(probe)의 트랜스듀서(transducer)로부터 생성되는 초음파 신호를 대상체로 조사하고, 대상체로부터 반사된 에코 신호의 정보를 수신하여 대상체 내부의 부위(예컨대, 연부 조직 등의 단층이나 혈류 등)에 대한 영상을 획득할 수 있다. 특히, 초음파 진단 장치는 대상체 내부의 관찰, 이물질 검출, 및 상해 측정 등 의학적 목적으로 사용될 수 있다. The ultrasound diagnosis apparatus irradiates an ultrasound signal generated from a transducer of a probe to an object, receives information of an echo signal reflected from the object, and provides an internal portion of the object (e.g., a single layer of soft tissue or blood flow). Etc.) can be obtained. In particular, the ultrasound diagnosis apparatus may be used for medical purposes such as observing the inside of an object, detecting foreign substances, and measuring injury.

이러한 초음파 진단 장치는 대상체에 대한 정보를 실시간으로 표시 가능하다는 이점이 있다. 또한, 초음파 진단 장치는, X선 등의 피폭이 없어 안정성이 높은 장점이 있어, X선 진단장치, CT(Computerized Tomography) 스캐너, MRI(Magnetic Resonance Image) 장치, 핵의학 진단장치 등의 다른 화상 진단장치와 함께 널리 이용되고 있다.Such an ultrasound diagnosis apparatus has the advantage of being able to display information on an object in real time. In addition, the ultrasonic diagnostic device has the advantage of high stability because there is no exposure to X-rays, and other image diagnostics such as an X-ray diagnostic device, a computerized tomography (CT) scanner, a magnetic resonance image (MRI) device, and a nuclear medicine diagnostic device. It is widely used with devices.

본 발명은 의료 기기를 통한 대상체의 검진 시 사용되는 사용자 인터페이스(UI; User Interface)를 사용자의 모션 정보에 기초하여 변경시켜 제공하기 위한 방법 및 장치에 관한 것이다. The present invention relates to a method and apparatus for modifying and providing a user interface (UI) used for examination of an object through a medical device based on motion information of a user.

본 발명의 일 실시예에 따른, 의료 기기를 통한 대상체의 검진 시 사용되는 사용자 인터페이스(UI; User Interface)를 사용자의 모션 정보에 기초하여 변경시켜 제공하기 위한 방법은, 사용자의 모션 정보를 획득하는 단계, 획득된 사용자의 모션 정보를 이용하여 UI를 변경하는 단계 및 변경된 UI를 디스플레이하는 단계를 포함할 수 있다. According to an embodiment of the present invention, a method for providing a user interface (UI) used for examination of an object through a medical device by changing based on motion information of a user is provided. It may include the step, changing the UI by using the obtained motion information of the user, and displaying the changed UI.

본 발명의 일 실시예에 따른 사용자의 모션 정보는 현재 프로브의 위치 정보에 기초하여 획득될 수 있다. Motion information of a user according to an embodiment of the present invention may be obtained based on location information of a current probe.

본 발명의 일 실시예에 따른 현재 프로브의 위치 정보는 프로브의 현재의 지시방향, 소정의 기준 지점에 대한 경사각 및 높이값 중 적어도 하나를 포함할 수 있다. The location information of the current probe according to an embodiment of the present invention may include at least one of a current indication direction of the probe, an inclination angle with respect to a predetermined reference point, and a height value.

본 발명의 일 실시예에 따른 사용자 모션 정보는, 사용자의 지문 정보, 사용자의 홍채 정보, 사용자의 안면 정보 중 적어도 하나를 포함하는 생체 정보에 기초하여 획득될 수 있다. The user motion information according to an embodiment of the present invention may be obtained based on biometric information including at least one of user's fingerprint information, user's iris information, and user's face information.

본 발명의 일 실시예에 따른 UI는 대상체의 검진 시 사용될 기능을 나타낸 단축 버튼, 스위치, 키보드 및 트랙볼 중 적어도 하나를 포함할 수 있다. The UI according to an embodiment of the present invention may include at least one of a shortcut button, a switch, a keyboard, and a trackball indicating a function to be used when examining an object.

본 발명의 일 실시예에 따른 획득된 사용자의 모션 정보를 이용하여 UI를 변경하는 단계는, 획득된 사용자의 모션 정보에 따라 UI의 모양, 크기 및 위치 중 적어도 하나를 변경하는 단계를 포함할 수 있다. Changing the UI using the acquired motion information of the user according to an embodiment of the present invention may include changing at least one of the shape, size, and position of the UI according to the acquired motion information of the user. have.

본 발명의 일 실시예에 따른 대상체의 검진 시 사용되는 기능의 빈도에 따라 UI는 모양, 크기 및 위치 중 적어도 하나가 상이하게 제공될 수 있다. According to an exemplary embodiment of the present invention, at least one of a shape, a size, and a location of the UI may be provided differently according to the frequency of a function used when examining an object.

본 발명의 일 실시예에 따른 외부 입력 신호에 따라 UI는 편집 가능할 수 있다. The UI may be editable according to an external input signal according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 UI는 대상체의 촬영 영상이 디스플레이되는 디스플레이부 및 디스플레이 기능이 구비된 컨트롤 패널 중 적어도 하나를 통하여 디스플레이될 수 있다. The UI according to an embodiment of the present invention may be displayed through at least one of a display unit on which a captured image of an object is displayed and a control panel equipped with a display function.

본 발명의 일 실시예에 따른 사용자의 모션 정보에 따라 컨트롤 패널의 높이 및 각도 중 적어도 하나를 조절하는 단계를 더 포함할 수 있다. The method may further include adjusting at least one of a height and an angle of the control panel according to motion information of a user according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 사용자의 식별 정보를 획득하는 단계, 획득된 식별 정보에 따라 변경된 UI를 저장하는 단계를 더 포함할 수 있다. The method may further include acquiring identification information of a user according to an embodiment of the present invention, and storing a UI changed according to the acquired identification information.

본 발명의 일 실시예에 따른 의료 기기를 통한 대상체의 검진 시 사용되는 사용자 인터페이스(UI; User Interface)를 사용자의 모션 정보에 기초하여 변경시켜 제공하기 위한 장치는, 사용자의 모션 정보를 획득하는 모션 정보 획득부, 획득된 사용자의 모션 정보를 이용하여 UI를 변경하는 UI 변경부 및 변경된 UI의 디스플레이가 가능한 디스플레이부를 포함할 수 있다. According to an embodiment of the present invention, an apparatus for providing a user interface (UI) used for examination of an object through a medical device by changing based on motion information of a user is a motion for obtaining motion information of a user. It may include an information acquisition unit, a UI changing unit that changes the UI using the acquired motion information of the user, and a display unit capable of displaying the changed UI.

본 발명의 일 실시예에 따른 모션 정보 획득부는 센싱부를 더 포함하고, 사용자의 모션 정보는, 센싱부를 통하여 획득된 현재 프로브의 위치 정보에 기초하여 획득될 수 있다. The motion information acquisition unit according to an embodiment of the present invention further includes a sensing unit, and motion information of the user may be obtained based on the position information of a current probe obtained through the sensing unit.

본 발명의 일 실시예에 따른 현재 프로브의 위치 정보는, 프로브의 현재의 지시방향, 소정의 기준 지점에 대한 경사각 및 높이값 중 적어도 하나를 포함할 수 있다. The location information of the current probe according to an embodiment of the present invention may include at least one of a current indication direction of the probe, an inclination angle with respect to a predetermined reference point, and a height value.

본 발명의 일 실시예에 따른 사용자 모션 정보는, 센싱부를 통하여 획득된 사용자의 지문 정보, 사용자의 홍채 정보, 사용자의 안면 정보 중 적어도 하나를 포함하는 생체 정보에 기초하여 획득될 수 있다. User motion information according to an embodiment of the present invention may be obtained based on biometric information including at least one of a user's fingerprint information, a user's iris information, and a user's face information acquired through a sensing unit.

본 발명의 일 실시예에 따른 UI는 대상체의 검진 시 사용될 기능을 나타낸 단축 버튼, 스위치, 키보드 및 트랙볼 중 적어도 하나를 포함할 수 있다. The UI according to an embodiment of the present invention may include at least one of a shortcut button, a switch, a keyboard, and a trackball indicating a function to be used when examining an object.

본 발명의 일 실시예에 따른 UI 변경부는, 획득된 사용자의 모션 정보에 따라 UI의 모양, 크기 및 위치 중 적어도 하나를 변경할 수 있다. The UI changer according to an embodiment of the present invention may change at least one of the shape, size, and position of the UI according to the acquired motion information of the user.

본 발명의 일 실시예에 따른 UI는 대상체의 검진 시 사용되는 기능의 빈도에 따라 모양, 크기 및 위치 중 적어도 하나가 상이하게 제공될 수 있다. In the UI according to an embodiment of the present invention, at least one of a shape, a size, and a location may be provided differently according to a frequency of a function used when an object is examined.

본 발명의 일 실시예에 따른 장치는 외부 입력 수신부를 더 포함하고, UI는 외부 입력 수신부를 통하여 수신된 외부 입력 신호에 따라 UI 변경부에 의하여 편집 될 수 있다. The apparatus according to an embodiment of the present invention further includes an external input receiving unit, and the UI may be edited by the UI changing unit according to an external input signal received through the external input receiving unit.

본 발명의 일 실시예에 따른 장치는 디스플레이 기능이 구비된 컨트롤 패널을 더 포함하고, UI는 디스플레이부 및 컨트롤 패널 중 적어도 하나를 통하여 디스플레이될 수 있다. The apparatus according to an embodiment of the present invention further includes a control panel equipped with a display function, and the UI may be displayed through at least one of the display unit and the control panel.

본 발명의 일 실시예에 따른 장치는 제어부를 더 포함하고, 제어부는 사용자의 모션 정보에 따라 컨트롤 패널의 높이 및 각도 중 적어도 하나를 조절할 수 있다. The apparatus according to an embodiment of the present invention further includes a controller, and the controller may adjust at least one of a height and an angle of the control panel according to motion information of the user.

본 발명의 일 실시예에 따른 장치는 사용자의 식별 정보를 획득하는 식별 정보 획득부, 획득된 식별 정보에 따라 변경된 UI를 저장하는 저장부를 더 포함할 수 있다. The apparatus according to an embodiment of the present invention may further include an identification information acquisition unit that obtains user identification information, and a storage unit that stores a UI changed according to the obtained identification information.

한편, 본 발명의 일 실시예에 의하면, 전술한 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공할 수 있다. Meanwhile, according to an embodiment of the present invention, it is possible to provide a computer-readable recording medium in which a program for executing the above-described method on a computer is recorded.

본 발명의 일 실시예로서 제공되는 방법 및 장치에 따라, 사용자의 모션 정보를 획득하고, 획득된 모션 정보에 기초하여 사용자 인터페이스(UI)를 변경시켜 디스플레이함으로써 사용자의 의료 기기 활용의 편의성을 증대시킬 수 있다는 효과가 있다. 또한, 사용자 모션 정보에 기초하여 의료 기기의 위치 등을 자동으로 제어함으로써, 촬영 환경 설정에 소모되는 불필요한 시간 낭비를 줄일 수 있다는 효과가 있다. According to the method and apparatus provided as an embodiment of the present invention, the user's motion information is acquired, and the user interface (UI) is changed and displayed based on the acquired motion information, thereby increasing the convenience of the user's use of medical devices. There is an effect that you can. In addition, by automatically controlling the location of a medical device based on user motion information, it is possible to reduce unnecessary time wasted in setting a photographing environment.

도 1a는 종래의 의료 기기를 통한 대상체 검진 방법의 일 예를 도시한다.
도 1b는 본 발명의 일 실시예와 관련된 초음파 진단 장치(r1000)의 예시적인 구성을 도시한 블록도이다.
도 1c는 본 발명의 일 실시예와 관련된 무선 프로브(r2000)의 예시적인 구성을 도시한 블록도이다.
도 2는 본 발명의 일 실시예에 따른 의료 기기를 통한 대상체의 검진 시 사용되는 사용자 인터페이스(UI; User Interface)를 사용자의 모션 정보에 기초하여 변경시켜 제공하기 위한 방법의 개략도이다.
도 3은 본 발명의 일 실시예에 따른 사용자의 모션 정보에 기초하여 사용자 인터페이스(UI; User Interface)를 변경시켜 제공하기 위한 방법을 나타낸 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 사용자의 모션 정보 획득의 일 예를 도시한다.
도 5는 본 발명의 다른 실시예에 따라 획득되는 사용자의 모션 정보의 예를 도시한다.
도 6은 본 발명의 일 실시예에 따라 변경되어 제공 가능한 사용자 인터페이스(UI)의 일 예를 도시한다.
도 7은 본 발명의 일 실시예에 따라 사용자의 모션 정보에 기초하여 사용자 인터페이스(UI)가 변경되어 제공되는 양상을 도시한다.
도 8은 본 발명의 다른 실시예에 따라 사용자의 모션 정보에 기초하여 사용자 인터페이스(UI)가 변경되어 제공되는 양상을 도시한다.
도 9a는 본 발명의 일 실시예에 따른 사용자 인터페이스(UI)의 편집 예를 도시한다.
도 9b는 본 발명의 일 실시예에 따라 변경된 사용자 인터페이스(UI)의 사용 예를 도시한다.
도 10은 본 발명의 일 실시예에 따라 사용자 인터페이스(UI)가 제공되는 양상을 도시한다.
도 11은 본 발명의 다른 실시예에 따라 의료 기기의 동작을 제어하는 방법을 나타낸 흐름도이다.
도 12는 본 발명의 다른 실시예에 따른 의료 기기 동작 제어의 일 예를 도시한다.
도 13은 본 발명의 또 다른 실시예에 따라 변경된 UI를 관리하는 방법을 나타낸 흐름도이다.
도 14는 본 발명의 일 실시예에 따른 의료 기기를 통한 대상체의 검진 시 사용되는 사용자 인터페이스(UI; User Interface)를 사용자의 모션 정보에 기초하여 변경시켜 제공하기 위한 장치를 도시한다.
도 15는 본 발명의 일 실시예에 따라 센싱부를 더 포함하는 장치를 도시한다.
도 16은 본 발명의 일 실시예에 따라 센싱부, 외부 입력 수신부 및 컨트롤 패널을 더 포함하는 장치를 도시한다.
도 17은 본 발명의 일 실시예에 따라 센싱부, 외부 입력 수신부, 컨트롤 패널 및 제어부를 더 포함하는 장치를 도시한다.
도 18은 본 발명의 다른 실시예에 따라 사용자의 모션 정보에 기초하여 사용자 인터페이스(UI)를 변경시켜 제공하기 위한 장치를 도시한다.
1A shows an example of a method for examining an object through a conventional medical device.
1B is a block diagram showing an exemplary configuration of an ultrasound diagnosis apparatus r1000 according to an embodiment of the present invention.
1C is a block diagram showing an exemplary configuration of a wireless probe r2000 according to an embodiment of the present invention.
FIG. 2 is a schematic diagram of a method for providing a user interface (UI) used for examination of an object through a medical device according to an embodiment of the present invention by changing it based on motion information of a user.
3 is a flowchart illustrating a method for providing a user interface (UI) changed based on motion information of a user according to an embodiment of the present invention.
4 shows an example of obtaining motion information of a user according to an embodiment of the present invention.
5 shows an example of motion information of a user obtained according to another embodiment of the present invention.
6 shows an example of a user interface (UI) that can be modified and provided according to an embodiment of the present invention.
7 illustrates an aspect in which a user interface (UI) is changed and provided based on motion information of a user according to an embodiment of the present invention.
8 illustrates an aspect in which a user interface (UI) is changed and provided based on motion information of a user according to another embodiment of the present invention.
9A illustrates an example of editing a user interface (UI) according to an embodiment of the present invention.
9B shows an example of using a modified user interface (UI) according to an embodiment of the present invention.
10 illustrates an aspect in which a user interface (UI) is provided according to an embodiment of the present invention.
11 is a flowchart illustrating a method of controlling an operation of a medical device according to another embodiment of the present invention.
12 illustrates an example of operation control of a medical device according to another embodiment of the present invention.
13 is a flowchart illustrating a method of managing a changed UI according to another embodiment of the present invention.
14 illustrates an apparatus for changing and providing a user interface (UI) used when examining an object through a medical device according to an embodiment of the present invention based on motion information of a user.
15 illustrates a device further including a sensing unit according to an embodiment of the present invention.
16 illustrates a device further including a sensing unit, an external input receiving unit, and a control panel according to an embodiment of the present invention.
17 illustrates a device further including a sensing unit, an external input receiving unit, a control panel, and a control unit according to an embodiment of the present invention.
18 illustrates an apparatus for providing a user interface (UI) changed based on motion information of a user according to another embodiment of the present invention.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다. The terms used in the present specification will be briefly described, and the present invention will be described in detail.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다. The terms used in the present invention have been selected from general terms that are currently widely used while considering functions in the present invention, but this may vary depending on the intention or precedent of a technician working in the field, the emergence of new technologies, and the like. In addition, in certain cases, there are terms arbitrarily selected by the applicant, and in this case, the meaning of the terms will be described in detail in the description of the corresponding invention. Therefore, the terms used in the present invention should be defined based on the meaning of the term and the overall contents of the present invention, not a simple name of the term.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.When a part of the specification is said to "include" a certain component, it means that other components may be further included rather than excluding other components unless otherwise stated. In addition, terms such as "... unit" and "module" described in the specification mean units that process at least one function or operation, which may be implemented as hardware or software, or as a combination of hardware and software. .

명세서 전체에서 "초음파 영상"이란 초음파를 이용하여 획득된 대상체(object)에 대한 영상을 의미할 수 있다. Throughout the specification, the term "ultrasonic image" may mean an image of an object acquired using ultrasound.

또한, 대상체는 사람 또는 동물, 또는 사람 또는 동물의 일부를 포함할 수 있다. 예를 들어, 대상체는 간, 심장, 자궁, 뇌, 유방, 복부 등의 장기, 또는 혈관을 포함할 수 있다. 또한, 대상체는 팬텀(phantom)을 포함할 수도 있으며, 팬텀은 생물의 밀도와 실효 원자 번호에 아주 근사한 부피를 갖는 물질을 의미할 수 있다.In addition, the subject may include a human or an animal, or a part of a human or animal. For example, the subject may include organs such as liver, heart, uterus, brain, breast, and abdomen, or blood vessels. In addition, the object may include a phantom, and the phantom may refer to a material having a volume very close to the density and effective atomic number of an organism.

또한, 명세서 전체에서 "사용자"는 의료 전문가로서 의사, 간호사, 임상 병리사, 의료 영상 전문가 등이 될 수 있으며, 의료 장치를 수리하는 기술자가 될 수 있으나, 이에 한정되지는 않는다.In addition, throughout the specification, the "user" may be a medical expert, such as a doctor, a nurse, a clinical pathologist, a medical imaging expert, and the like, and may be a technician who repairs a medical device, but is not limited thereto.

아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art may easily implement the present invention. However, the present invention may be implemented in various different forms and is not limited to the embodiments described herein. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and similar reference numerals are assigned to similar parts throughout the specification.

도 1a는 종래의 의료 기기를 통한 대상체 검진 방법의 일 예를 도시한다. 1A shows an example of a method for examining an object through a conventional medical device.

도 1a에 도시된 바와 같이, 사용자는 초음파 진단 장치의 프로브(120)를 이용하여 대상체(10)를 검진할 수 있다. 다시 말해서, 사용자는 프로브(120)와 컨트롤패널(130)을 조작하여 디스플레이부(110)를 통하여 대상체(10)에 대한 촬영 영상을 획득할 수 있다. 대상체(10)에 대한 진단을 정확히 하기 위하여는 대상체(10)에 대한 정밀한 촬영 영상 획득이 선행되어야 한다. As shown in FIG. 1A, the user may examine the object 10 using the probe 120 of the ultrasound diagnosis apparatus. In other words, the user may obtain a photographed image of the object 10 through the display unit 110 by manipulating the probe 120 and the control panel 130. In order to accurately diagnose the object 10, a precise photographing image of the object 10 must be obtained beforehand.

사용자의 의료 기기를 다루는 숙련도에 따라 대상체(10)에 대하여 비교적 정밀한 촬영 영상이 획득될 수 있다. 그러나 대상체의 소정의 부위(예컨대, 간, 신장 등)에 대한 촬영 시 숙련된 사용자라 하더라도 사용자의 자세 등 의료 기기의 사용 위치에 따라 조작의 불편함을 겪을 수도 있고, 정밀한 촬영 영상 획득이 어려울 수도 있다. 예를 들어, 대상체의 촬영 부위, 대상체가 위치한 높이, 사용자의 오른손 또는 왼손 사용 선호도, 소정의 검진 항목에서 소정의 버튼의 사용 빈도 등에 따라 의료 기기 활용 용이성은 숙련도에 무관할 수 있다. A relatively precise photographed image of the object 10 may be obtained according to the user's skill in handling medical devices. However, even an experienced user may experience inconvenience in operation depending on the location of the medical device such as the user's posture when photographing a predetermined part of the object (e.g., liver, kidney, etc.), or it may be difficult to obtain a precise photographed image. have. For example, the ease of use of a medical device may be irrelevant to skill level depending on the photographing part of the object, the height at which the object is located, the user's preference for using the right or left hand, and the frequency of using a predetermined button in a predetermined examination item.

예를 들어, 넓은 범위에서 프로브(120)를 움직여서 촬영을 해야 할 경우, 사용자의 신체적 특징 또는 행동적 특징에 따라 컨트롤 패널(130)의 조작이 어려울 수 있다. 다시 말해서, 프로브(120)를 상, 하, 좌, 우 등으로 조작함에 따라 사용자의 자세도 변경될 것이고, 컨트롤 패널(130) 등을 원활하게 조작하기 위하여 사용자는 자세를 재차 수정해야 할 수 있다. 또한, 컨트롤 패널(130) 등의 고정적인 높이, 위치 등은 사용자로 하여금 조작의 불편함을 느끼게 할 수도 있다. For example, when it is necessary to take a picture by moving the probe 120 in a wide range, it may be difficult to manipulate the control panel 130 according to the user's physical or behavioral characteristics. In other words, as the probe 120 is operated up, down, left, right, etc., the user's posture will also change, and in order to smoothly manipulate the control panel 130, the user may need to re-edit the posture. . In addition, the fixed height, position, etc. of the control panel 130 may make the user feel uncomfortable in operation.

또한, 사용자의 움직임에 따라 사용자가 디스플레이부(110)를 측면에서 바라볼 수 밖에 없게 되는 경우 등과 같이 사용자의 시선(140)이 변경되는 경우, 대상체에 대한 정밀한 영상 획득 또는 판독이 어려울 수 있다. In addition, when the user's gaze 140 changes, such as when the user is forced to look at the display unit 110 from the side according to the user's movement, it may be difficult to obtain or read a precise image of the object.

따라서, 종래에 비하여 사용자가 의료 기기를 사용하는 위치에 따라 의료 기기의 촬영 환경을 자동으로 최적화함으로써, 사용자의 의료 기기 조작의 편의성을 증대시킬 필요가 있다. 또한, 이러한 의료 기기의 촬영 환경의 최적화는, 대상체에 대한 정밀한 촬영이 가능하고, 촬영 시간을 단축시킬 수 있다는 효과가 있다. Therefore, compared to the prior art, it is necessary to increase the convenience of the user's operation of the medical device by automatically optimizing the photographing environment of the medical device according to the location where the user uses the medical device. In addition, the optimization of the photographing environment of such a medical device has an effect of enabling precise photographing of an object and shortening a photographing time.

본 발명의 구체적인 실시예를 설명하기 앞서, 본 발명의 일 실시예와 관련된 초음파 진단 장치의 예시적인 구성에 대하여 도 1b 및 도 1c를 참조하여 이하에서 먼저 설명한다. 설명의 편의상 장치의 각각의 구성요소에 대하여 참조표시(r)를 부가하였다. Prior to describing a specific embodiment of the present invention, an exemplary configuration of an ultrasound diagnosis apparatus according to an embodiment of the present invention will be described below with reference to FIGS. 1B and 1C. For convenience of description, a reference mark (r) is added to each component of the device.

도 1b는 본 발명의 일 실시예와 관련된 초음파 진단 장치(r1000)의 구성을 도시한 블록도이다. 1B is a block diagram illustrating a configuration of an ultrasound diagnosis apparatus r1000 according to an exemplary embodiment of the present invention.

본 발명의 일 실시예와 관련된 초음파 진단 장치(r1000)는 프로브(r20), 초음파 송수신부(r100), 영상 처리부(r200), 통신부(r300), 메모리(r400), 입력 디바이스(r500), 및 제어부(r600)를 포함할 수 있으며, 상술한 여러 구성들은 버스(r700)를 통해 서로 연결될 수 있다. The ultrasound diagnosis apparatus r1000 according to an embodiment of the present invention includes a probe r20, an ultrasound transceiving unit r100, an image processing unit r200, a communication unit r300, a memory r400, an input device r500, and A control unit r600 may be included, and the various components described above may be connected to each other through a bus r700.

초음파 진단 장치(r1000)는 카트형뿐만 아니라 휴대형으로도 구현될 수 있다. 휴대형 초음파 진단 장치의 예로는 팩스 뷰어(PACS viewer), 스마트 폰(smart phone), 랩탑 컴퓨터, PDA, 태블릿 PC 등이 있을 수 있으나, 이에 제한되지 않는다.The ultrasound diagnosis apparatus r1000 may be implemented not only as a cart type but also as a portable type. Examples of the portable ultrasound diagnosis apparatus may include a PACS viewer, a smart phone, a laptop computer, a PDA, and a tablet PC, but are not limited thereto.

프로브(r20)는, 초음파 송수신부(r100)로부터 인가된 구동 신호(driving signal)에 따라 대상체(r10)로 초음파 신호를 송출하고, 대상체(r10)로부터 반사된 에코 신호를 수신한다. 프로브(r20)는 복수의 트랜스듀서를 포함하며, 복수의 트랜스듀서는 전달되는 전기적 신호에 따라 진동하며 음향 에너지인 초음파를 발생시킨다. 또한, 프로브(r20)는 초음파 진단 장치(r1000)의 본체와 유선 또는 무선으로 연결될 수 있으며, 초음파 진단 장치(r1000)는 구현 형태에 따라 복수 개의 프로브(r20)를 구비할 수 있다.The probe r20 transmits an ultrasonic signal to the object r10 according to a driving signal applied from the ultrasonic transceiving unit r100 and receives an echo signal reflected from the object r10. The probe r20 includes a plurality of transducers, and the plurality of transducers vibrate according to the transmitted electrical signal and generate ultrasonic waves that are acoustic energy. In addition, the probe r20 may be connected to the main body of the ultrasound diagnosis apparatus r1000 by wire or wirelessly, and the ultrasound diagnosis apparatus r1000 may include a plurality of probes r20 according to implementation types.

송신부(r110)는 프로브(r20)에 구동 신호를 공급하며, 펄스 생성부(r112), 송신 지연부(r114), 및 펄서(r116)를 포함한다. The transmission unit r110 supplies a driving signal to the probe r20 and includes a pulse generator r112, a transmission delay unit r114, and a pulser r116.

펄스 생성부(r112)는 소정의 펄스 반복 주파수(PRF, Pulse Repetition Frequency)에 따른 송신 초음파를 형성하기 위한 펄스(pulse)를 생성하며, 송신 지연부(r114)는 송신 지향성(transmission directionality)을 결정하기 위한 지연 시간(delay time)을 펄스에 적용한다. 지연 시간이 적용된 각각의 펄스는, 프로브(r20)에 포함된 복수의 압전 진동자(piezoelectric vibrators)에 각각 대응된다.The pulse generation unit r112 generates a pulse for forming a transmission ultrasonic wave according to a predetermined pulse repetition frequency (PRF), and the transmission delay unit r114 determines transmission directionality. The delay time for this is applied to the pulse. Each pulse to which the delay time is applied corresponds to a plurality of piezoelectric vibrators included in the probe r20, respectively.

펄서(r116)는, 지연 시간이 적용된 각각의 펄스에 대응하는 타이밍(timing)으로, 프로브(r20)에 구동 신호(또는, 구동 펄스(driving pulse))를 인가한다. The pulser r116 applies a driving signal (or driving pulse) to the probe r20 at a timing corresponding to each pulse to which a delay time is applied.

수신부(r120)는 프로브(r20)로부터 수신되는 에코 신호를 처리하여 초음파 데이터를 생성하며, 증폭기(r122), ADC(아날로그 디지털 컨버터, Analog Digital converter)(r124), 수신 지연부(r126), 및 합산부(r128)를 포함할 수 있다. The receiving unit r120 generates ultrasonic data by processing the echo signal received from the probe r20, and an amplifier r122, an analog digital converter (ADC) (r124), a reception delay unit (r126), and It may include a summing unit (r128).

증폭기(r122)는 에코 신호를 각 채널(channel) 마다 증폭하며, ADC(r124)는 증폭된 에코 신호를 아날로그-디지털 변환한다. The amplifier r122 amplifies the echo signal for each channel, and the ADC r124 converts the amplified echo signal to analog-digital.

수신 지연부(r126)는 수신 지향성(reception directionality)을 결정하기 위한 지연 시간을 디지털 변환된 에코 신호에 적용하고, 합산부(r128)는 수신 지연부(r166)에 의해 처리된 에코 신호를 합산함으로써 초음파 데이터를 생성한다.The reception delay unit r126 applies a delay time for determining reception directionality to the digitally converted echo signal, and the summing unit r128 sums the echo signals processed by the reception delay unit r166. Generate ultrasound data.

영상 처리부(r200)는 초음파 송수신부(r100)에서 생성된 초음파 데이터에 대한 주사 변환(scan conversion) 과정을 통해 초음파 영상을 생성하고 디스플레이한다. The image processing unit r200 generates and displays an ultrasound image through a scan conversion process for ultrasound data generated by the ultrasound transmission/reception unit r100.

한편, 초음파 영상은 A 모드(amplitude mode), B 모드(brightness mode) 및 M 모드(motion mode)에 따라 대상체를 스캔한 그레이 스케일(gray scale)의 초음파 영상뿐만 아니라, 대상체의 움직임을 도플러 영상으로 나타낼 수 있다. 도플러 영상은, 혈액의 흐름을 나타내는 혈류 도플러 영상 (또는, 컬러 도플러 영상으로도 불림), 조직의 움직임을 나타내는 티슈 도플러 영상, 및 대상체의 이동 속도를 파형으로 표시하는 스펙트럴 도플러 영상을 포함할 수 있다. On the other hand, the ultrasound image is not only a gray scale ultrasound image that scans the object according to the A mode, B mode, and M mode, but also the motion of the object as a Doppler image. Can be indicated. The Doppler image may include a blood flow Doppler image representing blood flow (or also referred to as a color Doppler image), a tissue Doppler image representing tissue movement, and a spectral Doppler image representing the movement speed of the object as a waveform. have.

B 모드 처리부(r212)는, 초음파 데이터로부터 B 모드 성분을 추출하여 처리한다. The B mode processing unit r212 extracts and processes a B mode component from the ultrasound data.

영상 생성부(r220)는, B 모드 처리부(r212)에 의해 추출된 B 모드 성분에 기초하여 신호의 강도가 휘도(brightness)로 표현되는 초음파 영상을 생성할 수 있다. The image generator r220 may generate an ultrasound image in which the intensity of a signal is expressed as brightness based on the B mode component extracted by the B mode processor r212.

마찬가지로, 도플러 처리부(r214)는, 초음파 데이터로부터 도플러 성분을 추출하고, 영상 생성부(r220)는 추출된 도플러 성분에 기초하여 대상체의 움직임을 컬러 또는 파형으로 표현하는 도플러 영상을 생성할 수 있다.Likewise, the Doppler processing unit r214 may extract a Doppler component from ultrasound data, and the image generator r220 may generate a Doppler image representing a motion of an object in color or waveform based on the extracted Doppler component.

일 실시 예에 의한 영상 생성부(r220)는, 볼륨 데이터에 대한 볼륨 렌더링 과정을 거쳐 3차원 초음파 영상을 생성할 수 있으며, 압력에 따른 대상체(r10)의 변형 정도를 영상화한 탄성 영상 또한 생성할 수도 있다. 나아가, 영상 생성부(r220)는 초음파 영상 상에 여러 가지 부가 정보를 텍스트, 그래픽으로 표현할 수도 있다. 한편, 생성된 초음파 영상은 메모리(r400)에 저장될 수 있다.The image generator r220 according to an embodiment may generate a 3D ultrasound image through a volume rendering process for volume data, and also generate an elastic image obtained by imaging the degree of deformation of the object r10 according to pressure. May be. Furthermore, the image generator r220 may express various additional information on the ultrasound image as text or graphics. Meanwhile, the generated ultrasound image may be stored in the memory r400.

디스플레이부(r230)는 생성된 초음파 영상을 표시 출력한다. 디스플레이부(r230)는, 초음파 영상뿐 아니라 초음파 진단 장치(r1000)에서 처리되는 다양한 정보를 GUI(Graphic User Interface)를 통해 화면 상에 표시 출력할 수 있다. 한편, 초음파 진단 장치(r1000)는 구현 형태에 따라 둘 이상의 디스플레이부(r230)를 포함할 수 있다.The display unit r230 displays and outputs the generated ultrasound image. The display unit r230 may display not only an ultrasound image, but also various information processed by the ultrasound diagnosis apparatus r1000 on a screen through a graphical user interface (GUI). Meanwhile, the ultrasound diagnosis apparatus r1000 may include two or more display units r230 according to implementation types.

통신부(r300)는, 유선 또는 무선으로 네트워크(r30)와 연결되어 외부 디바이스나 서버와 통신한다. 통신부(r300)는 의료 영상 정보 시스템(PACS, Picture Archiving and Communication System)을 통해 연결된 병원 서버나 병원 내의 다른 의료 장치와 데이터를 주고 받을 수 있다. 또한, 통신부(r300)는 의료용 디지털 영상 및 통신(DICOM, Digital Imaging and Communications in Medicine) 표준에 따라 데이터 통신할 수 있다.The communication unit r300 is connected to the network r30 by wire or wirelessly to communicate with an external device or server. The communication unit r300 may exchange data with a hospital server connected through a medical image information system (PACS, Picture Archiving and Communication System) or other medical devices in the hospital. In addition, the communication unit r300 may perform data communication according to a standard for digital imaging and communication in medicine (DICOM).

통신부(r300)는 네트워크(r30)를 통해 대상체의 초음파 영상, 초음파 데이터, 도플러 데이터 등 대상체의 진단과 관련된 데이터를 송수신할 수 있으며, CT, MRI, X-ray 등 다른 의료 장치에서 촬영한 의료 영상 또한 송수신할 수 있다. 나아가, 통신부(r300)는 서버로부터 환자의 진단 이력이나 치료 일정 등에 관한 정보를 수신하여 대상체의 진단에 활용할 수도 있다. 나아가, 통신부(r300)는 병원 내의 서버나 의료 장치뿐만 아니라, 의사나 환자의 휴대용 단말과 데이터 통신을 수행할 수도 있다.The communication unit r300 may transmit/receive data related to diagnosis of the object such as ultrasound image, ultrasound data, Doppler data, etc. of the object through the network r30, and medical images captured by other medical devices such as CT, MRI, and X-ray. It can also send and receive. Further, the communication unit r300 may receive information on a diagnosis history or treatment schedule of a patient from the server and use it for diagnosis of an object. Furthermore, the communication unit r300 may perform data communication with a portable terminal of a doctor or patient, as well as a server or medical device in a hospital.

통신부(r300)는 유선 또는 무선으로 네트워크(r30)와 연결되어 서버(r32), 의료 장치(r34), 또는 휴대용 단말(r36)과 데이터를 주고 받을 수 있다. 통신부(r300)는 외부 디바이스와 통신을 가능하게 하는 하나 이상의 구성 요소를 포함할 수 있으며, 예를 들어 근거리 통신 모듈(r310), 유선 통신 모듈(r320), 및 이동 통신 모듈(r330)을 포함할 수 있다.The communication unit r300 may be connected to the network r30 by wire or wirelessly to exchange data with the server r32, the medical device r34, or the portable terminal r36. The communication unit r300 may include one or more components that enable communication with an external device, for example, a short-range communication module r310, a wired communication module r320, and a mobile communication module r330. I can.

근거리 통신 모듈(r310)은 소정 거리 이내의 근거리 통신을 위한 모듈을 의미할 수 있다. 본 발명의 일 실시 예에 따른 근거리 통신 기술에는 무선 랜(Wireless LAN), 와이파이(Wi-Fi), 블루투스, 지그비(zigbee), WFD(Wi-Fi Direct), UWB(ultra wideband), 적외선 통신(IrDA, infrared Data Association), BLE (Bluetooth Low Energy), NFC(Near Field Communication) 등이 있을 수 있으나, 이에 한정되는 것은 아니다. The short-range communication module r310 may mean a module for short-range communication within a predetermined distance. Short-range communication technology according to an embodiment of the present invention includes wireless LAN, Wi-Fi, Bluetooth, zigbee, Wi-Fi Direct (WFD), ultra wideband (UWB), infrared communication ( IrDA, infrared data association), BLE (Bluetooth Low Energy), NFC (Near Field Communication), etc. may be, but is not limited thereto.

유선 통신 모듈(r320)은 전기적 신호 또는 광 신호를 이용한 통신을 위한 모듈을 의미하며, 일 실시 예에 의한 유선 통신 기술에는 페어 케이블(pair cable), 동축 케이블, 광섬유 케이블, 이더넷(ethernet) 케이블 등이 포함될 수 있다. The wired communication module r320 refers to a module for communication using an electrical signal or an optical signal, and wired communication technology according to an embodiment includes a pair cable, a coaxial cable, an optical fiber cable, an Ethernet cable, etc. May be included.

이동 통신 모듈(r330)은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. The mobile communication module r330 transmits and receives a radio signal with at least one of a base station, an external terminal, and a server on a mobile communication network. Here, the wireless signal may include a voice call signal, a video call signal, or various types of data according to transmission/reception of text/multimedia messages.

메모리(r400)는 초음파 진단 장치(r1000)에서 처리되는 여러 가지 정보를 저장한다. 예를 들어, 메모리(r400)는 입/출력되는 초음파 데이터, 초음파 영상 등 대상체의 진단에 관련된 의료 데이터를 저장할 수 있고, 초음파 진단 장치(r1000) 내에서 수행되는 알고리즘이나 프로그램을 저장할 수도 있다. The memory r400 stores various pieces of information processed by the ultrasound diagnosis apparatus r1000. For example, the memory r400 may store medical data related to diagnosis of an object, such as input/output ultrasound data and ultrasound images, and may store an algorithm or program performed in the ultrasound diagnosis apparatus r1000.

메모리(r400)는 플래시 메모리, 하드디스크, EEPROM 등 여러 가지 종류의 저장매체로 구현될 수 있다. 또한, 초음파 진단 장치(r1000)는 웹 상에서 메모리(r400)의 저장 기능을 수행하는 웹 스토리지(web storage) 또는 클라우드 서버를 운영할 수도 있다.The memory r400 may be implemented as various types of storage media such as a flash memory, a hard disk, and an EEPROM. In addition, the ultrasound diagnosis apparatus r1000 may operate a web storage or a cloud server that performs a storage function of the memory r400 on the web.

입력 디바이스(r500)는, 사용자로부터 초음파 진단 장치(r1000)를 제어하기 위한 데이터를 입력받는 수단을 의미한다. 입력 디바이스(r500)는 키 패드, 마우스, 터치 패널, 터치 스크린, 트랙볼, 조그 스위치 등 하드웨어 구성을 포함할 수 있으나 이에 한정되는 것은 아니며, 심전도 측정 모듈, 호흡 측정 모듈, 음성 인식 센서, 제스쳐 인식 센서, 지문 인식 센서, 홍채 인식 센서, 깊이 센서, 거리 센서 등 다양한 입력 수단을 더 포함할 수 있다. The input device r500 refers to a means for receiving data for controlling the ultrasound diagnosis apparatus r1000 from a user. The input device r500 may include a hardware configuration such as a keypad, a mouse, a touch panel, a touch screen, a trackball, a jog switch, etc., but is not limited thereto, and an electrocardiogram measurement module, a respiration measurement module, a voice recognition sensor, a gesture recognition sensor , Fingerprint recognition sensor, iris recognition sensor, depth sensor, distance sensor, etc. may further include various input means.

제어부(r600)는 초음파 진단 장치(r1000)의 동작을 전반적으로 제어할 수 있다. 즉, 제어부(r600)는 도 1에 도시된 프로브(r20), 초음파 송수신부(r100), 영상 처리부(r200), 통신부(r300), 메모리(r400), 및 입력 디바이스(r500) 간의 동작을 제어할 수 있다. The controller r600 may generally control the operation of the ultrasound diagnosis apparatus r1000. That is, the control unit r600 controls the operation between the probe r20, the ultrasonic transceiving unit r100, the image processing unit r200, the communication unit r300, the memory r400, and the input device r500 shown in FIG. 1 can do.

프로브(r20), 초음파 송수신부(r100), 영상 처리부(r200), 통신부(r300), 메모리(r400), 입력 디바이스(r500) 및 제어부(r600) 중 일부 또는 전부는 소프트웨어 모듈에 의해 동작할 수 있으나 이에 제한되지 않으며, 상술한 구성 중 일부가 하드웨어에 의해 동작할 수도 있다. Some or all of the probe (r20), the ultrasonic transceiving unit (r100), the image processing unit (r200), the communication unit (r300), the memory (r400), the input device (r500) and the control unit (r600) can be operated by a software module. However, the present invention is not limited thereto, and some of the above-described components may be operated by hardware.

또한, 초음파 송수신부(r100), 영상 처리부(r200), 및 통신부(r300) 중 적어도 일부는 제어부(r600)에 포함될 수 있으나, 이러한 구현 형태에 제한되지는 않는다.In addition, at least some of the ultrasound transceiving unit r100, the image processing unit r200, and the communication unit r300 may be included in the control unit r600, but the implementation is not limited thereto.

도 1c는 본 발명의 일 실시예와 관련된 무선 프로브(r2000)의 구성을 도시한 블록도이다.1C is a block diagram showing a configuration of a wireless probe r2000 according to an embodiment of the present invention.

무선 프로브(r2000)는, 도 1b에서 설명한 바와 같이 복수의 트랜스듀서를 포함하며, 구현 형태에 따라 도 1b의 초음파 송수신부(r100)의 구성을 일부 또는 전부 포함할 수 있다.The wireless probe r2000 includes a plurality of transducers as described with reference to FIG. 1B, and may include some or all of the configuration of the ultrasonic transceiving unit r100 of FIG. 1B according to an implementation form.

도 1c에 도시된 실시 예에 의한 무선 프로브(r2000)는, 송신부(r2100), 트랜스듀서(r2200), 및 수신부(r2300)를 포함하며, 각각의 구성에 대해서는 1에서 설명한 바 있으므로 자세한 설명은 생략한다. 한편, 무선 프로브(r2000)는 그 구현 형태에 따라 수신 지연부(r2330)와 합산부(r2340)를 선택적으로 포함할 수도 있다. The wireless probe r2000 according to the embodiment illustrated in FIG. 1C includes a transmitter r2100, a transducer r2200, and a receiver r2300, and each configuration has been described in 1, so detailed descriptions are omitted. do. Meanwhile, the wireless probe r2000 may selectively include a reception delay unit r2330 and an summing unit r2340 according to the implementation type.

무선 프로브(r2000)는, 대상체(r10)로 초음파 신호를 송신하고 에코 신호를 수신하며, 초음파 데이터를 생성하여 도 1의 초음파 진단 장치(r1000)로 무선 전송할 수 있다.The wireless probe r2000 may transmit an ultrasound signal to the object r10 and receive an echo signal, generate ultrasound data, and wirelessly transmit the ultrasound data to the ultrasound diagnosis apparatus r1000 of FIG. 1.

도 2는 본 발명의 일 실시예에 따른 의료 기기를 통한 대상체의 검진 시 사용되는 사용자 인터페이스(UI; User Interface)를 사용자의 모션 정보에 기초하여 변경시켜 제공하기 위한 방법의 개략도이다. FIG. 2 is a schematic diagram of a method for providing a user interface (UI) used for examination of an object through a medical device according to an embodiment of the present invention by changing it based on motion information of a user.

도 2a에서와 같이, 프로브(1200) 연결선의 움직임 방향을 감지하여 사용자가 왼손으로 프로브(1200)를 사용하는지 또는 오른손으로 프로브(1200)를 사용하는지를 파악할 수 있다. 예를 들어, 사용자가 왼손잡이라면, 왼손으로 프로브(1200)를 사용할 수 있다. 마찬가지로, 사용자가 오른손잡이라면, 오른손으로 프로브(1200)를 사용할 수 있다. As shown in FIG. 2A, it is possible to determine whether the user uses the probe 1200 with the left hand or the probe 1200 with the right hand by detecting the movement direction of the connection line of the probe 1200. For example, if the user is left-handed, the probe 1200 may be used with the left hand. Similarly, if the user is right-handed, the probe 1200 can be used with the right hand.

이와 같이 사용자의 프로브(1200) 사용 양상에 따라, 컨트롤 패널 상에서 사용자 인터페이스(UI) 등이 각각 다르게 제공될 수 있다. As described above, according to a user's use of the probe 1200, a user interface (UI) may be provided differently on the control panel.

예를 들어, 도 2b에 도시된 바와 같이, 사용자가 오른손 잡이인 경우, 사용자는 대상체를 자신의 오른편에 위치시키고, 오른손을 이용하여 프로브를 조작하는 것이 편리할 수 있다. 그러므로, 사용자가 오른손 잡이인 경우, 컨트롤 패널 상에 포함되어 촬영 시 사용될 버튼, 트랙볼 등이 오른손용 UI 패턴(131)으로써 제공될 필요가 있다. For example, as shown in FIG. 2B, when the user is a right-handed user, it may be convenient for the user to position the object on his right side and to manipulate the probe using his right hand. Therefore, when the user is a right-handed user, buttons, trackballs, etc. that are included on the control panel and used for shooting need to be provided as the UI pattern 131 for the right hand.

또한, 사용자가 왼손 잡이인 경우, 사용자는 대상체를 자신의 왼편에 위치시키고, 왼손을 이용하여 프로브를 조작하는 것이 편리할 수 있다. 다시 말해서, 사용자가 왼손 잡이인 경우, 컨트롤 패널 상에서는 사용자에게 왼손용 UI 패턴(133)이 제공될 수 있다. In addition, when the user is a left-handed user, it may be convenient for the user to position the object on his left side and operate the probe using his left hand. In other words, when the user is a left-handed user, a left-handed UI pattern 133 may be provided to the user on the control panel.

또한, 컨트롤 패널 상의 이러한 오른손용 UI 패턴(131)과 왼손용 UI 패턴(133)은 프로브(1200)의 현재의 위치, 위치 변경 등을 포함하는 사용자의 모션 정보에 기초하여 전환될 수 있다. In addition, the UI pattern 131 for the right hand and the UI pattern 133 for the left hand on the control panel may be switched based on the user's motion information including the current position of the probe 1200 and the position change.

도 3은 본 발명의 일 실시예에 따른 사용자의 모션 정보에 기초하여 사용자 인터페이스(UI; User Interface)를 변경시켜 제공하기 위한 방법을 나타낸 흐름도이다.3 is a flowchart illustrating a method for providing a user interface (UI) changed based on motion information of a user according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 의료 기기를 통한 대상체의 검진 시 사용되는 사용자 인터페이스(UI; User Interface)를 사용자의 모션 정보에 기초하여 변경시켜 제공하기 위한 방법은, 사용자의 모션 정보를 획득하는 단계(S100), 획득된 사용자의 모션 정보를 이용하여 UI를 변경하는 단계(S200) 및 변경된 UI를 디스플레이하는 단계(S300)를 포함할 수 있다. According to an embodiment of the present invention, a method for providing a user interface (UI) used when examining an object through a medical device is changed based on motion information of a user, comprising: acquiring motion information of the user (S100), changing the UI by using the acquired motion information of the user (S200) and displaying the changed UI (S300).

본 발명의 일 실시예에 따라 사용자의 모션 정보를 획득할 수 있다(S100). According to an embodiment of the present invention, motion information of a user may be obtained (S100).

획득된 모션 정보를 이용하여 촬영에 사용될 버튼, 트랙볼 등을 나타내는 사용자 인터페이스(UI) 등을 변경할 수 있다(S200). 이러한 사용자 인터페이스(UI) 등의 변경은 사용자가 의료 기기를 용이하게 조작할 수 있도록 의료 기기 촬영 환경을 최적화하는 것을 포함할 수 있다. Using the acquired motion information, a user interface (UI) indicating a button to be used for photographing, a trackball, etc. may be changed (S200). Such changes in the user interface (UI) may include optimizing a medical device photographing environment so that a user can easily manipulate the medical device.

사용자 인터페이스(UI) 등의 변경은, 전술한 바와 같이, 예를 들어, 사용자의 왼손 또는 오른손 선호도에 따라 UI의 배치를 달리하거나, 촬영에 사용되는 버튼의 사용 빈도에 따라 UI의 배치, 크기 등을 조절하여 제공할 수 있다. Changes to the user interface (UI), etc., as described above, vary the layout of the UI according to the preference of the user's left or right hand, or the layout and size of the UI depending on the frequency of use of the button used for shooting. Can be provided by adjusting.

본 발명의 일 실시예에 따라 변경된 UI는 디스플레이부 등을 통하여 사용자에게 제공될 수 있다(S300). The UI changed according to an embodiment of the present invention may be provided to a user through a display unit or the like (S300).

본 발명의 일 실시예에 따른 사용자의 모션 정보는 프로브의 위치, 사용자의 생체 정보 등으로부터 획득될 수 있다. 이와 관련하여서는 도 4 및 도 5와 관련하여 후술한다. Motion information of a user according to an embodiment of the present invention may be obtained from a location of a probe and biometric information of a user. In this regard, it will be described later with reference to FIGS. 4 and 5.

도 4는 본 발명의 일 실시예에 따른 사용자의 모션 정보 획득의 일 예를 도시한다. 4 shows an example of obtaining motion information of a user according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 사용자의 모션 정보는 현재의 프로브(1200)의 위치 정보에 기초하여 획득될 수 있다. Motion information of a user according to an embodiment of the present invention may be obtained based on location information of the current probe 1200.

본 발명의 일 실시예에 따른 현재 프로브(1200)의 위치 정보는 프로브(1200)의 현재의 지시방향, 소정의 기준 지점에 대한 경사각 및 높이값 중 적어도 하나를 포함할 수 있다. The location information of the current probe 1200 according to an embodiment of the present invention may include at least one of a current indication direction of the probe 1200, an inclination angle with respect to a predetermined reference point, and a height value.

예를 들어, 현재의 프로브(1200)의 위치 정보는 프로브(1200)의 지시 방향에 따라 획득될 수 있다. 예컨대, 프로브(1200)에 포함(예컨대, 초음파 기기와의 연결을 위한 프로브의 단부에 포함 등)되거나 또는 프로브(1200)가 연결될 초음파 기기에 매립(embedded)된 소정의 센서(121) 등을 통하여 프로브(1200)의 현재의 지시 방향 정보가 획득될 수 있다.For example, position information of the current probe 1200 may be obtained according to the direction indicated by the probe 1200. For example, through a predetermined sensor 121 embedded in the probe 1200 (eg, included at the end of the probe for connection to the ultrasonic device) or embedded in the ultrasonic device to which the probe 1200 is to be connected. Current indication direction information of the probe 1200 may be obtained.

이러한 소정의 센서(121)는, 기준선(예컨대, 센서(121)의 중심선(ML))으로부터 프로브(1200) 연결선이 어느 방향을 지향하는 지에 따라 프로브(1200)의 지시 방향을 판단하도록 구성될 수 있다. The predetermined sensor 121 may be configured to determine a direction in which the probe 1200 is directed from a reference line (eg, the center line ML of the sensor 121) according to which direction the connection line of the probe 1200 is directed. have.

예컨대, 토글 스위치 원리와 같은 방식의 센서(121) 등을 통하여 프로브(1200)의 지시 방향을 결정할 수 있다. 도 4a에 도시된 바와 같이, 프로브(1200)가 중심선(ML)으로부터 오른쪽으로 편향되어 있다면, 현재 프로브(1200)의 위치 정보는 디스플레이부(2300)과 컨트롤 패널(2500)을 포함하는 초음파 기기의 오른편을 지시하고 있다고 결정될 수 있다. 다시 말해서, 프로브(1200)는 초음파 기기의 오른편에 위치한다는 정보가 획득될 수 있다. For example, the indication direction of the probe 1200 may be determined through the sensor 121 or the like in the same manner as the toggle switch principle. As shown in FIG. 4A, if the probe 1200 is deflected to the right from the center line ML, the current position information of the probe 1200 is of the ultrasonic device including the display unit 2300 and the control panel 2500. It can be determined that you are pointing to the right. In other words, information that the probe 1200 is located on the right side of the ultrasound apparatus may be obtained.

또한, 도 4a에 도시된 바와 같이, 프로브(1200)가 중심선(ML)으로부터 왼쪽으로 편향되어 있다면, 현재 프로브(1200)의 위치 정보는 디스플레이부(2300)과 컨트롤 패널(2500)을 포함하는 초음파 기기의 왼편을 지시하고 있다고 결정될 수 있다. 다시 말해서, 프로브(1200)는 초음파 기기의 왼편에 위치한다는 정보가 획득될 수 있다. In addition, as shown in FIG. 4A, if the probe 1200 is deflected to the left from the center line ML, the current position information of the probe 1200 is ultrasonic waves including the display unit 2300 and the control panel 2500. It can be determined that you are pointing to the left side of the device. In other words, information that the probe 1200 is located on the left side of the ultrasound device may be obtained.

또한, 본 발명의 일 실시예에 따른 프로브(1200)가 무선인 경우, 소정의 센서(121)는, 무선 통신을 통하여 무선 프로브의 GPS(Global Positioning System) 좌표를 센싱하도록 구성될 수 있다.In addition, when the probe 1200 according to an embodiment of the present invention is wireless, the predetermined sensor 121 may be configured to sense the coordinates of the GPS (Global Positioning System) of the wireless probe through wireless communication.

또한, 본 발명의 일 실시예에 따라 현재 프로브(1200)의 위치 정보는 소정의 기준 지점에 대한 경사각 및 높이값 중 적어도 하나를 포함할 수 있다.In addition, according to an embodiment of the present invention, the location information of the current probe 1200 may include at least one of an inclination angle and a height value for a predetermined reference point.

도 4b에 도시된 바와 같이, 프로브(1200)는 기울기 정보 또는 높이 정보를 획득하기 위한 센서(123) 등을 포함할 수 있다. 이러한 센서(123)는, 자이로 센서, 높이 센서 등을 포함할 수 있다. As shown in FIG. 4B, the probe 1200 may include a sensor 123 for obtaining tilt information or height information. The sensor 123 may include a gyro sensor, a height sensor, or the like.

예를 들어, 현재 프로브(1200)의 위치 정보는 소정의 기준 지점에 대한 경사각 정보로서 획득될 수 있다. 소정의 기준 지점은 의료 기기가 위치한 지면, 환자 테이블 또는 프로브(1200)의 최초 위치(예컨대, 초음파 기기 상에 부착되어 있는 상태의 위치 등) 등을 포함할 수 있다. For example, the location information of the current probe 1200 may be obtained as information on an inclination angle for a predetermined reference point. The predetermined reference point may include a ground on which the medical device is located, an initial position of the patient table or probe 1200 (eg, a position attached to the ultrasound device, etc.).

이러한 경사각 정보에 상응하게 사용자의 현재 모션이 추정될 수 있다. 예를 들면, 경사각의 변화 폭이 커질수록 프로브(1200)의 움직임 정도가 점점 증가한다고 추정될 수 있고, 추정된 프로브(1200)의 움직임에 기초하여 프로브(1200)를 조작중인 사용자의 움직임 각도 범위 등에 대한 모션 정보가 획득될 수 있다. The user's current motion may be estimated according to the inclination angle information. For example, it may be estimated that the degree of movement of the probe 1200 gradually increases as the width of change of the inclination angle increases, and the range of the movement angle of the user operating the probe 1200 based on the estimated movement of the probe 1200 Motion information on the back may be obtained.

예를 들면, 지면(또는 환자 테이블)과 프로브(1200)는 최대 90도의 각도(예컨대, 프로브(1200)가 지면에 수직하게 위치하는 경우)를 이룰 수 있다. 사용자는 촬영이 진행됨에 따라 프로브(1200)를 소정의 방향 및 각도로 이동시킬 수 있다. 프로브(1200)와 지면이 이루는 각도는 소정의 범위(예컨대, 0도 내지 90도) 내에 포함될 수 있다. 예를 들어, 사용자가 대상체의 간 초음파를 촬영하고자 할 경우, 프로브(1200)는 사용자 조작에 따라 지면과 평행(예컨대, 프로브(1200)와 지면은 0도의 각을 이룸)하거나 수직(예컨대, 프로브(1200)와 지면이 90도 각을 이룸)을 이루는 범위 내에서 이동될 수 있다. For example, the ground (or patient table) and the probe 1200 may form an angle of up to 90 degrees (eg, when the probe 1200 is positioned perpendicular to the ground). The user may move the probe 1200 in a predetermined direction and angle as photographing proceeds. An angle between the probe 1200 and the ground may be included within a predetermined range (eg, 0 degrees to 90 degrees). For example, when a user wants to photograph liver ultrasound of an object, the probe 1200 may be parallel to the ground (for example, the probe 1200 and the ground are at an angle of 0 degrees) or vertical (eg, probe 1200) according to user manipulation. (1200) and the ground at an angle of 90 degrees) can be moved within a range.

다시 말해서, 프로브(1200)가 지면과 평행한 상태에서 프로브(1200)와 지면이 수직인 상태로 프로브(1200)를 이동시킬 경우, 경사각의 변화 폭은 최대가 될 수 있고, 프로브(1200)의 움직임 정도도 최대라고 추정될 수 있으며, 이러한 추정된 프로브(1200)의 움직임에 기초하여 프로브(1200)를 조작중인 사용자의 움직임 정도도 최대라는 모션 정보가 획득될 수 있다.In other words, when the probe 1200 is moved while the probe 1200 is parallel to the ground and the probe 1200 and the ground are perpendicular to each other, the width of the change in the inclination angle can be maximum, and the The motion degree may be estimated to be the maximum, and motion information indicating that the motion degree of the user operating the probe 1200 is also maximum may be obtained based on the estimated motion of the probe 1200.

또한, 이와 유사하게 초음파 기기 상에 프로브(1200)가 부착되어 있던 초기 상태의 위치로부터의 경사각이 현재 프로브(1200)의 위치 정보로서 획득될 수 있다. In addition, similarly, an inclination angle from the position of the initial state in which the probe 1200 was attached to the ultrasound device may be obtained as position information of the current probe 1200.

예를 들어, 본 발명의 일 실시예에 따른 센서(123)는, 센서(123)를 기준으로 오른쪽 또는 동편으로의 방위는 양의 각도로 표현되고, 왼쪽 또는 서편으로의 방위는 음의 각도로 표현되도록 구성될 수 있지만 반드시 이에 제한되는 것은 아니다. For example, in the sensor 123 according to an embodiment of the present invention, the orientation toward the right or east side based on the sensor 123 is expressed as a positive angle, and the orientation toward the left or west side is a negative angle. It may be configured to be expressed, but is not necessarily limited thereto.

이에 따라, 프로브(1200)가 최초 위치로부터 현재 오른쪽으로 편향되어 존재하는 경우, 센서(123) 상에서 양의 경사각이 센싱될 수 있고, 현재 프로브(1200)는 센서(123)의 우측에 센싱된 경사각도의 위치에서 존재한다는 정보가 획득될 수 있다. 또한, 프로브(1200)가 최초 위치로부터 현재 왼쪽으로 편향되어 존재하는 경우, 센서(123) 상에서 음의 경사각이 센싱될 수 있고, 현재 프로브(1200)는 센서(123)의 좌측에 센싱된 경사각도의 위치에 존재한다는 정보가 획득될 수 있다. Accordingly, when the probe 1200 is present while being deflected to the right from the initial position, a positive inclination angle may be sensed on the sensor 123, and the current probe 1200 is the inclination angle sensed on the right side of the sensor 123 Information that it exists at the location of the province can be obtained. In addition, when the probe 1200 is currently deflected to the left from the initial position, a negative tilt angle may be sensed on the sensor 123, and the current probe 1200 is the tilt angle sensed on the left side of the sensor 123 Information that it exists at the location of may be obtained.

또한, 현재 프로브(1200)의 위치 정보는 소정의 기준 지점에 대한 높이값 정보로서 획득될 수 있다. 소정의 기준 지점은 지면, 환자 테이블 또는 프로브(1200)의 최초 위치(예컨대, 초음파 기기 상에 부착된 상태의 위치 등) 등을 포함할 수 있다. 이러한 경우, 소정의 센서(123)는, 높이 센서일 수 있다. Also, the location information of the current probe 1200 may be obtained as height value information for a predetermined reference point. The predetermined reference point may include the ground, the patient's table, or the initial position of the probe 1200 (eg, a position attached to the ultrasound device, etc.). In this case, the predetermined sensor 123 may be a height sensor.

예를 들면, 센서(123)는, 현재 프로브(1200)가 지면으로부터 약 120cm의 높이에 위치하고 있다는 정보를 센싱할 수 있다. 또한, 센서(123)는, 프로브(1200)가 예컨대, 초음파 기기 상에 부착된 초기 상태에 비하여 현재 약 5cm정도 낮게 위치하고 있음을 센싱할 수 있다. 다시 말해서, 이러한 소정의 기준 지점에 대한 높이값 정보는, 현재 프로브(1200)의 위치 정보로서 획득될 수 있다. For example, the sensor 123 may sense information that the probe 1200 is currently positioned at a height of about 120 cm from the ground. In addition, the sensor 123 may sense that the probe 1200 is currently positioned about 5 cm lower than the initial state attached to the ultrasonic device, for example. In other words, the height value information for the predetermined reference point may be obtained as position information of the current probe 1200.

본 발명의 일 실시예에 따른 프로브(1200)의 높이값 정보(예컨대, 높이의 변화 정도 등)에 기초하여 프로브(1200)를 조작중인 사용자의 자세의 높낮이 변화 정도를 나타내는 모션 정보가 획득될 수 있다.Motion information indicating a change in height of a posture of a user operating the probe 1200 may be obtained based on height value information (eg, a change in height, etc.) of the probe 1200 according to an embodiment of the present invention. have.

도 5는 본 발명의 다른 실시예에 따라 획득되는 사용자의 모션 정보의 예를 도시한다.5 shows an example of motion information of a user obtained according to another embodiment of the present invention.

본 발명의 일 실시예에 따른 사용자 모션 정보는, 사용자의 지문 정보, 사용자의 홍채 정보, 사용자의 안면 정보 중 적어도 하나를 포함하는 생체 정보에 기초하여 획득될 수 있다. The user motion information according to an embodiment of the present invention may be obtained based on biometric information including at least one of user's fingerprint information, user's iris information, and user's face information.

본 발명의 일 실시예에 따른 사용자 모션 정보는 사용자의 지문 정보에 기초하여 획득될 수 있다. User motion information according to an embodiment of the present invention may be obtained based on the user's fingerprint information.

예를 들어, 프로브(1200)에 포함된 센서(125)를 통하여 획득된 사용자의 지문 정보(11)에 기초하여, 사용자가 왼손 또는 오른손 중 현재 어느 손으로 프로브(1200)를 파지하였는지에 대하여 결정할 수 있다. For example, based on the user's fingerprint information 11 acquired through the sensor 125 included in the probe 1200, it is possible to determine whether the user currently grips the probe 1200 with the left or right hand. have.

다시 말해서, 프로브(1200)에 포함된 센서(125)를 통하여 획득한 사용자의 지문 정보(11)로부터 사용자가 프로브(1200)를 왼손으로 사용하는지 또는 오른손으로 사용하는지에 대한 모션 정보를 획득할 수 있다. In other words, from the user's fingerprint information 11 acquired through the sensor 125 included in the probe 1200, motion information on whether the user uses the probe 1200 with the left hand or the right hand can be obtained. have.

예컨대, 획득된 사용자의 지문 정보(11)가 사용자의 오른손 엄지 또는 검지에 대한 지문이라면, 사용자는 현재 프로브(1200)를 오른손으로 파지하고 있는 것으로 결정되고, 사용자의 오른손으로 프로브(1200) 사용이라는 모션 정보가 획득될 수 있다. For example, if the obtained user's fingerprint information 11 is a fingerprint for the thumb or index finger of the user's right hand, it is determined that the user is currently holding the probe 1200 with the right hand, and the use of the probe 1200 with the user's right hand. Motion information can be obtained.

또한, 획득된 사용자의 지문 정보(11)가 사용자의 왼손 엄지 또는 검지에 대한 지문이라면, 사용자는 현재 프로브(1200)를 왼손으로 파지하고 있는 것으로 결정되고, 사용자의 왼손으로 프로브(1200) 사용이라는 모션 정보가 획득될 수 있다. In addition, if the obtained user's fingerprint information 11 is a fingerprint of the user's left thumb or index finger, it is determined that the user is currently holding the probe 1200 with his left hand, and the use of the probe 1200 with the user's left hand. Motion information can be obtained.

또한, 본 발명의 일 실시예에 따르면, 프로브(1200)에 포함된 센서(125)를 통하여 획득된 사용자의 지문 정보(11)에 기초하여 현재 프로브를 사용중인 사용자가 누구인지를 식별할 수 있다. 이러한 경우, 사용자의 지문 정보(11)는 사용자 식별 정보(예컨대, ID 등)로서 활용될 수 있다. In addition, according to an embodiment of the present invention, based on the user's fingerprint information 11 acquired through the sensor 125 included in the probe 1200, it is possible to identify who is the user currently using the probe. . In this case, the user's fingerprint information 11 may be utilized as user identification information (eg, ID, etc.).

본 발명의 일 실시예에 따른 사용자 모션 정보는, 사용자의 홍채 정보(13), 사용자의 안면 정보(15) 중 적어도 하나에 기초하여 획득될 수 있다.User motion information according to an embodiment of the present invention may be obtained based on at least one of the user's iris information 13 and the user's face information 15.

도 5에 도시된 바와 같이, 초음파 기기 상에 구비된 센서(111) 등을 통하여 사용자의 홍채 정보(13), 사용자의 안면 정보(15) 중 적어도 하나가 획득될 수 있다. 이러한 센서(111)는 초음파 기기의 디스플레이부(2300) 근방에 위치될 수 있지만, 반드시 이에 제한되는 것은 아니다. As shown in FIG. 5, at least one of the user's iris information 13 and the user's face information 15 may be obtained through a sensor 111 provided on the ultrasonic device. The sensor 111 may be located near the display unit 2300 of the ultrasonic device, but is not limited thereto.

또한, 이러한 센서(111)는 홍채 인식, 안면 인식 기능을 동시에 수행할 수 있거나 또는 홍채 인식 기능, 안면 인식 기능을 갖는 각각의 개별적인 센서로서 구현될 수 있다. In addition, the sensor 111 may perform iris recognition and face recognition functions at the same time, or may be implemented as individual sensors having an iris recognition function and a face recognition function.

본 발명의 일 실시예에 따라, 센서(111)를 통하여 사용자의 홍채 정보(13)가 획득될 수 있다. 사용자의 홍채 정보(13)는 현재 사용자가 누구인지에 대한 사용자 식별 정보, 현재 사용자의 홍채의 현재 위치 등에 대한 정보를 포함할 수 있다. 예를 들어, 센서(111)를 통하여 사용자의 홍채를 판독함으로써, 현재 사용자가 누구인지에 대한 정보를 획득할 수 있다. According to an embodiment of the present invention, iris information 13 of a user may be obtained through the sensor 111. The user's iris information 13 may include user identification information on who the current user is, and information on the current location of the current user's iris. For example, by reading the user's iris through the sensor 111, information on who the current user is may be obtained.

또한, 센서(111)를 통하여 획득된 홍채의 현재 위치 정보를 이용하여 사용자의 현재 시선을 결정하고, 사용자의 현재 시선에 기초하여 사용자의 모션 정보를 획득할 수 있다. 다시 말해서, 사용자의 눈에서 홍채가 왼쪽으로 편향되어 위치하는지 여부 또는 오른쪽으로 편향되어 위치하는지 여부에 따라서 사용자의 현재의 자세에 대한 정보를 획득할 수 있지만, 반드시 이에 제한되는 것은 아니다. In addition, a current gaze of the user may be determined using the current location information of the iris obtained through the sensor 111 and motion information of the user may be obtained based on the current gaze of the user. In other words, information about the user's current posture may be obtained depending on whether the iris is positioned to be deflected to the left or to the right of the user's eye, but is not limited thereto.

예를 들면, 사용자의 눈에서 홍채가 대체로 왼쪽으로 편향되어 위치하는 경우, 사용자의 상체가 오른쪽을 지향하고 있다고 판단될 수 있다. 다시 말해서, 사용자가 현재 오른손으로 프로브(1200) 등을 조작하고 있다고 판단될 수 있다. For example, in the case where the iris of the user's eye is generally deflected to the left, it may be determined that the user's upper body is oriented toward the right. In other words, it may be determined that the user is currently operating the probe 1200 or the like with the right hand.

이와 유사하게, 사용자의 눈에서 홍채가 대체로 오른쪽으로 편향되어 위치하는 경우, 사용자의 상체가 왼쪽을 지향하고 있다고 판단될 수 있다. 사용자가 현재 왼손으로 프로브(1200) 등을 조작하고 있다고 판단될 수 있다.Similarly, when the iris of the user's eye is positioned to be generally biased to the right, it may be determined that the user's upper body is pointing to the left. It may be determined that the user is currently operating the probe 1200 or the like with his left hand.

본 발명의 일 실시예에 따라, 센서(111)를 통하여 사용자의 안면 정보(15)가 획득될 수 있다. 사용자의 안면 정보(15)는 현재 사용자가 누구인지에 대한 사용자 식별 정보, 사용자의 현재 안면 방향 등에 대한 정보를 포함할 수 있다. 예를 들어, 센서(111)를 통하여 사용자의 안면 특징점, 안면 윤곽선 등을 판독함으로써, 현재 사용자가 누구인지에 대한 정보를 획득할 수 있다.According to an embodiment of the present invention, the user's facial information 15 may be obtained through the sensor 111. The user's facial information 15 may include user identification information on who the current user is, and information on the current facial direction of the user. For example, by reading the user's facial feature points and facial contours through the sensor 111, information on who the current user is may be obtained.

또한, 센서(111)를 통하여 획득된 사용자의 안면 방향 정보를 이용하여 사용자의 주(main) 안면을 결정하고, 사용자의 주 안면에 기초하여 사용자의 모션 정보를 획득할 수 있다. 다시 말해서, 사용자의 안면 면적에 기초하여 사용자의 현재의 주 안면을 결정하고, 결정된 주 안면으로부터 사용자의 현재의 자세에 대한 정보를 획득할 수 있다. In addition, the user's main face may be determined by using the user's face direction information acquired through the sensor 111, and motion information of the user may be obtained based on the user's main face. In other words, the current main face of the user may be determined based on the user's face area, and information on the current posture of the user may be obtained from the determined main face.

예를 들면, 사용자의 오른쪽 안면과 왼쪽 안면의 면적을 비교하여, 왼쪽 안면의 면적이 더 넓은 경우, 사용자의 상체가 오른쪽을 지향하고 있다고 판단될 수 있다. 다시 말해서, 사용자가 현재 오른손으로 프로브(1200) 등을 조작하고 있다고 판단될 수 있다. For example, by comparing the area of the user's right face and the left face, if the area of the left face is wider, it may be determined that the upper body of the user is oriented toward the right. In other words, it may be determined that the user is currently operating the probe 1200 or the like with the right hand.

이와 유사하게, 사용자의 오른쪽 안면과 왼쪽 안면의 면적을 비교하여, 오른쪽 안면의 면적이 더 넓은 경우, 사용자의 상체가 왼쪽을 지향하고 있다고 판단될 수 있다. 다시 말해서, 사용자가 현재 왼손으로 프로브(1200) 등을 조작하고 있다고 판단될 수 있다.Similarly, when the area of the user's right face and the left face are compared and the area of the right face is larger, it may be determined that the user's upper body is oriented toward the left. In other words, it may be determined that the user is currently operating the probe 1200 or the like with his left hand.

또한, 사용자의 홍채 정보(13) 및 사용자의 안면 정보(15)를 이용하여 사용자의 모션 정보가 획득될 수 있다. 예를 들어, 사용자의 오른쪽 안면과 왼쪽 안면의 면적을 비교하였지만, 어느 쪽 안면의 면적이 더 넓은지 명확히 구분할 수 없는 경우에, 전술한 방법과 같이 사용자의 홍채 정보를 추가로 고려하여 사용자의 모션 정보를 획득할 수도 있다. In addition, motion information of the user may be obtained using the user's iris information 13 and the user's facial information 15. For example, if the area of the user's right and left face is compared, but it is not possible to clearly distinguish which area is larger, the user's motion is additionally considered as in the above-described method. Information can also be obtained.

도 6은 본 발명의 일 실시예에 따라 변경되어 제공 가능한 사용자 인터페이스(UI)의 일 예를 도시한다. 6 shows an example of a user interface (UI) that can be modified and provided according to an embodiment of the present invention.

도 6에서와 같이 본 발명의 일 실시예에 따라 의료 기기에서의 동작 기능을 표시하는 사용자 인터페이스(UI)(예컨대, 611 내지 615)가 디스플레이 되어 제공될 수 있다. As shown in FIG. 6, according to an embodiment of the present invention, a user interface (UI) (eg, 611 to 615) for displaying operation functions in a medical device may be displayed and provided.

본 발명의 일 실시예에 따른 UI는 대상체의 검진 시 사용될 기능을 나타낸 단축 버튼, 스위치, 키보드 및 트랙볼 중 적어도 하나를 포함할 수 있다. The UI according to an embodiment of the present invention may include at least one of a shortcut button, a switch, a keyboard, and a trackball indicating a function to be used when examining an object.

본 발명의 일 실시예에 따른 사용자 인터페이스(UI)는, 대상체의 촬영과 관련하여 문자, 숫자 등을 입력할 수 있는 키보드(611) 형태의 UI, 영상의 확대/축소, 해상도 조절, 2D 영상과 3D 영상 간의 전환 등 소정의 기능을 나타낸 적어도 하나의 버튼 또는 스위치(613) 형태의 UI, 트랙볼(615) 형태의 UI 등을 포함할 수 있다. A user interface (UI) according to an embodiment of the present invention includes a keyboard 611 type UI capable of inputting letters, numbers, etc. in relation to photographing of an object, image enlargement/reduction, resolution adjustment, 2D image and A UI in the form of at least one button or switch 613 representing a predetermined function such as switching between 3D images, a UI in the form of a trackball 615, and the like may be included.

전술한 키보드(611) 형태의 UI, 적어도 하나의 버튼 또는 스위치(613) 형태의 UI 및 트랙볼(615) 형태의 UI 중 적어도 하나는 가상의 UI 레이아웃(virtual UI layout)으로서 제공될 수 있다.At least one of the aforementioned UI in the form of a keyboard 611, a UI in the form of at least one button or switch 613, and a UI in the form of a trackball 615 may be provided as a virtual UI layout.

다시 말해서, 본 발명의 일 실시예에 따른 사용자 인터페이스(UI)는 반드시 항상 물리적으로 일정한 형태로만 존재해야 하는 것은 아니고, 디스플레이부(2300) 또는 컨트롤 패널(2500) 상에서 문자, 숫자, 이미지 등의 형태로 소정의 기능을 나타내도록 가상(virtual)으로 존재할 수 있다. In other words, the user interface (UI) according to an embodiment of the present invention does not always have to exist in a physically constant form, but in the form of letters, numbers, images, etc. on the display unit 2300 or the control panel 2500 It may exist as a virtual (virtual) to represent a predetermined function.

도 7은 본 발명의 일 실시예에 따라 사용자의 모션 정보에 기초하여 사용자 인터페이스(UI)가 변경되어 제공되는 양상을 도시한다. 설명의 편의상 사용자 인터페이스(UI)를 도 7과 같이 간략화하여 나타낸다. 7 illustrates an aspect in which a user interface (UI) is changed and provided based on motion information of a user according to an embodiment of the present invention. For convenience of explanation, a user interface (UI) is simplified and shown as shown in FIG. 7.

본 발명의 일 실시예에 따라 획득된 사용자의 모션 정보를 이용하여 UI를 변경하는 단계(S200)는, 획득된 사용자의 모션 정보에 따라 UI의 모양, 크기 및 위치 중 적어도 하나를 변경하는 단계를 포함할 수 있다. The step of changing the UI using the motion information of the user obtained according to an embodiment of the present invention (S200) includes changing at least one of the shape, size, and position of the UI according to the obtained motion information of the user. Can include.

도 7a에 도시된 바와 같이, 획득된 사용자의 모션 정보에 따라 UI의 모양이 변경될 수 있다. As shown in FIG. 7A, the shape of the UI may be changed according to the acquired motion information of the user.

예를 들어, 프로브(1200)의 움직임 범위가 매우 넓어진 경우, 다시 말해서 사용자의 움직임이 많아진 경우, 사용자 인터페이스(UI)(611 내지 615)로의 사용자의 터치가 불편할 수 있다. 다시 말해서, 사용자의 손이 사용자 인터페이스(UI)까지 닿지 않거나, 또는 사용자가 UI를 조작하는데 어려움을 느낄 수도 있다. For example, when the movement range of the probe 1200 is very wide, that is, when the movement of the user increases, the user's touch to the user interface (UI) 611 to 615 may be inconvenient. In other words, the user's hand may not reach the user interface (UI), or the user may feel difficult to manipulate the UI.

이러한 경우, 본 발명의 일 실시예에서와 같이, 사용자 인터페이스(UI)의 모양 등을 변경하여 사용자의 편의성을 증대시킬 수 있다. 예를 들어, 도 6의 키보드(611) 형태의 UI, 버튼 또는 스위치(613) 형태의 UI 등을 간략화한 도 7의 UI(131의 1 내지 3)의 모양을 변경하여 제공(132)할 수 있다. 예컨대, 촬영 과정 동안에 사용자가 버튼 1 또는 버튼 3에 비하여 버튼 2를 더욱 자주 사용한다면, 사용자의 버튼 2에 대한 액세스 확률이 높아지도록 아랫변이 가장 긴 삼각형의 형태로 모양을 변경할 수 있다. 다시 말해서, 버튼 2의 면적이 버튼 1 또는 버튼 3보다 더 크도록 변경할 수 있다.In this case, as in the exemplary embodiment of the present invention, the user's convenience may be increased by changing the shape of the user interface (UI). For example, the UI in the form of a keyboard 611 of FIG. 6, a UI in the form of a button or switch 613, etc. may be provided by changing the shape of the UI (1 to 3 of 131) of FIG. 7 have. For example, if the user uses button 2 more often than button 1 or button 3 during the photographing process, the shape of the lower side may be changed to a triangle shape with the longest bottom side to increase the probability of accessing the button 2 by the user. In other words, you can change the area of button 2 to be larger than button 1 or button 3.

또한, 본 발명의 일 실시예에 따르면, 버튼 1 내지 3의 위치를 변경할 수도 있다. 예를 들어, 버튼 3, 버튼 1, 버튼 2의 순서로 배치되도록 UI를 변경할 수 있다. 이러한 경우, 버튼 1이 가장 사용 빈도가 높은 버튼일 수 있고, 버튼 1이 아랫변이 가장 긴 삼각형의 형태를 이룰 수 있지만, 버튼 등 UI의 변경 전후의 모양이 반드시 이에 제한되는 것은 아니다. In addition, according to an embodiment of the present invention, the positions of buttons 1 to 3 may be changed. For example, the UI can be changed to be arranged in the order of button 3, button 1, and button 2. In this case, button 1 may be the button with the highest frequency of use, and button 1 may form a triangle shape with the longest bottom side, but the shape of the UI before and after changes such as the button is not necessarily limited thereto.

또한, 도 7b에 도시된 바와 같이, 획득된 사용자의 모션 정보에 따라 UI의 크기가 변경될 수 있다. In addition, as shown in FIG. 7B, the size of the UI may be changed according to the acquired motion information of the user.

전술한 바와 같이, 사용자의 움직임이 많아진 경우 UI 패턴(131)의 버튼 등의 크기를 전체적으로 또는 부분적으로 증감시킴으로써, 사용자가 손쉽게 버튼 등의 UI에 액세스할 수 있도록 UI의 크기를 변경하여 제공(135)할 수 있다. As described above, when the user's movement increases, the size of the UI pattern 131 is entirely or partially increased or decreased, thereby changing the size of the UI so that the user can easily access the UI such as the button, etc. )can do.

예를 들어, 버튼 1 내지 3의 크기를 증가시켜 제공함으로써, 사용자의 버튼의 접근성을 높일 수 있다. 또한, 이와 유사하게 버튼 1 내지 3의 위치가 사용자와 가깝도록 변경함으로써, 사용자의 버튼의 접근성을 높일 수 있다. For example, by increasing the size of buttons 1 to 3, it is possible to increase the user's accessibility of the buttons. Also, similarly, by changing the positions of buttons 1 to 3 to be close to the user, it is possible to increase the accessibility of the user's button.

또한, 도 7c에 도시된 바와 같이, 사용자의 신체적 특징 등에 따라 상이한 패턴의 UI가 제공될 수 있다. In addition, as shown in FIG. 7C, different patterns of UI may be provided according to the user's physical characteristics.

예를 들어, 사용자가 오른손 잡이인 경우, 오른손용 UI 패턴(131)이 제공될 수 있다. 또한, 사용자가 왼손 잡이인 경우, 왼손용 UI 패턴(133)이 제공될 수 있다. 이러한 오른손용 UI 패턴(131)과 왼손용 UI 패턴(133)은 서로 대칭될 수 있고, 전술한 바와 같이 사용자 모션 정보에 기초하여 상호 전환이 가능할 수 있다. For example, when the user is a right-handed user, a right-handed UI pattern 131 may be provided. In addition, when the user is a left-handed user, a left-handed UI pattern 133 may be provided. The right-handed UI pattern 131 and the left-handed UI pattern 133 may be symmetrical to each other, and, as described above, may be interchangeable based on user motion information.

도 8은 본 발명의 다른 실시예에 따라 사용자의 모션 정보에 기초하여 사용자 인터페이스(UI)가 변경되어 제공되는 양상을 도시한다. 8 illustrates an aspect in which a user interface (UI) is changed and provided based on motion information of a user according to another embodiment of the present invention.

본 발명의 일 실시예에 따라 대상체의 검진 시 사용되는 기능의 빈도에 따라 UI는 모양, 크기 및 위치 중 적어도 하나가 상이하게 제공될 수 있다.According to an embodiment of the present invention, at least one of a shape, a size, and a position of the UI may be provided differently according to the frequency of a function used when examining an object.

예를 들어, 도 6의 키보드(611) 형태의 UI, 버튼 또는 스위치(613) 형태의 UI 등을 간략화한 도 7의 UI 패턴(131)은 도 8b 및 도 8c에 도시된 바와 같이 대상체의 검진 시 사용되는 기능의 빈도에 따라 UI는 모양, 크기 및 위치 중 적어도 하나가 변경되어 제공(137 또는 139)될 수 있다. 설명의 편의상 도 8a의 UI 패턴(131)은 의료 기기에서 제공될 수 있는 기본 패턴으로 가정한다.For example, the UI pattern 131 of FIG. 7 that simplified the UI in the form of a keyboard 611 of FIG. 6, and the UI in the form of a button or switch 613 is shown in FIGS. 8B and 8C. The UI may be provided (137 or 139) by changing at least one of a shape, a size, and a location according to the frequency of the function used at the time. For convenience of explanation, it is assumed that the UI pattern 131 of FIG. 8A is a basic pattern that can be provided by a medical device.

예를 들어, 소정의 검진 항목에서 트랙볼은 사용되지 않고, 1 내지 3으로 간략화하여 표시된 버튼형 UI 중 2번 버튼에 상응하는 기능이 가장 많이 사용될 수 있다. 이러한 경우, 도 8b에서와 같이, 기본 패턴(131)에서 트랙볼 기능의 원형 UI가 생략되고, 2번 버튼의 UI의 크기가 가장 크도록 변경되어 제공될 수 있다. For example, a trackball is not used in a predetermined examination item, and a function corresponding to the second button among the button-type UIs simplified to 1 to 3 may be used most. In this case, as shown in FIG. 8B, the circular UI of the trackball function is omitted from the basic pattern 131, and the size of the UI of the second button may be changed to be the largest.

다시 말해서, 사용자에 의하여 사용되지 아니하거나 사용 빈도가 적은 UI는 생략하고, 사용 빈도가 높은 UI를 큰 크기로 제공함으로써, 의료 기기를 조작하는 사용자의 UI로의 접근성 및 편의성을 증대시킬 수 있다. In other words, by omitting a UI that is not used by a user or having a low frequency of use, and providing a UI with a high frequency of use in a large size, it is possible to increase the accessibility and convenience of a user who operates a medical device to the UI.

다른 예로서, 소정의 검진 항목에서 사용자가 트랙볼을 주로 사용하고, 버튼형 UI 중 3번 버튼(예를 들면, 확대/축소 기능 등)을 가장 많이 사용한다면, 도 8c에서와 같이, 기본 패턴(131)에서 트랙볼에 해당하는 원형의 UI와 버튼형 UI 중 3번 버튼의 크기를 크게 변경하여 제공(139)할 수 있다. As another example, if a user mainly uses a trackball in a predetermined examination item and uses the third button (for example, an enlargement/reduction function, etc.) of a button-type UI most often, as shown in FIG. 8C, the basic pattern 131 In ), the size of button 3 among the circular UI and button-type UI corresponding to the trackball can be greatly changed and provided (139).

또한, 사용자의 손 모양과 유사하게 도 8c에서의 패턴(139)과 같이 방사형의 형태로 UI가 배치되어 제공될 수 있지만, 반드시 이에 제한되는 것은 아니다.Also, similar to the shape of a user's hand, the UI may be arranged and provided in a radial shape like the pattern 139 in FIG. 8C, but the present invention is not limited thereto.

또한, 검사 종류에 따라 사용되는 기능의 빈도 수가 상이할 수 있으므로, 검사 종류에 따라 상이한 패턴의 UI를 제공할 수 있다. In addition, since the frequency of functions used may be different according to the type of inspection, different patterns of UI can be provided according to the type of inspection.

예를 들면, 심장 초음파 검사, 간 초음파 검사, 복부 초음파 검사와 부인과 초음파(Pelvic Ultrasonography) 검사, 도플러 초음파 검사 등 각각의 검사 종류에 따라 초음파 기기에서 제공되는 기능의 사용 빈도 수가 상이할 수 있다. 예컨대, 심장 초음파 검사에서는 영상의 확대/축소 기능과 트랙볼 기능의 사용 빈도 수가 높은 반면에, 간 초음파 검사에서는 영상의 확대/축소 기능과 트랙볼 기능보다는 해상도의 조절 기능 등이 더 많이 사용될 수 있다. For example, the frequency of use of functions provided by the ultrasound apparatus may differ according to each type of examination, such as an echocardiography, a liver ultrasound, an abdominal ultrasound, a Pelvic Ultrasonography, and a Doppler ultrasound. For example, in echocardiography, an image enlargement/reduction function and a trackball function are frequently used, whereas in a liver ultrasound examination, an image enlargement/reduction function and a resolution control function may be used more than a trackball function.

다시 말해서, 심장 초음파 검사에서는 영상의 확대/축소 기능을 수행하는 UI와 트랙볼 기능을 수행하는 UI를 다른 UI에 비하여 비교적 크고, 컨트롤 패널(2500)의 중앙부 등에 위치시킬 수 있다. In other words, in the echocardiography, a UI that performs an image enlargement/reduction function and a UI that performs a trackball function are relatively larger than those of other UIs, and may be positioned in the center of the control panel 2500.

이에 비하여, 간 초음파 검사에서는 영상의 확대/축소 기능의 UI와 트랙볼 기능의 UI의 크기를 줄이거나 생략할 수 있고, 컨트롤 패널(2500)의 중앙부 등에 해상도의 조절 기능을 수행하는 UI가 상대적으로 큰 크기로 배치되도록 UI 패턴을 변경할 수 있다. In contrast, in the liver ultrasound examination, the size of the UI of the image enlargement/reduction function and the UI of the trackball function can be reduced or omitted, and the UI performing the resolution adjustment function in the center of the control panel 2500 is relatively large. You can change the UI pattern so that it is arranged in size.

도 9a는 본 발명의 일 실시예에 따른 사용자 인터페이스(UI)의 편집 예를 도시한다. 9A illustrates an example of editing a user interface (UI) according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 외부 입력 신호에 따라 UI는 편집 가능할 수 있다. The UI may be editable according to an external input signal according to an embodiment of the present invention.

예를 들어, UI는 사용자 입력에 따라 추가, 삭제, 위치, 크기 변경이 가능하다. 또한, UI는 사용자 입력에 따라 언어, 글꼴, UI 표시 색깔 등의 변경이 가능하다. For example, UI can be added, deleted, position, and size changed according to user input. In addition, the UI may change language, font, and UI display color according to user input.

예컨대, 사용자 입력에 따라 버튼형 UI의 위치 또는 크기가 변경될 수 있다. For example, the location or size of the button-type UI may be changed according to a user input.

도 9에 도시된 바와 같이, UI에 대한 사용자의 소정의 입력에 기초하여 UI의 위치 또는 크기가 변경될 수 있다. 본 발명의 일 실시예에 따른 사용자의 소정의 입력은 UI에 대한 적어도 1회의 클릭, 일정 시간 동안의 누름 중 적어도 하나를 포함할 수 있다. 또한 이러한 소정의 입력은 복수의 입력이 동시에 입력되는 경우도 포함할 수 있다. As shown in FIG. 9, the location or size of the UI may be changed based on a user's predetermined input to the UI. A user's predetermined input according to an embodiment of the present invention may include at least one of clicking at least once on the UI and pressing for a predetermined time. In addition, such a predetermined input may include a case where a plurality of inputs are simultaneously input.

예를 들면, 버튼형 UI 중 1번 버튼에 대하여 사용자 입력으로서 약 1초 내지 1.5초의 누름을 통하여 편집 개시 신호를 인가 받고, 1번 버튼을 목표하는 위치로의 드래그 앤 드롭(21) 신호를 인가 받음으로써 1번 버튼의 위치를 변경할 수 있다. For example, as a user input for button 1 of the button UI, an edit start signal is applied by pressing for about 1 to 1.5 seconds, and a drag and drop 21 signal is applied to the button 1 to a target position. You can change the position of the No. 1 button.

이러한 드래그 앤 드롭(21) 신호는 연속적인 사용자 입력 신호일 수 있다. 다시 말해서, 예컨대 1번 버튼에 대한 드래그 앤 드롭(21)의 사용자 입력 신호는 지속적으로(seamless) 인가되는 신호일 수 있다. 예를 들어, 원터치로 드래그 앤 드롭(21) 신호가 인가될 수 있지만, 반드시 이에 제한되는 것은 아니다. The drag-and-drop 21 signal may be a continuous user input signal. In other words, for example, the user input signal of the drag-and-drop 21 for button 1 may be a signal that is continuously applied. For example, the drag-and-drop 21 signal may be applied with a single touch, but is not limited thereto.

또한, 예를 들면, 편집 개시 신호를 인가 받은 후, 1번 버튼의 경계선에 대한 소정의 방향으로의 드래그 신호를 인가 받음으로써, 1번 버튼을 확대 또는 축소할 수 있다. Further, for example, after receiving the editing start signal, the first button may be enlarged or reduced by receiving a drag signal in a predetermined direction with respect to the boundary line of the first button.

또한, 예를 들어, 편집 개시 신호를 인가 받은 후, UI를 한번 더 클릭함으로써 해당 UI를 삭제할 수 있다. In addition, for example, after receiving the editing start signal, the corresponding UI may be deleted by clicking the UI once more.

또한, 예컨대, UI 이외의 빈 공간에 대하여 사용자로부터 인가된 수초(예컨대, 약 1초 내지 2초 등) 동안의 누름(23)을 통하여 UI 추가 개시 신호를 인가 받아 UI를 추가할 수 있다.In addition, for example, the UI may be added by receiving a UI addition start signal through a pressing 23 applied by the user to an empty space other than the UI for several seconds (eg, about 1 to 2 seconds, etc.).

또한, 예를 들면, 기존의 UI 또는 새롭게 추가된 UI는 해당 UI에 대한 복수회의 클릭 또는 소정의 패턴(예컨대, 별 모양, 삼각형, 사각형 등) 입력 등을 포함하는 외부 입력 신호에 기초하여 해당 UI의 기능을 재설정할 수 있다. 다시 말해서, 소정의 패턴 또는 클릭 당 해당 UI에 적용 가능한 기능들(예컨대, 2D 영상과 3D 영상 간의 전환, 해상도 조정 등)이 해당 UI상에서 변경되어 표시될 수 있다.In addition, for example, an existing UI or a newly added UI is based on an external input signal including multiple clicks on the UI or input of a predetermined pattern (eg, star, triangle, rectangle, etc.). You can reset the function of In other words, functions applicable to a corresponding UI per a predetermined pattern or click (eg, switching between a 2D image and a 3D image, resolution adjustment, etc.) may be changed and displayed on the corresponding UI.

또한, 본 발명의 다른 실시예에 따르면, 기존의 UI 또는 새롭게 추가된 UI에 적용 가능한 기능들이 미리 설정된 테이블 등의 형태로 제공될 수 있다. In addition, according to another embodiment of the present invention, functions applicable to an existing UI or a newly added UI may be provided in the form of a preset table.

예를 들어, 이러한 테이블 등이 팝업 형태로 제공될 수 있거나, 컨트롤 패널(2500) 등의 여백 등에 디스플레이되는 형태로 제공될 수 있다. UI에 대하여 적용 가능한 기능들이 제공되면, 사용자의 매칭 입력(예컨대, 순차 클릭, 드래그 앤 드롭 등)에 따라 기존의 UI 또는 새롭게 추가된 UI에 대한 기능이 재설정될 수 있지만, 반드시 이에 제한되는 것은 아니다. For example, such a table may be provided in a pop-up form, or may be provided in a form displayed in a blank space of the control panel 2500 or the like. When functions applicable to the UI are provided, functions for the existing UI or newly added UI may be reset according to the user's matching input (eg, sequential click, drag and drop, etc.), but is not limited thereto. .

이러한 UI와 기능간의 매칭의 순서는 사용자 입력에 따라 적용할 기능을 먼저 선택하고, 선택된 기능이 적용될 UI를 선택하는 방식, 또는 기능을 재설정할 UI를 먼저 선택하고, 선택된 UI에 적용될 기능을 선택하는 방식 중 어느 것을 따르더라도 무방하다. The order of matching between the UI and the function is a method of first selecting the function to be applied according to the user input and then selecting the UI to which the selected function is applied, or selecting the UI to reset the function first, and then selecting the function to be applied to the selected UI. You can follow any of the methods.

이와 유사하게, 기존의 UI 또는 새롭게 추가된 UI에 표시된 언어, 글꼴, 색깔 등도 변경되어 표시될 수 있다. 다시 말해서, 사용자의 국적 선택을 위한 신호 등의 외부 입력 신호를 인가 받아 사용자의 사용 언어에 적합하도록 UI 상에 표시된 문자, 숫자 등을 변경할 수 있다. Similarly, a language, font, color, etc. displayed on an existing UI or a newly added UI may be changed and displayed. In other words, by receiving an external input signal such as a signal for selecting a nationality of the user, it is possible to change characters, numbers, etc. displayed on the UI to suit the user's language.

또한, 사용자의 식별 정보를 포함하는 사용자 프로파일에 포함된 국적에 따라 UI에 표시된 언어가 자동으로 변경될 수도 있다. In addition, the language displayed on the UI may be automatically changed according to the nationality included in the user profile including the user's identification information.

또한, 미리 설정되어 제공 가능한 색채표 중에서 선택한 색깔로 UI 표시 색깔을 변경하기 위한 신호 등을 외부 입력 신호로서 수신하여, UI에 표시된 색깔을 변경할 수 있다. In addition, by receiving a signal for changing the UI display color to a color selected from a color table set in advance and available as an external input signal, the color displayed on the UI may be changed.

도 9b는 본 발명의 일 실시예에 따라 변경된 사용자 인터페이스(UI)의 사용 예를 도시한다.9B shows an example of using a modified user interface (UI) according to an embodiment of the present invention.

본 발명의 일 실시예에 따라 모션 정보에 기초하여 사용자 인터페이스(UI)가 변경되면, 사용자가 UI의 변경을 충분히 인식하지 못한 경우 사용자는 변경된 UI를 사용함에 있어서 혼동을 하거나 오작동을 일으킬 수 있다. 따라서, 본 발명의 일 실시예에 따라 변경된 UI에 대한 사용자의 UI 사용 상태를 나타냄으로써, 전술한 사용자의 혼동 또는 오작동을 방지할 수 있다. According to an embodiment of the present invention, when a user interface (UI) is changed based on motion information, when the user does not sufficiently recognize the change of the UI, the user may be confused or malfunction in using the changed UI. Accordingly, by indicating the user's UI use state with respect to the changed UI according to an embodiment of the present invention, the aforementioned confusion or malfunction of the user can be prevented.

이러한 사용자의 UI 사용 상태 제공은 실시간으로 이루어질 수 있다. 또한, 사용자의 UI 사용 상태는 문자, 숫자 등을 포함하는 이미지 및 음성 등의 소리 중 적어도 하나로 제공될 수 있다.Provision of the user's UI usage status may be performed in real time. In addition, the user's UI use state may be provided as at least one of an image including letters and numbers, and sounds such as voice.

예를 들어, 소정의 기능을 수행하기 위하여 사용자에 의하여 사용되는 UI를 디스플레이부(2300) 등을 통하여 소정의 시간 동안 사용자에게 표시해줄 수 있다. 이러한 표시를 통하여 사용자는 현재 자신이 사용하고자 하는 UI가 무엇인지를 정확히 인식할 수 있다.For example, a UI used by the user to perform a predetermined function may be displayed to the user for a predetermined time through the display unit 2300 or the like. Through this display, the user can accurately recognize what UI he or she wants to use.

도 9b에 도시된 바와 같이, 변경된 UI (139)에 대하여 사용자가 2번 버튼 (예를 들어, 2D에서 3D로의 전환 기능)을 누른다면(91), 소정의 시간 동안 2번 버튼의 기능에 대한 정보(93)가 디스플레이부(2300)의 좌측 상단 등에 나타날 수 있다. 예를 들어, 사용자가 2번 버튼을 누르면(91), 약 1초 또는 1.5초 동안에 "2D→3D"의 기능 정보(93)가 디스플레이부(2300) 등에 디스플레이되었다가 사라질 수 있지만, 구현 형태가 반드시 이에 제한되는 것은 아니다.9B, if the user presses the second button (for example, a 2D to 3D switching function) for the changed UI 139 (91), the function of the second button for a predetermined time The information 93 may appear on the upper left of the display unit 2300 or the like. For example, when the user presses button 2 (91), the function information 93 of "2D→3D" may be displayed and disappeared on the display unit 2300 for about 1 second or 1.5 seconds, but the implementation form is not It is not necessarily limited thereto.

또한, 도 9b에서와 같이, 사용자에 의한 2번 버튼의 누름(91)에 따라, 2번 버튼의 기능(예를 들어, 2D에서 3D로의 전환 기능)이 수행되어 대상체에 대한 3D 영상(115)이 획득될 수 있다. In addition, as shown in FIG. 9B, in response to the user's pressing 91 of the second button, the function of the second button (for example, a 2D to 3D switching function) is performed, and a 3D image 115 of the object Can be obtained.

또한, 사용자의 UI 사용 상태는 음성 등의 소리의 형태로 제공될 수 있다. 전술한 예에서와 같이, 사용자가 2번 버튼을 누르면, "2D에서 3D로 전환합니다"와 같이 사용자의 UI 사용 상태가 음성 메시지의 형태로 사용자에게 제공될 수 있다.In addition, the user's UI use state may be provided in the form of sound such as voice. As in the above-described example, when the user presses the second button, the user's UI use state may be provided to the user in the form of a voice message, such as "2D to 3D conversion".

도 10은 본 발명의 일 실시예에 따라 사용자 인터페이스(UI)가 제공되는 양상을 도시한다. 10 illustrates an aspect in which a user interface (UI) is provided according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 UI는 대상체의 촬영 영상이 디스플레이되는 디스플레이부(2300) 및 디스플레이 기능이 구비된 컨트롤 패널(2500) 중 적어도 하나를 통하여 디스플레이될 수 있다. The UI according to an exemplary embodiment of the present invention may be displayed through at least one of a display unit 2300 on which a captured image of an object is displayed and a control panel 2500 equipped with a display function.

휴대용 의료 기기의 필요성이 대두되고, 의료 기기의 소형화 추세로 인하여, 대상체에 대한 영상을 디스플레이하기 위한 화면과 컨트롤 패널 제공 화면이 하나의 터치 스크린 상에서 공존할 수 있다. 다시 말해서, 도 10a에 도시된 바와 같이, 대상체에 대한 영상(113)이 UI 패턴(131)과 동일한 화면(예를 들어, 디스플레이부(2300) 등) 상에서 제공될 수 있다.A need for a portable medical device is emerging, and due to the trend of miniaturization of medical devices, a screen for displaying an image of an object and a screen for providing a control panel may coexist on one touch screen. In other words, as illustrated in FIG. 10A, the image 113 of the object may be provided on the same screen (eg, the display unit 2300) as the UI pattern 131.

다만, 이러한 일체형의 디스플레이의 사용은 먼지, 사용자의 지문 등과 같은 이물질로 인하여 대상체에 대한 촬영 영상 판독을 어렵게 할 수도 있다. However, the use of such an integrated display may make it difficult to read a photographed image of an object due to foreign substances such as dust and a user's fingerprint.

본 발명의 일 실시예에 따르면, 도 10b에 도시된 바와 같이, 변경되어 제공 가능한 UI는 촬영 영상의 디스플레이부 이외의 디스플레이 기능이 구비된 컨트롤 패널(2500)을 통하여 제공될 수 있다. 예를 들어, 촬영 영상은 디스플레이부(2300)을 통하여 사용자에게 제공될 수 있고, 소정의 UI 패턴(131)은 디스플레이 기능이 구비된 컨트롤 패널(2500)을 통하여 사용자에게 촬영 영상과 별도로 제공될 수 있다. According to an embodiment of the present invention, as shown in FIG. 10B, a UI that can be changed and provided may be provided through a control panel 2500 equipped with a display function other than a display unit of a captured image. For example, the captured image may be provided to the user through the display unit 2300, and the predetermined UI pattern 131 may be provided to the user separately from the captured image through the control panel 2500 equipped with a display function. have.

도 11은 본 발명의 다른 실시예에 따라 의료 기기의 동작을 제어하는 방법을 나타낸 흐름도이다. 도 12는 본 발명의 다른 실시예에 따른 의료 기기 동작 제어의 일 예를 도시한다.11 is a flowchart illustrating a method of controlling an operation of a medical device according to another embodiment of the present invention. 12 illustrates an example of operation control of a medical device according to another embodiment of the present invention.

본 발명의 일 실시예에 따른 방법은, 사용자의 모션 정보에 따라 컨트롤 패널의 높이 및 각도 중 적어도 하나를 조절하는 단계(S400)를 더 포함할 수 있다. The method according to an embodiment of the present invention may further include adjusting at least one of a height and an angle of the control panel according to motion information of the user (S400).

사용자의 의료 기기 편의성을 극대화하기 위하여, 사용자의 자세 등이 반영된 모션 정보에 기초하여 의료 기기의 소정의 컴포넌트(예컨대, 디스플레이부(2300), 컨트롤 패널(2500) 등)의 물리적 위치를 조절할 수 있다.In order to maximize the convenience of the user's medical device, the physical position of a predetermined component (eg, the display unit 2300, the control panel 2500, etc.) of the medical device may be adjusted based on motion information reflecting the user's posture. .

예를 들어, 대상체 촬영 전 사용자가 어떤 손으로 프로브를 파지했는지에 따라 의료 기기의 소정의 컴포넌트(예컨대, 디스플레이부(2300), 컨트롤 패널(2500) 등)의 위치가 자동으로 조정될 수 있다. For example, the position of a predetermined component (eg, the display unit 2300, the control panel 2500, etc.) of the medical device may be automatically adjusted depending on which hand the user holds the probe before photographing the object.

예컨대, 사용자가 오른손으로 프로브를 파지한 경우, 촬영 개시에 따라 사용자의 상체는 우향으로 변경될 확률이 매우 높다. 따라서, 사용자의 움직임으로부터 획득된 모션 정보에 따라 디스플레이부(2300), 컨트롤 패널(2500) 등을 사용자를 향하여 상, 하, 좌, 우, 수평 또는 수직, 소정의 각도로 이동시킬 수 있다. 다시 말해서, 디스플레이부(2300), 컨트롤 패널(2500) 등이 사용자와 마주하도록(또는 최대한 사용자의 정면에 위치하도록) 상, 하, 좌, 우, 수평 또는 수직, 소정의 각도로 이동시킬 수 있다. For example, when the user holds the probe with the right hand, there is a very high probability that the user's upper body changes to the right side when shooting starts. Accordingly, the display unit 2300, the control panel 2500, and the like may be moved up, down, left, right, horizontal or vertical, or at a predetermined angle toward the user according to motion information obtained from the user's movement. In other words, the display unit 2300, the control panel 2500, etc. may be moved up, down, left, right, horizontally or vertically, or at a predetermined angle so that the display unit 2300 and the control panel 2500 face the user (or are located in front of the user as much as possible). .

또한, 대상체를 촬영 중인 사용자가 움직임으로써 획득될 수 있는 모션 정보에 기초하여 전술한 바와 같이, 디스플레이부(2300), 컨트롤 패널(2500) 등이 사용자와 마주하도록(또는 최대한 사용자의 정면에 위치하도록) 상, 하, 좌, 우, 수평 또는 수직, 소정의 각도로 이동될 수 있다. In addition, as described above, based on motion information that can be obtained by moving the user who is photographing the object, the display unit 2300, the control panel 2500, etc. may face the user (or be positioned in front of the user as much as possible). ) It can be moved up, down, left, right, horizontal or vertical, at a predetermined angle.

도 12에 도시된 바와 같이, 프로브(1200)의 움직임에 상응하게 컨트롤 패널(2500)의 높이 및 각도 중 적어도 하나가 조절될 수 있다. 다시 말해서, 의료 기기의 소정의 컴포넌트(예컨대, 디스플레이부(2300), 컨트롤 패널(2500) 등)의 위치가 이동될 수 있음에 따라 사용자의 의료 기기의 조작 편의성이 더욱 증대될 수 있다. As illustrated in FIG. 12, at least one of the height and angle of the control panel 2500 may be adjusted according to the movement of the probe 1200. In other words, as the positions of certain components of the medical device (eg, the display unit 2300, the control panel 2500, etc.) may be moved, the user's convenience of operating the medical device may be further increased.

도 13은 본 발명의 또 다른 실시예에 따라 변경된 UI를 관리하는 방법을 나타낸 흐름도이다.13 is a flowchart illustrating a method of managing a changed UI according to another embodiment of the present invention.

본 발명의 일 실시예에 따른 방법은, 사용자의 식별 정보를 획득하는 단계(S500), 획득된 식별 정보에 따라 변경된 UI를 저장하는 단계(S600)를 더 포함할 수 있지만, 반드시 이에 제한되는 것은 아니다. 예를 들어, 사용자 식별 정보를 획득하는 단계(S500)는 사용자의 모션 정보를 획득하는 단계(S100) 이전에 수행될 수도 있다. The method according to an embodiment of the present invention may further include the step of acquiring the user's identification information (S500), and the step of storing the UI changed according to the acquired identification information (S600), but are limited thereto. no. For example, the step of acquiring user identification information (S500) may be performed before the step (S100) of acquiring motion information of the user.

또한, 사용자 식별 정보를 획득하는 단계(S500)는 사용자의 모션 정보를 획득하는 단계(S100)와 동시에 수행될 수도 있다. In addition, the step of acquiring user identification information (S500) may be performed simultaneously with the step (S100) of acquiring motion information of the user.

예를 들면, 전술한 바와 같이, 사용자의 지문 정보, 홍채 정보, 안면 정보 등이 획득됨과 동시에 이러한 사용자의 생체 정보를 포함하는 사용자 프로파일이 획득될 수 있다. 다시 말해서, 사용자 식별 정보는 사용자 생체 정보와 함께 사용자 프로파일에 포함될 수 있고, 이러한 사용자 프로파일은 데이터베이스의 형태로 미리 구축되어 있을 수 있다. For example, as described above, the user's fingerprint information, iris information, facial information, and the like may be acquired, and a user profile including the user's biometric information may be acquired. In other words, the user identification information may be included in the user profile together with the user biometric information, and this user profile may be built in advance in the form of a database.

예를 들어, 사용자별 선호하는 UI 패턴, 또는 본 발명의 일 실시예에 따라 변경된 UI를 사용자 식별 정보(예컨대, ID 등)에 따라 저장해두고, 사용자는 이후 필요에 따라 자신의 식별 정보에 상응하는 저장된 UI 패턴 등을 로드하여 사용할 수도 있다. For example, a UI pattern that is preferred for each user or a UI changed according to an embodiment of the present invention is stored according to user identification information (eg, ID, etc.), and the user later You can also load and use a saved UI pattern.

다시 말해서, 사용자의 신체적 특징, 행동적 특징이 상이할 수 있으므로, 사용자 식별 정보에 따라 적합한 UI 패턴 또는 이전에 변경해둔 UI 패턴 등을 데이터베이스화 해두고, 사용자의 의료 기기 조작 시 해당 사용자의 식별 정보에 상응하는 UI 패턴을 로드하여 의료 기기의 촬영 환경을 설정함으로써, 촬영 시간을 단축시킬 수 있다. In other words, since the physical characteristics and behavioral characteristics of the user may be different, the appropriate UI pattern or previously changed UI pattern, etc., according to the user identification information is databaseized, and the user's identification information when the user operates the medical device. By loading the UI pattern corresponding to the to set the shooting environment of the medical device, it is possible to shorten the shooting time.

도 14는 본 발명의 일 실시예에 따른 의료 기기를 통한 대상체의 검진 시 사용되는 사용자 인터페이스(UI; User Interface)를 사용자의 모션 정보에 기초하여 변경시켜 제공하기 위한 장치를 도시한다. 14 illustrates an apparatus for changing and providing a user interface (UI) used when examining an object through a medical device according to an embodiment of the present invention based on motion information of a user.

본 발명의 일 실시예에 따른 의료 기기를 통한 대상체의 검진 시 사용되는 사용자 인터페이스(UI; User Interface)를 사용자의 모션 정보에 기초하여 변경시켜 제공하기 위한 장치(2000)는, 사용자의 모션 정보를 획득하는 모션 정보 획득부(2100), 획득된 사용자의 모션 정보를 이용하여 UI를 변경하는 UI 변경부(2200) 및 변경된 UI의 디스플레이가 가능한 디스플레이부(2300)를 포함할 수 있다. According to an embodiment of the present invention, an apparatus 2000 for changing and providing a user interface (UI) used for examination of an object through a medical device based on motion information of a user, comprises: It may include a motion information acquisition unit 2100 to be acquired, a UI changer 2200 to change a UI using the acquired motion information of a user, and a display unit 2300 capable of displaying the changed UI.

모션 정보 획득부(2100)에서는, 사용자가 왼손으로 프로브(1200)를 사용하는지 또는 오른손으로 프로브(1200)를 사용하는지 등을 나타내는 모션 정보를 획득할 수 있다. The motion information acquisition unit 2100 may acquire motion information indicating whether the user uses the probe 1200 with the left hand or the probe 1200 with the right hand.

예컨대, 왼손을 주로 사용하는 사용자는 자신의 왼편에 대상체(예컨대, 환자)를 위치시키고, 영상 촬영을 진행할 것이다. 또한, 오른손을 주로 사용하는 사용자는 자신의 오른편에 대상체를 위치시키고, 영상 촬영을 진행할 것이다. 다시 말해서, 왼손잡이는 왼손으로 프로브(1200)를 파지하고 영상 촬영을 진행할 수 있고, 오른손잡이는 오른손으로 프로브(1200)를 파지하고 영상 촬영을 진행할 수 있다. For example, a user who mainly uses his left hand places an object (eg, a patient) on his or her left hand and proceeds with image capture. In addition, a user who mainly uses his right hand will place an object on his right side and take an image. In other words, a left-handed person can hold the probe 1200 with their left hand and perform image capturing, and a right-handed person can hold the probe 1200 with their right hand and perform image capturing.

의료 기기, 특히 초음파 진단 기기의 사용자는 프로브(1200) 뿐만 아니라 컨트롤 패널(2500)을 조작하여 대상체에 대한 영상을 획득한다. 그러므로, 의료 기기 사용자의 활용 편의성을 증대시키기 위하여 사용자의 프로브(1200) 사용 양상에 따라, 컨트롤 패널 상에서 사용자 인터페이스(UI) 등을 상이한 형태로 제공할 수 있다. A user of a medical device, particularly an ultrasound diagnostic device, manipulates the control panel 2500 as well as the probe 1200 to obtain an image of an object. Therefore, in order to increase the convenience of use of the medical device user, a user interface (UI) or the like may be provided in different forms on the control panel according to the user's use of the probe 1200.

전술한 바와 같이, 사용자가 오른손잡이인 경우, 사용자는 대상체를 자신의 오른편에 위치시키고, 오른손을 이용하여 프로브를 조작하는 것이 편리할 수 있으므로, 컨트롤 패널 상의 버튼 UI, 트랙볼 UI 등이 오른손용 UI 패턴(도 2b의 131)으로써 제공된다면 사용자는 의료 기기의 활용상의 편리함을 느낄 수 있다. As described above, when the user is a right-handed user, it may be convenient for the user to position the object on his right side and manipulate the probe using the right hand, so that the button UI on the control panel, the trackball UI, etc. If provided as a pattern (131 in FIG. 2B), the user can feel the convenience of using the medical device.

또한, 이와 유사하게 사용자가 왼손잡이인 경우, 사용자는 대상체를 자신의 왼편에 위치시키고, 왼손을 이용하여 프로브를 조작하는 것이 편리할 수 있으므로, 사용자 편의성을 고려하여 컨트롤 패널 상의 버튼 UI, 트랙볼 UI 등을 왼손용 UI 패턴(도 2b의 133)으로써 제공할 수 있다. In addition, similarly, if the user is left-handed, it may be convenient for the user to position the object on his left side and to operate the probe using the left hand. Can be provided as a left-handed UI pattern (133 in FIG. 2B).

이러한 컨트롤 패널 상의 오른손용 UI 패턴(131)과 왼손용 UI 패턴(133)은 사용자의 모션 정보에 기초하여 서로 전환될 수 있다. The UI pattern 131 for the right hand and the UI pattern 133 for the left hand on the control panel may be switched to each other based on motion information of the user.

예를 들어, 의료 기기를 사용하는 사용자로서 A 사용자와 B 사용자가 존재하는 경우, 오른손잡이인 A 사용자가 의료 기기를 사용하고자 하는 경우, 본 발명의 일 실시예에 따라 컨트롤 패널(2500) 상에서 오른손용 UI 패턴(도 2b의 131)이 제공될 수 있고, 이에 비하여 왼손잡이인 B 사용자가 의료 기기를 사용하고자 하는 경우, 본 발명의 일 실시예에 따라 컨트롤 패널(2500) 상에서 왼손용 UI 패턴(도 2b의 133)이 제공될 수 있다.For example, when a user A and a user B exist as a user who uses a medical device, a user A who is a right-handed user wants to use the medical device, the right hand on the control panel 2500 according to an embodiment of the present invention. A UI pattern (131 in FIG. 2B) may be provided. In contrast, when a left-handed user B wants to use a medical device, a UI pattern for a left hand on the control panel 2500 according to an embodiment of the present invention (FIG. 133 of 2b may be provided.

다시 말해서, 본 발명의 일 실시예에 따르면, 각각의 사용자는 자신의 신체적 특징 또는 행동적 특징에 제한 받지 않고 의료 기기를 탄력적으로 사용할 수 있고, 사용자에 따라 적합한 패턴의 UI를 제공함으로써 기존에 비하여 사용자 편의성을 증대시킬 수 있다는 효과가 있다. In other words, according to an embodiment of the present invention, each user can flexibly use the medical device without being limited by his or her physical or behavioral characteristics, and by providing a UI of an appropriate pattern according to the user, There is an effect that user convenience can be increased.

본 발명의 일 실시예에 따라 획득된 모션 정보에 기초하여 사용자 인터페이스(UI) 등을 변경하는 것은, 사용자가 의료 기기를 편리하게 조작할 수 있도록 의료 기기의 촬영 환경을 사용자에게 적응적으로 조정하는 것을 포함할 수 있다. 전술한 바와 같이, 우수 사용자인지, 좌수 사용자인지에 따라 컨트롤 패널(2500) 등의 UI의 배치를 달리하거나, 검진 종류에 따라 UI의 배치, 크기 등을 달리하거나 또는 촬영에 사용되는 버튼의 사용 빈도에 따라 UI의 배치, 크기 등을 조절하여 제공할 수 있다.Changing the user interface (UI), etc., based on the motion information obtained according to an embodiment of the present invention, adaptively adjusts the photographing environment of the medical device to the user so that the user can conveniently operate the medical device. May include. As described above, depending on whether the user is an excellent user or a left-handed user, the layout of the UI such as the control panel 2500 is different, the layout, size, etc. of the UI are different depending on the type of examination, or the frequency of use of buttons used for shooting. According to the UI layout, size, etc. can be adjusted and provided.

도 15는 본 발명의 일 실시예에 따라 센싱부를 더 포함하는 장치를 도시한다.15 illustrates a device further including a sensing unit according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 모션 정보 획득부(2100)는 센싱부(2110)를 더 포함할 수 있다. The motion information acquisition unit 2100 according to an embodiment of the present invention may further include a sensing unit 2110.

본 발명의 일 실시예에 따른 사용자의 모션 정보는, 센싱부(2110)를 통하여 획득된 현재 프로브의 위치 정보에 기초하여 획득될 수 있다. Motion information of a user according to an embodiment of the present invention may be obtained based on position information of a current probe obtained through the sensing unit 2110.

본 발명의 일 실시예에 따른 현재 프로브의 위치 정보는, 프로브의 현재의 지시방향, 소정의 기준 지점에 대한 경사각 및 높이값 중 적어도 하나를 포함할 수 있다. The location information of the current probe according to an embodiment of the present invention may include at least one of a current indication direction of the probe, an inclination angle with respect to a predetermined reference point, and a height value.

예를 들어, 현재의 프로브(1200)의 위치 정보는 프로브(1200)의 현재의 지시 방향에 기초하여 획득될 수 있다. 예컨대, 초음파 기기와의 연결을 위한 프로브(1200)에 포함(예컨대, 프로브의 단부에 포함 등)되거나 또는 프로브(1200)가 연결될 초음파 기기에 매립된 소정의 센서(121) 등을 통하여 프로브(1200)의 현재의 지시 방향 정보가 획득될 수 있다. For example, the location information of the current probe 1200 may be obtained based on the current indication direction of the probe 1200. For example, the probe 1200 may be included in the probe 1200 for connection to the ultrasonic device (eg, included at the end of the probe) or through a predetermined sensor 121 embedded in the ultrasonic device to which the probe 1200 is to be connected. ) Of the current indication direction information may be obtained.

이러한 소정의 센서(121)는, 기준선(예컨대, 센서(121)의 중심선(ML))으로부터 프로브(1200) 연결선이 어느 방향을 지향하는 지에 따라 프로브(1200)의 지시 방향을 판단하도록 구성될 수 있다. 다시 말해서, 본 발명의 일 실시예에 따른 소정의 센서(121)는 토글 스위치의 동작 원리와 유사하게 동작할 수 있다. The predetermined sensor 121 may be configured to determine a direction in which the probe 1200 is directed from a reference line (eg, the center line ML of the sensor 121) according to which direction the connection line of the probe 1200 is directed. have. In other words, the predetermined sensor 121 according to an embodiment of the present invention may operate similarly to the operating principle of the toggle switch.

본원의 도 4a를 다시 참조하면, 프로브(1200)가 중심선(ML)으로부터 오른쪽으로 편향되어 있다면, 현재 프로브(1200)의 위치 정보는 초음파 기기의 오른편을 지시하고 있다고 결정될 수 있다. 예컨대, 프로브(1200)는 초음파 기기의 오른편에 위치한다는 정보가 획득될 수 있다. Referring again to FIG. 4A of the present application, if the probe 1200 is deflected to the right from the center line ML, it may be determined that the current position information of the probe 1200 indicates the right side of the ultrasound device. For example, information indicating that the probe 1200 is located on the right side of the ultrasound device may be obtained.

또한, 이와 달리 프로브(1200)가 중심선(ML)으로부터 왼쪽으로 편향되어 있다면, 현재 프로브(1200)의 위치 정보는 초음파 기기의 왼편을 지시하고 있다고 결정될 수 있다. 다시 말해서, 프로브(1200)는 초음파 기기의 왼편에 위치한다는 정보가 획득될 수 있다. Also, if the probe 1200 is deflected to the left from the center line ML, it may be determined that the position information of the current probe 1200 indicates the left side of the ultrasound device. In other words, information that the probe 1200 is located on the left side of the ultrasound device may be obtained.

또한, 본 발명의 일 실시예에 따른 프로브(1200)가 무선인 경우, 소정의 센서(121)는, 무선 통신을 통하여 무선 프로브의 GPS(Global Positioning System) 좌표를 센싱하도록 구성될 수 있다.In addition, when the probe 1200 according to an embodiment of the present invention is wireless, the predetermined sensor 121 may be configured to sense the coordinates of the GPS (Global Positioning System) of the wireless probe through wireless communication.

또한, 본 발명의 일 실시예에 따라 현재 프로브(1200)의 위치 정보는 소정의 기준 지점에 대한 경사각 및 높이값 중 적어도 하나를 포함할 수 있다.In addition, according to an embodiment of the present invention, the location information of the current probe 1200 may include at least one of an inclination angle and a height value for a predetermined reference point.

도 4b에 도시된 바와 같이, 프로브(1200)는 기울기 정보 또는 높이 정보를 획득하기 위한 센서(123) 등을 포함할 수 있다. 이러한 센서(123)는, 자이로 센서, 높이 센서 등을 포함할 수 있다. As shown in FIG. 4B, the probe 1200 may include a sensor 123 for obtaining tilt information or height information. The sensor 123 may include a gyro sensor, a height sensor, or the like.

예를 들어, 현재 프로브(1200)의 위치 정보는 소정의 기준 지점에 대한 경사각 정보로서 획득될 수 있다. 소정의 기준 지점은 의료 기기가 위치한 지면, 환자 테이블 또는 프로브(1200)의 최초 위치(예컨대, 초음파 기기 상에 부착되어 있는 상태의 위치 등) 등을 포함할 수 있다. For example, the location information of the current probe 1200 may be obtained as information on an inclination angle for a predetermined reference point. The predetermined reference point may include a ground on which the medical device is located, an initial position of the patient table or probe 1200 (eg, a position attached to the ultrasound device, etc.).

이러한 경사각 정보에 상응하게 사용자의 현재 모션이 추정될 수 있다. 예를 들면, 경사각의 변화 폭이 커질수록 프로브(1200)의 움직임 정도가 점점 증가한다고 추정될 수 있고, 추정된 프로브(1200)의 움직임에 기초하여 프로브(1200)를 조작중인 사용자의 움직임 각도 범위 등에 대한 모션 정보가 획득될 수 있다. The user's current motion may be estimated according to the inclination angle information. For example, it may be estimated that the degree of movement of the probe 1200 gradually increases as the width of change of the inclination angle increases, and the range of the movement angle of the user operating the probe 1200 based on the estimated movement of the probe 1200 Motion information on the back may be obtained.

예를 들면, 지면(또는 환자 테이블)과 프로브(1200)는 최대 90도의 각도(예컨대, 프로브(1200)가 지면에 수직하게 위치하는 경우)를 이룰 수 있다. 사용자는 촬영이 진행됨에 따라 프로브(1200)를 소정의 방향 및 각도로 이동시킬 수 있다. 프로브(1200)와 지면이 이루는 각도는 소정의 범위(예컨대, 0도 내지 90도) 내에 포함될 수 있다. 예를 들어, 사용자가 대상체의 간 초음파를 촬영하고자 할 경우, 프로브(1200)는 사용자 조작에 따라 지면과 평행(예컨대, 프로브(1200)와 지면은 0도의 각을 이룸)하거나 수직(예컨대, 프로브(1200)와 지면이 90도 각을 이룸)을 이루는 범위 내에서 이동될 수 있다. For example, the ground (or patient table) and the probe 1200 may form an angle of up to 90 degrees (eg, when the probe 1200 is positioned perpendicular to the ground). The user may move the probe 1200 in a predetermined direction and angle as photographing proceeds. An angle between the probe 1200 and the ground may be included within a predetermined range (eg, 0 degrees to 90 degrees). For example, when a user wants to photograph liver ultrasound of an object, the probe 1200 may be parallel to the ground (for example, the probe 1200 and the ground are at an angle of 0 degrees) or vertical (eg, probe 1200) according to user manipulation. (1200) and the ground at an angle of 90 degrees) can be moved within a range.

다시 말해서, 프로브(1200)가 지면과 평행한 상태에서 프로브(1200)와 지면이 수직인 상태로 프로브(1200)를 이동시킬 경우, 경사각의 변화 폭은 최대가 될 수 있고, 프로브(1200)의 움직임 정도도 최대라고 추정될 수 있으며, 이러한 추정된 프로브(1200)의 움직임에 기초하여 프로브(1200)를 조작중인 사용자의 움직임 정도도 최대라는 모션 정보가 획득될 수 있다.In other words, when the probe 1200 is moved while the probe 1200 is parallel to the ground and the probe 1200 and the ground are perpendicular to each other, the width of the change in the inclination angle can be maximum, and the The motion degree may be estimated to be the maximum, and motion information indicating that the motion degree of the user operating the probe 1200 is also maximum may be obtained based on the estimated motion of the probe 1200.

또한, 이와 유사하게 초음파 기기 상에 프로브(1200)가 부착되어 있던 초기 상태의 위치로부터의 경사각이 현재 프로브(1200)의 위치 정보로서 획득될 수 있다. In addition, similarly, an inclination angle from the position of the initial state in which the probe 1200 was attached to the ultrasound device may be obtained as position information of the current probe 1200.

예를 들어, 본 발명의 일 실시예에 따른 센서(123)는, 센서(123)를 기준으로 오른쪽 또는 동편으로의 방위는 양의 각도로 표현되고, 왼쪽 또는 서편으로의 방위는 음의 각도로 표현되도록 구성될 수 있지만 반드시 이에 제한되는 것은 아니다. For example, in the sensor 123 according to an embodiment of the present invention, the orientation toward the right or east side based on the sensor 123 is expressed as a positive angle, and the orientation toward the left or west side is a negative angle. It may be configured to be expressed, but is not necessarily limited thereto.

이에 따라, 프로브(1200)가 최초 위치로부터 현재 오른쪽으로 편향되어 존재하는 경우, 센서(123) 상에서 양의 경사각이 센싱될 수 있고, 현재 프로브(1200)는 센서(123)의 우측에 센싱된 경사각도의 위치에서 존재한다는 정보가 획득될 수 있다. 또한, 프로브(1200)가 최초 위치로부터 현재 왼쪽으로 편향되어 존재하는 경우, 센서(123) 상에서 음의 경사각이 센싱될 수 있고, 현재 프로브(1200)는 센서(123)의 좌측에 센싱된 경사각도의 위치에 존재한다는 정보가 획득될 수 있다.Accordingly, when the probe 1200 is present while being deflected to the right from the initial position, a positive inclination angle may be sensed on the sensor 123, and the current probe 1200 is the inclination angle sensed on the right side of the sensor 123 Information that it exists at the location of the province can be obtained. In addition, when the probe 1200 is currently deflected to the left from the initial position, a negative tilt angle may be sensed on the sensor 123, and the current probe 1200 is the tilt angle sensed on the left side of the sensor 123 Information that it exists at the location of may be obtained.

또한, 현재 프로브(1200)의 위치 정보는 소정의 기준 지점에 대한 높이값 정보로서 획득될 수 있다. 소정의 기준 지점은 지면, 환자 테이블 또는 프로브(1200)의 최초 위치(예컨대, 초음파 기기 상에 부착된 상태의 위치 등) 등을 포함할 수 있다. 이러한 경우, 소정의 센서(123)는, 높이 센서일 수 있다. Also, the location information of the current probe 1200 may be obtained as height value information for a predetermined reference point. The predetermined reference point may include the ground, the patient's table, or the initial position of the probe 1200 (eg, a position attached to the ultrasound device, etc.). In this case, the predetermined sensor 123 may be a height sensor.

예를 들면, 센서(123)는, 현재 프로브(1200)가 지면으로부터 약 120cm의 높이에 위치하고 있다는 정보를 센싱할 수 있다. For example, the sensor 123 may sense information that the probe 1200 is currently positioned at a height of about 120 cm from the ground.

또한, 센서(123)는, 프로브(1200)가 예컨대, 초음파 기기 상에 부착된 초기 상태에 비하여 현재 약 5cm정도 낮게 위치하고 있음을 센싱할 수 있다. 다시 말해서, 이러한 소정의 기준 지점에 대한 높이값 정보는, 현재 프로브(1200)의 위치 정보로서 획득될 수 있다. In addition, the sensor 123 may sense that the probe 1200 is currently positioned about 5 cm lower than the initial state attached to the ultrasonic device, for example. In other words, the height value information for the predetermined reference point may be obtained as position information of the current probe 1200.

본 발명의 일 실시예에 따른 프로브(1200)의 높이값 정보(예컨대, 높이의 변화 정도 등)에 기초하여 프로브(1200)를 조작중인 사용자의 자세의 높낮이 변화 정도를 나타내는 모션 정보가 획득될 수 있다.Motion information indicating a change in height of a posture of a user operating the probe 1200 may be obtained based on height value information (eg, a change in height, etc.) of the probe 1200 according to an embodiment of the present invention. have.

본 발명의 일 실시예에 따른 사용자 모션 정보는, 센싱부(2110)를 통하여 획득된 사용자의 지문 정보, 사용자의 홍채 정보, 사용자의 안면 정보 중 적어도 하나를 포함하는 생체 정보에 기초하여 획득될 수 있다. User motion information according to an embodiment of the present invention may be obtained based on biometric information including at least one of user's fingerprint information, user's iris information, and user's face information acquired through the sensing unit 2110. have.

본원의 도 5를 다시 참조하면, 프로브(1200)에 포함된 센서(125)를 통하여 획득된 사용자의 지문 정보(11)에 기초하여, 사용자가 왼손 또는 오른손 중 현재 어느 손으로 프로브(1200)를 파지하였는지에 대하여 결정할 수 있다. Referring again to FIG. 5 of the present application, based on the user's fingerprint information 11 acquired through the sensor 125 included in the probe 1200, the user currently selects the probe 1200 with either the left or the right hand. It can be determined whether or not it was gripped.

다시 말해서, 프로브(1200)에 포함된 센서(125)를 통하여 획득한 사용자의 지문 정보(11)로부터 사용자가 프로브(1200)를 왼손으로 사용하는지 또는 오른손으로 사용하는지에 대한 모션 정보를 획득할 수 있다. In other words, from the user's fingerprint information 11 acquired through the sensor 125 included in the probe 1200, motion information on whether the user uses the probe 1200 with the left hand or the right hand can be obtained. have.

예컨대, 획득된 사용자의 지문 정보(11)가 사용자의 오른손 엄지 또는 검지에 대한 지문이라면, 사용자는 현재 프로브(1200)를 오른손으로 파지하고 있는 것으로 결정되고, 사용자의 오른손으로 프로브(1200) 사용이라는 모션 정보가 획득될 수 있다. For example, if the obtained user's fingerprint information 11 is a fingerprint for the thumb or index finger of the user's right hand, it is determined that the user is currently holding the probe 1200 with the right hand, and the use of the probe 1200 with the user's right hand. Motion information can be obtained.

또한, 획득된 사용자의 지문 정보(11)가 사용자의 왼손 엄지 또는 검지에 대한 지문이라면, 사용자는 현재 프로브(1200)를 왼손으로 파지하고 있는 것으로 결정되고, 사용자의 왼손으로 프로브(1200) 사용이라는 모션 정보가 획득될 수 있다.In addition, if the obtained user's fingerprint information 11 is a fingerprint of the user's left thumb or index finger, it is determined that the user is currently holding the probe 1200 with his left hand, and the use of the probe 1200 with the user's left hand. Motion information can be obtained.

또한, 본 발명의 일 실시예에 따르면, 프로브(1200)에 포함된 센서(125)를 통하여 획득된 사용자의 지문 정보(11)에 기초하여 현재 프로브를 사용중인 사용자가 누구인지를 식별할 수 있다. 이러한 경우, 사용자의 지문 정보(11)는 사용자 식별 정보(예컨대, ID 등)로서 활용될 수 있다.In addition, according to an embodiment of the present invention, based on the user's fingerprint information 11 acquired through the sensor 125 included in the probe 1200, it is possible to identify who is the user currently using the probe. . In this case, the user's fingerprint information 11 may be utilized as user identification information (eg, ID, etc.).

또한, 본 발명의 일 실시예에 따른 사용자 모션 정보는, 사용자의 홍채 정보(13), 사용자의 안면 정보(15) 중 적어도 하나에 기초하여 획득될 수 있다. In addition, user motion information according to an embodiment of the present invention may be obtained based on at least one of the user's iris information 13 and the user's face information 15.

본원도 도 5를 다시 참조하면, 초음파 기기 상에 구비된 센서(111) 등을 통하여 사용자의 홍채 정보(13), 사용자의 안면 정보(15) 중 적어도 하나가 획득될 수 있다. 이러한 센서(111)는 초음파 기기의 디스플레이부(2300) 근방에 위치될 수 있지만, 반드시 이에 제한되는 것은 아니다. Referring again to FIG. 5 of the present application, at least one of the user's iris information 13 and the user's face information 15 may be obtained through a sensor 111 provided on an ultrasonic device. The sensor 111 may be located near the display unit 2300 of the ultrasonic device, but is not limited thereto.

또한, 이러한 센서(111)는 홍채 인식, 안면 인식 기능을 동시에 수행할 수 있거나 또는 홍채 인식 기능, 안면 인식 기능을 갖는 각각의 개별적인 센서로서 구현될 수 있다. In addition, the sensor 111 may perform iris recognition and face recognition functions at the same time, or may be implemented as individual sensors having an iris recognition function and a face recognition function.

본 발명의 일 실시예에 따라, 센서(111)를 통하여 사용자의 홍채 정보(13)가 획득될 수 있다. 사용자의 홍채 정보(13)는 현재 사용자가 누구인지에 대한 사용자 식별 정보, 현재 사용자의 홍채의 현재 위치 등에 대한 정보를 포함할 수 있다. 예를 들어, 센서(111)를 통하여 사용자의 홍채를 판독함으로써, 현재 사용자가 누구인지에 대한 정보를 획득할 수 있다. According to an embodiment of the present invention, iris information 13 of a user may be obtained through the sensor 111. The user's iris information 13 may include user identification information on who the current user is, and information on the current location of the current user's iris. For example, by reading the user's iris through the sensor 111, information on who the current user is may be obtained.

또한, 센서(111)를 통하여 획득된 홍채의 현재 위치 정보를 이용하여 사용자의 현재 시선을 결정하고, 사용자의 현재 시선에 기초하여 사용자의 모션 정보를 획득할 수 있다. 다시 말해서, 사용자의 눈에서 홍채가 왼쪽 또는 오른쪽 중 어느 쪽으로 더 많이 편향되어 위치하는지에 따라 사용자의 현재의 자세에 대한 정보를 획득할 수 있지만, 반드시 이에 제한되는 것은 아니다. In addition, a current gaze of the user may be determined using the current location information of the iris obtained through the sensor 111 and motion information of the user may be obtained based on the current gaze of the user. In other words, information on the current posture of the user may be obtained according to whether the iris is more deflected to the left or the right of the user's eye, but is not limited thereto.

예를 들어, 사용자의 눈에서 홍채가 대체로 왼쪽으로 편향되어 위치하는 경우, 사용자의 상체가 오른쪽을 지향하고 있다고 판단될 수 있다. 다시 말해서, 사용자가 현재 오른손으로 프로브(1200) 등을 조작하고 있다고 판단될 수 있다. For example, in the case where the iris is generally deflected to the left in the user's eye, it may be determined that the upper body of the user is oriented toward the right. In other words, it may be determined that the user is currently operating the probe 1200 or the like with the right hand.

이와 유사하게, 사용자의 눈에서 홍채가 대체로 오른쪽으로 편향되어 위치하는 경우, 사용자의 상체가 왼쪽을 지향하고 있다고 판단될 수 있다. 사용자가 현재 왼손으로 프로브(1200) 등을 조작하고 있다고 판단될 수 있다.Similarly, when the iris of the user's eye is positioned to be generally biased to the right, it may be determined that the user's upper body is pointing to the left. It may be determined that the user is currently operating the probe 1200 or the like with his left hand.

본 발명의 일 실시예에 따라, 센서(111)를 통하여 사용자의 안면 정보(15)가 획득될 수 있다. 사용자의 안면 정보(15)는 현재 사용자가 누구인지에 대한 사용자 식별 정보, 사용자의 현재 안면 방향 등에 대한 정보를 포함할 수 있다. 예를 들어, 센서(111)를 통하여 사용자의 안면 특징점, 안면 윤곽선 등을 판독함으로써, 현재 사용자가 누구인지에 대한 정보를 획득할 수 있다.According to an embodiment of the present invention, the user's facial information 15 may be obtained through the sensor 111. The user's facial information 15 may include user identification information on who the current user is, and information on the current facial direction of the user. For example, by reading the user's facial feature points and facial contours through the sensor 111, information on who the current user is may be obtained.

또한, 센서(111)를 통하여 획득된 사용자의 안면 방향 정보를 이용하여 사용자의 주(main) 안면을 결정하고, 사용자의 주 안면에 기초하여 사용자의 모션 정보를 획득할 수 있다. 다시 말해서, 사용자의 안면 면적에 기초하여 사용자의 현재의 주 안면을 결정하고, 결정된 주 안면으로부터 사용자의 현재의 자세에 대한 정보를 획득할 수 있다. In addition, the user's main face may be determined by using the user's face direction information acquired through the sensor 111, and motion information of the user may be obtained based on the user's main face. In other words, the current main face of the user may be determined based on the user's face area, and information on the current posture of the user may be obtained from the determined main face.

예를 들면, 사용자의 오른쪽 안면과 왼쪽 안면의 면적을 비교하여, 왼쪽 안면의 면적이 더 넓은 경우, 사용자의 상체가 오른쪽을 지향하고 있다고 판단될 수 있다. 다시 말해서, 사용자가 현재 오른손으로 프로브(1200) 등을 조작하고 있다고 판단될 수 있다. For example, by comparing the area of the user's right face and the left face, if the area of the left face is wider, it may be determined that the upper body of the user is oriented toward the right. In other words, it may be determined that the user is currently operating the probe 1200 or the like with the right hand.

이와 유사하게, 사용자의 오른쪽 안면과 왼쪽 안면의 면적을 비교하여, 오른쪽 안면의 면적이 더 넓은 경우, 사용자의 상체가 왼쪽을 지향하고 있다고 판단될 수 있다. 다시 말해서, 사용자가 현재 왼손으로 프로브(1200) 등을 조작하고 있다고 판단될 수 있다.Similarly, when the area of the user's right face and the left face are compared and the area of the right face is larger, it may be determined that the user's upper body is oriented toward the left. In other words, it may be determined that the user is currently operating the probe 1200 or the like with his left hand.

또한, 사용자의 홍채 정보(13) 및 사용자의 안면 정보(15)를 이용하여 사용자의 모션 정보가 획득될 수 있다. 예를 들어, 사용자의 오른쪽 안면과 왼쪽 안면의 면적을 비교하였지만, 어느 쪽 안면의 면적이 더 넓은지 명확히 구분할 수 없는 경우에, 전술한 방법과 같이 사용자의 홍채 정보를 추가로 고려하여 사용자의 모션 정보를 획득할 수도 있다.In addition, motion information of the user may be obtained using the user's iris information 13 and the user's facial information 15. For example, if the area of the user's right and left face is compared, but it is not possible to clearly distinguish which area is larger, the user's motion is additionally considered as in the above-described method. Information can also be obtained.

본 발명의 일 실시예에 따른 UI는 대상체의 검진 시 사용될 기능을 나타낸 단축 버튼, 스위치, 키보드 및 트랙볼 중 적어도 하나를 포함할 수 있다. The UI according to an embodiment of the present invention may include at least one of a shortcut button, a switch, a keyboard, and a trackball indicating a function to be used when examining an object.

본원의 도 6을 다시 참조하면, 본 발명의 일 실시예에 따라 의료 기기에서의 동작 기능을 표시하는 사용자 인터페이스(UI)는 키보드(611), 버튼 또는 스위치(613), 트랙볼(615) 등을 포함할 수 있다. Referring back to FIG. 6 of the present application, a user interface (UI) for displaying operation functions in a medical device according to an embodiment of the present invention includes a keyboard 611, a button or switch 613, a trackball 615, and the like. Can include.

본 발명의 일 실시예에 따른 사용자 인터페이스(UI)는, 대상체의 촬영과 관련하여 문자, 숫자 등을 입력할 수 있는 키보드(611) 형태의 UI, 영상의 확대/축소, 해상도 조절, 2D 영상과 3D 영상 간의 전환 등 소정의 기능을 나타낸 적어도 하나의 버튼 또는 스위치(613) 형태의 UI, 트랙볼(615) 형태의 UI 등을 포함할 수 있다. A user interface (UI) according to an embodiment of the present invention includes a keyboard 611 type UI capable of inputting letters, numbers, etc. in relation to photographing of an object, image enlargement/reduction, resolution adjustment, 2D image and A UI in the form of at least one button or switch 613 representing a predetermined function such as switching between 3D images, a UI in the form of a trackball 615, and the like may be included.

전술한 키보드(611) 형태의 UI, 적어도 하나의 버튼 또는 스위치(613) 형태의 UI 및 트랙볼(615) 형태의 UI 중 적어도 하나는 가상의 UI 레이아웃(virtual UI layout)으로서 제공될 수 있다.At least one of the aforementioned UI in the form of a keyboard 611, a UI in the form of at least one button or switch 613, and a UI in the form of a trackball 615 may be provided as a virtual UI layout.

다시 말해서, 본 발명의 일 실시예에 따른 사용자 인터페이스(UI)는 반드시 항상 물리적으로 일정한 형태로만 존재해야 하는 것은 아니고, 디스플레이부(2300) 또는 컨트롤 패널(2500) 상에서 문자, 숫자, 이미지 등의 형태로 소정의 기능을 나타내도록 가상(virtual)으로 존재할 수 있다.In other words, the user interface (UI) according to an embodiment of the present invention does not always have to exist in a physically constant form, but in the form of letters, numbers, images, etc. on the display unit 2300 or the control panel 2500 It may exist as a virtual (virtual) to represent a predetermined function.

본 발명의 일 실시예에 따른 UI 변경부(2200)는, 획득된 사용자의 모션 정보에 따라 UI의 모양, 크기 및 위치 중 적어도 하나를 변경할 수 있다. The UI changer 2200 according to an embodiment of the present invention may change at least one of a shape, a size, and a location of the UI according to the acquired motion information of the user.

본 발명의 도 7a를 다시 참조하면, 획득된 사용자의 모션 정보에 따라 UI의 모양이 변경될 수 있다. Referring again to FIG. 7A of the present invention, the shape of the UI may be changed according to the acquired motion information of the user.

예를 들어, 프로브(1200)의 움직임 범위가 매우 넓어진 경우, 다시 말해서 사용자의 움직임이 많아진 경우, 사용자 인터페이스(UI)(611 내지 615)로의 사용자의 터치가 불편할 수 있다. 다시 말해서, 사용자의 손이 사용자 인터페이스(UI)까지 닿지 않거나, 또는 사용자가 UI를 조작하는데 어려움을 느낄 수도 있다. For example, when the movement range of the probe 1200 is very wide, that is, when the movement of the user increases, the user's touch to the user interface (UI) 611 to 615 may be inconvenient. In other words, the user's hand may not reach the user interface (UI), or the user may feel difficult to manipulate the UI.

이러한 경우, 본 발명의 일 실시예에서와 같이, 사용자 인터페이스(UI)의 모양 등을 변경하여 사용자의 편의성을 증대시킬 수 있다. 예컨대, 촬영 과정 동안에 사용자가 버튼 1 또는 버튼 3에 비하여 버튼 2를 더욱 자주 사용한다면, 사용자의 버튼 2에 대한 액세스 확률이 높아지도록 아랫변이 가장 긴 삼각형의 형태로 모양을 변경할 수 있다. 다시 말해서, 버튼 2의 면적이 버튼 1 또는 버튼 3보다 더 크도록 변경할 수 있다. In this case, as in the exemplary embodiment of the present invention, the user's convenience may be increased by changing the shape of the user interface (UI). For example, if the user uses button 2 more often than button 1 or button 3 during the photographing process, the shape of the lower side may be changed to a triangle shape with the longest bottom side to increase the probability of accessing the button 2 by the user. In other words, you can change the area of button 2 to be larger than button 1 or button 3.

또한, 본 발명의 일 실시예에 따르면, 버튼 1 내지 3의 위치를 변경할 수도 있다. 예를 들어, 버튼 3, 버튼 1, 버튼 2의 순서로 배치되도록 UI를 변경할 수 있다. 이러한 경우, 버튼 1이 가장 사용 빈도가 높은 버튼일 수 있고, 버튼 1이 아랫변이 가장 긴 삼각형의 형태를 이룰 수 있지만, 버튼 등 UI의 변경 전후의 모양이 반드시 이에 제한되는 것은 아니다. In addition, according to an embodiment of the present invention, the positions of buttons 1 to 3 may be changed. For example, the UI can be changed to be arranged in the order of button 3, button 1, and button 2. In this case, button 1 may be the button with the highest frequency of use, and button 1 may form a triangle shape with the longest bottom side, but the shape of the UI before and after changes such as the button is not necessarily limited thereto.

또한, 본 발명의 도 7b를 다시 참조하면, 획득된 사용자의 모션 정보에 따라 UI의 크기가 변경될 수 있다. Further, referring again to FIG. 7B of the present invention, the size of the UI may be changed according to the acquired motion information of the user.

전술한 바와 같이, 사용자의 움직임이 많아진 경우 UI 패턴(131)의 버튼 등의 크기를 전체적으로 또는 부분적으로 증감시킴으로써, 사용자가 손쉽게 버튼 등의 UI에 액세스할 수 있도록 UI의 크기를 변경하여 제공(135)할 수 있다. As described above, when the user's movement increases, the size of the UI pattern 131 is entirely or partially increased or decreased, thereby changing the size of the UI so that the user can easily access the UI such as the button, etc. )can do.

예를 들어, 버튼 1 내지 3의 크기를 증가시켜 제공함으로써, 사용자의 버튼의 접근성을 높일 수 있다. 또한, 이와 유사하게 버튼 1 내지 3의 위치가 사용자와 가깝도록 변경함으로써, 사용자의 버튼의 접근성을 높일 수 있다. For example, by increasing the size of buttons 1 to 3, it is possible to increase the user's accessibility of the buttons. Also, similarly, by changing the positions of buttons 1 to 3 to be close to the user, it is possible to increase the accessibility of the user's button.

본원의 도 7c를 다시 참조하면, 사용자의 신체적 특징 등에 기초하여 상이한 패턴의 UI를 제공할 수 있다. Referring again to FIG. 7C of the present application, a different pattern of UI may be provided based on a user's physical characteristics.

우수 사용자에 대하여는, 오른손용 UI 패턴(131)이 제공될 수 있다. 또한, 좌수 사용자에 대하여는, 왼손용 UI 패턴(133)이 제공될 수 있다. 이러한 오른손용 UI 패턴(131)과 왼손용 UI 패턴(133)은 서로 대칭될 수 있고, 전술한 바와 같이 사용자 모션 정보에 기초하여 상호 전환이 가능할 수 있다.For excellent users, a right-handed UI pattern 131 may be provided. In addition, for a left-handed user, a left-handed UI pattern 133 may be provided. The right-handed UI pattern 131 and the left-handed UI pattern 133 may be symmetrical to each other, and, as described above, may be interchangeable based on user motion information.

본 발명의 일 실시예에 따른 UI는 대상체의 검진 시 사용되는 기능의 빈도에 따라 모양, 크기 및 위치 중 적어도 하나가 상이하게 제공될 수 있다. In the UI according to an embodiment of the present invention, at least one of a shape, a size, and a location may be provided differently according to a frequency of a function used when an object is examined.

본원의 도 8을 다시 참조하면, UI 패턴(131)은 도 8b 및 도 8c에 도시된 바와 같이 대상체의 검진 시 사용되는 기능의 빈도에 따라 UI는 모양, 크기 및 위치 중 적어도 하나가 변경되어 제공(137 또는 139)될 수 있다. 설명의 편의상 도 8a의 UI 패턴(131)은 의료 기기에서 제공될 수 있는 기본 패턴으로 가정한다.Referring back to FIG. 8 of the present application, the UI pattern 131 is provided by changing at least one of shape, size, and position according to the frequency of functions used during examination of the object as shown in FIGS. 8B and 8C. (137 or 139). For convenience of explanation, it is assumed that the UI pattern 131 of FIG. 8A is a basic pattern that can be provided by a medical device.

예를 들어, 소정의 검진 항목에서 트랙볼은 사용되지 않고, 1 내지 3으로 간략화하여 표시된 버튼형 UI 중 2번 버튼에 상응하는 기능이 가장 많이 사용될 수 있다. 이러한 경우, 도 8b에서와 같이, 기본 패턴(131)에서 트랙볼 기능의 원형 UI가 생략되고, 2번 버튼의 UI의 크기가 가장 크도록 변경되어 제공될 수 있다. For example, a trackball is not used in a predetermined examination item, and a function corresponding to the second button among the button-type UIs simplified to 1 to 3 may be used most. In this case, as shown in FIG. 8B, the circular UI of the trackball function is omitted from the basic pattern 131, and the size of the UI of the second button may be changed to be the largest.

다시 말해서, 사용자에 의하여 사용되지 아니하거나 사용 빈도가 적은 UI는 생략하고, 사용 빈도가 높은 UI를 큰 크기로 제공함으로써, 의료 기기를 조작하는 사용자의 UI로의 접근성 및 편의성을 증대시킬 수 있다. In other words, by omitting a UI that is not used by a user or having a low frequency of use, and providing a UI with a high frequency of use in a large size, it is possible to increase the accessibility and convenience of a user who operates a medical device to the UI.

다른 예로서, 소정의 검진 항목에서 사용자가 트랙볼을 주로 사용하고, 버튼형 UI 중 3번 버튼(예를 들면, 확대/축소 기능 등)을 가장 많이 사용한다면, 도 8c에서와 같이, 기본 패턴(131)에서 트랙볼에 해당하는 원형의 UI와 버튼형 UI 중 3번 버튼의 크기를 크게 변경하여 제공(139)할 수 있다. As another example, if a user mainly uses a trackball in a predetermined examination item and uses the third button (for example, an enlargement/reduction function, etc.) of a button-type UI most often, as shown in FIG. 8C, the basic pattern 131 In ), the size of button 3 among the circular UI and button-type UI corresponding to the trackball can be greatly changed and provided (139).

또한, 사용자의 손 모양과 유사하게 도 8c에서의 패턴(139)과 같이 방사형의 형태로 UI가 배치되어 제공될 수 있지만, 반드시 이에 제한되는 것은 아니다.Also, similar to the shape of a user's hand, the UI may be arranged and provided in a radial shape like the pattern 139 in FIG. 8C, but the present invention is not limited thereto.

또한, 검사 종류에 따라 사용되는 기능의 빈도 수가 상이할 수 있으므로, 검사 종류에 따라 상이한 패턴의 UI를 제공할 수 있다. In addition, since the frequency of functions used may be different according to the type of inspection, different patterns of UI can be provided according to the type of inspection.

예를 들면, 심장 초음파 검사, 간 초음파 검사, 복부 초음파 검사와 부인과 초음파 검사, 도플러 초음파 검사 등 각각의 검사 종류에 따라 초음파 기기에서 제공되는 기능의 사용 빈도 수가 상이할 수 있다. 예컨대, 심장 초음파 검사에서는 영상의 확대/축소 기능과 트랙볼 기능의 사용 빈도 수가 높은 반면에, 간 초음파 검사에서는 영상의 확대/축소 기능과 트랙볼 기능보다는 해상도의 조절 기능 등이 더 많이 사용될 수 있다. For example, the frequency of use of functions provided by the ultrasound apparatus may be different according to each type of examination, such as echocardiography, liver ultrasound, abdominal ultrasound, gynecological ultrasound, and Doppler ultrasound. For example, in echocardiography, an image enlargement/reduction function and a trackball function are frequently used, whereas in a liver ultrasound examination, an image enlargement/reduction function and a resolution control function may be used more than a trackball function.

다시 말해서, 심장 초음파 검사에서는 영상의 확대/축소 기능을 수행하는 UI와 트랙볼 기능을 수행하는 UI를 다른 UI에 비하여 비교적 크고, 컨트롤 패널(2500)의 중앙부 등에 위치시킬 수 있다. In other words, in the echocardiography, a UI that performs an image enlargement/reduction function and a UI that performs a trackball function are relatively larger than those of other UIs, and may be positioned in the center of the control panel 2500.

이에 비하여, 간 초음파 검사에서는 영상의 확대/축소 기능의 UI와 트랙볼 기능의 UI의 크기를 줄이거나 생략할 수 있고, 컨트롤 패널(2500)의 중앙부 등에 해상도의 조절 기능을 수행하는 UI가 상대적으로 큰 크기로 배치되도록 UI 패턴을 변경할 수 있다.In contrast, in the liver ultrasound examination, the size of the UI of the image enlargement/reduction function and the UI of the trackball function can be reduced or omitted, and the UI performing the resolution adjustment function in the center of the control panel 2500 is relatively large. You can change the UI pattern so that it is arranged in size.

도 16은 본 발명의 일 실시예에 따라 센싱부, 외부 입력 수신부 및 컨트롤 패널을 더 포함하는 장치를 도시한다. 16 illustrates a device further including a sensing unit, an external input receiving unit, and a control panel according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 장치(2000)는 외부 입력 수신부(2400)를 더 포함할 수 있다. The device 2000 according to an embodiment of the present invention may further include an external input receiving unit 2400.

본 발명의 일 실시예에 따른 UI는 외부 입력 수신부(2400)를 통하여 수신된 외부 입력 신호에 따라 UI 변경부(2200)에 의하여 편집될 수 있다. The UI according to an embodiment of the present invention may be edited by the UI changing unit 2200 according to an external input signal received through the external input receiving unit 2400.

본 발명의 일 실시예에 따른 UI는, 예를 들어, 사용자 입력에 따라 추가, 삭제, 위치, 크기 변경이 가능하다. 또한, UI는 사용자 입력에 따라 언어, 글꼴, UI 표시 색깔 등의 변경이 가능하다. The UI according to an embodiment of the present invention can be added, deleted, position, and size changed according to, for example, a user input. In addition, the UI may change language, font, and UI display color according to user input.

예컨대, 사용자 입력에 따라 버튼형 UI의 위치 또는 크기가 변경될 수 있다. For example, the location or size of the button-type UI may be changed according to a user input.

본원의 도 9를 다시 참조하면, UI에 대한 사용자의 소정의 입력에 기초하여 UI의 위치 또는 크기가 변경될 수 있다. 본 발명의 일 실시예에 따른 사용자의 소정의 입력은 UI에 대한 적어도 1회의 클릭, 일정 시간 동안의 누름 중 적어도 하나를 포함할 수 있다. 또한 이러한 소정의 입력은 복수의 입력이 동시에 입력되는 경우도 포함할 수 있다. Referring again to FIG. 9 of the present application, the location or size of the UI may be changed based on a user's predetermined input to the UI. A user's predetermined input according to an embodiment of the present invention may include at least one of clicking at least once on the UI and pressing for a predetermined time. In addition, such a predetermined input may include a case where a plurality of inputs are simultaneously input.

예를 들면, 버튼형 UI 중 1번 버튼에 대하여 사용자 입력으로서 약 1초 내지 1.5초의 누름을 통하여 편집 개시 신호를 인가 받고, 1번 버튼을 목표하는 위치로의 드래그 및 드롭(21) 신호를 인가 받음으로써 1번 버튼의 위치를 변경할 수 있다. For example, as a user input for button 1 of a button-type UI, an editing start signal is applied by pressing for about 1 to 1.5 seconds, and drag and drop 21 signals are applied to button 1 to a target position. You can change the position of the No. 1 button.

이러한 드래그 앤 드롭(21) 신호는 연속적인 사용자 입력 신호일 수 있다. 다시 말해서, 예컨대 1번 버튼에 대한 드래그 앤 드롭(21)의 사용자 입력 신호는 지속적으로(seamless) 인가되는 신호일 수 있다. 예를 들어, 원터치로 드래그 앤 드롭(21) 신호가 인가될 수 있지만, 반드시 이에 제한되는 것은 아니다. The drag-and-drop 21 signal may be a continuous user input signal. In other words, for example, the user input signal of the drag-and-drop 21 for button 1 may be a signal that is continuously applied. For example, the drag-and-drop 21 signal may be applied with a single touch, but is not limited thereto.

또한, 예를 들면, 편집 개시 신호를 인가 받은 후, 1번 버튼의 경계선에 대한 소정의 방향으로의 드래그 신호를 인가 받음으로써, 1번 버튼을 확대 또는 축소할 수 있다. Further, for example, after receiving the editing start signal, the first button may be enlarged or reduced by receiving a drag signal in a predetermined direction with respect to the boundary line of the first button.

또한, 예를 들어, 편집 개시 신호를 인가 받은 후, UI를 한번 더 클릭함으로써 해당 UI를 삭제할 수 있다. In addition, for example, after receiving the editing start signal, the corresponding UI may be deleted by clicking the UI once more.

또한, 예컨대, UI 이외의 빈 공간에 대하여 사용자로부터 인가된 수초(예컨대, 약 1초 내지 2초 등) 동안의 누름(23)을 통하여 UI 추가 개시 신호를 인가 받아 UI를 추가할 수 있다.In addition, for example, the UI may be added by receiving a UI addition start signal through a pressing 23 applied by the user to an empty space other than the UI for several seconds (eg, about 1 to 2 seconds, etc.).

또한, 예를 들면, 기존의 UI 또는 새롭게 추가된 UI는 해당 UI에 대한 복수회의 클릭 또는 소정의 패턴(예컨대, 별 모양, 삼각형, 사각형 등) 입력 등을 포함하는 외부 입력 신호에 기초하여 해당 UI의 기능을 재설정할 수 있다. 다시 말해서, 소정의 패턴 또는 클릭 당 해당 UI에 적용 가능한 기능들(예컨대, 2D 영상과 3D 영상 간의 전환, 해상도 조정 등)이 해당 UI 상에서 변경되어 표시될 수 있다. In addition, for example, an existing UI or a newly added UI is based on an external input signal including multiple clicks on the UI or input of a predetermined pattern (eg, star, triangle, rectangle, etc.). You can reset the function of In other words, functions applicable to the UI per predetermined pattern or click (eg, switching between a 2D image and a 3D image, resolution adjustment, etc.) may be changed and displayed on the corresponding UI.

또한, 본 발명의 다른 실시예에 따르면, 기존의 UI 또는 새롭게 추가된 UI에 적용 가능한 기능들이 미리 설정된 테이블 등의 형태로 제공될 수 있다. In addition, according to another embodiment of the present invention, functions applicable to an existing UI or a newly added UI may be provided in the form of a preset table.

예를 들어, 이러한 테이블 등이 팝업 형태로 제공될 수 있거나, 컨트롤 패널(2500) 등의 여백 등에 디스플레이되는 형태로 제공될 수 있다. UI에 대하여 적용 가능한 기능들이 제공되면, 사용자의 매칭 입력(예컨대, 순차 클릭, 드래그 앤 드롭 등)에 따라 기존의 UI 또는 새롭게 추가된 UI에 대한 기능이 재설정될 수 있지만, 반드시 이에 제한되는 것은 아니다. 이러한 UI와 기능 간의 매칭의 순서는 사용자 입력에 따라 적용할 기능을 먼저 선택하고, 선택된 기능이 적용될 UI를 선택하는 방식, 또는 기능을 재설정할 UI를 먼저 선택하고, 선택된 UI에 적용될 기능을 선택하는 방식 중 어느 것을 따르더라도 무방하다. For example, such a table may be provided in a pop-up form, or may be provided in a form displayed in a blank space of the control panel 2500 or the like. When functions applicable to the UI are provided, functions for the existing UI or newly added UI may be reset according to the user's matching input (eg, sequential click, drag and drop, etc.), but is not limited thereto. . The order of matching between the UI and the function is a method of first selecting the function to be applied according to the user input, then selecting the UI to which the selected function is applied, or selecting the UI to reset the function first, and then selecting the function to be applied to the selected UI. You can follow any of the methods.

이와 유사하게, 기존의 UI 또는 새롭게 추가된 UI에 표시된 언어, 글꼴, 색깔 등도 변경되어 표시될 수 있다. 다시 말해서, 사용자의 국적 선택을 위한 신호 등의 외부 입력 신호를 인가 받아 사용자의 사용 언어에 적합하도록 UI 상에 표시된 문자, 숫자 등을 변경할 수 있다. 또한, 사용자의 식별 정보를 포함하는 사용자 프로파일에 포함된 국적에 따라 UI에 표시된 언어가 자동으로 변경될 수도 있다. Similarly, a language, font, color, etc. displayed on an existing UI or a newly added UI may be changed and displayed. In other words, by receiving an external input signal such as a signal for selecting a nationality of the user, it is possible to change characters, numbers, etc. displayed on the UI to suit the user's language. In addition, the language displayed on the UI may be automatically changed according to the nationality included in the user profile including the user's identification information.

또한, 미리 설정되어 제공 가능한 색채표 중에서 선택한 색깔로 UI 표시 색깔을 변경하기 위한 신호 등을 외부 입력 신호로서 수신하여, UI에 표시된 색깔을 변경할 수 있다.In addition, by receiving a signal for changing the UI display color to a color selected from a color table set in advance and available as an external input signal, the color displayed on the UI may be changed.

본 발명의 일 실시예에 따른 장치(2000)는, 디스플레이 기능이 구비된 컨트롤 패널(2500)을 더 포함할 수 있다. The apparatus 2000 according to an embodiment of the present invention may further include a control panel 2500 equipped with a display function.

본 발명의 일 실시예에 따른 UI는 디스플레이부(2300) 및 컨트롤 패널(2500) 중 적어도 하나를 통하여 디스플레이될 수 있다. The UI according to an embodiment of the present invention may be displayed through at least one of the display unit 2300 and the control panel 2500.

본 발명의 일 실시예에 따른 UI는 대상체의 촬영 영상이 디스플레이되는 디스플레이부(2300) 및 디스플레이 기능이 구비된 컨트롤 패널(2500) 중 적어도 하나를 통하여 디스플레이될 수 있다. The UI according to an exemplary embodiment of the present invention may be displayed through at least one of a display unit 2300 on which a captured image of an object is displayed and a control panel 2500 equipped with a display function.

휴대용 의료 기기의 필요성이 대두되고, 의료 기기의 소형화 추세로 인하여, 대상체에 대한 영상을 디스플레이하기 위한 화면과 컨트롤 패널 제공 화면이 하나의 터치 스크린 상에서 공존할 수 있다. 다시 말해서, 본원의 도 10a를 다시 참조하면, 대상체에 대한 영상(113)이 UI 패턴(131)과 동일한 화면(예를 들어, 디스플레이부(2300) 등) 상에서 제공될 수 있다.A need for a portable medical device is emerging, and due to the trend of miniaturization of medical devices, a screen for displaying an image of an object and a screen for providing a control panel may coexist on one touch screen. In other words, referring again to FIG. 10A of the present application, the image 113 of the object may be provided on the same screen (eg, the display unit 2300) as the UI pattern 131.

다만, 이러한 일체형의 디스플레이의 사용은 먼지, 사용자의 지문 등과 같은 이물질로 인하여 대상체에 대한 촬영 영상 판독을 어렵게 할 수도 있다. However, the use of such an integrated display may make it difficult to read a photographed image of an object due to foreign substances such as dust and a user's fingerprint.

본원의 도 10b를 다시 참조하면, 본 발명의 일 실시예에 따라 변경되어 제공 가능한 UI는 촬영 영상의 디스플레이부 이외의 디스플레이 기능이 구비된 컨트롤 패널(2500)을 통하여 제공될 수 있다. 예를 들면, 촬영 영상은 디스플레이부(2300)을 통하여 사용자에게 제공될 수 있고, 소정의 UI 패턴(131)은 디스플레이 기능이 구비된 컨트롤 패널(2500)을 통하여 사용자에게 촬영 영상과 별도로 제공될 수 있다.Referring again to FIG. 10B of the present application, a UI that is modified and provided according to an embodiment of the present invention may be provided through a control panel 2500 equipped with a display function other than a display unit of a captured image. For example, the captured image may be provided to the user through the display unit 2300, and the predetermined UI pattern 131 may be provided to the user separately from the captured image through the control panel 2500 equipped with a display function. have.

도 17은 본 발명의 일 실시예에 따라 센싱부, 외부 입력 수신부, 컨트롤 패널 및 제어부를 더 포함하는 장치를 도시한다. 17 illustrates a device further including a sensing unit, an external input receiving unit, a control panel, and a control unit according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 장치(2000)는 제어부(2600)를 더 포함할 수 있다. 본 발명의 일 실시예에 따른 제어부(2600)는 사용자의 모션 정보에 따라 컨트롤 패널(2500)의 높이 및 각도 중 적어도 하나를 조절할 수 있다. The device 2000 according to an embodiment of the present invention may further include a control unit 2600. The controller 2600 according to an embodiment of the present invention may adjust at least one of a height and an angle of the control panel 2500 according to motion information of a user.

사용자의 의료 기기 편의성을 극대화하기 위하여, 사용자의 자세 등이 반영된 모션 정보에 기초하여 의료 기기의 소정의 컴포넌트(예컨대, 디스플레이부(2300), 컨트롤 패널(2500) 등)의 물리적 위치를 조절할 수 있다.In order to maximize the convenience of the user's medical device, the physical position of a predetermined component (eg, the display unit 2300, the control panel 2500, etc.) of the medical device may be adjusted based on motion information reflecting the user's posture. .

예를 들어, 대상체 촬영 전 사용자가 어떤 손으로 프로브를 파지했는지에 따라 의료 기기의 소정의 컴포넌트(예컨대, 디스플레이부(2300), 컨트롤 패널(2500) 등)의 위치가 자동으로 조정될 수 있다. For example, the position of a predetermined component (eg, the display unit 2300, the control panel 2500, etc.) of the medical device may be automatically adjusted depending on which hand the user holds the probe before photographing the object.

예컨대, 사용자가 오른손으로 프로브를 파지한 경우, 촬영 개시에 따라 사용자의 상체는 우향으로 변경될 확률이 매우 높다. 따라서, 사용자의 움직임으로부터 획득된 모션 정보에 따라 디스플레이부(2300), 컨트롤 패널(2500) 등을 사용자를 향하여 상, 하, 좌, 우, 수평 또는 수직, 소정의 각도로 이동시킬 수 있다. 다시 말해서, 디스플레이부(2300), 컨트롤 패널(2500) 등이 사용자와 마주하도록(또는 최대한 사용자의 정면에 위치하도록) 상, 하, 좌, 우, 수평 또는 수직, 소정의 각도로 이동시킬 수 있다. For example, when the user holds the probe with the right hand, there is a very high probability that the user's upper body changes to the right side when shooting starts. Accordingly, the display unit 2300, the control panel 2500, and the like may be moved up, down, left, right, horizontal or vertical, or at a predetermined angle toward the user according to motion information obtained from the user's movement. In other words, the display unit 2300, the control panel 2500, etc. may be moved up, down, left, right, horizontally or vertically, or at a predetermined angle so that the display unit 2300 and the control panel 2500 face the user (or are located in front of the user as much as possible). .

또한, 대상체를 촬영 중인 사용자가 움직임으로써 획득될 수 있는 모션 정보에 기초하여 전술한 바와 같이, 디스플레이부(2300), 컨트롤 패널(2500) 등이 사용자와 마주하도록(또는 최대한 사용자의 정면에 위치하도록) 상, 하, 좌, 우, 수평 또는 수직, 소정의 각도로 이동될 수 있다. 본원의 도 12를 다시 참조하면, 프로브(1200)의 움직임에 상응하게 컨트롤 패널(2500)의 높이 및 각도 중 적어도 하나가 조절될 수 있다. 다시 말해서, 의료 기기의 소정의 컴포넌트(예컨대, 디스플레이부(2300), 컨트롤 패널(2500) 등)의 위치가 이동될 수 있음에 따라 사용자의 의료 기기의 조작 편의성이 더욱 증대될 수 있다.In addition, as described above, based on motion information that can be obtained by moving the user who is photographing the object, the display unit 2300, the control panel 2500, etc. may face the user (or be positioned in front of the user as much as possible). ) It can be moved up, down, left, right, horizontal or vertical, at a predetermined angle. Referring again to FIG. 12 of the present application, at least one of the height and angle of the control panel 2500 may be adjusted according to the movement of the probe 1200. In other words, as the positions of certain components of the medical device (eg, the display unit 2300, the control panel 2500, etc.) may be moved, the user's convenience of operating the medical device may be further increased.

도 18은 본 발명의 다른 실시예에 따라 사용자의 모션 정보에 기초하여 사용자 인터페이스(UI)를 변경시켜 제공하기 위한 장치를 도시한다.18 illustrates an apparatus for providing a user interface (UI) changed based on motion information of a user according to another embodiment of the present invention.

본 발명의 일 실시예에 따른 장치(2000)는, 모션 정보 획득부(2100), UI 변경부(2200), 디스플레이부(2300), 외부 입력 수신부(2400), 컨트롤 패널(2500), 제어부(2600)를 포함하고, 나아가 사용자의 식별 정보를 획득하는 식별 정보 획득부(2700) 및 획득된 식별 정보에 따라 변경된 UI를 저장하는 저장부(2800)를 더 포함할 수 있다. The apparatus 2000 according to an embodiment of the present invention includes a motion information acquisition unit 2100, a UI change unit 2200, a display unit 2300, an external input receiving unit 2400, a control panel 2500, and a control unit ( 2600), and may further include an identification information acquisition unit 2700 for acquiring user identification information, and a storage unit 2800 for storing a UI changed according to the acquired identification information.

본 발명의 일 실시예에 따라 식별 정보 획득부(2700)는, 사용자의 식별 정보를 획득할 수 있다. 이러한 획득된 식별 정보는 변경된 UI와 함께 저장부에 저장될 수 있지만, 반드시 이에 제한되는 것은 아니다. According to an embodiment of the present invention, the identification information acquisition unit 2700 may acquire user identification information. The obtained identification information may be stored in the storage unit together with the changed UI, but is not limited thereto.

본 발명의 일 실시예에 따른, 사용자 식별 정보를 획득은 사용자의 모션 정보를 획득에 앞서 수행될 수도 있다. According to an embodiment of the present invention, obtaining user identification information may be performed prior to obtaining motion information of the user.

또한, 사용자 식별 정보를 획득은 사용자의 모션 정보과 동시에 수행될 수도 있다. 예를 들면, 전술한 바와 같이, 사용자의 지문 정보, 홍채 정보, 안면 정보 등이 획득됨과 동시에 이러한 사용자의 생체 정보를 포함하는 사용자 프로파일이 획득될 수 있다. 다시 말해서, 사용자 식별 정보는 사용자 생체 정보와 함께 사용자 프로파일에 포함될 수 있고, 이러한 사용자 프로파일은 데이터베이스의 형태로 미리 구축되어 있을 수 있다.In addition, the acquisition of user identification information may be performed simultaneously with motion information of the user. For example, as described above, the user's fingerprint information, iris information, facial information, and the like may be acquired, and a user profile including the user's biometric information may be acquired. In other words, the user identification information may be included in the user profile together with the user biometric information, and this user profile may be built in advance in the form of a database.

예를 들어, 사용자별 선호하는 UI 패턴, 또는 본 발명의 일 실시예에 따라 변경된 UI를 사용자 식별 정보(예컨대, ID 등)에 따라 저장해두고, 사용자는 이후 필요에 따라 자신의 식별 정보에 상응하는 저장된 UI 패턴 등을 로드하여 사용할 수도 있다. For example, a UI pattern that is preferred for each user or a UI changed according to an embodiment of the present invention is stored according to user identification information (eg, ID, etc.), and the user later You can also load and use a saved UI pattern.

다시 말해서, 사용자의 신체적 특징, 행동적 특징이 상이할 수 있으므로, 사용자 식별 정보에 따라 적합한 UI 패턴 또는 이전에 변경해둔 UI 패턴 등을 데이터베이스화 해두고, 사용자의 의료 기기 조작 시 해당 사용자의 식별 정보에 상응하는 UI 패턴을 로드하여 의료 기기의 촬영 환경을 설정함으로써, 촬영 시간을 단축시킬 수 있다.In other words, since the physical characteristics and behavioral characteristics of the user may be different, the appropriate UI pattern or previously changed UI pattern, etc., according to the user identification information is databaseized, and the user's identification information when the user operates the medical device. By loading the UI pattern corresponding to the to set the shooting environment of the medical device, it is possible to shorten the shooting time.

본 발명의 일 실시예에 따른 장치와 관련하여서는 전술한 방법에 대한 내용이 적용될 수 있다. 따라서, 장치와 관련하여, 전술한 방법에 대한 내용과 동일한 내용에 대하여는 설명을 생략하였다.In relation to the apparatus according to an embodiment of the present invention, the contents of the above-described method may be applied. Accordingly, description of the same contents as those of the above-described method in relation to the apparatus is omitted.

한편, 상술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다.Meanwhile, the above-described embodiments of the present invention can be written as a program that can be executed in a computer, and can be implemented in a general-purpose digital computer that operates the program using a computer-readable recording medium.

이러한 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등) 및 캐리어 웨이브(예를 들면, 인터넷을 통한 전송)와 같은 저장매체를 포함한다.Such computer-readable recording media include magnetic storage media (e.g., ROM, floppy disk, hard disk, etc.), optical reading media (e.g., CD-ROM, DVD, etc.), and carrier waves (e.g., Internet). It includes storage media such as (transfer).

이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, the present invention has been looked at around its preferred embodiments. Those of ordinary skill in the art to which the present invention pertains will be able to understand that the present invention can be implemented in a modified form without departing from the essential characteristics of the present invention. Therefore, the disclosed embodiments should be considered from an illustrative point of view rather than a limiting point of view. The scope of the present invention is shown in the claims rather than the foregoing description, and all differences within the scope equivalent thereto should be construed as being included in the present invention.

Claims (10)

초음파 진단 장치에 있어서,
터치 스크린을 포함하는 컨트롤 패널;
상기 터치 스크린 상에 복수의 UI(User Interface)를 디스플레이하기 위한 모양, 크기, 및 위치 중 적어도 하나의 정보를 포함하는 UI 패턴을 저장하는 메모리; 및
컴퓨터로 읽을 수 있는 명령어들을 실행하도록 구성된 적어도 하나의 프로세서;
를 포함하고,
상기 적어도 하나의 프로세서는,
검사의 타입(type)을 선택하는 사용자 입력을 수신하고,
상기 수신된 사용자 입력에 의해 선택된 상기 검사의 타입에 대응되는 기능을 제공하도록 상기 복수의 UI의 모양, 크기, 및 위치 중 적어도 하나를 상기 검사의 타입에 기초하여 변경하고, 변경된 상기 복수의 UI를 상기 터치 스크린 상에 디스플레이하고,
상기 터치 스크린을 통해 수신된 드래그-앤드-드롭 입력에 기초하여, 상기 터치 스크린에 디스플레이된 상기 복수의 UI 중 적어도 하나의 UI의 위치를 변경하고,
상기 복수의 UI는 상기 초음파 진단 장치의 기능을 제어하도록 동작 가능하고,
상기 UI 패턴은, 상기 검사의 타입에 따라 제공되는 복수의 기능 각각에 매칭되는 상기 복수의 UI의 모양, 크기, 및 위치 중 적어도 하나에 관한 정보를 포함하고,
상기 적어도 하나의 프로세서는 상기 터치 스크린을 통해 입력되는 터치 및 드래그-앤드-드롭 입력에 기초하여 상기 복수의 UI 중 제1 UI에 매칭되는 제1 기능을 제2 기능으로 재설정하는, 초음파 진단 장치.
In the ultrasound diagnosis apparatus,
A control panel including a touch screen;
A memory for storing a UI pattern including at least one of a shape, a size, and a location for displaying a plurality of user interfaces (UIs) on the touch screen; And
At least one processor configured to execute computer-readable instructions;
Including,
The at least one processor,
Receive user input for selecting the type of test,
Change at least one of the shape, size, and location of the plurality of UIs based on the type of the test to provide a function corresponding to the type of test selected by the received user input, and the changed plurality of UIs Display on the touch screen,
Change the position of at least one UI among the plurality of UIs displayed on the touch screen, based on the drag-and-drop input received through the touch screen,
The plurality of UIs are operable to control functions of the ultrasound diagnosis apparatus,
The UI pattern includes information on at least one of a shape, size, and location of the plurality of UIs matched to each of a plurality of functions provided according to the type of inspection,
The at least one processor resets a first function matched with a first UI among the plurality of UIs to a second function based on a touch and drag-and-drop input input through the touch screen.
제1 항에 있어서,
상기 적어도 하나의 프로세서는, 상기 위치가 변경된 상기 적어도 하나의 UI를 포함하는 상기 터치 스크린 상에 디스플레이된 상기 복수의 UI의 설정 정보를 사용자에 의해 개별적으로 설정된 UI 레이아웃(UI layout)으로서 상기 적어도 하나의 메모리에 저장하는, 초음파 진단 장치.
The method of claim 1,
The at least one processor may include setting information of the plurality of UIs displayed on the touch screen including the at least one UI whose location is changed, as a UI layout individually set by a user. Stored in the memory of the ultrasound diagnostic device.
제1 항에 있어서,
상기 적어도 하나의 프로세서는, 초음파 영상을 상기 터치 스크린 상에 디스플레이하는, 초음파 진단 장치.
The method of claim 1,
The at least one processor displays an ultrasound image on the touch screen.
제1 항에 있어서,
상기 터치 스크린 상에 디스플레이되는 상기 복수의 UI는 버튼 타입 UI를 포함하는, 초음파 진단 장치.
The method of claim 1,
The plurality of UIs displayed on the touch screen includes a button-type UI.
제4 항에 있어서,
상기 버튼 타입 UI는 사용자에 의해 상기 디스플레이된 초음파 영상을 정지(freeze)하도록 동작하는, 초음파 진단 장치.
The method of claim 4,
The button-type UI operates to freeze the displayed ultrasound image by a user.
제1 항에 있어서,
상기 터치 스크린 상에 디스플레이되는 상기 복수의 UI는 문자 및 숫자 중 적어도 하나를 입력하기 위해 사용자로부터 입력을 수신할 수 있는 키보드 타입 UI를 포함하는, 초음파 진단 장치.
The method of claim 1,
The plurality of UIs displayed on the touch screen include a keyboard type UI capable of receiving an input from a user to input at least one of letters and numbers.
제1 항에 있어서,
상기 터치 스크린 상에 디스플레이되는 상기 복수의 UI는 초음파 영상을 확대 또는 축소하는 스위치 타입 UI를 포함하는, 초음파 진단 장치.
The method of claim 1,
The plurality of UIs displayed on the touch screen includes a switch-type UI that enlarges or reduces an ultrasound image.
제1 항에 있어서,
상기 터치 스크린 상에 디스플레이되는 상기 복수의 UI는 초음파 영상을 2D 초음파 영상과 3D 초음파 영상 간 전환하는 스위치 타입 UI를 포함하는, 초음파 진단 장치.
The method of claim 1,
The plurality of UIs displayed on the touch screen include a switch type UI for switching an ultrasound image between a 2D ultrasound image and a 3D ultrasound image.
제1 항에 있어서,
초음파 영상을 디스플레이하는 디스플레이 장치;
를 더 포함하는, 초음파 진단 장치.
The method of claim 1,
A display device that displays an ultrasound image;
The ultrasound diagnosis apparatus further comprising.
제1 항에 있어서,
상기 터치 스크린 상에 디스플레이되는 상기 복수의 UI 각각은 그래픽 UI인, 초음파 진단 장치.
The method of claim 1,
Each of the plurality of UIs displayed on the touch screen is a graphic UI.
KR1020190104982A 2019-08-27 2019-08-27 The method and apparatus for changing user interface based on user motion information KR102169613B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190104982A KR102169613B1 (en) 2019-08-27 2019-08-27 The method and apparatus for changing user interface based on user motion information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190104982A KR102169613B1 (en) 2019-08-27 2019-08-27 The method and apparatus for changing user interface based on user motion information

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020150151096A Division KR102017285B1 (en) 2015-10-29 2015-10-29 The method and apparatus for changing user interface based on user motion information

Publications (2)

Publication Number Publication Date
KR20190103122A KR20190103122A (en) 2019-09-04
KR102169613B1 true KR102169613B1 (en) 2020-10-23

Family

ID=67950149

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190104982A KR102169613B1 (en) 2019-08-27 2019-08-27 The method and apparatus for changing user interface based on user motion information

Country Status (1)

Country Link
KR (1) KR102169613B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060020206A1 (en) * 2004-07-01 2006-01-26 Luis Serra System and method for a virtual interface for ultrasound scanners

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090050423A (en) * 2007-11-15 2009-05-20 주식회사 메디슨 Ultrasound system having biometrics device and method for auto controlling of using environment

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060020206A1 (en) * 2004-07-01 2006-01-26 Luis Serra System and method for a virtual interface for ultrasound scanners

Also Published As

Publication number Publication date
KR20190103122A (en) 2019-09-04

Similar Documents

Publication Publication Date Title
US10558350B2 (en) Method and apparatus for changing user interface based on user motion information
US10459627B2 (en) Medical image display apparatus and method of providing user interface
CN106659474B (en) Ultrasonic diagnostic apparatus for self-diagnosis and remote diagnosis and method of operating ultrasonic diagnostic apparatus
EP2821014B1 (en) Sharing information of medical imaging apparatus
US10387713B2 (en) Apparatus and method of processing medical image
KR101599891B1 (en) Untrasound dianognosis apparatus, method and computer-readable storage medium
KR20160140237A (en) Ultrasound apparatus and method for displaying ultrasoudn images
KR102297148B1 (en) Ultrasound System And Method For Displaying 3 Dimensional Image
KR102519424B1 (en) Method of displaying a ultrasound image and apparatus thereof
US10856853B2 (en) Ultrasound diagnosis apparatus, method of controlling ultrasound diagnosis apparatus, and storage medium having the method recorded thereon
KR20160054303A (en) Ultra sonic apparatus and method for scanning thereof
KR102418975B1 (en) Ultrasound apparatus and method for providing information
KR20150061621A (en) The method and apparatus for changing user interface based on user motion information
KR102017285B1 (en) The method and apparatus for changing user interface based on user motion information
KR102169613B1 (en) The method and apparatus for changing user interface based on user motion information
KR101953311B1 (en) The apparatus for changing user interface based on user motion information
KR101630764B1 (en) Ultrasound diagnosis apparatus, control method for ultrasound diagnosis apparatus, storage medium thereof

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant