KR101953311B1 - 사용자의 모션 정보에 기초하여 사용자 인터페이스(ui)를 변경시키는 장치 - Google Patents
사용자의 모션 정보에 기초하여 사용자 인터페이스(ui)를 변경시키는 장치 Download PDFInfo
- Publication number
- KR101953311B1 KR101953311B1 KR1020170122787A KR20170122787A KR101953311B1 KR 101953311 B1 KR101953311 B1 KR 101953311B1 KR 1020170122787 A KR1020170122787 A KR 1020170122787A KR 20170122787 A KR20170122787 A KR 20170122787A KR 101953311 B1 KR101953311 B1 KR 101953311B1
- Authority
- KR
- South Korea
- Prior art keywords
- user
- probe
- information
- uis
- ultrasonic
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/46—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
- A61B8/461—Displaying means of special interest
- A61B8/465—Displaying means of special interest adapted to display user selection data, e.g. icons or menus
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/52—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Medical Informatics (AREA)
- Veterinary Medicine (AREA)
- Pathology (AREA)
- Radiology & Medical Imaging (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
Abstract
의료 기기를 통한 대상체의 검진 시 사용되는 사용자 인터페이스(UI; User Interface)를 사용자의 모션 정보에 기초하여 변경시켜 제공하기 위한 방법이 개시된다. 본 발명의 일 실시예에 따라, 사용자의 모션 정보를 획득하고, 획득된 사용자의 모션 정보를 이용하여 UI를 변경하며, 변경된 UI를 디스플레이하는 방법이 개시된다.
Description
본 발명은 사용자의 모션 정보에 기초하여 사용자 인터페이스(User Interface)를 변경시켜 제공하는 방법 및 장치에 관한 것이다.
초음파 진단 장치는 프로브(probe)의 트랜스듀서(transducer)로부터 생성되는 초음파 신호를 대상체로 조사하고, 대상체로부터 반사된 에코 신호의 정보를 수신하여 대상체 내부의 부위(예컨대, 연부 조직 등의 단층이나 혈류 등)에 대한 영상을 획득할 수 있다. 특히, 초음파 진단 장치는 대상체 내부의 관찰, 이물질 검출, 및 상해 측정 등 의학적 목적으로 사용될 수 있다.
이러한 초음파 진단 장치는 대상체에 대한 정보를 실시간으로 표시 가능하다는 이점이 있다. 또한, 초음파 진단 장치는, X선 등의 피폭이 없어 안정성이 높은 장점이 있어, X선 진단장치, CT(Computerized Tomography) 스캐너, MRI(Magnetic Resonance Image) 장치, 핵의학 진단장치 등의 다른 화상 진단장치와 함께 널리 이용되고 있다.
본 발명은 의료 기기를 통한 대상체의 검진 시 사용되는 사용자 인터페이스(UI; User Interface)를 사용자의 모션 정보에 기초하여 변경시켜 제공하기 위한 방법 및 장치에 관한 것이다.
본 발명의 일 실시예에 따른, 의료 기기를 통한 대상체의 검진 시 사용되는 사용자 인터페이스(UI; User Interface)를 사용자의 모션 정보에 기초하여 변경시켜 제공하기 위한 방법은, 사용자의 모션 정보를 획득하는 단계, 획득된 사용자의 모션 정보를 이용하여 UI를 변경하는 단계 및 변경된 UI를 디스플레이하는 단계를 포함할 수 있다.
본 발명의 일 실시예에 따른 사용자의 모션 정보는 현재 프로브의 위치 정보에 기초하여 획득될 수 있다.
본 발명의 일 실시예에 따른 현재 프로브의 위치 정보는 프로브의 현재의 지시방향, 소정의 기준 지점에 대한 경사각 및 높이값 중 적어도 하나를 포함할 수 있다.
본 발명의 일 실시예에 따른 사용자 모션 정보는, 사용자의 지문 정보, 사용자의 홍채 정보, 사용자의 안면 정보 중 적어도 하나를 포함하는 생체 정보에 기초하여 획득될 수 있다.
본 발명의 일 실시예에 따른 UI는 대상체의 검진 시 사용될 기능을 나타낸 단축 버튼, 스위치, 키보드 및 트랙볼 중 적어도 하나를 포함할 수 있다.
본 발명의 일 실시예에 따른 획득된 사용자의 모션 정보를 이용하여 UI를 변경하는 단계는, 획득된 사용자의 모션 정보에 따라 UI의 모양, 크기 및 위치 중 적어도 하나를 변경하는 단계를 포함할 수 있다.
본 발명의 일 실시예에 따른 대상체의 검진 시 사용되는 기능의 빈도에 따라 UI는 모양, 크기 및 위치 중 적어도 하나가 상이하게 제공될 수 있다.
본 발명의 일 실시예에 따른 외부 입력 신호에 따라 UI는 편집 가능할 수 있다.
본 발명의 일 실시예에 따른 UI는 대상체의 촬영 영상이 디스플레이되는 디스플레이부 및 디스플레이 기능이 구비된 컨트롤 패널 중 적어도 하나를 통하여 디스플레이될 수 있다.
본 발명의 일 실시예에 따른 사용자의 모션 정보에 따라 컨트롤 패널의 높이 및 각도 중 적어도 하나를 조절하는 단계를 더 포함할 수 있다.
본 발명의 일 실시예에 따른 사용자의 식별 정보를 획득하는 단계, 획득된 식별 정보에 따라 변경된 UI를 저장하는 단계를 더 포함할 수 있다.
본 발명의 일 실시예에 따른 의료 기기를 통한 대상체의 검진 시 사용되는 사용자 인터페이스(UI; User Interface)를 사용자의 모션 정보에 기초하여 변경시켜 제공하기 위한 장치는, 사용자의 모션 정보를 획득하는 모션 정보 획득부, 획득된 사용자의 모션 정보를 이용하여 UI를 변경하는 UI 변경부 및 변경된 UI의 디스플레이가 가능한 디스플레이부를 포함할 수 있다.
본 발명의 일 실시예에 따른 모션 정보 획득부는 센싱부를 더 포함하고, 사용자의 모션 정보는, 센싱부를 통하여 획득된 현재 프로브의 위치 정보에 기초하여 획득될 수 있다.
본 발명의 일 실시예에 따른 현재 프로브의 위치 정보는, 프로브의 현재의 지시방향, 소정의 기준 지점에 대한 경사각 및 높이값 중 적어도 하나를 포함할 수 있다.
본 발명의 일 실시예에 따른 사용자 모션 정보는, 센싱부를 통하여 획득된 사용자의 지문 정보, 사용자의 홍채 정보, 사용자의 안면 정보 중 적어도 하나를 포함하는 생체 정보에 기초하여 획득될 수 있다.
본 발명의 일 실시예에 따른 UI는 대상체의 검진 시 사용될 기능을 나타낸 단축 버튼, 스위치, 키보드 및 트랙볼 중 적어도 하나를 포함할 수 있다.
본 발명의 일 실시예에 따른 UI 변경부는, 획득된 사용자의 모션 정보에 따라 UI의 모양, 크기 및 위치 중 적어도 하나를 변경할 수 있다.
본 발명의 일 실시예에 따른 UI는 대상체의 검진 시 사용되는 기능의 빈도에 따라 모양, 크기 및 위치 중 적어도 하나가 상이하게 제공될 수 있다.
본 발명의 일 실시예에 따른 장치는 외부 입력 수신부를 더 포함하고, UI는 외부 입력 수신부를 통하여 수신된 외부 입력 신호에 따라 UI 변경부에 의하여 편집 될 수 있다.
본 발명의 일 실시예에 따른 장치는 디스플레이 기능이 구비된 컨트롤 패널을 더 포함하고, UI는 디스플레이부 및 컨트롤 패널 중 적어도 하나를 통하여 디스플레이될 수 있다.
본 발명의 일 실시예에 따른 장치는 제어부를 더 포함하고, 제어부는 사용자의 모션 정보에 따라 컨트롤 패널의 높이 및 각도 중 적어도 하나를 조절할 수 있다.
본 발명의 일 실시예에 따른 장치는 사용자의 식별 정보를 획득하는 식별 정보 획득부, 획득된 식별 정보에 따라 변경된 UI를 저장하는 저장부를 더 포함할 수 있다.
한편, 본 발명의 일 실시예에 의하면, 전술한 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공할 수 있다.
본 발명의 일 실시예로서 제공되는 방법 및 장치에 따라, 사용자의 모션 정보를 획득하고, 획득된 모션 정보에 기초하여 사용자 인터페이스(UI)를 변경시켜 디스플레이함으로써 사용자의 의료 기기 활용의 편의성을 증대시킬 수 있다는 효과가 있다. 또한, 사용자 모션 정보에 기초하여 의료 기기의 위치 등을 자동으로 제어함으로써, 촬영 환경 설정에 소모되는 불필요한 시간 낭비를 줄일 수 있다는 효과가 있다.
도 1a는 종래의 의료 기기를 통한 대상체 검진 방법의 일 예를 도시한다.
도 1b는 본 발명의 일 실시예와 관련된 초음파 진단 장치(r1000)의 예시적인 구성을 도시한 블록도이다.
도 1c는 본 발명의 일 실시예와 관련된 무선 프로브(r2000)의 예시적인 구성을 도시한 블록도이다.
도 2는 본 발명의 일 실시예에 따른 의료 기기를 통한 대상체의 검진 시 사용되는 사용자 인터페이스(UI; User Interface)를 사용자의 모션 정보에 기초하여 변경시켜 제공하기 위한 방법의 개략도이다.
도 3은 본 발명의 일 실시예에 따른 사용자의 모션 정보에 기초하여 사용자 인터페이스(UI; User Interface)를 변경시켜 제공하기 위한 방법을 나타낸 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 사용자의 모션 정보 획득의 일 예를 도시한다.
도 5는 본 발명의 다른 실시예에 따라 획득되는 사용자의 모션 정보의 예를 도시한다.
도 6은 본 발명의 일 실시예에 따라 변경되어 제공 가능한 사용자 인터페이스(UI)의 일 예를 도시한다.
도 7은 본 발명의 일 실시예에 따라 사용자의 모션 정보에 기초하여 사용자 인터페이스(UI)가 변경되어 제공되는 양상을 도시한다.
도 8은 본 발명의 다른 실시예에 따라 사용자의 모션 정보에 기초하여 사용자 인터페이스(UI)가 변경되어 제공되는 양상을 도시한다.
도 9a는 본 발명의 일 실시예에 따른 사용자 인터페이스(UI)의 편집 예를 도시한다.
도 9b는 본 발명의 일 실시예에 따라 변경된 사용자 인터페이스(UI)의 사용 예를 도시한다.
도 10은 본 발명의 일 실시예에 따라 사용자 인터페이스(UI)가 제공되는 양상을 도시한다.
도 11은 본 발명의 다른 실시예에 따라 의료 기기의 동작을 제어하는 방법을 나타낸 흐름도이다.
도 12는 본 발명의 다른 실시예에 따른 의료 기기 동작 제어의 일 예를 도시한다.
도 13은 본 발명의 또 다른 실시예에 따라 변경된 UI를 관리하는 방법을 나타낸 흐름도이다.
도 14는 본 발명의 일 실시예에 따른 의료 기기를 통한 대상체의 검진 시 사용되는 사용자 인터페이스(UI; User Interface)를 사용자의 모션 정보에 기초하여 변경시켜 제공하기 위한 장치를 도시한다.
도 15는 본 발명의 일 실시예에 따라 센싱부를 더 포함하는 장치를 도시한다.
도 16은 본 발명의 일 실시예에 따라 센싱부, 외부 입력 수신부 및 컨트롤 패널을 더 포함하는 장치를 도시한다.
도 17은 본 발명의 일 실시예에 따라 센싱부, 외부 입력 수신부, 컨트롤 패널 및 제어부를 더 포함하는 장치를 도시한다.
도 18은 본 발명의 다른 실시예에 따라 사용자의 모션 정보에 기초하여 사용자 인터페이스(UI)를 변경시켜 제공하기 위한 장치를 도시한다.
도 1b는 본 발명의 일 실시예와 관련된 초음파 진단 장치(r1000)의 예시적인 구성을 도시한 블록도이다.
도 1c는 본 발명의 일 실시예와 관련된 무선 프로브(r2000)의 예시적인 구성을 도시한 블록도이다.
도 2는 본 발명의 일 실시예에 따른 의료 기기를 통한 대상체의 검진 시 사용되는 사용자 인터페이스(UI; User Interface)를 사용자의 모션 정보에 기초하여 변경시켜 제공하기 위한 방법의 개략도이다.
도 3은 본 발명의 일 실시예에 따른 사용자의 모션 정보에 기초하여 사용자 인터페이스(UI; User Interface)를 변경시켜 제공하기 위한 방법을 나타낸 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 사용자의 모션 정보 획득의 일 예를 도시한다.
도 5는 본 발명의 다른 실시예에 따라 획득되는 사용자의 모션 정보의 예를 도시한다.
도 6은 본 발명의 일 실시예에 따라 변경되어 제공 가능한 사용자 인터페이스(UI)의 일 예를 도시한다.
도 7은 본 발명의 일 실시예에 따라 사용자의 모션 정보에 기초하여 사용자 인터페이스(UI)가 변경되어 제공되는 양상을 도시한다.
도 8은 본 발명의 다른 실시예에 따라 사용자의 모션 정보에 기초하여 사용자 인터페이스(UI)가 변경되어 제공되는 양상을 도시한다.
도 9a는 본 발명의 일 실시예에 따른 사용자 인터페이스(UI)의 편집 예를 도시한다.
도 9b는 본 발명의 일 실시예에 따라 변경된 사용자 인터페이스(UI)의 사용 예를 도시한다.
도 10은 본 발명의 일 실시예에 따라 사용자 인터페이스(UI)가 제공되는 양상을 도시한다.
도 11은 본 발명의 다른 실시예에 따라 의료 기기의 동작을 제어하는 방법을 나타낸 흐름도이다.
도 12는 본 발명의 다른 실시예에 따른 의료 기기 동작 제어의 일 예를 도시한다.
도 13은 본 발명의 또 다른 실시예에 따라 변경된 UI를 관리하는 방법을 나타낸 흐름도이다.
도 14는 본 발명의 일 실시예에 따른 의료 기기를 통한 대상체의 검진 시 사용되는 사용자 인터페이스(UI; User Interface)를 사용자의 모션 정보에 기초하여 변경시켜 제공하기 위한 장치를 도시한다.
도 15는 본 발명의 일 실시예에 따라 센싱부를 더 포함하는 장치를 도시한다.
도 16은 본 발명의 일 실시예에 따라 센싱부, 외부 입력 수신부 및 컨트롤 패널을 더 포함하는 장치를 도시한다.
도 17은 본 발명의 일 실시예에 따라 센싱부, 외부 입력 수신부, 컨트롤 패널 및 제어부를 더 포함하는 장치를 도시한다.
도 18은 본 발명의 다른 실시예에 따라 사용자의 모션 정보에 기초하여 사용자 인터페이스(UI)를 변경시켜 제공하기 위한 장치를 도시한다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
명세서 전체에서 "초음파 영상"이란 초음파를 이용하여 획득된 대상체(object)에 대한 영상을 의미할 수 있다.
또한, 대상체는 사람 또는 동물, 또는 사람 또는 동물의 일부를 포함할 수 있다. 예를 들어, 대상체는 간, 심장, 자궁, 뇌, 유방, 복부 등의 장기, 또는 혈관을 포함할 수 있다. 또한, 대상체는 팬텀(phantom)을 포함할 수도 있으며, 팬텀은 생물의 밀도와 실효 원자 번호에 아주 근사한 부피를 갖는 물질을 의미할 수 있다.
또한, 명세서 전체에서 "사용자"는 의료 전문가로서 의사, 간호사, 임상 병리사, 의료 영상 전문가 등이 될 수 있으며, 의료 장치를 수리하는 기술자가 될 수 있으나, 이에 한정되지는 않는다.
아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
도 1a는 종래의 의료 기기를 통한 대상체 검진 방법의 일 예를 도시한다.
도 1a에 도시된 바와 같이, 사용자는 초음파 진단 장치의 프로브(120)를 이용하여 대상체(10)를 검진할 수 있다. 다시 말해서, 사용자는 프로브(120)와 컨트롤패널(130)을 조작하여 디스플레이부(110)를 통하여 대상체(10)에 대한 촬영 영상을 획득할 수 있다. 대상체(10)에 대한 진단을 정확히 하기 위하여는 대상체(10)에 대한 정밀한 촬영 영상 획득이 선행되어야 한다.
사용자의 의료 기기를 다루는 숙련도에 따라 대상체(10)에 대하여 비교적 정밀한 촬영 영상이 획득될 수 있다. 그러나 대상체의 소정의 부위(예컨대, 간, 신장 등)에 대한 촬영 시 숙련된 사용자라 하더라도 사용자의 자세 등 의료 기기의 사용 위치에 따라 조작의 불편함을 겪을 수도 있고, 정밀한 촬영 영상 획득이 어려울 수도 있다. 예를 들어, 대상체의 촬영 부위, 대상체가 위치한 높이, 사용자의 오른손 또는 왼손 사용 선호도, 소정의 검진 항목에서 소정의 버튼의 사용 빈도 등에 따라 의료 기기 활용 용이성은 숙련도에 무관할 수 있다.
예를 들어, 넓은 범위에서 프로브(120)를 움직여서 촬영을 해야 할 경우, 사용자의 신체적 특징 또는 행동적 특징에 따라 컨트롤 패널(130)의 조작이 어려울 수 있다. 다시 말해서, 프로브(120)를 상, 하, 좌, 우 등으로 조작함에 따라 사용자의 자세도 변경될 것이고, 컨트롤 패널(130) 등을 원활하게 조작하기 위하여 사용자는 자세를 재차 수정해야 할 수 있다. 또한, 컨트롤 패널(130) 등의 고정적인 높이, 위치 등은 사용자로 하여금 조작의 불편함을 느끼게 할 수도 있다.
또한, 사용자의 움직임에 따라 사용자가 디스플레이부(110)를 측면에서 바라볼 수 밖에 없게 되는 경우 등과 같이 사용자의 시선(140)이 변경되는 경우, 대상체에 대한 정밀한 영상 획득 또는 판독이 어려울 수 있다.
따라서, 종래에 비하여 사용자가 의료 기기를 사용하는 위치에 따라 의료 기기의 촬영 환경을 자동으로 최적화함으로써, 사용자의 의료 기기 조작의 편의성을 증대시킬 필요가 있다. 또한, 이러한 의료 기기의 촬영 환경의 최적화는, 대상체에 대한 정밀한 촬영이 가능하고, 촬영 시간을 단축시킬 수 있다는 효과가 있다.
본 발명의 구체적인 실시예를 설명하기 앞서, 본 발명의 일 실시예와 관련된 초음파 진단 장치의 예시적인 구성에 대하여 도 1b 및 도 1c를 참조하여 이하에서 먼저 설명한다. 설명의 편의상 장치의 각각의 구성요소에 대하여 참조표시(r)를 부가하였다.
도 1b는 본 발명의 일 실시예와 관련된 초음파 진단 장치(r1000)의 구성을 도시한 블록도이다.
본 발명의 일 실시예와 관련된 초음파 진단 장치(r1000)는 프로브(r20), 초음파 송수신부(r100), 영상 처리부(r200), 통신부(r300), 메모리(r400), 입력 디바이스(r500), 및 제어부(r600)를 포함할 수 있으며, 상술한 여러 구성들은 버스(r700)를 통해 서로 연결될 수 있다.
초음파 진단 장치(r1000)는 카트형뿐만 아니라 휴대형으로도 구현될 수 있다. 휴대형 초음파 진단 장치의 예로는 팩스 뷰어(PACS viewer), 스마트 폰(smart phone), 랩탑 컴퓨터, PDA, 태블릿 PC 등이 있을 수 있으나, 이에 제한되지 않는다.
프로브(r20)는, 초음파 송수신부(r100)로부터 인가된 구동 신호(driving signal)에 따라 대상체(r10)로 초음파 신호를 송출하고, 대상체(r10)로부터 반사된 에코 신호를 수신한다. 프로브(r20)는 복수의 트랜스듀서를 포함하며, 복수의 트랜스듀서는 전달되는 전기적 신호에 따라 진동하며 음향 에너지인 초음파를 발생시킨다. 또한, 프로브(r20)는 초음파 진단 장치(r1000)의 본체와 유선 또는 무선으로 연결될 수 있으며, 초음파 진단 장치(r1000)는 구현 형태에 따라 복수 개의 프로브(r20)를 구비할 수 있다.
송신부(r110)는 프로브(r20)에 구동 신호를 공급하며, 펄스 생성부(r112), 송신 지연부(r114), 및 펄서(r116)를 포함한다.
펄스 생성부(r112)는 소정의 펄스 반복 주파수(PRF, Pulse Repetition Frequency)에 따른 송신 초음파를 형성하기 위한 펄스(pulse)를 생성하며, 송신 지연부(r114)는 송신 지향성(transmission directionality)을 결정하기 위한 지연 시간(delay time)을 펄스에 적용한다. 지연 시간이 적용된 각각의 펄스는, 프로브(r20)에 포함된 복수의 압전 진동자(piezoelectric vibrators)에 각각 대응된다.
펄서(r116)는, 지연 시간이 적용된 각각의 펄스에 대응하는 타이밍(timing)으로, 프로브(r20)에 구동 신호(또는, 구동 펄스(driving pulse))를 인가한다.
수신부(r120)는 프로브(r20)로부터 수신되는 에코 신호를 처리하여 초음파 데이터를 생성하며, 증폭기(r122), ADC(아날로그 디지털 컨버터, Analog Digital converter)(r124), 수신 지연부(r126), 및 합산부(r128)를 포함할 수 있다.
증폭기(r122)는 에코 신호를 각 채널(channel) 마다 증폭하며, ADC(r124)는 증폭된 에코 신호를 아날로그-디지털 변환한다.
수신 지연부(r126)는 수신 지향성(reception directionality)을 결정하기 위한 지연 시간을 디지털 변환된 에코 신호에 적용하고, 합산부(r128)는 수신 지연부(r166)에 의해 처리된 에코 신호를 합산함으로써 초음파 데이터를 생성한다.
영상 처리부(r200)는 초음파 송수신부(r100)에서 생성된 초음파 데이터에 대한 주사 변환(scan conversion) 과정을 통해 초음파 영상을 생성하고 디스플레이한다.
한편, 초음파 영상은 A 모드(amplitude mode), B 모드(brightness mode) 및 M 모드(motion mode)에 따라 대상체를 스캔한 그레이 스케일(gray scale)의 초음파 영상뿐만 아니라, 대상체의 움직임을 도플러 영상으로 나타낼 수 있다. 도플러 영상은, 혈액의 흐름을 나타내는 혈류 도플러 영상 (또는, 컬러 도플러 영상으로도 불림), 조직의 움직임을 나타내는 티슈 도플러 영상, 및 대상체의 이동 속도를 파형으로 표시하는 스펙트럴 도플러 영상을 포함할 수 있다.
B 모드 처리부(r212)는, 초음파 데이터로부터 B 모드 성분을 추출하여 처리한다.
영상 생성부(r220)는, B 모드 처리부(r212)에 의해 추출된 B 모드 성분에 기초하여 신호의 강도가 휘도(brightness)로 표현되는 초음파 영상을 생성할 수 있다.
마찬가지로, 도플러 처리부(r214)는, 초음파 데이터로부터 도플러 성분을 추출하고, 영상 생성부(r220)는 추출된 도플러 성분에 기초하여 대상체의 움직임을 컬러 또는 파형으로 표현하는 도플러 영상을 생성할 수 있다.
일 실시 예에 의한 영상 생성부(r220)는, 볼륨 데이터에 대한 볼륨 렌더링 과정을 거쳐 3차원 초음파 영상을 생성할 수 있으며, 압력에 따른 대상체(r10)의 변형 정도를 영상화한 탄성 영상 또한 생성할 수도 있다. 나아가, 영상 생성부(r220)는 초음파 영상 상에 여러 가지 부가 정보를 텍스트, 그래픽으로 표현할 수도 있다. 한편, 생성된 초음파 영상은 메모리(r400)에 저장될 수 있다.
디스플레이부(r230)는 생성된 초음파 영상을 표시 출력한다. 디스플레이부(r230)는, 초음파 영상뿐 아니라 초음파 진단 장치(r1000)에서 처리되는 다양한 정보를 GUI(Graphic User Interface)를 통해 화면 상에 표시 출력할 수 있다. 한편, 초음파 진단 장치(r1000)는 구현 형태에 따라 둘 이상의 디스플레이부(r230)를 포함할 수 있다.
통신부(r300)는, 유선 또는 무선으로 네트워크(r30)와 연결되어 외부 디바이스나 서버와 통신한다. 통신부(r300)는 의료 영상 정보 시스템(PACS, Picture Archiving and Communication System)을 통해 연결된 병원 서버나 병원 내의 다른 의료 장치와 데이터를 주고 받을 수 있다. 또한, 통신부(r300)는 의료용 디지털 영상 및 통신(DICOM, Digital Imaging and Communications in Medicine) 표준에 따라 데이터 통신할 수 있다.
통신부(r300)는 네트워크(r30)를 통해 대상체의 초음파 영상, 초음파 데이터, 도플러 데이터 등 대상체의 진단과 관련된 데이터를 송수신할 수 있으며, CT, MRI, X-ray 등 다른 의료 장치에서 촬영한 의료 영상 또한 송수신할 수 있다. 나아가, 통신부(r300)는 서버로부터 환자의 진단 이력이나 치료 일정 등에 관한 정보를 수신하여 대상체의 진단에 활용할 수도 있다. 나아가, 통신부(r300)는 병원 내의 서버나 의료 장치뿐만 아니라, 의사나 환자의 휴대용 단말과 데이터 통신을 수행할 수도 있다.
통신부(r300)는 유선 또는 무선으로 네트워크(r30)와 연결되어 서버(r32), 의료 장치(r34), 또는 휴대용 단말(r36)과 데이터를 주고 받을 수 있다. 통신부(r300)는 외부 디바이스와 통신을 가능하게 하는 하나 이상의 구성 요소를 포함할 수 있으며, 예를 들어 근거리 통신 모듈(r310), 유선 통신 모듈(r320), 및 이동 통신 모듈(r330)을 포함할 수 있다.
근거리 통신 모듈(r310)은 소정 거리 이내의 근거리 통신을 위한 모듈을 의미할 수 있다. 본 발명의 일 실시 예에 따른 근거리 통신 기술에는 무선 랜(Wireless LAN), 와이파이(Wi-Fi), 블루투스, 지그비(zigbee), WFD(Wi-Fi Direct), UWB(ultra wideband), 적외선 통신(IrDA, infrared Data Association), BLE (Bluetooth Low Energy), NFC(Near Field Communication) 등이 있을 수 있으나, 이에 한정되는 것은 아니다.
유선 통신 모듈(r320)은 전기적 신호 또는 광 신호를 이용한 통신을 위한 모듈을 의미하며, 일 실시 예에 의한 유선 통신 기술에는 페어 케이블(pair cable), 동축 케이블, 광섬유 케이블, 이더넷(ethernet) 케이블 등이 포함될 수 있다.
이동 통신 모듈(r330)은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
메모리(r400)는 초음파 진단 장치(r1000)에서 처리되는 여러 가지 정보를 저장한다. 예를 들어, 메모리(r400)는 입/출력되는 초음파 데이터, 초음파 영상 등 대상체의 진단에 관련된 의료 데이터를 저장할 수 있고, 초음파 진단 장치(r1000) 내에서 수행되는 알고리즘이나 프로그램을 저장할 수도 있다.
메모리(r400)는 플래시 메모리, 하드디스크, EEPROM 등 여러 가지 종류의 저장매체로 구현될 수 있다. 또한, 초음파 진단 장치(r1000)는 웹 상에서 메모리(r400)의 저장 기능을 수행하는 웹 스토리지(web storage) 또는 클라우드 서버를 운영할 수도 있다.
입력 디바이스(r500)는, 사용자로부터 초음파 진단 장치(r1000)를 제어하기 위한 데이터를 입력받는 수단을 의미한다. 입력 디바이스(r500)는 키 패드, 마우스, 터치 패널, 터치 스크린, 트랙볼, 조그 스위치 등 하드웨어 구성을 포함할 수 있으나 이에 한정되는 것은 아니며, 심전도 측정 모듈, 호흡 측정 모듈, 음성 인식 센서, 제스쳐 인식 센서, 지문 인식 센서, 홍채 인식 센서, 깊이 센서, 거리 센서 등 다양한 입력 수단을 더 포함할 수 있다.
제어부(r600)는 초음파 진단 장치(r1000)의 동작을 전반적으로 제어할 수 있다. 즉, 제어부(r600)는 도 1에 도시된 프로브(r20), 초음파 송수신부(r100), 영상 처리부(r200), 통신부(r300), 메모리(r400), 및 입력 디바이스(r500) 간의 동작을 제어할 수 있다.
프로브(r20), 초음파 송수신부(r100), 영상 처리부(r200), 통신부(r300), 메모리(r400), 입력 디바이스(r500) 및 제어부(r600) 중 일부 또는 전부는 소프트웨어 모듈에 의해 동작할 수 있으나 이에 제한되지 않으며, 상술한 구성 중 일부가 하드웨어에 의해 동작할 수도 있다.
또한, 초음파 송수신부(r100), 영상 처리부(r200), 및 통신부(r300) 중 적어도 일부는 제어부(r600)에 포함될 수 있으나, 이러한 구현 형태에 제한되지는 않는다.
도 1c는 본 발명의 일 실시예와 관련된 무선 프로브(r2000)의 구성을 도시한 블록도이다.
무선 프로브(r2000)는, 도 1b에서 설명한 바와 같이 복수의 트랜스듀서를 포함하며, 구현 형태에 따라 도 1b의 초음파 송수신부(r100)의 구성을 일부 또는 전부 포함할 수 있다.
도 1c에 도시된 실시 예에 의한 무선 프로브(r2000)는, 송신부(r2100), 트랜스듀서(r2200), 및 수신부(r2300)를 포함하며, 각각의 구성에 대해서는 1에서 설명한 바 있으므로 자세한 설명은 생략한다. 한편, 무선 프로브(r2000)는 그 구현 형태에 따라 수신 지연부(r2330)와 합산부(r2340)를 선택적으로 포함할 수도 있다.
무선 프로브(r2000)는, 대상체(r10)로 초음파 신호를 송신하고 에코 신호를 수신하며, 초음파 데이터를 생성하여 도 1의 초음파 진단 장치(r1000)로 무선 전송할 수 있다.
도 2는 본 발명의 일 실시예에 따른 의료 기기를 통한 대상체의 검진 시 사용되는 사용자 인터페이스(UI; User Interface)를 사용자의 모션 정보에 기초하여 변경시켜 제공하기 위한 방법의 개략도이다.
도 2a에서와 같이, 프로브(1200) 연결선의 움직임 방향을 감지하여 사용자가 왼손으로 프로브(1200)를 사용하는지 또는 오른손으로 프로브(1200)를 사용하는지를 파악할 수 있다. 예를 들어, 사용자가 왼손잡이라면, 왼손으로 프로브(1200)를 사용할 수 있다. 마찬가지로, 사용자가 오른손잡이라면, 오른손으로 프로브(1200)를 사용할 수 있다.
이와 같이 사용자의 프로브(1200) 사용 양상에 따라, 컨트롤 패널 상에서 사용자 인터페이스(UI) 등이 각각 다르게 제공될 수 있다.
예를 들어, 도 2b에 도시된 바와 같이, 사용자가 오른손 잡이인 경우, 사용자는 대상체를 자신의 오른편에 위치시키고, 오른손을 이용하여 프로브를 조작하는 것이 편리할 수 있다. 그러므로, 사용자가 오른손 잡이인 경우, 컨트롤 패널 상에 포함되어 촬영 시 사용될 버튼, 트랙볼 등이 오른손용 UI 패턴(131)으로써 제공될 필요가 있다.
또한, 사용자가 왼손 잡이인 경우, 사용자는 대상체를 자신의 왼편에 위치시키고, 왼손을 이용하여 프로브를 조작하는 것이 편리할 수 있다. 다시 말해서, 사용자가 왼손 잡이인 경우, 컨트롤 패널 상에서는 사용자에게 왼손용 UI 패턴(133)이 제공될 수 있다.
또한, 컨트롤 패널 상의 이러한 오른손용 UI 패턴(131)과 왼손용 UI 패턴(133)은 프로브(1200)의 현재의 위치, 위치 변경 등을 포함하는 사용자의 모션 정보에 기초하여 전환될 수 있다.
도 3은 본 발명의 일 실시예에 따른 사용자의 모션 정보에 기초하여 사용자 인터페이스(UI; User Interface)를 변경시켜 제공하기 위한 방법을 나타낸 흐름도이다.
본 발명의 일 실시예에 따른 의료 기기를 통한 대상체의 검진 시 사용되는 사용자 인터페이스(UI; User Interface)를 사용자의 모션 정보에 기초하여 변경시켜 제공하기 위한 방법은, 사용자의 모션 정보를 획득하는 단계(S100), 획득된 사용자의 모션 정보를 이용하여 UI를 변경하는 단계(S200) 및 변경된 UI를 디스플레이하는 단계(S300)를 포함할 수 있다.
본 발명의 일 실시예에 따라 사용자의 모션 정보를 획득할 수 있다(S100).
획득된 모션 정보를 이용하여 촬영에 사용될 버튼, 트랙볼 등을 나타내는 사용자 인터페이스(UI) 등을 변경할 수 있다(S200). 이러한 사용자 인터페이스(UI) 등의 변경은 사용자가 의료 기기를 용이하게 조작할 수 있도록 의료 기기 촬영 환경을 최적화하는 것을 포함할 수 있다.
사용자 인터페이스(UI) 등의 변경은, 전술한 바와 같이, 예를 들어, 사용자의 왼손 또는 오른손 선호도에 따라 UI의 배치를 달리하거나, 촬영에 사용되는 버튼의 사용 빈도에 따라 UI의 배치, 크기 등을 조절하여 제공할 수 있다.
본 발명의 일 실시예에 따라 변경된 UI는 디스플레이부 등을 통하여 사용자에게 제공될 수 있다(S300).
본 발명의 일 실시예에 따른 사용자의 모션 정보는 프로브의 위치, 사용자의 생체 정보 등으로부터 획득될 수 있다. 이와 관련하여서는 도 4 및 도 5와 관련하여 후술한다.
도 4는 본 발명의 일 실시예에 따른 사용자의 모션 정보 획득의 일 예를 도시한다.
본 발명의 일 실시예에 따른 사용자의 모션 정보는 현재의 프로브(1200)의 위치 정보에 기초하여 획득될 수 있다.
본 발명의 일 실시예에 따른 현재 프로브(1200)의 위치 정보는 프로브(1200)의 현재의 지시방향, 소정의 기준 지점에 대한 경사각 및 높이값 중 적어도 하나를 포함할 수 있다.
예를 들어, 현재의 프로브(1200)의 위치 정보는 프로브(1200)의 지시 방향에 따라 획득될 수 있다. 예컨대, 프로브(1200)에 포함(예컨대, 초음파 기기와의 연결을 위한 프로브의 단부에 포함 등)되거나 또는 프로브(1200)가 연결될 초음파 기기에 매립(embedded)된 소정의 센서(121) 등을 통하여 프로브(1200)의 현재의 지시 방향 정보가 획득될 수 있다.
이러한 소정의 센서(121)는, 기준선(예컨대, 센서(121)의 중심선(ML))으로부터 프로브(1200) 연결선이 어느 방향을 지향하는 지에 따라 프로브(1200)의 지시 방향을 판단하도록 구성될 수 있다.
예컨대, 토글 스위치 원리와 같은 방식의 센서(121) 등을 통하여 프로브(1200)의 지시 방향을 결정할 수 있다. 도 4a에 도시된 바와 같이, 프로브(1200)가 중심선(ML)으로부터 오른쪽으로 편향되어 있다면, 현재 프로브(1200)의 위치 정보는 디스플레이부(2300)과 컨트롤 패널(2500)을 포함하는 초음파 기기의 오른편을 지시하고 있다고 결정될 수 있다. 다시 말해서, 프로브(1200)는 초음파 기기의 오른편에 위치한다는 정보가 획득될 수 있다.
또한, 도 4a에 도시된 바와 같이, 프로브(1200)가 중심선(ML)으로부터 왼쪽으로 편향되어 있다면, 현재 프로브(1200)의 위치 정보는 디스플레이부(2300)과 컨트롤 패널(2500)을 포함하는 초음파 기기의 왼편을 지시하고 있다고 결정될 수 있다. 다시 말해서, 프로브(1200)는 초음파 기기의 왼편에 위치한다는 정보가 획득될 수 있다.
또한, 본 발명의 일 실시예에 따른 프로브(1200)가 무선인 경우, 소정의 센서(121)는, 무선 통신을 통하여 무선 프로브의 GPS(Global Positioning System) 좌표를 센싱하도록 구성될 수 있다.
또한, 본 발명의 일 실시예에 따라 현재 프로브(1200)의 위치 정보는 소정의 기준 지점에 대한 경사각 및 높이값 중 적어도 하나를 포함할 수 있다.
도 4b에 도시된 바와 같이, 프로브(1200)는 기울기 정보 또는 높이 정보를 획득하기 위한 센서(123) 등을 포함할 수 있다. 이러한 센서(123)는, 자이로 센서, 높이 센서 등을 포함할 수 있다.
예를 들어, 현재 프로브(1200)의 위치 정보는 소정의 기준 지점에 대한 경사각 정보로서 획득될 수 있다. 소정의 기준 지점은 의료 기기가 위치한 지면, 환자 테이블 또는 프로브(1200)의 최초 위치(예컨대, 초음파 기기 상에 부착되어 있는 상태의 위치 등) 등을 포함할 수 있다.
이러한 경사각 정보에 상응하게 사용자의 현재 모션이 추정될 수 있다. 예를 들면, 경사각의 변화 폭이 커질수록 프로브(1200)의 움직임 정도가 점점 증가한다고 추정될 수 있고, 추정된 프로브(1200)의 움직임에 기초하여 프로브(1200)를 조작중인 사용자의 움직임 각도 범위 등에 대한 모션 정보가 획득될 수 있다.
예를 들면, 지면(또는 환자 테이블)과 프로브(1200)는 최대 90도의 각도(예컨대, 프로브(1200)가 지면에 수직하게 위치하는 경우)를 이룰 수 있다. 사용자는 촬영이 진행됨에 따라 프로브(1200)를 소정의 방향 및 각도로 이동시킬 수 있다. 프로브(1200)와 지면이 이루는 각도는 소정의 범위(예컨대, 0도 내지 90도) 내에 포함될 수 있다. 예를 들어, 사용자가 대상체의 간 초음파를 촬영하고자 할 경우, 프로브(1200)는 사용자 조작에 따라 지면과 평행(예컨대, 프로브(1200)와 지면은 0도의 각을 이룸)하거나 수직(예컨대, 프로브(1200)와 지면이 90도 각을 이룸)을 이루는 범위 내에서 이동될 수 있다.
다시 말해서, 프로브(1200)가 지면과 평행한 상태에서 프로브(1200)와 지면이 수직인 상태로 프로브(1200)를 이동시킬 경우, 경사각의 변화 폭은 최대가 될 수 있고, 프로브(1200)의 움직임 정도도 최대라고 추정될 수 있으며, 이러한 추정된 프로브(1200)의 움직임에 기초하여 프로브(1200)를 조작중인 사용자의 움직임 정도도 최대라는 모션 정보가 획득될 수 있다.
또한, 이와 유사하게 초음파 기기 상에 프로브(1200)가 부착되어 있던 초기 상태의 위치로부터의 경사각이 현재 프로브(1200)의 위치 정보로서 획득될 수 있다.
예를 들어, 본 발명의 일 실시예에 따른 센서(123)는, 센서(123)를 기준으로 오른쪽 또는 동편으로의 방위는 양의 각도로 표현되고, 왼쪽 또는 서편으로의 방위는 음의 각도로 표현되도록 구성될 수 있지만 반드시 이에 제한되는 것은 아니다.
이에 따라, 프로브(1200)가 최초 위치로부터 현재 오른쪽으로 편향되어 존재하는 경우, 센서(123) 상에서 양의 경사각이 센싱될 수 있고, 현재 프로브(1200)는 센서(123)의 우측에 센싱된 경사각도의 위치에서 존재한다는 정보가 획득될 수 있다. 또한, 프로브(1200)가 최초 위치로부터 현재 왼쪽으로 편향되어 존재하는 경우, 센서(123) 상에서 음의 경사각이 센싱될 수 있고, 현재 프로브(1200)는 센서(123)의 좌측에 센싱된 경사각도의 위치에 존재한다는 정보가 획득될 수 있다.
또한, 현재 프로브(1200)의 위치 정보는 소정의 기준 지점에 대한 높이값 정보로서 획득될 수 있다. 소정의 기준 지점은 지면, 환자 테이블 또는 프로브(1200)의 최초 위치(예컨대, 초음파 기기 상에 부착된 상태의 위치 등) 등을 포함할 수 있다. 이러한 경우, 소정의 센서(123)는, 높이 센서일 수 있다.
예를 들면, 센서(123)는, 현재 프로브(1200)가 지면으로부터 약 120cm의 높이에 위치하고 있다는 정보를 센싱할 수 있다. 또한, 센서(123)는, 프로브(1200)가 예컨대, 초음파 기기 상에 부착된 초기 상태에 비하여 현재 약 5cm정도 낮게 위치하고 있음을 센싱할 수 있다. 다시 말해서, 이러한 소정의 기준 지점에 대한 높이값 정보는, 현재 프로브(1200)의 위치 정보로서 획득될 수 있다.
본 발명의 일 실시예에 따른 프로브(1200)의 높이값 정보(예컨대, 높이의 변화 정도 등)에 기초하여 프로브(1200)를 조작중인 사용자의 자세의 높낮이 변화 정도를 나타내는 모션 정보가 획득될 수 있다.
도 5는 본 발명의 다른 실시예에 따라 획득되는 사용자의 모션 정보의 예를 도시한다.
본 발명의 일 실시예에 따른 사용자 모션 정보는, 사용자의 지문 정보, 사용자의 홍채 정보, 사용자의 안면 정보 중 적어도 하나를 포함하는 생체 정보에 기초하여 획득될 수 있다.
본 발명의 일 실시예에 따른 사용자 모션 정보는 사용자의 지문 정보에 기초하여 획득될 수 있다.
예를 들어, 프로브(1200)에 포함된 센서(125)를 통하여 획득된 사용자의 지문 정보(11)에 기초하여, 사용자가 왼손 또는 오른손 중 현재 어느 손으로 프로브(1200)를 파지하였는지에 대하여 결정할 수 있다.
다시 말해서, 프로브(1200)에 포함된 센서(125)를 통하여 획득한 사용자의 지문 정보(11)로부터 사용자가 프로브(1200)를 왼손으로 사용하는지 또는 오른손으로 사용하는지에 대한 모션 정보를 획득할 수 있다.
예컨대, 획득된 사용자의 지문 정보(11)가 사용자의 오른손 엄지 또는 검지에 대한 지문이라면, 사용자는 현재 프로브(1200)를 오른손으로 파지하고 있는 것으로 결정되고, 사용자의 오른손으로 프로브(1200) 사용이라는 모션 정보가 획득될 수 있다.
또한, 획득된 사용자의 지문 정보(11)가 사용자의 왼손 엄지 또는 검지에 대한 지문이라면, 사용자는 현재 프로브(1200)를 왼손으로 파지하고 있는 것으로 결정되고, 사용자의 왼손으로 프로브(1200) 사용이라는 모션 정보가 획득될 수 있다.
또한, 본 발명의 일 실시예에 따르면, 프로브(1200)에 포함된 센서(125)를 통하여 획득된 사용자의 지문 정보(11)에 기초하여 현재 프로브를 사용중인 사용자가 누구인지를 식별할 수 있다. 이러한 경우, 사용자의 지문 정보(11)는 사용자 식별 정보(예컨대, ID 등)로서 활용될 수 있다.
본 발명의 일 실시예에 따른 사용자 모션 정보는, 사용자의 홍채 정보(13), 사용자의 안면 정보(15) 중 적어도 하나에 기초하여 획득될 수 있다.
도 5에 도시된 바와 같이, 초음파 기기 상에 구비된 센서(111) 등을 통하여 사용자의 홍채 정보(13), 사용자의 안면 정보(15) 중 적어도 하나가 획득될 수 있다. 이러한 센서(111)는 초음파 기기의 디스플레이부(2300) 근방에 위치될 수 있지만, 반드시 이에 제한되는 것은 아니다.
또한, 이러한 센서(111)는 홍채 인식, 안면 인식 기능을 동시에 수행할 수 있거나 또는 홍채 인식 기능, 안면 인식 기능을 갖는 각각의 개별적인 센서로서 구현될 수 있다.
본 발명의 일 실시예에 따라, 센서(111)를 통하여 사용자의 홍채 정보(13)가 획득될 수 있다. 사용자의 홍채 정보(13)는 현재 사용자가 누구인지에 대한 사용자 식별 정보, 현재 사용자의 홍채의 현재 위치 등에 대한 정보를 포함할 수 있다. 예를 들어, 센서(111)를 통하여 사용자의 홍채를 판독함으로써, 현재 사용자가 누구인지에 대한 정보를 획득할 수 있다.
또한, 센서(111)를 통하여 획득된 홍채의 현재 위치 정보를 이용하여 사용자의 현재 시선을 결정하고, 사용자의 현재 시선에 기초하여 사용자의 모션 정보를 획득할 수 있다. 다시 말해서, 사용자의 눈에서 홍채가 왼쪽으로 편향되어 위치하는지 여부 또는 오른쪽으로 편향되어 위치하는지 여부에 따라서 사용자의 현재의 자세에 대한 정보를 획득할 수 있지만, 반드시 이에 제한되는 것은 아니다.
예를 들면, 사용자의 눈에서 홍채가 대체로 왼쪽으로 편향되어 위치하는 경우, 사용자의 상체가 오른쪽을 지향하고 있다고 판단될 수 있다. 다시 말해서, 사용자가 현재 오른손으로 프로브(1200) 등을 조작하고 있다고 판단될 수 있다.
이와 유사하게, 사용자의 눈에서 홍채가 대체로 오른쪽으로 편향되어 위치하는 경우, 사용자의 상체가 왼쪽을 지향하고 있다고 판단될 수 있다. 사용자가 현재 왼손으로 프로브(1200) 등을 조작하고 있다고 판단될 수 있다.
본 발명의 일 실시예에 따라, 센서(111)를 통하여 사용자의 안면 정보(15)가 획득될 수 있다. 사용자의 안면 정보(15)는 현재 사용자가 누구인지에 대한 사용자 식별 정보, 사용자의 현재 안면 방향 등에 대한 정보를 포함할 수 있다. 예를 들어, 센서(111)를 통하여 사용자의 안면 특징점, 안면 윤곽선 등을 판독함으로써, 현재 사용자가 누구인지에 대한 정보를 획득할 수 있다.
또한, 센서(111)를 통하여 획득된 사용자의 안면 방향 정보를 이용하여 사용자의 주(main) 안면을 결정하고, 사용자의 주 안면에 기초하여 사용자의 모션 정보를 획득할 수 있다. 다시 말해서, 사용자의 안면 면적에 기초하여 사용자의 현재의 주 안면을 결정하고, 결정된 주 안면으로부터 사용자의 현재의 자세에 대한 정보를 획득할 수 있다.
예를 들면, 사용자의 오른쪽 안면과 왼쪽 안면의 면적을 비교하여, 왼쪽 안면의 면적이 더 넓은 경우, 사용자의 상체가 오른쪽을 지향하고 있다고 판단될 수 있다. 다시 말해서, 사용자가 현재 오른손으로 프로브(1200) 등을 조작하고 있다고 판단될 수 있다.
이와 유사하게, 사용자의 오른쪽 안면과 왼쪽 안면의 면적을 비교하여, 오른쪽 안면의 면적이 더 넓은 경우, 사용자의 상체가 왼쪽을 지향하고 있다고 판단될 수 있다. 다시 말해서, 사용자가 현재 왼손으로 프로브(1200) 등을 조작하고 있다고 판단될 수 있다.
또한, 사용자의 홍채 정보(13) 및 사용자의 안면 정보(15)를 이용하여 사용자의 모션 정보가 획득될 수 있다. 예를 들어, 사용자의 오른쪽 안면과 왼쪽 안면의 면적을 비교하였지만, 어느 쪽 안면의 면적이 더 넓은지 명확히 구분할 수 없는 경우에, 전술한 방법과 같이 사용자의 홍채 정보를 추가로 고려하여 사용자의 모션 정보를 획득할 수도 있다.
도 6은 본 발명의 일 실시예에 따라 변경되어 제공 가능한 사용자 인터페이스(UI)의 일 예를 도시한다.
도 6에서와 같이 본 발명의 일 실시예에 따라 의료 기기에서의 동작 기능을 표시하는 사용자 인터페이스(UI)(예컨대, 611 내지 615)가 디스플레이 되어 제공될 수 있다.
본 발명의 일 실시예에 따른 UI는 대상체의 검진 시 사용될 기능을 나타낸 단축 버튼, 스위치, 키보드 및 트랙볼 중 적어도 하나를 포함할 수 있다.
본 발명의 일 실시예에 따른 사용자 인터페이스(UI)는, 대상체의 촬영과 관련하여 문자, 숫자 등을 입력할 수 있는 키보드(611) 형태의 UI, 영상의 확대/축소, 해상도 조절, 2D 영상과 3D 영상 간의 전환 등 소정의 기능을 나타낸 적어도 하나의 버튼 또는 스위치(613) 형태의 UI, 트랙볼(615) 형태의 UI 등을 포함할 수 있다.
전술한 키보드(611) 형태의 UI, 적어도 하나의 버튼 또는 스위치(613) 형태의 UI 및 트랙볼(615) 형태의 UI 중 적어도 하나는 가상의 UI 레이아웃(virtual UI layout)으로서 제공될 수 있다.
다시 말해서, 본 발명의 일 실시예에 따른 사용자 인터페이스(UI)는 반드시 항상 물리적으로 일정한 형태로만 존재해야 하는 것은 아니고, 디스플레이부(2300) 또는 컨트롤 패널(2500) 상에서 문자, 숫자, 이미지 등의 형태로 소정의 기능을 나타내도록 가상(virtual)으로 존재할 수 있다.
도 7은 본 발명의 일 실시예에 따라 사용자의 모션 정보에 기초하여 사용자 인터페이스(UI)가 변경되어 제공되는 양상을 도시한다. 설명의 편의상 사용자 인터페이스(UI)를 도 7과 같이 간략화하여 나타낸다.
본 발명의 일 실시예에 따라 획득된 사용자의 모션 정보를 이용하여 UI를 변경하는 단계(S200)는, 획득된 사용자의 모션 정보에 따라 UI의 모양, 크기 및 위치 중 적어도 하나를 변경하는 단계를 포함할 수 있다.
도 7a에 도시된 바와 같이, 획득된 사용자의 모션 정보에 따라 UI의 모양이 변경될 수 있다.
예를 들어, 프로브(1200)의 움직임 범위가 매우 넓어진 경우, 다시 말해서 사용자의 움직임이 많아진 경우, 사용자 인터페이스(UI)(611 내지 615)로의 사용자의 터치가 불편할 수 있다. 다시 말해서, 사용자의 손이 사용자 인터페이스(UI)까지 닿지 않거나, 또는 사용자가 UI를 조작하는데 어려움을 느낄 수도 있다.
이러한 경우, 본 발명의 일 실시예에서와 같이, 사용자 인터페이스(UI)의 모양 등을 변경하여 사용자의 편의성을 증대시킬 수 있다. 예를 들어, 도 6의 키보드(611) 형태의 UI, 버튼 또는 스위치(613) 형태의 UI 등을 간략화한 도 7의 UI(131의 1 내지 3)의 모양을 변경하여 제공(132)할 수 있다. 예컨대, 촬영 과정 동안에 사용자가 버튼 1 또는 버튼 3에 비하여 버튼 2를 더욱 자주 사용한다면, 사용자의 버튼 2에 대한 액세스 확률이 높아지도록 아랫변이 가장 긴 삼각형의 형태로 모양을 변경할 수 있다. 다시 말해서, 버튼 2의 면적이 버튼 1 또는 버튼 3보다 더 크도록 변경할 수 있다.
또한, 본 발명의 일 실시예에 따르면, 버튼 1 내지 3의 위치를 변경할 수도 있다. 예를 들어, 버튼 3, 버튼 1, 버튼 2의 순서로 배치되도록 UI를 변경할 수 있다. 이러한 경우, 버튼 1이 가장 사용 빈도가 높은 버튼일 수 있고, 버튼 1이 아랫변이 가장 긴 삼각형의 형태를 이룰 수 있지만, 버튼 등 UI의 변경 전후의 모양이 반드시 이에 제한되는 것은 아니다.
또한, 도 7b에 도시된 바와 같이, 획득된 사용자의 모션 정보에 따라 UI의 크기가 변경될 수 있다.
전술한 바와 같이, 사용자의 움직임이 많아진 경우 UI 패턴(131)의 버튼 등의 크기를 전체적으로 또는 부분적으로 증감시킴으로써, 사용자가 손쉽게 버튼 등의 UI에 액세스할 수 있도록 UI의 크기를 변경하여 제공(135)할 수 있다.
예를 들어, 버튼 1 내지 3의 크기를 증가시켜 제공함으로써, 사용자의 버튼의 접근성을 높일 수 있다. 또한, 이와 유사하게 버튼 1 내지 3의 위치가 사용자와 가깝도록 변경함으로써, 사용자의 버튼의 접근성을 높일 수 있다.
또한, 도 7c에 도시된 바와 같이, 사용자의 신체적 특징 등에 따라 상이한 패턴의 UI가 제공될 수 있다.
예를 들어, 사용자가 오른손 잡이인 경우, 오른손용 UI 패턴(131)이 제공될 수 있다. 또한, 사용자가 왼손 잡이인 경우, 왼손용 UI 패턴(133)이 제공될 수 있다. 이러한 오른손용 UI 패턴(131)과 왼손용 UI 패턴(133)은 서로 대칭될 수 있고, 전술한 바와 같이 사용자 모션 정보에 기초하여 상호 전환이 가능할 수 있다.
도 8은 본 발명의 다른 실시예에 따라 사용자의 모션 정보에 기초하여 사용자 인터페이스(UI)가 변경되어 제공되는 양상을 도시한다.
본 발명의 일 실시예에 따라 대상체의 검진 시 사용되는 기능의 빈도에 따라 UI는 모양, 크기 및 위치 중 적어도 하나가 상이하게 제공될 수 있다.
예를 들어, 도 6의 키보드(611) 형태의 UI, 버튼 또는 스위치(613) 형태의 UI 등을 간략화한 도 7의 UI 패턴(131)은 도 8b 및 도 8c에 도시된 바와 같이 대상체의 검진 시 사용되는 기능의 빈도에 따라 UI는 모양, 크기 및 위치 중 적어도 하나가 변경되어 제공(137 또는 139)될 수 있다. 설명의 편의상 도 8a의 UI 패턴(131)은 의료 기기에서 제공될 수 있는 기본 패턴으로 가정한다.
예를 들어, 소정의 검진 항목에서 트랙볼은 사용되지 않고, 1 내지 3으로 간략화하여 표시된 버튼형 UI 중 2번 버튼에 상응하는 기능이 가장 많이 사용될 수 있다. 이러한 경우, 도 8b에서와 같이, 기본 패턴(131)에서 트랙볼 기능의 원형 UI가 생략되고, 2번 버튼의 UI의 크기가 가장 크도록 변경되어 제공될 수 있다.
다시 말해서, 사용자에 의하여 사용되지 아니하거나 사용 빈도가 적은 UI는 생략하고, 사용 빈도가 높은 UI를 큰 크기로 제공함으로써, 의료 기기를 조작하는 사용자의 UI로의 접근성 및 편의성을 증대시킬 수 있다.
다른 예로서, 소정의 검진 항목에서 사용자가 트랙볼을 주로 사용하고, 버튼형 UI 중 3번 버튼(예를 들면, 확대/축소 기능 등)을 가장 많이 사용한다면, 도 8c에서와 같이, 기본 패턴(131)에서 트랙볼에 해당하는 원형의 UI와 버튼형 UI 중 3번 버튼의 크기를 크게 변경하여 제공(139)할 수 있다.
또한, 사용자의 손 모양과 유사하게 도 8c에서의 패턴(139)과 같이 방사형의 형태로 UI가 배치되어 제공될 수 있지만, 반드시 이에 제한되는 것은 아니다.
또한, 검사 종류에 따라 사용되는 기능의 빈도 수가 상이할 수 있으므로, 검사 종류에 따라 상이한 패턴의 UI를 제공할 수 있다.
예를 들면, 심장 초음파 검사, 간 초음파 검사, 복부 초음파 검사와 부인과 초음파(Pelvic Ultrasonography) 검사, 도플러 초음파 검사 등 각각의 검사 종류에 따라 초음파 기기에서 제공되는 기능의 사용 빈도 수가 상이할 수 있다. 예컨대, 심장 초음파 검사에서는 영상의 확대/축소 기능과 트랙볼 기능의 사용 빈도 수가 높은 반면에, 간 초음파 검사에서는 영상의 확대/축소 기능과 트랙볼 기능보다는 해상도의 조절 기능 등이 더 많이 사용될 수 있다.
다시 말해서, 심장 초음파 검사에서는 영상의 확대/축소 기능을 수행하는 UI와 트랙볼 기능을 수행하는 UI를 다른 UI에 비하여 비교적 크고, 컨트롤 패널(2500)의 중앙부 등에 위치시킬 수 있다.
이에 비하여, 간 초음파 검사에서는 영상의 확대/축소 기능의 UI와 트랙볼 기능의 UI의 크기를 줄이거나 생략할 수 있고, 컨트롤 패널(2500)의 중앙부 등에 해상도의 조절 기능을 수행하는 UI가 상대적으로 큰 크기로 배치되도록 UI 패턴을 변경할 수 있다.
도 9a는 본 발명의 일 실시예에 따른 사용자 인터페이스(UI)의 편집 예를 도시한다.
본 발명의 일 실시예에 따른 외부 입력 신호에 따라 UI는 편집 가능할 수 있다.
예를 들어, UI는 사용자 입력에 따라 추가, 삭제, 위치, 크기 변경이 가능하다. 또한, UI는 사용자 입력에 따라 언어, 글꼴, UI 표시 색깔 등의 변경이 가능하다.
예컨대, 사용자 입력에 따라 버튼형 UI의 위치 또는 크기가 변경될 수 있다.
도 9에 도시된 바와 같이, UI에 대한 사용자의 소정의 입력에 기초하여 UI의 위치 또는 크기가 변경될 수 있다. 본 발명의 일 실시예에 따른 사용자의 소정의 입력은 UI에 대한 적어도 1회의 클릭, 일정 시간 동안의 누름 중 적어도 하나를 포함할 수 있다. 또한 이러한 소정의 입력은 복수의 입력이 동시에 입력되는 경우도 포함할 수 있다.
예를 들면, 버튼형 UI 중 1번 버튼에 대하여 사용자 입력으로서 약 1초 내지 1.5초의 누름을 통하여 편집 개시 신호를 인가 받고, 1번 버튼을 목표하는 위치로의 드래그 앤 드롭(21) 신호를 인가 받음으로써 1번 버튼의 위치를 변경할 수 있다.
이러한 드래그 앤 드롭(21) 신호는 연속적인 사용자 입력 신호일 수 있다. 다시 말해서, 예컨대 1번 버튼에 대한 드래그 앤 드롭(21)의 사용자 입력 신호는 지속적으로(seamless) 인가되는 신호일 수 있다. 예를 들어, 원터치로 드래그 앤 드롭(21) 신호가 인가될 수 있지만, 반드시 이에 제한되는 것은 아니다.
또한, 예를 들면, 편집 개시 신호를 인가 받은 후, 1번 버튼의 경계선에 대한 소정의 방향으로의 드래그 신호를 인가 받음으로써, 1번 버튼을 확대 또는 축소할 수 있다.
또한, 예를 들어, 편집 개시 신호를 인가 받은 후, UI를 한번 더 클릭함으로써 해당 UI를 삭제할 수 있다.
또한, 예컨대, UI 이외의 빈 공간에 대하여 사용자로부터 인가된 수초(예컨대, 약 1초 내지 2초 등) 동안의 누름(23)을 통하여 UI 추가 개시 신호를 인가 받아 UI를 추가할 수 있다.
또한, 예를 들면, 기존의 UI 또는 새롭게 추가된 UI는 해당 UI에 대한 복수회의 클릭 또는 소정의 패턴(예컨대, 별 모양, 삼각형, 사각형 등) 입력 등을 포함하는 외부 입력 신호에 기초하여 해당 UI의 기능을 재설정할 수 있다. 다시 말해서, 소정의 패턴 또는 클릭 당 해당 UI에 적용 가능한 기능들(예컨대, 2D 영상과 3D 영상 간의 전환, 해상도 조정 등)이 해당 UI상에서 변경되어 표시될 수 있다.
또한, 본 발명의 다른 실시예에 따르면, 기존의 UI 또는 새롭게 추가된 UI에 적용 가능한 기능들이 미리 설정된 테이블 등의 형태로 제공될 수 있다.
예를 들어, 이러한 테이블 등이 팝업 형태로 제공될 수 있거나, 컨트롤 패널(2500) 등의 여백 등에 디스플레이되는 형태로 제공될 수 있다. UI에 대하여 적용 가능한 기능들이 제공되면, 사용자의 매칭 입력(예컨대, 순차 클릭, 드래그 앤 드롭 등)에 따라 기존의 UI 또는 새롭게 추가된 UI에 대한 기능이 재설정될 수 있지만, 반드시 이에 제한되는 것은 아니다.
이러한 UI와 기능간의 매칭의 순서는 사용자 입력에 따라 적용할 기능을 먼저 선택하고, 선택된 기능이 적용될 UI를 선택하는 방식, 또는 기능을 재설정할 UI를 먼저 선택하고, 선택된 UI에 적용될 기능을 선택하는 방식 중 어느 것을 따르더라도 무방하다.
이와 유사하게, 기존의 UI 또는 새롭게 추가된 UI에 표시된 언어, 글꼴, 색깔 등도 변경되어 표시될 수 있다. 다시 말해서, 사용자의 국적 선택을 위한 신호 등의 외부 입력 신호를 인가 받아 사용자의 사용 언어에 적합하도록 UI 상에 표시된 문자, 숫자 등을 변경할 수 있다.
또한, 사용자의 식별 정보를 포함하는 사용자 프로파일에 포함된 국적에 따라 UI에 표시된 언어가 자동으로 변경될 수도 있다.
또한, 미리 설정되어 제공 가능한 색채표 중에서 선택한 색깔로 UI 표시 색깔을 변경하기 위한 신호 등을 외부 입력 신호로서 수신하여, UI에 표시된 색깔을 변경할 수 있다.
도 9b는 본 발명의 일 실시예에 따라 변경된 사용자 인터페이스(UI)의 사용 예를 도시한다.
본 발명의 일 실시예에 따라 모션 정보에 기초하여 사용자 인터페이스(UI)가 변경되면, 사용자가 UI의 변경을 충분히 인식하지 못한 경우 사용자는 변경된 UI를 사용함에 있어서 혼동을 하거나 오작동을 일으킬 수 있다. 따라서, 본 발명의 일 실시예에 따라 변경된 UI에 대한 사용자의 UI 사용 상태를 나타냄으로써, 전술한 사용자의 혼동 또는 오작동을 방지할 수 있다.
이러한 사용자의 UI 사용 상태 제공은 실시간으로 이루어질 수 있다. 또한, 사용자의 UI 사용 상태는 문자, 숫자 등을 포함하는 이미지 및 음성 등의 소리 중 적어도 하나로 제공될 수 있다.
예를 들어, 소정의 기능을 수행하기 위하여 사용자에 의하여 사용되는 UI를 디스플레이부(2300) 등을 통하여 소정의 시간 동안 사용자에게 표시해줄 수 있다. 이러한 표시를 통하여 사용자는 현재 자신이 사용하고자 하는 UI가 무엇인지를 정확히 인식할 수 있다.
도 9b에 도시된 바와 같이, 변경된 UI (139)에 대하여 사용자가 2번 버튼 (예를 들어, 2D에서 3D로의 전환 기능)을 누른다면(91), 소정의 시간 동안 2번 버튼의 기능에 대한 정보(93)가 디스플레이부(2300)의 좌측 상단 등에 나타날 수 있다. 예를 들어, 사용자가 2번 버튼을 누르면(91), 약 1초 또는 1.5초 동안에 "2D→3D"의 기능 정보(93)가 디스플레이부(2300) 등에 디스플레이되었다가 사라질 수 있지만, 구현 형태가 반드시 이에 제한되는 것은 아니다.
또한, 도 9b에서와 같이, 사용자에 의한 2번 버튼의 누름(91)에 따라, 2번 버튼의 기능(예를 들어, 2D에서 3D로의 전환 기능)이 수행되어 대상체에 대한 3D 영상(115)이 획득될 수 있다.
또한, 사용자의 UI 사용 상태는 음성 등의 소리의 형태로 제공될 수 있다. 전술한 예에서와 같이, 사용자가 2번 버튼을 누르면, "2D에서 3D로 전환합니다"와 같이 사용자의 UI 사용 상태가 음성 메시지의 형태로 사용자에게 제공될 수 있다.
도 10은 본 발명의 일 실시예에 따라 사용자 인터페이스(UI)가 제공되는 양상을 도시한다.
본 발명의 일 실시예에 따른 UI는 대상체의 촬영 영상이 디스플레이되는 디스플레이부(2300) 및 디스플레이 기능이 구비된 컨트롤 패널(2500) 중 적어도 하나를 통하여 디스플레이될 수 있다.
휴대용 의료 기기의 필요성이 대두되고, 의료 기기의 소형화 추세로 인하여, 대상체에 대한 영상을 디스플레이하기 위한 화면과 컨트롤 패널 제공 화면이 하나의 터치 스크린 상에서 공존할 수 있다. 다시 말해서, 도 10a에 도시된 바와 같이, 대상체에 대한 영상(113)이 UI 패턴(131)과 동일한 화면(예를 들어, 디스플레이부(2300) 등) 상에서 제공될 수 있다.
다만, 이러한 일체형의 디스플레이의 사용은 먼지, 사용자의 지문 등과 같은 이물질로 인하여 대상체에 대한 촬영 영상 판독을 어렵게 할 수도 있다.
본 발명의 일 실시예에 따르면, 도 10b에 도시된 바와 같이, 변경되어 제공 가능한 UI는 촬영 영상의 디스플레이부 이외의 디스플레이 기능이 구비된 컨트롤 패널(2500)을 통하여 제공될 수 있다. 예를 들어, 촬영 영상은 디스플레이부(2300)을 통하여 사용자에게 제공될 수 있고, 소정의 UI 패턴(131)은 디스플레이 기능이 구비된 컨트롤 패널(2500)을 통하여 사용자에게 촬영 영상과 별도로 제공될 수 있다.
도 11은 본 발명의 다른 실시예에 따라 의료 기기의 동작을 제어하는 방법을 나타낸 흐름도이다. 도 12는 본 발명의 다른 실시예에 따른 의료 기기 동작 제어의 일 예를 도시한다.
본 발명의 일 실시예에 따른 방법은, 사용자의 모션 정보에 따라 컨트롤 패널의 높이 및 각도 중 적어도 하나를 조절하는 단계(S400)를 더 포함할 수 있다.
사용자의 의료 기기 편의성을 극대화하기 위하여, 사용자의 자세 등이 반영된 모션 정보에 기초하여 의료 기기의 소정의 컴포넌트(예컨대, 디스플레이부(2300), 컨트롤 패널(2500) 등)의 물리적 위치를 조절할 수 있다.
예를 들어, 대상체 촬영 전 사용자가 어떤 손으로 프로브를 파지했는지에 따라 의료 기기의 소정의 컴포넌트(예컨대, 디스플레이부(2300), 컨트롤 패널(2500) 등)의 위치가 자동으로 조정될 수 있다.
예컨대, 사용자가 오른손으로 프로브를 파지한 경우, 촬영 개시에 따라 사용자의 상체는 우향으로 변경될 확률이 매우 높다. 따라서, 사용자의 움직임으로부터 획득된 모션 정보에 따라 디스플레이부(2300), 컨트롤 패널(2500) 등을 사용자를 향하여 상, 하, 좌, 우, 수평 또는 수직, 소정의 각도로 이동시킬 수 있다. 다시 말해서, 디스플레이부(2300), 컨트롤 패널(2500) 등이 사용자와 마주하도록(또는 최대한 사용자의 정면에 위치하도록) 상, 하, 좌, 우, 수평 또는 수직, 소정의 각도로 이동시킬 수 있다.
또한, 대상체를 촬영 중인 사용자가 움직임으로써 획득될 수 있는 모션 정보에 기초하여 전술한 바와 같이, 디스플레이부(2300), 컨트롤 패널(2500) 등이 사용자와 마주하도록(또는 최대한 사용자의 정면에 위치하도록) 상, 하, 좌, 우, 수평 또는 수직, 소정의 각도로 이동될 수 있다.
도 12에 도시된 바와 같이, 프로브(1200)의 움직임에 상응하게 컨트롤 패널(2500)의 높이 및 각도 중 적어도 하나가 조절될 수 있다. 다시 말해서, 의료 기기의 소정의 컴포넌트(예컨대, 디스플레이부(2300), 컨트롤 패널(2500) 등)의 위치가 이동될 수 있음에 따라 사용자의 의료 기기의 조작 편의성이 더욱 증대될 수 있다.
도 13은 본 발명의 또 다른 실시예에 따라 변경된 UI를 관리하는 방법을 나타낸 흐름도이다.
본 발명의 일 실시예에 따른 방법은, 사용자의 식별 정보를 획득하는 단계(S500), 획득된 식별 정보에 따라 변경된 UI를 저장하는 단계(S600)를 더 포함할 수 있지만, 반드시 이에 제한되는 것은 아니다. 예를 들어, 사용자 식별 정보를 획득하는 단계(S500)는 사용자의 모션 정보를 획득하는 단계(S100) 이전에 수행될 수도 있다.
또한, 사용자 식별 정보를 획득하는 단계(S500)는 사용자의 모션 정보를 획득하는 단계(S100)와 동시에 수행될 수도 있다.
예를 들면, 전술한 바와 같이, 사용자의 지문 정보, 홍채 정보, 안면 정보 등이 획득됨과 동시에 이러한 사용자의 생체 정보를 포함하는 사용자 프로파일이 획득될 수 있다. 다시 말해서, 사용자 식별 정보는 사용자 생체 정보와 함께 사용자 프로파일에 포함될 수 있고, 이러한 사용자 프로파일은 데이터베이스의 형태로 미리 구축되어 있을 수 있다.
예를 들어, 사용자별 선호하는 UI 패턴, 또는 본 발명의 일 실시예에 따라 변경된 UI를 사용자 식별 정보(예컨대, ID 등)에 따라 저장해두고, 사용자는 이후 필요에 따라 자신의 식별 정보에 상응하는 저장된 UI 패턴 등을 로드하여 사용할 수도 있다.
다시 말해서, 사용자의 신체적 특징, 행동적 특징이 상이할 수 있으므로, 사용자 식별 정보에 따라 적합한 UI 패턴 또는 이전에 변경해둔 UI 패턴 등을 데이터베이스화 해두고, 사용자의 의료 기기 조작 시 해당 사용자의 식별 정보에 상응하는 UI 패턴을 로드하여 의료 기기의 촬영 환경을 설정함으로써, 촬영 시간을 단축시킬 수 있다.
도 14는 본 발명의 일 실시예에 따른 의료 기기를 통한 대상체의 검진 시 사용되는 사용자 인터페이스(UI; User Interface)를 사용자의 모션 정보에 기초하여 변경시켜 제공하기 위한 장치를 도시한다.
본 발명의 일 실시예에 따른 의료 기기를 통한 대상체의 검진 시 사용되는 사용자 인터페이스(UI; User Interface)를 사용자의 모션 정보에 기초하여 변경시켜 제공하기 위한 장치(2000)는, 사용자의 모션 정보를 획득하는 모션 정보 획득부(2100), 획득된 사용자의 모션 정보를 이용하여 UI를 변경하는 UI 변경부(2200) 및 변경된 UI의 디스플레이가 가능한 디스플레이부(2300)를 포함할 수 있다.
모션 정보 획득부(2100)에서는, 사용자가 왼손으로 프로브(1200)를 사용하는지 또는 오른손으로 프로브(1200)를 사용하는지 등을 나타내는 모션 정보를 획득할 수 있다.
예컨대, 왼손을 주로 사용하는 사용자는 자신의 왼편에 대상체(예컨대, 환자)를 위치시키고, 영상 촬영을 진행할 것이다. 또한, 오른손을 주로 사용하는 사용자는 자신의 오른편에 대상체를 위치시키고, 영상 촬영을 진행할 것이다. 다시 말해서, 왼손잡이는 왼손으로 프로브(1200)를 파지하고 영상 촬영을 진행할 수 있고, 오른손잡이는 오른손으로 프로브(1200)를 파지하고 영상 촬영을 진행할 수 있다.
의료 기기, 특히 초음파 진단 기기의 사용자는 프로브(1200) 뿐만 아니라 컨트롤 패널(2500)을 조작하여 대상체에 대한 영상을 획득한다. 그러므로, 의료 기기 사용자의 활용 편의성을 증대시키기 위하여 사용자의 프로브(1200) 사용 양상에 따라, 컨트롤 패널 상에서 사용자 인터페이스(UI) 등을 상이한 형태로 제공할 수 있다.
전술한 바와 같이, 사용자가 오른손잡이인 경우, 사용자는 대상체를 자신의 오른편에 위치시키고, 오른손을 이용하여 프로브를 조작하는 것이 편리할 수 있으므로, 컨트롤 패널 상의 버튼 UI, 트랙볼 UI 등이 오른손용 UI 패턴(도 2b의 131)으로써 제공된다면 사용자는 의료 기기의 활용상의 편리함을 느낄 수 있다.
또한, 이와 유사하게 사용자가 왼손잡이인 경우, 사용자는 대상체를 자신의 왼편에 위치시키고, 왼손을 이용하여 프로브를 조작하는 것이 편리할 수 있으므로, 사용자 편의성을 고려하여 컨트롤 패널 상의 버튼 UI, 트랙볼 UI 등을 왼손용 UI 패턴(도 2b의 133)으로써 제공할 수 있다.
이러한 컨트롤 패널 상의 오른손용 UI 패턴(131)과 왼손용 UI 패턴(133)은 사용자의 모션 정보에 기초하여 서로 전환될 수 있다.
예를 들어, 의료 기기를 사용하는 사용자로서 A 사용자와 B 사용자가 존재하는 경우, 오른손잡이인 A 사용자가 의료 기기를 사용하고자 하는 경우, 본 발명의 일 실시예에 따라 컨트롤 패널(2500) 상에서 오른손용 UI 패턴(도 2b의 131)이 제공될 수 있고, 이에 비하여 왼손잡이인 B 사용자가 의료 기기를 사용하고자 하는 경우, 본 발명의 일 실시예에 따라 컨트롤 패널(2500) 상에서 왼손용 UI 패턴(도 2b의 133)이 제공될 수 있다.
다시 말해서, 본 발명의 일 실시예에 따르면, 각각의 사용자는 자신의 신체적 특징 또는 행동적 특징에 제한 받지 않고 의료 기기를 탄력적으로 사용할 수 있고, 사용자에 따라 적합한 패턴의 UI를 제공함으로써 기존에 비하여 사용자 편의성을 증대시킬 수 있다는 효과가 있다.
본 발명의 일 실시예에 따라 획득된 모션 정보에 기초하여 사용자 인터페이스(UI) 등을 변경하는 것은, 사용자가 의료 기기를 편리하게 조작할 수 있도록 의료 기기의 촬영 환경을 사용자에게 적응적으로 조정하는 것을 포함할 수 있다. 전술한 바와 같이, 우수 사용자인지, 좌수 사용자인지에 따라 컨트롤 패널(2500) 등의 UI의 배치를 달리하거나, 검진 종류에 따라 UI의 배치, 크기 등을 달리하거나 또는 촬영에 사용되는 버튼의 사용 빈도에 따라 UI의 배치, 크기 등을 조절하여 제공할 수 있다.
도 15는 본 발명의 일 실시예에 따라 센싱부를 더 포함하는 장치를 도시한다.
본 발명의 일 실시예에 따른 모션 정보 획득부(2100)는 센싱부(2110)를 더 포함할 수 있다.
본 발명의 일 실시예에 따른 사용자의 모션 정보는, 센싱부(2110)를 통하여 획득된 현재 프로브의 위치 정보에 기초하여 획득될 수 있다.
본 발명의 일 실시예에 따른 현재 프로브의 위치 정보는, 프로브의 현재의 지시방향, 소정의 기준 지점에 대한 경사각 및 높이값 중 적어도 하나를 포함할 수 있다.
예를 들어, 현재의 프로브(1200)의 위치 정보는 프로브(1200)의 현재의 지시 방향에 기초하여 획득될 수 있다. 예컨대, 초음파 기기와의 연결을 위한 프로브(1200)에 포함(예컨대, 프로브의 단부에 포함 등)되거나 또는 프로브(1200)가 연결될 초음파 기기에 매립된 소정의 센서(121) 등을 통하여 프로브(1200)의 현재의 지시 방향 정보가 획득될 수 있다.
이러한 소정의 센서(121)는, 기준선(예컨대, 센서(121)의 중심선(ML))으로부터 프로브(1200) 연결선이 어느 방향을 지향하는 지에 따라 프로브(1200)의 지시 방향을 판단하도록 구성될 수 있다. 다시 말해서, 본 발명의 일 실시예에 따른 소정의 센서(121)는 토글 스위치의 동작 원리와 유사하게 동작할 수 있다.
본원의 도 4a를 다시 참조하면, 프로브(1200)가 중심선(ML)으로부터 오른쪽으로 편향되어 있다면, 현재 프로브(1200)의 위치 정보는 초음파 기기의 오른편을 지시하고 있다고 결정될 수 있다. 예컨대, 프로브(1200)는 초음파 기기의 오른편에 위치한다는 정보가 획득될 수 있다.
또한, 이와 달리 프로브(1200)가 중심선(ML)으로부터 왼쪽으로 편향되어 있다면, 현재 프로브(1200)의 위치 정보는 초음파 기기의 왼편을 지시하고 있다고 결정될 수 있다. 다시 말해서, 프로브(1200)는 초음파 기기의 왼편에 위치한다는 정보가 획득될 수 있다.
또한, 본 발명의 일 실시예에 따른 프로브(1200)가 무선인 경우, 소정의 센서(121)는, 무선 통신을 통하여 무선 프로브의 GPS(Global Positioning System) 좌표를 센싱하도록 구성될 수 있다.
또한, 본 발명의 일 실시예에 따라 현재 프로브(1200)의 위치 정보는 소정의 기준 지점에 대한 경사각 및 높이값 중 적어도 하나를 포함할 수 있다.
도 4b에 도시된 바와 같이, 프로브(1200)는 기울기 정보 또는 높이 정보를 획득하기 위한 센서(123) 등을 포함할 수 있다. 이러한 센서(123)는, 자이로 센서, 높이 센서 등을 포함할 수 있다.
예를 들어, 현재 프로브(1200)의 위치 정보는 소정의 기준 지점에 대한 경사각 정보로서 획득될 수 있다. 소정의 기준 지점은 의료 기기가 위치한 지면, 환자 테이블 또는 프로브(1200)의 최초 위치(예컨대, 초음파 기기 상에 부착되어 있는 상태의 위치 등) 등을 포함할 수 있다.
이러한 경사각 정보에 상응하게 사용자의 현재 모션이 추정될 수 있다. 예를 들면, 경사각의 변화 폭이 커질수록 프로브(1200)의 움직임 정도가 점점 증가한다고 추정될 수 있고, 추정된 프로브(1200)의 움직임에 기초하여 프로브(1200)를 조작중인 사용자의 움직임 각도 범위 등에 대한 모션 정보가 획득될 수 있다.
예를 들면, 지면(또는 환자 테이블)과 프로브(1200)는 최대 90도의 각도(예컨대, 프로브(1200)가 지면에 수직하게 위치하는 경우)를 이룰 수 있다. 사용자는 촬영이 진행됨에 따라 프로브(1200)를 소정의 방향 및 각도로 이동시킬 수 있다. 프로브(1200)와 지면이 이루는 각도는 소정의 범위(예컨대, 0도 내지 90도) 내에 포함될 수 있다. 예를 들어, 사용자가 대상체의 간 초음파를 촬영하고자 할 경우, 프로브(1200)는 사용자 조작에 따라 지면과 평행(예컨대, 프로브(1200)와 지면은 0도의 각을 이룸)하거나 수직(예컨대, 프로브(1200)와 지면이 90도 각을 이룸)을 이루는 범위 내에서 이동될 수 있다.
다시 말해서, 프로브(1200)가 지면과 평행한 상태에서 프로브(1200)와 지면이 수직인 상태로 프로브(1200)를 이동시킬 경우, 경사각의 변화 폭은 최대가 될 수 있고, 프로브(1200)의 움직임 정도도 최대라고 추정될 수 있으며, 이러한 추정된 프로브(1200)의 움직임에 기초하여 프로브(1200)를 조작중인 사용자의 움직임 정도도 최대라는 모션 정보가 획득될 수 있다.
또한, 이와 유사하게 초음파 기기 상에 프로브(1200)가 부착되어 있던 초기 상태의 위치로부터의 경사각이 현재 프로브(1200)의 위치 정보로서 획득될 수 있다.
예를 들어, 본 발명의 일 실시예에 따른 센서(123)는, 센서(123)를 기준으로 오른쪽 또는 동편으로의 방위는 양의 각도로 표현되고, 왼쪽 또는 서편으로의 방위는 음의 각도로 표현되도록 구성될 수 있지만 반드시 이에 제한되는 것은 아니다.
이에 따라, 프로브(1200)가 최초 위치로부터 현재 오른쪽으로 편향되어 존재하는 경우, 센서(123) 상에서 양의 경사각이 센싱될 수 있고, 현재 프로브(1200)는 센서(123)의 우측에 센싱된 경사각도의 위치에서 존재한다는 정보가 획득될 수 있다. 또한, 프로브(1200)가 최초 위치로부터 현재 왼쪽으로 편향되어 존재하는 경우, 센서(123) 상에서 음의 경사각이 센싱될 수 있고, 현재 프로브(1200)는 센서(123)의 좌측에 센싱된 경사각도의 위치에 존재한다는 정보가 획득될 수 있다.
또한, 현재 프로브(1200)의 위치 정보는 소정의 기준 지점에 대한 높이값 정보로서 획득될 수 있다. 소정의 기준 지점은 지면, 환자 테이블 또는 프로브(1200)의 최초 위치(예컨대, 초음파 기기 상에 부착된 상태의 위치 등) 등을 포함할 수 있다. 이러한 경우, 소정의 센서(123)는, 높이 센서일 수 있다.
예를 들면, 센서(123)는, 현재 프로브(1200)가 지면으로부터 약 120cm의 높이에 위치하고 있다는 정보를 센싱할 수 있다.
또한, 센서(123)는, 프로브(1200)가 예컨대, 초음파 기기 상에 부착된 초기 상태에 비하여 현재 약 5cm정도 낮게 위치하고 있음을 센싱할 수 있다. 다시 말해서, 이러한 소정의 기준 지점에 대한 높이값 정보는, 현재 프로브(1200)의 위치 정보로서 획득될 수 있다.
본 발명의 일 실시예에 따른 프로브(1200)의 높이값 정보(예컨대, 높이의 변화 정도 등)에 기초하여 프로브(1200)를 조작중인 사용자의 자세의 높낮이 변화 정도를 나타내는 모션 정보가 획득될 수 있다.
본 발명의 일 실시예에 따른 사용자 모션 정보는, 센싱부(2110)를 통하여 획득된 사용자의 지문 정보, 사용자의 홍채 정보, 사용자의 안면 정보 중 적어도 하나를 포함하는 생체 정보에 기초하여 획득될 수 있다.
본원의 도 5를 다시 참조하면, 프로브(1200)에 포함된 센서(125)를 통하여 획득된 사용자의 지문 정보(11)에 기초하여, 사용자가 왼손 또는 오른손 중 현재 어느 손으로 프로브(1200)를 파지하였는지에 대하여 결정할 수 있다.
다시 말해서, 프로브(1200)에 포함된 센서(125)를 통하여 획득한 사용자의 지문 정보(11)로부터 사용자가 프로브(1200)를 왼손으로 사용하는지 또는 오른손으로 사용하는지에 대한 모션 정보를 획득할 수 있다.
예컨대, 획득된 사용자의 지문 정보(11)가 사용자의 오른손 엄지 또는 검지에 대한 지문이라면, 사용자는 현재 프로브(1200)를 오른손으로 파지하고 있는 것으로 결정되고, 사용자의 오른손으로 프로브(1200) 사용이라는 모션 정보가 획득될 수 있다.
또한, 획득된 사용자의 지문 정보(11)가 사용자의 왼손 엄지 또는 검지에 대한 지문이라면, 사용자는 현재 프로브(1200)를 왼손으로 파지하고 있는 것으로 결정되고, 사용자의 왼손으로 프로브(1200) 사용이라는 모션 정보가 획득될 수 있다.
또한, 본 발명의 일 실시예에 따르면, 프로브(1200)에 포함된 센서(125)를 통하여 획득된 사용자의 지문 정보(11)에 기초하여 현재 프로브를 사용중인 사용자가 누구인지를 식별할 수 있다. 이러한 경우, 사용자의 지문 정보(11)는 사용자 식별 정보(예컨대, ID 등)로서 활용될 수 있다.
또한, 본 발명의 일 실시예에 따른 사용자 모션 정보는, 사용자의 홍채 정보(13), 사용자의 안면 정보(15) 중 적어도 하나에 기초하여 획득될 수 있다.
본원도 도 5를 다시 참조하면, 초음파 기기 상에 구비된 센서(111) 등을 통하여 사용자의 홍채 정보(13), 사용자의 안면 정보(15) 중 적어도 하나가 획득될 수 있다. 이러한 센서(111)는 초음파 기기의 디스플레이부(2300) 근방에 위치될 수 있지만, 반드시 이에 제한되는 것은 아니다.
또한, 이러한 센서(111)는 홍채 인식, 안면 인식 기능을 동시에 수행할 수 있거나 또는 홍채 인식 기능, 안면 인식 기능을 갖는 각각의 개별적인 센서로서 구현될 수 있다.
본 발명의 일 실시예에 따라, 센서(111)를 통하여 사용자의 홍채 정보(13)가 획득될 수 있다. 사용자의 홍채 정보(13)는 현재 사용자가 누구인지에 대한 사용자 식별 정보, 현재 사용자의 홍채의 현재 위치 등에 대한 정보를 포함할 수 있다. 예를 들어, 센서(111)를 통하여 사용자의 홍채를 판독함으로써, 현재 사용자가 누구인지에 대한 정보를 획득할 수 있다.
또한, 센서(111)를 통하여 획득된 홍채의 현재 위치 정보를 이용하여 사용자의 현재 시선을 결정하고, 사용자의 현재 시선에 기초하여 사용자의 모션 정보를 획득할 수 있다. 다시 말해서, 사용자의 눈에서 홍채가 왼쪽 또는 오른쪽 중 어느 쪽으로 더 많이 편향되어 위치하는지에 따라 사용자의 현재의 자세에 대한 정보를 획득할 수 있지만, 반드시 이에 제한되는 것은 아니다.
예를 들어, 사용자의 눈에서 홍채가 대체로 왼쪽으로 편향되어 위치하는 경우, 사용자의 상체가 오른쪽을 지향하고 있다고 판단될 수 있다. 다시 말해서, 사용자가 현재 오른손으로 프로브(1200) 등을 조작하고 있다고 판단될 수 있다.
이와 유사하게, 사용자의 눈에서 홍채가 대체로 오른쪽으로 편향되어 위치하는 경우, 사용자의 상체가 왼쪽을 지향하고 있다고 판단될 수 있다. 사용자가 현재 왼손으로 프로브(1200) 등을 조작하고 있다고 판단될 수 있다.
본 발명의 일 실시예에 따라, 센서(111)를 통하여 사용자의 안면 정보(15)가 획득될 수 있다. 사용자의 안면 정보(15)는 현재 사용자가 누구인지에 대한 사용자 식별 정보, 사용자의 현재 안면 방향 등에 대한 정보를 포함할 수 있다. 예를 들어, 센서(111)를 통하여 사용자의 안면 특징점, 안면 윤곽선 등을 판독함으로써, 현재 사용자가 누구인지에 대한 정보를 획득할 수 있다.
또한, 센서(111)를 통하여 획득된 사용자의 안면 방향 정보를 이용하여 사용자의 주(main) 안면을 결정하고, 사용자의 주 안면에 기초하여 사용자의 모션 정보를 획득할 수 있다. 다시 말해서, 사용자의 안면 면적에 기초하여 사용자의 현재의 주 안면을 결정하고, 결정된 주 안면으로부터 사용자의 현재의 자세에 대한 정보를 획득할 수 있다.
예를 들면, 사용자의 오른쪽 안면과 왼쪽 안면의 면적을 비교하여, 왼쪽 안면의 면적이 더 넓은 경우, 사용자의 상체가 오른쪽을 지향하고 있다고 판단될 수 있다. 다시 말해서, 사용자가 현재 오른손으로 프로브(1200) 등을 조작하고 있다고 판단될 수 있다.
이와 유사하게, 사용자의 오른쪽 안면과 왼쪽 안면의 면적을 비교하여, 오른쪽 안면의 면적이 더 넓은 경우, 사용자의 상체가 왼쪽을 지향하고 있다고 판단될 수 있다. 다시 말해서, 사용자가 현재 왼손으로 프로브(1200) 등을 조작하고 있다고 판단될 수 있다.
또한, 사용자의 홍채 정보(13) 및 사용자의 안면 정보(15)를 이용하여 사용자의 모션 정보가 획득될 수 있다. 예를 들어, 사용자의 오른쪽 안면과 왼쪽 안면의 면적을 비교하였지만, 어느 쪽 안면의 면적이 더 넓은지 명확히 구분할 수 없는 경우에, 전술한 방법과 같이 사용자의 홍채 정보를 추가로 고려하여 사용자의 모션 정보를 획득할 수도 있다.
본 발명의 일 실시예에 따른 UI는 대상체의 검진 시 사용될 기능을 나타낸 단축 버튼, 스위치, 키보드 및 트랙볼 중 적어도 하나를 포함할 수 있다.
본원의 도 6을 다시 참조하면, 본 발명의 일 실시예에 따라 의료 기기에서의 동작 기능을 표시하는 사용자 인터페이스(UI)는 키보드(611), 버튼 또는 스위치(613), 트랙볼(615) 등을 포함할 수 있다.
본 발명의 일 실시예에 따른 사용자 인터페이스(UI)는, 대상체의 촬영과 관련하여 문자, 숫자 등을 입력할 수 있는 키보드(611) 형태의 UI, 영상의 확대/축소, 해상도 조절, 2D 영상과 3D 영상 간의 전환 등 소정의 기능을 나타낸 적어도 하나의 버튼 또는 스위치(613) 형태의 UI, 트랙볼(615) 형태의 UI 등을 포함할 수 있다.
전술한 키보드(611) 형태의 UI, 적어도 하나의 버튼 또는 스위치(613) 형태의 UI 및 트랙볼(615) 형태의 UI 중 적어도 하나는 가상의 UI 레이아웃(virtual UI layout)으로서 제공될 수 있다.
다시 말해서, 본 발명의 일 실시예에 따른 사용자 인터페이스(UI)는 반드시 항상 물리적으로 일정한 형태로만 존재해야 하는 것은 아니고, 디스플레이부(2300) 또는 컨트롤 패널(2500) 상에서 문자, 숫자, 이미지 등의 형태로 소정의 기능을 나타내도록 가상(virtual)으로 존재할 수 있다.
본 발명의 일 실시예에 따른 UI 변경부(2200)는, 획득된 사용자의 모션 정보에 따라 UI의 모양, 크기 및 위치 중 적어도 하나를 변경할 수 있다.
본 발명의 도 7a를 다시 참조하면, 획득된 사용자의 모션 정보에 따라 UI의 모양이 변경될 수 있다.
예를 들어, 프로브(1200)의 움직임 범위가 매우 넓어진 경우, 다시 말해서 사용자의 움직임이 많아진 경우, 사용자 인터페이스(UI)(611 내지 615)로의 사용자의 터치가 불편할 수 있다. 다시 말해서, 사용자의 손이 사용자 인터페이스(UI)까지 닿지 않거나, 또는 사용자가 UI를 조작하는데 어려움을 느낄 수도 있다.
이러한 경우, 본 발명의 일 실시예에서와 같이, 사용자 인터페이스(UI)의 모양 등을 변경하여 사용자의 편의성을 증대시킬 수 있다. 예컨대, 촬영 과정 동안에 사용자가 버튼 1 또는 버튼 3에 비하여 버튼 2를 더욱 자주 사용한다면, 사용자의 버튼 2에 대한 액세스 확률이 높아지도록 아랫변이 가장 긴 삼각형의 형태로 모양을 변경할 수 있다. 다시 말해서, 버튼 2의 면적이 버튼 1 또는 버튼 3보다 더 크도록 변경할 수 있다.
또한, 본 발명의 일 실시예에 따르면, 버튼 1 내지 3의 위치를 변경할 수도 있다. 예를 들어, 버튼 3, 버튼 1, 버튼 2의 순서로 배치되도록 UI를 변경할 수 있다. 이러한 경우, 버튼 1이 가장 사용 빈도가 높은 버튼일 수 있고, 버튼 1이 아랫변이 가장 긴 삼각형의 형태를 이룰 수 있지만, 버튼 등 UI의 변경 전후의 모양이 반드시 이에 제한되는 것은 아니다.
또한, 본 발명의 도 7b를 다시 참조하면, 획득된 사용자의 모션 정보에 따라 UI의 크기가 변경될 수 있다.
전술한 바와 같이, 사용자의 움직임이 많아진 경우 UI 패턴(131)의 버튼 등의 크기를 전체적으로 또는 부분적으로 증감시킴으로써, 사용자가 손쉽게 버튼 등의 UI에 액세스할 수 있도록 UI의 크기를 변경하여 제공(135)할 수 있다.
예를 들어, 버튼 1 내지 3의 크기를 증가시켜 제공함으로써, 사용자의 버튼의 접근성을 높일 수 있다. 또한, 이와 유사하게 버튼 1 내지 3의 위치가 사용자와 가깝도록 변경함으로써, 사용자의 버튼의 접근성을 높일 수 있다.
본원의 도 7c를 다시 참조하면, 사용자의 신체적 특징 등에 기초하여 상이한 패턴의 UI를 제공할 수 있다.
우수 사용자에 대하여는, 오른손용 UI 패턴(131)이 제공될 수 있다. 또한, 좌수 사용자에 대하여는, 왼손용 UI 패턴(133)이 제공될 수 있다. 이러한 오른손용 UI 패턴(131)과 왼손용 UI 패턴(133)은 서로 대칭될 수 있고, 전술한 바와 같이 사용자 모션 정보에 기초하여 상호 전환이 가능할 수 있다.
본 발명의 일 실시예에 따른 UI는 대상체의 검진 시 사용되는 기능의 빈도에 따라 모양, 크기 및 위치 중 적어도 하나가 상이하게 제공될 수 있다.
본원의 도 8을 다시 참조하면, UI 패턴(131)은 도 8b 및 도 8c에 도시된 바와 같이 대상체의 검진 시 사용되는 기능의 빈도에 따라 UI는 모양, 크기 및 위치 중 적어도 하나가 변경되어 제공(137 또는 139)될 수 있다. 설명의 편의상 도 8a의 UI 패턴(131)은 의료 기기에서 제공될 수 있는 기본 패턴으로 가정한다.
예를 들어, 소정의 검진 항목에서 트랙볼은 사용되지 않고, 1 내지 3으로 간략화하여 표시된 버튼형 UI 중 2번 버튼에 상응하는 기능이 가장 많이 사용될 수 있다. 이러한 경우, 도 8b에서와 같이, 기본 패턴(131)에서 트랙볼 기능의 원형 UI가 생략되고, 2번 버튼의 UI의 크기가 가장 크도록 변경되어 제공될 수 있다.
다시 말해서, 사용자에 의하여 사용되지 아니하거나 사용 빈도가 적은 UI는 생략하고, 사용 빈도가 높은 UI를 큰 크기로 제공함으로써, 의료 기기를 조작하는 사용자의 UI로의 접근성 및 편의성을 증대시킬 수 있다.
다른 예로서, 소정의 검진 항목에서 사용자가 트랙볼을 주로 사용하고, 버튼형 UI 중 3번 버튼(예를 들면, 확대/축소 기능 등)을 가장 많이 사용한다면, 도 8c에서와 같이, 기본 패턴(131)에서 트랙볼에 해당하는 원형의 UI와 버튼형 UI 중 3번 버튼의 크기를 크게 변경하여 제공(139)할 수 있다.
또한, 사용자의 손 모양과 유사하게 도 8c에서의 패턴(139)과 같이 방사형의 형태로 UI가 배치되어 제공될 수 있지만, 반드시 이에 제한되는 것은 아니다.
또한, 검사 종류에 따라 사용되는 기능의 빈도 수가 상이할 수 있으므로, 검사 종류에 따라 상이한 패턴의 UI를 제공할 수 있다.
예를 들면, 심장 초음파 검사, 간 초음파 검사, 복부 초음파 검사와 부인과 초음파 검사, 도플러 초음파 검사 등 각각의 검사 종류에 따라 초음파 기기에서 제공되는 기능의 사용 빈도 수가 상이할 수 있다. 예컨대, 심장 초음파 검사에서는 영상의 확대/축소 기능과 트랙볼 기능의 사용 빈도 수가 높은 반면에, 간 초음파 검사에서는 영상의 확대/축소 기능과 트랙볼 기능보다는 해상도의 조절 기능 등이 더 많이 사용될 수 있다.
다시 말해서, 심장 초음파 검사에서는 영상의 확대/축소 기능을 수행하는 UI와 트랙볼 기능을 수행하는 UI를 다른 UI에 비하여 비교적 크고, 컨트롤 패널(2500)의 중앙부 등에 위치시킬 수 있다.
이에 비하여, 간 초음파 검사에서는 영상의 확대/축소 기능의 UI와 트랙볼 기능의 UI의 크기를 줄이거나 생략할 수 있고, 컨트롤 패널(2500)의 중앙부 등에 해상도의 조절 기능을 수행하는 UI가 상대적으로 큰 크기로 배치되도록 UI 패턴을 변경할 수 있다.
도 16은 본 발명의 일 실시예에 따라 센싱부, 외부 입력 수신부 및 컨트롤 패널을 더 포함하는 장치를 도시한다.
본 발명의 일 실시예에 따른 장치(2000)는 외부 입력 수신부(2400)를 더 포함할 수 있다.
본 발명의 일 실시예에 따른 UI는 외부 입력 수신부(2400)를 통하여 수신된 외부 입력 신호에 따라 UI 변경부(2200)에 의하여 편집될 수 있다.
본 발명의 일 실시예에 따른 UI는, 예를 들어, 사용자 입력에 따라 추가, 삭제, 위치, 크기 변경이 가능하다. 또한, UI는 사용자 입력에 따라 언어, 글꼴, UI 표시 색깔 등의 변경이 가능하다.
예컨대, 사용자 입력에 따라 버튼형 UI의 위치 또는 크기가 변경될 수 있다.
본원의 도 9를 다시 참조하면, UI에 대한 사용자의 소정의 입력에 기초하여 UI의 위치 또는 크기가 변경될 수 있다. 본 발명의 일 실시예에 따른 사용자의 소정의 입력은 UI에 대한 적어도 1회의 클릭, 일정 시간 동안의 누름 중 적어도 하나를 포함할 수 있다. 또한 이러한 소정의 입력은 복수의 입력이 동시에 입력되는 경우도 포함할 수 있다.
예를 들면, 버튼형 UI 중 1번 버튼에 대하여 사용자 입력으로서 약 1초 내지 1.5초의 누름을 통하여 편집 개시 신호를 인가 받고, 1번 버튼을 목표하는 위치로의 드래그 및 드롭(21) 신호를 인가 받음으로써 1번 버튼의 위치를 변경할 수 있다.
이러한 드래그 앤 드롭(21) 신호는 연속적인 사용자 입력 신호일 수 있다. 다시 말해서, 예컨대 1번 버튼에 대한 드래그 앤 드롭(21)의 사용자 입력 신호는 지속적으로(seamless) 인가되는 신호일 수 있다. 예를 들어, 원터치로 드래그 앤 드롭(21) 신호가 인가될 수 있지만, 반드시 이에 제한되는 것은 아니다.
또한, 예를 들면, 편집 개시 신호를 인가 받은 후, 1번 버튼의 경계선에 대한 소정의 방향으로의 드래그 신호를 인가 받음으로써, 1번 버튼을 확대 또는 축소할 수 있다.
또한, 예를 들어, 편집 개시 신호를 인가 받은 후, UI를 한번 더 클릭함으로써 해당 UI를 삭제할 수 있다.
또한, 예컨대, UI 이외의 빈 공간에 대하여 사용자로부터 인가된 수초(예컨대, 약 1초 내지 2초 등) 동안의 누름(23)을 통하여 UI 추가 개시 신호를 인가 받아 UI를 추가할 수 있다.
또한, 예를 들면, 기존의 UI 또는 새롭게 추가된 UI는 해당 UI에 대한 복수회의 클릭 또는 소정의 패턴(예컨대, 별 모양, 삼각형, 사각형 등) 입력 등을 포함하는 외부 입력 신호에 기초하여 해당 UI의 기능을 재설정할 수 있다. 다시 말해서, 소정의 패턴 또는 클릭 당 해당 UI에 적용 가능한 기능들(예컨대, 2D 영상과 3D 영상 간의 전환, 해상도 조정 등)이 해당 UI 상에서 변경되어 표시될 수 있다.
또한, 본 발명의 다른 실시예에 따르면, 기존의 UI 또는 새롭게 추가된 UI에 적용 가능한 기능들이 미리 설정된 테이블 등의 형태로 제공될 수 있다.
예를 들어, 이러한 테이블 등이 팝업 형태로 제공될 수 있거나, 컨트롤 패널(2500) 등의 여백 등에 디스플레이되는 형태로 제공될 수 있다. UI에 대하여 적용 가능한 기능들이 제공되면, 사용자의 매칭 입력(예컨대, 순차 클릭, 드래그 앤 드롭 등)에 따라 기존의 UI 또는 새롭게 추가된 UI에 대한 기능이 재설정될 수 있지만, 반드시 이에 제한되는 것은 아니다. 이러한 UI와 기능 간의 매칭의 순서는 사용자 입력에 따라 적용할 기능을 먼저 선택하고, 선택된 기능이 적용될 UI를 선택하는 방식, 또는 기능을 재설정할 UI를 먼저 선택하고, 선택된 UI에 적용될 기능을 선택하는 방식 중 어느 것을 따르더라도 무방하다.
이와 유사하게, 기존의 UI 또는 새롭게 추가된 UI에 표시된 언어, 글꼴, 색깔 등도 변경되어 표시될 수 있다. 다시 말해서, 사용자의 국적 선택을 위한 신호 등의 외부 입력 신호를 인가 받아 사용자의 사용 언어에 적합하도록 UI 상에 표시된 문자, 숫자 등을 변경할 수 있다. 또한, 사용자의 식별 정보를 포함하는 사용자 프로파일에 포함된 국적에 따라 UI에 표시된 언어가 자동으로 변경될 수도 있다.
또한, 미리 설정되어 제공 가능한 색채표 중에서 선택한 색깔로 UI 표시 색깔을 변경하기 위한 신호 등을 외부 입력 신호로서 수신하여, UI에 표시된 색깔을 변경할 수 있다.
본 발명의 일 실시예에 따른 장치(2000)는, 디스플레이 기능이 구비된 컨트롤 패널(2500)을 더 포함할 수 있다.
본 발명의 일 실시예에 따른 UI는 디스플레이부(2300) 및 컨트롤 패널(2500) 중 적어도 하나를 통하여 디스플레이될 수 있다.
본 발명의 일 실시예에 따른 UI는 대상체의 촬영 영상이 디스플레이되는 디스플레이부(2300) 및 디스플레이 기능이 구비된 컨트롤 패널(2500) 중 적어도 하나를 통하여 디스플레이될 수 있다.
휴대용 의료 기기의 필요성이 대두되고, 의료 기기의 소형화 추세로 인하여, 대상체에 대한 영상을 디스플레이하기 위한 화면과 컨트롤 패널 제공 화면이 하나의 터치 스크린 상에서 공존할 수 있다. 다시 말해서, 본원의 도 10a를 다시 참조하면, 대상체에 대한 영상(113)이 UI 패턴(131)과 동일한 화면(예를 들어, 디스플레이부(2300) 등) 상에서 제공될 수 있다.
다만, 이러한 일체형의 디스플레이의 사용은 먼지, 사용자의 지문 등과 같은 이물질로 인하여 대상체에 대한 촬영 영상 판독을 어렵게 할 수도 있다.
본원의 도 10b를 다시 참조하면, 본 발명의 일 실시예에 따라 변경되어 제공 가능한 UI는 촬영 영상의 디스플레이부 이외의 디스플레이 기능이 구비된 컨트롤 패널(2500)을 통하여 제공될 수 있다. 예를 들면, 촬영 영상은 디스플레이부(2300)을 통하여 사용자에게 제공될 수 있고, 소정의 UI 패턴(131)은 디스플레이 기능이 구비된 컨트롤 패널(2500)을 통하여 사용자에게 촬영 영상과 별도로 제공될 수 있다.
도 17은 본 발명의 일 실시예에 따라 센싱부, 외부 입력 수신부, 컨트롤 패널 및 제어부를 더 포함하는 장치를 도시한다.
본 발명의 일 실시예에 따른 장치(2000)는 제어부(2600)를 더 포함할 수 있다. 본 발명의 일 실시예에 따른 제어부(2600)는 사용자의 모션 정보에 따라 컨트롤 패널(2500)의 높이 및 각도 중 적어도 하나를 조절할 수 있다.
사용자의 의료 기기 편의성을 극대화하기 위하여, 사용자의 자세 등이 반영된 모션 정보에 기초하여 의료 기기의 소정의 컴포넌트(예컨대, 디스플레이부(2300), 컨트롤 패널(2500) 등)의 물리적 위치를 조절할 수 있다.
예를 들어, 대상체 촬영 전 사용자가 어떤 손으로 프로브를 파지했는지에 따라 의료 기기의 소정의 컴포넌트(예컨대, 디스플레이부(2300), 컨트롤 패널(2500) 등)의 위치가 자동으로 조정될 수 있다.
예컨대, 사용자가 오른손으로 프로브를 파지한 경우, 촬영 개시에 따라 사용자의 상체는 우향으로 변경될 확률이 매우 높다. 따라서, 사용자의 움직임으로부터 획득된 모션 정보에 따라 디스플레이부(2300), 컨트롤 패널(2500) 등을 사용자를 향하여 상, 하, 좌, 우, 수평 또는 수직, 소정의 각도로 이동시킬 수 있다. 다시 말해서, 디스플레이부(2300), 컨트롤 패널(2500) 등이 사용자와 마주하도록(또는 최대한 사용자의 정면에 위치하도록) 상, 하, 좌, 우, 수평 또는 수직, 소정의 각도로 이동시킬 수 있다.
또한, 대상체를 촬영 중인 사용자가 움직임으로써 획득될 수 있는 모션 정보에 기초하여 전술한 바와 같이, 디스플레이부(2300), 컨트롤 패널(2500) 등이 사용자와 마주하도록(또는 최대한 사용자의 정면에 위치하도록) 상, 하, 좌, 우, 수평 또는 수직, 소정의 각도로 이동될 수 있다. 본원의 도 12를 다시 참조하면, 프로브(1200)의 움직임에 상응하게 컨트롤 패널(2500)의 높이 및 각도 중 적어도 하나가 조절될 수 있다. 다시 말해서, 의료 기기의 소정의 컴포넌트(예컨대, 디스플레이부(2300), 컨트롤 패널(2500) 등)의 위치가 이동될 수 있음에 따라 사용자의 의료 기기의 조작 편의성이 더욱 증대될 수 있다.
도 18은 본 발명의 다른 실시예에 따라 사용자의 모션 정보에 기초하여 사용자 인터페이스(UI)를 변경시켜 제공하기 위한 장치를 도시한다.
본 발명의 일 실시예에 따른 장치(2000)는, 모션 정보 획득부(2100), UI 변경부(2200), 디스플레이부(2300), 외부 입력 수신부(2400), 컨트롤 패널(2500), 제어부(2600)를 포함하고, 나아가 사용자의 식별 정보를 획득하는 식별 정보 획득부(2700) 및 획득된 식별 정보에 따라 변경된 UI를 저장하는 저장부(2800)를 더 포함할 수 있다.
본 발명의 일 실시예에 따라 식별 정보 획득부(2700)는, 사용자의 식별 정보를 획득할 수 있다. 이러한 획득된 식별 정보는 변경된 UI와 함께 저장부에 저장될 수 있지만, 반드시 이에 제한되는 것은 아니다.
본 발명의 일 실시예에 따른, 사용자 식별 정보를 획득은 사용자의 모션 정보를 획득에 앞서 수행될 수도 있다.
또한, 사용자 식별 정보를 획득은 사용자의 모션 정보과 동시에 수행될 수도 있다. 예를 들면, 전술한 바와 같이, 사용자의 지문 정보, 홍채 정보, 안면 정보 등이 획득됨과 동시에 이러한 사용자의 생체 정보를 포함하는 사용자 프로파일이 획득될 수 있다. 다시 말해서, 사용자 식별 정보는 사용자 생체 정보와 함께 사용자 프로파일에 포함될 수 있고, 이러한 사용자 프로파일은 데이터베이스의 형태로 미리 구축되어 있을 수 있다.
예를 들어, 사용자별 선호하는 UI 패턴, 또는 본 발명의 일 실시예에 따라 변경된 UI를 사용자 식별 정보(예컨대, ID 등)에 따라 저장해두고, 사용자는 이후 필요에 따라 자신의 식별 정보에 상응하는 저장된 UI 패턴 등을 로드하여 사용할 수도 있다.
다시 말해서, 사용자의 신체적 특징, 행동적 특징이 상이할 수 있으므로, 사용자 식별 정보에 따라 적합한 UI 패턴 또는 이전에 변경해둔 UI 패턴 등을 데이터베이스화 해두고, 사용자의 의료 기기 조작 시 해당 사용자의 식별 정보에 상응하는 UI 패턴을 로드하여 의료 기기의 촬영 환경을 설정함으로써, 촬영 시간을 단축시킬 수 있다.
본 발명의 일 실시예에 따른 장치와 관련하여서는 전술한 방법에 대한 내용이 적용될 수 있다. 따라서, 장치와 관련하여, 전술한 방법에 대한 내용과 동일한 내용에 대하여는 설명을 생략하였다.
한편, 상술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다.
이러한 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등) 및 캐리어 웨이브(예를 들면, 인터넷을 통한 전송)와 같은 저장매체를 포함한다.
이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
Claims (17)
- 대상체에 초음파 신호를 송신하고, 상기 대상체에서 반사되는 초음파 에코 신호를 수신하는 복수의 초음파 프로브;
복수의 UI(User Interface)를 표시하는 터치스크린을 포함하는 컨트롤 패널; 및
상기 복수의 프로브 중 현재 사용 중인 초음파 프로브의 사용 정보를 획득하고, 상기 초음파 프로브를 제어하여 상기 대상체에 관한 초음파 영상을 생성하는 프로세서;
를 포함하고,
상기 복수의 UI는,
상기 터치스크린 상의 기설정된 위치에 표시되는 트랙볼 UI; 및
상기 터치스크린 상에 표시되는 모양, 크기 및 위치 중 적어도 하나가 변경되는 복수의 가변 UI; 를 포함하고,
상기 프로세서는 획득된 상기 현재 사용 중인 초음파 프로브의 사용 정보에 기초하여 상기 복수의 가변 UI의 모양, 크기, 및 위치 중 적어도 하나를 변경하는, 초음파 진단 장치.
- 제1 항에 있어서,
상기 프로세서는 상기 초음파 진단 장치의 사용자로부터 획득한 식별 정보에 기초하여 상기 복수의 가변 UI의 모양, 크기 및 위치 중 적어도 하나를 변경하는, 초음파 진단 장치.
- 제1 항에 있어서,
상기 복수의 가변 UI는 문자 및 숫자 중 적어도 하나를 입력하는 사용자 입력을 수신하는 UI를 포함하는 것인, 초음파 진단 장치.
- 제1 항에 있어서,
상기 생성된 초음파 영상을 표시하는 디스플레이부; 를 더 포함하는, 초음파 진단 장치.
- 제4 항에 있어서,
상기 복수의 UI는, 상기 디스플레이부에 표시된 초음파 영상의 해상도를 조절하는 동작을 수행하는 UI를 포함하는, 초음파 진단 장치.
- 제4 항에 있어서,
상기 복수의 UI는 상기 생성된 초음파 영상을 확대하거나 축소하는 동작을 수행하는 UI를 포함하는, 초음파 진단 장치.
- 제4 항에 있어서,
상기 복수의 UI는 상기 생성된 초음파 영상을 2D 초음파 영상 또는 3D 초음파 영상으로 전환하는 UI를 포함하는, 초음파 진단 장치.
- 제1 항에 있어서,
상기 생성된 대상체의 초음파 영상은 상기 터치스크린 상에 표시되는 것인, 초음파 진단 장치.
- 제1 항에 있어서,
상기 프로세서는, 상기 대상체를 검사하는 검사 종류에 따라 복수의 가변 UI의 모양, 크기 및 위치 중 적어도 하나를 변경하는, 초음파 진단 장치.
- 제1 항에 있어서,
상기 현재 사용 중인 초음파 프로브의 사용 정보에 기초하여 변경된 복수의 UI를 저장하는 메모리; 를 더 포함하는, 초음파 진단 장치.
- 초음파 진단 장치에 있어서,
대상체에 초음파 신호를 송신하고, 상기 대상체로부터 반사되는 에코 신호를 수신하는 복수의 초음파 프로브;
상기 에코 신호를 수신하여 초음파 데이터를 생성하는 초음파 송수신부;
상기 초음파 데이터를 주사 변환하여 초음파 영상을 생성하는 초음파 영상 처리부;
상기 초음파 진단 장치의 기능을 제어하여 상기 초음파 영상을 획득하거나 또는 상기 초음파 영상을 조작하는 동작을 수행하는 복수의 UI를 표시하는 터치스크린; 및
상기 복수의 UI의 모양, 크기 및 위치 중 적어도 하나를 변경하는 프로세서;
를 포함하고,
상기 프로세서는 상기 복수의 초음파 프로브 중 현재 사용 중인 초음파 프로브의 사용 정보에 기초하여 상기 복수의 UI의 모양, 크기 및 위치 중 적어도 하나를 변경하고,
상기 복수의 UI는 상기 터치스크린 상의 기설정된 위치에 표시되는 트랙볼 UI를 포함하는, 초음파 진단 장치.
- 제11 항에 있어서,
상기 초음파 영상을 표시하는 디스플레이 장치; 를 더 포함하는 것인, 초음파 진단 장치.
- 제11 항에 있어서,
상기 복수의 UI는 버튼형 UI를 포함하는 것인, 초음파 진단 장치.
- 제11 항에 있어서,
상기 복수의 UI는, 상기 초음파 영상의 해상도를 조절하는 동작을 수행하는 UI를 포함하는, 초음파 진단 장치.
- 제11 항에 있어서,
상기 복수의 UI는 상기 초음파 영상을 확대하거나 축소하는 동작을 수행하는 UI를 포함하는, 초음파 진단 장치.
- 제11 항에 있어서,
상기 복수의 UI는 상기 초음파 영상을 2D 초음파 영상 또는 3D 초음파 영상으로 전환하는 UI를 포함하는, 초음파 진단 장치.
- 제11 항에 있어서,
상기 현재 사용 중인 초음파 프로브의 사용 정보에 기초하여 변경된 복수의 UI를 저장하는 메모리; 를 더 포함하는, 초음파 진단 장치.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170122787A KR101953311B1 (ko) | 2017-09-22 | 2017-09-22 | 사용자의 모션 정보에 기초하여 사용자 인터페이스(ui)를 변경시키는 장치 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170122787A KR101953311B1 (ko) | 2017-09-22 | 2017-09-22 | 사용자의 모션 정보에 기초하여 사용자 인터페이스(ui)를 변경시키는 장치 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020150151096A Division KR102017285B1 (ko) | 2015-10-29 | 2015-10-29 | 사용자의 모션 정보에 기초하여 사용자 인터페이스(ui)를 변경시키는 방법 및 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20170115019A KR20170115019A (ko) | 2017-10-16 |
KR101953311B1 true KR101953311B1 (ko) | 2019-05-23 |
Family
ID=60295827
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170122787A KR101953311B1 (ko) | 2017-09-22 | 2017-09-22 | 사용자의 모션 정보에 기초하여 사용자 인터페이스(ui)를 변경시키는 장치 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101953311B1 (ko) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005144154A (ja) * | 2003-10-08 | 2005-06-09 | Ge Medical Systems Global Technology Co Llc | 生体測定により使用可能にされるイメージング・システム |
US20060020206A1 (en) * | 2004-07-01 | 2006-01-26 | Luis Serra | System and method for a virtual interface for ultrasound scanners |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2007314354A1 (en) * | 2006-10-31 | 2008-05-08 | Solicore, Inc. | Powered authenticating cards |
KR20090050423A (ko) * | 2007-11-15 | 2009-05-20 | 주식회사 메디슨 | 생체인식 장치를 포함하는 초음파 시스템 및 사용 환경자동 조절 방법 |
KR20100084037A (ko) * | 2009-01-15 | 2010-07-23 | 삼성전자주식회사 | Ui 제공 장치 및 방법 |
-
2017
- 2017-09-22 KR KR1020170122787A patent/KR101953311B1/ko active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005144154A (ja) * | 2003-10-08 | 2005-06-09 | Ge Medical Systems Global Technology Co Llc | 生体測定により使用可能にされるイメージング・システム |
US20060020206A1 (en) * | 2004-07-01 | 2006-01-26 | Luis Serra | System and method for a virtual interface for ultrasound scanners |
Also Published As
Publication number | Publication date |
---|---|
KR20170115019A (ko) | 2017-10-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10558350B2 (en) | Method and apparatus for changing user interface based on user motion information | |
US10459627B2 (en) | Medical image display apparatus and method of providing user interface | |
EP2821014B1 (en) | Sharing information of medical imaging apparatus | |
KR101599891B1 (ko) | 초음파 진단장치, 방법 및 컴퓨터 판독 가능한 저장매체 | |
KR20160140237A (ko) | 초음파 장치 및 초음파 장치의 초음파 영상 표시 방법 | |
KR101534089B1 (ko) | 초음파 진단 장치 및 그 동작방법 | |
KR20150089836A (ko) | 관심 영역에 대응하는 초음파 영상 표시 방법 및 이를 위한 초음파 장치 | |
KR20170006200A (ko) | 의료 영상 처리 장치 및 그 동작방법 | |
US10768797B2 (en) | Method, apparatus, and system for generating body marker indicating object | |
US10856853B2 (en) | Ultrasound diagnosis apparatus, method of controlling ultrasound diagnosis apparatus, and storage medium having the method recorded thereon | |
KR102297148B1 (ko) | 3차원 영상을 표시하는 초음파 시스템 및 그 방법 | |
KR102519424B1 (ko) | 초음파 이미지 디스플레이 방법 및 이를 위한 장치 | |
KR20150102589A (ko) | 의료 영상 처리 장치, 의료 영상 처리 방법, 및 컴퓨터 판독가능 기록매체 | |
KR20160068470A (ko) | 초음파 영상 제공 장치 및 초음파 영상 제공 방법 | |
KR102700671B1 (ko) | 초음파 영상 장치 및 초음파 영상 생성 방법 | |
KR20150061621A (ko) | 사용자의 모션 정보에 기초하여 사용자 인터페이스(ui)를 변경시키는 방법 및 장치 | |
KR102017285B1 (ko) | 사용자의 모션 정보에 기초하여 사용자 인터페이스(ui)를 변경시키는 방법 및 장치 | |
KR101953311B1 (ko) | 사용자의 모션 정보에 기초하여 사용자 인터페이스(ui)를 변경시키는 장치 | |
KR102169613B1 (ko) | 사용자의 모션 정보에 기초하여 사용자 인터페이스(ui)를 변경시키는 방법 및 장치 | |
KR101630764B1 (ko) | 초음파 진단 장치, 초음파 진단 장치의 제어 방법 및 그를 기록한 기록 매체 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right |