KR101597701B1 - 의료 기술 제어기 - Google Patents

의료 기술 제어기 Download PDF

Info

Publication number
KR101597701B1
KR101597701B1 KR1020140182617A KR20140182617A KR101597701B1 KR 101597701 B1 KR101597701 B1 KR 101597701B1 KR 1020140182617 A KR1020140182617 A KR 1020140182617A KR 20140182617 A KR20140182617 A KR 20140182617A KR 101597701 B1 KR101597701 B1 KR 101597701B1
Authority
KR
South Korea
Prior art keywords
user
user input
input
imaging device
medical technology
Prior art date
Application number
KR1020140182617A
Other languages
English (en)
Other versions
KR20150070980A (ko
Inventor
게르하드 크뢰머
Original Assignee
지멘스 악티엔게젤샤프트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 지멘스 악티엔게젤샤프트 filed Critical 지멘스 악티엔게젤샤프트
Publication of KR20150070980A publication Critical patent/KR20150070980A/ko
Application granted granted Critical
Publication of KR101597701B1 publication Critical patent/KR101597701B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Epidemiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Primary Health Care (AREA)
  • Public Health (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 의료 기술 촬상 장치(1) 및/또는 사용자 입력(EI, AI)에 의해 상기 의료 기술 촬상 장치(1)에서 발생한 데이터(BD)를 사용자(13)에 표시하는 정보 표시 장치(7)를 제어하는 방법(Z)에 관한 것이다. 이 경우에, 상기 사용자 입력(EI, AI)은 다른 비접촉 사용자 입력 인식 논리(X)와 조합한 안구 추적 및/또는 안구 움직임 검출(Y)에 적어도 기초하여 수행된다. 본 발명은 또한 그에 대응하여 구현되는 제어기 시스템(21)에 관한 것이다.

Description

의료 기술 제어기{MEDICAL TECHNOLOGY CONTROLLER}
본 발명은 의료 기술 촬상 장치 및/또는 사용자 입력에 의해 의료 기술 촬상 장치에서 발생한 데이터를 사용자에 표시하는 정보 표시 장치를 제어하는 방법에 관한 것이다. 본 발명은 또한 의료 기술 촬상 장치 및/또는 의료 기술 촬상 장치에서 발생한 데이터를 사용자에 표시하는 정보 표시 장치를 제어하는 제어기 시스템에 관한 것이다.
컴퓨터 단층 촬영(CT), 초음파 장치, 자기 공명 단층 촬영(MR), x선 장치, 혈관 조영 검사, 단광자 방출 컴퓨터 단층 촬영(SPECT) 및 양전자 방출 단층 촬영 등과 같은 의료 기술 촬상 장치는 종전에는 일반적으로 터치(touch)에 기초한 제어에 의해, 즉, 키보드, 터치 표면, 마우스 또는 조이스틱의 입력을 통해 제어되었다.
이러한 제어를 수행하기 위해서, 사용자, 즉 방사선 전문의 또는 방사선 기술자는 일반적으로 해당 의료 기술 촬상 장치가 있는 방에서 나오거나 또는 적어도 검사 대상(즉, 대부분 환자)과 떨어져 있게 되고, 떨어져 있는 상태에서 입력을 하여야 한다.
본 발명의 목적은 사용자 (및/또는 검사 대상)가 특히 조작하기가 보다 더 쉽거나 또는 덜 복잡하거나 보다 편리한 위에 언급된 의료 기술 촬상 장치 또는 정보 표시 장치를 위한 대체 제어 선택을 제공하는 것이다.
이 목적은 청구항 1에서 청구된 방법 및 청구항 13에서 청구된 제어기 시스템에 의해 달성된다.
본 발명에 따르면, 처음에 설명된 유형의 방법을 위해, 사용자 입력은 적어도 다른 비접촉 인식 논리와 조합한 안구 위치 및/또는 움직임 검출에 기초하여 수행된다.
따라서, 본 발명은 주로 안구 추적 기술로서 공지된 기술을 사용하는데, 이 기술은 안구 위치(즉, 시야의 방향 및/또는 사람 눈의 초점 맞추기) 및/또는 안구의 움직임을 검출하는 기술이다. 이 기술은 현재 광고에서의 주목 조사를 위해, 그리고 마찬가지로 중증 장애인과의 통신을 위해 사용되고 있다. 방 안의 점의 고정(고시(fixation))은 자발적으로 제어 가능한 처리이고, 안구 움직임(도약 안구 운동)은 탄도학이므로 직선이고 보통 완전히 자발적으로 제어 가능하지 않다(Khazaeli, C. D.: Systemisches Design(Systemic Design). Hamburg 2005. P. 68 참조). 점의 고정과 안구 움직임 둘 다는 현재 안구 추적의 도움으로 결정될 수 있고 이 2가지 정보 요소는 사용자 입력을 인식하기 위해 사용될 수 있다. 전자의 예로서는 자발적 처리의 재생을 들 수 있고, 후자의 예로서는 그러한 잠재 의식 반응을 검사함으로써 의도의 그러한 표현을 검증하는 것을 들 수 있다. 컴퓨터용 안구 추적 장치는 예를 들어, 스웨덴의 덴더리드(Danderyd)의 토비(Tobii)에 의해 제공된다. 그러나, 다른 안구 추적 알고리즘도 주로 사용될 수 있다.
안구 추적 외에, 사용자 입력은 이제 다른 비접촉 사용자 입력 인식 논리와 조합된다. 다른 비접촉 사용자 입력 시스템의 예는 다음과 같다. 모든 비접촉 사용자 입력 기술에 공통인 것은 사용자가 입력 하드웨어와 물리적으로 접촉하거나 바로 인접하여 있을 필요가 없고, 대신에 사용자 입력의 일종의 원격 심문이 센서 기술에 의해 이루어진다. 이러한 경우에, 사용자는 특히 다른 위치에 있을 수 있고(대부분 실제로 방안의 임의의 가능한 위치), 즉, 사용자는 사용자 입력 중에 특정한 위치에 한정되지 않는다.
2개의 비접촉 사용자 입력을 하나의 조합된 사용자 입력으로 이렇게 조합하는 것은 적어도 2가지 효과를 갖는다: 첫째, 중복 시스템의 장점을 제공한다. 그러므로, 사용자 명령은 2개의 사용자 입력이 그 자체로 의미 있는 일관된 종합적인 결과를 전달할 때와 같은 경우에만 평가되는 것이 바람직하다. 둘째, 2개의 사용자 입력과 다른 정보는 서로 조합된 다른 상황, 움직임 및 의도의 선언과 관련될 수 있고, 사용자 입력의 종합적인 상황을 정의할 수 있다. 예를 들어 안구 추적은, 예를 들어 디스플레이 상의, 그것의 도움으로 사용자가 겨냥한 한 점의 정확한 위치를 찾아내는 것이 가능하다는 장점을 제공한다. 그러면 다른 비접촉 사용자 입력 인식 논리는 겨냥된 위치에 있는 대상에 대해 행해지는 것과 같이, 겨냥된 위치에 관한 추가 정보를 심문할 수 있다.
따라서, 이런 방식으로 제공된 방법은 관리하기가 쉽고, 매우 정밀하고 신뢰성 있는 것으로 설계될 수 있고 부가적으로 사용자 입력 중에 높은 레벨의 안전도(즉, 에러에 대한 낮은 민감도)의 장점을 제공한다.
본 발명에 따르면, 처음에 언급된 제어기 시스템은 사용자 입력으로부터 제어 명령을 발생하기 위한 제어 명령 발생 장치를 포함하고, 이 제어 명령 발생 장치는 동작시에 사용자 입력을 다른 비접촉 사용자 입력 인식 논리와 조합한 안구 위치 또는 안구 움직임 검출에 적어도 기초하여 수행하도록 실현된다.
본 발명의 제어기 시스템은 이로써 본 발명의 방법을 실행하기 위해 구현된다. 이것은 독립형의 장치(stand-alone unit) 또는 의료 기술 촬상 장치의 일부로서 실현될 수 있다. 그러므로, 본 발명은 또한 촬상부 및 본 발명의 제어기 시스템을 구비하는 의료 기술 촬상 장치에 관한 것이다.
본 발명의 방식으로 제어기 시스템을 실현하기 위한 소자의 전반적 대부분, 특히 제어 명령 발생 장치는 처리기 상의 소프트웨어 모듈의 형태로 전체적으로 또는 부분적으로 실현될 수 있다. 다수의 장치는 또한 공통 기능 장치로 조합될 수 있다.
제어기 시스템의 인터페이스는 반드시 하드웨어 소자로서 구현될 필요는 없고, 예를 들어, 데이터가, 예를 들어 영상 재구성 설비 등과 같은 동일한 장치 상에 이미 실현된 다른 소자로부터 취해질 수 있거나, 또는 소프트웨어에 의해 다른 소자에 전송되기만 하면 된다면, 소프트웨어 모듈로서 실현될 수 있다. 마찬가지로, 인터페이스는, 예를 들어 실제 의도된 목적을 위해 특히 소프트웨어에 의해 구성된, 표준 하드웨어 인터페이스 등의, 하드웨어와 소프트웨어 소자로 구성될 수 있다. 또한, 다수의 인터페이스가 하나의 공통 인터페이스, 예를 들어 입/출력 인터페이스 내에 조합될 수도 있다.
그러므로, 본 발명은 또한 프로그램가능한 제어기 시스템의 처리기 내로 직접 로드될 수 있는 컴퓨터 프로그램 제품을 포함하는데, 이 프로그램 제품이 제어기 시스템 상에서 실행될 때 본 발명의 방법의 모든 단계들을 실행하기 위한 프로그램 코드 수단을 구비한다.
본 발명의 더 특히 유리한 실시 형태 및 개발은 아래에 주어진 설명뿐만 아니라 종속 청구항으로부터 비롯된다. 이러한 경우에, 제어기 시스템은 또한 방법의 각각의 종속 청구항에 따라 개발될 수 있고 또는 그 반대도 가능하다.
본 발명의 제1 변형에 따르면, 다른 비접촉 사용자 입력 인식 논리는 사용자의 사지의 움직임 검출을 포함한다. 사지는 특정적으로 사용자의 팔다리, 특히 팔과 손(또는 그 일부, 특히 손가락) 및 머리를 포함한다. 이러한 움직임 검출은 또한 움직임 추적이라는 용어로 기재하기도 한다. 손가락 움직임의 움직임 검출을 위한 장치는 예를 들어 미국 샌프란시스코의 Leap Motion에 의한 "도약 움직임 제어기(Laep Motion Controller)"의 이름으로 시판되고 있다. 그러나, 다른 움직임 인식 알고리즘도 주로 본 발명의 범주 내에서 사용될 수 있다.
"조합된 제스처(combined gesture)"의 유형을 형성하도록 움직임 추적과 상술한 안구 추적을 조합하는 것은 특히 의도 신호의 선언이 움직임 추적으로도 특정적으로 인식될 수 있다는 점에서 특히 바람직하다. 의도 신호의 이러한 간단한 직관적인 선언은 머리를 끄덕이거나 흔드는 것이지만, 손가락 움직임도 움직임 추적 시스템에 의해 간단히 인식될 수 있을 뿐만 아니라 사용자가 직관적으로 학습할 수 있다. 따라서, 이 조합은 제어 중에 특히 높은 레벨의 안전도를 제공한다.
제1 변형에 대한 대안으로서 또는 그에 추가하여 이용될 수 있는 제2 변형(및 또한 더 상세히 설명되지 않는 다른 비접촉 사용자 입력 인식 논리와 조합한 것)은 사용자의 음향 신호, 특히 목소리 신호의 인식을 포함하는 다른 비접촉 사용자 입력 인식 논리로 이루어진다. 음향 신호는 잡음 또는 소리, 예를 들어, 우리가 예를 들어 일상적으로 말하면서 쓰는, 예("응") 또는 아니오("아니")를 나타내는 소리와 같은 것을 포함하지만, 특히 그들은 음성 인식 알고리즘의 도움으로 사용자 입력으로서 인식가능하게 될 수 있는 음성 신호를 포함한다. 예를 들어, 미국 벌링턴의 Nuance는 이 범주 내에서 사용될 수 있는 Dragon Naturally Speaking이라는 음성 인식 소프트웨어를 제공한다. 그러나, 다른 음성 인식 알고리즘이 주로 본 발명의 범주 내에서 사용될 수도 있다.
각각의 변형은 그것의 특정한 장점을 갖는다. 음성 인식은 사용자 입력을 수행하기 위해서 안구 움직임의 "어휘"를 따로 학습할 필요가 없고, 사용자가 자신이 말한 음성 또는 잡음에 기초하여 완전히 직관적으로 시스템을 제어할 수 있다는 장점을 제공한다: 대신에 음성 인식 알고리즘이 사용자의 어휘를 학습한다. 한편, 안구 움직임 인식은 사용자(즉, 치료하는 사람)의 음성 정보에 의해 촬영 (또는 영상 재생)의 제어 중에 환자에게 자극을 주지 않는다는, 또는 심지어 환자에게 말한 것 같은 느낌을 주지 않아도 된다는 장점을 갖는다.
또한 사용자 입력은 의료 기술 단층 촬영 장치 및/또는 영상 정보 표시 장치가 있는 방에서 이루어지는 것이 특히 바람직하다. 이것은 사용자가 단층 촬영 장치가 동작하는 장소에서 사용자 입력을 하는 것을 의미한다. 그러면 (사용자 제어의 효과의 신속한 검토를 포함하는) 사용자와 해당 장치 간의 직접적인 상호 작용이 가능하게 된다. 따라서, 안전 목적, 특히 방사선 보호를 제외하고, 사용자 제어의 목적을 위해 이 방에서 다른 방으로 이동하는 것은 필요하지 않고 바람직하지도 않다.
또한, 본 발명의 방법의 특히 양호한 응용은 검사 대상의 중재적 절차 동안에 상기 방법을 수행하는 것이다. 이 중재적 절차는 의료 기술 촬상 장치에 의해 취득된 영상에 의해 이 맥락 내에서 지원된다. 이 특정한 응용에서, 본 발명의 장점은 이러한 영상 지원 중재로, 치료를 하는 사람이 검사 대상, 즉 환자에게 아주 가까이 근접하여 있는 것이 특히 바람직하기 때문에 특히 좋은 장점으로 나타난다. 수술의 또는 치료하는 사람은 주입용 바늘 또는 중재 바늘의 경로와 같이, 촬상 장치에 의해 취득된 영상들에 기초하여 그의 중재를 계획한다. 이러한 경우에, 그가 이전에 취득된 영상들에서의 조직 내의 그것의 원하는 경로뿐만 아니라 바늘(또는 다른 중재 기구)의 원하는 위치에서 그릴 수 있다. 이러한 상황에서, 터치 신호에 의해 주어진 제어 상황에서 촬상 장치 또는 촬상 장치에 접속된 정보 표시 장치를 제어하기 위해서는 그는 멸균 장갑을 껴야 하므로 특히 복잡하고 시간 소모적이다. 다시 말해, 종전에 치료를 하는 사람은 조직 내의 바늘 위치를 확인하기 위해서 수술실에서 나와야 하거나 또는 그는 수술실에 있는 모니터(monitor)의 조이스틱 제어의 유형 또는 어떤 다른 유형의 터치 인터페이스를 사용하여야 했다. 이것은 결국 조이스틱 또는 터치 인터페이스가 또한 엄격하게 멸균되어야 하고, 예를 들어 멸균 수건의 도움이 있어야 한다는 것을 의미한다. 따라서 결국 조작 요소가 자연적으로 더 이상 잘 반응하지 않기 때문에 조작 요소의 간단한 조작성이 제한되었다.
본 발명의 방법이 한편 이러한 중재적 절차의 일부로서 사용될 때, 중재 계획과 촬상 장치에 의한 다른 영상의 획득 모두가 훨씬 더 간단해지는데, 처리가 비접촉이고 아주 신뢰성이 있기 때문이다.
본 발명의 방법의 도움으로 제어기의 몇가지 특히 양호한 응용이 이후 더 상세히 설명된다. 이것은 제한적인 것으로 고려되는 것이 아니고 본 발명의 특히 두드러지게 유리한 응용을 보여 주고 사용자 입력의 목적, 유형 및 형태의 상호 작용을 예로서 설명한다.
제1의 특히 양호한 예시적인 실시 형태는 사용자 입력이 의료 기술 촬상 장치에 의해 촬상의 실행을 가능하게 하는 가능 입력을 포함하는 본 발명의 방법에 관한 것이다. 영상 지원의 중재적 절차의 일부로서, 이것은 (중재 계획의 목적을 위한) 제1 영상의 발생을 위한 초기 영상 취득과 (그리고 특히) 중재 중의 다른 영상 취득 모두가 본 발명의 방법의 도움으로 실행될 수 있다는 것을 의미한다. 따라서,중재 중의 이러한 다른 영상 취득에서, 치료를 하는 사람은, 바늘이, 예를 들어 검사 대상의 몸 안에 주입되어 있는 동안 다른 영상 취득을 개시함으로써 바늘의 위치를 체크할 수 있다. 예를 들어, 모니터 상 또는 촬상 장치 상의 특정한 점을 보는 것이, 예를 들어 안구 추적 및/또는 움직임 검출에 의해 인식될 수 있고, 제스처가 - 예를 들어 다른 손은 계속 바늘을 잡고 있으면서, 한 손엔 아무것도 없는 상태의 제스처 - 가 움직임 추적에 의해 인식될 수 있다. 안구 추적 및 움직임 추적에 기초한 인식 신호는 영상 취득을 제어, 즉, 예를 들어 영상 취득을 개시하는 역할을 한다.
제2의 예시적인 실시 형태는 사용자 입력이 선택 입력을 포함하는 발명의 방법에 관한 것이고, 사용자가 그의 눈으로 선택될 대상 및/또는 영역을 보고 의도 신호의 선언에 의해 본 대상의 선택을 개시한다. 그러므로, 이 예시적인 실시 형태는 주로 해당 정보 표시 장치에의 영상의 표시에 관한 것이다. 이러한 경우에, 선택은 마우스 클릭과 유사한 방식으로 생성될 수 있다. 이 마우스 클릭은 대응하는 손가락 제스처(손가락을 구부린 다음 바로 손가락을 펴고 또는 손가락 끝의 움직임에 의해 - 특히 집게 손가락)에 의해 나타낼 수 있고 눈의 위치 또는 초점 맞추기는 어디에 "클릭"이 되는지를 표시한다. 이러한 모의된 마우스 클릭을 사용하는 예는, 예를 들어 모니터 상의 상호 작용 버튼의 선택 또는 모니터 디스플레이 상의 (영상) 요소의 마킹(marking) 또는 선택이다.
한 개발로서, 선택 입력은 선택의 개시 후에 사용자가 보고 있는 위치에 이동 신호에 의해 선택된 대상을 사용자가 이동시킴으로써 계속될 수 있다. 그러므로, 이 개발은 "드래그(drag)" 제스처의 유형을 포함한다. 예를 들어 모니터와 같은 정보 표시 장치 상의 요소(예를 들어, 슬라이더 제어(slider control))를 봄으로써, 그리고, 예를 들어 위에 설명된 것과 같은 선택 제스처에 의해, 드래그가 수행될 수 있다: 손 및/또는 안구의 상하의 또는 임의의 주어진 측면 방향의, 즉 요소의 초기 위치로부터 상대적으로 멀리 가는 후속하는 이동이 요소 즉, 선택된 대상을 이동시키기 위한 신호로서 사용될 수 있다. 이러한 드래그 제스처는 일반적으로 제어 요소의 선택과 이동을 위해 또한 마킹(영역)을 실행하기 위해 사용될 수 있다.
다른 개발로서, 이렇게 이루어진 이동은 사용자의 이동 확인 신호에 의해 종료, 즉 확인될 수 있다. 이것은 이동 처리가 "드래그 앤드 드롭(drag and drop)" 기능의 유형을 포함한다는 것을 의미한다. 이러한 경우에, 이동 확인 신호의 효과는 이동을 완료하는 것, 즉, 말하자면 드래그 앤드 드롭에서 "드롭(drop)" 기능을 수행하는 것이다.
제3의 예시적인 실시 형태는 사용자 입력이 대상의 그래픽 입력을 포함하는 본 발명의 방법에 관한 것이다. 특히, 그래픽 입력은 영상 내에서 직선 및/또는 곡선, 폐쇄된 및/또는 개방된 모양 및 그 밖의 더 많은 것 등의 대상을 그릴 수 있는데, 영상은 정보 표시 장치 상에 표시된다. 중재 계획을 위한 바늘 경로를 그리는 예는 위에 이미 설명되었다. 사용자 입력의 이러한 "그리기" 기능은 위에 설명된 드래그 앤드 드롭 기능과 유사하게 이해되거나 구현될 수 있다. 이 경우에, 예를 들어 손가락의 움직임 검출에 의해 인식된 제스처는 그리기 과정의 개시로서 검출될 수 있고 손, 손가락 또는 안구의 후속하는 움직임이 대상 입력의 공간적 범위를 정의할 수 있다. 예를 들어 다시 동일한 손가락 (및/또는 다른 손가락 또는 다른 사지)의 더 이상의 제스처는 그리기 과정을 끝내게 할 수 있다.
제4의 예시적인 실시 형태는 사용자 입력이 표시된 데이터 내에서의 전후 움직임 및/또는 상하 움직임 및/또는 스크롤링(scrolling)을 포함하는 본 발명의 방법에 관한 것이다. 그러므로, 이 유형의 사용자 입력은 데이터, 예를 들어 정보 표시 장치에 의해 표시된 영상 내에서의 내비게이션의 유형을 포함한다. 그러므로, 예를 들어, (예를 들어 편평한) 손의 상하 움직임에 의해, 스크롤링은 영상 취득 계층에서 이루어질 수 있고 또는 DICOM 계층 내의 스크롤링은 안구 추적의 도움으로 수행될 수 있다.
제5의 예시적인 실시 형태는, 사용자 입력이 이전에 이루어진 사용자 입력을 가능하게 하는 확인 신호를 포함하고/하거나 이전에 이루어진 사용자 입력을 특히 확인 신호 전의 시간에 취소하는 취소 신호를 포함하는 본 발명의 방법에 관한 것이다. 이 유형의 사용자 입력은 컴퓨터 상의 "엔터(Enter)" 키 또는 "딜리트(Delete)" 키를 누르는 것과 유사한 것으로 보여진다. 이것은 일반적으로 안전 신호, 즉 사용자 입력의 최종 확인 또는 사용자 입력의 취소를 개시하는 역할을 한다. 그러므로, 올바르지 않은 입력이 사용자가 실제로 그렇게 하기를 원하지 않은 상태에서 사용자에 의해 입력되지 않는 것을 보장한다. 또한, 이런 방식으로 사용자 입력에 의해 발생된 제어 명령을 정확하게 시간 맞추는 것이 가능하다. 비접촉 사용자 입력에 독점적으로 (적어도 잠재적으로) 기초할 수 있는 발명의 일부로서, 이러한 최종 사용자 확인 입력 또는 제어 명령의 구현 전의 취소 기능의 구비는 처리 안정성을 향상시키고 무엇보다도 특히 시스템에의 사용자의 신뢰를 향상시킨다는 장점을 갖는다. 그러므로, 이로 인해, 혁신적인 비접촉 제어를 위한 사용자의 수용이 증가된다.
본 발명은 예시적인 실시 형태들에 기초하여, 첨부 도면을 참조하여 이후 다시 한번 상세히 설명된다. 상기 설명에서 동일한 소자에는 동일한 참조 부호가 제공된다.
도면에서:
도 1은 본 발명의 촬상 장치의 예시적인 실시 형태의 사시도를 도시하고,
도 2는 도 1로부터의 상세도를 도시하고,
도 3은 본 발명의 제어기 시스템의 예시적인 실시 형태를 구비하는 동일한 촬상 장치의 개략 블럭도를 도시하고,
도 4는 본 발명의 방법의 예시적인 실시 형태의 개략 블럭 흐름도를 도시한다.
도 1은 본 발명의 촬상 장치(1)를 도시하는데, 여기서 검사 대상(도시하지 않음)이 그 안에서 환자 테이블(3) 위에서 이동할 수 있는 촬상부(5)를 갖는 자기 공명 단층 촬영 장치(1)이다. 촬상 장치(1)는 모니터(monitor)(7)의 형태로 되어 있는, 사용자(13), 여기서는 치료를 하는 의사(13)에게 촬상부(5)로부터 영상을 획득하여 영상 데이터를 나타내는 정보 표시 장치(7)를 포함한다. 2개의 비접촉 입력 시스템(9, 11)은 또한 모니터(7)의 영역 내로 통합되고, 이들은 다시 말해 안구 추적 시스템(9) 및 움직임 추적 시스템(11)이다.
비접촉 사용자 입력을 위해 의사(13)는 이들 2개의 입력 시스템(9, 11)을 사용하고, 그렇게 하기 위해 촬상 장치(1)가 있는 방 R에 있게 된다. 예를 들어, 이 방식으로, 모니터(7) 상에 표시된 촬상 장치(1)로부터의 영상 데이터에 의해 지원되는 중재적 절차 중에도, 의사는 모든 영상에의 직접 접근 및 촬상부(5)와 모니터(7)의 표시 둘 다의 제어를 유지할 수 있다.
사용자 입력이 도 2의 예에 의해 보다 상세히 설명된다. 촬상 장치(1)는 촬상 장치(1) 또는 모니터(7)를 제어하기 위한 제어기 시스템(21)을 포함한다. 촬상부(5)에 의해 영상 취득된 슬라이스 영상들은 여기서 현재 모니터 상에 표시된다. 영상 데이터에서 내비게이트하고 필요한 경우에 상기 데이터를 수정 또는 보충할 수 있게 하기 위해서 - 예를 들어 그리기에 의해 - 중재적 절차를 위한 원하는 바늘 경로에서, 조합된 사용자 입력은 안구 추적 시스템(9) 및 움직임 추적 시스템(11)을 통해 수행된다. 안구 추적 시스템(9)은 의사(13)의 안구(15)의 위치 및/또는 움직임을 검출한다. 움직임 추적 시스템(11)은 여기서 의사(13)의 손가락(19) 또는 손(17)의 움직임을 검출한다. 제어 명령은 2개의 움직임 검출(안구(15)와 손가락(19) 또는 안구(15)와 손(17))의 조합으로부터 얻어지고, 여기서 모니터(7)의 영상 표시를 제어한다. 동일한 방식으로, 예를 들어 다른 영상 취득이 또한 기록부(5)에 의해 개시될 수 있다.
도 3은 촬상 장치(1)를 블럭도로 개략적으로 도시한다. 다시 한번 이것은 촬상부(5) 및 모니터(7)(여기서 유사한 정보 표시 장치가 또한 촬상 장치(1)와 별도의 유닛으로서 실현될 수 있다) 및 제어기 시스템(21)을 포함한다.
제어기 시스템(21)은 입력 인터페이스(25) 및 출력 인터페이스(27)를 포함한다. 이것은 안구 추적 시스템(9) 및 앞서 언급된 바와 같이, 여기서 움직임 추적 시스템(11)으로서 실현되지만, 움직임 인식 대신에 음향 신호 인식을 또한 포함할 수 있는 제2 비접촉 입력 시스템(11)을 또한 포함한다. 제어기 시스템은 제어 명령 발생 장치(33)를 또한 포함한다.
안구 추적 시스템(9)은 다수의 입력 센서(29) 및 제1 평가부(31)를 포함하고; 유사하게 제2 비접촉 입력 시스템(11)은 다수의 입력 센서(37) 및 제2 평가부(35)를 포함한다. 여기서 움직임 추적 시스템(11)으로서 실현되는 제2 비접촉 입력 시스템(11)의 입력 센서(37)는 광학 센서(37)로서 구현되고; 음향 신호 인식 시스템을 위해 그들은 예를 들어 음향 센서(예를 들어, 다수의 마이크로폰)를 포함할 것이다.
영상 획득 중에 촬상부(5)는 데이터 BD, 특히 검사 대상의 영상 데이터 BD를 발생시킨다. 이것은 입력 인터페이스(25)를 통해 제어기 시스템(21)에 전달되고 거기서 제어 명령 발생 장치(33)에 전송된다.
먼저 안구 이동 및/또는 안구 위치 EI의 형태의 사용자 입력 EI은 다수의 입력 센서(29)에 의해 픽업(pick up)되고 제1 평가부(31)에서 인식된다. 이것은 안구 인식 데이터 EID를 제어 명령 발생 장치(33)에 공급되게 한다. 유사하게 제2 사용자 입력 AI - 여기서 즉, 하나 이상의 사지의, 다시 말해, 손가락(19) 또는 손(17)의 이동 AI - 이 입력 센서(37)를 통해 픽업되고 제2 평가부(35)에서 인식되고, 이로부터의 제2 인식 데이터 AID, 여기서는, 즉 움직임 인식 데이터 AID가 마찬가지로 제어 명령 발생 장치(33)에 공급된다. 상기 데이터로부터 제어 명령 발생 장치(33)는 조합된 사용자 입력을 얻어내고 그에 기초하여, 다수의 제어 명령 SB을 발생시키고, 이것은 출력 인터페이스(27)를 통해 촬상부(5) 및/또는 모니터(7)에 (제어 명령 SB의 유형에 따라) 전달되고 촬상부(5) 및/또는 모니터(7)를 제어한다.
도 4는 도 3을 참조한 블럭도로서 의료 기술 촬상 장치(1) 및/또는 정보 표시 장치(7)를 제어하기 위한 본 발명의 방법 Z의 예시적인 실시 형태의 단계들을 도시한다. 이 도면에서, 제1 단계 Y에서, 안구 위치 및/또는 움직임 검출(Y)이 수행되고, 이로부터 제1 사용자 입력 EI이 검출되고 또는 이에 기초한 안구 인식 데이터 EID가 발생된다. 제2 단계 X에서(시간 상 동시 또는 전후에), 유사한 방식으로 제2 사용자 입력 AI이 검출되고 또는 그에 기초한 움직임 인식 데이터 AID가 발생된다. 시간상 2개의 단계들 Y, X 이후에 오는 또는 상기 단계들과 동시에 실행되는 제3 단계 W에서, 제어 명령 SB이 제1 및 제2 사용자 입력 EI, AI에 기초하여 발생된다.
마지막으로 위에 상세히 설명된 방법은 역시 제시된 설비들이고, 단지 본 기술에 숙련된 자에 의해 수정될 수 있는 예시적인 실시 형태들을 광범위한 방식으로 본 발명의 범위를 벗어나지 않고서 포함할 수 있다는 것을 다시 한번 지적한다. 또한 단수 표현의 사용은 포함된 특징이 여러 번 나올 수 있다는 것을 배제하지 않는다.

Claims (16)

  1. 의료 기술 촬상 장치(1) 및/또는 사용자 입력(EI, AI)에 의해 상기 의료 기술 촬상 장치(1)에서 발생한 데이터(BD)를 사용자(13)에 표시하는 정보 표시 장치(7)를 제어하는 방법(Z)으로서, 상기 사용자 입력(EI, AI)은 다른 비접촉 사용자 입력 인식 논리(X)와 조합한 안구 추적 및/또는 안구 움직임 검출(Y)에 적어도 기초하여 수행되고,
    상기 사용자 입력(EI, AI)은 선택 입력을 포함하고, 상기 사용자(13)는 사용자의 안구(15)를 이용하여 선택될 대상 및/또는 영역을 보고 의도의 표시(a demonstration of will) 신호를 이용하여 상기 본 대상의 선택을 개시하는 것을 특징으로 하는 방법.
  2. 제1항에 있어서, 상기 다른 비접촉 사용자 입력 인식 논리는 상기 사용자(13)의 사지의 이동을 검출하는 것을 포함하는 것을 특징으로 하는 방법.
  3. 제1항 또는 제2항에 있어서, 상기 다른 비접촉 사용자 입력 인식 논리는 상기 사용자(13)의 음향 신호들을 검출하는 것을 포함하는 것을 특징으로 하는 방법.
  4. 제1항 또는 제2항에 있어서, 상기 사용자 입력(EI, AI)은 상기 의료 촬상 장치(1) 및/또는 상기 정보 표시 장치(7)가 있는 동일한 방(R)에서 이루어지는 것을 특징으로 하는 방법.
  5. 제1항 또는 제2항에 있어서, 검사 대상의 중재적 절차 중에 수행되고, 상기 중재적 절차는 상기 의료 기술 촬상 장치(1)에 의해 획득된 영상들(BD)에 의해 지원되는 것을 특징으로 하는 방법.
  6. 제1항 또는 제2항에 있어서, 상기 사용자 입력(EI, AI)은 상기 의료 기술 촬상 장치(1)에 의한 촬상의 실행을 개시하기 위한 개시 입력을 포함하는 것을 특징으로 하는 방법.
  7. 제1항에 있어서, 상기 선택 입력은 상기 사용자(13)가 상기 선택을 개시한 후에 사용자가 보고 있는 위치에 이동 신호에 의해 상기 선택된 대상을 이동시킴으로써 계속되는 것을 특징으로 하는 방법.
  8. 제7항에 있어서, 상기 이동은 상기 사용자(13)의 이동 확인 신호에 의해 종료되는 것을 특징으로 하는 방법.
  9. 제1항 또는 제2항에 있어서, 상기 사용자 입력(EI, AI)은 대상의 그래픽 입력(graphical input)을 포함하는 것을 특징으로 하는 방법.
  10. 제1항 또는 제2항에 있어서, 상기 사용자 입력(EI, AI)은 상기 표시된 데이터(BD) 내에서의 전후 움직임 및/또는 상하 움직임 및/또는 스크롤링(scrolling)을 포함하는 것을 특징으로 하는 방법.
  11. 제1항 또는 제2항에 있어서, 상기 사용자 입력(EI, AI)은 이전에 이루어진 사용자 입력들(EI, AI)을 가능하게 하는 확인 신호를 포함하고/하거나 이전에 이루어진 사용자 입력들(EI, AI)을 취소하는 취소 신호를 포함하는 것을 특징으로 하는 방법.
  12. 의료 기술 촬상 장치(1) 및/또는 상기 의료 기술 촬상 장치(1)에서 발생한 데이터(BD)를 사용자(13)에 표시하는 정보 표시 장치(7)를 제어하기 위한 제어기 시스템(21)으로서, 사용자 입력(EI, AI)으로부터 제어 명령들(SB)을 발생하기 위한 제어 명령 발생 장치(33)를 포함하고, 상기 제어 명령 발생 장치(33)는 동작시에 상기 사용자 입력(EI, AI)을 다른 비접촉 사용자 입력 인식 논리(X)와 조합한 안구 추적 및/또는 안구 움직임 검출(Y)에 적어도 기초하여 수행하도록 실현되고,
    상기 사용자 입력(EI, AI)은 선택 입력을 포함하고, 상기 사용자(13)는 사용자의 안구(15)를 이용하여 선택될 대상 및/또는 영역을 보고 의도의 표시 신호를 이용하여 상기 본 대상의 선택을 개시하는 것을 특징으로 하는 제어기 시스템.
  13. 촬상부(15) 및 제12항에 청구된 제어기 시스템(21)을 구비하는 의료 기술 촬상 장치(1).
  14. 프로그램가능한 제어기 시스템(21)의 처리기 내로 직접 로드될 수 있는 컴퓨터 판독가능 매체에 저장된 컴퓨터 프로그램으로서, 상기 프로그램이 상기 제어기 시스템(21) 상에서 실행될 때 제1항 또는 제2항에 청구된 방법의 모든 단계들을 수행하기 위한 프로그램 코드 수단을 구비하는 컴퓨터 프로그램.
  15. 제3항에 있어서, 상기 사용자(13)의 음향 신호들은 상기 사용자(13)의 목소리 신호들을 포함하는 것을 특징으로 하는 방법.
  16. 제11항에 있어서, 상기 취소 신호에 의해 취소되는 상기 이전에 이루어진 사용자 입력들(EI, AI)은 확인 신호 전의 시간에 이전에 수행된 사용자 입력들(EI, AI)을 포함하는 것을 특징으로 하는 방법.
KR1020140182617A 2013-12-17 2014-12-17 의료 기술 제어기 KR101597701B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102013226244.2 2013-12-17
DE102013226244.2A DE102013226244A1 (de) 2013-12-17 2013-12-17 Medizintechnische Steuerung

Publications (2)

Publication Number Publication Date
KR20150070980A KR20150070980A (ko) 2015-06-25
KR101597701B1 true KR101597701B1 (ko) 2016-02-25

Family

ID=53192420

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140182617A KR101597701B1 (ko) 2013-12-17 2014-12-17 의료 기술 제어기

Country Status (4)

Country Link
US (1) US20150169052A1 (ko)
KR (1) KR101597701B1 (ko)
CN (1) CN104714638A (ko)
DE (1) DE102013226244A1 (ko)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6230708B2 (ja) * 2013-07-30 2017-11-15 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 撮像データセットの間の所見のマッチング
US20170061099A1 (en) * 2015-08-26 2017-03-02 Merge Healthcare Incorporated Context-specific element selection for structured image reporting
EP3352052A4 (en) * 2015-09-16 2018-08-01 Fujifilm Corporation Line-of-sight-based control device and medical device
USD868969S1 (en) * 2016-08-31 2019-12-03 Siemens Healthcare Gmbh Remote control for electromedical device
WO2018227469A1 (zh) * 2017-06-15 2018-12-20 上海联影医疗科技有限公司 磁共振波谱交互方法、系统及计算机可读的存储媒介
WO2019027922A1 (en) * 2017-07-31 2019-02-07 Intuitive Surgical Operations, Inc. SYSTEMS AND METHODS FOR SECURE OPERATION OF A DEVICE
DE102017221084A1 (de) * 2017-11-24 2019-05-29 Siemens Healthcare Gmbh Bildgebende medizinische Einrichtung und Verfahren für eine durch Bildgebung gestützte Intervention
DE102018206406B3 (de) * 2018-04-25 2019-09-12 Carl Zeiss Meditec Ag Mikroskopiesystem und Verfahren zum Betrieb eines Mikroskopiesystems
EP3803540B1 (en) * 2018-06-11 2023-05-24 Brainlab AG Gesture control of medical displays
KR102273922B1 (ko) 2018-12-18 2021-07-06 (주)제노레이 의료영상별 복수의 치료계획 기록 방법 및 장치
CN110368097A (zh) * 2019-07-18 2019-10-25 上海联影医疗科技有限公司 一种医疗设备及其控制方法
DE102019122868B4 (de) * 2019-08-26 2021-05-27 Karl Storz Se & Co. Kg Verfahren zur sicheren Steuerung und System
KR20230025914A (ko) * 2020-06-29 2023-02-23 스냅 인코포레이티드 음성 및 텍스트 캡션들을 사용한 증강 현실 경험들
DE102022110291B3 (de) 2022-04-27 2023-11-02 Universität Stuttgart, Körperschaft Des Öffentlichen Rechts Computerimplementiertes Verfahren und System zur freihändigen Auswahl eines Bedienelements auf einem Bildschirm
CN115530855A (zh) * 2022-09-30 2022-12-30 先临三维科技股份有限公司 三维数据采集设备的控制方法及装置、三维数据采集设备

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008529707A (ja) 2005-02-18 2008-08-07 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 医療機器の自動制御

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7127401B2 (en) * 2001-03-12 2006-10-24 Ge Medical Systems Global Technology Company, Llc Remote control of a medical device using speech recognition and foot controls
CN1174337C (zh) * 2002-10-17 2004-11-03 南开大学 识别人眼注视与否的方法和装置及其应用
US7501995B2 (en) * 2004-11-24 2009-03-10 General Electric Company System and method for presentation of enterprise, clinical, and decision support information utilizing eye tracking navigation
ES2262423B1 (es) * 2005-02-18 2007-11-16 Manuel Fernandez Guerrero Sistema de activacion y desactivacion automatica de radiacion ionizante controlado por la mirada del operador.
KR20070060885A (ko) * 2005-12-09 2007-06-13 한국전자통신연구원 다양한 인식 기술을 이용한 입력 인터페이스 제공 방법
US8793620B2 (en) * 2011-04-21 2014-07-29 Sony Computer Entertainment Inc. Gaze-assisted computer interface
US8641621B2 (en) * 2009-02-17 2014-02-04 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image management in image-guided medical procedures
US20130072784A1 (en) * 2010-11-10 2013-03-21 Gnanasekar Velusamy Systems and methods for planning image-guided interventional procedures
US20120133600A1 (en) * 2010-11-26 2012-05-31 Hologic, Inc. User interface for medical image review workstation
KR101193036B1 (ko) * 2010-12-13 2012-10-22 주식회사 인피니트헬스케어 방사선치료계획 평가장치 및 평가방법
US20120257035A1 (en) * 2011-04-08 2012-10-11 Sony Computer Entertainment Inc. Systems and methods for providing feedback by tracking user gaze and gestures
KR101302638B1 (ko) * 2011-07-08 2013-09-05 더디엔에이 주식회사 머리의 제스처 및 손의 제스처를 감지하여 컨텐츠를 제어하기 위한 방법, 단말 장치 및 컴퓨터 판독 가능한 기록 매체
US10013053B2 (en) * 2012-01-04 2018-07-03 Tobii Ab System for gaze interaction
US9058054B2 (en) * 2012-02-29 2015-06-16 Google Inc. Image capture apparatus
US20130342672A1 (en) * 2012-06-25 2013-12-26 Amazon Technologies, Inc. Using gaze determination with device input

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008529707A (ja) 2005-02-18 2008-08-07 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 医療機器の自動制御

Also Published As

Publication number Publication date
CN104714638A (zh) 2015-06-17
US20150169052A1 (en) 2015-06-18
DE102013226244A1 (de) 2015-06-18
KR20150070980A (ko) 2015-06-25

Similar Documents

Publication Publication Date Title
KR101597701B1 (ko) 의료 기술 제어기
JP7478795B2 (ja) 医療アシスタント
AU2022252723B2 (en) Imaging modification, display and visualization using augmented and virtual reality eyewear
JP7091531B2 (ja) 身体上ジェスチャ・インターフェース及び投影表示のための方法
US20220343609A1 (en) Systems and methods for rendering immersive environments
ES2736966T3 (es) Manejo -sin contacto táctil- de dispositivos usando sensores de profundidad
US9483122B2 (en) Optical shape sensing device and gesture control
Morris et al. Emerging input technologies for always-available mobile interaction
Jalaliniya et al. Designing wearable personal assistants for surgeons: An egocentric approach
US20230152961A1 (en) Method and System for Gesture and Displaying Sideline Operation
Ghovanloo et al. Tapping into tongue motion to substitute or augment upper limbs
Leeb et al. Introduction to devices, applications and users: Towards practical bcis based on shared control techniques
Avola et al. Toward the future of surgery: an immersive, virtual-reality-based endoscopic prototype
Kroeker Improving Brain-computer interfaces
Sivaramakrishnan et al. A touchless interface for interventional radiology procedures
CN109481016A (zh) 以患者面部作为触摸板用户界面
Rechy-Ramirez et al. Head movement and facial expression-based human-machine interface for controlling an intelligent wheelchair
US20210225525A1 (en) Virtual reality-based systems and methods
Kabir et al. Auxilio: A Sensor-Based Wireless Head-Mounted Mouse for People with Upper Limb Disability
Hatscher Touchless, direct input methods for human-computer interaction to support image-guided interventions
US20210358220A1 (en) Adapting an augmented and/or virtual reality
Carbonaro et al. Wearable technologies
CN116453715A (zh) 一种远程触诊方法和系统
GELŠVARTAS et al. Multifunctional user interface to control robotic arm for paralyzed people
Craven Gesture, Signing, and Tracking

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20200113

Year of fee payment: 5