KR102027020B1 - 보조 장치와 의료 기기 및/또는 조작자 및/또는 환자 간의 상호작용 방법, 보조 장치, 보조 시스템, 유닛 및 시스템 - Google Patents

보조 장치와 의료 기기 및/또는 조작자 및/또는 환자 간의 상호작용 방법, 보조 장치, 보조 시스템, 유닛 및 시스템 Download PDF

Info

Publication number
KR102027020B1
KR102027020B1 KR1020150031498A KR20150031498A KR102027020B1 KR 102027020 B1 KR102027020 B1 KR 102027020B1 KR 1020150031498 A KR1020150031498 A KR 1020150031498A KR 20150031498 A KR20150031498 A KR 20150031498A KR 102027020 B1 KR102027020 B1 KR 102027020B1
Authority
KR
South Korea
Prior art keywords
interaction
computer unit
interface
patient
auxiliary device
Prior art date
Application number
KR1020150031498A
Other languages
English (en)
Other versions
KR20150105246A (ko
Inventor
스테판 포페스쿠
Original Assignee
지멘스 악티엔게젤샤프트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 지멘스 악티엔게젤샤프트 filed Critical 지멘스 악티엔게젤샤프트
Publication of KR20150105246A publication Critical patent/KR20150105246A/ko
Application granted granted Critical
Publication of KR102027020B1 publication Critical patent/KR102027020B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H80/00ICT specially adapted for facilitating communication between medical practitioners or patients, e.g. for collaborative diagnosis, therapy or health monitoring

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • User Interface Of Digital Computer (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Manipulator (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

본 발명에 따라, 의료 검사 및/또는 치료의 과정을 위한 개선된 보조를 공개하기 위해, 보조 장치(1)와 의료 기기(21) 및/또는 조작자(24) 및/또는 환자(23) 간의 상호작용을 위한 방법이 하기 방법 단계들, 즉:
- 보조 장치(1)의 입력 인터페이스(2)를 이용하여, 의료 기기(21) 및/또는 조작자(24) 및/또는 환자(23)의 정보를 포함하는 입력 정보를 검출하는 단계와,
- 검출된 입력 정보를 입력 인터페이스(2)로부터 컴퓨터 유닛(11)으로 전송하는 단계와,
- 컴퓨터 유닛(11)을 이용하여 입력 정보를 처리하는 단계와,
- 처리된 입력 정보에 따라 컴퓨터 유닛(11)을 이용하여 상호작용 명령을 생성하는 단계와,
- 생성된 상호작용 명령을 컴퓨터 유닛(11)으로부터 보조 장치(1)의 상호작용 인터페이스(3)로 전송하는 단계와,
- 상호작용 명령에 따라 상호작용 인터페이스(3)를 이용하여 보조 장치(1)의 주변 환경과의 상호작용을 실행하는 단계를 포함하는 점을 제안한다.

Description

보조 장치와 의료 기기 및/또는 조작자 및/또는 환자 간의 상호작용 방법, 보조 장치, 보조 시스템, 유닛 및 시스템{METHOD FOR ENABLING AN INTERACTION BETWEEN AN ASSISTANCE DEVICE AND A MEDICAL APPARATUS AND/OR AN OPERATOR AND/OR A PATIENT, ASSISTANCE DEVICE, ASSISTANCE SYSTEM, UNIT, AND SYSTEM}
의료 기기는 전형적으로 환자의 치료 및/또는 검사를 위해 이용된다. 예를 들어, 다양한 의료 문제들의 조사에서 예컨대 자기 공명 장치, 컴퓨터 단층 촬영 장치, PET 장치(양전자 방출 단층 촬영 장치) 등의 의료 영상 장치들을 이용하여 의료 영상 검사가 수행된다. 이 경우, 의료 기기를 이용한 환자의 치료 및/또는 검사는 일반적으로 조작자, 예컨대 간호직, 기술직, X선 보조원 또는 의사들에 의해 보조된다.
본 발명의 과제는, 의료 검사 및/또는 치료의 진행 보조를 개선하는 것이다.
상기 과제는 독립 청구항들의 특징들에 의해 해결된다. 바람직한 구성들은 종속 청구항들에 기술되어 있다.
본 발명은, 의료 기기 및/또는 조작자 및/또는 환자와 보조 장치 간의 상호작용을 가능케 하는 방법에 기반하며, 상기 방법은 하기 방법 단계들:
- 보조 장치의 입력 인터페이스를 이용하여, 의료 기기 및/또는 조작자 및/또는 환자의 정보를 포함하는 입력 정보를 검출하는 단계와,
- 검출된 입력 정보를 입력 인터페이스로부터 컴퓨터 유닛으로 전송하는 단계와,
- 컴퓨터 유닛을 이용하여 상기 입력 정보를 처리하는 단계와,
- 처리된 입력 정보에 따라 컴퓨터 유닛을 이용하여 상호작용 명령을 생성하는 단계와,
- 생성된 상호작용 명령을 컴퓨터 유닛으로부터 보조 장치의 상호작용 인터페이스로 전송하는 단계와,
- 상호작용 명령에 따라 상호작용 인터페이스를 이용하여 보조 장치의 주변 환경과의 상호작용을 실행하는 단계를 포함한다.
의료 기기, 예컨대 의료 영상 기기 또는 치료 기기는, 특히 검사실 및/또는 치료실 내에 배치된다. 이 경우, 특히 보조 장치도 검사실 및/또는 치료실 내에 배치된다. 그 대안으로 또는 추가로, 보조 장치가 의료 기기의 조정실 내에도 배치될 수 있다. 환자는 검사실 및/또는 치료실 내에서 의료 기기의 환자 지지 장치 상에 포지셔닝될 수 있다. 보조 장치는 물리적으로 검사실 및/또는 치료실 내에서 예컨대 로봇, 특히 이동 로봇(mobile robot)의 형태로 존재할 수 있다.
보조 장치는 바람직하게는 자립형으로 형성된다. 따라서 보조 장치는 바람직하게 의료 기기로부터 독립되어, 특히 분리되어, 형성된다. 보조 장치는 바람직하게는 자율 운동 및/또는 자율 동작을 실행하도록 형성된다. 보조 장치는, 이 보조 장치가 의료 기기로의 데이터 전송을 위한 데이터 인터페이스를 포함하는 경우에 한해, 의료 기기에 할당될 수 있다.
입력 정보는 광학 입력 정보 및/또는 음향 입력 정보 및/또는 촉각 입력 정보를 포함할 수 있다. 보조 장치는 입력 인터페이스의 적합한 센서, 예컨대 광학 센서, 음향 센서, 및/또는 촉각 센서를 이용하여 입력 정보를 기록할 수 있다. 이 경우, 입력 정보는 환자 및/또는 조작자의 의사소통, 예컨대 문의를 포함할 수 있다. 그 대안으로 또는 추가로, 입력 정보로서 이벤트, 예컨대 환자 및/또는 조작자의 동작이 입력 인터페이스에 의해 검출될 수 있다. 또한, 입력 정보는 입력 명령도 포함할 수 있다. 물론, 보조 장치의 입력 인터페이스는 통상의 기술자가 유익하다고 간주하는 여타의 입력 정보도 검출할 수 있다.
입력 인터페이스는 특히 데이터 교환의 목적으로 컴퓨터 유닛과 연결된다. 컴퓨터 유닛은 보조 장치 내에 통합될 수 있다. 특히 바람직하게, 컴퓨터 유닛은 외부 컴퓨터 유닛을 포함하며, 공간상 검사실 및/또는 치료실로부터 이격되어 배치된다. 컴퓨터 유닛은 바람직하게, 입력 정보를 처리하고 처리된 입력 정보에 따라 상호작용 명령을 생성할 때 컴퓨터 유닛에 의해 사용되는 인공 지능을 탑재할 수 있다. 그럼으로써 컴퓨터 유닛은 검사실 내 상황들 및/또는, 조작자 및/또는 환자의 문의에 매칭되는 상호작용 명령을 생성할 수 있다.
상호작용 명령은 특히 상호작용을 실행하기 위한 명령이다. 상호작용 명령은 컴퓨터 유닛에 의해 생성되고 바람직하게는 검출된 입력 정보에 적합하게 매칭된다. 상호작용 명령은 이어서 컴퓨터 유닛으로부터 보조 장치의 상호작용 인터페이스로 전송된다. 이를 위해, 컴퓨터 유닛과 상호작용 인터페이스는 바람직하게 데이터 교환의 목적으로 상호 연결된다. 보조 장치는 특히 의료 기기 및/또는 조작자 및/또는 환자와의 상호작용을 실행한다.
상호작용은 출력 정보의 출력, 예컨대 음성 출력 및/또는 광학 출력을 포함할 수 있다. 또한, 상호작용은 상호작용 인터페이스의 주변 환경과의 물리적 상호작용도 포함할 수 있다.
따라서 제안된 접근법에 의해, 환자 및/또는 조작자 및/또는 의료 기기와 보조 장치 간에 효율적이고 매우 간편한 상호작용이 수행될 수 있다. 또한, 의료 기기를 이용한 검사 및/또는 치료 동안에도, 환자 및/또는 조작자 및/또는 의료 기기와의 상호작용이 수행될 수 있다.
일 실시예에 따라, 상호작용 명령은, 컴퓨터 유닛에서 상호작용 인터페이스의 출력 인터페이스로 전송되는 출력 정보를 포함하며, 출력 인터페이스는 의료 기기 및/또는 조작자 및/또는 환자에게 출력 정보를 출력한다.
출력 정보는 의료 기기를 이용한 환자의 계획된 검사 및/또는 치료에 대한 데이터를 포함할 수 있다. 그 대안으로 또는 추가로, 출력 정보는 환자 및/또는 조작자를 위한 하나 이상의 정보 및/또는 명령을 포함할 수 있다. 이를 위해, 출력 정보는 적어도 부분적으로 광학 출력 정보를 포함하며, 이 광학 출력 정보는 출력 인터페이스의 투사 유닛(projection unit)을 이용하여 의료 기기 및/또는 환자의 표시면 상에 투사된다. 그 대안으로 또는 추가로, 출력 정보는 음향 출력 정보도 포함할 수 있으며, 이 음향 출력 정보는 특히 출력 인터페이스의 스피커에 의해 조작자 및/또는 환자에게 출력된다. 물론, 보조 장치의 출력 인터페이스는 통상의 기술자가 유용하다고 간주하는 다른 출력 정보도 출력할 수 있다.
보조 장치는, 입력 정보를 기반으로 유의미한 출력 정보를 조작자 및/또는 환자에게 제공할 수 있다. 따라서 보조 장치는 의료 기기를 이용하여 실행될 환자의 치료 및/또는 검사와 관련된 지적 정보(intelligent information)를 예컨대 조작자 및/또는 환자에게 제공할 수 있다.
일 실시예에 따라, 상호작용 명령은 컴퓨터 유닛에서 상호작용 인터페이스의 그리퍼 암(gripper arm)으로 전송되는 그리퍼 암 명령을 포함하며, 이 경우 보조 장치는 그리퍼 암 명령에 따라 그리퍼 암을 이용하여 그리퍼 암의 주변 환경과의 물리적 상호작용을 실행한다.
보조 장치는, 그리퍼 암을 이용하여 조작자를 능동적으로 보조할 수 있다. 따라서 보조 장치는, 그리퍼 암을 이용하여, 의료 기기를 이용한 검사 및/또는 치료를 위한 환자의 준비에 필요한 기구들을 조작자에게 건네줄 수 있다.
일 실시예에 따라, 상호작용 명령은, 컴퓨터 유닛으로부터 상호작용 인터페이스의 이동 유닛(locomotion unit)으로 전송되는 이동 명령(locomotion instruction)을 포함하며, 이 경우 보조 장치는 이동 유닛을 이용하여 이동 명령에 따라 이동한다.
이를 위해, 보조 장치는 바람직하게 적어도 부분적으로 로봇으로서 형성될 수 있고, 이동 유닛은 로봇의 일부분일 수 있다. 특히 보조 장치는 의료 기기와 관련하여, 그리고/또는 환자와 관련하여, 그리고/또는 조작자와 관련하여 자신의 상대적 위치를 변경할 수 있다. 이동 명령은 특히 광학 입력 정보를 토대로 생성될 수 있다. 광학 입력 정보는 특히 검사실 내에서의, 그리고/또는 의료 기기와 관련하여 상대적인 환자 및/또는 조작자의 위치에 대한 정보를 포함할 수 있다.
보조 장치의 위치 변경은 바람직하게, 보조 장치가 조작자의 시야 내에 존재하고, 그리고/또는 자신의 물리적 존재가 조작자의 작업을 방해하는 경우에 실행된다. 또한, 의료 기기를 이용한 환자의 검사 및/또는 치료 중에도 보조 장치의 위치 변경이 유용할 수 있다. 이 경우, 보조 장치는 바람직하게는 환자의 시정 영역 내에 배치될 수 있으며, 그럼으로써 환자는 보조 장치의 존재를 인지하게 된다. 또한, 보조 장치는 이동에 의해, 보조 장치가 광학 출력 정보를 투사하기 위한 투사면을 위한 바람직한 위치를 취하도록, 자신의 위치를 변경할 수 있다. 또한, 보조 장치는 이동에 의해, 보조 장치가 환자 및/또는 조작자의 제스처 및/또는 표정 및/또는 움직임의 검출을 위한 바람직한 위치를 취하도록, 자신의 위치를 변경할 수 있다.
일 실시예에 따라, 상호작용 명령은 컴퓨터 유닛에서 상호작용 인터페이스의 가동 서브섹션(movable subsection)으로 전송되는 운동 명령(movement instruction)을 포함하며, 가동 서브섹션은 운동 명령에 따라 보조 장치의 추가 서브섹션과 관련한 자신의 상대 위치를 변경한다.
가동 서브섹션은 특히 운동 명령에 따라서 예컨대 로봇의 몸통일 수 있는 보조 장치의 본체와 관련한 자신의 상대 위치를 변경할 수 있다. 이 경우, 가동 서브섹션은 특히 보조 장치의 추가 서브섹션과 관련한 자신의 상대 위치를 변경할 수 있는지가 중요하다. 보조 장치가 전술한 이동 유닛에 의해 전체로서 이동되면, 가동 서브섹션은 상기 이동과 무관하게 보조 장치의 추가 서브섹션에 대해 상대적인 추가 운동을 실행할 수 있다.
가동 서브섹션의 운동을 통해, 가동 서브섹션에 배치된 보조 장치의 부재들이, 특히 전체 보조 장치의 이동과 무관하게, 바람직한 위치로 이동될 수 있다. 따라서 예컨대 투사 유닛이 가동 서브섹션에 배치될 수 있다. 가동 서브섹션은, 전체 보조 장치의 회전 없이도, 투사 유닛이 투사면에 대해 상대적으로 바람직한 방향을 취할 수 있도록 회전될 수 있다.
일 실시예에 따라, 입력 정보는 조작자 및/또는 환자로부터 유래하는 자연 언어(natural language) 형태의 음성 입력을 포함하며, 컴퓨터 유닛은 입력 정보를 처리하기 위해 자연 언어 처리 방법을 이용한다.
일반적으로 역사적 발전 과정에서 생성되는, 인간이 말하는 음성을 자연 언어라 지칭한다. 또한, 자연 언어에는 의사소통의 조절을 위한 제스처 및/또는 표정 및/또는 어조 및/또는 억양도 포함할 수 있다. 자연 언어는 형식 언어와 달리 일반적으로 구조적 및 어휘적 모호성을 보유한다.
자연 언어로 생성된 입력 정보의 가능한 처리 방법 중 하나는, 음성-문자 변환 알고리즘(speech-to-text algorithm)을 이용하여, 자연 언어로 생성된 입력 정보를 텍스트로 변환하는 것이다. 이어서 컴퓨터 유닛은 예컨대 잠재 의미 색인(latent semantic indexing, 축약해서 LSI)을 이용하여 텍스트에 의미를 부여할 수 있다.
보조 장치는 자연 언어의 처리를 이용하여 바람직하게, 통상 보조 장치의 제어를 위해 구조화된 음성 명령들에 대한 지식이 없는 환자의 문의에 반응할 수 있다. 보조 장치는 복잡하게 작성된 문의들도 처리할 수 있고, 이에 대해 적합한 상호작용 명령을 생성할 수도 있다. 이 경우, 바람직하게는 상호작용 명령이 음향 출력 정보를 포함할 수 있다. 출력 정보도 마찬가지로 자연 언어로 생성될 수 있다. 자연 언어로 생성된 음향 출력 정보의 출력은 환자를 안심시키는 데 기여할 수 있다. 따라서 보조 장치와 환자 및/또는 조작자 사이에 매우 간편하면서도 직관적인 의사소통이 수행될 수 있다.
일 실시예에 따라, 입력 정보로서 입력 인터페이스의 광학 센서에 의해 환자 및/또는 조작자의 제스처 및/또는 표정 및/또는 신체 움직임이 검출되며, 검출된 제스처 및/또는 표정 및/또는 신체 움직임을 토대로 상호작용 명령이 생성된다.
광학 센서는 3D 영상 데이터 수집 유닛, 예컨대 3D 카메라를 포함할 수 있다. 따라서 보조 장치는 특히 환자 및/또는 조작자의 비언어적 의사소통을 검출할 수 있다. 이 경우, 비언어적 의사소통은 환자 및/또는 조작자의 음성 입력과 조합되어 컴퓨터 유닛에 의해 처리될 수 있다. 환자의 제스처 및/또는 표정 및/또는 신체 움직임을 토대로 보조 장치는 바람직하게는 환자의 감정 상태도 검출할 수 있다. 이 경우, 감정 상태는 입력 정보로서 컴퓨터 유닛에 의해 처리될 수 있고, 상호작용 인터페이스의 출력 인터페이스에 의해 환자의 감정 상태에 매칭되는 상호작용, 예컨대 진정 효과가 있는 음악 및/또는 이미지의 출력이 실행될 수 있다.
따라서 환자 및/또는 조작자의 제스처 및/또는 표정 및/또는 신체 움직임의 검출은 보조 장치의 적용 가능성의 다양성을 증가시킨다. 보조 장치가 이동 유닛을 포함한다면, 보조 장치는 매우 바람직하게 검사실 및/또는 치료실 내에서 환자 및/또는 조작자의 제스처 및/또는 표정 및/또는 신체 움직임을 검출하기 위해 포지셔닝될 수 있다.
일 실시예에 따라, 하나 이상의 데이터 베이스에는, 의료 기기를 이용한 환자의 검사 및/또는 치료와 관련된 정보 데이터가 저장되며, 이 경우 하나 이상의 데이터 베이스에 저장된 정보 데이터에 따라 상호작용 명령의 생성이 실행된다.
특히 컴퓨터 유닛은 하나 이상의 데이터 베이스로부터 정보 데이터를 로딩할 수 있다. 하나 이상의 데이터 베이스는 예컨대 의료 기기를 이용한 환자의 검사 및/또는 치료와 관련된 전문 지식을 보유한 의료 데이터 베이스를 포함할 수 있다. 따라서 하나 이상의 데이터 베이스에는 의학 전문 서적 및/또는 학술 논문이 저장될 수 있다. 예컨대 하나 이상의 데이터 베이스에는 의료 기기를 이용한 검사 및/또는 치료와 관련한 금기사항들이 저장될 수 있고, 출력 정보는 이들 금기사항과 관련된 조작자용 정보를 포함할 수 있다.
특히 하나 이상의 데이터 베이스는 환자 데이터 베이스를 포함한다. 환자 데이터 베이스는 특히 의료 기기가 위치해 있는 의료 시설, 예컨대 병원에 특성화되어 있다. 따라서 환자 데이터 베이스는 의료 시설의 병원 정보 시스템의 일부분일 수 있다. 환자에 특성화되어 있는 정보 데이터는, 환자의 건강 상태 및/또는 환자 이력, 예컨대 환자의 과거 병력, 및/또는 환자의 추가로 계획되어 있는 검사 및/또는 치료, 및/또는 환자의 요구, 예컨대 의료 기기를 이용한 환자의 치료 및/또는 검사 동안 재생될 특정 음악에 대한 정보들을 포함할 수 있다.
따라서 상호작용 명령은 바람직하게, 의료 기기를 이용하여 검사 및/또는 치료를 받아야 하는 환자에 맞추어 조정될 수 있다. 예컨대 상호작용은, 의료 기기를 이용한 치료 및/또는 검사에 대해 있을 수 있는 환자의 공포를 덜어주는, 환자 맞춤형 음향 출력 정보 및/또는 광학 출력 정보의 송출을 포함할 수 있다. 그러한 출력 정보는 예컨대 환자가 좋아하는 음악 및/또는 환자의 요구에 따른, 진정 효과가 있는 투사 영상일 수 있다.
일 실시예에 따라, 상호작용 명령 및 이 상호작용 명령의 생성 시 참고하였던 관련 입력 정보는 하나 이상의 데이터 베이스에 정보 데이터로서 저장될 수 있다.
따라서 하나 이상의 데이터 베이스는 자기 학습 데이터 베이스로서 형성될 수 있다. 상호작용 명령은 관련 입력 정보와 함께 훈련 데이터(training data)로서 하나 이상의 데이터 베이스에 저장될 수 있다. 따라서 하나 이상의 데이터 베이스에 저장된 데이터의 품질은 계속해서 개선될 수 있다.
일 실시예에 따라, 상호작용 명령의 생성을 위해 컴퓨터 유닛은 검출된 입력 정보 외에, 데이터 베이스에 저장된 상호작용 명령들 및/또는 저장된 입력 정보들도 이용한다.
따라서 컴퓨터 유닛은 데이터 베이스에 다음번 액세스 시 입력 정보에 부합하는 상호작용 명령을 바로 호출할 수 있고, 이 상호작용 명령을 다시 먼저 검출할 필요가 없다. 그럼으로써, 송출된 상호작용 명령들의 품질이 계속해서 개선될 수 있다.
일 실시예에 따라, 상호작용 명령의 생성 동안, 컴퓨터 유닛은 잠재적 상호작용 명령들에 대한 복수의 가설을 작성하고, 상기 잠재적 상호작용 명령들에 대한 복수의 가설을 평가한다.
특히 복수의 가설의 평가는 컴퓨터 유닛에 의해 동시에, 예컨대 컴퓨터 유닛의 복수의 프로세서에 의해 수행될 수 있다. 복수의 가설을 작성하기 위해, 컴퓨터 유닛은 다양한 응답 출처들, 예컨대 데이터 베이스들에서, 처리되는 입력 정보에 기반한 잠재적 상호작용 명령들을 검색할 수 있다. 복수의 가설의 평가 전에, 복수의 가설의 필터링이 수행될 수 있다.
잠재적 상호작용 명령들에 대한 복수의 가설의 평가는 처리되는 입력 정보에 따라, 그리고/또는 증거 출처들, 예컨대 하나 이상의 데이터 베이스로부터 로딩된 추가 정보 데이터에 따라 수행될 수 있다. 복수의 가설의 평가는, 잠재적 상호작용 명령에 대한 가설이 처리된 입력 정보에 기반한 적합한 상호작용 명령을 포함하는 지에 대한 확실성의 정도(degree of certainty)의 결정을 포함할 수 있다.
이어서, 컴퓨터 유닛은 잠재적 상호작용 명령들에 대한 복수의 가설을 통합할 수 있다. 이와 관련하여, 컴퓨터 유닛은 자신의 평가에 기초하여 복수의 가설을 비교할 수 있다. 이 경우, 상호작용 명령의 생성은 바람직하게 복수의 가설 중 최고의 평가를 받은 가설에 속하는 잠재적 상호작용 명령의 선택을 포함한다.
따라서 컴퓨터 유닛은, 입력 정보를 처리할 때, 특히 추가의 정보 출처의 정보들을 이용하여, 입력 정보에서 논리적으로 추론할 수 있다. 따라서 컴퓨터 유닛은 입력 정보를 처리하는 동안 입력 정보의 의미를 자동으로 검출할 수 있다. 그럼으로써, 입력 정보를 기반으로 매우 적합한 상호작용 명령이 생성될 수 있다.
일 실시예에서는, 잠재적 상호작용 명령들 중 하나 이상의 상호작용 명령에 따라, 관련 평가의 송출과 함께 보조 장치의 주변 환경과의 상호작용이 실행된다.
따라서 실행되는 상호작용 명령의 가설의 평가는 조작자 및/또는 환자에게 특히 음향적으로 송출될 수 있다. 그 대안으로 또는 추가로, 가설의 생성 시 이용된 응답 출처에 대한 정보, 예컨대 이용된 전문 서적의 표제가 송출될 수 있다. 그 대안으로 또는 추가로, 가설의 선택에 대한 근거 및/또는 대안적 가설들도 송출될 수 있다.
따라서, 조작자 및/또는 환자에게 추가의 메타 정보들이 제공될 수 있다. 이런 메타 정보들은 조작자 및/또는 환자로 하여금 실행되는 상호작용의 판단을 수월하게, 그리고/또는 가능하게 할 수 있다. 이런 경우에, 바람직하게는, 상호작용은 출력 정보의 송출로서 형성된다. 예컨대 보조 장치가 출력 정보에 추가로, 상기 출력 정보가 고도의 확실성을 보유한다는 점을 조작자 및/또는 환자에게 알린다면, 조작자 및/또는 환자는 출력 정보를 가능한 신뢰할 수 있다. 그럼으로써, 보조 장치의 출력 정보는 매우 바람직하게 환자 및/또는 조작자의 인간적인 판단 능력과 조합될 수 있다.
일 실시예에 따라, 컴퓨터 유닛은 상이한 의료 기기들에 할당된 복수의 보조 장치와 데이터 교환을 고려하여 연결된 외부 컴퓨터 유닛을 포함한다.
따라서 복수의 보조 장치가 외부 컴퓨터 유닛에 액세스할 수 있다. 외부 컴퓨터 유닛은 특히, 내부에 의료 기기 및/또는 보조 장치가 배치된 검사실 및/또는 치료실의 외부에 배치된다. 외부 컴퓨터 유닛은 바람직하게 의료 시설의 외부에, 예컨대 내부에 의료 기기가 배치된 병원의 외부에도 배치될 수 있다. 따라서 외부 컴퓨터 유닛은 다양한 의료 설비들과 연결된 컴퓨터 센터 내에 설치될 수 있다. 이 경우, 바람직하게 고성능 컴퓨터 유닛으로서 형성된 하나의 외부 컴퓨터 유닛이 복수의 보조 장치를 위한 계산 작업을 수행할 수 있는 장점이 제공된다. 이로써 비용 절감이 가능하다. 그 밖에도, 외부 컴퓨터 유닛은, 특히 공간상 검사실 및/또는 보조 장치로 국한되지 않기 때문에, 매우 높은 처리 능력을 제공할 수 있다.
특히 외부 컴퓨터 유닛은, 바람직하게는 고속의, 데이터 교환을 고려하여 보조 장치와 연결된다. 외부 컴퓨터 유닛에서는 입력 정보의 처리 및/또는 처리된 입력 정보에 따른 상호작용 명령의 생성이 실행될 수 있다. 이를 위해, 입력 정보가 보조 장치의 입력 인터페이스로부터 외부 컴퓨터 유닛으로 직접 전송될 수 있거나, 처리된 입력 정보가 컴퓨터 유닛으로부터 외부 컴퓨터 유닛으로 전송될 수 있다.
또한, 본 발명은 하나의 입력 인터페이스와 하나의 상호작용 인터페이스를 포함하여, 환자의 의료 검사 과정 및/또는 치료 과정을 보조하기 위한 보조 장치에 기반하며, 이때 상기 보조 장치는 본 발명에 따른 방법을 실행하도록 형성된다. 따라서 보조 장치는, 이 보조 장치와 의료 기기 및/또는 조작자 및/또는 환자 간의 상호작용을 위한 방법을 실행하도록 형성된다.
입력 인터페이스는 입력 정보를 검출하도록 형성되며, 입력 정보는 의료 기기 및/또는 조작자 및/또는 환자의 정보를 포함한다. 상호작용 인터페이스는 상호작용 명령에 따라 보조 장치의 주변 환경과의 상호작용을 실행하도록 형성된다.
보조 장치의 일 실시예에 따라, 상호작용 인터페이스는 출력 인터페이스를 포함한다.
출력 인터페이스는 투사 유닛을 포함할 수 있다. 또한, 출력 인터페이스는, 조작자 및/또는 환자에게 음향 신호들을 송출하기 위한 음향 출력 유닛, 특히 음성 출력 유닛을 포함할 수 있다.
따라서 보조 장치는 바람직하게 입력 인터페이스 및 출력 인터페이스로 형성된 양방향 통신 인터페이스를 포함한다. 양방향 통신 인터페이스는 바람직하게는 시청각 방식으로 형성된다. 따라서 보조 장치와 환자 및/또는 조작자 간에 상이한 유형의 정보들이 교환될 수 있다.
보조 장치의 일 실시예에 따라, 상호작용 인터페이스는 그리퍼 암을 포함한다.
이 경우, 그리퍼 암은 바람직하게는 팔 부위에 배치된다. 상호작용 인터페이스는 1개 초과의 그리퍼 암도 포함할 수 있다. 바람직하게는 상호작용 인터페이스가 특히 가동 관절 유닛을 포함한다. 관절 유닛은 그리퍼 암의 다각적인 가동을 가능케 할 수 있는 복수의 조인트를 포함할 수 있다. 이 경우, 바람직하게는 복수의 관절 유닛 중 하나 이상의 관절 유닛에 힘 센서가 배치된다. 힘 센서는 관절 유닛들의 제어부를 제어하는 힘 제어부와 연결될 수 있다. 바람직하게 상호작용 인터페이스는 접촉을 기록할 수 있는 접촉 센서도 포함한다. 그리퍼 암은 바람직하게 상호작용 인터페이스의 상호작용을 위해 큰 유효범위를 제공한다. 그 밖에도, 그리퍼 암은 특히 광학 출력 정보 및/또는 음향 출력 정보의 출력에 추가로, 추가적인 상호작용 가능성을 제공할 수 있다.
보조 장치의 일 실시예에 따라, 상호작용 인터페이스는 이동 유닛을 포함한다.
이동 유닛은 이동 수단, 예컨대 롤러들을 포함할 수 있다. 이동 유닛은 구동 토크를 생성하기 위한 모터를 포함할 수 있고, 이때 구동 토크는 이동 수단으로 전달된다. 보조 장치가 예컨대 휴머노이드 로봇(humanoid robot)으로서 형성된다면, 이동 유닛은 적어도 부분적으로, 특히 가동 관절부들을 가진 다리로서 형성될 수 있다. 이동 유닛은 특히, 하나의 이동 평면에서 2개 이상의 공간 방향으로 보조 장치의 위치를 변경하도록 형성된다. 이동 유닛은 특히, 보조 장치의 위치를 전체로서 변경하도록 형성된다.
특히 보조 장치는 이동 유닛을 이용하여 의료 기기에 대해, 그리고/또는 조작자에 대해, 그리고/또는 환자에 대해 상대적으로 위치를 변경할 수 있다. 따라서 보조 장치는, 예컨대 적절한 위치에 경고 알림을 투사할 수 있도록 하기 위해, 룸 내에서 특히 바람직한 위치를 취할 수 있다. 또한, 로봇으로서 형성된 보조 장치는 이동 유닛을 이용하여 예컨대 자동으로 충전 지점으로 이동할 수 있다.
보조 장치의 일 실시예에 따라, 상호작용 인터페이스는, 보조 장치의 추가 서브섹션과 관련한 자신의 상대 위치를 변경하도록 형성되는 가동 서브섹션을 포함한다.
가동 서브섹션에는 보조 장치의 컴포넌트들이 배치될 수 있다. 예컨대 보조 장치의 하나 이상의 컴포넌트 및/또는 입력 인터페이스의 컴포넌트 및/또는 그리퍼 암이 가동 서브섹션에 배치될 수 있다. 이 경우, 상기 컴포넌트는 보조 장치의 이동과 무관하게 전체로서 가동을 실행할 수 있다. 그럼으로써, 컴포넌트는 바람직한 위치를 취할 수 있다.
보조 장치의 일 실시예에 따라, 보조 장치는 외부 컴퓨터 유닛으로 연결된 데이터 인터페이스를 포함한다.
특히 데이터 인터페이스는 입력 인터페이스와 외부 컴퓨터 유닛 간의 데이터 전송, 및/또는 외부 컴퓨터 유닛과 상호작용 인터페이스 간의 데이터 전송을 가능하게 한다. 외부 컴퓨터 유닛은 입력 정보를 처리하도록 형성될 수 있다. 외부 컴퓨터 유닛은 처리된 입력 정보에 따라 상호작용 명령을 생성하도록 형성될 수 있다. 외부 컴퓨터 유닛은 바람직하게 데이터 교환의 목적으로 상이한 의료 기기들에 할당된 복수의 보조 장치와 연결된다.
보조 장치의 일 실시예에 따라, 보조 장치는 적어도 부분적으로 로봇으로서 형성된다.
로봇은 전술한 음성 녹음 유닛 및/또는 전술한 광학 센서 및/또는 전술한 투사 유닛 및/또는 전술한 음향 출력 유닛을 포함할 수 있다. 로봇은 바람직하게 전술한 이동 유닛 및/또는 전술한 그리퍼 암을 포함한다. 부분적으로만 로봇으로서 형성된 보조 장치는 통상, 예컨대 검사실/또는 치료실 내에 로봇과 별개로 설치되는 추가 컴포넌트들을 포함한다. 바람직하게는 컴퓨터 유닛, 특히 외부 컴퓨터 유닛도, 로봇과 별개로 설치된다. 보조 장치는 완전히 로봇으로서 형성될 수도 있다.
로봇은 특히 자신의 주변 환경과 물리적으로 상호작용하도록 형성된다. 따라서 로봇은 예컨대 의료 기기를 이용한 검사 및/또는 치료를 위해 환자가 준비하는 동안 조작자를 능동적으로 보조할 수 있다. 예컨대 로봇은 조작자에게 검사 및/또는 치료를 위해 필요한 도구들을 건넬 수 있다.
보조 장치의 일 실시예에 따라, 로봇은 휴머노이드 로봇의 형태로 형성된다.
휴머노이드 로봇은 특히 환자에게 친숙해 보일 수 있는 장점이 있다. 휴머노이드 로봇은 검사실 및/또는 치료실 내에 계속 상주할 수 있다. 검사실 및/또는 치료실 내 휴머노이드 로봇의 존재는, 특히 조작자가 상기 검사실 및/또는 치료실에서 나갔을 때, 바람직하게 환자를 진정시킬 수 있다. 휴머노이드 로봇은 환자에게 항시 대화 상대자가 있음을 시그널링할 수도 있다.
그 밖에도, 본 발명은 컴퓨터 유닛과 본 발명에 따른 보조 장치를 포함하는 보조 시스템에 기반하며, 이때 컴퓨터 유닛은 보조 장치와 함께 본 발명에 따른 방법을 실행하도록 형성된다. 따라서 보조 시스템은, 보조 장치와 의료 기기 및/또는 조작자 및/또는 환자 간의 상호작용을 위한 방법을 실행하도록 형성된다.
입력 인터페이스와 컴퓨터 유닛은 입력 인터페이스로부터 컴퓨터 유닛으로 검출된 입력 정보를 전송하도록 형성된다. 이를 위해, 입력 인터페이스는 특히 데이터 교환의 목적으로 컴퓨터 유닛과 연결된다. 컴퓨터 유닛은 입력 정보를 처리하도록 형성된다. 컴퓨터 유닛은 처리된 입력 정보에 따라 상호작용 명령을 생성하도록 형성된다. 컴퓨터 유닛과 상호작용 인터페이스는, 생성된 상호작용 명령을 컴퓨터 유닛으로부터 상호작용 인터페이스로 전송하도록 형성된다. 이를 위해, 컴퓨터 유닛과 상호작용 인터페이스는 특히 데이터 교환의 목적으로 상호 연결된다.
보조 시스템의 일 실시예에 따라, 상호작용 인터페이스는 출력 인터페이스를 포함하며, 컴퓨터 유닛은 출력 인터페이스를 제어하도록 형성된 출력 제어 모듈을 포함한다.
출력 인터페이스의 제어를 위해, 출력 제어 모듈은 출력 정보를 출력 인터페이스로 전송할 수 있다. 그 다음, 출력 인터페이스는 출력 정보를 출력할 수 있다. 이를 위해, 출력 제어 모듈은 바람직하게 데이터 교환의 목적으로 출력 인터페이스와 연결된다.
보조 시스템의 일 실시예에 따라, 상호작용 인터페이스는 그리퍼 암을 포함하며, 컴퓨터 유닛은 그리퍼 암을 제어하도록 형성된 그리퍼 암 제어 모듈을 포함한다.
그리퍼 암의 제어를 위해, 그리퍼 암 제어 모듈은 그리퍼 암 명령을 그리퍼 암으로 전송할 수 있다. 이 경우, 그리퍼 암은 그리퍼 암 명령에 따라 주변 환경과의 물리적 상호작용을 실행할 수 있다. 이를 위해, 그리퍼 암 제어 모듈은 바람직하게 데이터 교환의 목적으로 그리퍼 암과 연결된다.
보조 시스템의 일 실시예에 따라, 상호작용 인터페이스는 이동 유닛을 포함하며, 컴퓨터 유닛은 이동 유닛을 제어하도록 형성된 이동 제어 모듈을 포함한다.
이동 유닛의 제어를 위해, 이동 제어 모듈은 이동 명령을 이동 유닛으로 전송할 수 있다. 이 경우, 이동 유닛은 이동 명령에 따라 룸 내에서의 보조 장치의 위치를 변경할 수 있다. 이를 위해, 이동 제어 모듈은 바람직하게 데이터 교환의 목적으로 이동 유닛과 연결된다.
보조 시스템의 일 실시예에 따라, 상호작용 인터페이스는, 보조 장치의 추가 서브섹션과 관련한 자신의 상대 위치를 변경하도록 형성된 가동 서브섹션을 포함하며, 컴퓨터 유닛은 가동 서브섹션을 제어하도록 형성된 운동 제어 모듈을 포함한다.
가동 서브섹션의 제어를 위해, 운동 제어 모듈은 운동 명령을 가동 서브섹션으로 전송할 수 있다. 이 경우, 가동 서브섹션은 운동 명령에 따라 보조 장치의 추가 서브섹션과 관련한 자신의 상대 위치를 변경할 수 있다. 이를 위해, 운동 제어 모듈은 바람직하게는 데이터 교환의 목적으로 가동 서브섹션과 연결된다.
보조 시스템의 일 실시예에 따라 컴퓨터 유닛은, 자연 언어로 작성되어 입력 인터페이스의 음성 녹음 유닛에 의해 수신되는 음성 입력을 처리하도록 형성된 음성 모듈을 포함한다.
이 경우, 음성 모듈은 자연 언어의 처리를 위한 방법을 사용할 수 있다.
보조 시스템의 일 실시예에 따라, 컴퓨터 유닛은 입력 인터페이스의 광학 센서에 의해 수신되는 광학 신호들을 처리하도록 형성된 영상 처리 모듈을 포함한다.
이를 위해, 영상 처리 모듈은 바람직하게 광학 신호들에서 패턴 인식을 수행하도록 형성된다. 영상 처리 모듈은 예컨대 환자 및/또는 조작자의 제스처 및/또는 표정 및/또는 신체 움직임을 처리할 수 있다. 또한, 영상 처리 모듈은 예컨대 광학 신호들에서 위험 상황, 예컨대 환자의 잘못된 포지셔닝을 검출할 수 있다.
보조 시스템의 일 실시예에 따라, 컴퓨터 유닛은 병렬 처리형 슈퍼컴퓨터(parallel-processing supercomputer) 및/또는 클라우드 컴퓨터로 형성된 외부 컴퓨터 유닛으로서 형성된다.
따라서 외부 컴퓨터 유닛은 특히 고성능 컴퓨터 유닛으로서 형성된다. 바람직하게 외부 컴퓨터 유닛은 예컨대 상호작용 명령을 위한 복수의 가설을 병렬 처리할 수 있는 복수의 프로세서를 포함한다. 그럼으로써 외부 컴퓨터 유닛의 작업 속도가 증가할 수 있다. 또한, 상기 컴퓨터 유닛은, 매우 복잡한 입력 정보를 정확하게 처리하고, 적합한 상호작용 명령을 매우 신속하게 생성하도록 설계될 수 있다.
또한, 본 발명은, 하나의 컴퓨터 유닛과 본 발명에 따른 복수의 보조 장치를 포함하는 유닛에 기반하며, 이 경우 컴퓨터 유닛은 복수의 보조 장치 중 각각의 개별 보조 장치와 함께 본 발명에 따른 방법을 실행하도록 형성된다.
이로부터, 본 발명에 따른 복수의 보조 장치가 하나의 컴퓨터 유닛에 액세스할 수 있는 장점이 제공된다. 복수의 보조 장치는 다양한 장소, 예컨대 다양한 의료 설비에 설치될 수 있다. 컴퓨터 유닛은 복수의 의료 설비와 연결될 수 있는 중앙 컴퓨터 시스템으로서 형성될 수 있다. 그에 따라 컴퓨터 유닛은 복수의 보조 장치를 위해 입력 정보의 처리 및 상호작용 명령의 생성을 실행할 수 있다. 물론, 복수의 보조 장치는 상호 독립적으로 주변 환경과의 상호작용을 실행할 수 있다.
또한, 본 발명은 하나의 의료 기기와 본 발명에 따른 하나의 보조 장치를 포함하는 시스템에 기반한다.
특히 의료 기기와 보조 장치가 검사실 및/또는 치료실 내에 배치된다.
본 발명에 따른 보조 장치, 본 발명에 따른 보조 시스템, 본 발명에 따른 유닛, 및 본 발명에 따른 시스템의 장점들은 실질적으로 앞서 상세하게 설명한 본 발명에 따른 방법의 장점들에 상응한다. 여기서 언급한 특징들, 장점들 또는 대안적 실시예들이 청구된 다른 물건들(objects)에도, 그리고 그 반대로도 똑같이 전용된다. 달리 말하면, 물건 청구항들은 방법과 관련하여 기술되거나 청구된 특징들에 의해서도 개선될 수 있다. 이 경우, 방법의 상응하는 기능적 특징들은 상응하는 물건 관련 모듈들, 특히 하드웨어 모듈들로 형성된다.
하기에서 본 발명은 도면들에 도시된 실시예들을 토대로 더 상세히 기술되고 설명된다.
도 1은 본 발명에 따른 복수의 시스템을 포함하는 본 발명에 따른 유닛의 개략도이다.
도 2는 본 발명에 따른 보조 시스템의 개략도이다.
도 3은 본 발명에 따른 방법의 제1 실시예의 흐름도이다.
도 4는 본 발명에 따른 방법의 제2 실시예의 흐름도이다.
도 5는 보조 장치의 개략적인 상호작용 가능성들을 설명하기 위한 도면이다.
도 1에는, 본 발명에 따른 복수의 시스템을 포함하는 본 발명에 따른 유닛의 개략도가 도시되어 있다. 본 발명에 따른 유닛은 하나의 컴퓨터 유닛(11)과 복수의 시스템(32)을 포함한다. 복수의 시스템(32)은 하나의 보조 장치(1)와 하나의 의료 기기(21)를 각각 포함한다. 컴퓨터 유닛(11)은 복수의 보조 장치(1) 중 하나의 개별 보조 장치와 함께 본 발명에 따른 방법을 실행하도록 형성된다. 컴퓨터 유닛(11)은 하나의 보조 장치(1)와 함께 본 발명에 따른 보조 시스템(34)을 형성한다.
복수의 시스템(32) 중 하나의 시스템은 상대적으로 더 상세히 도시된 반면, 또 다른 시스템들(32)은 개략적으로만 도시되어 있다. 본 발명에 따른 시스템들(32)은 각각 하나의 의료 기기(21)와 본 발명에 따른 하나의 보조 장치(1)를 포함한다. 상대적으로 더 상세히 도시된 시스템(32)은 제1 실시예에 따른 보조 장치(1)를 포함한다.
의료 기기(21)는 도시된 경우에서 의료 영상 기기(21)로서 형성된다. 의료 영상 기기(21)는 예컨대 자기 공명 기기, 단일 광자 방출 단층 촬영 기기(SPECT 기기), 양전자 방출 단층 촬영 기기(PET 기기), 컴퓨터 단층 촬영기, 초음파 기기, X선 기기, 또는 C-암 장치로서 형성된 X선 기기이다. 또한, 의료 영상 기기(21)는 언급한 복수의 영상 기법들의 임의의 조합을 포함하는 복합 의료 영상 기기일 수도 있다.
물론, 의료 영상 기기(21)가 아닌, 도 1에 도시되지 않은 다른 의료 기기들도 생각해볼 수 있다. 특히 의료 기기는 치료 기기일 수 있다. 따라서 의료 기기는 대안적으로 집중 치료를 위한 기기로서, 예컨대 이동 모니터링 장치 및/또는 호흡 장치 및/또는 주사 장치(infusion apparatus) 및/또는 투석 장치로서 형성될 수 있다. 또한, 의료 기기는 대안적으로 방사선 치료 기기로서 형성될 수 있다. 대안적으로, 의료 기기는 쇄석기(lithotripsy apparatus)로서 형성될 수도 있다. 의료 기기는 대안적으로 심장 진단 기기로서, 예컨대 심전도(ECG) 기기로서 형성될 수 있다. 또한, 의료 기기는 중재 시술을 위한 중재 치료 기기일 수도 있다. 물론, 통상의 기술자가 바람직하다고 여기는 다른 의료 기기도 고려될 수 있다.
도시된 의료 영상 기기(21)는 환자(23)가 그 위에 포지셔닝되는 환자 지지 장치를 포함한다. 의료 영상 기기(21)는 조작자(24)에 의해 조작된다. 의료 영상 기기(21) 및 보조 장치(1)는 검사실(26) 내에 위치된다. 또한, 내부에 의료 영상 기기(21)의 제어를 위한 제어 유닛(30)이 배치되어 있는 조정실(29)도 도시되어 있다.
의료 영상 기기(21)에는 보조 장치(1)가 할당된다. 보조 장치(1)도 도시된 경우에서 검사실(26) 내에 배치된다. 보조 장치(1)는 본 실시예에 따라 조작자(24) 및/또는 의료 영상 기기(21)를 이용하여 검사를 받을 환자(23)와, 특히 쌍방향으로, 의사소통하도록 형성된다.
이를 위해, 보조 장치(1)는 입력 정보를 검출하도록 형성된 입력 인터페이스(2)를 포함한다. 이 경우, 입력 정보는 예컨대 조작자(24)로부터, 그리고/또는 환자(23)로부터 유래할 수 있다. 입력 인터페이스(2)는, 도시된 경우에 예시로서 마이크로폰으로 형성된 음성 녹음 유닛(6)을 포함한다. 그 밖에도, 입력 인터페이스(2)는 예시로서 3D 영상 데이터 수집 유닛으로 형성된 광학 센서(4)를 포함한다.
물론, 입력 인터페이스(2)는 단 하나의 광학 센서(4)만, 그리고/또는 단 하나의 음성 녹음 유닛(6)만 포함할 수도 있다. 입력 인터페이스는 복수의 광학 센서(4) 및/또는 복수의 음성 녹음 유닛(6)을 포함할 수도 있다. 예컨대 입력 인터페이스(2)는, 검사실(26)의 대부분으로부터 광학 입력 정보 및/또는 음향 입력 정보를 최적으로 검출할 수 있도록 하기 위해, 복수의 카메라 및/또는 마이크로폰으로 구성된 어레이를 포함하는 점을 생각해볼 수 있다.
보조 장치(1)는 상호작용 인터페이스(3)를 포함한다. 도시된 경우에서 상호작용 인터페이스(3)는, 조작자(24) 및/또는 환자(23)에게 출력 정보를 출력하도록 형성된 출력 인터페이스(27)로서 형성되어 있다. 도시된 경우에서 출력 인터페이스(27)는, 예시로서 프로젝터로 형성된 투사 유닛(5)을 포함한다. 그 밖에도, 도시된 경우에서 출력 인터페이스(27)는, 예시로서 스피커로 형성된 음성 출력 유닛(7)을 포함한다.
물론, 출력 인터페이스(27)는 단 하나의 투사 유닛(5)만, 그리고/또는 단 하나의 음성 출력 유닛(7)만 포함할 수도 있다. 또한, 출력 인터페이스(27)는 복수의 투사 유닛(5) 및/또는 복수의 음성 출력 유닛(7)도 포함할 수 있다. 예컨대 출력 인터페이스(27)는, 검사실(26)의 대부분에서 광학 출력 정보 및/또는 음향 출력 정보를 최적으로 출력할 수 있도록 하기 위해, 복수의 프로젝터 및/또는 스피커로 구성된 어레이를 포함하는 점을 생각해볼 수 있다.
그 밖에도, 컴퓨터 유닛(11)은 기기 통신 인터페이스(36)를 포함한다. 기기 통신 인터페이스(36)는 도시된 경우에서 보조 장치(1)의 상호작용 인터페이스(3)의 일부분이다. 기기 통신 인터페이스(36)는 데이터 교환의 목적으로 의료 영상 기기(21)의 제어 유닛(30)과 연결된다. 보조 장치(1)와 의료 영상 기기(21) 사이의 상호작용으로서, 기기 통신 인터페이스(36)는 제어 유닛(30)으로 명령을 전송할 수 있다. 이 경우, 제어 유닛(30)은 명령에 따라 의료 영상 기기(21)를 제어할 수 있다. 명령은 예컨대 의료 영상 기기(21)를 이용한 환자(23)의 검사를 중단하라는 중단 명령일 수 있다.
보조 장치(1)는 추가로 컴퓨터 유닛(11)을 포함한다. 컴퓨터 유닛(11)은 도시된 경우에서 예시로서 외부 컴퓨터 유닛으로서 형성된다. 따라서, 컴퓨터 유닛(11)은 검사실(26)의 외부에 배치된다. 컴퓨터 유닛(11)은 조정실(29)의 외부에도 배치된다. 컴퓨터 유닛(11)은 데이터 교환의 목적으로 복수의 시스템(32)과 연결된다. 컴퓨터 유닛(11)은 특히 공간상 복수의 시스템(32)으로부터 분리되어 배치된다.
컴퓨터 유닛(11)은, 도시된 경우에서 병렬 처리형 슈퍼컴퓨터 및/또는 클라우드 컴퓨터로 형성된다. 도시된 경우에, 컴퓨터 유닛(11)은 데이터 베이스(22)와 연결된다. 컴퓨터 유닛(11)은, 데이터 베이스(22)로부터 데이터를 호출하고, 그리고/또는 데이터 베이스(22)에 훈련 데이터를 저장하도록 형성된다.
본 발명의 한 대안적 구성에서, 컴퓨터 유닛(11)은 부분적으로만 외부 컴퓨터 유닛으로서 형성될 수도 있다. 또한, 컴퓨터 유닛(11)은 전체가 보조 장치(1)의 공간 환경 내에, 예컨대 검사실(26) 내에, 그리고/또는 의료 기기(21)에 할당된 조정실 내에 배치될 수도 있다. 이 경우, 예컨대 컴퓨터 연산이 의료 기기(21) 및/또는 보조 장치(1)에 할당된 컴퓨터 유닛(11)과 외부 컴퓨터 유닛으로 분산되어 실행되는 점을 생각해볼 수 있다.
본 실시예에서, 보조 장치(1)는 입력 인터페이스(2)에 의해 검출된 입력 정보를 처리하고 상호작용 명령을 생성하기 위한 단일의 컴퓨터 유닛(11)을 포함한다. 그러나 원칙적으로는, 보조 장치(23)가, 예컨대 입력 정보의 처리와 상호작용 명령의 생성을 각각 별도로 담당하는 복수의 컴퓨터 유닛(11)을 포함하는 점도 생각해볼 수 있다.
보조 장치(1)는 컴퓨터 유닛(11)으로 향하는 데이터 인터페이스(10)를 포함한다. 데이터 인터페이스(10)는 도시된 경우에 복수의 데이터 전송 유닛을 포함한다. 데이터 전송 유닛들은 적어도 부분적으로 무선으로 형성될 수 있다. 따라서 데이터 인터페이스(10)는 입력 인터페이스(2)로부터 컴퓨터 유닛(11)으로 수행되는 데이터 전송의 목적으로 입력 인터페이스(2)를 컴퓨터 유닛(11)과 연결한다. 그 밖에도, 데이터 인터페이스(10)는 컴퓨터 유닛(11)으로부터 출력 인터페이스로 수행되는 데이터 전송의 목적으로 출력 인터페이스(27)를 컴퓨터 유닛(11)과 연결한다.
컴퓨터 유닛(11)은, 광학 센서(4)에 의해 수신되는 광학 신호들을 처리하도록 형성된 영상 처리 모듈(8)을 포함한다. 그 밖에도, 영상 처리 모듈(8)은, 투사 유닛(5)을 위한 광학 출력 정보들을 생성하도록 형성될 수 있다. 이를 위해, 영상 처리 모듈(8)은 데이터 전송의 목적으로 데이터 인터페이스(10)를 통해 광학 센서(4) 및/또는 투사 유닛(5)과 연결된다.
또한, 컴퓨터 유닛(11)은, 자연 언어로 작성되어 음성 녹음 유닛(6)에 의해 수신되는 음성 입력을 처리하도록 형성된 음성 모듈(9)을 포함한다. 또한, 음성 모듈(9)은 예컨대 음성 출력 유닛(7)을 위한 음향 음성 출력을 생성할 수 있다. 이를 위해, 음성 모듈은 데이터 인터페이스(10)에 의한 데이터 전송의 목적으로 음성 녹음 유닛(6) 및/또는 음성 출력 유닛(7)과 연결된다.
또한, 컴퓨터 유닛(11)은 출력 인터페이스(27)를 제어하도록 형성된 출력 제어 모듈(28)을 포함한다. 이를 위해, 출력 인터페이스(27)도 마찬가지로 데이터 인터페이스(10)를 통해 출력 제어 모듈(28)과 연결된다.
도 2에는, 본 발명에 따른 보조 시스템(34)의 개략도가 도시되어 있다. 보조 시스템(34)은 제2 실시예에 따라 본 발명에 따른, 로봇(12)으로서 형성된 보조 장치(1)를 포함한다. 또한, 보조 시스템(34)은 컴퓨터 유닛(11)을 포함한다. 그 밖에도, 보조 장치(1)와 함께 본 발명에 따른 시스템(32)을 형성하는 의료 기기(21)도 도시되어 있다.
하기 기술 내용은 실질적으로 도 1의 실시예와의 차이점으로만 국한되며, 동일한 부품들, 특징들 및 기능들과 관련해서는 도 1의 실시예의 기술 내용을 참조한다. 실질적으로 동일한 부품들, 특징들 및 기능들은 원칙적으로 동일한 도면부호로 표시되어 있다.
로봇(12)은 본 실시예에서 휴머노이드 로봇의 형태로 형성된다. 그럼으로써, 로봇(12)은 사람과 유사한 형태를 갖는다. 도시된 경우에, 휴머노이드 로봇(12)은 머리, 몸통, 팔, 다리를 포함한다. 물론, 통상의 기술자가 바람직하다고 여기는 대안적인 로봇(12)의 구성도 고려될 수 있다.
도시된 경우에, 도 1에 도시되고 설명된 보조 장치(1)의 모든 부재가 로봇(12)에 배치된다. 따라서 로봇(12)은, 광학 센서(4) 및 투사 유닛(5)을 구비한 입력 인터페이스(2)를 포함한다. 광학 센서(4)는 바람직하게는 로봇(12)의 머리 부분에 배치된다. 로봇(12)은, 출력 인터페이스(27)를 구비한 상호작용 인터페이스(3)를 포함한다. 출력 인터페이스(27)의 투사 유닛(5)은 예컨대 머리 부분의 상부에 배치된 피코 프로젝터(pico projector)이다. 출력 인터페이스(27)의 음성 출력 유닛(7)은 바람직하게 역시 로봇(12)의 머리 부분에 배치된다. 음성 녹음 유닛(6)은 로봇(12)의 임의의 위치에 배치될 수 있다.
물론, 로봇(12)은 보조 장치(1)의 개별 부재들만 포함할 수도 있다. 따라서 보조 장치는 부분적으로만 로봇(12)으로서 형성될 수 있다. 그럼으로써, 예컨대 음성 녹음 유닛(6)은 로봇(12)에 배치되지 않고 검사실(26) 내에 마이크로폰 어레이로서 형성될 수 있다.
또한, 로봇(12)은 바람직하게 컴퓨터 유닛(11)을 포함하는 것이 아니라, 다만 데이터 인터페이스(10)를 통해 상기 컴퓨터 유닛과 연결된다. 도 1에 도시된 것처럼, 도 2에서도 로봇(12)의 입력 인터페이스(2) 및 상호작용 인터페이스(3)는 데이터 인터페이스(10)를 통해 컴퓨터 유닛(11), 예컨대 영상 처리 모듈(8) 및 음성 모듈(9)과 연결된다.
추가로 로봇의 상호작용 인터페이스(3)는 그리퍼 암(15)을 포함한다. 그리퍼 암(15)은 보조 장치(1)의 주변 환경과 물리적으로 상호작용하도록 형성된다. 따라서 컴퓨터 유닛(11)은, 그리퍼 암(15)을 제어하도록 형성된 그리퍼 암 제어 모듈(33)을 포함한다. 이를 위해, 그리퍼 암(15)도 역시 데이터 인터페이스(10)를 통해 그리퍼 암 제어 모듈(33)과 연결된다.
그리퍼 암(15)은 도시된 경우에 휴머노이드 로봇(12)의 한쪽 팔에 배치된다. 보조 장치(1)는 예컨대 그리퍼 암(15)을 이용하여, 의료 영상 기기(21)에 의한 검사를 위해 환자(23)를 준비시키는 데 필요한 도구들을 조작자(24)에게 건넬 수 있다. 그 밖에도, 상호작용 인터페이스(13)는 힘 센서(16)를 구비한 관절 유닛(17)을 포함한다. 관절 유닛(17)은 움직일 수 있게 형성되며, 이때 힘 센서(16)가 관절 유닛(17)의 관절부에 작용하는 힘을 측정할 수 있다. 관절 유닛(17)은 그리퍼 암(15)의 위치 변경을 가능하게 한다.
그 밖에도, 상호작용 인터페이스(3)는 이동 유닛(18)을 포함한다. 이동 유닛(18)은, 룸 내에서 로봇(12)의 위치를 변경하도록 형성된다. 이동 유닛(18)은, 로봇(12)의 위치를 전체적으로 변경하도록 형성된다. 따라서 컴퓨터 유닛(11)은, 이동 유닛(18)을 제어하도록 형성된 이동 제어 모듈(19)을 포함한다. 이를 위해, 이동 유닛(18)도 역시 데이터 인터페이스(10)를 통해 이동 제어 모듈(19)과 연결된다.
이동 유닛(18)은 도시된 경우에 예시로서 롤러들을 갖는다. 롤러들은 이동 평면(20) 상에서 로봇(12)의 위치 변경을 가능하게 한다. 본 경우에 이동 평면(20)은 검사실(26)의 바닥이다. 롤러들은 특히 이동 평면(20) 상에서 2개 이상의 공간 방향으로 로봇(12)의 위치 변경을 가능하게 한다. 로봇(12)은 롤러들을 이용하여 조작자(24) 및/또는 환자(23) 및/또는 의료 기기(21)와 관련한 자신의 상대 위치를 변경할 수 있다.
그 밖에도, 상호작용 인터페이스(3), 보조 장치의 추가 서브섹션과 관련한 자신의 상대 위치를 변경하도록 형성된 가동 서브섹션(31)을 포함한다. 따라서 컴퓨터 유닛(11)은, 가동 서브섹션(31)을 제어하도록 형성된 운동 제어 모듈(14)을 포함한다. 이를 위해, 가동 서브섹션(31)은 마찬가지로 데이터 인터페이스(10)를 통해 운동 제어 모듈(14)과 연결된다.
도시된 경우에, 가동 서브섹션(31)은 예시로서 피벗 조인트로서 형성된다. 가동 서브섹션은 휴머노이드 로봇(12)의 머리과 몸통 사이에 배치된다. 따라서 로봇(12)의 머리부는 로봇(12)의 몸통으로부터 독립된 회전 운동을 실행할 수 있다. 그에 따라 로봇의 머리부는, 예컨대 투사 유닛(5)을 이용하여 표시면 상으로 광학 출력 정보를 투사하기 위해, 가동 서브섹션의 운동에 의해 적합한 방향으로 회전될 수 있다. 물론 가동 서브섹션은 다른 방식으로도 형성될 수도 있고, 그리고/또는 다른 방식으로 배치될 수도 있다.
도 3에는, 보조 장치(1)와 의료 기기(21) 및/또는 조작자(24) 및/또는 환자(23) 간의 상호작용을 위한 본 발명에 따른 방법의 제1 실시예의 흐름도가 도시되어 있다.
제1 방법 단계(100)에서, 보조 장치(1)의 입력 인터페이스(2)에 의해 입력 정보의 검출이 수행되며, 입력 정보는 의료 기기(21) 및/또는 조작자(24) 및/또는 환자(23)의 정보를 포함한다.
그 다음 방법 단계(101)에서는, 입력 인터페이스(2)로부터 컴퓨터 유닛(11)으로 검출된 입력 정보의 전송이 수행된다. 검출된 입력 정보의 전송은 입력 인터페이스(2)와 컴퓨터 유닛(11) 사이에서 데이터 인터페이스(10)에 의해 수행된다. 컴퓨터 유닛(11)은 외부 컴퓨터 유닛을 포함한다. 외부 컴퓨터 유닛은 특히 데이터 교환의 목적으로, 상이한 의료 기기들(21)에 할당된 복수의 보조 장치(1)와 연결된다. 그러므로 도 3 및 도 4에 도시된 모든 방법 단계는 컴퓨터 유닛(11) 및/또는 외부 컴퓨터 유닛에 의해 수행된다.
그 다음 방법 단계(102)에서는, 컴퓨터 유닛(11)에 의해 입력 정보의 처리가 수행된다.
그 다음 방법 단계(103)에서는, 컴퓨터 유닛(11)에 의해 처리된 입력 정보에 따라 상호작용 명령의 생성이 수행된다.
그 다음 방법 단계(104)에서는, 생성된 상호작용 명령이 컴퓨터 유닛(11)으로부터 보조 장치(1)의 상호작용 인터페이스(3)로 전송된다. 생성된 상호작용 명령의 전송은 다시 컴퓨터 유닛(11)과 상호작용 인터페이스(3) 사이에서 데이터 인터페이스(10)에 의해 수행된다.
그 다음 방법 단계(105)에서는, 상호작용 명령에 따라 상호작용 인터페이스(3)를 이용하여 보조 장치(1)의 주변 환경과의 상호작용의 실행이 실시된다.
도 4에는, 본 발명에 따른 방법의 제2 실시예의 흐름도가 도시되어 있다. 하기 기술 내용은 실질적으로 도 3의 실시예와의 차이점으로만 국한되며, 동일한 방법 단계들과 관련해서는 도 3의 실시예의 기술 내용을 참조한다. 실질적으로 동일한 방법 단계는 원칙적으로 동일한 도면부호로 표시되어 있다.
도 4에 도시된, 본 발명에 따른 방법의 제2 실시예는 실질적으로 도 3에 따른 본 발명에 따른 방법의 제1 실시예의 방법 단계들(100, 101, 102, 103, 104, 105)을 포함한다. 추가로, 도 4에 도시된, 본 발명에 따른 방법의 제2 실시예는 추가 방법 단계들 및 하위 단계들을 포함한다. 또한, 도 4에 도시된 추가 방법 단계들 및/또는 하위 단계들 중 일부분만을 포함하는, 도 4에 대체되는 방법 시퀀스도 생각해볼 수 있다. 물론, 도 4에 대체되는 방법 시퀀스도 추가 방법 단계들 및/또는 하위 단계들을 포함할 수 있다.
도 4에 도시된 실시예에서, 추가 방법 단계(98)에서는 음향 입력 정보가 제공된다. 음향 입력 정보는, 예컨대 자연 언어로 작성되는, 조작자(24) 및/또는 환자(23)의 음성 입력일 수 있다. 음성 입력은 그 다음 방법 단계(100)에서 입력 인터페이스(2)의 음성 녹음 유닛(6)에 의해 검출된다. 이어서 그 다음 방법 단계(101)에서, 음성 입력은 컴퓨터 유닛(11), 특히 컴퓨터 유닛(11)의 음성 모듈(9)에 의해 자연 언어의 처리를 위한 방법으로 처리된다.
또한, 도 4에 도시된 실시예에서, 그 다음 방법 단계(99)에서는 광학 입력 정보가 발생한다. 예를 들어, 조작자(24) 및/또는 환자는 제스처 및/또는 표정 및/또는 신체 움직임을 만들어 낸다. 제스처 및/또는 표정 및/또는 신체 움직임은 그 다음 방법 단계(100)에서 입력 인터페이스(2)의 광학 센서(4)에 의해 입력 정보로서 검출된다. 제스처 및/또는 표정 및/또는 신체 움직임은 그 다음 방법 단계(102)에서 컴퓨터 유닛(11), 특히 컴퓨터 유닛(11)의 영상 처리 모듈(8)에 의해 처리된다. 이어서 그 다음 방법 단계(103)에서는, 검출된 제스처 및/또는 표정 및/또는 신체 움직임에 따라 컴퓨터 유닛(11)을 이용한 상호작용 명령의 생성이 수행된다.
이 경우, 비언어적 의사소통, 다시 말하면 제스처 및/또는 표정 및/또는 신체 움직임은 환자 및/또는 조작자의 음성 입력과 조합되어 컴퓨터 유닛(11)에 의해 처리될 수 있다.
그 밖에도, 컴퓨터 유닛(11)은 그 다음 방법 단계(103)에서 상호작용 명령의 생성을 위해 데이터 베이스(22)와 연결된다. 데이터 베이스(22)는 예를 들어 환자 데이터 베이스를 포함한다. 데이터 베이스(22) 내에는 의료 기기(21)에 의한 환자(23)의 검사 및/또는 치료와 관련된 정보 데이터가 저장되어 있다. 정보 데이터는 특히 적어도 부분적으로 환자(23)에 특성화되어 있다. 상호작용 명령의 생성을 위해, 그 다음 방법 단계(111)에서는, 컴퓨터 유닛(11)에 의해 데이터 베이스(22)로부터 정보 데이터가 로딩된다. 이어서 그 다음 방법 단계(103)에서, 데이터 베이스(22)로부터 로딩된 정보 데이터에 따라 상호작용 명령의 생성이 수행된다.
방법 단계(103)에서 상호작용 명령이 생성되는 동안, 컴퓨터 유닛(11)은 추가 방법 단계(108)에서 잠재적 상호작용 명령에 대해 복수의 가설(A, B)을 작성한다. 도 4에 도시된 경우에, 컴퓨터 유닛(11)은 예컨대 2개의 가설(A, B), 말하자면 잠재적인 제1 상호작용 명령에 대한 제1 가설(A) 및 잠재적인 제2 상호작용 명령에 대한 제2 가설(B)을 작성한다. 물론, 컴퓨터 유닛(11)은 상이한 개수의 가설들(A, B)도 작성할 수 있다.
방법 단계(103)에서 상호작용 명령이 생성되는 동안, 컴퓨터 유닛(11)은 추가 방법 단계(109)에서 잠재적 상호작용 명령들에 대한 복수의 가설(A, B)을 평가한다. 도시된 경우에, 제1 가설(A)은 제1 등급(AE)으로 평가되고, 제2 가설(B)은 제2 등급(BE)으로 평가된다. 이 경우, 등급 (BE)는 예를 들어 등급 (AE)보다 더 높다.
방법 단계(103)에서 상호작용 명령이 생성되는 동안, 컴퓨터 유닛(11)은 추가 방법 단계(110)에서 최고 등급(BE)을 받은 가설(B)을 선택한다. 이후, 상기 선택된 상호작용 명령에 따라, 보조 장치(1)는 상호작용을 실행한다. 이를 위해, 상기 상호작용 명령은 그 다음 방법 단계(104)에서, 관련 가설(B)의 등급(BE)과 함께 컴퓨터 유닛(11)으로부터 상호작용 인터페이스(3)로 전송된다. 그 다음 방법 단계(105)에서는, 선택된 상호작용 명령에 따라 상호작용 인터페이스(3)에 의해 상호작용이 실행된다. 방법 단계(105)에서 상호작용의 실행 시, 상호작용 명령에 할당된 복수의 가설(B)에 대해 상기 가설들의 평가 시 결정된 등급(BE)도 출력 인터페이스(3)에 의해 출력된다.
추가 방법 단계(112)에서는, 상호작용 명령 및 이 상호작용 명령의 생성의 기준이 되었던 관련 입력 정보가 정보 데이터로서 데이터 베이스(22)에 저장된다. 시간상 후속하는 적용 사례에서, 상호작용 명령의 생성을 위해, 컴퓨터 유닛(11)은 검출된 입력 정보 외에도 데이터 베이스(22)에 저장된 상호작용 명령들 및/또는 저장된 입력 정보들을 이용할 수 있다.
그 다음 방법 단계(105)에서는, 상호작용 인터페이스(3)에 의해 상호작용 명령에 따라 보조 장치(1)의 주변 환경과의 상호작용의 실행이 수행된다. 이 경우, 상호작용 명령의 각각의 유형에 따라 상호작용 인터페이스(3)의 상이한 모듈이 상호작용을 실행한다.
상호작용 명령이, 컴퓨터 유닛(11)으로부터 상호작용 인터페이스(3)의 출력 인터페이스(27)로 전송된 출력 정보를 포함한다면, 상호작용 인터페이스(3)의 출력 인터페이스(27)는 그 다음 방법 단계(114)에서 의료 기기(21) 및/또는 조작자(24) 및/또는 환자(23)에게 출력 정보를 송출한다.
상호작용 명령이, 컴퓨터 유닛(11)으로부터 상호작용 인터페이스(3)의 그리퍼 암(15)으로 전송된 그리퍼 암 명령을 포함한다면, 보조 장치(1)는 그 다음 방법 단계(115)에서 그리퍼 암 명령에 따라 그리퍼 암(15)을 이용하여 그리퍼 암(15)의 주변 환경과의 물리적 상호작용을 실행한다.
상호작용 명령이, 컴퓨터 유닛(11)으로부터 상호작용 인터페이스(3)의 이동 유닛(18)으로 전송된 이동 명령을 포함한다면, 보조 장치(1)는 그 다음 방법 단계(116)에서 이동 명령에 따라 이동 유닛(18)을 이용하여 이동된다.
상호작용 명령이, 컴퓨터 유닛(11)으로부터 상호작용 인터페이스(3)의 가동 서브섹션(31)으로 전송된 운동 명령을 포함한다면, 가동 서브섹션(31)은 그 다음 방법 단계(117)에서 운동 명령에 따라 보조 장치(1)의 추가 서브섹션과 관련한 자신의 상대 위치를 변경한다. 그에 따라, 예컨대 가동 서브섹션(31)에 배치된 투사 유닛(5)이 바람직하게 정렬될 수 있다.
방법 단계(102)에서 처리된 입력 정보에 따라, 추가 방법 단계(116)에서 컴퓨터 유닛(11)에 의해, 특히 컴퓨터 유닛(11)의 상호작용 제어 모듈(14)에 의해 동작 명령(action instruction)이 생성된다. 동작 명령은 컴퓨터 유닛(11)으로부터 보조 장치(1)의 상호작용 인터페이스(13)로 전송되며, 상호작용 인터페이스(13)는 동작 명령에 따라 상호작용 인터페이스(13)의 주변 환경과의 상호작용을 실행한다.
또한, 방법 단계(102)에서 처리된 입력 정보에 따라, 추가 방법 단계(117)에서 컴퓨터 유닛(11), 특히 컴퓨터 유닛(11)의 이동 제어 모듈(19)에 의해 이동 명령이 생성된다. 이동 명령은 컴퓨터 유닛(11)으로부터 보조 장치(1)의 이동 유닛(18)으로 전송되며, 이때 보조 장치(1)는 이동 평면(20) 상에서 이동 명령에 따라 이동 유닛(18)을 이용하여 이동된다.
도 3 및 도 4에 도시된, 본 발명에 따른 방법의 방법 단계들은 컴퓨터 유닛(11)과 함께 보조 장치(1)에 의해 실행된다. 이를 위해, 컴퓨터 유닛(11)은 컴퓨터 유닛(11)의 메모리 유닛에 저장되는 필요 소프트웨어들 및/또는 컴퓨터 프로그램들을 포함한다. 소프트웨어들 및/또는 컴퓨터 프로그램들은, 컴퓨터 유닛(11) 내 컴퓨터 프로그램 및/또는 소프트웨어가 컴퓨터 유닛(11)에 의해 실행되면, 본 발명에 따른 방법을 수행하도록 설계된 프로그램 수단들을 포함한다.
도 5에는, 보조 장치(1)의 상호작용 가능성들이 개략적으로 도시되어 있다. 특히 하기에서는 보조 장치(1)와 환자(23) 및/또는 조작자(24) 및/또는 의료 기기(21) 사이에서 가능한 상호작용들이 설명된다. 따라서 하기의 단락들에서는 보조 장치(1)의 몇몇 적용 사례가 기술된다. 물론, 보조 장치(1)에 대해 통상의 기술자가 유용하다고 여기는 또 다른 적용 사례들도 생각해볼 수 있다. 여기서 보조 장치(1)는 개략적으로만 도시되어 있다. 상기 보조 장치는, 적용 사례에 유용하거나 필요하다고 간주되는 모든 임의의 구성을 취할 수 있다. 보조 장치(1)는 예컨대 도 1 또는 도 2에 기술된 것처럼 구성될 수 있다.
예시로서 보조 장치(1)는 예컨대 광학 센서(4)를 구비한 입력 인터페이스(2)를 이용하여, 의료 기기(21)의 환자 지지 장치(35) 상에 배치된 객체들로부터, 그리고/또는 환자(23)의 배치로부터 광학 신호들을 입력 정보로서 검출할 수 있다. 따라서 보조 장치(1)는 바람직하게 환자(23)의 위치와 관련하여, 그리고/또는 의료 기기에 의한 검사 및/또는 치료 중 바람직하지 않은 움직임과 관련하여 환자를 모니터할 수 있다.
이 경우, 보조 장치(1)는 의료 기기(21)에 의한 치료 및/또는 검사를 위한 환자(23)의 준비를 보조하도록 형성될 수 있다. 상호작용에는, 상호작용 인터페이스(3)의 출력 인터페이스(27)를 이용하여 조작자(24)에게 출력 정보가 출력되는 점이 포함될 수 있다. 상기 출력 정보를 토대로, 의료 영상 검사를 담당하는 병원 직원, 특히 조작자(24)는, 환자 지지 장치(35) 상에서의 환자(23)의 준비 및/또는 포지셔닝 동안 있을 수 있는 오류 원인을 신속하게 안내받을 수 있으며, 그럼으로써 이렇게 조작자(24)를 통한 즉각적인 오류 수정 및 그에 따라 특히 시간 절약적이면서도 확실한 환자(23)의 준비 및/또는 포지셔닝이 달성될 수 있다.
환자(23)의 준비를 보조하기 위해, 보조 장치(1)는 바람직하게 적어도 부분적으로 로봇(12)으로서 형성되며, 상호작용 인터페이스(3)는 상기 로봇(12)의 일부분이다. 물리적 상호작용으로서, 보조 장치(1)가 의료 기기(21)에 의한 환자(23)의 검사 및/또는 치료를 위한 도구들, 예컨대 자기 공명 검사를 위한 고정 장치들 및/또는 가동 코일들을 조작자에게 전달하는 점을 생각해볼 수 있다. 이를 위해, 상호작용 인터페이스(3)는 그리퍼 암(15)을 포함할 수 있다. 보조 장치(1)는, 검출되어 처리된 입력 정보에 따라 도구들을 전달하기 위한 적절한 시점을 결정할 수 있다. 예컨대, 보조 장치(1)는, 이 보조 장치(1)가 광학 입력 인터페이스를 이용하여 환자(23)가 의료 기기(21)의 환자 지지 장치(35) 상에 포지셔닝되어 있음을 검출했을 때 비로소 조작자(24)에게 도구들을 전달할 수 있다.
그 밖에도, 보조 장치(1)는 예컨대 의료 기기(21)에 의한 환자(23)의 검사 및/또는 치료를 모니터링하도록 형성될 수 있다. 보조 장치(1)는 의료 기기(21)에 의한 검사 및/또는 치료 동안 기록된, 환자(23)의 바람직하지 않은 움직임에 매우 신속하게 반응할 수 있다. 불안해하는 환자(23)에게도 검사 및/또는 치료 동안 보조 장치에 의해 움직이지 않도록 안내될 수 있으며, 이때 조작자(24)는 검사실 및/또는 치료실에 들어가지 않아도 된다. 이 경우, 상호작용은 출력 인터페이스(27)를 이용하여 환자(23) 및/또는 조작자(24)를 위한 하나 이상의 안전 경고 및/또는 지시가 출력되는 점을 포함할 수 있다. 따라서, 환자(23) 및/또는 조작자(24)에 대한 위험 상황이 인지되면, 보조 장치(1)에 의해 직접 상응하는 안전 경고가 생성되어 출력 정보로서 출력될 수 있다.
그 밖에도, 보조 장치는 검사 및/또는 치료 동안, 특히 검사실(26) 및/또는 치료실 내에 조작자(24)의 부재 시, 예컨대 환자(23)의 질문에 반응하고, 그리고/또는 응답할 수 있다. 따라서 보조 장치(1)는, 특히 이 보조 장치가 환자(23)의 검사 및/또는 치료 동안 검사실(26) 및/또는 치료실 내에 물리적으로, 예컨대 로봇(12)으로서 존재한다면, 검사 및/또는 치료 동안 환자(23)를 진정시키는 데에도 기여할 수 있다. 따라서, 제안된 보조 장치(1)와 환자(23) 간의 상호작용은 특히 바람직하게는 보조 장치(1)와 환자(23) 간의 의사소통으로서 형성된다.
그 대안으로 또는 추가로, 보조 장치(1)는 의료 기기(21)와도 상호작용할 수 있다. 이를 위해, 상호작용으로서, 보조 장치(1)와 의료 기기(21) 간에 데이터 교환이 수행될 수 있다. 이 경우, 보조 장치(1)가 입력 정보에 따라 의료 기기(21)로 제어 정보들을 송신할 수 있는 점을 생각해볼 수 있다. 제어 정보들은 의료 기기(21)의 설정 변경, 예컨대 영상 매개변수들의 변경을 야기할 수 있다. 보조 장치(1)는, 특히 입력 인터페이스(2)에 의해 위험 상황이 검출된 경우, 의료 기기(21)의 비상 차단, 및/또는 의료 기기(21)에 의한 검사 및/또는 치료의 중단도 야기할 수 있다.
제안된 상호작용은 바람직하게, 의료 기기(21)에 의한 중재 시술 동안 조작자(24)와 보조 장치(1) 사이에서도 수행될 수 있다. 중재 시술은 예컨대 생체조직 검사, 카테터 검사, 카테터 절제술, 혈관성형술, 스텐트 삽입술, 또는 종양 화학색전술일 수 있다. 제안된 조작자(24)와 보조 장치(1) 간의 상호작용이 바로 중재 시술에서 특히 바람직한 이유는, 중재 시술 동안에는 통상 가용 시간이 제한적이기 때문이다.
보조 장치(1)는 예컨대 중재 시술 동안 환자(23)의 상태 및/또는 실행될 중재 시술에 대한 유용한 정보들을 제공할 수 있다. 보조 장치(1)는 중재 시술 동안 안전 경고도 제공할 수 있다. 정보 또는 경고는 보조 장치(1)에 의해 광학적으로 또는 음향적으로 제공될 수 있다. 이 경우, 보조 장치(1)는 조작자의 질문에 매우 신속하게 반응할 수 있다. 추가로, 보조 장치(1), 특히 로봇(12)으로서 형성되고 그리퍼 암(15)을 구비한 보조 장치(1)는, 예컨대 상기 보조 장치(1)가 조작자(24)에게 도구들을 전달함으로써, 중재 시술을 보조할 수도 있다.
그 밖에도, 보조 장치(1)는 예컨대 조작자(24)에 의한 의료 기기(21)의 유지보수를 보조할 수 있다. 이 경우, 조작자(24)는 특히 유지보수 직원(24) 및/또는 정비 직원(24)이다. 보조 장치(1)에 의한 의료 기기(21)의 유지보수의 보조는 특히 정비 시, 그리고/또는 의료 기기(21)의 설치 시 수행될 수 있다. 보조 장치(1)에 의한 의료 기기(21)의 유지보수의 보조는, 특히 보조 장치(1)를 통한 환자(23)의 검사 및/또는 치료의 보조에 추가로 수행될 수 있다.
의료 기기의 유지보수 동안, 보조 장치(1)를 위한 입력 정보로서는, 예컨대 유지보수 직원(24)의 존재에 대한 광학 입력 정보, 및/또는 의료 기기(21)의 계획된 유지보수에 대한 정보 데이터, 및/또는 과거에 의료 기기(21)에 의해 수행된 측정들에 대한 정보 데이터, 및/또는 과거에 의료 기기(21)에서 발생했던 문제들에 대한 정보 데이터가 이용될 수 있다.
바람직하게는 보조 장치(1)가, 수행될 의료 기기(21)의 유지보수에 대한 출력 정보를 이용하여 유지보수 직원(24)을 보조할 수 있다. 보조 장치(1)는 유지보수 직원(24)에게 과거에 의료 기기(21)에서 발생했던 문제들을 안내할 수도 있다. 특히 바람직하게는, 보조 장치(1)가 예컨대 투사 영상을 이용하여 유지보수 직원(24)에게 의료 기기(21)의 유지보수 시 위험 지점들을 안내할 수 있다. 바람직하게 보조 장치(1)는, 상기 보조 장치(1)가 상호작용 인터페이스(3), 특히 그리퍼 암(15)을 이용해서도, 유지보수 직원(24)에게 예컨대 유지보수에 필요한 공구를 전달함으로써, 유지보수 직원(24)을 능동적으로 보조할 수 있다. 따라서 의료 기기(21)의 유지보수의 보조는 보조 장치(1)의 특히 바람직한 추가 적용 분야이다.
본 발명이 바람직한 실시예(들)에 의해 더 상세히 도시되고 기술되었다 해도, 본 발명은 개시된 실시예들로 한정되지 않으며, 본 발명의 권리 범위를 벗어나지 않는 범위 내에서 통상의 기술자에 의해 상기 실시예들로부터 다른 변형예들이 도출될 수 있다.

Claims (31)

  1. 의료 기기(21), 조작자(24) 및 환자(23) 중 적어도 하나와 보조 장치(1) 간의 상호작용을 위한 방법으로서,
    보조 장치(1)의 입력 인터페이스(2)를 이용하여, 의료 기기(21), 조작자(24) 및 환자(23) 중 적어도 하나의 정보를 포함하는 입력 정보를 검출하는(acquiring) 단계와,
    검출된 입력 정보를 입력 인터페이스(2)로부터 컴퓨터 유닛(11)으로 전송하는 단계와,
    컴퓨터 유닛(11)을 이용하여 상기 입력 정보를 처리하는 단계와 - 상기 입력 정보는 조작자(24) 및 환자(23) 중 적어도 하나로부터 유래하는, 자연 언어로 된 음성 입력을 포함하며, 컴퓨터 유닛(11)은 상기 입력 정보를 처리하기 위해 자연 언어 처리 방법을 이용함 -,
    처리된 입력 정보에 기초하여 컴퓨터 유닛(11)을 이용하여 상호작용 명령을 생성하는 단계와 - 상기 상호작용 명령 및 상기 상호작용 명령이 생성되는데 기초가 된 상기 입력 정보는 하나 이상의 데이터 베이스(22)에 정보 데이터로서 저장됨 -,
    생성된 상호작용 명령을 컴퓨터 유닛(11)으로부터 보조 장치(1)의 상호작용 인터페이스(3)로 전송하는 단계와,
    상호작용 명령에 기초하여 상호작용 인터페이스(3)를 이용하여 보조 장치(1)의 주변 환경과의 상호작용을 실행하는 단계
    를 포함하고,
    하나 이상의 데이터 베이스(22)에, 의료 기기(21)에 의한 환자(23)의 검사 및 치료 중 적어도 하나와 관련된 정보 데이터가 저장되며, 상기 하나 이상의 데이터 베이스(22)에 저장된 정보 데이터에 따라 상호작용 명령의 생성이 수행되는, 의료 기기, 조작자 및 환자 중 적어도 하나와 보조 장치 간의 상호작용 방법.
  2. 제1항에 있어서, 상기 상호작용 명령은, 컴퓨터 유닛(11)으로부터 상호작용 인터페이스(3)의 출력 인터페이스(27)로 전송되는 출력 정보를 포함하며, 출력 인터페이스(27)는 출력 정보를 의료 기기(21), 조작자(24) 및 환자(23) 중 적어도 하나에게 출력하는, 의료 기기, 조작자 및 환자 중 적어도 하나와 보조 장치 간의 상호작용 방법.
  3. 제1항 또는 제2항에 있어서, 상기 상호작용 명령은, 컴퓨터 유닛(11)으로부터 상호작용 인터페이스(3)의 그리퍼 암(15)으로 전송되는 그리퍼 암 명령을 포함하며, 보조 장치(1)는 상기 그리퍼 암 명령에 따라 그리퍼 암(15)을 이용하여 그리퍼 암(15)의 주변 환경과의 물리적 상호작용을 실행하는, 의료 기기, 조작자 및 환자 중 적어도 하나와 보조 장치 간의 상호작용 방법.
  4. 제1항 또는 제2항에 있어서, 상기 상호작용 명령은, 컴퓨터 유닛(11)으로부터 상호작용 인터페이스(3)의 이동 유닛(18)으로 전송되는 이동 명령을 포함하며, 보조 장치(1)는 상기 이동 명령에 따라 상기 이동 유닛(18)을 이용하여 이동되는, 의료 기기, 조작자 및 환자 중 적어도 하나와 보조 장치 간의 상호작용 방법.
  5. 제1항 또는 제2항에 있어서, 상기 상호작용 명령은, 컴퓨터 유닛(11)으로부터 상호작용 인터페이스(3)의 가동 서브섹션(31)으로 전송되는 운동 명령을 포함하며, 가동 서브섹션(31)은 상기 운동 명령에 따라 보조 장치(1)의 추가 서브섹션과 관련한 자신의 상대 위치를 변경하는, 의료 기기, 조작자 및 환자 중 적어도 하나와 보조 장치 간의 상호작용 방법.
  6. 삭제
  7. 제1항 또는 제2항에 있어서, 입력 정보로서, 입력 인터페이스(2)의 광학 센서(4)에 의해 환자(23) 및 조작자(24) 중 적어도 하나의 제스처, 표정 및 신체 움직임 중 적어도 하나가 검출되며, 검출된 제스처, 표정 및 신체 움직임 중 적어도 하나에 따라 상호작용 명령의 생성이 수행되는, 의료 기기, 조작자 및 환자 중 적어도 하나와 보조 장치 간의 상호작용 방법.
  8. 삭제
  9. 삭제
  10. 제1항 또는 제2항에 있어서, 상호작용 명령의 생성을 위해 컴퓨터 유닛(11)은 검출된 입력 정보 외에도, 데이터 베이스(22)에 저장된 상호작용 명령들 및 저장된 입력 정보들 중 적어도 하나를 이용하는, 의료 기기, 조작자 및 환자 중 적어도 하나와 보조 장치 간의 상호작용 방법.
  11. 제1항 또는 제2항에 있어서, 상호작용 명령의 생성 동안, 상기 컴퓨터 유닛(11)은 잠재적 상호작용 명령들에 대한 복수의 가설을 작성하고, 잠재적 상호작용 명령들에 대한 복수의 가설을 평가하는, 의료 기기, 조작자 및 환자 중 적어도 하나와 보조 장치 간의 상호작용 방법.
  12. 제11항에 있어서, 상기 잠재적 상호작용 명령들 중 하나 이상의 상호작용 명령에 따라, 관련 평가 등급의 출력과 함께 보조 장치(1)의 주변 환경과의 상호작용이 실행되는, 의료 기기, 조작자 및 환자 중 적어도 하나와 보조 장치 간의 상호작용 방법.
  13. 제1항 또는 제2항에 있어서, 상기 컴퓨터 유닛(11)은, 데이터 교환의 목적으로 상이한 의료 기기들(21)에 할당된 복수의 보조 장치(1)와 연결된 외부 컴퓨터 유닛을 포함하는, 의료 기기, 조작자 및 환자 중 적어도 하나와 보조 장치 간의 상호작용 방법.
  14. 입력 인터페이스(2)와 상호작용 인터페이스(3)를 포함하는, 환자(23)의 의료 검사 과정 및 치료 과정 중 적어도 하나를 보조하기 위한 보조 장치(1)로서, 제1항 또는 제2항에 따른 방법을 실행하도록 형성된 보조 장치(1).
  15. 제14항에 있어서, 상호작용 인터페이스(3)는 출력 인터페이스(27)를 구비하는, 보조 장치(1).
  16. 제14항에 있어서, 상호작용 인터페이스(3)는 그리퍼 암(15)을 구비하는, 보조 장치(1).
  17. 제14항에 있어서, 상호작용 인터페이스(3)는 이동 유닛(18)을 구비하는, 보조 장치(1).
  18. 제14항에 있어서, 상호작용 인터페이스(3)는, 보조 장치(1)의 추가 서브섹션과 관련한 자신의 상대 위치를 변경하도록 형성된 가동 서브섹션(31)을 구비하는, 보조 장치(1).
  19. 제14항에 있어서, 보조 장치(1)는 외부 컴퓨터 유닛으로 향하는 데이터 인터페이스(10)를 구비하는, 보조 장치(1).
  20. 제14항에 있어서, 보조 장치(1)는 로봇(12)을 포함하는, 보조 장치(1).
  21. 제20항에 있어서, 로봇(12)은 휴머노이드 로봇의 형태로 형성되는, 보조 장치(1).
  22. 컴퓨터 유닛(11)과, 제14항에 따른 보조 장치(1)를 포함하는 보조 시스템으로서, 컴퓨터 유닛(11)은 보조 장치(1)와 함께 제1항 또는 제2항에 따른 방법을 실행하도록 형성되는, 보조 시스템.
  23. 제22항에 있어서, 상호작용 인터페이스(3)는 출력 인터페이스(27)를 포함하며, 컴퓨터 유닛(11)은 상기 출력 인터페이스(27)를 제어하도록 형성된 출력 제어 모듈(28)을 구비하는, 보조 시스템.
  24. 제22항에 있어서, 상호작용 인터페이스(3)는 그리퍼 암(15)을 포함하며, 컴퓨터 유닛(11)은 상기 그리퍼 암(15)을 제어하도록 형성된 그리퍼 암 제어 모듈(33)을 구비하는, 보조 시스템.
  25. 제22항에 있어서, 상호작용 인터페이스(3)는 이동 유닛(18)을 구비하며, 컴퓨터 유닛(11)은 상기 이동 유닛(18)을 제어하도록 형성된 이동 제어 모듈(19)을 구비하는, 보조 시스템.
  26. 제22항에 있어서, 상호작용 인터페이스(3)는, 보조 장치(1)의 추가 서브섹션과 관련한 자신의 상대 위치를 변경하도록 형성된 가동 서브섹션(31)을 구비하며, 컴퓨터 유닛(11)은 상기 가동 서브섹션(31)을 제어하도록 형성된 운동 제어 모듈(14)을 구비하는, 보조 시스템.
  27. 제22항에 있어서, 컴퓨터 유닛(11)은, 자연 언어로 작성되어 입력 인터페이스(2)의 음성 녹음 유닛(6)에 의해 수신되는 음성 입력을 처리하도록 형성된 음성 모듈(9)을 구비하는, 보조 시스템.
  28. 제22항에 있어서, 컴퓨터 유닛(11)은, 입력 인터페이스(2)의 광학 센서(4)에 의해 수신되는 광학 신호들을 처리하도록 형성된 영상 처리 모듈(8)을 구비하는, 보조 시스템.
  29. 제22항에 있어서, 컴퓨터 유닛(11)은, 병렬 처리형 슈퍼컴퓨터 및 클라우드 컴퓨터 중 적어도 하나로 형성된 외부 컴퓨터 유닛으로서 구현되는, 보조 시스템.
  30. 하나의 컴퓨터 유닛(11)과 제14항에 따른 복수의 보조 장치(1)를 포함하는 유닛으로서, 컴퓨터 유닛(11)은 상기 복수의 보조 장치(1) 중 각각의 보조 장치와 함께 제1항 또는 제2항에 따른 방법을 실행하도록 형성되는, 유닛.
  31. 의료 기기(21)와 제14항에 따른 보조 장치(1)를 포함하는 시스템.
KR1020150031498A 2014-03-07 2015-03-06 보조 장치와 의료 기기 및/또는 조작자 및/또는 환자 간의 상호작용 방법, 보조 장치, 보조 시스템, 유닛 및 시스템 KR102027020B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102014204251.8A DE102014204251A1 (de) 2014-03-07 2014-03-07 Verfahren zu einer Interaktion zwischen einer Assistenzvorrichtung und einem medizinischen Gerät und/oder einem Bedienpersonal und/oder einem Patienten, Assistenzvorrichtung, Assistenzsystem, Einheit und System
DE102014204251.8 2014-03-07

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020170056870A Division KR20170055458A (ko) 2014-03-07 2017-05-04 보조 장치와 의료 기기 및/또는 조작자 및/또는 환자 간의 상호작용 방법, 보조 장치, 보조 시스템, 유닛 및 시스템

Publications (2)

Publication Number Publication Date
KR20150105246A KR20150105246A (ko) 2015-09-16
KR102027020B1 true KR102027020B1 (ko) 2019-09-30

Family

ID=53883997

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020150031498A KR102027020B1 (ko) 2014-03-07 2015-03-06 보조 장치와 의료 기기 및/또는 조작자 및/또는 환자 간의 상호작용 방법, 보조 장치, 보조 시스템, 유닛 및 시스템
KR1020170056870A KR20170055458A (ko) 2014-03-07 2017-05-04 보조 장치와 의료 기기 및/또는 조작자 및/또는 환자 간의 상호작용 방법, 보조 장치, 보조 시스템, 유닛 및 시스템

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020170056870A KR20170055458A (ko) 2014-03-07 2017-05-04 보조 장치와 의료 기기 및/또는 조작자 및/또는 환자 간의 상호작용 방법, 보조 장치, 보조 시스템, 유닛 및 시스템

Country Status (5)

Country Link
US (1) US9927966B2 (ko)
JP (1) JP6578108B2 (ko)
KR (2) KR102027020B1 (ko)
CN (1) CN104887312B (ko)
DE (1) DE102014204251A1 (ko)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015214482A1 (de) * 2015-07-30 2017-02-02 Siemens Healthcare Gmbh Verfahren zu einer Festlegung einer Untersuchungsumgebung für eine medizinische Bildgebungsuntersuchung sowie eine medizinische Bildgebungsvorrichtung mit einer Umgebungsanpassungseinheit
CN105848606B (zh) * 2015-08-24 2019-02-22 深圳市鑫君特智能医疗器械有限公司 一种智能骨科手术系统
CN104997549A (zh) * 2015-08-24 2015-10-28 深圳市鑫君特智能医疗器械有限公司 用于骨科机器人的智能骨钻
FR3044437B1 (fr) * 2015-11-27 2018-09-21 Bull Sas Procede et systeme d'aide a la maintenance et a l'optimisation d'un supercalculateur
WO2017187676A1 (ja) * 2016-04-28 2017-11-02 ソニー株式会社 制御装置、制御方法、プログラム及び音出力システム
DE102016211720A1 (de) 2016-06-29 2018-01-04 Siemens Healthcare Gmbh Verfahren zum Positionieren eines positionierbaren Tisches
DE102016219157A1 (de) * 2016-10-04 2017-08-10 Siemens Healthcare Gmbh Assistenzvorrichtung für Patienten und Verfahren zum Betrieb einer Assistenzvorrichtung
WO2018096680A1 (ja) * 2016-11-28 2018-05-31 オリンパス株式会社 情報呈示システム
CN107403068B (zh) * 2017-07-31 2018-06-01 合肥工业大学 融合临床思维的智能辅助问诊方法及系统
DE102017214919A1 (de) * 2017-08-25 2019-02-28 Siemens Healthcare Gmbh Bildgebende medizinische Einrichtung und Verfahren zum Betrieb einer bildgebenden medizinischen Einrichtung
US10675766B1 (en) * 2017-08-28 2020-06-09 Disney Enterprises, Inc. System for introducing physical experiences into virtual reality (VR) worlds
EP3784133B1 (en) * 2018-05-31 2024-05-15 Shanghai United Imaging Healthcare Co., Ltd. Systems and methods for controllinig an x-ray imaging device
CN109102873A (zh) * 2018-05-31 2018-12-28 上海联影医疗科技有限公司 C型臂设备及其训练方法、装置、医学影像系统及存储介质
US10471591B1 (en) * 2018-06-01 2019-11-12 X Development Llc Object hand-over between robot and actor
CN110727483A (zh) * 2018-07-16 2020-01-24 西门子股份公司 生成辅助用户与应用程序进行交互的工具的设备和方法
DE102018215278A1 (de) * 2018-09-07 2020-03-12 Siemens Healthcare Gmbh Verfahren zu einer automatisierten Vorbereitung eines Patienten für eine medizinische Bildgebungsuntersuchung, wobei die Vorbereitung des Patienten innerhalb eines medizinischen Vorbereitungsraums durchgeführt wird
US10758660B2 (en) * 2018-12-21 2020-09-01 Fresenius Medical Care Holdings, Inc. Dialysis system with artificial intelligence
CN110393545A (zh) * 2019-08-01 2019-11-01 上海市肺科医院 一种适用于ct增强检查的ai智能监测系统
US20220354510A1 (en) * 2020-07-06 2022-11-10 Shenzhen Futurtec Medical Co., Ltd. Screw placement system and vertebral pedicle screw placement device
DE102020215064A1 (de) 2020-11-30 2022-06-02 Siemens Healthcare Gmbh Verfahren und Magnetresonanzvorrichtung zur automatischen Interaktion mit einem Patienten
CN114053070A (zh) * 2021-11-11 2022-02-18 自贡市第一人民医院 一种图像识别控制系统及外科查房跟随装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3905413B2 (ja) * 2002-04-18 2007-04-18 富士重工業株式会社 ロボット装置
JP2010082714A (ja) * 2008-09-30 2010-04-15 Mitsubishi Heavy Ind Ltd コミュニケーションロボット
KR101038417B1 (ko) 2009-02-11 2011-06-01 주식회사 이턴 수술 로봇 시스템 및 그 제어 방법
JP2013537487A (ja) * 2010-05-20 2013-10-03 アイロボット コーポレイション 移動式ヒューマンインターフェースロボット

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05242061A (ja) * 1992-01-09 1993-09-21 Nec Corp 診断システム
US20040243147A1 (en) * 2001-07-03 2004-12-02 Lipow Kenneth I. Surgical robot and robotic controller
AU2003224882A1 (en) * 2002-04-05 2003-10-27 The Trustees Of Columbia University In The City Of New York Robotic scrub nurse
AU2003257309A1 (en) * 2002-08-13 2004-02-25 Microbotics Corporation Microsurgical robot system
EP1870210A1 (en) * 2006-06-22 2007-12-26 Honda Research Institute Europe GmbH Evaluating visual proto-objects for robot interaction
US20080242952A1 (en) * 2007-03-30 2008-10-02 Searete Llc, A Limited Liablity Corporation Of The State Of Delaware Effective response protocols for health monitoring or the like
US8996173B2 (en) * 2010-09-21 2015-03-31 Intuitive Surgical Operations, Inc. Method and apparatus for hand gesture control in a minimally invasive surgical system
JP6106594B2 (ja) * 2010-11-11 2017-04-05 ザ・ジョンズ・ホプキンス・ユニバーシティ ヒューマン・マシン連携ロボットシステム
US9440357B2 (en) * 2011-05-02 2016-09-13 John Hu System for stabilization control of mobile robotics
WO2013099580A1 (ja) * 2011-12-26 2013-07-04 オリンパスメディカルシステムズ株式会社 医療用内視鏡システム
WO2013186794A2 (en) * 2012-06-15 2013-12-19 Suresh DESHPANDE A voice controlled operation theater automation system
DE102012210821A1 (de) 2012-06-26 2014-01-02 Siemens Aktiengesellschaft Verfahren zu einer Kommunikation zwischen einer Steuereinheit und einem Patienten und/oder einem Bedienpersonal sowie eine medizinische Bildgebungsvorrichtung hierzu
US9220570B2 (en) * 2012-06-29 2015-12-29 Children's National Medical Center Automated surgical and interventional procedures
US10820950B2 (en) * 2013-12-20 2020-11-03 Re & Do Co., Ltd Service-provision management system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3905413B2 (ja) * 2002-04-18 2007-04-18 富士重工業株式会社 ロボット装置
JP2010082714A (ja) * 2008-09-30 2010-04-15 Mitsubishi Heavy Ind Ltd コミュニケーションロボット
KR101038417B1 (ko) 2009-02-11 2011-06-01 주식회사 이턴 수술 로봇 시스템 및 그 제어 방법
JP2013537487A (ja) * 2010-05-20 2013-10-03 アイロボット コーポレイション 移動式ヒューマンインターフェースロボット

Also Published As

Publication number Publication date
US20150253979A1 (en) 2015-09-10
CN104887312B (zh) 2018-04-13
DE102014204251A1 (de) 2015-09-10
JP6578108B2 (ja) 2019-09-18
CN104887312A (zh) 2015-09-09
US9927966B2 (en) 2018-03-27
KR20170055458A (ko) 2017-05-19
JP2015167863A (ja) 2015-09-28
KR20150105246A (ko) 2015-09-16

Similar Documents

Publication Publication Date Title
KR102027020B1 (ko) 보조 장치와 의료 기기 및/또는 조작자 및/또는 환자 간의 상호작용 방법, 보조 장치, 보조 시스템, 유닛 및 시스템
US20200360098A1 (en) Surgical system with voice control
CN109077752B (zh) 移动机器臂
JP6543742B2 (ja) 画像キャプチャ装置及び操作可能な装置可動アームの制御された動作の間の衝突回避
US9498291B2 (en) Touch-free catheter user interface controller
JP2020512882A (ja) 患者イントロデューサのアライメント
KR101597701B1 (ko) 의료 기술 제어기
Daneshmand et al. Medical robots with potential applications in participatory and opportunistic remote sensing: A review
US11712210B2 (en) Mobile platform
KR20200081520A (ko) 의료 보조서비스를 제공하는 로봇 시스템 및 그 방법
CN112352285A (zh) 用于计算机辅助手术系统的上下文感知系统和方法
Efthimiou et al. The MOBOT rollator human-robot interaction model and user evaluation process
CN113366583A (zh) 用于计算机辅助手术系统的摄像机控制系统和方法
JP2022508276A (ja) 医療用x線撮像機器の位置決め
Zhao et al. Design of a catheter operating system with active supporting arm for vascular interventional surgery
US20220354586A1 (en) Robotic surgery
US20230105362A1 (en) Speech control of a medical apparatus
US20240177854A1 (en) Monitoring remote control suitability
Elazzazi A Natural Language Interface to the Da Vinci Surgical Robot
Seitz Implementation of safe human robot collaboration for ultrasound guided radiation therapy
Kogkas A Gaze-contingent Framework for Perceptually-enabled Applications in Healthcare
JP2021058242A (ja) 医用画像診断装置、医用画像診断システム、および医用画像診断方法
Gamez Mobile Robot Guidance
Muñoz-Martínez Sensors Technology for Medical Robotics
ING-IND Development and Testing of Hand Exoskeletons

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
A107 Divisional application of patent
J201 Request for trial against refusal decision
J301 Trial decision

Free format text: TRIAL NUMBER: 2017101002206; TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20170504

Effective date: 20190412

S901 Examination by remand of revocation
E902 Notification of reason for refusal
GRNO Decision to grant (after opposition)
GRNT Written decision to grant