DE102017220532A1 - Verfahren und Bediensystem zur Steuerung einer Medizintechnikeinrichtung mit einer bewegbaren Komponente - Google Patents

Verfahren und Bediensystem zur Steuerung einer Medizintechnikeinrichtung mit einer bewegbaren Komponente Download PDF

Info

Publication number
DE102017220532A1
DE102017220532A1 DE102017220532.6A DE102017220532A DE102017220532A1 DE 102017220532 A1 DE102017220532 A1 DE 102017220532A1 DE 102017220532 A DE102017220532 A DE 102017220532A DE 102017220532 A1 DE102017220532 A1 DE 102017220532A1
Authority
DE
Germany
Prior art keywords
component
movement
smart device
data
smartdevice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102017220532.6A
Other languages
English (en)
Other versions
DE102017220532B4 (de
Inventor
Robert Kagermeier
Gerben ten Cate
Asa MacWilliams
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthineers Ag De
Original Assignee
Siemens Healthcare GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Healthcare GmbH filed Critical Siemens Healthcare GmbH
Priority to DE102017220532.6A priority Critical patent/DE102017220532B4/de
Priority to US16/190,275 priority patent/US10492753B2/en
Priority to CN201811368160.6A priority patent/CN109801701B/zh
Publication of DE102017220532A1 publication Critical patent/DE102017220532A1/de
Application granted granted Critical
Publication of DE102017220532B4 publication Critical patent/DE102017220532B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • A61B6/548Remote control of the apparatus or devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/04Positioning of patients; Tiltable beds or the like
    • A61B6/0407Supports, e.g. tables or beds, for the body or parts of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • A61B6/547Control of apparatus or devices for radiation diagnosis involving tracking of position of the device or parts of the device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2048Tracking techniques using an accelerometer or inertia sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • A61B2034/2057Details of tracking cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3937Visible markers
    • A61B2090/3945Active visible markers, e.g. light emitting diodes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/397Markers, e.g. radio-opaque or breast lesions markers electromagnetic other than visible, e.g. microwave
    • A61B2090/3975Markers, e.g. radio-opaque or breast lesions markers electromagnetic other than visible, e.g. microwave active
    • A61B2090/3979Markers, e.g. radio-opaque or breast lesions markers electromagnetic other than visible, e.g. microwave active infrared
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0223Magnetic field sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/06Diaphragms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4429Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
    • A61B6/4435Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure
    • A61B6/4441Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure the rigid structure being a C-arm or U-arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/025Services making use of location information using location based information parameters
    • H04W4/026Services making use of location information using location based information parameters using orientation information, e.g. compass
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

Verfahren zur Steuerung einer Medizintechnikeinrichtung (2), insbesondere einer Bildaufnahmeeinrichtung, mit wenigstens einer entsprechend einer Bedienereingabe an einer Bedieneinrichtung bewegbaren Komponente (3), wobei als Bedieneinrichtung ein Smartdevice (5) verwendet wird, welches wenigstens einen die Bewegung und/oder die Position des Smartdevices (5) in dem Raum (1), in dem die Medizintechnikeinrichtung (2) befindlich ist, beschreibende Sensordaten aufnehmenden Smartdevicesensor (11) aufweist, wobei die Position und die Orientierung des Smartdevices (5) zu der wenigstens einen Komponente (3) beschreibende Positionsdaten und/oder eine Bewegung relativ zu der wenigstens einen Komponente (3) beschreibende Bewegungsdaten aus den Sensordaten ermittelt und zur Auswahl wenigstens einer der wenigstens einen Komponente (3) und/oder Ermittlung einer Bedienereingabe bezüglich wenigstens einer der wenigstens einen Komponente (3) ausgewertet werden.

Description

  • Die Erfindung betrifft ein Verfahren und ein Bediensystem zur Steuerung einer Medizintechnikeinrichtung, insbesondere einer Bildaufnahmeeinrichtung, mit wenigstens einer entsprechend einer Bedienereingabe an einer Bedieneinrichtung bewegbaren Komponente.
  • Es sind eine Vielzahl moderner Medizintechnikeinrichtungen zur Diagnose und Therapie, insbesondere medizinischer Bildaufnahmeeinrichtungen, bekannt, bei denen zur Einstellung bestimmter Untersuchungs- oder Therapievorgänge, bei Bildaufnahmeeinrichtungen beispielsweise von Aufnahmegeometrien und/oder Aufnahmegebieten und/oder zur Anpassung an einen aktuellen Patienten selbst, bewegbare Komponenten existieren, beispielsweise die Aufnahmeanordnung oder Teile davon, ein zur Lagerung eines Patienten vorgesehener Patiententisch und dergleichen. Ein Beispiel hierfür sind insbesondere Röntgeneinrichtungen, bei denen beispielsweise der Röntgenstrahler, der Detektor und/oder der Patiententisch ferngesteuert patientennah bewegt werden. Eine solche Fernsteuerung bewegter Komponenten einer Medizintechnikeinrichtung sollte so einfach und intuitiv wie möglich umgesetzt werden.
  • Dafür ist es im Stand der Technik bekannt, kabelgebundene oder kabellose Handbedieneinheiten zu verwenden, die beispielsweise Folientasten und/oder Fußschalter umfassen können. Insbesondere wurde vorgeschlagen, dem Anwender CursorTasten (Pfeiltasten) und/oder explizite Funktionstasten zur Ansteuerung der Bewegung von Komponenten auf der Bedieneinheit zur Verfügung zu stellen. Nachdem verschiedene Komponenten in verschiedenen Bewegungsfreiheitsgraden bewegbar sein können, beispielsweise sowohl in x-/y-/z-Richtung als auch rotierend, ergibt sich eine Vielzahl verschiedener Bedientasten und/oder es sind Anwahltasten für die anzusteuernden Komponenten und die Bewegungsart zu betätigen, damit die Pfeiltasten für entsprechende Komponentenbewegungen aktiviert werden. Diese Vielzahl der vorgesehenen Bedientasten und Bedienvorgänge, insbesondere auch zur Umwahl einer zu steuernden Komponente, erfordert eine hohe Konzentration auf das Bedienfeld und lenkt den Bediener vom eigentlichen, patientenorientierten Einstellen der bewegbaren Komponente ab. Mithin ist diese bekannte Vorgehensweise weder als intuitiv noch als komfortabel zu bezeichnen. Hierzu kommt, dass die verwendeten Bedieneinheiten verhältnismäßig teuer in der Entwicklung und der Herstellung sind und zudem wenig Flexibilität hinsichtlich Anpassungen bzw. Änderungen aufweisen.
  • Der Erfindung liegt daher die Aufgabe zugrunde, eine demgegenüber verbesserte, intuitivere und einfacher zu handhabende Bedienmöglichkeit für bewegbare Komponenten einer Medizintechnikeinrichtung anzugeben.
  • Zur Lösung dieser Aufgabe ist bei einem Verfahren der eingangs genannten Art erfindungsgemäß vorgesehen, dass als Bedieneinrichtung ein Smartdevice verwendet wird, welches wenigstens einen die Bewegung und/oder die Position des Smartdevice in dem Raum, in dem die Medizintechnikeinrichtung befindlich ist, beschreibende Sensordaten aufnehmenden Smartdevicesensor aufweist, wobei die Position und die Orientierung des Smartdevice zu der wenigstens einen Komponente beschreibende Positionsdaten und/oder eine Bewegung relativ zu der wenigstens einen Komponente beschreibende Bewegungsdaten aus den Sensordaten ermittelt und zur Auswahl wenigstens einer der wenigstens einen Komponente und/oder Ermittlung einer Bedienereingabe bezüglich wenigstens einer der wenigstens einen Komponente ausgewertet werden.
  • Ein Smartdevice ist ein handgehaltenes, kabelloses Mobilgerät, welches üblicherweise ein Betriebssystem aufweist und über einen Touchscreen, der auch als Display dient, bedienbar ist. Typische Beispiele für Smartdevices sind Smartphones und/oder kleinformatige Tablets. Eine intuitive und patientenorientierte Bedienung von Komponentenbewegungen bei Medizintechnikeinrichtungen, also insbesondere Bildaufnahme- und/oder Therapieeinrichtungen, kann durch Einsatz eines handelsüblichen Smartdevice, insbesondere also eines Smartphones oder kleinformatigen Tablets, erreicht werden. Dabei kann mit besonderem Vorteil die im Smartdevice bereits vorhandene Sensorik verwendet werden, um eine vollständige Lage- und Positionserkennung(und somit auch Bewegungserkennung) des Smartdevice in dem Raum, in dem sich auch die Medizintechnikeinrichtung befindet, zu erlauben.
  • Die Medizintechnikeinrichtung weist dabei Mittel auf, um aktuelle Einstellungsinformationen der wenigstens einen Komponente, die deren Position im Raum beschreiben, zu ermitteln, wie dies grundsätzlich bekannt ist. Beispielsweise ist in einer Steuereinrichtung der Medizintechnikeinrichtung die Systemgeometrie genauso bekannt wie die aktuelle Stellung der Aktoren zur Bewegung der Komponenten, welche beispielsweise durch Motorencoder oder entsprechende Sensoren ermittelbar ist. Nachdem auch die Position der Medizintechnikeinrichtung im Raum bekannt ist, lassen sich mithin die relativen Positionen und Ausrichtungen und/oder Bewegungen der wenigstens einen Komponente und des Smartdevice feststellen und hinsichtlich der Fernbedienung der wenigstens einen Komponente auswerten. Damit ist es insbesondere möglich, intuitiv auf Komponenten zu zeigen und/oder zur Fernbedienung von Komponenten entsprechende Bewegungen mit dem Smartdevice durchzuführen, so dass komfortabel und mit Blick auf die zu steuernde Komponente eine Bedienung möglich wird. Hierzu ist das Smartdevice bevorzugt länglich ausgebildet, insbesondere also von im Wesentlichen rechteckiger und flacher Grundform. So kann das Smartdevice auf zu bedienende Komponenten gerichtet werden.
  • Durch die Verwendung eines handelsüblichen Smartdevice und der darin bereits enthaltenen Smartdevicesensoren enthält man ein sehr kostengünstiges und zudem überaus vielseitig verwendbares Handbediensystem. Mittels des hier vorgeschlagenen Verfahrens zur Positions-, Lage- und Bewegungsbestimmung ergibt sich ein sehr intuitives Bedienen einer Medizintechnikeinrichtung, insbesondere also eines medizinischen Diagnose- und/oder Therapiesystems.
  • In vorteilhafter Ausgestaltung der vorliegenden Erfindung kann vorgesehen sein, dass wenigstens ein Smartdevicesensor eine Kamera ist, in deren Bilddaten in dem Raum angeordnete optische Marker, deren Position im Raum bekannt ist, detektiert und zur Ermittlung der Positionsdaten und/oder der Bewegungsdaten verwendet werden. Insbesondere kann vorgesehen sein, dass das Smartdevice zwei Kameras aufweist, insbesondere eine Frontkamera und eine Rückkamera, die bei normaler Verwendung des Smartdevice auch so ausgerichtet sind, dass entsprechend viel des Raumes und somit der hier vorgeschlagenen optischen Marker erfassbar ist. Die Marker werden kontinuierlich von der üblicherweise ohnehin im Smartdevice vorhandenen wenigstens einen Kamera aufgenommen und analysiert, wobei der Bediener dazu das Smartdevice in seiner natürlichen Handhabung mit sich führt, also keine Suchhaltung für die Kamera des Smartdevice einnehmen muss. Die Lage der jeweiligen optischen Marker im Raum kann dabei während einer Konfigurationsphase exakt ermittelt werden und in der die Auswertung durchführenden Steuereinrichtung, insbesondere also der Steuereinrichtung der Medizintechnikeinrichtung und/oder der Steuereinrichtung des Smartdevices, bekannt gemacht werden. Konkret ist es beispielsweise denkbar, passive optische Marker, beispielsweise gedruckte Aufkleber, zu verwenden und an der Decke, den Wänden und/oder dem Boden des Raumes, in dem die Medizintechnikeinrichtung befindlich ist, anzubringen, wobei insbesondere auch eine Anbringung von optischen Markern im Allgemeinen an der Medizintechnikeinrichtung selbst denkbar ist.
  • Eine bevorzugte Ausgestaltung der vorliegenden Erfindung sieht jedoch vor, dass als wenigstens ein Teil der Marker aktive Marker, insbesondere umfassend optische und/oder Infrarot-LEDs, verwendet werden. Besonders zweckmäßig ist es dabei, wenn die aktiven Marker zur Positionsbestimmung von dem Smartdevice mittels einer Kurzstrecken-Funkverbindung, insbesondere einer Bluetooth-Verbindung, zum Betrieb angesteuert werden. Eine optimierte Erkennung der optischen Marker kann also durch aktive und synchronisierte Marker (optische Beacons/Leuchtfeuer) erreicht werden. Die Synchronisierung kann dabei über die in Smartdevices üblicherweise ebenso bereits vorhandene Kurzstrecken-Funkschnittstelle, beispielsweise Bluetooth Low Energy (BLE), erfolgen. Durch die aktive Ansteuerung hell leuchtender aktiver Marker, insbesondere hell leuchtender Infrarot-LEDs der Marker, kann eine deutlich bessere Erkennung der optischen Marker realisiert werden. Diese optischen Marker sind oder werden zweckmäßigerweise, wie dargelegt, mit den Smartdevicesensoren synchronisiert.
  • In diesem Kontext sieht eine zweckmäßige Weiterbildung der Erfindung vor, dass die Positionsdaten wenigstens teilweise nach einem Signallaufzeitverfahren und/oder aufgrund einer Feldstärke der von den Markern ausgesendeten Funksignale bei bidirektionaler Kurzstrecken-Funkverbindung ermittelt werden. Sind die beispielsweise als optische Beacons ausgebildeten aktiven Marker mittels einer eigenen Kurzstrecken-Funkschnittstelle zur direkten Kommunikation mit dem Smartdevice ausgebildet, bilden sie zusätzlich zu den optischen Markereigenschaften auch Funk-Marker (insbesondere Funk-Beacons/Leuchtfeuer), welche zur wenigstens groben Positionsbestimmung des Smartdevice im Raum bereits beitragen können, beispielsweise, indem die Laufzeit von Funksignalen und/oder deren Stärke vermessen wird. Die entsprechenden Feldstärken (Empfangsstärken) im Raum können dabei in einer Konfigurationsphase ermittelt werden, wie dies beispielsweise in einem BLE-Beacon-Konzept der Fa. Fujitsu vorgeschlagen wurde.
  • In zweckmäßiger Weiterbildung der Erfindung kann vorgesehen sein, dass das Bestehen und/oder der Aufbau und/oder eine Eigenschaft der Kurzstrecken-Kommunikationsverbindung zur Detektion, ob sich das Smartdevice in dem Raum befindet, verwendet werden, insbesondere zur Triggerung des Beginns der Ermittlung der Positionsdaten und/oder der Bewegungsdaten. Neben der Positionsbestimmung lässt sich die Tatsache, dass eine Kurzstrecken-Funkverbindung, insbesondere zu den aktiven Markern, herstellbar ist, auch zur Aktivierung der genauen Positions- und/oder Bewegungserfassung als Trigger verwendet werden. Das bedeutet, nur wenn das Smartdevice erkennt, dass es an der Medizintechnikeinrichtung ist, startet es die Erkennung und gegebenenfalls auch erst den Verbindungsaufbau mit einer Steuereinrichtung der Medizintechnikeinrichtung. Auf diese Weise lässt sich im Übrigen auch eine Reichweitenbeschränkung des mobilen Smartdevice einrichten.
  • Auch in einer Ausgestaltung, in der keine Kurzstrecken-Funkverbindung zu aktiven optischen Markern aufgebaut wird, kann eine ähnliche Funktionalität mit einer Grobpositionsbestimmung ermöglicht werden. In diesem Fall werden die aktiv Licht aussendenden optischen Marker als Licht-Beacons betrieben. Hierzu kann vorgesehen sein, dass die aktiv Licht aussendenden optischen Marker ein auf das Licht aufmoduliertes, markerspezifisches Identifikationssignal aussenden, welches von dem empfangenden Smartdevice ausgewertet wird. Anhand der in den Sensordaten der Kamera detektierten Identifikationssignale kann eine erste, grobe Positionsbestimmung erfolgen. Auch die Detektion von solchen Identifikationssignalen kann im Übrigen zur Detektion, ob sich das Smartdevice in dem Raum befindet, verwendet werden, insbesondere zur Triggerung des Beginns der Ermittlung der Positionsdaten und/oder der Bewegungsdaten. Eine solche Technologie wurde im Stand der Technik zur Lokalisierung in Supermärkten von der Fa. Philips (White Paper „Indoor Positioning“) bereits vorgeschlagen.
  • Vorzugsweise kann, insbesondere zusätzlich zu der wenigstens einen Kamera, als Smartdevicesensor wenigstens ein Beschleunigungssensor und/oder wenigstens ein Drehratensensor und/oder wenigstens ein Magnetfeldsensor, insbesondere als Kompass, verwendet werden, wobei insbesondere die Positionsdaten und/oder die Bewegungsdaten wenigstens teilweise mittels Koppelnavigation ermittelt werden. Insbesondere im Hinblick auf die Bestimmung einer Orientierung und/oder der Bewegung ist die Berücksichtigung von derartiger, bevorzugt weiterer Smartdevicesensorik zweckmäßig. Beispielsweise kann durch Auswerten der Beschleunigungs- und/oder Drehratensensorik ein Schwenken und/oder Kippen des Smartdevice festgestellt werden. Ein Magnetfeldsensor, der insbesondere als Kompass funktioniert, liefert die zusätzliche Information der groben Nordrichtung, welche ebenso berücksichtigt werden kann. Besonders zweckmäßig ist es im Rahmen der vorliegenden Erfindung, wenn die Nachverfolgung der Orientierung und Position des Smartdevice durch eine Koppelnavigation (Trägheitsnavigation) unterstützt wird, welche häufig auch als Dead Reckoning bezeichnet wird. Fällt beispielsweise die optische Markererkennung zeitweise durch ungünstige Blickwinkel aus oder ist sie behindert, können dennoch weiter die Positionsdaten und die Bewegungsdaten ermittelt werden.
  • Grundsätzlich ist es im Rahmen der vorliegenden Erfindung, gerade bei mehreren Komponenten, möglich, die zu bedienende Komponente mittels eines Displays, insbesondere des Touchscreens, des Smartdevice auszuwählen. Dies ist jedoch weniger bevorzugt.
  • Eine besonders vorteilhafte Ausgestaltung der vorliegenden Erfindung sieht demgegenüber vor, dass zur Auswahl einer zu steuernden Komponente die in den Positionsdaten enthaltene Orientierung des Mobilgeräts dahingehend ausgewertet wird, ob der Bediener mit dem Mobilgerät auf eine der wenigstens einen Komponente zeigt, welche, insbesondere nach Betätigung eines Bestätigungsbedienmittels durch den Bediener, ausgewählt wird. In dieser Ausgestaltung richtet der Bediener mithin das Smartdevice auf die zu bedienende Komponente, um sie auszuwählen und folgende Bedienereingaben auf diese Komponente zu beziehen. Dabei kann beispielsweise die aufgrund der Positionsdaten bekannte Längsachse des Smartdevice verlängert werden und überprüft werden, welche Komponente sie (zuerst) trifft. Dies ermöglicht eine besonders intuitive Auswahl.
  • Es ist nun in einer Ausgestaltung denkbar, insbesondere durch Rückkommunikation an das Smartdevice, die ausgewählte Komponente auf einem Display, insbesondere dem Touchscreen, des Smartdevice anzuzeigen. In besonders vorteilhafter, bevorzugter Ausgestaltung jedoch kann das Auswählen einer Komponente durch wenigstens eine an der ausgewählten Komponente angeordnete, optische Ausgabeeinrichtung angezeigt werden, insbesondere ein LED-Band und/oder eine hinterleuchtbare Farbfläche. In diesem Fall weist die Medizintechnikeinrichtung, konkret die wenigstens eine Komponente, aktivierbare optische Markierungen, beispielsweise Farbflächen und/oder LED-Bänder, auf, mit welchen als Ausgabeeinrichtung dem Bediener direkt visualisiert werden kann, welche Komponente aktuell von ihm angewählt ist. Damit wird es vorteilhaft vermieden, dass der Bediener seine Blickrichtung von der anvisierten Komponente abwendet und auf das relativ kleine Display des Smartdevice blicken muss, was einen unangenehmen Fokuswechsel darstellen würde.
  • Besonders bevorzugt ist es im Rahmen der vorliegenden Erfindung ferner, wenn die Bewegung einer ausgewählten der wenigstens einen Komponente aufgrund von Bewegungsdaten als Bedienereingabe entsprechend der Bewegung des Smartdevice erfolgt. Ist erst, insbesondere bei mehreren Komponenten, eine dieser Komponenten, insbesondere durch Anvisieren mittels dem Smartdevice, zur Verstellung ausgewählt, kann die gewünschte Bewegungsrichtung/Bewegungsart am Smartdevice beispielsweise so interpretiert werden, dass der Anwender bei einem Linksschwenk des Smartdevice auch eine entsprechende Linksbewegung der ausgewählten Komponente bewirkt, unabhängig, ob der Anwender vor, seitlich oder hinter der Komponente befindlich ist. Auf diese Weise ist eine hochgradig intuitive Einstellung von Komponenten der Medizintechnikeinrichtung möglich, nachdem insbesondere die entsprechenden Bewegungsfreiheitsgrade unmittelbar durch das Smartdevice abgebildet werden können. Ist ein Bewegungsfreiheitsgrad beispielsweise nicht verfügbar, kann dies durch eine entsprechende Rückmeldung an den Benutzer dargestellt werden; ansonsten wird aufgrund der bekannten Positionsdaten und Bewegungsdaten des Smartdevice die Bewegung aus Sicht des Benutzers entsprechend in eine Bewegung der Komponente umgesetzt, was insbesondere auch im Hinblick auf kombinierte Bewegungen durch mehrere Aktuatoren umgesetzt werden kann, beispielsweise Verschwenkungen um eine Mischachse; selbstverständlich ist es auch denkbar, beispielsweise bei Verschwenkung und/oder Linearbewegungen den nächstgelegenen Bewegungsfreiheitsgrad der Komponente entsprechend zu wählen.
  • Besonders vorteilhaft ist hierbei die Ausgestaltung, in der die Auswahl der zu steuernden Komponente durch Zeigen mittels des Smartdevice auf die Komponente erfolgt, woraufhin entsprechende Bewegungen des Smartdevice in Bewegungen dieser ausgewählten Komponente umgesetzt werden können. Es sei an dieser Stelle noch angemerkt, dass in Bezug auf Bewegungen nahe dem Patienten und mögliche Kollisionsgefahren selbstverständlich auch im Rahmen der Erfindung übliche, grundsätzlich bekannte Kollisionsschutzsysteme zusätzlich zu dem hier beschriebenen Bedienkonzept eingesetzt werden können.
  • Es sei ferner darauf hingewiesen, dass mittels dieser Steuerfunktionen bei einer Röntgeneinrichtung auch die Größe und Form der Röntgenblendeneinstellung fernbedient werden kann, sowohl was die Auswahl der Röntgenblendeneinrichtung als auch die Veränderung angeht, nachdem dann beispielsweise auf ein Blendenelement bzw. die Blendeneinrichtung selbst gezeigt werden kann und dieses bzw. diese sozusagen mittels des Smartdevice fernbedient verschoben werden kann.
  • Konkret kann zur Bewegung vorgesehen sein, dass zur Entgegennahme einer Bedienereingabe durch das Mobilgerät eine Betätigung eines Bedienmittels des Mobilgeräts, insbesondere einer Bewegungsfreigabetaste, überprüft wird. Das bedeutet, nicht zwangsläufig muss nach Auswahl einer Komponente jede Bewegung mit dem Smartdevice zu einer (gegebenenfalls unerwünschten) Bewegung der Komponente führen, sondern der Bediener kann seinen Willen, eine Verstellung vorzunehmen, über ein entsprechendes, einfaches Bedienmittel an dem Smartdevice, welches mittels des Touchscreens realisiert sein kann, aber auch eine zusätzliche Taste an dem Smartdevice nutzen kann, kundtun, was insbesondere möglich ist, ohne den Blick auf das Smartdevice selbst zu richten und mithin von dem eigentlichen Einstellvorgang abgelenkt zu werden. Auf diese Weise wird die Sicherheit erhöht, ohne die Intuitivität und Einfachheit des hier vorgeschlagenen Verfahrens zu kompromittieren.
  • In einer Weiterbildung der Erfindung kann vorgesehen sein, dass eine eine Zielposition als aktuell durch das Smartdevice anvisierte Position beschreibende Bedienereingabe bei Betätigung eines Zielanwahlbedienmittels, insbesondere eines Zielanwahltasters, entgegengenommen wird, wobei eine ausgewählte der wenigstens einen Komponente an die Zielposition bewegt wird. Es ist mithin im Rahmen der vorliegenden Erfindung auch denkbar, mittels der Zeigerichtung des Smartdevice eine gewünschte Zielposition zu definieren, welche anschließend automatisch bei Betätigung eines entsprechenden Bedienmittels angefahren werden kann.
  • Die Ermittlung der Positionsdaten und/oder der Bewegungsdaten bzw. auch der daraus folgende Steuerbetrieb kann an verschiedenen Positionen im gesamten Bediensystem und/oder auch verteilt realisiert werden. So kann vorgesehen sein, dass die Positionsdaten und/oder die Bewegungsdaten seitens einer Steuereinrichtung der Medizintechnikeinrichtung und/oder seitens einer Steuereinrichtung des Smartdevice ermittelt werden. Während es durchaus denkbar ist, das Smartdevice selbst zu nutzen, um zumindest die Position im Raum und/oder die Bewegung festzustellen, ist es bevorzugt, eine mit dem Smartdevice kommunizierende Steuereinrichtung der Medizintechnikeinrichtung, aufgrund deren höherer verfügbarer Ressourcen, einzusetzen. Dabei können verschiedene Arten von Kommunikationsverbindungen eingesetzt werden, insbesondere wiederum eine Kurzstrecken-Funkverbindung und/oder eine WLAN-Verbindung und/oder dergleichen.
  • In einer konkreten Ausgestaltung der Erfindung bei einer Röntgeneinrichtung als Medizintechnikeinrichtung können als Komponenten ein Patiententisch und/oder ein Röntgenstrahler und/oder ein Röntgendetektor und/oder ein C-Bogen und/oder eine Blendeneinrichtung verwendet werden. Selbstverständlich sind auch eine Vielzahl anderer, bewegbarer/einstellbarer Komponenten denkbar, die mittels des Smartdevice auf intuitive und einfache Art gesteuert werden können.
  • Neben dem Verfahren betrifft die Erfindung auch ein Bediensystem zur Steuerung einer Medizintechnikeinrichtung, insbesondere einer Röntgeneinrichtung, mit wenigstens einer entsprechend einer Bedienereingabe an einer als Smartdevice ausgebildeten Bedieneinrichtung bewegbaren Komponente, welches eine Steuereinrichtung der Bildaufnahmeeinrichtung und das Smartdevice aufweist und zur Durchführung des erfindungsgemäßen Verfahrens ausgebildet ist. Sämtliche Ausführungen bezüglich des erfindungsgemäßen Verfahrens lassen sich analog auf das erfindungsgemäße Bediensystem übertragen, mit welchem mithin ebenso die bereits genannten Vorteile erhalten werden können.
  • Weitere Vorteile und Einzelheiten der vorliegenden Erfindung ergeben sich aus den im Folgenden beschriebenen Ausführungsbeispielen sowie anhand der Zeichnungen. Dabei zeigen:
    • 1 eine Prinzipskizze von Komponenten eines erfindungsgemäßen Bediensystems,
    • 2 eine Darstellung zur Erläuterung der Lokalisierung mittels Markern und einer Kamera eines Smartdevice, und
    • 3 einen Ablaufplan einer Bedienaktion im erfindungsgemäßen Verfahren.
  • 1 zeigt eine Prinzipskizze eines Ausführungsbeispiels eines erfindungsgemäßen Bediensystems. In einem Raum 1 ist eine Medizintechnikeinrichtung 2, vorliegend eine als Röntgeneinrichtung ausgebildete Bildaufnahmeeinrichtung, angeordnet. Die Medizintechnikeinrichtung 2 weist mehrere durch Fernbedienung bewegbare Komponenten 3 auf, im vorliegenden Ausführungsbeispiel umfassend einen Röntgenstrahler, einen Röntgendetektor, einen Patiententisch und eine Blendeneinrichtung. Der Betrieb der Medizintechnikeinrichtung 2 wird durch eine entsprechende Steuereinrichtung 4 gesteuert.
  • Als Bedieneinrichtung für die Medizintechnikeinrichtung 2, insbesondere die bewegbaren Komponenten 3, weist das Bediensystem ferner ein hier als Smartphone ausgebildetes Smartdevice 5 auf, dessen Steuereinrichtung 6 über ein entsprechendes, hier nicht näher gezeigtes Funkinterface, insbesondere ein Bluetooth-Interface und/oder ein WLAN-Interface, eine drahtlose Kommunikationsverbindung 7 zu der Steuereinrichtung 4 aufbauen kann. Das Bluetooth-Interface, wobei hier Bluetooth Low Energy (BLE) verwendet wird, wird im Übrigen auch zum Aufbau von Kurzstrecken-Funkverbindungen 8 zu wenigstens einem Teil von optischen Markern 9 verwendet, konkret wenigstens zu aktiven optischen Markern 9, die mithin zur Ausgabe optischer, zu detektierender Signale angesteuert werden können.
  • Es wird darauf hingewiesen, dass die Möglichkeit zum Aufbau der Kurzstrecken-Funkverbindungen 8 bzw. deren Eigenschaften auch als allgemeiner Trigger verwendet werden können, der anzeigt, dass sich das Smartdevice 5 im Raum 1 befindet und somit konkret zur Steuerung der Medizintechnikeinrichtung 2 verwendet werden kann. Anhand dieses Triggers kann beispielsweise der Aufbau der Kommunikationsverbindung 7 ausgelöst werden und/oder eine genauere Positionsbestimmung, die im Folgenden noch genauer beschrieben werden wird, in Gang gesetzt werden. Alternativ können mittels der Kamera auf das aktiv ausgesendete Licht von Markern 9 aufmodulierte Identifikationssignale der als Licht-Beacons wirkenden Marker aufgenommen und ausgewertet werden, um zu bestimmen, ob sich das Smartdevice 5 im Raum 1 befindet.
  • Das Smartdevice 5 umfasst ferner, wie grundsätzlich bekannt, einen Touchscreen 10 als Bedienmittel und Display. Ferner weist das Smartdevice 5 Smartdevicesensoren 11 auf, vorliegend zwei Kameras, nämlich eine Frontkamera und eine Rückkamera, Beschleunigungssensoren, Drehratensensoren und einen Magnetfeldsensor, der als Kompass wirkt.
  • Den fernbedient bewegbaren Komponenten 3 sind nun zum einen durch die Steuereinrichtung 4 ansteuerbare Aktoren 12 zur Herstellung der Bewegbarkeit, beispielsweise Motoren, zugeordnet, die im Übrigen auch ihre jeweilige Stellung an die Steuereinrichtung 4 zurückmelden, so dass diese aufgrund der ihr auch bekannten Systemgeometrie der Medizintechnikeinrichtung 2 ständig die Position der Komponenten 3 kennt. Die Steuereinrichtung 4 kennt im Übrigen auch die Position der Medizintechnikeinrichtung 2 im Raum 1. Kann nun die Position und Orientierung bzw. die Bewegung des Smartdevice 5 im Raum 1 als entsprechende Positionsdaten bzw. Bewegungsdaten ermittelt werden, können diese in Beziehung zu den jeweiligen Komponenten 3 gesetzt werden, insbesondere durch eine Auswahl einer zu bedienenden Komponente 3 und eine Vorgabe einer durchzuführenden Bewegung als Bedienereingabe, die dann von den Aktoren 12 entsprechend umgesetzt wird.
  • Um, ohne dass ein Bediener den Blick von den Komponenten 3 abwenden muss, anzuzeigen, dass eine Komponente 3 ausgewählt wurde, weisen diese zudem Ausgabeeinrichtungen 13 auf, beispielsweise LED-Bänder, deren Aufleuchten deutlich anzeigt, dass die entsprechende Komponente zur Bedienung ausgewählt wurde, wie im Folgenden noch genauer dargelegt werden wird.
  • Zur Bestimmung der Orientierung, Position und auch Bewegung des Smartdevice 5 im Raum 1 werden die Smartdevicesensoren 11, insbesondere die mittels der Kameras erfassbaren Marker 9, genutzt.
  • 2 erläutert dies in Form einer perspektivischen Ansicht auf den Raum 1 genauer. Zu erkennen ist zunächst die Medizintechnikeinrichtung 2 mit dem Patiententisch 14, dem Röntgenstrahler 15 und dem Röntgendetektor 16 als Komponenten 3; eine Blendeneinrichtung ist der Übersichtlichkeit halber nicht dargestellt. Eine Hand 17 eines Bedieners hält das Smartdevice 5 im Raum, wobei der Erfassungsbereich 18 der vorderen Kamera 19 als Smartdevicesensor 11 angedeutet ist. Die in ihren optisch wahrnehmbaren Mustern deutlich unterscheidbaren Marker 9 sind ersichtlich an verschiedenen Stellen im Raum 1, vorliegend der Übersichtlichkeit halber wenigstens an der Decke und den Wänden, verteilt; eine Anordnung von optischen Markern 9 am Boden ist selbstverständlich auch möglich. Dabei weisen die aktiven Marker 9 vorliegend Infrarot-LEDs 20 in verschiedenen Mustern auf.
  • Nachdem das Smartdevice 5 länglich ist, weist es, in der Hand 17 liegend, auch eine klar definierte Zeigerichtung 21, symbolisiert durch einen Pfeil, auf, nämlich die Verlängerung der Längsachse des Smartdevice 5.
  • Im Betrieb zur Steuerung von Komponenten 3 werden mittels der Steuereinrichtung 4 und/oder der Steuereinrichtung 6 kontinuierlich Positionsdaten und Bewegungsdaten des Smartdevice 5 erzeugt. Nachdem die Position und die Eigenschaften der Marker 9 in einer Konfigurationsphase ermittelt und, beispielsweise in einer Datenbank, abgelegt wurden, können die von der Kamera 19 erfassten Marker 9 zur Positionsbestimmung dienen, wobei die aktiven Marker 9 über die entsprechenden Kurzstrecken-Funkverbindungen 8 angesteuert werden, in Synchronisation mit dem Smartdevice 5 entsprechende, detektierbare Signale auszugeben. Die Infrarot-LEDs 20 ermöglichen eine verlässliche Erkennung der Marker 9. Aufgrund der Kurzstrecken-Fundverbindung 8 wirken die aktiven Marker 9 zudem auch als Funk-Beacons bzw. Funkleuchtfeuer, was bereits eine zumindest grobe Positionsbestimmung ebenso ermöglicht (Laufzeit- und Feldstärkemessungen). Unterstützend zu den Sensordaten der Kamera werden auch die Sensordaten der Beschleunigungssensoren (Kippung im Raum), der Drehratensensoren (Bewegung) und des Magnetfeldsensors (Ausrichtung nach Nord grob ermittelbar) berücksichtigt.
  • 3 erläutert nun einen möglichen Bedienvorgang einer Komponente 3 genauer.
  • In einem Schritt S1 visiert der Bediener mittels des Smartdevice 5 die zu steuernde Komponente 3 an. Aus den aktuellen Positionsdaten lässt sich die Fortsetzung der Längsachse, also die Zeigerichtung 21, ermitteln, so dass überprüft werden kann, ob das Smartdevice 5 auf eine Komponente 3 zeigt. Ist dies der Fall, wird in einem Schritt S2 die dieser Komponente zugeordnete Ausgabeeinrichtung 13 in einen Anwählbarkeitsmodus, beispielsweise zum Aussenden einer ersten Farbe, angesteuert. Wird dann in einem Schritt S3 festgestellt, dass ein Bestätigungsbedienmittel, vorliegend auf dem Touchscreen 10 dargestellt, betätigt wurde, wird die entsprechende Komponente in einem Schritt S4 endgültig als zu bedienend ausgewählt und das Ausgabelicht der Ausgabeeinrichtung 13 wechselt bestätigend die Farbe, beispielsweise von Gelb nach Grün.
  • In einem Schritt S5 besteht nun mittels eines ebenso auf dem Touchscreen 10 dargestellten weiteren Bedienmittels, hier einer Bewegungsfreigabetaste 22 (vgl. 2), die Möglichkeit, Bewegungen des Smartdevice 5 in Bewegungen der ausgewählten Komponente 3 zu übertragen. Ist in 2 beispielsweise der Röntgenstrahler 15 ausgewählt und wird das Smartdevice 5 nach rechts bewegt, bewegt sich auch der Röntgenstrahler 15 nach rechts, solange die Bewegungsfreigabetaste 22 betätigt ist. Entsprechendes gilt für Rotationen bzw. andere Bewegungen, solange diese Bewegungsfreiheitsgrade zur Verfügung stehen.
  • Ein Schritt S6 symbolisiert eine weitere Möglichkeit zur Fernbedienung einer Komponente 3, nämlich die Anwahl einer Zielposition durch das Smartdevice 5, indem auf diese gezeigt wird und ein Zielanwahlbedienmittel, das wiederum auf dem Touchscreen 10 dargestellt sein kann, betätigt wird. Die Komponente 3 wird dann an die entsprechende Zielposition verfahren.
  • Zusätzlich kann im Übrigen auch ein Abwahlbedienmittel bzw. ein Umwahlbedienmittel vorgesehen sein, um eine weitere Komponente 3 zur Steuerung zu markieren. Ferner können selbstverständlich Komponenten 3 auch aneinander gekoppelt sein, beispielsweise was den Röntgendetektor 16 und den Röntgenstrahler 15 zumindest bezüglich einiger Bewegungsfreiheitsgrade betrifft. Dies alles wird in der Steuereinrichtung 4 umgesetzt.
  • Es sei abschließend noch angemerkt, dass dann, wenn beispielsweise Marker 9 nicht oder nicht hinreichend aufgrund von ungünstigen Blickwinkeln erkennbar sind, eine Koppelnavigation (Dead Reckoning) mittels der Beschleunigungssensoren und der Drehratensensoren stattfinden kann.
  • Obwohl die Erfindung im Detail durch das bevorzugte Ausführungsbeispiel näher illustriert und beschrieben wurde, so ist die Erfindung nicht durch die offenbarten Beispiele eingeschränkt und andere Variationen können vom Fachmann hieraus abgeleitet werden, ohne den Schutzumfang der Erfindung zu verlassen.
  • Bezugszeichenliste
  • 1
    Raum
    2
    Medizintechnikeinrichtung
    3
    Komponenten
    4
    Steuereinrichtung
    5
    Smartdevice
    6
    Steuereinrichtung
    7
    Kommunikationsverbindung
    8
    Kurzstrecken-Funkverbindung
    9
    Marker
    10
    Touchscreen
    11
    Smartdevicesensor
    12
    Aktor
    13
    Ausgabeeinrichtungen
    14
    Patiententisch
    15
    Röntgenstrahler
    16
    Röntgendetektor
    17
    Hand
    18
    Erfassungsbereich
    19
    Kamera
    20
    Infrarot-LED
    21
    Zeigerichtung
    22
    Bewegungsfreigabetaste
    S1
    Schritt
    S2
    Schritt
    S3
    Schritt
    S4
    Schritt
    S5
    Schritt
    S6
    Schritt

Claims (15)

  1. Verfahren zur Steuerung einer Medizintechnikeinrichtung (2), insbesondere einer Bildaufnahmeeinrichtung, mit wenigstens einer entsprechend einer Bedienereingabe an einer Bedieneinrichtung bewegbaren Komponente (3), dadurch gekennzeichnet, dass als Bedieneinrichtung ein Smartdevice (5) verwendet wird, welches wenigstens einen die Bewegung und/oder die Position des Smartdevices (5) in dem Raum (1), in dem die Medizintechnikeinrichtung (2) befindlich ist, beschreibende Sensordaten aufnehmenden Smartdevicesensor (11) aufweist, wobei die Position und die Orientierung des Smartdevices (5) zu der wenigstens einen Komponente (3) beschreibende Positionsdaten und/oder eine Bewegung relativ zu der wenigstens einen Komponente (3) beschreibende Bewegungsdaten aus den Sensordaten ermittelt und zur Auswahl wenigstens einer der wenigstens einen Komponente (3) und/oder Ermittlung einer Bedienereingabe bezüglich wenigstens einer der wenigstens einen Komponente (3) ausgewertet werden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass wenigstens ein Smartdevicesensor (11) eine Kamera (19) ist, in deren Bilddaten in dem Raum (1) angeordnete optische Marker (9) detektiert und zur Ermittlung der Positionsdaten und/oder der Bewegungsdaten verwendet werden.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass als wenigstens ein Teil der Marker (9) aktive Marker (9), insbesondere umfassend optische und/oder Infrarot-LEDs (20), verwendet werden.
  4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass die aktiven Marker (9) zur Positionsbestimmung von dem Smartdevice (5) mittels einer Kurzstrecken-Funkverbindung (8), insbesondere einer Bluetooth-Verbindung, zum Betrieb angesteuert werden.
  5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die Positionsdaten wenigstens teilweise nach einem Signallaufzeitverfahren und/oder aufgrund einer Feldstärke der von den Markern (9) ausgesendeten Funksignale bei bidirektionaler Kurzstrecken-Funkverbindung (8) ermittelt werden.
  6. Verfahren nach Anspruch 4 oder 5, dadurch gekennzeichnet, dass das Bestehen und/oder der Aufbau und/oder eine Eigenschaft der Kurzstrecken-Funkverbindung (8) zur Detektion, ob sich das Smartdevice (5) in dem Raum (1) befindet, verwendet werden, insbesondere zur Triggerung des Beginns der Ermittlung der Positionsdaten und/oder der Bewegungsdaten.
  7. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass, insbesondere zusätzlich zu der Kamera (19), als Smartdevicesensor (11) wenigstens ein Beschleunigungssensor und/oder wenigstens ein Drehratensensor und/oder wenigstens ein Magnetfeldsensor, insbesondere als Kompass, verwendet werden, wobei insbesondere die Positionsdaten und/oder die Bewegungsdaten wenigstens teilweise mittels Koppelnavigation ermittelt werden.
  8. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass zur Auswahl einer zu steuernden Komponente (3) die in den Positionsdaten enthaltene Orientierung des Smartdevices (5) dahingehend ausgewertet wird, ob der Bediener mit dem Smartdevice (5) auf eine der wenigstens einen Komponente (3) zeigt, welche, insbesondere nach Betätigung eines Bestätigungsbedienmittels durch den Bediener, ausgewählt wird.
  9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass das Auswählen einer Komponente (3) durch wenigstens eine an der ausgewählten Komponente (3) angeordnete, optische Ausgabeeinrichtung (13) angezeigt wird, insbesondere ein LED-Band und/oder eine hinterleuchtbare Farbfläche.
  10. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Bewegung einer ausgewählten der wenigstens einen Komponente (3) aufgrund von Bewegungsdaten als Bedienereingabe entsprechend der Bewegung des Smartdevices (5) erfolgt.
  11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass zur Entgegennahme einer Bedienereingabe durch das Smartdevice (5) eine Betätigung eines Bedienmittels des Smartdevices (5), insbesondere einer Bewegungsfreigabetaste (22), überprüft wird.
  12. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass eine eine Zielposition als aktuell durch das Smartdevice (5) anvisierte Position beschreibende Bedienereingabe bei Betätigung eines Zielanwahlbedienmittels, insbesondere eines Zielanwahltasters, entgegengenommen wird, wobei eine ausgewählte der wenigstens einen Komponente (3) an die Zielposition bewegt wird.
  13. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass bei einer Röntgeneinrichtung als Medizintechnikeinrichtung (2) als Komponenten (3) ein Patiententisch (14) und/oder ein Röntgenstrahler (15) und/oder ein Röntgendetektor (16) und/oder ein C-Bogen und/oder eine Blendeneinrichtung verwendet werden.
  14. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Positionsdaten und/oder die Bewegungsdaten seitens einer Steuereinrichtung (4) der Medizintechnikeinrichtung (2) und/oder seitens einer Steuereinrichtung (6) des Smartdevice (5) erfolgt.
  15. Bediensystem zur Steuerung einer Medizintechnikeinrichtung (2), insbesondere einer Röntgeneinrichtung, mit wenigstens einer entsprechend einer Bedienereingabe an einer als Smartdevice (5) ausgebildeten Bedieneinrichtung bewegbaren Komponente (3), aufweisend eine Steuereinrichtung (4) der Medizintechnikeinrichtung (2) und das Smartdevice (5) und ausgebildet zur Durchführung eines Verfahrens nach einem der vorangehenden Ansprüche.
DE102017220532.6A 2017-11-17 2017-11-17 Verfahren und Bediensystem zur Steuerung einer Medizintechnikeinrichtung mit einer bewegbaren Komponente Active DE102017220532B4 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102017220532.6A DE102017220532B4 (de) 2017-11-17 2017-11-17 Verfahren und Bediensystem zur Steuerung einer Medizintechnikeinrichtung mit einer bewegbaren Komponente
US16/190,275 US10492753B2 (en) 2017-11-17 2018-11-14 Method and operating system for controlling a medical technology facility with a movable component
CN201811368160.6A CN109801701B (zh) 2017-11-17 2018-11-16 控制具有可移动组件的医学技术设施的方法和操作系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102017220532.6A DE102017220532B4 (de) 2017-11-17 2017-11-17 Verfahren und Bediensystem zur Steuerung einer Medizintechnikeinrichtung mit einer bewegbaren Komponente

Publications (2)

Publication Number Publication Date
DE102017220532A1 true DE102017220532A1 (de) 2019-05-23
DE102017220532B4 DE102017220532B4 (de) 2022-06-15

Family

ID=66336322

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017220532.6A Active DE102017220532B4 (de) 2017-11-17 2017-11-17 Verfahren und Bediensystem zur Steuerung einer Medizintechnikeinrichtung mit einer bewegbaren Komponente

Country Status (3)

Country Link
US (1) US10492753B2 (de)
CN (1) CN109801701B (de)
DE (1) DE102017220532B4 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019005014A1 (de) * 2019-07-19 2021-01-21 Drägerwerk AG & Co. KGaA Versorgungssystem, Betätigungseinheit und Verfahren zum Betreiben eines Versorgungssystems
DE102020206890A1 (de) 2020-06-03 2021-12-09 Robert Bosch Gesellschaft mit beschränkter Haftung System mit einem Bedienelement

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3643240B1 (de) * 2018-10-24 2021-03-17 Siemens Healthcare GmbH Medizinische bildgebungseinrichtung und verfahren zum betrieb einer medizinischen bildgebungseinrichtung
JP7397883B2 (ja) * 2019-05-31 2023-12-13 アップル インコーポレイテッド 環境に基づく通信データの提示

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2684522A1 (de) * 2012-07-12 2014-01-15 Samsung Electronics Co., Ltd Röntgenbildgebungsvorrichtung, Fernbedienung für Röntgenbildgebungsvorrichtung, und Steuerverfahren für Röntgenbildgebungsvorrichtung

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007013566B4 (de) * 2007-03-21 2017-02-23 Siemens Healthcare Gmbh Verfahren zur Bilddatenaufnahme und medizinische Modalität
US8174358B2 (en) 2010-05-24 2012-05-08 General Electric Company Handheld X-ray system interface with tracking feature
US20140063219A1 (en) * 2012-08-28 2014-03-06 General Electric Company System and method including a portable user profile for medical imaging systems
DE102012020945B4 (de) * 2012-10-25 2019-10-10 Fresenius Medical Care Deutschland Gmbh Vorrichtung, System und Verfahren zur Überwachung, Informationsanzeige und Bedienung von medizinischen Fluidmanagementgeräten
CN105163684B (zh) * 2013-03-15 2018-02-02 圣纳普医疗(巴巴多斯)公司 手术数据的联运同步
DE102014211063A1 (de) * 2014-06-11 2015-12-17 Siemens Aktiengesellschaft Bildgebendes medizinisches Gerät mit optimierter Bedienung
DE102014223293A1 (de) * 2014-11-14 2016-05-19 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur Protokollanpassung für medizinische Bildgebung
DE102015201070B4 (de) * 2015-01-22 2020-04-23 Siemens Healthcare Gmbh Röntgenaufnahmesystem
WO2016186904A1 (en) * 2015-05-18 2016-11-24 Vayu Technology Corp. Devices for measuring human gait and related methods of use
DE102015226194A1 (de) * 2015-12-21 2017-06-22 Robert Bosch Gmbh Mobile Funktionsvorrichtung
CN106845120A (zh) * 2017-01-19 2017-06-13 杭州古珀医疗科技有限公司 一种基于混合现实技术的远程医疗系统及其操作方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2684522A1 (de) * 2012-07-12 2014-01-15 Samsung Electronics Co., Ltd Röntgenbildgebungsvorrichtung, Fernbedienung für Röntgenbildgebungsvorrichtung, und Steuerverfahren für Röntgenbildgebungsvorrichtung

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019005014A1 (de) * 2019-07-19 2021-01-21 Drägerwerk AG & Co. KGaA Versorgungssystem, Betätigungseinheit und Verfahren zum Betreiben eines Versorgungssystems
WO2021013564A1 (de) 2019-07-19 2021-01-28 Drägerwerk AG & Co. KGaA Versorgungssystem und verfahren zur versorgung eines medizinischen geräts mit einem fluid, umfassend eine drahtlose betätigungseinheit
DE102020206890A1 (de) 2020-06-03 2021-12-09 Robert Bosch Gesellschaft mit beschränkter Haftung System mit einem Bedienelement

Also Published As

Publication number Publication date
DE102017220532B4 (de) 2022-06-15
CN109801701A (zh) 2019-05-24
US10492753B2 (en) 2019-12-03
US20190150875A1 (en) 2019-05-23
CN109801701B (zh) 2023-08-15

Similar Documents

Publication Publication Date Title
EP3486915B1 (de) Verfahren zur steuerung des betriebs einer medizintechnikeinrichtung, bediengerät, bediensystem und medizintechnikeinrichtung
DE102017220532B4 (de) Verfahren und Bediensystem zur Steuerung einer Medizintechnikeinrichtung mit einer bewegbaren Komponente
EP2713983B1 (de) Orientierungshilfe für personen mit eingeschränktem sehvermögen
DE102018205496A1 (de) Verfahren zur Steuerung des Betriebs einer Medizintechnikeinrichtung, Bediengerät, Bediensystem, Medizintechnikeinrichtung, Computerprogramm und elektronisch lesbarer Datenträger
EP2742323B1 (de) Vermessungsgerät und verfahren mit einer auf der ausrichtung einer fernbedieneinheit basierenden und skalierbaren anzielfunktionalität
DE102015206230B4 (de) CT-System und Verfahren zur Positions- und Bereichsbestimmung eines mobilen Bedienelementes zur Steuerung des CT-Systems
EP1302172A1 (de) Medizinisches Instrument mit berührungsempfindlicher Spitze
EP3368954A1 (de) Verfahren, steuerungssystem und bewegungsvorgabemittel zum steuern der bewegungen von gelenkarmen eines industrieroboters
DE10361341B4 (de) Vorrichtung zur Bedienung eines Kochfeldes
EP3269323A1 (de) Medizinischer haltearm mit ringförmigen led-anzeigemitteln
EP2272055A1 (de) Fernbedienung
EP2246005A1 (de) Medizinisches Instrument mit außen befestigbarer, separater Sendereinheit
DE102011082680A1 (de) Anlage
EP3562730A1 (de) Verfahren zum automatisierten parken eines kraftfahrzeugs
EP1785169B1 (de) Such- und Sendegerät
DE102010013499B4 (de) Verfahren zur Ausrichtung einer stereoskopischen Bildgebungseinrichtung eines optischen Trackingssystems, Trackingsystem und medizinisches Behandlungssystem
DE102009009549A1 (de) Gerätepositionierung im Operationssaal
WO2015043784A1 (de) Fernbedienung und verfahren zur steuerung eines gerätes mit zumindest einem bewegungsfreiheitsgrad
DE102011054730A1 (de) Chirurgisches Navigationssystem
DE102014200066A1 (de) Bediengerät für eine Werkzeugmaschine mit lageabhängiger Zuordnung von Bedienbefehlen zu einzelnen Bewegungsachsen der Werkzeugmaschine
EP4157134A1 (de) System zur überwachung einer operationsleuchtenanordnung
DE102008010990A1 (de) Einrichtung umfassend ein im Raum bewegbares, zu betrachtendes Objekt, insbesondere medizinische Untersuchungs- oder Behandlungseinrichtung mit einer im Raum bewegbaren Anzeigevorrichtung
EP2991452B1 (de) System zur ortsaufgelösten beleuchtungssteuerung
EP3411861A1 (de) Kameraanordnung
CN109793530B (zh) 用于操作x射线设备的准直器的方法以及x射线设备

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHINEERS AG, DE

Free format text: FORMER OWNER: SIEMENS HEALTHCARE GMBH, MUENCHEN, DE