DE102011089803A1 - System for monitoring examination space in clinical environment of e.g. C-arm X-ray diagnostic device, has depth cameras that are connected to image processing computer so as to generate three-dimensional data in accordance with object - Google Patents

System for monitoring examination space in clinical environment of e.g. C-arm X-ray diagnostic device, has depth cameras that are connected to image processing computer so as to generate three-dimensional data in accordance with object Download PDF

Info

Publication number
DE102011089803A1
DE102011089803A1 DE102011089803A DE102011089803A DE102011089803A1 DE 102011089803 A1 DE102011089803 A1 DE 102011089803A1 DE 102011089803 A DE102011089803 A DE 102011089803A DE 102011089803 A DE102011089803 A DE 102011089803A DE 102011089803 A1 DE102011089803 A1 DE 102011089803A1
Authority
DE
Germany
Prior art keywords
monitoring
examination room
depth cameras
camera
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102011089803A
Other languages
German (de)
Inventor
Danilo Briese
Stefan Schuster
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE102011089803A priority Critical patent/DE102011089803A1/en
Publication of DE102011089803A1 publication Critical patent/DE102011089803A1/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/10Safety means specially adapted therefor
    • A61B6/102Protection against mechanical damage, e.g. anti-collision devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/40Arrangements for generating radiation specially adapted for radiation diagnosis
    • A61B6/4007Arrangements for generating radiation specially adapted for radiation diagnosis characterised by using a plurality of source units
    • A61B6/4014Arrangements for generating radiation specially adapted for radiation diagnosis characterised by using a plurality of source units arranged in multiple source-detector units
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4429Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
    • A61B6/4435Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure
    • A61B6/4441Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure the rigid structure being a C-arm or U-arm
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4429Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
    • A61B6/4458Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit or the detector unit being attached to robotic arms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4429Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
    • A61B6/4464Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit or the detector unit being mounted to ceiling
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/504Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of blood vessels, e.g. by angiography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Vascular Medicine (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Automation & Control Theory (AREA)
  • Robotics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

The system has a depth camera (14) to detect the position of examination space (13) located with ligands object. A beam transmitter is used for transmitting a beam. Another camera is located to detect the object. The depth cameras are connected to image processing computer (15) so as to generate three-dimensional data in accordance with the object using signals of the camera. The depth cameras are provided for monitoring the examination space. The monochromatic radiation source is provided with a beam shaper and detector.

Description

Die Erfindung betrifft ein System zur Überwachung eines Untersuchungsraums im klinischen Umfeld einer Diagnostikeinrichtung während einer angiographischen Untersuchung oder Behandlung eines Organs, Gefäßsystems oder anderer Körperregionen als Untersuchungsobjekt eines Patienten mit einer Vorrichtung zum Erfassen der Position zumindest eines sich in dem Untersuchungsraum befindenden Objektes, wobei die Vorrichtung einen Strahlensender zum Senden eines Strahlenbündels sowie eine Kamera zum Erfassen des zumindest einen Objektes aufweist und wobei die Signale der Kamera einer Vorrichtung zugeführt werden, die aufgrund dieser Signale 3-D-Daten entsprechend des zumindest einen Objektes erzeugt, die zur Vermeidung von Kollisionen des Objektes herangezogen werden. The invention relates to a system for monitoring an examination room in the clinical environment of a diagnostic device during an angiographic examination or treatment of an organ, vascular system or other body regions as an examination subject of a patient with a device for detecting the position of at least one object located in the examination room, wherein the device a radiation transmitter for transmitting a beam and a camera for detecting the at least one object, and wherein the signals of the camera are fed to a device which, on the basis of these signals, generates 3-D data corresponding to the at least one object used to avoid collisions of the object be used.

Medizinische Diagnose- und Interventionssysteme in der Angiographie, Kardiologie und Neurologie nutzen heute meist einen sogenannten C-Bogen als Basis für die bildgebenden Komponenten, die Röntgenröhre und den Röntgendetektor. Dieser kann für die 2-D- als auch für 3-D-Bildgebung – motorisch angetrieben – sehr flexibel um den Patienten positioniert werden. So werden beispielsweise im Rahmen vorprogrammierter Rotationsangiographien, d. h. während einer kreisbogenförmigen Fahrt des C-Bogens um einen Patienten, bis zu einige hundert Bilder aufgenommen, die anschließend mittels Algorithmen in ein 3-D-Volumen rekonstruiert werden können. Dafür werden üblicherweise Rotationsgeschwindigkeiten von 60°/s genutzt. Für zukünftige Anwendungen und um weitere Dosiseinsparungen realisieren zu können, werden noch höhere Geschwindigkeiten für die Rotation benötigt. Auch manuelle Fahrten, die dem Bediener beliebige Fahrten über alle Freiheitsgrade mit den Systemen ermöglichen, werden für die Optimierung des klinischen Workflows schneller. Mit schnelleren und flexibleren Systemen steigt das Risiko von Kollisionen mit Patienten, Personal und Equipment stark an. Medical diagnosis and intervention systems in angiography, cardiology and neurology today mostly use a so-called C-arm as the basis for the imaging components, the X-ray tube and the X-ray detector. This can be positioned very flexibly around the patient for 2-D as well as 3-D imaging - powered by a motor. For example, in the context of preprogrammed rotation angiographies, i. H. during a circular movement of the C-arm around a patient, up to a few hundred images taken, which can then be reconstructed using algorithms in a 3-D volume. For rotation speeds of 60 ° / s are usually used. For future applications and to realize further dose savings, even higher rotational speeds are needed. Even manual rides that allow the operator to drive freely across all degrees of freedom with the systems become faster to optimize the clinical workflow. With faster and more flexible systems, the risk of collisions with patients, personnel, and equipment increases dramatically.

In dem Umfeld der Angiographiegeräte befinden sich zunehmend vermehrt dem System für die Pfadplanung unbekannte Geräte, wie zum Beispiel Anästhesiegeräte, Arm- oder Kopfhalterungen, Infusionsständer usw. Durch die Flexibilisierung der Systeme werden immer mehr C-Bogen-Angiographiegeräte im OP-Bereich eingesetzt, in dem sich aus medizinischen Gründen deutlich mehr Personen aufhalten, die somit ebenso einer erhöhten Gefährdung einer Kollision ausgesetzt werden. In the field of angiography devices, the path planning system is increasingly gaining access to unknown devices, such as anesthesia devices, arm or head mounts, infusion stands, etc. Due to the flexibility of the systems, more and more C-arm angiography devices are being used in the operating theater For medical reasons, there are significantly more people who are therefore also exposed to an increased risk of collision.

Ein derartiges Angiographiesystem ist beispielsweise aus der US 7,500,784 B2 bekannt, das im Zusammenhang mit der 1 nachfolgend erläutert wird. Such Angiographiesystem is for example from the US 7,500,784 B2 known in connection with the 1 will be explained below.

Die 1 zeigt ein als Beispiel dargestelltes biplanes Röntgensystem mit zwei von je einem Ständer 1 und 1' in Form eines sechsachsigen Industrie- oder Knickarmroboters gehaltenen C-Bögen 2 und 2', an deren Enden je eine Röntgenstrahlungsquelle, beispielsweise Röntgenstrahler 3 und 3' mit Röntgenröhren und Kollimatoren, und je ein Röntgenbilddetektor 4 und 4' als Bildaufnahmeeinheit angebracht sind. Der erste Ständer 1 ist dabei auf dem Fußboden 5 montiert, während der zweite Ständer 1' an der Decke 6 befestigt sein kann. The 1 shows an exemplary biplanes X-ray system with two of each stand 1 and 1' in the form of a six-axis industrial or articulated robot held C-arms 2 and 2 ' , at the ends of each an X-ray source, such as X-ray source 3 and 3 ' with x-ray tubes and collimators, and one x-ray image detector each 4 and 4 ' are mounted as an image recording unit. The first stand 1 is on the floor 5 mounted while the second stand 1' on the ceiling 6 can be attached.

Mittels des beispielsweise aus der US 7,500,784 B2 bekannten Knickarmroboters, welcher bevorzugt sechs Drehachsen und damit sechs Freiheitsgrade aufweist, können die C-Bogen 2 und 2' beliebig räumlich verstellt werden, zum Beispiel indem sie um ihre zwischen den Röntgenstrahlern 3 und 3' sowie den Röntgenbilddetektoren 4 und 4' liegenden Drehzentren gedreht werden. Das erfindungsgemäße angiographische Röntgensystem 1 bis 4 ist insbesondere um Drehzentren und Drehachsen in der C-Bogen-Ebene der Röntgenbilddetektoren 4 und 4' drehbar, bevorzugt um den Mittelpunkt der Röntgenbilddetektoren 4 bzw. 4' und um den Mittelpunkt der Röntgenbilddetektoren 4 bzw. 4' schneidende Drehachsen. By means of the example of the US 7,500,784 B2 Known articulated robot, which preferably has six axes of rotation and thus six degrees of freedom, the C-arm 2 and 2 ' be spatially adjusted, for example, by placing them between the X-ray tubes 3 and 3 ' as well as the X-ray image detectors 4 and 4 ' lying turning centers are rotated. The angiographic X-ray system according to the invention 1 to 4 is in particular about centers of rotation and axes of rotation in the C-arm plane of the X-ray image detectors 4 and 4 ' rotatable, preferably around the center of the X-ray image detectors 4 respectively. 4 ' and around the center of the X-ray image detectors 4 respectively. 4 ' cutting axes of rotation.

Der bekannte Knickarmroboter weist ein Grundgestell auf, welches beispielsweise auf dem Boden 5 oder an der Decke 6 fest montiert ist. Daran ist drehbar um eine erste Drehachse ein Karussell befestigt. Am Karussell ist schwenkbar um eine zweite Drehachse eine Roboterschwinge angebracht, an der drehbar um eine dritte Drehachse ein Roboterarm befestigt ist. Am Ende des Roboterarms ist drehbar um eine vierte Drehachse eine Roboterhand angebracht. Die Roboterhand weist ein Befestigungselement für den C-Bogen 2 oder 2' auf, welches um eine fünfte Drehachse schwenkbar und um eine senkrecht dazu verlaufende sechste Rotationsachse rotierbar ist. The known articulated robot has a base frame, which, for example, on the ground 5 or on the ceiling 6 is firmly mounted. It is rotatably mounted about a first axis of rotation a carousel. On the carousel is pivotally mounted about a second axis of rotation a rocker arm, on which is rotatably mounted about a third axis of rotation, a robot arm. At the end of the robot arm, a robot hand is rotatably mounted about a fourth axis of rotation. The robot hand has a fastener for the C-arm 2 or 2 ' which is pivotable about a fifth axis of rotation and about a perpendicular thereto extending sixth axis of rotation rotatable.

Die Realisierung der Röntgendiagnostikeinrichtung ist nicht auf den Industrieroboter angewiesen. Es können auch übliche C-Bogen-Geräte Verwendung finden. The realization of the X-ray diagnostic device is not dependent on the industrial robot. It can also find common C-arm devices use.

Die Röntgenbilddetektoren 4 und 4' können rechteckige oder quadratische, flache Halbleiterdetektoren sein, die vorzugsweise aus amorphem Silizium (a-Si) erstellt sind. Es können aber auch integrierende und eventuell zählende CMOS-Detektoren Anwendung finden. The X-ray image detectors 4 and 4 ' may be rectangular or square semiconductor flat detectors, preferably made of amorphous silicon (a-Si). However, integrating and possibly counting CMOS detectors may also be used.

Im Strahlengang der Röntgenstrahler 3 und 3' befindet sich eine Tischplatte 7 eines Patientenlagerungstisches 8 zur Aufnahme eines zu untersuchenden Patienten als Untersuchungsobjekt. Der Patientenlagerungstisch 8 ist mit einem Bedienpult 9 versehen. An der Röntgendiagnostikeinrichtung ist eine Systemsteuerungseinheit 10 mit einem Bildsystem 11 angeschlossen, das die Bildsignale der Röntgenbilddetektoren 4 und 4' empfängt und verarbeitet. Die Röntgenbilder können dann auf Displays einer Monitorampel 12 betrachtet werden. In the beam path of the X-ray source 3 and 3 ' there is a table top 7 a patient table 8th for receiving a patient to be examined as an examination subject. The patient table 8th is with a control panel nine Mistake. At the X-ray diagnostic facility is a system control unit 10 with an image system 11 connected to the image signals of the X-ray image detectors 4 and 4 ' receives and processes. The X-ray images can then be displayed on a monitor 12 to be viewed as.

Anstelle des in 1 beispielsweise dargestellten biplanen angiographischen Röntgensystems mit den Ständern 1 und 1' in Form des sechsachsigen Industrie- oder Knickarmroboters kann das angiographische Röntgensystem auch eine normale decken- und/oder bodenmontierte Halterung für den C-Bogen 2 aufweisen. Instead of in 1 For example, shown biplane angiographic X-ray system with the stands 1 and 1' In the form of the six-axis industrial or articulated robot, the angiographic X-ray system can also be a normal ceiling and / or floor mount bracket for the C-arm 2 exhibit.

Anstelle der beispielsweise dargestellten C-Bogen 2 und 2' kann das angiographische Röntgensystem auch getrennte decken- und/oder bodenmontierte Halterungen für die Röntgenstrahler 3 und 3' und die Röntgenbilddetektoren 4 und 4' aufweisen, die beispielsweise elektronisch starr gekoppelt sind. Instead of the example shown C-arm 2 and 2 ' For example, the angiographic x-ray system may also include separate ceiling and / or floor mount brackets for the x-ray emitters 3 and 3 ' and the X-ray image detectors 4 and 4 ' have, for example, are electronically rigidly coupled.

Um das Risiko von Kollisionen mit Patienten, Personal und Equipment zu minimieren, werden vor der Freigabe einer Untersuchung mit hohen Systemgeschwindigkeiten Testfahrten mit reduzierter Fahrgeschwindigkeit durchgeführt, in denen die Kollisionsfreiheit geprüft wird. To minimize the risk of collisions with patients, personnel, and equipment, reduced speed vehicle test runs are performed prior to releasing a high-speed test to assess collision-free performance.

Außerdem wird bisher in bestimmten Bereichen die Geschwindigkeit durch ein vorprogrammiertes Kollisionsmodell reduziert und durch die Detektion von Auffahrten nach dem Ereignis das System gestoppt. In addition, in certain areas, the speed is reduced by a pre-programmed collision model and stopped by the detection of driveways after the event, the system.

Aus der DE 197 43 500 A1 ist eine medizinische Einrichtung mit einer Vorrichtung zum Erfassen der Position zumindest eines sich in einem Raum befindenden Objektes bekannt, die einen Lichtsender, beispielsweise einen Infrarot-Laser, zum Senden eines zweidimensionalen Lichtfächers sowie eine Kamera zum Erfassen des zumindest einen Objektes aufweist. Die Signale der Kamera werden einer Auswerteeinrichtung zugeführt, die aufgrund dieser Signale mittels triangularer 3-D-Technik entsprechend des zumindest einen Objektes 3-D-Daten erzeugt, die zur Vermeidung von Kollisionen des Objektes herangezogen werden. From the DE 197 43 500 A1 a medical device with a device for detecting the position of at least one object located in a room is known, which has a light transmitter, for example an infrared laser, for transmitting a two-dimensional light fan and a camera for detecting the at least one object. The signals of the camera are supplied to an evaluation device, which generates due to these signals by means of triangular 3-D technology according to the at least one object 3-D data, which are used to avoid collisions of the object.

Es wurde weiterhin versucht, eine derartige Raumüberwachung mit einer großen Anzahl von RGB-Kameras zu realisieren, um so ein umfassendes 3-D-Modell des Raumes zu erstellen. Bei reduziertem oder abgeschaltetem Licht in einem Operationsraum (OP) versagt das System mit den RGB-Kameras allerdings. Attempts have also been made to realize such a room surveillance with a large number of RGB cameras in order to create a comprehensive 3-D model of the room. However, with reduced or switched off light in an operating room (OP), the system fails with the RGB cameras.

Aus der älteren Patentanmeldung DE 10 2011 084 444.9 ist bekannt, die Raumüberwachung mittels Time-of-Flight-(ToF)-Kameras zu realisieren. Diese arbeiten im Nah-Infrarot-(NIR)-Bereich und sind von der Beleuchtung im OP unabhängig. Eine Lichtquelle sendet NIR-Licht in die Szene, welches nach Reflexion an Objekten von der Kamera empfangen wird. Aus der Laufzeit wird die Tiefe, der Abstand Kamera – Objekt, ermittelt. Bei der Implementierung mehrerer ToF-Kameras empfängt jede Kamera nicht nur Reflexionen der eigenen NIR-Quelle, sondern auch die Reflexionen aller anderen ToF-Kameras. Damit sich die ToF-Kameras nicht gegenseitig beeinflussen, müssten diese im Zeitmultiplex getriggert werden. Wenn mehrere ToF-Kameras eingesetzt werden, sinkt jedoch dadurch die Bildaufnahmerate (Frame-Rate) und somit steigt die Zeit für die 3-D-Rekonstruktion des Raums durch das nacheinander Multiplexen erheblich. From the earlier patent application DE 10 2011 084 444.9 It is known to realize the space monitoring by means of time-of-flight (ToF) cameras. These work in the near-infrared (NIR) range and are independent of the lighting in the OR. A light source sends NIR light into the scene, which is received by the camera after reflection from objects. From the runtime the depth, the distance camera - object, is determined. When implementing multiple ToF cameras, each camera not only receives reflections from its own NIR source, but also the reflections of all other ToF cameras. So that the ToF cameras do not influence each other, they would have to be triggered in a time division multiplex. However, if multiple ToF cameras are used, the frame rate will decrease and thus the time for 3-D reconstruction of the room will increase significantly due to successive multiplexing.

Derartige ToF-Kameras können zwar optische Bandpassfilter aufweisen, die nur die Wellenlänge durchlassen, mit der auch die Beleuchtung arbeitet, so dass ein großer Teil der Störungen durch Hintergrundlicht eliminiert wird. Diese dienen jedoch lediglich dazu, zum Beispiel den störenden Infrarotanteil und den Teil des sichtbaren Lichts der Sonne zu minimieren, damit der Sensor, der für ein breites Spektrum an Wellenlängen empfindlich ist, nicht ständig in der Sättigung betrieben wird. Das ist auch der Grund, warum ToF-Kameras bei starker Sonneneinstrahlung und vor allem im Freien nicht eingesetzt werden können. Although such ToF cameras may have optical bandpass filters that only transmit the wavelength at which the illumination works, so much of the background light interference is eliminated. However, these merely serve to minimize, for example, the disturbing infrared component and the portion of the visible light of the sun, so that the sensor, which is sensitive to a broad spectrum of wavelengths, is not constantly operated in saturation. This is also the reason why ToF cameras can not be used in strong sunlight and especially outdoors.

Nachteilig erweist sich auch, dass die Beleuchtung extrem stark sein muss, da ToF-Kameras eine diffuse Beleuchtung benutzen und daher für eine gleichmäßige Ausleuchtung der Szene eine hohe optische Ausgangsleistung benötigen. Dies kann unter Anderem zu Problemen mit der Wärmeabfuhr aus dem System führen, obwohl zur diffusen Beleuchtung LEDs eingesetzt werden. Another disadvantage is that the illumination must be extremely strong, since ToF cameras use a diffuse illumination and therefore require a high optical output power for a uniform illumination of the scene. Among other things, this can lead to problems with heat removal from the system, although LEDs are used for diffuse illumination.

Auch industriell eingesetzte 3-D-Laserscanner arbeiten in gleichen Wellenlängenbereichen und mit breitbandiger Kombination aus Strahlenquelle und Sensor. Sie verhalten sich daher genau wie ToF-Systeme und beeinflussen sich bei gleichzeitigem Betrieb im selben Raum gegenseitig. Even industrially used 3-D laser scanners work in the same wavelength ranges and with a broadband combination of radiation source and sensor. They therefore behave exactly like ToF systems and interact with each other during simultaneous operation in the same room.

Eine andere Überlegung stellen Tiefenkameras auf Basis der aktiven Triangulation dar. Diese Kameras, ein Beispiel hierfür ist die aktuelle Microsoft Kinect, ermitteln mit Hilfe von "Structured Light" das Abstandsbild des Raums, wie dies beispielsweise bei "Structured-light 3D scanner" von Wikipedia, the free encyclopedia, vom 26 Juni 2011, beschrieben ist ( http://en.wikipedia.org/wiki/Structured-light_3D_scanner ). Auch hier wird im NIR-Bereich gearbeitet. Mit Infrarot-LEDs wird ein "Structured Light Grid" erzeugt, anhand dessen Änderung die Tiefeninformation ermittelt werden kann. Eine gleichzeitige Implementierung von mehreren "Structured Light"-Kameras stellt eine Herausforderung dar, da sich die "Structured Light Grids" der einzelnen Kameras überlagern und eine einzelne Kamera das ihr zugehörige "Structured Light Grid" nicht mehr "erkennt". Bei einer eventuell möglichen Triggerung würde das System wie bei den ToF-Kameras mit jeder weiteren Kamera die Frame-Rate erheblich verringern. Eine Echtzeitverfolgung von Objekten wäre so nicht mehr praktikabel. Für eine zufriedenstellende Kollisionsvermeidung bei schnellen Bewegungen des C-Bogens, des Personals oder der Patienten ist die Berechnungsgeschwindigkeit dieser Systeme jedoch nicht ausreichend. Another consideration is depth cameras based on active triangulation. These cameras, an example of which is the current Microsoft Kinect, use "Structured Light" to determine the distance image of the room, as in the case of "Structured-light 3D scanner" from Wikipedia , the free encyclopedia, of 26 June 2011 ( http://en.wikipedia.org/wiki/Structured-light_3D_scanner ). Again, work is being done in the NIR area. With infrared LEDs, a "Structured Light Grid" is generated, by means of which the depth information can be determined. Simultaneously implementing multiple "structured light" cameras poses a challenge because the "structured light grids" of each camera overlap and a single camera no longer "recognizes" its associated "structured light grid". If triggering is possible, the system would significantly reduce the frame rate, as with ToF cameras with every other camera. A real-time tracking of objects would not be so practicable. However, for a satisfactory collision avoidance during rapid movements of the C-arm, the staff or the patient, the computational speed of these systems is not sufficient.

Die Erfindung geht von der Aufgabe aus, ein System zur Überwachung eines Untersuchungsraums im klinischen Umfeld einer Diagnostikeinrichtung der eingangs genannten Art derart auszubilden, dass eine Raumüberwachung mittels mehrerer simultan betriebener Tiefenkameras ermöglicht wird, so dass eine Raumüberwachung und damit Verfolgung von Objekten in Echtzeit erfolgen kann. The invention is based on the object, a system for monitoring an examination room in the clinical environment of a diagnostic device of the type mentioned in such a way that a room monitoring by means of several simultaneously operated depth cameras is made possible, so that a space monitoring and thus tracking of objects can be done in real time ,

Die Aufgabe wird erfindungsgemäß für ein System zur Überwachung eines Untersuchungsraums im klinischen Umfeld einer Diagnostikeinrichtung der eingangs genannten Art durch die im Patentanspruch 1 angegebenen Merkmale gelöst. Vorteilhafte Ausbildungen sind in den abhängigen Patentansprüchen angegeben. The object is achieved for a system for monitoring an examination room in the clinical environment of a diagnostic device of the type mentioned by the features specified in claim 1. Advantageous embodiments are specified in the dependent claims.

Die Aufgabe wird für ein System zur Raumüberwachung erfindungsgemäß dadurch gelöst, dass wenigstens zwei Tiefenkameras zur Überwachung des Untersuchungsraums vorgesehen sind,

  • – die je eine monochromatische Strahlenquelle mit voneinander unterschiedlicher Wellenlänge,
  • – einen Strahlformer und
  • – einen Detektor für diese monochromatische Strahlen
aufweisen, wobei die Tiefenkameras mit der Vorrichtung zur Vermeidung von Kollisionen des Objektes zur Erzeugung der 3-D-Daten verbunden sind. The object is achieved for a system for room monitoring according to the invention in that at least two depth cameras are provided for monitoring the examination room,
  • - each having a monochromatic radiation source with mutually different wavelengths,
  • - A beam former and
  • A detector for these monochromatic beams
wherein the depth cameras are connected to the device for avoiding collisions of the object for generating the 3-D data.

Mit der erfindungsgemäßen Ausbildung des Systems zur Raumüberwachung im klinischen Umfeld eines Angiographiesystems während einer angiographischen Untersuchung eines Patienten mittels multipler, simultan messender Hochfrequenz-3-D-Kameras kann eine deutlich höhere Abtastrate realisiert werden, die wiederum eine Echtzeitüberwachung des Raums und somit zum Beispiel Ausweichstrategien in Echtzeit ermöglicht. Zusätzlich kann eine höhere Abdeckung des Raums und eine höhere Messgenauigkeit durch die multiple Nutzungsmöglichkeit erzielt werden. With the inventive design of the system for spatial surveillance in the clinical environment of an angiography system during angiographic examination of a patient by means of multiple, simultaneously measuring high-frequency 3-D cameras, a significantly higher sampling rate can be realized, in turn, a real-time monitoring of the room and thus, for example avoidance strategies in real time. In addition, a higher coverage of the room and a higher measurement accuracy can be achieved by the multiple use possibility.

Die Bildverarbeitung in der Vorrichtung zur Kollisionsvermeidung kann entlastet werden, wenn die Tiefenkameras je eine Auswerteelektronik aufweisen, die eine Vorverarbeitung bewirken kann. The image processing in the device for collision avoidance can be relieved, if the depth cameras each have an evaluation that can cause preprocessing.

Erfindungsgemäß kann die Diagnostikeinrichtung eine C-Bogen Röntgendiagnostikeinrichtung sein. According to the invention, the diagnostic device may be a C-arm X-ray diagnostic device.

In vorteilhafter Weise kann der Strahlformer ein strukturiertes Licht, beispielsweise ein Structured Light Grid, erzeugt. The beam former can advantageously produce a structured light, for example a structured light grid.

Alternativ kann der Strahlformer einen Beamsplitter aufweisen. Alternatively, the beamformer may comprise a beam splitter.

Es hat sich als vorteilhaft erwiesen, wenn der Detektor für die monochromatischen Strahlen ein Objektiv, ein schmalbandiges Filter und einen IR-Sensor aufweist. It has proved to be advantageous if the monochromatic beam detector has an objective, a narrow-band filter and an IR sensor.

Erfindungsgemäß kann die monochromatischen Strahlenquellen IR-Licht aussenden. According to the invention, the monochromatic radiation sources emit IR light.

In vorteilhafter Weise können die monochromatischen Strahlenquellen schmalbandige optische Filter und LEDs oder alternativ Laser als IR-Quellen aufweisen. Advantageously, the monochromatic radiation sources may comprise narrow band optical filters and LEDs or alternatively lasers as IR sources.

Eine Eliminierung von kontinuierlichen Störquellen in demselben schmalbandigen Frequenzbereich und eine positive Verminderung der optischen Gesamtausgangsleistung kann erreicht werden, wenn die monochromatischen Strahlensender ein pulsierendes NIR-Licht erzeugen, so das in zwei aufeinanderfolgenden Frames die Szene einmal mit aktiv eingebrachtem NIR-Licht und einmal ohne aufgenommen werden kann, dass beide Aufnahmen voneinander subtrahiert werden. Elimination of continuous noise sources in the same narrowband frequency range and a positive reduction in total optical output power can be achieved when the monochromatic beam transmitters generate a pulsating NIR light so that in two consecutive frames the scene is once with NIR light active and once recorded can be subtracted from each other.

Es hat sich als vorteilhaft erwiesen, wenn die Auswerteelektronik der Tiefenkameras eine Aufnahme ohne Structured Light und eine mit Structured Light subtrahiert. It has proven to be advantageous if the evaluation electronics of the depth cameras subtracts a recording without Structured Light and one with Structured Light.

Zusätzlich kann die Auswerteelektronik der Tiefenkameras erfindungsgemäß die X-, Y- und Z-Werte jedes Pixels in Koordinaten der Bildverarbeitung transformieren. In addition, according to the invention, the evaluation cameras of the depth cameras can transform the X, Y and Z values of each pixel into coordinates of the image processing.

Es hat sich als vorteilhaft erwiesen, wenn die Auswerteelektronik der Tiefenkameras die erkannten Objekte sowie statische und/oder dynamische Bereiche ermittelt. It has proved to be advantageous if the evaluation electronics of the depth cameras determines the detected objects as well as static and / or dynamic areas.

In vorteilhafter Weise kann in der Auswerteelektronik ein Kalibrierfile für die Tiefenkameras hinterlegt ist. In an advantageous manner, a calibration file for the depth cameras can be stored in the evaluation electronics.

Die Erfindung ist nachfolgend anhand von in der Zeichnung dargestellten Ausführungsbeispielen näher erläutert. Es zeigen: The invention is explained in more detail with reference to embodiments shown in the drawing. Show it:

1 einen Untersuchungsraum mit einem biplanen C-Bogen-Angiographiesystem mit Industrierobotern als Tragvorrichtungen und erfindungsgemäßen λ-Tiefenkameras zur Raumüberwachung, 1 an examination room with a biplane C-arm angiography system with industrial robots as supporting devices and λ depth cameras according to the invention for room monitoring,

2 einen Aufbau einer der erfindungsgemäßen λ-Tiefenkamera, 2 a structure of the λ-depth camera according to the invention,

3 die Abtastbereiche bzw. Erfassungsbereiche der ausgesendeten Strahlen zweier λ-Tiefenkameras und 3 the scanning areas or detection areas of the emitted beams of two λ depth cameras and

4 die wesentlichen Strahlengänge von Nutz- und Störstrahlen bei zwei λ-Tiefenkameras. 4 the main beam paths of useful and interfering beams in two λ depth cameras.

Den in 1 dargestellten Untersuchungsraum 13 mit dem fest installierten Equipment 1 bis 12, optional einzubringenden Zusatzgeräten sowie dem Personal überwachen erfindungsgemäß mehrere im Untersuchungsraum 13 verteilt installierte λ-Tiefenkameras 14, die mit einem in der Systemsteuerungseinheit 7 vorgesehenen Bildverarbeitung in einem Kollisionsrechner 15 verbunden sind. The in 1 presented examination room 13 with the permanently installed equipment 1 to 12 , optional devices to be introduced as well as the personnel monitor according to the invention more in the examination room 13 distributed λ-depth cameras installed 14 that with one in the Control Panel 7 provided image processing in a collision calculator 15 are connected.

In der 2 ist ein beispielhafter Aufbau einer derartigen Tiefenkamera 14 schematisch dargestellt. In the 2 is an exemplary construction of such a depth camera 14 shown schematically.

In einem Kameragehäuse 20 ist eine monochromatische Strahlenquelle als Sendeteil eines kegelförmigen Strahlenbündels mit einer IR-Quelle 21, deren Strahl ein schmalbandiges Filter 22 durchdringt und auf einen Strahlformer 23, beispielsweise einen "Beam Splitter", "Pattern Generatoren" oder Piezo-Aktoren, trifft, der eine Aufteilung und/oder eine Ablenkung des Strahls der IR-Quelle 21 bewirkt. Als IR-Quelle 21 kann ein Laser oder eine LED Verwendung finden. Das schmalbandige Filter 22 als Monochromator ist jedoch nur bei einer LED erforderlich, um aus dem polychromatischen Licht der LED ein monochromatisches Licht zu erzeugen. In a camera body 20 is a monochromatic radiation source as a transmitting part of a cone-shaped beam with an IR source 21 whose beam is a narrow-band filter 22 penetrates and onto a beam former 23 For example, a "Beam Splitter", "Pattern Generators" or Piezo Actuators, which makes a division and / or a deflection of the beam of the IR source 21 causes. As an IR source 21 a laser or an LED can be used. The narrowband filter 22 however, as a monochromator, only one LED is required to produce a monochromatic light from the polychromatic light of the LED.

In dem Kameragehäuse 20 ist weiterhin ein Empfangsteil mit einem Objektiv 24, einem schmalbandigen Filter 25 mit der gleichen Wellenlänge wie das Filter 22, einem IR-Sensor 26 sowie einer Auswerteelektronik 27 angeordnet. Der IR-Sensor 26 kann ein CCD- oder ein CMOS-Detektor sein. Die Auswerteelektronik 27 kann ein DSP, ein digitaler Signalprozessor, Prozessor zur Signalverarbeitung oder ein FPGA sein, ein Field Programmable Gate Array, ein integrierter Schaltkreis (IC) der Digitaltechnik, in den eine logische Schaltung programmierbar ist. Die Auswerteelektronik 27 bewirkt eine Vorverarbeitung der Sensordaten für die weitere Nutzung. Die anschließende Bildverarbeitung in dem Kollisionsrechner 15 fasst die vorverarbeiteten Daten der einzelnen Kameras zusammen. In the camera body 20 is still a receiver with a lens 24 , a narrow band filter 25 with the same wavelength as the filter 22 , an IR sensor 26 and an evaluation 27 arranged. The IR sensor 26 may be a CCD or a CMOS detector. The evaluation electronics 27 may be a DSP, a digital signal processor, a signal processing processor or an FPGA, a field programmable gate array, a digital integrated circuit (IC) into which a logic circuit is programmable. The evaluation electronics 27 causes preprocessing of the sensor data for further use. The subsequent image processing in the collision computer 15 summarizes the preprocessed data of each camera.

Durch den Strahlformer 23 wird vorzugsweise ein "Structured Light Grid" erzeugt. Bei Structured Light wird ein Muster in die Szene projiziert. Dieses Muster ist als Referenzmuster in einer definierten Umgebung, beispielsweise orthogonal auf eine weiße gerade Wand, aufgenommen und bekannt. Wird nun das Muster in eine reale Szene projiziert, wird das Muster auf Grund von unebenen Objekten oder Objekten die sich in unterschiedlichem Abstand zur Kamera befinden 'verzerrt'. Diese Veränderung des bekannten Musters wird verwendet, um zusätzlich zum 2-D-Bild auch noch Tiefeninformationen über die Szene und deren Objekte zu berechnen. Through the beam former 23 Preferably, a "Structured Light Grid" is generated. Structured Light projects a pattern into the scene. This pattern is recorded and known as a reference pattern in a defined environment, for example, orthogonal to a white straight wall. If the pattern is now projected into a real scene, the pattern will be 'distorted' due to uneven objects or objects that are at different distances from the camera. This change of the known pattern will used to calculate in addition to the 2-D image also depth information about the scene and its objects.

Der IR-Sensor 26 nimmt, wie eine normale Kamera, die Szene auf. Auf Grund des schmalbandigen Filters 25 "sieht" er nur Licht in einem schmalen Wellenlängenbereich. Dieses Licht trifft auf den IR-Sensor 26 und löst dort Elektronen aus. Da der IR-Sensor 26 aus vielen Zellen (Pixel) besteht, wird für jedes Pixel eine Ladung erzeugt. The IR sensor 26 takes, like a normal camera, the scene on. Due to the narrow band filter 25 he only "sees" light in a narrow wavelength range. This light hits the IR sensor 26 and triggers electrons there. Because the IR sensor 26 consists of many cells (pixels), a charge is generated for each pixel.

Die Ausgangssignale aus dem IR-Sensor 26 (CCD) sind analoge Spannungssignale für jedes Pixel. Diese werden vorverstärkt und digitalisiert. Bei der Variante mit IR-Sensor 26 (CMOS) erhält man direkt digitalisierte Signale aus dem IR-Sensor 26, da die Vorverarbeitung im IR-Sensor 26 selbst vorgenommen wird. The output signals from the IR sensor 26 (CCD) are analog voltage signals for each pixel. These are pre-amplified and digitized. In the variant with IR sensor 26 (CMOS) you get directly digitized signals from the IR sensor 26 because the preprocessing in the IR sensor 26 itself is made.

Die Auswerteelektronik 27 erhält somit als Eingang für jedes Pixel einen diskreten Wert, entspricht einem Grauwert in einem 2-D-Bild. Dieser Wert beschreibt, ob an der Stelle, an der sich das Pixel befindet, Licht im relevanten Wellenlängenbereich aufgetroffen ist und wenn ja, wie viel (entspricht der Intensität). Mit diesen Werten wird das Muster des IR-Lichtes aus der Szene rekonstruiert. Mit geeigneten Algorithmen, die in bekannten Structured-Light-Systemen bereits verwendet werden, werden aus dem verzerrten Muster die Tiefeninformationen und durch den Einbezug der Pixelkoordinaten, diese in ein kartesisches Koordinatensystem übertragen. Diese Daten werden als Punktwolke (point cloud) an eine Bildverarbeitung beispielsweise im Kollisionsrechner 15 ausgegeben. The evaluation electronics 27 thus receives as input for each pixel a discrete value, corresponding to a gray value in a 2-D image. This value describes whether light has hit the relevant wavelength range at the point where the pixel is located and, if so, how much (corresponds to the intensity). These values reconstruct the pattern of IR light from the scene. With suitable algorithms that are already used in known structured light systems, the depth information is transferred from the distorted pattern and, by including the pixel coordinates, these into a Cartesian coordinate system. This data is a point cloud to an image processing, for example in the collision computer 15 output.

Üblicherweise wird in der Auswerteelektronik 27 ein Kalibrierfile für die Kamera hinterlegt. Somit können intrinsische Parameter, wie sphärische Abberation, herausgerechnet und extrinsische Parameter, wie die Kameraorientierung mit einer Koordinatentransformation, umgesetzt werden. Damit wird in der nachfolgenden Bildverarbeitung Rechenleistung eingespart, da die Daten aus den λ-Tiefenkameras 14 bereits auf das verwendete Koordinatensystem transformiert sind. Usually in the transmitter 27 a calibration file for the camera is stored. Thus, intrinsic parameters, such as spherical aberration, can be eliminated and extrinsic parameters, such as camera orientation with a coordinate transformation, can be implemented. Thus, in the subsequent image processing, computing power is saved because the data from the λ depth cameras 14 already transformed to the used coordinate system.

Eine weitere Funktionalität, die von der Auswerteelektronik 27 übernommen werden kann, ist die Subtraktion einer Aufnahme ohne Structured Light und einer mit Structured Light. Dadurch können kontinuierliche Störquellen im gleichen Wellenlängenbereich minimiert werden. Another functionality provided by the transmitter 27 can be adopted is the subtraction of a recording without Structured Light and one with Structured Light. As a result, continuous sources of interference in the same wavelength range can be minimized.

Über die Intensitätswerte und eventuell kombiniert mit einen Next-Neighbor-Algorithmus, einem Vergleich des aktuellen Pixelwertes mit denen von (beispielsweise acht) unmittelbar angrenzenden benachbarten Pixeln kann eine Confidence Map erstellt werden, die angibt, wie sicher (z.B. Angabe in [%]) die erhaltenen Daten für jedes Pixel sind. Using the intensity values and possibly combined with a next-neighbor algorithm, a comparison of the current pixel value with that of (for example, eight) immediately adjacent neighboring pixels, a confidence map can be created which indicates how secure (eg specification in [%]) the obtained data for each pixel.

Des Weiteren ist eine Objekterkennung in der Auswerteelektronik 27 möglich. Wird ein Objekt erkannt, wird diese Erkenntnis an die Bildverarbeitung im Kollisionsrechner 15 weitergereicht und ermöglicht dort in der zusammengefassten Darstellung aller Kameradaten eine schnellere Objekterkennung. Furthermore, an object recognition in the transmitter 27 possible. If an object is detected, this knowledge becomes the image processing in the collision computer 15 passed on and allows there in the summarized representation of all camera data faster object detection.

Mittels Interpolation über mehrere Messwerte in zeitlicher Abfolge ist eine Klassifizierung in statische und dynamische Bereich möglich. By means of interpolation over several measured values in chronological order, a classification into static and dynamic range is possible.

Zusammenfassend werden von der Auswerteelektronik 27 die Intensitätskarte, die X-, Y-, Z-Werte jedes Pixels in Koordinaten der Bildverarbeitung transformiert (point cloud), die Confidence Map, die erkannten Objekte sowie statische/dynamische Bereiche ermittelt und an die Bildverarbeitung im Kollisionsrechner 15 ausgegeben. In summary, the evaluation electronics 27 the intensity map, the X, Y, Z values of each pixel transformed into coordinates of the image processing (point cloud), the confidence map, the detected objects and static / dynamic areas determined and the image processing in the collision computer 15 output.

In der 3 sind die Erfassungsbereiche der ausgesendeten Strahlen von zwei Tiefenkameras gemäß 2 schematisch dargestellt. In the 3 are the detection ranges of the emitted beams from two depth cameras according to 2 shown schematically.

Eine erste Tiefenkamera 30 einer ersten Wellenlänge mit einem ersten schmalbandigen Filter 31, einem Sensor 32 und einem ersten Strahlensender 33 sendet ein erstes aufgefächertes Strahlenbündel 34 monochromatischen Lichts einer ersten Wellenlänge aus. Eine im Untersuchungsraum anders positionierte zweite Tiefenkamera 35 einer zweiten Wellenlänge mit einem zweiten schmalbandigen Filter 36, einem zweiten Sensor 37 und einem zweiten Strahlensender 38 sendet ein zweites aufgefächertes Strahlenbündel 39 monochromatischen Lichts einer zweiten, von der der ersten Tiefenkamera 30 abweichenden Wellenlänge aus. Beide Strahlenbündel 34 und 39 überstreichen einen Überwachungsbereich und erfassen ein in dem Untersuchungsraum 13 befindliches Objekt 40. Die monochromatischen Strahlensender 33 und 38 können den in 2 dargestellten Aufbau mit einer IR-Quelle 21, einem schmalbandigen Filter 22 durchdringt und einem Strahlformer 23 aufweisen. Das Objekt 40 kann ein Patient, das Personal oder Bediener sowie Teile der Diagnostikeinrichtung 1 bis 4' und 7 bis 12 aber auch Anästhesiegeräte, Infusionsständer, Arm- oder Kopfhalterungen sein. A first depth camera 30 a first wavelength with a first narrow band filter 31 , a sensor 32 and a first beam emitter 33 sends a first fanned out beam 34 monochromatic light of a first wavelength. A second depth camera positioned differently in the examination room 35 a second wavelength with a second narrow band filter 36 , a second sensor 37 and a second beam emitter 38 sends a second fanned beam 39 monochromatic light of a second, from that of the first depth camera 30 deviating wavelength. Both beams 34 and 39 cover a surveillance area and capture one in the examination room 13 located object 40 , The monochromatic beam transmitters 33 and 38 can the in 2 shown construction with an IR source 21 , a narrow band filter 22 permeates and one beamformer 23 exhibit. The object 40 can be a patient, the staff or operator as well as parts of the diagnostic device 1 to 4 ' and 7 to 12 but also anesthesia equipment, infusion stands, arm or head mounts.

Die 4 zeigt verschiedene, vom Objekt 40 reflektierte Strahlengänge. Ein erster Nutzstrahl 41 des ersten Strahlenbündels 34 der ersten Tiefenkamera 30 wird vom Objekt 40 reflektiert und durchdringt das erste schmalbandige Filter 31, das auf diese erste Wellenlänge abgestimmt ist, und trifft auf den ersten Sensor 32. Ein erster Störstrahl 42 des ersten Strahlenbündels 34 fällt von dem ersten Strahlensender 33 auf das Objekt 40 und wird auf das zweite schmalbandige Filter 36 reflektiert und von diesem gesperrt. The 4 shows different, from the object 40 reflected beam paths. A first useful jet 41 of the first ray bundle 34 the first depth camera 30 gets from the object 40 reflects and penetrates the first narrow-band filter 31 , which is tuned to this first wavelength, and meets the first sensor 32 , A first interfering beam 42 of the first ray bundle 34 falls from the first radiation transmitter 33 on the object 40 and goes to the second narrow-band filter 36 reflected and locked by this.

Ausgehend vom zweiten Strahlensender 38 der zweiten Tiefenkamera 35 fällt ein zweiter Nutzstrahl 43 des zweiten Strahlenbündels 39 auf das Objekt 40, wird davon auf das zweite schmalbandige Filter 36 reflektiert, das auf diese zweite Wellenlänge abgestimmt ist, durchdringt dieses und fällt auf den zweiten Sensor 37. Ein von dem zweiten Strahlensender 38 der zweiten Tiefenkamera 35 ausgehender Störstrahl 44 des zweiten Strahlenbündels 39, der in einem anderen Winkel von dem Objekt 40 reflektiert wird, wird von dem ersten schmalbandigen Filter 31 herausgefiltert, so dass auf den ersten Sensor 32 nur der erste Nutzstrahl 41 trifft. Dadurch wird erreicht, dass nur der von der eigenen Tiefenkamera 30 oder 35 ausgehende Nutzstrahl 41 oder 43 auf den entsprechenden Sensor 32 oder 37 fällt und ein Signal erzeugt. Starting from the second beam transmitter 38 the second depth camera 35 falls a second useful beam 43 of the second beam 39 on the object 40 , it becomes the second narrow-band filter 36 reflected, which is tuned to this second wavelength, penetrates this and falls on the second sensor 37 , One from the second beam emitter 38 the second depth camera 35 outgoing interference beam 44 of the second beam 39 which is at a different angle from the object 40 is reflected from the first narrow-band filter 31 filtered out, leaving on the first sensor 32 only the first useful jet 41 meets. This ensures that only that of the own depth camera 30 or 35 outgoing utility jet 41 or 43 on the corresponding sensor 32 or 37 falls and generates a signal.

Die bekannte Raumüberwachung mittels Tiefenkameras wird beibehalten, jedoch wird erfindungsgemäß für die beiden Varianten Time-of-flight oder "Structured Light"-Triangulation die simultane Nutzung mehrerer Kameras ermöglicht. Mit dem erfindungsgemäßen Gegenstand kann eine deutlich höhere Abtastrate realisiert werden, die wiederum eine Echtzeitüberwachung des Raums und somit zum Beispiel Ausweichstrategien in Echtzeit ermöglicht. Zusätzlich kann eine höhere Abdeckung des Raums und eine höhere Messgenauigkeit durch die multiple Nutzungsmöglichkeit erzielt werden. The known room monitoring by means of depth cameras is maintained, but according to the invention for the two variants time-of-flight or "structured light" triangulation, the simultaneous use of multiple cameras is possible. With the object according to the invention, a significantly higher sampling rate can be realized, which in turn enables real-time monitoring of the space and thus, for example, avoidance strategies in real time. In addition, a higher coverage of the room and a higher measurement accuracy can be achieved by the multiple use possibility.

Die technische Umsetzung solcher Tiefenkameras erfordert nur geringe Veränderungen mittels Standardkomponenten. The technical implementation of such depth cameras requires only minor changes using standard components.

Beispielsweise können die Tiefenkameras 14 folgenden Standardaufbau und bekannte Komponenten aufweisen:
Als Lichtquelle bzw. IR-Quelle 21 können entweder Continous Wave (CW) Laser-Dioden oder LED im NIR-Bereich Verwendung finden. Zur Erzeugung des "Structured Light Grids" können "Beam Splitter" 23 oder "Pattern Generatoren" als Strahlformer verwendet werden. Eine andere Möglichkeit stellt die Ablenkung des Lichtstrahls über Mikrospiegel dar. Diese können zum Beispiel mit Piezo-Aktoren bewegt werden. Das "Structured Light Grid" sollte eine geeignete, auf den Bildsensor bzw. IR-Sensor 26 abgestimmte Auflösung bereitstellen, um Objekte 40 mit dem notwendigen Detaillierungsgrad erkennen zu können. Vor dem bildgebenden Chip des IR-Sensors 26 wird ein auf die Lichtquelle bzw. IR-Quelle 21 abgestimmtes, schmalbandiges optisches Filter 25 eingesetzt.
For example, the depth cameras 14 have the following standard structure and known components:
As a light source or IR source 21 can use either Continuous Wave (CW) laser diodes or LEDs in the NIR range. To create the "Structured Light Grids""BeamSplitter" 23 or "pattern generators" are used as beam shaper. Another possibility is the deflection of the light beam via micromirrors. These can be moved with piezo actuators, for example. The "Structured Light Grid" should have a suitable, on the image sensor or IR sensor 26 provide coordinated resolution to objects 40 to be able to recognize with the necessary level of detail. In front of the imaging chip of the IR sensor 26 turns on the light source or IR source 21 tuned, narrow-band optical filter 25 used.

Durch das erfindungsgemäße Structured-Light-System müssen nur einzelne Punkte oder Linien in der Szene beleuchtet werden, so dass eine Verwendung von Lasern für die Beleuchtung zulässig ist. Dadurch kann die optische Ausgangsleistung, die auch pro Fläche angegeben wird, deutlich geringer gewählt werden. Eine ausgangsseitige Filterung mit einem Bandpassfilter ist nicht nötig, da das Laserlicht monochromatisch ist. Probleme mit der Wärmeabfuhr auf Grund hoher Leistung der Beleuchtungsquelle treten hier nicht auf. The inventive structured light system only needs to illuminate individual points or lines in the scene, so that the use of lasers for illumination is permitted. As a result, the optical output power, which is also specified per area, be chosen significantly lower. An output side filtering with a bandpass filter is not necessary because the laser light is monochromatic. Problems with heat dissipation due to high power of the illumination source do not occur here.

Zusätzlich kann durch die oben beschriebene Auswerteelektronik 27 ein Differenzbild der Szene mit und ohne Musterprojektion aufgenommen werden. Dadurch kann die Ausgangsleistung noch mal deutlich optimiert werden, da durch die Differenz schon eine geringe Menge an Licht ausreichend ist, das Muster darzustellen, und außerdem hier auch eine gepulste Projektion vorgenommen wird (Leistung pro Zeit). In addition, by the evaluation electronics described above 27 a difference image of the scene can be recorded with and without pattern projection. As a result, the output power can be significantly optimized again, since the difference already a small amount of light is sufficient to represent the pattern, and also here a pulsed projection is made (power per time).

Ein schneller, im NIR-Bereich von ca. 780 nm bis 1200 nm empfindlicher Sensor 26, beispielsweise ein CCD-Chip oder CMOS-Chip, mit einer hohen Bildwiederholrate von beispielsweise > 100 fps nimmt die Szene auf. Es wird eine Auflösung von mindestens 640 × 480 Bildpunkten verwendet, wobei geringere Auflösungen auch möglich sind, aber die Erkennung von Objekten stark einschränken. Die Auswerteelektronik 27 mit einem geeigneten Prozessor oder Hardware (z. B. DSP oder FPGA) übernimmt die Vorverarbeitung, wertet das Bild aus und erzeugt das Tiefenbild, d. h. ermittelt den Abstand der Kamera 30 oder 36 zum Objekt 40. A fast, sensitive in the NIR range from about 780 nm to 1200 nm sensor 26 , For example, a CCD chip or CMOS chip, with a high refresh rate of, for example> 100 fps records the scene. It uses a resolution of at least 640 × 480 pixels, although lower resolutions are possible, but severely limit the detection of objects. The evaluation electronics 27 with a suitable processor or hardware (eg DSP or FPGA) takes over the pre-processing, evaluates the image and generates the depth image, ie determines the distance of the camera 30 or 36 to the object 40 ,

Zu jedem bildgebenden Chip gibt es eine fest zugeordnete Lichtquelle mit unterschiedlichen Wellenlängen. Mit Hilfe dieses Ansatzes kann das Geschwindigkeitsproblem der bisherigen Kameralösungen optimiert werden, da diese simultan in derselben Szene verwendet werden können. Die Lichtquelle sollte einen sehr schmalen Wellenlängenbereich bereitstellen (beispielsweise monochrome Laser-Dioden oder gefilterte LEDs). Hierbei muss jedoch auf die optische Ausgangsleistung geachtet werden. Das Verhältnis zwischen einer für den Menschen ungefährlichen Lichtleistung und der von der Kamera nutzbaren, gefilterten Strahlungsintensität muss dabei gewahrt bleiben. Optische Filter können Bandbreiten von minimal 10nm mit einer Toleranz von ± 2nm besitzen. Um eine Beeinflussung der bildgebenden Chips durch die Lichtquellen der anderen Kameras zu vermeiden, wird der Abstand zwischen den Wellenlängen der einzelnen Tiefenkameras über der Bandbreite des optischen Filters der anderen Kameras gewählt. Each imaging chip has a dedicated light source of different wavelengths. With the help of this approach, the speed problem of the previous camera solutions can be optimized because they can be used simultaneously in the same scene. The light source should provide a very narrow wavelength range (for example, monochrome laser diodes or filtered LEDs). However, attention must be paid to the optical output power. The relationship between a harmless to human light output and the camera usable, the filtered radiation intensity must be maintained. Optical filters can have bandwidths of a minimum of 10nm with a tolerance of ± 2nm. To avoid influencing the imaging chips by the light sources of the other cameras, the distance between the wavelengths of the individual depth cameras is selected over the bandwidth of the optical filter of the other cameras.

Beispiel: Example:

Industriell verfügbare schmalbandige optische Filter lassen sich mit folgenden Formeln beschreiben und unterscheiden: FilterMin = CWL – ( FWHM / 2 + FWHMTolerance + CWLTolerance)·k (1) und FilterMax = CWL + ( FWHM / 2 + FWHMTolerance + CWLTolerance)·k, (2) wobei

CWL
– Mittlere Wellenlänge,
CWLTolerance
– Abweichung von der Mittleren Wellenlänge ±,
FWHM
– Bandbreite mit >50% Durchlässigkeit,
FWHMTolerance
– Abweichung von der Bandbreite ± und
K
– Selbstgewählter Sicherheitsfaktor
sind. Tabelle 1: Laser-Diode / CCD-Chip Wellenlänge Laser-Diode in [nm] FilterMin in [nm] FilterMax in [nm] k 1 790 779,5 805 1.5 2 820 809,5 835 1.5 3 850 839,5 865 1.5 ... ... ... ... ... 8 1000 986,5 1013,5 1.5 9 1050 1036,5 1063,5 1.5 10 1100 1086,5 1113,5 1.5 Industrially available narrow-band optical filters can be described and distinguished with the following formulas: FilterMin = CWL - (FWHM / 2 + FWHM Tolerance + CWL Tolerance ) · k (1) and FilterMax = CWL + (FWHM / 2 + FWHM Tolerance + CWL Tolerance ) · k, (2) in which
CWL
Middle wavelength,
CWLTolerance
- deviation from the mean wavelength ±,
FWHM
Bandwidth with> 50% transmission,
FWHMTolerance
- deviation from the bandwidth ± and
K
- Selected safety factor
are. Table 1: Laser diode / CCD chip Wavelength laser diode in [nm] FilterMin in [nm] FilterMax in [nm] k 1 790 779.5 805 1.5 2 820 809.5 835 1.5 3 850 839.5 865 1.5 ... ... ... ... ... 8th 1000 986.5 1013.5 1.5 nine 1050 1,036.5 1,063.5 1.5 10 1100 1,086.5 1,113.5 1.5

Auf Grund des Filters "sieht" jeder bildgebende Chip nur das reflektierte Licht, das aus seiner zugeordneten Quelle kommt. Because of the filter, each imaging chip "sees" only the reflected light coming from its associated source.

(siehe 4) Alle Komponenten des Kamerasystems wie beispielsweise CCD-Chip, Laser-Diode, Pattern Generator bzw. Beam Splitter, Bandpassfilter und DSP sind als Einzelelemente industriell verfügbar. Mit dieser Systemstruktur können alle bildgebenden Chips die Szene zur gleichen Zeit aufnehmen und somit die maximale Geschwindigkeit dieser ausnutzen. (please refer 4 All components of the camera system such as CCD chip, laser diode, pattern generator or beam splitter, bandpass filter and DSP are industrially available as individual elements. With this system structure, all the imaging chips can capture the scene at the same time, thus taking advantage of their maximum speed.

Im Nachfolgenden werden anhand zweier Anwendungsbeispiele die beiden Systeme verglichen – das Kamerasystem mit mehreren ToF-Kameras und das mit einer Vielzahl von λ-Tiefenkameras. In the following, the two systems are compared using two application examples - the camera system with several ToF cameras and that with a large number of λ depth cameras.

Anwendungsbeispiel 1: Application Example 1

Bei einem Röntgensystem mit einem C-Bogen 2 wird eine kreisbogenförmige Fahrt mit der Rotationsgeschwindigkeit 60°/s durchgeführt. Bei einem angenommenen Radius des C-Bogens 2 von 0,9 m bewegen sich die äußeren Ränder mit einer Geschwindigkeit von 0,9 m/s. In an X-ray system with a C-arm 2 a circular arc ride is performed with the rotation speed 60 ° / s. At an assumed radius of the C-arm 2 0.9 m, the outer edges move at a speed of 0.9 m / s.

Eine einzelne ToF-Kamera arbeitet mit einer Bildwiederholfrequenz von ca. 25 fps. Bei einem Aufbau mit fünf ToF-Kameras sinkt die Bildwiederholfrequenz auf ca. 5 fps, bei 10 ToF-Kameras sogar auf ca. 3 fps. A single ToF camera works with a refresh rate of approximately 25 fps. In a setup with five ToF cameras, the refresh rate drops to approximately 5 fps, with 10 ToF cameras even to approximately 3 fps.

Das vorgestellte λ-Tiefenkamera-System hängt nur von der Chip-Ausleserate ab und könnte mit einer Bildwiederholrate von ca. 100 fps arbeiten. The introduced λ-depth camera system depends only on the chip readout rate and could work with a refresh rate of about 100 fps.

In der nachfolgenden Tabelle 2 können die Distanzen abgelesen werden, die bei den unterschiedlichen Kamerasystemen von dem C-Bogen 2 zwischen zwei Frames zurückgelegt werden können, ohne registriert zu werden. Je besser man versucht, die Szene "auszuleuchten" (mit einer höheren Anzahl an ToF-Kameras), desto langsamer und somit auch unverlässlicher wird ein aktuelles Tiefenkamerasystem. Das λ-Tiefenkamera-System behält bei einer detaillierteren "Ausleuchtung" die volle Geschwindigkeit bei und kann somit bevorstehende Kollisionen besser detektieren und eine Reaktion in Echtzeit ermöglichen. Tabelle 2: ToF-Kamera-System λ-Tiefenkamera-System Anzahl der Kameras Frames pro Sek. (fps) Weg/Frame in [cm] Frames pro Sek. (fps) Weg/Frame in [cm] 1 25 ca. 4,8 100 ca. 1,2 5 5 ca. 24 100 ca. 1,2 10 3 ca. 40 100 ca. 1,2 In the following Table 2, the distances can be read, which in the different camera systems of the C-arm 2 between two frames without being registered. The better you try to "illuminate" the scene (with a higher number of ToF cameras), the slower and therefore more reliable a current depth camera system becomes. The λ-depth camera system maintains the full speed with a more detailed "illumination" and thus can better detect impending collisions and allow a real-time response. Table 2: ToF-camera system λ depth camera system Number of cameras Frames per second (fps) Way / frame in [cm] Frames per second (fps) Way / frame in [cm] 1 25 about 4.8 100 approx. 1.2 5 5 about 24 100 approx. 1.2 10 3 about 40 100 approx. 1.2

Anwendungsbeispiel 2: Application Example 2:

Bewegungen des C-Bogens 2 und das Kamerasystem sind wie im Anwendungsbeispiel 1 beschrieben. Movements of the C-arm 2 and the camera system are as in the application example 1 described.

Am Ende eines Frames wird ein Bild ausgegeben, welches über die Zeit des Frames gewonnen wurde. Innerhalb eines Frames müssen die ToF-Kameras nacheinander die Szene aufnehmen. Beim ToF-Kamera-System werden beim Aufbau mit mehreren Kameras somit Bilder von unterschiedlichen Zeitpunkten zu einem Gesamtbild zusammengefasst. Hieraus ergibt sich ein "verschmieren" des Bildes und bewegte Objekte können größer oder verzerrt dargestellt werden. Beim vorgestellten System werden alle Aufnahmen zum gleichen Zeitpunkt synchron gestartet und bilden somit auch alle die gleiche Szene ab. At the end of a frame, an image is output, which was obtained over the time of the frame. Within a frame, the ToF cameras must record the scene one after the other. In the ToF camera system, when used with multiple cameras, images from different time points are combined to create a complete picture. This results in a "blur" of the image and moving objects can be displayed larger or distorted. In the presented system, all recordings are started synchronously at the same time and thus also depict all the same scene.

Hierfür kann wieder Tabelle 2 herangezogen werden. Die Strecke, die von einem rotierenden C-Bogen 2 bei fünf ToF-Kameras während eines Frames zurückgelegt werden kann, beträgt 24 cm. Wenn wir annehmen, dass die Aufnahmen der einzelnen Tiefenkameras 14 über den Frame gleichverteilt vorgenommen werden und direkt nach dem vorherigen Frame beginnen und direkt vor der Ausgabe enden, dann kann die Verzerrung des C-Bogens 2 am äußeren Rand bis zu 24 cm betragen. Ein 40 cm breiter Detektor 4 würde in der frontalen Ansicht bis zu 64 cm lang und gekrümmt sein. Table 2 can be used again for this purpose. The track, by a rotating C-arm 2 can be covered with a single frame for five ToF cameras is 24 cm. If we assume that the shots of each depth cameras 14 can be made equally spaced across the frame and begin immediately after the previous frame and end just before output, then the distortion of the C-arm 2 at the outer edge up to 24 cm. A 40 cm wide detector 4 would be up to 64 cm long and curved in the frontal view.

Bei dem vorgestellten Röntgensystem mit C-Bogen 2 beträgt die Verzerrung auf Grund der unterschiedlichen Zeitpunkte 0 cm, da innerhalb des Frames alle Aufnahmen zum gleichen Zeitpunkt gemacht werden. Daraus ergibt sich eine deutlich höhere Genauigkeit und verbesserte Bildqualität. In the presented X-ray system with C-arm 2 the distortion due to the different time points is 0 cm, since within the frame all pictures are taken at the same time. This results in a significantly higher accuracy and improved image quality.

Ein weiterer Punkt um den Rekonstruktionsalgorithmus des λ-Tiefenkamerasystems zu verbessern, wäre die Nutzung von Subtraktionsbildern mit einem gepulsten "Structured Light Grid". In zwei aufeinanderfolgenden Frames wird die Szene einmal mit aktiv eingebrachtem NIR-Licht und einmal ohne aufgenommen. Diese beiden Bilder werden dann voneinander subtrahiert. Mit diesem Verfahren wird zwar die Abtastrate des bildgebenden Chips xx halbiert, jedoch kann wegen der verfügbaren Hochfrequenzchips immer noch eine deutlich höhere Frame-Rate als bei den anderen Kamerasystemen realisiert werden. Vorteil dieses Verfahrens ist die Eliminierung von Störquellen in demselben schmalbandigen Frequenzbereich und eine positive Verminderung der optischen Gesamtausgangsleistung. Another point to improve the reconstruction algorithm of the λ depth camera system would be the use of subtraction images with a pulsed structured light grid. In two consecutive frames, the scene is recorded once with the NIR light active and once without. These two images are then subtracted from each other. Although the sampling rate of the imaging chip xx is halved with this method, a significantly higher frame rate than the other camera systems can still be realized due to the available high-frequency chips. The advantage of this method is the elimination of noise sources in the same narrowband frequency range and a positive reduction of the total optical output power.

Der erfinderische Schritt liegt in der Zuordnung von Lichtquellen mit unterschiedlichen Wellenlängen zu einem spezifischen bildgebenden Chip, wobei ein zu diesem Kamerasystem passendes schmalbandiges optisches Filter störende Einflüsse von Lichtquellen anderer Tiefenkameras eliminiert. Somit ist ein simultaner Betrieb mehrerer Tiefenkameras möglich ohne, dass diese sich gegenseitig beeinflussen. The inventive step lies in the assignment of light sources with different wavelengths to a specific imaging chip, wherein a matching narrowband optical filter to this camera system eliminates disturbing influences of light sources other depth cameras. Thus, a simultaneous operation of multiple depth cameras is possible without that they influence each other.

Der Vorteil ist neben der zeitlich synchronen Bildaufnahme von multiplen Kamerasystemen einer Szene und der daraus ermöglichten Echtzeitrekonstruktion des Raums auch die hochfrequente Abtastung des Raums und somit eine Minimierung des Messfehlers von Objekten und eine Erhöhung der Sicherheit für Patient, Personal und Equipment. The advantage is not only the temporally synchronous image recording of multiple camera systems of a scene and the resulting real-time reconstruction of the room but also the high-frequency scanning of the room and thus a minimization of the measurement error of objects and an increase in safety for patient, personnel and equipment.

Zusätzlich lassen sich weitere Applikationen, wie beispielsweise eine intelligente, vorausschauende Pfadplanung, nun auch technisch realisieren. In addition, further applications, such as intelligent, forward-looking path planning, can now also be realized technically.

Die durch die Hochfrequenzchips praktikable Nutzung von Subtraktionsbildern ermöglicht eine weitere Erhöhung der Messgenauigkeit. The use of subtraction images, which is practicable due to the high-frequency chips, enables a further increase of the measuring accuracy.

Der Aufbau dieses Messsystems mit industriellen Standardprodukten lässt eine kostengünstige Realisierung zu. The construction of this measuring system with industrial standard products allows a cost-effective realization.

Eine derartige erfindungsgemäße raumüberwachende Sensorik kann bereits vor einer Kollision den Anhaltevorgang einleiten, in Echtzeit Ausweichstrategien mit einbeziehen und/oder den Bediener warnen. Such a space-monitoring sensor according to the invention can initiate the stopping process even before a collision, involve avoidance strategies in real time and / or warn the operator.

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • US 7500784 B2 [0004, 0006] US 7500784 B2 [0004, 0006]
  • DE 19743500 A1 [0015] DE 19743500 A1 [0015]
  • DE 102011084444 [0017] DE 102011084444 [0017]

Zitierte Nicht-PatentliteraturCited non-patent literature

  • http://en.wikipedia.org/wiki/Structured-light_3D_scanner [0021] http://en.wikipedia.org/wiki/Structured-light_3D_scanner [0021]

Claims (14)

System zur Überwachung eines Untersuchungsraums (13) im klinischen Umfeld einer Diagnostikeinrichtung (1 bis 4', 7 bis 12) während einer angiographischen Untersuchung oder Behandlung eines Organs, Gefäßsystems oder anderer Körperregionen als Untersuchungsobjekt eines Patienten mit einer Vorrichtung (14, 30) zum Erfassen der Position zumindest eines sich in dem Untersuchungsraum (13) befindenden Objektes (1 bis 4', 7 bis 12, 40), wobei die Vorrichtung (14, 30) einen Strahlensender (21 bis 23) zum Senden eines Strahlenbündels (34, 39) sowie eine Kamera (24 bis 27) zum Erfassen des zumindest einen Objektes (1 bis 4', 7 bis 12, 40) aufweist und wobei die Signale der Kamera (24 bis 27) einer Vorrichtung (27, 15) zugeführt werden, die aufgrund dieser Signale 3-D-Daten entsprechend des zumindest einen Objektes (1 bis 4', 7 bis 12, 40) erzeugt, die zur Vermeidung von Kollisionen des Objektes (1 bis 4', 7 bis 12, 40) herangezogen werden, dadurch gekennzeichnet, dass wenigstens zwei Tiefenkameras (14, 30) zur Überwachung des Untersuchungsraums (13) vorgesehen sind, – die je eine monochromatische Strahlenquelle (21, 22) mit voneinander unterschiedlicher Wellenlänge, – einen Strahlformer (23) und – einen Detektor (24 bis 26) für diese monochromatische Strahlen aufweisen, wobei die Tiefenkameras (14, 30) mit der Vorrichtung (27, 15) zur Vermeidung von Kollisionen des Objektes (1 bis 4', 7 bis 12, 40) zur Erzeugung der 3-D-Daten verbunden sind. System for monitoring an examination room ( 13 ) in the clinical environment of a diagnostic device ( 1 to 4 ' . 7 to 12 ) during an angiographic examination or treatment of an organ, vascular system or other body regions as a subject of examination of a patient with a device ( 14 . 30 ) for detecting the position of at least one in the examination room ( 13 ) ( 1 to 4 ' . 7 to 12 . 40 ), the device ( 14 . 30 ) a radiation transmitter ( 21 to 23 ) for transmitting a beam ( 34 . 39 ) as well as a camera ( 24 to 27 ) for detecting the at least one object ( 1 to 4 ' . 7 to 12 . 40 ) and wherein the signals of the camera ( 24 to 27 ) a device ( 27 . 15 ) are supplied, which due to these signals 3-D data corresponding to the at least one object ( 1 to 4 ' . 7 to 12 . 40 ) generated to avoid collisions of the object ( 1 to 4 ' . 7 to 12 . 40 ), characterized in that at least two depth cameras ( 14 . 30 ) for monitoring the examination room ( 13 ), - each having a monochromatic radiation source ( 21 . 22 ) with mutually different wavelengths, - a beam former ( 23 ) and - a detector ( 24 to 26 ) for these monochromatic beams, the depth cameras ( 14 . 30 ) with the device ( 27 . 15 ) to avoid collisions of the object ( 1 to 4 ' . 7 to 12 . 40 ) are connected to generate the 3-D data. System zur Überwachung eines Untersuchungsraums (13) nach Anspruch 1, dadurch gekennzeichnet, dass die Tiefenkameras (14, 30) je eine Auswerteelektronik (27) aufweisen. System for monitoring an examination room ( 13 ) according to claim 1, characterized in that the depth cameras ( 14 . 30 ) one evaluation electronics each ( 27 ) exhibit. System zur Überwachung eines Untersuchungsraums (13) nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Diagnostikeinrichtung (1 bis 4', 7 bis 12) eine C-Bogen Röntgendiagnostikeinrichtung ist. System for monitoring an examination room ( 13 ) according to claim 1 or 2, characterized in that the diagnostic device ( 1 to 4 ' . 7 to 12 ) is a C-arm X-ray diagnostic device. System zur Überwachung eines Untersuchungsraums (13) nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass der Strahlformer (23) ein strukturiertes Licht erzeugt. System for monitoring an examination room ( 13 ) according to one of claims 1 to 3, characterized in that the beam former ( 23 ) generates a structured light. System zur Überwachung eines Untersuchungsraums (13) nach einem der Ansprüche 1 bis 3, 4 dadurch gekennzeichnet, dass der Strahlformer (23) einen Beamsplitter aufweist. System for monitoring an examination room ( 13 ) according to one of claims 1 to 3, characterized in that the beam former ( 23 ) has a beam splitter. System zur Überwachung eines Untersuchungsraums (13) nach einem der Ansprüche 1 bis 5, dadurchg gekennzeichnet, dass der Detektor (24 bis 26) für die monochromatischen Strahlen ein Objektiv (24), ein schmalbandiges Filter (25) und einen IR-Sensor (26) aufweist. System for monitoring an examination room ( 13 ) according to one of claims 1 to 5, characterized in that the detector ( 24 to 26 ) for the monochromatic beams a lens ( 24 ), a narrowband filter ( 25 ) and an IR sensor ( 26 ) having. System zur Überwachung eines Untersuchungsraums (13) nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass die monochromatischen Strahlenquellen (21, 22) IR-Licht aussenden. System for monitoring an examination room ( 13 ) according to one of claims 1 to 6, characterized in that the monochromatic radiation sources ( 21 . 22 ) Emit IR light. System zur Überwachung eines Untersuchungsraums (13) nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass die monochromatischen Strahlenquellen (21, 22) schmalbandige optische Filter (22) und LEDs als IR-Quellen (21) aufweisen. System for monitoring an examination room ( 13 ) according to one of claims 1 to 7, characterized in that the monochromatic radiation sources ( 21 . 22 ) narrowband optical filters ( 22 ) and LEDs as IR sources ( 21 ) exhibit. System zur Überwachung eines Untersuchungsraums (13) nach einem der Ansprüche 1 bis 7, 8 dadurch gekennzeichnet, dass die monochromatischen Strahlenquellen (21) Laser als IR-Quellen (21) aufweisen. System for monitoring an examination room ( 13 ) according to one of claims 1 to 7, characterized in that the monochromatic radiation sources ( 21 ) Lasers as IR sources ( 21 ) exhibit. System zur Überwachung eines Untersuchungsraums (13) nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, dass die monochromatischen Strahlensender (33, 38) ein pulsierendes NIR-Licht erzeugen, so das in zwei aufeinanderfolgenden Frames die Szene einmal mit aktiv eingebrachtem NIR-Licht und einmal ohne aufgenommen werden kann, dass beide Aufnahmen voneinander subtrahiert werden. System for monitoring an examination room ( 13 ) according to one of claims 1 to 9, characterized in that the monochromatic beam transmitters ( 33 . 38 ) generate a pulsating NIR light, so that in two successive frames, the scene can be recorded once with actively introduced NIR light and once without that both recordings are subtracted from each other. System zur Überwachung eines Untersuchungsraums (13) nach Anspruch 10, dadurch gekennzeichnet, dass die Auswerteelektronik (27) der Tiefenkameras (14, 30, 35) eine Aufnahme ohne Structured Light und eine mit Structured Light subtrahiert. System for monitoring an examination room ( 13 ) according to claim 10, characterized in that the evaluation electronics ( 27 ) of the depth cameras ( 14 . 30 . 35 ) subtracted one shot without Structured Light and one with Structured Light. System zur Überwachung eines Untersuchungsraums (13) nach einem der Ansprüche 1 bis 11, dadurch gekennzeichnet, dass die Auswerteelektronik (27) der Tiefenkameras (14, 30, 35) die X-, Y- und Z-Werte jedes Pixels in Koordinaten der Bildverarbeitung transformiert. System for monitoring an examination room ( 13 ) according to one of claims 1 to 11, characterized in that the evaluation electronics ( 27 ) of the depth cameras ( 14 . 30 . 35 ) transforms the X, Y and Z values of each pixel into coordinates of image processing. System zur Überwachung eines Untersuchungsraums (13) nach einem der Ansprüche 1 bis 12, dadurch gekennzeichnet, dass die Auswerteelektronik (27) der Tiefenkameras (14, 30, 35) die erkannten Objekte sowie statische und/oder dynamische Bereiche ermittelt. System for monitoring an examination room ( 13 ) according to one of claims 1 to 12, characterized in that the evaluation electronics ( 27 ) of the depth cameras ( 14 . 30 . 35 ) determines the detected objects as well as static and / or dynamic areas. System zur Überwachung eines Untersuchungsraums (13) nach einem der Ansprüche 1 bis 13, dadurch gekennzeichnet, dass in der Auswerteelektronik (27) ein Kalibrierfile für die Tiefenkameras (14, 30, 35) hinterlegt ist. System for monitoring an examination room ( 13 ) according to one of claims 1 to 13, characterized in that in the transmitter ( 27 ) a calibration file for the depth cameras ( 14 . 30 . 35 ) is deposited.
DE102011089803A 2011-12-23 2011-12-23 System for monitoring examination space in clinical environment of e.g. C-arm X-ray diagnostic device, has depth cameras that are connected to image processing computer so as to generate three-dimensional data in accordance with object Ceased DE102011089803A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102011089803A DE102011089803A1 (en) 2011-12-23 2011-12-23 System for monitoring examination space in clinical environment of e.g. C-arm X-ray diagnostic device, has depth cameras that are connected to image processing computer so as to generate three-dimensional data in accordance with object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102011089803A DE102011089803A1 (en) 2011-12-23 2011-12-23 System for monitoring examination space in clinical environment of e.g. C-arm X-ray diagnostic device, has depth cameras that are connected to image processing computer so as to generate three-dimensional data in accordance with object

Publications (1)

Publication Number Publication Date
DE102011089803A1 true DE102011089803A1 (en) 2013-06-13

Family

ID=48464477

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102011089803A Ceased DE102011089803A1 (en) 2011-12-23 2011-12-23 System for monitoring examination space in clinical environment of e.g. C-arm X-ray diagnostic device, has depth cameras that are connected to image processing computer so as to generate three-dimensional data in accordance with object

Country Status (1)

Country Link
DE (1) DE102011089803A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019214686B4 (en) 2019-09-25 2023-10-12 Siemens Healthcare Gmbh Method for determining contamination in a medical examination room

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19743500A1 (en) 1997-10-01 1999-04-29 Siemens Ag Medical apparatus with device for detecting position of object
US7500784B2 (en) 2005-03-18 2009-03-10 Siemens Aktiengesellschaft X-ray device
DE102011084444A1 (en) 2011-10-13 2013-04-18 Siemens Aktiengesellschaft Method for determining limitation information describing spatial expansion of patient and e.g. ECG-device in region of X-Ray device in radiography application, involves using time-of-flight cameras as measuring device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19743500A1 (en) 1997-10-01 1999-04-29 Siemens Ag Medical apparatus with device for detecting position of object
US7500784B2 (en) 2005-03-18 2009-03-10 Siemens Aktiengesellschaft X-ray device
DE102011084444A1 (en) 2011-10-13 2013-04-18 Siemens Aktiengesellschaft Method for determining limitation information describing spatial expansion of patient and e.g. ECG-device in region of X-Ray device in radiography application, involves using time-of-flight cameras as measuring device

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Büttgen, El Mechat, Lustenberger: "Pseudonoise Optical Modulation for Real-Time 3D Imaging With Minimum Interference," IEEE Transactions on Circuits and Systems - I: Regular Papers, Vol. 54, No. 10, Oktober 2007. *
Büttgen, El Mechat, Lustenberger: „Pseudonoise Optical Modulation for Real-Time 3D Imaging With Minimum Interference," IEEE Transactions on Circuits and Systems – I: Regular Papers, Vol. 54, No. 10, Oktober 2007.
http://en.wikipedia.org/wiki/Structured-light_3D_scanner
Wikipedia-Seite zu "ToF-Kameras" vom 15. Juni 2009:http://web.archive.org/web/20090615163641/http://de.wikipedia.org/wiki/TOF-Kamera *
Wikipedia-Seite zu „ToF-Kameras" vom 15. Juni 2009:http://web.archive.org/web/20090615163641/http://de.wikipedia.org/wiki/TOF-Kamera

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019214686B4 (en) 2019-09-25 2023-10-12 Siemens Healthcare Gmbh Method for determining contamination in a medical examination room

Similar Documents

Publication Publication Date Title
DE10010724B4 (en) Methods and devices for stereo radiography
EP2613689B1 (en) Dental x-ray device with imaging unit for surface imaging, and method for generating an x-ray of a patient
DE69323925T2 (en) Image reconstruction method for a computed tomography device
DE102006001850B4 (en) Medical imaging device and method
DE102008035736B4 (en) X-ray image recording system and X-ray image recording method for recording X-ray projection images and orientation information for recorded X-ray projection images
EP2584957A1 (en) Device and method for combined optical and nuclear image acquisition
DE29724767U1 (en) Medical apparatus with device for detecting position of object - derives three dimensional data corresponding to object position to prevent collision of objects
EP2710331A1 (en) Optical measurement method and measurement system for determining 3d coordinates on a measurement object surface
DE102006021373A1 (en) X-ray diagnostic device
DE102011075904A1 (en) A method for providing an image data set with suppressed over-field artifacts and X-ray image capture device
DE102011084444A1 (en) Method for determining limitation information describing spatial expansion of patient and e.g. ECG-device in region of X-Ray device in radiography application, involves using time-of-flight cameras as measuring device
DE2717349A1 (en) ROENTINE LAYER FOR THE PRODUCTION OF TRANSVERSAL LAYER IMAGES
EP1531342B1 (en) Method of detecting pedestrians
DE102008046346B4 (en) Method and device for monitoring a spatial area, in particular the environment of a movable medical device
DE102009047867B4 (en) Method and device for correcting truncated projection data
CN1989908A (en) X-ray CT apparatus and an image controlling method thereof
DE102013206911A1 (en) Method and apparatus for the stereoscopic display of image data
DE102020109524A1 (en) METHOD OF CAPTURING A PROJECTION IMAGE, CONTROL DEVICE, CONTROL PROGRAM, PROCESSING DEVICE AND PROCESSING PROGRAM
EP3255608A1 (en) Method and system for sensing a change in the position of an object
DE10235849A1 (en) Medical examination apparatus for imaging periodically-moving object, has two-dimensional radiation receiver associated with x-ray source mounted on carrier whose movement is controlled by derived synchronization signal
EP0918302A2 (en) Coherence detector
DE102011089803A1 (en) System for monitoring examination space in clinical environment of e.g. C-arm X-ray diagnostic device, has depth cameras that are connected to image processing computer so as to generate three-dimensional data in accordance with object
DE10135873A1 (en) Method and device for submillimeter CT sections with an enlarged captured area
DE102008013613B4 (en) Method and control device for position optimization of a number of examination objects, tomography system and computer program product
DE102014219754A1 (en) Gesture-based industrial monitoring

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R230 Request for early publication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final

Effective date: 20130730