DE102022206327B3 - Überwachungssystem und Verfahren zur Überwachung zumindest eines Zielobjekts - Google Patents

Überwachungssystem und Verfahren zur Überwachung zumindest eines Zielobjekts Download PDF

Info

Publication number
DE102022206327B3
DE102022206327B3 DE102022206327.9A DE102022206327A DE102022206327B3 DE 102022206327 B3 DE102022206327 B3 DE 102022206327B3 DE 102022206327 A DE102022206327 A DE 102022206327A DE 102022206327 B3 DE102022206327 B3 DE 102022206327B3
Authority
DE
Germany
Prior art keywords
strand
camera
image data
target object
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102022206327.9A
Other languages
English (en)
Inventor
Marcus Pfister
Philipp Roser
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthineers Ag De
Original Assignee
Siemens Healthcare GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Healthcare GmbH filed Critical Siemens Healthcare GmbH
Priority to DE102022206327.9A priority Critical patent/DE102022206327B3/de
Priority to US18/209,096 priority patent/US20230421892A1/en
Priority to CN202310735838.4A priority patent/CN117281627A/zh
Application granted granted Critical
Publication of DE102022206327B3 publication Critical patent/DE102022206327B3/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/372Details of monitor hardware
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Abstract

Die Erfindung betrifft ein Überwachungssystem zur Überwachung zumindest eines Zielobjekts in einer medizinischen Umgebung, umfassend eine Kameraeinheit und eine Verarbeitungseinheit, wobei die Kameraeinheit eine Aufhängung und eine Strangkamera umfasst,wobei die Aufhängung zumindest ein Strang und zumindest zwei Stranghalterungen umfasst,wobei die Stranghalterungen den zumindest einen Strang an jeweils einem Raumpunkt halten,wobei die Aufhängung ferner eine Kamerahalterung umfasst,welche die Strangkamera an dem zumindest einen Strang hält,wobei die Strangkamera ein Sichtfeld aufweist und zur Erfassung des Sichtfelds ausgebildet ist,wobei die Strangkamera durch eine Bewegung des zumindest einen Strangs bezüglich der Stranghalterungen und/oder eine Bewegung der Strangkamera bezüglich des zumindest einen Strangs repositionierbar ist,wobei die Verarbeitungseinheit dazu ausgebildet ist, die Strangkamera derart zu steuern, dass in einem ersten Betriebszustand des Überwachungssystems:- das zumindest eine Zielobjekt in dem Sichtfeld angeordnet ist und- die Strangkamera erste Bilddaten aufweisend eine Abbildung des zumindest einen Zielobjekts erfasst.Die Erfindung betrifft weiterhin ein Verfahren zur Überwachung zumindest eines Zielobjekts und ein Computerprogrammprodukt.

Description

  • Die Erfindung betrifft ein Überwachungssystem zur Überwachung zumindest eines Zielobjekts in einer medizinischen Umgebung, ein Verfahren zur Überwachung zumindest eines Zielobjekts und ein Computerprogrammprodukt.
  • In medizinischen Umgebungen, beispielsweise einem Operationsraum und/oder einem Interventionsraum und/oder einem Untersuchungsraum, spielt eine Überwachung von Großgeräten, beispielsweise einem Angiographiesystem, durch die zunehmende Komplexität eine immer größere Rolle, beispielsweise zur Kollisionsvermeidung. Eine Möglichkeit ist die Überwachung der medizinischen Umgebung mit zweidimensionalen (2D) oder dreidimensionalen (3D) Kameras und eine Ableitung von Kollisionen in entsprechenden Modellräumen. Hierbei müssen häufig auf verschiedene Art Modelle der medizinischen Umgebung erstellt werden, beispielsweise mittels 3D-Kameras oder mehreren 2D-Kameras. Dabei können je nach Ausbildung der medizinischen Umgebung nachteilig tote oder suboptimale Kamerawinkel entstehen, beispielsweise durch eine Abschattung durch gegenständliche Objekte in der medizinischen Umgebung, insbesondere Bildschirme. Diese toten oder suboptimalen Kamerawinkel können durch zusätzliche Kameras kompensiert werden, nachteilig führt dies jedoch zu einer Erhöhung eines algorithmischen Aufwands und eines Kostenaufwands.
  • Zusätzlich kann durch die Anordnung der mehreren Kameras, beispielsweise mittels Stativen, eine laminare Luftströmung in der medizinischen Umgebung nachteilig beeinträchtigt werden.
  • Die Druckschrift EP 4 134 966 A1 offenbart ein Verfahren und System zur Überwachung eines Patienten auf einem Operationstisch mittels wenigstens einer Bilderfassungseinheit, wobei eine Position des Patienten relativ zu dem Operationstisch anhand von mittels der Bilderfassungseinheit aufgenommenen Bilddaten bestimmt wird. Die Druckschrift DE 10 2011 084 444 A1 offenbart ein Verfahren zur Ermittlung wenigstens einer Begrenzungsinformation, welche eine räumliche Ausdehnung eines Patienten und/oder eines Objekts im Bereich einer medizinischen Bildgebungs- und/oder Behandlungseinrichtung beschreibt, anhand von mittels einer Time-of-Flight-Kamera aufgenommenen Messdaten. Die Druckschrift DE 10 2008 046 346 A1 offenbart ein Verfahren zum Überwachen eines räumlichen Bereichs mittels mehreren aktiv entfernungsmessenden Erfassungsmitteln. Die Druckschrift DE 20 2010 013 678 U1 offenbart ein System zur automatischen Ausrichtung von steuerbaren Trägersystemen für Kameras auf definierte Objekte. Die Druckschrift US 2019 / 0 380 793 A1 offenbart ein System zur Durchführung einer medizinischen Prozedur in einem Operationsraum, umfassend einen kamerabasierten 3D-Bewegungssensor, welcher in bekannter Position und Orientierung angeordnet zur Erfassung einer 3D-Position eines Prozedurobjekts in dem Operationsraum anhand einer Form des Prozedurobjekts bezüglich des 3D-Bewegungssensors.
  • Es ist daher die Aufgabe der vorliegenden Erfindung, eine verbesserte Überwachung eines Zielobjekts in einer medizinischen Umgebung zu ermöglichen.
  • Die Aufgabe wird erfindungsgemäß gelöst durch den jeweiligen Gegenstand der unabhängigen Ansprüche. Vorteilhafte Ausführungsformen mit zweckmäßigen Weiterbildungen sind Gegenstand der Unteransprüche.
  • Die Erfindung betrifft in einem ersten Aspekt ein Überwachungssystem zur Überwachung zumindest eines Zielobjekts in einer medizinischen Umgebung. Dabei umfasst Überwachungssystem eine Kameraeinheit und eine Verarbeitungseinheit. Die Kameraeinheit umfasst ferner eine Aufhängung und eine Strangkamera. Die Aufhängung umfasst zumindest einen Strang und zumindest zwei Stranghalterungen. Dabei halten die Stranghalterungen den zumindest einen Strang an jeweils einem Raumpunkt. Die Aufhängung umfasst ferner eine Kamerahalterung, welche die Strangkamera an dem zumindest einen Strang hält. Die Strangkamera weist ein Sichtfeld auf und ist zur Erfassung des Sichtfelds ausgebildet. Ferner ist die Strangkamera durch eine Bewegung des zumindest einen Strangs bezüglich der Stranghalterungen und/oder eine Bewegung der Strangkamera bezüglich des zumindest einen Strangs repositionierbar. Die Verarbeitungseinheit ist dazu ausgebildet, die Strangkamera derart zu steuern, dass in einem ersten Betriebszustand des Überwachungssystems das zumindest eine von der Strangkamera zur erfassende Zielobjekt in dem Sichtfeld angeordnet ist und die Strangkamera erste Bilddaten aufweisend eine Abbildung des zumindest einen Zielobjekts erfasst.
  • Das zumindest eine Zielobjekt kann ein medizinisches Objekt, beispielsweise ein medizinisches Bildgebungsgerät und/oder ein medizinisches Behandlungsgerät, beispielsweise ein Beatmungsgerät und/oder eine Bestrahlungsanlage und/oder ein Anästhesiegerät, und/oder eine Patientenlagerungsvorrichtung und/oder eine Schutzvorrichtung, beispielsweise ein Strahlenschutzschirm, und/oder ein Untersuchungsobjekt, beispielsweise eine menschliche und/oder tierische Patientin und/oder einen menschlichen und/oder tierische Patienten, und/oder ein medizinisches Bedienpersonal umfassen.
  • Die medizinische Umgebung kann einen räumlichen Bereich umfassen, innerhalb welchem eine medizinische Prozedur, beispielsweise eine Untersuchung und/oder Behandlung eines Untersuchungsobjekts, durchführbar ist, beispielsweise ein Operationssaal und/oder ein Interventionsraum und/oder ein Untersuchungsraum. Dabei kann die medizinische Umgebung einen zumindest teilweise, insbesondere vollständig, umschlossenen Raum umfassen. Insbesondere kann die medizinische Umgebung einen räumlichen Bereich mit gegenüber einer normalen Umgebung erhöhten Hygieneanforderungen umfassen. Die Hygieneanforderungen können beispielsweise eine Vorgabe zu einem minimalen und/oder durchschnittlichen laminaren Luftstrom in der medizinischen Umgebung umfassen.
  • Die Aufhängung umfasst den zumindest einen Strang und die zumindest zwei Stranghalterungen. Dabei kann der zumindest eine Strang eine Kette und/oder einen Riemen und/oder ein Seil, beispielsweise ein Drahtseil, und/oder ein Band umfassen. Umfasst die Aufhängung mehrere Stränge, so können die mehreren Stränge zumindest teilweise, insbesondere vollständig, gleich oder verschieden ausgebildet sein. Die Stranghalterungen können dazu ausgebildet sein, den zumindest einen Strang, insbesondere die mehreren Stränge, an jeweils einem Raumpunkt zu halten. Dabei kann jeweils eine Stranghalterung an einem von mehreren verschiedenen Raumpunkten angeordnet sein und jeweils einen Strang an dem Raumpunkt halten. Ferner können die Stranghalterungen mit jeweils einem Befestigungsmittel, beispielsweise einer Schraube und/oder einem Nagel, an dem jeweiligen Raumpunkt befestigt sein. Die Raumpunkte können jeweils eine räumliche Position innerhalb der medizinischen Umgebung, beispielsweise an einer Decke und/oder Wand, bezeichnen. Ferner können die Raumpunkte beabstandet voneinander angeordnet sein. Alternativ oder zusätzlich können die Stranghalterungen ein Stativ und/oder einen Roboterarm und/oder ein Schienensystem umfassen. Die Stranghalterungen können vorteilhafterweise dazu ausgebildet sein, den zumindest einen Strang, insbesondere die mehreren Stränge, an dem jeweils einen Raumpunkt ortsfest und/oder beweglich zu halten. Hierfür kann der zumindest eine Strang mittels eines weiteren Befestigungsmittels, beispielsweise einer Schelle und/oder einer Schraube und/oder einem Bolzen und/oder einer Klemme, an den zumindest zwei Stranghalterungen befestigt sein. Alternativ oder zusätzlich kann der zumindest eine Strang von wenigstens einer der Stranghalterungen, insbesondere zwei Stranghalterungen, beweglich gehalten, insbesondere gelagert, sein. Hierfür können die zumindest zwei Stranghalterungen ein Bewegungsmittel umfassen, beispielsweise eine Rolle und/oder eine Walze und/oder ein Rad und/oder eine Scherplatte. Die Stranghalterungen können ferner eine Spannvorrichtung umfassen, welche dazu ausgebildet sein kann, eine vorbestimmte mechanische Spannkraft auf den zumindest einen Strang auszuüben, welcher von den zumindest zwei Stranghalterungen gehalten wird.
  • Die Kamerahalterung kann dazu ausgebildet sein, die Strangkamera an dem zumindest einen Strang, insbesondere an den mehreren Strängen, zu halten. Dabei kann die Kamerahalterung dazu ausgebildet sein, die Strangkamera ortsfest bezüglich des zumindest einen Strangs und/oder beweglich bezüglich des zumindest einen Strangs zu halten. Beispielsweise kann die Kamerahalterung die Strangkamera mittels eines Befestigungsmittels, beispielsweise mittels einer Schelle und/oder einer Schraube und/oder einem Bolzen und/oder einer Klemme, ortsfest bezüglich des zumindest einen Strangs halten. Alternativ oder zusätzlich kann die Kamerahalterung die Strangkamera mittels eines Bewegungsmittels, beispielsweise eine Rolle und/oder einer Walze und/oder einem Rad und/oder einer Scherplatte, beweglich bezüglich des zumindest einen Strangs halten. Das Bewegungsmittel kann beispielsweise als Schlitten, insbesondere Seilschlitten, ausgebildet sein.
  • Die Strangkamera (engl. spider-cam) kann eine 2D- und/oder 3D-Kamera, beispielsweise eine Monokamera und/oder Stereokamera und/oder Tiefenkamera, umfassen. Das Sichtfeld der Strangkamera kann einen räumlichen Erfassungsbereich der Strangkamera beschreiben, welcher beispielsweise durch einen Erfassungswinkel und/oder eine räumliche Auflösungsgrenze der Strangkamera begrenzt ist. Vorteilhafterweise kann die Strangkamera dazu ausgebildet sein, ihr Sichtfeld, insbesondere ihren Erfassungsbereich, zu erfassen, insbesondere aufzunehmen. Insbesondere kann die Strangkamera dazu ausgebildet sein, Bilddaten aufweisend eine Abbildung des Sichtfelds zu erfassen, insbesondere aufzunehmen.
  • Die Strangkamera ist durch eine Bewegung des zumindest einen Strangs bezüglich der Stranghalterungen und/oder eine Bewegung der Strangkamera bezüglich des zumindest einen Strangs repositionierbar. Dabei kann das Repositionieren der Strangkamera eine Änderung einer räumlichen Position und/oder Ausrichtung und/oder Pose der Strangkamera bezüglich der medizinischen Umgebung umfassen.
  • Vorteilhafterweise kann der zumindest eine Strang, insbesondere manuell oder motorgetrieben, beweglich bezüglich der Stranghalterungen gelagert sein. Durch eine gleichgerichtete Bewegung, insbesondere Translation, des zumindest einen Strangs bezüglich der zumindest zwei Stranghalterungen kann eine Translation der Strangkamera ermöglicht werden, welche im Wesentlichen gleichgerichtet zu der Bewegung des zumindest einen Strangs verläuft. Durch eine entgegengerichtete Bewegung, insbesondere Translation, des zumindest einen Strangs bezüglich der zumindest zwei Stranghalterungen, kann eine Translation der Strangkamera ermöglicht werden, welche eine rechtwinklige Bewegungskomponente zur Bewegungsrichtung des zumindest einen Strangs aufweist.
  • Alternativ oder zusätzlich kann die Strangkamera mittels der Kamerahalterung beweglich bezüglich des zumindest einen Strangs gehalten sein. Dabei kann die Strangkamera durch eine Bewegung der Kamerahalterung bezüglich des zumindest einen Strangs entlang des zumindest einen Strangs repositionierbar sein.
  • Vorteilhafterweise kann die Verarbeitungseinheit dazu ausgebildet sein, das Repositionieren der Strangkamera zu steuern. Die Verarbeitungseinheit kann dazu ausgebildet sein, das Bewegungsmittel der Kamerahalterung und/oder das Bewegungsmittel der Stranghalterungen zu steuern, beispielsweise mittels eines Signals. Alternativ oder zusätzlich kann die Verarbeitungseinheit dazu ausgebildet sein, einen Workflow-Hinweis zum manuellen Repositionieren der Strangkamera bereitzustellen, beispielsweise mittels einer Darstellungsvorrichtung und/oder eines Lautsprechers. Die Strangkamera kann dazu ausgebildet sein, die erfassten Bilddaten, insbesondere initiale Bilddaten, an die Verarbeitungseinheit bereitzustellen. Die initialen Bilddaten können eine 2D und/oder 3D räumlich aufgelöste Abbildung des Sichtfelds der Strangkamera aufweisen. Ferner können die initialen Bilddaten eine zeitaufgelöste Abbildung des Sichtfelds der Strangkamera aufweisen. Des Weiteren kann die Verarbeitungseinheit dazu ausgebildet sein, die von der Strangkamera erfassten Bilddaten, insbesondere die initialen Bilddaten, auszuwerten. Ferner kann die Verarbeitungseinheit dazu ausgebildet sein, zu überprüfen, ob das zumindest eine Zielobjekt in den von der Strangkamera erfassten Bilddaten, insbesondere den initialen Bilddaten, abgebildet ist, insbesondere nicht oder teilweise oder vollständig abgebildet ist.
  • Die Verarbeitungseinheit kann vorteilhafterweise dazu ausgebildet sein, die Strangkamera, insbesondere das Bewegungsmittel der Kamerahalterung und/oder das Bewegungsmittel der Stranghalterungen, derart zu steuern, dass das zumindest eine Zielobjekt in dem Sichtfeld der Strangkamera angeordnet ist und die Strangkamera die ersten Bilddaten des zumindest einen Zielobjekt erfasst. Hierfür kann die Verarbeitungseinheit das Repositionieren der Strangkamera basierend auf den erfassten Bilddaten, insbesondere den initialen Bilddaten, derart steuern, dass das zumindest eine Zielobjekt zumindest teilweise, insbesondere vollständig, in den erfassten Bilddaten abgebildet ist. Die Strangkamera kann dazu ausgebildet sein, die erfassten Bilddaten, insbesondere die initialen Bilddaten, aufweisend die Abbildung des zumindest einen Zielobjekts, als die ersten Bilddaten bereitzustellen. Dabei können die ersten Bilddaten eine 2D und/oder 3D räumlich aufgelöste Abbildung des zumindest einen Zielobjekts aufweisen. Ferner können die ersten Bilddaten eine zeitaufgelöste Abbildung des zumindest einen Zielobjekts aufweisen.
  • Das vorgeschlagene Überwachungssystem kann vorteilhaft eine verbesserte, insbesondere vollumfängliche, Überwachung des zumindest einen Zielobjekts in der medizinischen Umgebung ermöglichen. Durch die Repositionierbarkeit der Strangkamera können suboptimale oder tote Kamerawinkel vorteilhaft vermieden werden. Insbesondere kann auch bei verschiedenen Anordnungen des zumindest einen Zielobjekts in der medizinischen Umgebung mittels des vorgeschlagenen Überwachungssystems eine Überwachung des zumindest einen Zielobjekts flexibel ermöglicht werden. Zudem haben die Erfinder erkannt, dass die laminare Strömung in der medizinischen Umgebung durch die repositionierbare Strangkamera nur geringfügig beeinflusst wird.
  • In einer weiteren vorteilhaften Ausführungsform des vorgeschlagenen Überwachungssystems kann die Strangkamera in dem ersten Betriebszustand die ersten Bilddaten aus einer ersten Abbildungsrichtung erfassen. Dabei kann die Verarbeitungseinheit ferner dazu ausgebildet sein, die Strangkamera derart zu steuern, dass in einem weiteren Betriebszustand des Überwachungssystems das zumindest eine Zielobjekt in dem Sichtfeld der Strangkamera angeordnet ist und die Strangkamera weitere Bilddaten des Zielobjekts aus einer weiteren Abbildungsrichtung erfasst, welche verschieden von der ersten Abbildungsrichtung ist und einen vorbestimmten, insbesondere rechten, Winkel bezüglich der ersten Abbildungsrichtung aufweist. Insbesondere können die erste und die weitere Abbildungsrichtung senkrecht zueinander stehen. Die Strangkamera kann ferner dazu ausgebildet sein, die ersten und die weiteren Bilddaten an die Verarbeitungseinheit bereitzustellen. Des Weiteren kann die Verarbeitungseinheit dazu ausgebildet sein, eine dreidimensionale Repräsentation des zumindest einen Zielobjekts anhand der ersten und der weiteren Bilddaten zu rekonstruieren.
  • Vorteilhafterweise kann die Strangkamera in dem ersten Betriebszustand die ersten Bilddaten aus der ersten Abbildungsrichtung erfassen. Insbesondere kann die Strangkamera in dem ersten Betriebszustand in einer ersten Positionierung, insbesondere einer ersten räumlichen Position und/oder Ausrichtung und/oder Pose, bezüglich des zumindest einen Zielobjekts angeordnet sein. Dabei kann die erste Abbildungsrichtung die Ausrichtung des Sichtfelds der Strangkamera in der ersten Positionierung kennzeichnen.
  • Die Verarbeitungseinheit kann vorteilhafterweise dazu ausgebildet sein, die Strangkamera, insbesondere das Bewegungsmittel der Kamerahaltung und/oder das Bewegungsmittel der Stranghalterungen, derart zu steuern, dass in dem weiteren Betriebszustand des Überwachungssystems das zumindest eine Zielobjekt in dem Sichtfeld der Strangkamera angeordnet ist. Ferner kann die Strangkamera in dem weiteren Betriebszustand des Überwachungssystems die weiteren Bilddaten des zumindest einen Zielobjekts aus der weiteren Abbildungsrichtung erfassen. Insbesondere kann die Strangkamera in dem weiteren Betriebszustand in einer weiteren Positionierung, insbesondere einer weiteren räumlichen Position und/oder Ausrichtung und/oder Pose, bezüglich des zumindest einen Zielobjekts angeordnet sein, welche verschieden von der ersten Positionierung ist. Dabei kann die weitere Abbildungsrichtung die Ausrichtung des Sichtfelds der Strangkamera in der weiteren Positionierung kennzeichnen. Zudem kann die weitere Abbildungsrichtung verschieden von der ersten Abbildungsrichtung sein und den vorbestimmten Winkel, insbesondere einen rechten Winkel, bezüglich der ersten Abbildungsrichtung aufweisen. Insbesondere kann die weitere Positionierung beabstandet von der ersten Positionierung angeordnet sein. Zudem kann ein Schnittpunkt der ersten und der weiteren Abbildungsrichtung vorteilhafterweise an oder in dem zumindest einen Zielobjekt angeordnet sein. Ferner kann die Verarbeitungseinheit dazu ausgebildet sein, die Strangkamera derart zu steuern, dass die Strangkamera von der ersten Positionierung in die weitere Positionierung repositioniert wird oder umgekehrt, insbesondere wiederholt und/oder periodisch. Hierdurch können die ersten und die weiteren Bilddaten das zumindest eine Zielobjekt stereoskopisch abbilden.
  • Die Strangkamera kann vorteilhafterweise dazu ausgebildet sein, die ersten und die weiteren Bilddaten an die Verarbeitungseinheit bereitzustellen. Die Verarbeitungseinheit kann ferner dazu ausgebildet sein, die dreidimensionale Repräsentation, beispielsweise ein dreidimensionales Modell, insbesondere ein Volumennetzmodell (engl. volume mesh model) und/oder ein skeletonisiertes Modell, anhand der ersten und der weiteren Bilddaten, insbesondere anhand der stereoskopischen Abbildung des zumindest einen Zielobjekts in den ersten und den weiteren Bilddaten, zu rekonstruieren. Das Rekonstruieren der dreidimensionalen Repräsentation des zumindest einen Zielobjekts kann ein Segmentieren jeweils einer Abbildung des zumindest einen Zielobjekts in den ersten und den weiteren Bilddaten umfassen. Dabei können Bildpunkte, insbesondere Pixel und/oder Voxel, in den ersten und den weiteren Bilddaten identifiziert werden, welche das zumindest eine Zielobjekt abbilden. Ferner kann das Rekonstruieren der 3D-Repräsentation des zumindest einen Zielobjekts auf einem Verfahren des Typs „Structure-from-Motion“ basieren.
  • Die vorgeschlagene Ausführungsform kann eine präzise und kosteneffiziente 3D-Erfassung des zumindest einen Zielobjekts mittels der Strangkamera ermöglichen.
  • In einer weiteren vorteilhaften Ausführungsform des vorgeschlagenen Überwachungssystems kann die Kameraeinheit zumindest eine weitere Kamera umfassen. Dabei kann die weitere Kamera ein weiteres Sichtfeld aufweisen und zur Erfassung des weiteren Sichtfelds ausgebildet sein. In dem ersten Betriebszustand des Überwachungssystems kann die zumindest eine weitere Kamera derart positioniert sein, dass das zumindest eine Zielobjekt in dem weiteren Sichtfeld angeordnet ist. Des Weiteren kann in dem ersten Betriebszustand die weitere Kamera weitere Bilddaten des Zielobjekts aus einer weiteren Abbildungsrichtung erfassen. Die Verarbeitungseinheit kann in dem ersten Betriebszustand des Überwachungssystems die Strangkamera derart steuern, dass die Strangkamera die ersten Bilddaten aus einer ersten Abbildungsrichtung erfasst, welche verschieden von der weiteren Abbildungsrichtung ist und einen vorbestimmten, insbesondere rechten, Winkel bezüglich der weiteren Abbildungsrichtung aufweist. Zudem kann die Kameraeinheit dazu ausgebildet sein, die ersten und die weiteren Bilddaten an die Verarbeitungseinheit bereitzustellen. Dabei kann die Verarbeitungseinheit ferner dazu ausgebildet sein, eine dreidimensionale Repräsentation des zumindest einen Zielobjekts anhand der ersten und der weiteren Bilddaten zu rekonstruieren.
  • Vorteilhafterweise kann die Kameraeinheit zumindest eine weitere Kamera, insbesondere mehrere weitere Kameras, umfassen. Die zumindest eine weitere Kamera kann als 2D- und/oder 3D-Kamera, beispielsweise eine Monokamera und/oder Stereokamera und/oder Tiefenkamera, ausgebildet sein. Die zumindest eine weitere Kamera kann ein weiteres Sichtfeld aufweisen. Dabei kann das weitere Sichtfeld einen räumlichen Erfassungsbereich der zumindest einen weiteren Kamera beschreiben, welcher beispielsweise durch einen Erfassungswinkel und/oder eine räumliche Auflösungsgrenze der zumindest einen weiteren Kamera begrenzt ist. Vorteilhafterweise kann die zumindest eine weitere Kamera dazu ausgebildet sein, das weitere Sichtfeld, insbesondere den Erfassungsbereich der weiteren Kamera, zu erfassen, insbesondere aufzunehmen. Dabei kann die zumindest eine weitere Kamera dazu ausgebildet sein, weitere Bilddaten aufweisend eine Abbildung des weiteren Sichtfelds zu erfassen, insbesondere aufzunehmen. Vorteilhafterweise kann in dem ersten Betriebszustand des Überwachungssystems die zumindest eine weitere Kamera derart positioniert sein, dass das zumindest eine Zielobjekt sowohl in dem Sichtfeld der Strangkamera als auch in dem weiteren Sichtfeld angeordnet ist, insbesondere gleichzeitig. Die weitere Abbildungsrichtung kann beispielsweise parallel, insbesondere entlang, einer Längsachse des Untersuchungsobjekts, insbesondere einer Patientenachse, angeordnet sein.
  • Vorteilhafterweise kann die Strangkamera in dem ersten Betriebszustand die ersten Bilddaten aus der ersten Abbildungsrichtung erfassen. Insbesondere kann die Strangkamera in dem ersten Betriebszustand in der ersten Positionierung, insbesondere der ersten räumlichen Position und/oder Ausrichtung und/oder Pose, bezüglich des zumindest einen Zielobjekts angeordnet sein. Dabei kann die erste Abbildungsrichtung die Ausrichtung des Sichtfelds der Strangkamera in der ersten Positionierung kennzeichnen. Ferner kann die zumindest eine weitere Kamera in dem ersten Betriebszustand die weiteren Bilddaten aus der weiteren Abbildungsrichtung erfassen. Insbesondere kann die zumindest eine weitere Kamera in dem ersten Betriebszustand in einer weiteren Positionierung, insbesondere einer weiteren räumlichen Position und/oder Ausrichtung und/oder Pose, bezüglich des zumindest einen Zielobjekts angeordnet sein. Vorteilhafterweise können die erste und die weitere Positionierung verschieden, insbesondere beabstandet, sein. Die weitere Abbildungsrichtung kann die Ausrichtung des weiteren Sichtfelds der zumindest einen weiteren Kamera in der weiteren Positionierung kennzeichnen. Zudem kann die erste Abbildungsrichtung verschieden von der weiteren Abbildungsrichtung sein und den vorbestimmten Winkel, insbesondere einen rechten Winkel, bezüglich der weiteren Abbildungsrichtung aufweisen. Insbesondere können die erste und die weitere Abbildungsrichtung senkrecht zueinander stehen. Zudem kann ein Schnittpunkt der ersten und der weiteren Abbildungsrichtung vorteilhafterweise an oder in dem zumindest einen Zielobjekt angeordnet sein. Vorteilhafterweise können die ersten und die weiteren Bilddaten das zumindest eine Zielobjekt stereoskopisch abbilden. Zudem können die ersten und die weiteren Bilddaten das zumindest eine Zielobjekt gleichzeitig abbilden.
  • Die Kameraeinheit, insbesondere die Strangkamera und die zumindest eine weitere Kamera, kann vorteilhafterweise dazu ausgebildet sein, die ersten und die weiteren Bilddaten an die Verarbeitungseinheit bereitzustellen. Die Verarbeitungseinheit kann ferner dazu ausgebildet sein, die dreidimensionale Repräsentation, beispielsweise ein dreidimensionales Modell, insbesondere ein Volumennetzmodell (engl. volume mesh model) und/oder ein skeletonisiertes Modell, anhand der ersten und weiteren Bilddaten, insbesondere anhand der stereoskopischen Abbildung des zumindest einen Zielobjekts in den ersten und den weiteren Bilddaten, zu rekonstruieren. Das Rekonstruieren der dreidimensionalen Repräsentation des zumindest einen Zielobjekts kann ein Segmentieren jeweils einer Abbildung des zumindest einen Zielobjekts in den ersten und den weiteren Bilddaten umfassen. Dabei können Bildpunkte, insbesondere Pixel und/oder Voxel, in den ersten und den weiteren Bilddaten identifiziert werden, welche das zumindest eine Zielobjekt abbilden.
  • Durch die, insbesondere gleichzeitige, Erfassung des zumindest einen Zielobjekts aus der ersten und der weiteren Abbildungsrichtung kann eine präzise und zugleich flexible 3D-Erfassung des zumindest einen Zielobjekts ermöglicht werden.
  • In einer weiteren vorteilhaften Ausführungsform des vorgeschlagenen Überwachungssystems kann die Aufhängung mehrere Stränge und zumindest drei Stranghalterungen umfassen. Die Stranghalterungen können die mehreren Stränge an jeweils einem Raumpunkt halten. Die Kamerahalterung kann die Strangkamera an den mehreren Strängen halten. Des Weiteren kann die Strangkamera durch eine Bewegung zumindest eines der mehreren Stränge bezüglich der Stranghalterungen und/oder eine Bewegung der Strangkamera bezüglich zumindest eines der mehreren Stränge repositionierbar sein.
  • Die mehreren Stränge können zumindest teilweise, insbesondere vollständig, gleich oder verschieden ausgebildet sein. Ferner kann die Aufhängung zumindest drei Stranghalterungen, insbesondere jeweils zwei Stranghalterungen zu jedem der mehreren Stränge, umfassen. Dabei können die zumindest drei Stranghalterungen die mehreren Stränge an jeweils einem Raumpunkt halten. Insbesondere können jeweils zwei Stranghalterungen einen der mehreren Stränge an zwei verschiedenen Raumpunkten halten. Vorteilhafterweise können die mehreren Stränge mittels der zumindest drei Stranghalterungen derart gehalten werden, dass sich die mehreren Stränge an der Kamerahalterung überkreuzen.
  • Vorteilhafterweise kann zumindest einer der mehreren Stränge, insbesondere jeder der mehreren Stränge, beweglich bezüglich der Stranghalterungen gelagert sein. Durch eine gleichgerichtete oder entgegengerichtete Bewegung, insbesondere Translation, des zumindest einen der mehreren Stränge bezüglich der Stranghalterungen kann eine Translation der Strangkamera ermöglicht werden. Alternativ oder zusätzlich kann die Strangkamera mittels der Kamerahalterung beweglich bezüglich zumindest eines der mehreren Stränge, insbesondere beweglich bezüglich jedes der mehreren Stränge, gehalten sein. Dabei kann die Strangkamera durch eine Bewegung der Kamerahalterung bezüglich des zumindest einen Strangs entlang des zumindest einen Strangs repositionierbar sein. Insbesondere kann die Strangkamera durch eine, insbesondere gleichzeitige, Bewegung eines oder mehrerer Stränge bezüglich der jeweiligen Stranghalterungen und/oder eine Bewegung der Kamerahalterung, insbesondere gleichzeitig, bezüglich eines oder mehrerer Stränge repositionierbar sein.
  • Die vorgeschlagene Ausführungsform kann vorteilhaft ein dreidimensionales Repositionieren der Strangkamera zumindest entlang der mehreren Stränge ermöglichen. Hierdurch kann ein besonders flexibles Erfassen des zumindest einen Zielobjekts ermöglicht werden.
  • In einer weiteren vorteilhaften Ausführungsform des vorgeschlagenen Überwachungssystems kann die Kamerahalterung die Strangkamera an dem zumindest einen Strang rotierbar und/oder verschwenkbar bezüglich des zumindest einen Strangs halten.
  • Die Kamerahalterung kann vorteilhafterweise dazu ausgebildet sein, die Strangkamera rotierbar, insbesondere um ein oder mehrere Rotationsachsen rotierbar, und/oder verschwenkbar, insbesondere kippbar, an dem zumindest einen Strang zu halten. Insbesondere kann die Strangkamera manuell, beispielsweise durch ein medizinisches Bedienpersonal, rotierbar und/oder verschwenkbar durch die Kamerahalterung an dem zumindest einen Strang gehalten sein. Alternativ oder zusätzlich kann die Kamerahalterung dazu ausgebildet sein, die Strangkamera automatisch, insbesondere robotisch, zu rotieren und/oder zu verschwenken. Dabei kann die Verarbeitungseinheit ferner dazu ausgebildet sein, das Rotieren und/oder Verschwenken der Strangkamera zu steuern. Alternativ oder zusätzlich kann die Kamerahalterung eine kardanische Aufhängung (engl. gimbal) aufweisen, welches die Strangkamera an dem zumindest einen Strang hält. Dabei kann die Kamerahalterung dazu ausgebildet sein, eine Lageänderung der Strangkamera bezüglich einer Referenzlage, beispielsweise einer Horizontalen, durch Rotieren und/oder Verschwenken der Strangkamera, insbesondere automatisch, auszugleichen. Ferner kann die Kamerahalterung dazu ausgebildet sein, die Strangkamera derart zu rotieren und/oder zu verschwenken, dass das zumindest eine Zielobjekt in dem Sichtfeld der Strangkamera angeordnet ist, insbesondere auch bei einer Bewegung der Strangkamera bezüglich des zumindest einen Zielobjekts.
  • Die vorgeschlagene Ausführungsform kann vorteilhaft ein flexibles Erfassen des zumindest einen Zielobjekts ermöglichen.
  • In einer weiteren vorteilhaften Ausführungsform des vorgeschlagenen Überwachungssystems kann die Kameraeinheit dazu ausgebildet sein, die erfassten Bilddaten an die Verarbeitungseinheit bereitzustellen. Dabei kann die Verarbeitungseinheit dazu ausgebildet sein, anhand der Bilddaten eine Phase einer medizinischen Prozedur zu identifizieren, welche in den Bilddaten abgebildet ist. Die Verarbeitungseinheit kann ferner dazu ausgebildet sein, das Repositionieren der Strangkamera zusätzlich in Abhängigkeit der identifizierten Phase zu steuern.
  • Das Bereitstellen der erfassten Bilddaten kann ein Übertragen der ersten und/oder der weiteren Bilddaten von der Kameraeinheit, insbesondere der Strangkamera und/oder der zumindest einen weiteren Kamera, an die Verarbeitungseinheit umfassen. Die Verarbeitungseinheit kann vorteilhafterweise dazu ausgebildet sein, anhand der Bilddaten, insbesondere anhand einer Abbildung des zumindest einen Zielobjekts und/oder weiterer Objekte, beispielsweise medizinischer Objekte und/oder eines Untersuchungsobjekts, und/oder eines medizinischen Bedienpersonals in den Bilddaten, die Phase der medizinischen Prozedur zu identifizieren. Dabei kann die Phase der medizinischen Prozedur einen zeitlichen Abschnitt eines Prozedurablaufs beschreiben, welcher mehrere Phasen umfasst. Die Verarbeitungseinheit kann beispielsweise dazu ausgebildet sein, einen Behandlungsplan aufweisend eine Information zu dem Prozedurablauf, insbesondere den mehreren Phasen, zu empfangen. Dabei kann die Information zu dem Behandlungsplan beispielsweise eine Information zur Positionierung, insbesondere einer räumlichen Position und/oder Ausrichtung und/oder Pose, des zumindest einen Zielobjekts und/oder der weiteren Objekte und/oder des medizinischen Bedienpersonals für die mehreren Phasen umfassen. Die Verarbeitungseinheit kann anhand der Bilddaten die, insbesondere momentane, Positionierung des zumindest einen Zielobjekts und/oder der weiteren Objekte und/oder des medizinischen Bedienpersonals bestimmen, beispielsweise mittels einer Objekterkennung und/oder Mustererkennung und/oder Segmentierung. Vorteilhafterweise kann die Verarbeitungseinheit anhand der Bilddaten eine, insbesondere momentane, Relativpositionierung des zumindest einen Zielobjekts und/oder der weiteren Objekte und/oder des medizinischen Bedienpersonals bestimmen. Ferner kann die Verarbeitungseinheit die bestimmte Positionierung und/oder die bestimmte Relativpositionierung mit den im Behandlungsplan vorgegebenen Positionierungen vergleichen und die, insbesondere momentane, Phase der medizinischen Prozedur identifizieren.
  • Die Verarbeitungseinheit kann ferner dazu ausgebildet sein, das Repositionieren der Strangkamera zusätzlich in Abhängigkeit der identifizierten Phase zu steuern. Beispielsweise kann der Behandlungsplan eine Abbildungsrichtung und/oder Positionierung für die Strangkamera zur Erfassung des zumindest einen Zielobjekts in der identifizierten Phase und/oder in einer nachfolgenden Phase vorgeben. Alternativ kann der Behandlungsplan räumliche Positionen und/oder einen räumlichen Bereich zur Anordnung der Strangkamera in der identifizierten Phase ausschließen, beispielsweise zur Kollisionsvermeidung. Die Verarbeitungseinheit kann das Repositionieren der Strangkamera vorteilhafterweise derart in Abhängigkeit der identifizierten Phase steuern, dass das zumindest eine Zielobjekt in dem Sichtfeld der Strangkamera angeordnet ist und die Strangkamera zusätzlich an der vorgegebenen Position und/oder an keiner der ausgeschlossenen Positionen angeordnet ist und/oder das zumindest eine Zielobjekt aus der vorgegebenen Abbildungsrichtung erfasst. Alternativ oder zusätzlich kann die Verarbeitungseinheit dazu ausgebildet sein, das zumindest eine zu erfassende Zielobjekt anhand der identifizierten Phase zu bestimmen. Beispielsweise kann bei einer Phase eines geplanten 3D-Scans des Untersuchungsobjekts das medizinische Bildgebungsgerät als das zumindest eine Zielobjekt bestimmt und ein räumlicher Bereich einer geplanten Trajektorie des medizinischen Bildgebungsgeräts innerhalb des Sichtfelds der Strangkamera angeordnet werden. Ferner kann in einer weiteren Phase einer Umlagerung und/oder Fahrt des medizinischen Bildgebungsgeräts aus einer Parkposition ein anderer räumlicher Bereich innerhalb des Sichtfelds der Strangkamera angeordnet werden.
  • Die vorgeschlagene Ausführungsform kann vorteilhaft ein an die erfasste Phase der medizinischen Prozedur angepasstes Erfassen des zumindest einen Zielobjekts ermöglichen. Hierdurch können Kollisionen und/oder Einschränkungen während der medizinischen Prozedur prospektiv minimiert oder vermieden werden.
  • In einer weiteren vorteilhaften Ausführungsform des vorgeschlagenen Überwachungssystems kann die Kameraeinheit dazu ausgebildet sein, die erfassten Bilddaten an die Verarbeitungseinheit bereitzustellen. Die Verarbeitungseinheit kann ferner dazu ausgebildet sein, weitere Objekte zu identifizieren, welche in den Bilddaten abgebildet sind, und das Repositionieren der Strangkamera kollisionsfrei bezüglich der weiteren Objekte zu steuern.
  • Das Bereitstellen der erfassten Bilddaten kann ein Übertragen der ersten und/oder der weiteren Bilddaten von der Kameraeinheit, insbesondere der Strangkamera und/oder der zumindest einen weiteren Kamera, an die Verarbeitungseinheit umfassen. Die Verarbeitungseinheit kann dazu ausgebildet sein, das zumindest eine Zielobjekt und das zumindest eine weitere Objekt, insbesondere mehrere weitere Objekte, in den Bilddaten zu identifizieren. Insbesondere kann die Verarbeitungseinheit dazu ausgebildet sein, eine Abbildung des zumindest einen Zielobjekts und eine Abbildung des zumindest einen weiteren Objekts in den Bilddaten, insbesondere den ersten und/oder den weiteren Bilddaten, zu identifizieren, beispielsweise mittels einer Objekterkennung und/oder Mustererkennung und/oder Segmentierung. Das zumindest eine weitere Objekt kann beispielsweise ein medizinisches Objekt und/oder ein Untersuchungsobjekt und/oder ein medizinisches Bedienpersonal umfassen. Die Verarbeitungseinheit kann vorteilhafterweise dazu ausgebildet sein, anhand der Bilddaten, insbesondere anhand einer Abbildung des zumindest einen Zielobjekts in den Bilddaten, eine, insbesondere momentane, Positionierung, insbesondere eine räumliche Position und/oder Ausrichtung und/oder Pose, des zumindest einen Zielobjekts zu bestimmen. Ferner kann die Verarbeitungseinheit dazu ausgebildet sein, anhand der Bilddaten, insbesondere anhand einer Abbildung des zumindest einen weiteren Objekts in den Bilddaten, die, insbesondere momentane, Positionierung des zumindest einen weiteren Objekts zu bestimmen. Insbesondere kann die Verarbeitungseinheit anhand der Bilddaten eine, insbesondere momentane, Relativpositionierung des zumindest einen Zielobjekts und des zumindest einen weiteren Objekts bestimmen.
  • Dabei kann die Verarbeitungseinheit dazu ausgebildet sein, anhand des identifizierten zumindest einen weiteren Objekts, insbesondere anhand der Positionierung des zumindest einen weiteren Objekts, das Repositionieren der Strangkamera kollisionsfrei zu steuern. Die Verarbeitungseinheit kann beispielsweise zum Repositionieren der Strangkamera einen Pfad planen, welcher beabstandet von der Positionierung des zumindest einen weiteren Objekts, insbesondere beabstandet von den Positionierungen der mehreren weiteren Objekte, verläuft.
  • Die vorgeschlagene Ausführungsform kann vorteilhaft ein kollisionsfreies Repositionieren der Strangkamera, insbesondere bezüglich des zumindest einen Zielobjekts und des zumindest einen weiteren Objekts, zum Erfassen des zumindest einen Zielobjekts ermöglichen.
  • In einer weiteren vorteilhaften Ausführungsform des vorgeschlagenen Überwachungssystems kann die Verarbeitungseinheit dazu ausgebildet sein, die Strangkamera derart zu steuern, dass zumindest in dem ersten Betriebszustand des Überwachungssystems mehrere von der Strangkamera zu erfassende Zielobjekte in dem Sichtfeld angeordnet sind und die Strangkamera die ersten Bilddaten aufweisend eine Abbildung der mehren Zielobjekte erfasst.
  • Die mehreren Zielobjekte können zumindest teilweise, insbesondere vollständig, verschieden oder gleich ausgebildet sein. Ferner können die mehreren Zielobjekte zumindest teilweise aneinander angrenzend oder beabstandet voneinander in der medizinischen Umgebung angeordnet sein. Zudem können die mehreren Zielobjekte zumindest teilweise beweglich sein. Vorteilhafterweise kann die Verarbeitungseinheit die Strangkamera, insbesondere das Repositionieren der Strangkamera, derart steuern, dass zumindest in dem ersten Betriebszustand die mehreren Zielobjekte, insbesondere gleichzeitig, in dem Sichtfeld der Strangkamera angeordnet sind. Hierdurch kann die Strangkamera die ersten Bilddaten aufweisend die Abbildung der mehreren Zielobjekte erfassen. Die Verarbeitungseinheit kann vorteilhafterweise dazu ausgebildet sein, eine Information zu den mehreren Zielobjekten zu empfangen, insbesondere geometrische Merkmale, beispielsweise eine Form und/oder Kontur, und/oder eine optisch beobachtbare Eigenschaft, beispielsweise ein Muster und/oder eine Markerstruktur. Ferner kann die Verarbeitungseinheit dazu ausgebildet sein, anhand der Information zu den mehreren Zielobjekten in den von der Strangkamera erfassten Bilddaten, insbesondere den initialen Bilddaten, zu überprüfen, ob die mehreren Zielobjekte in dem Sichtfeld der Strangkamera angeordnet sind. Beispielsweise kann die Verarbeitungseinheit dazu ausgebildet sein, eine Abbildung der geometrischen Merkmale und/oder der optisch beobachtbaren Eigenschaft in den initialen Bilddaten zu identifizieren. Vorteilhafterweise kann die Verarbeitungseinheit die Strangkamera, insbesondere wiederholt, derart repositionieren, dass die mehreren Zielobjekte in dem Sichtfeld der Strangkamera angeordnet sind und in den ersten Bilddaten abbildbar sind.
  • Die vorgeschlagene Ausführungsform kann ein verbessertes Erfassen mehrerer Zielobjekte in der medizinischen Umgebung ermöglichen.
  • In einer weiteren vorteilhaften Ausführungsform des vorgeschlagenen Überwachungssystems kann die Kameraeinheit dazu ausgebildet sein, die erfassten Bilddaten an die Verarbeitungseinheit bereitzustellen. Ferner kann die Verarbeitungseinheit dazu ausgebildet sein, eine Kollisionswahrscheinlichkeit zwischen den mehreren Zielobjekten anhand der Bilddaten zu bestimmen und ein Signal in Abhängigkeit der Kollisionswahrscheinlichkeit bereitzustellen.
  • Das Bereitstellen der erfassten Bilddaten kann ein Übertragen der ersten und/oder der weiteren Bilddaten von der Kameraeinheit, insbesondere der Strangkamera und/oder der zumindest einen weiteren Kamera, an die Verarbeitungseinheit umfassen. Die Kameraeinheit kann vorteilhafterweise zur wiederholten und/oder kontinuierlichen Erfassung der Bilddaten ausgebildet sein. Insbesondere kann die Strangkamera zur wiederholten und/oder kontinuierlichen Erfassung der ersten und/oder der weiteren Bilddaten ausgebildet sein. Ferner kann die zumindest eine weitere Kamera zur wiederholten und/oder kontinuierlichen Erfassung der weiteren Bilddaten ausgebildet sein. Dabei kann vorteilhafterweise eine Bewegung zumindest eines der mehreren Zielobjekte in den Bilddaten, insbesondere den ersten und/oder den weiteren Bilddaten, abgebildet sein, insbesondere zeitaufgelöst. Die Verarbeitungseinheit kann vorteilhafterweise dazu ausgebildet sein, die Relativpositionierung der mehreren Zielobjekte anhand der Bilddaten, insbesondere anhand der Abbildung der mehreren Zielobjekte in den Bilddaten, zu bestimmen. Hierfür kann die Verarbeitungseinheit dazu ausgebildet sein, eine Abbildung der mehreren Zielobjekte in den Bilddaten, insbesondere den ersten und/oder den weiteren Bilddaten, zu identifizieren, beispielsweise mittels einer Objekterkennung und/oder Mustererkennung und/oder Segmentierung.
  • Ferner kann die Verarbeitungseinheit dazu ausgebildet sein, eine Relativbewegung der mehreren Zielobjekte anhand der Bilddaten, insbesondere anhand der in den Bilddaten abgebildeten Bewegung der mehreren Zielobjekte, zu bestimmen. Alternativ oder zusätzlich kann die Verarbeitungseinheit dazu ausgebildet sein, einen Betriebsparameter zumindest eines der mehreren Zielobjekte zu empfangen. Dabei kann der Betriebsparameter eine Information zu einer, insbesondere momentanen, Bewegungsrichtung und/oder Bewegungsgeschwindigkeit des zumindest einen Zielobjekts aufweisen. Ferner kann die Verarbeitungseinheit dazu ausgebildet sein, die Relativbewegung der mehreren Zielobjekte anhand der Bilddaten, insbesondere anhand der Relativpositionierung des zumindest einen Zielobjekts bezüglich der übrigen Zielobjekte, und des Betriebsparameters zu bestimmen. Vorteilhafterweise kann die Verarbeitungseinheit die Kollisionswahrscheinlichkeit, insbesondere einen Wahrscheinlichkeitswert einer Kollision und/oder Annäherung, zwischen den mehreren Zielobjekten anhand der Bilddaten, insbesondere anhand der Relativbewegung der mehreren Zielobjekte, bestimmen. Die Verarbeitungseinheit kann ferner dazu ausgebildet sein, das Signal in Abhängigkeit der Kollisionswahrscheinlichkeit, insbesondere aufweisend eine Information zu der Kollisionswahrscheinlichkeit, beispielsweise den Wahrscheinlichkeitswert, bereitzustellen. Das Bereitstellen des Signals kann ein Speichern auf einem computerlesbaren Speichermedium und/oder ein Anzeigen auf einer Darstellungseinheit und/oder ein Übertragen an zumindest eines der mehreren Zielobjekte umfassen. Ferner kann das Bereitstellen des Signals eine Ausgabe eines Workflow-Hinweises an ein medizinisches Bedienpersonal, beispielsweise ein akustisches und/oder optisches und/oder haptisches Signal, umfassen.
  • Die vorgeschlagene Ausführungsform kann durch die Überwachung der mehreren Zielobjekte und das Bereitstellen des Signals in Abhängigkeit der Kollisionswahrscheinlichkeit eine Kollision zwischen den mehreren Zielobjekten verhindern.
  • In einer weiteren vorteilhaften Ausführungsform des vorgeschlagenen Überwachungssystems kann zumindest eines der mehren Zielobjekte ein bewegbares medizinisches Objekt umfassen. Dabei kann die Verarbeitungseinheit dazu ausgebildet sein, das Signal an das bewegbare medizinische Objekt bereitzustellen und mittels des Signals eine Bewegung des bewegbaren medizinischen Objekts zu steuern.
  • Zumindest eines der mehreren Zielobjekte kann ein bewegbares medizinisches Objekt, beispielsweise eine Patientenlagerungsvorrichtung und/oder ein medizinisches Bildgebungsgerät und/oder ein medizinisches Behandlungsgerät, umfassen. Vorteilhafterweise kann die Verarbeitungseinheit dazu ausgebildet sein, das Signal an das bewegbare medizinische Objekt bereitzustellen. Ferner kann die Verarbeitungseinheit dazu ausgebildet sein, die Bewegung des medizinischen Objekts mittels des Signals zu steuern. Beispielsweise kann die Verarbeitungseinheit dazu ausgebildet sein, eine, insbesondere momentane, Bewegung, insbesondere eine Bewegungsrichtung und/oder Bewegungsgeschwindigkeit, des medizinischen Objekts in Abhängigkeit der Kollisionswahrscheinlichkeit derart anzupassen, dass die Kollisionswahrscheinlichkeit verringert wird. Das Anpassen der Bewegung des medizinischen Objekts in Abhängigkeit der Kollisionswahrscheinlichkeit kann beispielsweise ein Abbremsen und/oder Ausweichen umfassen.
  • Die vorgeschlagene Ausführungsform kann eine sichere Kollisionsvermeidung zwischen den mehreren Zielobjekten ermöglichen.
  • In einer weiteren vorteilhaften Ausführungsform des vorgeschlagenen Überwachungssystems kann die medizinische Umgebung einen Raum umfassen. Dabei kann das zumindest eine Zielobjekt in einem Betriebszustand des Überwachungssystems in dem Raum angeordnet sein, insbesondere in dem ersten und/oder dem weiteren Betriebszustand des Überwachungssystems. Ferner können die Stranghalterungen an einer Seitenwand und/oder Decke des Raumes befestigt sein.
  • Der Raum kann zumindest eine, insbesondere mehrere Seitenwände, und eine Decke, insbesondere eine Raumdecke, umfassen. Insbesondere kann der Raum durch die zumindest eine Seitenwand und die Raumdecke begrenzt sein. Vorteilhafterweise kann das zumindest eine Zielobjekt in einem Betriebszustand des Überwachungssystems, insbesondere in dem ersten und dem weiteren Betriebszustand, in dem Raum angeordnet sein. Zudem können die Stranghalterungen an der zumindest einen Seitenwand, insbesondere an einer gemeinsamen Seitenwand oder an verschiedenen Seitenwänden, befestigt sein. Alternativ oder zusätzlich können die Stranghalterungen an der Decke des Raumes befestigt sein, beispielsweise an den Eckpunkten eines Rechtecks.
  • Hierdurch kann eine präzise und flexible Überwachung des zumindest einen Zielobjekts ermöglicht werden, insbesondere ohne eine medizinische Prozedur innerhalb der medizinischen Umgebung zu behindern.
  • Die Erfindung betrifft in einem zweiten Aspekt ein Verfahren zu Überwachung zumindest eines Zielobjekts mittels eines vorgeschlagenen Überwachungssystems. Dabei werden erste Bilddaten aufweisend eine Abbildung des zumindest einen Zielobjekts erfasst und bereitgestellt. Das Erfassen der ersten Bilddaten kann mehrere Schritte umfassen. In einem ersten Schritt a) werden initiale Bilddaten des Sichtfelds der Strangkamera mittels der Strangkamera erfasst. In einem zweiten Schritt b) wird anhand der initialen Bilddaten überprüft, ob das zumindest eine Zielobjekt innerhalb des Sichtfelds angeordnet ist.
  • Verneinendenfalls wird die Strangkamera repositioniert und die Schritte a) und b) wiederholt ausgeführt. Bejahendenfalls werden die initialen Bilddaten als die ersten Bilddaten bereitgestellt.
  • Die Vorteile des vorgeschlagenen Verfahrens entsprechen im Wesentlichen den Vorteilen des vorgeschlagenen Überwachungssystems. Hierbei erwähnte Merkmale, Vorteile oder alternative Ausführungsformen können ebenso auch auf die anderen beanspruchten Gegenstände übertragen werden und umgekehrt.
  • Die initialen Bilddaten können eine 2D und/oder 3D räumlich aufgelöste Abbildung des Sichtfelds der Strangkamera aufweisen. Zusätzlich können die initialen Bilddaten zeitaufgelöst sein. Im Schritt b) kann überprüft werden, ob das zumindest eine Zielobjekt innerhalb des Sichtfelds der Strangkamera angeordnet ist. Insbesondere kann in Schritt b) überprüft werden, ob die initialen Bilddaten eine Abbildung des zumindest einen Zielobjekts aufweisen. Das Überprüfen in Schritt b) kann beispielsweise ein Anwenden einer Objekterkennung und/oder einer Mustererkennung und/oder einer Segmentierung auf die initialen Bilddaten umfassen. Verneinendenfalls, insbesondere bei einer Anordnung des zumindest einen Zielobjekts außerhalb des Sichtfelds der Strangkamera, kann die Strangkamera repositioniert werden. Ferner können verneinendenfalls die Schritte a) und b) wiederholt ausgeführt werden, insbesondere so lange bis das zumindest eine Zielobjekt in dem Sichtfeld der Strangkamera angeordnet ist und/oder bis eine vorgegebene Anzahl von Wiederholungen erreicht ist. Bejahendenfalls, insbesondere bei einer Anordnung des zumindest einen Zielobjekts in dem Sichtfeld der Strangkamera, können die initialen Bilddaten als die ersten Bilddaten bereitgestellt werden.
  • Das Bereitstellen der initialen Bilddaten als die ersten Bilddaten kann ein Speichern auf einem computerlesbaren Speichermedium und/oder ein Anzeigen auf einer Darstellungseinheit umfassen. Insbesondere kann das Bereitstellen der initialen Bilddaten ein Anzeigen einer graphischen Darstellung der initialen Bilddaten umfassen.
  • In einer weiteren vorteilhaften Ausführungsform des vorgeschlagenen Verfahrens können die ersten Bilddaten aus einer ersten Abbildungsrichtung mittels der Strangkamera erfasst werden. Dabei kann die Strangkamera während des Erfassens der ersten Bilddaten in einer ersten Positionierung angeordnet sein. Die Strangkamera kann von der ersten Positionierung in eine weitere Positionierung repositioniert werden. In der weiteren Positionierung kann das zumindest eine Zielobjekt in dem Sichtfeld der Strangkamera angeordnet sein. Zudem können in der weiteren Positionierung mittels der Strangkamera weitere Bilddaten des Zielobjekt aus einer weiteren Abbildungsrichtung erfasst werden, welche verschieden von der ersten Abbildungsrichtung ist und einen vorbestimmten, insbesondere rechten, Winkel bezüglich der ersten Abbildungsrichtung aufweist. Vorteilhafterweise kann eine dreidimensionale Repräsentation des zumindest einen Zielobjekts anhand der ersten und der weiteren Bilddaten rekonstruiert werden. Dabei kann das Bereitstellen zusätzlich ein Bereitstellen der dreidimensionalen Repräsentation des zumindest einen Zielobjekts umfassen.
  • In einer weiteren vorteilhaften Ausführungsform des vorgeschlagenen Verfahrens können weitere Bilddaten des zumindest ein Zielobjekts mittels einer weiteren Kamera aus einer weiteren Abbildungsrichtung erfasst werden. Dabei kann die Strangkamera zur Erfassung der ersten Bilddaten derart positioniert werden, dass die Strangkamera die ersten Bilddaten aus einer ersten Abbildungsrichtung erfasst, welche verschieden von der weiteren Abbildungsrichtung ist und einen vorgegebenen, insbesondere rechten, Winkel bezüglich der weiteren Abbildungsrichtung aufweist. Vorteilhafterweise kann eine dreidimensionale Repräsentation des zumindest einen Zielobjekts anhand der ersten und der weiteren Bilddaten rekonstruiert werden. Dabei kann das Bereitstellen zusätzlich ein Bereitstellen der dreidimensionalen Repräsentation des zumindest einen Zielobjekts umfassen.
  • In einer weiteren vorteilhaften Ausführungsform des vorgeschlagenen Verfahrens kann anhand der Bilddaten eine Phase einer medizinischen Prozedur identifiziert werden, welche in den Bilddaten abgebildet ist. Dabei kann das Repositionieren der Strangkamera zusätzlich in Abhängigkeit der identifizierten Phase erfolgen.
  • In einer weiteren vorteilhaften Ausführungsform des vorgeschlagenen Verfahrens kann die Strangkamera derart positioniert werden, dass mehrere zur erfassende Zielobjekt in dem Sichtfeld der Strangkamera angeordnet sind. Dabei können die ersten Bilddaten aufweisend eine Abbildung der mehreren Zielobjekte erfasst werden. Des Weiteren kann eine Kollisionswahrscheinlichkeit zwischen den mehreren Zielobjekten anhand der Bilddaten bestimmt werden. Dabei kann ein Signal in Abhängigkeit der Kollisionswahrscheinlichkeit bereitgestellt werden.
  • Die Erfindung betrifft in einem dritten Aspekt ein Computerprogrammprodukt mit einem Computerprogramm, welches direkt in einen Speicher einer Verarbeitungseinheit ladbar ist, mit Programmabschnitten, um alle Schritte eines vorgeschlagenen Verfahrens zur Überwachung zumindest eines Zielobjekts auszuführen, wenn die Programmabschnitte von der Verarbeitungseinheit ausgeführt werden.
  • Die Erfindung kann ferner ein computerlesbares Speichermedium betreffen, auf welchem von einer Verarbeitungseinheit lesbare und ausführbare Programmabschnitte gespeichert sind, um alle Schritte des Verfahrens zu Überwachung zumindest eines Zielobjekts auszuführen, wenn die Programmabschnitte von der Verarbeitungseinheit ausgeführt werden.
  • Eine weitgehend softwaremäßige Realisierung hat den Vorteil, dass schon bisher verwendete Verarbeitungseinheiten auf einfache Weise durch ein Software-Update nachgerüstet werden können, um auf die erfindungsgemäße Weise zu arbeiten. Ein solches Computerprogrammprodukt kann neben dem Computerprogramm gegebenenfalls zusätzliche Bestandteile, wie zum Beispiel eine Dokumentation und/oder zusätzliche Komponenten, sowie Hardware-Komponenten, wie zum Beispiel Hardware-Schlüssel (Dongles etc.) zur Nutzung der Software, umfassen.
  • Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und werden im Folgenden näher beschrieben. In unterschiedlichen Figuren werden für gleiche Merkmale die gleichen Bezugszeichen verwendet. Es zeigen:
    • 1 und 2 schematische Darstellungen verschiedener vorteilhafter Ausführungsformen eines Überwachungssystems,
    • 3 bis 6 schematische Darstellungen verschiedener vorteilhafter Ausführungsformen eines Verfahrens zur Überwachung zumindest eines Zielobjekts.
  • In 1 ist eine vorteilhafte Ausführungsform eines Überwachungssystems zur Überwachung zumindest eines Zielobjekts in einer medizinischen Umgebung schematisch dargestellt. Das zumindest eine Zielobjekt kann beispielsweise ein medizinisches Bildgebungsgerät, insbesondere ein medizinisches C-Bogen-Röntgengerät 37, und/oder ein auf einer Patientenlagerungsvorrichtung 32 angeordnetes Untersuchungsobjekt 31 und/oder ein medizinisches Bedienpersonal P umfassen. Dabei kann das Überwachungssystem eine Kameraeinheit und eine Verarbeitungseinheit PU umfassen. Die Kameraeinheit kann eine Aufhängung und eine Strangkamera SC umfassen. Ferner kann die Aufhängung zumindest einen Strang S und zumindest zwei Stranghalterungen B1 und B2 umfassen. Die Stranghalterungen B1 und B2 können den zumindest einen Strang S an jeweils einem Raumpunkt halten. Die Aufhängung kann ferner eine Kamerahalterung SCM umfassen, welche die Strangkamera SC an dem zumindest einen Strang S hält. Die Strangkamera SC kann ein Sichtfeld aufweisen und zur Erfassung des Sichtfelds ausgebildet sein. Ferner kann die Strangkamera SC durch eine Bewegung des zumindest einen Strangs S bezüglich der Stranghalterungen B1 und B2 und/oder eine Bewegung der Strangkamera SC bezüglich des zumindest einen Strangs S repositionierbar sein. Die Verarbeitungseinheit PU kann dazu ausgebildet sein, die Stranghalterungen B1 und B2 mittels jeweils eines Signals CS1 und CS2 zum Bewegen des Strangs S zu steuern. Ferner kann die Verarbeitungseinheit PU dazu ausgebildet sein, mittels eines Signals SIG eine Bewegung der Kamerahalterung SCM, insbesondere der Strangkamera SC, bezüglich des Strangs S zu steuern. Vorteilhafterweise kann die Verarbeitungseinheit PU dazu ausgebildet sein, die Strangkamera SC derart zu steuern, dass in einem ersten Betriebszustand des Überwachungssystems das zumindest eine von der Strangkamera SC zu erfassende Zielobjekt in dem Sichtfeld angeordnet ist und die Strangkamera SC erste Bilddaten aufweisend eine Abbildung des zumindest einen Zielobjekts erfasst.
  • Das Überwachungssystem kann ferner eine Eingabeeinheit 42, beispielsweise eine Tastatur, und eine Darstellungseinheit 41, beispielsweise einen Monitor und/oder ein Display und/oder einen Projektor, aufweisen. Die Eingabeeinheit 42 kann vorzugsweise in die Darstellungseinheit 41 integriert sein, beispielsweise bei einem kapazitiven und/oder resistiven Eingabedisplay. Die Eingabeeinheit 42 kann vorteilhafterweise zur Erfassung einer Eingabe des medizinischen Bedienpersonals P ausgebildet sein. Hierfür kann die Eingabeeinheit 42 beispielsweise ein Signal 26 an die Verarbeitungseinheit PU senden. Die Verarbeitungseinheit PU kann dazu ausgebildet sein, das medizinische C-Bogen-Röntgengerät 37 und/oder die Strangkamera SC in Abhängigkeit der Eingabe, insbesondere in Abhängigkeit des Signals 26, zu steuern. Die Darstellungseinheit 41 kann vorteilhafterweise dazu ausgebildet sein, eine graphische Darstellung der von der Strangkamera SC erfassten Bilddaten anzuzeigen. Hierfür kann die Verarbeitungseinheit PU ein Signal 25 an die Darstellungseinheit 41 senden.
  • Vorteilhafterweise kann die Strangkamera SC in dem ersten Betriebszustand die ersten Bilddaten aus einer ersten Abbildungsrichtung erfassen. Ferner kann die Verarbeitungseinheit PU dazu ausgebildet sein, die Strangkamera SC derart zu steuern, dass in einem weiteren Betriebszustand des Überwachungssystems das zumindest eine Zielobjekt in dem Sichtfeld der Strangkamera SC angeordnet ist und die Strangkamera SC weitere Bilddaten des Zielobjekts aus einer weiteren Abbildungsrichtung erfasst, welche verschieden von der ersten Abbildungsrichtung ist und einen vorgegebenen, insbesondere rechten, Winkel bezüglich der ersten Abbildungsrichtung aufweist. Des Weiteren kann die Strangkamera SC dazu ausgebildet ist, die ersten und die weiteren Bilddaten an die Verarbeitungseinheit PU bereitzustellen. Ferner kann die Verarbeitungseinheit PU dazu ausgebildet sein, eine dreidimensionale Repräsentation des zumindest einen Zielobjekts anhand der ersten und der weiteren Bilddaten zu rekonstruieren.
  • Ferner kann die Kamerahalterung SCM die Strangkamera SC an dem zumindest einen Strang S rotierbar und/oder verschwenkbar bezüglich des zumindest einen Strangs S halten. Des Weiteren kann die Kameraeinheit dazu ausgebildet sein, die erfassten Bilddaten an die Verarbeitungseinheit PU bereitzustellen. Die Verarbeitungseinheit PU kann ferner dazu ausgebildet sein, anhand der Bilddaten eine Phase einer medizinischen Prozedur zu identifizieren, welche in den Bilddaten abgebildet ist. Zudem kann die Verarbeitungseinheit PU dazu ausgebildet sein, das Repositionieren der Strangkamera SC zusätzlich in Abhängigkeit der identifizierten Phase zu steuern.
  • Die Verarbeitungseinheit PU kann ferner dazu ausgebildet sein, die Strangkamera SC derart zu steuern, dass zumindest in dem ersten Betriebszustand des Überwachungssystems mehrere von der Strangkamera SC zu erfassende Zielobjekte in dem Sichtfeld angeordnet sind und die Strangkamera SC die ersten Bilddaten aufweisend eine Abbildung der mehreren Zielobjekte erfasst. Dabei kann die Kameraeinheit dazu ausgebildet sein, die erfassten Bilddaten an die Verarbeitungseinheit PU bereitzustellen. Ferner kann die Verarbeitungseinheit PU dazu ausgebildet sein, eine Kollisionswahrscheinlichkeit zwischen den mehreren Zielobjekten anhand der Bilddaten zu bestimmen und ein Signal IS in Abhängigkeit der Kollisionswahrscheinlichkeit bereitzustellen.
  • Zumindest eines der mehreren Zielobjekte, insbesondere das medizinische Bildgebungsgerät 37, kann bewegbar sein. Dabei kann die Verarbeitungseinheit PU dazu ausgebildet sein, das Signal an das bewegbare medizinische Bildgebungsgerät 37 bereitzustellen und mittels des Signals IS eine Bewegung des bewegbaren medizinischen Bildgebungsgeräts 37 zu steuern.
  • 2 zeigt eine schematische Darstellung einer weiteren vorteilhaften Ausführungsform eines vorgeschlagenen Überwachungssystems. Dabei kann die Aufhängung mehrere, insbesondere zwei, Stränge S1 und S2 und zumindest drei, insbesondere vier, Stranghalterungen B1 bis B4 umfassen. Die Stranghalterungen B1 bis B4 können die mehreren Stränge S1 und S2 an jeweils einem Raumpunkt halten. Ferner kann die Kamerahalterung SCM die Strangkamera Sc an den mehreren Strängen S1 und S2 halten. Dabei kann die Strangkamera SC durch eine Bewegung zumindest eines der mehreren Stränge S1 und S2 und/oder eine Bewegung der Strangkamera SC bezüglich zumindest eines der mehreren Stränge S1 und S2 repositionierbar sein. Die Verarbeitungseinheit PU kann dazu ausgebildet sein, die Stranghalterungen B1 bis B4 mittels jeweils eines Signals CS1 bis CS4 zum Bewegen der Stränge S1 und S2 zu steuern.
  • Vorteilhafterweise kann die Kameraeinheit zumindest eine weitere Kamera FC umfassen. Dabei kann die weitere Kamera FC ein weiteres Sichtfeld aufweisen und zur Erfassung des weiteren Sichtfelds ausgebildet sein. In dem ersten Betriebszustand des Überwachungssystems kann die zumindest eine weitere Kamera FC derart positioniert sein, dass das zumindest eine Zielobjekt in dem weiteren Sichtfeld angeordnet ist. Ferner kann in dem ersten Betriebszustand die weitere Kamera FC weitere Bilddaten des Zielobjekts aus einer weiteren Abbildungsrichtung erfassen. Die Verarbeitungseinheit PU kann in dem ersten Betriebszustand zudem die Strangkamera SC derart steuern, dass die Strangkamera SC die ersten Bilddaten aus einer ersten Abbildungsrichtung erfasst, welche verschieden von der weiteren Abbildungsrichtung ist und einen vorgegebenen, insbesondere rechten, Winkel bezüglich der weiteren Abbildungsrichtung aufweist. Des Weiteren kann die Kameraeinheit dazu ausgebildet sein, die ersten und die weiteren Bilddaten an die Verarbeitungseinheit PU bereitzustellen. Insbesondere kann die zumindest eine weitere Kamera FC dazu ausgebildet sein, die weiteren Bilddaten mittels eines Signals SIG2 an die Verarbeitungseinheit PU bereitzustellen. Die Verarbeitungseinheit PU kann dabei dazu ausgebildet sein, eine dreidimensionale Repräsentation des zumindest einen Zielobjekts anhand der ersten und der weiteren Bilddaten zu rekonstruieren. Die Darstellungseinheit 41 kann ferner dazu ausgebildet sein, eine graphische Darstellung der weiteren Bilddaten und/oder der 3D-Repräsentation des zumindest einen Zielobjekts anzuzeigen.
  • Die Verarbeitungseinheit PU kann ferner dazu ausgebildet sein, weitere Objekte zu identifizieren, welche in den Bilddaten abgebildet sind und das Repositionieren der Strangkamera SC kollisionsfrei bezüglich der weiteren Objekte zu steuern.
  • Vorteilhafterweise kann die medizinische Umgebung einen Raum umfassen. Dabei kann das zumindest eine Zielobjekt in einem Betriebszustand des Überwachungssystems in dem Raum angeordnet sein. Zudem können die Stranghalterungen B1 bis B4 an einer Seitenwand und/oder Decke des Raumes befestigt sein.
  • In 3 ist eine vorteilhafte Ausführungsform eines Verfahrens zur Überwachung zumindest eines Zielobjekts mittels eines vorgeschlagenen Überwachungssystems schematisch dargestellt. Dabei können die ersten Bilddaten BD1 aufweisend eine Abbildung des zumindest einen Zielobjekts erfasst ACQ-BD1 und bereitgestellt werden PROV-BD1. Das Erfassen ACQ-BD1 der ersten Bilddaten BD1 kann mehrere Schritte umfassen. In einem ersten Schritt a) können initiale Bilddaten iBD des Sichtfelds der Strangkamera SC mittels der Strangkamera SC erfasst werden ACQ-iBD. In einem zweiten Schritt b) kann anhand der initialen Bilddaten iBD überprüft werden CK, ob das zumindest eine Zielobjekt innerhalb des Sichtfelds angeordnet ist. Verneinendenfalls N können die Strangkamera SC repositioniert RPOS-SC und die Schritte a) und b) wiederholt ausgeführt werden. Bejahendenfalls Y können die initialen Bilddaten iBD als die ersten Bilddaten bereitgestellt werden PROV-iBD.
  • 4 zeigt eine schematische Darstellung einer weiteren vorteilhaften Ausführungsform eines vorgeschlagenen Verfahrens zur Überwachung zumindest eines Zielobjekts. Dabei können die ersten Bilddaten aus einer ersten Abbildungsrichtung mittels der Strangkamera SC erfasst werden. Ferner kann die Strangkamera SC während des Erfassens der ersten Bilddaten in einer ersten Positionierung angeordnet sein. Die Strangkamera kann ferner von der ersten Positionierung in eine weitere Positionierung repositioniert werden RPOS2-SC. Dabei können in der weiteren Positionierung das zumindest eine Zielobjekt in dem Sichtfeld der Strangkamera SC angeordnet sein und mittels der Strangkamera SC weitere Bilddaten fBD des Zielobjekts aus einer weiteren Abbildungsrichtung erfasst werden ACQ-fBD, welche verschieden von der ersten Abbildungsrichtung ist und einen vorgegebenen, insbesondere rechten, Winkel bezüglich der ersten Abbildungsrichtung aufweist. Zudem kann eine dreidimensionale Repräsentation des zumindest einen Zielobjekts anhand der ersten und der weiteren Bilddaten fBD rekonstruiert werden RECO-RP. Das Bereitstellen kann ein Bereitstellen der 3D-Repräsentation des zumindest einen Zielobjekts PROV-RP umfassen.
  • In 5 ist eine weitere vorteilhafte Ausführungsform eines vorgeschlagenen Verfahrens zur Überwachung eines Zielobjekts schematisch dargestellt. Dabei können weitere Bilddaten fBD aufweisend eine Abbildung des zumindest einen Zielobjekts aus einer weiteren Abbildungsrichtung erfasst werden ACQ-fBD.
  • Vorteilhafterweise kann die Strangkamera SC zur Erfassung der ersten Bilddaten derart positioniert werden, dass die Strangkamera die ersten Bilddaten aus einer ersten Abbildungsrichtung erfasst, welche verschieden von der weiteren Abbildungsrichtung ist und einen vorgegebenen, insbesondere rechten, Winkel bezüglich der weiteren Abbildungsrichtung aufweist. Zudem kann eine 3D-Repräsentation des zumindest einen Zielobjekts anhand der ersten BD1 und der weiteren Bilddaten fBD rekonstruiert werden RECO-RP.
  • 6 zeigt eine schematische Darstellung einer weiteren vorteilhaften Ausführungsform eines vorgeschlagenen Verfahrens zur Überwachung eines Zielobjekts. Dabei kann anhand der Bilddaten eine Phase einer medizinischen Prozedur identifiziert werden ID-PH, welche in den Bilddaten abgebildet ist. Ferner kann das Repositionieren RPOS-SC der Strangkamera SC zusätzlich in Abhängigkeit der identifizierten Phase erfolgen.
  • Vorteilhafterweise kann die Strangkamera SC derart repositioniert werden RPOS-SC, dass mehrere zu erfassende Zielobjekte in dem Sichtfeld der Strangkamera SC angeordnet sind. Dabei können die ersten Bilddaten aufweisend eine Abbildung der mehreren Zielobjekts erfasst werden. Ferner kann eine Kollisionswahrscheinlichkeit zwischen den mehreren Zielobjekten anhand der Bilddaten bestimmt werden DET-CP. Zudem kann ein Signal in Abhängigkeit der Kollisionswahrscheinlichkeit bereitgestellt werden PROV-CP.
  • Die in den beschriebenen Figuren enthaltenen schematischen Darstellungen bilden keinerlei Maßstab oder Größenverhältnisse ab.
  • Es wird abschließend noch einmal darauf hingewiesen, dass es sich bei den vorhergehenden detailliert beschriebenen Verfahren und Vorrichtungen lediglich um Ausführungsbeispiele handelt, welche vom Fachmann in verschiedenster Weise modifiziert werden können, ohne den Bereich der Erfindung zu verlassen. Weiterhin schließt die Verwendung der unbestimmten Artikel „ein“ bzw. „eine“ nicht aus, dass die betreffenden Merkmale auch mehrfach vorhanden sein können. Ebenso schließen die Begriffe „Einheit“ und „Element“ nicht aus, dass die betreffenden Komponenten aus mehreren zusammenwirkenden Teilkomponenten bestehen, die gegebenenfalls auch räumlich verteilt sein können.

Claims (17)

  1. Überwachungssystem zur Überwachung zumindest eines Zielobjekts in einer medizinischen Umgebung, umfassend eine Kameraeinheit und eine Verarbeitungseinheit (PU), wobei die Kameraeinheit eine Aufhängung und eine Strangkamera (SC) umfasst, wobei die Aufhängung zumindest einen Strang (S, S1, S2) und zumindest zwei Stranghalterungen (B1, B2, B3, B4) umfasst, wobei die Stranghalterungen (B1, B2, B3, B4) den zumindest einen Strang (S, S1, S2) an jeweils einem Raumpunkt halten, wobei die Aufhängung ferner eine Kamerahalterung (SCM) umfasst, welche die Strangkamera (SC) an dem zumindest einen Strang (S, S1, S2) hält, wobei die Strangkamera (SC) ein Sichtfeld aufweist und zur Erfassung des Sichtfelds ausgebildet ist, wobei die Strangkamera (SC) durch eine Bewegung des zumindest einen Strangs (S, S1, S2) bezüglich der Stranghalterungen (B1, B2, B3, B4) und/oder eine Bewegung der Strangkamera (SC) bezüglich des zumindest einen Strangs (S, S1, S2) repositionierbar ist, wobei die Verarbeitungseinheit (PU) dazu ausgebildet ist, die Strangkamera (SC) derart zu steuern, dass in einem ersten Betriebszustand des Überwachungssystems: - das zumindest eine Zielobjekt in dem Sichtfeld angeordnet ist und - die Strangkamera (SC) erste Bilddaten (BD1) aufweisend eine Abbildung des zumindest einen Zielobjekts erfasst (ACQ-BD1) .
  2. Überwachungssystem nach Anspruch 1, wobei die Strangkamera (SC) in dem ersten Betriebszustand die ersten Bilddaten (BD1) aus einer ersten Abbildungsrichtung erfasst (ACQ-BD1), wobei die Verarbeitungseinheit (PU) ferner dazu ausgebildet ist, die Strangkamera (SC) derart zu steuern, dass in einem weiteren Betriebszustand des Überwachungssystems: - das zumindest eine Zielobjekt in dem Sichtfeld der Strangkamera (SC) angeordnet ist und - die Strangkamera (SC) weitere Bilddaten (fBD) des zumindest einen Zielobjekts aus einer weiteren Abbildungsrichtung erfasst (ACQ-fBD), welche verschieden von der ersten Abbildungsrichtung ist und einen vorbestimmten Winkel bezüglich der ersten Abbildungsrichtung aufweist, wobei die Strangkamera (SC) dazu ausgebildet ist, die ersten (BD1) und die weiteren Bilddaten (fBD) an die Verarbeitungseinheit (PU) bereitzustellen, wobei die Verarbeitungseinheit (PU) dazu ausgebildet ist, eine dreidimensionale Repräsentation des zumindest einen Zielobjekts anhand der ersten (BD1) und der weiteren Bilddaten (fBD) zu rekonstruieren (RECO-RP).
  3. Überwachungssystem nach Anspruch 1, wobei die Kameraeinheit zumindest eine weitere Kamera (FC) umfasst, wobei die zumindest eine weitere Kamera (FC) ein weiteres Sichtfeld aufweist und zur Erfassung des weiteren Sichtfelds ausgebildet ist, wobei in dem ersten Betriebszustand des Überwachungssystems: - die zumindest eine weitere Kamera (FC) derart positioniert ist, dass das zumindest eine Zielobjekt in dem weiteren Sichtfeld angeordnet ist, - die zumindest eine weitere Kamera (FC) weitere Bilddaten des zumindest einen Zielobjekts aus einer weiteren Abbildungsrichtung erfasst, - die Verarbeitungseinheit (PU) die Strangkamera (SC) derart steuert, dass die Strangkamera (SC) die ersten Bilddaten (BD1) aus einer ersten Abbildungsrichtung erfasst, welche verschieden von der weiteren Abbildungsrichtung ist und einen vorbestimmten Winkel bezüglich der weiteren Abbildungsrichtung aufweist, wobei die Kameraeinheit dazu ausgebildet ist, die ersten (BD1) und die weiteren Bilddaten (fBD) an die Verarbeitungseinheit (PU) bereitzustellen, wobei die Verarbeitungseinheit (PU) dazu ausgebildet ist, eine dreidimensionale Repräsentation des zumindest einen Zielobjekts anhand der ersten (BD1) und der weiteren Bilddaten (fBD) zu rekonstruieren (RECO-RP).
  4. Überwachungssystem nach einem der vorangehenden Ansprüche, wobei die Aufhängung mehrere Stränge (S1, S2) und zumindest drei Stranghalterungen (B1, B2, B3, B4) umfasst, wobei die Stranghalterungen (B1, B2, B3, B4) die mehreren Stränge (S1, S2) an jeweils einem Raumpunkt halten, wobei die Kamerahalterung die Strangkamera (SC) an den mehreren Strängen (S1, S2) hält, wobei die Strangkamera (SC) durch eine Bewegung zumindest eines der mehreren Stränge (S1, S2) bezüglich der Stranghalterungen (B1, B2, B3, B4) und/oder eine Bewegung der Strangkamera (SC) bezüglich zumindest eines der mehreren Stränge (S1, S2) repositionierbar ist.
  5. Überwachungssystem nach einem der vorangehenden Ansprüche, wobei die Kamerahalterung (SCM) die Strangkamera (SC) an dem zumindest einen Strang (S1, S2) rotierbar und/oder verschwenkbar bezüglich des zumindest einen Strangs (S1, S2) hält.
  6. Überwachungssystem nach einem der vorangehenden Ansprüche, wobei die Kameraeinheit dazu ausgebildet ist, die erfassten Bilddaten an die Verarbeitungseinheit (PU) bereitzustellen, wobei die Verarbeitungseinheit (PU) dazu ausgebildet ist, anhand der Bilddaten eine Phase einer medizinischen Prozedur zu identifizieren (ID-PH), welche in den Bilddaten abgebildet ist, wobei die Verarbeitungseinheit (PU) dazu ausgebildet ist, das Repositionieren (RPOS-SC) der Strangkamera (SC) zusätzlich in Abhängigkeit der identifizierten Phase zu steuern.
  7. Überwachungssystem nach einem der vorangehenden Ansprüche, wobei die Kameraeinheit dazu ausgebildet ist, die erfassten Bilddaten an die Verarbeitungseinheit (PU) bereitzustellen, wobei die Verarbeitungseinheit (PU) dazu ausgebildet ist: - weitere Objekte zu identifizieren, welche in den Bilddaten abgebildet sind und - das Repositionieren (RPOS-SC) der Strangkamera (SC) kollisionsfrei bezüglich der weiteren Objekte zu steuern.
  8. Überwachungssystem nach einem der vorangehenden Ansprüche, wobei die Verarbeitungseinheit (PU) dazu ausgebildet ist, die Strangkamera (SC) derart zu steuern, dass zumindest in dem ersten Betriebszustand des Überwachungssystems: - mehrere von der Strangkamera (SC) zu erfassende Zielobjekte in dem Sichtfeld angeordnet sind und - die Strangkamera (SC) die ersten Bilddaten (BD1) aufweisend eine Abbildung der mehreren Zielobjekte erfasst (ACQ-BD1).
  9. Überwachungssystem nach Anspruch 8, wobei die Kameraeinheit dazu ausgebildet ist, die erfassten Bilddaten an die Verarbeitungseinheit (PU) bereitzustellen, wobei die Verarbeitungseinheit (PU) dazu ausgebildet ist: - eine Kollisionswahrscheinlichkeit zwischen den mehreren Zielobjekten anhand der Bilddaten zu bestimmen (DET-CP) und - ein Signal in Abhängigkeit der Kollisionswahrscheinlichkeit bereitzustellen (PROV-CP).
  10. Überwachungssystem nach Anspruch 9, wobei zumindest eines der mehreren Zielobjekte ein bewegbares medizinisches Objekt umfasst, wobei die Verarbeitungseinheit (PU) dazu ausgebildet ist, das Signal an das bewegbare medizinische Objekt bereitzustellen (PROV-CP) und mittels des Signals eine Bewegung des bewegbaren medizinischen Objekts zu steuern.
  11. Überwachungssystem nach einem der vorangehenden Ansprüche, wobei die medizinische Umgebung einen Raum umfasst, wobei das zumindest eine Zielobjekt in einem Betriebszustand des Überwachungssystems in dem Raum angeordnet ist, wobei die Stranghalterungen (B1, B2, B3, B4) an einer Seitenwand und/oder Decke des Raumes befestigt sind.
  12. Verfahren zur Überwachung zumindest eines Zielobjekts mittels eines Überwachungssystems nach einem der vorangehenden Ansprüche, wobei erste Bilddaten (BD1) aufweisend eine Abbildung des zumindest einen Zielobjekts erfasst (ACQ-BD1) und bereitgestellt werden (PROV-BD1), wobei das Erfassen (ACQ-BD1) der ersten Bilddaten (BD1) umfasst: a) Erfassen (ACQ-iBD) von initialen Bilddaten (iBD) des Sichtfelds der Strangkamera (SC) mittels der Strangkamera (SC), b) Überprüfen (CK) anhand der initialen Bilddaten (iBD), ob das zumindest eine Zielobjekt innerhalb des Sichtfelds angeordnet ist, wobei verneinendenfalls (N) die Strangkamera (SC) repositioniert wird (RPOS-SC) und die Schritte a) und b) wiederholt ausgeführt werden, wobei bejahendenfalls (Y) die initialen Bilddaten (iBD) als die ersten Bilddaten (BD1) bereitgestellt werden (PROV-iBD).
  13. Verfahren nach Anspruch 12, wobei die ersten Bilddaten (BD1) aus einer ersten Abbildungsrichtung mittels der Strangkamera (SC) erfasst werden (ACQ-BD1) , wobei die Strangkamera (SC) während des Erfassens der ersten Bilddaten (BD1) in einer ersten Positionierung angeordnet ist, wobei die Strangkamera (SC) von der ersten Positionierung in eine weitere Positionierung repositioniert wird (RPOS2-SC), wobei in der weiteren Positionierung: - das zumindest eine Zielobjekt in dem Sichtfeld der Strangkamera (SC) angeordnet ist und - mittels der Strangkamera (SC) weitere Bilddaten (fBD) des Zielobjekts aus einer weiteren Abbildungsrichtung erfasst werden, welche verschieden von der ersten Abbildungsrichtung ist und einen vorbestimmten Winkel bezüglich der ersten Abbildungsrichtung aufweist, wobei eine dreidimensionale Repräsentation des zumindest einen Zielobjekts anhand der ersten und der weiteren Bilddaten rekonstruiert wird (RECO-RP).
  14. Verfahren nach Anspruch 12, wobei weitere Bilddaten (fBD) aufweisend eine Abbildung des zumindest einen Zielobjekts mittels einer weiteren Kamera (FC) aus einer weiteren Abbildungsrichtung erfasst werden (ACQ-fBD) , wobei die Strangkamera (SC) zur Erfassung (ACQ-BD1) der ersten Bilddaten (BD1) derart positioniert wird, dass die Strangkamera (SC) die ersten Bilddaten (BD1) aus einer ersten Abbildungsrichtung erfasst, welche verschieden von der weiteren Abbildungsrichtung ist und einen vorbestimmten Winkel bezüglich der weiteren Abbildungsrichtung aufweist, wobei eine dreidimensionale Repräsentation des zumindest einen Zielobjekts anhand der ersten (BD1) und der weiteren Bilddaten (fBD) rekonstruiert wird (RECO-RP).
  15. Verfahren nach einem der Ansprüche 12 bis 14, wobei anhand der Bilddaten eine Phase einer medizinischen Prozedur identifiziert wird (ID-PH), welche in den Bilddaten abgebildet ist, wobei das Repositionieren (RPOS-SC) der Strangkamera (SC) zusätzlich in Abhängigkeit der identifizierten Phase erfolgt.
  16. Verfahren nach einem der Ansprüche 12 bis 15, wobei die Strangkamera (SC) derart positioniert wird, dass mehrere zu erfassende Zielobjekte in dem Sichtfeld der Strangkamera (SC) angeordnet sind, wobei die ersten Bilddaten (BD1) aufweisend eine Abbildung der mehreren Zielobjekte erfasst werden, wobei eine Kollisionswahrscheinlichkeit zwischen den mehreren Zielobjekten anhand der Bilddaten bestimmt wird (DET-CP), wobei ein Signal in Abhängigkeit der Kollisionswahrscheinlichkeit bereitgestellt wird (PROV-CP).
  17. Computerprogrammprodukt mit einem Computerprogramm, welches direkt in einen Speicher einer Verarbeitungseinheit (PU) ladbar ist, mit Programmabschnitten, um alle Schritte eines Verfahrens nach einem der Ansprüche 12 bis 16 auszuführen, wenn die Programmabschnitte von der Verarbeitungseinheit (PU) ausgeführt werden.
DE102022206327.9A 2022-06-23 2022-06-23 Überwachungssystem und Verfahren zur Überwachung zumindest eines Zielobjekts Active DE102022206327B3 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102022206327.9A DE102022206327B3 (de) 2022-06-23 2022-06-23 Überwachungssystem und Verfahren zur Überwachung zumindest eines Zielobjekts
US18/209,096 US20230421892A1 (en) 2022-06-23 2023-06-13 Monitoring system and method for monitoring at least one target object
CN202310735838.4A CN117281627A (zh) 2022-06-23 2023-06-20 用于监控至少一个目标对象的监控系统和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022206327.9A DE102022206327B3 (de) 2022-06-23 2022-06-23 Überwachungssystem und Verfahren zur Überwachung zumindest eines Zielobjekts

Publications (1)

Publication Number Publication Date
DE102022206327B3 true DE102022206327B3 (de) 2023-11-16

Family

ID=88510064

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022206327.9A Active DE102022206327B3 (de) 2022-06-23 2022-06-23 Überwachungssystem und Verfahren zur Überwachung zumindest eines Zielobjekts

Country Status (3)

Country Link
US (1) US20230421892A1 (de)
CN (1) CN117281627A (de)
DE (1) DE102022206327B3 (de)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008046346A1 (de) 2008-09-09 2010-03-18 Siemens Aktiengesellschaft Verfahren und Vorrichtung zum Überwachen eines räumlichen Bereichs, insbesondere des Umfelds eines bewegbaren medizinischen Geräts
DE202010013678U1 (de) 2010-09-28 2010-12-23 Förster, Dominik Positionsdatengespeistes Steuerungssystem für Kamera und Bühnentechnik zur automatisierten Ausrichtung auf definierte mobile Objekte
DE102011084444A1 (de) 2011-10-13 2013-04-18 Siemens Aktiengesellschaft Verfahren zur Ermittlung von Begrenzungsinformationen eines Patienten und/oder eines Objekts
US20190380793A1 (en) 2011-12-30 2019-12-19 Mako Surgical Corp. Integrated surgery method & system
EP4134966A1 (de) 2021-08-12 2023-02-15 TRUMPF Medizin Systeme GmbH + Co. KG Operationssaalvideoanalytiksysteme und -verfahren

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60500551A (ja) * 1982-12-01 1985-04-18 ブラウン,ギヤレツト ダブリユ. カメラなどの機器を支持し且つ搬送するための改良された懸垂システム
US6405072B1 (en) * 1991-01-28 2002-06-11 Sherwood Services Ag Apparatus and method for determining a location of an anatomical target with reference to a medical apparatus
US5225863A (en) * 1991-08-15 1993-07-06 Weir Jones Iain Remotely operated camera system with battery recharging system
US6975089B2 (en) * 2003-07-28 2005-12-13 Cablecam International Inc. System and method for facilitating fluid three-dimensional movement of an object via directional force
US7189909B2 (en) * 2004-11-23 2007-03-13 Román Viñoly Camera assembly for finger board instruments
US7658694B2 (en) * 2007-04-30 2010-02-09 Nike, Inc. Adaptive training system
US8002243B2 (en) * 2007-11-09 2011-08-23 J.R. Clancy, Inc. Configurable winch
WO2009105254A2 (en) * 2008-02-20 2009-08-27 Actioncam, Llc Aerial camera system
US8402898B2 (en) * 2008-06-09 2013-03-26 Cablecam, Llc Safety system and method for objects moved by a driving cabling system
WO2011079122A1 (en) * 2009-12-23 2011-06-30 Cablecam, Inc. Apparatus and method for calibrating an aerial movement system
US9063390B2 (en) * 2009-12-23 2015-06-23 Cablecam, Llc Aerial movement system with reactive line
CN102117075B (zh) * 2011-01-28 2014-04-09 西安电子科技大学 悬索牵引摄影摄像机机位的控制方法
US9477141B2 (en) * 2011-08-31 2016-10-25 Cablecam, Llc Aerial movement system having multiple payloads
US9337949B2 (en) * 2011-08-31 2016-05-10 Cablecam, Llc Control system for an aerially moved payload
US9277204B2 (en) * 2013-01-23 2016-03-01 Advanced Scientific Concepts, Inc. Modular LADAR sensor
US10941024B2 (en) * 2014-02-05 2021-03-09 Amir Khajepour Apparatus for controlling a mobile platform
US10592857B2 (en) * 2014-08-15 2020-03-17 Synaptive Medical (Barbados) Inc. System and method for managing equipment in a medical procedure
CN104994271B (zh) * 2015-05-28 2016-06-29 北京航天控制仪器研究所 一种索道摄像机系统及其控制及视频信号传输方法
US10369693B1 (en) * 2016-11-10 2019-08-06 X Development Llc Cable suspended robotic system
US10791275B2 (en) * 2017-09-25 2020-09-29 The Boeing Company Methods for measuring and inspecting structures using cable-suspended platforms
US10610307B2 (en) * 2017-09-28 2020-04-07 General Electric Company Workflow assistant for image guided procedures
EP3469990A1 (de) * 2017-10-16 2019-04-17 Koninklijke Philips N.V. Bestimmung eines subjektprofils mit einer kamera
US10853658B2 (en) * 2018-10-30 2020-12-01 Sony Corporation Image-based detection of offside in gameplay
US11345017B2 (en) * 2020-06-11 2022-05-31 Andrew Flessas Method and system for moving cable-mounted objects using robotic mounts
US11597077B2 (en) * 2020-07-22 2023-03-07 Saudi Arabian Oil Company Cable suspended robot for industrial plants
EP4178446A4 (de) * 2020-08-10 2023-06-07 Shanghai United Imaging Healthcare Co., Ltd. Abbildungssysteme und -verfahren
CN112178365B (zh) * 2020-08-24 2022-05-17 中央广播电视总台 一种摄像机有轨运动系统及控制方法
CN112704564A (zh) * 2020-12-22 2021-04-27 上海微创医疗机器人(集团)股份有限公司 手术机器人系统、碰撞检测方法、系统及可读存储介质
US11844583B2 (en) * 2021-03-31 2023-12-19 Moon Surgical Sas Co-manipulation surgical system having an instrument centering mode for automatic scope movements
US11812938B2 (en) * 2021-03-31 2023-11-14 Moon Surgical Sas Co-manipulation surgical system having a coupling mechanism removeably attachable to surgical instruments
CA3212211A1 (en) * 2021-03-31 2022-10-06 David Paul Noonan Co-manipulation surgical system for use with surgical instruments for performing laparoscopic surgery
US11819302B2 (en) * 2021-03-31 2023-11-21 Moon Surgical Sas Co-manipulation surgical system having user guided stage control
US11832909B2 (en) * 2021-03-31 2023-12-05 Moon Surgical Sas Co-manipulation surgical system having actuatable setup joints

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008046346A1 (de) 2008-09-09 2010-03-18 Siemens Aktiengesellschaft Verfahren und Vorrichtung zum Überwachen eines räumlichen Bereichs, insbesondere des Umfelds eines bewegbaren medizinischen Geräts
DE202010013678U1 (de) 2010-09-28 2010-12-23 Förster, Dominik Positionsdatengespeistes Steuerungssystem für Kamera und Bühnentechnik zur automatisierten Ausrichtung auf definierte mobile Objekte
DE102011084444A1 (de) 2011-10-13 2013-04-18 Siemens Aktiengesellschaft Verfahren zur Ermittlung von Begrenzungsinformationen eines Patienten und/oder eines Objekts
US20190380793A1 (en) 2011-12-30 2019-12-19 Mako Surgical Corp. Integrated surgery method & system
EP4134966A1 (de) 2021-08-12 2023-02-15 TRUMPF Medizin Systeme GmbH + Co. KG Operationssaalvideoanalytiksysteme und -verfahren

Also Published As

Publication number Publication date
US20230421892A1 (en) 2023-12-28
CN117281627A (zh) 2023-12-26

Similar Documents

Publication Publication Date Title
DE10114099B4 (de) Verfahren zum Detektieren der dreidimensionalen Position eines in einen Körperbereich eingeführten medizinischen Untersuchungsinstruments, insbesondere eines in ein Gefäß eingeführten Katheters
DE102006046692B3 (de) Verfahren zur Röntgenbildaufzeichnung eines nicht-zentrischen Abbildungsbereiches mit einem Röntgenbildgebungssystem und Röntgenbildgebungssystem
EP2309925B1 (de) Röntgenbild-aufnahmesystem und röntgenbild-aufnahmeverfahren zur aufnahme von bilddaten mit röntgengeräten für eine volumenrekonstruktion
DE102009014154B4 (de) Verfahren zur Kalibrierung der Position von einem Laserfächerstrahl zur Projektionsgeometrie eines Röntgengerätes und Röntgengerät
DE10237347A1 (de) Ermittlungsverfahren für ein Abbruchkriterium beim Erfassen von zweidimensionalen Bildern eines dreidimensionalen Objekts
DE102009031165A1 (de) Verfahren und Vorrichtung zur Aufnahme von Röntgenbildern für eine dreidimensionale Bildrekonstruktion
DE19819519A1 (de) Röntgenbildsystem
DE102009049075A1 (de) Röntgensystem und Verfahren zum Generieren einer Abtastbahn
DE102008046345B4 (de) Verfahren und Vorrichtung zum Überwachen der räumlichen Umgebung eines bewegbaren Geräts, insbesondere eines medizinischen Geräts
DE102008019646A1 (de) Computertomographie-System
DE102010010723A1 (de) Laminographieanlage
DE102005044653A1 (de) Verfahren und Vorrichtung zur Rekonstruktion eines dreidimensionalen Bildvolumens aus zweidimensionalen Projektionsbildern
EP3378401A1 (de) Darstellung eines interessierenden bereichs
DE102006055934A1 (de) Auswertungsverfahren für eine Anzahl zweidimensionaler Projektionsbilder eines dreidimensionalen Untersuchungsobjekts
DE102008046346A1 (de) Verfahren und Vorrichtung zum Überwachen eines räumlichen Bereichs, insbesondere des Umfelds eines bewegbaren medizinischen Geräts
DE102009047867B4 (de) Verfahren und Vorrichtung zur Korrektur von trunkierten Projektionsdaten
DE102010015060A1 (de) Vorrichtung zur Lagerung, Abtastung, tomographischen Darstellung eines Patienten und Durchführung einer Intervention und Verfahren zur Bestimmung der räumlichen Relation zwischen optischen Aufnahmen und tomographischen Darstellungen
DE102008008750B4 (de) Verfahren zum Erzeugen einer Bildfolge für eine 3-D-Rekonstruktion und Röntgenbildaufnahmesystem
DE102022206327B3 (de) Überwachungssystem und Verfahren zur Überwachung zumindest eines Zielobjekts
DE102012202360B4 (de) Verfahren zur Bildakquisition eines zweidimensionalen projektiven Röntgenbildes mit einem C-Bogensystem und C-Bogensystem
DE102006007255A1 (de) Verfahren und Vorrichtung zur Bestimmung geometrischer Parameter für Bilderzeugung
DE102012200686A1 (de) Verfahren und Vorrichtung zur Positionierung einer Röntgenvorrichtung
DE202017002625U1 (de) Röntgensystem mit einem Kegelstrahl-C-Bogen-Röntgengerät zum Erzeugen eines in der Zentralschicht vollständigen 3D-Datensatzes zur Volumenrekonstruktion
DE102007052650A1 (de) Bildgebendes System und Verfahren zum Betrieb eines bildgebenden Systems
EP2926734B1 (de) Verfahren zur Einrichtung einer Patientenbestrahlungseinrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHINEERS AG, DE

Free format text: FORMER OWNER: SIEMENS HEALTHCARE GMBH, MUENCHEN, DE