DE102018111180A1 - Betriebsverfahren für ein medizinisches System und medizinisches System zum Durchführen eines chirurgischen Eingriffs - Google Patents

Betriebsverfahren für ein medizinisches System und medizinisches System zum Durchführen eines chirurgischen Eingriffs Download PDF

Info

Publication number
DE102018111180A1
DE102018111180A1 DE102018111180.0A DE102018111180A DE102018111180A1 DE 102018111180 A1 DE102018111180 A1 DE 102018111180A1 DE 102018111180 A DE102018111180 A DE 102018111180A DE 102018111180 A1 DE102018111180 A1 DE 102018111180A1
Authority
DE
Germany
Prior art keywords
data
artificial intelligence
operative
intraoperative
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102018111180.0A
Other languages
English (en)
Other versions
DE102018111180B4 (de
Inventor
Thorsten Jürgens
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Winter and Ibe GmbH
Original Assignee
Olympus Winter and Ibe GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Winter and Ibe GmbH filed Critical Olympus Winter and Ibe GmbH
Priority to DE102018111180.0A priority Critical patent/DE102018111180B4/de
Priority to JP2019080872A priority patent/JP6876090B2/ja
Priority to US16/406,696 priority patent/US11439466B2/en
Publication of DE102018111180A1 publication Critical patent/DE102018111180A1/de
Application granted granted Critical
Publication of DE102018111180B4 publication Critical patent/DE102018111180B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Artificial Intelligence (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Fuzzy Systems (AREA)
  • Biophysics (AREA)
  • Signal Processing (AREA)
  • Psychiatry (AREA)
  • Robotics (AREA)
  • Urology & Nephrology (AREA)
  • Physiology (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Quality & Reliability (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

Die Erfindung betrifft ein Betriebsverfahren für ein medizinisches System (2) zum Durchführen eines chirurgischen Eingriffs, umfassend zumindest eine künstliche Intelligenz (K1, K2). Das System umfasst eine voroperative künstliche Intelligenz (K1), eine intraoperative künstliche Intelligenz (K2) und eine Ausgabeeinheit (8). Der voroperativen künstlichen Intelligenz (K1) werden voroperative Daten (D1) zugeführt, von der voroperativen künstlichen Intelligenz (K1) verarbeitet und als voroperative Ausgabedaten ausgegeben. Der intraoperativen künstlichen Intelligenz (K2) werden die voroperativen Ausgabedaten und intraoperative Daten (D2) zugeführt. Die Daten werden von der intraoperativen künstlichen Intelligenz (K2) verarbeitet. Ausgabedaten der intraoperativen künstlichen Intelligenz (K2) werden an die Ausgabeeinheit (8) ausgegeben, die auf der Grundlage der Ausgabedaten eine Benutzerausgabe bereitstellt.

Description

  • Die Erfindung betrifft ein Betriebsverfahren für ein medizinisches System zum Durchführen eines chirurgischen Eingriffs, umfassend zumindest eine künstliche Intelligenz. Ferner betrifft die Erfindung ein medizinisches System zum Durchführen eines chirurgischen Eingriffs.
  • Medizinische Systeme sind in verschiedenen Ausführungen allgemein bekannt. Als medizinisches System soll beispielsweise die technisch-medizinische Ausstattung eines Operationsraums angesehen werden. In einem modernen Operationsraum sind Kameras zur Erfassung der Durchführung der Operation, verschiedene chirurgische Instrumente, wie beispielsweise Endoskope, sowie vielfach auch bildgebende medizinische Geräte, beispielsweise ein Röntgengerät, vorhanden. Vielfach üblich sind auch Wiedergabegeräte, mit denen beispielsweise voroperativ aufgenommene Untersuchungsergebnisse, wie beispielsweise MRT- oder CT-Bilder, angezeigt werden können.
  • In einzelnen medizinischen Geräten kommt zunehmend künstliche Intelligenz zum Einsatz. Als künstliche Intelligenz soll eine in einer Recheneinrichtung implementierte Einheit verstanden werden, deren Verhalten oder Reaktion auf bestimmte Eingaben auf Außenstehende ähnlich wie eine menschliche Intelligenz wirkt. Dabei umfasst der Begriff „künstliche Intelligenz“ beispielsweise Maschinenlernen, maschinelles Sehen und Erkennen von Objekten, Spracherkennung und -verarbeitung und auch Robotik.
  • Maschinenlernen ist eine künstliche Intelligenz, die anhand einer Vielzahl von Situationen oder Verläufen nebst zugehöriger Bewertung selbst erlernen kann, wie sie sich zu verhalten hat, um eine möglichst hohe Bewertung zu erzielen. Die Bewertung kann dabei entweder der künstlichen Intelligenz vorgegeben werden oder von der künstlichen Intelligenz anhand eines bekannten Bewertungskriteriums vorgegeben werden oder von der künstlichen Intelligenz selbst ermittelt werden. Die künstliche Intelligenz akkumuliert und enthält somit das Wissen über einen der jeweiligen Situation angepassten optimalen Betrieb des Systems.
  • Maschinelles Sehen und Erkennen von Objekten ist beispielsweise das Extrahieren von Objekten aus Bildern und/oder die Zuordnung von (extrahierten) Objekten zu bestimmten Kategorien. Sprachverarbeitung umfasst beispielsweise das selbstständige Erkennen von Worten und/oder die Erkennung von Befehlen und Handlungsanweisungen aus einem frei gesprochenen Text.
  • Es ist vielfach üblich, künstliche Intelligenz vor ihrem Einsatz zu trainieren. Es ist sogar vielfach vorgesehen, die künstliche Intelligenz ausschließlich vorab zu trainieren und für die Dauer der Verwendung unverändert zu lassen. Ebenso ist es jedoch vorgesehen, dass die künstliche Intelligenz parallel zur Ermittlung der Auswertungsergebnisse eine Bewertung der Auswertungsergebnisse vornimmt und sich selbst anhand der Bewertung nachtrainiert.
  • Es ist eine Aufgabe der Erfindung, ein Betriebsverfahren für ein medizinisches System anzugeben, in welchem der Einsatz künstlicher Intelligenz verbessert sein soll.
  • Die Aufgabe wird gelöst durch ein Betriebsverfahren für ein medizinisches System zum Durchführen eines chirurgischen Eingriffs, umfassend zumindest eine künstliche Intelligenz, wobei das Betriebsverfahren dadurch fortgebildet ist, dass das System eine intraoperative künstliche Intelligenz und eine Ausgabeeinheit umfasst, wobei der intraoperativen künstlichen Intelligenz voroperative Ausgabedaten und intraoperative Daten zugeführt werden und die voroperativen Ausgabedaten und die intraoperativen Daten von der intraoperativen künstlichen Intelligenz verarbeitet werden, wobei Ausgabedaten der intraoperativen künstlichen Intelligenz an die Ausgabeeinheit ausgegeben werden, die auf der Grundlage der Ausgabedaten der intraoperativen künstlichen Intelligenz eine Benutzerausgabe bereitstellt.
  • Die voroperativen Ausgabedaten können Ergebnisse einer maschinellen Vorverarbeitung aber auch das Ergebnis einer von Hand durchgeführten Vorverarbeitung sein.
  • Gemäß einer vorteilhaften Ausführungsform ist das Betriebsverfahren dadurch fortgebildet, dass das System eine voroperative künstliche Intelligenz umfasst, wobei der voroperativen künstlichen Intelligenz voroperative Daten zugeführt und von der voroperativen künstlichen Intelligenz verarbeitet und als die voroperativen Ausgabedaten ausgegeben werden, wobei der intraoperativen künstlichen Intelligenz die voroperativen Ausgabedaten zugeführt werden.
  • Vorteilhaft werden verschiedene künstliche Intelligenzen miteinander kombiniert, um so eine optimale Unterstützung des medizinischen Personals zu erreichen. Das medizinische System liefert eine Benutzerausgabe, in der voroperative und intraoperative Daten mittels künstlicher Intelligenz optimal miteinander kombiniert werden.
  • Die zur Anwendung kommende künstliche Intelligenz kann nach Bedarf und je nach Anwendungsfall ausgewählt und bestimmt werden. Die Art der ersten künstlichen Intelligenz und der zweiten künstlichen Intelligenz kann vom gleichen Typ oder auch voneinander verschieden sein. Beispielsweise kann die künstliche Intelligenz als künstliches neuronales Netz oder Netzwerk (artificial neuronal network), als Stützvektormaschine (support vector machine), als Entscheidungsbaum (decision tree), als Bayes'sche Zuverlässigkeitsnetzwerk (Bayesian believe network), als sog. k-nächste Nachbarn, als sich selbst organisierende Karte (self-organizing map), als fallorientierte Überlegung (case-based reasoning), als fallorientiertes Lernen (instance-based learning) oder auch als sog. Hidden-Markov-Modell ausgebildet sein. Selbstverständlich sind auch Kombinationen dieser Ausgestaltungen möglich.
  • Gemäß einer Ausführungsform ist die künstliche Intelligenz, und dies betrifft sowohl die voroperative als auch intraoperative künstliche Intelligenz, als künstliches neuronales Netz ausgebildet. Insbesondere kommt ein tiefes neuronales Netz (DNN = Deep Neuronal Network) zum Einsatz. Mit einer solchen künstlichen Intelligenz können insbesondere Bilddaten oder auch akustische Daten gut verarbeitet werden. Es ist ebenso vorgesehen, eine einzige künstliche Intelligenz mit mehreren neuronalen Netzen auszugestalten, wobei verschiedene Netztypen zur Anwendung kommen können und miteinander kombiniert werden können.
  • Gemäß einer vorteilhaften Ausführungsform ist das Betriebsverfahren dadurch fortgebildet, dass die voroperativen Daten erste Bilddaten zumindest eines bildgebenden medizinischen Geräts umfassen und die voroperative künstliche Intelligenz die ersten Bilddaten im Hinblick auf eine in den ersten Bilddaten vorhandene Anatomie und/oder Pathologie verarbeitet und die Anatomie kennzeichnende Anatomiedaten und/oder die Pathologie kennzeichnende Pathologiedaten als voroperative Ausgabedaten ausgibt.
  • Die voroperative künstliche Intelligenz extrahiert Informationen aus den voroperativen ersten Bilddaten, bei denen es sich beispielsweise um CT- oder MRT-Bilddaten handelt. Physiologische oder pathologische Strukturen können insbesondere direkt in den Bilddaten gekennzeichnet werden, um das medizinische Personal während des chirurgischen Eingriffs optimal zu unterstützen. Es ist jedoch ebenso vorgesehen, dass die voroperative künstliche Intelligenz, gemäß einer weiteren Ausführungsform, als voroperative Daten Daten eines Arztbriefes oder eines Befundes analysiert. Insbesondere kann die entsprechende Analyse mit der Analyse der Bilddaten kombiniert werden, beispielsweise werden die im Befund oder im Arztbrief genannten pathologischen Strukturen in den Bilddaten identifiziert.
  • Gemäß einer weiteren Ausführungsform ist das Betriebsverfahren dadurch fortgebildet, dass die intraoperativen Daten zweite Bilddaten umfassen und die intraoperative künstliche Intelligenz die zweiten Bilddaten verarbeitet, indem den zweiten Bilddaten Vermerke hinzugefügt werden und die zweiten Bilddaten zu Bilddaten mit erweiterter Realität verarbeitet werden und als Benutzerausgabe bereitgestellt werden.
  • Die intraoperative künstliche Intelligenz extrahiert beispielsweise Informationen aus Echtzeitbildern, die von einer oder mehreren Kameras, die in einem Operationssaal installiert sind, aufgenommen werden. Die Bearbeitung dieser Bilder als Bilder mit erweiterter Realität (augmented reality) erleichtert dem medizinischen Personal die Orientierung im Operationsfeld. Außerdem kann individuell und situationsspezifisch Hilfe angeboten werden, indem entsprechende Objekte oder Bereiche der erfassten Bilder farblich markiert oder mit Kommentaren versehen werden.
  • Besonders vorteilhaft ist dieses Verfahren, wenn gemäß einer weiteren Ausführungsform die intraoperative künstliche Intelligenz den Vermerken weitere Informationen betreffend die Anatomiedaten und/oder die Pathologiedaten hinzufügt. So ist es möglich, die von der voroperativen künstlichen Intelligenz ausgegebenen Anatomiedaten und/oder Pathologiedaten als Kommentare in einer Bilddatenausgabe mit erweiterter Realität dem Benutzer zur Verfügung zu stellen. Anatomische oder pathologische Strukturen können beispielsweise in Echtzeitbildern markiert werden oder mit Hinweisen versehen werden.
  • In diesem Zusammenhang ist es ferner vorteilhaft, wenn das Betriebsverfahren ferner dadurch fortgebildet wird, dass die intraoperative künstliche Intelligenz die zweiten Bilddaten verarbeitet, indem eine Kennzeichenerkennung und/oder eine Objekterkennung in den zweiten Bilddaten durchgeführt wird und die intraoperative künstliche Intelligenz den Vermerken weitere Informationen auf der Grundlage der Anatomiedaten und/oder Pathologiedaten unter zusätzlicher Berücksichtigung der Ergebnisse der Kennzeichenerkennung hinzufügt.
  • Indem die intraoperative künstliche Intelligenz zusätzliche Ergebnisse einer Kennzeichenerkennung in Betracht zieht, kann die in den Vermerken zur Verfügung gestellte Information weiter verbessert oder erweitert werden. Dabei soll unter Kennzeichenerkennung sowohl eine Objekterkennung als auch eine sog. „Landmark Recognition“, also eine Erkennung bestimmter Kennzeichen in Bilddaten, verstanden werden.
  • Gemäß einer weiteren Ausführungsform ist das Betriebsverfahren dadurch fortgebildet, dass die intraoperativen Daten Parameter und/oder Betriebsdaten zumindest eines intraoperativ betriebenen medizinischen Geräts umfassen und die intraoperative künstliche Intelligenz den Vermerken weitere Informationen betreffend die Parameter und/oder Betriebsdaten des zumindest einen intraoperativ betriebenen medizinischen Geräts hinzufügt.
  • Als Parameter und Betriebsdaten können beispielsweise ausgewählte Behandlungseffekte, Temperaturen der verwendeten chirurgischen Instrumente, Arbeitsspannungen, Stromstärken und dergleichen verstanden werden. Diese Parameter und/oder Betriebsdaten des medizinischen Geräts können insbesondere den Bilddaten mit erweiterter Realität als Vermerke hinzugefügt werden. Es ist jedoch ebenso vorgesehen, die entsprechenden Betriebsdaten oder Parameter mittels der intraoperativen künstlichen Intelligenz zu verarbeiten und beispielsweise eine Warnung auszugeben, wenn signifikante Abweichungen in bestimmten Situationen festgestellt werden. Die Ausgabe einer solchen Warnmitteilung kann akustisch oder optisch über eine beliebige Benutzeroberfläche oder eine beliebige Benutzerausgabeeinheit erfolgen.
  • Gemäß einer weiteren Ausführungsform ist vorgesehen, dass die intraoperative künstliche Intelligenz die zweiten Bilddaten im Hinblick auf zumindest ein in den zweiten Bilddaten sichtbares und intraoperativ eingesetztes chirurgisches Instrument verarbeitet und das chirurgische Instrument kennzeichnende Instrumentendaten erzeugt und Informationen betreffend das eingesetzte chirurgische Instrument den Vermerken hinzufügt.
  • Die Erkennung des intraoperativ eingesetzten chirurgischen Instruments bietet die Möglichkeit, verschiedene weitere Hilfen oder Assistenzfunktionen anzubieten, beispielsweise einen Wechsel eines Instruments vorzuschlagen, wenn in den intraoperativ erfassten Bilddaten erkannt wird, dass das gewählte Instrument ungeeignet sein könnte. In diesem Zusammenhang soll die Erkennung des verwendeten chirurgischen Instruments durch Auswertung der Bilddaten erfolgen. Ist also mit anderen Worten zumindest ein Teil oder Abschnitt eines medizinischen oder chirurgischen Instruments in den Bilddaten abgebildet, so kann eine Erkennung des Instruments erfolgen.
  • Gemäß einer weiteren vorteilhaften Ausführungsform ist das Betriebsverfahren dadurch fortgebildet, dass die intraoperative künstliche Intelligenz die zweiten Bilddaten verarbeitet, indem ein Verfahrensstand eines operativen Eingriffs erkannt wird, wobei den Vermerken weitere Informationen bezüglich des Verfahrensstands des operativen Eingriffs hinzugefügt werden.
  • Durch die Erkennung und Analyse des Verfahrensstands, d.h. der aktuellen Phase, des operativen Eingriffs kann insbesondere eine Sicherheits- und Qualitätskontrolle realisiert werden. Beispielsweise wird eine Warnmitteilung ausgegeben, wenn eine signifikante Abweichung von einem typischen Verlauf eines bestimmten operativen Eingriffs festgestellt wird.
  • Gemäß einer weiteren vorteilhaften Ausführungsform ist vorgesehen, dass die intraoperativen Daten Parameter und/oder Betriebsdaten zumindest eines intraoperativ betriebenen medizinischen Geräts umfassen und die intraoperative künstliche Intelligenz die Parameter und/oder Betriebsdaten verarbeitet und Geräteinformationen, die einen Betriebszustand und/oder eine Konfiguration des zumindest einen medizinischen Geräts kennzeichnen, als Benutzerausgabe bereitgestellt.
  • Die Geräteinformationen werden beispielsweise als Kommentare in den Bilddaten mit erweiterter Realität ausgegeben oder ihre Ausgabe erfolgt auf einer beliebigen anderen Ausgabeeinheit.
  • In diesem Zusammenhang ist es besonders vorteilhaft, wenn gemäß einer weiteren Ausführungsform die intraoperative künstliche Intelligenz die Geräteinformationen unter zusätzlicher Berücksichtigung der Anatomiedaten und/oder der Pathologiedaten erzeugt.
  • Gemäß einer weiteren vorteilhaften Ausführungsform ist das Betriebsverfahren ferner dadurch fortgebildet, dass die intraoperative künstliche Intelligenz die zweiten Bilddaten verarbeitet, indem ein Verfahrensstand des operativen Eingriffs erkannt wird, wobei die Geräteinformationen unter zusätzlicher Berücksichtigung des Verfahrensstands des operativen Eingriffs erzeugt werden.
  • Durch die Verarbeitung des Verfahrensstands des operativen Eingriffs in Kombination mit den Geräteinformationen kann der operative Eingriff protokolliert werden, was eine vereinfachte Qualitätskontrolle erlaubt.
  • Das Betriebsverfahren ist ferner insbesondere dadurch fortgebildet, dass die einzelnen Verarbeitungsschritte in einzelnen KI-Modulen durchgeführt werden.
  • Verarbeitungsschritte, die in einzelnen KI-Modulen der intraoperativen künstlichen Intelligenz durchgeführt werden sind beispielsweise: die Erkennung einer Phase oder eines Zustands des durchgeführten operativen Eingriffs, Versehen von Bilddaten mit Vermerken, Bereitstellen einer Benutzerunterstützung, Erkennung bestimmter Kennzeichen, Durchführung einer Objekterkennung, Durchführung einer intraoperativen Anatomie und Pathologieerkennung, Durchführung einer Instrumentenerkennung, Verarbeitung von Gerätedaten, Durchführung einer Tiefenberechnung.
  • Verarbeitungsschritte, die in einzelnen KI-Modulen der voroperativen künstlichen Intelligenz durchgeführt werden sind beispielsweise: Durchführung einer Anatomieerkennung, Durchführung einer voroperativen Pathologieerkennung.
  • Als KI-Module können insbesondere auch die intraoperative künstliche Intelligenz und die voroperative künstliche Intelligenz angesehen werden.
  • Gemäß einer weiteren vorteilhaften Ausführungsform ist das Betriebsverfahren dadurch fortgebildet, dass eine Mehrzahl von einzelnen KI-Modulen zu einer Modulgruppe zusammengefasst werden, wobei die KI-Module derart miteinander verknüpft werden, dass Ausgabedaten eines ersten KI-Moduls als Eingangsdaten einem zweiten KI-Modul zugeführt werden.
  • Vorteilhaft erfolgt der Einsatz der künstlichen Intelligenz äußerst flexibel, da die einzelnen Module miteinander beliebig kombiniert werden können.
  • Die Aufgabe wird ferner gelöst durch ein medizinisches System zum Durchführen eines chirurgischen Eingriffs, umfassend eine Mehrzahl von KI-Modulen, die dazu eingerichtet sind intraoperative Daten in einzelnen Verarbeitungsschritten zu verarbeiten, wobei die KI-Module derart miteinander verknüpft sind, dass Ausgabedaten eines ersten KI-Moduls als Eingangsdaten einem zweiten KI-Modul zugeführt werden.
  • Gleiche oder ähnliche Vorteile, wie sie bereits zuvor im Hinblick auf das Betriebsverfahren erwähnt wurden, treffen auch auf das medizinische System selbst zu, so dass auf Wiederholungen verzichtet werden soll.
  • Weitere Merkmale der Erfindung werden aus der Beschreibung erfindungsgemäßer Ausführungsformen zusammen mit den Ansprüchen und den beigefügten Zeichnungen ersichtlich. Erfindungsgemäße Ausführungsformen können einzelne Merkmale oder eine Kombination mehrerer Merkmale erfüllen.
  • Die Erfindung wird nachstehend ohne Beschränkung des allgemeinen Erfindungsgedankens anhand von Ausführungsbeispielen unter Bezugnahme auf die Zeichnungen beschrieben, wobei bezüglich aller im Text nicht näher erläuterten erfindungsgemäßen Einzelheiten ausdrücklich auf die Zeichnungen verwiesen wird. Es zeigen:
    • 1 einen ersten Teil einer schematisch vereinfachten Blockdarstellungen eines medizinischen Systems zur Durchführung eines chirurgischen Eingriffs und
    • 2 einen zweiten Teil einer schematisch vereinfachten Blockdarstellungen eines medizinischen Systems zur Durchführung eines chirurgischen Eingriffs.
  • In den Zeichnungen sind jeweils gleiche oder gleichartige Elemente und/oder Teile mit denselben Bezugsziffern versehen, so dass von einer erneuten Vorstellung jeweils abgesehen wird.
  • 1 zeigt schematisch und vereinfacht eine Blockdarstellung eines medizinischen Systems 2, wobei in 1 lediglich ein Teilbereich des Systems 2 dargestellt ist. Der dargestellte Teilbereich des medizinischen Systems 2 umfasst eine voroperative Datenquelle 4, in der voroperative Daten D1_1 bis D1_4 vorhanden sind, die allgemein auch mit dem Bezugszeichen D1 bezeichnet werden sollen. Ferner ist eine voroperative künstliche Intelligenz K1 vorhanden. Die voroperative künstliche Intelligenz K1 umfasst ein erstes KI-Modul K1_1 und ein zweites KI-Modul K1_2.
  • Die voroperative künstliche Intelligenz K1 schließt sich an die in 2 gezeigten Teile oder Blöcke des medizinischen Systems 2 an. 2 zeigt in schematisch vereinfachter Blockdarstellung eine intraoperative künstliche Intelligenz K2, eine intraoperative Datenquelle 6 und eine Ausgabeeinheit 8. Die intraoperative Datenquelle 6 umfasst verschiedene intraoperative Daten D2_1 bis D2_8. Die intraoperative künstliche Intelligenz K2 umfasst KI-Module K2_1 bis K2_9. Die Ausgabeeinheit 8 umfasst Ausgabemodule 8_1 bis 8_3.
  • Es findet eine Datenübergabe an den Punkten P1, P2 und P3 von dem in 1 dargestellten Teil des medizinischen Systems 2 an den in 2 dargestellten Teil des medizinischen Systems 2 statt.
  • Die voroperative künstliche Intelligenz K1, gleiches gilt auch für das erste KI-Modul K1_1 und das zweite KI-Modul K1_2, und ebenso die intraoperative künstliche Intelligenz K2, gleiches gilt selbstverständlich auch für die KI-Module K2_1 bis K2_9, sind künstliche Intelligenzen, die je nach Bedarf und Anwendungsfall ausgewählt und miteinander kombiniert werden. Beispielsweise handelt es sich um ein künstliches neuronales Netz oder Netzwerk (artificial neuronal network), eine Stützvektormaschine (support vector machine), einen Entscheidungsbaum (decision tree), ein Bayes'sche Zuverlässigkeitsnetzwerk (Bayesian believe network), eine sich selbst organisierende Karte (self-organizing map), ein Netzwerk für fallorientierte Überlegung (case-based reasoning) oder für fallorientiertes Lernen (instance-based learning) oder auch um eine künstliche Intelligenz, die als sog. Hidden-Markov-Modell ausgebildet ist.
  • Das medizinische System 2 ist zum Durchführen eines chirurgischen Eingriffs eingerichtet. Hierzu umfasst das medizinische System ein chirurgisches Instrument, beispielsweise ein Endoskop.
  • Der voroperativen künstlichen Intelligenz K1 werden voroperative Daten D1 zugeführt. Bei den voroperativen Daten D1 handelt es sich beispielsweise um einen Operationsplan D1_1. Ferner kann es sich bei den voroperativen Daten D1 um Ergebnisse bildgebender medizinischer Verfahren, beispielsweise um Bilddaten D1_2 eines CT-Bildes, um Bilddaten D1_3 eines MRT-Bildes oder auch um ein Überweisungsschreiben D1_4 eines Arztes handeln. Die voroperativen Daten D1_1 bis D1_4 können jeweils auch Patientendaten umfassen.
  • Der Operationsplan D1_1 wird direkt über den Übergabepunkt P1 an die intraoperative künstliche Intelligenz K2 übergeben. Die übrigen voroperativen Daten D1_2 bis D2_4 werden den KI-Modulen K1_1 und K1_2 der voroperativen künstlichen Intelligenz K1 zugeführt.
  • Die voroperative künstliche Intelligenz K1 umfasst beispielsweise als erstes KI-Modul K1_1 eine künstliche Intelligenz zur Anatomieerkennung. Als zweites KI-Modul K1_2 umfasst die voroperative künstliche Intelligenz K1 beispielsweise eine künstliche Intelligenz zur voroperativen Pathologieerkennung. Beiden KI-Modulen K1_1 und K1_2 werden jeweils die voroperativen Daten D1_2 bis D1_4 zugeführt. Die Ergebnisse des KI-Moduls K1_1 wird über den Übergabepunkt P2 an die intraoperative künstliche Intelligenz K2 übergeben, ebenso werden die Ergebnisse des zweiten KI-Moduls K1_2 über den Übergabepunkt P3 an die intraoperative künstliche Intelligenz K2 übergeben.
  • Es werden die von der voroperativen künstlichen Intelligenz K1 verarbeiteten Daten über die Übergabepunkte P2 und P3 als voroperative Ausgabedaten ausgegeben und von der intraoperativen künstlichen Intelligenz K2 als Eingangsdaten empfangen. Die intraoperative künstliche Intelligenz K2 verarbeitet neben diesen Daten auch die intraoperativen Daten D2.
  • Bei den intraoperativen Daten D2 handelt es sich beispielsweise um Bilddaten D2_1 und D2_2 von Kameras im Operationsraum oder um Bilddaten D2_3 einer Kamera, welche ein Live-Bild des Operationstisches liefert. Ferner kann es sich bei den intraoperativen Daten D2 um Bilddaten D2_4 einer Endoskopkamera handeln. Das medizinische System umfasst also verschiedene Kameras als intraoperative Datenquellen.
  • Die intraoperativen Daten D2 umfassen neben Bilddaten auch beispielsweise Daten eines elektrochirurgischen Generators, wobei zwischen den Einstellungen und Parametern D2_5 des elektrochirurgischen Generators und Geräteinformationen D2_6 unterschieden werden soll. Ebenso können die intraoperativen Daten D2 Daten eines Ultraschallgenerators umfassen, wobei wiederum zwischen den Einstellungen und Parametern D2_7 und den Geräteinformationen D2_8 unterschieden wird.
  • Die intraoperative künstliche Intelligenz K2 liefert als Benutzerausgabe beispielsweise auf einem ersten Ausgabemodul 8_1, bei dem es sich um einen Bildschirm handeln kann, Live-Bilder, die mit Kennzeichnungen oder Vermerken versehen sind. Es handelt sich insbesondere um Live-Bilder mit erweiterter Realitätsdarstellung (Augmented Reality). Auf den weiteren Ausgabemodulen 8_2, 8_3, bei denen es sich ebenfalls um Bildschirme oder auch um Anzeigen handeln kann, werden beispielsweise die Parameter eines elektrochirurgischen Generators oder Einstellungen eines Ultraschallgenerators angezeigt.
  • Die Datenverarbeitung in der intraoperativen künstlichen Intelligenz erfolgt über verschiedene KI-Module K2_1 bis K2_9. Die intraoperative künstliche Intelligenz umfasst als erstes KI-Modul K2_1 ein KI-Modul, welches dazu eingerichtet ist, eine Phase oder einen Zustand des durchgeführten operativen Eingriffs zu erkennen. Dieses KI-Modul K2_1 empfängt voroperative Daten in Form des Operationsplans D1_1. Außerdem empfängt das KI-Modul K2_1 Bilddaten D2_1 und D2_2 der Kameras im Operationsraum sowie Bilddaten D2_3 der Kamera des Operationstisches. Es kann sich hierbei um Live-Daten handeln. Das KI-Modul K2_1, welches die Phase des medizinischen Eingriffs erkennt, gibt seine Ergebnisse an das KI-Modul K2_2 weiter, welches dazu eingerichtet ist, Bilddaten mit Vermerken zu versehen (auch vielfach bezeichnet als „Annotation Engine“). Dieses KI-Modul K2_2 liefert beispielsweise die Daten für den Bildschirm 8_1, auf dem z.B. ein mit Vermerken versehenes Live-Bild des von der auf dem Operationstisch gerichteten Kamera wiedergegeben wird. Das heißt, die Daten der intraoperativen Datenquelle D2_3 werden, nachdem sie von dem KI-Modul 2_1 verarbeitet wurden, im KI-Modul K2_2 mit Vermerken versehen und anschließend auf dem Bildschirm 8_1 dargestellt.
  • Das KI-Modul K2_1 liefert seine Ergebnisse jedoch auch an das KI-Modul K2_3, welches eine Benutzerunterstützung (auch vielfach bezeichnet als „Assistence Engine“) bereitstellt. Das KI-Modul K2_3 liefert als Ausgabe Daten, die auf den Bildschirmen oder Anzeigen 8_2 und 8_3 dargestellt werden und die Einstellungen oder den Zustand des elektrochirurgischen Generators oder des Ultraschallgenerotors betreffen.
  • Das KI-Modul K2_1 gibt außerdem seine Ergebnisse an ein KI-Modul K2_4 weiter, in welchem eine Erkennung bestimmter Kennzeichen (auch vielfach bezeichnet als „Landmark Recognition“) erfolgt. Hierzu empfängt dieses KI-Modul K2_4 auch intraoperative Daten in Form von Bilddaten D2_4 eines Live-Bildes des eingesetzten Endoskops. Das KI-Modul K2_1 liefert außerdem seine Daten an ein KI-Modul K2_5, in dem eine Objekterkennung stattfindet. Das KI-Modul K2_5, welches die Objekterkennung durchführt, empfängt ferner intraoperative Daten in Form der Kamerabilddaten D2_1 bis D2_3. Das KI-Modul K2_4 liefert sein Ergebnis an ein weiteres KI-Modul K2_6, welches eine intraoperative Anatomie- und Pathologieerkennung durchführt. Die Ergebnisse dieses KI-Moduls werden wieder dem KI-Modul K2_2 und dem KI-Modul K2_3 zur Verfügung gestellt. Das KI-Modul K2_5 liefert sein Ergebnis außerdem an ein weiteres KI-Modul K2_7, welches eine Instrumentenerkennung in den beispielsweise von dem Endoskop bereitgestellten Bilddaten durchführt. Hierzu empfängt dieses KI-Modul K2_7 auch das Live-Bild des Endoskops in Form der intraoperativen Daten D2_4. Das Ergebnis wird dem KI-Modul K2_2 bereitgestellt.
  • Sämtliche Daten, die die eingesetzten medizinischen Geräte betreffen, also im beispielhaften Fall den elektrochirurgischen Generator und den Ultraschallgenerator, werden im KI-Modul K2_8, welches eine Verarbeitung der Gerätedaten durchführt, zugeführt. Das KI-Modul K2_8 empfängt also die intraoperativen Daten 2_5 bis D2_8. Das Ergebnis stellt dieses KI-Modul wieder den KI-Modulen K2_2 und dem KI-Modul K2_3 zur Verfügung. Außerdem wird anhand des Endoskop-Live-Bildes D2_4 mit dem KI-Modul K2_9 eine Tiefenberechnung durchgeführt, deren Ergebnis dem KI-Modul K2_6 zur Verfügung gestellt wird.
  • Die einzelnen KI-Module K2_1 bis K2_9 der intraoperativen künstlichen Intelligenz K2 können beliebig miteinander kombiniert und zu Gruppen verknüpft werden. Gleiches gilt für die einzelnen KI-Module K1_1 und K1_2 der voroperativen künstlichen Intelligenz K1.
  • Alle genannten Merkmale, auch die den Zeichnungen allein zu entnehmenden sowie auch einzelne Merkmale, die in Kombination mit anderen Merkmalen offenbart sind, werden allein und in Kombination als erfindungswesentlich angesehen. Erfindungsgemäße Ausführungsformen können durch einzelne Merkmale oder eine Kombination mehrerer Merkmale erfüllt sein. Im Rahmen der Erfindung sind Merkmale, die mit „insbesondere“ oder „vorzugsweise“ gekennzeichnet sind, als fakultative Merkmale zu verstehen.
  • Bezugszeichenliste
  • 2
    medizinisches System
    4
    voroperative Datenquelle
    6
    intraoperative Datenquelle
    8
    Ausgabeeinheit
    8_1 bis 8_3
    Ausgabemodule
    K1_1, K1_2
    KI-Module
    K1
    voroperative künstliche Intelligenz
    K2_1 bis K2_9
    KI-Module
    K2
    intraoperative künstliche Intelligenz
    D1_1 bis D1_4
    voroperative Daten
    D1
    voroperative Daten
    D2_1 bis D2_8
    intraoperative Daten
    D2
    intraoperative Daten
    P1, P2, P3
    Übergabepunkte

Claims (15)

  1. Betriebsverfahren für ein medizinisches System zum Durchführen eines chirurgischen Eingriffs, umfassend zumindest eine künstliche Intelligenz (K1, K2), dadurch gekennzeichnet, dass das System eine intraoperative künstliche Intelligenz (K2) und eine Ausgabeeinheit (8) umfasst, wobei der intraoperativen künstlichen Intelligenz (K2) voroperative Ausgabedaten und intraoperative Daten (D2) zugeführt werden und die voroperativen Ausgabedaten und die intraoperativen Daten (D2) von der intraoperativen künstlichen Intelligenz (K2) verarbeitet werden, wobei Ausgabedaten der intraoperativen künstlichen Intelligenz (K2) an die Ausgabeeinheit (8) ausgegeben werden, die auf der Grundlage der Ausgabedaten der intraoperativen künstlichen Intelligenz (K2) eine Benutzerausgabe bereitstellt.
  2. Betriebsverfahren nach Anspruch 1, dadurch gekennzeichnet, dass das System eine voroperative künstliche Intelligenz (K1) umfasst, wobei der voroperativen künstlichen Intelligenz (K1) voroperative Daten (D1) zugeführt und von der voroperativen künstlichen Intelligenz (K1) verarbeitet und als die voroperativen Ausgabedaten ausgegeben werden, wobei der intraoperativen künstlichen Intelligenz (K2) die voroperativen Ausgabedaten zugeführt werden.
  3. Betriebsverfahren nach Anspruch 2, dadurch gekennzeichnet, dass die voroperativen Daten (D1) erste Bilddaten zumindest eines bildgebenden medizinischen Geräts umfassen und die voroperative künstliche Intelligenz (K1) die ersten Bilddaten im Hinblick auf eine in den ersten Bilddaten vorhandene Anatomie und/oder Pathologie verarbeitet und die Anatomie kennzeichnende Anatomiedaten und/oder die Pathologie kennzeichnende Pathologiedaten als voroperative Ausgabedaten ausgibt.
  4. Betriebsverfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die intraoperativen Daten (D2) zweite Bilddaten umfassen und die intraoperative künstliche Intelligenz (K2) die zweiten Bilddaten verarbeitet, indem den zweiten Bilddaten Vermerke hinzugefügt werden und die zweiten Bilddaten zu Bilddaten mit erweiterter Realität verarbeitet werden und als Benutzerausgabe bereitgestellt werden.
  5. Betriebsverfahren nach Anspruch 3 und 4, dadurch gekennzeichnet, dass die intraoperative künstliche Intelligenz (K2) den Vermerken weitere Informationen betreffend die Anatomiedaten und/oder die Pathologiedaten hinzufügt.
  6. Betriebsverfahren nach Anspruch 5, dadurch gekennzeichnet, dass die intraoperative künstliche Intelligenz (K2) die zweiten Bilddaten verarbeitet, indem eine Kennzeichenerkennung und/oder eine Objekterkennung in den zweiten Bilddaten durchgeführt wird und die intraoperative künstliche Intelligenz (K2) den Vermerken weitere Informationen auf der Grundlage der Anatomiedaten und/oder Pathologiedaten unter zusätzlicher Berücksichtigung der Ergebnisse der Kennzeichenerkennung hinzufügt.
  7. Betriebsverfahren nach einem der Ansprüche 4 bis 6, dadurch gekennzeichnet, dass die intraoperativen Daten (D2) Parameter und/oder Betriebsdaten zumindest eines intraoperativ betriebenen medizinischen Geräts umfassen und die intraoperative künstliche Intelligenz (K2) den Vermerken weitere Informationen betreffend die Parameter und/oder Betriebsdaten des zumindest einen intraoperativ betriebenen medizinischen Geräts hinzufügt.
  8. Betriebsverfahren nach einem der Ansprüche 4 bis 7, dadurch gekennzeichnet, dass die intraoperative künstliche Intelligenz (K2) die zweiten Bilddaten im Hinblick auf zumindest ein in den zweiten Bilddaten sichtbares und intraoperativ eingesetztes chirurgisches Instrument verarbeitet und das chirurgische Instrument kennzeichnende Instrumentendaten erzeugt und Informationen betreffend das eingesetzte chirurgische Instrument den Vermerken hinzufügt.
  9. Betriebsverfahren nach einem der Ansprüche 4 bis 8, dadurch gekennzeichnet, dass die intraoperative künstliche Intelligenz (K2) die zweiten Bilddaten verarbeitet, indem ein Verfahrensstand eines operativen Eingriffs erkannt wird, wobei den Vermerken weitere Informationen bezüglich des Verfahrensstands des operativen Eingriffs hinzugefügt werden.
  10. Betriebsverfahren nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, dass die intraoperativen Daten (D2) Parameter und/oder Betriebsdaten zumindest eines intraoperativ betriebenen medizinischen Geräts umfassen und die intraoperative künstliche Intelligenz (K2) die Parameter und/oder Betriebsdaten verarbeitet und Geräteinformationen, die einen Betriebszustand und/oder eine Konfiguration des zumindest einen medizinischen Geräts kennzeichnen, als Benutzerausgabe bereitgestellt.
  11. Betriebsverfahren nach Anspruch 3 und 10, dadurch gekennzeichnet, dass die intraoperative künstliche Intelligenz (K2) die Geräteinformationen unter zusätzlicher Berücksichtigung der Anatomiedaten und/oder der Pathologiedaten erzeugt.
  12. Betriebsverfahren nach Anspruch 10 oder 11, dadurch gekennzeichnet, dass die intraoperative künstliche Intelligenz (K2) die zweiten Bilddaten verarbeitet, indem ein Verfahrensstand des operativen Eingriffs erkannt wird, wobei die Geräteinformationen unter zusätzlicher Berücksichtigung des Verfahrensstands des operativen Eingriffs erzeugt werden.
  13. Betriebsverfahren nach einem der Ansprüche 1 bis 12, dadurch gekennzeichnet, dass die einzelnen Verarbeitungsschritte in einzelnen KI-Modulen durchgeführt werden.
  14. Betriebsverfahren nach Anspruch 13, dadurch gekennzeichnet, dass eine Mehrzahl von einzelnen KI-Modulen zu einer Modulgruppe zusammengefasst werden, wobei die KI-Module derart miteinander verknüpft werden, dass Ausgabedaten eines ersten KI-Moduls als Eingangsdaten einem zweiten KI-Modul zugeführt werden.
  15. Medizinisches System zum Durchführen eines chirurgischen Eingriffs, umfassend eine Mehrzahl von KI-Modulen, die dazu eingerichtet sind intraoperative Daten (D2) in einzelnen Verarbeitungsschritten zu verarbeiten, wobei die KI-Module derart miteinander verknüpft sind, dass Ausgabedaten eines ersten KI-Moduls als Eingangsdaten einem zweiten KI-Modul zugeführt werden.
DE102018111180.0A 2018-05-09 2018-05-09 Betriebsverfahren für ein medizinisches System und medizinisches System zum Durchführen eines chirurgischen Eingriffs Active DE102018111180B4 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102018111180.0A DE102018111180B4 (de) 2018-05-09 2018-05-09 Betriebsverfahren für ein medizinisches System und medizinisches System zum Durchführen eines chirurgischen Eingriffs
JP2019080872A JP6876090B2 (ja) 2018-05-09 2019-04-22 医療システムの作動方法及び外科手術を行うための医療システム
US16/406,696 US11439466B2 (en) 2018-05-09 2019-05-08 Operating method for a medical system, and medical system for performing a surgical procedure

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018111180.0A DE102018111180B4 (de) 2018-05-09 2018-05-09 Betriebsverfahren für ein medizinisches System und medizinisches System zum Durchführen eines chirurgischen Eingriffs

Publications (2)

Publication Number Publication Date
DE102018111180A1 true DE102018111180A1 (de) 2019-11-14
DE102018111180B4 DE102018111180B4 (de) 2023-01-05

Family

ID=68336616

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018111180.0A Active DE102018111180B4 (de) 2018-05-09 2018-05-09 Betriebsverfahren für ein medizinisches System und medizinisches System zum Durchführen eines chirurgischen Eingriffs

Country Status (3)

Country Link
US (1) US11439466B2 (de)
JP (1) JP6876090B2 (de)
DE (1) DE102018111180B4 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115363752A (zh) * 2022-08-22 2022-11-22 华平祥晟(上海)医疗科技有限公司 智能手术路径指引系统
DE102022204170A1 (de) 2022-04-28 2023-11-02 Siemens Healthcare Gmbh Bereitstellen zumindest eines Prozedurparameters

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4107748A1 (de) 2020-02-20 2022-12-28 Smith&Nephew, Inc. Verfahren zur arthroskopischen videoanalyse und vorrichtungen dafür
EP4128149A1 (de) * 2020-04-03 2023-02-08 Smith&Nephew, Inc. Verfahren zur videosegmentierung in der arthroskopischen chirurgie und vorrichtungen dafür
CN117915853A (zh) * 2021-09-10 2024-04-19 阿瑙特株式会社 推断装置、信息处理方法和计算机程序

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160035093A1 (en) * 2014-07-31 2016-02-04 California Institute Of Technology Multi modality brain mapping system (mbms) using artificial intelligence and pattern recognition

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070078678A1 (en) * 2005-09-30 2007-04-05 Disilvestro Mark R System and method for performing a computer assisted orthopaedic surgical procedure
US20130211232A1 (en) * 2012-02-01 2013-08-15 The Johns Hopkins University Arthroscopic Surgical Planning and Execution with 3D Imaging
KR20140136517A (ko) * 2012-05-02 2014-11-28 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 의학적 애플리케이션들에서 증강 현실을 위한 동적 모델을 이용한 4 차원 이미지 등록
US20140081659A1 (en) * 2012-09-17 2014-03-20 Depuy Orthopaedics, Inc. Systems and methods for surgical and interventional planning, support, post-operative follow-up, and functional recovery tracking
US20170083666A1 (en) * 2015-09-22 2017-03-23 Novartis Ag Presurgical planning for use during surgical procedure
US10810799B2 (en) * 2015-09-28 2020-10-20 Montefiore Medical Center Methods and devices for intraoperative viewing of patient 3D surface images
US20190231436A1 (en) * 2016-09-30 2019-08-01 Koninklijke Philips N.V. Anatomical model for position planning and tool guidance of a medical tool
US10918445B2 (en) * 2016-12-19 2021-02-16 Ethicon Llc Surgical system with augmented reality display
US9922172B1 (en) * 2017-02-28 2018-03-20 Digital Surgery Limited Surgical guidance system based on a pre-coded surgical procedural map

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160035093A1 (en) * 2014-07-31 2016-02-04 California Institute Of Technology Multi modality brain mapping system (mbms) using artificial intelligence and pattern recognition

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ZHANG, J. [et al.]: Rapid surface registration of 3D volumes using a neural network approach. In: Image and vision computing, Vol. 26, 2008, No. 2, S. 201-210. - ISSN 0262-8856 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022204170A1 (de) 2022-04-28 2023-11-02 Siemens Healthcare Gmbh Bereitstellen zumindest eines Prozedurparameters
CN115363752A (zh) * 2022-08-22 2022-11-22 华平祥晟(上海)医疗科技有限公司 智能手术路径指引系统
CN115363752B (zh) * 2022-08-22 2023-03-28 华平祥晟(上海)医疗科技有限公司 智能手术路径指引系统

Also Published As

Publication number Publication date
DE102018111180B4 (de) 2023-01-05
US11439466B2 (en) 2022-09-13
JP6876090B2 (ja) 2021-05-26
US20190343588A1 (en) 2019-11-14
JP2020062372A (ja) 2020-04-23

Similar Documents

Publication Publication Date Title
DE102018111180B4 (de) Betriebsverfahren für ein medizinisches System und medizinisches System zum Durchführen eines chirurgischen Eingriffs
EP2445437B1 (de) Verfahren zum erzeugen von positionsdaten eines instrumentes
EP3332730B1 (de) Verfahren und trackingsystem zum nachverfolgen eines medizinischen objekts
EP1675504B1 (de) Erzeugen eines mit bearbeitungsvermerken versehenen bildes in sterilem arbeitsbereich
EP1326530B1 (de) Verfahren und Vorrichtung zur Identifizierung eines zu behandelnden Auges bei Operationen
EP3441977A1 (de) Verfahren und system zur unterstützung von medizinischem personal
DE112016007005T5 (de) Bildverarbeitungsvorrichtung, Lernvorrichtung, Bildverarbeitungsverfahren, Verfahren zum Erstellen eines Klassifizierungskriteriums, Lernverfahren und Programm
DE102005055657A1 (de) Verfahren zum Betreiben einer medizinischen Diagnoseeinrichtung sowie medizinische Diagnoseeinrichtung
DE102015207727A1 (de) Knochenrepositionierung auf Basis einer automatisierten Zuordnung
DE102021101410A1 (de) Verfahren und System zur Steuerung eines chirurgischen HF-Generators sowie Softwareprogrammprodukt
DE102009009385A1 (de) Verfahren zum Verwalten und/oder Verarbeiten von medizinischen Bilddaten
DE102015114513A1 (de) Medizinische Bildbearbeitungsvorrichtung, Verfahren und Programm
EP1480151A2 (de) Verfahren zur Verarbeitung eines Therapiehinweise umfassenden Datensatzes bei medizinischen Behandlungen
EP3967220B1 (de) Verarbeiten und visualisieren von daten einer elektrischen impedanztomographie
DE102019211526A1 (de) Verfahren und System zum Erzeugen eines angereicherten Bildes eines Zielobjekts, und entsprechendes Computerprogramm und computerlesbares Speichermedium
DE10254941A1 (de) System zum teilautomatisierten Aufbau einer medizinischen Datenbank
DE102004060581B4 (de) Verfahren zur Datenübertragung bei einer medizinischen Maßnahme
DE102022207877A1 (de) Verfahren und Vorrichtung zum Überwachen einer interventionellen Prozedur
DE102022201914A1 (de) Verfahren zur Überwachung eines medizinischen Eingriffs, Überwachungssystem und Gesamtsystem
DE10254938A1 (de) Verfahren zum Betrieb eines telematischen Systems im Gesundheitswesen
DE102022103737A1 (de) Computergestütztes Assistenzsystem und Verfahren
DE102006017839A1 (de) Verfahren zum Monitoring im Rahmen einer bildbasierten klinischen Studie
DE102021107075A1 (de) Verfahren, System und Softwareprogrammprodukt zum Erstellen von Trainingsdaten für endoskopische Anwendungen
EP4345754A1 (de) Verfahren und system zur unterstützung einer auswertung einer videounterstützten medizinischen eingriffsprozedur
DE102018111659A1 (de) Elektrochirurgisches System und Verfahren zum Betreiben eines elektrochirurgischen Systems

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final