DE102021210804A1 - Method and apparatus for providing planning information in preparation for a breast biopsy - Google Patents

Method and apparatus for providing planning information in preparation for a breast biopsy Download PDF

Info

Publication number
DE102021210804A1
DE102021210804A1 DE102021210804.0A DE102021210804A DE102021210804A1 DE 102021210804 A1 DE102021210804 A1 DE 102021210804A1 DE 102021210804 A DE102021210804 A DE 102021210804A DE 102021210804 A1 DE102021210804 A1 DE 102021210804A1
Authority
DE
Germany
Prior art keywords
biopsy
breast
image data
planning information
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021210804.0A
Other languages
German (de)
Inventor
Andreas Fieselmann
Mathias Hörnig
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthineers Ag De
Original Assignee
Siemens Healthcare GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Healthcare GmbH filed Critical Siemens Healthcare GmbH
Priority to DE102021210804.0A priority Critical patent/DE102021210804A1/en
Publication of DE102021210804A1 publication Critical patent/DE102021210804A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/50Clinical applications
    • A61B6/502Clinical applications involving diagnosis of breast, i.e. mammography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • A61B10/0041Detection of breast cancer
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3403Needle locating or guiding means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00115Electrical control of surgical instruments with audible or visual output
    • A61B2017/00119Electrical control of surgical instruments with audible or visual output alarm; indicating an abnormal situation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/025Tomosynthesis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0825Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of the breast, e.g. mammography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning

Abstract

Verfahren zur Bereitstellung einer Planungsinformation (33) zur Vorbereitung einer Brustbiopsie, umfassend die Schritte:- Empfangen von medizinischen Bilddaten (34), die eine zu biopsierende Brust (35) betreffen,- Ermitteln der Planungsinformation (33) durch einen Verarbeitungsalgorithmus (36), der die Bilddaten (34) als Eingangsdaten verarbeitet und durch Maschinenlernen trainiert ist, wobei die Planungsinformation (33) einen voraussichtlich geeigneten Parameterwert für wenigstens einen Biopsieparameter (37) der Brustbiopsie und/oder für wenigstens einen Bildgebungsparameter (38) eines medizinisches Bildgebungsverfahrens zur Überwachung der Brustbiopsie vorgibt,- Bereitstellen der Planungsinformation (33).A method for providing planning information (33) for preparing a breast biopsy, comprising the steps of: - receiving medical image data (34) relating to a breast (35) to be biopsied, - determining the planning information (33) using a processing algorithm (36), which processes the image data (34) as input data and is trained by machine learning, the planning information (33) containing a presumably suitable parameter value for at least one biopsy parameter (37) of the breast biopsy and/or for at least one imaging parameter (38) of a medical imaging method for monitoring the breast biopsy specifies,- providing the planning information (33).

Description

Die Erfindung betrifft ein Verfahren zur Bereitstellung einer Planungsinformation zur Vorbereitung einer Brustbiopsie. Daneben betrifft die Erfindung eine Vorrichtung, ein Computerprogramm und einen computerlesbaren Datenträger.The invention relates to a method for providing planning information for preparing a breast biopsy. In addition, the invention relates to a device, a computer program and a computer-readable data carrier.

Bei einer Brustbiopsie wird mithilfe einer in die Brust eingeführten Nadel aus dieser Gewebe entnommen. Dies dient insbesondere dazu, bei einer Erkennung einer auffälligen Gewebeveränderung beziehungsweise Läsion, beispielsweise im Rahmen eines bildgebenden Untersuchungsverfahrens, auf Basis der Gewebeprobe robust entscheiden zu können, ob beispielsweise ein Tumor vorliegt.During a breast biopsy, tissue is removed from the breast using a needle inserted into the breast. This serves in particular to be able to make a robust decision on the basis of the tissue sample, for example whether a tumor is present, when a conspicuous tissue change or lesion is detected, for example as part of an imaging examination method.

Hierbei ist wesentlich, dass hinreichend viel Gewebe an der korrekten Position entnommen wird, wobei gleichzeitig Eingriffsfolgen, wie beispielsweise eine Narbenbildung, möglichst weitgehend vermieden werden sollen. Um dies zu erreichen, werden Brustbiopsien häufig durch ein medizinisches Bildgebungsverfahren überwacht. Die Überwachung erfolgt hierbei häufig durch Röntgenaufnahmen, wobei stereoskopische Röntgenaufnahmen, eine Tomosynthese oder auch eine Computertomographie genutzt werden können, um Tiefeninformationen zu gewinnen. Alternativ kann z.B. eine Ultraschallbildgebung erfolgen.It is essential here that a sufficient amount of tissue is removed from the correct position, while at the same time the consequences of the intervention, such as scarring, should be avoided as far as possible. To achieve this, breast biopsies are often monitored using a medical imaging technique. In this case, the monitoring is frequently carried out by means of X-ray images, with stereoscopic X-ray images, tomosynthesis or computed tomography being able to be used in order to obtain depth information. Alternatively, e.g. ultrasound imaging can be performed.

Durch eine geeignete Überwachung in Kombination mit einer geeigneten Wahl der Biopsieparameter, also insbesondere der Nadeldicke, die auch als „Gauge“ bezeichnet wird, und der Einstichgeometrie, können die oben angegebenen Ziele prinzipiell erreicht werden. Problematisch ist hierbei jedoch, dass beispielsweise ein Arzt, der einen solchen Eingriff durchführt, relativ viel Erfahrung und Training benötigt, um zuverlässig optimale Parameter für die Biopsie zu wählen, selbst dann, wenn ihm optimale Vorinformationen und medizinische Bilddaten zur Vorbereitung des Eingriffs zur Verfügung stehen. Die als optimal empfundenen Parameter sind zudem bis zu einem Grad subjektiv, wodurch eine gewisse Variabilität des Eingriffsergebnisses resultiert. Hierdurch kann das Ziel, Gewebeverletzungen beziehungsweise Narbenbildung möglichst weitgehend zu vermeiden nicht immer optimal erreicht werden.In principle, the goals stated above can be achieved through suitable monitoring in combination with a suitable selection of the biopsy parameters, i.e. in particular the needle thickness, which is also referred to as “gauge”, and the puncture geometry. However, the problem here is that, for example, a doctor who performs such an intervention requires a relatively large amount of experience and training in order to reliably select optimal parameters for the biopsy, even if optimal prior information and medical image data are available to him to prepare for the intervention . The parameters that are perceived as being optimal are also subjective to a degree, resulting in a certain variability in the outcome of the intervention. As a result, the goal of avoiding tissue injuries or scarring as far as possible cannot always be optimally achieved.

Um eine optimale Überwachung des Eingriffs durch medizinische Bildgebung zu erreichen, ist es typischerweise erforderlich, die Bildgebungsparameter beziehungsweise die Auswertung der Bilddaten, beispielsweise zur Vermeidung von durch die Biopsienadel im Bild verursachten Metallartefakten, für die jeweilige Brustbiopsie anzupassen. Auch hierfür ist viel Erfahrung beziehungsweise ausführliches Training des Bedienpersonals erforderlich und eine subjektive Variabilität der gewählten Parameter, die zu einer insgesamt schlechteren Bildgebung führen kann, kann kaum vermieden werden. Wird im Rahmen der Überwachung des Eingriffs keine optimale Bildqualität erreicht, kann dies wiederum zu einer Verschlechterung des Eingriffsergebnisses führen.In order to achieve optimal monitoring of the intervention using medical imaging, it is typically necessary to adapt the imaging parameters or the evaluation of the image data for the respective breast biopsy, for example to avoid metal artifacts caused by the biopsy needle in the image. This also requires a lot of experience or extensive training of the operating personnel and a subjective variability of the selected parameters, which can lead to poorer imaging overall, can hardly be avoided. If optimal image quality is not achieved during the monitoring of the intervention, this can in turn lead to a deterioration in the outcome of the intervention.

Aus den genannten Punkten resultiert das Problem, dass nicht überall hinreichend erfahrenes und trainiertes medizinisches Personal bereitgestellt werden kann, um ein optimales Biopsieergebnis zu erreichen. Zudem ist grundsätzlich ein sehr hoher Trainingsaufwand erforderlich, um medizinisches Personal für optimale Brustbiopsien auszubilden.The above points result in the problem that medical personnel with sufficient experience and training cannot be made available everywhere in order to achieve an optimal biopsy result. In addition, a very high level of training is generally required to train medical personnel for optimal breast biopsies.

Der Erfindung liegt somit die Aufgabe zugrunde, eine Möglichkeit anzugeben, die Vorbereitung einer Brustbiopsie zu unterstützen und hierdurch bei gleichem Trainingsstand der den Eingriff durchführenden Person bessere Biopsieergebnisse erreichen zu können.The invention is therefore based on the object of specifying a possibility of supporting the preparation of a breast biopsy and thereby being able to achieve better biopsy results with the person performing the procedure having the same level of training.

Die Aufgabe wird erfindungsgemäß durch ein Verfahren zur Bereitstellung einer Planungsinformation zur Vorbereitung einer Brustbiopsie gelöst, dass die folgenden Schritte umfasst:

  • - Empfangen von medizinischen Bilddaten, die eine zu biopsierende Brust betreffen,
  • - Ermitteln der Planungsinformation durch einen Verarbeitungsalgorithmus, der die Bilddaten als Eingangsdaten verarbeitet und durch Maschinenlernen trainiert ist, wobei die Planungsinformation einen voraussichtlich geeigneten Parameterwert für wenigstens einen Biopsieparameter der Brustbiopsie und/oder für wenigstens einen Bildgebungsparameter eines medizinisches Bildgebungsverfahrens zur Überwachung der Brustbiopsie vorgibt,
  • - Bereitstellen der Planungsinformation.
The object is achieved according to the invention by a method for providing planning information for preparing a breast biopsy, which comprises the following steps:
  • - receiving medical image data relating to a breast to be biopsied,
  • - Determination of the planning information by a processing algorithm that processes the image data as input data and is trained by machine learning, the planning information specifying a presumably suitable parameter value for at least one biopsy parameter of the breast biopsy and/or for at least one imaging parameter of a medical imaging method for monitoring the breast biopsy,
  • - Providing the planning information.

Es wird somit vorgeschlagen, auf Basis von medizinischen Bilddaten der zur biopsierenden Brust, die typischerweise ohnehin vorliegen, insbesondere wenn eine medizinische Bildgebung zur Eingriffsüberwachung genutzt werden soll, automatisiert geeignete Parameterwerte für Biopsieparameter beziehungsweise ein zur Überwachung genutztes medizinisches Bildgebungsverfahren zu ermitteln. Diese Parameter können beispielsweise an einen Nutzer, beispielsweise einen den Eingriff durchführten Arzt, ausgegeben werden, der diesen Vorschlag umsetzen beziehungsweise auf Basis seiner eigenen Beurteilung anpassen kann. Der Verarbeitungsalgorithmus wirkt in diesem Fall als eine Art Expertensystem.It is therefore proposed to automatically determine suitable parameter values for biopsy parameters or a medical imaging method used for monitoring on the basis of medical image data of the breast to be biopsied, which is typically available anyway, in particular if medical imaging is to be used to monitor the intervention. These parameters can, for example, be output to a user, for example a doctor who performed the procedure, who can implement this suggestion or adapt it based on his own assessment. In this case, the processing algorithm acts as a kind of expert system.

Ergänzend oder alternativ können die Planungsinformationen beispielsweise auch an eine weitere Einrichtung weitergegeben werden, die beispielsweise dazu dienen kann, den Eingriff beziehungsweise die Positionierung und Orientierung der Nadel vor dem Eingriff zu überwachen und entsprechende Hinweise herauszugeben, und/oder dazu, die Bildgebungseinrichtung zu konfigurieren. Die voraussichtlich geeigneten Parameterwerte werden hierbei vorzugsweise von entsprechend geschultem medizinischem Personal geprüft und bei Bedarf gemäß der eigenen Einschätzung angepasst.In addition or as an alternative, the planning information can also be passed on to another facility, for example For example, it can be used to monitor the intervention or the positioning and orientation of the needle before the intervention and issue appropriate information, and/or to configure the imaging device. The presumably suitable parameter values are preferably checked by appropriately trained medical personnel and, if necessary, adjusted according to their own assessment.

Durch das erfindungsgemäße Verfahren können somit Fehleinschätzungen einer Biopsiesituation, die unter Umständen zu einer falschen Wahl von Parameterwerten führen könnten, vermieden werden. Es wird eine Qualitätssicherung erreicht und selbst dann, wenn die vorgeschlagenen Parameterwerte abgewandelt werden, wird die Behandlungsplanung typischerweise erheblich beschleunigt, da zumindest ein robuster Ausgangspunkt für die Parameterwahl bereitgestellt wird.The method according to the invention thus makes it possible to avoid misjudgments of a biopsy situation, which under certain circumstances could lead to an incorrect choice of parameter values. Quality assurance is achieved and even if the proposed parameter values are modified, treatment planning is typically significantly accelerated since at least a robust starting point for parameter selection is provided.

Das Verfahren ist vorzugsweise als computerimplementiertes Verfahren implementiert, das beispielsweise auf einem Arbeitsplatzrechner, einer im Rahmen der medizinischen Bildgebung genutzten Recheneinrichtung, einem Server oder auch dezentral, zum Beispiel als Cloudlösung, implementiert sein kann.The method is preferably implemented as a computer-implemented method, which can be implemented, for example, on a workstation computer, a computing device used in the context of medical imaging, a server, or also decentrally, for example as a cloud solution.

Die Bereitstellung der Planungsinformation kann beispielsweise über eine Ausgabeeinrichtung, insbesondere graphisch, an einen Nutzer folgen. Beispielsweise kann über die Ausgabeeinrichtung ein Modell der zu biopsierenden Brust mit einer hierin gezeigten Einstichgeometrie der Biopsienadel dargestellt werden, um die vorgeschlagenen Biopsieparameter für einen Nutzer zu visualisieren. Alternativ oder ergänzend kann die Bereitstellung der Planungsinformation auch über eine oder mehrere Schnittstellen erfolgen, beispielsweise um eine medizinische Bildgebungseinrichtung oder eine andere Überwachungseinrichtung geeignet zu konfigurieren. Prinzipiell ist auch eine Bereitstellung über eine Softwareschnittstelle an ein weiteres Programm möglich.The planning information can be provided to a user, for example via an output device, in particular graphically. For example, a model of the breast to be biopsied with a puncture geometry of the biopsy needle shown here can be displayed via the output device in order to visualize the proposed biopsy parameters for a user. Alternatively or additionally, the planning information can also be provided via one or more interfaces, for example in order to suitably configure a medical imaging device or another monitoring device. In principle, provision via a software interface to another program is also possible.

Das erfindungsgemäße Verfahren dient zur Vorbereitung der Brustbiopsie. Somit endet das Verfahren insbesondere vor Beginn des chirurgischen Eingriffs, also insbesondere bevor eine Biopsienadel in die Brust eingeführt wird. Prinzipiell ist es zwar möglich, dass zumindest Teile der Planungsinformation auch im Rahmen der Biopsie selbst genutzt werden, beispielsweise im Rahmen einer Bildgebung beziehungsweise Bilddatenverarbeitung im Rahmen der Biopsie. Das erfindungsgemäße Verfahren selbst kommt jedoch ohne jegliche Schritte aus, die eine chirurgische oder therapeutische Behandlung des menschlichen Körpers oder ein Diagnostizierverfahren am menschlichen Körper darstellen oder umfassen.The method according to the invention serves to prepare for the breast biopsy. The method thus ends in particular before the start of the surgical intervention, ie in particular before a biopsy needle is inserted into the breast. In principle it is possible that at least parts of the planning information are also used within the scope of the biopsy itself, for example within the scope of imaging or image data processing within the scope of the biopsy. However, the method according to the invention itself manages without any steps that represent or include a surgical or therapeutic treatment of the human body or a diagnostic method on the human body.

Der Verarbeitungsalgorithmus kann insbesondere ein neuronales Netz sein oder umfassen. Die Bilddaten werden hierbei insbesondere durch ein convolutional neural network beziehungsweise durch mehrere Faltungsschichten verarbeitet, wobei das Verarbeitungsergebnis insbesondere durch wenigstens eine vollständig verbundene Schicht (fully connected layer) weiterverarbeitet wird, durch die die Planungsinformation beziehungsweise die Parameterwerte bereitgestellt werden. Hierbei können für das neuronale Netz bekannte Netzwerkarchitekturen, wie beispielsweise ein U-Net oder DenseNet, genutzt werden.The processing algorithm can in particular be or include a neural network. In this case, the image data are processed in particular by a convolutional neural network or by a plurality of convolution layers, with the processing result being further processed in particular by at least one fully connected layer, which provides the planning information or the parameter values. Network architectures known for the neural network, such as a U-Net or DenseNet, can be used here.

Der Verarbeitungsalgorithmus kann, wie später noch bezüglich des Trainingsverfahrens genauer erläutert werden wird, insbesondere durch ein überwachtes Lernen trainiert sein. Beispielsweise können Experten auf Basis von medizinischen Bilddaten die jeweiligen geeigneten Parameterwerte vorgeben, die dann gemeinsam mit den jeweiligen medizinischen Bilddaten einen Trainingsdatensatz bilden. Bei Vorliegen von hinreichend vielen Trainingsdatensätzen können dann an sich bekannte Trainingsverfahren, beispielsweise eine Fehlerrückführung, genutzt werden, um den Verarbeitungsalgorithmus zu trainieren.As will be explained in more detail below with regard to the training method, the processing algorithm can be trained in particular by monitored learning. For example, experts can specify the respective suitable parameter values on the basis of medical image data, which then form a training data set together with the respective medical image data. If a sufficient number of training data sets are available, training methods known per se, for example error feedback, can then be used to train the processing algorithm.

Die Planungsinformation kann den voraussichtlich geeigneten Parameterwert für eine voraussichtlich geeignete Nadelgröße und/oder eine voraussichtlich geeignete Einstichposition und/oder einen voraussichtlich geeigneten Einstichwinkel einer Biopsienadel als Biopsieparameter vorgeben. Bezüglich der Nadelgröße kann insbesondere deren Durchmesser angegeben werden. Dies kann beispielsweise als „Gauge“ angegeben werden, wobei diese Größe bei im Rahmen einer Brustbiopsie genutzten Biopsienadel typischerweise zwischen 11 und 18 liegt. Ergänzend oder alternativ kann jedoch auch die Lände der Biopsienadel vorgegeben werden oder Ähnliches. Durch Vorgabe einer geeigneten Nadelgröße kann erreicht werden, dass hinreichen viel Gewebe entnommen werden kann, ohne dass unnötig große Einstichstellen und somit eine unnötig starke Gewebeverletzungen beziehungsweise Narbenbildung resultieren.The planning information can specify the presumably suitable parameter value for a presumably suitable needle size and/or a presumably suitable puncture position and/or a presumably suitable puncture angle of a biopsy needle as a biopsy parameter. With regard to the needle size, in particular its diameter can be specified. This can be specified as a "gauge", for example, with this size typically being between 11 and 18 for the biopsy needle used in the context of a breast biopsy. In addition or as an alternative, however, the length of the biopsy needle can also be specified or the like. By specifying a suitable needle size, it can be achieved that a sufficient amount of tissue can be removed without unnecessarily large puncture sites and thus unnecessarily severe tissue injuries or scarring resulting.

Durch Vorgabe einer geeigneten Einstichposition und eines geeigneten Einstichwinkels wird sichergestellt, dass der relevante Bereich durch die Nadel erreicht wird, wobei durch gemeinsame Variationen dieser Parameter einerseits vermieden werden kann, dass relativ dichtes Gewebe durchstochen werden muss, wodurch potentiell eine Ablenkung der Nadel resultieren könnte, und andererseits Metallartefakte bei einer behandlungsbegleiten Bildgebung vermieden bzw. reduziert werden können. Der Einstichwinkel wird insbesondere als Raumwinkel angegeben.By specifying a suitable puncture position and a suitable puncture angle, it is ensured that the relevant area is reached by the needle, whereby joint variations of these parameters can on the one hand avoid having to pierce relatively dense tissue, which could potentially result in a deflection of the needle, and on the other hand metal artefacts can be avoided or reduced in treatment-accompanying imaging. the one stitch angle is specified in particular as a solid angle.

Ergänzend oder alternativ zu den obig genannten Parametern kann es unter Umständen auch zweckmäßig sein, als Teil der Planungsinformation ein zu nutzendes Biopsieverfahren vorzuschlagen. Beispielsweise kann zwischen einer Feinnadelbiopsie, einer Feinnadelaspirationszytologie und einer Vakuumbiopsie gewählt werden.In addition or as an alternative to the parameters mentioned above, it may also be expedient under certain circumstances to propose a biopsy method to be used as part of the planning information. For example, you can choose between a fine needle biopsy, a fine needle aspiration cytology and a vacuum biopsy.

Die Planungsinformation kann ergänzend oder alternativ eine voraussichtlich geeignete Beschleunigungsspannung und/oder Röntgendosis für wenigstens eine geplante Röntgenaufnahme und/oder einen voraussichtlich geeigneten Verarbeitungsparameter für eine Artefaktreduktion und/oder eine voraussichtlich geeignete Bildgebungsgeometrie als Bildgebungsparameter vorgeben. Dies kann insbesondere dazu dienen, durch geeignete Parametrisierung der Bildgebung und/oder durch eine entsprechend parametrisierte Nachbearbeitung Artefakte, insbesondere Metallartefakte, zu reduzieren, die beispielsweise durch zur Kompression der Brust genutzte Kompressionsplatten und/oder die Biopsienadel selbst erzeugt werden können. Beispielsweise kann im Rahmen der Bildverarbeitung die Segmentierung von Metallobjekten durch Vorgabe entsprechender Verarbeitungsparameter deutlich verbessert werden, da beispielsweise die Position von Kompressionsplatten typischerweise unverändert bleibt und, insbesondere bei einer Kombination mit einer Bereitstellung der obig erläuterten Biopsieparameter, die Abmessungen und Einstichgeometrie der genutzten Biopsienadel zumindest näherungsweise bekannt sind.The planning information can additionally or alternatively specify an expected suitable acceleration voltage and/or x-ray dose for at least one planned x-ray exposure and/or an expected suitable processing parameter for artifact reduction and/or an expected suitable imaging geometry as an imaging parameter. This can be used in particular to reduce artifacts, in particular metal artifacts, which can be generated, for example, by compression plates used to compress the breast and/or the biopsy needle itself, through suitable parameterization of the imaging and/or through appropriately parameterized post-processing. For example, in the context of image processing, the segmentation of metal objects can be significantly improved by specifying appropriate processing parameters, since, for example, the position of compression plates typically remains unchanged and, especially when combined with the provision of the biopsy parameters explained above, the dimensions and puncture geometry of the biopsy needle used are at least approximately are known.

Hierbei ist es möglich, Bildgebungsparameter, beispielsweise die Beschleunigungsspannung und/oder die Röntgendosis, für alle im Rahmen der Bildgebung genutzten Aufnahmen vorzugeben. Es kann jedoch vorteilhalft sein, beispielsweise unterschiedliche Beschleunigungsspannungen und/oder Röntgendosen für unterschiedliche Projektionen im Rahmen der Bildgebung, beispielsweise bei einer Tomosynthese, vorzugeben, um einen größeren Parameterraum für die Optimierung der Aufnahmequalität zu eröffnen.In this case, it is possible to specify imaging parameters, for example the acceleration voltage and/or the x-ray dose, for all recordings used in the context of imaging. However, it can be advantageous to specify, for example, different acceleration voltages and/or X-ray doses for different projections within the framework of imaging, for example in tomosynthesis, in order to open up a larger parameter space for optimizing the recording quality.

Der Verarbeitungsalgorithmus kann als zusätzliche Eingangsdaten die Ausgangsdaten von wenigstens einem Vorverarbeitungsalgorithmus oder von wenigstens zwei Vorverarbeitungsalgorithmen verarbeiten, um die Planungsinformation zu ermitteln. Hierbei kann ausgenutzt werden, dass bereits Algorithmen bekannt sind, die aus medizinischen Bilddaten bestimmte Informationen extrahieren können. Beispielsweise ist es bekannt, Gewebebereiche, in denen bestimmte Merkmale mit hinreichender Wahrscheinlichkeit auftreten, zu erkennen und zu segmentieren. Beispielsweise kann für bestimmte Segmente eine Wahrscheinlichkeit ermittelt werden, dass sie einer bestimmten Klasse angehören, also beispielsweise, dass dort eine Läsion oder eine verdächtige Kalzifikation vorhanden ist. Beispielsweise wird ein solcher Algorithmus im Programm Transpara® der Firma ScreenPoint Medical B.V. bereitgestellt.The processing algorithm can process the output data from at least one preprocessing algorithm or from at least two preprocessing algorithms as additional input data in order to determine the planning information. In this context, use can be made of the fact that algorithms are already known which can extract specific information from medical image data. For example, it is known to identify and segment tissue areas in which certain features occur with sufficient probability. For example, a probability can be determined for specific segments that they belong to a specific class, that is, for example, that a lesion or a suspicious calcification is present there. For example, such an algorithm is used in the Transpara® program from ScreenPoint Medical B.V. provided.

Die Nutzung eines separaten Algorithmus zur Vorverarbeitung und zur Ermittlung der entsprechenden Ausgangsdaten erlaubt es, bewährte und im täglichen Einsatz validierte Algorithmen zu nutzten, um dem Verarbeitungsalgorithmus bereits Informationen mit bekannter Bedeutung, die aus den Bilddaten extrahiert wurden, zuzuführen.The use of a separate algorithm for pre-processing and for determining the corresponding output data makes it possible to use proven algorithms that have been validated in daily use in order to feed the processing algorithm with information of known importance that was extracted from the image data.

Da der Vorverarbeitungsalgorithmus beziehungsweise die Vorverarbeitungsalgorithmen somit getrennt vom Verarbeitungsalgorithmus trainiert und validiert werden können beziehungsweise bereits im trainierten Zustand verfügbar sind, kann der Verarbeitungsalgorithmus beispielsweise durch ein neuronales Netz mit erheblich weniger Neuronen gebildet werden, als wenn eine entsprechende Funktionalität innerhalb des Verarbeitungsalgorithmus selbst implementiert werden sollte. Hierdurch reduziert sich jedoch auch die Zahl der freien Parameter des Vorverarbeitungsalgorithmus, die im Rahmen des Trainings bestimmter werden müssen. Da zudem als Verarbeitungsergebnis typischerweise eine relativ übersichtliche Zahl von geeigneten Parameterwerten ausgegeben werden soll, kann bereits mit einer relativ geringen Zahl von Trainingsdatensätzen ein gutes Trainingsergebnis ohne eine Überanpassung beziehungsweise ein Übertrainieren des Netzes erreicht werden.Since the preprocessing algorithm or the preprocessing algorithms can thus be trained and validated separately from the processing algorithm or are already available in the trained state, the processing algorithm can be formed, for example, by a neural network with considerably fewer neurons than if a corresponding functionality were to be implemented within the processing algorithm itself . However, this also reduces the number of free parameters of the preprocessing algorithm, which must be determined during the training. Since, moreover, a relatively clear number of suitable parameter values is typically to be output as the processing result, a good training result can be achieved with a relatively small number of training data sets without overfitting or overtraining the network.

In Fällen, in denen der Verarbeitungsalgorithmus Faltungsschichten zur Verarbeitung der medizinischen Bilddaten und wenigstens eine hierauf folgende vollverknüpfte Schicht umfasst, ist es insbesondere möglich, dass zumindest Teile der Ausgangsdaten wenigstens eines der Vorverarbeitungsalgorithmen unmittelbar eine der vollverküpften Schichten zugeführt werden und somit die Faltungsschichten nicht durchlaufen. Dies kann die Komplexität des neuronalen Netzes weiter reduzieren, wodurch auch die obig erläuterte Robustheit des Trainings bei nicht allzu großer Trainingsdatensatzanzahl weiter verbessert werden kann.In cases in which the processing algorithm includes convolution layers for processing the medical image data and at least one fully linked layer that follows, it is particularly possible that at least parts of the output data of at least one of the preprocessing algorithms are fed directly to one of the fully linked layers and thus do not go through the convolution layers. This can further reduce the complexity of the neural network, as a result of which the robustness of the training explained above can also be further improved if the number of training data sets is not too large.

Der Vorverarbeitungsalgorithmus oder wenigsten einer der Vorverarbeitungsalgorithmen kann durch ein Verfahren des Maschinenlernens trainiert sein. Insbesondere kann der jeweilige Vorverarbeitungsalgorithmus durch ein neuronales Netz gebildet sein. Hierbei werden vorzugsweise Architekturen genutzt, die eine oder mehrere Faltungsschichten und wenigstens eine nachgeschaltete vollverbundene Schicht umfassen. Beispielsweise können die bereits bezüglich des Verarbeitungsalgorithmus genannten Netzwerkarchitekturen genutzt werden. Vorzugsweise ist auch der Vorverarbeitungsalgorithmus durch ein überwachtes Training, beispielsweise durch Fehlerrückführung, trainiert.The pre-processing algorithm or at least one of the pre-processing algorithms can be trained by a method of machine learning. In particular, the respective pre-processing algorithm can be formed by a neural network. In this case, architectures are preferably used that have one or more convolution layers and at least one downstream fully ver include bonded layer. For example, the network architectures already mentioned with regard to the processing algorithm can be used. The pre-processing algorithm is preferably also trained by monitored training, for example by error feedback.

Der Vorverarbeitungsalgorithmus oder ein jeweiliger der Vorverarbeitungsalgorithmen kann Ausgangsdaten an den Verarbeitungsalgorithmus bereitstellen, die eine die Gewebedichte der zu biopsierenden Brust betreffende Brustdichtinformation und/oder eine einen in den Bilddaten erkannten ausgezeichneten Bereich betreffende Bereichsinformation betreffen. Die Brustdichtinformation kann beispielsweise für jeden Punkt beziehungsweise Voxel in den medizinischen Bilddaten die Gewebedichte beschreiben. Es ist jedoch auch möglich, dass die Brust in Segmente unterschiedlicher Gewebedichte unterteilt wird, wobei eine entsprechende Segmentierung also Brustdichtinformation bereitgestellt werden kann.The pre-processing algorithm or a respective one of the pre-processing algorithms can provide the processing algorithm with output data relating to breast density information relating to the tissue density of the breast to be biopsied and/or area information relating to a distinguished region recognized in the image data. The breast density information can, for example, describe the tissue density for each point or voxel in the medical image data. However, it is also possible for the breast to be subdivided into segments of different tissue density, with a corresponding segmentation thus being able to be provided breast density information.

Der jeweilige ausgezeichnete Bereich kann einerseits ein Bereich sein, aus dem voraussichtlich im Rahmen der Biopsie Gewebe entnommen werden soll, oder andererseits ein Bereich sein, dessen Verletzung vermieden werden soll. Ein ausgezeichneter Bereich kann beispielsweise durch einen Algorithmus erkannt werden, der potenzielle Läsionen erkennt, wie bereits vorangehend erläutert wurde. Die Bereichsinformation kann die Lage des Bereichs, beispielsweise als eine Segmentierung, beschreiben. Ergänzend oder alternativ kann beispielsweise eine Abmessung und/oder eine wahrscheinliche Klasse beziehungsweise Morphologie des Bereichs als Teil der Bereichsinformation ausgegeben werden.The respective marked area can on the one hand be an area from which tissue is expected to be removed as part of the biopsy, or on the other hand be an area whose injury is to be avoided. A distinguished area can be identified, for example, by an algorithm that detects potential lesions, as explained above. The area information can describe the location of the area, for example as a segmentation. Additionally or alternatively, for example, a dimension and/or a probable class or morphology of the area can be output as part of the area information.

Bezüglich der Weiterverarbeitung der Ausgangsdaten durch den Verarbeitungsalgorithmus kann es zweckmäßig sein, Informationen, die sich auf einzelne Punkte oder Voxel beziehen beziehungsweise die eine Segmentierung beschreiben, durch Faltungsschichten des Verarbeitungsalgorithmus gemeinsam mit den medizinischen Bilddaten zu verarbeiten. Das Verarbeitungsergebnis der Faltungsschichten kann dann, optional gemeinsam mit Ausgangsdaten wenigsten eines Vorverarbeitungsalgorithmus, die einzelne Parameter, beispielsweise Durchmesser beziehungsweise Klassen von ausgezeichneten Bereichen, betreffen, durch vollverknüpften Schichten des Verarbeitungsalgorithmus weiterverarbeitet werden.With regard to the further processing of the output data by the processing algorithm, it can be expedient to process information that relates to individual points or voxels or that describes a segmentation, together with the medical image data, using convolution layers of the processing algorithm. The processing result of the convolution layers can then be further processed by fully linked layers of the processing algorithm, optionally together with output data from at least one preprocessing algorithm, which relate to individual parameters, for example diameters or classes of marked areas.

Die Planungsinformation kann an einen Nutzer bereitgestellt werden, wonach eine Nutzereingabe dieses Nutzers erfasst wird, die die Planungsinformation bestätigt und/oder eine Änderung der bereitgestellten Planungsinformation betrifft, wonach ein zusätzliches Training des Verarbeitungsalgorithmus in Abhängigkeit der Nutzereingabe und der Bilddaten durchgeführt wird.The planning information can be provided to a user, after which a user input from this user is recorded, which confirms the planning information and/or relates to a change in the planning information provided, after which an additional training of the processing algorithm is carried out depending on the user input and the image data.

In einigen Fällen kann es sein, dass beispielsweise ein die Biopsie durchführender Arzt die vorgeschlagenen Biopsieparameter und/oder Bildgebungsparameter verändert. Dies kann der Fall sein, wenn durch eine solche Veränderung eine weitere Verbesserung der Biopsie erwartet wird. Eine Änderung kann auch gewünscht sein, wenn verschiedene Parametrisierungen voraussichtlich zu einem zumindest ähnlich guten Biopsieergebnis führen, wobei beispielsweise ein Arzt oder eine Gruppe von Ärzten, beispielsweise in einem bestimmten Land oder einer bestimmten Krankenhauskette, hierbei eine andere Parametrisierung bevorzugt als sie von dem Verarbeitungsalgorithmus vorgeschlagen wird.In some cases, for example, a doctor performing the biopsy may change the proposed biopsy parameters and/or imaging parameters. This may be the case if such a change is expected to further improve the biopsy. A change can also be desired if different parameterizations are expected to lead to at least a similarly good biopsy result, with a doctor or a group of doctors, for example in a specific country or a specific hospital chain, preferring a different parameterization than that suggested by the processing algorithm becomes.

Hierbei können diese Änderungswünsche erfasst werden und zum weiteren Training genutzt werden, beispielsweise indem durch die Bilddaten und die entsprechen angepassten Parameterwerte ein weiterer Trainingsdatensatz gebildet wird. Dieser Trainingsdatensatz kann dann gemeinsam mit weiteren entsprechenden Trainingsdatensätzen und/oder Trainingsdatensätzen, die bereits beim vorangehenden Training des Verarbeitungsalgorithmus genutzt wurden, genutzt werden, um weitere Trainingsiterationen durchzuführen und somit einerseits die Robustheit des Verarbeitungsalgorithmus weiter zu verbessern beziehungsweise andererseits den Verarbeitungsalgorithmus an die Wünsche und Gepflogenheit bestimmter Nutzergruppen anzupassen.In this case, these change requests can be recorded and used for further training, for example by forming a further training data record using the image data and the correspondingly adapted parameter values. This training data set can then be used together with other corresponding training data sets and/or training data sets that were already used in the previous training of the processing algorithm, in order to carry out further training iterations and thus on the one hand to further improve the robustness of the processing algorithm and on the other hand to adapt the processing algorithm to the wishes and custom adapt to specific user groups.

Hierbei ist es insbesondere möglich, dass das weitere Training nur für einen bestimmten Nutzerkreis erfolgt, beispielsweise zur Anpassung an dessen Vorlieben. Beispielsweise kann von einem Anbieter des Verfahrens beziehungsweise einer das Verfahren durchführenden Vorrichtung oder eines entsprechenden Computerprogramms ein vollständig trainierter Verarbeitungsalgorithmus bereitgestellt werden, der jedoch nutzerseitig, beispielsweise durch den Betreiber einer Krankenhauskette, weiter trainiert werden kann, um ihn spezifischen Vorlieben anzupassen.It is particularly possible here for the further training to take place only for a specific group of users, for example to adapt to their preferences. For example, a fully trained processing algorithm can be provided by a provider of the method or a device performing the method or a corresponding computer program, which can be further trained by the user, for example by the operator of a hospital chain, in order to adapt it to specific preferences.

Eine Position und/oder eine Orientierung einer Biopsienadel bezüglich der zu biopsierenden Brust kann vor dem Einstechen der Biopsienadel in die Brust sensorisch erfasst werden, wobei in Abhängigkeit der Position und/oder der Orientierung und der bereitgestellten Planungsinformation eine Hilfsinformation für den oder einen Nutzer ausgegeben wird. Die sensorische Erfassung kann beispielsweise durch eine oder mehrere Kameras erfolgen, es können jedoch auch andere Systeme zur Positions- und/oder Orientierungserfassung genutzt werden, von denen zahlreich im Bereich der Medizintechnik wohl bekannt sind.A position and/or an orientation of a biopsy needle with respect to the breast to be biopsied can be detected by sensors before the biopsy needle pierces the breast, with auxiliary information being output for the user depending on the position and/or the orientation and the planning information provided . The sensory detection can be carried out, for example, by one or more cameras, but other systems for position and/or orientation detection can also be used, many of which are well known in the field of medical technology.

Die Hilfsinformation kann beispielsweise eine Abweichung der Position und/oder Orientierung der Biopsienadel von den entsprechenden Parametern gemäß der Planungsinformation angeben. Insbesondere kann bei einem Überschreiten gewisser Grenzwerte durch die Abweichung optisch und/oder akustisch ein Warnsignal ausgegeben werden und/oder es kann in Abhängigkeit der Abweichung der Position beziehungsweise Orientierung von der durch Planungsinformation vorgegebenen Sollposition beziehungsweise Orientierung beispielsweise eine Farbe einer dargestellten Information angepasst werden, sodass ein Nutzer starke Abweichungen unmittelbar erkennen kann.The auxiliary information can indicate, for example, a deviation in the position and/or orientation of the biopsy needle from the corresponding parameters according to the planning information. In particular, if certain limit values are exceeded by the deviation, a warning signal can be output optically and/or acoustically and/or a color of a displayed piece of information can be adjusted depending on the deviation of the position or orientation from the target position or orientation specified by the planning information, for example, so that a user can immediately recognize strong deviations.

Prinzipiell ist es möglich, die Überwachung von Position und/oder Orientierung und die Ausgabe einer entsprechenden Hilfsinformation auch nach dem Einstechen der Biopsienadel fortzusetzen. Da das erfindungsgemäße Verfahren jedoch vorzugsweise vor dem Beginn des tatsächlichen Eingriffs endet, würde eine solche weiter Überwachung nach dem Einstechen der Nadel vorzugsweise außerhalb des erfindungsgemäßen Verfahrens erfolgen.In principle, it is possible to continue monitoring the position and/or orientation and the output of corresponding auxiliary information even after the biopsy needle has been inserted. However, since the method according to the invention preferably ends before the start of the actual intervention, such further monitoring after the insertion of the needle would preferably take place outside of the method according to the invention.

Der Verarbeitungsalgorithmus kann wenigstens einen unabhängig von den Bilddaten bereitgestellten Zusatzparameter auswerten. Der Zusatzparameter kann beispielsweise einer Patientenakte beziehungsweise -datenbank entnommen werden. Der Zusatzparameter kann beispielsweise das Alter der Patientin, Informationen zu vorangehenden Eingriffen beziehungsweise bereits erfolgen Diagnosen, Befundtexten und Ähnliches umfassen. Beispielsweise ist es möglich Befundtexte vorangehend durch einen weiteren, durch Maschinenlernen trainierten Algorithmus auszuwerten, um diesen relevante Informationen zu entnehmen, die dann als Zusatzparameter bereitgestellt werden können.The processing algorithm can evaluate at least one additional parameter provided independently of the image data. The additional parameter can be taken from a patient file or database, for example. The additional parameter can include, for example, the age of the patient, information on previous interventions or diagnoses that have already been made, texts of findings and the like. For example, it is possible to evaluate findings texts beforehand using a further algorithm trained by machine learning in order to extract relevant information from them, which can then be provided as additional parameters.

Der Verarbeitungsalgorithmus kann die Planungsdaten in Abhängigkeit von als zusätzlichen Eingangsdaten bereitgestellten weiteren medizinischen Bilddaten ermitteln, wobei die weiteren medizinischen Bilddaten ebenfalls die zu biopsierende Brust betreffen, aber zu einem anderen Zeitpunkt und/oder durch eine andere medizinische Bildgebungseinrichtung aufgenommen sind. Unter einer Aufnahme zu einem anderen Zeitpunkt wird insbesondere die Aufnahme im Rahmen einer separaten medizinischen Bildgebung verstanden. Insbesondere können die medizinischen Bilddaten und die weiteren medizinischen Bilddaten jeweils während einer Brustkompression erfasst werden, wobei die Brustkompression zwischen den Aufnahmen aufgehoben wird. Die weiteren medizinischen Bilddaten können beispielsweise im Rahmen einer Vorsorgeuntersuchung vor einer Veränderung des Brustgewebes angefertigt sein, wobei die Biopsie zur Abklärung dieser Veränderung dienen soll. In diesem Fall können die zusätzlichen medizinischen Bilddaten es insbesondere erleichtern, den biopsierelevanten Gewebebereich aufzufinden und somit beispielsweise wie obig erläutert als ausgezeichneten Bereich zu segmentieren.The processing algorithm can determine the planning data as a function of further medical image data provided as additional input data, the further medical image data also relating to the breast to be biopsied, but recorded at a different point in time and/or by a different medical imaging device. A recording at a different point in time is understood to mean, in particular, a recording as part of separate medical imaging. In particular, the medical image data and the further medical image data can each be recorded during a chest compression, with the chest compression being released between the recordings. The further medical image data can be produced, for example, as part of a check-up before a change in the breast tissue, with the biopsy being used to clarify this change. In this case, the additional medical image data can make it easier in particular to locate the biopsy-relevant tissue area and thus, for example, to segment it as a distinguished area, as explained above.

Als Bilddaten können einerseits Röntgendaten und/oder andererseits dreidimensionale Bilddaten oder stereoskopische Bilddaten verwendet werden. Dreidimensionale Röntgenbilddaten könnten beispielsweise durch einen Computertomographen bereitgestellt werden. Da die Bilddaten bei bereits komprimierter Brust unmittelbar vor der Brustbiopsie aufgenommen werden können, kann jedoch häufig keine vollständige Computertomographie durchgeführt werden. Es kann daher z.B. eine Tomosynthese genutzt werden, um dreidimensionale Bilddaten bereitzustellen, oder es kann auch hinreichend sein, stereoskopische Röntgenaufnahmen zu verwenden. Prinzipiell ist das erfindungsgemäße Verfahren auch mit zweidimensionalen Bilddaten durchführbar, wobei jedoch durch Nutzung von zumindest stereoskopischen Bilddaten eine erhebliche Verbesserung der Robustheit und Genauigkeit erreicht werden kann.X-ray data and/or three-dimensional image data or stereoscopic image data can be used as image data. Three-dimensional X-ray image data could be provided by a computer tomograph, for example. However, since the image data can be recorded immediately before the breast biopsy when the breast is already compressed, it is often not possible to carry out a complete computed tomography. For example, tomosynthesis can therefore be used to provide three-dimensional image data, or it can also be sufficient to use stereoscopic X-ray images. In principle, the method according to the invention can also be carried out with two-dimensional image data, but a considerable improvement in robustness and accuracy can be achieved by using at least stereoscopic image data.

Alternativ oder ergänzend können die medizinischen Bilddaten beispielsweise auch durch eine Ultraschallbildgebung oder einen Magnetresonanztomographen erfasst sein.As an alternative or in addition, the medical image data can also be recorded, for example, by means of ultrasound imaging or a magnetic resonance tomograph.

Neben dem erfindungsgemäßen Verfahren zur Bereitstellung einer Planungsinformation betrifft die Erfindung ein Verfahren zum Trainieren eines Verfahrensalgorithmus, der dazu dient, eine Planungsinformation zur Vorbereitung einer Brustbiopsie auf Basis von als Eingangsdaten bereitgestellten medizinischen Bilddaten, die eine jeweilige zu biopsierende Brust betreffen, zu ermitteln, wobei die Planungsinformation einen voraussichtlich geeigneten Parameterwert für wenigstens einen Biopsieparameter der Brustbiopsie und/oder für wenigstens einen Bildgebungsparameter eines medizinischen Bildgebungsverfahrens zur Überwachung der Brustbiopsie vorgibt, wobei ein überwachtes Maschinenlernen auf Basis von Trainingsdatensätzen erfolgt, wobei der jeweilige Trainingsdatensatz zumindest die medizinischen Bilddaten und einen jeweiligen Sollwert für den wenigstens einen Biopsieparameter und/oder den wenigstens einen Bildgebungsparameter umfasst.In addition to the method according to the invention for providing planning information, the invention relates to a method for training a method algorithm which is used to determine planning information for preparing a breast biopsy on the basis of medical image data provided as input data relating to a respective breast to be biopsied, the Planning information specifies a parameter value that is expected to be suitable for at least one biopsy parameter of the breast biopsy and/or for at least one imaging parameter of a medical imaging method for monitoring the breast biopsy, with monitored machine learning taking place on the basis of training data sets, the respective training data set containing at least the medical image data and a respective target value for the at least one biopsy parameter and/or the at least one imaging parameter.

Details zur Struktur des Verarbeitungsalgorithmus wurden bereits vorangehend erläutert. Die Trainingsdatensätze können beispielsweise bereitgestellt werden, indem für jeweilige medizinische Bilddaten die Sollwerte für den wenigstens einen Biopsieparameter beziehungsweise den wenigstens einen Bildgebungsparameter durch menschliche Experten bestimmt werden. Es können jedoch auch andere Ermittlungsverfahren genutzt werden. Das Training kann beispielsweise durch eine Fehlerrückführung erfolgen. Entsprechende Trainingsansätze sind aus anderen Anwendungsbereichen bereits bekannt und sollen daher nicht detailliert erläutert werden. Details zu möglichen weiteren Eingangsdaten des Verarbeitungsalgorithmus, die insbesondere auch in den Trainingsdatensätzen jeweils vorhanden sein können, und zu konkret auszugebenden Parametern wurden bereits obig erläutert.Details on the structure of the processing algorithm have already been explained above. The training data sets can be provided, for example, by using the target values for the at least one bio psieparameter or the at least one imaging parameter are determined by human experts. However, other investigative methods can also be used. The training can take place, for example, by error feedback. Corresponding training approaches are already known from other application areas and will therefore not be explained in detail. Details on possible further input data of the processing algorithm, which can in particular also be present in the training data records, and on parameters to be specifically output have already been explained above.

Für den bereits obig erläuterten Fall, dass der Verarbeitungsalgorithmus als zusätzliche Eingangsdaten die Ausgangsdaten von wenigstens einem Vorverarbeitungsalgorithmus verarbeitet, sind mehrere Trainingsansätze möglich. Einerseits ist es möglich, dass der jeweilige Trainingsdatensatz bereits die entsprechenden Ausgangsdaten umfasst. Andererseits ist es jedoch auch möglich, diese Ausgangsdaten im Rahmen des Trainings jeweils durch Anwendung des entsprechenden Vorverarbeitungsalgorithmus aus den medizinischen Bilddaten zu ermitteln. Diese Ansätze können auch gemischt werden, sodass beispielsweise bereits Ausgangsdaten von wenigstens einem Vorverarbeitungsalgorithmus im Trainingsdatensatz enthalten sind und Ausgangsdaten von wenigstens einem weiteren Vorverarbeitungsalgorithmus erst im Rahmen des Trainings durch Anwenden des jeweiligen Vorverarbeitungsalgorithmus auf die medizinischen Bilddaten ermittelt werden.For the case already explained above, in which the processing algorithm processes the output data of at least one preprocessing algorithm as additional input data, several training approaches are possible. On the one hand it is possible that the respective training data record already includes the corresponding initial data. On the other hand, however, it is also possible to determine these initial data from the medical image data in each case within the scope of the training by using the corresponding pre-processing algorithm. These approaches can also be mixed so that, for example, output data from at least one preprocessing algorithm is already contained in the training data set and output data from at least one further preprocessing algorithm is only determined during training by applying the respective preprocessing algorithm to the medical image data.

Das Verfahren zum Trainieren des Verarbeitungsalgorithmus kann einerseits zu einem ersten Training des Verarbeitungsalgorithmus dienen, durch das z.B. erst die Eignung des Verarbeitungsalgorithmus zu dem genannten Zweck erreicht wird. Ergänzend oder alternativ kann das Verfahren zum Trainieren des Verarbeitungsalgorithmus jedoch auch dazu dienen, einen bereits trainierten Verarbeitungsalgorithmus nachzutrainieren, um einerseits aufgrund einer zunehmend anwachsenden Menge von Trainingsdaten die Qualität und Robustheit der bereitgestellten Planungsinformation weiter zu verbessern und/oder andererseits durch zusätzliches Training des Verarbeitungsalgorithmus die bereitgestellte Planungsinformation beispielsweise an Vorlieben einer bestimmten Nutzergruppe anzupassen, wie bereits obig erläutert wurde.The method for training the processing algorithm can be used, on the one hand, for initial training of the processing algorithm, through which, for example, the suitability of the processing algorithm for the stated purpose is first achieved. Additionally or alternatively, the method for training the processing algorithm can also be used to retrain a processing algorithm that has already been trained, in order to further improve the quality and robustness of the planning information provided on the one hand due to an increasing amount of training data and/or on the other hand by additional training of the processing algorithm adapt provided planning information, for example, to the preferences of a specific user group, as already explained above.

Der Trainingsdatensatz kann von einer Nutzereingabe eines Nutzers abhängen, die erfasst wird, nachdem eine Planungsinformation, die durch den Verarbeitungsalgorithmus in einem vor dem Training vorliegenden Trainingszustand ermittelt wird, an diesen Nutzer bereitgestellt wird, wobei der trainierte Verarbeitungsalgorithmus von dieser Nutzereingabe abhängt. Der Verarbeitungsalgorithmus kann somit z.B. auf Basis von im tatsächlichen Betrieb erfolgten Nutzereingaben zur Anpassung der Planungsinformation weiter verbessert werden beziehungsweise an spezifische Vorlieben von Nutzergruppen angepasst werden. Beispielsweise kann ein Nutzer wenigstens einen Parameterwert für den Biopsieparameter beziehungsweise den Bildgebungsparameter verändern und es kann ein Trainingsdatensatz generiert werden, der die gemäß den Nutzerwünschen angepassten Parameterwerte umfasst. Insbesondere nach einer Erzeugung mehrerer dieser Trainingsdatensätze können diese entweder für sich genommen oder gemeinsam mit weiteren Trainingsdatensätzen, die bereits im ursprünglichen Training genutzt wurden, für zusätzliche Iterationen des Trainingsprozesses genutzt werden.The training dataset may depend on user input from a user that is captured after planning information determined by the processing algorithm in a pre-training training state is provided to that user, with the trained processing algorithm depending on that user input. The processing algorithm can thus be further improved or adapted to the specific preferences of user groups, e.g. on the basis of user inputs made during actual operation to adapt the planning information. For example, a user can change at least one parameter value for the biopsy parameter or the imaging parameter and a training data record can be generated that includes the parameter values adjusted according to the user's wishes. In particular, after several of these training datasets have been generated, they can be used for additional iterations of the training process, either on their own or together with other training datasets that were already used in the original training.

Ergänzend oder alternativ kann die Nutzereingabe beispielsweise dazu dienen, die durch den Verarbeitungsalgorithmus bereitgestellte Planungsinformation zu bewerten und/oder eine Stärke der nutzerseitig vorgenommenen Änderungen an den Parameterwerten beschreiben. Eine solche, zusätzlich im Trainingsdatensatz gespeicherte Information kann beispielsweise dazu dienen, die Gewichtung von Fehlern im Rahmen der Fehlerrückführung in Abhängigkeit einer solchen Bewertung beziehungsweise Korrekturstärke anzupassen.In addition or as an alternative, the user input can be used, for example, to evaluate the planning information provided by the processing algorithm and/or to describe the strength of the changes made to the parameter values by the user. Such information that is additionally stored in the training data set can be used, for example, to adjust the weighting of errors as part of error feedback depending on such an evaluation or correction strength.

Ergänzend oder alternativ kann wenigstens einer der Trainingsdatensätze eine optische Abbildung der von den medizinischen Bilddaten betroffenen Brust und/oder ein in Abhängigkeit dieser Abbildung ermitteltes Verarbeitungsergebnis umfassen, wobei der trainierte Verarbeitungsalgorithmus von dieser optischen Abbildung und/oder von diesem Verarbeitungsergebnis abhängt.Additionally or alternatively, at least one of the training datasets can include an optical image of the breast affected by the medical image data and/or a processing result determined as a function of this image, the trained processing algorithm depending on this optical image and/or this processing result.

Die optische Abbildung kann die Brust insbesondere in einem Zustand abbilden, der nach einer Brustbiopsie vorliegt, die gemäß der im Trainingsdatensatz gespeicherten Planungsinformation beziehungsweise mit zumindest einem dort gespeicherten Parameterwert für den Biopsieparameter und/oder den Bildgebungsparameter durchgeführt wurde. Beispielsweise kann es sich um eine optische Abbildung handeln, die im Rahmen einer Nachuntersuchung aufgenommen wurde. Auf Basis der optischen Abbildung beziehungsweise als Verarbeitungsergebnis kann insbesondere berücksichtigt werden, ob beziehungsweise inwieweit die optische Abbildung eine Narbenbildung zeigt. Somit kann im Rahmen des Trainings nicht nur bereits vorhandenes Expertenwissen genutzt werden, sondern es können auch tatsächliche Ergebnisse von vorangehenden Eingriffen berücksichtigt werden. Der vorangehende Eingriff ist hierbei insbesondere nicht Teil des beanspruchten Trainingsverfahrens, sondern das entsprechende Merkmal betrifft nur die Nutzung von Trainingsdatensätzen mit bestimmten Eigenschaften.The optical imaging can show the breast in a state that is present after a breast biopsy that was performed according to the planning information stored in the training data set or with at least one parameter value stored there for the biopsy parameter and/or the imaging parameter. For example, it can be an optical image that was recorded as part of a follow-up examination. On the basis of the optical image or as a processing result, it can be taken into account in particular whether or to what extent the optical image shows scarring. This means that not only can existing expert knowledge be used during the training, but actual results from previous interventions can also be taken into account. In particular, the preceding intervention is not part of the claimed training method, but the corresponding one Feature only affects the use of training datasets with specific properties.

Die Erfindung betrifft zudem eine Vorrichtung mit Mitteln, die dazu eingerichtet sind, das erfindungsgemäße Verfahren zur Bereitstellung einer Planungsinformation und/oder das erfindungsgemäße Verfahren zum Trainieren eines Verarbeitungsalgorithmus auszuführen.The invention also relates to a device with means that are set up to execute the method according to the invention for providing planning information and/or the method according to the invention for training a processing algorithm.

Bei den Mitteln kann es sich insbesondere um eine programmierbare Verarbeitungseinrichtung, beispielsweise einen Prozessor, einen FPGA, eine GPU oder Ähnliches, mit zugeordnetem Speicher handeln, wobei durch die Verarbeitungseinrichtung ein Computerprogramm ausgeführt wird, das das jeweilige Verfahren implementiert. Die Ausführung eines solchen Programms kann jedoch auch durch mehrere verteilte Verarbeitungseinrichtungen erfolgen, beispielsweise in einer Cloud.The means can in particular be a programmable processing device, for example a processor, an FPGA, a GPU or the like, with an associated memory, with the processing device executing a computer program that implements the respective method. However, such a program can also be executed by a number of distributed processing devices, for example in a cloud.

Die Vorrichtung kann ein lokaler Arbeitsplatzrechner sein, Teil einer medizinischen Bildgebungseinrichtung, ein Server, oder auch als dezentrales System, beispielsweise als Cloudlösung, implementiert sein. Prinzipiell ist es auch möglich, statt einer programmierten Verarbeitungseinrichtung eine festverdrahtete Verarbeitungseinrichtung, beispielweise einen ASIC, zu nutzen.The device can be a local workstation computer, part of a medical imaging device, a server, or implemented as a decentralized system, for example as a cloud solution. In principle, it is also possible to use a hard-wired processing device, for example an ASIC, instead of a programmed processing device.

Die Erfindung betrifft zudem ein Computerprogramm, das bei einer Durchführung auf einer Datenverarbeitungseinrichtung das erfindungsgemäße Verfahren zur Bereitstellung einer Planungsinformation und/oder das erfindungsgemäße Verfahren zum Trainieren eines Verarbeitungsalgorithmus implementiert. Insbesondere kann eine an sich bekannte Datenverarbeitungseinrichtung durch Ausführen des erfindungsgemäßen Computerprogramms eine erfindungsgemäße Vorrichtung bilden.The invention also relates to a computer program which, when executed on a data processing device, implements the method according to the invention for providing planning information and/or the method according to the invention for training a processing algorithm. In particular, a data processing device known per se can form a device according to the invention by executing the computer program according to the invention.

Die Erfindung betrifft zudem einen computerlesbaren Datenträger, der Anweisungen umfasst, die bei einer Ausführung auf einer Datenverarbeitungseinrichtung das erfindungsgemäße Verfahren zur Bereitstellung einer Planungsinformation und/oder das erfindungsgemäße Verfahren zum Trainieren eines Verarbeitungsalgorithmus implementieren.The invention also relates to a computer-readable data carrier which comprises instructions which, when executed on a data processing device, implement the method according to the invention for providing planning information and/or the method according to the invention for training a processing algorithm.

Weitere Vorteile und Einzelheiten der Erfindung ergeben sich aus den folgenden Ausführungsbeispielen sowie den zugehörigen Zeichnungen. Hierbei zeigen schematisch:

  • 1 ein Ablaufdiagramm eines Ausführungsbeispiels des erfindungsgemäßen Verfahrens zur Bereitstellung einer Planungsinformation,
  • 2 Datenstrukturen und Algorithmen, die im Rahmen des mit Bezug auf 1 erläuterten Ausführungsbeispiels nutzbar sind,
  • 3 relevante Algorithmen und Datenstrukturen im Rahmen des erfindungsgemäßen Verfahrens zum Trainieren eines Verarbeitungsalgorithmus,
  • 4 eine mögliche Systemarchitektur zur Durchführung der mit Bezug auf die 1-3 erläuterten Verfahren einschließlich einer Vorrichtung zur Durchführung dieser Verfahren, und
  • 5/6 vereinfachte Darstellungen von neuronalen Netzen, die in den erfindungsgemäßen Verfahren als Verarbeitungsalgorithmus nutzbar sind.
Further advantages and details of the invention result from the following exemplary embodiments and the associated drawings. Here show schematically:
  • 1 a flowchart of an exemplary embodiment of the method according to the invention for providing planning information,
  • 2 Data structures and algorithms referred to in the context of 1 explained embodiment can be used,
  • 3 relevant algorithms and data structures within the scope of the method according to the invention for training a processing algorithm,
  • 4 a possible system architecture for carrying out with reference to the 1-3 described methods including an apparatus for carrying out these methods, and
  • 5 /6 simplified representations of neural networks that can be used as a processing algorithm in the method according to the invention.

1 zeigt ein Ablaufdiagramm eines Verfahrens zur Bereitstellung einer Planungsinformation 33 zur Vorbereitung einer Brustbiopsie. Im einfachsten Fall wäre es hierbei möglich, dass ausschließlich die Schritte S1, S5 und S6 ausgeführt werden. Die weiteren Schritte dienen einerseits dazu, das Verfahrensergebnis, also die Planungsinformation 33, weiter zu verbessern, und andererseits dazu, dass der in Schritt S5 genutzte Verarbeitungsalgorithmus 36 mit geringerem Aufwand und insbesondere einer geringeren Anzahl von Trainingsdatensätzen robust trainiert werden kann. Im Folgenden soll jedoch zunächst die einfachste Verfahrensausgestaltung, die ausschließlich die Schritte S1, S5 und S6 umfasst, erläutert werden. 1 shows a flowchart of a method for providing planning information 33 for preparing a breast biopsy. In the simplest case, it would be possible here for only steps S1, S5 and S6 to be carried out. The further steps serve on the one hand to further improve the result of the method, i.e. the planning information 33, and on the other hand to ensure that the processing algorithm 36 used in step S5 can be trained robustly with less effort and in particular a smaller number of training data sets. In the following, however, the simplest embodiment of the method, which exclusively includes steps S1, S5 and S6, will first be explained.

In Schritt S1 werden zunächst medizinische Bilddaten 34 empfangen, die eine zu biopsierende Brust 35 betreffen. Ein Beispiel für entsprechenden Bilddaten ist in 2 schematisch dargestellt, wobei dort zur Verbesserung der Übersichtlichkeit ausschließlich eine zweidimensionale Bilddarstellung gezeigt ist. Bei den Bilddaten 34 kann es sich hingegen vorzugsweise um stereoskopische Bilddaten oder dreidimensionale Bilddaten handeln, die beispielsweise durch ein Tomosyntheseverfahren an der komprimierten Brust aufgenommen wurden.In step S1, medical image data 34 relating to a breast 35 to be biopsied are first received. An example of corresponding image data is in 2 shown schematically, only a two-dimensional image representation being shown there to improve clarity. In contrast, the image data 34 can preferably be stereoscopic image data or three-dimensional image data, which were recorded on the compressed breast using a tomosynthesis method, for example.

In Schritt S5 wird durch einen Verarbeitungsalgorithmus 36, der die Bilddaten 34 als Eingangsdaten verarbeitet, die Planungsinformation 33 ermittelt, die anschließend in Schritt S6, beispielsweise an einen Nutzer oder eine externe Einrichtung, bereitgestellt werden kann.In step S5, a processing algorithm 36, which processes the image data 34 as input data, determines the planning information 33, which can then be made available in step S6, for example to a user or an external device.

Der Verarbeitungsalgorithmus 36 ist durch Maschinenlernen trainiert, wobei ein möglicher Ansatz für das Training später noch mit Bezug auf 3 erläutert werden wird. Die Planungsinformation 33 umfasst im Beispiel Parameterwerte für Biopsieparameter 37 der Brustbiopsie und Bildgebungsparameter 38 eines medizinischen Bildgebungsverfahrens zur Überwachung der Brustbiopsie. In dem in 2 dargestellten Beispiel werden hierbei Parameterwerte für eine voraussichtlich geeignete Nadelgröße 39, eine voraussichtlich geeignete Einstichposition 40 und einen voraussichtlich geeigneten Einstichwinkel 41 einer Biopsienadel als Biopsieparameter 37 verwendet. Im gleichen Beispiel werden als Bildgebungsparameter 38 eine Beschleunigungsspannung 42 und eine Röntgendosis 43 für geplante Röntgenaufnahmen, ein voraussichtlich geeigneter Verarbeitungsparameter 44 für eine Artefaktreduktion, beispielsweise ein Bildbereich, in dem voraussichtlich Metallartefakte zu erwarten sind, und eine voraussichtlich geeignete Bildgebungsgeometrie 45 vorgegeben. Es ist auch möglich, dass nur Teile der genannten Parameter als Planungsinformation 33 bereitgestellt werden. In einigen Fällen kann es auch vorteilhaft sein, Teile der Bildgebungsparameter 38, wie beispielsweise die voraussichtlich geeignete Röntgendosis 43, separat für mehrere separate Röntgenaufnahmen vorzugeben.The processing algorithm 36 is trained by machine learning, a possible approach to the training being discussed later with reference to FIG 3 will be explained. In the example, the planning information 33 includes parameter values for biopsy parameters 37 of the breast biopsy and imaging parameters 38 of a medical imaging method for monitoring the breast biopsy. in the in 2 example shown here are parameter values for an expected suitable needle size 39, a presumably suitable puncture position 40 and a presumably suitable puncture angle 41 of a biopsy needle are used as biopsy parameters 37. In the same example, an acceleration voltage 42 and an X-ray dose 43 for planned X-ray exposures, a presumably suitable processing parameter 44 for artifact reduction, for example an image area in which metal artifacts are expected to be expected, and a presumably suitable imaging geometry 45 are specified as imaging parameters 38. It is also possible that only parts of the parameters mentioned are provided as planning information 33 . In some cases it can also be advantageous to specify parts of the imaging parameters 38, such as the presumably suitable X-ray dose 43, separately for a number of separate X-ray recordings.

Durch Nutzung der zusätzlich in 1 dargestellten Schritte S2 bis S4 und S7 bis S12 beziehungsweise auch durch Nutzung von nur Teilen dieser zusätzlichen Schritte kann die Robustheit des Verfahrens verbessert werden und die Anzahl der Trainingsdatensätze, die zum robusten Training des Verarbeitungsalgorithmus 36 erforderlich sind, potenziell deutlich reduziert werden. Zudem kann durch ein nachgelagertes Training beispielsweise eine Anpassung des Verarbeitungsalgorithmus 36 an Vorlieben bestimmter Nutzergruppen erreicht werden.By using the additional in 1 illustrated steps S2 to S4 and S7 to S12 or by using only parts of these additional steps, the robustness of the method can be improved and the number of training data sets that are required for robust training of the processing algorithm 36 can potentially be significantly reduced. In addition, subsequent training can be used, for example, to adapt the processing algorithm 36 to the preferences of specific user groups.

In Schritt S2 können als zusätzliche Eingangsdaten weitere medizinische Bilddaten 57 bereitgestellt werden, in deren Abhängigkeit der Verarbeitungsalgorithmus 36 die Planungsdaten 33 ermittelt. Die weiteren medizinischen Bilddaten 57 betreffen ebenfalls die zu biopsierende Brust 35, sind jedoch zu einem anderen Zeitpunkt und/oder mit einer anderer medizinische Bildgebungseinrichtung aufgenommen. Beispielsweise kann es sich bei den weiteren medizinischen Bilddaten 57 um Bilddaten handeln, die durch ein unterschiedliches Erfassungsverfahren erfasst wurden, beispielsweise um Ultraschalldaten, wenn es sich bei den medizinischen Bilddaten 34 um Röntgendaten handelt. Hierdurch können unter Umständen Zusatzinformationen gewonnen werden, die für die Planung der Biopsie relevant sind.In step S2 further medical image data 57 can be provided as additional input data, depending on which the processing algorithm 36 determines the planning data 33 . The further medical image data 57 also relate to the breast 35 to be biopsied, but are recorded at a different point in time and/or with a different medical imaging device. For example, the additional medical image data 57 can be image data that was captured using a different detection method, for example ultrasound data, if the medical image data 34 is X-ray data. In this way, under certain circumstances, additional information can be obtained that is relevant for planning the biopsy.

Besonders bevorzugt sind die weiteren medizinischen Bilddaten 57 jedoch auf die gleiche Weise aufgenommen wie die medizinischen Bilddaten 34, jedoch zu einem vorangehenden Zeitpunkt, beispielsweise zu einem Zeitpunkt, an dem eine zu biopsierende Gewebeveränderung noch nicht vorlag. Dies kann es deutlich erleichtern, biopsierelevante Bereiche der Brust 35 zu erkennen.However, the further medical image data 57 is particularly preferably recorded in the same way as the medical image data 34, but at a previous point in time, for example at a point in time at which a tissue change to be biopsied was not yet present. This can make it much easier to identify areas of the breast 35 that are relevant for a biopsy.

In Schritt S3 können zudem Zusatzparameter 58 bereitgestellt werden, die durch den Verarbeitungsalgorithmus 36 verarbeitet werden. Beispielsweise kann es sich hierbei um Informationen aus einer Patientendatenbank beziehungsweise -akte handeln. Wie bereits im allgemeinen Teil detailliert diskutiert wurde, kann es beispielsweise relevant sein, ein Alter der Patientin, beziehungsweise vorangehende Eingriffe, Befunde und/oder Diagnosen zu berücksichtigen.Additional parameters 58 can also be provided in step S3, which are processed by the processing algorithm 36. For example, this can be information from a patient database or file. As already discussed in detail in the general part, it can be relevant, for example, to take into account the age of the patient or previous interventions, findings and/or diagnoses.

In Schritt S4 kann eine Vorverarbeitung der Bilddaten 34 durch verschiedene Vorverarbeitungsalgorithmen 47, 48 erfolgen, um jeweilige Ausgangsdaten 46 an den Verarbeitungsalgorithmus 36 bereitzustellen. Hierbei kann ausgenutzt werden, dass bereits Algorithmen bekannt und im klinischen Alltag getestet sind, die beispielsweise Bereiche erkennen und klassifizieren können, bei denen es sich um Läsionen handeln könnte und/oder die lokale Gewebeeigenschaften, beispielsweise eine Brustdichte, ermitteln können. Durch die Vorverarbeitung in Schritt S3 kann vermieden werden, dass entsprechende relevante Informationen durch den Verarbeitungsalgorithmus 36 selbst ermittelt werden müssen, wodurch dessen Komplexität sinkt und hierdurch ein robustes Training bereits durch eine relativ kleine Anzahl von Trainingsdatensätzen möglich sein kann.In step S4, the image data 34 can be pre-processed by various pre-processing algorithms 47, 48 in order to provide the respective output data 46 to the processing algorithm 36. In this context, use can be made of the fact that algorithms are already known and tested in everyday clinical practice which, for example, can identify and classify areas which could be lesions and/or which can determine local tissue properties, for example breast density. The pre-processing in step S3 makes it possible to avoid having to determine relevant information by the processing algorithm 36 itself, which reduces its complexity and as a result robust training can already be possible with a relatively small number of training data sets.

Die Verarbeitungsalgorithmen 47, 48 können als Ausgangsdaten beispielsweise eine die Gewebedichte der zu biopsierenden Brust 35 betreffende Brustdichteinformation 49 und wenigstens eine Bereichsinformation 50 betreffen, die in den Bilddaten erkannte, ausgezeichnete Bereiche 51, 52 betrifft.As output data, the processing algorithms 47, 48 can, for example, relate to breast density information 49 relating to the tissue density of the breast 35 to be biopsied and at least one area information item 50, which relates to marked regions 51, 52 recognized in the image data.

Der in 2 gezeigte ausgezeichnete Bereich 51 kann beispielsweise ein Bereich besonders hoher Gewebedichte sein, der im Rahmen der Biopsie gemieden werden sollte, um ein Ablenken der Biopsienadel zu vermeiden. Der ausgezeichnete Bereich 52 kann beispielsweise jener Bereich sein, der voraussichtlich biopsiert werden soll, beziehungsweise in dem voraussichtlich eine Läsion vorhanden ist. Wie bereits im allgemeinen Teil diskutiert wurde, sind Anwendungen bzw. Algorithmen bekannt, die beispielsweise für bestimmte Gewebebereiche eine Wahrscheinlichkeit angeben können, dass dort eine Läsion vorliegt.the inside 2 The distinguished area 51 shown can, for example, be an area of particularly high tissue density, which should be avoided during the biopsy in order to avoid deflecting the biopsy needle. The marked area 52 can be, for example, that area which is expected to be biopsied or in which a lesion is expected to be present. As already discussed in the general part, applications or algorithms are known which, for example, can indicate a probability that a lesion is present in certain tissue areas.

Wie in 2 schematisch dargestellt ist, können die Ausgangsdaten 46 der Vorverarbeitungsalgorithmen 47, 48 in unterschiedliche Schichten eines als neuronales Netz ausgebildeten Verarbeitungsalgorithmus 36 eingespeist werden. Der Verarbeitungsalgorithmus 36 kann beispielsweise zunächst mehrere Faltungsschichten 70 umfassen, deren Ausgangsdaten wenigstens einer vollverbundenen Schicht 71 zugeführt werden, die Planungsinformation 33 als Ausgangsdaten bereitstellt. So kann beispielsweise der Vorverarbeitungsalgorithmus 47 dazu dienen, läsionsverdächtige Bereiche zu erkennen, zu vermessen und/oder zu klassifizieren. Beispielsweise kann die Lage des Bereiches 52 dadurch beschrieben werden, dass eine Segmentierung dieses Bereichs in den Bilddaten 34 erfolgt. Da die Segmentierung auf den Bilddaten 34 erfolgen kann, kann es vorteilhaft sein, diese auch durch die Faltungsschichten 70 zu verarbeiten.As in 2 is shown schematically, the output data 46 of the pre-processing algorithms 47, 48 can be fed into different layers of a processing algorithm 36 designed as a neural network. The processing algorithm 36 can, for example, initially comprise a plurality of convolution layers 70, the output data of which are supplied to at least one fully connected layer 71, the planning in formation 33 provides as output data. For example, the pre-processing algorithm 47 can be used to identify, measure and/or classify areas suspected of having a lesion. For example, the position of the area 52 can be described in that this area is segmented in the image data 34 . Since the segmentation can take place on the image data 34, it can be advantageous to also process this by the convolution layers 70.

Andererseits können bestimmte charakteristische Größen, beispielsweise ein Durchmesser oder eine Morphologie beziehungsweise eine Klasse des Bereichs 52 ermittelt werden und, da diese Informationen nicht bestimmten Bildbereichen zugeordnet sind, unmittelbar der wenigstens einen vollverbundenen Schicht 71 zugeführt werden.On the other hand, specific characteristic variables, for example a diameter or a morphology or a class of the area 52 can be determined and, since this information is not assigned to specific image areas, can be fed directly to the at least one fully connected layer 71 .

Der Vorverarbeitungsalgorithmus 48 kann beispielsweise die Brustdichteinformation 49 ermitteln, wobei hierbei beispielsweise jedem Pixel oder Voxel ein jeweiliger Dichtewert zugeordnet wird, oder, wie in 2 schematisch dargestellt ist, wenigstens einen Bereich 51 mit bestimmter Brustdichte segmentiert wird. Da die Brustdichteinformation 49 typischerweise in unterschiedlichen Bildbereichen unterschiedlich ist, ist es typischerweise zweckmäßig, diese durch die Faltungsschichten 70 zu verarbeiten.The pre-processing algorithm 48 can, for example, determine the breast density information 49, in which case, for example, each pixel or voxel is assigned a respective density value, or, as in 2 is shown schematically, at least one area 51 is segmented with a specific breast density. Since the breast density information 49 is typically different in different image areas, it is typically appropriate to process it through the convolution layers 70. FIG.

Die durch den Verarbeitungsalgorithmus 36 bereitgestellte Planungsinformation 33 wird insbesondere durch einen Nutzer, beispielsweise einen Radiologen, geprüft und unter Umständen angepasst, bevor die Biopsie durchgeführt wird. Hierbei kann in Schritt S7 nach der Bereitstellung der Planungsinformation 33 an den Nutzer eine Nutzereingabe 53 dieses Nutzers erfasst werden, die beispielsweise eine Bewertung der bereitgestellten Planungsinformation 33 oder insbesondere Änderungswünsche des Nutzers betrifft. Die gemäß der Nutzereingabe 53 geänderte Planungsinformation 33 beziehungsweise die ursprüngliche Planungsinformation 33 und die Bewertungsinformation können anschließend in Schritt S12 gemeinsam mit den Bilddaten 34 als neuer Trainingsdatensatz 60 gespeichert werden, der zu einem späteren Zeitpunkt zu einem weiteren Training des Verarbeitungsalgorithmus 36 genutzt werden kann, wie in 1 durch den gestrichelten Pfeil dargestellt ist.The planning information 33 provided by the processing algorithm 36 is checked and possibly adjusted by a user, for example a radiologist, before the biopsy is carried out. In step S7, after the planning information 33 has been provided to the user, a user input 53 from this user can be recorded, which, for example, relates to an evaluation of the planning information 33 provided or, in particular, to the user's change requests. The planning information 33 changed according to the user input 53 or the original planning information 33 and the evaluation information can then be stored in step S12 together with the image data 34 as a new training data record 60, which can be used at a later point in time for further training of the processing algorithm 36, such as in 1 is represented by the dashed arrow.

Während es ausreichend sein kann, die Planungsinformation 33 in Schritt S6 an einen Nutzer bereitzustellen, beispielsweise indem eine vorgeschlagene Einstichgeometrie grafisch an einem Brustmodell visualisiert wird, kann es auch vorteilhaft sein, den Nutzer unmittelbar bei der Brustbiopsie beziehungsweise bei der unmittelbareren Vorbereitung der Brustpiopsie vor dem Einstich der Biopsienadel zu unterstützen.While it may be sufficient to provide the planning information 33 to a user in step S6, for example by graphically visualizing a proposed puncture geometry on a breast model, it may also be advantageous to support the user immediately during the breast biopsy or during the more immediate preparation of the breast biopsy before the to support the insertion of the biopsy needle.

Hierzu können, insbesondere vor dem Einstich der Biopsienadel, in Schritt S8 die Position 54 und/oder Orientierung 55 der Biopsienadel sensorisch, beispielsweise mit Hilfe von Videokameras oder anderen, an sich bekannten Positionsdetektoren, erfasst werden. In Schritt S9 können die erfasste Position 54 und Orientierung 55 mit der im Rahmen der Planungsinformation 33 bereitgestellten Einstichposition 40 beziehungsweise dem Einstichwinkel 41 der Biopsienadel verglichen werden und in Abhängigkeit dieses Vergleichs kann in Schritt S9 bedarfsgerecht eine Hilfsinformation 56 an den Nutzer ausgegeben werden.For this purpose, in particular before the biopsy needle is punctured, the position 54 and/or orientation 55 of the biopsy needle can be detected in step S8 by sensors, for example with the aid of video cameras or other position detectors known per se. In step S9, the detected position 54 and orientation 55 can be compared with the puncture position 40 or the puncture angle 41 of the biopsy needle provided as part of the planning information 33, and depending on this comparison, in step S9, auxiliary information 56 can be output to the user as required.

Beispielsweise kann der Hilfsinformation 56 nur dann ausgegeben werden, wenn die Abweichung von der Einstichposition 40 beziehungsweise dem Einstichwinkel 41 einen Grenzwert überschreitet. Es ist jedoch auch möglich, diese Hilfsinformation 56 stets auszugeben, wobei diese beispielsweise die Abweichung von der Solleinstichposition beziehungsweise dem Solleinstichwinkel angibt. Es ist auch möglich, entsprechende Abweichungen beispielsweise farblich zu kodieren, um auf starke Abweichungen hinzuweisen.For example, the auxiliary information 56 can only be output if the deviation from the puncture position 40 or the puncture angle 41 exceeds a limit value. However, it is also possible to always output this auxiliary information 56, which indicates, for example, the deviation from the target puncture position or the target puncture angle. It is also possible to color-code corresponding deviations, for example, in order to indicate major deviations.

In Schritt S10 wird die Biopsie selbst durchgeführt. Da es sich hierbei nicht mehr um einen Schritt des Verfahrens zur Bereitstellung einer Planungsinformation zur Vorbereitung der Brustbiopsie handelt, ist dieser Schritt vom weiteren Verfahren durch einen gestrichelten Pfeil separiert. Es erschien dennoch zweckmäßig, den Schritt S10 im Ablaufdiagramm in 1 zu zeigen, um die im Folgenden dargestellte Möglichkeit, weitere Trainingsdaten 60 für ein weiteres Training des Verarbeitungsalgorithmus 36 zu generieren, zu verdeutlichen.In step S10, the biopsy itself is performed. Since this is no longer a step in the method for providing planning information in preparation for the breast biopsy, this step is separated from the rest of the method by a dashed arrow. Nevertheless, it seemed appropriate to carry out step S10 in the flow chart in 1 in order to clarify the possibility presented below of generating further training data 60 for further training of the processing algorithm 36 .

Schritt S11 wird durchgeführt, nachdem die in Schritt S10 durchgeführte Brustbiopsie abgeschlossen ist, beispielsweise im Rahmen eines Nachsorgetermins. Hierbei wird eine optische der Brust 35 erfasst, die insbesondere dazu dient, eine mögliche Narbenbildung oder andere Indizien, die auf eine nicht optimale Biopsie hinweisen, zu dokumentieren. Die optische kann genutzt werden, um einen Trainingsdatensatz 60 zu ergänzen, der die Bilddaten 34 sowie die ermittelten und optional durch die Nutzereingabe 53 geänderten Planungsinformationen 33 umfasst. Dies ermöglicht es, im Rahmen des Trainings beispielsweise zu berücksichtigen, ob es bei der Nutzung bestimmter Planungsinformationen 33 bei gegebenen medizinischen Bilddaten 34 zu einer Narbenbildung oder anderen Nachteilen kam. Ist dies der Fall, kann der entsprechende Trainingsdatensatz verworfen werden beziehungsweise im Rahmen des Trainings geringer oder sogar negativ gewichtet werden.Step S11 is carried out after the breast biopsy carried out in step S10 has been completed, for example as part of a follow-up appointment. Here, an optical of the breast 35, which serves in particular to document possible scarring or other indications that point to a non-optimal biopsy. The optical can be used to supplement a training data record 60 that includes the image data 34 and the planning information 33 determined and optionally changed by the user input 53 . This makes it possible, for example, to take into account during the training whether scarring or other disadvantages occurred when certain planning information 33 was used with given medical image data 34 . If this is the case, the corresponding training data set can be discarded which are weighted less or even negatively within the framework of the training.

3 zeigt schematisch das Zusammenwirken der relevanten Algorithmen und Datenstrukturen in einem Verfahren zum Trainieren eines Verarbeitungsalgorithmus 36, der dazu dient, eine Planungsinformation 33 zur Vorbereitung einer Brustbiopsie auf Basis von als Eingangsdaten bereitgestellten medizinischen Bilddaten 34 zu ermitteln. Insbesondere kann durch das mit Bezug auf 3 beschriebene Verfahren der in dem mit Bezug auf 1 und 2 erläuterten Verfahren genutzte Verarbeitungsalgorithmus 36 trainiert werden. 3 shows schematically the interaction of the relevant algorithms and data structures in a method for training a processing algorithm 36, which is used to determine planning information 33 for preparing a breast biopsy on the basis of medical image data 34 provided as input data. In particular, by referring to 3 the method described in the reference to 1 and 2 The processing algorithm 36 used in the methods explained can be trained.

Zunächst werden mehrere Trainingsdatensätze 60 bereitgestellt, die jeweils zumindest die Bilddaten 34 sowie die Sollwerte 31-36 für wenigstens einen Biopsieparameter 37 beziehungsweise Bildgebungsparameter 38 umfassen. Da, wie vorangehend erläutert, im Rahmen der Ermittlung der Planungsinformation wenigstens ein Vorverarbeitungsalgorithmus 47 genutzt werden soll, dessen Ausgangsdaten durch den Verarbeitungsalgorithmus 36 verarbeitet werden sollen, werden zunächst die Bilddaten 34 des jeweiligen Trainingsdatensatzes 60 durch diesen Vorverarbeitungsalgorithmus 47 verarbeitet, um die Ausgangsdaten 46 bereitzustellen. Diese werden gemeinsam mit den Bilddaten 34 durch den zunächst untrainierten Verarbeitungsalgorithmus 36 verarbeitet.First, multiple training datasets 60 are provided, each of which includes at least the image data 34 and the target values 31-36 for at least one biopsy parameter 37 or imaging parameter 38 . Since, as explained above, at least one preprocessing algorithm 47 is to be used within the framework of determining the planning information, the output data of which is to be processed by the processing algorithm 36, the image data 34 of the respective training data set 60 are first processed by this preprocessing algorithm 47 in order to provide the output data 46 . These are processed together with the image data 34 by the initially untrained processing algorithm 36 .

Der Verarbeitungsalgorithmus 36 weist zahlreiche Parameter 72 auf, die durch das Training bestimmt werden können und beispielsweise im untrainierten Zustand zunächst auf zufällige Werte gesetzt sein können. Die Parameter 72 können beispielsweise Eingangsgewichte der Neuronen eines zu trainierenden neuronalen Netzes sein.The processing algorithm 36 has numerous parameters 72 that can be determined by the training and, for example, can initially be set to random values in the untrained state. The parameters 72 can be input weights of the neurons of a neural network to be trained, for example.

Die durch den Verarbeitungsalgorithmus 36 ermittelte Planungsinformation 33 umfasst für die Biopsie- beziehungsweise Bildgebungsparameter Istwerte 73-75, die, je nach Trainingszustand des Verarbeitungsalgorithmus 36, von den mit dem jeweiligen Trainingsdatensatz 60 bereitgestellten Sollwerten 61-63 abweichen. Auf Basis dieser Abweichung kann z.B. eine, an sich aus dem Stand der Technik bekannte Fehlerrückführung 76 genutzt werden, um die Parameterwerte der Parameter 72 des Verarbeitungsalgorithmus 36 derart anzupassen, dass eine auf Basis der Istwerte 73-75 und der Sollwerte 61-63 ermittelte Fehlersumme minimiert wird.The planning information 33 determined by the processing algorithm 36 includes actual values 73-75 for the biopsy or imaging parameters, which, depending on the training state of the processing algorithm 36, deviate from the target values 61-63 provided with the respective training data record 60. Based on this deviation, for example, an error feedback 76 known per se from the prior art can be used to adapt the parameter values of the parameters 72 of the processing algorithm 36 in such a way that an error sum determined on the basis of the actual values 73-75 and the setpoint values 61-63 is minimized.

4 zeigt eine mögliche Systemarchitektur, innerhalb der die obig beschriebenen Verfahren implementiert werden können. Das Verfahren zur Bereitstellung der Planungsinformation beziehungsweise das Verfahren zum Trainieren des Verarbeitungsalgorithmus können beide durch eine gemeinsame Vorrichtung 65 implementiert sein. Alternativ wäre es auch möglich, separate Vorrichtungen für diese beiden Verfahren zu nutzen oder auch nur eines dieser Verfahren zu implementieren. 4 shows a possible system architecture within which the methods described above can be implemented. The method for providing the planning information or the method for training the processing algorithm can both be implemented by a common device 65 . Alternatively, it would also be possible to use separate devices for these two methods or to implement just one of these methods.

Die Vorrichtung 65 weist Mittel zum Implementieren der Verfahren auf, wobei das Mittel 66 eine programmierbare Verarbeitungseinrichtung, beispielsweise ein Mikroprozessor, ist und das Mittel 67 ein Speicher, der ein Computerprogramm 68 beziehungsweise ein jeweiliges Computerprogramm 68 umfasst, durch das die Verfahren beziehungsweise das jeweilige Verfahren implementiert werden. Die Vorrichtung 65 ist somit eine an sich bekannte Datenverarbeitungseinrichtung 69, die durch entsprechende Programmierung zur Durchführung des der Verfahren eingerichtet ist.The device 65 has means for implementing the method, the means 66 being a programmable processing device, for example a microprocessor, and the means 67 being a memory which comprises a computer program 68 or a respective computer program 68, by which the method or the respective method to be implemented. The device 65 is thus a data processing device 69 known per se, which is set up by appropriate programming to carry out the method.

Die medizinischen Bilddaten 34 können durch eine medizinische Bildgebungseinrichtung 59 bereitgestellt werden, wobei die Bereitstellung im Beispiel indirekt über eine Datenbank 78 erfolgt, sodass die Ermittlung der Planungsinformation potenziell auch noch deutlich nach der Bildgebung selbst möglich wäre. Die Datenbank 78 kann zudem die bereits obig erläuterten weiteren medizinischen Bilddaten 57 und/oder Zusatzparameter 58 speichern, die im Rahmen der Ermittlung der Planungsinformation ausgewertet werden können.The medical image data 34 can be provided by a medical imaging device 59, with the provision being made indirectly via a database 78 in the example, so that the determination of the planning information would potentially also be possible significantly after the imaging itself. The database 78 can also store the additional medical image data 57 already explained above and/or additional parameters 58, which can be evaluated as part of the determination of the planning information.

Die Planungsinformation kann im einfachsten Fall über eine Ausgabeeinrichtung 81, beispielsweise einen Bildschirm, an einen Nutzer ausgegeben werden. Zusätzlich oder alternativ kann die Planungsinformation dazu genutzt werden, vorgeschlagene beziehungsweise aufgrund einer Nutzereingabe an der Benutzerschnittstelle 79 angepasste Bildgebungsparameter unmittelbar an die Bildgebungseinrichtung 59 bereitzustellen beziehungsweise Biopsieparameter an eine Überwachungseinrichtung 80 bereitzustellen. Die Überwachungseinrichtung 80 kann gemeinsam mit einer Sensorik 77, die beispielsweise Teil der Bildgebungseinrichtung 59 sein kann, Hilfsinformation 56 an den Nutzer geben, wie bereits obig mit Bezug auf die Schritte S8 und S9 in 1 erläutert wurde.In the simplest case, the planning information can be output to a user via an output device 81, for example a screen. Additionally or alternatively, the planning information can be used to provide imaging parameters suggested or adapted based on a user input at the user interface 79 directly to the imaging device 59 or to provide biopsy parameters to a monitoring device 80 . Together with a sensor system 77, which can be part of the imaging device 59, for example, the monitoring device 80 can provide the user with auxiliary information 56, as already mentioned above with reference to steps S8 and S9 in 1 was explained.

Wie obig erläutert, kann der Verarbeitungsalgorithmus 36 insbesondere ein neuronales Netz sein, wobei vorzugsweise sowohl Faltungsschichten als auch vollverbundende Schichten genutzt werden. Das Grundprinzip von neuronalen Netzen wird im Folgenden mit Bezug auf 5 erläutert werden, wobei weitere Besonderheiten von Convolutional Neural Networks beziehungsweise Faltungsschichten anschließend mit Bezug auf 6 erläutert werden.In particular, as discussed above, the processing algorithm 36 may be a neural network, preferably utilizing both convolutional layers and fully connected layers. The basic principle of neural networks is referred to below 5 are explained, with further special features of convolutional neural networks or convolutional layers then with reference to 6 be explained.

5 zeigt ein Ausführungsbeispiel eines künstlichen neuronalen Netzes 1. Englische Ausdrücke für das künstliche neuronale Netz 1 sind „artificial neural network“, „neural network“, „artificial neural net“ oder „neural net“. 5 1 shows an exemplary embodiment of an artificial neural network 1. English expressions for the artificial neural network 1 are “artificial neural network”, “neural network”, “artificial neural net” or “neural net”.

Das künstliche neuronale Netzwerk 1 umfasst Knoten 6 bis 18 (nodes) und Kanten 19 bis 21 (edges), wobei jede Kante 19 bis 21 eine gerichtete Verbindung von einem ersten Knoten 6 bis 18 zu einem zweiten Knoten 6 bis 18 ist. Im Allgemeinen sind der erste Knoten 6 bis 18 und der zweite Knoten 6 bis 18 unterschiedliche Knoten 6 bis 18, es ist jedoch auch denkbar, dass der erste Knoten 6 bis 18 und der zweite Knoten 6 bis 18 identisch sind. Beispielsweise ist in 5 die Kante 19 eine gerichtete Verbindung von dem Knoten 6 zu dem Knoten 9 und die Kante 21 ist eine gerichtete Verbindung von dem Knoten 16 zu dem Knoten 18. Eine Kante 19 bis 21 von einem ersten Knoten 6 bis 18 zu einem zweiten Knoten 6 bis 18 wird als eingehende Kante („ingoing edge“) für den zweiten Knoten 6 bis 18 und als ausgehende Kante („outgoing edge“) für den ersten Knoten 6 bis 18 bezeichnet.The artificial neural network 1 comprises nodes 6 to 18 (nodes) and edges 19 to 21 (edges), each edge 19 to 21 being a directed connection from a first node 6 to 18 to a second node 6 to 18. In general, the first node 6-18 and the second node 6-18 are different nodes 6-18, but it is also conceivable that the first node 6-18 and the second node 6-18 are identical. For example, in 5 edge 19 is a directed connection from node 6 to node 9; and edge 21 is a directed connection from node 16 to node 18. An edge 19 to 21 from a first node 6 to 18 to a second node 6 to 18 is referred to as an incoming edge for the second node 6 to 18 and as an outgoing edge for the first node 6 to 18.

In diesem Ausführungsbeispiel können die Knoten 6 bis 18 des künstlichen neuronalen Netzes 1 in Schichten 2 bis 5 (layers) angeordnet werden, wobei die Schichten eine intrinsische Ordnung aufweisen können, die durch die Kanten 19 bis 21 zwischen den Knoten 6 bis 18 eingeführt wird. Insbesondere können Kanten 19 bis 21 nur zwischen benachbarten Schichten von Knoten 6 bis 18 vorgesehen sein. Im dargestellten Ausführungsbeispiel existiert eine Eingabeschicht 2, die lediglich die Knoten 6, 7, 8 aufweist, jeweils ohne eingehende Kante. Die Ausgangsschicht 5 umfasst nur die Knoten 17, 18, jeweils ohne ausgehende Kanten, wobei ferner versteckte Schichten 3 und 4 zwischen der Eingangsschicht 2 und der Ausgangsschicht 5 liegen. Im allgemeinen Fall kann die Zahl der versteckten Schichten 3, 4 beliebig gewählt werden. Die Zahl der Knoten 6, 7, 8 der Eingangsschicht 2 entspricht üblicherweise der Zahl der Eingabewerte in das neuronale Netzwerk 1, und die Zahl der Knoten 17, 18 in der Ausgangsschicht 5 entspricht üblicherweise der Zahl der Ausgabewerte des neuronalen Netzwerks 1.In this exemplary embodiment, the nodes 6 to 18 of the artificial neural network 1 can be arranged in layers 2 to 5 (layers), where the layers can have an intrinsic order introduced by the edges 19 to 21 between the nodes 6 to 18. In particular, edges 19-21 can only be provided between adjacent layers of nodes 6-18. In the exemplary embodiment shown, there is an input layer 2 which only has the nodes 6, 7, 8, each without an incoming edge. The output layer 5 comprises only the nodes 17, 18, each without outgoing edges, with hidden layers 3 and 4 also lying between the input layer 2 and the output layer 5. In the general case, the number of hidden layers 3, 4 can be chosen arbitrarily. The number of nodes 6, 7, 8 of the input layer 2 usually corresponds to the number of input values in the neural network 1, and the number of nodes 17, 18 in the output layer 5 usually corresponds to the number of output values of the neural network 1.

Insbesondere kann eine (reale) Zahl den Knoten 6 bis 18 des neuronalen Netzwerks 1 zugeordnet werden. Dabei bezeichnet x(n)i den Wert des i-ten Knotens 6 bis 18 der n-ten Schicht 2 bis 5. Die Werte der Knoten 6, 7, 8 der Eingabeschicht 2 sind äquivalent zu den Eingabewerten des neuronalen Netzwerks 1, während die Werte der Knoten 17, 18 der Ausgangsschicht 5 äquivalent zu den Ausgabewerten des neuronalen Netzwerks 1 sind. Darüber hinaus kann jeder Kante 19, 20, 21 ein Gewicht in Form einer realen Zahl zugeordnet sein. Insbesondere ist das Gewicht eine reale Zahl im Intervall [-1, 1] oder im Intervall [0, 1,] . Dabei bezeichnet w(m'n)i,j das Gewicht der Kante zwischen den i-ten Knoten 6 bis 18 der m-ten Schicht 2 bis 5 und den j-ten Knoten 6 bis 18 der n-ten Schicht 2 bis 5. Ferner wird die Abkürzung w i ,j ( n )

Figure DE102021210804A1_0001
für das Gewicht w i ,j ( n ,n + 1 )
Figure DE102021210804A1_0002
definiert.In particular, a (real) number can be assigned to the nodes 6 to 18 of the neural network 1. Where x (n) i denotes the value of the i-th node 6 to 18 of the n-th layer 2 to 5. The values of the nodes 6, 7, 8 of the input layer 2 are equivalent to the input values of the neural network 1, while the Values of the nodes 17, 18 of the output layer 5 are equivalent to the output values of the neural network 1. In addition, each edge 19, 20, 21 can be assigned a weight in the form of a real number. In particular, the weight is a real number in the interval [-1, 1] or in the interval [0, 1,] . Where w (m ' n) i,j denotes the weight of the edge between the i-th node 6 to 18 of the m-th layer 2 to 5 and the j-th node 6 to 18 of the n-th layer 2 to 5. Furthermore, the abbreviation w i ,j ( n )
Figure DE102021210804A1_0001
for the weight w i ,j ( n ,n + 1 )
Figure DE102021210804A1_0002
Are defined.

Um Ausgangswerte des neuronalen Netzes 1 zu berechnen, werden die Eingangswerte durch das neuronale Netz 1 propagiert. Insbesondere können die Werte der Knoten 6 bis 18 des (n+1)-ten Schicht 2 bis 5 basierend auf den Werten der Knoten 6 bis 18 der n-ten Schicht 2 bis 5 berechnet werden durch x j ( n + 1 ) = f ( i x i ( n ) w i , j ( n ) )

Figure DE102021210804A1_0003
In order to calculate output values of the neural network 1, the input values are propagated through the neural network 1. In particular, the values of the nodes 6 to 18 of the (n+1)th layer 2 to 5 can be calculated based on the values of the nodes 6 to 18 of the nth layer 2 to 5 by x j ( n + 1 ) = f ( i x i ( n ) w i , j ( n ) )
Figure DE102021210804A1_0003

Dabei ist f eine Transferfunktion, die auch als Aktivierungsfunktion bezeichnet werden kann. Bekannte Transferfunktionen sind Stufenfunktionen, Sigmoidfunktionen (beispielsweise die logistische Funktion, die verallgemeinerte logistische Funktion, der Tangens hyperbolicus, der Arkustangens, die Fehlerfunktion, die Smoothstep-Funktion) oder Gleichrichterfunktionen (Rectifier). Die Transferfunktion wird im Wesentlichen für Normierungszwecke verwendet.Here f is a transfer function, which can also be referred to as an activation function. Known transfer functions are step functions, sigmoid functions (for example the logistic function, the generalized logistic function, the hyperbolic tangent, the arctangent, the error function, the smoothstep function) or rectifier functions (rectifier). The transfer function is mainly used for normalization purposes.

Insbesondere werden die Werte schichtweise durch das neuronale Netz 1 propagiert, wobei Werte der Eingangsschicht 2 durch die Eingangsdaten des neuronalen Netzes 1 gegeben sind. Werte der ersten versteckten Schicht 3 können basierend auf den Werten der Eingangsschicht 2 des neuronalen Netzes 1 berechnet werden, Werte der zweiten versteckten Schicht 4 können basierend auf den Werten in der ersten versteckten Schicht 3 berechnet werden usw.In particular, the values are propagated layer by layer through the neural network 1 , with values of the input layer 2 being given by the input data of the neural network 1 . Values of the first hidden layer 3 can be calculated based on the values of the input layer 2 of the neural network 1, values of the second hidden layer 4 can be calculated based on the values in the first hidden layer 3, etc.

Um die Werte w i ,j ( n )

Figure DE102021210804A1_0004
für die Kanten 19 bis 21 festlegen zu können, muss das neuronale Netz 1 unter Verwendung von Trainingsdaten trainiert werden. Insbesondere umfassen Trainingsdaten Trainingseingangsdaten und Trainingsausgangsdaten, die im Folgenden als ti bezeichnet werden. Für einen Trainingsschritt wird das neuronale Netzwerk 1 auf die Trainingseingangsdaten angewendet, um berechnete Ausgangsdaten zu ermitteln. Insbesondere umfassen die Trainingsausgangsdaten und die berechneten Ausgangsdaten eine Zahl von Werten, wobei sich die Zahl als die Zahl der Knoten 17, 18 der Ausgangsschicht 5 bestimmt.About the values w i ,j ( n )
Figure DE102021210804A1_0004
for the edges 19 to 21, the neural network 1 must be trained using training data. In particular, training data includes training input data and training output data, which are referred to as t i in the following. For a training step, the neural network 1 is applied to the training input data in order to determine calculated output data. In particular, the training output data and the calculated output data include a number of values, the number being determined as the number of nodes 17, 18 of the output layer 5.

Insbesondere wird ein Vergleich zwischen den berechneten Ausgangsdaten und den Trainingsausgangsdaten verwendet, um die Gewichte innerhalb des neuronalen Netzes 1 rekursiv anzupassen (Rückpropagierungsalgorithmus - „back propagation algorithm“). Insbesondere können die Gewichte entsprechend w' i ,j ( n ) = w i ,j ( n ) γ δ j ( n ) x i ( n )

Figure DE102021210804A1_0005
geändert werden, wobei γ eine Lernrate ist und die Zahlen δ j ( n )
Figure DE102021210804A1_0006
rekursiv berechnet werden können als δ j ( n ) = ( k δ k ( n + 1 ) w j ,k ( n + 1 ) ) f' ( i x i ( n ) w i ,j ( n ) )
Figure DE102021210804A1_0007
basierend auf δ j ( n + 1 ) ,
Figure DE102021210804A1_0008
wenn die (n+1)-te Schicht nicht die Ausgangsschicht 5 ist, und δ j ( n ) = ( x k ( n + 1 ) t j ( n + 1 ) ) f' ( i x i ( n ) w i ,j ( n ) )
Figure DE102021210804A1_0009
falls die (n+1)-te Schicht die Ausgangsschicht 5 ist, wobei f' die erste Ableitung der Aktivierungsfunktion ist und y j ( n + 1 )
Figure DE102021210804A1_0010
der Vergleichstrainingswert für den j-ten Knoten 17, 18 der Ausgangsschicht 5 ist.In particular, a comparison between the calculated output data and the training output data is used to recursively adjust the weights within the neural network 1 (back propagation algorithm - "back propagation algorithms"). In particular, the weights accordingly w' i ,j ( n ) = w i ,j ( n ) g δ j ( n ) x i ( n )
Figure DE102021210804A1_0005
be changed, where γ is a learning rate and the numbers δ j ( n )
Figure DE102021210804A1_0006
can be computed recursively as δ j ( n ) = ( k δ k ( n + 1 ) w j ,k ( n + 1 ) ) f' ( i x i ( n ) w i ,j ( n ) )
Figure DE102021210804A1_0007
based on δ j ( n + 1 ) ,
Figure DE102021210804A1_0008
when the (n+1)th layer is not the output layer 5, and δ j ( n ) = ( x k ( n + 1 ) t j ( n + 1 ) ) f' ( i x i ( n ) w i ,j ( n ) )
Figure DE102021210804A1_0009
if the (n+1)th layer is the output layer 5, where f' is the first derivative of the activation function and y j ( n + 1 )
Figure DE102021210804A1_0010
is the comparison training value for the j-th node 17, 18 of the output layer 5.

Im Folgenden wird im Hinblick auf 6 auch ein Beispiel für ein Convolutional Neural Network (CNN) gegeben. Dabei ist zu beachten, dass der Ausdruck „Schicht“ („layer“) dort auf leicht andere Art und Weise als für klassische neuronale Netze eingesetzt wird. Für ein klassisches neuronales Netz verweist der Ausdruck „Schicht“ nur auf den Satz von Knoten, der eine Schicht bildet, mithin eine bestimmte Generation von Knoten. Für ein Convolutional Neural Network, wird der Ausdruck „Schicht“ oft als ein Objekt benutzt, das aktiv Daten verändert, in anderen Worten als ein Satz von Knoten derselben Generation und entweder den Satz eingehender oder ausgehender Kanten.The following is with regard to 6 also given an example of a Convolutional Neural Network (CNN). It should be noted that the term "layer" is used there in a slightly different way than for classical neural networks. For a classical neural network, the term "layer" only refers to the set of nodes that form a layer, hence a specific generation of nodes. For a convolutional neural network, the term "layer" is often used as an object that actively changes data, in other words a set of nodes of the same generation and either the set of incoming or outgoing edges.

6 zeigt ein Ausführungsbeispiel eines Convolutional Neural Network 22. In dem dargestellten Ausführungsbeispiel umfasst das Convolutional Neural Network 22 eine Eingangsschicht 23, eine Faltungsschicht 24 (Convolutional Layer), eine Pooling-Schicht 25, eine vollständig verbundene Schicht 26 und eine Ausgangsschicht 27. In alternativen Ausgestaltungen kann das Convolutional Neural Network 22 mehrere Faltungsschichten 24, mehrere Pooling-Schichten 25 und mehrere vollständig verbundene Schichten 26, genau wie andere Arten von Schichten, enthalten. Die Reihenfolge der Schichten kann beliebig gewählt werden, wobei üblicherweise vollständig verbundene Schichten 26 die letzten Schichten vor der Ausgangsschicht 27 bilden. 6 shows an embodiment of a convolutional neural network 22. In the illustrated embodiment, the convolutional neural network 22 includes an input layer 23, a convolutional layer 24 (convolutional layer), a pooling layer 25, a fully connected layer 26 and an output layer 27. In alternative embodiments For example, the convolutional neural network 22 may include multiple convolutional layers 24, multiple pooling layers 25, and multiple fully connected layers 26, just like other types of layers. The order of the layers can be selected in any order, with layers 26 that are usually completely connected forming the last layers before the starting layer 27 .

Insbesondere können innerhalb eines Convolutional Neural Network 22 die Knoten 28 bis 32 einer der Schichten 23 bis 27 als in einer d-dimensionalen Matrix oder als d-dimensionales Bild angeordnet verstanden werden. Insbesondere kann im zweidimensionalen Fall der Wert eines Knotens 28 bis 32 mit den Indizes i, j in der n-ten Schicht 23 bis 27 als x(n) [i,j] bezeichnet werden. Es ist darauf hinzuweisen, dass die Anordnung der Knoten 28 bis 31 einer Schicht 23 bis 27 keinerlei Auswirkung auf die Berechnungen innerhalb des Convolutional Neural Network 22 als solches hat, da diese Auswirkungen ausschließlich durch die Struktur und die Gewichte der Kanten gegeben sind.In particular, within a convolutional neural network 22, the nodes 28 to 32 of one of the layers 23 to 27 can be understood as being arranged in a d-dimensional matrix or as a d-dimensional image. In particular, in the two-dimensional case, the value of a node 28 to 32 with indices i,j in the nth layer 23 to 27 can be denoted as x (n) [i,j]. It should be noted that the arrangement of the nodes 28 to 31 of a layer 23 to 27 has no effect whatsoever on the calculations within the convolutional neural network 22 as such, since these effects are only given by the structure and the weights of the edges.

Eine Faltungsschicht 24 ist insbesondere dadurch ausgezeichnet, dass die Struktur und die Gewichte der eingehenden Kanten eine Faltungsoperation basierend auf einer bestimmten Zahl von Kernen bildet. Insbesondere können die Struktur und die Gewichte der eingehenden Kanten so gewählt werden, dass die Werte x k ( n )

Figure DE102021210804A1_0011
der Knoten 29 der Faltungsschicht 24 als eine Faltung x k ( n ) = K k * x ( n 1 )
Figure DE102021210804A1_0012
basierend auf den Werten x(n-1) der Knoten 28 der vorangehenden Schicht 23 ermittelt werden, wobei die Faltung * im zweidimensionalen Fall definiert werden kann als x k ( n ) [ i ,j ] = ( K k * x ( n 1 ) ) [ i ,j ] = i , j ,  K k [ i' ,j' ] x ( n 1 ) [ i i' , j j' ] .
Figure DE102021210804A1_0013
A convolution layer 24 is particularly distinguished in that the structure and the weights of the incoming edges form a convolution operation based on a certain number of kernels. In particular, the structure and weights of the incoming edges can be chosen such that the values x k ( n )
Figure DE102021210804A1_0011
the node 29 of the convolution layer 24 as a convolution x k ( n ) = K k * x ( n 1 )
Figure DE102021210804A1_0012
can be determined based on the values x (n-1) of the nodes 28 of the previous layer 23, where the convolution * in the two-dimensional case can be defined as x k ( n ) [ i ,j ] = ( K k * x ( n 1 ) ) [ i ,j ] = i , j , K k [ i' 'y' ] x ( n 1 ) [ i i' , j j' ] .
Figure DE102021210804A1_0013

Darin ist der k-te Kern Kk eine d-dimensionale Matrix, in diesem Ausführungsbeispiel eine zweidimensionale Matrix, die üblicherweise klein im Vergleich zur Zahl der Knoten 28 bis 32 ist, beispielsweise eine 3x3-Matrix oder eine 5x5-Matrix. Insbesondere impliziert dies, dass die Gewichte der eingehenden Kanten nicht unabhängig sind, sondern so gewählt sind, dass sie obige Faltungsgleichung erzeugen. Im Beispiel für einen Kern, der eine 3x3-Matrix bildet, existieren nur neun unabhängige Gewichte (wobei jeder Eintrag der Kern-Matrix einem unabhängigen Gewicht entspricht), ungeachtet der Zahl der Knoten 28 bis 32 in der entsprechenden Schicht 23 bis 27. Insbesondere ist für eine Faltungsschicht 24 die Zahl der Knoten 29 in der Faltungsschicht 24 äquivalent der Zahl der Knoten 28 in der vorangehenden Schicht 23 multipliziert mit der Zahl der Faltungskerne.Therein, the k-th kernel K k is a d-dimensional matrix, in this exemplary embodiment a two-dimensional matrix, which is usually small compared to the number of nodes 28 to 32, for example a 3x3 matrix or a 5x5 matrix. In particular, this implies that the weights of the incoming edges are not independent, but are chosen such that they generate the convolution equation above. In the example of a kernel forming a 3x3 matrix, there are only nine independent weights (each entry of the kernel matrix corresponding to an independent weight), regardless of the number of nodes 28 through 32 in the corresponding layer 23 through 27. In particular, for a convolutional layer 24, the number of nodes 29 in the convolutional layer 24 is equivalent to the number of nodes 28 in the previous layer 23 multiplied by the number of convolutional kernels.

Wenn die Knoten 28 der vorangehenden Schicht 23 als eine d-dimensionale Matrix angeordnet sind, kann die Nutzung der Mehrzahl von Kernen als Hinzufügung einer weiteren Dimension, die auch als Tiefendimension bezeichnet wird, verstanden werden, so dass die Knoten 29 der Faltungsschicht 24 als eine (d+1)-dimensionale Matrix angeordnet sind. Wenn die Knoten 28 der vorangehenden Schicht 23 bereits als eine (d+1)-dimensionale Matrix mit einer Tiefendimension angeordnet sind, kann die Nutzung einer Mehrzahl von Faltungskernen als Expansion entlang der Tiefendimension verstanden werden, so dass die Knoten 29 der Faltungsschicht 24 gleichermaßen als eine (d+1)-dimensionale Matrix angeordnet sind, wobei die Größe der (d+1)-dimensionalen Matrix in der Tiefendimension um den durch die Zahl der Kerne gebildeten Faktor größer ist als in der vorangehenden Schicht 23.If the nodes 28 of the preceding layer 23 are arranged as a d-dimensional matrix, the use of the plurality of cores can be understood as adding another dimension, also referred to as depth dimension, so that the nodes 29 of the convolutional layer 24 as one (d+1)-dimensional matrix are arranged. If the nodes 28 of the preceding layer 23 are already arranged as a (d+1)-dimensional matrix with a depth dimension, the use of a plurality of convolution kernels can be understood as an expansion along the depth dimension, so that the nodes 29 of the convolution layer 24 are equally as a (d+1)-dimensional mat rix are arranged, the size of the (d+1)-dimensional matrix in the depth dimension being larger than in the preceding layer 23 by the factor formed by the number of nuclei.

Der Vorteil der Nutzung von Faltungsschichten 24 ist, dass die räumlich lokale Korrelation der Eingangsdaten ausgenutzt werden kann, indem ein lokales Verbindungsmuster zwischen Knoten benachbarter Schichten geschaffen wird, insbesondere dadurch, dass jeder Knoten nur zu einem kleinen Bereich der Knoten der vorangehenden Schicht Verbindungen aufweist.The advantage of using convolutional layers 24 is that the spatially local correlation of the input data can be exploited by creating a local connection pattern between nodes of adjacent layers, in particular by each node having connections to only a small portion of the nodes of the previous layer.

Im dargestellten Ausführungsbeispiel umfasst die Eingangsschicht 23 sechsunddreißig Knoten 28, die als eine zweidimensionale 6x6-Matrix angeordnet sind. Die Faltungsschicht 24 umfasst zweiundsiebzig Knoten 29, die als zwei zweidimensionale 6x6-Matrizen angeordnet sind, wobei jede der beiden Matrizen das Ergebnis einer Faltung der Werte der Eingangsschicht 23 mit einem Faltungskern ist. In gleicher Weise können die Knoten 29 der Faltungsschicht 24 als in einer dreidimensionalen 6x6x2-Matrix angeordnet verstanden werden, wobei die zuletzt genannte Dimension die Tiefendimension ist.In the illustrated embodiment, the input layer 23 includes thirty-six nodes 28 arranged as a two-dimensional 6x6 matrix. The convolution layer 24 comprises seventy-two nodes 29 arranged as two 6x6 two-dimensional matrices, each of the two matrices being the result of a convolution of the values of the input layer 23 with a convolution kernel. Likewise, the nodes 29 of the convolution layer 24 can be understood as being arranged in a 6x6x2 three-dimensional matrix, the latter dimension being the depth dimension.

Eine Pooling-Schicht 25 zeichnet sich dadurch aus, dass die Struktur und die Gewichte der eingehenden Kanten sowie die Aktivierungsfunktion ihrer Knoten 30 eine Pooling-Operation basierend auf einer nichtlinearen Pooling-Funktion f definieren. Beispielsweise können im zweidimensionalen Fall die Werte x(n) der Knoten 30 der Pooling-Schicht 25 basierend auf den Werten x(n+1) der Knoten 29 der vorangehenden Schicht 24 als x ( n ) [ i ,j ] = f ( x ( n 1 ) [ id 1 , jd 2 ] , , x ( n 1 ) [ id 1 + d 1 1,  jd 2 + d 2 1 ] )

Figure DE102021210804A1_0014
berechnet werden. In anderen Worten kann durch die Verwendung einer Pooling-Schicht 25 die Zahl der Knoten 29, 30 reduziert werden, indem eine Anzahl von d1 x d2 benachbarter Knoten 29 in der vorangehenden Schicht 24 durch einen einzelnen Knoten 30 ersetzt werden, der als eine Funktion der Werte der genannten Anzahl benachbarter Knoten 29 berechnet wird. Insbesondere kann die Pooling-Funktion f eine Maximumsfunktion, eine Durchschnittsbildung oder die L2-Norm sein. Insbesondere können für eine Pooling-Schicht 25 die Gewichte der eingehenden Kanten festgelegt sein und nicht durch Training modifiziert sein.A pooling layer 25 is characterized in that the structure and the weights of the incoming edges and the activation function of its nodes 30 define a pooling operation based on a non-linear pooling function f. For example, in the two-dimensional case, the values x (n) of the nodes 30 of the pooling layer 25 can be calculated based on the values x (n+1) of the nodes 29 of the previous layer 24 as x ( n ) [ i ,j ] = f ( x ( n 1 ) [ i.e 1 , sb 2 ] , ... , x ( n 1 ) [ i.e 1 + i.e 1 1, sb 2 + i.e 2 1 ] )
Figure DE102021210804A1_0014
be calculated. In other words, by using a pooling layer 25, the number of nodes 29, 30 can be reduced by replacing a number of d 1 xd 2 neighboring nodes 29 in the preceding layer 24 with a single node 30 acting as a function of the values of said number of neighboring nodes 29 is calculated. In particular, the pooling function f can be a maximum function, an averaging, or the L2 norm. In particular, for a pooling layer 25, the weights of the incoming edges can be fixed and not modified by training.

Der Vorteil der Verwendung einer Pooling-Schicht 25 ist, dass die Zahl der Knoten 29, 30 und die Zahl der Parameter reduziert wird. Dies führt zu einer Reduktion der notwendigen Berechnungsmenge innerhalb des Convolutional Neural Network 22 und somit zu einer Steuerung der Überanpassung.The advantage of using a pooling layer 25 is that the number of nodes 29, 30 and the number of parameters is reduced. This leads to a reduction in the necessary amount of calculations within the convolutional neural network 22 and thus to control of the overfitting.

Im dargestellten Ausführungsbeispiel handelt es sich bei der Pooling-Schicht 25 um eine Max-Pooling-Schicht, in der vier benachbarte Knoten mit nur einem einzigen Knoten ersetzt werden, dessen Wert durch das Maximum der Werte der vier benachbarten Knoten gebildet wird. Das Max-Pooling wird auf jede d-dimensionale Matrix der vorherigen Schicht angewendet; in diesem Ausführungsbeispiel wird das Max-Pooling auf jede der zwei zweidimensionalen Matrizen angewendet, so dass sich die Zahl der Knoten von zweiundsiebzig auf achtzehn reduziert.In the illustrated embodiment, the pooling layer 25 is a max-pooling layer in which four neighboring nodes are replaced with only a single node whose value is the maximum of the values of the four neighboring nodes. Max pooling is applied to each d-dimensional matrix of the previous layer; in this embodiment, max-pooling is applied to each of the two two-dimensional matrices, reducing the number of nodes from seventy-two to eighteen.

Eine vollständig verbundene Schicht 26 zeichnet sich dadurch aus, dass eine Mehrzahl, insbesondere alle, Kanten zwischen den Knoten 30 der vorherigen Schicht 25 und den Knoten 31 der vollständig verbundenen Schicht 26 vorhanden sind, wobei das Gewicht jeder der Kanten individuell angepasst werden kann. In diesem Ausführungsbeispiel werden die Knoten 30 der vorangehenden Schicht 25 und der vollständig verbundenen Schicht 26 sowohl als zweidimensionale Matrizen als auch als nichtzusammenhängende Knoten (dargestellt als eine Zeile von Knoten, wobei die Zahl der Knoten zur besseren Darstellbarkeit reduziert wurde) gezeigt. In diesem Ausführungsbeispiel ist die Zahl der Knoten 31 in der vollständig verbundenen Schicht 26 gleich der Anzahl der Knoten 30 in der vorangehenden Schicht 25. In alternativen Ausführungsformen kann die Zahl der Knoten 30, 31 unterschiedlich sein.A fully connected layer 26 is characterized in that there are a plurality, in particular all, edges between the nodes 30 of the previous layer 25 and the nodes 31 of the fully connected layer 26, the weight of each of the edges being individually adjustable. In this embodiment, the nodes 30 of the previous layer 25 and the fully connected layer 26 are shown both as two-dimensional matrices and as non-contiguous nodes (represented as a row of nodes with the number of nodes reduced for clarity). In this embodiment, the number of nodes 31 in the fully connected layer 26 is equal to the number of nodes 30 in the previous layer 25. In alternative embodiments, the number of nodes 30, 31 may be different.

Darüber hinaus werden in diesem Ausführungsbeispiel die Werte der Knoten 32 der Ausgangsschicht 27 bestimmt, indem die Softmax-Funktion auf die Werte der Knoten 31 der vorangehenden Schicht 26 angewendet wird. Durch Anwendung der Softmax-Funktion ist die Summe der Werte aller Knoten 32 der Ausgangsschicht 27 eins und alle Werte aller Knoten 32 der Ausgangsschicht sind reale Zahlen zwischen 0 und 1. Wenn das Convolutional Neural Network 22 zur Klassifizierung von Eingangsdaten genutzt wird, können insbesondere die Werte der Ausgangsschicht 27 als Wahrscheinlichkeit dafür interpretiert werden, dass die Eingangsdaten in eine der unterschiedlichen Klassen fallen.Furthermore, in this embodiment, the values of the nodes 32 of the output layer 27 are determined by applying the soft max function to the values of the nodes 31 of the previous layer 26. By applying the softmax function, the sum of the values of all nodes 32 of the output layer 27 is one and all values of all nodes 32 of the output layer are real numbers between 0 and 1. When the convolutional neural network 22 is used to classify input data, in particular the Values of the output layer 27 are interpreted as the probability that the input data fall into one of the different classes.

Ein Convolutional Neural Network 22 kann ebenso eine ReLU-Schicht aufweisen, wobei ReLU als Akronym für „rectified linear units“ steht. Insbesondere ist die Zahl der Knoten und die Struktur der Knoten innerhalb einer ReLU-Schicht äquivalent zu der Zahl der Knoten und der Strukturen der Knoten der vorangehenden Schicht. Der Wert jedes Knotens in der ReLU-Schicht kann insbesondere durch Anwendung einer Gleichrichtungsfunktion (rectifier function) auf den Wert des entsprechenden Knoten der vorangehenden Schicht berechnet werden. Beispiele für Gleichrichterfunktionen sind f(x)=max(0,x), der Tangens hyperbolicus oder die Sigmoidfunktion.A convolutional neural network 22 can also have a ReLU layer, where ReLU is an acronym for "rectified linear units". In particular, the number of nodes and the structure of the nodes within a ReLU layer is equivalent to the number of nodes and the structure of the nodes of the previous layer. In particular, the value of each node in the ReLU layer can be calculated by applying a rectification function (rectifier function) on the value of the corresponding node of the previous layer. Examples of rectifier functions are f(x)=max(0,x), the hyperbolic tangent or the sigmoid function.

Convolutional Neural Networks 22 können insbesondere basierend auf den Rückpropagierungsalgorithmus trainiert werden. Um eine Überanpassung (overfitting) zu vermeiden, können Verfahren der Regularisierung eingesetzt werden, beispielsweise Dropout einzelner Knoten 28 bis 32, stochastisches Pooling, Nutzen von künstlichen Daten, Gewichtszerfall basierend auf der L1- oder der L2-Norm oder Maximalnorm-Einschränkungen.In particular, convolutional neural networks 22 can be trained based on the backpropagation algorithm. In order to avoid overfitting, regularization methods can be used, for example dropout of individual nodes 28 to 32, stochastic pooling, use of artificial data, weight decay based on the L1 or the L2 norm or maximum norm constraints.

Obwohl die Erfindung im Detail durch das bevorzugte Ausführungsbeispiel näher illustriert und beschrieben wurde, so ist die Erfindung nicht durch die offenbarten Beispiele eingeschränkt und andere Variationen können vom Fachmann hieraus abgeleitet werden, ohne den Schutzumfang der Erfindung zu verlassen.Although the invention has been illustrated and described in detail by the preferred embodiment, the invention is not limited by the disclosed examples and other variations can be derived therefrom by those skilled in the art without departing from the scope of the invention.

Claims (15)

Verfahren zur Bereitstellung einer Planungsinformation (33) zur Vorbereitung einer Brustbiopsie, umfassend die Schritte: - Empfangen von medizinischen Bilddaten (34), die eine zu biopsierende Brust (35) betreffen, - Ermitteln der Planungsinformation (33) durch einen Verarbeitungsalgorithmus (36), der die Bilddaten (34) als Eingangsdaten verarbeitet und durch Maschinenlernen trainiert ist, wobei die Planungsinformation (33) einen voraussichtlich geeigneten Parameterwert für wenigstens einen Biopsieparameter (37) der Brustbiopsie und/oder für wenigstens einen Bildgebungsparameter (38) eines medizinisches Bildgebungsverfahrens zur Überwachung der Brustbiopsie vorgibt, - Bereitstellen der Planungsinformation (33).A method for providing planning information (33) to prepare for a breast biopsy, comprising the steps of: - receiving medical image data (34) relating to a breast (35) to be biopsied, - Determination of the planning information (33) by a processing algorithm (36), which processes the image data (34) as input data and is trained by machine learning, the planning information (33) having a presumably suitable parameter value for at least one biopsy parameter (37) of the breast biopsy and/or or for at least one imaging parameter (38) of a medical imaging method for monitoring the breast biopsy, - Providing the planning information (33). Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Planungsinformation (33) einerseits den voraussichtlich geeigneten Parameterwert für eine voraussichtlich geeignete Nadelgröße (39) und/oder eine voraussichtlich geeignete Einstichposition (40) und/oder einen voraussichtlich geeigneten Einstichwinkel (41) einer Biopsienadel als Biopsieparameter und/oder andererseits eine voraussichtlich geeignete Beschleunigungsspannung (42) und/oder Röntgendosis (43) für wenigstens eine geplante Röntgenaufnahme und/oder einen voraussichtlich geeigneten Verarbeitungsparameter (44) für eine Artefaktreduktion und/oder eine voraussichtlich geeignete Bildgebungsgeometrie (45) als Bildgebungsparameter vorgibt.procedure after claim 1 , characterized in that the planning information (33) on the one hand the presumably suitable parameter value for a presumably suitable needle size (39) and/or a presumably suitable puncture position (40) and/or a presumably suitable puncture angle (41) of a biopsy needle as a biopsy parameter and/or on the other hand, a presumably suitable acceleration voltage (42) and/or x-ray dose (43) for at least one planned x-ray exposure and/or a presumably suitable processing parameter (44) for artifact reduction and/or a presumably suitable imaging geometry (45) as imaging parameters. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass der Verarbeitungsalgorithmus (36) als zusätzliche Eingangsdaten die Ausgangsdaten (46) von wenigstens einem Vorverarbeitungsalgorithmus (47, 48) oder von wenigstens zwei Vorverarbeitungsalgorithmen (47, 48) verarbeitet, um die Planungsinformation (33) zu ermitteln.procedure after claim 1 or 2 , characterized in that the processing algorithm (36) processes the output data (46) from at least one preprocessing algorithm (47, 48) or from at least two preprocessing algorithms (47, 48) as additional input data in order to determine the planning information (33). Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass der Vorverarbeitungsalgorithmus (47, 48) oder wenigstens einer der Vorverarbeitungsalgorithmen (47, 48) durch ein Verfahren des Maschinenlernens trainiert ist.procedure after claim 3 , characterized in that the pre-processing algorithm (47, 48) or at least one of the pre-processing algorithms (47, 48) is trained by a machine learning method. Verfahren nach Anspruch 3 oder 4, dadurch gekennzeichnet, dass der Vorverarbeitungsalgorithmus (47, 48) oder ein jeweiliger der Vorverarbeitungsalgorithmen (47, 48) Ausgangsdaten (46) an den Verarbeitungsalgorithmus (36) bereitstellt, die eine die Gewebedichte der zu biopsierenden Brust (35) betreffende Brustdichteinformation (49) und/oder eine einen in den Bilddaten erkannten ausgezeichneten Bereich (51, 52) betreffe Bereichsinformation (50) betreffen.procedure after claim 3 or 4 , characterized in that the pre-processing algorithm (47, 48) or a respective one of the pre-processing algorithms (47, 48) provides the processing algorithm (36) with output data (46) which contains breast density information (49) relating to the tissue density of the breast (35) to be biopsied and/or relate to area information (50) relating to a distinguished area (51, 52) recognized in the image data. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Planungsinformation (33) an einen Nutzer bereitgestellt wird, wonach eine Nutzereingabe (53) dieses Nutzers erfasst wird, die die Planungsinformation (33) bestätigt und/oder eine Änderung der bereitgestellten Planungsinformation (33) betrifft, wonach ein zusätzliches Training des Verarbeitungsalgorithmus (36) in Abhängigkeit der Nutzereingabe (53) und der Bilddaten (34) durchgeführt wird.Method according to one of the preceding claims, characterized in that the planning information (33) is provided to a user, after which a user input (53) from this user is recorded, which confirms the planning information (33) and/or a change in the planning information (33 ) concerns, after which an additional training of the processing algorithm (36) depending on the user input (53) and the image data (34) is carried out. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass eine Position (54) und/oder eine Orientierung (55) einer Biopsienadel bezüglich der zu biopsierenden Brust (35) vor dem Einstechen der Biopsienadel in die Brust (35) sensorisch erfasst werden, wobei in Abhängigkeit der Position (54) und/oder der Orientierung (55) und der bereitgestellten Planungsinformation (33) eine Hilfsinformation (56) für den oder einen Nutzer ausgegeben wird.Method according to one of the preceding claims, characterized in that a position (54) and / or an orientation (55) of a biopsy needle with respect to the breast (35) to be biopsied before the biopsy needle pierces the breast (35) are detected by sensors, wherein depending on the position (54) and/or the orientation (55) and the planning information (33) provided, auxiliary information (56) is output for the or a user. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass der Verarbeitungsalgorithmus (36) wenigstens einen unabhängig von den Bilddaten (34) bereitgestellten Zusatzparameter (58) auswertet.Method according to one of the preceding claims, characterized in that the processing algorithm (36) evaluates at least one additional parameter (58) provided independently of the image data (34). Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass der Verarbeitungsalgorithmus (36) die Planungsinformation (33) in Abhängigkeit von als zusätzliche Eingangsdaten bereitgestellten weiteren medizinischen Bilddaten (57) ermittelt, wobei die weiteren medizinischen Bilddaten (57) ebenfalls die zu biopsierende Brust (35) betreffen, aber zu einem anderen Zeitpunkt und/oder durch eine andere medizinische Bildgebungseinrichtung (59) aufgenommen sind.Method according to one of the preceding claims, characterized in that the processing algorithm (36) determines the planning information (33) as a function of further medical image data (57) provided as additional input data, the further medical image data (57) also determining the breast to be biopsied ( 35) concern, but at a different time point and/or recorded by another medical imaging device (59). Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass als Bilddaten (34) einerseits Röntgendaten und/oder andererseits dreidimensionale Bilddaten (34) oder stereoskopische Bilddaten (34) verwendet werden.Method according to one of the preceding claims, characterized in that X-ray data on the one hand and/or three-dimensional image data (34) or stereoscopic image data (34) on the other hand are used as image data (34). Verfahren zum Trainieren eines Verarbeitungsalgorithmus (36), der dazu dient, eine Planungsinformation (33) zur Vorbereitung einer Brustbiopsie auf Basis von als Eingangsdaten bereitgestellten medizinischen Bilddaten (34), die eine jeweilige zu biopsierende Brust (35) betreffen, zu ermitteln, wobei die Planungsinformation (33) einen voraussichtlich geeigneten Parameterwert für wenigstens einen Biopsieparameter (37) der Brustbiopsie und/oder für wenigstens einen Bildgebungsparameter (38) eines medizinisches Bildgebungsverfahrens zur Überwachung der Brustbiopsie vorgibt, wobei ein überwachtes Maschinenlernen auf Basis von Trainingsdatensätzen (60) erfolgt, wobei der jeweilige Trainingsdatensatz (60) zumindest die medizinischen Bilddaten (34) und einen jeweiligen Sollwert (61-63) für den wenigstens einen Biopsieparameter (37) und/oder den wenigstens einen Bildgebungsparameter (38) umfasst.Method for training a processing algorithm (36), which is used to determine planning information (33) for preparing a breast biopsy on the basis of medical image data (34) provided as input data, which relate to a respective breast (35) to be biopsied, wherein the Planning information (33) specifies a parameter value that is expected to be suitable for at least one biopsy parameter (37) of the breast biopsy and/or for at least one imaging parameter (38) of a medical imaging method for monitoring the breast biopsy, with monitored machine learning taking place on the basis of training data sets (60), wherein the respective training data record (60) comprises at least the medical image data (34) and a respective target value (61-63) for the at least one biopsy parameter (37) and/or the at least one imaging parameter (38). Verfahren nach Anspruch 11, dadurch gekennzeichnet, dass wenigstens einer der Trainingsdatensätze - einerseits von einer Nutzereingabe (53) eines Nutzers abhängt, die erfasst wird, nachdem eine Planungsinformation (33), die durch den Verarbeitungsalgorithmus (36) in einem vor dem Training vorliegenden Trainingszustand ermittelt wird, an diesen Nutzer bereitgestellt wird, und/oder - andererseits eine optische Abbildung (64) der von den medizinischen Bilddaten (34) betroffenen Brust (35) und/oder ein in Abhängigkeit dieser Abbildung (64) ermitteltes Verarbeitungsergebnis umfasst, wobei der trainierte Verarbeitungsalgorithmus (36) von dieser Nutzereingabe (53) und/oder dieser optischen Abbildung (64) und/oder diesem Verarbeitungsergebnis abhängt.procedure after claim 11 , characterized in that at least one of the training data sets - on the one hand depends on a user input (53) of a user that is recorded after planning information (33) that is determined by the processing algorithm (36) in a training state that is present before the training is made available to this user, and/or - on the other hand, comprises an optical image (64) of the breast (35) affected by the medical image data (34) and/or a processing result determined as a function of this image (64), the trained processing algorithm (36 ) depends on this user input (53) and/or this optical image (64) and/or this processing result. Vorrichtung mit Mitteln (66, 67), die dazu eingerichtet sind, das Verfahren nach einem der vorangehenden Ansprüche auszuführen.Device with means (66, 67) arranged to carry out the method according to one of the preceding claims. Computerprogramm, dadurch gekennzeichnet, dass es bei einer Durchführung auf einer Datenverarbeitungseinrichtung (69) ein Verfahren gemäß einem der Ansprüche 1 bis 12 implementiert.Computer program, characterized in that when it is carried out on a data processing device (69), a method according to one of Claims 1 until 12 implemented. Computerlesbarer Datenträger, dadurch gekennzeichnet, dass er Anweisungen umfasst, die bei einer Ausführung auf einer Datenverarbeitungseinrichtung (69) ein Verfahren nach einem der Ansprüche 1 bis 12 implementieren.Computer-readable data carrier, characterized in that it comprises instructions which, when executed on a data processing device (69), use a method according to one of Claims 1 until 12 to implement.
DE102021210804.0A 2021-09-28 2021-09-28 Method and apparatus for providing planning information in preparation for a breast biopsy Pending DE102021210804A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102021210804.0A DE102021210804A1 (en) 2021-09-28 2021-09-28 Method and apparatus for providing planning information in preparation for a breast biopsy

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021210804.0A DE102021210804A1 (en) 2021-09-28 2021-09-28 Method and apparatus for providing planning information in preparation for a breast biopsy

Publications (1)

Publication Number Publication Date
DE102021210804A1 true DE102021210804A1 (en) 2023-03-30

Family

ID=85477087

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021210804.0A Pending DE102021210804A1 (en) 2021-09-28 2021-09-28 Method and apparatus for providing planning information in preparation for a breast biopsy

Country Status (1)

Country Link
DE (1) DE102021210804A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017203248B3 (en) 2017-02-28 2018-03-22 Siemens Healthcare Gmbh Method for determining a biopsy position, method for optimizing a position determination algorithm, position determination unit, medical imaging device, computer program products and computer-readable storage media
DE102020122552A1 (en) 2020-08-28 2022-03-03 Siemens Healthcare Gmbh METHOD, EQUIPMENT AND SYSTEM FOR DETERMINING BIOPSY PARAMETERS

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017203248B3 (en) 2017-02-28 2018-03-22 Siemens Healthcare Gmbh Method for determining a biopsy position, method for optimizing a position determination algorithm, position determination unit, medical imaging device, computer program products and computer-readable storage media
DE102020122552A1 (en) 2020-08-28 2022-03-03 Siemens Healthcare Gmbh METHOD, EQUIPMENT AND SYSTEM FOR DETERMINING BIOPSY PARAMETERS

Similar Documents

Publication Publication Date Title
DE10357203B4 (en) Method and control device for operating a magnetic resonance tomography device and magnetic resonance tomography device
EP2041719B1 (en) Method for determining a property map for an object in particular for a living being based on at least one first image in particular a nuclear magnetic resonance image
EP3185215A1 (en) Automated determination of contours on the basis of iterative reconstruction
DE10321722A1 (en) Computer-aided diagnosis of multiple energy images
EP3437559A1 (en) Determination of a functional parameter relating to a local tissue function for multiple tissue areas
DE102016219887A1 (en) Method and system for using measured data
DE102006046285A1 (en) Object vessel-like structures segmented representing method for patient, involves using determined probabilities as criterion for presence of vessel in segmentation process for representation of vessel structures
DE102010022266A1 (en) Method for registering e.g. two-dimensional medical image data of thorax of patient before therapeutic interventions, involves registering image data on another image data using selected registration parameter set
DE10357206A1 (en) Method and image processing system for the segmentation of sectional image data
DE102014007095A1 (en) Method and device for reducing artifacts in computer tomographic images
EP3542721A1 (en) Method for processing parameters of a machine learning method and reconstruction method
DE102020216306A1 (en) Computer-implemented method for operating a medical imaging device, imaging device, computer program and electronically readable data carrier
DE102020206059A1 (en) Computer-implemented method and system for training an evaluation algorithm, computer program and electronically readable data carrier
DE102006059383A1 (en) Method for producing resulting pictures of investigation object, involves detecting multiple magnetic resonance images of investigation object by magnetic resonance photograph mechanism
EP3210537B1 (en) Creation of a three dimensional image of a portion of a body by a x-ray apparatus
DE102015210912A1 (en) Reconstruction of a result image taking into account contour significance data
EP1498851A1 (en) Determination of a three-dimensional body shape, especially an anatomic structure, from two-dimensional projection images
EP3379487A1 (en) Contrast enhanced reproduction of spectral ct image data
DE102021206417B3 (en) Computer-implemented methods and systems for providing a correction algorithm for an X-ray image and for correcting an X-ray image, X-ray device, computer program and electronically readable data carrier
DE102018211106A1 (en) Method for reducing an artifact in a computed tomography image data set
DE102011003138B4 (en) Imaging method with optimized gray value window determination
DE102021210804A1 (en) Method and apparatus for providing planning information in preparation for a breast biopsy
EP3637362A1 (en) Method for adjusting an image impression
EP3797692B1 (en) Method and device for controlling a medical imaging device
DE102012214593A1 (en) Method for detecting foreign object body in X-ray image of human or animal body, involves receiving X-ray image of examination zone of examination object, and detecting foreign object body in X-ray image, and visualizing detection result

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHINEERS AG, DE

Free format text: FORMER OWNER: SIEMENS HEALTHCARE GMBH, MUENCHEN, DE