EP2047424A1 - Method for the creation of panoramic images of the eye fundus - Google Patents

Method for the creation of panoramic images of the eye fundus

Info

Publication number
EP2047424A1
EP2047424A1 EP07786178A EP07786178A EP2047424A1 EP 2047424 A1 EP2047424 A1 EP 2047424A1 EP 07786178 A EP07786178 A EP 07786178A EP 07786178 A EP07786178 A EP 07786178A EP 2047424 A1 EP2047424 A1 EP 2047424A1
Authority
EP
European Patent Office
Prior art keywords
images
determined
areas
image
anchor image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP07786178A
Other languages
German (de)
French (fr)
Inventor
Axel Doering
Michael Trost
Daniel Baumgarten
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Carl Zeiss Meditec AG
Original Assignee
Carl Zeiss Meditec AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carl Zeiss Meditec AG filed Critical Carl Zeiss Meditec AG
Publication of EP2047424A1 publication Critical patent/EP2047424A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/32Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/35Determination of transform parameters for the alignment of images, i.e. image registration using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Definitions

  • the invention relates to a method for generating or calculating panoramic images of the fundus, in particular from images of a fundus camera.
  • composition margins also referred to as panoramic image
  • various eye diseases such as diabetic retinopathy.
  • solid angles> 50 ° Due to optical and physiological limitations, it is not possible to record solid angles> 50 ° with conventional fundus cameras. To create composition spaces that cover a larger solid angle, therefore overlapping fields are recorded and assembled properly.
  • the disadvantage of these methods is their low robustness, since the detected landmarks must satisfy certain criteria which are influenced by the recording quality (focusing, exposure) and the image detail. Furthermore, a uniform distribution of certain landmarks on the fields is not guaranteed. This can lead to only individual (structurally rich) image areas being included in the determination of the transformation, and e.g. Scaling in the periphery is disregarded. The number of landmarks that can be used to determine the transformation is image-dependent and therefore generally unpredictable.
  • JP 11-332832 it is proposed to store the recording parameters such as direction and magnification for each sub-picture and thus to produce panorama images analytically and without the use of the image content.
  • the object of the invention is to overcome the described disadvantages of the prior art and to provide an effective, automatically effetvigas method for producing Panoramabildem the fundus.
  • This object is achieved according to the invention in a method for producing panoramic images of the ocular fundus, wherein a plurality of initial images, which show different sections of the ocular fundus, are present in digital form, achieved in that
  • a pre-positioning is carried out in which a first variable for the relative geometric assignment of the images is determined among one another, an anchor image is determined to which the first quantities for the relative geometric assignment are related,
  • the pre-positioning is carried out by calculating a two-dimensional cross-correlation between the output images, whereby preferably a downscaling or a resolution reduction of the output images is carried out beforehand.
  • a downscaling or a resolution reduction of the output images is carried out beforehand.
  • an anchor image is determined from the pre-positioning by the number of common areas and / or the distances of the common areas of the output images are evaluated.
  • the block-matching algorithm is applied essentially only to regions of the respective output images for which the pre-positioning gives rise to a possible overlap of the output images.
  • a determination of sub-regions which are particularly suitable for the block matching is carried out by structural analysis, the block matching algorithm preferably being applied to these subregions.
  • This structural analysis may e.g. by determining a maximum information entropy or standard deviation of the image pixels in the subareas.
  • Fig. 1 shows a flowchart of this preferred method.
  • a pre-positioning is determined and evaluated between all possible pairs of the individual images.
  • the mostly high-resolution output images for example about 2000x2000 pixels
  • the mostly high-resolution output images are scaled down, for example to 250x250 pixels, in order to save computing time.
  • it has been found helpful to have existing structures in the images e.g. To emphasize blood vessels by corresponding algorithms known per se (eg, Chaudhuri et al .: "Detection of blood vesicles in retinal images using two-dimensional matched filters" IEEE Transactions on Medical Imaging, Vol. 8 (1989), No.
  • C () is the cross-correlation coefficient
  • a () and B () the two images to be compared are. From the maximum of the cross-correlation coefficient results in a known manner, the 2-dimensional displacement of the images with each other. If no pronounced maximum of the cross-correlation coefficient results, this is an indication that the two images do not overlap. Determination of the anchor image and the calculation order:
  • an anchor image and the order of computation of the transformations of the sub-images are determined.
  • the image selected is the anchor image, which has an overlap area with most of the other images. If several images are the same in this case, it is advisable to determine and compare the sum of the displacements of the potential candidates for the anchor image to all other images, and the one in which this sum is the lowest is chosen as the anchor image.
  • the other images are preferably ordered by the order of the amount of the shift and started with the smallest shift.
  • the second step is the objective, feature-independent determination of the control point pairs by a (preferably hierarchical) block matching method.
  • a block selection criterion a suitable similarity measure, z. B. the correlation coefficient is used.
  • the information entropy for example, the information entropy
  • each overlap area subblocks of e.g. 25x25 pixels are formed and those sub-blocks are formed for which the entropy or the standard deviation are maximal. With these subblocks selected in this way, the matching between the images is then carried out, the computing time being limited by a corresponding limitation of the number of subblocks. You can also select the matching subblocks from the geometric point of view, so as to ensure the most even distribution in the overlapping area. Again, the correlation algorithm may be preferred as the matching algorithm
  • the u, v are the coordinate values in the anchor image (or, in the case where the viewed image has no overlap with the anchor image, the output image) and the x, y are the corresponding coordinate values of the corresponding points in the other viewed image.
  • the a, b are a total of 12 parameters for the transformation between the two images which, together with the corresponding equations for the other control points in the overlapping area between the images, now form an overdetermined system of equations which is e.g. solved by the least squares method (or another suitable numerical method).

Abstract

The invention relates to a method for creating or calculating panoramic images of the eye fundus particularly from images of a fundus camera. Said method is characterized in that: - a pre-positioning process is carried out in which a first variable is determined for geometrically associating the images with each other; - an anchor image is determined as a reference for the first variables for the geometric association; - areas that are associated with each other are determined in the anchor image and the other images; - transformation parameters for a geometric transformation between the anchor image and the other images are determined from the mutual position of said associated areas; and - the other images are transformed onto the anchor image by means of said transformation parameters and are superimposed onto the anchor image and among each other.

Description

Verfahren zur Erstellung von Panorama-Bildem des Augenhintergrundes Method of creating panoramic images of the fundus
Die Erfindung betrifft ein Verfahren zur Erstellung bzw. Berechnung von Panorama-Bildern des Augenhintergrundes insbesondere aus Bildern einer Funduskamera.The invention relates to a method for generating or calculating panoramic images of the fundus, in particular from images of a fundus camera.
Die Erstellung großflächiger Kompositionsaumahmen (auch als Panorama-Bild bezeichnet) des Augenhintergrundes ist für die Befiαndung und Verlaufskontrolle verschiedener Augenkrankheiten, beispielsweise der Diabetischen Retinopathie, notwendig. Aufgrund optischer und physiologischer Begrenzungen ist die Aufnahme von Raumwinkeln >50° mit üblichen Funduskameras nicht möglich. Zur Erstellung von Kompositionsaumahmen, die einen größeren Raumwinkel abdecken, werden daher überlappende Teilbilder aufgenommen und geeignet zusammengesetzt. Dazu müssen die Bilder einander exakt geometrisch zugeordnet werden, außerdem ist häufig eine Anpassung der Intensitäten und/oder Farben erforderlich. Teilweise werden Position und Reihenfolge der Teilbilder durch klinische Protokolle (z.B. ETDRS = Early Treatment Diabetic Retinopathy Study) vorgegeben.The creation of large-scale composition margins (also referred to as panoramic image) of the fundus is necessary for the detection and follow-up of various eye diseases, such as diabetic retinopathy. Due to optical and physiological limitations, it is not possible to record solid angles> 50 ° with conventional fundus cameras. To create composition spaces that cover a larger solid angle, therefore overlapping fields are recorded and assembled properly. For this purpose, the images must be assigned to each other exactly geometric, also often an adjustment of the intensities and / or colors is required. In part, the position and order of the partial images are dictated by clinical protocols (e.g., ETDRS = Early Treatment Diabetic Retinopathy Study).
In der analogen Fundusfotografie werden Abzüge der Teilbilder ausgeschnitten, gegeneinander versetzt und verdreht und zu einem Kompositionsbild zusammengeklebt. Der Bearbeiter versucht dabei, maikante Punkte (meist Blutgefäße des Augenhintergrundes mit charakteristischen Krümmungen oder Kreuzungen) möglichst gut in Überdeckung zu bringen. Dieses Verfahren ist zeitaufwändig, auf translatorische und rotatorische Korrekturen beschränkt und von begrenzter Reproduzierbarkeit. Aufgrund unterschiedlicher Belichtungsverhältnisse heben sich die Grenzen der Teilbilder im Allgemeinen deutlich an, was eine Befundung des Kompositionsergebnisses erschwert.In analog fundus photography, prints of the partial images are cut out, offset from one another and twisted and glued together to form a compositional image. The editor attempts to cover the most appropriate points (usually blood vessels of the fundus with characteristic curvatures or intersections) as well as possible. This process is time consuming, limited to translational and rotational corrections, and of limited reproducibility. Due to different exposure conditions, the boundaries of the partial images generally cancel each other out clearly, which makes a finding of the compositional result more difficult.
Liegen die Teilbilder in elektronischer Form vor, so können durch manuelle Markierung korrespondierender Punkte in verschiedenen Teilbildern Transformationen bestimmt werden, die eine optimale Komposition (im Allgemeinen im Sinne einer Minimierung der Restfehler an den korrespondierenden Punkten nach Ausführung der Transformationen) erzeugen.If the partial images are present in electronic form, then manual markings of corresponding points in different partial images can be used to determine transformations which produce an optimal composition (generally in the sense of minimizing the residual errors at the corresponding points after execution of the transformations).
Diese Verfahren erfordern eine erhebliche, zeitaufwändige Interaktion des Bedieners. Zunächst muss die grobe Anordnung der Teilbilder bestimmt werden. Danach müssen in jedem Teilbild markante Punkte („Landmarken", z.B. Gefaßkreuzungen) festgelegt und die korrespondierenden Punkte in wenigstens einem anderen Teilbild markiert werden. Meist muss der Bediener dabei zwischen verschiedenen Auflösungsstufen der Darstellung umschalten. Durch Auswertung der korrespondierenden Punkte können - abhängig von der Anzahl der Landmarken - verschiedene geometrische Transformationen berechnet werden. Die Überlagerung der entsprechend transformierten Teilbilder ergibt ein (digitales) Kompositionsbild.These methods require significant, time-consuming operator interaction. First, the coarse arrangement of the partial images must be determined. After that, distinctive points ("landmarks", eg vault crossings) must be defined in each sub-picture and the corresponding points marked in at least one other sub-picture, in which case the operator has to switch between different resolution levels of the representation Number of landmarks - different geometric transformations are calculated The superimposition of the correspondingly transformed partial images results in a (digital) compositional image.
Es ist auch vorgeschlagen worden, die korrespondierenden Landmarken automatisch (d. h. rechnergestützt) zu bestimmen. Im Artikel von Chanwimaluang et al „Hybrid Retinal Image Registration" IEEE Transactions on Information Technology in Biomedicine 10(1): 129-142 (2006) werden ausgehend von „Landmarken-Kandidaten" eines Teilbildes korrespondierende Landmarken in anderen Teilbildern auf Grundlage verschiedener Ähnlichkeitsmaße und statistischer Auswertungen bestimmt. Der weitere Ablauf (Berechnung optimaler Transformationen, Überlagerung der Teilbilder) gestaltet sich analog zum oben beschriebenen halbautomatischen Vorgehen. Zur Reduzierung des Rechenaufwandes wird ein zweistufiges Verfahren vorgeschlagen, bei dem vor der Passpunktregistrierung die Verschiebung zwischen zwei Bildern berechnet wird. Dies geschieht mit Hilfe der Transinformation und verschiedener Optimierungstechniken.It has also been proposed to determine the corresponding landmarks automatically (ie computer-aided). The article by Chanwimaluang et al "Hybrid Retinal Image Registration" IEEE Transactions on Information Technology in Biomedicine 10 (1): 129-142 (2006) is based The other sequence (calculation of optimal transformations, superimposition of the sub-images) is analogous to the semi-automatic procedure described above, in which a different image is derived from "landmark candidates" of one sub-image A method is proposed in which the displacement between two images is calculated before the registration of the passpoint, using the trans information and various optimization techniques.
Der Nachteil dieser Verfahren besteht zum einen in der geringen Robustheit, da die detektierten Landmarken bestimmten, von der Aufhahmequalität (Fokussierung, Belichtung) und dem Bildausschnitt beeinflussten Kriterien genügen müssen. Weiterhin ist eine gleichmäßige Verteilung der bestimmten Landmarken auf die Teilbilder nicht sichergestellt. Dies kann dazu führen, dass nur einzelne (strukturreiche) Bildbereiche in die Bestimmung der Transformation einbezogen werden und z.B. eine Skalierung in der Peripherie unberücksichtigt bleibt. Die Anzahl der zur Transformationsbestimmung verwendbaren Landmarken ist bildabhängig und daher generell nicht vorhersagbar.On the one hand, the disadvantage of these methods is their low robustness, since the detected landmarks must satisfy certain criteria which are influenced by the recording quality (focusing, exposure) and the image detail. Furthermore, a uniform distribution of certain landmarks on the fields is not guaranteed. This can lead to only individual (structurally rich) image areas being included in the determination of the transformation, and e.g. Scaling in the periphery is disregarded. The number of landmarks that can be used to determine the transformation is image-dependent and therefore generally unpredictable.
Andere vorgeschlagene Verfahren wie z.B. die Rekonstruktion der Blutgefäße des Augenhintergrundes in Form eines geometrischen Baumes sind außerordentlich rechenaufwändig (z.B. Chanwimaluang et al „An efficient blood vessel detection algorithm for retinal images using local entropy threshol- ding" ISCAS (5) 2003: 21-24).Other proposed methods, e.g. reconstruction of ocular blood vessels in the form of a geometric tree is extremely computationally expensive (e.g., Chanwimaluang et al., "An efficient blood vessel detection algorithm for retinal images using local entropy thresholding" ISCAS (5) 2003: 21-24).
In der Japanischen Patentanmeldung JP 11-332832 wird vorgeschlagen, zu jedem Teilbild die Aufnahmeparameter wie Richtung und Vergrößerung abzuspeichern und damit analytisch und ohne Nutzung des Bildinhaltes Panoramabilder zu erzeugen.In the Japanese patent application JP 11-332832 it is proposed to store the recording parameters such as direction and magnification for each sub-picture and thus to produce panorama images analytically and without the use of the image content.
Es ist bekannt, z.B. aus US-Patent 4,715,703 eine Funduskamera mit einer Aperturmaske (Feldblende) zu versehen, um unerwünschtes Streulicht auszublenden.It is known, e.g. from US Pat. No. 4,715,703, to provide a fundus camera with an aperture mask (field stop) in order to hide undesired scattered light.
In der US-Patentanmeldung 2004/0254477 wird vorgeschlagen, statt der realen Feldblende eine virtuelle Feldblende durch Nutzereingabe des Durchmessers zu definieren und die Grauwerte bzw. Pixel des (rechteckigen) Digitalbildes so zu manipulieren, dass der Eindruck einer Aufnahme mit Feldblende entsteht.In the US Patent Application 2004/0254477 it is proposed to define a virtual field stop by user input of the diameter instead of the real field stop and to manipulate the gray values or pixels of the (rectangular) digital image in such a way that the impression of a field stop image is created.
Aufgabe der Erfindung ist es die dargestellten Nachteile des Standes der Technik zu überwinden und ein effektives, automatisch durchfuhrbares Verfahren zur Herstellung von Panoramabildem des Augenhintergrundes anzugeben.The object of the invention is to overcome the described disadvantages of the prior art and to provide an effective, automatically durchfuhrbares method for producing Panoramabildem the fundus.
Diese Aufgabe wird erfindungsgemäß bei einem Verfahren zur Erstellung von Panorama-Bildem des Augenhintergrundes, wobei mehrere Ausgangsbilder, welche verschiedene Ausschnitte des Augenhintergrundes zeigen, digital vorliegen, dadurch gelöst, dassThis object is achieved according to the invention in a method for producing panoramic images of the ocular fundus, wherein a plurality of initial images, which show different sections of the ocular fundus, are present in digital form, achieved in that
- eine Vorpositionierung vorgenommen wird, bei der eine erste Größe für die relative geometrische Zuordnung der Bilder untereinander bestimmt wird, - ein Ankerbild bestimmt wird, auf welches die ersten Größen für die relative geometrische Zuordnung bezogen werden,a pre-positioning is carried out in which a first variable for the relative geometric assignment of the images is determined among one another, an anchor image is determined to which the first quantities for the relative geometric assignment are related,
- mittels eines Block-Matching Algorithmus einander zugeordnete Gebiete im Ankerbild und den anderen Bildern bestimmt werden,determining areas assigned to one another in the anchor image and the other images by means of a block matching algorithm,
- aus der gegenseitigen Lage dieser einander zugeordneten Gebiete Transformationsparameter für eine geometrische Transformation zwischen dem Ankerbild und den anderen Bildern bestimmt werden und- From the mutual position of these mutually associated areas transformation parameters for a geometric transformation between the anchor image and the other images are determined and
- die anderen Bilder mit diesen Transformationsparametem auf das Ankerbild transformiert und mit diesem und untereinander überlagert werden.- The other images are transformed with these transformation parameters on the anchor image and superimposed with this and with each other.
Dabei ist es besonders vorteilhaft, wenn in den Ausgangsbildem eine Feldmaske bestimmt oder eingegeben wird und die außerhalb der Feldmaske liegenden Bildteile ausgefiltert werden und nur mit Bildteilen der einzelnen Ausgangsbilder welche innerhalb der Feldmaske liegen die weiteren Berechnungen durchgeführt werden.In this case, it is particularly advantageous if a field mask is determined or input in the output image and the image parts lying outside the field mask are filtered out and the further calculations are carried out only with image parts of the individual output images which lie within the field mask.
Erfindungsgemäß erfolgt die Vorpositionierung durch Berechnung einer zweidimensionalen Kreuzkorrelation zwischen den Ausgangsbildern, wobei vorzugsweise vorher eine Herunterskalierung bzw. Auflösungsverringerung der Ausgangsbilder durchgeführt wird. Dabei wurden besonders gute Ergebnisse erzielt, wenn in den Bildern vorhandene Strukturen wie Blutgefäße o.a. vorher z.B. bzgl. ihres Kontrastes verstärkt oder auf andere Art und Weise hervorgehoben wurden.According to the invention, the pre-positioning is carried out by calculating a two-dimensional cross-correlation between the output images, whereby preferably a downscaling or a resolution reduction of the output images is carried out beforehand. In this case, particularly good results were achieved when in the images existing structures such as blood vessels o.a. previously e.g. were strengthened in their contrast or emphasized in other ways.
Vorteilhaft wird aus der Vorpositionierung ein Ankerbild bestimmt, indem die Zahl der gemeinsamen Bereiche und/oder die Abstände der gemeinsamen Bereiche der Ausgangsbilder bewertet werden.Advantageously, an anchor image is determined from the pre-positioning by the number of common areas and / or the distances of the common areas of the output images are evaluated.
Von besonderem Vorteil ist es, wenn der Block-Matching Algorithmus im wesentlichen nur auf Gebiete der jeweiligen Ausgangsbilder angewandt wird, für welche die Vorpositionierung eine mögliche Überdeckung der Ausgangsbilder erwarten lässt.It is particularly advantageous if the block-matching algorithm is applied essentially only to regions of the respective output images for which the pre-positioning gives rise to a possible overlap of the output images.
Erfindungsgemäß wird in den Gebiete der jeweiligen Ausgangsbilder, für welche die Vorpositionierung eine mögliche Überdeckung der Ausgangsbilder erwarten lässt, mittels Strukturanalyse eine Bestimmung von für das Block-Matching besonders geeigneten Teilgebieten durchgeführt, der Block- Matching Algorithmus vorzugsweise auf diese Teilgebiete angewendet wird. Diese Strukturanalyse kann z.B. durch Bestimmung einer maximalen Informationsentropie oder Standardabweichung der Bildpixel in den Teilgebieten durchgeführt werden.According to the invention, in the regions of the respective output images for which the prepositioning gives rise to a possible overlap of the output images, a determination of sub-regions which are particularly suitable for the block matching is carried out by structural analysis, the block matching algorithm preferably being applied to these subregions. This structural analysis may e.g. by determining a maximum information entropy or standard deviation of the image pixels in the subareas.
Besonders bewährt hat sich, wenn die Transformationsparameter zwischen dem Ankerbild und den anderen Ausgangsbildern nach einem quadratischen Ansatz bestimmt werden, wobei insbesondere auch die Transformationsparameter zwischen gemeinsame Gebiete aufweisenden anderen Ausgangsbildem bestimmt werden und vorzugsweise durch Optimierung ein für alle Ausgangsbilder geeigneter Transformationsparametersatz bestimmt wird.Has proven particularly useful when the transformation parameters between the anchor image and the other output images are determined according to a quadratic approach, in particular also the transformation parameters between common areas having other Ausgangsbildem be determined and preferably by optimization a suitable for all output image transformation parameter set is determined.
Ganz besonders vorteilhaft ist es wenn bei der Überlagerung der anderen Bilder auf das Ankerbild und untereinander eine Anpassung der Helligkeit und / oder Farbe der Bilder aneinander vorgenommen wird. Diese kann besonders gut dadurch vorgenommen werden, wenn in den Bildern hell erscheinenden Strukturen wie Blutgefäße aufeinander angepasst werden.It is particularly advantageous when the superimposition of the other images on the anchor image and each other made an adjustment of the brightness and / or color of the images to each other becomes. This can be done particularly well if in the pictures bright appearing structures such as blood vessels are adapted to each other.
Die Erfindung wird im Folgenden an Hand eines bevorzugten Ausfuhrungsbeispiels beschrieben. Die Fig. 1 zeigt einen Ablaufplan dieses bevorzugten Verfahrens.The invention will be described below with reference to a preferred exemplary embodiment. Fig. 1 shows a flowchart of this preferred method.
Automatische Bestimmung der Feldmaske:Automatic determination of the field mask:
Vor Beginn des eigentlichen Registrierungsverfahrens erfolgt in allen Einzelbildern eine automatische Bestimmung der Feldblende anhand eines Flächenkriteriums und einer Auswertung des Histogramms über das gesamte Bild. Da das Gebiet außerhalb der Feldmaske per Definition abgeblendet und damit dunkler als der eigentliche Bildinhalt lässt sich aus dem Histogramm (= Häufigkeitsverteilung der Grau- bzw. Farbwerte der Pixel über das gesamte Bild) leicht eine Schwelle bestimmen, welche die Pixelzugehörigkeit zu den beiden Bereichen trennt. Um eventuelle Ausreißer zu eliminieren wird ein an sich bekanntes Erosionsverfahren angewendet, welches im Ergebnis dazu führt, dass der eigentliche Bildinhalt in einem zusammenhängenden Gebiet vorliegt. Ein Beispiel für ein solches Ergebnis zeigt Fig.2, wobei der eigentliche Bildinhalt 1 von dem diskriminierten Bereich 2 der Feldblende umgeben ist.Before the start of the actual registration process, an automatic determination of the field diaphragm is carried out in all individual images on the basis of a surface criterion and an evaluation of the histogram over the entire image. Since the area outside of the field mask by definition dimmed and thus darker than the actual image content can be from the histogram (= frequency distribution of gray or color values of the pixels over the entire image) easily determine a threshold that separates the pixel affiliation to the two areas , In order to eliminate any outliers, a known erosion method is used which, as a result, results in the actual image content being present in a coherent area. An example of such a result is shown in FIG. 2, the actual image content 1 being surrounded by the discriminated region 2 of the field stop.
1. Vorpositionierung:1. Prepositioning:
Im ersten Schritt wird zwischen allen möglichen Paaren der Einzelbilder eine Vorpositionierung bestimmt und bewertet. Dazu werden die meist hochaufgelösten Ausgangsbilder (z.B. ca. 2000x2000 Pixel) herunterskaliert, beispielsweise auf 250x250 Pixel, um Rechenzeit zu sparen. Außerdem hat es sich als hilfreich erwiesen, in den Bildern vorhandene Strukturen wie z.B. Blutgefäße durch entsprechende an sich bekannte Algorithmen hervorzuheben (z.B. Chaudhuri et al.: „Detection of blood ves- sels in retinal images using two-dimensional matched filters" IEEE Transactions on Medical Imaging, Bd. 8 (1989), Nr. 3, S. 263-269; Chanwimaluang et al.: „An efϊicient blood vessel detection algorithm for retinal images using local entropy thresholding" Proceedings International Symposium on Circuits and Systems, Bd. 5 (2003), S. 21-24). Die vorläufige Bestimmung der gegenseitigen Position der Bilder erfolgt flächenbasiert, z.B. durch eine zweidimensionale KreuzkorrelationIn the first step, a pre-positioning is determined and evaluated between all possible pairs of the individual images. For this purpose, the mostly high-resolution output images (for example about 2000x2000 pixels) are scaled down, for example to 250x250 pixels, in order to save computing time. In addition, it has been found helpful to have existing structures in the images, e.g. To emphasize blood vessels by corresponding algorithms known per se (eg, Chaudhuri et al .: "Detection of blood vesicles in retinal images using two-dimensional matched filters" IEEE Transactions on Medical Imaging, Vol. 8 (1989), No. 3, p 263-269, Chanwimaluang et al .: "An efficient blood vessel detection algorithm for retinal images using local entropy thresholding" Proceedings International Symposium on Circuits and Systems, Vol. 5 (2003), pp. 21-24). The preliminary determination of the mutual position of the images is surface-based, e.g. by a two-dimensional cross-correlation
(M-I) (N-))(M-I) (N-))
C(UJ) = ∑ ∑A(m,n)-B(m + i,n + j) m=0 n=0 wobei die C( ) die Kreuzkorrelationskoeffizienten, A( ) und B( ) die beiden zu vergleichenden Bilder sind. Aus dem Maximum des Kreuzkorrelationskoeffizienten ergibt sich in bekannter Art und Weise die 2-dimensionale Verschiebung der Bilder untereinander. Ergibt sich kein ausgeprägtes Maximum des Kreuzkorrelationskoeffizienten ist dies ein Indiz dafür, dass sich die beiden Bilder nicht überlappen. Bestimmung des Ankerbildes und der Berechnungs-Reihenfolge:C (UJ) = Σ ΣA (m, n) -B (m + i, n + j) m = 0 n = 0 where C () is the cross-correlation coefficient, A () and B () the two images to be compared are. From the maximum of the cross-correlation coefficient results in a known manner, the 2-dimensional displacement of the images with each other. If no pronounced maximum of the cross-correlation coefficient results, this is an indication that the two images do not overlap. Determination of the anchor image and the calculation order:
Auf Grundlage dieser ermittelten Verschiebungen werden ein Ankerbild sowie die Berechnungsreihenfolge der Transformationen der Teilbilder festgelegt. Als Ankerbild wird das Bild ausgewählt, welches mit den meisten der anderen Bilder einen Überlappungsbereich aufweist. Sollten mehrere Bilder hierbei gleich sein empfiehlt es sich die Summe der Verschiebungen der potentiellen Kandidaten für das Ankerbild zu allen anderen Bildern zu bestimmen und zu vergleichen, dasjenige bei dem diese Summe am geringsten ist wird als Ankerbild gewählt. Um zur Berechnungsreihenfolge zu kommen werden bevorzugt die anderen Bilder nach der Reihenfolge des Maßes der Verschiebung geordnet und mit der kleinsten Verschiebung begonnen.On the basis of these determined shifts, an anchor image and the order of computation of the transformations of the sub-images are determined. The image selected is the anchor image, which has an overlap area with most of the other images. If several images are the same in this case, it is advisable to determine and compare the sum of the displacements of the potential candidates for the anchor image to all other images, and the one in which this sum is the lowest is chosen as the anchor image. In order to arrive at the order of calculation, the other images are preferably ordered by the order of the amount of the shift and started with the smallest shift.
2. Passpunktregistrierung:2nd passpoint registration:
Den zweiten Schritt bildet die objektive, merkmalsunabhängige Bestimmung der Passpunktpaare durch ein (vorzugsweise hierarchisches) Block-Matching-Verfahren. Dabei werden ein Blockauswahlkriterium, ein geeignetes Ähnlichkeitsmaß, z. B. der Korrelationskoeffizient verwendet. Als Blockauswahlkriterium kann beispielsweise die InformationsentropieThe second step is the objective, feature-independent determination of the control point pairs by a (preferably hierarchical) block matching method. In this case, a block selection criterion, a suitable similarity measure, z. B. the correlation coefficient is used. As a block selection criterion, for example, the information entropy
H = P, logp, oder die Standardabweichung H = P, logp, or the standard deviation
X ~\)2X ~ \) 2
"-l £f benutzt werden um Gebiete festzulegen, welche genügend „Struktur" aufweisen um beim Matching zu ausreichenden Ergebnissen zu führen. Dazu werden in jedem Überlappungsgebiet Teilblöcke von z.B. 25x25 Pixel gebildet und diejenigen Teilblöcke gebildet, für die die Entropie oder die Standardabweichung maximal sind. Mit diesen so ausgewählten Teilblöcken wird dann das Matching zwischen den Bildern durchgeführt, wobei durch entsprechende Begrenzung der Zahl der Teilblöcke die Rechenzeit in Grenzen gehalten wird. Ebenfalls kann man die für das Matching Teilblöcke nach geometrischen Gesichtspunkten auswählen, um so für eine möglichst gleichmäßige Verteilung im Überlappungsgebiet zu sorgen. Als Matching-Algorithmus kann wiederum bevorzugt der Korrelationsalgorithmus"-l are used to define areas that have enough" structure "to give sufficient results in matching. For this purpose, in each overlap area, subblocks of e.g. 25x25 pixels are formed and those sub-blocks are formed for which the entropy or the standard deviation are maximal. With these subblocks selected in this way, the matching between the images is then carried out, the computing time being limited by a corresponding limitation of the number of subblocks. You can also select the matching subblocks from the geometric point of view, so as to ensure the most even distribution in the overlapping area. Again, the correlation algorithm may be preferred as the matching algorithm
∑∑(Λmn -Ä)(Bmn -B) eingesetzt werden, aber auch andere flächenbasierte Algorithmen sind möglich.ΣΣ (Λ mn- A) (B mn -B) but other area-based algorithms are possible.
Das Ergebnis des Matching sind Koordinatenwerte einander entsprechender Punkte in den verschiedenen Bildern. 3. ParameterberechnungThe result of the matching are coordinate values of corresponding points in the different images. 3. Parameter calculation
Die Transformationsparameter zur geometrischen Anpassung der Bilder untereinander werden nach einem quadratischen Ansatz ermittelt:The transformation parameters for the geometric adaptation of the images among each other are determined according to a quadratic approach:
1 *1 b2 b3 bΛ b5 1 * 1 b 2 b 3 b Λ b 5
Dabei sind die u , v die Koordinatenwerte im Ankerbild (oder für den Fall, dass das betrachtete Bild keine Überlappung mit dem Ankerbild hat, das Ausgangsbild) und die x, y die entsprechenden Koordinatenwerte der entsprechenden Punkte in dem anderen betrachteten Bild. Die a,, b, sind insgesamt 12 Parameter für die Transformation zwischen den zwei Bildern, welche jetzt zusammen mit den entsprechenden Gleichungen für die anderen Passpunkte im Überlappungsbereich zwischen den Bildern ein überbestimmtes Gleichungssystem bilden, welches z.B. nach der Methode der kleinsten Quadrate (oder einem anderen geeigneten numerischen Verfahren) gelöst wird.Here, the u, v are the coordinate values in the anchor image (or, in the case where the viewed image has no overlap with the anchor image, the output image) and the x, y are the corresponding coordinate values of the corresponding points in the other viewed image. The a, b, are a total of 12 parameters for the transformation between the two images which, together with the corresponding equations for the other control points in the overlapping area between the images, now form an overdetermined system of equations which is e.g. solved by the least squares method (or another suitable numerical method).
Nachdem diese Rechnung für alle mit dem Ankerbild verbundenen Bilder sowie für den Fall nicht mit dem Ankerbild verbundener Bilder mit diesen benachbarten Bildern durchgeführt wurde steht ein kompletter Satz von Transformationsparametern zur Verfügung mit dem alle Bilder in das Koordinatensystem des Ankerbildes transformiert werden können (auch diese die keine Verbindung zum Ankerbild haben).After this calculation has been carried out for all images connected to the anchor image as well as for the case of images not connected to the anchor image with these neighboring images, a complete set of transformation parameters is available with which all images can be transformed into the coordinate system of the anchor image (also these have no connection to the anchor image).
4. Transformation und Überlagerung der Bilder4. Transformation and superposition of images
Mit diesen Transformationsparametern werden jetzt alle Bilder in das Koordinatensystem des Ankerbildes überführt. Da es durch unterschiedliche Beleuchtung zwischen den verschiedenen Bildern im gemeinsamen Bild zu störenden Strukturen kommen kann, wird jetzt noch eine Grauwert- oder Farbanpassung in an sich bekannter Art und Weise durchgeführt. Dabei hat es sich als vorteilhaft herausgestellt, primär die helleren Teile der Bilder (Blutgefäße o.a.) aufeinander anzupassen und erst anschließend den strukturlosen Hintergrund anzugleichen.With these transformation parameters, all images are now transferred to the coordinate system of the anchor image. Since it can come to disturbing structures by different illumination between the different images in the common image, now a grayscale or color adjustment is performed in a conventional manner. It has proven to be advantageous, primarily the brighter parts of the images (blood vessels, etc.) to adapt to each other and only then to adjust the structureless background.
Mit dem vorgestellten neuen Verfahren lassen sich automatisch geometrisch und photometrisch fehlerfreie Panoramabilder herstellen.With the presented new method geometrically and photometrically error-free panoramic pictures can be produced automatically.
Die Erfindung ist nicht an das beschriebene bevorzugte Ausführungsbeispiel gebunden, fachmännische Abwandlungen führen nicht zum Verlassen des durch die Ansprüche definierten Schutzumfangs. The invention is not bound to the preferred embodiment described, expert modifications do not lead to leaving the scope defined by the claims.

Claims

Patentansprüche claims
1. Verfahren zur Erstellung von Panorama-Bildern des Augenhintergrundes, wobei mehrere Ausgangsbilder, welche verschiedene Ausschnitte des Augenhintergrundes zeigen, digital vorliegen, gekennzeichnet dadurch, dassA method for producing panoramic images of the ocular fundus, wherein a plurality of source images, which show different sections of the ocular fundus, are present digitally, characterized in that
- eine Vorpositionierung vorgenommen wird, bei der eine erste Größe für die relative geometrische Zuordnung der Bilder untereinander bestimmt wird,a pre-positioning is carried out in which a first variable for the relative geometric assignment of the images is determined among one another,
- ein Ankerbild bestimmt wird, auf welches die ersten Größen für die relative geometrische Zuordnung bezogen werden,an anchor image is determined to which the first quantities for the relative geometric assignment are related,
- mittels eines Block-Matching Algorithmus einander zugeordnete Gebiete im Ankerbild und den anderen Bildern bestimmt werden,determining areas assigned to one another in the anchor image and the other images by means of a block matching algorithm,
- aus der gegenseitigen Lage dieser einander zugeordneten Gebiete Transformationsparameter für eine geometrische Transformation zwischen dem Ankerbild und den anderen Bildern bestimmt werden und- From the mutual position of these mutually associated areas transformation parameters for a geometric transformation between the anchor image and the other images are determined and
- die anderen Bilder mit diesen Transformationsparametern auf das Ankerbild transformiert und mit diesem und untereinander überlagert werden.- The other images are transformed with these transformation parameters on the anchor image and superimposed with this and each other.
2. Verfahren zur Erstellung von Panorama-Bildem des Augenhintergrundes nach Anspruch 1, wobei in den Ausgangsbildem eine Feldmaske bestimmt oder eingegeben wird und die außerhalb der Feldmaske liegenden Bildteile ausgefiltert werden.2. A method of producing panoramic images of the ocular fundus according to claim 1, wherein a field mask is determined or input in the source images and the image portions lying outside the field mask are filtered out.
3. Verfahren zur Erstellung von Panorama-Bildern des Augenhintergrundes nach Anspruch 2, wobei die Verfahrensschritte des Anspruchs 1 nur mit Bildteilen der einzelnen Ausgangsbilder welche innerhalb der Feldmaske liegen, durchgeführt werden.3. A method of producing panoramic images of the fundus of claim 2, wherein the method steps of claim 1 are performed only with image parts of the individual output images which are within the field mask.
4. Verfahren zur Erstellung von Panorama-Bildern des Augenhintergrundes nach Anspruch 1, 2 oder 3, gekennzeichnet dadurch, dass die Vorpositionierung durch Berechnung einer zweidimensionalen Kreuzkorrelation zwischen den Ausgangsbildern realisiert wird, wobei vorzugsweise vorher eine Herunterskalierung bzw. Auflösungsverringerung der Ausgangsbilder durchgeführt wird.4. The method for producing panoramic images of the fundus according to claim 1, 2 or 3, characterized in that the pre-positioning is realized by calculating a two-dimensional cross-correlation between the output images, preferably before a downscaling or resolution reduction of the output images is performed.
5. Verfahren zur Erstellung von Panorama-Bildern des Augenhintergrundes nach Anspruch 1, 2, 3 oder 4, gekennzeichnet dadurch, dass aus der Vorpositionierung ein Ankerbild bestimmt wird, indem die Zahl der gemeinsamen Bereiche und/oder die Abstände der gemeinsamen Bereiche der Ausgangsbilder bewertet werden.5. A method for producing panoramic images of the fundus according to claim 1, 2, 3 or 4, characterized in that from the pre-positioning an anchor image is determined by the number of common areas and / or evaluated the distances of the common areas of the output images become.
6. Verfahren zur Erstellung von Panorama-Bildern des Augenhintergrundes nach einem der Ansprüche 1 bis 5, gekennzeichnet dadurch, dass der Block-Matching Algorithmus im wesentlichen nur auf Gebiete der jeweiligen Ausgangsbilder angewandt wird, für welche die Vorpositionierung eine mögliche Überdeckung der Ausgangsbilder erwarten lässt. 6. A method of producing panoramic images of the ocular fundus according to any one of claims 1 to 5, characterized in that the block matching algorithm is applied substantially only to areas of the respective output images, for which the pre-positioning can expect a possible coverage of the output images ,
7. Verfahren zur Erstellung von Panorama-Bildern des Augenhintergrundes nach einem der Ansprüche 1 bis 6, gekennzeichnet dadurch, dass in den Gebiete der jeweiligen Ausgangsbilder, für welche die Vorpositionierung eine mögliche Überdeckung der Ausgangsbilder erwarten lässt, mittels Strukturanalyse eine Bestimmung von für das Block-Matching besonders geeigneten Teilgebieten erfolgt, und dass der Block-Matching Algorithmus vorzugsweise auf diese Teilgebiete angewendet wird.7. A method for producing panoramic images of the ocular fundus according to any one of claims 1 to 6, characterized in that in the areas of the respective output images for which the pre-positioning can expect a possible coverage of the output images, by means of structural analysis, a determination of the block Matching particularly suitable sub-areas, and that the block matching algorithm is preferably applied to these sub-areas.
8. Verfahren zur Erstellung von Panorama-Bildern des Augenhintergrundes nach einem der Ansprüche 1 bis 7, gekennzeichnet dadurch, dass die Transformationsparameter zwischen dem Ankerbild und den anderen Ausgangsbildern nach einem quadratischen Ansatz bestimmt werden, wobei insbesondere auch die Transformationsparameter zwischen gemeinsame Gebiete aufweisenden anderen Ausgangsbildern bestimmt werden und vorzugsweise durch Optimierung ein für alle Ausgangsbilder geeigneter Transformationsparametersatz bestimmt wird.8. A method for producing panoramic images of the ocular fundus according to one of claims 1 to 7, characterized in that the transformation parameters between the anchor image and the other output images are determined according to a quadratic approach, in particular, the transformation parameters between common areas having other output images be determined, and preferably by optimization a transformation parameter set suitable for all output images is determined.
9. Verfahren zur Erstellung von Panorama-Bildern des Augenhintergrundes nach einem der Ansprüche 1 bis 8, gekennzeichnet dadurch, dass bei der Überlagerung der anderen Bilder auf das Ankerbild und untereinander eine Anpassung der Helligkeit und / oder Farbe der Bilder aneinander vorgenommen wird. 9. A method for creating panoramic images of the ocular fundus according to one of claims 1 to 8, characterized in that in the superimposition of the other images on the anchor image and each other an adjustment of the brightness and / or color of the images is made to each other.
EP07786178A 2006-07-28 2007-07-19 Method for the creation of panoramic images of the eye fundus Withdrawn EP2047424A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102006034911.3A DE102006034911B4 (en) 2006-07-28 2006-07-28 Method for creating panoramic images of the fundus
PCT/EP2007/006406 WO2008012021A1 (en) 2006-07-28 2007-07-19 Method for the creation of panoramic images of the eye fundus

Publications (1)

Publication Number Publication Date
EP2047424A1 true EP2047424A1 (en) 2009-04-15

Family

ID=38515709

Family Applications (1)

Application Number Title Priority Date Filing Date
EP07786178A Withdrawn EP2047424A1 (en) 2006-07-28 2007-07-19 Method for the creation of panoramic images of the eye fundus

Country Status (5)

Country Link
US (1) US8224050B2 (en)
EP (1) EP2047424A1 (en)
JP (1) JP2009544377A (en)
DE (1) DE102006034911B4 (en)
WO (1) WO2008012021A1 (en)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5590831B2 (en) 2009-07-13 2014-09-17 キヤノン株式会社 Image processing apparatus and image processing method
US20110103655A1 (en) * 2009-11-03 2011-05-05 Young Warren G Fundus information processing apparatus and fundus information processing method
JP5434621B2 (en) * 2010-01-19 2014-03-05 ソニー株式会社 Information processing apparatus, information processing method, and program thereof
AU2013273657B2 (en) 2013-12-18 2016-11-10 Canon Kabushiki Kaisha Ophthalmic reference image selection
CN105934193A (en) * 2013-12-23 2016-09-07 Rsbv有限责任公司 Wide field retinal image capture system and method
US10387996B2 (en) 2014-02-02 2019-08-20 Trax Technology Solutions Pte Ltd. System and method for panoramic image processing
JP6438216B2 (en) * 2014-05-22 2018-12-12 キヤノン株式会社 Image generating apparatus and image generating method
US10402777B2 (en) 2014-06-18 2019-09-03 Trax Technology Solutions Pte Ltd. Method and a system for object recognition
JP6750842B2 (en) * 2015-09-15 2020-09-02 キヤノン株式会社 Image generating apparatus, image generating method, and program
US10512395B2 (en) 2016-04-29 2019-12-24 Carl Zeiss Meditec, Inc. Montaging of wide-field fundus images
CN110944571B (en) 2017-08-11 2023-09-29 卡尔蔡司医疗技术公司 System and method for improving ophthalmic imaging
US11000187B2 (en) 2017-09-07 2021-05-11 Carl Zeiss Meditec, Inc. Systems and methods for improved montaging of ophthalmic imaging data
KR102575370B1 (en) * 2020-06-12 2023-09-08 서울대학교병원 Method for detecting change of fundus for longitudinal analysis of fundusimage and device performing the same
KR102575371B1 (en) * 2020-06-12 2023-09-08 서울대학교병원 Method for registrating fundus images to generate wide angle fundus image and device performing the same

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4715703A (en) * 1982-10-12 1987-12-29 Rodenstock Instrument Corporation Ocular-fundus analyzer
JPH07152895A (en) * 1993-11-29 1995-06-16 Canon Inc Method and device for processing picture
DE19881541B3 (en) * 1997-09-17 2014-08-14 Kabushiki Kaisha Topcon Ophthalmic camera
JP3645727B2 (en) 1999-01-28 2005-05-11 株式会社日立製作所 Ultrasonic diagnostic apparatus, program for synthesizing panoramic image, and recording medium thereof
JPH11332832A (en) * 1999-04-09 1999-12-07 Topcon Corp Ophthalmic device
AU2119201A (en) * 1999-10-20 2001-04-30 Trustees Of The University Of Pennsylvania, The Mosaicing and enhancement of images for ophthalmic diagnosis and documentation
US6830336B2 (en) * 2002-11-01 2004-12-14 Inoveon Corporation Automated generation of fundus images based on processing of acquired images
JP4095494B2 (en) * 2003-05-30 2008-06-04 キヤノン株式会社 Ophthalmic image processing apparatus and processing method
US8126289B2 (en) * 2006-06-20 2012-02-28 Ophthalmic Imaging Systems Device, method and system for automatic montage of segmented retinal images

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of WO2008012021A1 *

Also Published As

Publication number Publication date
WO2008012021A1 (en) 2008-01-31
DE102006034911A1 (en) 2008-01-31
JP2009544377A (en) 2009-12-17
DE102006034911B4 (en) 2017-10-26
US20110058715A1 (en) 2011-03-10
US8224050B2 (en) 2012-07-17

Similar Documents

Publication Publication Date Title
DE102006034911B4 (en) Method for creating panoramic images of the fundus
EP1191476B1 (en) Device and method for calculating a matching transformation between two images
DE19916354B4 (en) Method and device for analyzing image structures
DE60036216T2 (en) METHOD AND DEVICE FOR DETERMINING A SOUND SOUND
DE102016202512B3 (en) Method for 2D-3D registration, computing device and computer program
EP0880109B1 (en) Method for determining the transformation between an object and its three dimensional representation and device for carrying out this method
EP2082687A1 (en) Overlaid presentation of exposures
DE102006027670A1 (en) Image-based artifact reduction in PET / CT imaging
DE3826287A1 (en) METHOD AND DEVICE FOR LOCALIZING INTERRIBBAL SPACES AND AUTOMATIC LUNG STRUCTURAL ANALYSIS IN DIGITAL BREAST RADIOGRAPHY
DE102005021001A1 (en) Image-based method for detecting and removing small fragments in segmented three-dimensional volumes
DE102006037423B4 (en) A method and system for determining a sharp panoramic image constructed from a group of projection images
DE69839400T2 (en) X-RAY VISION
DE102016215831A1 (en) Automatic generation of synthetic projections
EP1498851A1 (en) Determination of a three-dimensional body shape, especially an anatomic structure, from two-dimensional projection images
DE2406622A1 (en) METHOD AND DEVICE FOR GENERATING A DIFFERENTIAL IMAGE FROM RELATED MATTERS SHOWN ON A FIRST AND SECOND IMAGE
DE10358158A1 (en) Radiological imaging device calibration method in which a data acquisition is carried out for a number of calibration positions and corresponding calibration parameters determined, with an additional point then considered
DE10145608B4 (en) Model-based object classification and target recognition
DE102018212652B4 (en) CEILING MAP MAKING METHOD, CEILING MAP MAKING APPARATUS AND CEILING MAP MAKING PROGRAM
DE102009006765B4 (en) Method for controlling an image output device, method for determining tangential sectional planes, control module and sectional plane determination unit
DE102018211477A1 (en) Method for automatically determining a weight for a roadmap method, computer program, data storage and corresponding imaging device
DE60207569T2 (en) ADJUSTMENT OF THE ENERGY FUNCTION IN CALCULATION IN REAL TIME OF CONTOURS FOR PICTORIAL SEGMENTATION
EP3637362A1 (en) Method for adjusting an image impression
DE102021202672A1 (en) Method for providing a trainable function for determining synthetic image data
DE102021210314A1 (en) Method for recording a spinal column X-ray, in particular a scoliosis X-ray
DE102017201162A1 (en) A method of operating an X-ray machine with improved presentation of a medical component

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20090116

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LI LT LU LV MC MT NL PL PT RO SE SI SK TR

AX Request for extension of the european patent

Extension state: AL BA HR MK RS

17Q First examination report despatched

Effective date: 20120105

DAX Request for extension of the european patent (deleted)
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20150203