DE19851993A1 - 3-D stereo real-time sensor system - Google Patents

3-D stereo real-time sensor system

Info

Publication number
DE19851993A1
DE19851993A1 DE19851993A DE19851993A DE19851993A1 DE 19851993 A1 DE19851993 A1 DE 19851993A1 DE 19851993 A DE19851993 A DE 19851993A DE 19851993 A DE19851993 A DE 19851993A DE 19851993 A1 DE19851993 A1 DE 19851993A1
Authority
DE
Germany
Prior art keywords
disparity
values
image
image data
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE19851993A
Other languages
German (de)
Inventor
Fritz Pauker
Rolf Dr Henkel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
3D-IMAGE-PROCESSING GMBH, 86316 FRIEDBERG, DE
Original Assignee
Weiglhofer Gerhard
Fritz Pauker
Rolf Dr Henkel
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Weiglhofer Gerhard, Fritz Pauker, Rolf Dr Henkel filed Critical Weiglhofer Gerhard
Priority to DE19851993A priority Critical patent/DE19851993A1/en
Priority to DE59804717T priority patent/DE59804717D1/en
Priority to EP98122061A priority patent/EP0918302B1/en
Priority to ES98122061T priority patent/ES2180110T3/en
Priority to US09/199,888 priority patent/US6980210B1/en
Priority to JP10332472A priority patent/JPH11257932A/en
Publication of DE19851993A1 publication Critical patent/DE19851993A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Description

Die vorliegende Erfindung betrifft eine Bildverarbeitungs­ vorrichtung, insbesondere eine Vorrichtung zur stereosko­ pischen Bildverarbeitung, sowie einen dabei verwendeten Ko­ härenzdetektor.The present invention relates to image processing device, in particular a device for stereoscopic pischen image processing, as well as a used Ko hardness detector.

Die optische Erfassung der dreidimensionalen Umgebung ge­ winnt seit geraumer Zeit zunehmend an Bedeutung. Insbeson­ dere bei automatisierten Fertigungsabläufen und den dabei eingesetzten Robotern müssen neben zweidimensionalen Koor­ dinaten auch Tiefeninformationen hinsichtlich eines (zu be­ arbeitenden) Objektes zur Verfügung stehen, um beispiels­ weise einen Roboter entsprechend steuern zu können.The optical detection of the three-dimensional environment has been gaining in importance for some time. In particular with automated production processes and the same robots used must have two-dimensional coor also include depth information regarding a (to be working) object are available, for example wise to be able to control a robot accordingly.

Im Rahmen der "Ident Vision" Messe 1996 in Stuttgart (DE) wurde zum Beispiel ein Ganzkörperscanner vorgestellt, der mittels einer Vielzahl von Lasern und Kameras die räumliche Kontur eines Objekts erfassen kann. Jedoch ist dieses Sy­ stem für Echtzeit-Anwendungen ungeeignet.As part of the "Ident Vision" fair 1996 in Stuttgart (DE) For example, a full-body scanner was presented, the using a variety of lasers and cameras the spatial Can capture the contour of an object. However, this is sy unsuitable for real-time applications.

Bislang bekannte Realisierungen zur Ermittlung von Tiefen­ informationen kann man in verschiedene Gruppen unterteilen, die auf jeweils verschiedenen Verfahren beruhen.Previously known implementations for determining depths information can be divided into different groups, which are based on different procedures.

Triangulationsverfahren verwenden eine oder mehrere Linien, die entweder von einem Laser oder einer Projektionseinheit auf das betreffende Objekt abgebildet werden. Mit einer oder mehreren Kameras wird das Objekt anschließend unter einem von der Projektionsrichtung geringfügig abweichenden, anderen Blickwinkel aufgenommen. Beruhend auf den vorbe­ kannten geometrischen Verhältnissen erfolgt dann mittels trigonometrischer Berechnungen die Ermittlung der dreidi­ mensionalen Struktur des Objektes.Triangulation methods use one or more lines, either from a laser or a projection unit are mapped to the object in question. With a or several cameras, the object is then under a slightly different from the projection direction, another point of view. Based on the past  Known geometric relationships are then carried out by means of trigonometric calculations to determine the dreidi dimensional structure of the object.

Nachteilig bei diesen Verfahren ist jedoch, daß unter Um­ ständen für jede projizierte Linie ein Bild auszuwerten ist, was äußerst zeitaufwendig ist, so daß ein derartiges System nicht echtzeittauglich ist.A disadvantage of these methods, however, is that under order would evaluate an image for each projected line is what is extremely time consuming, so such System is not real-time capable.

Darüber hinaus ist es insbesondere nachteilig, daß das je­ weilige Meßobjekt zu beleuchten ist. Dies stellt zwar unter Laborbedingungen kein Problem dar, wird aber in der Praxis fast unmöglich, wenn in Situationen wie im Straßenverkehr oder unter bei Teleskopen oder Mikroskopen vorliegenden er­ schwerten realen Situationen Messungen durchzuführen sind. Ferner sind bei als Linienlichtprojektoren verwendeten La­ sern spezielle Unfallverhütungsvorschriften zu beachten, damit bei derartigen Meßaufbauten keine Gefahr für das menschliche Auge besteht.In addition, it is particularly disadvantageous that the ever because the object to be measured is to be illuminated. This does under Laboratory conditions are not a problem, but will be in practice almost impossible when in situations such as traffic or under existing in telescopes or microscopes difficult real-world situations. Furthermore, La used as line light projectors special accident prevention regulations must be observed, so with such test setups no danger for human eye exists.

Bei einem speziellen Triangulationsverfahren wird ein Farb­ fächer auf das betreffende Objekt projiziert. Die von einer Kamera aufgenommenen Farbwerte können dann eindeutig einem Objektpunkt zugeordnet werden, wobei die Verschiebung ein­ zelner Farbpunkte wiederum als Tiefeninformation auswertbar ist. Obwohl dieses Verfahren in Echtzeit arbeitet, bringt dieses Verfahren die einschränkende Forderung mit sich, daß das Objekt und der Hintergrund weiß sein müssen, so daß das Verfahren nicht universell einsetzbar ist. In a special triangulation process, a color fan projected onto the object in question. The one Color values recorded by the camera can then be clearly assigned to one Object point are assigned, the shift being individual color dots can be evaluated as depth information is. Although this method works in real time, it brings this procedure involves the restrictive requirement that the object and the background must be white so that the The method is not universally applicable.  

Dagegen werten Laufzeitverfahren die Laufzeit von Licht, Mikrowellen oder eines Schallsignals als einem Meßsignal aus, um Rückschlüsse auf die räumliche Umgebung und die Tiefeninformation zu ziehen. Dabei wird jeweils eine Raum­ richtung angepeilt und eine Abstandsmessung vorgenommen. Beispielsweise beruhen das Prinzip eines Radargerätes oder eines medizinischen Ultraschallgerätes auf derartigen Lauf­ zeitverfahren. Laufzeitverfahren erfordern jedoch eine auf­ wendige Signalverarbeitung und sind zudem von den Eigen­ schaften des umgebenden Mediums abhängig, das die Ausbrei­ tungseigenschaften des betreffenden Meßsignals beeinflußt.In contrast, runtime methods evaluate the runtime of light, Microwaves or a sound signal as a measurement signal out to draw conclusions about the spatial environment and the To draw depth information. One room at a time direction and a distance measurement. For example, the principle of a radar device or a medical ultrasound device on such a run timing. Runtime procedures, however, require one agile signal processing and are also of their own Depending on the surrounding medium, the spread tion properties of the measurement signal concerned.

Weiterhin kommen Schärfentiefeverfahren zum Einsatz, die jedoch nur dann angewendet werden können, wenn die Objekt­ größe und die Öffnung eines Objektivs in einem bestimmten Verhältnis zueinander stehen, wie beispielsweise in der Mi­ kroskopie. Dabei wird durch das optische System nur der schmale Bereich der Fokalebene scharf auf einen Bildsensor abgebildet. Die Bereiche davor und dahinter sind mehr oder weniger unfokussiert. Die in der Fokalebene enthaltene Bildinformation kann mit herkömmlichen Bildverarbeitungs­ verfahren ausgewertet werden. Eine entsprechende Auswertung liefert dann eine Höhenlinie des Objekts. Durch mehrfaches Verschieben der Fokalebene und anschließender Auswertung kann dann eine Höhenlinienkarte des Objekts erstellt wer­ den, was jedoch entsprechend aufwendig ist.Depth of field methods are also used, the however can only be applied if the object size and the opening of a lens in a given Are related to each other, such as in the Mi microscopy. In doing so, only the narrow area of the focal plane sharp on an image sensor pictured. The areas in front and behind are more or less unfocused. The one contained in the focal plane Image information can be processed using conventional image processing procedures are evaluated. A corresponding evaluation then returns a contour of the object. By multiple Moving the focal plane and subsequent evaluation can then create a contour map of the object which, however, is correspondingly complex.

Ein weiterer Ansatz, der erst seit wenigen Jahren verfolgt wird, beruht in der Auswertung stereoskopischer Bilder zum Gewinnen von Tiefeninformationen, ähnlich dem räumlichen Sehen beim Menschen, dessen Nachbildung durch derartige Verfahren angestrebt ist.Another approach that has only been pursued for a few years is based on the evaluation of stereoscopic images for Obtaining depth information similar to the spatial one  Seeing in humans, their replication through such Process is sought.

Das Phänomen des räumlichen Sehens, das nachfolgend kurz in Bezug auf den Menschen allgemein erläutert ist, beruht auf der Wahrnehmung der sichtbaren Umwelt mittels der beiden menschlichen Augen, wobei aufgrund des Augenabstandes die beiden wahrgenommenen Bilder (rechtes Auge bzw. Bild, lin­ kes Auge bzw. Bild) unter leicht unterschiedlichen Blick­ winkeln wahrgenommen werden. Da die Sehachsen der Augen et­ was konvergieren, treffen sich ihre Sehachsen an einem Punkt der betrachteten Umwelt, wobei von einer Fixierung dieses Punktes durch die Augen gesprochen wird. Das Bild dieses Punktes fällt jeweils auf eine Sehgrube der Netz­ haut. Jeder benachbarte Punkt im Gesichtsfeld wird dann auf eine Stelle der Netzhaut projiziert, die etwas vom Zentrum dem schärfsten Sehens entfernt liegt. Im allgemeinen ist dieser Abstand in beiden Augen unterschiedlich, wobei der Abstand als Funktion der räumlichen Tiefe des betrachteten Punktes im Gesichtsfeld relativ zum Fixationspunkt vari­ iert. Diese Abstandsabweichungen werden als binokulare Dis­ paritäten bezeichnet, die nachfolgend kurz als "Disparitä­ ten" bezeichnet sind.The phenomenon of spatial vision, which is briefly described below in Relation to humans is generally based on the perception of the visible environment by means of the two human eyes, the due to the eye relief two perceived images (right eye or image, lin kes eye or picture) with a slightly different view angles are perceived. Since the visual axes of the eyes et what converge, their visual axes meet at one Point of the environment under consideration, being from a fixation this point is spoken through the eyes. The picture this point falls on a visual pit of the network skin. Each neighboring point in the visual field will then open up a location of the retina that projects somewhat from the center the sharpest sight. Generally is this distance is different in both eyes, with the Distance as a function of the spatial depth of the considered Point in the visual field relative to the fixation point vari iert. These distance deviations are called binocular dis parities, hereinafter referred to as "disparity ten "are designated.

Beim Stereosehen besteht das eigentliche Problem, neben der Auswertung der jeweils gegebenen trigonometrischen Gege­ benheiten darin herauszufinden, welcher Bildpunkt der rea­ len Welt bzw. des gesehenen Objekts, der im ersten der ste­ reoskopischen Bilder auftritt, welchem Bildpunkt im zweiten der stereoskopischen Bilder entspricht. Anders ausgedrückt, gilt es in Bezug auf das menschliche Auge herauszufinden, welcher Bildpunkt auf der linken Netzhaut welchem Bildpunkt auf der rechten Netzhaut entspricht.The real problem with stereo viewing is besides that Evaluation of the given trigonometric counter to find out which pixel the rea len world or the seen object, which in the first the ste reoscopic images occurs, which pixel in the second corresponds to the stereoscopic images. Expressed differently, it is important to find out in relation to the human eye  which pixel on the left retina which pixel on the right retina.

Für das räumliche Sehen bzw. die 3D-Stereowahrnehmung ist es dann erforderlich, aus den Disparitäten auf die dreidi­ mensionale Struktur des wahrgenommenen Bildes zurück zu­ schließen. Anders ausgedrückt, aus ermittelten Disparitäten kann auf die in dem wahrgenommenen Bild enthaltenen Tiefen­ informationen geschlossen werden.For spatial vision or 3D stereo perception then it is necessary from the disparities to the dreidi dimensional structure of the perceived image conclude. In other words, from identified disparities can to the depths contained in the perceived image information will be closed.

Bislang verfügbare Stereoverfahren sind jedoch auf lei­ stungsfähige Arbeitsplatzrechner (PC's bzw. sogenannte "Workstations") angewiesen, wobei zur Ermittlung der ge­ wünschten Tiefeninformationen aus einem einzigen Stereo­ bildpaar, beispielsweise unter Verwendung eines handelsüb­ lichen Arbeitsplatzrechners (mit einer Taktfrequenz von et­ wa 90 MHz), eine Zeit im Bereich von etwa 3 bis 5 Minuten erforderlich ist.So far, however, stereo methods are available stable workstation computers (PCs or so-called "Workstations") instructed, whereby to determine the ge wanted depth information from a single stereo pair of images, for example using a commercial union workstation (with a clock frequency of et wa 90 MHz), a time in the range of about 3 to 5 minutes is required.

Versucht man jedoch, derartige Verfahren in spezielle Re­ chenwerke auszulagern, übersteigt der Entwicklungs- und Hardwareaufwand sehr schnell wirtschaftlich vertretbare Grenzen. Die Markteinführung derartiger Systeme scheiterte bislang also entweder an einer zu geringen Verarbeitungsge­ schwindigkeit oder einem zu hohen Systempreis.However, if you try to include such procedures in special Re Outsourcing the chenwerke exceeds the development and Hardware expenditure very quickly economically justifiable Limits. The market launch of such systems failed So far either because the processing area is too low speed or a too high system price.

Stereoverfahren sind bestrebt, einander entsprechende Bild­ punkte zwischen einem ersten (linken) und zweiten (rechten) Stereobild zu finden, wobei dann aus der relativen Ver­ schiebung solcher Bildpunkte bei bekannter Kameraposition die Entfernung der Punkte berechnet werden kann. Stereo procedures strive to image each other accordingly points between a first (left) and a second (right) Find stereo image, then from the relative ver shift of such pixels with known camera position the distance of the points can be calculated.  

Unter den vorstehend angesprochenen herkömmlichen rech­ nerimplementierbaren Stereoverfahren kann man im wesentli­ chen unterscheiden zwischen sogenannten merkmalsbasierten Stereoverfahren, intensitätsbasierten Stereoverfahren und phasenbasierten Stereoverfahren.Among the conventional rech One can essentially implement stereo methods differentiate between so-called feature-based Stereo method, intensity based stereo method and phase-based stereo process.

Bei merkmalsbasierten Stereoverfahren werden vor der Korre­ spondenz-Suche bestimmte Merkmale (z. B. Kanten oder Inten­ sitätsmaxima) aus den Bilddaten extrahiert, die für stabi­ ler als die rohen Bildintensitäten gehalten werden. Derar­ tige Verfahren sind stabil, falls nur wenige stabile Merk­ male (etwa Objektkanten) extrahiert werden. Sie sind auch schnell, da Bilder nur an den Orten weiterverarbeitet wer­ den müssen, an denen Merkmale erfaßt wurden. Dies führt zu einer merklichen Datenreduktion.In the case of feature-based stereo procedures, before the correction spondenz search for certain characteristics (e.g. edges or inten sitätsmaxima) extracted from the image data, which for stabi ler than the raw image intensities. Derar current procedures are stable if only a few stable notes male (such as object edges) can be extracted. You are too fast, since images are only processed at the locations those on which characteristics were recorded. this leads to a noticeable data reduction.

Jedoch können dadurch Disparitäten nur an den Stellen be­ rechnet werden, an denen die gewählten Merkmale erfaßt wur­ den. An allen weiteren Stellen des Bildes muß interpoliert werden, was zusätzlich zeitaufwendige Rechenvorgänge not­ wendig macht. Je dichter die Merkmale liegen, desto schwie­ riger wird es, diese einander zuzuordnen. Die endgültige Zuordnung kann nur anhand komplizierter einzusetzender Ver­ fahren getroffen werden, was zu einer verminderten Verar­ beitungsgeschwindigkeit führt.However, this can only cause disparities at the points on which the selected characteristics were recorded the. All other parts of the picture must be interpolated be what additionally time-consuming computing processes makes maneuverable. The closer the characteristics are, the more difficult It is becoming more difficult to match them up. The final Assignment can only be based on complicated Ver drive being hit, resulting in decreased processing processing speed leads.

Die Druckschrift WO 94/18797 A1 beschreibt beispielsweise ein derartiges merkmalsbasiertes Verfahren sowie eine ent­ sprechende Vorrichtung. The publication WO 94/18797 A1 describes, for example such a feature-based method and an ent speaking device.  

Intensitätsbasierte Stereoverfahren arbeiten direkt mit den seitens der Stereokameras bzw. der Bildaufnehmer geliefer­ ten Bildhelligkeiten. Daher sind zur Zuordnung einander entsprechender Helligkeiten sehr stabile Algorithmen einzu­ setzen, die entsprechend viel Rechenzeit erfordern. Unter den intensitätsbasierten Verfahren kann weiter unterschie­ den werden zwischen korrelationsbasierten Verfahren und Verfahren mittels dynamischer Programmierung.Intensity-based stereo processes work directly with the supplied by the stereo cameras or the image recorders image brightness. Therefore, they are related to each other appropriate stable algorithms set that require a corresponding amount of computing time. Under the intensity-based method can further differ between correlation-based methods and Dynamic programming method.

Erstere sind bestrebt, einen kleinen Bildbereich des linken Bildes in dem rechten Bild wiederzufinden. Dazu werden üb­ licherweise Verfahren zur Maximierung der Korrelation oder Minimierung der Differenz eingesetzt. Falls die Bildaus­ schnitte groß genug gewählt sind, erzielt man mit diesen Verfahren stabile und dichte Disparitätskarten, wobei eine Echtzeitverarbeitung unter Einsatz spezieller aufwendiger Hardware denkbar ist. Die rohen Disparitätskarten enthalten typischerweise jedoch nur Verschiebungen im Bereich der Ge­ nauigkeit eines Bildelements (Pixel), so daß die Auflösung begrenzt ist. Nur durch Einsatz von Interpolationsverfahren oder aber iterativen Verfahren kann die Genauigkeit der Disparitäten jedoch auf subpixelgenaue Disparitäten verbes­ sert werden.The former strive to have a small image area of the left Picture in the right picture. To do this, method to maximize correlation or Minimizing the difference used. If the picture cuts that are large enough are achieved with these Process stable and dense disparity cards, one Real time processing using special complex Hardware is conceivable. The raw disparity cards included typically, however, only shifts in the area of Ge accuracy of a picture element (pixel) so that the resolution is limited. Only by using interpolation methods or else iterative methods can increase the accuracy of the However, disparities on sub-pixel precise disparities be tested.

Derartige korrelationsbasierte Verfahren sind zum Beispiel in der Druckschrift DE 34 25 946 A1 sowie dem Artikel "A stereovision system for a planetary rover: calibration, correlation, registration, and fusion" von Z. Zhang, in: Machine Vision and Applications, Nr. 10, 1997, S.27-34 be­ schrieben. Such correlation-based methods are, for example in the publication DE 34 25 946 A1 and the article "A stereovision system for a planetary rover: calibration, correlation, registration, and fusion "by Z. Zhang, in: Machine Vision and Applications, No. 10, 1997, pp. 27-34 be wrote.  

Bei Verfahren mittels dynamischer Programmierung wird ver­ sucht, lokal die Differenz zu minimieren, wobei diese loka­ le Minimierung dann anhand geeigneter Verfahren auf das ge­ samte Bild ausgedehnt wird. Typischerweise berechnen auch diese Verfahren Disparitäten nur auf ein Bildelement genau, was für zahlreiche Anwendungen jedoch zu ungenau ist.When using dynamic programming, ver seeks to locally minimize the difference, this loka Then minimization to the ge using suitable procedures entire picture is expanded. Typically also calculate these procedures disparities to just one pixel, which is too imprecise for numerous applications.

Zusammenfassend ist festzustellen, daß intensitätsbasierte Verfahren zwar eine dichte Disparitätskarte (einen Dispari­ tätswert für fast jeden Bildpunkt) liefern, die Minimierung des Fehlermaßes wie bei dem Verfahren der Minimierung der Differenz jedoch zeitaufwendig ist und daher nicht für Echtzeitanwendungen geeignet ist. Die Reduzierung der er­ forderlichen Rechenzeit kann durch Einsatz hierarchischer Verfahren reduziert werden, dies jedoch nur durch Einsatz komplizierter und nicht parallelisierbarer algorithmischer Strukturen, für die eine Hardwarelösung zumindest äußerst aufwendig und somit kostenintensiv wird.In summary it can be said that intensity-based Procedure a dense disparity card (a dispari value for almost every pixel), the minimization the measure of error as in the method of minimizing the Difference, however, is time consuming and therefore not for Real-time applications is suitable. The reduction of he required computing time can be achieved by using hierarchical Procedures can be reduced, but only through use complicated and not parallelizable algorithmic Structures for which a hardware solution is at least extreme becomes complex and therefore costly.

Des weiteren sind phasenbasierte Stereoverfahren Gegenstand aktueller Untersuchungen. Diese Verfahren extrahieren aus den rohen Bilddaten eine lokale Fourier-Phase (meist durch Filterung mittels Gabor-Funktionen), und versuchen dann, entweder, diese Fourier-Phasenbilder (für das rechte bzw. linke Bild) (so z. B. beschrieben von Weng) in Übereinstim­ mung zu bringen, oder über die Anwendung des Fourier'schen-Ver­ schiebungstheorems die lokale Verschiebung zu berechnen (so z. B. beschrieben von Sanger, Fleet & Jepson). Die Ex­ traktion der lokalen Fourier-Phase entspricht dabei effek­ tiv einem lokalen Kontrast-Ausgleich, wodurch viele durch Helligkeitsschwankungen verursachte Fehler anderer Stereo­ verfahren reduziert werden. Diese phasenbasierten Stereo­ verfahren arbeiten subpixel-genau und sind auch für Echt­ zeitanwendungen implementierbar. Jedoch müssen zur Erzeu­ gung dichter Disparitätskarten hierarchische Verfahren ein­ gesetzt werden, die zur Fehlervermeidung meist spezielle Ausnahmesituationen abfangen müssen (vgl. Fleet). Dies macht die verwendeten Algorithmen kompliziert und eine Hardwarerealisierung aufwendig und kostenintensiv.Phase-based stereo processes are also an issue current investigations. These procedures extract from a local Fourier phase (usually through Filtering using Gabor functions), and then try either, these Fourier phase images (for the right or left picture) (e.g. described by Weng) in agreement or to use Fourier's ver shift theorem to calculate the local shift (e.g. described by Sanger, Fleet & Jepson). The ex traction of the local Fourier phase corresponds to effek tiv a local contrast compensation, which many through Variations in brightness caused errors in other stereo  procedures can be reduced. This phase-based stereo processes work with sub-pixel accuracy and are also true time applications can be implemented. However, to generate hierarchical procedures which are usually special for avoiding errors Catch exceptional situations (see Fleet). This makes the algorithms used complicated and one Hardware implementation complex and costly.

Es ist folglich Aufgabe der vorliegenden Erfindung, eine Bildverarbeitungsvorrichtung anzugeben, mit der stereosko­ pische Bilder in Echtzeit verarbeitet werden können, und die mit einfachen Mitteln und geringem Aufwand zu realisie­ ren ist. Es ist ferner Aufgabe der vorliegenden Erfindung einen dabei zum Einsatz gelangenden Kohärenzdetektor anzu­ geben.It is therefore an object of the present invention to Specify image processing device with the stereosko pical images can be processed in real time, and that can be realized with simple means and little effort ren is. It is also an object of the present invention to use a coherence detector used for this give.

Erfindungsgemäß wird diese Aufgabe gelöst durch einen Kohä­ renzdetektor mit einer Vielzahl von n Signaleingängen, an denen ein jeweiliger Eingangssignalwert anliegt, einer er­ sten Sortiereinrichtung zum Sortieren der n zugeführten Eingangssignalwerte entsprechend ihrem Wert und zur paral­ lelen Ausgabe der n sortierten Werte, einer Vielzahl von n-1 Subtrahiereinrichtungen zur Subtraktion von jeweils zwei benachbarten sortierten Werten, einer zweiten Sor­ tiereinrichtung zum Sortieren der erhaltenen n-1 Differen­ zen hinsichtlich ihres Betrages und zur Ausgabe des klein­ sten Differenzbetrags, einer Auswahleinrichtung, die anhand des ermittelten kleinsten Differenzbetrags das diesem zuge­ hörige Wertepaar der Eingangssignalwerte ausgibt, und einer Ausgabeeinrichtung, der das ausgegebene Wertepaar zu­ geführt wird und die dessen Mittelwert ausgibt. Alternativ wird diese Aufgabe gelöst durch einen Kohärenz­ detektor mit einer Vielzahl von n Signaleingängen, an denen ein jeweiliger Eingangssignalwert anliegt, einer Fenster-Begren­ zungseinrichtung zur Ausgabe derjenigen der n Ein­ gangssignale, deren Eingangssignalwert innerhalb eines vor­ eingestellten, endlichen Fenster-Wertebereichs [-x, . . ., 0, . . ., +x] mit m+1 Werten im Abstand von 2x/m liegt, einer Rundungseinrichtung zur Rundung der seitens der Fenster-Begren­ zungseinrichtung ausgegebenen Werte auf den jeweils nächstliegenden der m+1 Werte des voreingestellten Fenster-Werte­ bereichs, einer Adressierungs-Ansteuerungseinrichtung, und einer Faltungseinrichtung, wobei die Faltungseinrich­ tung eine der Anzahl von Werten des Fenster-Wertebereichs entsprechende Vielzahl von m+1 Signaleingängen hat, und dem jeweiligen k-ten Eingang durch die Adressierungs-Ansteu­ erungseinrichtung diejenigen der n Signale zugeführt werden, deren Wert -x +(k-1).2x/m beträgt, welche somit ein entsprechendes k-tes von m+1 Strahlungsemissionselementen ansteuern, wobei die so zur Emission gelangte Strahlung von einer der Anzahl von Werten des Fenster-Wertebereichs ent­ sprechenden Vielzahl von m+1 Strahlungsempfangselementen erfaßt wird, und einer Auswerteeinrichtung, die die Adresse k desjenigen der m+1 Strahlungsempfangselemente ermittelt, das die größte Strahlungsintensität erfaßt, und den Wert k dieser Adresse an einem Ausgangsanschluß abgibt, wobei der ausgegebene Wert das Ergebnis der Faltung der der Faltungs­ einrichtung zugeführten Signale darstellt. According to the invention this object is achieved by a Kohä reference detector with a large number of n signal inputs which have a respective input signal value, one he Most sorting device for sorting the n fed Input signal values according to their value and parallel output of the n sorted values, a variety of n-1 subtractors for subtracting each two neighboring sorted values, a second Sor animal device for sorting the obtained n-1 differences zen regarding their amount and the issue of the small most differential amount, a selector based on of the smallest difference ascertained outputs the corresponding pair of values of the input signal values, and  an output device to which the output pair of values is performed and which outputs its mean value. Alternatively, this task is accomplished through coherence detector with a large number of n signal inputs at which a respective input signal value is present, a window limit tion device for outputting those of the n one output signals whose input signal value is within a set, finite window value range [-x,. . ., 0, . . ., + x] with m + 1 values at a distance of 2x / m, one Rounding device for rounding the window limit output device on the respective closest to the m + 1 values of the preset window values area, an addressing control device, and a folding device, the folding device one of the number of values in the window value range has a corresponding number of m + 1 signal inputs, and the respective kth input by the addressing control Erungseinrichtung those of the n signals supplied whose value is -x + (k-1) .2x / m, which is therefore a corresponding k-th of m + 1 radiation emission elements control, the radiation thus emitted by one of the number of values in the window value range speaking variety of m + 1 radiation receiving elements is detected, and an evaluation device that the address k of that of the m + 1 radiation receiving elements is determined, which detects the greatest radiation intensity, and the value k outputs this address to an output connection, the output value the result of the convolution of the convolution device supplied signals.  

Ferner wird die Aufgabe gelöst durch eine Bildverarbei­ tungsvorrichtung mit Verschiebe-Einrichtungen zur gegensei­ tigen Verschiebung von diesen jeweils zugeführten Bilddaten eines ersten Bildes und eines zu diesem unter einem anderen Aufnahmewinkel aufgenommenen zweiten Bildes, wobei die Bilddaten an den Verschiebe-Einrichtungen jeweils parallel abgegriffen werden und paarweise einer nachfolgenden Dispa­ ritäts-Detektionseinrichtung zugeführt werden; wobei die Disparitäts-Detektionseinrichtung für jedes der zugeführten Bilddatenpaare mittels eines jeweiligen Disparitäts-Ele­ mentes einen räumliche Tiefeninformationen für das je­ weilige Bilddatenpaar darstellenden Disparitätswert ermit­ telt, und die ermittelten Disparitätswerte einer Kohärenz-Detek­ tionseinrichtung zuführt, wobei der ausgegebene Dispa­ ritätswert auf jede Verschiebung der Bilddaten hin ermit­ telt wird und die zugehörige räumliche Tiefeninformation darstellt.The task is also solved by image processing processing device with displacement devices for the opposite side term shift of these respectively supplied image data a first picture and one to this under another Angle taken second image, the Image data in parallel on the shifting devices be tapped and in pairs from a subsequent disp Rity detection device are supplied; being the Disparity detection device for each of the supplied Image data pairs using a respective disparity element mentes a spatial depth information for each because of the disparity value representing the image data pair telt, and the determined disparity values of a coherence detector tion device feeds, the output Dispa value for each shift of the image data and the associated spatial depth information represents.

Durch diesen erfindungsgemäßen Aufbau können die zugeführ­ ten Bildsignale mit der Geschwindigkeit verarbeitet werden, wie sie von Bildaufnehmern geliefert werden. Somit ist die Bilddatenverarbeitung zur Gewinnung von Tiefeninformationen mit geringem Aufwand und in Echtzeit möglich.With this construction according to the invention, they can be fed th image signals are processed at speed, as they are supplied by image recorders. So that is Image data processing for obtaining depth information possible with little effort and in real time.

Diese hohe Verarbeitungsgeschwindigkeit (Echtzeit) des Sy­ stems ist ein wesentlicher Vorteil gegenüber dem Stand der Technik. Mit einer Bildrate von beispielsweise 25 Bildern pro Sekunde, die dem System seitens der Bildaufnehmer zuge­ führt werden und von diesem in Echtzeit verarbeitet werden, ist das System bzw. das mit diesem implementierte Verfahren den aus dem Stand der Technik bekannten Anordnungen bzw. Verfahren zumindest um einen Geschwindigkeitsfaktor von 100 überlegen.This high processing speed (real time) of the Sy stems is a major advantage over the state of the Technology. With a frame rate of, for example, 25 frames per second, the system on the part of the image sensor and are processed by it in real time, is the system or the method implemented with it the arrangements known from the prior art or  Procedure at least by a speed factor of 100 think.

Weiterhin ist das zu messende Volumen des Meßobjekts gegen­ über bekannten Systemen nicht mehr begrenzt. Insbesondere ist der Meßbereich der erfindungsgemäßen Bildverarbeitungs­ vorrichtung nur durch die Begrenzung der verwendeten ab­ bildenden Optik bestimmt, und alle optischen Vorsatzgeräte wie Mikroskope, Tele- oder Weitwinkelobjektive können in Verbindung mit den Bildaufnehmern eingesetzt werden, sofern sie an diese angepaßt sind. Insbesondere ist es mit dem er­ findungsgemäßen System möglich, ein Meßobjekt ohne Markie­ rungshilfen auszuwerten, die bei Systemen gemäß dem Stand der Technik häufig erforderlich sind.Furthermore, the volume of the object to be measured is against no longer limited over known systems. Especially is the measuring range of the image processing according to the invention device only by limiting the used from visual optics determined, and all optical attachments such as microscopes, telephoto or wide-angle lenses can in Connection with the image sensors can be used, provided they are adapted to them. In particular, it is with him system according to the invention possible, a measurement object without Markie evaluation aids that are used in systems according to the status of technology are often required.

Durch die Möglichkeit, ein Meßobjekt ohne Markierungshilfen auszuwerten entfällt weiterhin die Notwendigkeit eine dafür notwendige Projektionseinheit vorzusehen. Folglich wird die erfindungsgemäße Vorrichtung kompakter und leichter, wobei sich die Handhabung erleichtert und sich vielseitigere Ein­ satzmöglichkeiten ergeben.The possibility of a measurement object without marking aids to evaluate there is still no need for one to provide the necessary projection unit. Hence the Device according to the invention more compact and lighter, wherein handling is easier and more versatile opportunities arise.

Zudem entfällt bei der erfindungsgemäßen Vorrichtung auch eine Vorbehandlung des Meßobjekts selbst, beispielsweise ein Abdecken des Meßobjekts mit hellem Puder zur Beseiti­ gung von Spiegelungen und Glanzlichtern auf der Objektober­ fläche vor der Messung und Beseitigung des Puders nach er­ folgter Messung. Durch die Einsparung derartiger Arbeits­ gänge arbeitet die erfindungsgemäße Vorrichtung zeit- und kostengünstiger. In addition, the device according to the invention also does not apply pretreatment of the test object itself, for example covering the test object with light powder to remove it reflection and highlights on the object surface area before measuring and removing the powder after he following measurement. By saving such work gears, the device according to the invention works in time and cheaper.  

Zudem ist es mit der erfindungsgemäßen Vorrichtung vorteil­ hafterweise möglich, beliebige Bildsignalquellen anzu­ schließen. Das heißt, die erfindungsgemäße Vorrichtung ist nicht auf den Bereich sichtbaren Lichts beschränkt, sondern die Auswertung kann beispielsweise auch für Bildsignale im Infrarotbereich erfolgen.It is also advantageous with the device according to the invention fortunately possible to switch on any image signal sources conclude. That is, the device according to the invention is not limited to the area of visible light, but for example, the evaluation can also be carried out for image signals Infrared range.

Mit den erfindungsgemäßen Kohärenzdetektoren ist es insbe­ sondere möglich, aus einer Vielzahl von Eingangssignalen diejenigen Signale in Echtzeit zu ermitteln, deren Werte einander am ähnlichsten sind, und diesen "ähnlichsten" Wert dann weiter zu verarbeiten.It is particularly the case with the coherence detectors according to the invention special possible from a variety of input signals determine those signals in real time, their values are most similar to each other, and this "most similar" value then continue to process.

Vorteilhafte Weiterbildungen der Erfindung sind in den Un­ teransprüchen angegeben.Advantageous developments of the invention are in the Un claims specified.

Die vorliegende Erfindung ist nachstehend anhand von Aus­ führungsbeispielen mit Bezug auf die beigefügte Zeichnung näher beschrieben. Dabei zeigen:The present invention is hereinafter based on Aus management examples with reference to the attached drawing described in more detail. Show:

Fig. 1A ein allgemeines Blockschaltbild des erfindungsgemä­ ßen Systems; Figure 1A is a general block diagram of the inventive system SEN.

Fig. 1B eine schematische Darstellung einer stereoskopi­ schen Bilderfassung zur Erläuterung und Begriffsdefinition; Fig. 1B is a schematic representation of a stereoscopic image capture for explanation and definition of terms;

Fig. 2 ein Blockschaltbild, das Bildsignal-Verschiebe­ einrichtungen und Disparitätsbestimmungseinrichtungen be­ treffende Einzelheiten zeigt; Fig. 2 is a block diagram showing image signal shifting means and disparity determining means be details;

Fig. 3A ein Funktionsschaltbild eines einzelnen gradienten­ basierten bzw. differentiellen Disparitätselements; FIG. 3A is a functional diagram of a single gradient-based or differential Disparitätselements;

Fig. 3B ein Blockschaltbild zur Hardwarerealisierung des gemäß Fig. 3A funktional beschriebenen einzelnen Dispari­ tätselements; . Fig. 3B is a block diagram for the hardware implementation of Figure 3A in accordance with individual Dispari functionally described tätselements;

Fig. 4A ein Blockschaltbild eines ersten Ausführungsbei­ spiels eines Kohärenzdetektors; FIG. 4A is a block diagram of a first Ausführungsbei performance of a coherent detector;

Fig. 4B eine schematische Darstellung einer Ausführungsva­ riante eines Kohärenzdetektors; FIG. 4B is a schematic representation of a Ausführungsva riante a coherent detector;

Fig. 4C eine zweites Ausführungsbeispiel eines Kohärenzde­ tektors, dessen Funktionsweise auf dem Faltungsprinzip be­ ruht; Fig. 4C shows a second embodiment of a coherence detector, the operation of which is based on the convolution principle;

Fig. 4D Einzelheiten der Realisierung der Faltungseinrich­ tung bei dem in Fig. 4C dargestellten Kohärenzdetektor; Fig. 4D details of the implementation of the folding device in the coherence detector shown in Fig. 4C;

Fig. 5 ein Diagramm, das für alle Bildelemente einer Bild­ zeile die von verschiedenen Disparitätselementen ermittel­ ten Disparitäten darstellt, aus denen dann mittels eines Kohärenzdetektors in Echtzeit die tatsächliche bzw. wahre Disparität im Verlauf der Bildzeile bestimmt wird; Figure 5 is a graph showing the line for all the picture elements of an image representing the ermittel th of different Disparitätselementen disparities, from which then the actual or true disparity is determined in the course of the image line by means of a coherent detector in real time.

Fig. 6 ein Beispiel zweier als Bildsignalstrom zugeführter Bilder eines ersten und zweiten (bzw. linken und rechten) Bildaufnehmers, sowie eine Darstellung der mit der erfin­ dungsgemäßen Vorrichtung ermittelten Tiefeninformation in Form einer sogenannten Disparitätskarte. Fig. 6 shows an example of two supplied as an image signal current images of a first and second (or left and right) image receiver, a presentation of the depth information obtained with the device OF INVENTION to the invention in the form of a so-called disparity map.

Fig. 1A stellt die erfindungsgemäße stereoskopische Bild­ verarbeitungsvorrichtung zur Erfassung dreidimensionaler Objekte in Echtzeit schematisch als Blockschaltbild dar. Fig. 1A represents the stereoscopic image processing device according to the invention for detecting three-dimensional objects in real time, a schematic block diagram illustrates.

Die Bildverarbeitungsvorrichtung weist einen Sensorkopf auf, der zwei Bildaufnehmer umfaßt, einen Bildaufnehmer CCDL für das (erste) linke Bild und einen Bildaufnehmer CCDR für das (zweite) rechte Bild. Eines dieser Bilder wird dabei für die nachfolgende Verarbeitung als Referenzbild definiert. Das heißt, daß ermittelte Disparitätsergebnisse zur Erstellung einer Disparitätskarte den Bilddaten des Re­ ferenzbildes zugeordnet werden.The image processing device has a sensor head which comprises two image recorders, one image pickup  CCDL for the (first) left image and an image sensor CCDR for the (second) right picture. One of these pictures will thereby for the subsequent processing as a reference image Are defined. That is, determined disparity results to create a disparity map the image data of the Re be assigned to the reference image.

Bei den Bildaufnehmern kann es sich beispielsweise um ein Kamerapaar mit CCD-Bildaufnehmern handeln, die in einem vorbestimmten bekannten Abstand d voneinander angeordnet sind und daher leicht unterschiedliche Bilder des selben Objektes aufnehmen (vgl. Fig. 1B und Fig. 6). Insbesondere können die Bildaufnehmer Bewegtbilder aufnehmen und diese der Vorrichtung zur nachfolgenden Echtzeitverarbeitung zu­ führen. Mittels einer Bildaufnehmer-Synchronisationsein­ richtung SYNC werden die Aufnahmen der Bildaufnehmerein­ richtungen CCDL, CCDR zeitlich synchronisiert, so daß das linke und das rechte Bild synchron zueinander aufgenommen werden.In the image sensors may be, for example, a pair of cameras with CCD imagers act to d at a predetermined known distance from each other and therefore are arranged slightly different images of the same object record (see. Fig. 1B and Fig. 6). In particular, the image recorders can record moving images and guide them to the device for subsequent real-time processing. By means of an image pickup synchronization device SYNC, the recordings of the image pickup devices CCDL, CCDR are synchronized in time, so that the left and right images are recorded synchronously with one another.

Je nach Entfernung des Objekts von den Bildaufnehmern bzw. Kameras weisen die aufgenommenen Bildpunkte leichte - als Disparitäten bezeichnete - Verschiebungen auf. Das heißt, daß das selbe Objekt an verschiedenen Stellen im ersten bzw. zweiten Bild erscheint.Depending on the distance of the object from the image recorders or Cameras show the recorded pixels more easily than Disparities called - shifts. This means, that the same object in different places in the first or second picture appears.

Mittels einer nachfolgend als Disparitätsdetektor DD be­ zeichneten Einrichtung und einer als Disparitäts-Kohärenz­ detektor KD bezeichneten Einrichtung (die beide nachfolgend noch ausführlich beschrieben sind) können die tatsächlichen Disparitäten bzw. Verschiebungen ermittelt werden und dann durch trigonometrische Berechnungen unter Berücksichtigung des bekannten Abstandes d zwischen den Bildaufnehmern CCDL, CCDR die räumliche Entfernung des jeweiligen Objekts be­ rechnet werden, somit die gesuchten Tiefeninformationen er­ halten werden.By means of a subsequently as disparity detector DD signed facility and one as disparity coherence detector KD designated device (both below are described in detail) may be actual Disparities or shifts are determined and then taken into account by trigonometric calculations the known distance d between the image recorders CCDL, CCDR is the spatial distance of the respective object are calculated, thus the depth information he is looking for will hold.

Die so aus zwei Stereo-Bewegtbildern berechnete Tiefenin­ formation kann quasi verzögerungsfrei in Echtzeit als Vi­ deosignal ausgegeben werden und als dritte Dimension (z. B. drittes Bild) als Grauwertbild oder Farbbild dargestellt werden. Dabei ist die Echtzeitverarbeitung des Systems ins­ besondere durch die serielle Verarbeitung der durch die Bildaufnehmer CCDL, CCDR gelieferten Bilddaten bedingt.The depth in calculated from two stereo moving images formation can be called Vi and the third dimension (e.g. third image) is shown as a grayscale image or color image become. The real-time processing of the system is ins special through the serial processing the through the Image sensor CCDL, CCDR conditionally delivered image data.

Mit der Bildaufnehmer-Synchronisationseinrichtung SYNC ver­ bunden ist ein Taktgenerator CLK, der Taktsignale zur Steuerung und Synchronisation weiterer Komponenten des Sy­ stems erzeugt.With the image sensor synchronization device SYNC ver bound is a clock generator CLK, the clock signals for Control and synchronization of other components of the Sy stems generated.

Die aufgenommenen Bildsignale werden von den Bildaufnehmern CCDL, CCDR diesen jeweils zugeordneten Vorverarbeitungsein­ richtungen VVL, VVR zugeführt. In diesen Vorverarbeitungs­ einrichtungen VVL, VVR erfolgt ein Helligkeitsausgleich der beiden Stereobilder vor der nachfolgenden Verarbeitung. Diese Helligkeitsvorverarbeitung ist vorteilhaft, da auf­ grund leicht unterschiedlicher Bildaufnahmewinkel der Bild­ aufnehmer CCDL, CCDR sogenannte Glanzlichter und Reflexio­ nen an (spiegelnden) Oberflächen der aufgenommen Objekte auftreten können, die bei der nachfolgenden Verarbeitung der Bilddaten zur Erfassung der Disparitäten zu Fehlern führen können, so daß die Disparitätswerte instabil werden könnten.The recorded image signals are used by the image recorders CCDL, CCDR are assigned to these preprocessing processes directions VVL, VVR supplied. In this preprocessing devices VVL, VVR, the brightness is compensated for two stereo images before subsequent processing. This brightness preprocessing is advantageous because of due to slightly different image recording angle of the image sensors CCDL, CCDR so-called highlights and reflexion on (reflective) surfaces of the recorded objects can occur in the subsequent processing the image data to record the disparities to errors  can lead, so that the disparity values become unstable could.

Für den Fall der Verarbeitung von Farbbildern kann im Rah­ men der Vorverarbeitung durch die Vorverarbeitungsein­ richtungen eine Zerlegung der jeweiligen (ersten und zwei­ ten) Farbbilddaten in jeweilige Farbbildkomponenten (z. B. in die Primärfarben Rot, Grün, Blau (RGB) oder aber in die Luminanz- und die beiden Farbdifferenzkomponenten) erfol­ gen. Zudem ist es auch möglich, die ersten und zweiten Bilddaten unterschiedlichen Vorverarbeitungen zu unter­ ziehen.In the case of processing color images in the frame preprocessing by preprocessing directions a decomposition of the respective (first and two color image data in respective color image components (e.g. in the primary colors red, green, blue (RGB) or in Luminance and the two color difference components) It is also possible to use the first and second Image data to different preprocessing pull.

Nach erfolgter Vorverarbeitung der Bilddaten seitens der Vorverarbeitungseinrichtungen VVL, VVR werden die Bilddaten des ersten und zweiten (bzw. linken und rechten) Bildes je­ weils Einrichtungen VSEL, VSER zur gegenseitigen Verschie­ bung der linken und rechten Bilddaten in Bezug aufeinander zugeführt. Genauer heißt das, daß jeweils zwei Verschiebe­ einrichtungen VSEL, VSER eine Verschiebeeinheit bilden, wo­ bei dabei je ein Verschiebestrom von Bilddaten nach "rechts" und nach "links" pro Verschiebeeinheit vorliegt. Eine Verschiebeeinheit ist dabei je nach Anwendungsfall für jede Art von Bilddaten vorzusehen. Das heißt, im Fall einer Vorverarbeitung durch Zerlegung in die Primärfarben R, G und B können drei Verschiebeeinheiten vorgesehen sein, und zwar je eine für jede Primärfarbe.After the preprocessing of the image data by the The image data are preprocessing devices VVL, VVR of the first and second (or left and right) picture each because facilities VSEL, VSER for mutual displacement Exercise the left and right image data in relation to each other fed. More specifically, that means two moves each facilities VSEL, VSER form a displacement unit where with a shift current of image data each "Right" and "Left" per shifting unit. Depending on the application, a displacement unit is for to provide any kind of image data. That is, in the case of one Preprocessing by splitting into the primary colors R, G and B three displacement units can be provided, and one for each primary color.

Die Disparitäten derart zueinander verschobener Bilddaten werden dann für jeweilige Bilddatenpaare durch den Dispari­ tätsdetektor DD ermittelt und ein jeweiliger Satz erhalte­ ner Disparitätswerte für die Bilddatenpaare wird durch den Disparitäts-Kohärenzdetektor KD ausgewertet.The disparities of image data shifted relative to one another in this way are then for the respective pairs of image data by the Dispari DD detector determined and get a respective set  The disparity values for the image data pairs are determined by the Disparity coherence detector KD evaluated.

Diese Kohärenzdetektion bezüglich der erhaltenen Disparitä­ ten beruht auf der Auswahl bzw. Ermittlung desjenigen der erhaltenen Disparitätswerte, der annähernd identisch mit zumindest einem weiteren der erhaltenen Disparitätswerte ist. Anders ausgedrückt wird der Disparitätswert als der eigentliche bzw. wahre Disparitätswert ermittelt, der in etwa identisch zu zumindest einem weiteren Disparitätswert (d. h. in einem vorbestimmten Intervall um diesen liegt) oder identisch mit zumindest einem weiteren Disparitätswert ist. Alternativ kann derjenige Disparitätswert als eigent­ licher Disparitätswert ermittelt werden, der das Faltungs­ ergebnis der erhaltenen Disparitätswerte darstellt. Fig. 5 veranschaulicht dieses Prinzipien anhand von Daten von bei­ spielsweise sieben Disparitätselementen eines Disparitäts­ detektors.This coherence detection with regard to the disparities obtained is based on the selection or determination of that of the disparity values obtained which is approximately identical to at least one further of the disparity values obtained. In other words, the disparity value is determined as the actual or true disparity value, which is approximately identical to at least one further disparity value (ie lies in a predetermined interval around this) or is identical to at least one further disparity value. Alternatively, the disparity value that represents the convolution result of the disparity values obtained can be determined as the actual disparity value. Fig. 5 illustrates this principle based on data from at play, seven Disparitätselementen a disparity detector.

Die seitens des Disparitäts-Kohärenzdetektors KD derart er­ mittelten eigentlichen Disparitätswerte werden dann von diesem an eine Einrichtung NB zur Bilddatennachbearbeitung ausgegeben. Diese Einrichtung NB bereitet die Disparitäts­ werte so auf, daß diese über einen Ausgangsanschluß DV ei­ ner wahlweise anzuschließenden Ausgabevorrichtung wie zum Beispiel einer (nicht dargestellten) Anzeigeeinrichtung zu­ geführt werden können und von dieser als Grauwert- oder Farbbild wiedergegeben werden. Zur besseren Darstellbarkeit der Disparitätswerte erfolgt im Rahmen der Bilddatennach­ bearbeitung auch eine Beseitigung auftretender Randeffekte sowie eine virtuelle Begrenzung. He on the part of the disparity coherence detector KD average actual disparity values are then from this to a facility NB for post-processing image data spent. This facility NB prepares the disparity upgrade so that this via an output connection DV egg ner optionally connectable output device such as Example of a display device (not shown) can be performed and by this as gray value or Color image can be reproduced. For better representation the disparity values are based on the image data processing also eliminating any marginal effects as well as a virtual limit.  

In der Figur selbst nicht dargestellt ist eine externe Be­ dieneinheit zur Konfiguration des Systems, die durch einen Arbeitsplatzrechner mit geeigneter Schnittstelle zu dem Sy­ stem implementiert sein kann.An external loading is not shown in the figure itself service unit for configuring the system by a Workstation computer with a suitable interface to the Sy stem can be implemented.

Fig. 1B zeigt erläuternd schematisch das Prinzip einer ste­ reoskopischen Bilderfassung. Mit CCDL, CCDR sind die in ei­ nem Abstand d voneinander angeordneten Bildaufnehmer be­ zeichnet, auf deren jeweiligem lichtempfindlichen Erfas­ sungsabschnitt ein abzubildendes Objekt bzw. abzubildender Punkt P1, P2 über ein vorgeschaltetes Objektiv abgebildet wird. Der Abstand d ist dabei als der Abstand zwischen den optischen Achsen der Objektive definiert, die als vertikal verlaufende strichpunktierte Linien eingezeichnet sind. Der Punkt P2 ist dabei in Richtung der optischen Achse weiter entfernt als der Punkt P1. Fig. 1B illustratively shows schematically the principle of a ste reoskopischen image capture. CCDL, CCDR are the image recorders arranged at a distance d from one another, on the respective light-sensitive detection section of which an object to be imaged or point P1, P2 to be imaged is imaged via an upstream lens. The distance d is defined as the distance between the optical axes of the lenses, which are shown as vertical dash-dotted lines. The point P2 is further away in the direction of the optical axis than the point P1.

Wie der schematischen Darstellung zu entnehmen ist, sind die Abbildungen der Punkte P1, P2 auf den Erfassungsab­ schnitten der Bildaufnehmer in Abhängigkeit der Entfernung unterschiedlich. Unter der Annahme, daß die Bildaufnehmer jeweils aus einer gewissen Anzahl von Bildelementen beste­ hen, ist der Punkt P1 beim Bildaufnehmer CCDL an einem Bildelement j abgebildet, während der Punkt P1 beim Bild­ aufnehmer CCDR an einem Bildelement j+y abgebildet ist. Die Bildelemente j und j+y entsprechen sich somit hinsichtlich ihres Informationsgehalts. Aufgrund dieser Verschiebung (Disparität) y kann aus den vorliegenden trigonometrischen Verhältnissen auf die Entfernung des Punktes P1 geschlossen werden. Die Entfernung des Punktes P1 sei nun als Bezugs­ entfernung definiert, was als Grundmeßbereich der Vorrich­ tung angesehen werden kann. Dann liegt der Punkt P1 in ei­ ner als Fixationsebene definierten Referenzebene, für die eine (relative) Disparität von Null angenommen sei. Anders ausgedrückt, ist die ermittelte Disparität auf die Fixati­ onsebene bezogen. Durch die geeignete Auswahl einer Vorver­ schiebung (z. B. y1, oder y2) zwischen den auszuwertenden ersten und zweiten Bilddaten kann somit die Fixationsebene bestimmt und der Grundmeßbereich festgelegt werden. Das heißt, bevor die Bilddaten des ersten und zweiten Bildes den Verschiebe-Einrichtungen VSEL, VSER zugeführt werden, werden sie bereits in Bezug aufeinander um den Vorverschie­ bungsbetrag (z. B. y2) verschoben.As can be seen from the schematic representation, the images of points P1, P2 on the acquisition the image sensor cut depending on the distance differently. Assuming that the imager best of a certain number of picture elements hen, point P1 is at one of the image recorders CCDL Image element j mapped, while point P1 in the image sensor CCDR is shown on a picture element j + y. The Image elements j and j + y thus correspond in terms of their information content. Because of this shift (Disparity) y can be from the present trigonometric Relationships to the distance of the point P1 closed become. The distance from point P1 is now a reference  distance defines what is the basic measuring range of the device can be viewed. Then point P1 is in egg ner reference plane defined as the fixation plane, for which a (relative) disparity of zero is assumed. Different expressed, is the determined disparity on the fixati related level. By the appropriate selection of a previous shift (e.g. y1, or y2) between those to be evaluated The first and second image data can thus be the fixation plane determined and the basic measuring range can be determined. The means before the image data of the first and second image the displacement devices VSEL, VSER are fed, they are already pre-shifting in relation to each other exercise amount (e.g. y2) postponed.

Die Fixationsebene in einem Intervall von Disparitätswerten [-x, . . ., 0, . . ., +x] umgebend liegt der sogenannte Fusions­ bereich. Der Fusionsbereich entspricht dabei einem "Schär­ fentiefebereich". Die (relativen) Disparitätswerte im Fusi­ onsbereich werden aufgrund der seitens der Verschiebe-Ein­ richtungen VSEL, VSER zusätzlich bedingten Verschiebung der Bilddaten ermittelt. Je größer die zusätzliche Ver­ schiebung ist, die ausgewertet wird, desto größer ist der Fusionsbereich und somit der "Schärfentiefebereich" um die Fixationsebene. Die zusätzlich erreichbare Verschiebung steht dabei sowohl in Zusammenhang mit der Anzahl n von nachstehend beschriebenen Verschiebe-Elementen der Ver­ schiebe-Einrichtungen, als auch der Art deren Ansteuerung.The fixation level in an interval of disparity values [-x,. . ., 0,. . ., + x] surrounds the so-called fusion Area. The fusion area corresponds to a "Schär fentiefbereich ". The (relative) disparity values in the Fusi ons area due to the shifting on the part directions VSEL, VSER additional conditioned shift of the image data determined. The larger the additional ver shift is evaluated, the larger the Fusion area and thus the "depth of field" around the Fixation level. The additionally achievable shift stands both in connection with the number n of displacement elements of Ver sliding devices, as well as the type of their control.

Fig. 2 der Zeichnung zeigt nunmehr Einzelheiten der Bildda­ ten-Verschiebeeinrichtung VSEL für Bilddaten des (ersten) linken Bildes, der Bilddaten-Verschiebeeinrichtung VSER für Bilddaten des (zweiten) rechten Bildes, die zusammen eine Verschiebeeinheit bilden, und des Disparitätsdetektors DD als Disparitätsbestimmungseinrichtung. Dabei sind die Kom­ ponenten gemäß Fig. 2 nicht auf eine bestimmte Implemen­ tierung in analoger oder digitaler Technik festgelegt und ihre Beschreibung erfolgt zunächst in allgemeiner Form, un­ abhängig von der tatsächlichen Realisierungsform. Fig. 2 of the drawing now shows details of the image data shifter VSEL for image data of the (first) left image, the image data shifter VSER for image data of the (second) right image, which together form a shift unit, and the disparity detector DD as a disparity determination means. The components according to FIG. 2 are not fixed to a specific implementation in analog or digital technology and are first described in a general form, regardless of the actual form of implementation.

Die von den jeweiligen Vorverarbeitungseinrichtungen VVL, VVR abgegebenen Bilddaten werden den Bilddaten-Verschiebe­ einrichtungen VSEL, VSER zugeführt. Diese Zufuhr erfolgt, wie vorstehend bereits erwähnt, mit einer Vorverschiebung entsprechend dem gewünschten Grundmeßbereich. Im gezeigten Fall ist dabei zur Vereinfachung der Darstellung nur eine Verschiebeeinheit für eine Art von Bilddaten, beispielswei­ se für eine der Primärfarben R, G, B dargestellt.The VVL, VVR delivered image data will shift the image data facilities VSEL, VSER supplied. This supply takes place as mentioned above, with a pre-shift according to the desired basic measuring range. In the shown There is only one case to simplify the illustration Shift unit for a type of image data, for example shown for one of the primary colors R, G, B.

Dabei werden die jeweiligen Bilddaten diesen Verschiebe­ einrichtungen der Verschiebeeinheit jeweils seriell und synchron zueinander zugeführt. Jede der Verschiebeein­ richtungen VSEL, VSER besteht aus einer Vielzahl von Ver­ schiebeelementen ΔXL1 bis ΔXLn bzw. ΔXR1 bis ΔXRn. Diese Ele­ mente bewirken jeweils eine zusätzliche Verschiebung der zugeführten Bildelemente um eine kleine Strecke in x-Rich­ tung, d. h. in Richtung der Hauptabtastrichtung bei zei­ lenweise abtastenden Bildaufnehmern. (Fig. 2 zeigt einen Fall für n=7.)
Beginnend mit dem jeweils ersten (jedoch unter Berücksich­ tigung der Vorverschiebung) Bildelement der seriellen Bild­ datenströme des linken bzw. rechten Bildes (z. B. Bildele­ ment der oberen linken Ecke des jeweiligen Bildes) werden die Bildelemente (Pixel) gegeneinander verschoben. Die Aus­ wertung der Bildelemente hinsichtlich der vorhandenen Dis­ parität erfolgt dann jeweils paarweise. Genauer erfolgt ei­ ne paarweise Auswertung hinsichtlich der Disparität beru­ hend auf den verschobenen Bilddaten für Paare (ΔXL1, ΔXRn), (ΔXL2, ΔXRn-1), . . . , (ΔXLn-1, DXR2), (ΔXLn, ΔXR1). Der Betrag ΔX der Verschiebung kann auf einen Wert eingestellt werden, der der Länge eines Bildelements entspricht. Falls eine höhere Zuverlässigkeit ("Stabilität" des implementierten Verfah­ rens), mithin Genauigkeit gewünscht ist, kann diese Ver­ schiebung jedoch auch auf einen Wert eingestellt werden, der kleiner als die Länge eines Bildelements ist, bei­ spielsweise auf die halbe Länge eines Bildelements (Pixels). Dies bedingt jedoch eine höhere Anzahl von nach­ folgend beschriebenen Elementen des Disparitäts-Detektors, wenn der Fusionsbereich konstant bleiben soll.
The respective image data are fed to these shifting devices of the shifting unit in each case serially and synchronously with one another. Each of the shifting devices VSEL, VSER consists of a plurality of shifting elements ΔX L1 to ΔX Ln or ΔX R1 to ΔX Rn . These elements each cause an additional displacement of the supplied picture elements by a small distance in the x-direction, ie in the direction of the main scanning direction in line-by-line image pickups. ( Fig. 2 shows a case for n = 7.)
Starting with the first (but taking into account the pre-shift) picture element of the serial picture data streams of the left or right picture (e.g. picture element of the upper left corner of the respective picture), the picture elements (pixels) are shifted against each other. The evaluation of the picture elements with regard to the existing disparity is then carried out in pairs. More precisely, a pairwise evaluation of the disparity takes place based on the shifted image data for pairs (ΔX L1 , ΔX Rn ), (ΔX L2 , ΔX Rn-1 ),. . . , (ΔX Ln-1 , DX R2 ), (ΔX Ln , ΔX R1 ). The amount ΔX of the shift can be set to a value corresponding to the length of a picture element. If a higher reliability ("stability" of the implemented method), and therefore accuracy is desired, this shift can also be set to a value that is smaller than the length of a picture element, for example half the length of a picture element (pixel ). However, this requires a higher number of elements of the disparity detector described below if the fusion area is to remain constant.

Im Fall von als Analogschaltung realisierten Verschiebeein­ richtungen VSEL, VSER bestehen diese jeweils aus einer Ket­ te bzw. Kaskade von Laufzeitgliedern (Verzögerungsgliedern) mit entsprechenden Signalabgriffen. Der Verschiebungsbetrag in x-Richtung entspricht dann der Laufzeit und kann bild­ elementweise oder in Bruchteilen von Bildelementen gewählt sein.In the case of shifting realized as an analog circuit directions VSEL, VSER each consist of a ket te or cascade of delay elements (delay elements) with appropriate signal taps. The shift amount in the x direction then corresponds to the term and can image selected element by element or in fractions of picture elements be.

Im Fall von als Digitalschaltung realisierten Verschiebe­ einrichtungen VSEL, VSER besteht die jeweilige Einheit aus in Reihe geschalteten Schieberegistern, denen ein ent­ sprechendes Taktsignal von dem Taktgenerator CLK (ggfs. über einen zwischengeschalteten (nicht dargestellten) Fre­ quenzteiler) zuzuführen ist. Dann ist es jedoch zuvor er­ forderlich, die analogen Bilddaten mittels eines Ana­ log/Digital-Wandlers in digitale Bilddaten umzuwandeln. Ein derartiger Analog/Digital-Wandler kann vor oder nach der jeweiligen Vorverarbeitungseinrichtung VVL, VVR im Signal­ verlauf vorgesehen sein, je nachdem, ob die Vorverarbeitung noch analoge oder schon digital erfolgt.In the case of shifts realized as a digital circuit facilities VSEL, VSER consists of the respective unit shift registers connected in series, to which an ent speaking clock signal from the clock generator CLK (if necessary. via an intermediary (not shown) Fre  quenz divider). But then it's him first required the analog image data using an Ana convert log / digital converter to digital image data. A such analog / digital converter can be before or after respective preprocessing device VVL, VVR in the signal be provided depending on whether the preprocessing still analog or digital.

Im Fall der digitalen Schieberegister erfolgt die Ansteue­ rung der Verschiebeelemente ΔXLi, ΔXRi der jeweiligen Ver­ schiebeeinrichtung zur bildelementweisen Verschiebung je­ weils entsprechend dem Takt, mit dem die digitalen Bildda­ ten zugeführt werden. Ist Subpixel-Genauigkeit erforder­ lich, so sind die bereits digitalisierten Daten einem spe­ ziellen Filter zuzuführen. Zum Beispiel wird eine einem halben Bildelement entsprechende Verschiebung erreicht, in­ dem man zwei aufeinanderfolgende Bildelemente mittels eines entsprechenden Filters einer Mittelwertbildung unterzieht und den erhaltenen Wert als Signalwert des Bildelements an der um ein halbes Bildelement verschobenen Position an­ nimmt. Eine derartige Filterung entspricht dann im wesent­ lichen einer Ditherung benachbarter Bildelemente.In the case of the digital shift registers, the shifting elements ΔX Li , ΔX Ri of the respective shifting device for the shifting by picture element take place in accordance with the clock with which the digital picture data are supplied. If sub-pixel accuracy is required, the already digitized data must be fed to a special filter. For example, a shift corresponding to half a picture element is achieved by subtracting two successive picture elements by means of a corresponding filter and taking the value obtained as the signal value of the picture element at the position shifted by half a picture element. Such filtering then corresponds essentially to a dithering of adjacent picture elements.

Die Ansteuerung kann dabei für beide Verschiebeeinrichtun­ gen VSEL, VSER gleichzeitig erfolgen, oder aber auch gegen­ phasig erfolgen, je nachdem, welcher zusätzliche Verschie­ bungsbereich ("Schärfentiefebereich") gewünscht ist. Auf das dargestellte Beispiel von Fig. 2 mit n=7 bezogen heißt das, daß bei gleichzeitiger Ansteuerung jeweils Bilddaten­ paare vergleichend ausgewertet werden, die um ±6, ±4, ±2, und 0 gegeneinander verschoben sind. Bei gegenphasi­ ger Ansteuerung sind im gleichen Beispiel Verschiebungen um -7, -5, -3, . . ., +5 als auch -6, -4, -2, . . ., +6 möglich. Aufgrund der größeren zusätzlichen Verschiebung ist dabei ein erweiterter Schärfentiefebereich zu erwarten. Obwohl Fig. 2 ein Beispiel für n=7 darstellt, ist die Erfindung nicht auf ungerade Werte für n beschränkt, sondern es kann auch eine geradzahlige Anzahl von Verschiebeelementen ein­ gesetzt werden.The control can be carried out simultaneously for both Verschiebeinrichtun gene VSEL, VSER, or alternatively in phase, depending on which additional displacement range ("depth of field") is desired. Based on the example shown in FIG. 2 with n = 7, this means that with simultaneous activation, image data pairs are evaluated in each case, which are shifted by ± 6, ± 4, ± 2, and 0 against each other. With antiphase control, shifts by -7, -5, -3, are in the same example. . ., +5 as well as -6, -4, -2,. . ., +6 possible. Due to the larger additional shift, an expanded depth of field can be expected. Although FIG. 2 shows an example for n = 7, the invention is not limited to odd values for n, but an even number of shift elements can also be used.

Die vorstehend genannten Bilddatenpaare (ΔXL1, ΔXRn), (ΔXL2, ΔXRn-1), . . ., (ΔXLn-1, ΔXR2), (ΔXLn, ΔXR1) werden dann jeweils ei­ nem von n Elementen EST1, . . ., ESTn des Disparitätsdetek­ tors DD zur Auswertung zugeführt, um die entsprechende Dis­ parität für das jeweilige Bilddatenpaar zu ermitteln. Es ist zu beachten, daß aufgrund der vereinfachten Darstellung gemäß Fig. 2 nur ein Disparitätsdetektor DD dargestellt ist. Sind jedoch mehrere Verschiebeeinheiten (z. B. jeweils für R-, G-, B-Bilddaten vorhanden), so ist jeder der Ver­ schiebeeinheiten ein entsprechender Disparitätsdetektor zu­ zuordnen.The above-mentioned image data pairs (ΔX L1 , ΔX Rn ), (ΔX L2 , ΔX Rn-1 ),. . ., (ΔX Ln-1 , ΔX R2 ), (ΔX Ln , ΔX R1 ) are then each one of n elements EST 1 ,. . ., EST n of the disparity detector DD fed for evaluation in order to determine the corresponding disparity for the respective image data pair. It should be noted that due to the simplified representation according to FIG. 2, only one disparity detector DD is shown. However, if there are several displacement units (e.g. for R, G, B image data), each of the displacement units must be assigned a corresponding disparity detector.

Für jeweilige Diparitäts-Elemente ESTi eines Disparitätsde­ tektors DD sind verschiedene Arten denkbar. Beispielsweise kann die Auswertung gradientenbasiert, tensorbasiert, ener­ giebasiert oder aber gemäß dem Reichard'schen Beugungsde­ tektions-Modell erfolgen. Diese Auswerteprinzipien sind in der Fachliteratur hinreichend beschrieben (so z. B. bei Barron, Fleet & Jepson, Adelson & Berger) und es wird hier nicht mehr ausführlich darauf eingegangen. Different types are conceivable for respective diparity elements EST i of a disparity detector DD. For example, the evaluation can be gradient-based, tensor-based, energy-based or carried out according to Reichard's diffraction detection model. These evaluation principles are adequately described in the specialist literature (e.g. at Barron, Fleet & Jepson, Adelson & Berger) and will not be discussed in detail here.

Die von den Disparitäts-Elementen ESTi (1≦i≦n) ausgege­ benen Disparitätswerte werden nachfolgend dem Kohärenzde­ tektor KD zugeführt, der aus den zugeführten Werten den ei­ gentlichen Disparitätswert bestimmt. Insbesondere im Fall mehrerer Disparitätsdetektoren DD werden alle Ausgänge der jeweiligen Disparitätsdetektoren einem nachfolgenden Kohä­ renzdetektor KD zugeführt.The disparity values output by the disparity elements EST i (1 ≦ i ≦ n) are subsequently fed to the coherence detector KD, which determines the actual disparity value from the supplied values. In particular in the case of several disparity detectors DD, all outputs of the respective disparity detectors are fed to a subsequent coherence detector KD.

Fig. 3A zeigt nunmehr ausführlich ein Funktionsschaltbild eines Disparitäts-Elements ESTi, bei dem die Auswertung auf dem gradientenbasierten Ansatz beruht. Fig. 3A now shows in detail a functional diagram of a disparity element EST i, in which the evaluation is based on the gradient-based approach.

Dabei werden dem jeweiligen Disparitäts-Element ESTi je­ weils Bilddaten ΔXLi, ΔXRn+1-i (1≦i≦n) zugeführt. Diese werden dann einer eine bildelementweise (pixelweise) Addi­ tion durchführenden Einheit (Bezugszeichen "+") zugeführt, dann einer mit dem Bezugszeichen "1/2" bezeichneten Multi­ plikationseinheit zugeführt, die eine Multiplikation der addierten Pixelwerte mit einem Faktor 1/2 durchführt, so daß hinsichtlich des jeweils zugeführten Bilddatenpaares eine Mittelwertbildung erfolgt. Darauffolgend durchlaufen die derart verarbeiteten Bilddaten ein Ableitungsfilter DIFF. Ein einfaches Ableitungsfilter DIFF kann beispiels­ weise Filterkoeffizienten haben, wie sie in der nachfolgen­ den Tabelle 1 angegeben sind.Image data ΔX Li , ΔX Rn + 1-i (1 ≦ i ≦ n) are supplied to the respective disparity element EST i . These are then fed to a unit performing a pixel-by-pixel (pixel-by-pixel) addition (reference symbol "+"), then to a multiplication unit designated by the reference symbol "1/2", which carries out a multiplication of the added pixel values by a factor of 1/2, so that averaging takes place with respect to the pair of image data supplied. The image data processed in this way then pass through a derivative filter DIFF. A simple derivative filter DIFF can, for example, have filter coefficients as given in Table 1 below.

Tabelle 1 Table 1

Filterkoeffizienten Ableitungsfilter DIFF Filter coefficients derivative filter DIFF

Die von diesem Filter aus gegebenen Datenwerte werden einer­ seits in einer mit dem Bezugszeichen "x2" bezeichneten Ein­ heit einer pixelweisen Quadrierung unterzogen, wobei die derart erhaltenen Werte dann einem Mittelungsfilter AVE zu­ geführt werden.The data values output by this filter are subjected to pixel-by-pixel squaring in a unit denoted by the reference symbol “x 2 ”, the values obtained in this way then being fed to an averaging filter AVE.

Andererseits werden die von dem Filter DIFF aus gegebenen Daten einer Multiplikationseinheit (Bezugszeichen "*") zu­ geführt, wo sie pixelweise mit der mittels einer Subtrakti­ onseinheit (Bezugszeichen "-") bildelementweise erhaltenen Differenz der Daten ΔXLi, ΔXRn+1-i multipliziert werden. Die derart erhaltenen Werte, die am Ausgang der Multiplikati­ onseinheit zur Verfügung stehen, werden gleichfalls einem weiteren Mittelungsfilter AVE zugeführt.On the other hand, the data output by the filter DIFF is fed to a multiplication unit (reference symbol "*"), where it is pixel-by-pixel with the difference in data ΔX Li , ΔX Rn + 1-i obtained pixel by pixel by means of a subtraction unit (reference symbol "-") be multiplied. The values obtained in this way, which are available at the output of the multiplication unit, are likewise fed to a further averaging filter AVE.

Für beide Mittelungsfilter AVE können Filterkoeffizienten gewählt werden, wie sie z. B. in der folgenden Tabelle 2 wiedergegeben sind.Filter coefficients can be used for both AVE averaging filters be chosen as they are for. B. in the following Table 2 are reproduced.

Tabelle 2 Table 2

Filterkoeffizienten Mittelungsfilter AVE Filter coefficient averaging filter AVE

Die an den Ausgängen beider Mittelungsfilter erhaltenen Da­ tenwerte werden schließlich einer Divisionseinheit (Bezugs­ zeichen "÷") zugeführt, die an ihrem Ausgang den jeweils ermittelten Disparitätswert als Ausgangssignal des jeweili­ gen Disparitätselements ESTi ausgibt.The data values obtained at the outputs of both averaging filters are finally fed to a division unit (reference symbol "÷") which outputs at its output the disparity value determined in each case as the output signal of the respective disparity element EST i .

Da für beide eingesetzten Filter lediglich Filterungen in x-Richtung erforderlich sind, was einer Filterung im seri­ ellen Bilddatenverlauf entspricht, kann ein derartiges Dis­ paritäts-Element vollständig in analoger Technik realisiert werden. Eine digitale Realisierung ist jedoch ebenfalls möglich.Since for both filters only filtering in x-direction are required, which means filtering in seri corresponds to the image data course, such a dis parity element completely implemented in analog technology become. However, a digital implementation is also possible.

Die derart ermittelten Disparitätswerte, die an den Ausgän­ gen der Disparitätselemente ESTi ausgegeben werden, werden dann dem Disparitäts-Kohärenzdetektor KD zugeführt.The disparity values determined in this way, which are output at the outputs of the disparity elements EST i , are then fed to the disparity coherence detector KD.

Fig. 3B zeigt ein Blockschaltbild zur Hardwarerealisierung eines vorstehend mit Bezug auf Fig. 3A funktional beschrie­ benen einzelnen Disparitätselements ESTi. Ein Disparitäts­ element EST besteht dabei aus zur Synchronisation der gesam­ ten Schaltung mit einem von dem Taktgenerator CLK abgelei­ teten Taktsignal TAKT getakteten Schieberegistern SR1 bis SR4 zur Zwischenspeicherung einzelner Bildelemente, sowie arithmetischen Logikschaltungen (Mittelwertbildner 1: "Σ/2", Subtrahierer 2: "-", Multiplikationseinrichtungen 4, 5: MUL, Summierer 3, 6, 7: "Σ", Divisionseinrichtung 8: DIV). Dabei ist das in Fig. 3A mit DIFF bezeichnete Filter nunmehr durch das Schieberegister SR1, einen Koeffizienten­ multiplikationsteil K (K1, K2, K3) und den Summierer 3 rea­ lisiert. Weiterhin sind die in Fig. 3A mit AVE bezeichneten Filter nunmehr durch das Schieberegister SR3, einen Koeffi­ zientenmultiplikationsteil JA (Koeffizienten J1, J2, J3, J4, J5) und den Summierer 6, bzw. durch das Schieberegister SR4, einen Koeffizientenmultiplikationsteil JB (Koeffizien­ ten J1, J2, J3, J4, J5) und den Summierer 7 realisiert. Die Disparität wird am Ausgang der Divisionseinrichtung 8 aus­ gegeben. Die im Blockschaltbild wiedergegebene Schaltungs­ anordnung verwirklicht dabei vollständig die in Verbindung mit dem Funktionsschaltbild gemäß Fig. 3A angegebene und beschriebene Arbeits- und Wirkungsweise eines Disparitäts­ elements EST. FIG. 3B shows a block diagram for hardware implementation of an individual disparity element EST i , which was described functionally above with reference to FIG. 3A. A disparity element EST consists of the synchronization of the entire circuit with a clock signal CLOCK derived from the clock generator CLK clocked shift registers SR1 to SR4 for intermediate storage of individual picture elements, and arithmetic logic circuits (mean value generator 1 : "Σ / 2", subtractor 2 : " - ", multiplication devices 4 , 5 : MUL, summers 3 , 6 , 7 :" Σ ", division device 8 : DIV). The filter designated DIFF in FIG. 3A is now implemented by the shift register SR1, a coefficient multiplication part K (K1, K2, K3) and the summer 3 . Furthermore, the filters designated AVE in FIG. 3A are now by the shift register SR3, a coefficient multiplication part JA (coefficients J1, J2, J3, J4, J5) and the summer 6 , or by the shift register SR4, a coefficient multiplication part JB (coefficients realized J1, J2, J3, J4, J5) and the summer 7 . The disparity is given at the output of the division device 8 . The circuit arrangement shown in the block diagram fully realizes the operation and mode of operation of a disparity element EST specified and described in connection with the functional circuit diagram according to FIG. 3A.

Fig. 4A zeigt ein Blockschaltbild für einen Kohärenzdetek­ tor bzw. Disparitäts-Kohärenzdetektor KD gemäß einem ersten Ausführungsbeispiel, wobei als Beispiel ein Kohärenz­ detektor KD mit nur vier Eingängen dargestellt ist. Für den in Fig. 2 dargestellten Fall müßte die Schaltung entspre­ chend auf sieben Eingänge bzw. allgemein auf n Eingänge er­ weitert werden. Falls mehrere (z) Verschiebeeinheiten mit jeweils zugeordneten Disparitätsdetektoren DD mit je n EST Elementen vorgesehen sind, wäre die Schaltung auf z.n Ein­ gänge zu erweitern. Fig. 4A shows a block diagram for a gate or Kohärenzdetek disparity coherent detector KD, being shown as an example of a coherent detector KD with only four inputs according to a first embodiment. For the case shown in FIG. 2, the circuit would have to be expanded accordingly to seven inputs or generally to n inputs. If several (z) displacement units with respectively assigned disparity detectors DD with n EST elements each are provided, the circuit would have to be expanded to zn inputs.

Die von den (vier nicht dargestellten) EST Elementen ESTi zugeführten und an den Eingängen E1 bis E4 anliegenden Da­ tenwerte der ermittelten Disparitäten werden einer Sor­ tiereinrichtung S1 zugeführt, welche die Datenwerte ent­ sprechend der Größe der Werte sortiert an den Ausgängen A bis D ausgibt. Im dargestellten Fall liegt am Ausgang A der kleinste Wert an, am Ausgang D der größte Wert. Derartige Sortiereinrichtungen können mit aus Vergleichern (Komparatoren) und Multiplexern bestehenden Logikgattern realisiert werden und sind hier nicht im einzelnen erläu­ tert. Jeder der Ausgänge A bis D wird einem Multiplexer MUX1 zugeführt, während weiterhin je zwei der Ausgänge ei­ nem Subtrahierer ("-") zugeführt werden, um die Differenzen B-A, C-B und D-C der entsprechenden Werte zu ermitteln. Die Differenzen werden einer weiteren Sortiereinrichtung S2 zu­ geführt, die entsprechend der ersten Einrichtung S1 die Werte der Differenzen betragsmäßig sortiert am Ausgang aus­ gibt. Dabei ist im vorliegenden Fall nur das kleinste Er­ gebnis (am Ausgang "«") weiter zu verarbeiten, welches das Wertepaar der Disparitäten darstellt, die einander am "benachbartesten" sind, also die geringste Abweichung von­ einander aufweisen. Das Ergebnis der Sortiereinrichtung S2, also der Wert am Ausgang "«" wird dann einer auf Gleich­ heit überprüfenden Einrichtung "=" zugeführt, die das er­ mittelte Ergebnis mit den dem Sortierer S2 zugeführten Dif­ ferenzen vergleicht, um zu ermitteln, welcher der Eingangs­ werte das Ergebnis darstellt. Diese Variante stellt dabei die schaltungstechnisch einfachere Variante dar, denn dies wäre auch aus internen Entscheidungszuständen des Sortie­ rers S2 ermittelbar. Das von der auf Gleichheit überprüfen­ den Einrichtung erhaltene Ergebnis dient wiederum zur An­ steuerung des Multiplexers MUX1, um die beiden zur Diffe­ renz gehörigen Ausgangssignale des Sortierers S1 einem Mit­ telwertbildner (Bezugszeichen "Σ/2") zuzuführen, der die beiden Werte zur Mittelwertbestimmung addiert und dann durch zwei dividiert. Dieser Mittelwert stellt dann das Er­ gebnis KE dar, also der Kohärenzwert der Vielzahl ermittel­ ter Disparitätswerte.The data values of the determined disparities supplied by the (not shown) EST elements EST i and applied to the inputs E1 to E4 are fed to a sorting device S1, which outputs the data values sorted at the outputs A to D according to the size of the values . In the case shown, output A has the smallest value, output D has the largest value. Such sorting devices can be implemented with logic gates consisting of comparators (comparators) and multiplexers and are not explained in detail here. Each of the outputs A to D is fed to a multiplexer MUX1, while two of the outputs are also fed to a subtractor ("-") in order to determine the differences BA, CB and DC of the corresponding values. The differences are fed to a further sorting device S2 which, in accordance with the first device S1, outputs the values of the differences in terms of amount at the output. In the present case, only the smallest result (at the output """) is to be further processed, which represents the pair of values of the disparities that are the" most "adjacent to each other, that is, the smallest deviation from each other. The result of the sorting device S2, that is to say the value at the output ““ ”, is then fed to a device that checks for equality“ = ”, which compares the result obtained with the differences fed to the sorter S2 in order to determine which of the input values represents the result. This variant represents the simpler variant in terms of circuit technology, because this could also be determined from the internal decision states of the sorter S2. The result obtained from the device checking for equality in turn is used to control the multiplexer MUX1 in order to supply the two output signals of the sorter S1 belonging to the difference to a mean value generator (reference symbol “Σ / 2”) which adds the two values for determining the mean value and then divided by two. This mean value then represents the result KE, that is to say the coherence value of the multiplicity of determined disparity values.

Eine Variante der vorstehend beschriebenen Schaltung be­ steht darin, die ermittelten Differenzen mit einem Schwel­ lenwert zuvergleichen, wobei nur die Kandidaten bzw. Werte weiterverarbeitet werden, die unterhalb des bestimmten Schwellenwerts, bzw. innerhalb eines durch Schwellenwerte bestimmten Fenster-Wertebereichs (z. B. entsprechend dem Fusionsbereich) liegen. Ein nachgeschaltetes Schaltwerk findet dann den größten Cluster benachbarter Kandidaten. Beide Varianten sind möglich und können bezogen auf den je­ weiligen Anwendungsfall jeweils die besseren Ergebnisse liefern.A variant of the circuit described above be is to determine the differences with a smolder to compare lenwert, whereby only the candidates or values  to be processed below the certain Threshold, or within a threshold certain window value range (e.g. according to the Fusion area). A downstream rear derailleur then finds the largest cluster of neighboring candidates. Both variants are possible and can be based on each respective use case the better results deliver.

Fig. 4B zeigt eine Ausführungsvariante des zuvor beschrie­ benen Kohärenzdetektors KD, bei der dem Kohärenzdetektor neben Ausgangssignalen der EST Elemente weitere Daten zuge­ führt werden. Diese ist insbesondere dann einsetzbar, wenn die Bilddaten zeilenverschachtelt bzw. "interlaced" erhal­ ten werden, und sich die gesamte Bildinformation eines Vollbildes z. B. aus zwei Halbbildern zusammensetzt. Dann werden die Disparitätswerte jeweils für Bilddaten eines Halbbildes ermittelt und der entsprechende Kohärenzwert der Disparitäten für Bildpunkte eines Halbbildes ermittelt. Für ein jeweiliges Halbbild werden die Werte KE für die Bild­ punkte des Halbbildes in einer Speichereinrichtung MEM (mit einer Speicherkapazität für ein Halbbild) zwischengespei­ chert, und während der nächsten Halbbildperiode ausgelesen und dem Kohärenzdetektor KD an einem zusätzlich vorzusehen­ den Eingangsanschluß zugeführt. Der interne Aufbau des Ko­ härenzdetektors KD ist im wesentlichen identisch zu dem in Verbindung mit Fig. 4A beschriebenen, mit dem Unterschied, daß er ein zusätzliches (das rückgekoppelte) Signal verar­ beiten können muß, wofür verschiedene Varianten möglich sind. Insbesondere kann der rückgekoppelte Kohärenz-Dispa­ ritätswert bereits dem Sortierer S1 zugeführt werden und dort berücksichtigt werden, oder aber erst später bei der Mittelwertbildung Einfluß nehmen. In letzterem Fall wäre er dem Mittelwertbildner (Bezugszeichen "Σ/2") zuzuführen. Die in Fig. 4A dargestellte Schaltung ist dann jeweils ent­ sprechend zu modifizieren. FIG. 4B shows an embodiment variant of the previously beschrie surrounded KD coherent detector, wherein the coherent detector adjacent to output signals of the elements other EST data leads are fed. This is particularly useful when the image data is interlaced or "interlaced", and the entire image information of a full frame z. B. composed of two fields. Then the disparity values are determined for image data of a field and the corresponding coherence value of the disparities for image points of a field is determined. For each field, the values KE for the pixels of the field are buffered in a memory device MEM (with a storage capacity for one field), and are read out during the next field period and supplied to the coherence detector KD at an additional input terminal. The internal structure of the coherence detector KD is essentially identical to that described in connection with FIG. 4A, with the difference that it must be able to process an additional (the feedback) signal, for which different variants are possible. In particular, the feedback coherence disparity value can already be supplied to the sorter S1 and taken into account there, or can only influence the averaging later. In the latter case, it would be fed to the averager (reference symbol "Σ / 2"). The circuit shown in Fig. 4A is then to be modified accordingly.

Auf diese Weise kann dann der "wahre" Disparitätswert (Kohärenz-Disparitätswert) für ein Vollbild unter Berück­ sichtigung beider Halbbilder erhalten werden.In this way the "true" disparity value can then (Coherence disparity value) for a full frame under touch view of both fields can be obtained.

Fig. 4C zeigt ein zweites Ausführungsbeispiel eines Kohä­ renzdetektors, dessen Funktionsweise auf dem Faltungsprin­ zip beruht, und Fig. 4D stellt Einzelheiten der Realisie­ rung der Faltungseinrichtung bei dem in Fig. 4C dargestell­ ten Kohärenzdetektor dar. Fig. 4C shows a second embodiment of a coherence detector, the operation of which is based on the convolution principle, and Fig. 4D shows details of the realization of the convolution device in the coherence detector shown in Fig. 4C.

Zum besseren Verständnis soll dazu zunächst das Prinzip der Faltung für den vorliegenden Fall allgemein erläutert wer­ den. Mit dem Kohärenzdetektor soll derjenige Wert zugeführ­ ter Eingangswerte bestimmt bzw. ermittelt werden, der mög­ lichst nahe zu einem oder mehreren anderen ist, wie vorste­ hend bereits ausgeführt. Bei der Faltung werden dabei die erhaltenen Werte miteinander gefaltet, um zu ermitteln, welcher Wert im betrachteten Wertebereich dem Faltungswert bzw. Faltungsergebnis entspricht und somit der Wert ist, der möglichst nahe zu einem oder mehreren anderen ist (das heißt, die Differenzen zwischen dem Faltungswert und den umgebenden sind kleiner oder gleich einem vorbestimmten Wert). Anschaulich kann dies so erläutert werden, daß jedem der miteinander zu faltenden Werte ein zum jeweiligen Wert symmetrisches, geeignetes Intervall überlagert wird. Bei geeigneter Wahl des Intervalls (das für jeden Wert gleich ist), kommt es zu einer Überlagerung von einzelnen der In­ tervalle. Der Bereich im betrachteten Wertebereich, in dem die meisten der einzelnen Intervalle einander überlagern (entsprechend der Schnittmenge, die aus der größten Anzahl der einzelnen Mengen besteht) bzw. der Bereich, der den größten Flächenanteil der über lagerten Intervalle aufweist ("größtes Integral") stellt dann das Faltungsergebnis dar.For a better understanding, the principle of Folding for the present case is explained in general the. That value is to be supplied with the coherence detector ter input values are determined or determined, the possible is as close as possible to one or more others, like the previous one already running. When folding, the obtained values are folded together to determine which value in the considered value range is the convolution value or convolution result and is therefore the value that is as close as possible to one or more others (the means the differences between the convolution value and the surrounding ones are less than or equal to a predetermined one Value). This can be clearly explained so that everyone of the values to be folded together to the respective value symmetrical, suitable interval is superimposed. At appropriate choice of interval (the same for each value  is), there is an overlay of some of the In tervalle. The range in the range of values under consideration, in which most of the individual intervals overlap (according to the intersection of the largest number of the individual quantities) or the area that the has the largest area share of the overlaid intervals ("largest integral") then represents the convolution result.

Fig. 4C gibt eine Hardwarelösung an, die eine derartige Faltungsoperation, die bisher nur zeitaufwendig zum Bei­ spiel mittels digitaler Signalprozessoren ausführbar war, in Echtzeit durchführt. Fig. 4C indicates a hardware solution that performs such a folding operation, which was previously only time-consuming for example by means of digital signal processors, in real time.

Dabei werden die von n Disparitäts-Elementen ESTi (1←i←n) einer Disparitäts-Detektionseinrichtung DD an jewei­ ligen Signaleingängen zugeführten Eingangssignalwerte zu­ nächst einer Fenster-Begrenzungseinrichtung FB zugeführt. Die Fenster-Begrenzungseinrichtung FB gibt dabei diejenigen der n Eingangssignale aus, deren Eingangssignalwert inner­ halb eines vorbestimmten Fenster-Wertebereichs liegt. Die­ ser ist vorzugsweise ein endlicher Fenster-Wertebereich im Intervall [-x, . . ., 0, . . ., +x] mit m+1 Werten im Abstand von 2x/m, wobei die Wertebereichsgrenzen ±x durch die Disparitätswerte des Fusionsbereichs um die Fixationsebene herum (mit einer Disparität von Null) bestimmt sind.In this case, the input signal values supplied by n disparity elements EST i (1 ← i ← n) to a disparity detection device DD at respective signal inputs are fed next to a window limiting device FB. The window limiting device FB outputs those of the n input signals whose input signal value lies within a predetermined window value range. This is preferably a finite window value range in the interval [-x,. . ., 0,. . ., + x] with m + 1 values at a distance of 2x / m, the value range limits ± x being determined by the disparity values of the fusion area around the fixation plane (with a disparity of zero).

Diejenigen der n Eingangssignale, deren Signalwert nicht in diesem Fenster-Wetebereich liegt, werdend am entsprechenden Ausgang der Fenster-Begrenzungseinrichtung in einen Zustand (z. B. einen hochohmigen Zustand) versetzt, der dies anzeigt und eine weitere Verarbeitung der entsprechenden Signale unterbindet.Those of the n input signals whose signal value is not in this window wet area is on the corresponding Exit the window limiting device in a state (e.g. a high impedance state) that indicates this  and further processing of the corresponding signals prevents.

Lediglich diejenigen der Eingangssignale mit einem Ein­ gangssignalwert innerhalb des Fenster-Wertebereichs werden von einer nachfolgenden Rundungseinrichtung R weiter verar­ beitet. Die Rundungseinrichtung R führt dabei eine Rundung der seitens der Fenster-Begrenzungseinrichtung FB ausgege­ benen Werte auf den jeweils nächstliegenden der m+1 Werte des voreingestellten Fenster-Wertebereichs aus. Somit wird die (unendliche) Vielzahl der seitens der jeweiligen Dispa­ ritäts-Elemente ESTi ausgegebenen Werte auf eine endliche Anzahl von m+1 Werten abgebildet, die der nachfolgenden Faltung unterzogen werden. Dabei ist Genauigkeit der Fal­ tung durch eine erhöhte Anzahl m steigerbar.Only those of the input signals with an input signal value within the window value range are further processed by a subsequent rounding device R. The rounding device R rounds the values output by the window limiting device FB to the nearest of the m + 1 values of the preset window value range. Thus, the (infinite) multiplicity of values output by the respective disparity elements EST i is mapped to a finite number of m + 1 values, which are subjected to the subsequent convolution. The accuracy of the folding can be increased by increasing the number m.

Mithin liegen nun nach der Fenster-Begrenzung durch die Fenster-Begrenzungseinrichtung FB und der Rundung durch die Rundungseinrichtung R maximal n Signale (wenn alle Ein­ gangssignalwerte innerhalb innerhalb des Fenster-Werte­ bereichs liegen) mit jeweils einem von m+1 Signalwer­ ten vor.So now lie after the window boundary by the Window limiting device FB and the rounding through the Rounding device R maximum n signals (if all on output signal values within the window values range) with one of m + 1 signal before.

Diese werden über eine Adressierungs-Ansteuereinrichtung AA einer Faltungseinrichtung F zugeführt. Dabei wird entspre­ chend einem jeweiligen Wert der Signale ein diesem zugeord­ neter Signaleingang der Faltungseinrichtung angesteuert.These are via an addressing control device AA fed to a folding device F. This corresponds to corresponding to a respective value of the signals controlled signal input of the folding device.

Das heißt, diejenigen der der Adressierungs-Ansteuerein­ richtung AA zugeführten (maximal n) Signale, deren Wert -x+(k-1).2x/m beträgt, werden somit einem entsprechenden k-ten von m+1 Signaleingängen Ek der Faltungseinrichtung F zugeführt, wobei einem jeweiligen Signaleingang Ek der Fal­ tungseinrichtung F ein Strahlungsemissionselement zugeord­ net ist, welches durch die zugeführten Signale angesteuert wird. Dabei sind die jeweiligen Strahlungsemissionselemente derart beschaffen, daß um so mehr Strahlung emittiert wird, je mehr der zugeführten Signale zur Ansteuerung des jewei­ ligen Strahlungsemissionselements dienen. Anders und verein­ fachend dargestellt, emittiert ein Strahlungsemissionsele­ ment k doppelt so viel Strahlung, wenn zwei Signale den Wert -x+(k-1).2x/m haben, als wenn nur ein Signal mit dem entsprechenden Wert zur Ansteuerung des k-ten Strahlungse­ missionselements beiträgt.That is, those of the (maximum n) signals supplied to the addressing control device AA, the value of which is -x + (k-1) .2x / m, thus become a corresponding k-th of m + 1 signal inputs E k of the folding device F supplied, with a respective signal input E k of the processing device F a radiation emission element is assigned, which is controlled by the supplied signals. The respective radiation emission elements are designed in such a way that the more radiation is emitted, the more of the supplied signals are used to control the respective radiation emission element. In a different and simplified way, a radiation emission element k emits twice as much radiation if two signals have the value -x + (k-1) .2x / m than if only one signal with the corresponding value for controlling the kth radiation mission element.

Die so zur Emission gebrachte Strahlung wird von einer der Anzahl von Werten des Fenster-Wertebereichs entsprechenden Vielzahl von m+1 Strahlungsempfangselementen erfaßt. Dar­ über hinaus ist eine Auswerteeinrichtung AW bereitgestellt, die die Adresse k desjenigen der m+1 Strahlungsempfangsele­ mente ermittelt, das die größte Strahlungsintensität er­ faßt. Der Wert k dieser Adresse wird an einem Ausgangsan­ schluß KE abgegeben, wobei der ausgegebene Wert das Ergeb­ nis der Faltung der der Faltungseinrichtung zugeführten Si­ gnale darstellt.The radiation thus emitted is emitted by one of the Number of values corresponding to the window value range Variety of m + 1 radiation receiving elements detected. Dar an evaluation device AW is also provided, which is the address k of that of the m + 1 radiation receiver elements determined that the greatest radiation intensity sums up. The value k of this address is given at an output conclusion KE issued, the output value the result nis the folding of the Si fed to the folding device gnale represents.

Fig. 4D stellt Einzelheiten der Faltungseinrichtung F dar. Bei den dargestellten Strahlungsemissionselementen handelt es sich beispielsweise um Licht emittierende Dioden-LED1, . . ., LEDk, . . ., LEDm+1. Dabei kann Licht im sichtbaren Be­ reich emittiert werden, jedoch sind auch im Infrarotbereich emittierende Strahlungsemissionselemente verwendbar. Die Licht emittierende Dioden sind dabei an der Oberseite eines transparenten Substrats SUB angeordnet. Bei diesem Substrat kann es sich beispielsweise um ein Glassubstrat handeln. Den Dioden gegenüberliegend und zugewandt an der Unterseite des Substrats sind in entsprechenden Positionen Strahlungs­ empfangselemente PD1, . . ., PDk, . . ., PDk+1 angeordnet. Bei diesen Strahlungsempfangselementen handelt es sich z. B. um Photodioden (z. B. pn-Photodioden, pin-Photodioden, Schott­ ky-Photodioden, etc.) oder um Phototransistoren. Es ist selbstverständlich zu beachten, daß die verwendeten Strah­ lungsempfangselemente auf den Wellenlängenbereich der ein­ gesetzten Strahlungsemissionselemente abgestimmt sind auch und ihr Arbeitsbereich hinsichtlich der Empfindlichkeit auf die Strahlungsemissionselemente abgestimmt ist. Fig. 4D illustrates details of the folding device F. In the illustrated radiation emitting elements are, for example, light emitting diode LED 1. . ., LED k,. . ., LED m + 1 . Light can be emitted in the visible range, but radiation emission elements emitting in the infrared range can also be used. The light-emitting diodes are arranged on the top of a transparent substrate SUB. This substrate can be a glass substrate, for example. Opposite and facing the diodes on the underside of the substrate are radiation receiving elements PD1,. . ., PDk,. . ., PDk + 1 arranged. These radiation receiving elements are e.g. B. to photodiodes (z. B. pn photodiodes, pin photodiodes, Schott ky photodiodes, etc.) or phototransistors. It should be noted, of course, that the radiation receiving elements used are also matched to the wavelength range of the radiation emission elements used and their working range is matched to the radiation emission elements in terms of sensitivity.

An einem Beispiel sei nachfolgend die Funktionsweise der Faltungseinrichtung F verdeutlicht. Es sei angenommen, daß von m+1 Strahlungsemissionselementen nur die Elemente k-1, k, und k+1 angesteuert werden, da nur die diesen entspre­ chenden (gerundeten) Werte der Adressierungs-Ansteuerein­ richtung zugeführt werden. Ferner sei für dieses Beispiel angenommen, daß jeder der drei Werte nur je einmal von den n Disparitäts-Elementen ermittelt wurde. Das heißt, daß bei diesem Beispiel die Strahlungsemissionselemente k-1, k, k+1 identisch angesteuert werden und folglich die gleiche Strahlungsmenge abgeben. Die jeweils abgegebene Strahlung breitet sich durchs das Substrat SUB aus, wird räumlich überlagert und gelangt zu den Strahlungsempfangselementen. Dabei erfaßt das k-te Strahlungsempfangselement die vom k-ten Emissionselement abgegebene Strahlung als auch die von beiden unmittelbar benachbarten (k-1, k+1) Emissionselemen­ ten abgegebene Strahlung. Die beiden benachbarten Empfangs­ elemente k-1, k+1 empfangen entsprechend jeweils die Strahlung der Emissionselemente k-1, k, k+1 und k+1, k, k-1. Aufgrund der räumlichen Ausbreitung und der unter­ schiedlichen Entfernung ist beim Empfangselement k-1 jedoch der Anteil des Emissionselements k+1, und beim Empfangsele­ ment k+1 der Anteil des Emissionselements k-1 stärker ge­ dämpft als beim Empfangselement k. Folglich wird das Emp­ fangselement k die höchste Strahlungsintensität erfassen und die Auswerteeinrichtung AW ermittelt den Wert k der Adresse als Ergebnis der Faltung und gibt diesen am An­ schluß KE aus. Bei diesem speziellen Beispiel entspricht das Ergebnis der Faltung somit dem Mittelwert.An example of how the Folding device F illustrates. It is assumed that of m + 1 radiation emission elements only the elements k-1, k, and k + 1 can be controlled, since only these correspond corresponding (rounded) values of the addressing control direction are fed. Furthermore, for this example assumed that each of the three values only once from the n Disparity elements were determined. That means that at this example, the radiation emission elements k-1, k, k + 1 are controlled identically and consequently the same Deliver the amount of radiation. The radiation emitted in each case spreads through the substrate SUB, becomes spatial superimposed and reaches the radiation receiving elements. The kth radiation receiving element detects that of k-th emission element emitted as well as that of two immediately adjacent (k-1, k + 1) emission elements emitted radiation. The two neighboring reception  elements k-1, k + 1 each receive the Radiation of the emission elements k-1, k, k + 1 and k + 1, k, k-1. Due to the spatial spread and the under however, the receiving element has a different distance k-1 the proportion of the emission element k + 1, and the receiving element ment k + 1 the proportion of the emission element k-1 stronger ge dampens than with the receiving element k. Hence the Emp capture element k capture the highest radiation intensity and the evaluation device AW determines the value k of Address as the result of the convolution and specifies it on exclude KE. In this particular example it corresponds the result of the convolution is the mean.

Bei einer (nicht dargestellten) Variante besteht die Fal­ tungseinrichtung aus einem entsprechenden Array aus m+1 Zählern. Aufgrund der vorhergehenden Rundung sind einander in Bezug auf ihren Wert benachbarte Disparitätswerte auf den gleichen Wert gerundet, so daß der entsprechende k-te Zähler des Arrays, der dem entsprechenden Disparitätswert zugeordnet ist, entsprechend mehrfach inkrementiert wird, und zwar um die Anzahl der Disparitätswerte (im Cluster von benachbarten Werten), die das gleiche Rundungsergebnis lie­ fern. Die nachfolgende Auswerteeinrichtung gibt dann die Adresse k des Zählers mit dem höchsten Zählerstand als Er­ gebnis KE aus.In one variant (not shown), the case exists device from a corresponding array of m + 1 Counters. Because of the previous rounding are each other neighboring disparity values in terms of their value rounded the same value so that the corresponding kth Counter of the array that corresponds to the corresponding disparity value is assigned, is incremented accordingly, by the number of disparity values (in the cluster of neighboring values), which gave the same rounding result remote. The following evaluation device then gives the Address k of the meter with the highest meter reading as Er result KE.

Fig. 5 veranschaulicht die Funktionsweise der vorstehend beschriebenen Disparitäts-Kohärenzdetektoren KD. In der graphischen Darstellung gemäß Fig. 5 sind jeweils auf der Abszisse die Bildelementpositionen bzw. Pixelnummern (bezogen auf das als Referenzbild gewählte erste oder zwei­ te Bild) aufgetragen, und als Ordinate für jedes Bildele­ ment die dem Kohärenzdetektor KD zugeführten n Disparitäts­ werten die von den Disparitätselementen EST1 bis ESTn aus­ gegeben werden. Im vorliegenden Fall sind beispielsweise n=7 Disparitätselemente ESTi für einen Disparitätsdetektor DD vorgesehen. Der Disparitätswert von Null ist dabei auf die Fixationsebene bezogen und entspricht der Entfernung der Fixationsebene. Die diesen umgebenden Werte der Dispa­ rität im Bereich von z. B. -4 bis +4 stellen dann den Fusi­ onsbereich dar und entsprechen jeweils einer Entfernung, die näher oder entfernter als die Fixationsebene ist. Fig. 5 illustrates the operation of the disparity-coherence detectors KD described above. In the graph of FIG. 5 are respectively applied (based on the selected reference picture first or te two image) on the abscissa, the pixel positions and pixel numbers, and the ordinate for each Figu ment which the coherent detector KD supplied n disparity values of the disparity elements EST 1 to EST n are given. In the present case, for example, n = 7 disparity elements EST i are provided for a disparity detector DD. The disparity value of zero is related to the fixation level and corresponds to the distance from the fixation level. The surrounding values of the disparity in the range of z. B. -4 to +4 then represent the Fusi onsbereich and each correspond to a distance that is closer or farther than the fixation plane.

Für jedes Bildelement werden die vorliegenden n Dispari­ tätswerte mittels des jeweils gewählten Kohärenzdetektors KD gemäß dem ersten oder zweiten Ausführungsbeispiel in Echtzeit verarbeitet bzw. verglichen, und derjenige Dispa­ ritätswert als der eigentliche Disparitätswert ausgegeben, der annähernd identisch mit möglichst vielen weiteren der zügeführten Disparitätswerte ist. Genauer heißt das, daß möglichst viele Disparitätswerte in einem Intervall von z. B. etwa 0,2 bis 0,4 um den betreffenden Disparitätswert herum liegen sollen, damit dieser betreffende Disparitäts­ wert der eigentliche Disparitätswert ist. Am einfachsten ist es, wenn für ein bestimmtes Bildelement mehrere Dispa­ ritätswerte den gleichen Wert haben. Dieser Fall entspricht in der graphischen Darstellung gemäß Fig. 5 einem Schnitt­ punkt von zumindest zwei der n Disparitätswerte für ein be­ stimmtes Bildelement. Die zeilenweise Analyse der n Dispa­ ritätswerte für jedes Bildelement einer betreffenden Zeile liefert dann beispielsweise einen Verlauf der eigentlichen Disparität für eine betreffende Zeile des Bildes wie er im rechten Teil der Fig. 5 dargestellt ist, wobei aus der Ge­ samtheit der analysierten Bildzeilen dann eine Disparitäts­ karte in Form eines dritten Bildes ermittelt bzw. darge­ stellt werden kann (oberes Bild rechts in Fig. 5).For each picture element, the present n disparity values are processed or compared in real time by means of the respectively selected coherence detector KD according to the first or second exemplary embodiment, and that disparity value is output as the actual disparity value that is approximately identical to as many further disparity values as possible. More precisely, this means that as many disparity values as possible in an interval of e.g. B. should be about 0.2 to 0.4 around the disparity value in question so that this disparity value is the actual disparity value. It is easiest if several disparity values have the same value for a certain picture element. This case corresponds to the graph in accordance with Fig. 5 an intersection of at least two of the n disparity values for a be-determined pixel. The line-by-line analysis of the n disparity values for each picture element of a relevant line then provides, for example, a course of the actual disparity for a relevant line of the picture as shown in the right part of FIG. 5, with a disparity from the totality of the image lines analyzed card can be determined in the form of a third image or can be shown (upper image on the right in Fig. 5).

Durch die geeignete Auswahl der Anzahl n von Disparitäts-Ele­ menten EST kann die Genauigkeit bzw. Zuverlässigkeit der seitens des Kohärenzdetektors ermittelten wahren Disparität gesteigert werden, da dann mehr Disparitätswerte vorliegen, die bezüglich ihrer Kohärenz ausgewertet werden. Insbeson­ dere berechnet jedes Disparitäts-Element EST die Disparität im gesamten Meßbereich, also vollständig parallel. Mithin entfällt die bei vielen aus dem Stand der Technik bekannten Realisierungen notwendige iterative Annäherung von groben hin zu feinen Meßbereichen, um den tatsächlichen Dispari­ tätswert zu ermitteln.By appropriately selecting the number n of disparity elements elements can determine the accuracy or reliability of the true disparity determined by the coherence detector be increased because there are more disparity values, which are evaluated for their coherence. In particular each disparity element EST calculates the disparity in the entire measuring range, i.e. completely parallel. Hence the many known from the prior art are omitted Realizations necessary iterative approximation of rough ones towards fine measuring ranges to the actual dispari to determine actual value.

Zudem kann beruhend auf den seitens der Diparitäts-Elemente EST des Disparitätsdetektors DD erhaltenen Werte noch eine Zusatzinformation hinsichtlich der Zuverlässigkeit der er­ mittelten Disparität gewonnen werden. Das heißt, betrachtet man die Disparitätswerte an einem Punkt der Zeile (vgl. Fig. 5), dann ist die Nähe der Nachbarn um den exakten Dis­ paritätswert ein Maß für die Zuverlässigkeit der ermittel­ ten Disparität. Über das gesamte Bild kann somit eine Zu­ verlässigkeitskarte ermittelt werden, die in Echtzeit eine Aussage bezüglich der Wahrscheinlichkeit für die Richtig­ keit der ermittelten Disparität liefert.In addition, based on the values obtained from the diparity elements EST of the disparity detector DD, additional information regarding the reliability of the disparity determined can be obtained. That is, if one considers the disparity values at a point on the line (cf. FIG. 5), the proximity of the neighbors around the exact disparity value is a measure of the reliability of the disparity determined. A reliability map can thus be determined over the entire image, which provides a real-time statement regarding the probability of the correctness of the determined disparity.

Fig. 6 zeigt ein weiteres Beispiel für von Bildaufnehmern CCDL, CCDR aufgenommene Bilder "linkes Bild" (a) und "rechtes Bild" (b) von im Raum angeordneten Objekten. In beiden Bildern befinden sich ein erstes und zweites Objekt vor einem weiteren (dritten) Objekt, welches im Hintergrund der dargestellten räumlichen Szene zu erkennen ist. Auf­ grund der Auswertung durch das erfindungsgemäße optische Sensorsystem zur Verarbeitung stereoskopischer Bilder in Echtzeit wird dann eine Disparitätskarte (c) gewonnen, die als Grauwertbild (oder als Farbbild) auf einem Bildschirm darstellbar ist. Gemäß Fig. 6 ist in der Disparitätskarte ein im Vordergrund befindliches Objekt hell dargestellt, ein im mittleren Tiefenbereich befindliches Objekt durch einen der Tiefe entsprechenden hellen bis dunklen Grauwert dargestellt, und das Objekt im Bildhintergrund als das Ob­ jekt mit der größten Tiefe ist in der Disparitätskarte an­ nähernd schwarz wiedergegeben. Die im angegebenen Beispiel gemäß Fig. 6 beschriebene Darstellungsform für die Tiefen­ information ist jedoch nicht zwingend vorgeschrieben. Eben­ so können Objekte im Vordergrund dunkel wiedergegeben sein, und Objekte im Hintergrund hell wiedergegeben sein. FIG. 6 shows a further example of images "left image" (a) and "right image" (b) of objects arranged in space, recorded by image recorders CCDL, CCDR. In both images, a first and a second object are in front of another (third) object, which can be seen in the background of the spatial scene shown. On the basis of the evaluation by the optical sensor system according to the invention for processing stereoscopic images in real time, a disparity map (c) is then obtained, which can be displayed on a screen as a gray-scale image (or as a color image). Referring to FIG. 6 an in-focus object is in the disparity map shown in light, an in-medium depth range of the object represented by a depth corresponding light to dark gray value, and the object on the screen background as the Whether ject with the greatest depth in the disparity map reproduced in approximately black. However, the form of representation for the depth information described in the example shown in FIG. 6 is not mandatory. Objects in the foreground can also be represented dark, and objects in the background can be represented light.

Darüber hinaus können die Daten der angezeigten Dispari­ tätskarte auch zu Steuerungszwecken eingesetzt werden, in­ dem man diese Daten beispielsweise zur Steuerung von Robo­ tern bei Montagevorgängen heranzieht und einen Soll-Ist-Ver­ gleich mit vorab definierten 3-D-Fertigungsdaten und den aus den Disparitäten ermittelten Tiefeninformationen durch­ führt.In addition, the data of the displayed dispari card can also be used for control purposes, in which you can use this data to control Robo, for example tern during assembly operations and a target-actual-Ver same with predefined 3-D manufacturing data and depth information determined from the disparities leads.

Unbemannte Fahrzeuge können bei Erreichen und/oder Unter­ schreiten eines vorbestimmten Minimal-Tiefenwertes zur Ver­ hinderung von Kollisionen durch entsprechende Ansteuerungen zum Ausweichen veranlaßt werden, wobei dieses Prinzip auch bei der Implementierung passiver und/oder aktiver Abstands­ warn- und Antikollisionssysteme in Kraftfahrzeugen einsetz­ bar ist. Weitere Einsatzmöglichkeiten für das System zeigen sich in der Medizintechnik beispielsweise beim dreidimen­ sionalen Abtasten von Körperkonturen zur Klassifikation von Dysplasien. Insbesondere bestehen Einsatzmöglichkeiten im kieferchirurgischen Bereich oder bei flexiblen oder starren Endoskopen.Unmanned vehicles can reach and / or under a predetermined minimum depth value for ver prevention of collisions by appropriate controls  to be evaded, this principle also when implementing passive and / or active distance use warning and anti-collision systems in motor vehicles is cash. Show other possible uses for the system in medical technology, for example, in three dimensions sional scanning of body contours for the classification of Dysplasia. In particular, there are possible uses in maxillofacial area or flexible or rigid Endoscopes.

Claims (17)

1. Kohärenzdetektor mit
einer Vielzahl von n Signaleingängen (ESTi (1←i←n); E1, E2, E3, E4), an denen ein jeweiliger Eingangssig­ nalwert anliegt,
einer ersten Sortiereinrichtung (S1) zum Sortieren der n zugeführten Eingangssignalwerte (E1, . . ., E4) entsprechend ihrem Wert (A, B, C, D) und zur parallelen Ausgabe der n sortierten Werte,
einer Vielzahl von n-1 Subtrahiereinrichtungen ("-") zur Subtraktion von jeweils zwei benachbarten sortierten Werten ((D-C), (C-B), (B-A)),
einer zweiten Sortiereinrichtung (S2) zum Sortieren der erhaltenen n-1 Differenzen ((D-C), (C-B), (B-A)) hin­ sichtlich ihres Betrages und zur Ausgabe des kleinsten Dif­ ferenzbetrags ("«"),
einer Auswahleinrichtung ("=", MUX1), die anhand des ermittelten kleinsten Differenzbetrags ("«") das diesem zugehörige Wertepaar der Eingangssignalwerte ausgibt, und
einer Ausgabeeinrichtung ("Σ/2"), der das ausgegebene Wertepaar zugeführt wird und die dessen Mittelwert (KE) ausgibt.
1. Coherence detector with
a large number of n signal inputs (EST i (1 ← i ← n); E1, E2, E3, E4), to which a respective input signal value is present,
a first sorting device (S1) for sorting the n supplied input signal values (E1,..., E4) according to their value (A, B, C, D) and for the parallel output of the n sorted values,
a plurality of n-1 subtracting devices ("-") for subtracting two adjacent sorted values ((DC), (CB), (BA)),
a second sorting device (S2) for sorting the received n-1 differences ((DC), (CB), (BA)) with regard to their amount and for outputting the smallest difference amount ("« "),
a selection device ("=", MUX1) which outputs the value pair of the input signal values associated therewith on the basis of the smallest difference ("« ") determined, and
an output device ("Σ / 2"), to which the output pair of values is fed and which outputs its mean value (KE).
2. Detektor nach Anspruch 1, wobei
die Auswähleinrichtung ("=", MUX1) eine
Vergleichseinheit ("="), die durch Vergleichen des kleinsten Differenzbetrags mit den n-1 Differenzwerten den­ jenigen Differenzwert ermittelt, der dem kleinsten Diffe­ renzbetrag entspricht, und
eine Multiplexereinheit (MUX1) aufweist, die aufgrund der Ansteuerung durch das seitens der Vergleichseinheit be­ reitgestellte Vergleichsergebnis dasjenige Wertepaar der Eingangssignalwerte mit der geringsten Differenz ausgibt.
2. The detector of claim 1, wherein
the selection device ("=", MUX1) one
Comparison unit ("=") which determines the difference value which corresponds to the smallest difference amount by comparing the smallest difference amount with the n-1 difference values, and
has a multiplexer unit (MUX1) which, owing to the control by the comparison result provided by the comparison unit, outputs that pair of values of the input signal values with the smallest difference.
3. Kohärenzdetektor mit
einer Vielzahl von n Signaleingängen (ESTi), mit 1←i←n, an denen ein jeweiliger Eingangssignalwert an­ liegt,
einer Fenster-Begrenzungseinrichtung (FB) zur Ausgabe derjenigen der n Eingangssignale, deren Eingangssignalwert innerhalb eines voreingestellten, endlichen Fenster-Werte­ bereichs [-x, . . ., 0, . . ., +x] mit m+1 Werten im Ab­ starid von 2x/m liegt,
einer Rundungseinrichtung (R) zur Rundung der seitens der Fenster-Begrenzungseinrichtung (FB) ausgegebenen Werte auf den jeweils nächstliegenden der m+1 Werte des voreinge­ stellten Fenster-Wertebereichs,
einer Adressierungs-Ansteuerungseinrichtung (AA), und
einer Faltungseinrichtung (F), wobei
die Faltungseinrichtung (F) eine der Anzahl von Werten des Fenster-Wertebereichs entsprechende Viel­ zahl von m+1 Signaleingängen (Ek, 1←k←m+1) hat, und dem jeweiligen k-ten Eingang durch die Adressie­ rungs-Ansteuerungseinrichtung (AA) diejenigen der n Signale zugeführt werden, deren Wert -x+(k-1).2x/m beträgt, welche somit ein entsprechendes k-tes von m+1 Strahlungsemissionselementen ansteuern, wobei die so zur Emission gelangte Strahlung von einer der Anzahl von Werten des Fenster-Wertebereichs entsprechenden Vielzahl von m+1 Strahlungsempfangselementen erfaßt wird, und
einer Auswerteeinrichtung (AW), die die Adresse k des­ jenigen der m+1 Strahlungsempfangselemente ermittelt, das die größte Strahlungsintensität erfaßt, und den Wert k die­ ser Adresse an einem Ausgangsanschluß (KE) abgibt, wobei der aus gegebene Wert das Ergebnis der Faltung der der Fal­ tungseinrichtung zugeführten Signale darstellt.
3. Coherence detector with
a large number of n signal inputs (EST i ), with 1 ← i ← n, at which a respective input signal value is present,
a window limiting device (FB) for outputting those of the n input signals whose input signal value is within a preset, finite window value range [-x,. . ., 0,. . ., + x] with m + 1 values in the Ab starid of 2x / m,
a rounding device (R) for rounding the values output by the window limiting device (FB) to the nearest of the m + 1 values of the preset window value range,
an addressing control device (AA), and
a folding device (F), wherein
the folding device (F) has a number of m + 1 signal inputs ( Ek , 1 ← k ← m + 1) corresponding to the number of values in the window value range, and the respective kth input by the addressing control device ( AA) those of the n signals are supplied whose value is -x + (k-1) .2x / m, which thus drive a corresponding k-th of m + 1 radiation emission elements, the radiation thus obtained being emitted by one of the number of Values of the window value range corresponding plurality of m + 1 radiation receiving elements is detected, and
an evaluation device (AW) which determines the address k of the one of the m + 1 radiation receiving elements which detects the greatest radiation intensity and outputs the value k of this address at an output connection (KE), the output value being the result of the convolution of the represents the folding device supplied signals.
4. Signalverarbeitungsvorrichtung nach Anspruch 3, wobei es sich bei den Strahlungsemissionselementen der Faltungs­ einrichtung um Licht emittierende Dioden (LED) und bei den Strahlungsempfangselementen um Photodioden (PD) handelt.4. Signal processing device according to claim 3, wherein the radiation emission elements of the convolution device around light emitting diodes (LED) and at the Radiation receiving elements are photodiodes (PD). 5. Signalverarbeitungsvorrichtung nach Anspruch 4, wobei die Licht emittierenden Dioden (LED) an der Oberseite eines transparenten Substrates (SUB) angeordnet sind, und die Photodioden den Licht emittierenden Dioden (LED) gegenüber­ liegend an der Unterseite des Substrates (SUB) angeordnet sind. 5. Signal processing device according to claim 4, wherein the Light emitting diodes (LED) on the top of a transparent substrates (SUB) are arranged, and the Photodiodes opposite the light-emitting diodes (LED) arranged on the underside of the substrate (SUB) are.   6. Signalverarbeitungsvorrichtung nach Anspruch 5, wobei das transparente Substrat (SUB) ein Glassubstrat ist.6. Signal processing device according to claim 5, wherein the transparent substrate (SUB) is a glass substrate. 7. Bildverarbeitungsvorrichtung, mit
Verschiebe-Einrichtungen (VSEL, VSER; ΔXL1, . . ., ΔXLn, ΔXR1, . . ., ΔXRn) zur gegenseitigen Verschiebung von diesen je­ weils zugeführten Bilddaten eines ersten Bildes und eines zu diesem unter einem anderen Aufnahmewinkel aufgenommenen zweiten Bildes, wobei die Bilddaten an den Verschiebe-Ein­ richtungen (VSEL, VSER) jeweils parallel abgegriffen werden und paarweise ((ΔXL1, ΔXRn), (ΔXL2, ΔXRn-1), . . ., (ΔXLn-1, ΔXR2), (ΔXLn, ΔXR1)) einer nachfolgenden Disparitäts-Detektionseinrichtung (DD; EST1, . . ., ESTn) zugeführt werden; wobei die Disparitäts-Detek­ tionseinrichtung (DD) für jedes der zugeführten Bild­ datenpaare ((ΔXLi, ΔXRn+1-i)) mittels eines jeweiligen Dispa­ ritäts-Elementes (EST1, . . ., ESTn) einen räumliche Tiefen­ informationen für das jeweilige Bilddatenpaar darstellenden Disparitätswert ermittelt, und die ermittelten Disparitäts­ werte einer Kohärenz-Detektionseinrichtung (KD) nach einem der Ansprüche 1, 2 oder 3 bis 6 zuführt,
wobei der ausgegebene Disparitätswert (KE) auf jede Verschiebung der Bilddaten hin ermittelt wird und die zuge­ hörige räumliche Tiefeninformation darstellt.
7. Image processing device, with
Shifting devices (VSEL, VSER; ΔX L1 ,..., .DELTA.X Ln , .DELTA.X R1 ,..., .DELTA.X Rn ) for mutually shifting these respectively supplied image data of a first image and a second image taken at a different angle Image, the image data on the shifting devices (VSEL, VSER) are tapped in parallel and in pairs ((ΔX L1 , ΔX Rn ), (ΔX L2 , ΔX Rn-1 ),..., (ΔX Ln-1 , ΔX R2 ), (ΔX Ln , ΔX R1 )) are fed to a subsequent disparity detection device (DD; EST 1 ,..., EST n ); wherein the disparity detection device (DD) for each of the supplied image data pairs ((ΔX Li , ΔX Rn + 1-i )) by means of a respective disparity element (EST 1 ,..., EST n ) provides spatial depth information determined for the respective image data pair disparity value, and the determined disparity values a coherence detection device (KD) according to one of claims 1, 2 or 3 to 6,
the output disparity value (KE) is determined on each shift of the image data and represents the associated spatial depth information.
8. Bildverarbeitungsvorrichtung nach Anspruch 7, wobei
die Bilddaten eines Vollbildes während zweier aufein­ anderfolgender Halbbildperioden zeilenverschachtelt in Halbbildern zugeführt werden,
von der Kohärenz-Detektionseinrichtung (KD) während einer ersten Halbbildperiode ermittelte tatsächliche Dispa­ ritätswerte in einer Speichereinrichtung (MEM) zwischenge­ speichert werden, und
diese zwischengespeicherten Disparitätswerte der Kohä­ renz-Detektionseinrichtung (KD) während der darauffolgenden zweiten Halbbildperiode zusätzlich zu den von der Dispari­ täts-Detektionseinrichtung (DD) erfaßten Disparitätswerten zugeführt werden, um die tatsächlichen Disparitätswerte für das Vollbild zu ermitteln.
8. The image processing device according to claim 7, wherein
the image data of a full image are interlaced in two fields during two successive field periods,
actual disparity values determined by the coherence detection device (KD) during a first field period are temporarily stored in a memory device (MEM), and
these temporarily stored disparity values are supplied to the coherence detection device (KD) during the subsequent second field period in addition to the disparity values detected by the disparity detection device (DD) in order to determine the actual disparity values for the frame.
9. Bildverarbeitungsvorrichtung nach Anspruch 7, wobei die zugeführten Bilddaten des ersten Bildes und des zweiten Bildes jeweils einer Vorverarbeitungseinrichtung (VVL, VVR) zugeführt werden; und aufgrund der Vorverarbeitung erhalte­ ne unterschiedliche Bilddatenarten der Bilddaten des ersten Bildes und des zweiten Bildes jeweils Verschiebeeinrich­ tungen (VSEL, VSER) und einer Disparitäts-Detektionsein­ richtung (DD) zugeführt werden, die jeweils für eine jewei­ lige Bilddatenart vorgesehen sind.9. The image processing device according to claim 7, wherein the supplied image data of the first image and the second Image of a preprocessing device (VVL, VVR) be fed; and get due to preprocessing ne different types of image data of the image data of the first Picture and the second picture in each case shifting device tion (VSEL, VSER) and a disparity detection unit direction (DD) are fed, each for a respective current image data type are provided. 10. Bildverarbeitungsvorrichtung nach einem der Ansprüche 7 bis 9 wobei die Bilddaten des ersten und zweiten Bildes se­ riell und zueinander synchronisiert zugeführt werden.10. Image processing device according to one of claims 7 to 9 wherein the image data of the first and second images are se riell and synchronized to each other. 11. Bildverarbeitungsvorrichtung nach Anspruch 10, wobei die Verschiebe-Einrichtungen (VSEL, VSER; ΔXL1, . . ., ΔXLn, ΔXR1, . . ., ΔXRn) die Bilddaten bildpunktweise gegeneinander verschieben. 11. The image processing device according to claim 10, wherein the shifting devices (VSEL, VSER; ΔX L1 ,..., ΔX Ln , ΔX R1 ,..., ΔX Rn ) shift the image data against one another pixel by pixel. 12. Bildverarbeitungsvorrichtung nach Anspruch 10, wobei die Verschiebe-Einrichtungen (VSEL, VSER; ΔXL1, . . ., ΔXLn, ΔXR1, . . ., ΔXRn) die Bilddaten in Bruchteilen von Bildpunkten gegeneinander verschieben.12. Image processing device according to claim 10, wherein the shifting devices (VSEL, VSER; ΔX L1 ,..., ΔX Ln , ΔX R1 ,..., ΔX Rn ) shift the image data against one another in fractions of pixels. 13. Bildverarbeitungsvorrichtung nach Anspruch 11 oder 12, wobei die Bilddaten als analoge Bildsignale zugeführt wer­ den, die Verschiebeeinrichtungen als analoge Laufzeitketten ausgeführt sind und die gegenseitige Verschiebung der Bild­ elemente durch Einstellung der entsprechenden Laufzeit er­ folgt.13. Image processing device according to claim 11 or 12, the image data being supplied as analog image signals the, the shifting devices as analog runtime chains are executed and the mutual shift of the image elements by setting the appropriate term follows. 14. Bildverarbeitungsvorrichtung nach Anspruch 11, wobei die Bilddaten als digitale Bildsignale zugeführt werden und die Verschiebeeinrichtungen als getaktete Schieberegister ausgeführt sind.14. The image processing device according to claim 11, wherein the image data are supplied as digital image signals and the shifting devices as clocked shift registers are executed. 15. Bildverarbeitungsvorrichtung nach Anspruch 12, wobei die Bilddaten als digitale Bildsignale zugeführt werden und die Verschiebeeinrichtungen als Filter ausgeführt sind, die Bilddatenwerte zwischen benachbarten Bildelementen interpo­ lieren.15. The image processing device according to claim 12, wherein the image data are supplied as digital image signals and the displacement devices are designed as filters, the Image data values between neighboring image elements interpo lieren. 16. Bildverarbeitungsvorrichtung nach Anspruch 7, wobei ein jeweiliges Disparitäts-Element (EST1, . . ., ESTi, . . ., ESTn, 1≦i≦n) den ermittelten Disparitätswert auf einer gra­ dientenbasierten Verarbeitung beruhend ermittelt.16. The image processing device according to claim 7, wherein a respective disparity element (EST 1 ,..., EST i ,.., EST n , 1 ≦ i ≦ n) determines the determined disparity value based on a gradient-based processing. 17. Bildverarbeitungsvorrichtung nach einem der Ansprüche 7 bis 16, wobei eine Anzeigevorrichtung vorgesehen ist, um die tatsächlichen Disparitätswerte (KE) als die Tiefenin­ formation darstellende Disparitätskarte auszugeben.17. Image processing device according to one of claims 7 to 16, wherein a display device is provided to  the actual disparity values (KE) as the depth issue disparity card representing formation.
DE19851993A 1997-11-24 1998-11-11 3-D stereo real-time sensor system Withdrawn DE19851993A1 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
DE19851993A DE19851993A1 (en) 1997-11-24 1998-11-11 3-D stereo real-time sensor system
DE59804717T DE59804717D1 (en) 1997-11-24 1998-11-20 coherent detector
EP98122061A EP0918302B1 (en) 1997-11-24 1998-11-20 Coherence detector
ES98122061T ES2180110T3 (en) 1997-11-24 1998-11-20 COHERENCE DETECTOR.
US09/199,888 US6980210B1 (en) 1997-11-24 1998-11-24 3D stereo real-time sensor system, method and computer program therefor
JP10332472A JPH11257932A (en) 1997-11-24 1998-11-24 3-d-stereo-real time sensor system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE19752047 1997-11-24
DE19851993A DE19851993A1 (en) 1997-11-24 1998-11-11 3-D stereo real-time sensor system

Publications (1)

Publication Number Publication Date
DE19851993A1 true DE19851993A1 (en) 1999-06-02

Family

ID=7849677

Family Applications (2)

Application Number Title Priority Date Filing Date
DE19851993A Withdrawn DE19851993A1 (en) 1997-11-24 1998-11-11 3-D stereo real-time sensor system
DE59804717T Expired - Lifetime DE59804717D1 (en) 1997-11-24 1998-11-20 coherent detector

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE59804717T Expired - Lifetime DE59804717D1 (en) 1997-11-24 1998-11-20 coherent detector

Country Status (1)

Country Link
DE (2) DE19851993A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004044695A1 (en) * 2004-09-15 2006-03-30 Sick Ag Object distance measuring process, involves temporally illuminating object twice one after the other from different directions, and calculating distance of object on basis of received images from local misalignment of illuminating structure
DE10033355B4 (en) * 2000-07-08 2011-05-19 Carl Zeiss Surgical Gmbh Camera, especially stereo camera
US9510739B2 (en) 2013-07-12 2016-12-06 Gyrus Acmi, Inc. Endoscope small imaging system
EP1287707B2 (en) 2000-04-10 2023-01-04 C2Cure Inc. An image sensor and an endoscope using the same

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1287707B2 (en) 2000-04-10 2023-01-04 C2Cure Inc. An image sensor and an endoscope using the same
DE10033355B4 (en) * 2000-07-08 2011-05-19 Carl Zeiss Surgical Gmbh Camera, especially stereo camera
DE102004044695A1 (en) * 2004-09-15 2006-03-30 Sick Ag Object distance measuring process, involves temporally illuminating object twice one after the other from different directions, and calculating distance of object on basis of received images from local misalignment of illuminating structure
US9510739B2 (en) 2013-07-12 2016-12-06 Gyrus Acmi, Inc. Endoscope small imaging system

Also Published As

Publication number Publication date
DE59804717D1 (en) 2002-08-14

Similar Documents

Publication Publication Date Title
EP0918302B1 (en) Coherence detector
EP0571431B1 (en) An optical sensor
DE10058244C2 (en) Measuring method for determining the position of an object in front of a screen and device for carrying out the method
EP2275989B1 (en) Stereoscopic 3D camera
EP1333306A2 (en) Method and system for stereoscopic microscopy
EP1997070A2 (en) Method and device for determining correspondence, preferably for the three-dimensional reconstruction of a scene
DE102018108936A1 (en) Form measuring system and shape measuring method
EP1460454A2 (en) Method for combined processing of high resolution images and video images
DE19851993A1 (en) 3-D stereo real-time sensor system
DE102012102580A1 (en) Method for measuring an object and intraoral scanner
WO2016000764A1 (en) Chromatic confocal sensor arrangement
DE102005052044A1 (en) Transparent object measuring device e.g. for defining jet level production mechanism, has first profile line at front surface of transparent object and second profile line at rear surface with radiation provided from jet
EP3496398B1 (en) Secure stereo camera and method for testing the functionality of the image sensors
DE4444697A1 (en) Stereoscopic image rangefinding processing
DE102021131620B4 (en) Photometric stereo method for scanning a surface, method for normalizing a scanning device for a photometric stereo method and scanning device for a photometric stereo method
EP3985608B1 (en) Computer-implemented method for creating multidimensional object data structures
EP0554116A2 (en) Method and system for enhancing resolution of an image
EP3518180A1 (en) Method for producing an image stack data structure
EP0824827B1 (en) Process for preparing an object mask for video monitoring systems
EP4095798B1 (en) Method for detecting the three-dimensional structure of an object
WO2013079727A1 (en) Measurement method and device for performing the measurement method
DE102012100848A1 (en) System for stereoscopic display of images of endoscope using dimensional map, has analyzing unit to test whether detected overexposure is reflection of light by object in spatial area based on three-dimensional model of spatial area
DE102019117849B4 (en) Detection of an object in a surveillance area
DE4405531C2 (en) Method and device for detecting the geometry of spatial objects
DE3021625C2 (en)

Legal Events

Date Code Title Description
8127 New person/name/address of the applicant

Owner name: 3D-IMAGE-PROCESSING GMBH, 86316 FRIEDBERG, DE

8141 Disposal/no request for examination