WO2003101088A1 - Method for matching and adjustment of the depth measurement range of a studio camera - Google Patents

Method for matching and adjustment of the depth measurement range of a studio camera Download PDF

Info

Publication number
WO2003101088A1
WO2003101088A1 PCT/EP2003/005416 EP0305416W WO03101088A1 WO 2003101088 A1 WO2003101088 A1 WO 2003101088A1 EP 0305416 W EP0305416 W EP 0305416W WO 03101088 A1 WO03101088 A1 WO 03101088A1
Authority
WO
WIPO (PCT)
Prior art keywords
depth measurement
camera
measurement range
values
studio
Prior art date
Application number
PCT/EP2003/005416
Other languages
German (de)
French (fr)
Inventor
Ulrich NÜTTEN
Arnfried Griesert
Georg Glock
Original Assignee
Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. filed Critical Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V.
Priority to AU2003232818A priority Critical patent/AU2003232818A1/en
Publication of WO2003101088A1 publication Critical patent/WO2003101088A1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment

Definitions

  • the invention relates to a method for adapting and setting the depth measurement range of a studio camera, which supplies values for the distance between the pixels of a camera image and the parts of a recorded three-dimensional geometry assigned to the pixels.
  • Depth keying systems for virtual studios use depth value images.
  • the individual values for the distance of the camera from the parts of the geometry recorded by its pixels are assigned finite gray levels.
  • Such assignments of the distance values to grayscale are also used for stereoscopic depth measurements. Most of the time, however, you restrict yourself to uniform value ranges.
  • a video camera is known from JP-A-07-7665, in which a person can be separated from the overall image information by means of an additionally recorded thermal image.
  • DE-C-37 32 347 describes a sensor with a plurality of pixels arranged in array form which receive reflected laser pulses. By scanning the area captured by the sensor using laser pulses and temporally selective exposure of the pixels, the distance of the captured partial area of a captured image assigned to the pixels can be determined on the basis of the amount of charge carriers.
  • DE-C-43 05 011 describes a distance measuring method in which the total area covered is divided into sub-areas, the resolution within the sub-areas depending on the selected bit size.
  • JP-A-61 731 18 describes a video camera with automatic focus adjustment.
  • the invention is based on the task of optimally adapting the resolution of the distance values to the specified accuracy given a technically predetermined division of the gray scale (e.g. 8 bits).
  • the invention proposes a method according to claim 1.
  • Advantageous embodiments of the invention are specified in the subclaims.
  • the grayscale image has a finite range of values for each pixel, but there are an infinite number of depth values that must be mapped on it.
  • the subdivision of the grayscale values into discrete distance values also depends on the desired accuracy.
  • the distance F of the lens to the focused objects can be determined from the tracking data of the camera. Since it cannot be ruled out that F> S, the distance range must accordingly be around the focused point of the
  • U and V define discrete subdivisions. Again, the general case must be taken into account that each of these areas does not necessarily have to be large ⁇ s. Values smaller than the desired accuracy can also occur.
  • the focused distance and the aperture angle ⁇ of the camera are of interest for the method according to the invention for converting depth value information into gray scale values. Both values can be determined from the camera's lens tracking system.
  • calibration data are to be used which, depending on the camera lens data, define the distance range and thus an assignment of depth values to grayscale.
  • the calibration data are determined taking into account the aperture values of the camera and the depth value sensor.
  • the 3D camera system can automatically assign the depth values and allow both non-uniform and asymmetrical distance ranges.
  • the innovation of the invention lies in the interaction between camera tracking data and the determination of the distance range. Corresponding calibration data and the current lens parameters can thus be used to automate an optimal assignment while maintaining a minimum accuracy ⁇ s.
  • the calculated values are then transferred to the subsequent keying system (object separation) in order to extract the corresponding distance values from the grayscale values.
  • the position of the depth measurement range manually or depending on the setting parameters of the object (e.g. zoom) of the studio camera.
  • the location or distance of the depth measurement range relative to the camera can also be determined advantageously using the accumulation of the distance values of objects in the image from the camera. Based on the information in the depth value image, e.g. Use a histogram or a similar analysis of the distance values to determine the area in which an accumulation of depth values occurs.
  • the depth measurement range that is of interest e.g. the depth measurement range in which most depth measurement values are located
  • the depth measurement range that is of interest can be derived.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

The method for matching and adjustment of the depth measurement range of a studio camera provides the values for the separation of the image points of a camera image from those parts of a three-dimensional recorded geometry assigned to the image points. According to the method, the size of the depth measurement range and the precision with which the relevant separations of the parts of the recorded geometry taken from the camera image may be digitally determined with the given bit size are defined. The position of the depth measurement range is thus fixed such that the depth measurement range is separated from the studio cameras and runs in front and behind the current focal plane of the studio camera.

Description

Verfahren zur Anpassung und Einstellung des Tiefenmessbereichs einer Studiokamera Procedure for adjusting and setting the depth measurement range of a studio camera
Die Erfindung betrifft ein Verfahren zur Anpassung und Einstellung des Tiefenmessbereichs einer Studiokamera, die Werte für den Abstand der Bildpunkte eines Kamerabildes von den Bildpunkten zugeordneten Teilen einer aufgenommenen dreidimensionalen Geometrie liefert.The invention relates to a method for adapting and setting the depth measurement range of a studio camera, which supplies values for the distance between the pixels of a camera image and the parts of a recorded three-dimensional geometry assigned to the pixels.
Bei Tiefen-Keying-Systemen für virtuelle Studios werden Tiefenwertbilder verwendet. In diesen Bildern werden den einzelnen Werten für den Abstand der Kamera von den von deren Bildpunkten aufgenommenen Teilen der Geometrie entsprechende endliche Graustufen zugeordnet. Auch bei stereoskopischen Tiefenmessungen kommen derartige Zuweisungen der Abstandswerte zu Graustufen zum Einsatz. Zumeist beschränkt man sich jedoch auf uniforme Wertebereiche.Depth keying systems for virtual studios use depth value images. In these images, the individual values for the distance of the camera from the parts of the geometry recorded by its pixels are assigned finite gray levels. Such assignments of the distance values to grayscale are also used for stereoscopic depth measurements. Most of the time, however, you restrict yourself to uniform value ranges.
Aus JP-A-07-7665 ist eine Videokamera bekannt, bei der mittels eines zusätz- lieh aufgenommenen Wärmebildes eine Person aus der Gesamtbildinformation separiert werden kann. In DE-C-37 32 347 ist ein Sensor mit mehreren in Ar- ray-Form angeordneten Pixeln beschrieben, die reflektierte Laserimpulse empfangen. Durch Abtastung des vom Sensor erfassten Bereichs mittels Laserimpulsen und zeitlich selektives Belichten der Pixel kann anhand der Menge der Ladungsträger pro Pixel die Entfernung des den Pixeln jeweils zugeordneten erfassten Teilbereiches eines aufgenommenen Bildes ermittelt werden. In DE-C-43 05 011 ist ein Entfernungsmessverfahren beschrieben, bei dem der erfasste Gesamtbereich in Teilbereiche aufgeteilt ist, wobei die Auflösung innerhalb der Teilbereiche jeweils von der gewählten Bitgröße abhängig ist. In JP-A-61 731 18 ist eine Videokamera mit automatischer Fokussiereinstellung beschrieben.A video camera is known from JP-A-07-7665, in which a person can be separated from the overall image information by means of an additionally recorded thermal image. DE-C-37 32 347 describes a sensor with a plurality of pixels arranged in array form which receive reflected laser pulses. By scanning the area captured by the sensor using laser pulses and temporally selective exposure of the pixels, the distance of the captured partial area of a captured image assigned to the pixels can be determined on the basis of the amount of charge carriers. DE-C-43 05 011 describes a distance measuring method in which the total area covered is divided into sub-areas, the resolution within the sub-areas depending on the selected bit size. In JP-A-61 731 18 describes a video camera with automatic focus adjustment.
Der Erfindung liegt die Aufgabe zugrunde, die Auflösung der Abstandswerte bei einer technisch vorgegebenen Einteilung der Graustufenskala (z.B. 8 Bit) an die vorgegebene Genauigkeit optimal anzupassen.The invention is based on the task of optimally adapting the resolution of the distance values to the specified accuracy given a technically predetermined division of the gray scale (e.g. 8 bits).
Zur Lösung dieser Aufgabe wird mit der Erfindung ein Verfahren gemäß Anspruch 1 vorgeschlagen. Vorteilhafte Ausgestaltungen der Erfindung sind in den Unteransprüchen angegeben.To achieve this object, the invention proposes a method according to claim 1. Advantageous embodiments of the invention are specified in the subclaims.
Die Erfindung wird nachfolgend unter Bezugnahme auf die Zeichnung näher erläutert.The invention is explained in more detail below with reference to the drawing.
Bei der Umwandlung der Tiefenwertinformation in ein Graustufenbild stellt sich die Frage der Zuordnung von Abstandswerten zu den jeweiligen Graustufenwerten. Das Graustufenbild besitzt pro Bildpunkt einen endlichen Wertebereich, hingegen gibt es unendlich viele Tiefenwerte, die darauf abgebildet werden müssen. Auch ist die Unterteilung der Graustufenwerte in diskrete Ab- standswerte abhängig von der gewünschten Genauigkeit.When converting the depth value information into a grayscale image, the question arises of the assignment of distance values to the respective grayscale values. The grayscale image has a finite range of values for each pixel, but there are an infinite number of depth values that must be mapped on it. The subdivision of the grayscale values into discrete distance values also depends on the desired accuracy.
Ausgehend von einem Graustufenbild mit einer Pixelgenauigkeit von n Bit und einer erforderlichen Genauigkeit von Δs ergibt sich ein maximaler Abstandbereich von S = 2n * Δs.Starting from a grayscale image with a pixel accuracy of n bits and a required accuracy of Δs, a maximum distance range of S = 2 n * Δs results.
Bei der Erzeugung von Tiefenbildern von realen Objekten in virtuellen Studios ist vor allem der Bereich von Interesse, auf den die Kamera fokussiert ist. Aus den Trackingdaten der Kamera lässt sich der Abstand F der Linse zu den fo- kussierten Objekten ermitteln. Da nicht auszuschließen ist, dass F > S ist, muss der Abstandsbereich entsprechend um den anfokussierten Punkt derOf particular interest when creating depth images of real objects in virtual studios is the area on which the camera is focused. The distance F of the lens to the focused objects can be determined from the tracking data of the camera. Since it cannot be ruled out that F> S, the distance range must accordingly be around the focused point of the
Kamera gelegt werden. Dementsprechend müssen Abstandwerte U und V definiert werden mit U < F ≤ V und V - U = S. Die Abstände Δu und Δv definieren die Entfernung der Werte U bzw. V vom anfokussierten Punkt F der Kamera (siehe Zeichnung). Es ist nicht auszuschließen, dass Δu ≠ Δv ist. Im folgenden soll daher ein symmetrischer sowie ein unsymmetrischer Abstandsbereich gleichermaßen umfasst sein.Camera. Accordingly, distance values U and V must be defined with U <F ≤ V and V - U = S. The distances Δu and Δv define the distance of the values U and V from the focused point F of the camera (see drawing). It cannot be ruled out that Δu ≠ Δv. In the following, a symmetrical and an asymmetrical distance range should therefore be encompassed equally.
Der Bereich zwischen U und V definiert diskrete Unterteilungen. Auch hier muss der allgemeine Fall berücksichtigt werden, dass jeder dieser Bereiche nicht zwingend Δs groß sein muss. Auch kleinere Werte als die gewünschte Genauigkeit können auftreten.The area between U and V defines discrete subdivisions. Again, the general case must be taken into account that each of these areas does not necessarily have to be large Δs. Values smaller than the desired accuracy can also occur.
Bei der Unterteilung muss weiterhin zwischen einem uniformen und nicht- uniformen Abstandsbereich unterschieden werden, und zwar je nachdem, ob die einzelnen Abstandsbereichsunterteilungen gleiche oder unterschiedliche Größen haben.In the subdivision, a distinction must also be made between a uniform and non-uniform distance range, depending on whether the individual distance range subdivisions have the same or different sizes.
Für das erfindungsgemäße Verfahren der Umwandlung von Tiefen wertinforma- tionen in Graustufenwerten sind der fokussierte Abstand und der Öffnungswinkel α der Kamera von Interesse. Beide Werte lassen sich aus dem Objektivtra- ckingsystem der Kamera ermitteln.The focused distance and the aperture angle α of the camera are of interest for the method according to the invention for converting depth value information into gray scale values. Both values can be determined from the camera's lens tracking system.
Man kann jetzt die Unterteilung des Abstandbereichs S sowie der Grenzen U und V manuell verändern. Es bietet sich jedoch an, diese Werte in Abhängigkeit von F und α automatisch zu bestimmen. Hierfür sollen Kalibrierungsdaten verwendet werden, die abhängig von den Kameraobjektivdaten den Abstand- bereich und somit eine Zuweisung von Tiefenwerten zu Graustufen definieren. Die Kalibrierungsdaten werden unter Berücksichtung der Blendenwerte der Kamera und des Tiefenwertsensors ermittelt.You can now change the subdivision of the distance range S and the limits U and V manually. However, it makes sense to automatically determine these values depending on F and α. For this purpose, calibration data are to be used which, depending on the camera lens data, define the distance range and thus an assignment of depth values to grayscale. The calibration data are determined taking into account the aperture values of the camera and the depth value sensor.
Unter Einbehaltung der gewünschten Genauigkeit Δs kann das 3D-Kamera- System automatisch die Zuweisung der Tiefenwerte vornehmen und sowohl nicht uniforme als auch asymmetrische Abstandbereiche zulassen. Die Neuerung der Erfindung liegt in dem Zusammenspiel zwischen Kameratra- ckingdaten und der Bestimmung des Abstandbereichs. Durch entsprechende Kalibrierungsdaten und die aktuellen Objektivparameter lässt sich somit eine optimale Zuweisung unter Einbehaltung einer Mindestgenauigkeit Δs automati- sieren.While maintaining the desired accuracy Δs, the 3D camera system can automatically assign the depth values and allow both non-uniform and asymmetrical distance ranges. The innovation of the invention lies in the interaction between camera tracking data and the determination of the distance range. Corresponding calibration data and the current lens parameters can thus be used to automate an optimal assignment while maintaining a minimum accuracy Δs.
Die berechneten Werte werden dann an das nachfolgende Keying-System (Objektseparierung) übergeben, um aus den Graustufenwerten die entsprechenden Abstandswerte zu extrahieren.The calculated values are then transferred to the subsequent keying system (object separation) in order to extract the corresponding distance values from the grayscale values.
Die Festlegung der Lage des Tiefenmessbereichs erfolgt am zweckmäßigsten manuell oder in Abhängigkeit von den Einstellungsparametern des Objekts (z.B. Zoom) der Studiokamera. Man kann die Festlegung der Lage bzw. Entfernung des Tiefenmessbereichs relativ zur Kamera aber auch mit Vorteil an- hand der Häufung der Abstandswerte von Objekten des Bildes zur Kamera vornehmen. Anhand der Information im Tiefenwertbild lässt sich z.B. durch ein Histogramm oder eine ähnliche Analyse der Abstandswerte derjenige Bereich ermitteln, in dem eine Häufung von Tiefenwerten auftritt. Durch Berechnung eines minimalen und maximalen Abstandes lässt sich der Tiefenmessbereich, der von Interesse ist (z.B. der Tiefenmessbereich, in dem sich die meisten Tiefenmesswerte befinden), herleiten. Im Falle, dass mehrere Personen/Objekte in unterschiedlichen Entfernungen zur Kamera stehen, ergeben sich mehrere Cluster im Histogramm der Tiefenwerte, die ebenfalls eine Bestimmung der gewünschten Werte für den Messbereich ermöglichen. Es be- steht auch die Möglichkeit, dass zusätzliche Geräte, z.B. Lichtschranken, Funkemitter am Moderator oder an Überwachungskameras, die Daten für einen optimalen Tiefenmessbereich liefern. Hier sind die Möglichkeiten nahezu unbegrenzt. Man kann diesbezüglich zwischen aktiven Verfahren, wie z.B. Mikrowellen- oder Ultraschallsendern und der reinen Bildananalyse (wie beim einfa- chen Differenzkeying) unterscheiden. Letzteres kann als passives Abstandsermittlungsverfahren bezeichnet werden, da keine zusätzlichen Signale ausgesandt werden. It is best to determine the position of the depth measurement range manually or depending on the setting parameters of the object (e.g. zoom) of the studio camera. The location or distance of the depth measurement range relative to the camera can also be determined advantageously using the accumulation of the distance values of objects in the image from the camera. Based on the information in the depth value image, e.g. Use a histogram or a similar analysis of the distance values to determine the area in which an accumulation of depth values occurs. By calculating a minimum and maximum distance, the depth measurement range that is of interest (e.g. the depth measurement range in which most depth measurement values are located) can be derived. In the event that several people / objects are at different distances from the camera, there are several clusters in the histogram of the depth values, which also enable the desired values for the measuring range to be determined. There is also the possibility that additional devices, e.g. Light barriers, radio emitters on the moderator or on surveillance cameras that provide data for an optimal depth measurement range. The possibilities here are almost unlimited. One can differentiate between active processes, e.g. Distinguish between microwave or ultrasonic transmitters and pure image analysis (as with simple difference keying). The latter can be referred to as a passive distance determination method since no additional signals are transmitted.

Claims

ANSPRUCHE EXPECTATIONS
1. Verfahren zur Anpassung und Einstellung des Tiefenmessbereichs einer Studiokamera, die Werte für den Abstand der Bildpunkte eines Kamerabildes von den Bildpunkten zugeordneten Teilen einer aufgenommenen dreidimensionalen Geometrie liefert, wobei bei dem Verfahren die Größe des Tiefenmessbereichs und die Genauigkeit, mit der jeweilige Abstände der von dem Kamerabild erfassten Teile der aufgenommenen Geometrie mit der gegebenen Bitgröße digital messtechnisch ermittelbar ist, definiert werden und die Lage des Tiefenmessbereichs derart festgelegt wird, dass der Tiefenmessbereich von der Studiokamera beabstandet ist und sich vor sowie hinter der aktuellen Fokus-Ebene der Studiokamera erstreckt.1. Method for adapting and setting the depth measurement range of a studio camera, which provides values for the distance between the image points of a camera image and the parts of a recorded three-dimensional geometry assigned to the image points, with the method the size of the depth measurement range and the accuracy with the respective distances from Parts of the recorded geometry recorded in the camera image can be determined digitally with the given bit size using digital metrology, defined and the position of the depth measurement area is defined in such a way that the depth measurement area is spaced from the studio camera and extends in front of and behind the current focus level of the studio camera.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Festlegung der Lage des Tiefenmessbereichs manuell oder in Abhängigkeit von den Objektivparametern der Studiokamera automatisch erfolgt.2. The method according to claim 1, characterized in that the determination of the position of the depth measurement range is carried out automatically or automatically as a function of the lens parameters of the studio camera.
3. Verfahren nach Anspruch 1, bei dem die Lage des Tiefenmessbereichs relativ zur Studiokamera anhand der Häufigkeitsverteilung der Größe der Abstandswerte der einzelnen Bildpunkte festgelegt wird.3. The method according to claim 1, wherein the position of the depth measurement range relative to the studio camera is determined on the basis of the frequency distribution of the size of the distance values of the individual pixels.
4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass der Tiefenmessbereich symmetrisch oder asymmetrisch zur Fokusebene der Studiokamera angeordnet wird.4. The method according to any one of claims 1 to 3, characterized in that the depth measuring range is arranged symmetrically or asymmetrically to the focal plane of the studio camera.
5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass die Unterteilung des Tiefenmessbereichs in Teilbereiche gleichförmig ist. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass die Unterteilung des Tiefenmessbereichs in Teilbereiche ungleichförmig erfolgt. 5. The method according to any one of claims 1 to 4, characterized in that the subdivision of the depth measurement area into sub-areas is uniform. Method according to one of claims 1 to 4, characterized in that the subdivision of the depth measurement area into partial areas is non-uniform.
PCT/EP2003/005416 2002-05-24 2003-05-23 Method for matching and adjustment of the depth measurement range of a studio camera WO2003101088A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
AU2003232818A AU2003232818A1 (en) 2002-05-24 2003-05-23 Method for matching and adjustment of the depth measurement range of a studio camera

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE10223136.2 2002-05-24
DE2002123136 DE10223136C1 (en) 2002-05-24 2002-05-24 Procedure for adjusting and setting the depth measurement range of a studio camera

Publications (1)

Publication Number Publication Date
WO2003101088A1 true WO2003101088A1 (en) 2003-12-04

Family

ID=29557286

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2003/005416 WO2003101088A1 (en) 2002-05-24 2003-05-23 Method for matching and adjustment of the depth measurement range of a studio camera

Country Status (3)

Country Link
AU (1) AU2003232818A1 (en)
DE (1) DE10223136C1 (en)
WO (1) WO2003101088A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110213566A (en) * 2019-05-20 2019-09-06 歌尔股份有限公司 Image matching method, device, equipment and computer readable storage medium

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6057909A (en) * 1995-06-22 2000-05-02 3Dv Systems Ltd. Optical ranging camera

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6173118A (en) * 1984-09-18 1986-04-15 Matsushita Electric Ind Co Ltd Automatic focusing device of video camera
DE3732347C1 (en) * 1987-09-25 1989-03-16 Messerschmitt Boelkow Blohm Distance image sensor
DE4305011C2 (en) * 1993-02-18 1995-03-23 Deutsche Aerospace Pulse transit time measuring method
JPH077665A (en) * 1993-06-14 1995-01-10 Canon Inc Picture extracting device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6057909A (en) * 1995-06-22 2000-05-02 3Dv Systems Ltd. Optical ranging camera

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110213566A (en) * 2019-05-20 2019-09-06 歌尔股份有限公司 Image matching method, device, equipment and computer readable storage medium

Also Published As

Publication number Publication date
AU2003232818A1 (en) 2003-12-12
DE10223136C1 (en) 2003-12-24

Similar Documents

Publication Publication Date Title
DE69635101T2 (en) Method for extracting objects and image recording apparatus using this method
DE3635790C2 (en)
EP1065628B1 (en) Optical 3-D measurement with several approximation points
DE60208894T2 (en) RAIN SENSOR WITH STEREOSCOPIC PICTURE SYSTEM
DE102017101188B4 (en) Microscope and method of microscopy on a sample
EP2880853B1 (en) Apparatus and method for determining the distinct location of an image-recording camera
DE102016206493A1 (en) Method and camera system for determining the distance of objects to a vehicle
DE102008015499A1 (en) Method and device for determining the 3D coordinates of an object
DE19525561C2 (en) 3D measuring device
WO2013004458A1 (en) Arrangement and method for determining an imaging deviation of a camera
DE102010023108A1 (en) Projector with automatic focusing and imaging process
WO2018127509A1 (en) Method for generating a three-dimensional model of a sample in a digital microscope and a digital microscope
EP3104330A1 (en) Methods for tracking at least one object and method for replacing at least one object with a virtual object in a motion picture signal recorded by a camera
DE102015103785A1 (en) Method and device for calibrating a camera
DE112014006493T5 (en) Determine a scale of three-dimensional information
WO2018234011A1 (en) System, method and marker for the determination of the position of a movable object in space
DE19746575A1 (en) Optical image recording device and method for its use
DE102020206006A1 (en) Method for calibrating and / or adjusting and control unit for a LiDAR system, LiDAR system and working device
WO2011076346A1 (en) Method for determining a set of optical imaging functions for three-dimensional flow measurement
DE4218678A1 (en) DEVICE FOR DETECTING THE FOCUS OF AN LENS
CH697319B1 (en) Method and apparatus for geometric calibration of optoelectronic measuring cameras.
WO2003101088A1 (en) Method for matching and adjustment of the depth measurement range of a studio camera
DE2917203C2 (en) Device for determining the focusing of a lens on a target focal plane
DE10125971A1 (en) Method for measuring the distance of extended objects in connection with an optical viewing device and microscope for carrying out the same
DE102010042821B4 (en) Method and apparatus for determining a basic width of a stereo detection system

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NI NO NZ OM PH PL PT RO RU SC SD SE SG SK SL TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
122 Ep: pct application non-entry in european phase
NENP Non-entry into the national phase

Ref country code: JP

WWW Wipo information: withdrawn in national office

Country of ref document: JP