WO2016146105A1 - Method and device for calibrating a camera - Google Patents

Method and device for calibrating a camera Download PDF

Info

Publication number
WO2016146105A1
WO2016146105A1 PCT/DE2016/100112 DE2016100112W WO2016146105A1 WO 2016146105 A1 WO2016146105 A1 WO 2016146105A1 DE 2016100112 W DE2016100112 W DE 2016100112W WO 2016146105 A1 WO2016146105 A1 WO 2016146105A1
Authority
WO
WIPO (PCT)
Prior art keywords
camera
screen
pixel
image
image value
Prior art date
Application number
PCT/DE2016/100112
Other languages
German (de)
French (fr)
Inventor
Harald Hoppe
Original Assignee
Hochschule Offenburg
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hochschule Offenburg filed Critical Hochschule Offenburg
Publication of WO2016146105A1 publication Critical patent/WO2016146105A1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Definitions

  • the present invention relates to a method and apparatus for calibrating a camera, and more particularly to non-model based calibration of cameras using a monitor.
  • Digital cameras typically use a CCD sensor or a CMOS sensor to capture an image through a plurality of pixels. For many applications, it is not sufficient to capture only a digital image. Rather, information is desirable, such as from which directions the individual pixels of the camera receive light. To achieve this, a calibration of the camera is used, which, for example, associates an optical path with a pixel. This makes it possible to determine the position of a detected pixel for each pixel in a certain image area (for example perpendicular to the viewing direction). Thus, the calibration determines those points which a particular camera pixel is viewing or which point of the scene under consideration onto which camera pixels are imaged.
  • the use of cameras for the purpose of industrial or non-industrial (eg medical) image processing usually depends largely on how accurately the cameras used can be calibrated.
  • the current state of the art for calibrating cameras is based on the basic assumption that the camera to be calibrated can be described sufficiently accurately by a hole camera model.
  • this model there is a unique projection center, through which all the lines that are assigned to the individual camera pixels run.
  • these models usually require that the real scene is largely undistorted on the image plane of the camera.
  • another model is used to describe radial and tangential lens distortion effects.
  • the overall model for describing the imaging properties of a camera is based on six extrinsic parameters (three rotational and three translatory degrees of freedom) used to describe the transformation from the world coordinate system to the camera coordinate system and five intrinsic parameters used to describe the perspective projection onto a projection center.
  • the radial lens distortion is usually described with two to three parameters, the tangential with two parameters.
  • the total model thus includes 16 parameters to be calibrated, of which, however, only 12 are usually used.
  • patterns representing points with known 3-dimensional (3-D) world coordinates are held in front of the camera and the associated 2-dimensional (2-D) image coordinates representing these points are determined.
  • three to ten images of a flat calibration pattern with approximately 50 to 250 uniquely definable feature points are used.
  • FIG. 8 shows a calibration pattern which is used to determine the point correspondences and represents a plurality of black dots on a white surface.
  • the calibration pattern is captured by the camera, with the camera pixels detecting either a white screen background or a black dot imaged thereon.
  • a first calibration point 501, a second calibration point 502 and a third calibration point 503 are shown in a central area.
  • the calibration points 501 to 503 define a local coordinate system with respect to which the coordinates of the centers of all circles are determined, for example by simply counting the black points to the calibration points. After the point correspondences have been determined, the corresponding models are taken to determine the parameters.
  • a similar calibration method is described in DE 10 2010 031 215, where a three-dimensional object is used for calibration, based on a model for an intensity distribution of the used CCD chip and the calibration determines the model coefficients.
  • Another conventional method is described in DE 197 27 281 C1, where a three-dimensional test structure is generated by means of a hologram and is used for calibration, assuming idealized camera optics.
  • the number of dot correspondences used to optimize the parameters of the underlying model is usually in a range of 100 to 1000. Compared to the number of pixels of the camera to be calibrated, ranging from 1 to 5 million or even more pixels can be, this is often too little.
  • the present invention relates to a method of calibrating a camera using a screen, wherein the screen has a set of pixels and the camera uses a plurality of pixels to display the image.
  • the method comprises the following steps: (a) displaying at least one image value in at least one pixel of the screen based on an image value assignment; (b) detecting the at least one image value by a pixel of the camera; and (c) determining the position of the at least a pixel on the screen based on the at least one captured image value and the image value assignment.
  • the method further comprises shifting the screen or the camera in one direction by an amount such that the at least one pixel is at a different distance from the pixel of the camera than before the shifting, and repeating at least the aforementioned steps for the shifted screen.
  • the camera includes a variable focus when moving the screen relative to the camera, and the method further comprises storing an association with the pixel and the positions of the at least one pixel for different shifted screen positions.
  • the pixels of the camera are individually calibrated. It is understood that the position determination requires that the position of the detected image value on the screen is known. This is done by the image value assignment, which determines which image value is displayed at which position on the screen.
  • the pixels themselves may be constructed of screen pixels, i. A pixel can consist of one or more screen pixels.
  • the subject invention solves the above-mentioned technical problem by calibrating each individual camera pixel independently of all other pixels (not model-based) with the aid of a screen.
  • a commercially available screen for example monitor, television or another display
  • the only requirement is that he is able to generate a corresponding calibration pattern.
  • the present invention thus includes a new, monitor-based and parameter-free method for calibrating cameras.
  • the result of the calibration may be written to a table (e.g., a lookup table) by storing for each camera pixel a set of points mapped to that pixel. In the simplest case, these are in each case straight lines for each pixel, provided the camera focus is not changed during the calibration.
  • the steps (a) to (c) defined for a particular pixel of the camera may be performed in parallel for all pixels of the camera or for a discrete set of pixels of the camera.
  • an interpolation can be used to unambiguously assign the intervening pixels as well.
  • the interpolation can also be used to perform subpixel-exact mapping. The more image correspondence pixel / pixel of the camera are determined, the more accurate the result, but at the same time also increases the computational effort required to calibrate all pixels.
  • the present invention also relates to a method of calibrating a unit of a first camera and a second camera using a screen, wherein the screen has a set of pixels and the first camera uses a plurality of pixels to display an image and the second Camera uses a plurality of pixels for displaying an image and the first and second camera are in a predetermined relation to each other.
  • the calibration comprises the steps of: (a) displaying at least one image value in at least one pixel of the screen based on an image value assignment; (b) detecting the at least one image value by a pixel of the first camera and by a pixel of the second camera; and (c) determining the position of the at least one pixel on the screen based on the at least one captured image value (BW) and the image value assignment.
  • this method is not limited to two cameras. Rather, so that a variety of cameras can be calibrated in parallel.
  • the present invention also relates to a method for determining a shift direction of a screen relative to a camera.
  • the method includes (A) calibrating the camera using a screen, the screen having a set of pixels, the camera using a plurality of pixels to display an image, and calibrating comprising the steps of: (a) displaying at least one image value in at least one pixel of the screen based on an image value assignment; (b) detecting the at least one image value by a pixel of the camera; and (c) determining the position of the at least one pixel on the screen based on the at least one captured image value and the image value assignment; (j) shifting the screen or camera along the direction of displacement by an amount such that the at least one pixel is at a different distance from the pixel of the camera than prior to translation, and (g) repeating at least steps (b) and (c) for the moved screen (120i).
  • the method further comprises: (B) rotating the translation direction or the screen so that the camera is slidable relative to the screen along another direction of translation; (C) recovering the calibration according to steps (A); and (D) determining the direction of displacement from a comparison of calibrations (A) and (C).
  • the present invention also relates to a method for determining refractive properties of a protective layer (eg windshield or coating) of a screen using an uncalibrated camera, wherein the camera uses a plurality of pixels to display an image and the screen has a set of pixels ,
  • the method comprises the following steps: (A) displaying at least one image value in at least one pixel of the screen; (B) detecting the at least one image value by a pixel of the camera; (C) rotating the camera or screen about an axis of rotation by an angle; (D) detecting the at least one image value by the pixel of the camera; and (E) determining the refractive properties from a spatial displacement of the detected image value in step (B) in comparison to the detected image value in step (D) and of the angle.
  • a protective layer eg windshield or coating
  • the axis of rotation is in the screen plane or in the vicinity thereof.
  • the viewing line is always in rotation in a plane that is perpendicular to the monitor plane.
  • the image value being a color value or a grayscale value of a digital image captured by the camera.
  • the screen has a very high resolution, it is possible for each pixel of the camera to receive a different image value (eg, a different color value or gray scale value), thus accurately determining the direction where the corresponding pixel of the camera will look ,
  • the screen defines a unique (world) coordinate system that assigns each pixel a unique 3D coordinate.
  • further exemplary embodiments relate to a method wherein the at least one image value assigns a color value or a grayscale value of a digital image and the image value assignment respectively adjacent pixels of the screen different image values from a plurality of image values such that in at least a part of the screen a unique assignment of Image values allows a location based on the image values.
  • the calibration can be performed as a successive process in which screen portions (for example, horizontal positions and vertical positions) are successively determined. Likewise, it is not necessary that, for example, the entire horizontal extent of a screen is calibrated in one step. Instead, individual sections or periods can be determined, within which an unambiguous assignment takes place, so that, with knowledge of the position of the period on the screen, an unambiguous assignment of the pixel points to the screen points is made possible.
  • step (a) may comprise displaying on the screen at least one period of a periodic pattern of image values, the image value being an image value from the periodic pattern, and step (b) further comprising the steps of: (b1) changing the Image value to a changed image value that is part of the periodic pattern of image values; (b2) detecting the changed image value by the camera; and (b3) determining a difference of the acquired image values and the detected changed image value for the at least one pixel.
  • the step (c) may then include determining the position within a period in a period direction of the periodic pattern for the at least one pixel based on the determined difference.
  • further embodiments include a method comprising the steps of: (d) rotating the periodic pattern of image values on the screen by a predetermined angle; and (e) repeating steps (b1) through (b3) for the rotated periodic pattern.
  • a periodic pattern whose period length extends over the entire screen (for example, if there are enough image values to calibrate all the pixels of the camera in the horizontal direction), such a periodic pattern can be used.
  • the period length can be selected, for example, such that a clear detection of the image values (or the differences between the image values) by the corresponding pixel becomes possible. If several such periods are used, in further steps, a determination of the period in which the particular pixel looks can take place. After determination of the period a clear point correspondence is reached.
  • each period may be characterized by a period offset, the period offset indicating, for example, how many periods the period under consideration is shifted from the fixed point.
  • the period offset is determined according to further embodiments by representing a plurality of periods of the periodic pattern in step (a) and the method further comprising the steps of: (f) displaying a fixed image pattern having a predetermined position on the screen, each Period of the plurality of periods has a period offset relative to the fixed image pattern; (g) acquiring the fixed image pattern by at least one particular pixel of the camera; and (h) assigning the predetermined position to the at least one particular pixel; and (i) determining the period offset of the period for which the position was determined in step (c) based on the predetermined position and the position of the at least one particular pixel determined in step (c). This can be done, for example, by counting the periods that lie between the fixed image pattern and the period (for which the position was determined in step (c)).
  • the predetermined position can be defined for example via a center of the image pattern.
  • the periodic pattern is detected only by a part of the camera and can optionally be represented by a harmonic function.
  • the method may then further include shifting the periodic pattern to another part of the camera, with the part and the other part of the camera partially overlapping; and customizing.
  • combining calibration for the part of the camera with calibration for the other part of the camera can be made so that a common calibration for the union of the part and the other part of the camera is obtained.
  • the distance of the screen and the relative position to the camera need not be measured explicitly. Instead, other embodiments allow determination of the distance of the screen and its location relative to the camera. This can be done, for example, by further executing the following steps in a method: moving the screen or the camera by an amount, so that the at least one pixel of the camera has a different distance to the screen than before the move; and repeating at least steps (b) and (c), ie, detecting and determining the shifted screen. Optionally, part or all of the above steps may also be repeated for the shifted position.
  • the screen may be shifted multiple times, such that for each pixel, a plurality of positions are determined, each relating to different distances of the screen.
  • the number can for example be adapted to the desired calibration quality.
  • the camera either has a fixed focus which remains fixed during the detection steps or a variable focus which is changed by the camera when the screen is moved and / or rotated.
  • each camera pixel can be assigned a straight line that contains all the dots that are mapped to a specific pixel.
  • each pixel can be assigned a set of points that are mapped to a specific pixel, which points can be as close as desired. But even in this case, each pixel can be assigned a direction with a certain focus.
  • the relative position of the individual screen positions among each other is known, it can be achieved by repeating the said steps that it is possible to uniquely determine for each pixel of the camera where each individual pixel of the camera is facing. However, it is often not easy or errory to determine the exact relative position of the individual screen positions among each other (e.g., by measurement).
  • Such a determination is achieved according to further embodiments by the following steps: rotating the screen by a predetermined angle; Repeating at least steps (a) to (d) for the rotated screen position; and determining the direction of the shift of the screen based on a comparison between the result obtained in the unrotated position and the result obtained in the rotated screen position.
  • part or all of the above steps may also be repeated for the rotated position.
  • advantageous embodiments of the present invention are based in particular on a dynamic sequence of a periodic pattern, wherein the period can be selected so that only a small number of image values by the camera must be clearly detectable and a successive determination of the position of the image value, which a pixel of the camera is detected can take place.
  • a windshield of the screen / display may possibly cause a refraction of light, which can lead to a distortion of the underlying pixel positions, which should be taken into account and excluded in the end result. Therefore, in other embodiments, the screen includes a windshield, and the method further includes correcting for distortions caused by the windshield.
  • Embodiments also include a storage medium having a computer program stored thereon and configured to cause a controller to execute a previously described method when running on a processor (processing unit).
  • the storage medium may be a machine-readable medium including mechanisms for storing or transmitting data in a form readable by a machine (e.g., a computer).
  • embodiments include apparatus for calibrating a camera that uses a plurality of pixels to display the image using a screen, the screen having a set of pixels.
  • the apparatus includes the following features: an output module configured to drive the screen so that the screen presents at least one image value in at least one pixel based on an image value assignment; an input module configured to input at least one image value captured by the camera; and a processing module configured to determine the position of the at least one pixel based on the at least one acquired image value and the image value assignment.
  • the device may, for example, be a control module with a processor running the computer program.
  • FIG. 1 shows a flow chart for a method for calibrating a camera
  • FIG. 2 shows a schematic representation of the assignment of screen dots to camera pixels
  • 3 shows an exemplary change of image values of a screen point with time
  • FIG. 7 shows a change in the screen position for determining an optical path
  • Fig. 8 is a conventional calibration pattern
  • Fig. 1 shows a method of calibrating a camera using a screen, wherein the screen has a set of pixels and the camera uses a plurality of pixels to display the image.
  • the method comprises the steps of: displaying S1 10 at least one image value in at least one pixel of the screen based on an image value assignment; Detecting S120 of the at least one image value by a pixel of the camera; and determining S130 the position of the at least one pixel on the screen based on the at least one captured image value and the image value assignment.
  • FIG. 2 shows a representation with further details for the calibration of the camera 110 using the screen 120 according to an embodiment of the present invention.
  • the camera 110 has an image plane 1 13, in which a plurality of camera pixels 112 are arranged.
  • the camera pixels 1 12 can be arrayed on the image plane 113 may be arranged, wherein a first set of camera pixels 1 12 may be arranged along the horizontal line and a second amount along the vertical line.
  • the coordinate system can be defined by the (first) screen position in the present invention.
  • the orientation of the camera towards the screen generally does not matter.
  • the coordinate system can also be chosen differently.
  • the camera 110 may be spaced from the screen 120 along the z-direction, wherein the screen 120 and / or the image plane 1 13 within the camera 110 may extend in the x.y plane.
  • the x-direction may represent the horizontal direction and the y-direction the vertical direction of the recorded scene.
  • the coordinate system may still be chosen differently.
  • the camera 110 may further comprise an optical system 114, through which light signals 1 18 run from the screen 120, in order subsequently to be projected onto the image plane 1 13 of the camera 110.
  • the screen 120 may be divided into a plurality of pixels 122, which may be defined, for example, such that each camera pixel 112 receives light signals from a pixel 122 of the screen 120. If the screen also has pixels, each pixel may include one or more screen pixels.
  • the screen can be, for example, a monitor or display of a computer, a television or another projection device on which, for example, moving images can be displayed.
  • the number of pixels 122 on the screen need not be correlated with the number of camera pixels 112.
  • the number of pixels 122 on the screen 120 may be less than the resolution of the camera 110 (number of camera pixels 112).
  • a correspondingly high-resolution screen 120 is used, which has the same number of (or more) pixels 122 as the number of camera pixels 112.
  • the screen 120 is as high-resolution as possible .
  • a direction is determined from which a given camera pixel 112 receives a light signal or, in other words, in which direction the corresponding camera pixel 112 is looking. If, for example, the light signal along an optical path 1 18 is projected from a first pixel 122a of the screen 120 onto a first camera pixel 1 12a (after passing the optic 1 14), a determination of the location takes place during the calibration of the first camera pixel 11a of the first pixel 122a. Thus, an association of the camera pixel 112a with the position of the first pixel 122a is obtained. This assignment is not only for a first camera pixel 1 12a, but can be done for each camera pixel 112. The calibration thus determines Also, a second camera pixel 112b receives a light signal from a second pixel 122b at a particular position on the screen 120.
  • each individual camera pixel 1 12 it can be determined for each individual camera pixel 1 12 to which pixel 122 this one pixel is looking. It should be noted, however, that the camera pixel 112 itself has no further information regarding adjacent camera pixels or the orientation of the screen 120. In order to be able to determine the position of the pixel 122 independently of all other information, the corresponding image value represented by the pixel 122 is determined. If, for example, all the pixels 122 of the screen 120 represent a different image value (for example, an own gray value or color value) and the camera 110 is designed to determine all displayed image values, a calibration of all the camera pixels 1 12 can already take place by a single acquisition of the screen 120 ,
  • each pixel 122 changes over time the image value BW shown.
  • the change may, for example, be periodic, and upon passage of the period, it may be determined which image value was initially displayed on the respective pixel 122 (assuming the period is known).
  • the optical path 118 is unique given that all optical paths in a point of optics (or lens) 1 14 cut. However, even if all paths intersect in one point, one generally does not know this intersection and can not calculate straight lines. NEN. In such a case, the calibration could also be done with fewer steps. Since these conditions are often not met, the calibration will take place in several steps, which will be described in more detail below (see FIG. 7).
  • FIG 3 shows an exemplary embodiment in which different image values BW1 to BW6 are traversed at a specific pixel 122a over time t.
  • a first image value BW1 can be displayed on the specific pixel 122a for a first time t1.
  • a second time t2 there is a change to a second image value BW2
  • a third time t3 a change takes place to a third image value BW3, etc., up to a sixth time t6, where a change to a sixth image value BW6 occurs.
  • the image values BW can be traversed in reverse order (for example decreasing again), until the eleventh time t11 again changes to the first image value BW1.
  • image values BW can increase uniformly and relate, for example, to different gray levels or to color values. It is only important that the image values BW are different, it being advantageous if the changes between the image values BW are strong enough so that the camera 110 can detect the change. From the acquisition of all image values BW within the one period from the first time t1 to the eleventh time t11, it is possible to determine which image value BW was displayed at the starting time on the corresponding pixel.
  • the pixels 122 of the screen 120 are shown horizontally. In this example, there are 80 pixels. These 80 pixels may, for example, refer to the horizontal pixels of the screen 120 or to the vertical pixels or in any other direction. These 80 pixels are subdivided by way of example into 8 periods p, with each period showing 10 image values.
  • the time is shown vertically, so that the 80 pixels at a first time t1 show the image 1 and at a tenth time t10 show the image 10.
  • Each period p shows 10 image values, starting in image 1 with the first image value BW1 (white), the second image value BW2 up to the sixth image value BW6 (black) and then falling from the fifth image value BW5 until the first image value BW1 is reached again.
  • the pattern is similar to the pattern shown in FIG. However, it may be different in other embodiments.
  • this one pixel 122a shows the fifth image value BW5 at the first time t1.
  • the first image value BW1 (white) is displayed, and at the tenth time t10, the fourth image value BW4 is displayed.
  • the period having the period width 10 is traversed once. Based on the knowledge of this particular period, it is possible to determine which image value was displayed at the start time t1 on the corresponding pixel.
  • the six image values shown may refer to gray levels, for example, an 8-bit grayscale pattern being representable (i.e., having a size of 256 image values from 0 (black color) to 255 (white color)).
  • Fig. 5 shows an embodiment of the aforementioned periodic pattern. Grayscale values were again used for illustration. However, (other) color values can also be used.
  • the periodicity runs along the vertical direction, in which example more than eight periods are shown. In other embodiments, any number of periods may be represented.
  • the number of periods can be chosen such that the difference between the image values within a period to neighboring pixels is so large that it can be clearly detected by the corresponding camera. For example, the difference between adjacent image values should be so great that, as they pass through the individual images, as can be seen in FIG. 4, the jumps in the image values BW1, BW2,... Can be detected unambiguously by the camera.
  • the number of periods can be selected depending on the specific camera (eg, their resolution) or the screen and the external conditions. As previously mentioned, it is not yet possible to determine in which period (eg in which of the eight periods of FIG. 4) the particular pixel 122a is located. This can be done, for example, by detecting at least one further pixel for which the exact horizontal and vertical period offset on the screen is known. The absolute period position of a period is known, if this one point is known. Using the known period pattern, the period offsets of all other periods relative to the known period can be determined from the absolute period position of a specific period. Thus, the (absolute) positions of all screen points are known.
  • a pattern is shown on the screen 120 (in front of a background 220), which represents a specific image value at a pixel 124 (calibration pixel).
  • a predetermined number of pixels for example adjacent pixels
  • the calibration pixel 124 is shown in the fourth vertical period and the sixth horizontal period.
  • this pattern is now detected by the camera 110, only one pixel or set of pixels will capture the calibration pixel 124. If the calibration pixel comprises several pixels, a center 125 can be determined, which can then be assigned to only one camera pixel. Thus, when this is accomplished, it is clear that the one camera pixel that has captured the calibration pixel 124 (or its midpoint 125) is "looking" (or its midpoint 125) towards the exemplary fourth vertical period and sixth horizontal period, and thus After the absolute phase (ie, not just within a period) of the pixel 124 having the one calibration image has been accurately captured on the screen 120, the phase of the pixel 124 is known With the well-known periodic pattern, the position of any other period relative to the one known period is also known, so it is also known for all other pixels in which period they "looked" at the previous determination.
  • the first (or any other) position of the screen 120 defines a global (calibration) coordinate system. For example, such that the screen 120 lies in the x.y plane and the z-direction represents the surface normal.
  • the camera 110 receives a light signal 118 from a particular pixel 122a on the screen 120.
  • the camera 110 detects the displayed gray level value (or any other image value) from the sweep of the periodic pattern (see FIGS. 4 and 5).
  • the period offset can be determined by using the calibration pattern as shown in FIG. 6.
  • the screen 120 is shifted (and / or rotated) along a direction z s to a new position 120i and the procedure described above is repeated (see FIGS. 4 to 6).
  • the translation direction z s is not necessarily parallel to the z-axis, and the z-axis may be defined as the direction parallel to the surface normal on the original screen 120 (before translation).
  • a screen point 122i is again determined for the new screen position 120i, which is projected on the same pixel 1 12a in the camera 110.
  • a relative angle of the screen to the z-axis may be determined as follows.
  • the screen 120 is rotated by a predetermined angle and again shifted relative to the camera 1 10 along the rotated axis. The measurement is repeated for such a rotated coordinate system.
  • FIG. 5 shows a snapshot of a monitor image for calibrating the camera 110.
  • the camera 110 is positioned, for example, in such a way that the monitor 120 is visible through the camera 110.
  • a horizontal periodic pattern for example in the form of a sine function
  • This pattern is advanced in equidistant steps (for example, four to as many as desired, preferably eight to ten) by a total of one period.
  • Each pixel of the camera 110, which is currently viewing the monitor 120 now sees a gray value oscillation shifted by a certain phase due to the shift. This phase shift (between 0 and 2 ⁇ ) can be calculated back from the recorded gray values.
  • the monitor 120 Since the monitor 120 displays several gray scale periods, it is finally only necessary to determine the phase position. This can be done by means of the display of another image (the calibration image, as shown in FIG. 6).
  • This calibration image comprises a mark of a known phase position, which may for example be the center of the screen 120 or may also comprise any other point of the screen - it should only be known exactly. Then it is possible to easily determine adjacent phases.
  • the steps shown can also be repeated vertically, so that a calibration with respect to the vertical direction is also possible.
  • the monitor screen position can then also be converted to mm and specified in a world coordinate system W.
  • the origin of the world coordinate system W may be at the center of the monitor 120, with the x-axis after to the right and the y-axis points downwards, and the z-axis is perpendicular thereto, ie a surface normal of the monitor plane is (in the Fig. 7 to the rear).
  • the monitor 120 (or equivalent to the camera 1 10) is moved on a linear guide rail by a certain amount 5 z s, for example, in an unknown direction.
  • the x and y values associated with the monitor pixel 122 are calculated as before, but the z coordinate is measured along the unknown displacement direction.
  • the missing transformation between the sheared coordinate system S and the world coordinate system W which can be used to transform the calibration into a rectangular coordinate system, can be determined by recording further monitor positions. These other monitor positions are not parallel to the calibration positions. At best, the monitor 120 is simply rotated by a certain angle about its vertical axis of symmetry and again shifted on the linear guide rail. The unknown direction zs can now be determined from this data.
  • the calibration is no longer based on a model whose parameters are to be determined. It is simply determined for each pixel of the camera 1 10 (about 1 to 5 million), which world points it sees.
  • the result of the calibration is thus a look-up table in which, for each camera pixel 112, a set of points which are mapped onto this pixel are stored. In the simplest case, these are in each case straight lines, for example if the camera focus was not changed during the calibration.
  • the number of dot correspondences used to determine the imaging characteristics of the overall system of camera, lenses, and optical elements is significantly greater in this process. For example, it can be a multiple of the number of camera pixels, that is, several millions, compared to 100 to 1000 in conventional methods based on a model. The time to determine these correspondences is of comparable magnitude.
  • 9A shows a further embodiment in which the method described above is not used to calibrate a single camera but is used to calibrate a unit of at least two cameras 110, 120, wherein the plurality of cameras 110, 120 are in fixed relation to one another stands.
  • the fixed relation for example, defines the relative position and orientation of the first camera 110 and the second camera 120, and is achieved by attaching the cameras 110, 120 to the guide rail 150.
  • the distance and / or relative tilt between the first camera 110 to the second camera 120 may be predetermined. Shown are only two cameras 110, 120. However, it should be understood that this method is applicable to any number of cameras. With the method, all cameras can be automatically calibrated in the same coordinate system, as they all look at the same positions of the monitor 120 used.
  • the cameras 1 10, 210 simultaneously capture the image value of a monitor pixel 122, the first camera 110 with the camera pixel 122, and the second camera 210 with the camera pixel 212.
  • One of the monitor positions in a preferred embodiment, the first monitor position, defines that for all cameras 1 10, 120 same calibration coordinate system.
  • the origin of the calibration coordinate system lies in the center of the image plane of the first monitor position, the x-axis points horizontally to the right, the y-axis points vertically downward, and the z-axis is perpendicular to the monitor plane and points into it (ie along the guide rail 150).
  • each camera were calibrated in its own calibration coordinate system (and not as a unit), the relative transformations between the individual calibration or camera coordinate system would have to be determined after the actual calibration. According to this embodiment, this step is omitted, which is an advantage. In addition, higher accuracy of the overall system is achieved, which can be used, for example, for triangulating points in space (e.g., in stereoscopic or 3D cameras).
  • the direction of the linear guide rail 150 in the - preferably defined by the first monitor position Kalibrierkoordinatensystem - is not known (see, for example, Fig.7 or Fig. 9). While the z-axis of the Kalibrierkoordinatensystem is perpendicular to the image plane, the monitor 120 and the camera 110 moves by means of linear guide rail 150 is not exactly in the z-direction of the Kalibrierkoordinatensystems, but in an initially unknown direction. If the monitor pixels of the different monitor positions are always assigned the same x and y coordinates, the camera 110 or the cameras 1 10, 120 are first calibrated in a sheared calibration coordinate system whose z-axis is parallel to the direction of the linear guide rail 150.
  • Embodiments make it possible to determine the direction of the linear guide rail 150 in the calibration coordinate system in order to transfer the line of sight of the individual camera pixels 122, 212 from the sheared to the Cartesian calibration coordinate system.
  • the monitor is rotated by an unknown angle after recording the actual calibration positions and again in this new angular position with the aid of the linear guide rail 150 brought in at least one, preferably in a plurality of positions and in turn displayed and recorded the described calibration pattern.
  • the position of the monitor pixels seen by the individual camera pixels 112, 212 that appear distorted in the sheared calibration coordinate system can be unequivocally closed by means of suitable algorithms on the direction of the linear guide rail 150 and thus the shear of the calibration coordinate system can be corrected.
  • FIG. 9B shows an exemplary embodiment for determining refractive properties of a screen 120.
  • an uncalibrated camera 1 10 captures at least one pixel of the screen 120. Subsequently, the camera 110 is rotated about an axis of rotation (at an angle a), which is preferably in a vicinity or at the image plane of the screen 120. Thereafter, the camera 1 10 again detects the pixel, which has moved due to the refraction spatially on the screen surface. Finally, the refractive properties are determined from the observed shift of the pixel.
  • the refractive properties include, for example, a refractive index and / or a thickness of the refractive layer.
  • This exemplary embodiment therefore takes into account the fact that a protective layer (front pane or coating) can still be located above the radiation-generating elements of the monitor 120 whose refractive properties ensure that the underlying monitor pixels are slightly shifted from the camera 110 to be calibrated Be seen. This effect increases as the angle a increases as the viewing beam of a camera pixel views the monitor 120. This shift can be corrected if the refractive properties of the protective layer - such as its thickness and refractive index - are known.
  • the embodiment shown in FIG. 9B precisely measures the refractive properties of the protective layer of the monitor used with the aid of the uncalibrated camera.
  • the uncalibrated camera 220 is mounted on a turntable 140, the axis of rotation of which is preferably near or at the image plane of the monitor 120 to be measured.
  • the uncalibrated camera 110 subsequently views the monitor under known conditions a, with the monitor 120 showing the known horizontal and vertical patterns. From the amount of monitor pixel positions that a single camera pixel has identified at different angles in this way, one can clearly conclude the refractive properties of the protective layer. For example, up to 10 or 40 or more angles can be measured, the invention not being limited to the specific number of angles.
  • each camera pixel 112 is assigned a unique line of sight, ie that the set of all points imaged on the same camera pixel 112 lies exactly on a straight line. This assumption is only correct if the focus of the camera 1 10 is fixed and does not change between calibration and use. If the focus of the camera 1 10 changed or this is operated with automatic readjustment of the focus, this assumption is no longer true.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)

Abstract

The invention relates to a method for calibrating a camera (110) using a screen (120), said screen (120) having a number of image points (122) and said camera (110) using a plurality of pixels (112) to depict the image. The method comprises the following steps: (a) depicting at least one image value (BW) in at least one image point (122) of the screen (120), on the basis of an image value assignment; (b) capturing the at least one image value (BW) using a pixel (112a) of the camera (110); and (c) determining the position of the at least one image point (122) on said screen (120), on the basis of the at least one captured image value (BW) and the image value assignment. The method also comprises the step of displacing the screen (120) or the camera (110) in one direction by a certain amount such that the at least one image point (122) is at a different distance from the pixel (112a) of the camera (110) than it was prior to the displacement, and repeating at least steps (b) and (c) for the displaced screen (120i). The camera (110) has a variable focus during displacement of the screen (120) relative to the camera (110), and the method also comprises the step of storing an assignment relating to the pixel (112) and the positions of the at least one image point (122) for different displaced screen positions (120i).

Description

Verfahren und Vorrichtung zur Kalibration einer Kamera  Method and device for calibrating a camera
Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung zur Kalibration einer Kamera und insbesondere eine nicht-modellbasierte Kalibration von Kameras mit Hilfe eines Monitors. The present invention relates to a method and apparatus for calibrating a camera, and more particularly to non-model based calibration of cameras using a monitor.
Hintergrund background
Digitalkameras nutzen in der Regel einen CCD-Sensor oder einen CMOS-Sensor, um ein Bild durch eine Vielzahl von Pixeln zu erfassen. Für viele Anwendungsgebiete ist es nicht ausreichend, lediglich ein digitales Bild zu erfassen. Vielmehr sind Informationen wünschenswert, wie beispielsweise aus welchen Richtungen die einzelnen Pixel der Kamera Licht empfangen. Um dies zu erreichen, wird eine Kalibration der Kamera genutzt, die beispielsweise einen optischen Pfad einem Pixel zuordnet. Damit wird es möglich, in einer bestimmten Bildfläche (z.B. senkrecht zu Blickrichtung) für jeden Pixel die Position eines er- fassten Bildpunktes festzustellen. Somit bestimmt die Kalibration jene Punkte, die ein bestimmtes Kamerapixel betrachtet bzw. welcher Punkt der betrachteten Szene, auf welches Kamerapixel abgebildet wird. Der Einsatz von Kameras zum Zweck der industriellen oder nicht-industriellen (z. B. medizinischen) Bildverarbeitung hängt in der Regel maßgeblich davon ab, wie genau die dabei eingesetzten Kameras kalibriert werden können.  Digital cameras typically use a CCD sensor or a CMOS sensor to capture an image through a plurality of pixels. For many applications, it is not sufficient to capture only a digital image. Rather, information is desirable, such as from which directions the individual pixels of the camera receive light. To achieve this, a calibration of the camera is used, which, for example, associates an optical path with a pixel. This makes it possible to determine the position of a detected pixel for each pixel in a certain image area (for example perpendicular to the viewing direction). Thus, the calibration determines those points which a particular camera pixel is viewing or which point of the scene under consideration onto which camera pixels are imaged. The use of cameras for the purpose of industrial or non-industrial (eg medical) image processing usually depends largely on how accurately the cameras used can be calibrated.
Der momentane Stand der Technik zur Kalibration von Kameras beruht auf der Grundannahme, dass sich die zu kalibrierende Kamera ausreichend genau durch ein Lochkameramodell beschreiben lässt. In diesem Modell gibt es ein eindeutiges Projektionszentrum, durch das alle Geraden verlaufen, die den einzelnen Kamerapixeln zugeordnet werden. Darüber hinaus setzen diese Modelle meist voraus, dass die reale Szene weitestgehend unverzerrt auf die Bildebene der Kamera abgebildet wird. Bestenfalls wird ein weiteres Modell zur Beschreibung radialer und tangentialer Linsenverzerrungseffekte verwendet.  The current state of the art for calibrating cameras is based on the basic assumption that the camera to be calibrated can be described sufficiently accurately by a hole camera model. In this model, there is a unique projection center, through which all the lines that are assigned to the individual camera pixels run. In addition, these models usually require that the real scene is largely undistorted on the image plane of the camera. At best, another model is used to describe radial and tangential lens distortion effects.
Das Gesamtmodell zur Beschreibung der Abbildungseigenschaften einer Kamera beruht auf sechs extrinsischen Parametern (drei rotatorische und drei translatorische Freiheitsgrade), die zur Beschreibung der Transformation vom Weltkoordinatensystem ins Kamerakoordinatensystem dienen, und fünf intrinsischen Parametern, die zur Beschreibung der perspektivischen Projektion auf ein Projektionszentrum hin dienen. Die radiale Linsenverzerrung wird üblicherweise mit zwei bis drei Parametern, die tangentiale mit zwei Parametern beschrieben. Das Gesamtmodell umfasst somit 16 zu kalibrierende Parameter, von denen in der Regel aber nur 12 zur Anwendung kommen. Zur Bestimmung dieser Parameter werden beispielsweise Muster, die Punkte mit bekannten 3-dimensionalen (3D) Weltkoordinaten darstellen, vor die Kamera gehalten und die dazugehörigen 2-dimensionalen (2D) Bildkoordinaten, die diese Punkte darstellen, werden bestimmt. Mittels einer Optimierung werden aus diesen Punktkorrespondenzen (3D <=> 2D) dann die unbekannten Parameter des Modells berechnet. Häufig werden dabei drei bis zehn Aufnahmen eines ebenen Kalibrationsmusters mit ca. 50 bis 250 eindeutig bestimmbaren Feature-Punkten verwendet. The overall model for describing the imaging properties of a camera is based on six extrinsic parameters (three rotational and three translatory degrees of freedom) used to describe the transformation from the world coordinate system to the camera coordinate system and five intrinsic parameters used to describe the perspective projection onto a projection center. The radial lens distortion is usually described with two to three parameters, the tangential with two parameters. The total model thus includes 16 parameters to be calibrated, of which, however, only 12 are usually used. To determine these parameters, for example, patterns representing points with known 3-dimensional (3-D) world coordinates are held in front of the camera and the associated 2-dimensional (2-D) image coordinates representing these points are determined. By means of an optimization, the unknown parameters of the model are then calculated from these point correspondences (3D <=> 2D). Frequently, three to ten images of a flat calibration pattern with approximately 50 to 250 uniquely definable feature points are used.
Derartige Modelle sind beispielsweise in R.Y. Tsai:„A Versatile Camera Calibration Tech- nique for High-Accuracy 3D Machine Vision Metrology using Off-the-Shelf TV Cameras and Lenses" und in Z. Zhang: "A Flexible New Technique for Camera Calibration" beschrieben. Um die Parameter dieser Modelle zu berechnen, werden wenige (meist unter 1000) Punktkorrespondenzen zwischen bekannten Weltpunkten und deren Pixelposition im Kamerabild verwendet.  Such models are described, for example, in R.Y. Tsai: "A Versatile Camera Calibration Technique for High-Accuracy 3D Machine Vision Metrology Using Off-the-Shelf TV Cameras and Lenses" and Z. Zhang: "A Flexible New Technique for Camera Calibration" To calculate models, few (usually less than 1000) point correspondences between known world points and their pixel position are used in the camera image.
Die Fig. 8 zeigt ein Kalibrationsmuster, welches zur Bestimmung der Punktkorrespondenzen genutzt wird und eine Vielzahl von schwarzen Punkten auf einer weißen Fläche darstellt. Das Kalibrationsmuster wird von der Kamera erfasst, wobei die Kamerapixel entweder einen weißen Bildschirmhintergrund oder aber einen darauf abgebildeten schwarzen Punkt erfassen. Um weiter bestimmen zu können, welcher der schwarzen Punkte erfasst wurde, sind in einem zentralen Bereich ein erster Eichpunkt 501 , ein zweiter Eichpunkt 502 und ein dritter Eichpunkt 503 gezeigt. Die Eichpunkte 501 bis 503 definieren ein lokales Koordinatensystem, bezüglich dessen die Koordinaten der Mittelpunkte aller Kreise - beispielsweise durch einfaches Abzählen der schwarzen Punkte hin zu den Eichpunkten - bestimmt werden. Nachdem die Punktkorrespondenzen bestimmt wurden, werden die entsprechenden Modelle genommen, um die Parameter zu bestimmen.  FIG. 8 shows a calibration pattern which is used to determine the point correspondences and represents a plurality of black dots on a white surface. The calibration pattern is captured by the camera, with the camera pixels detecting either a white screen background or a black dot imaged thereon. In order to be able to further determine which of the black dots was detected, a first calibration point 501, a second calibration point 502 and a third calibration point 503 are shown in a central area. The calibration points 501 to 503 define a local coordinate system with respect to which the coordinates of the centers of all circles are determined, for example by simply counting the black points to the calibration points. After the point correspondences have been determined, the corresponding models are taken to determine the parameters.
Ein ähnliches Kalibrationsverfahren ist in DE 10 2010 031 215 beschrieben, wo ein dreidimensionales Objekt zur Kalibration genutzt wird, wobei ein Modell für eine Intensitätsverteilung des genutzten CCD-Chips zugrunde gelegt wird und die Kalibration die Modell- Koeffizienten bestimmt. Ein weiteres konventionelles Verfahren ist in der DE 197 27 281 C1 beschrieben, wo eine dreidimensionale Teststruktur mittels eines Hologramms erzeugt und unter Annahme einer idealisierten Kameraoptik zur Kalibrierung genutzt wird.  A similar calibration method is described in DE 10 2010 031 215, where a three-dimensional object is used for calibration, based on a model for an intensity distribution of the used CCD chip and the calibration determines the model coefficients. Another conventional method is described in DE 197 27 281 C1, where a three-dimensional test structure is generated by means of a hologram and is used for calibration, assuming idealized camera optics.
Die genannten konventionellen Kalibrationsverfahren beschreiben zwar durch relativ wenige Parameter (beispielsweise zehn bis sechszehn) die Abbildungseigenschaften einer Kamera, sie besitzen jedoch die folgenden Nachteile: (a) Die verwendeten Parameter, die die radiale und tangentiale Linsenverzerrung modellieren, reichen in der Regel nicht aus, um wahre Abbildungseigenschaften des Linsensystems zu beschreiben. Insbesondere kommt es häufig in Randbereichen eines Bildes vor, dass Abweichungen zu dem idealisiert-angenommenen Linsensystem auftreten. Although the aforementioned conventional calibration methods describe the imaging properties of a camera by relatively few parameters (for example ten to sixteen), they have the following disadvantages: (a) The parameters used to model the radial and tangential lens distortion are usually not sufficient to describe true imaging properties of the lens system. In particular, it often happens in the peripheral areas of an image that deviations from the idealized-assumed lens system occur.
(b) Stark verzerrende Linsen oder Linsensysteme (beispielsweise Fischaugenobjektive) oder Kameras mit davor angebrachten optischen Filtern (wie beispielsweise reflektierende oder brechende Oberflächen) lassen sich mit den üblichen Parametern nicht oder mit anderen Modellen häufig nur unzureichend beschreiben. Eine modellhafte Beschreibung mit Parametern ist außerdem umständlich, da für jedes Gesamtsystem aus Kamera, Linsen und weiteren optischen Elementen ein eigenes Modell entwickelt werden muss.  (b) Highly distorting lenses or lens systems (such as fisheye lenses) or cameras with optical filters placed in front of them (such as reflecting or refracting surfaces) can not be adequately described with the usual parameters or with other models. A model description with parameters is also cumbersome because a separate model has to be developed for each complete system of camera, lenses and other optical elements.
(c) Die Anzahl von Punktkorrespondenzen, die zur Optimierung der Parameter des zugrundeliegenden Modells verwendet werden, liegt meist in einem Bereich von 100 bis 1000. Im Vergleich zur Anzahl der Pixel der zu kalibrierenden Kamera, die in einem Bereich zwischen 1 bis 5 Millionen oder noch mehr Pixeln liegen kann, ist dies häufig zu wenig.  (c) The number of dot correspondences used to optimize the parameters of the underlying model is usually in a range of 100 to 1000. Compared to the number of pixels of the camera to be calibrated, ranging from 1 to 5 million or even more pixels can be, this is often too little.
(d) Die Aufnahme der Bilder von mehreren, zufällig gewählten Positionen eines Kalibrati- onsmusters garantiert keine gleichmäßige Verteilung der Punktkorrespondenzen über das gesamte Bild der Kamera. Insbesondere liegen meist wenige Punktkorrespondenzen in den Randbereichen des Bildes vor.  (d) Taking pictures from multiple, randomly selected positions of a calibration pattern does not guarantee even distribution of dot correspondences over the entire image of the camera. In particular, there are usually few point correspondences in the edge regions of the image.
Der vorliegenden Erfindung liegt die Aufgabe zugrunde, ein Verfahren und eine Vorrichtung zur Kalibration einer Kamera zu schaffen, die die zuvor genannten Nachteile überwinden und eine höhere Genauigkeit und verbesserte Flexibilisierung der Kalibration von Kameras erreicht. Es sollen neue und unkonventionelle Lösungen ermöglicht werden.  It is an object of the present invention to provide a method and apparatus for calibrating a camera that overcomes the aforementioned disadvantages and achieves greater accuracy and flexibility of camera calibration. New and unconventional solutions should be made possible.
Zusammenfassung Summary
Die oben genannte Aufgabe wird durch das Verfahren zur Kalibration nach Anspruch 1 oder eine Vorrichtung nach Anspruch 15 gelöst. Die abhängigen Ansprüche geben vorteilhafte Ausführungsformen des Gegenstands des Anspruchs 1 wieder.  The above object is achieved by the method of calibration according to claim 1 or an apparatus according to claim 15. The dependent claims give advantageous embodiments of the subject matter of claim 1 again.
Die vorliegende Erfindung bezieht sich auf ein Verfahren zur Kalibration einer Kamera unter Nutzung eines Bildschirmes, wobei der Bildschirm eine Menge von Bildpunkten aufweist und die Kamera eine Vielzahl von Pixeln zur Darstellung des Bildes nutzt. Das Verfahren umfasst die folgenden Schritten: (a) Darstellen zumindest eines Bildwertes in zumindest einem Bildpunkt des Bildschirms basierend auf einer Bildwertzuweisung; (b) Erfassen des zumindest einen Bildwertes durch ein Pixel der Kamera; und (c) Bestimmen der Position des zumindest einen Bildpunktes auf dem Bildschirm basierend auf dem zumindest einen erfassten Bildwert und der Bildwertzuweisung. Das Verfahren umfasst weiter ein Verschieben des Bildschirmes oder der Kamera in eine Richtung um einen Betrag, sodass der zumindest eine Bildpunkt eine andere Entfernung zu dem Pixel der Kamera aufweist als vor dem Verschieben, und ein Wiederholen zumindest der zuvor genannten Schritte für den verschobenen Bildschirm. Die Kamera umfasst einen variablen Fokus beim Verschieben des Bildschirmes relativ zu der Kamera, und das Verfahren umfasst weiter ein Abspeichern einer Zuordnung bezüglich des Pixels und der Positionen des zumindest einen Bildpunktes für verschiedene verschobene Bildschirmpositionen. The present invention relates to a method of calibrating a camera using a screen, wherein the screen has a set of pixels and the camera uses a plurality of pixels to display the image. The method comprises the following steps: (a) displaying at least one image value in at least one pixel of the screen based on an image value assignment; (b) detecting the at least one image value by a pixel of the camera; and (c) determining the position of the at least a pixel on the screen based on the at least one captured image value and the image value assignment. The method further comprises shifting the screen or the camera in one direction by an amount such that the at least one pixel is at a different distance from the pixel of the camera than before the shifting, and repeating at least the aforementioned steps for the shifted screen. The camera includes a variable focus when moving the screen relative to the camera, and the method further comprises storing an association with the pixel and the positions of the at least one pixel for different shifted screen positions.
Somit wird gemäß der vorliegenden Erfindung zur Kalibration der Kamera kein Modell genutzt, vielmehr werden die Pixel der Kamera einzeln kalibriert. Es versteht sich, dass die Positionsbestimmung voraussetzt, dass die Position des erfassten Bildwertes auf dem Bildschirm bekannt ist. Dies geschieht durch die Bildwertzuweisung, die festlegt, welcher Bildwert an welcher Position auf dem Bildschirm dargestellt wird. Die Bildpunkte können jedoch auch selbst aus Bildschirmpixeln aufgebaut sein, d.h. ein Bildpunkt kann aus einem oder mehreren Bildschirmpixeln bestehen.  Thus, according to the present invention, no model is used to calibrate the camera, but the pixels of the camera are individually calibrated. It is understood that the position determination requires that the position of the detected image value on the screen is known. This is done by the image value assignment, which determines which image value is displayed at which position on the screen. However, the pixels themselves may be constructed of screen pixels, i. A pixel can consist of one or more screen pixels.
Der Erfindungsgegenstand löst die oben genannte technische Aufgabe, indem jedes einzelne Kamerapixel unabhängig von allen anderen Pixeln (nicht modellbasiert) kalibriert wird, und zwar mit Hilfe eines Bildschirmes. Insbesondere ist es somit möglich, einen handelsüblichen Bildschirm (beispielsweise Monitor, Fernseher oder ein anderes Display), vorzugsweise mit möglichst hoher Auflösung, zu nutzen. Die einzige Voraussetzung ist, dass er in der Lage ist, ein entsprechendes Kalibrationsmuster zu erzeugen. Die vorliegende Erfindung beinhaltet somit ein neues, monitorbasiertes und parameterfreies Verfahren zur Kalibration von Kameras.  The subject invention solves the above-mentioned technical problem by calibrating each individual camera pixel independently of all other pixels (not model-based) with the aid of a screen. In particular, it is thus possible to use a commercially available screen (for example monitor, television or another display), preferably with the highest possible resolution. The only requirement is that he is able to generate a corresponding calibration pattern. The present invention thus includes a new, monitor-based and parameter-free method for calibrating cameras.
Im Gegensatz zu dem konventionellen Verfahren, die zur Kalibration ein bestimmtes Modell zugrunde legen, dessen Parameter zu bestimmen sind, wird erfindungsgemäß für jedes Pixel der Kamera bestimmt, von welchem Weltpunkt oder von welchen Weltpunkten es Lichtsignale erhält (d.h. wohin es sieht). Das Resultat der Kalibration kann beispielsweise in eine Tabelle (z.B. einen Lookup-Table) geschrieben werden, indem für jedes Kamerapixel eine Menge von Punkten gespeichert ist, die auf dieses Pixel abgebildet werden. Im einfachsten Fall handelt es sich dabei jeweils um Geraden für jedes Pixel, sofern der Kamerafokus bei der Kalibration nicht verändert wird.  In contrast to the conventional method, which uses a specific model for calibration, whose parameters are to be determined, it is determined according to the invention for each pixel of the camera, from which world point or from which world points it receives light signals (i.e., where it sees). For example, the result of the calibration may be written to a table (e.g., a lookup table) by storing for each camera pixel a set of points mapped to that pixel. In the simplest case, these are in each case straight lines for each pixel, provided the camera focus is not changed during the calibration.
Die für ein bestimmtes Pixel der Kamera definierten Schritte (a) bis (c) können parallel für alle Pixel der Kamera bzw. für einen diskreten Satz von Pixeln der Kamera durchgeführt werden. Nachdem die Kalibration von einem diskreten Satz von Pixeln durchgeführt wurde, kann beispielsweise eine Interpolation genutzt werden, um auch die dazwischenliegenden Pixel eindeutig zuzuordnen. Die Interpolation kann aber auch genutzt werden, um subpixel-genau die Zuordnung durchzuführen. Je mehr Bildkorrespondenzen Bildpunkt/Pixel der Kamera ermittelt werden, je genauer ist das Resultat, aber gleichzeitig erhöht sich damit auch der Rechenaufwand, der zur Kalibration aller Pixel erforderlich ist. The steps (a) to (c) defined for a particular pixel of the camera may be performed in parallel for all pixels of the camera or for a discrete set of pixels of the camera. After the calibration has been performed by a discrete set of pixels, For example, an interpolation can be used to unambiguously assign the intervening pixels as well. However, the interpolation can also be used to perform subpixel-exact mapping. The more image correspondence pixel / pixel of the camera are determined, the more accurate the result, but at the same time also increases the computational effort required to calibrate all pixels.
Die vorliegende Erfindung bezieht sich auch auf ein Verfahren zur Kalibration einer Einheit aus einer ersten Kamera und einer zweiten Kamera unter Nutzung eines Bildschirmes, wobei der Bildschirm eine Menge von Bildpunkten aufweist und die erste Kamera eine Vielzahl von Pixeln zur Darstellung eines Bildes nutzt und die zweite Kamera eine Vielzahl von Pixeln zur Darstellung eines Bildes nutzt und die erste und zweite Kamera in einer vorbestimmten Relation zueinander stehen. Das Kalibrieren umfasst die Schritte: (a) Darstellen zumindest eines Bildwertes in zumindest einem Bildpunkt des Bildschirms basierend auf einer Bildwertzuweisung; (b) Erfassen des zumindest einen Bildwertes durch einen Pixel der ersten Kamera und durch einen Pixel der zweiten Kamera; und (c) Bestimmen der Position des zumindest einen Bildpunktes auf dem Bildschirm basierend auf dem zumindest einen erfassten Bildwert (BW) und der Bildwertzuweisung. Es versteht sich, dass dieses Verfahren nicht auf zwei Kameras eingeschränkt ist. Vielmehr können damit auch eine Vielzahl von Kameras parallel kalibriert werden.  The present invention also relates to a method of calibrating a unit of a first camera and a second camera using a screen, wherein the screen has a set of pixels and the first camera uses a plurality of pixels to display an image and the second Camera uses a plurality of pixels for displaying an image and the first and second camera are in a predetermined relation to each other. The calibration comprises the steps of: (a) displaying at least one image value in at least one pixel of the screen based on an image value assignment; (b) detecting the at least one image value by a pixel of the first camera and by a pixel of the second camera; and (c) determining the position of the at least one pixel on the screen based on the at least one captured image value (BW) and the image value assignment. It is understood that this method is not limited to two cameras. Rather, so that a variety of cameras can be calibrated in parallel.
Die vorliegende Erfindung bezieht sich auch auf ein Verfahren zum Ermitteln einer Verschiebungsrichtung eines Bildschirmes relativ zu einer Kamera. Das Verfahren umfasst (A) Kalibrieren der Kamera unter Nutzung eines Bildschirmes, wobei der Bildschirm eine Menge von Bildpunkten aufweist und die Kamera eine Vielzahl von Pixeln zur Darstellung eines Bildes nutzt und das Kalibrieren die folgenden Schritte umfasst: (a) Darstellen zumindest eines Bildwertes in zumindest einem Bildpunkt des Bildschirms basierend auf einer Bildwertzuweisung; (b) Erfassen des zumindest einen Bildwertes durch einen Pixel der Kamera; und (c) Bestimmen der Position des zumindest einen Bildpunktes auf dem Bildschirm basierend auf dem zumindest einen erfassten Bildwert und der Bildwertzuweisung; (j) Verschieben des Bildschirmes oder der Kamera entlang der Verschiebungsrichtung um einen Betrag, sodass der zumindest eine Bildpunkt eine andere Entfernung zu dem Pixel der Kamera aufweist als vor dem Verschieben, und (g) Wiederholen zumindest der Schritte (b) und (c) für den verschobenen Bildschirm (120i). Das Verfahren umfasst weiter: (B) Drehen der Verschiebungsrichtung oder des Bildschirmes, sodass die Kamera relativ zum Bildschirm entlang einer anderen Verschiebungsrichtung verschiebbar ist; (C) Wederholen der Kalibrierung gemäß der Schritte (A); und (D) Ermitteln der Verschiebungsrichtung aus einem Vergleich der Kalibrierungen (A) und (C). Die vorliegende Erfindung bezieht sich auch auf ein Verfahren zum Ermitteln von Brechungseigenschaften einer Schutzschicht (z.B. Frontscheibe oder Beschichtung) eines Bildschirmes unter Nutzung einer unkalibrierten Kamera, wobei die Kamera eine Vielzahl von Pixeln zur Darstellung eines Bildes nutzt ist und der Bildschirm eine Menge von Bildpunkten aufweist. Das Verfahren umfass die folgenden Schritte: (A) Darstellen zumindest eines Bildwertes in zumindest einem Bildpunkt des Bildschirms; (B) Erfassen des zumindest einen Bildwertes durch einen Pixel der Kamera; (C) Drehen der Kamera oder des Bildschirmes um eine Drehachse um einen Winkel; (D) Erfassen des zumindest einen Bildwertes durch den Pixel der Kamera; und (E) Ermitteln der Brechungseigenschaften aus einer räumlichen Verschiebung des erfassten Bildwertes im Schritt (B) im Vergleich zum erfassten Bildwert im Schritt (D) und des Wnkels. Vorzugsweise befindet sich die Drehachse in der Bildschirmebene oder in deren Nähe. Zur Erhöhung der Messgenauigkeit ist es ebenfalls möglich, dass nicht nur um einen bekannten Winkel gedreht wird, sondern dass eine Vielzahl von gedrehten Aufnahmen durchgeführt werden. Vorzugsweise wird ein Pixel der Kamera verwendet, dessen Sichtgerade bei Drehung immer in einer Ebene liegt, die senkrecht auf der Monitorebene steht. The present invention also relates to a method for determining a shift direction of a screen relative to a camera. The method includes (A) calibrating the camera using a screen, the screen having a set of pixels, the camera using a plurality of pixels to display an image, and calibrating comprising the steps of: (a) displaying at least one image value in at least one pixel of the screen based on an image value assignment; (b) detecting the at least one image value by a pixel of the camera; and (c) determining the position of the at least one pixel on the screen based on the at least one captured image value and the image value assignment; (j) shifting the screen or camera along the direction of displacement by an amount such that the at least one pixel is at a different distance from the pixel of the camera than prior to translation, and (g) repeating at least steps (b) and (c) for the moved screen (120i). The method further comprises: (B) rotating the translation direction or the screen so that the camera is slidable relative to the screen along another direction of translation; (C) recovering the calibration according to steps (A); and (D) determining the direction of displacement from a comparison of calibrations (A) and (C). The present invention also relates to a method for determining refractive properties of a protective layer (eg windshield or coating) of a screen using an uncalibrated camera, wherein the camera uses a plurality of pixels to display an image and the screen has a set of pixels , The method comprises the following steps: (A) displaying at least one image value in at least one pixel of the screen; (B) detecting the at least one image value by a pixel of the camera; (C) rotating the camera or screen about an axis of rotation by an angle; (D) detecting the at least one image value by the pixel of the camera; and (E) determining the refractive properties from a spatial displacement of the detected image value in step (B) in comparison to the detected image value in step (D) and of the angle. Preferably, the axis of rotation is in the screen plane or in the vicinity thereof. To increase the measurement accuracy, it is also possible that not only is rotated by a known angle, but that a variety of rotated shots are performed. Preferably, a pixel of the camera is used, the viewing line is always in rotation in a plane that is perpendicular to the monitor plane.
Um die Kamera nicht nur für einen einzigen Pixelpunkt zu kalibrieren, werden bei weiteren Ausführungsbeispielen auf dem Bildschirm mehrere Bildpunkte dargestellt, die eine eindeutige Zuordnung erlauben. Dies kann beispielsweise dadurch geschehen, dass der Bildwert ein Farbwert oder ein Graustufenwert eines Digitalbildes ist, der durch die Kamera erfasst wird. Wenn beispielsweise der Bildschirm eine sehr hohe Auflösung aufweist, ist es somit möglich, dass jedes Pixel der Kamera einen anderen Bildwert (z.B. einen anderen Farbwert oder einen anderen Graustufenwert) empfängt und somit genau die Richtung bestimmt werden kann, wohin das entsprechende Pixel der Kamera sieht. Dabei definiert der Bildschirm ein eindeutiges (Welt-)Koordinatensystem, das jedem Bildpunkt eine eindeutige 3D-Koordinate zuordnet. Somit beziehen sich weitere Ausführungsbeispiele auf ein Verfahren, wobei der zumindest eine Bildwert ein Farbwert oder ein Graustufenwert eines Digitalbildes und die Bildwertzuweisung jeweils benachbarten Bildpunkten des Bildschirms verschiedene Bildwerte aus einer Vielzahl von Bildwerten derart zuweist, dass in zumindest einem Teil des Bildschirmes eine eindeutige Zuweisung von Bildwerten eine Ortsbestimmung basierend auf den Bildwerten ermöglicht. In order to calibrate the camera not only for a single pixel point, in further embodiments, several pixels are displayed on the screen, which allow a clear assignment. This can be done, for example, by the image value being a color value or a grayscale value of a digital image captured by the camera. Thus, for example, if the screen has a very high resolution, it is possible for each pixel of the camera to receive a different image value (eg, a different color value or gray scale value), thus accurately determining the direction where the corresponding pixel of the camera will look , The screen defines a unique (world) coordinate system that assigns each pixel a unique 3D coordinate. Thus, further exemplary embodiments relate to a method wherein the at least one image value assigns a color value or a grayscale value of a digital image and the image value assignment respectively adjacent pixels of the screen different image values from a plurality of image values such that in at least a part of the screen a unique assignment of Image values allows a location based on the image values.
Da die Anzahl von dargestellten Graustufenwerten und Farbwerten begrenzt bzw. die Auflö- sungssensitivität der genutzten Kamera begrenzt ist, kann es vorteilhaft sein, dass nicht alle Punkte gleichzeitig kalibriert werden. Beispielsweise besitzen moderne Kameras mehrere Megapixel-Auflösungen. Bei einer solchen Auflösung ist es häufig schwierig, auf einem Bildschirm jeweils einen Bildpunkt mit einem anderen Bildwert darzustellen, um so eine eindeutige Zuordnung zu gewährleisten. Von daher kann die Kalibration als ein sukzessiver Prozess durchgeführt werden, in dem Bildschirmabschnitte (beispielsweise horizontale Positionen und vertikale Positionen) sukzessiv bestimmt werden. Ebenso ist es nicht erforderlich, dass beispielsweise die gesamte horizontale Ausdehnung eines Bildschirmes in einem Schritt kalibriert wird. Stattdessen können einzelne Abschnitte oder Perioden bestimmt werden, innerhalb derer eine eindeutige Zuordnung erfolgt, so dass bei Kenntnis der Position der Periode auf dem Bildschirm eine eindeutige Zuordnung der Pixelpunkte zu den Bildschirmpunkten ermöglicht wird. Since the number of displayed gray level values and color values is limited or the resolution sensitivity of the camera used is limited, it may be advantageous that not all points are calibrated simultaneously. For example, modern cameras have several Megapixel resolutions. With such a resolution, it is often difficult to display on each screen one pixel with a different image value, so as to ensure a clear assignment. Therefore, the calibration can be performed as a successive process in which screen portions (for example, horizontal positions and vertical positions) are successively determined. Likewise, it is not necessary that, for example, the entire horizontal extent of a screen is calibrated in one step. Instead, individual sections or periods can be determined, within which an unambiguous assignment takes place, so that, with knowledge of the position of the period on the screen, an unambiguous assignment of the pixel points to the screen points is made possible.
Daher werden bei weiteren Ausführungsbeispielen die Schritte (a) bis (c) für eine horizontale Positionsbestimmung und für eine vertikale Positionsbestimmung unabhängig voneinander ausgeführt, wobei die benachbarten Bildpunkte entsprechend horizontal benachbarte Bildpunkte für die horizontale Positionsbestimmung oder vertikal benachbarte Bildpunkte für die vertikale Positionsbestimmung sind. Außerdem kann optional der Schritt (a) ein Darstellen zumindest einer Periode eines periodischen Musters von Bildwerten auf dem Bildschirm umfassen, wobei der Bildwert ein Bildwert aus dem periodischen Muster ist und der Schritt (b) kann weiter folgende Schritte umfassen: (b1) Ändern des Bildwertes auf einen geänderten Bildwert, der Teil des periodischen Musters von Bildwerten ist; (b2) Erfassen des geänderten Bildwertes durch die Kamera; und (b3) Ermitteln eines Unterschiedes der erfassten Bildwerte und des erfassten geänderten Bildwertes für den zumindest einen Bildpunkt. Der Schritt (c) kann dann ein Bestimmen der Position innerhalb einer Periode in einer Periodenrichtung des periodischen Musters für den zumindest einen Bildpunkt basierend auf dem ermittelten Unterschied umfassen.  Therefore, in further exemplary embodiments, the steps (a) to (c) are carried out independently of each other for a horizontal position determination and for a vertical position determination, wherein the neighboring pixels are correspondingly horizontally adjacent pixels for the horizontal position determination or vertically adjacent pixels for the vertical position determination. In addition, optionally, step (a) may comprise displaying on the screen at least one period of a periodic pattern of image values, the image value being an image value from the periodic pattern, and step (b) further comprising the steps of: (b1) changing the Image value to a changed image value that is part of the periodic pattern of image values; (b2) detecting the changed image value by the camera; and (b3) determining a difference of the acquired image values and the detected changed image value for the at least one pixel. The step (c) may then include determining the position within a period in a period direction of the periodic pattern for the at least one pixel based on the determined difference.
Wie bereits erwähnt, kann es sinnvoll sein, zunächst horizontale und dann vertikale Pixel der Kamera zu kalibrieren (d.h. die Punktkorrespondenzen für diese Pixel zu erstellen). Daher umfassen weitere Ausführungsbeispiele ein Verfahren mit den folgenden Schritten: (d) Drehen des periodischen Musters von Bildwerten auf dem Bildschirm um einen vorbestimmten Winkel; und (e) Wiederholen der Schritte (b1) bis (b3) für das gedrehte periodisch Muster. As mentioned earlier, it may be useful to first calibrate horizontal and then vertical pixels of the camera (i.e., create the point correspondences for those pixels). Therefore, further embodiments include a method comprising the steps of: (d) rotating the periodic pattern of image values on the screen by a predetermined angle; and (e) repeating steps (b1) through (b3) for the rotated periodic pattern.
Sofern ein periodisches Muster genutzt wird, dessen Periodenlänge sich über den gesamten Bildschirm erstreckt (beispielsweise wenn genügend Bildwerte vorhanden sind, um alle Pixel der Kamera in der horizontalen Richtung zu kalibrieren), kann ein solches periodisches Muster benutzt werden. Jedoch ist es häufig so, dass es infolge der hohen Anzahl von Pixeln und der gewünschten Sensitivität hinsichtlich der Unterscheidbarkeit von Bildwerten von benachbarten Pixeln vorteilhaft ist, wenn mehrere Perioden auf dem Bildschirm dargestellt werden. Die Periodenlänge kann beispielsweise derart gewählt werden, dass eine eindeutige Erfassung der Bildwerte (oder der Unterschiede zwischen den Bildwerten) durch den entsprechenden Pixel möglich wird. Wenn mehrere solche Perioden genutzt werden, kann in weiteren Schritten, eine Ermittlung der Periode, in die der bestimmte Pixel schaut, erfolgen. Nach Bestimmung der Periode ist eine eindeutige Punktkorrespondenz erreicht. If a periodic pattern is used whose period length extends over the entire screen (for example, if there are enough image values to calibrate all the pixels of the camera in the horizontal direction), such a periodic pattern can be used. However, it is often the case that, as a result of the high number of pixels and the desired sensitivity to the distinctness of image values of neighboring pixels, it is advantageous if several periods are displayed on the screen. The period length can be selected, for example, such that a clear detection of the image values (or the differences between the image values) by the corresponding pixel becomes possible. If several such periods are used, in further steps, a determination of the period in which the particular pixel looks can take place. After determination of the period a clear point correspondence is reached.
Die Bestimmung der Periode kann wie folgt geschehen. Ausgehend von einem Mittelpunkt, Randpunkt oder irgendeinem anderen festen Punkt auf dem Bildschirm kann jede Periode durch einen Periodenversatz gekennzeichnet werden, wobei der Periodenversatz beispielsweise angibt, um wie viele Perioden die gerade betrachtete Periode von dem festen Punkt verschoben ist. Die Bestimmung des Periodenversatzes erfolgt gemäß weiterer Ausführungsbeispiele dadurch, dass im Schritt (a) eine Vielzahl von Perioden des periodischen Musters dargestellt werden und das Verfahren weiter folgende Schritte umfasst: (f) Darstellen eines festen Bildmusters mit einer vorgegebenen Position auf dem Bildschirm, wobei jede Periode aus der Vielzahl von Perioden einen Periodenversatz relativ zu dem festen Bildmuster aufweist; (g) Erfassen des festen Bildmusters durch zumindest einen bestimmten Pixel der Kamera; und (h) Zuordnen der vorgegebenen Position zu dem zumindest einem bestimmten Pixel; und (i) Bestimmen des Periodenversatzes der Periode, für die im Schritt (c) die Position bestimmt wurde, basierend auf der vorgegebenen Position und der im Schritt (c) bestimmten Position des zumindest einen bestimmten Pixels. Dies kann beispielsweise durch Abzählen der Perioden geschehen, die zwischen dem festen Bildmuster und der Periode (für die im Schritt (c) die Position bestimmt wurde) liegen. Die vorgegebene Position kann beispielsweise über einen Mittelpunkt des Bildmusters definiert werden.  The determination of the period can be done as follows. Starting from a midpoint, edge point or any other fixed point on the screen, each period may be characterized by a period offset, the period offset indicating, for example, how many periods the period under consideration is shifted from the fixed point. The period offset is determined according to further embodiments by representing a plurality of periods of the periodic pattern in step (a) and the method further comprising the steps of: (f) displaying a fixed image pattern having a predetermined position on the screen, each Period of the plurality of periods has a period offset relative to the fixed image pattern; (g) acquiring the fixed image pattern by at least one particular pixel of the camera; and (h) assigning the predetermined position to the at least one particular pixel; and (i) determining the period offset of the period for which the position was determined in step (c) based on the predetermined position and the position of the at least one particular pixel determined in step (c). This can be done, for example, by counting the periods that lie between the fixed image pattern and the period (for which the position was determined in step (c)). The predetermined position can be defined for example via a center of the image pattern.
Gemäß weiterer Ausführungsbeispiele wird das periodische Muster nur von einem Teil der Kamera erfasst und kann optional durch eine harmonische Funktion darstellbar sein. Optional kann das Verfahren dann weiter ein Verschieben des periodischen Musters auf einen anderen Teil der Kamera umfassen, wobei der Teil und der andere Teil der Kamera teilweise überlappen; und ein Anpassen umfassen. Bei dem Anpassen kann ein Vereinen einer Kalibration für den Teil der Kamera mit einer Kalibration für den anderen Teil der Kamera erfolgen, sodass eine gemeinsame Kalibration für die Vereinigung des Teils und des anderen Teils der Kamera erhalten wird.  According to further embodiments, the periodic pattern is detected only by a part of the camera and can optionally be represented by a harmonic function. Optionally, the method may then further include shifting the periodic pattern to another part of the camera, with the part and the other part of the camera partially overlapping; and customizing. In the adjustment, combining calibration for the part of the camera with calibration for the other part of the camera can be made so that a common calibration for the union of the part and the other part of the camera is obtained.
Der Abstand des Bildschirmes und die relative Lage zur Kamera müssen aber nicht explizit gemessen werden. Stattdessen ermöglichen weitere Ausführungsbeispiele eine Bestimmung des Abstands des Bildschirmes und dessen Lage relativ zu der Kamera. Dies kann beispielsweise dadurch geschehen, dass in einem Verfahren weiter folgende Schritte ausgeführt werden: Verschieben des Bildschirmes oder der Kamera um einen Betrag, sodass das zumindest eine Pixel der Kamera eine andere Entfernung zu dem Bildschirm aufweist als vor dem Verschieben; und Wiederholen zumindest der Schritte (b) und (c), d.h. des Erfassens und des Bestimmens für den verschobenen Bildschirm. Optional können ein Teil oder alle zuvor genannten Schritte ebenfalls für die verschobene Position wiederholt werden. However, the distance of the screen and the relative position to the camera need not be measured explicitly. Instead, other embodiments allow determination of the distance of the screen and its location relative to the camera. This can be done, for example, by further executing the following steps in a method: moving the screen or the camera by an amount, so that the at least one pixel of the camera has a different distance to the screen than before the move; and repeating at least steps (b) and (c), ie, detecting and determining the shifted screen. Optionally, part or all of the above steps may also be repeated for the shifted position.
Hierdurch werden zumindest 2 Punkte bestimmt, durch die eine Gerade gelegt werden kann, die dann die Kalibration für das Kamera-Pixel liefert. Optional kann jedoch der Bildschirm mehrfach verschoben werden, so dass für jedes Pixel eine Vielzahl von Positionen ermittelt wird, die sich jeweils auf unterschiedliche Entfernungen des Bildschirms beziehen. Die Anzahl kann beispielsweise an die gewünschte Kalibrationsqualität angepasst werden.  This determines at least 2 points through which a line can be laid, which then provides the calibration for the camera pixel. Optionally, however, the screen may be shifted multiple times, such that for each pixel, a plurality of positions are determined, each relating to different distances of the screen. The number can for example be adapted to the desired calibration quality.
Gemäß weiterer Ausführungsbeispiele weist die Kamera entweder einen festen Fokus auf, der während der Schritte des Erfassens fest bleibt oder einen variablen Fokus, der beim Verschieben und/oder Drehen des Bildschirmes von der Kamera geändert wird. Bei einem konstanten Fokus kann jedem Kamerapixel eine Gerade zugeordnet werden, auf der alle Punkte liegen, die auf ein bestimmtes Pixel abgebildet werden. Bei Verwendung einer Auto- fokus-Funktion kann jedem Pixel eine Menge von Punkten zugeordnet werden, die auf ein bestimmtes Pixel abgebildet werden, wobei diese Punkte beliebig dicht liegen können. Aber auch in diesem Fall kann jedem Pixel bei bestimmtem Fokus eine Richtung zugeordnet werden.  According to further embodiments, the camera either has a fixed focus which remains fixed during the detection steps or a variable focus which is changed by the camera when the screen is moved and / or rotated. With a constant focus, each camera pixel can be assigned a straight line that contains all the dots that are mapped to a specific pixel. When using an autofocus function, each pixel can be assigned a set of points that are mapped to a specific pixel, which points can be as close as desired. But even in this case, each pixel can be assigned a direction with a certain focus.
Sofern die relative Lage der einzelnen Bildschirmpositionen untereinander bekannt ist, kann durch ein Wiederholen der genannten Schritte erreicht werden, dass für alle Pixel der Kamera eindeutig bestimmt werden kann, wohin jedes einzelne Pixel der Kamera blickt. Jedoch ist es häufig nicht einfach bzw. mit Fehlern verbunden, die genaue relative Lage der einzelnen Bildschirmpositionen untereinander zu ermitteln (z.B. durch Messung). Eine derartige Bestimmung wird gemäß weiterer Ausführungsbeispiele durch die folgenden Schritte erreicht: Drehen des Bildschirmes um einen vorbestimmten Winkel; Widerholen zumindest der Schritte (a) bis (d) für die gedrehte Bildschirmposition; und Ermitteln der Richtung der Verschiebung des Bildschirmes basierend auf einem Vergleich zwischen dem Resultat, welches in der ungedrehten Position erhalten wurde, mit dem Resultat, welches in der gedrehten Bildschirmposition erhalten wurde. Optional können ein Teil oder alle zuvor genannten Schritte ebenfalls für die gedrehte Position wiederholt werden.  If the relative position of the individual screen positions among each other is known, it can be achieved by repeating the said steps that it is possible to uniquely determine for each pixel of the camera where each individual pixel of the camera is facing. However, it is often not easy or errory to determine the exact relative position of the individual screen positions among each other (e.g., by measurement). Such a determination is achieved according to further embodiments by the following steps: rotating the screen by a predetermined angle; Repeating at least steps (a) to (d) for the rotated screen position; and determining the direction of the shift of the screen based on a comparison between the result obtained in the unrotated position and the result obtained in the rotated screen position. Optionally, part or all of the above steps may also be repeated for the rotated position.
Bei dem Kalibrierungsverfahren gemäß der vorliegenden Erfindung wird somit kein statisches (ausgedrucktes) Kalibrationsmuster, wie es bei den konventionellen Verfahren genutzt wird, verwendet. Vielmehr erfolgt die Bestimmung der Punktkorrespondenzen (3D Weltpunkte - 2D Pixelpunkte) beispielsweise durch eine Abfolge von dynamischen Bildern auf einem Monitor. Wie dargelegt, ist die dynamische Abfolge von Punkten auf dem Monitor jedoch nicht zwingend erforderlich. Eine eindeutige Zuordnung von Bildpunkten und Pixelpunkten ist bereits dann möglich, wenn der Monitor ausreichend verschiedene Bildwerte darstellen kann und die Kamera in der Lage ist, jeden einzeln dargestellten Bildwert eindeutig zu erfassen. Eine solche eindeutige Zuordnung, ohne die Nutzung eines periodischen Musters, stellt jedoch hohe Anforderungen sowohl an den Monitor als auch an die Kamera. Von daher basieren vorteilhafte Ausgestaltungen der vorliegenden Erfindung insbesondere auf einer dynamischen Abfolge eines periodischen Musters, wobei die Periode so gewählt werden kann, dass lediglich eine geringe Anzahl von Bildwerten durch die Kamera eindeutig erfassbar sein muss und eine sukzessive Bestimmung der Position des Bildwertes, welcher durch ein Pixel der Kamera erfasst wird, erfolgen kann. Thus, in the calibration method according to the present invention, no static (printed) calibration pattern as used in the conventional methods is used. Rather, the determination of the point correspondences (3D world points - 2D pixel points), for example, by a sequence of dynamic images on a monitor. As stated, however, the dynamic sequence of points on the monitor is not mandatory. An unambiguous assignment of pixels and pixel points is already possible if the monitor can display sufficiently different image values and if the camera is able to clearly capture each individually displayed image value. However, such a unique assignment, without the use of a periodic pattern, places high demands on both the monitor and the camera. Therefore, advantageous embodiments of the present invention are based in particular on a dynamic sequence of a periodic pattern, wherein the period can be selected so that only a small number of image values by the camera must be clearly detectable and a successive determination of the position of the image value, which a pixel of the camera is detected can take place.
Eine Frontscheibe des Bildschirms/Displays kann unter Umständen eine Lichtbrechung verursachen, was zu einer Verzerrung der dahinter liegenden Pixelpositionen führen kann, die berücksichtigt und im Endergebnis herausgerechnet werden sollte. Daher umfasst bei weiteren Ausführungsbeispielen der Bildschirm eine Frontscheibe und das Verfahren umfasst weiter ein Korrigieren von Verzerrungen, die durch die Frontscheibe verursacht werden. A windshield of the screen / display may possibly cause a refraction of light, which can lead to a distortion of the underlying pixel positions, which should be taken into account and excluded in the end result. Therefore, in other embodiments, the screen includes a windshield, and the method further includes correcting for distortions caused by the windshield.
Ausführungsbeispiele umfassen auch ein Speichermedium mit einem darauf gespeicherten Computerprogramm, welches ausgebildet ist, um eine Steuervorrichtung zu veranlassen, ein zuvor beschriebenes Verfahren auszuführen, wenn es auf einem Prozessor (Verarbeitungseinheit) läuft. Das Speichermedium kann ein maschinenlesbares Medium sein, das Mechanismus zum Speichern oder Übertragen von Daten in einer von einer Maschine (z.B. einem Computer) lesbaren Form beinhalten.  Embodiments also include a storage medium having a computer program stored thereon and configured to cause a controller to execute a previously described method when running on a processor (processing unit). The storage medium may be a machine-readable medium including mechanisms for storing or transmitting data in a form readable by a machine (e.g., a computer).
Weitere Ausführungsbeispiele beziehen sich ebenfalls auf eine Verwendung eines Displays zum Kalibrieren einer Kamera.  Further embodiments also relate to a use of a display for calibrating a camera.
Ebenso umfassen Ausführungsbeispiele eine Vorrichtung zur Kalibration einer Kamera, die eine Vielzahl von Pixeln zur Darstellung des Bildes nutzt, und zwar unter Nutzung eines Bildschirmes, wobei der Bildschirm eine Menge von Bildpunkten aufweist. Die Vorrichtung umfasst die folgenden Merkmale: ein Ausgabemodul, das ausgebildet ist, um den Bildschirm anzusteuern, sodass der Bildschirm zumindest einen Bildwert in zumindest einem Bildpunkt basierend auf einer Bildwertzuweisung darstellt; ein Eingabemodul, das ausgebildet ist, um zumindest einen durch die Kamera erfassten Bildwert einzugeben; und ein Verarbeitungsmodul, das ausgebildet ist, um die Position des zumindest einen Bildpunktes basierend auf dem zumindest einen erfassten Bildwert und der Bildwertzuweisung zu bestimmen. Die Vorrichtung kann beispielsweise ein Steuermodul mit einem Prozessor sein, auf welchem das Computerprogramm läuft. Also, embodiments include apparatus for calibrating a camera that uses a plurality of pixels to display the image using a screen, the screen having a set of pixels. The apparatus includes the following features: an output module configured to drive the screen so that the screen presents at least one image value in at least one pixel based on an image value assignment; an input module configured to input at least one image value captured by the camera; and a processing module configured to determine the position of the at least one pixel based on the at least one acquired image value and the image value assignment. The device may, for example, be a control module with a processor running the computer program.
Kurzbeschreibung der Figuren Brief description of the figures
Die Erfindung wird anhand der in den Figuren 1 bis 7 dargestellten Ausführungsbeispiele näher erläutert. Dabei zeigen:  The invention will be explained in more detail with reference to the embodiments illustrated in Figures 1 to 7. Showing:
Fig. 1 ein Flussdiagramm für ein Verfahren zur Kalibration einer Kamera;  1 shows a flow chart for a method for calibrating a camera;
Fig. 2 eine schematische Darstellung der Zuordnung von Bildschirmpunkten auf Kamerapixel;  FIG. 2 shows a schematic representation of the assignment of screen dots to camera pixels; FIG.
Fig. 3 eine beispielhafte Änderung von Bildwerten eines Bildschirmpunktes mit der Zeit; 3 shows an exemplary change of image values of a screen point with time;
Fig. 4 eine beispielhafte Verteilung von Bildwerten auf benachbarten Bildschirmpunkten und deren zeitliche Änderung; 4 shows an exemplary distribution of image values on adjacent screen points and their temporal change;
Fig. 5 ein periodisches Kalibrationsmuster;  5 shows a periodic calibration pattern;
Fig. 6 ein Muster zur Ermittlung eines Phasenversatzes;  6 shows a pattern for determining a phase offset;
Fig. 7 eine Änderung der Bildschirmposition zur Ermittlung eines optischen Pfades;  FIG. 7 shows a change in the screen position for determining an optical path; FIG.
Fig. 8 ein konventionelles Kalibrationsmuster; und  Fig. 8 is a conventional calibration pattern; and
Fig. 9A,B weitere Ausführungsbeispiele der vorliegenden Erfindung.  9A, B further embodiments of the present invention.
Detaillierte Figurenbeschreibung Detailed description of the figures
Fig. 1 zeigt ein Verfahren zur Kalibration einer Kamera unter Nutzung eines Bildschirmes, wobei der Bildschirm eine Menge von Bildpunkten aufweist und die Kamera eine Vielzahl von Pixeln zur Darstellung des Bildes nutzt. Das Verfahren umfasst folgende Schritte: Darstellen S1 10 zumindest eines Bildwertes in zumindest einem Bildpunkt des Bildschirms basierend auf einer Bildwertzuweisung; Erfassen S120 des zumindest einen Bildwertes durch einen Pixel der Kamera; und Bestimmen S130 der Position des zumindest einen Bildpunktes auf dem Bildschirm basierend auf dem zumindest einen erfassten Bildwert und der Bildwertzuweisung.  Fig. 1 shows a method of calibrating a camera using a screen, wherein the screen has a set of pixels and the camera uses a plurality of pixels to display the image. The method comprises the steps of: displaying S1 10 at least one image value in at least one pixel of the screen based on an image value assignment; Detecting S120 of the at least one image value by a pixel of the camera; and determining S130 the position of the at least one pixel on the screen based on the at least one captured image value and the image value assignment.
Fig. 2 zeigt eine Darstellung mit weiteren Details zur Kalibration der Kamera 1 10 unter Nutzung des Bildschirmes 120 gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Die Kamera 110 weist eine Bildebene 1 13 auf, in der eine Vielzahl von Kamerapixeln 112 angeordnet sind. Beispielsweise können die Kamerapixel 1 12 Array-förmig auf der Bildebene 113 angeordnet sein, wobei eine erste Menge von Kamerapixeln 1 12 entlang der horizontalen Linie und eine zweite Menge entlang der vertikalen Linie angeordnet sein können. FIG. 2 shows a representation with further details for the calibration of the camera 110 using the screen 120 according to an embodiment of the present invention. The camera 110 has an image plane 1 13, in which a plurality of camera pixels 112 are arranged. For example, the camera pixels 1 12 can be arrayed on the image plane 113 may be arranged, wherein a first set of camera pixels 1 12 may be arranged along the horizontal line and a second amount along the vertical line.
Das Koordinatensystem kann bei der vorliegenden Erfindung durch die (erste) Bildschirmposition definiert werden. Wie die Kamera zum Bildschirm ausgerichtet ist, spielt im Allgemeinen keine Rolle. Das Koordinatensystem kann aber auch anders gewählt werden. Beispielsweise kann die Kamera 1 10 entlang der z-Richtung von dem Bildschirm 120 beabstandet sein, wobei der Bildschirm 120 und/oder die Bildebene 1 13 innerhalb der Kamera 110 sich in der x.y-Ebene erstrecken können. Beispielsweise kann die x-Richtung die horizontale Richtung und die y-Richtung die vertikale Richtung der aufgenommenen Szene darstellen. Bei anderen Ausführungsbeispielen kann jedoch das Koordinatensystem jedoch noch anders gewählt sein.  The coordinate system can be defined by the (first) screen position in the present invention. The orientation of the camera towards the screen generally does not matter. The coordinate system can also be chosen differently. For example, the camera 110 may be spaced from the screen 120 along the z-direction, wherein the screen 120 and / or the image plane 1 13 within the camera 110 may extend in the x.y plane. For example, the x-direction may represent the horizontal direction and the y-direction the vertical direction of the recorded scene. However, in other embodiments, the coordinate system may still be chosen differently.
Die Kamera 1 10 kann weiter ein Optik 114 aufweisen, durch die Lichtsignale 1 18 von dem Bildschirm 120 hindurch laufen, um anschließend auf die Bildebene 1 13 der Kamera 110 projiziert zu werden. Der Bildschirm 120 kann in eine Vielzahl von Bildpunkten 122 unterteilt werden, die beispielsweise derart definiert werden können, dass jedes Kamerapixel 1 12 Lichtsignale von einem Bildpunkt 122 des Bildschirms 120 empfängt. Wenn der Bildschirm ebenfalls Pixel aufweist, kann jeder Bildpunkt ein oder mehrere Bildschirmpixel umfassen. Der Bildschirm kann beispielsweise ein Monitor oder Display eines Computers, ein Fernseher oder eine anderes Projektionsgerät sein, auf weichen beispielsweise bewegliche Bilder darstellbar sind. Die Anzahl der Bildpunkte 122 auf dem Bildschirm braucht nicht mit der Anzahl der Kamerapixel 112 korreliert zu sein. So kann beispielsweise die Anzahl von Bildpunkten 122 auf dem Bildschirm 120 geringer sein als die Auflösung der Kamera 1 10 (Anzahl der Kamerapixel 112). Es ist jedoch ebenfalls möglich, dass ein entsprechend hoch auflösender Bildschirm 120 genutzt wird, der genauso viele (oder mehr) Bildschirmpunkte 122 aufweist wie die Anzahl von Kamerapixeln 112. Für eine hohe Qualität der Kalibration ist es vorteilhaft, wenn der Bildschirm 120 möglichst hochauflösend ist.  The camera 110 may further comprise an optical system 114, through which light signals 1 18 run from the screen 120, in order subsequently to be projected onto the image plane 1 13 of the camera 110. The screen 120 may be divided into a plurality of pixels 122, which may be defined, for example, such that each camera pixel 112 receives light signals from a pixel 122 of the screen 120. If the screen also has pixels, each pixel may include one or more screen pixels. The screen can be, for example, a monitor or display of a computer, a television or another projection device on which, for example, moving images can be displayed. The number of pixels 122 on the screen need not be correlated with the number of camera pixels 112. For example, the number of pixels 122 on the screen 120 may be less than the resolution of the camera 110 (number of camera pixels 112). However, it is also possible that a correspondingly high-resolution screen 120 is used, which has the same number of (or more) pixels 122 as the number of camera pixels 112. For a high quality of the calibration, it is advantageous if the screen 120 is as high-resolution as possible ,
Bei der Kalibration wird eine Richtung bestimmt, aus welcher ein gegebenes Kamerapixel 112 ein Lichtsignal empfängt oder, mit anderen Worten, in welche Richtung das entsprechende Kamerapixel 112 schaut. Wenn beispielsweise das Lichtsignal entlang eines optischen Pfades 1 18 von einem ersten Bildpunkt 122a des Bildschirmes 120 auf ein erstes Kamerapixel 1 12a projiziert wird (nach dem Passieren der Optik 1 14), dann erfolgt bei der Kalibration des ersten Kamerapixels 1 12a eine Bestimmung des Ortes des ersten Bildpunktes 122a. Somit wird eine Zuordnung des Kamerapixels 112a zu der Position des ersten Bildpunktes 122a erhalten. Diese Zuordnung erfolgt nicht nur für ein erstes Kamerapixel 1 12a, sondern kann für jedes Kamerapixel 112 erfolgen. Die Kalibration bestimmt somit auch, dass ein zweites Kamerapixel 112b ein Lichtsignal von einem zweiten Bildpunkt 122b an einer bestimmten Position auf dem Bildschirm 120 empfängt. In the calibration, a direction is determined from which a given camera pixel 112 receives a light signal or, in other words, in which direction the corresponding camera pixel 112 is looking. If, for example, the light signal along an optical path 1 18 is projected from a first pixel 122a of the screen 120 onto a first camera pixel 1 12a (after passing the optic 1 14), a determination of the location takes place during the calibration of the first camera pixel 11a of the first pixel 122a. Thus, an association of the camera pixel 112a with the position of the first pixel 122a is obtained. This assignment is not only for a first camera pixel 1 12a, but can be done for each camera pixel 112. The calibration thus determines Also, a second camera pixel 112b receives a light signal from a second pixel 122b at a particular position on the screen 120.
Gemäß der vorliegenden Erfindung kann für jedes einzelne Kamerapixel 1 12 bestimmt werden, zu welchem Bildpunkt 122 dieses eine Pixel schaut. Es ist jedoch zu beachten, dass das Kamerapixel 112 selbst keine weitere Information in Bezug auf benachbarte Kamerapixel oder in Bezug auf die Ausrichtung des Bildschirmes 120 hat. Um unabhängig von allen weiteren Informationen die Position des Bildpunktes 122 bestimmen zu können, wird der entsprechender Bildwert, der durch den Bildpunkt 122 dargestellt wird, ermittelt. Wenn beispielsweise alle Bildpunkte 122 des Bildschirmes 120 einen anderen Bildwert (beispielsweise einen eigenen Grauwert oder Farbwert) darstellen und die Kamera 1 10 ausgebildet ist, alle dargestellten Bildwerte zu ermitteln, kann bereits durch ein einmaliges Erfassen des Bildschirmes 120 eine Kalibration sämtlicher Kamerapixel 1 12 erfolgen.  According to the present invention, it can be determined for each individual camera pixel 1 12 to which pixel 122 this one pixel is looking. It should be noted, however, that the camera pixel 112 itself has no further information regarding adjacent camera pixels or the orientation of the screen 120. In order to be able to determine the position of the pixel 122 independently of all other information, the corresponding image value represented by the pixel 122 is determined. If, for example, all the pixels 122 of the screen 120 represent a different image value (for example, an own gray value or color value) and the camera 110 is designed to determine all displayed image values, a calibration of all the camera pixels 1 12 can already take place by a single acquisition of the screen 120 ,
Dies kann unter Umständen jedoch problematisch sein. Zum einen bedarf es dazu eines Bildschirmes 120, der in der Lage ist, genauso viele Bildwerte darzustellen, wie die Kamera 110 Pixel 112 hat. Darüber hinaus ist es für eine derartige eindeutige Zuordnung erforderlich, dass die Kamera ebenfalls in der Lage ist, sämtliche dargestellten Bildwerte eindeutig zu identifizieren. Häufig ist es jedoch so, dass aufgrund realer Bedingungen eine eindeutige Identifikation des dargestellten Bildwertes nicht ohne weiteres möglich ist bzw. mit einem Fehler verbunden ist. Beispielsweise kann ein erfasster Graustufenwert sich ändern, wenn der Bildschirm näher an die Kamera gerückt ist oder weiter davon entfernt ist (die Helligkeit nimmt mit der Entfernung ab), oder andere äußere Einflüsse können dazu führen, dass eine eindeutige Identifikation des dargestellten Graustufenwertes auf dem einen Bildpunkt 122 nicht sofort möglich ist.  However, this can be problematic. On the one hand, it requires a screen 120 that is able to display as many image values as the camera has 110 pixels 112. Moreover, for such a unique association, it is also necessary for the camera to be able to uniquely identify all displayed image values. Often, however, it is the case that due to real conditions a clear identification of the displayed image value is not readily possible or is associated with an error. For example, a detected gray level value may change as the screen is moved closer to or farther from the camera (the brightness decreases with distance), or other external influences may result in unambiguous identification of the displayed gray level value on one Pixel 122 is not immediately possible.
Diese Probleme können durch die Ausführungsbeispiele, wie sie in den Fig. 3 bis 6 dargestellt sind, vermieden werden. Dabei wird kein statisches Bild durch den Bildschirm 120 dargestellt, sondern jeder Bildpunkt 122 ändert mit der Zeit den dargestellten Bildwert BW. Die Änderung kann beispielsweise periodisch erfolgen und bei einem Durchlauf der Periode kann festgestellt werden, welcher Bildwert zum Anfang auf dem jeweiligen Bildpunkt 122 dargestellt wurde (wenn die Periode als bekannt vorausgesetzt wird).  These problems can be avoided by the embodiments as shown in FIGS. 3 to 6. In this case, no static image is displayed by the screen 120, but each pixel 122 changes over time the image value BW shown. The change may, for example, be periodic, and upon passage of the period, it may be determined which image value was initially displayed on the respective pixel 122 (assuming the period is known).
Außerdem ist zu berücksichtigen, dass häufig die relative Position der Kamera 110 und des Bildschirmes 120 nicht bekannt sind (einschließlich deren relativen Orientierung zueinander) und dass aus der Kenntnis eines einzigen bestimmten Bildpunktes 122 der optische Pfad 118 nur dann eindeutig gegeben ist, wenn sich alle optischen Pfade in einem Punkt der Optik (oder Objektiv) 1 14 schneiden. Jedoch, auch wenn sich alle Pfade in einem Punkt schneiden, kennt man im Allgemeinen diesen Schnittpunkt nicht und kann keine Geraden berech- nen. In einem solchen Fall könnte die Kalibration ebenfalls mit weniger Schritten erfolgen. Da diese Voraussetzungen häufig nicht zutreffen, wird die Kalibration in mehren Schritten erfolgen, was weiter unten genauer beschrieben wird (siehe Fig. 7). In addition, it should be noted that often the relative position of the camera 110 and the screen 120 are not known (including their relative orientation to each other) and that from the knowledge of a single particular pixel 122 the optical path 118 is unique given that all optical paths in a point of optics (or lens) 1 14 cut. However, even if all paths intersect in one point, one generally does not know this intersection and can not calculate straight lines. NEN. In such a case, the calibration could also be done with fewer steps. Since these conditions are often not met, the calibration will take place in several steps, which will be described in more detail below (see FIG. 7).
Fig. 3 zeigt ein Ausführungsbeispiel, bei welchem auf einem bestimmten Bildpunkt 122a mit der Zeit t verschiedene Bildwerte BW1 bis BW6 durchlaufen werden. Beispielsweise kann zu einer ersten Zeit t1 auf dem bestimmten Bildpunkt 122a ein erster Bildwert BW1 dargestellt werden. Zu einer zweiten Zeit t2 erfolgt ein Wechsel auf einen zweiten Bildwert BW2, zu einer dritten Zeit t3 erfolgt ein Wechsel auf einen dritten Bildwert BW3, usw. bis zu einer sechsten Zeit t6, wo ein Wechsel auf einen sechsten Bildwert BW6 erfolgt. Nach der sechsten Zeit t6 können die Bildwerte BW in umgekehrter Reihenfolge durchlaufen werden (z.B. wieder abnehmen), bis zur elften Zeit t11 wieder ein Wechsel auf den ersten Bildwert BW1 erfolgt.  3 shows an exemplary embodiment in which different image values BW1 to BW6 are traversed at a specific pixel 122a over time t. For example, a first image value BW1 can be displayed on the specific pixel 122a for a first time t1. At a second time t2 there is a change to a second image value BW2, at a third time t3 a change takes place to a third image value BW3, etc., up to a sixth time t6, where a change to a sixth image value BW6 occurs. After the sixth time t6, the image values BW can be traversed in reverse order (for example decreasing again), until the eleventh time t11 again changes to the first image value BW1.
Diese Bildwerte BW können gleichmäßig ansteigen und sich beispielsweise auf verschiedene Graustufen oder auch auf Farbwerte beziehen. Wichtig ist lediglich, dass die Bildwerte BW unterschiedlich sind, wobei es vorteilhaft ist, wenn die Wechsel zwischen den Bildwerten BW stark genug sind, sodass die Kamera 110 den Wechsel feststellen kann. Aus der Erfassung sämtlicher Bildwerte BW innerhalb der einen Periode von der ersten Zeit t1 bis zur elften Zeit t11 kann ermittelt werden, welcher Bildwert BW zum Anfangszeitpunkt auf dem entsprechenden Bildpunkt dargestellt wurde.  These image values BW can increase uniformly and relate, for example, to different gray levels or to color values. It is only important that the image values BW are different, it being advantageous if the changes between the image values BW are strong enough so that the camera 110 can detect the change. From the acquisition of all image values BW within the one period from the first time t1 to the eleventh time t11, it is possible to determine which image value BW was displayed at the starting time on the corresponding pixel.
Fig. 4 zeigt weitere Details einer derartigen Bestimmung des Bildwertes BW an den entsprechenden Bildpunkten 122 des Bildschirmes 120. Dabei sind horizontal die Bildpunkte 122 des Bildschirmes 120 dargestellt. In diesem Beispiel sind es 80 Bildpunkte. Diese 80 Bildpunkte können sich beispielsweise auf die horizontalen Bildpunkte des Bildschirmes 120 oder auf die vertikalen Bildpunkte oder auf eine beliebige andere Richtung beziehen. Diese 80 Bildpunkte sind beispielhaft in 8 Perioden p unterteilt, wobei jede Periode 10 Bildwerte zeigt.  4 shows further details of such a determination of the image value BW at the corresponding image points 122 of the screen 120. The pixels 122 of the screen 120 are shown horizontally. In this example, there are 80 pixels. These 80 pixels may, for example, refer to the horizontal pixels of the screen 120 or to the vertical pixels or in any other direction. These 80 pixels are subdivided by way of example into 8 periods p, with each period showing 10 image values.
In der Fig. 4 ist die Zeit vertikal dargestellt, so dass die 80 Bildpunkte bei einer ersten Zeit t1 das Bild 1 zeigen und zu einer zehnten Zeit t10 das Bild 10 zeigen. Jede Periode p zeigt 10 Bildwerte, angefangen im Bild 1 mit dem ersten Bildwert BW1 (weiß), dem zweiten Bildwert BW2 bis zum sechsten Bildwert BW6 (schwarz) und danach fallend vom fünften Bildwert BW5 bis wieder der erste Bildwert BW1 erreicht ist. Das Muster ist ähnlich zu dem in der Fig. 3 gezeigten Muster. Es kann jedoch bei anderen Ausführungsbeispielen anders sein.  In FIG. 4, the time is shown vertically, so that the 80 pixels at a first time t1 show the image 1 and at a tenth time t10 show the image 10. Each period p shows 10 image values, starting in image 1 with the first image value BW1 (white), the second image value BW2 up to the sixth image value BW6 (black) and then falling from the fifth image value BW5 until the first image value BW1 is reached again. The pattern is similar to the pattern shown in FIG. However, it may be different in other embodiments.
Wenn beispielsweise ein bestimmter Bildpunkt 122a herausgegriffen wird, so zeigt dieser eine Bildpunkt 122a zu der ersten Zeit t1 den fünften Bildwert BW5. Zu Zeit t2 wechselt der Bildwert an dem Bildpunkt 122a von dem Bildwert BW5 auf den sechsten Bildwert BW6 (schwarz), zu Zeit t3 auf den fünften Bildwert BW5. Zu siebten Zeit t7 wird der erste Bildwert BW1 (weiß) dargestellt und zur zehnten Zeit t10 wird der vierte Bildwert BW4 dargestellt. Somit wird entlang der Zeitrichtung (vertikal nach unten) für jeden der Bildpunkte 122 die Periode mit der Periodenbreite 10 einmal durchlaufen. Aufgrund der Kenntnis dieser bestimmten Periode ist es möglich, festzustellen, welcher Bildwert zur Anfangszeit t1 auf dem entsprechenden Bildpunkt dargestellt wurde. For example, when a particular pixel 122a is extracted, this one pixel 122a shows the fifth image value BW5 at the first time t1. At time t2 the changes Image value at the pixel 122a from the image value BW5 to the sixth image value BW6 (black), at time t3 to the fifth image value BW5. At the seventh time t7, the first image value BW1 (white) is displayed, and at the tenth time t10, the fourth image value BW4 is displayed. Thus, along the time direction (vertically downward), for each of the pixels 122, the period having the period width 10 is traversed once. Based on the knowledge of this particular period, it is possible to determine which image value was displayed at the start time t1 on the corresponding pixel.
Da das Muster an Bildwerten zur Anfangszeit t1 (Periodenlänge) und die Anzahl der Perioden p auf dem Bildschirm 120 (beispielsweise in horizontaler Richtung) bekannt ist, ist es möglich, die Position jedes Bildpunktes 122 innerhalb einer Periode subpixelgenau zu bestimmen. Hierbei ist zu berücksichtigen, dass der erste Bildwert BW1 und der sechste Bildwert BW6 in jeder gezeigten Periode genau einmal vorkommt. Durch eine Bestimmung des Maximums (z.B. BW6) und des Minimums (BW1) in jeder Periode kann daher ermittelt werden, welcher Bildwert zum Anfangszeitpunkt t1 dargestellt wurde. Würde man aber nur das Minimum und Maximum bestimmen, könnte man die Zuordnung nur pixelgenau machen. Tatsächlich kann eine (Co-)Sinuskurve durch alle aufgenommenen Bildwerte gelegt und deren Verschiebung subpixelgenau bestimmt werden. Vorteilhafterweise gehen somit in die Auswertung nicht nur das Minimum und Maximum, sondern alle Bildwerte ein.  Since the pattern of image values at the initial time t1 (period length) and the number of periods p on the screen 120 (for example, in the horizontal direction) is known, it is possible to determine the position of each pixel 122 subpixel accurately within a period. It should be noted that the first image value BW1 and the sixth image value BW6 occur exactly once in each period shown. Therefore, by determining the maximum (e.g., BW6) and the minimum (BW1) in each period, it can be determined which image value was displayed at the initial time t1. But if you could only determine the minimum and maximum, you could make the assignment only pixel accurate. In fact, a (co-) sine curve can be applied through all recorded image values and their displacement can be determined with subpixel precision. Advantageously, not only the minimum and maximum, but all image values are included in the evaluation.
Die gezeigten sechs Bildwerte können sich beispielsweise auf Graustufen beziehen, wobei beispielsweise ein 8-Bit-Graustufenmuster darstellbar ist (d.h. ein Umfang von 256 Bildwerten von 0 (schwarze Farbe) bis zu 255 (weiße Farbe) hat). For example, the six image values shown may refer to gray levels, for example, an 8-bit grayscale pattern being representable (i.e., having a size of 256 image values from 0 (black color) to 255 (white color)).
Fig. 5 zeigt ein Ausführungsbeispiel für das zuvor genannte periodische Muster. Es wurden wiederum Graustufenwerte zur Darstellung genutzt. Es können jedoch ebenso (andere) Farbwerte genutzt werden. In dem gezeigten Ausführungsbeispiel verläuft die Periodizität entlang der vertikalen Richtung, wobei in diesem Beispiel mehr als acht Perioden dargestellt sind. In weiteren Ausführungsbeispielen kann jede beliebige Anzahl von Perioden dargestellt werden. Vorteilhafterweise kann die Anzahl von Perioden derart gewählt werden, dass der Unterschied zwischen den Bildwerten innerhalb einer Periode zu benachbarten Bildpunkten so groß ist, dass sie durch die entsprechende Kamera eindeutig feststellbar ist. Beispielsweise sollte der Unterschied zwischen benachbarten Bildwerten so groß sein, dass bei einem Durchlaufen der einzelnen Bilder wie sie in der Fig. 4 zu sehen sind, die Sprünge in den Bildwerten BW1 , BW2, ... eindeutig durch die Kamera festgestellt werden können. Daher kann die Anzahl der Perioden in Abhängigkeit von der konkreten Kamera (z.B. deren Auflösungsvermögen) bzw. des Bildschirms und den äußeren Bedingungen gewählt werden. Wie zuvor erwähnt, ist es bisher noch nicht möglich, zu bestimmen, in welcher Periode (z.B. in welcher der acht Perioden aus der Fig. 4) sich der bestimmte Bildpunkt 122a befindet. Dies kann beispielsweise durch ein Erfassen von zumindest einem weiteren Bildpunkt geschehen, für den der genaue horizontale und vertikale Periodenversatz auf dem Bildschirm bekannt ist. Die absolute Periodenlage einer Periode ist bekannt, wenn dieser eine Punkt bekannt ist. Mithilfe des bekannten Periodenmusters können aus der absoluten Periodenlage einer bestimmten Periode die Periodenversätze aller anderen Perioden relative zu der bekannten Periode bestimmt werden. Somit sind die (absoluten) Positionen aller Bildschirmpunkte bekannt. Fig. 5 shows an embodiment of the aforementioned periodic pattern. Grayscale values were again used for illustration. However, (other) color values can also be used. In the embodiment shown, the periodicity runs along the vertical direction, in which example more than eight periods are shown. In other embodiments, any number of periods may be represented. Advantageously, the number of periods can be chosen such that the difference between the image values within a period to neighboring pixels is so large that it can be clearly detected by the corresponding camera. For example, the difference between adjacent image values should be so great that, as they pass through the individual images, as can be seen in FIG. 4, the jumps in the image values BW1, BW2,... Can be detected unambiguously by the camera. Therefore, the number of periods can be selected depending on the specific camera (eg, their resolution) or the screen and the external conditions. As previously mentioned, it is not yet possible to determine in which period (eg in which of the eight periods of FIG. 4) the particular pixel 122a is located. This can be done, for example, by detecting at least one further pixel for which the exact horizontal and vertical period offset on the screen is known. The absolute period position of a period is known, if this one point is known. Using the known period pattern, the period offsets of all other periods relative to the known period can be determined from the absolute period position of a specific period. Thus, the (absolute) positions of all screen points are known.
Dies kann beispielsweise durch ein Muster (Eichmuster) geschehen, wie es in Fig. 6 zu sehen ist. Dabei wird auf dem Bildschirm 120 (vor einem Hintergrund 220) ein Muster gezeigt, welches einen bestimmten Bildwert an einem Bildpunkt 124 (Eichbildpunkt) darstellt. Optional kann anstatt eines Bildpunktes auch eine vorbestimmte Anzahl von Bildpunkten (beispielsweise benachbarte Bildpunkte) dazu genutzt werden. In dem gezeigten Ausführungsbeispiel der Fig. 6 ist der Eichbildpunkt 124 in der vierten vertikalen Periode und der sechsten horizontalen Periode gezeigt.  This can be done, for example, by a pattern (calibration pattern), as can be seen in FIG. In this case, a pattern is shown on the screen 120 (in front of a background 220), which represents a specific image value at a pixel 124 (calibration pixel). Optionally, instead of a pixel, a predetermined number of pixels (for example adjacent pixels) can be used for this purpose. In the illustrated embodiment of FIG. 6, the calibration pixel 124 is shown in the fourth vertical period and the sixth horizontal period.
Wenn dieses Muster jetzt durch die Kamera 110 erfasst wird, wird nur ein Pixel oder eine fest vorgeschriebene Menge an Pixeln den Eichbildpunkt 124 erfassen. Wenn der Eichbildpunkt mehrere Pixel umfasst, kann ein Mittelpunkt 125 ermittelt werden, der dann nur einem Kamerapixel zugeordnet werden kann. Wenn dies erreicht ist, steht somit fest, dass der eine Kamerapixel, der den Eichbildpunkt 124 (oder dessen Mittelpunkt 125) erfasst hat, in Richtung der beispielhaften vierten vertikalen Periode und sechsten horizontalen Periode „schaut" (oder dessen Mittelpunkt 125) und ist somit kalibriert. Nachdem die absolute Phasenlage (d.h. nicht nur innerhalb einer Periode) des Bildpunktes 124 mit dem einen Eichbildwert genau auf dem Bildschirm 120 erfasst wurde, ist die Phasenlage des Bildpunktes 124 bekannt. Aus der Periodizität kann auch der Phasenversatz für diese Periode, zum Beispiel ausgehend von einem Bildschirmrand eindeutig ermittelt werden. Mit dem bekannten periodischen Muster ist die Position jeder anderen Periode relativ zu der einen bekannten Periode ebenfalls bekannt. Somit ist für alle weiteren Pixel ebenfalls bekannt, in welche Periode sie bei der vorherigen Bestimmung„geschaut" haben.  If this pattern is now detected by the camera 110, only one pixel or set of pixels will capture the calibration pixel 124. If the calibration pixel comprises several pixels, a center 125 can be determined, which can then be assigned to only one camera pixel. Thus, when this is accomplished, it is clear that the one camera pixel that has captured the calibration pixel 124 (or its midpoint 125) is "looking" (or its midpoint 125) towards the exemplary fourth vertical period and sixth horizontal period, and thus After the absolute phase (ie, not just within a period) of the pixel 124 having the one calibration image has been accurately captured on the screen 120, the phase of the pixel 124 is known With the well-known periodic pattern, the position of any other period relative to the one known period is also known, so it is also known for all other pixels in which period they "looked" at the previous determination.
Wenn dies nicht der Fall ist, kann aus der bisherigen Zuordnung Pixel-Bildpunkt noch keine eindeutige Richtung für den Pixel bestimmt werden. Die eindeutige Bestimmung einer Geraden ist nur dann möglich, wenn zumindest zwei Punkte bestimmt werden, durch die die Gerade verläuft. Ebenso ist zu beachten, dass sämtliche Lichtstrahlen, die von dem Bildschirm 120 ausgehen und auf der Projektionsebene 1 13 in der Kamera 110 projiziert wurden, sich nicht notwendigerweise in einem Punkt schneiden müssen (in jeder realen Kamera ist dies nicht der Fall). Daher lässt sich die Gerade durch die Ermittlung eines einzigen Punktes noch nicht eindeutig fixieren. Vielmehr ist es erforderlich zumindest einen zweiten Punkt zu identifizieren, der sich in einem anderen Abstand zu der Kamera 1 10 befindet. If this is not the case, no clear direction for the pixel can be determined from the previous pixel pixel assignment. The unambiguous determination of a straight line is only possible if at least two points are determined through which the straight line passes. It should also be noted that all the light rays emanating from the screen 120 and projected on the projection plane 1 13 in the camera 110 are not necessarily cut in one point (in any real camera this is not the case). Therefore, the straight line can not be clearly fixed by the determination of a single point. Rather, it is necessary to identify at least one second point which is located at a different distance from the camera 110.
Dies kann durch ein Verfahren, wie es in der Fig. 7 dargestellt ist, erfolgen. Die erste (oder irgendeine andere) Position des Bildschirmes 120 definiert ein globales (Kalibrations- ) Koordinatensystem. Beispielsweise so, dass der Bildschirm 120 in der x.y-Ebene liegt und die z-Richtung die Flächennormale darstellt.  This can be done by a method as shown in FIG. The first (or any other) position of the screen 120 defines a global (calibration) coordinate system. For example, such that the screen 120 lies in the x.y plane and the z-direction represents the surface normal.
In diesem Ausführungsbeispiel empfängt die Kamera 1 10 ein Lichtsignal 1 18 von einem bestimmten Bildpunkt 122a auf dem Bildschirm 120. Die Kamera 1 10 detektiert den dargestellten Graustufenwert (oder jeden anderen Bildwert) anhand des Durchlaufes des periodischen Musters (siehe Figs. 4 und 5). Der Periodenversatz kann durch Nutzung des Eichmusters, wie es in der Fig. 6 gezeigt ist, ermittelt werden.  In this embodiment, the camera 110 receives a light signal 118 from a particular pixel 122a on the screen 120. The camera 110 detects the displayed gray level value (or any other image value) from the sweep of the periodic pattern (see FIGS. 4 and 5). , The period offset can be determined by using the calibration pattern as shown in FIG. 6.
Nun wird der Bildschirm 120 entlang einer Richtung zs in eine neue Position 120i verschoben (und/oder gedreht) und die zuvor beschriebene Vorgehensweise wiederholt (siehe Figs. 4 bis 6). Die Verschiebungsrichtung zs ist nicht notwendigerweise parallel zur z-Achse, wobei die z-Achse als die Richtung parallel zur Flächennormalen auf dem ursprünglichen Bildschirm 120 (vor dem Verschieben) definiert werden kann. Als Resultat wird für die neue Bildschirmposition 120i wiederum ein Bildschirmpunkt 122i bestimmt, der auf dem gleichen Pixel 1 12a in der Kamera 110 projiziert wird. Durch eine Ermittlung der x- und y-Koordinaten des neuen Bildschirmpunktes 122i ist es möglich, eine Gerade durch den Bildschirmpunkt 122 und dem Bildschirmpunkt 122i zu ziehen und somit eindeutig die Richtung oder optischen Pfad 118 zu definieren. Now, the screen 120 is shifted (and / or rotated) along a direction z s to a new position 120i and the procedure described above is repeated (see FIGS. 4 to 6). The translation direction z s is not necessarily parallel to the z-axis, and the z-axis may be defined as the direction parallel to the surface normal on the original screen 120 (before translation). As a result, a screen point 122i is again determined for the new screen position 120i, which is projected on the same pixel 1 12a in the camera 110. By determining the x and y coordinates of the new screen point 122i, it is possible to draw a straight line through the screen point 122 and the screen point 122i and thus uniquely define the direction or optical path 118.
Optional ist es ebenfalls möglich, diese Schritte für weitere verschobene Bildschirmpositionen zu wiederholen, sodass zu jedem Pixel 1 12 eine Vielzahl von Positionen im 3D-Raum ermittelt werden können. Die erhaltenen Positionen können nun interpoliert bzw. durch eine Gerade angenähert werden, um so die Kalibration zu erhalten.  Optionally, it is also possible to repeat these steps for further shifted screen positions so that for each pixel 1 12 a plurality of positions in the 3D space can be determined. The obtained positions can now be interpolated or approximated by a straight line so as to obtain the calibration.
Wenn die Verschiebung nicht parallel zur z-Achse (z.B. Flächennormalen des Bildschirms) erfolgte, kann ein relativer Winkel des Bildschirmes zur z-Achse (d.h. die zs-Richtung) wie folgt bestimmt werden. Zunächst wird die Gerade 118 wie zuvor beschrieben durch Messungen für zumindest zwei Entfernungen von der Kamera bestimmt. Die Genauigkeit kann weiter erhöht werden, indem wie gesagt zusätzliche Entfernungen des Bildschirmes 120i (i = 1 , 2, ...) von der Kamera 110 genommen werden, um so eine möglichst genaue Bestimmung der Gerade 118 zu erreichen. Nachdem die Gerade 118 für den derart orientierten Bild- schirm 120 bestimmt wurde, wird der Bildschirm 120 um einen vorbestimmten Winkel gedreht und entlang der gedrehten Achse wiederum relativ zu der Kamera 1 10 verschoben. Die Messung wird für ein solches gedrehtes Koordinatensystem wiederholt. Da ein gegebenes Kamerapixel 112 immer noch in die gleiche Richtung schaut und die Kamera 1 10 selbst nicht geändert wurde, ist es durch einen Vergleich der ersten Anordnung zur zweiten, gedrehten Anordnung möglich, die relative Lage und Orientierung des Bildschirmes 120i zu dem Koordinatensystem, welches durch die erste Bildschirmposition 120 definiert ist, zu bestimmen. Danach können alle von einem Kamerapixel gesehenen Bildpunkte 122, die von verschiedenen Bildschirmpositionen stammen, im gleichen, durch die erste (oder irgendeine andere) Bildschirmposition festgelegten Koordinatensystem dargestellt und die zugehörige Gerade 118 berechnet werden. If the shift was not parallel to the z-axis (eg, surface normal of the screen), a relative angle of the screen to the z-axis (ie, the z s direction) may be determined as follows. First, the line 118 is determined as described above by measurements for at least two distances from the camera. The accuracy can be further increased by, as I said, additional distances of the screen 120i (i = 1, 2,...) Are taken by the camera 110 so as to achieve the most accurate determination of the straight line 118. After the line 118 for the thus oriented image screen 120 is determined, the screen 120 is rotated by a predetermined angle and again shifted relative to the camera 1 10 along the rotated axis. The measurement is repeated for such a rotated coordinate system. Since a given camera pixel 112 is still looking in the same direction and the camera 10 itself has not been changed, it is possible by comparing the first arrangement to the second, rotated arrangement, the relative position and orientation of the screen 120i to the coordinate system defined by the first screen position 120. Thereafter, all pixels 122 seen from a camera pixel, originating from different screen positions, may be displayed in the same coordinate system defined by the first (or any other) screen position and the associated line 118 calculated.
Das vorgestellte Verfahren kann auch wie folgt zusammengefasst werden.  The presented method can also be summarized as follows.
Die Fig. 5 zeigt eine Momentaufnahme eines Monitorbildes zur Kalibration der Kamera 110. Die Kamera 110 wird beispielsweise derart positioniert, dass der Monitor 120 durch die Kamera 110 sichtbar ist. Auf dem Monitor 120 kann beispielsweise ein horizontales periodisches Muster (beispielsweise in Form einer Sinusfunktion) als Kalibrationsmuster angezeigt werden (siehe Fig. 7). Dieses Muster wird in äquidistanten Schritten (beispielsweise vier bis beliebig viele, vorzugsweise acht bis zehn), um insgesamt eine Periode weitergerückt. Jedes Pixel der Kamera 110, welches den Monitor 120 gerade sieht, sieht aufgrund der Verschiebung nun eine um eine bestimmte Phase verschobene Grauwertschwingung. Diese Phasenverschiebung (zwischen 0 und 2 ττ) lässt sich aus den aufgenommenen Grauwerten zurückberechnen. Da der Monitor 120 mehrere Grauwertperioden anzeigt, ist es abschließend lediglich erforderlich, die Phasenlage zu ermitteln. Dies kann mittels der Anzeige eines weiteren Bildes (des Eichbildes, wie es in der Fig. 6 gezeigt ist) geschehen. Dieses Eichbild um- fasst eine Markierung einer bekannten Phasenlage, die beispielsweise die Mitte des Bildschirmes 120 sein kann oder auch jeden beliebigen anderen Punkt des Bildschirmes umfassen kann - sie sollte nur genau bekannt sein. Anschließend ist es möglich, benachbarte Phasen problemlos zu bestimmen. Die gezeigten Schritte können ebenfalls vertikal wiederholt werden, so dass ebenfalls eine Kalibration hinsichtlich der vertikalen Richtung möglich ist.  FIG. 5 shows a snapshot of a monitor image for calibrating the camera 110. The camera 110 is positioned, for example, in such a way that the monitor 120 is visible through the camera 110. On the monitor 120, for example, a horizontal periodic pattern (for example in the form of a sine function) may be displayed as a calibration pattern (see FIG. 7). This pattern is advanced in equidistant steps (for example, four to as many as desired, preferably eight to ten) by a total of one period. Each pixel of the camera 110, which is currently viewing the monitor 120, now sees a gray value oscillation shifted by a certain phase due to the shift. This phase shift (between 0 and 2 ττ) can be calculated back from the recorded gray values. Since the monitor 120 displays several gray scale periods, it is finally only necessary to determine the phase position. This can be done by means of the display of another image (the calibration image, as shown in FIG. 6). This calibration image comprises a mark of a known phase position, which may for example be the center of the screen 120 or may also comprise any other point of the screen - it should only be known exactly. Then it is possible to easily determine adjacent phases. The steps shown can also be repeated vertically, so that a calibration with respect to the vertical direction is also possible.
Aus der horizontalen und vertikalen absoluten Phasenlage ist es nun möglich, subpixelgenau das Monitorpixel 122 zu ermitteln, welches von einem bestimmten Kamerapixel 1 12 gesehen wurde. Die Monitor-Bildschirmposition kann dann ebenfalls in mm umgerechnet und in einem Weltkoordinatensystem W angegeben werden. Der Ursprung des Weltkoordinatensystems W kann beispielsweise im Mittelpunkt des Monitors 120 liegen, wobei die x-Achse nach rechts und die y-Achse nach unten zeigt, und die z-Achse senkrecht darauf steht, d.h. eine Flächennormale der Monitorebene ist (in der Fig. 7 nach hinten). Dies bezieht sich auf eine erste Position des Monitors 120, in der jedem Kamerapixel (n,m) eine erste Weltkoordinate xow(n,m) zugeordnet wird. From the horizontal and vertical absolute phase position, it is now possible to determine subpixel exactly the monitor pixel 122, which was seen by a specific camera pixel 1 12. The monitor screen position can then also be converted to mm and specified in a world coordinate system W. For example, the origin of the world coordinate system W may be at the center of the monitor 120, with the x-axis after to the right and the y-axis points downwards, and the z-axis is perpendicular thereto, ie a surface normal of the monitor plane is (in the Fig. 7 to the rear). This refers to a first position of the monitor 120 in which each camera pixel (n, m) is assigned a first world coordinate xow (n, m).
Weiter ist es möglich, zusätzliche Monitorpositionen zu wählen, deren Lagen im Weltkoordinatensystem W bekannt sind, oder sich aus weiteren Daten rückberechnen lassen. Eine dieser Möglichkeiten kann wie folgt skizziert werden:  Furthermore, it is possible to select additional monitor positions whose positions are known in the world coordinate system W, or can be back-calculated from further data. One of these options can be outlined as follows:
Der Monitor 120 (oder gleichbedeutend die Kamera 1 10) wird auf einer Linearführungsschiene um einen bestimmten Betrag 5zs beispielsweise in eine unbekannte Richtung verschoben. Die dem Monitorpixel 122 zugeordneten x- und y-Werte werden wie gehabt berechnet, wobei die z-Koordinate aber entlang der unbekannten Verschiebungsrichtung gemessen wird. Dies definiert ein neues, geschertes Koordinatensystem S mit nichtrechtwinkliger z-Achse (siehe Fig. 7), da die Verschiebungsrichtung im Allgemeinen nichtparallel zur z-Achse ist. Der Ursprung, die x- und y-Richtung von S stimmen mit dem Weltkoordinatensystem W überein. Für z = 0 stimmen die beiden Koordinatensysteme also überein, wobei folgende Beziehung gilt: xow(n,m) = xos(n.m). The monitor 120 (or equivalent to the camera 1 10) is moved on a linear guide rail by a certain amount 5 z s, for example, in an unknown direction. The x and y values associated with the monitor pixel 122 are calculated as before, but the z coordinate is measured along the unknown displacement direction. This defines a new sheared co-ordinate system S with non-orthogonal z-axis (see Fig. 7), since the displacement direction is generally non-parallel to the z-axis. The origin, the x and y directions of S coincide with the world coordinate system W. For z = 0, the two coordinate systems agree, with the following relation: xow (n, m) = xos (nm).
Anschließend können weitere 3D-Punkte aufgenommen werden, die auf ein bestimmtes Pixel abgebildet werden. Man erhält somit s(n,m) mit 0 < i < N-1 , wobei N die Anzahl der verwendeten Monitorpositionen ist. Im Falle eines festen Kamerafokus kann nun für jedes Kamerapixel (n,m) eine Regressionsgerade durch die Positionen Xis(n.m) berechnet werden. Im Falle eines Autofokus können schlicht die Werte Xis(n.m) selbst gespeichert werden. Die Kamera 110 ist nun im gescherten Koordinatensystem S kalibriert.  Subsequently, additional 3D points can be recorded, which are mapped to a specific pixel. One thus obtains s (n, m) with 0 <i <N-1, where N is the number of monitor positions used. In the case of a fixed camera focus, a regression line can now be calculated for each camera pixel (n, m) by the positions Xis (n.m). In the case of autofocus, the values Xis (n.m) can simply be stored. The camera 110 is now calibrated in the sheared coordinate system S.
Die fehlende Transformation zwischen dem gescherten Koordinatensystem S und dem Weltkoordinatensystem W, die dazu genutzt werden kann, die Kalibration in ein rechtwinkliges Koordinatensystem zu transformieren, kann durch eine Aufnahme weiterer Monitorpositionen ermittelt werden. Diese weiteren Monitorpositionen sind nicht parallel zu den Kalibrationspo- sitionen. Bestenfalls wird der Monitor 120 schlicht um einen bestimmten Winkel um seine vertikale Symmetrieachse gedreht und wiederum auf der Linearführungsschiene verschoben. Die unbekannte Richtung zs kann nun aus diesen Daten bestimmt werden.  The missing transformation between the sheared coordinate system S and the world coordinate system W, which can be used to transform the calibration into a rectangular coordinate system, can be determined by recording further monitor positions. These other monitor positions are not parallel to the calibration positions. At best, the monitor 120 is simply rotated by a certain angle about its vertical axis of symmetry and again shifted on the linear guide rail. The unknown direction zs can now be determined from this data.
Es ist nicht zwingend erforderlich, alle Kamerapixel 1 12 gleichzeitig zu kalibrieren. Bei stark verzerrenden Optiken kann es sein, dass der Monitor 120 nicht das ganze Kamerabild ausfüllt. Dann werden immer nur Teilbereiche der Kamera 1 10 kalibriert, wobei die einzelnen Teilbereiche sich überlappen. Mittels eines sogenannten„Stitching", also dem passgenauen Aneinanderfügen der Teilkalibrationen, kann dann wieder die Kalibration in einem gemeinsamen Koordinatensystem erreicht werden. It is not mandatory to calibrate all camera pixels 1 12 simultaneously. With highly distorting optics, the monitor 120 may not fill the entire camera image. Then only portions of the camera 1 10 are always calibrated, with the individual sections overlap. By means of a so-called "stitching", the tailor-made Joining the sub-calibrations, then the calibration can be achieved again in a common coordinate system.
Im Unterschied zu den konventionellen Verfahren wird also zur Bestimmung der Abbildungseigenschaften der Kamera 110 kein statisches (ausgedrucktes) Kalibrationsmuster mehr verwendet, sondern ein handelsüblicher Bildschirm (Monitor, Fernseher) mit möglichst hoher Auflösung, der es erlaubt, beliebige Kalibrationsmuster zu erzeugen.  In contrast to the conventional methods, therefore, no static (printed) calibration pattern is used to determine the imaging properties of the camera 110, but a commercially available monitor (monitor, television) with the highest possible resolution, which makes it possible to generate arbitrary calibration patterns.
Weiterhin wird der Kalibration kein Modell mehr zu Grunde gelegt, dessen Parameter es zu bestimmen gilt. Es wird schlicht für jedes einzelne Pixel der Kamera 1 10 (ca. 1 bis 5 Millionen) bestimmt, welche Weltpunkte es sieht. Das Resultat der Kalibration ist somit ein Look- Up-Tabelle, in der für jedes Kamerapixel 1 12 eine Menge von Punkten gespeichert ist, die auf dieses Pixel abgebildet werden. Im einfachsten Fall handelt es sich dabei jeweils um Geraden, beispielsweise wenn der Kamera-Fokus bei der Kalibration nicht verändert wurde. Furthermore, the calibration is no longer based on a model whose parameters are to be determined. It is simply determined for each pixel of the camera 1 10 (about 1 to 5 million), which world points it sees. The result of the calibration is thus a look-up table in which, for each camera pixel 112, a set of points which are mapped onto this pixel are stored. In the simplest case, these are in each case straight lines, for example if the camera focus was not changed during the calibration.
Das offenbarte Verfahren bietet insbesondere die folgenden Vorteile: The disclosed method offers the following advantages in particular:
(i) Die Anzahl der Punktkorrespondenzen, die zur Bestimmung der Abbildungseigenschaften des Gesamtsystems aus Kamera, Linsen und optischen Elementen verwendet wird, ist bei diesem Verfahren deutlich größer. Beispielsweise kann es sich auf ein Vielfaches der Anzahl von Kamerapixeln, also mehrere Millionen beziehen, im Vergleich zu 100 bis 1000 bei konventionellen Verfahren, die auf einem Modell basieren. Die Zeit zur Bestimmung dieser Korrespondenzen ist dabei von vergleichbarer Größenordnung.  (i) The number of dot correspondences used to determine the imaging characteristics of the overall system of camera, lenses, and optical elements is significantly greater in this process. For example, it can be a multiple of the number of camera pixels, that is, several millions, compared to 100 to 1000 in conventional methods based on a model. The time to determine these correspondences is of comparable magnitude.
(ii) Jedes Pixel der Kamera wird einzeln kalibriert. Dies garantiert höchste Präzision bis in die Randbereiche des Kamerabildes und somit deutlich bessere Resultate bei der Verwendung der Kalibration in der Bildverarbeitung.  (ii) Each pixel of the camera is calibrated individually. This guarantees maximum precision right into the edge areas of the camera image and thus significantly better results when using the calibration in image processing.
(iii) Es lassen sich auch optisch komplizierte Systeme aus Kamera, Linsen und optischen Eigenschaften (beispielsweise Spiegeln) kalibrieren. Somit entstehen neue, unkonventionelle Lösungen.  (iii) It is also possible to calibrate optically complicated systems comprising camera, lenses and optical properties (for example mirrors). This creates new, unconventional solutions.
Fig. 9A zeigt ein weiteres Ausführungsbeispiel, bei dem das zuvor beschriebene Verfahren nicht zur Kalibrierung einer einzelnen Kamera genutzt wird, sondern zur Kalibrierung einer Einheit von mindestens zwei Kameras 110, 120 verwendet wird, wobei die Vielzahl von Kameras 110, 120 in fester Relation zueinander steht. Die feste Relation definiert beispielsweise die relative Position und Ausrichtung der ersten Kamera 110 und der zweiten Kamera 120 und wird durch die Befestigung der Kameras 110, 120 an der Führungsschiene 150 erreicht. Zum Beispiel kann der Abstand und/oder eine relative Verkippung zwischen der ersten Kamera 1 10 zu der zweiten Kamera 120 vorbestimmt sein. Gezeigt sind nur zwei Kameras 110, 120. Es versteht sich aber, dass dieses Verfahren für eine beliebige Anzahl von Kameras anwendbar ist. Mit dem Verfahren können alle Kameras automatisch im gleichen Koordinatensystem kalibriert werden, da sie alle die gleichen Positionen des verwendeten Monitors 120 betrachten. Beispielsweise erfassen die Kameras 1 10, 210 gleichzeitig den Bildwert eines Monitorpixels 122, die erste Kamera 1 10 mit dem Kamerapixel 122 und die zweite Kamera 210 mit dem Kamerapixel 212. Eine der Monitorpositionen, in einer bevorzugten Ausführung die erste Monitorposition, definiert dabei das für alle Kameras 1 10, 120 gleiche Kalibrierkoordinatensystem. In einer bevorzugten Ausführung liegt der Ursprung des Kalibrierkoordinatensystems in der Mitte der Bildfläche der ersten Monitorposition, die x-Achse zeigt horizontal nach rechts, die y-Achse zeigt vertikal nach unten und die z-Achse steht senkrecht auf der Monitorebene und zeigt in diese hinein (d.h. entlang der Führungsschiene 150).9A shows a further embodiment in which the method described above is not used to calibrate a single camera but is used to calibrate a unit of at least two cameras 110, 120, wherein the plurality of cameras 110, 120 are in fixed relation to one another stands. The fixed relation, for example, defines the relative position and orientation of the first camera 110 and the second camera 120, and is achieved by attaching the cameras 110, 120 to the guide rail 150. For example, the distance and / or relative tilt between the first camera 110 to the second camera 120 may be predetermined. Shown are only two cameras 110, 120. However, it should be understood that this method is applicable to any number of cameras. With the method, all cameras can be automatically calibrated in the same coordinate system, as they all look at the same positions of the monitor 120 used. For example, the cameras 1 10, 210 simultaneously capture the image value of a monitor pixel 122, the first camera 110 with the camera pixel 122, and the second camera 210 with the camera pixel 212. One of the monitor positions, in a preferred embodiment, the first monitor position, defines that for all cameras 1 10, 120 same calibration coordinate system. In a preferred embodiment, the origin of the calibration coordinate system lies in the center of the image plane of the first monitor position, the x-axis points horizontally to the right, the y-axis points vertically downward, and the z-axis is perpendicular to the monitor plane and points into it (ie along the guide rail 150).
Falls jede Kamera in einem eigenen Kalibrierkoordinatensystem kalibriert werden würde (und nicht als Einheit), müsste im Nachgang der eigentlichen Kalibrierung die Relativtransformationen zwischen den einzelnen Kalibrier- bzw. Kamerakoordinatensystem bestimmt werden. Gemäß diesem Ausführungsbeispiel entfällt dieser Schritt, was einen Vorteil darstellt. Außerdem wird eine höhere Genauigkeit des Gesamtsystems erreicht, das beispielsweise zur Triangulation von Punkten im Raum verwendet werden kann (z.B. bei stereoskopischen oder 3D-Kameras). If each camera were calibrated in its own calibration coordinate system (and not as a unit), the relative transformations between the individual calibration or camera coordinate system would have to be determined after the actual calibration. According to this embodiment, this step is omitted, which is an advantage. In addition, higher accuracy of the overall system is achieved, which can be used, for example, for triangulating points in space (e.g., in stereoscopic or 3D cameras).
In einer bevorzugten Ausführung der Erfindung ist die Richtung der Linearführungsschiene 150 in dem - vorzugsweise durch die erste Monitorposition definierten Kalibrierkoordinatensystem - nicht bekannt (siehe zum Beispiel Fig.7 oder Fig. 9). Während die z-Achse des Kalibrierkoordinatensystem senkrecht auf dessen Bildebene steht, bewegt sich der Monitor 120 bzw. die Kamera 110 mittels Linearführungsschiene 150 nicht exakt in z-Richtung des Kalibrierkoordinatensystems, sondern in eine zunächst unbekannte Richtung. Werden den Monitorpixeln der verschiedenen Monitorpositionen immer die gleiche x- und y-Koordinate zugewiesen, wird die Kamera 110 bzw. werden die Kameras 1 10, 120 zunächst in einem gescherten Kalibrierkoordinatensystem kalibriert, dessen z-Achse parallel zur Richtung der Linearführungsschiene 150 verläuft.  In a preferred embodiment of the invention, the direction of the linear guide rail 150 in the - preferably defined by the first monitor position Kalibrierkoordinatensystem - is not known (see, for example, Fig.7 or Fig. 9). While the z-axis of the Kalibrierkoordinatensystem is perpendicular to the image plane, the monitor 120 and the camera 110 moves by means of linear guide rail 150 is not exactly in the z-direction of the Kalibrierkoordinatensystems, but in an initially unknown direction. If the monitor pixels of the different monitor positions are always assigned the same x and y coordinates, the camera 110 or the cameras 1 10, 120 are first calibrated in a sheared calibration coordinate system whose z-axis is parallel to the direction of the linear guide rail 150.
Ausführungsbeispiele ermöglichen, die Richtung der Linearführungsschiene 150 im Kalibrierkoordinatensystem zu bestimmen, um die Sichtgeraden der einzelnen Kamerapixel 122, 212 vom gescherten in das kartesische Kalibrierkoordinatensystem zu überführen. Hierzu wird der Monitor nach Aufnahme der eigentlichen Kalibrierpositionen um einen unbekannten Winkel gedreht und in dieser neuen Winkellage wiederum mit Hilfe der Linearführungsschiene 150 in mindestens eine, vorzugsweise in mehrere Positionen gebracht und wiederum die beschriebenen Kalibriermuster eingeblendet und aufgenommen. Aus der Lage der von den einzelnen Kamerapixeln 112, 212 gesehenen Monitorpixel, die im gescherten Kalibrierkoordinatensystem perspektivisch verzerrt erscheinen, kann mittels geeigneter Algorithmen eindeutig auf die Richtung der Linearführungsschiene 150 geschlossen und somit die Scherung des Kalibrierkoordinatensystem korrigiert werden. Embodiments make it possible to determine the direction of the linear guide rail 150 in the calibration coordinate system in order to transfer the line of sight of the individual camera pixels 122, 212 from the sheared to the Cartesian calibration coordinate system. For this purpose, the monitor is rotated by an unknown angle after recording the actual calibration positions and again in this new angular position with the aid of the linear guide rail 150 brought in at least one, preferably in a plurality of positions and in turn displayed and recorded the described calibration pattern. The position of the monitor pixels seen by the individual camera pixels 112, 212 that appear distorted in the sheared calibration coordinate system can be unequivocally closed by means of suitable algorithms on the direction of the linear guide rail 150 and thus the shear of the calibration coordinate system can be corrected.
Fig. 9B zeigt ein Ausführungsbeispiel zur Bestimmung von Brechungseigenschaften eines Bildschirmes 120. Dabei erfasst eine unkalibrierte Kamera 1 10 zumindest einen Bildpunkt des Bildschirmes 120. Anschließend wird die Kamera 110 um eine Drehachse (um einen Winkel a) gedreht, die sich vorzugsweise in einer Nähe oder auf der Bildebene des Bildschirmes 120 befindet. Danach erfasst die Kamera 1 10 erneut den Bildpunkt, der sich aufgrund der Brechung räumlich auf der Bildschirmoberfläche verschoben hat. Abschließend werden aus der beobachteten Verschiebung des Bildpunktes die Brechungseigenschaften ermittelt. Die Brechungseigenschaften umfassen beispielsweise einen Brechungsindex und/oder eine Dicke der brechenden Schicht.  9B shows an exemplary embodiment for determining refractive properties of a screen 120. In this case, an uncalibrated camera 1 10 captures at least one pixel of the screen 120. Subsequently, the camera 110 is rotated about an axis of rotation (at an angle a), which is preferably in a vicinity or at the image plane of the screen 120. Thereafter, the camera 1 10 again detects the pixel, which has moved due to the refraction spatially on the screen surface. Finally, the refractive properties are determined from the observed shift of the pixel. The refractive properties include, for example, a refractive index and / or a thickness of the refractive layer.
Dieses Ausführungsbeispiel berücksichtigt daher die Tatsache, dass sich über den strah- lungserzeugenden Elementen des Monitors 120 noch eine Schutzschicht (Frontscheibe bzw. Beschichtung) befindet kann, deren Brechungseigenschaften dafür sorgen, dass die darunterliegenden Monitorpixel von der zu kalibrierenden Kamera 1 10 an einer leicht verschobenen Stelle gesehen werden. Dieser Effekt wächst mit zunehmendem Wnkel a, unter dem der Sichtstrahl eines Kamerapixels den Monitor 120 betrachtet. Diese Verschiebung lässt sich korrigieren, wenn die Brechungseigenschaften der Schutzschicht - beispielsweise deren Dicke und Brechungsindex - bekannt sind.  This exemplary embodiment therefore takes into account the fact that a protective layer (front pane or coating) can still be located above the radiation-generating elements of the monitor 120 whose refractive properties ensure that the underlying monitor pixels are slightly shifted from the camera 110 to be calibrated Be seen. This effect increases as the angle a increases as the viewing beam of a camera pixel views the monitor 120. This shift can be corrected if the refractive properties of the protective layer - such as its thickness and refractive index - are known.
Das in der Fig. 9B gezeigte Ausführungsbeispiele vermisst die Brechungseigenschaften der Schutzschicht des verwendeten Monitors unter Zuhilfenahme der unkalibrierten Kamera präzise. In dem beispielhaften Aufbau zur Bestimmung der Brechungseigenschaften eines Monitors wird die unkalibrierte Kamera 220 auf einem Drehteller 140 montiert, dessen Drehachse vorzugsweise in der Nähe oder auf der Bildebene des zu vermessenden Monitors 120 liegt. Die unkalibrierte Kamera 110 betrachtet nachfolgend den Monitor unter bekannten Wnkeln a, wobei der Monitor 120 die bekannten horizontalen und vertikalen Muster zeigt. Aus der Menge an Monitorpixelpositionen, die ein einzelnes Kamerapixel auf diese Weise unter verschiedenen Winkeln identifiziert hat, kann man eindeutig auf die Brechungseigenschaften der Schutzschicht schließen. Beispielsweise können bis zu 10 oder 40 oder mehr Winkel vermessen werden, wobei die Erfindung auf die konkrete Anzahl Wnkeln nicht eingeschränkt ist. Gemäß weiteren Ausführungsbeispielen ist es nicht erforderlich, dass jedem Kamerapixel 112 eine eindeutige Sichtgerade zugeordnet wird, dass also die Menge aller Punkte, die auf das gleiche Kamerapixel 112 abgebildet werden, exakt auf einer Geraden liegt. Diese Annahme ist nur dann richtig, wenn der Fokus der Kamera 1 10 fest ist und sich zwischen Kalibrierung und Verwendung nicht ändert. Wird der Fokus der Kamera 1 10 verändert oder wird diese mit automatischer Nachregelung des Fokus betrieben, stimmt diese Annahme nicht mehr. The embodiment shown in FIG. 9B precisely measures the refractive properties of the protective layer of the monitor used with the aid of the uncalibrated camera. In the exemplary configuration for determining the refractive characteristics of a monitor, the uncalibrated camera 220 is mounted on a turntable 140, the axis of rotation of which is preferably near or at the image plane of the monitor 120 to be measured. The uncalibrated camera 110 subsequently views the monitor under known conditions a, with the monitor 120 showing the known horizontal and vertical patterns. From the amount of monitor pixel positions that a single camera pixel has identified at different angles in this way, one can clearly conclude the refractive properties of the protective layer. For example, up to 10 or 40 or more angles can be measured, the invention not being limited to the specific number of angles. According to further embodiments, it is not necessary that each camera pixel 112 is assigned a unique line of sight, ie that the set of all points imaged on the same camera pixel 112 lies exactly on a straight line. This assumption is only correct if the focus of the camera 1 10 is fixed and does not change between calibration and use. If the focus of the camera 1 10 changed or this is operated with automatic readjustment of the focus, this assumption is no longer true.
Daher ist in dem erfindungsgemäßen Verfahren nicht erforderlich, dass die Menge aller Punkte, die auf das gleiche Kamerapixel 1 12 abgebildet werden, auf einer Geraden liegen. Vielmehr können sie eine gekrümmte, eindimensionale Kurve im dreidimensionalen Raum bilden. Gemäß weiteren Ausführungsbeispielen werden daher nicht Regressionsgeraden aus zwei oder mehr Punkten, die auf das gleiche Kamerapixel 1 12 abgebildet werden, bestimmt, sondern für jedes Kamerapixel 112 wird eine Vielzahl von Weltpunkten im Kalibrierkoordinatensystem abgepeichert, die auf ein bestimmtes Kamerapixel 1 12 abgebildet werden. Die gekrümmte, eindimensionale Kurve jedes Kamerapixels kann dabei entsprechend der Anzahl der verwendeten Monitorpositionen beliebig granulär abgetastet und gespeichert werden. Therefore, in the method according to the invention, it is not necessary for the set of all dots imaged on the same camera pixel 12 to lie on a straight line. Rather, they can form a curved, one-dimensional curve in three-dimensional space. According to further exemplary embodiments, therefore, regression lines from two or more points imaged on the same camera pixel 12 are not determined, but for each camera pixel 112 a plurality of world points are stored in the calibration coordinate system which are imaged onto a specific camera pixel 12. The curved, one-dimensional curve of each camera pixel can be scanned arbitrarily granular and stored according to the number of monitor positions used.
Es versteht sich, dass alle zuvor beschriebenen Verfahrensschritte oder Merkmale der Vorrichtungen auch in diesen weiteren Verfahren/Vorrichtungen umgesetzt sein können. Zur Vermeidung von Wiederholungen sollen diese weiteren Einschränkungen hier nicht erneut beschrieben werden. It is understood that all of the above-described method steps or features of the devices can also be implemented in these other methods / devices. To avoid repetition, these other limitations should not be described again here.
Die in der Beschreibung, den Ansprüchen und den Figuren offenbarten Merkmale der Erfindung können sowohl einzeln als auch in beliebiger Kombination für die Verwirklichung der Erfindung wesentlich sein. The features of the invention disclosed in the description, the claims and the figures may be essential for the realization of the invention either individually or in any combination.
Bezugszeichenliste LIST OF REFERENCE NUMBERS
110, 210 Kameras 110, 210 cameras
112a,b, 212 Kamerapixel  112a, b, 212 camera pixels
113 Bildebene der Kamera  113 image plane of the camera
114 Optik  114 optics
118 optischer Pfad  118 optical path
120 Bildschirm  120 screen
120i Bildschirm in veränderter Position  120i screen in a different position
122a,b Bildpunkte  122a, b pixels
122i Bildpunkte auf Bildschirm in veränderter Position 122i pixels on screen in a different position
124 festes Bildmuster, Eichbildpunkt 124 fixed image pattern, calibration pixel
125 Mittelpunkt des Eichbildpunktes  125 center of the calibration pixel
140 Drehteller  140 turntable
150 Führungsschiene  150 guide rail
220 Hintergrund  220 background
501..503 Eichbildpunkte eines konventionellen Musters 501..503 calibration points of a conventional pattern
BW Bildwerte BW image values

Claims

Patentansprüche claims
Verfahren zur Kalibration einer Kamera (110) unter Nutzung eines Bildschirmes (120), wobei der Bildschirm (120) eine Menge von Bildpunkten (122) aufweist und die Kamera (1 10) eine Vielzahl von Pixeln (112) zur Darstellung eines Bildes nutzt, mit folgenden Schritten A method of calibrating a camera (110) using a screen (120), wherein the screen (120) comprises a set of pixels (122) and the camera (110) uses a plurality of pixels (112) to display an image, with the following steps
(a) Darstellen zumindest eines Bildwertes (BW) in zumindest einem Bildpunkt (122) des Bildschirms (120) basierend auf einer Bildwertzuweisung;  (a) displaying at least one image value (BW) in at least one pixel (122) of the screen (120) based on an image value assignment;
(b) Erfassen des zumindest einen Bildwertes (BW) durch einen Pixel (1 12a) der Kamera (110); und  (b) detecting the at least one image value (BW) by a pixel (1 12a) of the camera (110); and
(c) Bestimmen der Position des zumindest einen Bildpunktes (122) auf dem Bildschirm (120) basierend auf dem zumindest einen erfassten Bildwert (BW) und der Bildwertzuweisung;  (c) determining the position of the at least one pixel (122) on the screen (120) based on the at least one captured image value (BW) and the image value assignment;
(c1) Verschieben des Bildschirmes (120) oder der Kamera (1 10) in eine Richtung um einen Betrag, sodass der zumindest eine Bildpunkt (122) eine andere Entfernung zu dem Pixel (112a) der Kamera (1 10) aufweist als vor dem Verschieben, und  (c1) shifting the screen (120) or the camera (1 10) in one direction by an amount such that the at least one pixel (122) is at a different distance from the pixel (112a) of the camera (1 10) than before Move, and
(c2) Wiederholen zumindest der Schritte (b) und (c) für den verschobenen Bildschirm (120i),  (c2) repeating at least steps (b) and (c) for the shifted screen (120i),
wobei die Kamera (110) einen variablen Fokus beim Verschieben des Bildschirmes (120) relativ zu der Kamera (110) aufweist, und das Verfahren weiter ein Abspeichern einer Zuordnung bezüglich des Pixels (112) und der Positionen des zumindest einen Bildpunktes (122) für verschiedene verschobene Bildschirmpositionen (120i) umfasst. wherein the camera (110) has a variable focus when moving the screen (120) relative to the camera (110), and the method further storing an association with the pixel (112) and the positions of the at least one pixel (122) includes various shifted screen positions (120i).
Verfahren zur Kalibration einer Einheit aus einer ersten Kamera (1 10) und einer zweiten Kamera (210) unter Nutzung eines Bildschirmes (120), wobei der Bildschirm (120) eine Menge von Bildpunkten (122) aufweist und die erste Kamera (1 10) eine Vielzahl von Pixeln (112) zur Darstellung eines Bildes nutzt und die zweite Kamera (210) eine Vielzahl von Pixeln (212) zur Darstellung eines Bildes nutzt und die erste und zweite Kamera (110, 210) in einer vorbestimmten Relation zueinander stehen, mit folgenden Schritten: Method for calibrating a unit from a first camera (1 10) and a second camera (210) using a screen (120), wherein the screen (120) has a set of pixels (122) and the first camera (1 10) uses a plurality of pixels (112) to display an image, and the second camera (210) uses a plurality of pixels (212) to display an image and the first and second cameras (110, 210) are in a predetermined relation to each other following steps:
(a) Darstellen zumindest eines Bildwertes (BW) in zumindest einem Bildpunkt (122) des Bildschirms (120) basierend auf einer Bildwertzuweisung; (b) Erfassen des zumindest einen Bildwertes (BW) durch einen Pixel (1 12) der ersten Kamera (110) und durch einen Pixel (212) der zweiten Kamera; und(a) displaying at least one image value (BW) in at least one pixel (122) of the screen (120) based on an image value assignment; (b) capturing the at least one image value (BW) by a pixel (1 12) of the first camera (110) and by a pixel (212) of the second camera; and
(c) Bestimmen der Position des zumindest einen Bildpunktes (122) auf dem Bildschirm (120) basierend auf dem zumindest einen erfassten Bildwert (BW) und der Bildwertzuweisung. (c) determining the position of the at least one pixel (122) on the screen (120) based on the at least one captured image value (BW) and the image value assignment.
Verfahren zum Ermitteln einer Verschiebungsrichtung eines Bildschirmes (120) relativ zu einer Kamera (1 10) mit folgenden Schritten: Method for determining a direction of displacement of a screen (120) relative to a camera (110), comprising the following steps:
(A) Kalibrieren der Kamera unter Nutzung eines Bildschirmes (120), wobei der Bildschirm (120) eine Menge von Bildpunkten (122) aufweist und die Kamera (1 10) eine Vielzahl von Pixeln (112) zur Darstellung eines Bildes nutzt durch die folgenden Schritte:  (A) calibrating the camera using a screen (120), wherein the screen (120) has a set of pixels (122), and the camera (110) uses a plurality of pixels (112) to display an image through the following Steps:
(a) Darstellen zumindest eines Bildwertes (BW) in zumindest einem Bildpunkt (122) des Bildschirms (120) basierend auf einer Bildwertzuweisung;  (a) displaying at least one image value (BW) in at least one pixel (122) of the screen (120) based on an image value assignment;
(b) Erfassen des zumindest einen Bildwertes (BW) durch einen Pixel (1 12a) der Kamera (110); und  (b) detecting the at least one image value (BW) by a pixel (1 12a) of the camera (110); and
(c) Bestimmen der Position des zumindest einen Bildpunktes (122) auf dem Bildschirm (120) basierend auf dem zumindest einen erfassten Bildwert (BW) und der Bildwertzuweisung;  (c) determining the position of the at least one pixel (122) on the screen (120) based on the at least one captured image value (BW) and the image value assignment;
(c1) Verschieben des Bildschirmes (120) oder der Kamera (1 10) entlang der Verschiebungsrichtung um einen Betrag, sodass der zumindest eine Bildpunkt (122) eine andere Entfernung zu dem Pixel (1 12a) der Kamera (1 10) aufweist als vor dem Verschieben, und  (c1) shifting the screen (120) or the camera (1 10) along the direction of displacement by an amount such that the at least one pixel (122) is at a different distance from the pixel (1 12a) of the camera (1 10) than before moving, and
(c2) Wiederholen zumindest der Schritte (b) und (c) für den verschobenen Bildschirm (120i); und  (c2) repeating at least steps (b) and (c) for the shifted screen (120i); and
(B) Drehen der Verschiebungsrichtung oder des Bildschirmes (120), sodass die Kamera (120) relativ zum Bildschirm (120) entlang einer anderen Verschiebungsrichtung verschiebbar ist;  (B) rotating the direction of displacement or the screen (120) so that the camera (120) is slidable relative to the screen (120) along another direction of translation;
(C) Wiederholen der Kalibrierung gemäß der Schritte (A); und  (C) repeating the calibration according to the steps (A); and
(D) Ermitteln der Verschiebungsrichtung aus einem Vergleich der Kalibrierungen (A) und (C). Verfahren zum Ermitteln von Brechungseigenschaften eines Bildschirmes (120) unter Nutzung einer unkalibrierten Kamera (110), wobei die Kamera (110) eine Vielzahl von Pixeln (1 12) zur Darstellung eines Bildes nutzt und der Bildschirm (120) eine Menge von Bildpunkten (122) aufweist, mit folgenden Schritten: (D) Determining the direction of displacement from a comparison of the calibrations (A) and (C). A method of determining refractive characteristics of a screen (120) using an uncalibrated camera (110), wherein the camera (110) uses a plurality of pixels (1 12) to display an image and the screen (120) comprises a set of pixels (122 ), comprising the following steps:
(A) Darstellen zumindest eines Bildwertes (BW) in zumindest einem Bildpunkt (122) des Bildschirms (120);  (A) displaying at least one image value (BW) in at least one pixel (122) of the screen (120);
(B) Erfassen des zumindest einen Bildwertes (BW) durch einen Pixel (1 12) der Kamera (110);  (B) detecting the at least one image value (BW) by a pixel (1 12) of the camera (110);
(C) Drehen der Kamera (1 10) oder des Bildschirmes (120) um eine Drehachse um zumindest einen Wnkel (a);  (C) rotating the camera (1 10) or the screen (120) about an axis of rotation about at least one angle (a);
(D) Erfassen des zumindest einen Bildwertes (BW) durch den Pixel (112) der Kamera (1 10); und  (D) detecting the at least one image value (BW) by the pixel (112) of the camera (110); and
(E) Ermitteln der Brechungseigenschaften aus einer räumlichen Verschiebung des erfassten Bildwertes im Schritt (B) im Vergleich zum erfassten Bildwert im Schritt (D) und des zumindest einen Winkels (a).  (E) determining the refractive properties from a spatial displacement of the detected image value in step (B) compared to the detected image value in step (D) and the at least one angle (a).
Verfahren nach einem der Ansprüche 1 bis 4, wobei der zumindest eine Bildwert (BW) ein Graustufenwert oder ein Farbwert eines Digitalbildes ist und die Bildwertzuweisung jeweils benachbarten Bildpunkten (122) des Bildschirms (120) verschiedene Bildwerte (BW) aus einer Vielzahl von Bildwerten (BW) derart zuweist, dass in zumindest einem Teil des Bildschirmes (120) eine eindeutige Zuweisung von Bildwerten (BW) eine Ortsbestimmung basierend auf den zugewiesenen Bildwerten (BW) ermöglicht. Method according to one of claims 1 to 4, wherein the at least one image value (BW) is a grayscale value or a color value of a digital image and the image value assignment respectively adjacent pixels (122) of the screen (120) different image values (BW) from a plurality of image values ( BW) such that in at least one part of the screen (120) a clear assignment of image values (BW) makes it possible to determine the location based on the assigned image values (BW).
Verfahren nach Anspruch 5, wobei die Schritte (a) bis (c) für eine horizontale Positionsbestimmung und für eine vertikale Positionsbestimmung unabhängig voneinander ausgeführt werden. Method according to claim 5, wherein the steps (a) to (c) are carried out independently of each other for a horizontal position determination and for a vertical position determination.
Verfahren nach einem der Ansprüche 1 bis 6, wobei der Schritt (a) ein Darstellen zumindest einer Periode eines periodischen Musters von Bildwerten (BW) auf dem Bildschirm (120) umfasst, und wobei der Bildwert (BW) ein Bildwert (BW) aus dem periodischen Muster ist und der Schritt (b) weiter folgende Schritte umfasst: (b1) Ändern des Bildwertes (BW5) auf einen geänderten Bildwert (BW6), der Teil des periodischen Musters von Bildwerten (BW) ist; Method according to one of claims 1 to 6, wherein the step (a) comprises representing at least one period of a periodic pattern of image values (BW) on the screen (120), and wherein the image value (BW) is an image value (BW) from the periodic pattern and step (b) further comprises the steps of: (b1) changing the image value (BW5) to a changed image value (BW6) that is part of the periodic pattern of image values (BW);
(b2) Erfassen des geänderten Bildwertes (BW6) durch die Kamera; und  (b2) detecting the changed image value (BW6) by the camera; and
(b3) Ermitteln eines Unterschiedes zwischen dem erfassten Bildwert (BW5) und dem erfassten geänderten Bildwert (BW6) für den zumindest einen Bildpunkt (122),  (b3) determining a difference between the captured image value (BW5) and the acquired changed image value (BW6) for the at least one pixel (122),
wobei der Schritt (c) ein Bestimmen der Position innerhalb einer Periode und somit einer Phasenlage in einer Periodenrichtung des periodischen Musters für den zumindest einen Bildpunkt (122) basierend auf dem ermittelten Unterschied umfasst.  wherein step (c) comprises determining the position within a period and thus a phase position in a period direction of the periodic pattern for the at least one pixel (122) based on the determined difference.
8. Verfahren nach Anspruch 7, das weiter die folgenden Schritte umfasst: 8. The method of claim 7, further comprising the steps of:
(d) Drehen des periodischen Musters von Bildwerten (BW) auf dem Bildschirm (120) um einen vorbestimmten Winkel; und  (d) rotating the periodic pattern of image values (BW) on the screen (120) by a predetermined angle; and
(e) Wiederholen der Schritte (b1) bis (b3) für das gedrehte periodische Muster.  (e) repeating steps (b1) to (b3) for the rotated periodic pattern.
9. Verfahren nach Anspruch 7 oder 8, wobei im Schritt (a) eine Vielzahl von Perioden des periodischen Musters dargestellt werden und das Verfahren weiter die folgenden Schritte umfasst: 9. The method of claim 7 or 8, wherein in step (a) a plurality of periods of the periodic pattern are displayed and the method further comprises the following steps:
(f) Darstellen eines festen Bildmusters (124) mit einer vorgegebenen Position auf dem Bildschirm (120), wobei jede Periode aus der Vielzahl von Perioden einen Periodenversatz relativ zu dem festen Bildmuster aufweist;  (f) displaying a fixed image pattern (124) having a predetermined position on the screen (120), each period of the plurality of periods having a period offset relative to the fixed image pattern;
(g) Erfassen des festen Bildmusters (124) durch zumindest einen bestimmten Pixel (1 12a) der Kamera (110);  (g) capturing the fixed image pattern (124) by at least one particular pixel (1 12a) of the camera (110);
(h) Zuordnen der vorgegebenen Position zu dem zumindest einen bestimmten Pixel (1 12a); und  (h) assigning the predetermined position to the at least one particular pixel (1 12a); and
(i) Bestimmen des Periodenversatzes der Periode, für die im Schritt (c) die Position bestimmt wird, basierend auf der vorgegebenen Position und der im Schritt (c) bestimmten Position des zumindest einen bestimmten Pixels (1 12a).  (i) determining the period offset of the period for which the position is determined in step (c) based on the predetermined position and the position of the at least one particular pixel (1 12a) determined in step (c).
Verfahren nach einem der Ansprüche 7 bis 9, wobei sich das periodische Muster nur auf einen Teil der Kamera (110) erfasst wird und das Verfahren weiter ein Verschieben des periodischen Musters in einen anderen Teil der Kamera (1 10) umfasst, wobei der Teil und der anderen Teil der Kamera (110) teilweise überlappen; und ein Anpassen einer Kalibration für den Teil der Kamera (110) an eine Kalibration für den anderen Teil der Kamera (1 10) umfasst, sodass eine gemeinsame Kalibration für eine Vereinigung des Teils und des anderen Teils der Kamera (1 10) erhalten wird. Method according to one of claims 7 to 9, wherein the periodic pattern is detected only on a part of the camera (110) and the method further comprises a displacement of the periodic pattern in another part of the camera (1 10), wherein the Partially overlap part and the other part of the camera (110); and adjusting a calibration for the part of the camera (110) to a calibration for the other part of the camera (110), so that a common calibration for a combination of the part and the other part of the camera (1 10) is obtained.
1 1. Verfahren nach einem der vorhergehenden Ansprüche, das weiter die folgenden Schritte umfasst: A method according to any one of the preceding claims, further comprising the steps of:
Drehen des Bildschirmes (120) um einen vorbestimmten Winkel;  Rotating the screen (120) a predetermined angle;
Wiederholen der Schritte (c1) bis (c2) für die gedrehte Bildschirmposition; und  Repeating steps (c1) through (c2) for the rotated screen position; and
Ermitteln der Richtung der Verschiebung des Bildschirmes (120) aus dem Schritt (c1) basierend auf einem Vergleich zwischen einem Resultat, welches in der ungedrehten Position erhalten wurde, mit einem Resultat, welches in der gedrehten Bildschirmposition erhalten wurde.  Determining the direction of displacement of the screen (120) from the step (c1) based on a comparison between a result obtained in the unrotated position and a result obtained in the rotated screen position.
12. Verfahren nach einem der Ansprüche 3 bis 1 1 , das weiter ein Abspeichern einer Zuordnung in einer Tabelle, wobei die Zuordnung für jedes Pixel (1 12) aus der Vielzahl von Pixeln (1 12) mehrere Positionsdaten der erfassten Bildpunkte (122) in verschiedenen Entfernungen zuordnet. 12. The method of claim 3, further comprising storing an association in a table, wherein the association for each pixel of the plurality of pixels includes a plurality of position data of the captured pixels in assigns to different distances.
13. Verfahren nach einem der Ansprüche 3 bis 12, wobei der Bildschirm (120) eine Frontscheibe aufweist und das Verfahren weiter ein Korrigieren von Verzerrungen, die durch die Frontscheibe verursacht werden, umfasst. 13. The method of claim 3, wherein the screen comprises a windshield, and the method further comprises correcting for distortions caused by the windshield.
14. Verwendung eines Displays (120) zum Kalibrieren zumindest einer Kamera (1 10) mit variablem Fokus. 14. Use of a display (120) for calibrating at least one camera (1 10) with variable focus.
15. Vorrichtung zum Steuern einer Kalibration einer Kamera (1 10), die eine Vielzahl von Pixeln (112) zur Darstellung des Bildes nutzt, unter Nutzung eines Bildschirmes (120), wobei der Bildschirm (120) eine Menge von Bildpunkten (122) aufweist, mit folgenden Merkmalen: Apparatus for controlling calibration of a camera (110) using a plurality of pixels (112) to display the image using a display (120), the display (120) comprising a set of pixels (122) , with the following features:
ein Ausgabemodul, das ausgebildet ist, um den Bildschirm (120) anzusteuern, sodass der Bildschirm (120) zumindest einen Bildwert (BW) in zumindest einem Bildpunkt (122) basierend auf einer Bildwertzuweisung darstellt; ein Eingabemodul, das ausgebildet ist, um zumindest einen durch die Kamera (1 10) erfassten Bildwert (BW) einzugeben; an output module configured to drive the screen (120) such that the screen (120) displays at least one image value (BW) in at least one pixel (122) based on an image value assignment; an input module configured to input at least one image value (BW) acquired by the camera (110);
ein Verarbeitungsmodul, das ausgebildet ist, um die Position des zumindest einen Bildpunktes (122) basierend auf dem zumindest einem erfassten Bildwert (BW) und der Bildwertzuweisung zu bestimmen; und a processing module configured to determine the position of the at least one pixel (122) based on the at least one captured image value (BW) and the image value assignment; and
ein Verschiebungsmodul, das ausgebildet ist, um den Bildschirm (120) oder die Kamera (110) in eine Richtung um einen Betrag zu verschieben, sodass der zumindest eine Bildpunkt (122) eine andere Entfernung zu dem Pixel (112a) der Kamera (110) aufweist als vor dem Verschieben, a displacement module configured to displace the screen (120) or the camera (110) in one direction by an amount such that the at least one pixel (122) is at a different distance from the pixel (112a) of the camera (110) has as before moving,
wobei die Kamera (110) einen variablen Fokus beim Verschieben des Bildschirmes (120) relativ zu der Kamera (110) aufweist, und dass die Vorrichtung weiter ausgebildet ist, um eine Zuordnung bezüglich des Pixels (1 12) und der Positionen des zumindest einen Bildpunktes (122) für verschiedene verschobene Bildschirmpositionen (120i) abzuspeichern. wherein the camera (110) has a variable focus when moving the screen (120) relative to the camera (110), and that the device is further configured to be associated with the pixel (1 12) and the positions of the at least one pixel (122) for various shifted screen positions (120i).
Computerprogrammprodukt mit einem darauf gespeicherten Computerprogramm, welches ausgebildet ist, um die Vorrichtung nach Anspruch 15 zu veranlassen, ein Verfahren nach einem der Ansprüche 1 bis 13 auszuführen, wenn es auf einem Prozessor läuft. A computer program product having a computer program stored thereon configured to cause the apparatus of claim 15 to perform a method as claimed in any one of claims 1 to 13 when running on a processor.
PCT/DE2016/100112 2015-03-16 2016-03-11 Method and device for calibrating a camera WO2016146105A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102015103785.8A DE102015103785A1 (en) 2015-03-16 2015-03-16 Method and device for calibrating a camera
DE102015103785.8 2015-03-16

Publications (1)

Publication Number Publication Date
WO2016146105A1 true WO2016146105A1 (en) 2016-09-22

Family

ID=55910057

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE2016/100112 WO2016146105A1 (en) 2015-03-16 2016-03-11 Method and device for calibrating a camera

Country Status (2)

Country Link
DE (1) DE102015103785A1 (en)
WO (1) WO2016146105A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109598715A (en) * 2018-12-05 2019-04-09 山西镭谱光电科技有限公司 Material size online test method based on machine vision
CN110351549A (en) * 2019-07-23 2019-10-18 Tcl王牌电器(惠州)有限公司 Screen display state detection method, device, terminal device and readable storage medium storing program for executing
CN113115027A (en) * 2020-01-10 2021-07-13 Aptiv技术有限公司 Method and system for calibrating camera
US11348208B2 (en) * 2018-03-08 2022-05-31 Sony Corporation Signal processing apparatus and signal processing method

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018129814A1 (en) * 2018-11-26 2020-05-28 Technische Universität Darmstadt Method for determining calibration parameters of a camera
CN111596802B (en) * 2020-05-26 2022-12-02 Oppo(重庆)智能科技有限公司 Touch screen calibration method and device and computer readable storage medium
CN113379835B (en) * 2021-06-29 2024-06-04 深圳中科飞测科技股份有限公司 Calibration method, device and equipment of detection equipment and readable storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19727281C1 (en) 1997-06-27 1998-10-22 Deutsch Zentr Luft & Raumfahrt Geometric calibration device for CCD camera
DE102005061931A1 (en) * 2005-12-23 2007-06-28 Bremer Institut für angewandte Strahltechnik GmbH Optical device e.g. charge coupled device camera, calibration method, involves arranging optical device and image generator with measuring surface comprising several radiation transmitting measurement points
US20110026014A1 (en) * 2009-07-31 2011-02-03 Lightcraft Technology, Llc Methods and systems for calibrating an adjustable lens
US20110261211A1 (en) * 2007-11-02 2011-10-27 Abertec Limited Apparatus and method for constructing a direction control map
DE102010031215B3 (en) 2010-07-12 2011-12-29 Carl Zeiss Smt Gmbh Charge coupled device camera calibrating method, involves determining respective output signals of camera for different intensities of micro-optical element, where linearity characteristic of camera is determined from output signals

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7554575B2 (en) * 2005-10-28 2009-06-30 Seiko Epson Corporation Fast imaging system calibration
US8743214B2 (en) * 2011-05-11 2014-06-03 Intel Corporation Display screen for camera calibration
DE102013014475B4 (en) * 2012-08-29 2020-11-12 Technische Universität Ilmenau Process for the detection and compensation of measurement deviations during the operation of an optical measuring device, optical measuring method and optical measuring device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19727281C1 (en) 1997-06-27 1998-10-22 Deutsch Zentr Luft & Raumfahrt Geometric calibration device for CCD camera
DE102005061931A1 (en) * 2005-12-23 2007-06-28 Bremer Institut für angewandte Strahltechnik GmbH Optical device e.g. charge coupled device camera, calibration method, involves arranging optical device and image generator with measuring surface comprising several radiation transmitting measurement points
US20110261211A1 (en) * 2007-11-02 2011-10-27 Abertec Limited Apparatus and method for constructing a direction control map
US20110026014A1 (en) * 2009-07-31 2011-02-03 Lightcraft Technology, Llc Methods and systems for calibrating an adjustable lens
DE102010031215B3 (en) 2010-07-12 2011-12-29 Carl Zeiss Smt Gmbh Charge coupled device camera calibrating method, involves determining respective output signals of camera for different intensities of micro-optical element, where linearity characteristic of camera is determined from output signals

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11348208B2 (en) * 2018-03-08 2022-05-31 Sony Corporation Signal processing apparatus and signal processing method
CN109598715A (en) * 2018-12-05 2019-04-09 山西镭谱光电科技有限公司 Material size online test method based on machine vision
CN109598715B (en) * 2018-12-05 2023-03-24 山西镭谱光电科技有限公司 Material granularity online detection method based on machine vision
CN110351549A (en) * 2019-07-23 2019-10-18 Tcl王牌电器(惠州)有限公司 Screen display state detection method, device, terminal device and readable storage medium storing program for executing
CN110351549B (en) * 2019-07-23 2021-11-09 Tcl王牌电器(惠州)有限公司 Screen display state detection method and device, terminal equipment and readable storage medium
CN113115027A (en) * 2020-01-10 2021-07-13 Aptiv技术有限公司 Method and system for calibrating camera
CN113115027B (en) * 2020-01-10 2024-04-30 Aptiv技术股份公司 Method and system for calibrating camera

Also Published As

Publication number Publication date
DE102015103785A1 (en) 2016-09-22

Similar Documents

Publication Publication Date Title
WO2016146105A1 (en) Method and device for calibrating a camera
EP3166312B1 (en) Device and method for adjusting and/or calibrating a multi-camera module and use of such a device
DE102008040985B4 (en) Method for calibrating a multi-camera system
DE102014206309B4 (en) System and method for obtaining offset images to be used for improved edge resolution
DE102006055758B4 (en) Method for calibrating cameras and projectors
EP2202994B1 (en) 3D camera for monitoring an area
EP2880853B1 (en) Apparatus and method for determining the distinct location of an image-recording camera
DE102013014475B4 (en) Process for the detection and compensation of measurement deviations during the operation of an optical measuring device, optical measuring method and optical measuring device
EP3775767B1 (en) Method and system for measuring an object by means of stereoscopy
EP3136711A1 (en) Method for generating and evaluating an image
DE102006042311B4 (en) Three-dimensional measurement of objects in an extended angle range
EP3104330B1 (en) Methods for tracking at least one object and method for replacing at least one object with a virtual object in a motion picture signal recorded by a camera
WO2009039800A1 (en) Method for orienting a parallax barrier screen on a display screen
DE112017001464B4 (en) Distance measuring device and distance measuring method
DE102020201814A1 (en) IMAGE PROCESSING DEVICE
EP3711289A1 (en) Method for automatically restoring a calibrated state of a projection system
DE102004058655A1 (en) Two dimensional coordinate geometry or structure measurement for object, uses image processing, combines partial images to produce results with equidistant pixels
DE102011082280A1 (en) Image measuring device and image measuring method
DE102005061931B4 (en) Method and device for calibrating an optical device
DE102013211286A1 (en) Method for measuring a workpiece with an optical sensor
EP2645331A1 (en) Method for verifying the alignment of a traffic monitoring device
DE102020107965B3 (en) Method for the optical determination of an intensity distribution
EP3798570B1 (en) Optical measuring system and method for calibrating an optical measuring system, and calibration object for an optical measuring system
EP3185213A1 (en) Method for creating a depth map by means of a camera
WO2017060454A1 (en) Method for measuring an object to be measured with improved measuring precision, and device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16720038

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 16720038

Country of ref document: EP

Kind code of ref document: A1