EP4193588A1 - Bildaufnahmegerät - Google Patents

Bildaufnahmegerät

Info

Publication number
EP4193588A1
EP4193588A1 EP21789730.5A EP21789730A EP4193588A1 EP 4193588 A1 EP4193588 A1 EP 4193588A1 EP 21789730 A EP21789730 A EP 21789730A EP 4193588 A1 EP4193588 A1 EP 4193588A1
Authority
EP
European Patent Office
Prior art keywords
image
section
recording device
evaluation unit
designed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
EP21789730.5A
Other languages
English (en)
French (fr)
Inventor
Sylvia SCHMITT
Patrick THEIS
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Leica Camera AG
Original Assignee
Leica Camera AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Leica Camera AG filed Critical Leica Camera AG
Publication of EP4193588A1 publication Critical patent/EP4193588A1/de
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation

Definitions

  • the present invention relates to an image recording device with an optoelectronic image sensor and a method for operating an image recording device with an optoelectronic image sensor.
  • Image recording devices with optoelectronic image sensors image a scene located in front of the image recording device on an image area of the image sensor and generate image data which represent the scene imaged on the image area.
  • the reference surface of the scene may not be aligned parallel to the image surface of the image sensor.
  • different areas within the reference area of the scene are at different distances from the image area of the image sensor, and the different areas are imaged onto the image area with different magnifications. This leads to perspective distortions of the scene depicted on the screen.
  • straight lines which run parallel to one another within the reference plane can be imaged as so-called converging lines, which can occur in particular when high buildings are imaged from a low-lying point of view.
  • the perspective distortions resulting from a tilting of the image recording device can be reversed during subsequent processing of the image data by an inverse transformation, which compensates for the perspective distortion occurring during the recording of the image data will.
  • Straight lines are usually identified within the image data, which run parallel to one another in the original scene, and the image data are then corrected by means of the inverse transformation in such a way that the identified straight lines are also aligned parallel in the recorded scene.
  • edges of the image data are also distorted during the inverse transformation, so that the transformed image data must be cropped to avoid skewed edges. This reduces the usable image section. In the case of subsequent processing of image data that has already been recorded, this can result in image areas in the original recording that are important for the composition of the recording having to be cropped and no longer being able to be used.
  • the object of the invention is to enable a user of an image recording device to easily generate image data which, even after correction of a perspective distortion occurring during the recording, still includes all image areas relevant to the composition of the recording.
  • An image recording device has an optoelectronic image sensor, a position sensor, a graphical user output interface and an evaluation unit.
  • the image sensor is designed to capture an image data set that represents an image of a scene located in front of the image sensor on an image surface of the image sensor.
  • the position sensor is designed to detect a spatial position of the image area relative to a reference direction and to provide position data which includes both an angle of rotation by which the image area is rotated about an optical axis of the image sensor, in particular relative to a perpendicular projection of the reference direction onto the image surface, when the image data set is captured, and also a tilting angle by which the image surface is tilted about a horizontal axis, in particular relative to the reference direction, when the image data set is captured is, specify.
  • the horizontal axis is oriented perpendicularly to the optical axis and perpendicularly to the reference direction.
  • the evaluation unit is designed to determine a projective transformation from the position data, which maps the image data record from the image area onto a projection plane as a function of both the rotation and the tilting.
  • the projection plane is tilted with respect to the image surface as a function of the tilt angle and intersects the image surface along a line of intersection which is rotated in the image surface with respect to the central axes of the image surface as a function of the angle of rotation.
  • the evaluation unit is also designed to determine an image section in the projection plane for the image data set mapped to the projection plane by means of the projective transformation and to display the image section with at least one area of the scene mapped on the image surface located within the image section in the graphical user output interface.
  • the display of the image section determined by the evaluation unit together with the scene mapped onto the image area in the user output interface of the image recording device then enables a user to align the image sensor while the scene is being recorded in such a way that even when the image is cropped later Image data all image areas essential for the composition of the recording are within the image section.
  • a user of the image recording device already receives direct feedback during recording about the image section that can still be used after correction of the perspective distortion, so that he can already select all relevant recording parameters taking into account the image section available later.
  • the reference direction used to determine the projective transformation can in particular be independent of the rotation and tilting of the image sensor determined by the position sensor.
  • the absolute spatial position of the projection plane is also independent of the rotation of the image sensor about its optical axis and the tilting of the image sensor about the horizontal axis. Since the horizontal axis is aligned perpendicularly to the optical axis and the reference direction, the optical axis is also arranged after application of the projective transformation in a vertical plane spanned by the reference direction and the optical axis and oriented perpendicularly to the horizontal axis.
  • the direction of view of the depicted scene does not shift from the vertical plane even after the projective transformation has been applied, which makes it easier to compose the image section while recording the scene, for example compared to transformations in which the projection plane is independent of a rotation of the image sensor around the optical axis always has the same orientation in relation to the image sensor.
  • the tilting of the projection plane relative to the image surface can depend in particular on the tilting angle in such a way that the tilting of the projection plane relative to the image surface corresponds to the tilting angle or the tilting angle minus a residual angle.
  • the tilting of the projection plane relative to the image surface can depend on the tilting angle such that the projection plane is tilted relative to the image surface at a tilting angle not equal to zero and is aligned parallel to the image surface at a tilting angle equal to zero.
  • the rotation of the line of intersection between the image surface and the projection plane relative to the central axes of the image surface can depend on the angle of rotation in such a way that the rotation of the line of intersection relative to the central axes corresponds to the angle of rotation.
  • the rotation of the line of intersection relative to the central axes can depend on the angle of rotation in such a way that the line of intersection does not run parallel to the central axes at a rotation angle that is not equal to zero and parallel to a central axis of the image surface at a rotation angle of zero. In the case of a rectangular image area, the line of intersection then does not run parallel to an edge of the image area at a non-zero angle of rotation.
  • the position sensor can be designed as a three-axis sensor which determines the spatial position of three mutually orthogonal axes of the image sensor.
  • the position sensor can be arranged in a stationary manner together with the image sensor within a common housing.
  • the position sensor can be designed, for example, as a gravity sensor or as a gyroscopic sensor.
  • the reference direction can also be specified by a user input, for example by aligning a central axis of the image sensor along the desired reference direction and calibrating the position determination to the corresponding spatial position, for example in response to a user input.
  • the reference direction used to determine the spatial position of the image sensor can be a permanently specified direction, for example the direction of the acceleration due to gravity. If it is the acceleration due to gravity, the horizontal axis is aligned in particular parallel to the horizon of the recorded scene, so that the tilting angle indicates the tilting of the image surface from its vertical orientation.
  • the evaluation unit can be designed to only measure the horizontal axis perpendicular to the reference direction and perpendicular to the optical axis Axis-aligned direction to be determined when the tilting angle corresponds to a maximum of a predetermined limit value.
  • the limit value can be less than 90°, for example less than 45°.
  • the limit value can be smaller than 90° or 45° by 1°, 3°, 5° or 10°, for example.
  • the evaluation unit can be designed to determine the projective transformation and the image section only for tilt angles that correspond at most to the specified limit value.
  • the evaluation unit can also be designed to align the horizontal axis parallel to a predefined central axis of the image area when the predefined limit value is exceeded.
  • the image recording device can be designed as a photo or video camera.
  • the image recording device can be designed as a mirrorless camera.
  • the image recording device can have imaging optics, for example a lens, which during imaging is stationary with the image sensor and the position sensor, for example with a housing that includes the image sensor and the position sensor.
  • the imaging optics can in particular be an alternating act objectively. An optical axis of the imaging optics can coincide with the optical axis of the image sensor.
  • the user output interface can be an electronic or optical viewfinder of the imaging device, or it can be a screen. If it is an optical viewfinder, the image section can be displayed superimposed on the area of the imaged scene displayed within the viewfinder, in order to simultaneously display the image section and at least the area of the imaged scene within the image section in the viewfinder designed as a viewfinder display user output interface.
  • the screen and/or the viewfinder can also be arranged on the housing that includes the image sensor and the position sensor. Alternatively, at least the screen can be arranged remotely from such a housing, for example in a mobile device connected to the image sensor and the position sensor via a data connection, such as a smartphone or tablet computer.
  • the evaluation unit can include at least one programmable logic unit, for example an ASIC, an FPGA, a microchip or the like. It can be arranged in the same housing as the image sensor and the position sensor. Alternatively, at least components of the evaluation unit can be arranged outside of this housing, for example in an external processing unit of the image recording device connected to the housing via a data connection, such as the smartphone or tablet computer.
  • programmable logic unit for example an ASIC, an FPGA, a microchip or the like. It can be arranged in the same housing as the image sensor and the position sensor. Alternatively, at least components of the evaluation unit can be arranged outside of this housing, for example in an external processing unit of the image recording device connected to the housing via a data connection, such as the smartphone or tablet computer.
  • the image sensor can be in the form of a CCD or CMOS image sensor, for example.
  • the image surface of the image sensor is formed by that surface of the image sensor which detects incident electromagnetic radiation and converts it into electronic signals for creating the image data set.
  • the image area can, in particular, be rectangular.
  • the image detail can be determined, for example, as a rectangular image detail.
  • the evaluation unit can map at least all corner points of the image surface to the projection plane using the projective transformation. In particular, the evaluation unit can only image the corner points of the image surface, but not the individual pixels of the image sensor, on the projection plane to determine the image section.
  • the evaluation unit can map the coordinates of the image section back onto the image surface of the image sensor by means of an inverse transformation to the projective transformation. This makes it possible to display the image section within the untransformed scene in the graphical user output interface. In particular, the image section and all of the image data captured by the image surface of the image sensor can be displayed at the same time.
  • the untransformed image section can also be displayed directly in the user output interface together with the area of the imaged scene that is also imaged on the projection plane and lies within the image section. This makes it possible to display the image section available after the correction of the perspective distortion over the full area within the user output interface and thus in high magnification.
  • the reference direction corresponds to the direction of the gravitational acceleration.
  • the spatial position of the image sensor can be determined automatically in a simple manner. Perspective distortions usually occur when the imaged scene includes tall vertical objects, such as buildings, which are photographed from a low or high vantage point. In the case of such perspective distortions in particular, the projective transformation can then be determined without user input.
  • the position sensor can be used, for example, as an acceleration sensor for detecting the gravitational field be trained on earth.
  • the projection plane is aligned parallel to the horizontal axis and/or parallel to the reference direction. If the projection plane is parallel to the horizontal axis, the rotation of the image surface around the optical axis is completely corrected. If the projection plane is parallel to the reference direction, the tilting of the image surface in relation to the reference direction, for example in relation to a vertical alignment determined from the acceleration due to gravity, is completely compensated.
  • the projection plane can enclose a residual angle with the horizontal axis which is different from zero and smaller than the angle of rotation, so that the rotation around the optical axis is not fully compensated.
  • the projection plane can enclose a further residual angle with the reference direction, which is different from zero and smaller than the tilting angle.
  • the horizontal axis intersects the optical axis in the center of the image area.
  • the projection plane also intersects the image area in the center of the image area and along the horizontal axis.
  • a projection center of the projective transformation is arranged on the optical axis. This enables perspectively correct compensation for the perspective distortions that occur during imaging.
  • a distance of the projection center from the image surface corresponds to a focal length normalized to a diagonal of the image surface of an imaging optics of the image recording device that images the scene onto the image sensor.
  • the evaluation unit can be designed to determine the distance from the center of projection using a focal length made available for the imaging optics used during recording.
  • the focal length can be made available, for example, by the imaging optics, for example by an electronic unit of the imaging optics, and can be detected by the evaluation unit. If the imaging optics are designed to image the recorded scene with an adjustable focal length, for example in the case of imaging optics designed as a zoom lens, the evaluation unit can be designed to record the respectively set focal length.
  • the evaluation unit is designed to use only corner points of the image surface projected onto the projection plane to determine the image section. This enables the image section to be determined particularly quickly and easily.
  • the image section can be determined in particular without a projection of further pixels of the image sensor, in particular without a projection of all pixels of the image sensor onto the projection plane. As a result, the image section can be determined particularly quickly with little computing effort.
  • the evaluation unit is designed to determine the image section based on a predefined aspect ratio. By specifying the aspect ratio, the image section can then be automatically be determined.
  • the predefined aspect ratio can, for example, correspond to an aspect ratio of the image area and/or an aspect ratio of the user output interface.
  • the aspect ratio can, for example, be stored unchangeably in the evaluation unit or can be specified by a user of the image recording device via a user input interface.
  • the specified aspect ratio differs from an aspect ratio of the image surface and/or the user output interface
  • the evaluation unit is designed to receive user input for defining the specified aspect ratio via a user input interface.
  • the evaluation unit is designed to determine the image section, for example as a rectangular section, in such a way that, in the projection plane, a first center axis of the image section is parallel to the horizontal axis and a second center axis of the image section, which is oriented perpendicularly to the first center axis, is parallel to the reference direction.
  • the image section determined in the projection plane has an alignment that completely corrects the rotation of the image sensor about its optical axis.
  • the evaluation unit is designed to determine the image section in such a way that, while maintaining the specified aspect ratio, at least two corners of the image section lie on the edges of the image surface mapped onto the projection plane by means of the projective transformation particularly large, in particular as the maximum usable image section while maintaining the specified aspect ratio.
  • the evaluation unit is designed to determine the image section independently of the position of the image sensor in such a way that a center of the image surface projected onto the projection plane by means of the projective transformation lies on a central axis of the image section. This facilitates a symmetrical imaging of the scene.
  • the area of the imaged scene within the image section has particularly few image errors, for example distortions, when the image section is determined in this way, since image errors caused by the imaging optics generally increase with distance from the optical axis and thus increase with increasing distance from the center of the image area.
  • the evaluation unit is designed to use the same algorithm to determine the image section for both positive and negative tilt angles, and to use the algorithm only when there is a positive tilt angle or only when a negative tilt angle is present. tilt angle is present, instead of applying it to the projected image surface projected into the projection plane to the projected image surface inverted along the reference direction. As a result, only a small number of case distinctions is required in order to enable both a correction of positive and a correction of negative tilting angles.
  • the relevant points of the image area can first be mapped onto the projection plane and then inverted. After the algorithm has then been applied, the image section determined can also be inverted along the reference direction in order to obtain the position of the image section within the original, non-inverted projected image area.
  • the evaluation unit is designed to, at least when the tilt angle is equal to zero, in the projection plane a corner of the image section as an intersection of a diagonal of the image section predetermined by the aspect ratio with an edge of the image surface projected onto the projection plane to determine.
  • the image section can be determined particularly easily and with little computing power.
  • the image section determined in this way also corresponds to the maximum possible image section while maintaining the aspect ratio.
  • the diagonals of the image section can be determined starting from a center of the image section, it being possible for the center to correspond in particular to the center of the image area transformed onto the projection plane.
  • the evaluation unit is designed to, at least when the tilt angle differs from zero by at least a threshold value and the angle of rotation is equal to zero, in the projection plane a corner of the image section as an intersection of a diagonal of one half of the image specified by the aspect ratio To determine the image detail with an edge of the image area projected onto the projection plane, the diagonal running in the projection plane through a center point of a further edge of the image detail aligned parallel to the horizontal axis. This also enables a simple graphical determination of the image section with little computing power.
  • the center point of the further edge of the image section aligned parallel to the horizontal axis can be arranged in particular on a center axis of the image section aligned parallel to the reference direction and running through the center point of the image surface transformed to the projection plane.
  • the image detail can border on the further edge of the image detail aligned parallel to the horizontal axis. At the further edge can it is in particular the longest edge of the image section aligned parallel to the horizontal axis.
  • the evaluation unit can be designed to determine the image section as the intersection of the diagonals of the image section specified by the aspect ratio with the projected edge of the image area only if the tilt angle is equal to zero or smaller than the threshold value, and only if the Tilt angle is not equal to zero or differs from zero by at least the threshold value and the angle of rotation is equal to zero or differs from zero by at most a further threshold value than to determine the point of intersection of the diagonals of half of the image detail specified by the aspect ratio with the projected edge of the image area .
  • the evaluation unit is designed to view the area of the scene mapped onto the image area within the image section in the graphical user output interface as the area of the image data set transformed into the projection plane by means of the projective transformation, and the image section by cropping the transformed image data set represent, for example, by cropping the transformed image data set using edges of the user output interface.
  • the cropped and perspectively rectified area of the imaged scene is shown directly to a user.
  • the evaluation unit is designed to display the scene mapped onto the image area completely and without using the projective transformation in the graphical user output interface, with the evaluation unit being designed to frame the image detail using a frame superimposed on the mapped scene to represent.
  • the scene imaged on the image surface of the image sensor can be displayed in full to a user of the image recording device.
  • a user can also outside Take into account the areas of the scene that lie within the image section when creating the image.
  • the image section determined in the projection plane can be displayed in the user output interface using an inverse transformation to the projective transformation.
  • the frame surrounding the image section can be represented using the inverse transformation.
  • the inverse transformation can, for example, as a further projective transformation, project the image detail from the projection plane with the projection center lying on the optical axis onto an image plane encompassing the image surface.
  • the frame can be represented by single lines in the user output interface. Further visual representation variants can include a grayed-out area surrounding the frame or a color representation of the areas outside the frame that deviates from a color representation inside the frame.
  • the frame can generally also be represented with superimposed grid lines, which can be oriented parallel and/or orthogonal to edges of the frame.
  • Such grid lines can be aligned parallel and/or orthogonal to the edges of the frame, in particular in the projection plane.
  • both the frame and the grid lines can then be represented transformed to the image plane by means of the inverse transformation.
  • the evaluation unit is designed to determine a position of a measuring point to determine a recording parameter of the image capture display device in the user output interface, with the position of the measurement point being displayed relative to the complete and untransformed scene mapped onto the screen.
  • a measuring point that is arranged outside of the image section can also be displayed and used to determine the recording parameter.
  • the image recording device can be designed to take measurement data of the measurement point into account even if this is arranged outside the image section.
  • the measurement point can be, for example, a focus measurement point, an exposure measurement point, a measurement point for determining a color temperature for a white balance of the image data set, or the like.
  • the measurement point can be set, for example, by means of a user input.
  • the user input can be recorded, for example, via a mechanical operating element of the image recording device, for example a button, switch or joystick. Alternatively or additionally, the user input can also be recorded via an electronic operating element, for example a touch screen or touch-sensitive screen.
  • the image recording device includes a combined user interface, which includes the user output interface and a superimposed position input interface for determining the position of the measurement point relative to the untransformed scene, with the combined user interface being designed to define the position of the measurement point as the position within of the untransformed scene at which an actuation of the overlaid position input interface is detected.
  • the combined user interface can be a touch-sensitive screen, for example, it being possible for the untransformed scene in particular to be displayed on the screen.
  • the reference direction lies in the projection plane.
  • the projection plane can be tilted by a residual angle relative to the reference direction, with the residual angle being different from zero and smaller than the tilting angle.
  • the remaining angle can be at most 10%, for example at most 5%, at most 2% or at most 1% of the tilting angle.
  • the remaining angle can be 2% of the tilting angle.
  • the projection plane can be aligned parallel to the horizontal axis. Since the tilting is only corrected down to a residual angle that differs from zero, the tilting is undercorrected, which can lead to a more natural-looking corrected image data set than a complete correction, particularly in the case of strong tilting.
  • the image sensor is designed to capture a sequence of image data sets that represent the scene mapped onto the image surface at successive points in time
  • the position sensor is designed to capture a respective spatial position of the image sensor for each image data set and to provide respective position data
  • the evaluation unit is designed to determine a respective image section for each image data set projected onto a respective projection plane by means of a projective transformation determined from the respective position data, and the respective image sections at least together with the one lying within the respective image section Displaying portions of the scene mapped onto the screen in the graphical user output interface, one at a time.
  • the user output interface can be embodied as an electronic viewfinder or a screen arranged on a housing of the image recording device.
  • the image recording device can be designed, for example, to record the respective image data sets and determine and/or display the respective image sections with a repetition rate of at least 5, for example at least 5, 10, 20, 40, 50, 60 or 120 frames per second to execute.
  • the position data can also be made available by the position sensor with a frequency that differs from the repetition rate, for example with a lower frequency.
  • the image section can be determined and/or displayed several times in succession on the basis of the same position data.
  • a method for operating an image recording device comprising: capturing an image data set with an image sensor of the image recording device, the image data set representing an image of a scene located in front of the image sensor on an image surface of the image sensor; - detecting a spatial position of the image area relative to a reference direction;
  • position data which includes both a rotation angle by which the image surface is rotated around an optical axis of the image sensor when capturing the image data set, in particular in relation to a perpendicular projection of the reference direction onto the image surface, and a tilt angle by which the indicate the image surface is tilted about a horizontal axis, in particular relative to the reference direction, when the image data set is captured, the horizontal axis being oriented perpendicularly to the optical axis and perpendicularly to the reference direction;
  • the method can be carried out in particular with the specified image recording device.
  • all developments and technical effects which are disclosed in connection with the image recording device also relate to the specified method and vice versa.
  • FIG. 1 shows an image recording device with a scene located in front of an image sensor of the image recording device
  • FIG. 2 shows a first, second, third and fourth spatial position of the image recording device
  • FIG. 3 shows the image recording device with a display of the scene in a user output interface of the image recording device
  • FIG. 6 shows the user output interface with a first representation of the image section and an area of the scene located within the image section;
  • 7 shows the user output interface with a second representation of the image section and an area of the scene located within the image section; 8 shows a projective transformation of an image surface of the image sensor onto the projection plane;
  • FIG. 11 shows the image surface projected onto the projection plane with a first, second and third image section
  • FIG. 20 shows a method for determining intersection points shown in FIG. 18
  • FIG. 22 shows a method for determining the further intersection points shown in FIG. 21;
  • the image recording device 10 comprises an optoelectronic image sensor 12 and imaging optics 18 designed as an interchangeable lens, which capture the scene 1, inclusive of a building 2 arranged within the scene 1 onto an image surface 30 of the image sensor 12 facing the imaging optics 18 .
  • An optical axis 43 of the image sensor 30 coincides with an optical axis of the imaging optics 18 .
  • Image recording device 10 also includes an evaluation unit 20, which is connected to image sensor 12, a position sensor 14 of image recording device 10, a first user interface 16 of image recording device embodied as an electronic viewfinder, a second user interface 17 of image recording device embodied as a rear screen, and a electronic memory unit 22 is connected.
  • the individual components of the image recording device 10 are arranged on or in a common housing 11 .
  • Position sensor 14 is designed as a three-axis acceleration sensor, which determines a spatial position of position sensor 14 and of image sensor 12, which is stationarily connected to position sensor 14, relative to a reference direction 50 given by gravitational acceleration 15, and transmits the spatial position re to evaluation unit 20 - Presenting location data transmitted.
  • the image sensor 30 is tilted by a tilting angle 54 about a horizontal axis 121 oriented perpendicular to the reference direction 50 and perpendicular to the optical axis 43, so that the optical axis 43 sees the building 2 at a intersects angles different from a right angle.
  • the optical axis 43 deviates from a horizontal longitudinal axis 123 oriented perpendicularly to the horizontal axis 121 and perpendicularly to the reference direction 50 .
  • the image surface 30 does not rotate about the optical axis 43 with respect to the reference direction 50 .
  • a first central axis 41 of the image surface 30 thus coincides with the horizontal axis 121 and a second central axis 42 of the image surface 30 oriented perpendicularly to the first central axis 41 is arranged in a vertical plane spanned by the reference direction 50 and the optical axis 43 .
  • the first and second central axes 41, 42 are each aligned perpendicularly to the optical axis 43.
  • the central axes 41, 42 and the optical axis 43 together form a Cartesian sensor coordinate system.
  • the horizontal axis 121, a vertical axis 122 running parallel to the reference direction 50 and the longitudinal axis 123 form a Cartesian coordinate system.
  • FIG. 2 shows the image recording device 10 in a first spatial position 115, a second spatial position 116, a third spatial position 117 and a fourth spatial position 118.
  • the orientation of the sensor coordinate system is in the various positions 115, 116, 117, 118 are each selected in such a way that the second center axis 42 encloses a smaller angle with the reference direction 50 than the first center axis 41 .
  • directions of the sensor coordinate system are chosen in such a way that a projection of a reference vector defining the reference direction 50 onto the second central axis 42 results in a positive coordinate value.
  • the first central axis 41 in the direction of a right-hand side 113 and the second central axis in the direction of the underside 111 of the Image recording device 10 is oriented.
  • the first central axis 41 is oriented in the direction of the underside 111 and the second central axis 42 in the direction of the left side 114 of the image recording device 10.
  • the right-hand side 113 of the image recording device 10 is oriented in the direction of the reference direction 50, as a result of which the first central axis 41 is oriented in the direction of the upper side 112 and the second central axis 42 is oriented in the direction of the right-hand side 113 of the image recording device 10.
  • the image sensor 12 acquires a sequence of image data records which each represent the scene imaged on the image area 30 at successive points in time.
  • the individual image data records of the sequence are each displayed synchronously at least in regions in the user output interfaces 16, 17 in order to enable a user of the image recording device 10 to select the region of the scene 1 to be recorded.
  • Fig. 3 shows an example of the screen 17 with such an image data set 100.
  • the image data set 100 is shown untransformed on the screen 17, so that parallel edges 105 of the building 2 are displayed as falling lines due to the tilting of the image sensor 12 about the horizontal axis 121.
  • the evaluation unit 20 is designed to perspectively correct the image data sets 100 in each case by means of a projective transformation, taking into account the tilt angle 54 and a rotation angle of the image sensor 12 about the optical axis 43, the rotation angle being the angle between the horizontal axis 121 and the first central axis 41 corresponds. Both the tilting angle 54 and the rotation angle are determined from the position data provided by the position sensor 14 . 4 shows the result of such a projective transformation of the image data set 100 shown in FIG 4, the edges of the image data set 100, which correspond to the edges of the image surface 30, are distorted during the projective transformation, so that the image data set 100 no longer has a rectangular edge.
  • the evaluation unit 20 is designed to determine a rectangular image detail 60 shown in FIG. 5 .
  • the image section 60 shown in FIG. 5 is determined completely within the image data set 100 .
  • the image section 60 can also include areas outside of the image data set 100 .
  • the evaluation unit 20 is also designed to display the image section 60 and at least one area of the scene 1 located within the image section 60 in the user output interfaces 16 , 17 .
  • FIG. 6 shows a first representation of the image section 60 and the area of the scene 1 located within the image section 60 in the second user output interface 17.
  • the area located within the image section 60 is displayed untransformed.
  • the rest of the scene 1 imaged on the image area 30 is also displayed untransformed.
  • the image section 60 is shown as a frame superimposed on the scene 1 shown.
  • FIG. 6 also shows a first measuring point 91 which is displayed superimposed on the image data set 100 in the user output interface 17 and defines a focus measuring point for an autofocus function of the imaging optics 18 .
  • the focus measuring point is arranged outside of the image detail 60, see above that the autofocus function focuses on an area of the scene 1 that is outside of the image detail 60 .
  • a second measuring point 92 which is also displayed superimposed on the image data set 100, is shown, which defines an exposure measuring point.
  • the second measuring point 92 lies within the image section 60 so that an area of the scene 1 lying within the image section 60 is exposed.
  • the second user output interface 17 is part of a combined user interface, which is designed as a touch-sensitive screen and, in addition to the user output interface 17, includes a superimposed touch-sensitive position input interface.
  • the positions of the measuring points 91, 92 can be defined by means of the position input interface.
  • the first measurement point can also be placed within the image detail 60 and/or the second measurement point 92 outside of the image detail 60 .
  • Fig. 7 shows a second representation of the image section 60 and the area of the scene 1 imaged on the image sensor 12 located within the image section 60.
  • the area of the scene 1 located within the image section 60 is reproduced transformed as shown in Figures 4 and 5 and bounded by the edges of the user output interface 17.
  • the image section 60 is represented in that only the area of the scene 1 imaged on the image sensor 12 located within the image section 60 is represented.
  • the area of the scene 1 located within the image section 60 can also be displayed using the projective transformation and the image section 60 can be displayed as a frame.
  • all areas of the depicted scene 1 located outside of the image section 60 can also be reproduced in a transformed manner, for example to those in FIG. 5 presented way. With such a representation, it is also possible to set the measuring points 91, 92 both outside and inside the image section.
  • Fig. 8 shows the projective transformation carried out by the evaluation unit 20 to determine the image section 60 for the spatial position of the image recording device 10 shown in Fig. 1.
  • the image surface 30 of the image sensor 12 is arranged projection center 125 projected onto a projection plane 120.
  • the projection plane 120 encloses the tilting angle 54 with an image plane 40 defined by the image surface 30 .
  • the projection plane 120 is aligned perpendicular to a vertical plane spanned by the optical axis 43 and the reference direction 50 and runs through a center 39 of the image surface 30.
  • the reference direction 50 lies in the projection plane 120.
  • the horizon shown in FIG. The projection plane 120 intersects the image surface 30 along the horizontal axis 121, so that the horizontal axis 121 forms a line of intersection between the projection plane 120 and the image surface 30.
  • Fig. 9 shows the position of the image surface 30 and the projection plane 120 for a non-zero angle of rotation 52.
  • the projection plane 120 intersects the image surface 30 along the horizontal axis 121, with the horizontal axis 121 is rotated by the rotation angle 52 about the optical axis 43 relative to the first central axis 41 of the image surface 30 .
  • the central axis 41 of the image surface 30 is rotated by the angle of rotation 52 about the optical axis 43 relative to a perpendicular projection 51 of the reference direction 50 onto the image surface 30 or onto the image plane 40 .
  • the projection center 125 is at a distance 126 from the center 39 of the image area 30 .
  • the distance 126 is given and corresponds to the focal length of the imaging optics 18 normalized to the diagonal of the image surface 30 where f 35mm denotes the 35mm equivalent focal length of the imaging optics 18.
  • the tilting angle 54 indicates the tilting of the image surface 30 from the projection plane 120 about the horizontal axis 121, with the tilting angle 54 starting from the projection plane 120 being positive for a right-handed rotation about the horizontal axis 121 and for a left-handed rotation about the horizontal axis 121 is defined negatively. In the tilting illustrated in FIG. 9, the tilting angle 54 is negative.
  • the rotation angle 52 specifies the rotation of a normal plane of the image surface 30 defined by the second central axis 42 of the image surface 30 and the optical axis 43 from the vertical plane spanned by the reference direction 50 and the optical axis 43 about the optical axis 43, where the rotation angle 52 starting from the vertical plane is defined as positive for a right-handed rotation about the optical axis 43 and negative for a left-handed rotation about the optical axis 43 . In the rotation shown in FIG. 9, the rotation angle 52 is positive.
  • Fig. 10 shows a method 300 executed by the evaluation unit 20 for displaying the image detail 60 in the user output interfaces 16, 17.
  • the method 300 firstly includes a detection 305 of the image data set 100 by means of the image sensor 12.
  • the method 300 then includes detecting a spatial position of the image sensor 12 by means of the position sensor 14 and a subsequent provision 315 of the position data by the position sensor 14.
  • the position data provided are then transmitted to the evaluation unit 12.
  • the evaluation unit 12 determines (320) a projective transformation, with which the image surface 30 is transformed onto the projection plane 120 shown in FIG.
  • evaluation unit 12 uses tilt angle 54 and rotation angle 52 to determine a spatial position of projection plane 120.
  • the sensor coordinate system is used whose X-axis corresponds to the first central axis 41, whose Y-axis corresponds to the second central axis 42 and whose Z-axis corresponds to the optical axis 43. Furthermore, a reference coordinate system is used whose X-axis corresponds to the horizontal axis 121, whose Y-axis corresponds to the vertical axis 122 and whose Z-axis corresponds to the longitudinal axis 123. In addition, homogeneous coordinates are used.
  • a pixel within the image area 30 is then given in homogeneous coordinates in the sensor coordinate system by:
  • the vertices of the image area 30 are given by: where x TL , y TL are the coordinates of a first corner point in the third quadrant of the XY plane of the sensor coordinate system with negative X and Y coordinates, x TR , y TR are the coordinates of a second corner point in the second quadrant of the XY plane of the sensor coordinate system with positive X coordinate and negative Y coordinate, x BR , y BR the coordinates of a third corner point located in the first quadrant of the XY plane of the sensor coordinate system with positive X and Y coordinates, and x BL , y BL the coordinates - designate the data of a fourth corner point located in the fourth quadrant of the XY plane of the sensor coordinate system with a negative X coordinate and a positive Y coordinate.
  • these corner points are first determined by means of the matrix transformation transformed into the reference coordinate system (325).
  • the matrix transformation is composed of a first rotation matrix and a second rotation matrix applied subsequently
  • the first rotation matrix represents the rotation of the image surface 30 about the optical axis 43, where ⁇ corresponds to the rotation angle 52.
  • the second rotation matrix represents the tilting of the image surface 30 about the horizontal axis 121, where ⁇ corresponds to the tilting angle 54.
  • Tilting about the tilting angle 54 and the rotation about the rotation angle 52 are taken into account.
  • the projective transformation on the XY plane of the respective coordinate system can be represented in matrix notation by where d designates the projection center 125 lying on the optical axis 43 .
  • d is given by d-sens (0,0, -f normalized , 1) T and in the reference coordinate system by d-ref R ( ⁇ , ⁇ ) (0,0, -f normalized , 1) T
  • the coordinates determined by means of the projective transformation P xy-plane are still based on the fourth vector component according to the application of the projection matrix to normalize.
  • the determination 340 of the image section 60 in the projection plane 120 then takes place by defining four corners of the image section 60 . These corners of the image section 60 are then transformed by means of the inverse transformation to the transformation M 3d image ⁇ 3d world transformed from the reference coordinate system back into the sensor coordinate system (345).
  • a projective transformation 350 of the corner points then takes place in the sensor coordinate system by the projection center 125 onto the image plane 40, which is the X-Y plane of the sensor coordinate system is equivalent to.
  • the corner points of the image section 60 transformed in this way are then displayed together with the untransformed scene 1 imaged on the image area 30 (390).
  • Fig. 11 shows the image surface 30 projected onto the projection plane 120 with the first corner point 35 in the third quadrant of the reference coordinate system, the second corner point 36 in the second quadrant of the reference coordinate system, the third corner point 37 in the first quadrant of the reference coordinate system, and the fourth corner point 38 in the fourth Quadrants of the reference coordinate system.
  • the projected image area 30 is shown for a positive tilt angle 54 and a positive rotation angle 52 .
  • FIG. 11 shows a first image section 81, a second image section 82 and a third image section 83, the respective image sections 81, 82, 83 lying completely within the image area 30 and used by the evaluation unit 20 as the image section 60 definable image sections.
  • the respective image sections 81 , 82 , 83 are rectangular and have a respective first edge 61 , a respective second edge 62 , a respective third edge 63 and a respective fourth edge 64 .
  • the respective first edge 61 and the respective third edge 63 run parallel to the horizontal axis 121 and the respective second and fourth edge 62, 64 run parallel to the vertical axis 122.
  • the image sections 81, 82, 83 have respective first center axes 75 aligned parallel to the horizontal axis 121, and respective second center axes aligned parallel to the vertical axis 122 76 on.
  • the image sections 81, 82, 83 are each determined while maintaining a specified aspect ratio.
  • the respective image sections 81 , 82 , 83 are determined in such a way that their respective second center axes 76 run through the center 39 of the image surface 30 projected onto the projection plane 120 .
  • the first image section 81 is determined in such a way that a center 85 of the first image section 81 corresponds to the center 39 of the image area 30 .
  • the second image section 82 is determined in such a way that one of the edges 61, 63 of the second image section 82 running parallel to the horizontal axis 121 is at the same distance from the horizontal axis 121 as one of the corner points 35, 36, 37, 38 of the image surface 30 With a positive tilt angle 54, this is the corner point closest to the horizontal axis 121 with a negative Y coordinate, i.e. the second corner point 36 in the projection shown in FIG. 11. With negative tilt angles 54, this is the corner point with a positive Y coordinate closest to the horizontal axis 121 -Coordinate.
  • the third image section 83 is determined in such a way that at least two of its corners lie on an edge of the image area 30 and at the same time the surface area of the third image section 83 is maximized.
  • FIGS. 12 and 13 show a method 400 which is carried out during the determination 340 of the image detail 60 when the image detail 60 is determined as the first image detail 81 .
  • a first diagonal 77 and a second diagonal 78 of the first image section 81 are determined (405).
  • the first diagonal 77 has a negative slope in the XY plane of the reference coordinate system, de- whose amount corresponds to the inverse of the aspect ratio specified for determining 340 the image section 60
  • the second diagonal 78 has a positive gradient in the XY plane, the amount of which also corresponds to the inverse of the specified aspect ratio.
  • the predetermined aspect ratio is always defined as the extension of the image section 60 along the horizontal axis 121 to the extension of the image section 60 along the vertical axis 122 .
  • the method 400 then includes a definition 415 of the first image section 81.
  • the point of intersection 46 which has a minimum distance 47 from the center 39 of the image area 30 is determined.
  • the corners of the first image section 81 are then determined when the first image section 81 is defined 415 in such a way that they lie on the diagonals 77 , 78 and their respective distance from the center 39 of the image area 30 corresponds to the minimum distance 47 .
  • the first image section 81 determined using the method 400 corresponds to the third image section 83.
  • Two corners of the first image section 81 lie on the edges 31, 32, 33, 34 of the image area 30.
  • a method 500 for determining the second image section 82 is shown in FIGS.
  • a check 505 for the presence of a negative tilt angle 54 takes place. If a negative tilt angle 54 is present, the image surface 30 projected onto the projection plane 120 is first inverted 510 along the vertical axis 122. As a result, the first Corner point 35 is interchanged with the fourth corner point 38 and the second corner point 36 with the third corner point 37 and it is ensured that the edge 31, 33 of the image area 30 running through the second and third quadrant of the reference coordinate system has a larger extent along the central axis 121 as the edge 31, 33 of the image area 30 running through the first and fourth quadrants.
  • a center point 74 of the first edge 61 of the second image section 82, which is aligned parallel to the horizontal axis 121, is determined (515) in such a way that it is at the same height along the vertical axis 122 as the corner point 35, 36 closest to the central axis 121 Image area 30 in the second and third quadrant of the reference coordinate system. In the spatial position of the image sensor 12 shown in Fig. 16, this is the second corner point 36.
  • the method 500 then includes a determination 520 of intersections 46 between a first diagonal 72 and through the second, third and fourth edge 32, 33, 34 of the image area 30 straight lines, as well as intersections 46 between a second diagonal 73 and the through the second, third and fourth edge 32, 33, 34 of the image area 30 extending straight lines.
  • intersections 46 between a first diagonal 72 and the third and fourth edge 33, 34 of the image area 30 running straight lines can also only the points of intersection 46 between the first diagonal 72 and the third and fourth edge 33, 34 of the image area 30 running straight lines, and / or only the points of intersection 46 between the second diagonal 73 and through the second and third edge 32, 33 of the image area 30 extending straight lines are determined.
  • the respective diagonals 72, 73 are diagonals of halves 70 of the second image section 82 that are separated by the second central axis 76 of the second image section 82 and each run through the center point 74.
  • the first diagonal 72 has a negative gradient and the second diagonal 73 has a positive slope, with an amount of the respective slopes being twice the inverse of the predetermined aspect ratio.
  • the second image section 82 is then defined 525 in that the intersection 46 which has a minimum distance 47 from the center 74 is determined and the position of the corners of the second image section 82 is determined from the minimum distance 47 and the specified aspect ratio - nis to be calculated. Then, if a negative tilt angle 54 was determined, an inversion 590 of the defined image section 82 along the vertical axis 122 takes place in order to compensate for the inversion 510 of the projected image surface 30 that took place at the beginning of the method 500 .
  • the same algorithm for determining the second image section 82 is used both for positive and for negative tilt angles 54, this algorithm including the method steps 515, 520, 525 included.
  • the inversion 510, 590 can also be carried out if a positive tilt angle 54 is determined, in which case the method steps 515, 520, 525 are adapted in such a way that the center point 74 is on the through the first and fourth quadrant of the Third edge 63 of the second image section 82 running along the reference coordinate system.
  • the second image section 82 determined using the method 500 corresponds to the third image section 83.
  • the second image section 82 determined using the method 500 at a rotation angle 52 from zero is determined in such a way that its second central axis 76 runs through the center 39 of the image area 30 and it encompasses a maximum area within the image area 30 while maintaining the specified aspect ratio.
  • Two corners of the second image section 82 lie on the edges 31, 32, 33, 34 of the image area 30.
  • the center 85 of the second image section 82 does not correspond to the center 39 of the image area
  • the method firstly comprises calculating an intersection A of the first edge 31 of the image surface 30 projected onto the projection plane 120 with the vertical axis 122 and calculating an intersection E of the third edge 33 of the projected image area 30 with the vertical axis 122.
  • An evaluation area for determining the third image section 83 is then limited to Y coordinate values between the intersection points A and E.
  • edge functions f top (y), f right (y), f bottom (y) and f left (y) are defined, where f top (y) is the dependency of the X coordinates of the first edge
  • FIG. 19 shows a further method 600 for determining the third image section 83.
  • the method 600 it is first checked (605) whether a negative tilt angle 54 is present. If this is the case, the projected image surface 30 is first inverted 510 along the vertical axis 122, as described in connection with FIG. 15. The intersection points A and E are then determined (615) as described above. If there is no negative tilt angle 54, the method 600 begins directly with the determination 615 of the points of intersection A and E.
  • the further points of intersection B, C and D shown in FIG. 18 are determined (620).
  • the method shown in FIG. 20 is used for this. It is first checked (626) whether a Y-coordinate of the first corner point 35 of the image area 30 is smaller than a Y-coordinate of the second corner point 36. If this is the case, the intersection point B is the intersection point between the first edge 31 and the fourth edge 34 of the pro- projected image area 30 (628) as shown in FIG. Otherwise, the point of intersection B is determined as the point of intersection between the first edge 31 reflected on the vertical axis 122 and the second edge 32 of the projected image area 30 (629).
  • the method 620 then includes a determination (630) of the point of intersection C as the point of intersection of the second edge 32 or of the fourth edge 34 reflected on the vertical axis 122 with the horizontal axis 121. It is then checked (632) whether a Y coordinate of the fourth corner point 38 of the projected image area 30 is smaller than a Y-coordinate of the third corner point 37 of the projected image area 30. If this is the case, the point of intersection D is used as the point of intersection between the third edge 33 reflected on the vertical axis 122 with the second edge 32 of the projected image area 30 is determined (634) as shown in FIG. Otherwise, the point of intersection D is determined as the point of intersection between the third edge 33 and the fourth edge 34 of the projected image area 30, which is reflected on the vertical axis 122 (635).
  • the further method 600 shown in FIG. 19 for determining the third image section 83 then includes a determination 650 of a first intersection point P1 shown in FIG. 21 and a second intersection point P2 also shown in FIG. 32, 33, 34 of the projected image area 30 which intersects the third corner 67 of the third image section 83 to be determined.
  • the determination 650 is shown in FIG. 22 and initially includes a determination 652 of an intersection point F, shown in FIG the determination 650 includes a determination 654 of an intersection point G of the first, which is also shown in FIG Edge 31 with a parallel to the vertical axis 122 through the point of intersection D straight line.
  • the connecting line CF is compared with the specified aspect ratio (656). If the ratio of twice the X-coordinate value of the intersection point F and the length of the connecting line CF is not greater than the specified aspect ratio, the first intersection point P1 is determined as the intersection point B and the second intersection point P2 as the intersection point C (657 ). Otherwise, the connecting line DG is compared with the predetermined aspect ratio (658). If the ratio of twice the X coordinate value of the intersection point G and the length of the connecting line DG is greater than the specified aspect ratio, the first intersection point P1 is defined as the intersection point C and the second intersection point P2 as the intersection point D (660) , which is shown in FIG. Otherwise, the first intersection P1 is set as the intersection D and the second intersection P2 as the intersection E (661).
  • An intersection point K between a straight line running through the intersection points A and B and a straight line running through the intersection points P1 and P2, as well as an intersection point L of the straight line running through the intersection points P1 and P2 with the vertical axis 122 is determined (662), as shown in FIG.
  • the relative length ratios of the illustration in FIG. 23 deviate from the length ratios illustrated in FIGS. 18 and 21.
  • the setting 650 then includes determining 664 dimensions of a triangle defined by the intersection points A, K and L.
  • the lengths a, b and c shown in FIG. 23 are determined from the coordinates of the points of intersection A, K and L.
  • the length a corresponds to the difference in the Y coordinate values of points A and K
  • the length b to the difference in the Y coordinate values of points K and L
  • the length c to the distance of point K from the vertical axis 122 forming the Y axis.
  • the method 600 then includes a determination 666 of the position and dimensions of the third image section 83.
  • the Y coordinate of the center 85 of the third image section 83 is K.y+(e ⁇ d)/2 with the Y coordinate K.y of the point of intersection K, while the X coordinate of the center 85 of the third image section 83 is equal to zero.
  • the corners 65, 66, 67, 68 of the third image section 83 shown in FIG. 18 are then calculated from the position and the dimensions of the third image section 83 (685).
  • the position of the corners 65, 66, 67, 68 of the specific image section 83 along the vertical axis 122 is inverted (590) by the inversion 510 of the corner points that took place at the beginning of the method 600 35, 36, 37, 38 of the image area 30 to compensate.
  • the same algorithm is used to determine the third image section 83 for both positive and negative tilt angles 54, with this algorithm including the method steps 615, 620 , 650, 685.
  • the inversion 510, 590 can also be carried out when a positive tilting angle 54 is determined, with the method steps 615, 620, 650, 685 then having to be adapted accordingly.
  • FIG. 24 shows a further method 700 with which the determination 340 of the image section 60 can be carried out.
  • image detail 60 is determined in such a way that it has the specified aspect ratio, its second central axis 76 runs through projected center 39 of image area 30, and it has a maximum area within the area projected onto projection area 120 projected image area 30 has.
  • the image section 60 is also determined in the method 700 in such a way that at least two of its corners 65 , 66 , 67 , 68 lie on edges 31 , 32 , 33 , 34 of the projected image area 30 .
  • the further method 700 firstly includes checking 705 the tilting angle 54. If the tilting angle 54 deviates from zero by a maximum of a threshold value, in particular if the tilting angle 54 is equal to zero, then the image detail 60 is compared with that in connection with the figures 12 to 14 described method 400 determined. As a result, the image section 60 can be determined with particularly little effort compared to the other methods 500, 600, whereby it is also determined as the maximum image section with a predetermined aspect ratio and a second central axis 76 running through the center 39 of the image area 30, see Fig. 14 Otherwise, if a negative tilt angle 54 is present, the projected image is inverted 510 surface 30 along the vertical axis 122. In the case of a positive tilt angle 54, there is no inversion 510.
  • the image section 60 is calculated using the method steps 620 , 650 , 685 of the method 600 . Finally, in the cases in which the tilt angle 54 deviates from zero by more than the threshold value and a negative tilt angle 52 is present, the inversion 590 of the specific image section 60 takes place.
  • the image section 60 can also be determined semi-automatically using a center 85 of the image section 60 that can be specified by a user of the image recording device 10.
  • the predetermined aspect ratio can also be specified by a user input.
  • the image section 60 can also be determined in such a way that it includes areas in the projection plane 120 outside of the projected image area 30 .
  • the evaluation unit 20 can be designed to NEN areas with calculated, for example, to fill interpolated image information.
  • the evaluation unit 20 is also designed to store reference data for the perspective correction of the recorded image data set 100 in the storage unit 22 .
  • the reference data can be stored separately from the image data set 100 in a separate file or together with the image data set 100 in a common file, for example as metadata.
  • the reference data can include, for example, the tilting angle 54 and/or the rotation angle 52 and/or a focal length, for example a standardized focal length, for example a focal length standardized to the 35mm format, of the imaging optics 18 .
  • the reference data can include image section data which define the position and size of the image section 60 .
  • Such image section data can include, among other things, the positions of the corners 65, 66, 67, 68 of the image section 60 and/or the specified aspect ratio and/or a relative size of the corrected image in relation to the image data record 100.
  • the positions of the corners 65, 66, 67, 68 in normalized form as numerical values between 0 and 1 the specified aspect ratio as the ratio of width to height and the relative size as the ratio of a height of the image data set 100 to a height of the corrected image can be saved.
  • the reference data can include information which indicates whether or not the stored image data record 100 has already been corrected by means of the projective transformation.
  • intersection point P1 as intersection point B and intersection point P2 as intersection point C
  • intersection point P1 as intersection point D and intersection point P2 as intersection point E 662 Determining intersection points K and L

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Geometry (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

Ein Bildaufnahmegerät weist einen optoelektronischen Bildsensor, einen Lagesensor, eine grafische Benutzerausgabeschnittstelle und eine Auswerteeinheit auf. Der Bildsensor erfasst einen Bilddatensatz, welcher eine Abbildung einer vor dem Bildsensor befindlichen Szene auf eine Bildfläche des Bildsensors repräsentiert. Der Lagesensor erfasst eine räumliche Lage der Bildfläche relativ zu einer Referenzrichtung und stellt Lagedaten bereit, welche sowohl einen Rotationswinkel, als auch einen Verkippungswinkel des Bildsensors angeben. Die Auswerteeinheit bestimmt aus den Lagedaten eine projektive Transformation, welche den Bilddatensatz in Abhängigkeit sowohl der Rotation als auch der Verkippung auf eine gegenüber der Bildfläche verkippte Projektionsfläche abbildet. Die Auswerteeinheit bestimmt in der Projektionsebene einen Bildausschnitt für den mittels der projektiven Transformation auf die Projektionsebene abgebildeten Bilddatensatz und stellt den Bildausschnitt mit zumindest einem innerhalb des Bildausschnitts liegenden Bereich der abgebildeten Szene in der grafischen Benutzerausgabeschnittstelle dar.

Description

Bildaufnahmegerät
Die vorliegende Erfindung betrifft ein Bildaufnahmegerät mit einem optoelektroni- schen Bildsensor und ein Verfahren zum Betreiben eines Bildaufnahmegeräts mit einem optoelektronischen Bildsensor.
Bildaufnahmegeräte mit optoelektronischen Bildsensoren, beispielsweise Foto- oder Videokameras, bilden eine vor dem Bildaufnahmegerät befindliche Szene auf eine Bildfläche des Bildsensors ab und erzeugen Bilddaten, welche die auf die Bildfläche abgebildete Szene repräsentieren. Während der Abbildung der Szene kann es bei einer Verkippung der Bildfläche gegenüber einer Referenzfläche der Szene, beispielsweise gegenüber einer vertikalen Ebene einer Häuserfront, vor- kommen, dass die Referenzfläche der Szene nicht parallel zur Bildfläche des Bildsensors ausgerichtet ist. Dadurch weisen unterschiedliche Bereiche innerhalb der Referenzfläche der Szene einen unterschiedlichen Abstand zur Bildfläche des Bildsensors auf und die unterschiedlichen Bereiche werden mit unterschiedlichen Vergrößerungen auf die Bildfläche abgebildet. Dies führt zu perspektivischen Ver- zerrungen der auf die Bildfläche abgebildeten Szene. Infolgedessen können bei- spielsweise Geraden, welche innerhalb der Referenzebene parallel zueinander verlaufen, als sogenannte stürzende Linien abgebildet werden, was insbesondere bei einer Abbildung hoher Gebäude von einem tief liegenden Standpunkt aus vor- kommen kann.
Die aus einer Verkippung des Bildaufnahmegeräts resultierenden perspektivi- schen Verzerrungen können bei einer nachträglichen Bearbeitung der Bilddaten durch eine inverse Transformation, welche die während der Aufnahme der Bildda- ten auftretende perspektivische Verzerrung kompensiert, rückgängig gemacht werden. Dabei werden üblicherweise Geraden innerhalb der Bilddaten identifiziert, welche in der ursprünglichen Szene parallel zueinander verlaufen, und die Bildda- ten werden anschließend mittels der inversen Transformation derart korrigiert, dass die identifizierten Geraden auch in der aufgenommenen Szene parallel aus- gerichtet sind.
Bei der inversen Transformation werden jedoch auch die Ränder der Bilddaten verzerrt, so dass die transformierten Bilddaten zur Vermeidung schräggestellter Ränder beschnitten werden müssen. Dadurch wird der nutzbare Bildausschnitt verringert. Bei einer nachträglichen Bearbeitung bereits aufgenommener Bilddaten kann dies zur Folge haben, dass in der ursprünglichen Aufnahme vorhandene und für die Komposition der Aufnahme wichtige Bildbereiche beschnitten werden müs- sen und nicht mehr verwendet werden können.
Es ist Aufgabe der Erfindung, es einem Benutzer eines Bildaufnahmegeräts zu ermöglichen, auf einfache Weise Bilddaten zu erzeugen, welche auch noch nach einer Korrektur einer während der Aufnahme auftretenden perspektivischen Ver- zerrung alle für die Komposition der Aufnahme relevanten Bildbereiche umfassen.
Diese Aufgabe wird durch ein Bildaufnahmegerät und ein Verfahren zum Betrei- ben eines Bildaufnahmegeräts gemäß den unabhängigen Ansprüchen gelöst. Weiterbildungen sind jeweils in den abhängigen Ansprüchen angegeben.
Ein Bildaufnahmegerät weist einen optoelektronischen Bildsensor, einen Lage- sensor, eine grafische Benutzerausgabeschnittstelle und eine Auswerteeinheit auf. Der Bildsensor ist dazu ausgebildet, einen Bilddatensatz zu erfassen, welcher eine Abbildung einer vor dem Bildsensor befindlichen Szene auf eine Bildfläche des Bildsensors repräsentiert. Ferner ist der Lagesensor dazu ausgebildet, eine räum- liche Lage der Bildfläche relativ zu einer Referenzrichtung zu erfassen und Lage- daten bereitzustellen, welche sowohl einen Rotationswinkel, um den die Bildfläche bei der Erfassung des Bilddatensatzes um eine optische Achse des Bildsensors, insbesondere gegenüber einer senkrechten Projektion der Referenzrichtung auf die Bildfläche, rotiert ist, als auch einen Verkippungswinkel, um den die Bildfläche bei der Erfassung des Bilddatensatzes um eine Horizontalachse, insbesondere gegenüber der Referenzrichtung, verkippt ist, angeben. Dabei ist die Horizon- talachse senkrecht zu der optischen Achse und senkrecht zu der Referenzrichtung orientiert. Die Auswerteeinheit ist dazu ausgebildet, aus den Lagedaten eine pro- jektive Transformation zu bestimmen, welche den Bilddatensatz in Abhängigkeit sowohl der Rotation als auch der Verkippung aus der Bildfläche auf eine Projekti- onsebene abbildet. Die Projektionsebene ist dabei gegenüber der Bildfläche in Abhängigkeit von dem Verkippungswinkel verkippt und schneidet die Bildfläche entlang einer Schnittlinie, welche in der Bildfläche gegenüber Mittelachsen der Bildfläche in Abhängigkeit von dem Rotationswinkel rotiert ist. Die Auswerteeinheit ist außerdem dazu ausgebildet, in der Projektionsebene einen Bildausschnitt für den mittels der projektiven Transformation auf die Projektionsebene abgebildeten Bilddatensatz zu bestimmen und den Bildausschnitt mit zumindest einem inner- halb des Bildausschnitts liegenden Bereich der auf die Bildfläche abgebildeten Szene in der grafischen Benutzerausgabeschnittstelle darzustellen.
Im Rahmen der Erfindung wurde erkannt, dass eine einfache und vor allem per- spektivisch korrekte Korrektur perspektivischer Verzerrungen dadurch ermöglicht wird, dass die Lage des Bildsensors relativ zur aufgenommenen Szene über den Lagesensor automatisiert erfasst und eine projektive Transformation zur Kompen- sation der perspektivischen Verzerrungen aus den Lagedaten des Lagesensors errechnet wird. Indem bei der projektiven Transformation nicht nur die Verkippung des Bildsensors um die Horizontalachse, also eine Verkippung einer Bildebene des Bildsensors gegenüber einer parallel zu der Referenzrichtung ausgerichteten Referenzebene der Szene, sondern auch die Rotation des Bildsensors um die op- tische Achse berücksichtigt wird, erfolgt insbesondere auch noch bei rotiertem Bildsensor eine perspektivisch korrekte Korrektur der abgebildeten Szene. Die Darstellung des durch die Auswerteeinheit bestimmten Bildausschnitts zu- sammen mit der auf die Bildfläche abgebildeten Szene in der Benutzerausgabe- schnittstelle des Bildaufnahmegeräts ermöglicht es dann einem Benutzer, den Bildsensor bereits während der Aufnahme der Szene derart auszurichten, dass auch noch bei einem späteren Beschnitt der Bilddaten alle für die Komposition der Aufnahme wesentlichen Bildbereiche innerhalb des Bildausschnitts liegen. Inso- fern erhält ein Benutzer des Bildaufnahmegeräts bereits während der Aufnahme eine direkte Rückmeldung über den nach einer Korrektur der perspektivischen Verzerrung noch verwendbaren Bildausschnitt, so dass er alle relevanten Auf- nahmeparameter bereits unter Berücksichtigung des später verfügbaren Bildaus- schnitts wählen kann.
Die zur Bestimmung der projektiven Transformation herangezogene Referenzrich- tung kann insbesondere unabhängig sein von der durch den Lagesensor ermittel- ten Rotation und Verkippung des Bildsensors. Dadurch ist auch die absolute räumliche Lage der Projektionsebene unabhängig von der Rotation des Bildsensors um dessen optische Achse und der Verkippung des Bildsensors um die Horizontalachse. Da die Horizontalachse senkrecht zu der optischen Achse und der Referenzrichtung ausgerichtet ist, ist die optische Achse auch nach An- wendung der projektiven Transformation in einer durch die Referenzrichtung und die optische Achse aufgespannten und senkrecht zu der Horizontalachse orientier- ten Vertikalebene angeordnet. Insofern verschiebt sich die Blickrichtung auf die abgebildete Szene auch nach Anwendung der projektiven Transformation nicht aus der Vertikalebene, was eine Komposition des Bildausschnitts während der Aufnahme der Szene erleichtert, beispielsweise gegenüber Transformationen, bei denen die Projektionsebene unabhängig von einer Rotation des Bildsensors um die optische Achse stets die gleiche Ausrichtung gegenüber dem Bildsensor auf- weist. Die Verkippung der Projektionsebene gegenüber der Bildfläche kann insbesonde- re derart von dem Verkippungswinkel abhängen, dass die Verkippung der Projek- tionsebene gegenüber der Bildfläche dem Verkippungswinkel oder dem Verkip- pungswinkel abzüglich eines Restwinkels entspricht. Insbesondere kann die Ver- kippung der Projektionsebene gegenüber der Bildfläche derart von dem Verkip- pungswinkel abhängen, dass die Projektionsebene bei einem Verkippungswinkel ungleich Null gegenüber der Bildfläche verkippt ist und bei einem Verkippungswin- kel gleich Null parallel zu der Bildfläche ausgerichtet ist.
Ebenso kann die Rotation der Schnittlinie zwischen der Bildfläche und der Projek- tionsebene gegenüber den Mittelachsen der Bildfläche derart von dem Rotations- winkel abhängen, dass die Rotation der Schnittlinie gegenüber den Mittelachsen dem Rotationswinkel entspricht. Insbesondere kann die Rotation der Schnittlinie gegenüber den Mittelachsen derart von dem Rotationswinkel abhängen, dass die Schnittlinie bei einem Rotationswinkel ungleich Null nicht parallel zu den Mittel- achsen und bei einem Rotationswinkel gleich Null parallel zu einer Mittelachse der Bildfläche verläuft. Bei einer rechteckigen Bildfläche verläuft die Schnittlinie dann bei einem von Null verschiedenen Rotationswinkel auch nicht parallel zu einem Rand der Bildfläche.
Der Lagesensor kann als ein dreiachsiger Sensor ausgebildet sein, welcher die räumliche Lage von drei zueinander orthogonalen Achsen des Bildsensors be- stimmt. Der Lagesensor kann zusammen mit dem Bildsensor ortsfest innerhalb eines gemeinsamen Gehäuses angeordnet sein. Der Lagesensor kann beispiels- weise als ein Schwerkraftsensor oder als ein gyroskopischer Sensor ausgebildet sein. Alternativ kann die Referenzrichtung auch durch eine Benutzereingabe vor- gebbar sein, beispielsweise durch eine Ausrichtung einer Mittelachse des Bildsensors entlang der gewünschten Referenzrichtung und eine Kalibration der Lagebestimmung auf die entsprechende räumliche Lage, etwa als Reaktion auf eine Benutzereingabe. Die bei der Bestimmung der räumlichen Lage des Bildsensors herangezogene Referenzrichtung kann eine fest vorgegebene Richtung, beispielsweise die Rich- tung der Erdbeschleunigung, sein. Handelt es sich um die Erdbeschleunigung, ist die Horizontalachse insbesondere parallel zum Horizont der aufgenommenen Szene ausgerichtet, so dass der Verkippungswinkel die Verkippung der Bildfläche aus deren vertikaler Ausrichtung angibt.
Um eine eindeutige Definition der Lage der Horizontalachse auch in Fällen zu ge- währleisten, in denen die Referenzrichtung parallel zur optischen Achse ausge- richtet ist, kann die Auswerteeinheit dazu ausgebildet sein, die Horizontalachse nur dann als eine senkrecht zu der Referenzrichtung und senkrecht zur optischen Achse ausgerichtete Richtung zu bestimmen, wenn der Verkippungswinkel höchs- tens einem vorgegebenen Grenzwert entspricht. Dabei kann der Grenzwert kleiner als 90°, beispielsweise kleiner als 45°, sein. Der Grenzwert kann beispielsweise um 1 °, 3°, 5° oder 10° kleiner als 90° oder 45 ° sein. Ferner kann die Auswer- teeinheit dazu ausgebildet sein, die projektive Transformation und den Bildaus- schnitt nur für Verkippungswinkel, die höchstens dem vorgegebenen Grenzwert entsprechen, zu bestimmen. Alternativ kann die Auswerteeinheit auch dazu aus- gebildet sein, bei einem Überschreiten des vorgegebenen Grenzwerts die Hori- zontalachse parallel zu einer vorgegebenen Mittelachse der Bildfläche auszurich- ten.
Das Bildaufnahmegerät kann als eine Foto- oder Videokamera ausgebildet sein. Insbesondere kann das Bildaufnahmegerät als eine spiegellose Kamera ausgebil- det sein. Zur Abbildung der Szene auf die Bildfläche des Bildsensors kann das Bildaufnahmegerät eine Abbildungsoptik, beispielsweise ein Objektiv, aufweisen, welches während der Abbildung ortsfest mit dem Bildsensor und dem Lagesensor, etwa mit einem den Bildsensor und den Lagesensor umfassenden Gehäuse, ver- bunden ist. Bei der Abbildungsoptik kann es sich insbesondere um ein Wechsel- objektiv handeln. Eine optische Achse der Abbildungsoptik kann mit der optischen Achse des Bildsensors zusammenfallen.
Bei der Benutzerausgabeschnittstelle kann es sich um einen elektronischen oder optischen Sucher des Bildaufnahmegeräts oder um einen Bildschirm handeln. Handelt es sich um einen optischen Sucher, kann der Bildausschnitt dem inner- halb des Suchers dargestellten Bereich der abgebildeten Szene überlagert ange- zeigt werden, um gleichzeitig den Bildausschnitt und zumindest den innerhalb des Bildausschnitts liegenden Bereich der abgebildeten Szene in der als Sucher aus- gebildeten Benutzerausgabeschnittstelle darzustellen. Der Bildschirm und/oder der Sucher können ebenfalls an dem den Bildsensor und den Lagesensor umfas- senden Gehäuse angeordnet sein. Alternativ kann zumindest der Bildschirm ent- fernt von einem derartigen Gehäuse angeordnet sein, beispielsweise in einem mit dem Bildsensor und dem Lagesensor über eine Datenverbindung verbundenen Mobilgerät, etwa einem Smartphone oder Tablet-Computer.
Die Auswerteeinheit kann zumindest eine programmierbare Logikeinheit umfas- sen, beispielsweise einen ASIC, ein FPGA, einen Mikrochip oder dergleichen. Sie kann im gleichen Gehäuse wie der Bildsensor und der Lagesensor angeordnet sein. Alternativ können zumindest Komponenten der Auswerteeinheit außerhalb dieses Gehäuses angeordnet sein, beispielsweise in einer mit dem Gehäuse über eine Datenverbindung verbundenen externen Recheneinheit des Bildaufnahmege- räts, etwa dem Smartphone oder Tablet-Computer.
Der Bildsensor kann beispielsweise als ein CCD- oder CMOS-Bildsensor ausge- bildet sein. Die Bildfläche des Bildsensors wird durch diejenige Fläche des Bildsensors gebildet, welche einfallende elektromagnetische Strahlung erfasst und in elektronische Signale zur Erstellung des Bilddatensatzes umwandelt. Die Bild- fläche kann insbesondere rechteckig ausgebildet sein. Der Bildausschnitt kann beispielsweise als ein rechteckiger Bildausschnitt be- stimmt werden. Zur Bestimmung des Bildausschnitts kann die Auswerteeinheit zumindest alle Eckpunkte der Bildfläche mittels der projektiven Transformation auf die Projektionsebene abbilden. Insbesondere kann die Auswerteeinheit aus- schließlich die Eckpunkte der Bildfläche, nicht jedoch die einzelnen Bildpunkte des Bildsensors, zur Bestimmung des Bildausschnitts auf die Projektionsebene abbil- den. Nach Bestimmung der Koordinaten des Bildausschnitts innerhalb der Projek- tionsebene kann die Auswerteeinheit die Koordinaten des Bildausschnitts mittels einer zu der projektiven Transformation inversen Transformation zurück auf die Bildfläche des Bildsensors abbilden. Dies ermöglicht es, den Bildausschnitt inner- halb der untransformierten Szene in der grafischen Benutzerausgabeschnittstelle darzustellen. Dabei können insbesondere gleichzeitig der Bildausschnitt und alle durch die Bildfläche des Bildsensors erfassten Bilddaten dargestellt werden.
Alternativ kann in der Benutzerausgabeschnittstelle auch direkt der untransfor- mierte Bildausschnitt dargestellt werden zusammen mit dem ebenfalls auf die Pro- jektionsebene abgebildeten und innerhalb des Bildausschnitts liegenden Bereichs der abgebildeten Szene. Dies ermöglicht es, den nach der Korrektur der perspek- tivischen Verzerrung erhältlichen Bildausschnitt vollflächig innerhalb der Benutzer- ausgabeschnittstelle und damit in hoher Vergrößerung darzustellen.
Bei einer Weiterbildung entspricht die Referenzrichtung der Richtung der Erdbe- schleunigung. Dadurch kann die räumliche Lage des Bildsensors auf einfache Art und Weise automatisiert bestimmt werden. Üblicherweise treten perspektivische Verzerrungen dann auf, wenn die abgebildete Szene hohe vertikale Objekte, bei- spielsweise Gebäude, umfasst, welche von einem tief- oder hochliegenden Stand- punkt aus aufgenommen werden. Insbesondere bei derartigen perspektivischen Verzerrungen kann dann die projektive Transformation ohne eine Benutzereinga- be ermittelt werden. Bei einer derartigen Weiterbildung kann der Lagesensor bei- spielsweise als ein Beschleunigungssensor zur Erfassung des Schwerefelds der Erde ausgebildet sein.
Bei einer Weiterbildung ist die Projektionsebene parallel zu der Horizontalachse und/oder parallel zu der Referenzrichtung ausgerichtet. Ist die Projektionsebene parallel zu der Horizontalachse, wird die Rotation der Bildfläche um die optische Achse vollständig korrigiert. Ist die Projektionsebene parallel zu der Referenzrich- tung, wird die Verkippung der Bildfläche gegenüber der Referenzrichtung, bei- spielsweise gegenüber einer aus der Erdbeschleunigung bestimmten vertikalen Ausrichtung, vollständig kompensiert.
Alternativ kann die Projektionsebene mit der Horizontalachse einen Restwinkel einschließen, welcher von Null verschieden und kleiner als der Rotationswinkel ist, so dass die Rotation um die optische Achse nicht vollständig kompensiert wird. Alternativ oder zusätzlich kann die Projektionsebene mit der Referenzrichtung ei- nen weiteren Restwinkel einschließen, welcher von Null verschieden und kleiner als der Verkippungswinkel ist. Dadurch wird die Verkippung der Bildfläche um die Horizontalachse nicht vollständig kompensiert. Insbesondere bei einer Unterkor- rektur, also einer nicht vollständigen Kompensation der Verkippung der Bildfläche um die Horizontalachse kann die abgebildete Szene nach Anwendung der per- spektivischen Korrektur natürlicher wirken als bei einer vollständigen Korrektur der Verkippung.
Bei einer Weiterbildung schneidet die Horizontalachse die optische Achse im Mit- telpunkt der Bildfläche. Damit schneidet auch die Projektionsebene die Bildfläche im Mittelpunkt der Bildfläche und entlang der Horizontalachse.
Bei einer Weiterbildung ist ein Projektionszentrum der projektiven Transformation auf der optischen Achse angeordnet. Dies ermöglicht eine perspektivisch korrekte Kompensation der während der Abbildung auftretenden perspektivischen Verzer- rungen. Bei einer Weiterbildung entspricht ein Abstand des Projektionszentrums von der Bildfläche einer auf eine Diagonale der Bildfläche normierten Brennweite einer die Szene auf den Bildsensor abbildenden Abbildungsoptik des Bildaufnahmegeräts. Dadurch können während der Abbildung auftretende perspektivische Verzerrun- gen vollständig korrigiert werden. Ist das Bildaufnahmegerät dazu ausgebildet, verschiedene Abbildungsoptiken, beispielsweise als Wechselobjektive, aufzuneh- men, kann die Auswerteeinheit dazu ausgebildet sein, den Abstand des Projekti- onszentrums anhand einer zur Verfügung gestellten Brennweite der während der Aufnahme verwendeten Abbildungsoptik zu bestimmen. Dabei kann die Brennwei- te beispielsweise durch die Abbildungsoptik, etwa durch eine Elektronikeinheit der Abbildungsoptik, zur Verfügung gestellt und von der Auswerteeinheit erfasst wer- den. Ist die Abbildungsoptik dazu ausgebildet, die aufgenommene Szene mit ein- stellbarer Brennweite abzubilden, beispielsweise bei einer als Zoom-Objektiv aus- gebildeten Abbildungsoptik, kann die Auswerteeinheit dazu ausgebildet sein, die jeweils eingestellte Brennweite zu erfassen.
Bei einer Weiterbildung ist die Auswerteeinheit dazu ausgebildet, zur Bestimmung des Bildausschnitts lediglich auf die Projektionsebene projizierte Eckpunkte der Bildfläche heranzuziehen. Hierdurch ist eine besonders schnelle und einfache Be- stimmung des Bildausschnitts möglich. Bei einer derartigen Weiterbildung des Bildaufnahmegeräts kann die Bestimmung des Bildausschnitts insbesondere ohne eine Projektion weiterer Bildpunkte des Bildsensors, insbesondere ohne eine Pro- jektion aller Bildpunkte des Bildsensors auf die Projektionsebene erfolgen. Dadurch kann der Bildausschnitt bei geringem Rechenaufwand besonders schnell bestimmt werden.
Bei einer Weiterbildung ist die Auswerteeinheit dazu ausgebildet, den Bildaus- schnitt anhand eines vorgegebenen Seitenverhältnisses zu bestimmen. Durch die Vorgabe des Seitenverhältnisses kann der Bildausschnitt nachfolgend automati- siert bestimmt werden. Das vorgegebene Seitenverhältnis kann beispielsweise einem Seitenverhältnis der Bildfläche und/oder einem Seitenverhältnis der Benut- zerausgabeschnittstelle entsprechen. Das Seitenverhältnis kann beispielsweise unveränderbar in der Auswerteeinheit hinterlegt sein oder durch einen Benutzer des Bildaufnahmegeräts über eine Benutzereingabeschnittstelle vorgebbar sein.
Bei einer Weiterbildung ist das vorgegebene Seitenverhältnis von einem Seiten- verhältnis der Bildfläche und/oder der Benutzerausgabeschnittstelle verschieden und die Auswerteeinheit ist dazu ausgebildet, über eine Benutzereingabeschnitt- stelle eine Benutzereingabe zur Festlegung des vorgegebenen Seitenverhältnis- ses zu empfangen. Dadurch kann der Bildausschnitt besonders flexibel automati- siert bestimmt werden.
Bei einer Weiterbildung ist die Auswerteeinheit dazu ausgebildet, den Bildaus- schnitt, beispielsweise als einen rechteckigen Ausschnitt, derart zu bestimmen, dass in der Projektionsebene eine erste Mittenachse des Bildausschnitts parallel zu der Horizontalachse und eine zu der ersten Mittenachse senkrecht orientierte zweite Mittenachse des Bildausschnitts parallel zu der Referenzrichtung verläuft. Dadurch weist der in der Projektionsebene bestimmte Bildausschnitt eine Ausrich- tung auf, welche die Rotation des Bildsensors um dessen optische Achse voll- ständig korrigiert.
Bei einer Weiterbildung ist die Auswerteeinheit dazu ausgebildet, den Bildaus- schnitt derart zu bestimmen, dass bei Einhaltung des vorgegebenen Seitenver- hältnisses mindestens zwei Ecken des Bildausschnitts auf mittels der projektiven Transformation auf die Projektionsebene abgebildeten Rändern der Bildfläche lie- gen. Dadurch kann der Bildausschnitt besonders groß, insbesondere als bei Ein- haltung des vorgegebenen Seitenverhältnisses maximal nutzbarer Bildausschnitt, bestimmt werden. Bei einer Weiterbildung ist die Auswerteeinheit dazu ausgebildet, den Bildaus- schnitt unabhängig von der Lage des Bildsensors derart zu bestimmen, dass ein mittels der projektiven Transformation auf die Projektionsebene projiziertes Zent- rum der Bildfläche auf einer Mittenachse des Bildausschnitts liegt. Dies erleichtert eine symmetrische Abbildung der Szene. Außerdem weist der innerhalb des Bild- ausschnitts befindliche Bereich der abgebildeten Szene bei einer derartigen Be- stimmung des Bildausschnitts besonders wenig Bildfehler, beispielsweise Verzer- rungen, auf, da durch die Abbildungsoptik hervorgerufene Bildfehler in der Regel mit zunehmendem Abstand von der optischen Achse und damit mit zunehmendem Abstand vom Zentrum der Bildfläche zunehmen.
Bei einer Weiterbildung ist die Auswerteeinheit dazu ausgebildet, zur Bestimmung des Bildausschnitts sowohl bei positiven, als auch bei negativen Verkippungswin- keln den gleichen Algorithmus zu verwenden und den Algorithmus nur dann, wenn ein positiver Verkippungswinkel vorliegt, oder nur dann, wenn ein negativer Ver- kippungswinkel vorliegt, anstatt auf die in die Projektionsebene projizierte Bildflä- che auf die entlang der Referenzrichtung invertierte projizierte Bildfläche anzu- wenden. Dadurch wird lediglich eine geringe Anzahl von Fallunterscheidungen benötigt, um sowohl eine Korrektur von positiven, als auch eine Korrektur von ne- gativen Verkippungswinkeln zu ermöglichen.
Bei denjenigen Verkippungswinkeln, bei denen der Algorithmus auf die invertierte projizierte Bildfläche angewendet wird, also entweder bei allen positiven oder bei allen negativen Verkippungswinkeln, können die relevanten Punkte der Bildfläche, beispielsweise deren Eckpunkte, zunächst auf die Projektionsebene abgebildet und anschließend invertiert werden. Nachdem dann der Algorithmus angewendet wurde, kann der bestimmte Bildausschnitt ebenfalls entlang der Referenzrichtung invertiert werden, um die Lage des Bildausschnitts innerhalb der ursprünglichen, nicht invertierten projizierten Bildfläche zu erhalten. Bei einer Weiterbildung ist die Auswerteeinheit dazu ausgebildet, zumindest dann, wenn der Verkippungswinkel gleich Null ist, in der Projektionsebene eine Ecke des Bildausschnitts als einen Schnittpunkt einer durch das Seitenverhältnis vorgege- benen Diagonalen des Bildausschnitts mit einem auf die Projektionsebene proji- zierten Rand der Bildfläche zu bestimmen. Bei einer derartigen grafischen Be- stimmung des Bildausschnitts kann der Bildausschnitt besonders einfach und mit geringer Rechenleistung ermittelt werden. Bei einem Verkippungswinkel gleich Null entspricht der auf diese Weise bestimmte Bildausschnitt zugleich dem unter Einhaltung des Seitenverhältnisses maximal möglichen Bildausschnitt. Die Diago- nalen des Bildausschnitts können dabei ausgehend von einem Zentrum des Bild- ausschnitts bestimmt werden, wobei das Zentrum insbesondere dem auf die Pro- jektionsebene transformierten Zentrum der Bildfläche entsprechen kann.
Bei einer Weiterbildung ist die Auswerteeinheit dazu ausgebildet, zumindest dann, wenn der Verkippungswinkel mindestens um einen Schwellenwert von Null ver- schieden und der Rotationswinkel gleich Null ist, in der Projektionsebene eine Ecke des Bildausschnitts als einen Schnittpunkt einer durch das Seitenverhältnis vorgegebenen Diagonalen einer Hälfte des Bildausschnitts mit einem auf die Pro- jektionsebene projizierten Rand der Bildfläche zu bestimmen, wobei die Diagonale in der Projektionsebene durch einen Mittelpunkt eines parallel zu der Horizon- talachse ausgerichteten weiteren Randes des Bildausschnitts verläuft. Dies er- möglicht ebenfalls eine einfache grafische Bestimmung des Bildausschnitts bei geringer Rechenleistung.
Der Mittelpunkt des parallel zu der Horizontalachse ausgerichteten weiteren Ran- des des Bildausschnitts kann insbesondere auf einer parallel zu der Referenzrich- tung ausgerichteten und durch den auf die Projektionsebene transformierten Mit- telpunkt der Bildfläche verlaufenden Mittenachsen des Bildausschnitts angeordnet sein. Der Bildausschnitt kann an den parallel zu der Horizontalachse ausgerichte- ten weiteren Rand des Bildausschnitts angrenzen. Bei dem weiteren Rand kann es sich insbesondere um den längsten parallel zu der Horizontalachse ausgerich- teten Rand des Bildausschnitts handeln.
Die Auswerteeinheit kann dazu ausgebildet sein, den Bildausschnitt ausschließlich dann, wenn der Verkippungswinkel gleich Null oder kleiner als der Schwellenwert ist, als den Schnittpunkt der durch das Seitenverhältnis vorgegebenen Diagonalen des Bildausschnitts mit dem projizierten Rand der Bildfläche zu bestimmen, und ausschließlich dann, wenn der Verkippungswinkel ungleich Null oder um mindes- tens den Schwellenwert von Null verschieden und der Rotationswinkel gleich Null oder höchstens um einen weiteren Schwellenwert von Null verschieden ist, als den Schnittpunkt der durch das Seitenverhältnis vorgegebenen Diagonalen der Hälfte des Bildausschnitts mit dem projizierten Rand der Bildfläche zu bestimmen.
Bei einer Weiterbildung ist die Auswerteeinheit dazu ausgebildet, den innerhalb des Bildausschnitts liegenden Bereich der auf die Bildfläche abgebildeten Szene in der grafischen Benutzerausgabeschnittstelle als mittels der projektiven Trans- formation in die Projektionsebene transformierten Bereich des Bilddatensatzes und den Bildausschnitt durch ein Beschneiden des transformierten Bilddatensat- zes darzustellen, beispielsweise durch ein Beschneiden des transformierten Bild- datensatzes mittels Ränder der Benutzerausgabeschnittstelle. Dadurch wird ei- nem Benutzer direkt der zugeschnittene und perspektivisch entzerrte Bereich der abgebildeten Szene dargestellt.
Bei einer Weiterbildung ist die Auswerteeinheit dazu ausgebildet, die auf die Bild- fläche abgebildete Szene vollständig und ohne Anwendung der projektiven Trans- formation in der grafischen Benutzerausgabeschnittstelle darzustellen, wobei die Auswerteeinheit dazu ausgebildet ist, den Bildausschnitt mittels eines die abgebil- dete Szene überlagernden Rahmens darzustellen. Dadurch kann einem Benutzer des Bildaufnahmegeräts die auf die Bildfläche des Bildsensors abgebildete Szene vollständig dargestellt werden. Insbesondere kann ein Benutzer auch außerhalb des Bildausschnitts liegende Bereiche der Szene bei der Erstellung der Aufnahme berücksichtigen.
Wird die auf die Bildfläche abgebildete Szene untransformiert, also ohne Anwen- dung der projektiven Transformation, in der grafischen Benutzerausgabeschnitt- stelle dargestellt, so kann der in der Projektionsebene bestimmte Bildausschnitt in der Benutzerausgabeschnittstelle unter Anwendung einer zu der projektiven Transformation inversen Transformation dargestellt werden. Insbesondere kann der den Bildausschnitt umgebende Rahmen unter Anwendung der inversen Trans- formation dargestellt werden. Die inverse Transformation kann beispielsweise als weitere projektive Transformation den Bildausschnitt aus der Projektionsebene mit dem auf der optischen Achse liegenden Projektionszentrum auf eine die Bildfläche umfassende Bildebene projizieren.
Der Rahmen kann in der Benutzerausgabeschnittstelle mittels einzelner Linien dargestellt werden. Weitere visuelle Darstellungsvananten können einen den Rahmen umgebenden ausgegrauten Bereich oder eine von einer Farbdarstellung im Inneren des Rahmens abweichende Farbdarstellung der außerhalb des Rah- mens liegenden Bereiche umfassen. Außerdem kann der Rahmen allgemein auch mit überlagerten Gitternetzlinien, welche parallel und/oder orthogonal zu Rändern des Rahmens ausgerichtet sein können, dargestellt werden.
Derartige Gitternetzlinien können insbesondere in der Projektionsebene parallel und/oder orthogonal zu den Rändern des Rahmens ausgerichtet sein. Bei einer untransformierten Darstellung der abgebildeten Szene in der Benutzerausgabe- schnittstelle können dann sowohl der Rahmen, als auch die Gitternetzlinien mittels der inversen Transformation auf die Bildebene transformiert dargestellt werden.
Bei einer Weiterbildung ist die Auswerteeinheit dazu ausgebildet, eine Position eines Messpunkts zur Bestimmung eines Aufnahmeparameters des Bilderfas- sungsgeräts in der Benutzerausgabeschnittstelle darzustellen, wobei die Position des Messpunkts relativ zu der vollständigen und untransformierten auf die Bildflä- che abgebildeten Szene dargestellt wird. Dadurch kann insbesondere auch ein Messpunkt, welcher außerhalb des Bildausschnitts angeordnet ist, dargestellt und zur Bestimmung des Aufnahmeparameters herangezogen werden. Das Bildauf- nahmegerät kann insbesondere dazu ausgebildet sein, Messdaten des Messpunk- tes auch dann zu berücksichtigen, wenn dieser außerhalb des Bildausschnitts an- geordnet ist.
Bei dem Messpunkt kann es sich beispielsweise um einen Fokusmesspunkt, einen Belichtungsmesspunkt, einen Messpunkt zur Bestimmung einer Farbtemperatur für einen Weißabgleich des Bilddatensatzes oder ähnliches handeln. Der Mess- punkt kann beispielsweise mittels einer Benutzereingabe gesetzt werden. Die Be- nutzereingabe kann beispielsweise über ein mechanisches Bedienelement des Bildaufnahmegeräts, beispielsweise einen Taster, Schalter oder Joystick, erfasst werden. Alternativ oder zusätzlich kann die Benutzereingabe auch über ein elekt- ronisches Bedienelement, beispielsweise einen Touchscreen bzw. berührungs- empfindlichen Bildschirm, erfasst werden.
Bei einer Weiterbildung umfasst das Bildaufnahmegerät eine kombinierte Benut- zerschnittstelle, welche die Benutzerausgabeschnittstelle und eine überlagerte Positionseingabeschnittstelle zur Festlegung der Position des Messpunktes relativ zu der untransformierten Szene umfasst, wobei die kombinierte Benutzerschnitt- stelle dazu ausgebildet ist, die Position des Messpunktes als diejenige Position innerhalb der untransformierten Szene zu erfassen, an der eine Betätigung der überlagerten Positionseingabeschnittstelle erfasst wird. Auf diese Weise kann die Position des Messpunkts besonders einfach und intuitiv festgelegt werden. Bei der kombinierten Benutzerschnittstelle kann es sich beispielsweise um einen berüh- rungsempfindlichen Bildschirm handeln, wobei in dem Bildschirm insbesondere die untransformierte Szene dargestellt werden kann. Bei einer Weiterbildung liegt die Referenzrichtung in der Projektionsebene. Alter- nativ kann die Projektionsebene gegenüber der Referenzrichtung um einen Rest- winkel verkippt sein, wobei der Restwinkel von Null verschieden und kleiner als der Verkippungswinkel ist. Beispielsweise kann der Restwinkel höchstens 10 %, etwa höchstens 5 %, höchstens 2 % oder höchstens 1 % des Verkippungswinkels betragen. Der Restwinkel kann insbesondere 2 % des Verkippungswinkels betra- gen. Gleichzeitig kann die Projektionsebene parallel zu der Horizontalachse aus- gerichtet sein. Indem die Verkippung lediglich bis auf einen von Null verschiede- nen Restwinkel korrigiert wird, erfolgt eine Unterkorrektur der Verkippung, was insbesondere bei starken Verkippungen zu einem natürlicher wirkenden korrigier- ten Bilddatensatz als eine vollständige Korrektur führen kann.
Bei einer Weiterbildung ist der Bildsensor dazu ausgebildet, eine Abfolge von Bilddatensätzen zu erfassen, welche die auf die Bildfläche abgebildete Szene zu aufeinanderfolgenden Zeitpunkten repräsentieren, und der Lagesensor ist dazu ausgebildet, für jeden Bilddatensatz eine jeweilige räumliche Lage des Bildsensors zu erfassen und jeweilige Lagedaten bereitzustellen. Außerdem ist die Auswer- teeinheit dazu ausgebildet, für jeden mittels einer aus den jeweiligen Lagedaten ermittelten projektiven Transformation auf eine jeweilige Projektionsebene proji- zierten Bilddatensatz einen jeweiligen Bildausschnitt zu bestimmen und die jewei- ligen Bildausschnitte zumindest zusammen mit dem innerhalb des jeweiligen Bild- ausschnitts liegenden Bereich der auf die Bildfläche abgebildeten Szene nachei- nander in der grafischen Benutzerausgabeschnittstelle darzustellen.
Dies ermöglicht es einem Benutzer des Bildaufnahmegeräts, die auf den Bildsensor abgebildete Szene anhand der Darstellungen in der Benutzerausgabe- schnittstelle festzulegen. Insbesondere bei einer derartigen Weiterbildung kann die Benutzerausgabeschnittstelle als ein elektronischer Sucher oder ein an einem Gehäuse des Bildaufnahmegeräts angeordneter Bildschirm ausgebildet sein. Das - Bildaufnahmegerät kann beispielsweise dazu ausgebildet sein, das Erfassen der jeweiligen Bilddatensätze und das Bestimmen und/oder Darstellen der jeweiligen Bildausschnitte mit einer Wiederholrate von mindestens 5, beispielsweise mindes- tens 5, 10, 20, 40, 50, 60 oder 120 Bildern pro Sekunde auszuführen. Dabei kön- nen die Lagedaten durch den Lagesensor auch mit einer von der Wiederholrate verschiedenen, beispielsweise mit einer geringeren Frequenz zur Verfügung ge- stellt werden. In diesem Fall kann der Bildausschnitt mehrmals hintereinander auf Grundlage der gleichen Lagedaten bestimmt und/oder dargestellt werden.
Es wird ferner ein Verfahren zum Betreiben eines Bildaufnahmegeräts angegeben, wobei das Verfahren umfasst: - Erfassen eines Bilddatensatzes mit einem Bildsensor des Bildaufnahmege- räts, wobei der Bilddatensatz eine Abbildung einer vor dem Bildsensor befindli- chen Szene auf eine Bildfläche des Bildsensors repräsentiert; - Erfassen einer räumlichen Lage der Bildfläche relativ zu einer Referenzrich- tung;
- Bereitstellen von Lagedaten, welche sowohl einen Rotationswinkel, um den die Bildfläche bei dem Erfassen des Bilddatensatzes um eine optische Achse des Bildsensors, insbesondere gegenüber einer senkrechten Projektion der Referenz- richtung auf die Bildfläche, rotiert ist, als auch einen Verkippungswinkel, um den die Bildfläche bei dem Erfassen des Bilddatensatzes um eine Horizontalachse, insbesondere gegenüber der Referenzrichtung, verkippt ist, angeben, wobei die Horizontalachse senkrecht zu der optischen Achse und senkrecht zu der Refe- renzrichtung orientiert ist;
- Bestimmen einer projektiven Transformation aus den Lagedaten, wobei die pro- jektive Transformation den Bilddatensatz in Abhängigkeit sowohl der Rotation als auch der Verkippung aus der Bildfläche auf eine Projektionsebene abbildet, wobei die Projektionsebene gegenüber der Bildfläche um die Horizontalachse in Abhängigkeit von dem Verkippungswinkel verkippt ist und die Bildfläche entlang einer Schnittlinie schneidet, welche in der Bildfläche gegenüber Mittelachsen der Bildfläche in Abhängigkeit von dem Rotationswinkel rotiert ist;
- Bestimmen eines Bildausschnitts für den mittels der projektiven Transformation auf die Projektionsebene abgebildeten Bilddatensatz in der Projektionsebene;
Darstellen des Bildausschnitts gleichzeitig mit zumindest einem innerhalb des Bildausschnitts liegenden Bereichs der auf die Bildfläche abgebildeten Szene in einer grafischen Benutzerausgabeschnittstelle des Bildaufnahmegeräts.
Das Verfahren kann insbesondere mit dem angegebenen Bildaufnahmegerät durchgeführt werden. Insofern beziehen sich alle Weiterbildungen und techni- schen Effekte, welche im Zusammenhang mit dem Bildaufnahmegerät offenbart werden, auch auf das angegebene Verfahren und umgekehrt.
Die Erfindung wird nachfolgend anhand von Figuren erläutert. Dabei zeigen in je- weils schematischer Darstellung:
Fig. 1 ein Bildaufnahmegerät mit einer vor einem Bildsensor des Bildaufnah- megeräts befindlichen Szene;
Fig. 2 eine erste, zweite, dritte und vierte räumliche Lage des Bildaufnahme- geräts;
Fig. 3 das Bildaufnahmegerät mit einer Anzeige der Szene in einer Benutzer- ausgabeschnittstelle des Bildaufnahmegeräts;
Fig. 4 die aufgenommene Szene in einer Projektion auf eine Projektionsebe- ne;
Fig. 5 einen in der Projektionsebene bestimmten Bildausschnitt der Szene;
Fig. 6 die Benutzerausgabeschnittstelle mit einer ersten Darstellung des Bild- ausschnitts und eines innerhalb des Bildausschnitts befindlichen Be- reichs der Szene;
Fig. 7 die Benutzerausgabeschnittstelle mit einer zweiten Darstellung des Bildausschnitts und eines innerhalb des Bildausschnitts befindlichen Bereichs der Szene; Fig. 8 eine projektive Transformation einer Bildfläche des Bildsensors auf die Projektionsebene;
Fig. 9 die Bildfläche des Bildsensors und die Projektionsebene;
Fig. 10 ein Verfahren zur Darstellung des Bildausschnitts in Benutzerausgabe- schnittstellen des Bildaufnahmegeräts;
Fig. 11 die auf die Projektionsebene projizierte Bildfläche mit einem ersten, zweiten und dritten Bildausschnitt;
Fig. 12 ein Verfahren zum Bestimmen des ersten Bildausschnitts;
Fig. 13 den ersten Bildausschnitt und die projizierte Bildfläche für von Null ver- schiedene Rotationswinkel und Verkippungswinkel;
Fig. 14 den ersten Bildausschnitt für einen Verkippungswinkel gleich Null;
Fig. 15 ein Verfahren zum Bestimmen des zweiten Bildausschnitts;
Fig. 16 den zweiten Bildausschnitt und die projizierte Bildfläche für von Null verschiedene Rotationswinkel und Verkippungswinkel;
Fig. 17 den zweiten Bildausschnitt für einen Verkippungswinkel gleich Null;
Fig. 18 eine grafische Darstellung eines Verfahrens zur Bestimmung des dritten Bildausschnitts;
Fig. 19 ein weiteres Verfahren zur Bestimmung des dritten Bildausschnitts;
Fig. 20 ein Verfahren zur Bestimmung von in Fig. 18 dargestellten Schnittpunk- ten;
Fig. 21 die projizierte Bildfläche mit weiteren Schnittpunkten;
Fig. 22 ein Verfahren zum Festlegen der in Fig. 21 dargestellten weiteren Schnittpunkte;
Fig. 23 die projizierte Bildfläche mit weiteren Schnittpunkten;
Fig. 24 ein weiteres Verfahren zum Bestimmen des Bildausschnitts.
Fig. 1 zeigt ein als eine spiegellose Systemkamera ausgebildetes Bildaufnahme- gerät 10 mit einer vor dem Bildaufnahmegerät 10 befindlichen Szene 1. Das Bild- aufnahmegerät 10 umfasst einen optoelektronischen Bildsensor 12 und eine als Wechselobjektiv ausgebildete Abbildungsoptik 18, welche die Szene 1, inklusive eines innerhalb der Szene 1 angeordneten Gebäudes 2, auf eine der Abbil- dungsoptik 18 zugewandte Bildfläche 30 des Bildsensors 12 abbildet. Eine opti- sche Achse 43 des Bildsensors 30 fällt dabei mit einer optischen Achse der Abbil- dungsoptik 18 zusammen.
Das Bildaufnahmegerät 10 umfasst ferner eine Auswerteeinheit 20, welche mit dem Bildsensor 12, einem Lagesensor 14 des Bildaufnahmegeräts 10, einer als elektronischer Sucher ausgebildeten ersten Benutzerschnittstelle 16 des Bildauf- nahmegeräts 10, einer als rückwärtiger Bildschirm ausgebildeten zweiten Benut- zerschnittstelle 17 des Bildaufnahmegeräts und einer elektronischen Speicherein- heit 22 verbunden ist. Die einzelnen Komponenten des Bildaufnahmegeräts 10 sind dabei an oder in einem gemeinsamen Gehäuse 11 angeordnet.
Insbesondere sind der optoelektronische Bildsensor 12 und der Lagesensor 14 ortsfest zueinander innerhalb des Gehäuses 11 angeordnet. Der Lagesensor 14 ist als ein dreiachsiger Beschleunigungssensor ausgebildet, welcher eine räumli- che Lage des Lagesensor 14 und des ortsfest mit dem Lagesensor 14 verbunde- nen Bildsensors 12 relativ zu einer durch die Erdbeschleunigung 15 gegebenen Referenzrichtung 50 ermittelt und der Auswerteeinheit 20 die räumliche Lage re- präsentierende Lagedaten übermittelt.
Bei der in Fig. 1 dargestellten räumlichen Lage des Bildaufnahmegeräts 10 ist der Bildsensor 30 um eine senkrecht zu der Referenzrichtung 50 und senkrecht zu der optischen Achse 43 orientierte Horizontalachse 121 um einen Verkippungswinkel 54 verkippt, so dass die optische Achse 43 das Gebäude 2 unter einem von einem rechten Winkel verschiedenen Winkel schneidet. Dadurch weicht die optische Achse 43 von einer senkrecht zu der Horizontalachse 121 und senkrecht zu der Referenzrichtung 50 ausgerichteten waagrechten Längsachse 123 ab. Ferner weist die Bildfläche 30 bei der in Fig. 1 dargestellten räumlichen Lage des Bildaufnahmegeräts 10 keine Rotation bezüglich der Referenzrichtung 50 um die optische Achse 43 auf. Damit fällt eine erste Mittelachse 41 der Bildfläche 30 mit der Horizontalachse 121 zusammen und eine senkrecht zu der ersten Mittelachse 41 ausgerichtete zweite Mittelachse 42 der Bildfläche 30 ist in einer durch die Re- ferenzrichtung 50 und die optische Achse 43 aufgespannten Vertikalebene ange- ordnet. Die erste und zweite Mittelachse 41, 42 sind dabei jeweils senkrecht zur optischen Achse 43 ausgerichtet. Die Mittelachsen 41, 42 und die optische Achse 43 bilden insgesamt ein kartesisches Sensorkoordinatensystem. Ebenso bilden die Horizontalachse 121, eine parallel zur Referenzrichtung 50 verlaufende Verti- kalachse 122 und die Längsachse 123 ein kartesisches Koordinatensystem.
Fig. 2 zeigt das Bildaufnahmegerät 10 in einer ersten räumlichen Lage 115, einer zweiten räumlichen Lage 116, einer dritten räumlichen Lage 117, sowie einer vier- ten räumlichen Lage 118. Die Orientierung des Sensorkoordinatensystems ist in den verschiedenen Lagen 115, 116, 117, 118 jeweils derart gewählt, dass die zweite Mittelachse 42 einen kleineren Winkel mit der Referenzrichtung 50 ein- schließt als die erste Mittelachse 41 . Außerdem sind Richtungen des Sensorkoor- dinatensystems derart gewählt, dass eine Projektion eines die Referenzrichtung 50 definierenden Referenzvektors auf die zweite Mittelachse 42 einen positiven Koordinatenwert ergibt.
Dies hat zur Folge, dass in der ersten Lage 115, bei der eine Unterseite 111 des Bildaufnahmegeräts 10 in Richtung der Referenzrichtung 50 ausgerichtet ist, die erste Mittelachse 41 in Richtung einer rechten Seite 113 und die zweite Mittelach- se in Richtung der Unterseite 111 des Bildaufnahmegeräts 10 orientiert ist. In der zweiten Lage 116, in der eine Oberseite 112 des Bildaufnahmegeräts 10 in Rich- tung der Referenzrichtung 50 orientiert ist, ist die erste Mittelachse 41 in Richtung einer linken Seite 114 des Bildaufnahmegeräts 10 und die zweite Mittelachse 42 in Richtung der Oberseite 112 orientiert. In der dritten Lage 117 ist die linke Seite 114 des Bildaufnahmegeräts 10 in Richtung der Referenzrichtung 50 orientiert, folglich ist die erste Mittelachse 41 in Richtung der Unterseite 111 und die zweite Mittelachse 42 in Richtung der linken Seite 114 des Bildaufnahmegeräts 10 aus- gerichtet. In der vierten Lage 118 ist die rechte Seite 113 des Bildaufnahmegeräts 10 in Richtung der Referenzrichtung 50 orientiert, wodurch die erste Mittelachse 41 in Richtung der Oberseite 112 und die zweite Mittelachse 42 in Richtung der rechten Seite 113 des Bildaufnahmegeräts 10 orientiert ist.
Während der Aufnahme der in Fig. 1 dargestellten Szene 1 erfasst der Bildsensor 12 eine Abfolge von Bilddatensätzen, welche jeweils die auf die Bildfläche 30 ab- gebildete Szene zu aufeinanderfolgenden Zeitpunkten repräsentieren. Synchron werden die einzelnen Bilddatensätze der Abfolge jeweils zumindest bereichsweise in den Benutzerausgabeschnittstellen 16, 17 dargestellt, um einem Benutzer des Bildaufnahmegeräts 10 eine Auswahl des aufzunehmenden Bereichs der Szene 1 zu ermöglichen.
Fig. 3 zeigt beispielhaft den Bildschirm 17 mit einem derartigen Bilddatensatz 100. Der Bilddatensatz 100 ist untransformiert auf dem Bildschirm 17 dargestellt, so dass parallele Kanten 105 des Gebäudes 2 aufgrund der Verkippung des Bildsensors 12 um die Horizontalachse 121 als stürzende Linien wiedergegeben werden.
Die Auswerteeinheit 20 ist dazu ausgebildet, die Bilddatensätze 100 jeweils mittels einer projektiven Transformation unter Berücksichtigung des Verkippungswinkels 54 und eines Rotationswinkels des Bildsensors 12 um die optische Achse 43 per- spektivisch zu korrigieren, wobei der Rotationswinkel dem Winkel zwischen der Horizontalachse 121 und der ersten Mittelachse 41 entspricht. Dabei werden so- wohl der Verkippungswinkel 54, als auch der Rotationswinkel aus den durch den Lagesensor 14 bereitgestellten Lagedaten bestimmt. Fig. 4 zeigt das Ergebnis einer derartigen projektiven Transformation des in Fig. 3 dargestellten Bilddatensatzes 100. Die Kanten 105 des Gebäudes 2 verlaufen nach Anwendung der projektiven Transformation parallel zueinander, sowie paral- lel zur Vertikalachse 122 und damit parallel zur Referenzrichtung 50. Wie aus Fig. 4 ersichtlich ist, werden bei der projektiven Transformation die Ränder des Bildda- tensatzes 100, welche den Rändern der Bildfläche 30 entsprechen, verzerrt, so dass der Bilddatensatz 100 keinen rechteckigen Rand mehr aufweist.
Zur Korrektur der Verzerrung des Randes der Bildfläche 30 bei Anwendung der projektiven Transformation ist die Auswerteeinheit 20 dazu ausgebildet, einen in Fig. 5 dargestellten rechteckigen Bildausschnitt 60 zu bestimmen. Dabei wird der in Fig. 5 dargestellte Bildausschnitt 60 vollständig innerhalb des Bilddatensatzes 100 bestimmt. Bei alternativen Ausführungsformen kann der Bildausschnitt 60 auch Bereiche außerhalb des Bilddatensatzes 100 umfassen. Die Auswerteeinheit 20 ist ferner dazu ausgebildet, den Bildausschnitt 60 und zumindest einen inner- halb des Bildausschnitts 60 befindlichen Bereich der Szene 1 in den Benutzeraus- gabeschnittstellen 16, 17 darzustellen.
Fig. 6 zeigt eine erste Darstellung des Bildausschnitts 60 und des innerhalb des Bildausschnitts 60 befindlichen Bereichs der Szene 1 in der zweiten Benutzeraus- gabeschnittstelle 17. Der innerhalb des Bildausschnitts 60 liegende Bereich wird dabei untransformiert dargestellt. Zusätzlich zu dem Bereich der Szene 1 inner- halb des Bildausschnitts 60 wird auch der Rest der auf die Bildfläche 30 abgebil- deten Szene 1 untransformiert dargestellt. Der Bildausschnitt 60 ist als ein der dargestellten Szene 1 überlagerter Rahmen wiedergegeben.
In Fig. 6 ist außerdem ein erster Messpunkt 91 dargestellt, welcher in der Benut- zerausgabeschnittstelle 17 dem Bilddatensatz 100 überlagert angezeigt ist und einen Fokusmesspunkt für eine Autofokusfunktion der Abbildungsoptik 18 festlegt. Der Fokusmesspunkt ist dabei außerhalb des Bildausschnitts 60 angeordnet, so dass die Autofokusfunktion auf einen außerhalb des Bildausschnitts 60 liegenden Bereich der Szene 1 fokussiert. Außerdem ist ein dem Bilddatensatz 100 ebenfalls überlagert angezeigter zweiter Messpunkt 92 dargestellt, welcher einen Belich- tungsmesspunkt festlegt. Der zweite Messpunkt 92 liegt innerhalb des Bildaus- schnitts 60, so dass auf einen innerhalb des Bildausschnitts 60 liegenden Bereich der Szene 1 belichtet wird.
Die zweite Benutzerausgabeschnittstelle 17 ist Teil einer kombinierten Benutzer- schnittstelle, welche als berührungsempfindlicher Bildschirm ausgebildet ist und neben der Benutzerausgabeschnittstelle 17 eine überlagerte berührungsempfindli- chen Positionseingabeschnittstelle umfasst. Mittels der Positionseingabeschnitt- stelle können die Positionen der Messpunkte 91, 92 festgelegt werden. Dabei kann insbesondere auch der erste Messpunkt innerhalb des Bildausschnitts 60 und/oder der zweite Messpunkt 92 außerhalb des Bildausschnitts 60 platziert wer- den.
Fig. 7 zeigt eine zweite Darstellung des Bildausschnitts 60 und das innerhalb des Bildausschnitts 60 befindlichen Bereichs der auf den Bildsensor 12 abgebildeten Szene 1. Der innerhalb des Bildausschnitts 60 liegende Bereich der Szene 1 wird dabei wie in den Figuren 4 und 5 dargestellt transformiert wiedergegeben und durch die Ränder der Benutzerausgabeschnittstelle 17 begrenzt. Insofern wird der Bildausschnitt 60 dadurch dargestellt, dass lediglich der innerhalb des Bildaus- schnitts 60 befindliche Bereich der auf den Bildsensor 12 abgebildeten Szene 1 dargestellt ist.
Bei alternativen Ausführungsformen kann auch der innerhalb des Bildausschnitts 60 befindliche Bereich der Szene 1 unter Anwendung der projektiven Transforma- tion und der Bildausschnitt 60 als Rahmen dargestellt werden. Dabei können zu- sätzlich auch alle außerhalb des Bildausschnitts 60 befindlichen Bereiche der ab- gebildeten Szene 1 transformiert wiedergegeben werden, etwa auf die in Fig. 5 dargestellte Weise. Bei einer derartigen Darstellung ist es ebenfalls möglich, die Messpunkte 91, 92 sowohl außerhalb, als auch innerhalb des Bildausschnitts zu setzen.
Fig. 8 zeigt die durch die Auswerteeinheit 20 zur Bestimmung des Bildausschnitts 60 ausgeführte projektive Transformation für die in Fig. 1 dargestellte räumliche Lage des Bildaufnahmegeräts 10. Bei der projektiven Transformation wird die Bild- fläche 30 des Bildsensors 12 durch ein auf der optischen Achse 43 angeordnetes Projektionszentrum 125 auf eine Projektionsebene 120 projiziert. Die Projektions- ebene 120 schließt dabei mit einer durch die Bildfläche 30 definierten Bildebene 40 den Verkippungswinkel 54 ein.
Die Projektionsebene 120 ist senkrecht zu einer durch die optische Achse 43 und die Referenzrichtung 50 aufgespannten Vertikalebene ausgerichtet und verläuft durch ein Zentrum 39 der Bildfläche 30. Außerdem liegt die Referenzrichtung 50 in der Projektionsebene 120. Damit liegen auch die in Fig. 1 dargestellte Horizon- talachse 121 und die ebenfalls dargestellte Vertikalachse 122 in der Projektionse- bene 120. Die Projektionsebene 120 schneidet die Bildfläche 30 entlang der Hori- zontalachse 121, so dass die Horizontalachse 121 eine Schnittlinie zwischen der Projektionsebene 120 und der Bildfläche 30 bildet.
Bei der in Fig. 1 dargestellten räumlichen Lage der Bildfläche 30 liegt keine Rota- tion der Bildfläche 30 um die optische Achse 43 vor. Dadurch fallen die Horizon- talachse 121 und die erste Mittelachse 41 der Bildfläche 30 zusammen und die zweite Mittelachse 42 der Bildfläche 30 ist gegenüber der Vertikalachse 122 um den Verkippungswinkel 54 verkippt.
Fig. 9 zeigt die Lage der Bildfläche 30 und der Projektionsebene 120 für einen von Null verschiedenen Rotationswinkel 52. Die Projektionsebene 120 schneidet die Bildfläche 30 entlang der Horizontalachse 121, wobei die Horizontalachse 121 gegenüber der ersten Mittelachse 41 der Bildfläche 30 um den Rotationswinkel 52 um die optische Achse 43 gedreht ist. Außerdem ist die Mittelachse 41 der Bildflä- che 30 gegenüber einer senkrechten Projektion 51 der Referenzrichtung 50 auf die Bildfläche 30 bzw. auf die Bildebene 40 um den Rotationswinkel 52 um die optische Achse 43 gedreht.
Wie in Fig. 9 ebenfalls dargestellt ist, weist das Projektionszentrum 125 vom Zent- rum 39 der Bildfläche 30 einen Abstand 126 auf. Der Abstand 126 ist durch die auf die Diagonale der Bildfläche 30 normierte Brennweite der Abbildungsoptik 18 ge- geben und entspricht wobei f35mm die 35mm-Äquivalentbrennweite der Abbildungsoptik 18 bezeichnet.
Der Verkippungswinkel 54 gibt die Verkippung der Bildfläche 30 aus der Projekti- onsebene 120 um die Horizontalachse 121 an, wobei der Verkippungswinkel 54 ausgehend von der Projektionsebene 120 bei einer rechtshändigen Drehung um die Horizontalachse 121 positiv und bei einer linkshändigen Drehung um die Hori- zontalachse 121 negativ definiert ist. Bei der in Fig. 9 dargestellten Verkippung ist der Verkippungswinkel 54 negativ.
Der Rotationswinkel 52 gibt die Rotation einer durch die zweite Mittelachse 42 der Bildfläche 30 und der optischen Achse 43 definierten Normalenebene der Bildflä- che 30 aus der durch die Referenzrichtung 50 und die optische Achse 43 aufge- spannten Vertikalebene um die optische Achse 43 an, wobei der Rotationswinkel 52 ausgehend von der Vertikalebene bei einer rechtshändigen Rotation um die optische Achse 43 positiv und bei einer linkshändigen Drehung um die optische Achse 43 negativ definiert ist. Bei der in Fig. 9 dargestellten Rotation ist der Rota- tionswinkel 52 positiv. Fig. 10 zeigt ein durch die Auswerteeinheit 20 ausgeführtes Verfahren 300 zur Darstellung des Bildausschnitts 60 in den Benutzerausgabeschnittstellen 16, 17. Das Verfahren 300 umfasst zunächst ein Erfassen 305 des Bilddatensatzes 100 mittels des Bildsensors 12. Anschließend umfasst das Verfahren 300 ein Erfassen einer räumlichen Lage des Bildsensors 12 mittels des Lagesensors 14 und ein darauffolgendes Bereitstellen 315 der Lagedaten durch den Lagesensor 14. Die bereitgestellten Lagedaten werden sodann an die Auswerteeinheit 12 übertragen.
Die Auswerteeinheit 12 bestimmt (320) anschließend eine projektive Transforma- tion, mit der die Bildfläche 30 auf die in Fig. 8 dargestellte Projektionsebene 120 transformiert wird. Insbesondere bestimmt die Auswerteeinheit 12 anhand des Verkippungswinkels 54 und des Rotationswinkels 52 eine räumliche Lage der Pro- jektionsebene 120.
In der nachfolgenden Beschreibung wird das Sensorkoordinatensystem verwen- det, dessen X-Achse der ersten Mittelachse 41, dessen Y-Achse der zweiten Mit- telachse 42 und dessen Z-Achse der optischen Achse 43 entspricht. Ferner wird ein Referenzkoordinatensystem verwendet, dessen X-Achse der Horizontalachse 121, dessen Y-Achse der Vertikalachse 122 und dessen Z-Achse der Längsachse 123 entspricht. Außerdem werden homogene Koordinaten verwendet.
Ein Bildpunkt innerhalb der Bildfläche 30 ist im Sensorkoordinatensystem dann in homogenen Koordinaten gegeben durch:
Insbesondere sind die Eckpunkte der Bildfläche 30 gegeben durch: wobei xTL, yTL die Koordinaten eines im dritten Quadranten der X-Y-Ebene des Sensorkoordinatensystems gelegenen ersten Eckpunkts mit negativen X- und Y-Koordinaten, xTR, yTR die Koordinaten eines im zweiten Quadranten der X-Y-Ebene des Sensorkoordinatensystems gelegenen zweiten Eckpunkts mit po- sitiver X-Koordinate und negativer Y-Koordinate, xBR, yBR die Koordinaten eines im ersten Quadranten der X-Y-Ebene des Sensorkoordinatensystems gelegenen dritten Eckpunkts mit positiven X- und Y- Koordinaten, sowie xBL, yBL die Koordi- naten eines im vierten Quadranten der X-Y-Ebene des Sensorkoordinatensystems gelegenen vierten Eckpunkts mit negativer X-Koordinate und positiver Y- Koordinate bezeichnen.
Bei dem in Fig. 10 dargestellten Verfahren 300 werden diese Eckpunkte zunächst mittels der Matrixtransformation in das Referenzkoordinatensystem transformiert (325). Die Matrixtransformation ist zusammengesetzt aus einer ersten Drehmatrix und einer darauffolgend angewandten zweiten Drehmatrix
Die erste Drehmatrix repräsentiert die Rotation der Bildfläche 30 um die optische Achse 43, wobei θ dem Rotationswinkel 52 entspricht. Die zweite Drehmatrix re- präsentiert die Verkippung der Bildfläche 30 um die Horizontalachse 121, wobei Φ dem Verkippungswinkel 54 entspricht. Anschließend erfolgt die in Fig. 8 dargestellte projektive Transformation 330 der Eckpunkte der Bildfläche 30 auf die Projektionsebene 120, welche durch die X-Y- Ebene des Referenzkoordinatensystems gegeben wird und insofern sowohl die
Verkippung um den Verkippungswinkel 54, als auch die Rotation um den Rotati- onswinkel 52 berücksichtigt. Die projektive Transformation auf die X-Y-Ebene des jeweiligen Koordinatensystems lässt sich in Matrixschreibweise darstellen durch wobei d das auf der optischen Achse 43 liegende Projektionszentrum 125 be- zeichnet. Im Sensorkoordinatensystem ist d gegeben durch d-sens (0,0, —fnormalized, 1) T und im Referenzkoordinatensystem durch d-ref R ( Φ, θ ) · (0,0, —fnormalized, 1) T
Die mittels der projektiven Transformation Pxy-plane bestimmten Koordinaten sind nach Anwendung der Projektionsmatrix noch anhand der vierten Vektorkompo- nente gemäß zu normieren.
Anschließend erfolgt das Bestimmen 340 des Bildausschnitts 60 in der Projekti- onsebene 120, indem vier Ecken des Bildausschnitts 60 festgelegt werden. Diese Ecken des Bildausschnitts 60 werden anschließend mittels der zur Trans- formation M3d image →3d world inversen Transformation aus dem Referenzkoordinatensystem zurück in das Sensorkoordinatensystem transformiert (345).
Soll der Bildausschnitt 60 zusammen mit der untransformierten auf die Bildfläche 30 abgebildeten Szene 1 dargestellt werden, erfolgt anschließend im Sensorkoor- dinatensystem eine projektive Transformation 350 der Eckpunkte durch das Pro- jektionszentrum 125 auf die Bildebene 40, welche der X-Y-Ebene des Sensorko- ordinatensystems entspricht. Die so transformierten Eckpunkte des Bildaus- schnitts 60 werden anschließend zusammen mit der untransformierten auf die Bildfläche 30 abgebildeten Szene 1 dargestellt (390).
Fig. 11 zeigt die auf die Projektionsebene 120 projizierte Bildfläche 30 mit dem ersten Eckpunkt 35 im dritten Quadranten des Referenzkoordinatensystems, dem zweiten Eckpunkt 36 im zweiten Quadranten des Referenzkoordinatensystems, dem dritten Eckpunkt 37 im ersten Quadranten des Referenzkoordinatensystems, sowie dem vierten Eckpunkt 38 im vierten Quadranten des Referenzkoordinaten- systems. Dabei ist die projizierte Bildfläche 30 für einen positiven Verkippungswin- kel 54 und einen positiven Rotationswinkel 52 dargestellt.
Zusätzlich zu der Bildfläche 30 zeigt Fig. 11 einen ersten Bildausschnitt 81, einen zweiten Bildausschnitt 82, sowie einen dritten Bildausschnitt 83, wobei die jeweili- gen Bildausschnitte 81, 82, 83 vollständig innerhalb der Bildfläche 30 liegen und durch die Auswerteeinheit 20 als der Bildausschnitt 60 bestimmbare Bildausschnit- te bilden. Die jeweiligen Bildausschnitte 81, 82, 83 sind rechteckig und weisen ei- nen jeweiligen ersten Rand 61, einen jeweiligen zweiten Rand 62, einen jeweiligen dritten Rand 63 und einen jeweiligen vierten Rand 64 auf. Der jeweilige erste Rand 61 und der jeweilige dritte Rand 63 verlaufen parallel zu der Horizontalachse 121 und der jeweilige zweite und vierte Rand 62, 64 verlaufen parallel zu der Ver- tikalachse 122. Außerdem weisen die Bildausschnitte 81, 82, 83 jeweilige parallel zu der Horizontalachse 121 ausgerichtete erste Mittenachsen 75, sowie jeweilige parallel zu der Vertikalachse 122 ausgerichtete zweite Mittenachsen 76 auf.
Die Bildausschnitte 81, 82, 83 werden jeweils unter Einhaltung eines vorgegebe- nen Seitenverhältnisses bestimmt. Außerdem werden die jeweiligen Bildausschnit- te 81, 82, 83 derart bestimmt, dass deren jeweilige zweite Mittenachsen 76 durch das auf die Projektionsebene 120 projizierte Zentrum 39 der Bildfläche 30 verläuft.
Zusätzlich wird der erste Bildausschnitt 81 derart bestimmt, dass ein Zentrum 85 des ersten Bildausschnitts 81 dem Zentrum 39 der Bildfläche 30 entspricht. Der zweite Bildausschnitt 82 wird derart bestimmt, dass eine der parallel zu der Hori- zontalachse 121 verlaufenden Ränder 61, 63 des zweiten Bildausschnitts 82 einen gleichen Abstand zur Horizontalachse 121 aufweist wie einer der Eckpunkte 35, 36, 37, 38 der Bildfläche 30. Bei positiven Verkippungswinkeln 54 ist dies der der Horizontalachse 121 nächstgelegene Eckpunkt mit negativer Y-Koordinate, bei der in Fig. 11 dargestellten Projektion also der zweite Eckpunkt 36. Bei negativen Ver- kippungswinkeln 54 ist dies der der Horizontalachse 121 nächstgelegene Eck- punkt mit positiver Y-Koordinate. Der dritte Bildausschnitt 83 wird schließlich der- art bestimmt, dass mindestens zwei seiner Ecken auf einem Rand der Bildfläche 30 liegen und zugleich der Flächeninhalt des dritten Bildausschnitts 83 maximiert wird.
Die Figuren 12 und 13 zeigt ein Verfahren 400, welches während des Bestim- mens 340 des Bildausschnitts 60 ausgeführt wird, wenn der Bildausschnitt 60 als der erste Bildausschnitt 81 bestimmt wird. Dabei werden, ausgehend von dem Zentrum 39 der Bildfläche 30 eine erste Diagonale 77 und eine zweite Diagonale 78 des ersten Bildausschnitts 81 bestimmt (405). Die erste Diagonale 77 weist in der X-Y-Ebene des Referenzkoordinatensystems eine negative Steigung auf, de- ren Betrag dem Inversen des zur Bestimmung 340 des Bildausschnitts 60 vorge- gebenen Seitenverhältnisses entspricht, und die zweite Diagonale 78 weist in der X-Y-Ebene eine positive Steigung auf, deren Betrag ebenfalls dem Inversen des vorgegebenen Seitenverhältnisses entspricht. Das vorgegebene Seitenverhältnis ist dabei stets als Ausdehnung des Bildausschnitts 60 entlang der Horizontalachse 121 zur Ausdehnung des Bildausschnitts 60 entlang der Vertikalachse 122 defi- niert.
Anschließend erfolgt ein Berechnen 410 von acht Schnittpunkten 46 der Diagona- len 77, 78 mit einer durch den ersten und zweiten Eckpunkt 35, 36, sowie einen ersten Rand 31 der Bildfläche 30 verlaufenden Geraden, einer durch den zweiten und dritten Eckpunkt 36, 37, sowie einen zweiten Rand 32 der Bildfläche 30 ver- laufenden Geraden, einer durch den dritten und vierten Eckpunkt 37, 38, sowie einen dritten Rand 33 der Bildfläche 30 verlaufenden Geraden und einer durch den vierten und ersten Eckpunkt 38, 35, sowie einen vierten Rand 34 der Bildflä- che 30 verlaufenden Geraden. In Fig. 13 ist der Schnittpunkt zwischen der zweiten Diagonale 78 und der durch den ersten Rand 31 verlaufenden Gerade nicht dar- gestellt.
Das Verfahren 400 umfasst anschließend ein Festlegen 415 des ersten Bildaus- schnitts 81. Hierbei wird derjenige Schnittpunkt 46 bestimmt, welcher einen mini- malen Abstand 47 vom Zentrum 39 der Bildfläche 30 aufweist. Die Ecken des ers- ten Bildausschnitts 81 werden beim Festlegen 415 des ersten Bildausschnitts 81 anschließend derart bestimmt, dass sie auf den Diagonalen 77, 78 liegen und ihr jeweiliger Abstand zum Zentrum 39 der Bildfläche 30 dem minimalen Abstand 47 entspricht.
Wie in Fig. 14 dargestellt ist, entspricht bei einem Verkippungswinkel 54 von Null der mit dem Verfahren 400 bestimmte erste Bildausschnitt 81 dem dritten Bildaus- schnitt 83. Das heißt, dass der erste Bildausschnitt 81 bei einem Verkippungswin- kel 54 von Null auch mit dem Verfahren 400 derart bestimmt wird, dass seine zweite Mittenachse 76 durch das Zentrum 39 der Bildfläche 30 verläuft und er bei Einhaltung des vorgegebenen Seitenverhältnisses eine maximale Fläche inner- halb der Bildfläche 30 umfasst. Dabei liegen zwei Ecken des ersten Bildaus- schnitts 81 auf den Rändern 31, 32, 33, 34 der Bildfläche 30.
In den Figuren 15 und 16 ist ein Verfahren 500 zum Bestimmen des zweiten Bild- ausschnitts 82 dargestellt. Dabei erfolgt zunächst ein Überprüfen 505 auf ein Vor- liegen eines negativen Verkippungswinkels 54. Liegt ein negativer Verkippungs- winkel 54 vor, so erfolgt zunächst ein Invertieren 510 der auf die Projektionsebene 120 projizierten Bildfläche 30 entlang der Vertikalachse 122. Dadurch wird der ers- te Eckpunkt 35 mit dem vierten Eckpunkt 38 vertauscht und der zweite Eckpunkt 36 mit dem dritten Eckpunkt 37 und es ist sichergestellt, dass der durch den zwei- ten und dritten Quadranten des Referenzkoordinatensystems verlaufende Rand 31, 33 der Bildfläche 30 eine größere Ausdehnung entlang der Zentralachse 121 aufweist als der durch den ersten und vierten Quadranten verlaufende Rand 31, 33 der Bildfläche 30.
Anschließend wird ein Mittelpunkt 74 des parallel zu der Horizontalachse 121 aus- gerichteten ersten Rands 61 des zweiten Bildausschnitts 82 derart bestimmt (515), dass er entlang der Vertikalachse 122 auf gleicher Höhe liegt wie der der Zentral- achse 121 nächstgelegene Eckpunkt 35, 36 der Bildfläche 30 im zweiten und drit- ten Quadranten des Referenzkoordinatensystems. Bei der in Fig. 16 dargestellten räumlichen Lage des Bildsensors 12 ist dies der zweite Eckpunkt 36.
Anschließend umfasst das Verfahren 500 ein Bestimmen 520 von Schnittpunkten 46 zwischen einer ersten Diagonale 72 und durch den zweiten, dritten und vierten Rand 32, 33, 34 der Bildfläche 30 verlaufenden Geraden, sowie von Schnittpunk- ten 46 zwischen einer zweiten Diagonale 73 und den durch den zweiten, dritten und vierten Rand 32, 33, 34 der Bildfläche 30 verlaufenden Geraden. Bei alterna- tiven Ausführungsformen können auch lediglich die Schnittpunkte 46 zwischen der ersten Diagonale 72 und den durch den dritten und vierten Rand 33, 34 der Bild- fläche 30 verlaufenden Geraden, und/oder lediglich die Schnittpunkte 46 zwischen der zweiten Diagonale 73 und den durch den zweiten und dritten Rand 32, 33 der Bildfläche 30 verlaufenden Geraden bestimmt werden.
Die jeweiligen Diagonalen 72, 73 sind Diagonalen von durch die zweite Mittenach- se 76 des zweiten Bildausschnitts 82 getrennten Hälften 70 des zweiten Bildaus- schnitts 82 und verlaufen jeweils durch den Mittelpunkt 74. Die erste Diagonale 72 weist eine negative Steigung und die zweite Diagonale 73 eine positive Steigung auf, wobei ein Betrag der jeweiligen Steigungen dem Doppelten des Inversen des vorgegebenen Seitenverhältnisses entspricht.
Anschließend erfolgt ein Festlegen 525 des zweiten Bildausschnitts 82 dadurch, dass derjenige Schnittpunkt 46, welcher einen minimalen Abstand 47 zum Mittel- punkt 74 aufweist, bestimmt wird und die Lage der Ecken des zweiten Bildaus- schnitts 82 aus dem minimalen Abstand 47 und dem vorgegebenen Seitenverhält- nis berechnet werden. Anschließend erfolgt, falls ein negativer Verkippungswinkel 54 festgestellt wurde, ein Invertieren 590 des festgelegten Bildausschnitts 82 ent- lang der Vertikalachse 122, um das zu Beginn des Verfahrens 500 erfolgte Inver- tieren 510 der projizierten Bildfläche 30 zu kompensieren.
Bei dem Verfahren 500 wird also sowohl für positive, als auch für negative Verkip- pungswinkel 54 der gleiche Algorithmus zur Bestimmung des zweiten Bildaus- schnitts 82 angewandt, wobei dieser Algorithmus die zwischen dem anfänglichen und abschließenden Invertieren 510, 590 ausgeführten Verfahrensschritte 515, 520, 525 umfasst. Bei alternativen Ausführungsformen kann das Invertieren 510, 590 auch durchgeführt werden, wenn ein positiver Verkippungswinkel 54 festge- stellt wird, wobei dann die Verfahrensschritte 515, 520, 525 derart angepasst sind, dass der Mittelpunkt 74 auf dem durch den ersten und vierten Quadranten des Referenzkoordinatensystems verlaufenden dritten Rand 63 des zweiten Bildaus- schnitts 82 liegt.
Wie in Fig. 17 dargestellt ist, entspricht bei einem Rotationswinkel 52 von Null der mit dem Verfahren 500 bestimmte zweite Bildausschnitt 82 dem dritten Bildaus- schnitt 83. Das heißt, dass der mit dem Verfahren 500 bestimmte zweite Bildaus- schnitt 82 bei einem Rotationswinkel 52 von Null, wie der dritte Bildausschnitt 83, derart bestimmt wird, dass seine zweite Mittenachsen 76 durch das Zentrum 39 der Bildfläche 30 verläuft und er bei Einhaltung des vorgegebenen Seitenverhält- nisses eine maximale Fläche innerhalb des Bildfläche 30 umfasst. Dabei liegen zwei Ecken des zweiten Bildausschnitts 82 auf den Rändern 31, 32, 33, 34 der Bildfläche 30. Anders als bei dem ersten Bildausschnitt 81, entspricht jedoch das Zentrum 85 des zweiten Bildausschnitts 82 nicht dem Zentrum 39 der Bildfläche
30.
Fig. 18 zeigt eine grafische Darstellung eines Verfahrens zur Bestimmung des dritten Bildausschnitts 83. Das Verfahren umfasst zunächst ein Berechnen eines Schnittpunkts A des ersten Randes 31 der auf die Projektionsebene 120 projizier- ten Bildfläche 30 mit der Vertikalachse 122 und ein Berechnen eines Schnittpunk- tes E des dritten Randes 33 der projizierten Bildfläche 30 mit der Vertikalachse 122. Anschließend wird ein Auswertebereich zur Bestimmung des dritten Bildaus- schnitts 83 auf Y-Koordinatenwerte zwischen den Schnittpunkten A und E einge- grenzt.
Anschließend werden Randfunktionen fOben(y),frechts(y),funten(y) und flinks(y) definiert, wobei fOben(y) die Abhängigkeit der X-Koordinaten des ersten Randes
31, frechts(y) die Abhängigkeit der X-Koordinaten des zweiten Randes 32, funten (y) die Abhängigkeit der X-Koordinaten des dritten Randes 33 und flinks (y) die Abhängigkeit der X-Koordinaten des vierten Randes 34 der Bildfläche 30 von den Y-Koordinaten angeben. Für die weitere Berechnung werden dann die Abso- lutwerte der Funktionen fOben(y),frechts(y),funten(y) und flinks(y) herangezogen, was einer Spiegelung der im dritten und vierten Quadranten des Referenzkoordi- natensystem verlaufenden Abschnitte der Ränder 31, 32, 33, 34 der Bildfläche 30 an der Vertikalachse 122 entspricht, und die abschnittsweise definierte Funktion verwendet.
In einem Auswertebereich entlang der X-Achse im Intervall ]0,xmax] mit xmax = max(h(y)) wird anschließend der X-Koordinatenwert x einer parallel zur Verti- kalachse 122 verlaufenden Gerade bestimmt, für die gilt: wobei SV das vorgegebene Seitenverhältnis bezeichnet und L die Länge eines parallel zur Vertikalachse 122 verlaufenden Liniensegments unter der Funktion h(y).
Fig. 19 zeigt ein weiteres Verfahren 600 zum Bestimmen des dritten Bildaus- schnitts 83. Bei dem Verfahren 600 wird zunächst überprüft (605), ob ein negativer Verkippungswinkel 54 vorliegt. Ist dies der Fall, erfolgt zunächst das im Zusam- menhang mit Fig. 15 beschriebene Invertieren 510 der projizierten Bildfläche 30 entlang der Vertikalachse 122. Anschließend werden die Schnittpunkte A und E wie vorstehend geschildert bestimmt (615). Liegt kein negativer Verkippungswin- kel 54 vor, beginnt das Verfahren 600 direkt mit dem Bestimmen 615 der Schnitt- punkte A und E.
Anschließend werden die in Fig. 18 dargestellten weiteren Schnittpunkte B, C und D bestimmt (620). Hierzu wird das in Fig. 20 dargestellte Verfahren verwendet. Dabei wird zunächst überprüft (626), ob eine Y-Koordinate des ersten Eckpunkts 35 der Bildfläche 30 kleiner ist als eine Y-Koordinate des zweiten Eckpunkts 36. Ist dies der Fall, wird der Schnittpunkt B als Schnittpunkt zwischen dem ersten Rand 31 und dem an der Vertikalachse 122 gespiegelten vierten Rand 34 der pro- jizierten Bildfläche 30 bestimmt (628), wie es in Fig. 18 dargestellt ist. Andernfalls wird der Schnittpunkt B als Schnittpunkt zwischen dem an der Vertikalachse 122 gespiegelten ersten Rand 31 und dem zweiten Rand 32 der projizierten Bildfläche 30 bestimmt (629).
Anschließend umfasst das Verfahren 620 ein Bestimmen (630) des Schnittpunkts C als Schnittpunkt des zweiten Randes 32 oder des an der Vertikalachse 122 ge- spiegelten vierten Randes 34 mit der Horizontalachse 121. Daraufhin wird über- prüft (632), ob eine Y-Koordinate des vierten Eckpunkts 38 der projizierten Bildflä- che 30 kleiner ist als eine Y-Koordinate des dritten Eckpunkts 37 der projizierten Bildfläche 30. Ist dies der Fall, so wird der Schnittpunkt D als Schnittpunkt zwi- schen dem an der Vertikalachse 122 gespiegelten dritten Rand 33 mit dem zwei- ten Rand 32 der projizierten Bildfläche 30 bestimmt (634), wie es in Fig. 18 darge- stellt ist. Andernfalls wird der Schnittpunkt D als Schnittpunkt zwischen dem dritten Rand 33 und dem an der Vertikalachse 122 gespiegelten vierten Rand 34 der pro- jizierten Bildfläche 30 bestimmt (635).
Das in Fig. 19 dargestellte weitere Verfahren 600 zur Bestimmung des dritten Bildausschnitts 83 umfasst anschließend ein Festlegen 650 eines in Fig. 21 dar- gestellten ersten Schnittpunkts P1 und eines in Fig. 21 ebenfalls dargestellten zweiten Schnittpunkts P2, welche dasjenige Liniensegment der Ränder 31, 32, 33, 34 der projizierten Bildfläche 30 begrenzen, welches die dritte Ecke 67 des zu be- stimmenden dritten Bildausschnitts 83 schneidet.
Das Festlegen 650 ist in Fig. 22 dargestellt und umfasst zunächst ein Bestimmen 652 eines in Fig. 21 dargestellten Schnittpunkts F des ersten Randes 31 der proji- zierten Bildfläche 30 mit einer parallel zu der Vertikalachse 122 verlaufenden Ge- rade durch den Schnittpunkt C. Anschließend umfasst das Festlegen 650 ein Be- stimmen 654 eines in Fig. 21 ebenfalls dargestellten Schnittpunkts G des ersten Randes 31 mit einer parallel zu der Vertikalachse 122 durch den Schnittpunkt D verlaufenden Gerade.
Daraufhin wird die Verbindungslinie CF mit dem vorgegebenen Seitenverhältnis verglichen (656). Ist das Verhältnis aus dem Doppelten des X-Koordinatenwerts des Schnittpunkts F und der Länge der Verbindunglinie CF nicht größer als das vorgegebene Seitenverhältnis, so wird der erste Schnittpunkt P1 als der Schnitt- punkt B und der zweite Schnittpunkt P2 als der Schnittpunkt C festgelegt (657). Andernfalls wird die Verbindungslinie DG mit dem vorgegebenen Seitenverhältnis verglichen (658). Ist das Verhältnis aus dem Doppelten des X-Koordinatenwerts des Schnittpunkts G und der Länge der Verbindungslinie DG größer als das vor- gegebene Seitenverhältnis, so wird der erste Schnittpunkt P1 als der Schnittpunkt C und der zweite Schnittpunkt P2 als der Schnittpunkt D festgelegt (660), was in Fig. 21 dargestellt ist. Andernfalls wird der erste Schnittpunkt P1 als der Schnitt- punkt D und der zweite Schnittpunkt P2 als der Schnittpunkt E festgelegt (661).
Anschließend wird ein Schnittpunkt K zwischen einer durch die Schnittpunkte A und B verlaufenden Gerade und einer durch die Schnittpunkte P1 und P2 verlau- fenden Gerade, sowie ein Schnittpunkt L der durch die Schnittpunkte P1 und P2 verlaufenden Gerade mit der Vertikalachse 122 bestimmt (662), wie es in Fig. 23 dargestellt ist. Dabei weichen die relativen Längenverhältnisse der Darstellung in Fig. 23 von den in den Figuren 18 und 21 dargestellten Längenverhältnissen ab.
Das Festlegen 650 umfasst anschließend ein Bestimmen 664 von Abmessungen eines durch die Schnittpunkte A, K und L definierten Dreiecks. Hierbei werden zu- nächst die in Fig. 23 dargestellten Längen a, b und c aus den Koordinaten der Schnittpunkte A, K und L bestimmt. Dabei entspricht die Länge a der Differenz der Y-Koordinatenwerte der Punkte A und K, die Länge b der Differenz der Y- Koordinatenwerte der Punkte K und L und die Länge c dem Abstand des Punktes K von der die Y-Achse bildenden Vertikalachse 122. Anschließend werden die Winkel y und δ zu tan(γ) = a/c tan(δ ) = b/c bestimmt.
Das Verfahren 600 umfasst anschließend ein Bestimmen 666 von Lage und Ab- messungen des dritten Bildausschnitts 83. Dabei wird zunächst ein X- Koordinatenwert g des zweiten Randes 62 des dritten Bildausschnitts 83 berech- net. Da das vorgegebene Seitenverhältnis durch mit d = f · tan(γ) und e = f · tan·(δ ) gegeben ist und ferner f = c - g gilt, kann der X-Koordinatenwert g berechnet werden zu:
Eine Breite w des dritten Bildausschnitts 83 entlang der Horizontalachse 121 be- trägt dann w = 2 · g und eine Höhe h entlang der Vertikalachse 122 h = d + e. Ferner beträgt die Y-Koordinate des Zentrums 85 des dritten Bildausschnitts 83 K.y + (e - d)/2 mit der Y-Koordinate K.y des Schnittpunkts K, während die X- Koordinate des Zentrums 85 des dritten Bildausschnitts 83 gleich Null ist.
Wie in Fig. 19 dargestellt ist, werden anschließend die in Fig. 18 dargestellten Ecken 65, 66, 67, 68 des dritten Bildausschnitts 83 aus der Lage und den Abmes- sungen des dritten Bildausschnitts 83 berechnet (685). Abschließend wird in den Fällen, in denen ein negativer Verkippungswinkel 54 vorliegt, die Lage der Ecken 65, 66, 67, 68 des bestimmten Bildausschnitts 83 entlang der Vertikalachse 122 invertiert (590), um das zu Beginn des Verfahrens 600 erfolgte Invertieren 510 der Eckpunkte 35, 36, 37, 38 der Bildfläche 30 zu kompensieren. Auch bei dem Verfahren 600 wird also sowohl für positive, als auch für negative Verkippungswinkel 54 der gleiche Algorithmus zur Bestimmung des dritten Bild- ausschnitts 83 angewandt, wobei dieser Algorithmus die zwischen dem anfängli- chen und abschließenden Invertieren 510, 590 ausgeführten Verfahrensschritte 615, 620, 650, 685 umfasst. Bei alternativen Ausführungsformen kann das Inver- tieren 510, 590 auch durchgeführt werden, wenn ein positiver Verkippungswinkel 54 festgestellt wird, wobei dann die Verfahrensschritte 615, 620, 650, 685 ent- sprechend anzupassen sind.
Fig. 24 zeigt ein weiteres Verfahren 700, mit dem das Bestimmen 340 des Bild- ausschnitts 60 durchgeführt werden kann. Dabei wird der Bildausschnitt 60, wie bei dem Verfahren 600, derart bestimmt, dass er das vorgegebene Seitenverhält- nis aufweist, seine zweite Mittenachse 76 durch das projizierte Zentrum 39 der Bildfläche 30 verläuft und er eine maximale Fläche innerhalb der auf die Projekti- onsfläche 120 projizierten Bildfläche 30 aufweist. Insbesondere wird auch bei dem Verfahren 700 der Bildausschnitt 60 derart bestimmt, dass mindestens zwei seiner Ecken 65, 66, 67, 68 auf Rändern 31, 32, 33, 34 der projizierten Bildfläche 30 lie- gen.
Das weitere Verfahren 700 umfasst zunächst ein Überprüfen 705 des Verkip- pungswinkels 54. Falls der Verkippungswinkel 54 höchstens um einen Schwellen- wert von Null abweicht, insbesondere wenn der Verkippungswinkel 54 gleich Null ist, so wird der Bildausschnitt 60 mit dem in Zusammenhang mit den Figuren 12 bis 14 beschriebenen Verfahren 400 bestimmt. Dadurch kann der Bildausschnitt 60 gegenüber den übrigen Verfahren 500, 600 mit besonders geringem Aufwand bestimmt werden, wobei er ebenfalls als maximaler Bildausschnitt mit vorgegebe- nem Seitenverhältnis und durch das Zentrum 39 der Bildfläche 30 verlaufender zweiten Mittenachse 76 bestimmt wird, vgl. Fig. 14. Andernfalls erfolgt, falls ein negativer Verkippungswinkel 54 vorliegt, das Invertieren 510 der projizierten Bild- fläche 30 entlang der Vertikalachse 122. Bei einem positiven Verkippungswinkel 54 entfällt das Invertieren 510.
Anschließend erfolgt ein Überprüfen 710 des Rotationswinkels 52. Falls der Rota- tionswinkel 52 höchstens um einen weiteren Schwellenwert von Null abweicht, insbesondere falls der Rotationswinkel 52 gleich Null ist, wird der Bildausschnitt 60 mittels der im Zusammenhang mit den Figuren 15 bis 17 beschriebenen Verfah- rensschritte 515, 520, 525 des Verfahrens 500 berechnet. Dadurch ist der Re- chenaufwand zur Bestimmung des Bildausschnitts 60 ebenfalls geringer als bei dem Verfahren 600. Wie in Fig. 17 dargestellt ist, entspricht auch in diesem Fall der ermittelte Bildausschnitt 60 dem mit dem Verfahren 600 bestimmbaren dritten Bildausschnitt 83 maximaler Fläche.
Ergibt das Überprüfen 710 des Rotationswinkels 52, dass der Rotationswinkel 52 um mehr als den weiteren Schwellenwert von Null abweicht, wird der Bildaus- schnitt 60 mittels der Verfahrensschritte 620, 650, 685 des Verfahrens 600 be- rechnet. Abschließend erfolgt in den Fällen, in denen der Verkippungswinkel 54 um mehr als den Schwellenwert von Null abweicht und ein negativer Verkip- pungswinkel 52 vorliegt, das Invertieren 590 des bestimmten Bildausschnitts 60.
Bei alternativen Ausführungsformen des Bildaufnahmegeräts 10 kann der Bildaus- schnitt 60 auch halbautomatisch anhand eines durch einen Benutzer des Bildauf- nahmegeräts 10 vorgebbaren Zentrums 85 des Bildausschnitts 60 bestimmt wer- den. Alternativ oder zusätzlich kann auch das vorbestimmte Seitenverhältnis durch eine Benutzereingabe vorgebbar sein. Darüber hinaus kann der Bildausschnitt 60 bei alternativen Ausführungsformen des Bildaufnahmegeräts 10 auch derart be- stimmt werden, dass er in der Projektionsebene 120 außerhalb der projizierten Bildfläche 30 gelegene Bereiche umfasst. Die Auswerteeinheit 20 kann in diesen Fällen dazu ausgebildet sein, die außerhalb der projizierten Bildfläche 30 gelege- nen Bereiche mit errechneten, beispielsweise interpolierten, Bildinformationen zu füllen.
Die Auswerteeinheit 20 ist darüber hinaus dazu ausgebildet, in der Speichereinheit 22 Referenzdaten zur perspektivischen Korrektur des aufgenommenen Bilddaten- satzes 100 abzuspeichern. Die Referenzdaten können dabei getrennt von dem Bilddatensatz 100 in einer separaten Datei oder auch zusammen mit dem Bildda- tensatz 100 in einer gemeinsamen Datei, beispielsweise als Metadaten, gespei- chert werden. Die Referenzdaten können beispielsweise den Verkippungswinkel 54 und/oder den Rotationswinkel 52 und/oder eine Brennweite, beispielsweise eine normierte Brennweite, etwa eine auf das Kleinbildformat normierte Brennwei- te, der Abbildungsoptik 18 umfassen. Alternativ oder zusätzlich können die Refe- renzdaten Bildausschnittsdaten umfassen, welche Lage und Größe des Bildaus- schnitts 60 festlegen.
Derartige Bildausschnittsdaten können unter anderem die Positionen der Ecken 65, 66, 67, 68 des Bildausschnitts 60 und/oder das vorgegebene Seitenverhältnis und/oder eine relative Größe des korrigierten Bildes in Bezug auf den Bilddaten- satz 100 umfassen. Dabei können beispielsweise die Positionen der Ecken 65, 66, 67, 68 in normierter Form als Zahlenwerte zwischen 0 und 1, das vorgegebene Seitenverhältnis als Verhältnis aus Breite zu Höhe und die relative Größe als Ver- hältnis einer Höhe des Bilddatensatzes 100 zu einer Höhe des korrigierten Bildes abgespeichert werden. Außerdem können die Referenzdaten eine Information um- fassen, welche angibt, ob der abgespeicherte Bilddatensatz 100 bereits mittels der projektiven Transformation korrigiert wurde oder nicht. Bezugszeichenliste
1 Szene
2 Gebäude
10 Bildaufnahmegerät
11 Gehäuse
12 Bildsensor
14 Lagesensor
15 Erdbeschleunigung
16 erste Benutzerausgabeschnittstelle
17 zweite Benutzerausgabeschnittstelle
18 Abbildungsoptik
20 Auswerteeinheit
22 Speichereinheit
30 Bildfläche
31 erster Rand
32 zweiter Rand
33 dritter Rand
34 vierter Rand
35 erster Eckpunkt
36 zweiter Eckpunkt
37 dritter Eckpunkt
38 vierter Eckpunkt
39 Zentrum
40 Bildebene
41 erste Mittelachse
42 zweite Mittelachse
43 optische Achse
46 Schnittpunkt
47 Abstand 50 Referenzrichtung
51 Projektion
52 Rotationswinkel
54 Verkippungswinkel
60 Bildausschnitt
61 erster Rand
62 zweiter Rand
63 dritter Rand
64 vierter Rand
65 erste Ecke
66 zweite Ecke
67 dritte Ecke
68 vierte Ecke
69 Diagonale
70 Hälfte
72 erste Diagonale
73 zweite Diagonale
74 Mittelpunkt
75 erste Mittenachse
76 zweite Mittenachse
77 erste Diagonale
78 zweite Diagonale
81 erster Bildausschnitt
82 zweiter Bildausschnitt
83 dritter Bildausschnitt
85 Zentrum
86 erster Schnittpunkt
87 zweiter Schnittpunkt
91 erster Messpunkt
92 zweiter Messpunkt 100 Bildatensatz
105 Kanten
111 Oberseite
112 Unterseite
113 rechte Seite
114 linke Seite
115 erste Lage
116 zweite Lage
117 dritte Lage
118 vierte Lage
120 Projektionsebene
121 Horizontalachse
122 Vertikalachse
123 Längsachse
125 Projektionszentrum
126 Abstand
127 Vertikalebene
130 gespiegelte Bildfläche
300 Verfahren
305 Erfassen eines Bilddatensatzes
310 Erfassen einer räumlichen Lage
315 Bereitstellen von Lagedaten
320 Bestimmen einer projektiven Transformation
325 Koordinatentransformation der Bildecken in Referenzkoordinaten
330 Projektion der Bildecken auf Projektionsebene
340 Bestimmen eines Bildausschnitts
345 Rücktransformation von Ecken des Bildausschnitts in Sensorkoordinaten
350 Rückprojektion der Ausschnittecken auf Bildebene
390 Darstellen des Bilddatensatzes und des Bildausschnitts
400 Verfahren zum Bestimmen eines ersten Bildausschnitts 405 Bestimmen von Diagonalen
410 Berechnen von Schnittpunkten
415 Festlegen des ersten Bildausschnitts
500 Verfahren zum Bestimmen eines zweiten Bildausschnitts
505 Überprüfen auf negative Verkippungswinkel
510 Invertieren der projizierten Bildfläche
515 Bestimmen eines Mittelpunkts
520 Bestimmen von Schnittpunkten
525 Festlegen des zweiten Bildausschnitts
590 Invertieren des Bildausschnitts
600 Verfahren zum Bestimmen eines dritten Bildausschnitts
605 Überprüfen auf negative Verkippungswinkel
615 Bestimmen eines Mittelpunkts
620 Bestimmen von Schnittpunkten B, C, D
626 Vergleichen von Y-Koordinaten eines ersten und zweiten Eckpunktes
628 Bestimmen eines Schnittpunkts B
629 Bestimmen eines Schnittpunkts B
630 Bestimmen eines Schnittpunkts C
632 Vergleichen von Y-Koordinaten eines dritten und vierten Eckpunktes
634 Bestimmen eines Schnittpunkts D
635 Bestimmen eines Schnittpunkts D
650 Festlegen von Schnittpunkten P1 und P2
652 Bestimmen eines Schnittpunktes F
654 Bestimmen eines Schnittpunktes G
656 Vergleichen einer Verbindungslinie CF mit vorgegebenem Seitenverhältnis
657 Festlegen des Schnittpunktes P1 als Schnittpunkt B und des Schnittpunk- tes P2 als Schnittpunkt C
658 Vergleichen einer Verbindungslinie DG mit vorgegebenem Seitenverhält- nis 660 Festlegen des Schnittpunktes P1 als Schnittpunkt C und des Schnittpunk- tes P2 als Schnittpunkt D
661 Festlegen des Schnittpunktes P1 als Schnittpunkt D und des Schnittpunk- tes P2 als Schnittpunkt E 662 Bestimmen von Schnittpunkten K und L
664 Bestimmen von Abmessungen eines Dreiecks
666 Bestimmen von Lage und Abmessungen des dritten Bildausschnitts
685 Berechnen von Ecken des Bildausschnitts
700 Verfahren zum Bestimmen eines Bildausschnitts 705 Überprüfen des Verkippungswinkels
710 Überprüfen des Rotationswinkels

Claims

Ansprüche
1. Bildaufnahmegerät (10) mit einem optoelektronischen Bildsensor (12), ei- nem Lagesensor (14), einer grafischen Benutzerausgabeschnittstelle (16, 17) und einer Auswerteeinheit (20), wobei der Bildsensor (12) dazu ausgebildet ist, einen Bilddatensatz (100) zu erfassen, welcher eine Abbildung einer vor dem Bildsensor (12) befindli- chen Szene (1) auf eine Bildfläche (30) des Bildsensors (12) repräsentiert, wobei der Lagesensor (14) dazu ausgebildet ist, eine räumliche Lage der Bildfläche (30) relativ zu einer Referenzrichtung (50) zu erfassen und Lage- daten bereitzustellen, welche sowohl einen Rotationswinkel (52), um den die Bildfläche (30) bei der Erfassung des Bilddatensatzes (100) um eine op- tische Achse (43) des Bildsensors (12) rotiert ist, als auch einen Verkip- pungswinkel (54), um den die Bildfläche (30) bei der Erfassung des Bildda- tensatzes (100) um eine Horizontalachse (121) verkippt ist, angeben, wobei die Horizontalachse (121) senkrecht zu der optischen Achse (43) und senkrecht zu der Referenzrichtung (50) orientiert ist, wobei die Auswerteeinheit (20) dazu ausgebildet ist, aus den Lagedaten ei- ne projektive Transformation zu bestimmen, welche den Bilddatensatz (100) in Abhängigkeit sowohl der Rotation als auch der Verkippung aus der Bildfläche (30) auf eine Projektionsebene (120) abbildet, wobei die Projektionsebene (120) gegenüber der Bildfläche (30) in Abhän- gigkeit von dem Verkippungswinkel (54) verkippt ist und die Bildfläche (30) entlang einer Schnittlinie schneidet, welche in der Bildfläche (30) gegen- über Mittelachsen (41, 42) der Bildfläche (30) in Abhängigkeit von dem Ro- tationswinkel (52) rotiert ist, wobei die Auswerteeinheit (20) dazu ausgebildet ist, in der Projektionsebe- ne (120) einen Bildausschnitt (60, 81, 82, 83) für den mittels der projektiven Transformation auf die Projektionsebene (120) abgebildeten Bilddatensatz (100) zu bestimmen, wobei die Auswerteeinheit (20) dazu ausgebildet ist, den Bildausschnitt (60, 81, 82, 83) gleichzeitig mit zumindest einem innerhalb des Bildausschnitts (60, 81, 82, 83) liegenden Bereich der auf die Bildfläche (30) abgebildeten Szene (1) in der grafischen Benutzerausgabeschnittstelle (16, 17) darzu- stellen.
2. Bildaufnahmegerät (10) nach Anspruch 1, wobei die Auswerteeinheit (20) dazu ausgebildet ist, den Bildausschnitt (60, 81, 82, 83), beispielsweise als einen rechteckigen Ausschnitt, derart zu be- stimmen, dass in der Projektionsebene (120) eine erste Mittenachse (75) des Bildausschnitts (60, 81, 82, 83) parallel zu der Horizontalachse (121) und eine zu der ersten Mittenachse (75) senkrecht orientierte zweite Mit- tenachse (76) des Bildausschnitts (60, 81, 82, 83) parallel zu der Referenz- richtung (50) verläuft.
3. Bildaufnahmegerät (10) nach einem der vorhergehenden Ansprüche, wobei die Auswerteeinheit (20) dazu ausgebildet ist, den Bildausschnitt (60, 81, 82, 83) derart zu bestimmen, dass bei Einhaltung des vorgegebenen Seitenverhältnisses mindestens zwei Ecken (65, 66, 67, 68) des Bildaus- schnitts (60, 81, 82, 83) auf mittels der projektiven Transformation auf die Projektionsebene (120) abgebildeten Rändern (31, 32, 33, 34) der Bildflä- che (30) liegen.
4. Bildaufnahmegerät (10) nach einem der vorhergehenden Ansprüche, wobei die Auswerteeinheit (20) dazu ausgebildet ist, den Bildausschnitt (60, 81, 82, 83) unabhängig von der Lage des Bildsensors (12) derart zu be- stimmen, dass ein mittels der projektiven Transformation auf die Projekti- onsebene (120) projiziertes Zentrum (39) der Bildfläche (30) auf einer Mit- tenachse (76) des Bildausschnitts (60, 81, 82, 83) liegt.
5. Bildaufnahmegerät (10) nach einem der vorhergehenden Ansprüche, wobei die Auswerteeinheit (20) dazu ausgebildet ist, zumindest dann, wenn der Verkippungswinkel (54) gleich Null ist, in der Projektionsebene (120) ei- ne Ecke (65, 66, 67, 68) des Bildausschnitts (60, 81, 82, 83) als einen Schnittpunkt einer durch das Seitenverhältnis vorgegebenen Diagonalen (69) des Bildausschnitts (60, 81, 82, 83) mit einem auf die Projektionsebene (120) projizierten Rand (31, 32, 33, 34) der Bildfläche (30) zu bestimmen.
6. Bildaufnahmegerät (10) nach einem der vorhergehenden Ansprüche, wobei die Auswerteeinheit (20) dazu ausgebildet ist, zumindest dann, wenn der Verkippungswinkel (54) um mindestens einen Schwellenwert von Null verschieden und der Rotationswinkel (52) gleich Null ist, in der Projektions- ebene (120) eine Ecke (65, 66, 67, 68) des Bildausschnitts (60, 81, 82, 83) als einen Schnittpunkt einer durch das Seitenverhältnis vorgegebenen Dia- gonalen (72, 73) einer Hälfte (70) des Bildausschnitts (60, 81, 82, 83) mit einem auf die Projektionsebene (120) projizierten Rand (31, 32, 33, 34) der Bildfläche (30) zu bestimmen, wobei die Diagonale (72, 73) in der Projektionsebene (120) durch einen Mit- telpunkt (74) eines parallel zu der Horizontalachse (121) ausgerichteten weiteren Randes (61, 62, 63, 64) des Bildausschnitts (60, 81, 82, 83) ver- läuft.
7. Bildaufnahmegerät (10) nach einem der vorhergehenden Ansprüche, wobei ein Projektionszentrum (125) der projektiven Transformation auf der optischen Achse (43) angeordnet ist, wobei ein Abstand (126) des Projektionszentrums (125) von der Bildfläche (30) beispielsweise einer auf eine Diagonale der Bildfläche (30) normierten Brennweite einer die Szene (1) auf den Bildsensor (12) abbildenden Abbil- dungsoptik (18) des Bildaufnahmegeräts (10) entspricht.
8. Bildaufnahmegerät (10) nach einem der vorhergehenden Ansprüche, wobei die Auswerteeinheit (20) dazu ausgebildet ist, zur Bestimmung des Bildausschnitts (60, 81, 82, 83) lediglich auf die Projektionsebene (120) pro- jizierte Eckpunkte (35, 36, 37, 38) der Bildfläche (30) heranzuziehen.
9. Bildaufnahmegerät (10) nach einem der vorhergehenden Ansprüche, wobei die Auswerteeinheit (20) dazu ausgebildet ist, den Bildausschnitt (60, 81, 82, 83) anhand eines vorgegebenen Seitenverhältnisses zu bestimmen, wobei das vorgegebene Seitenverhältnis beispielsweise von einem Seiten- verhältnis des Bildsensors (12) und/oder der Benutzerausgabeschnittstelle (16, 17) verschieden ist und die Auswerteeinheit (20) beispielsweise dazu ausgebildet ist, über eine Benutzereingabeschnittstelle (17) eine Benutzer- eingabe zur Festlegung des vorgegebenen Seitenverhältnisses zu empfan- gen.
10. Bildaufnahmegerät (10) nach einem der vorhergehenden Ansprüche, wobei die Auswerteeinheit (20) dazu ausgebildet ist, den innerhalb des Bildausschnitts liegenden Bereich der auf die Bildfläche (30) abgebildeten Szene in der grafischen Benutzerausgabeschnittstelle (16, 17) als mittels der projektiven Transformation in die Projektionsebene (120) transformier- ten Bereich des Bilddatensatzes (100) darzustellen, wobei die Auswerteeinheit (20) dazu ausgebildet ist, den Bildausschnitt (60, 81, 82, 83) durch ein Beschneiden des transformierten Bilddatensatzes (100) darzustellen, beispielsweise durch ein Beschneiden des transformier- ten Bilddatensatzes (100) mittels Ränder der Benutzerausgabeschnittstelle (16, 17).
11. Bildaufnahmegerät (10) nach einem der Ansprüche 1 bis 9, wobei die Auswerteeinheit (20) dazu ausgebildet ist, die auf die Bildfläche (30) abgebildete Szene (1) vollständig und ohne Anwendung der projekti- ven Transformation in der grafischen Benutzerausgabeschnittstelle (16, 17) darzustellen, wobei die Auswerteeinheit (20) dazu ausgebildet ist, den Bildausschnitt (60, 81, 82, 83) mittels eines die abgebildete Szene (1) überlagernden Rahmens darzustellen.
12. Bildaufnahmegerät (10) nach Anspruch 11, wobei die Auswerteeinheit (20) dazu ausgebildet ist, eine Position eines Messpunkts (91, 92) zur Bestimmung eines Aufnahmeparameters des Bil- derfassungsgeräts (10) in der Benutzerausgabeschnittstelle (16, 17) darzu- stellen, wobei die Position des Messpunkts (91, 92) relativ zu der vollständigen und untransformierten auf die Bildfläche (30) abgebildeten Szene (1) dargestellt wird, wobei das Bildaufnahmegerät (10) beispielsweise eine kombinierte Benut- zerschnittstelle (17) umfasst, welche die Benutzerausgabeschnittstelle und eine überlagerte Positionseingabeschnittstelle zur Festlegung der Position des Messpunktes (91, 92) relativ zu der untransformierten Szene (1) um- fasst, und die kombinierte Benutzerschnittstelle (17) beispielsweise dazu ausgebildet ist, die Position des Messpunktes (91, 92) als diejenige Position innerhalb der untransformierten Szene (1) zu erfassen, an der eine Betäti- gung der überlagerten Positionseingabeschnittstelle erfasst wird.
13. Bildaufnahmegerät (10) nach einem der vorhergehenden Ansprüche, wobei die Referenzrichtung (50) in der Projektionsebene (120) liegt, oder wobei die Projektionsebene (120) gegenüber der Referenzrichtung (50) um einen Restwinkel verkippt ist, der Restwinkel von Null verschieden ist und einen kleineren Betrag als der Verkippungswinkel (54) aufweist.
14. Bildaufnahmegerät (10) nach einem der vorhergehenden Ansprüche, wobei der Bildsensor (12) dazu ausgebildet ist, eine Abfolge von Bilddaten- sätzen zu erfassen, welche die auf die Bildfläche (30) abgebildete Szene (1) zu aufeinanderfolgenden Zeitpunkten repräsentieren, wobei der Lagesensor (14) dazu ausgebildet ist, für jeden Bilddatensatz (100) eine jeweilige räumliche Lage des Bildsensors (12) zu erfassen und jeweilige Lagedaten bereitzustellen, wobei die Auswerteeinheit (20) dazu ausgebildet ist, für jeden mittels einer aus den jeweiligen Lagedaten ermittelten projektiven Transformation auf ei- ne jeweilige Projektionsebene (120) projizierten Bilddatensatz (100) einen jeweiligen Bildausschnitt (60, 81, 82, 83) zu bestimmen, wobei die Auswerteeinheit (20) dazu ausgebildet ist, die jeweiligen Bildaus- schnitte (60, 81, 82, 83) zumindest zusammen mit dem innerhalb des jewei- ligen Bildausschnitts (60, 81, 82, 83) liegenden Bereich der auf die Bildflä- che (30) abgebildeten Szene (1) nacheinander in der grafischen Benutzer- ausgabeschnittstelle (16, 17) darzustellen.
15. Verfahren (300) zum Betreiben eines Bildaufnahmegeräts (10), wobei das Verfahren (300) umfasst:
Erfassen (305) eines Bilddatensatzes (100) mit einem Bildsensor des Bildaufnahmegeräts, wobei der Bilddatensatz (100) eine Abbildung einer vor dem Bildsensor (12) befindlichen Szene (1) auf eine Bildfläche (30) des Bildsensors (12) reprä- sentiert;
Erfassen (310) einer räumlichen Lage der Bildfläche (30) relativ zu einer Referenzrichtung (50);
Bereitstellen (315) von Lagedaten, welche sowohl einen Rotations- winkel (52), um den die Bildfläche (30) bei dem Erfassen (305) des Bildda- tensatzes (100) um eine optische Achse (43) des Bildsensors (12) rotiert ist, als auch einen Verkippungswinkel (54), um den die Bildfläche (30) bei dem Erfassen (305) des Bilddatensatzes (100) um eine Horizontalachse (121) verkippt ist, angeben, wobei die Horizontalachse (121) senkrecht zu der optischen Achse (43) und senkrecht zu der Referenzrichtung (50) orientiert ist;
Bestimmen (320) einer projektiven Transformation aus den Lageda- ten, wobei die projektive Transformation den Bilddatensatz (100) in Abhän- gigkeit sowohl der Rotation als auch der Verkippung aus der Bildfläche (30) auf eine Projektionsebene (120) abbildet, wobei die Projektionsebene (120) gegenüber der Bildfläche (30) um die Ho- rizontalachse (121) in Abhängigkeit von dem Verkippungswinkel (54) ver- kippt ist und die Bildfläche (30) entlang einer Schnittlinie schneidet, welche in der Bildfläche (30) gegenüber Mittelachsen (41, 42) der Bildfläche (30) in Abhängigkeit von dem Rotationswinkel (52) rotiert ist;
Bestimmen (340) eines Bildausschnitts (60, 81, 82, 83) für den mit- tels der projektiven Transformation auf die Projektionsebene (120) abgebil- deten Bilddatensatz (100) in der Projektionsebene (120);
Darstellen (390) des Bildausschnitts (60, 81, 82, 83) und zumindest eines innerhalb des Bildausschnitts (60, 81, 82, 83) liegenden Bereichs der auf die Bildfläche (30) abgebildeten Szene (1) in einer grafischen Benutzer- ausgabeschnittstelle (16, 17) des Bildaufnahmegeräts (10).
EP21789730.5A 2020-10-08 2021-10-08 Bildaufnahmegerät Pending EP4193588A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102020126407.0A DE102020126407A1 (de) 2020-10-08 2020-10-08 Bildaufnahmegerät
PCT/EP2021/077842 WO2022074186A1 (de) 2020-10-08 2021-10-08 Bildaufnahmegerät

Publications (1)

Publication Number Publication Date
EP4193588A1 true EP4193588A1 (de) 2023-06-14

Family

ID=78085941

Family Applications (1)

Application Number Title Priority Date Filing Date
EP21789730.5A Pending EP4193588A1 (de) 2020-10-08 2021-10-08 Bildaufnahmegerät

Country Status (6)

Country Link
US (1) US20230370562A1 (de)
EP (1) EP4193588A1 (de)
JP (1) JP2023546037A (de)
CN (1) CN116324883A (de)
DE (1) DE102020126407A1 (de)
WO (1) WO2022074186A1 (de)

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CH696994A5 (de) 2000-04-25 2008-02-29 Rainer Mockler Digitale Kamera, insbesondere digitale Fotokamera oder digitale Videokamera und Verfahren zur Erfassung und Bearbeitung von digitalisierten Bildern
DE10359415A1 (de) * 2003-12-16 2005-07-14 Trimble Jena Gmbh Verfahren zur Kalibrierung eines Vermessungsgeräts
DE102006018591A1 (de) 2006-04-21 2007-10-25 Braun, Jörg, Dipl.-Ök. Verfahren zur perspektivischen Entzerrung eines Bildes
JP5370398B2 (ja) 2011-03-15 2013-12-18 オムロン株式会社 画像処理装置および画像処理プログラム
EP3017590B1 (de) * 2013-07-04 2021-03-31 Sony Corporation Verfahren, vorrichtung und system zur bildverarbeitung
US9177362B2 (en) 2013-08-02 2015-11-03 Facebook, Inc. Systems and methods for transforming an image
JP6146293B2 (ja) * 2013-12-25 2017-06-14 ソニー株式会社 制御装置、制御方法および制御システム
US20150244938A1 (en) * 2014-02-25 2015-08-27 Stelios Petrakis Techniques for electronically adjusting video recording orientation
US9955057B2 (en) * 2015-12-21 2018-04-24 Qualcomm Incorporated Method and apparatus for computational scheimpflug camera
CN106991649A (zh) * 2016-01-20 2017-07-28 富士通株式会社 对摄像装置所捕获的文档图像进行校正的方法和装置
JP6632434B2 (ja) 2016-03-10 2020-01-22 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Also Published As

Publication number Publication date
US20230370562A1 (en) 2023-11-16
WO2022074186A1 (de) 2022-04-14
JP2023546037A (ja) 2023-11-01
CN116324883A (zh) 2023-06-23
DE102020126407A1 (de) 2022-04-14

Similar Documents

Publication Publication Date Title
DE60310145T2 (de) Rundum-Beobachtungssystem und -verfahren
DE60317976T2 (de) Verfahren und Vorrichtung zur Korrektur von Linsenfehler eines stereoskopischen Kamerasystems mit Zoom
DE69820871T2 (de) Kamera mit Vorrichtung zur Korrektur des Trapezoidalbildfehlers
DE112012003383B4 (de) Vorrichtung und Verfahren zum Erzeugen von Bilddaten
DE602006000627T2 (de) Dreidimensionales Messverfahren und dreidimensionale Messvorrichtung
DE19804205B4 (de) Fotogrammetrisches Meßverfahren und fotogrammetrische Meßeinrichtung
DE112012000950B4 (de) Ermitteln des Abstands zwischen verschiedenen Punkten an einem abgebildeten Gegenstand
DE102006055758B4 (de) Verfahren zur Kalibrierung von Kameras und Projektoren
US20090268985A1 (en) Reduced Hardware Implementation For A Two-Picture Depth Map Algorithm
DE102013211492B4 (de) Bestimmung eines Messfehlers
EP2880853B1 (de) Vorrichtung und verfahren zur bestimmung der eigenlage einer bildaufnehmenden kamera
DE112007003553B4 (de) Merkmalsdetektionsvorrichtung und -verfahren zum Messen von Objektabständen
DE102014010152A1 (de) Automatikeffektverfahren für Fotografie und elektronische Vorrichtung
DE112011103011T5 (de) Stereoskopische (3D) Panoramaerstellung auf tragbaren Geräten
DE102015011914A1 (de) Konturlinienmessvorrichtung und Robotersystem
DE102009057884A1 (de) Abbildungsvorrichtung
DE19815105B4 (de) Vorrichtung und Verfahren zum Kalibrieren von Kamera bzw. Linse
DE112013005334T5 (de) Superauflösung auf der Basis von optischer Bildstabilisierung
DE3920160A1 (de) Anordnung zur bildverarbeitung
DE112013000762T5 (de) Bildverarbeitungsvorrichtung und Bildverarbeitungsverfahren
EP2886043A1 (de) Verfahren zum Fortsetzen von Aufnahmen zum Erfassen von dreidimensionalen Geometrien von Objekten
DE19815106B4 (de) Verfahren zum Messen von Kamera- und Linseneigenschaften zur Kameranachführung
DE202019105838U1 (de) Anordnung mit einem Koordinatenmessgerät oder Mikroskop
EP2030433A1 (de) Verfahren und anordnung zur behandlung von datensätzen bildgebender sensoren sowie ein entsprechendes computerprogramm und ein entsprechendes computerlesbares speichermedium
DE102015110026B4 (de) Bildverarbeitungsvorrichtung, zugehöriges steuerverfahren und speichermedium

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20230307

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)