WO2024100116A1 - Anordnung, verwendung einer anordnung und verfahren zur ermittlung wenigstens eines parameters - Google Patents

Anordnung, verwendung einer anordnung und verfahren zur ermittlung wenigstens eines parameters Download PDF

Info

Publication number
WO2024100116A1
WO2024100116A1 PCT/EP2023/081145 EP2023081145W WO2024100116A1 WO 2024100116 A1 WO2024100116 A1 WO 2024100116A1 EP 2023081145 W EP2023081145 W EP 2023081145W WO 2024100116 A1 WO2024100116 A1 WO 2024100116A1
Authority
WO
WIPO (PCT)
Prior art keywords
camera
view
cloud
arrangement
earth
Prior art date
Application number
PCT/EP2023/081145
Other languages
English (en)
French (fr)
Inventor
Niklas Blum
Stefan Wilbert
Bijan Nouri
Original Assignee
Deutsches Zentrum für Luft- und Raumfahrt e.V.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Deutsches Zentrum für Luft- und Raumfahrt e.V. filed Critical Deutsches Zentrum für Luft- und Raumfahrt e.V.
Publication of WO2024100116A1 publication Critical patent/WO2024100116A1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/42Photometry, e.g. photographic exposure meter using electric radiation detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/42Photometry, e.g. photographic exposure meter using electric radiation detectors
    • G01J2001/4266Photometry, e.g. photographic exposure meter using electric radiation detectors for measuring solar light

Definitions

  • the invention relates to an arrangement for determining at least one parameter for determining at least one component of a global irradiance, a use of an arrangement for determining at least one parameter for determining at least one component of a global irradiance and a method for determining at least one parameter for determining at least one component of a global irradiance.
  • 10.1016/j.solener.2018.02.050 It describes an arrangement with several cameras in which one camera has a field of view directed towards the sky and is able to record camera data from the sky. A shadow camera arranged several hundred meters away can record camera data from the earth. Cloud camera arrangements can be used for the automated detection of the degree of cloud cover in a sky and for the creation of very short-term forecasts of solar radiation, for example for the more efficient operation of power supply systems consisting of solar systems and diesel generators or battery storage systems.
  • cloud camera-based forecasting systems usually detect clouds in the camera images. Using data from at least a second cloud camera, the height and speed of the clouds and therefore the future position of the clouds can be determined. From the cloud position, a prediction can be made for the shading of certain areas.
  • Shadow camera arrays are typically installed on high towers or ridges overlooking the area being monitored. Shadow cameras can create high-resolution maps of solar radiation around the point of shadow camera installation using shadow cameras with a rather narrow angle of view. By comparing the position of cloud shadows in images between different timestamps, these systems can determine the speed of clouds over the ground.
  • Monitoring systems for solar power plants or measuring systems for determining the solar resource at the planned site of a solar power plant are often equipped with pyranometers aimed at the sky and, in some cases, also with pyranometers aimed at the ground in order to measure the radiation coming from the sky or reflected from the ground. These measurements are used to evaluate the performance of a solar power plant or to assess the solar resource at the site.
  • the publication “Shadow camera system for the generation of solar irradiance maps”, Solar Energy, 157, 2017, 157-170. DOI: 10.1016/j.solener.2017.05.074 discloses a multi-camera arrangement, wherein the camera arrangement consisting of six cameras takes images of the ground from a high tower.
  • the object of the invention is to provide a cost-effective arrangement for determining at least one parameter for determining at least one component of a global irradiance, wherein the measuring setup is located at one location.
  • a further object of the invention is to provide a use of such an arrangement for determining at least one parameter for determining at least one component of a global irradiance, which determines one or more parameters cost-effectively and/or reliably.
  • a further object of the invention is to provide a method for determining at least one parameter for determining at least one component of a global irradiance, which determines the at least one parameter cost-effectively and/or reliably.
  • an evaluation and control device is understood to mean a physical assembly or a logical group of interacting hardware and/or software components or a processor.
  • the evaluation and control device comprises at least one signal input for receiving camera data and at least one signal output for outputting measurement results and/or camera data.
  • At least one computing unit can evaluate the received camera data through appropriate programming and calculate the at least one parameter and/or other measurement results.
  • several computing units can be provided, each of which carries out one or more method steps and/or one or more evaluation steps. Additionally or alternatively, several computing units can be provided for determining or determining one or more parameters. These computing units or further computing units can determine one or more components of the global irradiance. The calculations and/or determinations and/or ascertainments can take place centrally at one location or decentrally at different locations.
  • At least one storage unit can store intermediate results and/or final results and/or determined values of the parameters and/or at least one component of the global irradiance.
  • the camera data can be sent via a cable or wirelessly to the signal input or from the signal output.
  • one evaluation and control device or several evaluation and control devices can be involved in the evaluation and calculation.
  • the evaluation can additionally or alternatively be implemented at least partially on a server.
  • the evaluation can advantageously be carried out with a corresponding computer program that is designed to carry out the calculation steps.
  • a computer program product can also be provided on which a computer program is stored that is designed to carry out the calculation steps.
  • the evaluation and control device can be understood as a physical assembly. However, the evaluation and control device could also simply be implemented on a server. In this case, this assembly is a computer program and not physically present.
  • the evaluation and control device can extract data from a cloud or store it in a cloud.
  • a camera arrangement can be understood to mean a camera arrangement which comprises a camera which captures a spatial field of view of 360° or at least approximately 360° around the camera arrangement.
  • the camera arrangement can comprise several cameras which together capture the spatial field of view of at least approximately 360° around the camera arrangement.
  • the camera arrangement can have a first camera and a second camera.
  • the spatial field of view of at least approximately 360° around the camera arrangement is composed of a spatial first partial field of view and a spatial second partial field of view of 180° or at least approximately 180° around the camera arrangement.
  • the partial fields of view can be arranged along a common axis, in particular the common axis can be aligned substantially in a vertical direction, or the common axis can be aligned at a tilt angle to the vertical direction.
  • the spatial field of view of at least approximately 360° can advantageously be a three-dimensional field of view.
  • the spatial partial field of view of at least approximately 180° can be a three-dimensional partial field of view.
  • the camera arrangement may have the common axis.
  • the common axis may extend through the camera or the multiple cameras of the camera arrangement.
  • the common axis may be aligned substantially in the vertical direction and thus form a substantially vertical axis or may be tilted at a tilt angle to the vertical direction and thus form an oblique axis.
  • each of the cameras can be arranged on a separate axis. These can be essentially parallel to each other or tilted against each other.
  • the downward looking camera may advantageously capture the ground below the upward looking camera.
  • the cameras may be arranged in a common mounting arrangement or in separate mounting arrangements.
  • the one or more axes may be oriented substantially in a vertical direction. Alternatively, the one or more axes may be oriented at a tilt angle to a vertical direction.
  • a small distance between the axes means that both cameras are always shaded by passing clouds at approximately the same time.
  • a field of view of at least approximately 360° can only be reconstructed with sufficient accuracy from the partial fields of view of the cameras if the two cameras are positioned close to each other.
  • a maximum distance of around 10 m should not be exceeded. This can prevent the cloud shadows in the image of the camera looking at the ground from no longer corresponding sufficiently precisely with the clouds in the image of the camera looking at the sky if the distance is too great. This effect can be particularly relevant with very low clouds at a height of just a few hundred meters.
  • the spatial field of view of at least approximately 360° around the camera arrangement can extend in two opposite directions and in total realize the spatial field of view of at least approximately 360°.
  • the first camera and the second camera can form the common axis, wherein the common axis can be aligned substantially in the vertical direction and form the substantially vertical axis or can be the axis tilted at a tilt angle to the vertical axis, which can form the oblique axis.
  • the cameras are arranged on a common axis, the field of view of the first camera can extend upwards along the common axis and the field of view of the second camera can extend downwards along the common axis.
  • the partial fields of view can extend along several axes, in particular two axes. These axes can be substantially parallel to one another or inclined relative to one another.
  • the one or more axes can be aligned substantially in a vertical direction.
  • the one or more axes can be aligned at a tilt angle to a vertical direction.
  • the one or more axes may be arranged so that the downward looking camera can capture the ground below the upward looking camera.
  • the two axes are advantageously arranged close to each other.
  • a small distance between the axes means that both cameras are always exposed to passing clouds at approximately the same time.
  • a field of view of approximately 360° can only be reconstructed with sufficient accuracy from the partial fields of view of the cameras if the two cameras are positioned close to each other. For this purpose, too, a maximum distance of around 10 m should not be exceeded. This can prevent the cloud shadows in the image of the camera looking at the ground from no longer corresponding sufficiently precisely with the clouds in the image of the camera looking at the sky if the distance is too great. This effect can be particularly relevant with very low clouds at a height of just a few hundred meters.
  • the spatial field of view of at least approximately 360° can each form a spatial partial field of view of at least approximately 180°, which forms the spatial field of view of approximately 360°.
  • the spatial partial field of view of at least approximately 180° forms a hemispherical or at least approximately hemispherical field of view.
  • a spatial field of view of at least approximately 360° around the camera arrangement is understood below to mean a spherical or at least approximately spherical field of view around a central point.
  • hemispherical is to be understood as meaning that it is at least approximately hemispherical.
  • spherical is to be understood as meaning that it is at least approximately spherical.
  • the camera or cameras can be arranged in this center point.
  • the spatial field of view of at least approximately 360° can be divided into several segments.
  • the center point can advantageously lie on the common axis, which can be designed as a substantially vertical axis or an oblique axis. This allows camera data from one segment to be evaluated independently of camera data from other segments.
  • the spatial field of view of at least approximately 360° can be reconstructed from partial fields of view of the two cameras of at least approximately 180° if they are arranged on axes that are closely spaced from each other.
  • camera data can be understood as cloud-related data caused by clouds. Additionally or alternatively, camera data can be understood as cloud-related data caused by cloud shadows.
  • camera data can be understood below as data caused by solar radiation, which are caused by intensities of at least one component of the global irradiance.
  • the camera data can also be caused by intensities of several components of the global irradiance.
  • camera data can be understood as images of the sky. Additionally or alternatively, camera data can be understood as images of areas of the sky. Additionally or alternatively, camera data can be understood as images of the earth's surface. Additionally or alternatively, camera data can be understood as images of areas of the earth's surface.
  • camera data can be image features of one or more color channels of an image.
  • image features can consist of the texture and/or structure and/or the color or the ratio of color channels and/or brightness. These image features can be caused by clouds or other elements in the sky. Additionally or alternatively, these image features can be caused by cloud shadows and/or other elements on the ground. Image features that are not caused by clouds and/or cloud shadows can be sorted out using suitable methods and therefore cannot be used for the evaluation.
  • camera data can be intensity values of one or more color channels and/or structural image features, particularly in the image area, of the sun. The intensity values and structural features can be caused by radiation incident on at least one lens of the respective camera and the associated reflections and refractions and other optical and electronic effects.
  • the images and/or the image features and/or the intensity values can be evaluated. This can include recording a current status.
  • a change in the images and/or the image features and/or the intensity values over time can also be recorded.
  • Determining a parameter is understood below to mean the recording and/or calculation of a current value of the parameter. Additionally or alternatively, determining the parameter is understood below to mean the recording and/or calculation of an expected future value of the parameter.
  • the expected future value of the parameter can be determined, for example, based on the current and/or past camera data.
  • a parameter is understood to mean a quantity determined with or from the camera data.
  • This quantity can be a cloud shadow position and/or a cloud feature position and/or a cloud speed and/or a cloud height. Additionally or alternatively, this quantity can be a future cloud shadow position and/or a future cloud feature position and/or a future cloud speed and/or a future cloud height. Additionally or alternatively, this quantity can also be a component of the global irradiance and/or a combination of several components of the global irradiance or the global irradiance. The recorded or determined values for the component of the global irradiance and/or for the combination of several components of the global irradiance and/or for the global irradiance can be further refined.
  • the determination of the at least one component of the global irradiance can be understood below as the detection and/or calculation of a current value of the at least one component of the global irradiance. Additionally or alternatively, the determination of the at least one component of the global irradiance can be understood as the calculation of a future value of the at least one component of the global irradiance.
  • the at least one component of the global irradiance can be understood as a quantity determined with or from the camera data and/or a quantity determined with or from the parameters.
  • a component of the global irradiance can be one of the following solar radiations or a combination of the following solar radiations: direct radiation, diffuse radiation, radiation reflected from the earth's surface. All together they correspond to the global irradiance.
  • An arrangement for determining at least one parameter for determining at least one component of a global irradiance comprises an evaluation and control device and a camera arrangement.
  • the at least one camera is fixed at a predetermined distance from an earth's surface at least for determining the at least one parameter.
  • the camera arrangement is designed to capture camera data in a spatial field of view of at least approximately 360° around the camera arrangement.
  • a holding arrangement can fix at least one camera. If there are two or more cameras, the cameras can be fixed by the same holding arrangement. Optionally, cameras can also be fixed in different holding arrangements.
  • the spatial field of view of at least approximately 360° around the camera arrangement is composed of a spatial first partial field of view and a spatial second partial field of view of at least approximately 180° around the camera arrangement, which are arranged along a common axis or, if two cameras are used, on two files spaced apart at a short distance from one another, in particular wherein the common axis or the plurality of axes are aligned substantially in a vertical direction, or wherein the common axis or the plurality of axes are aligned at a tilt angle to the vertical direction.
  • the at least one camera of the camera arrangement can be arranged on the at least one axis forming the vertical axis or the oblique axis, wherein the spatial field of view can extend upwards and downwards by at least approximately 360° along the vertical axis(s) or the oblique axis(s).
  • an upper spatial partial field of view of at least approximately 180° and a lower spatial partial field of view of at least approximately 180° can be formed, which have the common essentially vertical axis or oblique axis, in particular an essentially vertical central axis or oblique central axis, or are spaced apart from one another on different axes.
  • the upper partial field of view and the lower partial field of view can each form an upper hemisphere and a lower hemisphere.
  • the upper hemisphere and the lower hemisphere can form a common horizontal surface, in particular a circular surface, running perpendicular to the essentially vertical axis or oblique axis with their straight rear surfaces, i.e. their back side.
  • the center of the camera arrangement can be formed at the intersection point of the common axis and the horizontal axis.
  • the at least one camera can be understood to be an RGB camera or an infrared camera.
  • the at least one camera can, for example, take 24 images per second. These can be provided with a corresponding time stamp. Other image generation rates can also be selected.
  • extended structures with, for example, shading devices are conceivable in order to reduce the disruptive influence of direct sunlight.
  • the camera arrangement can in particular be designed to capture camera data in a field of view of at least approximately 360° around the camera arrangement, wherein the camera data are suitable for deriving information on solar radiation and/or on the position and/or properties of clouds.
  • the holding arrangement can fix the camera at a certain distance above the ground to determine the at least one parameter.
  • the holding arrangement can be a locally fixed arrangement, for example a suitable rod or frame. Additionally or alternatively, the holding arrangement can be a movable arrangement, for example a drone, which can be used mobile and which fixes at least one camera at a predetermined height at a predetermined location.
  • the holding arrangement can be designed such that the camera arrangement is arranged on the common axis and a spatial field of view of at least approximately 360° is formed.
  • the evaluation results of the camera data for example of individual color channels, can be compared with the evaluation results of other color channels. Additionally or alternatively, evaluation results with different time stamps of a color channel can be compared with each other. A further evaluation of the evaluation results with evaluation results with other time stamps or with evaluation results from another color channel is also possible.
  • evaluation results of a first partial field of view of at least approximately 180° and evaluation results of a second partial field of view of at least approximately 180° can advantageously be combined with one another. This advantageously makes it possible to dispense with the use of estimated values or values from external data sources to determine most of the parameters for determining at least one component of a global irradiance, whereby the determination of the parameters for a given location is more accurate and reliable than with conventional arrangements which rely on estimated values and values from external data sources. Furthermore, no additional sensor units are required.
  • the irradiance of at least one component of the global irradiance is specified in relation to a surface on which it impinges.
  • This surface can be inclined relative to the earth's surface and, for example, can also face the earth's surface.
  • the field of view of at least approximately 360° around the camera arrangement allows the advantages of an arrangement with a sky camera directed towards the sky, also known as a cloud camera, to be combined with the advantages of an arrangement with a ground camera directed towards the ground, also known as a shadow camera, and the disadvantages of the sky camera and the cloud camera to be compensated.
  • the camera data that is recorded in the field of view of at least approximately 360° can be evaluated.
  • the camera data can be recorded simultaneously at a common location with cameras on a common axis or on axes that are closely spaced from one another and evaluated for this location.
  • a camera arrangement with a field of view of at least approximately 360° can be sufficient to capture enough camera data to reliably record and/or predict desired parameters. This means that additional cameras at other locations or additional sensor units are not necessary.
  • a large section of the sky can be captured and monitored; clouds in particular can be detected long before their shadows arrive in the monitored area and corresponding predictions can be made.
  • a further advantage of evaluating camera data, which is recorded in the field of view of at least approximately 360° around the camera arrangement, is that some parameters, such as cloud speed above the ground, can be precisely and directly derived from these camera data.
  • the section of the ground that can be monitored and recorded depends, among other things, on the height at which the at least one camera, which is directed towards the ground, is arranged.
  • ground cameras are usually placed on high towers or ridges to increase the area of the ground they monitor. Because of the height, clouds floating between the camera and the ground in these setups can prevent or make it difficult to monitor the ground.
  • a prediction can be determined using camera data from at least one camera directed towards the sky, whereby a large section of the ground is not necessarily required to monitor the ground, so that the camera arrangement can be arranged at a lower height above the ground, in contrast to known shadow camera arrangements.
  • the mounting arrangement can fix the at least one camera at a distance of 1 - 100 m from the ground, which is usual for albedo measurements.
  • a minimum distance of the at least one camera from the ground can depend on the ground.
  • a height of 10 m should be selected in order to avoid interference from uneven surfaces. Lower heights are also possible for surfaces with less vegetation and/or in areas with little snowfall.
  • the minimum height can be selected such that gradients of the intensities of the RGB channels of the at least one camera which is aligned with the ground can be reliably identified, so that the parameters which can be determined therefrom can be determined reliably and precisely.
  • a maximum distance of the at least one camera which is aligned with the ground, prevents low-lying clouds from making it difficult to capture camera data. This maximum distance is determined depending on the intended use and location. For example, if clouds at a height of 500 m or more above the camera are of interest, the at least one camera should be installed at a height of no more than 100 m in order to reliably capture these clouds. If the arrangement is also used to measure the radiation reflected from the ground, a smaller distance is advantageous.
  • the area included in the measurement of radiation reflected from the ground also increases. This area can potentially be affected by unwanted influences such as trees, reflective objects, land use, etc.
  • the camera arrangement is fixed at a maximum height of 100 m, the costs for the mounting arrangement can be reduced.
  • such a fixed camera arrangement can be set up quickly and easily at any location, so that the camera arrangement can be used flexibly.
  • a drone can simply fly at such a height and can also be used flexibly at several locations. This means that the holding arrangement can also be moved to a different location after the desired parameters have been calculated. This makes it easy and cost-effective to check whether a site is suitable for a solar park, for example.
  • the camera arrangement can be arranged on the upper edge of a building.
  • the building can correspond to a surveillance building or distribution house of a solar system or a residential building. No tower or other tall building is required. If the field of view of the camera arrangement is restricted by the building, it can be difficult to record camera data and determine at least one parameter.
  • the camera data can advantageously be determined at a common location by the arrangement according to the invention. This eliminates the need to transfer camera data between two locations and convert the data from one location to the other. This can make maintenance and operation of the arrangement according to the invention easier.
  • a reduced number of cameras or a reduced number of camera arrangements can reduce the effort required for hardware and thus reduce hardware costs.
  • the field of view of at least approximately 360° around the camera arrangement at a predetermined location can be composed of a first partial field of view and a second partial field of view of at least approximately 180° around the camera arrangement.
  • At least one first camera records camera data in the first partial field of view and at least one second camera records camera data in the second partial field of view, with the two partial fields of view of the cameras complementing each other to form a field of view of at least approximately 360°.
  • the cameras are each designed in particular as a fisheye camera.
  • the orientation of the fields of view can be chosen arbitrarily.
  • the fields of view can be aligned sideways, so that one camera captures a section of the ground and a section of the sky on one side and the other camera captures a section of the ground and a section of the sky on an opposite side.
  • the arrangement and orientation of the cameras can be freely chosen, as long as a total field of view of at least approximately 360° around the camera arrangement is captured.
  • the arrangement of the cameras can be aligned along a common axis or along closely spaced axes, wherein the one or more axes can be aligned essentially vertically and form an essentially vertical axis or can be tilted at a tilt angle to the vertical axis and form an oblique axis.
  • the assignment of the camera data to the partial field of view can be made easier, thereby facilitating the interpretation and evaluation of the camera data.
  • camera data can be more easily assigned to the at least one component of the global irradiance if it is clear in which field of view they were recorded.
  • the field of view of at least approximately 360° can be divided into more than two partial fields of view.
  • further cameras are conceivable which record camera data in the additional partial fields of view.
  • At least a first camera as a sky camera can capture camera data in the first partial field of view, which is directed towards the sky and forms an upper partial field of view.
  • At least one second camera can act as a ground camera and capture camera data in the second partial field of view, which is directed towards the earth's surface and forms a lower partial field of view.
  • the cameras are designed in particular as fisheye cameras.
  • the upper partial field of view and the lower partial field of view can have the common, essentially vertical axis or oblique axis or can be arranged on spaced axes.
  • the camera data of the respective cameras can easily be assigned to the upper or lower part of the field of view.
  • the cameras can be specially designed to monitor the sky and the ground.
  • a 360° camera with a field of view of at least approximately 360° around the camera arrangement can capture camera data in the first partial field of view and capture camera data in the second partial field of view.
  • the first partial field of view can form an upper partial field of view oriented towards the sky and the second partial field of view can form a lower partial field of view oriented towards the earth's surface.
  • the camera data can be assigned to the upper or lower partial field of view when evaluating the camera data.
  • the cameras used can produce high-resolution and high-quality images or camera data.
  • surveillance cameras can be used. These are cheaper and can produce images with stronger artifacts.
  • An alternative design could be an arrangement of cameras and parabolic mirrors.
  • the arrangement according to the invention monitors only a single upper partial field of view, while conventional sky camera arrangements with this scope of performance monitor at least two upper partial fields of view and comprise at least two sky cameras.
  • the arrangement according to the invention monitors only a small section of the ground, so that the ground camera can be arranged at a smaller distance from the ground than with conventional ground camera arrangements.
  • the two cameras can be installed at the same location with opposite orientations.
  • the camera arrangement is implemented with a single camera, it is automatically arranged at one location.
  • the arrangement according to the invention can reduce the cost of purchasing and operating hardware, since the advantages of a cloud camera arrangement and a shadow camera arrangement can be combined.
  • at least one evaluation and control device can extract camera data associated with the sky from the recorded camera data and determine at least one of the following parameters from these camera data associated with the sky: a direct radiation and/or a diffuse radiation and/or a global irradiance Gl and/or at least one position of cloud features and/or areas of the sky covered by clouds and/or from cloud positions and/or from the position of cloud features in the camera image between at least two time stamps an angular velocity of at least one cloud in the camera image.
  • cloud features are understood to be image features that indicate a cloud.
  • a cloud position is understood to be an estimate of the position of a cloud or a cloud cluster, since clouds are not solid objects and individual clouds are difficult to distinguish in a cloud formation.
  • At least one evaluation and control device can determine the angular velocity of a cloud or of several clouds or of a cloud formation from the camera images using appropriate programming and an appropriate evaluation method.
  • image features that correspond to the position of the cloud or the positions of the clouds or the cloud formation can be recognized.
  • the shift can be represented by creating difference images di of a color channel of the color channels.
  • the difference images di and d2 can be rectified. Rectification means that the determined values are projected into a horizontal plane with an unknown height above the camera. This projection results in orthoimages 01 and 02. Image features and their position are identified from orthoimages 01 and 02.
  • the orthoimages 01 and 02 can be converted into binary images bi, b2, whereby, for example, 2% of the pixels are given the value 1 and the remaining 98% of the pixels are given the value 0. These 2% of the pixels have the largest difference in terms of magnitude. This allows strong increases or decreases in this color channel between the times to, to+At, to+2At to be determined.
  • these binary images can be compared as a whole, for example using cross-correlation, or the images can be compared in regions using a more refined method.
  • the shift Am, An corresponds to the shift for which the cross-correlation between the binary orthoimages 01 and 02 is maximum. This method can be run for at least one color channel. Several color channels can also be evaluated in this way. Furthermore, further refinements and suitable adjustments can be made to the method for determining the shift Am, An of the cloud or clouds.
  • image features and their shift Am An can also be determined in other ways, for example using SIFT (scale invariant feature transform) or other machine learning methods.
  • SIFT scale invariant feature transform
  • ⁇ x pix/s m/(t 2 - ti)
  • the direct radiation and/or the diffuse radiation can be determined by at least one evaluation and control device. This can be the same evaluation and control device that already determines the angular velocity of the cloud, or it can be a different evaluation and control device.
  • the intensity values of the RGB channels of at least one camera in the upper partial field of view or from the camera data assigned to the sky are evaluated by the evaluation and control device. These intensity values can be read directly from the corresponding camera.
  • a physical camera model is used to calculate the radiation (radiance) received from a specific area of the sky from the intensity values of the RGB channels of the camera image.
  • physically motivated corrections can be applied to improve the calculation.
  • the physical camera model can be replaced by a purely statistical machine-based learning model.
  • an architecture using a convolutional neural network followed by a fully connected neural network can, with appropriate training, replace or imitate the camera model, supplement it, or adapt it independently.
  • a gamma correction commonly used for cameras can be reversed in order to obtain a linearized RGB image from the RGB image of the respective camera.
  • This step can be omitted if the camera in question does not perform gamma correction, so that the gamma correction does not have to be reversed afterwards. This can be the case, for example, if the gamma correction of the camera in question is deactivated or the camera does not perform gamma correction for other reasons.
  • a pixel-by-pixel assignment of image areas to sky areas can be made using azimuth and zenith angles (vertical angles). Instead of a pixel-by-pixel assignment, other assignments are also conceivable. A degree of the azimuth angle can be specified from south to west, north and east.
  • the intensities of the color channels of the linearized RGB image can be weighted and summed.
  • the weighting can achieve the most uniform possible sensitivity of the corresponding camera in the visible wavelength range.
  • a multiplication with a broadband correction can be carried out, which takes into account parts of the broadband solar radiation that come from the non-visible wavelength range.
  • a multiplication with a calibration factor which takes the sensitivity of the camera into account, is conceivable.
  • applied correction factors such as the broadband correction, the calibration factor, the correction of interference influences, can be partially combined or rewritten.
  • these corrections can be replaced or supplemented by statistically determined corrections, for example via machine-based learning, in particular based on image features.
  • diffuse and/or direct radiation in any horizontal plane or plane inclined to the ground, including a plane facing the ground can be determined from the radiation (radiance) received from different areas of the sky, for example by projection.
  • the image areas can be assigned to sky areas and an integration across image areas/sky areas can be used. If necessary, the global radiation in inclined planes and in planes facing the ground can also be determined.
  • the substeps for example the application of a physical camera model and/or the assignment of image areas to sky areas and/or the application of physically motivated corrections and/or the projection into an arbitrary plane, for determining direct and diffuse radiation in an arbitrary plane can be partially or entirely imitated by a so-called machine learning model.
  • machine learning model By evaluating the intensities of the RGB channels from the upper part of the field of view or from the camera data assigned to the sky, values can be determined that correspond to the sum of diffuse radiation and direct radiation. Extensions would be possible so that separate values for diffuse radiation and direct radiation can be determined.
  • the performance of a solar plant at the location of the arrangement according to the invention can be determined and a solar resource at the location can be assessed. No further sensors or sensor units, such as pyranometers, are required.
  • the radiation can only be determined by the at least one camera and its camera data.
  • Knowledge of the areas covered by clouds in the upper part of the field of view can be used to further assess the radiation determined. For example, diffuse radiation can increase due to clouds and direct radiation can decrease due to clouds. Different weather conditions can lead to different radiation conditions at the location. The current and future radiation conditions can be determined at least in part by determining the cloud positions and the speed of the clouds.
  • the evaluation and control device can extract camera data associated with the earth's surface from the recorded camera data and determine at least one of the following parameters from these camera data associated with the earth's surface: a radiation reflected at the earth's surface and/or an albedo of the earth's surface and/or at least one cloud shadow position and/or from the cloud shadow positions between at least two time stamps a speed of at least one cloud above the earth's surface.
  • the speed of a cloud or of several clouds above the ground can be determined by at least one evaluation and control device from the camera images of the lower partial field of view or from the camera data associated with the earth's surface.
  • This can be one of the evaluation and control devices that evaluates the camera data of the upper partial field of view or the camera data associated with the sky or another evaluation and control device.
  • image features corresponding to the position of at least one cloud shadow and their displacement Am An can also be determined in other ways, for example using SIFT (scale invariant feature transform) or other machine learning methods.
  • each image pixel corresponds to a square part of the monitored area.
  • Difference images can be calculated from the ortho images converted to grayscale. Other outputs are also possible instead of grayscale.
  • difference images can be converted into binary images.
  • the displacement of image pixels Am, An which can be assigned to a corresponding displacement Ax, Ay of the cloud shadows in the monitored area, can be determined using cross-correlation.
  • the amount of this "absolute" speed of the cloud shadows above the ground is then calculated as where the scaling factor k sc (unit m/pixel) indicates the known side length of an image pixel in meters. Since the speed of the cloud shadows above the ground also corresponds to the speed of the corresponding cloud above the ground, two sky cameras monitoring different upper partial fields of view are advantageously not required to determine the cloud speed above the ground, since the cloud speed can be easily determined from the one lower partial field of view or from the camera data assigned to the earth's surface. In addition, the use of estimated values when calculating the cloud speed can be dispensed with, which means that a reliable and accurate value for the cloud speed above the ground can be calculated.
  • the cloud speed above the ground is understood to be the speed of the clouds in comparison to imaginary fixed points on the ground. From the determined cloud speed and the current cloud position, a future cloud position and a corresponding change in the global irradiance in a given area can be advantageously determined or predicted.
  • the radiation reflected from the earth's surface and/or the albedo of the ground can be determined by at least one evaluation and control device. This can be the same evaluation and control device that already determines another parameter, or it can be a different evaluation and control device.
  • the determination of the radiation reflected from the ground is similar to the determination of direct radiation and/or diffuse radiation.
  • the intensity values of the RGB channels of at least one camera which determines camera data from the lower part of the field of view, are evaluated by the corresponding evaluation and control device. These intensity values can be read directly from the corresponding camera if it only monitors the ground. Otherwise, the relevant camera data can be separated from the irrelevant camera data beforehand.
  • a physical camera model is used to calculate the radiation received from a specific area of the ground from the intensity values of the RGB channels of the camera image.
  • physically motivated corrections can be applied to improve the calculation.
  • the physical camera model can be replaced by a purely statistical machine-based learning model.
  • an architecture using a convolutional neural network followed by a fully connected neural network can replace or imitate or supplement the camera model or adapt it independently with suitable training.
  • a gamma correction that is common for cameras can be reversed in order to obtain a linearized RGB image from the RGB image of the respective camera.
  • This step can be omitted if the corresponding camera does not perform gamma correction, so that the gamma correction does not have to be subsequently reversed. This can be the case, for example, if the gamma correction of the corresponding camera is deactivated or the camera does not perform gamma correction for other reasons.
  • image areas can be assigned pixel by pixel to ground areas using the known elevation profile of the earth's surface in the monitored area.
  • Each image pixel can correspond to a square part of the monitored area.
  • the pixel-by-pixel assignment of image areas to ground areas can be adopted from the cloud velocity determination. Instead of a pixel-by-pixel assignment, other assignments are also conceivable.
  • the intensities of the color channels of the linearized RGB image can be weighted and summed.
  • the weighting can achieve the most uniform possible sensitivity of the corresponding camera in the visible wavelength range.
  • a multiplication with a broadband correction can be carried out, which takes into account parts of the broadband solar radiation that come from the non-visible wavelength range. Furthermore, a multiplication with a calibration factor, which takes the sensitivity of the camera into account, is conceivable.
  • corrections it is possible to apply at least one correction to take into account interferences on the measurement, such as lens refraction, image saturation, influence of the exposure control of the corresponding camera.
  • applied correction factors such as the broadband correction, the calibration factor, the correction of interferences, can be partially combined or rewritten.
  • these corrections can be replaced or supplemented by statistically determined corrections, for example via machine-based learning, in particular based on image features.
  • the radiation incident on a plane and reflected by the ground can also be determined for inclined planes and for planes directed towards the ground, if required.
  • the sub-steps for example the application of a physical camera model and/or the assignment of image areas to sky areas and/or the application of physically motivated corrections and/or a projection into an arbitrary plane to determine the radiation reflected on the ground, can be partially or entirely imitated by a machine learning model.
  • the current albedo of the ground or a more detailed reflectance of the ground can be derived from the determined reflected radiation and the determined direct radiation and the determined diffuse radiation.
  • the reflectance or albedo of the ground and/or the reflected radiation and/or direct radiation and/or diffuse radiation can be specified with angular resolution and spectral resolution.
  • the global and diffuse irradiance in any inclined plane can be calculated from the radiation from the various areas of the sky and from the angularly and spectrally resolved reflectance of the ground or the albedo.
  • This setup can be additionally supported by combining it with a pyranometer.
  • the reflectance corresponds to the degree of reflection of the surface.
  • the degree of reflection indicates the ratio of the radiant power reflected from a surface to the radiant power hitting the surface.
  • An angle-resolved reflectance is understood to be information in the sense of a bidirectional reflection distribution function or quantities derivable from it, such as a detailed composition of the albedo, in particular a black-sky albedo and a white-sky albedo.
  • Spectrally resolved reflectance is the ratio of the radiant power reflected from a surface at a specific wavelength or in a specific wavelength range and the radiant power hitting the surface at this specific wavelength or in this wavelength range.
  • the camera data from the lower field of view or the camera data associated with the earth's surface can advantageously be used to monitor contamination or damage to a solar system and other solar collectors in order to be able to arrange for cleaning or repair if necessary.
  • At least one evaluation and control device can determine a height of the clouds from the speed of at least one cloud above the earth's surface and the angular velocity of at least one cloud in the camera image.
  • the calculation of the cloud speed above the ground can be done in the upper part of the field of view or from the camera data assigned to the sky based on the angular velocity v p(-x / s :
  • the angle 0 corresponds to the maximum zenith angle up to which the upper field of view of 180° or at least approximately 180° around the camera arrangement is evaluated.
  • N corresponds to the diameter in pixels of the circular image area which represents the sky area with a zenith angle less than or equal to 0.
  • the angle 0 and the parameter N can be determined from the camera image of the upper field of view of at least approximately 180° around the camera arrangement.
  • v m /s corresponds to the determined speed of the cloud above the ground
  • v P ix/s corresponds to the determined angular velocity of the cloud.
  • H2 corresponds to the height of the cloud projected over the camera arrangement or over at least one camera of the camera arrangement directed towards the sky. Since the distance of at least one camera to the ground is known, the actual height of the cloud above the ground at its current position can be calculated from the known height profile of the monitored area, the current cloud position and the height of the cloud projected over the camera. The calculations can be refined.
  • the evaluation and control device can determine a future cloud position using the height of the clouds, the current position of the clouds and the speed of the clouds above the earth's surface. From this, future shading or future global irradiance in a given area can be estimated or calculated.
  • This advantageously makes it possible to create more accurate short-term forecasts of solar radiation with just one camera arrangement at the same location, with the cameras used being installed just a few meters above the ground. This advantageously makes it possible to react early to shading or an expected fluctuation in the performance of the solar system.
  • the camera data can advantageously be determined at a common location, which makes maintenance and operation of the arrangement according to the invention easier and more cost-effective.
  • At least one evaluation and control device can extrapolate the speed of clouds above the earth's surface and/or the angular velocity of clouds in the camera image in time and space.
  • Both the angular velocity of clouds in the camera image and the speed of clouds above the earth's surface can be averaged/extrapolated temporally and spatially in order to obtain a larger temporal and spatial coverage. This also makes it possible to determine the cloud height and cloud speed of clouds whose shadows are not (yet) recorded in the lower field of view or by camera data assigned to the earth's surface.
  • the temporal and spatial extrapolation can compensate for the fact that the lower field of view covers a small section and therefore fewer cloud shadows than clouds or cloud features are recorded in the upper part of the field of view.
  • the temporal and spatial extrapolation does not necessarily require the data from one cloud and its shadow to be used for the evaluation.
  • the shadows of other clouds can also be used to determine the cloud height of a cloud or cloud feature recorded in the upper part of the field of view or from the camera data assigned to the sky. This evaluation is less accurate than if the camera data of a cloud or cloud feature and its shadow are used for the evaluation. However, it is possible to determine cloud heights continuously. In known systems, such as lidar systems or ceilometer systems, cloud heights are only determined at specific points.
  • the at least one evaluation and control device can determine at least one current and/or future value of at least one component of the global irradiance from the camera data and/or the determined parameters in a spectral and/or angularly resolved manner.
  • angle-resolved radiation information in particular the radiance, can be weighted and integrated according to a projection into the plane of interest.
  • the angle-resolved information itself can also be of interest to a user, so that weighting and integration can then be omitted.
  • the current and/or future albedo of the ground can be determined by angle-resolved detection of the at least one component of the global radiation.
  • a current and/or future irradiance of radiation striking a plane with a known inclination to the ground can be advantageously determined.
  • Additional support by a pyranometer or another suitable sensor is possible.
  • no further sensors such as pyranometers are required to resolve irradiances of the components of the global radiation spectrally and/or angularly or to determine irradiances on planes inclined to the earth's surface. This can reduce costs for the arrangement.
  • At least one evaluation and control device can determine the at least one component of the global radiation on an inclined surface, in particular a surface with any orientation. This advantageously makes it possible to determine an optimal angle of inclination of solar modules, including bifacial photovoltaic modules. Alternatively or additionally, a current and/or expected output can be determined for known angles of inclination of solar modules, including bifacial photovoltaic modules.
  • the arrangement according to the invention allows almost every parameter that is required to determine and predict at least one component of the global irradiance to be calculated at one location using the camera arrangement. No additional sensors or other camera arrangements are required.
  • the arrangement according to the invention can also be used to create very short-term forecasts of solar radiation. At the same time, this structure also allows improved monitoring of solar power plants or surveillance in other areas such as airports.
  • a use of an arrangement for determining at least one parameter for determining at least one component of a global irradiance is proposed, wherein camera data are recorded in a field of view of at least approximately 360° around the camera arrangement, wherein information on solar radiation and/or on the position and/or on properties of clouds is derived from the camera data.
  • the spatial field of view of at least approximately 360° around the camera arrangement allows the advantages of an arrangement with a sky camera directed towards the sky, also known as a cloud camera, to be combined with the advantages of an arrangement with a ground camera directed towards the ground, also known as a shadow camera, and thus the disadvantages of the sky camera and the ground camera can be compensated.
  • the camera data which are assigned to the spatial field of view of at least approximately 360° around the camera arrangement are evaluated.
  • the camera data of the field of view of at least approximately 360° around the camera arrangement are advantageously recorded at the same time at a common location and evaluated for this location.
  • An advantage of evaluating the camera data of an upper partial field of view of at least approximately 180° around the camera arrangement or from the evaluation of camera data assigned to the sky is that a large section of the sky can be recorded and monitored; in particular, clouds can be detected long before their shadows arrive in the monitored area and corresponding predictions can be made.
  • An advantage of evaluating the camera data of the lower partial field of view of at least approximately 180° around the camera arrangement or evaluating the camera data associated with the earth's surface is that some parameters, such as cloud speed above the earth's surface, can be taken precisely and directly from these camera data.
  • the section of the earth's surface that can be monitored and recorded depends, among other things, on the height at which the at least one camera that records the lower partial field of view of at least approximately 180° around the camera arrangement is arranged.
  • a prediction can be determined using camera data from at least one camera aimed at the sky or using camera data associated with the sky, whereby a large section of the ground is not necessarily required to monitor the ground, so that the camera arrangement can be arranged at a lower height above the ground, in contrast to known shadow camera arrangements.
  • the holding arrangement can fix the at least one camera at a distance from the ground, which is usual for albedo measurements, of 1 - 100 m.
  • the selection of the minimum distance of the at least one camera from the ground can be made dependent on the ground. At locations with snow, unmown grass or crops on the ground, a height of 10 m, for example, should be selected in order to avoid interference from uneven surfaces. Lower heights are also possible for surfaces with less vegetation and/or in areas with little snowfall.
  • the minimum height can be selected such that gradients of the intensities of the RGB channels of the at least one camera which is aligned with the ground can be reliably identified, so that the parameters which can be determined therefrom can be determined reliably and precisely.
  • the camera arrangement is fixed at a maximum height of 100 m, the costs for the mounting arrangement can be reduced.
  • such a fixed camera arrangement can be set up quickly and easily at any location, so that the camera arrangement can be used flexibly.
  • a drone can simply fly at such a height and can also be used flexibly at several locations. This also makes it possible to change location after the desired parameters have been calculated.
  • the low height of the camera arrangement or the use of a drone makes it easy and inexpensive to check whether a site is suitable for a solar park, for example. No tower or other tall building is required.
  • the camera data can be determined at a common location by the arrangement according to the invention, which means that the transfer of camera data between two locations and the conversion of the data from one location to the other can be omitted.
  • a reduced number of cameras or a reduced number of camera arrangements can reduce the outlay for hardware and thus reduce hardware costs.
  • the field of view of the camera arrangement at a predetermined location can be composed of a first partial field of view and a second partial field of view, each of at least approximately 180° around the camera arrangement, and camera data in the first partial field of view can be recorded with at least one first camera and camera data in the second partial field of view can be recorded with at least one second camera, wherein the two partial fields of view of the cameras complement each other to form a spatial field of view of at least approximately 360°.
  • the assignment of camera data to the partial fields of view can advantageously be made easier in this way.
  • At least one first camera as a sky camera
  • camera data can be recorded in the first partial field of view, which is directed towards the sky and forms an upper partial field of view.
  • at least one second camera as a ground camera
  • camera data can be recorded in the second partial field of view, which is directed towards the earth's surface and forms a lower partial field of view.
  • first partial field of view can form an upper partial field of view directed towards the sky and the second partial field of view can form a lower partial field of view directed towards the earth's surface.
  • first partial field of view can form an upper partial field of view directed towards the sky and the second partial field of view can form a lower partial field of view directed towards the earth's surface.
  • the reduced number of cameras with a single camera can minimize potential sources of error, for example during data transmission, or due to inaccurate alignment of the cameras and/or due to the calibration of the corresponding cameras.
  • the camera data can be assigned to the upper or lower partial field of view when evaluating the camera data.
  • the camera data of the respective cameras can be easily assigned to the upper partial field of view or the lower partial field of view.
  • the arrangement according to the invention only monitors a small section of the ground, so that the ground camera or the camera which records camera data assigned to the ground can be arranged at a smaller distance from the ground than with conventional ground camera arrangements.
  • the two cameras can be installed at the same location with opposite orientations.
  • camera data associated with the sky can be extracted from the captured camera data, and at least one of the following parameters can be determined from these camera data associated with the sky: a direct irradiance and/or a diffuse radiation and/or a global irradiance and/or at least one position of cloud features and/or areas of the sky covered by clouds and/or from cloud positions WP and/or from the position of cloud features in the camera image between at least two time stamps, an angular velocity of at least one cloud in the camera image can be determined.
  • the shift can be represented by creating difference images di of a color channel of the existing color channels.
  • the difference images di and d2 can be rectified. Rectification here means that the determined values are projected onto a horizontal plane with an unknown height above the camera. This projection results in orthoimages 01 and 02. Image features and their positions are identified from the orthoimages 01 and 02.
  • the orthoimages 01 and 02 can be converted into binary images bi, b2, where, for example, 2% of the pixels are given the value 1 and the remaining 98% of the pixels are given the value 0. These 2% of the pixels have the largest difference in terms of magnitude. This makes it possible to determine strong increases or decreases in this color channel between the points in time to, to+At, to+2At.
  • these binary images can be compared as a whole using cross-correlation, for example, or the images can be compared region by region using a more refined method.
  • the shift Am, An corresponds to the shift for which the cross-correlation between the binary orthoimages 01 and 02 is maximum. This process can be carried out for at least one color channel. Several color channels can also be evaluated in this way. Furthermore, further refinements and suitable adjustments can be made to the process for determining the shift Am, An of the cloud or clouds.
  • image features and their shift Am An can also be determined in other ways, for example using SIFT (scale invariant feature transform) or other machine learning methods.
  • SIFT scale invariant feature transform
  • the speed of the cloud above the ground can be determined from the angular velocity
  • the angle 0 corresponds to the maximum zenith angle up to which the upper spatial partial field of view of at least approximately 180° around the camera arrangement is evaluated.
  • N corresponds to the diameter in pixels of the circular image area which represents the sky area with a zenith angle less than or equal to 0.
  • the angle 0 and the parameter N can be determined from the camera image of the upper partial field of view of at least approximately 180° around the camera arrangement or from the camera data assigned to the sky.
  • v P ix/s corresponds to the determined angular velocity of the cloud.
  • H2 corresponds to the height of the cloud projected over the camera arrangement or over at least one camera of the camera arrangement directed towards the sky. This is not known for known cloud camera arrangements and is determined by measurement data from other measurement arrangements, sometimes at other locations.
  • the basis for determining the direct radiation and/or the diffuse radiation are the intensity values of the RGB channels of at least one camera that monitors the upper partial field of view or areas of the upper partial field of view. These intensity values can be read directly from the corresponding camera.
  • a physical camera model is used to calculate the radiation (radiance) received from a specific area of the sky from the intensity values of the RGB channels of the camera image.
  • physically motivated corrections can be applied to improve the calculation.
  • the physical camera model can be replaced by a purely statistical machine-based learning model.
  • an architecture using a convolutional neural network followed by a fully connected neural network can, with appropriate training, replace or supplement the physical camera model, or imitate or independently adapt it.
  • a gamma correction that is common for cameras can be reversed in order to obtain a linearized RGB image from the RGB image of the respective camera.
  • This step can be omitted if the corresponding camera does not perform gamma correction, so that the gamma correction does not have to be subsequently reversed. This can be the case, for example, if the gamma correction of the corresponding camera is deactivated or the camera does not perform gamma correction for other reasons.
  • a pixel-by-pixel assignment of image areas to sky areas can be made using azimuth and zenith angles (vertical angles). Instead of a pixel-by-pixel assignment, other assignments are also conceivable.
  • a degree of the azimuth angle can be specified from south to west, north and east.
  • a multiplication with a broadband correction can be carried out, which takes into account parts of the broadband solar radiation that come from the non-visible wavelength range. Furthermore, a multiplication with a calibration factor, which takes the sensitivity of the camera into account, is conceivable.
  • corrections can be applied to take into account interference influences on the measurement, such as lens refraction, image saturation, influence of the exposure control of the corresponding camera.
  • applied correction factors such as the broadband correction, the calibration factor, the correction of interference influences, can be partially combined or rewritten.
  • these corrections can be replaced or supplemented by statistically determined corrections, for example via machine-based learning, in particular based on image features.
  • diffuse and/or direct radiation in any horizontal plane or plane inclined to the ground, including a plane facing the ground can be determined from the radiation (radiance) received from different areas of the sky, for example by projection.
  • the assignment of image areas to sky areas and an integration across image areas/sky areas can be used.
  • the global irradiance can also be determined in inclined planes and in planes directed towards the ground.
  • the substeps applying a physical camera model, assigning image areas to sky areas, applying physically motivated corrections, projecting into an arbitrary plane
  • the substeps for determining direct and diffuse radiation in an arbitrary plane can be partially or entirely simulated by a machine learning model.
  • values can be determined that correspond to the sum of diffuse radiation and direct radiation by evaluating the intensities of the RGB channels from the upper part of the field of view or from the camera data assigned to the ground. Extensions would be possible so that separate values for diffuse radiation and direct radiation can be determined.
  • the performance of a solar plant at the location of the arrangement according to the invention can be determined and a solar resource at the location can be assessed.
  • the radiation can only be determined by the at least one camera and its camera data as well as an evaluation and control device. No further sensors or similar are required.
  • knowledge of the cloud-covered areas of the sky in the upper part of the field of view can be used to further assess the radiation detected.
  • diffuse radiation can increase due to clouds and direct radiation can decrease due to clouds.
  • Different weather conditions can result in different radiation conditions at the location.
  • the current and future radiation conditions can be determined at least in part by determining the cloud positions and the speed of the clouds.
  • a radiation reflected at the earth's surface and/or an albedo of the earth's surface and/or at least one cloud shadow position and/or a speed of at least one cloud above the earth's surface can be determined from the recorded camera data of the lower partial field of view or from the camera data assigned to the earth's surface and/or from the cloud shadow positions between at least two time stamps.
  • the speed of a cloud or several clouds above the ground can be determined from the camera images of the lower field of view or from the camera data assigned to the earth's surface.
  • the corresponding evaluation procedure is similar to that for determining the angular velocity of clouds from images of the upper partial field of view or from the camera data assigned to the sky.
  • image features corresponding to the position of at least one cloud shadow and their displacement Am An can also be determined in other ways, for example using SIFT (scale invariant feature transform) or other machine learning methods.
  • the shift can be represented by creating difference images di of a color channel of the existing color channels.
  • the difference images di and d2 can be corrected. Correcting here means that the images are projected using the known height profile of the earth's surface of the monitored area and using geometric calibrations of the camera at ground level below which the camera is projected. Ortho images 01 and 02 result from this projection.
  • Image features and their position are identified from ortho images 01 and 02.
  • the projection height is known here.
  • each image pixel corresponds to a square part of the monitored area.
  • Difference images can be calculated from the orthoimages converted to grayscale. Instead of grayscale, other outputs are also possible.
  • difference images can be converted into binary images. For example, 2% of the pixels can be given the value 1 and the remaining 98% of the pixels can be given the value 0. These 2% of the pixels have the largest difference in terms of magnitude. This allows strong increases or decreases in this color channel between the times t0, t0+At, t0+2At to be determined.
  • these binary images can be compared as a whole using, for example, cross-correlation, or in a more refined procedure, the images can be compared region by region.
  • the shift Am, An of the image pixels corresponds to the shift for which the cross-correlation between the binary orthoimages 01 and 02 is maximum.
  • the shift Am, An of the image pixels can be assigned to a corresponding shift Ax, Ay of the cloud shadows in the monitored area. This process can be carried out for at least one color channel. Several color channels can also be evaluated in this way. Furthermore, further refinements and suitable adjustments can be made to the process for determining the shift Am, An of the image pixels of the cloud shadow or the cloud shadows.
  • the speed of the cloud shadows above the ground also corresponds to the speed of the corresponding cloud above the ground
  • two sky cameras monitoring different upper partial fields of view are advantageously not required to determine the cloud speed above the ground, since the cloud speed can be easily determined from the one lower partial field of view or the camera data assigned to the earth's surface.
  • the evaluation of the lower part of the field of view provides more additional information than the evaluation of a further upper part of the field of view.
  • the use of estimates when calculating the cloud speed can be dispensed with, which means that a reliable and accurate value for the cloud speed above the ground can be calculated.
  • the cloud speed above the ground is understood to mean the speed of the clouds in comparison to imaginary fixed points on the ground. From the determined cloud speed and the current cloud position, a future cloud position and a corresponding change in the global irradiance in a given area can be advantageously determined or predicted.
  • the radiation reflected from the earth's surface and/or the albedo of the earth's surface can also be determined.
  • the determination of the radiation reflected from the earth's surface is similar to the determination of the direct radiation and/or the diffuse radiation.
  • the intensity values of the RGB channels of at least one camera in the lower part of the field of view or the camera data assigned to the earth's surface are evaluated as a basis. These intensity values can be read directly from the corresponding camera or from the camera data assigned to the earth's surface.
  • a physical camera model is used to calculate the radiation received from a specific area of the ground from the intensity values of the RGB channels of the camera image.
  • physically motivated corrections can be applied to improve the calculation.
  • the physical camera model can be replaced by a purely statistical machine-based learning model.
  • an architecture using a convolutional neural network followed by a fully connected neural network can, with suitable training, replace or supplement the camera model or imitate it or adapt it independently.
  • a gamma correction that is common for cameras can be reversed in order to obtain a linearized RGB image from the RGB image of the respective camera.
  • This step can be omitted if the corresponding camera does not perform gamma correction, so that the gamma correction does not have to be subsequently reversed. This can be the case, for example, if the gamma correction of the corresponding camera is deactivated or the camera does not perform gamma correction for other reasons.
  • image areas can be assigned pixel by pixel to ground areas using the known elevation profile of the earth's surface in the monitored area.
  • Each image pixel can correspond to a square part of the monitored area.
  • the pixel-by-pixel assignment of image areas to ground areas can be adopted from the cloud velocity determination.
  • other assignments are also conceivable.
  • geometric calibrations of the corresponding camera and transformations based on them can be applied.
  • an assignment without the use of calibrations is conceivable.
  • the calibrations and transformations based on them can be implemented as a machine-based learning model and continuously improved.
  • the intensities of the color channels of the linearized RGB image can be weighted and summed.
  • the weighting can achieve the most uniform possible sensitivity of the corresponding camera in the visible wavelength range.
  • a multiplication with a broadband correction can be carried out, which takes into account parts of the broadband solar radiation that come from the non-visible wavelength range. Furthermore, a multiplication with a calibration factor, which takes the sensitivity of the camera into account, is conceivable.
  • At least one correction to take into account interferences on the measurement, such as lens refraction, image saturation, influence of the exposure control of the corresponding camera.
  • applied correction factors such as the broadband correction, the calibration factor, the correction of interferences, can be partially combined or rewritten.
  • corrections can be replaced or supplemented by statistically determined corrections, for example via machine-based learning, in particular based on image features.
  • the radiation incident on a plane and reflected by the ground can also be determined for inclined planes and for planes directed towards the ground, if required.
  • the substeps for determining the radiation reflected on the ground for example the application of a physical camera model and/or the assignment of image areas to sky areas and/or the application of physically motivated corrections and/or the projection into an arbitrary plane, can be partially or entirely imitated by a machine learning model.
  • the current albedo of the ground or a more detailed reflectance of the ground can be derived from the determined reflected radiation and the determined direct radiation and the determined diffuse radiation.
  • the reflectance or albedo of the ground and/or the reflected radiation and/or direct radiation and/or diffuse radiation can be specified with angular resolution and spectral resolution.
  • the global and diffuse irradiance in any inclined plane can be calculated from the radiation from the various areas of the sky and from the angularly and spectrally resolved reflectance of the ground or the albedo.
  • the radiation on the back of the module can be calculated individually for each module, taking into account the typically complex geometry of the power plants.
  • This setup can be further supported by combining it with a pyranometer.
  • the reflectance corresponds to the degree of reflection of the surface.
  • the degree of reflection indicates the ratio of the radiant power reflected from a surface to the radiant power hitting the surface.
  • An angle-resolved reflectance is understood to be information in the sense of a bidirectional reflection distribution function or quantities derivable from it, such as a detailed composition of the albedo, in particular a black-sky albedo and a white-sky albedo.
  • Spectrally resolved reflectance is the ratio of the radiant power reflected from a surface at a specific wavelength or in a specific wavelength range and the radiant power hitting the surface at this specific wavelength or in this wavelength range.
  • the camera data from the lower field of view can be used to advantageously monitor contamination or damage to a photovoltaic system and other solar collectors in order to arrange for cleaning or repairs if necessary.
  • the performance of a solar plant at the location of the arrangement according to the invention can be determined and a solar resource at the location can be assessed.
  • the radiation can only be determined by the at least one camera and its camera data.
  • a height of the clouds can be determined from the speed of at least one cloud above the earth's surface and the angular velocity of at least one cloud in the camera image.
  • the calculation of the cloud speed above the ground can be done in the upper partial field of view of at least approximately 180° around the camera arrangement based on the angular velocity v p(-x / s :
  • the angle 0 corresponds to the maximum zenith angle up to which the upper partial field of view of at least approximately 180° around the camera arrangement is evaluated.
  • N corresponds to the diameter in pixels of the circular image area, which represents the area of the sky with a zenith angle less than or equal to 0.
  • the angle 0 and the parameter N can be determined from the camera image of the upper partial field of view of at least approximately 180° around the camera arrangement.
  • v m /s corresponds to the determined speed of the cloud above the ground and
  • v P ix/s corresponds to the determined angular velocity of the cloud.
  • H2 corresponds to the height of the cloud projected via the camera arrangement or above the at least one camera of the camera arrangement aimed at the sky. Since the distance of the at least one camera from the ground is known, the actual height of the cloud above the ground at its current position can be calculated from the known height profile of the monitored area, the current cloud position and the height of the cloud projected via the camera. The calculations can be refined.
  • a future cloud position can be determined using the height of the clouds, the current position of the clouds and the speed of the clouds above the earth's surface. From this, future shading or future global irradiance in a given area can be estimated or calculated and thus predicted.
  • This advantageously makes it possible to create more accurate short-term forecasts of solar radiation with only one camera arrangement at the same location, with at least one camera installed just a few meters above the ground. This advantageously makes it possible to react early to shading or an expected fluctuation in the performance of the solar system.
  • the camera data can advantageously be determined at a common location, which makes maintenance and operation of the arrangement according to the invention easier and more cost-effective.
  • the speed of clouds above the earth's surface and the angular velocity of clouds in the camera image can be extrapolated temporally and/or spatially.
  • both the angular velocity of clouds in the camera image and the speed of clouds above the earth's surface can be averaged and/or extrapolated over time and space in order to obtain greater temporal and spatial coverage.
  • This advantageously also makes it possible to determine the cloud height and cloud speed of clouds whose shadows are not (yet) recorded in the lower partial field of view of at least approximately 180° around the camera arrangement.
  • the temporal and spatial extrapolation can compensate for the fact that the lower field of view records a small section and therefore fewer cloud shadows than clouds are recorded in the upper partial field of view.
  • the temporal and spatial extrapolation does not necessarily require the data of one cloud and its shadow to be used for the evaluation.
  • the shadows of other clouds can also be used to determine the cloud height of a cloud recorded in the upper partial field of view of at least approximately 180° around the camera arrangement. This evaluation is less accurate than if the camera data of one cloud and its shadow are used for the evaluation. However, it is possible to continuously determine the cloud heights. In known systems, such as lidar systems or ceilometer systems, cloud heights are only determined at specific points.
  • At least one current and/or future value of at least one component of the global irradiance can be determined spectrally and/or angularly resolved from the camera data and/or the determined parameters.
  • angle-resolved radiation information in particular the radiance, can be weighted and integrated according to a projection into the plane of interest.
  • the angle-resolved information itself can also be of interest to a user, so that weighting and integration can then be omitted.
  • the current and/or future albedo of the earth's surface can be determined by an angle-resolved recording of at least one component of the global irradiance.
  • a current and/or future irradiance of radiation striking a plane with a known inclination to the earth's surface, for example the back of a bifacial photovoltaic module can advantageously be determined. Additional support from a pyranometer or another suitable sensor is possible.
  • no further sensors such as pyranometers, are required to resolve irradiances of the components of the global irradiance spectrally and/or angularly resolved or to determine irradiances on planes inclined to the earth's surface.
  • the at least one component of the global irradiance can be determined on an inclined surface, in particular on an arbitrarily oriented surface. This advantageously makes it possible to determine an optimal angle of inclination of solar modules, including bifacial photovoltaic modules. Alternatively or additionally, a current and/or expected output can be determined for known angles of inclination of solar modules, including bifacial photovoltaic modules.
  • a method for determining at least one parameter for determining at least one component of a global irradiance is proposed, wherein camera data are recorded at a common location in a field of view of at least approximately 360° around a camera arrangement. Information on solar radiation and/or on the position and/or properties of clouds is derived from the camera data.
  • the method may be a computer-implemented method.
  • evaluation steps of the method essentially correspond to the evaluation steps of the application of the device, a repetition is also omitted below and for the details of the method steps reference is made to the description of the use of the arrangement.
  • a further evaluation is also possible with evaluation results with other time stamps or with evaluation results from a different color channel.
  • evaluation results of the upper partial field of view of at least approximately 180° around the camera arrangement or of the camera data assigned to the sky and evaluation results of the lower partial field of view of at least approximately 180° around the camera arrangement or of the camera data assigned to the earth's surface can be advantageously combined with one another.
  • the advantages of an arrangement with a sky camera directed towards the sky also known as a cloud camera
  • the advantages of an arrangement with a ground camera directed towards the ground also known as a shadow camera
  • the disadvantages of the sky camera and the cloud camera can be compensated.
  • the camera data assigned to the respective partial field of view is evaluated.
  • the camera data of the respective partial fields of view are advantageously recorded at a common location, in particular at the same time.
  • Image features of one or more color channels of the respective partial field of view which are caused by clouds and cloud shadows and/or by radiation incident on the at least one lens of the at least one camera, can be evaluated.
  • the intensity values of one or more color channels of the respective partial field of view can be evaluated.
  • the evaluation results of individual color channels can be compared with evaluation results of other color channels or evaluation results with other time stamps.
  • a camera arrangement with at least an approximately 360° spatial field of view can be sufficient to capture enough camera data to reliably record and/or predict desired parameters. This means that there is no need to evaluate camera data from other cameras at other locations or to evaluate measurement data from other sensor units, which can reduce costs and the effort required for evaluation.
  • An advantage of evaluating the camera data from an upper partial field of view is that a large section of the sky can be captured and monitored; in particular, clouds can be detected and forecasts made long before their shadows arrive in the monitored area.
  • An advantage of evaluating the camera data of a lower partial field of view or the camera data assigned to the earth's surface is that some parameters, such as cloud speed above the earth's surface, can be precisely and directly obtained from these camera data.
  • the section of the ground that can be monitored and captured depends, among other things, on the height at which the at least one camera that captures the lower partial field of view is arranged.
  • a prediction can be determined using camera data from the upper part of the field of view or camera data associated with the sky, whereby a large section of the ground is not necessarily required to monitor the ground, so that the camera arrangement can be arranged at a lower height above the ground, in contrast to known shadow camera arrangements.
  • the field of view of the camera arrangement at a predetermined location can be made up of a first partial field of view and a second partial field of view, each of at least approximately 180° around the camera arrangement.
  • camera data in the first partial field of view can be recorded with at least one first camera and camera data in the second partial field of view can be recorded with at least one second camera, with the two partial fields of view of the cameras complementing each other to form a field of view of at least approximately 360°.
  • the at least one first camera as a sky camera can capture camera data in the first partial field of view, which is directed towards the sky and forms an upper partial field of view.
  • the at least one second camera as a ground camera can capture camera data in the second partial field of view, which is directed towards the earth's surface and forms a lower partial field of view.
  • camera data can be captured in the first partial field of view and camera data KDE can be captured in the partial field of view.
  • the first partial field of view can form an upper partial field of view oriented towards the sky and the second partial field of view can form a lower partial field of view oriented towards the earth's surface.
  • the camera data of the respective cameras can advantageously be easily assigned to the upper partial field of view or the lower partial field of view.
  • the method according to the invention can reduce the cost of purchasing and operating hardware, since the advantages of a cloud camera arrangement and a shadow camera arrangement can be combined with one another.
  • camera data associated with the sky can be extracted from the captured camera data and at least one of the following parameters can be determined from these camera data associated with the sky: a direct radiation and/or a diffuse radiation and/or a global irradiance and/or areas of the sky covered by clouds and/or at least one cloud position and/or from cloud positions and/or from the position of cloud features in the camera image between at least two time stamps, an angular velocity of at least one cloud in the camera image can be determined.
  • a performance of a solar plant at the location of the arrangement according to the invention can be determined and a solar resource at the location can be assessed. Radiation can be determined based only on camera data, without additional measurement data from sensors.
  • Knowledge of the areas of the sky covered by clouds in the upper part of the field of view can be used to further assess the radiation determined. For example, diffuse radiation can increase due to clouds, and direct radiation can decrease due to clouds. Different weather conditions can lead to different radiation conditions at the location.
  • the current and future radiation conditions can be at least partially determined by determining the cloud positions and the speed of the clouds.
  • camera data associated with the earth's surface can be extracted from the recorded camera data and at least one of the following parameters can be determined from these camera data associated with the earth's surface: a radiation reflected at the earth's surface and/or an albedo of the earth's surface and/or at least one cloud shadow position and/or from the cloud shadow positions between at least two time stamps, a speed of at least one cloud above the earth's surface.
  • the speed of a cloud or of several clouds above the ground can be determined in the method according to the invention from the camera images of the lower partial field of view or from the camera data assigned to the earth's surface.
  • the corresponding evaluation procedure is similar to that for determining the angular velocity of clouds from images of the upper partial field of view or from the camera data assigned to the sky.
  • image features corresponding to the position of at least one cloud shadow and their displacement Am An can also be determined in other ways, for example using SIFT (scale invariant feature transform) or other machine learning methods.
  • SIFT scale invariant feature transform
  • the performance of a solar plant at the location of the arrangement according to the invention can be determined and a solar resource at the location can be assessed.
  • the radiation can only be determined by the at least one camera and its camera data.
  • a height of the clouds can be determined from the speed of at least one cloud above the earth's surface and the angular velocity of at least one cloud in the camera image.
  • a future cloud position can be determined using the height of the clouds, the current position of the clouds and the speed of the clouds above the earth's surface. From this, future shading or future global irradiance in a given area can be estimated or calculated.
  • the speed of clouds above the earth's surface and the angular velocity of clouds in the camera image can be extrapolated temporally and spatially.
  • both the angular velocity of clouds in the camera image and the speed of clouds above the earth's surface can be averaged and/or extrapolated over time and space in order to obtain greater temporal and spatial coverage. This also makes it possible to determine the cloud height and cloud speed of clouds whose shadows are not (yet) captured in the lower field of view.
  • At least one current and/or future value of at least one component of the global radiation intensity can be determined spectrally and/or angularly resolved from the camera data and/or the determined parameters.
  • angle-resolved radiation information in particular the radiance, can be weighted and integrated according to a projection into the plane of interest.
  • the angle-resolved information itself can also be of interest to a user, so that weighting and integration can then be omitted.
  • the current and/or future albedo of the earth's surface can be determined by an angle-resolved recording of at least one component of the global radiation.
  • a current and/or future irradiance of radiation striking a plane with a known inclination to the earth's surface, for example the back of a bifacial photovoltaic module can be advantageously determined. Additional support from a pyranometer or another suitable sensor is possible.
  • no additional sensors, such as pyranometers are required to spectrally and/or angularly resolve irradiances of the components of global radiation or to determine irradiances on planes inclined to the Earth's surface.
  • the at least one component of the global irradiance can be determined on an inclined surface. This advantageously allows an optimal angle of inclination of solar modules, including bifacial photovoltaic modules, to be determined. Alternatively or additionally, a current and/or expected output can be determined for known angles of inclination of solar modules, including bifacial photovoltaic modules.
  • the arrangement according to the invention, the use of the arrangement according to the invention and the method according to the invention can be used to predict the global radiation intensity and/or to predict components of the global radiation intensity at certain areas of the earth's surface based on the cloud position and the inclination of the surface onto which the global radiation intensity impinges.
  • the arrangement according to the invention, the use of the arrangement according to the invention and the method according to the invention can therefore be used to create very short-term forecasts of solar radiation.
  • the arrangement according to the invention, the use of the arrangement according to the invention and the method according to the invention can also provide input data for numerical weather models or for combined forecast models using satellite data by monitoring cloud cover and can therefore be of interest to private and public weather services.
  • the arrangement according to the invention, the use of the arrangement according to the invention and the method according to the invention can also help to monitor the airspace, e.g. over airports, more cost-effectively and more completely by monitoring cloud cover and the height of clouds.
  • a computer program or a computer program product comprising instructions which cause a device according to the invention to carry out a method according to the invention for determining at least one parameter for determining at least one component of a global irradiance Gl.
  • a computer program or a computer program product comprising instructions which, when the computer program is executed by a computer, cause the computer to carry out a method for determining at least one parameter for determining at least one component of a global irradiance Gl, comprising capturing camera data KDH, KDE from a camera arrangement in an at least approximately spherical field of view around the camera arrangement, deriving information on solar radiation and/or on the position and/or properties of clouds from the camera data KDH, KDE.
  • Examples include:
  • Fig. 1 is a schematic representation of an arrangement for detecting and/or predicting at least one parameter for determining and/or predicting at least one component of a global irradiance;
  • Fig. 2 is a schematic representation of an arrangement for detecting and/or predicting at least one parameter for determining and/or predicting at least one component of a global irradiance
  • Fig. 3 is a schematic representation of a use of an arrangement from Figure 1 or Figure 2 and a schematic representation of a method for detecting and/or predicting at least one parameter for determining and/or predicting at least one component of a global irradiance.
  • Figures 1 and 2 show a schematic representation of an arrangement 100 according to the invention for detecting and/or predicting at least one parameter for determining and/or predicting at least one component of a global irradiance Eq.
  • the arrangement 100 comprises at least one evaluation and control device 110 and a camera arrangement 120 with at least one camera 122, 124 and a holding arrangement 126.
  • the arrangement 100 comprises a single evaluation and control device 110.
  • the arrangement 100 can have more than one evaluation and control device 110.
  • the evaluation and control device 110 is connected wirelessly to the existing cameras 122, 124. A data connection via a cable is also conceivable.
  • the arrangement 100 has a common axis 30 and a horizontal axis 40.
  • the camera arrangement 120 is arranged along the common axis 30.
  • the camera arrangement 120 has a center point 50 which is arranged on the common axis 30.
  • the common axis 30 is here aligned essentially in the vertical direction and forms an essentially vertical axis 31 ( Figure 1) or is tilted at a tilt angle to the vertical direction and forms an oblique axis 33 ( Figure 2).
  • the arrangement 100 comprises two cameras 122, 124 which are installed at the same location with opposite orientations.
  • the two cameras 122, 124 are arranged on the common axis 30, essentially vertical axis 31 or oblique axis 33.
  • the camera 122 and the camera 124 have the common axis 30 as a common axis 30, essentially vertical axis 31 or oblique axis 33.
  • the arrangement 100 can have more than two cameras 122, 124 at the same location or just one camera 122, 124.
  • the one camera 122, 124 has two sensors (not shown).
  • the sensors are arranged along the common axis 30.
  • the sensors point in opposite directions along the common axis 30, with a first sensor pointing upward and a second sensor pointing downward on the common axis 30, which is oriented substantially vertically or obliquely.
  • the cameras 122 and 124 may be arranged on two axes, rather than along a common axis 30, which axes extend substantially parallel to one another at a short distance, in particular at a distance of no more than about 10 m.
  • the spatial field of view of at least approximately 360° around the camera arrangement 120 is composed of a spatial first partial field of view and a spatial second partial field of view of at least approximately 180° each around the camera arrangement 120, which are arranged along the common axis 30.
  • the common axis 30 is in particular aligned substantially in a vertical direction 31 and forms the vertical axis 31 or aligned with a tilt angle to the vertical direction 31 and forms the oblique axis 33.
  • the arrangement can have two axes, wherein one of the cameras 122, 124 is arranged on one axis and the other of the cameras 122, 124 is arranged on the other axis, wherein the partial fields of view are arranged along the two axes and wherein the two axes are arranged substantially parallel and at a small distance from one another, in particular at a distance of at most about 10 m.
  • the holding arrangement 126 fixes the two cameras 122, 124 at a predetermined distance A from an earth surface 20.
  • the holding arrangement 126 is L-shaped, but other designs are also possible. For example, a drone that holds the cameras is also conceivable.
  • the holding arrangement fixes the camera 122, 124 in such a way that the camera 122, 124 is arranged along the common axis 30.
  • the camera arrangement 120 is designed to capture camera data KDH, KDE in a spatial field of view of at least approximately 360° around the camera arrangement 120.
  • the spatial field of view of at least approximately 360° extends along the common, substantially vertical axis 31 or oblique axis 33 and has two fields of view aligned along the common axis 30 and pointing in opposite directions.
  • a first field of view is directed upwards and the second field of view is directed downwards along the common axis 30.
  • the camera data KDH, KDE are suitable for deriving information on solar radiation and/or position WP and/or properties of clouds 12.
  • the field of view of the camera arrangement 120 at a given location is made up of an upper partial field of view of at least approximately 180° around the camera arrangement, directed towards the sky 10, and a lower partial field of view of at least approximately 180° around the camera arrangement 120, directed towards the earth's surface 20. More than two partial fields of view are also conceivable. Furthermore, a different orientation of the partial fields of view is feasible.
  • a field of view of at least approximately 360° around the camera arrangement 120 is understood to mean an at least approximately spherical field of view around a center point 50.
  • the two cameras 122, 124 are arranged at this center point 50.
  • the two cameras 122, 124 are arranged here along the common axis 30, wherein the common axis is aligned substantially vertically and can form a substantially vertical axis or is tilted at a tilt angle to the vertical axis and forms an oblique axis.
  • the center point 50 is formed from an intersection point of the common axis 30 with the horizontal axis 40.
  • the at least one camera 122, 124 can be understood as an RGB camera or an infrared camera.
  • the cameras 122, 124 are designed as RGB cameras with fisheye lenses.
  • other structures with parabolic mirrors are also conceivable instead of cameras with fisheye lenses.
  • the at least one camera 122, 124 can, for example, record 24 images per second, which can be provided with a corresponding time stamp. Other image generation rates can also be selected. In addition, extended structures with, for example, shading devices are conceivable in order to reduce the disruptive influence of direct sunlight.
  • the arrangement 100 comprises at least one sky camera 122, which captures camera data KDH in the upper partial field of view associated with the sky of at least approximately 180° around the camera arrangement 120. Furthermore, in the illustrated embodiment, the arrangement 100 comprises at least one ground camera 124, which captures camera data KDE in the lower partial field of view associated with the earth's surface 20 of at least approximately 180° around the camera arrangement 120.
  • the upper partial field of view and the lower partial field of view extend along the common axis 30.
  • the evaluation and control device 110 determines at least one of the following parameters from the recorded camera data KDH of the upper partial field of view of at least approximately 180° around the camera arrangement:
  • Cloud features are image features of the captured images that can be assigned to a cloud 12 and/or a cloud formation.
  • the evaluation and control device 110 determines at least one of the following parameters from the recorded camera data KDE of the lower partial field of view of at least approximately 180° around the camera arrangement: (i) radiation reflected from the earth’s surface 20 ERS and/or
  • the evaluation and control device 110 determines the radiation from each area of the spatial field of view of at least approximately 360° from intensity values I of the RGB channels in the recorded camera images.
  • the albedo AL of the ground 20 or a more detailed reflectance of the ground 20 is derived.
  • the corresponding camera 122, 124 records image sequences at short intervals as camera data KDH, KDE. In the image sequences, the shift of image features between the recording times is determined. From this, the movement of a cloud 12 in the sky 10 can be determined. At the same time, the movement of the associated cloud shadow 22 on the ground 20 can be determined.
  • the at least one evaluation and control device 110 determines a height H1, H2 of the clouds 12 from the speed v m/s of at least one cloud 12 above the earth's surface 20 and the angular velocity v pix/s of at least one cloud 12 in the camera image.
  • H1 corresponds to the distance between the cloud 12 and the ground opposite it 20.
  • H2 corresponds to the distance between the upwardly directed camera 122 and a height of the cloud 12 projected over the upwardly directed camera 122.
  • H2 can be determined from the speed of the clouds v m/ .
  • H1 can be determined from the known distance A of the camera 122, 124 to the ground 20 and a known height profile of the area to be monitored.
  • the evaluation and control device 110 uses the height H1, H2 of the clouds 12 and the cloud speed v m/s above the earth's surface 20 to determine a future cloud position WP and from this a future shading or a future global irradiance Gl of a given horizontal or inclined region.
  • At least one evaluation and control device 110 extrapolates the speed v m/s of clouds 12 above the earth's surface 20 and the angular speed v pix/s of clouds 12 in the camera image in time and space.
  • only speeds v m/s , v P ix/s of the clouds 12 can be determined whose cloud shadow 22 is captured by the lower partial field of view of at least approximately 180° around the camera arrangement.
  • the at least one evaluation and control device 110 determines from the camera data KDH, KDE and/or the determined parameters at least one current and/or future value of at least one component of the global irradiance Gl in a spectral and/or angularly resolved manner.
  • At least one evaluation and control device 110 determines the at least one component of the global irradiance Gl on an inclined surface.
  • Figure 3 shows a schematic representation of a use of an arrangement from Figure 1 or Figure 2 and a schematic representation of a method 200 for detecting and/or predicting at least one parameter for determining and/or predicting at least one component of a global irradiance Eq.
  • camera data KDH, KDE are recorded at a common location in a spatial field of view of at least approximately 360° around a camera arrangement 120.
  • Information on solar radiation and/or position WP and/or properties of clouds 12 are derived from the camera data KDH, KDE.
  • the spatial field of view of at least approximately 360° around the camera arrangement is composed of an upper partial field of view of at least approximately 180° around the camera arrangement 120 directed towards the sky 10 and a lower partial field of view of at least approximately 180° around the camera arrangement 120 directed towards the earth's surface 20.
  • camera data KDH are recorded in an upper partial field of view of at least approximately 180° around the camera arrangement assigned to the sky 10 using at least one sky camera 122.
  • camera data KDE are recorded in a lower partial field of view of at least approximately 180° around the camera arrangement assigned to an earth's surface 20 using at least one ground camera 124.
  • Method steps S212 and S214 can be carried out simultaneously or at different times.
  • camera data KDE, KDH can first be assigned to the earth's surface and the sky 10. This step is omitted in the exemplary embodiment shown because the upper field of view and the lower field of view enable the camera data to be clearly assigned.
  • KDH of the upper field of view of at least approximately 180° around the camera arrangement is determined from the recorded camera data:
  • step S224 the acquired camera data KDE of the lower field of view of at least approximately 180° around the camera arrangement are used:
  • a speed v m/s of at least one cloud 12 above the earth's surface 20 is determined from the cloud shadow positions SP between at least two time stamps.
  • intensity values I of at least one color channel of the corresponding camera 122, 124 are evaluated.
  • the global irradiance Gl is calculated from the components Diffl, DNI, ERS of the global irradiance Gl determined in method steps S222 and S224. At least one component Diffl, DNI, ERS of the global irradiance Gl can also be determined on an inclined surface inclined to the earth's surface 20.
  • a height H1, H2 of the clouds 12 is determined from the speed v m/ , of at least one cloud 12 above the earth's surface 20 and the angular velocity v pix/s of at least one cloud 12 in the camera image.
  • the velocity v m/s of clouds 12 above the earth's surface 20 and the angular velocity v pix/s of clouds 12 in the camera image can be extrapolated temporally and spatially.
  • a future cloud position WP can be determined using the height H1, H2 of the clouds 12 and the cloud speed v m/s above the earth's surface 20 and from this a future shading and/or the future global irradiance Gl of a given area can be determined as a forecast.
  • the current and/or future values of the components Diffl, DNI, ERS of the global irradiance Gl determined in process steps S222 and S224 can be determined from the camera data KDH, KDE and/or the determined parameters at least spectrally and/or angularly resolved.
  • the method 200 is carried out in a computer program which comprises instructions which cause a device 100 for determining at least one parameter for determining at least one component of a global irradiance Gl to be carried out.
  • the computer program can be part of a computer program product.
  • the computer program or computer program product comprises instructions which, when the computer program is executed by a computer, cause the computer to carry out the method 200 for determining at least one parameter for determining at least one component of a global irradiance Gl, wherein the following steps are carried out:

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Studio Devices (AREA)
  • Photometry And Measurement Of Optical Pulse Characteristics (AREA)

Abstract

Die Erfindung betrifft eine Anordnung (100) zur Ermittlung wenigstens eines Parameters zur Bestimmung von Komponenten einer globalen Bestrahlungsstärke, welche eine Auswerte- und Steuereinrichtung (110) sowie eine Kameraanordnung (120) mit wenigstens einer Kamera umfasst, wobei die wenigstens eine Kamera wenigstens bei der Ermittlung des Parameters mit einem vorgegebenen Abstand zu einer Erdoberfläche (20) fixiert ist, wobei die Kameraanordnung (120) ausgebildet ist, Kameradaten in einem räumlichen Sichtfeld von annähernd 360° um die Kameraanordnung (120) zu erfassen, wobei die Kameradaten geeignet sind, Informationen zur Solarstrahlung und/oder zur Position und/oder zu Eigenschaften von Wolken (12) abzuleiten. Die Erfindung betrifft ferner eine Verwendung einer derartigen Anordnung, ein Verfahren zur Ermittlung wenigstens eines Parameters zur Bestimmung wenigstens einer Komponente einer globalen Bestrahlungsstärke sowie ein Computerprogramm.

Description

Beschreibung
Titel
Anordnung, Verwendung einer Anordnung und Verfahren zur Ermittlung wenigstens eines Parameters
Stand der Technik
Die Erfindung betrifft eine Anordnung zur Ermittlung wenigstens eines Parameters zur Bestimmung wenigstens einer Komponente einer globalen Bestrahlungsstärke, eine Verwendung einer Anordnung zur Ermittlung wenigstens eines Parameters zur Bestimmung wenigstens einer Komponente einer globalen Bestrahlungsstärke und ein Verfahren zur Ermittlung wenigstens eines Parameters zur Bestimmung wenigstens einer Komponente einer globalen Bestrahlungsstärke.
Wolkenkameras und Schattenkameras sowie korrespondierende Anordnungen und deren Anwendung sind unter anderem aus dem Artikel Kuhn, P. et al. "Benchmarking three low-cost, low-maintenance cloud height measurement systems and ECMWF cloud heights against a ceilometer", Solar Energy, Vol. 168, 2018, S. 140-152, DOI:
10.1016/j.solener.2018.02.050 bekannt. Darin ist eine Anordnung mit mehreren Kameras beschrieben, bei der eine Kamera ein in den Himmel gerichtetes Blickfeld aufweist und in der Lage ist, Kameradaten des Himmels aufzunehmen. Eine mehrere hundert Meter davon entfernt dazu angeordnete Schattenkamera kann Kameradaten der Erde aufnehmen. Hierbei können Wolkenkameraanordnungen zur automatisierten Erkennung eines Bedeckungsgrades eines Himmels und zur Erstellung von Kürzestfrist-Vorhersagen der Solarstrahlung z.B. zum effizienteren Betrieb von Stromversorgungs-Systemen bestehend aus Solaranlagen und Diesel- Aggregaten oder Batteriespeichern verwendet werden.
Diese Wolkenkamerabasierten Vorhersagesysteme erkennen in der Regel Wolken in den Kamerabildern. Durch die Daten wenigstens einer zweiten Wolkenkamera, kann die Höhe und Geschwindigkeit der Wolken und daher die zukünftige Position der Wolken bestimmt werden. Aus der Wolkenposition kann eine Vorhersage für die Beschattung bestimmter Gebiete gemacht werden.
Schattenkameraanordnungen sind üblicherweise an hohen Türmen oder Bergrücken mit Blick auf das überwachte Gebiet installiert. Durch Schattenkameras können hochauflösende Karten von Solarstrahlung um den Punkt der Installation der Schattenkameras erstellt werden. Dabei werden Schattenkameras mit einem eher engen Blickwinkel verwendet. Durch den Vergleich der Position von Wolkenschatten in Bildern zwischen verschiedenen Zeitstempeln, können diese Systeme die Geschwindigkeit von Wolken über dem Erdboden bestimmen.
Monitoring-Systeme für Solarkraftwerke bzw. Messsysteme zur Bestimmung der solaren Ressource am geplanten Standort eines Solarkraftwerks sind häufig mit zum Himmel gerichteten Pyranometern und in manchen Fällen zusätzlich mit zum Erdboden gerichteten Pyranometern ausgestattet, um jeweils die vom Himmel stammende beziehungsweise die vom Erdboden reflektierte Strahlung zu messen. Diese Messungen werden verwendet, um die Performance eines Solarkraftwerks auszuwerten beziehungsweise um die solare Ressource am Standort zu beurteilen. Ferner ist aus der Veröffentlichung von „Shadow camera system for the generation of solar irradiance maps”, Solar Energy, 157, 2017, 157-170. DOI: 10.1016/j.solener.2017.05.074 eine Anordnung mit mehreren Kameras offenbart, wobei die Kameraanordnung bestehend aus sechs Kameras Bilder des Bodens von einem hohen Turm aus aufnimmt.
Offenbarung der Erfindung
Die Aufgabe der Erfindung ist es, eine kostengünstige Anordnung zur Ermittlung wenigstens eines Parameters zur Bestimmung wenigstens einer Komponente einer globalen Bestrahlungsstärke bereitzustellen, wobei sich der Messaufbau an einem Ort befindet.
Eine weitere Aufgabe der Erfindung ist es, eine Verwendung einer solchen Anordnung zur Ermittlung wenigstens eines Parameters zur Bestimmung wenigstens einer Komponente einer globalen Bestrahlungsstärke bereitzustellen, welche einen oder mehrere Parameter kostengünstig und/oder zuverlässig ermittelt.
Eine weitere Aufgabe der Erfindung ist es, ein Verfahren zur Ermittlung wenigstens eines Parameters zur Bestimmung wenigstens einer Komponente einer globalen Bestrahlungsstärke bereitzustellen, welches den wenigstens einen Parameter kostengünstig und/oder zuverlässig ermittelt.
Diese Aufgaben werden durch die Merkmale der unabhängigen Ansprüche gelöst. Günstige Ausgestaltungen und Vorteile der Erfindung ergeben sich aus den weiteren Ansprüchen, der Beschreibung und der Zeichnung. Es folgen Begriffsdefinitionen, welche für die erfindungsgemäße Anordnung zur Ermittlung wenigstens eines Parameters zur Bestimmung wenigstens einer Komponente einer globalen Bestrahlungsstärke, die erfindungsgemäße Verwendung der Anordnung und das erfindungsgemäße Verfahren zur Ermittlung wenigstens eines Parameters gelten.
Unter einer Auswerte- und Steuereinrichtung wird im Folgenden eine physische Baugruppe oder eine logische Gruppe von zusammenwirkenden Hardware- und/oder Softwarekomponenten oder ein Prozessor verstanden. Die Auswerte- und Steuereinrichtung umfasst hierbei wenigstens einen Signaleingang zum Empfangen von Kameradaten und wenigstens einen Signalausgang zum Ausgeben von Messergebnissen und/oder Kameradaten.
Wenigstens eine Recheneinheit kann durch eine entsprechende Programmierung die empfangen Kameradaten auswerten und den wenigstens einen Parameter und/oder andere Messergebnisse berechnen. Hierbei können mehrere Recheneinheiten vorgesehen sein, welche jeweils einzelne oder mehrere Verfahrensschritte und/oder einzelne oder mehrere Auswertungsschritte ausführen. Zusätzlich oder alternativ können mehrere Recheneinheiten zum Ermitteln oder Bestimmen eines oder mehrerer Parameter vorgesehen sein. Diese Recheneinheiten oder weitere Recheneinheiten können eine oder mehrere Komponenten der globalen Bestrahlungsstärke bestimmen. Die Berechnungen und/oder Bestimmungen und/oder Ermittlungen können zentral an einem Ort erfolgen oder dezentral an verschiedenen Orten erfolgen. Wenigstens eine Speichereinheit kann Zwischenergebnisse und/oder Endergebnisse und/oder ermittelte Werte der Parameter und/oder wenigstens eine Komponente der globalen Bestrahlungsstärke speichern. Die Kameradaten können über ein Kabel oder kabellos zum Signaleingang oder vom Signalausgang versendet werden. Bei der erfindungsgemäßen Anordnung und der erfindungsgemäßen Verwendung der Anordnung kann eine Auswerte- und Steuereinrichtung oder können mehrere Auswerte- und Steuereinrichtungen an der Auswertung und Berechnung beteiligt sein. Die Auswertung kann zusätzlich oder alternativ zumindest teilweise auf einem Server implementiert sein. Die Auswertung kann vorteilhaft mit einem entsprochenen Computerprogramm durchgeführt werden, das zur Durchführung der Berechnungsschritte ausgebildet ist. Ebenso kann ein Computerprogrammprodukt vorgesehen sein, auf dem ein Computerprogramm gespeichert ist, das zur Durchführung der Berechnungsschritte ausgebildet ist.
Die Auswerte- und Steuereinrichtung kann als physische Baugruppe verstanden werden. Die Auswerte- und Steuereinrichtung könnte aber auch einfach auf einem Server implementiert werden. Dann ist diese Baugruppe ein Computerprogramm und nicht physisch vorhanden. Die Auswerte- und Steuereinrichtung kann Daten aus einer Cloud entnehmen oder in einer Cloud speichern.
Unter einer Kameraanordnung kann im Folgenden eine Kameraanordnung verstanden werden, welche eine Kamera umfasst, welche ein räumliches Sichtfeld von 360° oder zumindest annähernd 360° um die Kameraanordnung erfasst. Alternativ kann die Kameraanordnung mehrere Kameras umfassen, welche zusammen das räumliche Sichtfeld von zumindest annähernd 360° um die Kameraanordnung erfassen. Die Kameraanordnung kann eine erste Kamera und eine zweite Kamera aufweisen. Günstigerweise setzt sich das räumliche Sichtfeld von zumindest annähernd 360° um die Kameraanordnung aus einem räumlichen ersten Teilsichtfeld und einem räumlichen zweiten Teilsichtfeld von jeweils 180° oder zumindest annähernd 180° um die Kameraanordnung zusammen. Die Teilsichtfelder können entlang einer gemeinsamen Achse angeordnet sein, insbesondere kann die gemeinsame Achse im Wesentlichen in einer vertikalen Richtung ausgerichtet sein, oder die gemeinsame Achse kann mit einem Kippwinkel zu der vertikalen Richtung ausgerichtet sein.
Das räumliche Sichtfeld von zumindest annähernd 360° kann günstigerweise ein dreidimensionales Sichtfeld sein. Das räumliche Teilsichtfeld von zumindest annähernd 180° kann ein dreidimensionales Teilsichtfeld sein.
Die Kameraanordnung kann die gemeinsame Achse aufweisen. Die gemeinsame Achse kann sich durch die Kamera oder die mehreren Kameras der Kameraanordnung erstrecken. Die gemeinsame Achse kann im Wesentlichen in vertikaler Richtung ausgerichtet sein und somit eine im Wesentlichen vertikale Achse ausbilden oder mit einem Kippwinkel zu der vertikalen Richtung gekippt sein und somit eine schräge Achse ausbilden.
Alternativ kann jede der Kameras an einer separaten Achse angeordnet sein. Diese können im Wesentlichen parallel zueinander oder gegeneinander geneigt sein.
Die nach unten schauende Kamera kann vorteilhafterweise den Boden unterhalb der nach oben schauenden Kamera erfassen. Die Kameras können in einer gemeinsamen Halteanordnung angeordnet sein oder in separaten Haltenordnungen. Die eine oder mehreren Achsen können im Wesentlichen in einer vertikalen Richtung ausgerichtet sein. Alternativ können die eine oder mehrere Achsen mit einem Kippwinkel zu einer vertikalen Richtung ausgerichtet sein.
Ein geringer Abstand der Achsen ermöglicht es, dass beide Kameras immer annähernd gleichzeitig von durchziehenden Wolken verschattet werden. Vorteilhaft ist ein geringer Abstand zwischen den Achsen von wenigen Metern, insbesondere von höchstens etwa 10 m.
Weiterhin lässt sich aus den Teilsichtfeldern der Kameras nur dann mit ausreichend hoher Genauigkeit ein Sichtfeld von wenigstens annähernd 360° rekonstruieren, wenn die beiden Kameras in einem geringen Abstand zueinander angeordnet sind. Auch zu diesem Zweck sollte ein Abstand von höchstens etwa 10 m nicht überschritten werden. Damit kann vermieden werden, dass bei einem zu großen Abstand die Wolkenschatten im Bild der zum Boden schauenden Kamera nicht mehr hinreichend genau mit den Wolken im Bild der zum Himmel schauenden Kamera korrespondieren. Dieser Effekt kann vor allem bei sehr niedrigen Wolken in wenigen hundert Metern Höhe relevant sein.
Das räumliche Sichtfeld von zumindest annähernd 360° um die Kameraanordnung kann sich in zwei entgegengesetzte Richtungen erstrecken und insgesamt in Summe das räumliche Sichtfeld von zumindest annähernd 360° realisieren.
Weist die Kameraanordnung mehrere Kameras auf, können die erste Kamera und die zweite Kamera die gemeinsame Achse ausbilden, wobei die gemeinsame Achse im Wesentlichen in vertikaler Richtung ausgerichtet sein und die im Wesentlichen vertikale Achse ausbilden kann oder die mit einem Kippwinkel zu der vertikalen Achse gekippten Achse sein kann, die die schräge Achse ausbilden kann. Sind die Kameras auf einer gemeinsamen Achse angeordnet, kann sich das Sichtfeld der ersten Kamera entlang der gemeinsamen Achse nach oben erstrecken und das Sichtfeld der zweiten Kamera kann sich nach unten entlang der gemeinsamen Achse erstrecken. Alternativ können die Teilsichtfelder sich entlang mehrerer Achsen, insbesondere zweier Achsen, erstrecken. Diese Achsen können im Wesentlichen parallel zueinander oder gegeneinander geneigt sein. Die eine oder mehreren Achsen können im Wesentlichen in einer vertikalen Richtung ausgerichtet sein. Alternativ können die eine oder mehrere Achsen mit einem Kippwinkel zu einer vertikalen Richtung ausgerichtet sein.
Insbesondere kann die eine oder die mehreren Achsen so angeordnet sein, dass die nach unten schauende Kamera den Boden unterhalb der nach oben schauenden Kamera erfassen kann.
Die beiden Achsen sind vorteilhaft mit geringem Abstand zueinander angeordnet. Ein geringer Abstand der Achsen ermöglicht es, dass beide Kameras immer annähernd gleichzeitig von durchziehenden Wolken verschaffet werden. Vorteilhaft ist ein geringer Abstand zwischen den Achsen von wenigen Metern, insbesondere von höchstens etwa 10 m.
Weiterhin lässt sich aus den Teilsichtfeldern der Kameras nur dann mit ausreichend hoher Genauigkeit ein Sichtfeld von annähernd 360° rekonstruieren, wenn die beiden Kameras in einem geringen Abstand zueinander angeordnet sind. Auch zu diesem Zweck sollte ein Abstand von höchstens etwa 10 m nicht überschritten werden. Damit kann vermieden werden, dass bei einem zu großen Abstand die Wolkenschatten im Bild der zum Boden schauenden Kamera nicht mehr hinreichend genau mit den Wolken im Bild der zum Himmel schauenden Kamera korrespondieren. Dieser Effekt kann vor allem bei sehr niedrigen Wolken in wenigen hundert Metern Höhe relevant sein. Somit kann mit zwei Kameras, die entlang derselben gemeinsamen Achse angeordnet sind, das räumliche Sichtfeld von zumindest annähernd 360° jeweils ein räumliches Teilsichtfeld von zumindest annähernd 180° ausgebildet werden, welches das räumliche Sichtfeld von annähernd 360° ausbildet. Das räumliche Teilsichtfeld von zumindest annähernd 180° bildet jeweils ein halbkugelförmiges oder zumindest annähernd halbkugelförmiges Sichtfeld aus.
Unter einem räumlichen Sichtfeld von zumindest annähernd 360° um die Kameraanordnung wird im Folgenden ein kugelförmiges oder zumindest annähernd kugelförmiges Sichtfeld um einen Mittelpunkt verstanden.
Im folgenden ist halbkugelförmig so zu verstehen, dass zumindest annähernd halbkugelförmig eingeschlossen ist. Ebenso ist kugelförmig so zu verstehen, dass zumindest annähernd kugelförmig eingeschlossen ist.
Die Kamera kann bzw. die Kameras können in diesem Mittelpunkt angeordnet sein. Das räumliche Sichtfeld von zumindest annähernd 360° kann in mehrere Segmente unterteilt werden. Der Mittelpunkt kann vorteilhaft auf der gemeinsamen Achse liegen, die als im Wesentlichen vertikale Achse oder schräge Achse ausgebildet sein kann. Dadurch können Kameradaten eines Segments unabhängig von Kameradaten anderer Segmente ausgewertet werden.
Alternativ kann das räumliche Sichtfeld von zumindest annähernd 360° aus Teilsichtfeldern der beiden Kameras von zumindest annährend 180° rekonstruiert werden, wenn diese auf voneinander gering beabstandeten Achsen angeordnet sind. Unter Kameradaten können im Folgenden wolkenbedingte Daten verstanden werden, welche durch Wolken verursacht werden. Zusätzlich oder alternativ können unter Kameradaten im Folgenden wolkenbedingte Daten verstanden werden, welche durch Wolkenschatten verursacht werden.
Zusätzlich oder alternativ können unter Kameradaten im Folgenden durch Solarstrahlung bedingte Daten verstanden werden, welche durch Intensitäten der wenigstens einen Komponente der globalen Bestrahlungsstärke verursacht werden. Hierbei können die Kameradaten auch durch Intensitäten mehrerer Komponenten der globalen Bestrahlungsstärke verursacht werden.
Hierbei können unter Kameradaten Bilder des Himmels verstanden werden. Zusätzlich oder alternativ können unter Kameradaten Bilder von Bereichen des Himmels verstanden werden. Zusätzlich oder alternativ können unter Kameradaten Bilder der Erdoberfläche verstanden werden. Zusätzlich oder alternativ können unter Kameradaten Bilder von Bereichen der Erdoberfläche verstanden werden.
Zusätzlich oder alternativ können Kameradaten Bildmerkmale eines oder mehrerer Farbkanäle eines Bildes sein. Solche Bildmerkmale können in der Textur und/oder Struktur und/oder in der Farbe beziehungsweise dem Verhältnis von Farbkanälen und/oder Helligkeit bestehen. Diese Bildmerkmale können durch Wolken oder andere Elemente am Himmel verursacht sein. Zusätzlich oder alternativ können diese Bildmerkmale durch Wolkenschatten und/oder andere Elemente am Erdboden verursacht sein. Bildmerkmale, welche nicht durch Wolken und/oder Wolkenschatten verursacht sind, können durch geeignete Methoden aussortiert werden und können dadurch nicht für die Auswertung herangezogen werden. Zusätzlich oder alternativ können Kameradaten Intensitätswerte eines oder mehrerer Farbkanäle und/oder strukturelle Bildmerkmale, insbesondere im Bildbereich, der Sonne sein. Die Intensitätswerte und strukturellen Merkmale können durch eine auf das wenigstens eine Objektiv der jeweiligen Kamera einfallende Strahlung und damit einhergehende Reflexionen und Brechungen und sonstige optische und elektronische Effekte entstehen.
Die Bilder und/oder die Bildmerkmale und/oder die Intensitätswerte können ausgewertet werden. Hierbei kann unter anderem ein aktueller Zustand erfasst werden.
Zusätzlich oder alternativ kann auch eine Veränderung der Bilder und/oder der Bildmerkmale und/oder der Intensitätswerte im Laufe der Zeit erfasst werden.
Unter dem Ermitteln eines Parameters wird im Folgenden das Erfassen und/oder Berechnen eines aktuellen Wertes des Parameters verstanden. Zusätzlich oder alternativ wird im Folgenden unter dem Ermitteln des Parameters das Erfassen und/oder Berechnen eines vorrausichtlich zukünftigen Werts des Parameters verstanden. Der vorrausichtlich zukünftige Wert des Parameters kann beispielsweise aufgrund der aktuellen und/oder der vergangen Kameradaten ermittelt werden.
Unter einem Parameter wird im Folgenden eine mit oder aus den Kameradaten ermittelte Größe verstanden. Diese Größe kann eine Wolkenschattenposition und/oder eine Wolkenmerkmalsposition und/oder eine Wolkengeschwindigkeit und/oder eine Wolkenhöhe sein. Zusätzlich oder alternativ kann diese Größe eine zukünftige Wolkenschattenposition und/oder eine zukünftige Wolkenmerkmalsposition und/oder eine zukünftige Wolkengeschwindigkeit und/oder eine zukünftige Wolkenhöhe sein. Zusätzlich oder alternativ kann diese Größe auch eine Komponente der globalen Bestrahlungsstärke und/oder einer Kombination mehrerer Komponenten der globalen Bestrahlungsstärke oder die globale Bestrahlungsstärke sein. Die erfassten oder ermittelten Werte für die Komponente der globalen Bestrahlungsstärke und/oder für die Kombination mehrerer Komponenten der globalen Bestrahlungsstärke und/oder für die globale Bestrahlungsstärke können weiter verfeinert werden.
Unter der Bestimmung der wenigstens einen Komponente der globalen Bestrahlungsstärke kann im Folgenden das Erfassen und/oder Berechnen eines aktuellen Werts der wenigstens einen Komponente der globalen Bestrahlungsstärke verstanden werden. Zusätzlich oder alternativ kann unter der Bestimmung der wenigstens einen Komponente der globalen Bestrahlungsstärke das Berechnen eines zukünftigen Wertes der wenigstens einen Komponente der globalen Bestrahlungsstärke verstanden werden.
Unter der wenigstens einen Komponente der globalen Bestrahlungsstärke kann im Folgenden eine mit oder aus den Kameradaten und/oder eine mit oder aus den Parametern ermittelte Größe verstanden werden.
Unter einer Komponente der globalen Bestrahlungsstärke kann hierbei eine der folgenden Sonnenstrahlungen oder eine Kombination der folgenden Sonnenstrahlungen verstanden werden: die direkte Strahlung, die diffuse Strahlung, die an der Erdoberfläche reflektierte Strahlung. Alle zusammen entsprechen der globalen Bestrahlungsstärke.
Es wird eine Anordnung zur Ermittlung wenigstens eines Parameters zur Bestimmung wenigstens einer Komponente einer globalen Bestrahlungsstärke vorgeschlagen, welche eine Auswerte- und Steuereinrichtung sowie eine Kameraanordnung umfasst. Die wenigstens eine Kamera ist zumindest zur Ermittlung des wenigstens einen Parameters mit einem vorgegebenen Abstand zu einer Erdoberfläche fixiert. Die Kameraanordnung ist ausgebildet, Kameradaten in einem räumlichen Sichtfeld von zumindest annähernd 360° um die Kameraanordnung zu erfassen.
Günstigerweise kann eine Halteanordnung die wenigstens eine Kamera fixieren. Bei zwei oder mehr Kameras können die Kameras von derselben Halteanordnung fixiert sein. Opional können Kameras auch in verschiedenen Halteanordnungen fixiert sein.
Günstigerweise setzt sich das räumliche Sichtfeld von zumindest annähernd 360° um die Kameraanordnung aus einem räumlichen ersten Teilsichtfeld und einem räumlichen zweiten Teilsichtfeld von jeweils zumindest annähernd 180° um die Kameraanordnung zusammen, die entlang einer gemeinsamen Achse oder, wenn zwei Kameras eingesetzt werden, an zwei in geringem Abstand voneinander beabstandeten Akten angeordnet sind, insbesondere wobei die gemeinsame Achse oder die mehreren Achsen im Wesentlichen in einer vertikalen Richtung ausgerichtet, oder wobei die gemeinsame Achse oder die mehreren Achsen mit einem Kippwinkel zu der vertikalen Richtung ausgerichtet ist.
Die wenigstens eine Kamera der Kameraanordnung kann auf der wenigstens einen Achse, die die vertikale Achse oder die schräge Achse ausbildet, angeordnet sein, wobei sich das räumliche Sichtfeld von zumindest annähernd 360° entlang der vertikalen Achse(n) oder der schrägen Achse(n) nach oben und nach unten erstrecken kann. Hierbei kann ein oberes räumliches Teilsichtfeld von zumindest annähernd 180° und ein unteres räumliches Teilsichtfeld von zumindest annähernd 180° ausgebildet werden, die die gemeinsame im Wesentlichen vertikale Achse oder schräge Achse, insbesondere im Wesentlichen vertikale Mittelachse oder schräge Mittelachse aufweisen oder entsprechend auf verschiedenen Achsen beabstandet voneinander sind. Das obere Teilsichtfeld und das untere Teilsichtfeld können jeweils eine obere Halbkugel und eine untere Halbkugel ausbilden.
Die obere Halbkugel und die untere Halbkugel können dabei mit ihrer gerade verlaufenden rückwärtigen Flächen, also ihrer Rückseite eine gemeinsame horizontale, senkrecht zur im Wesentlichen vertikalen Achse oder schrägen Achse verlaufende Fläche, insbesondere Kreisfläche ausbilden. Der Mittelpunkt der Kameraanordnung kann auf dem Schnittpunkt gemeinsamen Achse und der horizontalen Achse ausgebildet sein.
Unter der wenigstens einen Kamera kann eine RGB-Kamera oder eine Infrarot-Kamera verstanden werden. Die wenigstens eine Kamera kann beispielsweise 24 Bilder pro Sekunde aufnehmen. Diese können mit einem entsprechenden Zeitstempel versehen werden. Es können auch andere Bilderzeugungsraten gewählt werden. Zusätzlich sind erweiterte Aufbauten mit beispielsweise Verschattungsvorrichtungen vorstellbar, um einen Störeinfluss der direkten Sonneneinstrahlung zu reduzieren.
Die Kameraanordnung kann insbesondere ausgebildet sein, Kameradaten in einem Sichtfeld von zumindest annähernd 360° um die Kameraanordnung zu erfassen, wobei die Kameradaten geeignet sind, um Informationen zur Solarstrahlung und/ oder zu Position und/oder Eigenschaften von Wolken abzuleiten. Die Halteanordnung kann die Kamera zur Bestimmung des wenigstens einen Parameters in einem bestimmten Abstand über dem Erdboden fixieren. Hierbei kann die Halteanordnung eine lokal, fest montierte Anordnung, beispielsweise ein geeignetes Gestänge oder Gerüst sein. Zusätzlich oder alternativ kann die Halteanordnung eine bewegliche Anordnung beispielsweise eine Drohne sein, welche mobil einsetzbar ist und die wenigstens eine Kamera in einer vorgegeben Höhe an einem vorgegebenen Ort fixiert.
Die Halteanordnung kann derart ausgebildet sein, dass die Kameraanordnung auf der gemeinsamen Achse angeordnet ist und ein räumliches Sichtfeld von zumindest annähernd 360°ausgebildet wird.
Die Auswertungsergebnisse der Kameradaten, beispielsweise einzelner Farbkanäle können mit Auswertungsergebnissen anderer Farbkanäle verglichen werden. Zusätzlich oder alternativ können Auswertungsergebnisse mit verschiedenen Zeitstempeln eines Farbkanals miteinander verglichen werden. Auch eine weitere Auswertung der Auswertungsergebnisse mit Auswertungsergebnissen mit anderen Zeitstempeln oder mit Auswerteergebnissen von einem anderen Farbkanal ist möglich.
In einem Ausführungsbeispiel, in welchem sich das Sichtfeld von zumindest annähernd 360° aus zwei Teilsichtfeldern von zumindest annähernd 180° an einem vorgegebenen Ort zusammensetzt, können in vorteilhafter Weise Auswertungsergebnisse eines ersten Teilsichtfelds von zumindest annähernd 180° und Auswertungsergebnisse eines zweiten Teilsichtfelds von zumindest annähernd 180° miteinander kombiniert werden. Dadurch kann zur Ermittlung der meisten Parameter zur Bestimmung wenigstens einer Komponente einer globalen Bestrahlungsstärke in vorteilhafter Weise auf das Zurückgreifen von Schätzwerten oder von Werten aus externen Datenquellen verzichtet werden, wodurch die Ermittlung der Parameter für einen vorgegeben Standort genauer und zuverlässiger ist, als mit üblichen Anordnungen, welche auf Schätzwerte und auf Werte aus externen Datenquellen zurückgreifen. Des Weiteren sind keine weiteren Sensoreinheiten erforderlich.
Üblicherweise wird die Bestrahlungsstärke der wenigstens einen Komponente der globalen Bestrahlungsstärke in Bezug auf eine Oberfläche, auf welche diese auftrifft, angegeben. Diese Oberfläche kann verglichen zur Erdoberfläche geneigt sein und beispielsweise auch der Erdoberfläche zugewandt sein.
Dadurch kann die aktuelle direkte Strahlung, die aktuelle diffuse Strahlung, die aktuelle an der Erdoberfläche reflektierte Strahlung und die aktuelle globalen Bestrahlungsstärke aus den Parametern und/oder direkt aus den Kameradaten ermittelt werden. Dadurch kann in vorteilhafter Weise eine aktuelle Leistung einer Solaranlage abgeschätzt werden.
Zudem kann durch die Ermittlung eines künftigen Werts für die Sonnenstrahlung eine Vorhersage für die zukünftige diffuse Strahlung, die zukünftige an der Erdoberfläche reflektierte Strahlung und die zukünftige globale Bestrahlungsstärke aus den Parameter ermittelt werden. Dadurch kann in vorteilhafter Weise eine zukünftige Leistung einer Solaranlage abgeschätzt werden.
Des Weiteren können neben den ermittelten Parametern zur Vorhersage der zukünftigen Sonnenstrahlung auch aktuelle Werte der Sonnenstrahlung herangezogen werden. In vorteilhafter Weise können durch das Sichtfeld von zumindest annähernd 360° um die Kameraanordnung die Vorteile einer Anordnung mit zum Himmel ausgerichteter Himmelskamera, auch als Wolkenkamera bekannt, mit den Vorteilen einer Anordnung mit zum Erdboden ausgerichteten Bodenkamera, auch als Schattenkamera bekannt, kombiniert werden und die Nachteile der Himmelskamera und der Wolkenkamera ausgeglichen werden.
Zur Erzielung der Vorteile können die Kameradaten, welche im Sichtfeld von zumindest annähernd 360° erfasst werden, ausgewertet werden. In vorteilhafter Weise können die Kameradaten beispielsweise an einem gemeinsamen Ort an mit Kameras an einer gemeinsamen Achse oder an gering voneinander beabstandeten Achsen zeitgleich erfasst und für diesen Ort ausgewertet werden.
Durch die Kombination der Vorteile kann eine Kameraanordnung mit Sichtfeld von zumindest annähernd 360° ausreichen um genügend Kameradaten zu erfassen, um gewünschte Parameter zuverlässig zu erfassen und/oder vorherzusagen. Dadurch kann auf weitere Kameras an anderen Standorten oder auf weitere Sensoreinheiten verzichtet werden.
Hierbei kann ein großer Ausschnitt des Himmels erfasst und überwacht werden, insbesondere Wolken können lange bevor deren Schatten in dem überwachten Gebiet eintreffen, erkannt und entsprechende Vorhersagen gemacht werden.
Ein weiterer Vorteil der Auswertung der Kameradaten, welche im Sichtfeld von zumindest annähernd 360° um die Kameraanordnung erfasst werden, ist, dass manche Parameter, wie eine Wolkengeschwindigkeit über dem Erdboden, genau und direkt aus diesen Kameradaten entnommen werden können. Der überwachbare und erfassbare Ausschnitt des Erdbodens ist hierbei unter anderem abhängig von einer Höhe, in welcher die wenigstens eine Kamera, welche in Richtung Erdboden ausgerichtet ist, angeordnet ist.
Um eine zuverlässige Vorhersage treffen zu können, werden Bodenkameras üblicherweise auf hohen Türmen oder Bergrücken angeordnet, um den Ausschnitt des Erdbodens, welchen sie überwachen, zu vergrößern. Durch die Höhe können bei diesen Anordnungen Wolken, welche zwischen der Kamera und dem Erdboden schweben, eine Überwachung des Erdbodens verhindern oder erschweren.
In vorteilhafter Weise kann eine Vorhersage mit Kameradaten wenigstens einer zum Himmel ausgerichteten Kamera ermittelt werden, wodurch zur Überwachung des Erdbodens nicht zwingend ein großer Ausschnitt des Erdbodens erforderlich ist, sodass die Kameraanordnung, im Gegensatz zu bekannten Schattenkameraanordnungen mit geringerer Höhe über dem Erdboden angeordnet werden kann.
Beispielsweise kann die Halteanordnung die wenigstens eine Kamera mit einem Abstand von 1 -100 m, der üblich für Albedomessungen ist, zum Erdboden fixieren. Ein minimaler Abstand der wenigstens einen Kamera zum Erdboden kann vom Erdboden abhängig gemacht sein. An Standorten mit Schnee, ungemähtem Gras oder Ackerpflanzen am Erdboden sollte eine Höhe von beispielsweise 10 m gewählt werden, um Störeinflüsse durch Unebenheiten der Oberfläche zu vermeiden. Es sind bei weniger stark bewachsenen Oberflächen und/oder in Gebieten mit geringem Schneefall auch geringere Höhen möglich. Des Weiteren kann die Mindesthöhe so gewählt sein, dass Gradienten der Intensitäten der RGB- Kanäle der wenigstens einen Kamera, welche zum Erdboden ausgerichtet ist, sicher identifiziert werden können, sodass die daraus ermittelbaren Parameter zuverlässig und genau bestimmt werden können.
Ein maximaler Abstand der wenigstens einen Kamera, welche zum Erdboden ausgerichtet ist, verhindert, dass tiefliegende Wolken eine Erfassung von Kameradaten erschweren. Dieser maximale Abstand ist in Abhängigkeit vom Einsatzzweck und Einsatzort zu bestimmen. Sind beispielsweise Wolken in einer Höhe ab 500 m über der Kamera von Interesse, sollte die mindestens eine Kamera in einer Höhe von nicht mehr als 100 m angebracht werden, um diese Wolken sicher zu erfassen. Wird die Anordnung auch zur Messung der am Erdboden reflektierten Strahlung verwendet, ist ein geringerer Abstand vorteilhaft.
Mit zunehmendem Abstand nimmt auch das Gebiet zu, welches in die Messung der am Erdboden reflektierten Strahlung eingeht. Dieses Gebiet kann potenziell durch unerwünschte Einflüsse wie Bäume, reflektierende Objekte, Landnutzung etc. beeinträchtigt werden.
Dadurch dass die Kameraanordnung maximal in einer Höhe von 100 m fixiert ist, können die Kosten für die Halteanordnung reduziert werden. Zudem kann eine solche feststehende Kameraanordnung einfach und schnell an beliebigen Orten aufgestellt werden, sodass die Kameraanordnung flexibel einsetzbar ist.
Alternativ kann eine Drohne einfach in einer solchen Höhe fliegen und kann ebenfalls flexibel an mehreren Standorten eingesetzt werden. Dadurch ist für die Halteanordnung auch ein Standortwechsel, nach erfolgter Berechnung der gewünschten Parameter, möglich. Dadurch kann eine Eignung eines Geländes beispielsweise für einen Solarpark einfach und kostengünstig überprüft werden.
Des Weiteren kann die Kameraanordnung an einer Oberkante eines Gebäudes angeordnet werden. Hierbei kann das Gebäude einem Überwachungsgebäude oder Verteilerhaus einer Solaranlage oder einem Wohnhaus entsprechen. Es ist kein Turm oder ein anderes hohes Gebäude erforderlich. Durch ein durch das Gebäude eingeschränktes Sichtfeld der Kameraanordnung, kann eine Erfassung von Kameradaten und eine Ermittlung des wenigstens einen Parameter erschwert sein.
In vorteilhafter Weise können die Kameradaten durch die erfindungsgemäße Anordnung an einem gemeinsamen Standort ermittelt werden. Dadurch kann das Übertragen von Kameradaten zwischen zwei Standorten und das Umrechnen der Daten von einem Standort auf den anderen entfallen. Dadurch kann eine Wartung und ein Betrieb der erfindungsgemäßen Anordnung erleichtert werden.
Insbesondere kann durch eine reduzierte Kameraanzahl bzw. eine reduzierte Kameraanordnungsanzahl ein Aufwand für eine Hardware und dadurch Kosten für die Hardware reduziert werden.
Nach einer günstigen Ausgestaltung der Anordnung kann sich das Sichtfeld von zumindest annähernd 360° um die Kameraanordnung an einem vorgegebenen Ort aus einem ersten Teilsichtfeld und einem zweiten Teilsichtfeld von jeweils zumindest annähernd 180° um die Kameraanordnung zusammensetzen. Wenigstens eine erste Kamera erfasst Kameradaten im ersten Teilsichtfeld und wenigstens eine zweite Kamera erfasst Kameradaten im zweiten Teilsichtfeld, wobei sich die beiden Teilsichtfelder der Kameras zu einem Sichtfeld von zumindest annähernd 360° ergänzen. Die Kameras sind insbesondere jeweils als Fischaugenkamera ausgeführt. Die Ausrichtung der Sichtfelder kann beliebig gewählt werden. Es ist beispielsweise möglich, dass die Sichtfelder seitlich ausgerichtet sind, so dass eine Kamera einen Erdbodenabschnitt und einen Himmelsabschnitt auf einer Seite erfasst und die andere Kamera einen Erdbodenabschnitt und einen Himmelsabschnitt auf einer entgegengesetzten Seite erfasst. Die Anordnung und Ausrichtung der Kameras kann frei gewählt werden, solange insgesamt ein Sichtfeld von zumindest annähernd 360° um die Kameraanordnung erfasst wird. Die Anordnung der Kameras kann hierbei entlang der einen gemeinsamen Achse oder entlang von gering beabstandeten Achsen ausgerichtet sein, wobei die eine oder mehrere Achsen im Wesentlichen vertikal ausgerichtet und eine im Wesentlichen vertikale Achse ausbilden können oder mit einem Kippwinkel zu der vertikalen Achse gekippt sein und eine schräge Achse ausbilden.
In vorteilhafter Weise kann durch die Überwachung eines vorgegeben Teilsichtfelds durch eine eigene Kamera die Zuordnung der Kameradaten zum Teilsichtfeld erleichtert und dadurch eine Interpretation und Auswertung der Kameradaten erleichtert werden.
Beispielsweise können Kameradaten leichter der wenigstens einen Komponente der globalen Bestrahlungsstärke zugeordnet werden, wenn klar ist, in welchem Sichtfeld diese erfasst wurden. In einem alternativen Ausführungsbespiel kann das Sichtfeld von zumindest annähernd 360° in mehr als zwei Teilsichtfelder aufgeteilt sein. Zudem sind weitere Kameras vorstellbar, welche Kameradaten in den zusätzlichen Teilsichtfeldern erfassen.
Nach einer günstigen Ausgestaltung der Anordnung kann wenigstens eine erste Kamera als Himmelskamera Kameradaten im ersten Teilsichtfeld erfassen, das in Richtung Himmel ausgerichtet ist und ein oberes Teilsichtfeld bildet. Wenigstens eine zweite Kamera kann als Bodenkamera Kameradaten im zweiten Teilsichtfeld erfassen, das in Richtung Erdoberfläche ausgerichtet ist und ein unteres Teilsichtfeld bildet. Die Kameras sind insbesondere als Fischaugenkameras ausgeführt. Das obere Teilsichtfeld und das untere Teilsichtfeld können die gemeinsame, im Wesentlichen vertikale Achse oder schräge Achse aufweisen oder auf beabstandeten Achsen angeordnet sein.
Durch die Verwendung mehrerer Kameras kann in vorteilhafter Weise auf die Verwendung einer omnidirektionalen Kamera verzichtet werden.
Des Weiteren können die Kameradaten der jeweiligen Kameras einfach dem oberen oder dem unteren Teilsichtfeld zugeordnet werden. Die Kameras können speziell zur Überwachung des Himmels und des Erdbodens ausgebildet sein.
Alternativ kann eine 360°-Kamera mit Sichtfeld von zumindest annähernd 360° um die Kameraanordnung Kameradaten im ersten Teilsichtfeld erfassen, und Kameradaten im zweiten Teilsichtfeld erfassen. Hierbei kann insbesondere das erste Teilsichtfeld ein in Richtung Himmel ausgerichtetes oberes Teilsichtfeld bilden, und das zweite Teilsichtfeld kann ein in Richtung Erdoberfläche ausgerichtetes unteres Teilsichtfeld bilden.
Durch die Verwendung einer Kamera kann in vorteilhafter Weise auf die Verwendung mehrerer Kameras verzichtet werden. Dadurch kann eine Installation vereinfacht werden. Des Weiteren können durch eine einzige Kamera und durch die reduzierte Anzahl an Kameras mögliche Fehlerquellen minimiert werden, beispielsweise bei einer Datenübertragung, oder durch eine ungenaue Ausrichtung der Kameras und/oder durch die Kalibrationen der entsprechenden Kameras. Das Zuordnen der Kameradaten zum oberen oder unteren Teilsichtfeld kann bei der Auswertung der Kameradaten erfolgen. Die verwendeten Kameras können hochauflösende und hochwertige Bilder bzw. Kameradaten erzeugen. Alternativ können Überwachungskameras eingesetzt werden. Diese sind günstiger und können Bilder mit stärkeren Artefakten liefern. In einer alternativen Ausgestaltung ist eine Anordnung von Kameras und Parabolspiegeln vorstellbar.
Im Gegensatz zu bekannten Anordnungen mit Himmelskameras, welche Wolkenhöhen und damit Wolkengeschwindigkeiten über dem Erdboden ermitteln können, überwacht die erfindungsgemäße Anordnung nur ein einziges oberes Teilsichtfeld, während übliche Himmelskameraanordnungen mit diesem Leistungsumfang wenigstens zwei obere Teilsichtfelder überwachen und mindestens zwei Himmelskameras umfassen.
Im Gegensatz zu bekannten Anordnungen mit Bodenkameras überwacht die erfindungsgemäße Anordnung nur einen kleinen Ausschnitt des Erdbodens, so dass die Bodenkamera mit geringerem Abstand zum Erdboden angeordnet werden kann, als bei üblichen Bodenkameraanordnungen.
Bei einer Ausführung der Kameraanordnung mit einer Himmelskamera und einer Bodenkamera können die beiden Kameras am gleichen Standort mit entgegengesetzter Ausrichtung installiert sein.
Bei einer Ausführung der Kameraanordnung mit einer einzigen Kamera ist diese automatsch an einem Standort angeordnet.
In vorteilhafter Weise kann bei der erfindungsgemäßen Anordnung ein Aufwand für die Anschaffung und für den Betrieb einer Hardware reduziert werden, da die Vorteile einer Wolkenkameraanordnung und einer Schattenkameraanordnung miteinander kombiniert werden können. Nach einer günstigen Ausgestaltung der Anordnung kann wenigstens eine Auswerte- und Steuereinrichtung aus den erfassten Kameradaten dem Himmel zugeordnete Kameradaten entnehmen und aus diesen, dem Himmel zugeordneten Kameradaten wenigstens einen der folgenden Parameter ermitteln: eine direkte Strahlung und/oder eine diffuse Strahlung und/oder eine globale Bestrahlungsstärke Gl und/oder wenigstens eine Position von Wolkenmerkmalen und/oder von Wolken bedeckte Himmelsbereiche und/oder aus Wolkenpositionen und/oder aus der Position von Wolkenmerkmalen im Kamerabild zwischen wenigstens zwei Zeitstempeln eine Winkelgeschwindigkeit von wenigstens einer Wolke im Kamerabild.
Unter Wolkenmerkmalen werden im Folgenden Bildmerkmale verstanden, welche auf eine Wolke hinweisen. Unter einer Wolkenposition wird im Folgenden eine Abschätzung der Position einer Wolke oder einer Wolkenansammlung verstanden, da Wolken keine festen Objekte sind, und in einer Wolkenformation einzelne Wolken schwer zu unterscheiden sind.
Mit einer Kamera, welche ausschließlich das obere Sichtfeld überwacht, kann die Entnahme der dem Himmel zugeordneten Kameradaten einfach erfolgen, da nahezu alle Kameradaten dieser Kamera dem Himmel zugeordnet werden können. Bei einer Kamera, welche sowohl Teile des Himmels als auch Teile des Erdbodens überwacht, kann eine vorherige Auswertung der Kameradaten, eine Zuordnung zum Himmel oder zum Erdboden ermöglichen.
Wenigstens eine Auswerte- und Steuereinrichtung kann mit einer entsprechenden Programmierung mit einem entsprechenden Auswertungsverfahren die Winkelgeschwindigkeit einer Wolke oder von mehreren Wolken oder einer Wolkenformation aus den Kamerabildern ermitteln. In einem möglichen Auswertungsverfahren zur Bestimmung der Position von Wolkenmerkmalen und/oder und zur Berechnung der Winkelgeschwindigkeit einer Wolke oder von mehreren Wolken oder einer Wolkenformation können Bildmerkmale, welche der Position der Wolke oder den Positionen der Wolken oder der Wolkenformation entsprechen, erkannt werden. Zur Berechnung der Winkelgeschwindigkeit einer Wolke oder von mehreren Wolken oder einer Wolkenformation kann eine Verschiebung Am, An von Bildmerkmalen im Kamerabild in Richtung einer x-Achse und einer y-Achse zwischen den Zeitpunkten ti=to und t2=to+At ermittelt werden.
Die Verschiebung kann durch Erstellung von Differenzbildern di eines Farbkanals der Farbkanäle, dargestellt werden. Hierbei kann ein erstes Differenzbild di aus einem Kamerabild zu einem ersten Zeitpunkt ti =to und einem Kamerabild zu einem zweiten Zeitpunkt t2=to+At erstellt werden. Zusätzlich kann ein zweites Differenzbild d2 aus dem Kamerabild zum zweiten Zeitpunkt t2=to+At und einem Kamerabild zu einem dritten Zeitpunkt ts=to+2At erstellt werden.
Die Differenzbilder di und d2 können entzerrt werden. Unter dem Entzerren wird hierbei verstanden, dass die ermittelten Werte in eine horizontale Ebene mit unbekannter Höhe über der Kamera projiziert werden. Aus dieser Projektion resultieren Orthobilder 01 und 02. Aus den Orthobildern 01 und 02 werden Bildmerkmale und deren Position identifiziert.
In einem weiteren Schritt können die Orthobilder 01 und 02 in binäre Bilder bi, b2 umgewandelt werden, wobei beispielsweise jeweils 2% der Pixel den Wert 1 und die übrigen 98% der Pixel den Wert 0 erhalten. Diese 2% der Pixel weisen betragsmäßig die größte Differenz auf. Dadurch können starke Anstiege oder Abfälle von diesem Farbkanal zwischen den Zeitpunkten to, to+At, to+2At ermittelt werden. In einem weiteren Schritt können beispielsweise über eine Kreuzkorrelation diese binären Bilder insgesamt verglichen werden oder in einem verfeinerten Verfahren können die Bilder bereichsweise verglichen werden. Die Verschiebung Am, An entspricht der Verschiebung, für welche die Kreuzkorrelation zwischen den binären Orthobildern 01 und 02 maximal wird. Dieses Verfahren kann für wenigstens einen Farbkanal durchlaufen werden. Es können auch mehrere Farbkanäle auf diese Art ausgewertet werden. Des Weiteren können weitere Verfeinerungen und geeignete Anpassungen in dem Verfahren zur Ermittlung der Verschiebung Am, An der Wolke bzw. der Wolken vorgenommen werden.
In einem alternativen Verfahren lassen sich Bildmerkmale und deren Verschiebung Am, An auch auf andere Weise beispielsweise mit Hilfe von SIFT (scale invariant feature transform) oder über andere maschinelle Lernverfahren ermitteln.
Mit Hilfe des bekannten Zeitversatzes t2 - z^und Am, An lässt sich dann die Winkelgeschwindigkeit in beiden Richtungen x und y berechnen als:
^x pix/s = m/(t2 - ti)
Figure imgf000028_0001
Die direkte Strahlung und/oder die diffuse Strahlung kann von wenigstens einer Auswerte- und Steuereinrichtung ermittelt werden. Dies kann dieselbe Auswerte- und Steuereinrichtung sein, welche bereits die Winkelgeschwindigkeit der Wolke ermittelt, oder dies kann eine andere Auswerte- und Steuereinrichtung sein.
Als Grundlage werden die Intensitätswerte der RGB-Kanäle der wenigstens einen Kamera im oberen Teilsichtfeld bzw. aus den dem Himmel zugeordneten Kameradaten von der Auswerte- und Steuereinrichtung ausgewertet. Diese Intensitätswerte können direkt aus der korrespondierenden Kamera ausgelesen werden. In einem möglichen Auswertungsverfahren wird mit einem physikalischen Kameramodel aus den Intensitätswerten der RGB- Kanäle des Kamerabildes die Strahlung (Radianz) berechnet, welche aus einem bestimmten Himmelsbereich empfangen wird. Zusätzlich können physikalisch motivierte Korrekturen angewendet werden, um die Berechnung zu verbessern. In einem alternativen Ausführungsbeispiel kann das physikalische Kameramodell durch ein rein statistisches maschinenbasierten Lernmodell (Machine-Learning-Modell) ersetzen werden.
Insbesondere kann eine Architektur unter Verwendung eines Convolutional Neural Network mit anschließendem Fully Connected Neural Network bei geeignetem Training das Kameramodell ersetzen oder nachahmen oder ergänzen oder selbständig anpassen.
In einem Schritt des Auswertungsverfahrens mit Grundannahmen des physikalischen Kameramodels kann eine für Kameras übliche Gamma- Korrektur umgekehrt werden, um aus dem RGB-Bild der jeweiligen Kamera ein linearisiertes RGB-Bild zu erhalten.
Dieser Schritt kann entfallen, wenn die entsprechende Kamera keine Gamma-Korrektur ausführt, sodass die Gamma-Korrektur nicht nachträglich umgekehrt werden muss. Dies kann beispielsweise der Fall sein, wenn die Gamma-Korrektur der entsprechenden Kamera deaktiviert ist oder die Kamera aus anderen Gründen keine Gamma-Korrektur ausführt. In einem weiteren Schritt des Auswertungsverfahrens kann beispielsweise eine pixelweise Zuordnung von Bildbereichen zu Himmelsbereichen über Azimuth- und ZenithwinkelA/ertikalwinkel erfolgen. Anstelle einer pixelweisen Zuordnung sind auch andere Zuordnungen vorstellbar. Ein Winkelgrad des Azimuthwinkels kann von Süden über Westen, Norden und Osten angegeben werden.
Beim Zuordnen der Bildbereiche zu Himmelsbereichen können geometrische Kalibrationen der entsprechenden Kamera und darauf aufbauende Transformationen angewendet werden. Alternativ kann die Zuordnung von Bildbereichen zu Himmelsbereichen über Azimuth- und ZenithwinkelA/ertikalwinkel grob erfolgen. Beispielsweise ist eine Zuordnung ohne Verwendung von Kalibrationen vorstellbar. Die Kalibrationen und darauf aufbauende Transformationen können als ein maschinenbasierten Lernmodell (Machine-Learning-Modell) umgesetzt sein und fortlaufend verbessert werden.
In einem weiteren Schritt des Auswertungsverfahrens können Intensitäten der Farbkanäle des linearisierten RGB-Bildes gewichtet und summiert werden. Die Gewichtung kann eine möglichst gleichmäßige Sensitivität der entsprechenden Kamera im sichtbaren Wellenlängenbereich erzielen.
In einem weiteren Schritt des Auswertungsverfahrens kann eine Multiplikation mit einer Breitbandkorrektur, welche Anteile der breitbandigen Solarstrahlung berücksichtigt, welche aus dem nicht-sichtbaren Wellenlängenbereich stammen, erfolgen. Des Weiteren ist eine Multiplikation mit einem Kalibrationsfaktor, welcher die Sensitivität der Kamera berücksichtigt, vorstellbar. Zudem ist eine Anwendung von wenigstens einer Korrektur zur Berücksichtigung von Störeinflüssen auf die Messung, wie beispielsweise eine Linsenbrechung, Bildsättigung, Einfluss der Belichtungssteuerung der entsprechenden Kamera möglich. Zusätzlich oder alternativ können angewendete Korrekturfaktoren, wie beispielsweise die Breitbandkorrektur, der Kalibrationsfaktor, die Korrektur von Störeinflüssen teilweise zusammengefasst oder umgeschrieben werden. Des Weiteren können diese Korrekturen ersetzt oder ergänzt werden durch statistisch bestimmte Korrekturen, beispielsweise über maschinenbasiertes Lernen (Machine Learning), insbesondere basierend auf Bildmerkmalen.
In einem weiteren Schritt des Auswertungsverfahrens kann aus der Strahlung (Radianz), welche aus verschiedenen Himmelsbereichen empfangen wird, beispielsweise durch eine Projektion eine diffuse und/ oder direkte Strahlung in einer beliebigen horizontalen oder zum Erdboden geneigten Ebene einschließlich einer Ebene die dem Erdboden zugewandt ist, bestimmt werden. Dabei kann die Zuordnung der Bildbereiche zu Himmelsbereichen und eine Integration über Bildbereiche/ Himmelsbereiche zum Einsatz kommen. Bei Bedarf kann auch die Globalstrahlung in geneigten und auch in zum Erdboden gerichteten Ebenen ermittelt werden.
In einer alternativen Ausführung des Verfahrens können die Teilschritte, beispielsweise das Anwenden eines physikalischen Kameramodells und/oder die Zuordnung von Bildbereichen zu Himmelsbereichen und/oder die Anwendung physikalisch motivierter Korrekturen und/oder die Projektion in eine beliebige Ebene, zur Bestimmung von direkter und diffuser Strahlung in einer beliebigen Ebene teilweise oder als Ganzes durch ein so genanntes Machine-Learning Modell nachgeahmt werden. In einer einfachsten Ausführung der Anordnung können durch die Auswertung der Intensitäten der RGB-Kanäle, aus dem oberen Teilsichtfeld bzw. aus den dem Himmel zugeordneten Kameradaten, Werte ermittelt werden, welche der Summe aus diffuser Strahlung und direkter Strahlung entsprechen. Erweiterungen wären möglich, so dass eine Ermittlung separater Werte für diffuse Strahlung und direkte Strahlung ermöglicht werden kann.
In vorteilhafter Weise kann durch die Ermittlung der direkten Strahlung und/oder der diffusen Strahlung eine Performance eines Solarwerks an dem Standort der erfindungsgemäßen Anordnung ermittelt werden und eine Solare Ressource am Standort beurteilt werden. Hierbei sind keine weiteren Sensoren oder Sensoreinheiten, wie beispielsweise Pyranometer, erforderlich. Die Strahlung kann nur durch die wenigstens eine Kamera und deren Kameradaten ermittelt werden.
In vorteilhafter Weise kann die Kenntnis der von Wolken bedeckten Bereiche im oberen Teilsichtfeld zur weiteren Beurteilung der ermittelten Strahlung herangezogen werden. Beispielsweise kann die diffuse Strahlung durch Wolken zunehmen und eine direkte Strahlung kann durch Wolken abnehmen. Bei einer anderen Witterung können am Standort andere Strahlungsbedingungen herrschen. Die aktuellen und die zukünftigen Strahlungsbedingungen können durch die Ermittlung der Wolkenpositionen und der Geschwindigkeit der Wolken zumindest teilweise ermittelt werden.
Nach einer günstigen Ausgestaltung der Anordnung kann die Auswerte- und Steuereinrichtung aus den erfassten Kameradaten der Erdoberfläche zugeordnete Kameradaten entnehmen und aus diesen der Erdoberfläche zugeordneten Kameradaten wenigstens einen der folgenden Parameter ermitteln: eine an der Erdoberfläche reflektierte Strahlung und/oder eine Albedo der Erdoberfläche und/oder wenigstens eine Wolkenschattenposition und/oder aus den Wolkenschattenpositionen zwischen wenigstens zwei Zeitstempeln eine Geschwindigkeit von wenigstens einer Wolke über der Erdoberfläche.
Mit einer Kamera, welche ausschließlich das untere Sichtfeld überwacht, kann die Entnahme der der Erdoberfläche zugeordneten Kameradaten einfach erfolgen, da nahezu alle Kameradaten dieser Kamera dem Erdboden zugeordnet werden können. Bei einer Kamera, welche sowohl Teile des Himmels als auch Teile des Erdbodens überwacht, kann eine vorherige Auswertung der Kameradaten, eine Zuordnung zum Himmel oder zum Erdboden ermöglichen.
Die Geschwindigkeit einer Wolke oder von mehreren Wolken über dem Erdboden kann von wenigstens einer Auswerte- und Steuereinrichtung, aus den Kamerabildern des unteren Teilsichtfelds bzw. aus den der Erdoberfläche zugeordneten Kameradaten ermittelt werden. Dies kann eine der Auswerte- und Steuereinrichtungen sein, welche die Kameradaten des oberen Teilsichtfelds bzw. die dem Himmel zugeordneten Kameradaten auswertet oder eine weitere Auswerte- und Steuereinrichtung sein.
Das korrespondierende Auswertungsverfahren ist ähnlich dem zur Bestimmung der Winkelgeschwindigkeit der Wolken aus Bildern des oberen Teilsichtfelds bzw. aus den dem Himmel zugeordneten Kameradaten. In einem alternativen Verfahren lassen sich Bildmerkmale, welche der Position wenigstens eines Wolkenschattens entsprechen, und deren Verschiebung Am, An auch auf andere Weise beispielsweise mit Hilfe von SIFT (scale invariant feature transform) oder über andere maschinelle Lernverfahren ermitteln.
In einem möglichen Auswertungsverfahren können Bildmerkmale, welche der Position eines Wolkenschattens oder den Positionen mehrerer Wolkenschatten entsprechen, erkannt und eine Verschiebung Am, An von Bildmerkmalen im Kamerabild in Richtung einer x-Achse und einer y-Achse zwischen den Zeitpunkten ti= to, t2=to+At, ts= to+2At ermittelt werden.
Diese Bilder können mit Hilfe des bekannten Höhenprofils der Erdoberfläche des überwachten Gebietes sowie mit Hilfe geometrischer Kalibrationen der Kamera in Orthobilder umgerechnet werden. Hierbei ist die Projektionshöhe im Gegensatz zur Auswertung des oberen Teilsichtfelds bzw. der Auswertung der dem Himmel zugeordneten Kameradaten bekannt. In den entsprechenden Orthobildern entspricht dadurch jeder Bildpixel einem quadratischen Teilbereich des überwachten Gebiets. Differenzbilder können aus den in Graustufen umgerechneten Orthobildern berechnet werden. Anstellte von Graustufen sind auch andere Ausgaben möglich. Wie bei der Ermittlung der Winkelgeschwindigkeit können Differenzbilder in binäre Bilder umgewandelt werden. Über eine Kreuzkorrelation kann die Verschiebung von Bildpixeln Am, An, welche einer entsprechenden Verschiebung Ax, Ay der Wolkenschatten im überwachten Gebiet zugeordnet werden können, ermittelt werden. Der Betrag dieser „absoluten“ Geschwindigkeit der Wolkenschatten über dem Erdboden wird dann berechnet als
Figure imgf000034_0001
wobei der Skalierungsfaktor ksc (Einheit m/pixel) die bekannte Seitenlänge eines Bildpixels in Metern angibt. Da die Geschwindigkeit der Wolkenschatten über dem Erdboden auch der Geschwindigkeit der korrespondierenden Wolke über dem Erdboden entspricht, sind in vorteilhafter Weise zur Ermittlung der Wolkengeschwindigkeit über dem Erdboden keine zwei Himmelskameras, welche unterschiedliche obere Teilsichtfelder überwachen, erforderlich, da die Wolkengeschwindigkeit aus dem einen unteren Teilsichtfeld bzw. aus den der Erdoberfläche zugeordneten Kameradaten einfach ermittelt werden kann. Zudem kann auf die Verwendung von Schätzwerten bei der Berechnung der Wolkengeschwindigkeit verzichtet werden, wodurch ein zuverlässiger und genauer Wert für die Wolkengeschwindigkeit über dem Erdboden berechnet werden kann.
Unter der Wolkengeschwindigkeit über dem Erdboden wird im Folgenden eine Geschwindigkeit der Wolken im Vergleich zu gedachten Fixpunkten am Erdboden verstanden. Aus der ermittelten Wolkengeschwindigkeit und der aktuellen Wolkenposition, kann in vorteilhafter Weise eine zukünftige Wolkenposition und eine entsprechende Veränderung der globalen Bestrahlungsstärke in einem vorgegebenen Gebiet ermittelt bzw. vorhergesagt werden.
Die an der Erdoberfläche reflektierte Strahlung und/oder die Albedo des Erdbodens kann von wenigstens einer Auswerte- und Steuereinrichtung ermittelt werden. Dies kann dieselbe Auswerte- und Steuereinrichtung sein, welche bereits einen anderen Parameter ermittelt, oder dies kann eine andere Auswerte- und Steuereinrichtung sein.
Die Ermittlung, der am Erdboden reflektierten Strahlung verläuft ähnlich, wie die Ermittlung der direkten Strahlung und/oder der diffusen Strahlung. Als Grundlage werden die Intensitätswerte der RGB-Kanäle der wenigstens einen Kamera, welche Kameradaten aus dem unteren Teilsichtfeld ermittelt, von der entsprechenden Auswerte- und Steuereinrichtung ausgewertet. Diese Intensitätswerte können direkt aus der korrespondierenden Kamera ausgelesen werden, wenn diese ausschließlich den Erdboden überwacht. Ansonsten können die relevanten Kameradaten zuvor von den nicht relevanten Kameradaten getrennt werden. In einem möglichen Auswertungsverfahren wird mit einem physikalischen Kameramodel aus den Intensitätswerten der RGB-Kanäle des Kamerabildes die Strahlung berechnet, welche aus einem bestimmten Erdbodenbereich empfangen wird. Zusätzlich können physikalisch motivierte Korrekturen angewendet werden, um die Berechnung zu verbessern. In einem alternativen Ausführungsbeispiel kann das physikalische Kameramodell durch ein rein statistisches maschinenbasiertes Lernmodell (Machine-Learning-Modell) ersetzt werden. Insbesondere kann eine Architektur unter Verwendung eines Convolutional Neural Network mit anschließendem Fully Connected Neural Network bei geeignetem Training das Kameramodell ersetzen oder nachahmen oder ergänzen oder selbständig anpassen.
In einem Schritt des Auswertungsverfahrens mit Grundannahmen des physikalischen Kameramodels kann eine für Kameras übliche Gamma- Korrektur umgekehrt werden, um aus dem RGB-Bild der jeweiligen Kamera ein linearisiertes RGB-Bild zu erhalten. Dieser Schritt kann entfallen, wenn die entsprechende Kamera keine Gamma-Korrektur ausführt, sodass die Gamma-Korrektur nicht nachträglich umgekehrt werden muss. Dies kann beispielsweise der Fall sein, wenn die Gamma-Korrektur der entsprechenden Kamera deaktiviert ist oder die Kamera aus anderen Gründen keine Gamma-Korrektur ausführt.
In einem weiteren Schritt des Auswertungsverfahrens kann beispielsweise eine pixelweise Zuordnung von Bildbereichen zu Erdbodenbereichen mit Hilfe des bekannten Höhenprofils der Erdoberfläche des überwachten Gebietes erfolgen. Hierbei kann jeder Bildpixel einem quadratischen Teilbereich des überwachten Gebiets entsprechen. Alternativ kann die pixelweise Zuordnung von Bildbereichen zu Erdbodenbereichen aus der Wolkengeschwindigkeitsermittlung übernommen werden. Anstelle einer pixelweisen Zuordnung sind auch andere Zuordnungen vorstellbar.
Beim Zuordnen der Bildbereiche zu Erdbodenbereichen können geometrische Kalibrationen der entsprechenden Kamera und darauf aufbauende Transformationen angewendet werden. Des Weiteren ist eine Zuordnung ohne Verwendung von Kalibrationen vorstellbar. Die Kalibrationen und darauf aufbauende Transformationen können als ein maschinenbasiertes Lernmodell (Machine-Learning-Modell) umgesetzt sein und fortlaufend verbessert werden.
In einem weiteren Schritt des Auswertungsverfahrens können Intensitäten der Farbkanäle des linearisierten RGB-Bildes gewichtet und summiert werden. Die Gewichtung kann eine möglichst gleichmäßige Sensitivität der entsprechenden Kamera im sichtbaren Wellenlängenbereich erzielen.
In einem weiteren Schritt des Auswertungsverfahrens kann eine Multiplikation mit einer Breitbandkorrektur, welche Anteile der breitbandigen Solarstrahlung berücksichtigt, welche aus dem nicht-sichtbaren Wellenlängenbereich stammen, erfolgen. Des Weiteren ist eine Multiplikation mit einem Kalibrationsfaktor, welcher die Sensitivität der Kamera berücksichtigt, vorstellbar.
Zudem ist eine Anwendung von wenigstens einer Korrektur zur Berücksichtigung von Störeinflüssen auf die Messung, wie beispielsweise eine Linsenbrechung, Bildsättigung, Einfluss der Belichtungssteuerung der entsprechenden Kamera möglich. Zusätzlich oder alternativ können angewendete Korrekturfaktoren, wie beispielsweise die Breitbandkorrektur, der Kalibrationsfaktor, die Korrektur von Störeinflüssen, teilweise zusammengefasst oder umgeschrieben werden. Des Weiteren können diese Korrekturen ersetzt oder ergänzt werden durch statistisch bestimmte Korrekturen, beispielsweise über maschinenbasiertes Lernen (Machine Learning), insbesondere basierend auf Bildmerkmalen.
In einem weiteren Schritt des Auswertungsverfahrens kann bei Bedarf die auf einer Ebene auftreffende, am Erdboden reflektierte Strahlung auch für geneigte Ebenen und auch für zum Erdboden gerichteten Ebenen ermittelt werden.
In einer alternativen Ausführung des Auswertungsverfahrens können die Teilschritte, beispielsweise das Anwenden eines physikalischen Kameramodells und/oder die Zuordnung von Bildbereichen zu Himmelsbereichen und/oder die Anwendung physikalisch motivierter Korrekturen und/oder einer Projektion in eine beliebige Ebene zur Bestimmung der am Erdboden reflektierten Strahlung teilweise oder als Ganzes durch ein Machine-Learning Modell nachgeahmt werden.
Des Weiteren kann in einem weiteren Schritt aus der ermittelten reflektierten Strahlung und der ermittelten direkten Strahlung und der ermittelten diffusen Strahlung die aktuelle Albedo des Erdbodens bzw. eine detailliertere Reflektanz des Erdbodens abgeleitet werden. In vorteilhafter Weise ist durch die Auswertung der Kameradaten des unteren Sichtfelds bzw. der der Erdoberfläche zugeordneten Kameradaten und des oberen Sichtfelds bzw. der dem Himmel zugeordneten Kameradaten die Ermittlung der aktuellen, beispielweise witterungsbedingten, jahreszeitbedingten oder vegetationsbedingten Albedo bzw. Reflektanz des Erdbodens im überwachten Gebiet möglich. Dadurch kann auf das Zurückgreifen auf einen weniger genauen Schätzwert der Albedo bzw. Reflektanz des Erdbodens verzichtet werden. Dadurch kann eine bessere Einschätzung der solaren Strahlung in diesem Gebiet ermöglicht werden. In vorteilhafter Weise kann die Reflektanz bzw. die Albedo des Erdbodens und/oder die reflektiere Strahlung und/oder direkte Strahlung und/oder die diffuse Strahlung winkelaufgelöst und spektral aufgelöst angegeben werden.
Zusätzlich kann aus der Strahlung aus den verschiedenen Bereichen des Himmels und aus der winkel- und spektral aufgelösten Reflektanz des Erdbodens bzw. der Albedo die globale und diffuse Bestrahlungsstärke in beliebigen geneigten Ebenen berechnet werden, einschließlich solcher Ebenen, die zum Erdboden zeigen. Dadurch kann insbesondere für bifaziale Photovoltaik-Module die Strahlung auf der Modulrückseite für jedes Modul individuell und unter Berücksichtigung der typischerweise komplexen Geometrie der Kraftwerke berechnet werden. Dieser Aufbau kann zusätzlich durch die Kombination mit einem Pyranometer unterstützt werden.
Die Reflektanz entspricht hierbei dem Reflexionsgrad der Oberfläche. Der Reflexionsgrad gibt das Verhältnis einer von einer Oberfläche reflektierten Strahlungsleistung zu einer auf die Oberfläche treffende Strahlungsleistung an.
Unter einer winkelaufgelösten Reflektanz wird eine Information im Sinne einer bidirektionalen Reflexionsverteilungsfunktion beziehungsweise daraus ableitbare Größen wie eine detaillierte Zusammensetzung der Albedo, insbesondere eine Black-Sky Albedo und White-Sky Albedo, verstanden.
Unter einer spektralaufgelösten Reflektanz wird das Verhältnis aus von einer Oberfläche reflektierten Strahlungsleistung bei einer bestimmten Wellenlänge bzw. in einem bestimmten Wellenlängenbereich und der auf die Oberfläche treffende Strahlungsleistung mit dieser bestimmten Wellenlänge bzw. in diesem Wellenlängenbereich, verstanden. Des Weiteren kann in vorteilhafter Weise durch die Kameradaten des unteren Sichtfelds bzw. der Erdoberfläche zugeordnete Kameradaten eine Verschmutzung oder Beschädigung einer Solaranlage und anderer solartechnischer Kollektoren überwacht werden, um bei Bedarf eine Reinigung oder Reparatur veranlassen zu können.
Nach einer günstigen Ausgestaltung der Anordnung kann wenigstens eine Auswerte- und Steuereinrichtung aus der Geschwindigkeit von wenigstens einer Wolke über der Erdoberfläche und der Winkelgeschwindigkeit von wenigstens einer Wolke im Kamerabild eine Höhe der Wolken ermitteln.
Die Berechnung der Wolkengeschwindigkeit über dem Erdboden kann im oberen Teilsichtfeld bzw. aus den dem Himmel zugeordneten Kameradaten basierend auf der Winkelgeschwindigkeit vp(-x/s erfolgen:
Figure imgf000040_0001
Daraus ergibt sich für die Höhe H2 der Wolke:
Figure imgf000040_0002
Hierbei entspricht der Winkel 0 dem maximalen Zenithwinkel bis zu dem das obere Sichtfeld von 180° oder zumindest annähernd 180° um die Kameraanordnung ausgewertet wird. N entspricht dem Durchmesser in Pixeln des kreisförmigen Bildbereichs, welcher den Himmelsbereich mit einem Zenithwinkel kleiner oder gleich 0 darstellt. Der Winkel 0 und der Parameter N lassen sich aus dem Kamerabild des oberen Sichtfelds von zumindest annähernd 180° um die Kameraanordnung bestimmen. vm/s entspricht der ermittelten Geschwindigkeit der Wolke über dem Erdboden, und vPix/s entspricht der ermittelten Winkelgeschwindigkeit der Wolke. H2 entspricht der Höhe der über die Kameraanordnung bzw. über der zum Himmel ausgerichteten wenigstens einen Kamera der Kameraanordnung projizierten Wolke. Da der Abstand der wenigstens einen Kamera zum Erdboden bekannt ist, kann aus dem bekannten Höhenprofil des überwachten Gebietes, der aktuellen Wolkenposition und der Höhe, der über die Kamera projizierten Wolke die tatsächliche Höhe der Wolke über dem Erdboden an ihrer aktuellen Position berechnet werden. Eine Verfeinerung der Berechnungen ist möglich.
Insbesondere kann die Auswerte- und Steuereinrichtung mit der Höhe der Wolken, der aktuellen Position der Wolken und der Wolkengeschwindigkeit über der Erdoberfläche eine zukünftige Wolkenposition ermitteln. Daraus kann eine zukünftige Verschattung oder eine zukünftige globale Bestrahlungsstärke in einem vorgegebenen Gebiet abgeschätzt bzw. berechnet werden. Dadurch können in vorteilhafter Weise genauere Kürzestfrist-Vorhersagen der Solarstrahlung mit nur einer Kameraanordnung am selben Standort erstellt werden, wobei die verwendeten Kameras nur wenige Meter über dem Erdboden installiert sind. In vorteilhafter Weise kann dadurch frühzeitig auf Verschattungen oder eine zu erwartende Fluktuation der Leistung der Solaranlage reagiert werden. In vorteilhafter Weise können die Kameradaten an einem gemeinsamen Standort ermittelt werden, wodurch eine Wartung und ein Betrieb der erfindungsgemäßen Anordnung erleichtert und kostengünstiger gestaltet werden kann.
Nach einer günstigen Ausgestaltung der Anordnung kann wenigstens eine Auswerte- und Steuereinrichtung die Geschwindigkeit von Wolken über der Erdoberfläche und/oder die Winkelgeschwindigkeit von Wolken im Kamerabild zeitlich und räumlich extrapolieren.
Hierbei können sowohl die Winkelgeschwindigkeit von Wolken im Kamerabild als auch die Geschwindigkeit von Wolken über der Erdoberfläche zeitlich und räumlich gemittelt/extrapoliert werden, um eine größere zeitliche und räumliche Abdeckung zu erhalten. Dadurch ist in vorteilhafter weise auch eine Ermittlung der Wolkenhöhe und der Wolkengeschwindigkeit von Wolken möglich, deren Schatten (noch) nicht im unteren Sichtfeld bzw. durch der Erdoberfläche zugeordneten Kameradaten erfasst ist. Durch das zeitliche und räumliche Extrapolieren kann ausgeglichen werden, dass das untere Sichtfeld einen kleinen Ausschnitt und dadurch weniger Wolkenschatten erfasst, als Wolken bzw. Wolkenmerkmale im oberen Teilsichtfeld erfasst werden. Durch das zeitliche und räumliche Extrapolieren ist es nicht zwingend notwendig die Daten einer Wolke und deren Schatten zur Auswertung zu verwenden. Es können auch die Schatten anderer Wolken für die Ermittlung der Wolkenhöhe einer im oberen Teilsichtfeld erfassten bzw. aus in den dem Himmel zugeordneten Kameradaten erfassen Wolke bzw. Wolkenmerkmal herangezogen werden. Diese Auswertung ist weniger genau als wenn die Kameradaten einer Wolke bzw. eines Wolkenmerkmals und deren Schatten zur Auswertung herangezogen werden. Es ist aber eine kontinuierliche Ermittlung der Wolkenhöhen möglich. Bei bekannten Systemen, beispielsweise Lidar-Systemen bzw. Ceilometer-Systemen, werden Wolkenhöhen nur punktuell ermittelt.
Nach einer günstigen Ausgestaltung der Anordnung kann die wenigstens eine Auswerte- und Steuereinrichtung aus den Kameradaten und/oder den ermittelten Parametern wenigstens einen aktuellen und/oder zukünftigen Wert wenigstens einer Komponente der globalen Bestrahlungsstärke spektral und/oder winkelaufgelöst bestimmen. Hierbei kann eine winkelaufgelöste Strahlungsinformation, insbesondere die Radianzentsprechend einer Projektion in die Ebene von Interesse gewichtet und integriert werden. Auch die winkelaufgelöste Information selbst kann für einen Nutzer von Interesse sein, sodass dann die Gewichtung und Integration entfallen kann. Durch eine winkelaufgelöste Erfassung der wenigstens einen Komponente der globalen Strahlung kann die aktuelle und/oder zukünftige Albedo des Erdbodens bestimmt werden. Des Weiteren kann eine aktuelle und/oder zukünftige Bestrahlungsstärke einer auf eine Ebene mit bekannter Neigung zum Erdboden auftreffenden Strahlung, beispielsweise eine Rückseite eines bifazialen Photovoltaik- Moduls, in vorteilhafter Weise bestimmt werden. Eine zusätzliche Unterstützung durch ein Pyranometer oder einen anderen geeigneten Sensor ist möglich. In vorteilhafter Weise sind keine weiteren Sensoren wie Pyranometer erforderlich, um Bestrahlungsstärken der Komponenten der globalen Strahlung spektral und/oder winkelaufgelöst aufzulösen oder Bestrahlungsstärken auf zur Erdoberfläche geneigten Ebenen zu ermitteln. Dadurch können Kosten für die Anordnung reduziert werden.
Nach einer günstigen Ausgestaltung der Anordnung kann wenigstens eine Auswerte- und Steuereinrichtung die wenigstens eine Komponente der globalen Strahlung auf einer geneigten Oberfläche insbesondere einer beliebig orientierten Oberfläche ermitteln. Dadurch kann in vorteilhafter Weise ein optimaler Neigungswinkel von Solarmodulen unter anderem von bifazialen Photovoltaik-Modulen ermittelt werden. Alternativ oder zusätzlich kann bei bekannten Neigungswinkeln von Solarmodulen unter anderem von bifazialen Photovoltaik-Modulen eine aktuelle und/oder eine zu erwartende Leistung ermittelt werden.
In vorteilhafter Weise kann durch die erfindungsgemäße Anordnung nahezu jeder Parameter, welcher zur Ermittlung und Vorhersage wenigstens einer Komponente der globalen Bestrahlungsstärke erforderlich ist, mit Hilfe der Kameraanordnung an einem Standort berechnet werden. Hierbei sind keine zusätzlichen Sensoren oder weiteren Kameraanordnungen erforderlich. Mit der erfindungsgemäßen Anordnung können zusätzlich Kürzestfristvorhersagen der Solarstrahlung erstellt werden. Zugleich erlaubt dieser Aufbau auch ein verbessertes Monitoring von Solarkraftwerken oder eine Überwachung in anderen Gebieten wie beispielsweise im Bereich von Flughäfen. Es wird eine Verwendung einer Anordnung zur Ermittlung wenigstens eines Parameters zur Bestimmung wenigstens einer Komponente einer globalen Bestrahlungsstärke vorgeschlagen, wobei Kameradaten in einem Sichtfeld von zumindest annähernd 360° um die Kameraanordnung erfasst werden, wobei aus den Kameradaten Informationen zur Solarstrahlung und/ oder zur Position und/oder zu Eigenschaften von Wolken abgeleitet werden.
Es gelten für die Verwendung der Anordnung im Wesentlichen die gleichen Definitionen, wie für die Anordnung zur Ermittlung wenigstens eines Parameters zur Bestimmung wenigstens einer Komponente einer globalen Bestrahlungsstärke, daher wird auf eine Wiederholung von Definitionen, beispielsweise von den Wolkenmerkmalen, der winkelaufgelösten Reflektanz und/oder der spektralaufgelösten Reflektanz, verzichtet.
In vorteilhafter Weise können bei der Verwendung der Anordnung durch das räumliche Sichtfeld von zumindest annähernd 360° um die Kameraanordnung die Vorteile einer Anordnung mit zum Himmel ausgerichteter Himmelskamera, auch als Wolkenkamera bekannt, mit den Vorteilen einer Anordnung mit zum Erdboden ausgerichteten Bodenkamera, auch als Schattenkamera bekannt, kombiniert werden und dadurch die Nachteile der Himmelskamera und der Bodenkamera ausgeglichen werden.
Zur Erzielung der Vorteile werden die Kameradaten, welche dem räumlichen Sichtfeld von zumindest annähernd 360° um die Kameraanordnung zugeordnet sind, ausgewertet. Zudem werden die Kameradaten des Sichtfelds von zumindest annähernd 360° um die Kameraanordnung, in vorteilhafter Weise an einem gemeinsamen Ort zeitgleich erfasst und für diesen Ort ausgewertet. Durch die Kombination der Vorteile kann eine Kameraanordnung mit einem Sichtfeld von zumindest annähernd 360° ausreichen, um genügend Kameradaten zu erfassen, um gewünschte Parameter zuverlässig zu erfassen und/oder vorherzusagen. Dadurch kann auf weitere Kameras an anderen Standorten oder auf weitere Sensoreinheiten verzichtet werden, wodurch Kosten reduziert und ein Aufwand zum Auswerten reduziert werden können.
Ein Vorteil der Auswertung der Kameradaten eines oberen Teilsichtfelds von zumindest annähernd 180° um die Kameraanordnung bzw. aus der Auswertung von dem Himmel zugeordneten Kameradaten ist, dass ein großer Ausschnitt des Himmels erfasst und überwacht werden kann, insbesondere Wolken können lange bevor deren Schatten in dem überwachten Gebiet eintreffen, erkannt und entsprechende Vorhersagen gemacht werden.
Ein Vorteil der Auswertung der Kameradaten des unteren Teilsichtfelds von zumindest annähernd 180° um die Kameraanordnung ist bzw. Auswertung der der Erdoberfläche zugeordneten Kameradaten ist, dass manche Parameter, wie eine Wolkengeschwindigkeit über dem Erdboden, genau und direkt aus diesen Kameradaten entnommen werden können. Der überwachbare und erfassbare Ausschnitt des Erdbodens ist hierbei unter anderem abhängig von einer Höhe, in welcher die wenigstens eine Kamera, welche das untere Teilsichtfeld von zumindest annähernd 180° um die Kameraanordnung erfasst, angeordnet ist.
Um eine zuverlässige Vorhersage treffen zu können, werden Bodenkameras üblicherweise auf hohen Türmen oder Bergrücken angeordnet, um den Ausschnitt des Erdbodens, welchen sie überwachen zu vergrößern. Durch die Höhe können bei diesen Anordnungen Wolken, welche zwischen der Kamera und dem Erdboden schweben, eine Überwachung des Erdbodens verhindern oder erschweren. In vorteilhafter Weise kann eine Vorhersage mit Kameradaten wenigstens einer zum Himmel ausgerichteten Kamera oder mit dem Himmel zugeordneten Kameradaten ermittelt werden, wodurch zur Überwachung des Erdbodens nicht zwingend ein großer Ausschnitt des Erdbodens erforderlich ist, sodass die Kameraanordnung im Gegensatz zu bekannten Schattenkameraanordnungen mit geringerer Höhe über dem Erdboden angeordnet werden kann. Beispielsweise kann die Halteanordnung die wenigstens eine Kamera mit einem Abstand, der üblich für Albedomessungen ist, von 1 -100 m zum Erdboden fixieren. Das Auswahlen des minimalen Abstands der wenigstens einen Kamera zum Erdboden kann vom Erdboden abhängig gemacht sein. An Standorten mit Schnee, ungemähtem Gras oder Ackerpflanzen am Erdboden sollte eine Höhe von beispielsweise 10 m gewählt werden, um Störeinflüsse durch Unebenheiten der Oberfläche zu vermeiden. Es sind bei weniger stark bewachsenen Oberflächen und/oder in Gebieten mit geringem Schneefall auch geringere Höhen möglich.
Des Weiteren kann die Mindesthöhe so ausgewählt werden, dass Gradienten der Intensitäten der RGB- Kanäle der wenigstens einen Kamera, welche zum Erdboden ausgerichtet ist, sicher identifiziert werden können, sodass die daraus ermittelbaren Parameter zuverlässig und genau bestimmt werden können.
Ein maximaler Abstand der wenigstens einen Kamera, welche zum Erdboden ausgerichtet ist, verhindert, dass tiefliegende Wolken eine Erfassung von Kameradaten erschweren. Dieser maximale Abstand wird in Abhängigkeit vom Einsatzzweck und Einsatzort bestimmt. Sind beispielsweise Wolken in einer Höhe ab 500 m über der Kamera von Interesse, sollte die mindestens eine Kamera in einer Höhe von nicht mehr als 100 m angebracht werden. Wird die Anordnung auch zur Messung der am Erdboden reflektierten Strahlung verwendet, ist ein geringerer Abstand vorteilhaft. Mit zunehmendem Abstand nimmt auch das Gebiet zu, welches in die Messung der am Erdboden reflektierten Strahlung eingeht. Dieses Gebiet kann potenziell durch unerwünschte Einflüsse wie Bäume, reflektierende Objekte, Landnutzung etc. beeinträchtigt werden.
Dadurch, dass die Kameraanordnung maximal in 100 m Höhe fixiert ist, können die Kosten für die Halteanordnung reduziert werden. Zudem kann eine solche feststehende Kameraanordnung einfach und schnell an beliebigen Orten aufgestellt werden, sodass die Kameraanordnung flexibel einsetzbar ist.
Alternativ kann eine Drohne einfach in einer solchen Höhe fliegen, und kann ebenfalls flexibel an mehreren Standorten eingesetzt werden. Dadurch ist auch ein Standortwechsel, nach erfolgter Berechnung der gewünschten Parameter, möglich.
Durch die geringe Höhe der Kameraanordnung oder durch die Verwendung einer Drohne kann eine Eignung eines Geländes beispielsweise für einen Solarpark einfach und kostengünstig überprüft werden. Es ist kein Turm oder ein anderes hohes Gebäude erforderlich.
In vorteilhafter Weise können die Kameradaten durch die erfindungsgemäße Anordnung an einem gemeinsamen Standort ermittelt werden, wodurch das Übertragen von Kameradaten zwischen zwei Standorten und das Umrechnen der Daten von einem Standort auf den anderen entfallen kann. Insbesondere kann durch eine reduzierte Kameraanzahl bzw. eine Reduzierte Kameraanordnungsanzahl ein Aufwand für eine Hardware und dadurch Kosten für die Hardware reduziert werden. Nach einer günstigen Ausgestaltung der Verwendung der Anordnung kann sich das Sichtfeld der Kameraanordnung an einem vorgegebenen Ort aus einem ersten Teilsichtfeld und einem zweiten Teilsichtfeld von jeweils zumindest annähernd 180° um die Kameraanordnung zusammensetzten und mit wenigstens einer ersten Kamera Kameradaten im ersten Teilsichtfeld erfasst werden und mit wenigstens einer zweiten Kamera Kameradaten im zweiten Teilsichtfeld erfasst werden, wobei sich die beiden Teilsichtfelder der Kameras zu einem räumlichen Sichtfeld von zumindest annähernd 360° ergänzen. In vorteilhafter Weise kann die Zuordnung von Kameradaten zu den Teilsichtfeldern auf diese Weise erleichtert werden.
Insbesondere können mit wenigstens einer ersten Kamera als Himmelskamera Kameradaten im ersten Teilsichtfeld erfasst werden, das in Richtung Himmel ausgerichtet ist und ein oberes Teilsichtfeld bildet. Mit wenigstens einer zweiten Kamera als Bodenkamera können Kameradaten im zweiten Teilsichtfeld erfasst werden, das in Richtung Erdoberfläche ausgerichtet ist und ein unteres Teilsichtfeld bildet.
Alternativ können mit einer 360°-Kamera mit einem Sichtfeld von zumindest annähernd 360° um die Kameraanordnung Kameradaten im ersten Teilsichtfeld und Kameradaten im zweiten Teilsichtfeld erfasst werden. Insbesondere kann das erste Teilsichtfeld ein in Richtung Himmel ausgerichtetes oberes Teilsichtfeld bilden und das zweite Teilsichtfeld ein in Richtung der Erdoberfläche ausgerichtetes unteres Teilsichtfeld bilden. Hierbei kann insbesondere das erste Teilsichtfeld ein in Richtung Himmel ausgerichtetes oberes Teilsichtfeld bilden und das zweite Teilsichtfeld kann ein in Richtung der Erdoberfläche ausgerichtetes unteres Teilsichtfeld bilden. Durch die Verwendung einer Kamera kann in vorteilhafter Weise auf die Verwendung mehrerer Kameras verzichtet werden. Dadurch kann eine Installation vereinfacht werden. Des Weiteren können durch die reduzierte Anzahl an Kameras durch eine einzige Kamera mögliche Fehlerquellen minimiert werden, beispielsweise bei einer Daten Übertragung, oder durch eine ungenaue Ausrichtung der Kameras und/oder durch die Kalibrationen der entsprechenden Kameras. Das Zuordnen der Kameradaten zum oberen oder unteren Teilsichtfeld kann bei der Auswertung Kameradaten erfolgen.
In vorteilhafter Weise können die Kameradaten der jeweiligen Kameras einfach dem oberen Teilsichtfeld oder dem unteren Teilsichtfeld zugeordnet werden. Im Gegensatz zu bekannten Anordnungen mit Bodenkameras überwacht die erfindungsgemäße Anordnung nur einen kleinen Ausschnitt des Erdbodens, so dass die Bodenkamera bzw. die Kamera, welche dem Erdboden zugeordnete Kameradaten erfasst, mit geringerem Abstand zum Erdboden angeordnet werden kann als bei üblichen Bodenkameraanordnungen.
Bei einer Ausführung der Kameraanordnung mit einer Himmelskamera und einer Bodenkamera können die beiden Kameras am gleichen Standort mit entgegengesetzter Ausrichtung installiert werden.
In vorteilhafter Weise kann bei der erfindungsgemäßen Verwendung der Anordnung ein Aufwand für die Anschaffung und für den Betrieb einer Hardware reduziert werden, da die Vorteile einer Wolkenkameraanordnung und einer Schattenkameraanordnung miteinander kombiniert werden können. Nach einer günstigen Ausgestaltung der Verwendung der Anordnung kann aus den erfassten Kameradaten dem Himmel zugeordnete Kameradaten entnommen werden, und aus diesen dem Himmel zugeordneten Kameradaten wenigstens einen der folgenden Parameter: eine direkte Bestrahlungsstärke und/oder eine diffuse Strahlung und/oder eine globale Bestrahlungsstärke und/oder wenigstens eine Position von Wolkenmerkmalen und/oder von Wolken bedeckte Himmelsbereiche und/oder aus Wolkenpositionen WP und/oder aus der Position von Wolkenmerkmalen im Kamerabild zwischen wenigstens zwei Zeitstempeln eine Winkelgeschwindigkeit von wenigstens einer Wolke im Kamerabild ermittelt werden.
Hierbei können aus den erfassten Kameradaten des oberen Teilsichtfelds Bildmerkmale bzw. aus den dem Himmel zugeordneten Kameradaten, welche der Position der Wolke oder den Positionen der Wolken entsprechen, erkannt und eine Verschiebung Am, An von Bildmerkmalen im Kamerabild in Richtung einer x-Achse und einer y-Achse zwischen den Zeitpunkten ti =to und t2=to+At ermittelt werden.
Die Verschiebung kann durch Erstellung von Differenzbildern di eines Farbkanals der vorhandenen Farbkanälen, dargestellt werden. Hierbei kann ein erstes Differenzbild di aus einem Kamerabild zu einem ersten Zeitpunkt ti=to und einen Kamerabild zu einem zweiten Zeitpunkt t2=to+At erstellt werden. Zusätzlich kann ein zweites Differenzbild d2 aus dem Kamerabild zum zweiten Zeitpunkt t2=to+2At und einem Kamerabild zu einem dritten Zeitpunkt ts=to+2At erstellt werden. Die Differenzbilder di und d2 können entzerrt werden. Unter dem Entzerren wird hierbei verstanden, dass die ermittelten Werte in eine horizontale Ebene mit unbekannter Höhe über der Kamera projiziert werden. Aus dieser Projektion resultieren Orthobilder 01 und 02. Aus den Orthobildern 01 und 02 werden Bildmerkmale und deren Position identifiziert. In einem weiteren Schritt können die Orthobilder 01 und 02 in binäre Bilder bi , b2 umgewandelt werden, wobei beispielsweise jeweils 2% der Pixel den Wert 1 und die übrigen 98% der Pixel den Wert 0 erhalten. Diese 2% der Pixel weisen betragsmäßig die größte Differenz auf. Dadurch können starke Anstiege oder Abfälle von diesem Farbkanal zwischen den Zeitpunkten to, to+At, to+2At ermittelt werden. In einem weiteren Schritt können über beispielsweise eine Kreuzkorrelation diese binären Bilder insgesamt verglichen oder in einem verfeinerten Verfahren können die Bilder bereichsweise verglichen werden.
Die Verschiebung Am, An entspricht der Verschiebung, für welche die Kreuzkorrelation zwischen den binären Orthobildern 01 und 02 maximal wird. Dieses Verfahren kann für wenigstens einen Farbkanal durchlaufen werden. Es können auch mehrere Farbkanäle auf diese Art ausgewertet werden. Des Weiteren können weitere Verfeinerungen und geeignete Anpassungen in dem Verfahren zur Ermittlung der Verschiebung Am, An der Wolke bzw. der Wolken vorgenommen werden.
In einem alternativen Verfahren lassen sich Bildmerkmale und deren Verschiebung Am, An auch auf andere Weise beispielsweise mit Hilfe von SIFT (scale invariant feature transform) oder über andere maschinelle Lernverfahren ermitteln.
Mit Hilfe des bekannten Zeitversatzes t2 - tiund Am, An lässt sich dann die Winkelgeschwindigkeit in beiden Richtungen x und y berechnen als:
Figure imgf000051_0001
Aus der Winkelgeschwindigkeit kann die Geschwindigkeit der Wolke über dem Erdboden ermittelt werden
^m/s ^pix/s^ tun 9 H2 I N Hierbei entspricht der Winkel 0 dem maximalen Zenithwinkel bis zu dem das obere räumliche Teilsichtfeld von zumindest annähernd 180° um die Kameraanordnung ausgewertet wird. N entspricht dem Durchmesser in Pixeln des kreisförmigen Bildbereichs, welcher den Himmelsbereich mit einem Zenithwinkel kleiner oder gleich 0 darstellt. Der Winkel 0 und der Parameter N lassen sich aus dem Kamerabild des oberen Teilsichtfelds von zumindest annähernd 180° um die Kameraanordnung bzw. aus den dem Himmel zugeordneten Kameradaten bestimmen. vPix/s entspricht der ermittelten Winkelgeschwindigkeit der Wolke. H2 entspricht der Höhe der über die Kameraanordnung bzw. über der zum Himmel ausgerichteten wenigstens einen Kamera der Kameraanordnung projizierten Wolke. Diese ist bei bekannten Wolkenkameraanordnungen nicht bekannt und wird durch Messdaten weiterer Messanordnungen teils an anderen Orten bestimmt.
Die Grundlage zur Ermittlung der direkten Strahlung und/oder der diffusen Strahlung bilden die Intensitätswerte der RGB-Kanäle der wenigstens einen Kamera, welche das obere Teilsichtfeld oder Bereiche des oberen Teilsichtfelds überwacht. Diese Intensitätswerte können direkt aus der korrespondierenden Kamera ausgelesen werden.
In einem möglichen Auswertungsverfahren wird mit einem physikalischen Kameramodel aus den Intensitätswerten der RGB-Kanäle des Kamerabildes die Strahlung (Radianz) berechnet, welche aus einem bestimmten Himmelsbereich empfangen wird. Zusätzlich können physikalisch motivierte Korrekturen angewendet werden, um die Berechnung zu verbessern. In einem alternativen Ausführungsbeispiel kann das physikalische Kameramodell durch ein rein statistisches maschinenbasiertes Lernmodell (Machine-Learning-Modell) ersetzt werden. Insbesondere kann eine Architektur unter Verwendung eines Convolutional Neural Network mit anschließendem Fully Connected Neural Network bei geeignetem Training das physikalische Kameramodell ersetzen oder ergänzen oder nachahmen oder selbständig anpassen.
In einem Schritt des Auswertungsverfahrens mit Grundannahmen des physikalischen Kameramodels kann eine für Kameras übliche Gamma- Korrektur umgekehrt werden, um aus dem RGB-Bild der jeweiligen Kamera ein linearisiertes RGB-Bild zu erhalten. Dieser Schritt kann entfallen, wenn die entsprechende Kamera keine Gamma-Korrektur ausführt, sodass die Gamma-Korrektur nicht nachträglich umgekehrt werden muss. Dies kann beispielsweise der Fall sein, wenn die Gamma-Korrektur der entsprechenden Kamera deaktiviert wird oder die Kamera aus anderen Gründen keine Gamma-Korrektur ausführt.
In einem weiteren Schritt des Auswertungsverfahrens kann beispielsweise eine pixelweise Zuordnung von Bildbereichen zu Himmelsbereichen über Azimuth- und ZenithwinkelA/ertikalwinkel erfolgen. Anstelle einer pixelweisen Zuordnung sind auch andere Zuordnungen vorstellbar. Ein Winkelgrad des Azimuthwinkels kann von Süden über Westen, Norden und Osten angegeben werden.
Beim Zuordnen der Bildbereiche zu Himmelsbereichen können geometrische Kalibrationen der entsprechenden Kamera und darauf aufbauende Transformationen angewendet werden. Alternativ kann die Zuordnung von Bildbereichen zu Himmelsbereichen über Azimuth- und ZenithwinkelA/ertikalwinkel grob erfolgen. Beispielsweise ist eine Zuordnung ohne Verwendung von Kalibrationen vorstellbar. Die Kalibrationen und darauf aufbauende Transformationen können als ein maschinenbasiertes Lernmodell (Machine-Learning-Modell) umgesetzt sein und fortlaufend verbessert werden. In einem weiteren Schritt des Auswertungsverfahrens können Intensitäten der Farbkanäle des linearisierten RGB-Bildes gewichtet und summiert werden. Die Gewichtung kann eine möglichst gleichmäßige Sensitivität der entsprechenden Kamera im sichtbaren Wellenlängenbereich erzielen.
In einem weiteren Schritt des Auswertungsverfahrens kann eine Multiplikation mit einer Breitbandkorrektur, welche Anteile der breitbandigen Solarstrahlung berücksichtigt, welche aus dem nicht-sichtbaren Wellenlängenbereich stammen, erfolgen. Des Weiteren ist eine Multiplikation mit einem Kalibrationsfaktor, welcher die Sensitivität der Kamera berücksichtigt, vorstellbar.
Zudem ist eine Anwendung von wenigstens einer Korrektur zur Berücksichtigung von Störeinflüssen auf die Messung, wie beispielsweise eine Linsenbrechung, Bildsättigung, Einfluss der Belichtungssteuerung der entsprechenden Kamera, möglich. Zusätzlich oder alternativ können angewendete Korrekturfaktoren, wie beispielsweise die Breitbandkorrektur, der Kalibrationsfaktor, die Korrektur von Störeinflüssen, teilweise zusammengefasst oder umgeschrieben werden. Des Weiteren können diese Korrekturen ersetzt oder ergänzt werden durch statistisch bestimmte Korrekturen, beispielsweise über maschinenbasiertes Lernen (Machine Learning), insbesondere basierend auf Bildmerkmalen.
In einem weiteren Schritt des Auswertungsverfahrens kann aus der Strahlung (Radianz), welche aus verschiedenen Himmelsbereichen empfangen wird, beispielsweise durch eine Projektion eine diffuse und/ oder direkte Strahlung in einer beliebigen horizontalen oder zum Erdboden geneigten Ebene einschließlich einer Ebene die dem Erdboden zugewandt ist, bestimmt werden. Dabei kann die Zuordnung der Bildbereiche zu Himmelsbereichen und eine Integration über Bildbereiche/ Himmelsbereiche zum Einsatz kommen. Bei Bedarf kann auch die globale Bestrahlungsstärke in geneigten und auch in zum Erdboden gerichteten Ebenen ermittelt werden.
In einer alternativen Ausführung des Verfahrens können die Teilschritte (Anwenden eines physikalischen Kameramodells, Zuordnung von Bildbereichen zu Himmelsbereichen, Anwendung physikalisch motivierter Korrekturen, Projektion in eine beliebige Ebene) zur Bestimmung von direkter und diffuser Strahlung in einer beliebigen Ebene teilweise oder als Ganzes durch ein Machine-Learning Modell nachgeahmt werden.
In einer einfachsten Ausführung der Anordnung können durch die Auswertung der Intensitäten der RGB-Kanäle aus dem oberen Teilsichtfeld bzw. aus dem Erdboden zugeordneten Kameradaten Werte ermittelt werden, welche der Summe aus diffuser Strahlung und direkter Strahlung entsprechen. Erweiterungen wären möglich, sodass eine Ermittlung separater Werte für diffuse Strahlung und direkte Strahlung ermöglicht werden kann.
In vorteilhafter Weise kann durch die Ermittlung der direkten Strahlung und/oder der diffusen Strahlung eine Performance eines Solarwerks an dem Standort der erfindungsgemäßen Anordnung ermittelt werden und eine Solare- Ressource am Standort beurteilt werden. Die Strahlung kann nur durch die wenigstens eine Kamera und deren Kameradaten sowie einer Auswerte- und Steuereinrichtung ermittelt werden. Es sind keine weiteren Sensoren oder ähnliches erforderlich.
In vorteilhafter Weise kann die Kenntnis der von Wolken bedeckten Bereiche des Himmels im oberen Teilsichtfeld zur weiteren Beurteilung der ermittelten Strahlung herangezogen werden. Beispielsweise kann die diffuse Strahlung durch Wolken zunehmen und eine direkte Strahlung kann durch Wolken abnehmen. Bei einer anderen Witterung können am Standort andere Strahlungsbedingungen herrschen. Die aktuellen und die zukünftigen Strahlungsbedingungen können durch die Ermittlung der Wolkenpositionen und der Geschwindigkeit der Wolken zumindest teilweise ermittelt werden.
Nach einer günstigen Ausgestaltung der Verwendung der Anordnung kann aus den erfassten Kameradaten des unteren Teilsichtfelds bzw. aus den der Erdoberfläche zugeordneten Kameradaten, eine an der Erdoberfläche reflektierte Strahlung und/oder eine Albedo der Erdoberfläche und/oder wenigstens eine Wolkenschattenposition und/oder aus den Wolkenschattenpositionen zwischen wenigstens zwei Zeitstempeln eine Geschwindigkeit von wenigstens einer Wolke über der Erdoberfläche ermittelt werden.
Die Geschwindigkeit einer Wolke oder von mehreren Wolken über dem Erdboden kann, aus den Kamerabildern des unteren Teilsichtfelds bzw. aus den der Erdoberfläche zugeordneten Kameradaten ermittelt werden.
Das korrespondierende Auswertungsverfahren ist ähnlich dem zur Bestimmung der Winkelgeschwindigkeit der Wolken aus Bildern des oberen Teilsichtfelds bzw. aus den dem Himmel zugeordneten Kameradaten.
In einem alternativen Verfahren lassen sich Bildmerkmale, welche der Position wenigstens eines Wolkenschattens entsprechen, und deren Verschiebung Am, An auch auf andere Weise, beispielsweise mit Hilfe von SIFT (scale invariant feature transform) oder über andere maschinelle Lernverfahren, ermitteln. In einem möglichen Verfahren können Bildmerkmale, welche der Position eines Wolkenschattens oder den Positionen mehrerer Wolkenschatten entsprechen, erkannt und eine Verschiebung Am, An von Bildmerkmalen im Kamerabild in Richtung einer x-Achse und einer y-Achse zwischen den Zeitpunkten ti= to, t2=to+At, ts= to+2At ermittelt werden.
Die Verschiebung kann durch Erstellung von Differenzbildern di eines Farbkanals der vorhandenen Farbkanälen dargestellt werden. Hierbei kann ein erstes Differenzbild di aus einem Kamerabild zu einem ersten Zeitpunkt ti=to und einen Kamerabild zu einem zweiten Zeitpunkt t2=to+At erstellt werden. Zusätzlich kann ein zweites Differenzbild d2 aus dem Kamerabild zum zweiten Zeitpunkt t2=to+At und einem Kamerabild zu einem dritten Zeitpunkt ts=to+2At erstellt werden. Die Differenzbilder di und d2 können entzerrt werden. Unter dem Entzerren wird hierbei verstanden, dass die Bilder mit Hilfe des bekannten Höhenprofils der Erdoberfläche des überwachten Gebietes sowie mit Hilfe geometrischer Kalibrationen der Kamera in Erdbodenebene unter der die Kamera projektiert werden. Aus dieser Projektion resultieren Orthobilder 01 und 02. Aus den Orthobildern 01 und 02 werden Bildmerkmale und deren Position identifiziert. Hierbei ist die Projektionshöhe, im Gegensatz zur Auswertung des oberen Teilsichtfelds von zumindest annähernd 180° um die Kameraanordnung, bekannt. In den entsprechenden Orthobildern entspricht dadurch jeder Bildpixel einem quadratischen Teilbereich des überwachten Gebiets. Differenzbilder können aus den in Graustufen umgerechneten Orthobildern berechnet werden. Anstellte von Graustufen sind auch andere Ausgaben möglich.
Wie bei der Ermittlung der Winkelgeschwindigkeit können Differenzbilder in binäre Bilder umgewandelt werden. Hierbei können beispielsweise jeweils 2% der Pixel den Wert 1 und die übrigen 98% der Pixel den Wert 0 erhalten. Diese 2% der Pixel weisen betragsmäßig die größte Differenz auf. Dadurch können starke Anstiege oder Abfälle von diesem Farbkanal zwischen den Zeitpunkten to, to+At, to+2At ermittelt werden. In einem weiteren Schritt können über, beispielsweise eine Kreuzkorrelation, diese binären Bilder insgesamt verglichen, oder in einem verfeinerten Verfahren können die Bilder bereichsweise verglichen werden.
Die Verschiebung Am, An der Bildpixel entspricht der Verschiebung für welche die Kreuzkorrelation zwischen den binären Orthobildern 01 und 02 maximal wird. Die Verschiebung der Am, An der Bildpixel kann einer entsprechenden Verschiebung Ax, Ay der Wolkenschatten im überwachten Gebiet zugeordnet werden. Dieses Verfahren kann für wenigstens einen Farbkanal durchlaufen werden. Es können auch mehrere Farbkanäle auf diese Art ausgewertet werden. Des Weiteren können weitere Verfeinerungen und geeignete Anpassungen in dem Verfahren zur Ermittlung der Verschiebung Am, An der Bildpixel des Wolkenschattens bzw. der Wolkenschatten vorgenommen werden.
Der Betrag dieser „absoluten“ Geschwindigkeit der Wolkenschatten über dem Erdboden wird dann berechnet als
Figure imgf000058_0001
wobei der Skalierungsfaktor ksc (Einheit m/pixel) die bekannte Seitenlänge eines Bildpixels in Metern angibt.
Da die Geschwindigkeit der Wolkenschatten über dem Erdboden auch der Geschwindigkeit der korrespondierenden Wolke über dem Erdboden entspricht, sind in vorteilhafter Weise zur Ermittlung der Wolkengeschwindigkeit über dem Erdboden keine zwei Himmelskameras, welche unterschiedliche obere Teilsichtfelder überwachen, erforderlich, da die Wolkengeschwindigkeit aus dem einen unteren Teilsichtfeld bzw. die der Erdoberfläche zugeordneten Kameradaten einfach ermittelt werden kann. Zudem liefert die Auswertung des unteren Teilsichtfelds mehr zusätzliche Informationen, als die Auswertung eines weiteren oberen Teilsichtfelds. Zudem kann auf die Verwendung von Schätzwerten bei der Berechnung der Wolkengeschwindigkeit verzichtet werden, wodurch ein zuverlässiger und genauer Wert für die Wolkengeschwindigkeit über dem Erdboden berechnet werden kann.
Unter der Wolkengeschwindigkeit über dem Erdboden wird im Folgenden eine Geschwindigkeit der Wolken im Vergleich zu gedachten Fixpunkten am Erdboden verstanden. Aus der ermittelten Wolkengeschwindigkeit und der aktuellen Wolkenposition, kann in vorteilhafter Weise eine zukünftige Wolkenposition und eine entsprechende Veränderung der globalen Bestrahlungsstärke in einem vorgegeben Bereich ermittelt bzw. vorhergesagt werden.
Die an der Erdoberfläche reflektierte Strahlung und/oder die Albedo des Erdbodens kann ebenfalls ermittelt werden. Die Ermittlung, der am Erdboden reflektierten Strahlung verläuft ähnlich, wie die Ermittlung der direkten Strahlung und/oder der diffusen Strahlung.
Als Grundlage werden die Intensitätswerte der RGB-Kanäle der wenigstens einen Kamera im unteren Teilsichtfeld bzw. die der Erdoberfläche zugeordneten Kameradaten ausgewertet. Diese Intensitätswerte können direkt aus der korrespondierenden Kamera oder aus den der Erdoberfläche zugeordneten Kameradaten ausgelesen werden.
In einem möglichen Auswertungsverfahren wird mit einem physikalischen Kameramodel aus den Intensitätswerten der RGB-Kanäle des Kamerabildes die Strahlung berechnet, welche aus einem bestimmten Erdbodenbereich empfangen wird. Zusätzlich können physikalisch motivierte Korrekturen angewendet werden, um die Berechnung zu verbessern. In einem alternativen Ausführungsbeispiel kann das physikalische Kameramodell durch ein rein statistisches maschinenbasiertes Lernmodell (Machine-Learning-Modell) ersetzt werden. Insbesondere kann eine Architektur unter Verwendung eines Convolutional Neural Network mit anschließendem Fully Connected Neural Network bei geeignetem Training das Kameramodell ersetzen oder ergänzen oder nachahmen oder selbständig anpassen.
In einem Schritt des Auswertungsverfahrens mit Grundannahmen des physikalischen Kameramodels kann eine für Kameras übliche Gamma- Korrektur umgekehrt werden, um aus dem RGB-Bild der jeweiligen Kamera ein linearisiertes RGB-Bild zu erhalten. Dieser Schritt kann entfallen, wenn die entsprechende Kamera keine Gamma-Korrektur ausführt, sodass die Gamma-Korrektur nicht nachträglich umgekehrt werden muss. Dies kann beispielsweise der Fall sein, wenn die Gamma-Korrektur der entsprechenden Kamera deaktiviert ist oder die Kamera aus anderen Gründen keine Gamma-Korrektur ausführt.
In einem weiteren Schritt des Auswertungsverfahrens kann beispielsweise eine pixelweise Zuordnung von Bildbereichen zu Erdbodenbereichen mit Hilfe des bekannten Höhenprofils der Erdoberfläche des überwachten Gebietes erfolgen. Hierbei kann jeder Bildpixel einem quadratischen Teilbereich des überwachten Gebiets entsprechen.
Alternativ kann die pixelweise Zuordnung von Bildbereichen zu Erdbodenbereichen aus der Wolkengeschwindigkeitsermittlung übernommen werden. Anstelle einer pixelweisen Zuordnung sind auch andere Zuordnungen vorstellbar. Beim Zuordnen der Bildbereiche zu Erdbodenbereichen können geometrische Kalibrationen der entsprechenden Kamera und darauf aufbauende Transformationen angewendet werden. Des Weiteren ist eine Zuordnung ohne Verwendung von Kalibrationen vorstellbar. Die Kalibrationen und darauf aufbauende Transformationen können als ein maschinenbasierten Lernmodell (Machine-Learning-Modell) umgesetzt sein und fortlaufend verbessert werden.
In einem weiteren Schritt des Auswertungsverfahrens können Intensitäten der Farbkanäle des linearisierten RGB-Bildes gewichtet und summiert werden. Die Gewichtung kann eine möglichst gleichmäßige Sensitivität der entsprechenden Kamera im sichtbaren Wellenlängenbereich erzielen.
In einem weiteren Schritt des Auswertungsverfahrens kann eine Multiplikation mit einer Breitbandkorrektur, welche Anteile der breitbandigen Solarstrahlung berücksichtigt, welche aus dem nicht-sichtbaren Wellenlängenbereich stammen, erfolgen. Des Weiteren ist eine Multiplikation mit einem Kalibrationsfaktor, welcher die Sensitivität der Kamera berücksichtigt, vorstellbar.
Zudem ist eine Anwendung von wenigstens einer Korrektur zur Berücksichtigung von Störeinflüssen auf die Messung, wie beispielsweise eine Linsenbrechung, Bildsättigung, Einfluss der Belichtungssteuerung der entsprechenden Kamera, möglich. Zusätzlich oder alternativ können angewendete Korrekturfaktoren, wie beispielsweise die Breitbandkorrektur, der Kalibrationsfaktor, die Korrektur von Störeinflüssen, teilweise zusammengefasst oder umgeschrieben werden.
Des Weiteren können diese Korrekturen ersetzt oder ergänzt werden durch statistisch bestimmte Korrekturen, beispielsweise über maschinenbasiertes Lernen (Machine Learning), insbesondere basierend auf Bildmerkmalen. In einem weiteren Schritt des Auswertungsverfahrens kann bei Bedarf die auf einer Ebene auftreffende, am Erdboden reflektierte Strahlung auch für geneigte Ebenen und auch für zum Erdboden gerichteten Ebenen ermittelt werden.
In einer alternativen Ausführung des Verfahrens können die Teilschritte zur Bestimmung der am Erdboden reflektierten Strahlung, beispielsweise das Anwenden eines physikalischen Kameramodells und/oder die Zuordnung von Bildbereichen zu Himmelsbereichen und/oder die Anwendung physikalisch motivierter Korrekturen und/oder die Projektion in eine beliebige Ebene, teilweise oder als Ganzes durch ein Machine-Learning Modell nachgeahmt werden.
Des Weiteren kann in einem weiteren Schritt aus der ermittelten reflektierten Strahlung und der ermittelten direkten Strahlung und der ermittelten diffusen Strahlung die aktuelle Albedo des Erdbodens bzw. eine detailliertere Reflektanz des Erdbodens abgeleitet werden.
In vorteilhafter Weise ist durch die Auswertung der Kameradaten des unteren Teilsichtfelds von zumindest annähernd 180° um die Kameraanordnung bzw. der der Erdoberfläche zugeordneten Kameradaten und des oberen Teilsichtfelds von zumindest annähernd 180° um die Kameraanordnung bzw. der dem Himmel zugeordneten Kameradaten die Ermittlung der aktuellen, beispielweise witterungsbedingten, jahreszeitbedingten oder vegetationsbedingten Albedo bzw. Reflektanz des Erdbodens im überwachten Gebiet möglich. Dadurch kann auf das Zurückgreifen auf einen weniger genauen Schätzwert der Albedo bzw. Reflektanz des Erdbodens verzichtet werden. Wodurch eine bessere Einschätzung der solaren Strahlung in diesem Gebiet ermöglicht werden kann. In vorteilhafter Weise kann die Reflektanz bzw. die Albedo des Erdbodens und/oder die reflektiere Strahlung und/oder direkte Strahlung und/oder die diffuse Strahlung winkelaufgelöst und spektral aufgelöst angegeben werden.
Zusätzlich kann aus der Strahlung aus den verschiedenen Bereichen des Himmels und aus der winkel- und spektral aufgelösten Reflektanz des Erdbodens bzw. der Albedo die globale und diffuse Bestrahlungsstärke in beliebigen geneigten Ebenen berechnet werden, einschließlich solcher Ebenen, die zum Erdboden zeigen. Dadurch kann insbesondere für bifaziale Photovoltaik-Module die Strahlung auf der Modulrückseite für jedes Modul individuell, und unter Berücksichtigung der typischerweise komplexen Geometrie der Kraftwerke, berechnet werden. Dieser Aufbau kann zusätzlich durch die Kombination mit einem Pyranometer unterstützt werden.
Die Reflektanz entspricht hierbei dem Reflexionsgrad der Oberfläche. Der Reflexionsgrad gibt das Verhältnis einer von einer Oberfläche reflektierten Strahlungsleistung zu einer auf die Oberfläche treffende Strahlungsleistung an.
Unter einer winkelaufgelösten Reflektanz wird eine Information im Sinne einer bidirektionalen Reflexionsverteilungsfunktion beziehungsweise daraus ableitbare Größen wie eine detaillierte Zusammensetzung der Albedo, insbesondere eine Black-Sky Albedo und White-Sky Albedo, verstanden.
Unter einer spektralaufgelösten Reflektanz wird das Verhältnis aus von einer Oberfläche reflektierten Strahlungsleistung bei einer bestimmten Wellenlänge bzw. in einem bestimmten Wellenlängenbereich und der auf die Oberfläche treffende Strahlungsleistung mit dieser bestimmten Wellenlänge bzw. in diesem Wellenlängenbereich, verstanden. Des Weiteren kann in vorteilhafter Weise durch die Kameradaten des unteren Sichtfelds eine Verschmutzung oder Beschädigung einer Photovoltaikanlage und anderer solartechnischer Kollektoren überwacht werden, um bei Bedarf eine Reinigung oder Reparatur veranlassen zu können.
In vorteilhafter Weise kann durch die Ermittlung der direkten Strahlung und/oder der diffusen Strahlung zusammen mit der reflektierten Strahlung eine Performance eines Solarwerks an dem Standort der erfindungsgemäßen Anordnung ermittelt werden und eine Solare Ressource am Standort beurteilt werden. Hierbei sind keine weiteren Sensoren oder Sensoreinheiten, wie beispielsweise Pyranometer, erforderlich. Die Strahlung kann nur durch die wenigstens eine Kamera und deren Kameradaten ermittelt werden.
Nach einer günstigen Ausgestaltung der Verwendung der Anordnung kann aus der Geschwindigkeit von wenigstens einer Wolke über der Erdoberfläche und der Winkelgeschwindigkeit von wenigstens einer Wolke im Kamerabild eine Höhe der Wolken ermittelt werden.
Die Berechnung der Wolkengeschwindigkeit über dem Erdboden kann im oberen Teilsichtfeld von zumindest annähernd 180° um die Kameraanordnung basierend auf der Winkelgeschwindigkeit vp(-x/s erfolgen:
^m/s ^pixei/s^ täfl Q H2 /
Daraus ergibt sich für die Höhe H2 der Wolke:
Figure imgf000064_0001
Hierbei entspricht der Winkel 0 dem maximalen Zenithwinkel bis zu dem das obere Teilsichtfeld von zumindest annähernd 180° um die Kameraanordnung ausgewertet wird. N entspricht dem Durchmesser in Pixeln des kreisförmigen Bildbereichs, welcher den Himmelsbereich mit einem Zenithwinkel kleiner oder gleich 0 darstellt.
Der Winkel 0 und der Parameter N lassen sich aus dem Kamerabild des oberen Teilsichtfelds von zumindest annähernd 180° um die Kameraanordnung bestimmen. vm/s entspricht der ermittelten Geschwindigkeit der Wolke über dem Erdboden und vPix/s entspricht der ermittelten Winkelgeschwindigkeit der Wolke. H2 entspricht der Höhe der über die Kameraanordnung bzw. über der zum Himmel ausgerichteten wenigstens einen Kamera der Kameraanordnung projizierten Wolke. Da der Abstand der wenigstens einen Kamera zum Erdboden bekannt ist, kann aus dem bekannten Höhenprofil des überwachten Gebietes, der aktuellen Wolkenposition und der Höhe, der über die Kamera projizierten Wolke, die tatsächliche Höhe der Wolke über dem Erdboden an ihrer aktuellen Position berechnet werden. Eine Verfeinerung der Berechnungen ist möglich.
Insbesondere kann mit der Höhe der Wolken, der aktuellen Position der Wolken und der Wolkengeschwindigkeit über der Erdoberfläche eine zukünftige Wolkenposition ermittelt werden. Daraus kann eine zukünftige Verschattung oder eine zukünftige globale Bestrahlungsstärke in einem vorgegebenen Gebiet abgeschätzt bzw. berechnet und somit vorausgesagt werden. Dadurch können in vorteilhafter Weise genauere Kürzestfrist- Vorhersagen der Solarstrahlung mit nur einer Kameraanordnung am selben Standort erstellt werden, wobei die wenigstens eine Kamera nur wenige Meter über dem Erdboden installiert ist. In vorteilhafter Weise kann dadurch frühzeitig auf Verschattungen oder eine zu erwartende Fluktuation der Leistung der Solaranlage reagiert werden. In vorteilhafter Weise können die Kameradaten an einem gemeinsamen Standort ermittelt werden, wodurch eine Wartung und ein Betrieb der erfindungsgemäßen Anordnung erleichtert und kostengünstiger gestaltet werden können. Nach einer günstigen Ausgestaltung der Verwendung der Anordnung kann die Geschwindigkeit von Wolken über der Erdoberfläche und die Winkelgeschwindigkeit von Wolken im Kamerabild zeitlich und/oder räumlich extrapoliert werden.
Hierbei können sowohl Winkelgeschwindigkeit von Wolken im Kamerabild als auch die Geschwindigkeit von Wolken über der Erdoberfläche zeitlich und räumlich gemittelt und/oder extrapoliert werden, um eine größere zeitliche und räumliche Abdeckung zu erhalten. Dadurch ist in vorteilhafter Weise auch eine Ermittlung der Wolkenhöhe und der Wolkengeschwindigkeit von Wolken möglich, deren Schatten (noch) nicht im unteren Teilsichtfeld von zumindest annähernd 180° um die Kameraanordnung erfasst werden. Durch das zeitliche und räumliche Extrapolieren kann ausgeglichen werden, dass das untere Sichtfeld einen kleinen Ausschnitt und dadurch weniger Wolkenschatten erfasst, als Wolken im oberen Teilsichtfeld erfasst werden. Durch das zeitliche und räumliche Extrapolieren ist es nicht zwingend notwendig, die Daten einer Wolke und deren Schatten zur Auswertung zu verwenden. Es können auch die Schatten anderer Wolken für die Ermittlung der Wolkenhöhe einer im oberen Teilsichtfeld von zumindest annähernd 180° um die Kameraanordnung erfassten Wolke herangezogen werden. Diese Auswertung ist weniger genau, als wenn die Kameradaten einer Wolke und deren Schatten zur Auswertung herangezogen werden. Es ist aber eine kontinuierliche Ermittlung der Wolkenhöhen möglich. Bei bekannten Systemen, beispielsweise Lidar-Systemen bzw. Ceilometer-Systemen, werden Wolkenhöhen nur punktuell ermittelt.
Nach einer günstigen Ausgestaltung der Verwendung der Anordnung kann aus den Kameradaten und/oder den ermittelten Parametern wenigstens ein aktueller und/oder zukünftiger Wert wenigstens einer Komponente der globalen Bestrahlungsstärke spektral und/oder winkelaufgelöst bestimmt werden. Hierbei kann eine winkelaufgelöste Strahlungsinformation, insbesondere die Radianz, entsprechend einer Projektion in die Ebene von Interesse gewichtet und integriert werden.
Auch die winkelaufgelöste Information kann selbst für einen Nutzer von Interesse sein, sodass dann die Gewichtung und Integration entfallen kann. Durch eine winkelaufgelöste Erfassung der wenigstens einen Komponente der globalen Bestrahlungsstärke kann die aktuelle und/oder zukünftige Albedo des Erdbodens bestimmt werden. Des Weiteren kann eine aktuelle und/oder zukünftige Bestrahlungsstärke einer auf eine Ebene mit bekannter Neigung zum Erdboden auftreffenden Strahlung, beispielsweise eine Rückseite eines bifazialen Photovoltaik-Moduls, in vorteilhafter Weise bestimmt werden. Eine zusätzliche Unterstützung durch ein Pyranometer oder einen anderen geeigneten Sensor ist möglich. In vorteilhafter Weise sind keine weiteren Sensoren, wie Pyranometer erforderlich, um Bestrahlungsstärken der Komponenten der globalen Bestrahlungsstärke spektral und/oder winkelaufgelöst aufzulösen oder Bestrahlungsstärken auf zur Erdoberfläche geneigten Ebenen zu ermitteln.
Nach einer günstigen Ausgestaltung der Verwendung der Anordnung kann die wenigstens eine Komponente der globalen Bestrahlungsstärke auf einer geneigten, insbesondere an einer beliebig orientierten Oberfläche ermittelt werden. Dadurch kann in vorteilhafter Weise ein optimaler Neigungswinkel von Solarmodulen unteranderem von bifazialen Photovoltaik-Modulen ermittelt werden. Alternativ oder zusätzlich kann bei bekannten Neigungswinkeln von Solarmodulen unteranderem von bifazialen Photovoltaik-Modulen eine aktuelle und/oder eine zu erwartende Leistung ermittelt werden. Es wird ein Verfahren zur Ermittlung wenigstens eines Parameters zur Bestimmung wenigstens einer Komponente einer globalen Bestrahlungsstärke vorgeschlagen, wobei Kameradaten an einem gemeinsamen Standort in einem Sichtfeld von zumindest annähernd 360° um eine Kameraanordnung erfasst werden. Aus den Kameradaten werden Informationen zur Solarstrahlung und/oder zu Position und/oder Eigenschaften von Wolken abgeleitet.
Insbesondere kann das Verfahren ein computerimplementiertes Verfahren sein.
Es gelten für das Verfahren zur Ermittlung wenigstens eines Parameters zur Bestimmung wenigstens einer Komponente einer globalen Bestrahlungsstärke im Wesentlichen die gleichen Definitionen, wie für die Verwendung der Anordnung und für die Anordnung zur Ermittlung wenigstens eines Parameters zur Bestimmung wenigstens einer Komponente einer globalen Bestrahlungsstärke.
Daher wird an dieser Stelle auf eine Wiederholung der Definition von beispielsweise den Wolkenmerkmalen, der winkelaufgelösten Reflektanz und der spektralaufgelösten Reflektanz, verzichtet.
Da die Auswertungsschritte des Verfahrens im Wesentlichen mit den Auswertungsschritten der Anwendung der Vorrichtung übereinstimmen, wird im Folgenden ebenfalls auf eine Wiederholung verzichtet und für die Details der Verfahrensschritte auf die Beschreibung der Verwendung der Anordnung verwiesen. Auch eine weitere Auswertung ist mit Auswertungsergebnissen mit anderen Zeitstempeln oder mit Auswerteergebnissen von einem anderen Farbkanal möglich. Hierbei können in vorteilhafter Weise Auswertungsergebnisse des oberen Teilsichtfelds von zumindest annähernd 180° um die Kameraanordnung bzw. von den dem Himmel zugeordneten Kameradaten und Auswertungsergebnisse des unteren Teilsichtfelds von zumindest annähernd 180° um die Kameraanordnung bzw. von den der Erdoberfläche zugeordneten Kameradaten miteinander kombiniert werden.
Dadurch kann zur Ermittlung der meisten Parameter zur Ermittlung wenigstens einer Komponente einer globalen Bestrahlungsstärke in vorteilhafter Weise auf das Zurückgreifen von Schätzwerten oder von Werten aus externen Datenquellen verzichtet werden, wodurch die Ermittlung der Parameter für einen vorgegeben Standort genauer und zuverlässiger ist, als mit üblichen Verfahren zur Erfassung und/oder zur Vorhersage wenigstens eines Parameters zur Ermittlung und/oder Vorhersage wenigstens einer Komponente einer globalen Bestrahlungsstärke, welche auf Schätzwerte und auf Werte aus externen Datenquellen zurückgreifen.
In vorteilhafter Weise können bei dem Verfahren durch das Auswerten des zumindest annähernd 360° Sichtfeld der Kameraanordnung die Vorteile einer Anordnung mit zum Himmel ausgerichteter Himmelskamera, auch als Wolkenkamera bekannt, mit den Vorteilen einer Anordnung mit zum Erdboden ausgerichteten Bodenkamera, auch als Schattenkamera bekannt, kombiniert werden und die Nachteile der Himmelskamera und der Wolkenkamera ausgeglichen werden.
Zur Erzielung der Vorteile werden die Kameradaten, welche dem jeweiligen Teilsichtfeld zugeordnet sind, ausgewertet. Zudem werden die Kameradaten der jeweiligen Teilsichtfelder in vorteilhafter Weise an einem gemeinsamen Ort insbesondere zeitgleich erfasst. Es können Bildmerkmale eines oder mehrerer Farbkanäle des jeweiligen Teilsichtfelds, welche durch Wolken und Wolkenschatten und/oder durch eine auf das wenigstens eine Objektiv der wenigstens eine Kamera einfallende Strahlung entstehen, ausgewertet werden.
Des Weiteren können die Intensitätswerte eines oder mehrerer Farbkanäle des jeweiligen Teilsichtfelds ausgewertet werden. Die Auswertungsergebnisse einzelner Farbkanäle können mit Auswertungsergebnissen anderer Farbkanäle oder Auswertungsergebnissen mit anderen Zeitstempeln verglichen werden.
Durch die Kombination der Vorteile kann eine Kameraanordnung mit zumindest annähernd 360° räumlichem Sichtfeld ausreichen, um genügend Kameradaten zu erfassen, um gewünschte Parameter zuverlässig zu erfassen und/oder vorherzusagen. Dadurch kann auf das Auswerten von Kameradaten weiterer Kameras an anderen Standorten oder auf das Auswerten von Messdaten weiterer Sensoreinheiten verzichtet werden, wodurch Kosten reduziert und ein Aufwand zum Auswerten reduziert werden können.
Ein Vorteil der Auswertung der Kameradaten eines oberen Teilsichtfelds ist, dass ein großer Ausschnitt des Himmels erfasst und überwacht werden kann, insbesondere Wolken können lange bevor deren Schatten in dem überwachten Gebiet eintreffen, erkannt und entsprechende Vorhersagen gemacht werden.
Ein Vorteil der Auswertung der Kameradaten eines unteren Teilsichtfelds ist bzw. der der Erdoberfläche zugeordneten Kameradaten ist, dass manche Parameter, wie eine Wolkengeschwindigkeit über dem Erdboden, genau und direkt aus diesen Kameradaten entnommen werden können. Der überwachbare und erfassbare Ausschnitt des Erdbodens ist hierbei unteranderem abhängig von einer Höhe, in welcher die wenigstens eine Kamera, welche das untere Teilsichtfeld erfasst, angeordnet ist.
In vorteilhafter Weise kann eine Vorhersage mit Kameradaten des oberen Teilsichtfelds bzw. aus dem Himmel zugeordneten Kameradaten ermittelt werden, wodurch zur Überwachung des Erdbodens nicht zwingend ein großer Ausschnitt des Erdbodens erforderlich ist, so dass die Kameraanordnung, im Gegensatz zu bekannten Schattenkameraanordnungen mit geringerer Höhe über dem Erdboden angeordnet werden kann.
Nach einer günstigen Ausgestaltung des Verfahrens kann sich das Sichtfeld der Kameraanordnung an einem vorgegebenen Ort aus einem ersten Teilsichtfeld und einem zweiten Teilsichtfeld von jeweils zumindest annähernd 180° um die Kameraanordnung zusammensetzten. Hierbei können mit wenigstens einer ersten Kamera Kameradaten im ersten Teilsichtfeld erfasst werden und mit wenigstens einer zweiten Kamera Kameradaten im zweiten Teilsichtfeld erfasst werden, wobei sich die beiden Teilsichtfelder der Kameras zu einem Sichtfeld von zumindest annähernd 360° ergänzen.
Nach einer günstigen Ausgestaltung des Verfahrens können mit der wenigstens einen ersten Kamera als Himmelskamera Kameradaten im ersten Teilsichtfeld erfasst werden, das in Richtung Himmel ausgerichtet ist, und ein oberes Teilsichtfeld bildet. Mit der wenigstens einen zweiten Kamera als Bodenkamera können Kameradaten im zweiten Teilsichtfeld erfasst werden, das in Richtung Erdoberfläche ausgerichtet ist, und ein unteres Teilsichtfeld bildet. Alternativ können mit einer 360°-Kamera mit Sichtfeld von zumindest annähernd 360° um die Kameraanordnung Kameradaten im ersten Teilsichtfeld erfasst und Kameradaten KDE im Teilsichtfeld erfasst werden. Insbesondere kann das erste Teilsichtfeld ein in Richtung Himmel ausgerichtetes oberes Teilsichtfeld bilden und das zweite Teilsichtfeld kann ein in Richtung der Erdoberfläche ausgerichtetes unteres Teilsichtfeld bilden.
Hierbei können in vorteilhafter Weise die Kameradaten der jeweiligen Kameras einfach dem oberen Teilsichtfeld oder dem unteren Teilsichtfeld zugeordnet werden. In vorteilhafter Weise kann bei dem erfindungsgemäßen Verfahren ein Aufwand für die Anschaffung und für den Betrieb einer Hardware reduziert werden, da die Vorteile einer Wolkenkameraanordnung und einer Schattenkameraanordnung miteinander kombiniert werden können.
Nach einer günstigen Ausgestaltung des Verfahrens kann aus den erfassten Kameradaten dem Himmel zugeordnete Kameradaten entnommen werden und aus diesen dem Himmel zugeordneten Kameradaten wenigstens einer der folgenden Parameter: eine direkte Strahlung und/oder eine diffuse Strahlung und/oder eine globale Bestrahlungsstärke und/oder von Wolken bedeckte Himmelsbereiche und/oder wenigstens eine Wolkenposition und/oder aus Wolkenpositionen und/oder aus der Position von Wolkenmerkmalen im Kamerabild zwischen wenigstens zwei Zeitstempeln eine Winkelgeschwindigkeit von wenigstens einer Wolke im Kamerabild ermittelt werden.
In vorteilhafter Weise kann durch die Ermittlung der direkten Strahlung und/oder der diffusen Strahlung eine Performance eines Solarwerks an dem Standort der erfindungsgemäßen Anordnung ermittelt werden, und eine Solare Ressource am Standort beurteilt werden. Die Strahlung kann nur aufgrund von Kameradaten ermittelt werden, ohne zusätzliche Messdaten von Sensoren.
In vorteilhafter Weise kann die Kenntnis der von Wolken bedeckten Bereiche des Himmels im oberen Teilsichtfeld zur weiteren Beurteilung der ermittelten Strahlung herangezogen werden. Beispielsweise kann die diffuse Strahlung durch Wolken zunehmen, und eine direkte Strahlung kann durch Wolken abnehmen. Bei einer anderen Witterung können am Standort andere Strahlungsbedingungen herrschen.
Die aktuellen und die zukünftigen Strahlungsbedingungen können durch die Ermittlung der Wolkenpositionen und der Geschwindigkeit der Wolken zumindest teilweise ermittelt werden.
Für weitere Details wird auf die Verwendung der Anordnung zur Bestimmung eines Parameters verwiesen.
Nach einer günstigen Ausgestaltung des Verfahrens können aus den erfassten Kameradaten der Erdoberfläche zugeordnete Kameradaten entnommen und aus diesen der Erdoberfläche zugeordneten Kameradaten wenigstens einer der folgenden Parameter: eine an der Erdoberfläche reflektierte Strahlung und/oder eine Albedo der Erdoberfläche und/oder wenigstens eine Wolkenschattenposition und/oder aus den Wolkenschattenpositionen zwischen wenigstens zwei Zeitstempeln eine Geschwindigkeit von wenigstens einer Wolke über der Erdoberfläche, ermittelt werden.
Die Geschwindigkeit einer Wolke oder von mehreren Wolken über dem Erdboden kann bei dem erfindungsgemäßen Verfahren aus den Kamerabildern des unteren Teilsichtfelds bzw. aus den der Erdoberfläche zugeordneten Kameradaten ermittelt werden. Das korrespondierende Auswertungsverfahren ist ähnlich dem zur Bestimmung der Winkelgeschwindigkeit der Wolken aus Bildern des oberen Teilsichtfelds bzw. aus den dem Himmel zugeordneten Kameradaten.
In einem alternativen Verfahren lassen sich Bildmerkmale, welche der Position wenigstens eines Wolkenschattens entsprechen, und deren Verschiebung Am, An auch auf andere Weise, beispielsweise mit Hilfe von SIFT (scale invariant feature transform) oder über andere maschinelle Lernverfahren, ermitteln.
Für weitere Details wird auf die Verwendung der Anordnung zur Bestimmung eines Parameters verwiesen.
In vorteilhafter Weise kann durch die Ermittlung der direkten Strahlung und/oder der diffusen Strahlung zusammen mit der reflektierten Strahlung eine Performance eines Solarwerks an dem Standort der erfindungsgemäßen Anordnung ermittelt werden und eine Solare- Ressource am Standort beurteilt werden. Hierbei sind keine weiteren Sensoren oder Sensoreinheiten, wie beispielsweise Pyranometer, erforderlich. Die Strahlung kann nur durch die wenigstens eine Kamera und deren Kameradaten ermittelt werden.
Nach einer günstigen Ausgestaltung des Verfahrens kann aus der Geschwindigkeit von wenigstens einer Wolke über der Erdoberfläche und der Winkelgeschwindigkeit von wenigstens einer Wolke im Kamerabild eine Höhe der Wolken ermittelt werden.
Für weitere Details wird auf die Verwendung der Anordnung zur Bestimmung eines Parameters verwiesen Insbesondere kann mit der Höhe der Wolken, der aktuellen Position der Wolken und der Wolkengeschwindigkeit über der Erdoberfläche eine zukünftige Wolkenposition ermittelt werden. Daraus kann eine zukünftige Verschattung oder eine zukünftige globale Bestrahlungsstärke in einem vorgegebenen Gebiet abgeschätzt bzw. berechnet werden. Dadurch können in vorteilhafter Weise genauere Kürzestfrist-Vorhersagen der Solarstrahlung mit nur einer Kameraanordnung am selben Standort erstellt werden, wobei die wenigstens eine Kamera nur wenige Meter über dem Erdboden installiert ist. In vorteilhafter Weise kann dadurch frühzeitig auf Verschattungen oder eine zu erwartende Fluktuation der Leistung der Solaranlage reagiert werden.
Nach einer günstigen Ausgestaltung des Verfahrens kann die Geschwindigkeit von Wolken über der Erdoberfläche und die Winkelgeschwindigkeit von Wolken im Kamerabild zeitlich und räumlich extrapoliert werden.
Hierbei können sowohl Winkelgeschwindigkeit von Wolken im Kamerabild als auch die Geschwindigkeit von Wolken über der Erdoberfläche zeitlich und räumlich gemittelt und/oder extrapoliert werden, um eine größere zeitliche und räumliche Abdeckung zu erhalten. Dadurch ist in vorteilhafter Weise auch eine Ermittlung der Wolkenhöhe und der Wolkengeschwindigkeit von Wolken möglich, deren Schatten (noch) nicht im unteren Sichtfeld erfasst wird.
Durch das zeitliche und räumliche Extrapolieren kann ausgeglichen werden, dass das untere Sichtfeld einen kleineren Ausschnitt und dadurch weniger Wolkenschatten erfasst, als Wolken im oberen Teilsichtfeld erfasst werden. Durch das zeitliche und räumliche Extrapolieren ist es nicht zwingend notwendig, die Daten einer Wolke und deren Schatten zur Auswertung zu verwenden. Es können auch die Schatten anderer Wolken für die Ermittlung der Wolkenhöhe einer im oberen Teilsichtfeld erfassten Wolke herangezogen werden. Diese Auswertung ist weniger genau, als wenn die Kameradaten einer Wolke und deren Schatten zur Auswertung herangezogen werden. Es ist aber eine kontinuierliche Ermittlung der Wolkenhöhen möglich.
Nach einer günstigen Ausgestaltung des Verfahrens kann aus den Kameradaten und/oder den ermittelten Parametern wenigstens ein aktueller und/oder zukünftiger Wert wenigstens einer Komponente der globalen Strahlungsstärke spektral und/oder winkelaufgelöst ermittelt werden.
Hierbei kann eine winkelaufgelöste Strahlungsinformation, insbesondere die Radianz, entsprechend einer Projektion in die Ebene von Interesse gewichtet und integriert werden.
Auch die winkelaufgelöste Information kann selbst für einen Nutzer von Interesse sein, sodass dann die Gewichtung und Integration entfallen kann. Durch eine winkelaufgelöste Erfassung der wenigstens einen Komponente der globalen Strahlung kann die aktuelle und/oder zukünftige Albedo des Erdbodens bestimmt werden. Des Weiteren kann eine aktuelle und/oder zukünftige Bestrahlungsstärke einer auf eine Ebene mit bekannter Neigung zum Erdboden auftreffenden Strahlung, beispielsweise eine Rückseite eines bifazialen Photovoltaik-Moduls, in vorteilhafter Weise bestimmt werden. Eine zusätzliche Unterstützung durch ein Pyranometer oder einen anderen geeigneten Sensor ist möglich. In vorteilhafter Weise sind keine weiteren Sensoren, wie Pyranometer erforderlich, um Bestrahlungsstärken der Komponenten der globalen Strahlung spektral und/oder winkelaufgelöst aufzulösen oder Bestrahlungsstärken auf zur Erdoberfläche geneigten Ebenen zu ermitteln.
Nach einer günstigen Ausgestaltung des Verfahrens kann die wenigstens eine Komponente der globalen Bestrahlungsstärke auf einer geneigten Oberfläche ermittelt werden. Dadurch kann in vorteilhafter Weise ein optimaler Neigungswinkel von Solarmodulen unter anderem von bifazialen Photovoltaik-Modulen ermittelt werden. Alternativ oder zusätzlich kann bei bekannten Neigungswinkeln von Solarmodulen unter anderem von bifazialen Photovoltaik-Modulen eine aktuelle und/oder eine zu erwartende Leistung ermittelt werden.
Die erfindungsgemäße Anordnung, die erfindungsgemäße Verwendung der Anordnung und das erfindungsgemäße Verfahren können zur Vorhersage von der globalen Strahlungsstärke und/oder zur Vorhersage von Komponenten der globalen Strahlungsstärke an bestimmten Erdoberflächenbereichen aufgrund der Wolkenposition und der Neigung der Oberfläche, auf welche die globale Strahlungsstärke auftrifft, verwendet werden. Dadurch können die erfindungsgemäße Anordnung, die erfindungsgemäße Verwendung der Anordnung und das erfindungsgemäße Verfahren eingesetzt werden, um Kürzestfristvorhersagen der Solarstrahlung zu erstellen.
Diese Vorhersagen werden bisher eingesetzt, um autarke Microgrids effizienter zu betreiben durch die gezielte Steuerung von Speichern oder Generatoren. Zusätzlich können solche Vorhersagen den Betrieb von Verteilnetzen und die Vermarktung der Erzeugung von Solar-Kraftwerken unterstützen. Des Weiteren kann durch die genaue und winkelaufgelöste Messung der am Erdboden reflektierten Strahlung und der vom Himmel stammenden Strahlung das Monitoring von Photovoltaik-Kraftwerken verbessert werden. Hierdurch können insbesondere bifaziale Kraftwerke besser und mit voraussichtlicher mit weniger Arbeitsaufwand und in automatisierter Form technisch überwacht werden.
Die erfindungsgemäße Anordnung, die erfindungsgemäße Verwendung der Anordnung und das erfindungsgemäße Verfahren können durch die Überwachung der Bewölkung auch Eingangsdaten für numerische Wettermodelle oder für kombinierte Vorhersagemodelle unter Einbeziehung von Satellitendaten liefern und können daher für private und öffentliche Wetterdienste von Interesse sein. Die erfindungsgemäße Anordnung, die erfindungsgemäße Verwendung der Anordnung und das erfindungsgemäße Verfahren können durch die Überwachung der Bewölkung und der Höhe von Wolken auch dazu beitragen, den Luftraum z.B. über Flughafen kostengünstiger und vollständiger zu überwachen.
Weiterhin wird ein Computerprogramm oder ein Computerprogrammprodukt vorgeschlagen, umfassend Befehle, die bewirken, dass eine erfindungsgemäße Vorrichtung ein erfindungsgemäßes Verfahren zur Ermittlung wenigstens eines Parameters zur Bestimmung wenigstens einer Komponente einer globalen Bestrahlungsstärke Gl durchführt.
Weiterhin wird ein Computerprogramm oder ein Computerprogrammprodukt vorgeschlagen, umfassend Befehle, die bei der Ausführung des Computerprogramms durch einen Computer diesen veranlassen, ein Verfahren zur Ermittlung wenigstens eines Parameters zur Bestimmung wenigstens einer Komponente einer globalen Bestrahlungsstärke Gl durchzuführen, umfassend Erfassen von Kameradaten KDH, KDE von einer Kameraanordnung in einem wenigstens annähernd kugelförmigen Sichtfeld um die Kameraanordnung, Ableiten von Informationen zur Solarstrahlung und/oder zur Position und/oder Eigenschaften von Wolken aus den Kameradaten KDH, KDE.
Zeichnung
Weitere Vorteile ergeben sich aus der folgenden Zeichnungsbeschreibung. In den Figuren sind Ausführungsbeispiele der Erfindung dargestellt. Die Figuren, die Beschreibung und die Ansprüche enthalten zahlreiche Merkmale in Kombination. Der Fachmann wird die Merkmale zweckmäßigerweise auch einzeln betrachten und zu sinnvollen weiteren Kombinationen zusammenfassen.
Es zeigen beispielhaft:
Fig. 1 eine schematische Darstellung einer Anordnung zur Erfassung und/oder zur Vorhersage wenigstens eines Parameters zur Ermittlung und/oder Vorhersage wenigstens einer Komponente einer globalenBestrahlungsstärke;
Fig. 2 eine schematische Darstellung einer Anordnung zur Erfassung und/oder zur Vorhersage wenigstens eines Parameters zur Ermittlung und/oder Vorhersage wenigstens einer Komponente einer globalen Bestrahlungsstärke; und Fig. 3 eine schematische Darstellung einer Verwendung einer Anordnung aus Figur 1 oder Figur 2 und eine schematische Darstellung eines Verfahrens zur Erfassung und/oder zur Vorhersage wenigstens eines Parameters zur Ermittlung und/oder Vorhersage wenigstens einer Komponente einer globalen Bestrahlungsstärke.
Ausführungsformen der Erfindung
In den Figuren sind gleichartige oder gleichwirkende Komponenten mit gleichen Bezugszeichen beziffert. Die Figuren zeigen lediglich Beispiele und sind nicht beschränkend zu verstehen.
Im Folgenden verwendete Richtungsterminologie mit Begriffen wie „links“, „rechts“, „oben“, „unten“, „davor“ „dahinter“, „danach“ und dergleichen dient lediglich dem besseren Verständnis der Figuren und soll in keinem Fall eine Beschränkung der Allgemeinheit darstellen. Die dargestellten Komponenten und Elemente, deren Auslegung und Verwendung können im Sinne der Überlegungen eines Fachmanns variieren und an die jeweiligen Anwendungen angepasst werden.
Die Figuren 1 und 2 zeigen in schematischer Darstellung eine erfindungsgemäße Anordnung 100 zur Erfassung und/oder zur Vorhersage wenigstens eines Parameters zur Ermittlung und/oder Vorhersage wenigstens einer Komponente einer globalen Bestrahlungsstärke Gl.
Die Anordnung 100 umfasst wenigstens eine Auswerte- und Steuereinrichtung 110 sowie eine Kameraanordnung 120 mit wenigstens einer Kamera 122, 124 und einer Halteanordnung 126. Im dargestellten Ausführungsbeispiel umfasst die Anordnung 100 eine einzige Auswerte- und Steuereinrichtung 110. In einem alternativen, nicht dargestellten Ausführungsbeispiel kann die Anordnung 100 mehr als eine Auswerte- und Steuereinrichtung 110 aufweisen. Die Auswerte- und Steuereinrichtung 110 ist im dargestellten Ausführungsbeispiel der Anordnung 100 kabellos mit den vorhandenen Kameras 122, 124 verbunden. Es ist auch eine Datenverbindung über ein Kabel vorstellbar.
Die Anordnung 100 weist in diesem Beispiel eine gemeinsame Achse 30 und eine horizontale Achse 40 auf. Die Kameraanordnung 120 ist entlang der gemeinsamen Achse 30 angeordnet. Die Kameraanordnung 120 weist einen Mittelpunkt 50 auf, der auf der gemeinsamen Achse 30 angeordnet ist. Die gemeinsame Achse 30 ist hier im Wesentlichen in vertikaler Richtung ausgerichtet und bildet eine im Wesentlichen vertikale Achse 31 (Figur 1 ) aus oder ist mit einem Kippwinkel zu der vertikalen Richtung gekippt und bildet eine schräge Achse 33 (Figur 2) aus.
Im dargestellten Ausführungsbeispiel umfasst die Anordnung 100 zwei Kameras 122, 124, welche am gleichen Standort mit entgegengesetzter Ausrichtung installiert sind. Die zwei Kameras 122, 124 sind auf der gemeinsamen Achse 30, im Wesentlichen vertikalen Achse 31 oder schrägen Achse 33, angeordnet. Somit weisen die Kamera 122 und die Kamera 124 die gemeinsame Achse 30 als eine gemeinsame Achse 30, im Wesentlichen vertikale Achse 31 oder schräge Achse 33 auf. In einem alternativen, nicht dargestellten Ausführungsbeispiel kann die Anordnung 100 mehr als zwei Kameras 122, 124 am gleichen Standort oder lediglich eine Kamera 122, 124 aufweisen. Die eine Kamera 122, 124 weist hierbei zwei Sensoren (nicht dargestellt) auf. Die Sensoren sind entlang der gemeinsamen Achse 30 angeordnet. Die Sensoren zeigen entlang der gemeinsamen Achse 30 in entgegengesetzte Richtungen, wobei auf der gemeinsamen Achse 30, die im Wesentlichen vertikal oder schräg ausgerichtet ist, ein erster Sensor nach oben zeigt und ein zweiter Sensor nach unten zeigt.
Es versteht sich, dass die Kameras 122 und 124 anstatt entlang einer gemeinsamen Achse 30 auf zwei Achsen angeordnet sein können, die im Wesentlichen und parallel mit geringem Abstand, insbesondere in einem Abstand von höchstens etwa 10 m, zueinander verlaufen.
Günstigerweise setzt sich das räumliche Sichtfeld von zumindest annähernd 360° um die Kameraanordnung 120 aus einem räumlichen ersten Teilsichtfeld und einem räumlichen zweiten Teilsichtfeld von jeweils zumindest annähernd 180° um die Kameraanordnung 120 zusammen, die entlang der gemeinsamen Achse 30 angeordnet sind. Die gemeinsame Achse 30 ist insbesondere im Wesentlichen in einer vertikalen Richtung 31 ausgerichtet und bildet die vertikale Achse 31 aus oder mit einem Kippwinkel zu der vertikalen Richtung 31 ausgerichtet und bildet die schräge Achse 33 aus.
In einem nicht dargestellten Ausfphrungsbeispiel kann die Anordnung zwei Achsen aufweisen, wobei die eine der Kameras 122, 124 an der einen und die andere der Kameras 122, 124 an der anderen Achse angeordnet sind, wobei die Teilsichtfelder entlang der zwei Achsen angeordnet sind und wobei die zwei Achsen im Wesentlichen parallel und mit geringem Abstand, insbesondere in einem Abstand von höchstens etwa 10 m, zueinander angeordnet sind. Die Halteanordnung 126 fixiert die beiden Kameras 122, 124 mit einem vorgegebenen Abstand A zu einer Erdoberfläche 20. Im dargestellten Ausführungsbeispiel ist die Halteanordnung 126 L-förmig ausgeführt, es sind aber auch andere Ausgestaltungen möglich. Beispielsweise ist auch eine Drohne, welche die Kameras hält, vorstellbar. Die Halteanordnung fixiert die Kamera 122, 124 derart, dass die Kamera 122, 124 entlang der gemeinsamen Achse 30 angeordnet sind.
Die Kameraanordnung 120 ist ausgebildet, um Kameradaten KDH, KDE in einem räumliche Sichtfeld von zumindest annähernd 360° um die Kameraanordnung 120 zu erfassen. Das räumliche Sichtfeld von zumindest annähernd 360° erstreckt sich entlang der gemeinsamen, im Wesentlichen vertikalen Achse 31 oder schrägen Achse 33 und weist zwei entlang der gemeinsamen Achse 30 ausgerichtete in entgegengesetzte Richtungen zeigende Sichtfelder auf. Ein erstes Sichtfeld ist nach oben gerichtet und das zweite Sichtfeld ist nach unten gerichtet entlang der gemeinsamen Achse 30.
Die Kameradaten KDH, KDE sind geeignet, um Informationen zur Solarstrahlung und/oder zur Position WP und/oder zu Eigenschaften von Wolken 12 abzuleiten. Das Sichtfeld der Kameraanordnung 120 an einem vorgegebenen Ort setzt sich im dargestellten Ausführungsbeispiel aus einem in Richtung Himmel 10 ausgerichteten oberen Teilsichtfeld von zumindest annähernd 180° um die Kameraanordnung und einem in Richtung Erdoberfläche 20 ausgerichteten unteren Teilsichtfeld von zumindest annähernd 180° um die Kameraanordnung 120 zusammen. Es sind auch mehr als zwei Teilsichtfelder vorstellbar. Des Weiteren ist eine andere Ausrichtung der Teilsichtfelder umsetzbar. Unter einem Sichtfeld von zumindest annähernd 360° um die Kameraanordnung 120 wird ein wenigstens annähernd kugelförmiges Sichtfeld um einen Mittelpunkt 50 verstanden. Die beiden Kameras 122, 124 sind an diesem Mittelpunkt 50 angeordnet. Die beiden Kameras 122, 124 sind hier entlang der gemeinsamen Achse 30 angeordnet, wobei die gemeinsame Achse im Wesentlichen vertikal ausgerichtet ist und eine im Wesentlichen vertikale Achse ausbilden kann oder mit einem Kippwinkel zu der vertikalen Achse gekippt ist und eine schräge Achse ausbildet. Der Mittelpunkt 50 wird aus einem Schnittpunkt der gemeinsamen Achse 30 mit der horizontalen Achse 40 gebildet.
Unter der wenigstens einen Kamera 122, 124 kann eine RGB-Kamera oder eine Infrarot-Kamera verstanden werden. Im dargestellten Ausführungsbeispiel der Anordnung 100 sind die Kameras 122, 124 als RGB-Kameras mit Fischaugenobjektiven ausgeführt. In einem alternativen, nicht dargestellten Ausführungsbeispiel sind anstelle von Kameras mit Fischaugenobjektiven auch andere Aufbauten mit Parabolspiegel vorstellbar.
Die wenigstens eine Kamera 122, 124 kann beispielsweise 24 Bilder pro Sekunde aufnehmen, wobei diese mit einem entsprechenden Zeitstempel versehen werden können. Es können auch andere Bilderzeugungsraten gewählt werden. Zusätzlich sind erweiterte Aufbauten mit beispielsweise Verschattungsvorrichtungen vorstellbar, um einen Störeinfluss der direkten Sonneneinstrahlung zu reduzieren.
Im dargestellten Ausführungsbeispiel umfasst die Anordnung 100 wenigsten eine Himmelskamera 122, welche Kameradaten KDH im dem Himmel zugeordneten oberen Teilsichtfeld von zumindest annähernd 180° um die Kameraanordnung 120 erfasst. Des Weiteren umfasst im dargestellten Ausführungsbeispiel die Anordnung 100 wenigstens eine Bodenkamera 124, welche Kameradaten KDE im der Erdoberfläche 20 zugeordneten unteren Teilsichtfeld von zumindest annähernd 180° um die Kameraanordnung 120 erfasst. Das obere Teilsichtfeld und das untere Teilsichtfeld erstrecken sich entlang der gemeinsamen Achse 30.
Im dargestellten Ausführungsbeispiel der Anordnung 100 ermittelt die Auswerte- und Steuereinrichtung 110 aus den erfassten Kameradaten KDH des oberen Teilsichtfelds von zumindest annähernd 180° um die Kameraanordnung wenigstens einen der folgenden Parameter:
(i) eine direkte Strahlung DNI und/oder
(ii) eine diffuse Strahlung Diffl und/oder
(iii) eine globale Bestrahlungsstärke Gl und/oder
(iv) wenigstens eine Position WP von Wolkenmerkmalen 12 und/oder
(v) von Wolken 12 bedeckte Himmelsbereiche und/oder
(vi) aus Wolkenpositionen WP und/oder aus der Position von Wolkenmerkmalen 12 im Kamerabild zwischen wenigstens zwei Zeitstempeln eine Winkelgeschwindigkeit vp(-x/s von wenigstens einer Wolke 12 im Kamerabild.
Wolkenmerkmale sind hierbei Bildmerkmale der aufgenommenen Bilder, welcher einer Wolke 12 und/oder einer Wolkenformation zugeordnet werden können.
Im dargestellten Ausführungsbeispiel der Anordnung 100 ermittelt die Auswerte- und Steuereinrichtung 110 aus den erfassten Kameradaten KDE des unteren Teilsichtfelds von zumindest annähernd 180° um die Kameraanordnung wenigstens einen der folgenden Parameter: (i) eine an der Erdoberfläche 20 reflektierte Strahlung ERS und/oder
(ii) eine Albedo AL der Erdoberfläche 20 und/oder
(iii) wenigstens eine Wolkenschattenposition SP und/oder
(iv) aus den Wolkenschattenpositionen SP zwischen wenigstens zwei Zeitstempeln eine Geschwindigkeit vm/s von wenigstens einer Wolke 12 über der Erdoberfläche 20.
Im dargestellten Ausführungsbeispiel der Anordnung 100 ermittelt die Auswerte- und Steuereinrichtung 110 aus Intensitätswerten I der RGB- Kanäle in den aufgenommen Kamerabildern die Strahlung aus jedem Bereich des räumlichen Sichtfelds von zumindest annähernd 360°.
Darauf aufbauend wird die Albedo AL des Erdbodens 20 bzw. eine detailliertere Reflektanz des Erdbodens 20 abgeleitet.
Zur Ermittlung der Geschwindigkeiten vm/s, vpix/s der Wolken 12 bzw. der Wolkenschatten 22 erfasst die korrespondierende Kamera 122, 124 Bildfolgen in kurzem zeitlichem Abstand als Kameradaten KDH, KDE. In den Bildfolgen wird die Verschiebung von Bildmerkmalen zwischen den Aufnahmezeitpunkten ermittelt. Hieraus kann die Bewegung einer Wolke 12 am Himmel 10 ermittelt werden. Zugleich kann die Bewegung des zugehörigen Wolkenschattens 22 am Erdboden 20 ermittelt werden.
Durch den bekannten zeitlichen Abstand zwischen den Aufnahmen lässt sich diese Bewegung umrechnen in eine Geschwindigkeit vm/s, der Wolke 12 über der Erdoberfläche 20 und in eine Winkelgeschwindigkeit, vpix/s der Wolken 12 im Kamerabild. Im dargestellten Ausführungsbeispiel der Anordnung 100 ermittelt die wenigstens eine Auswerte- und Steuereinrichtung 110 aus der Geschwindigkeit vm/s von wenigstens einer Wolke 12 über der Erdoberfläche 20 und der Winkelgeschwindigkeit vpix/s von wenigstens einer Wolke 12 im Kamerabild eine Höhe H1 , H2 der Wolken 12.
H1 entspricht dem Abstand zwischen der Wolke 12 und dem ihr gegenüberliegenden Erdboden 20.
H2 entspricht dem Abstand zwischen der nach oben ausgerichteten Kamera 122 und einer über die nach oben ausgerichteten Kamera 122 projizierte Höhe der Wolke 12. H2 kann aus der Geschwindigkeit der Wolken vm/, ermittelt werden. H1 kann aus dem bekannten Abstand A der Kamera 122, 124 zum Erdboden 20 und einem bekannten Höhenprofil des zu überwachenden Bereichs bestimmt werden.
Die Auswerte- und Steuereinrichtung 110 ermittelt mit der Höhe H1 , H2 der Wolken 12 und der Wolkengeschwindigkeit vm/s über der Erdoberfläche 20 eine zukünftige Wolkenposition WP und daraus eine zukünftige Verschattung oder eine zukünftige globale Bestrahlungsstärke Gl eines vorgegebenen horizontalen oder geneigten Gebiets.
Im dargestellten Ausführungsbeispiel extrapoliert wenigstens eine Auswerte- und Steuereinrichtung 110 die Geschwindigkeit vm/s von Wolken 12 über der Erdoberfläche 20 und die Winkelgeschwindigkeit vpix/s von Wolken 12 im Kamerabild zeitlich und räumlich. In einem alternativen, nicht dargestellten Ausführungsbeispiel können nur Geschwindigkeiten vm/s, v Pix/s der Wolken 12 ermittelt werden, deren Wolkenschatten 22 vom unteren Teilsichtfeld von zumindest annähernd 180° um die Kameraanordnung erfasst wird. Im dargestellten Ausführungsbeispiel der Anordnung 100 ermittelt die wenigstens eine Auswerte- und Steuereinrichtung 110 aus den Kameradaten KDH, KDE und/oder den ermittelten Parametern wenigstens einen aktuellen und/oder zukünftigen Wert wenigstens einer Komponente der globalen Bestrahlungsstärke Gl spektral und/oder winkelaufgelöst.
Im dargestellten Ausführungsbeispiel der Anordnung 100 ermittelt wenigstens eine Auswerte- und Steuereinrichtung 110 die wenigstens eine Komponente der globalen Bestrahlungsstärke Gl auf einer geneigten Oberfläche.
Figur 3 zeigt eine schematische Darstellung einer Verwendung einer Anordnung aus Figur 1 oder Figur 2 und eine schematische Darstellung eines Verfahrens 200 zur Erfassung und/oder zur Vorhersage wenigstens eines Parameters zur Ermittlung und/oder Vorhersage wenigstens einer Komponente einer globalen Bestrahlungsstärke Gl.
In den Verfahrensschritten S212 und S214 werden Kameradaten KDH, KDE an einem gemeinsamen Standort in einem räumlichen Sichtfeld von zumindest annähernd 360° um eine Kameraanordnung 120 erfasst. Aus den Kameradaten KDH, KDE werden Informationen zur Solarstrahlung und/oder zu Position WP und/oder Eigenschaften von Wolken 12 abgeleitet.
Das räumliche Sichtfeld von zumindest annähernd 360° um die Kameraanordnung setzt sich im beschriebenen Ausführungsbeispiel aus einem in Richtung Himmel 10 ausgerichteten oberen Teilsichtfeld von zumindest annähernd 180° um die Kameraanordnung 120 und einem in Richtung Erdoberfläche 20 ausgerichteten unteren Teilsichtfeld von zumindest annähernd 180° um die Kameraanordnung 120 zusammen. Im Verfahrensschritt S212 werden mit wenigsten einer Himmelskamera 122 Kameradaten KDH in einem Himmel 10 zugeordneten oberen Teilsichtfeld von zumindest annähernd 180° um die Kameraanordnung erfasst. Im Verfahrensschritt S214 werden mit wenigstens einer Bodenkamera 124 Kameradaten KDE in einem einer Erdoberfläche 20 zugeordneten unteren Teilsichtfeld von zumindest annähernd 180° um die Kameraanordnung erfasst. Die Verfahrensschritte S212 und S214 können zeitgleich oder zeitlich versetzt ausgeführt werden. In einem alternativen Verfahrensschritt können Kameradaten KDE, KDH zunächst der Erdoberfläche und dem Himmel 10 zugeordnet werden. Dieser Schritt entfällt im dargestellten Ausführungsbeispiel, weil das obere Sichtfeld und das untere Sichtfeld eine eindeutige Zuordnung der Kameradaten ermöglichen.
Im Verfahrensschritt S222 werden aus den erfassten Kameradaten KDH des oberen Sichtfelds von zumindest annähernd 180° um die Kameraanordnung ermittelt:
(i) eine direkte Strahlung DNI und/oder
(ii) eine diffuse Strahlung Diffl und/oder
(iii) eine globale Bestrahlungsstärke Gl und/oder
(iv) von Wolken bedeckte Himmelsbereiche und/oder
(v) wenigstens eine Wolkenposition WP und/oder
(vi) aus Wolkenpositionen WP und/oder aus der Position von zwei Zeitstempeln eine Winkelgeschwindigkeit vpix/s der Wolken 12 im Kamerabild.
Im Verfahrensschritt S224 werden aus den erfassten Kameradaten KDE des unteren Sichtfelds von zumindest annähernd 180° um die Kameraanordnung:
(i) eine an der Erdoberfläche 20 reflektierte Strahlung ERS und/oder
(ii) eine Albedo AL der Erdoberfläche 20 und/oder (iii) wenigstens eine Wolkenschattenposition SP und/oder
(iv) aus den Wolkenschattenpositionen SP zwischen wenigstens zwei Zeitstempeln eine Geschwindigkeit vm/s von wenigstens einer Wolke 12 über der Erdoberfläche 20 ermittelt.
Zur Ermittlung der direkten Strahlung DNI und/oder der diffusen Strahlung Diffl und/oder einer an der Erdoberfläche 20 reflektierten Strahlung ERS werden Intensitätswerte I wenigstens eines Farbkanals der korrespondierenden Kamera 122, 124 ausgewertet.
Im Verfahrensschritt S230 wird aus den in den Verfahrensschritten S222 und S224 ermittelten Komponenten Diffl, DNI, ERS der globalen Bestrahlungsstärke Gl die globale Bestrahlungsstärke Gl berechnet. Auch kann wenigstens eine Komponente Diffl, DNI, ERS der globalen Bestrahlungsstärke Gl auf einer zur Erdoberfläche 20 geneigten geneigten Oberfläche ermittelt werden.
Im Verfahrensschritt S230 werden aus der Geschwindigkeit vm/, von wenigstens einer Wolke 12 über der Erdoberfläche 20 und der Winkelgeschwindigkeit vpix/s von wenigstens einer Wolke 12 im Kamerabild eine Höhe H1 , H2 der Wolken 12 ermittelt.
Hierbei kann die Geschwindigkeit vm/s von Wolken 12 über der Erdoberfläche 20 und die Winkelgeschwindigkeit vpix/s von Wolken 12 im Kamerabild zeitlich und räumlich extrapoliert werden.
Im Verfahrensschritt S240 kann mit der Höhe H1 , H2 der Wolken 12 und der Wolkengeschwindigkeit vm/s über der Erdoberfläche 20 eine zukünftige Wolkenposition WP ermittelt und daraus eine zukünftige Verschattung und/oder die zukünftige globale Bestrahlungsstärke Gl eines vorgegebenen Gebiets als Prognose ermittelt werden Die in Verfahrensschritten S222 und S224 ermittelten aktuellen und/oder zukünftigen Werte der Komponenten Diffl, DNI, ERS der globalen Bestrahlungsstärke Gl können aus den Kameradaten KDH, KDE und/oder den ermittelten Parametern wenigstens spektral und/oder winkelaufgelöst ermittelt werden.
Das Verfahren 200 wird in einem Computerprogramm ausgeführt, welches Befehle umfasst, die bewirken, dass eine Vorrichtung 100 zur Ermittlung wenigstens eines Parameters zur Bestimmung wenigstens einer Komponente einer globalen Bestrahlungsstärke Gl durchgeführt wird. Das Computerprogramm kann Teil eines Corn puterprogram Produktes sein.
Das Computerprogramm oder Computerprogrammprodukt umfassen Befehle, die bei der Ausführung des Computerprogramms durch einen Computer diesen veranlassen, das Verfahren 200 zur Ermittlung wenigstens eines Parameters zur Bestimmung wenigstens einer Komponente einer globalen Bestrahlungsstärke Gl durchgeführt wird, wobei die folgenden Schritte durchgeführt werden:
- Erfassen von Kameradaten KDH, KDE von einer Kameraanordnung 120 in einem kugelförmigen Sichtfeld um die Kameraanordnung 120,
- Ableiten von Informationen zur Solarstrahlung und/oder zur Position (WP) und/oder Eigenschaften von Wolken 12 aus den Kameradaten KDH, KDE.
Bezugszeichen
10 Himmel
12 Wolke
20 Erdoberfläche
22 Schatten der Wolke
30 gemeindame Achse
31 vertikale Richtung, vertikale Achse
33 schräge Achse
40 horizontale Achse
50 Mittelpunkt der Kameraanordnung
100 Anordnung
110 Auswerte- und Steuereinrichtung
120 Kameraanordnung
122 Himmelskamera
124 Bodenkamera
126 Halteanordnung
200 Verfahren
S212-S240 Verfahrensschritte
KDH, KDE Kameradaten
WP Position der Wolke
SP Position Wolkenschatten v Pix/s Winkelgeschwindigkeit vm/s Geschwindigkeit über dem Erdboden
I Intensität eines Farbkanals
H1 Höhe der Wolke von der Erdoberfläche
H2 Höhe der Wolke vom höchsten Punkt der Kameraanordnung
A Abstand der Kameraanordnung zur Erdoberfläche
Gl Globale Bestrahlungsstärke
Diff I diffuse Strahlung
DNI direkte Strahlung
ERS an Erdoberfläche reflektierte Strahlung

Claims

Patentansprüche
1. Anordnung (100) zur Ermittlung wenigstens eines Parameters zur Bestimmung wenigstens einer Komponente einer globalen Bestrahlungsstärke Gl, welche eine Auswerte- und Steuereinrichtung (110) sowie eine Kameraanordnung (120) mit wenigstens einer Kamera (122, 124) umfasst, wobei die wenigstens eine Kamera (122, 124) wenigstens bei der Ermittlung des Parameters mit einem vorgegebenen Abstand (A) zu einer Erdoberfläche (20) fixiert ist, wobei die Kameraanordnung (120) ausgebildet ist, Kameradaten KDH, KDE in einem räumlichen Sichtfeld von zumindest annähernd 360° um die Kameraanordnung (120) zu erfassen, wobei die Kameradaten KDH, KDE geeignet sind, Informationen zur Solarstrahlung und/oder zur Position (WP) und/oder zu Eigenschaften von Wolken (12) abzuleiten.
2. Anordnung nach Anspruch 1 , wobei wenigstens eine erste Kamera (122) Kameradaten in einem ersten Teilsichtfeld erfasst und wenigstens eine zweite Kamera (124) Kameradaten in einem zweiten Teilsichtfeld erfasst, wobei sich die beiden Teilsichtfelder der Kameras (122, 124) zu einem Sichtfeld von zumindest annähernd 360° ergänzen, insbesondere wobei wenigstens die erste Kamera (122) als Himmelskamera (123) Kameradaten KDH im ersten Teilsichtfeld erfasst, das in Richtung Himmel (10) ausgerichtet ist und ein oberes Teilsichtfeld bildet, und die wenigstens zweite Kamera (124) als Bodenkamera (125) Kameradaten KDE im zweiten Teilsichtfeld erfasst, das in Richtung Erdoberfläche (20) ausgerichtet ist und ein unteres Teilsichtfeld bildet, insbesondere wobei die Kameras (122, 124) jeweils als Fischaugenkamera ausgeführt sind, oder wobei eine 360°-Kamera mit einem räumlichem Sichtfeld von zumindest annähernd 360° um die Kameraanordnung (120) Kameradaten KDH in einem ersten Teilsichtfeld erfasst und Kameradaten KDE in einem zweiten Teilsichtfeld erfasst, insbesondere wobei das erste Teilsichtfeld ein in Richtung Himmel (10) ausgerichtetes oberes Teilsichtfeld bildet und das zweite Teilsichtfeld ein in Richtung Erdoberfläche (20) ausgerichtetes unteres Teilsichtfeld bildet. Anordnung nach Anspruch 1 oder 2, wobei sich das Sichtfeld von zumindest annähernd 360° um die Kameraanordnung (120) aus dem räumlichen ersten Teilsichtfeld und dem räumlichen zweiten Teilsichtfeld von jeweils zumindest annähernd 180° um die Kameraanordnung (120) zusammensetzt, wobei die Teilsichtfelder übereinander angeordnet sind, insbesondere wobei die Teilsichtfelder entlang wenigstens einer Achse (30) angeordnet sind oder entlang zweier Achsen, die annähernd parallel mit geringem Abstand zueinander, übereinander angeordnet sind, wobei die wenigstens eine Achse (30) im Wesentlichen in einer vertikalen Richtung (31 ) ausgerichtet, oder insbesondere wobei die Teilsichtfelder entlang wenigstens einer Achse (30) angeordnet sind oder entlang zweier Achsen, die annähernd parallel mit geringem Abstand zueinander, übereinander angeordnet sind, wobei die wenigstens eine Achse (30) mit einem Kippwinkel zu einer vertikalen Richtung (31 ) ausgerichtet ist. Anordnung nach einem der vorhergehenden Ansprüche, wobei die Auswerte- und Steuereinrichtung (110) aus den erfassten Kameradaten KDH, KDE dem Himmel (10) zugeordnete Kameradaten KDH entnimmt und aus diesen dem Himmel (10) zugeordneten Kameradaten KDH wenigstens einen der folgenden Parameter ermittelt:
(i) eine direkte Strahlung DNI und/oder
(ii) eine diffuse Strahlung Diffl und/oder (iii) eine globale Bestrahlungsstärke Gl und/oder
(iv) wenigstens eine Position von Wolkenmerkmalen und/oder
(v) von Wolken bedeckte Himmelsbereiche und/oder
(vi) aus Wolkenpositionen WP und/oder aus der Position von Wolkenmerkmalen im Kamerabild zwischen wenigstens zwei Zeitstempeln eine Winkelgeschwindigkeit vpix/s von wenigstens einer Wolke (12) im Kamerabild. Anordnung nach einem der vorhergehenden Ansprüche, wobei die Auswerte- und Steuereinrichtung (110) aus den erfassten Kameradaten KDH, KDE der Erdoberfläche (20) zugeordnete Kameradaten KDE entnimmt, und aus diesen der Erdoberfläche (20) zugeordneten Kameradaten KDE wenigstens einen der folgenden Parameter ermittelt:
(i) eine an der Erdoberfläche (20) reflektierte Strahlung ERS und/oder
(ii) eine Albedo AL der Erdoberfläche (20) und/oder
(iii) wenigstens eine Wolkenschattenposition SP und/oder
(iv) aus den Wolkenschattenpositionen SP zwischen wenigstens zwei Zeitstempeln eine Geschwindigkeit vm/s von wenigstens einer Wolke (12) über der Erdoberfläche (20). Anordnung nach einem der Ansprüche 4 oder 5, wobei die Auswerte- und Steuereinrichtung (110) aus der Geschwindigkeit vm/s von wenigstens einer Wolke (12) über der Erdoberfläche (20) und der Winkelgeschwindigkeit vplx/s von wenigstens einer Wolke (12) im Kamerabild eine Höhe (H1 , H2) der Wolken (12) ermittelt, insbesondere wobei die wenigstens eine Auswerte- und Steuereinrichtung (110) mit der Höhe (H1 , H2) der Wolken und der Wolkengeschwindigkeit vm/s über der Erdoberfläche (20) eine zukünftige Wolkenposition WP ermittelt und daraus eine zukünftige Verschattung oder eine zukünftige globale Bestrahlungsstärke Gl eines vorgegebenen Gebiet ermittelt. 7. Anordnung nach einem der Ansprüche 4 bis 6, wobei die wenigstens eine Auswerte- und Steuereinrichtung (110) die Geschwindigkeit vm/s von Wolken (12) über der Erdoberfläche (20) und/oder die Winkelgeschwindigkeit vpix/s von Wolken (12) im Kamerabild zeitlich und räumlich extrapoliert.
8. Anordnung nach einem der Ansprüche 4 bis 7, wobei die wenigstens eine Auswerte- und Steuereinrichtung (110) aus den Kameradaten KDH, KDE und/oder den ermittelten Parametern wenigstens einen aktuellen und/oder zukünftigen Wert wenigstens einer Komponente der globalen Bestrahlungsstärke Gl spektral und/oder winkelaufgelöst bestimmt.
9. Anordnung nach Anspruch 8, wobei wenigstens eine Auswerte- und Steuereinrichtung (110) die wenigstens eine Komponente der globalen Bestrahlungsstärke Gl auf einer geneigten, insbesondere beliebig orientierten, Oberfläche bestimmt.
10. Verwendung einer Anordnung (100) nach einem der vorhergehenden Ansprüche zur Ermittlung wenigstens eines Parameters zur Bestimmung wenigstens einer Komponente einer globalen Bestrahlungsstärke Gl, wobei Kameradaten KDH, KDE in einem räumlichen Sichtfeld von zumindest annähernd 360° um die Kameraanordnung (120) erfasst werden, wobei aus den Kameradaten KDH, KDE Informationen zur Solarstrahlung und/ oder zur Position und/oder zu Eigenschaften von Wolken abgeleitet werden.
11 . Verwendung nach Anspruch 10, wobei mit wenigstens einer ersten Kamera (122) Kameradaten in einem ersten Teilsichtfeld erfasst werden und mit wenigstens einer zweiten Kamera (124) Kameradaten in einem zweiten Teilsichtfeld erfasst werden, wobei sich die beiden Teilsichtfelder der Kameras (122, 124) zu einem Sichtfeld von zumindest annähernd 360° ergänzen, insbesondere wobei mit wenigstens einer ersten Kamera (122) als Himmelskamera (123) Kameradaten KDH im ersten Teilsichtfeld erfasst werden, das in Richtung Himmel (10) ausgerichtet ist und ein oberes Teilsichtfeld bildet und mit wenigstens einer zweiten Kamera (124) als Bodenkamera (125) Kameradaten KDE im zweiten Teilsichtfeld erfasst werden, das in Richtung Erdoberfläche (20) ausgerichtet ist und ein unteres Teilsichtfeld bildet, oder wobei mit einer 360°-Kamera mit einem räumlichen Sichtfeld von zumindest annähernd 360° um die Kameraanordnung (120) Kameradaten KDH in einem ersten Teilsichtfeld und Kameradaten KDE in einem zweiten Teilsichtfeld erfasst werden, insbesondere wobei das erste Teilsichtfeld ein in Richtung Himmel (10) ausgerichtetes oberes Teilsichtfeld bildet und das zweite Teilsichtfeld ein in Richtung der Erdoberfläche (20) ausgerichtetes unteres Teilsichtfeld bildet.
12. Verwendung nach Anspruch 10 oder 11 , wobei sich das Sichtfeld von zumindest annähernd 360° um die Kameraanordnung (120) aus dem räumlichen ersten Teilsichtfeld und dem räumlichen zweiten Teilsichtfeld von jeweils zumindest annähernd 180° um die Kameraanordnung (120) zusammensetzt, wobei die Teilsichtfelder übereinander angeordnet sind, insbesondere wobei die Teilsichtfelder entlang wenigstens einer Achse (30) angeordnet sind oder entlang zweier Achsen, die annähernd parallel mit geringem Abstand zueinander, übereinander angeordnet sind, wobei die wenigstens eine Achse (30) im Wesentlichen in einer vertikalen Richtung (31 ) ausgerichtet, oder insbesondere wobei die Teilsichtfelder entlang wenigstens einer Achse (30) angeordnet sind oder entlang zweier Achsen, die annähernd parallel mit geringem Abstand zueinander, übereinander angeordnet sind, wobei die wenigstens eine Achse (30) mit einem Kippwinkel zu einer vertikalen Richtung (31 ) ausgerichtet ist. Verwendung nach einem der Ansprüche 10 bis 12, wobei aus den erfassten Kameradaten KDH, KDE dem Himmel (10) zugeordnete Kameradaten KDH entnommen werden, und aus diesen dem Himmel (10) zugeordneten Kameradaten KDH wenigstens einer der folgenden Parameter:
(i) eine direkte Strahlung DNI und/oder
(ii) eine diffuse Strahlung Diffl und/oder
(iii) eine globale Bestrahlungsstärke Gl und/oder
(iv) wenigstens eine Position von Wolkenmerkmalen und/oder
(v) von Wolken bedeckte Himmelsbereiche und/oder
(vi) aus Wolkenpositionen WP und/oder aus der Position von Wolkenmerkmalen im Kamerabild zwischen wenigstens zwei Zeitstempeln eine Winkelgeschwindigkeit vpix/s von wenigstens einer Wolke (12) im Kamerabild ermittelt wird. Verwendung nach einem der Ansprüche 10 bis 13, wobei aus den erfassten Kameradaten KDH, KDE der Erdoberfläche (20) zugeordnete Kameradaten KDE entnommen werden, und aus diesen der Erdoberfläche (20) zugeordneten Kameradaten KDE wenigstens einer der folgenden Parameter (i) eine an der Erdoberfläche (20) reflektierte Strahlung ERS und/oder
(ii) eine Albedo AL der Erdoberfläche (20) und/oder
(iii) wenigstens eine Wolkenschattenposition SP und/oder
(iv) aus den Wolkenschattenpositionen SP zwischen wenigstens zwei Zeitstempeln eine Geschwindigkeit vm/s von wenigstens einer Wolke (12) über der Erdoberfläche (20) ermittelt wird.
15. Verwendung nach Anspruch 14, wobei aus der Geschwindigkeit vm/s von wenigstens einer Wolke (12) über der Erdoberfläche (20) und der Winkelgeschwindigkeit vpix/s von wenigstens einer Wolke (12) im Kamerabild eine Höhe (H1 , H2) der Wolken (12) ermittelt wird, insbesondere wobei mit der Höhe (H1 , H2) der Wolken und der Wolkengeschwindigkeit vm/s über der Erdoberfläche (20) eine zukünftige Wolkenposition WP ermittelt und daraus eine zukünftige Verschattung und/oder die zukünftige globale Bestrahlungsstärke Gl eines vorgegebenen Gebiets ermittelt wird.
16. Verwendung nach einem der Ansprüche 14 oder 15, wobei die Geschwindigkeit vm/s von Wolken (12) über der Erdoberfläche (20) und/oder die Winkelgeschwindigkeit vpix/s von Wolken (12) im Kamerabild zeitlich und räumlich extrapoliert werden.
17. Verwendung nach einem der Ansprüche 10 bis 16, wobei aus den Kameradaten KDH, KDE und/oder den ermittelten Parametern wenigstens ein aktueller und/oder zukünftiger Wert wenigstens einer Komponente der globalen Bestrahlungsstärke Gl spektral und/oder winkelaufgelöst bestimmt wird.
18. Verwendung nach Anspruch 17, wobei die wenigstens eine Komponente der globalen Bestrahlungsstärke Gl auf einer geneigten, insbesondere beliebig orientierten, Oberfläche bestimmt wird. Verfahren (200), insbesondere computerimplementiertes Verfahren, zur Ermittlung wenigstens eines Parameters zur Bestimmung wenigstens einer Komponente einer globalen Bestrahlungsstärke Gl, wobei Kameradaten KDH, KDE an einem gemeinsamen Standort in einem räumlichen Sichtfeld von zumindest annähernd 360° um eine Kameraanordnung 120 erfasst werden, wobei aus den Kameradaten KDH, KDE Informationen zur Solarstrahlung und/ oder zu Position (WP) und/oder Eigenschaften von Wolken (12) abgeleitet werden. Verfahren nach Anspruchl 9, wobei mit wenigstens einer ersten Kamera (122) Kameradaten in einem ersten Teilsichtfeld erfasst werden und mit wenigstens einer zweiten Kamera (124) Kameradaten in einem zweiten Teilsichtfeld erfasst werden, wobei sich die beiden Teilsichtfelder der Kameras (122, 124) zu einem Sichtfeld von zumindest annähernd 360° ergänzen, insbesondere wobei mit wenigstens einer ersten Kamera (122) als Himmelskamera (123) Kameradaten KDH im ersten Teilsichtfeld erfasst werden, das in diesem Fall in Richtung Himmel (10) ausgerichtet ist und ein oberes Teilsichtfeld bildet, und mit wenigstens einer zweiten Kamera (124) als Bodenkamera (125) Kameradaten KDE im zweiten Teilsichtfeld erfasst werden, das in diesem Fall in Richtung Erdoberfläche (20) ausgerichtet ist und ein unteres Teilsichtfeld bildet, oder wobei mit einer 360°-Kamera mit Sichtfeld von zumindest annähernd 360° um die Kameraanordnung (120) Kameradaten KDH in einem ersten Teilsichtfeld erfasst und Kameradaten KDE in einem zweiten Teilsichtfeld erfasst werden, insbesondere wobei das erste Teilsichtfeld ein in Richtung Himmel (10) ausgerichtetes oberes Teilsichtfeld bildet und das zweite Teilsichtfeld ein in Richtung der Erdoberfläche (20) ausgerichtetes unteres Teilsichtfeld bildet. Verfahren nach Anspruch 19 oder 20, wobei sich das Sichtfeld von zumindest annähernd 360° um die Kameraanordnung (120) aus dem räumlichen ersten Teilsichtfeld und dem räumlichen zweiten Teilsichtfeld von jeweils zumindest annähernd 180° um die Kameraanordnung (120) zusammensetzt, wobei die Teilsichtfelder übereinander angeordnet sind, insbesondere wobei die Teilsichtfelder entlang wenigstens einer Achse (30) angeordnet sind oder entlang zweier Achsen, die annähernd parallel mit geringem Abstand zueinander, übereinander angeordnet sind, wobei die wenigstens eine Achse (30) im Wesentlichen in einer vertikalen Richtung (31 ) ausgerichtet, oder insbesondere wobei die Teilsichtfelder entlang wenigstens einer Achse (30) angeordnet sind oder entlang zweier Achsen, die annähernd parallel mit geringem Abstand zueinander, übereinander angeordnet sind, wobei die wenigstens eine Achse (30) mit einem Kippwinkel zu einer vertikalen Richtung (31 ) ausgerichtet ist. Verfahren nach einem der Ansprüche 19 bis 21 , wobei aus den erfassten Kameradaten KDH, KDE dem Himmel (10) zugeordnete Kameradaten KDH entnommen werden und aus diesen dem Himmel (10) zugeordneten Kameradaten KDH wenigstens einer der folgenden Parameter
(i) eine direkte Strahlung DNI und/oder
(ii) eine diffuse Strahlung Diffl und/oder
(iii) eine globale Bestrahlungsstärke Gl und/oder
(iv) von Wolken bedeckte Himmelsbereiche und/oder
(v) wenigstens eine Wolkenposition WP und/oder
(vi) aus Wolkenpositionen WP und/oder aus der Position von Wolkenmerkmalen im Kamerabild zwischen wenigstens zwei Zeitstempeln eine Winkelgeschwindigkeit vpix/s von wenigstens einer Wolke (12) im Kamerabild ermittelt wird.
23. Verfahren nach einem der Ansprüche 19 bis 22, wobei aus den erfassten Kameradaten KDH, KDE der Erdoberfläche (20) zugeordnete Kameradaten KDH entnommen, und aus diesen der Erdoberfläche (20) zugeordneten Kameradaten KDH wenigstens einer der folgenden Parameter:
(i) eine an der Erdoberfläche (20) reflektierte Strahlung ERS und/oder
(ii) eine Albedo AL der Erdoberfläche (20) und/oder
(iii) wenigstens eine Wolkenschattenposition SP und/oder
(iv) aus den Wolkenschattenpositionen SP zwischen wenigstens zwei Zeitstempeln eine Geschwindigkeit vm/s von wenigstens einer Wolke (12) über der Erdoberfläche (20) ermittelt wird.
24. Verfahren nach Anspruch 23, wobei aus der Geschwindigkeit vm/s von wenigstens einer Wolke (12) über der Erdoberfläche (20) und der Winkelgeschwindigkeit vpix/s von wenigstens einer Wolke (12) im Kamerabild eine Höhe (H1 , H2) der Wolken (12) ermittelt wird, insbesondere wobei mit der Höhe (H1 , H2) der Wolken (12) und der Wolkengeschwindigkeit vm/s über der Erdoberfläche (20) eine zukünftige Wolkenposition WP ermittelt und daraus eine zukünftige Verschattung und/oder die zukünftige globale Bestrahlungsstärke Gl eines vorgegebenen Gebiets ermittelt wird.
25. Verfahren nach einem der Ansprüche 23 bis 24, wobei die Geschwindigkeit vm/s von Wolken (12) über der Erdoberfläche (20) und/ oder die Winkelgeschwindigkeit vpix/s von Wolken (12) im Kamerabild zeitlich und räumlich extrapoliert werden.
26. Verfahren nach einem der Ansprüche 19 bis 25, wobei aus den Kameradaten KDH, KDE und/oder den ermittelten Parametern wenigstens ein aktueller und/oder zukünftiger Wert wenigstens einer Komponente der globalen Bestrahlungsstärke Gl spektral und/oder winkelaufgelöst ermittelt wird. Verfahren nach Anspruch 26, wobei die wenigstens eine Komponente der globalen Bestrahlungsstärke Gl auf einer geneigten, insbesondere beliebig orientierten, Oberfläche ermittelt wird. Computerprogramm oder Computerprogrammprodukt, umfassend Befehle, die bewirken, dass eine Anordnung (100) nach einem der Ansprüche 1-9 ein Verfahren (200) zur Ermittlung wenigstens eines Parameters zur Bestimmung wenigstens einer Komponente einer globalen Bestrahlungsstärke Gl nach einem der Ansprüche 19 bis 27 durchzuführen. Computerprogramm oder Computerprogrammprodukt, umfassend Befehle, die bei der Ausführung des Computerprogramms durch einen Computer diesen veranlassen, ein Verfahren (200) zur Ermittlung wenigstens eines Parameters zur Bestimmung wenigstens einer Komponente einer globalen Bestrahlungsstärke Gl nach einem der Ansprüche 19 bis 27 durchzuführen, umfassend
Erfassen von Kameradaten KDH, KDE von einer Kameraanordnung (120) in einem kugelförmigen Sichtfeld um die Kameraanordnung 120,
Ableiten von Informationen zur Solarstrahlung und/oder zur Position (WP) und/oder Eigenschaften von Wolken (12) aus den Kameradaten KDH, KDE.
PCT/EP2023/081145 2022-11-10 2023-11-08 Anordnung, verwendung einer anordnung und verfahren zur ermittlung wenigstens eines parameters WO2024100116A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102022129771.3 2022-11-10
DE102022129771.3A DE102022129771A1 (de) 2022-11-10 2022-11-10 Anordnung, Verwendung einer Anordnung und Verfahren zur Ermittlung wenigstens eines Parameters

Publications (1)

Publication Number Publication Date
WO2024100116A1 true WO2024100116A1 (de) 2024-05-16

Family

ID=88745727

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2023/081145 WO2024100116A1 (de) 2022-11-10 2023-11-08 Anordnung, verwendung einer anordnung und verfahren zur ermittlung wenigstens eines parameters

Country Status (2)

Country Link
DE (1) DE102022129771A1 (de)
WO (1) WO2024100116A1 (de)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190204405A1 (en) * 2016-01-04 2019-07-04 Nextracker Inc. Method for controlling the orientation of a solar module with two photoactive faces
US10989839B1 (en) * 2017-08-29 2021-04-27 University Of Hawai'i Ground-based sky imaging and irradiance prediction system
DE102020111590A1 (de) * 2020-04-28 2021-10-28 Deutsches Zentrum für Luft- und Raumfahrt e.V. Vorrichtung und Verfahren zur Bestimmung einer globalen Bestrahlungsstärke solarer Strahlung

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190204405A1 (en) * 2016-01-04 2019-07-04 Nextracker Inc. Method for controlling the orientation of a solar module with two photoactive faces
US10989839B1 (en) * 2017-08-29 2021-04-27 University Of Hawai'i Ground-based sky imaging and irradiance prediction system
DE102020111590A1 (de) * 2020-04-28 2021-10-28 Deutsches Zentrum für Luft- und Raumfahrt e.V. Vorrichtung und Verfahren zur Bestimmung einer globalen Bestrahlungsstärke solarer Strahlung

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
ARTIKEL KUHN, P. ET AL.: "Benchmarking three low-cost, low-maintenance cloud height measurement systems and ECMWF cloud heights against a ceilometer", SOLAR ENERGY, vol. 168, 2018, pages 140 - 152
GAO WENLIANG: "Autonomous Aerial Robot Using Dual-fisheye System", THESIS, 2 August 2018 (2018-08-02), XP093121139, Retrieved from the Internet <URL:https://gaowenliang.github.io/doc/gwl_thesis3.pdf> *
KUHN, P. ET AL.: "Benchmarking three low-cost, low-maintenance cloud height measurement systems and ECMWF cloud heights against a ceilometer - ScienceDirect", 1 July 2018 (2018-07-01), pages 1 - 24, XP093120906, Retrieved from the Internet <URL:https://www.sciencedirect.com/science/article/pii/S0038092X1830183X?via=ihub> [retrieved on 20240118] *
VERÖFFENTLICHUNG: "Shadow camera system for the generation of solar irradiance maps", SOLAR ENERGY, vol. 157, 2017, pages 157 - 170, XP085268553, DOI: 10.1016/j.solener.2017.05.074

Also Published As

Publication number Publication date
DE102022129771A1 (de) 2024-05-16

Similar Documents

Publication Publication Date Title
CN111078678B (zh) 一种基于多源信息融合与降尺度的卫星降水数据校正方法
DE102011017694A1 (de) Verfahren und Vorrichtung zur Bestimmung einer von einer photovoltaischen Anlage abgegebenen Leistung
Sola et al. Synthetic images for evaluating topographic correction algorithms
DE102013217535B4 (de) Kalibrierung eines Fernerkundungssensors zur Fernerkundung einer Planetenoberfläche
EP3791359A1 (de) Korrelation thermischer satellitenbilddaten zur generierung räumlich hochaufgelöster wärmekarten
JP2019015517A (ja) 日射強度推定装置、日射強度推定システム及び日射強度推定方法
WO2016107882A2 (de) Csp tracking
WO2019007926A1 (de) Verfahren zur bestimmung des verschmutzungsgrades einer reflektierenden fläche eines solarkraftwerks
EP2942230A1 (de) Verfahren zur messung des anhubs elektrischer fahrleitungen auf fahrwegen des schienengebundenen verkehrs
WO2024100116A1 (de) Anordnung, verwendung einer anordnung und verfahren zur ermittlung wenigstens eines parameters
DE102016226033B4 (de) Verfahren zur Bestimmung von relativen Reflexionsgraden einer Absorberfläche eines Receivers einer Solarturmanlage
Wu et al. An approach for terrain illumination correction
WO2021219570A1 (de) Verfahren und vorrichtung zur bestimmung einer globalen bestrahlungsstärke solarer strahlung
WO2017182119A1 (de) Vorrichtung, system und verfahren zur markierungsfreien hangüberwachung und/oder bauüberwachung
DE102008062914A1 (de) Verfahren zur Ermittlung des energetischen Potenzials der Photovoltaik und/oder der Solarthermie in bebauten Gebieten
CN113160311A (zh) 太阳能电池板调节方法及调节装置、追日系统和存储设备
Merodio et al. Albedo measurements and energy yield estimation uncertainty for bifacial photovoltaic systems
DE102013205424B3 (de) Verfahren und Vorrichtung zum Ermitteln einer Verschmutzung einer Oberfläche
CN111089607B (zh) 一种望远镜系统探测能力自动标校方法
EP4073745A1 (de) Verfahren und vorrichtung zur parallaxenbestimmung von aufnahmen eines multilinsen-kamerasystems
Ackett Evaluation of Drought-Tolerant Bermudagrass Response to Water-Saving Irrigation Scheduling Methods
Khanna et al. Studying phenotypic variability in crops using a hand-held sensor platform
DE102015221743A1 (de) Verfahren und Informationssystem zum Vorhersagen einer zukünftigen Bodentemperatur in einem Spargeldamm
MOUHIB THE ROLE OF SOLAR FORECASTING IN THE MANAGEMENT OF SMALL PHOTOVOLTAIC SYSTEMS: A BIBLIOGRAPHIC REVIEW
WO2022223705A1 (de) Verfahren zur steuerung von eine spiegelfläche aufweisenden reflektoren eines solarkraftwerks