WO2020241130A1 - 情報処理システム、方法、及びプログラム - Google Patents

情報処理システム、方法、及びプログラム Download PDF

Info

Publication number
WO2020241130A1
WO2020241130A1 PCT/JP2020/017360 JP2020017360W WO2020241130A1 WO 2020241130 A1 WO2020241130 A1 WO 2020241130A1 JP 2020017360 W JP2020017360 W JP 2020017360W WO 2020241130 A1 WO2020241130 A1 WO 2020241130A1
Authority
WO
WIPO (PCT)
Prior art keywords
camera
sun position
image
shooting
sun
Prior art date
Application number
PCT/JP2020/017360
Other languages
English (en)
French (fr)
Inventor
祐弥 ▲高▼島
昌裕 箕輪
成皓 奥村
Original Assignee
古野電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 古野電気株式会社 filed Critical 古野電気株式会社
Priority to CN202080039795.0A priority Critical patent/CN113939710A/zh
Priority to JP2021522713A priority patent/JP7419364B2/ja
Priority to EP20814580.5A priority patent/EP3978869A4/en
Publication of WO2020241130A1 publication Critical patent/WO2020241130A1/ja
Priority to US17/456,555 priority patent/US12100179B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Definitions

  • the present disclosure relates to information processing systems, methods, and programs that specify the orientation or tilt of a camera used for cloud observation.
  • Satellites are mainly used for conventional cloud observation. Since satellites observe clouds from the sky, it is not possible to obtain a detailed distribution of clouds near the ground. Therefore, it is not possible to grasp the amount of sunshine and the sunshine duration on the ground.
  • a camera such as an omnidirectional camera installed on the ground as a means to replace the satellite. It is conceivable that the cameras are installed at measurement sites separated from each other and observe the same cloud using images from a plurality of cameras.
  • Patent Document 1 describes a device that detects the orientation of a camera, although it is not an omnidirectional camera. However, this method requires a deflecting camera.
  • the present disclosure has focused on such issues, and an object of the present disclosure is to facilitate the installation work of the camera and reduce the number of sensors provided in the camera, and to specify the orientation or inclination of the camera. To provide information processing systems, methods, and programs.
  • the information processing system of the present disclosure is An image acquisition unit that acquires an image of the sky taken with a camera whose orientation and inclination are known, and A shooting date / time acquisition unit that acquires the shooting date / time of the image, A shooting position acquisition unit that acquires position information of the shooting location of the image, and A sun identification part that specifies the shooting sun position that indicates the sun position in the image, and A reference sun position acquisition unit that calculates a reference sun position that indicates the position of the sun determined based on the shooting date and time and the position information, and A camera information specifying unit that identifies any one of the unknown camera tilts and orientations based on any one of the known camera orientations and tilts, the shooting sun position, and the reference sun position. , To be equipped.
  • any one of the camera's orientation and tilt is known, it is unknown based on the shooting date and time, the position information of the shooting location (for example, latitude and longitude), and the position of the sun in the image. It is possible to identify either the tilt or the orientation of a camera. Therefore, it is not necessary to adjust the orientation or tilt when the camera is installed, and it is possible to specify the tilt or orientation of the camera without providing an attitude sensor or an orientation sensor.
  • Flow chart executed by the information processing system of the first embodiment In the first embodiment, a diagram showing an image taken by a horizontally installed camera having a known inclination in the sky. Explanatory drawing about the sun position shown by elevation and azimuth Explanatory drawing about comparison of photographed sun position and reference sun position in all sky image of 1st Embodiment Explanatory drawing for specifying the orientation when the inclination is non-horizontal and known Explanatory drawing about correction of image taken by camera in 1st Embodiment
  • the second embodiment a diagram showing an image taken by a camera having a known orientation in the sky. Explanatory drawing about comparison of photographed sun position and reference sun position in all sky image of 1st Embodiment Flow chart executed by the information processing system of the second embodiment
  • the information processing system 1 of the first embodiment is used as an observation system.
  • the observation system includes one or more cameras 10 that capture the sky and a computer that processes the images captured by the cameras 10.
  • the information processing system 1 acquires an image of the sky taken by a camera 10 having a known inclination, and identifies an unknown camera direction as camera information based on the image.
  • the camera 10 that captures the image acquired by the information processing system 1 may be any camera as long as it can capture the sky.
  • an omnidirectional camera using a fisheye lens is installed facing upward in order to capture a wide area of the sky with one camera. In the example of FIG.
  • the center P1 of the image G1 obtained from the camera 10 is directly above (elevation angle 90 °), and the edge of the image is from the center.
  • the elevation angle becomes smaller toward.
  • the orientation (tilt) of the camera can be expressed by the roll angle and the pitch angle with respect to the roll axis and the pitch axis that are orthogonal to each other in the horizontal plane.
  • the orientation of the camera can be expressed by the yaw angle with respect to the yaw axis parallel to the vertical direction.
  • the information processing system 1 of the first embodiment includes an image acquisition unit 11, a shooting date / time acquisition unit 12, a shooting position acquisition unit 13, a sun identification unit 14, and a reference sun position acquisition unit 15. And a known camera information acquisition unit 16 and a camera information identification unit 17.
  • software and hardware cooperate by executing a program in which the processor 1b is stored in the memory in advance in a computer provided with a processor 1b such as a CPU, a storage 1a such as a memory, and various interfaces. It will be realized.
  • the image acquisition unit 11 shown in FIG. 1 acquires the image G1 obtained by the camera 10 capturing the sky.
  • the center P1 of the image G1 is directly above, and the clouds (C1, C2, C3) and the sun (S1) are shown.
  • the north, south, east, and west directions are represented by E, W, S, and N, but the direction is originally unknown with only one image G1.
  • the installation work of the camera 10 is complicated, an error occurs, or the orientation of the camera 10 cannot be adjusted when the camera 10 is provided on the wall surface of the building.
  • the shooting date / time acquisition unit 12 shown in FIG. 1 acquires the shooting date / time of the image G1 acquired by the image acquisition unit 11.
  • the shooting position acquisition unit 13 acquires the position information (latitude, longitude) of the shooting location of the image G1 acquired by the image acquisition unit 11.
  • the shooting date / time acquisition unit 12 and the shooting position acquisition unit 13 may acquire the shooting date / time and the shooting position from the meta tag data embedded in the image G1, or acquire the shooting date / time and the shooting position based on the data from the camera 10. It may be configured as follows. Further, the shooting position acquisition unit 13 is configured to receive the camera ID from the camera 10 and acquire the installation position corresponding to the camera ID as the shooting position from the existing camera information database having the installation position of the camera 10. May be good.
  • the sun identification unit 14 shown in FIG. 1 identifies the photographing sun position S1 indicating the sun position in the image G1.
  • the coordinate center of the maximum luminance value in the image G1 is specified as the sun position S1.
  • the image is taken with an exposure smaller than the observation exposure used at the time of observation.
  • the shutter speed may be made faster than during observation, or the aperture value may be made larger than during observation.
  • Another method for identifying the position of the shooting sun is a region that extends radially from the center point of the pixel group that maximizes the brightness in the image, and the brightness gradually decreases and the pulsation of the brightness starts as the distance from the center point increases. It is possible to determine that the area up to this point is the sun.
  • the method for specifying the sun is not limited to this, and various methods may be adopted.
  • the reference sun position acquisition unit 15 shown in FIG. 1 calculates the reference sun position indicating the position of the sun determined based on the shooting date and time and the position information (latitude / longitude). It is known that the position of the sun (elevation angle ⁇ and azimuth angle ⁇ ) can be specified based on the date and time and position information (latitude and longitude) by using astronomy.
  • the reference sun position may be expressed by the method shown in FIG. 4 or may be expressed by the method shown in FIG.
  • the reference sun position shown in FIG. 4 is represented by an elevation angle ⁇ and an azimuth angle ⁇ with respect to a reference azimuth (for example, north) about the shooting location where the camera 10 is installed.
  • the reference sun position B1 shown in FIG. 5 is the position of the sun in the all-sky image G1 when the camera 10 is horizontal and the camera 10 is facing a predetermined direction.
  • the predetermined orientation is, for example, a desired orientation such that the lower part of the captured image is south.
  • the expression at the reference sun position B1 in the all-sky image G1 shown in FIG. 5 is adopted.
  • the known camera information acquisition unit 16 shown in FIG. 1 acquires the known information of the camera 10.
  • the known tilt of the camera 10 is acquired.
  • the known camera information acquisition unit 16 may acquire data related to tilt from known camera information stored in storage 1a, or may acquire data related to tilt from camera 10. The tilt of all cameras 10 is the same.
  • the camera information specifying unit 17 shown in FIG. 1 identifies an unknown orientation of the camera 10 based on the known tilt of the camera 10, the shooting sun position S1, and the reference sun position B1. As shown in FIG. 5, the camera information specifying unit 17 compares the shooting sun position S1 with the reference sun position B1 by using the fact that the tilt (horizontal) of the camera 10 is known, and the camera 10 is unknown. Identify the orientation of. Specifically, as shown in the figure, the camera information specifying unit 17 identifies the shooting sun position S1 when the camera 10 is horizontal by using the known tilt of the camera 10, and the specified shooting sun position. The unknown orientation of the camera 10 is specified by comparing S1 with the reference sun position B1. In the example of FIG.
  • the shooting sun position S1 in the image G1 captured by the camera 10 can be used as it is.
  • An example in which the camera 10 is not horizontal will be described below with reference to the example of FIG.
  • the difference ⁇ between the azimuth angles of the photographing sun position S1 and the reference sun position B1 is specified, so that the azimuth of the camera 10 is deviated by ⁇ angle from the predetermined azimuth (desired azimuth). Is specified.
  • the photographed sun position S1 and the reference sun position B1 indicate the positions of the sun in the all-sky image G1 captured together, and both positions are compared in the image.
  • the angle of the camera 10 with respect to a predetermined direction by comparing the photographed sun position S1 indicating the position of the sun in the image with the reference sun position indicated by the elevation angle ⁇ and the azimuth angle ⁇ .
  • the error ⁇ may be calculated.
  • the photographed sun position S1 in the image is converted into the photographed sun position indicated by the elevation angle ⁇ and the azimuth angle ⁇ , and the photographed sun position after the conversion and the reference sun position indicated by the elevation angle ⁇ and the azimuth angle ⁇ . May be compared to calculate the angle error ⁇ . Further, (3) the angle error ⁇ may be calculated by comparing the photographed sun position indicated by the elevation angle ⁇ and the azimuth angle ⁇ with the reference sun position B1 in the all-sky image G1.
  • the direction (angle error ⁇ ) of the camera 10 is calculated using one image G1, but in order to improve the identification accuracy of the direction (angle error ⁇ ), it is configured as follows. Is preferable. That is, the image acquisition unit 11 acquires a plurality of images G1. The camera information specifying unit 17 calculates an angle error ⁇ with respect to a predetermined direction (desired direction) of the camera 10 by using the average of the difference (angle error ⁇ ) between the shooting sun position S1 and the reference sun position B1 in each image G1. Is preferable. As another method, the camera information specifying unit 17 compares the locus of the shooting sun position S1 in each image G1 with the locus of the reference sun position B1 in each image G1 to calculate the angle error ⁇ . Be done.
  • the shooting position acquisition unit 13 identifies the shooting sun position S0 from the image G1 acquired by the image acquisition unit 11.
  • the inclination of the camera 10 that captured the image G1 is not horizontal, but is specified by the roll angle and the pitch angle.
  • the camera information specifying unit 17 specifies the shooting sun position S1 when the camera 10 is horizontal by using the known inclination of the camera 10.
  • the photographed sun position S0 in the image G1 specified by the sun specifying unit 14 is corrected to the photographed sun position S1 when the camera 10 is horizontal.
  • the camera information specifying unit 17 compares the corrected shooting sun position S1 with the reference sun position B1 to specify the unknown orientation of the camera 10.
  • the information processing system 1 may be provided with an image correction unit 18.
  • the image correction unit 18 can be omitted.
  • the image correction unit 18 uses the image G1 acquired by the image acquisition unit 11 as shown in FIG. It is corrected to the image G3 taken when the inclination is high and the inclination is predetermined.
  • the lower part of the image G3 is corrected so as to be south, which is an example. If such an image correction unit 18 is provided, the orientation of the images from each camera can be matched when observing clouds or the like by acquiring images from a plurality of cameras 10 that are separated from each other. It is possible to improve the accuracy.
  • the information processing system 1 may be provided with an error information output unit 19.
  • the error information output unit 19 can be omitted.
  • the error information output unit 19 outputs error information on the orientation or inclination of the camera 10 based on the camera information (direction or inclination) specified by the camera information identification unit 17. Examples of the output method include display on a display, audio output from a speaker, output of data including error information, and transmission.
  • step ST100 the image acquisition unit 11 acquires the image G1 obtained by photographing the sky with the camera 10 whose inclination is known.
  • step ST101 the shooting date / time acquisition unit 12 acquires the shooting date / time of the image G1.
  • step ST102 the shooting position acquisition unit 13 acquires the position information of the shooting location of the image G1.
  • Steps ST101 and 102 are in no particular order before step ST104.
  • step ST103 the sun identification unit 14 identifies the photographing sun position S1 indicating the sun position in the image G1.
  • step ST103 can be executed after step ST100.
  • step ST104 the reference sun position acquisition unit 15 calculates the reference sun position B1 indicating the position of the sun determined based on the shooting date and time and the position information.
  • the camera information specifying unit 17 identifies an unknown direction of the camera 10 based on the known tilt of the camera, the shooting sun position S1, and the reference sun position B1.
  • the information processing system 1 of the first embodiment specifies the orientation of the camera 10 based on the image G1 taken by the camera 10 whose inclination is known.
  • the information processing system 1 of the second embodiment specifies the inclination of the camera 10 based on the image G4 captured by the camera 10 whose orientation is known.
  • the block diagram showing the information processing system 1 of the second embodiment is the same as that of FIG.
  • the known camera information acquisition unit 16 of the second embodiment acquires the known orientation of the camera 10.
  • the information regarding the orientation of the camera 10 may be stored as known camera information in the storage 1a as shown in FIG. 1 as in the first embodiment, or data regarding the orientation may be acquired from the camera 10.
  • the image acquisition unit 11 shown in FIG. 1 acquires the image G4 taken by the camera 10 whose orientation is known.
  • the image G4 taken from the camera 10 installed so that the lower side of the image is in the south direction is acquired.
  • the reference sun position acquisition unit 15 shown in FIG. 1 calculates the reference sun position B1 indicating the position of the sun determined based on the shooting date and time and the position information (latitude / longitude), as in the first embodiment.
  • FIG. 7 illustrates the reference sun position B1 which is the position of the sun in the all-sky image G1 when the camera 10 is horizontal and the camera 10 is facing a predetermined direction, as in FIG.
  • the camera information specifying unit 17 shown in FIG. 1 identifies an unknown tilt of the camera 10 based on the known orientation of the camera 10, the shooting sun position S1, and the reference sun position B1.
  • the camera information specifying unit 17 identifies the shooting sun position S1 when the camera 10 is facing the reference direction (the direction in which the lower side of the image is south) using the known camera direction.
  • the identified shooting sun position S1 and the reference sun position B1 are compared to identify an unknown camera tilt.
  • the unknown inclination (roll angle and pitch angle) of the camera 10 is calculated based on the distance and direction between the shooting sun position S1 and the reference sun position B1.
  • the functions and processes described in the first embodiment can be applied as they are in the second embodiment except for the difference that the known information of the camera 10 is the direction and the unknown information is the inclination.
  • the image correction unit 18 captures the image G4 acquired by the image acquisition unit 11 based on the camera information (tilt) specified by the camera information identification unit 17 when the camera 10 has a predetermined inclination and a predetermined orientation. Correct the image.
  • the error information output unit 19 outputs error information of the tilt of the camera 10 with respect to a predetermined tilt based on the camera information (tilt) specified by the camera information specifying unit 17.
  • step ST200 the image acquisition unit 11 acquires an image G4 obtained by photographing the sky with a camera 10 whose orientation is known.
  • step ST201 the shooting date / time acquisition unit 12 acquires the shooting date / time of the image G4.
  • step ST202 the shooting position acquisition unit 13 acquires the position information of the shooting location of the image G4. Steps ST201 and 202 are in no particular order before step ST204.
  • step ST203 the sun identification unit 14 identifies the photographing sun position S1 indicating the sun position in the image G4.
  • step ST203 can be executed after step ST200.
  • the reference sun position acquisition unit 15 calculates the reference sun position B1 indicating the position of the sun determined based on the shooting date and time and the position information.
  • the camera information specifying unit 17 identifies an unknown tilt of the camera 10 based on the known camera orientation, the shooting sun position S1, and the reference sun position B1.
  • the information processing system 1 of the first embodiment or the second embodiment is An image acquisition unit 11 that acquires an image G1 [G4] obtained by photographing the sky with a camera 10 whose orientation and inclination are known, and The shooting date / time acquisition unit 12 for acquiring the shooting date / time of the image G1 [G4], and The shooting position acquisition unit 13 for acquiring the position information of the shooting location of the image G1 [G4], and A sun specifying unit 14 that specifies the shooting sun position S1 indicating the sun position in the image G1 [G4], and The reference sun position acquisition unit 15 for calculating the reference sun position B1 indicating the position of the sun determined based on the shooting date and time and the position information, and A camera information identification unit that identifies any one of the unknown camera tilts and orientations based on any one of the known camera 10 orientations and tilts, the shooting sun position S1 and the reference sun position B1. 17 and To be equipped.
  • the information processing method of the first embodiment or the second embodiment is Acquiring an image G1 [G4] of the sky taken by a camera 10 whose orientation and inclination are known (ST100, ST200), Acquiring the shooting date and time of the image G1 [G4] (ST101, ST201), When the position information of the shooting location of the image G1 [G4] is acquired (ST102, ST202), Identifying the shooting sun position S1 indicating the sun position in the image G1 [G4] (ST103, ST203), To calculate the reference sun position B1 indicating the position of the sun determined based on the shooting date and time and the position information (ST104, ST204), Identifying any one of the unknown tilts and orientations of the camera based on any one of the known orientations and tilts of the camera 10, the shooting sun position S1 and the reference sun position B1 (ST105). , ST205), including.
  • any one of the orientation and the inclination of the camera 10 is known, it is based on the shooting date and time, the position information (latitude and longitude) of the shooting location, and the position of the sun in the image G1 [G4]. Therefore, it is possible to identify any one of the unknown tilt and orientation of the camera. Therefore, it is not necessary to adjust the orientation or tilt when the camera is installed, and the inclination or orientation of the camera 10 can be specified without providing the attitude sensor or the orientation sensor.
  • the tilt of the camera 10 is known, and the camera information specifying unit 17 compares the photographing sun position S1 with the reference sun position B1 using the known tilt of the camera 10, and the camera. It is preferable to identify 10 unknown orientations.
  • the image G1 is an all-sky image captured by the all-sky camera 10, and the reference sun position B1 is all when the camera 10 is horizontal and the camera 10 is facing a predetermined direction.
  • the position of the sun in the celestial image is shown, and the camera information specifying unit 17 specifies the shooting sun position S1 when the camera 10 is horizontal by using the tilt of the camera 10, and the specified shooting sun position S1 and the reference sun position B1. It is preferable to identify an unknown orientation of the camera 10 by comparing the above.
  • the all-sky image contains azimuth and elevation information, and compares the captured sun position with the reference sun position when the camera is horizontal and oriented in a predetermined direction. It is possible to identify the unknown orientation of the camera by processing the coordinates in the image without converting to a coordinate system other than the image.
  • the image acquisition unit 11 acquires a plurality of images G1
  • the camera information identification unit 17 uses the average of the differences between the shooting sun position S1 and the reference sun position B1 to obtain unknown information about the camera 10. It is preferable to specify the orientation that is.
  • the orientation of the camera 10 is known, and the camera information specifying unit 17 compares the photographing sun position S1 with the reference sun position B1 using the orientation of the camera 10, and the camera 10 is unknown. It is preferable to specify the inclination of.
  • the image G4 is an all-sky image captured by an all-sky camera
  • the reference sun position B1 is the all-sky when the camera 10 is horizontal and the camera 10 is facing a predetermined direction.
  • the position of the sun in the image is shown, and the camera information specifying unit 17 specifies the shooting sun position S1 when the camera 10 is facing a predetermined direction using the orientation of the camera 10, and the specified shooting sun position S1 and the reference sun position. It is preferable to identify the unknown tilt of the camera 10 by comparing with B1.
  • the all-sky image contains azimuth and elevation information, and compares the captured sun position with the reference sun position when the camera is horizontal and oriented in a predetermined direction. It is possible to identify the unknown tilt of the camera by processing the coordinates in the image without converting to a coordinate system other than the image.
  • the image acquisition unit 11 acquires a plurality of images G4, and the camera information identification unit 17 uses the average of the differences between the shooting sun position S1 and the reference sun position B1 to make the camera unknown. It is preferable to specify a certain inclination.
  • the program according to this embodiment is a program that causes a computer to execute the above method. Further, the computer-readable temporary recording medium according to the present embodiment stores the above program.
  • each process such as operation, procedure, step, and step in the device, system, program, and method shown in the claims, specification, and drawings may be the output of the previous process. Unless used in processing, it can be realized in any order. Even if the scope of claims, the specification, and the flow in the drawings are explained using "first”, “next”, etc. for convenience, it does not mean that it is essential to execute in this order. ..
  • Each part 12 to 17 shown in FIG. 1 is realized by executing a predetermined program by 1 or a processor, but each part may be configured by a dedicated memory or a dedicated circuit.
  • each part 11 to 19 is mounted on the processor 1b of one computer, but each part 11 to 19 may be distributed and mounted on a plurality of computers or the cloud. That is, the above method may be executed by one or more processors.
  • each part 11 to 19 is implemented, but some of them can be omitted arbitrarily.
  • an embodiment in which each part 11 to 17 is mounted can be mentioned.
  • Image acquisition unit 12 Shooting date and time acquisition unit 13
  • Shooting position acquisition unit 14 Sun identification unit 15
  • Reference sun position acquisition unit 17 Camera information identification unit 18
  • Image correction unit 19 Error information output unit
  • All processes described herein can be embodied and fully automated by software code modules executed by a computing system that includes one or more computers or processors.
  • the code module can be stored on any type of non-transitory computer-readable medium or other computer storage device. Some or all methods may be embodied in dedicated computer hardware.
  • any particular action, event, or function of the algorithms described herein may be performed in different sequences and may be added, merged, or excluded altogether. (For example, not all described actions or events are required to execute the algorithm).
  • operations or events are performed in parallel rather than sequentially, for example through multithreading, interrupt handling, or through multiple processors or processor cores, or on other parallel architectures. Can be done.
  • different tasks or processes can be performed by different machines and / or computing systems that can work together.
  • the various exemplary logical blocks and modules described in connection with the embodiments disclosed herein can be implemented or executed by a machine such as a processor.
  • the processor may be a microprocessor, but instead, the processor may be a controller, a microcontroller, or a state machine, or a combination thereof.
  • the processor can include electrical circuits that are configured to handle computer executable instructions.
  • the processor includes an application specific integrated circuit (ASIC), a field programmable gate array (FPGA), or other programmable device that performs logical operations without processing computer executable instructions.
  • ASIC application specific integrated circuit
  • FPGA field programmable gate array
  • Processors can also be a combination of computing devices, such as a digital signal processor (digital signal processor) and microprocessor combination, multiple microprocessors, one or more microprocessors in combination with a DSP core, or any other of that. It can be implemented as such a configuration. Although described primarily with respect to digital technology herein, the processor may also include primarily analog devices. For example, some or all of the signal processing algorithms described herein can be implemented by analog circuits or mixed analog and digital circuits. Computing environments include, but are not limited to, any type of computer system that is based on a microprocessor, mainframe computer, digital signal processor, portable computing device, device controller, or computing engine within the device. be able to.
  • conditional languages such as “can,” “can,” “will,” or “may” include other features, elements, and / or steps in a particular embodiment. Embodiments are understood in the context commonly used to convey that they do not include. Thus, such conditional languages are generally any method in which features, elements and / or steps are required for one or more embodiments, or one or more embodiments are these features. It does not mean that the elements and / or steps are included in any particular embodiment or necessarily include logic to determine whether they are performed.
  • Disjunctive languages such as the phrase "at least one of X, Y, Z" have items, terms, etc. of X, Y, Z, or any combination thereof, unless otherwise stated. It is understood in the context commonly used to indicate that it can be (eg X, Y, Z). Thus, such a disjunctive language generally requires at least one of X, at least one of Y, or at least one of Z, each of which has a particular embodiment. Does not mean.
  • a numeral such as “one” should generally be interpreted as containing one or more described items.
  • terms such as “one device configured to” are intended to include one or more listed devices.
  • One or more of these enumerated devices can also be collectively configured to perform the described citations.
  • processors configured to run A, B, and C below are a first processor configured to run A and a second processor configured to run B and C.
  • processors with are typically at least the enumerated number (eg, other modifiers).
  • a mere enumeration of "two enumerations” without the use should be construed to mean at least two enumerations, or two or more enumerations).
  • the terms used herein should generally be construed as “non-limiting” terms (eg, the term “including” should be construed as “not only that, but at least including” and “...
  • the term “has” should be interpreted as “having at least”, and the term “including” should be interpreted as “including, but not limited to,”). Those skilled in the art will judge that this is the case.
  • the term “horizontal” as used herein refers to a plane or plane parallel to the floor or surface of the area in which the system being described is used, regardless of its orientation. The method is defined as the plane on which it is carried out.
  • the term “floor” can be replaced with the term “ground” or “water surface”.
  • the term “vertical / vertical” refers to the direction perpendicular / vertical to the defined horizon. Terms such as “upper”, “lower”, “lower”, “upper”, “side”, “higher”, “lower”, “upper”, “beyond”, and “lower” are defined for the horizontal plane. ing.
  • connection means removable, movable, fixed, adjustable, unless otherwise noted. And / or should be construed as including removable connections or connections. Connections / connections include direct connections and / or connections with intermediate structures between the two components described.
  • the numbers preceded by terms such as “approximately,” “about,” and “substantially” as used herein include the enumerated numbers, and further. Represents an amount close to the stated amount that performs the desired function or achieves the desired result. For example, “approximately,” “about,” and “substantially” mean values less than 10% of the stated values, unless otherwise stated.
  • the features of the embodiments in which terms such as “approximately,” “about,” and “substantially” are previously disclosed perform further desired functions. Or represent a feature that has some variability to achieve the desired result for that feature.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)

Abstract

【課題】カメラの設置作業を容易にすると共にカメラに設けるセンサを低減させつつ、カメラの方位又は傾きを特定可能な情報処理システム、方法、及びプログラムを提供する。 【解決手段】方位と傾きのいずれか1つが既知であるカメラ10で空を撮影した画像G1[G4]を取得する画像取得部11と、画像G1[G4]の撮影日時を取得する撮影日時取得部12と、画像G1[G4]の撮影場所の位置情報を取得する撮影位置取得部13と、画像G1[G4]における太陽位置を示す撮影太陽位置S1を特定する太陽特定部14と、撮影日時及び位置情報に基づき定まる太陽の位置を示す基準太陽位置B1を算出する基準太陽位置取得部15と、既知であるカメラ10の方位と傾きのいずれか1つと、撮影太陽位置S1と、基準太陽位置B1と、に基づき、未知であるカメラの傾きと方位のいずれか1つを特定するカメラ情報特定部17と、を有する。

Description

情報処理システム、方法、及びプログラム
 本開示は、雲観測に用いるカメラの方位又は傾きを特定する情報処理システム、方法、及びプログラムに関する。
 従来の雲観測には、主に衛星が使用されている。衛星は、上空から雲を観測するため、地上付近の雲の細やかな分布を得ることができない。そのため、地上の日照量及び日照時間を把握することもできない。
 衛星に代わる手段として、地上に設置した全天カメラなどのカメラを用いることが知られている。カメラは、互いに離間した計測地に設置され、複数のカメラからの画像を用いて同一の雲を観測することが考えられる。
国際特許公開第2010/079557号公報
 このような複数のカメラによる雲観測においては、各々のカメラの方位及び傾きが精度よく一致している必要がある。また、単独のカメラによる雲観測においても、カメラの方位及び傾きが精度よく一致していなければ、得られた画像に映る雲の方位に誤差が含まれることになる。雲の方位に誤差が含まれていれば、風速等の外部データを取り込んで雲の動きに基づく日射量推定を実施する際に、所望の精度を得ることが難しい。
 国際特許公開第2010/079557号公報(特許文献1)には、全天カメラではないが、カメラの向きを検出する装置についての記載がある。しかし、この方法では、偏向カメラが必要となる。
 姿勢センサや方位センサを搭載すれば、カメラの方位及び傾きを取得可能であるが、余分なセンサが必要となる。
 また、カメラ設置時に厳密な方位合わせ及び傾き合わせを実施すれば、精度悪化を防ぐことができるが、カメラの設置作業が煩わしくなる。
 本開示は、このような課題に着目してなされたものであって、その目的は、カメラの設置作業を容易にすると共にカメラに設けるセンサを低減させつつ、カメラの方位又は傾きを特定可能な情報処理システム、方法、及びプログラムを提供することである。
 本開示の情報処理システムは、
 方位と傾きのいずれか1つが既知であるカメラで空を撮影した画像を取得する画像取得部と、
 前記画像の撮影日時を取得する撮影日時取得部と、
 前記画像の撮影場所の位置情報を取得する撮影位置取得部と、
 前記画像における太陽位置を示す撮影太陽位置を特定する太陽特定部と、
 前記撮影日時及び前記位置情報に基づき定まる太陽の位置を示す基準太陽位置を算出する基準太陽位置取得部と、
 既知であるカメラの方位と傾きのいずれか1つと、前記撮影太陽位置と、前記基準太陽位置と、に基づき、未知であるカメラの傾きと方位のいずれか1つを特定するカメラ情報特定部と、
 を備える。
 この構成によれば、カメラの方位と傾きのいずれか1つが既知であれば、撮影日時、撮影場所の位置情報(例えば緯度及び経度)と、画像に写っている太陽位置に基づいて、未知であるカメラの傾きと方位のいずれか1つを特定可能となる。したがって、カメラ設置時に方位合わせ又は傾き合わせが不要となり、更に、姿勢センサや方位センサを設けなくても、カメラの傾き又は方位を特定可能となる。
本開示の第1及び第2実施形態の情報処理システムの構成を示すブロック図 第1実施形態の情報処理システムが実行するフローチャート 第1実施形態において、水平に設置された傾きが既知であるカメラが空を撮影した画像を示す図 仰角と方位角で示す太陽位置に関する説明図 第1実施形態の全天画像における撮影太陽位置と基準太陽位置の比較に関する説明図 傾きが非水平で既知である場合において方位の特定に関する説明図 第1実施形態におけるカメラで撮影された画像の補正に関する説明図 第2実施形態において、方位が既知であるカメラが空を撮影した画像を示す図 第1実施形態の全天画像における撮影太陽位置と基準太陽位置の比較に関する説明図 第2実施形態の情報処理システムが実行するフローチャート
 [第1実施形態]
 以下、本開示の第1実施形態の情報処理システムを、図面を参照して説明する。
 第1実施形態の情報処理システム1は、観測システムに用いられる。観測システムは、空を撮影する1つ以上のカメラ10及びカメラ10が撮影した画像を処理するコンピュータを有する。情報処理システム1は、傾きが既知であるカメラ10で空を撮影した画像を取得し、画像に基づき未知であるカメラの方位をカメラ情報として特定する。情報処理システム1が取得する画像を撮影するカメラ10は、空を撮影することができれば、どのようなカメラであってもよい。本実施形態では、空の広範囲を1つのカメラで撮影するために、魚眼レンズを用いた全天カメラを上向きに設置している。図3の例では、カメラ10を鉛直方向上向きで水平になるように設置しているため、カメラ10から得られる画像G1は、中心P1が真上(仰角90°)となり、中心から画像の端に向かうにつれて仰角が小さくなる。なお、カメラの向き(傾き)は、水平面内において互いに直交するロール軸とピッチ軸に対するロール角及びピッチ角で表現できる。カメラの方位は、鉛直方向と平行であるヨー軸に対するヨー角で表現できる。
 図1に示すように、第1実施形態の情報処理システム1は、画像取得部11と、撮影日時取得部12と、撮影位置取得部13と、太陽特定部14と、基準太陽位置取得部15と、既知カメラ情報取得部16と、カメラ情報特定部17と、を有する。これら各部11~17は、CPUなどのプロセッサ1b、メモリなどのストレージ1a、各種インターフェイス等を備えたコンピュータにおいてプロセッサ1bが予めメモリに記憶されているプログラムを実行することによりソフトウェア及びハードウェアが協働して実現される。
 <画像取得部11>
 図1に示す画像取得部11は、図3に示すように、カメラ10が空を撮影した画像G1を取得する。図3の例では、画像G1の中心P1が真上であり、雲(C1、C2、C3)と太陽(S1)が写っている。図中では、東西南北の方位をE、W、S、Nで表しているが、本来では1枚の画像G1のみでは方位は未知である。なお、カメラ10が撮影する画像の下方が基準方位[例えば南(S)]となるように、カメラ10の向き決めをしつつカメラ10を設置することが好ましい。しかし、カメラ10の設置作業が煩雑であったり、誤差が発生したり、カメラ10を建物の壁面に設ける場合など、カメラ10の方位を調整できなかったりすることが考えられる。
 <撮影日時取得部12および撮影位置取得部13>
 図1に示す撮影日時取得部12は、画像取得部11が取得した画像G1の撮影日時を取得する。撮影位置取得部13は、画像取得部11が取得した画像G1の撮影場所の位置情報(緯度、経度)を取得する。撮影日時取得部12及び撮影位置取得部13は、画像G1に埋め込まれたメタタグデータから撮影日時及び撮影位置を取得してもよいし、カメラ10からのデータに基づき撮影日時及び撮影位置を取得するように構成されていてもよい。また、撮影位置取得部13は、カメラ10からカメラIDを受信し、カメラ10の設置位置を有する既存カメラ情報データベースから、カメラIDに対応する設置位置を撮影位置として取得するように構成されていてもよい。
 <太陽特定部14>
 図1に示す太陽特定部14は、画像G1における太陽位置を示す撮影太陽位置S1を特定する。本実施形態では、太陽が自然界での最強の光源であることから、画像G1における最大輝度値の座標中心を、太陽位置S1であると特定する。このとき、太陽による白とび領域を小さくして太陽位置S1を特定する精度を向上させるために、観測時に用いる観測時露出よりも少ない露出で撮影する。目安としては、撮影した画像G1の全体が暗く、太陽のみが光って写っている露出にすることが精度向上に好ましい。露出を小さくするためには、シャッタースピードを観測時によりも速くするか、絞り値を観測時よりも大きくすることが挙げられる。撮影太陽位置を特定する他の方法としては、画像における輝度が最大となる画素群の中心点から放射状に広がる領域であって、中心点から離れるにつれて輝度が脈動なく漸減し且つ輝度の脈動が開始するまでの領域が太陽であると判定することが挙げられる。勿論、太陽の特定方法は、これに限定されず、種々の方法を採用してもよい。
 <基準太陽位置取得部15>
 図1に示す基準太陽位置取得部15は、撮影日時及び位置情報(緯度経度)に基づき定まる太陽の位置を示す基準太陽位置を算出する。天文学を利用すれば、日時及び位置情報(緯度経度)に基づき、太陽の位置(仰角α及び方位角β)を特定可能であることが知られている。基準太陽位置は、図4に示す方法で表現してもよいし、図5に示す方法で表現してもよい。図4に示す基準太陽位置は、カメラ10が設置された撮影場所を中心として、仰角αと、基準方位(例えば北など)に対する方位角βとで表現される。図5に示す基準太陽位置B1は、カメラ10が水平であり且つカメラ10が所定方位を向いている場合の全天画像G1における太陽の位置である。所定方位は、例えば撮影した画像の下方が南になるような所望の方位である。本実施形態では、図5に示す全天画像G1における基準太陽位置B1での表現を採用している。
 <既知カメラ情報取得部16>
 図1に示す既知カメラ情報取得部16は、カメラ10の既知情報を取得する。本実施形態では、既知であるカメラ10の傾きを取得する。既知カメラ情報取得部16は、図1に示すようにストレージ1aに記憶されている既知カメラ情報から傾きに関するデータを取得してもよいし、カメラ10から傾きに関するデータを取得してもよい。なお、全てのカメラ10の傾きが同一
 <カメラ情報特定部17>
 図1に示すカメラ情報特定部17は、既知であるカメラ10の傾きと、撮影太陽位置S1と、基準太陽位置B1と、に基づき、未知であるカメラ10の方位を特定する。図5に示すように、カメラ情報特定部17は、既知であるカメラ10の傾き(水平)であることを用いて、撮影太陽位置S1と基準太陽位置B1とを比較し、未知であるカメラ10の方位を特定する。具体的には、同図に示すように、カメラ情報特定部17は、既知であるカメラ10の傾きを用いてカメラ10が水平である場合の撮影太陽位置S1を特定し、特定した撮影太陽位置S1と基準太陽位置B1とを比較して、未知であるカメラ10の方位を特定している。図5の例では、カメラ10が元々水平に設置されているので、カメラ10が撮像した画像G1における撮影太陽位置S1をそのまま利用可能である。カメラ10が水平でない場合の例は、下記にて図6の例を用いて説明する。図5では、撮影太陽位置S1と基準太陽位置B1の方位角の差θを特定しており、これにより、カメラ10の方位が所定方位(所望方位)よりも方位角においてθ角度ずれていることを特定している。
 なお、図3~5の例では、撮影太陽位置S1及び基準太陽位置B1は、共に撮影された全天画像G1中の太陽の位置を示しており、画像中において双方の位置を比較しているが、これに限定されない。例えば、(1)画像中の太陽の位置を示す撮影太陽位置S1と、仰角α及び方位角βで示される基準太陽位置とを比較して、カメラ10の方位の所定方位(所望方位)に対する角度誤差θを算出してもよい。また(2)画像中の撮影太陽位置S1から、仰角α及び方位角βで示される撮影太陽位置に変換し、変換後の撮影太陽位置と、仰角α及び方位角βで示される基準太陽位置とを比較して、角度誤差θを算出してもよい。また、(3)仰角α及び方位角βで示される撮影太陽位置と、全天画像G1中の基準太陽位置B1とを比較して、角度誤差θを算出してもよい。
 上記処理は、1つの画像G1を用いてカメラ10の方位(角度誤差θ)を算出しているが、方位(角度誤差θ)の特定精度を向上させるためには、次のように構成することが好ましい。すなわち、画像取得部11は、画像G1を複数取得する。カメラ情報特定部17は、各画像G1における撮影太陽位置S1と基準太陽位置B1の差(角度誤差θ)の平均を用いて、カメラ10の所定方位(所望方位)に対する角度誤差θを算出することが好ましい。また別の方法として、カメラ情報特定部17は、各画像G1における撮影太陽位置S1の軌跡と、各画像G1における基準太陽位置B1の軌跡とを比較して、角度誤差θを算出することが挙げられる。
 ここで、既知であるカメラ10の傾きが水平でない場合の処理について説明する。図6に示すように、撮影位置取得部13は、画像取得部11が取得した画像G1から撮影太陽位置S0を特定する。画像G1を撮影したカメラ10の傾きは水平でなく、ロール角及びピッチ角で特定されている。次に、カメラ情報特定部17は、既知であるカメラ10の傾きを用いてカメラ10が水平である場合の撮影太陽位置S1を特定する。ここでは、太陽特定部14が特定した画像G1における撮影太陽位置S0を、カメラ10が水平である場合の撮影太陽位置S1へ補正する。図6では、撮影太陽位置を補正する(S0からS1へ)だけでなく、撮影された画像G1を、カメラ10が水平状態で撮影された画像G2へ補正しているが、これに限定されず、撮影太陽位置のみの補正でもよい。その後、図5の例で説明した通り、カメラ情報特定部17は、補正後の撮影太陽位置S1と、基準太陽位置B1とを比較して、未知であるカメラ10の方位を特定する。
 <画像補正部18>
 図1に示すように、情報処理システム1に画像補正部18を設けてもよい。画像補正部18は省略可能である。画像補正部18は、カメラ情報特定部17が特定したカメラ情報(方位又は傾き)に基づき、図7に示すように画像取得部11が取得した画像G1を、カメラ10が所定方位(所望方位)であり且つ所定傾きである場合に撮影された画像G3に補正する。図7では、画像G3の下方が南となるように補正しているが、これは一例である。このような画像補正部18を設ければ、互いに離れた複数のカメラ10からの画像を取得して雲等の観測を行う場合に、各カメラからの画像の方位を合致させることができ、観測精度を向上させることが可能となる。
 <誤差情報出力部19>
 図1に示すように、情報処理システム1に誤差情報出力部19を設けてもよい。誤差情報出力部19は、省略可能である。誤差情報出力部19は、カメラ情報特定部17が特定したカメラ情報(方位又は傾き)に基づき、カメラ10の方位又は傾きの誤差情報を出力する。出力方法は、ディスプレイへの表示、スピーカからの音声出力、誤差情報を含むデータの出力、送信が挙げられる。
 [方法]
 上記システム1が実行する、情報処理方法について図2を参照しつつ説明する。
 まず、ステップST100において、画像取得部11は、傾きが既知であるカメラ10で空を撮影した画像G1を取得する。次に、ステップST101において、撮影日時取得部12は、画像G1の撮影日時を取得する。ステップST102において、撮影位置取得部13は、画像G1の撮影場所の位置情報を取得する。ステップST101及びステップ102は、ステップST104の前であれば順不同である。ステップST103において、太陽特定部14は、画像G1における太陽位置を示す撮影太陽位置S1を特定する。ステップST103は、ステップST100の後であれば実行可能となる。ステップST104において、基準太陽位置取得部15は、撮影日時及び位置情報に基づき定まる太陽の位置を示す基準太陽位置B1を算出する。次のステップST105において、カメラ情報特定部17は、既知であるカメラの傾きと、撮影太陽位置S1と、基準太陽位置B1と、に基づき、未知であるカメラ10の方位を特定する。
 [第2実施形態]
 第1実施形態の情報処理システム1は、傾きが既知であるカメラ10が撮影した画像G1に基づき、カメラ10の方位を特定する。これに対して、第2実施形態の情報処理システム1は、方位が既知であるカメラ10が撮影した画像G4に基づき、カメラ10の傾きを特定する。第2実施形態の情報処理システム1を示すブロック図は、図1と同じである。
 図1に示すように、第2実施形態の既知カメラ情報取得部16は、既知であるカメラ10の方位を取得する。カメラ10の方位に関する情報は、第1実施形態と同様に図1に示すように、ストレージ1aに既知カメラ情報として記憶されていてもよいし、カメラ10から方位に関するデータを取得してもよい。
 図1に示す画像取得部11は、方位が既知であるカメラ10が撮影した画像G4を取得する。図7の例では、画像下方が南となる方位となるように設置されたカメラ10から撮影された画像G4を取得している。
 図1に示す基準太陽位置取得部15は、第1実施形態と同様に、撮影日時及び位置情報(緯度経度)に基づき定まる太陽の位置を示す基準太陽位置B1を算出する。図7は、図5と同様に、カメラ10が水平であり且つカメラ10が所定方位を向いている場合の全天画像G1における太陽の位置である基準太陽位置B1を図示している。
 図1に示すカメラ情報特定部17は、既知であるカメラ10の方位と、撮影太陽位置S1と、基準太陽位置B1と、に基づき、未知であるカメラ10の傾きを特定する。図9の例では、カメラ情報特定部17は、既知であるカメラの方位を用いてカメラ10が基準方位(画像下方が南となる方位)を向いている場合の撮影太陽位置S1を特定し、特定した撮影太陽位置S1と基準太陽位置B1とを比較して、未知であるカメラの傾きを特定する。図9において撮影太陽位置S1と基準太陽位置B1との距離及び方向に基づき、未知であるカメラ10の傾き(ロール角及びピッチ角)を算出する。
 その他、第1実施形態で説明した機能及び処理は、カメラ10の既知情報が方位であり、未知情報が傾きであるという相違点以外は、第2実施形態でもそのまま適用できる。
 例えば、画像補正部18は、カメラ情報特定部17が特定したカメラ情報(傾き)に基づき、画像取得部11が取得した画像G4を、カメラ10が所定傾きであり且つ所定方位である場合に撮影された画像に補正する。また、誤差情報出力部19は、カメラ情報特定部17が特定したカメラ情報(傾き)に基づき、所定傾きに対するカメラ10の傾きの誤差情報を出力する。
 第2実施形態の情報処理システム1が実行する、情報処理方法について図10を参照しつつ説明する。
 まず、ステップST200において、画像取得部11は、方位が既知であるカメラ10で空を撮影した画像G4を取得する。次に、ステップST201において、撮影日時取得部12は、画像G4の撮影日時を取得する。ステップST202において、撮影位置取得部13は、画像G4の撮影場所の位置情報を取得する。ステップST201及びステップ202は、ステップST204の前であれば順不同である。ステップST203において、太陽特定部14は、画像G4における太陽位置を示す撮影太陽位置S1を特定する。ステップST203は、ステップST200の後であれば実行可能となる。ステップST204において、基準太陽位置取得部15は、撮影日時及び位置情報に基づき定まる太陽の位置を示す基準太陽位置B1を算出する。次のステップST205において、カメラ情報特定部17は、既知であるカメラの方位と、撮影太陽位置S1と、基準太陽位置B1と、に基づき、未知であるカメラ10の傾きを特定する。
 以上のように、第1実施形態又は第2実施形態の情報処理システム1は、
 方位と傾きのいずれか1つが既知であるカメラ10で空を撮影した画像G1[G4]を取得する画像取得部11と、
 画像G1[G4]の撮影日時を取得する撮影日時取得部12と、
 画像G1[G4]の撮影場所の位置情報を取得する撮影位置取得部13と、
 画像G1[G4]における太陽位置を示す撮影太陽位置S1を特定する太陽特定部14と、
 撮影日時及び位置情報に基づき定まる太陽の位置を示す基準太陽位置B1を算出する基準太陽位置取得部15と、
 既知であるカメラ10の方位と傾きのいずれか1つと、撮影太陽位置S1と、基準太陽位置B1と、に基づき、未知であるカメラの傾きと方位のいずれか1つを特定するカメラ情報特定部17と、
 を備える。
 第1実施形態又は第2実施形態の情報処理方法は、
 方位と傾きのいずれか1つが既知であるカメラ10で空を撮影した画像G1[G4]を取得することと(ST100、ST200)、
 画像G1[G4]の撮影日時を取得することと(ST101、ST201)、
 画像G1[G4]の撮影場所の位置情報を取得すると(ST102、ST202)、
 画像G1[G4]における太陽位置を示す撮影太陽位置S1を特定することと(ST103、ST203)、
 撮影日時及び位置情報に基づき定まる太陽の位置を示す基準太陽位置B1を算出することと(ST104、ST204)、
 カメラ10の既知である方位と傾きのいずれか1つと、撮影太陽位置S1と、基準太陽位置B1と、に基づき、カメラの未知である傾きと方位のいずれか1つを特定することと(ST105、ST205)、
 を含む。
 この構成によれば、カメラ10の方位と傾きのいずれか1つが既知であれば、撮影日時、撮影場所の位置情報(緯度及び経度)と、画像G1[G4]に写っている太陽位置に基づいて、カメラの未知である傾きと方位のいずれか1つを特定可能となる。したがって、カメラ設置時に方位合わせ又は傾き合わせが不要となり、姿勢センサや方位センサを設けなくても、カメラ10の傾き又は方位を特定可能となる。
 第1実施形態のように、カメラ10の傾きが既知であり、カメラ情報特定部17は、カメラ10の既知である傾きを用いて、撮影太陽位置S1と基準太陽位置B1とを比較し、カメラ10の未知である方位を特定することが好ましい。
 この構成によれば、カメラ10の未知である方位を特定可能となる。
 第1実施形態のように、画像G1は、全天カメラ10で撮像した全天画像であり、基準太陽位置B1は、カメラ10が水平であり且つカメラ10が所定方位を向いている場合の全天画像における太陽位置を示し、カメラ情報特定部17は、カメラ10の傾きを用いてカメラ10が水平である場合の撮影太陽位置S1を特定し、特定した撮影太陽位置S1と基準太陽位置B1とを比較して、カメラ10の未知である方位を特定することが好ましい。
 この構成によれば、全天画像には方位角及び仰角の情報が含まれており、カメラが水平であり且つ所定方向を向いている場合の撮影太陽位置と基準太陽位置とを比較するので、画像以外の別の座標系に変換しなくても画像内座標の処理で、カメラの未知である方位を特定可能となる。
 第1実施形態のように、画像取得部11は、画像G1を複数取得し、カメラ情報特定部17は、撮影太陽位置S1と基準太陽位置B1との差の平均を用いて、カメラ10の未知である方位を特定することが好ましい。
 この構成によれば、撮影太陽位置S1と基準太陽位置B1との差の平均を用いるので、ノイズに強くなり、方位を特定する精度を向上させることが可能となる。
 第2実施形態のように、カメラ10の方位が既知であり、カメラ情報特定部17は、カメラ10の方位を用いて、撮影太陽位置S1と基準太陽位置B1とを比較し、カメラ10の未知である傾きを特定することが好ましい。
 この構成によれば、カメラ10の未知である傾きを特定可能となる。
 第2実施形態のように、画像G4は、全天カメラで撮像した全天画像であり、基準太陽位置B1は、カメラ10が水平であり且つカメラ10が所定方位を向いている場合の全天画像における太陽位置を示し、カメラ情報特定部17は、カメラ10の方位を用いてカメラ10が所定方位を向いている場合の撮影太陽位置S1を特定し、特定した撮影太陽位置S1と基準太陽位置B1とを比較して、カメラ10の未知である傾きを特定することが好ましい。
 この構成によれば、全天画像には方位角及び仰角の情報が含まれており、カメラが水平であり且つ所定方向を向いている場合の撮影太陽位置と基準太陽位置とを比較するので、画像以外の別の座標系に変換しなくても画像内座標の処理で、カメラの未知である傾きを特定可能となる。
 第2実施形態のように、画像取得部11は、画像G4を複数取得し、カメラ情報特定部17は、撮影太陽位置S1と基準太陽位置B1との差の平均を用いて、カメラの未知である傾きを特定することが好ましい。
 この構成によれば、撮影太陽位置S1と基準太陽位置B1との差の平均を用いるので、ノイズに強くなり、傾きを特定する精度を向上させることが可能となる。
 本実施形態に係るプログラムは、上記方法をコンピュータに実行させるプログラムである。また、本実施形態に係るコンピュータに読み取り可能な一時記録媒体は、上記プログラムを記憶している。
 以上、本開示の実施形態について図面に基づいて説明したが、具体的な構成は、これらの実施形態に限定されるものでないと考えられるべきである。本開示の範囲は、上記した実施形態の説明だけではなく特許請求の範囲によって示され、さらに特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれる。
 例えば、特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現できる。特許請求の範囲、明細書、および図面中のフローに関して、便宜上「まず」、「次に」等を用いて説明したとしても、この順で実行することが必須であることを意味するものではない。
 図1に示す各部12~17は、所定プログラムを1又はプロセッサで実行することで実現しているが、各部を専用メモリや専用回路で構成してもよい。
 上記実施形態のシステム1は、一つのコンピュータのプロセッサ1bに各部11~19が実装されているが、各部11~19を分散させて、複数のコンピュータやクラウドで実装してもよい。すなわち、上記方法を1又は複数のプロセッサで実行してもよい。
 上記の各実施形態で採用している構造を他の任意の実施形態に採用することは可能である。図1では、説明の便宜上、各部11~19を実装しているが、これらの一部を任意に省略することが可能である。例えば、各部11~17を実装する実施形態が挙げられる。
 各部の具体的な構成は、上述した実施形態のみに限定されるものではなく、本開示の趣旨を逸脱しない範囲で種々変形が可能である。
 1  情報処理システム
 11 画像取得部
 12 撮影日時取得部
 13 撮影位置取得部
 14 太陽特定部
 15 基準太陽位置取得部
 17 カメラ情報特定部
 18 画像補正部
 19 誤差情報出力部
用語
 必ずしも全ての目的または効果・利点が、本明細書中に記載される任意の特定の実施形態に則って達成され得るわけではない。従って、例えば当業者であれば、特定の実施形態は、本明細書中で教示または示唆されるような他の目的または効果・利点を必ずしも達成することなく、本明細書中で教示されるような1つまたは複数の効果・利点を達成または最適化するように動作するように構成され得ることを想到するであろう。
 本明細書中に記載される全ての処理は、1つまたは複数のコンピュータまたはプロセッサを含むコンピューティングシステムによって実行されるソフトウェアコードモジュールにより具現化され、完全に自動化され得る。コードモジュールは、任意のタイプの非一時的なコンピュータ可読媒体または他のコンピュータ記憶装置に記憶することができる。一部または全ての方法は、専用のコンピュータハードウェアで具現化され得る。
 本明細書中に記載されるもの以外でも、多くの他の変形例があることは、本開示から明らかである。例えば、実施形態に応じて、本明細書中に記載されるアルゴリズムのいずれかの特定の動作、イベント、または機能は、異なるシーケンスで実行することができ、追加、併合、または完全に除外することができる (例えば、記述された全ての行為または事象がアルゴリズムの実行に必要というわけではない)。さらに、特定の実施形態では、動作またはイベントは、例えば、マルチスレッド処理、割り込み処理、または複数のプロセッサまたはプロセッサコアを介して、または他の並列アーキテクチャ上で、逐次ではなく、並列に実行することができる。さらに、異なるタスクまたはプロセスは、一緒に機能し得る異なるマシンおよび/またはコンピューティングシステムによっても実行され得る。
 本明細書中に開示された実施形態に関連して説明された様々な例示的論理ブロックおよびモジュールは、プロセッサなどのマシンによって実施または実行することができる。プロセッサは、マイクロプロセッサであってもよいが、代替的に、プロセッサは、コントローラ、マイクロコントローラ、またはステートマシン、またはそれらの組み合わせなどであってもよい。プロセッサは、コンピュータ実行可能命令を処理するように構成された電気回路を含むことができる。別の実施形態では、プロセッサは、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、またはコンピュータ実行可能命令を処理することなく論理演算を実行する他のプログラマブルデバイスを含む。プロセッサはまた、コンピューティングデバイスの組み合わせ、例えば、デジタル信号プロセッサ(デジタル信号処理装置)とマイクロプロセッサの組み合わせ、複数のマイクロプロセッサ、DSPコアと組み合わせた1つ以上のマイクロプロセッサ、または任意の他のそのような構成として実装することができる。本明細書中では、主にデジタル技術に関して説明するが、プロセッサは、主にアナログ素子を含むこともできる。例えば、本明細書中に記載される信号処理アルゴリズムの一部または全部は、アナログ回路またはアナログとデジタルの混合回路により実装することができる。コンピューティング環境は、マイクロプロセッサ、メインフレームコンピュータ、デジタル信号プロセッサ、ポータブルコンピューティングデバイス、デバイスコントローラ、または装置内の計算エンジンに基づくコンピュータシステムを含むが、これらに限定されない任意のタイプのコンピュータシステムを含むことができる。
 特に明記しない限り、「できる」「できた」「だろう」または「可能性がある」などの条件付き言語は、特定の実施形態が特定の特徴、要素および/またはステップを含むが、他の実施形態は含まないことを伝達するために一般に使用される文脈内での意味で理解される。従って、このような条件付き言語は、一般に、特徴、要素および/またはステップが1つ以上の実施形態に必要とされる任意の方法であること、または1つ以上の実施形態が、これらの特徴、要素および/またはステップが任意の特定の実施形態に含まれるか、または実行されるかどうかを決定するための論理を必然的に含むことを意味するという訳ではない。
 語句「X、Y、Zの少なくとも1つ」のような選言的言語は、特に別段の記載がない限り、項目、用語等が X, Y, Z、のいずれか、又はそれらの任意の組み合わせであり得ることを示すために一般的に使用されている文脈で理解される(例: X、Y、Z)。従って、このような選言的言語は、一般的には、特定の実施形態がそれぞれ存在するXの少なくとも1つ、Yの少なくとも1つ、またはZの少なくとも1つ、の各々を必要とすることを意味するものではない。
 本明細書中に記載されかつ/または添付の図面に示されたフロー図における任意のプロセス記述、要素またはブロックは、プロセスにおける特定の論理機能または要素を実装するための1つ以上の実行可能命令を含む、潜在的にモジュール、セグメント、またはコードの一部を表すものとして理解されるべきである。代替の実施形態は、本明細書中に記載された実施形態の範囲内に含まれ、ここでは、要素または機能は、当業者に理解されるように、関連する機能性に応じて、実質的に同時にまたは逆の順序で、図示または説明されたものから削除、順不同で実行され得る。
 特に明示されていない限り、「一つ」のような数詞は、一般的に、1つ以上の記述された項目を含むと解釈されるべきである。従って、「~するように設定された一つのデバイス」などの語句は、1つ以上の列挙されたデバイスを含むことを意図している。このような1つまたは複数の列挙されたデバイスは、記載された引用を実行するように集合的に構成することもできる。例えば、「以下のA、BおよびCを実行するように構成されたプロセッサ」は、Aを実行するように構成された第1のプロセッサと、BおよびCを実行するように構成された第2のプロセッサとを含むことができる。加えて、導入された実施例の具体的な数の列挙が明示的に列挙されたとしても、当業者は、このような列挙が典型的には少なくとも列挙された数(例えば、他の修飾語を用いない「2つの列挙と」の単なる列挙は、通常、少なくとも2つの列挙、または2つ以上の列挙を意味する)を意味すると解釈されるべきである。
 一般に、本明細書中で使用される用語は、一般に、「非限定」用語(例えば、「~を含む」という用語は「それだけでなく、少なくとも~を含む」と解釈すべきであり、「~を持つ」という用語は「少なくとも~を持っている」と解釈すべきであり、「含む」という用語は「以下を含むが、これらに限定されない。」などと解釈すべきである。) を意図していると、当業者には判断される。
 説明の目的のために、本明細書中で使用される「水平」という用語は、その方向に関係なく、説明されるシステムが使用される領域の床の平面または表面に平行な平面、または説明される方法が実施される平面として定義される。「床」という用語は、「地面」または「水面」という用語と置き換えることができる。「垂直/鉛直」という用語は、定義された水平線に垂直/鉛直な方向を指します。「上側」「下側」「下」「上」「側面」「より高く」「より低く」「上の方に」「~を越えて」「下の」などの用語は水平面に対して定義されている。
 本明細書中で使用される用語の「付着する」、「接続する」、「対になる」及び他の関連用語は、別段の注記がない限り、取り外し可能、移動可能、固定、調節可能、及び/または、取り外し可能な接続または連結を含むと解釈されるべきである。接続/連結は、直接接続及び/または説明した2つの構成要素間の中間構造を有する接続を含む。
 特に明示されていない限り、本明細書中で使用される、「およそ」、「約」、および「実質的に」のような用語が先行する数は、列挙された数を含み、また、さらに所望の機能を実行するか、または所望の結果を達成する、記載された量に近い量を表す。例えば、「およそ」、「約」及び「実質的に」とは、特に明示されていない限り、記載された数値の10%未満の値をいう。本明細書中で使用されているように、「およそ」、「約」、および「実質的に」などの用語が先行して開示されている実施形態の特徴は、さらに所望の機能を実行するか、またはその特徴について所望の結果を達成するいくつかの可変性を有する特徴を表す。
 上述した実施形態には、多くの変形例および修正例を加えることができ、それらの要素は、他の許容可能な例の中にあるものとして理解されるべきである。そのような全ての修正および変形は、本開示の範囲内に含まれることを意図し、以下の請求の範囲によって保護される。

Claims (19)

  1.  方位と傾きのいずれか1つが既知であるカメラで空を撮影した画像を取得する画像取得部と、
     前記画像の撮影日時を取得する撮影日時取得部と、
     前記画像の撮影場所の位置情報を取得する撮影位置取得部と、
     前記画像における太陽位置を示す撮影太陽位置を特定する太陽特定部と、
     前記撮影日時及び前記位置情報に基づき定まる太陽の位置を示す基準太陽位置を算出する基準太陽位置取得部と、
     前記カメラの既知である方位と傾きのいずれか1つと、前記撮影太陽位置と、前記基準太陽位置と、に基づき、前記カメラの未知である傾きと方位のいずれか1つを特定するカメラ情報特定部と、
     を備える、情報処理システム。
  2.  請求項1に記載のシステムであって、
     前記カメラの傾きが既知であり、
     前記カメラ情報特定部は、前記カメラの傾きを用いて、前記撮影太陽位置と前記基準太陽位置とを比較し、前記カメラの未知である方位を特定する、情報処理システム。
  3.  請求項2に記載のシステムであって、
     前記画像は、全天カメラで撮像した全天画像であり、
     前記基準太陽位置は、前記カメラが水平であり且つ前記カメラが所定方位を向いている場合の全天画像における太陽位置を示し、
     前記カメラ情報特定部は、前記カメラの傾きを用いて前記カメラが水平である場合の前記撮影太陽位置を特定し、特定した前記撮影太陽位置と前記基準太陽位置とを比較して、前記カメラの未知である方位を特定する、情報処理システム。
  4.  請求項2又は請求項3に記載のシステムであって、
     前記画像取得部は、前記画像を複数取得し、
     前記カメラ情報特定部は、前記撮影太陽位置と前記基準太陽位置との差の平均を用いて、前記カメラの未知である方位を特定する、情報処理システム。
  5.  請求項1に記載のシステムであって、
     前記カメラの方位が既知であり、
     前記カメラ情報特定部は、前記カメラの方位を用いて、前記撮影太陽位置と前記基準太陽位置とを比較し、前記カメラの未知である傾きを特定する、情報処理システム。
  6.  請求項5に記載のシステムであって、
     前記画像は、全天カメラで撮像した全天画像であり、
     前記基準太陽位置は、前記カメラが水平であり且つ前記カメラが所定方位を向いている場合の全天画像における太陽位置を示し、
     前記カメラ情報特定部は、前記カメラの方位を用いて前記カメラが前記所定方位を向いている場合の前記撮影太陽位置を特定し、特定した撮影太陽位置と前記基準太陽位置とを比較して、前記カメラの未知である傾きを特定する、情報処理システム。
  7.  請求項5又は請求項6に記載のシステムであって、
     前記画像取得部は、前記画像を複数取得し、
     前記カメラ情報特定部は、前記撮影太陽位置と前記基準太陽位置との差の平均を用いて、前記カメラの未知である傾きを特定する、情報処理システム。
  8.  請求項1乃至7のいずれか一項に記載のシステムであって、
     前記カメラ情報特定部が特定した前記カメラの方位又は傾きに基づき、前記画像取得部が取得した画像を、前記カメラが所定方位であり且つ所定傾きである場合に撮影される画像に補正する画像補正部を備える、情報処理システム。
  9.  請求項1乃至8のいずれか一項に記載のシステムであって、
     前記カメラ情報特定部が特定した前記カメラの方位又は傾きに基づき、前記カメラの方位又は傾きの誤差情報を出力する誤差情報出力部を備える、情報処理システム。
  10.  方位と傾きのいずれか1つが既知であるカメラで空を撮影した画像を取得することと、
     前記画像の撮影日時を取得することと、
     前記画像の撮影場所の位置情報を取得することと、
     前記画像における太陽位置を示す撮影太陽位置を特定することと、
     前記撮影日時及び前記位置情報に基づき定まる太陽の位置を示す基準太陽位置を算出することと、
     前記カメラの既知である方位と傾きのいずれか1つと、前記撮影太陽位置と、前記基準太陽位置と、に基づき、前記カメラの未知である傾きと方位のいずれか1つを特定することと、
     を含む、情報処理方法。
  11.  請求項10に記載の方法であって、
     前記カメラの傾きが既知であり、
     前記カメラの傾きを用いて、前記撮影太陽位置と前記基準太陽位置とを比較し、前記カメラの未知である方位を特定する、情報処理方法。
  12.  請求項11に記載の方法であって、
     前記画像は、全天カメラで撮像した全天画像であり、
     前記基準太陽位置は、前記カメラが水平であり且つ前記カメラが所定方位を向いている場合の全天画像における太陽位置を示し、
     前記カメラの傾きを用いて前記カメラが水平である場合の前記撮影太陽位置を特定し、特定した前記撮影太陽位置と前記基準太陽位置とを比較して、前記カメラの未知である方位を特定する、情報処理方法。
  13.  請求項11又は12に記載の方法であって、
     前記画像を複数取得し、
     前記撮影太陽位置と前記基準太陽位置との差の平均を用いて、前記カメラの未知である方位を特定する、情報処理方法。
  14.  請求項10に記載の方法であって、
     前記カメラの方位が既知であり、
     前記カメラの方位を用いて、前記撮影太陽位置と前記基準太陽位置とを比較し、前記カメラの未知である傾きを特定する、情報処理方法。
  15.  請求項14に記載の方法であって、
     前記画像は、全天カメラで撮像した全天画像であり、
     前記基準太陽位置は、前記カメラが水平であり且つ前記カメラが所定方位を向いている場合の全天画像における太陽位置を示し、
     前記カメラの方位を用いて前記カメラが前記所定方位を向いている場合の前記撮影太陽位置を特定し、特定した撮影太陽位置と前記基準太陽位置とを比較して、前記カメラの未知である傾きを特定する、情報処理方法。
  16.  請求項14又は請求項15に記載の方法であって、
     前記画像を複数取得し、
     前記撮影太陽位置と前記基準太陽位置との差の平均を用いて、前記カメラの未知である傾きを特定する、情報処理方法。
  17.  請求項10乃至16のいずれか一項に記載の方法であって、
     前記特定された前記カメラの方位又は傾きに基づき、前記取得した画像を、前記カメラが所定方位であり且つ所定傾きである場合に撮影される画像に補正することを更に含む、情報処理方法。
  18.  請求項10乃至17のいずれか一項に記載の方法であって、
     前記特定された前記カメラの方位又は傾きに基づき、前記カメラの方位又は傾きの誤差情報を出力することを更に含む、情報処理方法。
  19.  請求項10乃至請求項18のいずれか一項に記載の方法を1又は複数のプロセッサに実行させるプログラム。
PCT/JP2020/017360 2019-05-29 2020-04-22 情報処理システム、方法、及びプログラム WO2020241130A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN202080039795.0A CN113939710A (zh) 2019-05-29 2020-04-22 信息处理系统、方法及程序
JP2021522713A JP7419364B2 (ja) 2019-05-29 2020-04-22 情報処理システム、方法、及びプログラム
EP20814580.5A EP3978869A4 (en) 2019-05-29 2020-04-22 INFORMATION HANDLING SYSTEM, METHOD AND PROGRAM
US17/456,555 US12100179B2 (en) 2019-05-29 2021-11-24 Information processing system, method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-100413 2019-05-29
JP2019100413 2019-05-29

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/456,555 Continuation US12100179B2 (en) 2019-05-29 2021-11-24 Information processing system, method, and program

Publications (1)

Publication Number Publication Date
WO2020241130A1 true WO2020241130A1 (ja) 2020-12-03

Family

ID=73554009

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/017360 WO2020241130A1 (ja) 2019-05-29 2020-04-22 情報処理システム、方法、及びプログラム

Country Status (5)

Country Link
US (1) US12100179B2 (ja)
EP (1) EP3978869A4 (ja)
JP (1) JP7419364B2 (ja)
CN (1) CN113939710A (ja)
WO (1) WO2020241130A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020179326A1 (ja) * 2019-03-06 2020-09-10 古野電気株式会社 雲観測装置、雲観測方法、及びプログラム
US11962880B2 (en) * 2021-10-29 2024-04-16 Comcast Cable Communications, Llc Systems and methods for enhanced performance of camera devices

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09318383A (ja) * 1996-05-28 1997-12-12 Fujitsu Ltd 光源運動検出装置
JP2003329780A (ja) * 2002-05-14 2003-11-19 Communication Research Laboratory 夜間雲量測定方法および夜間雲量測定装置
WO2010079557A1 (ja) 2009-01-06 2010-07-15 パナソニック株式会社 撮像装置向き検出装置および当該装置を備える移動体
US20140022539A1 (en) * 2012-07-23 2014-01-23 Trimble Navigation Limited Use of a sky polarization sensor for absolute orientation determination in position determining systems

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3793839B2 (ja) * 1998-03-16 2006-07-05 東芝ライテック株式会社 日照センサ
US7554578B2 (en) * 2000-07-11 2009-06-30 Phase One A/S Digital camera with integrated accelerometers
JP2004117478A (ja) * 2002-09-24 2004-04-15 Fuji Photo Film Co Ltd カメラ
US7130449B2 (en) * 2002-12-23 2006-10-31 The Boeing Company Method and system for ground imaging
US7079944B2 (en) * 2003-08-18 2006-07-18 Textron Systems Corporation System and method for determining orientation based on solar positioning
JP2005331320A (ja) * 2004-05-19 2005-12-02 Toudai Tlo Ltd 天空率および日照時間算出システム、および、算出プログラム
JP5283214B2 (ja) * 2008-05-23 2013-09-04 国立大学法人宮城教育大学 定点観測装置、及び定点観測方法
JP5738657B2 (ja) * 2011-04-08 2015-06-24 オリンパス株式会社 撮像装置
KR101313282B1 (ko) * 2012-06-28 2013-09-30 국민대학교산학협력단 하이브리드 방식의 태양위치 추적 시스템 및 그 방법
WO2015108591A2 (en) * 2013-10-22 2015-07-23 Polaris Sensor Technologies Inc. Sky polarization and sun sensor system and method
CN103776427B (zh) * 2014-01-21 2015-11-04 北京空间机电研究所 一种应用于立体测绘相机的参数设置和调整方法
CN105872362B (zh) * 2014-07-15 2020-05-22 中兴通讯股份有限公司 一种待调整角度的确定方法及电子设备
US10032087B2 (en) * 2014-08-18 2018-07-24 Google Llc Determining compass orientation of imagery
US9800778B2 (en) * 2015-07-21 2017-10-24 Qualcomm Incorporated Camera orientation notification system
US10036634B2 (en) * 2015-10-07 2018-07-31 The Boeing Company X-ray vision aircraft landscape camera
CN106441310B (zh) * 2016-11-30 2019-06-04 北京航空航天大学 一种基于cmos的太阳方位角计算方法
CN108476288B (zh) * 2017-05-24 2021-05-07 深圳市大疆创新科技有限公司 拍摄控制方法及装置
EP3812800A4 (en) * 2018-06-19 2022-04-06 Furuno Electric Co., Ltd. CLOUD OBSERVATION DEVICE, CLOUD OBSERVATION SYSTEM, CLOUD OBSERVATION METHOD AND PROGRAM
US10904454B2 (en) * 2019-06-12 2021-01-26 Motorola Mobility Llc Automated polarizer positioning
CN115655249A (zh) * 2022-10-21 2023-01-31 维沃移动通信有限公司 指南针校准方法及装置、电子设备和可读存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09318383A (ja) * 1996-05-28 1997-12-12 Fujitsu Ltd 光源運動検出装置
JP2003329780A (ja) * 2002-05-14 2003-11-19 Communication Research Laboratory 夜間雲量測定方法および夜間雲量測定装置
WO2010079557A1 (ja) 2009-01-06 2010-07-15 パナソニック株式会社 撮像装置向き検出装置および当該装置を備える移動体
US20140022539A1 (en) * 2012-07-23 2014-01-23 Trimble Navigation Limited Use of a sky polarization sensor for absolute orientation determination in position determining systems

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MIYAZAKI, DAISUKE ET AL.: "Estimating Sunlight Polarization Using a Fish-eye Lens", IPSJ TRANSACTIONS ON COMPUTER VISION AND APPLICATIONS, vol. 1, 14 December 2009 (2009-12-14), pages 288 - 300, XP055763789, DOI: 10.2197/ipsjtcva.1.288 *
See also references of EP3978869A4

Also Published As

Publication number Publication date
US20220084242A1 (en) 2022-03-17
CN113939710A (zh) 2022-01-14
EP3978869A4 (en) 2023-08-23
JPWO2020241130A1 (ja) 2020-12-03
EP3978869A1 (en) 2022-04-06
US12100179B2 (en) 2024-09-24
JP7419364B2 (ja) 2024-01-22

Similar Documents

Publication Publication Date Title
WO2020241130A1 (ja) 情報処理システム、方法、及びプログラム
US8223214B2 (en) Camera system with masking processor
US10003740B2 (en) Increasing spatial resolution of panoramic video captured by a camera array
US9892488B1 (en) Multi-camera frame stitching
US7038712B1 (en) Geometric and photometric calibration of cameras
CN112288634A (zh) 一种多无人机航拍图像的拼接方法及装置
WO2022042350A1 (zh) 一种获取天区目标图像的方法和天文摄影设备
US20210398312A1 (en) Cloud observation device, cloud observation method, and program
JP5857269B2 (ja) 画像生成装置、画像生成方法及びプログラム
JP6797607B2 (ja) 画像処理装置、画像処理方法および画像処理用プログラム
CN111275609A (zh) 一种pt坐标与gps坐标的转换方法、装置及球机
JP2009088726A (ja) 複眼撮像装置のキャリブレーション方法および装置ならびにこれに用いられるキャリブレーションチャート
US20220256086A1 (en) Imaging support device, imaging support system, imaging system, imaging support method, and program
CN102752504A (zh) 一种宽视场线阵ccd相机的相对辐射校正方法
JP2010217984A (ja) 像検出装置及び像検出方法
JP2010258897A (ja) 判定プログラムおよびキャリブレーション装置
JP2016223934A (ja) 位置補正システム、位置補正方法、および位置補正プログラム
US12101555B2 (en) Imaging support device, imaging apparatus, imaging system, imaging support method, and program
JP6593753B2 (ja) 照度取得装置、照明制御システムおよびプログラム
WO2022034764A1 (ja) 雲観測システム、雲観測方法、及びプログラム
JP4561972B2 (ja) 圃(ほ)場被害エリア面積簡易測定方法
US12028619B2 (en) Image processing device and image processing method
JP2005331320A (ja) 天空率および日照時間算出システム、および、算出プログラム
CN113888642A (zh) 一种环视系统外参数在线修正方法、系统、设备及介质
US20240155223A1 (en) Imaging control device, imaging system, imaging control method, and imaging control program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20814580

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021522713

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020814580

Country of ref document: EP

Effective date: 20220103