WO2019116546A1 - 撮影制御装置、及び、撮影制御方法 - Google Patents

撮影制御装置、及び、撮影制御方法 Download PDF

Info

Publication number
WO2019116546A1
WO2019116546A1 PCT/JP2017/045137 JP2017045137W WO2019116546A1 WO 2019116546 A1 WO2019116546 A1 WO 2019116546A1 JP 2017045137 W JP2017045137 W JP 2017045137W WO 2019116546 A1 WO2019116546 A1 WO 2019116546A1
Authority
WO
WIPO (PCT)
Prior art keywords
camera parameter
camera
unit
time
shooting
Prior art date
Application number
PCT/JP2017/045137
Other languages
English (en)
French (fr)
Inventor
麻菜 細川
仁深 尾野
貴雄 遠藤
俊行 安藤
隆 高根澤
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2018518673A priority Critical patent/JP6486561B1/ja
Priority to PCT/JP2017/045137 priority patent/WO2019116546A1/ja
Publication of WO2019116546A1 publication Critical patent/WO2019116546A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • G03B7/08Control effected solely on the basis of the response, to the intensity of the light received by the camera, of a built-in light-sensitive device
    • G03B7/091Digital circuits
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • G03B7/08Control effected solely on the basis of the response, to the intensity of the light received by the camera, of a built-in light-sensitive device
    • G03B7/091Digital circuits
    • G03B7/093Digital circuits for control of exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene

Definitions

  • the present invention relates to a photographing control device for controlling photographing by a camera.
  • Patent Document 1 describes an imaging apparatus including a control unit that performs control based on the current position recognized by the current position recognition unit and the position information of a disaster point. As described above, in the imaging device of Patent Document 1, imaging control based on position is performed.
  • the present invention has been made to solve the problems as described above, and it is an object of the present invention to obtain a photographing control device capable of setting camera parameters in consideration of the brightness of the sky by the sun and the moon. .
  • the imaging control apparatus includes an acquisition unit that acquires imaging position information indicating a position of a camera that captures a cloud image, and imaging date information that indicates a capturing date on which the camera performs imaging, imaging position information, and a capturing date.
  • the first calculator calculates the sunrise time and sunset time on the shooting date at the position using information
  • the second calculation unit calculates the age on the shooting date using the shooting date information
  • the first camera parameter in the nighttime zone according to the age of the moon, the second camera parameter in the daytime zone, and the camera parameter in the sunrise zone including the calculated sunrise time, the first camera parameter and the second camera parameter A third camera parameter set to a value between ⁇ and a camera parameter in the day zone including the calculated sunset time, between the first camera parameter and the second camera parameter
  • a determination unit configured to determine a time function of the camera parameter on the shooting date, which is configured from the set fourth camera parameter, and a time to shoot the camera parameter of the camera on the shooting date using the determined time function
  • a controller configured to set the camera according to the determination.
  • the sunrise function, sunset time and age of the shooting date at the position of the camera are used to determine the time function of the camera parameter at the shooting date, and the camera parameter is set to the camera using the time function. Therefore, it is possible to set camera parameters in consideration of the brightness of the sky by the sun and the moon.
  • FIG. 2 is a diagram showing a functional configuration of a cloud distribution acquisition device incorporating a photographing control device according to the first embodiment.
  • FIG. 2A and FIG. 2B are diagrams showing an example of the hardware configuration of the cloud distribution acquisition device. It is a flowchart which shows an example of the process by a cloud distribution acquisition apparatus. It is a flowchart which shows the calculation procedure of sunrise time and sunset time. It is a flowchart which shows the calculation procedure of age.
  • 6A is a diagram showing an example of a time function of F value
  • FIG. 6B is a diagram showing an example of a time function of ISO sensitivity
  • FIG. 6C is a diagram showing an example of a time function of exposure time. It is a figure which shows an example of the time function of F value in the vicinity of sunset time. It is a flowchart which shows the modification of the process by a cloud distribution acquisition apparatus.
  • FIG. 1 shows a functional configuration of a cloud distribution acquisition device 100 incorporating the imaging control device 200 according to the first embodiment.
  • the cloud distribution acquisition apparatus 100 is for obtaining a cloud distribution.
  • the cloud distribution acquisition apparatus 100 includes a position and time recognition unit 101, an imaging unit 102, an image processing unit 103, a determination unit 104, an encoding unit 105, a communication unit 106, a storage unit 107, and an imaging control apparatus. And 200.
  • the cloud distribution acquisition device 100 is installed at an arbitrary place to observe the sky from the ground.
  • the position and time recognition unit 101 recognizes the current position and current time of the cloud distribution acquisition device 100, and outputs position information indicating the recognized current position and time information indicating the recognized current time to the imaging control device 200.
  • the position information is, for example, information consisting of latitude, longitude and altitude.
  • the time information is, for example, information consisting of the year, month, day, hour, minute and second.
  • the position and time recognition unit 101 includes, for example, a reception unit for receiving information from a GPS satellite and a photographing control device 200 provided in a GPS (Global Positioning System) transceiver 1 as shown in FIG. 2A and FIG. 2B described later. Is a transmission unit that transmits information.
  • GPS Global Positioning System
  • the imaging unit 102 takes an omnidirectional sky as an imaging range, and is controlled by the imaging control apparatus 200 to capture a cloud image.
  • the imaging unit 102 includes, for example, a camera 6 and a wide-angle lens 7 such as a fisheye lens, as shown in FIGS. 2A and 2B described later.
  • the camera 6 has a physical stop for adjusting the amount of light entering from the lens 7, and is configured to be able to change the F value. Further, the camera 6 is configured to be able to change the operation of the shutter of the camera 6 and the gain of the amplifier of the camera 6. Data of a cloud image captured by the camera 6 that is the capturing unit 102 is output to the image processing unit 103.
  • the image processing unit 103 uses the data of the cloud image output by the imaging unit 102 to determine the cloud region in the image.
  • the image processing unit 103 outputs the determination result to the determination unit 104. Also, the image processing unit 103 outputs the data of the cloud image output by the imaging unit 102 to the storage unit 107.
  • the determination unit 104 determines, using the determination result output from the image processing unit 103, whether the cloud amount is large or small for the cloud image captured by the imaging unit 102.
  • the determination unit 104 outputs the determination result to the encoding unit 105.
  • Encoding section 105 encodes the determination result output from determination section 104, and outputs the encoded information to communication section 106.
  • the communication unit 106 outputs the encoded information output from the encoding unit 105 to the outside of the cloud distribution acquisition apparatus 100.
  • the storage unit 107 stores the data of the cloud image output by the image processing unit 103.
  • the imaging control apparatus 200 includes an acquisition unit 201, a first calculation unit 202, a second calculation unit 203, a determination unit 204, and a control unit 205.
  • the acquisition unit 201 acquires position information and time information from the position and time recognition unit 101.
  • the acquisition unit 201 acquires the position information as imaging position information indicating the position of the camera 6 that captures a cloud image, which is the imaging unit 102, and outputs the imaging information to the first calculation unit 202.
  • the acquisition unit 201 outputs the time information acquired from the position and time recognition unit 101 to the first calculation unit 202, the second calculation unit 203, and the control unit 205.
  • the acquisition unit 201 functions as a unit that acquires and outputs shooting date information indicating a shooting date on which the camera 6 as the shooting unit 102 shoots, for the first calculation unit 202 and the second calculation unit 203.
  • the first calculation unit 202 uses the photographing position information and the photographing date information output by the acquiring unit 201, and sets the sunrise time and the sunset time at the photographing date indicated by the photographing date information at the position indicated by the photographing position information. calculate. Details of the calculation will be described later.
  • the first calculation unit 202 outputs the calculated sunrise time and sunset time to the determination unit 204.
  • the second calculator 203 calculates the age of the shooting date indicated by the shooting date information, using the shooting date information output by the acquisition unit 201. Details of the calculation will be described later.
  • the second calculation unit 203 outputs the calculated age to the determination unit 204.
  • the determination unit 204 uses the sunrise time and sunset time output by the first calculation unit 202 and the age of the month output by the second calculation unit 203 to determine the time function of the camera parameter on the shooting date. Details of the time function of the camera parameters will be described later.
  • the determination unit 204 outputs the time function of the determined camera parameter to the control unit 205.
  • the camera parameter affects the state of an image captured by the camera 6 which is the imaging unit 102, and is, for example, an F value, an ISO sensitivity, or an exposure time.
  • the control unit 205 uses the time function of the camera parameters output from the determination unit 204 to determine the camera parameters of the camera 6 that is the imaging unit 102 at the imaging date according to the imaging time of the day of the imaging. The time indicated by the time information output by the acquisition unit 201 can be used as the time of shooting. Then, the control unit 205 sets the determined camera parameter to the camera 6 which is the imaging unit 102. Specifically, the control unit 205 outputs, to the camera 6 serving as the imaging unit 102, a control signal for performing imaging with the determined camera parameter.
  • the position and time recognition unit 101 of the cloud distribution acquisition device 100 is realized by, for example, the GPS transceiver 1.
  • the imaging unit 102 of the cloud distribution acquisition device 100 is realized by, for example, the camera 6 and the wide-angle lens 7.
  • the communication unit 106 of the cloud distribution acquisition device 100 is realized by, for example, the communication device 8 having a wireless local area network (LAN) function.
  • LAN wireless local area network
  • each function of the acquisition unit 201, the first calculation unit 202, the second calculation unit 203, the determination unit 204, the control unit 205, the image processing unit 103, the determination unit 104, and the encoding unit 105 of the cloud distribution acquisition apparatus 100 is It is realized by the processing circuit.
  • the processing circuit may be dedicated hardware or a CPU (Central Processing Unit) that executes a program stored in the memory.
  • the CPU is also called a central processing unit, a processing unit, a computing unit, a microprocessor, a microcomputer, a processor or a DSP (Digital Signal Processor).
  • FIG. 2A shows functions of the acquiring unit 201, the first calculating unit 202, the second calculating unit 203, the determining unit 204, the control unit 205, the image processing unit 103, the determining unit 104, and the encoding unit 105 as processing units. It is a figure which shows the example of a hardware configuration at the time of implement
  • the processing circuit 3 may be, for example, a single circuit, a complex circuit, a programmed processor, a parallel programmed processor, an application specific integrated circuit (ASIC), a field programmable gate array (FPGA), or a combination thereof. Do.
  • the processing circuit 3 is combined with the functions of the acquisition unit 201, the first calculation unit 202, the second calculation unit 203, the determination unit 204, the control unit 205, the image processing unit 103, the determination unit 104, and the encoding unit 105. It may be realized or the function of each part may be realized by one processing circuit 3.
  • FIG. 2B shows the functions of the acquisition unit 201, the first calculation unit 202, the second calculation unit 203, the determination unit 204, the control unit 205, the image processing unit 103, the determination unit 104, and the encoding unit 105 in the memory 4. It is a figure which shows the hardware structural example at the time of implement
  • the memory 4 and the CPU 5 are provided in the processing device 2, and the processing device 2 in this case is, for example, a computer.
  • the functions of the acquisition unit 201, the first calculation unit 202, the second calculation unit 203, the determination unit 204, the control unit 205, the image processing unit 103, the determination unit 104, and the encoding unit 105 are software, firmware, Or, it is realized by a combination of software and firmware.
  • the software and firmware are described as a program and stored in the memory 4.
  • the CPU 5 reads and executes a program stored in the memory 4 to obtain an acquisition unit 201, a first calculation unit 202, a second calculation unit 203, a determination unit 204, a control unit 205, an image processing unit 103, and a determination unit 104. And realize functions of respective units of the encoding unit 105.
  • the cloud distribution acquisition apparatus 100 has a memory 4 for storing a program or the like which will result in the execution of each step shown in the flowcharts of FIG. 3, FIG. 4, FIG. 5 and FIG.
  • these programs are executed by the procedures or methods of the acquisition unit 201, the first calculation unit 202, the second calculation unit 203, the determination unit 204, the control unit 205, the image processing unit 103, the determination unit 104, and the encoding unit 105.
  • the memory 4 is, for example, non-volatile or volatile such as random access memory (RAM), read only memory (ROM), flash memory, erasable programmable ROM (EPROM), or electrically erasable programmable ROM (EEPROM).
  • RAM random access memory
  • ROM read only memory
  • EPROM erasable programmable ROM
  • EEPROM electrically erasable programmable ROM
  • a semiconductor memory or a disk-shaped recording medium such as a magnetic disk, a flexible disk, an optical disk, a compact disk,
  • the functions of the acquisition unit 201, the first calculation unit 202, the second calculation unit 203, the determination unit 204, the control unit 205, the image processing unit 103, the determination unit 104, and the encoding unit 105 are partially exclusive. It may be realized by hardware and a part may be realized by software or firmware.
  • the functions of the acquisition unit 201, the first calculation unit 202, the second calculation unit 203, the determination unit 204, and the control unit 205 are realized by a processing circuit as dedicated hardware, and the image processing unit 103 and the determination unit 104
  • the function of the encoding unit 105 can be realized by the processing circuit reading and executing a program stored in the memory.
  • the processing circuit includes the acquisition unit 201, the first calculation unit 202, the second calculation unit 203, the determination unit 204, the control unit 205, and the image processing unit 103 according to hardware, software, firmware, or a combination thereof.
  • the function of each unit of the determination unit 104 and the encoding unit 105 can be realized.
  • the storage unit 107 can be realized by the memory (not shown) of the processing device 2 in FIG. 2A and the memory 4 in FIG. 2B.
  • the position and time recognition unit 101 recognizes the current position and current time of the cloud distribution acquisition device 100, and outputs position information indicating the recognized current position and time information indicating the recognized current time to the imaging control device 200. Do.
  • the acquisition unit 201 acquires position information output from the position and time recognition unit 101 as shooting position information, and acquires shooting date information based on the time information output from the position and time recognition unit 101 (step ST1).
  • the acquisition unit 201 outputs the shooting position information and the shooting date information to the first calculation unit 202, and outputs the shooting date information to the second calculation unit 203.
  • the acquisition unit 201 also performs processing of outputting the time information output from the position and time recognition unit 101 to the control unit 205.
  • the position and time recognition unit 101 is the GPS transceiver 1 as shown in FIG. 2A and FIG. 2B
  • the acquisition unit 201 of the imaging control device 200 sees from the imaging control device 200 from the GPS transceiver 1 which is an external device.
  • the imaging position information and the imaging date information are acquired.
  • the first calculation unit 202 uses the shooting date information at the position indicated by the shooting position information and indicates the sunrise time and the shooting date indicated by the shooting date information.
  • the sunset time is calculated (step ST2).
  • the first calculation unit 202 outputs the calculated sunrise time and sunset time to the determination unit 204.
  • FIG. 4 is a flow chart showing a calculation procedure of the sunrise time and the sunset time. Note that the procedure for calculating the sunrise time and the sunset time is well known, and thus details thereof will be omitted as appropriate.
  • the first calculation unit 202 acquires the shooting position information output by the acquisition unit 201 (step ST21).
  • the first calculation unit 202 acquires the shooting date information output by the acquisition unit 201 (step ST22).
  • the first calculator 202 calculates a time variable T (step ST23).
  • the time variable T is a value given by the following equation (1), where K is the number of days since J2000.0, that is, the noon on January 1, 2000, which is the noon.
  • the first calculation unit 202 calculates the yellow longitude ⁇ s [°] of the sun using the time variable T (step ST24). Subsequently, the first calculation unit 202 calculates the zodiac inclination angle ⁇ [°] according to the following equation (2) (step ST25).
  • the first calculating unit 202 converts the yellow through ⁇ s [°] of the sun calculated in step ST24 to the right ascension r a [°] declination ⁇ [°] (step ST26). Subsequently, the first calculator 202 calculates the distance r [au] between the sun and the earth using the time variable T (step ST27). Subsequently, the first calculation unit 202 calculates the sun rise and fall altitude k [°] according to the following formula (3) (step ST28). In equation (3), S [°] represents the viewing radius of the sun, E [°] represents the dip of the apparent horizon, R [°] represents the atmospheric difference, and ⁇ [°] represents the parallax.
  • the first calculator 202 calculates the star time th [°] (step ST29). Subsequently, the first calculator 202 calculates the sun time angle t [°] (step ST30). Subsequently, the first calculation unit 202 calculates the time angle t k [°] of the emergence point (step ST31).
  • the first calculation unit 202 calculates the sunrise time d rise (step ST32). Specifically, the first calculator 202 sets the time when the difference between -t and t k is minimum as the sunrise time d rise .
  • the first calculation unit 202 calculates the sunset time d set (step ST33). Specifically, the first calculator 202 sets the time when the difference between t and t k is minimum as the sunset time d set .
  • step ST3 the second calculation unit 203 calculates the age of the shooting date indicated by the shooting date information, using the shooting date information output by the acquisition unit 201 (step ST3).
  • the second calculation unit 203 outputs the calculated age to the determination unit 204.
  • the order of step ST2 and step ST3 may be reversed, or step ST2 and step ST3 may be performed simultaneously and in parallel.
  • FIG. 5 is a flow chart showing the procedure of calculating the age.
  • the second calculation unit 203 acquires the shooting date information output by the acquisition unit 201 (step ST41). Subsequently, the second calculation unit 203 uses the shooting date information to calculate a value N when the month of the shooting date indicated by the shooting date information is numerically represented (step ST42).
  • the value N when representing the age of Y year, M and D on a numerical basis is the remainder when “((Y ⁇ 2009)% 19) ⁇ 11 + M + D” is divided by 30. In January and February, the value N is obtained by adding 2 to the remainder. Also, (Y-2009)% 19 means the remainder when (Y-2009) is divided by 19.
  • the second calculation unit 203 selects the age from the new moon period, the half moon period and the full moon period (step ST43).
  • the second calculator 203 selects the new moon period as the age when the value N is 1 or more and 4 or less, or the value N is 27 or more and 30 or less.
  • the second calculator 203 selects the half moon period as the age when the value N is 5 or more and 10 or less, or the value N is 21 or more and 26 or less.
  • the second calculator 203 selects the full moon period as the age. As described above, the age is calculated in step ST3 of FIG.
  • the determination unit 204 uses the sunrise time and sunset time calculated by the first calculation unit 202 and the age calculated by the second calculation unit 203 to use the time function F (t of F value as in steps ST4 to ST6 below). To determine).
  • the time function F (t) of the F value represents the F value to be set to the camera 6 as the imaging unit 102 as a function of time, and an example is shown in FIG. 6A.
  • the time function F (t) of the F value is, as shown in FIG. 6A, a first camera parameter F night indicating the F value in the nighttime zone, and a second camera parameter F day indicating the F value in the daytime zone
  • the third camera parameter F rise (t) indicating the F value in the sunrise zone
  • the fourth camera parameter F set (t) indicating the F value in the sunset zone. Since the brightness of the sky is constant as long as the sun appears, the second camera parameter Fday in the daytime zone is a preset constant value.
  • the first camera parameter F night in the night zone is a constant value throughout the day, but is set to a value according to the age. Therefore, the determination unit 204 selects the first camera parameter F night in the night zone according to the age (step ST4).
  • the second calculating unit 203 calculates the age as the new moon period
  • the determining unit 204 selects F night — newmoon as the first camera parameter F night .
  • the second calculator 203 calculates the age to be a half moon period
  • the determiner 204 selects F night — halfmoon as the first camera parameter F night .
  • the second calculating unit 203 calculates the moon age as a full moon period
  • the determining unit 204 selects F night_fullmoon as the first camera parameter F night .
  • F night newmoon
  • F night halfmoon
  • F night fullmoon
  • the new moon phase because the sky is bright in the order of half a month period and the full moon period, a relationship that F night_newmoon ⁇ F night_halfmoon ⁇ F night_fullmoon .
  • the determination unit 204 determines that the third camera parameter F rise (t) in the sunrise zone and the day zone
  • the fourth camera parameter F set (t) at step ST5 is calculated (step ST5).
  • the sunrise zone refers to a time zone before and after the sunrise time, including the sunrise time. How long before and how long after the sunrise time is included in the sunrise zone is set in advance.
  • a sunset zone refers to a time zone before and after the sunset time of the day, including the sunset time. It is set in advance how long before and after the sunset time to be included in the sunset zone.
  • the third camera parameter F rise (t) is calculated, for example, according to the following equation (4).
  • the fourth camera parameter F set (t) is calculated, for example, according to the following equation (5).
  • T rise is the sunrise time
  • T set is the sunset time.
  • represents a coefficient
  • t represents time.
  • the F-number changes gently in a sin function manner as shown in FIG. 6A in the sunrise zone and the sunset zone.
  • the third camera parameter F rise (t) may be calculated using the first camera parameter F night and the second camera parameter F day , not limited to the calculation formula shown in the above equation (4).
  • the point is that the third camera parameter F rise (t) may be set to a value between the first camera parameter F night and the second camera parameter F day .
  • the fourth camera parameter F set (t) may be calculated using the first camera parameter F night and the second camera parameter F day without being limited to the equation (5).
  • Good The point is that the fourth camera parameter F set (t) may be set to a value between the first camera parameter F night and the second camera parameter F day .
  • FIG. 7 is a diagram showing an example of a time function of the F value near the sunset time.
  • the time function of the F value near the sunset time differs depending on whether the first camera parameter F night in the night zone is in the new moon period, half moon period or full moon period. Draw.
  • the determination unit 204 determines a time function F (t) of the F value on the shooting date (step ST6).
  • the time function F (t) is the first camera parameter F night in the night zone selected in step ST4, the second camera parameter F day in the daytime zone set in advance, and the sunrise zone calculated in step ST5.
  • the determination unit 204 outputs the determined time function F (t) to the control unit 205.
  • FIG. 6B is a diagram showing a time function of ISO sensitivity as a camera parameter other than the F value.
  • FIG. 6C is a diagram showing a time function of exposure time as camera parameters other than the F value.
  • the control unit 205 determines the F value on the shooting date according to the time of shooting and sets the F value to the camera 6 as the shooting unit 102.
  • the current time t now indicated by the time information output by the acquisition unit 201 can be used as the time of shooting. That is, the value at the time of F (t now ) is set to the camera 6 which is the imaging unit 102.
  • the F-number that can actually be set for the camera 6 that is the imaging unit 102 is a discrete value such as 2, 4, or 8, for example.
  • the control unit 205 sets, to the camera 6, a value closest to F (t now ) among the discrete F values that can be set. That is, in the sunrise zone and the sunset zone, the F value set to the camera 6 by the control unit 205 is indicated by a thin line in FIG. 6A. Similarly, in FIG. 6B and FIG. 6C, in the sunrise zone and the sunset zone, the ISO sensitivity and the exposure time set for the camera 6 by the control unit 205 are indicated by thin lines. Since the exposure time can be set relatively finely, the thin lines at the sunrise zone and the sunset zone in FIG. 6C are close to the curved shapes of EXP rise (t) and EXP set (t). Also, in order to avoid saturation, the F value, the ISO sensitivity, and the exposure time are always changed to values corresponding to the bright case first, and then changed to values set by the control unit 205.
  • the imaging unit 102 performs imaging with the set F value, and outputs data of a cloud image to the image processing unit 103. Subsequently, the image processing unit 103 determines the cloud region in the cloud image using the data of the cloud image output by the imaging unit 102 (step ST8). The image processing unit 103 determines a cloud region based on the two-dimensional luminance distribution of the sky which is known from the data of the cloud image. Clouds are characterized by being brighter than background sky because they reflect sunlight in the daytime and moonlight and ground light in the nighttime. In addition, since the clouds have a spatially nonuniform distribution, the brightness of the clouds is characterized as uneven.
  • the image processing unit 103 processes the cloud image data obtained as a color image, generates cloud image data when the cloud image is converted to gray scale, and the cloud image is generated. Is treated as luminance information. Then, the image processing unit 103 divides the range shown in the cloud image into a plurality of meshes, and calculates the average value and the standard deviation of the luminance in each mesh. Then, if the average value of the luminance in the mesh is larger than the first threshold or if the standard deviation of the luminance in the mesh is larger than the second threshold, the image processing unit 103 determines that the mesh is a cloud region.
  • the image processing unit 103 may check whether the data of the cloud image output by the imaging unit 102 is appropriate data by using the number of pixels indicated by the header information of the data, the exposure time, the imaging time, and the like. . Further, when setting the mesh, the image processing unit 103 sets a circular area in the area shown in the cloud image, and in particular, an area to be observed in the circular area, and an area outside the circular area. Each area may be divided by a mesh after being divided into an area and an area outside the visual field.
  • the image processing unit 103 outputs the number of meshes determined to be a cloud region to the determination unit 104. If the number is greater than the third threshold, the determining unit 104 determines that the cloud image captured by the imaging unit 102 has a large cloud amount, and if the number is less than or equal to the third threshold, the clouds captured by the imaging unit 102 It is determined that the amount of cloud is small for the image (step ST9).
  • the determination unit 104 outputs a determination result indicating whether the amount of cloud is large or small to the encoding unit 105.
  • the encoding unit 105 binarizes and represents the determination result output from the determination unit 104 (step ST10). For example, if the determination result output from the determination unit 104 indicates that the cloud amount is large, the encoding unit 105 encodes it as 1, and if the determination result output from the determination unit 104 indicates that the cloud amount is small, 0 Code as Coding section 105 outputs coded information indicating whether the amount of cloud is large or small to communication section 106.
  • the communication unit 106 outputs the encoded information output from the encoding unit 105 to the outside of the cloud distribution acquisition apparatus 100.
  • FIG. 8 is a flowchart showing a modified example of the processing by the cloud distribution acquisition apparatus 100.
  • the same step numbers are assigned to steps in which the same process as the process shown in FIG. 3 is performed, and the description thereof will be appropriately omitted or simplified.
  • the determination unit 204 calculates the third camera parameter F rise (t) in the sunrise zone and the fourth camera parameter F set (t) in the sunset zone To do (step ST51).
  • the determination unit 204 uses the first camera parameter in the night zone the day before the shooting date as the first camera parameter F night in the night zone, for example, as shown in Equations (4) and (5).
  • Three camera parameters F rise (t) and a fourth camera parameter F set (t) are calculated.
  • the determining unit 204 regards the first camera parameter in the night zone on the previous day of the shooting date used in step ST51 as the first camera parameter F night of the shooting date, and determines the first camera parameter F night ,
  • the third camera parameter F rise (t) calculated in step ST51, the fourth camera parameter F set (t) calculated in step ST51, and the second camera parameter F day in the daytime zone set in advance Is temporarily determined as a time function F (t) of the F value on the shooting date (step ST52).
  • the second calculation unit 203 calculates the age of the shooting date indicated by the shooting date information, using the shooting date information output by the acquisition unit 201 (step ST53). Then, the determination unit 204 determines whether the age calculated in step ST53 is the same as the age on the previous day of the shooting date (step ST54). If the age calculated in step ST53 is the same as the age on the previous day of the shooting date (step ST54; YES), the determination unit 204 determines the time function F (t) of the F value temporarily determined in step ST52 as the shooting date. It is determined as a time function F (t) of the F value (step ST55). Thereafter, the processes of steps ST7 to ST10 are performed.
  • step ST53 when the age calculated in step ST53 is not the same as the age on the previous day of the shooting date (step ST54; NO), the determination unit 204 calculates the first camera parameter F night in the night zone in step ST53. It chooses according to the old age (step ST56). The selection of the first camera parameter F night in the night zone according to the age is as described in step ST4. Thereafter, the processes of steps ST5 to ST10 are performed.
  • the age was classified into three: new moon, half moon and full moon, but the age is classified more finely, and the first camera parameter F night in the night zone according to each age is selected You may do so.
  • the first camera parameter F night in the nighttime zone may be selected according to the value N when the age of the month used above is represented by a numerical value.
  • the sunrise and sunset times on the shooting date calculated by the first calculation unit 202 using the shooting position information and the shooting date information, and the second calculation unit 203 The determination unit 204 determines the time function of the camera parameter on the shooting date using the age on the shooting date calculated using the shooting date information. Then, the control unit 205 sets the camera parameter in consideration of the brightness of the sky due to the sun and the moon to the camera 6 by setting the camera parameter to the camera 6 which is the imaging unit 102 using the time function. it can. Therefore, it is possible to prevent the image taken by the camera 6 from saturating.
  • the camera parameter is F value, ISO sensitivity, or exposure time. Therefore, the imaging control apparatus 200 can appropriately set the F value, the ISO sensitivity, or the exposure time.
  • the second calculation unit 203 determines any one of the new moon period, the half moon period, and the full moon period as the calculation result of the age. Therefore, as the first camera parameter F night in the nighttime zone, three for the new period, half period and full period may be set in advance.
  • the acquisition unit 201 acquires imaging date information from an external device.
  • the imaging control apparatus 200 can use an external device such as the GPS transceiver 1 in order to obtain imaging date information.
  • the determination unit 204 sets the first camera parameter in the night zone on the day before the shooting day as the first camera parameter F night in the night zone on the shooting day, and the first camera parameter F night and the second camera parameter.
  • the time function of the camera parameter on the shooting date is tentatively determined, and the second calculation unit If the age calculated by 203 is the same as the age of the previous day of the shooting date, the temporarily determined time function is determined as the time function F (t) of the camera parameters at the shooting date. Therefore, the photographing control device 200 may perform the process of selecting the first camera parameter F night in the nighttime zone only on the photographing day when the age of the vehicle changes from the previous day.
  • the photographing control device can set camera parameters in consideration of the brightness of the sky due to the sun and the moon in the camera, it is used as a device for controlling a camera for photographing a cloud image. Suitable for

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

第1計算部(202)が撮影位置情報と撮影日情報とを用いて計算した撮影日での日の出時刻及び日の入り時刻と、第2計算部(203)が撮影日情報を用いて計算した撮影日での月齢とを用いて、決定部(204)が当該撮影日でのカメラパラメータの時間関数を決定する。そして、制御部(205)が、当該時間関数を用いてカメラパラメータを撮影部(102)であるカメラ(6)に設定する。

Description

撮影制御装置、及び、撮影制御方法
 この発明は、カメラによる撮影を制御する撮影制御装置に関するものである。
 カメラは、撮影時の状況に応じて様々に制御される。例えば特許文献1には、現在位置認識部が認識した現在位置と、災害地点の位置情報とに基づき制御を行う制御部を備えた撮影装置が記載されている。このように、特許文献1の撮影装置では、位置に基づく撮影制御が行われている。
特開2016―173764号公報
 しかしながら、特許文献1の撮影装置では、F値(F-number)等のカメラパラメータを設定することについては考慮がされていない。
 地上から空を観測するために雲画像を撮影するカメラは、太陽及び月による空の明るさの変化に対応して撮影をする必要があり、撮影日及び撮影位置によって、太陽及び月による空の明るさは変化する。したがって、カメラパラメータが撮影日及び撮影位置に関係なく一律に設定されていると、撮影画像がサチュレートを起こすことがある。
 この発明は、上記のような課題を解決するためになされたもので、太陽及び月による空の明るさを考慮したカメラパラメータをカメラに設定することができる撮影制御装置を得ることを目的とする。
 この発明に係る撮影制御装置は、雲画像を撮影するカメラの位置を示す撮影位置情報と、カメラが撮影を行う撮影日を示す撮影日情報とを取得する取得部と、撮影位置情報と撮影日情報とを用いて、位置における撮影日での日の出時刻及び日の入り時刻を計算する第1計算部と、撮影日情報を用いて、撮影日での月齢を計算する第2計算部と、計算された月齢に応じた夜間帯での第1カメラパラメータと、昼間帯での第2カメラパラメータと、計算された日の出時刻を含む日の出帯でのカメラパラメータであって第1カメラパラメータと第2カメラパラメータとの間の値に設定した第3カメラパラメータと、計算された日の入り時刻を含む日の入り帯でのカメラパラメータであって第1カメラパラメータと第2カメラパラメータとの間の値に設定した第4カメラパラメータとから構成される、撮影日でのカメラパラメータの時間関数を決定する決定部と、決定された時間関数を用いて、撮影日でのカメラのカメラパラメータを撮影する時刻に応じて決定し、カメラに設定する制御部とを備えることを特徴とするものである。
 この発明によれば、カメラの位置における撮影日での日の出時刻、日の入り時刻及び月齢を用いて、撮影日でのカメラパラメータの時間関数を決定し、当該時間関数を用いてカメラパラメータをカメラに設定するので、太陽及び月による空の明るさを考慮したカメラパラメータをカメラに設定することができる。
実施の形態1に係る撮影制御装置を内蔵した雲分布取得装置の機能構成を示す図である。 図2A及び図2Bは、雲分布取得装置のハードウェア構成例を示す図である。 雲分布取得装置による処理の一例を示すフローチャートである。 日の出時刻及び日の入り時刻の計算手順を示すフローチャートである。 月齢の計算手順を示すフローチャートである。 図6AはF値の時間関数の一例を示す図であり、図6BはISO感度の時間関数の一例を示す図であり、図6Cは露光時間の時間関数の一例を示す図である。 日の入り時刻付近でのF値の時間関数の一例を示す図である。 雲分布取得装置による処理の変形例を示すフローチャートである。
 以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1. 
 図1に、実施の形態1に係る撮影制御装置200を内蔵した雲分布取得装置100の機能構成を示す。雲分布取得装置100は、雲の分布を求めるものである。
 雲分布取得装置100は、位置及び時刻認識部101と、撮影部102と、画像処理部103と、判別部104と、符号化部105と、通信部106と、保存部107と、撮影制御装置200とを有する。雲分布取得装置100は、地上から空を観測するために任意の場所に設置されている。
 位置及び時刻認識部101は、雲分布取得装置100の現在位置と現在時刻とを認識し、認識した現在位置を示す位置情報と、認識した現在時刻を示す時刻情報とを撮影制御装置200へ出力する。位置情報は、例えば、緯度、経度及び標高から成る情報である。時刻情報は、例えば、西暦、月、日、時、分及び秒から成る情報である。位置及び時刻認識部101は、例えば、後述の図2A及び図2Bに示すようなGPS(Global Positioning System)送受信機1内に設けられた、GPS衛星から情報を受信する受信部と撮影制御装置200へ情報を送信する送信部である。
 撮影部102は、全方位の空を撮影範囲とし、撮影制御装置200に制御されて、雲画像を撮影する。撮影部102は、例えば、後述の図2A及び図2Bに示すように、カメラ6と、魚眼レンズ等の広角のレンズ7とで構成される。カメラ6は、レンズ7から入る光の量を調整するための物理的な絞りを有し、F値を変更可能に構成される。また、カメラ6は、カメラ6が有するシャッターの動作、及び、カメラ6が有するアンプのゲインを変更可能に構成される。撮影部102であるカメラ6により撮影された雲画像のデータは、画像処理部103へ出力される。
 画像処理部103は、撮影部102が出力した雲画像のデータを用いて、当該画像内の雲領域を判定する。画像処理部103は、判定結果を判別部104へ出力する。また、画像処理部103は、撮影部102が出力した雲画像のデータを保存部107へ出力する。
 判別部104は、画像処理部103が出力した判定結果を用いて、撮影部102が撮影した雲画像について、雲量が多いか少ないかを判定する。判別部104は、判定結果を符号化部105へ出力する。
 符号化部105は、判別部104が出力した判定結果を符号化し、当該符号化した情報を通信部106へ出力する。
 通信部106は、符号化部105が出力した符号化した情報を、雲分布取得装置100の外部へ出力する。
 保存部107は、画像処理部103が出力した雲画像のデータを保存する。
 撮影制御装置200は、取得部201と、第1計算部202と、第2計算部203と、決定部204と、制御部205とを有する。
 取得部201は、位置及び時刻認識部101から位置情報と時刻情報とを取得する。取得部201は、当該位置情報を、撮影部102である雲画像を撮影するカメラ6の位置を示す撮影位置情報として取得し、第1計算部202へ出力する。
 また、取得部201は、位置及び時刻認識部101から取得した時刻情報を、第1計算部202、第2計算部203及び制御部205へ出力する。その際、第1計算部202及び第2計算部203へは、位置及び時刻認識部101から取得した時刻情報そのままではなく、少なくとも当該時刻情報内の西暦、月及び日を示す情報が出力されればよい。つまり、第1計算部202及び第2計算部203にとって取得部201は、撮影部102であるカメラ6が撮影を行う撮影日を示す撮影日情報を取得して出力するものとして機能する。
 第1計算部202は、取得部201が出力した撮影位置情報と撮影日情報とを用いて、当該撮影位置情報が示す位置における当該撮影日情報が示す撮影日での、日の出時刻及び日の入り時刻を計算する。計算の詳細については後述する。第1計算部202は、計算した日の出時刻及び日の入り時刻を決定部204へ出力する。
 第2計算部203は、取得部201が出力した撮影日情報を用いて、当該撮影日情報が示す撮影日での月齢を計算する。計算の詳細については後述する。第2計算部203は、計算した月齢を決定部204へ出力する。
 決定部204は、第1計算部202が出力した日の出時刻及び日の入り時刻と、第2計算部203が出力した月齢とを用いて、撮影日でのカメラパラメータの時間関数を決定する。カメラパラメータの時間関数の詳細については後述する。決定部204は、決定したカメラパラメータの時間関数を制御部205へ出力する。カメラパラメータは、撮影部102であるカメラ6による撮影画像の状態に影響を与えるものであり、例えば、F値、ISO感度、又は、露光時間である。
 制御部205は、決定部204が出力したカメラパラメータの時間関数を用いて、撮影日での撮影部102であるカメラ6のカメラパラメータを、当該撮影日中の撮影する時刻に応じて決定する。当該撮影する時刻には、取得部201が出力した時刻情報が示す時刻を用いることができる。そして、制御部205は、決定したカメラパラメータを撮影部102であるカメラ6に設定する。具体的には、制御部205は、決定したカメラパラメータでの撮影を行わせる制御信号を、撮影部102であるカメラ6へ出力する。
 次に、雲分布取得装置100のハードウェア構成例について、図2A及び図2Bを用いて説明する。
 雲分布取得装置100の位置及び時刻認識部101は、例えば、GPS送受信機1で実現される。雲分布取得装置100の撮影部102は、例えば、カメラ6と広角のレンズ7とで実現される。雲分布取得装置100の通信部106は、例えば、無線LAN(Local Area Network)機能を備えた通信装置8で実現される。
 また、雲分布取得装置100の取得部201、第1計算部202、第2計算部203、決定部204、制御部205、画像処理部103、判別部104及び符号化部105の各機能は、処理回路により実現される。当該処理回路は、専用のハードウェアであっても、メモリに格納されるプログラムを実行するCPU(Central Processing Unit)であってもよい。CPUは、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサ又はDSP(Digital Signal Processor)とも呼ばれる。
 図2Aは、取得部201、第1計算部202、第2計算部203、決定部204、制御部205、画像処理部103、判別部104及び符号化部105の各部の機能を、処理装置2内に設けた専用のハードウェアである処理回路3で実現した場合のハードウェア構成例を示す図である。処理回路3は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、若しくはFPGA(Field Programmable Gate Array)、又はこれらを組み合わせたものが該当する。取得部201、第1計算部202、第2計算部203、決定部204、制御部205、画像処理部103、判別部104及び符号化部105の各部の機能を別個の処理回路3を組み合わせて実現してもよいし、各部の機能を1つの処理回路3で実現してもよい。
 図2Bは、取得部201、第1計算部202、第2計算部203、決定部204、制御部205、画像処理部103、判別部104及び符号化部105の各部の機能を、メモリ4に格納されるプログラムを実行するCPU5で実現した場合のハードウェア構成例を示す図である。メモリ4及びCPU5は、処理装置2内に設けられ、この場合の処理装置2は例えばコンピュータである。この場合、取得部201、第1計算部202、第2計算部203、決定部204、制御部205、画像処理部103、判別部104及び符号化部105の各部の機能は、ソフトウェア、ファームウェア、又はソフトウェアとファームウェアとの組合せにより実現される。ソフトウェア及びファームウェアはプログラムとして記述され、メモリ4に格納される。CPU5は、メモリ4に格納されたプログラムを読み出して実行することにより、取得部201、第1計算部202、第2計算部203、決定部204、制御部205、画像処理部103、判別部104及び符号化部105の各部の機能を実現する。すなわち、雲分布取得装置100は、後述する図3、図4、図5及び図8のフローチャートで示す各ステップが結果的に実行されることになるプログラム等を格納するためのメモリ4を有する。また、これらのプログラムは、取得部201、第1計算部202、第2計算部203、決定部204、制御部205、画像処理部103、判別部104及び符号化部105の各部の手順又は方法をコンピュータに実行させるものであるとも言える。ここで、メモリ4は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable ROM)、若しくはEEPROM(Electrically Erasable Programmable ROM)等の、不揮発性若しくは揮発性の半導体メモリ、又は、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、若しくはDVD(Digital Versatile Disc)等のディスク状の記録媒体等が該当する。
 なお、取得部201、第1計算部202、第2計算部203、決定部204、制御部205、画像処理部103、判別部104及び符号化部105の各部の機能について、一部を専用のハードウェアで実現し、一部をソフトウェア又はファームウェアで実現するようにしてもよい。例えば、取得部201、第1計算部202、第2計算部203、決定部204及び制御部205については専用のハードウェアとしての処理回路でその機能を実現し、画像処理部103、判別部104及び符号化部105については処理回路がメモリに格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
 このように、処理回路は、ハードウェア、ソフトウェア、ファームウェア又はこれらの組合せによって、上記の取得部201、第1計算部202、第2計算部203、決定部204、制御部205、画像処理部103、判別部104及び符号化部105の各部の機能を実現することができる。
 なお、保存部107は、図2Aにおいては処理装置2が有する不図示のメモリ、図2Bにおいてはメモリ4により実現することができる。
 次に、上記のように構成された雲分布取得装置100による処理の一例について、図3に示すフローチャートを用いて説明する。以下では、カメラパラメータとしてF値を例に説明する。
 位置及び時刻認識部101は、雲分布取得装置100の現在位置と現在時刻とを認識し、認識した現在位置を示す位置情報と、認識した現在時刻を示す時刻情報とを撮影制御装置200へ出力する。
 取得部201は、位置及び時刻認識部101が出力した位置情報を撮影位置情報として取得し、また、位置及び時刻認識部101が出力した時刻情報により撮影日情報を取得する(ステップST1)。取得部201は、撮影位置情報及び撮影日情報を第1計算部202へ出力し、撮影日情報を第2計算部203へ出力する。なお、取得部201は、位置及び時刻認識部101が出力した時刻情報を制御部205へ出力する処理も行う。位置及び時刻認識部101が図2A及び図2Bに示すようにGPS送受信機1である場合、撮影制御装置200の取得部201は、撮影制御装置200から見て外部装置であるGPS送受信機1から撮影位置情報及び撮影日情報を取得することとなる。
 続いて、第1計算部202は、取得部201が出力した撮影位置情報と撮影日情報とを用いて、当該撮影位置情報が示す位置における当該撮影日情報が示す撮影日での、日の出時刻及び日の入り時刻を計算する(ステップST2)。第1計算部202は、計算した日の出時刻及び日の入り時刻を決定部204へ出力する。
 図4は、日の出時刻及び日の入り時刻の計算手順を示すフローチャートである。なお、日の出時刻及び日の入り時刻の計算手順は、周知のものであるので、詳細については適宜省略する。
 第1計算部202は、取得部201が出力した撮影位置情報を取得する(ステップST21)。
 第1計算部202は、取得部201が出力した撮影日情報を取得する(ステップST22)。
 続いて、第1計算部202は、時刻変数Tを計算する(ステップST23)。時刻変数Tは、J2000.0つまり2000年1月1日力学時正午からの経過日数をKとしたとき、以下の式(1)により与えられる値である。

Figure JPOXMLDOC01-appb-I000001
 続いて、第1計算部202は、時刻変数Tを用いて、太陽の黄経λ[°]を計算する(ステップST24)。
 続いて、第1計算部202は、以下の式(2)のとおり、黄道傾斜角ε[°]を計算する(ステップST25)。

Figure JPOXMLDOC01-appb-I000002
 続いて、第1計算部202は、ステップST24で計算した太陽の黄経λ[°]を赤経r[°]赤緯δ[°]に換算する(ステップST26)。
 続いて、第1計算部202は、時刻変数Tを用いて、太陽と地球の距離r[au]を計算する(ステップST27)。
 続いて、第1計算部202は、以下の式(3)のとおり、太陽の出没高度k[°]を計算する(ステップST28)。式(3)において、S[°]は太陽の視半径、E[°]は見かけの地平線の伏角、R[°]は大気差、Π[°]は視差を表す。

Figure JPOXMLDOC01-appb-I000003
 続いて、第1計算部202は、恒星時th[°]を計算する(ステップST29)。
 続いて、第1計算部202は、太陽の時角t[°]を計算する(ステップST30)。
 続いて、第1計算部202は、出没点の時角t[°]を計算する(ステップST31)。
 続いて、第1計算部202は、日の出時刻driseを計算する(ステップST32)。具体的には、第1計算部202は、-tとtとの差が最小になるときの時刻を、日の出時刻driseとする。
 また、第1計算部202は、日の入り時刻dsetを計算する(ステップST33)。具体的には、第1計算部202は、tとtとの差が最小になるときの時刻を、日の入り時刻dsetとする。
 以上のようにして図3のステップST2で日の出時刻及び日の入り時刻が計算される。
 続いて、第2計算部203は、取得部201が出力した撮影日情報を用いて、当該撮影日情報が示す撮影日での、月齢を計算する(ステップST3)。第2計算部203は、計算した月齢を決定部204へ出力する。なお、ステップST2とステップST3の順序は逆であってもよいし、ステップST2とステップST3とが同時並行で行われてもよい。
 図5は、月齢の計算手順を示すフローチャートである。ここでは、月齢として、新月期、半月期及び満月期の3つが想定された場合を例に説明する。
 第2計算部203は、取得部201が出力した撮影日情報を取得する(ステップST41)。
 続いて、第2計算部203は、撮影日情報を用いて、当該撮影日情報が示す撮影日の月齢を数値で表したときの値Nを計算する(ステップST42)。Y年M月D日の月齢を数値で表したときの値Nは、「((Y-2009)%19)×11+M+D」を30で割ったときの余りとなる。なお、1月と2月は、当該余りに更に2を加えたものが値Nとなる。また、(Y-2009)%19は、(Y-2009)を19で割ったときの余りを意味している。
 続いて、第2計算部203は、新月期、半月期及び満月期の中から月齢を選択する(ステップST43)。第2計算部203は、値Nが1以上4以下、又は、値Nが27以上30以下の場合に、新月期を月齢として選択する。第2計算部203は、値Nが5以上10以下、又は、値Nが21以上26以下の場合に、半月期を月齢として選択する。第2計算部203は、値Nが11以上20以下の場合に、満月期を月齢として選択する。
 以上のようにして図3のステップST3で月齢が計算される。
 決定部204は、第1計算部202が計算した日の出時刻及び日の入り時刻と、第2計算部203が計算した月齢とを用いて、以下のステップST4~ST6のとおりF値の時間関数F(t)を決定する。F値の時間関数F(t)は、撮影部102であるカメラ6に設定すべきF値を時間の関数として表したものであり、図6Aに一例を示す。
 F値の時間関数F(t)は、図6Aに示すように、夜間帯でのF値を示す第1カメラパラメータFnightと、昼間帯でのF値を示す第2カメラパラメータFdayと、日の出帯でのF値を示す第3カメラパラメータFrise(t)と、日の入り帯でのF値を示す第4カメラパラメータFset(t)とから構成される。
 太陽が出ている限り空の明るさは一定であるため、昼間帯での第2カメラパラメータFdayは、予め設定された一定の値となっている。
 夜間帯での第1カメラパラメータFnightは、一日を通しては一定の値であるが、月齢に応じた値に設定される。したがって、決定部204は、夜間帯での第1カメラパラメータFnightを、月齢に応じて選択する(ステップST4)。第2計算部203により月齢が新月期と計算された場合、決定部204は、Fnight_newmoonを第1カメラパラメータFnightとして選択する。第2計算部203により月齢が半月期と計算された場合、決定部204は、Fnight_halfmoonを第1カメラパラメータFnightとして選択する。第2計算部203により月齢が満月期と計算された場合、決定部204は、Fnight_fullmoonを第1カメラパラメータFnightとして選択する。
 Fnight_newmoon、Fnight_halfmoon及びFnight_fullmoonの値は、予め設定されている。新月期、半月期そして満月期の順で空は明るくなるので、Fnight_newmoon<Fnight_halfmoon<Fnight_fullmoonという関係になる。
 夜間帯での第1カメラパラメータFnight及び昼間帯での第2カメラパラメータFdayが設定されると、決定部204は、日の出帯での第3カメラパラメータFrise(t)、及び、日の入り帯での第4カメラパラメータFset(t)を計算する(ステップST5)。
 日の出帯とは、日の出時刻を含む、当該日の出時刻の前後の時間帯を指す。日の出時刻のどれくらい前からどれくらい後までを日の出帯に含めるかは、予め設定されている。同様に、日の入り帯とは、日の入り時刻を含む、当該日の入り時刻の前後の時間帯を指す。日の入り時刻のどれくらい前からどれくらい後までを日の入り帯に含めるかは、予め設定されている。
 第3カメラパラメータFrise(t)は、例えば、以下の式(4)のとおり計算される。
 第4カメラパラメータFset(t)は、例えば、以下の式(5)のとおり計算される。

Figure JPOXMLDOC01-appb-I000004
 Triseは日の出時刻、Tsetは日の入り時刻である。αは係数、tは時刻を示す。
 式(4)及び式(5)によると、日の出帯及び日の入り帯では、F値は図6Aで示すようにsin関数的になだらかに変化することになる。なお、第3カメラパラメータFrise(t)は、上記の式(4)に示す計算式に限らず、第1カメラパラメータFnightと第2カメラパラメータFdayとを用いて計算されればよい。要は、第3カメラパラメータFrise(t)は、第1カメラパラメータFnightと第2カメラパラメータFdayとの間の値に設定されればよい。第4カメラパラメータFset(t)についても同様であり、上記の式(5)に示す計算式に限らず、第1カメラパラメータFnightと第2カメラパラメータFdayとを用いて計算されればよい。要は、第4カメラパラメータFset(t)は、第1カメラパラメータFnightと第2カメラパラメータFdayとの間の値に設定されればよい。
 また、図7は、日の入り時刻付近でのF値の時間関数の一例を示す図である。夜間帯での第1カメラパラメータFnightが新月期のものであるか、半月期のものであるか、満月期のものであるかによって、日の入り時刻付近でのF値の時間関数は異なる曲線を描く。
 ステップST5に続いて、決定部204は、撮影日でのF値の時間関数F(t)を決定する(ステップST6)。時間関数F(t)は、ステップST4で選択された夜間帯での第1カメラパラメータFnightと、予め設定された昼間帯での第2カメラパラメータFdayと、ステップST5で計算された日の出帯での第3カメラパラメータFrise(t)と、ステップST5で計算された日の入り帯での第4カメラパラメータFset(t)とから構成される。ステップST6により、図6Aに示すようなF値の時間関数F(t)が決定される。決定部204は、決定した時間関数F(t)を制御部205へ出力する。
 なお、以上のようなカメラパラメータの時間関数の決定方法は、F値以外のカメラパラメータに対しても同様に適用される。図6Bは、F値以外のカメラパラメータとして、ISO感度の時間関数を示した図である。また、図6Cは、F値以外のカメラパラメータとして、露光時間の時間関数を示した図である。
 続いて、制御部205は、決定部204が決定した時間関数F(t)を用いて、撮影日でのF値を、撮影する時刻に応じて決定し、撮影部102であるカメラ6に設定する(ステップST7)。当該撮影する時刻には、取得部201が出力した時刻情報が示す現在時刻tnowを用いることができる。つまり、F(tnow)のときの値が撮影部102であるカメラ6に設定される。
 なお、実際に撮影部102であるカメラ6に設定することのできるF値は、例えば2、4、8のように離散的な値となる。したがって、制御部205は、設定できる離散的なF値のうち、F(tnow)に一番近い値をカメラ6に設定する。つまり、日の出帯及び日の入り帯において、制御部205によってカメラ6に設定されるF値は、図6A中の細線で示すものとなる。図6B及び図6Cでも同様に、日の出帯及び日の入り帯において、制御部205によってカメラ6に設定されるISO感度及び露光時間については細線で示している。露光時間については比較的細かな設定が可能であるので、図6Cの日の出帯及び日の入り帯での細線は、EXPrise(t)及びEXPset(t)の曲線形状に近いものとなっている。
 また、サチュレートを避けるため、F値、ISO感度及び露光時間は、必ず先に明るいときに対応した値に変更されてから、制御部205が設定した値に変更される。
 撮影部102は、設定されたF値にて撮影を行い、雲画像のデータを画像処理部103へ出力する。
 続いて、画像処理部103は、撮影部102が出力した雲画像のデータを用いて、当該雲画像内の雲領域を判定する(ステップST8)。画像処理部103は、雲画像のデータから分かる空の二次元的な輝度分布により、雲領域を判定する。
 雲は、昼間は太陽光を、夜間は月明かり及び地上光を反射するため、背景の空よりも明るく観測されるという特徴がある。また、雲は、空間的に不均一な分布を持つため、雲の明るさは一様ではないという特徴がある。これらの特徴を利用して、画像処理部103は、カラー画像として得られた雲画像のデータを処理して、当該雲画像をグレースケールに変換したときの雲画像のデータを生成し、雲画像を輝度情報として扱う。そして、画像処理部103は、雲画像に映る範囲を複数のメッシュに区切り、各メッシュ内で輝度の平均値及び標準偏差を計算する。そして、メッシュ内の輝度の平均値が第1閾値より大きい場合、又は、メッシュ内の輝度の標準偏差が第2閾値より大きい場合、画像処理部103は、当該メッシュを雲領域と判定する。
 なお、画像処理部103は、撮影部102が出力した雲画像のデータについて、当該データのヘッダ情報が示す画素数、露光時間及び撮影時刻等を用いて、適切なデータであるかを確認するとよい。また、画像処理部103は、メッシュを設定する際、雲画像に映る範囲の中に円形の領域を設定し、当該円形の領域内を特に観察すべき領域、当該円形の領域外を街明りのある領域及び視野外の領域に分けた上で、各領域内をメッシュで区切ってもよい。
 画像処理部103は、雲領域と判定したメッシュの数を判別部104へ出力する。判別部104は、当該数が第3閾値より大きければ、撮影部102が撮影した雲画像について、雲量が多いと判定し、当該数が第3閾値以下であれば、撮影部102が撮影した雲画像について、雲量が少ないと判定する(ステップST9)。判別部104は、雲量が多いか少ないかを示す判定結果を符号化部105へ出力する。
 符号化部105は、判別部104が出力した判定結果を二値化して表す(ステップST10)。符号化部105は、例えば、判別部104が出力した判定結果が雲量が多いことを示していれば1として符号化し、判別部104が出力した判定結果が雲量が少ないことを示していれば0として符号化する。符号化部105は、雲量が多いか少ないかを示す符号化した情報を、通信部106へ出力する。通信部106は、符号化部105が出力した符号化した情報を、雲分布取得装置100の外部へ出力する。
 なお、図8は、雲分布取得装置100による処理の変形例を示すフローチャートである。図3で示した処理と同様の処理が行われるステップについては、同じステップ番号を付し、その説明を適宜省略又は簡略する。
 ステップST2により日の出時刻及び日の入り時刻が計算されると、決定部204は、日の出帯での第3カメラパラメータFrise(t)、及び、日の入り帯での第4カメラパラメータFset(t)を計算する(ステップST51)。このとき、決定部204は、夜間帯での第1カメラパラメータFnightとして、撮影日の前日の夜間帯での第1カメラパラメータを用いて、例えば式(4)及び式(5)のとおり第3カメラパラメータFrise(t)、及び、第4カメラパラメータFset(t)を計算する。
 続いて、決定部204は、ステップST51で用いた撮影日の前日の夜間帯での第1カメラパラメータを当該撮影日の第1カメラパラメータFnightと見なして、当該第1カメラパラメータFnightと、ステップST51で計算した第3カメラパラメータFrise(t)と、ステップST51で計算した第4カメラパラメータFset(t)と、予め設定された昼間帯での第2カメラパラメータFdayとから構成される関数を、撮影日でのF値の時間関数F(t)として仮決定する(ステップST52)。
 続いて、第2計算部203は、取得部201が出力した撮影日情報を用いて、当該撮影日情報が示す撮影日での、月齢を計算する(ステップST53)。
 そして、決定部204は、ステップST53で計算された月齢が、撮影日の前日の月齢と同じであるかを判定する(ステップST54)。
 ステップST53で計算された月齢が、撮影日の前日の月齢と同じ場合(ステップST54;YES)、決定部204は、ステップST52で仮決定したF値の時間関数F(t)を撮影日でのF値の時間関数F(t)として決定する(ステップST55)。以降、ステップST7~ST10の処理が行われる。
 一方、ステップST53で計算された月齢が、撮影日の前日の月齢と同じでない場合(ステップST54;NO)、決定部204は、夜間帯での第1カメラパラメータFnightを、ステップST53で計算された月齢に応じて選択する(ステップST56)。月齢に応じた夜間帯での第1カメラパラメータFnightの選択は、ステップST4で説明したとおりである。以降、ステップST5~ST10の処理が行われる。
 図8に示す変形例によれば、図3で示した処理と異なり、月が新月期から半月期、半月期から満月期、又は、満月期から新月期に変化したときの撮影日のみ、夜間帯での第1カメラパラメータFnightを選択する処理が行われればよいことになる。
 また、上記では、月齢を新月期、半月期及び満月期の3つで分類したが、より細かく月齢を分類し、各月齢に応じた夜間帯での第1カメラパラメータFnightが選択されるようにしてもよい。例えば、上記で用いた月齢を数値で表したときの値Nに応じた夜間帯での第1カメラパラメータFnightが選択されるようにしてもよい。
 以上のように、この実施の形態1によれば、第1計算部202が撮影位置情報と撮影日情報とを用いて計算した撮影日での日の出時刻及び日の入り時刻と、第2計算部203が撮影日情報を用いて計算した撮影日での月齢とを用いて、決定部204が当該撮影日でのカメラパラメータの時間関数を決定する。そして、制御部205が、当該時間関数を用いてカメラパラメータを撮影部102であるカメラ6に設定することで、太陽及び月による空の明るさを考慮したカメラパラメータをカメラ6に設定することができる。したがって、カメラ6による撮影画像がサチュレートを起こすのを防ぐことができる。
 また、カメラパラメータは、F値、ISO感度、又は、露光時間であることとした。したがって、撮影制御装置200は、F値、ISO感度、又は、露光時間を、適切に設定することができる。
 また、第2計算部203は、新月期、半月期及び満月期のいずれかを月齢の計算結果とすることとした。したがって、夜間帯での第1カメラパラメータFnightとしては、新月期用、半月期用及び満月期用の3つが予め設定されていればよい。
 また、取得部201は、外部装置から撮影日情報を取得することとした。撮影制御装置200は、撮影日情報を取得するために、GPS送受信機1等の外部装置を利用することができる。
 また、決定部204は、撮影日の前日の夜間帯での第1カメラパラメータを撮影日の夜間帯での第1カメラパラメータFnightとするとともに、当該第1カメラパラメータFnightと第2カメラパラメータFdayとを用いて、第3カメラパラメータFrise(t)及び第4カメラパラメータFset(t)を設定することで、撮影日でのカメラパラメータの時間関数を仮決定し、第2計算部203により計算された月齢が撮影日の前日の月齢と同じ場合、仮決定した時間関数を、撮影日でのカメラパラメータの時間関数F(t)として決定することとした。したがって、撮影制御装置200は、前日から月齢が変化した撮影日のみ、夜間帯での第1カメラパラメータFnightを選択する処理を行えばよいことになる。
 なお、本願発明はその発明の範囲内において、実施の形態の任意の構成要素の変形、もしくは実施の形態の任意の構成要素の省略が可能である。
 以上のように、この発明に係る撮影制御装置は、太陽及び月による空の明るさを考慮したカメラパラメータをカメラに設定することができるため、雲画像を撮影するカメラを制御する装置として用いるのに適している。
 1 GPS送受信機、2 処理装置、3 処理回路、4 メモリ、5 CPU、6 カメラ、7 レンズ、8 通信装置、100 雲分布取得装置、101 位置及び時刻認識部、102 撮影部、103 画像処理部、104 判別部、105 符号化部、106 通信部、107 保存部、200 撮影制御装置、201 取得部、202 第1計算部、203 第2計算部、204 決定部、205 制御部。

Claims (6)

  1.  雲画像を撮影するカメラの位置を示す撮影位置情報と、前記カメラが撮影を行う撮影日を示す撮影日情報とを取得する取得部と、
     前記撮影位置情報と前記撮影日情報とを用いて、前記位置における前記撮影日での日の出時刻及び日の入り時刻を計算する第1計算部と、
     前記撮影日情報を用いて、前記撮影日での月齢を計算する第2計算部と、
     前記計算された月齢に応じた夜間帯での第1カメラパラメータと、昼間帯での第2カメラパラメータと、前記計算された日の出時刻を含む日の出帯でのカメラパラメータであって前記第1カメラパラメータと前記第2カメラパラメータとの間の値に設定した第3カメラパラメータと、前記計算された日の入り時刻を含む日の入り帯でのカメラパラメータであって前記第1カメラパラメータと前記第2カメラパラメータとの間の値に設定した第4カメラパラメータとから構成される、前記撮影日でのカメラパラメータの時間関数を決定する決定部と、
     前記決定された時間関数を用いて、前記撮影日での前記カメラのカメラパラメータを撮影する時刻に応じて決定し、前記カメラに設定する制御部とを備える撮影制御装置。
  2.  カメラパラメータは、F値、ISO感度、又は、露光時間であることを特徴とする請求項1記載の撮影制御装置。
  3.  前記第2計算部は、新月期、半月期及び満月期のいずれかを月齢の計算結果とすることを特徴とする請求項1記載の撮影制御装置。
  4.  前記取得部は、外部装置から前記撮影日情報を取得することを特徴とする請求項1記載の撮影制御装置。
  5.  前記決定部は、前記撮影日の前日の夜間帯での第1カメラパラメータを前記撮影日の夜間帯での第1カメラパラメータとするとともに、当該第1カメラパラメータと前記第2カメラパラメータとを用いて、前記第3カメラパラメータ及び前記第4カメラパラメータを設定することで、前記撮影日でのカメラパラメータの時間関数を仮決定し、
     前記第2計算部により計算された月齢が前記撮影日の前日の月齢と同じ場合、前記仮決定した時間関数を、前記撮影日でのカメラパラメータの時間関数として決定することを特徴とする請求項1記載の撮影制御装置。
  6.  取得部が、雲画像を撮影するカメラの位置を示す撮影位置情報と、前記カメラが撮影を行う撮影日を示す撮影日情報とを取得する取得ステップと、
     第1計算部が、前記撮影位置情報と前記撮影日情報とを用いて、前記位置における前記撮影日での日の出時刻及び日の入り時刻を計算する第1計算ステップと、
     第2計算部が、前記撮影日情報を用いて、前記撮影日での月齢を計算する第2計算ステップと、
     決定部が、前記計算された月齢に応じた夜間帯での第1カメラパラメータと、昼間帯での第2カメラパラメータと、前記計算された日の出時刻を含む日の出帯でのカメラパラメータであって前記第1カメラパラメータと前記第2カメラパラメータとの間の値に設定した第3カメラパラメータと、前記計算された日の入り時刻を含む日の入り帯でのカメラパラメータであって前記第1カメラパラメータと前記第2カメラパラメータとの間の値に設定した第4カメラパラメータとから構成される、前記撮影日でのカメラパラメータの時間関数を決定する決定ステップと、
     制御部が、前記決定された時間関数を用いて、前記撮影日での前記カメラのカメラパラメータを撮影する時刻に応じて決定し、前記カメラに設定する制御ステップとを備える撮影制御方法。
PCT/JP2017/045137 2017-12-15 2017-12-15 撮影制御装置、及び、撮影制御方法 WO2019116546A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018518673A JP6486561B1 (ja) 2017-12-15 2017-12-15 撮影制御装置、及び、撮影制御方法
PCT/JP2017/045137 WO2019116546A1 (ja) 2017-12-15 2017-12-15 撮影制御装置、及び、撮影制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/045137 WO2019116546A1 (ja) 2017-12-15 2017-12-15 撮影制御装置、及び、撮影制御方法

Publications (1)

Publication Number Publication Date
WO2019116546A1 true WO2019116546A1 (ja) 2019-06-20

Family

ID=65802990

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/045137 WO2019116546A1 (ja) 2017-12-15 2017-12-15 撮影制御装置、及び、撮影制御方法

Country Status (2)

Country Link
JP (1) JP6486561B1 (ja)
WO (1) WO2019116546A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH041735A (ja) * 1990-04-19 1992-01-07 Nikon Corp カメラの露出制御装置
JP2008292663A (ja) * 2007-05-23 2008-12-04 Fujifilm Corp カメラ及び携帯電子機器
JP2012004763A (ja) * 2010-06-16 2012-01-05 Nikon Corp カメラ

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH041735A (ja) * 1990-04-19 1992-01-07 Nikon Corp カメラの露出制御装置
JP2008292663A (ja) * 2007-05-23 2008-12-04 Fujifilm Corp カメラ及び携帯電子機器
JP2012004763A (ja) * 2010-06-16 2012-01-05 Nikon Corp カメラ

Also Published As

Publication number Publication date
JPWO2019116546A1 (ja) 2019-12-19
JP6486561B1 (ja) 2019-03-20

Similar Documents

Publication Publication Date Title
WO2020207239A1 (en) Method and apparatus for image processing
EP3758359A1 (en) Focusing method and device, electronic device and computer-readable storage medium
US8305452B2 (en) Remote determination of image-acquisition settings and opportunities
CN101877753B (zh) 图像处理设备、图像处理方法
JP5493456B2 (ja) 画像処理装置、画像処理方法、プログラム
CN109218627B (zh) 图像处理方法、装置、电子设备及存储介质
US8515270B1 (en) System and method for improved time-lapse photography
US20200053276A1 (en) Method for processing image based on scene recognition of image and electronic device therefor
US20180048829A1 (en) Low complexity auto-exposure control for computer vision and imaging systems
US20130329940A1 (en) Image processing apparatus, control method of image processing apparatus, and storage medium
WO2016013974A1 (en) Image capturing device and method
CN108848306B (zh) 图像处理方法和装置、电子设备、计算机可读存储介质
US11977319B2 (en) Saliency based capture or image processing
CN110956679A (zh) 图像处理方法和装置、电子设备、计算机可读存储介质
WO2019116546A1 (ja) 撮影制御装置、及び、撮影制御方法
US11172141B2 (en) Method and apparatus for composing images of celestial bodies
CN108881740B (zh) 图像方法和装置、电子设备、计算机可读存储介质
WO2023110880A1 (en) Image processing methods and systems for low-light image enhancement using machine learning models
US20160156825A1 (en) Outdoor exposure control of still image capture
CN111355896B (zh) 获取全天相机的自动曝光参数的方法
JP2017176059A (ja) 箱罠制御システム、制御装置、箱罠制御方法および箱罠制御プログラム
EP4209989A1 (en) Device and method for generating image in which subject has been captured
US20230186612A1 (en) Image processing methods and systems for generating a training dataset for low-light image enhancement using machine learning models
JP5772044B2 (ja) 撮像装置、撮像方法及びプログラム
Cai Using high dynamic range photogrammetry for luminance mapping of the Sky and the Sun

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2018518673

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17934988

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17934988

Country of ref document: EP

Kind code of ref document: A1