WO2018083858A1 - 移動撮像システム及び撮像方法 - Google Patents

移動撮像システム及び撮像方法 Download PDF

Info

Publication number
WO2018083858A1
WO2018083858A1 PCT/JP2017/029726 JP2017029726W WO2018083858A1 WO 2018083858 A1 WO2018083858 A1 WO 2018083858A1 JP 2017029726 W JP2017029726 W JP 2017029726W WO 2018083858 A1 WO2018083858 A1 WO 2018083858A1
Authority
WO
WIPO (PCT)
Prior art keywords
camera
imaging
image
time
moving body
Prior art date
Application number
PCT/JP2017/029726
Other languages
English (en)
French (fr)
Inventor
恵美子 倉田
河野 裕之
敬太 望月
琢也 野口
秀 多久島
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2018548561A priority Critical patent/JP6627986B2/ja
Publication of WO2018083858A1 publication Critical patent/WO2018083858A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present invention relates to a moving imaging system that images the periphery of a moving body using a plurality of cameras mounted on the moving body, and an imaging method using the moving imaging system.
  • a moving imaging system that is a system that mounts a camera on a moving body and images around the moving body while moving is known.
  • a system that images a wall surface of a tunnel while moving is known.
  • a plurality of cameras are installed in a direction perpendicular to the moving direction of the moving object, and the wall surface of the tunnel is divided into a plurality of regions in the circumferential direction of the tunnel and imaged.
  • the captured image is used in an inspection system or the like that detects a crack or the like generated on the tunnel wall surface.
  • Patent Document 1 discloses that a tunnel wall surface is imaged using a plurality of cameras.
  • An object of the present invention is to suppress the maximum power consumption in a mobile imaging system that captures the periphery of a moving body using a plurality of cameras.
  • the mobile imaging system of the present invention is installed in a mobile body and captures a first imaging region around the mobile body to acquire a first image
  • the mobile camera is installed in the mobile body and has a first A first illumination device that illuminates the imaging area and a second imaging area that is installed on the moving body and has a circumferential position around the traveling direction of the moving body that is different from the first imaging area
  • the second camera that acquires the second image, the second lighting device that is installed on the moving body and illuminates the second imaging region, and the first lighting device and the second lighting device do not emit light simultaneously.
  • the first illumination device emits light to illuminate the first imaging region
  • the first camera acquires the first image
  • the second illumination device emits light to emit the second image.
  • a control unit that controls the second camera to acquire the second image while illuminating the area. That.
  • FIG. 1 is a system configuration diagram illustrating an imaging system according to Embodiment 1 of the present invention. It is a schematic diagram which shows the imaging control sequence in the imaging system by Embodiment 1 of this invention. It is a figure which shows an example of the positional relationship of the imaging area in the image acquired with the imaging system by Embodiment 1 of this invention. It is a figure which shows an example of the positional relationship of the imaging area in the image acquired with the imaging system by Embodiment 1 of this invention. It is a figure which shows another example of the positional relationship of the imaging region in the image acquired with the imaging system by Embodiment 1 of this invention.
  • FIG. 1 shows another example of the positional relationship of the imaging region in the image acquired with the imaging system by Embodiment 1 of this invention. It is a figure which shows the flow of operation
  • FIG. 1 It is a figure which shows an example of the hardware constitutions of the imaging system by Embodiment 1 of this invention. It is a figure for demonstrating the effect of the imaging system by Embodiment 1 of this invention. It is a figure for demonstrating the effect of the imaging system by Embodiment 1 of this invention. It is a schematic diagram which shows the imaging control sequence in the imaging system by Embodiment 2 of this invention. It is a figure which shows the flow of operation
  • FIG. 1 is a front view of a moving body 1 equipped with an imaging system according to Embodiment 1 of the present invention when viewed from a traveling direction.
  • FIG. 1 is a conceptual diagram for explaining a schematic configuration of the imaging system according to the present embodiment.
  • the imaging system according to the present embodiment is a moving imaging system that captures an imaging area around the moving body 1 with a camera mounted on the moving body 1, and the position of the imaging area changes as the moving body 1 moves. To do.
  • the moving body 1 is provided with a first camera 11 and a first illumination device 12 so as to image the first visual field 13.
  • the second camera 14 and the second illumination device 15 are installed so as to image the second field of view 16, and the third camera 17 and the third illumination so as to image the third field of view 19.
  • a device 18 is installed.
  • Each camera is installed on the moving body 1 so as to capture images of one area different from each other among the plurality of areas, and each illumination device is installed so as to illuminate the area captured by each camera.
  • a plurality of sets of imaging devices including a camera and a lighting device are mounted on the moving body 1.
  • the first camera 11 and the first lighting device 12 are a set of first imaging devices
  • the second camera 14 and the second lighting device 15 are a set of second imaging devices
  • a third The camera 17 and the third illumination device 18 are a set of the third imaging device.
  • Each illumination device illuminates an area captured by cameras belonging to the same set.
  • the first visual field 13 corresponds to a first imaging area captured by the first camera 11, and the first illumination device 12 illuminates the first imaging area.
  • the second visual field 16 corresponds to a second imaging area captured by the second camera 14, and the second illumination device 15 illuminates the second imaging area.
  • the third visual field 19 corresponds to a third imaging area captured by the third camera 17, and the third illumination device 18 illuminates the third imaging area.
  • the imaging target extends in the circumferential direction with the traveling direction of the moving body 1 as an axis, and the entire circumferential direction of the imaging target is imaged by the first camera 11, the second camera 14, and the third camera 17.
  • the imaging target is, for example, the tunnel wall surface 100 in the present embodiment.
  • the second visual field 16 is different from the first visual field 13 in the circumferential position.
  • the third visual field 19 is different from the first visual field 13 and the second visual field 16 in the circumferential position. Further, the circumferential position of the third visual field 19 is opposite to the first visual field 13 with respect to the position of the second visual field 16.
  • the moving body 1 is a vehicle that moves on a road such as an automobile, a truck, a motorcycle, a bicycle, a railroad car, a carriage that a person moves such as a wheelbarrow, a railway that includes a subway, a vehicle that moves on a track such as a monorail, Any moving object such as a ship or a flying object may be used.
  • the first camera 11, the second camera 14, and the third camera 17 are a digital camera, a video camera, or the like equipped with a light receiving element such as a line imaging element or a two-dimensional imaging element.
  • the sensitivity wavelength regions of the first camera 11, the second camera 14, and the third camera 17 may be ultraviolet, visible, near infrared, far infrared, or terahertz regions.
  • a first visual field 13 corresponding to the first camera 11, a second visual field 16 corresponding to the second camera 14, and a third visual field 19 corresponding to the third camera 17 are provided.
  • the number of cameras may be increased or decreased according to the area to be imaged. For example, when the area to be imaged is wide in the circumferential direction, the number of cameras to be used may be increased. In addition, when the area to be imaged is narrow in the circumferential direction, the number of cameras to be used may be reduced. Further, when it is desired to capture the circumferential region of the tunnel wall surface 100 without any gap, the first field of view 13, the second field of view 16, and the third field of view 19 may be set to overlap each other as shown in FIG. good.
  • the wall surface of the tunnel is imaged, but the imaging system of the present invention is not limited to this.
  • the imaging system of the present invention is not limited to one that images a tunnel as long as it captures the surroundings of a moving body.
  • a camera toward the side of the moving body 1 and to image a target such as a wall surface or a building existing on the side of the moving body 1.
  • a plurality of cameras may be installed toward the left and right sides of the moving body 1, or a plurality of cameras may be installed at different angles in the height direction.
  • the angle of view of each camera is the same and the distance to the imaging target is the same for each camera.
  • the present invention is not limited to this. The angle of view and shooting distance may be different.
  • the first illuminating device 12, the second illuminating device 15, and the third illuminating device 18 emit light to the areas captured by the first camera 11, the second camera 14, and the third camera 17, respectively. It is easy to irradiate and image, and is installed on the moving body 1 in one-to-one correspondence with each camera.
  • each lighting device is realized using a semiconductor light emitting element such as a laser diode or a light emitting diode, an incandescent lamp, a halogen lamp, a metal halide lamp, or the like.
  • the wavelength irradiated from each illuminating device may be any of ultraviolet, visible, near infrared, and far infrared, and may be in the terahertz region. The wavelength irradiated from each illumination device is selected in consideration of the object to be imaged, the shape, the sensitivity wavelength of the camera, the influence of ambient light, and the like.
  • the range illuminated by the first lighting device 12 includes the first visual field 13
  • the range illuminated by the second lighting device 15 includes the second visual field 16
  • the range illuminated by the third lighting device 18 is the first. 3 fields of view 19 are included.
  • each field of view is illuminated with a light amount that is as uniform as possible, when it is desired to create a light / dark distribution intentionally in the field of view, each illumination device is designed as such.
  • the range and the amount of light illuminated by each lighting device are adjusted by the number and arrangement of light emitting elements, a condensing lens, and a mirror.
  • the object to be imaged has a size that does not fit within the field of view of a single camera, such as a road or railway tunnel wall, bridge floor, bridge superstructure or substructure, building wall, harbor, airport, bank, slope, etc. It becomes a structure and is not limited to a specific thing.
  • This embodiment can be applied to imaging using a plurality of cameras, including the case where it is desired to increase the resolution of an image by combining images captured in small areas in a crack inspection or the like.
  • FIG. 2 is a system configuration diagram showing the configuration of the imaging system of the present embodiment.
  • the control unit 2 includes a time acquisition unit 31, a speed acquisition unit 32, a first camera 11, a first illumination device 12, a second camera 14, a second illumination device 15, a third camera 17, and a third camera.
  • a control pattern signal is sent to the illumination device 18.
  • the control pattern signal is a signal for controlling the operation timing of each camera and each illumination device. Based on the control pattern signal, imaging by each camera and illumination by each illumination device are turned on and off.
  • the control pattern signal may be turned on or off only for the lighting device, may be turned on or off only for imaging, or both.
  • the control pattern signal includes an imaging control signal that controls the operation of each camera, an illumination control signal that controls the operation of each illumination device, and a data acquisition control signal that controls the operations of the time acquisition unit 31 and the speed acquisition unit 32.
  • the imaging control signal, illumination control signal, and data acquisition control signal have two states, ON and OFF.
  • the control unit 2 turns on the imaging of the camera by turning on the imaging control signal, and turns off the imaging of the camera by turning off the imaging control signal.
  • the control unit 2 turns on the lighting device by turning on the lighting control signal, and turns off the lighting device by turning off the lighting control signal.
  • turning on imaging means that the camera starts exposure.
  • turning off imaging means that the camera ends the exposure. That is, the period in which the imaging control signal is ON is the period in which the camera is in the exposure state. A period during which the camera is in an exposure state is called an exposure period. The length of the exposure period is called the exposure time.
  • turning on the lighting device means lighting the lighting device.
  • turning off the lighting device means turning off the lighting device. That is, the period during which the illumination control signal is ON is the period during which the illumination device emits light. The period during which the lighting device emits light is called a light emission period. The length of the light emission period is called the light emission time.
  • each camera and each illumination device is controlled by the control pattern signal, but is not limited to the control pattern signal, and the operation of each camera and each illumination device. Can be switched individually.
  • the control method for causing the time acquisition unit 31 and the speed acquisition unit 32 to acquire the time and speed is not limited.
  • the speed acquisition unit 32 may be a speed measuring device that measures the moving speed of the moving body 1 or may acquire speed data measured by a measuring device provided outside.
  • the speed acquisition part 32 can be comprised with the electronic computer or electronic circuit provided with the interface which acquires data.
  • the time acquisition unit 31 can be configured by an electronic computer or an electronic circuit.
  • Each camera starts exposure when the imaging control pattern signal is turned on, and ends exposure when the imaging control signal is turned off. Through this series of operations, each camera captures one image.
  • the captured image is sent from each camera to the image data storage unit 41 and stored in the image data storage unit 41.
  • the stored image data is sent to the image processing unit 5, and a plurality of images captured by each camera are combined to generate a single combined image.
  • the location of the image processing unit 5 is not limited, and may be in the moving body 1 or on an external cloud.
  • the image synthesized by the image processing unit is sent to the outside and used for inspecting whether there is an abnormality in the tunnel wall surface 100.
  • the time when the imaging of each camera is turned on is acquired by the time acquisition unit 31 based on the data acquisition control signal.
  • the acquired time data is stored in the time data storage unit 43 in association with each image as the time when the image was acquired.
  • the speed acquisition unit 32 acquires the speed of the moving body 1 when the imaging of each camera is turned on.
  • the acquired speed data is stored in the speed data storage unit 42 in association with each image as a speed when the image is captured. That is, the speed data storage unit 42 functions as a data storage unit.
  • the data storage unit 4 includes an image data storage unit 41, a speed data storage unit 42, and a time data storage unit 43. That is, each data is stored in the data storage unit 4. The association between the image and the acquired speed will be described later.
  • the time when the imaging of each camera is turned on and the speed of the moving body 1 when the imaging of each camera is turned on are acquired. It is not limited to this. You may acquire time and speed in arbitrary timings in the period when imaging of each camera is ON. Further, as the speed of the moving body 1, an average speed while the imaging of each camera is ON may be used.
  • FIG. 3 illustrates an example of temporal changes in the imaging control signal received by each camera, the illumination control signal received by each lighting device, and the data acquisition control signal received by the time acquisition unit 31 and the speed acquisition unit 32 in the imaging system according to the present embodiment. Is shown. That is, FIG. 3 shows an example of an imaging control sequence in the imaging system of the present embodiment. In FIG. 3, the horizontal axis represents time, and the vertical axis represents the state of each signal (ON or OFF).
  • the imaging control signal includes a first imaging control signal, a second imaging control signal, and a third imaging control signal.
  • the first camera receives the first imaging control signal, and imaging by the first camera is controlled by the first imaging control signal.
  • the second camera receives the second imaging control signal, and imaging by the second camera is controlled by the second imaging control signal.
  • the third camera receives the third imaging control signal, and imaging by the third camera is controlled by the third imaging control signal.
  • the illumination control signal includes a first illumination control signal, a second illumination control signal, and a third illumination control signal.
  • the first lighting device receives the first lighting control signal, and lighting by the first lighting device is controlled by the first lighting control signal.
  • the second lighting device receives the second lighting control signal, and the lighting by the second lighting device is controlled by the second lighting control signal.
  • the third lighting device receives the third lighting control signal, and lighting by the third lighting device is controlled by the third lighting control signal.
  • the first imaging control signal is a signal that controls ON and OFF of imaging by the first camera 11.
  • the first illumination control signal is a signal for controlling ON / OFF of illumination by the first illumination device 12.
  • the second imaging control signal is a signal for controlling ON / OFF of imaging by the second camera 14.
  • the second illumination control signal is a signal for controlling ON / OFF of illumination by the second illumination device 15.
  • the third imaging control signal is a signal for controlling ON / OFF of imaging by the third camera 17.
  • the third illumination control signal is a signal for controlling ON / OFF of illumination by the third illumination device 18.
  • the control unit 2 performs the imaging by the second camera 14 and the second illumination device 15. The lighting is controlled to be turned on. In addition, after the imaging by the second camera 14 and the illumination by the second illumination device 15 are turned off, the control unit 2 turns on the imaging by the third camera 17 and the illumination by the third illumination device 18. Control to become. In addition, after the imaging by the third camera 17 and the illumination by the third illumination device 18 are turned off, the control unit 2 turns on the imaging by the first camera 11 and the illumination by the first illumination device 12. Control to become.
  • the time when the imaging by the first camera 11 and the illumination by the first illumination device 12 are turned on is t1, and the time when the imaging by the first camera 11 and the illumination by the first illumination device 12 is turned off is t2. .
  • the time when the imaging by the second camera 14 and the illumination by the second illumination device 15 are turned on is t3, and the time when the imaging by the second camera 14 and the illumination by the second illumination device 15 is turned off is t4.
  • the time when the imaging by the third camera 17 and the illumination by the third illumination device 18 are turned on is t5, and the time when the imaging by the third camera 17 and the illumination by the third illumination device 18 are turned off is t6. .
  • the data acquisition operation by the time acquisition unit 31 and the speed acquisition unit 32 is controlled by a data acquisition control signal.
  • the data acquisition control signal is turned from OFF to ON, the time acquisition unit 31 and the speed acquisition unit 32 acquire time data and speed data.
  • FIGS. 4A and 4B are diagrams in which the tunnel wall surface 100 is developed in a plane.
  • 4A and 4B indicate the position Z of the moving body 1 in the traveling direction.
  • the vertical direction of FIG. 4A and FIG. 4B has shown the position of the tunnel wall surface 100 in the circumferential direction of a tunnel.
  • FIGS. 4A and 4B are the cylindrical coordinate.
  • the position Z in the axial direction of the system is represented, and the vertical direction in FIGS. 4A and 4B represents the position ⁇ in the circumferential direction of the cylindrical coordinate system.
  • imaging areas A1 and A2 represent ranges captured in images A-1 and A-2 acquired by the first camera 11, and A1 and A2 are captured. The timing is different.
  • the imaging regions B1 and B2 represent ranges captured in the images B-1 and B-2 acquired by the second camera 14, and the imaging regions C1 and C2 are acquired by the third camera 17. The range captured in the acquired images C-1 and C-2 is shown.
  • the images A-1 and A-2 acquired by the first camera 11 are called first images
  • the images B-1 and B-2 acquired by the second camera 14 are second images
  • the images C-1 and C-2 acquired by the third camera 17 are called third images.
  • the imaging area A1 and the imaging area A2 are referred to as a first imaging area
  • the imaging area B1 and the imaging area B2 are referred to as a second imaging area
  • the imaging area C1 and the imaging area C2 are referred to as a third imaging area.
  • Z1 indicates the amount of difference between the position of the imaging region A1 and the position of the imaging region B1 in the traveling direction of the moving body 1
  • Z2 is the position of the imaging region A1 in the traveling direction of the moving body 1.
  • the amount of difference from the position of the imaging region A2 is shown.
  • the first imaging area, the second imaging area, and the third imaging area may partially overlap each other.
  • the first visual field 13, the second visual field 16, and the third visual field 19 may overlap.
  • FIG. 4A and FIG. 4B the case where the moving speed of the mobile body 1 does not change is assumed.
  • the first imaging control signal and the first illumination control pattern signal are turned on at time t1
  • the first camera 11 starts exposure and the first illumination device 12 starts light emission.
  • the first imaging control signal and the first illumination control signal are turned off at time t2
  • the first camera 11 ends the exposure, and the first illumination device 12 ends the light emission.
  • the first camera 11 captures an area A1 in FIG. 4A and generates an image A-1.
  • the image A-1 is stored in the image data storage unit 41 in the data storage unit 4.
  • the first camera 11 and the first lighting device 12 are separately controlled. However, the first camera and the first lighting device may be controlled by one control pattern signal. The method of control is not limited.
  • the time acquisition unit 31 starts acquiring the time
  • the speed acquisition unit 32 starts acquiring the moving speed of the moving body 1.
  • the data acquisition control signal is turned off at time t2
  • the obtained time data is stored in the time data storage unit 43 in the data storage unit 4
  • the obtained speed data is stored in the speed data storage unit in the data storage unit 4. 42 is stored.
  • the acquired time data and speed data are stored in association with each other.
  • the speed acquisition unit 32 acquires a speed measured by a vehicle speed measuring device, an odometer, a pitot tube, or the like using a laser or radio waves.
  • the speed acquisition unit 32 itself may measure the speed.
  • the second camera 14 starts exposure and the second illumination device 15 starts light emission. Since the time t3 is later than the time t2, when the exposure of the second camera 14 and the light emission of the second illumination device are started, the first camera 11 is not exposed and the first illumination device 12 emits light. Not done.
  • the second imaging control signal and the second illumination control signal are turned off at time t4, the second camera 14 ends the exposure, and the second illumination device 15 ends the light emission.
  • the second camera 14 captures an area B1 in FIG. 4A and generates an image B-1.
  • the image B-1 is stored in the image data storage unit 41 in the data storage unit 4. Since the moving body 1 is moving, the range B1 imaged by the second camera 14 is moved in the traveling direction as compared to the range A1 imaged by the first camera 11 as shown in FIG. 4A. It becomes a range.
  • the time acquisition unit 31 starts acquiring the time
  • the speed acquisition unit 32 starts acquiring the moving speed of the moving body 1.
  • the data acquisition control signal is turned off at time t4
  • the obtained time data is stored in the time data storage unit 43 in the data storage unit 4
  • the obtained speed data is stored in the speed data storage unit in the data storage unit 4. 42 is stored.
  • the acquired time data and speed data are stored in association with each other.
  • the third camera 17 starts exposure and the third illumination device 18 starts light emission. Since the time t5 is later than the time t4, when the exposure of the third camera 17 and the light emission of the third illumination device 18 are started, the second camera 14 is not exposed and the second illumination device 15 There is no light emission.
  • the third imaging control signal and the third illumination control signal are turned off at time t6, the third camera 17 ends the exposure, and the third illumination device 18 ends the light emission.
  • the third camera 17 captures the range C1 in FIG. 4A and generates an image C-1.
  • the image C-1 is stored in the image data storage unit 41 in the data storage unit 4. Since the moving body 1 is moving, the range C1 imaged by the third camera 17 has moved in the traveling direction as compared to the range B1 imaged by the second camera 14 as shown in FIG. 4A. It becomes a range.
  • the time acquisition unit 31 starts acquiring the time
  • the speed acquisition unit 32 starts acquiring the moving speed of the moving body 1.
  • the data acquisition control signal is turned off at time t6
  • the obtained time data is stored in the time data storage unit 43 in the data storage unit 4
  • the obtained speed data is stored in the speed data storage unit in the data storage unit 4. 42 is stored.
  • the acquired time data and speed data are stored in association with each other.
  • control unit 2 performs control so that the period in which each camera is in an exposure state does not overlap with any period in which other cameras are in an exposure state. It is not limited to. If the control part 2 controls the light emission period of each illuminating device so that all the some illuminating devices may not light simultaneously, the effect which reduces peak electric power can be acquired. In the present embodiment, the control unit 2 generates the control pattern signal to control the operation timing of each camera and each lighting device. However, the control method is not limited to this. .
  • the operation sequence shown in FIG. 3 is merely an example.
  • the control unit 2 turns on the first imaging control signal, the first illumination control control pattern signal, and the data acquisition pattern signal at time t1.
  • the control unit 2 does not necessarily have to be turned on at the same time.
  • the control unit 2 may be turned on in the order of the first illumination control control pattern signal, the first imaging control signal, and the data acquisition pattern signal.
  • the control unit 2 turns off the first imaging control signal, the first illumination control control pattern signal, and the data acquisition pattern signal at time t2.
  • the control unit 2 does not necessarily have to be turned off at the same time.
  • the control unit 2 may turn off the data acquisition pattern signal, the first imaging control signal, and the first illumination control control pattern signal in this order.
  • the operation after the time t7 is the same as the operation after the time t1, and the first camera 11 captures the range A2 in FIG. 4B to generate the image A-2, and the second camera 14
  • the third camera 17 captures the range C2 of FIG. 4B and generates an image C-2.
  • the time acquisition unit 31 and the speed acquisition unit 32 acquire time data and speed data when each camera acquires an image.
  • the time t7 is after the time t6 and is a time such that the range A1 captured by the image A-1 and the range A2 captured by the image A-2 partially overlap. This is to prevent occurrence of a defect in the imaged range when consecutive images in the traveling direction are connected.
  • the time from time t1 to time t7 is determined in consideration of the angle of view of each camera and the assumed moving speed of the moving body 1.
  • the reason for storing the time at which an image is acquired by each camera and the speed of the moving body 1 at that time is to combine and synthesize a plurality of images acquired at different times by each camera. This is because information on the speed of the moving body 1 when each image is acquired is necessary. Since each camera acquires an image at a different time, when there is a change in the speed of the moving body 1, the speed of the moving body 1 when the image is acquired differs depending on the camera to be imaged. As a result, the amount of movement of the moving body 1 during the exposure period when acquiring an image differs depending on the camera, and the imaged range also varies depending on the camera. Therefore, in order to synthesize images acquired by the cameras, it is necessary to consider this change in the imaging area. Details of the synthesis in consideration of the variation in the imaging area of the image will be described later.
  • the exposure periods of the cameras do not overlap at all, and the light emission periods of the illumination devices do not overlap at all.
  • the total exposure time of the first camera 11, the second camera 14, and the third camera 17 is the first camera 11. It is assumed that the period is shorter than the imaging cycle.
  • the imaging cycle of the first camera 11 refers to the time from when the first camera 11 starts exposure until the first camera 11 starts next exposure, and from t1 to t7 in FIG. Refers to the time until.
  • the imaging cycle is also called a frame time.
  • each camera has the same performance, and it is assumed that the exposure time of each camera and the frame time of each camera are equal.
  • the exposure time or the frame time of each camera may be different without being limited to this condition.
  • the light emission periods of the respective lighting devices are arranged in a distributed manner within the frame time.
  • the present invention is not limited to this, and all the lighting devices may not emit light simultaneously.
  • each camera, the speed acquisition unit 32, and the time acquisition unit 31 have a clock inside, and can acquire internal time data. All clocks are time synchronized with the required accuracy. Furthermore, the image data acquired by each camera and the speed data acquired by the speed acquisition unit 32 are stored in the data storage unit 4 together with the respective internal time data. In this case, by using the time data acquired by the time acquisition unit 31 and associating the image data acquired at the same time with the speed data, the control unit 2 determines the moving speed when the image is acquired. It can be stored in association with data.
  • the control unit 2 supplies the time data acquired by the time acquisition unit 31 to each camera and speed acquisition unit 32, so that the same time is obtained.
  • Speed data and image data can be stored in association with each other.
  • the control unit 2 can associate the image data with the speed data when the image data is acquired without using the time data. For example, by assigning data numbers to the image data and the speed data and managing the data numbers, the control unit 2 can associate the image data with the speed data when the image data is acquired.
  • the various data stored in the data storage unit 4 is further sent to the image processing unit 5.
  • the image processing unit 5 performs processing for appropriately pasting the image data sent from the image data storage unit 41. Since each camera acquires images at different times, the acquired images are obtained by capturing different ranges in the traveling direction z of the moving body 1 as shown in FIGS. 4A and 4B.
  • the image processing unit 5 generates an image synthesized so as to be a continuous image in the circumferential direction in consideration of a difference in imaging regions.
  • the image processing unit 5 combines the images A-1, B-1, and C-1 in consideration of the difference in the positions of the imaging areas A1, B1, and C1 in the traveling direction of the moving body 1.
  • the image processing unit 5 combines the images A-2, B-2, and C-2 in consideration of the difference in the positions of the imaging areas A2, B2, and C2 in the traveling direction of the moving body 1.
  • the image processing unit 5 can obtain the amount of difference between the position of the imaging area A1 indicated by Z1 in FIG. 4A and the position of the imaging area B1, for example, by the calculation shown by the following equation (1).
  • va1 is the first moving speed, which is the speed of the moving body 1 when the first camera 11 images the imaging area A1.
  • t1 is the first time, which is the time when the first camera 11 images the imaging area A1.
  • T3 is the second time, which is the time when the second camera 14 images the imaging region B1.
  • the image processing unit 5 may obtain Z1 by, for example, calculation represented by the following formula (2).
  • vb1 is the second moving speed, which is the speed of the moving body 1 when the second camera 14 images the imaging region B1.
  • the image processing unit 5 combines the image A-1 and the image B-1 so that the relative position between the image A-1 and the image B-1 in the traveling direction of the moving body 1 corresponds to the difference amount Z1. Synthesize. At this time, the image processing unit 5 also considers the angle of view of each camera. That is, the image processing unit 5 determines the positional relationship between the first image and the second image in the traveling direction of the moving body 1 based on the moving speed of the moving body 1 and the difference in exposure start time of each camera. Then, the first image and the second image are combined.
  • the image processing unit 5 can obtain the amount of difference between the position of the imaging area A1 indicated by Z2 in FIG. 4A and the position of the imaging area A2, for example, by the calculation represented by the following equation (3).
  • vc1 is the third moving speed, which is the speed of the moving body 1 when the third camera 17 images the imaging area C1.
  • the image processing unit 5 may obtain Z2 by, for example, calculation represented by the following formula (4).
  • the image processing unit 5 synthesizes the images so that the obtained difference amount of the positions of the imaging regions is reflected and the positional relationship between the images is correct.
  • FIGS. 5A and 5B show another example of the positional relationship of the imaging regions in the image obtained by the control pattern signal of FIG. 5A and 5B show the positional relationship of the imaging regions when the moving speed of the moving body 1 is slow compared to FIGS. 4A and 4B.
  • the horizontal direction in FIGS. 5A and 5B represents the position Z in the axial direction of the cylindrical coordinate system
  • the vertical direction in FIGS. 5A and 5B represents the position ⁇ in the circumferential direction of the cylindrical coordinate system. ing.
  • the moving speed of the moving body 1 is slow, the distance that the moving body 1 moves within the same time becomes short.
  • the image processing unit 5 needs to synthesize the images in consideration of the speed of the moving body 1 when each image is acquired.
  • the positional relationship between the range A1 and the range A2 captured by the first camera 11 at different times also changes depending on the moving speed of the moving body 1. Therefore, when the image processing unit 5 synthesizes an image in the Z direction, which is the traveling direction of the moving body 1, it is necessary to consider the moving speed of the moving body 1.
  • the image processing unit 5 may perform a correction process for reducing the image blur. In this correction processing, the image processing unit 5 needs to consider the moving speed of the moving body 1 and the exposure time of each camera.
  • the image processing unit 5 obtains the distance that the moving body 1 has moved during the exposure period, and corrects the image blur according to the obtained distance.
  • the distance that the moving body 1 has moved during the exposure period corresponds to the exposure time and the moving speed of the moving body 1. Therefore, the image processing unit 5 estimates the degree of blur in each image based on the exposure time and the moving speed of the moving body 1, and corrects the image based on the estimated degree of blur.
  • the image processing unit 5 performs the correction process for reducing the blur in each image, it is preferable to perform the correction process before combining the images.
  • the image synthesized by the image processing unit 5 is sent to the outside.
  • the image sent to the outside is stored in a storage device (not shown).
  • the image sent to the outside is input to an inspection apparatus (not shown), and the inspection apparatus detects the presence / absence of a wall surface abnormality from the image. Cracks, water leaks, etc. can be considered as abnormalities on the wall surface.
  • the inspection apparatus detects that an abnormality exists, the inspection apparatus obtains the position of the detected abnormality on the tunnel wall surface.
  • FIG. 6 is a diagram showing a flow of operations in the imaging system of the present embodiment.
  • the control unit 2 determines whether or not the current time is a predetermined time.
  • the predetermined time in step S010 is t1 in FIG. If the predetermined time has not yet been reached, the control unit 2 waits until the predetermined time is reached. On the other hand, when the predetermined time is reached, the operation of the control unit 2 proceeds to step S020.
  • step S020 the control unit 2 causes the first camera 11 to acquire an image.
  • step S030 the control unit 2 determines whether or not the current time is a predetermined time.
  • the predetermined time in step S030 is t3 in FIG. If the predetermined time has not yet been reached, the control unit 2 waits until the predetermined time is reached. On the other hand, when it is a predetermined time, the operation of the control unit 2 proceeds to step S040.
  • step S040 the control unit 2 causes the second camera 14 to acquire an image.
  • step S050 the control unit 2 determines whether or not the current time is a predetermined time.
  • the predetermined time in step S050 is t5 in FIG. If the predetermined time has not yet been reached, the control unit 2 waits until the predetermined time is reached. On the other hand, when the predetermined time is reached, the operation of the control unit 2 proceeds to step S060.
  • step S060 the control unit 2 causes the third camera 17 to acquire an image.
  • step S070 the control unit 2 determines whether or not to end the image acquisition.
  • the control unit 2 determines to end image acquisition. If the image acquisition has not been completed yet, the operation of the control unit 2 returns to step S010. On the other hand, when the image acquisition ends, the operation of the control unit 2 proceeds to step S080.
  • step S080 the control unit 2 causes the image processing unit 5 to synthesize an image.
  • FIG. 7 is a diagram showing a flow of an operation for causing the first camera 11 to acquire an image in the imaging system of the present embodiment.
  • FIG. 7 shows details of the operation in step S020 of FIG.
  • the control unit 2 starts light emission of the first illumination device 12.
  • the control unit 2 starts exposure of the first camera 11.
  • the control unit 2 causes the time acquisition unit 31 to acquire time data and causes the speed acquisition unit 32 to acquire speed data. Note that the operations of step S021, step S022, and step S023 may be performed simultaneously.
  • the control unit 2 controls the first camera 11 to be exposed while the first illumination device 12 is emitting light.
  • step S024 the control unit 2 determines whether or not the current time is a predetermined time.
  • the predetermined time in step S024 is t2 in FIG. If the predetermined time has not yet been reached, the control unit 2 waits until the predetermined time is reached. On the other hand, when the predetermined time is reached, the operation of the control unit 2 proceeds to step S025.
  • step S ⁇ b> 025 the control unit 2 ends the exposure of the first camera 11.
  • step S026 the control unit 2 ends the light emission of the first lighting device 12.
  • step S027 the control unit 2 stores the acquired image, time data, and speed data in the data storage unit 4.
  • FIG. 8 is a diagram showing a flow of an operation for causing the second camera 14 to acquire an image in the imaging system of the present embodiment.
  • FIG. 8 shows details of the operation in step S040 of FIG.
  • the control unit 2 starts light emission of the second lighting device 15.
  • the control unit 2 starts exposure of the second camera.
  • the control unit 2 causes the time acquisition unit 31 to acquire time data and causes the speed acquisition unit 32 to acquire speed data. Note that the operations of step S041, step S042, and step S043 may be performed simultaneously.
  • the control unit 2 controls the second camera 14 to be exposed while the second illumination device 15 is emitting light.
  • step S044 the control unit 2 determines whether or not the current time is a predetermined time.
  • the predetermined time in step S044 is t4 in FIG. If the predetermined time has not yet been reached, the control unit 2 waits until the predetermined time is reached. On the other hand, when the predetermined time is reached, the operation of the control unit 2 proceeds to step S045.
  • step S045 the control unit 2 ends the exposure of the second camera 14.
  • step S046 the control unit 2 ends the light emission of the second lighting device 15.
  • step S047 the control unit 2 causes the data storage unit 4 to store the acquired image, time data, and speed data.
  • FIG. 9 is a diagram showing a flow of an operation for causing the third camera 17 to acquire an image in the imaging system of the present embodiment.
  • FIG. 9 shows details of the operation in step S060 of FIG.
  • the control unit 2 starts light emission of the third lighting device 18.
  • the control unit 2 starts exposure of the third camera 17.
  • the control unit 2 causes the time acquisition unit 31 to acquire time data and causes the speed acquisition unit 32 to acquire speed data. Note that the operations of step S061, step S062, and step S063 may be performed simultaneously.
  • the control unit 2 controls the third camera 17 to be exposed while the third lighting device 18 is emitting light.
  • step S064 the control unit 2 determines whether or not the current time is a predetermined time.
  • the predetermined time in step S064 is t6 in FIG. If the predetermined time has not yet been reached, the control unit 2 waits until the predetermined time is reached. On the other hand, when the predetermined time is reached, the operation of the control unit 2 proceeds to step S065.
  • step S ⁇ b> 065 the control unit 2 ends the exposure of the third camera 17.
  • step S066 ends the light emission of the third lighting device 18.
  • step S067 the control unit 2 causes the data storage unit 4 to store the acquired image, time data, and speed data. The above is the operation flow in the imaging system of the present embodiment.
  • FIG. 10 is a diagram illustrating an example of a hardware configuration of the imaging system according to the present embodiment.
  • the imaging system according to the present embodiment includes an input interface 21, a processor 22 such as a CPU (Central Processing Unit), a storage device 23, an output interface 24, a first camera 11, a second camera 14, a third camera 17, A first lighting device 12, a second lighting device 15, and a third lighting device 18 are provided.
  • the interface is denoted as IF.
  • the input IF 21, the processor 22, the storage device 23, and the output IF 24 can be a computer mounted on the mobile body 1.
  • the present invention is not limited to this, and some configurations may be incorporated in each camera or each lighting device.
  • the input IF 21, the processor 22, the storage device 23, and the output IF 24 may be constructed remotely on a network or virtually on the cloud.
  • the function of the data storage unit 4 is realized by the storage device 23.
  • the functions of the control unit 2, the speed acquisition unit 32, the time acquisition unit 31, and the image processing unit 5 are realized by the processor 22 executing a program stored in the storage device 23.
  • Speed data and time data are acquired via the input IF 21.
  • the input IF 21 and the output IF 24 are a wired port such as a cable port, a USB (Universal Serial Bus) port, a direct connection port, a wireless network port, and the like.
  • the storage device 23 is a storage medium such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), or a flash memory.
  • a method for inputting the control pattern signal a method of directly inputting the control pattern with a keyboard, a mouse or the like, a USB memory storing a previously created control pattern, an HDD or other external memory such as an HDD is connected to a wired or direct port and input. And a method of inputting a control pattern wirelessly via a network can be considered. Further, a program for generating a control pattern signal may be stored in the storage device 23.
  • FIG. 11A and FIG. 11B are diagrams for explaining the effect of the imaging system of the present embodiment.
  • the horizontal axis represents time
  • the vertical axis represents the power required to cause each lighting device to emit light.
  • P the power required for causing each of the first lighting device 12, the second lighting device 15, and the third lighting device 18 to emit light.
  • FIG. 11A shows the time change of power required in the imaging system of the present embodiment, and shows the time change of power required when each lighting device is controlled by the control pattern signal shown in FIG. ing.
  • the 1st illumination device 12 since the 1st illumination device 12 light-emits between the time t1 and t2, the electric power P is required.
  • the 2nd illuminating device 15 since the electric power P is required.
  • the 3rd lighting device 18 light-emits between the time t5 to t6, the electric power P is required.
  • the 1st illuminating device 12 light-emits between the time t7 to t8, the electric power P is required.
  • the imaging system of the present embodiment is controlled so that the light emission periods of the lighting devices do not overlap each other, a large amount of power is not required instantaneously, and the maximum power consumption is suppressed.
  • FIG. 11B shows the time change of power required in the comparative example.
  • a comparative example is a case where it is controlled to turn on all the lighting devices at the same time and turn off all the lighting devices at the same time.
  • the imaging system according to the present embodiment since all of the first illumination device 12, the second illumination device 15, and the third illumination device 18 emit light from time t1 to time t2, the imaging system according to the present embodiment.
  • the maximum power consumption is tripled. In other words, in the imaging system of the present embodiment, the maximum power consumption is suppressed to 1/3 that of the comparative example.
  • each camera can be exposed at the same time. Therefore, since the image which imaged the same range in the advancing direction of the mobile body 1 can be acquired, the synthesis
  • the imaging device including the battery can be reduced in size and weight.
  • the amount of fuel consumed when the moving body 1 moves can be suppressed, and the moving body 1 can be downsized.
  • the imaging system according to the present embodiment can be easily mounted on a general vehicle that is not a micro airplane, a small ship, or a dedicated vehicle.
  • an inexpensive battery can be used, the price of the imaging system can be suppressed, and it can be widely spread.
  • the effect of reducing the maximum power consumption is greater than when imaging bright places.
  • FIG. 1 The hardware configuration and system configuration of the imaging system of the present embodiment are the same as those in the first embodiment.
  • the control pattern of each camera and each lighting device is different from that in the first embodiment.
  • the imaging system of Embodiment 1 it is assumed that the sum of the exposure times of the cameras and the sum of the light emission times of the illumination devices are shorter than the frame time.
  • the imaging system of the present embodiment it is assumed that the sum of the exposure times of the cameras or the sum of the light emission times of the illumination devices is longer than the frame time.
  • the angle of view of each camera is the same, and the distance to the imaging target is also the same for each camera.
  • the present invention is not limited to this, and can be applied even if the angle of view and the shooting distance of each camera are different.
  • the frame time of each camera is equal, the exposure time of each camera is equal, and the light emission time of each lighting device is also equal.
  • the exposure period of each camera within the frame time And the light emission period of each illuminating device can be disperse
  • the sum of the exposure time of each camera or the sum of the light emission time of each lighting device is longer than the frame time, at least part of the exposure period of each camera or the light emission time of each lighting device must overlap. become. In the imaging system of the present embodiment, even in such a case, control is performed so as to suppress the maximum power consumption as much as possible.
  • the imaging system requires a large number of cameras when the circumferential range of the imaging target is wide or when the cameras are arranged with a narrow angle of view in order to obtain a high resolution image.
  • the moving speed of the moving body 1 is fast, it is necessary to shorten the frame time in order to capture images so that the imaging regions overlap in the traveling direction.
  • the moving body 1 is equipped with a plurality of sets of imaging devices including a camera and an illumination device.
  • the first camera 11 and the first illumination device 12 shown in FIG. 1 are a set of the first imaging device
  • the second camera 14 and the second illumination device 15 are a set of the second imaging device.
  • the third camera 17 and the third illumination device 18 are a set of third imaging devices.
  • a first imaging device set and a second imaging device set can be considered.
  • the range illuminated by the first lighting device 12 and the range illuminated by the second lighting device 15 partially overlap.
  • the first illumination device 12 and the second illumination device 15 When the illuminance distribution of the illumination light from the first illumination device 12 and the second illumination device 15 is bright at the center of the illumination range and dark at the end of the illumination range, the first illumination device 12 and the second illumination device 12 When the illumination device 15 emits light simultaneously, a bright image can be obtained even at the end of each illumination range.
  • the illuminance distribution of the illumination light from the first illumination device 12 and the second illumination device 15 has sufficient brightness even at the end of the illumination range, the first illumination device 12 and the second illumination device 12 When the illumination device 15 is caused to emit light simultaneously, the portion where the illumination ranges overlap is too bright. In this case, overexposure may occur in the captured image. In such a case, the first imaging device set in which the fields of view overlap each other and the second imaging device set are not operated simultaneously, but the first imaging device set in which the fields of view do not overlap each other. And the third set
  • FIG. 12 illustrates an example of temporal changes in the imaging control signal received by each camera, the illumination control signal received by each lighting device, and the data acquisition control signal received by the time acquisition unit 31 and the speed acquisition unit 32 in the imaging system of the present embodiment. Is shown. That is, FIG. 12 shows an example of an imaging control sequence in the imaging system of the present embodiment.
  • FIG. 13 is a diagram illustrating a flow of operations in the imaging system according to the present embodiment. The operation of the imaging system according to the present embodiment will be described with reference to FIGS.
  • step S010 the control unit 2 determines whether or not the current time is a predetermined time.
  • the predetermined time in step S010 is t11 in FIG. If the predetermined time has not yet been reached, the control unit 2 waits until the predetermined time is reached. On the other hand, when the predetermined time is reached, the operation of the control unit 2 proceeds to step S020b.
  • step S020b the control unit 2 causes the first camera 11 and the third camera 17 to acquire images.
  • step S030 the control unit 2 determines whether or not the current time is a predetermined time.
  • the predetermined time in step S030 is t13 in FIG. If the predetermined time has not yet been reached, the control unit 2 waits until the predetermined time is reached. On the other hand, when it is a predetermined time, the operation of the control unit 2 proceeds to step S040.
  • step S040 the control unit 2 causes the second camera 14 to acquire an image.
  • step S070 the control unit 2 determines whether or not to end the image acquisition. If the image acquisition is not completed, the operation of the control unit 2 returns to step S010. On the other hand, when the image acquisition ends, the operation of the control unit 2 proceeds to step S080.
  • step S080 the control unit 2 causes the image processing unit 5 to synthesize an image.
  • FIG. 14 is a diagram showing a flow of operations for causing the first camera 11 and the third camera 17 to acquire images in the imaging system of the present embodiment.
  • FIG. 14 shows details of the operation in step S020b of FIG.
  • the control unit 2 starts light emission of the first lighting device 12 and the third lighting device 18.
  • the control unit 2 starts exposure of the first camera 11 and the third camera 17.
  • the control unit 2 causes the time acquisition unit 31 to acquire time data and causes the speed acquisition unit 32 to acquire speed data.
  • the operations of step S021b, step S022b, and step S023 may be performed simultaneously.
  • the control unit 2 performs control so that the first camera 11 is exposed while the first illumination device 12 is emitting light, and the third illumination device 18 is caused to emit light while the third illumination device 18 is emitting light.
  • the camera 17 is controlled to be exposed.
  • step S024 the control unit 2 determines whether or not the current time is a predetermined time.
  • the predetermined time in step S024 is t12 in FIG. If the predetermined time has not yet been reached, the control unit 2 waits until the predetermined time is reached. On the other hand, when the predetermined time is reached, the operation of the control unit 2 proceeds to step S025b.
  • step S025b the control unit 2 ends the exposure of the first camera 11 and the third camera 17.
  • step S026b the control unit 2 ends the light emission of the first lighting device 12 and the third lighting device 18.
  • step S027 the control unit 2 stores the acquired image, time data, and speed data in the data storage unit 4.
  • the control unit 2 in step S040 in FIG. 13 is the same as the operation shown in FIG.
  • the predetermined time in step S044 in FIG. 8 is t14 shown in FIG. 12 in the imaging system of the present embodiment.
  • the timings at which the first camera 11, the first lighting device 12, the third camera 17, and the third lighting device 18 are turned on are equal.
  • the timing when the second camera 14 and the second illumination device 15 are turned on is the first camera 11, the first illumination device 12, the third camera 17, and This is different from the timing when the third lighting device 18 is turned on.
  • the control unit 2 performs control so that the light emission periods of at least two illumination devices overlap. In the imaging control sequence shown in FIG. 12, the light emission period of the first illumination device 12 and the light emission period of the third illumination device 18 overlap.
  • FIGS. 15A and 15B show the positional relationship of the imaging regions in the image obtained by the control pattern signal of FIG.
  • the horizontal direction in FIGS. 15A and 15B represents the position Z in the axial direction of the cylindrical coordinate system.
  • the horizontal direction in FIGS. 15A and 15B represents the position Z of the moving body 1 in the traveling direction.
  • 15A and 15B represents the circumferential position ⁇ of the cylindrical coordinate system.
  • the imaging area A1 in the image A-1 and the imaging area C1 in the image C-1 have the same position in the traveling direction of the moving body 1.
  • the imaging area B1 in the image B-1 is different in the position in the traveling direction of the moving body 1 compared to the imaging area A1 and the imaging area C1.
  • the image processing unit 5 combines the image A-1 and the image B-1 so that the relative position between the image A-1 and the image B-1 in the traveling direction of the moving body 1 corresponds to the difference amount Z1. Synthesize. That is, the image processing unit 5 determines the positional relationship between the first image and the second image in the traveling direction of the moving body 1 based on the moving speed of the moving body 1 and the difference in exposure start time of each camera. Then, the first image and the second image are combined.
  • the imaging system of the present embodiment even when the sum of the exposure time of each camera or the sum of the light emission time of each lighting device is longer than the frame time, it can operate to suppress power consumption.
  • the control pattern signal of FIG. 12 when used, the maximum power consumption required for causing the lighting device to emit light can be suppressed to 2/3.
  • the imaging system of the present embodiment is effective when a large number of cameras are used or when the moving speed of the moving body 1 is high.
  • the parts different from the imaging system according to the first embodiment have been described. Other parts are the same as those in the imaging system of the first embodiment.
  • Embodiment 3 In order to simplify the description, in the imaging systems of Embodiment 1 and Embodiment 2, the exposure time of all cameras is the same, the light emission times of all the illumination devices are the same, and all the cameras The case where the frame time and the angle of view are the same is illustrated. However, the imaging system in the present invention is not limited to such conditions. In the imaging system of the present embodiment, the exposure time and the frame time are controlled to be different for each camera, and the light emission time is controlled to be different for each illumination device.
  • the imaging system of the present embodiment even in such a case, it is possible to suppress the maximum power consumption required for causing the lighting device to emit light.
  • the hardware configuration and system configuration of the imaging system of the present embodiment are the same as those of the imaging system of the first embodiment.
  • the control pattern signal generated by the control unit 2 is different from that in the imaging system of the first embodiment.
  • the reason for controlling the exposure time and the frame time to be different between cameras is as follows. For example, when the angle of view in the traveling direction of the first camera 11 is only half that of the second camera 14 and the third camera 17, assuming that all the cameras have the same frame time, the first camera 11 has the moving body 1. There is a possibility that it is impossible to capture an image without any leakage in the traveling direction. On the other hand, if the frame time of all the cameras is shortened so that the first camera 11 can capture images without omission, the imaging areas of the second camera 14 and the third camera 17 overlap in the traveling direction of the moving body 1. Many areas will occur. Therefore, it is desirable to shorten the frame time of the first camera 11 as compared with the frame times of the second camera 14 and the third camera 17.
  • the imaging area of the first camera 11 is also narrowed.
  • the illumination range of the first illumination device 12 is made narrower than the illumination range of the other illumination devices, so that the first illumination device 12 uses other illumination with the same power consumption.
  • the imaging area can be illuminated brighter than the device. As a result, the exposure time of the first camera can be shortened, and deterioration in image quality due to motion blur can be suppressed.
  • FIG. 16 illustrates an example of temporal changes in the imaging control signal received by each camera, the illumination control signal received by each lighting device, and the data acquisition control signal received by the time acquisition unit 31 and the speed acquisition unit 32 in the imaging system of the present embodiment. Is shown. That is, FIG. 16 shows an example of an imaging control sequence in the imaging system of the present embodiment.
  • FIG. 17 is a diagram showing a flow of operations in the imaging system of the present embodiment. The operation of the imaging system according to the present embodiment will be described with reference to FIGS.
  • step S010c the control unit 2 determines whether or not the current time is a predetermined time.
  • the predetermined time in step S010c is t21 in FIG. If the predetermined time has not yet been reached, the control unit 2 waits until the predetermined time is reached. On the other hand, when it is a predetermined time, the operation of the control unit 2 proceeds to step S020c.
  • step S020c the control unit 2 causes the first camera 11 to acquire an image.
  • step S030 the control unit 2 determines whether or not the current time is a predetermined time.
  • the predetermined time in step S030 is t22 in FIG. If the predetermined time has not yet been reached, the control unit 2 waits until the predetermined time is reached. On the other hand, when it is a predetermined time, the operation of the control unit 2 proceeds to step S040.
  • step S040 the control unit 2 causes the second camera 14 to acquire an image.
  • step S010d the control unit 2 determines whether or not the current time is a predetermined time.
  • the predetermined time in step S010d is t23 in FIG. If the predetermined time has not yet been reached, the control unit 2 waits until the predetermined time is reached. On the other hand, when the predetermined time is reached, the operation of the control unit 2 proceeds to step S020d.
  • step S020d the control unit 2 causes the first camera 11 to acquire an image.
  • step S050 the control unit 2 determines whether or not the current time is a predetermined time.
  • the predetermined time in step S050 is t24 in FIG. If the predetermined time has not yet been reached, the control unit 2 waits until the predetermined time is reached. On the other hand, when the predetermined time is reached, the operation of the control unit 2 proceeds to step S060.
  • step S060 the control unit 2 causes the third camera 17 to acquire an image.
  • step S070 the control unit 2 determines whether or not to end the image acquisition. If the image acquisition is not completed, the operation of the control unit 2 returns to step S010c. On the other hand, when the image acquisition ends, the operation of the control unit 2 proceeds to step S080.
  • step S080 the control unit 2 causes the image processing unit 5 to synthesize an image.
  • control unit 2 in steps S020c and S020d in FIG. 17 is the same as the operation shown in FIG. Further, the operation of the control unit 2 in step S040 in FIG. 17 is the same as the operation shown in FIG. Further, the operation of the control unit 2 in step S060 in FIG. 17 is the same as the operation shown in FIG. 9, except that the predetermined time in the imaging system of the present embodiment is that in the imaging system of the first embodiment. Is different.
  • the frame time of the first camera 11 is obtained at t23-t21
  • the frame time of the second camera 14 is obtained at t22-t26
  • the frame time of the third camera 17 is It is obtained from t24-t28.
  • the frame time of the first camera 11 is half that of the frame time of the second camera 14 and the frame time of the third camera 17.
  • one exposure time of the first camera 11 is compared with one exposure time of the second camera 14 and one exposure time of the third camera 17. It has become half.
  • FIGS. 18A to 18D show the positional relationship of the imaging regions in the image obtained by the control pattern signal of FIG.
  • the horizontal direction in FIGS. 18A to 18D represents the position Z in the axial direction of the cylindrical coordinate system.
  • the horizontal direction in FIGS. 18A to 18D represents the position Z of the moving body 1 in the traveling direction.
  • 18A to 18D represents the position ⁇ in the circumferential direction of the cylindrical coordinate system.
  • an imaging area A11 represents an imaging area of an image acquired by the first camera 11 by exposure from time t21.
  • the imaging area B1 represents an imaging area of an image acquired by the second camera 14 by exposure from time t22.
  • the imaging area A12 represents an imaging area of an image acquired by the first camera 11 by exposure from time t23.
  • the imaging area C1 represents an imaging area of an image acquired by the third camera 17 by exposure from time t24.
  • the imaging area A21 represents an imaging area of an image acquired by the first camera 11 by exposure from time t25.
  • the imaging area B2 represents an imaging area of an image acquired by the second camera 14 by exposure from time t26.
  • the imaging area A22 represents an imaging area of an image acquired by the first camera 11 by exposure from time t27.
  • the imaging area C2 represents an imaging area of an image acquired by the third camera 17 by exposure from time t28.
  • the frame time of the first camera 11 is shorter than the frame time of other cameras. Therefore, the amount of change in the position of the imaging region between images continuously acquired by the first camera 11 is smaller than that in other cameras.
  • the angle of view of the first camera 11 is narrower than the angle of view of other cameras. Therefore, the imaging area in the image acquired by the first camera 11 has a narrower range in the traveling direction of the moving body 1 than the imaging area in the image captured by the other camera.
  • the image processing unit 5 determines the positional relationship of each image in the traveling direction of the moving body 1 based on the moving speed of the moving body 1 and the difference between the angle of view of each camera and the exposure start time, and generates a composite image. To do.
  • the imaging system of the present embodiment it is possible to obtain a desired image without degrading image quality even when the angle of view or the number of pixels of at least one camera is different from those of other cameras.
  • the imaging system of the present embodiment even when it is desired to change the resolution of an image acquired by at least one camera to the resolution of an image acquired by another camera, it is desirable without causing a reduction in image quality. Images can be acquired. Even when cameras with the same number of pixels are used, the resolution of the acquired image can be changed by changing the distance to the subject or the magnification ratio of the lens with the camera. In this case, the width of the imaging region in the traveling direction of the moving body 1 changes depending on the camera. According to the imaging system of the present embodiment, a desired image can be acquired even in such a case.
  • the imaging system of the present embodiment even when it is desired to change the overlapping amount of the imaging areas in the traveling direction of the moving body 1 between images continuously acquired by the same camera, the image quality can be changed. A desired image can be acquired without causing a decrease. In this case, the frame time is changed by the camera.
  • Embodiment 4 The operation of the imaging system according to the first to third embodiments is controlled so that the period in which the camera is in an exposure state and the period in which the illumination device emits light are acquired in order to acquire one image.
  • the first camera 11 acquires one image during the period from time t1 to t2 shown in FIG. 3, and during this period, the first imaging control signal and the first imaging signal are acquired.
  • the illumination control signal is continuously ON. That is, from time t1 to time t2, the first camera 11 is always in an exposure state, and the first lighting device 12 is always in a light emitting state.
  • the operation of the imaging system according to the present invention is not limited to such an operation.
  • the operation of the imaging system according to the present embodiment is controlled so that the period during which the camera is in the exposure state and the period during which the camera is in the non-exposure state are switched a plurality of times in a predetermined pattern while acquiring one image.
  • the non-exposure state means that the camera is not in the exposure state, and means that the camera is not exposed.
  • Such control is called coded exposure control.
  • the coded exposure control is control performed for the purpose of image blur correction, focus correction, and the like.
  • the period from the start to the end of a series of exposure states for acquiring one image is called an exposure period.
  • the hardware configuration and system configuration of the imaging system of the present embodiment are the same as those of the imaging system of the first embodiment.
  • the control pattern signal generated by the control unit 2 is different from that in the imaging system of the first embodiment.
  • the angle of view of each camera is the same and the distance to the imaging target is the same for each camera.
  • the present invention is not limited to this.
  • FIG. 19 illustrates an example of temporal changes in the imaging control signal received by each camera, the illumination control signal received by each lighting device, and the data acquisition control signal received by the time acquisition unit 31 and the speed acquisition unit 32 in the imaging system of the present embodiment.
  • FIG. 19 shows an example of an imaging control sequence in the imaging system of the present embodiment.
  • the first camera 11 acquires one image from time t31 to time t32.
  • the control unit 2 switches ON / OFF of the first imaging control signal a plurality of times from time t31 to time t32.
  • the operation of the first camera 11 is switched a plurality of times between the exposure state and the non-exposure state while acquiring one image.
  • the exposure period of the first camera 11 for acquiring one image is from time t31 to time t32.
  • the control unit 2 switches ON / OFF of the second imaging control signal a plurality of times from time t33 to time t34.
  • the operation of the second camera 14 is switched a plurality of times between the exposure state and the non-exposure state while acquiring one image.
  • the control unit 2 switches ON / OFF of the third imaging control signal a plurality of times from time t35 to time t36.
  • the operation of the third camera 17 is switched a plurality of times between the exposure state and the non-exposure state while acquiring one image.
  • the exposure period of the second camera 14 for acquiring one image is from time t33 to time t34. Further, the exposure period of the third camera 17 for acquiring one image is from time t35 to time t36.
  • FIG. 20 shows the positional relationship of the imaging regions in the image obtained by the control pattern signal of FIG.
  • the horizontal direction in FIG. 20 represents the position Z in the axial direction of the cylindrical coordinate system.
  • the horizontal direction in FIG. 20 represents the position Z of the moving body 1 in the traveling direction.
  • the vertical direction in FIG. 20 represents the position ⁇ in the circumferential direction of the cylindrical coordinate system.
  • an imaging area A1 represents an imaging area of an image acquired by the first camera 11 by exposure from time t31 to time t32.
  • the imaging area B1 represents an imaging area of an image acquired by the second camera 14 by exposure from time t33 to time t34.
  • the imaging area C1 represents an imaging area of an image acquired by the third camera 17 by exposure from time t35 to time t36.
  • each camera controls the incidence of light on the image sensor by a shutter, and acquires multiple images by multiple exposures to obtain a single image.
  • each camera can generate an image for each of a plurality of exposure states, and obtain a single image by superimposing the generated images.
  • the period in which the camera is in the exposure state and the period in which the camera is in the non-exposure state are controlled to be switched a plurality of times while one image is acquired.
  • the case has been described by way of example.
  • the same effect can be obtained by switching the light emission state of the illumination device instead of switching the exposure state of the camera. That is, as an operation of the imaging system according to the present embodiment, the period during which the lighting device is in the light emitting state and the period in which the lighting device is in the non-light emitting state is controlled to be switched a plurality of times while one image is acquired. Also good.
  • the control sequence of the imaging system is as shown in FIG.
  • the non-light emitting state means a state where the lighting device is not emitting light.
  • a period from the start to the end of a series of light emission states for acquiring one image is called a light emission period.
  • the period from time t31 to time t32 is a light emission period of the first lighting device for acquiring one image.
  • the camera's exposure state or lighting device's light emission state is switched multiple times, and image processing according to the switching pattern is performed to suppress motion blur that occurs in the image. It becomes possible to do.
  • the maximum power consumption can be suppressed by controlling so that the entire light emission period of each lighting device does not overlap.
  • omitted description is the same as that of the imaging system of Embodiment 1.
  • the time during which the camera is actually exposed is shorter than the length of the exposure period of the camera for acquiring one image.
  • the time during which the illumination device is actually in the light emission state is shorter than the length of the light emission period of the illumination device for acquiring one image. Therefore, there is a concern that the acquired image becomes dark.
  • it is conceivable to brighten the lighting device but the maximum power consumption increases. According to the imaging system of the present embodiment, since the maximum power consumption is suppressed, it is easy to make the illumination device emit light brightly, and the encoded exposure control can be performed effectively.
  • FIG. 22 is a system configuration diagram showing the configuration of the imaging system of the present embodiment.
  • the speed data acquired by the speed acquisition unit 32 is also input to the control unit 2, and the control unit 2 generates an imaging control signal and an illumination control signal based on the input speed data. This is different from the imaging system of the first embodiment shown in FIG.
  • FIG. 23 shows an example of temporal changes in the imaging control signal received by each camera, the illumination control signal received by each lighting device, and the data acquisition control signal received by the time acquisition unit 31 and the speed acquisition unit 32 in the imaging system of the present embodiment. Is shown. That is, FIG. 23 shows an example of an imaging control sequence in the imaging system of the present embodiment.
  • the control unit 2 turns on the first imaging control signal, the first illumination control signal, and the data acquisition signal.
  • the control unit 2 turns off the first imaging control signal, the first illumination control signal, and the data acquisition signal.
  • the control unit 2 turns on the second imaging control signal, the second illumination control signal, and the data acquisition signal.
  • the control unit 2 turns off the second imaging control signal, the second illumination control signal, and the data acquisition signal.
  • the control unit 2 turns on the third imaging control signal, the third illumination control signal, and the data acquisition signal.
  • the control unit 2 turns off the third imaging control signal, the third illumination control signal, and the data acquisition signal. Thereafter, the same operation is repeated.
  • the control unit 2 determines the time from when the imaging control signal and the illumination control signal are turned on to when it is turned off based on the speed data acquired immediately before. That is, the control unit 2 determines t53-t52, t56-t55, and t59-t58 based on the speed data acquired immediately before. Times t52, t55, and t58 are determined in advance, and the control unit 2 determines t53, t56, and t59 based on the speed data acquired immediately before. For example, the control unit 2 determines time t56 based on speed data acquired between time t52 and time t53. As described above, the control unit 2 determines the exposure time of each camera and the light emission time of each illumination device based on the speed of the moving body 1 acquired immediately before.
  • control unit 2 increases the exposure time of each camera and the light emission time of each illumination device as the speed of the moving body 1 is slow, and the exposure time and each illumination device of each camera as the speed of the mobile body 1 increases.
  • the light emission time is controlled to be short.
  • the exposure time of each camera and the light emission time of each lighting device are shortened, there is a concern that the image acquired by each camera will be dark, but the brightness of the image can be corrected by performing image processing with each camera. .
  • the brightness of the image can be corrected by adjusting the gain of each camera according to the exposure time.
  • control unit 2 may control the light emission intensity of each lighting device based on the speed of the moving body 1 acquired immediately before.
  • the control unit 2 performs control so that the light intensity of each lighting device decreases as the speed of the moving body 1 decreases, and the light intensity of each lighting device increases as the speed of the moving body 1 increases. That is, the control unit 2 controls the exposure time of each camera and the light emission time of each illumination device to be longer as the speed of the moving body 1 is slower, and controls the light emission of each illumination device to be darker. On the other hand, the control unit 2 controls the exposure time of each camera and the light emission time of each lighting device to be shorter as the speed of the moving body 1 increases, and controls the light emission of each lighting device to be brighter.
  • control unit 2 When performing such control, the control unit 2 also outputs a signal for controlling the light emission intensity as a control pattern signal, and each lighting device emits light with an intensity corresponding to this signal.
  • FIG. 24 shows another example of the imaging control sequence in the imaging system of the present embodiment.
  • the control unit 2 also outputs a speed acquisition control signal.
  • the speed acquisition control signal is a signal that causes the speed acquisition unit 32 to acquire the speed of the moving body in order to determine the exposure time of each camera and the light emission time of each illumination device.
  • the speed acquisition unit 32 acquires speed data not only when the data acquisition control signal is turned on but also when the speed acquisition control signal is turned on.
  • the control unit 2 determines the exposure time of the first camera 11 and the light emission time of the first illumination device 12 based on the speed data acquired at time t51.
  • control unit 2 determines the exposure time of the second camera 14 and the light emission time of the second lighting device 15 based on the speed data acquired at time t54. Further, the control unit 2 determines the exposure time of the third camera 17 and the light emission time of the third lighting device 18 based on the speed data acquired at time t57.
  • FIG. 25 is a diagram illustrating a flow of an operation for causing the first camera 11 to acquire an image in the imaging system according to the present embodiment.
  • FIG. 25 shows details of the operation in step S020.
  • the control unit 2 causes the speed acquisition unit 32 to acquire speed data.
  • the control unit 2 determines the exposure time of the first camera 11 and the light emission time of the first illumination device 12 based on the acquired speed data.
  • the operation flow after step S021 is the same as that in the first embodiment. Further, the operations in steps S040 and S060 are the same as those in FIG.
  • the imaging system of the present embodiment operates as described above.
  • the imaging system of the present embodiment changes the exposure time of the camera and the light emission time of the illumination device in accordance with the moving speed of the moving body 1. Therefore, according to the imaging system of the present embodiment, when the moving body 1 moves at a high speed, motion blur that occurs in the image can be suppressed, and a good image can be acquired.
  • the control unit 2 may control the light emission intensity of the lighting device according to the speed of the moving body 1. According to this configuration, when the moving body 1 moves at a low speed, the maximum power consumption necessary for causing each lighting device to emit light is further suppressed.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Studio Devices (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

複数台のカメラによって移動体の周囲を撮像するシステムにおいて、最大消費電力を抑制する。移動体(1)の周辺の第1の撮像領域を撮像して第1の画像を取得する第1のカメラ(11)と、第1の撮像領域を照明する第1の照明装置(12)と、移動体(1)の進行方向を軸とした周方向の位置が第1の撮像領域とは異なる第2の撮像領域を撮像して第2の画像を取得する第2のカメラ(14)と、第2の撮像領域を照明する第2の照明装置(15)と、第1の照明装置(12)と第2の照明装置(15)とが同時に発光しないように制御するとともに、第1の照明装置(12)が発光して第1の撮像領域を照明する間に第1のカメラ(11)が第1の画像を取得し、第2の照明装置(15)が発光して第2の撮像領域を照明する間に第2のカメラ(14)が第2の画像を取得するように制御する制御部(2)とを備える。

Description

移動撮像システム及び撮像方法
 この発明は、移動体に搭載された複数台のカメラを用いて移動体の周辺を撮像する移動撮像システム、及び当該移動撮像システムを用いた撮像方法に関する。
 移動体にカメラを搭載して、移動しながら移動体の回りを撮像するシステムである移動撮像システムが従来から知られている。例えば、移動しながらトンネルの壁面を撮像するシステムが知られている。このようなシステムでは、例えば、複数台のカメラを移動体の進行方向に対して垂直な方向に向けて設置し、トンネルの壁面をトンネルの周方向に複数の領域に分割して撮像する。撮像された画像は、トンネル壁面に生じたひび割れ等を検出する検査システム等で用いられる。特許文献1では、トンネルの壁面を複数台のカメラを使って撮像する旨について開示されている。
特開2004-187220号公報
 従来の移動撮像システムにおいては、複数のカメラが周辺を撮像する場合に、複数のカメラが撮像する複数の領域を同時に照明するので、撮像する際に大きな電力を必要とする。特に、暗いトンネルのような場所を撮像する場合には、明るい照明光を必要とするので、大容量のバッテリや発電機を搭載する必要がある。このため、移動体に搭載する撮像システムが大型化してしまうという問題がある。本発明は、複数台のカメラを使って移動体の周囲を撮像する移動撮像システムにおいて、最大消費電力を抑制することを目的とする。
 本発明の移動撮像システムは、移動体に設置されて移動体の周辺の第1の撮像領域を撮像して第1の画像を取得する第1のカメラと、移動体に設置されて第1の撮像領域を照明する第1の照明装置と、移動体に設置されて移動体の進行方向を軸とした周方向の位置が第1の撮像領域とは異なる第2の撮像領域を撮像して第2の画像を取得する第2のカメラと、移動体に設置されて第2の撮像領域を照明する第2の照明装置と、第1の照明装置と第2の照明装置とが同時に発光しないように制御するとともに、第1の照明装置が発光して第1の撮像領域を照明する間に第1のカメラが第1の画像を取得し、第2の照明装置が発光して第2の撮像領域を照明する間に第2のカメラが第2の画像を取得するように制御する制御部とを備えるものである。
 本発明の移動撮像システムによれば、最大消費電力を抑制できる効果がある。
本発明の実施の形態1による撮像システムを搭載した移動体を進行方向から見たときの正面図である。 本発明の実施の形態1による撮像システムを示すシステム構成図である。 本発明の実施の形態1による撮像システムにおける撮像制御シーケンスを示す模式図である。 本発明の実施の形態1による撮像システムで取得される画像における撮像領域の位置関係の一例を示す図である。 本発明の実施の形態1による撮像システムで取得される画像における撮像領域の位置関係の一例を示す図である。 本発明の実施の形態1による撮像システムで取得される画像における撮像領域の位置関係の別の例を示す図である。 本発明の実施の形態1による撮像システムで取得される画像における撮像領域の位置関係の別の例を示す図である。 本発明の実施の形態1による撮像システムにおける動作の流れを示す図である。 本発明の実施の形態1による撮像システムにおいて第1のカメラで画像を取得する動作の流れを示す図である。 本発明の実施の形態1による撮像システムにおいて第2のカメラで画像を取得する動作の流れを示す図である。 本発明の実施の形態1による撮像システムにおいて第3のカメラで画像を取得する動作の流れを示す図である。 本発明の実施の形態1による撮像システムのハードウェア構成の一例を示す図である。 本発明の実施の形態1による撮像システムの効果を説明するための図である。 本発明の実施の形態1による撮像システムの効果を説明するための図である。 本発明の実施の形態2による撮像システムにおける撮像制御シーケンスを示す模式図である。 本発明の実施の形態2による撮像システムにおける動作の流れを示す図である。 本発明の実施の形態2による撮像システムにおいて第1のカメラ及び第3のカメラで画像を取得する動作の流れを示す図である。 本発明の実施の形態2による撮像システムで取得される画像における撮像領域の位置関係の一例を示す図である。 本発明の実施の形態2による撮像システムで取得される画像における撮像領域の位置関係の一例を示す図である。 本発明の実施の形態3による撮像システムにおける撮像制御シーケンスを示す模式図である。 本発明の実施の形態3による撮像システムにおける動作の流れを示す図である。 本発明の実施の形態3による撮像システムで取得される画像における撮像領域の位置関係の一例を示す図である。 本発明の実施の形態3による撮像システムで取得される画像における撮像領域の位置関係の一例を示す図である。 本発明の実施の形態3による撮像システムで取得される画像における撮像領域の位置関係の一例を示す図である。 本発明の実施の形態3による撮像システムで取得される画像における撮像領域の位置関係の一例を示す図である。 本発明の実施の形態4による撮像システムにおける撮像制御シーケンスを示す模式図である。 本発明の実施の形態4による撮像システムで取得される画像における撮像領域の位置関係の一例を示す図である。 本発明の実施の形態4による撮像システムにおける撮像制御シーケンスの別の例を示す模式図である。 本発明の実施の形態5による撮像システムを示すシステム構成図である。 本発明の実施の形態5による撮像システムにおける撮像制御シーケンスを示す模式図である。 本発明の実施の形態5による撮像システムにおける撮像制御シーケンスの別例を示す模式図である。 本発明の実施の形態5による撮像システムにおいて第1のカメラで画像を取得する動作の流れを示す図である。
 以下、本発明の撮像システムの好適な実施の形態につき図面を用いて説明する。なお、図中、同一符号は同一又は相当部分を示す。
実施の形態1.
 図1は本発明の実施の形態1による撮像システムを搭載した移動体1を進行方向から見たときの正面図である。なお、図1は、本実施の形態の撮像システムの概略構成を説明するための概念図となっている。本実施の形態の撮像システムは、移動体1に搭載されたカメラで、移動体1の周辺の撮像領域を撮像する移動撮像システムであり、移動体1の移動に伴って撮像領域の位置が変化する。移動体1には第1の視野13を撮像するように第1のカメラ11と第1の照明装置12が設置されている。同様に第2の視野16を撮像するように第2のカメラ14と第2の照明装置15が設置されており、第3の視野19を撮像するように第3のカメラ17と第3の照明装置18が設置されている。複数のエリアのうち互いに異なる1つのエリアの画像をそれぞれ撮像するように各カメラは移動体1に設置され、各カメラで撮像されるエリアを照明するように各照明装置は設置される。
 すなわち、移動体1には、カメラと照明装置とを備える撮像装置の複数の組が搭載されている。第1のカメラ11と第1の照明装置12とが第1の撮像装置の組であり、第2のカメラ14と第2の照明装置15とが第2の撮像装置の組であり、第3のカメラ17と第3の照明装置18とが第3の撮像装置の組である。各照明装置は、同じ組に属するカメラで撮像される領域を照明する。なお、第1の視野13は、第1のカメラ11が撮像する第1の撮像領域に相当し、第1の照明装置12は第1の撮像領域を照明する。また、第2の視野16は、第2のカメラ14が撮像する第2の撮像領域に相当し、第2の照明装置15は第2の撮像領域を照明する。また、第3の視野19は、第3のカメラ17が撮像する第3の撮像領域に相当し、第3の照明装置18は第3の撮像領域を照明する。
 撮像対象は移動体1の進行方向を軸とした周方向に広がっており、第1のカメラ11、第2のカメラ14、第3のカメラ17によって撮像対象の周方向全体が撮像される。撮像対象は、本実施の形態では例えばトンネル壁面100である。移動体1が移動しながら撮像を続けることにより、移動体1の進行方向を軸とした周方向全体の画像が移動体1の進行方向に連続的に撮像される。以降の記載において、単に周方向と記載した場合には、移動体1の進行方向を軸とした場合の周方向を意味する。より詳細には、周方向とは、移動体1の進行方向を軸とした円柱座標系における周方向である。移動体1がトンネル内を走行する場合には、移動体1の進行方向を軸とした周方向は、トンネルの周方向でもある。
  図1に示すように、第2の視野16は、周方向の位置が第1の視野13と異なっている。また、第3の視野19は、周方向の位置が第1の視野13及び第2の視野16のいずれとも異なっている。さらに、第3の視野19の周方向の位置は、第2の視野16の位置を基準とすると第1の視野13とは反対側となる。
 移動体1は、自動車、トラック、自動2輪、自転車、軌陸車などの道路を移動する車両、手押し車などの人が移動させる台車、地下鉄を含む鉄道、モノレールなどの軌道上を移動する車両、船舶、飛行体など、移動するものであれば何でも良い。
 第1のカメラ11、第2のカメラ14、第3のカメラ17は、ライン撮像素子や2次元撮像素子などの受光素子を搭載したデジタルカメラ、ビデオカメラなどである。第1のカメラ11、第2のカメラ14、第3のカメラ17の感度波長領域は、紫外、可視、近赤外、遠赤外でもよく、テラヘルツ領域でも良い。
 本実施の形態では3台のカメラが、トンネル壁面100の周方向の領域を撮像することを想定している。その為、図1のように第1のカメラ11に対応する第1の視野13、第2のカメラ14に対応する第2の視野16、第3のカメラ17に対応する第3の視野19を設定しているが、撮像したい領域に応じてカメラを増減させても良い。例えば、撮像したい領域が周方向に広い場合には、使用するカメラの数を増やしても良い。また、撮像したい領域が周方向に狭い場合には、使用するカメラの数を減らしても良い。また、トンネル壁面100の周方向の領域を隙間なく撮像したい場合は、図1のように第1の視野13、第2の視野16、第3の視野19が交互に重なるように設定しても良い。
 また、本実施の形態ではトンネルの壁面を撮像しているが、本発明の撮像システムは、これに限定されるものではない。本発明の撮像システムは、移動体の周囲を撮像するものであれば、トンネルを撮像するものに限定されない。例えば、移動体1の側方に向けてカメラを設置し、移動体1の側方に存在する壁面、建造物などの対象物を撮像することも考えられる。この際、移動体1の左右の側方に向けて複数のカメラを設置しても良いし、高さ方向の異なる角度に向けて複数のカメラを設置しても良い。また、説明を簡単にするために、本実施の形態では各カメラの画角は等しく、撮像対象までの距離も各カメラで等しいものとしているが、これに限定されるわけではなく、各カメラで画角や撮影距離が違ってもよい。
 第1の照明装置12、第2の照明装置15、及び第3の照明装置18は、第1のカメラ11、第2のカメラ14、及び第3のカメラ17のそれぞれが撮像するエリアに光を照射して撮像しやすくするもので、各カメラと一対一に対応して移動体1に設置される。例えば、各照明装置は、レーザダイオード、発光ダイオードなどの半導体発光素子、白熱灯、ハロゲンランプ、メタルハライドランプなどを用いて実現される。また、各照明装置から照射される波長は、紫外、可視、近赤外、遠赤外のいずれでもよく、テラヘルツ領域でも良い。各照明装置から照射される波長は、撮像したい物体、形状、カメラの感度波長、環境光の影響などを考慮して選択する。
 第1の照明装置12が照明する範囲は第1の視野13を含み、第2の照明装置15が照明する範囲は第2の視野16を含み、第3の照明装置18が照明する範囲は第3の視野19を含むようにする。各視野はできるだけ均一の光量で照明されることが望ましいが、視野内に意図的に明暗分布を作りたい場合は、各照明装置をそのように設計する。各照明装置が照明する範囲や光量は、発光素子の個数や配置、集光レンズやミラーによって調整される。
 撮像対象は、道路又は鉄道のトンネル壁面、橋梁の床板、橋梁の上部構造又は下部構造、建築物の壁面、港湾、空港、土手、法面など、1つのカメラの視野に収まらない広さを持つ構造となり、特定のものに限定されない。ひび割れ検査などで、小領域に分けて撮像した画像を合成することで画像の解像度を上げたい場合なども含め、複数のカメラを用いて撮像する場合には本実施の形態は適用できる。
 図2は本実施の形態の撮像システムの構成を示すシステム構成図である。制御部2は、時刻取得部31、速度取得部32、第1のカメラ11、第1の照明装置12、第2のカメラ14、第2の照明装置15、第3のカメラ17、第3の照明装置18に制御パターン信号を送る。ここで、制御パターン信号とは各カメラ及び各照明装置の動作タイミングを制御する信号である。制御パターン信号により、各カメラによる撮像や各照明装置による照明がON、OFFにされる。制御パターン信号は、照明装置だけON、OFFにしてもよいし、撮像だけON、OFFにしてもよく、その両方でもよい。
 制御パターン信号には、各カメラの動作を制御する撮像制御信号と、各照明装置の動作を制御する照明制御信号と、時刻取得部31及び速度取得部32の動作を制御するデータ取得制御信号とがある。また、撮像制御信号、照明制御信号及びデータ取得制御信号には、ON、OFFの2つの状態がある。制御部2は、撮像制御信号をONにすることによって、カメラの撮像をONにし、撮像制御信号をOFFにすることによって、カメラの撮像をOFFにする。また、制御部2は、照明制御信号をONにすることによって、照明装置をONにし、照明制御信号をOFFにすることによって、照明装置をOFFにする。
 ここで、撮像をONにするとは、カメラに露光を開始させることを意味する。また、撮像をOFFにするとは、カメラに露光を終了させることを意味する。すなわち、撮像制御信号がONである期間が、カメラが露光状態となっている期間となる。カメラが露光状態となっている期間は、露光期間と呼ばれる。露光期間の長さは、露光時間と呼ばれる。また、照明装置をONにするとは、照明装置を点灯させることを意味する。また、照明装置をOFFにするとは、照明装置を消灯させることを意味する。すなわち、照明制御信号がONである期間が、照明装置が発光している期間となる。照明装置が発光している期間は、発光期間と呼ばれる。発光期間の長さは、発光時間と呼ばれる。
 本実施の形態の撮像システムでは、各カメラ及び各照明装置の動作は、制御パターン信号により制御されることとしたが、制御パターン信号に限定されるものではなく、各カメラ及び各照明装置の動作を個別に切り替えられればよい。時刻取得部31及び速度取得部32に時刻及び速度を取得させる制御の仕方についても限定されない。
 速度取得部32は、移動体1の移動速度を測定する速度測定装置であってもよいし、外部に備える測定装置で測定された速度データを取得してもよい。外部から速度データを取得する場合、速度取得部32は、データを取得するインターフェースを備えた電子計算機または電子回路で構成することができる。時刻取得部31も同様に、電子計算機または電子回路で構成することができる。
 各カメラは、撮像制御パターン信号がONになると露光を開始し、撮像制御信号がOFFになると露光を終了する。この一連の動作により、各カメラは1枚の画像を撮像する。撮像された画像は各カメラから画像データ保存部41に送られ、画像データ保存部41に保存される。保存された画像データは画像処理部5に送られ、各カメラで撮像された複数枚の画像が合成されて、1枚の合成画像が生成される。画像処理部5の場所は限定されず、移動体1にあってもよいし、外部のクラウド上にあってもよい。画像処理部で合成された画像は、外部へと送出され、トンネル壁面100の異常の有無を検査するために用いられる。
 データ取得制御信号に基づき、各カメラの撮像がONになるときの時刻が時刻取得部31で取得される。取得された時刻データは、画像が取得された時の時刻としてとして各画像に対応付けられて、時刻データ保存部43に記憶される。また、各カメラの撮像がONになるときの移動体1の速度が速度取得部32で取得される。取得された速度データは、画像が撮像されたときの速度として各画像に対応付けられて、速度データ保存部42に記憶される。すなわち、速度データ保存部42は、データ記憶部として機能する。データ保存部4は、画像データ保存部41と、速度データ保存部42と時刻データ保存部43を有する。すなわち、それぞれのデータはデータ保存部4へ記憶される。画像と取得した速度の対応付けについては後述する。
 本実施の形態の本実施の形態の撮像システムでは、各カメラの撮像がONになるときの時刻、及び各カメラの撮像がONになるときの移動体1の速度を取得する構成としたが、これに限定されるものではない。各カメラの撮像がONである期間のうちの任意のタイミングにおいて、時刻及び速度を取得しても良い。また、移動体1の速度としては、各カメラの撮像がONである間の平均速度を使用しても良い。
 図3は、本実施の形態の撮像システムにおいて、各カメラが受け取る撮像制御信号、各照明装置が受け取る照明制御信号、時刻取得部31及び速度取得部32が受け取るデータ取得制御信号の時間変化の例を示している。すなわち、図3は、本実施の形態の撮像システムにおける撮像制御シーケンスの例を示している。図3において、横軸は時間を表しており、縦軸は各信号の状態(ONまたはOFF)を表している。撮像制御信号には、第1の撮像制御信号、第2の撮像制御信号、及び第3の撮像制御信号がある。第1のカメラは、第1の撮像制御信号を受け取り、第1のカメラによる撮像は、第1の撮像制御信号によって制御される。第2のカメラは、第2の撮像制御信号を受け取り、第2のカメラによる撮像は、第2の撮像制御信号によって制御される。第3のカメラは、第3の撮像制御信号を受け取り、第3のカメラによる撮像は、第3の撮像制御信号によって制御される。
 また、照明制御信号には、第1の照明制御信号、第2の照明制御信号、及び第3の照明制御信号がある。第1の照明装置は、第1の照明制御信号を受け取り、第1の照明装置による照明は、第1の照明制御信号によって制御される。第2の照明装置は、第2の照明制御信号を受け取り、第2の照明装置による照明は、第2の照明制御信号によって制御される。第3の照明装置は、第3の照明制御信号を受け取り、第3の照明装置による照明は、第3の照明制御信号によって制御される。
 言い換えると、第1の撮像制御信号は、第1のカメラ11による撮像のONとOFFとを制御する信号である。また、第1の照明制御信号は、第1の照明装置12による照明のONとOFFとを制御する信号である。また、第2の撮像制御信号は、第2のカメラ14による撮像のONとOFFとを制御する信号である。また、第2の照明制御信号は、第2の照明装置15による照明のONとOFFとを制御する信号である。また、第3の撮像制御信号は、第3のカメラ17による撮像のONとOFFとを制御する信号である。また、第3の照明制御信号は、第3の照明装置18による照明のONとOFFとを制御する信号である。
 図3の例では、制御部2は、第1のカメラ11による撮像と第1の照明装置12による照明とがOFFになった後に、第2のカメラ14による撮像と第2の照明装置15による照明とがONになるように制御する。また、制御部2は、第2のカメラ14による撮像と第2の照明装置15による照明とがOFFになった後に、第3のカメラ17による撮像と第3の照明装置18による照明とがONになるよう制御する。また、制御部2は、第3のカメラ17による撮像と第3の照明装置18による照明とがOFFになった後に、第1のカメラ11による撮像と第1の照明装置12による照明とがONになるよう制御する。
 第1のカメラ11による撮像及び第1の照明装置12による照明がONになる時刻をt1とし、第1のカメラ11による撮像及び第1の照明装置12による照明がOFFになる時刻をt2とする。第2のカメラ14による撮像及び第2の照明装置15による照明がONになる時刻をt3とし、第2のカメラ14による撮像及び第2の照明装置15による照明がOFFになる時刻をt4とする。第3のカメラ17による撮像及び第3の照明装置18による照明がONになる時刻をt5とし、第3のカメラ17による撮像及び第3の照明装置18による照明がOFFになる時刻をt6とする。
 また、時刻取得部31及び速度取得部32によるデータ取得の動作は、データ取得制御信号によって制御される。データ取得制御信号がOFFからONになると、時刻取得部31及び速度取得部32は、時刻データ及び速度データを取得する。
 図4A及び図4Bは、図3の制御パターン信号で得られる画像における撮像領域の位置関係の一例を示している。撮像領域は、各画像で撮像される範囲を示す。ここで、カメラの撮像対象はトンネルの壁面であり、図4A及び図4Bはトンネル壁面100を平面に展開して表現した図である。図4A及び図4Bの横方向は、移動体1の進行方向の位置Zを示している。また、図4A及び図4Bの縦方向は、トンネルの周方向におけるトンネル壁面100の位置を示している。すなわち、移動体1の進行方向を円柱の軸とした円柱座標系において、トンネル壁面100上における撮像領域の位置をその円柱座標系で表現した場合に、図4A及び図4Bの横方向は円柱座標系の軸方向の位置Zを表し、図4A及び図4Bの縦方向は円柱座標系の周方向の位置θを表している。
 図4A及び図4Bにおいて、撮像領域A1及びA2は、第1のカメラ11によって取得される画像A-1及びA-2において撮像される範囲を表しており、A1とA2とは、撮像されるタイミングが異なっている。同様に、撮像領域B1及びB2は、第2のカメラ14によって取得される画像B-1及びB-2において撮像される範囲を表しており、撮像領域C1及びC2は、第3のカメラ17によって取得される画像C-1及びC-2において撮像される範囲を表している。
 ここで、第1のカメラ11によって取得される画像A-1及びA-2を第1の画像と呼び、第2のカメラ14によって取得される画像B-1及びB-2を第2の画像と呼び、第3のカメラ17によって取得される画像C-1及びC-2を第3の画像と呼ぶ。また、撮像領域A1及び撮像領域A2を第1の撮像領域と呼び、撮像領域B1及び撮像領域B2を第2の撮像領域と呼び、撮像領域C1及び撮像領域C2を第3の撮像領域と呼ぶ。
 図4Aにおいて、Z1は、移動体1の進行方向における撮像領域A1の位置と撮像領域B1の位置との相違量を示しており、Z2は、移動体1の進行方向における撮像領域A1の位置と撮像領域A2の位置との相違量を示している。なお、説明を簡単にするために図4A及び図4Bでは示していないが、第1の撮像領域、第2の撮像領域、第3の撮像領域は、一部が互いに重なっていても良い。言い換えると、第1の視野13、第2の視野16、第3の視野19は重なっていてもよい。また、説明を簡単にするために、図4A及び図4Bでは、移動体1の移動速度が変化しない場合を想定している。
 図3、図4A及び図4Bを用いて、処理のフローについて説明する。時刻t1において、第1の撮像制御信号及び第1の照明制御パターン信号がONになると、第1のカメラ11は露光を開始し、第1の照明装置12は発光を開始する。次に、時刻t2において、第1の撮像制御信号及び第1の照明制御信号がOFFになると、第1のカメラ11は露光を終了し、第1の照明装置12は発光を終了する。時刻t1からt2までの間に、第1のカメラ11は図4Aの範囲A1を撮像し、画像A-1を生成する。画像A-1は、データ保存部4にある画像データ保存部41に保存される。なお、本実施の形態では第1のカメラ11と第1の照明装置12を別々に制御しているが、第1のカメラと第1の照明装置をひとつの制御パターン信号で制御してもよく、制御の仕方は限定されない。
 また、時刻t1において、データ取得制御信号がONになると、時刻取得部31は時刻の取得を開始し、速度取得部32は移動体1の移動速度の取得を開始する。時刻t2において、データ取得制御信号がOFFになると、得られた時刻データはデータ保存部4にある時刻データ保存部43に保存され、得られた速度データはデータ保存部4にある速度データ保存部42に保存される。取得された時刻データと、速度データとは、対応付けて記憶される。速度取得部32では、レーザ又は電波を用いた車速測定装置、オドメーター、ピトー管などで計測された速度を取得する。また速度取得部32自体が速度を測定してもよい。
 次に、時刻t3において、第2の撮像制御信号及び第2の照明制御信号がONになると、第2のカメラ14は露光を開始し、第2の照明装置15は発光を開始する。時刻t3は時刻t2より後になるため、第2のカメラ14の露光や第2の照明装置の発光が開始されるときには、第1のカメラ11は露光しておらず第1の照明装置12は発光していない。次に、時刻t4において、第2の撮像制御信号及び第2の照明制御信号がOFFになると、第2のカメラ14は露光を終了し、第2の照明装置15は発光を終了する。時刻t3からt4までの間に、第2のカメラ14は図4Aの範囲B1を撮像し、画像B-1を生成する。画像B-1は、データ保存部4にある画像データ保存部41に保存される。移動体1は移動しているので、図4Aに示すように第2のカメラ14で撮像される範囲B1は、第1のカメラ11で撮像される範囲A1と比較して、進行方向に移動した範囲となる。
 また、時刻t3において、データ取得制御信号がONになると、時刻取得部31は時刻の取得を開始し、速度取得部32は移動体1の移動速度の取得を開始する。時刻t4において、データ取得制御信号がOFFになると、得られた時刻データはデータ保存部4にある時刻データ保存部43に保存され、得られた速度データはデータ保存部4にある速度データ保存部42に保存される。取得された時刻データと、速度データとは、対応付けて記憶される。
 次に、時刻t5において、第3の撮像制御信号及び第3の照明制御信号がONになると、第3のカメラ17は露光を開始し、第3の照明装置18は発光を開始する。時刻t5は時刻t4より後になるため、第3のカメラ17の露光や第3の照明装置18の発光が開始されるときには、第2のカメラ14は露光しておらず第2の照明装置15は発光していない。次に、時刻t6において、第3の撮像制御信号及び第3の照明制御信号がOFFになると、第3のカメラ17は露光を終了し、第3の照明装置18は発光を終了する。時刻t5からt6までの間に、第3のカメラ17は図4Aの範囲C1を撮像し、画像C-1を生成する。画像C-1は、データ保存部4にある画像データ保存部41に保存される。移動体1は移動しているので、図4Aに示すように第3のカメラ17で撮像される範囲C1は、第2のカメラ14で撮像される範囲B1と比較して、進行方向に移動した範囲となる。
 また、時刻t5において、データ取得制御信号がONになると、時刻取得部31は時刻の取得を開始し、速度取得部32は移動体1の移動速度の取得を開始する。時刻t6において、データ取得制御信号がOFFになると、得られた時刻データはデータ保存部4にある時刻データ保存部43に保存され、得られた速度データはデータ保存部4にある速度データ保存部42に保存される。取得された時刻データと、速度データとは、対応付けて記憶される。
 なお、本実施の形態では、制御部2は、各カメラが露光状態となっている期間が、他のカメラが露光状態となっている期間のいずれとも重ならないように制御しているが、これに限定されるものではない。制御部2は、複数の照明装置の全てが同時に点灯することがないように各照明装置の発光期間を制御すれば、ピーク電力を削減する効果を得ることができる。また、本実施の形態では、制御部2が制御パターン信号を生成することにより、各カメラ及び各照明装置の動作のタイミングを制御しているが、制御の方法はこれに限定されるものではない。
 さらに、図3に示す動作シーケンスは、あくまで一例である。図3に示す動作シーケンスでは、制御部2は、時刻t1において、第1の撮像制御信号、第1の照明制御制御パターン信号、及びデータ取得パターン信号をONにする。しかし、制御部2は、これらを必ずしも同時にONにする必要はない。制御部2は、第1の照明制御制御パターン信号、第1の撮像制御信号、データ取得パターン信号の順にONにしても良い。また、図3に示す動作シーケンスでは、制御部2は、時刻t2において、第1の撮像制御信号、第1の照明制御制御パターン信号、及びデータ取得パターン信号をOFFにする。しかし、制御部2は、これらを必ずしも同時にOFFになる必要はない。制御部2は、データ取得パターン信号、第1の撮像制御信号、第1の照明制御制御パターン信号の順にOFFにしても良い。
 時刻t7以降の動作は、上記の時刻t1以降の動作と同様となり、第1のカメラ11は、図4Bの範囲A2を撮像して画像A-2を生成し、第2のカメラ14は、図4Bの範囲B2を撮像して画像B-2を生成し、第3のカメラ17は、図4Bの範囲C2を撮像して画像C-2を生成する。また、時刻取得部31及び速度取得部32は、各カメラが画像を取得した時の時刻データ及び速度データを取得する。
 時刻t7は、時刻t6より後であり、かつ、画像A-1で撮像される範囲A1と画像A-2で撮像される範囲A2とが一部重なるような時間とする。これは、進行方向に連続する画像を繋ぎ合せた場合に、撮像される範囲に欠損が生じないようにするためである。この条件を満たすために、時刻t1から時刻t7までの時間は、各カメラの画角、及び移動体1の想定される移動速度を考慮して決定される。
 また、上記のように、各カメラで画像を取得した時刻と、その時刻における移動体1の速度とを記憶させる理由は、各カメラで異なる時刻に取得された複数の画像を繋ぎ合わせ、合成する場合に、各画像を取得した時の移動体1の速度の情報が必要となるからである。各カメラは異なる時刻に画像を取得するため、移動体1の速度に変化があった場合には、画像を取得する時の移動体1の速度は、撮像するカメラによって異なる。この結果、画像を取得する際の露光期間中における移動体1の移動量はカメラによって異なり、撮像される範囲もカメラによって異なることになる。したがって、各カメラで取得された画像を合成するには、この撮像領域の変化を考慮する必要がある。この画像の撮像領域のバラつきを考慮した合成についての詳細は後述する。
 ここで、図3に示す動作シーケンスでは、各カメラの露光期間は全く重ならず、各照明装置の発光期間も全く重ならない。このような動作シーケンスを実現するため、本実施の形態においては、第1のカメラ11、第2のカメラ14、及び第3のカメラ17の1回の露光時間の合計が、第1のカメラ11の撮像周期よりも短い場合を想定している。第1のカメラ11の撮像周期とは、第1のカメラ11が露光を開始してから、第1のカメラ11が次に露光を開始するまでの時間を指しており、図3におけるt1からt7までの時間を指している。撮像周期は、フレーム時間とも呼ばれる。
 また、本実施の形態では、各カメラは同じ性能を有することを想定しており、各カメラの露光時間や、各カメラのフレーム時間が等しいことを想定している。しかし、この条件に限定されることなく、各カメラの露光時間又はフレーム時間に差があってもよい。また、各照明装置の発光時間に差があってもよい。さらに、本実施の形態においては、各照明装置の発光期間は、フレーム時間内で分散して配置されるが、これに限定されるわけではなく、全ての照明装置が同時に発光しなければよい。
 次に、取得された画像と速度データとを対応付ける方法について述べる。本実施の形態の撮像システムでは、各カメラ、速度取得部32、及び時刻取得部31は、内部に時計を備えており、内部時刻データを取得することができる。また、全ての時計は、必要な精度で時刻同期がとれている。さらに、各カメラで取得された画像データ、及び速度取得部32で取得された速度データは、それぞれの内部時刻データと共に、データ保存部4に保存される。この場合、時刻取得部31で取得された時刻データを用いて、同時刻に取得された画像データと速度データとを関連付けることにより、制御部2は、画像が取得されたときの移動速度を画像データと関連づけて記憶させることができる。
 各カメラ及び速度取得部32が内部に時計を備えない場合には、制御部2は、時刻取得部31で取得された時刻データを各カメラ及び速度取得部32に供給することで、同じ時刻の速度データと画像データを対応付けて記憶させることができる。また、制御部2は、時刻データを用いずに、画像データと、画像データが取得された時の速度データとを対応付けることもできる。例えば、画像データ及び速度データにデータ番号を与え、データ番号を管理することで、制御部2は、画像データと、画像データが取得された時の速度データとを対応付けることができる。
 データ保存部4に保存された各種データは、さらに画像処理部5に送られる。画像処理部5では画像データ保存部41から送られた画像データを適切に貼り合せる処理を行う。各カメラは、異なる時刻に画像を取得するので、図4A及び図4Bに示すように、取得された各画像は移動体1の進行方向zにおいて異なる範囲を撮像したものとなる。画像処理部5は、撮像領域の相違を考慮して、周方向において連続した画像となるように合成した画像を生成する。
 すなわち、画像処理部5は、移動体1の進行方向における撮像領域A1、B1、C1の位置の違いを考慮して、画像A-1、画像B-1、画像C-1を合成する。また、画像処理部5は、移動体1の進行方向における撮像領域A2、B2、C2の位置の違いを考慮して、画像A-2、画像B-2、画像C-2を合成する。速度データと時刻データとを参照することで、各画像が取得された相対的な位置が特定できるので、画像処理部5は、各画像に対応付けられた速度データと時刻データを用いて、どの地点で撮像された画像であるかを判定して画像を合成する。
 画像処理部5は、例えば下記の式(1)で示す演算によって、図4AにおいてZ1で示された撮像領域A1の位置と撮像領域B1の位置との相違量を求めることができる。ここで、va1は、第1の移動速度であり、第1のカメラ11で撮像領域A1を撮像した時の移動体1の速度である。また、t1は、第1の時刻であり、第1のカメラ11で撮像領域A1を撮像した時刻である。また、t3は、第2の時刻であり、第2のカメラ14で撮像領域B1を撮像した時刻である。または、画像処理部5は、例えば下記の式(2)で示す演算によってZ1を求めても良い。ここで、vb1は、第2の移動速度であり、第2のカメラ14で撮像領域B1を撮像した時の移動体1の速度である。
Figure JPOXMLDOC01-appb-M000001
Figure JPOXMLDOC01-appb-M000002
 画像処理部5は、移動体1の進行方向における画像A-1と画像B-1との相対位置が、上記の相違量Z1と対応するように、画像A-1と画像B-1とを合成する。この時、画像処理部5は、各カメラの画角も考慮する。すなわち、画像処理部5は、移動体1の移動速度と、各カメラの露光開始時刻の差とに基づいて、移動体1の進行方向における第1の画像と第2の画像との位置関係を決定し、第1の画像と第2の画像とを合成する。
 また、画像処理部5は、例えば下記の式(3)で示す演算によって、図4AにおいてZ2で示された撮像領域A1の位置と撮像領域A2の位置との相違量を求めることができる。ここで、vc1は、第3の移動速度であり、第3のカメラ17で撮像領域C1を撮像した時の移動体1の速度である。または、画像処理部5は、例えば下記の式(4)で示す演算によってZ2を求めても良い。画像処理部5は、求められた撮像領域の位置の相違量が反映され、画像間の位置関係が正しくなるように画像を合成する。
Figure JPOXMLDOC01-appb-M000003
Figure JPOXMLDOC01-appb-M000004
 図5A及び図5Bは、図3の制御パターン信号で得られる画像における撮像領域の位置関係の別の例を示している。図5A及び図5Bは、図4A及び図4Bと比較して、移動体1の移動速度が遅い場合の撮像領域の位置関係を示している。図4A及び図4Bと同様に、図5A及び図5Bの横方向は円柱座標系の軸方向の位置Zを表し、図5A及び図5Bの縦方向は円柱座標系の周方向の位置θを表している。移動体1の移動速度が遅いと、同一の時間内に移動体1が移動する距離は短くなる。この結果、移動体1の進行方向における撮像領域A1の位置と撮像領域B1の位置との相違量Z1、及び移動体1の進行方向における撮像領域A1の位置と撮像領域A2の位置との相違量Z2は小さくなる。
 したがって、第2のカメラ14の撮像領域B1は、第1のカメラ11の撮像領域A1に対して、Z方向の位置が変化するものの、変化量は小さくなる。同様に、第3のカメラ17の撮像領域C1は、第2のカメラ14の撮像領域B1に対して、Z方向の位置が変化するものの、変化量は小さくなる。このため、画像処理部5は、各画像が取得された時の移動体1の速度を考慮して、画像を合成する必要がある。また、異なる時間に第1のカメラ11によって撮像される範囲A1と範囲A2との位置関係も、移動体1の移動速度によって変化する。したがって、画像処理部5が、移動体1の進行方向であるZ方向にも画像を合成する場合には、やはり移動体1の移動速度を考慮する必要がある。
 さらに、各カメラの露光期間中にも移動体1が移動していると、各画像には、移動体1の移動速度と各カメラの露光時間に応じたブレが発生する。画像のブレは、画像の像流れと表現されることもある。この画像のブレが実用上で無視できない場合には、画像処理部5は、この画像のブレを低減する補正処理を行っても良い。この補正処理において、画像処理部5は、移動体1の移動速度と、各カメラの露光時間とを考慮する必要がある。
 言い換えると、各カメラで取得された画像には、露光期間中に移動体1が移動した距離に対応するブレが発生する。したがって、画像処理部5は、露光期間中に移動体1が移動した距離を求めて、求められた距離に応じて画像のブレを補正する。露光期間中に移動体1が移動した距離は、露光時間と移動体1の移動速度とに対応する。したがって、画像処理部5は、露光時間と移動体1の移動速度とに基づいて、各画像におけるブレの程度を見積り、見積ったブレの程度に基づいて画像を補正する。なお、画像処理部5が各画像におけるブレを低減する補正処理を行う場合、画像を合成する前に行うことが望ましい。
 画像処理部5で合成された画像は、外部へと送出される。外部に送出された画像は、図示していない記憶装置等に蓄積される。または、外部に送出された画像は、図示していない検査装置へと入力され、検査装置は画像から壁面の異常の有無を検出する。壁面の異常としては、ひび割れ、水漏れ等が考えられる。検査装置は異常が存在することを検出した場合には、検出した異常のトンネル壁面における位置を求める。
 図6は、本実施の形態の撮像システムにおける動作の流れを示す図である。まず、ステップS010において、制御部2は、現在時刻が所定の時刻となっているか否かを判定する。ここで、ステップS010における所定の時刻とは、図3におけるt1である。まだ所定の時刻になっていない場合には、制御部2は、所定の時刻となるまで待機する。一方、所定の時刻になっている場合には、制御部2の動作はステップS020へと進む。次に、ステップS020において、制御部2は、第1のカメラ11に画像を取得させる。
 次に、ステップS030において、制御部2は、現在時刻が所定の時刻となっているか否かを判定する。ここで、ステップS030における所定の時刻とは、図3におけるt3である。まだ所定の時刻になっていない場合には、制御部2は、所定の時刻となるまで待機する。一方、所定の時刻になっている場合には、制御部2の動作はステップS040へと進む。次に、ステップS040において、制御部2は、第2のカメラ14に画像を取得させる。
 次に、ステップS050において、制御部2は、現在時刻が所定の時刻となっているか否かを判定する。ここで、ステップS050における所定の時刻とは、図3におけるt5である。まだ所定の時刻になっていない場合には、制御部2は、所定の時刻となるまで待機する。一方、所定の時刻になっている場合には、制御部2の動作はステップS060へと進む。次に、ステップS060において、制御部2は、第3のカメラ17に画像を取得させる。
 次に、ステップS070において、制御部2は、画像の取得を終了するか否かを判定する。画像の取得を終了する操作をユーザーが行った場合、予め決められた数の画像を取得した場合等に、制御部2は、画像の取得を終了すると判定する。まだ画像の取得を終了しない場合には、制御部2の動作はステップS010に戻る。一方、画像の取得を終了する場合には、制御部2の動作はステップS080へと進む。次に、ステップS080において、制御部2は、画像処理部5に画像を合成させる。
 図7は、本実施の形態の撮像システムにおいて、第1のカメラ11に画像を取得させる動作の流れを示す図である。図7は、図6のステップS020における動作の詳細を示している。まず、ステップS021において、制御部2は、第1の照明装置12の発光を開始させる。次に、ステップS022において、制御部2は、第1のカメラ11の露光を開始させる。次に、ステップS023において、制御部2は、時刻取得部31に時刻データを取得させ、速度取得部32に速度データを取得させる。なお、ステップS021、ステップS022、及びステップS023の動作は同時に実施されても良い。ただし、制御部2は、第1の照明装置12を発光させている間に、第1のカメラ11を露光させるように制御する。
 次に、ステップS024において、制御部2は、現在時刻が所定の時刻となっているか否かを判定する。ここで、ステップS024における所定の時刻とは、図3におけるt2である。まだ所定の時刻になっていない場合には、制御部2は、所定の時刻となるまで待機する。一方、所定の時刻になっている場合には、制御部2の動作はステップS025へと進む。次に、ステップS025において、制御部2は、第1のカメラ11の露光を終了させる。次に、ステップS026において、制御部2は、第1の照明装置12の発光を終了させる。次に、ステップS027において、制御部2は、取得された画像、時刻データ、及び速度データをデータ保存部4に記憶させる。
 図8は、本実施の形態の撮像システムにおいて、第2のカメラ14に画像を取得させる動作の流れを示す図である。図8は、図6のステップS040における動作の詳細を示している。まず、ステップS041において、制御部2は、第2の照明装置15の発光を開始させる。次に、ステップS042において、制御部2は、第2のカメラ14の露光を開始させる。次に、ステップS043において、制御部2は、時刻取得部31に時刻データを取得させ、速度取得部32に速度データを取得させる。なお、ステップS041、ステップS042、及びステップS043の動作は同時に実施されても良い。ただし、制御部2は、第2の照明装置15を発光させている間に、第2のカメラ14を露光させるように制御する。
 次に、ステップS044において、制御部2は、現在時刻が所定の時刻となっているか否かを判定する。ここで、ステップS044における所定の時刻とは、図3におけるt4である。まだ所定の時刻になっていない場合には、制御部2は、所定の時刻となるまで待機する。一方、所定の時刻になっている場合には、制御部2の動作はステップS045へと進む。次に、ステップS045において、制御部2は、第2のカメラ14の露光を終了させる。次に、ステップS046において、制御部2は、第2の照明装置15の発光を終了させる。次に、ステップS047において、制御部2は、取得された画像、時刻データ、及び速度データをデータ保存部4に記憶させる。
 図9は、本実施の形態の撮像システムにおいて、第3のカメラ17に画像を取得させる動作の流れを示す図である。図9は、図6のステップS060における動作の詳細を示している。まず、ステップS061において、制御部2は、第3の照明装置18の発光を開始させる。次に、ステップS062において、制御部2は、第3のカメラ17の露光を開始させる。次に、ステップS063において、制御部2は、時刻取得部31に時刻データを取得させ、速度取得部32に速度データを取得させる。なお、ステップS061、ステップS062、及びステップS063の動作は同時に実施されても良い。ただし、制御部2は、第3の照明装置18を発光させている間に、第3のカメラ17を露光させるように制御する。
 次に、ステップS064において、制御部2は、現在時刻が所定の時刻となっているか否かを判定する。ここで、ステップS064における所定の時刻とは、図3におけるt6である。まだ所定の時刻になっていない場合には、制御部2は、所定の時刻となるまで待機する。一方、所定の時刻になっている場合には、制御部2の動作はステップS065へと進む。次に、ステップS065において、制御部2は、第3のカメラ17の露光を終了させる。次に、ステップS066において、制御部2は、第3の照明装置18の発光を終了させる。次に、ステップS067において、制御部2は、取得された画像、時刻データ、及び速度データをデータ保存部4に記憶させる。以上が、本実施の形態の撮像システムにおける動作の流れである。
 図10は本実施の形態の撮像システムのハードウェア構成の一例を示す図である。本実施の形態の撮像システムは、入力インターフェース21、CPU(Central Processing Unit)等のプロセッサ22、記憶装置23、出力インターフェース24、第1のカメラ11、第2のカメラ14、第3のカメラ17、第1の照明装置12、第2の照明装置15、第3の照明装置18を備える。以降では、インターフェースをIFと表記する。入力IF21、プロセッサ22、記憶装置23、及び出力IF24は、移動体1に搭載されたコンピュータとすることができる。しかし、これに限定されることなく、一部の構成は、各カメラ又は各照明装置に内蔵されてもよい。また、入力IF21、プロセッサ22、記憶装置23、及び出力IF24は、ネットワークを介して遠隔地、又は仮想的にクラウド上に構築されてもよい。
 データ保存部4の機能は、記憶装置23によって実現される。また、制御部2、速度取得部32、時刻取得部31、画像処理部5の機能は、記憶装置23に記憶されたプログラムをプロセッサ22が実行することによって実現される。速度データ及び時刻データは、入力IF21を介して取得される。なお、入力IF21及び出力IF24は、ケーブル用ポートなどの有線ポート、USB(Universal Serial Bus)ポート、直接接続のポート、無線ネットワークのポート等である。記憶装置23はHDD(Hard Disk Drive)やSSD(Solid State Drive)、フラッシュメモリなどの記憶媒体である。
 図3に示したような制御パターン信号は、入力IF21を通って記憶装置23に保存される。制御パターン信号を入力する方法としては、キーボード、マウスなどで制御パターンを直接入力する方法、予め作成した制御パターンが保存されたUSBメモリ、HDDなどその他外部メモリを有線あるいは直接ポートに接続して入力する方法、制御パターンを無線でネットワークを介して入力する方法等が考えられる。また、制御パターン信号を生成するプログラムを記憶装置23に記憶させておいてもよい。
 図11A及び図11Bは、本実施の形態の撮像システムの効果を説明するための図である。図11A及び図11Bにおいて、横軸は時間を表しており、縦軸は各照明装置を発光させるために必要な電力を表している。ここで、第1の照明装置12、第2の照明装置15、及び第3の照明装置18のそれぞれを発光させるために必要な電力は同一であると仮定し、この電力をPとする。
 図11Aは、本実施の形態の撮像システムにおいて必要となる電力の時間変化を示しており、図3に示す制御パターン信号で各照明装置が制御された場合に必要となる電力の時間変化を示している。図11Aにおいて、時刻t1からt2までの間は、第1の照明装置12が発光するため、電力Pが必要となる。また、時刻t3からt4までの間は、第2の照明装置15が発光するため、電力Pが必要となる。また、時刻t5からt6までの間は、第3の照明装置18が発光するため、電力Pが必要となる。また、時刻t7からt8までの間は、第1の照明装置12が発光するため、電力Pが必要となる。以降も同様である。本実施の形態の撮像システムは、各照明装置の発光期間が互いに重ならないように制御しているため、瞬間的に大きな電力を必要とすることがなく、最大消費電力が抑制されている。
 図11Bは、比較例において必要となる電力の時間変化を示している。比較例は、全ての照明装置を同時に点灯し、全ての照明装置を同時に消灯するように制御された場合である。この比較例においては、時刻t1からt2までの間は、第1の照明装置12、第2の照明装置15、及び第3の照明装置18の全てが発光するため、本実施の形態の撮像システムと比較して最大消費電力が3倍となる。言い換えると、本実施の形態の撮像システムでは、最大消費電力は比較例に対して1/3に抑制される。
 比較例の場合、各カメラの露光も同時に行うことが可能となる。したがって、移動体1の進行方向において同一の範囲を撮像した画像を取得できるので、取得された画像の合成は容易となる。しかしながら、この点を勘案しても、本実施の形態の撮像システムにおいて最大消費電力が抑制される効果は、非常に大きなものとなる。
 最大消費電力が抑制されると、大容量バッテリを使用する必要がなくなり、バッテリを含めた撮像装置の小型化、軽量化が可能となる。この結果、移動体1が移動する際の燃料消費量を抑制でき、さらに、移動体1を小型化することも可能となる。小型・軽量になることによって、本実施の形態の撮像システムは、超小型飛行機、小型船舶、専用車両ではない一般車両に搭載しやすくなる。また、本実施の形態の撮像システムでは、廉価なバッテリの採用も可能となり、撮像システムの価格が抑えられ、広く普及しやすくなる。さらに、夜間やトンネル、地下、構造物の影になる暗い場所では照明光の光量を上げる必要があるため、最大消費電力の低減効果は、明るい場所を撮像する場合に比べてより大きくなる。
実施の形態2.
 本実施の形態の撮像システムのハードウェア構成、及びシステム構成は実施の形態1におけるものと同じである。本実施の形態の撮像システムにおいては、各カメラ及び各照明装置の制御パターンが、実施の形態1におけるものとは異なる。実施の形態1の撮像システムにおいては、各カメラの露光時間の和、及び各照明装置の発光時間の和が、フレーム時間より短い場合を想定していた。一方、本実施の形態の撮像システムでは、各カメラの露光時間の和、又は各照明装置の発光時間の和が、フレーム時間よりも長い場合を想定する。なお、本実施の形態の撮像システムでは、各カメラの画角は等しく、撮像対象までの距離も各カメラで等しいものとしている。しかし、本発明はこれに限定されるわけではなく、各カメラの画角や撮影距離が違っていても適用可能である。
 ここで、各カメラのフレーム時間は等しく、また各カメラの露光時間も等しく、さらに各照明装置の発光時間も等しいとする。この場合、実施の形態1の撮像システムのように、各カメラの露光時間の和、及び各照明装置の発光時間の和が、フレーム時間より短い場合には、フレーム時間内で各カメラの露光期間、及び各照明装置の発光期間を分散させることができる。しかしながら、各カメラの露光時間の和、又は各照明装置の発光時間の和が、フレーム時間よりも長い場合には、各カメラの露光期間、又は各照明装置の発光期間の少なくとも一部が重なることになる。本実施の形態の撮像システムのでは、このような場合であっても、最大消費電力を可能な限り抑制するように制御するものである。
 各カメラの露光時間の和、又は各照明装置の発光時間の和がフレーム時間より長くなる原因としては、例えば、多数のカメラを用いる場合が考えられる。撮像対象の周方向の範囲が広い場合、又は高解像度画像を得るために狭い画角でカメラを並べる場合などには、撮像システムは多数のカメラを必要とする。別の例としては、移動体1の移動速度が速い場合、進行方向で撮像領域が重なるように撮像するためには、フレーム時間を短くする必要がある。
 各カメラの露光期間、又は各照明装置の発光期間の全てを全く重ならないように制御することは不可能であっても、少なくとも2つのカメラの露光期間、又は少なくとも2つの照明装置の発光期間を重ならないように制御することは可能な場合がある。ここで、移動体1には、カメラと照明装置とを備える撮像装置の複数の組が搭載されている。図1に示す第1のカメラ11と第1の照明装置12とが第1の撮像装置の組であり、第2のカメラ14と第2の照明装置15とが第2の撮像装置の組であり、第3のカメラ17と第3の照明装置18とが第3の撮像装置の組である。動作期間が重ならないように制御する撮像装置の組は、例えば、第1の撮像装置の組と、第2の撮像装置の組とが考えられる。
 第1の照明装置12が照明する範囲と、第2の照明装置15が照明する範囲とは、一部が重なる。第1の照明装置12及び第2の照明装置15からの照明光の照度分布が、照明範囲の中心で明るく、照明範囲の端部で暗い場合には、第1の照明装置12及び第2の照明装置15を同時に発光させると、各照明範囲の端部でも明るい画像を得ることができる。一方、第1の照明装置12及び第2の照明装置15からの照明光の照度分布が、照明範囲の端部でも十分な明るさを持つ場合には、第1の照明装置12及び第2の照明装置15を同時に発光させると、照明範囲が重なった部分が明るくなりすぎる。この場合、撮像画像において白とびが発生する可能性がある。このような場合には、互いの視野が重なる第1の撮像装置の組と、第2の撮像装置の組とを同時に動作させるのではなく、互いの視野が重ならない第1の撮像装置の組と、第3の撮像装置の組とを同時に動作させればよい。
 図12は、本実施の形態の撮像システムにおいて、各カメラが受け取る撮像制御信号、各照明装置が受け取る照明制御信号、時刻取得部31及び速度取得部32が受け取るデータ取得制御信号の時間変化の例を示している。すなわち、図12は、本実施の形態の撮像システムにおける撮像制御シーケンスの例を示している。また、図13は、本実施の形態の撮像システムにおける動作の流れを示す図である。図12及び図13を用いて、本実施の形態の撮像システムの動作を説明する。
 まず、ステップS010において、制御部2は、現在時刻が所定の時刻となっているか否かを判定する。ここで、ステップS010における所定の時刻とは、図12におけるt11である。まだ所定の時刻になっていない場合には、制御部2は、所定の時刻となるまで待機する。一方、所定の時刻になっている場合には、制御部2の動作はステップS020bへと進む。次に、ステップS020bにおいて、制御部2は、第1のカメラ11及び第3のカメラ17に画像を取得させる。
 次に、ステップS030において、制御部2は、現在時刻が所定の時刻となっているか否かを判定する。ここで、ステップS030における所定の時刻とは、図12におけるt13である。まだ所定の時刻になっていない場合には、制御部2は、所定の時刻となるまで待機する。一方、所定の時刻になっている場合には、制御部2の動作はステップS040へと進む。次に、ステップS040において、制御部2は、第2のカメラ14に画像を取得させる。次に、ステップS070において、制御部2は、画像の取得を終了するか否かを判定する。画像の取得を終了しない場合には、制御部2の動作はステップS010に戻る。一方、画像の取得を終了する場合には、制御部2の動作はステップS080へと進む。次に、ステップS080において、制御部2は、画像処理部5に画像を合成させる。
 図14は、本実施の形態の撮像システムにおいて、第1のカメラ11及び第3のカメラ17に画像を取得させる動作の流れを示す図である。図14は、図13のステップS020bにおける動作の詳細を示している。まず、ステップS021bにおいて、制御部2は、第1の照明装置12及び第3の照明装置18の発光を開始させる。次に、ステップS022bにおいて、制御部2は、第1のカメラ11及び第3のカメラ17の露光を開始させる。次に、ステップS023において、制御部2は、時刻取得部31に時刻データを取得させ、速度取得部32に速度データを取得させる。なお、ステップS021b、ステップS022b、及びステップS023の動作は同時に実施されても良い。ただし、制御部2は、第1の照明装置12を発光させている間に、第1のカメラ11を露光させるように制御し、第3の照明装置18を発光させている間に、第3のカメラ17を露光させるように制御する。
 次に、ステップS024において、制御部2は、現在時刻が所定の時刻となっているか否かを判定する。ここで、ステップS024における所定の時刻とは、図12におけるt12である。まだ所定の時刻になっていない場合には、制御部2は、所定の時刻となるまで待機する。一方、所定の時刻になっている場合には、制御部2の動作はステップS025bへと進む。次に、ステップS025bにおいて、制御部2は、第1のカメラ11及び第3のカメラ17の露光を終了させる。次に、ステップS026bにおいて、制御部2は、第1の照明装置12及び第3の照明装置18の発光を終了させる。次に、ステップS027において、制御部2は、取得された画像、時刻データ、及び速度データをデータ保存部4に記憶させる。
 以上が、本実施の形態の撮像システムにおける動作の流れである。なお、図13におけるステップS040における制御部2の動作は、図8に示す動作と同様である。ただし、図8のステップS044における所定の時刻が、本実施の形態の撮像システムにおいては、図12に示すt14となる。以上のように、本実施の形態の撮像システムでは、第1のカメラ11、第1の照明装置12、第3のカメラ17、及び第3の照明装置18がONとなるタイミングは等しくなる。また、本実施の形態の撮像システムでは、第2のカメラ14及び第2の照明装置15がONとなるタイミングは、第1のカメラ11、第1の照明装置12、第3のカメラ17、及び第3の照明装置18がONとなるタイミングとは異なっている。制御部2は、少なくとも2つの照明装置の発光期間が重なるように制御する。図12に示す撮像制御シーケンスでは、第1の照明装置12の発光期間と、第3の照明装置18の発光期間とが重なっている。
 図15A及び図15Bは、図12の制御パターン信号で得られる画像における撮像領域の位置関係を示している。図15A及び図15Bの横方向は円柱座標系の軸方向の位置Zを表している。言い換えると、図15A及び図15Bの横方向は移動体1の進行方向の位置Zを表している。また、図15A及び図15Bの縦方向は円柱座標系の周方向の位置θを表している。本実施の形態の撮像システムでは、画像A-1における撮像領域A1と、画像C-1における撮像領域C1とは、移動体1の進行方向における位置が同じとなる。一方、画像B-1における撮像領域B1は、撮像領域A1及び撮像領域C1と比較して、移動体1の進行方向における位置が異なる。
 画像処理部5は、移動体1の進行方向における画像A-1と画像B-1との相対位置が、上記の相違量Z1と対応するように、画像A-1と画像B-1とを合成する。すなわち、画像処理部5は、移動体1の移動速度と、各カメラの露光開始時刻の差とに基づいて、移動体1の進行方向における第1の画像と第2の画像との位置関係を決定し、第1の画像と第2の画像とを合成する。
 本実施の形態の撮像システムによれば、各カメラの露光時間の和、又は各照明装置の発光時間の和が、フレーム時間より長い場合でも、消費電力を抑えるように動作できる。図12の制御パターン信号を用いた場合、照明装置を発光させるために必要となる最大消費電力を2/3に抑えることができる。本実施の形態の撮像システムは、多数のカメラを用いる場合、移動体1の移動速度が速い場合などに有効である。なお、本実施の形態の撮像システムにおいては、実施の形態1の撮像システムと異なる部分を説明した。それ以外の部分については実施の形態1の撮像システムと同様である。
実施の形態3.
 説明を簡単にするため、実施の形態1及び実施の形態2の撮像システムでは、全てのカメラの露光時間が同一であり、全ての照明装置の発光時間が同一であり、さらに、全てのカメラのフレーム時間及び画角が同一である場合を例示した。しかし、本発明における撮像システムは、このような条件に限定されるものではない。本実施の形態の撮像システムは、露光時間及びフレーム時間がカメラによって異なり、発光時間が照明装置によって異なるように制御される。
 本実施の形態の撮像システムによれば、このような場合においても、照明装置を発光させるために必要となる最大消費電力を抑えることができる。なお、本実施の形態の撮像システムにおけるハードウェア構成及びシステム構成は、実施の形態1の撮像システムにおけるものと同じである。ただし、本実施の形態の撮像システムでは、制御部2が生成する制御パターン信号が、実施の形態1の撮像システムにおけるものとは異なる。
 露光時間及びフレーム時間がカメラ間で異なるように制御する理由は次のようなものである。例えば、第1のカメラ11の進行方向の画角が第2のカメラ14及び第3のカメラ17の半分しかない場合、全てのカメラで同じフレーム時間とすると、第1のカメラ11では移動体1の進行方向に漏れなく撮像することができない可能性がある。一方で、第1のカメラ11で漏れなく撮像できるように、全てのカメラのフレーム時間を短くすると、第2のカメラ14及び第3のカメラ17の撮像領域において、移動体1の進行方向で重複する領域が多く発生してしまう。したがって、第2のカメラ14及び第3のカメラ17のフレーム時間と比較して、第1のカメラ11のフレーム時間を短くすることが望ましい。
 この際、第1のカメラ11の画角が狭いことから、第1のカメラ11の撮像領域も狭くなる。第1のカメラ11の撮像領域に合わせて、第1の照明装置12の照明範囲を他の照明装置の照明範囲よりも狭くすることで、同じ消費電力で第1の照明装置12は他の照明装置よりも撮像領域を明るく照明することができる。この結果、第1のカメラの露光時間を短くすることができ、モーションブラーによる画質低下を抑制可能となる。
 図16は、本実施の形態の撮像システムにおいて、各カメラが受け取る撮像制御信号、各照明装置が受け取る照明制御信号、時刻取得部31及び速度取得部32が受け取るデータ取得制御信号の時間変化の例を示している。すなわち、図16は、本実施の形態の撮像システムにおける撮像制御シーケンスの例を示している。また、図17は、本実施の形態の撮像システムにおける動作の流れを示す図である。図16及び図17を用いて、本実施の形態の撮像システムの動作を説明する。
 まず、ステップS010cにおいて、制御部2は、現在時刻が所定の時刻となっているか否かを判定する。ここで、ステップS010cにおける所定の時刻とは、図16におけるt21である。まだ所定の時刻になっていない場合には、制御部2は、所定の時刻となるまで待機する。一方、所定の時刻になっている場合には、制御部2の動作はステップS020cへと進む。次に、ステップS020cにおいて、制御部2は、第1のカメラ11に画像を取得させる。
 次に、ステップS030において、制御部2は、現在時刻が所定の時刻となっているか否かを判定する。ここで、ステップS030における所定の時刻とは、図16におけるt22である。まだ所定の時刻になっていない場合には、制御部2は、所定の時刻となるまで待機する。一方、所定の時刻になっている場合には、制御部2の動作はステップS040へと進む。次に、ステップS040において、制御部2は、第2のカメラ14に画像を取得させる。
 次に、ステップS010dにおいて、制御部2は、現在時刻が所定の時刻となっているか否かを判定する。ここで、ステップS010dにおける所定の時刻とは、図16におけるt23である。まだ所定の時刻になっていない場合には、制御部2は、所定の時刻となるまで待機する。一方、所定の時刻になっている場合には、制御部2の動作はステップS020dへと進む。次に、ステップS020dにおいて、制御部2は、第1のカメラ11に画像を取得させる。
 次に、ステップS050において、制御部2は、現在時刻が所定の時刻となっているか否かを判定する。ここで、ステップS050における所定の時刻とは、図16におけるt24である。まだ所定の時刻になっていない場合には、制御部2は、所定の時刻となるまで待機する。一方、所定の時刻になっている場合には、制御部2の動作はステップS060へと進む。次に、ステップS060において、制御部2は、第3のカメラ17に画像を取得させる。次に、ステップS070において、制御部2は、画像の取得を終了するか否かを判定する。画像の取得を終了しない場合には、制御部2の動作はステップS010cに戻る。一方、画像の取得を終了する場合には、制御部2の動作はステップS080へと進む。次に、ステップS080において、制御部2は、画像処理部5に画像を合成させる。
 なお、図17におけるステップS020c及びS020dにおける制御部2の動作は、図7に示す動作と同様である。また、図17におけるステップS040における制御部2の動作は、図8に示す動作と同様である。また、図17におけるステップS060における制御部2の動作は、図9に示す動作と同様であり、ただし、本実施の形態の撮像システムにおける所定の時刻は、実施の形態1の撮像システムにおけるものとは異なる。
 図16に示す撮像制御シーケンスでは、第1のカメラ11のフレーム時間はt23-t21で求められ、第2のカメラ14のフレーム時間はt22-t26で求められ、第3のカメラ17のフレーム時間はt24-t28で求められる。図16に示す撮像制御シーケンスでは、第1のカメラ11のフレーム時間は、第2のカメラ14のフレーム時間及び第3のカメラ17のフレーム時間と比較して半分となっている。また、図16に示す撮像制御シーケンスでは、第1のカメラ11の1回の露光時間は、第2のカメラ14の1回の露光時間及び第3のカメラ17の1回の露光時間と比較して半分となっている。
 図18Aから図18Dは、図16の制御パターン信号で得られる画像における撮像領域の位置関係を示している。図18Aから図18Dの横方向は円柱座標系の軸方向の位置Zを表している。言い換えると、図18Aから図18Dの横方向は移動体1の進行方向の位置Zを表している。また、図18Aから図18Dの縦方向は円柱座標系の周方向の位置θを表している。
 図18Aから図18Dにおいて、撮像領域A11は、第1のカメラ11が時刻t21からの露光で取得する画像の撮像領域を表す。撮像領域B1は、第2のカメラ14が時刻t22からの露光で取得する画像の撮像領域を表す。撮像領域A12は、第1のカメラ11が時刻t23からの露光で取得する画像の撮像領域を表す。撮像領域C1は、第3のカメラ17が時刻t24からの露光で取得する画像の撮像領域を表す。同様に、撮像領域A21は、第1のカメラ11が時刻t25からの露光で取得する画像の撮像領域を表す。撮像領域B2は、第2のカメラ14が時刻t26からの露光で取得する画像の撮像領域を表す。撮像領域A22は、第1のカメラ11が時刻t27からの露光で取得する画像の撮像領域を表す。撮像領域C2は、第3のカメラ17が時刻t28からの露光で取得する画像の撮像領域を表す。
 本実施の形態の撮像システムでは、第1のカメラ11のフレーム時間は、他のカメラのフレーム時間と比べて短くなる。したがって、第1のカメラ11で連続して取得される画像間において、撮像領域の位置の変化量は、他のカメラにおけるものと比較して小さくなる。また、第1のカメラ11の画角は、他のカメラの画角と比べて狭くなる。したがって、第1のカメラ11で取得される画像における撮像領域は、他のカメラで撮像される画像における撮像領域と比較して、移動体1の進行方向の範囲が狭くなる。画像処理部5は、移動体1の移動速度と、各カメラの画角及び露光開始時刻の差とに基づいて、移動体1の進行方向における各画像の位置関係を決定し、合成画像を生成する。
 本実施の形態の撮像システムによれば、少なくとも1つのカメラの画角又は画素数が他のカメラと異なる場合でも、画質の低下を招くことなく所望の画像を取得することができる。また、本実施の形態の撮像システムによれば、少なくとも1つのカメラで取得される画像の分解能を他のカメラで取得された画像の分解能と変化させたい場合でも、画質の低下を招くことなく所望の画像を取得することができる。同じ画素数のカメラを用いる場合でも、被写体までの距離又はレンズの拡大率をカメラによって変化させることで、取得される画像の分解能を変化させることができる。この場合、移動体1の進行方向における撮像領域の広さがカメラによって変化することになる。本実施の形態の撮像システムによれば、このような場合でも所望の画像を取得することができる。
 さらに、本実施の形態の撮像システムによれば、同一のカメラで連続して取得された画像間において、移動体1の進行方向における撮像領域の重なり量をカメラによって変化させたい場合でも、画質の低下を招くことなく所望の画像を取得することができる。この場合には、カメラによってフレーム時間を変化させることになる。
 なお、以上では、実施の形態1の撮像システムと異なる部分を説明した。それ以外の部分については実施の形態1の撮像システムと同様である。
実施の形態4.
 実施の形態1から実施の形態3の撮像システムの動作は、1枚の画像を取得するためにカメラが露光状態となる期間、及び照明装置が発光する期間が連続するように制御されていた。例えば、実施の形態1の撮像システムにおいて、図3に示す時刻t1からt2までの間に第1のカメラ11は1枚の画像を取得するが、この間に第1の撮像制御信号及び第1の照明制御信号は連続してONとなっている。すなわち、時刻t1から時刻t2までの間、第1のカメラ11は常に露光状態となっており、第1の照明装置12は常に発光状態となっている。
 しかし、本発明における撮像システムの動作は、このような動作に限定されるものではない。本実施の形態の撮像システムの動作は、1枚の画像を取得する間に、カメラが露光状態となる期間と、非露光状態となる期間とが、所定のパターンで複数回切り替わるように制御される。ここで、非露光状態とは、カメラが露光状態ではない状態にあることを意味し、カメラが露光していない状態を意味する。このような制御は、符号化露光制御と呼ばれる。符号化露光制御は、像ブレの補正、ピント補正等を目的として行われる制御である。ここでは、1枚の画像を取得するための一連の露光状態の開始から終了までを露光期間と呼ぶ。
 なお、本実施の形態の撮像システムにおけるハードウェア構成及びシステム構成は、実施の形態1の撮像システムにおけるものと同じである。ただし、本実施の形態の撮像システムでは、制御部2が生成する制御パターン信号が、実施の形態1の撮像システムにおけるものとは異なる。また、本実施の形態の撮像システムでは、各カメラの画角は等しく、撮像対象までの距離も各カメラで等しい場合を例示しているが、これに限定されるわけではない。
 図19は、本実施の形態の撮像システムにおいて、各カメラが受け取る撮像制御信号、各照明装置が受け取る照明制御信号、時刻取得部31及び速度取得部32が受け取るデータ取得制御信号の時間変化の例を示している。すなわち、図19は、本実施の形態の撮像システムにおける撮像制御シーケンスの例を示している。図19において、第1のカメラ11は、時刻t31から時刻t32までの間に1枚の画像を取得する。一方、制御部2は、時刻t31から時刻t32までの間に、第1の撮像制御信号のON、OFFを複数回切り替える。この結果、第1のカメラ11の動作は、1枚の画像を取得する間に露光状態と非露光状態との間で複数回切り替えられる。1枚の画像を取得するための第1のカメラ11の露光期間は、時刻t31から時刻t32までとなる。
 同様に、制御部2は、時刻t33から時刻t34までの間に、第2の撮像制御信号のON、OFFを複数回切り替える。この結果、第2のカメラ14の動作は、1枚の画像を取得する間に露光状態と非露光状態との間で複数回切り替えられる。また、制御部2は、時刻t35から時刻t36までの間に、第3の撮像制御信号のON、OFFを複数回切り替える。この結果、第3のカメラ17の動作は、1枚の画像を取得する間に露光状態と非露光状態との間で複数回切り替えられる。1枚の画像を取得するための第2のカメラ14の露光期間は、時刻t33から時刻t34までとなる。また、1枚の画像を取得するための第3のカメラ17の露光期間は、時刻t35から時刻t36までとなる。
 図20は、図19の制御パターン信号で得られる画像における撮像領域の位置関係を示している。図20の横方向は円柱座標系の軸方向の位置Zを表している。言い換えると、図20の横方向は移動体1の進行方向の位置Zを表している。また、図20の縦方向は円柱座標系の周方向の位置θを表している。図20において、撮像領域A1は、第1のカメラ11が時刻t31から時刻t32までの露光で取得する画像の撮像領域を表す。撮像領域B1は、第2のカメラ14が時刻t33から時刻t34までの露光で取得する画像の撮像領域を表す。撮像領域C1は、第3のカメラ17が時刻t35から時刻t36までの露光で取得する画像の撮像領域を表す。
 図19で示した通り、各カメラの動作は、ひとつのフレーム時間内で露光状態と非露光状態との間で複数回切り替えられるが、1回のフレーム時間に各カメラで撮像される画像は1枚である。例えば、各カメラはシャッターによってイメージセンサへの光の入射を制御し、複数回の露光によって多重露光して1枚の画像を取得する。または、各カメラは、複数回の露光状態毎に画像を生成し、生成された複数の画像を重ね合わせることで1枚の画像を取得することもできる。
 以上では、本実施の形態の撮像システムの動作として、一枚の画像を取得する間に、カメラが露光状態となる期間と、非露光状態となる期間とが、複数回切り替わるように制御される場合を例示して説明した。しかし、カメラの露光状態を切り替える代わりに、照明装置の発光状態を切り替えても、同様の効果を得ることができる。すなわち、本実施の形態の撮像システムの動作として、1枚の画像を取得する間に、照明装置が発光状態となる期間と、非発光状態となる期間とが、複数回切り替わるように制御されても良い。
 この場合、撮像システムの制御シーケンスは図21のようになる。ここで、非発光状態とは、照明装置が発光していない状態を意味する。また、1枚の画像を取得するための一連の発光状態の開始から終了までを発光期間と呼ぶ。図21において、時刻t31から時刻t32までの間が、1枚の画像を取得するための第1の照明装置の発光期間となる。このように制御すれば、撮像システムの消費電力は、より大幅に削減されることが期待できる。
 以上のように、1枚の画像を取得する間に、カメラの露光状態又は照明装置の発光状態を複数回切り替え、切り替えパターンに応じた画像処理を行うことで、画像に発生するモーションブラーを抑制することが可能となる。また、各照明装置の発光期間の全てが重なる期間が発生しないように制御することで、最大消費電力を抑制することができる。なお、本実施の形態の撮像システムについて、実施の形態1の撮像システムと異なる部分を説明したが、説明を省略した部分については実施の形態1の撮像システムと同様である。
 このような制御を行う場合、1枚の画像を取得するためのカメラの露光期間の長さに対して、実際にカメラが露光状態となっている時間は短くなる。または、このような制御を行う場合、1枚の画像を取得するための照明装置の発光期間の長さに対して、実際に照明装置が発光状態となっている時間は短くなる。したがって、取得される画像が暗くなることが懸念される。この問題を解決するためには、照明装置を明るく発光させることが考えられるが、最大消費電力が増加してしまう。本実施の形態の撮像システムによれば、最大消費電力が抑制されるため、照明装置を明るく発光させることが容易であり、効果的に符号化露光制御を行うことができる。
実施の形態5.
 本実施の形態の撮像システムは、移動体1の移動速度に応じてカメラの露光時間及び照明装置の発光時間を変化させるものである。図22は、本実施の形態の撮像システムの構成を示すシステム構成図である。本実施の形態の撮像システムは、速度取得部32で取得された速度データが制御部2にも入力され、入力された速度データに基づいて制御部2が撮像制御信号及び照明制御信号を生成する点が、図2に示す実施の形態1の撮像システムとは異なる。
 図23は、本実施の形態の撮像システムにおいて、各カメラが受け取る撮像制御信号、各照明装置が受け取る照明制御信号、時刻取得部31及び速度取得部32が受け取るデータ取得制御信号の時間変化の例を示している。すなわち、図23は、本実施の形態の撮像システムにおける撮像制御シーケンスの例を示している。以下、図23を用いて本実施の形態の撮像システムの動作について述べる。まず、時刻t52において、制御部2は、第1の撮像制御信号、第1の照明制御信号、及びデータ取得信号をONにする。次に、時刻t53において、制御部2は、第1の撮像制御信号、第1の照明制御信号、及びデータ取得信号をOFFにする。
 次に、時刻t55において、制御部2は、第2の撮像制御信号、第2の照明制御信号、及びデータ取得信号をONにする。次に、時刻t56において、制御部2は、第2の撮像制御信号、第2の照明制御信号、及びデータ取得信号をOFFにする。次に、時刻t58において、制御部2は、第3の撮像制御信号、第3の照明制御信号、及びデータ取得信号をONにする。次に、時刻t59において、制御部2は、第3の撮像制御信号、第3の照明制御信号、及びデータ取得信号をOFFにする。以降では、同様の動作が繰り返される。
 ここで、制御部2は、直前に取得された速度データに基づいて、撮像制御信号及び照明制御信号がONになってからOFFになるまでの時間を決定する。すなわち、制御部2は、直前に取得された速度データに基づいて、t53-t52、t56-t55、及びt59-t58を決定する。時刻t52、t55、t58は予め決定されており、制御部2は、直前に取得された速度データに基づいて、t53、t56、及びt59を決定する。例えば、制御部2は、時刻t52から時刻t53までの間に取得された速度データに基づいて、時刻t56を決定する。このように、制御部2は、直前に取得された移動体1の速度に基づいて、各カメラの露光時間及び各照明装置の発光時間を決定する。
 また、制御部2は、移動体1の速度が遅いほど、各カメラの露光時間及び各照明装置の発光時間が長くなり、移動体1の速度が速いほど、各カメラの露光時間及び各照明装置の発光時間が短くなるように制御する。各カメラの露光時間及び各照明装置の発光時間が短くなると、各カメラで取得される画像が暗くなる懸念があるが、各カメラが画像処理を行うことで画像の明るさを補正することができる。例えば、各カメラが露光時間に応じてゲイン調整を行うことにより、画像の明るさを補正することができる。
 また、制御部2は、直前に取得された移動体1の速度に基づいて、各照明装置の発光強度を制御しても良い。制御部2は、移動体1の速度が遅いほど、各照明装置の発光強度が小さくなり、移動体1の速度が速いほど、各照明装置の発光強度が大きくなるように制御する。すなわち、制御部2は、移動体1の速度が遅いほど、各カメラの露光時間及び各照明装置の発光時間が長くなるように制御するとともに、各照明装置の発光が暗くなるように制御する。一方、制御部2は、移動体1の速度が速いほど、各カメラの露光時間及び各照明装置の発光時間が短くなるように制御するとともに、各照明装置の発光が明るくなるように制御する。このように制御することで、各カメラで取得される画像の明るさの変動が抑制される。このような制御を行う場合、制御部2は発光強度を制御する信号も制御パターン信号として出力し、各照明装置はこの信号に応じた強度で発光する。
 図24は、本実施の形態の撮像システムにおける撮像制御シーケンスの別の例を示している。図24に示す撮像制御シーケンスでは、制御部2は、速度取得制御信号も出力する。速度取得制御信号は、各カメラの露光時間及び各照明装置の発光時間を決定するために、速度取得部32に移動体の速度を取得させる信号である。速度取得部32は、データ取得制御信号がONになった時に加えて、速度取得制御信号がONになった時にも速度データを取得する。制御部2は、時刻t51で取得された速度データに基づいて、第1のカメラ11の露光時間及び第1の照明装置12の発光時間を決定する。また、制御部2は、時刻t54で取得された速度データに基づいて、第2のカメラ14の露光時間及び第2の照明装置15の発光時間を決定する。また、制御部2は、時刻t57で取得された速度データに基づいて、第3のカメラ17の露光時間及び第3の照明装置18の発光時間を決定する。
 本実施の形態の撮像システムにおける動作の流れは、基本的には図6に示すものと同様である。ただし、本実施の形態の撮像システムは、ステップS020、S040、及びS060における動作の詳細が、実施の形態1の撮像システムにおけるものとは異なる。図25は、本実施の形態の撮像システムにおいて、第1のカメラ11に画像を取得させる動作の流れを示す図である。図25は、ステップS020における動作の詳細を示している。まず、ステップS028において、制御部2は、速度取得部32に速度データを取得させる。次に、ステップS028において、制御部2は、取得された速度データに基づいて、第1のカメラ11の露光時間及び第1の照明装置12の発光時間を決定する。ステップS021以降の動作の流れは、実施の形態1におけるものと同様である。また、ステップS040及びS060における動作も、図25と同様となる。
 本実施の形態の撮像システムは、以上のように動作する。本実施の形態の撮像システムは、移動体1の移動速度に応じてカメラの露光時間及び照明装置の発光時間を変化させるものである。したがって、本実施の形態の撮像システムによれば、移動体1が高速で移動する場合に、画像に発生するモーションブラーを抑制することができ、良好な画像を取得することが可能となる。また、本実施の形態の撮像システムにおいて、移動体1の速度に応じて制御部2が照明装置の発光強度を制御しても良い。この構成によれば、移動体1が低速で移動する場合に、各照明装置を発光させるために必要な最大消費電力がさらに抑制される。一方で、移動体1が高速で移動する場合には、各照明装置を発光させるために必要な最大消費電力が増加する懸念があるが、本実施の形態の撮像システムは、各照明装置の発光期間が互いに重ならないように動作するので、最大消費電力の大幅な増加を回避することができる。
 1 移動体、2 制御部、4 データ保存部、5 画像処理部、11 第1のカメラ、12 第1の照明装置、13 第1の視野、14 第2のカメラ、15 第2の照明装置、16 第2の視野、17 第3のカメラ、18 第3の照明装置、19 第3の視野、21 入力インターフェース、22 プロセッサ、23 記憶装置、24 出力インターフェース、31 時刻取得部、32 速度取得部、41 画像データ保存部、42 速度データ保存部、43 時刻データ保存部、100 トンネル壁面。

Claims (11)

  1.  移動体に設置され、前記移動体の周辺の第1の撮像領域を撮像して第1の画像を取得する第1のカメラと、
     前記移動体に設置され、前記第1の撮像領域を照明する第1の照明装置と、
     前記移動体に設置され、前記移動体の進行方向を軸とした周方向の位置が前記第1の撮像領域とは異なる第2の撮像領域を撮像して第2の画像を取得する第2のカメラと、
     前記移動体に設置され、前記第2の撮像領域を照明する第2の照明装置と、
     前記第1の照明装置と前記第2の照明装置とが同時に発光しないように制御するとともに、前記第1の照明装置が発光して前記第1の撮像領域を照明する間に前記第1のカメラが前記第1の画像を取得し、前記第2の照明装置が発光して前記第2の撮像領域を照明する間に前記第2のカメラが前記第2の画像を取得するように制御する制御部と
     を備える移動撮像システム。
  2.  前記第1の画像が取得された時の前記移動体の移動速度を第1の移動速度として取得し、前記第2の画像が取得された時の前記移動体の移動速度を第2の移動速度として取得する速度取得部と、
     前記第1の画像と前記第1の移動速度とを関連付けて記憶し、前記第2の画像と前記第2の移動速度とを関連付けて記憶するデータ記憶部と
     を備える請求項1に記載の移動撮像システム。
  3.  前記第1の画像が取得された時の時刻を第1の時刻として取得し、前記第2の画像が取得された時の時刻を第2の時刻として取得する時刻取得部を備え、
     前記データ記憶部は、前記第1の画像と前記第1の時刻とを関連付けて記憶し、前記第2の画像と前記第2の時刻とを関連付けて記憶する
     請求項2に記載の移動撮像システム。
  4.  前記第1の移動速度又は前記第2の移動速度と、前記第1の時刻と、前記第2の時刻とに基づいて、前記第1の画像と前記第2の画像とを合成した合成画像を生成する画像処理部を備える請求項3に記載の移動撮像システム。
  5.  前記移動体に設置され、前記移動体の進行方向を軸とした周方向の位置が前記第1の撮像領域及び前記第2の撮像領域のいずれとも異なる第3の撮像領域を撮像して第3の画像を取得する第3のカメラと、
     前記移動体に設置され、前記第3の撮像領域を照明する第3の照明装置とを備え、
     前記制御部は、前記第1の照明装置及び前記第2の照明装置の一方と、前記第3の照明装置とが同時に発光するように制御する
     請求項1から請求項4のいずれか1項に記載の移動撮像システム。
  6.  前記制御部は、前記第1の撮像領域と前記第3の撮像領域とが隣接しない場合に、前記第1の照明装置と前記第3の照明装置とが同時に発光するように制御する
     請求項5に記載の移動撮像システム。
  7.  前記制御部は、前記第1の照明装置の発光期間の長さと前記第2の照明装置の発光期間の長さとが異なるように制御する
     請求項1から請求項6のいずれか1項に記載の移動撮像システム。
  8.  前記制御部は、前記第1のカメラが1枚の画像を取得する間に、前記第1の照明装置が複数回発光するように制御する
     請求項1から請求項7のいずれか1項に記載の移動撮像システム。
  9.  前記制御部は、前記移動体の速度に応じて前記第1のカメラの露光期間の長さ及び前記第1の照明装置の発光期間の長さが変化するように制御する
     請求項1から請求項8のいずれか1項に記載の移動撮像システム。
  10.  前記制御部は、前記移動体の速度に応じて前記第1の照明装置の発光強度が変化するように制御する
     請求項9に記載の移動撮像システム。
  11.  移動体に設置された第1のカメラと、第1の照明装置と、第2のカメラと、第2の照明装置とを用いて前記移動体の周辺を撮像する撮像方法であって、
     前記第1の照明装置で、前記移動体の周辺の第1の撮像領域を照明するステップと、
     前記第1の照明装置が前記第1の撮像領域を照明する間に、前記第1のカメラで、前記第1の撮像領域を撮像して第1の画像を取得するステップと、
     前記第2の照明装置で、前記移動体の進行方向を軸とした周方向の位置が前記第1の撮像領域とは異なる第2の撮像領域を照明するステップと、
     前記第2の照明装置が前記第2の撮像領域を照明する間に、前記第2のカメラで、前記第2の撮像領域を撮像して第2の画像を取得するステップと
     を備え、
     前記第1の照明装置が前記第1の撮像領域を照明するステップと、前記第2の照明装置が前記第2の撮像領域を照明するステップとが異なる時刻に行われる撮像方法。
PCT/JP2017/029726 2016-11-01 2017-08-21 移動撮像システム及び撮像方法 WO2018083858A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018548561A JP6627986B2 (ja) 2016-11-01 2017-08-21 移動撮像システム及び撮像方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-214196 2016-11-01
JP2016214196 2016-11-01

Publications (1)

Publication Number Publication Date
WO2018083858A1 true WO2018083858A1 (ja) 2018-05-11

Family

ID=62075953

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/029726 WO2018083858A1 (ja) 2016-11-01 2017-08-21 移動撮像システム及び撮像方法

Country Status (2)

Country Link
JP (1) JP6627986B2 (ja)
WO (1) WO2018083858A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112104813A (zh) * 2019-06-18 2020-12-18 爱信精机株式会社 拍摄控制装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05256633A (ja) * 1991-06-13 1993-10-05 East Japan Railway Co 鉄道トンネル覆工変状撮影方法
JP2016031249A (ja) * 2014-07-25 2016-03-07 西日本高速道路エンジニアリング四国株式会社 トンネル覆工面調査システムおよびトンネル覆工面調査システムに用いる車両
JP2016031248A (ja) * 2014-07-25 2016-03-07 西日本高速道路エンジニアリング四国株式会社 トンネル覆工面調査システムおよびトンネル覆工面調査システムに用いる車両

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05256633A (ja) * 1991-06-13 1993-10-05 East Japan Railway Co 鉄道トンネル覆工変状撮影方法
JP2016031249A (ja) * 2014-07-25 2016-03-07 西日本高速道路エンジニアリング四国株式会社 トンネル覆工面調査システムおよびトンネル覆工面調査システムに用いる車両
JP2016031248A (ja) * 2014-07-25 2016-03-07 西日本高速道路エンジニアリング四国株式会社 トンネル覆工面調査システムおよびトンネル覆工面調査システムに用いる車両

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112104813A (zh) * 2019-06-18 2020-12-18 爱信精机株式会社 拍摄控制装置

Also Published As

Publication number Publication date
JPWO2018083858A1 (ja) 2019-02-14
JP6627986B2 (ja) 2020-01-08

Similar Documents

Publication Publication Date Title
US10627512B1 (en) Early fusion of lidar return data with camera information
EP3423865B1 (en) Gated imaging apparatus, system and method
US11353588B2 (en) Time-of-flight sensor with structured light illuminator
CN108702437B (zh) 计算深度图的方法、系统、设备和存储介质
WO2020075525A1 (ja) センサフュージョンシステム、同期制御装置、及び同期制御方法
US11609313B2 (en) Hybrid time-of-flight and imager module
JP2011013064A (ja) 位置検出装置
WO2016076016A1 (ja) 車載カメラシステム
WO2018083858A1 (ja) 移動撮像システム及び撮像方法
JP2018064257A (ja) 撮像システム
JP2021072530A (ja) 無人航空機
JP7204480B2 (ja) 撮像装置、撮像システム、移動体及び撮像装置の制御方法
JP6320315B2 (ja) 移動撮像装置
CN112565618B (zh) 曝光控制装置
US10531021B2 (en) Image generating apparatus, image generating method, and recording medium for controlling image sensor having two types of cells
JP2013174446A (ja) 3次元情報検出装置および3次元情報検出方法
WO2021084892A1 (ja) 画像処理装置、画像処理方法、画像処理プログラム、及び画像処理システム
JP2015070280A (ja) 画像処理装置、カメラシステム、および画像処理方法
CN108332720B (zh) 光学测距系统
JP2014235022A (ja) ナビゲーション装置およびナビゲーション方法
JP7176969B2 (ja) 検査装置
WO2024038677A1 (ja) 撮像支援装置、撮像装置、撮像支援方法、及びプログラム
US10868983B2 (en) Image generating apparatus, image generating method, and recording medium having the program stored thereon
JP2010221756A (ja) 車両灯火判定装置
WO2019146514A1 (ja) 車載カメラシステム、車両用灯具、遠方の検出方法、車両用灯具の制御方法

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2018548561

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17868318

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17868318

Country of ref document: EP

Kind code of ref document: A1