WO2016013132A1 - トンネル覆工面調査システムおよびトンネル覆工面調査システムに用いる車両 - Google Patents

トンネル覆工面調査システムおよびトンネル覆工面調査システムに用いる車両 Download PDF

Info

Publication number
WO2016013132A1
WO2016013132A1 PCT/JP2014/082021 JP2014082021W WO2016013132A1 WO 2016013132 A1 WO2016013132 A1 WO 2016013132A1 JP 2014082021 W JP2014082021 W JP 2014082021W WO 2016013132 A1 WO2016013132 A1 WO 2016013132A1
Authority
WO
WIPO (PCT)
Prior art keywords
tunnel lining
lining surface
photographing
image
circumferential direction
Prior art date
Application number
PCT/JP2014/082021
Other languages
English (en)
French (fr)
Inventor
行雄 明石
橋本 和明
詳悟 林
Original Assignee
西日本高速道路エンジニアリング四国株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 西日本高速道路エンジニアリング四国株式会社 filed Critical 西日本高速道路エンジニアリング四国株式会社
Priority to US14/903,623 priority Critical patent/US10116871B2/en
Priority to CN201480064678.4A priority patent/CN105765374B/zh
Priority to SG11201600833YA priority patent/SG11201600833YA/en
Priority to KR1020157020723A priority patent/KR20170034750A/ko
Publication of WO2016013132A1 publication Critical patent/WO2016013132A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M3/00Investigating fluid-tightness of structures
    • G01M3/38Investigating fluid-tightness of structures by using light
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M5/00Investigating the elasticity of structures, e.g. deflection of bridges or air-craft wings
    • G01M5/0033Investigating the elasticity of structures, e.g. deflection of bridges or air-craft wings by determining damage, crack or wear
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M5/00Investigating the elasticity of structures, e.g. deflection of bridges or air-craft wings
    • G01M5/0091Investigating the elasticity of structures, e.g. deflection of bridges or air-craft wings by using electromagnetic excitation or detection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/954Inspecting the inner surface of hollow bodies, e.g. bores
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0008Industrial image inspection checking presence/absence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/51Housings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/58Means for changing the camera field of view without moving the camera body, e.g. nutating or panning of optics or image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2201/00Features of devices classified in G01N21/00
    • G01N2201/06Illumination; Optics
    • G01N2201/062LED's
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2201/00Features of devices classified in G01N21/00
    • G01N2201/12Circuits of general importance; Signal processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30184Infrastructure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/701Line sensors

Definitions

  • the present invention relates to a tunnel lining surface inspection system and a vehicle used in the tunnel lining surface inspection system, and in particular, the damage state such as cracks on the tunnel lining surface is visualized by an image to investigate the soundness (degradation degree) of the tunnel.
  • the present invention relates to a system and a vehicle.
  • Patent Document 1 JP 2014-95627 A
  • the tunnel lining surface is constructed for each span.
  • the tunnel lining surface is divided into joints for each span, and each span is given a span number (covering number) that identifies a portion of the tunnel lining surface.
  • the present invention has been made in view of such circumstances, and the image of the tunnel lining surface obtained by running the vehicle is processed into an image showing both sides of the tunnel lining surface for each span, and for each span, The solution is to be able to investigate the soundness (degradation level) of the tunnel.
  • the first invention is A tunnel lining surface inspection system for photographing an image of a tunnel lining surface by a photographing means mounted on the vehicle while the vehicle is traveling in a tunnel, and processing the image into a survey target image for investigating the tunnel lining surface,
  • An imaging means mounted on the vehicle and having an imaging range of one side surface of both sides of the tunnel lining surface;
  • the photographing means is fixed to a first photographing position where one side surface of both sides of the tunnel lining surface can be photographed, and the photographing means is reversed so that the photographing means is disposed on both side surfaces of the tunnel lining surface.
  • Fixing / reversing means for fixing one side surface of the other to a second photographing position capable of photographing,
  • a first image showing one side surface of both sides of the tunnel lining surface photographed by the photographing means in a state where the photographing means is fixed at the first photographing position, and the photographing means comprises the first 2 with the same span of the tunnel lining surface as compared with the second image showing the other side surface of both sides of the tunnel lining surface imaged by the imaging means in a state fixed to the imaging position 2
  • the tunnel lining surface inspection system is provided with an image processing means for synthesizing an image showing both sides of the tunnel lining surface for each span of the tunnel lining surface.
  • the second invention is the first invention
  • the imaging means includes a plurality of line sensors that are arranged along the circumferential direction of the tunnel lining surface and shoot an image of each area along the circumferential direction of the tunnel lining surface
  • the image processing means includes In a state where the plurality of line sensors are fixed at the first imaging position, an image of each area captured by the plurality of line sensors and the plurality of line sensors are fixed at the second imaging position. Both sides of the tunnel lining surface for each span of the tunnel lining surface, by matching the images of each area photographed by the plurality of line sensors in the state and indicating the part that becomes the same span of the tunnel lining surface It is characterized in that it is synthesized with an image showing.
  • the imaging means are arranged along the circumferential direction of the tunnel lining surface, and a plurality of line sensors that shoot images of each area along the circumferential direction of the tunnel lining surface Including
  • the fixing / reversing means is a member that is rotatable by 90 ° in the circumferential direction of the tunnel lining surface with the drive shaft as the center of rotation, and the number of line sensors are arranged along the circumferential direction of the tunnel lining surface.
  • the L-shaped member and the L-shaped member are positioned at the first photographing position, and the L-shaped member is rotated by 90 ° in the circumferential direction of the tunnel lining surface.
  • positioning means for positioning to the second photographing position when positioned at the second photographing position.
  • the fourth invention is A vehicle used in a tunnel lining surface inspection system, A photographing means having a photographing range of at least one side surface of both sides of the tunnel lining surface, An imaging means including a plurality of line sensors arranged along the circumferential direction of the tunnel lining surface and taking images of each area along the circumferential direction of the tunnel lining surface; The photographing means is fixed to a first photographing position where one side surface of both sides of the tunnel lining surface can be photographed, and the photographing means is reversed so that the photographing means is disposed on both side surfaces of the tunnel lining surface.
  • Fixing / reversing means for fixing the other one side surface to a second photographing position capable of photographing, and a member that is rotatable by 90 ° in the circumferential direction of the tunnel lining surface with the drive shaft as the center of rotation.
  • the number of line sensors positions the L-shaped member disposed along the circumferential direction of the tunnel lining surface and the L-shaped member at the first photographing position, and the L-shaped Fixing / reversing means including positioning means for positioning the member at the second photographing position when the member is rotated 90 ° in the circumferential direction of the tunnel lining surface and located at the second photographing position.
  • Tunnel lining surface survey system It is a vehicle used for the system.
  • the present invention it is possible to acquire images on both sides of the tunnel lining surface by running a vehicle equipped with a photographing means having a photographing range on one side of the both sides of the tunnel lining surface. According to the present invention, an image showing both sides of the tunnel lining surface is obtained for each span.
  • the soundness (degradation degree) of the tunnel lining surface can be investigated for each span, and the investigation result can be managed for each span.
  • FIG. 1 is a diagram showing a left side surface of a vehicle used in a tunnel lining surface inspection system according to the present invention.
  • FIG. 2 is a cross-sectional view showing a state in which the vehicle is traveling on the left lane in the tunnel, and is a diagram showing a state where the lining surface of the tunnel is photographed using a line sensor and a halogen lamp.
  • FIG. 3 is a diagram corresponding to FIG. 2, and is a cross-sectional view showing a state where the vehicle is traveling in the overtaking lane on the right side in the tunnel.
  • FIG. 4 is a plan view showing the configuration of the fixing / reversing means.
  • FIG. 5 is a view showing a state in which the photographing means is fixed at the second photographing position.
  • FIG. 6 is a cross-sectional view of the stage member and the L-shaped member, and is a view showing a cross-section taken along the line AA in FIG.
  • FIG. 7 is a view corresponding to FIG. 4 and is a view showing a modification in which the illuminating means provided on the L-shaped member is changed to an LED unit instead of a halogen lamp.
  • FIG. 8 is a diagram showing an internal configuration of the LED unit
  • FIG. 8A is a transverse sectional view showing the inside in the state of FIG. 7, and
  • FIG. 8B is a longitudinal sectional view.
  • FIG. 9 is a diagram illustrating a procedure of processing performed in the tunnel lining surface inspection system according to the embodiment.
  • FIGS. 10A, 10B, 10C, 10D, and 10E are diagrams for explaining image processing performed in a personal computer.
  • FIGS. 11A and 11B are diagrams for explaining the distortion correction image processing (FIG. 10B).
  • FIGS. 12A, 12B, and 12C are diagrams for explaining the distortion correction image processing (FIG. 10B).
  • FIGS. 13A and 13B are diagrams for explaining processing (FIG. 10C) for matching the images and instructing a portion having the same span on the tunnel lining surface.
  • FIGS. 14A, 14B, and 14C are diagrams for explaining oblique correction (upward correction) image processing (FIG. 10D).
  • FIGS. 15A and 15B are diagrams for explaining processing (FIG. 10E) for compositing an image showing both sides of the tunnel lining surface for each span of the tunnel lining surface.
  • FIG. 16 is a diagram illustrating a survey example of the soundness (degradation degree) of the tunnel lining surface.
  • FIG. 1 shows a left side surface of a vehicle 1 used in a tunnel lining surface inspection system according to the present invention.
  • the vehicle 1 is a work vehicle based on a work truck used for road maintenance work, for example.
  • the loading platform portion of the vehicle 1 has a container shape, and a door on one side surface (left side surface in FIG. 1) of the container and a ceiling door of the container can be opened and closed.
  • FIG. 1 shows a state in which the door is opened.
  • the photographing means 10 and the illuminating means 20 are provided on the loading platform of the vehicle 1 so that the lining surface of the tunnel can be photographed and illuminated when the door of the vehicle 1 is opened.
  • the photographing means 10 is assumed to be a line sensor (camera).
  • three line sensors 10a, 10b, and 10c are assumed.
  • they are referred to as line sensors 10.
  • the illumination means 20 is assumed to be a halogen lamp. Note that a metal halide lamp (HID) or LED illumination may be used as a light source.
  • HID metal halide lamp
  • 12 halogen lamps 20a, 20b, 20c, 20d, 20e, 20f, 20g, 20h, 20i, 20j, 20k, and 20l are assumed.
  • the 12 halogen lamps 20a to 20l are represented, they are referred to as halogen lamps 20.
  • the line sensor 10 is fixed to the fixing / reversing means 30 so that the direction perpendicular to the traveling direction of the vehicle 1 is the direction of the collimation line 11a.
  • the line sensor 10 photographs the photographing range 11 with a predetermined angle of view that extends in the depth direction and the viewer direction with respect to the drawing of FIG.
  • the halogen lamp 20 is fixed to the fixing / reversing means 30 so as to project light in a direction perpendicular to the traveling direction of the vehicle 1.
  • the positional relationship between the line sensor 10 and the halogen lamp 20 is set so that the collimation line 11 a of the line sensor 10 falls within the irradiation range 21 of the halogen lamp 20.
  • the image processing unit 40 receives image data captured by the line sensor 10 and performs image processing for generating an image of the tunnel lining surface.
  • FIG. 2 is a cross-sectional view showing a state in which the vehicle 1 is traveling on the left lane 150L in the tunnel, and the line sensor 10 and the halogen lamp 20 are used to photograph the lining surface 100 of the tunnel. Is shown.
  • the road surface on the left side of the tunnel center line TC in the drawing is referred to as a left traveling lane 150L
  • the road surface on the right side of the tunnel center line TC in the drawing is referred to as a right overtaking lane 150R.
  • the left side of the tunnel lining surface 100 delimited by the tunnel center line TC is a left side surface 100L
  • the right side of the tunnel lining surface 100 delimited by the tunnel center line TC is a right side surface 100R.
  • the imaging means 10 is an imaging means having an imaging range of at least one side surface (the left side surface 100L in FIG. 2) of both side surfaces 100L and 100R of the tunnel lining surface 100.
  • a plurality of (three in the embodiment) line sensors 10a, 10b, and 10c that are arranged along the circumferential direction of 100 and that respectively photograph the areas 100A, 100B, and 100C along the circumferential direction of the tunnel lining surface 100; It consists of
  • Each of the line sensors 10a, 10b, and 10c has an angle of view of 61 °. Accordingly, in each of the areas 100A, 100B, and 100C, a part of the adjacent areas overlaps.
  • the illumination unit 20 has an irradiation range of at least one side surface (the left side surface 100L in FIG. 2) of both side surfaces 100L and 100R of the tunnel lining surface 100.
  • the lamps 20a to 20l are included (see FIG. 4).
  • the fixing / reversing means 30 fixes the photographing means 10 to the first photographing position where the left side surface 100L, which is one of the both sides of the tunnel lining surface 100, can be photographed, and reverses the photographing means 10.
  • the photographing means 10 is a fixing / reversing means for fixing the right side surface 100 ⁇ / b> R, which is the other side surface of the both sides of the tunnel lining surface 100, to a second photographing position capable of photographing, and rotates the drive shaft 31.
  • the center is a member that is rotatable by 90 ° in the circumferential direction of the tunnel lining surface 100, and a plurality (three in FIG.
  • the L-shaped member 32 and the L-shaped member 32 are positioned at the first photographing position, and the L-shaped member 32 is 90 ° in the circumferential direction of the tunnel lining surface 100. Rotated In addition, it is configured to include positioning means (not shown in FIG. 2 and described later in FIG. 4) for positioning to the second imaging position when positioned at the second imaging position.
  • the illumination means 20 is similarly located at the first photographing position, and illuminates and fixes the photographing areas 100A, 100B, and 100C corresponding to the first photographing position.
  • the reversing unit 30 is at the second shooting position, the illumination unit 20 is similarly positioned at the second shooting position, and the shooting areas 100D, 100E, and 100F (see FIG. 3) corresponding to the second shooting position are displayed. Illuminate.
  • FIG. 3 is a view corresponding to FIG. 2, and is a cross-sectional view showing a state in which the vehicle 1 is traveling in the overtaking lane 150 ⁇ / b> R on the right side in the tunnel.
  • FIG. 3 shows a state in which the photographing means 10 and the illumination means 20 are positioned and fixed at the second photographing position by being reversed 90 degrees clockwise from the first photographing position (FIG. 2) by the fixing / reversing means 30. Is shown.
  • the photographing means 10 photographs the right side surface 100 ⁇ / b> R of the tunnel lining surface 100. That is, the line sensors 10a, 10b, and 10c respectively photograph the areas 100D, 100E, and 100F along the circumferential direction of the tunnel lining surface 100.
  • the illumination means 20 illuminates the right side surface 100R of the tunnel lining surface 100. That is, the twelve halogen lamps 20a to 20l irradiate the respective areas 100D, 100E, and 100F along the circumferential direction of the tunnel lining surface 100 with light.
  • FIG. 4 is a plan view showing the configuration of the fixing / reversing means 30.
  • the L-shaped member 32 has arms 32L and 32R that are symmetric with respect to the target axis m1 passing through the drive shaft 31 that is the center of rotation, and the arms 32L and 32R having the same length intersect with each other vertically and are integrally formed.
  • 12 halogen lamps 20a to 20l are arranged on the upper surface 32S of the L-shaped member 32 so as to be symmetrical.
  • a triangular stage member 33 is attached to the inner corner portion of the L-shaped member 32 so as to be symmetrical with respect to the target axis m1.
  • Three line sensors 10a, 10b, and 10c are arranged on the upper surface 33S of the stage member 33 so as to be symmetrical with respect to the target axis m1.
  • the positioning means 34 includes a T-shaped member 35.
  • the T-shaped member 35 is fixed to a frame installed on the loading platform of the vehicle 1.
  • the L-shaped member 32 is rotated relative to the T-shaped member 35 fixed to the frame with the drive shaft 31 as a rotation center.
  • the drive shaft 31 is driven by drive means such as a motor (not shown).
  • the T-shaped member 35 is a member that is bilaterally symmetric with respect to the target axis m2 that passes through the drive shaft 31, and arms 35L, 35R, and 35M having the same length from the drive shaft 31 to the end are perpendicularly intersected and formed integrally.
  • the arms 35L, 35R, and 35M are formed with holes 35a, 35b, and 35c that are equidistant from the drive shaft 31, respectively.
  • the arms 32L and 32R of the L-shaped member 32 are formed with holes 32a and 32b that are equidistant from the drive shaft 31.
  • FIG. 4 shows a state in which the photographing means 10 is fixed at the first photographing position.
  • a pin (not shown) is inserted into the hole 35c and the hole 32a, and a pin (not shown) is inserted into the hole 35b and the hole 32b, so that the photographing unit 10 and the illumination unit 20 are in the first photographing position. Fixed to.
  • FIG. 5 shows a state in which the photographing means 10 is fixed at the second photographing position.
  • FIG. 6 shows a cross section of the stage member 33 and the L-shaped member 32, and shows a cross section taken along line AA in FIG.
  • the upper surface 33 ⁇ / b> S of the stage member 33 is provided at a position higher than the upper surface 32 of the L-shaped member 32. Therefore, the line sensor 10 is attached at a position higher than the halogen lamp 20.
  • the line sensor 10 and the halogen so that the collimation line 11a of the line sensor 10 does not interfere with the halogen lamp 20 or the like while the collimation line 11a of the line sensor 10 enters the irradiation range 21 of the halogen lamp 20.
  • the positional relationship of the lamp 20 is set. Note that the angle of view 11 of the line sensor 10 extends in the depth direction and the viewer direction in the drawing of FIG.
  • FIG. 7 is a view corresponding to FIG. 4 and shows a modification in which the illuminating means 20 provided on the L-shaped member 32 is changed to the LED unit 20 instead of the halogen lamp 20. That is, four LED units 20A, 20B, 20C, and 20D are arranged on the upper surface 32S of the L-shaped member 32 so as to be symmetrical. The four LED units 20A, 20B, 20C, and 20D have the same irradiation range 21 as the halogen lamps 20a to 20l.
  • FIG. 8 is a diagram showing an internal configuration of the LED unit 20, FIG. 8 (a) is a cross-sectional view seen from the top surface of FIG. 7, and FIG. 8 (b) is a longitudinal sectional view seen from the cross-section of FIG. is there.
  • the LED unit 20 includes a line-shaped LED board 22 in which a plurality of LEDs 22 a are arranged along the circumferential direction of the tunnel lining surface 100 (direction perpendicular to the traveling direction of the vehicle 1), and the line-shaped LED board 22.
  • a lens that refracts emitted light a cylindrical rod lens 23 having a length in the longitudinal direction corresponding to the LED arrangement length of the line-shaped LED substrate 22, and light 25 refracted by the rod lens 23.
  • Cover glass 24 that passes through and emits to the outside, and a fan 26 for cooling the line-shaped LED substrate 22.
  • the photographing unit 10 is configured by the three line sensors 10a, 10b, and 10c has been described.
  • a larger number of photographing units may be used.
  • You may comprise by the imaging
  • one line sensor 20 having a photographing range capable of photographing one side surface of the tunnel lining surface 100 is attached to the fixing / reversing means 30, and the left side surface 100L is secured by one line sensor 20 at the first photographing position. , And then reversed 90 ° so that the right side surface 100R is captured by one line sensor 20 at the second imaging position, and both side surfaces 100L of the tunnel lining surface 100 are captured by one line sensor 20. Implementation of photographing 100R is also possible.
  • FIG. 9 shows a processing procedure performed by the tunnel lining surface inspection system of the embodiment.
  • the vehicle 1 is driven along the left driving lane 150L. While the vehicle 1 is running, the three line sensors 10a, 10b, 10c and the halogen lamps 20a-20l are operated. Thereby, each area 100A, 100B, 100C of the left side surface 100L of the tunnel lining surface 100 is sequentially photographed by the three line sensors 10a, 10b, 10c. Data of the images of the areas 100A, 100B, and 100C of the left side surface 100L of the tunnel lining surface 100 photographed by the line sensors 10a, 10b, and 10c is taken into the image processing unit 40. (See FIG. 2; step 201).
  • step 202 the line sensors 10a, 10b and 10c and the halogen lamps 20a to 20l are reversed by 90 ° by the fixing / reversing means 30 (step 202).
  • the vehicle 1 With the line sensors 10a, 10b and 10c and the halogen lamps 20a to 20l fixed at the second photographing position, the vehicle 1 is driven along the right overtaking lane 150R.
  • each area 100D, 100E, 100F of the right side surface 100R of the tunnel lining surface 100 is sequentially photographed by the three line sensors 10a, 10b, 10c.
  • Data of the images of the areas 100D, 100E, and 100F on the right side surface 100R of the tunnel lining surface 100 photographed by the line sensors 10a, 10b, and 10c is taken into the image processing unit 40. (See FIG. 3; step 203).
  • the image data of each area 100A, 100B, 100C of the left side surface 100L of the tunnel lining surface 100 and the image data of each area 100D, 100E, 100F of the right side surface 100R captured by the image processing unit 40 are used for image processing. For example, it is taken into an external personal computer (step 204).
  • step 205 distortion correction image processing described later is performed (step 205).
  • the images of the areas 100A, 100B, 100C, 100D, 100E, and 100F photographed by the three line sensors 10a, 10b, and 10c are brought into contact with each other, and the same span S of the tunnel lining surface 100 is obtained. Is designated (step 206).
  • step 207 oblique correction (upward correction) image processing, which will be described later, is performed.
  • the spans S1, S2,... Sn of the tunnel lining surface 100 are combined with images 110-1, 110-2... 110-n showing both side surfaces 100L, 100R of the tunnel lining surface 100 (step 208).
  • FIG. 10 is a diagram for explaining image processing performed by a personal computer.
  • each image 110A, 110B, 110C, 110D, 110E, 110F showing each area 100A, 100B, 100C, 100D, 100E, 100F of the left side surface 100L and the right side surface 100R of the tunnel lining surface 100 is captured (FIG. 10A )), Distortion correction image processing is performed on each of the images 110A, 110B, 110C, 110D, 110E, and 110F (FIG. 10B), and the images 110A, 110B, 110C, 110D, 110E, and 110F are matched, A part having the same span S on the tunnel lining surface 100 is indicated (FIG. 10C), and oblique correction (upward correction) image processing is performed (FIG. 10D), and the spans S1, S2,. Images 110-1 showing both side surfaces 100L, 100R of the tunnel lining surface 100 for each Sn 10-2 ... combined into 110-n (FIG. 10 (e)).
  • FIG. 11 and 12 are diagrams for explaining the distortion corrected image processing (FIG. 10B).
  • the imaging unit 10 When the imaging unit 10 is installed on the tunnel lining surface 100 so that the collimation of the imaging unit 10 is orthogonal, the surface of the tunnel lining surface 100 is condensed due to water droplets or the like due to the positional relationship between the illumination unit 20 and the imaging unit 10. In this case, specular reflection occurs, and condensation is partially reflected in the image captured by the photographing unit 10, so that it may be difficult to determine a defect such as a crack to be originally captured. In order to avoid this, it is effective to incline the irradiation direction axis of the illumination unit 20 and the imaging direction axis (collimation) of the imaging unit 10.
  • the collimation line 11a of the photographing means (line sensor) 10 is perpendicular to the vertical direction, that is, the ceiling surface of the tunnel lining surface 100, as viewed from the side of the vehicle 1.
  • the angle ⁇ (for example, 8 °) is inclined forward with respect to the direction, and the collimation line 11a of the photographing means (line sensor) 10 is horizontal as seen from the upper surface of the vehicle 1 as shown in FIG.
  • the photographing means (line sensor) 10 is installed so as to be inclined forward by an angle ⁇ (for example, 8 °) with respect to the direction, that is, the direction perpendicular to the side surface of the tunnel lining surface 100.
  • the irradiation direction of the illumination means (halogen lamp) 20 is similarly inclined.
  • FIG. 12A shows the relationship between the collimation line 11 a of the imaging means (line sensor) 10 and the joint 111 of the tunnel lining surface 100.
  • the spans S1, S2,... Of the tunnel lining surface 100 are delimited by joints 111 orthogonal to the traveling direction of the vehicle 1 (the direction of the center line TC of the tunnel).
  • the direction of the collimation line 11a and the direction of the joint 111 intersect at a predetermined angle ⁇ , Since the timing at which the quasi-line 11a passes through the joint 111 is different for each pixel, the joint 111 in the image photographed by the photographing means (line sensor) 10 is distorted in a curved shape (FIG. 12B). ).
  • FIG. 13 is a diagram for explaining a process (FIG. 10C) of matching the images 110A to 110F and instructing a part having the same span S of the tunnel lining surface 100.
  • FIG. 10C a process of matching the images 110A to 110F and instructing a part having the same span S of the tunnel lining surface 100.
  • This processing is performed using the joint 111 that has been linearized by the distortion correction image processing as a reference line.
  • the images 110A, 110B, and 110C obtained for the left side surface 100L of the tunnel lining surface 100 are arranged on the screen of the personal computer so as to be at the same position.
  • the alignment is performed by using the joint 111 that is a straight line as a reference line.
  • tunnel lining surfaces 100 that specify positions such as KP (kilo post), span number (lining number), and illumination number. Each image is captured, and these are used as a guide. In addition, the position may be recognized.
  • part which becomes the same span S of the tunnel lining surface 100 is instruct
  • the portions of the images 110A, 110B, and 110C that become the span S1 are 110A-1, 110B-1, and 110C-1 (hereinafter, used as codes indicating the image data of the span S1), respectively.
  • the image data 110A-1, 110B-1, 110C-1 for identifying the parts 110A-1, 110B-1, 110C-1 that are the same span S1 are stored in the folder L1 in the lane 1 (the driving lane 150L). Stored in association with the address indicating S1.
  • image data specifying the same spans S2, S3,... Sn, and specifying the same spans S2, S3,... Sn are stored in the folder L1 in lane 1 (traveling lane 150L). Store it.
  • portions of the images 110D, 110E, and 110F that become the span S1 are 110D-1, 110E-1, and 110F-1, respectively (hereinafter, the image data of the span S1 is converted to the image data of the span S1.
  • Image data 110D-1, 110E-1, and 110F-1 that specify the portions 110D-1, 110E-1, and 110F-1 having the same span S1 are represented by Lane 2 ( It is stored in the folder L2 of the overtaking lane 150R) in association with the address indicating the span S1.
  • image data specifying the same spans S2, S3,... Sn is specified in the folder L2 in the lane 2 (passing lane 150R). Store it.
  • FIG. 14 is a diagram for explaining the obliqueness correction (upward correction) image processing (FIG. 10D).
  • FIG. 14A shows the positional relationship between the tunnel lining surface 100 and the line sensors 10a, 10b, and 10c.
  • the line sensors 10a, 10b, and 10c are offset from the tunnel center line TC. Therefore, the collimation lines 11a of the line sensors 10a, 10b, and 10c are not directly opposed to the tunnel lining surface 100 that is the object to be photographed, and are inclined. For this reason, in the line sensors 10a, 10b, and 10c, the near tunnel lining surface 100 is imaged large, and the far tunnel lining surface 100 is imaged small.
  • the area imaged by the line sensor 10 (for example, the line sensor 10c) is indicated by 100C, for example.
  • 100C the imaging area 100C
  • each divided area 100C-1, Of the 100C-2, 100C-3, 100C-4, and 100C-5 the tunnel lining surface 100 is imaged the largest in the divided area 100C-1 closest to the line sensor 10, and the divided area 100C- farthest from the line sensor 10 is captured. 5, the tunnel lining surface 100 is imaged the smallest.
  • image processing is performed so that the tunnel lining surface 100 that is the object to be imaged is captured at an actual size in each area of the image.
  • an angle indicating an imaging direction (collimation line 11a) of the line sensor 10 (an angle with respect to the horizontal line HL)
  • X Two-dimensional horizontal position of the line sensor 10 (lens, sensor) (relative position with respect to the center line TC of the tunnel)
  • Y Two-dimensional vertical position of line sensor 10 (lens, sensor) (relative position with reference to tunnel road surfaces 150L and 150R)
  • angle of view of line sensor 10
  • each of the divided areas 100C-1, 100C-2, 100C-3, 100C-4, and 100C-5 is a photographing object.
  • Image processing is performed so that the tunnel lining surface 100 is imaged at an actual size.
  • FIG. 15 shows a process of combining images 110-1, 110-2,... 110-n showing both side surfaces 100L, 100R of the tunnel lining surface 100 for each span S1, S2,. )) Is a diagram for explaining.
  • the image data 110A-1, 110B-1, and 110C-1 associated with the address indicating the span S1 are read from the folder L1 in the lane 1 (the driving lane 150L).
  • the image data 110D-1, 110E-1, and 110F-1 associated with the address indicating the span S1 are read from the folder L2 in the lane 2 (the passing lane 150R).
  • each area 100A, 100B, 100C, 100D, 100E, and 100F a part of adjacent areas is photographed.
  • the corresponding point PT is instructed in consideration of the overlap.
  • the images 110A-1, 110B-1, 110C-1, 110D-1, 110E-1, and 110F-1 are synthesized with respect to the corresponding point PT, and the tunnel covering is performed.
  • images 110-1 of the left and right side surfaces 100L and 100R are obtained.
  • the vehicle 1 equipped with the imaging means 10 having the imaging range on one side surface of the both sides 100L and 100R of the tunnel lining surface 100 is caused to travel, so that the tunnel lining surface 100 Images of both side surfaces 100L and 100R can be acquired.
  • image images 110-1, 110-2,... 110-n showing both side surfaces 100L, 100R of the tunnel lining surface 100 are obtained for each span S1, S2,.
  • the soundness (degradation degree) of the tunnel lining surface 100 can be investigated for each span S1, S2,... Sn, and the investigation result can be managed for each span S1, S2,.
  • FIG. 16 shows a survey example of the soundness (degradation degree) of the tunnel lining surface 100.
  • FIG. 16 shows the images 110-1, 110-2, 110-3, 110-4, 110-5, and 110-6 of each span S1, S2, S3, S4, S5, and S6 read out from the file L3, and the personal computer
  • the state of continuous display on the screen is shown.
  • the operator performs a process of drawing a crack 300 by specifying a cracked portion that may be peeled off from the image of the tunnel lining surface 100 on the screen.
  • the width, length, direction, shape, and density of the crack 300 are extracted for each span S1, S2, S3, S4, S5, and S6, and each of the spans S1, S2, S3, S4, S5, and S6.
  • the image data 110-1, 110-2, 110-3, 110-4, 110-5, and 110-6 are stored in association with each other. Similarly, the presence / absence of efflorescence and other occurrences of deformation may be extracted.
  • the above-described image processing performed by the personal computer may be performed by a semi-automatic process in which a part thereof is performed manually, or may be performed by an automatic process.

Abstract

 スパン毎に、トンネルの健全度(劣化度)を調査できるようにする。撮影手段が第1の撮影位置に固定された状態で、撮影手段によって撮影されたトンネル覆工面の両側面のうち一方の片側側面を示す第1の画像と、撮影手段が第2の撮影位置に固定された状態で、撮影手段によって撮影されたトンネル覆工面の両¥側面のうち他方の片側側面を示す第2の画像とを突き合わせて、トンネル覆工面の同一スパンとなる部位を指示することにより、トンネル覆工面のスパン毎にトンネル覆工面の両側面を示す画像に合成する。

Description

トンネル覆工面調査システムおよびトンネル覆工面調査システムに用いる車両
 本発明は、トンネル覆工面調査システムおよびトンネル覆工面調査システムに用いる車両に関し、特に、トンネル覆工面のひびわれ等の損傷状態を画像にて可視化して、トンネルの健全度(劣化度)を調査するためのシステムおよび車両に関する。
 本出願人は、すでに、特許文献1に示されるように、トンネル内を車両が走行中に、当該車両に搭載した撮影手段によって、トンネル覆工面の画像を撮影し、トンネル覆工面を調査するための調査対象画像に加工するトンネル覆工面調査システムを提案している。
この特許文献1で提案された発明によれば、1台の車両を走行させながらトンネル覆工面の画像を取得することができ、その画像を用いて、トンネル覆工面のひびわれ等の損傷状態を画像にて可視化して、トンネルの健全度(劣化度)を調査することができる。
特許文献1:特開2014-95627号
 トンネル覆工面は、1スパン毎に構築されている。トンネル覆工面は、1スパン毎に、目地によって区切られ、各スパンには、トンネル覆工面の部位を特定するスパン番号(覆工番号)が付与されている。
 よって、トンネルの健全度(劣化度)を調査するに際して、画像をスパン番号(覆工番号)によって管理して、スパン毎に、ひび割れの幅、長さ、方向および形状、密度、漏水及びエフロレッセンスの有無、その他変状の発生状況を抽出して、対策を画策することが望まれている。
 本発明は、こうした実情に鑑みてなされたものであり、車両を走行させて得られるトンネル覆工面の画像を、スパン毎のトンネル覆工面の両側面を示す画像に加工して、スパン毎に、トンネルの健全度(劣化度)を調査できるようにすることを解決課題とする。
 第1発明は、
トンネル内を車両が走行中に、当該車両に搭載した撮影手段によって、トンネル覆工面の画像を撮影し、トンネル覆工面を調査するための調査対象画像に加工するトンネル覆工面調査システムであって、
 前記車両に搭載され、トンネル覆工面の両側面のうち片側側面の撮影範囲を有する撮影手段と、
 前記撮影手段を、トンネル覆工面の両側面のうち一方の片側側面を撮影可能な第1の撮影位置に固定させるとともに、前記撮影手段を反転させて、前記撮影手段を、トンネル覆工面の両側面のうち他方の片側側面を撮影可能な第2の撮影位置に固定させる固定・反転手段と、
 前記撮影手段が前記第1の撮影位置に固定された状態で、前記撮影手段によって撮影されたトンネル覆工面の両側面のうち一方の片側側面を示す第1の画像と、前記撮影手段が前記第2の撮影位置に固定された状態で、前記撮影手段によって撮影されたトンネル覆工面の両側面のうち他方の片側側面を示す第2の画像とを突き合わせて、トンネル覆工面の同一スパンとなる部位を指示することにより、トンネル覆工面のスパン毎にトンネル覆工面の両側面を示す画像に合成する画像加工手段と
 を備えたトンネル覆工面調査システムであることを特徴とする。
第2発明は、第1発明において、
前記撮影手段は、トンネル覆工面の周方向に沿って配列され、トンネル覆工面の周方向に沿った各エリアの画像を撮影する複数のラインセンサを含むものであり、
前記画像加工手段は、
前記複数のラインセンサが前記第1の撮影位置に固定された状態で、前記複数のラインセンサによって撮影された各エリアの画像と、前記複数のラインセンサが前記第2の撮影位置に固定された状態で、前記複数のラインセンサによって撮影された各エリアの画像とを突き合わせて、トンネル覆工面の同一スパンとなる部位を指示することにより、トンネル覆工面のスパン毎にトンネル覆工面、の両側面を示す画像に合成するものである
ことを特徴とする。
第3発明は、第1発明または第2発明において
前記撮影手段は、トンネル覆工面の周方向に沿って配列され、トンネル覆工面の周方向に沿った各エリアの画像を撮影する複数のラインセンサを含むものであり、
前記固定・反転手段は、駆動軸を回転中心に、トンネル覆工面の周方向に、90°回転自在な部材であって、前記数のラインセンサが、トンネル覆工面の周方向に沿って配置されたL字状の部材と、当該L字状の部材を、前記第1の撮影位置に位置決めするとともに、前記L字状の部材が、トンネル覆工面の周方向に、90°回転されて、前記第2の撮影位置に位置されたときに当該第2の撮影位置に位置決めする位置決め手段とを含むものであることを特徴とする。
第4発明は、
トンネル覆工面調査システムに用いる車両であって、
トンネル覆工面の両側面のうち少なくとも片側側面の撮影範囲を有する撮影手段であって、
トンネル覆工面の周方向に沿って配列され、トンネル覆工面の周方向に沿った各エリアの画像を撮影する複数のラインセンサを含む撮影手段と、
前記撮影手段を、トンネル覆工面の両側面のうち一方の片側側面を撮影可能な第1の撮影位置に固定させるとともに、前記撮影手段を反転させて、前記撮影手段を、トンネル覆工面の両側面のうち他方の片側側面を撮影可能な第2の撮影位置に固定させる固定・反転手段であって、駆動軸を回転中心に、トンネル覆工面の周方向に、90°回転自在な部材であって、前記数のラインセンサが、トンネル覆工面の周方向に沿って配置されたL字状の部材と、当該L字状の部材を、前記第1の撮影位置に位置決めするとともに、前記L字状の部材が、トンネル覆工面の周方向に、90°回転されて、前記第2の撮影位置に位置されたときに当該第2の撮影位置に位置決めする位置決め手段とを含む固定・反転手段と
を備えたトンネル覆工面調査システムに用いる車両であることを特徴とする。
 本発明によれば、トンネル覆工面の両側面のうち片側側面の撮影範囲を有する撮影手段を搭載した車両を走行させることで、トンネル覆工面の両側面の画像を取得することができる。本発明によれば、スパン毎に、トンネル覆工面の両側面を示す画像が得られる。
これにより、これにより、スパン毎に、トンネル覆工面の健全度(劣化度)を調査でき、スパン毎に、調査結果を管理することができるようになる。
図1は、本発明に係るトンネル覆工面調査システムに用いる車両の左側面を示す図である。 図2は、車両がトンネル内の左側の走行車線を走行している状態を示す断面図であり、ラインセンサおよびハロゲンランプを用いて、トンネルの覆工面を撮影している様子を示す図である。 図3は、図2に対応する図であり、車両がトンネル内の右側の追い越し車線を走行している状態を示す断面図である。 図4は、固定・反転手段の構成を平面図にて示す図である。 図5は、撮影手段が第2の撮影位置に固定された状態を示した図である。 図6は、ステージ部材、L字状の部材の断面を示し、図4における矢視A-A断面を示した図である。 図7は、図4に対応する図であり、L字状の部材に設けられる照明手段を、ハロゲンランプの代わりにLEDユニットに変更した変形例を示した図である。 図8は、LEDユニットの内部構成を示す図で、図8(a)は、図7の状態における内部を示す横断面図で、図8(b)は、縦断面図である。 図9は、実施例のトンネル覆工面調査システムで行われる処理の手順を示した図である。 図10(a)、(b)、(c)、(d)、(e)は、パーソナルコンピュータで行われる画像加工処理を説明する図である。 図11(a)、(b)は、歪み補正画像処理(図10(b))を説明するための図である。 図12(a)、(b)、(c)は、歪み補正画像処理(図10(b))を説明するための図である。 図13(a)、(b)は、各画像を突き合わせて、トンネル覆工面の同一スパンとなる部位を指示する処理(図10(c))を説明するための図である。 図14(a)、(b)、(c)は、斜影補正(仰り補正)画像処理(図10(d))を説明するための図である。 図15(a)、(b)は、トンネル覆工面のスパン毎にトンネル覆工面の両側面を示す画像に合成する処理(図10(e))を説明するための図である。 図16は、トンネル覆工面の健全度(劣化度)を調査例を示す図である。
1 車両 10 撮影手段 20 照明手段 30 固定・反転手段 32 L字状の部材
34 位置決め手段 100 トンネル覆工面 S(S1、S2、S3…Sn) スパン
110-1、110-2、110-3…110-n 合成された画像
 以下、図面を参照して、本発明に係るトンネル覆工面調査システムおよびトンネル覆工面調査システムに用いる車両の実施形態について説明する。
図1は、本発明に係るトンネル覆工面調査システムに用いる車両1の左側面を示す。
車両1は、たとえば道路維持作業に用いられる作業用トラックをベースとする作業車両である。
車両1の荷台部分は、コンテナ状になっており、コンテナの一方の側面(図1では左側面)の扉と、コンテナの天井の扉が開閉自在となっている。図1では、扉が開いた状態を示している。
撮影手段10および照明手段20は、車両1の上記扉が開かれたときに、トンネルの覆工面を撮影でき、照明できるように、車両1の荷台に設けられている。
撮影手段10は、ラインセンサ(カメラ)を想定している。実施例では、3台のラインセンサ10a、10b、10cを想定している。なお、以下では、3台のラインセンサ10a、10b、10cを代表させるときは、ラインセンサ10と呼ぶことにする。
照明手段20は、ハロゲンランプを想定している。なお、メタルハライドランプ(HID)、LED照明を光源とするものであってもよい。実施例では、12台のハロゲンランプ20a、20b、20c、20d、20e、20f、20g、20h、20i、20j、20k、20lを想定している。なお、以下では、12台のハロゲンランプ20a~20lを代表させるときは、ハロゲンランプ20と呼ぶことにする。
ラインセンサ10は、車両1の進行方向に対して垂直な方向が視準線11aの方向となるように、固定・反転手段30に固定されている。ラインセンサ10は、図1の図面に対して奥行き方向および看者方向に広がる所定の画角をもって撮影範囲11を撮影する。
ハロゲンランプ20は、車両1の進行方向に対して垂直な方向を向けて光を投光するように、固定・反転手段30に固定されている。ハロゲンランプ20の照射範囲21内に、ラインセンサ10の視準線11aが入るように、ラインセンサ10とハロゲンランプ20の位置関係が設定されている。
画像処理部40は、ラインセンサ10で撮影された撮像データを受け取り、トンネル覆工面の画像を生成する画像処理を行う。
図2は、車両1がトンネル内の左側の走行車線150Lを走行している状態を示す断面図であり、ラインセンサ10およびハロゲンランプ20を用いて、トンネルの覆工面100を撮影している様子を示している。なお、説明の便宜上、トンネルのセンターラインTCの図中左側の路面を左側の走行車線150Lとし、トンネルのセンターラインTCの図中右側の路面を右側の追い越し車線150Rと称する。また、トンネルの覆工面100のうちトンネルのセンターラインTCで区切られた左側を、左側側面100Lとし、トンネルの覆工面100のうちトンネルのセンターラインTCで区切られた右側を、右側側面100Rとする。
図2に示すように、撮影手段10は、トンネル覆工面100の両側面100L、100Rのうち少なくとも片側側面(図2では、左側面100L)の撮影範囲を有する撮影手段であって、トンネル覆工面100の周方向に沿って配列され、トンネル覆工面100の周方向に沿った各エリア100A、100B、100Cをそれぞれ撮影する複数(実施例では、3台)のラインセンサ10a、10b、10cを含んで構成されている。ラインセンサ10a、10b、10cはそれぞれ、61°の画角を有する。したがって各エリア100A、100B、100Cは、隣り合うエリア同士の一部が重複している。
照明手段20は、図4で後述するように(図2では図示せず)、トンネル覆工面100の両側面100L、100Rのうち少なくとも片側側面(図2では、左側面100L)の照射範囲を有する照明手段であって、トンネル覆工面100の周方向に沿って配列され、トンネル覆工面100の周方向に沿った各エリア100A、100B、100Cを照射する複数(実施例では、12台)のハロゲンランプ20a~20lを含んで構成されている(図4参照)。
固定・反転手段30は、撮影手段10を、トンネル覆工面100の両側面のうち一方の片側側面である左側面100Lを撮影可能な第1の撮影位置に固定させるとともに、撮影手段10を反転させて、撮影手段10を、トンネル覆工面100の両側面のうち他方の片側側面である右側面100Rを撮影可能な第2の撮影位置に固定させる固定・反転手段であって、駆動軸31を回転中心に、トンネル覆工面100の周方向に、90°回転自在な部材であって、複数(図2では、3台)のラインセンサ10a、10b、10cが、トンネル覆工面100の周方向に沿って配置されたL字状の部材32と、このL字状の部材32を、第1の撮影位置に位置決めするとともに、L字状の部材32が、トンネル覆工面100の周方向に、90°回転されて、第2の撮影位置に位置されたときに、この第2の撮影位置に位置決めする位置決め手段(図2では図示せず、図4で後述する)とを含んで構成されている。
固定・反転手段30が第1の撮影位置にあるときには、照明手段20も同様に第1の撮影位置に位置され、第1の撮影位置に対応する撮影エリア100A、100B、100Cを照明し、固定・反転手段30が第2の撮影位置にあるときには、照明手段20も同様に第2の撮影位置に位置され、第2の撮影位置に対応する撮影エリア100D、100E、100F(図3参照)を照明する。
図3は、図2に対応する図であり、車両1がトンネル内の右側の追い越し車線150Rを走行している状態を示す断面図である。
図3は、固定・反転手段30によって、第1の撮影位置(図2)から90°右回りに反転されて、第2の撮影位置に、撮影手段10および照明手段20が位置決め固定された状態を示している。
図3に示すように、撮影手段10は、トンネル覆工面100の右側側面100Rを撮影する。すなわち、ラインセンサ10a、10b、10cはそれぞれ、トンネル覆工面100の周方向に沿った各エリア100D、100E、100Fを撮影する。
照明手段20は、トンネル覆工面100の右側側面100Rを照明する。すなわち、12台のハロゲンランプ20a~20lは、トンネル覆工面100の周方向に沿った各エリア100D、100E、100Fに光を照射する。
図4は、固定・反転手段30の構成を平面図にて示す。
 L字状の部材32は、回転中心となる駆動軸31を通る対象軸m1に関して左右対称な腕32L、32Rを有し、同じ長さの腕32L、32Rが垂直に交差して一体形成された部材であり、L字状の部材32の上面32Sには、左右対称となるように、12台のハロゲンランプ20a~20lが配列されている。
L字状の部材32の内側コーナ部には、対象軸m1に関して左右対称となるように、三角形状のステージ部材33が取り付けられている。ステージ部材33の上面33Sには、対象軸m1に関して左右対称となるように、3台のラインセンサ10a、10b、10cが配列されている。位置決め手段34は、T字状の部材35を含んで構成されている。T字状の部材35は、車両1の荷台に据え付けられたフレームに固定されている。L字状の部材32は、フレームに固定されたT字状の部材35に対して相対的に駆動軸31を回転中心にして回動される。駆動軸31は図示しないモータなどの駆動手段によって駆動される。
T字状の部材35は、駆動軸31を通る対象軸m2に関して左右対称な部材であり、駆動軸31から端部まで同じ長さの腕35L、35R、35Mが垂直に交差して一体形成された部材であり、腕35L、35R、35Mにはそれぞれ、駆動軸31から等距離にある孔35a、35b、35cが形成されている。
L字状の部材32の腕32L、32Rには、駆動軸31から等距離にある孔32a、32bが形成されている。
図4は、撮影手段10が第1の撮影位置に固定された状態を示している。
T字状の部材35の腕35Mと、L字状の部材32の腕32Lとが重なり、孔35cと、孔32aが同位置となるとともに、T字状の部材35の腕35Rと、L字状の部材32の腕32Rとが重なり、孔35bと、孔32bが同位置となっている。この状態で、孔35cと、孔32aに図示しないピンが挿通されるとともに、孔35bと、孔32bに図示しないピンが挿通されることで、撮影手段10および照明手段20が第1の撮影位置に固定される。
図5は、撮影手段10が第2の撮影位置に固定された状態を示している。
図4に示す状態から、図4、図5に矢印で示すように、駆動軸31によってL字状の部材32が右回りに90°回転されると、T字状の部材35の腕35Lと、L字状の部材32の腕32Lとが重なり、孔35aと、孔32aが同位置となるとともに、T字状の部材35の腕35Mと、L字状の部材32の腕32Rとが重なり、孔35cと、孔32bが同位置となる。この状態で、孔35aと、孔32aに図示しないピンが挿通されるとともに、孔35cと、孔32bに図示しないピンが挿通されることで、撮影手段10および照明手段20が第2の撮影位置に固定される。
図6は、ステージ部材33、L字状の部材32の断面を示し、図4における矢視A-A断面を示している。ステージ部材33の上面33Sは、L字状の部材32の上面32よりも高い位置に設けられている。したがって、ラインセンサ10は、ハロゲンランプ20よりも高い位置に取り付けられている。
ここで、ハロゲンランプ20の照射範囲21内に、ラインセンサ10の視準線11aが入りつつ、ラインセンサ10の視準線11aが、ハロゲンランプ20などに干渉しないように、ラインセンサ10とハロゲンランプ20の位置関係が設定されている。なお、ラインセンサ10の画角11は、図6の図面の奥行き方向および看者方向に広がる。
 図7は、図4に対応する図であり、L字状の部材32に設けられる照明手段20を、ハロゲンランプ20の代わりにLEDユニット20に変更した変形例を示している。すなわち、L字状の部材32の上面32Sには、左右対称となるように、4台のLEDユニット20A、20B、20C、20Dが配列されている。4台のLEDユニット20A、20B、20C、20Dは、ハロゲンランプ20a~20lと同じ照射範囲21を有する。
 図8は、LEDユニット20の内部構成を示す図で、図8(a)は、図7の上面でみた横断面図で、図8(b)は、図7の断面でみた縦断面図である。
LEDユニット20は、トンネル覆工面100の周方向(車両1の進行方向に対して垂直な方向)に沿って複数のLED22aが配列されたライン状のLED基板22と、ライン状のLED基板22で発光された光を屈折するレンズであって、ライン状のLED基板22のLED配列長さに対応する長手方向の長さを有する円柱状のロッドレンズ23と、ロッドレンズ23によって屈折された光25を透過して外部に出射するカバーガラス24と、ライン状のLED基板22を冷却するためのファン26とを含んで構成されている。
なお、上述した実施例では、撮影手段10を3台のラインセンサ10a、10b、10cで構成した場合を想定して説明したが、それよりも多い数の撮影手段で構成してもよく、1台の撮影手段で構成してもよい。たとえば、トンネル覆工面100の片側側面を撮影できる撮影範囲を有する1台のラインセンサ20を、固定・反転手段30に取り付けて、第1の撮影位置で、1台のラインセンサ20により左側面100Lを撮影し、その後90°反転させて、第2の撮影位置で、1台のラインセンサ20により右側面100Rを撮影するようにし、1台のラインセンサ20でトンネル覆工面100の両側面100L、100Rを撮影する実施も可能である。
 図9は、実施例のトンネル覆工面調査システムで行われる処理の手順を示している。
 まず、ラインセンサ10a、10b、10cおよびハロゲンランプ20a~20lが第1の撮影位置に固定された状態で、車両1を、左側の走行車線150Lに沿って走行させる。車両1を走行させながら、3台のラインセンサ10a、10b、10cおよびハロゲンランプ20a~20lを動作させる。これによりトンネル覆工面100の左側側面100Lの各エリア100A、100B、100Cが3台のラインセンサ10a、10b、10cによって順次撮影される。各ラインセンサ10a、10b、10cによって撮影されたトンネル覆工面100の左側側面100Lの各エリア100A、100B、100Cの画像のデータは、画像処理部40に取り込まれる。(図2参照;ステップ201)。
つぎに、固定・反転手段30によってラインセンサ10a、10b、10cおよびハロゲンランプ20a~20lを90°反転させる(ステップ202)。
ラインセンサ10a、10b、10cおよびハロゲンランプ20a~20lが第2の撮影位置に固定された状態で、車両1を、右側の追い越し車線150Rに沿って走行させる。
車両1を走行させながら、3台のラインセンサ10a、10b、10cおよびハロゲンランプ20a~20lを動作させる。これによりトンネル覆工面100の右側側面100Rの各エリア100D、100E、100Fが3台のラインセンサ10a、10b、10cによって順次撮影される。各ラインセンサ10a、10b、10cによって撮影されたトンネル覆工面100の右側側面100Rの各エリア100D、100E、100Fの画像のデータは、画像処理部40に取り込まれる。(図3参照;ステップ203)。
 画像処理部40に取り込まれたトンネル覆工面100の左側側面100Lの各エリア100A、100B、100Cの画像データおよび右側側面100Rの各エリア100D、100E、100Fの画像データは、画像加工のために、たとえば外部のパーソナルコンピュータに取り込まれる(ステップ204)。
 つぎに、後述する歪み補正画像処理を行う(ステップ205)。
つぎに、後述するように、3台のラインセンサ10a、10b、10cによって撮影された各エリア100A、100B、100C、100D、100E、100Fの画像同士を突き合わせて、トンネル覆工面100の同一スパンSとなる部位を指示する(ステップ206)。
つぎに、後述する斜影補正(仰り補正)画像処理を行う(ステップ207)。
つぎに、トンネル覆工面100のスパンS1、S2…Sn毎にトンネル覆工面100の両側面100L、100Rを示す画像110-1、110-2…110-nに合成する(ステップ208)。
図10は、パーソナルコンピュータで行われる画像加工処理を説明する図である。
すなわち、トンネル覆工面100の左側側面100Lおよび右側側面100Rの各エリア100A、100B、100C、100D、100E、100Fを示す各画像110A、110B、110C、110D、110E、110Fを取り込み(図10(a))、各画像110A、110B、110C、110D、110E、110Fに対して歪み補正画像処理を行い(図10(b))、各画像110A、110B、110C、110D、110E、110Fを突き合わせて、トンネル覆工面100の同一スパンSとなる部位を指示し(図10(c))、斜影補正(仰り補正)画像処理を行い(図10(d))、トンネル覆工面100のスパンS1、S2…Sn毎にトンネル覆工面100の両側面100L、100Rを示す画像110-1、110-2…110-nに合成する(図10(e))。
図11、図12は、歪み補正画像処理(図10(b))を説明するための図である。
トンネル覆工面100に、撮影手段10の視準を直交させるように撮影手段10を設置すると、照明手段20と撮影手段10の位置関係から、トンネル覆工面100の表面が水滴などにより結露している場合には、正反射となって、撮影手段10で撮像した画像に、部分的に結露が映り込み、本来、撮像すべきひび割れなどの欠陥の判別が困難になるおそれがある。そこで、これを回避するために、照明手段20の照射方向の軸と撮影手段10の撮影方向の軸(視準)を傾けることが有効となる。
すなわち、図11(a)に示すように、車両1の側面からみて、撮影手段(ラインセンサ)10の視準線11aが、鉛直方向、つまりトンネル覆工面100の天井面に対して垂直となる方向に対して、前方に角度α(たとえば8°)傾斜するとともに、図11(b)に示すように、車両1の上面からみて、撮影手段(ラインセンサ)10の視準線11aが、水平方向、つまりトンネル覆工面100の側面面に対して垂直となる方向に対して、前方に角度α(たとえば8°)傾斜するように、撮影手段(ラインセンサ)10を設置する。
照明手段(ハロゲンランプ)20の照射方向も同様に傾斜させる。
図12(a)は、撮影手段(ラインセンサ)10の視準線11aと、トンネル覆工面100の目地111との関係を示す。トンネル覆工面100の各スパンS1、S2…は、車両1の進行方向(トンネルの中心ラインTCの方向)に対して直交する目地111によって区切られている。
上記したように、照明手段20の照射方向の軸と撮影手段10の撮影方向の軸(視準)を傾けると、視準線11aの方向と目地111の方向とか所定角度βで交差し、視準線11aが目地111を通過するタイミングが、各画素毎に異なるために、撮影手段(ラインセンサ)10で撮影された画像中の目地111が、曲線状に歪んでしまう(図12(b))。
そこで、撮影された画像中の歪んだ目地111を、本来の直線状に補正する画像処理を行う(図12(c))。
図13は、各画像110A~110Fを突き合わせて、トンネル覆工面100の同一スパンSとなる部位を指示する処理(図10(c))を説明するための図である。
この処理は、歪み補正画像処理によって、直線状になった目地111を基準線にして行う。
図13(a)に示すように、パーソナルコンピュータの画面上で、トンネル覆工面100の左側側面100Lについて得られた各画像110A、110B、110Cを、同一位置になるように並べる。位置合わせは、直線状になった目地111を基準線にして行う。
各ラインセンサ10a、10b、10cは、ほぼ同時にシャッターを切っているので、各画像110A、110B、110Cの目地111の位置は、画面上でほぼ同じ位置となる。なお、トンネル覆工面100には、KP(キロポスト)、スパン番号(覆工番号)、照明番号等の位置を特定するものがあり、各画像には、それが撮像されているので、これらを目安に、位置を認識するようにしてもよい。
つぎに、各画像110A、110B、110Cの中から、トンネル覆工面100の同一スパンSとなる部位を指示する。たとえば、各画像110A、110B、110Cのうち、スパンS1となる部位が、それぞれ110A-1、110B-1、110C-1(以下、スパンS1の画像データを示す符号として用いる)であったとすると、それら同一のスパンS1となる部位110A-1、110B-1、110C-1を特定する画像データ110A-1、110B-1、110C-1が、レーン1(走行車線150L)のフォルダL1に、スパンS1を示すアドレスに対応づけられて、格納される。以下、同様にして、同一スパンS2、S3…Snとなる部位を指示して、同一のスパンS2、S3…Snとなる部位を特定する画像データを、レーン1(走行車線150L)のフォルダL1に格納していく。
追い越し車線150Rも同様にして行う。すなわち、図13(b)に示すように、各画像110D、110E、110Fのうち、スパンS1となる部位が、それぞれ110D-1、110E-1、110F-1(以下、スパンS1の画像データを示す符号として用いる)であったとすると、それら同一のスパンS1となる部位110D-1、110E-1、110F-1を特定する画像データ110D-1、110E-1、110F-1が、レーン2(追い越し車線150R)のフォルダL2に、スパンS1を示すアドレスに対応づけられて、格納される。以下、同様にして、同一スパンS2、S3…Snとなる部位を指示して、同一のスパンS2、S3…Snとなる部位を特定する画像データを、レーン2(追い越し車線150R)のフォルダL2に格納していく。
図14は、斜影補正(仰り補正)画像処理(図10(d))を説明するための図である。
図14(a)は、トンネル覆工面100とラインセンサ10a、10b、10cとの位置関係を示す
ラインセンサ10a、10b、10cは、トンネルのセンターラインTCに対してオフセットされた位置にある。したがって、ラインセンサ10a、10b、10cの視準線11aは、撮影対象物であるトンネル覆工面100に対して正対しておらず、斜めになっている。このためラインセンサ10a、10b、10cでは、近くのトンネル覆工面100が大きく撮像され、遠くのトンネル覆工面100が小さく撮像される。
図14(b)に示すように、ラインセンサ10(たとえばラインセンサ10c)で撮影されるエリアは、たとえば100Cで示されるが、この撮影エリア100Cのうち、分割された各分割エリア100C-1、100C-2、100C-3、100C-4、100C-5のうち、ラインセンサ10に最も近い分割エリア100C-1でトンネル覆工面100が最も大きく撮像され、ラインセンサ10から最も遠い分割エリア100C-5でトンネル覆工面100が最も小さく撮像される。
そこで、撮影対象物であるトンネル覆工面100が、画像の各エリアで実際の大きさで撮像されるように、画像処理を行うものである。
斜影補正(仰り補正)画像処理のために必要なラインセンサ10についてのパラメータは、つぎのように与えられる(図14(c)参照)。
θ:ラインセンサ10の撮影方向(視準線11a)を示す角度(水平線HLに対する角度)
X:ラインセンサ10(レンズ、センサ)の2次元水平方向位置(トンネルのセンターラインTCを基準とする相対位置)
Y:ラインセンサ10(レンズ、センサ)の2次元鉛直方向位置(トンネルの路面150L、150Rを基準とする相対位置)
φ:ラインセンサ10の画角
上記パラメータθ、X、Y、φが得られ、トンネルの形状を示すデータがたとえばCAD図面によって得られると、図14(b)において、各分割エリア100C-1、100C-2、100C-3、100C-4、100C-5毎に、ラインセンサ10からトンネル覆工面100までの距離d1、d2、d3、d4、d5が求められる。
そして、この求められた距離d1、d2、d3、d4、d5に応じて、各分割エリア100C-1、100C-2、100C-3、100C-4、100C-5毎に、撮影対象物であるトンネル覆工面100が、実際の大きさで撮像されるように、画像処理を行う。
図15は、トンネル覆工面100のスパンS1、S2…Sn毎にトンネル覆工面100の両側面100L、100Rを示す画像110-1、110-2…110-nに合成する処理(図10(e))を説明するための図である。
図15(a)に示すように、レーン1(走行車線150L)のフォルダL1から、スパンS1を示すアドレスに対応づけられた画像データ110A-1、110B-1、110C-1が読み出される。同様に、レーン2(追い越し車線150R)のフォルダL2から、スパンS1を示すアドレスに対応づけられた画像データ110D-1、110E-1、110F-1が読み出される。
つぎに、パーソナルコンピュータの画面上で、画像110A-1、110B-1、110C-1、110D-1、110E-1、110F-1それぞれについて、隣り合う画像同士を結合すべき対応点PTを指示する。
各エリア100A、100B、100C、100D、100E、100Fは、隣り合うエリア同士の一部が重複している撮影されている。その重複分を考慮して、対応点PTが指示される。
すると、図15(b)のように、対応点PTを基準にして画像110A-1、110B-1、110C-1、110D-1、110E-1、110F-1同士が合成されて、トンネル覆工面100のスパンS1について、左右両側面100L、100Rの画像110-1が得られる。
以下、スパンS2、S3…Snについても同様の処理が行われ、図15(b)に示すように、トンネル覆工面100のスパンS2、S3…Sn毎にトンネル覆工面100の両側面100L、100Rを示す画像110-2、110-3…110-nが得られる。各画像110-2、110-3…110-nは、所定のファイルL3に格納され、トンネル覆工面100の健全度の調査のために用いられる。
以上のように、本実施例によれば、トンネル覆工面100の両側面100L、100Rのうち片側側面の撮影範囲を有する撮影手段10を搭載した車両1を走行させることで、トンネル覆工面100の両側面100L、100Rの画像を取得することができる。本実施例によれば、スパンS1、S2…Sn毎に、トンネル覆工面100の両側面100L、100Rを示す画像画像110-1、110-2…110-nが得られる。これにより、スパンS1、S2…Sn毎に、トンネル覆工面100の健全度(劣化度)を調査でき、スパンS1、S2…Sn毎に、調査結果を管理することができるようになる。
図16は、トンネル覆工面100の健全度(劣化度)の調査例を示している。
図16は、各スパンS1、S2、S3、S4、S5、S6の画像110-1、110-2、110-3、110-4、110-5、110-6をファイルL3から読み出し、パーソナルコンピュータの画面上に連続表示した状態を示している。オペレータは、画面上で、トンネル覆工面100の画像の中から、はく離の可能性のあるひび割れ箇所を特定して、ひび割れ300を描画する処理を行う。
これにより、ひび割れ300の幅、長さ、方向および形状、密度が、各スパンS1、S2、S3、S4、S5、S6毎に抽出され、各スパンS1、S2、S3、S4、S5、S6の画像データ110-1、110-2、110-3、110-4、110-5、110-6に対応づけられて記憶される。同様にして、エフロレッセンスの有無、その他変状の発生状況を抽出してもよい。
したがって、本実施例によれば、スパンS1、S2、S3、S4、S5、S6毎に、ひび割れなどの変状に対して対策を画策することができる。
なお、パーソナルコンピュータで行われる上述した画像加工処理は、その一部を手動で行う半自動処理で行ってもよく、全て自動処理で行う実施も当然可能である。

Claims (4)

  1.  トンネル内を車両が走行中に、当該車両に搭載した撮影手段によって、トンネル覆工面の画像を撮影し、トンネル覆工面を調査するための調査対象画像に加工するトンネル覆工面調査システムであって、
     前記車両に搭載され、トンネル覆工面の両側面のうち片側側面の撮影範囲を有する撮影手段と、
     前記撮影手段を、トンネル覆工面の両側面のうち一方の片側側面を撮影可能な第1の撮影位置に固定させるとともに、前記撮影手段を反転させて、前記撮影手段を、トンネル覆工面の両側面のうち他方の片側側面を撮影可能な第2の撮影位置に固定させる固定・反転手段と、
     前記撮影手段が前記第1の撮影位置に固定された状態で、前記撮影手段によって撮影されたトンネル覆工面の両側面のうち一方の片側側面を示す第1の画像と、前記撮影手段が前記第2の撮影位置に固定された状態で、前記撮影手段によって撮影されたトンネル覆工面の両側面のうち他方の片側側面を示す第2の画像とを突き合わせて、トンネル覆工面の同一スパンとなる部位を指示することにより、トンネル覆工面のスパン毎にトンネル覆工面の両側面を示す画像に合成する画像加工手段と
     を備えたトンネル覆工面調査システム。
  2. 前記撮影手段は、トンネル覆工面の周方向に沿って配列され、トンネル覆工面の周方向に沿った各エリアの画像を撮影する複数のラインセンサを含むものであり、
    前記画像加工手段は、
    前記複数のラインセンサが前記第1の撮影位置に固定された状態で、前記複数のラインセンサによって撮影された各エリアの画像と、前記複数のラインセンサが前記第2の撮影位置に固定された状態で、前記複数のラインセンサによって撮影された各エリアの画像とを突き合わせて、トンネル覆工面の同一スパンとなる部位を指示することにより、トンネル覆工面のスパン毎にトンネル覆工面の両側面を示す画像に合成するものである
    請求項2記載のトンネル覆工面調査システム。
  3. 前記撮影手段は、トンネル覆工面の周方向に沿って配列され、トンネル覆工面の周方向に沿った各エリアの画像を撮影する複数のラインセンサを含むものであり、
    前記固定・反転手段は、駆動軸を回転中心に、トンネル覆工面の周方向に、90°回転自在な部材であって、前記数のラインセンサが、トンネル覆工面の周方向に沿って配置されたL字状の部材と、当該L字状の部材を、前記第1の撮影位置に位置決めするとともに、前記L字状の部材が、トンネル覆工面の周方向に、90°回転されて、前記第2の撮影位置に位置されたときに当該第2の撮影位置に位置決めする位置決め手段とを含むものである請求項1または2に記載のトンネル覆工面調査システム。
  4. トンネル覆工面調査システムに用いる車両であって、
    トンネル覆工面の両側面のうち少なくとも片側側面の撮影範囲を有する撮影手段であって、
    トンネル覆工面の周方向に沿って配列され、トンネル覆工面の周方向に沿った各エリアの画像を撮影する複数のラインセンサを含む撮影手段と、
    前記撮影手段を、トンネル覆工面の両側面のうち一方の片側側面を撮影可能な第1の撮影位置に固定させるとともに、前記撮影手段を反転させて、前記撮影手段を、トンネル覆工面の両側面のうち他方の片側側面を撮影可能な第2の撮影位置に固定させる固定・反転手段であって、駆動軸を回転中心に、トンネル覆工面の周方向に、90°回転自在な部材であって、前記数のラインセンサが、トンネル覆工面の周方向に沿って配置されたL字状の部材と、当該L字状の部材を、前記第1の撮影位置に位置決めするとともに、前記L字状の部材が、トンネル覆工面の周方向に、90°回転されて、前記第2の撮影位置に位置されたときに当該第2の撮影位置に位置決めする位置決め手段とを含む固定・反転手段と
    を備えたトンネル覆工面調査システムに用いる車両。 
PCT/JP2014/082021 2014-07-25 2014-12-03 トンネル覆工面調査システムおよびトンネル覆工面調査システムに用いる車両 WO2016013132A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US14/903,623 US10116871B2 (en) 2014-07-25 2014-12-03 Tunnel lining surface inspection system and vehicle used for tunnel lining surface inspection system
CN201480064678.4A CN105765374B (zh) 2014-07-25 2014-12-03 隧道衬砌面调査系统以及用于隧道衬砌面调査系统的车辆
SG11201600833YA SG11201600833YA (en) 2014-07-25 2014-12-03 Tunnel lining surface examination system and vehicle used in tunnel lining surface examination system
KR1020157020723A KR20170034750A (ko) 2014-07-25 2014-12-03 터널 복공면 조사 시스템 및 터널 복공면 조사 시스템에 이용하는 차량

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-152322 2014-07-25
JP2014152322A JP6444086B2 (ja) 2014-07-25 2014-07-25 トンネル覆工面調査システムおよびトンネル覆工面調査システムに用いる車両

Publications (1)

Publication Number Publication Date
WO2016013132A1 true WO2016013132A1 (ja) 2016-01-28

Family

ID=55162683

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/082021 WO2016013132A1 (ja) 2014-07-25 2014-12-03 トンネル覆工面調査システムおよびトンネル覆工面調査システムに用いる車両

Country Status (6)

Country Link
US (1) US10116871B2 (ja)
JP (1) JP6444086B2 (ja)
KR (1) KR20170034750A (ja)
CN (1) CN105765374B (ja)
SG (1) SG11201600833YA (ja)
WO (1) WO2016013132A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111539286A (zh) * 2020-04-15 2020-08-14 创新奇智(合肥)科技有限公司 衬砌线识别方法、装置及可读存储介质

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6373111B2 (ja) * 2014-07-25 2018-08-15 西日本高速道路エンジニアリング四国株式会社 トンネル覆工面調査システムおよびトンネル覆工面調査システムに用いる車両
JP6466000B2 (ja) * 2015-12-22 2019-02-06 三菱電機株式会社 ぶれ検出装置
JP6627986B2 (ja) * 2016-11-01 2020-01-08 三菱電機株式会社 移動撮像システム及び撮像方法
JP6927694B2 (ja) * 2016-12-15 2021-09-01 西日本高速道路エンジニアリング四国株式会社 トンネル覆工画像作成システム、および、トンネル覆工画像作成方法
JP2019033478A (ja) * 2017-08-09 2019-02-28 株式会社リコー 構造物壁面の撮影装置、車両、構造物壁面の撮影方法、及びトンネル壁面の撮影方法
EP3442213B1 (en) * 2017-08-09 2020-12-09 Ricoh Company, Ltd. Structure wall imaging device, vehicle, and structure wall imaging method
JP2019109136A (ja) * 2017-12-19 2019-07-04 パナソニックIpマネジメント株式会社 照明装置、照明装置の設置方法及び道路管理システム
CN109696441A (zh) * 2019-02-18 2019-04-30 中国铁路沈阳局集团有限公司科学技术研究所 一种铁路隧道衬砌表面状态检测车
JP7279438B2 (ja) 2019-03-19 2023-05-23 株式会社リコー 撮像装置、車両及び撮像方法
CN110514518B (zh) * 2019-07-19 2021-03-26 同济大学 基于隧道衬砌病害特征的隧道衬砌结构服役性能检测方法
JP6732082B1 (ja) * 2019-09-03 2020-07-29 三菱電機株式会社 画像生成装置、画像生成方法、および画像生成プログラム
JP7329435B2 (ja) * 2019-12-25 2023-08-18 三菱電機株式会社 車両及び撮影方法
JP7458876B2 (ja) 2019-12-25 2024-04-01 三菱電機株式会社 カメラユニット
CN112326552B (zh) * 2020-10-21 2021-09-07 山东大学 基于视觉和力觉感知的隧道掉块病害检测方法和系统
CN113256714B (zh) * 2021-07-13 2021-09-24 湖南大学 隧道表面图像处理方法及系统
JP2023106862A (ja) * 2022-01-21 2023-08-02 株式会社リコー 撮像装置、撮像方法、プログラム、および撮像システム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09284749A (ja) * 1996-04-12 1997-10-31 Furukawa Electric Co Ltd:The トンネル内壁面の撮影方法とそれを用いた撮影装置
JP2003185589A (ja) * 2001-12-20 2003-07-03 Nishimatsu Constr Co Ltd コンクリート表面の変状調査システム、および、コンクリート表面の変状調査方法
JP2012220471A (ja) * 2011-04-14 2012-11-12 Mitsubishi Electric Corp 展開図生成装置、展開図生成方法及び展開図表示方法
JP2014095627A (ja) * 2012-11-09 2014-05-22 West Nippon Expressway Engineering Shikoku Co Ltd 道路構造物の表面を調査する装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4888720A (en) * 1987-12-07 1989-12-19 Fryer Glenn E Tunnel measuring apparatus and method
JPWO2005033475A1 (ja) * 2003-10-01 2006-12-14 株式会社日立製作所 トンネル落盤監視システム、トンネル落盤監視方法及び土木構造物破損監視システム
CN101957178B (zh) * 2009-07-17 2012-05-23 上海同岩土木工程科技有限公司 一种隧道衬砌裂缝测量方法及其测量装置
CN102346013A (zh) * 2010-07-29 2012-02-08 同济大学 一种隧道衬砌裂缝宽度的测量方法及装置
CN103674963A (zh) * 2013-11-15 2014-03-26 上海嘉珏实业有限公司 一种基于数字全景摄像的隧道检测装置及其检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09284749A (ja) * 1996-04-12 1997-10-31 Furukawa Electric Co Ltd:The トンネル内壁面の撮影方法とそれを用いた撮影装置
JP2003185589A (ja) * 2001-12-20 2003-07-03 Nishimatsu Constr Co Ltd コンクリート表面の変状調査システム、および、コンクリート表面の変状調査方法
JP2012220471A (ja) * 2011-04-14 2012-11-12 Mitsubishi Electric Corp 展開図生成装置、展開図生成方法及び展開図表示方法
JP2014095627A (ja) * 2012-11-09 2014-05-22 West Nippon Expressway Engineering Shikoku Co Ltd 道路構造物の表面を調査する装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111539286A (zh) * 2020-04-15 2020-08-14 创新奇智(合肥)科技有限公司 衬砌线识别方法、装置及可读存储介质

Also Published As

Publication number Publication date
CN105765374B (zh) 2020-04-10
JP6444086B2 (ja) 2018-12-26
CN105765374A (zh) 2016-07-13
US10116871B2 (en) 2018-10-30
KR20170034750A (ko) 2017-03-29
JP2016031248A (ja) 2016-03-07
SG11201600833YA (en) 2016-04-28
US20160227126A1 (en) 2016-08-04

Similar Documents

Publication Publication Date Title
JP6444086B2 (ja) トンネル覆工面調査システムおよびトンネル覆工面調査システムに用いる車両
JP6068099B2 (ja) 道路構造物の表面を調査する装置
JP3953988B2 (ja) 検査装置および検査方法
KR101672523B1 (ko) 카메라용 렌즈모듈 외관 검사공법
KR101711849B1 (ko) 내면 영상 획득을 위한 광학 장치
JP2019516998A (ja) ガラス上面の粒子検出方法および装置、並びに、入射光照射方法
JP6310372B2 (ja) 検査装置
JP6499139B2 (ja) 検査装置
JP6801860B2 (ja) 被検査物の外観検査装置
JP6908373B2 (ja) 検査対象物の表面の凹凸を検査する方法及びその表面検査装置
JP2021124401A (ja) 基板の検査装置、基板の検査方法
JP2003156453A (ja) 側面検査方法
JPH10274515A (ja) 曲面検査方法及び検査用カメラユニット
JP4426992B2 (ja) 合成映像撮影装置
JP2011191253A (ja) レーザ形状認識センサ及び計測装置
JP2011160177A (ja) 撮影装置、及びこの撮影装置を搭載した水中ロボット
JP7027926B2 (ja) 画像検査装置および照明装置
KR20110026922A (ko) 평판의 결함 검사 장치 및 방법
JP6937647B2 (ja) 光学表示パネルの損傷検査方法
JP7389321B2 (ja) 基板の検査装置、基板の検査方法
JP5490855B2 (ja) 板状基板のエッジ検査装置
JP2004279282A (ja) ワ−クの外観検査装置
JP6672897B2 (ja) 検査装置及び回転体の検査方法
JP2014224802A (ja) 容器底部の検査方法及びそれを用いた検査装置
JP2021124299A (ja) 基板の検査装置、基板の検査方法

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 20157020723

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14903623

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14898124

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14898124

Country of ref document: EP

Kind code of ref document: A1