WO2017094456A1 - 物体検査装置及び物体検査方法 - Google Patents

物体検査装置及び物体検査方法 Download PDF

Info

Publication number
WO2017094456A1
WO2017094456A1 PCT/JP2016/083124 JP2016083124W WO2017094456A1 WO 2017094456 A1 WO2017094456 A1 WO 2017094456A1 JP 2016083124 W JP2016083124 W JP 2016083124W WO 2017094456 A1 WO2017094456 A1 WO 2017094456A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
unit
captured image
camera
correct model
Prior art date
Application number
PCT/JP2016/083124
Other languages
English (en)
French (fr)
Inventor
林 大輔
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Publication of WO2017094456A1 publication Critical patent/WO2017094456A1/ja

Links

Images

Classifications

    • EFIXED CONSTRUCTIONS
    • E04BUILDING
    • E04GSCAFFOLDING; FORMS; SHUTTERING; BUILDING IMPLEMENTS OR AIDS, OR THEIR USE; HANDLING BUILDING MATERIALS ON THE SITE; REPAIRING, BREAKING-UP OR OTHER WORK ON EXISTING BUILDINGS
    • E04G21/00Preparing, conveying, or working-up building materials or building elements in situ; Other devices or measures for constructional work
    • E04G21/12Mounting of reinforcing inserts; Prestressing
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications

Definitions

  • the present invention relates to an object inspection apparatus and an object inspection method, and more particularly to an object inspection apparatus and an object inspection method using a captured image of an object to be inspected.
  • Patent Document 1 a dedicated measuring jig is photographed together with a reinforcing bar, and the contour of the reinforcing bar is extracted in the acquired image. Based on the result of the contour extraction, the number of reinforcing bars, the thickness (diameter) of the reinforcing bar, A method for calculating the width of a reinforcing bar has been proposed.
  • Patent Document 2 a method for measuring the number of reinforcing bars, the diameter of reinforcing bars, and the pitch of reinforcing bars as reinforcing bar information by photographing the reinforcing bars against a background of a dedicated reinforcing bar photographing tool and analyzing the obtained image. has been proposed.
  • the inspection object is first photographed with a blackboard describing the name of the building, the type of pillar, etc., and special photographing tools such as a measure, and the design manager collates the photographed image with the bar arrangement diagram.
  • bar arrangement inspection is performed.
  • the collation performed by the design manager himself that is, the artificial collation, may cause an error such as an oversight or a mistake.
  • Artificial verification may require inspection time.
  • Patent Documents 1 and 2 there is no mention of a method for collating whether or not the taken bar arrangement is provided along the bar arrangement diagram.
  • the present invention has been made in view of such circumstances, and an object thereof is to provide an object inspection apparatus and an object inspection method capable of performing object inspection with high accuracy in a short time.
  • an object inspection apparatus includes a captured image acquisition unit that acquires a captured image of an object to be inspected, which is captured by a camera, and a camera at the time of capturing the captured image.
  • a specifying unit for specifying a positional relationship with the object and a shooting angle of the camera with respect to the object, a design information acquiring unit for acquiring design information of the object, a correct model image of the object based on the design information, the specified positional relationship and A generation unit that generates a correct model image corresponding to the shooting angle, a display unit that superimposes and displays the captured image and the correct model image, and a correction instruction for at least one of the captured image and the correct model image displayed on the display unit.
  • a correction instruction accepting unit that accepts a collation result accepting unit that accepts a collation result indicating whether or not the photographed image corrected by the correction instruction matches the correct model image. , Comprising a.
  • the correct model image of the object to be inspected is generated using the design information.
  • the design information since it is checked whether the object to be inspected is designed according to the design information based on the correct answer model image, it is possible to perform an accurate object inspection in a short time.
  • the object is a bar arrangement, piping, or wiring.
  • the object to be inspected is a bar arrangement, piping, or wiring.
  • design information such as reinforcement, piping, and wiring
  • the captured image acquisition unit acquires a captured image including a measurement reference member whose size and shape are known, and the specifying unit specifies a positional relationship and a shooting angle based on the size and shape of the measurement reference member in the captured image. To do.
  • a captured image including a measurement reference member whose size and shape are known is acquired, and the positional relationship and the shooting angle are specified based on the size and shape of the measurement reference member in the captured image.
  • this aspect can specify the positional relationship and imaging angle between the camera and the object from the acquired captured image, and can perform simple object inspection.
  • a shooting distance acquisition unit that acquires a distance between the camera and the object
  • the shooting image acquisition unit acquires a shooting image including a measurement reference member having a known shape
  • the specifying unit is a shooting distance acquisition unit. The positional relationship and the shooting angle are specified based on the acquired distance and the shape of the measurement reference member.
  • a captured image including a measurement reference member whose shape is known is acquired, and the distance between the camera and the object is acquired by the shooting distance acquisition unit, whereby the positional relationship and the shooting angle are specified.
  • this aspect can specify the positional relationship and imaging angle between the camera and the object based on the acquired captured image and distance.
  • the photographing distance acquisition unit has a laser distance meter, a camera having a plurality of photographing units for photographing a plurality of images having different parallaxes, or a distance image sensor, and corresponds to a flight time of measurement light emitted from a light source.
  • the distance information to be acquired is acquired from the distance image sensor, and the distance measured by the distance image camera including the distance image generation unit that generates the distance image based on the acquired distance information is acquired.
  • the laser distance meter a camera (stereo camera) having a plurality of imaging units that shoot a plurality of images having different parallaxes, or a distance image sensor, the flight time of measurement light emitted from the light source
  • the corresponding distance information is acquired from the distance image sensor, and the distance measured by the distance image camera provided with the distance image generation unit that generates the distance image based on the acquired distance information is acquired, so the camera and the object to be inspected And an accurate distance measurement is performed.
  • the design information acquisition unit acquires a two-dimensional design drawing of the object, and the generation unit generates a correct model image from the two-dimensional design drawing.
  • the two-dimensional design drawing of the object to be inspected is acquired, and the correct model image is generated based on the acquired two-dimensional design drawing, so that more accurate object inspection is performed.
  • the design information acquisition unit acquires a three-dimensional design drawing of the object, and the generation unit generates a correct model image from the three-dimensional design drawing.
  • the three-dimensional design drawing of the object to be inspected is acquired and the correct model image is generated based on the acquired three-dimensional design drawing, more accurate object inspection is performed.
  • the three-dimensional design drawing is a building information model.
  • the building information model of the object is acquired, and the correct model image is generated based on the acquired building information model, so that more accurate object inspection is performed.
  • the display unit is provided with a correction instruction receiving unit, and the correction instruction receiving unit receives a correction instruction by operating a correct model image superimposed and displayed on the display unit.
  • the correction instruction is accepted by operating the correct model image in which the correction instruction is superimposed and displayed on the display unit, the user performs the correction instruction by operating the displayed correct model image. It is possible to easily correct the correct model image.
  • the collation result receiving unit accepts a collation result input manually.
  • the user collates the correct model image displayed on the display unit and the photographed image, and inputs the collation result to the collation result receiving unit.
  • this aspect can assist performing an object inspection accurately and in a short time when the user manually performs an object inspection.
  • the object inspection apparatus includes an automatic verification unit that automatically performs verification as to whether or not the corrected captured image matches the correct model image, and the verification result reception unit is configured to verify the verification result in the automatic verification unit. Accept.
  • the automatic collating unit automatically collates whether or not the corrected captured image and the correct model image match. Therefore, this aspect can perform a more accurate object inspection in a short time.
  • the automatic collation unit collates whether or not the object attribute of the correct model image matches the attribute of the object read from the captured image.
  • the automatic collation unit performs collation based on whether or not the attribute of the object matches the attribute of the object that can be read from the captured image, so that more accurate object inspection can be performed in a short time.
  • the attribute includes at least one of the diameter, the number, and the pitch of the object.
  • the attribute includes at least one of the diameter, the number, and the pitch of the object to be inspected
  • the diameter, the number of the object to be inspected such as inspection of reinforcement, piping, wiring, etc.
  • the inspection for checking the pitch can be performed accurately in a short time.
  • the automatic matching unit performs attribute recognition by pattern recognition.
  • attribute recognition is performed by pattern recognition, more accurate object inspection can be performed in a short time.
  • the pattern recognition is pattern matching.
  • the pattern recognition is machine learning.
  • the image processing apparatus includes a hint information acquisition unit that acquires hint information related to whether or not the corrected captured image matches the correct model image, and the automatic verification unit is configured to correct the captured image based on the hint information. It is checked whether or not the image and the correct model image match.
  • the hint information related to whether or not the photographed image and the correct model image match each other is input, and the photographed image and the correct model image are matched based on the hint information input by the automatic matching unit. A check is made to see if it is correct.
  • an automatic collation part performs collation based on hint information, it can perform exact collation in a short time.
  • the hint information acquisition unit acquires information related to the correspondence relationship between the captured image displayed on the display unit and the correct model image.
  • the correspondence between the captured image displayed as the hint information and the correct model image can be accurately acquired, A short-time object inspection is performed.
  • the hint information acquisition unit acquires information regarding a range to be collated.
  • the automatic collation unit can perform collation more accurately and in a short time.
  • the hint information acquisition unit acquires information regarding a range in which collation is not performed.
  • the automatic collation unit can perform collation more accurately and in a short time.
  • An object inspection apparatus includes a captured image acquisition unit that acquires a captured image of an object to be inspected captured by a camera, a positional relationship between the camera and the object at the time of capturing the captured image, and the object A specifying unit for specifying the shooting angle of the camera with respect to the above, a design information acquiring unit for acquiring design information of the object, and a correct model image of the object based on the design information, the correct model corresponding to the specified positional relationship and shooting angle A generating unit that generates an image; and an automatic collating unit that collates whether the captured image and the correct model image match each other.
  • the correct model image of the object to be inspected is generated using the design information.
  • the design information since it is checked whether the object to be inspected is designed according to the design information based on the correct answer model image, it is possible to perform an accurate object inspection in a short time.
  • An object inspection method includes a step of acquiring a captured image of an object to be inspected captured by a camera, a positional relationship between the camera and the object at the time of capturing the captured image, and the camera's relative to the object.
  • a step of specifying a shooting angle a step of acquiring design information of the object; a correct model image of the object based on the design information, and generating a correct model image corresponding to the specified positional relationship and the shooting angle;
  • a step of superimposing and displaying the photographed image and the correct model image a step of accepting a correction instruction of at least one of the photographed image and the correct model image displayed in the step of superimposing display, and a photographed image after being corrected by the correction instruction
  • the step of receiving a correction instruction receives a correction instruction of a captured image output by moving the camera.
  • An object inspection method includes a step of acquiring a captured image of an object to be inspected captured by a camera, a positional relationship between the camera and the object at the time of capturing the captured image, and the camera's relative to the object.
  • the correct model image of the object to be inspected is generated using the design information. Based on the correct model image, it is verified whether or not the object to be inspected is designed according to the design information, so that an accurate object inspection can be performed in a short time.
  • FIG. 1 is an overall configuration diagram showing an embodiment of a bar arrangement inspection apparatus.
  • FIG. 2 is a perspective view showing the external configuration of the computer.
  • FIG. 3 is a block diagram showing the system configuration of the computer.
  • FIG. 4 is a block diagram illustrating a functional configuration example of a computer.
  • FIG. 5 is a conceptual diagram of a method for estimating a shooting angle from the positions of four vertices on an image when a parallelogram flat plate is shot.
  • FIG. 6 is a conceptual diagram showing a bar arrangement diagram of a reinforcing bar assembly.
  • FIG. 7 is a diagram conceptually showing a correct model image generated based on the bar arrangement diagram shown in FIG.
  • FIG. 8 is a diagram conceptually showing a correct model image.
  • FIG. 1 is an overall configuration diagram showing an embodiment of a bar arrangement inspection apparatus.
  • FIG. 2 is a perspective view showing the external configuration of the computer.
  • FIG. 3 is a block diagram showing the system configuration of the computer.
  • FIG. 9 is a diagram conceptually showing a captured image and a correct model image displayed on the display unit.
  • FIG. 10 is a diagram for explaining an example of a correction instruction.
  • FIG. 11 is a diagram conceptually showing a captured image and a correct model image displayed on the display unit.
  • FIG. 12 is a flowchart showing the operation of the bar arrangement inspection apparatus.
  • FIG. 13 is a front perspective view showing the external configuration of the camera.
  • FIG. 14 is a rear perspective view showing the external configuration of the camera.
  • FIG. 15 is a block diagram showing the electrical configuration of the camera.
  • FIG. 16 is a block diagram illustrating a functional configuration example of a computer.
  • FIG. 17 is a diagram conceptually showing a captured image and a correct model image displayed on the display unit.
  • FIG. 18 is a block diagram illustrating a functional configuration example of a computer.
  • FIG. 19 is a flowchart showing the operation of the bar arrangement inspection apparatus.
  • FIG. 20 is a system configuration diagram illustrating an example of a bar arrangement inspection system.
  • FIG. 21 is a view showing an example of a measurement reference member formed of a plate-like body.
  • FIG. 22 is a perspective view showing another embodiment of a measurement target, that is, a pipe and a white plate of a measurement reference member.
  • FIG. 1 is an overall configuration diagram showing an embodiment of an object inspection apparatus (reinforcement inspection apparatus) according to the present invention, and measures a reinforcement arrangement that is one of columnar or cylindrical objects to be measured. It shows the case of inspection.
  • object inspection apparatus reinforcement inspection apparatus
  • This bar arrangement inspection system 10 is configured as a system capable of performing bar arrangement inspection on a plurality of reinforcing bars arranged on the same plane.
  • FIG. 1 a case where the reinforcement arrangement of the reinforcing bar assembly 1 assembled in a quadrangular prism shape is inspected as an inspection object is shown.
  • Such a reinforcing bar assembly 1 forms a reinforced concrete column having a quadrangular cross section when concrete is driven.
  • the reinforcing bar assembly 1 is composed of a plurality of main bars 2 and a plurality of band bars 3.
  • the main muscle 2 is arranged in a rectangular shape.
  • the band 3 is arranged so as to wrap around the main bar 2 arranged in a rectangular shape.
  • the main reinforcement 2 is arranged perpendicular to the installation surface.
  • the band 3 is arranged at right angles to the main muscle 2.
  • the bar arrangement inspection system 10 includes a tablet computer (hereinafter referred to as a computer 300) and a camera 200 equipped with a laser distance meter.
  • the camera 200 provided in the bar arrangement inspection system 10 captures the rebar assembly 1 and the white plate 100 that are inspection objects on a single screen, and acquires a captured image.
  • a photographed image photographed by the camera 200 is transmitted to the computer 300 and used for the bar arrangement examination.
  • a blackboard can be used instead of the white plate 100.
  • the white plate 100 is an example of a measurement reference member.
  • the white plate 100 is composed of a metal flat plate (plate-like body) having a rectangular outline.
  • the white plate 100 has a white display surface 102 on the surface.
  • the display surface 102 is configured to be writable with a marker, and is configured to be able to erase written information by erasing the white board.
  • Information necessary for an object inspection such as an inspection object (in this embodiment, since the object to be inspected is a reinforcement, hereinafter referred to as “reinafter referred to as “reinforcement inspection”) is entered on the display surface 102 of the white plate 100.
  • the white plate 100 is used as the measurement reference member, but the same measurement can be performed using a rectangular blackboard.
  • the white plate 100 includes a magnet (not shown) on the back surface.
  • the white plate 100 can be attached in close contact with the reinforcing bar using the magnetic force of the magnet.
  • the object to be inspected is not particularly limited, and various objects can be adopted as the object to be inspected. For example, reinforcement, piping, or wiring is mentioned as the object to be inspected.
  • FIG. 2A and 2B are perspective views showing the external configuration of the computer 300, where FIG. 2A is a front perspective view and FIG. 2B is a rear perspective view.
  • the computer 300 is composed of a tablet computer as shown in FIG.
  • the computer 300 includes a flat-plate-shaped casing 301 having a rectangular outline, and the casing 301 includes a touch panel display 302 that also serves as a display unit 326 (FIG. 3) and an input unit 328 (FIG. 3), operation buttons 303, A speaker 304, a built-in camera 305, an external connection terminal 306, and the like are provided.
  • FIG. 3 is a block diagram showing a system configuration of the computer 300.
  • the computer 300 includes a CPU (Central Processing Unit) 310 that controls the overall operation of the computer 300, and a main memory 314, a nonvolatile memory 316, a mobile device via the system bus 312.
  • Communication unit 318, wireless LAN (Local Area Network) communication unit 320, short-range wireless communication unit 322, wired communication unit 324, display unit 326, input unit 328, key input unit 330, audio processing unit 332, image processing unit 334 etc. are connected.
  • the CPU 310 reads an operation program (OS (Operating System) and an application program that operates on the OS), standard data, and the like stored in the non-volatile memory 316, expands them in the main memory 314, and operates the operation program By executing the above, it functions as a control unit that controls the operation of the entire computer.
  • OS Operating System
  • the main memory 314 is composed of, for example, a RAM (Random Access Memory) and functions as a work memory for the CPU 310.
  • the non-volatile memory 316 is composed of, for example, a flash EEPROM (EEPROM: Electrically Erasable Programmable Read Only Memory), and stores the above-described operation program and various fixed data.
  • the nonvolatile memory 316 functions as a storage unit of the computer 300 and stores various data.
  • the mobile communication unit 318 is a third-generation mobile communication system compliant with the IMT-2000 standard (International Mobile Telecommunication-2000) and a fourth-generation mobile communication system compliant with the IMT-Advanced standard (International Mobile Telecommunications-Advanced). Based on this, data is transmitted / received to / from a nearby base station (not shown) via the antenna 318A.
  • IMT-2000 International Mobile Telecommunication-2000
  • IMT-Advanced International Mobile Telecommunications-Advanced
  • the wireless LAN communication unit 320 uses a predetermined wireless LAN communication standard (for example, IEEE802.11a / b / g / n standard) between the wireless LAN access point and an external device capable of wireless LAN communication via the antenna 320A. ) To perform wireless LAN communication.
  • a predetermined wireless LAN communication standard for example, IEEE802.11a / b / g / n standard
  • the short-range wireless communication unit 322 transmits / receives data to / from other Bluetooth (registered trademark) equipment within the range of, for example, class 2 (within a radius of about 10 m) via the antenna 322A.
  • Bluetooth registered trademark
  • the wired communication unit 324 performs communication according to a predetermined communication standard with an external device connected by a cable via the external connection terminal 306. For example, USB (USB: Universal Serial Bus) communication is performed.
  • USB Universal Serial Bus
  • the display unit 326 includes a color LCD (LCD: Liquid Crystal Display) panel that constitutes a display portion of the touch panel display 302 and a drive circuit thereof, and displays various images.
  • the display unit 326 displays the captured image I and the correct model image J.
  • the input unit 328 constitutes a touch panel portion of the touch panel display 302.
  • the input unit 328 is configured integrally with the color LCD panel using a transparent electrode.
  • the input unit 328 generates and outputs two-dimensional position coordinate information corresponding to the user's touch operation.
  • the key input unit 330 includes a plurality of operation buttons 303 provided on the housing 301 of the computer 300 and a drive circuit thereof.
  • the audio processing unit 332 converts the digital audio data provided via the system bus 312 into an analog signal and outputs it from the speaker 304.
  • the image processing unit 334 digitizes an analog image signal output from the built-in camera 305 provided with a photographing lens and an image sensor, performs necessary signal processing, and outputs the result.
  • FIG. 4 is a block diagram illustrating a functional configuration example of the computer (object inspection apparatus) 300.
  • the captured image acquisition unit 336, the specifying unit 345, the imaging angle acquisition unit 350, the imaging distance acquisition unit 333, the arrangement information acquisition unit (design information acquisition unit) 340, the correction instruction reception unit 341, and the display unit 326 is shown.
  • the computer 300 implements the functions shown in FIG. 4 using the system configuration shown in FIG.
  • the photographed image acquisition unit 336 acquires a photographed image including the reinforcing bar assembly 1 and the white plate 100 as inspection objects photographed by the camera 200.
  • the captured image acquisition unit 336 transmits the acquired captured image to the imaging angle acquisition unit 350 and the display unit 326.
  • the captured image acquisition unit 336 acquires a captured image via the mobile communication unit 318, the wireless LAN communication unit 320, or the short-range wireless communication unit 322.
  • the photographing angle acquisition unit 350 acquires a photographing angle when the inspection target is photographed by the camera 200.
  • the shooting angle acquisition unit 350 analyzes the image data of the image in which the white plate 100 and the reinforcing bar are copied, and specifies the shooting angle.
  • the shooting angle acquisition unit 350 includes a measurement reference extraction unit 350A and a shooting angle estimation unit 350B.
  • the imaging angle can be, for example, an angle formed by the optical axis of the camera and the surface of the object to be inspected (or the surface of the measurement reference member).
  • the photographing angle acquisition unit 350 is realized by the CPU 310 or the image processing unit 334.
  • the measurement standard extraction unit 350A analyzes the photographed image and extracts the outline of the white plate 100 as the measurement standard.
  • the contour is extracted by a known contour extraction image processing.
  • the measurement reference extraction unit 350A is realized by the CPU 310 or the image processing unit 334.
  • the shooting angle estimation unit 350B estimates the shooting angle based on the contour shape of the white plate 100 extracted by the measurement reference extraction unit 350A.
  • the contour shape of the photographed white board 100 changes according to the direction in which the white board 100 is photographed. Since the contour shape of the white plate 100 in the real space is known, if the contour shape of the white plate 100 captured in the image is known, the photographing angle when the image is photographed can be specified.
  • the shooting angle estimation unit 350B is realized by the CPU 310 or the image processing unit 334. In particular, in the case of a rectangle like the white plate 100 of this example, the shooting angle can be estimated from the positions of the four vertices. Hereinafter, this point will be described.
  • FIG. 5 is a conceptual diagram of a method for estimating a shooting angle from the positions of four vertices on an image when a parallelogram flat plate is shot.
  • P is a parallelogram extracted from the captured image. Also, let the four vertices of the parallelogram P extracted from the image be a, b, c, d.
  • the points a, b, c, and d in the three-dimensional space have the camera position as the origin C0, the horizontal direction of the camera is the x axis, and the vertical direction.
  • B / A, C / A, and D / A can be obtained by formulating a formula based on this. Since A is free, the size and distance are not determined, but the direction of the parallelogram can be obtained regardless of A. This is obtained regardless of whether the four points on the image are true parallelograms. And the angle which image
  • the photographing angle when the white board 100 is photographed can be obtained from the contour shape of the white board 100 extracted from the photographed image.
  • the shooting angle acquisition unit 350 transmits the acquired shooting angle to the specifying unit 345.
  • the shooting distance acquisition unit 333 acquires the shooting distance between the camera 200 that acquires the shot image and the inspection object.
  • the shooting distance acquisition unit 333 may acquire the distance between the camera 200 and the inspection object when acquiring the shooting image from the camera 200, or the distance from the camera 200 to the inspection object separately from the shooting image. You may get it.
  • the photographing distance acquisition unit 333 acquires a distance measured by a laser distance meter 234 (FIG. 15) described later, for example.
  • the identifying unit 345 identifies the positional relationship between the position of the camera 200 when the captured image is captured and the object to be inspected, and the capturing angle of the camera 200 with respect to the object to be inspected.
  • the specification of the positional relationship between the position of the camera 200 and the object to be inspected when the captured image is taken is to specify the coordinates of the camera 200 and the white board 100, for example. That is, the specifying unit 345 specifies the coordinates of the camera 200 and the object to be inspected (for example, the white board 100) based on the shooting angle acquired from the shooting angle acquisition unit 350 and the shooting distance acquired from the shooting distance acquisition unit 333.
  • the width of the reinforcing bar included in the image can be obtained from the focal length of the photographing lens 204 and the pixel size of the image sensor 224.
  • the specifying unit 345 illustrated in FIG. 4 is an example, and the present invention is not limited to this.
  • the specifying unit 345 compares the measurement reference size and shape in the captured image based on the known measurement reference member size and shape, The positional relationship between the camera 200 and the measurement reference member and the shooting angle can be specified.
  • the specifying unit 345 is realized by the CPU 310 or the image processing unit 334.
  • the bar arrangement information acquisition unit 340 acquires bar arrangement information related to the diameter and arrangement of reinforcing bars to be arranged on the inspection object. For example, the bar arrangement information acquisition unit 340 acquires bar arrangement information via the mobile communication unit 318, the wireless LAN communication unit 320, or the short-range wireless communication unit 322.
  • FIG. 6 is a conceptual diagram showing a bar arrangement diagram of the reinforcing bar assembly 1 to be inspected.
  • the object design information acquired by the bar arrangement information acquisition unit 340 may be a two-dimensional design drawing, a three-dimensional design drawing, or a building information model.
  • the building information model is a design drawing in which attribute data such as material, cost, management information, etc. is added to the two-dimensional design drawing or the three-dimensional design drawing.
  • FIG. 6A is a diagram showing the arrangement of the reinforcing bar assemblies 1.
  • FIG. 6A shows the arrangement of a plurality of reinforcing bar assemblies 1.
  • a bar arrangement diagram of one reinforcing bar assembly 1 among the plurality of reinforcing bar assemblies 1 is shown in FIG. Note that the bar arrangement diagram shown in FIG. 6B is simplified for the sake of explanation, and the number of the reinforcing bar assemblies 1 and the reinforcing bars is different.
  • the bar arrangement diagram 7 includes information on the diameter D of the main reinforcement 2 and the pitch interval E of the main reinforcement 2.
  • the bar arrangement diagram 7 also includes information on the number of main reinforcing bars of the reinforcing bar assembly 1.
  • the information which the bar arrangement figure 7 has is not restricted to what was mentioned above, Various things can be included.
  • the generating unit 342 generates a correct model image of the object based on the bar arrangement information and corresponding to the specified positional relationship and shooting angle. Specifically, the generation unit 342 generates a computer graphic image that is the correct model image J corresponding to the captured image based on the arrangement information, the positional relationship and the imaging angle transmitted from the specifying unit 345. A known technique is used to generate a computer graphic image performed by the generation unit 342.
  • FIG. 7 is a diagram conceptually showing a correct model image J generated by computer graphics based on the bar arrangement diagram 7 shown in FIG.
  • FIG. 7A is a correct model image J taken when facing the rebar assembly 1.
  • FIG. 7B is taken obliquely (with a certain angle) with respect to the rebar assembly 1.
  • FIG. 7C shows the correct model image J when the image is taken obliquely with respect to the reinforcing bar assembly 1 (with an angle more than that of FIG. 7B).
  • the correct model image J is an image generated based on the reinforcing bar arrangement diagram 7 or the reinforcing bar information, and its mode is not particularly limited as long as it can be effectively compared with the reinforcing bar of the captured image I.
  • the correct model image J shown in FIG. 7 is a three-dimensional image, but a two-dimensional correct model image J may be generated.
  • FIG. 8 and 9 are diagrams conceptually showing the captured image I and the correct model image J displayed in a superimposed manner on the display unit 326 (touch panel display 302) of the computer 300.
  • FIG. 9 the correct model image J illustrated in FIG. 8 is superimposed on the captured image I on the display unit 326 of the computer 300.
  • the correct model image J is composed of a plurality of main muscle model images 16, and the main muscle model image 16 is displayed so as to overlap with the main muscle 2 of the captured image I.
  • the correct model image J and the captured image I in a superimposed manner, the user can easily inspect in a short time whether the bar arrangement is performed according to the bar arrangement diagram.
  • the display unit 326 of the computer 300 shows a verification result receiving unit 337 that receives a verification result via the touch panel display 302.
  • the verification result receiving unit 337 receives a verification result indicating whether or not the captured image and the correct model image match. That is, the collation result accepting unit 337 allows the user to collate the photographed image with the correct model image, see the superimposed display of the photographed image and the correct model image, and manually input the result.
  • the diameter of the main muscle 2 reflected in the captured image matches the width of the main muscle model image 16 of the correct model image, the diameter is accepted and the user inputs an OK result and is reflected in the captured image.
  • the number of main muscles matches the number of main muscle model images 16 of the correct model image
  • the number is accepted and the user inputs an OK result
  • the main muscle 2 and the main muscle 2 appear in the captured image.
  • the interval (pitch) matches the interval between the main muscle model image 16 and the main muscle model image 16 in the correct model image
  • the pitch is accepted and the user inputs an OK result.
  • 8 accepts the collation result manually input via the touch panel display 302 by the user, but the collation result acceptance unit 337 accepts the collation result from the automatic collation unit 339. Also good.
  • the correction instruction receiving unit 341 receives a correction instruction for at least one of the photographed image and the correct model image displayed on the display unit 326. That is, the correction instruction receiving unit 341 receives a correction instruction for adjustment so that the captured image displayed on the display unit 326 and the correct model image are displayed in a superimposed manner.
  • the correction instruction is input via the display unit 326 (touch panel display 302), for example. Further, the captured image and the correct model image are corrected by the image processing unit 334 in accordance with the correction instruction received by the correction instruction receiving unit 341.
  • FIG. 10 is a diagram illustrating an example of a correction instruction for a captured image and / or a correct model image input via the touch panel display 302.
  • FIG. 10A is a diagram for explaining a correction instruction for moving the captured image or the correct model image.
  • FIG. 10B is a diagram illustrating a correction instruction for enlarging or reducing (changing the size) of a captured image or a correct model image. As described above, the captured image or the correct model image can be enlarged and displayed by extending the captured image or the correct model image on the touch panel display 302, for example.
  • FIG. 10C is a diagram for explaining a correction instruction related to a change in the angle of the captured image or the correct model image.
  • the angle of the captured image or the correct model image can be adjusted.
  • FIG. 11 is a diagram conceptually showing the captured image I and the correct model image J displayed on the display unit 326 (touch panel display 302) of the computer 300.
  • the user inputs a correction for moving the main muscle model image 16 that is a part of the correct model image J and a correction for changing the angle of the main muscle model image 16 via the input unit 328, and the correction instruction receiving unit 341 receives the correction.
  • the main muscle model image 16 can be translated and rotated. Thereby, the superimposed display of the captured image I and the correct model image J can be adjusted.
  • FIG. 12 is a flowchart showing the operation of the computer 300.
  • the captured image acquisition unit 336 acquires a captured image of a bar arrangement that is an inspection target captured by the camera 200 (step S10).
  • the specifying unit 345 specifies the positional relationship between the camera 200 and the bar arrangement when the shot image is shot, and the shooting angle of the camera 200 with respect to the bar arrangement when the shot image is shot (step S11).
  • bar arrangement information such as a bar arrangement diagram is acquired by the bar arrangement information acquisition unit 340 (step S12).
  • the correct model image corresponding to the positional relationship and the shooting angle specified by the specifying unit 345 is generated by the generating unit 342 based on the bar arrangement information (step S13).
  • the correction instruction receiving unit 341 receives a correction instruction for the captured image or the correct model image, and corrects the captured image and the correct model image to be displayed in a superimposed manner (step S15).
  • the user may give an instruction to correct the captured image by moving the camera and moving the captured image.
  • the user collates the captured image displayed on the display unit 326 with the correct model image, and inputs the collation result to the collation result receiving unit 337 (step S16).
  • FIG. 13 is a front perspective view showing the external configuration of the camera 200.
  • FIG. 14 is a rear perspective view showing the external configuration of the camera 200.
  • the camera 200 is a lens-integrated digital camera in which a laser distance meter 234 is incorporated.
  • the camera 200 captures an optical image of a subject through a photographing lens with an image sensor and records it as digital data.
  • the laser distance meter 234 is an example of a distance meter, irradiates an object with laser light, and measures the distance from the camera 200 to one point on the object irradiated with laser light using the reflected light.
  • the camera 200 has a flat box-shaped camera body 202.
  • a photographing lens 204 In front of the camera body 202, a photographing lens 204, a strobe 206, a distance measuring window 208 and the like are provided.
  • a monitor 210 and an operation unit 212 including a plurality of operation buttons are provided on the rear surface of the camera body 202.
  • a shutter button 214 is provided on the upper surface of the camera body 202.
  • An external connection terminal 216 is provided on one side surface of the camera body 202.
  • the bottom surface of the camera body 202 is provided with a tripod screw hole and an openable / closable battery cover. Inside the battery cover, a battery storage chamber for mounting a battery and a memory card slot 232A for mounting a memory card are provided.
  • the photographing lens 204 is composed of a single focal lens having a fixed focal length. Therefore, its focal length is known.
  • the photographing lens 204 is configured by combining a plurality of lenses, and focus adjustment is performed by moving a part of the photographing lens 204 along the optical axis.
  • the photographing lens 204 includes a diaphragm, and the amount of light passing therethrough is adjusted by adjusting the aperture of the diaphragm.
  • the distance measuring window 208 is a window for emitting laser light for distance measurement of the laser distance meter 234.
  • the distance measuring laser beam is emitted parallel to the optical axis of the photographing lens 204.
  • the laser light emitted from the distance measuring window 208 is reflected by the object, and the reflected light enters the distance measuring window 208 and is used for measurement.
  • the monitor 210 is composed of a color LCD.
  • the monitor 210 is used for reproducing and displaying captured images, and is used as a GUI (GUI: “Graphical” User ”Interface) at various settings.
  • GUI GUI: “Graphical” User ”Interface
  • the plurality of operation buttons constituting the operation unit 212 include, for example, a power button, a menu button, a mode switching button, a cross button, a confirmation button, a cancel button, a distance measurement button, and the like.
  • the power button is a button for turning on / off the power of the camera 200.
  • the menu button is a button for calling a menu screen on the monitor 210.
  • the mode switching button is a button for switching the mode of the camera 200 such as a shooting mode, a playback mode, and a measurement mode.
  • the cross button is a button that can be operated in four directions, up, down, left, and right. The cross button is assigned a predetermined function in each direction according to the state of the camera 200.
  • a forward function is assigned to the right and a forward function is assigned to the left. Also, a function for moving the cursor in each direction is assigned during various settings.
  • the confirmation button is a button for instructing confirmation of processing.
  • the cancel button is a button for instructing cancellation of processing.
  • the distance measurement button is a button for instructing execution of distance measurement by the laser distance meter 234.
  • the shutter button 214 is composed of a two-stage stroke button composed of a so-called “half press” and “full press”.
  • the camera 200 prepares for shooting when the shutter button 214 is pressed halfway, and performs shooting for recording when the shutter button 214 is fully pressed.
  • the external connection terminal 216 is constituted by a USB terminal, for example. By connecting to an external device such as a personal computer with a cable via the external connection terminal 216, the external device is connected to be communicable with each other.
  • FIG. 15 is a block diagram showing an electrical configuration of the camera 200. As shown in FIG.
  • the camera 200 includes a lens driving unit 220, an image sensor 224, an AFE (Analog Front End) 226, a wireless LAN communication unit 228, a USB interface 230, a card interface 232, and a laser rangefinder 234.
  • the camera control unit 240 is provided.
  • the lens driving unit 220 moves a part of the photographing lens 204 along the optical axis. In addition, the lens driving unit 220 expands and contracts the diaphragm provided in the photographing lens 204.
  • the image sensor 224 is configured by a two-dimensional image sensor such as a CCD image sensor (CCD: Charged Coupled Device) or a CMOS image sensor (CMOS: Complementary Metal Metal Oxide Semiconductor).
  • CCD Charged Coupled Device
  • CMOS Complementary Metal Metal Oxide Semiconductor
  • the image sensor 224 is disposed on the optical axis L of the photographing lens 204.
  • the light passing through the photographing lens 204 is incident on the light receiving surface of the image sensor 224.
  • Information such as the size, the number of pixels, and the pixel size of the image sensor 224 is known.
  • the AFE 226 subjects the signal (image signal) output from the image sensor 224 to signal processing such as noise removal, signal amplification, A / D conversion (A / D: Analog / Digital), and the like. An image signal is generated.
  • the wireless LAN communication unit 228 transmits a predetermined communication standard (for example, IEEE802.11a / b / g / n standard (IEEE: The The standard) between the wireless LAN access point and an external device capable of wireless LAN communication via the antenna 228A. Perform wireless LAN communication in accordance with Institute Electrical and Electronics Engineers Inc.)).
  • a predetermined communication standard for example, IEEE802.11a / b / g / n standard (IEEE: The The standard) between the wireless LAN access point and an external device capable of wireless LAN communication via the antenna 228A. Perform wireless LAN communication in accordance with Institute Electrical and Electronics Engineers Inc.)).
  • the USB interface 230 performs USB communication according to a predetermined communication standard with an external device connected by a cable via an external connection terminal 216 that is a USB terminal.
  • the card interface 232 reads / writes data from / to the memory card 242 installed in the memory card slot 232A.
  • Laser distance meter 234 irradiates laser light and uses the reflected light to measure the distance from camera 200 to one point on the object irradiated with laser light.
  • the measurement principle of the laser distance meter there are several methods (for example, a triangular distance measurement method, a phase difference distance measurement method, etc.), and any method may be adopted.
  • the triangulation method the reflected light of the laser beam irradiated on the object is read by a light receiving element, and the distance is measured by the principle of triangulation.
  • the phase difference ranging method the phase difference between the projected laser light and the reflected light is detected and the distance is measured.
  • the laser distance meter 234 instead of the laser distance meter 234, it has a camera (stereo camera) having a plurality of photographing units that photograph a plurality of images having different parallaxes, or a distance image sensor, and has a flying time of measurement light emitted from a light source.
  • a distance image camera for example, a TOF (Time of Flight) camera
  • a distance image generation unit that acquires corresponding distance information from the distance image sensor and generates a distance image based on the acquired distance information may be used. .
  • the camera control unit 240 controls the overall operation of the camera 200 and performs predetermined signal processing.
  • the camera control unit 240 includes a microcomputer having a CPU and a memory.
  • the camera control unit 240 executes a predetermined program, thereby performing an image signal processing unit 250, an imaging control unit 252, a lens drive control unit 254, a strobe light emission control unit 256, a laser distance meter control unit 258, and a wireless LAN communication control unit.
  • 260 a USB communication control unit 262, a recording control unit 264, a display control unit 266, and the like.
  • the image signal processing unit 250 performs necessary signal processing on the digital image signal generated by the AFE 226 to generate predetermined image data (for example, image data of a luminance signal (Y) and color difference signals (Cr, Cb)). Image data consisting of image data).
  • predetermined image data for example, image data of a luminance signal (Y) and color difference signals (Cr, Cb)
  • Image data consisting of image data).
  • the imaging control unit 252 controls imaging by the image sensor 224.
  • the lens drive control unit 254 controls the focus of the photographing lens 204 via the lens driving unit 220 so that the object to be photographed is in focus. Further, the aperture of the taking lens 204 is controlled via the lens driving unit 220 so that the image is taken with appropriate exposure.
  • the strobe light emission control unit 256 controls the light emission of the strobe 206 so that the strobe light is emitted with a predetermined light amount in synchronism with photographing at the time of strobe photography.
  • the laser distance meter control unit 258 controls measurement by the laser distance meter 234.
  • the wireless LAN communication control unit 260 controls communication by the wireless LAN via the wireless LAN communication unit 228.
  • the USB communication control unit 262 controls USB communication via the USB interface 230.
  • the recording control unit 264 controls reading / writing of data with respect to the memory card 242 mounted in the memory card slot 232A via the card interface 232.
  • the display control unit 266 controls the display on the monitor 210.
  • the camera control unit 240 executes processing necessary for shooting and distance measurement by the laser rangefinder 234.
  • the above-described camera 200 is an example of the camera 200 used in the present invention, and the camera 200 used in the present invention is not limited to this. Any camera (imaging device) 200 capable of acquiring information necessary for the bar arrangement inspection can be applied to the present invention.
  • FIG. 16 is a block diagram illustrating a functional configuration example of a computer (object inspection apparatus) 300.
  • the computer 300 shown in FIG. 16 mainly includes a captured image acquisition unit 336, a specification unit 345, a shooting angle acquisition unit 350, a shooting distance acquisition unit 333, a bar arrangement information acquisition unit (design information acquisition unit) 340, and a correction instruction.
  • the reception unit 341, the display unit 326, the automatic collation unit 339, and the hint information acquisition unit 338 are configured.
  • symbol is attached
  • the automatic collation unit 339 automatically collates whether or not the corrected captured image and the correct model image match. Then, the automatic verification unit 339 transmits the verification result to the verification result reception unit 337.
  • the automatic verification unit 339 can perform verification using various techniques. For example, the automatic collation unit collates whether or not the bar arrangement attribute of the correct model image and the bar arrangement attribute read by a known technique such as image processing from the photographed image match.
  • the attribute is the diameter, number, or pitch of the bar arrangement. That is, the automatic collating unit 339 detects and collates the diameter, number, or pitch of the reinforcing bar that can be read from the captured image and the diameter, number, or pitch of the reinforcing bar in the correct model image.
  • the automatic matching unit 339 is realized by the CPU 310 or the image processing unit 334.
  • the automatic matching unit 339 recognizes the object attribute in the correct model image and the object attribute in the captured image by pattern recognition. For example, when recognizing the number of reinforcing bars, which is one of the attributes, the reinforcing bars are detected by pattern matching in pattern recognition. Note that data (rebar image data) used for detection by rebar pattern matching may be stored in the automatic matching unit 339 in advance, or the user specifies a range of rebar images in the captured image for pattern matching. May be used. Further, as another specific example of pattern recognition, attribute recognition may be performed by machine learning.
  • machine learning refers to, for example, when a reinforcing bar is detected from an image, there is a database in which repetitive learning is performed in advance from a plurality of reinforcing bar images, and the features hidden therein are recorded, and the features stored in the database Is to detect the reinforcing bars based on whether or not is included in the image, and to recognize information such as the number, diameter, and pitch of the reinforcing bars in the image.
  • the rebar detection accuracy is improved by sequentially updating the features of the rebar images stored in the database.
  • the aforementioned database is provided in the automatic matching unit 339.
  • the hint information acquisition unit 338 acquires hint information related to collation of whether or not the corrected captured image matches the correct model image. That is, the hint information acquisition unit 338 acquires information that assists the collation regarding whether or not the captured image and the correct model image displayed on the display unit 326 match, and the obtained information is obtained. It transmits to the automatic collation part 339.
  • the hint information acquisition unit 338 can accept various information as hint information.
  • the hint information acquisition unit 338 acquires information related to the correspondence relationship between the captured image displayed on the display unit 326 and the correct model image.
  • the information on the correspondence between the captured image and the correct model image is, for example, information on the correspondence between the reinforcing bar and the reinforcing model image in the captured image, and is input by touching the touch panel display 302 by the user. Is done.
  • the hint information acquisition unit 338 acquires information regarding a range in which the automatic verification unit 339 performs verification or information regarding a range in which the automatic verification unit 339 does not perform verification.
  • the hint information acquisition unit 338 acquires hint information given through the touch panel display 302.
  • FIG. 17 is a diagram illustrating a specific example of hint information acquired by the hint information acquisition unit 338.
  • the user inputs a range in which the automatic collation unit 339 performs collation via the touch panel display 302, and the hint information acquisition unit 338 acquires information regarding the range in which the automatic collation unit 339 performs collation.
  • FIG. 17A is a diagram conceptually showing the captured image I and the correct model image J displayed on the display unit 326 (touch panel display 302) of the computer 300 as in FIG.
  • the user specifies a range of template matching performed by the automatic matching unit 339, and the specified range is received by the hint information acquisition unit 338.
  • the automatic matching unit 339 performs template matching within the range specified by the hint information acquisition unit 338, and checks whether the captured image I and the correct model image J are acceptable.
  • FIG. 17B is a conceptual diagram showing a range to be collated designated by the hint information acquisition unit 338.
  • the automatic matching unit 339 may perform matching within a certain range, and as a bar arrangement inspection, it is possible to suppress other than reinforcing bars that become noise from appearing in the photographed image I, and to arrange with high accuracy. A muscle examination can be performed.
  • the main muscle 2 and the main muscle model image 16 in the captured image I are displayed in a superimposed manner.
  • the automatic collation unit 339 performs the collation using the hint information.
  • the automatic collation unit 339 can perform the collation without the hint information.
  • the automatic collation unit 339 collates the captured image displayed on the display unit 326 with the correct model image. Note that in the third embodiment, no correction related to the superimposed display of the captured image and the correct model image is performed.
  • FIG. 18 is a block diagram illustrating a functional configuration example of the computer (object inspection apparatus) 300.
  • the computer 300 shown in FIG. 18 mainly includes a captured image acquisition unit 336, a specification unit 345, an imaging angle acquisition unit 350, an imaging distance acquisition unit 333, a bar arrangement information acquisition unit (design information acquisition unit) 340, and an automatic The verification unit 339 is configured.
  • symbol is attached
  • the automatic collation unit 339 collates whether or not the photographed image and the correct model image match. Note that the automatic collation unit 339 of this example collates whether or not the captured image and the correct model image match without acquiring hint information. Further, in the computer 300 of this example, it is verified whether or not the photographed image and the correct model image match with each other without correcting the photographed image or the correct model image. If the superimposed display of the captured image and the correct model image is displayed without shifting, no correction instruction regarding the superimposed display is necessary. Further, it is not always necessary to acquire the hint information as long as the automatic collation unit 339 performs the collation with high accuracy in a short time without obtaining the hint information.
  • FIG. 19 is a flowchart showing the operation of the computer (bar arrangement inspection device) 300 of this example.
  • the captured image acquisition unit 336 acquires a captured image of a bar arrangement that is an inspection target captured by the camera 200 (step S20).
  • the specifying unit 345 specifies the positional relationship between the camera 200 and the bar arrangement when the shot image is shot, and the shooting angle of the camera 200 with respect to the bar arrangement when the shot image is shot (step S21).
  • design information bar arrangement information
  • such as a bar arrangement diagram is acquired by the bar arrangement information acquisition unit 340 (step S22).
  • the correct model image corresponding to the positional relationship and the shooting angle specified by the specifying unit 345 is generated by the generating unit 342 based on the design information (step S23). Then, the captured image and the correct model image are verified by the automatic verification unit 339 (step S24). In the case of this example, the correction instruction for the captured image and / or the correct model image displayed on the display unit 326 is not accepted, and therefore it is not necessary to display the captured image and the correct model image on the display unit 326. .
  • FIG. 20 is a system configuration diagram showing an example of a bar arrangement inspection system.
  • the bar arrangement inspection system 400 includes a camera 200 equipped with a laser distance meter, a tablet computer 300, and a management server 500.
  • the management server 500 includes a general-purpose computer 300 having a communication function, and is connected to the tablet computer 300 via a network 600 so as to communicate with each other.
  • the management server 500 includes a display as display means, a hard disk drive as storage means, and a mouse and keyboard as input means.
  • the computer 300 constituting the management server 500 realizes a function of providing and managing information necessary for the bar arrangement inspection by executing a predetermined management program.
  • the management database is stored in the hard disk drive of the management server 500.
  • information necessary for the bar arrangement inspection such as the bar arrangement diagram is stored for each inspection object.
  • the inspection result is stored in association with the inspection object.
  • the computer 300 acquires information necessary for the reinforcement inspection of the reinforcing bars to be inspected from the management server 500 as the arrangement information.
  • the arrangement information includes at least information on the diameter and arrangement of reinforcing bars to be examined.
  • the computer 300 functions as a bar arrangement inspection unit by executing a predetermined bar arrangement inspection program.
  • a plate-like body having a parallelogram, regular polygon, or perfect circle shape can be used as the measurement reference member.
  • FIGS. 21A to 21C are diagrams showing an example of a measurement reference member formed of a plate-like body.
  • FIG. 21 (A) is a front view showing an example when a parallelogram flat plate is used as a measurement reference member. As shown in the figure, when a parallelogram flat plate is used as a measurement reference member, the parallelogram forming the outline constitutes the measurement reference.
  • FIG. 21 (B) is a front view showing an example when a regular polygonal flat plate is used as a measurement reference member.
  • a regular hexagonal flat plate is used as a measurement reference member.
  • the regular polygon forming the outline constitutes the measurement reference.
  • FIG. 21 (C) is a front view showing an example of using a perfect circular disk as a measurement reference member. As shown in the figure, when a perfect circle disk is used as a measurement reference member, the perfect circle forming the outline constitutes the measurement reference.
  • a plate-like body having a parallelogram, regular polygon, or perfect circle shape can be used as a measurement reference member having a predetermined measurement reference.
  • a white board and a blackboard are examples of such a plate-like body.
  • a solid having a parallelogram, regular polygon or perfect circle end face can be used as a measurement reference member having a measurement reference.
  • a rectangular parallelepiped block is an example of such a solid.
  • FIG. 22 is a perspective view showing a pipe and a white plate of a measurement reference member, which are another embodiment of the measurement object.
  • the object to be measured is not limited to the reinforcing bar described in the above embodiment, but may be a pipe 4 or a wiring laid in a plant or the like as shown in FIG. Any object can be used. However, a plurality of objects to be measured (a plurality of pipes in the example of FIG. 22) need to be arranged on the same plane.
  • the measurement reference member (white plate 100 in the example of FIG. 22) is arranged along a plurality of objects.

Landscapes

  • Engineering & Computer Science (AREA)
  • Architecture (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Civil Engineering (AREA)
  • Structural Engineering (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本発明は精度の高い物体検査を短時間で行うことができる物体検査装置及び物体検査方法を提供する。本発明の態様に係る物体検査装置(300)は、撮影画像取得部(336)と、撮影画像の撮影時のカメラと物体との位置関係及び物体に対するカメラの撮影角度を特定する特定部(345)と、設計情報に基づく物体の正解モデル画像であって、特定した位置関係及び撮影角度に対応する正解モデル画像を生成する生成部(342)と、撮影画像と正解モデル画像とを重畳表示させる表示部と、表示部に表示された撮影画像及び正解モデル画像のうち少なくとも一方の修正指示を受け付ける修正指示受付部(341)と、修正後の撮影画像と正解モデル画像とが一致しているか否かを示す照合結果を受け付ける照合結果受付部(337)と、を備える。

Description

物体検査装置及び物体検査方法
 本発明は、物体検査装置及び物体検査方法に関し、特に検査対象である物体の撮影画像を用いた物体検査装置及び物体検査方法に関する。
 円柱状の物体である鉄筋を用いた構造物の建設工事では、その施工品質を確保するため、配筋検査が行われる。配筋検査では、施工した鉄筋が配筋図に沿って配置されているか否かの確認、すなわち合否の検査が行われる。ここで配筋とは鉄筋コンクリートの建物における鉄筋の配置のことであり、配筋図とは柱、梁、壁、スラブ、又は基礎における鉄筋の配置、寸法、数量、種別、径等が示された鉄筋の配置に関する図面である。
 従来より、配筋検査において、写真計測の技術を利用することが試みられている。
 例えば特許文献1には、専用の計測用治具を鉄筋と共に撮影し、取得した画像において鉄筋の輪郭抽出を行い、この輪郭抽出の結果に基づいて鉄筋の本数、鉄筋の太さ(径)、鉄筋の幅を算出する方法が提案されている。
 また例えば特許文献2には、専用の鉄筋撮影用具を背景として鉄筋を撮影し、得られた画像を解析して、配筋情報として鉄筋の本数、鉄筋の径、及び鉄筋のピッチを測定する方法が提案されている。
特開2010-266202号公報 特開2012-67462号公報
 実際の建設現場では、先ず検査対象物が建物名や柱の種類等を記載した黒板及びメジャー等の特殊な撮影用具と共に撮影され、その撮影画像と配筋図とを設計管理者が照合することにより配筋検査が行われる場合が多い。このように設計管理者自身で行う照合、すなわち人為的な照合は、見逃しや見間違え等のミスが発生する恐れがある。また人為的な照合は、検査時間を要する場合がある。
 上述した特許文献1及び2では、撮影された配筋が配筋図に沿って設けられているか否かの照合を行う方法に関しては言及されていない。
 本発明はこのような事情に鑑みてなされたもので、その目的は、精度の高い物体検査を短時間で行うことができる物体検査装置及び物体検査方法を提供することである。
 上記目的を達成するために本発明の一の態様である物体検査装置は、カメラにより撮影された検査対象である物体の撮影画像を取得する撮影画像取得部と、撮影画像の撮影時のカメラと物体との位置関係及び物体に対するカメラの撮影角度を特定する特定部と、物体の設計情報を取得する設計情報取得部と、設計情報に基づく物体の正解モデル画像であって、特定した位置関係及び撮影角度に対応する正解モデル画像を生成する生成部と、撮影画像と正解モデル画像とを重畳表示させる表示部と、表示部に表示された撮影画像及び正解モデル画像のうち少なくとも一方の修正指示を受け付ける修正指示受付部と、修正指示により修正された後の撮影画像と正解モデル画像とが一致しているか否かを示す照合結果を受け付ける照合結果受付部と、を備える。
 本態様によれば、カメラと検査対象である物体との位置関係、及び検査対象である物体に対するカメラの撮影角度に基づいて、設計情報を利用して検査対象の物体の正解モデル画像が生成される。そして、本態様ではこの正解モデル画像に基づいて検査対象の物体が設計情報どおりに設計されているかの照合が行われるので、精度の良い物体検査を短時間で行うことができる。
 好ましくは、物体は、配筋、配管、又は配線である。
 本態様によれば、検査対象の物体は配筋、配管、又は配線である。特に、配筋、配管、及び配線のように設計情報に基づいて施行される工事又は製造において、正確に短時間で設計情報どおりに工事又は製造が行われているかの検査を行うことができる。
 好ましくは、撮影画像取得部は、寸法及び形状が既知の測定基準部材を含む撮影画像を取得し、特定部は、撮影画像における測定基準部材の寸法及び形状に基づいて位置関係及び撮影角度を特定する。
 本態様によれば、寸法及び形状が既知の測定基準部材を含む撮影画像が取得され、撮影画像における測定基準部材の寸法及び形状に基づいて位置関係及び撮影角度が特定される。これにより本態様は、取得された撮影画像でカメラと物体との位置関係及び撮影角度を特定することができ、簡便な物体検査を行うことができる。
 好ましくは、カメラと物体との距離を取得する撮影距離取得部、を備え、撮影画像取得部は、形状が既知の測定基準部材を含む撮影画像を取得し、特定部は、撮影距離取得部で取得された距離及び測定基準部材の形状に基づいて位置関係及び撮影角度を特定する。
 本態様によれば、形状が既知の測定基準部材を含む撮影画像が取得され、且つ撮影距離取得部によりカメラと物体との距離が取得されることにより、位置関係及び撮影角度が特定される。これにより、本態様は取得された撮影画像及び距離に基づいてカメラと物体との位置関係及び撮影角度を特定することができる。
 好ましくは、撮影距離取得部は、レーザー距離計、視差の異なる複数の画像を撮影する複数の撮影部を有するカメラ、又は距離画像センサーを有し、光源から出射された測定光の飛翔時間に対応する距離情報を距離画像センサーから取得し、取得した距離情報に基づいて距離画像を生成する距離画像生成部を備えた距離画像カメラで計測された距離を取得する。
 本態様によれば、レーザー距離計、視差の異なる複数の画像を撮影する複数の撮影部を有するカメラ(ステレオカメラ)、又は距離画像センサーを有し、光源から出射された測定光の飛翔時間に対応する距離情報を距離画像センサーから取得し、取得した距離情報に基づいて距離画像を生成する距離画像生成部を備えた距離画像カメラで計測された距離を取得するので、カメラと検査対象の物体との正確な距離の測定が行われる。
 好ましくは、設計情報取得部は、物体の2次元設計図を取得し、生成部は、2次元設計図から正解モデル画像を生成する。
 本態様によれば、検査対象の物体の2次元設計図が取得され、取得された2次元設計図に基づいて正解モデル画像が生成されるので、より正確な物体検査が行われる。
 好ましくは、設計情報取得部は、物体の3次元設計図を取得し、生成部は、3次元設計図から正解モデル画像を生成する。
 本態様によれば、検査対象の物体の3次元設計図が取得され、取得された3次元設計図に基づいて正解モデル画像が生成されるので、より正確な物体検査が行われる。
 好ましくは、3次元設計図は、ビルディングインフォメーションモデルである。
 本態様によれば、物体のビルディングインフォメーションモデルが取得され、取得されたビルディングインフォメーションモデルに基づいて正解モデル画像が生成されるので、より正確な物体検査が行われる。
 好ましくは、表示部は、修正指示受付部が設けられ、修正指示受付部は、表示部に重畳表示された正解モデル画像が操作されることにより、修正指示を受け付ける。
 本態様によれば、修正指示が表示部に重畳表示された正解モデル画像が操作されることにより修正指示が受け付けられるので、ユーザは表示された正解モデル画像を操作することにより修正の指示を行うことができ、正解モデル画像の修正を簡便に行うことができる。
 好ましくは、照合結果受付部は、手動により入力される照合結果を受け付ける。
 本態様によれば、ユーザは表示部に表示された正解モデル画像と撮影画像とを照合し、その照合結果を照合結果受付部に入力する。これにより、本態様はユーザが手動により物体検査を行う場合に、正確で短時間に物体検査を行うことを補助することができる。
 好ましくは、物体検査装置は、修正後の撮影画像と正解モデル画像とが一致しているか否かの照合を自動で行う自動照合部を備え、照合結果受付部は、自動照合部での照合結果を受け付ける。
 本態様によれば、自動照合部により、修正後の撮影画像と正解モデル画像とが一致しているか否かの照合が自動で行われる。これにより本態様は、より正確な物体検査を短時間で行うことができる。
 好ましくは、自動照合部は、正解モデル画像の物体の属性と撮影画像から読み取れる物体の属性とが一致しているか否かの照合を行う。
 本態様によれば、自動照合部は物体の属性と撮影画像から読み取れる物体の属性とが一致しているか否かにより照合が行われるので、より正確な物体検査を短時間で行うことができる。
 好ましくは、属性とは、物体の径、本数、及びピッチのうち少なくとも一つを含む。
 本態様によれば、属性として検査対象の物体の径、本数、及びピッチのうち少なくとも一つが含まれるので、配筋、配管、又は配線などの検査のように検査対象の物体の径、本数、又はピッチについて照合を行う検査を正確に短時間で行うことができる。
 好ましくは、自動照合部は、属性の認識をパターン認識により行う。
 本態様によれば、属性の認識がパターン認識により行われるので、より正確な物体検査を短時間で行うことができる。
 好ましくは、パターン認識は、パターンマッチングである。
 好ましくは、パターン認識は、機械学習である。
 好ましくは、修正後の撮影画像と正解モデル画像とが一致しているか否かの照合に関するヒント情報を取得するヒント情報取得部を備え、自動照合部は、ヒント情報に基づいて、修正後の撮影画像と正解モデル画像とが一致しているか否かの照合を行う。
 本態様によれば、撮影画像と正解モデル画像とが一致しているか否かの照合に関するヒント情報が入力され、自動照合部により入力されたヒント情報に基づいて撮影画像と正解モデル画像とが一致しているか否かの照合が行われる。これにより本態様では、自動照合部はヒント情報に基づいて照合を行うので正確な照合を短時間で行うことができる。
 好ましくは、ヒント情報取得部は、表示部に表示された撮影画像と正解モデル画像との対応関係に関する情報を取得する。
 本態様によれば、ヒント情報として表示された撮影画像と正解モデル画像との対応関係に関する情報が取得されるので、撮影画像と正解モデル画像との対応関係を正確に取得することができ、正確で短時間の物体検査が行われる。
 好ましくは、ヒント情報取得部は、照合を行う範囲に関する情報を取得する。
 本態様によれば、ヒント情報として照合を行う範囲に関する情報が取得されるので、自動照合部はより正確で短時間に照合を行うことができる。
 好ましくは、ヒント情報取得部は、照合を行わない範囲に関する情報を取得する。
 本態様によれば、ヒント情報として照合を行う範囲に関する情報が取得されるので、自動照合部はより正確で短時間に照合を行うことができる。
 本発明の他の態様である物体検査装置は、カメラにより撮影された検査対象である物体の撮影画像を取得する撮影画像取得部と、撮影画像の撮影時のカメラと物体との位置関係及び物体に対するカメラの撮影角度を特定する特定部と、物体の設計情報を取得する設計情報取得部と、設計情報に基づく物体の正解モデル画像であって、特定した位置関係及び撮影角度に対応する正解モデル画像を生成する生成部と、撮影画像と正解モデル画像とが一致しているか否かの照合を行う自動照合部と、を備える。
 本態様によれば、カメラと検査対象である物体との位置関係、及び検査対象である物体に対するカメラの撮影角度に基づいて、設計情報を利用して検査対象の物体の正解モデル画像が生成される。そして、本態様ではこの正解モデル画像に基づいて検査対象の物体が設計情報どおりに設計されているかの照合が行われるので、精度の良い物体検査を短時間で行うことができる。
 本発明の他の態様である物体検査方法は、カメラにより撮影された検査対象である物体の撮影画像を取得するステップと、撮影画像の撮影時のカメラと物体との位置関係及び物体に対するカメラの撮影角度を特定するステップと、物体の設計情報を取得するステップと、設計情報に基づく物体の正解モデル画像であって、特定した位置関係及び撮影角度に対応する正解モデル画像を生成するステップと、撮影画像と正解モデル画像とを重畳表示させるステップと、重畳表示させるステップで表示された撮影画像及び正解モデル画像のうち少なくとも一方の修正指示を受け付けるステップと、修正指示により修正された後の撮影画像と正解モデル画像とが一致しているか否かを示す照合結果を受け付けるステップと、を含む。
 好ましくは、修正指示を受け付けるステップは、カメラを移動させて出力される撮影画像の修正指示を受け付ける。
 本態様によれば、ユーザはカメラを移動させることにより撮影画像の修正の指示を行うことができるので、より簡便な修正の指示を行うことができる。
 本発明の他の態様である物体検査方法は、カメラにより撮影された検査対象である物体の撮影画像を取得するステップと、撮影画像の撮影時のカメラと物体との位置関係及び物体に対するカメラの撮影角度を特定するステップと、物体の設計情報を取得するステップと、設計情報に基づく物体の正解モデル画像であって、特定した位置関係及び撮影角度に対応する正解モデル画像を生成するステップと、撮影画像と正解モデル画像とが一致しているか否かの照合を行うステップと、を含む。
 本発明によれば、カメラと検査対象である物体との位置関係、及び検査対象である物体に対するカメラの撮影角度に基づいて、設計情報を利用して検査対象の物体の正解モデル画像が生成され、その正解モデル画像に基づいて検査対象の物体が設計情報どおりに設計されているかの照合が行われるので、精度の良い物体検査を短時間で行うことができる。
図1は配筋検査装置の一実施形態を示す全体構成図である。 図2はコンピュータの外観構成を示す斜視図である。 図3はコンピュータのシステム構成を示すブロック図である。 図4はコンピュータの機能構成例を示すブロック図である。 図5は平行四辺形の平板を撮影したときに、画像上の四つの頂点の位置から撮影角度を推定する方法の概念図である。 図6は鉄筋組立体の配筋図を示す概念図である。 図7は、図6で示した配筋図に基づいて生成された正解モデル画像を概念的に示す図である。 図8は、正解モデル画像を概念的に示す図である。 図9は表示部に表示された撮影画像及び正解モデル画像を概念的に示す図である。 図10は修正指示の例に関して説明する図である。 図11は表示部に表示された撮影画像及び正解モデル画像を概念的に示す図である。 図12は配筋検査装置の動作を示したフローチャートである。 図13はカメラの外観構成を示す正面斜視図である。 図14はカメラの外観構成を示す背面斜視図である。 図15はカメラの電気的構成を示すブロック図である。 図16はコンピュータの機能構成例を示すブロック図である。 図17は表示部に表示された撮影画像及び正解モデル画像を概念的に示す図である。 図18はコンピュータの機能構成例を示すブロック図である。 図19は配筋検査装置の動作を示したフローチャートである。 図20は配筋検査システムの一例を示すシステム構成図である。 図21は板状体で構成される測定基準部材の一例を示す図である。 図22は測定対象の他の実施形態である配管及び測定基準部材の白板を示す斜視図である。
 以下、添付の図面に沿って本発明に係る物体検査装置及び物体検査方法の好ましい実施の形態について説明する。なお、以下の例では検査対象の物体が配筋である配筋検査に関して説明をするが、本発明の物体検査は配筋検査に限られるものではない。
 図1は、本発明に係る物体検査装置(配筋検査装置)の一実施形態を示す全体構成図であり、測定対象である円柱状又は円筒状の物体の一つである配筋を測定又は検査する場合に関して示している。
 この配筋検査システム10は、同一面上に配置された複数の鉄筋に関しての配筋検査を行うことができるシステムとして構成される。なお図1に示す例では、検査対象物として四角柱状に組まれた鉄筋組立体1の配筋を検査する場合を示している。このような鉄筋組立体1は、コンクリートが打ち込まれることにより、断面四角形状の鉄筋コンクリート柱を構成する。
 図1に示すように、鉄筋組立体1は、複数の主筋2と、複数の帯筋3とで構成される。主筋2は、矩形状に配置される。帯筋3は、矩形状に配置された主筋2の周囲を巻くように配置される。主筋2は、設置面に対して垂直に配置される。帯筋3は、主筋2に対して直角に配置される。
 配筋検査システム10は、タブレット型のコンピュータ(以下、コンピュータ300と記載する)、レーザー距離計を備えたカメラ200で構成されている。配筋検査システム10に備えられたカメラ200により、検査対象物である鉄筋組立体1及び白板100を一画面に収めて撮影され撮影画像が取得される。カメラ200で撮影された撮影画像は、コンピュータ300に送信され配筋検査に使用される。なお白板100に代えて黒板も使用することが可能である。
 白板100は、測定基準部材の一例である。白板100は、矩形の輪郭を有する金属製の平板(板状体)で構成される。白板100は、表面に白色の表示面102を有する。表示面102は、マーカーで書き込み可能に構成され、かつ、書き込まれた情報を白板消しで消去可能に構成される。検査対象など物体検査(本実施形態では、検査対象の物体が配筋であるため、以下「配筋検査」という)に必要な情報は、この白板100の表示面102に記入される。なお、本例では、測定基準部材として白板100を使用しているが、矩形状の黒板を用いても同様の測定ができる。また白板100は、裏面に図示しない磁石が備えられる。白板100は、この磁石の磁力を利用して、鉄筋に密着させて取り付けることができる。また、検査対象の物体は特に限定されず様々なものを検査対象の物体として採用することができる。例えば検査対象の物体として、配筋、配管、又は配線が挙げられる。
 次にコンピュータ300に関して説明を行う。
 図2は、コンピュータ300の外観構成を示す斜視図であり、同図(A)は正面斜視図、同図(B)は背面斜視図である。
 コンピュータ300は、図2に示すように、タブレット型のコンピュータで構成される。コンピュータ300は、矩形の輪郭を有する平板状の筐体301を備え、その筐体301に表示部326(図3)と入力部328(図3)とを兼ねたタッチパネルディスプレイ302、操作ボタン303、スピーカー304、内蔵カメラ305、外部接続端子306等を備えて構成される。
 図3は、コンピュータ300のシステム構成を示すブロック図である。
 図3に示すように、コンピュータ300は、コンピュータ300の全体の動作を制御するCPU(Central Processing Unit)310を備え、このCPU310にシステムバス312を介して、メインメモリ314、不揮発性メモリ316、モバイル通信部318、無線LAN(LAN:Local Area Network)通信部320、近距離無線通信部322、有線通信部324、表示部326、入力部328、キー入力部330、音声処理部332、画像処理部334等が接続されて構成される。
 CPU310は、不揮発性メモリ316に記憶された動作プログラム(OS(Operating System)、及び、そのOS上で動作するアプリケーションプログラム)、及び、定型データ等を読み出し、メインメモリ314に展開して、動作プログラムを実行することにより、このコンピュータ全体の動作を制御する制御部として機能する。
 メインメモリ314は、たとえば、RAM(Random Access Memory)で構成され、CPU310のワークメモリとして機能する。
 不揮発性メモリ316は、たとえば、フラッシュEEPROM(EEPROM:Electrically Erasable Programmable Read Only Memory)で構成され、上述した動作プログラムや各種定型データを記憶する。また、不揮発性メモリ316は、コンピュータ300の記憶部として機能し、各種データを記憶する。
 モバイル通信部318は、IMT-2000規格(International Mobile Telecommunication-2000)に準拠した第3世代移動通信システム、及び、IMT-Advanced規格(International Mobile Telecommunications-Advanced)に準拠した第4世代移動通信システムに基づき、アンテナ318Aを介して、最寄りの図示しない基地局との間でデータの送受信を実行する。
 無線LAN通信部320は、アンテナ320Aを介して、無線LANアクセスポイントや無線LAN通信が可能な外部機器との間で所定の無線LAN通信規格(たとえば、例えばIEEE802.11a/b/g/n規格)に従った無線LAN通信を行う。
 近距離無線通信部322は、アンテナ322Aを介して、たとえばクラス2(半径約10m内)の範囲内にある他のBluetooth(登録商標)規格の機器とデータの送受信を実行する。
 有線通信部324は、外部接続端子306を介してケーブルで接続された外部機器との間で所定の通信規格に従った通信を行う。たとえば、USB(USB: Universal Serial Bus)通信を行う。
 表示部326は、タッチパネルディスプレイ302のディスプレイ部分を構成するカラーLCD(LCD:Liquid Crystal Display)パネルと、その駆動回路と、で構成され、各種画像を表示する。また、表示部326は撮影画像Iと正解モデル画像Jとを表示する。
 入力部328は、タッチパネルディスプレイ302のタッチパネル部分を構成する。入力部328は、透明電極を用いてカラーLCDパネルと一体的に構成される。入力部328は、ユーザのタッチ操作に対応した2次元の位置座標情報を生成して出力する。
 キー入力部330は、コンピュータ300の筐体301に備えられた複数の操作ボタン303と、その駆動回路と、で構成される。
 音声処理部332は、システムバス312を介して与えられるデジタル音声データをアナログ化してスピーカー304から出力する。
 画像処理部334は、撮影レンズ及びイメージセンサーを備えた内蔵カメラ305から出力されるアナログの画像信号をデジタル化し、所要の信号処理を施して出力する。
 <第1の実施形態>
 図4は、コンピュータ(物体検査装置)300の機能構成例を示すブロック図である。図4では、主に、撮影画像取得部336、特定部345、撮影角度取得部350、撮影距離取得部333、配筋情報取得部(設計情報取得部)340、修正指示受付部341、表示部326が示されている。コンピュータ300は、図3に示したシステム構成を利用して図4に示された機能を実現する。
 撮影画像取得部336は、カメラ200により撮影された検査対象物としての鉄筋組立体1及び白板100を含む撮影画像を取得する。撮影画像取得部336は、取得した撮影画像を撮影角度取得部350及び表示部326に送信する。例えば撮影画像取得部336は、モバイル通信部318、無線LAN通信部320、又は近距離無線通信部322を介して撮影画像を取得する。
 撮影角度取得部350は、カメラ200による検査対象物の撮影を行う場合の撮影角度を取得する。撮影角度取得部350は、白板100及び鉄筋が写し込まれた画像の画像データを解析して、その撮影角度を特定する。撮影角度取得部350は、測定基準抽出部350A及び撮影角度推定部350Bを備える。なお、撮影角度とは、例えばカメラの光軸と検査対象である物体の表面(又は測定基準部材の表面)との成す角度とすることができる。例えば撮影角度取得部350は、CPU310又は画像処理部334で実現される。
 測定基準抽出部350Aは、撮影画像を解析して、測定基準である白板100の輪郭を抽出する。輪郭は、公知の輪郭抽出の画像処理によって抽出される。例えば測定基準抽出部350Aは、CPU310又は画像処理部334で実現される。
 撮影角度推定部350Bは、測定基準抽出部350Aで抽出した白板100の輪郭形状に基づいて、撮影角度を推定する。撮影された白板100の輪郭形状は、白板100を撮影した方向に応じて変化する。実空間上での白板100の輪郭形状は既知であるので、画像に写されている白板100の輪郭形状が分かれば、画像を撮影したときの撮影角度を特定できる。例えば撮影角度推定部350Bは、CPU310又は画像処理部334で実現される。特に、本例の白板100のように矩形の場合、その四つの頂点の位置から撮影角度を推定できる。以下、この点について説明する。
 図5は、平行四辺形の平板を撮影したときに、画像上の四つの頂点の位置から撮影角度を推定する方法の概念図である。
 撮影画像から抽出した平行四辺形をPとする。また、画像から抽出した平行四辺形Pの四つの頂点をa、b、c、dとする。
 画像上にu軸及びv軸からなる二次元座標を設定し、設定した二次元座標の中心の座標をI0(u0,v0)とする。また、画像に含まれる平行四辺形の四つの頂点a、b、c、dの座標を(u1,v1)、(u2,v2)、(u3,v3)、(u4,v4)とする。
 カメラに備えられた撮影レンズの焦点距離をfとすると、三次元空間上での各点a、b、c、dは、カメラの位置を原点C0とし、カメラの水平方向をx軸、垂直方向をy軸、光軸の方向をz軸とした場合、
 a(x1=A(u1-u0),y1=A(v1-v0),z1=Af)
 b(x2=B(u2-u0),y2=B(v2-v0),z2=Bf)
 c(x3=C(u3-u0),y3=C(v3-v0),z3=Cf)
 d(x4=D(u4-u0),y4=D(v4-v0),z4=Df)
 と表わされ、A~Dが、ある定数となるどこかに存在していることになる。四つの点a、b、c、dが成す図形が、平行四辺形であるということは、ベクトルab=ベクトルdcが成り立つ。
 これを基に式を立てると、B/A、C/A、D/Aが求まる。Aが自由なので、大きさと距離は決まらないが、Aに関わらず、平行四辺形の向きは求まる。これは、画像上の四つの点が本当の平行四辺形であるかに関わらず求まる。そして、この平行四辺形の向きが求まることにより、その画像を撮影した角度が求まる。
 このように撮影した画像から抽出した白板100の輪郭形状から白板100を撮影した時の撮影角度を求めることができる。撮影角度取得部350は、取得した撮影角度を特定部345に送信する。
 図4に戻って撮影距離取得部333は、撮影画像を取得するカメラ200と検査対象物との撮影距離を取得する。例えば撮影距離取得部333は、カメラ200から撮影画像を取得する際にカメラ200と検査対象物との距離を取得してもよいし、撮影画像とは別にカメラ200から検査対象物との距離を取得してもよい。また撮影距離取得部333は、例えば後述するレーザー距離計234(図15)で計測された距離を取得する。
 特定部345は、撮影画像を撮影した時のカメラ200の位置と検査対象である物体との位置関係、及び検査対象である物体に対するカメラ200の撮影角度を特定する。ここで、撮影画像を撮影した時のカメラ200の位置と検査対象である物体との位置関係の特定とは、例えばカメラ200及び白板100の座標を特定することである。すなわち特定部345は、撮影角度取得部350から取得する撮影角度及び撮影距離取得部333から取得する撮影距離に基づいて、カメラ200及び検査対象である物体(例えば白板100)の座標を特定する。なお、カメラ200と白板100との位置関係が特定されることにより、撮影レンズ204の焦点距離、及び、イメージセンサー224の画素サイズから画像に含まれる鉄筋の幅を求めることが可能となる。なお、図4で示した特定部345は一例でありこれに限定されるものではない。例えば特定部345は、測定基準部材の寸法及び形状が既知である場合には、その既知である測定基準部材の寸法及び形状に基づいて撮影画像における測定基準の寸法及び形状を比較することにより、カメラ200と測定基準部材との位置関係及び撮影角度を特定することができる。例えば特定部345は、CPU310又は画像処理部334で実現される。
 配筋情報取得部340は、検査対象物に配置されるべき鉄筋の径及び配置に関する配筋情報を取得する。例えば配筋情報取得部340は、モバイル通信部318、無線LAN通信部320、又は近距離無線通信部322を介して配筋情報を取得する。
 図6は、検査対象である鉄筋組立体1の配筋図を示す概念図である。なお、配筋情報取得部340で取得される物体の設計情報としては、2次元設計図、3次元設計図、又はビルディングインフォメーションモデルであってもよい。ここでビルディングインフォメーションモデルとは、2次元設計図又は3次元設計図において、材料、コスト、管理情報などの属性データを追加した設計図のことである。
 図6(A)は、鉄筋組立体1の配置に関して示した図である。図6(A)では複数の鉄筋組立体1の配置に関して示されている。複数の鉄筋組立体1のうち1つの鉄筋組立体1の配筋図を図6(B)に示す。なお図6(B)に示す配筋図は説明のため簡略化されており、鉄筋組立体1と鉄筋の本数が異なっている。配筋図7には、主筋2の径の寸法D及び主筋2のピッチ間隔Eに関する情報が含まれている。また、配筋図7は、鉄筋組立体1が有する主鉄筋の本数に関する情報も有する。なお、配筋図7が有する情報は、上述したものに限られず様々なものを含むことができる。
 生成部342は、配筋情報に基づく物体の正解モデル画像であって、特定した位置関係及び撮影角度に対応する正解モデル画像を生成する。具体的には生成部342は、配筋情報、及び特定部345から送信される位置関係及び撮影角度に基づいて、撮影画像に対応するような正解モデル画像Jであるコンピューターグラフィック画像を生成する。なお、生成部342が行うコンピューターグラフィック画像の生成は公知の技術が使用される。
 図7は、図6で示した配筋図7に基づいてコンピューターグラフィックで生成された正解モデル画像Jを概念的に示す図である。図7(A)は鉄筋組立体1に対して正対して撮影した場合の正解モデル画像Jであり、図7(B)は鉄筋組立体1に対して斜めに(一定の角度をもって)撮影された場合の正解モデル画像Jであり、図7(C)は鉄筋組立体1に対して斜めに(図7(B)よりもさらに角度をもって)撮影された場合の正解モデル画像Jである。なお正解モデル画像Jは、配筋図7又は配筋情報に基づいて生成される画像であり、撮影画像Iの鉄筋と有効に比較が行えれば、その態様は特に限定されない。図7で示した正解モデル画像Jは、3次元画像であるが2次元画像の正解モデル画像Jが生成されてもよい。
 図8及び図9は、コンピュータ300の表示部326(タッチパネルディスプレイ302)に重畳的に表示された撮影画像I及び正解モデル画像Jを概念的に示す図である。図9に示す場合では、コンピュータ300の表示部326に図8に示される正解モデル画像Jが撮影画像Iに重畳的に表示されている。
 図8に示すように、正解モデル画像Jは複数の主筋モデル画像16から構成されており、主筋モデル画像16は撮影画像Iの主筋2と重なるように表示される。このように、正解モデル画像Jと撮影画像Iとが重畳的に表示されることにより、ユーザは容易に配筋が配筋図どおりに施工されているかの検査を短時間で行うことができる。
 コンピュータ300の表示部326には、タッチパネルディスプレイ302を介して照合結果を受け付ける照合結果受付部337が示されている。照合結果受付部337は、撮影画像と正解モデル画像とが一致しているか否かを示す照合結果を受け付ける。すなわち照合結果受付部337には、ユーザが撮影画像と正解モデル画像との重畳表示を見て、撮影画像と正解モデル画像との照合を行いその結果が手動により入力される。撮影画像に写っている主筋2の径が正解モデル画像の主筋モデル画像16の幅とが一致している場合には、径は合格としてOKの結果をユーザは入力し、撮影画像に写っている主筋の本数と正解モデル画像の主筋モデル画像16の本数とが一致している場合には、本数は合格としてOKの結果をユーザは入力し、撮影画像に写っている主筋2と主筋2との間隔(ピッチ)が正解モデル画像での主筋モデル画像16と主筋モデル画像16との間隔と一致している場合には、ピッチは合格としてOKの結果をユーザは入力する。なお、図8に示された照合結果受付部337はユーザが手動によりタッチパネルディスプレイ302を介して入力する照合結果を受け付けているが、照合結果受付部337は自動照合部339から照合結果を受け付けてもよい。
 図4に戻って修正指示受付部341は、表示部326に表示された撮影画像及び正解モデル画像のうち少なくとも一方の修正指示を受け付ける。すなわち修正指示受付部341は、表示部326に表示された撮影画像と正解モデル画像とが重畳的に表示されるように、調整するための修正指示を受け付ける。なお修正指示は、例えば表示部326(タッチパネルディスプレイ302)を介して入力される。また、修正指示受付部341で受け付けられた修正指示に沿って画像処理部334により、撮影画像及び正解モデル画像の修正が行われる。
 図10は、タッチパネルディスプレイ302を介して入力される撮影画像及び/又は正解モデル画像の修正指示の例に関して説明する図である。図10(A)は、撮影画像又は正解モデル画像の移動の修正指示に関して説明する図である。このように、撮影画像又は正解モデル画像を例えばタッチパネルディスプレイ302上で指により移動させることにより、撮影画像と正解モデル画像とが重畳的に重なるように移動させて調整することができる。図10(B)は、撮影画像又は正解モデル画像の拡大又は縮小(大きさの変更)の修正指示に関して説明する図である。このように、撮影画像又は正解モデル画像を例えばタッチパネルディスプレイ302上で引き延ばすことにより、撮影画像又は正解モデル画像を拡大表示することができる。一方タッチパネルディスプレイ302上で撮影画像又正解モデル画像を縮めることにより、撮影画像又正解モデル画像を縮小することができる。図10(C)は、撮影画像又は正解モデル画像の角度の変更に関する修正指示に関して説明する図である。このように、撮影画像又正解モデル画像の角度をタッチパネルディスプレイ302で変更することにより、撮影画像又正解モデル画像の角度を調節することができる。
 図11は、コンピュータ300の表示部326(タッチパネルディスプレイ302)に表示された撮影画像I及び正解モデル画像Jを概念的に示す図である。ユーザは、正解モデル画像Jの一部である主筋モデル画像16を移動する修正や、主筋モデル画像16の角度を変更する修正を入力部328を介して入力し、修正指示受付部341が受け付けることにより、主筋モデル画像16を平行移動及び回転させることができる。これにより、撮影画像Iと正解モデル画像Jとの重畳表示を調整することができる。
 図12は、コンピュータ300の動作を示すフロー図である。先ず撮影画像取得部336によりカメラ200で撮影された検査対象である配筋の撮影画像が取得される(ステップS10)。その後、特定部345により撮影画像を撮影した際のカメラ200と配筋との位置関係、及び撮影画像を撮影した際の配筋に対するカメラ200の撮影角度が特定される(ステップS11)。次に、配筋情報取得部340により配筋図等の配筋情報が取得される(ステップS12)。そして、生成部342により配筋情報に基づいて、特定部345で特定された位置関係及び撮影角度に対応する正解モデル画像が生成される(ステップS13)。
 その後、生成部342で生成された正解モデル画像と撮影画像とが表示部326に重畳的に表示される(ステップS14)。そして、修正指示受付部341により撮影画像又は正解モデル画像の修正指示を受け付けて、撮影画像と正解モデル画像とが重畳的に表示されるように修正される(ステップS15)。例えばユーザは、カメラを移動させて撮影画像を移動させることにより、撮影画像の修正指示を行ってもよい。そして、ユーザは表示部326に表示された撮影画像と正解モデル画像とを照合して、照合結果受付部337に照合結果を入力する(ステップS16)。
 上述の各構成及び機能は、任意のハードウェア、ソフトウェア、或いは両者の組み合わせによって適宜実現可能である。例えば、上述の処理ステップ(処理手順)をコンピュータに実行させるプログラム、そのようなプログラムを記録したコンピュータ読み取り可能な記録媒体(非一時的記録媒体)、或いはそのようなプログラムをインストール可能なコンピュータに対しても本発明を適用することが可能である。
 次にカメラ200に関して説明をする。
 図13は、カメラ200の外観構成を示す正面斜視図である。図14は、カメラ200の外観構成を示す背面斜視図である。
 このカメラ200は、レーザー距離計234が組み込まれたレンズ一体型のデジタルカメラである。カメラ200は、撮影レンズを通した被写体の光学像をイメージセンサーで撮像し、デジタルデータとして記録する。レーザー距離計234は、距離計の一例であり、対象物にレーザー光を照射し、その反射光を利用して、カメラ200からレーザー光を照射した対象物上の一点までの距離を測定する。
 図13及び図14に示すように、カメラ200は、平たい箱状のカメラボディ202を有する。カメラボディ202の正面には、撮影レンズ204、ストロボ206、測距窓208等が備えられる。カメラボディ202の裏面には、モニター210、複数の操作ボタンからなる操作部212が備えられる。カメラボディ202の上面には、シャッターボタン214が備えられる。カメラボディ202の片側の側面には、外部接続端子216が備えられる。図示されていないが、カメラボディ202の底面には、三脚用ネジ穴及び開閉自在なバッテリーカバーが備えられる。バッテリーカバーの内側には、バッテリーを装着するためのバッテリー収納室、及び、メモリーカードを装着するためのメモリーカードスロット232Aが備えられる。
 撮影レンズ204は、焦点距離が固定された単焦点レンズで構成される。したがって、その焦点距離は既知である。撮影レンズ204は、複数のレンズを組み合わせて構成され、その一部を光軸に沿って移動させることにより、焦点調節が行われる。また、撮影レンズ204は絞りを備え、その絞りの開口量を調節することにより、通過する光の量が調節される。
 測距窓208は、レーザー距離計234の測距用のレーザー光を出射する窓である。測距用のレーザー光は、撮影レンズ204の光軸と平行に出射される。測距窓208から出射したレーザー光は、対象物で反射し、その反射光が測距窓208に入射して測定に供される。なお、距離測定用のレーザー光は、可視光域のレーザー光を使用することが好ましい。可視光域のレーザー光を使用することにより、測定箇所を目視で確認することが可能になる。
 モニター210は、カラーLCDで構成される。モニター210は、撮影済みの画像を再生表示する用途に利用される他、各種設定時にGUI(GUI: Graphical User Interface)として利用される。また、撮影時には、イメージセンサーで捉えた画像をリアルタイムに表示して、電子ファインダーとして利用される。
 操作部212を構成する複数の操作ボタンには、たとえば、電源ボタン、メニューボタン、モード切り替えボタン、十字ボタン、確定ボタン、キャンセルボタン、測距ボタン等が含まれる。電源ボタンは、カメラ200の電源をON/OFFするボタンである。メニューボタンは、モニター210にメニュー画面を呼び出すボタンである。モード切り替えボタンは、撮影モード、再生モード、測定モード等のカメラ200のモードを切り替えるボタンである。十字ボタンは、上下左右の4方向に操作が可能なボタンである。十字ボタンは、カメラ200の状態に応じて各方向に所定の機能が割り当てられる。たとえば、再生モード時は右方向に順送り、左方向に順戻しの機能が割り当てられる。また、各種設定時には各方向にカーソルを移動させる機能が割り当てられる。確定ボタンは、処理の確定を指示するボタンである。キャンセルボタンは、処理のキャンセルを指示するボタンである。測距ボタンは、レーザー距離計234による測距の実行を指示するボタンである。
 シャッターボタン214は、いわゆる「半押し」と「全押し」とからなる二段ストローク式のボタンで構成される。カメラ200は、このシャッターボタン214を半押しすると、撮影準備が行われ、全押しすると、記録用の撮影が実施される。
 外部接続端子216は、たとえば、USB端子で構成される。この外部接続端子216を介してケーブルでパーソナルコンピュータ等の外部機器と接続することにより、外部機器との間で相互に通信可能に接続される。
 図15は、カメラ200の電気的構成を示すブロック図である。
 同図に示すように、カメラ200は、レンズ駆動部220、イメージセンサー224、AFE(Analog Front End:アナログフロントエンド)226、無線LAN通信部228、USBインターフェース230、カードインターフェース232、レーザー距離計234、カメラ制御部240等を備えて構成される。
 レンズ駆動部220は、撮影レンズ204の一部を光軸に沿って移動させる。また、レンズ駆動部220は、撮影レンズ204に備えられた絞りを拡縮させる。
 イメージセンサー224は、たとえば、CCDイメージセンサー(CCD:Charge Coupled Device)やCMOSイメージセンサー(CMOS:Complementary Metal Oxide Semiconductor)などの二次元イメージセンサーで構成される。イメージセンサー224は、撮影レンズ204の光軸L上に配置される。撮影レンズ204を通した光は、このイメージセンサー224の受光面に入射する。イメージセンサー224のサイズ、画素数、画素サイズなどの情報は既知である。
 AFE226は、イメージセンサー224から出力される信号(画像信号)に対して、たとえば、ノイズ除去、信号増幅、A/D変換(A/D:Analog/Digital)などの信号処理を施して、デジタルの画像信号を生成する。
 無線LAN通信部228は、アンテナ228Aを介して、無線LANアクセスポイントや無線LAN通信が可能な外部機器との間で所定の通信規格(例えばIEEE802.11a/b/g/n規格(IEEE: The Institute of Electrical and Electronics Engineers, Inc.))に従った無線LAN通信を行う。
 USBインターフェース230は、USB端子である外部接続端子216を介してケーブルで接続された外部機器との間で所定の通信規格に従ったUSB通信を行う。
 カードインターフェース232は、メモリーカードスロット232Aに装着されたメモリーカード242に対してデータの読み書きを行う。
 レーザー距離計234は、レーザー光を照射し、その反射光を利用して、カメラ200からレーザー光を照射した対象物上の一点までの距離を測定する。なお、レーザー距離計の測定原理については、いくつかの方式(たとえば、三角測距方式、位相差測距方式等)が存在するが、いずれの方式を採用してもよい。たとえば、三角測距方式の場合は、対象物に照射されたレーザー光の反射光を受光素子で読み取り、三角測量の原理で距離を測定する。位相差測距方式の場合は、投影したレーザー光とその反射光の位相差を検出し、距離を測定する。また、レーザー距離計234の代わりに、視差の異なる複数の画像を撮影する複数の撮影部を有するカメラ(ステレオカメラ)、又は距離画像センサーを有し、光源から出射された測定光の飛翔時間に対応する距離情報を距離画像センサーから取得し、取得した距離情報に基づいて距離画像を生成する距離画像生成部を備えた距離画像カメラ(例えばTOF(Time of Flight)カメラ)を使用してもよい。
 カメラ制御部240は、カメラ200の全体の動作を制御し、かつ、所定の信号処理を実施する。カメラ制御部240は、CPU及びメモリを備えたマイクロコンピュータで構成される。カメラ制御部240は、所定のプログラムを実行することにより、画像信号処理部250、撮像制御部252、レンズ駆動制御部254、ストロボ発光制御部256、レーザー距離計制御部258、無線LAN通信制御部260、USB通信制御部262、記録制御部264、表示制御部266等として機能する。
 画像信号処理部250は、AFE226で生成されたデジタルの画像信号に対して所要の信号処理を施し、所定の画像データ(たとえば、輝度信号(Y)の画像データと色差信号(Cr、Cb)の画像データとからなる画像データ)を生成する。
 撮像制御部252は、イメージセンサー224による撮像を制御する。
 レンズ駆動制御部254は、撮影対象に焦点が合うように、レンズ駆動部220を介して、撮影レンズ204のフォーカスを制御する。また、適正露出で撮影されるように、レンズ駆動部220を介して、撮影レンズ204の絞りを制御する。
 ストロボ発光制御部256は、ストロボ撮影時に撮影に同期して所定の光量でストロボが発光するように、ストロボ206の発光を制御する。
 レーザー距離計制御部258は、レーザー距離計234による測定を制御する。
 無線LAN通信制御部260は、無線LAN通信部228を介して、無線LANによる通信を制御する。
 USB通信制御部262は、USBインターフェース230を介して、USBによる通信を制御する。
 記録制御部264は、カードインターフェース232を介して、メモリーカードスロット232Aに装着されたメモリーカード242に対するデータの読み書きを制御する。
 表示制御部266は、モニター210の表示を制御する。
 この他、カメラ制御部240は、撮影及びレーザー距離計234による距離の測定に必要な処理を実行する。
 なお、上述したカメラ200は本発明で使用されるカメラ200の一例であり、本発明で使用するカメラ200はこれに限定されない。配筋検査において必要な情報の取得が可能なカメラ(撮像装置)200であれば、本発明に適用が可能である。
 <第2の実施形態>
 次に第2の実施形態に関して説明する。第2の実施形態では、表示部326に表示された撮影画像と正解モデル画像との照合がヒント情報を取得した自動照合部339で照合される。
 図16は、コンピュータ(物体検査装置)300機能構成例を示すブロック図である。図16に示されたコンピュータ300は、主に、撮影画像取得部336、特定部345、撮影角度取得部350、撮影距離取得部333、配筋情報取得部(設計情報取得部)340、修正指示受付部341、表示部326、自動照合部339、及びヒント情報取得部338で構成されている。なお、図4で説明を行った箇所に関しては同じ符号を付して説明は省略する。
 自動照合部339は、修正後の撮影画像と正解モデル画像とが一致しているか否かの照合を自動で行う。そして自動照合部339は、照合結果を照合結果受付部337に送信する。自動照合部339は、様々な技術によって照合を行うことができる。例えば自動照合部は、正解モデル画像の配筋の属性と撮影画像から、公知の画像処理等の技術で読み取られる配筋の属性とが一致しているか否かの照合を行う。ここで属性とは、配筋の径、本数、又はピッチのことである。すなわち自動照合部339は、撮影画像から読み取れる配筋の径、本数、又はピッチと正解モデル画像における配筋の径、本数又はピッチとを検出して照合する。例えば自動照合部339は、CPU310又は画像処理部334で実現される。
 なお自動照合部339は、正解モデル画像における物体の属性及び撮影画像における物体の属性の認識をパターン認識により行う。例えば、属性の一つである配筋の本数を認識する場合には、パターン認識のうちのパターンマッチングにより鉄筋の検出を行う。なお、鉄筋のパターンマッチングによる検出に使用するデータ(鉄筋画像データ)は予め自動照合部339が有していても良いし、撮影画像に写っている鉄筋画像をユーザが範囲指定してパターンマッチングに使用してもよい。またパターン認識の別の具体例として機械学習により属性の認識を行ってもよい。ここで機械学習とは、例えば画像の中から鉄筋を検出する場合に、予め複数の鉄筋画像から反復的に学習し、そこに潜む特徴を記録したデータベースがあり、そのデータベースに記憶されている特徴が画像内に含まれるか否かに基づいて、鉄筋の検出を行い、画像内の鉄筋の本数、径、ピッチ等の情報も認識することである。なお、データベースに記憶される鉄筋画像の特徴が逐次更新されることにより、鉄筋の検出精度は向上する。また前述のデータベースは自動照合部339に設けられている。
 ヒント情報取得部338は、修正後の撮影画像と正解モデル画像とが一致しているか否かの照合に関するヒント情報を取得する。すなわちヒント情報取得部338は、表示部326に表示された撮影画像及び正解モデル画像とが一致しているか否かの照合に関して、その照合を補助するような情報を取得し、その取得した情報を自動照合部339に送信する。
 ヒント情報取得部338は、様々な情報をヒント情報として受け付けることができる。例えばヒント情報取得部338は、表示部326に表示された撮影画像と正解モデル画像との対応関係に関する情報を取得する。ここで撮影画像と正解モデル画像との対応関係に関する情報とは、例えば撮影画像における鉄筋と正解モデル画像との鉄筋との対応関係に関する情報であって、タッチパネルディスプレイ302でユーザがタッチすることにより入力される。また、ヒント情報取得部338は、自動照合部339が照合を行う範囲に関する情報、又は自動照合部339が照合を行わない範囲に関する情報を取得する。なおヒント情報取得部338はタッチパネルディスプレイ302を介して与えれたヒント情報を取得する。
 図17は、ヒント情報取得部338が取得するヒント情報の具体例に関して説明する図である。本例ではユーザがタッチパネルディスプレイ302を介して自動照合部339が照合を行う範囲を入力し、ヒント情報取得部338は自動照合部339が照合を行う範囲に関する情報を取得する。
 図17(A)は、図11と同様にコンピュータ300の表示部326(タッチパネルディスプレイ302)に表示された撮影画像I及び正解モデル画像Jを概念的に示す図である。コンピュータ300の表示画面において、ユーザは自動照合部339が行うテンプレートマッチングの範囲を指定し、その指定された範囲をヒント情報取得部338で受け付ける。そして自動照合部339はヒント情報取得部338で指定された範囲でテンプレートマッチングを行い、撮影画像Iと正解モデル画像Jとの合否の検査を行う。
 図17(B)は、ヒント情報取得部338で指定された照合を行う範囲に関して示す概念図である。このように、自動照合部339は一定の範囲内において照合を行えばよく、配筋検査としてはノイズとなる鉄筋以外のものが撮影画像Iに写り込むことを抑えることが可能となり、精度良く配筋検査を行うことができる。図17(B)では、撮影画像Iにおける主筋2と主筋モデル画像16とが重畳的に表示されている。
 なお上述で説明した例は、自動照合部339がヒント情報を利用して照合を行う場合に関して説明を行ったが、自動照合部339はヒント情報無しでも照合を行うことができる。
 <第3の実施形態>
 次に第3の実施形態に関して説明する。第3の実施形態では、表示部326に表示された撮影画像と正解モデル画像との照合が自動照合部339で照合される。なお、第3の実施形態では、撮影画像と正解モデル画像との重畳的な表示に関する修正は行われない。
 図18は、コンピュータ(物体検査装置)300の機能構成例を示すブロック図である。図18に示されたコンピュータ300は、主に、撮影画像取得部336、特定部345、撮影角度取得部350、撮影距離取得部333、配筋情報取得部(設計情報取得部)340、及び自動照合部339で構成されている。なお、図4及び図16で説明を行った箇所に関しては同じ符号を付して説明は省略する。
 自動照合部339は、撮影画像と正解モデル画像とが一致しているか否かの照合を行う。なお、本例の自動照合部339は、ヒント情報を取得せずに撮影画像と正解モデル画像とが一致しているか否かの照合を行う。また、本例のコンピュータ300では、撮影画像又は正解モデル画像の修正を行うことなく、撮影画像と正解モデル画像とが一致しているか否かの照合が行われる。撮影画像と正解モデル画像との重畳的な表示がずれることなく表示されるのであれば、重畳的な表示に関する修正指示は必要ない。また、ヒント情報を取得しなくても自動照合部339の照合が精度良く短時間に行われるのであれば、必ずしもヒント情報を取得する必要はない。
 図19は、本例のコンピュータ(配筋検査装置)300の動作を示すフロー図である。先ず撮影画像取得部336によりカメラ200により撮影された検査対象である配筋の撮影画像が取得される(ステップS20)。その後、特定部345により撮影画像を撮影した際のカメラ200と配筋との位置関係、及び撮影画像を撮影した際の配筋に対するカメラ200の撮影角度が特定される(ステップS21)。次に、配筋情報取得部340により配筋図等の設計情報(配筋情報)が取得される(ステップS22)。そして、生成部342により設計情報に基づいて、特定部345で特定された位置関係及び撮影角度に対応する正解モデル画像が生成される(ステップS23)。そして、自動照合部339により撮影画像と正解モデル画像とが照合される(ステップS24)。なお、本例の場合には、表示部326に表示された撮影画像及び/又は正解モデル画像との修正指示を受け付けないので、表示部326に撮影画像及び正解モデル画像とを表示させる必要はない。
 <第4の実施形態>
 次に本発明の第4の実施形態に関して説明する。本例では配筋検査をシステムにおいて実現している。
 図20は、配筋検査システムの一例を示すシステム構成図である。
 この配筋検査システム400は、レーザー距離計を備えたカメラ200、タブレット型のコンピュータ300、及び、管理サーバー500で構成される。
 管理サーバー500は、通信機能を備えた汎用のコンピュータ300で構成され、タブレット型のコンピュータ300とネットワーク600を介して通信可能に接続される。管理サーバー500には、表示手段としてのディスプレイ、記憶手段としてのハードディスクドライブ、入力手段としてのマウス及びキーボードが備えられる。管理サーバー500を構成するコンピュータ300は、所定の管理プログラムを実行することにより、配筋検査に必要な情報を提供及び管理する機能を実現する。
 管理サーバー500のハードディスクドライブには、管理データベースが格納される。管理データベースには、配筋図等の配筋検査に必要な情報が検査対象ごとに格納される。また、その検査結果が、検査対象に関連付けられて格納される。
 コンピュータ300は、検査対象とする鉄筋の配筋検査に必要な情報を配筋情報として、管理サーバー500から取得する。配筋情報には、少なくとも検査対象とする鉄筋の径及び配置の情報が含まれる。
 コンピュータ300は、所定の配筋検査プログラムを実行することにより、配筋検査部として機能する。
 <測定基準部材の変形例>
 次に測定基準部材の変形例に関して説明する。測定基準部材として平行四辺形、正多角形又は真円の外形を有する板状体を使用することができる。
 図21(A)~(C)は、板状体で構成される測定基準部材の一例を示す図である。
 図21(A)は、平行四辺形の平板を測定基準部材として使用した場合の一例を示す正面図である。同図に示すように、平行四辺形の平板を測定基準部材として使用した場合、その輪郭を成す平行四辺形が測定基準を構成する。
 図21(B)は、正多角形の平板を測定基準部材として使用した場合の一例を示す正面図である。特に、同図においては、正六角形の平板を測定基準部材に使用した場合を例示している。同図に示すように、正多角形の平板を測定基準部材として使用した場合、その輪郭を成す正多角形が測定基準を構成する。
 図21(C)は、真円の円板を測定基準部材として使用した場合の一例を示す正面図である。同図に示すように、真円の円板を測定基準部材として使用した場合、その輪郭を成す真円が測定基準を構成する。
 このように、平行四辺形、正多角形又は真円の外形を有する板状体は、所定の測定基準を有する測定基準部材として使用できる。白板及び黒板は、このような板状体の一例である。
 また測定基準を有する測定基準部材として平行四辺形、正多角形又は真円の端面を有する立体を使用することできる。直方体状のブロックは、このような立体の一例である。なお、このような立体を測定基準部材に使用した場合、必要に応じて距離計の測定結果を補正する必要がある。
 <測定対象である物体の他の例>
 図22は、測定対象の他の実施形態である配管及び測定基準部材の白板を示す斜視図である。
 即ち、測定対象である物体は、上記実施形態で説明した配筋に限らず、図22に示すようにプラント等に敷設される配管4や配線でもよく、要は円柱状又は円筒状の物体であれば、如何なる物体でもよい。但し、測定対象である複数の物体(図22の例では、複数のパイプ)は、同一面上に配置されている必要がある。そして、測定基準部材(図22の例では、白板100)は、複数の物体に沿って配置される。
 以上で本発明の例に関して説明してきたが、本発明は上述した実施形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。
 1…鉄筋組立体、100…白板、200…カメラ、300…コンピュータ、326…表示部、336…撮影画像取得部、337…照合結果受付部、340…配筋情報取得部、341…修正指示受付部、342…生成部、345…特定部

Claims (24)

  1.  カメラにより撮影された検査対象である物体の撮影画像を取得する撮影画像取得部と、
     前記撮影画像の撮影時の前記カメラと前記物体との位置関係及び前記物体に対する前記カメラの撮影角度を特定する特定部と、
     前記物体の設計情報を取得する設計情報取得部と、
     前記設計情報に基づく前記物体の正解モデル画像であって、前記特定した前記位置関係及び前記撮影角度に対応する正解モデル画像を生成する生成部と、
     前記撮影画像と前記正解モデル画像とを重畳表示させる表示部と、
     前記表示部に表示された前記撮影画像及び前記正解モデル画像のうち少なくとも一方の修正指示を受け付ける修正指示受付部と、
     前記修正指示により修正された後の前記撮影画像と前記正解モデル画像とが一致しているか否かを示す照合結果を受け付ける照合結果受付部と、
     を備える物体検査装置。
  2.  前記物体は、配筋、配管、又は配線である請求項1に記載の物体検査装置。
  3.  前記撮影画像取得部は、寸法及び形状が既知の測定基準部材を含む前記撮影画像を取得し、
     前記特定部は、前記撮影画像における前記測定基準部材の寸法及び形状に基づいて前記位置関係及び前記撮影角度を特定する請求項1又は2に記載の物体検査装置。
  4.  前記カメラと前記物体との距離を取得する撮影距離取得部、を備え、
     前記撮影画像取得部は、形状が既知の測定基準部材を含む前記撮影画像を取得し、
     前記特定部は、前記撮影距離取得部で取得された距離及び前記測定基準部材の形状に基づいて前記位置関係及び前記撮影角度を特定する請求項1又は2に記載の物体検査装置。
  5.  前記撮影距離取得部は、レーザー距離計、視差の異なる複数の画像を撮影する複数の撮影部を有するカメラ、又は距離画像センサーを有し、光源から出射された測定光の飛翔時間に対応する距離情報を前記距離画像センサーから取得し、前記取得した距離情報に基づいて距離画像を生成する距離画像生成部を備えた距離画像カメラで計測された距離を取得する請求項4に記載の物体検査装置。
  6.  前記設計情報取得部は、前記物体の2次元設計図を取得し、
     前記生成部は、前記2次元設計図から前記正解モデル画像を生成する請求項1から5のいずれか1項に記載の物体検査装置。
  7.  前記設計情報取得部は、前記物体の3次元設計図を取得し、
     前記生成部は、前記3次元設計図から前記正解モデル画像を生成する請求項1から5のいずれか1項に記載の物体検査装置。
  8.  前記3次元設計図は、ビルディングインフォメーションモデルである請求項7に記載の物体検査装置。
  9.  前記表示部は、前記修正指示受付部が設けられ、
     前記修正指示受付部は、前記表示部に重畳表示された前記正解モデル画像が操作されることにより、前記修正指示を受け付ける請求項1から8のいずれか1項に記載の物体検査装置。
  10.  前記照合結果受付部は、手動により入力される照合結果を受け付ける請求項1から9のいずれか1項に記載の物体検査装置。
  11.  前記修正後の前記撮影画像と前記正解モデル画像とが一致しているか否かの照合を自動で行う自動照合部を備え、
     前記照合結果受付部は、前記自動照合部での照合結果を受け付ける請求項1から9のいずれか1項に記載の物体検査装置。
  12.  前記自動照合部は、前記物体の属性と前記撮影画像から読み取れる前記物体の属性とが一致しているか否かの照合を行う請求項11に記載の物体検査装置。
  13.  前記属性とは、前記物体の径、本数、及びピッチのうち少なくとも一つを含む請求項12に記載の物体検査装置。
  14.  前記自動照合部は、前記属性の認識をパターン認識により行う請求項12又は13に記載の物体検査装置。
  15.  前記パターン認識は、パターンマッチングである請求項14に記載の物体検査装置。
  16.  前記パターン認識は、機械学習である請求項14に記載の物体検査装置。
  17.  前記修正後の前記撮影画像と前記正解モデル画像とが一致しているか否かの照合に関するヒント情報を取得するヒント情報取得部を備え、
     前記自動照合部は、前記ヒント情報に基づいて、前記修正後の撮影画像と前記正解モデル画像とが一致しているか否かの照合を行う請求項11から16のいずれか1項に記載の物体検査装置。
  18.  前記ヒント情報取得部は、前記表示部に表示された前記撮影画像と前記正解モデル画像との対応関係に関する情報を取得する請求項17に記載の物体検査装置。
  19.  前記ヒント情報取得部は、前記照合を行う範囲に関する情報を取得する請求項17に記載の物体検査装置。
  20.  前記ヒント情報取得部は、前記照合を行わない範囲に関する情報を取得する請求項17に記載の物体検査装置。
  21.  カメラにより撮影された検査対象である物体の撮影画像を取得する撮影画像取得部と、
     前記撮影画像の撮影時の前記カメラと前記物体との位置関係及び前記物体に対する前記カメラの撮影角度を特定する特定部と、
     前記物体の設計情報を取得する設計情報取得部と、
     前記設計情報に基づく前記物体の正解モデル画像であって、前記特定した前記位置関係及び前記撮影角度に対応する正解モデル画像を生成する生成部と、
     前記撮影画像と前記正解モデル画像とが一致しているか否かの照合を行う自動照合部と、
     を備える物体検査装置。
  22.  カメラにより撮影された検査対象である物体の撮影画像を取得するステップと、
     前記撮影画像の撮影時の前記カメラと前記物体との位置関係及び前記物体に対する前記カメラの撮影角度を特定するステップと、
     前記物体の設計情報を取得するステップと、
     前記設計情報に基づく前記物体の正解モデル画像であって、前記特定した前記位置関係及び前記撮影角度に対応する正解モデル画像を生成するステップと、
     前記撮影画像と前記正解モデル画像とを重畳表示させるステップと、
     前記重畳表示させるステップで表示された前記撮影画像及び前記正解モデル画像のうち少なくとも一方の修正指示を受け付けるステップと、
     前記修正指示により修正された後の前記撮影画像と前記正解モデル画像とが一致しているか否かを示す照合結果を受け付けるステップと、
     を含む物体検査方法。
  23.  前記修正指示を受け付けるステップは、前記カメラを移動させて出力される前記撮影画像の修正指示を受け付ける請求項22に記載の物体検査方法。
  24.  カメラにより撮影された検査対象である物体の撮影画像を取得するステップと、
     前記撮影画像の撮影時の前記カメラと前記物体との位置関係及び前記物体に対する前記カメラの撮影角度を特定するステップと、
     前記物体の設計情報を取得するステップと、
     前記設計情報に基づく前記物体の正解モデル画像であって、前記特定した前記位置関係及び前記撮影角度に対応する正解モデル画像を生成するステップと、
     前記撮影画像と前記正解モデル画像とが一致しているか否かの照合を行うステップと、
     を含む物体検査方法。
PCT/JP2016/083124 2015-12-02 2016-11-08 物体検査装置及び物体検査方法 WO2017094456A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-235801 2015-12-02
JP2015235801 2015-12-02

Publications (1)

Publication Number Publication Date
WO2017094456A1 true WO2017094456A1 (ja) 2017-06-08

Family

ID=58797143

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/083124 WO2017094456A1 (ja) 2015-12-02 2016-11-08 物体検査装置及び物体検査方法

Country Status (1)

Country Link
WO (1) WO2017094456A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020026663A (ja) * 2018-08-10 2020-02-20 オリンパス株式会社 配筋検査装置
JP2020027058A (ja) * 2018-08-14 2020-02-20 前田建設工業株式会社 配筋出来形管理システム及び配筋出来形管理方法
JP2020166660A (ja) * 2019-03-29 2020-10-08 鹿島建設株式会社 配筋計測システム、配筋計測方法およびプログラム
JP2021001468A (ja) * 2019-06-21 2021-01-07 東急建設株式会社 配筋検査システム及びマーカ
CN114040116A (zh) * 2021-11-30 2022-02-11 安徽精研塑胶制品有限公司 塑胶模材良品监测反馈系统
JP2022068229A (ja) * 2017-12-27 2022-05-09 株式会社竹中工務店 構造情報表示装置、構造設計支援装置、及び構造設計支援モデル学習装置
JP7283849B1 (ja) 2022-10-18 2023-05-30 コムシス情報システム株式会社 配筋検査システムおよび配筋検査方法。
JP7438220B2 (ja) 2019-08-08 2024-02-26 鹿島建設株式会社 鉄筋判定装置および鉄筋判定方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05296723A (ja) * 1992-04-21 1993-11-09 Shimizu Corp Pc版の配筋検査方法およびシステム
JPH0888825A (ja) * 1994-09-20 1996-04-02 Ohbayashi Corp 工事映像の編集方法
JP2002073730A (ja) * 2000-09-05 2002-03-12 Jutaku Shizai Ryutsu Center:Kk 建築物の施工状況確認方法
JP2010108384A (ja) * 2008-10-31 2010-05-13 Takenaka Komuten Co Ltd 施工検証装置
JP2010266202A (ja) * 2009-04-13 2010-11-25 Itt:Kk 写真計測用画像処理装置、それを用いた現場記録システム、荷物記録システム並びにレーザ加工システム
JP2012021323A (ja) * 2010-07-14 2012-02-02 Takenaka Komuten Co Ltd 検査支援システムおよびプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05296723A (ja) * 1992-04-21 1993-11-09 Shimizu Corp Pc版の配筋検査方法およびシステム
JPH0888825A (ja) * 1994-09-20 1996-04-02 Ohbayashi Corp 工事映像の編集方法
JP2002073730A (ja) * 2000-09-05 2002-03-12 Jutaku Shizai Ryutsu Center:Kk 建築物の施工状況確認方法
JP2010108384A (ja) * 2008-10-31 2010-05-13 Takenaka Komuten Co Ltd 施工検証装置
JP2010266202A (ja) * 2009-04-13 2010-11-25 Itt:Kk 写真計測用画像処理装置、それを用いた現場記録システム、荷物記録システム並びにレーザ加工システム
JP2012021323A (ja) * 2010-07-14 2012-02-02 Takenaka Komuten Co Ltd 検査支援システムおよびプログラム

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022068229A (ja) * 2017-12-27 2022-05-09 株式会社竹中工務店 構造情報表示装置、構造設計支援装置、及び構造設計支援モデル学習装置
JP7442059B2 (ja) 2017-12-27 2024-03-04 株式会社竹中工務店 構造情報表示装置、構造設計支援装置、及び構造設計支援モデル学習装置
JP7364842B2 (ja) 2017-12-27 2023-10-19 株式会社竹中工務店 構造情報表示装置、構造設計支援装置、及び構造設計支援モデル学習装置
JP7058788B2 (ja) 2018-08-10 2022-04-22 鹿島建設株式会社 配筋検査装置、及び配筋検査方法
JP2021127682A (ja) * 2018-08-10 2021-09-02 鹿島建設株式会社 配筋検査装置、及び配筋検査方法
JP2020026663A (ja) * 2018-08-10 2020-02-20 オリンパス株式会社 配筋検査装置
JP2020027058A (ja) * 2018-08-14 2020-02-20 前田建設工業株式会社 配筋出来形管理システム及び配筋出来形管理方法
JP2020166660A (ja) * 2019-03-29 2020-10-08 鹿島建設株式会社 配筋計測システム、配筋計測方法およびプログラム
JP2021001468A (ja) * 2019-06-21 2021-01-07 東急建設株式会社 配筋検査システム及びマーカ
JP7438220B2 (ja) 2019-08-08 2024-02-26 鹿島建設株式会社 鉄筋判定装置および鉄筋判定方法
CN114040116A (zh) * 2021-11-30 2022-02-11 安徽精研塑胶制品有限公司 塑胶模材良品监测反馈系统
JP7283849B1 (ja) 2022-10-18 2023-05-30 コムシス情報システム株式会社 配筋検査システムおよび配筋検査方法。
JP2024059225A (ja) * 2022-10-18 2024-05-01 コムシス情報システム株式会社 配筋検査システムおよび配筋検査方法。

Similar Documents

Publication Publication Date Title
WO2017094456A1 (ja) 物体検査装置及び物体検査方法
US10578426B2 (en) Object measurement apparatus and object measurement method
US20150116691A1 (en) Indoor surveying apparatus and method
US11783580B2 (en) Input apparatus, input method of input apparatus, and output apparatus
KR102186597B1 (ko) 타겟 크기 측정 시스템 및 그 방법
JP6456783B2 (ja) 配筋測定装置
JP2010219825A (ja) 三次元計測用画像撮影装置
JP5334237B2 (ja) 埋金設置位置照合方法および埋金設置位置照合システム
CN113052919A (zh) 一种视觉传感器的标定方法及装置、电子设备和存储介质
JP2001148025A (ja) 位置検出装置及びその方法、平面姿勢検出装置及びその方法
JP2017151026A (ja) 三次元情報取得装置、三次元情報取得方法、及びプログラム
JP2012093825A (ja) 圃場管理支援装置、圃場管理支援プログラムおよび圃場管理支援方法
JP2001317915A (ja) 3次元計測装置
CN116993835A (zh) 相机标定方法及相机标定装置、电子设备、存储介质
CN110651465B (zh) 拍摄辅助装置和拍摄辅助方法
JP6722000B2 (ja) 測量支援装置
JP2007010419A (ja) 対象物の3次元形状検証システム。
JP2010048581A (ja) 埋金設置位置照合方法および埋金設置位置照合システム
KR102458559B1 (ko) 휴대용 단말기를 이용한 건설 분야 시공 관리 시스템 및 방법
TW201833510A (zh) 物體尺寸計算系統
JP6581280B1 (ja) 監視装置、監視システム、監視方法、監視プログラム
JP2005004789A5 (ja)
JP2016224015A (ja) 三次元位置計測方法、測量方法、三次元位置計測装置及び三次元位置計測プログラム
JP2020135450A (ja) 橋梁などの構造物を効率的に検査するための画像処理システム、画像処理方法及びプログラム
JP2009199247A (ja) 対象物認識装置、指示装置およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16870396

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16870396

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP