WO2020110766A1 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
WO2020110766A1
WO2020110766A1 PCT/JP2019/044804 JP2019044804W WO2020110766A1 WO 2020110766 A1 WO2020110766 A1 WO 2020110766A1 JP 2019044804 W JP2019044804 W JP 2019044804W WO 2020110766 A1 WO2020110766 A1 WO 2020110766A1
Authority
WO
WIPO (PCT)
Prior art keywords
detection
adjustment
image
cost
information processing
Prior art date
Application number
PCT/JP2019/044804
Other languages
English (en)
French (fr)
Inventor
敦史 野上
Original Assignee
キヤノン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by キヤノン株式会社 filed Critical キヤノン株式会社
Publication of WO2020110766A1 publication Critical patent/WO2020110766A1/ja
Priority to US17/326,179 priority Critical patent/US20210271913A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/30Measuring arrangements characterised by the use of optical techniques for measuring roughness or irregularity of surfaces
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/285Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/40Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/08Construction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30132Masonry; Concrete
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Definitions

  • the present invention relates to a technique for detecting a deformation from an image of a structure.
  • Patent Document 1 discloses a technique for adjusting a detection model of the detection process in response to a change in a product lot or environment in the detection process for detecting an abnormality for inspection of a production process. In this technique, the detection result is evaluated, the detection model is updated based on the evaluation result, and the detection process is performed again.
  • a detection result that is insufficient for the required detection accuracy may be obtained.
  • the present invention has been made in view of such problems, and an object thereof is to provide a mechanism for obtaining an appropriate detection result while suppressing costs.
  • the present invention is an information processing apparatus, and based on a detection unit that detects a detection target from an image of a processing target by a detection process capable of adjusting at least one setting, and a detection result by the detection unit, Correction cost estimation means for estimating a correction cost required when correcting the detection result, and adjustment cost estimation means for estimating an adjustment cost required when adjusting the setting of the detection processing according to the detection target. And display control means for controlling the correction cost and the adjustment cost to be displayed on the display means in a comparable manner.
  • (First embodiment) 1st Embodiment demonstrates the information processing apparatus which performs the detection process which detects an object based on the image image
  • the inspector records the deformation of the concrete wall surface.
  • the deformation of the concrete wall surface includes, for example, cracks, efflorescence, junkers, cold joints, and exposed reinforcing bars.
  • the inspector photographs the wall surface of the structure, and records the position and range of the deformation from the photographed image to create the inspection result. Finding and recording all the abnormalities in an image is a difficult task. Therefore, it is preferable that the deformation is automatically detected from the image by the detection processing by the machine.
  • the detection results generally include detection omissions and detection errors, and it is necessary to correct the detection omissions and detection errors in order to create correct inspection results.
  • work time for the correction is generated. It is preferred that such modification costs be as low as possible.
  • the accuracy of the detection result will be improved by adjusting the detection process according to the target structure.
  • the image of the wall surface of the structure has various variations depending on the type of the wall surface, shooting conditions, and the like. Therefore, it is difficult to obtain a good detection result for all images with a specific detection process setting.
  • adjusting the detection process also requires adjustment costs such as time and charges. Specifically, if the detection processing is performed using machine learning, learning time and a computer resource usage charge are required to relearn the detection model suitable for the detection target image.
  • the information processing apparatus calculates the correction cost and the adjustment cost based on the detection result and the like and presents them to the user in a comparable state.
  • a result which one is preferable is adopted, which is to adopt the detection result and then modify and use it by the user operation, or to adjust the detection process and perform the detection process again to create a new detection result. It can be judged by the user.
  • the deformation of the detection target from the image will be described as a crack, but the detection target may be any object that can be identified from the image, and is not limited to the crack.
  • SaaS Software as a Service
  • the user requests the service to detect cracks in the detection target image and receives the detection result.
  • the user confirms the detection result and determines whether to correct the detection result to create a final inspection result or to adjust the detection process and request the detection process again.
  • SaaS of the present embodiment is assumed to be a service in which a usage charge is generated according to usage contents such as execution of detection processing and adjustment of detection processing.
  • the information processing apparatus of this embodiment has such a service function.
  • FIG. 1 is a hardware configuration diagram of the information processing apparatus 100 according to the first embodiment.
  • the information processing apparatus 100 includes a CPU 101, a ROM 102, a RAM 103, an HDD 104, a display unit 105, an input unit 106, and a communication unit 107.
  • the CPU 101 reads the control program stored in the ROM 102 and executes various processes.
  • the RAM 103 is used as a main memory of the CPU 101 and a temporary storage area such as a work area.
  • the HDD 104 stores various data and various programs.
  • the display unit 105 displays various information.
  • the input unit 106 has a keyboard and a mouse and receives various operations by the user.
  • the communication unit 107 performs communication processing with an external device such as an image forming device via a network.
  • the functions and processing of the information processing apparatus 100 described later are realized by the CPU 101 reading a program stored in the ROM 102 or the HDD 104 and executing the program. Further, as another example, the CPU 101 may read a program stored in a recording medium such as an SD card in place of the ROM 102 and the like.
  • At least a part of the functions and processes of the information processing apparatus 100 may be realized by cooperating a plurality of CPUs, RAMs, ROMs, and storages. Further, as another example, at least a part of the functions and processes of the information processing apparatus 100 may be realized by using a hardware circuit.
  • FIG. 2 is a functional configuration diagram of the information processing device 100.
  • the information processing apparatus 100 includes a model storage unit 201, a detection unit 202, a defective portion setting unit 203, a cost calculation unit 204 (correction cost estimation unit 208, adjustment cost estimation unit 209), a model learning unit 205, and an adjustment. It has a method setting unit 206 and a display control unit 207.
  • the model storage unit 201 stores a detection model for detecting a crack, which is learned from an existing crack image.
  • the detection unit 202 performs detection processing of a detection target (crack) based on the detection model.
  • the detection model, the set value, and the like of the detection process executed by the detection unit 202 can be adjusted according to the user operation.
  • the defective part setting unit 203 sets a defective part in the target image.
  • the defective portion is an area where a correct detection result cannot be obtained.
  • the cost calculation unit 204 of this embodiment includes a correction cost estimation unit 208 that obtains an estimated value of the correction cost and an adjustment cost estimation unit 209 that obtains an estimated value of the adjustment cost.
  • the correction cost is a cost required when the detection result is corrected according to a user operation.
  • the adjustment cost is a cost required for adjustment when adjusting the setting of the detection processing by the detection unit 202 in order to improve the detection result.
  • the cost calculation process will be described in detail later.
  • the model learning unit 205 learns a detection model.
  • the adjustment method setting unit 206 sets an adjustment method for detection processing according to a user operation.
  • the display control unit 207 controls the display on the display unit 105.
  • FIG. 3 is a flowchart showing cost display processing by the information processing apparatus 100.
  • the detection unit 202 of the information processing device 100 acquires an image to be processed and performs a detection process on the acquired image.
  • the image to be processed will be referred to as a detection target image.
  • the detection unit 202 detects machine cracks using machine learning.
  • learning is performed using an image including a crack and teacher data indicating a crack position.
  • any method may be used. For example, it is possible to determine whether each pixel is cracked or not by a method of creating a feature amount for each pixel of the image and identifying this feature amount with a discriminator. Any method may be used for these feature quantities and classifiers, but for example, methods such as HOG feature quantity, SVM, and CNN can be used.
  • weights of discriminators such as SVM and CNN in advance using existing crack images and teacher data.
  • weights of the discriminator are called and used.
  • the result of learning such as the weight of the discriminator that has been learned in advance for the detection processing of machine learning is a detection model, and the model storage unit 201 stores a detection model for detecting cracks that has been learned with existing crack images. It is stored.
  • FIG. 4 is a flowchart showing detailed processing in the detection processing (S301).
  • the detection unit 202 first calls the detection model from the model storage unit 201 to execute the detection process. Then, the detection unit 202 acquires the detection target image.
  • the detection unit 202 performs preprocessing on the detection target image. The pre-processing is processing for converting and processing the detection target image in order to facilitate detection of cracks such as removal of image noise and adjustment of brightness.
  • the detection unit 202 performs identification processing on the detection target image using the detection model. In the present embodiment, the detection unit 202 uses the discriminator to discriminate whether or not each pixel of the detection target image is a crack in the discrimination processing.
  • the detection unit 202 further obtains a score indicating the likelihood of cracking for each pixel of the detection target image.
  • data in which this score is stored in each pixel is referred to as a score map.
  • the detection unit 202 executes post-processing. Specifically, the detection unit 202 determines pixels to be cracked by performing threshold processing on the score map. Note that the post-processing includes processing for performing noise removal processing on the score map and the result after threshold processing, and processing for finely specifying the crack position by performing thinning processing on the score map. Good. Further, the post-processing may include processing for shaping the position and shape of the crack detection result.
  • the display control unit 207 controls to display the detection result on the display unit 105.
  • the information processing apparatus 100 of the present embodiment detects a crack in the detection target image by using the detection model learned from the existing crack image.
  • this detection model is not always suitable for detecting the detection target image.
  • the image conditions of the learning image and the detection target image are similar, but the image conditions of the learning image and the detection target image may deviate from each other. ..
  • the images used for learning the detection model include images of the walls of various structures that were captured in the past, but the appearance of the walls of the structures has various states, so the newly provided detection target image Does not necessarily look like the learning image.
  • the detection result of the detection target image is a result with insufficient accuracy.
  • the detection model is preferable to adjust to a state suitable for the detection target image and perform the detection process again.
  • a method of adjusting the detection model for example, there is a method of re-learning the detection model. By inputting the teacher data to a part of the detection target image and learning the detection model using this part of the image, it is possible to learn the detection model suitable for the detection target image. It is also possible to adjust the detection model for the detection target image by preparing a plurality of detection models in advance and selecting the detection model suitable for the detection target image. Specifically, a plurality of different detection models are learned in advance using various combinations of learning image sets and learning parameters, and these are stored in the model storage unit 201. Then, as a result of performing the detection process with a certain detection model, when the detection result is insufficient, another detection model is selected and the detection process is performed again.
  • the detection processing includes preprocessing (S402), identification processing (S403) and postprocessing (S404), and various parameters exist in each processing. ..
  • it is a parameter for adjusting the strength of noise removal in preprocessing or a threshold parameter for score map threshold processing in postprocessing.
  • These parameters are normally subjected to detection processing with general settings.
  • it is possible to obtain a preferable detection result by adjusting according to the detection target image. For example, when there are many false detections of the crack detection result, it is possible to obtain a preferable detection result by adjusting the parameter in the direction of strengthening the noise removal of the detection result.
  • the information processing apparatus 100 presents information for the user to determine whether to adjust the detection process when the detection result is insufficient.
  • the determination that the detection result is insufficient will be described, and then the information presentation will be described.
  • FIG. 5 is a diagram showing a GUI application window 500 displayed on the display unit 105 after the detection processing.
  • FIG. 5 shows that the detection target image and the crack detection result are displayed in the image display area 501 of the window 500.
  • the detection target image shown in FIG. 5 is the wall surface of the bridge, and is the image data in which the wall surface images of the floor slab 511 and the bridge piers 512 and 513 of the bridge are pasted on the plan view.
  • FIG. 5 shows a state in which the crack detection result 521 of the above-described detection processing is displayed as a detection result image by being superimposed on the detection target image.
  • an area in which the detection result is insufficient is indicated by a dotted rectangle 522 as a defective portion.
  • the defective portion 422 is set by the defective portion setting unit 203.
  • the defective part setting unit 203 sets a defective part.
  • a method of setting the defective portion 422 will be described.
  • the user designates an area where the detection result is insufficient via the input unit 106.
  • the user confirms the detection result displayed in the image display area 501, and sets an area where there is a false detection or an undetected area as a defective portion. Therefore, the information processing apparatus 100 is assumed to have a function of designating a partial area of the image display area 501 in a rectangular shape or a free shape.
  • the information processing apparatus 100 is assumed to have a function of enlarging/reducing display of the detection target image and a function of switching display/non-display of the detection result in order to confirm the detection result. Then, the defective portion setting unit 203 sets the defective portion according to the user operation.
  • the defective part setting unit 203 may set the defective part based on the result of the detection process.
  • three types of methods for setting a defective portion in crack detection will be described.
  • a first method of setting a defective portion a process of evaluating a detection result and determining a defective portion will be described.
  • a specific determination method a method in which a region having many short detection results is regarded as a defective portion will be described.
  • FIG. 6 shows a crack detection result of the detection target image 600. Cracks generally have some length, so good detection results appear as continuous lines.
  • the crack detection result 601 in FIG. 6 is an example of a good detection result.
  • the crack detection result may be obtained as a discontinuous interrupted result.
  • the detection results 602 and 603 in FIG. 6 originally, a crack that should be obtained as one continuous crack detection result is detected as a discontinuous detection result.
  • the reason why such a discontinuous detection result is obtained is that, for example, the detection model is not suitable for the image of this cracked portion, and the score of the cracked portion is not calculated high.
  • the crack score for each pixel is thresholded in the post-processing, but if the detection model is not suitable, the pixels with a low crack score for the detection target will be below the threshold and will not remain as the final detection result. .. As a result, the cracks in the detection result become discontinuous. In order to improve this, it is necessary to take measures such as re-learning a detection model suitable for the image portion and adjusting the threshold value of post-processing.
  • the defective part setting unit 203 specifies the region of the discontinuous detection result as described above, and sets the range including the region as the defective part 610. Note that the defective portion 610 in FIG. 6 is shown in a rectangular range, but the setting shape of the defective portion is not limited to this, and may be an irregular shape range according to the discontinuous detection result.
  • the defective part setting unit 203 may total the number of short detection results for each local region of the detection result and set a local region including a short detection result of a predetermined value or more as a defective part.
  • the defective portion setting unit 203 may connect a local area in the vicinity of a local area determined to include a short detection result and set a range having a certain extent as a defective portion.
  • the second method is a method of setting a defective portion using a score map which is intermediate information of the detection process.
  • the score map is a map that stores a score as a result of identifying each pixel of the detection target image in a certain crack detection model.
  • a preferable score map is data in which a high score is recorded only in the cracked portion.
  • the crack detection discriminator is likely to react to the edges in the image, and in reality, a relatively high score is recorded even at edge portions other than the cracks (for example, joints of concrete wall surfaces). It is common that the image to be detected includes edges other than cracks such as concrete joints.
  • the score map is a map with a strength in which scores are stored in the image edge portion. It should be noted that when the score of the edge portion other than the crack exceeds the threshold value of the post-processing, an erroneous detection result of the crack occurs, but in a truly preferable score map, the score of the edge portion other than the crack falls within the threshold value or less.
  • the defective part setting unit 203 evaluates the flatness of the score of the score map for each local region of the score map, and detects the partial region that outputs the score map flatter than a predetermined reference. It may be set as a defective part of.
  • the distribution of scores in the local area may be aggregated and judged from the distribution state.
  • the defective portion setting unit 203 may connect a local area in the vicinity of the local area determined to have a flat score map and determine a range having a certain extent as a defective portion. With the method as described above, it is possible to set the defective portion of the detection process using the score map.
  • the method of setting the defective portion using the score map is not limited to this method, and other methods may be used.
  • the third method is a setting method when the detection target image is an unknown image.
  • the detection processing for an unlearned image tends to have an insufficient result.
  • the defective part setting unit 203 determines, for each local region of the detection target image, whether the local region is similar to the learning image, and regards the dissimilar local region as the defective part. Set.
  • an image similarity determination device that calculates the similarity between the learning data image set and the detection target image is created and registered in the information processing device 100 in advance.
  • the image similarity determiner may be any as long as it can calculate the similarity between the learning image set and the local region of the detection target image.
  • the image similarity determination device can be realized by the following method, for example.
  • the similarity is calculated by extracting the image feature amount also from the image of the local region of the detection target image and obtaining the reciprocal of the distance from the feature amount distribution of the learning image set.
  • the distance between the image feature amount and the feature amount distribution of the learning image set the distance between the average value of the distribution and the image feature amount may be obtained, or the Mahalanobis distance may be used to obtain the distance. If the similarity calculated in this way is less than or equal to a predetermined value, the local region of the detection target image is an unknown image that has not been learned, and the performance of the detection result cannot be expected. Therefore, a local area having a similarity not higher than a predetermined value is set as a defective portion.
  • the defective portion setting unit 203 may set a portion where the result of the detection process is insufficient or a portion which is estimated to be insufficient as a defective area.
  • the defective area automatically set by the defective portion setting unit 203 by the method as described above may be corrected according to the user operation.
  • the automatically set defective portion is displayed in the image display area 501 (for example, the dotted rectangle 522 in FIG. 5), and the position, size, shape, etc. of the defective portion can be changed so that the input unit 106 can be changed.
  • the user may be allowed to select and erase an inappropriate one from the automatically set defective portions.
  • the user may be allowed to set an arbitrary area as the defective portion. In these cases, the defective portion setting unit 203 changes the defective area according to the user operation.
  • the defective portion setting unit 203 may calculate the defective degree of the detection result for each pixel or local area and set the area having the defective degree equal to or higher than a predetermined threshold as the defective portion.
  • the degree of failure is a value that increases as the detection result of the pixel or the local area becomes poorer.
  • the flatness of the score map in the above-described second method may be the degree of failure, or the distance from the feature amount distribution of the learning image set in the third method may be the degree of failure.
  • the user may set an arbitrary threshold value of the defect degree, and the defective portion setting unit 203 may set an area equal to or higher than the set threshold value of the defective degree as a defective portion.
  • the input unit 106 and the display unit 105 it is possible to set an arbitrary threshold value of the degree of failure by using a slider or the like of the GUI. Further, the area set as the defective portion is displayed according to the set threshold. By doing so, the user can adjust the threshold of the degree of failure while adjusting the desired range to be the defective portion.
  • the defective portion setting unit 203 sets the defective portion for each structural portion of the structure. May be.
  • FIG. 7 shows detection target images of three structural portions of the floor slab 701 and the piers 702 and 703. Of these, the structural portion of the pier 702 is determined as the defective portion 710. In this way, the method of determining the defective portion for each structural portion of the structure can be implemented as follows.
  • the defective portion setting unit 203 first determines a defective portion for each partial image area of the detection target image, as described above. Then, the defective part setting unit 203 calculates, for each predetermined structural part, the amount of the defective part included in the structural part and the ratio of the defective part to the area of the structural part. Then, the defective portion setting unit 203 sets, as a defective portion, a structural portion in which the amount or ratio of these defective portions is equal to or more than a predetermined value.
  • the structural portion for determining the defective portion is the floor slab and the pier.
  • the method of dividing the detection target image is not limited to this, and the detection target image may be divided by any division method. Good.
  • the defective part setting unit 203 an image area with insufficient accuracy of the detection processing or an image area estimated to be insufficient is determined from the results of the detection processing by the above method, and the defective area is determined to be defective. Set as a part.
  • the correction cost estimation unit 208 calculates the correction cost based on the defective portion set by the defective portion setting unit 203.
  • This process is an example of a modification cost estimation process that estimates a modification cost.
  • the modification cost estimation unit 208 calculates the predicted modification time as the modification cost.
  • the estimated correction time is a correction cost expressed in time, and is a correction time required when the user manually corrects the result of the detection process.
  • the correction cost estimation unit 208 calculates the predicted correction time based on the area of the image region set as the defective portion. Since the defective portion is an area where the result of the detection processing is insufficient, the user has to correct the detection result of this area.
  • the correction time can be predicted based on the image region area of the defective portion.
  • Cr is the repair cost (predicted repair time)
  • a is the area of the defective portion
  • w is the repair time per unit area
  • b is the fixed work time (constant) generated by carrying out the repair.
  • the estimated correction time calculated as the correction cost is displayed in the correction cost display area 530 of FIG.
  • the correction cost is simply calculated based on the image area area of the defective portion, but as another example, the correction cost estimation unit 208 calculates the correction cost based on the image feature amount of the defective portion.
  • the modification cost estimation unit 208 may estimate the modification difficulty level of the defective part based on the image feature amount of the defective part, and calculate the modification cost based on the modification difficulty level. For example, when the image area of the defective portion is a concrete wall surface having a complicated texture, it is difficult to determine the crack, and it takes time for the correction work. Therefore, in the case of a complicated texture, it is determined that the correction difficulty is high.
  • the correction cost estimation unit 208 calculates the correction difficulty level, for example, based on the edge strength and the edge amount of the image area of the defective portion. There are many strong image edges in the case where the texture of the concrete wall surface is complicated or in the image area where the amount of cracks is large. Therefore, in the present embodiment, the correction cost estimation unit 208 performs edge extraction processing on the image area of the defective portion, and calculates the correction difficulty level based on the edge strength and the edge amount of the defective portion. Specifically, the correction cost estimation unit 208 aggregates the edge strength of each pixel in the defective portion and sets it as the correction difficulty level. As another example, the correction cost estimation unit 208 performs a binarization process on each pixel of the defective portion to determine whether the pixel is an edge and determines the number of pixels determined to be an edge in the defective portion region. It may be a correction difficulty level.
  • the correction cost estimation unit 208 calculates the correction cost based on the value of the correction difficulty level and the amount of the defective portion having the high correction difficulty level. Specifically, for example, the higher the correction difficulty, the longer the correction time per unit area of the defective portion, and the correction time per unit area is set in advance. Then, the correction cost estimation unit 208 predicts the correction time based on the image area area of the defective portion, the correction difficulty of each defective portion, and the correction time per unit area of each correction difficulty. As a result, when a large number of defective portions having a high degree of difficulty in correction are included, a long correction time can be predicted, and the correction cost can be calculated based on the image feature amount of the defective portion.
  • the modification cost estimation unit 208 calculates the modification time as the modification cost, but the modification cost is not limited to the time.
  • the correction cost estimation unit 208 may calculate the amount of money required for the correction as the correction cost.
  • the correction cost estimation unit 208 calculates the amount of money as the correction cost will be described.
  • the crack detection is assumed to be a SaaS service form.
  • the operator of the service providing side also provides a paid option for manually correcting the detection result.
  • the user can select, through the input unit 106, to entrust the operator to correct the defective portion of the detection result.
  • the correction cost estimation unit 208 calculates the correction cost by switching it to the outsourcing charge for the correction work.
  • the commission fee for the repair work shall be calculated based on the area of the defective portion and the degree of difficulty, as in the expected repair time. In this way, the correction cost estimation unit 208 may calculate the amount of money as the correction cost. Further, even if the user does not select the option of outsourcing the repair work, the repair cost estimation unit 208 may calculate both the repair work time and the outsourcing fee as the repair cost.
  • the repair cost estimation unit 208 calculates both the repair work time and the commission charge as the repair cost, and the repair cost display area 530 displays the repair work time in the repair cost display area 530. Both the and the commission fee may be displayed. This allows the user to compare the estimated time when the detection result is corrected by himself and the amount of money when the correction work is outsourced, and decide whether to make the correction by himself or outsource the correction work. You can
  • the adjustment method setting unit 206 receives the adjustment instruction according to the user operation, and sets the adjustment method according to the adjustment instruction.
  • the process of receiving the adjustment instruction from the user operation is an example of the adjustment instruction reception process.
  • the adjustment cost estimation unit 209 calculates the adjustment cost corresponding to the adjustment method set in S304.
  • the adjustment cost is a cost required when the detection process related to the adjusted set value is executed.
  • the process of S305 is an example of the adjustment cost estimation process of estimating the adjustment cost.
  • an adjustment area 540 for setting the adjustment method for the detection process and an adjustment cost display area 531 for displaying the adjustment cost based on the set adjustment method are displayed.
  • the process of setting the adjustment method of the detection process (S304) and the process of calculating the adjustment cost (S305) will be described.
  • the adjustment area 540 of the window 500 shown in FIG. 5 has an area 541 for setting adjustments related to the detection model of the detection processing and an area 542 for setting various parameters.
  • the settings such as the detection model and the parameters of the detection process can be adjusted in order to perform detection suitable for the detection target image.
  • this adjustment method there are a plurality of setting items, and the adjustment area 540 receives an operation for setting a plurality of adjustment methods.
  • the model storage unit 201 stores a plurality of detection models learned under different conditions.
  • options may be selected for various settings. For example, in “additional teacher data creation”, by selecting the option item of “teacher data creation entrustment”, the operator of the service can enter the teacher data. You may be able to entrust. Further, an option item of “use of high-speed computer” may be provided so that learning by a high-speed computer can be selected.
  • FIG. 5 shows an example in which a check box is displayed for each item in order to set the item, but the item setting method is not limited to this.
  • other interfaces may be provided. For example, setting items for adjustment of various detection methods may be sequentially displayed, and the user may be allowed to determine whether or not to perform the setting.
  • FIG. 5 shows an interface for performing settings for adjusting the parameters of “brightness adjustment” and “noise removal strength” in the preprocessing.
  • FIG. 5 shows an example in which the slider 543 is displayed in order to set the values of these parameters.
  • the types of parameter setting are not limited to these, and other parameters may be set.
  • the threshold value of the threshold processing of the score map in the post-processing may be set, or the parameter for adjusting the noise removal strength of the detection result noise of the post-processing may be set.
  • FIG. 5 shows a state in which the user has set the adjustment method such as on/off of each item and the value of the parameter in the adjustment area 540.
  • the setting of all adjustment items is blank.
  • a check indicating that the setting is performed is input in the check box of the adjustment method selected by the user, but the initial state is a state in which all of these are unchecked.
  • the window 500 of FIG. 5 is provided with a slider 543 as a method of setting a parameter for brightness adjustment of preprocessing.
  • FIG. 5 shows a state where the slider 543 is operated and a certain parameter is set. In the initial state, the numerical value of such a parameter is also set to a predetermined value determined in advance.
  • the adjustment cost is calculated based on the adjustment method set as shown in FIG. 5, and the adjustment cost is displayed in the adjustment cost display area 531. However, the adjustment cost is displayed in the initial state. The adjustment cost is not displayed in the area 531. Further, as another example, it may be displayed that the adjustment cost is zero in the initial state.
  • the initial state of the adjustment area 540 is not limited to the above contents, and may be another state.
  • the setting of the detection method adjustment previously set by the user may be recorded as the user's preference, and the setting content may be set as the initial state.
  • the adjustment method set in the past case similar to the structure to be detected may be called to be the initial state.
  • the past case and adjustment method can be called from the type and characteristics of the structure, and the type and characteristics of the target structure to be detected can be input to make adjustments set for similar structures. Call the method to initialize it.
  • the types and characteristics of the structures are, specifically, information such as the types of structures such as bridges and tunnels, the number of years since construction, the location of the structures, and the average annual temperature.
  • similar past cases may be selected based on image characteristics.
  • the image feature amount of the detection target image and the image of the past case are extracted, the past case having the image feature amount most similar to the detection target image is selected, and the adjustment method set in this past case is called.
  • the value of the detection process parameter the parameter when the detection process is performed in S302 may be displayed as the initial value of the setting.
  • the initial value of the slider 543 for “brightness adjustment” in FIG. 5 may be used as the parameter when the detection process is performed.
  • the adjustment method setting unit 206 receives an adjustment instruction related to the setting. Then, the adjustment method setting unit 206 sets the adjustment method according to the adjustment instruction. Then, the adjustment cost estimation unit 209 calculates, as the adjustment cost, the cost required for the detection processing in which the set adjustment method is reflected.
  • the adjustment cost estimation unit 209 calculates the adjustment processing time and the adjustment amount as the adjustment costs.
  • the adjustment cost estimation unit 209 sets the processing time and the amount of money for each adjustment method in advance, and adds the processing time and the amount of money set for each adjustment method based on the combination of the adjustment methods set by the user. By doing so, the adjustment processing time and the amount of money are calculated. It is assumed that the processing time and the amount of money set for each adjustment method are set in advance based on the time, labor cost, calculation cost, etc. required for each adjustment method.
  • the setting for learning the detection model requires a long calculation time to perform the learning process, which requires a long processing time and incurs a charge for using the computer. Therefore, the adjustment method for carrying out the learning of the detection model is set to have a higher processing time and higher amount of money than other adjustment methods. Also, in order to learn, it is necessary to create teacher data that shows the crack position for a part of the detection target image, and if you set the option to entrust this to the operator, the time for teacher data creation, Personnel expenses are incurred. Therefore, a large value is set for the processing time and amount of the adjustment cost in this option.
  • the adjustment area 540 in FIG. 5 is provided with a button 544 for shifting to a mode for creating teacher data. By clicking this button 544, a tool for creating teacher data indicating a crack position for a part of the detection target image is activated.
  • This teacher data input tool may be a tool for directly inputting the crack position in the image display area 501 of FIG. 5, or another application different from the GUI application shown in FIG.
  • the minimum image size required to input the teacher data may be set in advance, and the detection target image may indicate the range in which the teacher data needs to be input.
  • the time required for the user to input the teacher data with respect to the teacher data input range may be predicted and displayed on the teacher data input tool.
  • the predicted time for inputting teacher data can be calculated in the same manner as the correction time for the correction cost. Specifically, by setting the teacher data input time per unit area in advance, the teacher data input time can be predicted based on the area of the teacher data input range.
  • the learning model is re-learned without creating teacher data.
  • the method of implementation can also be selected. When this setting is selected, an attempt is made to learn a detection model suitable for the detection target image using only existing data. Note that it is assumed that a database that stores a set of images of concrete wall surfaces in sufficient amounts and variations and teacher data indicating the crack positions of the images is stored in the HDD 104 as existing data.
  • the detection unit 202 can learn the detection model suitable for the detection target image by collecting existing data similar to the detection target image from the database and re-learning the detection model with the collected existing image data.
  • Any method may be used to collect the existing data similar to the detection target image, but for example, it is performed as follows. First, the image feature amount of each existing image in the database is extracted and clustered in the feature amount space. As a result, similar images among the existing images are clustered. In addition, a representative feature vector such as the cluster center is calculated for each cluster. The feature amount of the detection target image and the distance between each representative feature vector are calculated, and the cluster having the shortest distance is specified. The existing image included in this cluster and its teacher data are set as existing data similar to the detection target image. When the number of data included in the nearest neighbor cluster is small, the data of clusters in the top n may be used as the existing data.
  • the “high-speed computer usage” option requires a high computer usage amount, so a high amount of money is set and the amount of adjustment cost increases.
  • the processing time and the amount of money are set as the execution cost for each adjustment method.
  • the processing time of the re-detection processing by the newly selected detection model and the charge of using the computer for calculation are added as the adjustment cost.
  • the learning process is not required. Therefore, compared to the case where the learning process is selected, the processing time and the amount of money are less added, and the adjustment cost is a relatively small value.
  • the adjustment cost related to the detection model setting is explained, but similarly, the setting of the execution of the parameter adjustment of the pre-processing and the post-processing also has the processing time and the amount of money set for each setting, and the adjustment method The adjustment cost is calculated according to the setting state.
  • the adjustment cost estimation unit 209 may calculate the adjustment cost also using the information of the detection target image.
  • the adjustment cost estimation unit 209 may calculate the adjustment cost using information of the image size of the detection target image.
  • the processing time of the detection process changes depending on the image size of the detection target image. Therefore, the adjustment cost based on the detection target image can be calculated by weighting and calculating the processing time of the detection processing and the charge of implementation based on the image size.
  • the method of calculating the adjustment cost using the information of the detection target image is not limited to the method of using the image size, and other information may be used.
  • the processing order of the processing of S303 and the processing of S304 is not limited to the embodiment. As another example, the process of S303 may be executed after the processes of S304 and S305.
  • the display control unit 207 controls to display the detection result, the correction cost, and the adjustment cost. Specifically, the window 500 shown in FIG. 5 is displayed. In the correction cost display area 530, the estimated correction time is displayed as the correction cost. When the amount of money is calculated as the correction cost as described above, the amount of money is displayed as the correction cost in the correction cost display area 530. Further, when both the correction time and the amount of money are calculated as the correction cost, both are displayed as the correction cost. In the adjustment cost display area 531, two types of information, that is, the processing time and the amount of money, are displayed as adjustment costs.
  • the information for determining whether the user manually corrects or adjusts the detection processing setting and executes the detection processing again.
  • the user should refer to these information and, when the detection result is insufficient, compare the cost of manually correcting the detection result with the cost of performing the detection process again and make an appropriate judgment. You can That is, the user can determine whether to employ the detection result and manually perform the correction, or to adjust the detection process and execute the detection process again while comparing the time and the amount of money.
  • the display of the correction cost and adjustment cost is updated at any time based on the user's operation. For example, when the user changes the setting of the adjustment method in the adjustment area 540, the adjustment cost estimation unit 209 calculates the adjustment cost based on the latest setting content, and the display control unit 207 causes the adjustment cost display area 531 to be displayed. Update the adjustment cost of. Further, when the user changes the range of the defective portion of the detection result, the correction cost estimation unit 208 calculates the correction cost based on the changed defective portion, and the display control unit 207 causes the correction cost display area 530. Update fix cost of. In this way, the correction cost and the adjustment cost change depending on the adjustment method and the state of the defective part, so the user should compare the correction cost and the adjustment cost while changing the adjustment method and the defective part, and consider the response to the detection result. You can
  • the information processing apparatus 100 can record these states in order to search for an appropriate setting.
  • a “save” button 560 and a “read” button 561 are displayed in the window 500.
  • these buttons it is possible to save or load the adjustment method and the defective portion set at a certain time point, and the set of the adjustment cost and the correction cost calculated from them.
  • a function of comparing and displaying a set of a plurality of saved adjustment costs and correction costs may be provided. This feature lists a set of adjustment costs and correction costs. This allows the user to compare a plurality of sets of adjustment costs and correction costs and select an adjustment method and a defective portion setting that show appropriate adjustment costs and correction costs.
  • the detection unit 202 determines that the adjustment execution instruction has been received (YES in 307), and advances the processing to S308.
  • the adjustment execution instruction is an example of an instruction to re-execute the detection process.
  • the CPU 101 changes the setting of the detection process according to the set adjustment method.
  • the model learning unit 205 learns a detection model suitable for the detection target image based on the set adjustment method, and sets it as the detection model used for the detection processing. Further, for example, the detection unit 202 sets the parameters of the detection process.
  • the CPU 101 advances the process to S301.
  • S301 the detection process in which the parameters and the like have been changed (set) is performed.
  • the subsequent processing is executed, the correction cost and the adjustment cost are calculated, and the user is inquired whether or not to adjust the detection processing.
  • the user continues to correct the detection result as necessary.
  • the adjustment of the detection result is repeatedly executed a plurality of times, the payment fee is added according to the content of the adjustment. You may make it display the accumulated amount of money which requires this payment on a display part.
  • the information processing apparatus 100 can calculate the adjustment cost and the correction cost and display them in a comparable manner. Therefore, the user can confirm the displayed adjustment cost and correction cost and select whether to adjust the detection process or correct the detection result. The user can select a method for obtaining an appropriate detection result at a lower cost. That is, the information processing apparatus 100 can provide a mechanism for obtaining an appropriate detection result while suppressing costs.
  • the information processing apparatus 100 stores items for which the adjustment cost is greater than or equal to a predetermined value, and in the adjustment area 540 of the detection process in FIG. You may. Further, as another example, the information processing apparatus 100 may display the processing time and the amount of money to be added when the information is set, together with the items. This allows the user to select the adjustment method for the detection process while checking which item is set to increase the adjustment cost.
  • the information processing apparatus 100 may calculate the correct answer rate from a part of the detection result and estimate the area of the entire defective portion. In this case, the information processing apparatus 100 acquires the correct answer data of the crack corresponding to a part of the detection target image, and compares the correct answer data with the detection result in the partial area corresponding to the correct answer data. Then, the information processing apparatus 100 regards a portion whose detection result is not correct as a defective portion.
  • the information processing apparatus 100 assumes that defective portions exist in the entire detection target image at the same ratio as the partial region corresponding to the correct data, and applies this ratio to the detection target image to detect the entire defect. Estimate the amount of part (image area of defective part). Specifically, the information processing apparatus 100 calculates the ratio of the defective portion to the partial area corresponding to the correct answer data. Then, the information processing apparatus 100 estimates a value obtained by multiplying the entire area of the detection target image by the ratio of defective portions as the area of the defective portion in the entire detection target image. In this way, the information processing apparatus 100 may estimate the area of the defective portion without explicitly setting the defective portion.
  • the detection processing by the information processing device 100 is not limited to the processing using machine learning.
  • the information processing apparatus 100 may perform the crack detection process by image processing such as edge extraction. In this case, the information processing apparatus 100 adjusts a parameter related to edge extraction when adjusting the detection process.
  • the information processing apparatus according to the second embodiment will be described mainly regarding differences from the information processing apparatus according to the first embodiment.
  • the detection process with different settings is executed, and the detection result corresponding to the detection result with different settings is obtained. If the setting of the detection process is different, the good part and the bad part of the detection result may be different for each setting.
  • the information processing apparatus creates a combined detection result by partially combining a plurality of different detection results so that the number of defective parts becomes smaller than the single detection result. As a result, the information processing device can create a detection result with higher accuracy than a single detection result.
  • FIG. 8 is a functional configuration diagram of the information processing device 800 according to the second embodiment.
  • the information processing device 800 has a detection result storage unit 801 and a detection result combining unit 802 in addition to the functional configuration of the information processing device 100.
  • the detection result storage unit 801 stores the detection result of the detection unit 202 and the defective portion set by the defective portion setting unit 203.
  • the detection result combining unit 802 combines the detection results stored in the detection result storage unit 801.
  • FIG. 9 is a flowchart showing the cost display process according to the second embodiment. It should be noted that, of the processes of the cost display process shown in FIG. 9, the same processes as those of the cost display process according to the first embodiment described with reference to FIG. There is.
  • the CPU 101 advances the process to S901 after the process of S302.
  • the detection result combining unit 802 combines the detection results to obtain a combined detection result.
  • the display control unit 207 controls to display the combined detection result. In the state where the detection process in S301 is performed only once, that is, in the first process of S901, there is only one detection result.
  • the detection result combining unit 802 stores the detection result and the defective portion obtained in S301 in the detection result storage unit 801.
  • the detection result storage unit 801 stores a plurality of detection results obtained by a plurality of detection processes. The CPU 101 then advances the process to S303.
  • the detection result combining unit 802 reads the past detection result and the defective portion stored in the detection result storage unit 801.
  • the detection result stored in the detection result storage unit 801 is the detection result before adjustment of the setting value of the detection process in the immediately preceding loop process.
  • the detection result synthesizing unit 802 prepares for the detection result synthesizing process of the next time and thereafter, the detection result obtained in the detection process of the immediately preceding S301 and the defective part obtained in the defective part setting process of the immediately preceding S302.
  • the data is stored in the storage unit 801.
  • the detection result synthesizing unit 802 combines the past detection result and the defective portion with the detection result and the defective portion obtained in the immediately preceding processing of S301 and S302 (processing executed in the current loop), Create a composite detection result.
  • FIG. 10 is an explanatory diagram of the detection result combining process (S901).
  • FIG. 10 shows a detection target image, a detection result of crack detection, and a defective portion of the detection result.
  • detection target images of a plurality of structural portions of the bridge are shown.
  • the detection target image includes one floor slab and two piers.
  • the detection results 1010 and 1020 are detection results for detection processing of different settings performed on the same detection target image.
  • the detection result 1010 is the past detection result read from the detection result storage unit 801, and the detection result 1020 is the latest detection result obtained in the current loop.
  • 1011 indicates a floor slab and 1012 and 1013 indicate piers.
  • 1021 indicates a floor slab
  • 1022 and 1023 indicate piers.
  • dotted lines 1001, 1002, 1003, and 1004 indicate regions set as defective portions. Note that in the example of FIG. 10, the defective portion is set for each structural portion, as described with reference to FIG. 7.
  • the detection result 1010 and the detection result 1020 are combined to generate a combined detection result 1030.
  • the detection result combining unit 802 adopts a good detection result for each partial area so that the number of defective portions becomes smaller than that of a single detection result by combining.
  • the detection result combining unit 802 uses the floor slab 1021 of the detection result 1020 as the floor slab 1031 of the combined detection result 1030.
  • the detection result combining unit 802 adopts the bridge pier 1013 of the detection result 1010 as the bridge pier 1033 of the combined detection result 1030.
  • both the floor slab 1021 and the bridge pier 1013 are parts that are estimated to have good detection results. Therefore, in the combined detection result 1030 created by combining these, the defective portion is reduced as compared with the detection results 1010 and 1020. By thus combining the detection results, it is possible to create a more preferable detection result.
  • the pier 1032 in the composite detection result 1030 is the pier 1022 of the detection result 1020, that is, the defective portion. It is necessary to adopt the detection result determined to be a defective part for the structural part for which a good detection result has not been obtained.
  • the detection result synthesizing unit 802 synthesizes the detection result with the lowest degree of failure among the plurality of detection results when there are a plurality of detection results of the defective portion for the structural portion for which a good detection result is not obtained. It shall be adopted for the detection result.
  • the degree of failure is a value that increases as the detection result becomes poorer.
  • the ratio of defective portions included in the structural portion is defined as the degree of defectiveness.
  • the criterion for adopting one detection result from the detection results of defective parts is not limited to the embodiment.
  • the display control unit 207 may display a plurality of detection results, and the detection result combining unit 802 may adopt the detection result selected by the user. Further, as another example, the detection result combining unit 802 may employ a detection result randomly selected from a plurality of defective portions.
  • the detection result combining unit 802 adopts a partially good detection result from a plurality of detection results and creates a combined detection result in which the defective portion is reduced as compared with the single detection result.
  • the detection result combining unit 802 creates a combination detection result as a detection result.
  • the detection result storage unit 801 stores three or more detection results.
  • the detection result synthesizing unit 802 creates a synthesis detection result based on three or more detection results.
  • the detection result combining unit 802 may adopt one detection result from a plurality of good detection results in the same manner as selecting a detection result to be used as a combined detection result from the plurality of defective portions described above. .. Specifically, the detection result synthesizing unit 802 may calculate the degree of failure even for the good portion, and select the detection result with the lowest degree of failure as the detection result to be used as the combined detection result.
  • the detection result synthesizing unit 802 may calculate not only the degree of failure but also the degree of goodness indicating the degree of goodness of the detection result for each detection result, and select the detection result based on this degree of goodness. .. Further, the detection result synthesizing unit 802 may select the detection result selected according to the user operation, or may select the detection result randomly, as in the selection method from the plurality of defective portions.
  • the other configurations and processing of the information processing apparatus 100 according to the second embodiment are the same as the configurations and processing of the information processing apparatus 100 according to other embodiments.
  • the detection result storage unit 801 may always store the combined detection result except for the first loop. Then, in the detection result combining process, the detection result combining unit 802 may combine the past combination detection result stored in the detection result storage unit 801 and the latest detection result. In this case, in the processing of S901 after the second loop, the detection result combining unit 802 overwrites the combined detection result in the detection result storage unit 801 after combining the detection results. As a result, in S901, the detection result combining unit 802 can create a combined detection result that combines a plurality of detection results of past loops by only combining two detection results.
  • the information processing apparatus 100 combines the detection results for each structural portion of the structure.
  • the division part that combines the detection results is not limited to this.
  • the information processing apparatus 100 may combine a plurality of detection results for each partial area of continuous images. Specifically, as shown in the image display area 501 in FIG. 5, a plurality of detection results having a defective portion set in an arbitrary area in the image are prepared. Then, the detection result synthesizing unit 802 creates a synthesis detection result by combining these detection results for each partial area so that the defective portion is reduced. It should be noted that if a detection result having a continuity such as a crack exists across the boundary of a defective portion, it is difficult to combine the detection results. Therefore, in this case, when setting the range of the defective portion, it is preferable to set the range where the crack detection result does not cross the boundary of the defective portion as the defective portion.
  • the information processing apparatus 100 executes the detection process once in S301, but instead of this, the detection process with different settings may be performed simultaneously. Then, in S901, the information processing apparatus 100 combines the plurality of detection results obtained in S301.
  • this modified example will be described.
  • the information processing apparatus 100 first executes a plurality of detection processes with different settings in the loop first detection process (S301).
  • the detection processing of different settings is arbitrary.
  • the information processing apparatus 100 may call, for example, a plurality of detection models stored in advance in the model storage unit 201 and use different detection models for each detection process. Further, as another example, the information processing apparatus 100 may set different parameters for pre-processing and post-processing of the detection process and use them as a plurality of detection processes having different settings. These settings may be a plurality of predetermined settings or may be set randomly.
  • the defective part setting unit 203 sets a defective part for each detection result.
  • the detection result combining unit 802 creates a combined detection result using the plurality of detection results obtained in S301 and the information of the plurality of defective portions obtained in S302.
  • the information processing apparatus 100 may simultaneously set a plurality of different adjustment methods for adjustment of the detection processing for improving the detection accuracy. For example, a plurality of new detection models may be learned by setting a plurality of different detection model learning conditions. Further, similarly to the detection processing of the first loop, it is possible to select a plurality of existing detection models and set a plurality of parameters for preprocessing and postprocessing. By setting the adjustment method of the detection process in this way, even in the detection process (S301) in the second and subsequent loops, the detection process is executed with a plurality of different settings, and a plurality of different detection results are obtained. In the subsequent processing, the information processing apparatus 100 may similarly combine the plurality of detection results and create a combined detection result.
  • the information processing apparatus 100 according to the third embodiment estimates an effective adjustment method for the detection process based on the defective portion.
  • the information processing apparatus 100 according to the third embodiment further predicts the effect of adjustment, and presents the prediction result to the user as information for determining whether or not to adjust the detection process.
  • the adjustment method setting unit 206 not only sets the adjustment method, but also specifies the effective adjustment method as the recommended adjustment method based on the defective portion. This process is an example of the method specifying process.
  • the adjustment method setting unit 206 further estimates the improvement effect of the detection result when various adjustment methods are set and the detection processing is performed, that is, an expected improvement value. This process is an example of the expected value estimation process.
  • the information processing apparatus 100 implements a plurality of methods for determining a defective portion, and predicts an effective adjustment method according to which determination method determines a defective portion.
  • a case of determining a defective portion using the method of evaluating a detection result to determine a defective portion and the method of determining a defective portion using a score map described in the first embodiment will be described. An example will be explained.
  • the method of evaluating a detection result to determine a defective portion and the method of determining a defective portion using a score map are referred to as a first method and a second method, respectively.
  • a partial area is determined to be a defective part by the first method.
  • the adjustment method setting unit 206 predicts parameter adjustment, particularly threshold value adjustment of post-processing, as an effective adjustment method.
  • a certain partial area is determined to be a defective portion by the second method.
  • the second method is a method of determining a defective portion based on the state of the score map, and the fact that the score map is not preferable means that the detection model used in the detection process is not suitable for the detection target image. There is. Therefore, when the defective portion is determined by the second method, the adjustment method setting unit 206 predicts a change in the detection model or relearning as an effective adjustment method.
  • the display control unit 207 displays an effective adjustment method, that is, an adjustment method for which an effect can be expected, for each defective portion. For example, in the window 500 shown in FIG. 5, when the defective portion 522 is selected, the display control unit 207 displays the adjustment method predicted to be preferable for improving the detection result of the defective portion 522.
  • the adjustment method setting unit 206 integrates the preferable adjustment methods of the respective defective portions thus obtained, and predicts the preferable adjustment method of the entire detection target image.
  • the adjustment method setting unit 206 aggregates, for example, effective adjustment methods predicted in each defective portion, and specifies the adjustment method having the highest number of appearances as a recommended adjustment method for the entire detection target image.
  • the display control unit 207 displays the predicted setting value of each item related to the recommended adjustment method in the adjustment area 540 as an initial setting value.
  • the adjustment cost estimation unit 209 further predicts the correction cost of the detection result when the detection process is adjusted and the re-detection process is performed based on the setting state of the adjustment method. Specifically, the defective part setting unit 203 first determines a defective part that is predicted to improve the detection result by the adjustment. Then, the correction cost estimation unit 208 calculates the correction cost from the defective portion used for calculating the correction cost, excluding the defective portions whose improvement is predicted. Then, the display control unit 207 displays this correction cost as “predicted correction cost by adjustment” so that it can be compared with the normal correction cost. By this display, the user can compare the prediction of the effect of how much the detection result is improved by adjusting the detection process, by the correction time and the amount of money.
  • FIG. 11 is a diagram showing a display example of the window 500 according to the third embodiment.
  • An adjustment effect display area 1101 is provided in the window 500 shown in FIG.
  • the adjustment effect display area 1101 the expected degree of the adjustment effect predicted according to the setting state of the adjustment area 540 is displayed as a five-step mark.
  • the adjustment method setting unit 206 calculates an evaluation value of the adjustment effect based on the number and area of defective parts that can be expected to improve the detection result according to the setting state of the adjustment area 540. Specifically, the adjustment method setting unit 206 predicts an effective adjustment method as described above. Then, the adjustment method setting unit 206 compares the setting state of the adjustment region 540 with the effective adjustment method of each defective portion, and totals the number and area of defective portions that can be expected to improve the detection result. Then, the adjustment method setting unit 206 calculates, as the evaluation value of the adjustment effect, a value such that the larger the number or area of defective portions that can be expected to be improved, the higher the adjustment effect.
  • the method of calculating the adjustment effect is not limited to the embodiment.
  • the adjustment method of inputting the teacher data to the detection target image and learning the detection model can be expected to greatly improve the performance if the adjustment method has not been executed so far. Therefore, if the adjustment method is set in a state where the adjustment method of inputting the teacher data to the detection target image and learning the detection model is not performed in the adjustment so far, the adjustment effect is large. Predict. In this way, for each item of the adjustment method, the effect when each is selected may be set in advance, and the adjustment effect may be predicted based on this information.
  • the other configurations and processing of the information processing apparatus 100 according to the third embodiment are the same as the configurations and processing of the information processing apparatus 100 according to other embodiments.
  • the adjustment method setting unit 206 sets not only the adjustment method but also the effective adjustment method as the recommended adjustment method based on the defective portion. Identify.
  • the adjustment method setting unit 206 further estimates the improvement effect of the detection result when various adjustment methods are set and the detection processing is performed, that is, an expected improvement value. Since the user can confirm the degree of expectation when using the recommended adjustment method, the user can select a more effective adjustment method.
  • the method of displaying the adjustment effect is not limited to the embodiment.
  • the display control unit 207 may represent the expected degree of the adjustment effect by a numerical value.
  • the display control unit 207 may highlight the area of the defective portion in which the detection result is predicted to be improved by the adjustment.
  • the highlighting of the defective area includes, for example, a method of filling the area with a semitransparent color, a method of blinking a line surrounding the area, and the like.
  • the method for predicting the recommended adjustment method is not limited to the embodiment.
  • the information processing apparatus 100 prepares a large amount of detection results including a defective portion and a set of adjustment method data for appropriately improving the detection results, and then selects an appropriate adjustment method from the detection results. A predictive model that can be predicted is learned and stored. Then, the information processing apparatus 100 may predict the recommended adjustment method based on this prediction model.
  • the detection target image is an image of the structure wall surface and the detection target is a deformation such as a crack on the concrete wall surface
  • the detection target image and the detection target are not limited to the above-described embodiments.
  • an example in which the detection target image and the detection target are different from those in the above embodiments will be described.
  • the information processing apparatus 100 is preferably applied to the case where the detection result is desired to be used even after correction.
  • a case for example, there is a situation where teacher data for machine learning is created.
  • a human body detection model hereinafter, existing model
  • the monitoring camera is required to detect a human body in the environment where the camera is installed.
  • the existing model is not always suitable for the camera installation environment. Therefore, in order to improve the accuracy of human body detection, it is desirable to learn the human body detection detection model in accordance with the individual environment of the camera.
  • the information processing apparatus 100 first performs the human body detection process on the image of the teacher data input target by using the existing model. In the portion where the detection result is correct, the detection result can be used as the teacher data as it is, so that the work of inputting the teacher data is significantly reduced. On the other hand, a portion with a wrong detection result such as undetected or erroneous detection cannot be used as it is as the teacher data, and thus needs to be corrected. Therefore, the information processing apparatus 100 sets a defective portion in the detection result and displays the correction cost such as the correction work time based on the amount of the defective portion. As a result, it is possible to estimate how much modification work is required to create the teacher data.
  • the detection process may not be adjusted for the image of the learning data set, resulting in an insufficient detection result.
  • the detection result is insufficient, the correction work time becomes enormous. Therefore, there is a demand to create teacher data based on a better detection result.
  • the accuracy of the detection result can be improved by using another existing model or adjusting the detection process such as changing various parameters.
  • the adjustment of the detection process is performed by the user setting various items of the detection process for the learning image data set which is the detection target image so that the detection process becomes optimum.
  • the information processing apparatus 100 can adjust the items of such detection processing.
  • the correction work for creating the teacher data can be reduced.
  • the user wants to adjust the detection process to obtain a better detection result and use it as the original data for creating the teacher data.
  • an adjustment cost such as time for the re-detection process is required.
  • the information processing apparatus 100 needs to determine a portion where the detection result of the existing model is insufficient as a defective portion in order to calculate the correction cost.
  • the partial area of the detection target image is set as the defective portion, but the information processing apparatus 100 of the present embodiment determines the defective portion in image units. That is, in the present embodiment, the learning image data set is the detection target image in the other embodiments, and one image that is a part of the learning image data set is a unit area that is determined as a defective portion.
  • the defective part setting unit 203 of the information processing apparatus 100 performs the detection process on all the images of the learning image data set, picks up an image that is estimated to be insufficiently detected, and sets this as the learning image data. Set as a defective part in the set.
  • the method of determining the defective portion is not limited, but the defective portion setting unit 203 may set an unknown image that cannot be handled by the existing model as the defective portion, for example.
  • the method using the image similarity determiner described in the first embodiment can be applied to the determination of the unknown image of the existing model. Thereby, for example, an image with unknown illumination condition or brightness is determined as a defective portion.
  • an image in which an abnormal number of human bodies are detected may have a large amount of false detections. Therefore, the defective portion setting unit 203 may set such an image as a defective portion. In this way, the defective part setting unit 203 may detect an abnormality in the detection result as a defective part.
  • the correction cost estimation unit 208 calculates the correction cost based on the defective portion, as described in the first embodiment. Since the information processing apparatus 100 of the present embodiment sets a defective portion for each image, the correction cost may be calculated based on, for example, the number of images determined to be defective portions. Specifically, the information processing apparatus 100 sets a correction time for one image in advance. Then, the correction cost estimation unit 208 calculates the correction time based on the number of images set as the defective portion and the unit correction time per image.
  • the correction cost estimation unit 208 may calculate the correction cost based on the image content, as described in the first embodiment.
  • the adjustment cost estimation unit 209 includes, for example, a detector that detects a human body crowd in the image, and determines an image including the human body crowd. It takes a very long time to accurately input the position of the human body on the image of the human body crowd. Therefore, the correction cost estimation unit 208 may calculate the correction cost based on the number of human body crowd images in the learning image data set. In this case as well, similarly, the unit correction time per one human body crowd image is set, and the correction cost estimation unit 208 calculates the correction cost based on the number of human body crowd images.
  • the adjustment cost estimation unit 209 executes the adjustment cost calculation in the same manner as described in the first embodiment. Specifically, the adjustment cost estimation unit 209 determines the time and the amount of money required for the adjustment based on the adjustment items related to the learning of the human body detection model and the adjustment settings of the parameters related to the pre-processing and post-processing of the detection processing. Calculate as adjustment cost.
  • the other configurations and processing of the information processing apparatus 100 according to the fourth embodiment are the same as the configurations and processing of the information processing apparatus 100 according to other embodiments.
  • FIG. 13 shows a GUI application window 1300 according to the fourth embodiment. Since FIG. 13 is a modification of FIG. 5, description of the parts described in the first embodiment will be omitted, and only parts different from the first embodiment will be described.
  • the window 1300 has an area 1310 displaying a learning image data set. In this area 1310, each image forming the learning image data set is displayed as a list as thumbnails as shown in the image 1311.
  • a check box 1312 is associated with each image. When each check box is turned on, it indicates that the image corresponding to the check box is a defective portion. In the defective portion determination in the fourth embodiment, as described above, the defective portion setting unit 203 automatically determines an image with an insufficient detection result.
  • the check box of the image determined as the defective portion is automatically turned on. Furthermore, the user may visually determine whether or not each image is to be a defective portion, and operate the check box to turn it on/off to correct the setting of the defective portion.
  • the window 1300 has an area 1320 for displaying one image.
  • one image selected from the images in the thumbnail list is displayed.
  • the dotted line 1313 indicates the image selected as the image displayed in the area 13020.
  • an image 1321 corresponding to the thumbnail surrounded by the dotted line 1313 is displayed.
  • the image 1320 displayed here is a detection result image in which the result of performing the human body detection process on the captured image using the existing model is superimposed.
  • a human body 1322 is shown in the image 1321, and a detection result 1323 indicated by a rectangular object surrounding the human body 1322 is displayed on the image in a superimposed manner. Note that, in the example shown in FIG.
  • a large amount of erroneous detection occurs in the background portion of the image 1321 as in the detection result 1324. Specifically, a rectangle indicating the detection result is superimposed on the portion where the human body does not exist.
  • the defective part setting unit 203 determines that this image is a defective part, and as a result, the check box of the part surrounded by the dotted line 1313 is in the ON state. Further, the user can select another image from the thumbnail list displayed in the area 1310 in order to confirm the detection result of another image in the learning data set. Further, by operating the button 1325, an operation of changing the image displayed in the region 1320 to the previous and next images can be input.
  • the image showing the detection result of the human body detection process and the information on the defective portion of the detection result are displayed.
  • the correction cost information is calculated from the information of the defective portion, and the correction cost is displayed in the correction cost display area 1330.
  • the adjustment cost is calculated based on the set detection adjustment method, and the adjustment cost is displayed in the adjustment cost display area 1331. Based on this information, the user creates teacher data for learning human body detection based on this detection result, or adjusts the detection method, and executes detection processing again on the learning data set. You can consider what to do.
  • a first modified example of the fourth embodiment will be described.
  • the embodiment in which the captured moving image is divided into frame images and used is described, but the target of the detection process is not limited to the image and may be a moving image.
  • the information processing apparatus 100 may determine a range of consecutive frames as a defective portion.
  • the information processing apparatus 100 may set not only a partial area in an image but also an image unit or a continuous frame portion as a defective portion.
  • the defective part may be any part as long as it is a part of the detection target.
  • the human body detection from the image is taken as an example to describe the embodiment in which the defective portion is determined in image units.
  • the partial region of the image may be determined as the defective part, as in the first embodiment.
  • the information processing apparatus 100 sets, for example, in the detection result of the detection target image, a partial region in which the number of detection results is locally large is set as a defective part because it is highly likely that erroneous detection has occurred. Good.
  • the information processing apparatus 100 can be applied to a purpose other than the inspection of the concrete wall surface of the infrastructure structure by taking the teacher data creation for human body detection as an example.
  • the application of the information processing device 100 is not limited to these.
  • the information processing apparatus 100 can also be applied to the case of creating teacher data for learning a detection model for detecting an abnormality in an appearance inspection in production equipment.
  • FIG. 12 is a diagram showing a configuration example of the information processing system according to the fifth embodiment.
  • FIG. 12A is an explanatory diagram of one form of an information processing system using SaaS.
  • the client device 1200 operated by the user is connected to the service providing system 1201 via the Internet 1203.
  • the service providing system 1201 executes all the functions shown in FIG. 2 except the display control unit 207.
  • the client device 1200 receives the information according to the user operation, and transmits it to the service providing system 1201. Further, the client device 1200 receives the display contents of the window 500 described with reference to FIG. 5 from the service providing system 1201 and displays them. In this way, the client device 1200 functions as a user interface.
  • the SaaS configuration of this embodiment a plurality of users use the service providing system 1201. Specifically, in FIG. 12A, the user uses the service providing system 1201 via the Internet 1203. In this case, the adjustment cost may be calculated according to the operating status of the service.
  • the adjustment cost estimation unit 209 may predict the adjustment processing time in consideration of the operating status of the service providing system 1201 and output the result as the adjustment cost.
  • the adjustment cost estimation unit 209 may use not only the operation state of the service providing system 1201 but also other information as the operation state of the service used for calculating the adjustment cost. For example, in the adjustment of the detection process, if the option of entrusting the creation of teacher data is selected, the operator carries out the work of creating teacher data. Here, when another user is entrusting the teacher data creation, the operator cannot receive the next teacher data creation entrustment until the teacher data creation work is completed. Therefore, when the entrustment of teacher data creation is selected in the setting of the adjustment method, it is expected that the adjustment process will take longer than usual. In this way, the adjustment cost estimation unit 209 may predict the adjustment processing time in consideration of the work situation of the operator and output the result as the adjustment cost.
  • the execution result of the user may be stored in the service providing system 1201 and used for setting the initial value of the adjustment method.
  • the service providing system 1201 stores the adjustment method settings executed by various users and identifies frequently used setting items and setting combinations. Then, the client device 1200 displays this setting on the display unit as an initial value of the adjustment method.
  • the defective part setting unit 203 may similarly determine the parameter relating to the setting of the defective part based on the execution result of the user. For example, first, regarding the automatic setting of the defective area, in the third method of the first embodiment, the degree of similarity with the learning image is calculated, and the area having the degree of similarity equal to or lower than the predetermined value is set as the defective portion.
  • the threshold value for determining "the degree of similarity is less than or equal to a predetermined value" is a parameter. If this threshold parameter is inappropriate, the defective portion will not be set properly, and the user will have to correct the defective portion.
  • the threshold value parameter of the case where the defective portion is not corrected is accumulated, and the mode value or the average value thereof is calculated, so that the threshold value of the appropriate similarity can be calculated.
  • the defective portion may be set using the parameters.
  • FIG. 12B is an explanatory diagram of another form of the information processing system.
  • FIG. 12B shows a configuration including an on-premises server device 1211 as a processing configuration different from that of FIG. 12A.
  • the client apparatus 1210, the on-premises server apparatus 1211, and the service providing system 1212 cooperate to execute each function described with reference to FIG.
  • the service providing system 1212 functions as the detection unit 202 that requires a large amount of calculation.
  • the client device 1210 functions as a user interface similarly to the example of FIG. 12A.
  • the on-premises server device 1211 functions as a configuration other than the detection unit 202 shown in FIG.
  • the response to the result of cost calculation will be faster in response to user operations such as the correction of defective parts, and the stress of user operations will be reduced.
  • these pieces of information may be stored in the on-premises server device 1211 in the company.
  • the on-premises server device 1211 has a configuration for storing information such as the model storage unit 201.
  • the present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. It can also be realized by the processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
  • a circuit for example, ASIC

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Software Systems (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Quality & Reliability (AREA)
  • General Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Databases & Information Systems (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Multimedia (AREA)
  • Strategic Management (AREA)
  • Mathematical Physics (AREA)
  • Primary Health Care (AREA)
  • Human Computer Interaction (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Operations Research (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

少なくとも1つの設定を調整可能な検知処理により、処理対象の画像から、検知対象を検知する検知手段と、検知手段による検知結果を修正する場合に必要となる修正に要する修正コストを推定する修正コスト推定手段と、検知処理の設定を前記検知対象に合わせて調整する場合に必要となる調整コストを推定する調整コスト推定手段と、修正コストと調整コストを比較可能に表示手段に表示するよう制御する表示制御手段とを有する。

Description

情報処理装置、情報処理方法及びプログラム
 本発明は、構造物の画像から変状を検知する技術に関する。
 画像から対象物を検知する検知処理では、検知処理に用いられる検知モデルやパラメータを検知対象画像に合わせて調整することで、検知精度が向上することが期待できる。特許文献1には、生産工程の検査のため、異常を検知する検知処理において、製品のロットや環境の変動に対応して検知処理の検知モデルを調整する技術が開示されている。この技術では、検知結果を評価し、評価結果に基づいて検知モデルを更新して、再び検知処理を実施する。
 一方、検知結果の精度が不十分でも、人間が検知結果を修正して利用するケースがある。例えば、橋梁やトンネルなどのインフラ構造物のコンクリート壁面の点検方法として、構造物の壁面を撮影した画像を調査して、ひび割れなどの変状の位置を記録する方法がある。このような画像を用いた点検では、点検対象画像からひび割れなどの変状を自動的に検知することで、人間が変状を記録する工数を削減することができる。しかし、現状では検知処理で変状を検知する際、部分的な誤検知や未検知を完全に無くすことは難しい。記録する点検結果としては、求める検知精度に対して不十分な検知結果が得られることがある。このような場合、得られた不十分な検知結果を人間が確認し、必要に応じて修正して、最終的な点検結果を作成することが好ましい。
特開平10-21393号公報
 しかしながら、検知結果を人間が修正するとなると、修正作業の時間などの修正コストが発生する。一方で、前述したように、検知結果が不十分な場合に、検知処理を調整して、検知結果の精度を向上させることができるが、この場合にも、検知モデルの再学習などにより時間的なコストや金銭的なコストがかかる。
 本発明はこのような問題点に鑑みなされたもので、コストを抑えつつ適切な検知結果を得るための仕組みを提供することを目的とする。
 そこで、本発明は、情報処理装置であって、少なくとも1つの設定を調整可能な検知処理により、処理対象の画像から、検知対象を検知する検知手段と、前記検知手段による検知結果に基づいて、前記検知結果を修正する場合に必要となる修正コストを推定する修正コスト推定手段と、前記検知処理の設定を前記検知対象に合わせて調整する場合に必要となる調整コストを推定する調整コスト推定手段と、前記修正コストと前記調整コストを比較可能に表示手段に表示するよう制御する表示制御手段とを有することを特徴とする。
 本発明によれば、コストを抑えつつ適切な検知結果を得るための仕組みを提供することができる。
第1の実施形態に係る情報処理装置のハードウェア構成図である。 情報処理装置の機能構成図である。 コスト表示処理を示すフローチャートである。 検知処理を示すフローチャートである。 ひび割れ検知結果を提示するアプリケーション画面の一例を示す図である。 ウィンドウの表示例を示す図である。 検知対象画像の一例を示す図である。 第2の実施形態に係る情報処理装置の機能構成図である。 第2の実施形態に係るコスト表示処理を示すフローチャートである。 検知結果合成処理の説明図である。 第3の実施形態に係るウィンドウの表示例を示す図である。 情報処理システムの構成例を示す図である。 情報処理システムの構成例を示す図である。 人体検知に係る教師データを生成するアプリケーション画面の一例を示す図である。
 以下、本発明の実施形態について図面に基づいて説明する。
 (第1の実施形態)
 第1の実施形態においては、橋梁やトンネルなどのインフラ構造物のコンクリート壁面の点検において撮影された画像に基づいて、対象物を検知する検知処理を行う情報処理装置について説明する。
 インフラ構造物の壁面の点検では、点検者は、コンクリート壁面の変状を記録する。コンクリート壁面の変状には、例えば、ひび割れ、エフロレッセンス、ジャンカ、コールドジョイント、鉄筋露出などがある。画像を用いた点検では、点検者は、構造物の壁面を撮影し、撮影した画像の中から、変状の位置や範囲を記録することで点検結果を作成する。画像の中から、全ての変状を発見、記録する作業は大変な作業となる。従って、機械による検知処理により、画像から自動的に変状を検知することが好ましい。しかし、検知結果には、一般に、検知漏れや検知誤りが含まれており、正しい点検結果を作成するためには、検知漏れや検知誤りを修正する必要がある。しかし、人間が修正を行うと、修正の作業時間が発生する。このような修正コストは可能な限り小さいことが好ましい。
 一方、検知処理をターゲットの構造物に合わせて調整することで、検知結果の精度が向上することが期待される。構造物の壁面の画像は、壁面の種類や、撮影条件などにより様々なバリエーションがある。このため、特定の検知処理の設定で、全ての画像に対して良好な検知結果を得ることは難しい。一方で、検知の対象となる画像に合わせて、検知処理の設定を調整することで、高い精度の検知結果を得ることができる。しかし、検知処理を調整することにも、時間や料金などの調整コストが発生する。具体的には、検知処理が機械学習を用いて実施されているとすると、検知対象画像に適した検知モデルを、再学習するために、学習時間や計算機リソースの利用料金が発生する。
 これに対し、本実施形態に係る情報処理装置は、検知結果などに基づき修正コストと調整コストを算出し、これを比較可能な状態でユーザに提示する。これにより、検知結果を採用した上で、ユーザ操作により修正して利用するのと、検知処理を調整して、再度、検知処理を実施して新しい検知結果を作成するのと、どちらが好ましいかをユーザが判断することができる。なお、以下では、画像からの検知対象の変状をひび割れとして説明するが、検知対象は、画像から特定可能なものであればよく、ひび割れに限定されるものではない。
 また、実施形態においては、SaaS(Software as a Service)でひび割れ検知を行う例を説明する。本実施形態のSaaSでは、まず、ユーザが検知対象画像に対するひび割れ検知をサービスに依頼し、検知結果を受け取る。ユーザは検知結果を確認して、検知結果を修正して最終的な点検結果を作成するか、検知処理の調整を行って、再度検知処理を依頼するかを判断する。本実施形態のSaaSは、検知処理の実施や検知処理の調整などの利用内容に従って利用料金が発生するサービスであるとする。本実施形態の情報処理装置は、このようなサービス機能を有している。
 図1は、第1の実施形態に係る情報処理装置100のハードウェア構成図である。本実施形態に係る情報処理装置100は、CPU101と、ROM102と、RAM103と、HDD104と、表示部105と、入力部106と、通信部107とを有している。CPU101は、ROM102に記憶された制御プログラムを読み出して各種処理を実行する。RAM103は、CPU101の主メモリ、ワークエリア等の一時記憶領域として用いられる。HDD104は、各種データや各種プログラム等を記憶する。表示部105は、各種情報を表示する。入力部106は、キーボードやマウスを有し、ユーザによる各種操作を受け付ける。通信部107は、ネットワークを介して画像形成装置等の外部装置との通信処理を行う。
 なお、後述する情報処理装置100の機能や処理は、CPU101がROM102又はHDD104に格納されているプログラムを読み出し、このプログラムを実行することにより実現されるものである。また、他の例としては、CPU101は、ROM102等に替えて、SDカード等の記録媒体に格納されているプログラムを読み出してもよい。
 また、他の例としては、情報処理装置100の機能や処理の少なくとも一部は、例えば複数のCPU、RAM、ROM、及びストレージを協働させることにより実現してもよい。また、他の例としては、情報処理装置100の機能や処理の少なくとも一部は、ハードウェア回路を用いて実現してもよい。
 図2は、情報処理装置100の機能構成図である。情報処理装置100は、モデル格納部201と、検知部202と、不良部分設定部203と、コスト算出部204(修正コスト推定部208、調整コスト推定部209)と、モデル学習部205と、調整方法設定部206と、表示制御部207と、を有している。モデル格納部201は、既存のひび割れ画像で学習した、ひび割れを検知する検知モデルを格納する。検知部202は、検知モデルに基づいて、検知対象(ひび割れ)の検知処理を行う。なお、検知部202が実行する検知処理の検知モデルや設定値等はユーザ操作に応じて調整可能である。不良部分設定部203は、対象画像において不良部分を設定する。ここで、不良部分とは、正しい検知結果が得られなかった領域である。
 本実施形態のコスト算出部204は、修正コストの推定値を求める修正コスト推定部208と調整コストの推定値を求める調整コスト推定部209とからなる。ここで、修正コストは検知結果の修正をユーザ操作に応じて行う場合に要するコストである。また、調整コストは、検知結果を改善するために、検知部202による検知処理の設定を調整する場合に調整に要するコストである。なお、コスト算出処理については後に詳述する。モデル学習部205は、検知モデルの学習を行う。調整方法設定部206は、ユーザ操作に従い、検知処理の調整方法を設定する。表示制御部207は、表示部105への表示を制御する。
 図3は、情報処理装置100によるコスト表示処理を示すフローチャートである。S301において、情報処理装置100の検知部202は、処理対象の画像を取得し、取得した画像に対し、検知処理を行う。以下、処理対象の画像を検知対象画像と称することとする。前述の通り、本実施形態においては、検知部202は、機械学習を用いてひび割れを検知するものとする。機械学習によりひび割れを検知する方法では、ひび割れを含む画像と、ひび割れ位置を示す教師データを用いて学習を行う。この学習には様々な方法があり、どのような方法を用いてもよい。例えば、画像の各画素に関する特徴量を作成し、この特徴量を識別器で識別する方法により、各画素がひび割れか否かを判定することができる。これらの特徴量や識別器はどのような方法を用いてもよいが、例えば、HOG特徴量やSVM、CNNなどの方法を用いることができる。
 機械学習では、予め、既存のひび割れ画像と教師データを用いて、SVMやCNNなどの識別器の重みを学習しておく必要がある。検知処理を実行するときには、このような識別器の重みを呼び出して利用する。このような識別器の重みなどの、機械学習の検知処理のために予め学習した結果が検知モデルであり、モデル格納部201には、既存のひび割れ画像で学習した、ひび割れを検知する検知モデルが格納されている。
 図4は、検知処理(S301)における詳細な処理を示すフローチャートである。S401において、検知部202は、検知処理を実行するために、まずモデル格納部201から検知モデルを呼び出す。そして、検知部202は、検知対象画像を取得する。次に、S402において、検知部202は、検知対象画像に対して、前処理を実施する。前処理は、画像ノイズの除去や、輝度の調整など、ひび割れ検知を実行しやすくするために検知対象画像を変換、加工する処理である。次に、S403において、検知部202は、検知モデルを用いて検知対象画像に対して識別処理を行う。本実施形態においては、検知部202は、識別処理において、検知対象画像の各画素が、ひび割れであるか否かを、識別器で識別するものとする。検知部202はさらに、検知対象画像の画素毎に、ひび割れらしさを示すスコアを求める。ひび割れらしさを示すスコアは、高い値であるほど、ひび割れであることを示すものとする。以下では、このスコアを各画素に格納したデータをスコアマップと呼ぶ。
 次に、S404において、検知部202は、後処理を実行する。具体的には、検知部202は、スコアマップに対して閾値処理を行うことにより、ひび割れと判定する画素を決定する。なお、後処理には、スコアマップや閾値処理後の結果に対して、ノイズ除去処理を実施する処理や、スコアマップへ細線化処理を行うことでひび割れ位置を詳細に特定する処理が含まれてもよい。さらに、後処理には、ひび割れ検知結果の位置や形状を整形する処理等が含まれてもよい。次に、S405において、表示制御部207は、検知結果を表示部105に表示するよう制御する。
 以上、説明したように、本実施形態の情報処理装置100は、検知処理において、既存のひび割れ画像で学習した検知モデルを用いて、検知対象画像のひび割れを検知する。しかし、この検知モデルは、必ずしも検知対象画像の検知に適しているとは限らない。一般的には、高精度な検知結果を得るためには、学習画像と検知対象画像の画像条件が類似することが好ましいが、学習画像と検知対象画像の画像条件が乖離している場合がある。例えば、検知モデルの学習に用いる画像は、過去に撮影した様々な構造物の壁面の画像が含まれるが、構造物壁面の見た目は様々な状態が存在するため、新規に与えられた検知対象画像の見た目が、学習画像に類似しているとは限らない。また、照明条件など画像の撮影条件も様々な状態が存在するため、撮影条件の違いにより学習画像と検知対象画像が類似しないこともあり得る。このようなケースでは、検知対象画像の検知結果は不十分な精度の結果となる。
 検知結果が不十分な場合には、検知モデルを検知対象画像に適した状態に調整して、再度、検知処理を実施することが好ましい。検知モデルの調整方法としては、例えば、検知モデルを再学習する方法がある。検知対象画像の一部に教師データを入力し、この一部の画像を用いて検知モデルを学習することで、検知対象画像に適した検知モデルを学習することができる。また、予め複数の検知モデルを準備しておき、検知対象画像に適した検知モデルを選択することで、検知対象画像に対して検知モデルを調整することもできる。具体的には、予め、様々な組み合わせの学習画像セットや学習パラメータで、異なる複数の検知モデルを学習しておき、これらをモデル格納部201に格納しておく。そして、ある検知モデルで検知処理を実施した結果、検知結果が不十分な場合には、別の検知モデルを選択して、再度、検知処理を実施する。
 また、図4を参照しつつ説明したように、検知処理には、前処理(S402)、識別処理(S403)及び後処理(S404)が含まれ、それぞれの処理において、様々なパラメータが存在する。例えば、前処理のノイズ除去の強さを調整するパラメータや、後処理のスコアマップ閾値処理の閾値パラメータである。これらのパラメータは、通常、汎用的な設定で検知処理が行われる。ただし、検知対象画像に合わせて調整する方が、好ましい検知結果を得ることができる。例えば、ひび割れ検知結果の誤検知が多い場合には、検知結果のノイズ除去を強くする方向にパラメータを調整することにより、好ましい検知結果を得ることができるようになる。
 以上のように、本実施例の検知処理は、検知モデルの学習やパラメータチューニングなど、検知処理の調整方法が複数存在する。本実施形態に係る情報処理装置100は、検知結果が不十分な場合に、ユーザが検知処理の調整を行うべきかを判断するための情報を提示する。以降では、まず、検知結果が不十分であることの判定について説明し、次に、情報の提示について説明する。
 検知処理以降の処理の説明に先立ち、まず、表示部105に表示されるウィンドウについて説明する。図5は、検知処理の後に表示部105に表示されるGUIアプリケーションのウィンドウ500を示す図である。図5には、ウィンドウ500の画像表示領域501に、検知対象画像とひび割れ検知結果が表示されている様子を示している。図5に示す検知対象画像は、橋梁の壁面で、橋梁の床版511、橋脚512、513の壁面画像が平面図に貼り付けられた画像データであるとする。図5では、前述した検知処理のひび割れ検知結果521が、検知対象画像に重畳して検知結果画像として表示されている様子を示している。図5の画像表示領域501には、さらに、点線の矩形522で検知結果が不十分な領域が、不良部分として示されている。不良部分422は、不良部分設定部203で設定される。
 図3に戻り、先に説明したS301に続くS302において、不良部分設定部203は、不良部分を設定する。以下、この不良部分422の設定方法について説明する。本実施形態においては、ユーザが入力部106を介して、検知結果が不十分な領域を指定する。ユーザは、画像表示領域501に表示された検知結果を確認し、誤検知や未検知が存在する領域を不良部分として設定する。このために、情報処理装置100は、矩形や自由形状で画像表示領域501の部分領域を指定する機能を備えるものとする。また、情報処理装置100は、検知結果を確認するために、検知対象画像の拡大縮小表示の機能や、検知結果の表示、非表示を切り替える機能も備えるものとする。そして、不良部分設定部203は、ユーザ操作に従い、不良部分を設定する。
 なお、他の例としては、不良部分設定部203は、検知処理の結果に基づいて、不良部分を設定してもよい。以下では、ひび割れ検知において、不良部分を設定する3種類の方法を説明する。不良部分を設定する第1の方法として、検知結果を評価して不良部分を判定する処理について説明する。ここでは、具体的な判定方法として、短い検知結果が多い領域を不良部分とする方法について説明する。図6には、検知対象画像600のひび割れ検知結果を示す。ひび割れは、一般的には、ある程度の長さを持っているので、良好な検知結果は連続的な線として現れる。例えば、図6のひび割れ検知結果601は、良好な検知結果の例である。一方、検知処理の結果が不十分な場合、ひび割れ検知結果が不連続な途切れた結果として得られることがある。例えば、図6の検知結果602、603などは、本来、1つの連続したひび割れ検知結果として得られるべきひび割れが、不連続な検知結果として検知されたものである。
 このように不連続な検知結果が得られる原因は、例えば、このひび割れ部分の画像に対して、検知モデルが適しておらず、ひび割れ部分のスコアが高く算出さていないことが考えられる。画素毎のひび割れスコアは、後処理で閾値処理するが、検知モデルが適していない場合には、検知対象のひび割れのスコアが低い画素が閾値以下となってしまい、最終的な検知結果として残らない。この結果、検知結果のひび割れが不連続になってしまう。これを改善するためには、当該画像部分に適した検知モデルを再学習する対応や、後処理の閾値の値を調整する対応を行うことなどが必要になる。不良部分設定部203は、このように不連続な検知結果の領域を特定して、その領域を含む範囲を不良部分610として設定する。なお、図6の不良部分610は、矩形範囲で示しているが、不良部分の設定形状はこれに限らず、不連続な検知結果に沿った不定形状の範囲としてもよい。
 また、構造物壁面の汚れや凹凸などにより、誤検知が発生している領域も、短い検知結果が多い領域となる傾向にある。そこで、不良部分設定部203は、検知結果の局所領域毎に、短い検知結果の数を集計して、所定以上の短い検知結果を含む局所領域を不良部分として設定してもよい。また、不良部分設定部203は、短い検知結果を含むと判定した局所領域について、近傍の局所領域を連結して、ある程度の広さを持つ範囲を不良部分として設定してもよい。
 次に、不良部分を設定する第2の方法について説明する。第2の方法は、検知処理の中間情報であるスコアマップを利用して不良部分を設定する方法である。前述したように、スコアマップは、あるひび割れ検知モデルで、検知対象画像の各画素を識別した結果のスコアを格納したマップである。好ましいスコアマップは、ひび割れの部分にのみ高いスコアが記録されたデータである。ただし、ひび割れ検知の識別器は画像中のエッジに反応しやすく、現実的には、ひび割れ以外のエッジ部分(例えば、コンクリート壁面の目地など)にも比較的高いスコアが記録される。検知対象画像中に、コンクリート目地などのひび割れ以外のエッジが含まれることが一般的である。このため、ひび割れが存在しない領域であっても、スコアマップは画像エッジ部分にスコアが格納された強弱のあるマップになる。なお、このひび割れ以外のエッジ部分のスコアが後処理の閾値を超えると、ひび割れの誤検知結果となるが、真に好ましいスコアマップでは、ひび割れ以外のエッジ部分のスコアは閾値以下の値に収まる。
 一方、検知対象画像に適していない検知モデルで識別したときには、スコアがまったく出力されず、全ての画素がゼロ、またはゼロに近いスコアが格納される場合がある。また、画像中のどの部分でも同様のスコアが出力され、強弱のない平坦なスコアマップが得られることがある。このように平坦なスコアマップが得られる領域は、検知対象画像に検知モデルが適していないと推定することができる。このことから、不良部分設定部203は、スコアマップの局所領域毎に、スコアマップのスコアの平坦性を評価して、所定の基準よりも平坦なスコアマップを出力している部分領域を検知処理の不良部分として設定してもよい。
 スコアマップの局所領域の平坦性は、例えば、局所領域内のスコアの分布を集計し、分布の状態から判断すればよい。また、不良部分設定部203は、このスコアマップが平坦と判定した局所領域について、近傍の局所領域を連結して、ある程度の広さを持つ範囲を不良部分として判定するようにしてもよい。以上のような方法により、スコアマップを用いて検知処理の不良部分を設定することができる。なお、スコアマップを用いて不良部分を設定する方法は、この方法に限らず、他の方法を用いてもよい。
 次に、不良部分を設定する第3の方法について説明する。第3の方法は、検知対象画像が未知の画像である場合の設定方法である。前述したように、機械学習を用いたひび割れ検知では、学習していない画像に対する検知処理は不十分な結果になりやすい。具体的には、例えば、学習画像に含まれていない構造物壁面テクスチャが検知対象画像となった場合には、当該学習画像で学習した検知モデルでは、良好な検知結果を得ることは難しい。これに対し、第3の方法では、不良部分設定部203は、検知対象画像の局所領域毎に、局所領域が学習画像と類似しているかを判定し、類似していない局所領域を不良部分として設定する。
 このために、予め、学習データの画像セットと検知対象画像の類似度を算出する画像類似度判定機を作成し、情報処理装置100に登録しておくものとする。画像類似度判定機は、学習画像セットと検知対象画像の局所領域の類似度を算出することができるものであればよい。画像類似度判定機は、例えば、以下のような方法で実現できる。
 まず、学習画像セットの各画像から画像特徴量を抽出し、特徴空間での画像特徴量の分布を記録しておく。次に、検知対象画像の局所領域の画像からも画像特徴量を抽出し、学習画像セットの特徴量分布との距離の逆数を求めることで類似度を算出する。画像特徴量と学習画像セットの特徴量分布の距離は、分布の平均値と画像特徴量の距離を求めてもよいし、マハラノビス距離を用いて距離を求めてもよい。このようにして算出した類似度が所定以下であれば、検知対象画像の局所領域は、学習していない未知画像であり、検知結果の性能も期待することができない。従って、類似度が所定以下の局所領域を不良部分と設定する。
 以上、不良部分を自動的に設定する方法を3種類説明したが、不良部分の自動設定のための方法は、これらの方法に限定されない。不良部分設定部203は、検知処理の結果が不十分である部分、または不十分と推定される部分を不良領域として設定すればよい。
 さらに、上記のような方法により不良部分設定部203が自動的に設定した不良領域を、ユーザ操作に応じて修正することができるようにしてもよい。この場合、自動的に設定された不良部分を画像表示領域501に表示し(例えば、図5の点線の矩形522)、この不良部分の位置、サイズ、形状などを変更できるように、入力部106にGUIの機能を持たせればよい。さらに、自動的に設定された不良部分から、不適切なものをユーザが選択して消去できるようにしてもよい。さらに、ユーザが自動的に設定された不良部分に加えて、任意の領域を不良部分として設定できるようにしてもよい。これらの場合においては、不良部分設定部203は、ユーザ操作に応じて、不良領域を変更する。
 また、他の例としては、不良部分設定部203は、画素や局所領域毎に、検知結果の不良度を算出し、所定の閾値以上の不良度の領域を不良部分として設定してもよい。ここで、不良度は、画素や局所領域の検知結果が不良であるほど高くなる値であるとする。例えば、前述した第2の方法におけるスコアマップの平坦性を不良度としてもよいし、第3の方法における学習画像セットの特徴量分布との距離を不良度としてもよい。さらに、ユーザが、任意の不良度の閾値を設定することとし、不良部分設定部203は、設定された不良度の閾値以上の領域を不良部分として設定してもよい。この場合、入力部106及び表示部105では、GUIのスライダー等で、任意の不良度の閾値を設定できるようにする。また、設定した閾値により、不良部分と設定される領域が表示されるようにする。このようにすることで、ユーザは、不良度の閾値を調整しながら、所望の範囲が不良部分となるように調整することができるようになる。
 以上では、検知対象画像の部分画像領域を不良部分とする実施形態について説明したが、他の例としては、不良部分設定部203は、構造物の構造部分毎に不良部分の設定を行うようにしてもよい。例えば、図7には、床版701、橋脚702、703の3つの構造部分の検知対象画像を示している。この内、橋脚702の構造部分が不良部分710として判定されている。このように、構造物の構造部分毎に不良部分を判定する方法は、以下のようにして実施することができる。
 不良部分設定部203は、まず、前述のように、検知対象画像の部分画像領域毎に不良部分を判定する。そして、不良部分設定部203は、所定の構造部分ごとに、構造部分に含まれる不良部分の量や構造部分の領域に占める不良部分の割合を算出する。そして、不良部分設定部203は、これらの不良部分の量や割合が、所定以上となる構造部分を不良部分として設定する。
 これにより、不良部分の判定を構造物の構造部分毎に設定することができる。なお、図7の例では、不良部分を判定するための構造部分を床版と橋脚としたが、検知対象画像の分割方法はこの限りではなく、任意の分割方法で検知対象画像を分割してもよい。不良部分設定部203では、以上のような方法で、検知処理の結果の中から、検知処理の精度が不十分な画像領域、または、不十分と推定される画像領域を決定し、これを不良部分として設定する。
 図3に戻り、S302処理の後、S303にいて、修正コスト推定部208は、不良部分設定部203により設定された不良部分に基づいて、修正コストを算出する。本処理は、修正コストを推定する修正コスト推定処理の一例である。修正コスト推定部208は、修正コストとして、予測修正時間を算出する。ここで、予測修正時間は、修正コストを時間で表したもので、検知処理の結果をユーザが手動で修正したときに要する修正時間である。修正コスト推定部208は、不良部分として設定された画像領域の面積に基づいて、予測修正時間を算出する。不良部分は、検知処理の結果が不十分な領域であるため、ユーザは、この領域の検知結果を修正しなければならない。この修正作業について、単位面積当たりの修正時間を予め設定しておくことで、不良部分の画像領域面積に基づいて、修正時間を予測することができる。具体的には、修正コスト推定部208は、(式1)により、修正時間を算出してもよい。
Cr=f(a)=wa+b   ・・・(式1)
 ここで、Crは修正コスト(予測修正時間)、aは不良部分の面積、wは単位面積当たりの修正時間、bは修正を実施することにより発生する固定の作業時間(定数)である。修正コストとして算出された予測修正時間は、図5の修正コスト表示領域530に表示される。
 上記の例では、単純に不良部分の画像領域面積に基づいて修正コストを算出したが、他の例としては、修正コスト推定部208は、不良部分の画像特徴量に基づいて、修正コストを算出してもよい。例えば、修正コスト推定部208は、不良部分の画像特徴量に基づいて、不良部分の修正難易度を推定し、この修正難易度に基づいて修正コストを算出してもよい。例えば、不良部分の画像領域が、複雑なテクスチャのコンクリート壁面の場合には、ひび割れを判断することが難しく、修正作業に時間を要する。そこで、複雑なテクスチャの場合に、修正難易度が高い判断とする。また、不良部分の画像領域のひび割れの量が多いと予測される場合には、修正作業におけるひび割れの判断回数や入力回数が多くなる。したがって、このような場合に、修正難易度が高いと判断する。
 このような考えに基づいた修正難易度を算出するための具体的な方法について説明する。修正コスト推定部208は、例えば、不良部分の画像領域のエッジ強度やエッジ量に基づいて修正難易度を算出する。コンクリート壁面のテクスチャが複雑な場合や、ひび割れの量が多い画像領域には、強い画像エッジが多く存在する。そこで、本実施形態においては、修正コスト推定部208は、不良部分の画像領域に対して、エッジ抽出処理を実施し、不良部分のエッジ強度やエッジ量に基づいて修正難易度を算出する。具体的には、修正コスト推定部208は、不良部分の各画素のエッジ強度を集計し、修正難易度とする。また他の例としては、修正コスト推定部208は、不良部分の各画素について、エッジと判定するか否かの2値化処理を実施して、不良部分の領域においてエッジと判定した画素数を修正難易度としてもよい。
 修正コスト推定部208は、修正難易度を用いた修正コスト算出においては、修正難易度の値や修正難易度の高い不良部分の量に基づいて、修正コストを算出する。具体的には、例えば、修正難易度が高いほど、不良部分の単位面積当たりの修正時間が長くなるものとして、予め単位面積当たりの修正時間を設定しておく。そして、修正コスト推定部208は、不良部分の画像領域面積と、各不良部分の修正難易度と、各修正難易度の単位面積当たり修正時間に基づいて、修正時間を予測する。これにより、修正難易度の高い不良部分を多く含む場合には、長い修正時間が予測されるようになり、不良部分の画像特徴量に基づいて、修正コストを算出することができるようになる。
 なお、本実施形態においては、修正コスト推定部208は、修正コストとして修正に要する時間を算出することとしたが、修正コストは時間に限定されるものではない。他の例としては、修正コスト推定部208は、修正に要する金額を修正コストとして算出してもよい。ここで、修正コスト推定部208が修正コストとして金額を算出する例について説明する。
 まず、本実施形態においてひび割れ検知は、SaaSのサービス形態であるとした。ここでは、サービス提供側のオペレーターが、手動で検知結果を修正する有料オプションも提供しているものとする。そして、ユーザは、入力部106を介して、検知結果の不良部分の修正をオペレーターに委託する選択を行うことができるものとする。
 ユーザが、検知結果の不良部分の修正をオペレーターに委託する選択を行った場合には、修正コスト推定部208は、修正コストを修正作業の委託料金に切り替えて算出する。修正作業の委託料金は、予想修正時間と同様に、不良部分の面積や難易度に基づいて算出されるものとする。このように、修正コスト推定部208は、修正コストとして、金額を算出してもよい。また、ユーザが修正作業委託のオプションを選択しなくても、修正コスト推定部208は、修正コストとして、修正作業時間と委託料金の両方を算出することしてもよい。
 また、ユーザが修正作業委託のオプションを選択しなくても、修正コスト推定部208は、修正コストとして、修正作業時間と委託料金の両方を算出し、修正コスト表示領域530には、修正作業時間と委託料金の両方が表示されてもよい。これにより、ユーザは、自身で検知結果を修正する場合の予測時間と、修正作業を委託した場合の金額を比較して、自身で修正を行うか、修正作業の委託を行うかを判断することができる。
 図3に示すS303の処理の後、S304において、調整方法設定部206は、ユーザ操作に応じた調整指示を受け付け、調整指示に従い調整方法を設定する。ここで、ユーザ操作から調整指示を受け付ける処理は、調整指示受付処理の一例である。次に、S305において、調整コスト推定部209は、S304において設定された調整方法に対応した調整コストを算出する。ここで、調整コストとは、調整後の設定値にかかる検知処理を実行した場合に要するコストである。S305の処理は、調整コストを推定する調整コスト推定処理の一例である。
 ユーザは、検知結果が得られたときに、検知結果を修正するだけでなく、検知処理を調整して、再度、検知を実行して、検知結果の改善を試みることができる。このために、図5に示すウィンドウ500には、検知処理の調整方法を設定する調整領域540と、設定した調整方法に基づいて調整コストを表示する調整コスト表示領域531とが表示される。以下、検知処理の調整方法を設定する処理(S304)と、調整コストを算出する処理(S305)と、について説明する。
 まず、図5に示すウィンドウ500の調整領域540について説明する。調整領域540は、検知処理の検知モデルに関する調整を設定する領域541と、各種パラメータを設定する領域542を有している。前述したように、本実施形態の検知部202が実行する検知処理においては、検知対象画像に適した検知を行うために、検知モデルや検知処理のパラメータなどの設定を調整することができる。この調整方法については、複数の設定項目があり、調整領域540は、複数の調整方法を設定するための操作を受け付ける。
 例えば、検知モデルに関する調整方法の設定を行う領域541では、「検知モデルの切り替え」を設定する項目がある。この設定では、モデル格納部201に保存されている別の検知モデルに切り替えて検知処理を再実施する調整方法を選択することができる。なお、モデル格納部201には、異なる条件で学習した複数の検知モデルが保存されているものとする。
 また、さらに、「検知モデル再学習」の項目を選択すると、検知モデルの再学習を実施する設定を行うことができる。「検知モデル再学習」の設定では、さらに、「追加教師データ作成」を設定することにより、検知対象画像の一部に、教師データを入力することができる。これにより、検知対象画像の一部の画像と、対応する教師データを用いて、検知対象画像での検知に適した検知モデルを学習することができる。
 また、各種設定には、オプションを選択できるようにしてもよく、例えば、「追加教師データ作成」では、「教師データ作成委託」のオプション項目を選択することにより、サービスのオペレーターに教師データ入力を委託することができるようにしてもよい。また、「高速計算機利用」のオプション項目を備え、高速な計算機で学習させることを選択できるようにしてもよい。
 以上は、検知モデルに関する設定の一例であり、検知モデル設定を行う領域541に表示する内容は、これら以外の学習条件などを含んでもよい。また、図5には、項目を設定するために、各項目についてチェックボックスが表示される例を示しているが、項目の設定方法は、これに限定されるものではない。他の例としては、他のインターフェースを備えてもよい。例えば、各種の検知方法の調整の設定項目を順次、表示し、ユーザに設定の実施、または非実施を判断させるようにしてもよい。
 同様に、パラメータを設定する領域542には、検知処理の前処理や後処理などのパラメータを設定する項目が表示されている。図5には、これらの一例として、前処理の「明るさ調整」や「ノイズ除去強度」のパラメータを調整する設定を実施するインターフェースを示している。図5には、これらのパラメータの値を設定するために、スライダー543が表示される例を示している。なお、パラメータ設定の種類は、これらに限らず、他のパラメータを設定できるようにしてもよい。例えば、後処理におけるスコアマップの閾値処理の閾値の値を設定できるようにしてもよいし、後処理の検知結果ノイズのノイズ除去強度を調整するパラメータを設定できるようにしてもよい。
 図5には、調整領域540において、ユーザが各項目のオンオフやパラメータの値などの調整方法が設定された状態を示している。なお、ユーザが調整方法を設定する前の調整領域540の初期状態では、すべての調整項目の設定がブランクの状態となっている。図5においては、ユーザが選択した調整方法のチェックボックスに設定を実施する旨を示すチェックが入力されているが、初期状態は、これらすべてのチェックが外れている状態とする。また、図5のウィンドウ500には、前処理の明るさ調整のパラメータを設定する方法として、スライダー543を備えている。図5では、このスライダー543が操作されて、あるパラメータが設定されている状態を示している。初期状態では、このようなパラメータの数値も、予め決められた所定の値に設定されているものとする。
 なお、図5の例では、図5に示すように設定された調整方法に基づいて調整コストが算出され、調整コスト表示領域531に調整コストが表示されるが、初期状態においては、調整コスト表示領域531に調整コストは表示されない。また、他の例としては、初期状態においては、調整コストがゼロである旨が表示されてもよい。
 調整領域540の初期状態は、上記の内容に限らず、他の状態としてもよい。例えば、以前、ユーザが設定した検知方法の調整の設定を、ユーザの好みとして記録しておき、その設定内容を初期状態としてもよい。また他の例としては、検知対象の構造物と類似した過去の事例において設定した調整方法を呼び出して、これを初期状態としてもよい。類似した過去事例は、例えば、構造物の種類や特徴から過去の事例と調整方法を呼び出せるようにしておき、検知対象構造物の種類や特徴を入力することで、類似した構造物で設定した調整方法を呼び出して初期状態とする。なお、構造物の種類や特徴は、具体的には、橋梁やトンネルなどの構造物種類や、建築からの経過年数、構造物の場所、年平均気温、などの情報である。
 また、類似した過去事例は、画像特徴に基づいて選択するようにしてもよい。この場合、検知対象画像と、過去事例の画像の画像特徴量を抽出し、検知対象画像と最も類似する画像特徴量を有する過去事例を選択して、この過去事例で設定した調整方法を呼び出す。また、検知処理のパラメータの値については、S302で検知処理を実施したときのパラメータを設定の初期値として表示してもよい。具体的には、例えば、図5の「明るさ調整」のスライダー543の初期値を、検知処理を実施したときのパラメータとしてもよい。
 以上のように、調整領域540には、ユーザが検知処理の調整方法を設定するための表示とインターフェースが表示される。ユーザが、調整領域540において調整方法を設定すると、調整方法設定部206は、設定に係る調整指示を受け付ける。そして、調整方法設定部206は、調整指示に従い、調整方法を設定する。そして、調整コスト推定部209は、設定された調整方法が反映された検知処理に要するコストを調整コストとして算出する。
 本実施形態においては、調整コスト推定部209は、調整コストとして調整処理時間と調整金額とを算出する。以下、調整コストの算出方法について説明する。調整コスト推定部209は、予め各調整方法に対して処理時間や金額を設定しておき、ユーザが設定した調整方法の組み合わせに基づいて、各調整方法に設定された処理時間や金額を足し合わせることで調整処理時間や金額を算出する。各調整方法に対して設定する処理時間や金額は、調整方法ごとに必要となる時間や人件費、あるいは計算コストなどに基づいて予め設定されているものとする。
 例えば、検知モデルの学習を実施する設定は、学習処理を実施するために長時間の計算処理を実施する必要があるため、処理時間がかかり、また計算機を使用するための料金も発生する。従って、検知モデルの学習を実施する調整方法は、他の調整方法と比べて処理時間や金額が高く設定されている。また、学習のためには、検知対象画像の一部に対してひび割れ位置を示す教師データを作成する必要があり、これをオペレーターに委託するオプションを設定すると、教師データ作成のための時間や、人件費が発生する。従って、このオプションには、調整コストの処理時間や金額に大きな値が設定されている。
 逆に、この教師データ作成を委託するオプションを外し、ユーザが自ら教師データを作成することを選択すると、調整コストは低下する。なお、図5の調整領域540には、教師データを作成するモードへ移行するボタン544が設けられている。このボタン544をクリックすることにより、検知対象画像の一部に対してひび割れ位置を示す教師データを作成するためのツールが起動する。この教師データ入力ツールは、図5の画像表示領域501に直接、ひび割れ位置を入力するためのツールでもよいし、図5に示すGUIアプリケーションと異なる別のアプリケーションでもよい。
 また、予め教師データの入力が必要な最低限の画像サイズを設定しておき、検知対象画像に、教師データの入力が必要な範囲を示すようにしてもよい。さらに、その教師データ入力範囲に対して、ユーザが教師データを入力するために必要な時間を予測して、教師データ入力ツールに表示するようにしてもよい。教師データ入力の予測時間は、修正コストの修正時間と同様に算出することができる。具体的には、単位面積当たりの教師データ入力時間を予め設定しておくことで、教師データ入力範囲の面積に基づいて、教師データ入力時間を予測することができる。
 また、図5に示す調整領域540では、「検知モデル再学習」をオン、且つ、「追加教師データ作成」をオフの設定にすることにより、教師データを作成せずに検知モデルの再学習を実施する方法を選択することもできる。この設定を選択すると、既存データのみを用いて、検知対象画像に適した検知モデルを学習することを試みる。なお、既存データとして、十分な量とバリエーションのコンクリート壁面の画像と、この画像のひび割れ位置を示す教師データの組を記憶したデータベースがHDD104に格納されているものとする。検知部202は、データベースから、検知対象画像と類似した既存データを収集し、収集した既存画像データで検知モデルを再学習することで、検知対象画像に適した検知モデルを学習することができる。
 検知対象画像と類似した既存データを収集する方法は、どのような方法を用いてもよいが、例えば、以下のようにして実施する。まず、データベースの各既存画像の画像特徴量を抽出し、特徴量空間でクラスタリングする。これにより、既存画像の中で類似した画像がクラスタ化される。また、各クラスタについて、クラスタ中心などの代表特徴ベクトルを算出しておく。検知対象画像の特徴量と、各代表特徴ベクトルの距離を算出し、最も距離が近いクラスタを特定する。このクラスタに含まれる既存画像と、その教師データを、検知対象画像と類似した既存データとする。なお、最近傍クラスタに含まれるデータ数が少ない場合には、上位n近傍のクラスタのデータを既存データとしてもよい。
 これにより、追加の教師データを作成することなく、検知対象画像に適した検知モデルを学習することができる。これにより、追加教師データを作成する調整コストを削減しながら、検知処理を調整することができる。しかし、一般には、追加の教師データを作成して検知モデルを学習した方が、高い検知精度が得られる可能性が高い。ユーザは、調整コストが上昇しても確実に高い検知精度が得られる調整方法を設定するか、調整コストを下げた調整方法を設定するかを選択することができる。
 また、さらに、「高速計算機利用」のオプションを付けることにより、検知モデルの学習を短時間で実施することができる。これにより、調整コストの処理時間を短くすることができる。一方、「高速計算機利用」のオプションは、計算機利用量がかかるため高い金額が設定されており、調整コストの金額は上昇する。
 以上では、検知モデル学習の調整方法設定に関する調整コストの算出について説明したが、これ以外の検知処理の調整方法の設定についても同様に、それぞれの調整方法について、実施のコストとして処理時間や金額を関連付けておく。例えば、「検知モデル切り替え」を選択すると、新しく選択した検知モデルによる再検知処理の処理時間、及び計算のための計算機利用の料金が調整コストとして加算される。検知モデルを切り替えて再検知する場合は、学習処理を必要としないので、学習処理を選択した場合に比べて、処理時間や金額の加算は少なくなり、調整コストは比較的小さな値となる。以上では、検知モデル設定に関する調整コストについて説明したが、同様に、前処理や後処理のパラメータ調整の実施の設定も、それぞれの設定に対して処理時間や金額が設定されており、調整方法の設定状態に合わせて、調整コストが算出される。
 以上では、調整方法設定領域440に設定された調整方法に基づいて、調整コストを算出する方法について説明したが、調整コストの算出には、これ以外の情報も用いてもよい。例えば、調整コスト推定部209は、検知対象画像の情報も用いて調整コストを算出してもよい。検知対象画像の情報を用いる場合の具体的な例としては、調整コスト推定部209は、検知対象画像の画像サイズの情報を用いて調整コストを算出してもよい。検知対象画像の画像サイズによって、検知処理の処理時間は変化する。従って、検知処理の処理時間や実施の料金を画像サイズに基づいて重みづけて算出することで、検知対象画像に基づいた調整コストを算出することができる。検知対象画像の情報を用いて調整コストを算出する方法は、画像サイズを用いた方法に限らず、他の情報を用いてもよい。
 なお、上記S303の処理と、S304の処理の処理順番は実施形態に限定されるものではない。他の例としては、S304及びS305の処理の後にS303の処理を実行することとしてもよい。
 S305の処理の後、S306において、表示制御部207は、検知結果、修正コスト及び調整コストを表示するよう制御する。具体的には、図5に示すウィンドウ500を表示する。修正コスト表示領域530には、修正コストとして予測修正時間が表示される。なお、上述のように修正コストとして金額が算出された場合には、修正コスト表示領域530には、修正コストとして金額が表示される。また、修正コストとして修正時間と金額の両方が算出された場合には、両方が修正コストとして表示される。調整コスト表示領域531には、調整コストとして処理時間と金額の2種類の情報が表示される。
 これにより、ユーザが手動で修正を行うか、検知処理の設定を調整して再度検知処理を実行するか、の判断のための情報とすることができる。ユーザは、これらの情報を参照して、検知結果が不十分な場合に、検知結果を手動で修正する対応と、再び検知処理を実施する対応のコストを比較して、適切な判断を行うことができる。すなわち、ユーザは、検知結果を採用して修正を手動で実施するか、検知処理を調整して再び検知処理を実行するかを、時間や金額で比較しながら判断することができる。
 なお、修正コストや調整コストの表示は、ユーザの操作に基づいて、随時更新される。例えば、ユーザが調整領域540の調整方法の設定を変更した場合には、調整コスト推定部209は、最新の設定内容に基づいて調整コストを算出し、表示制御部207は、調整コスト表示領域531の調整コストを更新する。また、ユーザが検知結果の不良部分の範囲を変更した場合には、修正コスト推定部208は、変更された不良部分に基づいて修正コストを算出し、表示制御部207は、修正コスト表示領域530の修正コストを更新する。このように、調整方法や不良部分の状態によって修正コストと調整コストは変化するため、ユーザは調整方法や不良部分の変えながら、修正コストと調整コストを比較し、検知結果に対する対応を検討することができる。
 なお、このように、調整方法や不良部分を変化させると、修正コストと調整コストが変化する。情報処理装置100は、適切な設定を探索するために、これらの状態を記録することができる。図5に示すようにウィンドウ500には、「保存」ボタン560と「読込」ボタン561が表示されている。これらのボタンにより、ある時点に設定された調整方法と不良部分、及び、それらから算出される調整コストと修正コストのセットを保存したり、読み込んだりすることができる。また、保存した複数の調整コストと修正コストのセットを比較表示する機能を備えてもよい。この機能では、調整コストと修正コストのセットが一覧表示される。これにより、ユーザが、複数の調整コストと修正コストのセットを比較して、適切な調整コストと修正コストを示す調整方法と不良部分の設定を選択することができるようになる。
 設定した調整方法により、再び検知を実施する場合には、ウィンドウ500の「調整実行」ボタン551をクリックする。本処理が行われると、S306に続くS307において、検知部202は、調整実行指示を受け付けたと判断し(307でYES)、処理をS308へ進める。ここで、調整実行指示は、検知処理の再実行指示の一例である。S308において、CPU101は、設定された調整方法に応じた検知処理の設定の変更を行う。例えば、モデル学習部205は、設定された調整方法に基づいて、検知対象画像に適した検知モデルを学習して、検知処理に用いる検知モデルに設定する。また例えば、検知部202は、検知処理のパラメータを設定する。
 これらの準備が完了すると、CPU101は、処理をS301へ進める。この場合、S301においては、パラメータなどが変更(設定)された検知処理を行う。同様に以降の処理を実行し、修正コストと調整コストを算出し、さらに検知処理の調整を実施するかをユーザに問い合わせる。ユーザが検知結果を受け入れて、調整を実施しないと判断した場合には、ウィンドウ500の「終了」ボタン550をクリックし、一連の処理を終了する。ユーザは引き続き、必要に応じて検知結果の修正作業を実施する。なお、検知結果の調整を繰り返し複数回実行した場合には、調整内容に応じて、支払いの料金が加算されていく。この支払いが必要となる累積金額を表示部に表示するようにしてもよい。
 以上のように、本実施形態にかかる情報処理装置100は、調整コストと修正コストを算出し、これらを比較可能に表示することができる。したがって、ユーザは、表示された調整コストと修正コストを確認し、検知処理を調整するか、検知結果を修正するかを選択することができる。ユーザは、適切な検知結果をより低コストで得るための方法を選択することができる。すなわち、情報処理装置100は、コストを抑えつつ適切な検知結果を得るための仕組みを提供することができる。
 第1の実施形態の第1の変形例について説明する。情報処理装置100は、調整コストが所定値以上になる項目を記憶しておき、図5の検知処理の調整領域540において、設定すると調整コストが所定値以上になる項目を、予め強調して表示してもよい。また他の例としては、情報処理装置100は、設定したときに加算される処理時間や金額を、項目と共に表示してもよい。これにより、ユーザは、どの項目を設定すると調整コストが上昇するかを確認しながら、検知処理の調整方法を選択することができる。
 また、第2の変形例としては、情報処理装置100は、検知結果の一部から正解率を算出し、全体の不良部分の面積を推定してもよい。この場合、情報処理装置100は、検知対象画像の一部に対応するひび割れの正解データを取得し、正解データに対応する部分領域において、正解データと検知結果を比較する。そして、情報処理装置100は、検知結果が正解とならなかった部分を不良部分とする。
 この方法では、検知対象画像全体においては、不良部分を明確に設定することはできない。そこで、情報処理装置100は、検知対象画像全体においても、正解データに対応した部分領域と同様の割合で不良部分が存在すると仮定して、検知対象画像にこの割合を適用して、全体の不良部分の量(不良部分の画像面積)を推定する。具体的には、情報処理装置100は、正解データに対応する部分領域に対して不良部分が占める割合を算出する。そして、情報処理装置100は、検知対象画像の全体の面積に、不良部分の割合を乗じた値を、検知対象画像の全体における不良部分の面積として推定する。このように、情報処理装置100は、不良部分を明確に設定することなく、不良部分の面積を推定することとしてもよい。
 また、第3の変形例としては、情報処理装置100による検知処理は機械学習を用いた処理に限定されるものではない。他の例としては、情報処理装置100は、ひび割れの検知処理をエッジ抽出などの画像処理によりひび割れの検知処理を行ってもよい。この場合には、情報処理装置100は、検知処理の調整においては、エッジ抽出に関するパラメータを調整するものとする。
 (第2の実施形態)
 次に、第2の実施形態に係る情報処理装置について、第1の実施形態に係る情報処理装置と異なる点を主に説明する。図3を参照しつつ説明したコスト表示処理においては、S307において、調整実行指示を受け付ける度に、異なる設定での検知処理が実行され、異なる設定での検知結果に対応した検知結果が得られる。検知処理の設定が異なると、設定毎に検知結果の良好部分及び不良部分が異なる場合がある。第2の実施形態の情報処理装置は、不良部分が単独の検知結果よりも少なくなるように、複数の異なる検知結果を部分的に組み合わせて合成検知結果を作成する。これにより、情報処理装置は、単独の検知結果よりも、精度の高い検知結果を作成することができる。
 図8は、第2の実施形態に係る情報処理装置800の機能構成図である。情報処理装置800は、情報処理装置100の機能構成に加えて、検知結果格納部801と、検知結果合成部802と、を有している。検知結果格納部801は、検知部202による検知結果と、不良部分設定部203により設定された不良部分を記憶する。検知結果合成部802は、検知結果格納部801に格納されている検知結果を合成する。
 図9は、第2の実施形態に係るコスト表示処理を示すフローチャートである。なお、図9に示すコスト表示処理の各処理のうち、図3を参照しつつ説明した第1の実施形態に係るコスト表示処理の各処理と同一の処理には、同一の番号を付している。第2の実施形態に係るコスト表示処理においては、CPU101は、S302の処理の後、処理をS901へ進める。S901において、検知結果合成部802は、検知結果を合成し、合成検知結果を得る。そして、表示制御部207は、合成検知結果を表示するよう制御する。なお、S301における検知処理が1回しか行われていない状態、すなわち初回のS901の処理においては、検知結果は1つしか存在しない。したがって、初回のS901の処理においては、検知結果合成部802は、S301において得られた検知結果と不良部分を検知結果格納部801へ格納する。異なる設定がなされた検知処理が繰り返し行われることで、検知結果格納部801には複数回の検知処理による複数の検知結果が格納されていく。CPU101は、その後処理をS303へ進める。
 また、S307において調整実行指示を受け付け、初回の検知処理と異なる設定で、再度S301における検知処理が実行されたとする。この場合、同ループ処理におけるS901において、検知結果合成部802は、検知結果格納部801に記憶されている過去の検知結果と不良部分を読み出す。ここで、検知結果格納部801に記憶されている検知結果は、直前のループ処理における検知処理の設定値の調整前の検知結果である。さらに、検知結果合成部802は、次回以降の検知結果合成処理に備えて、直前のS301の検知処理において得られた検知結果と直前のS302の不良部分設定処理において得られた不良部分を検知結果格納部801に格納する。そして、検知結果合成部802は、過去の検知結果及び不良部分と、直前のS301及びS302の処理(現ループで実行された処理)において得られた検知結果及び不良部分と、を組み合わせることで、合成検知結果を作成する。
 図10は、検知結果合成処理(S901)の説明図である。図10は、検知対象画像と、ひび割れ検知の検知結果と、検知結果の不良部分を示している。図10においては、橋梁の複数の構造部分の検知対象画像を示している。ここでは、検知対象画像には、1つの床版と、2つの橋脚が含まれているものとする。検知結果1010,1020は、同一の検知対象画像に対して行われた、異なる設定の検知処理に対する検知結果である。ここで、検知結果1010は、検知結果格納部801から読み出した過去の検知結果であり、検知結果1020は、現ループにおいて得られた最新の検知結果とする。なお、検知結果1010における1011は床版、1012,1013は橋脚を示している。同様に、検知結果1020における1021は床版、1022,1023は橋脚を示している。
 2つの検知結果1010,1020は、異なる設定の検知処理に対応した検知結果であるため、検知結果及び不良部分が異なる。図10においては、点線1001,1002,1003,1004が不良部分に設定された領域を示している。なお、図10の例では、不良部分は、図7において説明したのと同様に、構造部分毎に設定されている。
 S901の処理では、検知結果1010と検知結果1020を合成し、合成検知結果1030を生成する。検知結果合成部802は、この処理において、合成により、単独の検知結果よりも不良部分が少なくなるように、部分領域毎によい検知結果を採択する。図10の例では、検知結果合成部802は、検知結果1020の床版1021を合成検知結果1030の床版1031として採用している。また、検知結果合成部802は、検知結果1010の橋脚1013を合成検知結果1030の橋脚1033として採用している。ここで、床版1021と橋脚1013は、いずれも良好な検知結果と推定される部分である。したがって、これらを組み合わせて作成した合成検知結果1030においては、検知結果1010,1020に比べて不良部分が減少している。このように、検知結果を合成することにより、より好ましい検知結果を作成することができる。
 なお、合成検知結果1030における橋脚1032は、検知結果1020の橋脚1022、すなわち不良部分である。良好な検知結果が得られていない構造部分については、不良部分と判定された検知結果を採用する必要がある。検知結果合成部802は、良好な検知結果が得られていない構造部分については、不良部分の検知結果が複数存在する場合には、複数の検知結果のうち、不良度が最も低い検知結果を合成検知結果に採用するものとする。ここで、不良度は、検知結果が不良であるほど高くなる値である。例えば、構造部分に含まれる不良部分の割合を不良度とする。なお、不良部分の検知結果から1つの検知結果を採用するための判断基準は実施形態に限定されるものではない。他の例としては、表示制御部207が複数の検知結果を表示し、検知結果合成部802は、ユーザにより選択された検知結果を採用してもよい。また、他の例としては、検知結果合成部802は、複数の不良部分からランダムに選択した検知結果を採用してもよい。
 以上のように、S901において、検知結果合成部802は、複数の検知結果から部分的に良好な検知結果を採用して、単独の検知結果よりも不良部分が減少した合成検知結果を作成する。ループ2回目以降のS901においては、検知結果合成部802は、合成検知結果を検知結果として作成する。
 なお、上記の説明では、過去の検知結果1010と、現在の検知結果1020の2つの検知結果を合成する例について説明したが、合成する検知結果は2つに限らない。例えば、検知結果が3回以上繰り返された場合には、検知結果格納部801には、3以上の検知結果が格納される。この場合には、検知結果合成部802は、3以上の検知結果に基づいて、合成検知結果を作成する。
 また、検知対象画像の同部分に対して、複数の良好な結果(不良部分でない結果)が得られる場合がある。この場合には、これらの良好部分の中から、合成検知結果に採用する検知結果を選択する必要がある。この場合、検知結果合成部802は、前述の複数の不良部分から合成検知結果に採用する検知結果を選択するのと同様の方法で複数の良好な検知結果から1つの検知結果を採用すればよい。具体的には、検知結果合成部802は、良好部分についても不良度を算出し、不良度が最も低い検知結果を合成検知結果に採用する検知結果として選択すればよい。また、検知結果合成部802は、不良度に限らず、検知結果の良好な度合いを示す良好度を各検知結果について算出し、この良好度に基づいて、検知結果を選択するようにしてもよい。また、検知結果合成部802は、複数の不良部分からの選択方法と同様に、ユーザ操作に応じて選択された検知結果を選択してもよく、ランダムに検知結果を選択してもよい。なお、第2の実施形態に係る情報処理装置100のこれ以外の構成及び処理は、他の実施形態に係る情報処理装置100の構成及び処理と同様である。
 第2の実施形態の第1の変形例について説明する。検知結果格納部801には、ループ初回を除き、常に合成検知結果を格納することとしてもよい。そして、検知結果合成部802は、検知結果の合成処理において、検知結果格納部801に格納された過去の合成検知結果と、最新の検知結果を合成してもよい。この場合、ループ2回目以降のS901の処理においては、検知結果合成部802は、検知結果を合成した後に、合成検知結果を検知結果格納部801に上書き保存する。これにより、S901において、検知結果合成部802は、常に2つの検知結果を合成するだけで、過去のループの複数の検知結果を組み合わせた合成検知結果を作成することができる。
 第2の変形例について説明する。第2の実施形態の情報処理装置100は、構造物の構造部分毎に検知結果を組み合わせるものとした。ただし、検知結果を組み合わせる分割部分は、これに限定されるものではない。他の例としては、情報処理装置100は、連続した画像の部分領域毎に、複数の検知結果を組み合わせることとしてもよい。具体的には、図5の画像表示領域501に示すように、画像中の任意の領域で設定された不良部分を有する検知結果を複数用意する。そして、検知結果合成部802は、これらの検知結果を、不良部分が少なくなるように、部分領域毎に組み合わせて、合成検知結果を作成する。なお、ひび割れのような連続性を持つ検知結果が、不良部分の境界を跨ぐように存在する場合は、検知結果の合成が難しくなる。従って、この場合は、不良部分の範囲を設定するときに、ひび割れ検知結果が不良部分の境界を跨がないような範囲を不良部分として設定することが好ましい。
 第3の変形例について説明する。実施形態においては、情報処理装置100は、S301において、検知処理を1回実行するものとしたが、これにかえて、異なる設定の検知処理を同時に行うこととしてもよい。そして、情報処理装置100は、S901において、S301において得られた複数の検知結果を合成する。以下では、この変形例について説明する。
 情報処理装置100は、まず、ループ初回の検知処理(S301)では、異なる設定の複数の検知処理を実行する。ここで、異なる設定の検知処理は任意である。情報処理装置100は、例えば、モデル格納部201に予め格納された複数の検知モデルを呼び出して、検知処理毎に異なる検知モデルを用いてもよい。また、他の例としては、情報処理装置100は、検知処理の前処理や後処理に異なるパラメータを設定して、複数の設定の異なる検知処理として用いてもよい。これらの設定は、予め決められた複数の設定としてもよいし、ランダムで設定するとしてもよい。
 この検知処理結果により、検知対象画像に対して、複数の検知結果が得られる。S302において、不良部分設定部203は、各検知結果に対して、不良部分を設定する。次に、S901において、検知結果合成部802は、S301において得られた複数の検知結果とS302において得られた複数の不良部分の情報を用いて、合成検知結果を作成する。
 さらに、本変形例において、情報処理装置100は、検知精度を向上させるための検知処理の調整について、複数の異なる調整方法を同時に設定してもよい。例えば、複数の異なる検知モデル学習条件を設定することにより、複数の新規な検知モデルを学習することとしてもよい。また、ループ初回の検知処理と同様に、既存の検知モデルを複数選択することや、前処理や後処理のパラメータを複数設定することができるようにしてもよい。このように検知処理の調整方法を設定することにより、2回目以降のループでの検知処理(S301)でも、複数の異なる設定で検知処理が実行され、複数の異なる検知結果が得られる。情報処理装置100は、以降の処理では、同様に、これらの複数の検知結果を合成して、合成検知結果を作成すればよい。
 (第3の実施形態)
 次に、第3の実施形態に係る情報処理装置100について、他の実施形態に係る情報処理装置100と異なる点を主に説明する。第3の実施形態に係る情報処理装置100は、不良部分に基づいて、検知処理の有効な調整方法を推定する。第3の実施形態に係る情報処理装置100は、さらに調整の効果を予測し、検知処理の調整を実施するか否かの判断のための情報として、予測結果をユーザに提示する。第3の実施形態の情報処理装置100においては、調整方法設定部206は、調整方法を設定するだけでなく、不良部分に基づいて、有効な調整方法を推奨調整方法として特定する。本処理は、方法特定処理の一例である。調整方法設定部206はさらに、各種調整方法を設定して検知処理を実施したときの検知結果の改善効果、すなわち改善の期待値を推定する。本処理は、期待値推定処理の一例である。
 まず、不良部分に基づいて、有効な調整方法を予測する処理について説明する。本実施形態においては、情報処理装置100は、不良部分の判定に複数の方法を実施し、どの判定方法で不良部分と判定されたかに応じて、有効な調整方法を予測する。以下においては、第1の実施形態において説明した、検知結果を評価して不良部分を判定する方法と、スコアマップを利用して不良部分を判定する方法を用いて、不良部分を判定する場合を例に説明する。なお、以下においては、検知結果を評価して不良部分を判定する方法及びスコアマップを利用して不良部分を判定する方法をそれぞれ第1の方法及び第2の方法と称する。
 ここで、ある部分領域が、第1の方法で不良部分と判定されたとする。前述の通り、第1の方法で不良部分と判定される原因の一つとして、後処理の閾値が適切な値でないことがある。従って、第1の方法で不良部分と判定された場合には、調整方法設定部206は、パラメータ調整、特に後処理の閾値調整を有効な調整方法として予測する。一方、ある部分領域が、第2の方法で不良部分と判定されたとする。第2の方法は、スコアマップの状態に基づいて不良部分を判定する方法であり、スコアマップが好ましくないということは、検知対象画像に検知処理で用いた検知モデルが適していないことを示している。従って、第2の方法で不良部分と判定された場合には、調整方法設定部206は、検知モデルの変更や再学習を有効な調整方法として予測する。
 さらに、表示制御部207は、不良部分単位で、有効な調整方法、すなわち効果が期待できる調整方法を表示する。例えば、図5に示すウィンドウ500において、不良部分522が選択された場合に、表示制御部207は、不良部分522の検知結果を改善するために好ましいと予測された調整方法を表示する。
 さらに、調整方法設定部206は、このようにして得られた各不良部分の好ましい調整方法を統合して、検知対象画像全体の好ましい調整方法も予測する。調整方法設定部206は、例えば、各不良部分で予測された有効な調整方法を集計し、最も出現回数の多い調整方法を検知対象画像全体に対する推奨調整方法として特定する。そして、表示制御部207は、予測された推奨調整方法に係る各項目の設定値を、調整領域540において初期の設定値として表示する。
 調整コスト推定部209は、さらに、調整方法の設定状態に基づいて、検知処理を調整して再検知処理を実施した場合の検知結果の修正コストを予測する。具体的には、まず、不良部分設定部203が調整により検知結果が改善すると予測される不良部分を決定する。そして、修正コスト推定部208は、修正コストの算出に用いる不良部分から、これらの改善が予測される不良部分を除いて修正コストを算出する。そして、表示制御部207は、この修正コストを「調整による予測修正コスト」として、通常の修正コストと比較できるように表示する。この表示により、ユーザは、検知処理の調整を実施することにより、検知結果がどの程度改善するかの効果の予測を、修正の時間や金額で比較することができるようになる。
 さらに、情報処理装置100は、ユーザが選択した調整方法に基づいて、検出処理の設定を調整して再び検知処理を実施したときの効果を予測する。以下、この検知処理の調整による検知結果の改善の効果を調整効果と呼ぶ。図11は、第3の実施形態に係るウィンドウ500の表示例を示す図である。図11に示すウィンドウ500には、調整効果表示領域1101が設けられている。調整効果表示領域1101には、調整領域540の設定状態に応じて予測した調整効果の期待度が5段階のマークで表示される。
 調整方法設定部206は、調整領域540の設定状態に応じて、検知結果の改善が期待できる不良部分の数や面積に基づいて、調整効果の評価値を算出する。具体的には、調整方法設定部206は、上述のように有効な調整方法を予測する。そして、調整方法設定部206は、調整領域540の設定の状態と、各不良部分の有効な調整方法を比較して、検知結果の改善が期待できる不良部分の数や面積を集計する。そして、調整方法設定部206は、この改善が期待できる不良部分の数や面積が多いほど、調整効果が高くなるような値を調整効果の評価値として算出する。
 調整効果の算出方法は、実施形態に限定されるものではない。例えば、検知対象画像に教師データを入力して検知モデルを学習する調整方法は、これまでに一度も実施していない場合には大きな性能改善が期待できる。従って、これまでの調整において、検知対象画像に教師データを入力して検知モデルを学習する調整方法を実施していない状態で、この調整方法を設定している場合には、調整効果が大きいと予測する。このように、調整方法の各項目について、それぞれを選択したときの効果を予め設定しておき、この情報に基づいて調整効果を予測するようにしてもよい。なお、第3の実施形態に係る情報処理装置100のこれ以外の構成及び処理は、他の実施形態に係る情報処理装置100の構成及び処理と同様である。
 以上のように、第3の実施形態に係る情報処理装置100においては、調整方法設定部206は、調整方法を設定するだけでなく、不良部分に基づいて、有効な調整方法を推奨調整方法として特定する。調整方法設定部206はさらに、各種調整方法を設定して検知処理を実施したときの検知結果の改善効果、すなわち改善の期待値を推定する。ユーザは、推奨調整方法を用いた場合の期待度を確認することができるので、より効果的な調整方法を選択することができる。
 第3の実施形態の第1の変形例について説明する。調整効果の表示方法は実施形態に限定されるものではない。他の例としては、表示制御部207は、調整効果の期待度を数値で表してもよい。また、他の例としては、表示制御部207は、調整により検知結果が改善すると予測される不良部分の領域を強調表示するようにしてもよい。不良部分の領域の強調表示は、例えば、当該領域を半透明色で塗りつぶす方法や、当該領域を囲う線を点滅表示させる方法などがある。
 第2の変形例について説明する。推奨調整方法を予測するための方法は実施形態に限定されるものではない。他の例としては、情報処理装置100は、不良部分を含む検知結果と、その検知結果を適切に改善するための調整方法の組データを大量に準備して、検知結果から適切な調整方法を予測することができる予測モデルを学習し、格納しておくものとする。そして、情報処理装置100は、この予測モデルに基づいて、推奨調整方法を予測してもよい。
 (第4の実施形態)
 以上の実施形態においては、検知対象画像が構造物壁面の画像で、検知対象がコンクリート壁面のひび割れなどの変状である場合を例に説明した。ただし、検知対象画像や検知対象は、上述してきた実施形態に限定されるものではない。第4の実施形態においては、検知対象画像及び検知対象が上記実施形態と異なる例を説明する。
 情報処理装置100は、修正を加えてでも検知結果を利用したい、というケースへ適用することが好適である。このようなケースとして、例えば、機械学習のための教師データを作成する状況がある。さらに具体的な例として、例えば、モニタリング用のカメラにおける人体検知を考える。まず、予め、一般的な画像で人体の検知モデル(以下、既存モデル)が学習されているとする。モニタリングカメラは、カメラを設置した環境で人体を検知することが求められるが、設置環境は様々であるので、既存モデルが、必ずしもカメラ設置環境に適しているとは限らない。従って、人体検知の精度を向上させるためには、カメラの個別の環境に合わせて、人体検知の検知モデルを学習することが望ましい。
 この目的を達成するためには、個別のカメラ設置環境での画像を収集し、その画像で人体検知モデルを学習するための学習データを作成する必要がある。学習データ作成の作業は、まず、検知モデルを学習する対象のカメラが撮影した動画の各フレームを切り出した大量の画像を、学習画像データセットとして準備する。そして、この学習画像データセットの各画像について、人体位置を示す教師データを入力する。この作業により、画像と教師データの組の学習データが作成される。
 ここで、大量の画像に対して、全ての人体位置を示す教師データを入力することは、非常に手間のかかる作業である。そこで、情報処理装置100は、まず、教師データ入力対象の画像に、既存モデルを用いて人体検知処理を行う。検知結果が正しい部分は、検知結果をそのまま教師データとすることができるため、教師データ入力の作業が大幅に削減される。一方、未検知や誤検知など、検知結果が誤っている部分は、そのままでは教師データとして利用することができないため、修正を行う必要がある。そこで、情報処理装置100は、検知結果に対して不良部分を設定し、不良部分の量などに基づいて修正作業時間などの修正コストを表示する。これにより、教師データ作成のために、どの程度の修正作業が必要かを見積もることができる。
 一方、単純に既存モデルで学習データセットの画像に検知処理を実施した場合、検知処理は学習データセットの画像に対して調整されていないので、不十分な検知結果となることもある。検知結果が不十分な場合、修正作業時間が膨大になるため、よりよい検知結果を基にして教師データを作成したいという要望がある。ここで、既存モデルを用いた検知処理も、他の既存モデルを用いることや、各種パラメータを変更することなどの検知処理の調整を行うことで、検知結果の精度を向上させることができる。この検知処理の調整は、検知対象画像である学習画像データセットに対して、検知処理が最適になるように、ユーザが各種の検知処理の項目を設定するものである。情報処理装置100は、このような検知処理の項目を調整することができる。この検知処理の調整により、検知結果の精度を向上させた結果を用いることで、教師データの作成のための修正作業を減少させることができる。ユーザは、検知処理を調整して、よりよい検知結果を取得して、教師データ作成の元データとしたいが、検知処理の調整作業を実施すると、再検知処理の時間などの調整コストがかかる。
 なお、本実施形態においても、情報処理装置100は、修正コストを算出するために、既存モデルの検知結果が不十分な部分を不良部分として判定する必要がある。第1~第3の実施形態においては、検知対象画像の部分領域を不良部分としたが、本実施形態の情報処理装置100は、画像単位で不良部分を判定する。すなわち、本実施形態においては、学習画像データセットが他の実施形態における検知対象画像であり、その一部分である画像1枚が不良部分として判定される単位領域となる。したがって、情報処理装置100の不良部分設定部203は、学習画像データセットの全画像に対して検知処理を実施して、検知が不十分と推定される画像をピックアップして、これを学習画像データセットの中の不良部分として設定する。
 不良部分の判定方法は限定されるものではないが、不良部分設定部203は、例えば、既存モデルで対応できない未知の画像を不良部分としてもよい。既存モデルの未知画像の判定には、第1の実施形態で説明した画像類似度判定機を用いた方法を適用することができる。これにより、例えば、未知の照明条件や明るさの画像が不良部分として判定される。また、異常な数の人体が検知された画像は、誤検知が大量に発生している可能性がある。そこで、不良部分設定部203は、このような画像を不良部分として設定してもよい。このように、不良部分設定部203は、検知結果の異常を不良部分として検出してもよい。
 修正コスト推定部208は、修正コストについては、第1の実施形態において説明したのと同様に、不良部分に基づいて算出する。本実施形態の情報処理装置100は、画像毎に不良部分を設定するため、修正コストは、例えば、不良部分とされた画像枚数に基づいて算出すればよい。情報処理装置100は、具体的には、予め、画像1枚当たりの修正時間を設定しておく。そして、修正コスト推定部208は、不良部分として設定された画像枚数と画像1枚当たりの単位修正時間に基づいて、修正時間を算出する。
 また、修正コスト推定部208は、第1の実施形態において説明したのと同様に、画像内容に基づいて、修正コストを算出するようにしてもよい。調整コスト推定部209は、例えば、画像中の人体群衆を検知する検出器を備え、人体群衆を含む画像を判定する。人体群衆の画像に対して、人体位置を正確に入力する作業は、非常に時間を要する。従って、修正コスト推定部208は、学習画像データセットの人体群衆画像枚数に基づいて、修正コストを算出するようにしてもよい。この場合も、同様に、人体群衆画像の1枚当たりの単位修正時間を設定しておき、修正コスト推定部208は、人体群衆画像枚数に基づいて、修正コストを算出する。
 また、調整コスト推定部209は、調整コストの算出については、第1の実施形態において説明したのと同様に実行する。調整コスト推定部209は、具体的には、人体の検知モデルの学習に関する調整項目や、検知処理の前処理や後処理に係るパラメータの調整の設定に基づいて、調整に必要な時間や金額を調整コストとして算出する。なお、第4の実施形態に係る情報処理装置100のこれ以外の構成及び処理は、他の実施形態に係る情報処理装置100の構成及び処理と同様である。
 図13には、第4の実施形態に係るGUIアプリケーションのウィンドウ1300を示す。図13は、図5の変形であるため、第1の実施形態で説明した部分については、説明を省略し、第1の実施形態と異なる部分についてのみ説明を行う。まず、ウィンドウ1300には、学習画像データセットを表示した領域1310がある。この領域1310には、学習画像データセットを構成する各画像が、画像1311に示されるようにサムネイルとして一覧表示されている。また、各画像には、チェックボックス1312が対応付けられている。それぞれのチェックボックスがオンの場合には、そのチェックボックスに対応する画像が不良部分であることを示している。第4の実施形態での不良部分判定は、前述したように、不良部分設定部203により自動的に検知結果が不十分な画像を判定する。この判定結果で、不良部分と判定された画像のチェックボックスが自動的にオンとなる。さらに、ユーザが目視により、各画像を不良部分とするか否かを判定して、チェックボックスのオン/オフを操作して、不良部分の設定を修正することができるようにしてもよい。
 また、ウィンドウ1300には、1枚の画像を表示する領域1320を備える。領域1320には、サムネイル一覧の画像から選択された1枚の画像が表示される。図13の例では、サムネイル一覧を表示する領域1310のうち、点線1313が、領域13020に表示される画像として選択された画像を示す。領域1320には、点線1313で囲われたサムネイルに対応する画像1321が表示されている。ここで表示される画像1320は、撮影された画像について、既存モデルを用いて人体検出処理を実施した結果が重畳された検知結果画像である。画像1321には、人体1322が写っており、人体1322を囲う矩形のオブジェクトで示される検知結果1323が画像に重畳表示されている。なお図13に示す例では、画像1321には、検知結果1324のように、背景部分に大量の誤検知が発生している。具体的には、人体が存在しない部分に検知結果を示す矩形が重畳されている。これにより、不良部分設定部203は、この画像が不良部分であると判定しており、この結果、点線1313で囲われた部分のチェックボックスは、オンの状態となっている。また、ユーザは、学習データセットのうち他の画像の検知結果を確認するため、領域1310に表示されたサムネイル一覧から他の画像を選択することができる。また、ボタン1325の操作により、領域1320に表示される画像を前後の画像に変更する操作を入力ことができる。
 ウィンドウ1300には、以上のように、人体検知処理の検知結果を示す画像と、検知結果の不良部分の情報が表示される。また、第1の実施形態と同様に、不良部分の情報から修正コストの情報が算出され、修正コスト表示領域1330に修正コストが表示される。さらに、設定した検出の調整方法に基づいて、調整コストが算出され、調整コスト表示領域1331に調整コストが表示される。ユーザは、この情報に基づいて、得られた検知結果を元に、人体検出の学習用の教師データを作成するか、検知方法を調整して、再度、学習データセットに対して検知処理を実行するかを検討することができる。
 なお、図13で示した画面情報の生成および出力処理は、第1の実施形態と同様に、表示制御部207により実行される。
 第4の実施形態の第1の変形例について説明する。第4の実施形態においては、撮影した動画をフレーム画像に分割して用いる実施形態について説明したが、検知処理の対象は画像に限らず動画でもよい。なお、情報処理装置100は、連続したフレームの範囲を不良部分と判定するようにしてもよい。
 第2の変形例としては、情報処理装置100は、画像中の部分領域だけでなく、画像単位や連続したフレーム部分を不良部分とするようにしてもよい。このように、不良部分は、検知対象の一部であれば、どのような部分でもよい。
 第3の変形例について説明する。第4の実施形態においては、画像からの人体検知を例として、画像単位で不良部分を判定する実施形態について説明した。しかし、画像からの人体検知においても、第1の実施形態において説明したのと同様に、画像の部分領域を不良部分として判定してもよい。情報処理装置100は、例えば、検知対象画像の検知結果について、局所的に検知結果の数が多い部分領域は、誤検知が発生している可能性が高いとして、不良部分として設定するようにしてもよい。
 第4の変形例について説明する。第4の実施形態においては、インフラ構造物のコンクリート壁面の点検以外の用途にも情報処理装置100を適用できることを、人体検知のための教師データ作成を例に説明した。ただし、情報処理装置100の適用はこれらに限定されるものではない。他の例としては、情報処理装置100は、生産設備における外観検査において、異常を検知する検知モデルを学習するための教師データを作成する場合にも適用することができる。
 (第5の実施形態)
 図12は、第5の実施形態に係る情報処理システムの構成例を示す図である。図12Aは、SaaSを用いた情報処理システムの一形態の説明図である。図12Aでは、ユーザが操作するクライアント装置1200が、インターネット1203を介して、サービス提供側システム1201に接続している。図12Aでは、図2に示す、表示制御部207以外のすべての機能をサービス提供側システム1201が実行する。そして、クライアント装置1200は、ユーザ操作に応じた情報を受け付け、これをサービス提供側システム1201に送信する。また、クライアント装置1200は、サービス提供側システム1201から図5を参照しつつ説明したウィンドウ500の表示内容等を受信し、これらを表示する。このように、クライアント装置1200は、ユーザインタフェースとして機能する。
 この構成により、軽い処理のみをクライアント装置1200で実行し、検知処理などの計算量が多い処理は、高性能なサービス提供側システム1201で実行することができる。これにより、ユーザは安価で処理能力の低いクライアント装置を準備するだけで、サービスを受けることができるようになる。
 また、本実施形態のSaaSの構成では、複数のユーザがサービス提供側システム1201を利用する。具体的には、図12Aでは、ユーザは、インターネット1203を介して、サービス提供側システム1201を利用する。この場合、サービスの稼働状況に応じて、調整コストを算出するようにしてもよい。
 具体的には、例えば、他のユーザが新規の検知モデルを学習して、サービス提供側システム1201の計算機能を専有している場合は、この学習が完了しないと、学習を実行することができない。従って、調整方法の設定において、検知モデルの学習を選択した場合、通常よりも学習完了に時間がかかることが予測される。調整コスト推定部209では、このように、サービス提供側システム1201の稼働状況を鑑みて、調整処理の時間を予測し、この結果を調整コストとして出力してもよい。
 また、調整コスト推定部209は、調整コストの算出に用いるサービスの稼働状況として、サービス提供側システム1201の稼働状況のみならず、他の情報を用いてもよい。例えば、検知処理の調整において、教師データの作成を委託するオプションを選択すると、オペレーターが教師データ作成の作業を実施する。ここで、他のユーザが教師データ作成委託を実施している場合には、オペレーターは、この教師データ作成作業が完了しないと、次の教師データ作成委託を受けることができない。従って、調整方法の設定において、教師データ作成の委託を選択した場合、通常よりも調整処理に時間がかかることが予測される。調整コスト推定部209では、このように、オペレーターの作業状況を鑑みて、調整処理の時間を予測し、この結果を調整コストとして出力するようにしてもよい。
 さらに、また、ユーザの実行結果をサービス提供側システム1201に蓄積し、調整方法の初期値の設定に活用するようにしてもよい。具体的には、サービス提供側システム1201は、様々なユーザが実行した調整方法の設定を蓄積しておき、頻度の高い設定項目や、設定の組み合わせを特定する。そして、クライアント装置1200は、この設定を調整方法の初期値として、表示部に表示する。
 また、不良部分設定部203は、同様に、不良部分の設定に関するパラメータを、ユーザの実行結果に基づいて決定してもよい。例えば、まず、不良領域の自動設定について、第1の実施形態の第3の方法では、学習画像との類似度を算出し、類似度が所定以下の領域を不良部分とした。この場合には、「類似度が所定以下」を判定するための閾値がパラメータとなる。この閾値パラメータが不適切であると、不良部分が適切に設定されないため、ユーザは不良部分を修正することになる。従って、ユーザの実行結果として、不良部分を修正しなかったケースの閾値パラメータを蓄積して、その最頻値や平均値を求めることで、適切な類似度の閾値を算出することができる。このように、適切にパラメータが算出された後には、このパラメータを用いて不良部分を設定するようにすればよい。
 図12Bは、情報処理システムの他の形態の説明図である。図12Bには、図12Aとは異なる処理構成として、オンプレミスサーバ装置1211を備える構成を示す。図12Bでは、クライアント装置1210、オンプレミスサーバ装置1211、サービス提供側システム1212の協働により図2を参照しつつ説明した各機能を実行する。例えば、サービス提供側システム1212は、計算量が多い検知部202として機能する。クライアント装置1210は、図12Aの例と同様にユーザインタフェースとして機能する。オンプレミスサーバ装置1211は、図2に示す検知部202以外の構成として機能する。
 このような処理分配にすることで、不良部分の修正などのユーザ操作に合わせて、コストを計算した結果の応答が早くなり、ユーザの操作のストレスが軽減される。また、検知対象画像や学習モデルに機密性がある場合には、自社内のオンプレミスサーバ装置1211に、これらの情報を格納するようにしてもよい。この場合、オンプレミスサーバ装置1211には、例えば、モデル格納部201などの情報を格納する構成を備える。
 以上、上述した各実施形態によれば、コストを抑えつつ適切な検知結果をえるための仕組みを提供することができる。
 以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
 (その他の実施例)
 本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
 本発明は上記実施の形態に制限されるものではなく、本発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、本発明の範囲を公にするために以下の請求項を添付する。
 本願は、2018年11月30日提出の日本国特許出願特願2018-225992を基礎として優先権を主張するものであり、その記載内容の全てをここに援用する。

Claims (20)

  1.  少なくとも1つの設定を調整可能な検知処理により、処理対象の画像から、検知対象を検知する検知手段と、
     前記検知手段による検知結果を修正する場合に必要となる修正コストを推定する修正コスト推定手段と、
     前記検知処理の設定を前記検知対象に合わせて調整する場合に必要となる調整コストを推定する調整コスト推定手段と、
     前記修正コストと前記調整コストを比較可能に表示手段に表示するよう制御する表示制御手段と
     を有することを特徴とする情報処理装置。
  2.  前記修正コスト及び前記調整コストは、時間又は金額で表されることを特徴とする請求項1に記載の情報処理装置。
  3.  前記修正コストとは、前記検知手段による検知結果に含まれる不良部分を、前記検知処理を再度実行することなく修正することで低減する場合に必要となるコストであって、前記調整コストとは、前記検知処理の手段による検知結果に含まれる不良部分を、前記設定を調整した検知処理を実行することによって低減する場合に必要となるコストである
     ことを特徴とする請求項1または2に記載の情報処理装置。
  4.  前記調整コスト推定手段は、前記ユーザによる選択された調整方法に従った調整を行う場合に必要となる前記調整コストを推定することを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
  5.  前記検知処理は、前記検知対象を含むことが既知である学習用の画像と、前記画像における前記検知対象の位置を示す教師データを用いて学習された検知モデルを用いた処理であり、
     前記調整コストには、前記検知モデルの再学習に要するコストを含むことを特徴とする請求項1乃至4の何れか1項に記載の情報処理装置。
  6.  前記表示制御手段はさらに、前記表示手段に、前記検知処理に設定される複数のパラメータを選択可能であるように表示し、
     前記調整コスト推定手段は、前記表示されたパラメータのうち、前記ユーザによって選択されたパラメータの調整を行う場合に必要となる前記調整コストを推定することを特徴とする請求項5に記載の情報処理装置。
  7.  前記パラメータには、前記検知モデルによる検知処理の前または後に前記処理対象の画像に実行される画像処理のパラメータを含むことを特徴とする請求項6に記載の情報処理装置。
  8.  前記検知処理による前記検知結果の不良部分を設定する設定手段をさらに有し、
     前記修正コスト推定手段は、設定された前記不良部分に基づいて、前記修正コストを推定することを特徴とする請求項1乃至7の何れか1項に記載の情報処理装置。
  9.  前記表示制御手段はさらに、前記表示手段に、前記処理対象の画像と、前記検知結果とを重ねた結果画像を表示し、
     前記設定手段は、前記ユーザにより前記結果画像上で示された領域を前記不良部分として設定することを特徴とする請求項8に記載の情報処理装置。
  10.  前記設定手段は、前記検知処理の結果に基づいて、前記不良部分を設定することを特徴とする請求項8に記載の情報処理装置。
  11.  前記検知処理は、前記検知対象を含むことが既知である学習用の画像と、前記画像における前記検知対象の位置を示す教師データを用いて学習された検知モデルを用いた処理であり、前記設定手段は、前記検知対象の画像と前記学習用の画像との類似度に基づいて前記不良部分を設定することを特徴とする請求項10に記載の情報処理装置。
  12.  前記検知対象は、壁面におけるひび割れであって、
     前記設定手段は、前記ひび割れの検知結果の長さに基づいて、前記不良部分を設定することを特徴とする請求項10に記載の情報処理装置。
  13.  前記修正コスト推定手段は、前記不良部分の面積に基づいて、前記修正コストを推定することを特徴とする請求項8乃至12の何れか1項に記載の情報処理装置。
  14.  前記修正コスト推定手段は、前記不良部分の画像特徴量に基づいて、前記修正コストを推定することを特徴とする請求項8乃至13の何れか1項に記載の情報処理装置。
  15.  前記検知手段は、前記検知処理の再実行指示を受け付けた場合に、前記設定の調整後の前記検知処理により、前記検知対象を検知し、
     調整前の設定における前記検知処理により得られた検知結果と、前記再実行指示に係る検知処理により得られた検知結果を合成する合成手段をさらに有し、
     前記表示制御手段は、前記合成手段により合成された前記検知結果を表示することを特徴とする請求項1乃至14の何れか1項に記載の情報処理装置。
  16.  前記不良部分に基づいて、推奨調整方法を特定する方法特定手段をさらに有し、
     前記表示制御手段は、前記方法特定手段により特定された前記調整方法を表示することを特徴とする請求項6乃至15の何れか1項に記載の情報処理装置。
  17.  前記推奨調整方法を用いた検知処理における、検知結果の改善の期待値を推定する期待値推定手段をさらに有し、
     前記表示制御手段は、前記期待値推定手段により推定された前記期待値を表示することを特徴とする請求項16に記載の情報処理装置。
  18.  情報処理装置が実行する情報処理方法であって、
     少なくとも1つの設定を調整可能な検知処理により、処理対象の画像から、検知対象を検知する検知ステップと、
     前記検知ステップにおける検知結果に基づいて、前記検知結果の修正に要する修正コストを推定する修正コスト推定ステップと、
     前記検知処理の設定の調整に要する調整コストを推定する調整コスト推定ステップと、前記修正コストと前記調整コストを比較可能に表示手段に表示するよう制御する表示制御ステップと
     を含むことを特徴とする情報処理方法。
  19.  情報処理装置に読み込ませ実行させることによって、前記情報処理装置を、
     少なくとも1つの設定を調整可能な検知処理により、処理対象の画像から、検知対象を検知する検知手段と、
     前記検知手段による検知結果を修正する場合に必要となる修正コストを推定する修正コスト推定手段と、
     前記検知処理の設定を前記検知対象に合わせて調整する場合に必要となる調整コストを推定する調整コスト推定手段と、
     前記修正コストと前記調整コストを比較可能に表示手段に表示するよう制御する表示制御手段として機能させることを特徴としてコンピュータ読み取り可能なプログラム。
  20.  請求項19に記載のプログラムを格納したコンピュータ読み取り可能な記憶媒体。
PCT/JP2019/044804 2018-11-30 2019-11-15 情報処理装置、情報処理方法及びプログラム WO2020110766A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/326,179 US20210271913A1 (en) 2018-11-30 2021-05-20 Information processing apparatus, information processing method, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018225992A JP7391504B2 (ja) 2018-11-30 2018-11-30 情報処理装置、情報処理方法及びプログラム
JP2018-225992 2018-11-30

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/326,179 Continuation US20210271913A1 (en) 2018-11-30 2021-05-20 Information processing apparatus, information processing method, and storage medium

Publications (1)

Publication Number Publication Date
WO2020110766A1 true WO2020110766A1 (ja) 2020-06-04

Family

ID=70853234

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/044804 WO2020110766A1 (ja) 2018-11-30 2019-11-15 情報処理装置、情報処理方法及びプログラム

Country Status (3)

Country Link
US (1) US20210271913A1 (ja)
JP (1) JP7391504B2 (ja)
WO (1) WO2020110766A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022045066A1 (ja) * 2020-08-24 2022-03-03 パナソニックIpマネジメント株式会社 検査支援装置、検査支援システム、検査支援ネットワークシステム、検査支援方法、及びプログラム
WO2023152793A1 (ja) * 2022-02-08 2023-08-17 三菱電機株式会社 亀裂検査装置、亀裂検査システム、および亀裂検査方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2022215382A1 (ja) * 2021-04-05 2022-10-13
WO2022249266A1 (ja) * 2021-05-25 2022-12-01 日本電気株式会社 不正検知システム、不正検知方法およびプログラム記録媒体
JP7228310B1 (ja) * 2022-08-04 2023-02-24 株式会社センシンロボティクス 情報処理システム及びプログラム、情報処理方法、サーバ

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002056122A (ja) * 2000-08-11 2002-02-20 Bs Proje:Kk 見積りシート及び見積りシステム
JP2002183338A (ja) * 2000-12-14 2002-06-28 Hitachi Ltd 損害評価方法および情報処理装置ならびに記憶媒体
JP2012141862A (ja) * 2011-01-05 2012-07-26 Hitachi Ltd プラントの制御装置及び火力発電プラントの制御装置
JP2014153906A (ja) * 2013-02-08 2014-08-25 Honda Motor Co Ltd 検査装置、検査方法及びプログラム
WO2017138220A1 (ja) * 2016-02-12 2017-08-17 ソニー株式会社 情報処理方法および情報処理装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6265634B2 (ja) 2013-06-25 2018-01-24 川田テクノシステム株式会社 路面補修支援装置、路面補修支援プログラム、及び路面補修支援方法
JP6576473B2 (ja) * 2016-01-22 2019-09-18 富士フイルム株式会社 ひび割れ情報編集装置、ひび割れ情報編集方法およびひび割れ情報編集プログラム
US10692050B2 (en) 2016-04-06 2020-06-23 American International Group, Inc. Automatic assessment of damage and repair costs in vehicles
US20180124437A1 (en) * 2016-10-31 2018-05-03 Twenty Billion Neurons GmbH System and method for video data collection
WO2018165753A1 (en) * 2017-03-14 2018-09-20 University Of Manitoba Structure defect detection using machine learning algorithms
KR20190053675A (ko) * 2017-11-10 2019-05-20 삼성전자주식회사 전자 장치 및 그 동작 방법
JP2019108755A (ja) 2017-12-19 2019-07-04 川田テクノシステム株式会社 路面補修支援装置、路面補修支援プログラム、及び路面補修支援方法
JP7050824B2 (ja) * 2018-02-02 2022-04-08 富士フイルム株式会社 画像処理装置及び画像処理方法
WO2020059706A1 (ja) * 2018-09-20 2020-03-26 富士フイルム株式会社 学習用データ収集装置、学習用データ収集方法、及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002056122A (ja) * 2000-08-11 2002-02-20 Bs Proje:Kk 見積りシート及び見積りシステム
JP2002183338A (ja) * 2000-12-14 2002-06-28 Hitachi Ltd 損害評価方法および情報処理装置ならびに記憶媒体
JP2012141862A (ja) * 2011-01-05 2012-07-26 Hitachi Ltd プラントの制御装置及び火力発電プラントの制御装置
JP2014153906A (ja) * 2013-02-08 2014-08-25 Honda Motor Co Ltd 検査装置、検査方法及びプログラム
WO2017138220A1 (ja) * 2016-02-12 2017-08-17 ソニー株式会社 情報処理方法および情報処理装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022045066A1 (ja) * 2020-08-24 2022-03-03 パナソニックIpマネジメント株式会社 検査支援装置、検査支援システム、検査支援ネットワークシステム、検査支援方法、及びプログラム
WO2023152793A1 (ja) * 2022-02-08 2023-08-17 三菱電機株式会社 亀裂検査装置、亀裂検査システム、および亀裂検査方法

Also Published As

Publication number Publication date
JP7391504B2 (ja) 2023-12-05
US20210271913A1 (en) 2021-09-02
JP2020085869A (ja) 2020-06-04

Similar Documents

Publication Publication Date Title
WO2020110766A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP6693938B2 (ja) 外観検査装置
US10275833B1 (en) Automatic building assessment
US10824906B2 (en) Image processing device, non-transitory computer readable storage medium, and image processing system
US20210281748A1 (en) Information processing apparatus
US11378522B2 (en) Information processing apparatus related to machine learning for detecting target from image, method for controlling the same, and storage medium
JP7104799B2 (ja) 学習用データ収集装置、学習用データ収集方法、及びプログラム
JP6707920B2 (ja) 画像処理装置、画像処理方法、およびプログラム
CN110264444B (zh) 基于弱分割的损伤检测方法及装置
KR20190088089A (ko) 용접 표면 결점 검출 장치 및 방법
US11836961B2 (en) Information processing apparatus, information processing method, and storage medium for determining whether a captured image of a subject is suitable for recognition processing
CN110596120A (zh) 玻璃边界缺陷检测方法、装置、终端及存储介质
CN110046570B (zh) 一种粮仓粮食库存动态监管方法和装置
JP2021165888A (ja) 情報処理装置、情報処理装置の情報処理方法およびプログラム
JP2021196705A (ja) 画像処理装置、画像処理方法およびプログラム
JP7387261B2 (ja) 情報処理装置、情報処理方法及びプログラム
WO2019009214A1 (ja) 画像から変状を検知する画像処理装置、画像処理方法及びプログラム
CN113167742A (zh) 混凝土构造物的点检辅助装置、点检辅助方法及点检辅助程序
JP6347589B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN110895716A (zh) 检查装置以及机器学习方法
JP2019075078A (ja) 工事現場画像判定装置及び工事現場画像判定プログラム
CN111797993A (zh) 深度学习模型的评价方法、装置、电子设备及存储介质
JP6708695B2 (ja) 検査装置
JP2020140518A (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
JP2020177429A (ja) 情報処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19889691

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19889691

Country of ref document: EP

Kind code of ref document: A1