WO2021039731A1 - 摩耗量測定システム - Google Patents

摩耗量測定システム Download PDF

Info

Publication number
WO2021039731A1
WO2021039731A1 PCT/JP2020/031866 JP2020031866W WO2021039731A1 WO 2021039731 A1 WO2021039731 A1 WO 2021039731A1 JP 2020031866 W JP2020031866 W JP 2020031866W WO 2021039731 A1 WO2021039731 A1 WO 2021039731A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
image
wear amount
feature point
wear
Prior art date
Application number
PCT/JP2020/031866
Other languages
English (en)
French (fr)
Inventor
崇 奥村
弘樹 高見
史十 岩崎
聡志 猪瀬
金野 浩之
Original Assignee
日立建機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立建機株式会社 filed Critical 日立建機株式会社
Publication of WO2021039731A1 publication Critical patent/WO2021039731A1/ja

Links

Images

Classifications

    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/24Safety devices, e.g. for preventing overload
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M13/00Testing of machine parts
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M13/00Testing of machine parts
    • G01M13/02Gearings; Transmission mechanisms
    • G01M13/021Gearings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume

Definitions

  • the present invention relates to a wear amount measuring system that calculates the amount of wear of a part of a part from an image including a part of a work machine.
  • Patent Document 1 obtains an image of a worn part of a work machine, measures the worn edge of the worn part from the acquired image, and wears from the result of the measured wear edge.
  • a wear determination system that identifies the wear state of a part has been proposed.
  • the present invention has been made in view of these points, and an object of the present invention is to measure the amount of wear that can more accurately measure the amount of wear of a part of a part from an image including a part of a work machine. Provide a system.
  • the wear amount measuring system is a wear amount measuring system including a calculation device for calculating the wear amount of the parts from an image captured including the parts of the work machine.
  • the learning image including a specific type of part of the work machine and a plurality of feature points for specifying the shape of the part where the part is worn in the learning image are used as training data to extract the feature point. It is provided with a feature point extraction unit that is machine-learned and extracts feature points of the portion in the captured image from the captured image, and a wear amount calculation unit that calculates the wear amount of the portion from the feature points.
  • the feature point extraction unit includes a learning image including a specific type of component of a work machine, and a plurality of feature points that specify the shape of a portion where the component wears in the learning image.
  • the teacher data the extraction of feature points is machine-learned. Therefore, for example, when the captured image captures the shape of the part of the component at an imaging angle at which the amount of wear can be calculated, feature points are extracted, but the captured image is captured at such an imaging angle. If not, the feature points are not extracted.
  • the feature points are extracted from the captured image in which the amount of wear can be calculated accurately, the amount of wear of the part of the part can be measured more accurately from the image including the part of the work machine.
  • FIG. 1 It is a schematic side view of the work machine which is the object of measurement of the wear amount measuring system which concerns on 1st to 3rd Embodiment of this invention. It is a schematic conceptual diagram of the wear amount measurement system which concerns on 1st Embodiment of this invention. It is a block diagram of the arithmetic unit of the wear amount measurement system shown in FIG. It is a block diagram for demonstrating the machine learning of the part detection part and the feature point extraction part shown in FIG. It is a schematic diagram which showed the image for learning by the part detection part shown in FIG. It is a schematic diagram which showed the learning image by the feature point extraction part shown in FIG. It is a schematic diagram which displayed the result by the part detection part and the feature point extraction part shown in FIG.
  • FIG. 11 in an image. It is a schematic diagram for demonstrating the correction by the feature point correction part shown in FIG. It is a work flow figure by the wear amount measuring system shown in FIG. It is a block diagram which concerns on the modification shown in FIG. It is a block diagram of the arithmetic unit of the wear amount measurement system which concerns on 3rd Embodiment of this invention. It is a schematic diagram which set the shooting guide in the captured image of the tooth of the bucket of the work machine shown in FIG. It is a schematic diagram which set the region and the feature point in the learning image of the tooth shown in FIG. 17A. It is a schematic diagram which displayed the region and the feature point in the captured image of the tooth.
  • FIG. 20A It is a schematic diagram in which a shooting guide is set in the captured image of the roller of the work machine shown in FIG. It is a schematic diagram which set the region and the feature point in the learning image of the roller shown in FIG. 18A. It is a schematic diagram which displayed the region and the feature point in the image taken by the roller. It is a schematic diagram in which a shooting guide is set in the captured image of the shoe plate of the work machine shown in FIG. It is a schematic diagram which set the region and the feature point in the learning image of the shoe plate shown in FIG. 19A. It is a schematic diagram which displayed the region and the feature point in the image taken by the shoe plate. It is a schematic diagram in which a shooting guide is set in the captured image of the link of the work machine shown in FIG. It is a schematic diagram which set the region and the feature point in the learning image of the link shown in FIG. 20A. It is a schematic diagram which displayed the area and the feature point in the captured image of a link.
  • the work machine 5 to be measured for wear is not particularly limited, but is, for example, a hydraulic excavator or the like.
  • the wear amount measurement system 1 of the present embodiment an example of the configuration of the work machine 5 to be measured by the wear amount measurement system 1 of the present embodiment will be described first, and then the wear amount measurement system 1 of the present embodiment will be described in detail.
  • the work machine 5 has a crawler type traveling body 51, a swivel body 52 rotatably provided on the traveling body 51, and an articulated type mounted on the swivel body 52 as a hydraulic load. It is equipped with a front working machine 53.
  • a cabin 54 is provided on one side of the front left and right sides of the swivel body 52, and a front working machine 53 that rotates in the vertical direction to perform work such as excavation is provided in the center of the front portion of the swivel body 52.
  • a counterweight 56 for maintaining the balance of the weight of the machine body is provided at the rear part of the turning body 52.
  • the traveling body 51 is provided with an idler 51A1 at the front end and a sprocket 51A2 driven by a traveling motor (not shown) at the rear end.
  • a link (link assembly) 51B is bridged between the idler 51A1 and the sprocket 51A2, and a roller 51C for supporting the link 51B is provided between the idler 51A1 and the sprocket 51A2.
  • a shoe plate 51D to be installed on the ground is attached to the link 51B.
  • the front work machine 53 is, for example, a machine provided on the front side of the swivel body 52 and driven by a hydraulic drive device to perform work such as excavation work.
  • a boom 53A, an arm 53B, and a bucket 53C are connected to each other, and these are operated by hydraulic cylinders 53a, 53b, and 53c.
  • a plurality of teeth (claw portions) 53D are fixed to the tip of the bucket 53C at intervals in the width direction.
  • the wear amount measuring system 1 measures the wear amount of the teeth 51a of the sprocket 51A2, and in the third embodiment, the wear amount of the parts of these parts is measured. Measure. In the first and second embodiments, the amount of wear of each of these parts shown in the third embodiment may be measured individually, and the portion of the part to be worn is not particularly limited.
  • the wear amount measurement system 1 is a part of a component constituting a work machine 5 imaged by a plurality of communication terminals 3, 3, ... It is a device that calculates the amount of wear of the portion by the arithmetic device 3A of each communication terminal 3 and the arithmetic device 2A of the server 2 via the network.
  • the wear amount measuring system 1 includes the server 2.
  • a series of applications for calculating the wear amount of the part from the image of the part described above can be installed in the storage unit 3b of the arithmetic unit 3A.
  • it may be composed of only each communication terminal 3.
  • the server 2 includes at least an arithmetic unit 2A, and the arithmetic unit 2A includes an arithmetic unit 2a composed of a CPU and the like, and a storage unit 2b composed of a ROM, a RAM, and the like.
  • the storage unit 2b stores teacher data such as a learning image described later, a program for executing the site detection unit 21 and the feature point extraction unit 22, and the calculation unit 2a stores these.
  • a device that executes a program In this specification, the site detection unit 21 and the feature point extraction unit 22 shown in FIGS. 3 and 3 are shown as parts for executing the program stored in the storage unit 2b in the calculation unit 2a.
  • the server 2 is accessible by, for example, each pre-registered communication terminal 3, and receives calculation results such as an image captured by each communication terminal 3 and the amount of wear of a portion, and these results are stored in a storage unit. It may be stored in 2b.
  • the communication terminal 3 is a general mobile terminal or tablet terminal, and includes an arithmetic unit 3A, a touch panel display 3D, and an image pickup device 3E.
  • the arithmetic unit 3A includes an arithmetic unit 3a composed of a CPU and the like, and a storage unit 3b composed of a ROM, RAM and the like.
  • the storage unit 3b stores a program for executing the image acquisition unit 33, the extraction determination unit 34, the wear amount calculation unit 37A, and the like, which will be described later, and the calculation unit 3a is a device that executes this program.
  • the image acquisition unit 33, the extraction determination unit 34, the wear amount calculation unit 37A, and the like shown in FIGS. 3 and 3 are shown as parts in which the program stored in the storage unit 3b is executed by the calculation unit 3a. ..
  • the touch panel display 3D is composed of a display device 3B and an input device 3C.
  • the display device 3B is a display screen, and displays images and images captured by the image pickup device 3E, calculation results calculated by the calculation device 3A, and the like.
  • the input device 3C is a device in which an operator inputs predetermined data or the like to the arithmetic unit 2A.
  • the input device 3C is a feature of a part of a component described later, which is displayed on an input button (icon) and a display device (display screen) 3B in which an operator inputs a command signal for acquiring an image to the image pickup device 3E. It has a marker (icon) that corrects the position of the point.
  • the image pickup device 3E is a device for capturing a digital image and a digital image of a digital camera or the like, and in the present embodiment, the image pickup device 3E is a device for displaying an image (moving image) at a predetermined timing according to the activation of an application for executing wear measurement. Display on 3B. However, this moving image is not recorded in the storage unit 3b.
  • the image acquisition unit 33 uses the image (moving image) displayed on the display device 3B, and the image pickup device 3E acquires the captured image (still image). This captured image is recorded in the storage unit 3b.
  • the arithmetic unit 2A of the server 2 includes an identification device 20 including a site detection unit 21 and a feature point extraction unit 22 as software.
  • the identification device 20 identifies the teeth 51a of the sprocket 51A2 from the above-mentioned image of the sprocket, is generated by the learning unit 40 (see FIG. 4) installed in the storage unit 2b of the server 2, and is generated by the calculation unit 2a. Is executed by.
  • the identification device 20 may be provided in the arithmetic unit 3A of the communication terminal 3. Since FIG. 3 is a block diagram for explaining the utilization by the part detection unit 21 and the feature point extraction unit 22, which are trained models, the learning unit 40 used in the learning phase is omitted in FIG. ing.
  • the site detection unit 21 detects the position of the tooth, which is the site of the component, from the image of the sprocket 51A2 as a component of the work machine 5.
  • the site detection unit 21 includes a learning image including the sprocket 51A2 as a specific type of component of the work machine 5, and a region of teeth 51a (specifically, a rectangular region) which is a wearable portion of the sprocket 51A2 in the learning image. ) Is used as teacher data, and the detection of the region of the tooth 51a is machine-learned from this teacher data. Therefore, the site detection unit 21 detects the region of the teeth 51a of the sprocket 51A2 in the captured image from the captured image (specifically, the image acquired by the image acquisition unit 33) captured by the imaging device 3E.
  • the site detection unit 21 includes a local feature amount extraction unit 21a, an object classifier 21b, and a region identification unit 21c.
  • the local feature amount extraction unit 21a extracts the local feature amount of the image while selecting a region to be a rectangular plurality of pixels included in the captured image by shifting by a predetermined number of pixels.
  • HOG Heistograms of Oriented Gradients
  • features feature vectors
  • the HOG feature amount is a histogram of the gradient of the brightness of the image.
  • the object classifier 21b is machine-learned from the features of the image G1 of the teeth (parts) 51a of the sprocket (parts) 51A2 of the work machine 5. Specifically, the object discriminator 21b is a discriminant function machine-learned by an SVM (Support Vector Machine), and is learned by the learning unit 40.
  • SVM Small Vector Machine
  • the learning unit 40 is provided in the arithmetic unit 2A of the server 2.
  • the learning unit 40 may be provided in another system, for example, and the site detection unit 21 and the feature point extraction unit 22 generated by the other system may be installed in the arithmetic unit 2A of the server 2.
  • the learning unit 40 includes a learning image storage unit 41 in which a large number of learning images g1 showing the teeth (parts) 51a of the sprocket (part) 51A2 are stored, and each of the learning images g1. It is provided with a site region storage unit 42 that is associated with and stores regions r1, r2, ... Of the teeth 51a.
  • the site area storage unit 42 stores two rectangular areas r1 and r2 in the learning image g1, and specifically, stores the coordinates of the four corners of the areas r1 and r2.
  • the learning unit 40 further includes a feature point storage unit 43, a first learning unit 44, and a second learning unit 45.
  • the first learning unit 44 is a learning device having an SVM, and generates an object classifier 21b.
  • the SVM is basically a two-class discriminator.
  • the images extracted by the local feature amount extraction unit 21a are sequentially input to the first learning unit 44 with respect to the learning image g1 stored in the learning image storage unit 41.
  • the images of the areas r1 and r2 stored in the site area storage unit 42 are used as positive examples, and the images of the other areas are used as negative examples.
  • the object classifier 21b is used. Will be generated.
  • the HOG feature amount extracted for each pixel group is input to the captured image G1 by the local feature amount extraction unit 21a into the object classifier 21b which is a learned model.
  • the teeth 51a of the sprocket 51A2 can be identified in the captured image G1 by the rectangular regions R1 and R2.
  • the region identification unit 21c identifies the coordinates of the four corners of each region R1 and R2 in the captured image G1 based on the identification result of the object classifier 21b (see, for example, FIG. 6A). This result is sent to the extraction determination unit 34, which will be described later.
  • the feature point extraction unit 22 has a shape of the above-mentioned learning image g1 including the sprocket (part) 51A2 of the working machine 5 and a tooth (part) 51a in which the sprocket 51A2 is worn in the learning image g1.
  • the extraction of the feature points is machine-learned using a plurality of feature points a1 to a10 and b1 to b10 for specifying the above as teacher data.
  • the feature point extraction unit 22 extracts feature points A1 to A10 and B1 to B10 of the teeth (sites) 51a of the sprocket 51A2 in the captured image G1 from the captured image G1 (see, for example, FIG. 6A).
  • the feature point extraction unit 22 includes a feature point classifier 22a and a feature point identification unit 22b.
  • the feature point classifier 22a is a cascade type classifier and is generated by the second learning unit 45 of the learning unit 40.
  • the second learning unit 45 has a random forest (Random Forest) algorithm.
  • a large number of learning images g1 stored in the learning image storage unit 41 are associated with an image whose feature amount is extracted by the local feature amount extraction unit 21a and each learning image g1.
  • the coordinates of the feature points a1 to a10 and b1 to b10 stored in the point storage unit 43 and the data of the areas r1 and r2 stored in the site area storage unit 42 are input.
  • the feature points a1 to a7 and the feature points b1 to b7 which are the features of the shape from the tooth ridge to the tooth ridge, Feature points a8 to a10 and feature points b8 to b10 near the tooth base on the circumference 51b of the sprocket 51A2 are stored for each learning image g1.
  • the circumference 51b is a circumference formed at a constant distance from the center of rotation of the sprocket 51A2.
  • the feature points a8 and a10 (b8 and b10) are the intersections of the perpendicular line drawn from a1 and a7 (b1 and b7) located at the apex of the mountain of the tooth 51a to the circumference 51b and the circumference 51b.
  • the feature point a9 (b9) is an intersection of the perpendicular line drawn from a4 (b4) located at the valley point of the tooth 51a to the circumference 51b and the circumference 51b.
  • the second learning unit 45 machine-learns the extraction of the feature points A1 to A10 and the feature points B1 to B10 by the random forest, and generates the feature point classifier 22a. To do.
  • the HOG feature amount extracted for each pixel group is input to the captured image G1 by the local feature amount extraction unit 21a into the feature point classifier 22a which is a trained model.
  • the feature point classifier 22a which is a trained model.
  • FIG. 6A feature points A1 to A10 and B1 to B10 of the shape of the teeth 51a of the sprocket 51A2 are extracted in or near the rectangular regions R1 and R2 in the captured image G1.
  • the feature point specifying unit 22b specifies the coordinates of the feature points extracted in the captured image G1. This result is sent to the area / feature point output unit 35.
  • SVM was used for the first learning unit 44 and a random forest was used for the second learning unit 45 as the machine learning algorithm.
  • machine learning algorithm generally known algorithms such as Decision Tree, Booting, Real AdaBoost, and neural network may be used.
  • HOG feature amount is illustrated for machine learning, but other feature amounts such as LBP (Local Binary Pattern) feature amount and Haar-like feature amount may be used, or a plurality of feature amounts may be used. It may be used in combination.
  • the arithmetic unit 3A of the communication terminal 3 includes an image acquisition unit 33, an extraction determination unit 34, an area / feature point output unit 35, and a wear amount calculation as software.
  • a unit 37A, a replacement time calculation unit 37B, and a reference gauge setting unit 37C are provided (see FIG. 3). These are installed in the storage unit 3b of the arithmetic unit 3A of the communication terminal 3 as one application for measuring the amount of wear, and are executed by the arithmetic unit 3a.
  • the image acquisition unit 33 acquires the captured image G1 from the image pickup device 3E.
  • the image acquisition unit 33 acquires the captured image G1 by the image pickup device 3E at the timing when the operator presses the input button arranged on the input device 3C.
  • a real-time image (moving image) captured by the image pickup device 3E is displayed on the display device 3B, and the operator presses an input button (not shown) while checking the image.
  • the image pickup device 3E captures an object, and the image acquisition unit 33 acquires an image that is a still image.
  • the extraction determination unit 34 determines the execution of the feature point extraction by the feature point extraction unit 22 based on the detection result of the site detection unit 21. Specifically, the extraction determination unit 34 permits the feature point extraction unit 22 to extract the feature points from the captured image G1 when the site detection unit 21 can detect the teeth of the sprocket 51A2.
  • the extraction determination unit 34 does not allow the feature point extraction unit 22 to execute the extraction of the feature points for the captured image G1, and causes the display device 3B to display the image captured by the image pickup device 3E. This prompts the operator to image the teeth 51a of the sprocket 51A2 again using the image pickup device 3E.
  • the feature point extraction unit 22 extracts the feature points A1 to A10 and B1 to B10 of the tooth valley regions R1 and R2 of two adjacent sprockets, but for example, only one region R1 is extracted. If the site detection unit 21 cannot be detected, the position of the region R2 may be estimated from the circumference 51b or the like of the sprocket 51A2. In this case, the feature points B1 to B10 are extracted by the feature point extraction unit 22 using the image of the estimated region R2.
  • the area / feature point output unit 35 displays the results of the site detection unit 21 and the feature point extraction unit 22 on the display device 3B.
  • the region / feature point output unit 35 includes the captured image G1 and the regions R1 and R2 of the teeth 51a detected by the site detection unit 21 on the captured image G1 and the feature points.
  • the feature points A1 to A10 and B1 to B10 extracted by the extraction unit 22 are displayed.
  • the wear amount calculation unit 37A calculates the wear amount of the teeth 51a of the sprocket 51A2 from the feature points A1, A2, A8, and B6. Specifically, in the present embodiment, as shown in FIG. 6B, the distance between the feature point A1 and the feature point A8 is the length X1 close to the tooth height, and the distance between the feature point A2 and the feature point B6 is the tooth width. Corresponds to X2. Since the length X1 is almost unchanged even if the teeth 51a are worn, the wear state of the teeth 51a can be grasped by the amount of decrease in the tooth width X2. In the present embodiment, the value of X2 / X1 can be calculated as the wear rate, and the wear rate of the tooth 51a can be calculated as the wear amount of the tooth 51a.
  • the replacement time calculation unit 37B calculates the replacement time of the sprocket (part) 51A2 from the amount of wear (wear rate) of the teeth 51a of the sprocket (part) 51A2.
  • the wear amount (wear rate), the usage time, and the data of the sprocket 51A2 are measured in advance, and the used time of the sprocket 51A2 and the plotted points are plotted.
  • the simple regression lines these linear functions.
  • the remaining usage time that is, the replacement time of the sprocket 51A2 is calculated by subtracting the current usage time of the sprocket 51A2 from the required replacement time of the sprocket 51A2 (life time of the sprocket 51A2). Can be done.
  • the calculation result of the replacement time calculation unit 37B is displayed on the display device 3B as a result as shown in FIG. 8, for example.
  • the reference gauge setting unit 37C sets an image of the reference gauge (virtual gauge) 51p according to the surface shape of the teeth 51a before wear on the teeth 51a of the sprocket 51A2 of the captured image G1 displayed on the display device 3B. ..
  • the reference gauge 51p aligns the position of the reference gauge 51p from the line segment between the feature point A1 and the feature point A8 and the line segment between the feature point A2 and the feature point B6 specified by the wear amount calculation unit 37A. In this way, how much the sprocket 51A2 is worn can be easily confirmed via the display device 3B.
  • step S91 the above-mentioned application for measuring the amount of wear installed in the communication terminal 3 is started.
  • step S92 the process proceeds to step S92, and after the application is started, the teeth 51a and the imaging range of the imaging device 3E are aligned so that the teeth 51a of the sprocket 51A2 are imaged.
  • step S93 the image pickup device 3E images the sprocket 51A2, which is a part of the work machine 5, by the operation from the input device 3C by the operator.
  • step S94 the process proceeds to step S94, and the site detection unit 21 detects the region including the teeth 51a of the sprocket 51A2 from the captured image G1.
  • step S95 if the extraction determination unit 34 determines that the tooth 51a of the sprocket 51A2 has not been detected by the site detection unit 21, the process proceeds to step S92 in order to perform imaging again.
  • step S95 the extraction determination unit 34 determines in step S95 that the tooth 51a of the sprocket 51A2 has been detected by the site detection unit 21, the process proceeds to step S96, and the process proceeds to step S96 to proceed to the feature points A1 to A10 and B1 to B10 of the teeth 51a. Is extracted (see FIG. 6A).
  • step S97 the wear amount calculation unit 37A calculates the wear amount (wear rate) of the tooth 51a from the feature points A1, A2, A8, and B6 (see FIG. 6B).
  • the replacement time calculation unit 37B calculates the replacement time of the sprocket (part) 51A2 from the wear amount (wear rate) of the teeth 51a of the sprocket (part) 51A2 (see FIG. 7).
  • the reference gauge setting unit 37C is a reference gauge (virtual gauge) corresponding to the surface shape of the teeth 51a before wear with respect to the teeth 51a of the sprocket 51A2 of the captured image G1 displayed by the display device 3B. An image of 51p is set, and an image showing the difference between the reference gauge 51p and the actual wear and a graph as a guideline for the recommended replacement time are displayed (see FIG. 8).
  • the site detection unit 21 is provided.
  • the site detection unit 21 is omitted, and the feature point extraction unit 22 with respect to the captured image G1 features the teeth 51a of the sprocket 51A2.
  • a point may be extracted and the amount of wear of the tooth 51a may be measured from this feature point.
  • the second learning unit 45 displays the learning image g1 of the learning image storage unit 41 and the learning feature points a1 to a10 and b1 to b10 of the feature point storage unit 43.
  • the feature point classifier 22a is generated as the teacher data.
  • the captured image G1 is input from the image acquisition unit 33, and the HOG feature amount of the captured image G1 is calculated.
  • the feature point storage unit 43 extracts the feature points A1 to A10 and B1 to B10 of the teeth 51a from the HOG feature amount of the captured image G1, and the feature point specifying unit 22b specifies these coordinates. Therefore, in such a case, in addition to the site detection unit 21 shown in FIG. 3, the extraction determination unit 34 shown in FIG. 3 can be omitted, and the region / feature point output unit 35 can use the regions R1 and R2. Do not output. Further, the site area storage unit 42 and the first learning unit 44 shown in FIG. 3 can also be omitted.
  • the feature point extraction unit 22 includes the learning image g1 including the sprocket 51A2 as a specific type of part of the work machine 5, and the tooth 51a which is a portion where the sprocket 51A2 is worn in the learning image g1.
  • the extraction of the feature points is machine-learned using a plurality of feature points a1 to a10 and b1 to b10 for specifying the shape of the feature points as teacher data. Therefore, for example, when the captured image G1 captures the shape of the part of the component at an imaging angle at which the amount of wear can be calculated, the feature points are extracted due to the learning by the teacher data. However, if the image is not taken at such an imaging angle, the feature points are not extracted.
  • the wear amount of the part part should be measured more accurately from the image G1 including the sprocket 51A2 of the work machine 5. Can be done. Furthermore, the state of wear can be grasped more accurately by the feature points as compared with the case where edge detection of simple image processing is used.
  • the display device 3B displays an image diagram in which a virtual gauge is fitted to the image captured by the image pickup device 3E and an image diagram of a graph showing the correlation between the amount of wear and the recommended replacement time.
  • a safety inspector at the site can show the customer a suggestion such as "Why don't you replace it soon?"
  • FIG. 11 is a wear amount measuring system 1 according to the second embodiment.
  • the wear amount measuring system 1 according to the present embodiment differs from that of the first embodiment in that it includes a guide setting unit 32 and a feature point correction unit 36. 2
  • the learning unit 45 executes re-learning. Therefore, the same configuration as that of the first embodiment omits a detailed description thereof.
  • the guide setting unit 32, the feature point correction unit 36, and the re-learning function are provided, but in the wear amount measurement system 1 of the second embodiment, at least one of these is provided. May be provided.
  • the arithmetic unit 2A selects a photographing guide (reference line) T1 according to the shape of the component to be photographed for the image (moving image) ga1 of the imaging device 3E displayed on the display device 3B.
  • a guide setting unit 32 for setting is further provided. Specifically, as shown in FIG. 12, the photographing guide T1 is displayed on the image ga1 in order to specify the position where the feature points of the sprocket 51A2 are extracted, and in the present embodiment, the teeth of the sprocket 51A2 are displayed. It is set at a position along the circumference 51b and 51a (specifically, the tip of the tooth).
  • the operator only has to image the teeth 51a of the sprocket 51A2 along the photographing guide T1, so that the feature point extraction unit 22 more accurately extracts the feature points. It can be carried out.
  • the inclination of the communication terminal 3 with respect to the ground (horizontal plane) is directly reflected in the image displayed on the display device 3B.
  • the communication terminal 3 may be provided with a gyro sensor, and the display device 3B may display the photographing guide T1 in a fixed posture on the image ga1 regardless of the inclination of the communication terminal 3 with respect to the ground.
  • the photographing guide T1 does not change regardless of the posture of the communication terminal 3 with respect to the ground, so that the teeth 51a of the sprocket 51A2 can be imaged more stably.
  • the image is taken by the operator, but for example, the image pickup device 3E may automatically take an image after a predetermined time has elapsed from the start of the application.
  • the arithmetic unit 3A further includes a feature point correction unit 36 that corrects the position of the feature point in accordance with the change in the position of the feature point extracted by the feature point extraction unit 22.
  • the display device 3B displays the feature points extracted by the feature point extraction unit 22 on the captured image G1 together with the captured image G1.
  • FIG. 13 shows feature points A1, A2, A8, and B6 that contribute to the calculation of the amount of wear.
  • the operator inputs a change in the positions of the feature points A1, A2, A8, and B6 on the captured image G1 with respect to the feature points A1, A2, A8, and B6 displayed on the display device 3B. Can be done.
  • the feature point correction unit 36 enables the operator to tap (select) a feature point whose position should be changed among the positions of the feature points displayed by the display device 3B. There is.
  • the feature point correction unit 36 enlarges and displays the portion including the feature point tapped by the operator via the input device 3C by tapping.
  • the feature point correction unit 36 further moves the feature point from the current position to the position to be corrected while the operator touches the tapped feature point (enlarged display feature point), and the operator moves the feature point from the moved feature point. When you release your finger, the feature point will change there.
  • the wear amount calculation unit 37A more accurately reduces the wear amount of the teeth 51a of the sprocket 51A2 based on the feature points A1 and B6 corrected by the feature point correction unit 36. Can be calculated.
  • the feature point correction unit 36 makes corrections by the feature points A1, A2, A8, and B6 that contribute to the calculation of the amount of wear.
  • the feature point correction unit 36 makes corrections in the feature point extraction unit 22. The positions of all the extracted feature points may be corrected.
  • the arithmetic unit 2A features the captured image G1 and the feature points A1 to A10 and B1 to B10 including the modified feature points A1 and B6 as further teacher data in the second learning unit 45.
  • the point extraction unit 22 may be relearned. As a result, the accuracy of extracting feature points by the feature point extraction unit 22 can be further improved.
  • step S92' is different from that of the first embodiment, and further, steps S141 to S143 are performed between steps S96 and S97.
  • the added point is different from that of the first embodiment.
  • the operator images the teeth 51a of the sprocket 51A2 in step S93 with the photographing guide T2 aligned with the portions of the sprocket 51A2 (teeth 51a and circumference 51b).
  • the teeth 51a of the sprocket 51A2 to be measured for the amount of wear are arranged at a specific position of the captured image G1, so that the region detection unit 21 detects the region of the teeth 51a and the feature point extraction unit 22 detects the teeth. It is possible to more accurately extract feature points including 51a.
  • step S141 it is determined whether the position of the feature point is correct, and if it is correct, the process proceeds to step S97, and the wear amount calculation unit 37A continues from the feature points A1, A2, A8, and B6 to the teeth.
  • the amount of wear (wear rate) of 51a is calculated (see FIG. 6B).
  • step S97 see FIG. 13
  • the operator taps the feature point whose position is to be changed among (candidates for) the feature point, and the vicinity of the tapped feature point is enlarged and displayed on the display device 3B.
  • the wear amount calculation unit 37A calculates the wear amount (wear rate) of the tooth 51a based on the feature points corrected by the feature point correction unit 36. In line with this, in step S143, the second learning unit 45 relearns the feature point extraction unit 22. Through such a series of operations, the amount of wear can be calculated more accurately as the position of the feature point is corrected by the operator, and the replacement time of the sprocket 51A2 can be accurately determined.
  • the captured image G1 was acquired by the input operation (pressing the input button) of the operator.
  • the captured image G1 may be acquired by the wear amount measuring system 1 according to the modified example shown in FIG. This modification is mainly different from the second embodiment shown above in that the image pickup permission unit 33A is further provided.
  • the display device 3B is configured to display an image (moving image) from the image pickup device 3E before acquiring the captured image G1.
  • the video (moving image) is also input to the site detection unit 21.
  • the site detection unit 21 is configured to acquire an image from the image and detect the regions R1 and R2 of the teeth 51a of the sprocket 51A2.
  • the arithmetic unit 3A includes an image pickup permission unit 33A that allows the image pickup device 3E to take an image at the timing when the site detection unit 21 detects the regions R1 and R2 of the teeth 51a of the sprocket 51A2 in the image from the video.
  • the image acquisition unit 33 transmits the image G1 to the image pickup device 3E at the timing when the site detection unit 21 detects the regions R1 and R2 of the teeth 51a of the sprocket 51A2, that is, at the timing when the image pickup permission unit 33A permits the image pickup. Outputs a command signal for acquisition. As a result, the image pickup device 3E automatically acquires the captured image G1 regardless of the operation of the operator. Since the acquired image G1 is an image in which the site detection unit 21 detects the regions R1 and R2 of the teeth 51a of the sprocket 51A2, the feature point extraction unit 22 can extract the feature points at accurate positions. ..
  • FIG. 16 is a wear amount measuring system 1 according to the third embodiment.
  • the wear amount measuring system 1 according to the present embodiment differs from that of the second embodiment in that the wear amount is measured for a plurality of types of parts.
  • a setting unit 31A, an identification device selection unit 31B, and a plurality of types (5 types) of identification devices 20A to 20E corresponding to a plurality of types of parts are provided. Therefore, the same configuration as that of the second embodiment omits a detailed description thereof.
  • the arithmetic unit 2A of the server 2 includes identification devices 20A to 20E according to a plurality of types (five types) of parts of the work machine 5.
  • the arithmetic unit 2A includes a plurality of types (5 types) of feature point extraction units 22A to 22E.
  • the site detection unit 21A of the identification device 20A detects the region of the tooth (site) 51a of the sprocket 51A2 as a component, and the feature point extraction unit 22A extracts the feature points of the sprocket 51A2 (FIG. See 6A). This is the same as that described in the first and second embodiments.
  • the site detection unit 21B of the identification device 20B detects the region of the tip (site) 53d of the tooth 53D as a component, and the feature point extraction unit 22B extracts the feature points of the tooth 53D (see FIG. 17C).
  • the site detection unit 21C of the identification device 20C detects the region of the support portion (site) 51 g of the roller 51C as a component, and the feature point extraction unit 22C extracts the feature points of the roller 51C (see FIG. 18C).
  • the site detection unit 21D of the identification device 20D detects the region of the convex portion (site) 51h of the shoe plate (part) 51D as a component, and the feature point extraction unit 22D extracts the feature points of the shoe plate 51D ( See FIG. 19C).
  • the site detection unit 21D of the identification device 20E detects the region of the convex portion (site) 51h of the link (component) 51B as a component, and the feature point extraction unit 22E extracts the feature points of the link 51B (FIG. 20C). reference).
  • the arithmetic unit 3A of the communication terminal 3 includes a component setting unit 31A and an identification device selection unit 31B.
  • the component setting unit 31A sets one component from a plurality of types (five types) of components, and one component (specifically, a component) is set by input information input by an operator via an input device 3C. Code number) is set.
  • the identification device selection unit (extraction unit selection unit) 31B selects one identification device from a plurality of types (5 types) of identification devices 20A to 20E according to the parts set by the component setting unit 31A.
  • the component setting unit 31A sets the sprocket 51A2 as a component
  • the identification device selection unit 31B selects the identification device 20A.
  • the identification devices 20A to 20E are composed of the feature point extraction units 22A to 22E, so that the identification device selection unit 31B is the feature point extraction units 22A to 22E. select.
  • the guide setting unit 32 selects and sets one of the shooting guides T1 to T5 according to the selected component. Specifically, when the selected component is the sprocket 51A2, the photographing guide T1 described in the second embodiment is set.
  • the guide setting unit 32 displays the photographing guide T2 including the contour lines on both sides of the central tooth 53D and the lines perpendicular to the contour lines as shown in FIG. 17A. Set to.
  • the guide setting unit 32 displays an image of the rotation axis of the roller 51C and the photographing guide T3 corresponding to the contour line up and down along the support portion as shown in FIG. 18A. Set to ga3.
  • the guide setting unit 32 is orthogonal to a line along the surface of the shoe plate 51D adjacent to the link 51B as shown in FIG. 19A.
  • the center line of the convex portion 51h of the shoe plate 51D is set as the photographing guide T4 in the image ga4.
  • the guide setting unit 32 includes a circle along the connecting hole in which the links 51B are connected to each other, and a member of the link 51B.
  • the contour line is set in the image ga5 as a shooting guide T5.
  • the generation of the trained model will be described below.
  • the learning image g2 and the regions r31 to r35 of each tooth 53D are used as teacher data in the same manner as described above, as shown in FIG. 17C.
  • the first learning unit 44 generates a site detection unit 21B in which the detection of the regions R31 to R35 in the captured image G2 is learned.
  • the point extraction unit 22B is generated by the second learning unit 45.
  • the feature points to be learned are the intersections of the tooth 53D and the bucket 53C as the feature points c1 and c5, the mounting position of the tooth 53D (the boundary point with the adapter) as the feature points c2 and c4, and the tip of the tooth 53D as the feature point c3. To do.
  • the region detection unit 21B and the feature point extraction unit 22B which are trained models, detect regions R31 to R35 of each tooth 53D for the captured image G2 and extract feature points C1 to C5. can do.
  • the wear amount calculation unit 37A sets the length of the line segment of the feature point C2 and the feature point C4 to X3, and sets the length from the feature point C3 to the intersection of the line orthogonal to this line segment to X4, and sets X4.
  • the amount of wear (wear rate) of the tooth 53D is calculated. Since X4 decreases due to wear and X3 hardly changes, the wear state of the tooth 53D can be grasped by calculating X4 / X3.
  • the image g3 for learning and the region r4 of the roller 51C are used as teacher data in the same manner as described above, and the captured image is as shown in FIG. 18C.
  • the first learning unit 44 generates the site detection unit 21C in which the detection of the region R4 in G3 has been learned.
  • the point extraction unit 22C is generated by the second learning unit 45.
  • the feature points to be learned are the intersections of the rotation axis of the roller 51C and the contour lines at both ends of the support portion 51g as feature points d1 and d2, and the points along the contour line of the support portion 51g of the roller 51C as feature points d3 to d8. And.
  • the lines connecting the feature points d3 to d8 are substantially straight lines, and as the wear progresses, these lines become concave curves as shown in FIG. 18B.
  • the part detection unit 21C and the feature point extraction unit 22C which are trained models, detect the region R4 of the support portion 51g of each roller 51C with respect to the captured image G3, and feature points D1 to D8. Can be extracted.
  • the wear amount calculation unit 37A sets the distance between the feature point D4 and the feature point D8 in the rotation axis direction as X5, and sets the distance between the feature point D4 and the feature point D8 in the direction orthogonal to the rotation axis as X6.
  • the amount of wear (wear rate) of the roller 51C is calculated. Since X6 decreases due to wear and X5 hardly changes, the state of wear of the roller 51C can be grasped by calculating X6 / X5.
  • the learning image g4 and the region r5 of each shoe plate 51D are used as teacher data in the same manner as described above, as shown in FIG. 19C.
  • the site detection unit 21D in which the detection of the region R5 in the captured image G4 is learned is generated by the first learning unit 44.
  • the extraction of the feature points E1 to E19 in the captured image G4 was learned by using the learning image g4 and the feature points e1 to e19 of each shoe plate 51D as teacher data in the same manner as the above-described method.
  • the feature point extraction unit 22D is generated by the second learning unit 45.
  • the feature points to be learned are the points on the straight line along the back surface of the shoe plate 51D adjacent to the link 51B as feature points e1 to e4, and the points along the convex portion 51h of the shoe plate 51D and the valley portion between them.
  • the feature points are e5 to e19.
  • the region detection unit 21D and the feature point extraction unit 22D which are trained models, detect the region R5 of the convex portion 51h of the shoe plate 51D with respect to the captured image G4, and feature points E1 to E19. Can be extracted.
  • the wear amount calculation unit 37A sets the distance between the feature points E6 and E18 located at the vertices of the convex portions 51h on both sides to X7, and sets the distance from the feature points E12 to the line segment connecting the feature points E6 and E18 and the feature point E2.
  • the wear amount (wear rate) of the shoe plate 51D is calculated by calculating X8 / X7 with the distance from and X8 as X8. Since X8 decreases due to wear and X7 hardly changes, the state of wear of the shoe plate 51D can be grasped by calculating X8 / X7.
  • the learning image g5 and the region r6 of each link 51B are used as teacher data and imaged as shown in FIG. 20C by the same method as described above.
  • the first learning unit 44 generates a site detection unit 21E in which the detection of the region R6 in the image G5 is learned.
  • the extraction unit 22E is generated by the second learning unit 45.
  • each link 51B the points on the contour line along the longitudinal direction of each link 51B are designated as feature points f1 to f8, and the points for specifying the positions of the connecting portion and the hole of the link 51B are designated as feature points f9 to f18.
  • the region detection unit 21E and the feature point extraction unit 22E which are trained models, can detect the region R6 of the link 51B with respect to the captured image G5 and extract the feature points F1 to F18. it can.
  • the wear amount calculation unit 37A sets the distance between the feature points F9 and F18 located on both sides of the link 51B as X9, and from the feature points F12 (or feature points F15) located between them, the feature points
  • the wear amount (wear rate) of the link 51B is calculated by calculating X10 / X9, where the distance to the straight line connecting F9 and F18 is X10.
  • the state of wear of the link 51B can be grasped by calculating X10 / X9.
  • the amount of wear for one link 51B is calculated. For example, if the total length of the plurality of links 51B is set to X9 and the value of X10 / X9 is calculated, a more accurate link can be calculated. The wear of 51B can be grasped.
  • the reference gauge setting unit 37C may set the reference gauge according to these shapes as in the case of the sprocket. ..
  • the imaging determination unit determines the result detected by the site detection unit to determine the timing of imaging by the imaging apparatus.
  • Such a configuration can be used, for example, in the third embodiment.
  • it may be applied to the wear amount measuring system of. Further, if such a determination is made, an image suitable for specifying the amount of wear can be acquired. Therefore, the wear of the part of the component may be specified from the acquired image without using the feature point extraction unit.
  • the second learning unit is provided as the learning unit, but the same learning unit as in the first embodiment may be provided in the arithmetic unit 2A of the second and third embodiments. Good.
  • the replacement time is predicted by calculating the degree of wear as the amount of wear. For example, the size of the gap between the reference gauge and the part where the wear is measured as shown in FIG. 8 is calculated.
  • the device may calculate, output the image of the reference gauge and the part, and the calculation result of the size of the gap to the display device, and the operator or the like may determine the replacement of the target part.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Mining & Mineral Resources (AREA)
  • Civil Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Structural Engineering (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Testing Of Devices, Machine Parts, Or Other Structures Thereof (AREA)

Abstract

作業機械の部品を含む画像から部品の部位の摩耗量をより正確に測定することができる摩耗量測定システムを提供する。作業機械5の部品を含む撮像画像から部品の摩耗量を演算する演算装置2A、3Aを備えた摩耗量測定システム1であって、演算装置2A、3Aは、作業機械5の特定の種類の部品を含む学習用画像g1と、学習用画像g1において部品が摩耗する部位の形状を特定する複数の特徴点a1~a10、b1~b10と、を教師データとして、特徴点の抽出が機械学習され、撮像画像G1から撮像画像G1における部位の特徴点A1~A10、B1~B10を抽出する特徴点抽出部22と、特徴点A1~A10、B1~B10から、部位の摩耗量を算出する摩耗量算出部37Aと、を備える。

Description

摩耗量測定システム
 本発明は、作業機械の部品を含む画像から部品の部位の摩耗量を演算する摩耗量測定システムに関する。
 従来から、作業機械の継続的な使用により、作業機械を構成する部品が摩耗することがあり、この部品の摩耗状態を管理することは、作業機械を安定して使用するためには重要である。
 このような観点から、たとえば、特許文献1には、作業機械の摩耗部品の画像を取得し、取得した画像から摩耗部品の摩耗縁部の測定を行い、測定した摩耗縁部の結果から、摩耗部品の摩耗状態を特定する摩耗判定システムが提案されている。
特表2016-504643号公報
 しかしながら、特許文献1に示す摩耗判定システムでは、取得した画像から、摩耗する部品の部位の摩耗状態を特定するが、その摩耗部品の撮像角度により、同じ摩耗状態でも、その摩耗状態の結果の差異が大きくなり、正確な摩耗の状態を特定することができないことがある。
 本発明は、このような点を鑑みてなされたものであり、その目的とするところは、作業機械の部品を含む画像から部品の部位の摩耗量をより正確に測定することができる摩耗量測定システムを提供する。
 前記課題を鑑みて、本発明に係る摩耗量測定システムは、作業機械の部品を含む撮像画像から前記部品の摩耗量を演算する演算装置を備えた摩耗量測定システムであって、前記演算装置は、前記作業機械の特定の種類の部品を含む学習用画像と、前記学習用画像において前記部品が摩耗する部位の形状を特定する複数の特徴点と、を教師データとして、前記特徴点の抽出が機械学習され、前記撮像画像から前記撮像画像における前記部位の特徴点を抽出する特徴点抽出部と、前記特徴点から、前記部位の摩耗量を算出する摩耗量算出部と、を備える。
 本発明によれば、特徴点抽出部は、作業機械の特定の種類の部品を含む学習用画像と、前記学習用画像において前記部品が摩耗する部位の形状を特定する複数の特徴点と、を教師データとして、特徴点の抽出が機械学習されたものである。したがって、たとえば、撮像画像が、摩耗量を算出することができる撮像角度で、その部品の部位の形状を撮像している場合には、特徴点が抽出されるが、そのような撮像角度で撮像されていない場合には、特徴点が抽出されない。このような結果、摩耗量が精度良く算出できる撮像画像に対して特徴点が抽出されるので、作業機械の部品を含む画像から部品の部位の摩耗量をより正確に測定することができる。
本発明の第1~第3実施形態に係る摩耗量測定システムの測定対象となる作業機械の模式的側面図である。 本発明の第1実施形態に係る摩耗量測定システムの模式的概念図である。 図1に示す摩耗量測定システムの演算装置のブロック図である。 図3に示す部位検出部および特徴点抽出部の機械学習を説明するためのブロック図である。 図3に示す部位検出部による学習用画像を示した模式図である。 図3に示す特徴点抽出部による学習用画像を示した模式図である。 図3に示す部位検出部と特徴点抽出部による結果をスプロケットの画像に表示した模式図である。 図5Aに示す結果から、摩耗量算出部による摩耗量を算出する方法を説明するための図である。 図3に示す交換時期算出部による部品交換の算出を説明するためのグラフである。 図3に示す基準ゲージ設定部での設定後の通信端末の表示画面を示した図である。 図3に示す摩耗量測定システムによる作業フロー図である。 図4に示す部位検出部および特徴点抽出部の変形例に係るブロック図である。 本発明の第2実施形態に係る摩耗量測定システムの演算装置のブロック図である。 図11に示すガイド設定部による撮影用ガイドを映像に設定した模式図である。 図11に示す特徴点修正部による修正を説明するための模式図である。 図11に示す摩耗量測定システムによる作業フロー図である。 図11に示す変形例に係るブロック図である。 本発明の第3実施形態に係る摩耗量測定システムの演算装置のブロック図である。 図2に示す作業機械のバケットのツースの撮像画像に撮影用ガイドを設定した模式図である。 図17Aに示すツースの学習用画像にその領域と特徴点を設定した模式図である。 ツースの撮像画像にその領域と特徴点を表示した模式図である。 図2に示す作業機械のローラの撮像画像に撮影用ガイドを設定した模式図である。 図18Aに示すローラの学習用画像にその領域と特徴点を設定した模式図である。 ローラの撮像画像にその領域と特徴点を表示した模式図である。 図2に示す作業機械のシュープレートの撮像画像に撮影用ガイドを設定した模式図である。 図19Aに示すシュープレートの学習用画像にその領域と特徴点を設定した模式図である。 シュープレートの撮像画像にその領域と特徴点を表示した模式図である。 図2に示す作業機械のリンクの撮像画像に撮影用ガイドを設定した模式図である。 図20Aに示すリンクの学習用画像にその領域と特徴点を設定した模式図である。 リンクの撮像画像にその領域と特徴点を表示した模式図である。
 以下、図面を参照して本発明に係る摩耗量測定システムのいくつかの実施形態を説明する。
1.作業機械5について
 本実施形態では、摩耗の測定の対象である作業機械5は、特に限定はされないが、たとえば、油圧ショベルなどである。以下では、まず本実施形態の摩耗量測定システム1の測定対象である作業機械5の構成の一例を説明し、次に本実施形態の摩耗量測定システム1の詳細に説明する。
 図1に示すように、作業機械5は、油圧負荷として、クローラ式の走行体51と、走行体51上に旋回可能に設けられた旋回体52と、旋回体52に取り付けられた多関節式のフロント作業機53とを備えている。旋回体52の前部左右の一方側にはキャビン54が設けられ、旋回体52の前部中央には上下方向に回動して掘削等の作業を行うフロント作業機53が設けられている。旋回体52の後部には機体の重量のバランスを保つカウンタウェイト56が設けられている。
 走行体51には前端部にアイドラ51A1が設けられ、後端部に不図示の走行モータにより駆動されるスプロケット51A2が設けられる。このアイドラ51A1とスプロケット51A2とには、リンク(リンクアッセンブリ)51Bが架け渡されており、アイドラ51A1とスプロケット51A2の間には、リンク51Bを支持するローラ51Cが設けられている。リンク51Bには、地面に設置するシュープレート51Dが取り付けられている。走行体51をこのように構成することで、作業機械5が不整地で移動可能となる。
 フロント作業機53は、たとえば、旋回体52の前側に設けられ、油圧駆動装置によって駆動されて掘削作業などの作業を行う機械である。フロント作業機53は、たとえば、ブーム53A、アーム53B、およびバケット53Cが連接されており、これらは油圧シリンダ53a、53b、53cにより動作する。バケット53Cの先端には、複数のツース(爪部)53Dが幅方向に間隔を空けて固定されている。
 ここで、走行体51による作業機械5の走行の際には、スプロケット(部品)51A2の歯(部位)、ローラ(部品)51Cのリンク51Bを支持する支持部(部位)、リンク(部品)51Bの連接部分(部位)、シュープレート(部品)51Dが接地する凸部(部位)が摩耗する。さらに、複数のツース(部品)53Dは、掘削作業などの作業に伴い、その先端が摩耗する。したがって、その一例として、以下の第1および2実施形態では、摩耗量測定システム1で、スプロケット51A2の歯51aの摩耗量を測定し、第3実施形態では、これらの部品の部位の摩耗量を測定する。なお、第1および第2実施形態で、第3実施形態で示すこれらの各部位の摩耗量を個別に測定してもよく、摩耗する部品の部位であれば得に限定されるものではない。
〔第1実施形態〕
2.摩耗量測定システム1の構成について
 図2に示すように、第1実施形態に係る摩耗量測定システム1は、複数の通信端末3、3、…で撮像された作業機械5を構成する部品の部位の画像から、各通信端末3の演算装置3A、およびネットワークを介したサーバ2の演算装置2Aにより、その部位の摩耗量を演算する装置である。本実施形態では、摩耗量測定システム1は、サーバ2を備えるが、たとえば、上述した部位の画像からその部位の摩耗量を演算する一連のアプリケーションを演算装置3Aの記憶部3bにインストールできるであれば、各通信端末3のみで構成されていてもよい。
 サーバ2は、演算装置2Aを少なくとも備えており、演算装置2AはCPU等で構成される演算部2aと、ROM、RAMなどで構成される記憶部2bとを備えている。本実施形態では、記憶部2bには、後述する学習用画像などの教師データ、部位検出部21および特徴点抽出部22を実行するためのプログラムが記憶されており、演算部2aは、これらのプログラムを実行する装置である。なお、本明細書において図3以降に示す、部位検出部21および特徴点抽出部22を、記憶部2bで記憶されたプログラムを演算部2aで実行する部分として示している。サーバ2は、たとえば事前登録された各通信端末3により、アクセス可能になっており、各通信端末3で撮像された画像、部位の摩耗量等の演算結果が受信され、これらの結果が記憶部2bに記憶されていてもよい。
 通信端末3は、一般的な携帯端末またはタブレット端末であり、演算装置3Aと、タッチパネルディスプレイ3Dと、撮像装置3Eとを備えている。演算装置3Aは、CPU等で構成される演算部3aと、ROM、RAMなどで構成される記憶部3bとを備えている。記憶部3bには、後述する画像取得部33、抽出判定部34、摩耗量算出部37A等を実行するためのプログラムが記憶されており、演算部3aは、このプログラムを実行する装置である。なお、本明細書において図3以降に示す、画像取得部33、抽出判定部34、摩耗量算出部37A等は、記憶部3bで記憶されたプログラムを演算部3aで実行する部分として示している。
 タッチパネルディスプレイ3Dは、表示装置3Bと入力装置3Cで構成される。表示装置3Bは、表示画面であり、撮像装置3Eで撮像された映像および画像、演算装置3Aで演算された演算結果等が表示される。入力装置3Cは、演算装置2Aに操作者が所定のデータ等を入力する装置である。入力装置3Cは、操作者が、撮像画像を取得するための指令信号を撮像装置3Eに入力する入力ボタン(アイコン)、表示装置(表示画面)3Bに表示された、後述する部品の部位の特徴点の位置を修正するマーカ(アイコン)など有している。
 撮像装置3Eは、デジタルカメラなどのデジタル映像およびデジタル画像を撮像する装置であり、本実施形態では、摩耗測定を実行するアプリケーションの起動に合わせた所定のタイミングで、映像(動画像)を表示装置3Bに表示する。ただし、この動画像は、記憶部3bには記録されない。入力装置3Cから操作者が入力した入力信号により、画像取得部33は、表示装置3Bに表示した映像(動画像)を利用して、撮像装置3Eは、撮像画像(静止画像)を取得し、この撮像画像は、記憶部3bに記録される。
3.サーバ2の演算装置2Aについて
 本実施形態では、サーバ2の演算装置2Aは、ソフトウエアとして、部位検出部21と特徴点抽出部22とで構成される識別装置20を備えている。この識別装置20は、上述したスプロケットの画像から、スプロケット51A2の歯51aを識別するものであり、サーバ2の記憶部2bにインストールされた学習部40(図4参照)により生成され、演算部2aで実行される。しかしながら、識別装置20を通信端末3の演算装置3Aが備えていてもよい。なお、図3は、学習済みモデルである部位検出部21と特徴点抽出部22による利活用を説明するためのブロック図であるため、図3では、学習フェーズで用いられる学習部40を省略している。
 本実施形態では、部位検出部21は、作業機械5の部品としてスプロケット51A2の画像から、その部品の部位である歯の位置を検出するものである。部位検出部21は、作業機械5の特定の種類の部品としてスプロケット51A2を含む学習用画像と、学習用画像においてスプロケット51A2の摩耗する部位である歯51aの領域(具体的には矩形状の領域)とを、教師データとし、この教師データから歯51aの領域の検出が機械学習されたものである。したがって、部位検出部21は、撮像装置3Eで撮像した撮像画像(具体的には画像取得部33で取得した画像)から撮像画像におけるスプロケット51A2の歯51aの領域を検出する。
 図4に示すように、部位検出部21は、局所特徴量抽出部21aと、物体識別器21bと、領域特定部21cと、を備えている。局所特徴量抽出部21aは、撮像画像に含まれる矩形状の複数ピクセル群となる領域を所定数のピクセルずつずらして選択しながら、その画像の局所の特徴量を抽出するものである。本実施形態では、領域ごとのHOG(Histograms of Oriented Gradients)特徴量(特徴ベクトル)を抽出する。HOG特徴量は、画像の輝度の勾配をヒストグラム化したものである。
 物体識別器21bは、作業機械5のスプロケット(部品)51A2のうち、歯(部位)51aの画像G1の特徴を機械学習したものである。具体的には、物体識別器21bは、SVM(Support Vector Machine)により機械学習した識別関数であり、学習部40により学習される。
 本実施形態では、学習部40は、サーバ2の演算装置2Aに備えられている。しかしながら、学習部40をたとえば他のシステムに備え、サーバ2の演算装置2Aに、他のシステムで生成した部位検出部21と特徴点抽出部22とをインストールしてもよい。図5Aに示すように、学習部40は、スプロケット(部品)51A2の歯(部位)51aが写った多数の学習用画像g1が記憶された学習用画像記憶部41と、この学習用画像g1ごとに紐付けられて歯51aの領域r1、r2、…を記憶した部位領域記憶部42と、を備えている。部位領域記憶部42は、学習用画像g1において矩形状の領域r1、r2を2つ記憶しており、具体的には、領域r1、r2の4隅の座標を記憶している。
 学習部40は、特徴点記憶部43、第1学習部44、および第2学習部45、をさらに備えている。第1学習部44は、SVMを有した学習器であり、物体識別器21bを生成する。ここで、SVMは、基本的に2クラス判別器である。学習フェーズにおいて、スプロケット(部品)51A2の歯(部位)51aが写っている領域を特定した多数の学習用画像(正例)のそれぞれから抽出したHOG特徴量と、スプロケット51A2の歯が写っていない(または、スプロケットの歯と認識し難い)領域の多数の学習用画像(負例)から、それぞれから抽出したHOG特徴量との識別境界をSVMにより機械学習する。なお、本実施形態では、学習用画像記憶部41に記憶された学習用画像g1に対して、局所特徴量抽出部21aで特徴量を抽出した画像を、第1学習部44に順次入力する。機械学習にあたっては、部位領域記憶部42で記憶された領域r1、r2の画像を正例とし、それ以外の領域の画像を負例として用いられ、このような機械学習により、物体識別器21bが生成される。
 利活用時には、学習済みモデルである物体識別器21bに、局所特徴量抽出部21aで撮像画像G1にピクセル群ごとに抽出したHOG特徴量を入力する。この結果、図6Aに示すように、撮像画像G1にスプロケット51A2の歯51aを、矩形の領域R1、R2で識別することができる。領域特定部21cは、物体識別器21bの識別結果に基づいて、撮像画像G1における各領域R1、R2の四隅の座標を特定する(たとえば図6A参照)。この結果は、後述する抽出判定部34に送られる。
 特徴点抽出部22は、図5Bに示すように、作業機械5のスプロケット(部品)51A2を含む上述の学習用画像g1と、学習用画像g1においてスプロケット51A2が摩耗する歯(部位)51aの形状を特定する複数の特徴点a1~a10、b1~b10と、を教師データとして、特徴点の抽出が機械学習されものである。特徴点抽出部22は、撮像画像G1から撮像画像G1におけるスプロケット51A2の歯(部位)51aの特徴点A1~A10、B1~B10を抽出する(たとえば図6A参照)。
 具体的には、特徴点抽出部22は、特徴点識別器22aと特徴点特定部22bとを備えている。本実施形態では、特徴点識別器22aは、カスケード型分類器であり、学習部40の第2学習部45により生成される。本実施形態では、第2学習部45では、ランダムフォレスト(Random Forest)のアルゴリズムを有している。機械学習にあたっては、学習用画像記憶部41に記憶された多数の学習用画像g1に対して、局所特徴量抽出部21aで特徴量を抽出した画像と、学習用画像g1ごとに紐づけられ特徴点記憶部43で記憶した特徴点a1~a10、b1~b10の座標と、部位領域記憶部42で記憶された領域r1、r2のデータと、が入力される。
 具体的には、学習フェーズの教師データとして、スプロケット51A2の歯51aの形状を特定すべく、歯山から歯山までの形状の特徴となる、特徴点a1~a7、特徴点b1~b7と、スプロケット51A2の円周51b上の歯底近傍の特徴点a8~a10、特徴点b8~b10とが、学習用画像g1ごとに記憶される。
 なお、この円周51bは、スプロケット51A2の回転中心から一定の距離で形成された円周である。特徴点a8、a10(b8、b10)は、歯51aの山の頂点に位置するa1、a7(b1、b7)から円周51bに下した垂線と円周51bとの交点である。一方、特徴点a9(b9)は、歯51aの谷点に位置するa4(b4)から、円周51bに下した垂線と円周51bとの交点である。
 このような教師データの入力により、本実施形態では、第2学習部45は、ランダムフォレストにより、特徴点A1~A10、特徴点B1~B10の抽出を機械学習し、特徴点識別器22aを生成する。
 利活用時には、学習済みモデルである特徴点識別器22aに、局所特徴量抽出部21aで撮像画像G1にピクセル群ごとに抽出したHOG特徴量を入力する。この結果、図6Aに示すように、撮像画像G1にスプロケット51A2の歯51aの形状の特徴点A1~A10、B1~B10が矩形の領域R1、R2内及びその近傍に抽出される。特徴点特定部22bは、撮像画像G1において抽出された特徴点の座標を特定する。この結果は、領域・特徴点出力部35に送られる。
 本実施形態では、機械学習アルゴリズムとして、第1学習部44に、SVMが用いられ、第2学習部45に、ランダムフォレストが用いられた。しかしながら、機械学習アルゴリズムとして、決定木(Decision Tree)、ブーティング(Booting)、またはリアルアダブースト(Real AdaBoost)、ニューラルネットワークなどの一般的に知られたアルゴリズムが用いられてもよい。さらに、本実施形態では、機械学習にHOG特徴量を例示したが、LBP(Local Binary Pattern)特徴量、ハールライク(Haar-like)特徴量などの他の特徴量を用いたり、複数の特徴量を組み合わせて用いたりしてもよい。
4.通信端末3の演算装置3Aについて
 本実施形態では、通信端末3の演算装置3Aは、ソフトウエアとして、画像取得部33と、抽出判定部34と、領域・特徴点出力部35と、摩耗量算出部37Aと、交換時期算出部37Bと、基準ゲージ設定部37Cとを備えている(図3参照)。これらは、摩耗量測定用の1つのアプリケーションとして通信端末3の演算装置3Aの記憶部3bにインストールされ、演算部3aで実行される。
 画像取得部33は、撮像装置3Eから撮像画像G1を取得するものである。本実施形態では、画像取得部33は、操作者が、入力装置3Cに配置された入力ボタンを押したタイミングで、撮像装置3Eで、撮像画像G1が取得される。具体的には、表示装置3Bに、撮像装置3Eで撮像したリアルタイムの映像(動画像)が表示されており、操作者は、その映像を確認しながら、入力ボタン(図示せず)を押すことにより、撮像装置3Eで対象物を撮像し、画像取得部33は静止画像である画像を取得する。
 抽出判定部34は、部位検出部21の検出結果に基づいて、特徴点抽出部22による特徴点の抽出の実行を判定するものである。具体的には、抽出判定部34は、部位検出部21が、スプロケット51A2の歯を検出できたときには、特徴点抽出部22に撮像画像G1に対する特徴点の抽出の実行を許可する。
 一方、部位検出部21が、スプロケット51A2の歯を特定できないときには、撮像画像G1から、摩耗量が評価可能な歯51aの形状が検出できていないことになる。この場合には、抽出判定部34が、特徴点抽出部22に撮像画像G1に対する特徴点の抽出の実行を許可せず、表示装置3Bに、撮像装置3Eで撮像した映像を表示させる。これにより、操作者に、再度、撮像装置3Eを用いたスプロケット51A2の歯51aの撮像を促す。
 なお、本実施形態では、特徴点抽出部22により、隣り合う2つのスプロケットの歯谷の領域R1、R2の特徴点A1~A10、B1~B10を抽出するが、たとえば、1つの領域R1のみしか、部位検出部21を検出できていないときは、スプロケット51A2の円周51b等から領域R2の位置を推定してもよい。この場合には、推定した領域R2の画像を用いて、特徴点抽出部22で特徴点B1~B10が抽出される。
 領域・特徴点出力部35は、部位検出部21と特徴点抽出部22との結果を、表示装置3Bに表示する。本実施形態では、領域・特徴点出力部35は、図6Aに示すように、撮像画像G1とともに、撮像画像G1上に、部位検出部21で検出した歯51aの領域R1、R2と、特徴点抽出部22で抽出した特徴点A1~A10、B1~B10と、を表示する。
 摩耗量算出部37Aは、特徴点A1、A2、A8、B6から、スプロケット51A2の歯51aの摩耗量を算出する。具体的には、本実施形態では、図6Bに示すように、特徴点A1と特徴点A8の距離が歯高さに近い長さX1になり、特徴点A2と特徴点B6の距離が歯幅X2に相当する。長さX1は、歯51aが摩耗してもほとんど変わらないので、歯幅X2の減少量で歯51aの摩耗状態を把握することができる。本実施形では、X2/X1の値を摩耗率として算出し、歯51aの摩耗率を、歯51aの摩耗量として算出することができる。
 交換時期算出部37Bは、スプロケット(部品)51A2の歯51aの摩耗量(摩耗率)とから、スプロケット(部品)51A2の交換時期を算出する。本実施形態では、図7に示すように、予め、スプロケット51A2の摩耗量(摩耗率)と使用時間とデータを測定しておき、スプロケット51A2の使用時間とその摩耗率とのプロットした点に対して、単回帰線(これらの一次関数)を求める。この得られた一次関数に、算出した摩耗率を代入すると、評価対象となるスプロケット51A2のこれまでの使用時間を算出することができる。そして、スプロケット51A2の交換必須時間(スプロケット51A2の寿命時間)から、現時点におけるスプロケット51A2の使用時間を減算することにより、残存使用時間(推奨交換時期)、すなわち、スプロケット51A2の交換時期を算出することができる。交換時期算出部37Bの算出結果は、たとえば図8に示すような結果として、表示装置3Bに表示される。
 基準ゲージ設定部37Cは、表示装置3Bで表示された撮像画像G1のスプロケット51A2の歯51aに対して、歯51aの摩耗前の表面形状に応じた基準ゲージ(仮想ゲージ)51pの画像を設定する。ここで、基準ゲージ51pは、摩耗量算出部37Aで特定した、特徴点A1と特徴点A8との線分、特徴点A2と特徴点B6の線分から、基準ゲージ51pの位置を合わせ込む。このようにして、スプロケット51A2がどの程度摩耗したかを、表示装置3Bを介して簡単に確認することができる。
5.摩耗量測定方法について
 以下に、上述した摩耗量測定システム1を用いた摩耗量測定方法について図9を参照しながら説明する。まず、ステップS91では、通信端末3にインストールした、上述した摩耗量測定用のアプリケーションを起動する。次にステップS92に進み、このアプリケーションの起動後、スプロケット51A2の歯51aが撮像されるように、歯51aと、撮像装置3Eの撮像範囲のとの合わせ込みを行う。次に、ステップS93により、操作者が入力装置3Cからの操作により、撮像装置3Eが作業機械5の部位であるスプロケット51A2を撮像する。
 スプロケット51A2が撮像されると、ステップS94に進み、部位検出部21が撮像画像G1から、スプロケット51A2の歯51aを含む領域の検出を行う。ステップS95では、抽出判定部34が、部位検出部21によりスプロケット51A2の歯51aの検出がされていないと判定した場合には、再度、撮像を行うため、ステップS92に進む。
 一方、ステップS95で、抽出判定部34が、部位検出部21によりスプロケット51A2の歯51aの検出がされたと判定した場合には、ステップS96に進み、歯51aの特徴点A1~A10、B1~B10を抽出する(図6A参照)。ステップS97では、摩耗量算出部37Aが、特徴点A1、A2、A8、B6から、歯51aの摩耗量(摩耗率)を算出する(図6B参照)。
 次に、ステップS98では、交換時期算出部37Bは、スプロケット(部品)51A2の歯51aの摩耗量(摩耗率)とから、スプロケット(部品)51A2の交換時期を算出する(図7参照)。さらに、ステップS99では、基準ゲージ設定部37Cは、表示装置3Bで表示された撮像画像G1のスプロケット51A2の歯51aに対して、歯51aの摩耗前の表面形状に応じた基準ゲージ(仮想ゲージ)51pの画像を設定し、基準ゲージ51pと実際の摩耗の差分がわかる画像と、推奨交換時期の目安となるグラフを表示する(図8参照)。
 上に示す第1実施形態では、部位検出部21を設けたが、例えば、部位検出部21を省略して、撮像画像G1に対して、特徴点抽出部22で、スプロケット51A2の歯51aの特徴点を抽出し、この特徴点から歯51aの摩耗量を測定してもよい。この場合には、図10に示すように、第2学習部45は、学習用画像記憶部41の学習用画像g1と特徴点記憶部43の学習用の特徴点a1~a10、b1~b10を教師データとして、特徴点識別器22aを生成する。上述した局所特徴量抽出部21aでは、画像取得部33から撮像画像G1が入力され、撮像画像G1のHOG特徴量が算出される。特徴点記憶部43では、撮像画像G1のHOG特徴量から、歯51aの特徴点A1~A10、B1~B10を抽出し、特徴点特定部22bがこれらの座標を特定する。したがって、このような場合には、図3に示す部位検出部21の他に、図3に示す抽出判定部34も省略することができ、領域・特徴点出力部35は、領域R1、R2を出力しない。さらに、図3に示す部位領域記憶部42および第1学習部44も省略することができる。
 以上、本実施形態では、特徴点抽出部22は、作業機械5の特定の種類の部品として、スプロケット51A2を含む学習用画像g1と、学習用画像g1においてスプロケット51A2が摩耗する部位である歯51aの形状を特定する複数の特徴点a1~a10、b1~b10と、を教師データとして、特徴点の抽出が機械学習されたものである。したがって、たとえば、撮像画像G1が、摩耗量を算出することができる撮像角度で、その部品の部位の形状を撮像している場合には、教師データによる学習に起因して、特徴点が抽出されるが、そのような撮像角度で撮像されていない場合には、特徴点が抽出されない。このような結果、摩耗量が精度良く算出できる撮像画像に対してのみ特徴点が抽出されるので、作業機械5のスプロケット51A2を含む画像G1から部品の部位の摩耗量をより正確に測定することができる。さらに、単なる画像処理のエッジ検出を利用したものに比べて、より正確に摩耗の状態を特徴点で捉えることができる。
 さらに、図8に示すように、表示装置3Bにおいて、撮像装置3Eによって撮像された画像に仮想ゲージを合わせ込んだイメージ図と、摩耗量と推奨交換時期の相関を示すグラフのイメージ図を表示する。この表示を目安に現場の安全点検員が「そろそろ交換してはいかがですか」といった提案を顧客に示すことができる。
〔第2実施形態〕
 図11は、第2実施形態に係る摩耗量測定システム1である。図11に示すように、本実施形態に係る摩耗量測定システム1が、第1実施形態のものと相違する点は、ガイド設定部32と、特徴点修正部36とを備えた点と、第2学習部45により再学習を実行する点である。したがって、第1実施形態と同じ構成は、その詳細な説明を省略する。なお、第2実施形態では、ガイド設定部32と、特徴点修正部36と、再学習機能とを、備えているが、第2実施形態の摩耗量測定システム1では、これらのうち少なくとも1つを備えていてもよい。
 本実施形態では、演算装置2Aは、表示装置3Bで表示された撮像装置3Eの映像(動画像)ga1に、撮影する部品の形状に応じた撮影用ガイド(基準線)T1を選択して、設定するためのガイド設定部32をさらに備えている。具体的には、図12に示すように、撮影用ガイドT1は、スプロケット51A2の特徴点を抽出する位置を特定するために映像ga1に表示されるものであり、本実施形態ではスプロケット51A2の歯51a(具体的には歯先)と、円周51bに沿った位置に設定されている。
 このように、撮影用ガイドT1を設けることにより、操作者は、撮影用ガイドT1に沿ってスプロケット51A2の歯51aを撮像すればよいので、特徴点抽出部22により特徴点の抽出をより正確に行うことができる。なお、本実施形態では、通信端末3の地面(水平面)に対する傾きが、表示装置3Bで表示される映像にそのまま反映されている。しかしながら、通信端末3にジャイロセンサを設け、通信端末3の地面に対する傾きにかかわらず、表示装置3Bに撮影用ガイドT1を一定の姿勢で映像ga1に表示させてもよい。これにより、地面に対する通信端末3の姿勢にかかわらず、撮影用ガイドT1は変化しないので、より安定してスプロケット51A2の歯51aを撮像することができる。さらに、本実施形態では、操作者により撮像を行うが、たとえば、アプリケーションの起動から所定の時間経過後に、撮像装置3Eに自動的に撮像させてもよい。
 本実施形態では、演算装置3Aは、特徴点抽出部22で抽出された特徴点の位置の変更に合わせて、特徴点の位置を修正する特徴点修正部36をさらに備えている。本実施形態では、表示装置3Bは、図13に示すように、撮像画像G1とともに、撮像画像G1上に、特徴点抽出部22で抽出した特徴点を表示している。図13では、摩耗量の算出に寄与する特徴点A1、A2、A8、B6を示している。入力装置3Cは、表示装置3Bに表示された特徴点A1、A2、A8、B6に対して、撮像画像G1上で特徴点A1、A2、A8、B6の位置の変更を操作者が入力することができるようになっている。具体的には、特徴点修正部36は、表示装置3Bにより表示された特徴点の位置のうち、位置を変更すべき特徴点を、操作者がタップする(選択する)ことが可能になっている。特徴点修正部36は、タップによって、入力装置3Cを介して、操作者がタップした特徴点を含む部分を拡大表示させる。特徴点修正部36は、さらに、タップした特徴点(拡大表示された特徴点)を操作者が触れながら、現在の位置から修正したい位置に特徴点を移動し、移動した特徴点から操作者が指を離すと、そこに特徴点が変更されるようになっている。
 ここでは、特徴点A1、B6の位置が適切な位置ではないので、入力装置3Cを介して、図13に示すように、操作者が特徴点A1、B6の位置を変更し、この結果、特徴点修正部36は、特徴点A1、B6の座標を修正する。このようにして、特徴点A1、B6の修正に伴い、摩耗量算出部37Aは、特徴点修正部36で修正した特徴点A1、B6に基づいてスプロケット51A2の歯51aの摩耗量をより正確に算出することができる。
 本実施形態では、特徴点修正部36により、摩耗量の算出に寄与する特徴点A1、A2、A8、B6による修正を行ったが、たとえば、特徴点修正部36により、特徴点抽出部22で抽出したすべての特徴点の位置を修正するようにしてもよい。
 さらに、本実施形態では、演算装置2Aは、撮像画像G1と、修正した特徴点A1、B6を含む特徴点A1~A10、B1~B10とをさらなる教師データとして、第2学習部45で、特徴点抽出部22を再学習させてもよい。これにより、特徴点抽出部22による特徴点の抽出の精度をさらに高めることができる。
 図14に示すように、第2実施形態に係る摩耗量測定システム1では、ステップS92’が第1実施形態のものと相違し、さらに、ステップS96とステップS97の間に、ステップS141~S143が追加された点が、第1実施形態のものと相違する。具体的には、ステップS92’では、操作者は、撮影用ガイドT2をスプロケット51A2の部位(歯51aおよび円周51b)に合わせた状態で、ステップS93において、スプロケット51A2の歯51aを撮像する。これにより、撮像画像G1の特定の位置に、摩耗量の測定対象となるスプロケット51A2の歯51aが配置されるため、部位検出部21による歯51aの領域の検出と、特徴点抽出部22による歯51aを含む特徴点の抽出をより的確に行うことができる。
 さらに、ステップS141により、特徴点の位置が正しいかを判断し、正しい場合には、ステップS97に進み、これまで通り、摩耗量算出部37Aが、特徴点A1、A2、A8、B6から、歯51aの摩耗量(摩耗率)を算出する(図6B参照)。一方、特徴点の位置が正しくない場合には、操作者により、特徴点の位置を修正し、ステップS97に進む(図13参照)。具体的には、操作者が特徴点の位置(の候補)のうち、位置を変更したい特徴点をタップし、タップした特徴点の近辺が、表示装置3Bに拡大表示される。操作者が拡大表示された現在の位置から修正したい位置に特徴点を移動し、操作者が特徴点から指を離すと、そこに特徴点が変更される。特徴点修正部36で修正された特徴点に基づいて、摩耗量算出部37Aが、歯51aの摩耗量(摩耗率)を算出する。これに合わせて、ステップS143では、第2学習部45で特徴点抽出部22の再学習を行う。このような一連の作業により、操作者による特徴点の位置に修正に伴い、より正確に摩耗量を算出することができ、スプロケット51A2の交換時期を正確に求めることができる。
 ここで、上に示す第2実施形態では、操作者の入力操作(入力ボタンを押すこと)により、撮像画像G1を取得した。しかしながら、図15に示す変形例に係る摩耗量測定システム1により、撮像画像G1を取得してもよい。この変形例では、撮像許可部33Aをさらに備えた点が、上に示す第2実施形態と主に相違する。
 具体的には、図15に示すように、摩耗量測定システム1は、撮像画像G1を取得する前に、表示装置3Bが、撮像装置3Eからの映像(動画像)を表示するように構成されており、その映像(動画像)は、部位検出部21にも入力される。部位検出部21では、その映像から画像を取得して、スプロケット51A2の歯51aの領域R1、R2を検出するように構成されている。
 演算装置3Aには、映像からの画像において、部位検出部21がスプロケット51A2の歯51aの領域R1、R2を検出したタイミングで、撮像装置3Eにより撮像を許可する撮像許可部33Aを備えている。
 画像取得部33は、部位検出部21がスプロケット51A2の歯51aの領域R1、R2を検出したタイミングで、すなわち、撮像許可部33Aが撮像の許可をしたタイミングで、撮像装置3Eに撮像画像G1の取得をさせる指令信号を出力する。これにより、撮像装置3Eにより、撮像画像G1が操作者の操作に拘わらず、自動的に取得される。取得された撮像画像G1は、部位検出部21がスプロケット51A2の歯51aの領域R1、R2を検出した画像であるため、特徴点抽出部22により、正確な位置の特徴点を抽出することができる。
〔第3実施形態〕
 図16は、第3実施形態に係る摩耗量測定システム1である。図16に示すように、本実施形態に係る摩耗量測定システム1が、第2実施形態のものと相違する点は、複数種の部品に対して、摩耗量の測定を行う点であり、部品設定部31A、識別装置選択部31B、および複数種の部品に応じた複数種(5種類)の識別装置20A~20Eが設けられている。したがって、第2実施形態と同じ構成は、その詳細な説明を省略する。
 本実施形態では、サーバ2の演算装置2Aは、作業機械5の複数種(5種類)の部品に応じて、識別装置20A~20Eを備えている。なお、第1実施形態の変形例の如く、部位検出部21を省略する場合には、演算装置2Aは、複数種(5種類)の特徴点抽出部22A~22Eを備えている。
 本実施形態では、識別装置20Aの部位検出部21Aでは、部品としてスプロケット51A2の歯(部位)51aの領域の検出を行い、特徴点抽出部22Aは、スプロケット51A2の特徴点の抽出を行う(図6A参照)。これは、第1および第2実施形態で説明したものと同じである。
 識別装置20Bの部位検出部21Bでは、部品としてツース53Dの先端(部位)53dの領域の検出を行い、特徴点抽出部22Bは、ツース53Dの特徴点の抽出を行う(図17C参照)。識別装置20Cの部位検出部21Cでは、部品としてローラ51Cの支持部(部位)51gの領域の検出を行い、特徴点抽出部22Cは、ローラ51Cの特徴点の抽出を行う(図18C参照)。
 識別装置20Dの部位検出部21Dでは、部品としてシュープレート(部品)51Dの凸部(部位)51hの領域の検出を行い、特徴点抽出部22Dは、シュープレート51Dの特徴点の抽出を行う(図19C参照)。識別装置20Eの部位検出部21Dでは、部品としてリンク(部品)51Bの凸部(部位)51hの領域の検出を行い、特徴点抽出部22Eは、リンク51Bの特徴点の抽出を行う(図20C参照)。
 本実施形態では、通信端末3の演算装置3Aは、部品設定部31Aと、識別装置選択部31Bと、を備えている。部品設定部31Aは、複数種(5種)の部品から、1つの部品を設定するものであり、入力装置3Cを介した操作者が入力する入力情報により、1つの部品(具体的には部品のコード番号)が設定される。
 識別装置選択部(抽出部選択部)31Bは、部品設定部31Aで設定された部品に応じて、複数種(5種類)の識別装置20A~20Eから、1つの識別装置を選択する。本実施形態では、操作者が、部品としてスプロケット51A2を選択した場合、部品設定部31Aでは、スプロケット51A2を部品として設定し、識別装置選択部31Bは、識別装置20Aを選択している。このように選択した識別装置20Aを用いて、第2実施形態で説明した構成により、一連のステップを経てスプロケット51A2の摩耗量を測定する。なお、第1実施形態の変形例を適用した場合は、識別装置20A~20Eは、特徴点抽出部22A~22Eで構成されるため、識別装置選択部31Bは、特徴点抽出部22A~22Eと選択する。
 ここで、ガイド設定部32は、選択された部品に応じた撮影用ガイドT1~T5の1つを選択して、これを設定する。具体的には、選択された部品がスプロケット51A2である場合には、第2実施形態で説明した撮影用ガイドT1を設定する。
 選択された部品がツース53Dである場合には、ガイド設定部32は、図17Aに示すように中央のツース53Dの両側の輪郭線とこれに垂直な線とからなる撮影用ガイドT2を映像ga2に設定する。選択された部品がローラ51Cである場合には、ガイド設定部32は、図18Aに示すようにローラ51Cの回転軸線と、支持部に沿った上下に輪郭線に相当する撮影用ガイドT3を映像ga3に設定する。
 さらに、選択された部品がシュープレート51Dである場合には、ガイド設定部32は、図19Aに示すようにシュープレート51Dのうちリンク51Bに隣接する表面に沿った線と、この線に直交するシュープレート51Dの凸部51hの中央線とを撮影用ガイドT4として、映像ga4に設定する。さらに、選択された部品が、リンク51Bである場合には、ガイド設定部32は、図20Aに示すように、リンク51B同士の連接された連接孔に沿った円と、とリンク51Bの部材の輪郭線とを撮影用ガイドT5として映像ga5に設定する。
 ここで、以下に、学習済みモデルの生成について説明する。ツース53Dの場合には、図17Bに示すように、上述した方法と同様の方法で、学習用画像g2と、各ツース53Dの領域r31~r35とを教師データとして用いて、図17Cに示すように撮像画像G2における領域R31~R35の検出が学習された部位検出部21Bを、第1学習部44で生成する。
 さらに、上述した方法と同様の方法で、学習用画像g2と、各ツース53Dの特徴点c1~c5とを教師データとして用いて、撮像画像G2における特徴点C1~C5の抽出が学習された特徴点抽出部22Bを、第2学習部45で生成する。
 学習させる特徴点は、ツース53Dとバケット53Cとの交点を特徴点c1、c5とし、ツース53Dの取付け位置(アダプタとの境界点)を特徴点c2、c4、ツース53Dの先端を特徴点c3とする。
 学習済みモデルである部位検出部21Bと特徴点抽出部22Bにより、図17Cに示すように、撮像画像G2に対して、各ツース53Dの領域R31~R35を検出し、特徴点C1~C5を抽出することができる。ここで、摩耗量算出部37Aは、特徴点C2と特徴点C4の線分の長さをX3とし、特徴点C3からこの線分に直交する線との交点までの長さをX4とし、X4/X3を算出することで、ツース53Dの摩耗量(摩耗率)を算出する。X4が摩耗により減少し、X3は殆ど変化しないので、X4/X3を算出することで、ツース53Dの摩耗の状態を把握することができる。
 ローラ51Cの場合には、図18Bに示すように、上述した方法と同様の方法で、学習用画像g3と、ローラ51Cの領域r4とを教師データとして用いて、図18Cに示すように撮像画像G3における領域R4の検出が学習された部位検出部21Cを、第1学習部44で生成する。
 さらに、上述した方法と同様の方法で、学習用画像g3と、各ローラ51Cの特徴点d1~d8とを教師データとして用いて、撮像画像G3における特徴点D1~D8の抽出が学習された特徴点抽出部22Cを、第2学習部45で生成する。
 学習させる特徴点は、ローラ51Cの回転軸線と支持部51gの両端の輪郭線との交点を特徴点d1、d2とし、ローラ51Cの支持部51gの輪郭線に沿った点を特徴点d3~d8とする。ローラ51Cが新品の場合には、特徴点d3~d8を結ぶ線は、略直線であり、摩耗が進行するに従って、図18Bに示すように、これらの線が凹んだ曲線になる。
 学習済みモデルである部位検出部21Cと特徴点抽出部22Cにより、図18Cに示すように、撮像画像G3に対して、各ローラ51Cの支持部51gの領域R4を検出し、特徴点D1~D8を抽出することができる。ここで、摩耗量算出部37Aは、特徴点D4と特徴点D8との回転軸線方向の距離をX5とし、特徴点D4と特徴点D8との回転軸線と直交方向の距離をX6とし、X6/X5を算出することで、ローラ51Cの摩耗量(摩耗率)を算出する。X6が摩耗により減少し、X5は殆ど変化しないので、X6/X5を算出することで、ローラ51Cの摩耗の状態を把握することができる。
 シュープレート51Dの場合には、図19Bに示すように、上述した方法と同様の方法で、学習用画像g4と、各シュープレート51Dの領域r5とを教師データとして用いて、図19Cに示すように撮像画像G4における領域R5の検出が学習された部位検出部21Dを、第1学習部44で生成する。
 さらに、上述した方法と同様の方法で、学習用画像g4と、各シュープレート51Dの特徴点e1~e19とを教師データとして用いて、撮像画像G4における特徴点E1~E19の抽出が学習された特徴点抽出部22Dを、第2学習部45で生成する。
 学習させる特徴点は、シュープレート51Dがリンク51Bと隣接する背面に沿った直線上の点を特徴点e1~e4とし、シュープレート51Dの凸部51hとこれらの間の谷部に沿った点を特徴点e5~e19とする。
 学習済みモデルである部位検出部21Dと特徴点抽出部22Dにより、図19Cに示すように、撮像画像G4に対して、シュープレート51Dの凸部51hの領域R5を検出し、特徴点E1~E19を抽出することができる。ここで、摩耗量算出部37Aは、両側の凸部51hの頂点に位置する特徴点E6とE18との距離をX7とし、特徴点E12から、特徴点E6、E18を結ぶ線分と特徴点E2との距離をX8とし、X8/X7を算出することでシュープレート51Dの摩耗量(摩耗率)を算出する。X8が摩耗により減少し、X7は殆ど変化しないので、X8/X7を算出することで、シュープレート51Dの摩耗の状態を把握することができる。
 リンク51Bの場合には、図20Bに示すように、上述した方法と同様の方法で、学習用画像g5と、各リンク51Bの領域r6とを教師データとして用いて、図20Cに示すように撮像画像G5における領域R6の検出が学習された部位検出部21Eを、第1学習部44で生成する。
 さらに、上述した方法と同様の方法で、学習用画像g5と、リンク51Bの特徴点f1~f18とを教師データとして用いて、撮像画像G5における特徴点F1~F18の抽出が学習された特徴点抽出部22Eを、第2学習部45で生成する。
 学習させる特徴点は、各リンク51Bの長手方向に沿った輪郭線上の点を特徴点f1~f8とし、リンク51Bの連結部および孔の位置を特定する点を特徴点f9~f18とする。
 学習済みモデルである部位検出部21Eと特徴点抽出部22Eにより、図20Cに示すように、撮像画像G5に対して、リンク51Bの領域R6を検出し、特徴点F1~F18を抽出することができる。ここで、摩耗量算出部37Aは、リンク51Bの両側の側に位置する特徴点F9とF18との距離をX9とし、これらの間に位置する特徴点F12(または特徴点F15)から、特徴点F9とF18とを結ぶ直線までの距離をX10とし、X10/X9を算出することでリンク51Bの摩耗量(摩耗率)を算出する。X10が摩耗により減少し、X9は殆ど変化しないので、X10/X9を算出することで、リンク51Bの摩耗の状態を把握することができる。なお、本実施形態では、1つのリンク51Bに対しての摩耗量を算出したが、たとえば、複数のリンク51Bの全体長さをX9とし、X10/X9の値を算出すれば、より正確なリンク51Bの摩耗を把握することができる。
 このように、本実施形態では、作業機械5の複数種(5種類)の部品の部位に対して、これらの部品を選択することで、それぞれの摩耗量を測定することができ、作業機械5の摩耗し易い部品の交換時期を1つの摩耗量測定システム1を用いて、顧客に提案することができる。なお、選択した部品が、ローラ51C、シュープレート51D、ツース53Dである場合には、基準ゲージ設定部37Cにより、スプロケットの場合と同様に、これらの形状に応じた基準ゲージを設定してもよい。
 以上、本発明の実施の形態を用いて詳述してきたが、具体的な構成はこの実施形態及び実施例に限定されるものではなく、本発明の要旨を逸脱しない範囲における設計変更があっても、それらは本発明に含まれるものである。
 第2実施形態の変形例では、撮像判定部が、部位検出部により検出された結果を判定して、撮像装置による撮像のタイミングを判定したが、このような構成を、例えば、第3実施形態の摩耗量測定システムに適用してもよいことは勿論である。さらに、このような判定を行えば、摩耗量を特定するに好適な画像が取得できるので、特徴点抽出部を用いずに、取得した画像から部品の部位の摩耗を特定してもよい。
 さらに、第2および第3実施形態では、学習部として、第2学習部のみを設けたが、第1実施形態と同様の学習部を第2および第3実施形態の演算装置2Aに設けてもよい。
 本実施形態では、摩耗量として摩耗度を算出することにより、交換時期を予測しているが、たとえば、図8に示すような基準ゲージと摩耗を測定する部位との隙間の大きさを、演算装置が演算し、基準ゲージと部位の画像と、隙間の大きさの演算結果を表示装置に出力し、対象部位の交換の判定を操作者等が行ってもよい。
1:摩耗量測定システム、2A:演算装置、3A:演算装置、3B:表示装置、3C:入力装置、3E:撮像装置、21:部位検出部、22:特徴点抽出部、5:作業機械、34:抽出判定部、36:特徴点修正部、37A:摩耗量算出部、37B:交換時期算出部、37C:基準ゲージ設定部、51A:スプロケット(部品)、51a:歯(部位)、51B:リンク(部品)、51C:ローラ(部品)、51h:凸部、51D:シュープレート(部品)、51g:支持部(部位)、53D:ツース、53d:先端(部位)

Claims (10)

  1.  作業機械の部品を含む撮像画像から前記部品の摩耗量を演算する演算装置を備えた摩耗量測定システムであって、
     前記演算装置は、
     前記作業機械の特定の種類の部品を含む学習用画像と、前記学習用画像において前記部品が摩耗する部位の形状を特定する複数の特徴点と、を教師データとして、前記特徴点の抽出が機械学習され、前記撮像画像から前記撮像画像における前記部位の特徴点を抽出する特徴点抽出部と、
     前記特徴点から、前記部位の摩耗量を算出する摩耗量算出部と、を備える、摩耗量測定システム。
  2.  前記摩耗量測定システムは、撮像装置と、前記撮像装置からの前記撮像画像を表示する表示装置と、を備えており、
     前記演算装置は、前記学習用画像と、前記学習用画像において前記部品の摩耗する部位の領域と、を教師データして、前記領域の検出が機械学習され、前記撮像画像から前記撮像画像における前記部品の前記部位の領域を検出する部位検出部をさらに備えており、
     前記表示装置は、前記撮像画像上に、前記部位検出部で検出した前記部品の領域を表示する、請求項1に記載の摩耗量測定システム。
  3.  前記演算装置は、前記部位検出部の検出結果に基づいて、前記特徴点抽出部による前記特徴点の抽出の実行を判定する抽出判定部をさらに備える、請求項2に記載の摩耗量測定システム。
  4.  前記摩耗量測定システムは、撮像装置と、前記撮像装置からの映像を表示する表示装置とを備え、
     前記演算装置は、前記表示装置で表示された映像に、前記部品の形状に応じた撮影用ガイドを設定するガイド設定部と、前記撮像装置から前記撮像画像を取得する画像取得部と、をさらに備える、請求項1に記載の摩耗量測定システム。
  5.  前記摩耗量測定システムにおいて、前記表示装置は、前記撮像装置からの映像を表示し、
     前記演算装置は、前記表示装置で表示された映像に、前記部品の形状に応じた撮影用ガイドを設定するガイド設定部と、前記撮像装置から前記撮像画像を取得する画像取得部と、をさらに備え、
     前記画像取得部は、前記映像からの画像において、前記部位検出部が前記部位の領域を検出したタイミングで、前記撮像装置に前記撮像画像を取得させる、請求項2に記載の摩耗量測定システム。
  6.  前記摩耗量測定システムは、前記撮像画像とともに、前記撮像画像上に、前記特徴点抽出部で抽出した特徴点を表示する表示装置と、
     前記表示装置に表示された特徴点に対して、前記撮像画像上で前記特徴点の位置の変更を入力する入力装置と、をさらに備え、
     前記演算装置は、前記特徴点の位置の変更に合わせて、前記特徴点の位置を修正する特徴点修正部を備えており、
     前記摩耗量算出部は、前記特徴点修正部で修正した特徴点に基づいて前記部位の摩耗量を算出する、請求項1に記載の摩耗量測定システム。
  7.  前記演算装置は、前記撮像画像と、前記修正した特徴点を含む特徴点とを教師データとして、前記特徴点抽出部を再学習させる、請求項6に記載の摩耗量測定システム。
  8.  前記演算装置は、前記部品の前記摩耗量とから、前記部品の交換時期を算出する交換時期算出部をさらに備える、請求項1に記載の摩耗量測定システム。
  9.  前記摩耗量測定システムは、前記撮像画像と前記交換時期を表示する表示装置を備えており、
     前記演算装置は、前記表示装置で表示された前記撮像画像の前記部位に対して、前記部位の摩耗前の表面形状に応じた基準ゲージの画像を設定する基準ゲージ設定部をさらに備える、請求項8に記載の摩耗量測定システム。
  10.  前記演算装置は、作業機械の複数種の部品に応じて、複数の前記特徴点抽出部を備えており、
     前記摩耗量測定システムは、前記複数種の部品から、1つの部品を設定する部品設定部と、
     前記部品設定部で設定された部品に応じて、前記複数の特徴点抽出部から、1つの特徴点抽出部を選択する抽出部選択部と、をさらに備え、
     前記抽出部選択部で選択された特徴点抽出部が、設定された前記部品の特徴点を抽出する、請求項1に記載の摩耗量測定システム。
PCT/JP2020/031866 2019-08-26 2020-08-24 摩耗量測定システム WO2021039731A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019153951A JP2021032736A (ja) 2019-08-26 2019-08-26 摩耗量測定システム
JP2019-153951 2019-08-26

Publications (1)

Publication Number Publication Date
WO2021039731A1 true WO2021039731A1 (ja) 2021-03-04

Family

ID=74678541

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/031866 WO2021039731A1 (ja) 2019-08-26 2020-08-24 摩耗量測定システム

Country Status (2)

Country Link
JP (1) JP2021032736A (ja)
WO (1) WO2021039731A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016504643A (ja) * 2012-10-17 2016-02-12 キャタピラー インコーポレイテッドCaterpillar Incorporated 部品のデジタル画像に基づく部品の磨耗判定方法及びシステム
JP2018195107A (ja) * 2017-05-18 2018-12-06 ファナック株式会社 画像処理システム
WO2019130945A1 (ja) * 2017-12-27 2019-07-04 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及び移動体
JP2019125057A (ja) * 2018-01-12 2019-07-25 キヤノン株式会社 画像処理装置及びその方法、プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016504643A (ja) * 2012-10-17 2016-02-12 キャタピラー インコーポレイテッドCaterpillar Incorporated 部品のデジタル画像に基づく部品の磨耗判定方法及びシステム
JP2018195107A (ja) * 2017-05-18 2018-12-06 ファナック株式会社 画像処理システム
WO2019130945A1 (ja) * 2017-12-27 2019-07-04 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及び移動体
JP2019125057A (ja) * 2018-01-12 2019-07-25 キヤノン株式会社 画像処理装置及びその方法、プログラム

Also Published As

Publication number Publication date
JP2021032736A (ja) 2021-03-01

Similar Documents

Publication Publication Date Title
CN104217350B (zh) 实现虚拟试戴的方法和装置
US9996909B2 (en) Clothing image processing device, clothing image display method and program
JP3608920B2 (ja) 非接触画像計測システム
EP2553383B1 (en) Method and apparatus for generating texture in a three-dimensional scene
JP2017117341A (ja) 物体検出方法、装置、及びプログラム
EP3306529A1 (en) Machine control measurements device
CN108027667A (zh) 信息处理设备、信息处理方法和程序
WO2021039731A1 (ja) 摩耗量測定システム
JP2008516319A (ja) 画像センサを有する携帯型装置を用いる表示制御方法
JPWO2005096129A1 (ja) 撮像装置の指示位置検出方法および装置、撮像装置の指示位置検出用プログラム
WO2005096130A1 (ja) 撮像装置の指示位置検出方法および装置、撮像装置の指示位置検出用プログラム
JP2017189181A (ja) 靴のフィッティング度合提示方法および靴のフィッティング度合提示装置
EP3723039A1 (en) Tip attachment discrimination device
CN110873551A (zh) 检查装置
JP2020010166A (ja) 画像処理装置およびその制御方法、撮像装置、プログラム
JP6632298B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6597702B2 (ja) 設営アシストシステム
JP2018106358A (ja) 設営アシストシステム
US20220259815A1 (en) System for determining content of work performed by construction machine and method for determining work
US20220366248A1 (en) Learning apparatus, a learning method, object detecting apparatus, object detecting method, and recording medium
WO2021084690A1 (ja) 情報処理システム、情報処理装置、インソール、情報処理方法および記録媒体
US9844316B2 (en) Corneal endothelial cell analysis method and corneal endothelial cell analysis apparatus
JPH04323503A (ja) 画像処理装置
US11978138B2 (en) Information processing apparatus, information processing method, and storage medium for estimating the size of a detection target
WO2022102533A1 (ja) マスク設定装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20856837

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20856837

Country of ref document: EP

Kind code of ref document: A1