WO2023047809A1 - 車両判別システム - Google Patents

車両判別システム Download PDF

Info

Publication number
WO2023047809A1
WO2023047809A1 PCT/JP2022/029759 JP2022029759W WO2023047809A1 WO 2023047809 A1 WO2023047809 A1 WO 2023047809A1 JP 2022029759 W JP2022029759 W JP 2022029759W WO 2023047809 A1 WO2023047809 A1 WO 2023047809A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
loading platform
detection unit
information
dimensional
Prior art date
Application number
PCT/JP2022/029759
Other languages
English (en)
French (fr)
Inventor
翔 藤原
幸広 細
進軍 邱
大輔 野田
耕治 山下
Original Assignee
コベルコ建機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コベルコ建機株式会社 filed Critical コベルコ建機株式会社
Priority to EP22872565.1A priority Critical patent/EP4390301A1/en
Priority to CN202280063064.9A priority patent/CN117980690A/zh
Publication of WO2023047809A1 publication Critical patent/WO2023047809A1/ja

Links

Images

Classifications

    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/26Indicating devices
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness

Definitions

  • the present invention relates to a vehicle discrimination system that discriminates the type of vehicle.
  • Patent Document 1 describes a technology for determining the type of vehicle (model in the document).
  • a vehicle is provided with a display unit.
  • the document describes that the flickering cycle of the display differs depending on the type of vehicle, the color of the display differs depending on the type of vehicle, and the color of light emitted from the display differs depending on the type of vehicle. ing.
  • an object of the present invention is to provide a vehicle discrimination system capable of discriminating the type of vehicle without providing a mark for discriminating the type of vehicle on the vehicle.
  • the vehicle identification system identifies the type of vehicle that has a loading platform.
  • the vehicle discrimination system includes a bed detector and a controller.
  • the loading platform detector detects information including a distance to the loading platform.
  • the controller calculates the dimension information of the cargo bed based on the distance detected by the cargo bed detector.
  • the controller stores a correspondence relationship between the dimension information of the loading platform and the type of the vehicle.
  • the controller determines the type of the vehicle based on the calculated dimension information and the stored correspondence relationship.
  • the type of vehicle can be determined without providing a mark for determining the type of vehicle on the vehicle.
  • FIG. 1 is a side view of a vehicle, a working machine, etc. of the vehicle discrimination system
  • FIG. FIG. 2 is a top view of the vehicle, work machine, and the like shown in FIG. 1
  • FIG. 2 is a diagram showing a loading platform and the like detected by a loading platform detection unit shown in FIG. 1
  • 2 is a block diagram of the vehicle discrimination system shown in FIG. 1
  • FIG. 5 is a flowchart showing processing of the controller shown in FIG. 4;
  • FIG. 1 The vehicle discrimination system 1 will be described with reference to FIGS. 1 to 5.
  • FIG. 1 The vehicle discrimination system 1 will be described with reference to FIGS. 1 to 5.
  • the vehicle discrimination system 1 is a system that discriminates the type of the vehicle 10 shown in FIG.
  • the vehicle discrimination system 1 includes a vehicle 10, a working machine 20, a loading platform detection unit 30 (loading platform detector), an attitude detection unit 41 (attitude detector) shown in FIG. 4, and a position detection unit 43 (position detector). and a controller 50 .
  • the vehicle 10 has a loading platform 13, as shown in FIG.
  • the vehicle 10 is a machine (a working machine, a transport vehicle, or a transport vehicle) that transports objects accommodated in the loading platform 13 .
  • Vehicle 10 is, for example, a dump truck.
  • the vehicle 10 includes a vehicle main body 11 and a loading platform 13 .
  • the vehicle main body 11 supports the loading platform 13.
  • the vehicle main body 11 is capable of running, and may run on wheels or on crawlers.
  • the vehicle body portion 11 includes a vehicle cab 11a.
  • the carrier 13 accommodates objects to be transported.
  • the object to be transported accommodated in the carrier 13 may be earth and sand, stone, wood, metal, waste, or a structure such as concrete.
  • the loading platform 13 is arranged on the vehicle rear side X2 (described later) from the vehicle cab 11a.
  • the carrier 13 has, for example, a box-like shape without a lid (see FIG. 3).
  • the loading platform 13 may be movable with respect to the vehicle body portion 11 or may be fixed to the vehicle body portion 11 .
  • a state in which the floor surface 13a (described later) of the loading platform 13 is arranged horizontally or substantially horizontally will be described below.
  • the loading platform 13 includes a floor surface 13a, a rear tilting plate surface 13b, a side tilting plate surface 13c, and a torii gate surface 13d.
  • a vehicle up-down direction Z is a direction relative to the vehicle 10 that coincides with the vertical direction when the vehicle 10 is placed on a horizontal plane.
  • the longitudinal direction of the loading platform 13 is defined as the longitudinal direction X of the vehicle.
  • the vehicle front side X1 the side facing the vehicle driver's cab 11a from the loading platform 13 is the vehicle front side X1
  • the opposite side is the vehicle rear side X2.
  • a direction orthogonal to each of the vehicle up-down direction Z and the vehicle front-rear direction X is defined as a vehicle width direction Y. As shown in FIG.
  • the floor surface 13a is the bottom surface of the loading platform 13.
  • the floor surface 13a is planar or substantially planar.
  • Each of the rear gate plate surface 13b, the side gate plate surface 13c, and the torii gate surface 13d is also planar or substantially planar.
  • the rear tilt plate surface 13b is a surface of the loading platform 13 on the vehicle rear side X2, and protrudes upward from a portion of the floor surface 13a on the vehicle rear side X2.
  • the left and right side tilt plate surfaces 13c are the outer surfaces (the left surface and the right surface) of the loading platform 13 in the vehicle width direction Y (see FIG. 3), and protrude upward from the left and right ends of the floor surface 13a. .
  • the torii surface 13d is a surface of the loading platform 13 on the vehicle front side X1, and protrudes upward from a portion of the floor surface 13a on the vehicle front side X1.
  • the torii surface 13d projects above the side flap surface 13c and above the rear flap surface 13b.
  • the work machine 20 performs work on the vehicle 10.
  • the work machine 20 performs, for example, an operation of loading objects to be transported onto the loading platform 13 (e.g., earth and sand loading operation).
  • the work machine 20 is, for example, a construction machine, such as a shovel, or a crane. A case where the work machine 20 is a shovel will be described below.
  • the work machine 20 includes a lower travel body 21 , an upper revolving body 23 and an attachment 25 .
  • the lower traveling body 21 causes the work machine 20 to travel.
  • the lower traveling body 21 includes, for example, crawlers.
  • the upper revolving body 23 is rotatably mounted on the lower traveling body 21 .
  • the upper revolving body 23 has a working machine cab 23a.
  • the working machine cab 23a is a part provided with an operating device and the like that allows an operator to operate the working machine 20 .
  • the work machine 20 may be operated by an operator's operation, or may be operated by automatic operation.
  • the attachment 25 is a part that performs work, and includes, for example, a boom 25a, an arm 25b, and a tip attachment 25c.
  • the boom 25a is attached to the upper revolving body 23 so as to be able to rise and fall (rotatable in the vertical direction).
  • Arm 25b is rotatably attached to boom 25a.
  • the tip attachment 25c is provided at the tip of the attachment 25 and rotatably attached to the arm 25b.
  • the tip attachment 25c may be, for example, a bucket for scooping earth and sand, a device for pinching an object (such as a grapple), or a device for crushing or excavating (such as a breaker).
  • the loading platform detection unit 30 detects information including the distance to the loading platform 13, specifically information including the distance from the loading platform detection unit 30 to the loading platform 13, for example.
  • the loading platform detection unit 30 may be a detector provided with a sensor for detecting information including the distance to the loading platform 13 .
  • the loading platform detector 30 is arranged at a position where the loading platform 13 can be detected.
  • the platform detector 30 may be attached to the work machine 20 .
  • the platform detector 30 may be attached to the work machine cab 23a.
  • the platform detector 30 may be attached to the roof portion of the working machine cab 23a, or may be arranged inside the working machine cab 23a.
  • the platform detector 30 may be attached to a portion of the work machine 20 other than the work machine cab 23a.
  • the loading platform detection unit 30 may be arranged outside the work machine 20 (see the loading platform detection unit 30 indicated by the two-dot chain line in FIG. 1).
  • the platform detector 30 may be installed at a work site where the work machine 20 is arranged (a work site where the vehicle 10 is arranged).
  • each of the position detector 43 and the controller 50 may be mounted on the work machine 20 or may be arranged outside the work machine 20 .
  • the platform detector 30 may be provided at only one location, or may be provided at a plurality of locations (the same applies to the position detector 43 and the controller 50).
  • the vehicle discrimination system 1 may include a bed detector 30 mounted on the work machine 20 and a bed detector 30 arranged outside the work machine 20 . This is the same for the position detector 43 and the controller 50 as well.
  • the loading platform detection unit 30 may detect the distance to a part of the loading platform 13. Specifically, for example, the loading platform detection unit 30 may detect the distance to the torii surface 13d, or may detect the distance to the rear flap surface 13b. The loading platform detection unit 30 may detect a distance image (described later) of the entire loading platform 13 or substantially the entire loading platform 13 . The loading platform detection unit 30 may detect information other than the distance, and specifically may detect a two-dimensional image of the loading platform 13 .
  • the carrier detector 30 may include a two-dimensional image detector 31 and a three-dimensional information detector 33 .
  • the two-dimensional image detection unit 31 detects a two-dimensional image of the loading platform 13.
  • the two-dimensional image detection section 31 may be a detector equipped with a sensor for detecting a two-dimensional image of the loading platform 13 .
  • the two-dimensional image detected by the two-dimensional image detection unit 31 may include the entire loading platform 13 as shown in FIG. 3, for example.
  • a distance image acquired by the three-dimensional information detection unit 33, which will be described later, may also include the entire loading platform 13 in the same manner.
  • This two-dimensional image may include portions of the vehicle 10 other than the loading platform 13, and may include the working machine 20 (for example, the attachment 25, etc.).
  • the distance image acquired by the three-dimensional information detection unit 33 may include portions of the vehicle 10 other than the loading platform 13, and may include the work machine 20 (for example, the attachment 25, etc.).
  • the two-dimensional image detection unit 31 shown in FIG. 1 may be a monocular camera.
  • the three-dimensional information detection unit 33 detects three-dimensional information (three-dimensional distance information) including the loading platform 13.
  • the three-dimensional information detection unit 33 may be a detector provided with a sensor for detecting three-dimensional information (three-dimensional distance information) including the loading platform 13 .
  • the three-dimensional information detection unit 33 acquires a distance image, which is an image having distance information (depth information). Specifically, for example, the three-dimensional information detection unit 33 detects point cloud data and the like.
  • the three-dimensional information detection unit 33 may include a device that detects three-dimensional information using laser light, for example, LIDAR (Light Detection and Ranging), or for example, a TOF (Time Of Flight) sensor. You may prepare.
  • LIDAR Light Detection and Ranging
  • TOF Time Of Flight
  • the three-dimensional information detection unit 33 may include a device (such as a millimeter wave radar) that detects three-dimensional information using radio waves.
  • the three-dimensional information detection section 33 may have a stereo camera. It is preferable that the coordinate system of the two-dimensional image and the coordinate system of the three-dimensional information be unified. For example, these coordinate systems may be unified into a coordinate system (machine coordinate system) based on the work machine 20, or may be unified into a coordinate system based on the work site.
  • the carrier detection unit 30 may include a device that detects one-dimensional or two-dimensional distance information. More specifically, the platform detector 30 may include a device for detecting the distance from the platform detector 30 to a certain point (device for detecting one-dimensional distance information). The platform detector 30 may include a device (device for detecting two-dimensional distance information) for detecting the distance to each point where the plane passing through the platform detector 30 and the platform 13 intersect.
  • the carrier detector 30 may include an optical sensor (for example, a laser sensor) or a radio wave sensor that detects one-dimensional or two-dimensional distance information.
  • the posture detection unit 41 detects the posture of the working machine 20.
  • Posture detection unit 41 may be a detector that includes a sensor for detecting the posture of work machine 20 .
  • the posture detection unit 41 may detect the rotation angle (hoisting angle) of the boom 25 a with respect to the upper swing body 23 .
  • the posture detection unit 41 may detect the rotation angle of the arm 25b with respect to the boom 25a.
  • the posture detection unit 41 may detect the rotation angle of the tip attachment 25c with respect to the arm 25b.
  • the posture detection unit 41 may detect the turning angle of the upper turning body 23 with respect to the lower traveling body 21 .
  • the attitude detection unit 41 may include a sensor (for example, a rotary encoder) that detects an angle, or a sensor that detects an inclination with respect to a horizontal plane, and detects the stroke of a cylinder (not shown) that drives the attachment 25. It may be provided with a sensor for Posture detection unit 41 may detect the posture of work machine 20 based on one or both of the two-dimensional image and the range image. In this case, one or both of the two-dimensional image and the range image may be detected by the carrier detector 30 . In this case, the carrier detector 30 also has the function of the posture detector 41, and the posture detector 41 may be omitted.
  • a sensor for example, a rotary encoder
  • Posture detection unit 41 may detect the posture of work machine 20 based on one or both of the two-dimensional image and the range image. In this case, one or both of the two-dimensional image and the range image may be detected by the carrier detector 30 . In this case, the carrier detector 30 also has the function of the posture detector 41, and the
  • the position detection unit 43 detects the position of the work machine 20 at the work site.
  • the position detection unit 43 may detect the position and orientation of the work machine 20 with respect to the work site (for example, the orientation of the upper swing body 23).
  • the position detection unit 43 may detect the position and orientation of the reference portion of the work machine 20 with respect to the work site.
  • the reference portion of the work machine 20 may be, for example, a specific portion of the upper revolving body 23 or the lower traveling body 21, or may be a mounting portion (boom foot) of the boom 25a to the upper revolving body 23, for example.
  • the position detection unit 43 may be a detector equipped with a sensor for detecting the position of the work machine 20 at the work site. Specifically, for example, the position detection unit 43 may use a satellite positioning system (for example, GNSS (Global Navigation Satellite System)) or may use a total station to detect the position of the work machine 20 at the work site. Other known techniques that can be used may be used.
  • GNSS Global Navigation Satellite System
  • the controller 50 (see FIG. 4) is a computer that performs signal input/output, computation (processing), information storage, and the like.
  • the functions of the controller 50 shown in FIG. 4 are realized by executing a program stored in the storage unit 53 of the controller 50 or the like by the arithmetic unit.
  • the controller 50 performs processing related to discrimination of the type of the vehicle 10 (see FIG. 1).
  • the controller 50 may perform processing different from determining the type of the vehicle 10 .
  • the controller 50 may control automatic operation of the work machine 20 (see FIG. 1), or may perform control to assist the operation of the work machine 20 .
  • the controller 50 includes a dimension information calculation unit 51 , a storage unit 53 , a determination unit 55 and a detection availability determination unit 57 .
  • the dimension information calculation unit 51 calculates the dimension information of the loading platform 13 based on the distance detected by the loading platform detection unit 30 shown in FIG.
  • This dimension information is information that serves as a reference for discriminating the type of the vehicle 10 .
  • Information from which the type of the vehicle 10 can be determined is used as the dimension information.
  • a specific example of the dimension information is as follows.
  • the dimension information may include the dimension of the loading platform 13 in a specific direction or the dimension of a specific portion.
  • the dimension information may include the dimension Lx of the loading platform 13 in the vehicle longitudinal direction X (the dimension and depth of the loading platform 13 in the longitudinal direction of the loading platform 13).
  • the dimension Lx is the space in the vehicle front-rear direction X between the torii surface 13d and the rear flap plate surface 13b.
  • the dimension information may include the dimension Ly (width) in the vehicle width direction Y of the loading platform 13 shown in FIG.
  • the dimension Ly may be the space in the vehicle width direction Y between the side flap surfaces 13c, 13c on both sides in the vehicle width direction Y.
  • the dimension Ly may be the dimension in the vehicle width direction Y of the rear gate plate surface 13b or the torii surface 13d.
  • the dimension information may include the dimension of the loading platform 13 in the vertical direction Z of the vehicle.
  • the dimension information may include the dimension Lzb (height) in the vehicle vertical direction Z of the rear flap surface 13b (or the side flap surface 13c) shown in FIG.
  • the dimension information may include the dimension Lzd (height) of the torii surface 13d in the vertical direction Z of the vehicle.
  • the dimension information may include the overall dimensions (in each direction) of the loading platform 13 . More specifically, the dimension information may include dimension Lx, dimension Ly (see FIG. 2), and vehicle vertical direction Z dimension (at least one of dimension Lzb and dimension Lzd) of cargo bed 13 .
  • the dimension information may include the capacity of the loading platform 13 calculated from the dimensions of the loading platform 13 .
  • the capacity of the loading platform 13 is the product of the dimension Lx of the loading platform 13, the dimension Ly (see FIG. 2), and the dimension Lzb.
  • the dimension information may include information on the three-dimensional shape of the loading platform 13 . More specifically, the dimension information may include information on the three-dimensional shape of the entire (or substantially the entire) cargo bed 13 .
  • the three-dimensional shape information of the loading platform 13 may include dimension Lx, dimension Ly (see FIG. 2), and dimension Lzb.
  • the three-dimensional shape information of the loading platform 13 is the height (value obtained by subtracting the dimension Lzb from the dimension Lzd) from the intersection of the upper end of the side flap surface 13c and the torii surface 13d to the upper end of the torii surface 13d. may contain.
  • the three-dimensional shape information of the loading platform 13 may include the dimension Lzd of the torii surface 13d in the vertical direction Z of the vehicle.
  • the information on the three-dimensional shape of the loading platform 13 may include information on the angles between the surfaces (rear flap surface 13b, side flap surface 13c, etc.).
  • the dimension information calculation unit 51 calculates the dimension information as follows, for example.
  • the dimension information calculation unit 51 shown in FIG. 4 calculates a three-dimensional shape based on a two-dimensional image and three-dimensional information. More specifically, the dimension information calculation unit 51 includes a two-dimensional shape calculation unit 51a and a three-dimensional shape calculation unit 51b.
  • the two-dimensional shape calculation unit 51a calculates (estimates) the two-dimensional shape of the loading platform 13 (see FIG. 3) based on the two-dimensional image detected by the two-dimensional image detection unit 31. For example, the two-dimensional shape calculator 51a calculates the two-dimensional shape of the loading platform 13 by image recognition. Specifically, for example, the two-dimensional shape calculator 51a extracts (recognizes, estimates) feature points P (see FIG. 3) corresponding to the corner positions of the loading platform 13 in the two-dimensional image. The two-dimensional shape calculation unit 51a also determines links L (see FIG. 3) corresponding to the sides of the loading platform 13 in the two-dimensional image. As shown in FIG. 3, the link L is a line segment connecting the feature points P to each other. The two-dimensional shape calculation unit 51a shown in FIG. 4 determines feature points P and links L, for example, by executing software for extracting a specific shape from a two-dimensional image. For example, this software may be one using deep learning technology.
  • the three-dimensional shape calculation unit 51b calculates the three-dimensional shape of the loading platform 13.
  • the three-dimensional shape calculation unit 51b uses the two-dimensional shape of the cargo bed 13 calculated by the two-dimensional shape calculation unit 51a, the three-dimensional information (for example, point cloud data) of the cargo bed 13 detected by the three-dimensional information detection unit 33, The three-dimensional shape of the loading platform 13 is calculated based on. Specifically, for example, the three-dimensional shape calculation unit 51b calculates the position of the cargo bed 13 in the three-dimensional information detected by the three-dimensional information detection unit 33 from the positions (two-dimensional coordinates) of the feature point P and the link L in the two-dimensional image. Locate corners and sides.
  • the three-dimensional shape calculation unit 51b acquires the three-dimensional coordinates at the positions of the corners and sides of the loading platform 13 from the three-dimensional information (for example, point cloud data). Accordingly, the three-dimensional shape calculation unit 51b determines the three-dimensional coordinates of the corners and sides of the loading platform 13 and determines the three-dimensional shape of the loading platform 13 .
  • the dimension information calculation unit 51 may calculate the three-dimensional shape of the loading platform 13 based on three-dimensional information without using a two-dimensional image. Specifically, for example, the three-dimensional shape calculation unit 51b clusters the three-dimensional information (for example, point cloud data) of the loading platform 13 detected by the three-dimensional information detecting unit 33, thereby obtaining a three-dimensional shape of each surface of the loading platform 13. Identify (estimate, calculate) the position. As a result, the three-dimensional shape calculator 51b determines the three-dimensional shape of the loading platform 13.
  • the carrier detector 30 may not include the two-dimensional image detector 31, and the dimension information calculator 51 may not include the two-dimensional shape calculator 51a.
  • the dimension information calculation unit 51 calculates the dimensions and capacity of the bed 13 ([Example A1] and [Example A2] above) based on the information on the three-dimensional shape of the bed 13 calculated by the three-dimensional shape calculation unit 51b. , and see [Example A3]).
  • the dimension information calculation unit 51 calculates the dimensions and capacity of the loading platform 13 (see [Example A1], [Example A2], and [Example A3] above) without computing the three-dimensional shape of the loading platform 13. You may In this example, the dimension information calculator 51 does not have to include the two-dimensional shape calculator 51a and the three-dimensional shape calculator 51b.
  • the platform detector 30 shown in FIG. 1 detects the distance from the platform detector 30 to two surfaces of the platform 13 that face each other. Based on the detected distance, the dimension information calculation unit 51 (see FIG. 4) may calculate the dimension of the loading platform 13 in the direction in which these two surfaces face each other. Specifically, for example, the distance in the vehicle front-rear direction X from the platform detector 30 to the rear flap surface 13b and the distance in the vehicle front-rear direction X from the platform detector 30 to the torii surface 13d are detected.
  • the dimension information calculation unit 51 calculates the distance in the vehicle front-rear direction X between the torii surface 13d and the rear flap surface 13b, and calculates the dimension Lx of the loading platform 13 in the vehicle front-rear direction X (the [ Example A1a]) may be calculated. Similarly, the dimension information calculation unit 51 calculates the dimension Ly (see [Example A1b] above) of the loading platform 13 in the vehicle width direction Y from the interval between the two side tilt plate surfaces 13c, 13c shown in FIG. may In this example, the carrier detector 30 may be a device that detects one-dimensional or two-dimensional distance information.
  • the carrier detector 30 does not have to include the two-dimensional image detector 31 and the three-dimensional information detector 33 (the same applies to [Example B3b] below).
  • the dimension information calculation unit 51 does not have to include the two-dimensional shape calculation unit 51a and the three-dimensional shape calculation unit 51b (the same applies to [Example B3b] below).
  • the dimension information calculation unit 51 may use the dimensions detected by the loading platform detection unit 30 as part or all of the dimension information of the loading platform 13 .
  • the platform detector 30 detects the height (dimension Lzd) of the torii surface 13d.
  • the dimension information calculation unit 51 may use the dimension Lzd as part or all of the dimension information.
  • the platform detector 30 may be a device that detects two-dimensional distance information, for example.
  • the storage unit 53 (see FIG. 4) stores the correspondence relationship between the dimension information of the loading platform 13 and the type of the vehicle 10.
  • the storage unit 53 stores this correspondence relationship in advance (before the type of the vehicle 10 is determined).
  • the correspondence stored in the storage unit 53 is the condition (for example, numerical range) of the dimensions of part or all of the loading platform 13 (see [Example A1] and [Example A2] above) and the type of the vehicle 10. and relationship.
  • the correspondence stored in the storage unit 53 may be the relationship between the condition (for example, numerical range) of the dimension Lx of the loading platform 13 and the type of the vehicle 10 .
  • the correspondence stored in the storage unit 53 may be the relationship between the condition (for example, numerical range) of the capacity of the loading platform 13 (see [Example A3] above) and the type of the vehicle 10 (Fig. 4 (see the relationships R1 and R2 shown in ).
  • the correspondence stored in the storage unit 53 may be the relationship between the conditions of the three-dimensional shape information (for example, the dimensional ratio of each surface, the angle, etc.) of the loading platform 13 and the type of the vehicle 10. .
  • the storage unit 53 may store information different from the correspondence relationship between the dimension information of the loading platform 13 and the type of the vehicle 10 .
  • the storage unit 53 may store specification information (known information) for each model of the vehicle 10 .
  • This specification information may include information on the dimensions of the loading platform 13 and may include information on the shape of the loading platform 13 .
  • the storage unit 53 may store information as to whether the type of the vehicle 10 is a type that is scheduled to enter the work site where the work machine 20 performs work.
  • the storage unit 53 stores a correspondence relation regarding the type of the vehicle 10 scheduled to enter the work site where the work machine 20 works, and the type of the vehicle 10 scheduled not to enter the work site. It is not necessary to store the correspondence regarding the type.
  • the determination unit 55 determines the type of the vehicle 10 shown in FIG. 1 based on the dimension information calculated by the dimension information calculation unit 51 shown in FIG. 4 and the correspondence stored in the storage unit 53. Specific examples of the “type” of the vehicle 10 determined by the determination unit 55 are as follows.
  • the classification determined by the determination unit 55 may be a classification based on the size of the loading platform 13 .
  • the classification may be a classification (class) based on the maximum loading capacity of the loading platform 13 .
  • the type may be a division including "4t", "8t” and "10t” (see relationship R1 shown in FIG. 4).
  • "4t" is a category to which the vehicle 10 with a maximum loading capacity of about 4t on the loading platform 13 belongs. For example, if the vehicle 10 is a dump truck, it is "4t dump”.
  • the classification may be a classification based on the capacity of the loading platform 13 .
  • Example D1c Information may be set in the storage unit 53 as to whether or not the work machine 20 is scheduled to enter the work site where the work is to be performed.
  • the discrimination unit 55 may discriminate the type only from the classification that is scheduled to enter the work site.
  • the determination unit 55 may narrow down the candidates for the classification to be determined to the classification scheduled to enter the work site.
  • the dimension Lx of the loading platform 13 in the vehicle front-rear direction X is different from that of the loading platform 13. Differences are likely to occur compared to the dimension in the direction (for example, the dimension Ly (see FIG. 2)). Therefore, when the classification determined by the determining unit 55 is a classification based on the size of the loading platform 13, the dimension information preferably includes the dimension Lx of the loading platform 13 in the vehicle front-rear direction X. FIG. For example, when the classification determined by the determination unit 55 is a classification based on the size of the loading platform 13, the dimension information may be only the dimension Lx of the loading platform 13 in the vehicle front-rear direction X. FIG.
  • the controller 50 may use the classification result based on the size of the loading platform 13 to grasp the appropriate amount of objects to be transported onto the loading platform 13 .
  • the controller 50 may use the classification result based on the size of the loading platform 13 for guidance of the loading amount in the loading operation from the working machine 20 to the loading platform 13 .
  • the type determined by the determining unit 55 may be the model of the vehicle 10 .
  • the “model of vehicle 10” is a type to which vehicles 10 manufactured with the same (or substantially the same) size and shape belong.
  • Information may be set in the storage unit 53 as to whether or not the work machine 20 is of a model that is scheduled to enter the work site where work is to be performed. In this case, the determination unit 55 may determine the model only from the models that are scheduled to enter the work site. The determination unit 55 may narrow down the candidates for the model to be determined to models that are scheduled to enter the work site.
  • the controller 50 may read the specification information of the model stored in the storage unit 53 (the specification information of the loading platform 13) based on the model discrimination result of the vehicle 10.
  • the controller 50 may use the specification information of the loading platform 13 to grasp the appropriate amount of objects to be transported onto the loading platform 13 .
  • the controller 50 may use the specification information of the loading platform 13 for guidance of the amount of objects to be transported from the work machine 20 to the loading platform 13 .
  • the controller 50 may use the specification information of the loading platform 13 to grasp the detailed position of the loading platform 13 .
  • the controller 50 may use detailed positional information of the loading platform 13 for automatic operation of loading objects to be transported from the work machine 20 onto the loading platform 13 .
  • the controller 50 may use the detailed positional information of the loading platform 13 to specify the loading position (for example, the unloading position) of the object to be transported from the working machine 20 to the loading platform 13 .
  • the controller 50 may use the detailed positional information of the loading platform 13 to assist the operation of loading an object to be transported from the working machine 20 onto the loading platform 13 .
  • the controller 50 may use detailed positional information of the loading platform 13 for collision prevention control between the loading platform 13 and the work machine 20 .
  • the discrimination unit 55 does not need to discriminate only one type.
  • the determining unit 55 may narrow down the candidate types stored in the storage unit 53 to a plurality of types.
  • the discrimination unit 55 may discriminate the type based on all the information included in the dimension information, or discriminate the type based on only part of the information (information necessary for discriminating the type) included in the dimension information. You may
  • the detection availability determination unit 57 determines whether or not the loading platform 13 can be detected by the loading platform detection unit 30 .
  • the detection propriety determination unit 57 determines whether or not the dimension information calculation unit 51 can appropriately calculate the dimension information of the loading platform 13, and whether or not the determination unit 55 can appropriately determine the type of the vehicle 10. judge.
  • the information necessary for determination by the detection availability determination unit 57 differs depending on whether or not the loading platform detection unit 30 is attached to the work machine 20 .
  • the detection availability determination unit 57 makes determinations as follows.
  • the detectability determination unit 57 determines whether or not the posture of the work machine 20 is the “load bed detectable posture”.
  • the load-bed detectable posture is a posture of the work machine 20 in which the load-bed detection unit 30 can detect the load-bed 13 . More specifically, the load-bed detectable posture is a posture of the work machine 20 that allows the load-bed detection unit 30 to detect information necessary for the dimension information calculation unit 51 to appropriately calculate the dimensional information of the load-bed 13. .
  • the loading platform detectable attitude is set in the controller 50 .
  • the load-bed detectable posture is a posture in which the ratio of the attachment 25 reflected in the detection area (angle of view) of the load-bed detection unit 30 shown in FIG. 3 is equal to or less than a predetermined value.
  • the loading platform detectable posture may be a posture in which the attachment 25 is not reflected in the detection area of the loading platform detection unit 30 (the "predetermined value" may be zero).
  • a posture in which the proportion of the attachment 25 reflected in the detection area of the loading platform detection unit 30 exceeds a predetermined value does not correspond to the loading platform detectable posture.
  • the dimension information calculation unit 51 calculates the size information of the bed 13. (step S2 in FIG. 5). In this case, the determination unit 55 determines the type of the vehicle 10 (step S3 in FIG. 5). On the other hand, if the posture detected by the posture detection unit 41 is not a platform detectable posture (NO in step S1 in FIG. 5), the dimension information calculation unit 51 does not calculate the dimension information of the platform 13 . In this case, the discrimination unit 55 does not discriminate the type of the vehicle 10 .
  • the detection availability determination unit 57 performs determination as follows. .
  • the detection propriety determination unit 57 determines whether or not the “carrying platform detectable condition” is satisfied.
  • the loading platform detectable condition is a condition regarding the posture and position of work machine 20 that allows loading platform detection unit 30 to detect loading platform 13 . More specifically, the loading platform detectable condition is the attitude and position of the work machine 20 that allow the loading platform detection unit 30 to detect information necessary for the dimension information calculation unit 51 to appropriately calculate the dimensional information of the loading platform 13. It is a condition regarding A loading platform detectable condition is set in the controller 50 .
  • the loading platform detectable condition is a condition regarding the attitude and position of working machine 20 such that the percentage of working machine 20 reflected in the detection area of loading platform detection unit 30 is equal to or less than a predetermined value.
  • the loading platform detectable condition may be a condition regarding the attitude and position of working machine 20 such that working machine 20 is not reflected in the detection area of loading platform detection unit 30 (the above-mentioned "predetermined value" may be zero).
  • predetermined value may be zero.
  • the attitude and position of work machine 20 that exceed a predetermined value for work machine 20 reflected in the detection area of platform detection unit 30 do not satisfy the platform detectable condition.
  • the dimension information calculation unit 51 obtains the dimension information of the platform 13 . Calculate. In this case, the discrimination unit 55 discriminates the type of the vehicle 10 . On the other hand, if the posture detected by the posture detection unit 41 and the position detected by the position detection unit 43 do not satisfy the platform detectable condition, the dimension information calculation unit 51 does not calculate the dimension information of the platform 13 . In this case, the discrimination unit 55 does not discriminate the type of the vehicle 10 .
  • the effects of the vehicle discrimination system 1 shown in FIG. 1 are as follows.
  • the vehicle discrimination system 1 discriminates the type of the vehicle 10 having the loading platform 13 .
  • the vehicle discrimination system 1 includes a platform detection section 30 , a dimension information calculation section 51 , a storage section 53 and a discrimination section 55 .
  • the loading platform detection unit 30 detects information including the distance to the loading platform 13 (the distance from the loading platform detection unit 30 to the loading platform 13).
  • the dimension information calculation section 51 calculates the dimension information of the bed 13 based on the distance detected by the bed detection section 30 .
  • the storage unit 53 stores the correspondence relationship between the dimension information of the loading platform 13 and the type of the vehicle 10 .
  • the determination unit 55 determines the type of the vehicle 10 based on the dimension information calculated by the dimension information calculation unit 51 and the correspondence stored in the storage unit 53 .
  • the dimensional information of the bed 13 is calculated based on the distance from the bed detector 30 to the bed 13 shown in FIG. Then, the type of the vehicle 10 is determined based on this dimensional information. Therefore, the type of the vehicle 10 can be determined without providing the vehicle 10 with a mark for determining the type of the vehicle 10 . As a result, it is possible to save time and effort for providing a mark or the like on the vehicle 10 . In addition, it is possible to save the trouble of setting the mark according to the type of the vehicle 10 (for example, setting the light emission pattern, color, etc. of the mark).
  • Dispossion information includes the dimension Lx of the loading platform 13 in the longitudinal direction (vehicle front-rear direction X) of the loading platform 13 .
  • the dimension Lx of the loading platform 13 in the vehicle longitudinal direction X is determined by the type of the vehicle 10.
  • the dimension information includes the dimension Lx of the loading platform 13 in the vehicle front-rear direction X, so the vehicle determination system 1 can appropriately determine the type of the vehicle 10 .
  • Dispossion information includes information on the three-dimensional shape of the loading platform 13 .
  • [Configuration 3] increases the amount of dimensional information compared to when the dimensional information does not include information on the three-dimensional shape of the cargo bed 13 (for example, when it includes only the dimensions of the cargo bed 13 in a specific direction). can be done. As a result, the vehicle discrimination system 1 can discriminate the type of the vehicle 10 with high accuracy.
  • the carrier detector 30 includes a two-dimensional image detector 31 and a three-dimensional information detector 33 .
  • a two-dimensional image detection unit 31 detects a two-dimensional image of the loading platform 13 .
  • a three-dimensional information detection unit 33 detects three-dimensional information of the loading platform 13 .
  • the dimension information calculation unit 51 includes a two-dimensional shape calculation unit 51a and a three-dimensional shape calculation unit 51b.
  • the two-dimensional shape calculation unit 51a calculates the two-dimensional shape of the loading platform 13 based on the two-dimensional image detected by the two-dimensional image detection unit 31.
  • the three-dimensional shape calculation unit 51b calculates the load bed 13 based on the two-dimensional shape of the bed 13 calculated by the two-dimensional shape calculation unit 51a and the three-dimensional information of the bed 13 detected by the three-dimensional information detection unit 33. Calculate the three-dimensional shape of
  • the vehicle discrimination system 1 can discriminate the type of the vehicle 10 with high accuracy.
  • the result of discrimination of the type of vehicle 10 can be used for functions that require information on the size of the loading platform 13 .
  • the determination result of the type of the vehicle 10 may be used for grasping the appropriate loading amount of the object to be transported on the loading platform 13 and for guidance on the loading amount of the object to be transported on the loading platform 13. good.
  • the determination result of the type of the vehicle 10 can be used for functions that require information on the model of the vehicle 10 .
  • the determination result of the type of the vehicle 10 may be used for reading specification information corresponding to the model of the vehicle 10 that has been determined.
  • various functions such as accurate grasping of the position of the loading platform 13, automatic operation and assistance of loading work on the loading platform 13, control of collision prevention between the loading platform 13 and the work machine 20, and the like are performed.
  • Original information may be used.
  • the vehicle discrimination system 1 includes a posture detection section 41 .
  • the attitude detection unit 41 detects the attitude of the working machine 20 that performs work on the vehicle 10 .
  • the platform detector 30 is attached to the work machine 20 .
  • the determination unit 55 determines the type of the vehicle 10 when the posture detected by the posture detection unit 41 is the loading platform detectable posture.
  • the loading platform detectable posture is a posture set as a posture in which the loading platform 13 can be detected by the loading platform detection unit 30 .
  • the determination unit 55 does not determine the type of the vehicle 10 when the posture detected by the posture detection unit 41 is not the load bed detectable posture.
  • the type of the vehicle 10 can be determined in a state in which the loading platform 13 is appropriately detected by the loading platform detection unit 30 . Therefore, the vehicle discrimination system 1 can discriminate the type of the vehicle 10 with high accuracy.
  • the vehicle discrimination system 1 includes an attitude detection section 41 and a position detection section 43 .
  • the attitude detection unit 41 detects the attitude of the working machine 20 that performs work on the vehicle 10 .
  • the position detection unit 43 detects the position of the work machine 20 at the work site where the work machine 20 is arranged.
  • the platform detector 30 is arranged outside the work machine 20 .
  • the discrimination section 55 shown in FIG. 4 discriminates the type of the vehicle 10 when the posture detected by the posture detection section 41 and the position detected by the position detection section 43 satisfy the load bed detectable condition.
  • the loading platform detectable condition is a condition set as a condition that allows the loading platform detection unit 30 shown in FIG. 1 to detect the loading platform 13 . 4 discriminates the type of vehicle 10 shown in FIG. do not
  • the type of the vehicle 10 can be determined in a state in which the loading platform 13 is appropriately detected by the loading platform detection unit 30 . Therefore, the vehicle discrimination system 1 can discriminate the type of the vehicle 10 with high accuracy.
  • the above embodiments may be modified in various ways.
  • the connections shown in FIG. 4 between the components of the above embodiments may be changed.
  • values, ranges, and the like for example, conditions of correspondence stored in the storage unit 53
  • the number of components may vary and some components may not be provided.
  • fixing, coupling, etc. between components may be direct or indirect.
  • what has been described as a plurality of different members or parts may be treated as one member or part.
  • what has been described as one member or portion may be divided into a plurality of different members or portions.
  • the components of the controller 50 may be arranged in one place, or may be arranged in a plurality of places. good.
  • a component may have only a portion of each feature (function, arrangement, shape, method of manufacture, operation, etc.).

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mining & Mineral Resources (AREA)
  • Civil Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Structural Engineering (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Component Parts Of Construction Machinery (AREA)

Abstract

車両判別システム(1)は、荷台検出部(30)と、コントローラ(50)と、を備える。荷台検出部(30)は、荷台(13)までの距離を含む情報を検出する。コントローラ(50)は、荷台検出部(30)に検出された距離に基づいて、荷台(13)の寸法情報を演算する。コントローラ(50)は、荷台(13)の寸法情報と車両(10)の種別との対応関係を記憶する。コントローラ(50)は、演算された寸法情報と、記憶された対応関係とに基づいて、車両(10)の種別を判別する。

Description

車両判別システム
 本発明は、車両の種別を判別する車両判別システムに関する。
 例えば特許文献1などに、車両の種別(同文献では機種)を判別する技術が記載されている。同文献に記載の技術では、車両に表示部が設けられる。車両の種別ごとに表示部の点滅周期が異なること、車両の種別ごとに表示部が異なる色を有すること、および、車両の種別ごとに表示部の発光色が異なることが、同文献に記載されている。
 同文献に記載の技術では、車両の種別を判別するための表示部(目印)を車両に設け、車両の種別に応じて表示部を設定する必要があり、手間がかかる。
特開平11-210020号公報
 そこで、本発明は、車両の種別を判別するための目印を車両に設けなくても車両の種別を判別することができる、車両判別システムを提供することを目的とする。
 車両判別システムは、荷台を有する車両の種別を判別するものである。車両判別システムは、荷台検出部と、コントローラと、を備える。前記荷台検出部は、前記荷台までの距離を含む情報を検出する。前記コントローラは、前記荷台検出部に検出された距離に基づいて、前記荷台の寸法情報を演算する。前記コントローラは、前記荷台の前記寸法情報と前記車両の種別との対応関係を記憶する。前記コントローラは、演算された前記寸法情報と、記憶された前記対応関係とに基づいて、前記車両の種別を判別する。
 上記構成により、車両の種別を判別するための目印を車両に設けなくても車両の種別を判別することができる。
車両判別システムの車両および作業機械などを横から見た図である。 図1に示す車両および作業機械などを上から見た図である。 図1に示す荷台検出部が検出した荷台などを示す図である。 図1に示す車両判別システムのブロック図である。 図4に示すコントローラの処理を示すフローチャートである。
 図1~図5を参照して、車両判別システム1について説明する。
 車両判別システム1は、図1に示す車両10の種別を判別するシステムである。車両判別システム1は、車両10と、作業機械20と、荷台検出部30(荷台検出器)と、図4に示す姿勢検出部41(姿勢検出器)と、位置検出部43(位置検出器)と、コントローラ50と、を備える。
 車両10は、図1に示すように、荷台13を有する。車両10は、荷台13に収容した運搬対象物を運ぶ機械(運搬作業を行う作業機、運搬車両、または輸送車両)である。車両10は、例えばダンプトラックなどである。車両10は、車両本体部11と、荷台13と、を備える。
 車両本体部11は、荷台13を支持する。車両本体部11は、走行可能であり、車輪により走行してもよく、クローラにより走行してもよい。車両本体部11は、車両運転室11aを備える。
 荷台13は、運搬対象物を収容する。荷台13に収容される運搬対象物は、土砂でもよく、石でもよく、木材でもよく、金属でもよく、廃棄物でもよく、コンクリートなどの構造物などでもよい。荷台13は、車両運転室11aよりも、車両後側X2(後述)に配置される。荷台13は、例えば蓋を有さない箱形などの形状を有する(図3参照)。荷台13は、車両本体部11に対して可動でもよく、車両本体部11に固定されてもよい。以下では、荷台13の床面13a(後述)が水平または略水平に配置された状態について説明する。荷台13は、床面13aと、後部あおり板面13bと、側部あおり板面13cと、鳥居面13dと、を備える。
 (車両10の方向)
 車両10に関する方向であって、車両10が水平面に置かれた場合に鉛直方向と一致する方向を、車両上下方向Zとする。荷台13の長手方向を、車両前後方向Xとする。車両前後方向Xにおいて、荷台13から車両運転室11aに向かう側を車両前側X1とし、その逆側を車両後側X2とする。車両上下方向Zおよび車両前後方向Xのそれぞれに直交する方向を、車両幅方向Yとする。
 床面13aは、荷台13の底面である。床面13aは、平面状または略平面状である。後部あおり板面13b、側部あおり板面13c、および鳥居面13dのそれぞれも平面状または略平面状である。後部あおり板面13bは、荷台13の車両後側X2の面であり、床面13aの車両後側X2の部分から上に突出する。左右の側部あおり板面13cは、荷台13の車両幅方向Y外側の面(左側の面および右側の面)であり(図3参照)、床面13aの左右の端部から上に突出する。鳥居面13dは、荷台13の車両前側X1の面であり、床面13aの車両前側X1の部分から上に突出する。鳥居面13dは、側部あおり板面13cよりも上に突出し、後部あおり板面13bよりも上に突出する。
 作業機械20は、車両10に対して作業を行う。作業機械20は、例えば、荷台13に運搬対象物を積み込む作業(土砂積込作業など)を行う。作業機械20は、例えば建設機械であり、例えばショベルでもよく、例えばクレーンでもよい。以下では、作業機械20がショベルである場合について説明する。作業機械20は、下部走行体21と、上部旋回体23と、アタッチメント25と、を備える。
 下部走行体21は、作業機械20を走行させる。下部走行体21は、例えばクローラを備える。
 上部旋回体23は、下部走行体21に旋回可能に搭載される。上部旋回体23は、作業機械運転室23aを備える。作業機械運転室23aは、操作者が作業機械20を操作することが可能な操作装置などを備える部分である。作業機械20は、操作者の操作により作動してもよく、自動運転により作動してもよい。
 アタッチメント25は、作業を行う部分であり、例えば、ブーム25aと、アーム25bと、先端アタッチメント25cと、を備える。ブーム25aは、上部旋回体23に起伏可能(上下方向に回転可能)に取り付けられる。アーム25bは、ブーム25aに対して回転可能に取り付けられる。先端アタッチメント25cは、アタッチメント25の先端部に設けられ、アーム25bに回転可能に取り付けられる。先端アタッチメント25cは、例えば土砂をすくうバケットでもよく、物を挟む装置(グラップルなど)でもよく、破砕や掘削などを行う装置(ブレーカなど)でもよい。
 荷台検出部30(距離取得手段)は、荷台13までの距離を含む情報、具体的には例えば荷台検出部30から荷台13までの距離を含む情報を検出する。荷台検出部30は、荷台13までの距離を含む情報を検出するためのセンサを備える検出器であってもよい。荷台検出部30は、荷台13を検出可能な位置に配置される。例えば、荷台検出部30は、作業機械20に取り付けられてもよい。例えば、荷台検出部30は、作業機械運転室23aに取り付けられてもよい。この場合、荷台検出部30は、作業機械運転室23aの屋根部分に取り付けられてもよく、作業機械運転室23aの内部に配置されてもよい。荷台検出部30は、作業機械20のうち作業機械運転室23a以外の部分に取り付けられてもよい。
 この荷台検出部30は、作業機械20の外部に配置されてもよい(図1において二点鎖線で示す荷台検出部30を参照)。例えば、荷台検出部30は、作業機械20が配置される作業現場(車両10が配置される作業現場)に設置されてもよい。荷台検出部30と同様に、位置検出部43およびコントローラ50のそれぞれも、作業機械20に搭載されてもよく、作業機械20の外部に配置されてもよい。荷台検出部30は、1か所のみに設けられてもよく、複数か所に設けられてもよい(位置検出部43、およびコントローラ50についても同様)。例えば、車両判別システム1は、作業機械20に搭載される荷台検出部30と、作業機械20の外部に配置される荷台検出部30と、を備えていてもよい。このことは、位置検出部43についても同様であり、コントローラ50についても同様である。
 この荷台検出部30は、荷台13の一部までの距離を検出してもよい。具体的には、例えば、荷台検出部30は、鳥居面13dまでの距離を検出してもよく、後部あおり板面13bまでの距離を検出してもよい。荷台検出部30は、荷台13の全体または略全体の距離画像(後述)を検出してもよい。荷台検出部30は、距離以外の情報を検出してもよく、具体的には荷台13の二次元画像を検出してもよい。例えば、荷台検出部30は、二次元画像検出部31と、三次元情報検出部33と、を備えていてもよい。
 二次元画像検出部31は、荷台13の二次元画像を検出する。二次元画像検出部31は、荷台13の二次元画像を検出するためのセンサを備えた検出器であってもよい。二次元画像検出部31が検出する二次元画像は、例えば図3に示すように、荷台13の全体を含んでいてもよい。後述する三次元情報検出部33が取得する距離画像も同様に荷台13の全体を含んでいてもよい。この二次元画像は、車両10のうち荷台13以外の部分を含んでもよく、作業機械20(例えばアタッチメント25など)を含んでもよい。三次元情報検出部33が取得する距離画像も同様に、車両10のうち荷台13以外の部分を含んでもよく、作業機械20(例えばアタッチメント25など)を含んでもよい。図1に示す二次元画像検出部31は、具体的には単眼カメラであってもよい。
 三次元情報検出部33は、荷台13を含む三次元情報(三次元距離情報)を検出する。三次元情報検出部33は、荷台13を含む三次元情報(三次元距離情報)を検出するためのセンサを備えた検出器であってもよい。三次元情報検出部33は、距離の情報(奥行きの情報)を有する画像である距離画像を取得する。具体的には例えば、三次元情報検出部33は、点群データなどを検出する。三次元情報検出部33は、レーザー光を用いて三次元の情報を検出する装置を備えてもよく、例えばLIDAR(Light Detection and Ranging)を備えてもよく、例えばTOF(Time Of Flight)センサを備えてもよい。三次元情報検出部33は、電波を用いて三次元の情報を検出する装置(例えばミリ波レーダなど)を備えてもよい。三次元情報検出部33は、ステレオカメラを備えてもよい。二次元画像の座標系と、三次元情報の座標系とは、統一されることが好ましい。例えば、これらの座標系は、作業機械20を基準とする座標系(機械座標系)に統一されてもよく、作業現場を基準とする座標系に統一されてもよい。
 なお、荷台検出部30は、一次元または二次元の距離情報を検出する装置を備えてもよい。さらに詳しくは、荷台検出部30は、荷台検出部30から、ある一点までの距離を検出する装置(一次元の距離情報を検出する装置)を備えてもよい。荷台検出部30は、荷台検出部30を通る平面と荷台13とが交わる各点までの距離を検出する装置(二次元の距離情報を検出する装置)を備えてもよい。例えば、荷台検出部30は、一次元または二次元の距離情報を検出する、光センサ(例えばレーザセンサ)や電波センサなどを備えてもよい。
 姿勢検出部41(図4参照)は、作業機械20の姿勢を検出する。姿勢検出部41は、作業機械20の姿勢を検出するためのセンサを備える検出器であってもよい。姿勢検出部41は、上部旋回体23に対するブーム25aの回転角度(起伏角度)を検出してもよい。姿勢検出部41は、ブーム25aに対するアーム25bの回転角度を検出してもよい。姿勢検出部41は、アーム25bに対する先端アタッチメント25cの回転角度を検出してもよい。姿勢検出部41は、下部走行体21に対する上部旋回体23の旋回角度を検出してもよい。姿勢検出部41は、角度を検出するセンサ(例えばロータリエンコーダなど)を備えてもよく、水平面に対する傾斜を検出するセンサを備えてもよく、アタッチメント25を駆動するシリンダ(図示なし)のストロークを検出するセンサを備えてもよい。姿勢検出部41は、二次元画像および距離画像の一方または両方に基づいて作業機械20の姿勢を検出してもよい。この場合、二次元画像および距離画像の一方または両方は、荷台検出部30が検出してもよい。この場合、荷台検出部30が姿勢検出部41の機能も有し、姿勢検出部41が省略されてもよい。
 位置検出部43(図4参照)は、作業現場における作業機械20の位置を検出する。位置検出部43は、作業現場に対する作業機械20の位置および向き(例えば上部旋回体23の向き)を検出してもよい。位置検出部43は、作業機械20の基準となる部位の、作業現場に対する位置および向きを検出してもよい。作業機械20の基準となる部位は、例えば上部旋回体23または下部走行体21の特定の部位でもよく、例えば上部旋回体23へのブーム25aの取付部(ブームフット)でもよい。
 位置検出部43は、作業現場における作業機械20の位置を検出するためのセンサを備える検出器であってもよい。具体的には例えば、位置検出部43は、衛星測位システム(例えばGNSS(Global Navigation Satellite System))を用いたものでもよく、トータルステーションを用いたものでもよく、作業現場における作業機械20の位置を検出することが可能な他の公知の技術を用いたものであってもよい。
 コントローラ50(図4参照)は、信号の入出力、演算(処理)、情報の記憶などを行うコンピュータである。例えば、図4に示すコントローラ50の機能は、コントローラ50の記憶部53などに記憶されたプログラムが演算部で実行されることにより実現される。コントローラ50は、車両10(図1参照)の種別の判別に関する処理を行う。コントローラ50は、車両10の種別の判別とは異なる処理を行ってもよい。例えば、コントローラ50は、作業機械20(図1参照)の自動運転の制御を行ってもよく、作業機械20の操作をアシストする制御を行ってもよい。コントローラ50は、寸法情報演算部51と、記憶部53と、判別部55と、検出可否判定部57と、を備える。
 寸法情報演算部51は、図1に示す荷台検出部30に検出された距離に基づいて、荷台13の寸法情報を演算する。この寸法情報は、車両10の種別を判別するための基準となる情報である。車両10の種別を判別できるような情報が、寸法情報として用いられる。寸法情報の具体例は、次の通りである。
 [例A1]寸法情報は、荷台13の特定方向の寸法や特定部分の寸法を含んでもよい。[例A1a]寸法情報は、荷台13の車両前後方向Xの寸法Lx(荷台13の長手方向における荷台13の寸法、奥行き)を含んでもよい。例えば、寸法Lxは、鳥居面13dと後部あおり板面13bとの車両前後方向Xにおける間隔である。[例A1b]寸法情報は、図2に示す荷台13の車両幅方向Yの寸法Ly(幅)を含んでもよい。例えば、寸法Lyは、車両幅方向Y両側の側部あおり板面13c,13cどうしの車両幅方向Yにおける間隔でもよい。例えば、寸法Lyは、後部あおり板面13bまたは鳥居面13dの車両幅方向Yにおける寸法でもよい。[例A1c]寸法情報は、車両上下方向Zにおける荷台13の寸法を含んでもよい。例えば、寸法情報は、図1に示す後部あおり板面13b(または側部あおり板面13c)の車両上下方向Zにおける寸法Lzb(高さ)を含んでもよい。例えば、寸法情報は、鳥居面13dの車両上下方向Zにおける寸法Lzd(高さ)を含んでもよい。
 [例A2]寸法情報は、荷台13の全体の(各方向の)寸法を含んでもよい。さらに詳しくは、寸法情報は、荷台13の、寸法Lx、寸法Ly(図2参照)、および車両上下方向Zの寸法(寸法Lzbおよび寸法Lzdの少なくともいずれか)を含んでもよい。
 [例A3]寸法情報は、荷台13の寸法から演算される荷台13の容量を含んでもよい。具体的には、荷台13の容量は、荷台13の寸法Lxと、寸法Ly(図2参照)と、寸法Lzbと、の積である。
 [例A4]寸法情報は、荷台13の三次元形状の情報を含んでもよい。さらに詳しくは、寸法情報は、荷台13全体(または略全体)の三次元形状の情報を含んでもよい。例えば、荷台13の三次元形状の情報は、寸法Lx、寸法Ly(図2参照)、および寸法Lzbを含んでもよい。例えば、荷台13の三次元形状の情報は、側部あおり板面13cの上端と鳥居面13dとの交点から、鳥居面13dの上端までの高さ(寸法Lzdから寸法Lzbを引いた値)を含んでもよい。例えば、荷台13の三次元形状の情報は、鳥居面13dの車両上下方向Zにおける寸法Lzdを含んでもよい。荷台13の三次元形状の情報は、各面(後部あおり板面13b、側部あおり板面13cなど)どうしの角度の情報を含んでもよい。
 この寸法情報演算部51(図4参照)は、寸法情報を例えば次のように演算する。
 [例B1]寸法情報演算部51が、荷台13の三次元形状(上記[例A4]参照)を演算する場合の具体例は、次の通りである。
 [例B1a]例えば、図4に示す寸法情報演算部51は、二次元画像および三次元情報に基づいて、三次元形状を演算する。さらに詳しくは、寸法情報演算部51は、二次元形状演算部51aと、三次元形状演算部51bと、を備える。
 二次元形状演算部51aは、二次元画像検出部31に検出された二次元画像に基づいて、荷台13(図3参照)の二次元形状を演算(推定)する。例えば、二次元形状演算部51aは、荷台13の二次元形状を、画像認識により演算する。具体的には例えば、二次元形状演算部51aは、二次元画像における荷台13の角の位置に対応する特徴点P(図3参照)を抽出(認識、推定)する。また、二次元形状演算部51aは、二次元画像における荷台13の辺に対応するリンクL(図3参照)を決定する。図3に示すように、リンクLは、特徴点Pどうしを結んだ線分である。図4に示す二次元形状演算部51aは、例えば、二次元画像から特定の形状を抽出するソフトウェアを実行することで、特徴点PおよびリンクLを決定する。例えば、このソフトウェアは、ディープラーニング技術を用いたものなどであってもよい。
 三次元形状演算部51bは、荷台13の三次元形状を演算する。三次元形状演算部51bは、二次元形状演算部51aに演算された荷台13の二次元形状と、三次元情報検出部33に検出された荷台13の三次元情報(例えば点群データ)と、に基づいて荷台13の三次元形状を演算する。具体的には例えば、三次元形状演算部51bは、二次元画像における特徴点PおよびリンクLの位置(二次元座標)から、三次元情報検出部33に検出された三次元情報における荷台13の角および辺の位置を特定する。そして、三次元形状演算部51bは、三次元情報(例えば点群データ)のうち、荷台13の角および辺の位置における三次元座標を取得する。これにより、三次元形状演算部51bは、荷台13の角および辺の三次元座標を決定し、荷台13の三次元形状を決定する。
 [例B1b]寸法情報演算部51は、二次元画像を用いることなく、三次元情報に基づいて、荷台13の三次元形状を演算してもよい。具体的には例えば、三次元形状演算部51bは、三次元情報検出部33に検出された荷台13の三次元情報(例えば点群データ)をクラスタリングすることで、荷台13の各面の三次元位置を特定(推定、演算)する。その結果、三次元形状演算部51bは、荷台13の三次元形状を決定する。この例では、荷台検出部30は二次元画像検出部31を備えなくてもよく、寸法情報演算部51は二次元形状演算部51aを備えなくてもよい。
 [例B2]寸法情報演算部51は、三次元形状演算部51bに演算された荷台13の三次元形状の情報に基づいて、荷台13の寸法や容量(上記[例A1]、[例A2]、および[例A3]参照)を演算してもよい。
 [例B3]寸法情報演算部51は、荷台13の三次元形状を演算することなく、荷台13の寸法や容量(上記[例A1]、[例A2]、および[例A3]参照)を演算してもよい。この例では、寸法情報演算部51は、二次元形状演算部51aおよび三次元形状演算部51bを備えなくてもよい。
 [例B3a]例えば、図1に示す荷台検出部30が、荷台検出部30から、荷台13の互いに対向する2面までの距離を検出する。そして、寸法情報演算部51(図4参照)が、検出された距離に基づいて、これらの2面が対向する方向における荷台13の寸法を演算してもよい。具体的には例えば、荷台検出部30から後部あおり板面13bまでの車両前後方向Xにおける距離と、荷台検出部30から鳥居面13dまでの車両前後方向Xにおける距離と、が検出される。そして、寸法情報演算部51が、これらの距離に基づいて、鳥居面13dと後部あおり板面13bとの車両前後方向Xにおける間隔を演算し、荷台13の車両前後方向Xにおける寸法Lx(上記[例A1a]参照)を演算してもよい。同様に、寸法情報演算部51は、図2に示す2枚の側部あおり板面13c,13cの間隔から、荷台13の車両幅方向Yにおける寸法Ly(上記[例A1b]参照)を演算してもよい。この例では、荷台検出部30は、一次元または二次元の距離情報を検出する装置でもよい。この例では、荷台検出部30は、二次元画像検出部31および三次元情報検出部33を備えなくてもよい(下記の[例B3b]も同様)。この例では、寸法情報演算部51は、二次元形状演算部51aおよび三次元形状演算部51bを備えなくてもよい(下記の[例B3b]も同様)。
 [例B3b]例えば、図1に示す荷台検出部30が、荷台13の一部の面の特定方向の寸法を検出する。そして、寸法情報演算部51が、荷台検出部30に検出された寸法を、荷台13の寸法情報の一部または全部としてもよい。具体的には例えば、荷台検出部30が、鳥居面13dの高さ(寸法Lzd)を検出する。そして、寸法情報演算部51が、寸法Lzdを、寸法情報の一部または全部としてもよい。この例では、荷台検出部30は、例えば、二次元の距離情報を検出する装置でもよい。
 記憶部53(図4参照)は、荷台13の寸法情報と車両10の種別との対応関係を記憶する。記憶部53は、予め(車両10の種別の判別が行われる前に)、この対応関係を記憶する。
 [例C1]例えば、記憶部53が記憶する対応関係は、荷台13の一部または全部の寸法(上記[例A1][例A2]参照)の条件(例えば数値範囲)と、車両10の種別と、の関係でもよい。具体的には例えば、記憶部53が記憶する対応関係は、荷台13の寸法Lxの条件(例えば数値範囲)と、車両10の種別と、の関係でもよい。
 [例C2]例えば、記憶部53が記憶する対応関係は、荷台13の容量(上記[例A3]参照)の条件(例えば数値範囲)と、車両10の種別と、の関係でもよい(図4に示す関係R1,R2を参照)。[例C3]例えば、記憶部53が記憶する対応関係は、荷台13の三次元形状の情報(例えば、各面の寸法比、角度など)の条件と、車両10の種別と、の関係でもよい。
 この記憶部53は、荷台13の寸法情報と車両10の種別との対応関係とは異なる情報を記憶してもよい。例えば、記憶部53は、車両10の機種ごとの諸元情報(既知の情報)を記憶してもよい。この諸元情報は、荷台13の寸法の情報を含んでもよく、荷台13の形状の情報を含んでもよい。
 この記憶部53は、車両10の種別について、作業機械20が作業を行う作業現場に入ってくることが予定されている種別であるか否かの情報を記憶してもよい。記憶部53は、作業機械20が作業を行う作業現場に入ってくることが予定されている車両10の種別に関する対応関係を記憶し、作業現場に入ってこないことが予定されている車両10の種別に関する対応関係を記憶しなくてもよい。
 判別部55は、図4に示す寸法情報演算部51に演算された寸法情報と、記憶部53に記憶された対応関係とに基づいて、図1に示す車両10の種別を判別する。判別部55が判別する車両10の「種別」の具体例は、次の通りである。
 [例D1]判別部55が判別する種別は、荷台13の大きさに基づく区分でもよい。[例D1a]種別は、荷台13への最大積載量に基づく区分(クラス)でもよい。例えば、種別は、「4t」「8t」および「10t」を含む区分でもよい(図4に示す関係R1を参照)。具体的には「4t」は、荷台13への最大積載量が約4tの車両10が属する区分であり、例えば車両10がダンプトラックの場合は「4tダンプ」である。[例D1b]種別は、荷台13の容量に基づく区分でもよい。[例D1c]作業機械20が作業を行う作業現場に入ってくることが予定されている区分(クラス)であるか否かの情報が、記憶部53に設定されてもよい。この場合、判別部55は、作業現場に入ってくることが予定されている区分のみから、種別の判別を行ってもよい。判別部55は、判別する区分の候補を、作業現場に入ってくることが予定されている区分に絞ってもよい。
 通常、荷台13の大きさに基づく区分(具体的には例えば「4t」「8t」および「10t」のクラス)が相違すると、荷台13の車両前後方向Xの寸法Lxが、荷台13の他の方向における寸法(例えば寸法Ly(図2参照)など)に比べ、相違しやすい。そこで、判別部55が判別する種別が荷台13の大きさに基づく区分である場合、寸法情報には、荷台13の車両前後方向Xの寸法Lxが含まれることが好ましい。例えば、判別部55が判別する種別が荷台13の大きさに基づく区分である場合、寸法情報は、荷台13の車両前後方向Xの寸法Lxのみでもよい。
 [利用例1]コントローラ50は、荷台13の大きさに基づく区分の判別結果を、荷台13への運搬対象物の適正積込量の把握に利用してもよい。コントローラ50は、荷台13の大きさに基づく区分の判別結果を、作業機械20から荷台13への積込作業における積込量のガイダンスに利用してもよい。
 [例D2]判別部55が判別する種別は、車両10の機種でもよい。「車両10の機種」は、同一(または略同一)の寸法および形状で製造された車両10が属する種類である。[例D2a]作業機械20が作業を行う作業現場に入ってくることが予定されている機種であるか否かの情報が、記憶部53に設定されてもよい。この場合、判別部55は、作業現場に入ってくることが予定されている機種のみから、機種の判別を行ってもよい。判別部55は、判別する機種の候補を、作業現場に入ってくることが予定されている機種に絞ってもよい。
 [利用例2]コントローラ50は、車両10の機種の判別結果に基づいて、記憶部53に記憶された機種の諸元情報(荷台13の諸元情報)を読み込んでもよい。[利用例2a]コントローラ50は、荷台13の諸元情報を、荷台13への運搬対象物の適正積込量の把握に利用してもよい。[利用例2b]コントローラ50は、荷台13の諸元情報を、作業機械20から荷台13への運搬対象物の積込量のガイダンスに利用してもよい。[利用例2c]コントローラ50は、荷台13の諸元情報を、荷台13の詳細な位置の把握に利用してもよい。[利用例2c-1]この場合、コントローラ50は、荷台13の詳細な位置の情報を、作業機械20から荷台13への運搬対象物の積込の自動運転に利用してもよい。例えば、コントローラ50は、荷台13の詳細な位置の情報を、作業機械20から荷台13への運搬対象物の積込位置(例えば排土位置)の特定に利用してもよい。[利用例2c-2]コントローラ50は、荷台13の詳細な位置の情報を、作業機械20から荷台13への運搬対象物の積込操作のアシストに利用してもよい。[利用例2c-3]コントローラ50は、荷台13の詳細な位置の情報を、荷台13と作業機械20との衝突防止制御に利用してもよい。
 この判別部55は、1つのみの種別を判別する必要はない。判別部55は、記憶部53に記憶された種別の候補から、複数の種別に絞ってもよい。
 この判別部55は、寸法情報に含まれるすべての情報に基づいて種別を判別してもよく、寸法情報に含まれる一部のみの情報(種別の判別に必要な情報)に基づいて種別を判別してもよい。
 検出可否判定部57(図4参照)は、荷台検出部30による荷台13の検出が可能か否かを判定する。その結果として、検出可否判定部57は、荷台13の寸法情報を寸法情報演算部51が適切に演算できるか否かを判定し、車両10の種別を判別部55が適切に判別できるか否かを判定する。検出可否判定部57の判定に必要な情報は、荷台検出部30が作業機械20に取り付けられるか否かによって異なる。
 [例E1]荷台検出部30が作業機械20に取り付けられる場合は、検出可否判定部57は、次のように判定を行う。検出可否判定部57は、作業機械20の姿勢が「荷台検出可能姿勢」であるか否かを判定する。荷台検出可能姿勢は、荷台検出部30による荷台13の検出が可能な、作業機械20の姿勢である。さらに詳しくは、荷台検出可能姿勢は、寸法情報演算部51が荷台13の寸法情報を適切に演算するのに必要な情報を、荷台検出部30が検出できるような、作業機械20の姿勢である。荷台検出可能姿勢は、コントローラ50に設定される。具体的には例えば、荷台検出可能姿勢は、図3に示す荷台検出部30の検出領域(画角)に映り込むアタッチメント25の割合が所定値以下となる姿勢などである。例えば、荷台検出可能姿勢は、荷台検出部30の検出領域にアタッチメント25が映り込まない姿勢でもよい(上記「所定値」がゼロでもよい)。例えば、荷台検出部30の検出領域に映り込むアタッチメント25の割合が所定値を超えるような姿勢は、荷台検出可能姿勢に該当しない。
 この[例E1]では、姿勢検出部41に検出された姿勢が荷台検出可能姿勢である場合(図5のステップS1でYESの場合)、寸法情報演算部51は、荷台13の寸法情報を演算する(図5のステップS2)。この場合、判別部55は、車両10の種別を判別する(図5のステップS3)。一方、姿勢検出部41に検出された姿勢が、荷台検出可能姿勢でない場合(図5のステップS1でNOの場合)、寸法情報演算部51は、荷台13の寸法情報を演算しない。この場合、判別部55は、車両10の種別の判別を行わない。
 [例E2]荷台検出部30が作業機械20の外部に配置される場合(図1において二点鎖線で示す荷台検出部30を参照)、検出可否判定部57は、次のように判定を行う。検出可否判定部57は、「荷台検出可能条件」を満たすか否かを判定する。荷台検出可能条件は、荷台検出部30による荷台13の検出が可能な、作業機械20の姿勢および位置に関する条件である。さらに詳しくは、荷台検出可能条件は、寸法情報演算部51が荷台13の寸法情報を適切に演算するのに必要な情報を、荷台検出部30が検出できるような、作業機械20の姿勢および位置に関する条件である。荷台検出可能条件は、コントローラ50に設定される。具体的には例えば、荷台検出可能条件は、荷台検出部30の検出領域に映り込む作業機械20の割合が所定値以下となるような、作業機械20の姿勢および位置に関する条件である。例えば、荷台検出可能条件は、荷台検出部30の検出領域に作業機械20が映り込まないような、作業機械20の姿勢および位置に関する条件でもよい(上記「所定値」がゼロでもよい)。例えば、荷台検出部30の検出領域に映り込む作業機械20が所定値を超えるような、作業機械20の姿勢および位置は、荷台検出可能条件を満たさない。
 この[例E2]では、姿勢検出部41に検出された姿勢、および位置検出部43に検出された位置が、荷台検出可能条件を満たす場合、寸法情報演算部51は、荷台13の寸法情報を演算する。この場合、判別部55は、車両10の種別を判別する。一方、姿勢検出部41に検出された姿勢、および位置検出部43に検出された位置が、荷台検出可能条件を満たさない場合、寸法情報演算部51は、荷台13の寸法情報を演算しない。この場合、判別部55は、車両10の種別の判別を行わない。
 (第1の発明の効果)
 図1に示す車両判別システム1による効果は、次の通りである。車両判別システム1は、荷台13を有する車両10の種別を判別する。図4に示すように、車両判別システム1は、荷台検出部30と、寸法情報演算部51と、記憶部53と、判別部55と、を備える。
 [構成1]荷台検出部30は、荷台13までの距離(荷台検出部30から荷台13までの距離)を含む情報を検出する。寸法情報演算部51は、荷台検出部30に検出された距離に基づいて、荷台13の寸法情報を演算する。記憶部53は、荷台13の寸法情報と車両10の種別との対応関係を記憶する。判別部55は、寸法情報演算部51に演算された寸法情報と、記憶部53に記憶された対応関係とに基づいて、車両10の種別を判別する。
 上記[構成1]では、図1に示す荷台検出部30から荷台13までの距離に基づいて、荷台13の寸法情報が演算される。そして、この寸法情報に基づいて車両10の種別が判別される。よって、車両10の種別を判別するための目印を車両10に設けなくても、車両10の種別を判別することができる。その結果、目印などを車両10に設ける作業にかかる手間を省くことができる。また、車両10の種別に応じた目印の設定(例えば、目印の発光パターンや色などの設定)にかかる手間を省くことができる。
 (第2の発明の効果)
 [構成2]「寸法情報」(上記[構成1]参照)は、荷台13の長手方向(車両前後方向X)における荷台13の寸法Lxを含む。
 上記[構成2]により、次の効果が得られる。通常、荷台13の車両幅方向Yにおける寸法Ly(図2参照)、荷台13の車両上下方向Zにおける寸法Lzbや寸法Lzdに比べ、荷台13の車両前後方向Xの寸法Lxは、車両10の種別ごとの相違が大きい。上記[構成2]では、荷台13の車両前後方向Xにおける寸法Lxが寸法情報に含まれるので、車両判別システム1は、車両10の種別を適切に判別することができる。
 (第3の発明の効果)
 [構成3]「寸法情報」(上記[構成1]参照)は、荷台13の三次元形状の情報を含む。
 上記[構成3]により、寸法情報が荷台13の三次元形状の情報を含まない場合(例えば特定の方向における荷台13の寸法のみを含む場合など)に比べ、寸法情報の情報量を多くすることができる。その結果、車両判別システム1は、車両10の種別を精度良く判別することができる。
 (第4の発明の効果)
 荷台検出部30は、二次元画像検出部31と、三次元情報検出部33と、を備える。二次元画像検出部31は、荷台13の二次元画像を検出する。三次元情報検出部33は、荷台13の三次元情報を検出する。図4に示すように、寸法情報演算部51は、二次元形状演算部51aと、三次元形状演算部51bと、を備える。
 [構成4]二次元形状演算部51aは、二次元画像検出部31に検出された二次元画像に基づいて、荷台13の二次元形状を演算する。三次元形状演算部51bは、二次元形状演算部51aに演算された荷台13の二次元形状と、三次元情報検出部33に検出された荷台13の三次元情報と、に基づいて、荷台13の三次元形状を演算する。
 上記[構成4]により、二次元画像と三次元情報とを組み合わせて、図1に示す荷台13の三次元形状が演算されることで、三次元情報のみから三次元形状が演算される場合に比べ、三次元形状をより精度良く演算することができる。その結果、車両判別システム1は、車両10の種別を精度良く判別することができる。
 (第5の発明の効果)
 [構成5]「車両10の種別」(上記[構成1]参照)は、荷台13の大きさに基づく区分である。
 上記[構成5]により、車両10の種別の判別結果を、荷台13の大きさの情報を必要とする機能に利用することができる。具体的には例えば、荷台13への運搬対象物の適正積込量の把握や、荷台13への運搬対象物の積込量のガイダンスなどに、車両10の種別の判別結果が利用されてもよい。
 (第6の発明の効果)
 [構成6]「車両10の種別」(上記[構成1]参照)は、車両10の機種である。
 上記[構成6]により、車両10の種別の判別結果を、車両10の機種の情報を必要とする機能に利用することができる。具体的には例えば、判別された車両10の機種に対応する諸元情報の読み込みなどに、車両10の種別の判別結果が利用されてもよい。車両10の諸元情報が読み込まれた場合は、荷台13の位置の正確な把握、荷台13に対する積込作業の自動運転やアシスト、荷台13と作業機械20との衝突防止の制御などに、諸元情報が利用されてもよい。
 (第7の発明の効果)
 車両判別システム1は、姿勢検出部41を備える。姿勢検出部41は、車両10に対して作業を行う作業機械20の姿勢を検出する。荷台検出部30は、作業機械20に取り付けられる。
 [構成7]判別部55は、姿勢検出部41に検出された姿勢が、荷台検出可能姿勢である場合に、車両10の種別を判別する。荷台検出可能姿勢は、荷台検出部30による荷台13の検出が可能な姿勢として設定された姿勢である。判別部55は、姿勢検出部41に検出された姿勢が荷台検出可能姿勢でない場合に、車両10の種別の判別を行わない。
 上記[構成7]により、荷台検出部30により適切に荷台13が検出された状態で、車両10の種別の判別を行うことができる。よって、車両判別システム1は、車両10の種別の判別を精度良く行うことができる。
 (第8の発明の効果)
 車両判別システム1は、姿勢検出部41と、位置検出部43と、を備える。姿勢検出部41は、車両10に対して作業を行う作業機械20の姿勢を検出する。位置検出部43は、作業機械20が配置される作業現場における作業機械20の位置を検出する。荷台検出部30は、作業機械20の外部に配置される。
 [構成8]図4に示す判別部55は、姿勢検出部41に検出された姿勢および位置検出部43に検出された位置が、荷台検出可能条件を満たす場合に、車両10の種別を判別する。荷台検出可能条件は、図1に示す荷台検出部30による荷台13の検出が可能な条件として設定された条件である。図4に示す判別部55は、姿勢検出部41に検出された姿勢および位置検出部43に検出された位置が、荷台検出可能条件を満たさない場合に、図1に示す車両10の種別の判別を行わない。
 上記[構成8]により、荷台検出部30により適切に荷台13が検出された状態で、車両10の種別の判別を行うことができる。よって、車両判別システム1は、車両10の種別の判別を精度良く行うことができる。
 (変形例)
 上記実施形態は様々に変形されてもよい。例えば、上記実施形態の構成要素どうしの、図4に示す接続は変更されてもよい。例えば、値や範囲など(例えば記憶部53に記憶された対応関係の条件など)は、一定でもよく、手動操作により変えられてもよく、何らかの条件に応じて自動的に変えられてもよい。例えば、構成要素の数が変更されてもよく、構成要素の一部が設けられなくてもよい。例えば、構成要素どうしの固定や連結などは、直接的でも間接的でもよい。例えば、互いに異なる複数の部材や部分として説明したものが、一つの部材や部分とされてもよい。例えば、一つの部材や部分として説明したものが、互いに異なる複数の部材や部分に分けて設けられてもよい。具体的には例えば、コントローラ50の構成要素(寸法情報演算部51、記憶部53、および判別部55)は、1か所に配置されてもよく、複数か所に分散して配置されてもよい。例えば、構成要素は、各特徴(作用機能、配置、形状、製法、作動など)の一部のみを有してもよい。

Claims (8)

  1.  荷台を有する車両の種別を判別する車両判別システムであって、
     前記荷台までの距離を含む情報を検出する荷台検出部と、
     コントローラと、を備え、
     前記コントローラは、
     前記荷台検出部に検出された距離に基づいて、前記荷台の寸法情報を演算し、
     前記荷台の前記寸法情報と前記車両の種別との対応関係を記憶し、
     演算された前記寸法情報と、記憶された前記対応関係とに基づいて、前記車両の種別を判別する、
     車両判別システム。
  2.  請求項1に記載の車両判別システムであって、
     前記寸法情報は、前記荷台の長手方向における前記荷台の寸法を含む、
     車両判別システム。
  3.  請求項1または2に記載の車両判別システムであって、
     前記寸法情報は、前記荷台の三次元形状の情報を含む、
     車両判別システム。
  4.  請求項3に記載の車両判別システムであって、
     前記荷台検出部は、
     前記荷台の二次元画像を検出する二次元画像検出部と、
     前記荷台の三次元情報を検出する三次元情報検出部と、
     を備え、
     前記コントローラは、
     前記二次元画像検出部に検出された前記二次元画像に基づいて、前記荷台の二次元形状を演算し、
     演算された前記荷台の前記二次元形状と、前記三次元情報検出部に検出された前記荷台の前記三次元情報と、に基づいて、前記荷台の前記三次元形状を演算する、
     車両判別システム。
  5.  請求項1~4のいずれか1項に記載の車両判別システムであって、
     前記車両の種別は、前記荷台の大きさに基づく区分である、
     車両判別システム。
  6.  請求項1~5のいずれか1項に記載の車両判別システムであって、
     前記車両の種別は、前記車両の機種である、
     車両判別システム。
  7.  請求項1~6のいずれか1項に記載の車両判別システムであって、
     前記車両に対して作業を行う作業機械の姿勢を検出する姿勢検出部を備え、
     前記荷台検出部は、前記作業機械に取り付けられ、
     前記コントローラは、前記姿勢検出部に検出された姿勢が、前記荷台検出部による荷台の検出が可能な姿勢として設定された荷台検出可能姿勢である場合に、前記車両の種別を判別し、
     前記コントローラは、前記姿勢検出部に検出された姿勢が前記荷台検出可能姿勢でない場合に、前記車両の種別の判別を行わない、
     車両判別システム。
  8.  請求項1~6のいずれか1項に記載の車両判別システムであって、
     前記車両に対して作業を行う作業機械の姿勢を検出する姿勢検出部と、
     前記作業機械が配置される作業現場における前記作業機械の位置を検出する位置検出部と、
     を備え、
     前記荷台検出部は、前記作業機械の外部に配置され、
     前記コントローラは、前記姿勢検出部に検出された姿勢および前記位置検出部に検出された位置が、前記荷台検出部による前記荷台の検出が可能な条件として設定された荷台検出可能条件を満たす場合に、前記車両の種別を判別し、
     前記コントローラは、前記姿勢検出部に検出された姿勢および前記位置検出部に検出された位置が、前記荷台検出可能条件を満たさない場合に、前記車両の種別の判別を行わない、
     車両判別システム。
PCT/JP2022/029759 2021-09-24 2022-08-03 車両判別システム WO2023047809A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP22872565.1A EP4390301A1 (en) 2021-09-24 2022-08-03 Vehicle determination system
CN202280063064.9A CN117980690A (zh) 2021-09-24 2022-08-03 车辆辨别系统

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-155718 2021-09-24
JP2021155718A JP2023046879A (ja) 2021-09-24 2021-09-24 車両判別システム

Publications (1)

Publication Number Publication Date
WO2023047809A1 true WO2023047809A1 (ja) 2023-03-30

Family

ID=85719425

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/029759 WO2023047809A1 (ja) 2021-09-24 2022-08-03 車両判別システム

Country Status (4)

Country Link
EP (1) EP4390301A1 (ja)
JP (1) JP2023046879A (ja)
CN (1) CN117980690A (ja)
WO (1) WO2023047809A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11210020A (ja) 1998-01-26 1999-08-03 Hitachi Constr Mach Co Ltd 自動運転建設機械
JP2016184316A (ja) * 2015-03-26 2016-10-20 株式会社東芝 車種判別装置および車種判別方法
JP2017045137A (ja) * 2015-08-24 2017-03-02 株式会社東芝 車種判別装置、及び車種判別方法
JP2021021263A (ja) * 2019-07-29 2021-02-18 住友重機械工業株式会社 作業機械
JP2021055256A (ja) * 2019-09-26 2021-04-08 コベルコ建機株式会社 輸送車位置判定装置
JP2021188258A (ja) * 2020-05-25 2021-12-13 住友建機株式会社 ショベル用のシステム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11210020A (ja) 1998-01-26 1999-08-03 Hitachi Constr Mach Co Ltd 自動運転建設機械
JP2016184316A (ja) * 2015-03-26 2016-10-20 株式会社東芝 車種判別装置および車種判別方法
JP2017045137A (ja) * 2015-08-24 2017-03-02 株式会社東芝 車種判別装置、及び車種判別方法
JP2021021263A (ja) * 2019-07-29 2021-02-18 住友重機械工業株式会社 作業機械
JP2021055256A (ja) * 2019-09-26 2021-04-08 コベルコ建機株式会社 輸送車位置判定装置
JP2021188258A (ja) * 2020-05-25 2021-12-13 住友建機株式会社 ショベル用のシステム

Also Published As

Publication number Publication date
JP2023046879A (ja) 2023-04-05
EP4390301A1 (en) 2024-06-26
CN117980690A (zh) 2024-05-03

Similar Documents

Publication Publication Date Title
US11292469B2 (en) Dump truck and reversing assistance device
US9541633B2 (en) Sensor calibration system
CA2793059C (en) Method of controlling travel within travel system for unmanned vehicle and travel system for unmanned vehicle
US20190302794A1 (en) Targeted loading assistance system
US9133600B2 (en) Method for selecting an attack pose for a working machine having a bucket
CN105874396A (zh) 用于确定特征可见性的系统、方法以及工业车辆
JP6517096B2 (ja) 作業機械の走行支援システム及び運搬車両
JP7138538B2 (ja) レーザスキャナのキャリブレーション方法、運搬機械
JP6757676B2 (ja) 運搬車両及び路面推定方法
JP7283332B2 (ja) 容器計測システム
JP2015125760A (ja) 鉱山用作業機械
US20220254054A1 (en) Construction machine work information generation system and work information generation method
WO2023047809A1 (ja) 車両判別システム
JP2020101442A (ja) 建設機械の障害物検出装置
US20220282459A1 (en) Operation Assistance System for Work Machine
US11879231B2 (en) System and method of selective automation of loading operation stages for self-propelled work vehicles
EP4116941A2 (en) Detection system, processing apparatus, movement object, detection method, and program
JP2021038088A (ja) フォークリフト及びコンテナ姿勢検出方法
JP2020165834A (ja) 作業車両
WO2022190484A1 (ja) 容器計測システム
CN115341614A (zh) 用于相对于作业机械辅助定位运输车的系统和方法
Borthwick Mining haul truck pose estimation and load profiling using stereo vision
WO2024075577A1 (ja) 鉱山車両自律走行システム
US20230324917A1 (en) Work machines
US11966220B2 (en) Method and user interface for selectively assisted automation of loading operation stages for work vehicles

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22872565

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 202280063064.9

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2022872565

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2022872565

Country of ref document: EP

Effective date: 20240321

NENP Non-entry into the national phase

Ref country code: DE