WO2017150136A1 - 外乱除去装置 - Google Patents

外乱除去装置 Download PDF

Info

Publication number
WO2017150136A1
WO2017150136A1 PCT/JP2017/004839 JP2017004839W WO2017150136A1 WO 2017150136 A1 WO2017150136 A1 WO 2017150136A1 JP 2017004839 W JP2017004839 W JP 2017004839W WO 2017150136 A1 WO2017150136 A1 WO 2017150136A1
Authority
WO
WIPO (PCT)
Prior art keywords
disturbance
distance image
pixel
candidate pixel
distance
Prior art date
Application number
PCT/JP2017/004839
Other languages
English (en)
French (fr)
Inventor
孝之 稗方
Original Assignee
株式会社神戸製鋼所
コベルコ建機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社神戸製鋼所, コベルコ建機株式会社 filed Critical 株式会社神戸製鋼所
Priority to CN201780014132.1A priority Critical patent/CN108713217B/zh
Priority to EP17759607.9A priority patent/EP3416129B1/en
Priority to US16/080,456 priority patent/US10565690B2/en
Publication of WO2017150136A1 publication Critical patent/WO2017150136A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F3/00Dredgers; Soil-shifting machines
    • E02F3/04Dredgers; Soil-shifting machines mechanically-driven
    • E02F3/28Dredgers; Soil-shifting machines mechanically-driven with digging tools mounted on a dipper- or bucket-arm, i.e. there is either one arm or a pair of arms, e.g. dippers, buckets
    • E02F3/36Component parts
    • E02F3/42Drives for dippers, buckets, dipper-arms or bucket-arms
    • E02F3/43Control of dipper or bucket position; Control of sequence of drive operations
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/24Safety devices, e.g. for preventing overload
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/26Indicating devices
    • E02F9/264Sensors and their calibration for indicating the position of the work tool
    • E02F9/265Sensors and their calibration for indicating the position of the work tool with follow-up actions (e.g. control signals sent to actuate the work tool)
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Definitions

  • the present invention relates to a technique for removing disturbances included in a distance image measured by a distance measuring sensor.
  • a ranging sensor is attached to the main body, By detecting the distance, the working apparatus prevents interference with the main body.
  • Patent Document 1 discloses an interference prevention apparatus that uses a plurality of ultrasonic sensors to determine whether or not a bucket has entered a collision risk area set in front of a cab.
  • Patent Document 1 since the disturbance is not considered at all, it is not possible to prevent the disturbance from being erroneously detected as a work device.
  • An object of the present invention is to provide a disturbance removing device that removes a disturbance that is not necessary when recognizing an object from a distance image.
  • a disturbance removal apparatus is a disturbance removal apparatus that removes a granular disturbance object flying around a target object to be recognized from a distance image
  • a distance measuring sensor that acquires a plurality of distance images showing a distance distribution of the surrounding environment in time series, For each distance image acquired by the distance measuring sensor, an extracting unit that extracts one or more predetermined number of pixels in ascending order of distance as candidate pixels of the disturbance, Calculation that calculates a feature value that indicates a larger value as the degree of temporal change between each candidate pixel in the distance image of the current frame and each candidate pixel in the distance image of the past frame corresponding to each candidate pixel increases. And And a removal unit that determines a candidate pixel having a feature quantity calculated by the calculation unit that is larger than a predetermined reference feature quantity as a pixel indicating the disturbance, and removes the candidate pixel from the distance image of the current frame.
  • FIG. 1 It is a figure which shows an example of the construction machine with which the disturbance removal apparatus which concerns on embodiment of this invention was applied. It is a block diagram which shows the internal structure of the construction machine shown in FIG. It is a flowchart which shows an example of the process of the disturbance removal apparatus which concerns on embodiment of this invention. It is a schematic diagram which shows the example of a search of a candidate pixel. It is a figure explaining the calculation process of a feature-value.
  • FIG. 1 is a diagram illustrating an example of a construction machine 1 to which a disturbance elimination device according to an embodiment of the present invention is applied.
  • a hydraulic excavator will be described as an example of the construction machine 1, but this is only an example, and a construction machine such as a hydraulic crane or the like that has a risk that a working device such as a boom may interfere with the main body of the construction machine.
  • any construction machine may be employed as long as it has a risk of interference with surrounding persons.
  • the disturbance eliminating device is a machine having a movable part that may interfere with a person, such as a human-type robot and a welding robot, or an automobile that may interfere with a person. May be applied.
  • a construction machine 1 shown in FIG. 1 includes a crawler type lower traveling body 2, an upper revolving body 3 that is turnable on the lower traveling body 2, and a work device 4 that is attached to the upper revolving body 3. ing.
  • the lower traveling body 2 and the upper swing body 3 constitute a main body of the construction machine 1.
  • the forward direction of the lower traveling body 2 is referred to as the front
  • the backward direction of the lower traveling body 2 is referred to as the rear
  • the left direction when the lower traveling body 2 is viewed from the rear forward is referred to as the left direction
  • the right direction when the lower traveling body 2 is viewed from the rear forward is referred to as right, left and right. Called the left-right direction.
  • the upper direction of the construction machine 1 is referred to as the upper direction
  • the lower direction of the construction machine 1 is referred to as the lower direction
  • the upper and lower directions are collectively referred to as the up-down direction.
  • FIG. 1 shows the construction machine 1 when viewed from the left to the right.
  • the work device 4 includes a boom 41 attached to the upper swing body 3 so as to be able to move up and down, an arm 42 attached so as to be swingable with respect to a distal end portion of the boom 41, and a swing with respect to the distal end portion of the arm 42. And an attachment 43 movably attached thereto.
  • the boom 41, the arm 42, and the attachment 43 are driven to undulate or swing by corresponding hydraulic cylinders (not shown).
  • a bucket for excavation is adopted as the attachment 43, but this is an example.
  • the upper swing body 3 is provided with a cabin 31 on which the operator is boarded, a controller 15 that controls the entire construction machine 1, and a notification unit 17 that notifies the operator of the state of the construction machine 1.
  • distance measuring sensors 16F and 16B are arranged at the upper ends of the front surface 3F and the rear surface 3B, respectively.
  • the distance measuring sensors 16F and 16B are sensors that can directly measure the distance of an object in the vicinity of the upper-part turning body 3 (for example, a person behind and the working device 4 in front).
  • the distance measuring sensors 16F and 16B are composed of, for example, a depth sensor or a stereo camera, and acquire a plurality of distance images indicating a distance distribution to surrounding objects in time series at a predetermined frame rate (for example, about 5 to 50 fps). To do.
  • a depth sensor for example, a time of flight (TOF) method that measures the distance distribution of the surrounding environment by measuring the time until the irradiated infrared light is reflected by an object and returned by an infrared camera.
  • TOF time of flight
  • a distance measuring sensor can be used.
  • a stereo camera is a distance measuring sensor that measures the distance distribution of the surrounding environment by determining parallax between corresponding points in a plurality of images captured by a plurality of cameras, for example.
  • the distance measuring sensor 16F is attached to the front surface 3F so that the entire area of the front surface 3F and the front surface of the lower traveling body 2 is included in at least the measurement area 161a. Thereby, the distance measuring sensor 16F can detect the working device 4 and the person positioned in front of the upper swing body 3 and the lower traveling body 2.
  • the ranging sensor 16B is attached to the rear surface 3B so that the entire area of the rear surface 3B and the rear surface of the lower traveling body 2 is included in at least the measurement area 161b. Accordingly, the distance measuring sensor 16B can detect a person located behind the upper swing body 3 and the lower traveling body 2.
  • the distance measuring sensors 16F and 16B are not distinguished, they are described as the distance measuring sensor 16.
  • the distance image acquired by the distance measuring sensor 16 is captured by the controller 15 and subjected to processing described later to remove disturbances and used for preventing interference.
  • FIG. 2 is a block diagram showing an internal configuration of the construction machine 1 shown in FIG.
  • the construction machine 1 includes an engine 11, a hydraulic pump 12, a control valve 13, an actuator 14, an operation unit 18, and an attitude sensor 19 in addition to the distance measurement sensor 16, the notification unit 17, and the controller 15 illustrated in FIG. 1. .
  • the flow of hydraulic oil is indicated by a thick line
  • the flow of control signals is indicated by a thin line.
  • the distance measuring sensor 16 and the controller 15 are components of the disturbance removing apparatus according to the embodiment of the present invention.
  • the engine 11 is composed of, for example, a diesel engine.
  • the hydraulic pump 12 is connected to the drive shaft 11X of the engine 11, is driven by the power of the engine 11, and discharges hydraulic oil.
  • the control valve 13 includes, for example, a hydraulic pilot switching valve interposed between the hydraulic pump 12 and the actuator 14 and an electromagnetic valve that adjusts a pilot pressure input to the hydraulic pilot switching valve.
  • the actuator 14 is operated by adjusting the amount of hydraulic oil supplied from the hydraulic pump 12 to the actuator 14.
  • the actuator 14 is, for example, a boom cylinder that raises and lowers the boom 41 with respect to the lower traveling body, an arm cylinder that swings the arm 42 with respect to the boom 41, and an attachment cylinder that swings the attachment 43 with respect to the arm 42. It is configured.
  • a cylinder is employed as the actuator 14.
  • this is merely an example, and a traveling motor that causes the lower traveling body 2 to travel or a swing motor that causes the upper swing body 3 to swing may be employed.
  • the controller 15 is composed of, for example, a microcomputer including a CPU, a ROM, a RAM, and the like, and governs overall control of the construction machine 1.
  • the controller 15 includes an extraction unit 151, a calculation unit 152, a removal unit 153, an interference determination unit 154, and an interference prevention unit 155.
  • the extraction unit 151 to the interference prevention unit 155 are realized, for example, when the CPU executes a program.
  • the extraction unit 151 extracts one or more predetermined number of pixels from the distance image acquired by the distance measuring sensor 16 in order of increasing distance as candidate pixels of the disturbance.
  • the predetermined number for example, a value of about 10 is employed, but this is an example, and an appropriate value may be employed in consideration of the processing capacity of the controller 15.
  • the calculating unit 152 calculates a feature amount indicating a temporal change feature between each candidate pixel in the distance image of the current frame and each candidate pixel in the distance image of the past frame corresponding to each candidate pixel. Details of the feature amount will be described later.
  • the removal unit 153 determines a candidate pixel whose feature amount calculated by the calculation unit 152 is larger than a predetermined reference feature amount as a pixel indicating a disturbance, and removes it from the distance image of the current frame.
  • a granular minute object flying in the atmosphere such as raindrops, snow, sleet, hail, small insects such as flies and mosquitoes is assumed.
  • a minute object has a feature that a change in speed, acceleration, and moving direction is larger than an object to be recognized (person or work device 4). Therefore, by calculating a feature amount indicating the temporal change feature of the candidate pixel and excluding candidate pixels whose feature amount is larger than the reference feature amount, the object remains in the distance image and the disturbance object Only can be removed accurately.
  • the interference determination unit 154 determines the risk of interference using the distance image from which the pixel indicating the disturbance (hereinafter referred to as “disturbance pixel”) is removed by the removal unit 153.
  • the interference determination unit 154 recognizes the person positioned around the construction machine 1 and the tip of the work device 4 from the distance image from which the disturbance pixels are removed. And if the recognized person and the front-end
  • As the interference prevention area for example, an area within a certain distance range from the side walls of the lower traveling body 2 and the upper swing body 3 can be employed.
  • the interference determination unit 154 is configured so that the dismantling object is located when the work device 4 holds the dismantling object and the disassembling object is located closer to the cabin 31 than the tip of the attachment 43 and the tip of the arm 42. When entering the interference prevention area, it may be determined that there is a risk of interference.
  • the interference prevention unit 155 alerts the operator using the notification unit 17.
  • the interference prevention unit 155 outputs a control signal to the control valve 13 so that the work device 4 takes a posture corresponding to the operation amount of the operation unit 18 while monitoring the measurement data by the posture sensor 19.
  • the interference prevention unit 155 transmits a control signal for automatically stopping the work device 4 regardless of the operation amount of the operation unit 18. 13 is output.
  • the interference prevention unit 155 may automatically stop the work device 4 when a person and the work device 4 enter an automatic stop region narrower than the interference prevention region.
  • the notification unit 17 includes a display device and a speaker, and notifies the operator of the danger of interference.
  • the notification unit 17 may output a voice message or warning sound for notifying the danger of interference to the speaker, or may display a message or warning lamp for notifying the danger of interference on the display device. May be.
  • the operation unit 18 includes, for example, an operation lever that accepts an operation for changing the posture of the work device 4, and outputs an operation amount corresponding to the tilt amount of the operation lever to the controller 15.
  • the posture sensor 19 includes an angle sensor that detects the undulation angle of the boom 41, an angle sensor that detects the swing angle of the arm 42, and an angle sensor that detects the swing angle of the attachment 43. These angle sensors detect the angle sensor.
  • the measured data is output to the controller 15 as measurement data indicating the attitude of the work device 4.
  • FIG. 3 is a flowchart showing an example of processing of the disturbance removal apparatus according to the embodiment of the present invention. This flowchart is started, for example, when the construction machine 1 starts operation, that is, when the engine 11 is started.
  • the distance measuring sensor 16 acquires the distance image F (n) of the current frame and outputs it to the extraction unit 151 (S301).
  • the extraction unit 151 may perform filter processing using a smoothing filter on the distance image F (n) as preprocessing, and remove high-frequency noise included in the distance image F (n).
  • n is an index that defines the frame number of the distance image F, and is a positive integer whose value increases with time.
  • the extraction unit 151 extracts a pixel having the smallest distance (depth component) from the search range set in the distance image as a candidate pixel (S302).
  • This is one disturbance pixel candidate (a pixel candidate indicating a disturbance such as raindrops).
  • the extraction unit 151 sets the remaining area excluding a certain range around the candidate pixel in the distance image F (n) as a search range (S303).
  • the extraction unit 151 returns the process to S302, and executes the processes of S302 to S304.
  • the process proceeds to S305. Disturbances such as raindrops, snow, and insects are not necessarily one on the distance image. Therefore, in the present embodiment, the processing of S302 to S304 is executed a predetermined number of times in order to extract a predetermined number of candidate pixels.
  • FIG. 4 is a schematic diagram showing an example of searching for candidate pixels.
  • the extraction unit 151 sets the entire range of the distance image F (n) as a search range, and extracts a pixel having the shortest distance from the search range as a candidate pixel P1 (n).
  • the extraction unit 151 sets an area obtained by removing the range D1 (n) having a certain radius from the candidate pixel P1 (n) from the distance image F (n) as a search area, and the distance is within the search area.
  • the smallest pixel is extracted as a candidate pixel P2 (n).
  • the extraction unit 151 sets a region obtained by removing the range D1 (n) and the range D2 (n) from the candidate pixel P2 (n) from the distance image F (n) as a search range, A pixel with the shortest distance is extracted as a candidate pixel P3 (n) from the search range.
  • the extraction unit 151 removes the fixed ranges D1 (n), D2 (n), and D3 (n) that include the extracted candidate pixels from the distance image F (n) to obtain a search range.
  • a predetermined number of candidate pixels are extracted by repeating the process of setting and extracting a pixel having the smallest distance from the set search range a predetermined number of times.
  • Pixels included within a certain range from the candidate pixel may receive reflected light from the same disturbance. Therefore, in the present embodiment, a search range is set in an area excluding a certain range from searched candidate pixels, and a plurality of candidate pixels are prevented from being extracted from the same disturbance. Therefore, as the size of the certain range, for example, the maximum size assumed of the disturbance object to be removed or the size provided with a certain margin in the maximum size may be employed.
  • the calculation unit 152 determines a corresponding candidate pixel in the distance image F (n ⁇ 1) one frame before for each of the predetermined number of candidate pixels extracted from the distance image F (n) in S302. Then, the feature amount is calculated using the corresponding candidate pixels (S305).
  • candidate pixels P1 (n), P2 (n), and P3 (n) are extracted for the distance image F (n), and the candidate pixel P1 is extracted for the distance image F (n ⁇ 1).
  • N-1), P2 (n-1), and P3 (n-1) are extracted.
  • the calculation unit 152 selects candidate pixels P1 (n ⁇ 1), P2 (n ⁇ 1), P3 (n ⁇ 1) extracted from the distance image F (n ⁇ 1). ), The candidate pixel P1 (n ⁇ 1) having the closest position on the distance image is extracted as the corresponding candidate pixel. Similarly, the calculation unit 152 associates candidate pixel P2 (n) with candidate pixel P2 (n-1), and associates candidate pixel P3 (n) with candidate pixel P3 (n-1). Each pixel constituting the distance image is represented by three components: an X and Y component indicating a position on the distance image, and a Z component (depth component) indicating a distance to the object. Therefore, the calculation unit 152 may associate candidate pixels whose positions indicated by the X component and the Y component are close to each other.
  • the correspondence between the candidate pixels having the closest positions on the distance image is based on the idea that both candidate pixels represent the same disturbance. Therefore, by associating candidate pixels with each other over a plurality of frames, the same disturbance can be tracked until the frame is out.
  • the method of the present embodiment cannot track disturbances such as rain that moves at a high speed that can pass within the time of one frame. However, if the method of the present embodiment is applied to such a high-speed disturbance, different disturbances are associated with each other and the movement becomes complicated, so the feature is sufficiently large compared to the recognition target object. A quantity is obtained. Therefore, the method of the present embodiment can accurately detect disturbances that move at high speed.
  • FIG. 5 is a diagram for explaining the feature amount calculation processing.
  • one candidate pixel p (n) in the distance image F (n) is the candidate pixel q (n) whose position is the closest among the candidate pixels extracted in the distance image F (n ⁇ 1). -1).
  • the candidate pixel q (n ⁇ 1) is associated with the candidate pixel q (n ⁇ 2) having the closest position among the candidate pixels extracted from the distance image F (n ⁇ 2).
  • the candidate pixel q (n ⁇ 2) is associated with the candidate pixel q (n ⁇ 3) having the closest position among the candidate pixels extracted from the distance image F (n ⁇ 3).
  • a feature amount is calculated using a series of candidate pixels associated in this way.
  • feature quantities of velocity, angle, and acceleration are calculated using a series of associated candidate pixels, and a disturbance pixel is determined.
  • the processing after S305 will be described separately in the case where the feature amounts of speed, angle, and acceleration are adopted.
  • Formula (1) v (n), v (n ⁇ 1), and v (n ⁇ 2) indicate velocities in the distance images F (n), F (n ⁇ 1), and F (n ⁇ 2), respectively.
  • a physical quantity with a lower case sign indicates a vector
  • a physical quantity with an upper case sign indicates a scalar.
  • p (n), q (n-1), q (n-2), and q (n-3) are distance images F (n), F (n-1), F (n-2), This is a candidate pixel associated over F (n-3), and is three-dimensional data composed of X, Y, and Z components. Accordingly, the velocities v (n), v (n ⁇ 1), and v (n ⁇ 2) are three-dimensional data (three-dimensional vectors).
  • the calculation unit 152 calculates the speed Vi using the speed v (n) (S305).
  • the speed Vi is expressed by equation (2).
  • the speed v (n) can be adopted as the speed vi, and the three-dimensional Euclidean distance of the speed vi can be adopted as the speed Vi.
  • the speed vi of the norm on the right side is a vector
  • the speed Vi is a scalar.
  • the speed v (n) is adopted as the speed vi, but this is an example, and the average speed between the current frame and the past frame such as v (n), v (n-1) is adopted. Also good. In this case, an average speed that is not continuous in time series, such as v (n) and v (n-2), may be employed.
  • the removal unit 153 determines whether or not the candidate pixel p (n) is a disturbance pixel depending on whether or not the speed Vi exceeds a predetermined reference speed Vmax (an example of a reference feature amount) (S306). When the speed Vi exceeds the predetermined reference speed Vmax, the removal unit 153 determines that the candidate pixel p (n) is a disturbance pixel and removes the candidate pixel p (n) from the distance image F (n). (S307), and the process returns to S301. On the other hand, the removal unit 153 does not remove the candidate pixel p (n) unless the speed Vi exceeds the reference speed Vmax.
  • Vmax an example of a reference feature amount
  • the reference speed Vmax for example, a maximum speed assumed for an object (person and work device 4) to be recognized, or a speed obtained by adding a certain margin to the maximum speed can be adopted. Thereby, even if the object is extracted as a candidate pixel, since the speed Vi is lower than the reference speed Vmax, it is possible to prevent the candidate pixel from being removed as a disturbance pixel.
  • the assumed maximum speed of the person and the work device 4 is adopted as the reference speed Vmax.
  • the reference speed Vmax may be determined according to the object to be recognized.
  • the removing unit 153 may remove a certain range D (n) including the candidate pixel p (n) from the distance image F (n). . Thereby, it is possible to prevent a part of the same disturbance from remaining. This is the same even when the angle and acceleration described later are employed.
  • the process for the candidate pixel p (n) is shown in FIG. 5, the same process is performed for the other candidate pixels p (n), and it is determined whether or not the pixel is a disturbance pixel.
  • the technique of removing disturbances using speed is effective when removing disturbances such as raindrops.
  • angles ⁇ (n) and ⁇ (n ⁇ 1) are calculated by the following equations.
  • the calculation unit 152 calculates the angle ⁇ (n) as an angle feature amount (S305).
  • the removing unit 153 determines whether or not the candidate pixel p (n) is a disturbance pixel depending on whether or not the angle ⁇ (n) exceeds the reference angle ⁇ max (an example of the reference feature amount) (S306). . When the angle ⁇ (n) exceeds the reference angle ⁇ max, the removal unit 153 determines that the candidate pixel p (n) is a disturbance pixel, and removes the candidate pixel p (n) from the distance image F (n) ( In step S307, the process returns to step S301. On the other hand, the removal unit 153 does not remove the candidate pixel p (n) when the angle ⁇ (n) does not exceed the reference angle ⁇ max.
  • the reference angle ⁇ max is, for example, the maximum angle ⁇ (n) assumed when the object (the working device 4 and the person) is measured by the distance measuring sensor 16 and the angle ⁇ (n) is obtained, or An angle obtained by adding a certain margin to the maximum angle ⁇ (n) can be employed. As a result, even if the object is extracted as a candidate pixel, the angle ⁇ (n) is less than the reference angle ⁇ max, so that the candidate pixel can be prevented from being removed as a disturbance pixel.
  • the method of removing disturbance pixels using the angle ⁇ (n) is useful when removing disturbances such as insects and snow. It becomes effective.
  • accelerations a (n) and a (n ⁇ 1) are calculated by the following equations.
  • a (n) v (n) ⁇ v (n ⁇ 1)
  • a (n-1) v (n-1) -v (n-2)
  • Formula (4)
  • a (n) indicates the acceleration in the distance image F (n)
  • a (n ⁇ 1) indicates the acceleration in the distance image F (n ⁇ 1).
  • Calculating unit 152 obtains acceleration Ai using acceleration a (n).
  • the acceleration Ai is expressed by Expression (5).
  • the acceleration a (n) can be adopted as the acceleration ai, and the three-dimensional Euclidean distance of the acceleration ai can be adopted as the acceleration Ai.
  • the acceleration ai in the norm on the right side is a vector, and the acceleration Ai is a scalar.
  • the acceleration a (n) is adopted as the acceleration ai.
  • the removal unit 153 determines whether or not the candidate pixel p (n) is a disturbance pixel depending on whether or not the acceleration Ai exceeds a predetermined reference acceleration Amax (an example of a reference feature amount) (S306). If the acceleration Ai exceeds the reference acceleration Amax, the removal unit 153 determines that the candidate pixel p (n) is a disturbance pixel, removes the candidate pixel p (n) from the distance image F (n) (S307), The process returns to S301. On the other hand, the removal unit 153 does not remove the candidate pixel p (n) unless the acceleration Ai exceeds the reference acceleration Amax.
  • a predetermined reference acceleration Amax an example of a reference feature amount
  • the reference acceleration Amax for example, an assumed maximum acceleration of an object to be recognized (person and work device 4) or an acceleration obtained by adding a certain margin to the maximum acceleration can be adopted.
  • the acceleration Ai is less than the reference acceleration Amax, so that the candidate pixel can be prevented from being removed as a disturbance pixel.
  • the assumed maximum acceleration of the person and the work device 4 is adopted as the reference acceleration Amax.
  • the reference acceleration Amax may be determined according to the object to be recognized. .
  • the calculation unit 152 may not be able to track disturbances well. In this case, the velocity v (n) of the disturbance is observed with a random change, and a large acceleration a (n) is observed. On the other hand, since the work device 4 and the person are slower than the disturbance, the calculation unit 152 can track the work device 4 and the person well even if the frame rate is low. In this case, a large acceleration a (n) is not observed. Therefore, the method of removing disturbances using acceleration is effective when the frame rate is low and the disturbances cannot be tracked well.
  • the removal unit 153 determines whether the candidate pixel p (n) is a disturbance pixel by applying each of the velocity, angle, and acceleration methods, and determines that the candidate pixel is a disturbance pixel using at least one method. If so, the candidate pixel p (n) may be determined to be a disturbance pixel.
  • the removal unit 153 first determines whether or not the candidate pixel p (n) is a disturbance pixel by applying a speed method. If it is determined whether or not the pixel is a disturbance pixel by applying the method, and it cannot be determined that the pixel is a disturbance pixel, it may be determined whether or not the pixel is a disturbance pixel by applying an acceleration method.
  • the work device 4 is automatically stopped when an object enters the automatic driving region.
  • the traveling operation of the lower traveling body 2 may be automatically stopped, or the upper swing body 3 may be stopped.
  • the turning operation may be automatically stopped.
  • the interference prevention unit 155 may limit the operation so as not to interfere with the main body unit, instead of automatically stopping the work device 4.
  • the disturbance pixel is removed from the distance image, and the disturbance pixel is set as an invalid pixel without actually removing the disturbance pixel, and the interference determination unit 154 determines the risk of interference. A mode to be ignored in doing so is also included.
  • a disturbance removal apparatus is a disturbance removal apparatus that removes a granular disturbance object flying around a target object to be recognized from a distance image
  • a distance measuring sensor that acquires a plurality of distance images showing a distance distribution of the surrounding environment in time series, For each distance image acquired by the distance measuring sensor, an extracting unit that extracts one or more predetermined number of pixels in ascending order of distance as candidate pixels of the disturbance, Calculation that calculates a feature value that indicates a larger value as the degree of temporal change between each candidate pixel in the distance image of the current frame and each candidate pixel in the distance image of the past frame corresponding to each candidate pixel increases. And A removal unit that determines a candidate pixel having a feature amount calculated by the calculation unit larger than a predetermined reference feature amount as a pixel indicating the disturbance, and removes the candidate pixel from the distance image of the current frame.
  • one or more predetermined number of pixels are extracted from the distance image in ascending order of distance as candidate pixels of the disturbance, and the feature amount indicating the temporal change feature is greater than the predetermined reference feature amount.
  • a large candidate pixel is determined as a pixel indicating a disturbance and is removed from the distance image of the current frame. Therefore, it is possible to remove from the distance image a granular disturbance object flying near a position closer to the object as viewed from the distance measuring sensor.
  • the calculation unit indicates temporal changes in positions of the candidate pixels in the distance image of the current frame and the candidate pixels in the distance image of the past frame corresponding to the candidate pixels.
  • the speed may be calculated as the feature amount.
  • granular minute objects such as raindrops flying at high speed can be accurately removed as disturbances.
  • the calculation unit calculates an angle between a velocity vector of each candidate pixel in the distance image of the current frame and a velocity vector of each candidate pixel in the distance image of the past frame corresponding to each candidate pixel.
  • the feature amount may be calculated.
  • granular minute objects such as insects and snow whose flight direction changes abruptly compared to the target object can be accurately removed as disturbances.
  • the calculation unit indicates a temporal change in speed between each candidate pixel in the range image of the current frame and each candidate pixel in the range image of the past frame corresponding to each candidate pixel. Acceleration may be calculated as the feature amount.
  • shot noise generated by the distance measuring sensor can be accurately removed as a disturbance object.
  • the calculation unit calculates a temporal change in position between each candidate pixel in the distance image of the current frame and each candidate pixel in the distance image of the past frame corresponding to each candidate pixel. Calculating each of the indicated speed, the angle of the speed vector, and the acceleration indicating the temporal change of the speed as the feature amount,
  • the reference feature amount includes a reference feature amount corresponding to each of the speed, the angle, and the acceleration,
  • the removing unit removes candidate pixels having at least one of the velocity, the angle, and the acceleration larger than the corresponding reference feature amount as pixels indicating the disturbance from the distance image of the current frame. May be.
  • the detection accuracy of the disturbance is increased. Can be increased.
  • the extraction unit sets a search range by removing a certain range including the extracted candidate pixels from the distance image of the current frame, and a pixel having a minimum distance from the set search range.
  • the predetermined number of candidate pixels may be extracted by repeating the process of extracting a predetermined number of times.
  • the candidate pixel is extracted by repeating the process of extracting the pixel having the smallest distance from the search range in which a certain range is removed from the extracted candidate pixel, the same disturbance object It is possible to prevent a plurality of candidate pixels from being extracted.
  • the object is a working device provided in a construction machine, the posture of which can be changed,
  • the reference feature amount may be determined based on a speed that is greater than an assumed maximum speed of the working device.
  • the reference feature amount is determined based on a speed larger than the assumed maximum speed of the working device, it is possible to avoid a situation where the pixel indicating the working device is removed as a disturbance.
  • the object is a working device provided in a construction machine, the posture of which can be changed,
  • the reference feature amount may be determined based on an angle larger than an assumed maximum change amount of the angle of the working device.
  • the reference feature amount is determined based on an angle larger than the assumed maximum change amount of the angle of the working device, a situation in which the pixel indicating the working device is removed as a disturbance object. Can be avoided.
  • the object is a working device provided in a construction machine, the posture of which can be changed,
  • the reference feature amount may be determined based on an acceleration that is greater than a maximum acceleration of the work device that is assumed.
  • the reference feature amount is determined based on an acceleration larger than the assumed maximum acceleration of the working device, it is possible to avoid a situation in which the pixel indicating the working device is removed as a disturbance.
  • the disturbance may be composed of minute objects including at least one of rain, snow, and insects.
  • minute objects such as rain, snow, and insects can be removed as disturbances.
  • the disturbance elimination device is applied to a construction machine including a main body portion and a working device whose posture can be changed with respect to the main body portion.
  • the working device is recognized as the target object from the distance image from which the disturbance is removed, and the recognized target object is located in a certain distance range with respect to the main body part, the target object is placed on the main body part.
  • An interference determination unit that determines that there is a risk of interference; If the interference determination unit determines that there is a risk of interference, the interference determination unit may further include an interference prevention unit that performs any one of an operation restriction and an alarm of the work device.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mining & Mineral Resources (AREA)
  • Civil Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Structural Engineering (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Operation Control Of Excavators (AREA)
  • Component Parts Of Construction Machinery (AREA)

Abstract

抽出部(151)は、測距センサ(16)が取得した各距離画像に対して、距離が小さい順に一つ以上の所定個数の画素を、外乱物の候補画素として抽出する。算出部(152)は、現フレームの距離画像中の各候補画素と、各候補画素に対応する過去フレームの距離画像中の各候補画素との時間的な変化の特徴を示す特徴量を算出する。除去部(153)は、算出部(152)により算出された特徴量が、所定の基準特徴量よりも大きな候補画素を、外乱物を示す画素として決定し、現フレームの距離画像から除去する。

Description

外乱除去装置
 本発明は、測距センサで計測された距離画像に含まれる外乱物を除去する技術に関するものである。
 例えば、油圧ショベルや油圧クレーン等の建設機械では、ブームやアタッチメント等の作業装置が、建設機械の本体と干渉することを防止するために、本体に測距センサを取付け、本体と作業装置との距離を検知することで、作業装置による本体への干渉防止が図られている。
 例えば、特許文献1には、複数の超音波センサを用いて、運転室の前方に設定された干渉危険領域にバケットが侵入したか否かを判定する干渉防止装置が開示されている。
 しかし、測距センサを備える干渉防止装置では、降雨時や降雪時に、雨滴及び雪粒等の建設機械の近くを飛来する粒状の外乱物が、本体に接近する作業装置や人物であると誤検出され、オペレータに余計な警告が発せられたり、作業装置が自動停止されたりして、オペレータの作業の妨げになるという問題がある。
 また、特許文献1では、外乱物のことが全く考慮されていないので、外乱物が作業装置として誤検出されることを防止できない。
特開2001-64992号公報
 本発明の目的は、距離画像から対象物を認識する際に不要となる外乱物を除去する外乱除去装置を提供することである。
 本発明の一態様に係る外乱除去装置は、認識対象となる対象物の周囲を飛来する粒状の外乱物を距離画像から除去する外乱除去装置であって、
 周囲環境の距離分布を示す複数の距離画像を時系列に取得する測距センサと、
 前記測距センサが取得した各距離画像に対して、距離が小さい順に一つ以上の所定個数の画素を、前記外乱物の候補画素として抽出する抽出部と、
 現フレームの距離画像中の各候補画素と、前記各候補画素に対応する過去フレームの距離画像中の各候補画素との時間的な変化の度合いが大きいほど大きな値を示す特徴量を算出する算出部と、
 前記算出部により算出された特徴量が所定の基準特徴量よりも大きな候補画素を、前記外乱物を示す画素として決定し、前記現フレームの距離画像から除去する除去部とを備えるものである。
 本構成によれば、対象物よりも距離センサの近くに位置する外乱物が対象物として誤検出されることを防止できる。
本発明の実施の形態に係る外乱除去装置が適用された建設機械の一例を示す図である。 図1に示す建設機械の内部構成を示すブロック図である。 本発明の実施の形態に係る外乱除去装置の処理の一例を示すフローチャートである。 候補画素の探索例を示す模式図である。 特徴量の算出処理を説明する図である。
 [基本構成]
 図1は、本発明の実施の形態に係る外乱除去装置が適用された建設機械1の一例を示す図である。ここでは、建設機械1として、油圧ショベルを例に挙げて説明するが、これは一例であり、油圧クレーン等の、ブーム等の作業装置が建設機械の本体部と干渉する危険性のある建設機械、或いは、周囲の人物と干渉する危険性のある建設機械であれば、どのような建設機械が採用されてもよい。また、外乱除去装置は、建設機械の他にも、ヒューマン型ロボット、及び溶接ロボットというように、人物と干渉する危険性のある可動部を有する機械、或いは、人物と干渉する可能性のある自動車に適用されてもよい。
 図1に示す建設機械1は、クローラ式の下部走行体2と、下部走行体2上に旋回可能に設けられた上部旋回体3と、上部旋回体3に取り付けられた作業装置4とを備えている。下部走行体2及び上部旋回体3は建設機械1の本体部を構成する。
 本明細書において、下部走行体2の前進方向を前方、下部走行体2の後進方向を後方、前方及び後方を総称した方向を前後方向と呼ぶ。また、下部走行体2を後方から前方に見たときの左側の方向を左方、下部走行体2を後方から前方に見たときの右側の方向を右方、左方及び右方を総称して左右方向と呼ぶ。また、建設機械1の上側の方向を上方、建設機械1の下側の方向を下方、上方及び下方を総称して上下方向と呼ぶ。なお、図1では、左方から右方を見たときの建設機械1が示されている。
 作業装置4は、上部旋回体3に対して起伏可能に取り付けられたブーム41と、ブーム41の先端部に対して揺動可能に取り付けられたアーム42と、アーム42の先端部に対して揺動可能に取り付けられたアタッチメント43とを備える。ブーム41、アーム42、及びアタッチメント43は、それぞれに対応する油圧シリンダ(図略)によって、起伏或いは揺動するように駆動される。図1では、アタッチメント43として、例えば掘削用のバケットが採用されているが、これは一例である。
 上部旋回体3には、オペレータが搭乗するキャビン31と、建設機械1の全体制御を司るコントローラ15と、オペレータに建設機械1の状態を報知するための報知部17とが設けられている。
 上部旋回体3において、前面3F及び後面3Bの上端にはそれぞれ、測距センサ16F,16Bが配置されている。測距センサ16F,16Bは、上部旋回体3の近傍の物体(例えば、後方の人物や前方の作業装置4等)の距離を直接計測可能なセンサである。
 測距センサ16F,16Bは、例えば、深度センサやステレオカメラで構成され、周囲の物体までの距離分布を示す複数の距離画像を所定のフレームレート(例えば、5~50fps程度)で時系列に取得する。
 深度センサとしては、例えば、照射した赤外光が物体で反射されて戻ってくるまでの時間を赤外カメラで計測することで、周囲環境の距離分布を計測するTOF(time of flight)方式の測距センサが採用できる。ステレオカメラは、例えば、複数のカメラで撮像された複数の画像内の対応点同士の視差を求めることで、周囲環境の距離分布を計測する測距センサである。
 測距センサ16Fは、前面3F及び下部走行体2の前面の全域が少なくとも測定エリア161aに含まれるように、前面3Fに取り付けられている。これにより、測距センサ16Fは、上部旋回体3及び下部走行体2の前方に位置する作業装置4及び人物を検出できる。
 測距センサ16Bは、後面3B及び下部走行体2の後面の全域が少なくとも測定エリア161bに含まれるように、後面3Bに取り付けられている。これにより、測距センサ16Bは、上部旋回体3及び下部走行体2の後方に位置する人物を検出できる。以下、測距センサ16F,16Bを区別しない場合、測距センサ16と記述する。
 測距センサ16で取得された距離画像は、コントローラ15に取り込まれ、後述する処理が行われ、外乱物が除去され、干渉防止のために利用される。
 図2は、図1に示す建設機械1の内部構成を示すブロック図である。建設機械1は、図1に示す測距センサ16、報知部17、及びコントローラ15の他、エンジン11、油圧ポンプ12、コントロールバルブ13、アクチュエータ14、操作部18、及び姿勢センサ19を備えている。なお、図2において、作動油の流れは太線で示し、制御信号の流れは細線で示している。また、図1において、測距センサ16及びコントローラ15が本発明の実施の形態に係る外乱除去装置の構成要素となる。
 エンジン11は、例えばディーゼル式のエンジンで構成されている。油圧ポンプ12は、エンジン11の駆動軸11Xと接続され、エンジン11の動力によって駆動し、作動油を吐出する。
 コントロールバルブ13は、例えば、油圧ポンプ12及びアクチュエータ14間に介在する油圧パイロット切替弁と、当該油圧パイロット切替弁に入力されるパイロット圧を調整する電磁弁とを含み、コントローラ15の制御の下、油圧ポンプ12からアクチュエータ14への作動油の供給量を調整することで、アクチュエータ14を作動させる。
 アクチュエータ14は、例えば、ブーム41を下部走行体に対して起伏させるブームシリンダ、アーム42をブーム41に対して揺動させるアームシリンダ、及び、アタッチメント43をアーム42に対して揺動させるアタッチメントシリンダで構成されている。ここでは、アクチュエータ14として、シリンダを採用したが、これは一例であり、下部走行体2を走行させる走行モータや上部旋回体3を旋回させる旋回モータが採用されてもよい。
 コントローラ15は、例えば、CPU、ROM、及びRAM等を備えるマイクロコンピュータで構成され、建設機械1の全体の制御を司る。本実施の形態では、コントローラ15は、抽出部151、算出部152、除去部153、干渉判定部154、及び干渉防止部155を備える。抽出部151~干渉防止部155は、例えば、CPUがプログラムを実行することで実現される。
 抽出部151は、測距センサ16が取得した各距離画像に対して、距離が小さい順に一つ以上の所定個数の画素を、外乱物の候補画素として抽出する。ここで、所定個数としては、例えば、10個程度の値が採用されるが、これは一例であり、コントローラ15の処理能力との兼ね合いから妥当な値が採用されればよい。
 算出部152は、現フレームの距離画像中の各候補画素と、各候補画素に対応する過去フレームの距離画像中の各候補画素との時間的な変化の特徴を示す特徴量を算出する。特徴量の詳細は後述する。
 除去部153は、算出部152により算出された特徴量が、所定の基準特徴量よりも大きな候補画素を、外乱物を示す画素として決定し、現フレームの距離画像から除去する。
 本実施の形態では、外乱物として、雨滴、雪、みぞれ、あられ、ハエや蚊等の小さな虫等の大気中を飛来する粒状の微小物を想定している。このような微小物は、認識対象となる対象物(人物や作業装置4)に比べて、速度や加速度や移動方向の変化が大きいという特徴を持つ。したがって、候補画素の時間的な変化の特徴を示す特徴量を算出し、その特徴量が基準特徴量よりも大きな候補画素を除外することで、距離画像内に対象物を残存させつつ、外乱物のみを正確に除去することができる。
 干渉判定部154は、除去部153により外乱物を示す画素(以下、「外乱画素」と呼ぶ。)が除去された距離画像を用いて、干渉の危険性を判定する。ここで、干渉判定部154は、外乱画素が除去された距離画像から、建設機械1の周囲に位置する人物及び作業装置4の先端部を認識する。そして、干渉判定部154は、認識した人物及び作業装置4の先端部が、建設機械1に対して事前に設定された干渉防止領域に侵入していれば、干渉の危険性があると判定する。干渉防止領域としては、例えば、下部走行体2及び上部旋回体3の側壁から一定の距離範囲内の領域が採用できる。
 作業装置4の先端部とは、アタッチメント43の先端がアーム42の先端よりもキャビン31側に位置しているのであれば、アタッチメント43の先端が該当し、アーム42の先端がアタッチメント43の先端よりもキャビン31側に位置しているのであれば、アーム42の先端が該当する。また、干渉判定部154は、作業装置4が解体物を把持しており、その解体物がアタッチメント43の先端及びアーム42の先端よりもキャビン31側に位置しているのであれば、解体物が干渉防止領域に侵入している場合、干渉の危険性があると判定してもよい。
 干渉防止部155は、干渉判定部154により干渉の危険性があると判定された場合、報知部17を用いてオペレータに警報を行う。
 また、干渉防止部155は、姿勢センサ19による計測データをモニタしながら、操作部18の操作量に応じた姿勢を作業装置4がとるように、コントロールバルブ13に制御信号を出力する。ここで、干渉防止部155は、干渉判定部154により干渉の危険性があると判定された場合、操作部18の操作量に拘わらず、作業装置4を自動停止させるための制御信号をコントロールバルブ13に出力する。ここで、干渉防止部155は、干渉防止領域よりも狭い自動停止領域に人物及び作業装置4が侵入した場合、作業装置4を自動停止させてもよい。
 報知部17は、表示装置及びスピーカで構成され、干渉の危険性をオペレータに報知する。ここで、報知部17は、干渉の危険性を報知するための音声メッセージや警報音をスピーカに出力してもよいし、干渉の危険性を報知するためのメッセージや警報ランプを表示装置に表示してもよい。
 操作部18は、例えば、作業装置4の姿勢を変更する操作を受け付ける操作レバーで構成され、操作レバーの傾倒量に応じた操作量をコントローラ15に出力する。
 姿勢センサ19は、ブーム41の起伏角度を検出する角度センサ、アーム42の揺動角度を検出する角度センサ、及びアタッチメント43の揺動角度を検出する角度センサで構成され、これらの角度センサが検出した計測データを、作業装置4の姿勢を示す計測データとして、コントローラ15に出力する。
 [フローチャート]
 図3は、本発明の実施の形態に係る外乱除去装置の処理の一例を示すフローチャートである。このフローチャートは、例えば、建設機械1が稼動を始める時、つまり、エンジン11が始動した時に開始される。
 まず、測距センサ16は、現フレームの距離画像F(n)を取得し、抽出部151に出力する(S301)。このとき、抽出部151は、距離画像F(n)に対して平滑フィルタを用いたフィルタ処理を前処理として実行し、距離画像F(n)に含まれる高周波ノイズを除去してもよい。ここで、nは距離画像Fのフレーム番号を規定するインデックスであり、時間が進むほど値が増大する正の整数である。
 次に、抽出部151は、距離画像に設定された探索範囲の中から距離(深度成分)が最小の画素を候補画素として抽出する(S302)。これが一つの外乱画素の候補(雨滴などの外乱物を示す画素の候補)となる。
 次に、抽出部151は、距離画像F(n)において、候補画素を中心に一定の範囲を除く残りの領域を探索範囲として設定する(S303)。
 次に、抽出部151は、候補画素を抽出する処理が所定回数実行されていなければ(S304でNO)、処理をS302に戻し、S302~S304の処理を実行する。一方、候補画素を抽出する処理が所定回数実行されていれば(S304でYES)、処理をS305に進める。雨滴、雪、虫などの外乱物は距離画像上に一つとは限らない。そこで、本実施の形態では、所定個数の候補画素を抽出するために、S302~S304の処理を所定回数実行しているのである。
 図4は、候補画素の探索例を示す模式図である。まず、抽出部151は、距離画像F(n)の全域を探索範囲として設定し、この探索範囲の中から距離が最小の画素を候補画素P1(n)として抽出する。次に、抽出部151は、候補画素P1(n)から一定の半径の範囲D1(n)を距離画像F(n)から除いた領域を探索範囲として設定し、この探索範囲の中から距離が最小の画素を候補画素P2(n)として抽出する。次に、抽出部151は、範囲D1(n)と、候補画素P2(n)から一定の範囲の範囲D2(n)とを距離画像F(n)から除いた領域を探索範囲として設定し、この探索範囲の中から距離が最小の画素を候補画素P3(n)として抽出する。
 このように、抽出部151は、距離画像F(n)に対して、抽出済みの候補画素を含む一定の範囲D1(n),D2(n),D3(n)を除去して探索範囲を設定し、設定した探索範囲から距離が最小の画素を抽出する処理を所定回数繰り返すことで、所定個数の候補画素を抽出する。
 候補画素から一定の範囲内に含まれる画素は、同一の外乱物からの反射光を受光している恐れがある。そこで、本実施の形態では、探索済みの候補画素から一定の範囲を除く領域に探索範囲を設定し、同一の外乱物から複数の候補画素が抽出されることを防止している。したがって、一定の範囲のサイズとしては、例えば、除去対象となる外乱物の想定される最大サイズや、その最大サイズに一定のマージンを設けたサイズが採用されればよい。
 図3に参照を戻す。S305では、算出部152は、S302において距離画像F(n)から抽出された所定個数の候補画素のそれぞれについて、1フレーム前の距離画像F(n-1)内での対応する候補画素を決定し、対応する候補画素同士を用いて特徴量を算出する(S305)。
 図4の例では、距離画像F(n)に対して、候補画素P1(n)、P2(n)、P3(n)が抽出され、距離画像F(n-1)に対して候補画素P1(n-1)、P2(n-1)、P3(n-1)が抽出されている。
 この場合、算出部152は、候補画素P1(n)については、距離画像F(n-1)で抽出された候補画素P1(n-1)、P2(n-1)、P3(n-1)のうち、距離画像上での位置が最も近い候補画素P1(n-1)を対応する候補画素として抽出する。同様に、算出部152は、候補画素P2(n)については候補画素P2(n-1)を対応付け、候補画素P3(n)については候補画素P3(n-1)を対応付ける。距離画像を構成する各画素は、距離画像上での位置を示すX、Y成分と、物体までの距離を示すZ成分(深度成分)との3成分で表される。よって、算出部152は、X成分とY成分とが示す位置が近い候補画素同士を対応付ければよい。
 ここで、距離画像上での位置が最も近い候補画素同士を対応付けるのは、両候補画素が同じ外乱物を表しているとの考えに基づいている。したがって、複数のフレームに亘って候補画素同士を対応付けていくことで、フレームアウトするまで同一の外乱物を追跡することができる。
 なお、本実施の形態の手法は、1フレームの時間内で通過しきってしまうような高速で移動する雨等の外乱物を追跡できない。但し、このような高速な外乱物に対して本実施の形態の手法を適用すると、異なる外乱物同士が対応付けられ、動きが複雑になるので、認識対象の対象物に比べて十分に大きな特徴量が得られる。そのため、本実施の形態の手法は、高速で移動する外乱物も、正確に検出できる。
 図5は、特徴量の算出処理を説明する図である。図5に示すように距離画像F(n)のある1つの候補画素p(n)は、距離画像F(n-1)で抽出された候補画素のうち、位置が最も近い候補画素q(n-1)と対応付けられている。更に、候補画素q(n-1)は、距離画像F(n-2)で抽出された候補画素のうち、位置が最も近い候補画素q(n-2)と対応付けられている。更に、候補画素q(n-2)は、距離画像F(n-3)で抽出された候補画素のうち、位置が最も近い候補画素q(n-3)と対応付けられている。
 そして、このようにして対応付けられた一連の候補画素を用いて特徴量が算出される。本実施の形態では、対応付けられた一連の候補画素を用いて、速度、角度、及び加速度の特徴量が算出され、外乱画素が決定される。以下、S305以降の処理を、速度、角度、及び加速度の特徴量を採用した場合に分けて説明する。
 [速度]
 図5の例では、速度v(n),v(n-1),v(n-2)は以下の式で計算される。
 v(n)=p(n)-q(n-1)
 v(n-1)=q(n-1)-q(n-2)
 v(n-2)=q(n-2)-q(n-3)   式(1)
 v(n),v(n-1),v(n-2)は、それぞれ、距離画像F(n),F(n-1),F(n-2)における速度を示す。以下の説明では、速度及び加速度に関し、小文字の符号を付した物理量はベクトルを示し、大文字の符号を付した物理量はスカラーを示すものとする。
 p(n),q(n-1),q(n-2),q(n-3)は、それぞれ、距離画像F(n),F(n-1),F(n-2),F(n-3)に亘って対応付けられた候補画素であり、X,Y,Z成分からなる3次元データである。したがって、速度v(n),v(n-1),v(n-2)は、3次元データ(3次元ベクトル)となる。
 算出部152は、速度v(n)を利用して速度Viを算出する(S305)。速度Viは式(2)で表される。
 Vi=||vi||   式(2)
 ここで、速度viとしては、速度v(n)が採用でき、速度Viとしては、速度viの3次元のユークリッド距離が採用できる。なお、式(2)において、右辺のノルムの中身の速度viはベクトルであり、速度Viはスカラーである。ここでは、速度viとしては、速度v(n)を採用したが、これは一例であり、v(n),v(n-1)等の現フレームと過去フレームとの平均速度を採用してもよい。この場合、v(n),v(n-2)というように時系列的に連続していない速度の平均速度が採用されてもよい。
 次に、除去部153は、速度Viが所定の基準速度Vmax(基準特徴量の一例)を超えるか否かにより候補画素p(n)が外乱画素であるか否かを判定する(S306)。そして、速度Viが事前に定められた基準速度Vmaxを超える場合、除去部153は、候補画素p(n)を外乱画素と判定し、候補画素p(n)を距離画像F(n)から除去し(S307)、処理をS301に戻す。一方、除去部153は、速度Viが基準速度Vmaxを超えていなければ、候補画素p(n)を除去しない。
 ここで、基準速度Vmaxは、例えば、認識対象となる対象物(人物及び作業装置4)の想定される最大の速度、或いはその最大の速度に一定のマージンを加えた速度が採用できる。これにより、対象物が候補画素として抽出されたとしても、速度Viが基準速度Vmaxを下回るので、この候補画素が外乱画素として除去されることが防止できる。
 ここでは、基準速度Vmaxとして、人物及び作業装置4の想定される最大の速度を採用したが、これは一例であり、認識対象となる対象物に応じて、基準速度Vmaxは決定されればよい。また、除去部153は、外乱画素として判定した候補画素p(n)を除去するに際し、候補画素p(n)を含む一定の範囲D(n)を距離画像F(n)から除去すればよい。これにより、同一の外乱物の一部が残存することを防止できる。このことは、後述する角度及び加速度を採用した場合でも同じである。
 また、図5では、候補画素p(n)に対する処理を示したが、他の候補画素p(n)についても同一の処理が行われ、外乱画素であるか否かが判定される。
 雨滴等の外乱物は、人物や作業装置4に比べて高速に落下するので、速度を用いて外乱物を除去する手法は、雨滴等の外乱物を除去する際に有効である。
 [角度]
 図5の例では、角度θ(n),θ(n-1)は以下の式で計算される。
 θ(n)=∠(v(n),v(n-1))
 θ(n-1)=∠(v(n-1),v(n-2))   式(3)
 θ(n)は、速度v(n)と速度v(n-1)とのベクトル間の角度を示す。
 算出部152は、角度θ(n)を角度の特徴量として算出する(S305)。
 次に、除去部153は、角度θ(n)が基準角度θmax(基準特徴量の一例)を超えるか否かにより候補画素p(n)が外乱画素であるか否かを判定する(S306)。そして、角度θ(n)が基準角度θmaxを超える場合、除去部153は、候補画素p(n)を外乱画素と判定し、候補画素p(n)を距離画像F(n)から除去し(S307)、処理をS301に戻す。一方、除去部153は、角度θ(n)が基準角度θmaxを超えない場合、候補画素p(n)を除去しない。
 ここで、基準角度θmaxは、例えば、対象物(作業装置4及び人物)を測距センサ16で計測して角度θ(n)を求めたときに想定される最大の角度θ(n)、或いはその最大の角度θ(n)に一定のマージンを加えた角度が採用できる。これにより、対象物が候補画素として抽出されたとしても、角度θ(n)が基準角度θmaxを下回るので、この候補画素が外乱画素として除去されることが防止できる。
 虫や雪等の外乱物は、急激に方向が変化することが多いので、角度θ(n)を用いて外乱画素を除去する手法は、虫や雪等のような外乱物を除去する際に有効となる。
 [加速度]
 図5の例では、加速度a(n),a(n-1)は以下の式で計算される。
 a(n)=v(n)-v(n-1)
 a(n-1)=v(n-1)-v(n-2)   式(4)
 ここで、a(n)は距離画像F(n)での加速度を示し、a(n-1)は距離画像F(n-1)での加速度を示す。
 算出部152は、加速度a(n)を利用して加速度Aiを求める。加速度Aiは、式(5)で表される。
 Ai=||ai||   式(5)
 ここで、加速度aiとしては、加速度a(n)が採用でき、加速度Aiとしては、加速度aiの3次元のユークリッド距離が採用できる。なお、式(5)において、右辺のノルムの中身の加速度aiはベクトルであり、加速度Aiはスカラーである。ここでは、加速度aiとしては、加速度a(n)を採用したが、これは一例であり、a(n),a(n-1)等の現フレームと過去フレームとの平均加速度を採用してもよい。この場合、a(n),a(n-2)というように時系列的に連続していない加速度の平均加速度が採用されてもよい。
 次に、除去部153は、加速度Aiが所定の基準加速度Amax(基準特徴量の一例)を超えるか否かにより候補画素p(n)が外乱画素であるか否かを判定する(S306)。そして、加速度Aiが基準加速度Amaxを超える場合、除去部153は、候補画素p(n)を外乱画素と判定し、候補画素p(n)を距離画像F(n)から除去し(S307)、処理をS301に戻す。一方、除去部153は、加速度Aiが基準加速度Amaxを超えなければ、候補画素p(n)を除去しない。
 ここで、基準加速度Amaxは、例えば、認識対象となる対象物(人物及び作業装置4)の想定される最大の加速度、或いはその最大の加速度に一定のマージンを加えた加速度が採用できる。これにより、対象物が候補画素として抽出されたとしても、加速度Aiが基準加速度Amaxを下回るので、この候補画素が外乱画素として除去されることが防止できる。
 ここでは、基準加速度Amaxとして、人物及び作業装置4の想定される最大の加速度を採用したが、これは一例であり、認識対象となる対象物に応じて、基準加速度Amaxは決定されればよい。
 距離画像のフレームレートが低いと、算出部152は、外乱物をうまく追跡できない可能性がある。この場合、外乱物の速度v(n)がランダムに変化して観測され、大きな加速度a(n)が観測される。一方、作業装置4や人物は外乱物に比べて低速なので、フレームレートが低くても、算出部152は作業装置4や人物をうまく追跡することができる。この場合、大きな加速度a(n)が観測されない。したがって、加速度を用いて外乱物を除去する手法は、フレームレートが低く、外乱物をうまく追跡できない場合に有効となる。
 また、[角度]の欄で述べたように虫や雪は方向の変化が大きいので、虫や雪を測距センサ16で計測した場合、大きな加速度が観測できる。したがって、加速度を用いて外乱物を除去する手法は、虫や雪に対しても有効である。また、距離画像に含まれるショットノイズもランダムに変化するので、加速度を用いて外乱物を除去する手法はショットノイズに対しても有効である。
 [組み合わせ]
 上記説明では、速度、角度、及び加速度を用いて外乱物を除去する手法は、単独で使用されたが、組み合わされて使用されても良い。この場合、除去部153は、候補画素p(n)について、速度、角度、加速度の手法のそれぞれを適用して、外乱画素であるか否かを判定し、少なくとも1つの手法で外乱画素と判定したのであれば、候補画素p(n)は外乱画素であると判定すればよい。
 或いは、除去部153は、候補画素p(n)に対し、まず、速度の手法を適用して外乱画素であるか否かを判定し、外乱画素と判定できなかった場合、次に、角度の手法を適用して外乱画素であるか否かを判定し、外乱画素と判定できなかった場合、次に、加速度の手法を適用して外乱画素であるか否かを判定してもよい。
 [変形例]
 (1)上記説明では、認識対象となる対象物として、人物、作業装置4を採用したが、これは一例であり、外乱除去装置が自動車に適用されるのであれば、人物が認識対象の対象物として採用されればよい。
 (2)上記説明では、対象物が自動運転領域に侵入した場合、作業装置4を自動停止させるとして説明したが、下部走行体2の走行動作を自動停止させてもよいし、上部旋回体3の旋回動作を自動停止させてもよい。また、干渉防止部155は、作業装置4を自動停止させる代わりに、本体部と干渉しないように動作制限を行ってもよい。
 (3)本発明において、外乱画素を距離画像から除去する態様には、外乱画素を実際には除去せずに、外乱画素を無効画素として設定し、干渉判定部154が干渉の危険性を判定するに際して無視する態様も含まれる。
 上述した実施形態の特徴をまとめると次のとおりである。
 本発明の一態様に係る外乱除去装置は、認識対象となる対象物の周囲を飛来する粒状の外乱物を距離画像から除去する外乱除去装置であって、
 周囲環境の距離分布を示す複数の距離画像を時系列に取得する測距センサと、
 前記測距センサが取得した各距離画像に対して、距離が小さい順に一つ以上の所定個数の画素を、前記外乱物の候補画素として抽出する抽出部と、
 現フレームの距離画像中の各候補画素と、前記各候補画素に対応する過去フレームの距離画像中の各候補画素との時間的な変化の度合いが大きいほど大きな値を示す特徴量を算出する算出部と、
 前記算出部により算出された特徴量が所定の基準特徴量よりも大きな候補画素を、前記外乱物を示す画素として決定し、前記現フレームの距離画像から除去する除去部とを備える。
 本態様では、距離画像から、距離が小さい順に一つ以上の所定個数の画素が、外乱物の候補画素として抽出され、時間的な変化の特徴を示す特徴量が、所定の基準特徴量よりも大きな候補画素が、外乱物を示す画素として決定され、現フレームの距離画像から除去される。そのため、測距センサから見て、対象物よりも近くの位置を飛来する粒状の外乱物を距離画像から除去できる。
 上記態様において、前記算出部は、前記現フレームの距離画像中の各候補画素と、各候補画素に対応する、前記過去フレームの距離画像中の各候補画素との位置の時間的な変化を示す速度を、前記特徴量として算出してもよい。
 本態様によれば、高速で飛来する雨滴等の粒状の微小物を外乱物として正確に除去できる。
 上記態様において、前記算出部は、前記現フレームの距離画像中の各候補画素の速度ベクトルと、各候補画素に対応する、前記過去フレームの距離画像中の各候補画素の速度ベクトルとの角度を、前記特徴量として算出してもよい。
 本態様によれば、対象物と比較して飛来する方向が急激に変化する虫や雪等の粒状の微小物を外乱物として正確に除去できる。
 上記態様において、前記算出部は、前記現フレームの距離画像中の各候補画素と、各候補画素に対応する、前記過去フレームの距離画像中の各候補画素との速度の時間的な変化を示す加速度を、前記特徴量として算出してもよい。
 本態様によれば、対象物と比較して速度変化が大きな雪、虫等の粒状の微小物に加え、測距センサで生じるショットノイズも外乱物として正確に除去できる。
 上記態様において、前記算出部は、前記現フレームの距離画像中の各候補画素と、各候補画素に対応する、前記過去フレームの距離画像中の各候補画素との、位置の時間的な変化を示す速度、速度ベクトルの角度、及び前記速度の時間的な変化を示す加速度のそれぞれを前記特徴量として算出し、
 前記基準特徴量は、前記速度、前記角度、及び前記加速度のそれぞれに対応する基準特徴量を含み、
 前記除去部は、前記速度、前記角度、及び前記加速度のうちの少なくとも1つが、前記対応する基準特徴量よりも大きな候補画素を前記外乱物を示す画素として、前記現フレームの距離画像から除去してもよい。
 本態様によれば、速度、速度ベクトルの角度、及び加速度のうち少なくとも1つが、対応する基準特徴量よりも大きな候補画素が外乱物を示す画素として除去されているので、外乱物の検出精度を高めることができる。
 上記態様において、前記抽出部は、前記現フレームの距離画像に対して、抽出済みの候補画素を含む一定の範囲を除去して探索範囲を設定し、前記設定した探索範囲から距離が最小の画素を抽出する処理を所定回数繰り返すことで、前記所定個数の候補画素を抽出してもよい。
 本態様によれば、抽出済みの候補画素から一定の範囲が除去された探索範囲内から、距離が最小の画素を抽出する処理を繰り返すことで候補画素が抽出されているので、同一の外乱物に対して複数の候補画素が抽出されることを防止できる。
 上記態様において、前記対象物は、建設機械が備える、姿勢が変更可能な作業装置であり、
 前記基準特徴量は、想定される前記作業装置の最高速度よりも大きな速度に基づいて決定されてもよい。
 本態様によれば、基準特徴量は、想定される作業装置の最高速度よりも大きな速度に基づいて決定されているので、作業装置を示す画素が外乱物として除去される事態を回避できる。
 上記態様において、前記対象物は、建設機械が備える、姿勢が変更可能な作業装置であり、
 前記基準特徴量は、想定される前記作業装置の最大の角度の変化量よりも大きな角度に基づいて決定されもよい。
 本態様によれば、基準特徴量は、想定される作業装置の最大の角度の変化量よりも大きな角度に基づいて決定されているので、作業装置を示す画素が外乱物として除去される事態を回避できる。
 上記態様において、前記対象物は、建設機械が備える、姿勢が変更可能な作業装置であり、
 前記基準特徴量は、想定される前記作業装置の最高加速度よりも大きな加速度に基づいて決定されてもよい。
 本態様によれば、基準特徴量は、想定される作業装置の最高加速度よりも大きな加速度に基づいて決定されているので、作業装置を示す画素が外乱物として除去される事態を回避できる。
 上記態様において、前記外乱物は、雨、雪、及び虫の少なくとも1つを含む微小物で構成されていてもよい。
 本態様によれば、雨、雪、及び虫等の微小物を外乱物として除去できる。
 上記態様において、前記外乱除去装置は、本体部と、前記本体部に対して姿勢が変更可能な作業装置とを備える建設機械に適用され、
 前記外乱物が除去された距離画像から前記作業装置を前記対象物として認識し、前記認識した対象物が前記本体部に対して一定の距離範囲に位置する場合、前記対象物が前記本体部に干渉する危険性があると判定する干渉判定部と、
 前記干渉判定部により干渉する危険性があると判定された場合、前記作業装置の動作制限、及び警報のいずれか一方を行う干渉防止部とを更に備えてもよい。
 本態様によれば、外乱物が除去された距離画像を用いて対象物が認識され、干渉の危険性が判定されているので、無用な動作制限や警報が頻発されることを防止できる。

Claims (11)

  1.  認識対象となる対象物の周囲を飛来する粒状の外乱物を距離画像から除去する外乱除去装置であって、
     周囲環境の距離分布を示す複数の距離画像を時系列に取得する測距センサと、
     前記測距センサが取得した各距離画像に対して、距離が小さい順に一つ以上の所定個数の画素を、前記外乱物の候補画素として抽出する抽出部と、
     現フレームの距離画像中の各候補画素と、前記各候補画素に対応する過去フレームの距離画像中の各候補画素との時間的な変化の度合いが大きいほど大きな値を示す特徴量を算出する算出部と、
     前記算出部により算出された特徴量が所定の基準特徴量よりも大きな候補画素を、前記外乱物を示す画素として決定し、前記現フレームの距離画像から除去する除去部とを備える外乱除去装置。
  2.  前記算出部は、前記現フレームの距離画像中の各候補画素と、各候補画素に対応する、前記過去フレームの距離画像中の各候補画素との位置の時間的な変化を示す速度を、前記特徴量として算出する請求項1記載の外乱除去装置。
  3.  前記算出部は、前記現フレームの距離画像中の各候補画素の速度ベクトルと、各候補画素に対応する、前記過去フレームの距離画像中の各候補画素の速度ベクトルとの角度を、前記特徴量として算出する請求項1又は2記載の外乱除去装置。
  4.  前記算出部は、前記現フレームの距離画像中の各候補画素と、各候補画素に対応する、前記過去フレームの距離画像中の各候補画素との速度の時間的な変化を示す加速度を、前記特徴量として算出する請求項1~3のいずれかに記載の外乱除去装置。
  5.  前記算出部は、前記現フレームの距離画像中の各候補画素と、各候補画素に対応する、前記過去フレームの距離画像中の各候補画素との、位置の時間的な変化を示す速度、速度ベクトルの角度、及び前記速度の時間的な変化を示す加速度のそれぞれを前記特徴量として算出し、
     前記基準特徴量は、前記速度、前記角度、及び前記加速度のそれぞれに対応する基準特徴量を含み、
     前記除去部は、前記速度、前記角度、及び前記加速度のうちの少なくとも1つが、前記対応する基準特徴量よりも大きな候補画素を前記外乱物を示す画素として、前記現フレームの距離画像から除去する請求項1~4のいずれかに記載の外乱除去装置。
  6.  前記抽出部は、前記現フレームの距離画像に対して、抽出済みの候補画素を含む一定の範囲を除去して探索範囲を設定し、前記設定した探索範囲から距離が最小の画素を抽出する処理を所定回数繰り返すことで、前記所定個数の候補画素を抽出する請求項1~5のいずれかに記載の外乱除去装置。
  7.  前記対象物は、建設機械が備える、姿勢が変更可能な作業装置であり、
     前記基準特徴量は、想定される前記作業装置の最高速度よりも大きな速度に基づいて決定されている請求項1~6のいずれかに記載の外乱除去装置。
  8.  前記対象物は、建設機械が備える、姿勢が変更可能な作業装置であり、
     前記基準特徴量は、想定される前記作業装置の最大の角度の変化量よりも大きな角度に基づいて決定されている請求項1~6のいずれかに記載の外乱除去装置。
  9.  前記対象物は、建設機械が備える、姿勢が変更可能な作業装置であり、
     前記基準特徴量は、想定される前記作業装置の最高加速度よりも大きな加速度に基づいて決定されている請求項1~6のいずれかに記載の外乱除去装置。
  10.  前記外乱物は、雨、雪、及び虫の少なくとも1つを含む微小物で構成されている請求項1~9のいずれかに記載の外乱除去装置。
  11.  前記外乱除去装置は、本体部と、前記本体部に対して姿勢が変更可能な作業装置とを備える建設機械に適用され、
     前記外乱物が除去された距離画像から前記作業装置を前記対象物として認識し、前記認識した対象物が前記本体部に対して一定の距離範囲に位置する場合、前記対象物が前記本体部に干渉する危険性があると判定する干渉判定部と、
     前記干渉判定部により干渉する危険性があると判定された場合、前記作業装置の動作制限、及び警報のいずれか一方を行う干渉防止部とを更に備える請求項1~10のいずれかに記載の外乱除去装置。
PCT/JP2017/004839 2016-03-02 2017-02-10 外乱除去装置 WO2017150136A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201780014132.1A CN108713217B (zh) 2016-03-02 2017-02-10 除去干扰装置
EP17759607.9A EP3416129B1 (en) 2016-03-02 2017-02-10 External interference removal device
US16/080,456 US10565690B2 (en) 2016-03-02 2017-02-10 External interference removal device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-040046 2016-03-02
JP2016040046A JP6625446B2 (ja) 2016-03-02 2016-03-02 外乱除去装置

Publications (1)

Publication Number Publication Date
WO2017150136A1 true WO2017150136A1 (ja) 2017-09-08

Family

ID=59743808

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/004839 WO2017150136A1 (ja) 2016-03-02 2017-02-10 外乱除去装置

Country Status (5)

Country Link
US (1) US10565690B2 (ja)
EP (1) EP3416129B1 (ja)
JP (1) JP6625446B2 (ja)
CN (1) CN108713217B (ja)
WO (1) WO2017150136A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020101005A1 (ja) * 2018-11-14 2020-05-22 住友重機械工業株式会社 ショベル、ショベルの制御装置

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6826023B2 (ja) * 2017-12-13 2021-02-03 Kddi株式会社 点群から対象を特定する対象識別装置、プログラム及び方法
CN113219447A (zh) * 2021-04-09 2021-08-06 国电南瑞科技股份有限公司 一种基于毫米波阵列的输电线距离稳定测量方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001064992A (ja) * 1999-08-31 2001-03-13 Sumitomo Constr Mach Co Ltd 油圧掘削機等の建設機械における干渉防止装置
JP2007226604A (ja) * 2006-02-24 2007-09-06 Secom Co Ltd 画像センサ
JP2011016421A (ja) * 2009-07-08 2011-01-27 Higashi Nippon Transportec Kk 支障物検知装置及びこれを備えたプラットホームドアシステム並びに支障物検知方法
JP2015210702A (ja) * 2014-04-28 2015-11-24 キヤノン株式会社 画像処理装置及び画像処理方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2168079B1 (en) * 2007-01-23 2015-01-14 Valeo Schalter und Sensoren GmbH Method and system for universal lane boundary detection
WO2008111549A1 (ja) * 2007-03-15 2008-09-18 Kansai University 移動物体ノイズ除去処理装置及び移動物体ノイズ除去処理プログラム
US7970178B2 (en) * 2007-12-21 2011-06-28 Caterpillar Inc. Visibility range estimation method and system
US8456327B2 (en) * 2010-02-26 2013-06-04 Gentex Corporation Automatic vehicle equipment monitoring, warning, and control system
JP5539060B2 (ja) * 2010-06-23 2014-07-02 セコム株式会社 監視用センサ
US9007432B2 (en) * 2010-12-16 2015-04-14 The Massachusetts Institute Of Technology Imaging systems and methods for immersive surveillance
MY171030A (en) * 2011-09-12 2019-09-23 Nissan Motor Three-dimensional object detection device
CN103906473B (zh) * 2011-10-28 2016-01-06 日立阿洛卡医疗株式会社 超声波成像装置、超声波成像方法
US10099609B2 (en) * 2014-07-03 2018-10-16 InfoMobility S.r.L. Machine safety dome
DE112015000126B9 (de) * 2015-10-15 2018-10-25 Komatsu Ltd. Positionsmesssystem und Positionsmessverfahren

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001064992A (ja) * 1999-08-31 2001-03-13 Sumitomo Constr Mach Co Ltd 油圧掘削機等の建設機械における干渉防止装置
JP2007226604A (ja) * 2006-02-24 2007-09-06 Secom Co Ltd 画像センサ
JP2011016421A (ja) * 2009-07-08 2011-01-27 Higashi Nippon Transportec Kk 支障物検知装置及びこれを備えたプラットホームドアシステム並びに支障物検知方法
JP2015210702A (ja) * 2014-04-28 2015-11-24 キヤノン株式会社 画像処理装置及び画像処理方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020101005A1 (ja) * 2018-11-14 2020-05-22 住友重機械工業株式会社 ショベル、ショベルの制御装置
CN113167051A (zh) * 2018-11-14 2021-07-23 住友重机械工业株式会社 挖土机、挖土机的控制装置
JPWO2020101005A1 (ja) * 2018-11-14 2021-09-30 住友重機械工業株式会社 ショベル、ショベルの制御装置
JP7460538B2 (ja) 2018-11-14 2024-04-02 住友重機械工業株式会社 ショベル、ショベルの制御装置

Also Published As

Publication number Publication date
EP3416129A4 (en) 2019-11-06
EP3416129A1 (en) 2018-12-19
JP6625446B2 (ja) 2019-12-25
JP2017157017A (ja) 2017-09-07
CN108713217A (zh) 2018-10-26
EP3416129B1 (en) 2022-04-06
US20190066270A1 (en) 2019-02-28
CN108713217B (zh) 2021-09-07
US10565690B2 (en) 2020-02-18

Similar Documents

Publication Publication Date Title
KR102098140B1 (ko) 자동차의 블라인드 스팟 모니터링 방법 및 이를 이용한 블라인드 스팟 모니터
KR102098131B1 (ko) 자동차의 블라인드 스팟 모니터링 방법 및 이를 이용한 블라인드 스팟 모니터
JP6638831B2 (ja) 建設機械
KR102065975B1 (ko) 라이다를 이용한 중장비 안전관리 시스템
JP5227841B2 (ja) 周囲監視装置
JP6416293B2 (ja) 自動車に接近する対象車両を自動車のカメラシステムにより追跡する方法、カメラシステムおよび自動車
JP5966965B2 (ja) 車線境界線逸脱抑制装置及び車線境界線逸脱抑制方法
JP6572156B2 (ja) 建設機械の干渉防止装置
CN103533231A (zh) 车载摄像机除污装置的诊断装置、诊断方法和车辆系统
JP2012123495A (ja) 走行環境認識装置
JP6342705B2 (ja) 作業機用ブーム衝突回避装置
CN111016929A (zh) 对关于车辆变更车道的危险发出警报的方法及装置
WO2017150136A1 (ja) 外乱除去装置
JP6072064B2 (ja) 自走式産業機械の画像処理装置および自走式産業機械の画像処理方法
JP2016056006A (ja) 作業機用ブーム衝突回避装置
US6956959B2 (en) Apparatus for recognizing environment
JP3888055B2 (ja) オプティカルフローを利用した列車前方異常検出装置
JP6838040B2 (ja) 建設機械の障害物検出装置
JP2023181369A (ja) 建設機械の障害物検出装置
US20200347579A1 (en) Tip attachment discrimination device
JP3732108B2 (ja) 車線認識のための画像処理装置並びに画像処理法
KR102023196B1 (ko) 건설기계의 조작안정성 향상장치
CN107650789A (zh) 一种房车限高防刮方法
JP6429101B2 (ja) 画像判定装置、画像処理装置、画像判定プログラム、画像判定方法、移動体
JP7428052B2 (ja) 作業機械の周囲検知装置

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2017759607

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2017759607

Country of ref document: EP

Effective date: 20180910

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17759607

Country of ref document: EP

Kind code of ref document: A1