WO2020256101A1 - 画像システムおよび画像システムを備える作業車両 - Google Patents

画像システムおよび画像システムを備える作業車両 Download PDF

Info

Publication number
WO2020256101A1
WO2020256101A1 PCT/JP2020/024136 JP2020024136W WO2020256101A1 WO 2020256101 A1 WO2020256101 A1 WO 2020256101A1 JP 2020024136 W JP2020024136 W JP 2020024136W WO 2020256101 A1 WO2020256101 A1 WO 2020256101A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
bird
crane
eye view
processing device
Prior art date
Application number
PCT/JP2020/024136
Other languages
English (en)
French (fr)
Inventor
洋幸 林
Original Assignee
株式会社タダノ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社タダノ filed Critical 株式会社タダノ
Priority to EP20826038.0A priority Critical patent/EP3988491A4/en
Priority to JP2021526916A priority patent/JPWO2020256101A1/ja
Priority to US17/615,756 priority patent/US20220315391A1/en
Publication of WO2020256101A1 publication Critical patent/WO2020256101A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66CCRANES; LOAD-ENGAGING ELEMENTS OR DEVICES FOR CRANES, CAPSTANS, WINCHES, OR TACKLES
    • B66C13/00Other constructional features or details
    • B66C13/18Control systems or devices
    • B66C13/46Position indicators for suspended loads or for crane elements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66CCRANES; LOAD-ENGAGING ELEMENTS OR DEVICES FOR CRANES, CAPSTANS, WINCHES, OR TACKLES
    • B66C23/00Cranes comprising essentially a beam, boom, or triangular structure acting as a cantilever and mounted for translatory of swinging movements in vertical or horizontal planes or a combination of such movements, e.g. jib-cranes, derricks, tower cranes
    • B66C23/88Safety gear
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66CCRANES; LOAD-ENGAGING ELEMENTS OR DEVICES FOR CRANES, CAPSTANS, WINCHES, OR TACKLES
    • B66C13/00Other constructional features or details
    • B66C13/18Control systems or devices
    • B66C13/40Applications of devices for transmitting control pulses; Applications of remote control devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66CCRANES; LOAD-ENGAGING ELEMENTS OR DEVICES FOR CRANES, CAPSTANS, WINCHES, OR TACKLES
    • B66C2700/00Cranes
    • B66C2700/03Cranes with arms or jibs; Multiple cranes
    • B66C2700/0321Travelling cranes
    • B66C2700/0357Cranes on road or off-road vehicles, on trailers or towed vehicles; Cranes on wheels or crane-trucks
    • B66C2700/0364Cranes on road or off-road vehicles, on trailers or towed vehicles; Cranes on wheels or crane-trucks with a slewing arm
    • B66C2700/0371Cranes on road or off-road vehicles, on trailers or towed vehicles; Cranes on wheels or crane-trucks with a slewing arm on a turntable

Definitions

  • the present invention relates to an image system and a work vehicle including an image system.
  • the view of the operator from the cockpit may be obstructed by a boom or the like stored in the vehicle during traveling, and a blind spot may occur.
  • the cockpit provided on the swivel turns with the swivel during work, the position and range of the blind spot from the cockpit changes. Therefore, even if the position of the rear-view mirror or the like is devised, it may not be easy to see from the driver's seat.
  • the bird's-eye view image system described in Patent Document 1 displays a plurality of cameras that acquire a peripheral image of a work vehicle provided with a swivel table that can turn on a traveling body, and a display that displays a bird's-eye view image based on the images acquired by each camera. It is equipped with a unit and a control unit that converts an image acquired by each camera into an image looking down from a virtual viewpoint above and connects them to generate a bird's-eye view image and display it on the display unit.
  • a plurality of cameras are provided on each of the traveling body and the swivel table. The bird's-eye view image system can obtain an appropriate bird's-eye view image by switching the camera used during running and working.
  • the bird's-eye view image system configured in this way can obtain a field of view as if a camera is installed above by generating a bird's-eye view image looking down from a virtual viewpoint above.
  • the bird's-eye view image system since the bird's-eye view image system generates a bird's-eye view image with a camera provided on the traveling body or the swivel, the very vicinity of the traveling body, a part of the traveling body, and the swivel are not included in the shooting range of the camera. That is, in the bird's-eye view image system, a blind spot is generated in a part of the traveling body, the turning body itself, and the very vicinity of the traveling vehicle, and it is necessary for the operator to visually recognize the vehicle.
  • An object of the present invention is an image system and an image system capable of generating an image of a range covering the entire circumference of a work vehicle including the entire work vehicle and the immediate vicinity of the work vehicle from an image actually taken.
  • the purpose is to provide a work vehicle.
  • the present invention is communicably connected to a photographing device provided on a traveling body of a work vehicle having a boom, and the photographing device captures a plurality of peripheral images seamlessly over the entire circumference of the traveling body.
  • the photographing device includes an image processing device that generates a composite image based on the traveling body and an upper image obtained by photographing the periphery of the traveling body from above, and a display device that displays the composite image.
  • the image processing device converts the plurality of peripheral images into an image viewed from an upper virtual viewpoint and joins them to generate a bird's-eye view image, and one missing portion of the bird's-eye view image and the upper image is combined with the other corresponding portion.
  • the composite image is generated by superimposing.
  • the present invention has the following effects.
  • the present invention by synthesizing the upper image of the work vehicle and the bird's-eye view image around the work vehicle, the missing portion in the upper image and the bird's-eye view image is supplemented with the image actually taken. As a result, it is possible to generate an image of the entire circumference of the work vehicle including the entire work vehicle and the immediate vicinity of the work vehicle from the image actually taken.
  • FIG. 6 shows images taken by the vehicle body camera and the upper camera.
  • FIG. 6A shows a bird's-eye view image generated from the peripheral image taken by the vehicle body camera
  • FIG. 6B shows a complementary image generated from the upper image taken by the upper camera.
  • FIG. 8 shows the relationship between the turning of the swivel table in the crane and the display mode of the bird's-eye view image.
  • FIG. 8A shows a state in which the swivel table of the crane is swiveled
  • FIG. 8B shows a composite image displayed in rotation.
  • FIG. 12 shows another embodiment in the superimposed image generation step.
  • FIG. 12A shows a missing portion in the upper image of the crane
  • FIG. 12B shows a complementary image corresponding to the missing portion in the bird's-eye view image
  • FIG. 12C shows a composite image in which the complementary image is superimposed on the missing portion in the upper image.
  • the crane 1 which is an embodiment of the work vehicle in the present invention will be described below with reference to FIGS. 1 and 2.
  • the rough terrain crane will be described, but any work vehicle having a boom such as an all-terrain crane, a truck crane, a loaded truck crane, and an aerial work platform may be used.
  • the crane 1 is a mobile crane that can move to an unspecified place.
  • the crane 1 has a vehicle 2 which is a traveling body, a crane device 6 which is a working device, a control device 30, and a remote control terminal 39 (see FIG. 2) capable of remotely controlling the crane device 6.
  • the crane 1 includes an image system 31 (see FIG. 2).
  • the vehicle 2 is a moving body that conveys the crane device 6.
  • the vehicle 2 has a plurality of wheels 3 and runs on the engine 4 as a power source.
  • the vehicle 2 is provided with an outrigger 5.
  • the vehicle 2 can expand the workable range of the crane 1 by extending the outrigger 5 in the width direction of the vehicle 2 and grounding the jack cylinder.
  • the crane device 6 is a device for lifting the luggage W with a wire rope.
  • the crane device 6 includes a swivel base 7, a swivel hydraulic motor 8, a boom 9, a main hook block 10, a sub hook block 11, an undulating hydraulic cylinder 12, a main winch 13, a main hydraulic motor 13a, a main wire rope 14, and a sub. It includes a winch 15, a sub hydraulic motor 15a, a sub wire rope 16, a cabin 17, and the like.
  • the swivel base 7 is a device that swivels the crane device 6.
  • the swivel base 7 is rotatably configured with the center of the annular bearing as the center of rotation.
  • the swivel base 7 is provided with a swivel hydraulic motor 8 which is an actuator.
  • the swivel base 7 is configured to be swivelable in one direction and the other direction by a swivel hydraulic motor 8.
  • the swivel hydraulic motor 8 is rotated by a swivel valve 23 (see FIG. 2), which is an electromagnetic proportional switching valve.
  • the swivel valve 23 can control the flow rate of the hydraulic oil supplied to the swivel hydraulic motor 8 to an arbitrary flow rate.
  • the swivel 7 is provided with a swivel sensor 27 (see FIG. 2) that detects a swivel angle ⁇ 2, which is the swivel angle of the swivel 7 from the reference position.
  • the boom 9 is a beam member that supports the wire rope so that the luggage W can be lifted.
  • the boom 9 is provided so that the base end of the base boom member can swing at substantially the center of the swivel base 7.
  • the boom 9 is configured to be expandable and contractible in the axial direction by moving each boom member by an expansion / contraction hydraulic cylinder (not shown) which is an actuator. Further, the boom 9 is provided with a jib 9a.
  • the suspended load camera 9b (see FIG. 2) is a photographing device that photographs the luggage W and the features around the luggage W.
  • the suspended load camera 9b is provided at the tip of the boom 9.
  • the suspended load camera 9b is configured to be capable of photographing the features and terrain around the load W and the crane 1 from vertically above the load W.
  • the expansion / contraction hydraulic cylinder is expanded / contracted by the expansion / contraction valve 24 (see FIG. 2), which is an electromagnetic proportional switching valve.
  • the boom 9 is provided with a telescopic sensor 28 for detecting the length of the boom 9, a weight sensor for detecting the weight of the luggage W, and the like.
  • the main hook block 10 and the sub hook block 11 are members for hanging the luggage W.
  • the main hook block 10 is provided with a plurality of hook sheaves around which the main wire rope 14 is wound and a main hook 10a for suspending the luggage W.
  • the sub-hook block 11 is provided with a sub-hook 11a for suspending the luggage W.
  • the undulating hydraulic cylinder 12 is an actuator that raises and lays down the boom 9 and holds the posture of the boom 9.
  • the undulating hydraulic cylinder 12 is expanded and contracted by the undulating valve 25 (see FIG. 2), which is an electromagnetic proportional switching valve.
  • the boom 9 is provided with an undulation sensor 29 (see FIG. 2) that detects the undulation angle ⁇ 1 of the boom 9.
  • the main winch 13 and the sub winch 15 carry out (winding up) and unwinding (winding down) the main wire rope 14 and the sub wire rope 16.
  • the main winch 13 is rotated by a main hydraulic motor 13a in which the main drum around which the main wire rope 14 is wound is an actuator
  • the sub winch 15 is a sub hydraulic motor in which the sub drum around which the sub wire rope 16 is wound is an actuator. It is configured to be rotated by 15a.
  • the main hydraulic motor 13a is rotationally operated by the main valve 26m (see FIG. 2), which is an electromagnetic proportional switching valve.
  • the main winch 13 is configured to control the main hydraulic motor 13a by a main valve 26m so that it can be operated at an arbitrary feeding and feeding speed.
  • the sub winch 15 is configured to control the sub hydraulic motor 15a by a sub valve 26s (see FIG. 2), which is an electromagnetic proportional switching valve, so that the sub winch 15 can be operated at an arbitrary feeding and feeding speed.
  • the cabin 17 is mounted on the swivel table 7.
  • a cockpit (not shown) is provided.
  • an operation tool for operating the vehicle 2 and a turning operation tool 18 for operating the crane device 6, an undulation operation tool 19, a telescopic operation tool 20, a main drum operation tool 21m, a sub-drum operation tool 21s, etc. is provided.
  • the communication device 22 receives the control signal from the remote control terminal 39 via the wide area information communication network or the like, and transmits the control information or the like from the crane device 6 via the wide area information communication network or the like. It is a device to do.
  • the communication device 22 is provided in the cabin 17.
  • the communication device 22 is configured to transfer the control signal or the like from the remote control terminal 39 to the control device 30 of the crane 1.
  • the control device 30 is a device that controls the actuator of the crane 1 via each operation valve.
  • the control device 30 is provided in the cabin 17.
  • the control device 30 may be substantially configured such that a CPU, ROM, RAM, HDD, etc. are connected by a bus, or may be configured to be composed of a one-chip LSI or the like.
  • the control device 30 stores various programs and data for controlling the operation of each actuator, switching valve, sensor, and the like.
  • the control device 30 is connected to the suspended load camera 9b, the swivel operating tool 18, the undulating operating tool 19, the telescopic operating tool 20, the main drum operating tool 21m, and the sub-drum operating tool 21s, acquires the image of the suspended load camera 9b, and swivels. It is possible to acquire the operating amounts of the operating tool 18, the undulating operating tool 19, the main drum operating tool 21m, and the sub-drum operating tool 21s.
  • the control device 30 is connected to the communication device 22 and can acquire a control signal from the remote control terminal 39 and transmit control information from the crane device 6 and an image from the suspended load camera 9b.
  • the control device 30 is connected to the swivel valve 23, the telescopic valve 24, the undulation valve 25, the main valve 26m and the sub valve 26s, and is connected to the swivel valve 23, the undulation valve 25, the main valve 26m and the sub.
  • a control signal can be transmitted to the valve 26s.
  • the control device 30 is connected to the swivel sensor 27, the telescopic sensor 28, and the undulation sensor 29, and acquires posture information such as the swivel angle ⁇ 2, boom length, and undulation angle ⁇ 1 of the swivel base 7 and the weight of the luggage W. be able to.
  • the control device 30 can generate a control signal corresponding to each operation tool based on the operation amounts of the turning operation tool 18, the undulation operation tool 19, the expansion / contraction operation tool 20, the main drum operation tool 21m, and the sub drum operation tool 21s. ..
  • the image system 31 is a system that combines the peripheral image of the crane 1 and the upper image to generate an image of the entire circumference of the crane 1.
  • the image system 31 is provided in the cabin 17 of the crane 1 and is connected to the control device 30.
  • the image system 31 is connected to the control device 30 and can acquire the turning angle ⁇ 2 of the swivel base 7 and the undulation angle ⁇ 1 of the boom 9 from the control device 30. Further, the image system 31 can acquire an operation signal for grounding the jack cylinder of the outrigger 5 from the control device 30.
  • the crane 1 configured in this way can move the crane device 6 to an arbitrary position by traveling the vehicle 2. Further, in the crane 1, the boom 9 is erected at an arbitrary undulation angle ⁇ 1 by the undulating hydraulic cylinder 12 by the operation of the undulation operating tool 19, and the boom 9 is extended to an arbitrary boom length by the operation of the telescopic operating tool 20. By doing so, the lift and working radius of the crane device 6 can be expanded. Further, the crane 1 can convey the luggage W by lifting the luggage W by the sub-drum operating tool 21s or the like and turning the swivel base 7 by operating the swivel operating tool 18.
  • the image system 31 is a system that combines the bird's-eye view image P1 around the crane 1 and the complementary image P2 extracted from the upper image to generate a composite image P3 over the entire circumference of the crane 1 including the crane 1.
  • the image of the entire circumference of the crane 1 is an image of the vehicle 2 of the crane 1 and the ground (running surface) and features surrounding the vehicle 2 when viewed from above (above) in the vertical direction of the crane 1. Yes, it is an image of the ground and a feature in a region from a position adjacent to the vehicle 2 to a position at a predetermined distance centered on the vehicle 2 (see FIG. 6).
  • the image system 31 includes a vehicle body front camera 32, a vehicle body rear camera 33, a vehicle body right camera 34, a vehicle body left camera 35, and a boom 9 which are vehicle body cameras provided in the vehicle 2.
  • the upper camera 36, the display device 37, and the image processing device 38 provided in the above are provided.
  • the vehicle body front camera 32, the vehicle body rear camera 33, the vehicle body right camera 34, the vehicle body left camera 35, and the upper camera 36 correspond to the "photographing device" of the present invention and are communicably connected to the image processing device 38.
  • the vehicle body front camera 32, the vehicle body rear camera 33, the vehicle body right camera 34, and the vehicle body left camera 35 are composed of, for example, a wide-angle camera having an angle of view of approximately 180 degrees.
  • the vehicle body front camera 32 is provided at the front end portion, which is the end portion of the vehicle 2 on the forward direction side.
  • the vehicle body front camera 32 captures an image in front of the vehicle 2.
  • the vehicle body rear camera 33 is provided at the rear end portion, which is the end portion of the vehicle 2 on the reverse direction side.
  • the vehicle body rear camera 33 captures an image of the rear of the vehicle 2.
  • the vehicle body right side camera 34 is provided on the right side surface of the vehicle 2 in the traveling direction.
  • the vehicle body right camera 34 captures an image on the right side of the vehicle 2.
  • the vehicle body left camera 35 is provided on the left side surface of the vehicle 2 in the traveling direction.
  • the vehicle body left camera 35 captures an image of the left side of the vehicle 2. It is sufficient that each vehicle body camera is provided at a position where an image of the periphery of the vehicle 2 can be continuously acquired over the entire circumference.
  • the upper camera 36 is composed of, for example, a wide-angle camera having an angle of view of approximately 180 degrees.
  • the upper camera 36 is provided at the tip of the base boom member swingably supported by the swivel base 7 in the boom 9 (see FIG. 1).
  • the upper camera 36 acquires an upper image of the crane 1 which is an image of the vehicle 2 and the surroundings of the vehicle 2 from above the vehicle 2 in the upright state of the boom 9.
  • the upper camera 36 is provided on the base boom member, but is provided on a portion where an upper image of the crane 1 which is an image of the vehicle 2 and the periphery of the vehicle 2 can be acquired from above the vehicle 2. It suffices if it is done.
  • the display device 37 is a device that displays images of each vehicle body camera and the upper camera 36.
  • the display device 37 is arranged inside the cabin 17.
  • the display device 37 may be provided on the remote control terminal 39 that remotely controls the crane 1 outside the cabin 17.
  • the image processing device 38 is a processing device that converts and combines the peripheral image of the crane 1 taken by each vehicle body camera and the upper image of the crane 1 taken by the upper camera 36.
  • the image processing device 38 is provided in the cabin 17.
  • the image processing device 38 may substantially have a configuration in which a CPU, ROM, RAM, HDD, etc. are connected by a bus, or may have a configuration including a one-chip LSI or the like.
  • the image processing device 38 controls each vehicle body camera, the upper camera 36, and each sensor, acquires an image or a signal from the sensor, and stores various programs and data for performing image processing.
  • the image processing device 38 is connected to the vehicle body front camera 32, the vehicle body rear camera 33, the vehicle body right camera 34, the vehicle body left camera 35, and the upper camera 36, and is connected to the vehicle body front camera 32, the vehicle body rear camera 33, and the vehicle body right camera 34.
  • the peripheral image of the crane 1 taken by the left side camera 35 of the vehicle body and the upper image of the crane 1 taken by the upper camera 36 can be acquired.
  • the image processing device 38 is connected to the display device 37 and can transmit the generated image to the display device 37.
  • the image processing device 38 includes a bird's-eye view image P1 (its image data) based on signals from each vehicle body camera, a complementary image P2 (its image data) based on a signal from the upper camera 36, and a composite image of the bird's-eye view image P1 and the complementary image P2. Controls such as generation processing of P3 (the image data), display processing of displaying the composite image P3 on the display device 37, acquisition processing of various acquired information, and the like.
  • the image processing device 38 is a bird's-eye image generation step of generating a bird's-eye view image P1 from the peripheral images of the crane 1 taken by the vehicle body front camera 32, the vehicle body rear camera 33, the vehicle body right camera 34, and the vehicle body left camera 35 every unit time. Can be carried out (see FIG. 10).
  • the bird's-eye view image generation step is composed of, for example, a distortion correction processing step (step S121), a bird's-eye view conversion processing step (step S122), and an image combination processing step (step S123). If the image processing device 38 generates the bird's-eye view image P1, each of these processes may be performed at the same time, or other processes may be performed.
  • the image processing device 38 multiplies the coordinate value of the input pixel of the image taken by each vehicle body camera by a coefficient based on the lens distortion coefficient, the aspect ratio, etc., and converts it into the coordinate value of the output pixel. Correct the distortion caused by the lens.
  • the image processing apparatus 38 forms all the coordinate values of the output pixels by multiplying the coordinate values of the input pixels appropriately selected by various coefficients based on the camera mounting angle and the like, thereby forming all the coordinate values above the crane 1. Converts to a captured image (individual bird's-eye view image) looking down from the virtual viewpoint set in.
  • the image processing device 38 linearly interpolates the brightness of the corresponding coordinate values to eliminate the discomfort of the joint, and performs the above-mentioned processing, and the adjacent individual bird's-eye view images from the vehicle body cameras. Are joined as one image to generate a bird's-eye view image P1.
  • the image processing device 38 generates a complementary image P2 which is an image of a portion corresponding to the missing portion of the bird's-eye view image P1 in the upper image of the crane 1 taken by the upper camera 36, and the complementary image P2 is generated in the missing portion of the bird's-eye view image P1. It is possible to carry out a superimposed image generation step of generating a composite image P3 on which the above is superimposed every unit time (see FIG. 11).
  • the superimposed image generation step is composed of, for example, a region extraction processing step (step S152), a matching processing step (step S153), and a superimposing processing step (step S154).
  • the image processing device 38 may perform each of these processes at the same time, or may perform processes of other contents.
  • the missing portion of the bird's-eye view image P1 is a portion corresponding to an image of the vehicle 2 and the swivel 7 of the crane 1 not included in the field of view of each vehicle body camera.
  • the image processing apparatus extracts a closed region from the upper image of the crane 1 taken by the upper camera 36 by a known method such as binarization.
  • the image processing device 38 uses a pre-registered image of the vehicle 2 as a reference image, slides the reference image on the upper image, and compares the region extracted in the upper image with the reference image.
  • the image processing device 38 specifies a region having a high degree of similarity to the reference image as the complementary image P2 corresponding to the vehicle 2.
  • the image processing device 38 cuts out the specified complementary image P2 and corrects the distortion by multiplying it by a coefficient based on the lens distortion coefficient, the aspect ratio, or the like so as to fit the missing portion of the bird's-eye view image P1. Further, the image processing device 38 generates the composite image P3 in a state in which the corrected complementary image P2 is superimposed on the bird's-eye view image P1.
  • the image system 31 configured in this way has a bird's-eye view image P1 as a unit from the peripheral images of the crane 1 taken by the vehicle body front camera 32, the vehicle body rear camera 33, the vehicle body right camera 34, and the vehicle body left camera 35, which are vehicle body cameras. It can be generated hourly. Further, the image system 31 can generate a complementary image P2 which is an image of a portion corresponding to the missing portion of the bird's-eye view image P1 from the upper image of the crane 1 taken by the upper camera 36 every unit time. Further, the image system 31 can synthesize a composite image P3 in which the complementary image P2 is superimposed on the missing portion of the bird's-eye view image P1 generated from the image around the vehicle body 2 every unit time.
  • the traveling state of the crane 1 means a state in which the boom 9 is not realistically used and the upper camera 36 is laid down to a reference angle ⁇ or less in which a sufficient field of view cannot be secured.
  • the working mode of the crane 1 means a state in which the boom 9 is upright from the reference angle ⁇ .
  • the image processing device 38 of the image system 31 starts photographing the surroundings of the crane 1 with the vehicle body front camera 32, the vehicle body rear camera 33, the vehicle body right camera 34, and the vehicle body left camera 35.
  • the image processing device 38 acquires the undulation angle ⁇ 1 of the boom 9 from the control device 30 of the crane 1.
  • the image processing device 38 determines that the crane 1 is in the traveling mode.
  • the image processing device 38 determines that the crane 1 is in the working mode when the undulation angle ⁇ 1 of the boom 9 acquired from the control device 30 of the crane 1 is larger than the reference angle ⁇ .
  • the image processing device 38 carries out a bird's-eye view image generation step, and generates a bird's-eye view image P1 from the peripheral image of the crane 1 taken by each vehicle body camera every unit time.
  • the image processing device 38 generates a front-viewed image (hereinafter, simply referred to as “overhead image”) A1 viewed from a virtual viewpoint set above the crane 1 from the image taken by the vehicle body front camera 32.
  • the image processing device 38 generates a rear bird's-eye view image A2 from the image taken by the vehicle body rear camera 33, generates a right bird's-eye view image A3 from the image taken by the vehicle body right camera 34, and generates a right bird's-eye view image A3 from the image taken by the vehicle body right camera 34. Generates a left bird's-eye view image A4 from the image taken by.
  • the image processing device 38 connects the front bird's-eye view image A1, the rear bird's-eye view image A2, the right bird's-eye view image A3, and the left bird's-eye view image A4 as one bird's-eye view image to generate the bird's-eye view image P1.
  • the portion of the crane 1 corresponding to the vehicle 2 is generated as a missing portion A5 that cannot be photographed by the vehicle body camera.
  • the range surrounded by the ring in FIGS. 7, 8 and 12 is the range displayed on the display device 37.
  • the image processing device 38 determines that the crane 1 is in the work mode, it executes a superimposed image generation step, and in the upper image of the crane 1 taken by the upper camera 36, the bird's-eye view image P1 is taken.
  • the image processing device 38 performs a superimposed image generation step, superimposes the complementary image P2 on the missing portion A5 of the bird's-eye view image P1, and creates a composite image P3 based on the bird's-eye view image P1 every unit time. To generate.
  • the image processing device 38 acquires the turning angle ⁇ 2 of the swivel base 7 from the control device 30 of the crane 1.
  • the image processing device 38 acquires the swivel as a swivel angle ⁇ 2.
  • the image processing device 38 rotates the composite image P3 counterclockwise by an angle ⁇ 2 and displays it on the display device 37. That is, in the image processing device 38, when the swivel table 7 is swiveled by an arbitrary angle in one direction, the swivel table 7 reconstructs the composite image P3 in which the missing portion in the bird's-eye view image P1 is supplemented by the complementary image P2. It is displayed by rotating it by the angle of rotation. By controlling in this way, the image system 31 is displayed on the display device 37 so that the composite image P3 is interlocked with the rotation of the swivel table 7 with reference to the swivel table 7. As a result, the entire circumference of the crane 1, including the entire crane 1 and the very vicinity of the crane 1, is displayed based on the cockpit reference, so that the operator can grasp the positional relationship between the circumference of the crane 1 and the boom 9. easy.
  • the crane 1 is operated by an operating tool provided in the cabin 17, but may be controlled by a remote control terminal 39.
  • step S110 of the image processing control the image processing device 38 starts shooting with the vehicle body front camera 32, the vehicle body rear camera 33, the vehicle body right camera 34, and the vehicle body left camera 35, and the crane.
  • the peripheral image of 1 is acquired, and the step is shifted to step S120.
  • step S120 the image processing device 38 starts the bird's-eye view image generation step A and shifts the step to step S121 (see FIG. 10).
  • step S121 in the bird's-eye view image generation step A the image processing device 38 corrects the distortion of the acquired image due to the lens as a distortion correction processing step, and shifts the step to step S122.
  • step S122 the image processing device 38 converts the acquired peripheral image of the crane 1 into a front bird's-eye view image A1, a rear bird's-eye view image A2, a right-side bird's-eye view image A3, and a left-side bird's-eye view image A4 as a bird's-eye view conversion processing step.
  • step S123 the image processing device 38 converts the acquired peripheral image of the crane 1 into a front bird's-eye view image A1, a rear bird's-eye view image A2, a right-side bird's-eye view image A3, and a left-side bird's-eye view image A4 as a bird's-eye view conversion processing step.
  • step S123 the image processing device 38 generates a bird's-eye view image P1 by joining adjacent individual bird's-eye view images from each vehicle body camera that has performed each process as one image as an image combining processing step.
  • the generation step A is completed, and the step is shifted to step S130 (see FIG. 9).
  • step S130 the image processing device 38 acquires the undulation angle ⁇ 1 of the boom 9 from the control device 30 of the crane 1, and causes the step to follow step S140.
  • step S140 the image processing device 38 determines whether or not the acquired undulation angle ⁇ 1 of the boom 9 is larger than the reference angle ⁇ .
  • the image processing device 38 shifts the step to step S150.
  • the image processing device 38 shifts the step to step S160.
  • step S150 the image processing device 38 starts the superimposed image generation step B and shifts the step to step S151 (see FIG. 11).
  • step S151 in the superimposed image generation step B the image processing device 38 starts shooting with the upper camera 36, acquires an upper image of the crane 1, and shifts the step to step S152.
  • step S152 the image processing apparatus 38 extracts a closed region from the upper image of the crane 1 by a known method such as binarization as an region extraction processing step, and shifts the step to step S153.
  • step S153 as a matching processing step, the image processing device 38 compares the region extracted in the upper image of the crane 1 with the reference image, identifies the region having a high degree of similarity as the complementary image P2 corresponding to the vehicle 2. The step is moved to step 154.
  • step S154 as a superimposition processing step, the image processing device 38 cuts out the complementary image P2 and corrects it so as to fit the missing portion of the bird's-eye view image P1, and superimposes the complementary image P2 on the bird's-eye view image P1 to superimpose the complementary image P1 on the bird's-eye view image P1.
  • the composite image P3 based on the above is generated, the superimposed image generation step B is completed, and the step is shifted to step S160 (see FIG. 9).
  • step S160 the image processing device 38 causes the display device 37 to display the generated image, and shifts the step to step S110.
  • the image processing device 38 of the image system 31 determines whether the crane 1 is in the traveling mode or the working mode based on the undulation angle ⁇ 1 of the boom 9. Therefore, the image system 31 always captures the upper image of the crane 1 as long as the upper camera 36 can capture the upper image of the crane 1. That is, in the image processing system, the entire circumference of the crane 1 is photographed by a camera suitable for photographing according to the state of the crane 1.
  • the image system 31 generates a bird's-eye view image P1 in the traveling mode, and generates a composite image P3 based on the bird's-eye view image P1 in the working mode.
  • the composite image P3 is superposed with the complementary image P2 of the vehicle 2 taken by the upper camera 36, the portion that cannot be taken by the vehicle body camera is supplemented. Therefore, the composite image P3 of the image system is displayed in real time even when an operator or the like rises on the vehicle 2 during the work. As a result, it is possible to generate an image of the entire circumference of the crane 1 including the crane 1 and the very vicinity of the crane 1 from the image actually taken.
  • the composite image P3 superimposes the complementary image P2 on the missing portion of the bird's-eye view image P1 generated based on the peripheral image of the crane 1 taken by the vehicle body camera, but the upper camera 36 takes a picture.
  • the corresponding portion of the bird's-eye view image P1 may be superimposed and displayed on the missing portion of the upper image of the crane 1.
  • the boom 9 enters the field of view of the upper camera 36 depending on the undulation angle ⁇ 1 of the boom 9, and a missing portion A6 in which the photographing area is blocked occurs. Therefore, in the image processing device 38 of the image system 31, a missing portion A6 blocked by the boom 9 according to the undulation angle ⁇ 1 of the boom 9 is registered in the image processing device 38 of the upper camera 36 for each undulation angle ⁇ 1 of the boom 9. There is.
  • the image processing device 38 specifies a region having a shape corresponding to the missing portion A6 of the upper image from the undulation angle ⁇ 1 of the boom 9. Further, the image processing device 38 identifies a position corresponding to the missing portion A6 of the upper image from the turning angle ⁇ 2 of the turning table 7 in the bird's-eye view image P1. Then, the image processing device 38 cuts out the position specified in the region of the specified shape from the bird's-eye view image P1 and generates it as the complementary image P4.
  • the image processing device 38 generates a composite image P5 in which the complementary image P4 is superimposed on the upper image of the crane 1. That is, the image processing device 38 generates a composite image P5 based on the upper image of the crane 1.
  • the image system 31 supplements the missing portion in the upper image with the image actually taken by combining the complementary image P4 and the bird's-eye view image P1.
  • the crane 1 is provided with each vehicle body camera on the front end portion, the rear end portion, and the left and right side surfaces of the vehicle 2, but the front end portion, the rear end portion, and the left and right side surfaces of the swivel base 7. It may be provided in. Further, the image processing device 38 of the image system 31 determines the traveling mode and the working mode of the crane 1 based on the undulation angle ⁇ 1 of the boom 9, but the operating state of the outrigger 5 and the turning angle ⁇ 2 of the swivel table 7 are determined. The traveling mode and the working mode of the crane 1 may be determined based on a state or a control signal that always occurs only in the working mode.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Jib Cranes (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

作業車両全体および作業車両の極近傍を含む作業車両の全周に亘る範囲の画像を、実際に撮影している画像から生成することができる画像システムおよび前記画像システムを提供する。画像システムは、車両(2)に旋回台(7)を介して起伏可能なブーム(9)が設けられたクレーン(1)の画像システム(31)であって、車両(2)に設けられる複数の車体カメラと、ブーム(9)に設けられる上部カメラ(36)と、表示装置(37)と、画像処理装置(38)と、を備える。画像処理装置(38)は、車体カメラが撮影したクレーン(1)の周辺画像と上部カメラ(36)が撮影したクレーン(1)の上方画像とを取得し、前記周辺画像を上方の仮想視点から見下ろした画像に変換し繋ぎ合わせて俯瞰画像(P1)を生成し、俯瞰画像(P1)の欠落部分に前記上方画像の該当する補完画像(P2)を重畳した合成画像(P3)を表示装置(37)に表示する。

Description

画像システムおよび画像システムを備える作業車両
 本発明は、画像システムおよび画像システムを備える作業車両に関する。
 従来、旋回台とブームを備える作業車両である移動式クレーンにおいて、走行時に車両に格納されているブーム等によって操縦席からの操縦者の視界が遮られて死角が生じる場合がある。また、旋回台に設けられている操縦席は、作業時において旋回台とともに旋回するため、操縦席からの死角の位置や範囲が変化する。このため、バックミラー等の位置を工夫しても運転席からの視認が容易でない場合があった。そこで、作業車両を中心とした周辺の俯瞰画像を生成することで操縦席から死角になる範囲を映し出して操縦席からの視野を間接的に広げる俯瞰画像システムが知られている。例えば、特許文献1の如くである。
 特許文献1に記載の俯瞰画像システムは、走行体に旋回可能な旋回台が設けられた作業車両の周辺画像を取得する複数のカメラと、各カメラで取得した画像に基づく俯瞰画像を表示する表示部と、各カメラで取得した画像を上方の仮想視点から見下ろした画像に変換し繋ぎ合わせて俯瞰画像を生成して表示部に表示させる制御部と、を備えている。俯瞰画像システムは、走行体と旋回台にそれぞれ複数のカメラが設けられている。俯瞰画像システムは、走行時と作業時において使用するカメラを切り替えることで適切な俯瞰画像を得ることができる。
 このように構成される俯瞰画像システムは、上方の仮想視点から見下ろした俯瞰画像を生成することで、あたかも上方にカメラが設けられているような視界を得ることができる。しかし、俯瞰画像システムは、走行体または旋回台に設けられたカメラで俯瞰画像を生成してため、走行体の極近傍と走行体の一部と旋回台はカメラの撮影範囲に含まれない。つまり、俯瞰画像システムでは、走行体の一部、旋回体自体および走行車両の極近傍に死角が生じており、操縦者による肉眼視認が必要であった。
特開2018-95449号公報
 本発明の目的は、作業車両全体および作業車両の極近傍を含む作業車両の全周に亘る範囲の画像を、実際に撮影している画像から生成することができる画像システムおよび画像システムを備えた作業車両の提供を目的とする。
 本発明の解決しようとする課題は以上の如くであり、次にこの課題を解決するための手段を説明する。
 即ち、本発明は、ブームを有する作業車両の走行体に設けられた撮影装置と通信可能に接続され、前記撮影装置が前記走行体の周辺を全周に亘り切れ目なく撮影した複数の周辺画像と前記撮影装置が前記走行体および前記走行体の周辺を上方から撮影した上方画像とに基づいて、合成画像を生成する画像処理装置と、前記合成画像を表示する表示装置と、を有し、前記画像処理装置は、前記複数の周辺画像を上方の仮想視点から見下ろした画像に変換し繋ぎ合わせて俯瞰画像を生成し、前記俯瞰画像および前記上方画像の一方の欠落部分に他方の該当する部分を重畳して前記合成画像を生成する。
 本発明は、以下に示すような効果を奏する。
 本発明においては、作業車両の上方画像と作業車両周辺の俯瞰画像とを合成することで、上方画像と俯瞰画像とにおいて欠落している部分が実際に撮影している画像で補われる。これにより、作業車両全体および作業車両の極近傍を含む作業車両の全周に亘る範囲の画像を、実際に撮影している画像から生成することができる。
クレーンの全体構成を示す側面図。 クレーンの制御構成を示すブロック図。 クレーンの概略構成を示す平面図。 画像システムの構成を示すブロック図。 クレーンの走行モード時と作業モード時のブームの起伏を示す模式図。 図6は車体カメラと上部カメラとが撮影した画像を示す。図6Aは車体カメラが撮影した周辺画像から生成した俯瞰画像を示し、図6Bは上部カメラが撮影した上方画像から生成した補完画像を示す。 俯瞰画像と補完画像とを重畳した合成画像を示す図。 図8はクレーンにおける旋回台の旋回と俯瞰画像の表示態様の関係を示す。図8Aはクレーンの旋回台が旋回した状態を示し、図8Bは回転して表示された合成画像を示す。 画像システムにおける画像処理制御の態様を表すフローチャートを示す図。 画像システムにおける俯瞰画像生成工程を表すフローチャートを示す図。 画像システムにおける重畳画像生成工程を表すフローチャートを示す図。 図12は重畳画像生成工程における他の実施形態を示す。図12Aはクレーンの上方画像における欠落部分を示し、図12Bは俯瞰画像において、欠落部分に該当する補完画像を示し、図12Cは上方画像の欠落部分に補完画像を重畳させた合成画像を示す。
 以下に、図1と図2とを用いて、本発明における作業車両の一実施形態であるクレーン1について説明する。なお、本実施形態においては、ラフテレーンクレーンついて説明を行うが、オールテレーンクレーン、トラッククレーン、積載型トラッククレーン、高所作業車等のブームを有する作業車両であればよい。
 図1に示すように、クレーン1は、不特定の場所に移動可能な移動式クレーンである。クレーン1は、走行体である車両2、作業装置であるクレーン装置6、制御装置30およびクレーン装置6を遠隔操作可能な遠隔操作端末39(図2参照)を有する。また、クレーン1は、画像システム31(図2参照)を具備する。
 車両2は、クレーン装置6を搬送する移動体である。車両2は、複数の車輪3を有し、エンジン4を動力源として走行する。車両2には、アウトリガ5が設けられている。車両2は、アウトリガ5を車両2の幅方向に延伸させるとともにジャッキシリンダを接地させることにより、クレーン1の作業可能範囲を広げることができる。
 クレーン装置6は、荷物Wをワイヤロープによって吊り上げる装置である。クレーン装置6は、旋回台7、旋回用油圧モータ8、ブーム9、メインフックブロック10、サブフックブロック11、起伏用油圧シリンダ12、メインウインチ13、メイン用油圧モータ13a、メインワイヤロープ14、サブウインチ15、サブ用油圧モータ15a、サブワイヤロープ16およびキャビン17等を具備する。
 旋回台7は、クレーン装置6を旋回する装置である。旋回台7は、円環状の軸受の中心を回転中心として回転自在に構成されている。旋回台7には、アクチュエータである旋回用油圧モータ8が設けられている。旋回台7は、旋回用油圧モータ8によって一方向と他方向とに旋回可能に構成されている。
 旋回用油圧モータ8は、電磁比例切換弁である旋回用バルブ23(図2参照)によって回転操作される。旋回用バルブ23は、旋回用油圧モータ8に供給される作動油の流量を任意の流量に制御することができる。旋回台7には、旋回台7の基準位置からの旋回した角度である旋回角度θ2を検出する旋回用センサ27(図2参照)が設けられている。
 ブーム9は、荷物Wを吊り上げ可能な状態にワイヤロープを支持する梁部材である。ブーム9は、ベースブーム部材の基端が旋回台7の略中央に揺動可能に設けられている。ブーム9は、各ブーム部材をアクチュエータである図示しない伸縮用油圧シリンダで移動させることで軸方向に伸縮自在に構成されている。また、ブーム9には、ジブ9aが設けられている。
 吊り荷カメラ9b(図2参照)は、荷物Wおよび荷物W周辺の地物を撮影する撮影装置である。吊り荷カメラ9bは、ブーム9の先端部に設けられている。吊り荷カメラ9bは、荷物Wの鉛直上方から荷物Wおよびクレーン1周辺の地物や地形を撮影可能に構成されている。
 伸縮用油圧シリンダは、電磁比例切換弁である伸縮用バルブ24(図2参照)によって伸縮操作される。ブーム9には、ブーム9の長さを検出する伸縮用センサ28や荷物Wの重量を検出する重量センサ等が設けられている。
 メインフックブロック10とサブフックブロック11とは、荷物Wを吊る部材である。メインフックブロック10には、メインワイヤロープ14が巻き掛けられる複数のフックシーブと、荷物Wを吊るメインフック10aとが設けられている。サブフックブロック11には、荷物Wを吊るサブフック11aが設けられている。
 起伏用油圧シリンダ12は、ブーム9を起立および倒伏させ、ブーム9の姿勢を保持するアクチュエータである。起伏用油圧シリンダ12は、電磁比例切換弁である起伏用バルブ25(図2参照)によって伸縮操作される。ブーム9には、ブーム9の起伏角度θ1を検出する起伏用センサ29(図2参照)が設けられている。
 メインウインチ13とサブウインチ15とは、メインワイヤロープ14とサブワイヤロープ16との繰り入れ(巻き上げ)および繰り出し(巻き下げ)を行う。メインウインチ13は、メインワイヤロープ14が巻きつけられるメインドラムがアクチュエータであるメイン用油圧モータ13aによって回転され、サブウインチ15は、サブワイヤロープ16が巻きつけられるサブドラムがアクチュエータであるサブ用油圧モータ15aによって回転されるように構成されている。
 メイン用油圧モータ13aは、電磁比例切換弁であるメイン用バルブ26m(図2参照)によって回転操作される。メインウインチ13は、メイン用バルブ26mによってメイン用油圧モータ13aを制御し、任意の繰り入れおよび繰り出し速度に操作可能に構成されている。同様に、サブウインチ15は、電磁比例切換弁であるサブ用バルブ26s(図2参照)によってサブ用油圧モータ15aを制御し、任意の繰り入れおよび繰り出し速度に操作可能に構成されている。
 キャビン17は、旋回台7に搭載されている。図示しない操縦席が設けられている。操縦席には、車両2を走行操作するための操作具やクレーン装置6を操作するための旋回操作具18、起伏操作具19、伸縮操作具20、メインドラム操作具21m、サブドラム操作具21s等が設けられている。
 図2に示すように、通信機22は、広域情報通信網等を介して遠隔操作端末39からの制御信号を受信し、広域情報通信網等を介してクレーン装置6からの制御情報等を送信する装置である。通信機22は、キャビン17に設けられている。通信機22は、遠隔操作端末39からの制御信号等を受信するとクレーン1の制御装置30に転送するように構成されている。
 制御装置30は、各操作弁を介してクレーン1のアクチュエータを制御する装置である。制御装置30は、キャビン17内に設けられている。制御装置30は、実体的には、CPU、ROM、RAM、HDD等がバスで接続される構成であってもよく、あるいはワンチップのLSI等からなる構成であってもよい。制御装置30は、各アクチュエータや切換え弁、センサ等の動作を制御するために種々のプログラムやデータが格納されている。
 制御装置30は、吊り荷カメラ9b、旋回操作具18、起伏操作具19、伸縮操作具20、メインドラム操作具21mおよびサブドラム操作具21sに接続され、吊り荷カメラ9bの映像を取得し、旋回操作具18、起伏操作具19、メインドラム操作具21mおよびサブドラム操作具21sのそれぞれの操作量を取得することができる。
 制御装置30は、通信機22に接続され、遠隔操作端末39からの制御信号を取得し、クレーン装置6からの制御情報や吊り荷カメラ9bからの映像等を送信することができる。
 制御装置30は、旋回用バルブ23、伸縮用バルブ24、起伏用バルブ25、メイン用バルブ26mおよびサブ用バルブ26sに接続され、旋回用バルブ23、起伏用バルブ25、メイン用バルブ26mおよびサブ用バルブ26sに制御信号を伝達することができる。
 制御装置30は、旋回用センサ27、伸縮用センサ28および起伏用センサ29に接続され、旋回台7の旋回角度θ2、ブーム長さ、起伏角度θ1等の姿勢情報および荷物Wの重量を取得することができる。
 制御装置30は、旋回操作具18、起伏操作具19、伸縮操作具20、メインドラム操作具21mおよびサブドラム操作具21sの操作量に基づいて各操作具に対応した制御信号を生成することができる。
 画像システム31は、クレーン1の周辺画像と上方画像とを合成してクレーン1の全周に亘る範囲の画像を生成するシステムである。画像システム31は、クレーン1のキャビン17内に設けられ、制御装置30と接続されている。
 画像システム31は、制御装置30に接続され、制御装置30から旋回台7の旋回角度θ2、ブーム9の起伏角度θ1を取得することができる。また、画像システム31は、アウトリガ5のジャッキシリンダを接地させる操作信号を制御装置30から取得することができる。
 このように構成されるクレーン1は、車両2を走行させることで任意の位置にクレーン装置6を移動させることができる。また、クレーン1は、起伏操作具19の操作によって起伏用油圧シリンダ12でブーム9を任意の起伏角度θ1に起立させて、伸縮操作具20の操作によってブーム9を任意のブーム長さに延伸させたりすることでクレーン装置6の揚程や作業半径を拡大することができる。また、クレーン1は、サブドラム操作具21s等によって荷物Wを吊り上げて、旋回操作具18の操作によって旋回台7を旋回させることで荷物Wを搬送することができる。
 次に、図3および図4を用いて、画像システム31について具体的に説明する。画像システム31は、クレーン1の周囲の俯瞰画像P1と上方画像から抽出した補完画像P2とを合成してクレーン1を含むクレーン1の全周に亘る範囲の合成画像P3を生成するシステムである。クレーン1の全周に亘る範囲の画像とは、クレーン1の鉛直方向の上側(上方)から見てクレーン1の車両2および車両2を取り囲む地面(走行している面)および地物の画像であり、車両2と隣接する位置から車両2を中心とする所定の距離の位置までの領域の地面および地物の画像である(図6参照)。
 図3と図4とに示すように、画像システム31は、車両2に設けられる車体カメラである車体前方カメラ32、車体後方カメラ33、車体右方カメラ34および車体左方カメラ35と、ブーム9に設けられる上部カメラ36と、表示装置37と、画像処理装置38とを備える。なお、車体前方カメラ32、車体後方カメラ33、車体右方カメラ34、車体左方カメラ35および上部カメラ36は、本発明の「撮影装置」に対応し、画像処理装置38と通信可能に接続される。
 車体前方カメラ32、車体後方カメラ33、車体右方カメラ34および車体左方カメラ35は、例えば略180度の画角を有する広角カメラから構成されている。車体前方カメラ32は、車両2の前進方向側の端部である前端部に設けられている。車体前方カメラ32は、車両2の前方の画像を撮影する。車体後方カメラ33は、車両2の後進方向側の端部である後端部に設けられている。車体後方カメラ33は、車両2の後方の画像を撮影する。車体右方カメラ34は、車両2の進行方向に向かって右側面に設けられている。車体右方カメラ34は、車両2の右方の画像を撮影する。車体左方カメラ35は、車両2の進行方向に向かって左側面に設けられている。車体左方カメラ35は、車両2の左方の画像を撮影する。なお、各車体カメラは、車両2の周辺の画像を全周に亘り切れ目なく取得できる位置に設けられていればよい。
 上部カメラ36は、例えば略180度の画角を有する広角カメラから構成されている。上部カメラ36は、ブーム9のうち、旋回台7に揺動可能に支持されているベースブーム部材の先端部に設けられる(図1参照)。上部カメラ36は、ブーム9の起立状態において、車両2の上方からの車両2および車両2の周辺の画像であるクレーン1の上方画像を取得する。なお、本実施形態において、上部カメラ36は、ベースブーム部材に設けられているが、車両2の上方からの車両2および車両2の周辺の画像であるクレーン1の上方画像を取得できる部分に設けられていればよい。
 表示装置37は、各車体カメラや上部カメラ36の画像を表示させる装置である。表示装置37は、キャビン17の内部に配置されている。なお、表示装置37は、キャビン17の外部でクレーン1を遠隔操作する遠隔操作端末39に設けられていてもよい。
 画像処理装置38は、各車体カメラが撮影したクレーン1の周辺画像や上部カメラ36が撮影したクレーン1の上方画像を変換したり合成したりする処理装置である。画像処理装置38は、キャビン17内に設けられている。画像処理装置38は、実体的には、CPU、ROM、RAM、HDD等がバスで接続される構成であってもよく、あるいはワンチップのLSI等からなる構成であってもよい。画像処理装置38は、各車体カメラ、上部カメラ36および各センサを制御し、画像やセンサからの信号を取得し、画像処理を行うために種々のプログラムやデータが格納されている。
 画像処理装置38は、車体前方カメラ32、車体後方カメラ33、車体右方カメラ34、車体左方カメラ35および上部カメラ36に接続され、車体前方カメラ32、車体後方カメラ33、車体右方カメラ34、車体左方カメラ35が撮影したクレーン1の周辺画像と上部カメラ36が撮影したクレーン1の上方画像を取得することができる。また、画像処理装置38は、表示装置37と接続され、表示装置37に生成した画像を送信することができる。
 画像処理装置38は、各車体カメラからの信号に基づく俯瞰画像P1(その画像データ)、上部カメラ36からの信号に基づく補完画像P2(その画像データ)、俯瞰画像P1と補完画像P2の合成画像P3(その画像データ)の生成処理や、合成画像P3を表示装置37に表示させる表示処理や、取得した各種情報の取得処理等の制御を行う。
 画像処理装置38は、車体前方カメラ32、車体後方カメラ33、車体右方カメラ34および車体左方カメラ35が撮影したクレーン1の周辺画像から俯瞰画像P1を単位時間毎に生成する俯瞰画像生成工程を実施することができる(図10参照)。俯瞰画像生成工程は、例えば歪み補正処理工程(ステップS121)と、俯瞰変換処理工程(ステップS122)と、画像結合処理工程(ステップS123)とから構成される。なお、画像処理装置38は、俯瞰画像P1を生成すれば、これらの各処理を同時に行ってもよく、他の内容の処理を行ってもよい。
 歪み補正処理工程として、画像処理装置38は、各車体カメラが撮影した画像の入力画素の座標値にレンズ歪み係数やアスペクト比等に基づく係数を乗じて出力画素の座標値に変換することで、レンズによる歪みを補正する。
 俯瞰変換処理工程として、画像処理装置38は、適宜選択した入力画素の座標値にカメラ取付角等に基づく種々の係数を乗じて出力画素の全ての座標値を形成することで、クレーン1の上方に設定した仮想視点から見下ろした撮影画像(個別の俯瞰画像)に変換する。
 画像結合処理工程として、画像処理装置38は、対応する座標値の輝度を線形補間等することで繋ぎ目の違和感を無くしつつ上記した各処理を行った各車体カメラからの隣り合う個別の俯瞰画像を1枚の画像として繋ぎ合わせて俯瞰画像P1を生成する。
 画像処理装置38は、上部カメラ36が撮影したクレーン1の上方画像において、俯瞰画像P1の欠落部分に相当する部分の画像である補完画像P2を生成し、俯瞰画像P1の欠落部分に補完画像P2を重畳させた合成画像P3を単位時間毎に生成する重畳画像生成工程を実施することができる(図11参照)。重畳画像生成工程は、例えば領域抽出処理工程(ステップS152)と、マッチング処理工程(ステップS153)と、重畳処理工程(ステップS154)とから構成される。なお、画像処理装置38は、合成画像P3を生成すれば、これらの各処理を同時に行ってもよく、他の内容の処理を行ってもよい。なお、俯瞰画像P1の欠落部分とは、各車体カメラの視野に含まれていないクレーン1の車両2および旋回台7の画像に相当する部分である。
 領域抽出処理工程として、画像処理装置は、上部カメラ36が撮影したクレーン1の上方画像において二値化等の既知の方法によって閉じた領域を抽出する。
 マッチング処理工程として、画像処理装置38は、予め登録されている車両2の画像を基準画像として、基準画像を上方画像上でスライドさせ、上方画像において抽出した領域と基準画像とを比較する。画像処理装置38は、基準画像との類似度が高い領域を車両2に該当する補完画像P2として特定する。
 重畳処理工程として、画像処理装置38は、特定した補完画像P2を切り抜いて、俯瞰画像P1の欠落部分に適合するように、レンズ歪み係数やアスペクト比等に基づく係数を乗じて歪みを補正する。さらに、画像処理装置38は、俯瞰画像P1に補正した補完画像P2を重畳させた状態で合成画像P3を生成する。
 このように構成される画像システム31は、車体カメラである車体前方カメラ32、車体後方カメラ33、車体右方カメラ34および車体左方カメラ35が撮影したクレーン1の周辺画像から俯瞰画像P1を単位時間毎に生成することができる。また、画像システム31は、上部カメラ36が撮影したクレーン1の上方画像から俯瞰画像P1の欠落部分に相当する部分の画像である補完画像P2を単位時間毎に生成することができる。さらに、画像システム31は、車体2の周辺の画像から生成される俯瞰画像P1の欠落部分に補完画像P2を重畳させた合成画像P3を単位時間毎に合成することができる。
 次に、図5から図8を用いてクレーン1が走行可能な状態である走行モードとクレーン装置6による作業モードにおける画像システム31の制御について説明する。本実施形態において、クレーン1の走行時とは、ブーム9の使用が現実的でなく上部カメラ36の視野が十分に確保できない基準角度α以下まで倒伏されている状態をいう。また、クレーン1の作業モードとは、ブーム9が基準角度αよりも起立されている状態をいう。
 画像システム31の画像処理装置38は、クレーン1が起動されると、車体前方カメラ32、車体後方カメラ33、車体右方カメラ34および車体左方カメラ35でクレーン1の周囲の撮影を開始する。
 図5に示すように、画像処理装置38は、クレーン1の制御装置30からブーム9の起伏角度θ1を取得する。画像処理装置38は、ブーム9の起伏角度θ1が基準角度α以下である場合、クレーン1が走行モードであると判断する。一方、画像処理装置38は、クレーン1の制御装置30から取得したブーム9の起伏角度θ1が基準角度αよりも大きい場合、クレーン1が作業モードであると判断する。
 図6Aに示すように、画像処理装置38は、俯瞰画像生成工程を実施し、各車体カメラが撮影したクレーン1の周辺画像から俯瞰画像P1を単位時間毎に生成する。画像処理装置38は、車体前方カメラ32が撮影した画像から、クレーン1の上方に設定した仮想視点から見下ろした前方撮影画像(以下、単に「俯瞰画像」と記す)A1を生成する。同様に、画像処理装置38は、車体後方カメラ33が撮影した画像から後方俯瞰画像A2を生成し、車体右方カメラ34が撮影した画像から右方俯瞰画像A3を生成し、車体左方カメラ35が撮影した画像から左方俯瞰画像A4を生成する。画像処理装置38は、前方俯瞰画像A1、後方俯瞰画像A2、右方俯瞰画像A3および左方俯瞰画像A4を1枚の俯瞰画像として繋ぎ合わせて俯瞰画像P1を生成する。この際、クレーン1の車両2に相当する部分は、車体カメラで撮影できない欠落部分A5として生成される。なお、図7、図8および図12において円環に囲まれた範囲が表示装置37に表示される範囲である。
 図6Bに示すように、画像処理装置38は、クレーン1が作業モードであると判断した場合、重畳画像生成工程を実施し、上部カメラ36が撮影したクレーン1の上方画像において、俯瞰画像P1の欠落部分A5に相当する部分である補完画像P2を生成する。
 図7に示すように、画像処理装置38は、重畳画像生成工程を実施し、俯瞰画像P1の欠落部分A5に補完画像P2を重畳させ、俯瞰画像P1を基礎とする合成画像P3を単位時間毎に生成する。
 また、図8Aに示すように、画像処理装置38は、クレーン1の制御装置30から旋回台7の旋回角度θ2を取得する。旋回台7が基準位置から時計回りに角度θ2だけ旋回した場合、画像処理装置38は、旋回角度θ2として取得する。
 図8Bに示すように、画像処理装置38は、合成画像P3を反時計回りに角度θ2だけ回転させて表示装置37に表示させる。つまり、画像処理装置38は、旋回台7が一方向に任意の角度だけ旋回した場合、俯瞰画像P1において欠落している部分を補完画像P2で補った合成画像P3を他方向に旋回台7が旋回した角度だけ回転させて表示する。このように制御することで、画像システム31は、合成画像P3が旋回台7を基準として旋回台7の旋回に連動するように表示装置37に表示される。これにより、クレーン1の全体およびクレーン1の極近傍を含むクレーン1の全周に亘る範囲が操縦席基準で表示されるので、操縦者がクレーン1の周囲とブーム9との位置関係を把握し易い。
 以下に、図9から図11を用いて、画像システム31による俯瞰画像P1、補完画像P2および合成画像P3を生成する画像処理制御について具体的に説明する。以下の実施形態において、クレーン1は、キャビン17内に設けられている操作具によって操作されているが、遠隔操作端末39によって制御されてもよい。
 図9に示すように、画像処理制御のステップS110において、画像処理装置38は、車体前方カメラ32、車体後方カメラ33、車体右方カメラ34および車体左方カメラ35での撮影を開始するとともにクレーン1の周辺画像を取得し、ステップをステップS120に移行させる。
 ステップS120において、画像処理装置38は、俯瞰画像生成工程Aを開始し、ステップをステップS121に移行させる(図10参照)。
 図10に示すように、俯瞰画像生成工程AにおけるステップS121において、画像処理装置38は、歪み補正処理工程として、取得した画像のレンズによる歪みを補正し、ステップをステップS122に移行させる。
 ステップS122において、画像処理装置38は、俯瞰変換処理工程として、取得したクレーン1の周辺画像を前方俯瞰画像A1、後方俯瞰画像A2、右方俯瞰画像A3および左方俯瞰画像A4に変換し、ステップをステップS123に移行させる。
 ステップS123において、画像処理装置38は、画像結合処理工程として、各処理を行った各車体カメラからの隣り合う個別の俯瞰画像を1枚の画像として繋ぎ合わせて俯瞰画像P1を生成して俯瞰画像生成工程Aを終了し、ステップをステップS130に移行する(図9参照)。
 図9に示すように、ステップS130において、画像処理装置38は、クレーン1の制御装置30からブーム9の起伏角度θ1を取得し、ステップをステップS140に以降させる。
 ステップS140において、画像処理装置38は、取得したブーム9の起伏角度θ1が基準角度αよりも大きいか否かを判定する。その結果、ブーム9の起伏角度θ1が基準角度αよりも大きい場合、すなわち、クレーン1が作業モードである場合、画像処理装置38はステップをステップS150に移行させる。一方、ブーム9の起伏角度θ1が基準角度α以下である場合、すなわち、クレーン1が走行モードの場合、画像処理装置38はステップをステップS160に移行させる。
 ステップS150において、画像処理装置38は、重畳画像生成工程Bを開始し、ステップをステップS151に移行させる(図11参照)。
 図11に示すように、重畳画像生成工程BにおけるステップS151において、画像処理装置38は、上部カメラ36での撮影を開始するとともにクレーン1の上方画像を取得し、ステップをステップS152に移行させる。
 ステップS152において、画像処理装置38は、領域抽出処理工程として、クレーン1の上方画像において二値化等の既知の方法によって閉じた領域を抽出し、ステップをステップS153に移行させる。
 ステップS153において、画像処理装置38は、マッチング処理工程として、クレーン1の上方画像において抽出した領域と基準画像とを比較し、類似度の高い領域を車両2に該当する補完画像P2として特定し、ステップをステップ154に移行させる。
 ステップS154において、画像処理装置38は、重畳処理工程として、補完画像P2を切り抜いて俯瞰画像P1の欠落部分に適合するように補正するとともに、補完画像P2を俯瞰画像P1に重畳させて俯瞰画像P1を基礎とする合成画像P3を生成して重畳画像生成工程Bを終了し、ステップをステップS160に移行させる(図9参照)。
 図9に示すように、ステップS160において、画像処理装置38は、表示装置37に生成した画像を表示させて、ステップをステップS110に移行させる。
 このように構成することで、画像システム31の画像処理装置38は、ブーム9の起伏角度θ1に基づいて、クレーン1が走行モードか作業モードであるかを判定する。このため、画像システム31は、上部カメラ36がクレーン1の上方画像を撮影できる状態であれば常にクレーン1の上方画像を撮影する。つまり、画像処理システムは、クレーン1の全周に亘る範囲がクレーン1の状態に応じて撮影に適したカメラで撮影される。画像システム31は、走行モードの場合に俯瞰画像P1を生成し、作業モードの場合に俯瞰画像P1を基礎とする合成画像P3を生成する。合成画像P3は、上部カメラ36が撮影した車両2の補完画像P2が重畳されているので、車体カメラでは撮影できない部分が補われている。従って、画像システムの合成画像P3は、作業中に車両2の上に作業者等が上がった場合でもリアルタイムに表示される。これにより、クレーン1およびクレーン1の極近傍を含むクレーン1の全周に亘る範囲の画像を、実際に撮影している画像から生成することができる。
 なお、本実施形態において、合成画像P3は、車体カメラが撮影したクレーン1の周辺画像に基づいて生成された俯瞰画像P1の欠落部分に補完画像P2を重畳しているが、上部カメラ36が撮影したクレーン1の上方画像の欠落部分に俯瞰画像P1の該当する部分を重畳表示してもよい。
 図12Aに示すように、クレーン1の上方画像は、ブーム9の起伏角度θ1によっては、上部カメラ36の視野にブーム9が入り込み、撮影領域が遮られた欠落部分A6が生じる。そこで、画像システム31の画像処理装置38には、上部カメラ36の撮影領域において、ブーム9の起伏角度θ1に応じてブーム9に遮られる欠落部分A6がブーム9の起伏角度θ1毎に登録されている。
 図12Bに示すように、画像処理装置38は、ブーム9の起伏角度θ1から上方画像の欠落部分A6に相当する形状の領域を特定する。さらに、画像処理装置38は、俯瞰画像P1において、旋回台7の旋回角度θ2から上方画像の欠落部分A6に相当する位置を特定する。そして、画像処理装置38は、特定した形状の領域で特定した位置を俯瞰画像P1から切り出し、補完画像P4として生成する。
 図12Cに示すように、画像処理装置38は、クレーン1の上方画像に補完画像P4を重畳させた合成画像P5を生成する。つまり、画像処理装置38は、クレーン1の上方画像を基礎とする合成画像P5を生成する。このように構成することで、画像システム31は、補完画像P4と俯瞰画像P1との合成により上方画像において欠落している部分が実際に撮影している画像で補われる。これにより、クレーン1全体およびクレーン1の極近傍を含むクレーン1の全周に亘る範囲の画像を実際に撮影している画像から生成することができる。
 なお、本実施形態において、クレーン1には、各車体カメラが車両2の前端部、後端部および左右両側面に設けられているが、旋回台7の前端部、後端部および左右両側面に設けられてもよい。また、画像システム31の画像処理装置38は、ブーム9の起伏角度θ1によってクレーン1の走行モードと作業モードとを判定しているが、アウトリガ5の動作状態や旋回台7の旋回角度θ2など、作業モード時のみに必ず生じる状態や制御信号によってクレーン1の走行モードと作業モードとを判定してもよい。
 上述の実施形態は、代表的な形態を示したに過ぎず、一実施形態の骨子を逸脱しない範囲で種々変形して実施することができる。さらに種々なる形態で実施し得ることは勿論のことであり、本発明の範囲は、特許請求の範囲の記載によって示され、さらに特許請求の範囲に記載の均等の意味、および範囲内のすべての変更を含む。
 2019年6月20日出願の特願2019-114943の日本出願に含まれる明細書、図面および要約書の開示内容は、全て本願に援用される。
 1 クレーン
 6 クレーン装置
 9 ブーム
 30 制御装置
 31 画像システム
 32 車体前方カメラ
 33 車体後方カメラ
 34 車体右方カメラ
 35 車体左方カメラ
 36 上部カメラ
 37 表示装置
 P1 俯瞰画像
 P2 補完画像
 P3 合成画像

Claims (11)

  1.  ブームを有する作業車両の走行体に設けられた撮影装置と通信可能に接続され、前記撮影装置が前記走行体の周辺を全周に亘り切れ目なく撮影した複数の周辺画像と前記撮影装置が前記走行体および前記走行体の周辺を上方から撮影した上方画像とに基づいて、合成画像を生成する画像処理装置と、
     前記合成画像を表示する表示装置と、を有し、
     前記画像処理装置は、
     前記複数の周辺画像を上方の仮想視点から見下ろした画像に変換し繋ぎ合わせて俯瞰画像を生成し、
     前記俯瞰画像および前記上方画像の一方の欠落部分に他方の該当する部分を重畳して前記合成画像を生成する、
     画像システム。
  2.  前記画像処理装置は、前記俯瞰画像の欠落部分に前記上方画像の該当する部分を重畳する、
     請求項1に記載の画像システム。
  3.  前記画像処理装置は、前記上方画像の欠落部分に前記俯瞰画像の該当する部分を重畳する、
     請求項1に記載の画像システム。
  4.  前記走行体には、旋回台を介して前記ブームが設けられており、
     前記画像処理装置は、前記旋回台が一方向に旋回した場合、前記表示装置に表示中の前記合成画像を、他方向に前記旋回台が旋回した角度だけ回転させる、
     請求項1から請求項3のいずれか一項に記載の画像システム。
  5.  前記ブームは、起伏可能であり、
     前記画像処理装置は、
     前記俯瞰画像の生成中に前記ブームの起伏角度が基準角度を超えた場合、前記合成画像の生成を開始する、
     請求項1から請求項4のいずれか一項に記載の画像システム。
  6.  前記画像処理装置は、
     前記作業車両が走行モードの場合、前記俯瞰画像を生成し、前記作業車両が作業モードの場合、前記合成画像を生成する、
     請求項1から請求項5のいずれか一項に記載の画像システム。
  7.  前記撮影装置は、前記複数の周辺画像を撮影する複数の車体カメラと、前記上方画像を撮影する上部カメラと、を含む、
     請求項1から請求項6のいずれか一項に記載の画像システム。
  8.  前記画像処理装置は、前記旋回台に搭載されたキャビン内に設けられている、
     請求項1から請求項7のいずれか一項に記載の画像システム。
  9.  前記表示装置は、前記旋回台に搭載されたキャビンの内部に配置されている、
     請求項1から請求項8のいずれか一項に記載の画像システム。
  10.  前記表示装置は、前記旋回台に搭載されたキャビンの外部で前記作業車両を遠隔操作する遠隔操作端末に設けられている、
     請求項1から請求項8のいずれか一項に記載の画像システム。
  11.  請求項1から請求項9のいずれか一項に記載の画像システムを備える作業車両。
PCT/JP2020/024136 2019-06-20 2020-06-19 画像システムおよび画像システムを備える作業車両 WO2020256101A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP20826038.0A EP3988491A4 (en) 2019-06-20 2020-06-19 IMAGE SYSTEM AND CONSTRUCTION MACHINE PROVIDED WITH THE IMAGE SYSTEM
JP2021526916A JPWO2020256101A1 (ja) 2019-06-20 2020-06-19
US17/615,756 US20220315391A1 (en) 2019-06-20 2020-06-19 Image system and work vehicle provided with image system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-114943 2019-06-20
JP2019114943 2019-06-20

Publications (1)

Publication Number Publication Date
WO2020256101A1 true WO2020256101A1 (ja) 2020-12-24

Family

ID=74040508

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/024136 WO2020256101A1 (ja) 2019-06-20 2020-06-19 画像システムおよび画像システムを備える作業車両

Country Status (4)

Country Link
US (1) US20220315391A1 (ja)
EP (1) EP3988491A4 (ja)
JP (1) JPWO2020256101A1 (ja)
WO (1) WO2020256101A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011151742A (ja) * 2010-01-25 2011-08-04 Tadano Ltd 画像表示システム
JP2015139158A (ja) * 2014-01-23 2015-07-30 クラリオン株式会社 重機用周辺監視装置
WO2018047954A1 (ja) * 2016-09-09 2018-03-15 株式会社タダノ 俯瞰画像システム、俯瞰画像表示方法及びプログラム
JP2018095449A (ja) 2016-12-15 2018-06-21 株式会社タダノ 遠隔操作端末
WO2019077993A1 (ja) * 2017-10-17 2019-04-25 株式会社タダノ 作業車両
JP2019114943A (ja) 2017-12-25 2019-07-11 株式会社メガチップス 送信回路及び該送信回路の制御方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5269026B2 (ja) * 2010-09-29 2013-08-21 日立建機株式会社 作業機械の周囲監視装置
JP6080450B2 (ja) * 2012-09-21 2017-02-15 株式会社タダノ 監視カメラ装置
CN107406035B (zh) * 2015-03-31 2020-09-25 株式会社小松制作所 工程作业机械
JP6756554B2 (ja) * 2016-09-09 2020-09-16 株式会社タダノ 画像表示システム
CN110114244B (zh) * 2017-02-17 2023-07-04 住友重机械工业株式会社 工作机械用周边监视系统
JP6958216B2 (ja) * 2017-10-17 2021-11-02 株式会社タダノ 作業車両
JP7095287B2 (ja) * 2018-01-22 2022-07-05 コベルコ建機株式会社 旋回式油圧作業機械
JP7151532B2 (ja) * 2019-02-14 2022-10-12 株式会社タダノ クレーンおよびクレーンの経路生成システム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011151742A (ja) * 2010-01-25 2011-08-04 Tadano Ltd 画像表示システム
JP2015139158A (ja) * 2014-01-23 2015-07-30 クラリオン株式会社 重機用周辺監視装置
WO2018047954A1 (ja) * 2016-09-09 2018-03-15 株式会社タダノ 俯瞰画像システム、俯瞰画像表示方法及びプログラム
JP2018095449A (ja) 2016-12-15 2018-06-21 株式会社タダノ 遠隔操作端末
WO2019077993A1 (ja) * 2017-10-17 2019-04-25 株式会社タダノ 作業車両
JP2019114943A (ja) 2017-12-25 2019-07-11 株式会社メガチップス 送信回路及び該送信回路の制御方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3988491A4

Also Published As

Publication number Publication date
JPWO2020256101A1 (ja) 2020-12-24
US20220315391A1 (en) 2022-10-06
EP3988491A4 (en) 2023-08-02
EP3988491A1 (en) 2022-04-27

Similar Documents

Publication Publication Date Title
US11292699B2 (en) Remote operation terminal and work vehicle provided with remote operation terminal
CN110062744B (zh) 远程操作终端及具备远程操作终端的作业车辆
JP6321977B2 (ja) 重機用周辺監視装置
JP7091729B2 (ja) 遠隔操作端末および遠隔操作端末を備える作業車両
JP2008312004A (ja) カメラシステム及び機械装置
WO2020235681A1 (ja) 遠隔操作端末および遠隔操作端末を備える移動式クレーン
JP7087475B2 (ja) 遠隔操作端末および遠隔操作端末を備える移動式クレーン
JP2011151742A (ja) 画像表示システム
WO2020153325A1 (ja) クレーン
JP7114950B2 (ja) 遠隔操作端末及び作業車両
JP7099150B2 (ja) クレーン及び情報共有システム
WO2014119711A1 (ja) 運搬機械の位置調整システム
KR101811926B1 (ko) 무인비행체를 이용한 타워크레인의 운전 보조시스템 및 이를 이용한 타워크레인의 영상 제공 방법
CN111052734B (zh) 作业车辆
WO2020256101A1 (ja) 画像システムおよび画像システムを備える作業車両
JP6713884B2 (ja) 俯瞰画像システム、俯瞰画像表示方法およびプログラム
WO2020080434A1 (ja) クレーン装置
JP7172199B2 (ja) 遠隔操作端末及び作業車両
JP6958216B2 (ja) 作業車両
JP6919548B2 (ja) 遠隔操作端末および遠隔操作端末を備える作業車両
JPWO2019163875A1 (ja) カメラ装置、吊荷監視システム、及び、作業機
JP7167464B2 (ja) 遠隔操作端末および遠隔操作端末を備える作業車両
JP7167469B2 (ja) 遠隔操作端末および遠隔操作端末を備える作業車両
JP7143578B2 (ja) 作業車両
JP2022166669A (ja) アウトリガ装置の設置位置表示システム及び作業車両

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20826038

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021526916

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2020826038

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2020826038

Country of ref document: EP

Effective date: 20220120