WO2023144988A1 - 作業ロボットシステム - Google Patents

作業ロボットシステム Download PDF

Info

Publication number
WO2023144988A1
WO2023144988A1 PCT/JP2022/003270 JP2022003270W WO2023144988A1 WO 2023144988 A1 WO2023144988 A1 WO 2023144988A1 JP 2022003270 W JP2022003270 W JP 2022003270W WO 2023144988 A1 WO2023144988 A1 WO 2023144988A1
Authority
WO
WIPO (PCT)
Prior art keywords
working robot
image
self
information
control device
Prior art date
Application number
PCT/JP2022/003270
Other languages
English (en)
French (fr)
Inventor
大祐 石平
和弘 金子
遥 石平
Original Assignee
株式会社やまびこ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社やまびこ filed Critical 株式会社やまびこ
Priority to PCT/JP2022/003270 priority Critical patent/WO2023144988A1/ja
Publication of WO2023144988A1 publication Critical patent/WO2023144988A1/ja

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/22Command input arrangements
    • G05D1/221Remote-control arrangements
    • G05D1/222Remote-control arrangements operated by humans
    • G05D1/224Output arrangements on the remote controller, e.g. displays, haptics or speakers
    • G05D1/2244Optic
    • G05D1/2247Optic providing the operator with simple or augmented images from one or more cameras
    • G05D1/2248Optic providing the operator with simple or augmented images from one or more cameras the one or more cameras located remotely from the vehicle
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01DHARVESTING; MOWING
    • A01D34/00Mowers; Mowing apparatus of harvesters
    • A01D34/006Control or measuring arrangements
    • A01D34/008Control or measuring arrangements for automated or remotely controlled operation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/48Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/24Arrangements for determining position or orientation
    • G05D1/247Arrangements for determining position or orientation using signals provided by artificial sources external to the vehicle, e.g. navigation beacons
    • G05D1/248Arrangements for determining position or orientation using signals provided by artificial sources external to the vehicle, e.g. navigation beacons generated by satellites, e.g. GPS
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/24Arrangements for determining position or orientation
    • G05D1/247Arrangements for determining position or orientation using signals provided by artificial sources external to the vehicle, e.g. navigation beacons
    • G05D1/249Arrangements for determining position or orientation using signals provided by artificial sources external to the vehicle, e.g. navigation beacons from positioning sensors located off-board the vehicle, e.g. from cameras
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2105/00Specific applications of the controlled vehicles
    • G05D2105/15Specific applications of the controlled vehicles for harvesting, sowing or mowing in agriculture or forestry
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2107/00Specific environments of the controlled vehicles
    • G05D2107/20Land use
    • G05D2107/23Gardens or lawns
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2109/00Types of controlled vehicles
    • G05D2109/10Land vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2111/00Details of signals used for control of position, course, altitude or attitude of land, water, air or space vehicles
    • G05D2111/10Optical signals

Definitions

  • the present invention relates to a working robot system.
  • a working robot that performs various tasks on the field while autonomously traveling in the field is known.
  • Such work robots are equipped with a positioning system (e.g., GPS (Global Positioning System)) that measures their own current position (self-position) in order to autonomously travel, and determine the travel route obtained from the self-position. It controls the flight of the aircraft so that it matches the target route.
  • GPS Global Positioning System
  • an image capturing device for capturing an image of a predetermined area including the work area to acquire the captured image
  • a positioning device for acquiring position information indicating the position at which the image was captured, the captured image and the captured image.
  • a map generating unit that generates a map based on the position information of the position obtained; a display unit that displays the map;
  • a device including an area determination unit has been proposed (see Patent Document 1 below).
  • a positioning device is mounted on the imaging device to acquire the positional information of the position where the image was captured. ing. According to this, it is necessary to mount the positioning device on the photographing device, and to store map information in a large-capacity memory, which raises the problem of high system cost.
  • the present invention has been proposed to deal with such circumstances. That is, in the working robot system, the system cost is suppressed, and even if there is a place where position information cannot be obtained, the working robot can be properly and autonomously traveled. is the issue.
  • the present invention has the following configurations. a working robot that outputs its own position on a field; a photographing device that photographs the field; The control device adds position information to another position on the captured image based on the position on the image of the working robot existing in the captured image and the self-position output by the working robot.
  • a working robot system characterized by:
  • the rise in system cost can be suppressed, and even if there is a place where position information cannot be obtained, the working robot can autonomously travel to a desired position. be able to.
  • FIG. 1 is an explanatory diagram showing a configuration example of a working robot system according to an embodiment of the present invention
  • FIG. Explanatory drawing which showed the structural example of a control apparatus.
  • FIG. 2 is an explanatory diagram showing an example of functions of a control device;
  • FIG. 4 is an explanatory diagram showing one functional example of a coordinate conversion processing unit for obtaining position information of a target;
  • FIG. 5 is an explanatory diagram showing another functional example of the coordinate conversion processing unit for obtaining position information of a target;
  • FIG. 5 is an explanatory diagram showing another functional example of the control device;
  • FIG. 4 is an explanatory diagram showing one functional example of a coordinate conversion processing unit for obtaining position information of a work robot at a position where position information of a satellite positioning system cannot be measured;
  • FIG. 4 is an explanatory diagram showing one functional example of a coordinate conversion processing unit for obtaining position information of a work robot at a position where position information of a satellite positioning system cannot be measured;
  • FIG. 5 is an explanatory diagram showing another functional example of the coordinate conversion processing unit for obtaining position information of the work robot at a position where the position information of the satellite positioning system cannot be measured;
  • FIG. 5 is an explanatory diagram showing another functional example of the coordinate conversion processing unit for obtaining position information of the work robot at a position where the position information of the satellite positioning system cannot be measured;
  • the working robot system 1 includes a working robot 10, an imaging device 20, and a control device 30 as a basic configuration.
  • the working robot 10 is an autonomously traveling working machine that performs various tasks while autonomously traveling on the field F, and has a self-position detection unit 101 that detects its own position in order to autonomously travel.
  • the self-position detection unit 101 is a GNSS sensor that receives radio signals emitted from a satellite 100 in a satellite positioning system (GNSS: Global Navigation Satellite System) such as GPS or RTK-GPS, in the field F or in the field F It is a receiving device or the like that receives radio waves emitted by a plurality of beacons or the like arranged in the surrounding area.
  • GNSS Global Navigation Satellite System
  • One self-position detection unit 101 may be provided in one work robot 10, or a plurality of self-position detection units 101 may be provided. When a plurality of self-position detection units 101 are provided, a single self-position is output by integrating a plurality of outputs.
  • the work performed by the working robot 10 is not particularly limited. Examples include mowing (including lawn mowing) and cleaning on the field along the travel route of the working robot 10, and collecting balls and the like scattered on the field.
  • the working robot 10 includes a traveling section 11 having wheels for traveling on the field F, a working section 12 for performing work on the field F, and a traveling drive section ( a motor) 11A, a work drive section (motor) 12A that operates the work section 12, a control section 10T that controls the traveling drive section 11A and the work drive section 12A, a battery 13 that serves as a power source for the work robot 10, and the like.
  • the traveling unit 11 has left and right traveling wheels, and the working robot 10 can move forward and backward, turn left and right, and steer in any direction under the control of the traveling drive unit 11A that drives each traveling wheel independently. It's becoming A crawler-type traveling section having a pair of left and right crawler belts may be used instead of the traveling section 11 including left and right traveling wheels.
  • the autonomous traveling of the work robot 10 is performed by inputting the position information of the self-position output from the self-position detection unit 101 to the control unit 10T, so that the position of the set target path and the self-position match, or the set region
  • the control unit 10T controls the traveling drive unit 11A so that the self-position is included in the control unit 10T.
  • the photographing device 20 photographs the field F in which the work robot 10 works and outputs the photographed image.
  • the photographing device 20 is supported by a facility M installed inside or outside the field F via a support portion 20A, photographs the field F from a bird's-eye view, and outputs the photographed image. do.
  • the photographing device 20 supported via the support portion 20A may be installed on a tree, a pillar, or the like, in addition to the facility M.
  • the imaging device 20 can appropriately adjust imaging conditions. In the illustrated example, it is possible to manually or automatically adjust the angle of the photographing direction and the support height by adjusting the support portion 20A. It can be performed.
  • the control device 30 acquires the information of the photographed image of the field F photographed by the photographing device 20 and the self-position information output by the self-position detection unit 101 of the work robot 10, and performs predetermined arithmetic processing.
  • the control device 30 may be installed in the facility M where the imaging device 20 is installed, as shown in the drawing, or may be installed in a place away from the imaging device 20, for example, in a standby facility N or the like.
  • the controller 10T provided in the body 10A of the work robot 10 may function as the controller 30.
  • the control device 30 acquires information such as the self-position of the work robot 10 via the communication unit 31 .
  • the position information of the self-position is input from the self-position detection unit 101 to the control unit 10T, and the position information of the self-position is transmitted from the communication unit 102 provided in the control unit 10T to the communication unit 31 of the control device 30.
  • the control unit 10T acquires position information of the self-position from the self-position detection unit 101 via a predetermined line (wired or wireless).
  • the control device 30 When the control device 30 is installed in the facility M where the imaging device 20 is installed, the information of the captured image output from the imaging device 20 is sent to the control device 30 via a predetermined line (wired or wireless). is entered.
  • the control device 30 When the control device 30 is installed at a position distant from the imaging device 20 , the information of the captured image is transmitted from the communication unit 21 included in the imaging device 20 to the communication unit 31 of the control device 30 . Further, when the control unit 10T of the work robot 10 functions as the control device 30, the information of the captured image is sent from the communication unit 21 provided in the imaging device 20 or the communication unit 31 of the control device 30 to the communication unit 102 of the control unit 10T. sent.
  • the control device 30 or the control unit 10T includes a processor 301, a memory 302, a storage 303, an input/output I/F (Interface) 304, a communication I/F (Interface) 305, and the like. They are connected via a bus 306 so as to be able to transmit and receive information to each other.
  • the control device 30 includes a control section 10T.
  • the processor 301 is, for example, a CPU (Central Processing Unit), and the memory 302 is, for example, a ROM (Read Only Memory) or a RAM (Random Access Memory).
  • the processor 301 executes arithmetic processing of the control device 30 by executing various programs stored in a memory (eg, ROM) 302 .
  • the ROM in the memory 302 stores programs executed by the processor 301, data necessary for the processor 301 to execute the programs, and the like.
  • the RAM in the memory 302 is a main storage device such as a DRAM (Dynamic Random Access Memory) or an SRAM (Static Random Access Memory), and functions as a work area used by the processor 301 when executing a program. Data input to the device 30 or the control unit 10T is temporarily saved.
  • the input/output I/F 304 is a circuit unit for inputting information to the processor 301 and outputting information processed by the processor 301. 11A, the work drive unit 12A, etc., and the control device 30 installed at a position distant from the work robot 10 is connected to a display device 40, etc. for displaying the photographed image. Also, the communication I/F 305 is connected to the communication unit 31 (or the communication unit 102) described above.
  • the processor 301 executes programs stored in the memory 302 so that the control device 30 functions as the image processing unit 301A and the coordinate transformation processing unit 301B shown in FIGS. Then, the control device 30 acquires the self-position of the work robot 10 at at least two points as position information in real coordinates, and acquires a photographed image of the field F including the work robot 10 outputting the position information. As a result, the control device 30 obtains the position information (real coordinates ( ⁇ n, ⁇ n)) with respect to other positions (pixel coordinates (Xn, Yn)) on the image for which the position information of the real coordinates has not been measured. can be given.
  • the imaging device 20 detects its own position at least at two points in the function example shown in FIG. An image of the field F is photographed so that the working robot 10 to be output is included in the photographed image.
  • the photographed image of the field F photographed by the photographing device 20 is input to the image processing unit 301A in the control device 30, and the image processing unit 301A performs image processing on the photographed image so that the image of the working robot 10 is displayed at least at two points. position (X1, Y1), (X2, Y2).
  • At least two positions (X1, Y1) and (X2, Y2) of the work robot 10 on the image output by the image processing unit 301A are input to the coordinate conversion processing unit 301B.
  • the position on the image here is specified by pixel coordinates in which the pixel position when the image is displayed corresponds to the XY coordinates.
  • the image processing unit 301A performs image processing so that the input captured image can be displayed on the display device 40, and the information is input to the display input unit 401 of the display device 40.
  • the display device 40 displays an image of the field F including the work robot 10 outputting its own position at least at two points.
  • the display input unit 401 in the display device 40 inputs, for example, the position of the target on the screen by designating the position on the screen where the captured image is displayed by touch input or cursor input.
  • the target here corresponds to an object, target area, or target position required when the working robot 10 autonomously travels in the field, and corresponds to an obstacle, a non-work area, a relay position, or the like. Including things.
  • the position of the target on the screen is input as a point, a line, or a range on the screen surrounded by points and lines.
  • the display input unit 401 of the display device 40 When the position of the target on the screen is input to the display input unit 401 of the display device 40, the display input unit 401 outputs the position (pixel coordinates) of the target on the image, and this information is used by the coordinate conversion processing unit. 301B.
  • the coordinate transformation processing unit 301B stores the positions (X1, Y1) and (X2, Y2) of the work robot 10 at least two points on the image and the target object. position (Xn, Yn) on the image of .
  • the self-position here is, for example, position information of satellite positioning coordinates output by a GNSS sensor provided in the working robot 10 . If the self-position detection unit 101 of the working robot 10 is a receiving device that receives radio waves emitted by a beacon or the like, the self-position is position information of real coordinates or satellite positioning coordinates after conversion from the real coordinates.
  • the coordinate conversion processing unit 301B of the control device 30 converts the above-described input information (at least two positions (X1, Y1), (X2, Y2) of the working robot 10 on the image, the position of the target on the image ( Xn, Yn), and arithmetic processing for outputting target position information ( ⁇ n, ⁇ n) based on at least two self-positions ( ⁇ 1, ⁇ 1), ( ⁇ 2, ⁇ 2) output by the work robot 10. I do.
  • the arithmetic processing of the coordinate conversion processing unit 301B converts the XY coordinates corresponding to the input positions (X1, Y1) and (X2, Y2) of the working robot 10 on the image.
  • One position (X1, Y1) on the XY coordinates is associated with the satellite positioning coordinates ( ⁇ 1, ⁇ 1)
  • the other position (X2, Y2) on the XY coordinates is associated with the satellite positioning coordinates ( ⁇ 2, ⁇ 2).
  • the satellite positioning coordinates absolute coordinates ( ⁇ n, ⁇ n) corresponding to the position (Xn, Yn) of the target on the image, which is the specific position in the XY coordinates, can be obtained.
  • the positions (X1, Y1), (X2, Y2) on the image of the working robot 10 obtained at least two points are, as shown in FIG. 10(2) at the same time, or, as shown in FIG.
  • One position (X1, Y1, t1) may be acquired at
  • another position (X2, Y2, t2) may be acquired at another time t2.
  • positions (X1, Y1) and (X2) of the work robot 10 at at least two points on the image, one point acquired in the past and one point acquired at present, are calculated.
  • Y2) can also be obtained.
  • the image processing unit 301A processes the acquired photographed image to obtain the positions (X1, Y1) and (X2, Y2) of the working robot 10 on the image at least at two points, and converts them into It is stored in the storage unit 302A of the memory 302, and the self-positions ( ⁇ 1, ⁇ 1) and ( ⁇ 2, ⁇ 2) of the satellite positioning coordinates output by the self-position detection unit 101 of the working robot 10 are obtained at the two points and stored. Store in section 302A.
  • the position (Xn, Yn) of the working robot 10 on the image at that time is acquired from the captured image, and the coordinate conversion processing unit 301B
  • the satellite positioning coordinates absolute coordinates
  • the satellite positioning coordinates are given to each coordinate position in the XY coordinates. and output the absolute coordinates ( ⁇ n, ⁇ n) corresponding to the position (Xn, Yn) on the image.
  • position information ( ⁇ 1, ⁇ 1), ( ⁇ 1, ⁇ 1), ( ⁇ 2, ⁇ 2) are obtained, and positions (X1, Y1), (X2, Y2) on the image are obtained. Based on this, the working robot 10 (3 ) can be obtained ( ⁇ n, ⁇ n).
  • the positional information ( ⁇ n, ⁇ n, tn) of the working robot 10(2) can be obtained from the position (Xn, Yn, tn) on the image.
  • satellite positioning coordinates ( ⁇ 1, ⁇ 1, t1) and ( ⁇ 2, ⁇ 2, t2) of at least two points acquired by the work robot 10 at past times 1 and t2 and Position information ( ⁇ n, ⁇ n, tn) can be obtained from the position (Xn, Yn, tn) on the image.
  • the points are selected so that the X coordinate and the Y coordinate are different from each other. is preferred. According to this, when coordinates such as real coordinates and satellite positioning coordinates are superimposed on the XY coordinates, the accuracy of the position information given to each coordinate can be improved.
  • Appropriate coordinate conversion is required when superimposing the satellite positioning coordinates on the XY coordinates.
  • the photographing device 20 directs the optical axis obliquely downward from a predetermined height and photographs the field F at a predetermined angle of view, the rectangular coordinate position of the photographed image is changed according to the height and the angle of view. Converting to a trapezoidal shape requires conversion processing to form a virtual bird's-eye view image.
  • appropriate conversion processing must be adjusted according to the adjustment. is required.
  • the coordinate transformation at this time includes well-known coordinate transformation for mutually transforming XY coordinates and ⁇ - ⁇ coordinates (longitude/latitude coordinates), which are planar orthogonal coordinates.
  • ⁇ - ⁇ coordinates longitude/latitude coordinates
  • well-known coordinate conversion is included to mutually convert the ⁇ - ⁇ coordinates and XY coordinates.
  • the working robot system 1 includes the working robot 10 that outputs its own position on the field F, the photographing device 20 that photographs the field F, and the field photographed by the photographing device 20.
  • the control device 30 acquires the captured image of F and the self-position output by the work robot 10.
  • the control device 30 acquires the position on the image of the work robot 10 existing in the captured image and the self-position output by the work robot 10. Based on the position, position information is added to other positions on the captured image.
  • the control device 30 (or the control unit 10T) can perform autonomous travel control in which the working robot 10 travels toward an object (target object) that does not have position information on the image. It is possible to control the autonomous traveling that causes the working robot 10 to travel so as to avoid objects (obstacles) that do not have position information. In addition, the working robot 10 can travel autonomously within an area on the image where the satellite positioning system cannot be used.
  • the autonomous traveling control of the working robot 10 related to an object or the like that does not have position information can be performed.
  • the control device 30 in the work robot system 1 includes a computer (server) installed in the facility M, the standby facility N, etc., a computer (server) of a management system for managing the photographing device 20 installed as a surveillance camera, and a work robot. 10, the computer (server) of the control unit 10T mounted on the working robot 10, and the like.
  • the control device 30 transmits an image in which absolute coordinate position information is added to the position on the image to an electronic device having a screen (for example, the display device 40, etc.), and the satellite positioning system uses the image on the screen. It is possible to specify absolute coordinates such as places where it is not possible.
  • the position information (self-position) of the work robot 10 input to the control device 30 is converted to coordinates acquired using a satellite positioning system, thereby obtaining absolute coordinates and accurate position information with respect to the position on the image. can be given.
  • the position information of the work robot 10 input to the control device 30 is position information of at least two points, so that the position information can be displayed at the position on the image without depending on the information regarding the performance and installation of the photographing device 20. can be given.
  • the positional information of at least two points input to the control device 30 can be the positional information output by each working robot 10. It is possible to obtain location information for two points.
  • the position information of at least two points to be input to the control device 30 is obtained by moving one work robot 10, the individual error of the self-position detection unit 101 (GNSS sensor) that outputs the position information is eliminated. Acquisition of location information becomes possible.
  • the imaging device 20 does not have to be one, and may be plural.
  • position information may be added to the position on the image for each image captured by each individual image capturing device 20.
  • the captured images may be synthesized to generate one captured image, and position information may be added to the synthesized captured image.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Environmental Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

システムコストを抑え、位置情報の取得が不能な場所が存在する場合であっても、作業ロボットを適正に自律走行させることができるようにする。 作業ロボットシステムは、フィールド上で自己位置を出力する作業ロボットと、フィールドを撮影する撮影装置と、撮影装置が撮影したフィールドの撮影画像と作業ロボットが出力した自己位置とを取得する制御装置を備え、制御装置は、撮影画像内に存在する作業ロボットの画像上の位置と作業ロボットが出力した自己位置に基づいて、撮影画像の画像上の他の位置に位置情報を付与する。

Description

作業ロボットシステム
 本発明は、作業ロボットシステムに関するものである。
 フィールドを自律走行しながら、フィールド上にて各種の作業を行う作業ロボット(自律走行型作業機)が知られている。このような作業ロボットは、自律走行を行うために、自身の現在位置(自己位置)を測定する測位システム(例えば、GPS(Global Positioning System))を備えており、自己位置から求められる走行経路を目標経路と一致させるように、機体の走行を制御している。
 このような作業ロボットにおいて、作業領域を含む所定領域の画像を撮影して撮影画像を取得する撮影装置と、画像が撮影された位置を示す位置情報を取得する測位装置と、撮影画像および撮影された位置の位置情報に基づいてマップを生成するマップ生成部と、マップを表示する表示部と、表示部に表示されたマップに対する領域指定に基づいて作業ロボットが作業を行う作業領域を決定する作業領域決定部とを備えるものが提案されている(下記特許文献1参照)。
特開2019-75014号公報
 前述した従来技術によると、撮影画像と画像が撮影された位置の位置情報に基づくマップを作成するために、撮影装置に測位装置を搭載させて、画像が撮影された位置の位置情報を取得している。これによると、撮影装置に測位装置を搭載させる必要があると共に、マップの情報を大容量のメモリに記憶させる必要があるので、システムコストが高くなる問題がある。
 また、測位装置の電波受信が困難な場所が存在する場合には、その場所において位置情報の取得が不能になり、撮影画像の全域に対してマップの作成ができない状況が生じ得る。このため、作業ロボットの自律走行を適正に制御することができない問題が生じる。
 本発明は、このような事情に対処するために提案されたものである。すなわち、作業ロボットシステムにおいて、システムコストを抑えて、位置情報の取得が不能な場所が存在する場合であっても、作業ロボットを適正に自律走行させることができるようにすること、などが本発明の課題である。
 このような課題を解決するために、本発明は、以下の構成を具備するものである。
 フィールド上で自己位置を出力する作業ロボットと、前記フィールドを撮影する撮影装置と、前記撮影装置が撮影した前記フィールドの撮影画像と前記作業ロボットが出力した自己位置とを取得する制御装置を備え、前記制御装置は、前記撮影画像内に存在する前記作業ロボットの画像上の位置と当該作業ロボットが出力した前記自己位置に基づいて、前記撮影画像の画像上の他の位置に位置情報を付与することを特徴とする作業ロボットシステム。
 このような特徴を有する本発明によると、作業ロボットシステムにおいて、システムコストの高騰を抑え、位置情報の取得が不能な場所が存在する場合であっても、所望の位置に作業ロボットを自律走行させることができる。
本発明の実施形態に係る作業ロボットシステムの構成例を示す説明図。 制御装置の構成例を示した説明図。 制御装置の一機能例を示した説明図。 目標物の位置情報を得るための座標変換処理部の一機能例を示す説明図。 目標物の位置情報を得るための座標変換処理部の他の機能例を示す説明図。 制御装置の他の機能例を示した説明図。 衛星測位システムの位置情報が測定不能な位置で作業ロボットの位置情報を得るための座標変換処理部の一機能例を示す説明図。 衛星測位システムの位置情報が測定不能な位置で作業ロボットの位置情報を得るための座標変換処理部の他の機能例を示す説明図。 衛星測位システムの位置情報が測定不能な位置で作業ロボットの位置情報を得るための座標変換処理部の他の機能例を示す説明図。
 以下、図面を参照して本発明の実施形態を説明する。以下の説明で、異なる図における同一符号は同一機能の部位を示しており、各図における重複説明は適宜省略する。
 図1において、作業ロボットシステム1は、基本構成として、作業ロボット10と撮影装置20と制御装置30を備えている。
 作業ロボット10は、フィールドF上を自律走行しながら各種の作業を行う自律走行型の作業機であり、自律走行を行うために、自己位置を検出する自己位置検出部101を備えている。自己位置検出部101は、一例として、GPSやRTK-GPS等の衛星測位システム(GNSS:Global Navigation Satellite System)における衛星100から発信される電波信号を受信するGNSSセンサ、フィールドF内又はフィールドFの周囲に配置される複数のビーコン等が発信する電波を受信する受信装置等である。なお、自己位置検出部101は、1つの作業ロボット10に1つ設けても複数設けてもよい。複数の自己位置検出部101を設ける場合には、複数の出力を総合して1つの自己位置を出力する。
 作業ロボット10が行う作業は、特に限定されない。例を示すと、作業ロボット10の走行経路に沿って行われるフィールド上の草刈り(芝刈りを含む)作業や掃除作業、或いはフィールド上に分散されているボール等の収集作業等である。このため、作業ロボット10は、機体10Aに、フィールドF上を走行するための車輪等を有する走行部11、フィールドF上にて作業を行う作業部12、走行部11を駆動させる走行駆動部(モーター)11A、作業部12を動作させる作業駆動部(モーター)12A、走行駆動部11Aや作業駆動部12Aを制御する制御部10T、作業ロボット10の電源となるバッテリー13等を備えている。
 走行部11は、左右の走行車輪を備えており、各走行車輪を独立駆動させる走行駆動部11Aの制御で、作業ロボット10は、前後進と左右回りの旋回と任意方向への操舵が可能になっている。なお、左右の走行車輪からなる走行部11に代えて、左右一対の履帯を有するクローラ式の走行部であってもよい。作業ロボット10の自律走行は、自己位置検出部101が出力する自己位置の位置情報が制御部10Tに入力され、設定された目標経路の位置と自己位置が一致するように、或いは設定された領域内に自己位置が含まれるように、制御部10Tが走行駆動部11Aを制御することで実行される。
 撮影装置20は、作業ロボット10が作業を行うフィールドFを撮影して撮影画像を出力する。撮影装置20は、図示の例では、フィールドF内或いはフィールドF外に設置された施設Mに支持部20Aを介して支持されており、俯瞰的にフィールドFを撮影して、その撮影画像を出力する。支持部20Aを介して支持される撮影装置20は、施設Mの他、樹木や柱等に設置されてもよい。撮影装置20は、一例として、撮影条件を適宜調整することができる。図示の例では、支持部20Aの調整で手動又は自動により撮影方向の角度調整や支持高さの調整が可能であり、また、撮影装置20の光学系等の調整で撮影倍率や画角の調整を行うことができる。
 制御装置30は、撮影装置20が撮影したフィールドFの撮影画像の情報と、作業ロボット10の自己位置検出部101が出力した自己位置の位置情報とを取得し、所定の演算処理を行う。制御装置30は、図示のように、撮影装置20が設置される施設M内に設置してもよいし、撮影装置20とは離れた場所、例えば待機施設N等に設置してもよい。また、作業ロボット10の機体10Aに配備される制御部10Tが制御装置30として機能するようにしてもよい。
 制御装置30は、通信部31を介して作業ロボット10の自己位置等の情報を取得する。作業ロボット10においては、自己位置検出部101から自己位置の位置情報が制御部10Tに入力され、制御部10Tが備える通信部102から制御装置30の通信部31に自己位置の位置情報が送信される。制御部10Tは、自己位置検出部101から所定の回線(有線又は無線)を介して自己位置の位置情報を取得する。
 そして、撮影装置20が設置される施設Mに制御装置30が設置される場合には、撮影装置20から出力された撮影画像の情報は所定の回線(有線又は無線)を介して制御装置30に入力される。撮影装置20とは離れた位置に制御装置30が設置されている場合には、撮影装置20が備える通信部21から制御装置30の通信部31に撮影画像の情報が送信される。また、作業ロボット10の制御部10Tが制御装置30として機能する場合には、撮影装置20が備える通信部21或いは制御装置30の通信部31から制御部10Tの通信部102に撮影画像の情報が送信される。
 制御装置30或いは制御部10Tは、図2に示すように、プロセッサ301、メモリ302、ストレージ303、入出力I/F(Interface)304、通信I/F(Interface)305などを備え、これらは、バス306を介して相互に情報を送受信可能に接続されている。以下の説明では、制御装置30は制御部10Tを含むものとする。
 プロセッサ301は、例えば、CPU(Central Processing Unit)であり、メモリ302は、例えば、ROM(Read Only Memory)やRAM(Random Access Memory)である。プロセッサ301は、メモリ(例えば、ROM)302に記憶されている各種プログラムを実行することにより、制御装置30の演算処理を実行する。メモリ302におけるROMは、プロセッサ301により実行されるプログラムやプロセッサ301がプログラムを実行するために必要なデータ等を記憶する。メモリ302におけるRAMは、DRAM(Dynamic Random Access Memory)やSRAM(Static Random Access Memory)等の主記憶装置であって、プロセッサ301がプログラムを実行する際に利用する作業領域として機能し、また、制御装置30或いは制御部10Tに入力されるデータが一時的に保存される。
 入出力I/F304は、プロセッサ301に情報を入力すると共に、プロセッサ301が演算処理した情報を出力するための回路部であり、制御部10Tにおいては、前述した自己位置検出部101、走行駆動部11A、作業駆動部12A等に接続され、作業ロボット10と離れた位置に設置される制御装置30においては、撮影画像を表示する表示装置40等に接続される。また、通信I/F305は、前述した通信部31(或いは通信部102)に接続される。
 制御装置30は、プロセッサ301がメモリ302に記憶されているプログラムを実行することで、図3や図6に示す画像処理部301A及び座標変換処理部301Bとして機能する。そして、制御装置30は、少なくとも2地点で作業ロボット10の自己位置を実座標の位置情報として取得し、その位置情報を出力した作業ロボット10を含むフィールドFの撮影画像を取得する。これにより、制御装置30は、実座標の位置情報が測定されていない他の位置の画像上の位置(ピクセル座標(Xn,Yn))に対して、位置情報(実座標(λn,φn))を付与することができる。
 例えば、位置情報を持たない物体(目標物)や位置、領域において、作業ロボット10の自律走行を制御する場合、図3に示した機能例では、撮影装置20は、少なくとも2地点で自己位置を出力する作業ロボット10が撮影画像に含まれるように、フィールドFの画像を撮影する。撮影装置20が撮影したフィールドFの撮影画像は、制御装置30における画像処理部301Aに入力され、画像処理部301Aは、撮影画像を画像処理することで、少なくとも2地点で作業ロボット10の画像上の位置(X1,Y1),(X2,Y2)を出力する。画像処理部301Aが出力した少なくとも2地点の作業ロボット10の画像上の位置(X1,Y1),(X2,Y2)は、座標変換処理部301Bに入力される。なお、ここでの画像上の位置は、画像を表示する際の画素位置をX-Y座標に対応させたピクセル座標で特定される。
 また、画像処理部301Aは、入力された撮影画像を表示装置40に表示できるように画像処理し、その情報が表示装置40の表示入力部401に入力される。これにより、表示装置40には、少なくとも2地点で自己位置を出力する作業ロボット10を含むフィールドFの画像が表示される。
 表示装置40における表示入力部401は、タッチ入力或いはカーソル入力などで撮影画像が表示された画面上の位置を指示することで、例えば、目標物の画面上の位置を入力する。ここでの目標物は、作業ロボット10をフィールド内で自律走行させる際に必要になる対象物や対象領域或いは目標位置に対応するものであり、障害物や非作業地域や中継位置などに対応するものを含む。目標物の画面上の位置は、点や線或いは点や線で囲まれた画面上の範囲として入力される。
 表示装置40の表示入力部401に目標物の画面上の位置が入力されると、表示入力部401は、目標物の画像上の位置(ピクセル座標)を出力し、この情報が座標変換処理部301Bに入力される。これにより、座標変換処理部301Bには、撮影装置20によって撮影された撮影画像に基づいて、少なくとも2地点の作業ロボット10の画像上の位置(X1,Y1),(X2,Y2)と目標物の画像上の位置(Xn,Yn)が入力されることになる。
 これに対して、座標変換処理部301Bには、撮影装置20が撮影した作業ロボット10が出力する少なくとも2地点の自己位置(λ1,φ1),(λ2,φ2)が入力される。ここでの自己位置は、一例として、作業ロボット10が備えるGNSSセンサが出力する衛星測位座標の位置情報である。作業ロボット10の自己位置検出部101が、ビーコン等が発信する電波を受信する受信装置である場合には、自己位置は、実座標又は実座標から変換後の衛星測位座標の位置情報である。
 制御装置30の座標変換処理部301Bは、前述の入力された情報(少なくとも2地点の作業ロボット10の画像上の位置(X1,Y1),(X2,Y2)、目標物の画像上の位置(Xn,Yn)、作業ロボット10が出力する少なくとも2地点の自己位置(λ1,φ1),(λ2,φ2))に基づいて、目標物の位置情報(λn,φn)を出力するための演算処理を行う。
 この際の座標変換処理部301Bの演算処理は、図4に示すように、入力された作業ロボット10の画像上の位置(X1,Y1),(X2,Y2)に対応するX-Y座標を特定し、X-Y座標における1つの位置(X1,Y1)に衛星測位座標(λ1,φ1)を対応させ、X-Y座標における他の位置(X2,Y2)に衛星測位座標(λ2,φ2)を対応させて、X-Y座標に衛星測位座標を重ね合わせることで、X-Y座標における各座標位置に衛星測位座標(絶対座標)を付与する。これにより、X-Y座標における特定位置である目標物の画像上の位置(Xn,Yn)に対応する絶対座標(λn,φn)を得ることができる。
 ここで、少なくとも2地点で取得された作業ロボット10の画像上の位置(X1,Y1),(X2,Y2)は、図4に示すように、2つ以上の異なる作業ロボット10(1),10(2)を同時に撮影することで取得してもよいし、図5に示すように、移動する1つの作業ロボット10を異なる時刻(時刻t1と時刻t2)で撮影して、1つの時刻t1で1つの位置(X1,Y1,t1)を取得し,他の時刻t2で別の位置(X2,Y2,t2)を取得するようにしてもよい。
 また、1つまたは複数の作業ロボット10を定点撮影しながら、過去に取得した1地点と現在取得した1地点で、少なくとも2地点の作業ロボット10の画像上の位置(X1,Y1),(X2,Y2)を取得することもできる。
 前述した例では、目標物の位置情報を得る例を示したが、制御装置30は、図6に示すように、撮影装置20からフィールドFの撮影画像を取得して、衛星測位システムで取得不能な位置の位置情報(λn,φn)を出力することができる。
 この場合には、取得した撮影画像を画像処理部301Aで画像処理することで、少なくとも2地点で作業ロボット10の画像上の位置(X1,Y1),(X2,Y2)を得て、これらをメモリ302の記憶部302Aに保存し、その2地点で作業ロボット10の自己位置検出部101が出力した衛星測位座標の自己位置(λ1,φ1),(λ2,φ2)を得て、これらを記憶部302Aに保存する。
 そして、衛星測位システムで取得不能な位置に作業ロボット10が位置する場合には、その際の作業ロボット10の画像上の位置(Xn,Yn)を撮影画像から取得し、座標変換処理部301Bは、記憶部302Aに保存されている2地点の位置情報を用いて、X-Y座標に衛星測位座標を重ね合わせることで、X-Y座標における各座標位置に衛星測位座標(絶対座標)を付与し、画像上の位置(Xn,Yn)に対応する絶対座標(λn,φn)を出力する。
 これによると、図7に示すように、衛星測位座標が取得できる位置で、2つ以上の異なる作業ロボット10(1),10(2)の衛星測位座標の位置情報(λ1,φ1),(λ2,φ2)を得ると共に、画像上の位置(X1,Y1),(X2,Y2)を得て、これを基に、衛星測位システムの位置情報が測定不能な位置での作業ロボット10(3)の位置情報(λn,φn)を得ることができる。
 また、図8に示すように、衛星測位座標が取得できる範囲で、作業ロボット10(1)が移動することで時刻t1と時刻t2に得た少なくとも2地点での衛星測位座標(λ1,φ1,t1),(λ2,φ2,t2)と各々の画像上の位置(X1,Y1,t1),(X2,Y2,t2)を基に、時刻tnにおいて、衛星測位システムの位置情報が測定不能な位置の作業ロボット10(2)の位置情報(λn,φn,tn)をその画像上の位置(Xn,Yn,tn)から得ることができる。
 また、図9に示すように、作業ロボット10が過去の時刻1,t2に取得した少なくとも2地点の衛星測位座標(λ1,φ1,t1),(λ2,φ2,t2)と各々の画像上の位置(X1,Y1,t1),(X2,Y2,t2)を基に、衛星測位システムの位置情報が計測不能な位置での現在(時刻tn)の作業ロボット10の位置情報(λn,φn,tn)をその画像上の位置(Xn,Yn,tn)から得ることができる。
 なお、少なくとも2地点の作業ロボット10の画像上の位置(X1,Y1),(X2,Y2)を取得する際には、X座標とY座標がそれぞれ異なる座標になるように、地点を選択することが好ましい。これによると、X-Y座標に実座標や衛星測位座標等の座標を重ね合わせる際に、各座標に付与される位置情報の精度を高めることができる。
 X-Y座標に衛星測位座標を重ねる合わせる際には、適宜の座標変換が必要になる。特に、撮影装置20が所定の高さから斜め下向きに光軸を向けて所定の画角でフィールドFを撮影する場合は、撮影された画像の矩形状の座標位置を高さや画角に応じて台形状に変換することで、仮想の俯瞰画像を形成する変換処理が必要になり、撮影装置20の倍率や画角を調整する場合には、その調整に応じて適宜の変換処理を調整することが必要になる。また、この際の座標変換には、平面直交座標であるX-Y座標とλ-φ座標(経度・緯度座標)を相互に変換するための周知の座標変換が含まれる。なお、経度・緯度座標を持たないλ-φ座標の場合は、そのλ-φ座標とX-Y座標とを相互に変換する周知の座標変換を含む。
 以上説明したように、本発明の実施形態に係る作業ロボットシステム1は、フィールドF上で自己位置を出力する作業ロボット10と、フィールドFを撮影する撮影装置20と、撮影装置20が撮影したフィールドFの撮影画像と作業ロボット10が出力した自己位置とを取得する制御装置30を備え、制御装置30は、撮影画像内に存在する作業ロボット10の画像上の位置と作業ロボット10が出力した自己位置に基づいて、撮影画像の画像上の他の位置に位置情報を付与する。
 このような作業ロボットシステム1によると、撮影装置20が撮影した画像上に、位置情報を持たない物体(目標物)が存在する場合、位置情報を取得不能な位置や領域が存在する場合、取得した位置情報の信頼性が低い場合であっても、画像上の全ての位置に位置情報を付与することができる。これによると、制御装置30(或いは制御部10T)は、画像上の位置情報を持たない物体(目標物)に向けて作業ロボット10を走行させる自律走行の制御が可能になり、また、画像上の位置情報を持たない物体(障害物)を回避するように作業ロボット10を走行させる自律走行の制御が可能になる。また、画像上の衛星測位システムが利用できない領域内で、作業ロボット10の自律走行を行うことができる。
 これにより、撮影位置の位置情報を測位することなく、作業ロボット10が出力する自己位置の位置情報を活用することで、位置情報を持たない物体等に関連した作業ロボット10の自律走行の制御を行うことができるようになり、比較的安価なシステムコストで、衛星測位システムが利用できない場所に対しても、絶対座標(経度・緯度座標)に基づく自律走行の制御を行うことができる。
 この作業ロボットシステム1における制御装置30は、施設Mや待機施設N等に設置されるコンピュータ(サーバ)、監視カメラとして設置されている撮影装置20を管理する管理システムのコンピュータ(サーバ)、作業ロボット10の作業スケジュール等を管理する管理システムのコンピュータ(サーバ)、作業ロボット10に搭載される制御部10Tのコンピュータ(サーバ)などで構成することができる。また、この制御装置30は、画像上の位置に絶対座標の位置情報を付与した画像を、画面を有する電子機器(例えば、表示装置40等)に送信して、画面上で衛星測位システムが利用できない場所などの絶対座標を特定できるようにすることができる。
 制御装置30に入力される作業ロボット10の位置情報(自己位置)は、衛星測位システムを用いて取得した座標にすることで、絶対座標が得られ、画像上の位置に対して精確な位置情報を付与することができる。また、制御装置30に入力される作業ロボット10の位置情報は、少なくとも2地点の位置情報にすることで、撮影装置20の性能や設置に関する情報に依存することなく、画像上の位置に位置情報を付与することができる。
 制御装置30に入力される少なくとも2地点の位置情報は、フィールドF上に複数の作業ロボット10が存在する場合には、各々の作業ロボット10が出力する位置情報とすることができ、短時間で2地点の位置情報を得ることができる。また、制御装置30に入力される少なくとも2地点の位置情報を1つの作業ロボット10の移動によって得た場合には、位置情報を出力する自己位置検出部101(GNSSセンサ)の個体誤差を排除した位置情報の取得が可能になる。
 作業ロボットシステム1において、撮影装置20は、1つである必要は無く複数であってもよい。複数の撮影装置20で撮影画像を取得する場合には、個別の撮影装置20の画像毎に、画像上の位置に位置情報を付与するようにしてもよいし、複数の撮影装置20で取得した撮影画像を合成して1つの撮影画像を生成し、その合成された撮影画像に対して位置情報を付与してもよい。複数の撮影装置20を用いることによって、フィールドFの広い範囲を撮影対象にすることができる。
 以上、本発明の実施の形態について図面を参照して詳述してきたが、具体的な構成はこれらの実施の形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計の変更等があっても本発明に含まれる。また、上述の各実施の形態は、その目的及び構成等に特に矛盾や問題がない限り、互いの技術を流用して組み合わせることが可能である。
1:作業ロボットシステム,
10:作業ロボット,10A:機体,10T:制御部,
11:走行部,11A:走行駆動部,
12:作業部,12A:作業駆動部,13:バッテリー,
20:撮影装置,20A:支持部,21:通信部,
30:制御装置,31:通信部,40:表示部,
100:衛星,101:自己位置検出部,102:通信部,
301:プロセッサ,302:メモリ,303:ストレージ,
304:入出力I/F,305:通信I/F,306:バス,
301A:画像処理部,302A:記憶部,301B:座標変換処理部,
401:表示入力部,F:フィールド,M:施設,N:待機施設,

Claims (9)

  1.  フィールド上で自己位置を出力する作業ロボットと、
     前記フィールドを撮影する撮影装置と、
     前記撮影装置が撮影した前記フィールドの撮影画像と前記作業ロボットが出力した自己位置とを取得する制御装置を備え、
     前記制御装置は、
     前記撮影画像内に存在する前記作業ロボットの画像上の位置と当該作業ロボットが出力した前記自己位置に基づいて、前記撮影画像の画像上の他の位置に位置情報を付与することを特徴とする作業ロボットシステム。
  2.  前記自己位置は、前記作業ロボットに搭載された自己位置検出部が出力した実座標の位置情報であることを特徴とする請求項1記載の作業ロボットシステム。
  3.  前記制御装置は、少なくとも2地点で前記作業ロボットの自己位置を取得することを特徴とする請求項1又は2記載の作業ロボットシステム。
  4.  前記2地点の位置情報は、前記作業ロボットが移動することで取得した情報であることを特徴とする請求項3記載の作業ロボットシステム。
  5.  前記2地点の位置情報は、異なる時刻で取得した情報であることを特徴とする請求項3記載の作業ロボットシステム。
  6.  前記2地点の位置情報は、異なる前記作業ロボット又は1つの前記作業ロボットから取得した情報であることを特徴とする請求項2記載の作業ロボットシステム。
  7.  前記撮影装置は、撮影条件を調整可能であることを特徴とする請求項1~6のいずれか1項記載の作業ロボットシステム。
  8.  前記制御装置は、前記位置情報に基づいて、前記作業ロボットの自律走行を制御することを特徴とする請求項1~7のいずれか1項記載の作業ロボットシステム。
  9.  前記制御装置は、前記位置情報が付与された前記撮影画像を表示装置に出力することを特徴とする請求項1~8のいずれか1項記載の作業ロボットシステム。
PCT/JP2022/003270 2022-01-28 2022-01-28 作業ロボットシステム WO2023144988A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/003270 WO2023144988A1 (ja) 2022-01-28 2022-01-28 作業ロボットシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/003270 WO2023144988A1 (ja) 2022-01-28 2022-01-28 作業ロボットシステム

Publications (1)

Publication Number Publication Date
WO2023144988A1 true WO2023144988A1 (ja) 2023-08-03

Family

ID=87471283

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/003270 WO2023144988A1 (ja) 2022-01-28 2022-01-28 作業ロボットシステム

Country Status (1)

Country Link
WO (1) WO2023144988A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008046761A (ja) * 2006-08-11 2008-02-28 Sumitomo Electric Ind Ltd 移動体画像処理システム、装置及び方法
JP2008144379A (ja) * 2006-12-06 2008-06-26 Shin Caterpillar Mitsubishi Ltd 遠隔操縦作業機の画像処理システム
JP2015145784A (ja) * 2014-01-31 2015-08-13 株式会社トプコン 測定システム
JP2018170991A (ja) * 2017-03-31 2018-11-08 ヤンマー株式会社 農作業車両の自律走行システム
JP2019075014A (ja) 2017-10-18 2019-05-16 株式会社クボタ 自律走行型作業機のための作業領域決定システム、自律走行型作業機、および、作業領域決定プログラム
JP2020143901A (ja) * 2019-03-04 2020-09-10 アルパイン株式会社 移動体の位置測定システム
WO2021157708A1 (ja) * 2020-02-06 2021-08-12 株式会社やまびこ 分散物回収装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008046761A (ja) * 2006-08-11 2008-02-28 Sumitomo Electric Ind Ltd 移動体画像処理システム、装置及び方法
JP2008144379A (ja) * 2006-12-06 2008-06-26 Shin Caterpillar Mitsubishi Ltd 遠隔操縦作業機の画像処理システム
JP2015145784A (ja) * 2014-01-31 2015-08-13 株式会社トプコン 測定システム
JP2018170991A (ja) * 2017-03-31 2018-11-08 ヤンマー株式会社 農作業車両の自律走行システム
JP2019075014A (ja) 2017-10-18 2019-05-16 株式会社クボタ 自律走行型作業機のための作業領域決定システム、自律走行型作業機、および、作業領域決定プログラム
JP2020143901A (ja) * 2019-03-04 2020-09-10 アルパイン株式会社 移動体の位置測定システム
WO2021157708A1 (ja) * 2020-02-06 2021-08-12 株式会社やまびこ 分散物回収装置

Similar Documents

Publication Publication Date Title
US10491818B2 (en) Work vehicle with monitor to display overhead image of work vehicle, and image displaying method for displaying overhead image of work vehicle
JP2016057108A (ja) 演算装置、演算システム、演算方法およびプログラム
KR20140144921A (ko) 가상현실을 이용한 무인 자동차의 자율 주행 시뮬레이션 시스템
JP2010134499A (ja) 遠隔地画像表示装置、遠隔操縦装置、車両制御装置、遠隔操縦システム、遠隔操縦方法、遠隔操縦プログラム、車両制御プログラム、遠隔地画像表示方法、遠隔地画像表示プログラム
US20210208608A1 (en) Control method, control apparatus, control terminal for unmanned aerial vehicle
JP7552581B2 (ja) 行動制御装置および行動制御方法
CN112447058B (zh) 泊车方法、装置、计算机设备及存储介质
JPH11291991A (ja) 移動体の遠隔操縦システム
JP5762320B2 (ja) 走行制御システム及び走行制御方法
WO2023144988A1 (ja) 作業ロボットシステム
JP2019091961A (ja) カメラ制御装置
US11869159B2 (en) High density 3D environment capture with guided mixed reality
JP2007290077A (ja) 自律移動体および情報構築システム
JP7004374B1 (ja) 移動体の移動経路生成方法及びプログラム、管理サーバ、管理システム
EP3992744B1 (en) Work vehicle monitoring system
JP2021043047A (ja) 走行予定経路通知装置
EP3943979A1 (en) Indoor device localization
JP2021148698A (ja) 自動検査装置
CN114872051B (zh) 通行地图获取系统、方法、机器人及计算机可读存储介质
WO2021140916A1 (ja) 移動体、情報処理装置、情報処理方法、及びプログラム
JP2020042667A (ja) 投影システム、投影方法及びプログラム
JP7105659B2 (ja) 画像情報合成装置
US20240219912A1 (en) Driving assistance method, processing apparatus, and mobile machine
JP7072311B1 (ja) 移動体の移動経路生成方法及びプログラム、管理サーバ、管理システム
JP7278637B2 (ja) 自走式移動装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22923852

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2023576506

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2022923852

Country of ref document: EP

Effective date: 20240725