WO2019199112A1 - 자율 작업 시스템, 방법 및 컴퓨터 판독 가능한 기록매체 - Google Patents
자율 작업 시스템, 방법 및 컴퓨터 판독 가능한 기록매체 Download PDFInfo
- Publication number
- WO2019199112A1 WO2019199112A1 PCT/KR2019/004431 KR2019004431W WO2019199112A1 WO 2019199112 A1 WO2019199112 A1 WO 2019199112A1 KR 2019004431 W KR2019004431 W KR 2019004431W WO 2019199112 A1 WO2019199112 A1 WO 2019199112A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- work
- work robot
- sensing
- robot
- master
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 64
- 239000003550 marker Substances 0.000 description 24
- 238000010586 diagram Methods 0.000 description 15
- 229920002120 photoresistant polymer Polymers 0.000 description 7
- 238000005520 cutting process Methods 0.000 description 6
- 239000011521 glass Substances 0.000 description 5
- 238000004080 punching Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 239000000463 material Substances 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 238000003466 welding Methods 0.000 description 4
- 238000010146 3D printing Methods 0.000 description 3
- 244000025254 Cannabis sativa Species 0.000 description 3
- 239000003795 chemical substances by application Substances 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000005553 drilling Methods 0.000 description 2
- 238000005530 etching Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 239000000049 pigment Substances 0.000 description 2
- 239000004576 sand Substances 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/088—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1669—Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J3/00—Manipulators of master-slave type, i.e. both controlling unit and controlled unit perform corresponding spatial movements
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1615—Programme controls characterised by special kind of manipulator, e.g. planar, scara, gantry, cantilever, space, closed chain, passive/active joints and tendon driven manipulators
- B25J9/162—Mobile manipulator, movable base with manipulator arm mounted on it
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1682—Dual arm manipulator; Coordination of several manipulators
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0287—Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
- G05D1/0291—Fleet control
- G05D1/0295—Fleet control by at least one leading vehicle of the fleet
Definitions
- the present invention relates to an autonomous work system, a method and a computer readable recording medium, and more particularly, to an autonomous work system, a method and a computer readable recording medium using a plurality of work robot including a position determination function.
- the autonomous work system including a master work robot and at least one slave work robot, the master work robot, a data receiving unit for receiving information on the work target space, A sensing unit configured to sense the work target space, a sensing setting unit configured to set a moving path, a sensing position of the master work robot, and a sensing angle of the sensing unit; and sensing data and reference map data acquired through the sensing unit at the sensing position Comparing with the first position determiner for determining the position of the master work robot,
- the slave work robot may include a second position determiner for determining the position of the slave work robot.
- the second position determiner may receive position information of the master work robot and determine the position of the slave work robot in consideration of the received position and the distance and angle between the slave work robot and the master work robot. Can be.
- the slave work robot may further include a distance measuring unit for measuring a distance to the master work robot and a distance to a specific point of the work target space.
- the apparatus may further include a location information manager configured to receive location information of the master work robot from the first location determiner, and the second location determiner may receive location information of the master work robot from the location information manager. .
- the second position determiner may receive a position signal output from a transceiver installed at an arbitrary position, and determine the position of the slave work robot from the position signal.
- the master work robot may further include an information display unit displaying work information in the work target space, and the slave work robot may further include a work unit that recognizes the work information and performs a work corresponding to a recognition result. have.
- the job information may further include location information corresponding to a location where the job information is displayed, and the second location determiner may determine the location of the slave work robot using the location information.
- the position at which the job information is displayed may exist on the movement path of the master work robot.
- the sensing setting unit may set the sensing position for sensing the work target space in consideration of reference map data corresponding to the work target space.
- the master work robot may further include a map generator configured to generate the reference map from the sensing data acquired through the sensing unit at an arbitrary reference position.
- the autonomous work method using the autonomous work system including a master work robot and at least one slave work robot, receiving information on the work target space, Setting a moving path, a sensing position, and a sensing angle at the sensing position of the master work robot; comparing the sensing data obtained at the sensing position with reference map data to determine the position of the master work robot; and the slave And determining the position of the work robot.
- the determining of the position of the slave robot may include receiving position information of the master work robot and calculating a distance and an angle between the slave work robot and the master work robot.
- the position signal output from a transceiver installed at an arbitrary position may be received, and the position of the slave work robot may be determined from the position signal.
- the method may further include displaying, by the master work robot, the work information in the work target space, and recognizing the work information by the slave work robot and performing a work corresponding to the recognition result.
- the job information may further include location information corresponding to a location where the job information is displayed, and in determining the location of the slave job robot, the location of the slave job robot may be determined using the location information. .
- a computer-readable recording medium having a program recorded thereon for performing the autonomous work method according to the present invention may be provided.
- the present invention can provide an autonomous work system, a method and a computer-readable recording medium capable of performing work by using a plurality of work equipment, but guaranteeing high accuracy and efficiency through a simple configuration.
- FIG. 1 is a view showing a working robot to which the autonomous working system according to the present invention is applied.
- FIG. 2 is a view schematically showing the configuration of an autonomous work system according to an embodiment of the present invention.
- FIG. 3 is a view schematically showing the configuration of a slave work robot according to another embodiment of the present invention.
- FIG. 4 is a diagram schematically illustrating a configuration of an autonomous work system according to another embodiment of the present invention.
- FIG. 5 is a view schematically showing the configuration of an autonomous work system according to another embodiment of the present invention.
- FIG. 6 is a diagram schematically illustrating a configuration of an autonomous work system according to another embodiment of the present invention.
- FIG. 7 is a view schematically showing the configuration of a master work robot according to another embodiment of the present invention.
- FIG. 8 is a diagram exemplarily illustrating a method of calculating a position of a slave work robot based on a relative position of a master work robot and a slave work robot.
- FIG. 9 is a diagram showing the configuration of a work robot to which the autonomous work system according to the present invention is applied.
- FIG. 10 is a diagram exemplarily illustrating a data conversion process of comparing reference map data and scan data to determine a position of a master work robot.
- FIG. 11 is a diagram illustrating a movement path of a master work robot according to an embodiment of the present invention.
- FIG. 12 is a diagram exemplarily illustrating a reference map acquired through a master work robot according to an embodiment of the present invention.
- FIG. 13 is a view schematically showing an autonomous working method according to an embodiment of the present invention.
- FIG. 14 is a view schematically showing an autonomous working method according to another embodiment of the present invention.
- 15 is a view schematically showing a method of autonomous operation according to another embodiment of the present invention.
- FIG. 1 is a view showing a working robot to which the autonomous working system according to the present invention is applied.
- the autonomous work system can perform various tasks in a work space using a plurality of work robots.
- the plurality of work robots may determine their own positions in the work space, and may perform tasks assigned to them at positions where they will perform their work.
- the autonomous work system may be implemented through a plurality of work robots.
- the plurality of work robots may include at least one master work robot and at least one slave work robot.
- the master work robot can determine its own position in the work target space and display information on a work to be performed by the slave work robot.
- the slave work robot may determine its position based on the position of the master work robot, and may analyze the information displayed by the master work robot to recognize a work to be performed by itself and perform the recognized work. .
- the master work robot and the slave work robot can be freely moved in the work space, including a driving device that provides driving force, and can be understood to be movable in the air and underwater as well as on the ground.
- FIG. 1 Although one master work robot and two slave work robots are illustrated in FIG. 1, this is only an example for description and the scope of the present invention is not limited to a specific number.
- FIG. 2 is a view schematically showing the configuration of an autonomous work system according to an embodiment of the present invention.
- the autonomous work system 100 includes at least one master work robot 10 and at least one slave work robot 20.
- the master work robot 10 includes a data receiver 11, a sensing unit 12, a sensing setting unit 13, and a first position determination unit 14, and the slave work robot 20 has a second position.
- the determination unit 21 may be included.
- the data receiver 11 receives information about a work target space.
- the work target space refers to a space in which the master work robot 10 and the slave work robot 20 perform a task, and the information received by the data receiver 11 corresponds to the work target space.
- Information about the position and size of the walls, columns, windows, etc. existing in the space, that is, may include information about the architectural and spatial elements of the work space.
- the data receiver 11 may receive information about a task that the master task robot 10 and the slave task robot 20 should perform in the work target space.
- the information on the work target space may include information about an allowable movement range of the master work robot 10 and the slave work robot 20.
- the work target space may include a space where a wall, a pillar, a window, or the like should be installed, and before the installation, the space to prevent the master work robot 10 and the slave work robot 20 from entering is provided. May exist. In the space where the wall is erected or the elevator should be installed, the floor surface may be disconnected before the actual work is performed, and in some cases, there is a risk that the master work robot 10 and the slave work robot 20 may fall. Can be. Therefore, the information about the work target space may include information about the allowable movement range, so as to limit the movement range of the master work robot 10 and the slave work robot 20.
- the data receiver 11 may be connected to the sensing unit 12 in a wired or wireless manner, electrically or non-electrically, to receive data obtained from the sensing unit 12.
- the data receiver 11 may include a terminal to which an external storage medium such as a USB port, a CD-ROM, or the like may be connected, and may receive data about the work target space stored in the external storage medium.
- the data receiver 11 may be electrically connected to a separate input unit (not shown) to receive data about the work target space input from the input unit.
- the data receiver 11 may be electrically connected to a separate computing device to receive data about the work target space from the computing device.
- the sensing unit 12 senses the work target space.
- the sensing unit 12 may include at least one sensor and a driving unit such as a motor for controlling the rotation operation of the sensor.
- the sensing unit 12 is not necessarily limited thereto. When the sensing range of the sensor is 360 °, The same driver may not be included.
- the master work robot 10 illustrated in FIG. 2 is illustrated as including all of the data receiver 11, the sensing unit 12, the sensing setting unit 13, and the first position determining unit 14.
- the sensing setting unit 13 and the first position determining unit 14 may exist independently of a position spaced apart from the master work robot 10.
- the senor may be used a variety of sensors that can sense the work target space, for example, to measure the distance to the object, to sense the shape of the object or to sense the movement of the master work robot (10).
- a sensor may include a sensor using a laser or using an acoustic wave, a light wave and / or a radio wave, an IMU sensor, a GPS sensor, and / or an image acquisition sensor capable of acquiring moving images and / or still images, such as a camera. It may include.
- the sensor includes a laser sensor
- an example of the laser sensor may include a rider (LiDAR) sensor.
- the sensing unit 12 may include at least one of such sensors, and may improve sensing accuracy by combining a plurality of different types of sensors. For example, by using a rider sensor as a laser sensor, and further including an IMU sensor to sense the movement of the master work robot 10, the sensing accuracy of the work target space can be improved. It is also possible, optionally and / or additionally, to include a camera sensor to allow the camera sensor to photograph the work space, for example to determine the state and / or texture of a particular face of the work space, specifically the floor surface. By photographing and through this, the movement and / or work path of the master work robot 10 and / or the slave work robot 20 may be set and / or corrected.
- a distance measuring sensor to measure the distance to a particular point, such as a wall or column. This allows the measured position of a specific point present in the work target space to be reflected in setting and / or correcting the movement and / or work path of the master work robot 10 and / or the slave work robot 20.
- the various sensor combinations of the sensing unit 12 as described above are not necessarily installed only in the master work robot 10, and some sensors constituting the sensing unit 12 are installed in the slave work robot 20, and the data Can be communicated with the master work robot 10 to set and / or calibrate the movement and / or work path of the master work robot 10 and / or the slave work robot 20 before and / or during work. .
- the configuration of the sensing unit may be applied to all embodiments of the present specification.
- the master work robot 10 may sense the surrounding space by using the sensor, and acquire the position of the object in the surrounding space in polar coordinate form by using the information reflected from the signal output from the sensor.
- the motor may rotate the sensor by a desired angle, for example, 360 °.
- the direction of rotation of the sensor can be controlled in various ways as needed.
- the senor may be controlled to rotate horizontally, move horizontally, tilt and / or vertically by a separate driving unit.
- the horizontal rotation, horizontal movement, tilt and / or vertical movement of the sensor may be controlled independently of each other, and a control signal for controlling the horizontal rotation, horizontal movement, tilt and / or vertical movement may also be generated independently so that the driver Can be provided.
- the sensing setting unit 13 may set a movement path, a sensing position, and a sensing angle of the sensing unit 12 of the master work robot 10.
- the sensing setting unit 13 sets the movement path and designates an arbitrary point on the movement path to set the designated point as the sensing position.
- the sensing position may be set to a plurality of positions if necessary according to the work target space.
- the sensor performs a sensing operation, for example, a scanning operation. In this case, the sensor is rotated according to the sensing angle set by the sensing setting unit 13.
- the sensing height may be adjusted, and the sensing setting unit 13 may set both the sensing angle and the sensing height of the sensor at the set sensing position.
- the sensing position and the sensing angle may be set in consideration of characteristics of the work target space.
- the sensing position and the sensing angle may be arranged in an empty space in the work target space to a position and an angle at which a pillar or an obstacle may be sensed. Can be set.
- the sensing setting unit 13 may set the sensing angle of the sensor in the moving path, the sensing position and the sensing position in consideration of the drawing.
- the master work robot 10 may be understood as performing a sensing operation at a specific position on the movement path.
- the specific sensing position is designated to accurately determine the position of the master work robot 10.
- the specific position may be set to a finite number of positions, but is not limited thereto, and the specific position may be continuously moved while moving on the movement path.
- the sensing angle means a sensing angle of the sensor at each sensing position and can be expressed in degrees or radians.
- the size of the sensing angle may be expressed based on a specific coordinate axis, for example, the x-axis, or may be expressed based on the angle of the sensor when the sensing operation at the last sensing position ends.
- the sensing setting unit may send an operation signal to a plurality of driving units of the master working robot 10 to set the movement path, the sensing position, and the sensing angle of the sensing unit 12 of the master work robot 10.
- the master work robot 10 stops at each of the sensing positions, and may sense, for example, scan a surrounding space by rotating the sensor while stopped at the sensing position.
- the master work robot 10 may not stop at the sensing position, but may move and sense, for example, scan a surrounding space through the sensor.
- the first position determiner 14 determines the position of the master work robot 10 by comparing the sensing data acquired through the sensing unit 12 with the reference map data at the plurality of sensing positions.
- the reference map data may be represented by coordinates of pixels included in an image frame, and a coordinate of a pixel corresponding to a position where an object exists may have a value different from that of a pixel corresponding to an empty position.
- the data acquired through the sensor may be obtained in the form of polar coordinates.
- the position of the master work robot 10 in the work target space may be determined. Can be.
- the first position determiner 14 may convert the reference map data into polar coordinate data obtained through the sensor, and compare the converted data with the sensing data.
- the first position determiner 14 may receive a position signal output from a transceiver (not shown) installed at an arbitrary position, and determine the position of the master work robot from the position signal. .
- the transceiver may determine the position of the master work robot 10 based on its position and provide the determined position information to the first position determiner 14.
- Such a transceiver may be installed indoors to communicate with the master work robot to help determine the position of the master work robot 10.
- the transceiver is installed at four corners of the building, for example, by receiving a GPS signal to recognize the coordinate value of the building, and then transmits a new signal based on the value to determine the position of the master work robot 10. It can help.
- the first position determiner 14 may determine the position of the master work robot 10 in consideration of the distance from the master work robot 10 to the transceiver, angle data, and position information of the transceiver.
- the first position determiner 14 may sense a position of a marker (not shown) installed at an arbitrary position, and determine the position of the master work robot from the marker.
- the first position determiner 14 may determine the position of the master work robot 10 from the position where the position of the marker is sensed and / or the analysis of the sensed data.
- the operation performed by the first position determiner 14 is to determine the position of the master work robot 10 as accurately as possible, and the transceiver and / or the marker may be located at any position of the work target space, such as a pillar or It can be attached to a wall to transmit and / or indicate the location signal.
- the position of the transceiver and / or the marker is not limited to any position within the sensing object space.
- the position of the master work robot 10 may be tracked even if the transceiver and / or the marker are located outside the work target space.
- the master work robot 10 may include a receiver (not shown) capable of determining the position of the transceiver that has received the position signal and the received position signal and the distance and / or angle to the transceiver.
- the receiver may determine the position of the master work robot 10 in consideration of the position signal received from at least one transceiver.
- the transceiver may be configured through a signal sharer or a beacon, and may be used when it is not easy to determine the exact position of the master work robot 10 by comparing the sensing data with the reference map data.
- the marker may display a specific color or shape or a predetermined number, and the master work robot 10 may determine the position of the master work robot by including recognition means for recognizing the color, shape or number. have. On the other hand, the marker may be displayed to be identified through a special device such as an ultraviolet camera.
- the second position determiner 21 of the slave work robot 20 determines the position of the slave work robot 20.
- Various methods may be used by the second position determiner 21 to determine the position of the slave work robot 20, and the first position determiner 14 may be used to determine the position of the master work robot 10. The method may be applied.
- the second position determiner 21 may receive a position signal output from a transceiver installed at an arbitrary position and determine the position of the slave work robot 20 from the position signal.
- the second position determiner 21 may determine the position of the slave work robot 20 by sensing the position of the marker installed at an arbitrary position. Since the second position determiner 21 determines the position of the slave work robot 20 in the same manner as the first position determiner 14 determines the position of the master work robot 10, Detailed description will be omitted.
- the second position determiner 21 determines the position of the slave work robot 20 in consideration of the positional information of the master work robot 10 and the relative positional relationship between the slave work robot 20 and the master work robot 10. You can also judge.
- the second position determiner 21 receives the position information of the master work robot 10 and considers the received position and the distance and angle between the slave work robot 20 and the master work robot 10. The position of the slave work robot 20 may be determined.
- the master work robot 10 may determine its own position through the first position determiner 14, and the position information of the master work robot 10 may be provided to the slave work robot 20. At this time, if relative position information, for example, angle information between the master work robot 10 and the slave work robot 20 is obtained, the position of the slave work robot 20 may be determined using the position information of the master work robot 10. Can be.
- the second position determiner 21 may receive the position information of the master work robot 10 from the first position determiner 14 in real time. Since the master work robot 10 and the slave work robot 20 can continuously move in the work target space, when the position information of the master work robot 10 is provided in real time, the position of the slave work robot 20 is viewed. You can judge accurately.
- FIG. 3 is a view schematically showing the configuration of a slave work robot according to another embodiment of the present invention.
- the slave work robot 20 includes a second position determiner 21 and a distance measurer 22.
- the second position determiner 21 determines the position of the slave work robot 20, and may use the distance information measured by the distance measurer 22.
- the distance measuring unit 22 may measure a distance from the slave work robot 20 to the master work robot 10 or measure a distance to a specific point in the work target space. In addition, the distance measuring unit 22 may further measure an angle between the slave work robot 20 and the master work robot 10.
- the distance measuring unit 22 may use a laser method or a GPS method to measure the distance, and any method applicable to a person skilled in the art may be used.
- the specific position is preferably set to a position corresponding to the sensor included in the master work robot 10.
- the master work robot 10 and the slave work robot 20 may determine the angle by using a distance separated from the wall of the work target space and a distance between the master work robot 10 and the slave work robot 20, respectively. Measurement methods can also be applied.
- a time at which the distance measuring unit 22 measures the distance to the master work robot 10 and a time at which the position information of the master work robot 10 is provided from the first position determining unit 14 is provided.
- a time at which the distance measuring unit 22 measures the distance to the master work robot 10 and a time at which the position information of the master work robot 10 is provided from the first position determining unit 14 is provided.
- the second position determiner 21 of the slave work robot 20 It is possible to accurately acquire the position.
- FIG. 4 is a diagram schematically illustrating a configuration of an autonomous work system according to another embodiment of the present invention.
- the autonomous work system 200 includes a master work robot 10, a slave work robot 20, and a location information manager 30. Since the master work robot 10 and the slave work robot 20 include substantially the same configuration as the master work robot 10 and the slave work robot 20 described with reference to FIG. 2, only the overlapping contents will be described in detail. Is omitted.
- the position information manager 30 receives the position information of the master work robot 10 from the first position determiner 14, and the second position determiner 21 receives the master work robot 10 from the position information manager 30. ) Location information.
- the second position determiner 21 may determine the position of the slave work robot 20 with reference to the position information of the master work robot 10, and the position information manager 30 ) Provides the position information of the master work robot 10 received from the first position determiner 14 to the second position determiner 21, whereby the second position determiner 21 is the slave work robot 20. This can be used to determine the location of the.
- Communication between the location information management unit 30 and the first and second location determination units 14 and 21 can be applied to any communication method, such as wired communication or wireless communication, and the second location determination unit 21 is currently in slave operation.
- the position information of the master work robot 10 may be provided to the second position determiner 21 in real time.
- FIG. 5 is a view schematically showing the configuration of an autonomous work system according to another embodiment of the present invention.
- the autonomous work system 300 includes a master work robot 10 and a slave work robot 20, and the master work robot 10 includes an information display unit 15. ), And the slave work robot 20 may further include a work unit 23.
- the information display unit 15 displays the job information in at least a part of the work target space, and the work unit 23 recognizes the job information and performs a job corresponding to the recognition result.
- the work information includes information about a work that should be performed by the slave work robot 20 in the work target space, and the work part 23 corresponds to the work information for marking, drilling, Welding, cutting, screwing, fastening, tightening, locking or punching can be performed.
- the marking may include displaying data using a pigment on the working surface, leaving scratches on the working surface, etching part of the working surface with a laser, and displaying data on the working surface such as a liner. have.
- the work piece 23 is capable of marking, drilling, welding, cutting, screwing, tightening, tying, fastening or punching a marking unit, drill, welding unit, cutting unit, threading unit, locking It may further comprise various tool units such as work units, tightening work units, fastening work units and punching units.
- the work unit 23 may include a mowing unit to display the data by mowing the lawn when grass is planted on the bottom surface.
- the working part 23 may include a plate unit to display a three-dimensional shape by pushing sand or blocks.
- the working part 23 may include a 3D printing unit to print a three-dimensional shape.
- the working part 23 may include an arm unit capable of stacking an object such as a block in a three-dimensional shape.
- the work unit 23 may be provided to perform a task of installing a specific device on a wall, a pillar, a floor, or a ceiling in the work target space.
- the work unit 23 may perform an operation of installing an outlet on a wall, a pillar, a floor, or a ceiling.
- the job information may be displayed by a symbol that can be recognized by the work unit 23, and for example, may be displayed by at least one of a barcode, a QR code, a number, or a letter.
- the job information may be displayed as a special photoresist that the work unit can recognize.
- the photoresist may not be directly identified by the naked eye, and may be recognized by the work unit 23.
- the work unit 23 may further include a sensing unit capable of recognizing a special photoresist.
- the information display unit 15 may display different work information corresponding to each of the plurality of slave work robots.
- the plurality of slave work robots include a first robot and a second robot
- the information display unit 15 distinguishes between job information corresponding to the first robot and job information corresponding to the second robot. I can display it.
- one master robot and one slave robot are matched one-to-one or one-to-many to display work information. You may.
- the job information may further include location information corresponding to the location where the job information is displayed.
- the second location determiner 21 determines the location of the slave work robot 20 using the location information. can do.
- the information display unit 15 Since the master work robot 10 can determine its own position by itself, the information display unit 15 has the position information for displaying the work information. Accordingly, the information display unit 15 may include the position information in the job information, and the second position determiner 21 may determine the position of the slave work robot 20 by recognizing the job information.
- the slave work robot 20 may have information regarding which position to perform the work in advance, but may not be able to determine its own position by itself, so that the slave work robot 20 has the position information included in the work information in advance. You can compare the information you have and use it to perform the correct task.
- the master work robot 10 may display a separate mark corresponding to the moving path in the work target space while moving along the moving path.
- the master work robot 10 uses the information display unit 15 to circle the path corresponding to the movement path in the work target space. I can display it.
- the information display unit 15 displays the job information in the work target space
- the master work robot 10 moves along the movement path and corresponds to the movement path using the information display unit 15.
- the marker may be displayed and the task of displaying the task information may be performed together.
- the slave work robot 20 may move by following the master work robot 10 by tracking the path and / or the mark displayed by the information display unit 15, and when the work information is detected during the movement, at the corresponding position. A job corresponding to the detected job information may be performed.
- the information display unit 15 may display the path and / or the mark so as to be visually identifiable, or may be not visible to the naked eye but only through a special device.
- the information display unit 15 displays the path and / or the marking by applying a photosensitive agent that is not visible to the naked eye, and the slave work robot 20 uses a device such as a special equipment such as an ultraviolet camera.
- the path and / or mark may be recognized by recognizing the applied photoresist.
- the present invention is not limited thereto, and the paths and / or marks may be displayed to be visually seen. This allows the administrator to check the accuracy of the route and / or marking.
- Such paths and / or markers may be formed by a material that is automatically cleared over time after the job is finished, but is not necessarily limited thereto, and may be formed of a material that can be easily erased after the job is finished.
- the path and / or mark displayed by the information display unit 15 may include location information.
- the information display unit 15 may include the coordinate information of the point A at a specific point A on the path and / or the mark.
- the route and / or marker may include information about the task information displayed in the work target space, for example, a C meter along the route and / or marker from the point B to a specific point B on the route. meter) can move to indicate that job information is displayed.
- FIG. 6 is a diagram schematically illustrating a configuration of an autonomous work system according to another embodiment of the present invention.
- the autonomous work system 400 includes a master work robot 10 and a slave work robot 20, and the master work robot 10 includes a first work part. (16) is further included, and the slave work robot 20 further includes a second working portion (23).
- the components other than the first work unit 16 and the second work unit 23 are not illustrated for the master work robot 10 and the slave work robot 20, respectively, but are for convenience of description.
- the master work robot 10 and the slave work robot 20 of the embodiment shown in FIG. 6 may each include the configurations of all the above-described embodiments in addition to the first work part 16 and the second work part 23, respectively. .
- the master work robot 10 performs its own work and at the same time instructs the slave work robot 20 to work, and accordingly, the master work robot 10 and the slave work robot 20 perform the same work. Can be split between each other, or different tasks can be performed simultaneously.
- the first working part 16 and the second working part 23 as described above, the marking unit, drill, welding unit, cutting unit, screw work unit, lock work unit, tightening work unit, fastening work
- Various tool units such as units and punching units, mowing units, plate units, 3D printing units, and / or arm units may be included.
- the first working part 16 and the second working part 23 may be provided to perform a task of installing a specific device on a wall, a pillar, a floor, or a ceiling in a work target space.
- FIG. 7 is a view schematically showing the configuration of a master work robot according to another embodiment of the present invention.
- the master work robot 40 further includes a reference map generator 43, and the reference map generator 43 is a sensing unit 42 at an arbitrary reference position.
- a reference map is generated from the sensing data obtained through.
- the reference map is used by the first position determiner 45 to determine the position of the master work robot 10 and may be generated from a diagram corresponding to the work target space.
- the reference map generator 43 may directly generate a reference map that can more accurately reflect the actual environment or characteristics of the work target space.
- the reference position may be any position within the work target space, and generally may be selected as a center point of the work target space. Locations in which adjacent obstacles exist, including glass windows, may not be suitable as the reference position. This is because when there is an obstacle in a close position, it may be difficult to obtain sensing data of a space behind the obstacle and / or a space related to the obstacle. However, if necessary, the reference position may be any position outside the work target space.
- the reference position is set to a position in which a sensing object such as a pillar or an obstacle is sensed by being disposed in an empty space in the sensing target space. Can be.
- the reference map generator 43 may measure the distance to a specific point such as a wall or a pillar by using the distance measuring sensor as described above, and reflect it on the reference map data. have. By measuring the distance, the center point of a column such as a column can be estimated, and a reference position can be set based on the distance measurement.
- the reference map generator 43 may measure a state of a specific surface, for example, a floor surface by using the image capturing sensor as described above, and may reflect it on the reference map data. .
- a movement path and / or a work path of a master work robot and / or a slave work robot described later may be set.
- the sensor rotates 360 ° to sense the work target space to generate the sensing data.
- the sensor included in the sensing unit 42 may be controlled to have a sensing angle in a high and low direction through tilt control.
- the position of the master work robot 40 does not necessarily need to be fixed to the reference position, but generates the sensing data while moving in a predetermined reference space. It is also possible.
- the reference map generator 43 generates a reference map of the work target space from the sensing data, and generates the reference map by applying, for example, a SLAM algorithm to the sensing data acquired at the reference position. can do.
- the reference map may be configured of image data of pixels included in an image frame corresponding to the sensing data. For example, when the work target space is represented by one frame, a pixel corresponding to a location where an object exists is displayed in black, and a pixel corresponding to an empty space may be displayed in white. have.
- this refers to an embodiment of a data format that may be included in the reference map data, and is not limited to including color information about individual pixels, and the reference map data is expressed in a format such as a vector or polar coordinates. Can be.
- weights are respectively applied to the drawing and the reference map. And may provide work target space information usable by the sensing setting unit 44.
- FIG. 8 is a diagram exemplarily illustrating a method of calculating a position of a slave work robot based on a relative position of a master work robot and a slave work robot.
- a master work robot M and a slave work robot S are shown, d represents a distance between the master work robot M and a slave work robot S, and l represents a master work robot.
- a difference between the distance formed between M and the slave work robot S between a specific wall surface of the work target space. That is, a relationship of l l m -l s is established, l m means a distance that the master work robot M is separated from the specific wall, and l s is a slave work robot S that is separated from the specific wall.
- ⁇ means the angle between the master work robot (M) and the slave work robot (S).
- the master work robot M may measure l m , which is the distance to the wall surface, using a sensor, and the slave work robot S uses the distance measuring unit 22 described with reference to FIG. 3 to master work.
- the distance d to the robot M and the distance l s to the wall surface can be measured. Accordingly, the distance l may be calculated using the difference between l m and l s , and the angle ⁇ may be calculated using the distance d measured by the distance measuring unit 22.
- the second position determiner of the slave work robot S determines the position of the slave work robot S by using the distance d and the angle ⁇ and the position information of the master work robot M provided from the first position determiner. can do. Therefore, it can be understood that the l m value measured by the master work robot M is provided to the second position determiner together with the position information of the master work robot M.
- the second position determination unit includes coordinates included in the position information of the master work robot M provided from the first position determination unit, and the master work robot M and the slave work robot S are the work target space.
- the position of the slave work robot S may be determined using a distance away from the pair of walls existing in the wall. In this case, the position of the slave work robot S may be determined even if the distance d value between the master work robot M and the slave work robot S is not measured.
- l m and l s are measured to be the closest values among the distances to the wall measured from the master work robot M and the slave work robot S, respectively.
- FIG. 9 is a diagram showing the configuration of a work robot to which the autonomous work system according to the present invention is applied.
- the work robot in particular the master work robot, may include a sensor, for example, a scanning sensor.
- the work robot can move using a configuration shown in FIG. 9, for example, a pair of wheels arranged on both sides of the body.
- the work robot may further include at least one wheel at the bottom thereof, thereby maintaining balance.
- the present invention is not limited thereto, and may include any configuration that provides power to the work robot to move to any position.
- the working robot may be configured to be flightable, such as a drone, or may be configured through a plurality of pairs of driving devices.
- it can be configured to be able to move and perform work underwater.
- it may be configured to be movable through a structure that mimics a human or animal leg.
- the position of the master work robot can be understood to be substantially the same as the position of the sensor.
- the present invention is not limited thereto, and the work position of the master work robot may be defined as the position of the master work robot, and the work position may be accurately corrected using a predetermined position difference between the position of the sensor and the work position. Can be.
- the position of the sensor and the position of the master work robot are regarded as being substantially the same.
- the position of the working robot may be represented by a coordinate of (p x , p y ) and may be rotated by a motor.
- the rotation direction of the sensor may be variously controlled as necessary.
- the angle of the sensor may be expressed based on the x-axis of FIG. 9, and the position of the object detected by the sensor may be expressed by polar coordinates of ( ⁇ L , d). Where d is the distance to the detected object.
- the master working robot may include a marking unit (not shown).
- the marking unit may be freely moved up and down, left and right, in order to perform a task corresponding to marking data included in the information corresponding to the work target space received by the data receiver 11 described with reference to FIG. 2.
- a certain mark may be displayed at a specific position of the working surface or a line may be drawn on the movement path.
- FIG. 10 is a diagram exemplarily illustrating a data conversion process of comparing reference map data and sensing data to determine a position of a master work robot.
- the reference map data may be displayed in a grid format, and the darker portions than other grid areas indicate that an object reflects the scan signal of the laser sensor.
- Each grid area may be displayed in a coordinate format such as (x m, i , y m, i ), (x m, l , y m, l ).
- the first position determiner 14 performs an operation of comparing the reference map data and sensing data to determine a position of the master work robot 10.
- the sensing data includes data regarding a distance and an angle to an object.
- the first position determiner 14 may convert the reference map data in a grid form into data regarding distance and angle in order to compare the reference map data with the sensing data.
- positions represented by the coordinates of (x m, i , y m, i ) and (x m, l , y m, l ) in the reference map data are respectively ( ⁇ m, i , d).
- m, i ) and ( ⁇ m, l , d m, l ) can be converted into polar coordinate data, the polar coordinate data matching the data format of the sensing data.
- the first position determiner 14 may directly compare the converted reference map data and the sensing data, and determine the position of the master work robot 10 using the comparison result.
- the reference map data and the sensing data are not limited to grid and polar coordinates, respectively, and are not necessarily limited to converting grid-type data into polar coordinates in order to compare two types of data. Therefore, the reference map data and the sensing data may be represented by data in a form other than grid and polar coordinates, and the sensing data may be converted to correspond to the format of the reference map data to compare two types of data. It is possible.
- a plurality of grating regions may be understood as corresponding to respective pixels when expressed through a display device.
- the present disclosure is not limited thereto, and one grating region corresponds to a plurality of pixel assemblies. It may be.
- the reference point for polar coordinate transformation is not necessarily limited to the origin 0 as shown in FIG. 9.
- the first position determiner 14 converts the distance / angle data corresponding to the sensing data and the converted reference map data. The comparison may be performed to determine whether there is a matching data.
- a plurality of matching data may exist, and the first position determination unit 14 may improve the accuracy of position determination on the moving object by comparing the plurality of sensing data and the converted reference map data. have.
- the first position determiner 14 may determine the most reliable position as the position of the moving object by comparing each of the plurality of sensing data with the reference map data.
- the first position determiner 14 may search the reference map data corresponding to the first sensing data. As a result of the search, m reference map data corresponding to the first sensing data may exist, and the first position determiner 14 compares the second sensing data with the m reference map data. When this process is repeated, the position where the first to nth sensing data is finally obtained, that is, the position of the master work robot 10 can be detected.
- the first position determiner 14 may use the most recently acquired sensing data.
- positions a, b and c exemplarily show some positions present on the movement path of the master work robot 10, in which the master work robot 10 moves from position a to position c and the sensor is positioned. The case of looking at the direction from a to the position c is assumed.
- the sensor may acquire sensing data by performing a sensing operation, for example, a scanning operation, at positions a, b, and c.
- a sensing operation for example, a scanning operation
- the sensor can sense only a limited range, for example, the sensor is based on the front side.
- the total 180 ° range can be sensed by ⁇ 90 °, referring to FIG. 10, the amount of data of the sensing data acquired through the sensor at each of positions a, b, and c may be different from each other.
- the data amount of sensing data acquired at position a may be greater than the data amount of sensing data obtained at position c.
- the first position determiner 14 is obtained at the position b.
- the sensing data may be compared with the reference map data.
- the computation speed may be increased by comparing the sensing data obtained at the position b with the reference map data.
- the sensor acquires sensing data by continuously sensing, for example, scanning, and the first position determiner 14 continuously detects the correct position of the master work robot 10 by using the sensing data.
- using data acquired at the closest time to the current time may be a method of improving the accuracy of the position detection.
- FIG. 11 is a diagram illustrating a movement path of a master work robot according to an embodiment of the present invention.
- the movement path of the master work robot may include information regarding at least one sensing position and a sensing angle of the sensor.
- the master work robot senses an operation, for example, scanning using the sensor at a first point (x1, y1, ⁇ 1) to a seventh point (x7, y7, ⁇ 7). Perform the action.
- FIG. 11 illustrates some specific sensing positions at which the master work robot performs a sensing operation. This is to accurately determine the position of the master work robot.
- the master work robot may perform the sensing operation continuously while moving along the set movement path without specifying a specific sensing position.
- the sensing angle means a sensing angle of the sensor at each sensing position and can be expressed in degrees or radians.
- the magnitude of the sensing angle may be expressed based on the x-axis or based on the angle of the sensor when the sensing operation at the last sensing position ends.
- the master work robot stops at each of the sensing positions, and senses the surrounding space by rotating the sensor while stopped at the sensing position.
- the master work robot may perform the sensing operation continuously while moving along the set movement path without specifying a specific sensing position. Therefore, in this case, it can be understood that the operation of stopping at the sensing position is not performed.
- the sensing data acquired through the sensing operation with the reference map data, it may be determined whether the position of the master work robot matches the movement path.
- the master work robot moves along a set movement path and may perform an operation of displaying a specific mark or drawing a line at a corresponding position according to marking data. have.
- the present invention is not necessarily limited to the seven sensing positions, and the sensing positions vary according to positions of pillars, windows, and obstacles existing in the sensing target space. Can be changed.
- sensing may be difficult in the empty space, and thus the plurality of sensing positions and sensing angles may be set in consideration of the positions of the empty spaces.
- FIG. 12 is a diagram exemplarily illustrating a reference map acquired through a master work robot according to an embodiment of the present invention.
- FIG. 12 illustrates a reference map obtained through sensing data acquired by a sensor at a reference position, and reflection of a scan signal does not occur at a position where glass exists. It can be seen that normal sensing data is not obtained from the position of to the reference position.
- the sensing data is not normally obtained from the space behind the pillar. Therefore, when the reference map is generated through the sensing data acquired through the sensor, the position of the glass window and the position of the pillar or the obstacle may be roughly determined in the sensing target space.
- the scan distance may be increased according to the size of the sensing target space, and thus the accuracy may be lowered. It is preferable to use as reference data in setting the movement path, sensing position and sensing angle of the master work robot.
- the movement path, the sensing position, and the sensing angle of the master work robot are set to acquire accurate sensing data of the sensing target space, and in FIG. 9, the glass includes the reference position and the glass.
- the position and angle of maximum separation from the pillar may be set.
- FIG. 13 is a view schematically showing an autonomous working method according to an embodiment of the present invention.
- An autonomous work method is an autonomous work method using an autonomous work system including a master work robot and at least one slave work robot. Referring to FIG. 13, an information receiving step (S10) and sensing setting are performed. A step S20, a master position determination step S30, and a slave position determination step S40 are included.
- the information on the work target space is received.
- the work target space means a space in which the master work robot and the slave work robot perform work, and the information received in the information receiving step S10 is present in the drawing corresponding to the work target space, which exists in the work target space.
- Information on the location and size of walls, columns, windows, etc. in other words, may include information on the architectural and spatial elements of the work space.
- the master task robot and the slave task robot may receive information about a task to be performed in the work target space.
- the information on the work target space may include information on the allowable movement range of the master work robot and the slave work robot.
- the work target space may include a space where a wall, a pillar, a window, or the like is to be installed, and there may be a space to prevent the master work robot and the slave work robot from entering before the installation.
- the floor surface may be disconnected before the actual work is performed, and in some cases, the master work robot and the slave work robot may fall. Therefore, the information about the work target space may include information about the allowable movement range, so as to limit the movement range of the master work robot and the slave work robot.
- the information on the work target space may be a specific point, for example, the center location of the wall or column is displayed. This particular point may be used as a reference point when the master work robot and / or slave work robot move and / or work.
- the information receiving step (S10) may be connected to the sensor included in the master work robot wired or wireless, electrical or non-electrically connected to receive the data obtained from the sensor.
- the information receiving step (S10) may receive data on the work target space stored in the external storage medium.
- data about the work target space input from the input unit of the master work robot may be received.
- the master work robot may be electrically connected to a separate computing device to receive data about the work target space from the computing device.
- the sensor may measure the distance to the object, sense the shape of the object, or sense the movement of the master work robot.
- a sensor may include a sensor using a laser or using an acoustic wave, a light wave and / or a radio wave, an IMU sensor, a GPS sensor, and / or an image acquisition sensor capable of acquiring moving images and / or still images, such as a camera. It may include.
- the sensor includes a laser sensor
- an example of the laser sensor may include a rider (LiDAR) sensor.
- the master work robot may include at least one of these sensors, and the sensing accuracy may be improved by combining a plurality of different types of sensors. For example, by using a rider sensor as a laser sensor and further including an IMU sensor, the sensing accuracy of the work space can be improved by sensing the movement of the master work robot. It is also possible, optionally and / or additionally, to include a camera sensor to allow the camera sensor to photograph the work space, for example to determine the state and / or texture of a particular face of the work space, specifically the floor surface. This allows the user to set and / or calibrate the movement and / or work path of the master work robot and / or the slave work robot.
- a camera sensor to allow the camera sensor to photograph the work space, for example to determine the state and / or texture of a particular face of the work space, specifically the floor surface. This allows the user to set and / or calibrate the movement and / or work path of the master work robot and / or the slave work robot.
- a distance measuring sensor may measure the distance to a particular point, such as a wall or column. This may allow the measured position of a specific point present in the work target space to be reflected in setting and / or correcting the movement and / or work path of the master work robot and / or the slave work robot.
- the various sensor combinations described above do not necessarily need to be installed only on the master work robot, and some sensors are installed on the slave work robot, and the data is communicated with the master work robot, thereby allowing the master work robot and / or the work to be performed. Alternatively, the movement and / or work path of the slave work robot may be set and / or corrected.
- the master work robot may sense the surrounding space using the sensor while in a stationary state and / or while moving, and the position of the object in the surrounding space may be polarized using the information reflected by the signal output from the sensor. Can be obtained.
- the motor may rotate the sensor by a desired angle, for example, rotate 360 °, and the rotation direction of the sensor may be variously controlled as necessary.
- the senor may be controlled to rotate horizontally, move horizontally, tilt and / or vertically by a separate driving unit.
- the horizontal rotation, horizontal movement, tilt and / or vertical movement of the sensor may be controlled independently of each other, and a control signal for controlling the horizontal rotation, horizontal movement, tilt and / or vertical movement may also be generated independently so that the driver Can be provided.
- a movement path, a sensing position, and a sensing angle at the sensing position of the master work robot are set.
- the movement path is set, and an arbitrary point on the movement path is designated to set the designated point as the sensing position.
- the sensing position may be set to a plurality of positions if necessary according to the work target space.
- the sensor performs a sensing operation. At this time, the sensor is rotated according to the sensing angle set by the sensing setting step (S20).
- the sensing height may be adjusted, and in the sensing setting step S20, the sensing angle and the sensing height of the sensor may be set together at the set sensing position.
- the sensing position and the sensing angle may be set in consideration of characteristics of the work target space.
- the sensing position and the sensing angle may be arranged in an empty space in the work target space to a position and an angle at which a pillar or an obstacle may be sensed. Can be set.
- the sensing angle of the sensor in the moving path, the sensing position, and the sensing position may be set in consideration of the drawing.
- the master work robot may be understood as performing a sensing operation at a specific position on the movement path.
- the specific sensing position is designated to accurately determine the position of the master work robot.
- the specific position may be set to a finite number of positions, but is not limited thereto, and the specific position may be continuously moved while moving on the movement path.
- the sensing angle means a sensing angle of the sensor at each sensing position and can be expressed in degrees or radians.
- the size of the sensing angle may be expressed based on a specific coordinate axis, for example, the x-axis, or may be expressed based on the angle of the sensor when the sensing operation at the last sensing position ends.
- a motion signal may be sent to a plurality of driving units of the master work robot so as to set a movement path, a sensing position, and a sensing angle of the sensor.
- the master work robot is stopped at each of the sensing position, and in the state of stopping in the sensing position can rotate the sensor to sense the surrounding space.
- the master work robot may not stop at the sensing position, may move, and sense the surrounding space through the sensor.
- the position of the master work robot is determined by comparing the sensing data acquired at the sensing position with reference map data.
- the reference map data may be represented by coordinates of pixels included in an image frame, and a coordinate of a pixel corresponding to a position where an object exists may have a value different from that of a pixel corresponding to an empty position.
- the data obtained through the sensor may be obtained in the form of polar coordinates, and the position of the master work robot in the work target space may be determined by comparing the reference map data with the sensing data. .
- a specific point reflected in the reference map data for example, the center of the wall or the column and the sensed data may be compared.
- the reference map data may be converted into data in polar coordinates obtained through the sensor, and the converted data may be compared with the sensing data.
- the master position determination step (S30) may receive a position signal output from a transceiver installed at an arbitrary position, and determine the position of the master work robot from the position signal. When the position of the transceiver is determined, the master position determination step (S30) may determine the position of the master work robot based on the position of the transceiver. Alternatively, in the master position determining step S30, the position of the master work robot may be determined in consideration of the distance from the master work robot to the transceiver, the angle data, and the position information of the transceiver.
- the position of the marker installed at an arbitrary position may be sensed, and the position of the master work robot may be determined from the marker.
- the position of the master work robot may be reversely determined from the position where the position of the marker is sensed and / or the analysis of the sensed data.
- the operation performed in the master position determining step (S30) aims to determine the position of the master work robot as accurately as possible, and the transceiver and / or the marker is attached to any position of the work space, for example, a column or a wall. Can transmit the location signal and / or indicate the location.
- the position of the transceiver and / or the marker is not limited to any position within the sensing object space.
- the position of the master work robot can be tracked even if the transceiver and / or the marker are located outside the work target space.
- the master work robot may include a receiver capable of determining a position of a transceiver that has received the position signal and the received position signal and a distance and / or an angle to the transceiver, wherein the receiver comprises at least one
- the position of the master work robot may be determined in consideration of the position signal received from the transceiver.
- the transceiver may be configured through a device such as a signal sharer or a beacon, and may be used when it is not easy to determine the exact position of the master work robot by comparing the sensing data with the reference map data.
- the marker may display a specific color or shape or a predetermined number, and the receiver may determine the position of the master work robot by recognizing the color, shape or number. On the other hand, the marker may be displayed to be identified through a special device such as an ultraviolet camera.
- the position of the slave robot is determined.
- Various methods may be used to determine the position of the slave work robot in the slave position determination step (S40), and a method used to determine the position of the master work robot in the master position determination step (S30) may be applied.
- a position signal output from a transceiver installed at an arbitrary position may be received, and the position of the slave work robot may be determined from the position signal.
- the position of the slave work robot may be determined by sensing the position of the marker installed at an arbitrary position.
- a detailed method of determining the position of the slave work robot in the slave position determining step S40 is the same as the specific method of determining the position of the master work robot in the master position determining step S30, and thus, a detailed description thereof will be omitted.
- the position of the slave work robot may be determined in consideration of the positional information of the master work robot and the relative positional relationship between the slave work robot and the master work robot.
- the position information of the master work robot is received and the position of the slave work robot is determined in consideration of the received position and the distance and angle between the slave work robot and the master work robot. Can be.
- the master work robot may determine its own position through the master position determination step (S30), the position information of the master work robot may be provided to the slave work robot. In this case, if relative position information, for example, angle information between the master work robot and the slave work robot is obtained, the position of the slave work robot may be determined using the position information of the master work robot.
- the slave position determination step (S40) it may be provided in real time the position information of the master work robot from the master position determination step (S30). Since the master work robot and the slave work robot can continuously move in the work target space, when the position information of the master work robot is provided in real time, the position of the slave work robot can be more accurately determined.
- FIG. 14 is a view schematically showing an autonomous working method according to another embodiment of the present invention.
- an information receiving step S10, a sensing setting step S20, a master position determining step S30, a master position receiving step S41, a master Relative position determination step S42, and slave position determination step S43 In the information receiving step S10, the sensing setting step S20, the master position determining step S30, and the slave position determining step S43, the information receiving step S10 and the sensing setting step S20 described with reference to FIG. 12. ), Substantially the same operation as in the master position determination step (S30), and the slave position determination step (S40) is performed, so detailed description thereof will be omitted only in the overlapping contents.
- the master position receiving step (S41) the position information of the master work robot is received, and in the relative position determination step (S42) with the master, the distance and angle between the slave work robot and the master work robot are calculated.
- the slave work robot can measure the distance to the master work robot using a distance measuring unit and can also measure the distance to any wall.
- the master work robot can measure the distance to the wall using a sensor or the distance measurer provided in the slave work robot.
- the position of the slave work robot may be determined using the relative position obtained in the relative position determination step S42 with the master.
- the relative position may mean a distance between a master and slave work robot and an angle formed by the master and slave work robots, or may mean a distance away from a pair of walls of the master and slave work robots.
- 15 is a view schematically showing a method of autonomous operation according to another embodiment of the present invention.
- the information receiving step S100, the sensing setting step S200, the master position determining step S300, and the slave position determining step S600, the information receiving step S10 and the sensing setting step S20 described with reference to FIG. 13. It may be understood that substantially the same operations as in the master position determination step S30 and the slave position determination step S40 are performed.
- the master work robot displays the work information in the work target space.
- the slave task robot recognizes the task information and performs a task corresponding to the recognition result.
- the work information includes information about a work to be performed by the slave work robot in the work target space, and the slave work robot is marked, drilled, and welded in response to the work information. , Cutting, screwing, fastening, tightening, locking or punching may be performed.
- the marking may include displaying data using a pigment on the working surface, leaving scratches on the working surface, etching part of the working surface with a laser, and displaying data on the working surface such as a liner. have.
- the slave work robot may perform the mowing operation to display the data by cutting the grass.
- the slave work robot may perform a task of displaying a three-dimensional shape by pushing sand or blocks.
- the slave work robot may perform a 3D printing operation to print a three-dimensional shape.
- the slave work robot may perform a task of stacking an object such as a block in a three-dimensional shape.
- the slave work robot may perform a task of installing a specific device on a wall, a pillar, a floor, or a ceiling in the work target space.
- the job information may be displayed by a symbol that can be recognized by the slave work robot.
- the job information may be displayed by at least one of a barcode, a QR code, a number, or a letter.
- the job information may be displayed as a special photoresist that the work unit can recognize.
- the photoresist may not be directly identified by the naked eye, and may be recognized by the work unit 23.
- the work unit 23 may further include a sensing unit capable of recognizing a special photoresist.
- operation information display step S400 different work information may be displayed corresponding to each of the plurality of slave work robots.
- the plurality of slave work robots include a first robot and a second robot
- job information corresponding to the first robot and job information corresponding to the second robot may be mutually exchanged. Can be displayed separately.
- one master robot and one slave robot are matched one-to-one or one-to-many to display work information. You may.
- the position of the slave work robot may be determined using the position information included in the work information. Since the master work robot can determine its own position, the work information displayed in the work information display step S400 has location information on the corresponding location. Therefore, the job information display step (S400) may include the position information in the job information, and in the slave position determination step (S600) it is possible to determine the position of the slave work robot by recognizing the job information.
- the slave work robot may have information about which position to perform the work in advance, but may not be able to determine its own location, so the location information and the information previously included in the work information It can be used to compare and compare the results.
- the master work robot may display a separate mark corresponding to the moving path in the work target space while moving along the moving path.
- the master work robot may display a path corresponding to the movement path in the work space as a circle.
- the master work robot may move along the movement path, display a mark corresponding to the movement path, and perform a task of displaying the operation information.
- the slave work robot may move by following the master work robot by tracking the displayed path and / or mark, and if the work information is detected during the movement, the slave work robot may perform a work corresponding to the work information detected at the corresponding position. have.
- the master work robot may visually mark the path and / or mark or may be marked only by a special device.
- the master work robot displays the path and / or the marking through a method such as applying a photosensitive agent which is not visible to the naked eye, and the slave work robot is applied to the photosensitive agent applied using a device such as an imaging device such as an ultraviolet camera.
- the path and / or marker may be recognized by recognizing.
- the present invention is not limited thereto, and the paths and / or marks may be displayed to be visually seen. This allows the administrator to check the accuracy of the route and / or marking.
- Such paths and / or markers may be formed by a material that is automatically cleared over time after the job is finished, but is not necessarily limited thereto, and may be formed of a material that can be easily erased after the job is finished.
- the path and / or mark displayed by the master work robot may include location information.
- the master work robot may include the coordinate information of the point A at a specific point A on the path and / or mark.
- the route and / or marker may include information about the task information displayed in the work target space, for example, a C meter along the route and / or marker from the point B to a specific point B on the route. meter) can move to indicate that job information is displayed.
- the master work robot may perform various tasks as the slave work robot. Accordingly, the master work robot simultaneously performs a task and instructs the slave work robot to work, and accordingly, the master work robot and the slave work robot can divide the same work from each other or perform different work simultaneously. have.
- the present invention can be embodied as computer readable codes on a computer readable recording medium.
- the computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, and the like.
- the computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.
- functional programs, codes and code segments for implementing the present invention can be easily inferred by programmers in the art to which the present invention belongs.
- It can be used as an autonomous work system, a method using a plurality of work robot including a position determination function and a computer-readable recording medium.
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- Fuzzy Systems (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Orthopedic Medicine & Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
Abstract
자율 작업 시스템, 방법 및 컴퓨터 판독 가능한 기록매체가 제공된다. 본 발명의 일 실시예에 따른 자율 작업 시스템은, 마스터 작업 로봇 및 적어도 하나의 슬레이브 작업 로봇을 포함하는 자율 작업 시스템에 있어서, 상기 마스터 작업 로봇은, 작업 대상 공간에 대한 정보를 수신하는 데이터 수신부, 상기 작업 대상 공간을 센싱하는 센싱부, 상기 마스터 작업 로봇의 이동 경로, 센싱 위치 및 상기 센싱부의 센싱 각도를 설정하는 센싱 설정부 및 상기 센싱 위치에서의 상기 센싱부를 통해 획득된 센싱 데이터와 기준 맵 데이터를 비교하여 상기 마스터 작업 로봇의 위치를 판단하는 제1 위치 판단부를 포함하고, 상기 슬레이브 작업 로봇은, 상기 슬레이브 로봇의 위치를 판단하는 제2 위치 판단부를 포함한다.
Description
본 발명은 자율 작업 시스템, 방법 및 컴퓨터 판독 가능한 기록매체에 관한 것으로, 보다 구체적으로는 위치 판단 기능을 포함하는 복수의 작업 로봇을 이용하는 자율 작업 시스템, 방법 및 컴퓨터 판독 가능한 기록매체에 관한 것이다.
기술의 발전에 따라 인간의 역할을 기계가 대신하여 수행하는 영역이 점차 늘어나고 있다. 인간의 학습능력을 갖춘 프로그램이 등장하거나, 인간의 개입을 최소한으로 제한하는 자율 주행 차량 등이 그것에 해당한다.
스스로 자신의 위치를 파악하여 작업 현장에서 각종 작업을 수행하는 기계 내지는 로봇들이 실제로 적용되는 사례가 증가하고 있는데, 공간에서 기계 스스로 자신의 위치를 파악하기 위해서는 높은 복잡도를 갖는 고가의 장비가 필요하게 된다.
한편, 현장에서 다양한 작업을 신속하게 수행하기 위해서는 더 많은 장비를 이용하게 되는데 고가의 장비를 다수 사용함으로 인해 비용 증가의 문제가 발생할 수 있다.
따라서, 되도록 단순한 시스템을 이용하면서도 작업 수행의 정확도를 확보할 수 있는 방법이 필요하다.
본 발명은 복수의 작업 장비를 이용하여 작업을 수행하되 단순한 구성을 통해 높은 정확도와 효율을 보장할 수 있는 자율 작업 시스템, 방법 및 컴퓨터 판독 가능한 기록매체를 제공하는 것을 목적으로 한다.
본 발명의 일 실시예에 따른 자율 작업 시스템은, 마스터 작업 로봇 및 적어도 하나의 슬레이브 작업 로봇을 포함하는 자율 작업 시스템에 있어서, 상기 마스터 작업 로봇은, 작업 대상 공간에 대한 정보를 수신하는 데이터 수신부, 상기 작업 대상 공간을 센싱하는 센싱부, 상기 마스터 작업 로봇의 이동 경로, 센싱 위치 및 상기 센싱부의 센싱 각도를 설정하는 센싱 설정부 및 상기 센싱 위치에서의 상기 센싱부를 통해 획득된 센싱 데이터와 기준 맵 데이터를 비교하여 상기 마스터 작업 로봇의 위치를 판단하는 제1 위치 판단부를 포함하고, 상기 슬레이브 작업 로봇은, 상기 슬레이브 작업 로봇의 위치를 판단하는 제2 위치 판단부를 포함할 수 있다.
또한, 상기 제2 위치 판단부는 상기 마스터 작업 로봇의 위치 정보를 수신하고, 수신된 상기 위치와 상기 슬레이브 작업 로봇과 상기 마스터 작업 로봇 사이의 거리 및 각도를 고려하여 상기 슬레이브 작업 로봇의 위치를 판단할 수 있다.
또한, 상기 슬레이브 작업 로봇은 상기 마스터 작업 로봇까지의 거리 및 상기 작업 대상 공간의 특정 지점까지의 거리를 측정하기 위한 거리 측정부를 더 포함할 수 있다.
또한, 상기 제1 위치 판단부로부터 상기 마스터 작업 로봇의 위치 정보를 수신하는 위치 정보 관리부를 더 포함하고, 상기 제2 위치 판단부는 상기 위치 정보 관리부로부터 상기 마스터 작업 로봇의 위치 정보를 수신할 수 있다.
또한, 상기 제2 위치 판단부는 임의의 위치에 설치되는 송수신기로부터 출력되는 위치 신호를 수신하고, 상기 위치 신호로부터 상기 슬레이브 작업 로봇의 위치를 판단할 수 있다.
또한, 상기 마스터 작업 로봇은 상기 작업 대상 공간에 작업 정보를 표시하는 정보 표시부를 더 포함하고, 상기 슬레이브 작업 로봇은 상기 작업 정보를 인식하고 인식 결과에 대응하는 작업을 수행하는 작업부를 더 포함할 수 있다.
또한, 상기 작업 정보는 상기 작업 정보가 표시된 위치에 대응하는 위치 정보를 더 포함하고, 상기 제2 위치 판단부는 상기 위치 정보를 이용하여 상기 슬레이브 작업 로봇의 위치를 판단할 수 있다.
또한, 상기 작업 정보가 표시되는 위치는 상기 마스터 작업 로봇의 이동 경로 상에 존재할 수 있다.
또한, 상기 센싱 설정부는 상기 작업 대상 공간에 대응하는 기준 맵(Reference Map) 데이터를 고려하여 상기 작업 대상 공간을 센싱하기 위한 상기 센싱 위치를 설정할 수 있다.
또한, 상기 마스터 작업 로봇은, 임의의 기준위치에서 상기 센싱부를 통해 획득된 센싱 데이터로부터 상기 기준 맵을 생성하는 맵 생성부를 더 포함할 수 있다.
한편, 본 발명의 일 실시예에 따른 자율 작업 방법은, 마스터 작업 로봇 및 적어도 하나의 슬레이브 작업 로봇을 포함하는 자율 작업 시스템을 이용하는 자율 작업 방법으로서, 작업 대상 공간에 대한 정보를 수신하는 단계, 상기 마스터 작업 로봇의 이동 경로, 센싱 위치 및 상기 센싱 위치에서의 센싱 각도를 설정하는 단계, 상기 센싱 위치에서 획득된 센싱 데이터와 기준 맵 데이터를 비교하여 상기 마스터 작업 로봇의 위치를 판단하는 단계 및 상기 슬레이브 작업 로봇의 위치를 판단하는 단계를 포함할 수 있다.
또한, 상기 슬레이브 로봇의 위치를 판단하는 단계는, 상기 마스터 작업 로봇의 위치 정보를 수신하는 단계 및 상기 슬레이브 작업 로봇과 상기 마스터 작업 로봇 사이의 거리 및 각도를 산출하는 단계를 포함할 수 있다.
또한, 상기 슬레이브 로봇의 위치를 판단하는 단계에서는, 임의의 위치에 설치되는 송수신기로부터 출력되는 위치 신호를 수신하고, 상기 위치 신호로부터 상기 슬레이브 작업 로봇의 위치를 판단할 수 있다.
또한, 상기 마스터 작업 로봇이 상기 작업 대상 공간에 작업 정보를 표시하는 단계 및 상기 슬레이브 작업 로봇이 상기 작업 정보를 인식하고 인식 결과에 대응하는 작업을 수행하는 단계를 더 포함할 수 있다.
또한, 상기 작업 정보는 상기 작업 정보가 표시된 위치에 대응하는 위치 정보를 더 포함하고, 상기 슬레이브 작업 로봇의 위치를 판단하는 단계에서는 상기 위치 정보를 이용하여 상기 슬레이브 작업 로봇의 위치를 판단할 수 있다.
한편, 본 발명에 따른 자율 작업 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체가 제공될 수 있다.
본 발명은 복수의 작업 장비를 이용하여 작업을 수행하되 단순한 구성을 통해 높은 정확도와 효율을 보장할 수 있는 자율 작업 시스템, 방법 및 컴퓨터 판독 가능한 기록매체를 제공할 수 있다.
도 1은 본 발명에 따른 자율 작업 시스템이 적용되는 작업 로봇을 예시적으로 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른 자율 작업 시스템의 구성을 개략적으로 나타내는 도면이다.
도 3은 본 발명의 다른 실시예에 따른 슬레이브 작업 로봇의 구성을 개략적으로 나타내는 도면이다.
도 4는 본 발명의 다른 실시예에 따른 자율 작업 시스템의 구성을 개략적으로 나타내는 도면이다.
도 5는 본 발명의 또 다른 실시예에 따른 자율 작업 시스템의 구성을 개략적으로 나타내는 도면이다.
도 6은 본 발명의 다른 실시예에 따른 자율 작업 시스템의 구성을 개략적으로 나타내는 도면이다.
도 7은 본 발명의 다른 실시예에 따른 마스터 작업 로봇의 구성을 개략적으로 나타내는 도면이다.
도 8은 마스터 작업 로봇과 슬레이브 작업 로봇의 상대적 위치를 통해 슬레이브 작업 로봇의 위치를 산출하는 방법을 예시적으로 나타내는 도면이다.
도 9는 본 발명에 따른 자율 작업 시스템이 적용되는 작업 로봇의 구성을 예시적으로 나타내는 도면이다.
도 10은 마스터 작업 로봇의 위치를 판단하기 위해 기준 맵 데이터와 스캔 데이터를 비교하는 데이터 변환 과정을 예시적으로 나타내는 도면이다.
도 11은 본 발명의 일 실시예에 따른 마스터 작업 로봇의 이동경로를 예시적으로 나타내는 도면이다.
도 12는 본 발명의 일 실시예에 따른 마스터 작업 로봇을 통해 획득되는 기준 맵을 예시적으로 나타내는 도면이다.
도 13은 본 발명의 일 실시예에 따른 자율 작업 방법을 개략적으로 나타내는 도면이다.
도 14는 본 발명의 다른 실시예에 따른 자율 작업 방법을 개략적으로 나타내는 도면이다.
도 15는 본 발명의 또 다른 실시예에 따른 자율 작업 방법을 개략적으로 나타내는 도면이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 설명되는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 아래에서 제시되는 실시예들로 한정되는 것이 아니라, 서로 다른 다양한 형태로 구현될 수 있고, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 아래에 제시되는 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우, 그 상세한 설명을 생략한다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 설명되는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 아래에서 제시되는 실시예들로 한정되는 것이 아니라, 서로 다른 다양한 형태로 구현될 수 있고, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 아래에 제시되는 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우, 그 상세한 설명을 생략한다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
도 1은 본 발명에 따른 자율 작업 시스템이 적용되는 작업 로봇을 예시적으로 나타내는 도면이다.
본 발명에 따른 자율 작업 시스템은 복수의 작업 로봇을 이용하여 작업 공간에서 다양한 작업을 수행할 수 있다. 기본적으로 상기 복수의 작업 로봇은 작업 공간에서 자신의 위치를 판단할 수 있고, 자신이 작업을 수행할 위치에서 자신에게 할당된 작업을 수행할 수 있다.
도 1을 참조하면, 본 발명에 따른 자율 작업 시스템은 복수의 작업 로봇을 통해 구현될 수 있다. 상기 복수의 작업 로봇은 적어도 하나의 마스터 작업 로봇(Master)과 적어도 하나의 슬레이브 작업 로봇(Slave)을 포함할 수 있다. 상기 마스터 작업 로봇은 작업 대상 공간에서 스스로 자신의 위치를 판단할 수 있으며, 상기 슬레이브 작업 로봇이 수행할 작업에 대한 정보를 표시할 수 있다.
상기 슬레이브 작업 로봇은 상기 마스터 작업 로봇의 위치를 바탕으로 자신의 위치를 판단할 수 있고, 상기 마스터 작업 로봇이 표시한 정보를 분석하여 자신이 수행할 작업을 인식하고 인식된 작업을 수행할 수 있다.
본 명세서에서는 작업 로봇으로 명명하도록 하나, 로봇(robot)은 발명의 설명만을 위해 사용할 뿐 본 발명의 권리범위가 반드시 로봇이라는 용어에 의해 한정되는 것은 아니다.
상기 마스터 작업 로봇과 슬레이브 작업 로봇은 구동력을 제공하는 구동 장치를 포함하여 작업 공간에서 자유롭게 이동할 수 있고, 지상뿐만 아니라 공중 및 수중에서도 이동 가능한 것으로 이해할 수 있다.
한편, 도 1에는 하나의 마스터 작업 로봇과 두 개의 슬레이브 작업 로봇이 도시되어 있으나, 이는 설명을 위한 예시에 불과할 뿐 특정 개수로 본 발명의 권리범위가 제한되는 것은 아니다.
도 2는 본 발명의 일 실시예에 따른 자율 작업 시스템의 구성을 개략적으로 나타내는 도면이다.
도 2를 참조하면, 본 발명의 일 실시예에 따른 자율 작업 시스템(100)은 적어도 하나의 마스터 작업 로봇(10) 및 적어도 하나의 슬레이브 작업 로봇(20)을 포함한다. 한편, 마스터 작업 로봇(10)은 데이터 수신부(11), 센싱부(12), 센싱 설정부(13) 및 제1 위치 판단부(14)를 포함하고, 슬레이브 작업 로봇(20)은 제2 위치 판단부(21)를 포함할 수 있다.
데이터 수신부(11)는 작업 대상 공간에 대한 정보를 수신한다. 상기 작업 대상 공간은 마스터 작업 로봇(10) 및 슬레이브 작업 로봇(20)이 작업을 수행하는 공간을 의미하며, 데이터 수신부(11)가 수신하는 정보는 상기 작업 대상 공간에 대응하는 도면, 상기 작업 대상 공간에 존재하는 벽, 기둥, 창문 등의 위치와 크기에 관한 정보, 요컨대 상기 작업 대상 공간의 건축적, 공간적 요소에 관한 정보를 포함할 수 있다. 또한, 데이터 수신부(11)는 마스터 작업 로봇(10)과 슬레이브 작업 로봇(20)이 상기 작업 대상 공간에서 수행해야 하는 작업(task)에 관한 정보를 수신할 수 있다.
한편, 상기 작업 대상 공간에 대한 정보는 마스터 작업 로봇(10) 및 슬레이브 작업 로봇(20)의 허용 이동 범위에 관한 정보를 포함할 수 있다. 예컨대, 상기 작업 대상 공간은 벽, 기둥, 창문 등이 설치되어야 하는 공간을 포함할 수 있으며, 설치 이전에는 마스터 작업 로봇(10) 및 슬레이브 작업 로봇(20)으로 하여금 진입하지 못하도록 방지해야 하는 공간이 존재할 수 있다. 벽이 세워지거나, 엘리베이터가 설치되어야 하는 공간은 실제 작업이 이루어지기 전에는 바닥면이 단절되어 있을 수 있으며, 경우에 따라서는 마스터 작업 로봇(10) 및 슬레이브 작업 로봇(20)이 추락할 위험이 있을 수 있다. 따라서, 상기 작업 대상 공간에 대한 정보는 상기 허용 이동 범위에 관한 정보를 포함하여, 마스터 작업 로봇(10) 및 슬레이브 작업 로봇(20)의 이동 범위를 제한하도록 할 수 있다.
데이터 수신부(11)는 센싱부(12)와 유선 또는 무선, 전기적 또는 비전기적으로 연결되어 센싱부(12)로부터 획득되는 데이터를 수신할 수 있다. 선택적으로, 데이터 수신부(11)는 USB 포트, CD-ROM 등과 같은 외부 저장매체가 연결될 수 있는 단자를 포함하여, 상기 외부 저장매체에 저장된 상기 작업 대상 공간에 대한 데이터를 수신할 수도 있다. 선택적으로, 상기 데이터 수신부(11)는 도시되지 않은 별도의 입력부와 전기적으로 연결되어, 입력부로부터 입력되는 상기 작업 대상 공간에 대한 데이터를 수신할 수 있다. 선택적으로, 상기 데이터 수신부(11)는 별도의 컴퓨팅 장치와 전기적으로 연결되어 컴퓨팅 장치로부터 상기 작업 대상 공간에 대한 데이터를 수신할 수 있다.
센싱부(12)는 상기 작업 대상 공간을 센싱한다. 센싱부(12)는 적어도 하나의 센서 및 상기 센서의 회전 동작을 제어하는 모터와 같은 구동부를 포함할 수 있으나, 반드시 이에 제한되는 것은 아니며, 상기 센서의 센싱 범위가 360°인 경우에는 상기 모터와 같은 구동부가 포함되지 않을 수 있다. 한편, 도 2에 도시되는 마스터 작업 로봇(10)은 데이터 수신부(11), 센싱부(12), 센싱 설정부(13) 및 제1 위치 판단부(14)를 모두 포함하는 것으로 도시되어 있으나, 센싱 설정부(13) 및 제1 위치 판단부(14)는 마스터 작업 로봇(10)과 이격된 위치에 독립적으로 존재할 수도 있다.
한편, 상기 센서는 상기 작업 대상 공간을 센싱할 수 있는 다양한 종류의 센서가 사용될 수 있는 데, 예컨대 사물까지의 거리를 측정하거나 사물의 형태를 센싱하거나 마스터 작업 로봇(10)의 이동을 센싱할 수 있다. 이러한 센서는, 레이저를 이용하거나 음파, 광파 및/또는 전파를 이용하는 센서, IMU 센서, GPS 센서를 포함할 수 있으며, 및/또는 카메라와 같이 동영상 및/또는 정지 영상를 취득할 수 있는 영상 취득 센서를 포함할 수 있다. 상기 센서가 레이저 센서를 포함하는 경우 상기 레이저 센서의 일 예로서 라이더(LiDAR) 센서가 포함될 수 있다.
센싱부(12)는 이러한 센서를 적어도 하나 이상 포함할 수 있으며, 다른 종류의 복수의 센서를 조합함으로써 센싱 정밀도를 향상시킬 수 있다. 예컨대 레이저 센서로서 라이더 센서를 사용하고, IMU 센서를 더 포함해 마스터 작업 로봇(10)의 움직임을 센싱함으로써 작업 대상 공간에 대한 센싱 정밀도를 향상시킬 수 있다. 또한, 선택적 및/또는 부가적으로 카메라 센서를 포함해, 카메라 센서로 하여금 작업 대상 공간을 촬영하도록 할 수 있는 데, 예컨대 작업 대상 공간의 특정 면, 구체적으로 바닥면에 대한 상태 및/또는 질감을 촬영하고 이를 통해 마스터 작업 로봇(10) 및/또는 슬레이브 작업 로봇(20)의 이동 및/또는 작업 경로를 설정 및/또는 보정하도록 할 수 있다. 또한, 선택적 및/또는 부가적으로 거리 측정 센서를 포함해, 특정 포인트, 예컨대 벽이나 기둥까지의 거리를 측정할 수 있다. 이로 인해 상기 작업 대상 공간에 존재하는 특정 포인트의 계측된 위치를 마스터 작업 로봇(10) 및/또는 슬레이브 작업 로봇(20)의 이동 및/또는 작업 경로를 설정 및/또는 보정하는 데에 반영하도록 할 수 있다. 상기와 같은 센싱부(12)의 다양한 센서 조합은 반드시 마스터 작업 로봇(10)에만 설치될 필요는 없으며, 센싱부(12)를 구성하는 일부 센서는 슬레이브 작업 로봇(20)에 설치되고, 그 데이터가 마스터 작업 로봇(10)과 통신되도록 함으로써 작업 전 및/또는 작업 도중에 마스터 작업 로봇(10) 및/또는 슬레이브 작업 로봇(20)의 이동 및/또는 작업 경로를 설정 및/또는 보정하도록 할 수 있다. 이러한 센싱부의 구성은 본 명세서의 모든 실시예들에 적용될 수 있다.
마스터 작업 로봇(10)은 상기 센서를 이용하여 주변 공간을 센싱할 수 있으며, 상기 센서에서 출력된 신호가 반사되는 정보를 이용하여 주변 공간에 있는 사물의 위치를 극좌표 형식으로 획득할 수 있다. 상기 모터는 상기 센서를 원하는 각도만큼 회전할 수 있도록 하며, 예컨대 360˚ 회전하도록 할 수 있다. 상기 센서의 회전 방향은 필요에 따라 다양하게 제어될 수 있다.
한편, 상기 센서는 별도의 구동부에 의하여 수평 회전, 수평 이동, 틸트 및/또는 수직 이동이 제어될 수 있다. 상기 센서의 수평 회전, 수평 이동, 틸트 및/또는 수직 이동은 서로 독립적으로 제어될 수 있으며, 상기 수평 회전, 수평 이동, 틸트 및/또는 수직 이동을 제어하기 위한 제어 신호 또한 독립적으로 생성되어 상기 구동부에 제공될 수 있다.
센싱 설정부(13)는 마스터 작업 로봇(10)의 이동 경로, 센싱 위치 및 센싱부(12)의 센싱 각도를 설정할 수 있다. 구체적으로, 센싱 설정부(13)는 상기 이동 경로를 설정하고, 상기 이동 경로 상의 임의의 지점을 지정하여 지정된 상기 지점을 센싱 위치로 설정한다. 그리고, 상기 센싱 위치는 상기 작업 대상 공간에 따라 필요한 경우 복수 개의 위치로 설정될 수 있다. 이에 대응하여 마스터 작업 로봇(10)이 상기 센싱 위치에 도달하면 상기 센서는 센싱 동작, 예를 들면 스캐닝 동작을 수행한다. 그리고 이때, 상기 센서는 센싱 설정부(13)에 의해 설정된 센싱 각도에 따라 회전하게 된다.
한편, 본 발명의 다른 실시예에서 상기 센서는 센싱 높이가 조절될 수 있으며, 센싱 설정부(13)는 설정된 센싱 위치에서 상기 센서의 센싱 각도 및 센싱 높이를 함께 설정할 수 있다. 그리고, 상기 센싱 위치와 센싱 각도는 상기 작업 대상 공간의 특성을 고려하여 설정될 수 있다.
또한, 빛을 반사하지 않고 투과하는 등, 센싱 데이터를 획득하기 어려운 경우, 상기 센싱 위치와 센싱 각도는 상기 작업 대상 공간 내의 비어있는 공간에 배치되어 기둥이나 장애물 등을 센싱할 수 있는 위치와 각도로 설정될 수 있다.
한편, 상기 작업 대상 공간의 도면이 존재하는 경우, 센싱 설정부(13)는 상기 도면을 고려하여 상기 이동 경로, 센싱 위치 및 센싱 위치에서의 상기 센서의 센싱 각도를 설정할 수 있다.
마스터 작업 로봇(10)은 상기 이동 경로 상에서 특정한 위치에서 센싱 동작을 수행하는 것으로 이해할 수 있다. 그리고, 상기 특정한 센싱 위치가 지정되는 것은 마스터 작업 로봇(10)의 위치를 정확하게 파악하기 위함이다.
상기 특정한 위치는 유한한 개수의 위치로 설정될 수 있으나, 반드시 이에 제한되는 것은 아니며 상기 이동 경로 상에서 이동하며 연속적으로 센싱 동작을 수행할 수도 있다.
한편, 상기 센싱 각도는 각각의 센싱 위치에서 상기 센서의 센싱 각도를 의미하며 Degree 또는 Radian 단위로 표현 가능하다. 그리고, 상기 센싱 각도의 크기는 특정 좌표축, 예컨대 x축을 기준으로 표현되거나, 직전 센싱 위치에서의 센싱 동작이 종료된 시점에서 상기 센서의 각도를 기준으로 표현될 수 있다.
이처럼 마스터 작업 로봇(10)의 이동 경로, 센싱 위치 및 센싱부(12)의 센싱 각도를 설정하도록 상기 센싱 설정부는 마스터 작업 로봇(10)의 복수의 구동부에 동작 신호를 보낼 수 있다.
본 발명의 일 실시예에서, 각각의 상기 센싱 위치에서 마스터 작업 로봇(10)은 정지하며, 상기 센싱 위치에 정지한 상태에서 상기 센서를 회전시켜 주변 공간을 센싱, 예를 들면 스캐닝 할 수 있다. 또는, 본 발명의 다른 실시예에서 마스터 작업 로봇(10)은 상기 센싱 위치에서 정지하지 않을 수 있으며, 이동하며 상기 센서를 통해 주변 공간을 센싱, 예를 들면 스캐닝 할 수 있다. 제1 위치 판단부(14)는 상기 복수의 센싱 위치에서 센싱부(12)를 통해 획득된 센싱 데이터와 기준 맵 데이터를 비교하여 마스터 작업 로봇(10)의 위치를 판단한다.
상기 기준 맵 데이터는 이미지 프레임에 포함되는 픽셀의 좌표로 표현될 수 있으며, 물체가 존재하는 위치에 대응하는 픽셀의 좌표는 비어있는 위치에 대응하는 픽셀의 좌표와 다른 값을 가질 수 있다. 앞서 설명한 바와 같이, 상기 센서를 통해 획득되는 데이터는 극좌표 형태로 획득될 수 있으며 상기 기준 맵 데이터와 상기 센싱 데이터를 비교하면, 상기 작업 대상 공간 내에서의 마스터 작업 로봇(10)의 위치를 판단할 수 있다.
보다 구체적으로, 제1 위치 판단부(14)는 상기 기준 맵 데이터를 상기 센서를 통해 획득되는 극좌표 형태의 데이터로 변환하고, 변환된 데이터와 상기 센싱 데이터를 비교할 수 있다.
*다른 실시예에서, 제1 위치 판단부(14)는 임의의 위치에 설치되는 송수신기(미도시)로부터 출력된 위치 신호를 수신하고, 상기 위치 신호로부터 상기 마스터 작업 로봇의 위치를 판단할 수 있다. 상기 송수신기의 위치가 결정되면 상기 송수신기는 자신의 위치를 기준으로 하여 마스터 작업 로봇(10)의 위치를 판단하고, 판단된 위치 정보를 제1 위치 판단부(14)에 제공할 수 있다. 이러한 송수신기는 실내에 설치되어 마스터 작업 로봇과 교신함으로써 마스터 작업 로봇(10)의 위치 판단에 도움을 줄 수 있다. 다른 예로서, 상기 송수신기는, 예컨대 건물의 네 모서리에 설치되어 GPS 신호를 수신함으로써 건물의 좌표값을 인식한 후, 그 값을 바탕으로 새로운 신호를 송신하여 마스터 작업 로봇(10)의 위치 판단에 도움을 줄 수 있다.
또는, 제1 위치 판단부(14)가 마스터 작업 로봇(10)으로부터 상기 송수신기까지의 거리, 각도 데이터 및 상기 송수신기의 위치 정보를 고려하여 마스터 작업 로봇(10)의 위치를 판단하는 것도 가능할 것이다.선택적으로, 제1 위치 판단부(14)는 임의의 위치에 설치되는 마커(미도시)의 위치를 센싱하고, 상기 마커로부터 상기 마스터 작업 로봇의 위치를 판단할 수 있다. 예컨대 제1 위치 판단부(14)는 상기 마커의 위치를 센싱한 위치 및/또는 센싱한 데이터의 분석으로부터 역으로 마스터 작업 로봇(10)의 위치를 판단할 수 있다.
제1 위치 판단부(14)가 수행하는 동작은 마스터 작업 로봇(10)의 위치를 최대한 정확하게 판단하는 것을 목적으로 하며, 상기 송수신기 및/또는 마커는 상기 작업 대상 공간의 임의의 위치, 예컨대 기둥 또는 벽면에 부착되어 상기 위치 신호를 송신 및/또는 위치를 표시할 수 있다.
다만, 상기 송수신기 및/또는 마커의 위치가 상기 센싱 대상 공간의 내부의 임의의 위치로 한정되는 것은 아니다. 예컨대, 상기 작업 대상 공간이 오픈된 공간인 경우에는 상기 송수신기 및/또는 마커가 상기 작업 대상 공간의 외부에 위치하더라도 마스터 작업 로봇(10)의 위치를 추척할 수 있다.
마스터 작업 로봇(10)은 상기 위치 신호를 수신하여 수신한 상기 위치 신호를 송신한 송수신기의 위치 및 상기 송수신기까지의 거리 및/또는 각도를 판단할 수 있는 수신기(미도시)를 포함할 수 있으며, 상기 수신기는 적어도 하나의 송수신기로부터 수신한 위치 신호를 고려하여 마스터 작업 로봇(10)의 위치를 판단할 수 있다.
상기 송수신기는 신호 공유기 또는 비콘(beacon)을 통해 구성될 수 있으며, 상기 센싱 데이터와 기준 맵 데이터의 비교를 통해 마스터 작업 로봇(10)의 정확한 위치를 판단하기 용이하지 않은 경우에 사용될 수 있다.
상기 마커는 특정한 색상이나 모양 또는 미리 결정된 숫자를 표시할 수 있으며, 마스터 작업 로봇(10)은 상기 색상, 모양 또는 숫자를 인식할 수 있는 인식 수단을 포함함으로써 상기 마스터 작업 로봇의 위치를 판단할 수 있다. 한편, 상기 마커는 자외선 카메라와 같은 특수한 장치를 통해 식별 가능하도록 표시될 수 있다.
한편, 슬레이브 작업 로봇(20)의 제2 위치 판단부(21)는 슬레이브 작업 로봇(20)의 위치를 판단한다. 제2 위치 판단부(21)가 슬레이브 작업 로봇(20)의 위치를 판단하기 위해서 다양한 방법을 사용할 수 있는데, 제1 위치 판단부(14)가 마스터 작업 로봇(10)의 위치를 판단하기 위해 사용하는 방법이 적용될 수 있다. 예컨대, 제2 위치 판단부(21)는 임의의 위치에 설치되는 송수신기로부터 출력되는 위치 신호를 수신하고, 상기 위치 신호로부터 슬레이브 작업 로봇(20)의 위치를 판단할 수 있다. 선택적으로 제2 위치 판단부(21)는 임의의 위치에 설치되는 마커의 위치를 센싱함으로써 슬레이브 작업 로봇(20)의 위치를 판단할 수 있다. 상기 제2 위치 판단부(21)가 슬레이브 작업 로봇(20)의 위치를 판단하는 구체적인 방법은 제1 위치 판단부(14)가 마스터 작업 로봇(10)의 위치를 판단하는 구체적인 방법과 동일하므로, 상세한 설명은 생략한다.
또는, 제2 위치 판단부(21)는 마스터 작업 로봇(10)의 위치 정보와 슬레이브 작업 로봇(20)과 마스터 작업 로봇(10)의 상대적인 위치 관계를 고려하여 슬레이브 작업 로봇(20)의 위치를 판단할 수도 있다.
예컨대, 제2 위치 판단부(21)는 마스터 작업 로봇(10)의 위치 정보를 수신하고, 수신된 상기 위치와 슬레이브 작업 로봇(20)과 마스터 작업 로봇(10) 사이의 거리 및 각도를 고려하여 슬레이브 작업 로봇(20)의 위치를 판단할 수 있다.
마스터 작업 로봇(10)은 제1 위치 판단부(14)를 통해 스스로 자신의 위치를 판단할 수 있고, 마스터 작업 로봇(10)의 위치 정보는 슬레이브 작업 로봇(20)에 제공될 수 있다. 이때, 마스터 작업 로봇(10)과 슬레이브 작업 로봇(20) 사이의 상대적 위치 정보, 예컨대 각도 정보가 얻어진다면 마스터 작업 로봇(10)의 위치 정보를 이용하여 슬레이브 작업 로봇(20)의 위치를 판단할 수 있다.
한편, 제2 위치 판단부(21)는 제1 위치 판단부(14)로부터 마스터 작업 로봇(10)의 위치 정보를 실시간으로 제공받을 수 있다. 마스터 작업 로봇(10)과 슬레이브 작업 로봇(20)은 상기 작업 대상 공간에서 지속적으로 움직일 수 있으므로 마스터 작업 로봇(10)의 위치 정보가 실시간으로 제공될 경우에는 슬레이브 작업 로봇(20)의 위치를 보다 정확하게 판단할 수 있다.
이어지는 도면을 참조하여 제2 위치 판단부(21)가 슬레이브 작업 로봇(20)의 위치를 판단하는 방법의 일 예를 보다 구체적으로 설명하도록 한다.
도 3은 본 발명의 다른 실시예에 따른 슬레이브 작업 로봇의 구성을 개략적으로 나타내는 도면이다.
도 3을 참조하면, 본 발명의 다른 실시예에 따른 슬레이브 작업 로봇(20)은 제2 위치 판단부(21)와 거리 측정부(22)를 포함한다. 제2 위치 판단부(21)는 슬레이브 작업 로봇(20)의 위치를 판단하는데, 이때 거리 측정부(22)에서 측정한 거리 정보를 이용할 수 있다.
예컨대, 거리 측정부(22)는 슬레이브 작업 로봇(20)으로부터 마스터 작업 로봇(10)까지의 거리를 측정하거나, 상기 작업 대상 공간의 특정 지점까지의 거리를 측정할 수 있다. 또한, 거리 측정부(22)는 슬레이브 작업 로봇(20)과 마스터 작업 로봇(10) 사이의 각도를 더 측정할 수 있다.
거리 측정부(22)는 거리를 측정하기 위해 레이저 방식을 이용하거나 GPS 방식을 이용할 수 있으며, 통상의 기술자가 적용 가능한 어떠한 방식이라도 이용될 수 있다.
슬레이브 작업 로봇(20)과 마스터 작업 로봇(10) 사이의 각도를 측정하기 위해서는 임의의 기준점을 설정하고 상기 기준점과 거리 측정부(22)가 지향하는 방향 사이의 각도를 0°로 정의한 이후에, 거리 측정부(22)가 마스터 작업 로봇(10)의 특정한 위치를 지향할 때의 각도를 측정할 수 있다. 따라서, 상기 특정한 위치는 마스터 작업 로봇(10)에 포함되는 상기 센서에 대응하는 위치로 설정되는 것이 바람직하다.
또는, 마스터 작업 로봇(10)과 슬레이브 작업 로봇(20)이 각각 상기 작업 대상 공간의 벽으로부터 이격된 거리, 마스터 작업 로봇(10)과 슬레이브 작업 로봇(20) 사이의 거리를 이용하여 상기 각도를 측정하는 방법도 적용할 수 있다.
한편, 거리 측정부(22)가 마스터 작업 로봇(10)까지의 거리를 측정하는 시점(time)과 제1 위치 판단부(14)로부터 마스터 작업 로봇(10)의 위치 정보가 제공되는 시점(time)은 서로 동기화(syncronization)가 이루어지는 것이 바람직하다. 즉, 마스터 작업 로봇(10)의 위치 정보와 슬레이브 작업 로봇(20)으로부터 마스터 작업 로봇(10)까지의 거리가 동일한 시점에 획득됨으로써 제2 위치 판단부(21)가 슬레이브 작업 로봇(20)의 위치를 정확하게 획득하도록 할 수 있다.
도 4는 본 발명의 다른 실시예에 따른 자율 작업 시스템의 구성을 개략적으로 나타내는 도면이다.
도 4를 참조하면, 본 발명의 다른 실시예에 따른 자율 작업 시스템(200)은 마스터 작업 로봇(10), 슬레이브 작업 로봇(20) 및 위치 정보 관리부(30)를 포함한다. 마스터 작업 로봇(10) 및 슬레이브 작업 로봇(20)은 도 2를 참조로 하여 설명한 마스터 작업 로봇(10) 및 슬레이브 작업 로봇(20)과 실질적으로 동일한 구성을 포함하므로, 중복되는 내용에 한하여 구체적인 설명은 생략하도록 한다.
위치 정보 관리부(30)는 제1 위치 판단부(14)로부터 마스터 작업 로봇(10)의 위치 정보를 수신하고, 제2 위치 판단부(21)는 위치 정보 관리부(30)로부터 마스터 작업 로봇(10)의 위치 정보를 수신한다.
앞선 도면들을 참조로 하여 설명한 바와 같이, 제2 위치 판단부(21)는 마스터 작업 로봇(10)의 위치 정보를 참조하여 슬레이브 작업 로봇(20)의 위치를 판단할 수 있는데, 위치 정보 관리부(30)는 제1 위치 판단부(14)로부터 수신한 마스터 작업 로봇(10)의 위치 정보를 제2 위치 판단부(21)에 제공함으로써, 제2 위치 판단부(21)가 슬레이브 작업 로봇(20)의 위치를 판단하는데 참조할 수 있도록 한다.
위치 정보 관리부(30)와 제1 및 제2 위치 판단부(14, 21) 사이의 통신은 유선 통신, 무선 통신 등 어떠한 통신 방법이라도 적용 가능하며, 제2 위치 판단부(21)가 현재 슬레이브 작업 로봇(20)의 위치를 정확하게 판단할 수 있도록 마스터 작업 로봇(10)의 위치 정보는 실시간으로 제2 위치 판단부(21)에 제공되는 것이 바람직하다.
도 5는 본 발명의 또 다른 실시예에 따른 자율 작업 시스템의 구성을 개략적으로 나타내는 도면이다.
도 5를 참조하면, 본 발명의 또 다른 실시예에 따른 자율 작업 시스템(300)은 마스터 작업 로봇(10) 및 슬레이브 작업 로봇(20)을 포함하고, 마스터 작업 로봇(10)은 정보 표시부(15)를 더 포함하고, 슬레이브 작업 로봇(20)은 작업부(23)를 더 포함할 수 있다.
정보 표시부(15)는 상기 작업 대상 공간의 적어도 일부에 작업 정보를 표시하고, 작업부(23)는 상기 작업 정보를 인식하고 인식 결과에 대응하는 작업을 수행한다. 상기 작업 정보는 상기 작업 대상 공간에서 슬레이브 작업 로봇(20)이 수행해야 하는 작업에 관한 정보를 포함하는 것으로, 작업부(23)는 상기 작업 정보에 대응하여 마킹(marking), 드릴링(drilling), 용접(welding), 커팅(cutting), 나사 작업(screwing), 잠금 작업(fastening), 조임 작업(tightening), 체결 작업(locking) 또는 펀칭(punching) 등의 작업을 수행할 수 있다. 상기 마킹은, 작업면에 안료를 이용하여 데이터를 표시하는 것, 작업면에 스크래치를 남기는 것, 레이저로 작업면을 일부 식각하는 것, 라인기 등 작업면에 데이터를 표시하는 것을 모두 포함할 수 있다. 따라서, 작업부(23)는 마킹, 드릴링, 용접, 커팅, 나사 작업, 조임 작업, 묶는 작업, 체결 작업 또는 펀칭을 수행할 수 있도록 마킹 유닛, 드릴, 용접 유닛, 커팅 유닛, 나사 작업 유닛, 잠금 작업 유닛, 조임 작업 유닛, 체결 작업 유닛 및 펀칭 유닛과 같은 다양한 툴 유닛(tool unit)을 더 포함할 수 있다.
선택적으로, 상기 작업부(23)는 바닥면에 잔디가 심어져 있는 경우 잔디를 깎음으로써 상기 데이터를 표시할 수도 있도록 예초 유닛을 포함할 수 있다.
선택적으로, 상기 작업부(23)는 모래나 블록을 밀어 입체적 형상을 표시할 수 있도록 플레이트 유닛을 포함할 수 있다.
선택적으로 상기 작업부(23)는 입체적 형상을 프린팅할 수 있도록 3D 프린팅 유닛을 포함할 수 있다.
선택적으로 상기 작업부(23)는 블록과 같은 물체를 입체적 형상으로 쌓을 수 있는 아암 유닛을 포함할 수 있다.
선택적으로 상기 작업부(23)는, 상기 작업 대상 공간에서 벽, 기둥, 바닥, 또는 천정에 특정한 기기를 설치하는 작업을 수행할 수 있도록 구비될 수 있다. 예를 들어, 작업부(23)는 벽, 기둥, 바닥, 또는 천정에 콘센트(outlet)를 설치하는 작업을 수행할 수 있다.
이러한 작업부(23)의 다양한 실시예는 본 명세서의 모든 실시예들에 적용될 수 있음은 물론이다.
상기 작업 정보는 작업부(23)가 인식할 수 있는 기호에 의해 표시될 수 있으며, 예를 들어, 바코드(barcode), QR 코드, 숫자 또는 문자 중 적어도 어느 하나에 의해 표시될 수 있다. 선택적으로 상기 작업 정보는 상기 작업부가 인식할 수 있는 특수한 감광제로 표시될 수 있다. 예컨대 상기 감광제는 육안으로는 직접 식별되지 않는 것일 수 있으며, 작업부(23)에 의해 인식할 수 있는 것일 수 있다. 이를 위해 상기 작업부(23)는 특수 감광제를 인식할 수 있는 센싱 유닛을 더 포함할 수 있다.
본 발명에 따른 자율 작업 시스템이 복수의 슬레이브 작업 로봇을 포함하는 경우, 정보 표시부(15)는 상기 복수의 슬레이브 작업 로봇 각각에 대응하여 서로 다른 작업 정보를 표시할 수 있다. 예컨대, 상기 복수의 슬레이브 작업 로봇이 제1 로봇과 제2 로봇을 포함하는 경우, 정보 표시부(15)는 상기 제1 로봇에 대응하는 작업 정보와 상기 제2 로봇에 대응하는 작업 정보를 서로 구분하여 표시할 수 있다.
복수의 마스터 작업 로봇을 포함하는 또 다른 실시예, 예컨대 제1 마스터 로봇과 제2 마스터 로봇을 포함하는 실시예에서는 하나의 마스터 로봇과 하나의 슬레이브 로봇을 일대일 또는 일대다로 매칭하여 작업 정보를 표시할 수도 있다.
한편, 상기 작업 정보는 상기 작업 정보가 표시된 위치에 대응하는 위치 정보를 더 포함할 수 있는데, 이때 제2 위치 판단부(21)는 상기 위치 정보를 이용하여 슬레이브 작업 로봇(20)의 위치를 판단할 수 있다.
마스터 작업 로봇(10)은 자신의 위치를 스스로 판단할 수 있으므로, 정보 표시부(15)가 상기 작업 정보를 표시하는 위치 정보를 가지고 있다. 따라서, 정보 표시부(15)는 상기 작업 정보에 상기 위치 정보를 포함시킬 수 있고, 제2 위치 판단부(21)는 상기 작업 정보를 인식하여 슬레이브 작업 로봇(20)의 위치를 판단할 수 있다.
슬레이브 작업 로봇(20)은 어느 위치에서 작업을 수행하여야 하는지에 관한 정보를 사전에 가지고 있을 수 있으나, 스스로 자신의 위치를 판단할 수 없을 수 있으므로, 상기 작업 정보에 포함되어 있는 위치 정보와 미리 가지고 있던 정보를 비교하여 정확한 작업을 수행하는데 활용할 수 있다.
한편, 본 발명의 다른 실시예에서, 마스터 작업 로봇(10)은 상기 이동 경로를 따라 이동하면서 상기 이동 경로에 대응하는 별도의 표식을 상기 작업 대상 공간에 표시할 수 있다. 예컨대, 마스터 작업 로봇(10)의 상기 이동 경로가 원(circle)인 경우, 마스터 작업 로봇(10)은 정보 표시부(15)를 이용하여 상기 작업 대상 공간에 상기 이동 경로에 대응하는 경로를 원으로 표시할 수 있다. 앞서 설명한 바와 같이, 정보 표시부(15)는 상기 작업 대상 공간에 작업 정보를 표시하므로, 마스터 작업 로봇(10)은 상기 이동 경로를 따라 이동하면서 정보 표시부(15)를 이용하여 상기 이동 경로에 대응하는 표식을 표시하고, 상기 작업 정보를 표시하는 작업을 함께 수행할 수 있다.
슬레이브 작업 로봇(20)은 정보 표시부(15)에 의해 표시된 상기 경로 및/또는 표식을 추적(tracking)하여 마스터 작업 로봇(10)을 추종하여 이동할 수 있고, 이동 중에 작업 정보가 검출되면 해당 위치에서 검출된 상기 작업 정보에 대응하는 작업을 수행할 수 있다.
정보 표시부(15)는 상기 경로 및/또는 표식을 육안으로 식별 가능하도록 표시하거나, 육안으로는 식별 불가능하되 특수한 장치를 통해서만 식별 가능하도록 표시할 수 있다. 예컨대, 정보 표시부(15)는 육안으로는 식별 불가능한 감광제를 도포하는 등의 방법을 통해 상기 경로 및/또는 표식을 표시하고, 슬레이브 작업 로봇(20)은 특수 장비, 예컨대 자외선 카메라와 같은 장치를 이용하여 도포된 상기 감광제를 인식하여 상기 경로 및/또는 표식을 인식할 수 있다. 그러나 반드시 이에 한정되는 것은 아니고, 상기 경로 및/또는 표식은 육안으로 보이도록 표시될 수도 있다. 이에 따라 관리자가 상기 경로 및/또는 표식의 정확도를 체크할 수 있다. 이러한 경로 및/또는 표식은 작업이 종료된 후 시간이 지나면 자동으로 지워지는 물질에 의해 형성될 수도 있는 데, 반드시 이에 한정되는 것은 아니고, 작업이 끝난 후 쉽게 지워질 수 있는 물질로 형성될 수 있다.
한편, 정보 표시부(15)에 의해 표시되는 상기 경로 및/또는 표식은 위치 정보를 포함할 수 있다. 예를 들면, 정보 표시부(15)는 상기 경로 및/또는 표식 상의 특정 지점 A에 상기 지점 A의 좌표 정보를 포함하도록 할 수 있다. 또는, 상기 경로 및/또는 표식은 상기 작업 대상 공간에 표시되는 작업 정보에 관한 정보를 포함할 수 있는데, 예컨대 상기 경로 상의 특정 지점 B에 상기 지점 B로부터 상기 경로 및/또는 표식을 따라 C 미터(meter) 이동하면 작업 정보가 표시되어 있음을 나타내도록 할 수 있다.
도 6은 본 발명의 다른 실시예에 따른 자율 작업 시스템의 구성을 개략적으로 나타내는 도면이다.
도 6을 참조하면, 본 발명의 또 다른 실시예에 따른 자율 작업 시스템(400)은 마스터 작업 로봇(10) 및 슬레이브 작업 로봇(20)을 포함하고, 마스터 작업 로봇(10)은 제1 작업부(16)를 더 포함하고, 슬레이브 작업 로봇(20)은 제2 작업부(23)를 더 포함한다. 도 6에서 마스터 작업 로봇(10)과 슬레이브 작업 로봇(20)에 대하여 각각 제1 작업부(16) 및 제2 작업부(23) 이외의 구성은 도시하지 않았으나, 이는 설명의 편의를 위한 것으로, 도 6에 도시된 실시예의 마스터 작업 로봇(10)과 슬레이브 작업 로봇(20)은 각각 제1 작업부(16) 및 제2 작업부(23) 이외에 전술한 모든 실시예의 구성들을 각각 포함할 수 있다.
이러한 구성에 따라 상기 마스터 작업 로봇(10)은 자신의 작업을 수행하면서 동시에, 슬레이브 작업 로봇(20)에게 작업을 지시하고, 이에 따라 마스터 작업 로봇(10)과 슬레이브 작업 로봇(20)은 동일한 작업을 서로 분할하여, 또는 서로 다른 작업을 동시에 수행할 수 있다.
이를 위해, 상기 제1 작업부(16) 및 제2 작업부(23)는 전술한 바와 같이, 마킹 유닛, 드릴, 용접 유닛, 커팅 유닛, 나사 작업 유닛, 잠금 작업 유닛, 조임 작업 유닛, 체결 작업 유닛 및 펀칭 유닛과 같은 다양한 툴 유닛(tool unit), 예초 유닛, 플레이트 유닛, 3D 프린팅 유닛, 및/또는 아암 유닛을 포함할 수 있다. 또한 상기 제1 작업부(16) 및 제2 작업부(23)는 작업 대상 공간에서 벽, 기둥, 바닥, 또는 천정에 특정한 기기를 설치하는 작업을 수행할 수 있도록 구비될 수 있다.
*도 7은 본 발명의 또 다른 실시예에 따른 마스터 작업 로봇의 구성을 개략적으로 나타내는 도면이다.
도 7을 참조하면, 본 발명의 다른 실시예에 따른 마스터 작업 로봇(40)은 기준 맵 생성부(43)를 더 포함하는데, 기준 맵 생성부(43)는 임의의 기준위치에서 센싱부(42)를 통해 획득된 센싱 데이터로부터 기준 맵(reference map)을 생성한다.
도 2를 참조로 하여 설명한 바와 같이, 상기 기준 맵은 제1 위치 판단부(45)가 마스터 작업 로봇(10)의 위치를 판단하기 위해 사용되는 것으로 상기 작업 대상 공간에 대응하는 도면으로부터 생성될 수도 있으나, 기준 맵 생성부(43)는 상기 작업 대상 공간의 실제 환경 내지는 특성을 보다 정확하게 반영할 수 있는 기준 맵을 직접 생성할 수 있다.
상기 기준위치는 상기 작업 대상 공간 내의 임의의 위치가 될 수 있으며, 일반적으로는 상기 작업 대상 공간의 가운데 지점으로 선택될 수 있다. 유리창을 포함하여 근접한 장애물이 존재하는 위치는 상기 기준위치로 적합하지 않을 수 있다. 근접한 위치에 장애물이 존재하는 경우에는 상기 장애물 뒤 공간 및/또는 장애물과 관련한 공간의 센싱 데이터를 얻기 어려울 수 있기 때문이다. 다만, 필요한 경우에는 상기 기준위치는 상기 작업 대상 공간 외부의 임의의 위치가 될 수 있다.
또한, 빛을 반사하지 않고 투과하는 등, 센싱 데이터를 획득하기 어려운 경우, 상기 기준위치는 상기 센싱 대상 공간 내의 비어있는 공간에 배치되어 기둥이나 장애물 등과 같이 센싱 가능한 물체를 센싱할 수 있는 위치로 설정될 수 있다.
한편, 장애물에 의해 완전한 센싱 데이터를 획득하기 어려운 경우에는 상기 기준위치에서 1차 센싱을 수행한 후, 상기 장애물을 벗어난 임의의 위치에서 2차 센싱을 수행함으로써 보다 완전한 센싱 데이터를 획득할 수 있다.
선택적으로 및/또는 부가적으로, 기준 맵 생성부(43)는, 전술한 바와 같이 거리 측정 센서를 이용하여 벽이나 기둥과 같은 특정 포인트까지의 거리를 측정하고, 이를 기준 맵 데이터에 반영할 수 있다. 이러한 거리 측정에 의해 예컨대 기둥과 같은 컬럼의 중심점을 추정할 수 있고, 이를 바탕으로 기준위치를 설정할 수 있다.
선택적으로 및/또는 부가적으로, 기준 맵 생성부(43)는, 전술한 바와 같이 이미지 촬영 센서를 이용하여, 특정 면, 예컨대 바닥면의 상태를 측정하고, 이를 기준 맵 데이터에 반영할 수 있다. 이러한 상태 측정을 고려하여 후술하는 마스터 작업 로봇 및/또는 슬레이브 작업 로봇의 이동 경로 및/또는 작업 경로를 설정할 수 있다.
마스터 작업 로봇(40)이 상기 기준위치에서 정지해 있는 상태에서, 상기 센서는 360˚ 회전하여 상기 작업 대상 공간을 센싱하여 상기 센싱 데이터를 생성한다. 또한, 필요한 경우 센싱부(42)에 포함되는 센서는 틸트(tilt) 제어 등을 통해 고저 방향으로 센싱 각도가 제어될 수 있다. 다만, 상기 기준 맵을 생성하기 위한 상기 센싱 데이터를 생성하는 과정에서 마스터 작업 로봇(40)의 위치가 반드시 상기 기준위치로 고정되어 있지 않아도 되며, 미리 정해진 기준 공간 내에서 이동하면서 상기 센싱 데이터를 생성하는 것도 가능하다.
기준 맵 생성부(43)는 상기 센싱 데이터로부터 상기 작업 대상 공간의 기준 맵(Reference Map)을 생성하며, 상기 기준위치에서 획득된 상기 센싱 데이터에 예를 들어 SLAM 알고리즘을 적용하여 상기 기준 맵을 생성할 수 있다.
한편, 상기 기준 맵은 상기 센싱 데이터에 대응하는 이미지 프레임에 포함되는 픽셀의 이미지 데이터로 구성될 수 있다. 예컨대, 상기 작업 대상 공간이 하나의 프레임으로 표현되는 경우, 사물이 존재하는 위치에 대응하는 픽셀은 검은색(Black)으로 표시되고, 비어있는 공간에 대응하는 픽셀은 흰색(White)으로 표시될 수 있다.
다만, 이는 상기 기준 맵 데이터가 포함할 수 있는 데이터 형식의 일 실시예를 의미하며, 반드시 개별 픽셀에 대한 색상 정보를 포함하는 것으로 한정되지 않으며, 상기 기준 맵 데이터는 벡터, 극좌표 등의 형식으로 표현될 수 있다.
본 발명의 또 다른 실시예에서, 상기 작업 대상 공간에 대응하는 도면과, 기준 맵 생성부(43)에서 생성되는 상기 기준 맵이 서로 일치하지 않는 경우에는, 상기 도면과 상기 기준 맵에 각각 가중치를 부여하고, 센싱 설정부(44)에서 사용 가능한 작업 대상 공간 정보를 제공할 수 있다.
도 8은 마스터 작업 로봇과 슬레이브 작업 로봇의 상대적 위치를 통해 슬레이브 작업 로봇의 위치를 산출하는 방법을 예시적으로 나타내는 도면이다.
도 8을 참조하면, 마스터 작업 로봇(M)과 슬레이브 작업 로봇(S)이 도시되며, d는 마스터 작업 로봇(M)과 슬레이브 작업 로봇(S) 사이의 거리를 의미하고, l은 마스터 작업 로봇(M)과 슬레이브 작업 로봇(S)이 상기 작업 대상 공간의 특정 벽면 사이에서 형성하는 거리의 차이를 의미한다. 즉, l=lm-ls 의 관계가 성립하고, lm은 마스터 작업 로봇(M)이 상기 특정 벽면에서 떨어진 거리를 의미하고, ls는 슬레이브 작업 로봇(S)이 상기 특정 벽면에서 떨어진 거리를 의미한다. 그리고, θ는 마스터 작업 로봇(M)과 슬레이브 작업 로봇(S) 사이의 각도를 의미한다.
마스터 작업 로봇(M)은 센서를 이용하여 상기 벽면까지의 거리인 lm을 측정할 수 있고, 슬레이브 작업 로봇(S)은 도 3을 참조로 하여 설명한 거리 측정부(22)를 이용하여 마스터 작업 로봇(M)까지의 거리 d와 상기 벽면까지의 거리 ls를 측정할 수 있다. 따라서, lm과 ls의 차이를 이용하여 거리 l을 산출하고, 거리 측정부(22)를 통해 측정된 거리 d를 이용하여 상기 각도 θ 값을 산출할 수 있다.
슬레이브 작업 로봇(S)의 제2 위치 판단부는 상기 거리 d와 각도 θ, 그리고 제1 위치 판단부로부터 제공되는 마스터 작업 로봇(M)의 위치 정보를 이용하여 슬레이브 작업 로봇(S)의 위치를 판단할 수 있다. 따라서, 마스터 작업 로봇(M)에서 측정되는 상기 lm 값은 마스터 작업 로봇(M)의 위치 정보와 함께 상기 제2 위치 판단부에 제공되는 것으로 이해할 수 있다.
또는, 상기 제2 위치 판단부는 상기 제1 위치 판단부로부터 제공되는 마스터 작업 로봇(M)의 위치 정보에 포함되는 좌표와, 마스터 작업 로봇(M)과 슬레이브 작업 로봇(S)이 상기 작업 대상 공간에 존재하는 한 쌍의 벽면과 떨어진 거리를 이용하여 슬레이브 작업 로봇(S)의 위치를 판단할 수 있다. 이러한 경우에는 마스터 작업 로봇(M)과 슬레이브 작업 로봇(S) 사이의 거리 d 값을 측정하지 않더라도 슬레이브 작업 로봇(S)의 위치를 판단할 수 있다.
이때 lm과 ls는 각각 마스터 작업 로봇(M)과 슬레이브 작업 로봇(S)으로부터 측정된 벽면까지의 거리 중 가장 가까운 값으로 측정되는 것은 통상의 기술자에게 자명하다.
도 9는 본 발명에 따른 자율 작업 시스템이 적용되는 작업 로봇의 구성을 예시적으로 나타내는 도면이다.
도 9를 참조하면, 상기 작업 로봇 특히 마스터 작업 로봇은 센서, 예를 들면 스캐닝 센서(Scanning Sensor)를 포함할 수 있다. 상기 작업 로봇은 도 9에 도시되는 구성, 예컨대 몸체의 양 측면에 배치되는 한 쌍의 바퀴를 이용하여 이동할 수 있다. 또한, 도 9에는 도시되어 있지 않지만, 상기 작업 로봇은 하부에 적어도 하나의 바퀴를 더 포함할 수 있으며, 이를 통해 균형을 유지할 수 있다. 그러나 반드시 이에 한정되는 것은 아니며, 상기 작업 로봇에 동력을 제공하여 임의의 위치로 이동 가능케 하는 어떠한 구성이라도 포함할 수 있다.
예를 들어, 상기 작업 로봇은 드론(drone)과 같이 비행 가능하게 구성될 수 있으며, 복수 쌍의 구동장치를 통해 구성될 수도 있다. 또한, 수중에서도 이동 및 작업 수행이 가능하도록 구성될 수 있다. 또는, 사람이나 동물의 다리를 모방한 구조를 통해 이동 가능하게 구성될 수도 있다.
도 2를 참조로 하여 설명한 바와 같이, 상기 센서를 통해 상기 마스터 작업 로봇의 위치를 판단할 수 있으므로 상기 마스터 작업 로봇의 위치는 상기 센서의 위치와 실질적으로 동일한 것으로 이해할 수 있다. 그러나 반드시 이에 한정되는 것은 아니고, 마스터 작업 로봇의 작업부 위치를 마스터 작업 로봇의 위치로 정의할 수 있으며, 센서의 위치와 작업부 위치 사이의 미리 정해진 위치 차이를 이용하여 작업부 위치를 정확히 보정할 수 있다. 이하 본 명세서에서는 편의 상 센서의 위치와 마스터 작업 로봇의 위치가 실질적으로 동일한 것으로 본다.
상기 작업 로봇의 위치는 (px, py)의 좌표로 표현될 수 있으며 모터에 의해 회전 가능하다. 그리고, 상기 센서의 회전 방향은 필요에 따라 다양하게 제어될 수 있다. 이때, 상기 센서의 각도는 도 9의 x축을 기준으로 표현될 수 있으며, 상기 센서에 의해 검출되는 물체의 위치는 (θL, d)의 극좌표로 표현될 수 있다. 여기서 d는 검출된 물체까지의 거리를 의미한다.
한편, 상기 마스터 작업 로봇은 마킹 유닛(미도시)을 포함할 수 있다. 상기 마킹 유닛은 도 2를 참조로 하여 설명한 데이터 수신부(11)가 수신하는 상기 작업 대상 공간에 대응하는 정보에 포함되는 마킹 데이터에 대응하는 작업을 수행하기 위하여 상하, 좌우를 비롯하여 자유롭게 이동할 수 있도록 구비될 수 있으며 마킹 데이터에 대응하여 작업면의 특정 위치에서 일정한 표시를 하거나 이동 경로 상에 선(line)을 그리는 동작을 수행할 수 있다.
도 10은 마스터 작업 로봇의 위치를 판단하기 위해 기준 맵 데이터와 센싱 데이터를 비교하는 데이터 변환 과정을 예시적으로 나타내는 도면이다.
도 10을 참조하면, 상기 기준 맵 데이터는 그리드(Grid) 형식으로 표시될 수 있으며 다른 격자 영역에 비하여 어둡게 표시된 부분은 레이저 센서의 스캔 신호를 반사하는 물체가 있음을 나타낸다. 각각의 격자 영역은 (xm,i, ym,i), (xm,l, ym,l)과 같은 좌표 형식으로 표시될 수 있다.
도 2를 참조로 하여 설명한, 본 발명의 일 실시예에 따른 제1 위치 판단부(14)는 마스터 작업 로봇(10)의 위치를 판단하기 위해 상기 기준 맵 데이터와 센싱 데이터를 비교하는 동작을 수행하는데, 그리드 데이터를 포함하는 상기 기준 맵 데이터와는 달리 상기 센싱 데이터는 물체까지의 거리 및 각도에 관한 데이터를 포함한다. 따라서, 제1 위치 판단부(14)는 상기 기준 맵 데이터와 상기 센싱 데이터를 비교하기 위해 그리드 형식의 상기 기준 맵 데이터를 거리와 각도에 관한 데이터로 변환할 수 있다.
도 10을 참조하면, 상기 기준 맵 데이터에서 (xm,i, ym,i) 및 (xm,l, ym,l)의 좌표로 표현되는 위치는, 각각 (Φm,i,dm,i) 및 (Φm,l,dm,l)의 극좌표 형식의 데이터로 변환될 수 있으며 상기 극좌표 데이터는 상기 센싱 데이터의 데이터 형식과 일치한다. 따라서, 제1 위치 판단부(14)는 변환된 상기 기준 맵 데이터와 상기 센싱 데이터를 직접 비교할 수 있으며, 비교 결과를 이용하여 마스터 작업 로봇(10)의 위치를 판단할 수 있다.
다만, 상기 기준 맵 데이터와 상기 센싱 데이터가 각각 그리드 형식과 극좌표 형식으로 제한되는 것은 아니며, 두 종류의 데이터를 비교하기 위하여 반드시 그리드 형식의 데이터를 극좌표 형식으로 변환하는 것으로 제한되지 않는다. 따라서, 상기 기준 맵 데이터와 상기 센싱 데이터는 그리드 형식, 극좌표 형식 이외의 형태의 데이터로 표현될 수 있으며, 상기 센싱 데이터를 상기 기준 맵 데이터의 형식에 대응하도록 변환하여 두 종류의 데이터를 비교하는 것도 가능하다.
도 10에서 복수의 격자 영역은 디스플레이 장치를 통해 표현되는 경우에 있어서 각각의 화소(pixel)에 대응하는 것으로 이해할 수 있으나, 반드시 이에 한정되는 것은 아니며, 하나의 격자 영역이 복수의 화소 집합체에 대응하는 것일 수 있다. 극좌표 변환을 위한 기준점은 도 9에 도시되는 바와 같이 반드시 원점(0)으로 제한되지 않는다.
한편, 센싱부(12)에서 상기 작업 대상 공간에 존재하는 물체에 대한 센싱 데이터가 획득되면, 제1 위치 판단부(14)는 상기 센싱 데이터에 대응하는 거리/각도 데이터와 변환된 상기 기준 맵 데이터를 비교하여 일치하는 데이터가 존재하는지 판단할 수 있다.
상기 판단 결과에 따라 일치하는 데이터가 여러 개 존재할 수 있으며, 제1 위치 판단부(14)는 복수의 센싱 데이터와 변환된 상기 기준 맵 데이터를 비교하여 상기 이동체에 대한 위치 판단의 정확도를 향상시킬 수 있다.
제1 위치 판단부(14)는 복수의 센싱 데이터 각각을 상기 기준 맵 데이터와 비교함으로써 상기 이동체의 위치로서 가장 신뢰성이 높은 위치를 판단할 수 있다.
예를 들어, 동일한 위치에서 상기 센서를 이용하여 제1 내지 제n 센싱 데이터가 획득되면, 제1 위치 판단부(14)는 상기 제1 센싱 데이터에 대응하는 기준 맵 데이터를 검색할 수 있다. 검색 결과 상기 제1 센싱 데이터에 대응하는 기준 맵 데이터가 m개 존재할 수 있으며, 제1 위치 판단부(14)는 상기 제2 센싱 데이터와 상기 m개의 기준 맵 데이터를 비교하게 된다. 이러한 과정을 반복 수행하게 되면 최종적으로 상기 제1 내지 제n 센싱 데이터를 획득한 위치, 즉 마스터 작업 로봇(10)의 위치를 검출할 수 있게 된다.
한편, 기준 맵 데이터와 센싱 데이터를 비교하여 마스터 작업 로봇(10)의 위치를 검출하기 위해서, 제1 위치 판단부(14)는 가장 최근에 획득된 센싱 데이터를 이용할 수 있다.
도 10에서 위치 a, b, c는 마스터 작업 로봇(10)의 이동 경로 상에 존재하는 일부 위치를 예시적으로 나타내며, 마스터 작업 로봇(10)이 위치 a에서 위치 c 방향으로 이동하고 센서는 위치 a에서 위치 c를 향하는 방향을 바라보는 경우를 상정하여 설명하도록 한다.
상기 센서는 위치 a, b 및 c에서 센싱 동작, 예를 들면 스캐닝 동작을 수행하여 센싱 데이터를 획득할 수 있는데, 상기 센서가 제한된 범위만을 센싱할 수 있는 경우, 예컨대, 상기 센서가 전방을 기준으로 ±90°로 총 180° 범위를 센싱 가능한 경우, 도 10을 참조하면 각각의 위치 a, b 및 c에서 상기 센서를 통해 획득되는 센싱 데이터의 데이터량은 서로 차이가 발생할 수 있다.
예컨대, 위치 a에서 획득되는 센싱 데이터의 데이터량은 위치 c에서 획득되는 센싱 데이터의 데이터량 보다 많을 수 있다. 이때, 마스터 작업 로봇(10)이 위치 c에 존재할 때 기준 맵 데이터와 센싱 데이터를 비교하여 마스터 작업 로봇(10)의 위치를 검출함에 있어서, 제1 위치 판단부(14)는 위치 b에서 획득된 센싱 데이터와 상기 기준 맵 데이터를 비교할 수 있다.
위치 a에서 획득되는 센싱 데이터는 위치 b에서 획득된 센싱 데이터보다 많은 양의 데이터를 포함하게 되므로, 위치 b에서 획득된 센싱 데이터와 상기 기준 맵 데이터를 비교함으로써 연산 속도를 빠르게 할 수 있다.
센서는 연속적으로 센싱, 예를 들면 스캐닝을 수행함으로써 센싱 데이터를 획득하고, 제1 위치 판단부(14)는 상기 센싱 데이터를 이용하여 연속적으로 마스터 작업 로봇(10)의 정확한 위치를 검출할 수 있으므로, 현재 시점에서 가장 가까운 시점에 획득된 데이터를 이용하는 것이 위치 검출의 정확도를 향상시키는 방법이 될 수 있다.
도 11은 본 발명의 일 실시예에 따른 마스터 작업 로봇의 이동경로를 예시적으로 나타내는 도면이다.
상기 마스터 작업 로봇의 이동경로는 적어도 하나의 센싱 위치 및 센서의 센싱 각도에 관한 정보를 포함할 수 있다. 도 11에 도시된 실시예를 참조하면, 상기 마스터 작업 로봇은 제1 지점(x1, y1, θ1) 내지 제7 지점(x7, y7, θ7)에서 상기 센서를 이용하여 센싱 동작, 예를 들면 스캐닝 동작을 수행한다.
도 11에서는 상기 마스터 작업 로봇이 센싱 동작을 수행하는 특정한 몇 개의 센싱 위치를 도시하고 있으며, 이는 상기 마스터 작업 로봇의 위치를 정확하게 파악하기 위함이다.
그러나, 본 발명의 다른 실시예에 따른 마스터 작업 로봇은 특정한 센싱 위치를 지정하지 않고 설정된 상기 이동경로를 따라 이동하면서 연속적으로 센싱 동작을 수행할 수 있다.
한편, 상기 센싱 각도는 각각의 센싱 위치에서 상기 센서의 센싱 각도를 의미하며 Degree 또는 Radian 단위로 표현 가능하다. 그리고, 상기 센싱 각도의 크기는 x축을 기준으로 표현되거나, 직전 센싱 위치에서의 센싱 동작이 종료된 시점에서의 상기 센서의 각도를 기준으로 표현될 수 있다.
각각의 상기 센싱 위치에서 상기 마스터 작업 로봇은 정지하며, 상기 센싱 위치에 정지한 상태에서 상기 센서를 회전시켜 주변 공간을 센싱 한다. 다만, 앞서 설명한 바와 같이 상기 마스터 작업 로봇은 특정한 센싱 위치를 지정하지 않고 설정된 상기 이동경로를 따라 이동하면서 연속적으로 센싱 동작을 수행할 수 있다. 따라서, 이러한 경우에는 상기 센싱 위치에서 정지하는 동작이 수행되지 않는 것으로 이해할 수 있다.
또한, 상기 센싱 동작을 통해 획득되는 센싱 데이터와 상기 기준 맵 데이터를 비교함으로써 상기 마스터 작업 로봇의 위치가 상기 이동 경로에 일치하는지 여부를 판단할 수 있다.
따라서, 본 발명의 일 실시예에 따른 자율 작업 시스템을 통해 상기 마스터 작업 로봇은 설정된 이동 경로를 따라 이동하며 마킹 데이터에 따라 해당하는 위치에서 특정한 표시를 하거나 선(line)을 그리는 동작을 수행할 수 있다.
또한, 이와 동시에 복수의 센싱 위치에서 센서를 통한 센싱 동작을 통해 스스로의 위치와 미리 설정된 상기 이동 경로와의 일치 여부를 판단하고, 상기 이동 경로와 일치하지 않는 경우에는 상기 이동 경로를 따라 이동하도록 위치가 제어될 수 있다.
한편, 도 11에는 총 7개의 스캔 위치가 도시되어 있으나, 본 발명이 반드시 상기 7개의 센싱 위치로 제한되지 않으며 상기 센싱 위치는 상기 센싱 대상 공간에 존재하는 기둥, 유리창, 장애물 등의 위치에 의하여 다양하게 변경될 수 있다. 또한, 상기 센싱 대상 공간 내에 비어있는 공간이 존재하는 경우에는 상기 비어있는 공간에서는 센싱이 어려울 수 있으므로 상기 복수의 센싱 위치와 센싱 각도는 상기 비어있는 공간의 위치를 고려하여 설정될 수 있다.
도 12는 본 발명의 일 실시예에 따른 마스터 작업 로봇을 통해 획득되는 기준 맵을 예시적으로 나타내는 도면이다.
도 12는 기준위치(reference)에서 센서를 통해 획득한 센싱 데이터를 통해 획득한 기준 맵(Reference Map)을 나타내며, 유리창(glass)이 존재하는 위치에서는 스캔 신호의 반사가 일어나지 않아 상기 유리창(glass)의 위치에서부터 상기 기준위치(reference)까지 정상적인 센싱 데이터가 획득되지 않는 것을 확인할 수 있다.
또한, 기둥(pillar)의 뒷 공간으로부터는 센싱 데이터가 정상적으로 획득되지 않음을 확인할 수 있다. 따라서, 상기 센서를 통해 획득되는 상기 센싱 데이터를 통해 상기 기준 맵을 생성하면 센싱 대상 공간에서 유리창이 존재하는 위치와 기둥 또는 장애물이 존재하는 위치를 대략적으로 판단할 수 있다.
한편, 정지상태의 센서를 회전시켜 획득한 센싱 데이터를 이용하여 상기 기준 맵을 생성하는 경우에는 센싱 대상 공간의 크기에 따라 스캔 거리가 길어지고, 이에 따라 정확도가 떨어질 수 있으며, 따라서 상기 기준 맵은 상기 마스터 작업 로봇의 이동 경로, 센싱 위치 및 센싱 각도를 설정하는데에 참고 데이터로 활용하는 것이 바람직하다.
또한, 상기 작업 대상 공간에 대한 도면이 존재하는 경우에는 상기 도면과 상기 기준 맵을 함께 사용하는 것이 상기 마스터 작업 로봇의 보다 정확한 동작을 구현하는데 도움이 될 수 있다.
한편, 상기 마스터 작업 로봇의 이동 경로, 센싱 위치 및 센싱 각도는 상기 센싱 대상 공간에 대한 정확한 센싱 데이터를 획득할 수 있도록 설정되며, 도 9에서는 상기 기준위치(reference)를 포함하여 유리창(glass)과 기둥(pillar)에서 최대한 이격되는 위치와 각도가 설정될 수 있다.
도 13은 본 발명의 일 실시예에 따른 자율 작업 방법을 개략적으로 나타내는 도면이다.
본 발명의 일 실시예에 따른 자율 작업 방법은, 마스터 작업 로봇 및 적어도 하나의 슬레이브 작업 로봇을 포함하는 자율 작업 시스템을 이용하는 자율 작업 방법으로서, 도 13을 참조하면 정보 수신 단계(S10), 센싱 설정 단계(S20), 마스터 위치 판단 단계(S30) 및 슬레이브 위치 판단 단계(S40)를 포함한다.
정보 수신 단계(S10)에서는 작업 대상 공간에 대한 정보를 수신한다. 상기 작업 대상 공간은 상기 마스터 작업 로봇 및 슬레이브 작업 로봇이 작업을 수행하는 공간을 의미하며, 정보 수신 단계(S10)에서 수신되는 정보는 상기 작업 대상 공간에 대응하는 도면, 상기 작업 대상 공간에 존재하는 벽, 기둥, 창문 등의 위치와 크기에 관한 정보, 요컨대 상기 작업 대상 공간의 건축적, 공간적 요소에 관한 정보를 포함할 수 있다. 또한, 정보 수신 단계(S10)에서는 상기 마스터 작업 로봇과 슬레이브 작업 로봇이 상기 작업 대상 공간에서 수행해야 하는 작업(task)에 관한 정보를 수신할 수 있다.
한편, 상기 작업 대상 공간에 대한 정보는 상기 마스터 작업 로봇 및 슬레이브 작업 로봇의 허용 이동 범위에 관한 정보를 포함할 수 있다. 예컨대, 상기 작업 대상 공간은 벽, 기둥, 창문 등이 설치되어야 하는 공간을 포함할 수 있으며, 설치 이전에는 상기 마스터 작업 로봇 및 슬레이브 작업 로봇으로 하여금 진입하지 못하도록 방지해야 하는 공간이 존재할 수 있다. 벽이 세워지거나, 엘리베이터가 설치되어야 하는 공간은 실제 작업이 이루어지기 전에는 바닥면이 단절되어 있을 수 있으며, 경우에 따라서는 상기 마스터 작업 로봇 및 슬레이브 작업 로봇이 추락할 위험이 있을 수 있다. 따라서, 상기 작업 대상 공간에 대한 정보는 상기 허용 이동 범위에 관한 정보를 포함하여, 상기 마스터 작업 로봇 및 슬레이브 작업 로봇의 이동 범위를 제한하도록 할 수 있다. 또한 상기 작업 대상 공간에 대한 정보는 특정 포인트, 예컨대 벽이나 기둥의 중심 위치가 표시된 것일 수 있다. 이러한 특정 포인트는 마스터 작업 로봇 및/또는 슬레이브 작업 로봇의 이동 및/또는 작업 시 기준점으로 활용될 수 있다.
정보 수신 단계(S10)에서는 상기 마스터 작업 로봇에 포함되는 센서와 유선 또는 무선, 전기적 또는 비전기적으로 연결되어 상기 센서로부터 획득되는 데이터를 수신할 수 있다. 또한, 정보 수신 단계(S10)에서는 외부 저장매체에 저장된 상기 작업 대상 공간에 대한 데이터를 수신할 수도 있다. 선택적으로, 정보 수신 단계(S10)에서는 마스터 작업 로봇의 입력부로부터 입력되는 상기 작업 대상 공간에 대한 데이터를 수신할 수 있다. 선택적으로, 정보 수신 단계(S10)에서는 마스터 작업 로봇이 별도의 컴퓨팅 장치와 전기적으로 연결되어 컴퓨팅 장치로부터 상기 작업 대상 공간에 대한 데이터를 수신할 수 있다.
한편, 상기 센서는 사물까지의 거리를 측정하거나 사물의 형태를 센싱하거나 마스터 작업 로봇의 이동을 센싱할 수 있다. 이러한 센서는, 레이저를 이용하거나 음파, 광파 및/또는 전파를 이용하는 센서, IMU 센서, GPS 센서를 포함할 수 있으며, 및/또는 카메라와 같이 동영상 및/또는 정지 영상를 취득할 수 있는 영상 취득 센서를 포함할 수 있다. 상기 센서가 레이저 센서를 포함하는 경우 상기 레이저 센서의 일 예로서 라이더(LiDAR) 센서가 포함될 수 있다.
마스터 작업 로봇은 이러한 센서를 적어도 하나 이상 포함할 수 있으며, 다른 종류의 복수의 센서를 조합함으로써 센싱 정밀도를 향상시킬 수 있다. 예컨대 레이저 센서로서 라이더 센서를 사용하고, IMU 센서를 더 포함해 마스터 작업 로봇의 움직임을 센싱함으로써 작업 대상 공간에 대한 센싱 정밀도를 향상시킬 수 있다. 또한, 선택적 및/또는 부가적으로 카메라 센서를 포함해, 카메라 센서로 하여금 작업 대상 공간을 촬영하도록 할 수 있는 데, 예컨대 작업 대상 공간의 특정 면, 구체적으로 바닥면에 대한 상태 및/또는 질감을 촬영하고 이를 통해 마스터 작업 로봇 및/또는 슬레이브 작업 로봇의 이동 및/또는 작업 경로를 설정 및/또는 보정하도록 할 수 있다. 또한, 선택적 및/또는 부가적으로 거리 측정 센서를 포함해, 특정 포인트, 예컨대 벽이나 기둥까지의 거리를 측정할 수 있다. 이로 인해 상기 작업 대상 공간에 존재하는 특정 포인트의 계측된 위치를 마스터 작업 로봇 및/또는 슬레이브 작업 로봇의 이동 및/또는 작업 경로를 설정 및/또는 보정하는 데에 반영하도록 할 수 있다. 상기와 같은 다양한 센서 조합은 반드시 마스터 작업 로봇에만 설치될 필요는 없으며, 일부 센서는 슬레이브 작업 로봇에 설치되고, 그 데이터가 마스터 작업 로봇과 통신되도록 함으로써 작업 전 및/또는 작업 도중에 마스터 작업 로봇 및/또는 슬레이브 작업 로봇의 이동 및/또는 작업 경로를 설정 및/또는 보정하도록 할 수 있다.
상기 마스터 작업 로봇은 정지 상태에서 및/또는 이동하면서 상기 센서를 이용하여 주변 공간을 센싱할 수 있으며, 상기 센서에서 출력된 신호가 반사되는 정보를 이용하여 주변 공간에 있는 사물의 위치를 극좌표 형식으로 획득할 수 있다. 상기 모터는 상기 센서를 원하는 각도만큼 회전할 수 있도록 하며, 예컨대 360˚ 회전할 수 있도록 하며, 상기 센서의 회전 방향은 필요에 따라 다양하게 제어될 수 있다.
한편, 상기 센서는 별도의 구동부에 의하여 수평 회전, 수평 이동, 틸트 및/또는 수직 이동이 제어될 수 있다. 상기 센서의 수평 회전, 수평 이동, 틸트 및/또는 수직 이동은 서로 독립적으로 제어될 수 있으며, 상기 수평 회전, 수평 이동, 틸트 및/또는 수직 이동을 제어하기 위한 제어 신호 또한 독립적으로 생성되어 상기 구동부에 제공될 수 있다.
센싱 설정 단계(S20)에서는 상기 마스터 작업 로봇의 이동 경로, 센싱 위치 및 상기 센싱 위치에서의 센싱 각도를 설정한다. 구체적으로, 센싱 설정 단계(S20)에서는 상기 이동 경로를 설정하고, 상기 이동 경로 상의 임의의 지점을 지정하여 지정된 상기 지점을 센싱 위치로 설정한다. 그리고, 상기 센싱 위치는 상기 작업 대상 공간에 따라 필요한 경우 복수 개의 위치로 설정될 수 있다. 이에 대응하여 상기 마스터 작업 로봇이 상기 센싱 위치에 도달하면 상기 센서는 센싱 동작을 수행한다. 그리고 이때, 상기 센서는 센싱 설정 단계(S20)에서 의해 설정된 센싱 각도에 따라 회전하게 된다.
한편, 본 발명의 다른 실시예에서 상기 센서는 센싱 높이가 조절될 수 있으며, 센싱 설정 단계(S20)에서는 설정된 센싱 위치에서 상기 센서의 센싱 각도 및 센싱 높이를 함께 설정할 수 있다. 그리고, 상기 센싱 위치와 센싱 각도는 상기 작업 대상 공간의 특성을 고려하여 설정될 수 있다.
또한, 빛을 반사하지 않고 투과하는 등, 센싱 데이터를 획득하기 어려운 경우, 상기 센싱 위치와 센싱 각도는 상기 작업 대상 공간 내의 비어있는 공간에 배치되어 기둥이나 장애물 등을 센싱할 수 있는 위치와 각도로 설정될 수 있다.
한편, 상기 작업 대상 공간의 도면이 존재하는 경우, 센싱 설정 단계(S20)에서는 상기 도면을 고려하여 상기 이동 경로, 센싱 위치 및 센싱 위치에서의 상기 센서의 센싱 각도를 설정할 수 있다.
상기 마스터 작업 로봇은 상기 이동 경로 상에서 특정한 위치에서 센싱 동작을 수행하는 것으로 이해할 수 있다. 그리고, 상기 특정한 센싱 위치가 지정되는 것은 상기 마스터 작업 로봇의 위치를 정확하게 파악하기 위함이다.
상기 특정한 위치는 유한한 개수의 위치로 설정될 수 있으나, 반드시 이에 제한되는 것은 아니며 상기 이동 경로 상에서 이동하며 연속적으로 센싱 동작을 수행할 수도 있다.
한편, 상기 센싱 각도는 각각의 센싱 위치에서 상기 센서의 센싱 각도를 의미하며 Degree 또는 Radian 단위로 표현 가능하다. 그리고, 상기 센싱 각도의 크기는 특정 좌표축, 예컨대 x축을 기준으로 표현되거나, 직전 센싱 위치에서의 센싱 동작이 종료된 시점에서의 상기 센서의 각도를 기준으로 표현될 수 있다.
이처럼 마스터 작업 로봇의 이동 경로, 센싱 위치 및 센싱부의 센싱 각도를 설정하도록 상기 센싱 설정 단계(S20)에서는 마스터 작업 로봇의 복수의 구동부에 동작 신호를 보낼 수 있다.
본 발명의 일 실시예에서, 각각의 상기 센싱 위치에서 상기 마스터 작업 로봇은 정지하며, 상기 센싱 위치에 정지한 상태에서 상기 센서를 회전시켜 주변 공간을 센싱 할 수 있다. 또는, 본 발명의 다른 실시예에서 상기 마스터 작업 로봇은 상기 센싱 위치에서 정지하지 않을 수 있으며, 이동하며 상기 센서를 통해 주변 공간을 센싱 할 수 있다.
마스터 위치 판단 단계(S30)에서는 상기 센싱 위치에서 획득된 센싱 데이터와 기준 맵 데이터를 비교하여 상기 마스터 작업 로봇의 위치를 판단한다.
상기 기준 맵 데이터는 이미지 프레임에 포함되는 픽셀의 좌표로 표현될 수 있으며, 물체가 존재하는 위치에 대응하는 픽셀의 좌표는 비어있는 위치에 대응하는 픽셀의 좌표와 다른 값을 가질 수 있다. 앞서 설명한 바와 같이, 상기 센서를 통해 획득되는 데이터는 극좌표 형태로 획득될 수 있으며 상기 기준 맵 데이터와 상기 센싱 데이터를 비교하면, 상기 작업 대상 공간 내에서의 상기 마스터 작업 로봇의 위치를 판단할 수 있다. 이 때, 전술한 바와 같이 기준 맵 데이터에 반영된 특정 포인트, 예컨대 벽이나 기둥의 중심과 센싱된 데이터를 비교할 수 있다.
보다 구체적으로, 마스터 위치 판단 단계(S30)에서는 상기 기준 맵 데이터를 상기 센서를 통해 획득되는 극좌표 형태의 데이터로 변환하고, 변환된 데이터와 상기 센싱 데이터를 비교할 수 있다.
본 발명의 다른 실시예에서, 마스터 위치 판단 단계(S30)에서는 임의의 위치에 설치되는 송수신기로부터 출력된 위치 신호를 수신하고, 상기 위치 신호로부터 상기 마스터 작업 로봇의 위치를 판단할 수 있다. 상기 송수신기의 위치가 결정되면 상기 마스터 위치 판단 단계(S30)에서는 송수신기의 위치를 기준으로 하여 상기 마스터 작업 로봇의 위치를 판단할 수 있다. 또는, 마스터 위치 판단 단계(S30)에서는 상기 마스터 작업 로봇으로부터 상기 송수신기까지의 거리, 각도 데이터 및 상기 송수신기의 위치 정보를 고려하여 상기 마스터 작업 로봇의 위치를 판단하는 것도 가능할 것이다.
선택적으로, 마스터 위치 판단 단계(S30)에서는 임의의 위치에 설치되는 마커의 위치를 센싱하고, 상기 마커로부터 상기 마스터 작업 로봇의 위치를 판단할 수 있다. 예컨대 마스터 위치 판단 단계(S30)에서는 상기 마커의 위치를 센싱한 위치 및/또는 센싱한 데이터의 분석으로부터 역으로 마스터 작업 로봇의 위치를 판단할 수 있다.
마스터 위치 판단 단계(S30)에서 수행되는 동작은 상기 마스터 작업 로봇의 위치를 최대한 정확하게 판단하는 것을 목적으로 하며, 상기 송수신기 및/또는 마커는 상기 작업 대상 공간의 임의의 위치, 예컨대 기둥 또는 벽면에 부착되어 상기 위치 신호를 송신 및/또는 위치를 표시할 수 있다.
다만, 상기 송수신기 및/또는 마커의 위치가 상기 센싱 대상 공간의 내부의 임의의 위치로 한정되는 것은 아니다. 예컨대, 상기 작업 대상 공간이 오픈된 공간인 경우에는 상기 송수신기 및/또는 마커가 상기 작업 대상 공간의 외부에 위치하더라도 상기 마스터 작업 로봇의 위치를 추척할 수 있다.
상기 마스터 작업 로봇은 상기 위치 신호를 수신하여 수신한 상기 위치 신호를 송신한 송수신기의 위치 및 상기 송수신기까지의 거리 및/또는 각도를 판단할 수 있는 수신기를 포함할 수 있으며, 상기 수신기는 적어도 하나의 송수신기로부터 수신한 위치 신호를 고려하여 상기 마스터 작업 로봇의 위치를 판단할 수 있다.
상기 송수신기는 신호 공유기 또는 비콘(beacon)과 같은 장치를 통해 구성될 수 있으며, 상기 센싱 데이터와 기준 맵 데이터의 비교를 통해 상기 마스터 작업 로봇의 정확한 위치를 판단하기 용이하지 않은 경우에 사용될 수 있다.
상기 마커는 특정한 색상이나 모양 또는 미리 결정된 숫자를 표시할 수 있으며, 상기 수신부는 상기 색상, 모양 또는 숫자를 인식함으로써 상기 마스터 작업 로봇의 위치를 판단할 수 있다. 한편, 상기 마커는 자외선 카메라와 같은 특수한 장치를 통해 식별 가능하도록 표시될 수 있다.
슬레이브 위치 판단 단계(S40)에서는 상기 슬레이브 로봇의 위치를 판단한다. 슬레이브 위치 판단 단계(S40)에서 상기 슬레이브 작업 로봇의 위치를 판단하기 위해서 다양한 방법을 사용할 수 있는데, 마스터 위치 판단 단계(S30)에서 상기 마스터 작업 로봇의 위치를 판단하기 위해 사용하는 방법이 적용될 수 있다. 예컨대, 슬레이브 위치 판단 단계(S40)에서는 임의의 위치에 설치되는 송수신기로부터 출력되는 위치 신호를 수신하고, 상기 위치 신호로부터 상기 슬레이브 작업 로봇의 위치를 판단할 수 있다. 선택적으로 슬레이브 위치 판단 단계(S40)에서는 임의의 위치에 설치되는 마커의 위치를 센싱함으로써 슬레이브 작업 로봇의 위치를 판단할 수 있다. 상기 슬레이브 위치 판단 단계(S40)에서 슬레이브 작업 로봇의 위치를 판단하는 구체적인 방법은 상기 마스터 위치 판단 단계(S30)가 마스터 작업 로봇의 위치를 판단하는 구체적인 방법과 동일하므로, 상세한 설명은 생략한다.
또는, 슬레이브 위치 판단 단계(S40)에서는 상기 마스터 작업 로봇의 위치 정보와, 상기 슬레이브 작업 로봇과 마스터 작업 로봇의 상대적인 위치 관계를 고려하여 상기 슬레이브 작업 로봇의 위치를 판단할 수도 있다.
예컨대, 슬레이브 위치 판단 단계(S40)에서는 상기 마스터 작업 로봇의 위치 정보를 수신하고, 수신된 상기 위치와 슬레이브 작업 로봇과 마스터 작업 로봇 사이의 거리 및 각도를 고려하여 상기 슬레이브 작업 로봇의 위치를 판단할 수 있다.
상기 마스터 작업 로봇은 마스터 위치 판단 단계(S30)를 통해 스스로 자신의 위치를 판단할 수 있고, 상기 마스터 작업 로봇의 위치 정보는 슬레이브 작업 로봇에 제공될 수 있다. 이때, 상기 마스터 작업 로봇과 슬레이브 작업 로봇 사이의 상대적 위치 정보, 예컨대 각도 정보가 얻어진다면 상기 마스터 작업 로봇의 위치 정보를 이용하여 상기 슬레이브 작업 로봇의 위치를 판단할 수 있다.
한편, 슬레이브 위치 판단 단계(S40)에서는 마스터 위치 판단 단계(S30)로부터 상기 마스터 작업 로봇의 위치 정보를 실시간으로 제공받을 수 있다. 상기 마스터 작업 로봇과 슬레이브 작업 로봇은 상기 작업 대상 공간에서 지속적으로 움직일 수 있으므로 상기 마스터 작업 로봇의 위치 정보가 실시간으로 제공될 경우에는 상기 슬레이브 작업 로봇의 위치를 보다 정확하게 판단할 수 있다.
도 14는 본 발명의 다른 실시예에 따른 자율 작업 방법을 개략적으로 나타내는 도면이다.
도 14를 참조하면, 본 발명의 다른 실시예에 따른 자율 작업 방법은, 정보 수신 단계(S10), 센싱 설정 단계(S20), 마스터 위치 판단 단계(S30), 마스터 위치 수신 단계(S41), 마스터와의 상대적 위치 판단 단계(S42), 및 슬레이브 위치 판단 단계(S43)를 포함한다. 정보 수신 단계(S10), 센싱 설정 단계(S20), 마스터 위치 판단 단계(S30), 및 슬레이브 위치 판단 단계(S43)에서는 도 12를 참조로 하여 설명한 정보 수신 단계(S10), 센싱 설정 단계(S20), 마스터 위치 판단 단계(S30), 및 슬레이브 위치 판단 단계(S40)에서와 실질적으로 동일한 동작이 수행되므로 중복되는 내용에 한하여 구체적인 설명은 생략하도록 한다.
마스터 위치 수신 단계(S41)에서는 상기 마스터 작업 로봇의 위치 정보를 수신하고, 마스터와의 상대적 위치 판단 단계(S42)에서는 상기 슬레이브 작업 로봇과 상기 마스터 작업 로봇 사이의 거리 및 각도를 산출한다.
도 3 및 도 8을 참조로 하여 설명한 바와 같이, 상기 슬레이브 작업 로봇은 거리 측정부를 이용하여 상기 마스터 작업 로봇까지의 거리를 측정할 수 있고, 또한 어느 벽면까지의 거리를 측정할 수 있다. 마찬가지로 상기 마스터 작업 로봇은 센서를 이용하거나 상기 슬레이브 작업 로봇에 구비되는 상기 거리 측정부를 이용하여 상기 벽면까지의 거리를 측정할 수 있다.
마스터 위치 수신 단계(S41)에서 상기 마스터 작업 로봇의 위치 정보가 수신되면, 마스터와의 상대적 위치 판단 단계(S42)에서 얻어지는 상대적 위치를 이용하여 상기 슬레이브 작업 로봇의 위치를 판단할 수 있다. 여기서 상기 상대적 위치는 마스터 및 슬레이브 작업 로봇 사이의 거리와 상기 마스터 및 슬레이브 작업 로봇이 이루는 각도를 의미하거나, 상기 마스터 및 슬레이브 작업 로봇이 어느 한 쌍의 벽면으로부터 떨어진 거리를 의미하는 것으로 이해할 수 있다.
도 15는 본 발명의 또 다른 실시예에 따른 자율 작업 방법을 개략적으로 나타내는 도면이다.
도 15를 참조하면, 본 발명의 또 다른 실시예에 따른 자율 작업 방법은, 정보 수신 단계(S100), 센싱 설정 단계(S200), 마스터 위치 판단 단계(S300), 작업 정보 표시 단계(S400), 작업 수행 단계(S500), 및 슬레이브 위치 판단 단계(S600)를 포함한다. 정보 수신 단계(S100), 센싱 설정 단계(S200), 마스터 위치 판단 단계(S300), 및 슬레이브 위치 판단 단계(S600)에서는 도 13을 참조로 하여 설명한 정보 수신 단계(S10), 센싱 설정 단계(S20), 마스터 위치 판단 단계(S30) 및 슬레이브 위치 판단 단계(S40)에서와 실질적으로 동일한 동작이 수행되는 것으로 이해할 수 있다.
작업 정보 표시 단계(S400)에서는 상기 마스터 작업 로봇이 상기 작업 대상 공간에 작업 정보를 표시한다. 그리고, 작업 수행 단계(S500)에서는 상기 슬레이브 작업 로봇이 상기 작업 정보를 인식하고 인식 결과에 대응하는 작업을 수행한다.
상기 작업 정보는 상기 작업 대상 공간에서 상기 슬레이브 작업 로봇이 수행해야 하는 작업에 관한 정보를 포함하는 것으로, 슬레이브 작업 로봇은 상기 작업 정보에 대응하여 마킹(marking), 드릴링(drilling), 용접(welding), 커팅(cutting), 나사 작업(screwing), 잠금 작업(fastening), 조임 작업(tightening), 체결 작업(locking) 또는 펀칭(punching) 등의 작업을 수행할 수 있다. 상기 마킹은, 작업면에 안료를 이용하여 데이터를 표시하는 것, 작업면에 스크래치를 남기는 것, 레이저로 작업면을 일부 식각하는 것, 라인기 등 작업면에 데이터를 표시하는 것을 모두 포함할 수 있다.
선택적으로, 상기 슬레이브 작업 로봇은 바닥면에 잔디가 심어져 있는 경우 잔디를 깎음으로써 상기 데이터를 표시할 수도 있도록 예초 작업을 수행할 수 있다.
선택적으로, 상기 슬레이브 작업 로봇은 모래나 블록을 밀어 입체적 형상을 표시할 수 있도록 하는 작업을 수행할 수 있다.
선택적으로 상기 슬레이브 작업 로봇은 입체적 형상을 프린팅할 수 있도록 3D 프린팅 작업을 수행할 수 있다.
선택적으로 상기 슬레이브 작업 로봇은 블록과 같은 물체를 입체적 형상으로 쌓을 수 있는 작업을 수행할 수 있다.
선택적으로 상기 슬레이브 작업 로봇은, 상기 작업 대상 공간에서 벽, 기둥, 바닥, 또는 천정에 특정한 기기를 설치하는 작업을 수행할 수 있다.
그리고, 상기 작업 정보는 상기 슬레이브 작업 로봇이 인식할 수 있는 기호에 의해 표시될 수 있으며, 예를 들어 바코드(barcode), QR 코드, 숫자 또는 문자 중 적어도 어느 하나에 의해 표시될 수 있다. 선택적으로 상기 작업 정보는 상기 작업부가 인식할 수 있는 특수한 감광제로 표시될 수 있다. 예컨대 상기 감광제는 육안으로는 직접 식별되지 않는 것일 수 있으며, 작업부(23)에 의해 인식할 수 있는 것일 수 있다. 이를 위해 상기 작업부(23)는 특수 감광제를 인식할 수 있는 센싱 유닛을 더 포함할 수 있다.
본 발명에 따른 자율 작업 시스템이 복수의 슬레이브 작업 로봇을 포함하는 경우, 작업 정보 표시 단계(S400)에서는 상기 복수의 슬레이브 작업 로봇 각각에 대응하여 서로 다른 작업 정보를 표시할 수 있다. 예컨대, 상기 복수의 슬레이브 작업 로봇이 제1 로봇과 제2 로봇을 포함하는 경우, 작업 정보 표시 단계(S400)에서는 상기 제1 로봇에 대응하는 작업 정보와 상기 제2 로봇에 대응하는 작업 정보를 서로 구분하여 표시할 수 있다.
복수의 마스터 작업 로봇을 포함하는 또 다른 실시예, 예컨대 제1 마스터 로봇과 제2 마스터 로봇을 포함하는 실시예에서는 하나의 마스터 로봇과 하나의 슬레이브 로봇을 일대일 또는 일대다로 매칭하여 작업 정보를 표시할 수도 있다.
한편, 슬레이브 위치 판단 단계(S600)에서는 상기 작업 정보에 포함되는 위치 정보를 이용하여 상기 슬레이브 작업 로봇의 위치를 판단할 수 있다. 상기 마스터 작업 로봇은 자신의 위치를 스스로 판단할 수 있으므로, 작업 정보 표시 단계(S400)에서 표시되는 상기 작업 정보는 해당 위치에 대한 위치 정보를 가지고 있다. 따라서, 작업 정보 표시 단계(S400)에서는 상기 작업 정보에 상기 위치 정보를 포함시킬 수 있고, 슬레이브 위치 판단 단계(S600)에서는 상기 작업 정보를 인식하여 상기 슬레이브 작업 로봇의 위치를 판단할 수 있다.
상기 슬레이브 작업 로봇은 어느 위치에서 작업을 수행하여야 하는지에 관한 정보를 사전에 가지고 있을 수 있으나, 스스로 자신의 위치를 판단할 수 없을 수 있으므로, 상기 작업 정보에 포함되어 있는 위치 정보와 미리 가지고 있던 정보를 비교하여 정확한 작업을 수행하는데 활용할 수 있다.
한편, 본 발명의 다른 실시예에서, 마스터 작업 로봇은 상기 이동 경로를 따라 이동하면서 상기 이동 경로에 대응하는 별도의 표식을 상기 작업 대상 공간에 표시할 수 있다. 예컨대, 마스터 작업 로봇의 상기 이동 경로가 원(circle)인 경우, 마스터 작업 로봇은 상기 작업 대상 공간에 상기 이동 경로에 대응하는 경로를 원으로 표시할 수 있다. 앞서 설명한 바와 같이, 마스터 작업 로봇은 상기 이동 경로를 따라 이동하면서 상기 이동 경로에 대응하는 표식을 표시하고, 상기 작업 정보를 표시하는 작업을 함께 수행할 수 있다.
슬레이브 작업 로봇은 표시된 상기 경로 및/또는 표식을 추적(tracking)하여 마스터 작업 로봇을 추종하여 이동할 수 있고, 이동 중에 작업 정보가 검출되면 해당 위치에서 검출된 상기 작업 정보에 대응하는 작업을 수행할 수 있다.
마스터 작업 로봇은 상기 경로 및/또는 표식을 육안으로 식별 가능하도록 표시하거나, 특수한 장치를 통해서만 식별 가능하도록 표시할 수 있다. 예컨대, 마스터 작업 로봇은 육안으로는 식별 불가능한 감광제를 도포하는 등의 방법을 통해 상기 경로 및/또는 표식을 표시하고, 슬레이브 작업 로봇은 영상 장비, 예컨대 자외선 카메라와 같은 장치를 이용하여 도포된 상기 감광제를 인식하여 상기 경로 및/또는 표식을 인식할 수 있다. 그러나 반드시 이에 한정되는 것은 아니고, 상기 경로 및/또는 표식은 육안으로 보이도록 표시될 수도 있다. 이에 따라 관리자가 상기 경로 및/또는 표식의 정확도를 체크할 수 있다. 이러한 경로 및/또는 표식은 작업이 종료된 후 시간이 지나면 자동으로 지워지는 물질에 의해 형성될 수도 있는 데, 반드시 이에 한정되는 것은 아니고, 작업이 끝난 후 쉽게 지워질 수 있는 물질로 형성될 수 있다.
한편, 마스터 작업 로봇에 의해 표시되는 상기 경로 및/또는 표식은 위치 정보를 포함할 수 있다. 예를 들면, 마스터 작업 로봇은 상기 경로 및/또는 표식 상의 특정 지점 A에 상기 지점 A의 좌표 정보를 포함하도록 할 수 있다. 또는, 상기 경로 및/또는 표식은 상기 작업 대상 공간에 표시되는 작업 정보에 관한 정보를 포함할 수 있는데, 예컨대 상기 경로 상의 특정 지점 B에 상기 지점 B로부터 상기 경로 및/또는 표식을 따라 C 미터(meter) 이동하면 작업 정보가 표시되어 있음을 나타내도록 할 수 있다.
선택적으로, 상기 마스터 작업 로봇도 슬레이브 작업 로봇과 같이 다양한 작업을 수행할 수 있다. 이에 따라 상기 마스터 작업 로봇은 자신의 작업을 수행하면서 동시에, 슬레이브 작업 로봇에게 작업을 지시하고, 이에 따라 마스터 작업 로봇과 슬레이브 작업 로봇은 동일한 작업을 서로 분할하여, 또는 서로 다른 작업을 동시에 수행할 수 있다.
이상 설명한 본 발명의 모든 실시예들은 다른 실시예에도 서로 복합적으로 적용될 수 있음은 물론이다.
한편, 본 발명은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장 장치 등이 있다.
또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의하여 용이하게 추론될 수 있다.
본 발명에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 본 발명이 한정되는 것은 아니다.
본 발명에서 모든 예들 또는 예시적인 용어(예를 들어, 등등)의 사용은 단순히 본 발명을 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 본 발명의 범위가 한정되는 것은 아니다. 또한 해당 기술 분야의 통상의 기술자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터(factor)에 따라 구성될 수 있음을 알 수 있다.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐만 아니라, 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 발명의 사상의 범주에 속한다고 할 것이다.
위치 판단 기능을 포함하는 복수의 작업 로봇을 이용하는 자율 작업 시스템, 방법 및 컴퓨터 판독 가능한 기록매체로 이용될 수 있다.
Claims (16)
- 마스터 작업 로봇 및 적어도 하나의 슬레이브 작업 로봇을 포함하는 자율 작업 시스템에 있어서,상기 마스터 작업 로봇은,작업 대상 공간에 대한 정보를 수신하는 데이터 수신부;상기 작업 대상 공간을 센싱하는 센싱부;상기 마스터 작업 로봇의 이동 경로, 센싱 위치 및 상기 센싱부의 센싱 각도를 설정하는 센싱 설정부; 및상기 센싱 위치에서의 상기 센싱부를 통해 획득된 센싱 데이터와 기준 맵 데이터를 비교하여 상기 마스터 작업 로봇의 위치를 판단하는 제1 위치 판단부;를 포함하고,상기 슬레이브 작업 로봇은,상기 슬레이브 작업 로봇의 위치를 판단하는 제2 위치 판단부;를 포함하는 자율 작업 시스템.
- 제1항에 있어서,상기 제2 위치 판단부는 상기 마스터 작업 로봇의 위치 정보를 수신하고, 수신된 상기 위치와 상기 슬레이브 작업 로봇과 상기 마스터 작업 로봇 사이의 거리 및 각도를 고려하여 상기 슬레이브 작업 로봇의 위치를 판단하는 자율 작업 시스템.
- 제2항에 있어서,상기 슬레이브 작업 로봇은 상기 마스터 작업 로봇까지의 거리 및 상기 작업 대상 공간의 특정 지점까지의 거리를 측정하기 위한 거리 측정부를 더 포함하는 자율 작업 시스템.
- 제2항에 있어서,상기 제1 위치 판단부로부터 상기 마스터 작업 로봇의 위치 정보를 수신하는 위치 정보 관리부를 더 포함하고,상기 제2 위치 판단부는 상기 위치 정보 관리부로부터 상기 마스터 작업 로봇의 위치 정보를 수신하는 자율 작업 시스템.
- 제1항에 있어서,상기 제2 위치 판단부는 임의의 위치에 설치되는 송수신기로부터 출력되는 위치 신호를 수신하고, 상기 위치 신호로부터 상기 슬레이브 작업 로봇의 위치를 판단하는 자율 작업 시스템.
- 제1항에 있어서,상기 마스터 작업 로봇은 상기 작업 대상 공간에 작업 정보를 표시하는 정보 표시부를 더 포함하고,상기 슬레이브 작업 로봇은 상기 작업 정보를 인식하고 인식 결과에 대응하는 작업을 수행하는 작업부를 더 포함하는 자율 작업 시스템.
- 제6항에 있어서,상기 작업 정보는 상기 작업 정보가 표시된 위치에 대응하는 위치 정보를 더 포함하고,상기 제2 위치 판단부는 상기 위치 정보를 이용하여 상기 슬레이브 작업 로봇의 위치를 판단하는 자율 작업 시스템.
- 제6항에 있어서,상기 작업 정보가 표시되는 위치는 상기 마스터 작업 로봇의 이동 경로 상에 존재하는 자율 작업 시스템.
- 제1항에 있어서,상기 센싱 설정부는 상기 작업 대상 공간에 대응하는 기준 맵(Reference Map) 데이터를 고려하여 상기 작업 대상 공간을 센싱하기 위한 상기 센싱 위치를 설정하는 자율 작업 시스템.
- 제9항에 있어서,상기 마스터 작업 로봇은,임의의 기준위치에서 상기 센싱부를 통해 획득된 센싱 데이터로부터 상기 기준 맵을 생성하는 맵 생성부를 더 포함하는 자율 작업 시스템.
- 마스터 작업 로봇 및 적어도 하나의 슬레이브 작업 로봇을 포함하는 자율 작업 시스템을 이용하는 자율 작업 방법으로서,작업 대상 공간에 대한 정보를 수신하는 단계;상기 마스터 작업 로봇의 이동 경로, 센싱 위치 및 상기 센싱 위치에서의 센싱 각도를 설정하는 단계;상기 센싱 위치에서 획득된 센싱 데이터와 기준 맵 데이터를 비교하여 상기 마스터 작업 로봇의 위치를 판단하는 단계; 및상기 슬레이브 작업 로봇의 위치를 판단하는 단계;를 포함하는 자율 작업 방법.
- 제11항에 있어서,상기 슬레이브 로봇의 위치를 판단하는 단계는,상기 마스터 작업 로봇의 위치 정보를 수신하는 단계; 및수신된 상기 위치와 상기 슬레이브 작업 로봇과 상기 마스터 작업 로봇 사이의 거리 및 각도를 산출하는 단계;를 포함하는 자율 작업 방법.
- 제11항에 있어서,상기 슬레이브 로봇의 위치를 판단하는 단계에서는,임의의 위치에 설치되는 송수신기로부터 출력되는 위치 신호를 수신하고, 상기 위치 신호로부터 상기 슬레이브 작업 로봇의 위치를 판단하는 자율 작업 방법.
- 제11항에 있어서,상기 마스터 작업 로봇이 상기 작업 대상 공간에 작업 정보를 표시하는 단계; 및상기 슬레이브 작업 로봇이 상기 작업 정보를 인식하고 인식 결과에 대응하는 작업을 수행하는 단계;를 더 포함하는 자율 작업 방법.
- 제14항에 있어서,상기 작업 정보는 상기 작업 정보가 표시된 위치에 대응하는 위치 정보를 더 포함하고,상기 슬레이브 작업 로봇의 위치를 판단하는 단계에서는 상기 위치 정보를 이용하여 상기 슬레이브 작업 로봇의 위치를 판단하는 자율 작업 방법.
- 제11항 내지 제15항 중 어느 한 항에 따른 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/069,242 US11820001B2 (en) | 2018-04-13 | 2020-10-13 | Autonomous working system, method and computer readable recording medium |
US18/489,135 US20240042621A1 (en) | 2018-04-13 | 2023-10-18 | Autonomous working system, method and computer readable recording medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2018-0043570 | 2018-04-13 | ||
KR1020180043570A KR102031348B1 (ko) | 2018-04-13 | 2018-04-13 | 자율 작업 시스템, 방법 및 컴퓨터 판독 가능한 기록매체 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
US17/069,242 Continuation US11820001B2 (en) | 2018-04-13 | 2020-10-13 | Autonomous working system, method and computer readable recording medium |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2019199112A1 true WO2019199112A1 (ko) | 2019-10-17 |
Family
ID=68164402
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/KR2019/004431 WO2019199112A1 (ko) | 2018-04-13 | 2019-04-12 | 자율 작업 시스템, 방법 및 컴퓨터 판독 가능한 기록매체 |
Country Status (3)
Country | Link |
---|---|
US (2) | US11820001B2 (ko) |
KR (1) | KR102031348B1 (ko) |
WO (1) | WO2019199112A1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230026975A1 (en) * | 2019-10-29 | 2023-01-26 | Ims Gear Se & Co. Kgaa | Driverless transport system for transporting objects, and method for operating a driverless transport system for transporting objects |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102018832B1 (ko) * | 2018-11-29 | 2019-11-04 | 주식회사 트위니 | 자율주행 카트 |
CN113454487B (zh) * | 2019-03-13 | 2024-05-28 | 千叶工业大学 | 信息处理装置以及移动机器人 |
US11676492B2 (en) * | 2019-08-30 | 2023-06-13 | Kabushiki Kaisha Toshiba | System and method for cooperative robotics |
KR102341712B1 (ko) * | 2020-03-30 | 2021-12-20 | 김대현 | 측위 정확도가 높은 이동로봇 및 이의 동작방법 |
KR20220050705A (ko) | 2020-10-16 | 2022-04-25 | (주)랜도르아키텍쳐 | 위치 계측 시스템 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100086093A (ko) * | 2009-01-22 | 2010-07-30 | 주식회사 이제이봇 | 자율주행 군집로봇 위치 제어 시스템 |
JP2013109325A (ja) * | 2011-11-22 | 2013-06-06 | Korea Electronics Telecommun | 群集の知能ロボットを用いた地図構築方法及びその装置 |
KR20140045848A (ko) * | 2012-10-09 | 2014-04-17 | 조선대학교산학협력단 | 이동로봇의 위치추정과 지도 작성 장치 및 방법 |
KR20150000315A (ko) * | 2013-06-24 | 2015-01-02 | 현대중공업 주식회사 | 마스터-슬레이브 로봇 장치 및 그를 제어하는 마스터의 초기위치를 가이드하는 방법 |
KR20160136505A (ko) * | 2015-05-19 | 2016-11-30 | 한국생산기술연구원 | 자기중심 원격제어 방법, 시스템 및 장치 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9026248B1 (en) * | 2011-05-06 | 2015-05-05 | Google Inc. | Methods and systems for multirobotic management |
WO2017036532A1 (en) * | 2015-09-03 | 2017-03-09 | Aktiebolaget Electrolux | System of robotic cleaning devices |
US10962987B2 (en) * | 2016-06-06 | 2021-03-30 | Tokyo Denki University | Group robot and collective movement controlling method for group robot |
CN107479544A (zh) * | 2016-06-08 | 2017-12-15 | 科沃斯机器人股份有限公司 | 母子机协同工作系统及其工作方法 |
-
2018
- 2018-04-13 KR KR1020180043570A patent/KR102031348B1/ko active IP Right Grant
-
2019
- 2019-04-12 WO PCT/KR2019/004431 patent/WO2019199112A1/ko active Application Filing
-
2020
- 2020-10-13 US US17/069,242 patent/US11820001B2/en active Active
-
2023
- 2023-10-18 US US18/489,135 patent/US20240042621A1/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100086093A (ko) * | 2009-01-22 | 2010-07-30 | 주식회사 이제이봇 | 자율주행 군집로봇 위치 제어 시스템 |
JP2013109325A (ja) * | 2011-11-22 | 2013-06-06 | Korea Electronics Telecommun | 群集の知能ロボットを用いた地図構築方法及びその装置 |
KR20140045848A (ko) * | 2012-10-09 | 2014-04-17 | 조선대학교산학협력단 | 이동로봇의 위치추정과 지도 작성 장치 및 방법 |
KR20150000315A (ko) * | 2013-06-24 | 2015-01-02 | 현대중공업 주식회사 | 마스터-슬레이브 로봇 장치 및 그를 제어하는 마스터의 초기위치를 가이드하는 방법 |
KR20160136505A (ko) * | 2015-05-19 | 2016-11-30 | 한국생산기술연구원 | 자기중심 원격제어 방법, 시스템 및 장치 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230026975A1 (en) * | 2019-10-29 | 2023-01-26 | Ims Gear Se & Co. Kgaa | Driverless transport system for transporting objects, and method for operating a driverless transport system for transporting objects |
Also Published As
Publication number | Publication date |
---|---|
KR102031348B1 (ko) | 2019-11-08 |
US20240042621A1 (en) | 2024-02-08 |
US11820001B2 (en) | 2023-11-21 |
US20210039265A1 (en) | 2021-02-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2019199112A1 (ko) | 자율 작업 시스템, 방법 및 컴퓨터 판독 가능한 기록매체 | |
WO2018230852A1 (ko) | 3차원 공간의 이동 객체를 식별하는 방법 및 이를 구현하는 로봇 | |
WO2018212608A1 (ko) | 구동형 마킹 시스템, 구동형 마킹 장치의 제어방법 및 컴퓨터 판독 가능한 기록매체 | |
WO2015183005A1 (en) | Mobile device, robot cleaner, and method for controlling the same | |
WO2019194628A1 (ko) | 이동 로봇 및 그 제어방법 | |
WO2015152692A1 (ko) | 차량 주변 이미지 생성 장치 및 방법 | |
WO2020032413A1 (en) | Moving robot and controlling method thereof | |
WO2017188706A1 (ko) | 이동 로봇 및 이동 로봇의 제어방법 | |
WO2019151735A1 (en) | Vision inspection management method and vision inspection system | |
WO2020032501A1 (en) | Station apparatus and moving robot system | |
WO2018186583A1 (ko) | 주행 지면의 장애물을 식별하는 방법 및 이를 구현하는 로봇 | |
WO2020241930A1 (ko) | 멀티 센서를 이용하여 위치를 추정하는 방법 및 이를 구현하는 로봇 | |
WO2018070687A1 (ko) | 공항 로봇 및 그를 포함하는 공항 로봇 시스템 | |
WO2020027496A1 (en) | Moving robot and controlling method thereof | |
WO2020171317A1 (en) | Moving robot system comprising moving robot and charging station | |
WO2020213955A1 (ko) | 모바일 로봇의 초기화 진단 방법 및 시스템 | |
WO2019143129A1 (ko) | 로봇 청소기 및 그 제어 방법 | |
AU2018216517B2 (en) | Cleaner | |
WO2021040214A1 (ko) | 이동 로봇 및 그 제어 방법 | |
WO2021141339A1 (ko) | 해수면을 고려한 항만 및 선박 모니터링 방법 및 장치 | |
WO2017073924A1 (ko) | 수중 구조물의 용접라인을 이용한 수중 작업 장치의 위치 파악 시스템 및 방법 | |
WO2020141900A1 (ko) | 이동 로봇 및 그 구동 방법 | |
WO2021002569A1 (en) | Electronic apparatus and control method thereof | |
WO2016129924A1 (ko) | 비제한적 구동형 마킹 시스템 및 그 마킹 방법 | |
WO2022025441A1 (ko) | 전방위 이미지 촬영 어셈블리 및 이에 의해 수행되는 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 19784740 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 19784740 Country of ref document: EP Kind code of ref document: A1 |