WO2022118656A1 - 作業現場でモバイルロボットをシミュレーションする装置及び方法 - Google Patents

作業現場でモバイルロボットをシミュレーションする装置及び方法 Download PDF

Info

Publication number
WO2022118656A1
WO2022118656A1 PCT/JP2021/042214 JP2021042214W WO2022118656A1 WO 2022118656 A1 WO2022118656 A1 WO 2022118656A1 JP 2021042214 W JP2021042214 W JP 2021042214W WO 2022118656 A1 WO2022118656 A1 WO 2022118656A1
Authority
WO
WIPO (PCT)
Prior art keywords
mobile robot
virtual mobile
environment
map
virtual
Prior art date
Application number
PCT/JP2021/042214
Other languages
English (en)
French (fr)
Inventor
ラマムルティ,スワミナタン バンガル
ティアガラジャー,ガナベンタン
ナガラジャン,ラジャ
ゴー,ザック
Original Assignee
オムロン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オムロン株式会社 filed Critical オムロン株式会社
Priority to EP21900411.6A priority Critical patent/EP4258077A1/en
Priority to JP2022566828A priority patent/JP7452706B2/ja
Priority to US18/039,368 priority patent/US20240025040A1/en
Priority to CN202180080401.0A priority patent/CN116547624A/zh
Publication of WO2022118656A1 publication Critical patent/WO2022118656A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/003Maps
    • G09B29/006Representation of non-cartographic information on maps, e.g. population distribution, wind direction, radiation levels, air and sea routes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0253Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow

Definitions

  • the present invention relates to an apparatus and method for simulating a mobile robot at a work site, specifically, information necessary for simulating a mobile robot and / or planning the placement of one or more mobile robots at the work site. Regarding equipment and methods for collecting.
  • autonomous mobile robots are used to perform tasks such as transporting objects / goods, executing production work, and / or inspecting the environment. These robots can interact with humans, such as receiving instructions to move between designated locations.
  • an apparatus and a method for simulating a mobile robot at a work site are provided.
  • FIG. 1 It is a figure which shows the system structure which comprises the apparatus which concerns on one Embodiment of this disclosure. It is a figure which shows the flowchart of the method which concerns on one Example of this disclosure. It is a screen diagram of the graphical user interface which shows the initialization step performed before the simulation of a virtual mobile robot. It is the figure which cut out the screen of the graphical user interface in which the virtual mobile robot is arranged, and is the figure which highlighted the virtual mobile robot. It is a figure which shows the screen of the graphical user interface in which a virtual mobile robot is arranged. It is a figure which shows the example of the load list including the load which can be selected by the user for mounting on the virtual mobile robot of one Embodiment of this disclosure.
  • autonomous mobile robots may be installed to promote production processes and manufacturing processes.
  • Each mobile robot is equipped with a machine or device and may transport the mobile robot to a mobile station to perform a task using the mounted machine or device.
  • payload is used to refer to an onboard machine or appliance.
  • the embodiments of the present disclosure can provide devices and methods that can simplify the time for planning and deploying mobile robots and reduce the time to a short period of several weeks.
  • the device and method provide a simple and convenient solution for collecting information from the worksite for planning.
  • the device and method also provide potential users with demonstration tools for demonstrating the capabilities of mobile robots and simulating post-deployment scenarios for mobile robots.
  • the device may be a handheld mobile device such as a smartphone, tablet terminal, laptop or the like.
  • the device may be a real-life mobile robot (a real-life robot present at the work site) having a movable mobile base.
  • the device may be a movable cart that can be pushed by the user.
  • the mobile base may have wheels and / or trucks for moving the mobile robot.
  • the mobile robot may be configured to move around the work site by itself. Further, the mobile robot may be remotely controlled by the user to move to the work site.
  • Movable carts may have a mobile base, also equipped with wheels and / or trucks, and may be pushed around by the user.
  • the device may include one or more sensors used for navigation / area mapping purposes and one or more cameras for acquiring images (photos or videos).
  • the term "mapping" means scanning or sensing the worksite environment for the purpose of creating a map for the worksite environment. Mapping means the process of creating a part of a map or the process of creating an entire map. Mapping input refers to data for creating a map of all or part of it. Such mapping inputs can be obtained from one or more sensors. Further, the one or more sensors may be a laser sensor (for LiDAR system or the like), an infrared sensor, an ultrasonic sensor, or the like, or may include them.
  • LiDAR relates to a technique for measuring a distance (distance measurement) by irradiating an object with a laser beam and measuring the reflection thereof with a sensor.
  • An object can be represented digitally in three dimensions (3D) by utilizing the difference in the reflection time and wavelength of the laser.
  • This device may be configured to have a SLAM (Simultaneous Localization and Mapping) function.
  • SLAM can be executed using, for example, an AMCL (Adaptive Monte Carlo Localization) algorithm.
  • the AMCL algorithm relates to a stochastic localization system for an object (known as an AMCL node) that moves on a two-dimensional (2D) map, that is, is navigated on a 2D map.
  • the AMCL node is configured to work with laser scans and laser maps by LiDAR, but may be extended to work with other sensor data such as sonar and stereo.
  • SLAM and AMCL When SLAM and AMCL are included, it is necessary to create a 2D map of the environment (usually a top view of the environment).
  • This device is configured to operate or execute software.
  • This software includes mobile applications for mobile operating systems (Google's Android, iphone operating systems, etc.) and applications that run on portable computer (notebooks, laptops, etc.) operating systems (Windows, MacOS, etc.). You may.
  • the software works with one or more sensors to perform navigation / area mapping of the worksite environment.
  • the software also helps the user acquire data other than navigation / area mapping data (cycle time, utilization, etc.), as described in more detail below.
  • the software is configured to create a virtual mobile robot for display and to simulate the operation and / or operation of the created virtual mobile robot in a worksite environment.
  • the software may provide a graphical user interface to facilitate the user's configuration and / or use of the software.
  • the present device may have a display such as an LCD, an LED, or an OLED screen.
  • the display is used to display the graphical user interface of the software.
  • the present device may display the environment of the work site as the background of the display, and may be configured to superimpose or expand the created virtual mobile robot in the displayed environment.
  • the environment may be acquired by one or more cameras.
  • the one or more sensors may be other types of sensors such as a laser sensor, an infrared sensor, and an ultrasonic sensor. These sensors can map the environment, provide data for rendering graphics representing the environment, and display it on a display.
  • the environment displayed as the background is a complete virtual environment created based on the mapping input (for example, a virtual environment can simulate a fully furnished environment) or a partial virtual environment with overlays.
  • the appearance of the virtual graphic content and / or the graphic overlay may be customizable.
  • the user can input to control the operation of the virtual mobile robot. Such user input can be used to program the actual mobile robot to be deployed.
  • a display is installed in a remote location for the user to simulate and / or collect information from the simulation of the virtual mobile robot.
  • a graphical user interface for operating a virtual mobile robot can be provided to the user.
  • the graphic of the virtual mobile robot may be in any form as long as a movable object is displayed. For example, it may be a simple sphere or a box-shaped object without elaborate design. Further, the graphic may be a realistic representation of an actual mobile robot.
  • this device is configured to execute jobs a) to e) as follows.
  • the map may be a two-dimensional (2D) and / or a three-dimensional (3D) map. All references to "map" in this disclosure refer to this map.
  • the 2D map may be a top view of the environment.
  • the 3D map may be created first and then converted to a 2D map.
  • the map may be generated by first moving the device around the work environment and scanning and mapping the environment. After the map is generated, object data related to obstacles, including localization data, global path data, stationary objects and / or dynamic objects, and / or other information may be collected. Examples of dynamic objects include humans, machines, and / or random objects placed on the floor.
  • a map is generated as the appliance moves through the worksite environment, while simultaneously collecting localization data, global path data, object data about obstacles, including stationary and / or dynamic objects, and / or other information. It is also possible to do.
  • A) Acquire localization data that is, data regarding the position of the virtual mobile robot on the generated map.
  • This device which exists in the work site environment, can be regarded as the hardware of a virtual mobile robot. Therefore, when the device tracks the position, the position of the virtual mobile robot can be tracked by using the position of the device.
  • Localization means that the device tracks the position on the map. Localization is a process used by the device to estimate its position in the environment based on data collected from one or more sensors. For example, there are two types of localization. Laser localization uses data from a laser sensor (such as a LiDAR scanner) of this device together with a map to calculate its position. This may be set as the default method for the device to track its location in the environment (or operating space).
  • the device may use light to track its location in the environment.
  • the device is a mobile device such as a smartphone with a torchlight function and / or if the device is an actual mobile robot controlled by the user or a mobile cart pushed by the user. It may be a headlight.
  • the optical localization process is used in a dynamic environment where the object moves frequently with respect to the device and can be localized based on the object and / or the past position of the device.
  • the map is compared with the data collected from one or more sensors and the position of the virtual mobile robot is corrected. With this information, the device can track the position of the virtual mobile robot on the map.
  • a route planning method called cost-based route planning may be used for automatic route calculation.
  • the virtual mobile robot instructed to proceed to the goal (such as a waypoint set by the user on the software) is the most until the virtual mobile robot reaches the goal from the current location of the virtual mobile robot based on the information on the map. Search for an efficient route on the map. This route is called a global route and is the optimum route between two points.
  • the virtual mobile robot heads for the goal along this path, but in the process, it encounters obstacles that are not recorded on the map (objects that are obstructing the movement of the virtual mobile robot and are not recorded on the map). It can be avoided.
  • the device detects an object that is not on the map, the device changes the local route of the virtual mobile robot to avoid the object. If the virtual mobile robot cannot follow the global route, the device may replan a new global route for the virtual mobile robot based on the information on the map.
  • the cycle time is the time required for the virtual mobile robot to complete a work cycle including virtually executing a task assigned to the virtual mobile robot.
  • the operating rate data is data indicating how much the virtual mobile robot is used.
  • the traffic condition for moving at the work site can be mentioned.
  • the present device may be configured to receive the following six types of inputs (i) to (vi) from the user.
  • the user may input waypoints to a specific point or area in the environment displayed on the display as the device moves. For example, if the display is a touch screen, the user may select a point or area in the environment shown on the display and set it as a waypoint. Waypoints may also be set by selecting points or areas on the created map via a graphical user interface. Each waypoint may be commented or a goal may be set. For example, a charging area for simulating the charging of a secondary battery of a virtual mobile robot, an area for exchanging loads mounted on the virtual mobile robot, a repair area for the virtual mobile robot, and specific production by the virtual mobile robot / Waypoints may be set as points or areas for performing specific actions, such as areas for performing warehouse operations.
  • the waypoint also functions as a guide for navigating the path of the virtual mobile robot simulated by this device.
  • the waypoints may be numbered to indicate the priority of the virtual mobile robot as it moves between the waypoints.
  • the user may partition one or more zones or areas in the environment where the virtual mobile robot is allowed to enter, and / or zones or areas where the virtual mobile robot is not allowed to enter. Resistance or priority levels may be assigned to these partitioned zones or areas for route planning purposes if it is preferred or not fully permitted to enter certain zones. Details of resistance and priority are provided below.
  • the user may enter route planning parameters via the graphical user interface of the software executed by the device.
  • the route planning parameters control how the virtual mobile robot moves in the environment.
  • a non-exhaustive list of route planning parameters is as follows. 1) Maximum moving speed and maximum rotation speed of the virtual mobile robot. 2) Radius of gyration of the virtual mobile robot. 3) Grid resolution of the route planning grid.
  • the route planning grid may be related to a route planning method called cost-based route planning described above.
  • cost-based route planning is that the generated 2D map (top view) is a discrete 100 mm grid (usually sufficient) called a route planning grid. Divide into (size) and allocate the cost to each square.
  • the cost of a free (empty) square may be 0.1.
  • the cost of squares, including walls and other fixtures, is infinite, and virtual mobile robots are so expensive that they will never enter these squares.
  • the speed and slowness of the virtual mobile robot For example, you may set the speed of movement of the virtual mobile robot at a particular waypoint and / or point or area on the map. In some areas, it may be necessary to slow down the virtual mobile robot for traffic control, safety, or other purposes.
  • Padding and gaps (at high and low speeds) of virtual mobile robots This refers to how much clearance or distance the virtual mobile robot needs to have from an object in the environment.
  • a sector is, for example, a zone or area set on the map by the user by selecting a grid grid.
  • the line is a boundary line set on the map by the user.
  • “resistance” means the cost for crossing a sector and / or line having resistance set on the map. This is a value that defines how much the virtual mobile robot resists driving a particular sector and / or crossing a line and finds an alternative path.
  • the cost of passing through a sector or line with resistance may be calculated by multiplying the resistance value. For example, a normal area or sector is given a cost value of 1, and setting the resistance value to 1 turns off the resistance operation. 9) A preferred line for the virtual mobile robot to cross or follow, a preferred sector for the virtual mobile robot to enter, and / or a preferred direction for the virtual mobile robot to move. For example, the same resistance value may be used to indicate the level of priority, or another value may be used to indicate the level of priority.
  • the user may control / adjust the localization parameters of one or more sensors according to the user's request.
  • the unit is shown in millimeters (mm), but other measurement units can be applied in the same manner.
  • Examples of localization parameters are as follows.
  • -A flag that changes the number of samples based on the localization score. When enabled, the number of samples can be reduced when the virtual mobile robot is moving and the localization score is high. As a result, the load on the central processing unit (CPU) or the computer of this device is reduced.
  • -A parameter that adjusts the interval (degree) required for setting the laser used for localization. This parameter is set to discard readings that are too close to each other. This reduces the load on the CPU or computer of this device.
  • -Grid resolution (mm) of the map grid created during laser localization This is related to scan resolution. Decreasing this value improves the localization accuracy, but increases the memory usage (RAM usage, etc.) of the device.
  • -Error in millimeters of linear movement This refers to the margin of error (mm) of the reading of the linear mileage meter of this device. If the set value is too high, the sample pose will be too wide and the device will not be able to locate it. If the set value is too low, the device may not be able to locate it. -The degree of error with respect to the angle of rotation of the device. This refers to the permissible error (frequency) of the reading value of the mileage meter in the rotation direction of this device. If the set value is too high, the sample poses will be too dispersed and the device will not be able to locate it. Also, if the set value is too low, the device may not be able to localize.
  • -1 Degree of error in linear movement per mm This refers to the tolerance (frequency) of rotation of the robot per 1 mm of linear movement. If the set value is too high, the sample pose will be too wide and the device will not be able to locate it. Also, if the set value is too low, the device may not be able to localize. -Number of sample poses to use for localization. This is related to the resolution of the scan. Increasing this value increases the amount of localization calculation. If this value is too low, the device cannot be localized. -Distance (mm) that the device moves before localization. This is related to the frequency of localization of the device. By adjusting this parameter, the load on the CPU or computer of this device can be reduced.
  • the device will only localize if it has traveled beyond the listed distance values. -The angle (degree) at which the device bends before it starts localization. This is related to the frequency of localization of the device. By adjusting this parameter, the load on the CPU or computer of the device can be reduced. The device will only localize if it rotates beyond the listed angle values.
  • the light source described below means a light source mounted on the device or a light source separately prepared for cooperation with the device.
  • -Minimum height (mm) of the light source from the ground This value is an approximation and should be lower than the actual value. This value is used to set a valid range and eliminate false positives.
  • -Maximum height (mm) of light source from the ground This value is an approximation and should be higher than the actual value. This value is used to set a valid range and eliminate false positives.
  • -Minimum length of light source (mm). This value is an approximation and should be slightly lower than the actual value.
  • the user may set the virtual mobile robot to perform a specific task.
  • the duration of the task may be set.
  • a simulation eg, in the form of an animated video
  • a virtual mobile robot may be configured to move and operate in an environment as if it were a real mobile robot when: -A map of the environment is generated. -Waypoints specific to virtual mobile robots are set by the user on the map. -How the virtual mobile robot moves between waypoints is set. -The task or action to be performed at the waypoint of the work site is set. With the operation of the virtual mobile robot, information on the work efficiency of the virtual mobile robot such as cycle time and operating rate is calculated.
  • the user may select and load a load from a list of various loads.
  • the user may also enter the CAD model of the customized load desired by the user and / or the CAD model of the customized mobile robot required by the user.
  • the software of the device may be configured to include two or more virtual mobile robots and / or one or more objects for simulating traffic conditions when two or more virtual mobile robots are deployed. ..
  • Each virtual mobile robot may be configured according to the contents described above for the virtual mobile robot.
  • the one or more objects created may be stationary objects such as furniture, building structures, and / or equipment placed in place. Also, the one or more objects created may be dynamic objects such as people, mobile devices, and / or other mobile objects. Traffic data may be collected from simulations for traffic control management.
  • the software may also be configured to allow the user to view a simulation of one or more virtual mobile robots and any created object in the environment.
  • FIG. 1 shows an example of the system structure of the system 100 including the above-mentioned device.
  • the present apparatus is designated by a reference numeral of 102.
  • the device 102 exists in the work site environment, collects information for planning the placement of the mobile robot at the work site, and performs a simulation of the operation and operation of the virtual mobile robot working at the work site. .. Specifically, the device 102 performs the above-mentioned tasks a) to e).
  • the device 102 is a smartphone having a touch screen screen and is configured to execute the mobile application 103.
  • the device 102 comprises one or more sensors 109 (3D scanners / sensors) including a sensor for a LiDAR system to perform mapping and localization processing 107 in a worksite environment. Further, one or more sensors 109 have a camera.
  • the device 102 displays the environment acquired by the camera as a background to the user 120, and also displays the virtual mobile robot created by the application 103 and superimposed or added to the background as a graphical user interface 105 ( GUI) is provided. Further, the GUI 105 provides the following functions to the user 120.
  • GUI graphical user interface 105
  • the device 102 cooperates with a cloud system 104 that can use virtual machine (VM) technology.
  • VM virtual machine
  • cloud services can use virtual machines to provide virtual application resources to multiple users at once.
  • a virtual machine (VM) may be a computing resource that uses software instead of a physical computer to execute programs and deploy applications.
  • One or more virtual "guest” or “client” machines may run on a physical "host” machine. Each virtual machine runs its own operating system and can function separately from other VMs, even if all VMs are running on the same host.
  • the device 102 cooperates with a plurality of servers in the cloud system 104 described below.
  • multiple servers may handle the work scope of each server described below.
  • the cloud system 104 has a storage server 106 that manages the following cloud storages. 1) Load data (image, text, voice, etc.) that can be selected by the user in the device 102 mounted on the virtual mobile robot described above, and 2) Load, user-customized load, virtual mobile robot, user. Data of a CAD model of a virtual mobile robot customized by and / or any created object that can be displayed in the environment.
  • the device 102 downloads the above-mentioned data to the server 106 or uploads it from the server 106 as needed during operation. Also, in another example, such data may be stored locally in local memory accessible by device 102. Further, the server 106 may be configured to manage user counts of a plurality of users of a device such as the device 102 and authenticate each user logged in to use the application 103.
  • the cloud system 104 further includes a planning server 108 for executing autonomous intelligent vehicle (AIV) mapping software (also called a mobile planner).
  • the planning server 108 creates a map of the work site from the mapping inputs provided by the device 102 and functions as a control center for managing the AIV configuration for the virtual mobile robot.
  • the planning server 108 can support mapping and setting of a plurality of devices such as the device 102 and an existing mobile robot.
  • the AIV refers to a virtual mobile robot created by the device 102.
  • the mobile planner is a server-based application. Therefore, the mapping process for creating the map is performed not by the device 102 but by the server 108.
  • the device 102 simply provides the mapping input to the server 108, which returns the created map.
  • the mobile planner may be a local application running on device 102.
  • the cloud system 104 is provided with a simulation server 110 for executing software (also called a fleet manager) that performs processing necessary for simulating the operation of a virtual mobile robot in a field environment.
  • the fleet manager can control real and / or virtual mobile robots in the workplace environment.
  • Fleet Manager provides a centralized configuration platform for configuring multiple real and / or virtual mobile robots in the environment.
  • Fleet Manager also provides a central map management platform for multiple real and / or virtual mobile robots.
  • User settings made intensively using Fleet Manager and map information centrally collected by Fleet Manager can be automatically propagated to multiple real and / or virtual mobile robots. ..
  • the fleet manager also manages columns of jobs, matches jobs to available real and / or virtual mobile robots, and performs multiple real and / or virtual jobs in the environment to perform assigned jobs. Dispatch a mobile robot.
  • the fleet manager also manages the traffic of multiple real and / or virtual mobile robots to reduce collisions and ensure efficient movement.
  • Real and / or virtual mobile robot position and orbit information is shared by the fleet manager.
  • the fleet manager is a single unit of integration and communication of software clients equipped with multiple identical devices 102 and / or real mobile robots in the environment and other automated devices (excluding real and / or virtual mobile robots). Functions as a point.
  • the fleet manager is a server-based application.
  • the fleet manager may be provided as a local application in which some or all of the functions of the fleet manager are performed on the device.
  • the user moves the device 102 with the virtual mobile robot and does not perform localization to allow the virtual mobile robot to avoid (ie, detour) the dynamic object.
  • the simulation of the virtual mobile robot is still ongoing and can be displayed based on real-time updates from the fleet manager.
  • the fleet manager can provide real-time updates on the traffic conditions at the worksite based on updates from other real and / or virtual mobile robots located at the worksite. Dynamic objects detected by other real and / or virtual mobile robots are recorded and mapped for the virtual mobile robot, even if the device 102 is not around to perform localization for the virtual mobile robot. can do.
  • the cloud system 104 comprises a manufacturing execution system (MES) server 112 that is typically used to drive manufacturing operations by managing and reporting factory activities when events occur in real time.
  • the MES server 112 can be used in the manufacturing industry to track and document conversions from raw materials to finished products.
  • the MES server 112 can provide information to help manufacturing decision makers understand how the current state of the factory can be optimized to improve production output.
  • the MES server 112 can operate in real time to allow control of multiple elements of the production process (eg, inputs, personnel, machines, and support services).
  • the MES server 112 manages, coordinates, monitors, and controls manufacturing processes performed by real and / or virtual devices / machines in the environment and / or real and / or virtual mobile robots in the environment. used.
  • the mobile planner, fleet manager, and MES server 112 can communicate with each other to support multiple devices such as device 102.
  • FIG. 2 is a flowchart showing an example of a method executed by the device 102 of FIG. 1, which is a smartphone equipped with a camera and a LiDAR system, in order to collect information on the work site.
  • This method also provides simulation of the movement and movement of a virtual mobile robot.
  • the user activates the mobile application 103 of FIG. 1 of the device 102.
  • the user may be required to log in to the application 103 and be successfully authenticated by the server communicating with the application before being given access to use the application 103.
  • a menu may be displayed on the GUI 105 of FIG. 1 so that the user can select a function to be executed. As one of the functions, it is possible to perform mapping to create a map of the work site.
  • step 204 the application 103 checks whether the mapping is required to create the map when the user chooses to perform the mapping or when the application 103 is started. If a work site map already exists (eg, uploaded or updated by a mobile planner or fleet manager, or previously created), no mapping is required and the process proceeds to step 222.
  • the device 102 may communicate with the mobile planner or the fleet manager to acquire an existing map or acquire update information of the existing map. As an example, application 103 may prompt the user to proceed with remapping if the map already exists.
  • mapping is required, 3D mapping is started in step 206. In this example, the user must move the device 102 around the work site to scan the environment and create a 3D map of the environment.
  • a stationary / dynamic object may be provided in the environment to detect and record the device 102 in the 3D map during the mapping process.
  • the device 102 gets inputs from one or more sensors 109 in FIG. 1 for 3D mapping.
  • a 2D map top view of the environment
  • the method ends in step 224 after the 2D map is created and the user chooses to end.
  • the user may issue instructions via the GUI 105 to perform other functions (ie, step 222) such as simulating a virtual mobile robot, or proceed to step 208 where the user wishes to edit the 2D map. You can check with the user whether or not it is.
  • Map editing includes adding waypoints, setting goals to be achieved at waypoints, marking permitted / disallowed zones, editing route planning parameters, and the above-mentioned six types of user inputs (i) to (vi). It may include the setting of the task of the virtual mobile robot simulated according to (i), (ii), (iii), and (v), respectively. Editing the map may also include adding stationary / dynamic objects to specific locations and / or areas on the map.
  • Step 212 may also proceed after the map has been edited in step 210.
  • step 212 the virtual mobile robot is created so as to appear on the display of the device 102 against the background of the image of the work site environment acquired by the camera. Then, in step 214, the virtual mobile robot is set to move autonomously according to the goal / task set in the edited map.
  • the device 102 is localized by the user carrying the device and following the virtual mobile robot set to automatically move according to the set goal / task. It can be performed. While moving with the virtual mobile robot, the device 102 detects dynamic objects that are not on or recorded on the map in the environment and causes them to be recorded on the map in step 216.
  • step 218 the virtual mobile robot moves so as to avoid (that is, detour) the dynamic object.
  • a local route plan is determined based on the inputs of one or more sensors during localization. For example, when an object is found in a globally planned path (in front of a virtual mobile robot), the virtual robot stops, changes course, and moves on to the next goal. If no such dynamic object is detected, the virtual mobile robot plans the global route in step 220 to optimally move from one waypoint to another without worrying about the dynamic object.
  • the information on the stationary object is collected at the time of map creation, it is understood that the movement of the virtual mobile robot during autonomous navigation considers the existence of the stationary object.
  • step 224 when the simulation is terminated by the user or the goal / task set by the virtual mobile robot is achieved.
  • the virtual mobile robot is configured to appear in the 2D map at step 214 and navigate autonomously according to the set goal / task.
  • the user automatically performs autonomous navigation within the acquired environment to achieve the goal / task and turn around. View on the display.
  • the virtual mobile robot detects only the dynamic objects already mapped or recorded on the map in step 216 when moving in the environment.
  • the virtual mobile robot simulates the localization process and moves based on the local route plan in step 218 to avoid or bypass the mapped dynamic object. For example, when an object is found within a globally planned path (in front of a virtual mobile robot), the virtual robot stops, changes course, and moves toward the next goal.
  • step 220 the virtual mobile robot will move from one waypoint to another in an optimal manner without worrying about the dynamic object.
  • step 222 instead of autonomously navigating the virtual mobile robot based on a set goal / task (such as step 214), the user uses the controls provided by the GUI 105, such as a virtual mobile pad or joystick. Then, manually control and drive the virtual mobile robot around the work site. The user can choose to move the device 102 to follow when the virtual mobile robot is driven. In this case, localization performed by the device 102 with respect to the virtual mobile robot occurs, and the device 102 can detect an unmapped dynamic object to be mapped or recorded (interfering with the movement of the virtual mobile robot). If the user chooses not to move the device 102 and not follow the virtual mobile robot, the virtual mobile robot will be driven in the environment acquired (or last updated by the fleet manager) during the last map creation. Ru.
  • the user may add a load to be mounted on the virtual mobile robot in step 222 and see a simulation of the virtual mobile robot operating with the load.
  • One or more on-screen buttons or menu options may be provided to turn on / off voice for virtual mobile robots and / or loads. When voice is on, a realistic simulation is provided that includes the sound emitted by the virtual mobile robot and / or the load.
  • FIG. 3 is a diagram showing the graphical user interface 105 of FIG.
  • FIG. 3 is a diagram showing the displayed environment of the work site acquired by the camera of the device 102 of FIG. 1 by adding an object on the environment.
  • the following description of FIG. 3 refers to the components of FIG. 1 and the steps of FIG.
  • the user instructs the device 102 to acquire an image of the ground 302 acquired by the camera of the device 102. , It may be required to initialize the addition or simulation process in the initialization step.
  • the purpose of this initialization step is to calibrate one or more sensors 109 to prepare for localization, and if an environment map has already been created, detect and select the position of device 102 in the environment map.
  • the purpose is to have the user place a virtual mobile robot in the designated place.
  • the mesh 304 composed of a plurality of spots is added onto the ground 302 when the device 102 succeeds in detecting the ground 302 with the help of one or more sensors 109.
  • Still objects such as the wall 306 shown in FIG. 3 have graphics added on them in the displayed environment. These graphics highlight the wall 306 for a clearer display on the display. These graphics may also serve as markers to guide the movement of the virtual mobile robot, for example, when the virtual mobile robot collides with or intersects a marked point, line, or area. May be suppressed.
  • An "arrangement" button 308 pressed by the user is provided to start the process of arranging the virtual mobile robot at a position on the ground 302 selected by the user.
  • FIG. 4 is a cut-out screen view showing a graphic in which the virtual mobile robot 402 is arranged on the mesh-shaped ground 302 of FIG.
  • a ring 404 is displayed around the virtual mobile robot 402 on the ground 302.
  • the ring 404 can be used by the virtual mobile robot 402 to indicate a gap or distance to be maintained between adjacent objects in the vicinity of the virtual mobile robot 402. This gap or distance can be customized.
  • the ring 404 acts like a cursor and is displayed when the virtual mobile robot 402 is selected by the user. When the virtual mobile robot 402 is selected, the main body of the virtual mobile robot 402 may be highlighted as shown in FIG.
  • FIG. 5 shows an example of a screen view 500 (sideways) including the virtual mobile robot 402 after the virtual mobile robot 402 of FIG. 4 is placed on the ground 302 at a position selected by the user.
  • a screen view 500 may be displayed in step 222 of FIG.
  • Screen FIG. 500 includes a back button 508 and a forward button 510 for toggle between pages of the graphical user interface 105 of FIG.
  • a "load selection" button 506 for the user to click to display a list of loads and for the user to select a load from the list and mount it on the virtual mobile robot 402.
  • the virtual mobile robot 402 is drawn so as not to be loaded with a load in FIG.
  • the parameter 502 is displayed in the upper right of the screen view 500.
  • the screen diagram 500 includes a virtual joystick 504 that can be operated to drive the virtual mobile robot 402 at the work site via the touch on the touch screen display of the device 102 of FIG.
  • the user-driven session of the virtual mobile robot 402 may be recorded as a moving image for future reference.
  • FIG. 6 and 7 are diagrams showing an example of a list of loads described with reference to FIG. 5 for the user to select a load to be mounted on the virtual mobile robot 402 of FIG.
  • loads included in the list are a conveyor top 602 for transporting objects, a mobile manipulator (MoMa) 604 for moving objects, and a cart robot top designed to hold specific objects. 702, and ultraviolet (UVC) top 704 can be mentioned.
  • UVC ultraviolet
  • the mobile manipulator 604 may have six or more robot motion axes.
  • the mobile manipulator 604 includes a virtual robot arm that animates to perform a picking operation using a predetermined virtual gripper attached to the mobile manipulator 604.
  • the design of the virtual gripper may be incorporated as a CAD model in the same manner as the CAD model of all loads.
  • 8 to 11 show four screen views of the graphical user interface 105 of FIG.
  • the four virtual mobile robots 800, 900, 1000, and 1100 are shown in the four screen views of FIGS. 8 to 11, respectively.
  • Each virtual mobile robot carries a different load.
  • the virtual mobile robot 800 is equipped with a conveyor top.
  • the virtual mobile robot 900 is equipped with a cart robot top.
  • the virtual mobile robot 1000 is equipped with a user control panel top.
  • the virtual mobile robot 1100 is equipped with a UVC top.
  • Each of the four screen views shows that the load list 1002 of FIG. 10 for the user to select a load to be mounted on the virtual mobile robot can be placed in one window of the graphical user interface 105.
  • the intensity level of the ultraviolet rays of the UVC top 704 in FIG. 7 may be adjusted. Further, the ultraviolet rays emitted by the UVC top 704 may be turned on / off.
  • 12 and 13 are screen views of a virtual mobile robot 1200 equipped with a UVC top 1204. 12 and 13 show a workload simulation option or button 1202 that can turn on or off the irradiation of UV 1304 from the UVC top 1204. In FIG. 12, the ultraviolet rays are switched off, and in FIG. 13, the ultraviolet rays are switched on. 12 and 13 show that each load is provided with a unique animation for realistic simulation.
  • radiation or luminescence that is invisible to humans such as infrared rays, laser beams, and / or rays of other electromagnetic waves, may be displayed or animated. Navigation by real or virtual mobile robots during simulation may take into account these radiations or luminescences.
  • FIG. 14 shows an example of a 3D map 1402 of a work site environment that can be created by the LiDAR system of device 102 of FIG. 1 during the mapping process, and a work site environment that can be converted from the 3D map 1402. It shows an example of a 2D map 1404 (for example, a file in dxf format).
  • FIG. 15 shows the cloud system 104 of FIG. 1 in which the servers 108 and 110 of FIG. 1 provide a mobile planner and a fleet manager 1504, respectively.
  • FIG. 15 shows a screen view 1502 of a simulation of a virtual mobile robot displayed on the display of the device 102 of FIG.
  • the screen diagram 1502 is provided by the graphical user interface 105 of FIG.
  • the 5G network helps to reduce the waiting time during data communication and provides more reliable and error-free data communication.
  • a smoother simulation can be provided.
  • the device 102 is also known as an augmented reality (AR) device used to collect data in a worksite environment.
  • AR augmented reality
  • an AR device is used to collect data.
  • the user may manually input the data to be collected in the AR device, or the AR device may be made to automatically collect the data by using one or more sensors 109 (sensor set) in FIG.
  • sensors 109 sensor set
  • the user can carry the AR device and follow the movement of the virtual mobile robot to localize the virtual mobile robot via the set of sensors in the AR device. good.
  • the user does not move the AR device with the virtual mobile robot, but other AR devices, other devices used to monitor objects in the map, and / or real mobile robots present in the environment.
  • a virtual mobile robot may be made to automatically search for a predetermined or existing map on which stationary and / or dynamic objects are updated by.
  • the AR device transmits the data collected in step 1508 to the simulation software (which may be a fleet manager or other software) as a simulation task via the 5G network.
  • the simulation software is run on the simulation server 110 of FIG.
  • the simulation is automated, and the data for displaying the simulation is transmitted to the AR device and displayed.
  • Simulation automation refers to the case where the virtual mobile robot is set to navigate autonomously by itself (for example, step 214 in FIG. 2).
  • the user may also manually select the simulation.
  • the user drives the virtual mobile robot (for example, step 222 in FIG. 2) to collect data.
  • the collected data transferred to the simulation software includes a precise 2D map, a precise goal position, and a route plan for an autonomous intelligent vehicle (AIV)
  • AIV is a virtual mobile robot, and the route plan is a global route even if it is a local route plan.
  • AIV job schedule, AIV travel time, bottleneck locations (eg, heavy traffic locations, difficult object avoidance locations, slow or inefficient job execution locations, etc.), and AIV. Usage rate (AIV usage statistics) may be included.
  • the AR device acquires the simulation result from the simulation server 110 via the 5G network.
  • the simulation result may be displayed in real time on the display of the AR device.
  • record the simulation results and the user will later see the pre-recorded simulation on the display of the AR device to learn the demonstrations provided by the simulation and / or study the simulation and provide suggestions for improvement. You may.
  • AR devices smoothly visualize not only one virtual mobile robot, but multiple virtual and / or real mobile robots operating in the workplace environment. May be used to.
  • One or more virtual mobile robots operating in the environment and / or each device controlling each real mobile robot are configured to communicate data about themselves with a server running a fleet manager (eg 110 in FIG. 1). May be done.
  • the fleet manager acts as a central traffic control device, providing data to each AR device and instructing it to display a graphic simulating traffic conditions in the environment.
  • one or more virtual and / or real mobile robots appearing in the field of view of the AR device can be visualized as part of the environment by input from the fleet manager, and all visualizations in the environment.
  • the virtual mobile robot behaves as if the virtual mobile robot were a real object in the simulation.
  • One of the devices described in the embodiments of the present disclosure (eg, device 102) or the server described with reference to FIG. 1 has the following components for electronic communication over a bus: May be good.
  • 1. display; 2.
  • Non-volatile memory and / or non-temporary computer-readable media 3.
  • Random access memory hereinafter referred to as "RAM”
  • N processing components (“1 or more controllers", “1 or more processors”, “1 or more central processing units”, etc.); 5.
  • Transceiver component containing N transceivers for internet / intranet and / or wireless network communication 6.
  • User control ie user input device; 7.
  • Image acquisition components such as cameras (item 7 is a server option described with reference to FIG. 1); 8.
  • an audio signal acquisition component eg, a microphone
  • audio speakers e.g., One or more sensors and / or components intended for navigation / area mapping
  • An input / output interface for connecting to user input devices (mouse, joystick, keyboard, sensors that detect user gestures, etc.), audio speakers, displays, image acquisition components, and / or audio signal acquisition components.
  • the display generally operates to provide the user with a presentation of graphical content (eg, the graphical user interface 105 of FIG. 1) and is any of a variety of displays (eg, CRT, LCD, HDMI, microprojector, OLED display). It may be realized by.
  • the display may be a touch screen. In this case, the touch screen is part of the user control, i.e. part of the user input device.
  • non-volatile memory functions to store (eg, permanently store) data and executable code that includes code associated with functional components of the mobile platform.
  • non-volatile memory contains boot loader code, modem software, operating system code, file system code, and other codes well known to those of skill in the art that are not drawn for simplicity.
  • the non-volatile memory is implemented by flash memory (eg, NAND or NOR memory), but it is certain that other types of memory can also be used. Although it is possible to execute code from non-volatile memory, the executable code in non-volatile memory is typically loaded into RAM and executed by one or more of the N processing components.
  • flash memory eg, NAND or NOR memory
  • the executable code in non-volatile memory is typically loaded into RAM and executed by one or more of the N processing components.
  • Computer-readable media may include storage devices such as magnetic disks or optical discs, memory chips, or other storage devices suitable for interfacing with mobile platforms.
  • the machine or computer readable medium may include a wired medium as exemplified by an Internet system or a wireless medium as exemplified by a wireless LAN (WLAN) system.
  • WLAN wireless LAN
  • the N processing components (or “one or more processors") associated with RAM generally operate to execute instructions stored in non-volatile memory in order to enable functional components.
  • the N processing components may include a video processor, a modem processor, a DSP, a graphic processing unit (GPU), and other processing components. good.
  • Transceiver components may include N transceiver chains, which may be used to communicate with external devices over a wireless network.
  • Each of the N transceiver chains may represent a transceiver associated with a particular communication scheme.
  • each transceiver may support protocols specific to local area networks, cellular networks (WIFI networks, CDMA networks, GPRS networks, UMTS networks, 5G networks, etc.), and other types of communication networks.
  • the transceiver component communicates with the communication network to determine the location of the connected device.
  • One or more sensors and / or components for navigation / area mapping may or may be an image acquisition component for acquiring an image (photo or video).
  • the one or more sensors may be laser sensors (eg, LiDAR scanners), infrared and / or ultrasonic sensors, or may include them.
  • a device for simulating a mobile robot in the workplace (eg, 102 in FIG. 1), one or more sensors (eg, this mapping covers a map or a partial map) that maps the environment in the workplace. It includes 109) of FIG. 1 and a processor.
  • the processor displays an image of the environment acquired by one or more sensors on a display, performs environment mapping based on the inputs of one or more sensors, and performs one or more objects in the environment (stationary objects and / or).
  • Virtual mobile robots eg, 402 in FIGS. 4 and 5, 800 in FIG. 8, 900 in FIG. 9, 1000 in FIG. 10) for detecting (including dynamic objects) and displaying them in the environment displayed on the display. , 1100 in FIG. 11, 1200 in FIGS.
  • the virtual mobile robot is configured to avoid (ie, detour) one or more objects detected in the environment as the virtual mobile robot moves within the displayed environment.
  • the one or more objects detected in the environment may include one or more objects (dynamic objects) that can move in the environment.
  • the device is capable of receiving user input to add one or more waypoints within the displayed environment and navigating the movement of the virtual mobile robot according to the one or more waypoints. May be good.
  • the device may be operable to set a task to be executed by a virtual mobile robot at any of one or more waypoints and to display graphics for simulating the execution of the task.
  • Maps may be generated during environment mapping.
  • the device receives the map and one or both of the servers (eg, 108 and / or 110-Mobile Planner and Fleet Manager in FIG. 2) for recording information about the map and one or more detected objects in the map. Can be configured to send).
  • the server receives input from one or more devices present in the environment (eg, any device with mapping / position / object detection capabilities, other devices similar to this device, real or virtual mobile robots, etc.). And / or update the information of one or more detected objects in the map so that the device can use the updated map and / or the updated information of one or more objects in the map. It is configured.
  • the map may be a three-dimensional map (for example, 1402 in FIG. 14).
  • the device may be operable to convert the 3D map into a 2D map (eg, 1404 in FIG. 14) and send the 2D map to the server.
  • the device may be operable to transmit data of one or more movement routes (for example, local route planning) determined by the virtual mobile robot to the server.
  • movement routes for example, local route planning
  • the device sends data to a server (eg, 110 in FIG. 1) to process data for displaying a simulation of the movement of the virtual mobile robot, and simulates the virtual mobile robot via a 5G network. It may be operational to receive streamed data from the server for real-time display on the display.
  • the server may be configured to receive position data of the device and one or more other devices operating in the environment and control traffic in the environment based on the received position data.
  • the simulation of the movement of the virtual mobile robot may consider the traffic conditions so that the collision between the device and the one or more other devices is suppressed.
  • the apparatus processes a captured image of the environment directed to the ground in the environment during the initialization process, displays a graphic index (eg 304 in FIG. 3) on the ground displayed in the display, and initializes. It may be operable to display the graphic of the virtual mobile robot after the process is completed.
  • a graphic index eg 304 in FIG. 3
  • the device operates to receive user input for selecting one or more zones in which the virtual mobile robot is allowed to enter and / or zones in which the virtual mobile robot is not allowed to enter in the displayed environment. It may be possible.
  • the device mounts a load having a specific function at the work site mounted on the virtual mobile robot (for example, 602 and 604 in FIG. 6, 702 and 704 in FIG. 7, 1004 in FIG. 10, and 1204 in FIG. 12). It may be operable to receive user input for selection and enable simulation of a virtual mobile robot with the loaded load.
  • the load may be a mobile manipulator that supports robotic motion of 6 or more axes, and the mobile manipulator may be configured to simulate the execution of one or more production tasks.
  • the device may be operable so as to estimate the work cycle time of the virtual mobile robot and / or the usage information of the virtual mobile robot based on the simulation of the movement of the virtual mobile robot.
  • the device may be operable to receive user input for setting one or more route planning parameters for a virtual mobile robot.
  • the above-mentioned one or more operating parameters are Movement speed and maximum movement speed of virtual mobile robot, Rotation speed and maximum rotation speed of virtual mobile robot, Radius of gyration of virtual mobile robot, Acceleration / deceleration of virtual mobile robots, The gap between a virtual mobile robot and an object in the environment, Resistance level when a virtual mobile robot enters or crosses a line or area, Priority level when a virtual mobile robot enters or crosses a line or area, It may contain one or more of them.
  • Multiple virtual mobile robots may be generated to move within the displayed environment (eg, at the request of the user or by a fleet manager to simulate traffic conditions), and each virtual mobile robot may be generated. , May be regarded as objects that should be avoided from each other.
  • the device may be operable to display graphics for one or more features invisible to the human eye.
  • the above-mentioned one or more features are The field of view of the laser projected by a virtual mobile robot and / or other detected object capable of irradiating the laser at the work site, Radiation emitted from a radiation source, It may contain one or more of them.
  • the virtual mobile robot may be configured to avoid the one or more features while moving.
  • the device By setting the virtual mobile robot to navigate autonomously in the environment, the device performs mapping of the virtual mobile robot (creation of a whole map or a partial map), navigation (for example, localization data, virtual mobile robot). Collects information related to (eg, cycle time, uptime, traffic conditions, other work efficiency related parameters, etc.) and / or operations (eg, cycle time, uptime, traffic conditions, and other work efficiency related parameters) automatically calculated by the user. May be operable to collect information related to the mapping, navigation, and movement of the virtual mobile robot by making inputs to move the virtual mobile robot within the environment.
  • the device may be a handheld mobile device.
  • a method of simulating a mobile robot at a work site in which an image of the work site environment acquired by one or more sensors (eg, 109 in FIG. 1) is displayed on a display.
  • 402 of FIG. 5, 800 of FIG. 8, 900 of FIG. 9, 1000 of FIG. 10, 1100 of FIG. 11 and 1200 of FIGS. 12 and 13) are generated to move the virtual mobile robot in the displayed environment.
  • a virtual mobile robot, including receiving user input for control may be configured to avoid one or more objects detected in the environment while navigating in the displayed environment. good.
  • a system for simulating a mobile robot in the workplace (eg, 100 in FIG. 1), which is the device described above in the outline of the specification (eg, 102 in FIG. 1) and the present specification. It comprises a cloud system (eg, 104 in FIG. 1) including any of the servers described above in the overview (eg, 108 and / or 110 in FIG. 2).

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Ecology (AREA)
  • Mathematical Physics (AREA)
  • Educational Administration (AREA)
  • Business, Economics & Management (AREA)
  • Educational Technology (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

作業現場でモバイルロボットをシミュレーションする装置及び方法であって、前記装置は、作業現場の環境をマッピングする1以上のセンサとプロセッサとを備える。プロセッサは、1以上のセンサによって取得された環境の画像をディスプレイに表示し、1以上のセンサからの入力に基づいて環境のマッピングを実行し、環境内の1以上の物体を検知し、ディスプレイに表示された環境内に表示するための仮想モバイルロボットのグラフィックを生成し、表示された環境内における仮想モバイルロボットの移動を制御するためのユーザ入力を受信するように装置を動作させる命令を実行するように構成されている。仮想モバイルロボットは、環境内で検知された1以上の物体を回避するように表示された環境内を移動するように構成されている。

Description

作業現場でモバイルロボットをシミュレーションする装置及び方法
 本発明は、作業現場でモバイルロボットをシミュレーションする装置及び方法に関し、具体的には、モバイルロボットをシミュレーションし、及び/又は作業現場における1以上のモバイルロボットの配置を計画するために必要な情報を収集するための装置及び方法に関する。
 生産ラインや製造工場などの作業現場では、物体/物品の搬送、生産作業の実行、及び/又は環境の検査などのタスクを行うように、自律型モバイルロボットが使用される。これらのロボットは、指示された場所の間を移動するために指示を受けるなど、人間とのインタラクションが可能である。
 現在、これらの自律型モバイルロボットを作業現場に配置する計画を立てることは、時間がかかり、困難である。ロボットの最適な配置方法を決定するためには、作業現場の多くの情報を手作業で収集しなければならない。また、計画段階では、ロボットが配置された後のシナリオをユーザがイメージすることは困難である。更に、ロボットが配置された後に、更なるロボットを追加する計画を立てることも困難である。
 また、作業現場でロボットのデモンストレーションやテストを行うには、各ロボットがかなり大きく、搬送することが困難な場合もあるので、必ずしも実際的ではない。また、生産拠点が遠隔地にある場合には、ロボットを現地に派遣してデモンストレーションやテストを行うことが、困難であったり、コストがかかったり、不可能であったりする。
 本開示の一例によれば、独立請求項に記載されているように、作業現場でモバイルロボットをシミュレーションする装置及び方法が提供される。
 また、システムの請求項において、作業現場でモバイルロボットをシミュレーションするシステムが提供される。いくつかのオプション機能は、従属請求項に定義されている。
本開示の一実施例に係る装置を備えるシステム構造を示す図である。 本開示の一実施例に係る方法のフローチャートを示す図である。 仮想モバイルロボットのシミュレーションの前に行われる初期化ステップを示すグラフィカルユーザインタフェースの画面図である。 仮想モバイルロボットが配置されたグラフィカルユーザインタフェースの画面を切り取った図であって、仮想モバイルロボットが強調表示されている図である。 仮想モバイルロボットが配置されたグラフィカルユーザインタフェースの画面を示す図である。 本開示の一実施例の仮想モバイルロボットに搭載するためのユーザ選択可能な積載物を含む積載物リストの例を示す図である。 本開示の一実施例の仮想モバイルロボットに搭載するためのユーザ選択可能な積載物を含む積載物リストの例を示す図である。 本開示の一実施例に係るグラフィカルユーザインタフェースにおける異なる積載物を搭載した仮想モバイルロボットの4つの画面のうちの1つを示す図である。 本開示の一実施例に係るグラフィカルユーザインタフェースにおける異なる積載物を搭載した仮想モバイルロボットの4つの画面のうちの1つを示す図である。 本開示の一実施例に係るグラフィカルユーザインタフェースにおける異なる積載物を搭載した仮想モバイルロボットの4つの画面のうちの1つを示す図である。 本開示の一実施例に係るグラフィカルユーザインタフェースにおける異なる積載物を搭載した仮想モバイルロボットの4つの画面のうちの1つを示す図である。 特定の積載物が搭載された仮想モバイルロボットを示す図であって、特定の積載物のアニメーションがオフの状態を示す図である。 図12の仮想モバイルロボットを示す図であって、特定の積載物のアニメーションがオンの状態を示す図である。 3次元(3D)マップから2次元(2D)マップへのマップ変換処理を説明するための図である。 本開示の一実施例における5Gネットワークの利用を説明する図である。
 生産ラインや製造工場では、生産工程や製造工程を促進するために、自律型モバイルロボットが配置されることがある。各モバイルロボットは、機械又は装置を搭載し、搭載された機械又は装置を使用してタスクを実行するためにモバイルロボットをモバイルステーションに搬送し得る。本開示においては、「積載物(payload)」という用語が、搭載された機械又は装置を指すために、使用される。
 これらの自律型モバイルロボットを作業現場に配置する計画を立てることは、時間がかかり、困難である。例えば、計画及び配置に6ヶ月から12ヶ月かかることもある。ロボットの最適な配置方法を決定するためには、作業現場の多くの情報を収集しなければならない。例えば、間取り図、現場の画像、機器の位置などである。また、計画段階では、ロボットが配置された後のシナリオをユーザがイメージすることは困難である。ロボットが配置された後であっても、更なるロボットを追加する計画を立てることは困難である。
 本開示の実施例は、モバイルロボットの計画及び配置のための時間を、簡略化し、数週間という短い期間に短縮可能な装置及び方法を提供することができる。具体的には、本装置及び方法は、計画のために作業現場から情報を収集するための簡単で便利な解決策を提供する。また、本装置及び方法は、潜在的なユーザに対して、モバイルロボットの能力をデモンストレーションしたり、モバイルロボットの配置後のシナリオをシミュレーションしたりするためのデモンストレーションツールを提供する。
 本装置は、情報を収集するために作業現場に存在しなければならない。本開示の一例において、本装置は、スマートフォン、タブレット端末、ラップトップなどの手持ち可能なモバイル機器であってもよい。別の例において、本装置は、可動式のモバイルベースを有する現実のモバイルロボット(作業現場に存在する現実のロボット)であってもよい。また、本装置は、ユーザによって押されることができる可動式のカートであってもよい。モバイルベースは、モバイルロボットを移動させるための車輪及び/又はトラックを有してもよい。モバイルロボットは、それ自体で作業現場を移動するように構成されてもよい。また、モバイルロボットは、ユーザによって遠隔操作されて作業現場を移動されてもよい。可動式のカートの場合、同様に車輪及び/又はトラックを備えるモバイルベースを有し、ユーザによって押し回されてもよい。
 本装置は、ナビゲーション/エリアマッピングの目的で使用される1以上のセンサを備えるとともに、画像(写真又はビデオ)を取得するための1以上のカメラを備えてもよい。「マッピング」という用語は、作業現場の環境のためのマップを作成する目的で、作業現場の環境をスキャン又は感知することを意味する。マッピングは、マップの一部を作成する工程、又はマップ全体を作成する工程を意味する。マッピング入力とは、全体又は一部のマップを作成するためのデータをいう。このようなマッピング入力は、1以上のセンサから得ることができる。また、1以上のセンサは、レーザセンサ(LiDARシステム用など)、赤外線センサ、超音波センサなどであってもよいし、それらを含んでもよい。LiDARは、レーザ光を対象物に照射し、その反射をセンサで測定することによって距離を測る(測距)技術に関するものである。レーザの反射時間や波長の違いを利用して、対象物をデジタル3次元(3D)表現することができる。
 本装置は、SLAM(Simultaneous Localization and Mapping)機能を有するように構成されてもよい。SLAMは、例えば、AMCL(Adaptive Monte Carlo Localization)アルゴリズムを用いて実行することができる。AMCLアルゴリズムは、2次元(2D)のマップ上を移動する、すなわち2Dマップ上でナビゲートされる物体(AMCLノードとして知られる)の確率的な定位システムに関するものである。AMCLノードは、LiDARによるレーザスキャンやレーザマップと連携するように構成されているが、ソナーやステレオなどの他のセンサデータと連携するように拡張されてもよい。SLAMとAMCLとが含まれる場合、環境の2Dマップ(通常は環境の上面図)を作成する必要がある。
 本装置は、ソフトウェアを操作又は実行するように構成されている。このソフトウェアは、モバイルオペレーティングシステム(GoogleのAndoroid、iphoneオペレーティングシステムなど)のモバイルアプリケーションや、ポータブルコンピュータ(ノートブック、ラップトップなど)のオペレーティングシステム(Windows、MacOSなど)上で実行されるアプリケーションなどであってもよい。ソフトウェアは、作業現場の環境のナビゲーション/エリアマッピングを行うために、1以上のセンサと連携する。また、ソフトウェアは、後で詳しく説明するように、ユーザがナビゲーション/エリアマッピングに関するデータ以外のデータ(サイクルタイム、利用率など)を取得するのに役立つ。ソフトウェアは、表示用の仮想モバイルロボットを作成し、作成された仮想モバイルロボットの動作及び/又は操作を作業現場の環境でシミュレーションするように構成されている。ソフトウェアは、ユーザがソフトウェアを構成及び/又は使用することを容易にするために、グラフィカルユーザインタフェースを提供してもよい。
 本装置は、LCD、LED、又はOLEDスクリーンなどのディスプレイを有してもよい。ディスプレイは、ソフトウェアのグラフィカルユーザインタフェースを表示するために使用される。本装置は、ディスプレイの背景として作業現場の環境を表示し、その表示された環境中に、作成された仮想モバイルロボットを重ね合わせたり、拡張したりするように構成されてもよい。環境は、1以上のカメラで取得されてもよい。また、1以上のセンサは、レーザセンサ、赤外線センサ、超音波センサなどの他の種類のセンサであってもよい。これらのセンサは、環境をマッピングし、環境を表すグラフィックをレンダリングするためのデータを提供して、ディスプレイに表示させることができる。背景として表示される環境は、マッピング入力に基づいて作成された完全な仮想環境(例えば、仮想環境は完全に家具付きの環境をシミュレーションすることができる)、又はオーバーレイを使用した部分的な仮想環境、又はカメラで取得されたものの上に補強されたもの(例えば、仮想モバイルロボットを妨害することができる壁及び/又は他の物体のみが強調表示される、地面は意図的にメッシュで提供される、など)であってもよい。仮想グラフィックコンテンツ及び/又はグラフィックオーバーレイの外観は、カスタマイズ可能であってもよい。
 ユーザは、仮想モバイルロボットの動作を制御するために入力を行うことができる。このようなユーザの入力は、配備される実際のモバイルロボットをプログラムするために使用することができる。作業現場での情報収集のために実際のモバイルロボットを遠隔操作する場合には、ユーザが遠隔地にいる場所にディスプレイが設置され、仮想モバイルロボットのシミュレーション及び/又はシミュレーションからの情報収集のために、仮想モバイルロボットを操作するためのグラフィカルユーザインタフェースをユーザに提供することができる。仮想モバイルロボットのグラフィックは、移動可能な物体が表示されていれば、どのような形態でもよい。例えば、凝ったデザインのない単純な球体や箱型の物体であってもよい。また、実際のモバイルロボットをリアルに表現したグラフィックであってもよい。
 一例として、本装置は、以下のようにジョブa)~e)を実行するように構成される。
 a)1以上のセンサからの入力に基づいて、作業現場の環境のマップを生成する。マップは、2次元(2D)及び/又は3次元(3D)のマップであってもよい。本開示における「マップ」の全ての言及は、このマップを指す。2Dマップは、環境の上面図であってもよい。一例として、3Dマップは、最初に作成され、その後、2Dマップに変換されてもよい。マップは、まず、装置を作業現場の環境の周りで移動させて、環境をスキャンしてマッピングすることによって生成されてもよい。マップが生成された後、定位データ、グローバル経路データ、静止物体及び/又は動的物体を含む障害物に関連する物体データ、及び/又は他の情報が収集されてもよい。動的物体の例としては、人間、機械、及び/又は床に置かれているランダムなものを挙げることができる。或いは、装置が作業現場の環境を移動する際にマップが生成され、同時に定位データ、グローバル経路データ、静止物体及び/又は動的物体を含む障害物に関する物体データ、及び/又はその他の情報を収集することも可能である。
 b)定位データ、すなわち、生成されたマップ上での仮想モバイルロボットの位置に関するデータを取得する。作業現場の環境に存在する本装置は、仮想モバイルロボットのハードウェアとみなすことができる。従って、本装置が位置を追跡する場合、本装置の位置を利用して仮想モバイルロボットの位置を追跡することができる。定位とは、本装置がマップ上で位置を追跡することである。定位は、本装置が1以上のセンサから収集したデータに基づいて環境内での位置を推定するために使用するプロセスである。例えば、定位には2つのタイプがある。レーザ定位は、本装置のレーザセンサ(LiDARスキャナなど)からのデータをマップと合わせて使用し、その位置を算出するものである。これは、本装置が環境(又は操作空間)内の位置を追跡するためのデフォルトの方法として設定されてもよい。任意で、本装置は光を用いて環境内での位置を追跡してもよい。この場合、光源を用意する必要がある。これは、本装置がスマートフォンなどのモバイル機器の場合はトーチライト機能、及び/又は、本装置がユーザによって制御される実際のモバイルロボットや、ユーザによって押される移動可能なカートの場合は取り付けられたヘッドライトであってもよい。光定位プロセスは、物体が本装置に対して頻繁に移動するような動的な環境下で用いられ、物体及び/又は本装置の過去の位置に基づいて定位を行うことができる。定位の間、マップと1以上のセンサから収集したデータを比較し、仮想モバイルロボットの位置を修正する。この情報により、本装置は、マップ上の仮想モバイルロボットの位置を追跡することができる。
 c)仮想モバイルロボットのために本装置によって自動計算された1以上のルート又は経路などのグローバル経路データを取得する。これらの自動計算された経路は、作業現場に配置され得る実際のモバイルロボットへの指示又はガイダンスとして使用することができる。経路の自動計算には、コストベースの経路計画と呼ばれる経路計画方式が用いられてもよい。この方式では、ゴール(ユーザがソフトウェア上で設定したウェイポイントなど)への進行を指示された仮想モバイルロボットが、マップ上の情報に基づいて、仮想モバイルロボットの現在地からゴールに到達するまでの最も効率的な経路をマップ上で探索する。この経路はグローバル経路と呼ばれ、2点間の最適な経路となる。仮想モバイルロボットは、この経路に沿ってゴールに向かうが、その過程でマップに記録されていない障害物(仮想モバイルロボットの移動を妨げている物体であって、マップに記録されていないもの)を回避することができる。本装置がマップにない物体を検知した場合、本装置は、仮想モバイルロボットのローカル経路を変更してその物体を回避する。仮想モバイルロボットがグローバル経路に沿って進むことができない場合、本装置は、マップ上の情報に基づいて、仮想モバイルロボットの新しいグローバル経路を再計画してもよい。
 d)仮想モバイルロボットに対する静止物体及び/又は動的物体を含む障害物に関連する物体データを取得し、マップに対するその移動及び位置を記録する。そのような物体は、1以上のセンサを使用して検知される。
 e)任意で、サイクルタイム及び稼働率データなど、作業効率の向上に関連するその他の情報を収集する。サイクルタイムとは、仮想モバイルロボットに割り当てられたタスクを仮想的に実行することを含むワークサイクルを仮想モバイルロボットが完了するまでの時間をいう。また、稼働率データとは、仮想モバイルロボットがどの程度利用されているかを示すデータである。また、他の例としては、作業現場での移動のための交通状況を挙げることができる。
 例えば、本装置は、以下の6種類の入力(i)~(vi)をユーザから受信するように構成されてもよい。
 (i)ユーザは、本装置の移動に伴って、ディスプレイに表示された環境中の特定のポイント又はエリアにウェイポイントを入力してもよい。例えば、ディスプレイがタッチスクリーンである場合、ユーザはディスプレイに表示されている環境中のポイント又はエリアを選択し、それをウェイポイントとして設定してもよい。また、グラフィカルユーザインタフェースを介して、作成されたマップ上のポイント又はエリアを選択することによって、ウェイポイントが設定されてもよい。各ウェイポイントには、コメントが付けられたり、ゴールが設定されたりしてもよい。例えば、仮想モバイルロボットの二次電池の充電をシミュレーションするための充電エリア、仮想モバイルロボットに搭載された積載物を交換するためのエリア、仮想モバイルロボットの修理エリア、仮想モバイルロボットによる特定の生産/倉庫作業を行うためのエリアなど、特定の行動を行うためのポイント又はエリアとしてウェイポイントが設定されてもよい。また、ウェイポイントは、本装置によってシミュレーションされる仮想モバイルロボットの経路をナビゲートするためのガイドとしても機能する。ウェイポイントには、仮想モバイルロボットがウェイポイント間を移動する際の優先順位を示す番号が付けられてもよい。
 (ii)ユーザは、環境内において、仮想モバイルロボットが進入を許可されている1以上のゾーン又はエリア、及び/又は仮想モバイルロボットが進入を許可されていないゾーン又はエリアを区画してもよい。特定のゾーンが進入するのに好ましい場合、又は完全には許可されていない場合、経路計画の目的のために、これらの区画されたゾーン又はエリアに、抵抗又は優先レベルが割り当てられてもよい。抵抗及び優先度の詳細は以下に提供される。
 (iii)ユーザは、本装置によって実行されるソフトウェアのグラフィカルユーザインタフェースを介して、経路計画パラメータを入力してもよい。経路計画パラメータは、仮想モバイルロボットが環境内をどのように移動するかを制御する。経路計画パラメータの非網羅的なリストは、以下の通りである。
1)仮想モバイルロボットの最大移動速度及び最大回転速度。
2)仮想モバイルロボットの回転半径。
3)経路計画グリッドのグリッド解像度。経路計画グリッドは、上述したコストベースの経路計画と呼ばれる経路計画方式に関連してもよい。例えば、概念的には、この経路計画方式の「コストベース」の側面又はグリッド解像度は、生成される2Dマップ(上面図)を経路計画グリッドと呼ばれる離散的な100mmのマス目(通常は十分な大きさ)に分割し、各マス目にコストを割り当てる。自由な(何もない)マス目(障害物が近くにない正方形)のコストは、0.1であってもよい。壁及び他の固定物を含むマス目のコストは、無限大であり、仮想モバイルロボットは、コストが高すぎるため、これらのマス目には絶対に入らないことになる。
4)仮想モバイルロボットの速度の速さ及び遅さ。例えば、マップ上の特定のウェイポイント、及び/又は、ポイント又はエリアでの仮想モバイルロボットの移動速度を設定してもよい。いくつかのエリアでは、交通制御、安全性、又はその他の目的で仮想モバイルロボットを減速させる必要がある場合がある。
5)仮想モバイルロボットのパディング(padding)及び隙間(高速及び低速時)。これは、仮想モバイルロボットを環境中の物体からどの程度の隙間又は距離を有する必要があるかをいう。
6)特定のウェイポイント、及び/又は、マップ上のポイント又はエリアでの仮想モバイルロボットの回転速度。
7)選択されたウェイポイントでの仮想モバイルロボットの加速/減速、及び/又は、ユーザが環境内で仮想モバイルロボットを駆動するときの加速/減速。
8)抵抗のあるセクタ、抵抗のあるラインの抵抗量。セクタは、例えば、ユーザがグリッドのマス目を選択することによってマップ上に設定したゾーン又はエリアである。ラインとは、ユーザによってマップ上に設定された境界線をいう。ここで「抵抗」とは、マップ上に設定された抵抗のあるセクタ及び/又はラインを横切るためのコストを意味する。これは、仮想モバイルロボットが、特定のセクタを駆動すること及び/又はラインを横断することにどの程度抵抗し、代替の経路を見つけるかを定義する値である。抵抗のあるセクタ又はラインを通過するためのコストは、その抵抗値に乗じて算出されてもよい。例えば、通常のエリア又はセクタにはコスト値として1が付与され、抵抗値を1に設定すると抵抗の動作がオフになる。
9)仮想モバイルロボットが横断又は追従するのに好ましいライン、仮想モバイルロボットが進入するのに好ましいセクタ、及び/又は仮想モバイルロボットが移動するのに好ましい方向。例えば、同じ抵抗値が優先度のレベルを示すために使用されてもよいし、別の優先度の値が優先度のレベルを示すために使用されてもよい。
 (iv)ユーザは、ユーザの要求に応じて、1以上のセンサの定位パラメータを制御/調整してもよい。なお、以下ではミリメートル(mm)の単位で示しているが、他の測定単位も同様に適用可能である。
 レーザ定位を使用する場合、定位パラメータの例は以下の通りである。
-定位スコアに基づいてサンプル数を変化させるフラグ。有効にすると、仮想モバイルロボットが移動し且つ定位スコアが高いときに、サンプル数を少なくすることができる。これにより、本装置の中央演算処理装置(CPU)又は計算機の負荷が軽減される。
-定位に使用するレーザの設定に要求される間隔(程度)を調整するパラメータである。このパラメータは、互いに近すぎる読み取り値を破棄するように設定される。これにより、本装置のCPU又は計算機の負荷が低減する。
-レーザ定位中に作成されるマップグリッドのグリッド解像度(mm)。これはスキャン解像度に関連する。この値を下げると、定位の精度は向上するが、本装置のメモリ使用量(RAM使用量など)が増加する。
-線形移動量のミリ単位の誤差。これは、本装置の線形走行距離計の読み取り値の許容誤差(mm)をいう。設定値が高すぎると、サンプルポーズが広がりすぎて本装置が位置を特定できなくなる。設定値が低すぎると、本装置が位置を特定できない可能性がある。
-装置の回転角に対する誤差の度合い。これは、本装置の回転方向の走行距離計の読み取り値の許容誤差(度数)をいう。設定値が高すぎると、サンプルポーズが分散しすぎて本装置が位置を特定できなくなる。また、設定値が低すぎると、本装置が定位できない可能性がある。
-1mm当たりの直線移動の誤差の度合い。これは、1mmの直線移動当たりのロボットの回転の許容誤差(度数)をいう。設定値が高すぎると、サンプルポーズが広がりすぎて本装置が位置を特定できなくなる。また、設定値が低すぎると、本装置が定位できない可能性がある。
-定位に使用するサンプルポーズの数。これは、スキャンの解像度に関係する。この値を大きくすると、定位の計算量が増加する。この値が低すぎると、本装置が定位できなくなる。
-定位する前に本装置が移動する距離(mm)。これは、装置の定位の頻度に関連する。このパラメータを調整することで、本装置のCPU又は計算機の負荷を低減することができる。本装置は、リストされた距離値を超えて移動した場合のみ定位する。
-本装置が定位を開始する前に曲がる角度(度数)。これは、本装置の定位の頻度に関連する。このパラメータを調整することで、装置のCPU又は計算機の負荷を低減することができる。本装置は、リストされた角度値を超えて回転した場合のみ定位する。
 光の定位を利用する場合における、定位のパラメータの例を以下に示す。なお、以下に述べる光源とは、本装置に搭載されたもの、又は本装置と連携するために別途用意されたものをいう。
-光源の地面からの最低高さ(mm)。この値は、概算値であり、実際の値よりも低くすべきである。この値は、有効な範囲を設定して誤検知をなくすために使用される。
-地面からの光源の最大高さ(mm)。この値は、概算値であり、実際の値よりも高くすべきである。この値は、有効な範囲を設定して誤検知をなくすために使用される。
-光源の最小長さ(mm)。この値は、概算値であり、実際の値よりも僅かに低くすべきである。
-光源の最大長さ(mm)。この値は、概算値であり、実際の値よりも僅かに高くすべきである。
 (v)ユーザは、仮想モバイルロボットが特定のタスクを実行するように設定してもよい。また、タスクの継続時間が設定されてもよい。任意で、仮想モバイルロボットによるタスクの実行を示すシミュレーション(例えば、アニメーションビデオの形態)が提供されてもよい。一例として、仮想モバイルロボットは、以下のことが行われると、あたかも現実のモバイルロボットであるかのように、環境内で移動し且つ動作するように設定されてもよい。
-環境のマップが生成される。
-仮想モバイルロボットに特有のウェイポイントがユーザによってマップ上に設定される。
-仮想モバイルロボットがウェイポイント間をどのように移動するのかが設定される。
-作業現場のウェイポイントで行われるべきタスク又は行動が設定される。
 仮想モバイルロボットの動作に伴い、サイクルタイムや稼働率などの仮想モバイルロボットの作業効率に関する情報が算出される。
 (vi)ユーザは、様々な積載物のリストから積載物を選択して搭載してもよい。また、ユーザは、ユーザが希望するカスタマイズされた積載物のCADモデル、及び/又は、ユーザが必要とするカスタマイズされたモバイルロボットのCADモデルを入力してもよい。
 本装置のソフトウェアは、2以上の仮想モバイルロボット、及び/又は、2以上の仮想モバイルロボットが配備されている場合に交通状況をシミュレーションするための1以上の物体を含むように構成されてもよい。各仮想モバイルロボットは、仮想モバイルロボットについて上述した内容に従って構成されてもよい。作成される1以上の物体は、ある場所に置かれた家具、建物の構造、及び/又は機器などの静止物体であってもよい。また、作成される1以上の物体は、人、モバイル機器、及び/又は他のモバイル物体などの動的物体であってもよい。交通データは、交通制御管理のためにシミュレーションから収集されてもよい。また、ソフトウェアは、1以上の仮想モバイルロボット及び環境内の任意の作成された物体のシミュレーションをユーザが見ることができるように構成されてもよい。
 図1には、上述したような装置を備えるシステム100のシステム構造の一例が示されている。図1において、本装置は、102の参照符号が付されている。装置102は、作業現場の環境に存在して、作業現場でのモバイルロボットの配置を計画するための情報を収集したり、作業現場で働く仮想モバイルロボットの動作及び操作のシミュレーションを実行したりする。具体的には、装置102は、前述のa)~e)の仕事を行う。
 本実施例において、装置102は、タッチスクリーン画面を有するスマートフォンであり、モバイルアプリケーション103を実行するように構成されている。装置102は、作業現場の環境でマッピング及び定位処理107を行うために、LiDARシステム用のセンサを含む1以上のセンサ109(3Dスキャナ/センサ)を備える。また、1以上のセンサ109は、カメラを有する。装置102は、ユーザ120に対して、カメラで取得された環境を背景として表示するとともに、アプリケーション103によって作成され且つ背景に重ね合わされ又は付加された仮想モバイルロボットを表示するためのグラフィカルユーザインタフェース105(GUI)を提供する。更に、GUI105は、ユーザ120に対して、以下の機能を提供する。
1)例えば、タッチスクリーン画面上にタッチで操作可能な仮想モバイルパッド又はジョイスティックを設けることによって行うことができる仮想モバイルロボットの動作を制御すること;
2)仮想モバイルロボットに搭載される積載物を、積載物リストから選択すること;
3)前述の6種類のユーザ入力(i)~(vi)を受け付けること;
4)仮想モバイルロボット、任意の積載物、環境に表示される任意の物体、及び/又は表示される環境をカスタマイズすること;
5)環境に表示されるとともに、定位時、経路の自動計算時、及び/又は物体検知時に考慮される任意の物体を追加すること;及び
6)ユーザがカスタマイズした積載物、ユーザがカスタマイズした仮想モバイルロボット、及び/又は、環境に表示されるユーザが作成した任意の物体のCADモデルを保存のためにアップロードすること。
 装置102は、仮想マシン(VM)技術を使用することができるクラウドシステム104と連携する。例えば、クラウドサービスは、仮想マシンを使用して、一度に複数のユーザに仮想アプリケーションリソースを提供することができる。仮想マシン(VM)は、プログラムを実行し、アプリケーションを展開するために、物理的なコンピュータの代わりにソフトウェアを使用するコンピューティングリソースであってもよい。物理的な「ホスト」マシン上で、1以上の仮想「ゲスト」又は「クライアント」マシンが実行されてもよい。各仮想マシンは、独自のオペレーティングシステムを実行し、全てのVMが同じホスト上で動作している場合でも、他のVMとは別に機能することができる。
 具体的には、装置102は、以下に説明するクラウドシステム104内の複数のサーバと連携する。別の例では、複数のサーバが、以下に説明する各サーバの作業範囲を処理してもよいことが理解される。
 本実施例では、クラウドシステム104は、以下のクラウドストレージを管理するストレージサーバ106を有する。
1)前述の仮想モバイルロボットに搭載される装置102でユーザが選択可能な積載物のデータ(画像、テキスト、音声など)、及び
2)積載物、ユーザがカスタマイズした積載物、仮想モバイルロボット、ユーザがカスタマイズした仮想モバイルロボット、及び/又は、環境に表示することができる任意の作成された物体のCADモデルのデータ。
 装置102は、動作中に必要に応じて、上述のデータをサーバ106にダウンロードしたり、サーバ106からアップロードしたりする。また、別の例では、そのようなデータは、装置102がアクセス可能なローカルメモリにローカルに保存されてもよい。また、サーバ106は、装置102のような装置の複数のユーザのユーザカウントを管理し、アプリケーション103を使用するためにログインした各ユーザの認証を行うように構成されてもよい。
 クラウドシステム104は、自律型インテリジェント車両(AIV)マッピングソフトウェア(モバイルプランナーとも呼ばれる)を実行するためのプランニングサーバ108を更に備える。このプランニングサーバ108は、装置102によって提供されるマッピング入力から作業現場のマップを作成し、仮想モバイルロボットのためのAIV構成を管理するためのコントロールセンターとして機能する。プランニングサーバ108は、装置102のような複数の装置や実在するモバイルロボットのマッピングや設定をサポートすることができる。なお、AIVとは、装置102で作成された仮想モバイルロボットのことをいう。本実施例において、モバイルプランナーは、サーバベースのアプリケーションである。従って、マップを作成するためのマッピング処理は、装置102ではなく、サーバ108で行われる。装置102がマッピング入力をサーバ108に提供するだけで、サーバ108は、作成されたマップを返信する。別の例において、モバイルプランナーは、装置102で実行されるローカルアプリケーションであってもよい。
 また、クラウドシステム104は、仮想モバイルロボットの動作を現場の環境でシミュレーションするために必要な処理を行うソフトウェア(フリートマネージャとも呼ばれる)を実行するためのシミュレーションサーバ110を備えている。フリートマネージャは、作業現場の環境における現実及び/又は仮想のモバイルロボットを制御することができる。フリートマネージャは、環境内の複数の現実及び/又は仮想のモバイルロボットを設定するための集中設定プラットフォームを提供する。また、フリートマネージャは、複数の現実及び/又は仮想のモバイルロボットのための中央マップ管理プラットフォームを提供する。フリートマネージャを使用して集中的に行われたユーザ設定と、フリートマネージャで集中的に収集されたマップ情報とは、複数の現実及び/又は仮想のモバイルロボットに自動的に伝搬されることができる。フリートマネージャは、更に、ジョブの列を管理し、ジョブを使用可能な現実及び/又は仮想のモバイルロボットにマッチングさせ、割り当てられたジョブを実行するために、環境内の複数の現実及び/又は仮想のモバイルロボットを派遣する。また、フリートマネージャは、複数の現実及び/又は仮想のモバイルロボットの交通管理を行い、衝突を抑えたり、効率的な移動を確保したりする。現実及び/又は仮想のモバイルロボットの位置及び軌道情報は、フリートマネージャによって共有される。フリートマネージャは、環境内の複数の同一の装置102及び/又は現実のモバイルロボット、及び他の自動化装置(現実及び/又は仮想のモバイルロボットを除く)を備えられるソフトウェアクライアントの統合及び通信の単一ポイントとして機能する。本実施例において、フリートマネージャは、サーバベースのアプリケーションである。別の例において、フリートマネージャは、フリートマネージャの一部又は全ての機能が前記装置で実行されるローカルアプリケーションとして提供されてもよい。
 仮想モバイルロボットの移動のシミュレーション中に、ユーザが仮想モバイルロボットと共に装置102を移動させて、仮想モバイルロボットが動的物体を回避する(すなわち、迂回する)ことを可能にするために定位を実行しない場合でも、仮想モバイルロボットのシミュレーションは、未だ継続され、フリートマネージャからのリアルタイムの更新に基づいて表示されることができる。フリートマネージャは、作業現場に配置された他の現実及び/又は仮想のモバイルロボットからの更新情報に基づいて、作業現場の交通状況に関するリアルタイムの更新を提供することができる。他の現実及び/又は仮想のモバイルロボットによって検知された動的物体は、装置102が仮想モバイルロボットのための定位を実行するために周囲にいなくても、仮想モバイルロボットのために記録及びマッピングすることができる。
 クラウドシステム104は、典型的にはイベントがリアルタイムで発生したときに、工場の活動を管理及び報告することによって、製造動作を推進するために使用される製造実行システム(MES)サーバ112を備える。MESサーバ112は、原材料から完成品への変換を追跡し、文書化するために製造業で使用されることができる。MESサーバ112は、製造の意思決定者が生産出力を向上させるために工場内の現状をどのように最適化できるかを理解するのに役立つ情報を提供することができる。MESサーバ112は、生産プロセスの複数の要素(例えば、入力、人員、機械、及びサポートサービス)の制御を可能にするために、リアルタイムで動作することができる。MESサーバ112は、環境内の現実及び/又は仮想の機器/機械、及び/又は環境内の現実及び/又は仮想のモバイルロボットによって実行される製造工程を管理、調整、監視、及び制御するために使用される。
 モバイルプランナー、フリートマネージャ、及びMESサーバ112は、装置102のような複数の装置をサポートするために、互いに通信することができる。
 図2は、作業現場の情報を収集するために、カメラ及びLiDARシステムを備えるスマートフォンである図1の装置102によって実行される方法の一例を示すフローチャートである。また、この方法は、仮想モバイルロボットの移動や動作のシミュレーションを提供する。ステップ202においては、ユーザが装置102の図1のモバイルアプリケーション103を起動する。起動に先立って、ユーザは、アプリケーション103にログインすることを要求され、アプリケーション103を使用するためのアクセスが与えられる前に、アプリケーションと通信しているサーバによって正常に認証されてもよい。起動後に、図1のGUI105にメニューが表示され、ユーザが実行する機能を選択できるようにしてもよい。機能の1つとして、作業現場のマップを作成するマッピングを行うことができる。
 ステップ204において、アプリケーション103は、ユーザがマッピングを実行するように選択したとき又はアプリケーション103の起動時に、マップを作成するためにマッピングが必要か否かをチェックする。作業現場のマップが既に存在する場合(例えば、モバイルプランナー又はフリートマネージャによってアップロード又は更新された場合、又は以前に作成された場合)、マッピングは必要なく、工程はステップ222に進む。装置102は、モバイルプランナー又はフリートマネージャと通信して、既存のマップを取得したり、既存のマップの更新情報を取得したりしてもよい。一例として、アプリケーション103は、マップが既に存在する場合、再マッピングを進めるか否かをユーザに促してもよい。マッピングが必要な場合、ステップ206において、3Dマッピングが開始される。この例において、ユーザは、環境をスキャンして環境の3Dマップを作成するために、装置102を作業現場の周りに移動させなければならない。マッピング工程の間、装置102を3Dマップ内で検知して記録するために、環境内に静止/動的物体が提供されてもよい。装置102は、3Dマッピングのために、図1の1以上のセンサ109から入力を得る。3Dマップが作成された後、3Dマップから2Dマップ(環境の上面図)が作成される。本方法は、2Dマップが作成されてユーザが終了を選択した後、ステップ224で終了する。或いは、ユーザは、GUI105を介して指示を出し、仮想モバイルロボットのシミュレーションを行うなどの他の機能(すなわち、ステップ222)を実行したり、ステップ208に進んでユーザが2Dマップの編集を希望するか否かをユーザに確認したりすることができる。
 ユーザが2Dマップの編集を希望する場合(又は、フリートマネージャが2Dマップの更新情報を有している場合)、ユーザ(又はフリートマネージャ)は、ステップ210でマップの編集に進む。マップの編集は、ウェイポイントの追加及びウェイポイントで達成すべき目標の設定、許可/不許可ゾーンのマーキング、経路計画パラメータの編集、及び前述の6種類のユーザ入力(i)~(vi)のそれぞれ(i)、(ii)、(iii)、(v)に従ってシミュレーションされる仮想モバイルロボットのタスクの設定を含んでもよい。また、マップの編集は、マップ上の特定の位置及び/又はエリアに静止/動的な物体を追加することも含んでもよい。
 マップが既に編集されており、ユーザがステップ208で2Dマップの編集を希望しない場合、ステップ212で、仮想モバイルロボットによる自動経路計画のためのシミュレーションを実行することができる。ステップ212は、ステップ210でマップの編集が行われた後に進むこともできる。
 ステップ212では、仮想モバイルロボットが、カメラによって取得された作業現場の環境の画像を背景にして、装置102のディスプレイ上に出現するように作成される。その後、ステップ214において、仮想モバイルロボットは、編集されたマップに設定された目標/タスクに応じて自律的に移動するように設定される。本実施例では、ユーザが、装置を携帯して、設定された目標/タスクに応じて自動的に移動するように設定された仮想モバイルロボットに追従することで、装置102が仮想モバイルロボットの定位を行うことができる。装置102は、仮想モバイルロボットと共に移動しながら、環境中のマップに載っていない又は記録されていない動的物体を検知し、ステップ216でそれらをマップに記録させる。そのような動的物体の検知時において、動的物体が仮想モバイルロボットの移動を妨害する場合、ステップ218で、仮想モバイルロボットが動的物体を回避する(すなわち、迂回する)ように移動することをガイドするために、定位中の1以上のセンサの入力に基づいてローカル経路計画が決定される。例えば、グローバルに計画された経路内(仮想モバイルロボットの前方)に物体が発見されたとき、仮想ロボットは停止し、経路を変更し、次の目標に向かって進む。そのような動的物体が検知されない場合、仮想モバイルロボットは、動的物体を気にすることなく、あるウェイポイントから別のウェイポイントへ最適な態様で移動するように、ステップ220でグローバル経路計画に従う。静止物体の情報は、マップ作成時に収集されているので、自律的なナビゲーション中の仮想モバイルロボットの移動が静止物体の存在を考慮していることは理解される。マップされておらず、新たに環境に含まれ、仮想モバイルロボットの移動を妨害する静止物体は、ステップ216で検知された動的物体と同じ方法で取り扱われる。ユーザによってシミュレーションが終了されるか、仮想モバイルロボットによって設定された目標/タスクが達成されると、ステップ224で本方法は終了する。
 別の例において、仮想モバイルロボットは、設定された目標/タスクに従って、ステップ214で2Dマップ内に出現し、自律的にナビゲートするように構成されている。ユーザは、装置102を携帯して仮想モバイルロボットに追従するのではなく、仮想モバイルロボットが、取得された環境内で自律的なナビゲーションを自動的に行い、目標/タスクを達成して回る様子をディスプレイ上で見る。この場合、仮想モバイルロボットは、環境内を移動する際に、ステップ216で既にマップにマッピング又は記録されている動的物体のみを検知する。仮想モバイルロボットは、定位工程をシミュレーションしてステップ218でローカル経路計画に基づいて移動し、マッピングされた動的物体を回避又は迂回する。例えば、グローバルに計画された経路内(仮想モバイルロボットの前方)に物体が発見されたとき、仮想ロボットは、停止し、経路を変更し、次の目標に向かって進む。そのような動的物体が検知されない場合、仮想モバイルロボットは、ステップ220において、動的物体を気にすることなく、あるウェイポイントから別のウェイポイントへ最適な態様で移動するように、グローバル経路計画に従う。静止物体の情報は、マップ作成時に収集されているので、自律的なナビゲーション中の仮想モバイルロボットの移動が静止物体の存在を考慮していることは理解される。ユーザによってシミュレーションが終了されるか、仮想モバイルロボットによって設定された目標/タスクが達成されると、ステップ224で本方法は終了する。
 ステップ204に戻って、本方法は、マッピングが必要でなく、2Dマップが既に作成されているとき、又はユーザの要求に応じて、ステップ222に進む。ステップ222では、設定された目標/タスクに基づいて仮想モバイルロボットを自律的にナビゲートさせる(ステップ214など)代わりに、ユーザが、仮想モバイルパッド又はジョイスティックなどのGUI105によって提供される制御を使用して、作業現場の周りで仮想モバイルロボットを手動で制御して駆動する。ユーザは、装置102を移動させて、仮想モバイルロボットが駆動されるときに追従することを選択できる。この場合、装置102が仮想モバイルロボットに対して行う定位が発生し、装置102がマッピング又は記録すべき(仮想モバイルロボットの移動を妨害する)マッピングされていない動的物体を検知することができる。ユーザが装置102を移動させず仮想モバイルロボットに追従しないことを選択した場合、仮想モバイルロボットは、最後のマップ作成中に取得された(又は、フリートマネージャによって最後に更新された)環境で駆動される。
 任意で、ユーザは、ステップ222で、仮想モバイルロボットに搭載する積載物を追加し、積載物と共に動作中の仮想モバイルロボットのシミュレーションを見てもよい。仮想モバイルロボット及び/又は積載物の音声をオン/オフするために、1以上の画面上のボタン又はメニューオプションを提供してもよい。音声がオンのとき、仮想モバイルロボット及び/又は積載物が発する音を含むリアルなシミュレーションが提供される。また、仮想モバイルロボット及び/又は積載物のアニメーションをオン/オフ又は縮小するオプションがあってもよい。この場合、仮想モバイルロボット及び/又は積載物が静止画像となり、動作中の仮想モバイルロボット及び/又は積載物のアニメーションを最小限に抑えることができる。
 図3は、図1のグラフィカルユーザインタフェース105を示す図である。図3は、図1の装置102のカメラで取得された作業現場の表示された環境を、その上に物体を添加して示す図である。以下の図3に関する説明では、図1の構成要素と図2のステップとを参照している。仮想モバイルロボットがシミュレーションで表示される前に、例えば、図2のステップ212又は222において、ユーザは、装置102のカメラによって取得される地面302の画像を取得するように装置102に指示することによって、初期化工程において添加又はシミュレーション処理を初期化することを要求してもよい。この初期化工程の目的は、1以上のセンサ109を較正して定位の準備を整え、環境のマップが既に作成されている場合には、環境のマップ内で装置102の位置を検知し、選択された場所に仮想モバイルロボットをユーザに配置させることにある。
 本実施例において複数のスポットで構成されるメッシュ304は、1以上のセンサ109の助けを借りて装置102が地面302の検知に成功すると、地面302上に添加される。図3に示された壁306のような静止物体は、表示された環境においてそれらの上にグラフィックが添加される。これらのグラフィックスは、壁306を強調してディスプレイ上でより鮮明に表示させる。これらのグラフィックスは、仮想モバイルロボットの移動をガイドするためのマーカーとしても機能してよく、例えば、仮想モバイルロボットが、マークされたポイント、線、又はエリアに衝突したり、交差したりするのを抑えてもよい。ユーザが選択した地面302上の位置に仮想モバイルロボットを配置する処理を開始するために、ユーザが押圧する「配置」ボタン308が設けられている。また、添付又はシミュレーションの工程を終了するために、ユーザが選択する十字形を有する「終了」ボタン310が設けられている。図4は、図3のメッシュ状の地面302上に仮想モバイルロボット402が配置されているグラフィックスを示す切り取り画面図である。地面302上の仮想モバイルロボット402の周囲には、リング404が表示される。このリング404は、仮想モバイルロボット402が、仮想モバイルロボット402の近くにある隣接する物体との間で維持すべき隙間又は距離を示すために使用することができる。この隙間又は距離は、カスタマイズ可能である。また、リング404は、カーソルのように機能し、仮想モバイルロボット402がユーザによって選択されたときに表示される。仮想モバイルロボット402が選択されたとき、仮想モバイルロボット402の本体は、図4に示すように強調表示されてもよい。
 図5は、ユーザが選択した位置で図4の仮想モバイルロボット402が地面302に置かれた後、当該仮想モバイルロボット402を含む画面図500(横向き)の一例を示している。このような画面図500は、図2のステップ222で表示されてもよい。画面図500は、図1のグラフィカルユーザインタフェース105のページ間をトグルするためのバックボタン508及びフォワードボタン510を備えている。また、ユーザがクリックして積載物のリストを表示し、ユーザがリストから積載物を選択して仮想モバイルロボット402に搭載するための「積載物選択」ボタン506が設けられている。仮想モバイルロボット402は、図5では積載物が搭載されていないように描かれている。画面図500の右上には、パラメータ502が表示されている。具体的には、画面図500の右上には、仮想モバイルロボット402がユーザによって駆動されるときの駆動速度と、仮想モバイルロボット402が回転するように制御されるときの回転速度の2つが表示されている。これらのパラメータは、ユーザが監視するために表示することができる例に過ぎない。その他のパラメータ(例えば、前述した6種類のユーザ入力(i)~(vi)のうち(iii)に挙げた経路計画パラメータ)が表示されてもよい。また、画面図500は、図1の装置102のタッチスクリーンディスプレイ上でのタッチを介して、仮想モバイルロボット402を作業現場で駆動するために操作可能な仮想ジョイスティック504を含んでいる。仮想モバイルロボット402のユーザによる駆動セッションは、将来の参照のために動画として記録されてもよい。
 図6及び図7は、図5の仮想モバイルロボット402に搭載する積載物をユーザが選択するための、図5を参照して説明した積載物のリストの例を示す図である。リストに含まれる積載物の例としては、物体を搬送するためのコンベアトップ602と、物体を移動させるためのモバイルマニピュレータ(MoMa)604と、特定の物体を保持するように設計されたカートロボットトップ702、及び紫外線(UVC)トップ704とを挙げることができる。更に、コンベアトップ602については、仮想モバイルロボット402が、ユーザによって物理的ステーションに予め設定されたゴール、すなわちウェイポイントに到達したときに、コンベアトップ602から物理的ステーション(環境内の実際の物体)に移動するようにアニメーション化された仮想カートンボックスを存在させることができる。モバイルマニピュレータ604は、6軸以上のロボット運動軸を有してもよい。モバイルマニピュレータ604は、モバイルマニピュレータ604に取り付けられた所定の仮想グリッパを用いてピッキング動作を行うようにアニメーションする仮想ロボットアームを備えている。なお、仮想グリッパのデザインは、全ての積載物のCADモデルと同様に、CADモデルとして取り込まれてもよい。図8~図11は、図1のグラフィカルユーザインタフェース105の4つの画面図を示している。図8~図11の4つの画面図には、4台の仮想モバイルロボット800,900,1000,1100がそれぞれ示されている。各仮想モバイルロボットは、異なる積載物を搭載している。仮想モバイルロボット800は、コンベアトップを搭載している。仮想モバイルロボット900は、カートロボットトップを搭載している。仮想モバイルロボット1000は、ユーザコントロールパネルトップを搭載している。仮想モバイルロボット1100は、UVCトップを搭載している。4つの画面図のそれぞれは、仮想モバイルロボットに搭載する積載物をユーザが選択するための図10の積載物リスト1002が、グラフィカルユーザインタフェース105の片側のウィンドウに配置できることを示している。
 また、図7のUVCトップ704の紫外線の強度レベルが調整されてもよい。更に、UVCトップ704によって照射される紫外線は、オン/オフされてもよい。図12及び図13は、いずれも、UVCトップ1204を搭載した仮想モバイルロボット1200の画面図である。図12及び図13は、UVCトップ1204からの紫外線1304の照射をオン又はオフにすることができる作業量シミュレーションオプション又はボタン1202を示している。図12では、紫外線がオフに切り替えられ、図13では、紫外線がオンに切り替えられる。図12及び図13は、リアルなシミュレーションを行うために、各積載物に固有のアニメーションが提供されていることを示している。同様に、赤外線やレーザビーム、及び/又は他の電磁波の光線など、人間が見ることのできない放射線又は発光を表示したり、アニメーションにしたりしてもよい。シミュレーション中の現実又は仮想のモバイルロボットによるナビゲーションは、これらの放射線又は発光を考慮に入れてもよい。
 図14は、マッピング工程中に図1の装置102のLiDARシステムによって作成することができる作業現場の環境の3Dマップ1402の一例と、3Dマップ1402から変換して得ることができる作業現場の環境の2Dマップ1404(例えば、dxf形式のファイル)の一例とを示している。
 図15は、図1のサーバ108及び110が、モバイルプランナー及びフリートマネージャ1504をそれぞれ提供する図1のクラウドシステム104を示している。図15は、図1の装置102のディスプレイに表示される仮想モバイルロボットのシミュレーションの画面図1502を示している。この画面図1502は、図1のグラフィカルユーザインタフェース105によって提供される。図15の例では、クラウドシステム104が5Gネットワークを介して装置102と通信することが重要な特徴として図示されている。5Gネットワークは、データ通信時の待機時間を低減するのに役立つとともに、より信頼性の高く且つエラーのないデータ通信を提供する。5Gネットワークが使用される場合、よりスムーズなシミュレーションを提供することができる。また、装置102は、作業現場の環境でデータを収集するために使用される拡張現実(AR)装置として知られている。5Gネットワークを使用する場合、3つの重要なステップ1508,1510,1512が関係する。
 ステップ1508では、AR装置がデータを収集するように使用される。このステップでは、ユーザがAR装置に収集したいデータを手動で入力したり、図1の1以上のセンサ109(センサ一式)を使ってAR装置にデータを自動的に収集させたりしてもよい。AR装置に対して自動データ収集が有効にされた場合、ユーザはAR装置を携帯し、仮想モバイルロボットの移動に追従して、AR装置のセンサ一式を介して仮想モバイルロボットの定位を行ってもよい。しかしながら、ユーザがAR装置を仮想モバイルロボットと一緒に移動させず、他のAR装置、マップ内の物体を監視するために使用される他の機器、及び/又は環境内に存在する実際のモバイルロボットによって静止及び/又は動的物体が更新される所定の又は既存のマップを、仮想モバイルロボットに自動的に探索させてもよい。
 ステップ1510では、AR装置が、ステップ1508で収集したデータを、5Gネットワークを介して、シミュレーションソフトウェア(フリートマネージャや他のソフトウェアでもよい)に、シミュレーションタスクとして送信する。この例において、シミュレーションソフトウェアは、図1のシミュレーションサーバ110上で実行される。その後、シミュレーションが自動化され、シミュレーションを表示するためのデータがAR装置に送信されて表示される。シミュレーションの自動化とは、仮想モバイルロボットが自律的に自力でナビゲートするように設定されている場合をいう(例えば、図2のステップ214)。また、ユーザは、手動でシミュレーションを選択してもよい。この場合、仮想モバイルロボットを自律的にナビゲートさせてデータを収集するのではなく、ユーザが仮想モバイルロボットを駆動して(例えば、図2のステップ222)データを収集することになる。シミュレーションソフトウェアに転送される収集データには、精緻な2Dマップ、精緻なゴール位置、自律型インテリジェント車両(AIV)の経路計画(AIVとは仮想モバイルロボットをいい、経路計画はローカル経路計画でもグローバル経路計画でもよい)、AIVのジョブスケジュール、AIVの移動時間、ボトルネック位置(例えば、交通量の多い位置、物体の回避が困難な位置、ジョブの実行が遅い又は非効率な位置など)、及びAIVの使用率(AIVの使用統計)が含まれてもよい。
 ステップ1512では、AR装置は、5Gネットワークを介して、シミュレーションサーバ110からシミュレーション結果を取得する。シミュレーション結果は、AR装置のディスプレイにリアルタイムで表示してもよい。或いは、シミュレーション結果を記録し、ユーザが後からAR装置のディスプレイで事前に記録されたシミュレーションを見て、シミュレーションによって提供されるデモンストレーションを習得し、及び/又は、シミュレーションを研究して改善案を提供してもよい。
 5Gネットワーク及びフリートマネージャなどのソフトウェアの助けを借りて、AR装置は、1台の仮想モバイルロボットだけでなく、作業現場の環境で動作する複数の仮想及び/又は現実のモバイルロボットをスムーズに視覚化するように使用されてもよい。環境内で動作する1以上の仮想モバイルロボット及び/又は各現実のモバイルロボットを制御する各装置は、フリートマネージャを実行するサーバ(例えば、図1の110)と自身に関するデータを通信するように構成されてもよい。フリートマネージャは、中央交通制御装置として機能し、各AR装置にデータを提供して、環境内の交通状況をシミュレーションしたグラフィックを表示するように指示する。このようにして、AR装置の視野内に現れる1以上の仮想及び/又は現実のモバイルロボットを、フリートマネージャからの入力により環境の一部として視覚化することができ、環境内の全ての視覚化された仮想モバイルロボットは、仮想モバイルロボットがシミュレーション内の現実の物体であるかのように動作する。
 本開示の実施例で説明した装置(例えば、装置102)の一例、又は図1を参照して説明したサーバのいずれか1つは、バスを介して電子通信を行う以下のコンポーネントを有してもよい。
1.ディスプレイ;
2.不揮発性メモリ及び/又は非一時的なコンピュータ可読媒体;
3.ランダムアクセスメモリ(以下、「RAM」);
4.N個の処理コンポーネント(「1以上のコントローラー」、「1以上のプロセッサ」、「1以上の中央演算処理装置」など);
5.インターネット/イントラネット、及び/又はワイヤレスネットワーク通信のためのN個のトランシーバを含むトランシーバコンポーネント;
6.ユーザコントロール、すなわち、ユーザ入力装置;
7.カメラなどの画像取得コンポーネント(項目7は、図1を参照して説明したサーバのオプションである);
8.任意で、オーディオ信号取得コンポーネント(例えば、マイクロフォン);
9.任意で、オーディオスピーカー;
10.ナビゲーション/エリアマッピングを目的とした1以上のセンサ及び/又はコンポーネント(項目10は、図1を参照して説明したサーバのオプションである);及び
11.ユーザ入力デバイス(マウス、ジョイスティック、キーボード、ユーザのジェスチャを検知するセンサなど)、オーディオスピーカー、ディスプレイ、画像取得コンポーネント、及び/又はオーディオ信号取得コンポーネントに接続するための入出力インターフェース。
 ディスプレイは、一般に、グラフィカルコンテンツ(例えば、図1のグラフィカルユーザインタフェース105)の提示をユーザに提供するように動作し、様々なディスプレイ(例えば、CRT、LCD、HDMI、マイクロプロジェクタ、OLEDディスプレイ)のいずれかによって実現されてもよい。ディスプレイは、タッチスクリーンであってもよい。この場合、タッチスクリーンは、ユーザコントロールの一部、すなわちユーザ入力装置の一部である。
 一般的に、不揮発性メモリは、データと、モバイルプラットフォームの機能コンポーネントに関連付けられたコードを含む実行可能コードとを保存する(例えば、永続的に保存する)ように機能する。例えば、不揮発性メモリには、ブートローダコード、モデムソフトウェア、オペレーティングシステムコード、ファイルシステムコード、及び簡単のために描かれていない当業者によく知られている他のコードが含まれる。
 多くの実施例において、不揮発性メモリは、フラッシュメモリ(例えば、NAND又はNORメモリ)によって実現されるが、他のタイプのメモリも利用できることは確かである。不揮発性メモリからコードを実行することも可能であるが、不揮発性メモリ内の実行可能コードは、典型的には、RAMにロードされ、N個の処理コンポーネントの1以上によって実行される。
 1以上のコンピュータプログラムは、任意の機械又はコンピュータ可読媒体に本質的に非一時的に記憶されてもよい。コンピュータ可読媒体は、磁気ディスク又は光ディスク、メモリチップ、又はモバイルプラットフォームとのインターフェースに適した他のストレージデバイスなどのストレージデバイスを含んでもよい。また、機械又はコンピュータ可読媒体は、インターネットシステムに例示されるような有線媒体、又は、無線LAN(WLAN)システムに例示されるような無線媒体を含んでもよい。
 RAMに関連するN個の処理コンポーネント(又は「1以上のプロセッサ」)は、一般的に、機能コンポーネントを有効にするために不揮発性メモリに記憶された命令を実行するように動作する。当業者(通常の知識を有する者を含む)であれば理解できるように、N個の処理コンポーネントは、ビデオプロセッサ、モデムプロセッサ、DSP、グラフィック処理ユニット(GPU)、及びその他の処理コンポーネントを含んでもよい。
 トランシーバコンポーネントは、N個のトランシーバチェーンを含んでもよく、これらは無線ネットワークを介して外部デバイスと通信するために使用されてもよい。N個のトランシーバチェーンのそれぞれは、特定の通信方式に関連するトランシーバを表してもよい。例えば、各トランシーバは、ローカルエリアネットワーク、セルラーネットワーク(WIFIネットワーク、CDMAネットワーク、GPRSネットワーク、UMTSネットワーク、5Gネットワークなど)、及び他のタイプの通信ネットワークに特有のプロトコルに対応してもよい。いくつかの実施例では、トランシーバコンポーネントが通信ネットワークと通信することで、接続されたデバイスの位置を決定することができる。
 ナビゲーション/エリアマッピング用の1以上のセンサ及び/又はコンポーネントは、画像(写真又はビデオ)を取得するための画像取得コンポーネントであってもよいし、それを含んでもよい。1以上のセンサは、レーザセンサ(例えばLiDARスキャナ)、赤外線、及び/又は超音波センサであってもよいし、それらを含んでもよい。
 要約すると、本開示の例は、以下の特徴を有する。
 作業現場でモバイルロボットをシミュレーションするための装置(例えば、図1の102)であって、作業現場の環境をマッピングする(このマッピングはマップ又は部分的マップをカバーする)1以上のセンサ(例えば、図1の109)と、プロセッサと、を備える。当該プロセッサは、1以上のセンサによって取得された環境の画像をディスプレイに表示し、1以上のセンサの入力に基づいて環境のマッピングを実行し、環境内の1以上の物体(静止物体及び/又は動的物体を含む)を検知し、ディスプレイに表示された環境内に表示するための仮想モバイルロボット(例えば、図4及び図5の402、図8の800、図9の900、図10の1000、図11の1100、図12及び図13の1200など)のグラフィックスを生成し、表示された環境内における仮想モバイルロボットの移動を制御するためのユーザ入力(仮想モバイルロボットによる自律的なナビゲーションのためのウェイポイント/ゴール、仮想ジョイスティックやモバイルパッドなどによる手動駆動信号など)を受信する、ように装置を動作させる命令を実行するように構成されている。仮想モバイルロボットは、仮想モバイルロボットが表示された環境内を移動するときに、環境内で検知された1以上の物体を回避する(すなわち、迂回する)ように構成されている。
 環境内で検知された1以上の物体は、環境内で移動可能な1以上の物体(動的物体)を含んでもよい。
 前記装置は、表示された環境内に1以上のウェイポイントを追加するためのユーザ入力を受信し、当該1以上のウェイポイントに従って仮想モバイルロボットの移動をナビゲートする、ように動作可能であってもよい。
 前記装置は、1以上のウェイポイントのいずれかで仮想モバイルロボットが実行するタスクを設定するとともに、タスクの実行をシミュレーションするためのグラフィックスを表示する、ように動作可能であってもよい。
 環境のマッピング中にマップ(例えば、図14の1402及び1404)が生成されてもよい。前記装置は、マップ及びマップ内の1以上の検知された物体の情報を、記録のためにサーバ(例えば、図2の108及び/又は110-モバイルプランナー及びフリートマネージャの一方又は両方がマップを受信するように構成され得る)に送信するように動作可能である。サーバは、環境内に存在する1以上の装置(例えば、マッピング/位置/物体検知機能を有する任意の装置、本装置と同様の他の装置、現実又は仮想のモバイルロボットなど)から入力を受信して、マップ及び/又はマップ内の1以上の検知された物体の情報を更新し、前記装置が更新されたマップ及び/又はマップ内の1以上の物体の更新された情報を使用可能なように構成されている。
 マップは、3次元マップ(例えば、図14の1402)であってもよい。前記装置は、3次元マップを2次元マップ(例えば、図14の1404)に変換し、当該2次元マップをサーバに送信する、ように動作可能であってもよい。
 前記装置は、仮想モバイルロボットによって決定された1以上の移動経路のデータ(例えば、ローカル経路計画)をサーバに送信する、ように動作可能であってもよい。
 前記装置は、仮想モバイルロボットの移動のシミュレーションを表示するためのデータを処理するために、サーバ(例えば、図1の110)にデータを送信し、仮想モバイルロボットのシミュレーションを、5Gネットワークを介してディスプレイにリアルタイムで表示するために、サーバからストリーミングされたデータを受信する、ように動作可能であってもよい。サーバは、前記装置及び環境内で動作する1以上の他の装置の位置データを受信し、当該受信した位置データに基づいて環境内の交通を制御するように構成されてもよい。仮想モバイルロボットの移動のシミュレーションは、前記装置と前記1以上の他の装置との間の衝突が抑えられるように交通状況を考慮してもよい。
 前記装置は、初期化工程中に環境内の地面に向けられた環境のキャプチャ画像を処理し、ディスプレイ内に表示された地面上にグラフィック指標(例えば、図3の304)を表示し、初期化工程が完了した後に仮想モバイルロボットのグラフィックを表示する、ように動作可能であってもよい。
 前記装置は、表示された環境において仮想モバイルロボットの進入が許可されているゾーン及び/又は仮想モバイルロボットの進入が許可されていないゾーンを1以上選択するためのユーザ入力を受信する、ように動作可能であってもよい。
 前記装置は、仮想モバイルロボットに搭載される作業現場で特定の機能を有する積載物(例えば、図6の602及び604、図7の702及び704、図10の1004、及び図12の1204)を選択するためのユーザ入力を受信し、当該搭載された積載物を有する仮想モバイルロボットのシミュレーションを可能にする、ように動作可能であってもよい。
 積載物は、6軸以上のロボット運動をサポートするモバイルマニピュレータであってもよく、モバイルマニピュレータは、1以上の生産タスクの実行をシミュレーションするように構成されてもよい。
 前記装置は、仮想モバイルロボットの移動のシミュレーションに基づいて、仮想モバイルロボットのワークサイクルタイム及び/又は仮想モバイルロボットの利用情報を推定する、ように動作可能であってもよい。
 前記装置は、仮想モバイルロボットの1以上の経路計画パラメータを設定するためのユーザ入力を受信する、ように動作可能であってもよい。
 前記1以上の動作パラメータは、
 仮想モバイルロボットの移動速度及び最大移動速度、
 仮想モバイルロボットの回転速度及び最大回転速度、
 仮想モバイルロボットの回転半径、
 仮想モバイルロボットの加速/減速、
 仮想モバイルロボットと環境内の物体との間の隙間、
 仮想モバイルロボットがライン又はエリアに進入又は横断するときの抵抗レベル、
 仮想モバイルロボットがライン又はエリアに進入又は横断するときの優先レベル、
 のうちの1以上を含んでもよい。
 複数の仮想モバイルロボットは、表示された環境内を移動するように(例えば、ユーザの要求に応じて、又は交通状況をシミュレーションするためにフリートマネージャによって)生成されてもよく、各仮想モバイルロボットは、互いに回避すべき物体とみなしてもよい。
 前記装置は、人間の目には見えない1以上の特徴のためのグラフィックスを表示する、ように動作可能であってもよい。
 前記1以上の特徴は、
 作業現場でレーザを照射する能力を有する仮想モバイルロボット及び/又は他の検知された物体によって投射されたレーザの視界、
 放射線放出源から放出される放射線、
 のうちの1以上を含んでもよい。
 仮想モバイルロボットは、移動中に前記1以上の特徴を回避するように構成されてもよい。
 前記装置は、仮想モバイルロボットが環境内で自律的にナビゲートされるように設定することによって、仮想モバイルロボットのマッピング(全体マップ又は部分マップの作成)、ナビゲーション(例えば、定位データ、仮想モバイルロボットによって自動計算されたローカル/グローバル経路計画など)、及び/又は動作(例えば、サイクルタイム、稼働時間、交通状況、その他の作業効率の関連パラメータなど)に関連する情報を収集するか、或いは、ユーザが仮想モバイルロボットを環境内で移動させるための入力を行うことによって、仮想モバイルロボットのマッピング、ナビゲーション、及び動作に関連する情報を収集する、ように動作可能であってもよい。
 装置は、ハンドヘルド型のモバイル機器であってもよい。
 作業現場でモバイルロボットをシミュレーションする方法(例えば、図2の200)であって、1以上のセンサ(例えば、図1の109)によって取得された作業現場の環境の画像をディスプレイに表示し、1以上のセンサの入力に基づいて環境のマッピングを実行し、環境内の1以上の物体を検知し、ディスプレイに表示された環境内に表示するための仮想モバイルロボットのグラフィックス(例えば、図4及び図5の402、図8の800、図9の900、図10の1000、図11の1100、及び図12及び図13の1200)を生成し、表示された環境内における仮想モバイルロボットの移動を制御するためのユーザ入力を受信することを含み、仮想モバイルロボットは、表示された環境内を移動しているときに、環境内で検知された1以上の物体を回避するように構成されてもよい。
 作業現場でモバイルロボットをシミュレーションするためのシステム(例えば、図1の100)であって、このシステムは、本明細書の概要で上述した装置(例えば、図1の102)と、本明細書の概要で上述したいずれかのサーバ(例えば、図2の108及び/又は110)を含むクラウドシステム(例えば、図1の104)と、を備える。
 本明細書及び特許請求の範囲において、文脈が明らかに他を示していない限り、「備える(comprising)」という用語は、「のみからなる」という意味での排他的な意味ではなく、「少なくとも含む」という意味での非排他的な意味を有する。同じことが、「備える(comprise)」や「備える(comprises)」など、この言葉の他の形に対応する文法的な変更についても当てはまる。
 本開示では、本発明をいくつかの例及び実施例に関連して説明してきたが、本発明はそのように限定されるものではなく、添付の特許請求の範囲内に入る様々な明らかな変更及び同等の配置をカバーするものである。本発明の特徴は、特許請求の範囲の中で特定の組み合わせで表現されているが、これらの特徴は、任意の組み合わせ及び順序で配置できることが企図されている。

Claims (20)

  1.  作業現場でモバイルロボットをシミュレーションする装置であって、
     作業現場の環境をマッピングする1以上のセンサと、
     プロセッサと、
     を備え、
     前記プロセッサは、
     前記1以上のセンサによって取得された前記環境の画像をディスプレイに表示し、
     前記1以上のセンサの入力に基づいて前記環境のマッピングを実行し、
     前記環境内の1以上の物体を検知し、
     前記ディスプレイに表示された環境内に表示するための仮想モバイルロボットのグラフィックを生成し、
     表示された環境内における前記仮想モバイルロボットの移動を制御するためのユーザ入力を受信する、
     ように前記装置を動作させる命令を実行するように構成され、
     前記仮想モバイルロボットは、当該仮想モバイルロボットが前記表示された環境内を移動するときに、前記環境内で検知された1以上の物体を回避するように構成されている、装置。
  2.  前記環境内で検知された1以上の物体は、前記環境内で移動可能な1以上の物体を含む、請求項1に記載の装置。
  3.  前記表示された環境内に1以上のウェイポイントを追加するためのユーザ入力を受信し、当該1以上のウェイポイントに従って前記仮想モバイルロボットの移動をナビゲートする、ように動作可能である、請求項1又は2に記載の装置。
  4.  前記1以上のウェイポイントのいずれかで前記仮想モバイルロボットが実行するタスクを設定するとともに、前記タスクの実行をシミュレーションするためのグラフィックスを表示する、ように動作可能である、請求項3に記載の装置。
  5.  前記環境のマッピング中にマップが生成され、
     前記装置は、前記マップ及び前記マップ内の1以上の検知された物体の情報を、記録のためにサーバに送信するように動作可能であり、
     前記サーバは、前記環境内に存在する1以上の装置からの入力を受信して、前記マップ及び/又は前記マップ内の1以上の検知された物体の情報を更新し、前記装置が更新されたマップ及び/又は前記マップ内の1以上の物体の更新された情報を使用可能なように構成されている、請求項4に記載の装置。
  6.  前記マップは、3次元マップであり、
     前記3次元マップを2次元マップに変換し、当該2次元マップを前記サーバに送信する、ように動作可能である、請求項5に記載の装置。
  7.  前記仮想モバイルロボットによって決定された1以上の移動経路のデータを前記サーバに送信する、ように動作可能である、請求項5又は6に記載の装置。
  8.  前記仮想モバイルロボットの移動のシミュレーションを表示するためのデータを処理するために、位置データを含むデータをサーバに送信し、
     前記仮想モバイルロボットのシミュレーションを、5Gネットワークを介して前記ディスプレイにリアルタイムで表示するために、前記サーバからストリーミングされたデータを受信する、
     ように動作可能であり、
     前記サーバは、前記装置及び前記環境内で動作する1以上の他の装置の位置データを受信し、当該受信した位置データに基づいて前記環境内の交通を制御するように構成され、
     前記サーバからストリーミングされたデータは、前記装置及び前記1以上の他の装置の交通状況を含み、
     前記仮想モバイルロボットの移動のシミュレーションは、前記装置と前記1以上の他の装置との間の衝突が抑えられるように前記交通状況を考慮する、
     請求項1~7のいずれか1つに記載の装置。
  9.  初期化工程中に前記環境内の地面に向けられた前記環境のキャプチャ画像を処理し、
     前記ディスプレイ内に表示された地面上にグラフィック指標を表示し、
     前記初期化工程が完了した後に前記仮想モバイルロボットのグラフィックを表示する、
     ように動作可能である、請求項1~8のいずれか1つに記載の装置。
  10.  前記表示された環境において前記仮想モバイルロボットの進入が許可されているゾーン及び/又は前記仮想モバイルロボットの進入が許可されていないゾーンを1以上選択するためのユーザ入力を受信する、ように動作可能である、請求項1~9のいずれか1つに記載の装置。
  11.  前記仮想モバイルロボットに搭載される前記作業現場で特定の機能を有する積載物を選択するためのユーザ入力を受信し、当該搭載された積載物を有する前記仮想モバイルロボットのシミュレーションを可能にする、ように動作可能である、請求項1~10のいずれか1つに記載の装置。
  12.  前記積載物は、6軸以上のロボット運動をサポートするモバイルマニピュレータであり、前記モバイルマニピュレータは、1以上の生産タスクの実行をシミュレーションするように構成可能である、請求項11に記載の装置。
  13.  前記仮想モバイルロボットの移動のシミュレーションに基づいて、前記仮想モバイルロボットのワークサイクルタイム及び/又は前記仮想モバイルロボットの利用情報を推定する、ように動作可能である、請求項1~12のいずれか1つに記載の装置。
  14.  前記仮想モバイルロボットの1以上の動作パラメータを設定するためのユーザ入力を受信するように動作可能であり、
     前記1以上の動作パラメータは、
     前記仮想モバイルロボットの移動速度及び最大移動速度、
     前記仮想モバイルロボットの回転速度及び最大回転速度、
     前記仮想モバイルロボットの回転半径、
     前記仮想モバイルロボットの加速/減速、
     前記仮想モバイルロボットと前記環境内の物体との間の隙間、
     前記仮想モバイルロボットがライン又はエリアに進入又は横断するときの抵抗レベル、
     前記仮想モバイルロボットがライン又はエリアに進入又は横断するときの優先レベル、
     のうちの1以上を含む、請求項1~13のいずれか1つに記載の装置。
  15.  複数の仮想モバイルロボットは、前記表示された環境内を移動するように生成され、各仮想モバイルロボットは、互いに回避すべき物体とみなす、請求項1~14のいずれか1つに記載の装置。
  16.  人間の目には見えない1以上の特徴のためのグラフィックスを表示するように動作可能であり、
     前記1以上の特徴は、
     前記作業現場でレーザを照射する能力を有する前記仮想モバイルロボット及び/又は他の検知された物体によって投影されたレーザの視界、
     放射線放出源から放出される放射線、
     のうちの1以上を含み、
     前記仮想モバイルロボットは、移動中に前記1以上の特徴を回避するように構成されている、請求項1~15のいずれか1つに記載の装置。
  17.  前記仮想モバイルロボットが前記環境内で自律的にナビゲートされるように設定することによって、前記仮想モバイルロボットのマッピング、ナビゲーション、及び/又は動作に関連する情報を収集するか、或いは、
     ユーザが前記仮想モバイルロボットを前記環境内で移動させるための入力を行うことによって、前記仮想モバイルロボットのマッピング、ナビゲーション、及び/又は動作に関する情報を収集する、
     ように動作可能である、請求項1~16のいずれか1つに記載の装置。
  18.  ハンドヘルド型のモバイル機器である、請求項1~17のいずれか1つに記載の装置。
  19.  作業現場でモバイルロボットをシミュレーションする方法であって、
     1以上のセンサによって取得された作業現場の環境の画像をディスプレイに表示し、
     前記1以上のセンサの入力に基づいて前記環境のマッピングを実行し、
     前記環境内の1以上の物体を検知し、
     前記ディスプレイに表示された環境内に表示するための仮想モバイルロボットのグラフィックを生成し、
     前記表示された環境内における前記仮想モバイルロボットの移動を制御するためのユーザ入力を受信する、
     ことを含み、
     前記仮想モバイルロボットは、前記環境内で検知された1以上の物体を回避するように、前記表示された環境内で移動するように構成されている、方法。
  20.  作業現場でモバイルロボットをシミュレーションするためのシステムであって、請求項1~18のいずれか1つに記載の装置と、請求項5~8のいずれか1つに記載のサーバを含むクラウドシステムとを備える、システム。
PCT/JP2021/042214 2020-12-01 2021-11-17 作業現場でモバイルロボットをシミュレーションする装置及び方法 WO2022118656A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP21900411.6A EP4258077A1 (en) 2020-12-01 2021-11-17 Device and method for simulating mobile robot at work site
JP2022566828A JP7452706B2 (ja) 2020-12-01 2021-11-17 作業現場でモバイルロボットをシミュレーションする装置及び方法
US18/039,368 US20240025040A1 (en) 2020-12-01 2021-11-17 Apparatus and method for simulating a mobile robot at a work site
CN202180080401.0A CN116547624A (zh) 2020-12-01 2021-11-17 在作业现场模拟移动机器人的装置和方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
SG10202011988T 2020-12-01
SG10202011988T 2020-12-01

Publications (1)

Publication Number Publication Date
WO2022118656A1 true WO2022118656A1 (ja) 2022-06-09

Family

ID=81853699

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/042214 WO2022118656A1 (ja) 2020-12-01 2021-11-17 作業現場でモバイルロボットをシミュレーションする装置及び方法

Country Status (5)

Country Link
US (1) US20240025040A1 (ja)
EP (1) EP4258077A1 (ja)
JP (1) JP7452706B2 (ja)
CN (1) CN116547624A (ja)
WO (1) WO2022118656A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07328968A (ja) * 1994-06-10 1995-12-19 Gijutsu Kenkyu Kumiai Shinjiyouhou Shiyori Kaihatsu Kiko ロボット装置
JPH11104984A (ja) * 1997-10-06 1999-04-20 Fujitsu Ltd 実環境情報表示装置及び実環境情報表示処理を実行するプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2007249632A (ja) * 2006-03-16 2007-09-27 Fujitsu Ltd 障害物のある環境下で自律移動する移動ロボットおよび移動ロボットの制御方法。
JP2011100306A (ja) * 2009-11-06 2011-05-19 Hitachi Ltd シミュレーションシステム
WO2020073680A1 (en) * 2018-10-10 2020-04-16 Midea Group Co., Ltd. Method and system for providing remote robotic control

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07328968A (ja) * 1994-06-10 1995-12-19 Gijutsu Kenkyu Kumiai Shinjiyouhou Shiyori Kaihatsu Kiko ロボット装置
JPH11104984A (ja) * 1997-10-06 1999-04-20 Fujitsu Ltd 実環境情報表示装置及び実環境情報表示処理を実行するプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2007249632A (ja) * 2006-03-16 2007-09-27 Fujitsu Ltd 障害物のある環境下で自律移動する移動ロボットおよび移動ロボットの制御方法。
JP2011100306A (ja) * 2009-11-06 2011-05-19 Hitachi Ltd シミュレーションシステム
WO2020073680A1 (en) * 2018-10-10 2020-04-16 Midea Group Co., Ltd. Method and system for providing remote robotic control

Also Published As

Publication number Publication date
EP4258077A1 (en) 2023-10-11
JP7452706B2 (ja) 2024-03-19
US20240025040A1 (en) 2024-01-25
CN116547624A (zh) 2023-08-04
JPWO2022118656A1 (ja) 2022-06-09

Similar Documents

Publication Publication Date Title
Wang et al. Interactive and immersive process-level digital twin for collaborative human–robot construction work
JP6986188B2 (ja) 環境地図生成および位置整合のための方法ならびにシステム
US20200030979A1 (en) Mixed Reality Assisted Spatial Programming of Robotic Systems
CN109074536B (zh) 计划和/或控制和/或模拟施工机械的运行的方法及设备
US10754422B1 (en) Systems and methods for providing interaction with elements in a virtual architectural visualization
US9753453B2 (en) Natural machine interface system
JP6895539B2 (ja) 構築可能性分析に基づくプロジェクトの計画および適応
WO2013108749A1 (ja) 搬入経路計画システム
JPWO2017188292A1 (ja) 移動体の管理システム、方法、およびコンピュータプログラム
Aivaliotis et al. An augmented reality software suite enabling seamless human robot interaction
US20170091999A1 (en) Method and system for determining a configuration of a virtual robot in a virtual environment
Eiris et al. InDrone: a 2D-based drone flight behavior visualization platform for indoor building inspection
JP5414465B2 (ja) シミュレーションシステム
US11880209B2 (en) Electronic apparatus and controlling method thereof
Joseph Learning Robotics using Python: Design, simulate, program, and prototype an autonomous mobile robot using ROS, OpenCV, PCL, and Python
WO2022118656A1 (ja) 作業現場でモバイルロボットをシミュレーションする装置及び方法
KR20210059460A (ko) 물류 자동화를 위한 자율 주행 로봇의 원격 관제 시스템
WO2022259600A1 (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
Wang Enabling Human-Robot Partnerships in Digitally-Driven Construction Work through Integration of Building Information Models, Interactive Virtual Reality, and Process-Level Digital Twins
Kiran et al. Design and development of autonomous mobile robot for mapping and navigation system
CN111367194A (zh) 一种视觉算法验证的方法及装置
Weber Motion planning for triple-axis spectrometers
US20220043455A1 (en) Preparing robotic operating environments for execution of robotic control plans
US20210187746A1 (en) Task planning accounting for occlusion of sensor observations
Smith An investigation on a mobile robot in a ros enabled cloud robotics environment

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21900411

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022566828

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 202180080401.0

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021900411

Country of ref document: EP

Effective date: 20230703