WO2023224391A1 - Method and system for creating virtual meta map using spatial data acquired by intelligent indoor autonomous mobile robot - Google Patents

Method and system for creating virtual meta map using spatial data acquired by intelligent indoor autonomous mobile robot Download PDF

Info

Publication number
WO2023224391A1
WO2023224391A1 PCT/KR2023/006706 KR2023006706W WO2023224391A1 WO 2023224391 A1 WO2023224391 A1 WO 2023224391A1 KR 2023006706 W KR2023006706 W KR 2023006706W WO 2023224391 A1 WO2023224391 A1 WO 2023224391A1
Authority
WO
WIPO (PCT)
Prior art keywords
mobility
map
information
driving
robot
Prior art date
Application number
PCT/KR2023/006706
Other languages
French (fr)
Korean (ko)
Inventor
이대윤
Original Assignee
주식회사 인티그리트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020230049372A external-priority patent/KR20230161342A/en
Application filed by 주식회사 인티그리트 filed Critical 주식회사 인티그리트
Publication of WO2023224391A1 publication Critical patent/WO2023224391A1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram

Definitions

  • the present invention relates to a method and system for creating a virtualized meta map using spatial data acquired by an intelligent indoor autonomous robot.
  • 3D spatial information technology the basic technology of 3D GIS (Geographic Information System), refers to information technology that expresses it similarly to the real world by adding height (depth), image, and attributes to 2D location information.
  • 3D GIS Geographic Information System
  • the core of this 3D spatial information technology is to create a 3D electronic map and include all related information within it, which can be used for u-City, telematics, LBS (Location Based Service), urban planning and development, disaster prevention, and transportation. It can be said to lay the foundation for the public sector and related industries such as control and environment.
  • LBS Lication Based Service
  • map services through car navigation systems or mobile devices when moving to a specific place.
  • These map services were commonly two-dimensional (2D) maps that provided buildings, roads, etc. in a two-dimensional plan, but recently, three-dimensional (3D) map services have also emerged.
  • 3D map services equally project the real world, their usability is increasing.
  • web-based 3D map services that can be accessed from anywhere are currently already being provided in many countries and companies.
  • the present invention seeks to disclose a method and system for creating a virtualized meta map using spatial data acquired by an intelligent indoor self-driving robot.
  • the purpose of the present invention is to provide a method and system for creating a virtualized meta map using spatial data acquired by an intelligent indoor self-driving robot that can solve conventional problems.
  • a virtualized meta map production system using spatial data acquired by an intelligent indoor self-driving robot provides location information of objects located in the indoor space acquired by a visualization sensor during the autonomous driving process.
  • Autonomous robots or mobility that transmit; And generating in advance a virtualized map containing object information of an autonomous robot in which the overall terrain and object information of the indoor space is mapped, and displaying the autonomous robot or mobility and object location information in the virtual space;
  • the virtual space coordinate system in the meta map is converted to a real coordinate system to enable the autonomous robot or It includes a cloud server that provides mobility, and the autonomous robot or mobility is characterized in that it moves to a target in the indoor space based on information that converts the virtual space coordinate system in the meta map into a real coordinate system.
  • the cloud server sends the location information and characteristic information of people and/or objects measured during the autonomous driving process of the autonomous robot or mobility, and the real coordinate information of the indoor space in which the autonomous robot or mobility drives to the outside.
  • Information collection unit that collects information from servers;
  • a virtual space modeling unit that models the indoor space into a 3D virtual space using a digital twin technique based on the indoor coordinates of the indoor space;
  • a driving information agent unit that provides driving commands for an autonomous robot or mobility avatar, which is an agent located in a virtual space, to move to a destination; It is characterized by comprising a meta-map generator that generates a meta-map including driving commands for the autonomous robot or mobility avatar to move to the target in the virtual space.
  • the meta map generator includes a mapping unit that generates a mapping map that maps spatial coordinates of a virtual space, which is a digital twin space generated by the virtual space modeling unit, to spatial coordinates of the real world; a synchronization unit that synchronizes the location information of the self-driving robot or mobility in the real world within the mapping map and the location of the avatar of the self-driving robot or mobility in the virtual space; a target designator that specifies or creates a target within the mapping map at a location designated by an external terminal; a movement path generator that calculates and provides a movement route from the location of the autonomous robot or mobility within the mapping map to the target; and a meta map providing and updating unit that generates a meta map reflecting the movement path generated by the movement path creation unit and the driving command provided by the driving information agent within the movement path and transmits it to an autonomous robot or mobility in the real world.
  • the meta map providing and updating unit reflects in real time the detection information of obstacles (moving objects) detected while moving along the movement path displayed on the
  • Using a virtualized meta map production system and method using spatial data acquired by an intelligent indoor self-driving robot according to an embodiment of the present invention autonomous driving is possible by projecting the movement according to the manipulation command of a digital object in the virtual space in the real world. There is an advantage in being able to remotely control robots or mobility.
  • Figure 1a is the architecture of the digital twin
  • Figure 1b is the architecture of the metaverse.
  • Figure 2 is a network configuration diagram of a virtualized meta map production system using spatial data acquired by an intelligent indoor self-driving robot according to an embodiment of the present invention.
  • FIG. 3 is a detailed configuration diagram of the autonomous robot or mobility shown in FIG. 2.
  • FIG. 4 is a detailed configuration diagram of the cloud server shown in FIG. 2.
  • Figure 5 is a detailed configuration diagram of the meta map generator shown in Figure 4.
  • FIG. 6 is an example diagram showing a metamap converted to real coordinates supported by the cloud server shown in FIG. 2 and a process of converting real coordinates into virtual space coordinates.
  • Figure 7 is a diagram illustrating an example computing environment in which one or more embodiments disclosed herein may be implemented.
  • 'part' includes a unit realized by hardware, a unit realized by software, and a unit realized using both. Additionally, one unit may be realized using two or more pieces of hardware, and two or more units may be realized using one piece of hardware. Meanwhile, ' ⁇ part' is not limited to software or hardware, and ' ⁇ part' may be configured to reside in an addressable storage medium or may be configured to reproduce one or more processors.
  • ' ⁇ part' refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, and procedures. Contains fields, subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables.
  • the functions provided within the components and 'parts' may be combined into a smaller number of components and 'parts' or may be further separated into additional components and 'parts'. Additionally, components and 'parts' may be implemented to regenerate one or more CPUs within a device or a secure multimedia card.
  • some of the operations or functions described as being performed by a terminal, apparatus, or device may instead be performed on a server connected to the terminal, apparatus, or device.
  • some of the operations or functions described as being performed by the server may also be performed in a terminal, apparatus, or device connected to the server.
  • mapping or matching with the terminal mean mapping or matching the terminal's unique number or personal identification information, which is identifying data of the terminal. It can be interpreted as
  • Digital Twin and Metaverse are similar in their overall framework of being implemented through a virtual world, but they differ in how they view the real world.
  • digital twin it is a technology that implements objects from the real world, such as cities, machines, and factories, in the virtual world and operates in the same way as the real world based on this.
  • Predix which is actually used by GE (General Electronics), is a cloud platform for integrating GE's facilities and software into the industrial Internet to support smart factories. Using this, we safely collect and analyze data from various machines and facilities in the real world through Predix. It is a digital twin platform that operates facilities more efficiently in reality based on the results.
  • Figure 1a shows the structure of a digital twin that creates a digital model of a real object based on model data and data collected by sensors in reality and implements data analysis, prediction, and situation awareness in reality again through visualization.
  • metaverse it is a term that combines meta, which means transcendence, and universe, which means the real world. Metaverse allows you to experience various virtual worlds with an avatar that is a projection of yourself, but unlike digital twins, it does not mean that the virtual world is a realization of the real world. Metaverse is about producing and sharing various experiences and values through interaction between the virtual and real worlds by escaping from the initial 3D virtual world and crossing with reality.
  • Zepeto a metaverse platform operated by Naver Jet, is a platform that implements avatars and virtual worlds based on facial recognition and augmented reality.
  • Mesh Microsoft's remote collaboration platform, is a metaverse platform based on mixed reality (MR) that allows users from different regions to feel as if they are working in the same space through avatars.
  • MR mixed reality
  • Figure 1b shows four elements represented by the augmented reality of the metaverse, a mirror world implemented by adding additional information to the physical world, life logging that reproduces information such as emotions, movements, and bodies experienced by humans in a virtual world, and the virtual world.
  • This diagram shows the concept of the metaverse that connects reality and virtuality with metaverse general-purpose technologies such as XR (Extended Reality) and data technology.
  • Figure 2 is a network configuration diagram of a virtualized meta map production system using spatial data acquired by an intelligent indoor autonomous robot according to an embodiment of the present invention
  • Figure 3 is a detailed configuration of the autonomous robot or mobility shown in Figure 2.
  • 4 is a detailed configuration diagram of the cloud server shown in FIG. 2
  • FIG. 5 is a detailed configuration diagram of the meta map generator shown in FIG. 4
  • FIG. 6 is a reality supported by the cloud server shown in FIG. 2.
  • This is an example diagram showing the metamap converted into coordinates and the process of converting real coordinates into virtual space coordinates.
  • the virtualized meta map production system 100 using spatial data acquired by an intelligent indoor self-driving robot is an autonomous robot or mobility 200 and a cloud server. Includes 300.
  • each component communicates through a network
  • the network refers to a connection structure that allows information exchange between nodes such as a plurality of terminals and servers.
  • An example of such a network includes the network 170, PAN ( One or more of the following networks: personal area network (LAN), local area network (LAN), campus area network (CAN), metropolitan area network (MAN), wide area network (WAN), broadband network (BBN), and the Internet. It can be included.
  • the network 170 may include any one or more of network topologies including a bus network, star network, ring network, mesh network, star-bus network, tree or hierarchical network, etc. It is not limited to this.
  • the term at least one is defined as a term including singular and plural, and even if the term at least one does not exist, each component may exist in singular or plural, and may mean singular or plural. This should be self-explanatory. Additionally, whether each component is provided in singular or plural form may vary depending on the embodiment.
  • the plurality of self- driving robots or mobility 200 may be configured to collect characteristic information of people and/or objects while driving in different designated indoor spaces.
  • the plurality of autonomous robots or mobility 200 detects and avoids obstacles on a designated movement path, recognizes environmental information such as temperature, humidity, or air condition, tracks, detects changes, moves at high speed, monitors images, or determines blind spots. You can perform various actions such as:
  • an autonomous robot or mobility may be called various terms such as a mobile robot, a mobile robot for surveillance, or a robot for surveillance.
  • the self-driving robot or mobility 200 includes a processor 210, a memory 220, a robot camera 230, a LiDAR sensor 240, an autonomous driving unit 250, and a communication unit 260.
  • the processor 210 executes commands to control driving operations of the autonomous robot or mobility 200 according to implementation commands (operation information) in the meta map provided by the cloud server 300, which will be described later.
  • the processor 210 may be configured to extract or calculate characteristic information and spatial coordinate information of objects and/or people detected by the robot camera 230 and lidar scanner 240, which will be described later.
  • the processor 210 detects people and/or objects located in the indoor space through the shooting information of the robot camera and the LiDAR signal detected by the LiDAR sensor, and uses the external characteristics of the detected objects and people as objects. It may be a configuration extracted through a recognition model.
  • the object recognition model can be implemented using various algorithms, such as the Scale Invariant Feature Transform (SIFT) algorithm, Histogram of Oriented Grandients (HOG) algorithm, Haar algorithm, and Ferm algorithm.
  • SIFT Scale Invariant Feature Transform
  • HOG Histogram of Oriented Grandients
  • Haar Haar algorithm
  • Ferm Ferm algorithm
  • the processor 210 may be configured to calculate the location and density of the objects and people in the indoor space based on the location at which the object and/or person is detected and the detection distance from the person and/or object. there is.
  • the density is determined based on the number of LiDAR data distributed or located in a specific area, and the correlation between the LiDAR data is determined based on the Euclidean distance, reflectance, normal vector, etc. between the LiDAR data.
  • the processor 210 can determine LiDAR data distributed in similar areas and have similar properties based on the degree to which the LiDAR data is distributed and the similarity between the LiDAR data, and cluster them into individual groups.
  • the processor 210 may be configured to process sensor data and the characteristic data required to extract characteristic data of the object and/or person into an encrypted message and then store it in a memory (buffer) to be described later. there is.
  • the memory 220 may be configured to store records processed by the processor 210.
  • the memory 220 may be a space that stores various environmental information (sound, etc.) collected during autonomous driving.
  • the memory 220 can store data and commands (application programs) for the operation of an autonomous robot or mobility.
  • the memory 220 is a flash memory type, hard disk type, multimedia card micro type, card type memory (for example, SD or XD memory, etc.), Magnetic memory, magnetic disk, optical disk, RAM (Random Access Memory), SRAM (Static Random Access Memory), ROM (Read-Only Memory: ROM), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read) -Only Memory) may include at least one storage medium.
  • the robot camera 230 may be configured to photograph the indoor space along the movement path.
  • the captured video is used by the above-described processor to recognize or determine whether it is an object and/or a person and to extract characteristic information (face, body, gender, etc.) of the object and/or person.
  • the LIDAR sensor unit 240 may be configured to measure the position of an object and/or person.
  • the LiDAR sensor 240 is capable of measuring the position of objects in space with a wide viewing angle at a distance, and is used to track the position of objects in a limited area of space even if the positions of some objects change.
  • the lidar sensor unit 240 emits light of a radar wavelength to the outside and measures the time it takes for this emitted light to reflect off an external object and return to provide information about the location of objects and/or people. Generate (LIDAR data).
  • the LiDAR sensor unit 240 of the present invention uses LiDAR data to classify not only the presence or absence of objects (objects and people), but also the type of object, using a 2D LiDAR sensor consisting of a plurality of layers. It could be a dimensional LiDAR sensor.
  • the LiDAR sensor unit 240 used in the present invention is a 2D LiDAR configured to be tilted or rotated.
  • the LiDAR sensor unit 240 used in the present invention is a 2D LiDAR configured to be tilted or rotated.
  • it can be implemented with a sensor.
  • the autonomous driving unit 250 is configured to enable autonomous driving along a set route and is equipped with a lidar sensor that detects obstacles, a satellite navigation autonomous driving algorithm, etc., and the technology for autonomous driving is only a known technology. Therefore, a more detailed description will be omitted.
  • the communication unit 260 is configured to communicate bidirectionally with a digital twin map production server, which will be described later, and communicates with any internal component or at least one external terminal through a wired/wireless communication network.
  • the external arbitrary terminal may include a server (not shown), another terminal (not shown), etc.
  • wireless Internet technologies include Wireless LAN (WLAN), DLNA (Digital Living Network Alliance), Wibro (Wireless Broadband: Wibro), Wimax (World Interoperability for Microwave Access: Wimax), and HSDPA (High Speed Downlink Packet Access). ), HSUPA (High Speed Uplink Packet Access), IEEE 802.16, Long Term Evolution (LTE), LTE-A (Long Term Evolution-Advanced), Wireless Mobile Broadband Service (WMBS), etc.
  • the communication unit transmits and receives data according to at least one wireless Internet technology, including Internet technologies not listed above.
  • short-range communication technologies include Bluetooth, RFID (Radio Frequency Identification), Infrared Data Association (IrDA), UWB (Ultra Wideband), ZigBee, and Near Field Communication (NFC).
  • RFID Radio Frequency Identification
  • IrDA Infrared Data Association
  • UWB Ultra Wideband
  • ZigBee Ultra Wideband
  • NFC Near Field Communication
  • Ultrasound Communication USC
  • VLC Visible Light Communication
  • Wi-Fi Direct Wi-Fi Direct
  • wired communication technologies may include Power Line Communication (PLC), USB communication, Ethernet, serial communication, optical/coaxial cables, etc.
  • the communication unit 260 can transmit information to and from any terminal through a universal serial bus (USB).
  • USB universal serial bus
  • the communication unit 260 supports technical standards or communication methods for mobile communication (e.g., Global System for Mobile communication (GSM), Code Division Multi Access (CDMA), Code Division Multi Access 2000 (CDMA2000), EV -DO (Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA (Wideband CDMA), HSDPA (High Speed Downlink Packet Access), HSUPA (High Speed Uplink Packet Access), LTE (Long Term Evolution), LTE-A (Long Term Evolution-Advanced, etc.), wireless signals are transmitted and received with a base station, the server, and the other terminals on a mobile communication network constructed according to (Long Term Evolution-Advanced), etc.).
  • GSM Global System for Mobile communication
  • CDMA Code Division Multi Access
  • CDMA2000 Code Division Multi Access 2000
  • EV -DO Enhanced Voice-Data Optimized or Enhanced Voice-Data Only
  • WCDMA Wideband CDMA
  • HSDPA High Speed Downlink Packet Access
  • HSUPA High Speed Uplink
  • the cloud server 300 creates a virtual space that maps the coordinate information of the indoor space, displays the target coordinate information in the virtual space, and provides control information that records driving command information of the autonomous robot or mobility. It may be configured to generate a recorded meta map and provide it to the autonomous robot or mobility.
  • the cloud server 300 updates the meta map by reflecting the location information of obstacles or objects detected in real time by an autonomous robot or mobility running in the indoor space in the coordinates of the virtual space, and updates the meta map It may be configured to update the driving path and driving information to the target according to the location information of the object.
  • the cloud server 300 generates in advance a virtualized map containing the object information of the autonomous robot to which the overall terrain and object information of the indoor space is mapped, and the autonomous robot or mobility within the virtual space.
  • the virtual space coordinate system within the meta map is converted to a real coordinate system. It may be converted and provided as the autonomous robot or mobility.
  • the cloud server 300 includes an information collection unit 310, a virtual space modeling unit 320, a driving information agent unit 330, and a meta map creation unit 340.
  • the information collection unit 310 may be configured to collect measurement information measured by a pre-registered autonomous robot or mobility device 200.
  • the measurement information may be information including location information and characteristic information of people and/or objects measured during the autonomous driving process.
  • the information collection unit 310 may be configured to receive real coordinate information of the indoor space in which the autonomous robot or mobility vehicle runs from an external server.
  • the virtual space modeling unit 320 may be configured to model the indoor space as a three-dimensional virtual space based on the indoor coordinates of the indoor space.
  • the three-dimensional virtual space which is the space of the virtual world, may be configured in the form of VS (Virtual Space), MS (Mixed Space), and/or DTS (Digital Twin Space) depending on the characteristics of the space.
  • VS Virtual Space
  • MS Mated Space
  • DTS Digital Twin Space
  • VS Virtual Space
  • DTS Digital Twin Space
  • MS Mated Space
  • MS it can be provided in the form of self-driving robots or mobility adapting to the real world environment, or in the form of rendering the real world environment in the virtual world.
  • the space of the virtual world may be the concept of a basic virtual space in which autonomous robots or mobility can operate.
  • an agent may refer to a user or program in the virtual world space.
  • the agent as a program is in the form of an artificial intelligence agent and may be a virtual avatar or persona that exists on behalf of a third-party business operator.
  • the physical characteristics of the space of the virtual world to which the agent belongs may be applied to these agents, and the service profile set in the space of the virtual world may be applied.
  • the agent may have characteristics based on information about the physical device used by the user. For example, the agent may have a viewing angle according to the display characteristics of the physical device used by the user, or may have control characteristics according to the controller of the physical device.
  • various digital objects are located in the space of the virtual world, and as a key element of world information in the space of the virtual world, it can be a general term for objects that provide mutual interaction functions with agents.
  • the digital object may be formed in the object area (OA), which is an area included in the space of the virtual world.
  • OA object area
  • digital objects may include display objects (DO), interaction objects (IO), web objects (WO), and streaming objects (SO).
  • DO display objects
  • IO interaction objects
  • WO web objects
  • SO streaming objects
  • each of the display object, interaction object, web object, and streaming object may optionally include a display area for displaying content.
  • the virtual space created by the virtual space modeling unit 320 may be a space in which the real world environment, including roads, buildings, and landmarks existing in the real world, is equally projected into the virtual space.
  • the virtual space modeling unit 320 creates a virtual space by replicating the space using a digital twin technique based on three-dimensional information about the specific space.
  • three-dimensional information about a specific space may be any one of a blueprint for the space, 3D scanned data, a floor plan, or data generated by actually measuring the specific space.
  • the virtual space modeling unit 130 calculates the difference with the object in the object detection data using a 3D model (3D model reconstruction) placed in the digital twin based on the initial position, and minimizes the difference.
  • 3D model 3D model reconstruction
  • the digital twin referred to in the present invention is used in various systems and industries such as manufacturing, medicine, transportation, aerospace, and construction, and uses standardized data to generate IoT data, 3D objects, and 3D maps. It may be formed based on (3DGeographic Map)
  • Digital Twin technology uses a digital twin model that maintains the identity and consistency of an actual physical model or an actual sensor information model that can be dynamically analyzed in real time, so that future phenomena such as an actual physical model or an actual sensor information model can be used. It is known as a technology that can predict and control the actual physical model or actual sensor information model.
  • the virtual space created by the virtual space modeling unit 320 is divided into a grid of a predetermined standard, and each grid is given address information and spatial information including unique coordinate values.
  • the driving information agent unit 330 may be configured to provide driving commands for an autonomous robot or mobility avatar, which is an agent located in a virtual space, to move to the destination.
  • the driving command may be a command for the movement path, movement speed, movement direction, etc. from the current location in virtual space to the target.
  • the driving information agent unit 330 detects people and/or objects located on the driving path in an indoor space in real time, and determines the movement path and movement speed to the target according to the location of the detected person and/or object. , It may be configured to provide a driving command that corrects or modifies the direction of movement.
  • the meta map generator 340 creates a virtual world space in the form of VS (Virtual Space), MS (Mixed Space), and/or DTS (Digital Twin Space) generated by the virtual space modeling unit 320. It may be a configuration that generates a meta map containing driving commands for an autonomous robot or mobility in the real world to move to a target within the map.
  • VS Virtual Space
  • MS Mated Space
  • DTS Digital Twin Space
  • the meta map generated by the meta map generator 340 is a meta map that converts 3D coordinates of virtual space into real coordinates so that autonomous robots or mobility in the real world can recognize it. It may be a map that includes spatial data acquired from mobility, object and/object characteristic information, location information, etc.
  • the meta map generator 340 includes a mapping unit 341, a synchronization unit 342, a target designation unit 343, a movement path creation unit 344, and a meta map provision and update unit 345. Includes.
  • the mapping unit 341 may be configured to generate a mapping map that maps the spatial coordinates of the virtual space, which is a digital twin space created by the virtual space modeling unit 320, with the spatial coordinates of the real world.
  • the synchronization unit 342 may be configured to synchronize the location information of the self-driving robot or mobility in the real world within the mapping map and the location of the avatar of the self-driving robot or mobility in the virtual space.
  • the target designator 343 may be configured to designate or create a target within the mapping map at a location designated by an external terminal.
  • the movement path creation unit 344 may be configured to calculate and provide a movement route from the location of the autonomous robot or mobility within the mapping map to the target.
  • the movement path generator 344 is an additional device that avoids the detected obstacle when an autonomous robot or mobility in the real world moving along the calculated movement path detects an obstacle (moving object, etc.) on the movement path.
  • the movement route is recalculated and provided.
  • the meta map providing and updating unit 345 generates a meta map reflecting the movement route generated by the movement route creation unit 344 and the driving command provided by the driving information agent within the movement route, thereby providing the real world as described above. It may be transmitted to an autonomous robot or mobility.
  • the meta map providing and updating unit 345 reflects in real time the detection information of obstacles (moving objects) detected while moving along the movement path displayed on the meta map and recalculates the movement path to the target. It may be a configuration that updates and provides an existing meta map.
  • Figure 6 is a flowchart explaining a method of creating a virtualized meta map using spatial data acquired by an intelligent indoor self-driving robot according to an embodiment of the present invention.
  • the method (S700) of creating a virtualized meta map using spatial data acquired by an intelligent indoor autonomous robot first uses indoor spatial information acquired by a visualization sensor from an autonomous robot or mobility. And after acquiring the location data of the target located in the indoor spatial information (S710), analyzing the characteristics of the target, calculating the location coordinates, and providing them to the cloud server (S720), the cloud server 300 A meta map of the virtual space mapped to the indoor space is created (S730), the location and characteristic information of the self-driving robot and the target are displayed in the generated meta map (S740), and the self-driving robot or mobility is displayed in the virtual map (space).
  • the coordinates in the meta map where the driving command is recorded are converted into a real coordinate system that can be recognized by the autonomous robot or mobility and transmitted (S760), and the autonomous robot or mobility At (200), a process of implementing the driving command in the meta map may be included.
  • the S700 process further includes the step of generating and updating a new driving command to bypass the person and/or object when object information about a person and/or object in the autonomous robot or mobility is located within the driving line. It can be included.
  • Using a virtualized meta map production system and method using spatial data acquired by an intelligent indoor self-driving robot according to an embodiment of the present invention autonomous driving is possible by projecting the movement according to the manipulation command of a digital object in the virtual space in the real world. There is an advantage in being able to remotely control robots or mobility.
  • the user can view the virtual map to provide and monitor commands to manipulate and move the robot's position, and the location data of the virtualized map can be converted into a coordinate system recognized by the actual robot and provided. It provides the advantage of having
  • computing device 1100 may include a personal computer, server computer, handheld or laptop device, mobile device (mobile phone, PDA, media player, etc.), multiprocessor system, consumer electronics, minicomputer, mainframe computer, Distributed computing environments including any of the above-described systems or devices, etc. are included, but are not limited thereto.
  • Computing device 1100 may include at least one processing unit 1110 and memory 1120.
  • the processing unit 1110 may include, for example, a central processing unit (CPU), a graphics processing unit (GPU), a microprocessor, an application specific integrated circuit (ASIC), a field programmable gate array (FPGA), etc. and can have multiple cores.
  • Memory 1120 may be volatile memory (eg, RAM, etc.), non-volatile memory (eg, ROM, flash memory, etc.), or a combination thereof.
  • computing device 1100 may include additional storage 1130.
  • Storage 1130 includes, but is not limited to, magnetic storage, optical storage, etc.
  • the storage 1130 may store computer-readable instructions for implementing one or more embodiments disclosed in this specification, and other computer-readable instructions for implementing an operating system, application program, etc. may also be stored. Computer-readable instructions stored in storage 1130 may be loaded into memory 1120 for execution by processing unit 1110. Computing device 1100 may also include input device(s) 1140 and output device(s) 1150.
  • the input device(s) 1140 may include, for example, a keyboard, mouse, pen, voice input device, touch input device, infrared camera, video input device, or any other input device, etc.
  • output device(s) 1150 may include, for example, one or more displays, speakers, printers, or any other output devices.
  • the computing device 1100 may use an input device or output device provided in another computing device as the input device(s) 1140 or the output device(s) 1150.
  • computing device 1100 may include communication connection(s) 1160 that allows computing device 1100 to communicate with another device (e.g., computing device 1300).
  • communication connection(s) 1160 may include a modem, network interface card (NIC), integrated network interface, radio frequency transmitter/receiver, infrared port, USB connection, or other device for connecting computing device 1100 to another computing device. May contain interfaces. Additionally, communication connection(s) 1160 may include a wired connection or a wireless connection. Each component of the computing device 1100 described above may be connected by various interconnections such as buses (e.g., peripheral component interconnect (PCI), USB, firmware (IEEE 1394), optical bus structure, etc.) and may be interconnected by a network 1200. As used herein, terms such as “component”, “system”, etc. generally refer to computer-related entities that are hardware, a combination of hardware and software, software, or software in execution.
  • PCI peripheral component interconnect
  • IEEE 1394 firmware
  • optical bus structure etc.
  • a component may be, but is not limited to, a process running on a processor, a processor, an object, an executable, a thread of execution, a program, and/or a computer.
  • both the application running on the controller and the controller can be components.
  • One or more components may reside within a process and/or thread of execution, and a component may be localized on one computer or distributed between two or more computers.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Manipulator (AREA)

Abstract

A system for creating a virtual meta map using spatial data acquired by an intelligent indoor autonomous mobile robot according to one embodiment of the present invention is characterized by comprising: an autonomous mobile robot or mobility which transmits location information about a target object located in an indoor space, the location information being acquired by a visualization sensor while the robot or mobility travels autonomously; and a cloud server which generates, in advance, a virtual map containing object information about the autonomous mobile robot in which the overall terrain of the indoor space and the object information are mapped, displays the autonomous mobile robot or mobility and the location information of the target object within the virtual space, generates a meta map reflecting driving commands for guiding the autonomous mobile robot or mobility to the target object within the virtual space, and then converts a virtual space coordinate system in the meta map to a real-life coordinate system and provides the real-life coordinate system to the autonomous mobile robot or mobility, wherein the autonomous mobile robot or mobility moves to the target object in the indoor space on the basis of information obtained as a result of converting the virtual space coordinate system in the meta map to the real-life coordinate system.

Description

지능형 실내 자율주행 로봇이 취득한 공간데이터를 이용한 가상화된 메타지도 제작 방법 및 시스템Method and system for creating a virtualized meta map using spatial data acquired by an intelligent indoor autonomous robot
본 발명은 지능형 실내 자율주행 로봇이 취득한 공간데이터를 이용한 가상화된 메타지도 제작 방법 및 시스템에 관한 것이다.The present invention relates to a method and system for creating a virtualized meta map using spatial data acquired by an intelligent indoor autonomous robot.
3차원 GIS(Geographic Information System)의 기본 기술인 3차원 공간정보 기술은 2차원 위치정보에 높이(심도), 영상, 속성 등을 추가하여 현실세계와 유사하게 표현한 정보기술을 의미한다.3D spatial information technology, the basic technology of 3D GIS (Geographic Information System), refers to information technology that expresses it similarly to the real world by adding height (depth), image, and attributes to 2D location information.
이러한, 3차원 공간정보 기술의 핵심은 3차원의 전자지도를 생성하여 그 내부에 관련되는 제반 정보를 포함시켜, u-City, 텔레매틱스, LBS(Location Based Service), 도시계획개발, 재난방재, 교통 제어 및 환경 등 공공 분야 및 관련 산업의 기반을 마련하는 것이라 할 수 있다.The core of this 3D spatial information technology is to create a 3D electronic map and include all related information within it, which can be used for u-City, telematics, LBS (Location Based Service), urban planning and development, disaster prevention, and transportation. It can be said to lay the foundation for the public sector and related industries such as control and environment.
또한, 최근에는 특정 장소로 이동하고자 할 때 차량용 내비게이션, 휴대단말 등을 통한 지도 서비스를 이용하는 것이 매우 일반적이다. 이러한 지도 서비스는 건물이나 도로 등을 2차원 평면 형태로 제공하는 2차원(2D) 지도 서비스가 보편적이었으나, 최근에는 3차원(3D) 지도 서비스까지 출현하고 있다. 이러한 3차원 지도 서비스는 실 세계를 동일하게 투영함에 따라 그 활용 가능성이 점점 더 증가하고 있으며, 특히 어디서나 접근 가능한 웹 기반의 3차원 지도 서비스는 현재 많은 국가와 기업에서 이미 제공되고 있다.Additionally, these days, it is very common to use map services through car navigation systems or mobile devices when moving to a specific place. These map services were commonly two-dimensional (2D) maps that provided buildings, roads, etc. in a two-dimensional plan, but recently, three-dimensional (3D) map services have also emerged. As these 3D map services equally project the real world, their usability is increasing. In particular, web-based 3D map services that can be accessed from anywhere are currently already being provided in many countries and companies.
이에 본 발명은 지능형 실내 자율주행 로봇이 취득한 공간데이터를 이용한 가상화된 메타지도 제작 방법 및 시스템을 개시하고자 한다.Accordingly, the present invention seeks to disclose a method and system for creating a virtualized meta map using spatial data acquired by an intelligent indoor self-driving robot.
[선행기술문헌][Prior art literature]
등록특허공보 제10-2242834호Registered Patent Publication No. 10-2242834
본 발명이 해결하고자 하는 과제는 종래의 문제점을 해결할 수 있는 지능형 실내 자율주행 로봇이 취득한 공간데이터를 이용한 가상화된 메타지도 제작 방법 및 시스템을 제공하는 데 그 목적이 있다.The purpose of the present invention is to provide a method and system for creating a virtualized meta map using spatial data acquired by an intelligent indoor self-driving robot that can solve conventional problems.
상기 과제를 해결하기 위한 본 발명의 일 실시예에 따른 지능형 실내 자율주행 로봇이 취득한 공간데이터를 이용한 가상화된 메타지도 제작 시스템은 자율주행과정에서 시각화 센서로 획득한 실내공간 내에 위치한 목적물의 위치정보를 전송하는 자율주행로봇 또는 모빌리티; 및 상기 실내공간의 전체적인 지형 및 사물정보가 맵핑된 자율주행하는 로봇의 사물정보가 포함된 가상화된 맵을 사전에 미리 생성하고, 상기 가상공간 내에 상기 자율주행로봇 또는 모빌리티와 목적물 위치정보를 표시하고, 상기 가상공간 내에서 상기 자율주행로봇 또는 모빌리티가 상기 목적물까지 이동하기 위한 주행명령어가 반영된 메타지도를 생성한 후, 상기 메타지도 내의 가상공간 좌표체계를 현실좌표 체계로 변환하여 상기 자율주행로봇 또는 모빌리티로 제공하는 클라우드 서버를 포함하고, 상기 자율주행로봇 또는 모빌리티는 상기 메타지도 내의 가상공간 좌표체계를 현실좌표 체계로 변환한 정보를 기초로 실내공간 내의 목적물까지 이동하는 것을 특징으로 한다. In order to solve the above problem, a virtualized meta map production system using spatial data acquired by an intelligent indoor self-driving robot according to an embodiment of the present invention provides location information of objects located in the indoor space acquired by a visualization sensor during the autonomous driving process. Autonomous robots or mobility that transmit; And generating in advance a virtualized map containing object information of an autonomous robot in which the overall terrain and object information of the indoor space is mapped, and displaying the autonomous robot or mobility and object location information in the virtual space; , After generating a meta map reflecting driving commands for the autonomous robot or mobility to move to the target within the virtual space, the virtual space coordinate system in the meta map is converted to a real coordinate system to enable the autonomous robot or It includes a cloud server that provides mobility, and the autonomous robot or mobility is characterized in that it moves to a target in the indoor space based on information that converts the virtual space coordinate system in the meta map into a real coordinate system.
일 실시예에서, 상기 클라우드 서버는 상기 자율주행로봇 또는 모빌리티이 자율주행과정에서 측정한 사람 및/또는 사물의 위치정보, 특성정보, 상기 자율주행로봇 또는 모빌리티가 주행하는 실내공간의 현실좌표 정보를 외부서버로부터 수집하는 정보수집부; 상기 실내공간의 실내좌표를 기반으로 디지털트윈 기법을 이용하여 3차원 가상공간으로 모델링하는 가상공간 모델링부; 가상공간 내에 위치하는 에이전트인 자율주행로봇 또는 모빌리티의 아바타가 목적물까지의 이동하기 위한 주행명령어를 제공하는 주행정보 에이전트부; 상기 가상공간 내의 목적물까지 자율주행로봇 또는 모빌리티의 아바타가 이동하기 위한 주행 명령어를 포함하는 메타지도를 생성하는 메타지도 생성부를 포함하는 것을 특징으로 한다.In one embodiment, the cloud server sends the location information and characteristic information of people and/or objects measured during the autonomous driving process of the autonomous robot or mobility, and the real coordinate information of the indoor space in which the autonomous robot or mobility drives to the outside. Information collection unit that collects information from servers; A virtual space modeling unit that models the indoor space into a 3D virtual space using a digital twin technique based on the indoor coordinates of the indoor space; a driving information agent unit that provides driving commands for an autonomous robot or mobility avatar, which is an agent located in a virtual space, to move to a destination; It is characterized by comprising a meta-map generator that generates a meta-map including driving commands for the autonomous robot or mobility avatar to move to the target in the virtual space.
일 실시예에서, 상기 메타지도 생성부는 상기 가상공간 모델링부에서 생성한 디지털 트윈 공간인 가상공간의 공간좌표와 현실세계의 공간좌표를 맵핑한 맵핑 지도를 생성하는 맵핑부; 상기 맵핑 지도 내에 현실세계의 자율주행로봇 또는 모빌리티의 위치정보와 가상공간 내의 자율주행로봇 또는 모빌리티의 아바타의 위치를 동기화시키는 동기화부; 상기 맵핑지도 내에 외부단말에서 지정한 위치로 목표물을 지정 또는 생성하는 목표물 지정부; 상기 맵핑지도 내에 자율주행로봇 또는 모빌리티의 위치로부터 상기 목표물까지의 이동경로를 산출하여 제공하는 이동경로 생성부; 및 상기 이동경로 생성부에서 생성된 이동경로 및 상기 이동경로 내에 상기 주행정보 에이전트에서 제공하는 주행명령어가 반영된 메타지도를 생성하여 현실세계의 자율주행로봇 또는 모빌리티로 전송하는 상기 메타지도 제공 및 갱신부를 포함하고, 상기 메타지도 제공 및 갱신부는 메타지도에 표시된 이동경로를 따라 이동중에 감지되는 장애물(이동객체)을 감지한 감지정보를 실시간으로 반영하여 목표물까지의 이동경로를 재산출한 메타지도로 기존 메타지도를 갱신하여 제공하는 것을 특징으로 한다.In one embodiment, the meta map generator includes a mapping unit that generates a mapping map that maps spatial coordinates of a virtual space, which is a digital twin space generated by the virtual space modeling unit, to spatial coordinates of the real world; a synchronization unit that synchronizes the location information of the self-driving robot or mobility in the real world within the mapping map and the location of the avatar of the self-driving robot or mobility in the virtual space; a target designator that specifies or creates a target within the mapping map at a location designated by an external terminal; a movement path generator that calculates and provides a movement route from the location of the autonomous robot or mobility within the mapping map to the target; and a meta map providing and updating unit that generates a meta map reflecting the movement path generated by the movement path creation unit and the driving command provided by the driving information agent within the movement path and transmits it to an autonomous robot or mobility in the real world. The meta map providing and updating unit reflects in real time the detection information of obstacles (moving objects) detected while moving along the movement path displayed on the meta map and recalculates the movement path to the target using the existing meta map. It is characterized by providing an updated map.
본 발명의 일 실시예에 따른 지능형 실내 자율주행 로봇이 취득한 공간데이터를 이용한 가상화된 메타지도 제작 시스템 및 방법을 이용하면, 가상공간 내의 디지털 오브젝트의 조작명령에 따른 움직임을 현실세계에서 투영시켜 자율주행로봇 또는 모빌리티를 원격제어할 수 있다는 이점이 있다.Using a virtualized meta map production system and method using spatial data acquired by an intelligent indoor self-driving robot according to an embodiment of the present invention, autonomous driving is possible by projecting the movement according to the manipulation command of a digital object in the virtual space in the real world. There is an advantage in being able to remotely control robots or mobility.
또한, 자율주행로봇 또는 모빌리티로부터 취득한 이벤트를 가상공간에 투영시킬 수 있고, 이를 반영한 메타지도를 제작할 수 있다는 이점이 있다.In addition, there is an advantage that events acquired from autonomous robots or mobility can be projected into virtual space and a meta map reflecting this can be created.
도 1a은 디지털 트윈의 아키텍쳐이고, 도 1b는 메타버스의 아케텍쳐이다.Figure 1a is the architecture of the digital twin, and Figure 1b is the architecture of the metaverse.
도 2는 본 발명의 일 실시예에 따른 지능형 실내 자율주행 로봇이 취득한 공간데이터를 이용한 가상화된 메타지도 제작 시스템의 네트워크 구성도이다.Figure 2 is a network configuration diagram of a virtualized meta map production system using spatial data acquired by an intelligent indoor self-driving robot according to an embodiment of the present invention.
도 3은 도 2에 도시된 자율주행로봇 또는 모빌리티의 세부 구성도이다.FIG. 3 is a detailed configuration diagram of the autonomous robot or mobility shown in FIG. 2.
도 4는 도 2에 도시된 클라우드 서버의 세부 구성도이다.FIG. 4 is a detailed configuration diagram of the cloud server shown in FIG. 2.
도 5는 도 4에 도시된 메타지도 생성부의 세부 구성도이다.Figure 5 is a detailed configuration diagram of the meta map generator shown in Figure 4.
도 6은 도 2에 도시된 클라우드 서버에서 지원하는 현실좌표로 변환되는 메타지도 및 현실좌표를 가상공간 좌표로 변환과정을 나타낸 예시도이다.FIG. 6 is an example diagram showing a metamap converted to real coordinates supported by the cloud server shown in FIG. 2 and a process of converting real coordinates into virtual space coordinates.
도 7은 본 명세서에 개진된 하나 이상의 실시예가 구현될 수 있는 예시적인 컴퓨팅 환경을 도시한 도이다.Figure 7 is a diagram illustrating an example computing environment in which one or more embodiments disclosed herein may be implemented.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. Below, with reference to the attached drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily implement the present invention.
그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. However, the present invention may be implemented in many different forms and is not limited to the embodiments described herein. In order to clearly explain the present invention in the drawings, parts that are not related to the description are omitted, and similar parts are given similar reference numerals throughout the specification.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해 되어야 한다. Throughout the specification, when a part is said to be "connected" to another part, this includes not only the case where it is "directly connected," but also the case where it is "electrically connected" with another element in between. . In addition, when a part is said to "include" a certain component, this does not mean excluding other components unless specifically stated to the contrary, but may further include other components, and one or more other features. It should be understood that it does not exclude in advance the possibility of the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.
명세서 전체에서 사용되는 정도의 용어 "약", "실질적으로" 등은 언급된 의미에 고유한 제조 및 물질 허용오차 가 제시될 때 그 수치에서 또는 그 수치에 근접한 의미로 사용되고, 본 발명의 이해를 돕기 위해 정확하거나 절 대적인 수치가 언급된 개시 내용을 비양심적인 침해자가 부당하게 이용하는 것을 방지하기 위해 사용된다. 본 발명의 명세서 전체에서 사용되는 정도의 용어 "~(하는) 단계" 또는 "~의 단계"는 "~ 를 위한 단계"를 의미하지 않는다.The terms "about", "substantially", etc. used throughout the specification are used to mean at or close to that value when manufacturing and material tolerances inherent in the stated meaning are presented, and are intended to enhance the understanding of the present invention. Precise or absolute figures are used to assist in preventing unscrupulous infringers from taking unfair advantage of stated disclosures. The term “step of” or “step of” as used throughout the specification of the present invention does not mean “step for.”
본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양 방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다. 한편, '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, '~부'는 어드레싱 할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. In this specification, 'part' includes a unit realized by hardware, a unit realized by software, and a unit realized using both. Additionally, one unit may be realized using two or more pieces of hardware, and two or more units may be realized using one piece of hardware. Meanwhile, '~ part' is not limited to software or hardware, and '~ part' may be configured to reside in an addressable storage medium or may be configured to reproduce one or more processors.
따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객 체 지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.Therefore, as an example, '~part' refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, and procedures. Contains fields, subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables. The functions provided within the components and 'parts' may be combined into a smaller number of components and 'parts' or may be further separated into additional components and 'parts'. Additionally, components and 'parts' may be implemented to regenerate one or more CPUs within a device or a secure multimedia card.
본 명세서에 있어서 단말, 장치 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말, 장치 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말, 장치 또는 디바이스에서 수행될 수도 있다. In this specification, some of the operations or functions described as being performed by a terminal, apparatus, or device may instead be performed on a server connected to the terminal, apparatus, or device. Likewise, some of the operations or functions described as being performed by the server may also be performed in a terminal, apparatus, or device connected to the server.
본 명세서에서 있어서, 단말과 매핑(Mapping) 또는 매칭(Matching)으로 기술된 동작이나 기능 중 일부는, 단말의 식별 정보(Identifying Data)인 단말기의 고유번호나 개인의 식별정보를 매핑 또는 매칭한다는 의미로 해석 될 수 있다.In this specification, some of the operations or functions described as mapping or matching with the terminal mean mapping or matching the terminal's unique number or personal identification information, which is identifying data of the terminal. It can be interpreted as
이하, 첨부된 도면들에 기초하여 본 발명의 일 실시예에 따른 지능형 실내 자율주행 로봇이 취득한 공간데이터를 이용한 가상화된 메타지도 제작 시스템 및 방법을 보다 상세하게 설명하도록 한다. Hereinafter, based on the attached drawings, a virtualized meta map production system and method using spatial data acquired by an intelligent indoor self-driving robot according to an embodiment of the present invention will be described in more detail.
먼저, 본 발명을 설명하기에 앞서, 본원에서 언급하는 디지털 트윈과 메타버스 간의 차이점을 간략하게 설명하도록 한다.First, before explaining the present invention, the differences between the digital twin and metaverse mentioned herein will be briefly explained.
디지털 트윈과 메타버스는 가상세계를 통해 구현된 다는 큰 틀은 비슷하지만 현실세계를 어떻게 바라보느냐가 다르다. 디지털 트윈의 경우 도시, 기계, 공장 등 현실세계의 객체를 가상세계에 구현하고 이를 바탕으로 현실세계와 동일하게 작동하는 기술이다. Digital Twin and Metaverse are similar in their overall framework of being implemented through a virtual world, but they differ in how they view the real world. In the case of digital twin, it is a technology that implements objects from the real world, such as cities, machines, and factories, in the virtual world and operates in the same way as the real world based on this.
가상세계에 현실을 쌍둥이처럼 구현해서 디지털 트윈이라는 불린다. It is called a digital twin because it embodies reality in the virtual world like a twin.
간단한 예로 스크린 골프에서 채를 휘둘러 공을 치는 행위는 현실에서 벌어지지만, 공이 날아가고 점수를 얻는 행위는 모두 가상에서 이루어진다. As a simple example, in screen golf, the act of swinging the club and hitting the ball takes place in reality, but the act of making the ball fly and scoring points all take place in the virtual world.
초기 단계의 디지털 트윈의 경우는 단순히 현실을 가상세계에 모방하는 것에 그쳤지만, 최근에 사물 인터넷, 컴퓨팅, 인공지능 기술 등의 발달로 현실적인 제약으로 시뮬레이션 하지 못하는 다양한 시나리오들을 가상에서 대신 구현할 수 있게 되었다. In the early stages of digital twins, they simply imitated reality in the virtual world, but recently, with the development of Internet of Things, computing, and artificial intelligence technologies, various scenarios that cannot be simulated due to realistic constraints can be implemented virtually instead. .
단순한 결과 예측이 아닌 각종 센서와 실 데이터 등을 바탕으로 현실에 가깝게 예측하고 실시간으로 문제에 대응할 수 있게 되었다. Rather than simply predicting results, it has become possible to make predictions closer to reality based on various sensors and actual data and respond to problems in real time.
실제 GE(General Electronics)에서 활용하는 프레딕스는 스마트 팩토리의 지원을 위해서 GE의 설비 와 소프트웨어를 산업용 인터넷에 통합하기 위한 클라 우드 플랫폼이다. 이를 활용해서 현실에서의 다양한 기계와 설비들을 프레딕스를 통해 안전하게 데이터를 수 집하고 분석한다. 결과를 바탕으로 현실에서 설비들을 더욱 효율적으로 운용하는 디지털 트윈 플랫폼이다 Predix, which is actually used by GE (General Electronics), is a cloud platform for integrating GE's facilities and software into the industrial Internet to support smart factories. Using this, we safely collect and analyze data from various machines and facilities in the real world through Predix. It is a digital twin platform that operates facilities more efficiently in reality based on the results.
도 1a는 현실에서 모델 데이터와 센서로 수집한 데이터를 토대로 현실 객체를 디지털 모델로 생성하고 데이터 분석과 예측, 상황 인식을 시각화를 통해 다시 현실에서 구현하는 디지털 트윈의 구조를 나타낸 것이다.Figure 1a shows the structure of a digital twin that creates a digital model of a real object based on model data and data collected by sensors in reality and implements data analysis, prediction, and situation awareness in reality again through visualization.
메타버스의 경우 초월을 뜻하는 메타와 현실세계를 뜻하는 유니버스를 합성한 용어이다. 메타버스는 본인을 투영한 아바타로 다양한 가상세계를 경험하지만 디지털 트윈과는 다르게 가상세계가 현실세계를 구현한 것을 의미하진 않는다. 메타버스는 초기의 3D 가상세 계에서 벗어나 현실과의 교차를 통하여 가상과 현실세계 사이의 상호작용을 통해 다양한 경험과 가치를 생산하고 공유하는 것에 있다. In the case of metaverse, it is a term that combines meta, which means transcendence, and universe, which means the real world. Metaverse allows you to experience various virtual worlds with an avatar that is a projection of yourself, but unlike digital twins, it does not mean that the virtual world is a realization of the real world. Metaverse is about producing and sharing various experiences and values through interaction between the virtual and real worlds by escaping from the initial 3D virtual world and crossing with reality.
네이버 제트가 운영하는 메타 버스 플랫폼 제페토(Zepeto)는 얼굴인식과 증강현실을 기반으로 아바타와 가상세계를 구현하는 플랫폼이다. Zepeto, a metaverse platform operated by Naver Jet, is a platform that implements avatars and virtual worlds based on facial recognition and augmented reality.
가상세계인 맵과 맵을 구성하는 빌드잇과 아바타의 의 상을 만드는 제페토 스튜디오를 토대로 운영된다. 사용 자는 아바타를 통해 다양한 가상공간에서 다른 아바타 와 직접적으로 소통을 할 수 있다. 이외에도 방탄소년 단의 경우 신곡을 게임 포트나이트 안에서 콘서트처럼 발표하기도 했다. It is operated based on the virtual world map, BuildIt, which makes up the map, and ZEPETO Studio, which creates avatar costumes. Through avatars, users can communicate directly with other avatars in various virtual spaces. In addition, in the case of BTS, a new song was released like a concert within the game Fortnite.
마이크소프트의 원격 협업 플랫폼인 메쉬는 서로 다른 지역 사용자들이 아바타를 통해 같은 공간에서 일하는 것처럼 느낄 수 있게 하는 혼합현실 (Mixed Reality, MR)을 기반으로 하는 메타버스 플랫 폼이다. Mesh, Microsoft's remote collaboration platform, is a metaverse platform based on mixed reality (MR) that allows users from different regions to feel as if they are working in the same space through avatars.
이처럼 메타버스는 게임, 산업, 모임이나 쇼핑 같은 일상의 영역까지 확대되고 있다. 앞으로 현실의 더욱더 많은 영역과 활동들이 가상과 융합되는 현상이 가 속화될 것이다. 도 1b는 메타버스의 증강현실, 물리적 세계에 추가 정보를 더해서 구현한 거울세계, 인간이 경험하는 감정, 움직임, 신체 등과 같은 정보를 가상에서 재현하는 라이프 로깅, 가상세계로 대표되는 4가지 요소들과 XR(Extended Reality), 데이터 기술 등의 메타버스 범용기술로 현실과 가상을 연결해주는 메타버 스의 개념을 나타낸 도이다.In this way, the metaverse is expanding to areas of daily life such as games, industry, meetings, and shopping. In the future, the fusion of more and more areas and activities of reality with virtuality will accelerate. Figure 1b shows four elements represented by the augmented reality of the metaverse, a mirror world implemented by adding additional information to the physical world, life logging that reproduces information such as emotions, movements, and bodies experienced by humans in a virtual world, and the virtual world. This diagram shows the concept of the metaverse that connects reality and virtuality with metaverse general-purpose technologies such as XR (Extended Reality) and data technology.
도 2는 본 발명의 일 실시예에 따른 지능형 실내 자율주행 로봇이 취득한 공간데이터를 이용한 가상화된 메타지도 제작 시스템의 네트워크 구성도이고, 도 3는 도 2에 도시된 자율주행로봇 또는 모빌리티의 세부 구성도이고, 도 4는 도 2에 도시된 클라우드 서버의 세부 구성도이고, 도 5는 도 4에 도시된 메타지도 생성부의 세부 구성도이고, 도 6은 도 2에 도시된 클라우드 서버에서 지원하는 현실좌표로 변환되는 메타지도 및 현실좌표를 가상공간 좌표로 변환과정을 나타낸 예시도이다.Figure 2 is a network configuration diagram of a virtualized meta map production system using spatial data acquired by an intelligent indoor autonomous robot according to an embodiment of the present invention, and Figure 3 is a detailed configuration of the autonomous robot or mobility shown in Figure 2. 4 is a detailed configuration diagram of the cloud server shown in FIG. 2, FIG. 5 is a detailed configuration diagram of the meta map generator shown in FIG. 4, and FIG. 6 is a reality supported by the cloud server shown in FIG. 2. This is an example diagram showing the metamap converted into coordinates and the process of converting real coordinates into virtual space coordinates.
먼저, 도 2에 도시된 바와 같이, 본 발명의 일 실시예에 따른 지능형 실내 자율주행 로봇이 취득한 공간데이터를 이용한 가상화된 메타지도 제작 시스템(100)은 자율주행로봇 또는 모빌리티(200) 및 클라우드 서버(300)를 포함한다.First, as shown in FIG. 2, the virtualized meta map production system 100 using spatial data acquired by an intelligent indoor self-driving robot according to an embodiment of the present invention is an autonomous robot or mobility 200 and a cloud server. Includes 300.
여기서, 각 구성은 네트워크 통신하며, 상기 네트워크는, 복수의 단말 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크의 일예에는 네트워크(170)는, PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 인터넷 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다. 또한, 네트워크(170)는 버스 네트워크, 스타 네트워크, 링 네트워크, 메쉬 네트워크, 스타-버스 네트워크, 트리 또는 계층적(hierarchical) 네트워크 등을 포함하는 네트 워크 토폴로지 중 임의의 하나 이상을 포함할 수 있으나, 이에 제한되지 않는다.Here, each component communicates through a network, and the network refers to a connection structure that allows information exchange between nodes such as a plurality of terminals and servers. An example of such a network includes the network 170, PAN ( One or more of the following networks: personal area network (LAN), local area network (LAN), campus area network (CAN), metropolitan area network (MAN), wide area network (WAN), broadband network (BBN), and the Internet. It can be included. Additionally, the network 170 may include any one or more of network topologies including a bus network, star network, ring network, mesh network, star-bus network, tree or hierarchical network, etc. It is not limited to this.
하기에서, 적어도 하나의 라는 용어는 단수 및 복수를 포함하는 용어로 정의되고, 적어도 하나의 라는 용어가 존재하지 않더라도 각 구성요소가 단수 또는 복수로 존재할 수 있고, 단수 또는 복수를 의미할 수 있음은 자명하다 할 것이다. 또한, 각 구성요소가 단수 또는 복수로 구비되는 것은, 실시예에 따라 변경가능하다할 것이다.In the following, the term at least one is defined as a term including singular and plural, and even if the term at least one does not exist, each component may exist in singular or plural, and may mean singular or plural. This should be self-explanatory. Additionally, whether each component is provided in singular or plural form may vary depending on the embodiment.
상기 복수의 자율주행봇 또는 모빌리티(200)는 각각이 서로 다른 지정된 실내공간을 주행하면서 사람 및/또는 사물의 특성정보를 수집하기 위한 구성일 수 있다.The plurality of self- driving robots or mobility 200 may be configured to collect characteristic information of people and/or objects while driving in different designated indoor spaces.
또한, 상기 복수의 자율주행로봇 또는 모빌리티(200)는 지정된 이동 경로 상에서 장애물 감지 회피, 온도, 습도, 또는 공기 상태 등과 같은 환경 정보 인지, 추적, 변화 감지, 고속 이동, 영상 감시, 또는 사각지대 결정 등 다양한 동작들을 수행할 수 있다.In addition, the plurality of autonomous robots or mobility 200 detects and avoids obstacles on a designated movement path, recognizes environmental information such as temperature, humidity, or air condition, tracks, detects changes, moves at high speed, monitors images, or determines blind spots. You can perform various actions such as:
실시 예에 따라 자율 주행 로봇 또는 모빌리티는 이동 로봇, 감시용 이동 로봇, 또는 감시용 로봇 등 다양한 용어들로 호칭될 수 있다. Depending on the embodiment, an autonomous robot or mobility may be called various terms such as a mobile robot, a mobile robot for surveillance, or a robot for surveillance.
상기 자율주행로봇 또는 모빌리티(200)는 프로세서(210), 메모리(220), 로봇 카메라(230), 라이다 센서(240), 자율주행부(250) 및 통신부(260)를 포함한다.The self-driving robot or mobility 200 includes a processor 210, a memory 220, a robot camera 230, a LiDAR sensor 240, an autonomous driving unit 250, and a communication unit 260.
상기 프로세서(210)는 후술하는 클라우드 서버(300)에서 제공된 메타지도 내의 이행명령(조작정보)에 따라 자율 주행 로봇 또는 모빌리티(200)의 주행동작들을 제어하는 명령들을 실행한다.The processor 210 executes commands to control driving operations of the autonomous robot or mobility 200 according to implementation commands (operation information) in the meta map provided by the cloud server 300, which will be described later.
또한, 상기 프로세서(210)는 후술하는 로봇 카메라(230) 및 라이다 스캐너(240)에서 검출된 사물 및/또는 사람의 특성정보, 공간좌표정보를 추출 또는 산출하는 구성일 수 있다.Additionally, the processor 210 may be configured to extract or calculate characteristic information and spatial coordinate information of objects and/or people detected by the robot camera 230 and lidar scanner 240, which will be described later.
또한, 상기 프로세서(210)는 로봇 카메라의 촬영정보 및 라이다 센서에서 검출한 라이다 신호를 통해 상기 실내공간에 위치하는 사람 및/또는 사물을 검출하고, 검출된 사물 및 사람의 외형특성을 객체 인식 모델을 통해 추출하는 구성일 수 있다.In addition, the processor 210 detects people and/or objects located in the indoor space through the shooting information of the robot camera and the LiDAR signal detected by the LiDAR sensor, and uses the external characteristics of the detected objects and people as objects. It may be a configuration extracted through a recognition model.
상기 객체 인식 모델은 SIFT(Scale Invariant Feature Transform) 알고리즘, HOG(Histogram of Oriented Grandients) 알고리즘, Haar 알고리즘, Ferm 알고리즘 등 다 양한 알고리즘을 이용하여 구현될 수 있다.The object recognition model can be implemented using various algorithms, such as the Scale Invariant Feature Transform (SIFT) algorithm, Histogram of Oriented Grandients (HOG) algorithm, Haar algorithm, and Ferm algorithm.
또한, 상기 프로세서(210)는 상기 사물 및/또는 사람을 검출한 위치 및 상기 사람 및/또는 사물과의 검출거리를 기초로 실내공간 내에 상기 사물 및 사람의 위치 및 밀집도 등을 산출하는 구성일 수 있다.In addition, the processor 210 may be configured to calculate the location and density of the objects and people in the indoor space based on the location at which the object and/or person is detected and the detection distance from the person and/or object. there is.
여기서, 밀집도는 특정 영역에 분포 또는 위치되어 있는 라이다 데이터들의 개수를 기준으로 판단되며, 라이다 데이터들의 연관성은 라이다 데이터들 사이의 유클리드 거리, 반사율, 법선 벡터 등을 기준으로 판단된다.Here, the density is determined based on the number of LiDAR data distributed or located in a specific area, and the correlation between the LiDAR data is determined based on the Euclidean distance, reflectance, normal vector, etc. between the LiDAR data.
즉, 프로세서(210)는 라이다 데이터들이 분포되어 있는 정도와 라이다 데이터들 사이의 유사도를 기준으로 유사한 영역에 분포되고 유사한 속성을 가지는 라이다 데이터들을 판별하여 이들을 개별적인 그룹으로 군집화할 수 있다.That is, the processor 210 can determine LiDAR data distributed in similar areas and have similar properties based on the degree to which the LiDAR data is distributed and the similarity between the LiDAR data, and cluster them into individual groups.
또한, 상기 프로세서(210)는 상기 사물 및/또는 사람의 특성 데이터를 추출하는 데 필요한 센서 데이터 및 상기 특성 데이터를 암호화된 메시지로 가공처리한 후, 후술하는 메모리(버퍼)에 저장하는 구성일 수 있다.In addition, the processor 210 may be configured to process sensor data and the characteristic data required to extract characteristic data of the object and/or person into an encrypted message and then store it in a memory (buffer) to be described later. there is.
또한, 메모리(버퍼)에 저장된 메시지들을 워커 스레드에서 하나의 레코드로 가공처리하여 제공하는 구성일 수 있다.Additionally, it may be a configuration in which messages stored in memory (buffer) are processed and provided as one record in a worker thread.
또한, 메모리(220)는 프로세서(210)에서 처리된 레코드를 저장하는 구성일 수 있다. Additionally, the memory 220 may be configured to store records processed by the processor 210.
또한, 메모리(220)는 자율주행 중 수집되는 다양한 환경정보(소리 등)를 저장하는 공간일 수 있다.Additionally, the memory 220 may be a space that stores various environmental information (sound, etc.) collected during autonomous driving.
또한, 메모리(220)는 자율주행로봇 또는 모빌리티의 동작을 위한 데이터들, 명령어들(응용프로그램)을 저장할 수 있다. Additionally, the memory 220 can store data and commands (application programs) for the operation of an autonomous robot or mobility.
이러한 응용 프로그램 중 적어도 일부는 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 메모리(220)는 플래시 메모리 타입(Flash Memory Type), 하드 디스크 타입(Hard Disk Type), 멀티미디어 카드 마이크로 타입(Multimedia Card Micro Type), 카드 타입의 메모리(예를 들면, SD 또는 XD 메모리 등), 자기 메모리, 자기 디스크, 광디스크, 램(Random Access Memory: RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory: ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 중 적어도 하나의 저장매체를 포함할 수 있다.At least some of these applications may be downloaded from an external server via wireless communication. The memory 220 is a flash memory type, hard disk type, multimedia card micro type, card type memory (for example, SD or XD memory, etc.), Magnetic memory, magnetic disk, optical disk, RAM (Random Access Memory), SRAM (Static Random Access Memory), ROM (Read-Only Memory: ROM), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read) -Only Memory) may include at least one storage medium.
상기 로봇 카메라(230)는 이동경로 상의 실내공간을 촬영하는 구성일 수 있다. 촬영영상은 상술한 프로세서에서 사물 및/또는 사람인지를 인식 또는 판단하고, 사물 및/또는 사람의 특성정보(얼굴, 신체, 성별 등)을 추출하는 데 사용된다.The robot camera 230 may be configured to photograph the indoor space along the movement path. The captured video is used by the above-described processor to recognize or determine whether it is an object and/or a person and to extract characteristic information (face, body, gender, etc.) of the object and/or person.
상기 라이다 센서부(240)는 사물 및/또는 사람의 위치를 측정하는 구성일 수 있다. 참고로, 라이다 센서(240)는 원거리에 폭 넓은 시야각으로 공간의 사물 위치 측정이 가능하여 일부 물체의 위치에 변경이 있더라도 공간의 제한된 영역 안에서 자신의 위치를 추종하는 데 사용되는 구성이다.The LIDAR sensor unit 240 may be configured to measure the position of an object and/or person. For reference, the LiDAR sensor 240 is capable of measuring the position of objects in space with a wide viewing angle at a distance, and is used to track the position of objects in a limited area of space even if the positions of some objects change.
참고로, 라이다 센서부(240)는 레이더 파장의 빛을 외부로 방출하고, 이 방출된 빛이 외부 객체에 반사되어 되돌아오는 데 소요되는 시간을 측정하여 사물 및/또는 사람의 위치에 대한 정보(라이다 데이터)를 생성한다.For reference, the lidar sensor unit 240 emits light of a radar wavelength to the outside and measures the time it takes for this emitted light to reflect off an external object and return to provide information about the location of objects and/or people. Generate (LIDAR data).
한편, 본 발명의 라이다 센서부(240)는 라이다 데이터를 이용하여 객체(사물 및 사람)의 존재 여부뿐만 아니라, 객체의 종류도 분류하도록 하기 위하여 2D 라이다 센서가 복수의 레이어로 구성된 3차원 라이다 센서일 수 있다.Meanwhile, the LiDAR sensor unit 240 of the present invention uses LiDAR data to classify not only the presence or absence of objects (objects and people), but also the type of object, using a 2D LiDAR sensor consisting of a plurality of layers. It could be a dimensional LiDAR sensor.
다만 2D 라이다 센서를 틸팅시키거나 회전시키는 경우 3차원 정보가 포함된 라이다 데이터가 확보될 수 있으므로, 본 발명에서 이용되는 라이다 센서부(240)는 틸팅 또는 회전이 가능하도록 구성된 2D 라이다 센서로 구현될 수 있음은 물론이다.However, when the 2D LiDAR sensor is tilted or rotated, LiDAR data containing 3D information can be secured, so the LiDAR sensor unit 240 used in the present invention is a 2D LiDAR configured to be tilted or rotated. Of course, it can be implemented with a sensor.
상기 자율주행부(250)는 설정된 동선으로 자율적 주행이 가능한 구성으로, 장 애물을 감지하는 라이다 센서, 위성 항법 자율주행 알고리즘 등이 탑재된 구성으로, 자율주행에 대한 기술은 공지된 기술에 불과함으로 보다 상세한 설명은 생략하도록 한다.The autonomous driving unit 250 is configured to enable autonomous driving along a set route and is equipped with a lidar sensor that detects obstacles, a satellite navigation autonomous driving algorithm, etc., and the technology for autonomous driving is only a known technology. Therefore, a more detailed description will be omitted.
상기 통신부(260)는 후술하는 디지털 트윈 맵 제작서버와 양방향 통신하는 구성으로, 유/무선 통신망을 통해 내부의 임의의 구성 요소 또는 외부의 임의의 적어도 하나의 단말기와 통신 연결한다. The communication unit 260 is configured to communicate bidirectionally with a digital twin map production server, which will be described later, and communicates with any internal component or at least one external terminal through a wired/wireless communication network.
이때, 상기 외부의 임의의 단말기는 서버(미도시), 다른 단말(미도시) 등을 포함할 수 있다. 여기서, 무선 인터넷 기술로는 무선랜(Wireless LAN: WLAN), DLNA(Digital Living Network Alliance), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), LTE-A(Long Term Evolution-Advanced), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBS) 등이 있으며, 상기 통신부는 상기에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 데이터를 송수신하게 된다. 또한, 근거리 통신 기술로는 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra Wideband), 지그비(ZigBee), 인접 자장 통신(Near Field Communication: NFC), 초음파 통신(Ultra Sound Communication: USC), 가시광 통신(Visible Light Communication: VLC), 와이 파이(Wi-Fi), 와이 파이 다이렉트(Wi-Fi Direct) 등이 포함될 수 있다. 또한, 유선 통신 기술로는 전력선 통신(Power Line Communication: PLC), USB 통신, 이더넷(Ethernet), 시리얼 통신(serial communication), 광/동축 케이블 등이 포함될 수 있다.At this time, the external arbitrary terminal may include a server (not shown), another terminal (not shown), etc. Here, wireless Internet technologies include Wireless LAN (WLAN), DLNA (Digital Living Network Alliance), Wibro (Wireless Broadband: Wibro), Wimax (World Interoperability for Microwave Access: Wimax), and HSDPA (High Speed Downlink Packet Access). ), HSUPA (High Speed Uplink Packet Access), IEEE 802.16, Long Term Evolution (LTE), LTE-A (Long Term Evolution-Advanced), Wireless Mobile Broadband Service (WMBS), etc. In this case, the communication unit transmits and receives data according to at least one wireless Internet technology, including Internet technologies not listed above. In addition, short-range communication technologies include Bluetooth, RFID (Radio Frequency Identification), Infrared Data Association (IrDA), UWB (Ultra Wideband), ZigBee, and Near Field Communication (NFC). , Ultrasound Communication (USC), Visible Light Communication (VLC), Wi-Fi, Wi-Fi Direct, etc. may be included. Additionally, wired communication technologies may include Power Line Communication (PLC), USB communication, Ethernet, serial communication, optical/coaxial cables, etc.
또한, 상기 통신부(260)는 유니버설 시리얼 버스(Universal Serial Bus: USB)를 통해 임의의 단말과 정보를 상호 전송할 수 있다.Additionally, the communication unit 260 can transmit information to and from any terminal through a universal serial bus (USB).
또한, 상기 통신부(260)는 이동통신을 위한 기술표준들 또는 통신방식(예를 들어, GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등)에 따라 구축된 이동 통신망 상에서 기지국, 상기 서버, 상기 다른 단말 등과 무선 신호를 송수신한다.In addition, the communication unit 260 supports technical standards or communication methods for mobile communication (e.g., Global System for Mobile communication (GSM), Code Division Multi Access (CDMA), Code Division Multi Access 2000 (CDMA2000), EV -DO (Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA (Wideband CDMA), HSDPA (High Speed Downlink Packet Access), HSUPA (High Speed Uplink Packet Access), LTE (Long Term Evolution), LTE-A (Long Term Evolution-Advanced, etc.), wireless signals are transmitted and received with a base station, the server, and the other terminals on a mobile communication network constructed according to (Long Term Evolution-Advanced), etc.).
다음으로, 클라우드 서버(300)는 상기 실내공간의 좌표정보를 맵핑한 가상화 공간을 생성하고, 상기 가상화 공간 내에 상기 목적물 좌표정보를 표출하고, 상기 자율주행로봇 또는 모빌리티의 주행명령정보를 기록한 제어정보가 기록된 메타 지도를 생성하여 상기 자율주행로봇 또는 모빌리티로 제공하는 구성일 수 있다.Next, the cloud server 300 creates a virtual space that maps the coordinate information of the indoor space, displays the target coordinate information in the virtual space, and provides control information that records driving command information of the autonomous robot or mobility. It may be configured to generate a recorded meta map and provide it to the autonomous robot or mobility.
또한, 클라우드 서버(300)는 상기 실내공간 내에서 주행하는 자율주행로봇 또는 모빌리티에서 실시간으로 감지된 장애물 또는 객체의 위치정보를 상기 가상공간의 좌표에 반영하여 상기 메타지도를 업데이트하고, 상기 장애물 또는 객체의 위치정보에 따라 목표물까지의 주행경로 및 주행정보를 업데이트하는 구성일 수 있다.In addition, the cloud server 300 updates the meta map by reflecting the location information of obstacles or objects detected in real time by an autonomous robot or mobility running in the indoor space in the coordinates of the virtual space, and updates the meta map It may be configured to update the driving path and driving information to the target according to the location information of the object.
또한, 클라우드 서버(300)는 상기 실내공간의 전체적인 지형 및 사물정보가 맵핑된 자율주행하는 로봇의 사물정보가 포함된 가상화된 맵을 사전에 미리 생성하고, 상기 가상공간 내에 상기 자율주행로봇 또는 모빌리티와 목적물 위치정보를 표시하고, 상기 가상공간 내에서 상기 자율주행로봇 또는 모빌리티가 상기 목적물까지 이동하기 위한 주행명령어가 반영된 메타지도를 생성한 후, 상기 메타지도 내의 가상공간 좌표체계를 현실좌표 체계로 변환하여 상기 자율주행로봇 또는 모빌리티로 제공하는 구성일 수 있다.In addition, the cloud server 300 generates in advance a virtualized map containing the object information of the autonomous robot to which the overall terrain and object information of the indoor space is mapped, and the autonomous robot or mobility within the virtual space. After displaying target location information and generating a meta map reflecting driving commands for the autonomous robot or mobility to move to the target within the virtual space, the virtual space coordinate system within the meta map is converted to a real coordinate system. It may be converted and provided as the autonomous robot or mobility.
보다 구체적으로, 상기 클라우드 서버(300)는 정보수집부(310), 가상공간 모델링부(320), 주행정보 에이전트부(330) 및 메타지도 생성부(340)를 포함한다.More specifically, the cloud server 300 includes an information collection unit 310, a virtual space modeling unit 320, a driving information agent unit 330, and a meta map creation unit 340.
상기 정보수집부(310)는 기 등록된 자율주행로봇 또는 모빌리티(200)에서 측정한 측정정보를 수집하는 구성일 있다. 여기서 측정정보는 자율주행과정에서 측정한 사람 및/또는 사물의 위치정보, 특성정보를 포함하는 정보일 수 있다.The information collection unit 310 may be configured to collect measurement information measured by a pre-registered autonomous robot or mobility device 200. Here, the measurement information may be information including location information and characteristic information of people and/or objects measured during the autonomous driving process.
또한, 상기 정보수집부(310)는 자율주행로봇 또는 모빌리티가 주행하는 실내공간의 현실좌표 정보를 외부서버로부터 수십하는 구성일 수 있다.Additionally, the information collection unit 310 may be configured to receive real coordinate information of the indoor space in which the autonomous robot or mobility vehicle runs from an external server.
다음으로, 가상공간 모델링부(320)는 실내공간의 실내좌표를 기반으로 3차원 가상공간으로 모델링하는 구성일 수 있다.Next, the virtual space modeling unit 320 may be configured to model the indoor space as a three-dimensional virtual space based on the indoor coordinates of the indoor space.
여기서, 가상세계의 공간인 3차원 가상공간은 공간의 특징에 따라 VS(Virtual Space), MS(Mixed Space) 및/또는 DTS(Digital Twin Space)의 형태로 구성될 수 있다. Here, the three-dimensional virtual space, which is the space of the virtual world, may be configured in the form of VS (Virtual Space), MS (Mixed Space), and/or DTS (Digital Twin Space) depending on the characteristics of the space.
VS(Virtual Space)는 순수 디지털 기반의 공간일 수 있으며, DTS(Digital Twin Space)는 실세계 기반의 가상의 공간일 수 있으며, MS(Mixed Space)는 VS와 DTS가 혼합된 공간일 수 있다. VS (Virtual Space) may be a purely digital space, DTS (Digital Twin Space) may be a virtual space based on the real world, and MS (Mixed Space) may be a mixture of VS and DTS.
MS의 경우, 실 세계의 환경에 자율주행로봇 또는 모빌리티가 적응하는 형태로 제공되거나 또는 실세계의 환경을 가상세계상에서 렌더링하는 형태로 제공될 수 있다. In the case of MS, it can be provided in the form of self-driving robots or mobility adapting to the real world environment, or in the form of rendering the real world environment in the virtual world.
가상세계의 공간은 자율주행로봇 또는 모빌리티가 활동할 수 있는 기본 가상공간의 개념일 수 있다. The space of the virtual world may be the concept of a basic virtual space in which autonomous robots or mobility can operate.
이러한 가상세계의 공간은 사용자에 따라 다양하게 생성 및 활용될 수 있다. These virtual world spaces can be created and utilized in various ways depending on the user.
한편, 가상세계의 공간은 다수의 에이전트가 존재하며, 에이전트는 가상세계의 공간상에서의 사용자 또는 프로그램을 의미할 수 있다. Meanwhile, a number of agents exist in the virtual world space, and an agent may refer to a user or program in the virtual world space.
여기서, 프로그램으로서의 에이전트는 인공지능 에이전트의 형태로, 제3자 사업자를 대신하여 존재하는 가상의 아바타 또는 페르소나(person a)일 수 있다. 이러한 에이전트에는 해당 에이전트가 속한 가상세계의 공간의 물리적 특징이 적용될 수 있으며, 해당 가상세계의 공간에 설정된 서비스 규약(service profile)이 적용될 수 있다. Here, the agent as a program is in the form of an artificial intelligence agent and may be a virtual avatar or persona that exists on behalf of a third-party business operator. The physical characteristics of the space of the virtual world to which the agent belongs may be applied to these agents, and the service profile set in the space of the virtual world may be applied.
또한, 에이전트는 사용자가 이용하는 물리적인 장치의 정보에 기반한 특징을 가질 수 있다. 예를 들어, 에이전트는 사용자가 이용하는 물리적인 장치의 디스플레이의 특징에 따른 시야각을 갖거나 또는 해당 물리적인 장치의 컨트롤러에 따른 제어 특징을 가질 수 있다. Additionally, the agent may have characteristics based on information about the physical device used by the user. For example, the agent may have a viewing angle according to the display characteristics of the physical device used by the user, or may have control characteristics according to the controller of the physical device.
또한, 가상세계의 공간은 다양한 디지털 오브젝트(digital object)가 위치하며, 가상세계의 공간상에서 세계정보를 구성하는 핵심 요소로서 에이전트와의 상호 인터렉션 기능을 제공하는 오브젝트들을 총칭할 수 있다.In addition, various digital objects are located in the space of the virtual world, and as a key element of world information in the space of the virtual world, it can be a general term for objects that provide mutual interaction functions with agents.
이때, 디지털 오브젝트는 가상세계의 공간이 포함하는 에어리어인 오브젝트 에어리어(Object Area, OA)에 형성될 수 있다. At this time, the digital object may be formed in the object area (OA), which is an area included in the space of the virtual world.
또한, 디지털 오브 젝트는 디스플레이 오브젝트(Display Object, DO), 인터렉션 오브젝트(Interaction Object, IO), 웹 오브젝트(Web Object, WO) 및 스트리밍 오브젝트(Streaming Object, SO)를 포함할 수 있다. Additionally, digital objects may include display objects (DO), interaction objects (IO), web objects (WO), and streaming objects (SO).
이때, 디스플레이 오브젝트, 인터렉션 오브젝트, 웹 오브젝트 및 스트리밍 오브젝트 각각은 콘텐츠의 표시를 위한 디스플레이 에어리어(Display Area)를 선택적으로 포함할 수 있다.At this time, each of the display object, interaction object, web object, and streaming object may optionally include a display area for displaying content.
상기 가상공간 모델링부(320)에서 생성한 가상공간은 현실세계에 존재하는 도로, 건물 및 랜드마크를 포함한 현실세계 환경을 가상공간에 동일하게 투영시킨 공간일 수 있다.The virtual space created by the virtual space modeling unit 320 may be a space in which the real world environment, including roads, buildings, and landmarks existing in the real world, is equally projected into the virtual space.
상기 가상공간 모델링부(320)는 특정 공간에 대한 3차원적인 정보에 기초하여 해당 공간을 디지털 트윈 기법을 이용하여 가상 공간으로 모사하여 생성한다.The virtual space modeling unit 320 creates a virtual space by replicating the space using a digital twin technique based on three-dimensional information about the specific space.
예컨대, 특정 공간에 대한 3차원적인 정보는 해당 공간에 대한 설계도, 3D 스캔한 자료, 평면도, 특정 공간을 실측하여 생성된 자료 중 어느 하나일 수 있다.For example, three-dimensional information about a specific space may be any one of a blueprint for the space, 3D scanned data, a floor plan, or data generated by actually measuring the specific space.
또한, 가상공간 모델링부(130)는 초기 위치(Initial position)를 기반으로 디지털 트윈에 배치된 3D 모델(3D model Reconstruction)을 이용하여 객체 감지 데이터 내 객체와의 차이를 계산하며, 차이를 최소화하는 최적화(optimization)를 통해 객체의 위치 및 각도를 포함하는 지리적 데이터를 추정하여 추정된 지리적 데이터를 디지털 트윈공간으로 구현할 수 있다.In addition, the virtual space modeling unit 130 calculates the difference with the object in the object detection data using a 3D model (3D model reconstruction) placed in the digital twin based on the initial position, and minimizes the difference. Through optimization, geographic data including the location and angle of an object can be estimated and the estimated geographic data can be implemented as a digital twin space.
본 발명에서 언급하는 디지털 트윈은 제조, 의료, 운송, 항공우주, 건설 등 다양한 시스템과 산업에 사용되는 것으로, 표준화된 데이터를 사용하여 IoT 데이터(IoT Data), 3D 객체(3D Objects) 및 3D 맵(3DGeographic Map) 기반으로 형성된 것일 수 있다The digital twin referred to in the present invention is used in various systems and industries such as manufacturing, medicine, transportation, aerospace, and construction, and uses standardized data to generate IoT data, 3D objects, and 3D maps. It may be formed based on (3DGeographic Map)
참고로, 디지털 트윈(Digital Twin) 기술은 실시간으로 역학적 해석이 가능한 실제 물리 모델이나 실제 센서 정보 모델 등과 동일성 및 일관성을 유지하는 디지털 트윈 모델을 이용하여 실제 물리 모델이나 실제 센서 정보 모델 등의 미래 현상을 예측하여 실제 물리 모델이나 실제 센서 정보 모델 등을 제어할 수 있는 기술로 알려져 있다.For reference, Digital Twin technology uses a digital twin model that maintains the identity and consistency of an actual physical model or an actual sensor information model that can be dynamically analyzed in real time, so that future phenomena such as an actual physical model or an actual sensor information model can be used. It is known as a technology that can predict and control the actual physical model or actual sensor information model.
또한, 가상공간 모델링부(320)에서 생성된 가상공간은 소정 규격의 격자(Grid) 형태로 구분되며 각각의 격자에 고유 좌표값이 포함된 주소정보 및 공간정보가 부여된다.In addition, the virtual space created by the virtual space modeling unit 320 is divided into a grid of a predetermined standard, and each grid is given address information and spatial information including unique coordinate values.
다음으로, 상기 주행정보 에이전트부(330)는 가상공간 내에 위치하는 에이전트인 자율주행로봇 또는 모빌리티의 아바타가 목적물까지의 이동하기 위한 주행명령어를 제공하는 구성일 수 있다.Next, the driving information agent unit 330 may be configured to provide driving commands for an autonomous robot or mobility avatar, which is an agent located in a virtual space, to move to the destination.
여기서, 주행명령어는 가상공간의 현 위치에서부터 목적물까지의 이동경로, 이동속도, 이동방향 등에 대한 명령어일 수 있다.Here, the driving command may be a command for the movement path, movement speed, movement direction, etc. from the current location in virtual space to the target.
또한, 상기 주행정보 에이전트부(330)는 실시간으로 실내공간의 주행경로 상에 위치하는 사람 및/또는 사물을 검출하고, 검출된 사람 및/또는 사물의 위치에 따른 목적물까지의 이동경로, 이동속도, 이동방향을 보정 또는 수정한 주행명령어를 제공하는 구성일 수 있다.In addition, the driving information agent unit 330 detects people and/or objects located on the driving path in an indoor space in real time, and determines the movement path and movement speed to the target according to the location of the detected person and/or object. , It may be configured to provide a driving command that corrects or modifies the direction of movement.
다음으로, 상기 메타지도 생성부(340)는 가상공간 모델링부(320)에서 생성된 VS(Virtual Space), MS(Mixed Space) 및/또는 DTS(Digital Twin Space)의 형태로 구성된 가상세계의 공간 내의 목적물까지 현실세계의 자율주행로봇 또는 모빌리티가 이동하기 위한 주행 명령어를 포함하는 메타지도를 생성하는 구성일 수 있다.Next, the meta map generator 340 creates a virtual world space in the form of VS (Virtual Space), MS (Mixed Space), and/or DTS (Digital Twin Space) generated by the virtual space modeling unit 320. It may be a configuration that generates a meta map containing driving commands for an autonomous robot or mobility in the real world to move to a target within the map.
또한, 상기 메타지도 생성부(340)에서 생성된 메타지도는 현실세계의 자율주행로봇 또는 모빌리티가 인식가능하도록 가상공간 3차원 좌표를 현실좌표로 변환한 메타지도로서, 현실세계의 자율주행로봇 또는 모빌리티에서 취득한 공간 데이터, 사물 및/사물의 특성정보, 위치정보 등을 포함하는 지도일 수 있다.In addition, the meta map generated by the meta map generator 340 is a meta map that converts 3D coordinates of virtual space into real coordinates so that autonomous robots or mobility in the real world can recognize it. It may be a map that includes spatial data acquired from mobility, object and/object characteristic information, location information, etc.
보다 구체적으로, 상기 메타지도 생성부(340)는 맵핑부(341), 동기화부(342), 목표물 지정부(343), 이동경로 생성부(344) 및 메타지도 제공 및 갱신부(345)를 포함한다.More specifically, the meta map generator 340 includes a mapping unit 341, a synchronization unit 342, a target designation unit 343, a movement path creation unit 344, and a meta map provision and update unit 345. Includes.
상기 맵핑부(341)는 가상공간 모델링부(320)에서 생성한 디지털 트윈 공간인 가상공간의 공간좌표와 현실세계의 공간좌표를 맵핑한 맵핑 지도를 생성하는 구성일 수 있다.The mapping unit 341 may be configured to generate a mapping map that maps the spatial coordinates of the virtual space, which is a digital twin space created by the virtual space modeling unit 320, with the spatial coordinates of the real world.
상기 동기화부(342)는 맵핑 지도 내에 현실세계의 자율주행로봇 또는 모빌리티의 위치정보와 가상공간 내의 자율주행로봇 또는 모빌리티의 아바타의 위치를 동기화시키는 구성일 수 있다.The synchronization unit 342 may be configured to synchronize the location information of the self-driving robot or mobility in the real world within the mapping map and the location of the avatar of the self-driving robot or mobility in the virtual space.
또한, 목표물 지정부(343)는 맵핑지도 내에 외부단말에서 지정한 위치로 목표물을 지정 또는 생성하는 구성일 수 있다.Additionally, the target designator 343 may be configured to designate or create a target within the mapping map at a location designated by an external terminal.
상기 이동경로 생성부(344)는 맵핑지도 내에 자율주행로봇 또는 모빌리티의 위치로부터 상기 목표물까지의 이동경로를 산출하여 제공하는 구성일 수 있다.The movement path creation unit 344 may be configured to calculate and provide a movement route from the location of the autonomous robot or mobility within the mapping map to the target.
참고로, 상기 이동경로 생성부(344)는 산출된 이동경로로 이동하는 현실세계의 자율주행로봇 또는 모빌리티가 이동경로 상에 장애물(이동객체 등)을 감지할 경우, 감지된 장애물을 회피하는 추가 이동경로를 재 산출하여 제공한다.For reference, the movement path generator 344 is an additional device that avoids the detected obstacle when an autonomous robot or mobility in the real world moving along the calculated movement path detects an obstacle (moving object, etc.) on the movement path. The movement route is recalculated and provided.
상기 메타지도 제공 및 갱신부(345)는 상기 이동경로 생성부(344)에서 생성된 이동경로 및 상기 이동경로 내에 상기 주행정보 에이전트에서 제공하는 주행명령어가 반영된 메타지도를 생성하여 상술한 현실세계의 자율주행로봇 또는 모빌리티로 전송하는 구성일 수 있다.The meta map providing and updating unit 345 generates a meta map reflecting the movement route generated by the movement route creation unit 344 and the driving command provided by the driving information agent within the movement route, thereby providing the real world as described above. It may be transmitted to an autonomous robot or mobility.
또한, 상기 메타지도 제공 및 갱신부(345)는 메타지로에 표시된 이동경로를 따라 이동중에 감지되는 장애물(이동객체)을 감지한 감지정보를 실시간으로 반영하여 목표물까지의 이동경로를 재산출한 메타지도로 기존 메타지도를 갱신하여 제공하는 구성일 수 있다.In addition, the meta map providing and updating unit 345 reflects in real time the detection information of obstacles (moving objects) detected while moving along the movement path displayed on the meta map and recalculates the movement path to the target. It may be a configuration that updates and provides an existing meta map.
도 6은 본 발명의 일 실시예에 따른 지능형 실내 자율주행 로봇이 취득한 공간데이터를 이용한 가상화된 메타지도 제작 방법을 설명한 흐름도이다.Figure 6 is a flowchart explaining a method of creating a virtualized meta map using spatial data acquired by an intelligent indoor self-driving robot according to an embodiment of the present invention.
도 6을 참조하면, 본 발명의 일 실시예에 따른 지능형 실내 자율주행 로봇이 취득한 공간데이터를 이용한 가상화된 메타지도 제작 방법(S700)은 먼저, 자율주행로봇 또는 모빌리티에서 시각화 센서로 취득한 실내공간정보 및 상기 실내공간정보 내의 위치한 목적물의 위치 데이터를 취득(S710)한 후, 상기 목적물의 특징을 분석하고, 위치 좌표를 산출한 후, 클라우드 서버에 제공(S720)하면, 클라우드 서버(300)에서 상기 실내공간과 맵핑되는 가상공간의 메타지도를 생성(S730)하고, 생성된 메타지도 내에 자율주행로봇 및 목적물의 위치 및 특성정보를 표출(S740)하고, 가상화 맵(공간)에서 자율주행로봇 또는 모빌리티가 목적물까지 주행하기 위한 주행명령어를 제공하면(S750), 주행명령어가 기록된 메타지도 내의 좌표를 자율주행로봇 또는 모빌리티가 인식가능한 실제 좌표 체계로 변환하여 전송(S760)하면, 자율주행로봇 또는 모빌리티(200)에서 메타지도 내의 주행명령어를 이행하는 과정을 포함할 수 있다. Referring to FIG. 6, the method (S700) of creating a virtualized meta map using spatial data acquired by an intelligent indoor autonomous robot according to an embodiment of the present invention first uses indoor spatial information acquired by a visualization sensor from an autonomous robot or mobility. And after acquiring the location data of the target located in the indoor spatial information (S710), analyzing the characteristics of the target, calculating the location coordinates, and providing them to the cloud server (S720), the cloud server 300 A meta map of the virtual space mapped to the indoor space is created (S730), the location and characteristic information of the self-driving robot and the target are displayed in the generated meta map (S740), and the self-driving robot or mobility is displayed in the virtual map (space). When a driving command to drive to the destination is provided (S750), the coordinates in the meta map where the driving command is recorded are converted into a real coordinate system that can be recognized by the autonomous robot or mobility and transmitted (S760), and the autonomous robot or mobility At (200), a process of implementing the driving command in the meta map may be included.
또한, 상기 S700 과정은 상기 자율주행로봇 또는 모빌리티에서 사람 및/또는 사물에 대한 객체정보가 주행동선 내에 위치하면, 상기 사람 및/또는 사물을 우회하기 위한 새로운 주행명령어를 생성하여 업데이트하는 단계를 더 포함할 수 있다.In addition, the S700 process further includes the step of generating and updating a new driving command to bypass the person and/or object when object information about a person and/or object in the autonomous robot or mobility is located within the driving line. It can be included.
본 발명의 일 실시예에 따른 지능형 실내 자율주행 로봇이 취득한 공간데이터를 이용한 가상화된 메타지도 제작 시스템 및 방법을 이용하면, 가상공간 내의 디지털 오브젝트의 조작명령에 따른 움직임을 현실세계에서 투영시켜 자율주행로봇 또는 모빌리티를 원격제어할 수 있다는 이점이 있다.Using a virtualized meta map production system and method using spatial data acquired by an intelligent indoor self-driving robot according to an embodiment of the present invention, autonomous driving is possible by projecting the movement according to the manipulation command of a digital object in the virtual space in the real world. There is an advantage in being able to remotely control robots or mobility.
또한, 자율주행로봇 또는 모빌리티로부터 취득한 이벤트를 가상공간에 투영시킬 수 있고, 이를 반영한 메타지도를 제작할 수 있다는 이점이 있다.In addition, there is an advantage that events acquired from autonomous robots or mobility can be projected into virtual space and a meta map reflecting this can be created.
또한, 사용자(관리자)가 가상화 맵을 열람하여 로봇의 위치를 조작, 이동하는 등의 명령어 제공 및 모니터링할 수 있고, 가상화된 맵의 위치 데이터를 실제 로봇이 인식하는 좌표 체계로 변환하여 제공할 수 있다는 이점을 제공한다.In addition, the user (administrator) can view the virtual map to provide and monitor commands to manipulate and move the robot's position, and the location data of the virtualized map can be converted into a coordinate system recognized by the actual robot and provided. It provides the advantage of having
도 7은 본 명세서에 개진된 하나 이상의 실시예가 구현될 수 있는 예시적인 컴퓨팅 환경을 도시하는 도면으로, 상술한 하나 이상의 실시예를 구현하도록 구성된 컴퓨팅 디바이스(1100)를 포함하는 시스템(1000)의 예시를 도시한다. 예를 들어, 컴퓨팅 디바이스(1100)는 개인 컴퓨터, 서버 컴퓨터, 핸드헬드 또는 랩탑 디바이스, 모바일 디바이스(모바일폰, PDA, 미디어 플레이어 등), 멀티프로세서 시스템, 소비자 전자기기, 미니 컴퓨터, 메인프레임 컴퓨터, 임의의 전술된 시스템 또는 디바이스를 포함하는 분산 컴퓨팅 환경 등을 포함하지만, 이것으로 한정되는 것은 아니다.7 is a diagram illustrating an example computing environment in which one or more embodiments disclosed herein may be implemented, and is an illustration of a system 1000 that includes a computing device 1100 configured to implement one or more embodiments described above. shows. For example, computing device 1100 may include a personal computer, server computer, handheld or laptop device, mobile device (mobile phone, PDA, media player, etc.), multiprocessor system, consumer electronics, minicomputer, mainframe computer, Distributed computing environments including any of the above-described systems or devices, etc. are included, but are not limited thereto.
컴퓨팅 디바이스(1100)는 적어도 하나의 프로세싱 유닛(1110) 및 메모리(1120)를 포함할 수 있다. 여기서, 프로세싱 유닛(1110)은 예를 들어 중앙처리장치(CPU), 그래픽처리장치(GPU), 마이크로프로세서, 주문형 반도체(application Specific Integrated Circuit, ASIC), Field Programmable Gate Arrays(FPGA) 등을 포함할 수 있으며, 복수의 코어를 가질 수 있다. 메모리(1120)는 휘발성 메모리(예를 들어, RAM 등), 비휘발성 메모리(예를 들어, ROM, 플래시 메모리 등) 또는 이들의 조합일 수 있다. 또한, 컴퓨팅 디바이스(1100)는 추가적인 스토리지(1130)를 포함할 수 있다. 스토리지(1130)는 자기 스토리지, 광학 스토리지 등을 포함하지만 이것으로 한정되지 않는다. 스토리지(1130)에는 본 명세서에 개진된 하나 이상의 실시예를 구현하기 위한 컴퓨터 판독 가능한 명령이 저장될 수 있고, 운영 시스템, 애플리케이션 프로그램 등을 구현하기 위한 다른 컴퓨터 판독 가능한 명령도 저장될 수 있다. 스토리지(1130)에 저장된 컴퓨터 판독 가능한 명령은 프로세싱 유닛(1110)에 의해 실행되기 위해 메모리(1120)에 로딩될 수 있다. 또한, 컴퓨팅 디바이스(1100)는 입력 디바이스(들)(1140) 및 출력 디바이스(들)(1150)을 포함할 수 있다. Computing device 1100 may include at least one processing unit 1110 and memory 1120. Here, the processing unit 1110 may include, for example, a central processing unit (CPU), a graphics processing unit (GPU), a microprocessor, an application specific integrated circuit (ASIC), a field programmable gate array (FPGA), etc. and can have multiple cores. Memory 1120 may be volatile memory (eg, RAM, etc.), non-volatile memory (eg, ROM, flash memory, etc.), or a combination thereof. Additionally, computing device 1100 may include additional storage 1130. Storage 1130 includes, but is not limited to, magnetic storage, optical storage, etc. The storage 1130 may store computer-readable instructions for implementing one or more embodiments disclosed in this specification, and other computer-readable instructions for implementing an operating system, application program, etc. may also be stored. Computer-readable instructions stored in storage 1130 may be loaded into memory 1120 for execution by processing unit 1110. Computing device 1100 may also include input device(s) 1140 and output device(s) 1150.
여기서, 입력 디바이스(들)(1140)은 예를 들어 키보드, 마우스, 펜, 음성 입력 디바이스, 터치 입력 디바이스, 적외선 카메라, 비디오 입력 디바이스 또는 임의의 다른 입력 디바이스 등을 포함할 수 있다. 또한, 출력 디바이스(들)(1150)은 예를 들어 하나 이상의 디스플레이, 스피커, 프린터 또는 임의의 다른 출력 디바이스 등을 포함할 수 있다. 또한, 컴퓨팅 디바이스(1100)는 다른 컴퓨팅 디바이스에 구비된 입력 디바이스 또는 출력 디바이스를 입력 디바이스(들)(1140) 또는 출력 디바이스(들)(1150)로서 사용할 수도 있다.Here, the input device(s) 1140 may include, for example, a keyboard, mouse, pen, voice input device, touch input device, infrared camera, video input device, or any other input device, etc. Additionally, output device(s) 1150 may include, for example, one or more displays, speakers, printers, or any other output devices. Additionally, the computing device 1100 may use an input device or output device provided in another computing device as the input device(s) 1140 or the output device(s) 1150.
또한, 컴퓨팅 디바이스(1100)는 컴퓨팅 디바이스(1100)가 다른 디바이스(예를 들어, 컴퓨팅 디바이스(1300))와 통신할 수 있게 하는 통신접속(들)(1160)을 포함할 수 있다. Additionally, computing device 1100 may include communication connection(s) 1160 that allows computing device 1100 to communicate with another device (e.g., computing device 1300).
여기서, 통신 접속(들)(1160)은 모뎀, 네트워크 인터페이스 카드(NIC), 통합 네트워크 인터페이스, 무선 주파수 송신기/수신기, 적외선 포트, USB 접속 또는 컴퓨팅 디바이스(1100)를 다른 컴퓨팅 디바이스에 접속시키기 위한 다른 인터페이스를 포함할 수 있다. 또한, 통신 접속(들)(1160)은 유선 접속 또는 무선 접속을 포함할 수 있다. 상술한 컴퓨팅 디바이스(1100)의 각 구성요소는 버스 등의 다양한 상호접속(예를 들어, 주변 구성요소 상호접속(PCI), USB, 펌웨어(IEEE 1394), 광학적 버스 구조 등)에 의해 접속될 수도 있고, 네트워크(1200)에 의해 상호접속될 수도 있다. 본 명세서에서 사용되는 "구성요소", "시스템" 등과 같은 용어들은 일반적으로 하드웨어, 하드웨어와 소프트웨어의 조합, 소프트웨어, 또는 실행중인 소프트웨어인 컴퓨터 관련 엔티티를 지칭하는 것이다. Here, communication connection(s) 1160 may include a modem, network interface card (NIC), integrated network interface, radio frequency transmitter/receiver, infrared port, USB connection, or other device for connecting computing device 1100 to another computing device. May contain interfaces. Additionally, communication connection(s) 1160 may include a wired connection or a wireless connection. Each component of the computing device 1100 described above may be connected by various interconnections such as buses (e.g., peripheral component interconnect (PCI), USB, firmware (IEEE 1394), optical bus structure, etc.) and may be interconnected by a network 1200. As used herein, terms such as "component", "system", etc. generally refer to computer-related entities that are hardware, a combination of hardware and software, software, or software in execution.
예를 들어, 구성요소는 프로세서 상에서 실행중인 프로세스, 프로세서, 객체, 실행 가능물(executable), 실행 스레드, 프로그램 및/또는 컴퓨터일 수 있지만, 이것으로 한정되는 것은 아니다. 예를 들어, 컨트롤러 상에서 구동중인 애플리케이션 및 컨트롤러 모두가 구성요소일 수 있다. 하나 이상의 구성요소는 프로세스 및/또는 실행의 스레드 내에 존재할 수 있으며, 구성요소는 하나의 컴퓨터 상에서 로컬화될 수 있고, 둘 이상의 컴퓨터 사이에서 분산될 수도 있다.For example, a component may be, but is not limited to, a process running on a processor, a processor, an object, an executable, a thread of execution, a program, and/or a computer. For example, both the application running on the controller and the controller can be components. One or more components may reside within a process and/or thread of execution, and a component may be localized on one computer or distributed between two or more computers.
이상에서 설명한 것은 본 발명에 의한 자율 주행 기기를 이용한 사용자 맞춤 정보 제공 시스템을 실시하기 위한 하나의 실시예에 불과한 것으로서, 본 발명은 상기 실시예에 한정되지 않고, 이하의 특허청구범위에서 청구하는 바와 같이 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변경 실시가 가능한 범위까지 본 발명의 기술적 정신이 있다고 할 것이다.What has been described above is only one embodiment for implementing a user-customized information provision system using an autonomous driving device according to the present invention, and the present invention is not limited to the above embodiment, but is as claimed in the following patent claims. Likewise, it will be said that the technical spirit of the present invention exists to the extent that anyone with ordinary knowledge in the field to which the present invention pertains can make various modifications without departing from the gist of the present invention.
*부호의 설명**Explanation of symbols*
100: 지능형 실내 자율주행 로봇이 취득한 공간데이터를 이용한 가상화된 메타지도 제작 시스템100: Virtualized meta map production system using spatial data acquired by an intelligent indoor autonomous robot
200: 자율주행로봇 또는 모빌리티200: Self-driving robot or mobility
210: 프로세서210: processor
220: 메모리220: memory
230: 로봇 카메라230: Robot camera
240: 라이다 센서240: LiDAR sensor
250: 자율주행부250: Autonomous driving department
260: 통신부260: Department of Communications
270: 환경정보센서270: Environmental information sensor
300: 클라우드 서버300: Cloud server
310: 정보수집부310: Information Collection Department
320: 가상공간 모델링부320: Virtual space modeling department
330: 주행정보 에이전트부330: Driving information agent unit
340: 메타지도 생성부340: Meta map generation unit
341: 맵핑부341: mapping unit
342: 동기화부342: synchronization unit
343: 목표물 지정부343: Target designation unit
344: 이동경로 생성부344: Movement path creation unit
345: 메타지도 제공 및 갱신부345: Metamap provision and update department

Claims (3)

  1. 자율주행과정에서 시각화 센서로 획득한 실내공간 내에 위치한 목적물의 위치정보를 전송하는 자율주행로봇 또는 모빌리티; 및Autonomous driving robot or mobility that transmits location information of objects located in indoor space acquired through visualization sensors during the autonomous driving process; and
    상기 실내공간의 전체적인 지형 및 사물정보가 맵핑된 자율주행하는 로봇의 사물정보가 포함된 가상화된 맵을 사전에 미리 생성하고, 상기 가상공간 내에 상기 자율주행로봇 또는 모빌리티와 목적물 위치정보를 표시하고, 상기 가상공간 내에서 상기 자율주행로봇 또는 모빌리티가 상기 목적물까지 이동하기 위한 주행명령어가 반영된 메타지도를 생성한 후, 상기 메타지도 내의 가상공간 좌표체계를 현실좌표 체계로 변환하여 상기 자율주행로봇 또는 모빌리티로 제공하는 클라우드 서버를 포함하고,Creating a virtualized map in advance containing object information of a self-driving robot with the overall topography and object information of the indoor space mapped, and displaying the self-driving robot or mobility and target location information in the virtual space, After generating a meta map reflecting driving commands for the autonomous robot or mobility to move to the destination within the virtual space, the virtual space coordinate system in the meta map is converted to a real coordinate system to enable the autonomous robot or mobility Includes a cloud server provided by
    상기 자율주행로봇 또는 모빌리티는The autonomous robot or mobility
    상기 메타지도 내의 가상공간 좌표체계를 현실좌표 체계로 변환한 정보를 기초로 실내공간 내의 목적물까지 이동하는 지능형 실내 자율주행 로봇이 취득한 공간데이터를 이용한 가상화된 메타지도 제작 시스템. A virtualized meta map production system using spatial data acquired by an intelligent indoor self-driving robot that moves to a target in an indoor space based on information converted from the virtual space coordinate system in the meta map to a real coordinate system.
  2. 제1항에 있어서,According to paragraph 1,
    상기 클라우드 서버는The cloud server is
    상기 자율주행로봇 또는 모빌리티이 자율주행과정에서 측정한 사람 및/또는 사물의 위치정보, 특성정보, 상기 자율주행로봇 또는 모빌리티가 주행하는 실내공간의 현실좌표 정보를 외부서버로부터 수집하는 정보수집부;An information collection unit that collects from an external server location information and characteristic information of people and/or objects measured during the autonomous driving process of the autonomous robot or mobility, and real coordinate information of the indoor space in which the autonomous robot or mobility drives;
    상기 실내공간의 실내좌표를 기반으로 디지털트윈 기법을 이용하여 3차원 가상공간으로 모델링하는 가상공간 모델링부;A virtual space modeling unit that models the indoor space into a 3D virtual space using a digital twin technique based on the indoor coordinates of the indoor space;
    가상공간 내에 위치하는 에이전트인 자율주행로봇 또는 모빌리티의 아바타가 목적물까지의 이동하기 위한 주행명령어를 제공하는 주행정보 에이전트부;a driving information agent unit that provides driving commands for an autonomous robot or mobility avatar, which is an agent located in a virtual space, to move to a destination;
    상기 가상공간 내의 목적물까지 자율주행로봇 또는 모빌리티의 아바타가 이동하기 위한 주행 명령어를 포함하는 메타지도를 생성하는 메타지도 생성부를 포함하는 것을 특징으로 하는 Characterized by comprising a meta map generator that generates a meta map containing driving commands for the autonomous robot or mobility avatar to move to the target in the virtual space.
    지능형 실내 자율주행 로봇이 취득한 공간데이터를 이용한 가상화된 메타지도 제작 시스템.A virtualized meta-map production system using spatial data acquired by an intelligent indoor self-driving robot.
  3. 제2항에 있어서,According to paragraph 2,
    상기 메타지도 생성부는The meta map generator
    상기 가상공간 모델링부에서 생성한 디지털 트윈 공간인 가상공간의 공간좌표와 현실세계의 공간좌표를 맵핑한 맵핑 지도를 생성하는 맵핑부;A mapping unit that generates a mapping map that maps spatial coordinates of the virtual space, which is the digital twin space generated by the virtual space modeling unit, to spatial coordinates of the real world;
    상기 맵핑 지도 내에 현실세계의 자율주행로봇 또는 모빌리티의 위치정보와 가상공간 내의 자율주행로봇 또는 모빌리티의 아바타의 위치를 동기화시키는 동기화부;a synchronization unit that synchronizes the location information of the self-driving robot or mobility in the real world within the mapping map and the location of the avatar of the self-driving robot or mobility in the virtual space;
    상기 맵핑지도 내에 외부단말에서 지정한 위치로 목표물을 지정 또는 생성하는 목표물 지정부;a target designator that specifies or creates a target within the mapping map at a location designated by an external terminal;
    상기 맵핑지도 내에 자율주행로봇 또는 모빌리티의 위치로부터 상기 목표물까지의 이동경로를 산출하여 제공하는 이동경로 생성부; 및a movement path generator that calculates and provides a movement route from the location of the autonomous robot or mobility within the mapping map to the target; and
    상기 이동경로 생성부에서 생성된 이동경로 및 상기 이동경로 내에 상기 주행정보 에이전트에서 제공하는 주행명령어가 반영된 메타지도를 생성하여 현실세계의 자율주행로봇 또는 모빌리티로 전송하는 상기 메타지도 제공 및 갱신부를 포함하고,It includes a meta map providing and updating unit that generates a meta map reflecting the movement path generated by the movement path creation unit and the driving command provided by the driving information agent within the movement path and transmits it to an autonomous robot or mobility in the real world. do,
    상기 메타지도 제공 및 갱신부는 메타지도에 표시된 이동경로를 따라 이동중에 감지되는 장애물(이동객체)을 감지한 감지정보를 실시간으로 반영하여 목표물까지의 이동경로를 재산출한 메타지도로 기존 메타지도를 갱신하여 제공하는 것을 특징으로 하는 지능형 실내 자율주행 로봇이 취득한 공간데이터를 이용한 가상화된 메타지도 제작 시스템.The meta map provision and update unit updates the existing meta map with a meta map that recalculates the movement path to the target by reflecting in real time the detection information of obstacles (moving objects) detected while moving along the movement path displayed on the meta map. A virtualized meta map production system using spatial data acquired by an intelligent indoor self-driving robot.
PCT/KR2023/006706 2022-05-18 2023-05-17 Method and system for creating virtual meta map using spatial data acquired by intelligent indoor autonomous mobile robot WO2023224391A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2022-0061085 2022-05-18
KR20220061085 2022-05-18
KR1020230049372A KR20230161342A (en) 2022-05-18 2023-04-14 Method and System for Producing Virtualized Meta Map Using Location Data of Intelligent Indoor Autonomous Robot
KR10-2023-0049372 2023-04-14

Publications (1)

Publication Number Publication Date
WO2023224391A1 true WO2023224391A1 (en) 2023-11-23

Family

ID=88835793

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/006706 WO2023224391A1 (en) 2022-05-18 2023-05-17 Method and system for creating virtual meta map using spatial data acquired by intelligent indoor autonomous mobile robot

Country Status (1)

Country Link
WO (1) WO2023224391A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015524071A (en) * 2013-05-20 2015-08-20 インテル コーポレイション Technology to merge virtual and physical floor maps
KR20180044486A (en) * 2016-10-21 2018-05-03 네이버 주식회사 Robot for generating 3d indoor map using autonomous driving and method for controlling the robot
KR20220029837A (en) * 2020-08-31 2022-03-10 주식회사 구루아이오티 Autonomous driving platform based on grid-address system on the basis of digital twin
KR20220049103A (en) * 2020-10-13 2022-04-21 한국클라우드컴퓨팅연구조합 V2x communication-based driving simulation provision method, driving guide and advertisement content provision method using the same
KR20220058079A (en) * 2020-10-30 2022-05-09 주식회사 케이티 Autonomous robot, method for generation of hierarchical costmap and method for generating driving path using the same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015524071A (en) * 2013-05-20 2015-08-20 インテル コーポレイション Technology to merge virtual and physical floor maps
KR20180044486A (en) * 2016-10-21 2018-05-03 네이버 주식회사 Robot for generating 3d indoor map using autonomous driving and method for controlling the robot
KR20220029837A (en) * 2020-08-31 2022-03-10 주식회사 구루아이오티 Autonomous driving platform based on grid-address system on the basis of digital twin
KR20220049103A (en) * 2020-10-13 2022-04-21 한국클라우드컴퓨팅연구조합 V2x communication-based driving simulation provision method, driving guide and advertisement content provision method using the same
KR20220058079A (en) * 2020-10-30 2022-05-09 주식회사 케이티 Autonomous robot, method for generation of hierarchical costmap and method for generating driving path using the same

Similar Documents

Publication Publication Date Title
WO2023224392A1 (en) System and method for generating digital twin map by using multiple-intelligent autonomous robots
WO2019124726A1 (en) Method and system for providing mixed reality service
US20200250889A1 (en) Augmented reality system
Zhao et al. A novel system for tracking pedestrians using multiple single-row laser-range scanners
US11854211B2 (en) Training multi-object tracking models using simulation
WO2019017582A1 (en) Method and system for collecting cloud sourcing-based ar content templates and automatically generating ar content
Yu et al. Intelligent visual-IoT-enabled real-time 3D visualization for autonomous crowd management
WO2012091326A2 (en) Three-dimensional real-time street view system using distinct identification information
WO2022131727A1 (en) Real estate information provision device and real estate information provision method
JP2019153274A (en) Position calculation device, position calculation program, position calculation method, and content addition system
CN112115607A (en) Mobile intelligent digital twin system based on multidimensional Sayboat space
WO2017007254A1 (en) Device and method for generating and displaying 3d map
Narciso et al. Mixar mobile prototype: Visualizing virtually reconstructed ancient structures in situ
JP4624000B2 (en) Compound artificial intelligence device
WO2018164287A1 (en) Method and device for providing augmented reality, and computer program
WO2023224391A1 (en) Method and system for creating virtual meta map using spatial data acquired by intelligent indoor autonomous mobile robot
Kamalasanan et al. Mixed reality agent-based framework for pedestrian-cyclist interaction
JPWO2019009163A1 (en) Information processing system, player-side device, control method, and program
Baeck et al. Drone based near real-time human detection with geographic localization
KR20230161342A (en) Method and System for Producing Virtualized Meta Map Using Location Data of Intelligent Indoor Autonomous Robot
WO2022098164A1 (en) Electronic device and control method of electronic device
Behzadan et al. Enabling smooth and scalable dynamic 3D visualization of discrete-event construction simulations in outdoor augmented reality
KR20220040293A (en) Method and apparatus for providing augmented reality
Yan et al. Challenges in flying quadrotor unmanned aerial vehicle for 3D indoor reconstruction
WO2024085573A1 (en) Method and device for updating three-dimensional map on basis of cloud sourcing

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23807910

Country of ref document: EP

Kind code of ref document: A1