WO2022085844A1 - 로봇 관리 서버, 시스템 및 그 제어 방법 - Google Patents

로봇 관리 서버, 시스템 및 그 제어 방법 Download PDF

Info

Publication number
WO2022085844A1
WO2022085844A1 PCT/KR2020/016255 KR2020016255W WO2022085844A1 WO 2022085844 A1 WO2022085844 A1 WO 2022085844A1 KR 2020016255 W KR2020016255 W KR 2020016255W WO 2022085844 A1 WO2022085844 A1 WO 2022085844A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
robot
service
management server
user terminal
Prior art date
Application number
PCT/KR2020/016255
Other languages
English (en)
French (fr)
Inventor
고종명
최고은
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Publication of WO2022085844A1 publication Critical patent/WO2022085844A1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1682Dual arm manipulator; Coordination of several manipulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Definitions

  • the present invention relates to a robot management server that provides a robot use service to a user, a system, and a control method thereof.
  • robots that replace humans are being actively distributed in stores, cafes, restaurants, and the like.
  • Such a robot may perform operations such as processing a customer's order request or delivering it to a customer.
  • the present disclosure is in accordance with the above-described necessity, and an object of the present invention is to provide a robot management server, a system, and a control method thereof that provide a service to a customer without direct interaction between the customer and the robot.
  • the robot management server for achieving the above object is connected to a memory, a communication interface, and the communication interface in which identification information of at least one robot corresponding to a service is stored, and the robot management server and a processor to control, wherein the processor identifies a robot corresponding to the service based on the information stored in the memory when a service request and access information corresponding to the service request are received from the user terminal, and the access information It is possible to identify information for performing the service based on and control the communication interface to transmit the identified information to the identified robot.
  • the access information corresponding to the service includes the location information of the user terminal, and the processor is one of the identified robots based on the location information of the user terminal and the location information of the identified robot. to control the communication interface to transmit information for performing the service.
  • the access information corresponding to the service includes user profile information of the user terminal, and the processor receives information for performing the service with one of the identified robots based on the user profile information.
  • the communication interface may be controlled to transmit.
  • the user profile information may include at least one of gender information, age information, height information, nationality information, and disability information of the user.
  • the information for performing the service may include at least one of movement request information, service setup information, and information required for a service.
  • the processor requests status information to the identified robot, and when the status information is received from the robot, information for performing the service to one of the identified robots based on the status information
  • the communication interface may be controlled to transmit.
  • the processor controls the communication interface to transmit context information corresponding to the identified robot to the user terminal, and the context information may include at least one of location information and state information of the robot. .
  • the processor identifies whether additional information is required based on the information for performing the service, and when the additional information is identified as necessary, a control signal to provide a UI requesting the additional information to the user terminal
  • the communication interface may be controlled to transmit to the user terminal.
  • a service request and connection information corresponding to the service request are received from the robot and the user terminal
  • the service corresponding to the service and a management server that identifies the robot and transmits information for performing the service to the robot based on the connection information, wherein the robot receives the information for performing the service, the received information
  • the service may be performed based on
  • the system may further include the user terminal, and the user terminal may transmit access information corresponding to the service to the management server based on an identification code provided in the external device.
  • the user terminal may display a UI for requesting additional information of the user.
  • the robot when a signal for requesting status information from the management server is received, transmits the status information of the robot to the management server, and the status information includes the remaining battery level information of the robot and the existing service provision status. It may include at least one of information about, current location information, and movement status information.
  • the method for controlling a robot includes receiving a service request and access information corresponding to the service request from a user terminal, and identifying information for performing the service based on the access information and transmitting the identified information to a robot corresponding to the requested service.
  • the access information corresponding to the service includes the location information of the user terminal
  • the step of transmitting information for performing the service to the identified robot includes the location information of the user terminal and the identified robot Information for performing the service may be transmitted to one of the identified robots based on the location information of
  • the access information corresponding to the service includes user profile information of the user terminal
  • the step of transmitting information for performing the service to the identified robot includes the identified information on the basis of the user profile information.
  • the method may further include transmitting information for performing the service to one of the robots to the identified robot.
  • the user profile information may include at least one of gender information, age information, height information, nationality information, and disability information of the user.
  • the information for performing the service may include at least one of movement request information, service setup information, and information required for a service.
  • requesting status information to the identified robot, and when the status information is received from the robot, transmitting information for performing the service to one of the identified robots based on the status information may further include.
  • the method may further include transmitting context information corresponding to the identified robot to the user terminal, wherein the context information may include at least one of location information and state information of the robot.
  • the method may further include identifying whether additional information is required based on the information for performing the service, and if it is identified that the additional information is required, providing a UI for requesting the additional information to the user terminal there is.
  • a service may be provided to a customer without direct interaction between the customer and the robot.
  • FIG. 1 is a view for explaining a system including a robot management server according to an embodiment of the present disclosure.
  • FIG. 2 is a block diagram illustrating a configuration of a robot management server according to an embodiment of the present disclosure.
  • FIG 3 is a view for explaining the provision of a service based on location information of a user and a robot according to an embodiment of the present disclosure.
  • 4A and 4B are diagrams for explaining provision of a service based on a user's profile information according to an embodiment of the present disclosure.
  • FIG. 5 is a view for explaining that the robot management server according to an embodiment of the present disclosure provides information for performing a service to the robot.
  • FIG. 6 is a view for explaining the provision of a service based on status information of a robot according to an embodiment of the present disclosure.
  • FIG. 7 is a diagram for explaining a UI for providing information about service provision through a robot to a user according to an embodiment of the present disclosure.
  • FIG. 8 is a diagram for explaining an additional information request UI according to an embodiment of the present disclosure.
  • 9A and 9B are diagrams for explaining various methods used to transmit a user's access information to a robot management server according to an embodiment of the present disclosure.
  • FIG. 10 is a block diagram illustrating a configuration of a robot according to an embodiment of the present disclosure.
  • FIG. 11 is a block diagram illustrating a configuration of a user terminal according to an embodiment of the present disclosure.
  • FIG. 12 is a flowchart illustrating a control method according to an embodiment of the present disclosure.
  • FIG. 13 is a flowchart illustrating a service providing method according to another embodiment of the present disclosure.
  • expressions such as “have,” “may have,” “include,” or “may include” indicate the presence of a corresponding characteristic (eg, a numerical value, function, operation, or component such as a part). and does not exclude the presence of additional features.
  • a component eg, a first component
  • another component eg, a second component
  • an element may be directly connected to another element or may be connected through another element (eg, a third element).
  • a “module” or “unit” performs at least one function or operation, and may be implemented as hardware or software, or a combination of hardware and software.
  • a plurality of “modules” or a plurality of “units” are integrated into at least one module and implemented with at least one processor (not shown) except for “modules” or “units” that need to be implemented with specific hardware.
  • the term user may refer to a person who uses an electronic device or a device (eg, an artificial intelligence electronic device) using the electronic device.
  • a device eg, an artificial intelligence electronic device
  • FIG. 1 is a view for explaining a system including a robot management server according to an embodiment of the present disclosure.
  • a system 1000 may include a robot management server 100 and at least one service robot 200 .
  • the service robot 200 may be a robot capable of providing a specific service to a user, including a guide bot or a retail bot.
  • the robot management server 100 may identify a robot corresponding to a service when a service request and access information corresponding to the service request are received from the user terminal. In addition, the robot management server 100 may transmit information for performing a service to the identified robot based on the access information.
  • the robot 200 may perform a service based on the received information.
  • the system 1000 may further include a user terminal 300 .
  • the user terminal 300 refers to an electronic device that a user can carry.
  • the user terminal 300 may be implemented as a smartphone, but is not limited thereto, and an electronic device capable of wirelessly communicating with the robot management server 100, for example, a tablet PC, a mobile phone, a video phone, a laptop PC, It may be implemented in various devices, such as a netbook computer, a workstation, a PDA, a portable multimedia player (PMP), an MP3 player, a camera, a virtual reality (VR) realization device, or a wearable device.
  • PMP portable multimedia player
  • MP3 player MP3 player
  • camera a virtual reality (VR) realization device
  • VR virtual reality
  • the user terminal 300 may transmit access information corresponding to a service to the robot management server 100 based on an identification code provided in the external device.
  • the identification code may be at least one of a QR code, a temporary QR code, NFC, and a URL.
  • the user terminal 300 may display a UI for requesting the user's additional information when a signal for requesting the user's additional information is received from the robot management server 100 .
  • the robot 200 when the robot 200 according to an embodiment of the present disclosure receives a signal requesting state information from the robot management server 100, it transmits the state information of the robot 200 to the robot management server 100, the state The information may include at least one of remaining battery level information of the robot 200 , information on an existing service provision state, current location information, and movement state information.
  • FIG. 1 the function of the robot management server 100 will be described on the premise that the user uses the service through the robot using the QR code 20 .
  • the robot management server 100 may electrically communicate with the user's terminal 300 and the robot 200 that provides a service.
  • the QR code 20 may be located at the entrance (and adjacent to the place) of the place visited by the user. In Fig. 1, it is assumed that the user visits the place for the first time, and the QR code 20 is always located at the point adjacent to the entrance. It doesn't have to be located
  • the user may scan the QR code 20 through a camera (not shown) provided in the terminal 300 . Subsequently, the user terminal may transmit access information to the robot management server 100 by driving an application supporting service use through the robot or accessing a web site.
  • the robot management server 100 may designate a robot to provide a service to the user based on the access information received from the user terminal 300 .
  • the robot 200 designated by the robot management server 100 may move to the user and provide a service corresponding to information for performing a service included in the access information. Accordingly, the user can receive a service through the robot 200 without directly interacting with the robot 200 .
  • FIG. 2 is a block diagram illustrating a configuration of a robot management server according to an embodiment of the present disclosure.
  • the robot management server 100 may include a memory 110 , a communication interface 120 , and a processor 130 .
  • the memory 110 may store data necessary for various embodiments of the present disclosure.
  • the memory 110 may be implemented in the form of a memory embedded in the robot management server 100 or may be implemented in the form of a memory detachable to the robot management server 100 depending on the purpose of data storage.
  • data for driving the robot management server 100 is stored in the memory embedded in the robot management server 100
  • data for the extended function of the robot management server 100 is data for the robot management server 100 .
  • volatile memory eg, dynamic RAM (DRAM), static RAM (SRAM), or synchronous dynamic RAM (SDRAM), etc.
  • non-volatile memory e.g.
  • a memory card eg, CF ( compact flash), SD (secure digital), Micro-SD (micro secure digital), Mini-SD (mini secure digital), xD (extreme digital), MMC (multi-media card), etc.
  • CF compact flash
  • SD secure digital
  • Micro-SD micro secure digital
  • Mini-SD mini secure digital
  • xD extreme digital
  • MMC multi-media card
  • the communication interface 120 may input and output various types of data.
  • the communication interface 120 is an AP-based Wi-Fi (Wi-Fi, Wireless LAN network), Bluetooth (Bluetooth), Zigbee (Zigbee), wired / wireless LAN (Local Area Network), WAN (Wide Area Network), Ethernet, IEEE 1394, HDMI (High-Definition Multimedia Interface), USB (Universal Serial Bus), MHL (Mobile High-Definition Link), AES/EBU (Audio Engineering Society/ European Broadcasting Union), Optical , Coaxial, etc. to communicate various types of data with an external device (eg, a source device), an external storage medium (eg, a USB memory), and an external server (eg, a web hard drive). can transmit and receive.
  • the data may include access information, information for performing a service, location information, and status information of the robot.
  • the communication interface 120 may be implemented as one module. In this case, the communication interface 120 may communicate with both the robot 200 and the user terminal 300 .
  • the communication interface 120 may be implemented with a plurality of models.
  • the communication interface 120 may be implemented as a combination of a module communicating with the robot 200 and a module communicating with the user terminal 300 .
  • the processor 130 controls the overall operation of the robot management server 100 .
  • the processor 130 may be connected to each component of the robot management server 100 to control the overall operation of the robot management server 100 .
  • the processor 140 may be connected to the memory 110 and the communication interface 120 to control the operation of the robot management server 100 .
  • the processor 130 includes a digital signal processor (DSP), a microprocessor, a central processing unit (CPU), a micro controller unit (MCU), and a micro processing unit (MPU). unit), a Neural Processing Unit (NPU), a controller, and an application processor (AP), etc.
  • DSP digital signal processor
  • CPU central processing unit
  • MCU micro controller unit
  • MPU micro processing unit
  • NPU Neural Processing Unit
  • controller controller
  • AP application processor
  • the processor 130 may be implemented in a system on chip (SoC), large scale integration (LSI), or a field programmable gate array (FPGA) format.
  • SoC system on chip
  • LSI large scale integration
  • FPGA field programmable gate array
  • the processor 130 may include a volatile memory such as SRAM.
  • the processor 130 may identify a robot corresponding to the service based on information stored in the memory 110 .
  • the service request is a request for a service that the user wants to be provided
  • the access information may include information about the service request.
  • the information about the service request may include at least one of a service type, a service request time, and the number of people who wish to provide the service.
  • the access information may include at least one of identification information of the user terminal 300 , location information of the user terminal 300 , and user profile information as well as service request information.
  • the processor 130 determines the validity of the service request, and if the service request is not valid, a communication connection (or session or link) with the robot 200 and the user terminal 300 . can be terminated.
  • the processor 130 may identify a robot corresponding to the type of service included in the service request information based on the robot identification information stored in the memory 110 .
  • the processor 130 may transmit a control signal to the user terminal 300 to provide a UI guiding that a service is available in response to a valid service request.
  • the UI may request a user for feedback regarding service use, and the processor 130 may not receive feedback information from the user terminal 300 within a preset time or if information corresponding to a service termination request is received, the robot (200) and the user terminal 300 may terminate the communication connection.
  • the processor 130 may control the communication interface 120 to identify information for performing a service based on the access information and transmit the identified information to the identified robot.
  • the information for performing the service may include at least one of movement request information, service setup information, and information required for the service.
  • the movement request information may include at least one of location information of the user terminal and an expected travel path of the robot.
  • the service setup information may be information about characteristics of a service, and the information required for the service may include information about a customer request.
  • the processor 130 connects the communication interface 120 to transmit information for performing a service to one of the robots identified based on the location information of the user terminal 300 and the location information of the identified robot.
  • the processor 130 may identify a robot having the closest distance to the user terminal 300 as a robot to provide a service, and transmit information for performing a service to the identified robot.
  • the processor 130 may identify a robot that can reach the user in the shortest time as a robot to provide a service based on the characteristics of the space in which the robot 200 and the user terminal 300 are located.
  • the processor 130 may terminate the communication connection between the robot 200 and the user terminal 300 when it is identified that the user is out of the service area based on the location information of the user terminal 300 .
  • the access information corresponding to the service includes user profile information of the user terminal 300, and the processor 130 according to an example performs a service as one of the robots identified based on the user profile information.
  • the communication interface 120 may be controlled to transmit information.
  • the profile information may include at least one of the user's gender information, age information, height information, nationality information, and disability information.
  • the processor 130 requests status information from the identified robot, and when the status information is received from the robot, the communication interface to transmit information for performing a service to one of the identified robots based on the status information 120 can be controlled.
  • the processor 130 controls the communication interface 120 to transmit context information corresponding to the identified robot to the user terminal 300, and the context information is location information or state of the robot. It may include at least one of information.
  • the processor 130 identifies whether additional information is required based on information for performing a service, and when it is identified that additional information is required, a UI for requesting additional information is displayed on the user terminal 300 .
  • the communication interface 120 may be controlled to transmit a control signal to be provided to the user terminal 300 .
  • FIG 3 is a view for explaining the provision of a service based on location information of a user and a robot according to an embodiment of the present disclosure.
  • the place 30 visited by the user may be composed of rooms 31 and 32 separated by partition walls and spaces (lobbies, hallways, etc.) excluding the rooms.
  • the place 30 visited by the user may include a plurality of points where the identification codes 21 to 27 are located.
  • the plurality of points may include points where a user's frequency of passage is high or a length of stay time is long, such as a point 21 close to an entrance and points 25 and 26 inside a room.
  • a plurality of robots 201 and 202 may be located in the visited place 30 .
  • the plurality of robots 201 and 202 according to an example may be located adjacent to each door of a plurality of rooms. In FIG. 3 , it is assumed that all of the plurality of robots 201 and 202 are robots capable of providing a service desired by the user.
  • the user 10 may enter the door of the visited place and transmit a service request and access information to the robot management server 100 through the identification code 21 adjacent to the door.
  • the access information transmitted to the robot management server 100 may include location information of the user terminal.
  • the location information of the user terminal may be information measured through a location sensor (not shown) provided in the user terminal or information determined based on the location of the identification code 21 used by the user.
  • the robot management server 100 may identify a robot located close to the user terminal as a robot to provide a service to the user based on the location information of the user terminal and the location information of each of the plurality of robots there is. In the case of FIG. 3 , since the location of the user terminal is the point 21 adjacent to the door, the robot management server 100 may identify the robot 202 located close to the point as a robot to provide a service to the user.
  • the robot management server 100 uses the identification code 25 of the room 31 located far from the door of the place visited by the user, the robot 201 located far from the door provides a service to the user. can be identified as
  • the robot management server 100 may transmit information for performing a service desired by the user to a robot identified as a robot to provide a service.
  • 4A and 4B are diagrams for explaining provision of a service based on a user's profile information according to an embodiment of the present disclosure.
  • the access information corresponding to the service may include user profile information of the user terminal.
  • the profile information may include at least one of gender information, age information, height information, nationality (language used) information, and disability information of the user.
  • the robot management server 100 may designate a robot capable of providing a service to a user based on user profile information.
  • the robot management server 100 may identify that the user 11 is visually impaired based on the user profile information 410 of the user terminal 301 .
  • the robot management server 100 may designate the robot 201 for the visually impaired as a robot capable of providing a service to the user 11 .
  • the robot management server 100 is based on the user profile information 420 of the user terminal 302, the user 12 is a relatively small child It can be identified that In this case, the robot management server 100 may designate the infant robot 202 as a robot capable of providing a service to the user 12 . Through this, the robot management server 100 can designate a robot that provides an optimal service in consideration of the user's characteristics, so that the user's convenience can be improved.
  • FIG. 5 is a view for explaining that the robot management server according to an embodiment of the present disclosure provides information for performing a service to the robot.
  • the robot management server 100 may transmit information 500 for performing a service to the robot 200 that provides a service to a user.
  • the information 500 for performing a service may include at least one of movement request information, service setup information, and information required for a service.
  • the information for performing the service includes information about the location of the user terminal 300 510 , and information about the time when the service request is transmitted from the user terminal 300 to the robot management server 100 ( 520), information 530 about the type of service, and information 540 about a customer's request may be included.
  • the location of the user terminal 300 is a doorway (511), the time at which the service request is transmitted is 1:20 pm (521), and the user receives the provision It can be identified that the desired service is clothing storage (531), and steam sterilization (541) is specifically requested by the customer.
  • the robot 200 may provide a service to a user based on the received information 500 .
  • the robot 200 may determine a travel route based on the location 510 of the user terminal.
  • the priority of services for a plurality of users may be determined.
  • the robot 200 may be equipped with necessary equipment via a separate place to process customer requests.
  • FIG. 6 is a view for explaining the provision of a service based on status information of a robot according to an embodiment of the present disclosure.
  • the robot management server 100 may request status information from a plurality of robots 201 , 202 , 203 capable of providing a service desired by the user.
  • the status information may include at least one of remaining battery level information of the robot, information on an existing service provision status, current location information, and movement status information.
  • the information on the existing service provision state may include information on the number of customers currently waiting to use each robot.
  • the plurality of robots 201 , 202 , and 203 may transmit status information of each robot to the robot management server 100 in response to a request from the robot management server 100 .
  • the robot management server 100 includes a plurality of robots 201, 202, 203), it is possible to transmit information 500 for performing a service to one of the robots.
  • the robot management server 100 may designate a robot to provide a service to a user based on the remaining battery level and the number of waiting customers included in the state information of the robot. Referring to FIG. 6 , since the robot 3 203 is in a malfunctioning state, it cannot provide a service regardless of the remaining battery level and the number of waiting customers.
  • the robot management server 100 designates robot 2 (202) with a relatively large remaining battery power and a small number of waiting customers as a robot to provide a service to the user among robot 1 (201) and robot 2 (202), and robot 2 ( 202) may transmit information 500 for performing a service.
  • FIG. 7 is a diagram for explaining a UI for providing information about service provision through a robot to a user according to an embodiment of the present disclosure.
  • the robot management server 100 may transmit context information 700 corresponding to the identified robot to the user terminal 300 .
  • the context information may include at least one of location information and state information of the robot.
  • the user terminal 300 may display a UI providing the context information 700 through the display 320 .
  • the user terminal 300 may display the UI 710 in the form of a map indicating location information of the robot.
  • the current location 711 of the user terminal and the location 712 of the robot assigned to the user may be included on the UI 710 in the form of a map.
  • the user terminal 300 may display the UI 720 related to the status information of the robot assigned to the user.
  • the status information related UI 720 includes the image and battery level of the robot as well as the serial number 721 of the robot, the function 722 that the robot can provide, and the user's waiting to use the robot service. It may include information about the number 723 and the expected time 724 to wait until the service is provided.
  • the user terminal 300 may display a service information related UI 730 , and the service information related UI 730 may include information about a user's request. Through this, the user can improve service satisfaction by receiving various information related to the service and information about the robot that provides the service to the user.
  • the robot management server 100 may terminate the communication connection with the robot 200 and the user terminal 300 when the service provision through the robot is completed.
  • FIG. 8 is a diagram for explaining an additional information request UI according to an embodiment of the present disclosure.
  • the robot management server 100 may identify whether additional information is required based on information for performing a service. Specifically, additional information other than the information included in the access information may be required to provide a service requiring high user privacy protection or a financial service requiring additional authentication information.
  • the robot management server 100 provides a control signal 800 for providing a UI requesting additional information to the user terminal 300 when it is identified that additional information is required to the user terminal 300 . can be transmitted
  • the user terminal 300 may display a UI for requesting additional information through the display 320 .
  • the terminal 300 of the user using the restaurant may display a UI 810 for requesting information on the expected meal time, a UI 820 for requesting parking information, and a UI 830 for requesting coupon accumulation information.
  • the user terminal 300 may display a UI for requesting personal information and authentication information, as described above.
  • 9A and 9B are diagrams for explaining various methods used to transmit a user's access information to a robot management server according to an embodiment of the present disclosure.
  • the robot 200 may include a QR code 910 in a partial region of a body.
  • the robot 200 may display the QR code on the display 220 that is not a part of the body.
  • a QR code is displayed through the display 220, a temporary QR code whose shape changes over a period of time may be provided.
  • the QR code 910 may include at least one of information required for connection to the robot management server 100, an ID of the robot, or information about a QR code validity time.
  • the robot 200 may include the NFC chip 920 in a portion of the body.
  • the user may access the robot management server 100 by scanning the QR code 910 or the NFC chip 920 provided in the robot 200 . Accordingly, the user can receive a service by directly interacting with the robot itself as well as the identification code located at a specific point of the visited place.
  • the robot management server 100 may transmit an SMS including a temporary URL to the user terminal 300 .
  • the user may transmit his/her contact information to the robot management server 100 through a kiosk (not shown) during the waiting time until receiving the service from the visited place, and the robot management server 100 provides the service to the user.
  • SMS including a temporary URL can be sent to the user's contact information.
  • the user terminal 300 may display the temporary URL 930 provided from the robot management server 100 through the display 320 .
  • the user can access the robot management server 100 by clicking the displayed URL address. Accordingly, the user can receive the service without using an identification code located at a specific point of the visited place.
  • FIG. 9B only the URL provided through SMS has been described, but in addition to this, a temporary URL may be transmitted through an SNS account or the like.
  • FIG. 10 is a block diagram illustrating a configuration of a robot according to an embodiment of the present disclosure.
  • the robot 200 includes a memory 210 , a display 220 , a distance sensor 230 , a processor 240 , a communication interface 250 , a driving unit 260 , and a position sensor 270 . .
  • the memory 210 may store data necessary for various embodiments of the present disclosure.
  • the memory 210 may be implemented in the form of a memory embedded in the robot 200 or may be implemented in the form of a memory detachable to the robot 200 depending on the purpose of data storage. For example, data for driving the robot 200 is stored in a memory embedded in the robot 200 , and data for an extended function of the robot 200 is stored in a memory detachable from the robot 200 .
  • a volatile memory eg, dynamic RAM (DRAM), static RAM (SRAM), or synchronous dynamic RAM (SDRAM), etc.
  • non-volatile memory eg, : OTPROM (one time programmable ROM), PROM (programmable ROM), EPROM (erasable and programmable ROM), EEPROM (electrically erasable and programmable ROM), mask ROM, flash ROM, flash memory (such as NAND flash or NOR flash) , a hard drive, or a solid state drive (SSD).
  • USB port (secure digital), Micro-SD (micro secure digital), Mini-SD (mini secure digital), xD (extreme digital), MMC (multi-media card), etc.), external memory that can be connected to the USB port (e.g., it may be implemented in a form such as a USB memory).
  • the display 220 may be implemented as a display of various types, such as a liquid crystal display (LCD), an organic light emitting diode (OLED) display, a quantum dot light-emitting diode (QLED) display, a plasma display panel (PDP), and the like.
  • the display 220 may include a driving circuit, a backlight unit, etc. that may be implemented in the form of a TFT, a low temperature poly silicon (LTPS) TFT, or an organic TFT (OTFT). Meanwhile, the display 220 may be implemented as a touch screen combined with a touch sensor, a flexible display, a three-dimensional display, or the like.
  • the distance sensor 230 is configured to measure the distance between the robot 200 and the object.
  • the distance sensor 230 may be implemented as a light detection and ranging (LIDAR) or a depth camera.
  • LIDAR light detection and ranging
  • the distance sensor 230 according to an example may measure the distance between the robot 200 and the object through a triangulation method, a time of flight (TOF) measurement method, or a phase difference displacement measurement method.
  • TOF time of flight
  • the processor 240 controls the overall operation of the robot 200 .
  • the processor 240 may be connected to each component of the robot 200 to control the overall operation of the robot 200 .
  • the processor 240 is connected to the memory 210 , the display 220 , the distance sensor 230 , the communication interface 250 , the driving unit 260 , and the position sensor 270 to operate the robot 200 . can be controlled.
  • the processor 240 includes a digital signal processor (DSP), a microprocessor, a central processing unit (CPU), a micro controller unit (MCU), and a micro processing unit (MPU). unit), a Neural Processing Unit (NPU), a controller, an application processor (application processor (AP)), etc. may be named various names, but in the present specification, the processor 240 is described.
  • DSP digital signal processor
  • CPU central processing unit
  • MCU micro controller unit
  • MPU micro processing unit
  • unit a Neural Processing Unit
  • controller an application processor (AP)), etc.
  • AP application processor
  • the processor 240 may be implemented as a system on chip (SoC), large scale integration (LSI), or a field programmable gate array (FPGA) type.
  • SoC system on chip
  • LSI large scale integration
  • FPGA field programmable gate array
  • the processor 240 may include a volatile memory such as SRAM.
  • the communication interface 250 may input and output various types of data.
  • the communication interface 250 is an AP-based Wi-Fi (Wi-Fi, Wireless LAN network), Bluetooth (Bluetooth), Zigbee (Zigbee), wired / wireless LAN (Local Area Network), WAN (Wide Area Network), Ethernet, IEEE 1394, HDMI (High-Definition Multimedia Interface), USB (Universal Serial Bus), MHL (Mobile High-Definition Link), AES/EBU (Audio Engineering Society/ European Broadcasting Union), Optical , Coaxial, etc. to communicate various types of data with an external device (eg, a source device), an external storage medium (eg, a USB memory), and an external server (eg, a web hard drive). can send and receive
  • the data may include access information, information for performing a service, location information, and status information of the robot.
  • the driving unit 260 is a device capable of driving the robot 200 , and according to the control of the processor 240 , the driving unit 260 may adjust the traveling direction and the traveling speed.
  • the driving unit 260 is a power generating device that generates power for the robot 200 to travel (eg, a gasoline engine, a diesel engine, or liquefied petroleum gas (LPG) depending on the fuel used (or energy source). engines, electric motors, etc.), steering devices for controlling the direction of travel (e.g., manual steering, hydraulics steering, electronic control power steering (EPS), etc.), robots (e.g., 200) may include a driving device (eg, wheels, propellers, etc.) for driving.
  • the driving unit 260 may be deformed according to a driving type (eg, a wheel type, a walking type, a flying type, etc.) of the robot 200 .
  • the position sensor 270 is configured to measure the position of the robot 200 .
  • the position sensor 270 may be implemented as a navigation device such as a global positioning system (GPS) or an inertial navigation system (INS), or may be implemented as a displacement sensor such as an electromagnetic induction displacement sensor or a potentiometer.
  • GPS global positioning system
  • INS inertial navigation system
  • the processor 240 may identify location information.
  • FIG. 11 is a block diagram illustrating a configuration of a user terminal according to an embodiment of the present disclosure.
  • the user terminal 300 includes a memory 310 , a display 320 , a communication interface 330 , a processor 340 , and a position sensor 350 .
  • the memory 310 may store data necessary for various embodiments of the present disclosure.
  • the memory 310 may be implemented in the form of a memory embedded in the user terminal 300 or may be implemented in the form of a memory that is detachable from the user terminal 300 according to the purpose of data storage.
  • data for driving the user terminal 300 is stored in a memory embedded in the user terminal 300
  • data for an extended function of the user terminal 300 is detachable from the user terminal 300 . It can be stored in any available memory.
  • volatile memory eg, dynamic RAM (DRAM), static RAM (SRAM), or synchronous dynamic RAM (SDRAM), etc.
  • non-volatile memory non-volatile memory
  • OTPROM one time programmable ROM
  • PROM programmable ROM
  • EPROM erasable and programmable ROM
  • EEPROM electrically erasable and programmable ROM
  • mask ROM flash ROM, flash memory (such as NAND flash or NOR flash, etc.) ), a hard drive, or a solid state drive (SSD), etc.
  • a memory card eg, compact flash (CF)
  • SD secure digital
  • Micro-SD micro secure digital
  • Mini-SD mini secure digital
  • xD extreme digital
  • MMC multi-media card
  • external memory that can be connected to the USB port ( For example, it may be implemented in a form such as a USB memory).
  • the display 320 may be implemented as a display of various types, such as a liquid crystal display (LCD), an organic light emitting diode (OLED) display, a quantum dot light-emitting diode (QLED) display, a plasma display panel (PDP), and the like.
  • the display 320 may include a driving circuit, a backlight unit, etc. that may be implemented in the form of a TFT, a low temperature poly silicon (LTPS) TFT, or an organic TFT (OTFT). Meanwhile, the display 320 may be implemented as a touch screen combined with a touch sensor, a flexible display, a three-dimensional display, or the like.
  • the communication interface 330 may input and output various types of data.
  • the communication interface 330 is an AP-based Wi-Fi (Wi-Fi, Wireless LAN network), Bluetooth (Bluetooth), Zigbee (Zigbee), wired / wireless LAN (Local Area Network), WAN (Wide Area Network), Ethernet, IEEE 1394, HDMI (High-Definition Multimedia Interface), USB (Universal Serial Bus), MHL (Mobile High-Definition Link), AES/EBU (Audio Engineering Society/ European Broadcasting Union), Optical , Coaxial, etc. to communicate various types of data with an external device (eg, a source device), an external storage medium (eg, a USB memory), and an external server (eg, a web hard drive). can send and receive
  • the data may include connection information, location information, and robot status information.
  • the processor 340 controls the overall operation of the user terminal 300 .
  • the processor 340 may be connected to each component of the user terminal 300 to control the overall operation of the user terminal 300 .
  • the processor 340 is connected to the memory 310 , the display 320 , the distance sensor 230 , the communication interface 330 , the driving unit 260 , and the position sensor 350 . You can control the action.
  • the processor 340 includes a digital signal processor (DSP), a microprocessor, a central processing unit (CPU), a micro controller unit (MCU), and a micro processing unit (MPU). unit), a Neural Processing Unit (NPU), a controller, an application processor (application processor (AP)), etc. may be named variously, but in the present specification, it will be referred to as the processor 340 .
  • DSP digital signal processor
  • CPU central processing unit
  • MCU micro controller unit
  • MPU micro processing unit
  • unit a Neural Processing Unit
  • AP application processor
  • the processor 340 may be implemented as a system on chip (SoC), large scale integration (LSI), or a field programmable gate array (FPGA) type.
  • SoC system on chip
  • LSI large scale integration
  • FPGA field programmable gate array
  • the processor 340 may include a volatile memory such as SRAM.
  • the position sensor 350 is a component for measuring the position of the user terminal 300 .
  • the position sensor 350 may be implemented as a navigation device such as a global positioning system (GPS) or an inertial navigation system (INS), or may be implemented as a displacement sensor such as an electromagnetic induction displacement sensor or a potentiometer. Based on the coordinates measured through the location sensor, the processor 340 may identify location information.
  • GPS global positioning system
  • INS inertial navigation system
  • the processor 340 may identify location information.
  • FIG. 12 is a flowchart illustrating a control method according to an embodiment of the present disclosure.
  • the robot control method receives a service request and access information corresponding to the service request from the user terminal (S1210). Next, information for performing a service is identified based on the access information (S1220). Finally, the identified information is transmitted to the robot corresponding to the requested service (S1230).
  • the access information corresponding to the service includes the location information of the user terminal, and the step of transmitting information for performing the service to the identified robot (S1230) is based on the location information of the user terminal and the location information of the identified robot.
  • the step of transmitting information for performing the service to the identified robot is based on the location information of the user terminal and the location information of the identified robot.
  • the access information corresponding to the service includes the user profile information of the user terminal, and the step of transmitting information for performing the service to the identified robot (S1230) is one of the robots identified based on the user profile information.
  • the method may further include transmitting information for performing a service to the identified robot.
  • the user profile information may include at least one of gender information, age information, height information, nationality information, and disability information of the user.
  • the information for performing the service may include at least one of movement request information, service setup information, and information required for the service.
  • the method may further include the steps of requesting status information from the identified robot and transmitting information for performing a service to one of the identified robots based on the status information when the status information is received from the robot.
  • the method may further include transmitting context information corresponding to the identified robot to the user terminal, wherein the context information may include at least one of location information and state information of the robot.
  • the method may further include the steps of identifying whether additional information is required based on the information for performing the service, and providing a UI for requesting additional information to the user terminal when the additional information is identified as necessary.
  • FIG. 13 is a flowchart illustrating a service providing method according to another embodiment of the present disclosure.
  • the user terminal 300 may receive a user's input for a service request (S1301). Subsequently, the user terminal 300 may transmit a service request and access information corresponding to the service request to the robot management server 100 (S1311).
  • the robot management server 100 may identify information for performing a service when access information is received (S1321). Next, the robot management server 100 may request status information from the robot 200 corresponding to the requested service (S1331).
  • the robot 200 may transmit state information to the robot management server 100 .
  • the robot management server 100 may identify a robot to perform a service (S1341), and transmit information for performing a service to the identified robot (S1351).
  • the robot management server 100 may transmit context information to the user terminal 300 (S1352), and the user terminal 300 may provide the received context information to the user (S1361).
  • the robot management server 100 identifies whether additional information is required based on information for performing a service (S1362), and when it is identified that additional information is required, a UI for requesting additional information is displayed to the user terminal It is possible to transmit a control signal to be provided to the user terminal (S1371). Upon receiving the control signal, the user terminal 300 may provide a UI for requesting additional information (S1381).
  • the robot 200 that has received the identified information from the robot management server 100 may perform a service corresponding thereto based on the identified information (S1363).
  • the various embodiments described above may be implemented in a recording medium readable by a computer or a similar device using software, hardware, or a combination thereof.
  • the embodiments described herein may be implemented by the processor 130 itself.
  • embodiments such as procedures and functions described in this specification may be implemented as separate software modules. Each of the software modules may perform one or more functions and operations described herein.
  • computer instructions for performing the processing operation of the robot management server 100 according to various embodiments of the present disclosure described above are to be stored in a non-transitory computer-readable medium.
  • the specific device When the computer instructions stored in this non-transitory computer-readable medium are executed by the processor of the specific device, the specific device performs the processing operation in the robot management server 100 according to the various embodiments described above.
  • the non-transitory computer-readable medium refers to a medium that stores data semi-permanently, not a medium that stores data for a short moment, such as a register, cache, memory, etc., and can be read by a device.
  • Specific examples of the non-transitory computer-readable medium may include a CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, and the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • General Health & Medical Sciences (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Human Resources & Organizations (AREA)
  • Theoretical Computer Science (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Manipulator (AREA)

Abstract

로봇의 제어 방법이 개시된다. 로봇의 제어 방법은 사용자 단말로부터 서비스 요청 및 상기 서비스 요청에 대응되는 접속 정보를 수신하는 단계, 상기 접속 정보에 기초하여 상기 서비스를 수행하기 위한 정보를 식별하는 단계 및 상기 식별된 정보를 상기 요청된 서비스에 대응되는 로봇으로 전송하는 단계를 포함한다.

Description

로봇 관리 서버, 시스템 및 그 제어 방법
본 발명은 사용자에게 로봇 이용 서비스를 제공하는 로봇 관리 서버, 시스템 및 그 제어 방법에 관한 것이다.
최근 전자 기술의 발전에 따라 다양한 유형의 로봇이 개발 및 보급되고 있는 실정이다. 특히, 매장, 카페, 레스토랑 등에서는 사람을 대체하는 로봇이 활발히 보급되고 있다. 이러한 로봇은 고객의 주문 요청을 처리하거나, 고객에게 운반하는 등 동작을 수행할 수 있다.
한편, 고객이 로봇을 통한 서비스를 이용하기 위해서는 고객과 로봇과 직접 인터랙션을 해야하는 불편함이 있었다. 이에 로봇과의 직접적인 인터랙션 없이 로봇 서비스를 이용하는 방법에 대한 지속적인 요구가 있었다.
본 개시는 상술한 필요성에 따른 것으로, 본 발명의 목적은 고객과 로봇의 직접적인 인터랙션 없이 고객에게 서비스를 제공하는 로봇 관리 서버, 시스템 및 그 제어 방법을 제공함에 있다.
이상과 같은 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 로봇 관리 서버는, 서비스에 대응되는 적어도 하나의 로봇의 식별 정보가 저장된 메모리, 통신 인터페이스 및 상기 통신 인터페이스와 연결되어 상기 로봇 관리 서버를 제어하는 프로세서를 포함하며, 상기 프로세서는, 사용자 단말로부터 서비스 요청 및 상기 서비스 요청에 대응되는 접속 정보가 수신되면, 상기 메모리에 저장된 정보에 기초하여 상기 서비스에 대응되는 로봇을 식별하고, 상기 접속 정보에 기초하여 상기 서비스를 수행하기 위한 정보를 식별하고, 상기 식별된 정보를 상기 식별된 로봇으로 전송하도록 상기 통신 인터페이스를 제어할 수 있다
여기서, 상기 서비스에 대응되는 접속 정보는, 상기 사용자 단말의 위치 정보를 포함하며, 상기 프로세서는, 상기 사용자 단말의 위치 정보 및 상기 식별된 로봇의 위치 정보에 기초하여 상기 식별된 로봇 중 하나의 로봇으로 상기 서비스를 수행하기 위한 정보를 전송하도록 상기 통신 인터페이스를 제어할 수 있다.
또한, 상기 서비스에 대응되는 접속 정보는, 상기 사용자 단말의 사용자 프로필 정보를 포함하며, 상기 프로세서는, 상기 사용자 프로필 정보에 기초하여 상기 식별된 로봇 중 하나의 로봇으로 상기 서비스를 수행하기 위한 정보를 전송하도록 상기 통신 인터페이스를 제어할 수 있다.
여기서, 상기 사용자 프로필 정보는, 사용자의 성별 정보, 연령 정보, 신장 정보, 국적 정보 또는 장애 정보 중 적어도 하나를 포함할 수 있다.
한편, 상기 서비스를 수행하기 위한 정보는, 이동 요청 정보, 서비스 셋업 정보 또는 서비스에 요구되는 정보 중 적어도 하나를 포함할 수 있다.
또한, 상기 프로세서는, 상기 식별된 로봇으로 상태 정보를 요청하고, 상기 로봇으로부터 상기 상태 정보가 수신되면, 상기 상태 정보에 기초하여 상기 식별된 로봇 중 하나의 로봇으로 상기 서비스를 수행하기 위한 정보를 전송하도록 상기 통신 인터페이스를 제어할 수 있다.
또한, 상기 프로세서는, 상기 식별된 로봇에 대응되는 컨텍스트 정보를 상기 사용자 단말로 전송하도록 상기 통신 인터페이스를 제어하며, 상기 컨텍스트 정보는, 상기 로봇의 위치 정보 또는 상태 정보 중 적어도 하나를 포함할 수 있다.
또한, 상기 프로세서는, 상기 서비스를 수행하기 위한 정보에 기초하여 부가 정보가 필요한지 식별하고, 상기 부가 정보가 필요한 것으로 식별되면, 상기 부가 정보를 요청하는 UI를 상기 사용자 단말에 제공하도록 하는 제어 신호를 상기 사용자 단말로 전송하도록 상기 통신 인터페이스를 제어할 수 있다.
한편, 본 발명의 일 실시 예에 따른 로봇 및 상기 로봇을 관리하는 관리 서버를 포함하는 시스템은, 로봇 및 사용자 단말로부터 서비스 요청 및 상기 서비스 요청에 대응되는 접속 정보가 수신되면, 상기 서비스에 대응되는 상기 로봇을 식별하고, 상기 접속 정보에 기초하여 상기 서비스를 수행하기 위한 정보를 상기 로봇으로 전송하는 관리 서버를 포함하며, 상기 로봇은, 상기 서비스를 수행하기 위한 정보가 수신되면, 상기 수신된 정보에 기초하여 상기 서비스를 수행할 수 있다.
여기서, 상기 시스템은, 상기 사용자 단말을 더 포함하며, 상기 사용자 단말은, 외부 장치에 구비된 식별 코드에 기초하여 상기 서비스에 대응되는 접속 정보를 상기 관리 서버로 전송할 수 있다.
여기서, 상기 사용자 단말은, 상기 관리 서버로부터 사용자의 부가 정보를 요청하는 신호가 수신되면, 상기 사용자의 부가 정보를 요청하는 UI를 디스플레이할 수 있다.
한편, 상기 로봇은, 상기 관리 서버로부터 상태 정보를 요청하는 신호가 수신되면, 상기 로봇의 상태 정보를 상기 관리 서버로 전송하며, 상기 상태 정보는, 상기 로봇의 배터리 잔량 정보, 기존 서비스 제공 상태에 대한 정보, 현재 위치 정보 또는 이동 상태 정보 중 적어도 하나를 포함할 수 있다.
한편, 본 발명의 일 실시 예에 따른 로봇의 제어 방법은, 사용자 단말로부터 서비스 요청 및 상기 서비스 요청에 대응되는 접속 정보를 수신하는 단계, 상기 접속 정보에 기초하여 상기 서비스를 수행하기 위한 정보를 식별하는 단계 및 상기 식별된 정보를 상기 요청된 서비스에 대응되는 로봇으로 전송하는 단계를 포함할 수 있다.
여기서, 상기 서비스에 대응되는 접속 정보는, 상기 사용자 단말의 위치 정보를 포함하며, 상기 서비스를 수행하기 위한 정보를 상기 식별된 로봇으로 전송하는 단계는, 상기 사용자 단말의 위치 정보 및 상기 식별된 로봇의 위치 정보에 기초하여 상기 식별된 로봇 중 하나의 로봇으로 상기 서비스를 수행하기 위한 정보를 전송할 수 있다.
또한, 상기 서비스에 대응되는 접속 정보는, 상기 사용자 단말의 사용자 프로필 정보를 포함하며, 상기 서비스를 수행하기 위한 정보를 상기 식별된 로봇으로 전송하는 단계는, 상기 사용자 프로필 정보에 기초하여 상기 식별된 로봇 중 하나의 로봇으로 상기 서비스를 수행하기 위한 정보를 상기 식별된 로봇으로 전송하는 단계를 더 포함할 수 있다.
여기서, 상기 사용자 프로필 정보는, 사용자의 성별 정보, 연령 정보, 신장 정보, 국적 정보 또는 장애 정보 중 적어도 하나를 포함할 수 있다.
한편, 상기 서비스를 수행하기 위한 정보는, 이동 요청 정보, 서비스 셋업 정보 또는 서비스에 요구되는 정보 중 적어도 하나를 포함할 수 있다.
또한, 상기 식별된 로봇으로 상태 정보를 요청하는 단계 및 상기 로봇으로부터 상기 상태 정보가 수신되면, 상기 상태 정보에 기초하여 상기 식별된 로봇 중 하나의 로봇으로 상기 서비스를 수행하기 위한 정보를 전송하는 단계를 더 포함할 수 있다.
또한, 상기 식별된 로봇에 대응되는 컨텍스트 정보를 상기 사용자 단말로 전송하는 단계를 더 포함하며, 상기 컨텍스트 정보는, 상기 로봇의 위치 정보 또는 상태 정보 중 적어도 하나를 포함할 수 있다.
또한, 상기 서비스를 수행하기 위한 정보에 기초하여 부가 정보가 필요한지 식별하는 단계 및 상기 부가 정보가 필요한 것으로 식별되면, 상기 부가 정보를 요청하는 UI를 상기 사용자 단말에 제공하도록 하는 단계를 더 포함할 수 있다.
본 개시의 다양한 실시 예에 따르면, 고객과 로봇의 직접적인 인터랙션 없이 고객에게 서비스를 제공할 수 있다.
도 1은 본 개시의 일 실시 예에 따른 로봇 관리 서버를 포함하는 시스템을 설명하기 위한 도면이다.
도 2는 본 개시의 일 실시 예에 따른 로봇 관리 서버의 구성을 설명하기 위한 블록도이다.
도 3은 본 개시의 일 실시 예에 따른 사용자와 로봇의 위치 정보에 기초한 서비스 제공을 설명하기 위한 도면이다.
도 4a 및 4b는 본 개시의 일 실시 예에 따른 사용자의 프로필 정보에 기초한 서비스 제공을 설명하기 위한 도면이다.
도 5는 본 개시의 일 실시 예에 따른 로봇 관리 서버가 서비스를 수행하기 위한 정보를 로봇에 제공하는 것을 설명하기 위한 도면이다.
도 6은 본 개시의 일 실시 예에 따른 로봇의 상태 정보에 기초한 서비스 제공을 설명하기 위한 도면이다.
도 7은 본 개시의 일 실시 예에 따른 로봇을 통한 서비스 제공에 관한 정보를 사용자에게 제공하는 UI에 대해 설명하기 위한 도면이다.
도 8은 본 개시의 일 실시 예에 따른 부가 정보 요청 UI에 대해 설명하기 위한 도면이다.
도 9a 및 9b는 본 개시의 일 실시 예에 따른 사용자의 접속 정보를 로봇 관리 서버로 전송하기 위해 이용되는 다양한 방법을 설명하기 위한 도면이다.
도 10은 본 개시의 일 실시 예에 따른 로봇의 구성을 설명하기 위한 블록도이다.
도 11은 본 개시의 일 실시 예에 따른 사용자 단말의 구성을 설명하기 위한 블록도이다.
도 12는 본 개시의 일 실시 예에 따른 제어 방법을 설명하기 위한 흐름도이다.
도 13은 본 개시의 다른 실시 예에 따른 서비스 제공 방법을 설명하기 위한 흐름도이다.
-
이하에서는 첨부 도면을 참조하여 본 개시를 상세히 설명한다.
본 개시의 실시 예에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 개시의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.
본 개시에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.
A 또는/및 B 중 적어도 하나라는 표현은 "A" 또는 "B" 또는 "A 및 B" 중 어느 하나를 나타내는 것으로 이해되어야 한다.
본 개시에서 사용된 "제1," "제2," "첫째," 또는 "둘째,"등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다.
어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 어떤 구성요소가 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구성되다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 개시에서 "모듈" 혹은 "부"는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 "모듈" 혹은 복수의 "부"는 특정한 하드웨어로 구현될 필요가 있는 "모듈" 혹은 "부"를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서(미도시)로 구현될 수 있다.
본 개시에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
이하 첨부된 도면들을 참조하여 본 개시의 일 실시 예를 보다 상세하게 설명한다.
도 1은 본 개시의 일 실시 예에 따른 로봇 관리 서버를 포함하는 시스템을 설명하기 위한 도면이다.
도 1을 참조하여, 본 개시의 일 실시 예에 따른 시스템(1000)은 로봇 관리 서버(100) 및 적어도 하나 이상의 서비스 로봇(200)을 포함할 수 있다.
여기서, 서비스 로봇(200)은 가이드 봇(Guide Bot) 또는 리테일 봇(Retail Bot) 등을 포함하여 사용자에게 특정 서비스를 제공해 줄 수 있는 로봇일 수 있다.
본 개시의 일 실시 예에 따른 로봇 관리 서버(100)는 사용자 단말로부터 서비스 요청 및 서비스 요청에 대응되는 접속 정보가 수신되면 서비스에 대응되는 로봇을 식별할 수 있다. 또한, 로봇 관리 서버(100)는 접속 정보에 기초하여 서비스를 수행하기 위한 정보를 식별된 로봇으로 전송할 수 있다.
본 개시의 일 실시 예에 따른 로봇(200)은 서비스를 수행하기 위한 정보가 수신되면 수신된 정보에 기초하여 서비스를 수행할 수 있다.
여기서, 본 개시의 일 실시 예에 따른 시스템(1000)은 사용자 단말(300)을 더 포함할 수 있다. 사용자 단말(300)은 사용자가 휴대 가능한 전자 장치를 의미한다. 사용자 단말(300)은 스마트폰으로 구현될 수 있으나, 이에 한정되는 것은 아니며 로봇 관리 서버(100)와 무선으로 통신할 수 있는 전자 장치, 예를 들어 태블릿 PC, 이동 전화기, 영상 전화기, 랩탑 PC, 넷북 컴퓨터, 워크스테이션, PDA, PMP(portable multimedia player), MP3 플레이어, 카메라, 가상 현실(virtual reality(VR)) 구현 장치 또는 웨어러블 장치 등 다양한 기기로 구현될 수 있다.
일 예에 따른 사용자 단말(300)은 외부 장치에 구비된 식별 코드에 기초하여 서비스에 대응되는 접속 정보를 로봇 관리 서버(100)로 전송할 수 있다. 여기서, 식별 코드는 QR 코드, 임시 QR 코드, NFC, URL 중 적어도 하나일 수 있다.
여기서, 사용자 단말(300)은 로봇 관리 서버(100)로부터 사용자의 부가 정보를 요청하는 신호가 수신되면 사용자의 부가 정보를 요청하는 UI를 디스플레이할 수 있다.
한편, 본 개시의 일 실시 예에 따른 로봇(200)은 로봇 관리 서버(100)로부터 상태 정보를 요청하는 신호가 수신되면 로봇(200)의 상태 정보를 로봇 관리 서버(100)로 전송하며, 상태 정보는 로봇(200)의 배터리 잔량 정보, 기존 서비스 제공 상태에 대한 정보, 현재 위치 정보 또는 이동 상태 정보 중 적어도 하나를 포함할 수 있다.
본 명세서에서는 사용자와 로봇의 직접적인 인터랙션 없이 사용자에게 로봇을 통한 서비스를 제공하는 다양한 방법에 대해 설명할 것이다. 도 1에서는 사용자가 QR코드(20)를 이용하여 로봇을 통한 서비스를 이용하는 것을 전제로 로봇 관리 서버(100)의 기능을 설명한다. 일 예에 따른 로봇 관리 서버(100)는 사용자의 단말(300) 및 서비스를 제공하는 로봇(200)과 전기적으로 통신할 수 있다.
사용자가 방문한 장소의 출입구(와 인접한 지점에는 QR코드(20)가 위치할 수 있다. 도 1에서는 사용자가 장소를 방문한 최초의 시점을 상정하고 있으며, QR코드(20)는 반드시 출입구와 인접한 지점에 위치할 필요는 없다.
사용자는 단말(300)에 구비된 카메라(미도시)를 통해 QR 코드(20)를 스캔할 수 있다. 이어서 사용자 단말은 로봇을 통한 서비스 이용을 지원하는 어플리케이션을 구동하거나 웹 사이트에 액세스하는 방식으로 로봇 관리 서버(100)로 접속 정보를 전송할 수 있다.
일 예에 따른 로봇 관리 서버(100)는 사용자 단말(300)로부터 수신된 접속 정보에 기초하여 사용자에게 서비스를 제공할 로봇을 지정할 수 있다. 로봇 관리 서버(100)에 의해 지정된 로봇(200)은 사용자에게 이동하여 접속 정보에 포함된 서비스를 수행하기 위한 정보에 대응되는 서비스를 제공할 수 있다. 따라서 사용자는 로봇(200)에 직접 인터랙션하지 않고도 로봇(200)을 통해 서비스를 제공받을 수 있게 된다.
도 1에서 설명한 QR 코드(20)를 이용한 서비스 제공 이외에도 NFC 태그를 통한 서비스 제공 역시 가능하며, NFC 태그 이후 로봇 관리 서버(100)가 수행하는 일련의 동작은 도 1에서 설명한 QR 코드(20)를 이용한 서비스 제공의 경우와 동일하다.
이에 따라, 이하에서는 사용자와 로봇의 직접적인 인터랙션 없이도 사용자에게 로봇을 통한 서비스를 제공할 수 있는 다양한 실시 예에 대해 좀더 구체적으로 설명하도록 한다.
도 2는 본 개시의 일 실시 예에 따른 로봇 관리 서버의 구성을 설명하기 위한 블록도이다.
도 2를 참조하여, 본 개시의 일 실시 예에 따른 로봇 관리 서버(100)는 메모리(110), 통신 인터페이스(120) 및 프로세서(130)를 포함할 수 있다.
메모리(110)는 본 개시의 다양한 실시 예를 위해 필요한 데이터를 저장할 수 있다. 메모리(110)는 데이터 저장 용도에 따라 로봇 관리 서버(100)에 임베디드된 메모리 형태로 구현되거나, 로봇 관리 서버(100)에 탈부착이 가능한 메모리 형태로 구현될 수도 있다. 예를 들어, 로봇 관리 서버(100)의 구동을 위한 데이터의 경우 로봇 관리 서버(100)에 임베디드된 메모리에 저장되고, 로봇 관리 서버(100)의 확장 기능을 위한 데이터의 경우 로봇 관리 서버(100)에 탈부착이 가능한 메모리에 저장될 수 있다. 한편, 로봇 관리 서버(100)에 임베디드된 메모리의 경우 휘발성 메모리(예: DRAM(dynamic RAM), SRAM(static RAM), 또는 SDRAM(synchronous dynamic RAM) 등), 비휘발성 메모리(non-volatile Memory)(예: OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, 플래시 메모리(예: NAND flash 또는 NOR flash 등), 하드 드라이브, 또는 솔리드 스테이트 드라이브(solid state drive(SSD)) 중 적어도 하나로 구현될 수 있다. 또한, 로봇 관리 서버(100)에 탈부착이 가능한 메모리의 경우 메모리 카드(예를 들어, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital), MMC(multi-media card) 등), USB 포트에 연결가능한 외부 메모리(예를 들어, USB 메모리) 등과 같은 형태로 구현될 수 있다.
통신 인터페이스(120)는 다양한 타입의 데이터를 입력 및 출력할 수 있다. 예를 들어 통신 인터페이스(120)는 AP 기반의 Wi-Fi(와이파이, Wireless LAN 네트워크), 블루투스(Bluetooth), 지그비(Zigbee), 유/무선 LAN(Local Area Network), WAN(Wide Area Network), 이더넷(Ethernet), IEEE 1394, HDMI(High-Definition Multimedia Interface), USB(Universal Serial Bus), MHL(Mobile High-Definition Link), AES/EBU(Audio Engineering Society/ European Broadcasting Union), 옵티컬(Optical), 코액셜(Coaxial) 등과 같은 통신 방식을 통해 외부 장치(예를 들어, 소스 장치), 외부 저장 매체(예를 들어, USB 메모리), 외부 서버(예를 들어 웹 하드)와 다양한 타입의 데이터를 송수신할 수 있다. 여기서, 데이터는 접속 정보, 서비스를 수행하기 위한 정보, 위치 정보 및 로봇의 상태 정보 등을 포함할 수 있다.
일 예에 따라, 통신 인터페이스(120)는 하나의 모듈로 구현될 수 있다. 이 경우 통신 인터페이스(120)는 로봇(200) 및 사용자 단말(300) 모두와 통신할 수 있다.
다른 예에 따라, 통신 인터페이스(120)는 복수의 모델로 구현될 수 있다. 예를 들어, 통신 인터페이스(120)는 로봇(200)과 통신하는 모듈 및 사용자 단말(300)과 통신하는 모듈의 결합으로 구현될 수 있다.
프로세서(130)는 로봇 관리 서버(100)의 동작을 전반적으로 제어한다. 구체적으로, 프로세서(130)는 로봇 관리 서버(100)의 각 구성과 연결되어 로봇 관리 서버(100)의 동작을 전반적으로 제어할 수 있다. 예를 들어, 프로세서(140)는 메모리(110) 및 통신 인터페이스(120)와 연결되어 로봇 관리 서버(100)의 동작을 제어할 수 있다.
일 실시 예에 따라 프로세서(130)는 디지털 시그널 프로세서(digital signal processor(DSP), 마이크로 프로세서(microprocessor), 중앙처리장치(central processing unit(CPU)), MCU(Micro Controller Unit), MPU(micro processing unit), NPU(Neural Processing Unit), 컨트롤러(controller), 어플리케이션 프로세서(application processor(AP)) 등 다양한 이름으로 명명될 수 있으나, 본 명세서에서는 프로세서(130)로 기재한다.
프로세서(130)는 SoC(System on Chip), LSI(large scale integration)로 구현될 수도 있고, FPGA(Field Programmable gate array) 형태로 구현될 수도 있다. 또한, 프로세서(130)는 SRAM 등의 휘발성 메모리를 포함할 수 있다.
일 실시 예에 따른 프로세서(130)는 사용자 단말(300)로부터 서비스 요청에 대응되는 접속 정보가 수신되면 메모리(110)에 저장된 정보에 기초하여 서비스에 대응되는 로봇을 식별할 수 있다.
여기서, 서비스 요청이란 사용자가 제공받고자 하는 서비스에 대한 요청이며 접속 정보에는 서비스 요청에 관한 정보가 포함될 수 있다. 일 예로, 서비스 요청에 관한 정보는 서비스의 종류, 서비스 요청 시각 또는 서비스 제공을 희망하는 인원 수 중 적어도 하나의 정보를 포함할 수 있다.
접속 정보는 서비스 요청에 관한 정보뿐만 아니라, 사용자 단말(300)의 식별 정보, 사용자 단말(300)의 위치 정보 또는 사용자 프로필 정보 중 적어도 하나의 정보를 포함할 수 있다.
일 예에 따른 프로세서(130)는 서비스 요청의 유효성을 판단하고, 만일 서비스 요청이 유효하지 않다면 로봇(200) 및 사용자 단말(300)과의 통신 연결(또는 세션(session) 또는 링크(Link))을 종료할 수 있다. 서비스 요청이 유효할 경우, 프로세서(130)는 메모리(110)에 저장된 로봇의 식별 정보에 기초하여 서비스 요청에 관한 정보에 포함된 서비스의 종류에 대응되는 로봇을 식별할 수 있다.
한편, 일 예에 따른 프로세서(130)는 유효한 서비스 요청에 대응하여 서비스 제공이 가능한 상태임을 안내하는 UI를 제공하도록하는 제어 신호를 사용자 단말(300)로 전송할 수 있다. 일 예에 따른 UI는 사용자에게 서비스 이용에 관한 피드백을 요청할 수 있으며, 프로세서(130)는 기설정된 시간 내에 사용자 단말(300)로부터 피드백 정보가 수신되지 않거나 서비스 종료 요청에 대응되는 정보가 수신되면 로봇(200) 및 사용자 단말(300)과의 통신 연결을 종료할 수 있다.
이어서 프로세서(130)는 접속 정보에 기초하여 서비스를 수행하기 위한 정보를 식별하고, 식별된 정보를 식별된 로봇으로 전송하도록 통신 인터페이스(120)를 제어할 수 있다.
여기서, 서비스를 수행하기 위한 정보는 이동 요청 정보, 서비스 셋업 정보 또는 서비스에 요구되는 정보 중 적어도 하나를 포함할 수 있다. 이동 요청 정보는 사용자 단말의 위치 정보 또는 로봇의 예상 주행 경로 중 적어도 하나를 포함할 수 있다. 또한, 서비스 셋업 정보는 서비스의 특성에 관한 정보일 수 있으며, 서비스에 요구되는 정보는 고객 요청 사항에 관한 정보를 포함할 수 있다.
일 예에 따른 프로세서(130)는 사용자 단말(300)의 위치 정보 및 식별된 로봇의 위치 정보에 기초하여 식별된 로봇 중 하나의 로봇으로 서비스를 수행하기 위한 정보를 전송하도록 통신 인터페이스(120)를 제어할 수 있다. 구체적으로, 프로세서(130)는 사용자 단말(300)과의 거리가 가장 가까운 로봇을 서비스를 제공할 로봇으로 식별하고, 식별된 로봇으로 서비스를 수행하기 위한 정보를 전송할 수 있다. 다른 예로, 프로세서(130)는 로봇(200)과 사용자 단말(300)이 위치하는 공간의 특성에 기초하여 사용자에게 가장 짧은 시간 내에 도달할 수 있는 로봇을 서비스를 제공할 로봇으로 식별할 수도 있다.
일 예에 따른 프로세서(130)는 사용자 단말(300)의 위치 정보에 기초하여 사용자가 서비스 구역을 벗어난 것으로 식별된 경우, 로봇(200) 및 사용자 단말(300)간의 통신 연결을 종료할 수 있다.
한편, 서비스에 대응되는 접속 정보는 사용자 단말(300)의 사용자 프로필 정보를 포함하며, 일 예에 따른 프로세서(130)는 사용자 프로필 정보에 기초하여 식별된 로봇 중 하나의 로봇으로 서비스를 수행하기 위한 정보를 전송하도록 통신 인터페이스(120)를 제어할 수 있다. 여기서, 프로필 정보는 사용자의 성별 정보, 연령 정보, 신장 정보, 국적 정보 또는 장애 정보 중 적어도 하나를 포함할 수 있다.
일 예에 따른 프로세서(130)는 식별된 로봇으로 상태 정보를 요청하고, 로봇으로부터 상태 정보가 수신되면 상태 정보에 기초하여 식별된 로봇 중 하나의 로봇으로 서비스를 수행하기 위한 정보를 전송하도록 통신 인터페이스(120)를 제어할 수 있다.
한편, 본 개시의 일 실시 예에 따른 프로세서(130)는 식별된 로봇에 대응되는 컨텍스트 정보를 사용자 단말(300)로 전송하도록 통신 인터페이스(120)를 제어하며, 컨텍스트 정보는 로봇의 위치 정보 또는 상태 정보 중 적어도 하나를 포함할 수 있다.
한편, 본 개시의 일 실시 예에 따른 프로세서(130)는 서비스를 수행하기 위한 정보에 기초하여 부가 정보가 필요한지 식별하고, 부가 정보가 필요한 것으로 식별되면 부가 정보를 요청하는 UI를 사용자 단말(300)에 제공하도록 하는 제어 신호를 사용자 단말(300)로 전송하도록 통신 인터페이스(120)를 제어할 수 있다.
도 3은 본 개시의 일 실시 예에 따른 사용자와 로봇의 위치 정보에 기초한 서비스 제공을 설명하기 위한 도면이다.
사용자가 방문한 장소(30)는 격벽으로 분리된 방(31, 32) 및 방을 제외한 공간(로비, 복도 등) 등으로 구성될 수 있다. 또한 사용자가 방문한 장소(30)는 식별 코드(21-27)가 위치하는 복수의 지점을 포함할 수 있다. 예를 들어, 복수의 지점은 출입구와 가까운 지점(21) 및 방 내부의 지점(25, 26)과 같이 사용자의 통행 빈도가 높거나 머무르는 시간이 긴 지점을 포함할 수 있다.
방문한 장소(30)에는 복수의 로봇(201, 202)이 위치할 수 있다. 일 예에 따른 복수의 로봇(201, 202)은 복수의 방 각각의 출입문과 인접한 곳에 위치할 수 있다. 도 3에서는 복수의 로봇(201, 202) 모두가 사용자가 제공받기를 희망하는 서비스를 제공할 수 있는 로봇임을 전제하고 설명하도록 한다.
사용자(10)는 방문한 장소의 출입문으로 진입하여 출입문에 인접한 식별 코드(21)를 통해 로봇 관리 서버(100)로 서비스 요청 및 접속 정보를 전송할 수 있다. 이 경우 로봇 관리 서버(100)로 전송되는 접속 정보에는 사용자 단말의 위치 정보가 포함되어 있을 수 있다. 사용자 단말의 위치 정보는 사용자 단말에 구비된 위치 센서(미도시)를 통해 측정된 정보이거나, 사용자가 이용한 식별 코드(21)의 위치에 기초하여 결정된 정보일 수 있다.
본 개시의 일 실시 예에 따른 로봇 관리 서버(100)는 사용자 단말의 위치 정보 및 복수의 로봇 각각의 위치 정보에 기초하여 사용자 단말과 가까이 위치하는 로봇을 사용자에게 서비스를 제공할 로봇으로 식별할 수 있다. 도 3의 경우, 사용자 단말의 위치는 출입문과 인접한 지점(21)이므로 로봇 관리 서버(100)는 해당 지점에 가까이 위치하는 로봇(202)를 사용자에게 서비스를 제공할 로봇으로 식별할 수 있다.
다른 예로, 로봇 관리 서버(100)는 사용자가 방문한 장소의 출입문에서 먼 곳에 위치한 방(31)의 식별 코드(25)를 이용하는 경우 출입문에서 먼 곳에 위치한 로봇(201)을 사용자에게 서비스를 제공할 로봇으로 식별할 수 있다.
로봇 관리 서버(100)는 서비스를 제공할 로봇으로 식별된 로봇으로 사용자가 제공받기를 희망하는 서비스를 수행하기 위한 정보를 전송할 수 있다.
도 4a 및 4b는 본 개시의 일 실시 예에 따른 사용자의 프로필 정보에 기초한 서비스 제공을 설명하기 위한 도면이다.
서비스에 대응되는 접속 정보는 사용자 단말의 사용자 프로필 정보를 포함할 수 있다. 여기서 프로필 정보는 사용자의 성별 정보, 연령 정보, 신장 정보, 국적(사용 언어) 정보 또는 장애 정보 중 적어도 하나를 포함할 수 있다.
로봇 관리 서버(100)는 사용자 프로필 정보에 기초하여 사용자에게 서비스를 제공할 수 있는 로봇을 지정할 수 있다. 도 4a를 참조하면, 본 개시의 일 실시 예에 따른 로봇 관리 서버(100)는 사용자 단말(301)의 사용자 프로필 정보(410)에 기초하여 사용자(11)가 시각장애인임을 식별할 수 있다. 이 경우, 로봇 관리 서버(100)는 사용자(11)에게 서비스를 제공할 수 있는 로봇으로서 시각장애인용 로봇(201)을 지정할 수 있다.
다른 예로, 도 4b를 참조하면, 본 개시의 일 실시 예에 따른 로봇 관리 서버(100)는 사용자 단말(302)의 사용자 프로필 정보(420)에 기초하여 사용자(12)가 신장이 상대적으로 작은 어린이임을 식별할 수 있다. 이 경우, 로봇 관리 서버(100)는 사용자(12)에게 서비스를 제공할 수 있는 로봇으로서 유아용 로봇(202)을 지정할 수 있다. 이를 통해 로봇 관리 서버(100)는 사용자의 특성을 고려하여 최적의 서비스를 제공하는 로봇을 지정할 수 있으므로, 사용자의 편의성이 향상될 수 있다.
도 5는 본 개시의 일 실시 예에 따른 로봇 관리 서버가 서비스를 수행하기 위한 정보를 로봇에 제공하는 것을 설명하기 위한 도면이다.
본 개시의 일 실시 예에 따른 로봇 관리 서버(100)는 사용자에게 서비스를 제공하는 로봇(200)에게 서비스를 수행하기 위한 정보(500)를 전송할 수 있다. 서비스를 수행하기 위한 정보(500)는 이동 요청 정보, 서비스 셋업 정보 또는 서비스에 요구되는 정보 중 적어도 하나를 포함할 수 있다.
도 5를 참조하면, 서비스를 수행하기 위한 정보는 사용자 단말(300)의 위치에 관한 정보(510), 사용자 단말(300)에서 로봇 관리 서버(100)로 서비스 요청이 전송된 시각에 관한 정보(520), 서비스의 종류에 관한 정보(530) 및 고객의 요청사항에 관한 정보(540)를 포함할 수 있다.
본 개시의 일 실시 예에 따른 로봇 관리 서버(100)는 사용자 단말(300)의 위치가 출입구이며(511), 서비스 요청이 전송된 시각이 오후 1시 20분이고(521), 사용자가 제공받기를 희망하는 서비스는 의류 보관이며(531), 고객이 특별히 요청한 사항은 스팀살균(541)이라는 것을 식별할 수 있다.
본 개시의 일 실시 예에 따른 로봇(200)은 수신된 정보(500)를 기초하여 사용자에게 서비스를 제공할 수 있다. 예를 들어, 로봇(200)은 사용자 단말의 위치(510)에 기초하여 주행 경로를 결정할 수 있다. 또한, 서비스 요청 시각(520)에 기초하여 복수의 사용자에 대한 서비스의 우선 순위를 결정할 수 있다. 또한, 로봇(200)은 고객의 요청사항을 처리하기 위해 별도의 장소를 경유하여 필요한 장비를 구비할 수도 있다.
도 6은 본 개시의 일 실시 예에 따른 로봇의 상태 정보에 기초한 서비스 제공을 설명하기 위한 도면이다.
본 개시의 일 실시 예에 따른 로봇 관리 서버(100)는 사용자가 제공받기를 희망하는 서비스를 제공할 수 있는 복수의 로봇(201, 202, 203)으로 상태 정보를 요청할 수 있다. 일 예에 따른 상태 정보는 로봇의 배터리 잔량 정보, 기존 서비스 제공 상태에 대한 정보, 현재 위치 정보 또는 이동 상태 정보 중 적어도 하나를 포함할 수 있다. 여기서, 기존 서비스 제공 상태에 대한 정보는 현재 각 로봇을 이용하기 위해 대기 중인 고객의 수에 관한 정보를 포함할 수 있다.
본 개시의 일 실시 예에 따른 복수의 로봇(201, 202, 203)은 로봇 관리 서버(100)의 요청에 대한 응답으로 각 로봇의 상태 정보를 로봇 관리 서버(100)로 전송할 수 있다.
본 개시의 일 실시 예에 따른 로봇 관리 서버(100)는 복수의 로봇(201, 202, 203)으로부터 수신된 복수의 상태 정보(610, 620, 630)에 기초하여 복수의 로봇(201, 202, 203) 중 하나의 로봇으로 서비스를 수행하기 위한 정보(500)를 전송할 수 있다.
일 예에 따라, 로봇 관리 서버(100)는 로봇의 상태 정보에 포함된 배터리 잔량 및 대기중인 고객 수에 기초하여 사용자에게 서비스를 제공할 로봇을 지정할 수 있다. 도 6을 참조하면, 로봇3(203)은 고장 상태이므로 배터리 잔량 및 대기중인 고객 수와 무관하게 서비스를 제공할 수 없다. 로봇 관리 서버(100)는 로봇 1(201) 및 로봇 2(202) 중 상대적으로 배터리 잔량이 많으며 대기중인 고객 수가 적은 로봇 2(202)를 사용자에게 서비스를 제공할 로봇으로 지정하고, 로봇 2(202)로 서비스를 수행하기 위한 정보(500)를 전송할 수 있다.
도 7은 본 개시의 일 실시 예에 따른 로봇을 통한 서비스 제공에 관한 정보를 사용자에게 제공하는 UI에 대해 설명하기 위한 도면이다.
본 개시의 일 실시 예에 따른 로봇 관리 서버(100)는 식별된 로봇에 대응되는 컨텍스트 정보(700)를 사용자 단말(300)로 전송할 수 있다. 일 예에 따른 컨텍스트 정보는 로봇의 위치 정보 또는 상태 정보 중 적어도 하나를 포함할 수 있다.
본 개시의 일 실시 예에 따른 사용자 단말(300)은 디스플레이(320)를 통해 컨텍스트 정보(700)를 제공하는 UI를 디스플레이할 수 있다. 구체적으로, 사용자 단말(300)은 로봇의 위치 정보를 나타내는 지도 형태의 UI(710)를 디스플레이할 수 있다. 지도 형태의 UI(710) 상에는 사용자 단말의 현 위치(711) 및 사용자에게 할당된 로봇의 위치(712)가 포함될 수 있다.
또한, 본 개시의 일 실시 예에 따른 사용자 단말(300)은 사용자에게 할당된 로봇의 상태 정보 관련 UI(720)를 디스플레이할 수 있다. 일 예에 따른 상태 정보 관련 UI(720)는 로봇의 이미지 및 배터리 잔량은 물론 로봇의 시리얼 넘버(721), 로봇이 제공할 수 있는 기능(722), 로봇의 서비스를 이용하기 위해 대기중인 사용자의 수(723) 및 서비스를 제공받기까지 대기해야하는 예상 시간(724)에 관한 정보를 포함할 수 있다.
또한, 사용자 단말(300)은 서비스 정보 관련 UI(730)를 디스플레이 할 수 있으며, 서비스 정보 관련 UI(730)는 사용자의 요청사항에 관한 정보를 포함할 수 있다. 이를 통해, 사용자는 자신에게 서비스를 제공하는 로봇에 관한 정보와 서비스에 관련된 다양한 정보를 제공받음으로써 서비스 만족도가 향상될 수 있다.
본 개시의 일 실시 예에 따른 로봇 관리 서버(100)는 로봇을 통한 서비스 제공이 완료되는 경우 로봇(200) 및 사용자 단말(300)과의 통신 연결을 종료할 수 있다.
도 8은 본 개시의 일 실시 예에 따른 부가 정보 요청 UI에 대해 설명하기 위한 도면이다.
본 개시의 일 실시 예에 따른 로봇 관리 서버(100)는 서비스를 수행하기 위한 정보에 기초하여 부가 정보가 필요한지 식별할 수 있다. 구체적으로, 사용자의 개인 정보 보호의 필요성이 높은 서비스 또는 추가 인증 정보가 요구되는 금융 서비스 등을 제공하기 위해서는 접속 정보에 포함된 정보 이외의 부가 정보가 필요할 수 있다.
본 개시의 일 실시 예에 따른 로봇 관리 서버(100)는 부가 정보가 필요한 것으로 식별되면 부가 정보를 요청하는 UI를 사용자 단말(300)에 제공하도록 하는 제어 신호(800)를 사용자 단말(300)로 전송할 수 있다.
본 개시의 일 실시 예에 따른 사용자 단말(300)은 디스플레이(320)를 통해 부가 정보를 요청하는 UI를 디스플레이할 수 있다. 구체적으로, 식당을 이용하는 사용자의 단말(300)은 예상 식사 시간에 대한 정보를 요청하는 UI(810), 주차 정보를 요청하는 UI(820) 및 쿠폰 적립 정보를 요청하는 UI(830)를 디스플레이할 수 있다. 이외에도 사용자 단말(300)은 상술한 바와 같이, 개인 정보 및 인증 정보를 요청하는 UI를 디스플레이할 수도 있다.
도 9a 및 9b는 본 개시의 일 실시 예에 따른 사용자의 접속 정보를 로봇 관리 서버로 전송하기 위해 이용되는 다양한 방법을 설명하기 위한 도면이다.
도 9a를 참조하면, 본 개시의 일 실시 예에 따른 로봇(200)은 몸체의 일부 영역에 QR 코드(910)를 구비할 수 있다. 또한, 로봇(200)은 몸체의 일부가 아닌 디스플레이(220)에 QR 코드를 디스플레이할 수 있다. 디스플레이(220)를 통해 QR 코드를 디스플레이하는 경우 일정 시간이 지남에 따라 형태가 변화하는 임시 QR 코드를 제공할 수도 있다.
QR 코드(910)는 로봇 관리 서버(100) 접속에 필요한 정보, 로봇의 ID 또는 QR 코드 유효 시간에 관한 정보 중 적어도 하나의 정보를 포함할 수 있다.
다른 예에 따라, 로봇(200)은 몸체의 일부 영역에 NFC 칩(920)을 구비할 수 있다. 사용자는 로봇(200)에 구비된 QR 코드(910) 또는 NFC 칩(920)를 스캔하여 로봇 관리 서버(100)에 액세스할 수 있다. 이에 따라, 사용자는 방문한 장소의 특정 지점에 위치하는 식별 코드는 물론 로봇 자체에 직접 인터랙션하여 서비스를 제공받을 수 있게 된다.
도 9b는 SMS를 통해 제공된 임시 URL을 통한 서비스 이용을 설명하기 위한 도면이다. 로봇 관리 서버(100)는 기설정된 조건이 충족되는 경우, 사용자 단말(300)로 임시 URL을 포함한 SMS를 전송할 수 있다. 예를 들어, 사용자는 방문한 장소에서 서비스 제공을 받기까지의 대기시간 동안 키오스크(미도시)를 통해 자신의 연락처를 로봇 관리 서버(100)로 전송할 수 있으며, 로봇 관리 서버(100)는 사용자에게 서비스를 제공할 수 있는 시점에 이르러 사용자의 연락처로 임시 URL을 포함한 SMS를 전송할 수 있다.
사용자 단말(300)은 디스플레이(320)를 통해 로봇 관리 서버(100)에서 제공 받은 임시 URL(930)를 디스플레이할 수 있다. 사용자는 디스플레이된 URL 주소를 클릭하여 로봇 관리 서버(100)에 액세스할 수 있다. 이에 따라, 사용자는 방문한 장소의 특정 지점에 위치하는 식별 코드를 이용하지 않고도 서비스를 제공받을 수 있게 된다. 도 9b에서는 SMS를 통한 URL 제공만을 설명하였으나, 이 외에도 SNS 계정 등을 통해 임시 URL이 전송될 수도 있다.
도 10은 본 개시의 일 실시 예에 따른 로봇의 구성을 설명하기 위한 블록도이다.
도 10에 따르면, 로봇(200)은 메모리(210), 디스플레이(220), 거리 센서(230), 프로세서(240), 통신 인터페이스(250), 구동부(260) 및 위치 센서(270)를 포함한다.
메모리(210)는 본 개시의 다양한 실시 예를 위해 필요한 데이터를 저장할 수 있다. 메모리(210)는 데이터 저장 용도에 따라 로봇(200)에 임베디드된 메모리 형태로 구현되거나, 로봇(200)에 탈부착이 가능한 메모리 형태로 구현될 수도 있다. 예를 들어, 로봇(200)의 구동을 위한 데이터의 경우 로봇(200)에 임베디드된 메모리에 저장되고, 로봇(200)의 확장 기능을 위한 데이터의 경우 로봇(200)에 탈부착이 가능한 메모리에 저장될 수 있다. 한편, 로봇(200)에 임베디드된 메모리의 경우 휘발성 메모리(예: DRAM(dynamic RAM), SRAM(static RAM), 또는 SDRAM(synchronous dynamic RAM) 등), 비휘발성 메모리(non-volatile Memory)(예: OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, 플래시 메모리(예: NAND flash 또는 NOR flash 등), 하드 드라이브, 또는 솔리드 스테이트 드라이브(solid state drive(SSD)) 중 적어도 하나로 구현될 수 있다. 또한, 로봇(200)에 탈부착이 가능한 메모리의 경우 메모리 카드(예를 들어, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital), MMC(multi-media card) 등), USB 포트에 연결가능한 외부 메모리(예를 들어, USB 메모리) 등과 같은 형태로 구현될 수 있다.
디스플레이(220)는 LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diodes) 디스플레이, QLED(Quantum dot light-emitting diodes) 디스플레이, PDP(Plasma Display Panel) 등과 같은 다양한 형태의 디스플레이로 구현될 수 있다. 디스플레이(220) 내에는 TFT, LTPS(low temperature poly silicon) TFT, OTFT(organic TFT) 등과 같은 형태로 구현될 수 있는 구동 회로, 백라이트 유닛 등도 함께 포함될 수 있다. 한편, 디스플레이(220)는 터치 센서와 결합된 터치 스크린, 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display) 등으로 구현될 수 있다.
거리 센서(230)는 로봇(200)과 오브젝트와의 거리를 측정하기 위한 구성이다. 거리 센서(230)는 라이다(LIDAR, Light Detection And Ranging) 또는 뎁스 카메라(Depth Camera) 등으로 구현될 수 있다. 일 예에 따른 거리 센서(230)는 삼각 측정법, TOF(Time of flight) 측정법 또는 위상차 변위 측정법을 통해 로봇(200)과 오브젝트 사이의 거리를 측정할 수 있다.
프로세서(240)는 로봇(200)의 동작을 전반적으로 제어한다. 구체적으로, 프로세서(240)는 로봇(200)의 각 구성과 연결되어 로봇(200)의 동작을 전반적으로 제어할 수 있다. 예를 들어, 프로세서(240)는 메모리(210), 디스플레이(220), 거리 센서(230), 통신 인터페이스(250), 구동부(260) 및 위치 센서(270)와 연결되어 로봇(200)의 동작을 제어할 수 있다.
일 실시 예에 따라 프로세서(240)는 디지털 시그널 프로세서(digital signal processor(DSP), 마이크로 프로세서(microprocessor), 중앙처리장치(central processing unit(CPU)), MCU(Micro Controller Unit), MPU(micro processing unit), NPU(Neural Processing Unit), 컨트롤러(controller), 어플리케이션 프로세서(application processor(AP)) 등 다양한 이름으로 명명될 수 있으나, 본 명세서에서는 프로세서(240)로 기재한다.
프로세서(240)는 SoC(System on Chip), LSI(large scale integration)로 구현될 수도 있고, FPGA(Field Programmable gate array) 형태로 구현될 수도 있다. 또한, 프로세서(240)는 SRAM 등의 휘발성 메모리를 포함할 수 있다.
통신 인터페이스(250)는 다양한 타입의 데이터를 입력 및 출력할 수 있다. 예를 들어 통신 인터페이스(250)는 AP 기반의 Wi-Fi(와이파이, Wireless LAN 네트워크), 블루투스(Bluetooth), 지그비(Zigbee), 유/무선 LAN(Local Area Network), WAN(Wide Area Network), 이더넷(Ethernet), IEEE 1394, HDMI(High-Definition Multimedia Interface), USB(Universal Serial Bus), MHL(Mobile High-Definition Link), AES/EBU(Audio Engineering Society/ European Broadcasting Union), 옵티컬(Optical), 코액셜(Coaxial) 등과 같은 통신 방식을 통해 외부 장치(예를 들어, 소스 장치), 외부 저장 매체(예를 들어, USB 메모리), 외부 서버(예를 들어 웹 하드)와 다양한 타입의 데이터를 송수신할 수 있다. 여기서, 데이터는 접속 정보, 서비스를 수행하기 위한 정보, 위치 정보 및 로봇의 상태 정보 등을 포함할 수 있다.
구동부(260)는 로봇(200)을 주행시킬 수 있는 장치이며, 프로세서(240)의 제어에 따라 구동부(260)는 주행 방향 및 주행 속도를 조절할 수 있다. 이를 위해, 구동부(260)는 로봇(200)이 주행하기 위한 동력을 발생시키는 동력발생장치(예: 사용 연료(또는 에너지원)에 따라 가솔린 엔진(engine), 디젤 엔진, LPG(liquefied petroleum gas) 엔진, 전기 모터 등), 주행 방향을 조절하기 위한 조향 장치(예: 기계식 스티어링(manual steering), 유압식 스티어링(hydraulics steering), 전자식 스티어링(electronic control power steering; EPS) 등), 동력에 따라 로봇(200)을 주행시키는 주행 장치(예: 바퀴, 프로펠러 등) 등을 포함할 수 있다. 여기서, 구동부(260)는 로봇(200)의 주행 타입(예: 휠 타입, 보행 타입, 비행 타입 등)에 따라 변형 실시될 수 있다.
위치 센서(270)는 로봇(200)의 위치를 측정하기 위한 구성이다. 위치 센서(270)는 위성항법시스템(GPS) 또는 관성항법장치(INS)와 같은 항법장치로 구현될 수도 있고, 전자 유도식 변위센서 또는 포텐쇼미터와 같은 변위 센서로 구현될 수도 있다. 위치 센서를 통해 측정된 좌표에 기초하여 프로세서(240)는 위치 정보를 식별할 수 있다.
도 11은 본 개시의 일 실시 예에 따른 사용자 단말의 구성을 설명하기 위한 블록도이다.
도 11에 따르면, 사용자 단말(300)은 메모리(310), 디스플레이(320), 통신 인터페이스(330), 프로세서(340) 및 위치 센서(350)를 포함한다.
메모리(310)는 본 개시의 다양한 실시 예를 위해 필요한 데이터를 저장할 수 있다. 메모리(310)는 데이터 저장 용도에 따라 사용자 단말(300)에 임베디드된 메모리 형태로 구현되거나, 사용자 단말(300)에 탈부착이 가능한 메모리 형태로 구현될 수도 있다. 예를 들어, 사용자 단말(300)의 구동을 위한 데이터의 경우 사용자 단말(300)에 임베디드된 메모리에 저장되고, 사용자 단말(300)의 확장 기능을 위한 데이터의 경우 사용자 단말(300)에 탈부착이 가능한 메모리에 저장될 수 있다. 한편, 사용자 단말(300)에 임베디드된 메모리의 경우 휘발성 메모리(예: DRAM(dynamic RAM), SRAM(static RAM), 또는 SDRAM(synchronous dynamic RAM) 등), 비휘발성 메모리(non-volatile Memory)(예: OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, 플래시 메모리(예: NAND flash 또는 NOR flash 등), 하드 드라이브, 또는 솔리드 스테이트 드라이브(solid state drive(SSD)) 중 적어도 하나로 구현될 수 있다. 또한, 사용자 단말(300)에 탈부착이 가능한 메모리의 경우 메모리 카드(예를 들어, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital), MMC(multi-media card) 등), USB 포트에 연결가능한 외부 메모리(예를 들어, USB 메모리) 등과 같은 형태로 구현될 수 있다.
디스플레이(320)는 LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diodes) 디스플레이, QLED(Quantum dot light-emitting diodes) 디스플레이, PDP(Plasma Display Panel) 등과 같은 다양한 형태의 디스플레이로 구현될 수 있다. 디스플레이(320) 내에는 TFT, LTPS(low temperature poly silicon) TFT, OTFT(organic TFT) 등과 같은 형태로 구현될 수 있는 구동 회로, 백라이트 유닛 등도 함께 포함될 수 있다. 한편, 디스플레이(320)는 터치 센서와 결합된 터치 스크린, 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display) 등으로 구현될 수 있다.
통신 인터페이스(330)는 다양한 타입의 데이터를 입력 및 출력할 수 있다. 예를 들어 통신 인터페이스(330)는 AP 기반의 Wi-Fi(와이파이, Wireless LAN 네트워크), 블루투스(Bluetooth), 지그비(Zigbee), 유/무선 LAN(Local Area Network), WAN(Wide Area Network), 이더넷(Ethernet), IEEE 1394, HDMI(High-Definition Multimedia Interface), USB(Universal Serial Bus), MHL(Mobile High-Definition Link), AES/EBU(Audio Engineering Society/ European Broadcasting Union), 옵티컬(Optical), 코액셜(Coaxial) 등과 같은 통신 방식을 통해 외부 장치(예를 들어, 소스 장치), 외부 저장 매체(예를 들어, USB 메모리), 외부 서버(예를 들어 웹 하드)와 다양한 타입의 데이터를 송수신할 수 있다. 여기서, 데이터는 접속 정보, 위치 정보 및 로봇의 상태 정보 등을 포함할 수 있다.
프로세서(340)는 사용자 단말(300)의 동작을 전반적으로 제어한다. 구체적으로, 프로세서(340)는 사용자 단말(300)의 각 구성과 연결되어 사용자 단말(300)의 동작을 전반적으로 제어할 수 있다. 예를 들어, 프로세서(340)는 메모리(310), 디스플레이(320), 거리 센서(230), 통신 인터페이스(330), 구동부(260) 및 위치 센서(350)와 연결되어 사용자 단말(300)의 동작을 제어할 수 있다.
일 실시 예에 따라 프로세서(340)는 디지털 시그널 프로세서(digital signal processor(DSP), 마이크로 프로세서(microprocessor), 중앙처리장치(central processing unit(CPU)), MCU(Micro Controller Unit), MPU(micro processing unit), NPU(Neural Processing Unit), 컨트롤러(controller), 어플리케이션 프로세서(application processor(AP)) 등 다양한 이름으로 명명될 수 있으나, 본 명세서에서는 프로세서(340)로 기재한다.
프로세서(340)는 SoC(System on Chip), LSI(large scale integration)로 구현될 수도 있고, FPGA(Field Programmable gate array) 형태로 구현될 수도 있다. 또한, 프로세서(340)는 SRAM 등의 휘발성 메모리를 포함할 수 있다.
위치 센서(350)는 사용자 단말(300)의 위치를 측정하기 위한 구성이다. 위치 센서(350)는 위성항법시스템(GPS) 또는 관성항법장치(INS)와 같은 항법장치로 구현될 수도 있고, 전자 유도식 변위센서 또는 포텐쇼미터와 같은 변위 센서로 구현될 수도 있다. 위치 센서를 통해 측정된 좌표에 기초하여 프로세서(340)는 위치 정보를 식별할 수 있다.
도 12는 본 개시의 일 실시 예에 따른 제어 방법을 설명하기 위한 흐름도이다.
본 개시의 일 실시 예에 따른 로봇의 제어 방법은 사용자 단말로부터 서비스 요청 및 서비스 요청에 대응되는 접속 정보를 수신한다(S1210). 이어서, 접속 정보에 기초하여 서비스를 수행하기 위한 정보를 식별한다(S1220). 마지막으로, 식별된 정보를 요청된 서비스에 대응되는 로봇으로 전송한다(S1230).
여기서, 서비스에 대응되는 접속 정보는 사용자 단말의 위치 정보를 포함하며, 서비스를 수행하기 위한 정보를 식별된 로봇으로 전송하는 단계(S1230)는 사용자 단말의 위치 정보 및 식별된 로봇의 위치 정보에 기초하여 식별된 로봇 중 하나의 로봇으로 서비스를 수행하기 위한 정보를 전송할 수 있다.
또한, 서비스에 대응되는 접속 정보는 사용자 단말의 사용자 프로필 정보를 포함하며, 서비스를 수행하기 위한 정보를 식별된 로봇으로 전송하는 단계(S1230)는 사용자 프로필 정보에 기초하여 식별된 로봇 중 하나의 로봇으로 서비스를 수행하기 위한 정보를 식별된 로봇으로 전송하는 단계를 더 포함할 수 있다.
여기서, 사용자 프로필 정보는 사용자의 성별 정보, 연령 정보, 신장 정보, 국적 정보 또는 장애 정보 중 적어도 하나를 포함할 수 있다.
한편, 서비스를 수행하기 위한 정보는 이동 요청 정보, 서비스 셋업 정보 또는 서비스에 요구되는 정보 중 적어도 하나를 포함할 수 있다.
또한, 식별된 로봇으로 상태 정보를 요청하는 단계 및 로봇으로부터 상태 정보가 수신되면 상태 정보에 기초하여 식별된 로봇 중 하나의 로봇으로 서비스를 수행하기 위한 정보를 전송하는 단계를 더 포함할 수 있다.
또한, 식별된 로봇에 대응되는 컨텍스트 정보를 사용자 단말로 전송하는 단계를 더 포함하며, 컨텍스트 정보는 로봇의 위치 정보 또는 상태 정보 중 적어도 하나를 포함할 수 있다.
또한, 서비스를 수행하기 위한 정보에 기초하여 부가 정보가 필요한지 식별하는 단계 및 부가 정보가 필요한 것으로 식별되면 부가 정보를 요청하는 UI를 사용자 단말에 제공하도록 하는 단계를 더 포함할 수 있다.
한편, 상술한 본 개시의 다양한 실시 예들에 따른 방법들은, 기존 로봇에 설치 가능한 애플리케이션 형태로 구현될 수 있다.
또한, 상술한 본 개시의 다양한 실시 예들에 따른 방법들은, 기존 로봇에 대한 소프트웨어 업그레이드, 또는 하드웨어 업그레이드 만으로도 구현될 수 있다.
또한, 상술한 본 개시의 다양한 실시 예들은 로봇에 구비된 임베디드 서버 또는 적어도 하나의 외부 서버를 통해 수행되는 것도 가능하다.
도 13은 본 개시의 다른 실시 예에 따른 서비스 제공 방법을 설명하기 위한 흐름도이다.
본 개시의 다른 실시 예에 따른 사용자 단말(300)은 서비스 요청을 위한 사용자의 입력을 수신할 수 있다(S1301). 이어서 사용자 단말(300)은 로봇 관리 서버(100)로 서비스 요청 및 서비스 요청에 대응되는 접속 정보를 전송할 수 있다(S1311).
본 개시의 다른 실시 예에 따른 로봇 관리 서버(100)는 접속 정보가 수신되면 서비스를 수행하기 위한 정보를 식별할 수 있다(S1321). 이어서, 로봇 관리 서버(100)는 요청된 서비스에 대응되는 로봇(200)으로 상태 정보를 요청할 수 있다(S1331).
본 개시의 다른 실시 예에 따른 로봇(200)은 로봇 관리 서버(100)로 상태 정보를 전송할 수 있다. 이어서, 로봇 관리 서버(100)는 서비스를 수행할 로봇을 식별하고(S1341), 식별된 로봇으로 서비스를 수행하기 위한 정보를 전송할 수 있다(S1351). 이와 동시에 로봇 관리 서버(100)는 컨텍스트 정보를 사용자 단말(300)로 전송하고(S1352), 사용자 단말(300)은 사용자에게 수신된 컨텍스트 정보를 제공할 수 있다(S1361).
본 개시의 다른 실시 예에 따른 로봇 관리 서버(100)는 서비스를 수행하기 위한 정보에 기초하여 부가 정보가 필요한지 식별하고(S1362), 부가 정보가 필요한 것으로 식별되면 부가 정보를 요청하는 UI를 사용자 단말에 제공하도록 하는 제어 신호를 사용자 단말로 전송할 수 있다(S1371). 제어 신호를 수신한 사용자 단말(300)은 부가 정보를 요청하는 UI를 제공할 수 있다(S1381).
로봇 관리 서버(100)로부터 식별된 정보를 수신한 로봇(200)은 식별된 정보에 기초하여 그에 대응되는 서비스를 수행할 수 있다(S1363).
한편, 이상에서 설명된 다양한 실시 예들은 소프트웨어(software), 하드웨어(hardware) 또는 이들의 조합을 이용하여 컴퓨터(computer) 또는 이와 유사한 장치로 읽을 수 있는 기록 매체 내에서 구현될 수 있다. 일부 경우에 있어 본 명세서에서 설명되는 실시 예들이 프로세서(130) 자체로 구현될 수 있다. 소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시 예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 동작을 수행할 수 있다.
한편, 상술한 본 개시의 다양한 실시 예들에 따른 로봇 관리 서버(100)의 프로세싱 동작을 수행하기 위한 컴퓨터 명령어(computer instructions)는 비일시적 컴퓨터 판독 가능 매체(non-transitory computer-readable medium) 에 저장될 수 있다. 이러한 비일시적 컴퓨터 판독 가능 매체에 저장된 컴퓨터 명령어는 특정 기기의 프로세서에 의해 실행되었을 때 상술한 다양한 실시 예에 따른 로봇 관리 서버(100)에서의 처리 동작을 특정 기기가 수행하도록 한다.
비일시적 컴퓨터 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 비일시적 컴퓨터 판독 가능 매체의 구체적인 예로는, CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등이 있을 수 있다.
이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시에 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해 되어져서는 안될 것이다.

Claims (15)

  1. 로봇 관리 서버에 있어서,
    서비스에 대응되는 적어도 하나의 로봇의 식별 정보가 저장된 메모리;
    통신 인터페이스; 및
    상기 통신 인터페이스와 연결되어 상기 로봇 관리 서버를 제어하는 프로세서;를 포함하며,
    상기 프로세서는,
    사용자 단말로부터 서비스 요청 및 상기 서비스 요청에 대응되는 접속 정보가 수신되면, 상기 메모리에 저장된 정보에 기초하여 상기 서비스에 대응되는 로봇을 식별하고,
    상기 접속 정보에 기초하여 상기 서비스를 수행하기 위한 정보를 식별하고, 상기 식별된 정보를 상기 식별된 로봇으로 전송하도록 상기 통신 인터페이스를 제어하는, 로봇 관리 서버.
  2. 제1항에 있어서,
    상기 서비스에 대응되는 접속 정보는,
    상기 사용자 단말의 위치 정보를 포함하며,
    상기 프로세서는,
    상기 사용자 단말의 위치 정보 및 상기 식별된 로봇의 위치 정보에 기초하여 상기 식별된 로봇 중 하나의 로봇으로 상기 서비스를 수행하기 위한 정보를 전송하도록 상기 통신 인터페이스를 제어하는, 로봇 관리 서버.
  3. 제1항에 있어서,
    상기 서비스에 대응되는 접속 정보는,
    상기 사용자 단말의 사용자 프로필 정보를 포함하며,
    상기 프로세서는,
    상기 사용자 프로필 정보에 기초하여 상기 식별된 로봇 중 하나의 로봇으로 상기 서비스를 수행하기 위한 정보를 전송하도록 상기 통신 인터페이스를 제어하는, 로봇 관리 서버.
  4. 제3항에 있어서,
    상기 사용자 프로필 정보는,
    사용자의 성별 정보, 연령 정보, 신장 정보, 국적 정보 또는 장애 정보 중 적어도 하나를 포함하는, 로봇 관리 서버.
  5. 제1항에 있어서,
    상기 서비스를 수행하기 위한 정보는,
    이동 요청 정보, 서비스 셋업 정보 또는 서비스에 요구되는 정보 중 적어도 하나를 포함하는, 로봇 관리 서버.
  6. 제1항에 있어서,
    상기 프로세서는,
    상기 식별된 로봇으로 상태 정보를 요청하고,
    상기 로봇으로부터 상기 상태 정보가 수신되면, 상기 상태 정보에 기초하여 상기 식별된 로봇 중 하나의 로봇으로 상기 서비스를 수행하기 위한 정보를 전송하도록 상기 통신 인터페이스를 제어하는, 로봇 관리 서버.
  7. 제1항에 있어서,
    상기 프로세서는,
    상기 식별된 로봇에 대응되는 컨텍스트 정보를 상기 사용자 단말로 전송하도록 상기 통신 인터페이스를 제어하며,
    상기 컨텍스트 정보는,
    상기 로봇의 위치 정보 또는 상태 정보 중 적어도 하나를 포함하는, 로봇 관리 서버.
  8. 제1항에 있어서,
    상기 프로세서는,
    상기 서비스를 수행하기 위한 정보에 기초하여 부가 정보가 필요한지 식별하고,
    상기 부가 정보가 필요한 것으로 식별되면, 상기 부가 정보를 요청하는 UI를 상기 사용자 단말에 제공하도록 하는 제어 신호를 상기 사용자 단말로 전송하도록 상기 통신 인터페이스를 제어하는, 로봇 관리 서버.
  9. 로봇 및 상기 로봇을 관리하는 관리 서버를 포함하는 시스템에 있어서,
    로봇; 및
    사용자 단말로부터 서비스 요청 및 상기 서비스 요청에 대응되는 접속 정보가 수신되면, 상기 서비스에 대응되는 상기 로봇을 식별하고,
    상기 접속 정보에 기초하여 상기 서비스를 수행하기 위한 정보를 상기 로봇으로 전송하는 관리 서버;를 포함하며,
    상기 로봇은,
    상기 서비스를 수행하기 위한 정보가 수신되면, 상기 수신된 정보에 기초하여 상기 서비스를 수행하는, 시스템.
  10. 제9항에 있어서,
    상기 시스템은,
    상기 사용자 단말을 더 포함하며,
    상기 사용자 단말은,
    외부 장치에 구비된 식별 코드에 기초하여 상기 서비스에 대응되는 접속 정보를 상기 관리 서버로 전송하는, 시스템.
  11. 제10항에 있어서,
    상기 사용자 단말은,
    상기 관리 서버로부터 사용자의 부가 정보를 요청하는 신호가 수신되면, 상기 사용자의 부가 정보를 요청하는 UI를 디스플레이하는, 시스템.
  12. 제9항에 있어서,
    상기 로봇은,
    상기 관리 서버로부터 상태 정보를 요청하는 신호가 수신되면, 상기 로봇의 상태 정보를 상기 관리 서버로 전송하며,
    상기 상태 정보는,
    상기 로봇의 배터리 잔량 정보, 기존 서비스 제공 상태에 대한 정보, 현재 위치 정보 또는 이동 상태 정보 중 적어도 하나를 포함하는, 시스템.
  13. 로봇의 제어 방법에 있어서,
    사용자 단말로부터 서비스 요청 및 상기 서비스 요청에 대응되는 접속 정보를 수신하는 단계;
    상기 접속 정보에 기초하여 상기 서비스를 수행하기 위한 정보를 식별하는 단계; 및
    상기 식별된 정보를 상기 요청된 서비스에 대응되는 로봇으로 전송하는 단계;를 포함하는, 제어 방법.
  14. 제13항에 있어서,
    상기 서비스에 대응되는 접속 정보는,
    상기 사용자 단말의 위치 정보를 포함하며,
    상기 서비스를 수행하기 위한 정보를 상기 식별된 로봇으로 전송하는 단계는,
    상기 사용자 단말의 위치 정보 및 상기 식별된 로봇의 위치 정보에 기초하여 상기 식별된 로봇 중 하나의 로봇으로 상기 서비스를 수행하기 위한 정보를 전송하는, 제어 방법.
  15. 제13항에 있어서,
    상기 서비스에 대응되는 접속 정보는,
    상기 사용자 단말의 사용자 프로필 정보를 포함하며,
    상기 서비스를 수행하기 위한 정보를 상기 식별된 로봇으로 전송하는 단계는,
    상기 사용자 프로필 정보에 기초하여 상기 식별된 로봇 중 하나의 로봇으로 상기 서비스를 수행하기 위한 정보를 상기 식별된 로봇으로 전송하는 단계;를 더 포함하는, 제어 방법.
PCT/KR2020/016255 2020-10-22 2020-11-18 로봇 관리 서버, 시스템 및 그 제어 방법 WO2022085844A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2020-0137561 2020-10-22
KR1020200137561A KR20220053291A (ko) 2020-10-22 2020-10-22 로봇 관리 서버, 시스템 및 그 제어 방법

Publications (1)

Publication Number Publication Date
WO2022085844A1 true WO2022085844A1 (ko) 2022-04-28

Family

ID=81289843

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/016255 WO2022085844A1 (ko) 2020-10-22 2020-11-18 로봇 관리 서버, 시스템 및 그 제어 방법

Country Status (2)

Country Link
KR (1) KR20220053291A (ko)
WO (1) WO2022085844A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007115275A (ja) * 2007-01-12 2007-05-10 Nippon Telegr & Teleph Corp <Ntt> ロボット制御システム
KR20100007386A (ko) * 2008-07-14 2010-01-22 삼성전자주식회사 휴대 단말기와 동기화된 로봇의 이벤트 실행 방법 및 그시스템
US20160334800A1 (en) * 2015-05-12 2016-11-17 Samsung Electronics Co., Ltd. Robot and controlling method thereof
JP2017068681A (ja) * 2015-09-30 2017-04-06 ソフトバンク株式会社 サービス提供システム
KR20190123706A (ko) * 2017-04-25 2019-11-01 김현민 스마트 휴대 기기를 이용한 스마트 기기와 로봇의 개인 맞춤형 서비스 운용 시스템 및 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007115275A (ja) * 2007-01-12 2007-05-10 Nippon Telegr & Teleph Corp <Ntt> ロボット制御システム
KR20100007386A (ko) * 2008-07-14 2010-01-22 삼성전자주식회사 휴대 단말기와 동기화된 로봇의 이벤트 실행 방법 및 그시스템
US20160334800A1 (en) * 2015-05-12 2016-11-17 Samsung Electronics Co., Ltd. Robot and controlling method thereof
JP2017068681A (ja) * 2015-09-30 2017-04-06 ソフトバンク株式会社 サービス提供システム
KR20190123706A (ko) * 2017-04-25 2019-11-01 김현민 스마트 휴대 기기를 이용한 스마트 기기와 로봇의 개인 맞춤형 서비스 운용 시스템 및 방법

Also Published As

Publication number Publication date
KR20220053291A (ko) 2022-04-29

Similar Documents

Publication Publication Date Title
WO2016060480A1 (en) Electronic device and method for spoken interaction thereof
WO2018143498A1 (ko) 근거리 무선 통신 기술을 이용한 호출 시스템
WO2012157850A2 (ko) 실시간 지도 데이터 업데이트 시스템 및 방법
WO2019132410A1 (en) Electronic device and control method thereof
WO2018056617A1 (ko) 웨어러블 장치 및 이의 위젯 제공 방법
WO2012020867A1 (ko) 서비스 존에서 제공되는 서비스 정보를 표시하기 위한 장치 및 방법
WO2022085844A1 (ko) 로봇 관리 서버, 시스템 및 그 제어 방법
WO2022154153A1 (ko) 로봇 및 그 제어 방법
WO2014175534A1 (ko) 승하차 관리 방법, 이를 위한 장치 및 시스템
WO2018074909A1 (ko) 탑승 정보 안내 시스템, 방법 및 절차 관리 장치, 방법
WO2014061859A1 (ko) 댓글을 분석하고 표시할 수 있는 방법, 이를 위한 장치 및 시스템
WO2018012653A1 (ko) 무선랜 핑거프린트에 대한 가맹점 라벨링 방법, 가맹점 라벨링 장치 및 가맹점 라벨링 시스템
WO2014030842A1 (ko) 정보 제공 시스템 및 방법, 이를 위한 장치 및 단말기
WO2018088703A1 (ko) 운전 숙련도를 고려한 주차장 공유 시스템, 그 방법 및 컴퓨터 프로그램이 기록된 기록매체
WO2018088702A1 (ko) 방문 차량을 위한 주차장소 예약 시스템, 그 방법 및 컴퓨터 프로그램이 기록된 기록매체
WO2015178555A1 (ko) 경로 안내 서비스 제공 시스템 및 방법, 그리고 이를 위한 장치 및 컴퓨터 프로그램이 기록된 기록매체
WO2023008633A1 (ko) 물품에 대한 정보를 사용자에게 제공하는 방법 및 그 장치
WO2021201425A1 (ko) 차량의 주행 안내 방법 및 전자 장치
WO2017126809A1 (ko) 네트워크 연결을 위한 전자 장치 및 방법
WO2017164671A1 (ko) 식별 정보를 제공하는 전자 장치 및 방법
WO2017043749A1 (ko) 모바일 커머스 서비스 장치, 초음파 송수신 장치를 이용한 모바일 커머스 서비스 방법 및 컴퓨터 프로그램이 기록된 기록매체
WO2017217613A1 (ko) 머신러닝을 이용한 동영상 컨텐츠의 자막 생성 및 공유 방법
WO2014035150A1 (en) Method and device for displaying information
WO2023008720A1 (ko) 로봇 및 그 제어 방법
WO2023003158A1 (ko) 로봇 및 그 제어 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20958794

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20958794

Country of ref document: EP

Kind code of ref document: A1