WO2021118089A1 - Robot and control method thereof - Google Patents

Robot and control method thereof Download PDF

Info

Publication number
WO2021118089A1
WO2021118089A1 PCT/KR2020/016178 KR2020016178W WO2021118089A1 WO 2021118089 A1 WO2021118089 A1 WO 2021118089A1 KR 2020016178 W KR2020016178 W KR 2020016178W WO 2021118089 A1 WO2021118089 A1 WO 2021118089A1
Authority
WO
WIPO (PCT)
Prior art keywords
robot
landmark
information
destination
image
Prior art date
Application number
PCT/KR2020/016178
Other languages
French (fr)
Korean (ko)
Inventor
채희홍
문보석
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Publication of WO2021118089A1 publication Critical patent/WO2021118089A1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3644Landmark guidance, e.g. using POIs or conspicuous other objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • G01C21/3676Overview of the route on the road map

Definitions

  • the present disclosure relates to a robot and a control method thereof, and more particularly, to a robot guiding a path and a control method thereof.
  • a user performs a route search through a display device provided in a building in order to search for a route to a desired destination.
  • a conventional display device provides a map in a store, and after confirming the location of the destination on the map, the user moves by memorizing the route from the origin to the destination.
  • the present disclosure has been devised to solve the above-described problems, and an object of the present disclosure is to provide a robot and a control method thereof that allow a user to easily arrive at a desired destination through route guidance.
  • a robot for achieving the above object, when a user command for input of a sensor, a communication unit, a display and a destination is received, information on the location of the destination and sensing data received from the sensor transmits information on the position of the robot determined based on the communication unit to the server, and from the server, the landmark located on the path from the position of the robot to the position of the destination and from the landmark It may include a processor that receives information for accessing a web site providing an image including information on a direction for moving to a destination through the communication unit, and controls the display to display the received information.
  • the website may provide a plurality of images including the plurality of landmarks.
  • the website may provide the plurality of images by arranging them based on the positions of the plurality of landmarks on the path.
  • the plurality of landmarks including first and second landmarks sequentially located on the path from the position of the robot, the website, from the first landmark and the first landmark Provide a first image including information on a direction for moving to the second landmark and a second image including information on a direction for moving from the second landmark and the second landmark to the destination can do.
  • the web site may provide a map image indicating a path from the position of the robot to the destination through a web page of the web site, and the plurality of images.
  • the web site may provide the map image to an area of the web page in which the location attribute is set to fixed.
  • the map image may include a graphical user interface (GUI) indicating the landmark in an area where the landmark is located on the map image.
  • GUI graphical user interface
  • the processor may receive information about the image from the server and control the display to display the image.
  • the processor receives the information about the landmark from the server, determines the position of the landmark based on pre-stored map information, and a direction for moving from the position of the robot to the position of the landmark may be determined and the display may be controlled to display information on the direction.
  • the control method of the robot when a user command for inputting a destination is received, transmitting information on the location of the destination and information on the location of the robot to a server, the Information for accessing from a server to a website providing an image including information on a landmark located on a path from the position of the robot to the position of the destination and information on a direction for moving from the landmark to the destination It may include receiving and displaying the received information.
  • the website may provide a plurality of images including the plurality of landmarks.
  • the website may provide the plurality of images by arranging them based on the positions of the plurality of landmarks on the path.
  • the plurality of landmarks including first and second landmarks sequentially located on the path from the position of the robot, the website, from the first landmark and the first landmark Provide a first image including information on a direction for moving to the second landmark and a second image including information on a direction for moving from the second landmark and the second landmark to the destination can do.
  • the web site may provide a map image indicating a path from the position of the robot to the destination through a web page of the web site, and the plurality of images.
  • the web site may provide the map image to an area of the web page in which the location attribute is set to fixed.
  • the map image may include a GUI indicating the landmark in an area on the map image in which the landmark is located.
  • the control method may further include receiving information about the image from the server and displaying the image.
  • control method for receiving information about the landmark from the server, determining the position of the landmark based on pre-stored map information, and moving from the position of the robot to the position of the landmark
  • the method may further include determining a direction and displaying information about the direction.
  • a user may be provided with an image including a path from a current location to a destination and an image including a landmark located on the path through the robot. Accordingly, the user can easily move to a desired destination while checking the landmark located on the route.
  • 1 is a diagram illustrating a conventional display device performing a route guidance function.
  • FIG. 2 is a block diagram illustrating a robot according to an embodiment of the present disclosure.
  • FIG. 3 is a flowchart for explaining the operation of the robot according to an embodiment of the present disclosure.
  • FIG. 4 is a diagram illustrating a menu displayed on a display of a robot according to an embodiment of the present disclosure.
  • FIG. 5 is a diagram illustrating a screen for guiding a route displayed on a display of a robot according to an embodiment of the present disclosure.
  • FIG. 6 is a diagram illustrating a path search result screen displayed on a display of a robot according to an embodiment of the present disclosure.
  • FIG. 7 is a diagram illustrating a user terminal device displaying an image including a landmark according to an embodiment of the present disclosure.
  • FIG. 8 is a diagram illustrating a user terminal device displaying a plurality of images including landmarks according to an embodiment of the present disclosure.
  • FIG. 9A is a diagram illustrating a case in which a scroll command is input to a user terminal device according to an embodiment of the present disclosure.
  • 9B is a diagram illustrating a case in which a scroll command is input to a user terminal device according to an embodiment of the present disclosure.
  • 9C is a diagram illustrating a case in which a scroll command is input to a user terminal device according to an embodiment of the present disclosure.
  • FIG. 10 is a diagram illustrating a GUI indicating a landmark according to an embodiment of the present disclosure.
  • FIG. 11 is a diagram illustrating an embodiment in which a robot displays an image including a landmark according to an embodiment of the present disclosure.
  • FIG. 12 is a detailed block diagram illustrating a robot according to an embodiment of the present disclosure.
  • expressions such as “have,” “may have,” “include,” or “may include” indicate the presence of a corresponding characteristic (eg, a numerical value, function, operation, or component such as a part). and does not exclude the presence of additional features.
  • expressions such as “A or B,” “at least one of A and/and B,” or “one or more of A or/and B” may include all possible combinations of the items listed together.
  • “A or B,” “at least one of A and B,” or “at least one of A or B” means (1) includes at least one A, (2) includes at least one B; Or (3) it may refer to all cases including both at least one A and at least one B.
  • a component eg, a first component is "coupled with/to (operatively or communicatively)" to another component (eg, a second component)
  • another component eg, a second component
  • the certain element may be directly connected to the other element or may be connected through another element (eg, a third element).
  • a component eg, a first component
  • another component eg, a second component
  • a device configured to may mean that the device is “capable of” with other devices or parts.
  • a processor configured (or configured to perform) A, B, and C refers to a dedicated processor (eg, an embedded processor) for performing the operations, or by executing one or more software programs stored in a memory device.
  • a generic-purpose processor eg, a CPU or an application processor
  • a “module” or “unit” performs at least one function or operation, and may be implemented as hardware or software, or a combination of hardware and software.
  • a plurality of “modules” or a plurality of “units” are integrated into at least one module and implemented with at least one processor (not shown) except for “modules” or “units” that need to be implemented with specific hardware.
  • FIG. 2 is a block diagram illustrating a robot according to an embodiment of the present disclosure
  • FIG. 3 is a flowchart illustrating an operation of the robot according to an embodiment of the present disclosure.
  • the robot 100 may be a robot that performs a route guidance function.
  • the path may be a path from the current location of the robot 100 to a destination input by the user, as well as a path from a source input by the user to the destination input by the user.
  • the robot 100 may perform various functions in addition to the above-described path guidance function.
  • the robot 100 may perform an air purification operation while traveling in a space within a building, or may perform product description or product demonstration in a store in the building.
  • the robot 100 may include a sensor 110 , a communication unit 120 , a display 130 , and a processor 140 .
  • the processor 140 controls the overall operation of the robot 100 .
  • the processor 140 may drive an operating system or an application program to control various components connected to the processor 140 , for example, the sensor 110 , the communication unit 120 , and the display 130 , and various data It can perform processing and calculations.
  • the processor 140 may control the display 130 to display a menu related to the function of the robot 100 .
  • the processor 140 may include a menu for performing a path guidance function, a product
  • the display 130 may be controlled to display a menu for performing a description function and a menu for performing a product demonstration function.
  • the robot 100 may further include a memory (not shown) for storing information related to the function of the robot 100, and the processor 140 based on the information stored in the memory (not shown).
  • the display 130 may be controlled to display a menu related to the function of the robot 100 .
  • the display 130 includes various types of displays such as Liquid Crystal Display Panel (LCD), Light Emitting Diode (LED), Organic Light Emitting Diodes (OLED), Liquid Crystal on Silicon (LCoS), Digital Light Processing (DLP), and the like.
  • LCD Liquid Crystal Display Panel
  • LED Light Emitting Diode
  • OLED Organic Light Emitting Diodes
  • LCDoS Liquid Crystal on Silicon
  • DLP Digital Light Processing
  • the display 130 may be implemented as a touch screen in combination with a touch sensing unit.
  • the processor 140 may control the display 130 to display a screen for route guidance.
  • the user command for selecting a menu for performing the route guidance function may be a user touch touching the display 130 implemented as a touch screen.
  • a user command may be received through a microphone (not shown) of the robot 100 .
  • the processor 140 analyzes the user's voice through a speech to text (STT) algorithm and selects a menu for performing a route guidance function on the user's voice. If it is determined that voice is included, the display 130 may be controlled to display a screen for route guidance.
  • STT speech to text
  • the screen for route guidance may include a UI 510 for inputting a destination, as shown in FIG. 5 .
  • the screen 500 for route guidance may further include a keypad including number keys, special keys, character keys, and the like.
  • the screen 500 for route guidance may further include a map image 520 as shown in FIG. 5 .
  • the map image 520 is information about a plurality of stores located on the floor where the robot 100 is located in a building divided into a plurality of floors (eg, information on the name of the store, information on the location of the store) information, etc.) may be included.
  • the screen 500 for route guidance further includes a UI for floor selection, and the processor 140 is a user command for selecting a floor different from the floor on which the robot 100 is located.
  • the display 130 may be controlled to display the map image of the selected floor on the screen 500 for route guidance according to a user command.
  • the processor 140 may receive a user command for inputting a destination ( S310 ).
  • the user command for inputting the destination may be a user touch touching the display 130 implemented as a touch screen.
  • the processor 140 controls the display 130 to display a keypad including a number key, a special key, a character key, and the like, and the keypad It is possible to receive a user command for inputting a destination through .
  • a keypad is displayed when a user command to touch the UI 510 for inputting a destination is received, this is only an exemplary embodiment.
  • the screen 500 for route guidance may include a UI 510 and a keypad for inputting a destination together.
  • the user command may be received through a microphone (not shown) of the robot 100 .
  • the processor 140 may analyze the user's voice through an STT algorithm and determine a word related to a place included in the user's voice as a destination.
  • the processor 140 may transmit information on the location of the robot 100 and information on the location of the destination to a server (not shown) ( S320 ). Specifically, when a user command for inputting a destination is received, the processor 140 includes information on the location of the robot 100, information on the location of the destination, and the path from the location of the robot 100 to the location of the destination. It is possible to control the communication unit 120 to transmit a signal requesting information about the server (not shown).
  • the robot 100 and the server may be connected through various communication methods.
  • the robot 100 and the server (not shown) may be connected through a Wi-Fi network as well as through a mobile communication network.
  • the communication unit 120 may include various communication modules such as a Wi-Fi module, a mobile communication module, and a wireless communication module.
  • the position of the robot 100 may be the position of the robot 100 at the point in time when a user command for inputting a destination is received.
  • the processor 140 may determine the position of the robot 100 through the sensor 110 .
  • the sensor 110 may be implemented as a camera, and the processor 140 may receive an image captured by the camera from the camera. Then, the processor 140 extracts feature points by applying a Simultaneous Localization And Mapping (SLAM) algorithm to the image received from the camera, and selects an area where the extracted feature points are matched on a map divided into a plurality of regions of the robot 100. location can be determined.
  • SLAM Simultaneous Localization And Mapping
  • the robot 100 may pre-store information on a map in which information on different feature points for each of a plurality of areas is matched.
  • the senor 110 may be implemented as a lidar sensor, and the processor 140 may determine the position of the robot 100 based on sensing data received from the lidar sensor.
  • the lidar sensor may irradiate light under the control of the processor 140 and receive reflected light of the irradiated light. Then, the lidar sensor analyzes the pulse power of the reflected light, the time until the reflected light is received after irradiation of the light, the phase shift and the pulse width of the reflected light, and the environment around the robot 100 (eg, the shape of the wall, the shape of the pillar) etc.) and may transmit information on the sensed environment to the processor 140 .
  • the processor 140 may determine an area matched with the environment sensed by the lidar sensor as the position of the robot 100 on a map in which information on different environments for each area is matched.
  • the processor 140 may determine the position of the robot 100 through various sensors 110 such as an infrared sensor and an ultrasonic sensor.
  • the infrared sensor irradiates light under the control of the processor 140 , and when the irradiated light is reflected and received by an object, based on the amount of received light, the environment around the robot 100 is sensed and detected Information on the changed environment may be transmitted to the processor 140 .
  • the processor 140 may determine an area matched with the environment sensed by the infrared sensor as the location of the robot 100 on a map in which information on different environments for each area is matched.
  • the ultrasonic sensor irradiates ultrasonic waves under the control of the processor 140 , and when the irradiated ultrasonic waves are reflected and received by an object, the environment around the robot 100 based on the time from when the ultrasonic waves are irradiated until received may be detected, and information on the sensed environment may be transmitted to the processor 140 .
  • the processor 140 may determine an area matched with the environment sensed by the ultrasonic sensor as the position of the robot 100 on a map in which information on different environments for each area is matched.
  • the processor 140 may determine an area in which the name input as the destination is matched on a map divided into a plurality of areas, and determine the determined area as the location of the destination. To this end, the robot 100 may pre-store information on a map in which information on different names (eg, names of stores) for each of a plurality of areas is matched.
  • the processor 140 may determine the position of the robot 100 . As such, by operating the sensor 110 only when a path is required, the present disclosure can minimize unnecessary power consumption and minimize the computational burden of the processor 140 . Of course, this is an example, and the processor 140 may continue to determine the position of the robot 100 through the sensor 110 even before a user command for inputting a destination is received.
  • the starting point may be the location of the robot 100 as described above, as well as the starting point input according to a user command.
  • the processor 140 transmits information on the location of the robot 100 to a server (not shown) as a starting point, and a user command for setting the starting point When this is received, information on a location set according to a user command may be transmitted to a server (not shown).
  • the screen 500 for route guidance may further include a UI for setting a departure point.
  • the processor 140 may determine an area in which the name input as the departure point is matched on a map divided into a plurality of areas, and determine the determined area as the location of the departure point.
  • the server may search for a path from the location of the robot 100 to the location of the destination. Specifically, the server (not shown) determines the location of the robot 100 and the location of the destination on a map divided into a plurality of areas, and searches a plurality of routes from the location of the robot 100 to the location of the destination, , it is possible to determine the shortest path among the plurality of paths through the shortest path search algorithm.
  • the shortest path search algorithm searches for a plurality of routes from the location of the source to the location of the destination, determines a distance value of each of the plurality of routes, and determines a route having a minimum distance value among the plurality of routes as the shortest route It can be an A Star algorithm.
  • the shortest path algorithm may be various algorithms such as a Dijkstra algorithm or a Ford algorithm.
  • the server determines at least one landmark located on the path from the position of the robot 100 to the position of the destination among a plurality of landmarks included in the building where the robot 100 is located.
  • the landmark may be a store such as a coffee shop or a clothing store located on the path, as well as a statue, a sculpture such as a clock tower, an elevator, an escalator, and the like.
  • the server may determine an area corresponding to a route on a map divided into a plurality of areas.
  • the server determines an area in which a plurality of landmarks are located on a map divided into a plurality of areas, and sets a landmark located adjacent to an area corresponding to the route among the plurality of landmarks as a landmark on the route. can judge
  • the server may store information on an area in which each landmark is located on a map divided into a plurality of areas.
  • the server (not shown) may determine an image including a landmark located on a path from among a plurality of pre-stored images. Specifically, the server (not shown) may determine an image to which information on a landmark located on a path is matched from among a plurality of pre-stored images. To this end, the server (not shown) may match and store information about the landmark (eg, the name of the landmark, the location of the landmark) for each image. For example, when it is determined that coffee shop A is located on the route, the server (not shown) may determine an image matching the name A (ie, an image obtained by photographing coffee shop A) from among a plurality of pre-stored images. .
  • the server (not shown) may determine an image matching the name A (ie, an image obtained by photographing coffee shop A) from among a plurality of pre-stored images. .
  • the server (not shown) may generate an image including information on a direction for moving from the landmark to the destination. Specifically, the server (not shown) determines the direction for moving from the landmark to the destination based on the location of the landmark and the location of the destination, and an image in which information about the direction is superimposed on an image including the landmark can create For example, when the server (not shown) determines that it should move to the left from the landmark A in order to reach the destination, a text such as 'to the left' or an arrow image pointing to the left in the image of the landmark A You can create an image that overlaps
  • the server may determine a distance for moving from the landmark to the destination based on the location of the landmark and the location of the destination, and may generate an image further including information about the distance.
  • the server may determine a distance for moving from the landmark to the destination based on the location of the landmark and the location of the destination, and may generate an image further including information about the distance.
  • text such as '40m to the left' or text such as '40m to the left' in the image of the landmark A You can create an image that overlaps an arrow image and 40m text.
  • a plurality of landmarks may be located on a path from the position of the robot 100 to the position of the destination.
  • a first landmark is located on a path separated by a first distance from the position of the robot 100
  • a second landmark is located on a path separated by a second distance greater than the first distance from the position of the robot 100 .
  • the server determines a first direction for moving from the first landmark to the second landmark based on the position of the first landmark and the position of the second landmark, and the first land An image in which information about the first direction is overlapped with an image including the mark may be generated.
  • the server determines a second direction for moving from the second landmark to the destination based on the location of the second landmark and the location of the destination, and adds the second to the image including the second landmark. It is possible to create an image that overlaps the information about the direction. Meanwhile, the server (not shown) determines, among a plurality of landmarks located on the path, a landmark located in an area requiring a change of direction in order to move from the landmark to the destination, and a land located in the area requiring a change of direction. It is also possible to generate only an image in which information about a direction is overlapped with an image including the mark.
  • the server (not shown) may transmit information for accessing the web site providing the image generated by the above-described method to the robot 100 . That is, the server (not shown) is on a website that provides an image including information about a landmark located on the path from the position of the robot 100 to the position of the destination and the direction for moving from the landmark to the destination. Information for access may be transmitted to the robot 100 . Alternatively, if a plurality of landmarks are located on the path, the server (not shown) provides information for accessing a website that provides a plurality of images in which information about directions is overlapped with an image including the landmarks. (100) can be transmitted.
  • the information for accessing the website may be, for example, a QR code to which a website address is linked, but is not limited thereto, and the information for accessing the website may be a website address itself.
  • the web site may be a web site managed by the above-described server (not shown), as well as a web site managed by an external server different from the above-described server (not shown).
  • the processor 140 may receive, from a server (not shown), information for accessing a web site that provides a path from the location of the robot 100 to the location of the destination.
  • the processor 140 is a landmark located on the path from the position of the robot 100 to the location of the destination and the website that provides an image including information on the direction for moving from the landmark to the destination.
  • Information for access may be received from a server (not shown) (S330).
  • the processor 140 may display the information received from the server (not shown) on the display 130 ( S340 ).
  • the processor 140 receives a QR code image as information for accessing a website from a server (not shown), a QR code image 610 for accessing the website.
  • the included route search result screen 600 may be displayed on the display 130 .
  • the processor 140 is a UI 620 for guiding the scanning of the QR code, information 630 on the origin and destination, an image 640 of a store located at the destination, the distance to the destination and the estimated required time.
  • a route search result screen 600 further including at least one of the time information 650 may be displayed on the display 130 .
  • the image 640 of a store located at a destination may be received from a server (not shown) and may be pre-stored in the robot.
  • the information 650 on the distance to the destination and the estimated required time may be received from a server (not shown).
  • the processor 140 may display information on the departure direction on the display 130 .
  • the processor 140 may receive information on the landmark from a server (not shown), and determine the location of the landmark based on pre-stored map information.
  • the processor 140 may receive location information of the landmark from a server (not shown) and determine the location of the landmark on a pre-stored map.
  • the processor 140 may determine a direction for moving from the position of the robot 100 to the position of the landmark, and control the display 130 to display information about the direction.
  • the above-described QR code is only an embodiment, and the processor 140 receives a web site address for accessing a web site from a server (not shown), and displays the web site address on the display 130 in text format.
  • the processor 140 may provide information on the web site using Near Field Communication (NFC) technology.
  • NFC Near Field Communication
  • the processor 140 may provide an NFC tag tagged with a website address.
  • the user may access a web site providing a route through the robot 100 .
  • a web site providing a route through the robot 100 .
  • FIGS. 7 to 10 are diagrams for explaining a user terminal device according to an embodiment of the present disclosure.
  • the user terminal device 200 may be a smart phone as shown in FIG. 7 .
  • the user terminal device may be various electronic devices having a display, such as a tablet or a notebook computer.
  • the user terminal device 200 may access a website that provides a route from the location of the robot 100 to the location of the destination based on the route search result screen 600 displayed on the robot 100 .
  • the user terminal device 200 may display various information provided by the website through the display of the user terminal device 200 .
  • the user terminal device 200 scans the QR code 610 through the camera, and the QR code 610 ) to a website that provides a linked path.
  • the user terminal device 200 may access the website when a user command for inputting the website address displayed on the route search result screen 600 is received, and the user tags the NFC tag with the website address tagged. You can also access the website by operation.
  • the user terminal device 200 provides information on landmarks located on the path from the position of the robot 100 to the location of the destination and the direction for moving from the landmark to the destination. It is possible to access a website that provides an image 730 including
  • the website may provide various information in addition to the landmark image 730 including direction information. Specifically, referring to FIG. 7 , the website provides information 710 on the origin and destination, a map image 720 including a route from the origin to the destination, and an image 740 of a store located at the destination. may include more.
  • the user can easily move to the destination while checking the landmark image 730 together with the map image 720 including the entire route.
  • the user terminal device may provide a route to a destination to the user without using a separate sensor such as GPS.
  • a plurality of landmarks may be located on a path from the position of the robot 100 to the position of the destination.
  • a first landmark is located on a path separated by a first distance from the position of the robot 100
  • a second landmark is located on a path separated by a second distance greater than the first distance from the position of the robot 100 .
  • the website includes a first image including information on a first landmark and a direction for moving from the first landmark to the second landmark and moving from the second landmark and the second landmark to the destination. It is possible to provide a second image including information about the direction for
  • the website includes a first image 810 including information on a first landmark and a direction for moving from the first landmark to the second landmark, and the second landmark and the second landmark.
  • a second image 810 including information on a direction for moving from the landmark to the destination may be provided. Accordingly, the user can easily move to the destination while sequentially checking the plurality of landmarks located on the route.
  • the map image including the entire route may be fixedly provided to one area of the screen of the user terminal device 200 .
  • the user terminal device 200 includes a map image 910 including a route provided by a website, an image 920 including a first landmark, and a second landmark.
  • the map image 910 is displayed fixedly on the upper area of the screen, and the first land
  • the image 920 including the mark and the image 930 including the second landmark may be scrolled according to a user command.
  • the web site may provide the map image 910 to an area in which the location property is set to fixed among the entire area of the web page.
  • a map image 910 provided from a website may include GUIs 1010 and 1020 indicating landmarks in an area on the map image where the landmark is located.
  • a server (not shown) that provides a website determines a landmark located on a path on a map divided into a plurality of areas, and displays a GUI in an area where the landmark is located among the plurality of areas on the map.
  • the displayed map image may be provided to the user terminal device 200 through a website. Accordingly, the user can more easily move to the destination while checking the location of the landmark on the entire route.
  • information on a route including a landmark image may be provided by the robot 100 .
  • the robot 100 transmits an image including information about a landmark located on a path from the position of the robot 100 to the position of the destination and information on a direction for moving from the landmark to the destination server (not shown) , and as shown in FIG. 11 , landmark images 1110 and 1120 including information on directions may be displayed on the display 130 .
  • the displayed screen may include a map image 1130 including the entire route.
  • the landmark image including the direction information is generated by the server (not shown), it may be generated by the robot 100 .
  • the robot 100 determines a route based on the location of the origin and the location of the destination, and based on the pre-stored information about the landmark (eg, location information of the landmark), the land located on the route mark can be judged. And, determining an image including a landmark located on a path from among a plurality of pre-stored images, determining a direction for moving from the landmark to a destination, and overlapping the information on the direction on the image including the landmark You can create an image.
  • the robot 100 may display the generated image on the display 130 .
  • FIG. 12 is a detailed block diagram illustrating a robot according to an embodiment of the present disclosure.
  • the robot 100 includes a sensor 110 , a communication unit 120 , a display 130 , a memory 150 , a driving unit 160 , a manipulation unit 170 and It may include a processor 140 .
  • a sensor 110 the robot 100 according to an embodiment of the present disclosure includes a sensor 110 , a communication unit 120 , a display 130 , a memory 150 , a driving unit 160 , a manipulation unit 170 and It may include a processor 140 .
  • a processor 140 may include a processor 140 .
  • the communication unit 120 may communicate with an external device to transmit/receive various data.
  • the communication unit 120 may communicate with a server through an Internet network or a mobile communication network, as well as BT (Bluetooth), BLE (Bluetooth Low Energy), WI-FI (Wireless Fidelity), Zigbee, Communication with an external device may be performed through various communication methods such as NFC.
  • the communication unit 120 may transmit route information to the user terminal device 200 .
  • the information on the route may include an image including landmarks located on the route and information on directions for moving from the landmark to the destination.
  • the information on the path may include a plurality of images including a plurality of landmarks located on the path.
  • information on the path may be received from a server (not shown) and may be generated by the robot 100 .
  • the communication unit 120 transmits information on the name of the origin and the name of the destination to the server (not shown).
  • the server (not shown) may determine a location on the map that matches the name of the departure point and the destination based on the pre-stored map information, and may determine the route based on the location. For example, when information on store A is received from the robot 100, the server (not shown) determines an area in which store A is located on the map, and a path from the position of the robot 100 to an area in which store A is located. can be judged
  • the communication unit 120 may include various communication modules for performing network communication.
  • the communication unit 120 may include a Bluetooth module, a Wi-Fi module, a wireless communication module, and the like.
  • the memory 150 may store an operating system (OS) for controlling the overall operation of the components of the robot 100 and commands or data related to the components of the robot 100 .
  • OS operating system
  • the processor 140 may control a plurality of hardware or software components of the robot 100 by using various commands or data stored in the memory 150, and may control a plurality of hardware or software components received from at least one of the other components.
  • a command or data may be loaded into a volatile memory for processing, and various data may be stored in a non-volatile memory.
  • the memory 150 may store information about a map divided into a plurality of regions.
  • information on the map may be matched with information on different feature points for each of a plurality of areas, and information on different environments may be matched with each other.
  • the memory 150 may store a plurality of landmark images including landmarks.
  • information on the landmark eg, the name of the landmark, the location of the landmark
  • the landmark image may be matched to the landmark image.
  • the driving unit 160 is configured to include a motor 161 and a driving unit 162 connected to the motor 161 , and the driving unit 162 may be implemented as a wheel or a leg of a robot, and the motor 161 is a processor. By controlling the driving unit 162 according to the control of 140 , the robot 100 may be moved.
  • the processor 140 transmits a control signal for generating a first rotational force to a motor rotating the left wheel, and transmits a control signal to the motor rotating the right wheel.
  • a control signal for generating a second rotational force different from the first rotational force the traveling direction of the robot 100 may be changed.
  • the manipulation unit 170 is connected to a first motor 171-1, a robot arm 172 connected to the first motor 171-1, a second motor 171-2, and a second motor 171-2. It may include a robot hand 173 that is In addition, the robot arm 172 and the robot hand 173 are connected through a connector, and the robot arm 172 moves or rotates three-dimensionally according to the driving of the first motor 171-1 connected to the robot arm 172 . and the like, and the robot hand 173 may perform three-dimensional movement, rotation, or product grip according to the driving of the second motor 171 - 2 connected to the robot hand 173 .
  • the processor 140 controls the overall operation of the robot 100 .
  • the processor 140 may include a central processing unit (CPU) or an application processor (AP).
  • the processor 140 includes at least one general processor, a digital signal processor, an application specific integrated circuit (ASIC), a system on chip (SoC), a microcomputer (MICOM), a driver IC, and the like. can be implemented.
  • various embodiments of the present invention described above may be performed through an embedded server provided in the robot or a server external to the robot.
  • a non-transitory computer readable medium in which a program for sequentially performing a control method of a robot according to the present invention is stored may be provided.
  • the non-transitory readable medium refers to a medium that stores data semi-permanently, rather than a medium that stores data for a short moment, such as a register, cache, memory, etc., and can be read by a device.
  • the various applications or programs described above may be provided by being stored in a non-transitory readable medium such as a CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, and the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Navigation (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

A robot is disclosed. The robot comprises: a sensor; a communication unit; a display; and a processor which transmits, to a server through the communication unit, information on the location of a destination and information on the location of the robot determined on the basis of sensing data received from the sensor when a user command for inputting the destination is received, and receives, from the server through the communication unit, information for accessing a website that provides an image including information on a landmark located on a route from the location of the robot to the location of the destination and information on the direction for moving from the landmark to the destination, and controls the display to display the received information.

Description

로봇 및 그 제어 방법 Robot and its control method
본 개시는 로봇 및 그 제어 방법에 관한 것으로, 보다 상세하게는 경로를 안내하는 로봇 및 그 제어 방법에 관한 것이다.The present disclosure relates to a robot and a control method thereof, and more particularly, to a robot guiding a path and a control method thereof.
일반적으로, 공항이나 대형 매장 등의 공간에서 사용자는 원하는 목적지까지의 경로를 탐색하기 위해, 건물에 비치된 디스플레이 장치를 통해 경로 탐색을 수행한다. In general, in a space such as an airport or a large store, a user performs a route search through a display device provided in a building in order to search for a route to a desired destination.
일 예로, 종래의 디스플레이 장치는 도 1에 도시된 바와 같이, 매장 내의 지도를 제공하고, 사용자는 지도 상에서 목적지의 위치를 확인한 뒤, 출발지로부터 목적지까지의 경로를 기억하여 이동한다.For example, as shown in FIG. 1 , a conventional display device provides a map in a store, and after confirming the location of the destination on the map, the user moves by memorizing the route from the origin to the destination.
그러나, 공항이나 대형 매장 등과 같은 대규모 공간의 경우, 사용자는 한번에 경로를 기억하는 것이 쉽지 않다. 이에 따라, 사용자는 목적지를 향하는 동안 길을 잃을 수 있고, 다시 다른 위치에 비치된 디스플레이 장치를 통해 경로 탐색을 수행하는 등의 불편을 겪게 된다.However, in the case of a large space such as an airport or a large store, it is not easy for a user to remember a route at once. Accordingly, the user may get lost while heading to the destination, and suffer inconveniences such as performing route search again through a display device provided at another location.
본 개시는 상술한 문제점을 해결하기 위해 안출된 것으로서, 본 개시의 목적은 경로 안내를 통해, 사용자가 원하는 목적지에 용이하게 도착할 수 있도록 하는 로봇 및 그 제어 방법을 제공함에 있다.The present disclosure has been devised to solve the above-described problems, and an object of the present disclosure is to provide a robot and a control method thereof that allow a user to easily arrive at a desired destination through route guidance.
이상과 같은 목적을 달성하기 위한 본 개시의 일 실시 예에 따른 로봇은 센서, 통신부, 디스플레이 및 목적지 입력을 위한 사용자 명령이 수신되는 경우, 상기 목적지의 위치에 대한 정보 및 상기 센서로부터 수신된 센싱 데이터에 기초하여 판단된 상기 로봇의 위치에 대한 정보를 상기 통신부를 통해 서버로 전송하고, 상기 서버로부터, 상기 로봇의 위치로부터 상기 목적지의 위치까지의 경로 상에 위치하는 랜드마크 및 상기 랜드마크로부터 상기 목적지까지 이동하기 위한 방향에 대한 정보를 포함하는 이미지를 제공하는 웹 사이트에 접속하기 위한 정보를 상기 통신부를 통해 수신하며, 상기 수신된 정보를 표시하도록 상기 디스플레이를 제어하는 프로세서를 포함할 수 있다.In a robot according to an embodiment of the present disclosure for achieving the above object, when a user command for input of a sensor, a communication unit, a display and a destination is received, information on the location of the destination and sensing data received from the sensor transmits information on the position of the robot determined based on the communication unit to the server, and from the server, the landmark located on the path from the position of the robot to the position of the destination and from the landmark It may include a processor that receives information for accessing a web site providing an image including information on a direction for moving to a destination through the communication unit, and controls the display to display the received information.
여기에서, 상기 웹 사이트는, 상기 경로 상에 복수의 랜드마크가 포함된 경우, 상기 복수의 랜드마크를 포함하는 복수의 이미지를 제공할 수 있다.Here, when a plurality of landmarks are included on the path, the website may provide a plurality of images including the plurality of landmarks.
그리고, 상기 웹 사이트는, 상기 복수의 이미지를 상기 복수의 랜드마크의 상기 경로 상의 위치에 기초하여 나열하여 제공할 수 있다.In addition, the website may provide the plurality of images by arranging them based on the positions of the plurality of landmarks on the path.
그리고, 상기 복수의 랜드마크는, 상기 로봇의 위치로부터 상기 경로 상에 순차적으로 위치하는 제1 및 제2 랜드마크를 포함하고, 상기 웹 사이트는, 상기 제1 랜드마크 및 상기 제1 랜드마크로부터 상기 제2 랜드마크까지 이동하기 위한 방향에 대한 정보를 포함하는 제1 이미지 및 상기 제2 랜드마크 및 상기 제2 랜드마크로부터 상기 목적지까지 이동하기 위한 방향에 대한 정보를 포함하는 제2 이미지를 제공할 수 있다.And, the plurality of landmarks, including first and second landmarks sequentially located on the path from the position of the robot, the website, from the first landmark and the first landmark Provide a first image including information on a direction for moving to the second landmark and a second image including information on a direction for moving from the second landmark and the second landmark to the destination can do.
그리고, 상기 웹 사이트는, 상기 웹 사이트의 웹 페이지를 통해 상기 로봇의 위치로부터 상기 목적지까지의 경로를 나타내는 지도 이미지 및, 상기 복수의 이미지를 제공할 수 있다.In addition, the web site may provide a map image indicating a path from the position of the robot to the destination through a web page of the web site, and the plurality of images.
그리고, 상기 웹 사이트는, 위치 속성이 고정(fixed)으로 설정된 상기 웹 페이지의 일 영역에 상기 지도 이미지를 제공할 수 있다.In addition, the web site may provide the map image to an area of the web page in which the location attribute is set to fixed.
그리고, 상기 지도 이미지는, 상기 지도 이미지 상에서, 상기 랜드마크가 위치하는 영역에 상기 랜드마크를 나타내는 GUI(graphical user interface)를 포함할 수 있다.In addition, the map image may include a graphical user interface (GUI) indicating the landmark in an area where the landmark is located on the map image.
그리고, 상기 프로세서는, 상기 서버로부터 상기 이미지에 대한 정보를 수신하고, 상기 이미지를 표시하도록 상기 디스플레이를 제어할 수 있다.The processor may receive information about the image from the server and control the display to display the image.
그리고, 상기 프로세서는, 상기 서버로부터 상기 랜드마크에 대한 정보를 수신하고, 기저장된 지도 정보에 기초하여 상기 랜드마크의 위치를 판단하며, 상기 로봇의 위치로부터 상기 랜드마크의 위치로 이동하기 위한 방향을 판단하고, 상기 방향에 대한 정보를 표시하도록 상기 디스플레이를 제어할 수 있다.And, the processor receives the information about the landmark from the server, determines the position of the landmark based on pre-stored map information, and a direction for moving from the position of the robot to the position of the landmark may be determined and the display may be controlled to display information on the direction.
한편, 본 개시의 일 실시 예에 따른 로봇의 제어 방법은, 목적지 입력을 위한 사용자 명령이 수신되는 경우, 상기 목적지의 위치에 대한 정보 및 상기 로봇의 위치에 대한 정보를 서버로 전송하는 단계, 상기 서버로부터, 상기 로봇의 위치로부터 상기 목적지의 위치까지의 경로 상에 위치하는 랜드마크 및 상기 랜드마크로부터 상기 목적지까지 이동하기 위한 방향에 대한 정보를 포함하는 이미지를 제공하는 웹 사이트에 접속하기 위한 정보를 수신하는 단계 및 상기 수신된 정보를 표시하는 단계를 포함할 수 있다.On the other hand, the control method of the robot according to an embodiment of the present disclosure, when a user command for inputting a destination is received, transmitting information on the location of the destination and information on the location of the robot to a server, the Information for accessing from a server to a website providing an image including information on a landmark located on a path from the position of the robot to the position of the destination and information on a direction for moving from the landmark to the destination It may include receiving and displaying the received information.
여기에서, 상기 웹 사이트는, 상기 경로 상에 복수의 랜드마크가 포함된 경우, 상기 복수의 랜드마크를 포함하는 복수의 이미지를 제공할 수 있다.Here, when a plurality of landmarks are included on the path, the website may provide a plurality of images including the plurality of landmarks.
그리고, 상기 웹 사이트는, 상기 복수의 이미지를 상기 복수의 랜드마크의 상기 경로 상의 위치에 기초하여 나열하여 제공할 수 있다.In addition, the website may provide the plurality of images by arranging them based on the positions of the plurality of landmarks on the path.
그리고, 상기 복수의 랜드마크는, 상기 로봇의 위치로부터 상기 경로 상에 순차적으로 위치하는 제1 및 제2 랜드마크를 포함하고, 상기 웹 사이트는, 상기 제1 랜드마크 및 상기 제1 랜드마크로부터 상기 제2 랜드마크까지 이동하기 위한 방향에 대한 정보를 포함하는 제1 이미지 및 상기 제2 랜드마크 및 상기 제2 랜드마크로부터 상기 목적지까지 이동하기 위한 방향에 대한 정보를 포함하는 제2 이미지를 제공할 수 있다.And, the plurality of landmarks, including first and second landmarks sequentially located on the path from the position of the robot, the website, from the first landmark and the first landmark Provide a first image including information on a direction for moving to the second landmark and a second image including information on a direction for moving from the second landmark and the second landmark to the destination can do.
그리고, 상기 웹 사이트는, 상기 웹 사이트의 웹 페이지를 통해 상기 로봇의 위치로부터 상기 목적지까지의 경로를 나타내는 지도 이미지 및, 상기 복수의 이미지를 제공할 수 있다.In addition, the web site may provide a map image indicating a path from the position of the robot to the destination through a web page of the web site, and the plurality of images.
그리고, 상기 웹 사이트는, 위치 속성이 고정(fixed)으로 설정된 상기 웹 페이지의 일 영역에 상기 지도 이미지를 제공할 수 있다.In addition, the web site may provide the map image to an area of the web page in which the location attribute is set to fixed.
그리고, 상기 지도 이미지는, 상기 랜드마크가 위치하는 상기 지도 이미지 상의 영역에, 상기 랜드마크를 나타내는 GUI를 포함할 수 있다.In addition, the map image may include a GUI indicating the landmark in an area on the map image in which the landmark is located.
그리고, 상기 제어 방법은, 상기 서버로부터 상기 이미지에 대한 정보를 수신하고, 상기 이미지를 표시하는 단계를 더 포함할 수 있다.The control method may further include receiving information about the image from the server and displaying the image.
그리고, 상기 제어 방법은, 상기 서버로부터 상기 랜드마크에 대한 정보를 수신하고, 기저장된 지도 정보에 기초하여 상기 랜드마크의 위치를 판단하며, 상기 로봇의 위치로부터 상기 랜드마크의 위치로 이동하기 위한 방향을 판단하고, 상기 방향에 대한 정보를 표시하는 단계를 더 포함할 수 있다.And, the control method, for receiving information about the landmark from the server, determining the position of the landmark based on pre-stored map information, and moving from the position of the robot to the position of the landmark The method may further include determining a direction and displaying information about the direction.
이상과 같은 본 개시의 다양한 실시 예에 따르면, 사용자는 로봇을 통해, 현재 위치로부터 목적지까지의 경로를 포함하는 이미지 및 경로 상에 위치하는 랜드마크를 포함하는 이미지를 제공받을 수 있다. 이에 따라, 사용자는 경로 상에 위치하는 랜드마크를 확인하면서 원하는 목적지까지 용이하게 이동할 수 있다.According to various embodiments of the present disclosure as described above, a user may be provided with an image including a path from a current location to a destination and an image including a landmark located on the path through the robot. Accordingly, the user can easily move to a desired destination while checking the landmark located on the route.
도 1은 경로 안내 기능을 수행하는 종래의 디스플레이 장치를 도시한 도면이다.1 is a diagram illustrating a conventional display device performing a route guidance function.
도 2는 본 개시의 일 실시 예에 따른 로봇을 설명하기 위한 블록도이다. 2 is a block diagram illustrating a robot according to an embodiment of the present disclosure.
도 3은 본 개시의 일 실시 에에 따른 로봇의 동작을 설명하기 위한 순서도이다.3 is a flowchart for explaining the operation of the robot according to an embodiment of the present disclosure.
도 4는 본 개시의 일 실시 예에 따른 로봇의 디스플레이에 표시되는 메뉴를 도시한 도면이다.4 is a diagram illustrating a menu displayed on a display of a robot according to an embodiment of the present disclosure.
도 5는 본 개시의 일 실시 예에 따른 로봇의 디스플레이에 표시되는 경로 안내를 위한 화면을 도시한 도면이다.5 is a diagram illustrating a screen for guiding a route displayed on a display of a robot according to an embodiment of the present disclosure.
도 6은 본 개시의 일 실시 예에 따른 로봇의 디스플레이에 표시되는 경로 탐색 결과 화면을 도시한 도면이다.6 is a diagram illustrating a path search result screen displayed on a display of a robot according to an embodiment of the present disclosure.
도 7은 본 개시의 일 실시 예에 따른 랜드마크를 포함하는 이미지를 표시하는 사용자 단말 장치를 도시한 도면이다.7 is a diagram illustrating a user terminal device displaying an image including a landmark according to an embodiment of the present disclosure.
도 8은 본 개시의 일 실시 예에 따른 랜드마크를 포함하는 복수의 이미지를 표시하는 사용자 단말 장치를 도시한 도면이다.8 is a diagram illustrating a user terminal device displaying a plurality of images including landmarks according to an embodiment of the present disclosure.
도 9a는 본 개시의 일 실시 예에 따른 사용자 단말 장치에 스크롤 명령이 입력되는 경우를 도시한 도면이다.9A is a diagram illustrating a case in which a scroll command is input to a user terminal device according to an embodiment of the present disclosure.
도 9b는 본 개시의 일 실시 예에 따른 사용자 단말 장치에 스크롤 명령이 입력되는 경우를 도시한 도면이다.9B is a diagram illustrating a case in which a scroll command is input to a user terminal device according to an embodiment of the present disclosure.
도 9c는 본 개시의 일 실시 예에 따른 사용자 단말 장치에 스크롤 명령이 입력되는 경우를 도시한 도면이다.9C is a diagram illustrating a case in which a scroll command is input to a user terminal device according to an embodiment of the present disclosure.
도 10은 본 개시의 일 실시 예에 따른 랜드마크를 나타내는 GUI를 도시한 도면이다.10 is a diagram illustrating a GUI indicating a landmark according to an embodiment of the present disclosure.
도 11은 본 개시의 일 실시 예에 따른 로봇이 랜드마크를 포함하는 이미지를 표시하는 실시 예를 도시한 도면이다.11 is a diagram illustrating an embodiment in which a robot displays an image including a landmark according to an embodiment of the present disclosure.
도 12는 본 개시의 일 실시 예에 따른 로봇을 설명하기 위한 상세 블록도이다.12 is a detailed block diagram illustrating a robot according to an embodiment of the present disclosure.
이하, 본 개시의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 개시에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 개시의 실시 예의 다양한 변경(modifications), 균등물(equivalents), 및/또는 대체물(alternatives)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.Hereinafter, various embodiments of the present disclosure will be described with reference to the accompanying drawings. However, this is not intended to limit the technology described in the present disclosure to specific embodiments, and it should be understood that various modifications, equivalents, and/or alternatives of the embodiments of the present disclosure are included. . In connection with the description of the drawings, like reference numerals may be used for like components.
본 개시에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.In the present disclosure, expressions such as “have,” “may have,” “include,” or “may include” indicate the presence of a corresponding characteristic (eg, a numerical value, function, operation, or component such as a part). and does not exclude the presence of additional features.
본 개시에서, "A 또는 B," "A 또는/및 B 중 적어도 하나," 또는 "A 또는/및 B 중 하나 또는 그 이상"등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B," "A 및 B 중 적어도 하나," 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.In this disclosure, expressions such as “A or B,” “at least one of A and/and B,” or “one or more of A or/and B” may include all possible combinations of the items listed together. . For example, "A or B," "at least one of A and B," or "at least one of A or B" means (1) includes at least one A, (2) includes at least one B; Or (3) it may refer to all cases including both at least one A and at least one B.
본 개시에서 사용된 "제1," "제2," "첫째," 또는 "둘째,"등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. As used in the present disclosure, expressions such as "first," "second," "first," or "second," may modify various elements, regardless of order and/or importance, and refer to one element. It is used only to distinguish it from other components, and does not limit the components.
어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제 3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.A component (eg, a first component) is "coupled with/to (operatively or communicatively)" to another component (eg, a second component) When referring to "connected to", it will be understood that the certain element may be directly connected to the other element or may be connected through another element (eg, a third element). On the other hand, when it is said that a component (eg, a first component) is "directly connected" or "directly connected" to another component (eg, a second component), the component and the It may be understood that other components (eg, a third component) do not exist between other components.
본 개시에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)," "~하는 능력을 가지는(having the capacity to)," "~하도록 설계된(designed to)," "~하도록 변경된(adapted to)," "~하도록 만들어진(made to)," 또는 "~를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성된(또는 설정된)"은 하드웨어적으로 "특별히 설계된(specifically designed to)" 것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.The expression "configured to (or configured to)" as used in this disclosure depends on the context, for example, "suitable for," "having the capacity to" ," "designed to," "adapted to," "made to," or "capable of." The term “configured (or configured to)” may not necessarily mean only “specifically designed to” in hardware. Instead, in some circumstances, the expression “a device configured to” may mean that the device is “capable of” with other devices or parts. For example, the phrase “a processor configured (or configured to perform) A, B, and C” refers to a dedicated processor (eg, an embedded processor) for performing the operations, or by executing one or more software programs stored in a memory device. , may mean a generic-purpose processor (eg, a CPU or an application processor) capable of performing corresponding operations.
본 개시에서 "모듈" 혹은 "부"는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 "모듈" 혹은 복수의 "부"는 특정한 하드웨어로 구현될 필요가 있는 "모듈" 혹은 "부"를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서(미도시)로 구현될 수 있다.In the present disclosure, a “module” or “unit” performs at least one function or operation, and may be implemented as hardware or software, or a combination of hardware and software. In addition, a plurality of “modules” or a plurality of “units” are integrated into at least one module and implemented with at least one processor (not shown) except for “modules” or “units” that need to be implemented with specific hardware. can be
이하, 첨부된 도면을 참조하여 본 개시를 상세히 설명한다.Hereinafter, the present disclosure will be described in detail with reference to the accompanying drawings.
도 2는 본 개시의 일 실시 예에 따른 로봇을 설명하기 위한 블록도이고, 도 3은 본 개시의 일 실시 에에 따른 로봇의 동작을 설명하기 위한 순서도이다. 2 is a block diagram illustrating a robot according to an embodiment of the present disclosure, and FIG. 3 is a flowchart illustrating an operation of the robot according to an embodiment of the present disclosure.
본 개시의 일 실시 예에 따른 로봇(100)은 경로 안내 기능을 수행하는 로봇이 될 수 있다. 여기에서, 경로는 로봇(100)의 현재 위치로부터 사용자에 의해 입력된 목적지까지의 경로가 될 수 있음은 물론, 사용자에 의해 입력된 출발지로부터 사용자에 의해 입력된 목적지까지의 경로가 될 수 있다. 한편, 로봇(100)은 상술한 경로 안내 기능 외에도 다양한 기능을 수행할 수 있다. 일 예로, 로봇(100)은 건물 내 공간을 주행하면서 공기 정화 작업을 수행하거나 건물 내 매장에서 제품 설명이나 제품 시연 등을 수행할 수도 있다.The robot 100 according to an embodiment of the present disclosure may be a robot that performs a route guidance function. Here, the path may be a path from the current location of the robot 100 to a destination input by the user, as well as a path from a source input by the user to the destination input by the user. Meanwhile, the robot 100 may perform various functions in addition to the above-described path guidance function. For example, the robot 100 may perform an air purification operation while traveling in a space within a building, or may perform product description or product demonstration in a store in the building.
도 2를 참조하면, 본 개시의 일 실시 예에 따른 로봇(100)은 센서(110), 통신부(120), 디스플레이(130) 및 프로세서(140)를 포함할 수 있다.Referring to FIG. 2 , the robot 100 according to an embodiment of the present disclosure may include a sensor 110 , a communication unit 120 , a display 130 , and a processor 140 .
프로세서(140)는 로봇(100)의 전반적인 동작을 제어한다. 구체적으로, 프로세서(140)는 운영 체제 또는 응용 프로그램을 구동하여 프로세서(140)에 연결된 각종 구성요소, 일 예로 센서(110), 통신부(120) 및 디스플레이(130)를 제어할 수 있고, 각종 데이터 처리 및 연산을 수행할 수 있다. The processor 140 controls the overall operation of the robot 100 . Specifically, the processor 140 may drive an operating system or an application program to control various components connected to the processor 140 , for example, the sensor 110 , the communication unit 120 , and the display 130 , and various data It can perform processing and calculations.
일 예로, 프로세서(140)는 로봇(100)의 기능과 관련된 메뉴를 표시하도록 디스플레이(130)를 제어할 수 있다. 예를 들어, 도 4를 참조하면, 프로세서(140)는 로봇(100)이 수행할 수 있는 기능이 경로 안내 기능, 제품 설명 기능 및 제품 시연 기능 등인 경우, 경로 안내 기능을 수행하기 위한 메뉴, 제품 설명 기능을 수행하기 위한 메뉴 및 제품 시연 기능을 수행하기 위한 메뉴 등을 표시하도록 디스플레이(130)를 제어할 수 있다. 이를 위해, 로봇(100)은, 로봇(100)의 기능과 관련된 정보를 저장하고 있는 메모리(미도시)를 더 포함할 수 있고, 프로세서(140)는 메모리(미도시)에 저장된 정보에 기초하여 로봇(100)의 기능과 관련된 메뉴를 표시하도록 디스플레이(130)를 제어할 수 있다.For example, the processor 140 may control the display 130 to display a menu related to the function of the robot 100 . For example, referring to FIG. 4 , when the functions that the robot 100 can perform are a path guidance function, a product description function, and a product demonstration function, the processor 140 may include a menu for performing a path guidance function, a product The display 130 may be controlled to display a menu for performing a description function and a menu for performing a product demonstration function. To this end, the robot 100 may further include a memory (not shown) for storing information related to the function of the robot 100, and the processor 140 based on the information stored in the memory (not shown). The display 130 may be controlled to display a menu related to the function of the robot 100 .
한편, 디스플레이(130)는 LCD(Liquid Crystal Display Panel), LED(light emitting diode), OLED(Organic Light Emitting Diodes), LCoS(Liquid Crystal on Silicon), DLP(Digital Light Processing) 등과 같은 다양한 형태의 디스플레이로 구현될 수 있다. 그리고, 디스플레이(130)는 터치 감지부와 결합되어 터치 스크린으로 구현될 수 있다.Meanwhile, the display 130 includes various types of displays such as Liquid Crystal Display Panel (LCD), Light Emitting Diode (LED), Organic Light Emitting Diodes (OLED), Liquid Crystal on Silicon (LCoS), Digital Light Processing (DLP), and the like. can be implemented as In addition, the display 130 may be implemented as a touch screen in combination with a touch sensing unit.
프로세서(140)는 경로 안내 기능을 수행하기 위한 메뉴를 선택하는 사용자 명령이 수신되면, 경로 안내를 위한 화면을 표시하도록 디스플레이(130)를 제어할 수 있다. 여기에서, 경로 안내 기능을 수행하기 위한 메뉴를 선택하는 사용자 명령은, 터치 스크린으로 구현된 디스플레이(130)를 터치하는 사용자 터치가 될 수 있다. 다만, 이는 일 실시 예로서, 사용자 명령은 로봇(100)의 마이크(미도시)를 통해 수신될 수도 있다. 일 예로, 프로세서(140)는 마이크(미도시)를 통해 사용자 음성이 수신되면, STT(Speech to text) 알고리즘을 통해 사용자 음성을 분석하고, 사용자 음성에 경로 안내 기능을 수행하기 위한 메뉴를 선택하는 음성이 포함된 것으로 판단되면, 경로 안내를 위한 화면을 표시하도록 디스플레이(130)를 제어할 수 있다.When a user command for selecting a menu for performing a route guidance function is received, the processor 140 may control the display 130 to display a screen for route guidance. Here, the user command for selecting a menu for performing the route guidance function may be a user touch touching the display 130 implemented as a touch screen. However, this is an example, and a user command may be received through a microphone (not shown) of the robot 100 . For example, when a user's voice is received through a microphone (not shown), the processor 140 analyzes the user's voice through a speech to text (STT) algorithm and selects a menu for performing a route guidance function on the user's voice. If it is determined that voice is included, the display 130 may be controlled to display a screen for route guidance.
한편, 경로 안내를 위한 화면은, 도 5에 도시된 바와 같이, 목적지 입력을 위한 UI(510)를 포함할 수 있다. 그리고, 도 5에서는 도시하지 않았으나, 경로 안내를 위한 화면(500)은, 숫자 키, 특수 키, 문자 키 등을 포함하는 키패드(Key Pad)를 더 포함할 수 있다.Meanwhile, the screen for route guidance may include a UI 510 for inputting a destination, as shown in FIG. 5 . In addition, although not shown in FIG. 5 , the screen 500 for route guidance may further include a keypad including number keys, special keys, character keys, and the like.
또한, 경로 안내를 위한 화면(500)은, 도 5에 도시된 바와 같이, 지도 이미지(520)를 더 포함할 수 있다. 여기에서, 지도 이미지(520)는 복수의 층으로 구분된 건물 내에서, 로봇(100)이 위치하는 층에 위치하는 복수의 매장에 대한 정보(가령, 매장의 명칭에 대한 정보, 매장의 위치에 대한 정보 등)를 포함할 수 있다. 다만, 이는 일 실시 예로서, 경로 안내를 위한 화면(500)은, 층 선택을 위한 UI를 더 포함하고, 프로세서(140)는 로봇(100)이 위치하는 층과 상이한 층을 선택하기 위한 사용자 명령이 수신되면, 사용자 명령에 따라 선택된 층의 지도 이미지를 경로 안내를 위한 화면(500)에 표시하도록 디스플레이(130)를 제어할 수 있다.Also, the screen 500 for route guidance may further include a map image 520 as shown in FIG. 5 . Here, the map image 520 is information about a plurality of stores located on the floor where the robot 100 is located in a building divided into a plurality of floors (eg, information on the name of the store, information on the location of the store) information, etc.) may be included. However, this is an embodiment, and the screen 500 for route guidance further includes a UI for floor selection, and the processor 140 is a user command for selecting a floor different from the floor on which the robot 100 is located. When this is received, the display 130 may be controlled to display the map image of the selected floor on the screen 500 for route guidance according to a user command.
프로세서(140)는 목적지 입력을 위한 사용자 명령을 수신(S310)할 수 있다. 여기에서, 목적지 입력을 위한 사용자 명령은, 터치 스크린으로 구현된 디스플레이(130)를 터치하는 사용자 터치가 될 수 있다. 일 예로, 프로세서(140)는 목적지 입력을 위한 UI(510)를 터치하는 사용자 명령이 수신되면, 숫자 키, 특수 키, 문자 키 등을 포함하는 키패드를 표시하도록 디스플레이(130)를 제어하고, 키패드를 통해 목적지 입력을 위한 사용자 명령을 수신할 수 있다. 한편, 여기서는 목적지 입력을 위한 UI(510)를 터치하는 사용자 명령이 수신되면, 키패드를 표시하는 것으로 설명하였으나, 이는 일 실시 예일 뿐이다. 일 예로, 경로 안내를 위한 화면(500)에는 목적지 입력을 위한 UI(510) 및 키패드가 함께 포함되어 있을 수도 있다. 또한, 사용자 명령은 로봇(100)의 마이크(미도시)를 통해 수신될 수도 있다. 일 예로, 프로세서(140)는 마이크(미도시)를 통해 사용자 음성이 수신되면, STT 알고리즘을 통해 사용자 음성을 분석하고, 사용자 음성에 포함된 장소와 관련된 단어를 목적지로 판단할 수 있다.The processor 140 may receive a user command for inputting a destination ( S310 ). Here, the user command for inputting the destination may be a user touch touching the display 130 implemented as a touch screen. For example, when a user command to touch the UI 510 for inputting a destination is received, the processor 140 controls the display 130 to display a keypad including a number key, a special key, a character key, and the like, and the keypad It is possible to receive a user command for inputting a destination through . Meanwhile, although it has been described herein that a keypad is displayed when a user command to touch the UI 510 for inputting a destination is received, this is only an exemplary embodiment. For example, the screen 500 for route guidance may include a UI 510 and a keypad for inputting a destination together. In addition, the user command may be received through a microphone (not shown) of the robot 100 . For example, when a user's voice is received through a microphone (not shown), the processor 140 may analyze the user's voice through an STT algorithm and determine a word related to a place included in the user's voice as a destination.
프로세서(140)는 목적지 입력을 위한 사용자 명령이 수신되는 경우, 로봇(100)의 위치에 대한 정보 및 목적지의 위치에 대한 정보를 서버(미도시)로 전송(S320)할 수 있다. 구체적으로, 프로세서(140)는 목적지 입력을 위한 사용자 명령이 수신되는 경우, 로봇(100)의 위치에 대한 정보, 목적지의 위치에 대한 정보 및 로봇(100)의 위치로부터 목적지의 위치까지의 경로에 대한 정보를 요청하는 신호를 서버(미도시)로 전송하도록 통신부(120)를 제어할 수 있다. When a user command for inputting a destination is received, the processor 140 may transmit information on the location of the robot 100 and information on the location of the destination to a server (not shown) ( S320 ). Specifically, when a user command for inputting a destination is received, the processor 140 includes information on the location of the robot 100, information on the location of the destination, and the path from the location of the robot 100 to the location of the destination. It is possible to control the communication unit 120 to transmit a signal requesting information about the server (not shown).
이를 위해, 로봇(100) 및 서버(미도시)는 다양한 통신 방법을 통해 연결될 수 있다. 일 예로, 로봇(100) 및 서버(미도시)는 와이파이 네트워크를 통해 연결될 수 있음은 물론, 이동통신 네트워크를 통해 연결될 수도 있다. 이를 위해, 통신부(120)는 와이파이 모듈, 이동통신 모듈, 무선통신 모듈과 같은 다양한 통신 모듈을 포함할 수 있다.To this end, the robot 100 and the server (not shown) may be connected through various communication methods. For example, the robot 100 and the server (not shown) may be connected through a Wi-Fi network as well as through a mobile communication network. To this end, the communication unit 120 may include various communication modules such as a Wi-Fi module, a mobile communication module, and a wireless communication module.
한편, 로봇(100)의 위치는, 목적지 입력을 위한 사용자 명령이 수신된 시점의 로봇(100)의 위치가 될 수 있다. 이를 위해, 프로세서(140)는 센서(110)를 통해 로봇(100)의 위치를 판단할 수 있다. 일 예로, 센서(110)는 카메라로 구현되고, 프로세서(140)는 카메라를 통해 촬영된 영상을 카메라로부터 수신할 수 있다. 그리고, 프로세서(140)는 카메라로부터 수신한 영상에 SLAM(Simultaneous Localization And Mapping) 알고리즘을 적용하여 특징점을 추출하고, 복수의 영역으로 구분되는 지도 상에서 추출된 특징점이 매칭된 영역을 로봇(100)의 위치로 판단할 수 있다. 이를 위해, 로봇(100)은 복수의 영역별로 서로 다른 특징점에 대한 정보가 매칭된 지도에 대한 정보를 기저장하고 있을 수 있다. Meanwhile, the position of the robot 100 may be the position of the robot 100 at the point in time when a user command for inputting a destination is received. To this end, the processor 140 may determine the position of the robot 100 through the sensor 110 . For example, the sensor 110 may be implemented as a camera, and the processor 140 may receive an image captured by the camera from the camera. Then, the processor 140 extracts feature points by applying a Simultaneous Localization And Mapping (SLAM) algorithm to the image received from the camera, and selects an area where the extracted feature points are matched on a map divided into a plurality of regions of the robot 100. location can be determined. To this end, the robot 100 may pre-store information on a map in which information on different feature points for each of a plurality of areas is matched.
또한, 센서(110)는 라이다 센서로 구현되고, 프로세서(140)는 라이다 센서로부터 수신된 센싱 데이터에 기초하여 로봇(100)의 위치를 판단할 수도 있다. 구체적으로, 라이다 센서는 프로세서(140)의 제어에 따라 광을 조사하고, 조사된 광의 반사광을 수신할 수 있다. 그리고, 라이다 센서는, 반사광의 펄스 전력, 광의 조사 후 반사광이 수신되기까지의 시간, 반사광의 위상 변이 및 펄스 폭등을 분석하여 로봇(100) 주변의 환경(가령, 벽면의 형상, 기둥의 형상 등)을 감지하고, 감지된 환경에 대한 정보를 프로세서(140)로 전송할 수 있다. 그리고, 프로세서(140)는 복수의 영역별로 서로 다른 환경에 대한 정보가 매칭된 지도 상에서, 라이다 센서에 의해 감지된 환경이 매칭된 영역을 로봇(100)의 위치로 판단할 수 있다. In addition, the sensor 110 may be implemented as a lidar sensor, and the processor 140 may determine the position of the robot 100 based on sensing data received from the lidar sensor. Specifically, the lidar sensor may irradiate light under the control of the processor 140 and receive reflected light of the irradiated light. Then, the lidar sensor analyzes the pulse power of the reflected light, the time until the reflected light is received after irradiation of the light, the phase shift and the pulse width of the reflected light, and the environment around the robot 100 (eg, the shape of the wall, the shape of the pillar) etc.) and may transmit information on the sensed environment to the processor 140 . In addition, the processor 140 may determine an area matched with the environment sensed by the lidar sensor as the position of the robot 100 on a map in which information on different environments for each area is matched.
한편, 상술한 예는 일 실시 예로서, 프로세서(140)는 적외선 센서, 초음파 센서 등 다양한 센서(110)를 통해 로봇(100)의 위치를 판단할 수 있다. 일 예로, 적외선 센서는 프로세서(140)의 제어에 따라 광을 조사하고, 조사된 광이 물체에 의해 반사되어 수신되면, 수신된 광의 량에 기초하여 로봇(100) 주변의 환경을 감지하고, 감지된 환경에 대한 정보를 프로세서(140)로 전송할 수 있다. 그리고, 프로세서(140)는 복수의 영역별로 서로 다른 환경에 대한 정보가 매칭된 지도 상에서, 적외선 센서에 의해 감지된 환경이 매칭된 영역을 로봇(100)의 위치로 판단할 수 있다. Meanwhile, the above-described example is an example, and the processor 140 may determine the position of the robot 100 through various sensors 110 such as an infrared sensor and an ultrasonic sensor. For example, the infrared sensor irradiates light under the control of the processor 140 , and when the irradiated light is reflected and received by an object, based on the amount of received light, the environment around the robot 100 is sensed and detected Information on the changed environment may be transmitted to the processor 140 . In addition, the processor 140 may determine an area matched with the environment sensed by the infrared sensor as the location of the robot 100 on a map in which information on different environments for each area is matched.
그리고, 초음파 센서는 프로세서(140)의 제어에 따라 초음파를 조사하고, 조사된 초음파가 물체에 의해 반사되어 수신되면, 초음파가 조사된 후 수신되기까지의 시간에 기초하여 로봇(100) 주변의 환경을 감지하고, 감지된 환경에 대한 정보를 프로세서(140)로 전송할 수 있다. 그리고, 프로세서(140)는 복수의 영역별로 서로 다른 환경에 대한 정보가 매칭된 지도 상에서, 초음파 센서에 의해 감지된 환경이 매칭된 영역을 로봇(100)의 위치로 판단할 수 있다. Then, the ultrasonic sensor irradiates ultrasonic waves under the control of the processor 140 , and when the irradiated ultrasonic waves are reflected and received by an object, the environment around the robot 100 based on the time from when the ultrasonic waves are irradiated until received may be detected, and information on the sensed environment may be transmitted to the processor 140 . In addition, the processor 140 may determine an area matched with the environment sensed by the ultrasonic sensor as the position of the robot 100 on a map in which information on different environments for each area is matched.
한편, 프로세서(140)는 사용자 명령에 따라 목적지가 입력되면, 복수의 영역으로 구분되는 지도 상에서 목적지로 입력된 명칭이 매칭된 영역을 판단하고, 판단된 영역을 목적지의 위치로 판단할 수 있다. 이를 위해, 로봇(100)은 복수의 영역별로 서로 다른 명칭(가령, 매장의 명칭)에 대한 정보가 매칭된 지도에 대한 정보를 기저장하고 있을 수 있다. Meanwhile, when a destination is input according to a user command, the processor 140 may determine an area in which the name input as the destination is matched on a map divided into a plurality of areas, and determine the determined area as the location of the destination. To this end, the robot 100 may pre-store information on a map in which information on different names (eg, names of stores) for each of a plurality of areas is matched.
한편, 프로세서(140)는 목적지 입력을 위한 사용자 명령이 수신되면, 로봇(100)의 위치를 판단할 수 있다. 이와 같이, 경로 제공이 필요한 경우에만 센서(110)를 동작시킴으로써, 본 개시는 불필요한 전력 소모를 최소화하고, 프로세서(140)의 연산 부담을 최소화할 수 있다. 물론, 이는 일 실시 예로서, 프로세서(140)는 목적지 입력을 위한 사용자 명령이 수신되기 전에도, 센서(110)를 통해 로봇(100)의 위치를 계속해서 판단하고 있을 수도 있다.Meanwhile, when a user command for inputting a destination is received, the processor 140 may determine the position of the robot 100 . As such, by operating the sensor 110 only when a path is required, the present disclosure can minimize unnecessary power consumption and minimize the computational burden of the processor 140 . Of course, this is an example, and the processor 140 may continue to determine the position of the robot 100 through the sensor 110 even before a user command for inputting a destination is received.
한편, 이상에서는 로봇(100)의 위치를 출발지로 설명하였으나, 이는 일 실시 예일 뿐이다. 출발지는 상술한 바와 같이, 로봇(100)의 위치가 될 수 있음은 물론, 사용자 명령에 따라 입력된 출발지가 될 수 있다. 일 예로, 프로세서(140)는 출발지 설정을 위한 별도의 사용자 명령이 수신되지 않는 경우이면, 로봇(100)의 위치에 대한 정보를 출발지로서 서버(미도시)로 전송하고, 출발지 설정을 위한 사용자 명령이 수신된 경우이면, 사용자 명령에 따라 설정된 위치에 대한 정보를 서버(미도시)로 전송할 수 있다. 이를 위해, 경로 안내를 위한 화면(500)은 출발지 설정을 위한 UI를 더 포함할 수 있다. 그리고, 프로세서(140)는 사용자 명령에 따라 출발지가 입력되면, 복수의 영역으로 구분되는 지도 상에서 출발지로 입력된 명칭이 매칭된 영역을 판단하고, 판단된 영역을 출발지의 위치로 판단할 수 있다.Meanwhile, in the above, the location of the robot 100 has been described as the starting point, but this is only an example. The starting point may be the location of the robot 100 as described above, as well as the starting point input according to a user command. For example, if a separate user command for setting the departure point is not received, the processor 140 transmits information on the location of the robot 100 to a server (not shown) as a starting point, and a user command for setting the starting point When this is received, information on a location set according to a user command may be transmitted to a server (not shown). To this end, the screen 500 for route guidance may further include a UI for setting a departure point. In addition, when a departure point is input according to a user command, the processor 140 may determine an area in which the name input as the departure point is matched on a map divided into a plurality of areas, and determine the determined area as the location of the departure point.
서버(미도시)는 로봇(100)의 위치에 대한 정보 및 목적지의 위치에 대한 정보가 로봇(100)으로부터 수신되면, 로봇(100)의 위치로부터 목적지의 위치까지의 경로를 탐색할 수 있다. 구체적으로, 서버(미도시)는 복수의 영역으로 구분되는 지도 상에서, 로봇(100)의 위치 및 목적지의 위치를 판단하고, 로봇(100)의 위치로부터 목적지의 위치까지의 복수의 경로를 탐색하며, 최단 경로 탐색 알고리즘을 통해 복수의 경로 중 최단 경로를 판단할 수 있다. 여기에서, 최단 경로 탐색 알고리즘은 출발지의 위치로부터 목적지의 위치까지의 복수의 경로를 탐색하고, 복수의 경로 각각의 거리 값을 판단하며, 복수의 경로 중 최소 거리 값을 가진 경로를 최단 경로로 판단하는 에이 스타(A Star) 알고리즘이 될 수 있다. 다만, 이는 일 실시 예로서 최단 경로 알고리즘은, 다익스트라(Dijkstra) 알고리즘 또는 포드(Ford) 알고리즘과 같은 다양한 알고리즘이 될 수 있다.When information on the location of the robot 100 and information on the location of the destination are received from the robot 100 , the server (not shown) may search for a path from the location of the robot 100 to the location of the destination. Specifically, the server (not shown) determines the location of the robot 100 and the location of the destination on a map divided into a plurality of areas, and searches a plurality of routes from the location of the robot 100 to the location of the destination, , it is possible to determine the shortest path among the plurality of paths through the shortest path search algorithm. Here, the shortest path search algorithm searches for a plurality of routes from the location of the source to the location of the destination, determines a distance value of each of the plurality of routes, and determines a route having a minimum distance value among the plurality of routes as the shortest route It can be an A Star algorithm. However, this is an example, and the shortest path algorithm may be various algorithms such as a Dijkstra algorithm or a Ford algorithm.
서버(미도시)는 경로가 판단되면, 로봇(100)이 위치하는 건물에 포함된 복수의 랜드마크 중에서, 로봇(100)의 위치로부터 목적지의 위치까지의 경로 상에 위치하는 적어도 하나의 랜드마크를 판단할 수 있다. 여기에서, 랜드마크는 경로 상에 위치하는 커피점, 의류 판매점 등의 매장이 될 수 있음은 물론, 동상, 시계탑 등의 조형물, 엘리베이터, 에스컬레이터 등이 될 수 있다.When the path is determined, the server (not shown) determines at least one landmark located on the path from the position of the robot 100 to the position of the destination among a plurality of landmarks included in the building where the robot 100 is located. can be judged Here, the landmark may be a store such as a coffee shop or a clothing store located on the path, as well as a statue, a sculpture such as a clock tower, an elevator, an escalator, and the like.
구체적으로, 서버(미도시)는 복수의 영역으로 구분된 지도 상에서, 경로에 해당하는 영역을 판단할 수 있다. 그리고, 서버(미도시)는 복수의 영역으로 구분된 지도 상에서, 복수의 랜드마크가 위치하는 영역을 판단하고 복수의 랜드마크 중에서 경로에 해당하는 영역에 인접하여 위치하는 랜드마크를 경로 상의 랜드마크로 판단할 수 있다. 이를 위해, 서버(미도시)는 복수의 영역으로 구분된 지도 상에서, 각 랜드마크가 위치하는 영역에 대한 정보를 저장하고 있을 수 있다. Specifically, the server (not shown) may determine an area corresponding to a route on a map divided into a plurality of areas. In addition, the server (not shown) determines an area in which a plurality of landmarks are located on a map divided into a plurality of areas, and sets a landmark located adjacent to an area corresponding to the route among the plurality of landmarks as a landmark on the route. can judge To this end, the server (not shown) may store information on an area in which each landmark is located on a map divided into a plurality of areas.
그리고, 서버(미도시)는 기저장된 복수의 이미지 중에서, 경로 상에 위치하는 랜드마크를 포함하는 이미지를 판단할 수 있다. 구체적으로, 서버(미도시)는 기저장된 복수의 이미지 중에서, 경로 상에 위치하는 랜드마크에 대한 정보가 매칭된 이미지를 판단할 수 있다. 이를 위해, 서버(미도시)는 이미지 별로 랜드마크에 대한 정보(가령, 랜드마크의 명칭, 랜드마크의 위치)를 매칭하여 저장하고 있을 수 있다. 일 예로, 서버(미도시)는 경로 상에 A 커피점이 위치하는 것으로 판단되면, 기저장된 복수의 이미지 중에서, A라는 명칭이 매칭된 이미지(즉, A 커피점을 촬영한 이미지)를 판단할 수 있다. In addition, the server (not shown) may determine an image including a landmark located on a path from among a plurality of pre-stored images. Specifically, the server (not shown) may determine an image to which information on a landmark located on a path is matched from among a plurality of pre-stored images. To this end, the server (not shown) may match and store information about the landmark (eg, the name of the landmark, the location of the landmark) for each image. For example, when it is determined that coffee shop A is located on the route, the server (not shown) may determine an image matching the name A (ie, an image obtained by photographing coffee shop A) from among a plurality of pre-stored images. .
그리고, 서버(미도시)는 랜드마크로부터 목적지까지 이동하기 위한 방향에 대한 정보를 포함하는 이미지를 생성할 수 있다. 구체적으로, 서버(미도시)는 랜드마크의 위치 및 목적지의 위치에 기초하여, 랜드마크로부터 목적지까지 이동하기 위한 방향을 판단하고, 랜드마크를 포함하는 이미지에 방향에 대한 정보를 오버랩한 이미지를 생성할 수 있다. 일 예로, 서버(미도시)는 목적지에 도달하기 위해, 랜드마크 A에서 좌측으로 이동해야 하는 것으로 판단되는 경우, 랜드마크 A를 촬영한 이미지에 '좌측으로'와 같은 텍스트 또는 좌측을 향하는 화살표 이미지를 오버랩한 이미지를 생성할 수 있다. In addition, the server (not shown) may generate an image including information on a direction for moving from the landmark to the destination. Specifically, the server (not shown) determines the direction for moving from the landmark to the destination based on the location of the landmark and the location of the destination, and an image in which information about the direction is superimposed on an image including the landmark can create For example, when the server (not shown) determines that it should move to the left from the landmark A in order to reach the destination, a text such as 'to the left' or an arrow image pointing to the left in the image of the landmark A You can create an image that overlaps
또한, 서버(미도시)는 랜드마크의 위치 및 목적지의 위치에 기초하여, 랜드마크로부터 목적지까지 이동하기 위한 거리를 판단하고, 거리에 대한 정보를 더 포함하는 이미지를 생성할 수도 있다. 일 예로, 서버(미도시)는 목적지에 도달하기 위해, 랜드마크 A에서 좌측으로 40m 이동해야 하는 것으로 판단되는 경우, 랜드마크 A를 촬영한 이미지에 '좌측으로 40m'와 같은 텍스트 또는 좌측을 향하는 화살표 이미지 및 40m 텍스트를 오버랩한 이미지를 생성할 수 있다.In addition, the server (not shown) may determine a distance for moving from the landmark to the destination based on the location of the landmark and the location of the destination, and may generate an image further including information about the distance. As an example, if the server (not shown) determines that it should move 40m to the left from the landmark A to reach the destination, text such as '40m to the left' or text such as '40m to the left' in the image of the landmark A You can create an image that overlaps an arrow image and 40m text.
한편, 실시 예에 따라, 로봇(100)의 위치로부터 목적지의 위치까지의 경로 상에 복수의 랜드마크가 위치할 수도 있다. 일 예로, 로봇(100)의 위치로부터 제1 거리만큼 떨어진 경로 상에 제1 랜드마크가 위치하고, 로봇(100)의 위치로부터 제1 거리보다 먼 제2 거리만큼 떨어진 경로 상에 제2 랜드마크가 위치할 수 있다. 이 경우, 서버(미도시)는, 제1 랜드마크의 위치 및 제2 랜드마크의 위치에 기초하여, 제1 랜드마크로부터 제2 랜드마크까지 이동하기 위한 제1 방향을 판단하고, 제1 랜드마크를 포함하는 이미지에 제1 방향에 대한 정보를 오버랩한 이미지를 생성할 수 있다. 그리고, 서버(미도시)는 제2 랜드마크의 위치 및 목적지의 위치에 기초하여, 제2 랜드마크로부터 목적지까지 이동하기 위한 제2 방향을 판단하고, 제2 랜드마크를 포함하는 이미지에 제2 방향에 대한 정보를 오버랩한 이미지를 생성할 수 있다. 한편, 서버(미도시)는 경로 상에 위치하는 복수의 랜드마크 중에서도, 랜드마크로부터 목적지까지 이동하기 위해 방향 전환이 필요한 영역에 위치하는 랜드마크를 판단하고, 방향 전환이 필요한 영역에 위치하는 랜드마크를 포함하는 이미지에, 방향에 대한 정보를 오버랩한 이미지만을 생성할 수도 있다.Meanwhile, according to an embodiment, a plurality of landmarks may be located on a path from the position of the robot 100 to the position of the destination. For example, a first landmark is located on a path separated by a first distance from the position of the robot 100 , and a second landmark is located on a path separated by a second distance greater than the first distance from the position of the robot 100 . can be located In this case, the server (not shown) determines a first direction for moving from the first landmark to the second landmark based on the position of the first landmark and the position of the second landmark, and the first land An image in which information about the first direction is overlapped with an image including the mark may be generated. Then, the server (not shown) determines a second direction for moving from the second landmark to the destination based on the location of the second landmark and the location of the destination, and adds the second to the image including the second landmark. It is possible to create an image that overlaps the information about the direction. Meanwhile, the server (not shown) determines, among a plurality of landmarks located on the path, a landmark located in an area requiring a change of direction in order to move from the landmark to the destination, and a land located in the area requiring a change of direction. It is also possible to generate only an image in which information about a direction is overlapped with an image including the mark.
그리고, 서버(미도시)는 상술한 방법으로 생성된 이미지를 제공하는 웹 사이트에 접속하기 위한 정보를 로봇(100)으로 전송할 수 있다. 즉, 서버(미도시)는 로봇(100)의 위치로부터 목적지의 위치까지의 경로 상에 위치하는 랜드마크 및 랜드마크로부터 목적지까지 이동하기 위한 방향에 대한 정보를 포함하는 이미지를 제공하는 웹 사이트에 접속하기 위한 정보를 로봇(100)으로 전송할 수 있다. 또는, 경로 상에 복수의 랜드마크가 위치하는 경우이면, 서버(미도시)는 랜드마크를 포함하는 이미지에 방향에 대한 정보를 오버랩한 복수의 이미지를 제공하는 웹 사이트에 접속하기 위한 정보를 로봇(100)으로 전송할 수 있다.In addition, the server (not shown) may transmit information for accessing the web site providing the image generated by the above-described method to the robot 100 . That is, the server (not shown) is on a website that provides an image including information about a landmark located on the path from the position of the robot 100 to the position of the destination and the direction for moving from the landmark to the destination. Information for access may be transmitted to the robot 100 . Alternatively, if a plurality of landmarks are located on the path, the server (not shown) provides information for accessing a website that provides a plurality of images in which information about directions is overlapped with an image including the landmarks. (100) can be transmitted.
여기에서, 웹 사이트에 접속하기 위한 정보는, 일 예로 웹 사이트 주소가 링크된 QR 코드가 될 수 있으나 반드시 이에 한정되는 것은 아니고, 웹 사이트에 접속하기 위한 정보는 웹 사이트 주소 자체가 될 수도 있다. 그리고, 웹 사이트는 상술한 서버(미도시)에 의해 관리되는 웹 사이트가 될 수 있음은 물론, 상술한 서버(미도시)와는 상이한 외부 서버에 의해 관리되는 웹 사이트가 될 수 있다.Here, the information for accessing the website may be, for example, a QR code to which a website address is linked, but is not limited thereto, and the information for accessing the website may be a website address itself. In addition, the web site may be a web site managed by the above-described server (not shown), as well as a web site managed by an external server different from the above-described server (not shown).
이에 따라, 프로세서(140)는 서버(미도시)로부터, 로봇(100)의 위치로부터 목적지의 위치까지의 경로를 제공하는 웹 사이트에 접속하기 위한 정보를 수신할 수 있다. 구체적으로, 프로세서(140)는 로봇(100)의 위치로부터 목적지의 위치까지의 경로 상에 위치하는 랜드마크 및 랜드마크로부터 목적지까지 이동하기 위한 방향에 대한 정보를 포함하는 이미지를 제공하는 웹 사이트에 접속하기 위한 정보를 서버(미도시)로부터 수신(S330)할 수 있다. 그리고, 프로세서(140)는 서버(미도시)로부터 수신한 정보를 디스플레이(130)에 표시(S340)할 수 있다. Accordingly, the processor 140 may receive, from a server (not shown), information for accessing a web site that provides a path from the location of the robot 100 to the location of the destination. Specifically, the processor 140 is a landmark located on the path from the position of the robot 100 to the location of the destination and the website that provides an image including information on the direction for moving from the landmark to the destination. Information for access may be received from a server (not shown) (S330). In addition, the processor 140 may display the information received from the server (not shown) on the display 130 ( S340 ).
일 예로, 도 6을 참조하면, 프로세서(140)는 서버(미도시)로부터 웹 사이트에 접속하기 위한 정보로 QR 코드 이미지가 수신된 경우이면, 웹 사이트에 접속하기 위한 QR 코드 이미지(610)를 포함하는 경로 탐색 결과 화면(600)을 디스플레이(130)에 표시할 수 있다. 또한, 프로세서(140)는 QR 코드의 스캔을 가이드 하기 위한 UI(620), 출발지 및 목적지에 대한 정보(630), 목적지에 위치하는 매장을 촬영한 이미지(640), 목적지까지의 거리 및 예상 소요 시간에 대한 정보(650) 중 적어도 하나를 더 포함하는 경로 탐색 결과 화면(600)을 디스플레이(130)에 표시할 수도 있다. 여기에서, 목적지에 위치하는 매장을 촬영한 이미지(640)는 서버(미도시)로부터 수신할 수 있음은 물론, 로봇에 기저장되어 있을 수 있다. 또한, 목적지까지의 거리 및 예상 소요 시간에 대한 정보(650)는 서버(미도시)로부터 수신할 수 있다.For example, referring to FIG. 6 , the processor 140 receives a QR code image as information for accessing a website from a server (not shown), a QR code image 610 for accessing the website. The included route search result screen 600 may be displayed on the display 130 . In addition, the processor 140 is a UI 620 for guiding the scanning of the QR code, information 630 on the origin and destination, an image 640 of a store located at the destination, the distance to the destination and the estimated required time. A route search result screen 600 further including at least one of the time information 650 may be displayed on the display 130 . Here, the image 640 of a store located at a destination may be received from a server (not shown) and may be pre-stored in the robot. In addition, the information 650 on the distance to the destination and the estimated required time may be received from a server (not shown).
한편, 프로세서(140)는 출발 방향에 대한 정보를 디스플레이(130)에 표시할 수도 있다. 구체적으로, 프로세서(140)는 서버(미도시)로부터 랜드마크에 대한 정보를 수신하고, 기저장된 지도 정보에 기초하여 랜드마크의 위치를 판단할 수 있다. 일 예로, 프로세서(140)는 서버(미도시)로부터 랜드마크의 위치 정보를 수신하고, 기저장된 지도 상에서 랜드마크의 위치를 판단할 수 있다. 그리고, 프로세서(140)는 로봇(100)의 위치로부터 랜드마크의 위치로 이동하기 위한 방향을 판단하고, 방향에 대한 정보를 표시하도록 디스플레이(130)를 제어할 수 있다.Meanwhile, the processor 140 may display information on the departure direction on the display 130 . Specifically, the processor 140 may receive information on the landmark from a server (not shown), and determine the location of the landmark based on pre-stored map information. As an example, the processor 140 may receive location information of the landmark from a server (not shown) and determine the location of the landmark on a pre-stored map. In addition, the processor 140 may determine a direction for moving from the position of the robot 100 to the position of the landmark, and control the display 130 to display information about the direction.
한편, 상술한 QR 코드는 일 실시 예일 뿐, 프로세서(140)는 서버(미도시)로부터 웹 사이트에 접속하기 위한 웹 사이트 주소를 수신하고, 웹 사이트 주소를 텍스트 형식으로 디스플레이(130)에 표시할 수도 있다. 또는, 프로세서(140)는 NFC(Near Field Communication) 기술을 이용하여 웹 사이트에 대한 정보를 제공할 수 있다. 일 예로, 프로세서(140)는 웹 사이트 주소가 태그 된 NFC 태그를 제공할 수 있다.On the other hand, the above-described QR code is only an embodiment, and the processor 140 receives a web site address for accessing a web site from a server (not shown), and displays the web site address on the display 130 in text format. may be Alternatively, the processor 140 may provide information on the web site using Near Field Communication (NFC) technology. For example, the processor 140 may provide an NFC tag tagged with a website address.
이에 따라, 사용자는 로봇(100)을 통해 경로를 제공하는 웹 사이트에 접속할 수 있다. 이하, 도 7 내지 도 11을 참조하여 설명한다.Accordingly, the user may access a web site providing a route through the robot 100 . Hereinafter, it will be described with reference to FIGS. 7 to 11 .
도 7 내지 도 10은 본 개시의 일 실시 예에 따른 사용자 단말 장치를 설명하기 위한 도면이다. 7 to 10 are diagrams for explaining a user terminal device according to an embodiment of the present disclosure.
본 개시의 일 실시 예에 따른 사용자 단말 장치(200)는 도 7에 도시된 바와 같이 스마트 폰이 될 수 있다. 다만, 이는 일 실시 예로서, 사용자 단말 장치는 태블릿, 노트북 등과 같이 디스플레이를 구비한 다양한 전자 장치가 될 수 있다.The user terminal device 200 according to an embodiment of the present disclosure may be a smart phone as shown in FIG. 7 . However, this is an example, and the user terminal device may be various electronic devices having a display, such as a tablet or a notebook computer.
사용자 단말 장치(200)는 로봇(100)에 표시된 경로 탐색 결과 화면(600)에 기초하여 로봇(100)의 위치로부터 목적지의 위치까지의 경로를 제공하는 웹 사이트에 접속할 수 있다. 그리고, 사용자 단말 장치(200)는 웹 사이트가 제공하는 다양한 정보를 사용자 단말 장치(200)의 디스플레이를 통해 표시할 수 있다.The user terminal device 200 may access a website that provides a route from the location of the robot 100 to the location of the destination based on the route search result screen 600 displayed on the robot 100 . In addition, the user terminal device 200 may display various information provided by the website through the display of the user terminal device 200 .
일 예로, 사용자 단말 장치(200)는 경로 탐색 결과 화면(600)에 표시된 QR 코드(610)를 스캔하기 위한 사용자 명령이 수신되면, 카메라를 통해 QR 코드(610)를 스캔하고, QR 코드(610)에 링크된 경로를 제공하는 웹 사이트에 접속할 수 있다. 또는, 사용자 단말 장치(200)는 경로 탐색 결과 화면(600)에 표시된 웹 사이트 주소를 입력하기 위한 사용자 명령이 수신되는 경우 웹 사이트에 접속할 수 있고, 웹 사이트 주소가 태그 된 NFC 태그를 태그하는 사용자 조작에 의해 웹 사이트에 접속할 수도 있다.For example, when a user command for scanning the QR code 610 displayed on the route search result screen 600 is received, the user terminal device 200 scans the QR code 610 through the camera, and the QR code 610 ) to a website that provides a linked path. Alternatively, the user terminal device 200 may access the website when a user command for inputting the website address displayed on the route search result screen 600 is received, and the user tags the NFC tag with the website address tagged. You can also access the website by operation.
이 경우, 사용자 단말 장치(200)는 도 7에 도시된 바와 같이, 로봇(100)의 위치로부터 목적지의 위치까지의 경로 상에 위치하는 랜드마크 및 랜드마크로부터 목적지까지 이동하기 위한 방향에 대한 정보를 포함하는 이미지(730)를 제공하는 웹 사이트에 접속할 수 있다.In this case, as shown in FIG. 7 , the user terminal device 200 provides information on landmarks located on the path from the position of the robot 100 to the location of the destination and the direction for moving from the landmark to the destination. It is possible to access a website that provides an image 730 including
여기에서, 웹 사이트는 방향 정보를 포함하는 랜드마크 이미지(730)외에도 다양한 정보를 제공할 수 있다. 구체적으로, 도 7을 참조하면, 웹 사이트는 출발지 및 목적지에 대한 정보(710), 출발지로부터 목적지까지의 경로를 포함하는 지도 이미지(720) 및 목적지에 위치하는 매장을 촬영한 이미지(740)를 더 포함할 수 있다.Here, the website may provide various information in addition to the landmark image 730 including direction information. Specifically, referring to FIG. 7 , the website provides information 710 on the origin and destination, a map image 720 including a route from the origin to the destination, and an image 740 of a store located at the destination. may include more.
이에 따라, 사용자는 전체 경로를 포함하는 지도 이미지(720)와 함께, 랜드마크 이미지(730)를 확인하면서, 목적지까지 용이하게 이동할 수 있다. 또한, 사용자 단말 장치는 GPS 등과 같은 별도의 센서를 이용하지 않고도, 목적지까지의 경로를 사용자에게 제공할 수 있다.Accordingly, the user can easily move to the destination while checking the landmark image 730 together with the map image 720 including the entire route. Also, the user terminal device may provide a route to a destination to the user without using a separate sensor such as GPS.
한편, 실시 예에 따라, 로봇(100)의 위치로부터 목적지의 위치까지의 경로 상에 복수의 랜드마크가 위치할 수도 있다. 일 예로, 로봇(100)의 위치로부터 제1 거리만큼 떨어진 경로 상에 제1 랜드마크가 위치하고, 로봇(100)의 위치로부터 제1 거리보다 먼 제2 거리만큼 떨어진 경로 상에 제2 랜드마크가 위치할 수 있다. 이 경우, 웹 사이트는, 제1 랜드마크 및 제1 랜드마크로부터 제2 랜드마크까지 이동하기 위한 방향에 대한 정보를 포함하는 제1 이미지 및 제2 랜드마크 및 제2 랜드마크로부터 목적지까지 이동하기 위한 방향에 대한 정보를 포함하는 제2 이미지를 제공할 수 있다. Meanwhile, according to an embodiment, a plurality of landmarks may be located on a path from the position of the robot 100 to the position of the destination. For example, a first landmark is located on a path separated by a first distance from the position of the robot 100 , and a second landmark is located on a path separated by a second distance greater than the first distance from the position of the robot 100 . can be located In this case, the website includes a first image including information on a first landmark and a direction for moving from the first landmark to the second landmark and moving from the second landmark and the second landmark to the destination. It is possible to provide a second image including information about the direction for
예를 들어, 도 8을 참조하면, 웹 사이트는 제1 랜드마크 및 제1 랜드마크로부터 제2 랜드마크까지 이동하기 위한 방향에 대한 정보를 포함하는 제1 이미지(810) 및제2 랜드마크 및 제2 랜드마크로부터 목적지까지 이동하기 위한 방향에 대한 정보를 포함하는 제2 이미지(810)를 제공할 수 있다. 이에 따라, 사용자는 경로 상에 위치하는 복수의 랜드마크를 순차적으로 확인하면서, 목적지까지 용이하게 이동할 수 있다.For example, referring to FIG. 8 , the website includes a first image 810 including information on a first landmark and a direction for moving from the first landmark to the second landmark, and the second landmark and the second landmark. 2 A second image 810 including information on a direction for moving from the landmark to the destination may be provided. Accordingly, the user can easily move to the destination while sequentially checking the plurality of landmarks located on the route.
한편, 웹 사이트가 제공하는 화면 중에서, 전체 경로를 포함하는 지도 이미지는 사용자 단말 장치(200)의 화면 중 일 영역에 고정되어 제공될 수 있다. 일 예로, 도 9a를 참조하면, 사용자 단말 장치(200)는 웹 사이트가 제공하는 경로를 포함하는 지도 이미지(910), 제1 랜드마크를 포함하는 이미지(920) 및 제2 랜드마크를 포함하는 이미지(930)를 디스플레이에 표시하는 동안, 스크롤을 위한 사용자 명령이 수신되면, 도 9b 및 도 9c에 도시된 바와 같이, 지도 이미지(910)는 화면의 상단 영역에 고정한 채로 표시하고, 제1 랜드마크를 포함하는 이미지(920) 및 제2 랜드마크를 포함하는 이미지(930)는 사용자 명령에 따라 스크롤할 수 있다. 이를 위해, 웹 사이트는, 웹 페이지의 전체 영역 중에서, 위치 속성이 고정(fixed)으로 설정된 영역에 지도 이미지(910)를 제공할 수 있다.Meanwhile, among the screens provided by the website, the map image including the entire route may be fixedly provided to one area of the screen of the user terminal device 200 . For example, referring to FIG. 9A , the user terminal device 200 includes a map image 910 including a route provided by a website, an image 920 including a first landmark, and a second landmark. When a user command for scrolling is received while displaying the image 930 on the display, as shown in FIGS. 9B and 9C , the map image 910 is displayed fixedly on the upper area of the screen, and the first land The image 920 including the mark and the image 930 including the second landmark may be scrolled according to a user command. To this end, the web site may provide the map image 910 to an area in which the location property is set to fixed among the entire area of the web page.
한편, 도 10을 참조하면, 웹 사이트에서 제공되는 지도 이미지(910)는, 랜드마크가 위치하는 지도 이미지 상의 영역에, 랜드마크를 나타내는 GUI(1010, 1020)를 포함할 수 있다. 구체적으로, 웹 사이트를 제공하는 서버(미도시)는, 복수의 영역으로 구분된 지도 상에서, 경로 상에 위치하는 랜드마크를 판단하고, 지도 상의 복수의 영역 중 랜드마크가 위치하는 영역에 GUI를 표시한 지도 이미지를 웹 사이트를 통해 사용자 단말 장치(200)로 제공할 수 있다. 이에 따라, 사용자는 전체 경로 상의 랜드마크 위치를 확인하면서, 보다 용이하게 목적지까지 이동할 수 있다.Meanwhile, referring to FIG. 10 , a map image 910 provided from a website may include GUIs 1010 and 1020 indicating landmarks in an area on the map image where the landmark is located. Specifically, a server (not shown) that provides a website determines a landmark located on a path on a map divided into a plurality of areas, and displays a GUI in an area where the landmark is located among the plurality of areas on the map. The displayed map image may be provided to the user terminal device 200 through a website. Accordingly, the user can more easily move to the destination while checking the location of the landmark on the entire route.
한편, 이상에서는 사용자 단말 장치(200)를 통해 경로에 대한 정보를 제공하는 실시 예를 설명하였으나, 랜드마크 이미지를 포함하는 경로에 대한 정보는 로봇(100)에 의해 제공될 수도 있다.Meanwhile, although an embodiment in which information on a route is provided through the user terminal device 200 has been described above, information on a route including a landmark image may be provided by the robot 100 .
일 예로, 로봇(100)은 로봇(100)의 위치로부터 목적지의 위치까지의 경로 상에 위치하는 랜드마크 및 랜드마크로부터 목적지까지 이동하기 위한 방향에 대한 정보를 포함하는 이미지를 서버(미도시)로부터 수신하고, 도 11에 도시된 바와 같이, 방향에 대한 정보를 포함하는 랜드마크 이미지(1110, 1120)를 디스플레이(130)에 표시할 수 있다. 이때 표시되는 화면에는 도 11에 도시된 바와 같이, 전체 경로를 포함하는 지도 이미지(1130)가 포함될 수 있다.As an example, the robot 100 transmits an image including information about a landmark located on a path from the position of the robot 100 to the position of the destination and information on a direction for moving from the landmark to the destination server (not shown) , and as shown in FIG. 11 , landmark images 1110 and 1120 including information on directions may be displayed on the display 130 . As shown in FIG. 11 , the displayed screen may include a map image 1130 including the entire route.
또한, 이상에서는 서버(미도시)에 의해 방향에 대한 정보를 포함하는 랜드마크 이미지가 생성되는 것으로 설명하였으나, 이는 로봇(100)에 의해 생성될 수도 있다.In addition, although it has been described above that the landmark image including the direction information is generated by the server (not shown), it may be generated by the robot 100 .
*구체적으로, 로봇(100)은 출발지의 위치 및 목적지의 위치에 기초하여 경로를 판단하고, 기저장된 랜드마크에 대한 정보(가령, 랜드마크의 위치 정보)에 기초하여, 경로 상에 위치하는 랜드마크를 판단할 수 있다. 그리고, 기저장된 복수의 이미지 중에서 경로 상에 위치하는 랜드마크를 포함하는 이미지를 판단하고, 랜드마크로부터 목적지까지 이동하기 위한 방향을 판단하며, 랜드마크를 포함하는 이미지에 방향에 대한 정보를 오버랩한 이미지를 생성할 수 있다. 그리고, 로봇(100)은 생성한 이미지를 디스플레이(130)에 표시할 수 있다.* Specifically, the robot 100 determines a route based on the location of the origin and the location of the destination, and based on the pre-stored information about the landmark (eg, location information of the landmark), the land located on the route mark can be judged. And, determining an image including a landmark located on a path from among a plurality of pre-stored images, determining a direction for moving from the landmark to a destination, and overlapping the information on the direction on the image including the landmark You can create an image. In addition, the robot 100 may display the generated image on the display 130 .
도 12는 본 개시의 일 실시 예에 따른 로봇을 설명하기 위한 상세 블록도이다.12 is a detailed block diagram illustrating a robot according to an embodiment of the present disclosure.
도 12를 참조하면, 본 개시의 일 실시 예에 따른 로봇(100)은 센서(110), 통신부(120), 디스플레이(130), 메모리(150), 주행부(160), 조작부(170) 및 프로세서(140)를 포함할 수 있다. 이하, 상술한 설명과 중복되는 부분은 생략하거나 축약하여 설명한다.12 , the robot 100 according to an embodiment of the present disclosure includes a sensor 110 , a communication unit 120 , a display 130 , a memory 150 , a driving unit 160 , a manipulation unit 170 and It may include a processor 140 . Hereinafter, portions overlapping with the above description will be omitted or abbreviated.
통신부(120)는 외부 장치와 통신하여 다양한 데이터를 송수신할 수 있다. 예를 들어, 통신부(120)는 인터넷 네트워크, 이동 통신 네트워크를 통해 서버와 통신을 수행할 수 있음은 물론, BT(Bluetooth), BLE(Bluetooth Low Energy), WI-FI(Wireless Fidelity), Zigbee, NFC 등과 같은 다양한 통신 방식 등을 통해 외부 장치와 통신을 수행할 수 있다.The communication unit 120 may communicate with an external device to transmit/receive various data. For example, the communication unit 120 may communicate with a server through an Internet network or a mobile communication network, as well as BT (Bluetooth), BLE (Bluetooth Low Energy), WI-FI (Wireless Fidelity), Zigbee, Communication with an external device may be performed through various communication methods such as NFC.
특히, 통신부(120)는 와이파이 또는 블루투스 통신 방식을 통해 연결된 사용자 단말 장치(200)로부터 경로 요청을 위한 신호가 수신되면, 경로에 대한 정보를 사용자 단말 장치(200)로 전송할 수 있다. 여기에서, 경로에 대한 정보는 상술한 바와 같이, 경로 상에 위치하는 랜드마크 및 랜드마크로부터 목적지까지 이동하기 위한 방향에 대한 정보를 포함하는 이미지를 포함할 수 있다. 또한, 경로에 대한 정보에는 경로 상에 위치하는 복수의 랜드마크를 포함하는 복수의 이미지가 포함될 수도 있다. 그리고, 경로에 대한 정보는 서버(미도시)로부터 수신될 수 있음은 물론, 로봇(100)에 의해 생성될 수도 있다.In particular, when a signal for a route request is received from the user terminal device 200 connected through Wi-Fi or Bluetooth communication, the communication unit 120 may transmit route information to the user terminal device 200 . Here, as described above, the information on the route may include an image including landmarks located on the route and information on directions for moving from the landmark to the destination. In addition, the information on the path may include a plurality of images including a plurality of landmarks located on the path. In addition, information on the path may be received from a server (not shown) and may be generated by the robot 100 .
또한, 이상에서는 출발지의 위치 및 목적지의 위치에 대한 정보를 서버(미도시)로 전송하는 것으로 설명하였으나, 통신부(120)는 출발지의 명칭 및 목적지의 명칭에 대한 정보를 서버(미도시)로 전송할 수 있다. 이 경우, 서버(미도시)는 기저장된 지도 정보에 기초하여, 출발지의 명칭 및 목적지의 명칭에 매칭된 지도상의 위치를 판단하고, 해당 위치에 기초하여 경로를 판단할 수 있다. 가령, 서버(미도시)는 매장 A에 대한 정보가 로봇(100)으로부터 수신되면, 지도 상에서 매장 A가 위치하는 영역을 판단하고, 로봇(100)의 위치로부터 매장 A가 위치하는 영역까지의 경로를 판단할 수 있다.In addition, although it has been described above that information on the location of the origin and the location of the destination is transmitted to the server (not shown), the communication unit 120 transmits information on the name of the origin and the name of the destination to the server (not shown). can In this case, the server (not shown) may determine a location on the map that matches the name of the departure point and the destination based on the pre-stored map information, and may determine the route based on the location. For example, when information on store A is received from the robot 100, the server (not shown) determines an area in which store A is located on the map, and a path from the position of the robot 100 to an area in which store A is located. can be judged
이를 위해, 통신부(120)는 네트워크 통신을 수행하기 위한 다양한 통신 모듈을 포함할 수 있다. 예를 들어, 통신부(120)는 블루투스 모듈, 와이파이 모듈, 무선 통신 모듈 등을 포함할 수 있다.To this end, the communication unit 120 may include various communication modules for performing network communication. For example, the communication unit 120 may include a Bluetooth module, a Wi-Fi module, a wireless communication module, and the like.
메모리(150)는 로봇(100)의 구성요소의 전반적인 동작을 제어하기 위한 운영체제(Operating System: OS) 및 로봇(100)의 구성요소와 관련된 명령 또는 데이터를 저장할 수 있다.The memory 150 may store an operating system (OS) for controlling the overall operation of the components of the robot 100 and commands or data related to the components of the robot 100 .
이에 따라, 프로세서(140)는 메모리(150)에 저장된 다양한 명령 또는 데이터 등을 이용하여 로봇(100)의 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 다른 구성요소들 중 적어도 하나로부터 수신된 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리하고, 다양한 데이터를 비휘발성 메모리에 저장(store)할 수 있다.Accordingly, the processor 140 may control a plurality of hardware or software components of the robot 100 by using various commands or data stored in the memory 150, and may control a plurality of hardware or software components received from at least one of the other components. A command or data may be loaded into a volatile memory for processing, and various data may be stored in a non-volatile memory.
특히, 메모리(150)는 복수의 영역 구분된 지도에 대한 정보를 저장하고 있을 수 있다. 그리고, 지도에 대한 정보는 복수의 영역 별로 서로 다른 특징점에 대한 정보가 매칭되어 있을 수 있고, 서로 다른 환경에 대한 정보가 매칭되어 있을 수 있다.In particular, the memory 150 may store information about a map divided into a plurality of regions. In addition, information on the map may be matched with information on different feature points for each of a plurality of areas, and information on different environments may be matched with each other.
또한, 메모리(150)는 랜드마크를 포함하는 복수의 랜드마크 이미지를 저장하고 있을 수 있다. 여기에서, 랜드마크 이미지에는 랜드마크에 대한 정보(가령, 랜드마크의 명칭, 랜드마크의 위치)가 매칭되어 있을 수 있다.Also, the memory 150 may store a plurality of landmark images including landmarks. Here, information on the landmark (eg, the name of the landmark, the location of the landmark) may be matched to the landmark image.
주행부(160)는 모터(161) 및 모터(161)에 연결된 구동부(162)를 포함하는 구성으로써, 구동부(162)는 바퀴 또는 로봇의 다리 등으로 구현될 수 있고, 모터(161)는 프로세서(140)의 제어에 따라 구동부(162)를 제어함으로써, 로봇(100)을 이동시킬 수 있다. 일 예로, 구동부(162)가 좌측 바퀴 및 우측 바퀴로 구현되는 경우, 프로세서(140)는 좌측 바퀴를 회전시키는 모터에는 제1 회전력을 발생시키기 위한 제어 신호를 전송하고, 우측 바퀴를 회전시키는 모터에는 제1 회전력과는 상이한 제2 회전력을 발생시키기 위한 제어 신호를 전송함으로써, 로봇(100)의 주행 방향을 변경할 수 있다.The driving unit 160 is configured to include a motor 161 and a driving unit 162 connected to the motor 161 , and the driving unit 162 may be implemented as a wheel or a leg of a robot, and the motor 161 is a processor. By controlling the driving unit 162 according to the control of 140 , the robot 100 may be moved. As an example, when the driving unit 162 is implemented as a left wheel and a right wheel, the processor 140 transmits a control signal for generating a first rotational force to a motor rotating the left wheel, and transmits a control signal to the motor rotating the right wheel. By transmitting a control signal for generating a second rotational force different from the first rotational force, the traveling direction of the robot 100 may be changed.
조작부(170)는 제1 모터(171-1), 제1 모터(171-1)에 연결되는 로봇 팔(172), 제2 모터(171-2) 및 제2 모터(171-2)에 연결되는 로봇 핸드(173)를 포함할 수 있다. 그리고, 로봇 팔(172) 및 로봇 핸드(173)는 커넥터를 통해 연결되고, 로봇 팔(172)은 로봇 팔(172)에 연결된 제1 모터(171-1)의 구동에 따라 3차원 이동 또는 회전 등을 수행할 수 있고, 로봇 핸드(173)는 로봇 핸드(173)에 연결된 제2 모터(171-2)의 구동에 따라 3차원 이동, 회전 또는 제품 그립(grip) 등을 수행할 수 있다. The manipulation unit 170 is connected to a first motor 171-1, a robot arm 172 connected to the first motor 171-1, a second motor 171-2, and a second motor 171-2. It may include a robot hand 173 that is In addition, the robot arm 172 and the robot hand 173 are connected through a connector, and the robot arm 172 moves or rotates three-dimensionally according to the driving of the first motor 171-1 connected to the robot arm 172 . and the like, and the robot hand 173 may perform three-dimensional movement, rotation, or product grip according to the driving of the second motor 171 - 2 connected to the robot hand 173 .
프로세서(140)는 로봇(100)의 전반적인 동작을 제어한다. 이를 위해, 프로세서(140)는 중앙처리장치(central processing unit(CPU)) 또는 어플리케이션 프로세서(application processor(AP))를 포함할 수 있다. 그리고, 프로세서(140)는 적어도 하나의 범용 프로세서(general processor), 디지털 신호 프로세서(digital signal processor), ASIC(Application specific integrated circuit), SoC(system on chip), MICOM(Microcomputer), 드라이버 IC 등으로 구현될 수 있다.The processor 140 controls the overall operation of the robot 100 . To this end, the processor 140 may include a central processing unit (CPU) or an application processor (AP). The processor 140 includes at least one general processor, a digital signal processor, an application specific integrated circuit (ASIC), a system on chip (SoC), a microcomputer (MICOM), a driver IC, and the like. can be implemented.
한편, 상술한 본 발명의 다양한 실시 예들에 따른 방법들은, 기존 로봇에 설치 가능한 소프트웨어 또는 어플리케이션 형태로 구현될 수 있다. Meanwhile, the above-described methods according to various embodiments of the present invention may be implemented in the form of software or applications that can be installed in an existing robot.
또한, 상술한 본 발명의 다양한 실시 예들에 따른 방법들은, 기존 로봇에 대한 소프트웨어 업그레이드, 또는 하드웨어 업그레이드만으로도 구현될 수 있다. In addition, the above-described methods according to various embodiments of the present invention may be implemented only by software upgrades or hardware upgrades for existing robots.
또한, 상술한 본 발명의 다양한 실시 예들은 로봇에 구비된 임베디드 서버, 또는 로봇 외부의 서버를 통해 수행되는 것도 가능하다.In addition, various embodiments of the present invention described above may be performed through an embedded server provided in the robot or a server external to the robot.
한편, 본 발명에 따른 로봇의 제어 방법을 순차적으로 수행하는 프로그램이 저장된 비일시적 판독 가능 매체(non-transitory computer readable medium)가 제공될 수 있다. Meanwhile, a non-transitory computer readable medium in which a program for sequentially performing a control method of a robot according to the present invention is stored may be provided.
한편, 비일시적 판독 가능 매체란 레지스터, 캐시, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.On the other hand, the non-transitory readable medium refers to a medium that stores data semi-permanently, rather than a medium that stores data for a short moment, such as a register, cache, memory, etc., and can be read by a device. Specifically, the various applications or programs described above may be provided by being stored in a non-transitory readable medium such as a CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, and the like.
또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.In addition, although preferred embodiments of the present invention have been illustrated and described above, the present invention is not limited to the specific embodiments described above, and the technical field to which the present invention pertains without departing from the gist of the present invention as claimed in the claims Various modifications are possible by those of ordinary skill in the art, and these modifications should not be individually understood from the technical spirit or prospect of the present invention.

Claims (15)

  1. 로봇에 있어서,In the robot,
    센서;sensor;
    통신부; communication department;
    디스플레이; 및display; and
    목적지 입력을 위한 사용자 명령이 수신되는 경우, 상기 목적지의 위치에 대한 정보 및 상기 센서로부터 수신된 센싱 데이터에 기초하여 판단된 상기 로봇의 위치에 대한 정보를 상기 통신부를 통해 서버로 전송하고, When a user command for inputting a destination is received, information on the location of the destination and information on the location of the robot determined based on the sensing data received from the sensor are transmitted to the server through the communication unit,
    상기 서버로부터, 상기 로봇의 위치로부터 상기 목적지의 위치까지의 경로 상에 위치하는 랜드마크 및 상기 랜드마크로부터 상기 목적지까지 이동하기 위한 방향에 대한 정보를 포함하는 이미지를 제공하는 웹 사이트에 접속하기 위한 정보를 상기 통신부를 통해 수신하며, For accessing from the server to a website that provides an image including information on a landmark located on a path from the position of the robot to the position of the destination and information on a direction for moving from the landmark to the destination. Receive information through the communication unit,
    상기 수신된 정보를 표시하도록 상기 디스플레이를 제어하는 프로세서;를 포함하는 로봇.A robot comprising a; processor for controlling the display to display the received information.
  2. 제1항에 있어서,According to claim 1,
    상기 웹 사이트는,The website is
    상기 경로 상에 복수의 랜드마크가 포함된 경우, 상기 복수의 랜드마크를 포함하는 복수의 이미지를 제공하는, 로봇.When a plurality of landmarks are included on the path, the robot provides a plurality of images including the plurality of landmarks.
  3. 제2항에 있어서,3. The method of claim 2,
    상기 웹 사이트는,The website is
    상기 복수의 이미지를 상기 복수의 랜드마크의 상기 경로 상의 위치에 기초하여 나열하여 제공하는, 로봇.A robot that provides the plurality of images by arranging them based on the positions on the path of the plurality of landmarks.
  4. 제2항에 있어서,3. The method of claim 2,
    상기 복수의 랜드마크는, The plurality of landmarks,
    상기 로봇의 위치로부터 상기 경로 상에 순차적으로 위치하는 제1 및 제2 랜드마크를 포함하고,Containing first and second landmarks sequentially located on the path from the position of the robot,
    상기 웹 사이트는,The website is
    상기 제1 랜드마크 및 상기 제1 랜드마크로부터 상기 제2 랜드마크까지 이동하기 위한 방향에 대한 정보를 포함하는 제1 이미지 및 상기 제2 랜드마크 및 상기 제2 랜드마크로부터 상기 목적지까지 이동하기 위한 방향에 대한 정보를 포함하는 제2 이미지를 제공하는, 로봇.For moving from the first landmark and the first image and the second landmark and the second landmark to the destination including information on a direction for moving from the first landmark to the second landmark A robot that provides a second image comprising information about orientation.
  5. 제2항에 있어서,3. The method of claim 2,
    상기 웹 사이트는,The website is
    상기 웹 사이트의 웹 페이지를 통해 상기 로봇의 위치로부터 상기 목적지까지의 경로를 나타내는 지도 이미지 및, 상기 복수의 이미지를 제공하는, 로봇.A robot that provides a map image indicating a path from the position of the robot to the destination through a web page of the web site, and the plurality of images.
  6. 제5항에 있어서,6. The method of claim 5,
    상기 웹 사이트는,The website is
    위치 속성이 고정(fixed)으로 설정된 상기 웹 페이지의 일 영역에 상기 지도 이미지를 제공하는, 로봇.A robot that provides the map image to an area of the web page in which the location property is set to fixed.
  7. 제5항에 있어서,6. The method of claim 5,
    상기 지도 이미지는,The map image is
    상기 랜드마크가 위치하는 상기 지도 이미지 상의 영역에, 상기 랜드마크를 나타내는 GUI를 포함하는, 로봇. A robot comprising a GUI indicating the landmark in an area on the map image where the landmark is located.
  8. 제1항에 있어서,According to claim 1,
    상기 프로세서는,The processor is
    상기 서버로부터 상기 이미지에 대한 정보를 수신하고, 상기 이미지를 표시하도록 상기 디스플레이를 제어하는, 로봇.A robot that receives information about the image from the server and controls the display to display the image.
  9. 제1항에 있어서,According to claim 1,
    상기 프로세서는,The processor is
    상기 서버로부터 상기 랜드마크에 대한 정보를 수신하고, 기저장된 지도 정보에 기초하여 상기 랜드마크의 위치를 판단하며, 상기 로봇의 위치로부터 상기 랜드마크의 위치로 이동하기 위한 방향을 판단하고, 상기 방향에 대한 정보를 표시하도록 상기 디스플레이를 제어하는, 로봇.Receive information on the landmark from the server, determine the position of the landmark based on pre-stored map information, determine a direction for moving from the position of the robot to the position of the landmark, and the direction Controlling the display to display information about, the robot.
  10. 로봇의 제어 방법에 있어서,In the robot control method,
    목적지 입력을 위한 사용자 명령이 수신되는 경우, 상기 목적지의 위치에 대한 정보 및 상기 로봇의 위치에 대한 정보를 서버로 전송하는 단계; when a user command for inputting a destination is received, transmitting information on the location of the destination and information on the location of the robot to a server;
    상기 서버로부터, 상기 로봇의 위치로부터 상기 목적지의 위치까지의 경로 상에 위치하는 랜드마크 및 상기 랜드마크로부터 상기 목적지까지 이동하기 위한 방향에 대한 정보를 포함하는 이미지를 제공하는 웹 사이트에 접속하기 위한 정보를 수신하는 단계; 및 For accessing from the server to a website that provides an image including information about a landmark located on a path from the position of the robot to the position of the destination and information on a direction for moving from the landmark to the destination. receiving information; and
    상기 수신된 정보를 표시하는 단계;를 포함하는 로봇의 제어 방법.Displaying the received information; Control method of a robot comprising a.
  11. 제10항에 있어서,11. The method of claim 10,
    상기 웹 사이트는,The website is
    상기 경로 상에 복수의 랜드마크가 포함된 경우, 상기 복수의 랜드마크를 포함하는 복수의 이미지를 제공하는, 로봇의 제어 방법.When a plurality of landmarks are included on the path, a method for controlling a robot that provides a plurality of images including the plurality of landmarks.
  12. 제11항에 있어서,12. The method of claim 11,
    상기 웹 사이트는,The website is
    상기 복수의 이미지를 상기 복수의 랜드마크의 상기 경로 상의 위치에 기초하여 나열하여 제공하는, 로봇의 제어 방법.A control method of a robot that provides the plurality of images by arranging them based on the positions on the path of the plurality of landmarks.
  13. 제11항에 있어서,12. The method of claim 11,
    상기 복수의 랜드마크는, The plurality of landmarks,
    상기 로봇의 위치로부터 상기 경로 상에 순차적으로 위치하는 제1 및 제2 랜드마크를 포함하고,Containing first and second landmarks sequentially located on the path from the position of the robot,
    상기 웹 사이트는,The website is
    상기 제1 랜드마크 및 상기 제1 랜드마크로부터 상기 제2 랜드마크까지 이동하기 위한 방향에 대한 정보를 포함하는 제1 이미지 및 상기 제2 랜드마크 및 상기 제2 랜드마크로부터 상기 목적지까지 이동하기 위한 방향에 대한 정보를 포함하는 제2 이미지를 제공하는, 로봇의 제어 방법.For moving from the first landmark and the first image and the second landmark and the second landmark to the destination including information on a direction for moving from the first landmark to the second landmark A method of controlling a robot, which provides a second image including information about a direction.
  14. 제11항에 있어서,12. The method of claim 11,
    상기 웹 사이트는,The website is
    상기 웹 사이트의 웹 페이지를 통해 상기 로봇의 위치로부터 상기 목적지까지의 경로를 나타내는 지도 이미지 및, 상기 복수의 이미지를 제공하는, 로봇의 제어 방법.A method for controlling a robot, which provides a map image indicating a path from the position of the robot to the destination through a web page of the web site, and the plurality of images.
  15. 제14항에 있어서,15. The method of claim 14,
    상기 웹 사이트는,The website is
    위치 속성이 고정(fixed)으로 설정된 상기 웹 페이지의 일 영역에 상기 지도 이미지를 제공하는, 로봇의 제어 방법.A method for controlling a robot, which provides the map image to an area of the web page in which the location attribute is set to fixed.
PCT/KR2020/016178 2019-12-13 2020-11-17 Robot and control method thereof WO2021118089A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020190166478A KR20210075428A (en) 2019-12-13 2019-12-13 Robot and contrl method thereof
KR10-2019-0166478 2019-12-13

Publications (1)

Publication Number Publication Date
WO2021118089A1 true WO2021118089A1 (en) 2021-06-17

Family

ID=76330516

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/016178 WO2021118089A1 (en) 2019-12-13 2020-11-17 Robot and control method thereof

Country Status (2)

Country Link
KR (1) KR20210075428A (en)
WO (1) WO2021118089A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6182010B1 (en) * 1999-01-28 2001-01-30 International Business Machines Corporation Method and apparatus for displaying real-time visual information on an automobile pervasive computing client
KR20030027731A (en) * 2001-09-26 2003-04-07 가부시끼가이샤 도시바 Destination guidance system, destination guidance server, user terminal, destination guidance method, computer readable memory that stores program for making computer generate and acquire information associated with guidance in building, destination guidance data acquisition system, destination guidance data acquisition server, destination guidance data acquisition terminal, and destination guidance data acquisition method
JP2006293382A (en) * 2006-05-15 2006-10-26 Sony Corp Device and method for providing map information
KR20150133349A (en) * 2014-05-19 2015-11-30 에스케이플래닛 주식회사 Service providing system and method for guiding a point, apparatus and computer readable medium having computer program recorded therefor
KR20180039438A (en) * 2016-10-10 2018-04-18 엘지전자 주식회사 Guidance robot for airport and method thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6182010B1 (en) * 1999-01-28 2001-01-30 International Business Machines Corporation Method and apparatus for displaying real-time visual information on an automobile pervasive computing client
KR20030027731A (en) * 2001-09-26 2003-04-07 가부시끼가이샤 도시바 Destination guidance system, destination guidance server, user terminal, destination guidance method, computer readable memory that stores program for making computer generate and acquire information associated with guidance in building, destination guidance data acquisition system, destination guidance data acquisition server, destination guidance data acquisition terminal, and destination guidance data acquisition method
JP2006293382A (en) * 2006-05-15 2006-10-26 Sony Corp Device and method for providing map information
KR20150133349A (en) * 2014-05-19 2015-11-30 에스케이플래닛 주식회사 Service providing system and method for guiding a point, apparatus and computer readable medium having computer program recorded therefor
KR20180039438A (en) * 2016-10-10 2018-04-18 엘지전자 주식회사 Guidance robot for airport and method thereof

Also Published As

Publication number Publication date
KR20210075428A (en) 2021-06-23

Similar Documents

Publication Publication Date Title
WO2014073825A1 (en) Portable device and control method thereof
WO2013133478A1 (en) Portable device and control method thereof
WO2018230845A1 (en) Method for positioning on basis of vision information and robot implementing same
WO2017099376A1 (en) Electronic apparatus and controlling method thereof
WO2016035940A1 (en) Display device and method of controlling therefor
WO2019124841A1 (en) Electronic device and method for executing function according to stroke input
WO2017086689A1 (en) Electronic device and control method therefor
WO2021118089A1 (en) Robot and control method thereof
WO2014061905A1 (en) System for providing motion and voice based bookmark and method therefor
WO2016072610A1 (en) Recognition method and recognition device
WO2016088922A1 (en) Method for providing interface using mobile device and wearable device
WO2016003023A1 (en) Route search method, device and server
JP2012156836A (en) Remote controller and program
WO2017030285A1 (en) Ui providing method and display device applying same
WO2016122153A1 (en) Display apparatus and control method thereof
WO2018088703A1 (en) Parking lot-sharing system factoring in driving skill levels, method thereof, and recording medium recorded with computer program
JP2006170828A (en) Portable terminal
WO2017217612A1 (en) Method for creating and sharing subtitles of video content by using one-touch feature
WO2020141808A1 (en) Electronic device and method for editing content of external device
WO2024085319A1 (en) Method for operating electronic device providing information, and electronic device supporting same
WO2022085844A1 (en) Robot management server and system, and control method thereof
WO2019143169A1 (en) Electronic device and operation method therefor
WO2024014596A1 (en) Method for providing delivery-related information and electronic device therefor
WO2023027310A1 (en) Robot and control method thereof
WO2024043497A1 (en) Robot and operation method thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20899556

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20899556

Country of ref document: EP

Kind code of ref document: A1