WO2021253743A1 - 一种机器人场景功能切换方法、系统、存储介质及智能机器人 - Google Patents

一种机器人场景功能切换方法、系统、存储介质及智能机器人 Download PDF

Info

Publication number
WO2021253743A1
WO2021253743A1 PCT/CN2020/133966 CN2020133966W WO2021253743A1 WO 2021253743 A1 WO2021253743 A1 WO 2021253743A1 CN 2020133966 W CN2020133966 W CN 2020133966W WO 2021253743 A1 WO2021253743 A1 WO 2021253743A1
Authority
WO
WIPO (PCT)
Prior art keywords
scene
robot
function
calibration position
scene function
Prior art date
Application number
PCT/CN2020/133966
Other languages
English (en)
French (fr)
Inventor
张利
张雪元
Original Assignee
特斯联科技集团有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 特斯联科技集团有限公司 filed Critical 特斯联科技集团有限公司
Publication of WO2021253743A1 publication Critical patent/WO2021253743A1/zh

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning

Definitions

  • the invention relates to the technical field of intelligent robots, and in particular to a method, system, storage medium and intelligent robot for switching robot scene functions.
  • voice assistant products are becoming more and more abundant, from mobile phones and tablets, to smart speakers used in home environments, and service robots in public places, all with various functions Voice assistants.
  • voice assistants With the application of voice assistants to robot products, the display of various service types is becoming more and more abundant.
  • the embodiments of the present application provide a method, system, storage medium, and intelligent robot for switching robot scene functions.
  • a brief summary is given below. This summary is not a general comment, nor is it intended to identify key/important elements or describe the scope of protection of these embodiments. Its sole purpose is to present some concepts in a simple form as a prelude to the detailed description that follows.
  • an embodiment of the present application provides a method for switching robot scene functions, and the method includes:
  • the scene function including a prompt, barrage information, or service sub-function set
  • the method before locating the current position of the robot during the movement of the robot, the method further includes:
  • the configuring the scene function corresponding to the scene calibration position based on the scene calibration position includes:
  • the switching the current scene function of the robot to the scene function corresponding to the calibration position based on the calibration position includes:
  • a path planning algorithm is used to control the movement of the robot.
  • an embodiment of the present application provides a robot scene function switching system, the system including:
  • Position positioning module used to locate the current position of the robot during the process of controlling the movement of the robot
  • a calibration position acquisition module which is used to acquire the corresponding calibration position in the pre-built map of the area where the current position is located;
  • the scene function switching module is configured to switch the current scene function of the robot to the scene function corresponding to the calibrated position based on the calibrated position, and the scene function includes a prompt, barrage information or service sub-function set;
  • the control work module is used to control the robot work according to the scene function.
  • system further includes:
  • the area coordinate acquisition module is used to acquire the position coordinate points of multiple scene areas
  • the coordinate point labeling module is configured to receive an area labeling instruction, and label the position coordinate points of the multiple scene areas to generate a scene calibration position;
  • the scene function configuration module is configured to configure the scene function corresponding to the scene calibration position based on the scene calibration position.
  • the scenario function configuration module includes:
  • a scene function acquiring unit configured to acquire the scene function corresponding to the scene calibration position after receiving the scene function configuration instruction
  • the mapping relationship generation unit is used to bind the scene function and the scene calibration position to generate a mapping relationship.
  • an embodiment of the present application provides a computer storage medium, the computer storage medium stores a plurality of instructions, and the instructions are suitable for being loaded by a processor and executing the above method steps.
  • an embodiment of the present application provides an intelligent robot, which may include a processor and a memory; wherein the memory stores a computer program, and the computer program is adapted to be loaded by the processor and execute the above method steps .
  • the current position of the robot in the process of controlling the movement of the robot, the current position of the robot is first located, and then the corresponding calibration position in the pre-built map of the area where the current position is located is obtained, and then the current scene function of the robot is switched to the one corresponding to the calibration position based on the calibration position.
  • Scene function the scene function includes prompt, barrage information or service sub-function set, and finally controls the robot to work according to the scene function.
  • FIG. 1 is a schematic flowchart of a method for switching robot scene functions provided by an embodiment of the present application
  • FIG. 2 is a schematic diagram of a process of selecting a robot function according to an embodiment of the present application
  • FIG. 3 is a schematic flowchart of another method for switching robot scene functions provided by an embodiment of the present application.
  • FIG. 4 is a system schematic diagram of a robot scene function switching system provided by an embodiment of the present application.
  • Fig. 5 is a system schematic diagram of another robot scene function switching system provided by an embodiment of the present application.
  • Fig. 6 is a schematic diagram of a scenario function configuration module provided by an embodiment of the present application.
  • Fig. 7 is a schematic structural diagram of an intelligent robot provided by an embodiment of the present application.
  • this application provides a robot scene function switching method, system, storage medium, and intelligent robot to solve the above-mentioned related technical problems.
  • this application transforms a pre-configured single voice service capability into a form of automatic voice service configuration based on the classification of robot service scene maps, allowing robots to enter different service scenarios In the area, the configuration of the service can be automatically switched, which can save costs and improve the use efficiency of the robot.
  • An exemplary embodiment is used to describe in detail below.
  • the method for switching robot scene functions provided by the embodiments of the present application will be described in detail below in conjunction with accompanying drawings 1 to 3.
  • the method can be implemented by relying on a computer program, and can be run on a robot scene function switching system based on the Von Neumann system.
  • the computer program can be integrated in the application or run as an independent tool application.
  • the robot scene function switching system in the embodiment of the present application is applied to an intelligent robot.
  • FIG. 1 provides a schematic flowchart of a method for switching scene functions of a robot according to an embodiment of the present application.
  • the method of the embodiment of the present application may include the following steps:
  • the current position is the position coordinate point of the robot positioning during the movement.
  • a path planning algorithm is used to control the robot when it moves.
  • the path planning algorithm is at least a breadth first algorithm and a heuristic search algorithm.
  • control robot when the control robot moves to the target scene area, it first obtains the coordinates of the current position point, and then obtains the coordinates of the target scene area, and then traverses continuously from the current position point through the breadth-first algorithm
  • the entire pre-built map when traversing to the coordinates of the target scene area, then the current position and the coordinates of the target scene area are connected, so there is a path between the current position and the target scene, because the breadth-first algorithm starts radially from the center Because of the characteristics of diffusion, the path it finds is the shortest path. Finally, the path found is used to control the robot to reach the coordinate point of the target scene area.
  • control robot when the control robot moves to the target scene area, it first obtains the coordinates of the current position point, and then obtains the coordinates of the target scene area, and then changes the FIFO of the original queue of the breadth first algorithm through the heuristic search algorithm Mode, and then add priority to different points on the traversed map. At this time, the smaller the Manhattan distance from the end point, the point has the highest priority. Finally, the points with the highest priority are formed into a line segment, and the line segment is changed to reach The best path to the target scene area.
  • the robot when reaching the target scene area, the robot locates its current position by loading the positioning system, and generates positioning information after the positioning is completed.
  • an intelligent robot is going to work in a studio hall. It first analyzes and obtains the location information of the studio hall contained in the work order, then obtains the current position, and then obtains the location of the studio hall. The breadth-first algorithm and heuristic search algorithm The path of the studio hall is planned. After the planning is completed, an optimal path is generated. Finally, the robot is controlled to reach the studio hall according to the optimal path. After reaching the studio hall, it locates itself in the studio hall by loading the positioning system installed by itself. Coordinate points.
  • the calibration location is that the back-end administrator will mark the area category of the self-built map scanned in the robot service area.
  • the possible categories are, for example, different scene areas such as the exhibition hall, the front desk, the elevator room, and the demonstration hall.
  • the robot can reach the target scene area and locate the current position of the robot in the target scene area.
  • the processor on the robot loads the pre-built map , And then query the corresponding calibration location in the pre-built map according to the current location information.
  • S103 Switch the current scene function of the robot to the scene function corresponding to the calibrated position based on the calibrated position, where the scene function includes a prompt, barrage information, or a service sub-function set;
  • the scene function is a set of prompts and bullet screens or service sub-functions set in different scene areas.
  • prompts and barrage can be used by the robot in the exhibition hall to answer the user's inquiries about the exhibition hall through a combination of voice and barrage.
  • the sub-function set can be the use of equipment by the robot in the exhibition hall, or related sub-functions such as introduction of the exhibition hall and guidance of entrances and exits.
  • different scene functions are pre-configured and bound together with different scenes on a pre-built map.
  • the robot arrives at a different site, it locates the specific location in the current scene and maps it according to the location of the scene area. Go to the configured scene function to obtain the scene function corresponding to the scene area.
  • the calibration position corresponding to the current position of the robot in the pre-built map can be obtained.
  • the mapping relationship corresponding to the calibration position is obtained, and then the mapping relationship is mapped to the calibration position correspondence according to the mapping relationship.
  • the mapping relationship corresponding to the calibrated position is obtained, and the scene function of the current position is mapped through the mapping relationship.
  • the controller in the robot turns on the voice recognition mode and the barrage at this time, and performs semantic recognition according to the question asked by the user.
  • the answer to the user’s question is generated, and the answer is through the robot voice
  • the system plays and converts the broadcasted voice and text into text plus English for display through barrage.
  • the robot performs voice recognition conversion
  • first collect the user's voice information When the voice information is collected, input the robot's voice information into the pre-trained semantic recognition model for semantic recognition. After the recognition is completed, the user's voice Generate semantic recognition results, and then obtain answers from the language text database according to the generated semantic recognition results for output, and finally perform voice conversion and barrage display of the output answers.
  • the semantic recognition model is generated by pre-training.
  • model training first obtain a large number of data samples from the text library, then create a neural network model, and then input a large number of data samples into the neural network model for training.
  • the loss value corresponding to the loss function of the model is the smallest, the model training ends.
  • timbre library For example, when the current user is a boy, you can analyze the age group corresponding to the boy’s timbre, and then randomly extract the age group from the timbre library Corresponding seiyuu timbre, and finally the answer is played through the obtained seiyuu timbre.
  • the mapping relationship corresponding to the calibrated position is obtained, and the scene function of the current position is mapped through the mapping relationship.
  • the controller in the robot controls the robot to perform each sub-function in the service sub-function set one by one.
  • the location of the robot at this time is the studio, and the corresponding sub-functions may be the operation function of the equipment, the introduction function of the exhibition hall, and the guidance function of the entrance.
  • S104 Control the robot to work according to the scene function set.
  • the robot first moves to the target scene area through the path planning algorithm, and then recognizes the current position on the map and matches the pre-labeled location, and then maps the labeled location to the map scene category, such as the scene category 1.
  • Scene category 2, scene category 3, scene category N, etc. and finally select the scene function corresponding to the scene type based on the mapped map scene category.
  • the scene function corresponding to scene category 1 is a set of prompt words and barrage or service sub-functions of scene 1
  • the scene function corresponding to scene category 2 is a set of prompt words and barrage or service sub-functions of scene 2, such as scene category 3.
  • the corresponding scene function is a set of prompt words and barrage or service sub-functions of scene 3, for example, the scene function corresponding to scene category N is a set of prompt words and barrage or service sub-functions of scene N.
  • the current position of the robot in the process of controlling the movement of the robot, the current position of the robot is first located, and then the corresponding calibration position in the pre-built map of the area where the current position is located is obtained, and then the current scene function of the robot is switched to the one corresponding to the calibration position based on the calibration position.
  • Scene function the scene function includes prompt, barrage information or service sub-function set, and finally controls the robot to work according to the scene function.
  • FIG. 3 is a schematic flowchart of a method for switching robot scene functions according to an embodiment of this application.
  • the robot scene function switching method is applied to an intelligent robot as an example.
  • the robot scene function switching method may include the following steps:
  • the user inputs instructions to the robot to search for the locations of different scene areas from the map through the management platform on the robot.
  • the robot receives the instructions, and the robot obtains the coordinates of the different scene areas from the pre-calibrated map. point.
  • S202 Receive an area labeling instruction, and label the position coordinate points of the multiple scene areas to generate a scene calibration position;
  • step S201 after obtaining the coordinate points of different scene areas based on step S201, the user inputs a position point marking instruction to the robot through the management platform on the robot, and the intelligent robot receives the map marking instruction and marks the different scene areas. Mark the location.
  • step S202 different scene area positions can be marked.
  • the user enters the scene functions corresponding to the different positions to the robot through the management platform on the robot.
  • the scene functions include prompts and bulletins.
  • the robot receives and saves the prompts and barrage or service sub-function collections corresponding to different locations.
  • the intelligent robot when the intelligent robot receives the prompts and bullet screens or service sub-function sets corresponding to different positions, the user will use the operation management platform to combine the prompts corresponding to different scene area positions and different scene area positions with The bullet screen or service sub-function set performs mapping relationship configuration, and the intelligent robot receives the mapping relationship configuration instruction, and completes the operation of different target location point prompts and the bullet screen or service sub-function set mapping configuration.
  • the current position of the robot in the process of controlling the movement of the robot, the current position of the robot is first located, and then the corresponding calibration position in the pre-built map of the area where the current position is located is obtained, and then the current scene function of the robot is switched to the one corresponding to the calibration position based on the calibration position.
  • Scene function the scene function includes prompt, barrage information or service sub-function set, and finally controls the robot to work according to the scene function.
  • FIG. 4 shows a schematic structural diagram of a robot scene function switching system provided by an exemplary embodiment of the present invention.
  • the robot scene function switching system can be realized as all or part of an intelligent robot through software, hardware or a combination of the two.
  • the system 1 includes a position positioning module 10, a calibration position acquisition module 20, a scene function switching module 30, and a control working module 40.
  • the position positioning module 10 is used to control the current position of the robot during the movement of the robot;
  • the calibration position acquisition module 20 is used to acquire the calibration position corresponding to the area where the current position is located in the pre-built map;
  • the scene function switching module 30 is configured to switch the current scene function of the robot to the scene function corresponding to the calibrated position based on the calibrated position, and the scene function includes a prompt, barrage information or service sub-function set;
  • the control work module 40 is used to control the robot work according to the scene function.
  • system 1 further includes:
  • the area coordinate obtaining module 50 is used to obtain the position coordinate points of multiple scene areas
  • the coordinate point labeling module 60 is configured to receive a region labeling instruction, and label the position coordinate points of the multiple scene regions to generate a scene calibration position;
  • the scene function configuration module 70 is configured to configure the scene function corresponding to the scene calibration position based on the scene calibration position.
  • the scenario function configuration module 70 includes:
  • the scene function obtaining unit 710 is configured to obtain the scene function corresponding to the scene calibration position after receiving the scene function configuration instruction;
  • the mapping relationship generating unit 720 is configured to bind the scene function and the scene calibration position to generate a mapping relationship.
  • the robot scene function switching system provided by the above embodiment executes the robot scene function switching method
  • only the division of the above-mentioned functional modules is used as an example for illustration.
  • the above-mentioned function assignments can be divided according to needs.
  • the function module is completed, that is, the internal structure of the device is divided into different function modules to complete all or part of the functions described above.
  • the robot scene function switching system provided by the foregoing embodiment belongs to the same concept as the robot scene function switching method embodiment, and the implementation process of the robot scene function switching method is described in the method embodiment, which will not be repeated here.
  • the current position of the robot in the process of controlling the movement of the robot, the current position of the robot is first located, and then the corresponding calibration position in the pre-built map of the area where the current position is located is obtained, and then the current scene function of the robot is switched to the one corresponding to the calibration position based on the calibration position.
  • Scene function the scene function includes prompt, barrage information or service sub-function set, and finally controls the robot to work according to the scene function.
  • the present invention also provides a computer-readable medium on which program instructions are stored, and when the program instructions are executed by a processor, the robot scene function switching method provided by the foregoing method embodiments is implemented.
  • the present invention also provides a computer program product containing instructions, which when running on a computer, causes the computer to execute the robot scene function switching method described in the above-mentioned various method embodiments.
  • the smart robot 1000 may include: at least one processor 1001, at least one network interface 1004, a user interface 1003, a memory 1005, and at least one communication bus 1002.
  • the communication bus 1002 is used to implement connection and communication between these components.
  • the user interface 1003 may include a display screen (Display) and a camera (Camera), and the optional user interface 1003 may also include a standard wired interface and a wireless interface.
  • Display display screen
  • Camera Camera
  • the optional user interface 1003 may also include a standard wired interface and a wireless interface.
  • the network interface 1004 may optionally include a standard wired interface and a wireless interface (such as a WI-FI interface).
  • the processor 1001 may include one or more processing cores.
  • the processor 1001 uses various excuses and lines to connect various parts of the entire electronic device 1000, and executes by running or executing instructions, programs, code sets, or instruction sets stored in the memory 1005, and calling data stored in the memory 1005.
  • Various functions and processing data of the electronic device 1000 may adopt at least one of digital signal processing (Digital Signal Processing, DSP), Field-Programmable Gate Array (Field-Programmable Gate Array, FPGA), and Programmable Logic Array (Programmable Logic Array, PLA).
  • DSP Digital Signal Processing
  • FPGA Field-Programmable Gate Array
  • PLA Programmable Logic Array
  • the processor 1001 may be integrated with one or a combination of a central processing unit (CPU), a graphics processing unit (GPU), a modem, and the like.
  • the CPU mainly processes the operating system, user interface, and application programs; the GPU is used for rendering and drawing the content that the display needs to display; the modem is used for processing wireless communication. It is understandable that the above-mentioned modem may not be integrated into the processor 1001, but may be implemented by a chip alone.
  • the memory 1005 may include random access memory (Random Access Memory, RAM), and may also include read-only memory (Read-Only Memory).
  • the memory 1005 includes a non-transitory computer-readable storage medium.
  • the memory 1005 may be used to store instructions, programs, codes, code sets or instruction sets.
  • the memory 1005 may include a storage program area and a storage data area, where the storage program area may store instructions for implementing the operating system and instructions for at least one function (such as touch function, sound playback function, image playback function, etc.), Instructions used to implement the foregoing method embodiments, etc.; the storage data area can store the data involved in the foregoing method embodiments, etc.
  • the memory 1005 may also be at least one storage system located far away from the foregoing processor 1001.
  • the memory 1005 as a computer storage medium may include an operating system, a network communication module, a user interface module, and a robot scene function switching application.
  • the user interface 1003 is mainly used to provide an input interface for the user to obtain data input by the user; and the processor 1001 can be used to call the robot scene function switching application stored in the memory 1005, And specifically perform the following operations:
  • the scene function including prompt, bullet screen information or service sub-function set;
  • the processor 1001 further performs the following operations when performing the positioning of the current position of the robot during the robot movement process:
  • the processor 1001 when the processor 1001 executes the function of configuring the scene corresponding to the scene calibration position based on the scene calibration position, the processor 1001 specifically executes the following operations:
  • the processor 1001 when the processor 1001 executes the switching of the current scene function of the robot to the scene function corresponding to the calibration position based on the calibration position, the processor 1001 specifically executes the following operations:
  • the robot in the process of controlling the movement of the robot, first locate the current position of the robot, and then obtain the corresponding calibration position in the pre-built map of the area where the current position is located, and then switch the current scene function of the robot to the one corresponding to the calibration position based on the calibration position Scene function, the scene function includes prompt, barrage information or service sub-function set, and finally controls the robot to work according to the scene function. Since this application transforms a single pre-configured voice service capability into a form of automatic voice service configuration based on the classification of robot service scene map categories, the robot can automatically switch services when entering different service scene areas Configuration, which can save costs and improve the efficiency of the robot.
  • the program can be stored in a computer-readable storage medium. When executed, it may include the procedures of the above-mentioned method embodiments.
  • the storage medium can be a magnetic disk, an optical disc, a read-only storage memory or a random storage memory, etc.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)

Abstract

一种机器人场景功能切换方法,包括:控制机器人移动过程中,定位机器人当前位置;获取当前位置所在区域在预先构建地图中对应的标定位置;基于标定位置将机器人当前场景功能切换至标定位置对应的场景功能,场景功能包括提示语、弹幕信息或服务子功能集合;根据场景功能控制机器人工作。据此,将预先配置好的单一的语音服务能力,转变成基于机器人服务场景地图类别划分而进行自动语音服务配置的形式,让机器人在进入到不同的服务场景区域内,可以自动切换服务的配置,从而可以节约成本,提高机器人的使用效率。另外,还涉及一种机器人场景功能切换系统、存储介质以及智能机器人。

Description

一种机器人场景功能切换方法、系统、存储介质及智能机器人 技术领域
本发明涉及智能机器人技术领域,特别涉及一种机器人场景功能切换方法、系统、存储介质及智能机器人。
背景技术
随着人工智能技术的不断发展,语音类的助手产品越来越丰富,从移动端的手机、平板电脑,到家庭环境使用的智能音箱,以及公共场合内的服务类机器人,都具有各具功能的语音助手,随着语音助手在机器人产品上的应用落地,各种服务类型的产品展示形态越来越丰富。
在当前的技术方案中,开发人员使用一个或多个通用的欢迎方式去应对不同的场景,同时为所有可能的场景完全配置语音覆盖范围。这样带来的问题是有以下两点,第一,机器人服务的能力比较丰富,一个或多个通用的语音欢迎方式或引导提示比较单一,也容易让用户不能很好的了解机器人的能力范围,导致使用不方便;第二,领域知识覆盖面太广,接近于开放领域,目前的自然语言理解算法在开放域的能力较弱,导致用户的语义无法被高效率的准确理解,影响体验。
发明内容
本申请实施例提供了一种机器人场景功能切换方法、系统、存储介质及智能机器人。为了对披露的实施例的一些方面有一个基本的理解,下面给出了简单的概括。该概括部分不是泛泛评述,也不是要确定关键/重要组成元素或描绘这些实施例的保护范围。其唯一目的是用简单的形式呈现一些概念,以此作为后面的详细说明的序言。
第一方面,本申请实施例提供了一种机器人场景功能切换方法,所述方法包括:
控制机器人移动过程中,定位机器人当前位置;
获取所述当前位置所在区域在预先构建地图中对应的标定位置;
基于所述标定位置将机器人当前场景功能切换至所述标定位置对应的场景功能,所述场景功能包括提示语、弹幕信息或服务子功能集合;
根据所述场景功能控制机器人工作。
可选的,所述在机器人移动过程中,定位机器人当前位置之前,还包括:
获取多个场景区域的位置坐标点;
接收区域标注指令,针对所述多个场景区域的位置坐标点进行标注生成场景标定位置;
基于所述场景标定位置配置所述场景标定位置对应的场景功能。
可选的,所述基于所述场景标定位置配置所述场景标定位置对应的场景功能,包括:
接收场景功能配置指令后,获取所述场景标定位置对应的场景功能;
将所述场景功能和所述场景标定位置进行绑定,生成映射关系。
可选的,所述基于所述标定位置将机器人当前场景功能切换至所述标定位置对应的场景功能,包括:
获取所述标定位置对应的映射关系;
根据所述映射关系映射所述标定位置对应的场景功能;
将机器人当前场景功能切换至所述标定位置对应的场景功能。
可选的,所述控制机器人移动过程中使用路径规划算法控制机器人进行移动。
第二方面,本申请实施例提供了一种机器人场景功能切换系统,所述系统包括:
位置定位模块,用于控制机器人移动过程中,定位机器人当前位置;
标定位置获取模块,用于获取所述当前位置所在区域在预先构建地图中对应的标定位置;
场景功能切换模块,用于基于所述标定位置将机器人当前场景功能切换至所述标定位置对应的场景功能,所述场景功能包括提示语、弹幕信息或服务子功能集合;
控制工作模块,用于根据所述场景功能控制机器人工作。
可选的,所述系统还包括:
区域坐标获取模块,用于获取多个场景区域的位置坐标点;
坐标点标注模块,用于接收区域标注指令,针对所述多个场景区域的位置坐标点进行标注生成场景标定位置;
场景功能配置模块,用于基于所述场景标定位置配置所述场景标定位置对应的场景功能。
可选的,所述场景功能配置模块,包括:
场景功能获取单元,用于接收场景功能配置指令后,获取所述场景标定位置对应的场景功能;
映射关系生成单元,用于将所述场景功能和所述场景标定位置进行绑定,生成映射关系。
第三方面,本申请实施例提供一种计算机存储介质,所述计算机存储介质存储有多条指令,所述指令适于由处理器加载并执行上述的方法步骤。
第四方面,本申请实施例提供一种智能机器人,可包括:处理器和存储器;其中,所述存储器存储有计算机程序,所述计算机程序适于由所述处理器加载并执行上述的方法步骤。
本申请实施例提供的技术方案可以包括以下有益效果:
在本申请实施例中,控制机器人移动过程中,首先定位机器人当前位置,再获取当前位置所在区域在预先构建地图中对应的标定位置,然后基于标定位置将机器人当前场景功能切换至标定位置对应的场景功能,所述场景功能包括提示语、弹幕信息或服务子功能集合,最后根据场景功能控制机器人工作。由于本申请是将预先配置好的单一的语音服务能力,转变成基于机器人服务场景地图类别划分而进行自动语音服务配置的形式,让机器人在进入到不同的服务场景区域内,可以自动切换服务的配置,从而可以节约成本,提高机器人的使用效率。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本发明。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
图1是本申请实施例提供的一种机器人场景功能切换方法的流程示意图;
图2是本申请实施例提供的一种机器人功能选择过程的过程示意图;
图3是本申请实施例提供的另一种机器人场景功能切换方法的流程示意图;
图4是本申请实施例提供的一种机器人场景功能切换系统的系统示意图;
图5是本申请实施例提供的另一种机器人场景功能切换系统的系统示意图;
图6是本申请实施例提供的一种场景功能配置模块的模块示意图;
图7是本申请实施例提供的一种智能机器人的结构示意图。
具体实施方式
以下描述和附图充分地示出本发明的具体实施方案,以使本领域的技术人员能够实践它们。
应当明确,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是如所附权利要求书中所详述的、本发明的一些方面相一致的系统和方法的例子。
在本发明的描述中,需要理解的是,术语“第一”、“第二”等仅用于描述目的,而不能理解为指示或暗示相对重要性。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。此外,在本发明的描述中,除非另有说明,“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
到目前为止,目前智能机器人的语音服务,开发人员使用一个或多个通用的欢迎方式去应对不同的场景,同时为所有可能的场景完全配置语音覆盖范围。 这样带来的问题是有以下两点,第一,机器人服务的能力比较丰富,一个或多个通用的语音欢迎方式或引导提示比较单一,也容易让用户不能很好的了解机器人的能力范围,导致使用不方便;第二,领域知识覆盖面太广,接近于开放领域,目前的自然语言理解算法在开放域的能力较弱,导致用户的语义无法被高效率的准确理解,影响体验。为此,本申请提供了一种机器人场景功能切换方法、系统、存储介质及智能机器人,以解决上述相关技术问题中存在的问题。本申请提供的技术方案中,由于本申请是将预先配置好的单一的语音服务能力,转变成基于机器人服务场景地图类别划分而进行自动语音服务配置的形式,让机器人在进入到不同的服务场景区域内,可以自动切换服务的配置,从而可以节约成本,提高机器人的使用效率,下面采用示例性的实施例进行详细说明。
下面将结合附图1-附图3,对本申请实施例提供的机器人场景功能切换方法进行详细介绍。该方法可依赖于计算机程序实现,可运行于基于冯诺依曼体系的机器人场景功能切换系统上。该计算机程序可集成在应用中,也可作为独立的工具类应用运行。其中,本申请实施例中的机器人场景功能切换系统为应用于智能机器人。
请参见图1,为本申请实施例提供了一种机器人场景功能切换方法的流程示意图。如图1所示,本申请实施例的所述方法可以包括以下步骤:
S101,控制机器人移动过程中,定位机器人当前位置;
其中,当前位置是机器人在移动过程中定位的位置坐标点。
通常,控制机器人在移动时使用的为路径规划算法,路径规划算法至少是广度优先算法以及启发式搜索算法。
在一种可能的实现方式中,控制机器人在移动至目标场景区域中时,首先获取当前位置点坐标,再获取目标场景区域的坐标,然后通过广度优先算法从当前位置点开始不断扩散的方式遍历整个预先构建的地图,当遍历到目标场景区域的坐标时,那么当前位置和目标场景区域的坐标是连通的,因此当前位置和目标场景之间存在一条路径,由于广度优先算法从中心开始呈放射状扩散的特点,因此它所找到的这一条路径就是最短路径,最后通过找到的该路径控制机器人到达目标场景区域的坐标点。
在另外一种可能的实现方式中,控制机器人在移动至目标场景区域中时,首先获取当前位置点坐标,再获取目标场景区域的坐标,然后通过启发式搜索算法改变广度优先算法原来队列的FIFO模式,再给遍历的地图上不同的点添加优先级,此时,距离终点的曼哈顿距离越小的点,该点的优先级最高,最后将优先级最高的点组成一条线段,改线段为到达目标场景区域的最佳路径。
进一步地,当到达目标场景区域中时,机器人通过加载定位系统对自己当前所处位置进行定位,定位结束后生成定位信息。
例如,智能机器人将要去演播大厅进行工作,首先根据工作指令中包含的演播大厅位置信息进行解析并获取,然后获取当前位置,再获取演播大厅的位置,通过广度优先算法以及启发式搜索算法对前往演播大厅的路径进行规划,规划结束后生成一条最佳的路径,最后根据最佳的路径控制机器人到达演播大厅,在到达演播大厅后,通过加载自身安装的定位系统定位自己在演播大厅的具体位置坐标点。
S102,获取所述当前位置所在区域在预先构建地图中对应的标定位置;
其中,标定位置是后台管理员会对机器人服务区域内扫描自建的地图进行区域类别标注,可能的类别例如,展厅、前台、电梯间、演示大厅等不同的场景区域。
在一种可能的实现方式中,首先基于步骤S101机器人可到达目标场景区域并定位出机器人在目标场景区域目前所处位置,生成当前所处位置信息后,机器人上的处理器加载预先构建的地图,然后根据当前的所处位置信息查询在预先构建的地图中对应的标定位置。
S103,基于所述标定位置将机器人当前场景功能切换至所述标定位置对应的场景功能,所述场景功能包括提示语、弹幕信息或服务子功能集合;
其中,场景功能是不同的场景区域设置的提示语以及弹幕或者服务子功能集合。例如提示语以及弹幕可以是机器人在展厅中通过语音以及弹幕组合的方式回答用户关于展厅的咨询。例如子功能集合可以是机器人在展厅对设备的使用,还可以是展厅介绍以及出入口的引导等相关子功能。
通常,不同的场景功能是预先和不同的场景在预先构建的地图上进行配置绑定在一起的,当机器人到达不同的场地时,通过定位当前所处场景中的具体 位置,根据场景区域位置映射到配置的场景功能,从而获取到场景区域对应的场景功能。
在本申请实施例中,基于步骤S102可得到机器人当前位置在预先构建的地图中对应的标定位置,在标定位置确定后,再获取标定位置对应的映射关系,然后根据映射关系映射到标定位置对应的场景功能,最后将机器人当前场景功能切换至标定位置对应的场景功能。
在一种可能的实现方式中,当确定出机器人当前位置在预先构建的地图中对应的标定位置后,获取标定位置对应的映射关系,通过该映射关系映射当前位置的场景功能,当映射到的场景功能为提示语和弹幕时,此时机器人中的控制器开启语音识别模式以及开启弹幕,根据用户询问的问题进行语义识别,识别结束后生成针对用户问题的答案,该答案通过机器人语音系统进行播放并将播报的语音文字转换成文字加英语的形式通过弹幕进行展示。
进一步地,在机器人进行语音识别转换时,首先采集用户的语音信息,当语音信息采集结束后,将机器人的语音信息输入预先训练的语义识别模型中进行语义识别,识别结束后,针对用户的语音生成语义识别结果,然后根据生成的语义识别结果从语言文本库中获取答案进行输出,最后将输出的答案进行语音转换以及弹幕展示。
进一步地,语义识别模型是预先训练生成的,在模型训练时,首先从文本库中获取大量的数据样本,然后创建神经网络模型,再将大量的数据样本输入神经网络模型中进行训练,当训练到模型的损失函数对应的损失值最小时,模型训练结束。
进一步地,在语音转换时,首先需要从音色库中获取针对当前用户的专属音色,例如当前用户为男生时,可分析该男生的音色对应的年龄段,然后从音色库中随机提取该年龄段对应的声优音色,最后将该答案通过获取的声优音色进行播放。
需要说明的是,此处弹幕进行展示的语言可根据实际情况进行自由设置,此处不做限定。从音色库中获取的声优类型是随机获取,此处不做限定。
在另一种可能的实现方式中,当确定出机器人当前位置在预先构建的地图中对应的标定位置后,获取标定位置对应的映射关系,通过该映射关系映射当 前位置的场景功能,当映射到的场景功能为服务子功能集合时,此时机器人中的控制器控制机器人逐一进行服务子功能集合中的各子功能。例如,此时机器人所处的位置是演播厅,对应的子功能可能是对设备的操作功能、展厅的介绍功能以及抽入口的引导功能。
S104,根据所述场景功能集合控制机器人工作。
例如图2所示,机器人首先通过路径规划算法移动至目标场景区域,然后通过获取当前位置在地图中进行识别并匹配预先标注的标注位置,再通过标注的位置映射到地图场景类别,例如场景类别1、场景类别2、场景类别3、场景类别N等,最后基于映射到的地图场景类别选择该场景类型对应的场景功能。例如场景类别1对应的场景功能为场景1的提示语和弹幕或服务子功能集合、例如场景类别2对应的场景功能为场景2的提示语和弹幕或服务子功能集合、例如场景类别3对应的场景功能为场景3的提示语和弹幕或服务子功能集合、例如场景类别N对应的场景功能为场景N的提示语和弹幕或服务子功能集合。
在本申请实施例中,控制机器人移动过程中,首先定位机器人当前位置,再获取当前位置所在区域在预先构建地图中对应的标定位置,然后基于标定位置将机器人当前场景功能切换至标定位置对应的场景功能,所述场景功能包括提示语、弹幕信息或服务子功能集合,最后根据场景功能控制机器人工作。由于本申请是将预先配置好的单一的语音服务能力,转变成基于机器人服务场景地图类别划分而进行自动语音服务配置的形式,让机器人在进入到不同的服务场景区域内,可以自动切换服务的配置,从而可以节约成本,提高机器人的使用效率。
请参见图3,为本申请实施例提供的一种机器人场景功能切换方法的流程示意图。本实施例以机器人场景功能切换方法应用于智能机器人来举例说明。该机器人场景功能切换方法可以包括以下步骤:
S201,获取多个场景区域的位置坐标点;
在一种可能的实现方式中,用户通过机器人上的管理平台给机器人输入从地图中搜寻不同的场景区域位置的指令,机器人接收到指令,机器人从预先标定的地图中获取不同的场景区域的坐标点。
S202,接收区域标注指令,针对所述多个场景区域的位置坐标点进行标注生成场景标定位置;
在一种可能的实现方式中,基于步骤S201获取到不同的场景区域的坐标点后,用户通过机器人上的管理平台给机器人输入位置点标注指令,智能机器人接收地图标注指令后对不同的场景区域位置进行标注。
S203,接收场景功能配置指令后,获取所述场景标定位置对应的场景功能;
在一种可能的实现方式中,基于步骤S202可对不同的场景区域位置进行标注,标注结束后,用户通过机器人上的管理平台给机器人输入不同位置对应的场景功能,场景功能包括提示语和弹幕或服务子功能集合,机器人接收并保存不同位置对应的提示语和弹幕或服务子功能集合。
S204,将所述场景功能和所述场景标定位置进行绑定,生成映射关系;
在一种可能的实现方式中,当智能机器人接收到不同位置对应的提示语和弹幕或服务子功能集合时,用户通过操作管理平台将不同场景区域位置和不同场景区域位置对应的提示语和弹幕或服务子功能集合进行映射关系配置,智能机器人接收到映射关系配置指令,完成不同目标位置点提示语和弹幕或服务子功能集合映射配置的操作。
S205,控制机器人移动过程中,定位机器人当前位置;
S206,获取所述当前位置所在区域在预先构建地图中对应的标定位置;
S207,获取所述标定位置对应的映射关系;
S208,根据所述映射关系映射所述标定位置对应的场景功能;
S209,将机器人当前场景功能切换至所述标定位置对应的场景功能;
S210,根据所述场景功能控制机器人工作;
在本申请实施例中,控制机器人移动过程中,首先定位机器人当前位置,再获取当前位置所在区域在预先构建地图中对应的标定位置,然后基于标定位置将机器人当前场景功能切换至标定位置对应的场景功能,所述场景功能包括提示语、弹幕信息或服务子功能集合,最后根据场景功能控制机器人工作。由于本申请是将预先配置好的单一的语音服务能力,转变成基于机器人服务场景地图类别划分而进行自动语音服务配置的形式,让机器人在进入到不同的服务场景区域内,可以自动切换服务的配置,从而可以节约成本,提高机器人的使 用效率。
下述为本发明系统实施例,可以用于执行本发明方法实施例。对于本发明系统实施例中未披露的细节,请参照本发明方法实施例。
请参见图4,其示出了本发明一个示例性实施例提供的机器人场景功能切换系统的结构示意图。该机器人场景功能切换系统可以通过软件、硬件或者两者的结合实现成为智能机器人的全部或一部分。该系统1包括位置定位模块10、标定位置获取模块20、场景功能切换模块30和控制工作模块40。
位置定位模块10,用于控制机器人移动过程中,定位机器人当前位置;
标定位置获取模块20,用于获取所述当前位置所在区域在预先构建地图中对应的标定位置;
场景功能切换模块30,用于基于所述标定位置将机器人当前场景功能切换至所述标定位置对应的场景功能,所述场景功能包括提示语、弹幕信息或服务子功能集合;
控制工作模块40,用于根据所述场景功能控制机器人工作。
可选的,如图5所示,所述系统1还包括:
区域坐标获取模块50,用于获取多个场景区域的位置坐标点;
坐标点标注模块60,用于接收区域标注指令,针对所述多个场景区域的位置坐标点进行标注生成场景标定位置;
场景功能配置模块70,用于基于所述场景标定位置配置所述场景标定位置对应的场景功能。
可选的,如图6所示,所述场景功能配置模块70,包括:
场景功能获取单元710,用于接收场景功能配置指令后,获取所述场景标定位置对应的场景功能;
映射关系生成单元720,用于将所述场景功能和所述场景标定位置进行绑定,生成映射关系。
需要说明的是,上述实施例提供的机器人场景功能切换系统在执行机器人场景功能切换方法时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构 划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的机器人场景功能切换系统与机器人场景功能切换方法实施例属于同一构思,其体现实现过程详见方法实施例,这里不再赘述。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
在本申请实施例中,控制机器人移动过程中,首先定位机器人当前位置,再获取当前位置所在区域在预先构建地图中对应的标定位置,然后基于标定位置将机器人当前场景功能切换至标定位置对应的场景功能,所述场景功能包括提示语、弹幕信息或服务子功能集合,最后根据场景功能控制机器人工作。由于本申请是将预先配置好的单一的语音服务能力,转变成基于机器人服务场景地图类别划分而进行自动语音服务配置的形式,让机器人在进入到不同的服务场景区域内,可以自动切换服务的配置,从而可以节约成本,提高机器人的使用效率。
本发明还提供一种计算机可读介质,其上存储有程序指令,该程序指令被处理器执行时实现上述各个方法实施例提供的机器人场景功能切换方法。
本发明还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述各个方法实施例所述的机器人场景功能切换方法。
请参见图7,为本申请实施例提供了一种智能机器人的结构示意图。如图7所示,所述智能机器人1000可以包括:至少一个处理器1001,至少一个网络接口1004,用户接口1003,存储器1005,至少一个通信总线1002。
其中,通信总线1002用于实现这些组件之间的连接通信。
其中,用户接口1003可以包括显示屏(Display)、摄像头(Camera),可选用户接口1003还可以包括标准的有线接口、无线接口。
其中,网络接口1004可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。
其中,处理器1001可以包括一个或者多个处理核心。处理器1001利用各种借口和线路连接整个电子设备1000内的各个部分,通过运行或执行存储在存 储器1005内的指令、程序、代码集或指令集,以及调用存储在存储器1005内的数据,执行电子设备1000的各种功能和处理数据。可选的,处理器1001可以采用数字信号处理(Digital Signal Processing,DSP)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)、可编程逻辑阵列(Programmable Logic Array,PLA)中的至少一种硬件形式来实现。处理器1001可集成中央处理器(Central Processing Unit,CPU)、图像处理器(Graphics Processing Unit,GPU)和调制解调器等中的一种或几种的组合。其中,CPU主要处理操作系统、用户界面和应用程序等;GPU用于负责显示屏所需要显示的内容的渲染和绘制;调制解调器用于处理无线通信。可以理解的是,上述调制解调器也可以不集成到处理器1001中,单独通过一块芯片进行实现。
其中,存储器1005可以包括随机存储器(Random Access Memory,RAM),也可以包括只读存储器(Read-Only Memory)。可选的,该存储器1005包括非瞬时性计算机可读介质(non-transitory computer-readable storage medium)。存储器1005可用于存储指令、程序、代码、代码集或指令集。存储器1005可包括存储程序区和存储数据区,其中,存储程序区可存储用于实现操作系统的指令、用于至少一个功能的指令(比如触控功能、声音播放功能、图像播放功能等)、用于实现上述各个方法实施例的指令等;存储数据区可存储上面各个方法实施例中涉及到的数据等。存储器1005可选的还可以是至少一个位于远离前述处理器1001的存储系统。如图7所示,作为一种计算机存储介质的存储器1005中可以包括操作系统、网络通信模块、用户接口模块以及机器人场景功能切换应用程序。
在图7所示的智能机器人1000中,用户接口1003主要用于为用户提供输入的接口,获取用户输入的数据;而处理器1001可以用于调用存储器1005中存储的机器人场景功能切换应用程序,并具体执行以下操作:
控制机器人移动过程中,定位机器人当前位置;
获取所述当前位置所在区域在预先构建地图中对应的标定位置;
基于所述标定位置将机器人当前场景功能切换至所述标定位置对应的场景功能,所述场景功能包括提示语、弹幕信息或服务子功能集合;;
根据所述场景功能控制机器人工作。
在一个实施例中,所述处理器1001在执行所述在机器人移动过程中,定位机器人当前位置之前时,还执行以下操作:
获取多个场景区域的位置坐标点;
接收区域标注指令,针对所述多个场景区域的位置坐标点进行标注生成场景标定位置;
基于所述场景标定位置配置所述场景标定位置对应的场景功能。
在一个实施例中,所述处理器1001在执行所述基于所述场景标定位置配置所述场景标定位置对应的场景功能时,具体执行以下操作:
接收场景功能配置指令后,获取所述场景标定位置对应的场景功能;
将所述场景功能和所述场景标定位置进行绑定,生成映射关系。
在一个实施例中,所述处理器1001在执行所述基于所述标定位置将机器人当前场景功能切换至所述标定位置对应的场景功能时,具体执行以下操作:
获取所述标定位置对应的映射关系;
根据所述映射关系映射所述标定位置对应的场景功能;
将机器人当前场景功能切换至所述标定位置对应的场景功能。
在本申请实施例中,控制机器人移动过程中,首先定位机器人当前位置,再获取当前位置所在区域在预先构建地图中对应的标定位置,然后基于标定位置将机器人当前场景功能切换至标定位置对应的场景功能,所述场景功能包括提示语、弹幕信息或服务子功能集合,最后根据场景功能控制机器人工作。由于本申请是将预先配置好的单一的语音服务能力,转变成基于机器人服务场景地图类别划分而进行自动语音服务配置的形式,让机器人在进入到不同的服务场景区域内,可以自动切换服务的配置,从而可以节约成本,提高机器人的使用效率。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体或随机存储记忆体等。
以上所揭露的仅为本申请较佳实施例而已,当然不能以此来限定本申请之权利范围,因此依本申请权利要求所作的等同变化,仍属本申请所涵盖的范围。

Claims (10)

  1. 一种机器人场景功能切换方法,其特征在于,所述方法包括:
    控制机器人移动过程中,定位机器人当前位置;
    获取所述当前位置所在区域在预先构建地图中对应的标定位置;
    基于所述标定位置将机器人当前场景功能切换至所述标定位置对应的场景功能,所述场景功能包括提示语、弹幕信息或服务子功能集合;
    根据所述场景功能控制机器人工作。
  2. 根据权利要求1所述的方法,其特征在于,所述在机器人移动过程中,定位机器人当前位置之前,还包括:
    获取多个场景区域的位置坐标点;
    接收区域标注指令,针对所述多个场景区域的位置坐标点进行标注生成场景标定位置;
    基于所述场景标定位置配置所述场景标定位置对应的场景功能。
  3. 根据权利要求2所述的方法,其特征在于,所述基于所述场景标定位置配置所述场景标定位置对应的场景功能,包括:
    接收场景功能配置指令后,获取所述场景标定位置对应的场景功能;
    将所述场景功能和所述场景标定位置进行绑定,生成映射关系。
  4. 根据权利要求1所述的方法,其特征在于,所述基于所述标定位置将机器人当前场景功能切换至所述标定位置对应的场景功能,包括:
    获取所述标定位置对应的映射关系;
    根据所述映射关系映射所述标定位置对应的场景功能;
    将机器人当前场景功能切换至所述标定位置对应的场景功能。
  5. 根据权利要求1所述的方法,其特征在于,所述控制机器人移动过程中使用路径规划算法控制机器人进行移动。
  6. 一种机器人场景功能切换系统,其特征在于,所述系统包括:
    位置定位模块,用于控制机器人移动过程中,定位机器人当前位置;
    标定位置获取模块,用于获取所述当前位置所在区域在预先构建地图中对应的标定位置;
    场景功能切换模块,用于基于所述标定位置将机器人当前场景功能切换至所述标定位置对应的场景功能,所述场景功能包括提示语、弹幕信息或服务子功能集合;
    控制工作模块,用于根据所述场景功能控制机器人工作。
  7. 根据权利要求6所述的系统,所述系统还包括:
    区域坐标获取模块,用于获取多个场景区域的位置坐标点;
    坐标点标注模块,用于接收区域标注指令,针对所述多个场景区域的位置坐标点进行标注生成场景标定位置;
    场景功能配置模块,用于基于所述场景标定位置配置所述场景标定位置对应的场景功能。
  8. 根据权利要求6所述的系统,其特征在于,所述场景功能配置模块,包括:
    场景功能获取单元,用于接收场景功能配置指令后,获取所述场景标定位置对应的场景功能;
    映射关系生成单元,用于将所述场景功能和所述场景标定位置进行绑定,生成映射关系。
  9. 一种计算机存储介质,其特征在于,所述计算机存储介质存储有多条指令,所述指令适于由处理器加载并执行如权利要求1~5任意一项的方法步骤。
  10. 一种智能机器人,其特征在于,包括:处理器和存储器;其中,所述存储器存储有计算机程序,所述计算机程序适于由所述处理器加载并执行如权利要求1~5任意一项的方法步骤。
PCT/CN2020/133966 2020-06-16 2020-12-04 一种机器人场景功能切换方法、系统、存储介质及智能机器人 WO2021253743A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010549861.0 2020-06-16
CN202010549861.0A CN111906777B (zh) 2020-06-16 2020-06-16 一种机器人场景功能切换方法、系统、存储介质及智能机器人

Publications (1)

Publication Number Publication Date
WO2021253743A1 true WO2021253743A1 (zh) 2021-12-23

Family

ID=73237736

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2020/133966 WO2021253743A1 (zh) 2020-06-16 2020-12-04 一种机器人场景功能切换方法、系统、存储介质及智能机器人

Country Status (2)

Country Link
CN (1) CN111906777B (zh)
WO (1) WO2021253743A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114326495A (zh) * 2021-12-24 2022-04-12 中电海康集团有限公司 一种机器人控制系统架构及语音指令处理方法
CN114374551A (zh) * 2021-12-30 2022-04-19 达闼机器人有限公司 一种机器人激活方法、装置及存储介质

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111906777B (zh) * 2020-06-16 2022-04-05 特斯联科技集团有限公司 一种机器人场景功能切换方法、系统、存储介质及智能机器人
CN112619122B (zh) * 2020-12-15 2022-05-13 清华大学 一种电子桌游系统
CN112783171A (zh) * 2020-12-31 2021-05-11 上海擎朗智能科技有限公司 机器人运行控制方法、装置、电子设备及存储介质
CN113478485A (zh) * 2021-07-06 2021-10-08 上海商汤智能科技有限公司 机器人及其控制方法、装置、电子设备、存储介质
CN114571449A (zh) * 2022-02-21 2022-06-03 北京声智科技有限公司 数据处理方法、装置,智能机器人及计算机介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107414829A (zh) * 2017-07-28 2017-12-01 安徽爱依特科技有限公司 机器人多场景应用系统及方法
WO2019004618A1 (ko) * 2017-06-27 2019-01-03 엘지전자 주식회사 주행면의 특성에 기반하여 주행하는 방법 및 이를 구현하는 로봇
CN109434827A (zh) * 2018-09-30 2019-03-08 深圳市旭展通达科技有限公司 陪伴机器人控制方法、系统、移动终端及存储介质
US20190275671A1 (en) * 2019-05-28 2019-09-12 Intel Corporation Methods and apparatus for complex assembly via autonomous robots using reinforcement learning action primitives
US20200171657A1 (en) * 2017-07-07 2020-06-04 Siemens Aktiengesellschaft A method and apparatus for performing control of a movement of a robot arm
CN111906777A (zh) * 2020-06-16 2020-11-10 特斯联科技集团有限公司 一种机器人场景功能切换方法、系统、存储介质及智能机器人

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106113062B (zh) * 2016-08-23 2019-01-04 深圳慧昱教育科技有限公司 一种陪护机器人
CN108422419A (zh) * 2018-02-09 2018-08-21 上海芯智能科技有限公司 一种智能机器人及其控制方法和系统
CN108549376A (zh) * 2018-04-16 2018-09-18 爱啃萝卜机器人技术(深圳)有限责任公司 一种基于信标的导航定位方法及系统
CN109186606B (zh) * 2018-09-07 2022-03-08 南京理工大学 一种基于slam和图像信息的机器人构图及导航方法
CN109760066B (zh) * 2018-11-30 2021-02-26 南京熊猫电子股份有限公司 一种服务机器人地图定位标定方法
KR102293317B1 (ko) * 2019-06-03 2021-08-23 엘지전자 주식회사 특정 지역의 맵을 작성하는 방법과, 이를 구현하는 로봇 및 전자기기

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019004618A1 (ko) * 2017-06-27 2019-01-03 엘지전자 주식회사 주행면의 특성에 기반하여 주행하는 방법 및 이를 구현하는 로봇
US20200171657A1 (en) * 2017-07-07 2020-06-04 Siemens Aktiengesellschaft A method and apparatus for performing control of a movement of a robot arm
CN107414829A (zh) * 2017-07-28 2017-12-01 安徽爱依特科技有限公司 机器人多场景应用系统及方法
CN109434827A (zh) * 2018-09-30 2019-03-08 深圳市旭展通达科技有限公司 陪伴机器人控制方法、系统、移动终端及存储介质
US20190275671A1 (en) * 2019-05-28 2019-09-12 Intel Corporation Methods and apparatus for complex assembly via autonomous robots using reinforcement learning action primitives
CN111906777A (zh) * 2020-06-16 2020-11-10 特斯联科技集团有限公司 一种机器人场景功能切换方法、系统、存储介质及智能机器人

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114326495A (zh) * 2021-12-24 2022-04-12 中电海康集团有限公司 一种机器人控制系统架构及语音指令处理方法
CN114326495B (zh) * 2021-12-24 2024-02-09 中电海康集团有限公司 一种机器人控制系统架构及语音指令处理方法
CN114374551A (zh) * 2021-12-30 2022-04-19 达闼机器人有限公司 一种机器人激活方法、装置及存储介质
CN114374551B (zh) * 2021-12-30 2023-08-22 达闼机器人股份有限公司 一种机器人激活方法、装置及存储介质

Also Published As

Publication number Publication date
CN111906777B (zh) 2022-04-05
CN111906777A (zh) 2020-11-10

Similar Documents

Publication Publication Date Title
WO2021253743A1 (zh) 一种机器人场景功能切换方法、系统、存储介质及智能机器人
CN102096631B (zh) 接口测试方法及装置
CN110347152B (zh) 虚拟墙设置方法、系统及装置
CN109376852B (zh) 运算装置及运算方法
CN105354180B (zh) 一种实现开放式语义交互服务的方法及系统
CN107564510A (zh) 一种语音虚拟角色管理方法、装置、服务器和存储介质
JP5368924B2 (ja) 自然言語ユーザインタフェースを漸進的に開発する装置及び方法
US20200265843A1 (en) Speech broadcast method, device and terminal
CN105304082A (zh) 一种语音输出方法及装置
CN109996026B (zh) 基于穿戴式设备的视频特效互动方法、装置、设备及介质
WO2020186934A1 (zh) 包含动态背景的动画生成方法、装置及电子设备
CN108415695A (zh) 一种基于可视化组件的数据处理方法、装置和设备
US20200098367A1 (en) Output for improving information delivery corresponding to voice request
JP2021081712A (ja) 音声インタラクションするための方法、装置、電子機器、およびコンピュータ読み取り可能な記憶媒体
CN111210816B (zh) 一种智能语音配置管理方法、装置及电子设备
CN111744199A (zh) 图像处理方法及装置、计算机可读存储介质、电子设备
JP2020038709A (ja) 人工知能機器における連続会話機能
CN106445514A (zh) 一种管理Android平台的Activity实例的方法和装置
CN107315833A (zh) 基于应用程序的检索与下载的方法和装置
WO2022073507A1 (zh) 电话未接通类型的区分方法、装置、电子设备及存储介质
WO2020252751A1 (zh) 资源推送方法、装置、服务器以及存储介质
CN116566760B (zh) 智能家居设备控制方法、装置、存储介质及电子设备
CN106155513B (zh) 一种投影触屏的控制方法及装置
CN112346736B (zh) 一种数据处理方法和系统
CN111966803B (zh) 对话模拟方法、装置、存储介质及电子设备

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20941461

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20941461

Country of ref document: EP

Kind code of ref document: A1