CN114727738A - 电子设备及其控制方法 - Google Patents
电子设备及其控制方法 Download PDFInfo
- Publication number
- CN114727738A CN114727738A CN202080079670.0A CN202080079670A CN114727738A CN 114727738 A CN114727738 A CN 114727738A CN 202080079670 A CN202080079670 A CN 202080079670A CN 114727738 A CN114727738 A CN 114727738A
- Authority
- CN
- China
- Prior art keywords
- vacuum cleaner
- information
- processor
- area
- robotic vacuum
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 44
- 238000013473 artificial intelligence Methods 0.000 claims abstract description 43
- 230000015654 memory Effects 0.000 claims abstract description 43
- 238000001514 detection method Methods 0.000 claims description 18
- 238000004891 communication Methods 0.000 claims description 17
- 230000009194 climbing Effects 0.000 claims description 13
- 238000004140 cleaning Methods 0.000 claims description 12
- 238000013528 artificial neural network Methods 0.000 description 14
- 238000012545 processing Methods 0.000 description 9
- 238000011109 contamination Methods 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 239000007788 liquid Substances 0.000 description 4
- 239000000126 substance Substances 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 239000002096 quantum dot Substances 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- 238000013136 deep learning model Methods 0.000 description 2
- 230000007257 malfunction Effects 0.000 description 2
- 230000003278 mimic effect Effects 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 229910021417 amorphous silicon Inorganic materials 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 239000000356 contaminant Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003032 molecular docking Methods 0.000 description 1
- 229910021420 polycrystalline silicon Inorganic materials 0.000 description 1
- 229920005591 polysilicon Polymers 0.000 description 1
- APTZNLHMIGJTEW-UHFFFAOYSA-N pyraflufen-ethyl Chemical compound C1=C(Cl)C(OCC(=O)OCC)=CC(C=2C(=C(OC(F)F)N(C)N=2)Cl)=C1F APTZNLHMIGJTEW-UHFFFAOYSA-N 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 210000000225 synapse Anatomy 0.000 description 1
- 230000000946 synaptic effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L9/00—Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
- A47L9/28—Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
- A47L9/2836—Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means characterised by the parts which are controlled
- A47L9/2852—Elements for displacement of the vacuum cleaner or the accessories therefor, e.g. wheels, casters or nozzles
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L11/00—Machines for cleaning floors, carpets, furniture, walls, or wall coverings
- A47L11/40—Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
- A47L11/4011—Regulation of the cleaning machine by electric means; Control systems and remote control systems therefor
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L11/00—Machines for cleaning floors, carpets, furniture, walls, or wall coverings
- A47L11/40—Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
- A47L11/4061—Steering means; Means for avoiding obstacles; Details related to the place where the driver is accommodated
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L9/00—Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
- A47L9/009—Carrying-vehicles; Arrangements of trollies or wheels; Means for avoiding mechanical obstacles
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L9/00—Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
- A47L9/28—Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
- A47L9/2805—Parameters or conditions being sensed
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L9/00—Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
- A47L9/28—Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
- A47L9/2805—Parameters or conditions being sensed
- A47L9/2826—Parameters or conditions being sensed the condition of the floor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/008—Manipulators for service tasks
- B25J11/0085—Cleaning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
- B25J9/1666—Avoiding collision or forbidden zones
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
- B25J9/1676—Avoiding collision or forbidden zones
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/20—Control system inputs
- G05D1/24—Arrangements for determining position or orientation
- G05D1/247—Arrangements for determining position or orientation using signals provided by artificial sources external to the vehicle, e.g. navigation beacons
- G05D1/248—Arrangements for determining position or orientation using signals provided by artificial sources external to the vehicle, e.g. navigation beacons generated by satellites, e.g. GPS
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/60—Intended control result
- G05D1/617—Safety or protection, e.g. defining protection zones around obstacles or avoiding hazards
- G05D1/622—Obstacle avoidance
- G05D1/628—Obstacle avoidance following the obstacle profile, e.g. a wall or undulated terrain
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L2201/00—Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
- A47L2201/04—Automatic control of the travelling movement; Automatic obstacle detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Automation & Control Theory (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- Robotics (AREA)
- Electromagnetism (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Electric Vacuum Cleaner (AREA)
- Optics & Photonics (AREA)
Abstract
提供了一种机器人真空吸尘器。机器人真空吸尘器包括:相机;存储器被配置为存储被训练为从输入图像识别图像的人工智能模型和与多个物体中的每一个物体相应的形状信息;以及处理器,被配置为通过连接到所述相机和所述存储器来控制所述电子设备,其中,处理器被配置为将由所述相机获得的图像输入到人工智能模型以识别包括在图像中的物体,获得存储在存储器中的多个形状信息中的与识别的物体相应的形状信息,以及基于与所述物体相关的形状信息和尺寸信息来设置机器人真空吸尘器的行进路径。
Description
技术领域
本公开涉及机器人真空吸尘器及其控制方法。更具体地,本公开涉及一种用于设置机器人真空吸尘器的行进路径的机器人真空吸尘器及其驱动方法。
背景技术
机器人真空吸尘器可以是在无需用户操作的情况下通过在自行驱动待清洁区域时吸入异物来自动清洁待清洁区域的设备。
机器人真空吸尘器配备有各种传感器,以准确且有效地检测在驱动方向上分散的障碍物。设置在机器人真空吸尘器中的传感器检测障碍物的位置和距离,并且机器人真空吸尘器使用感测的结果确定移动方向。
仅对识别家中各种类型的障碍物的方法进行了研究,并且对识别障碍物并使用其来设置机器人真空吸尘器的行进路径的特定方法的研究是不够的。
特别地,需要识别障碍物并考虑障碍物的形状来设定机器人真空吸尘器的优化行进路径。
上述信息仅作为背景信息呈现,以帮助理解本公开。关于上述内容中的任何内容是否可作为关于本公开的现有技术适用,没有做出确定,也没有做出断言。
发明内容
技术问题
本公开的各方面在于至少解决上述问题和/或缺点,并且至少提供下面描述的优点。因此,本公开的一个方面在于提供一种识别障碍物并设置机器人真空吸尘器的行进路径的机器人真空吸尘器及其控制方法。
技术方案
另外的方面将部分地在下面的描述中阐述,并且部分地将从描述中显而易见,或者可通过实践所呈现的实施例来学习。
根据本公开的一个方面,提供了一种机器人真空吸尘器。机器人真空吸尘器包括:相机;存储器,被配置为存储被训练为从输入图像识别图像的人工智能模型和与多个物体中的每一个物体相应的形状信息;以及处理器,被配置为通过连接到所述相机和所述存储器来控制所述电子设备,其中,所述处理器被配置为将由相机获得的图像输入到人工智能模型以识别包括在所述图像中的物体,获得存储在所述存储器中的多个形状信息中的与识别的物体相应的形状信息,以及基于与物体相关的形状信息和尺寸信息来设置所述机器人真空吸尘器的行进路径。
所述存储器可被配置为还存储每个形状信息的尺寸信息,其中,所述处理器被配置为基于所述图像获得与形状信息相应的尺寸信息,或者基于存储在所述存储器中的尺寸信息获得与形状信息相应的尺寸信息。
所述处理器可被配置为基于所述物体的形状信息识别与所述物体相应的平面形状,并且基于所述物体的平面形状设置用于避开所述物体的行进路径。
所述机器人真空吸尘器还可包括障碍物检测传感器,其中,所述处理器被配置为:基于未能获得与所述物体相应的平面图,基于所述障碍物检测传感器的感测数据来设置用于避开所述物体的行进路径。
所述存储器可被配置为还针对多个物体中的每一个物体存储关于是否存在要避开的物体的信息,其中,所述处理器被配置为:基于根据关于是否存在要避开的物体的信息将所述物体识别为不避开的物体,将行进路径设置为攀爬物体。
所述处理器可被配置为在攀爬物体时停止所述机器人真空吸尘器的抽吸操作。
所述存储器可被配置为还存储每个物体与第一区域相应的第一权重值信息和每个物体与第二区域相应的第二权重值信息,其中,所述处理器被配置为:基于从由所述相机获得的图像中识别出多个物体,将第一权重值信息应用于多个物体中的每个物体以获得第一区域预测信息,将第二权重值信息应用于所述多个物体中的每个物体以获得第二区域预测信息,以及基于第一区域预测信息和第二区域预测信息将所述机器人真空吸尘器所位于的区域识别为第一区域或第二区域中的任一个。
所述机器人真空吸尘器还可包括通信接口,其中,所述处理器被配置为:基于所述机器人真空清洁器所位于的区域被识别为第一区域或第二区域中的任一个,控制所述通信接口将关于识别的区域的识别信息、识别的区域的平面图、多个物体中的与位于识别的区域中的每一个物体相应的平面形状发送到外部服务器。
所述处理器可被配置为:基于指示物体被接收的用户命令,在从所述图像识别的物体中识别与用户命令相应的物体,并且基于关于所述机器人真空吸尘器所位于的区域的平面图和关于位于所述区域中的至少一个物体的平面形状驱动所述机器人真空吸尘器,使得所述吸尘器移动到识别的物体的位置。
所述处理器可被配置为:获得存储在所述存储器中的形状信息中的与识别的物体相应的形状信息,并且基于与所述物体相关的形状信息和尺寸信息来设置用于清洁所述物体的周围环境的行进路径。
根据本公开的另一方面,提供了一种控制机器人真空吸尘器的方法。机器人真空吸尘器包括被训练为从输入图像识别物体的人工智能模型,所述方法包括:将由相机获得的图像输入到人工智能模型以识别包括在所述图像中的物体,获得多个形状信息中的与识别的物体相应的形状信息,以及基于形状信息和与所述物体相关的尺寸信息来设置机器人真空吸尘器的行进路径。
机器人真空吸尘器可被配置为还包括每个形状信息的尺寸信息,并且其中获得形状信息的步骤包括基于所述图像获得与形状信息相应的尺寸信息,或者基于存储在所述存储器中的尺寸信息获得与形状信息相应的尺寸信息。
设置行进路径的步骤可包括:基于物体的形状信息识别与物体相应的平面形状,以及基于物体的平面形状设置用于避开物体的行进路径。
设置行进路径的步骤可包括:基于未能获得与所述物体相应的平面图,基于障碍物检测传感器的感测数据来设置用于避开物体的行进路径。
所述机器人真空吸尘器可被配置为还包括针对多个物体中的每一个物体的关于是否存在要避开的物体的信息,其中,设置行进路径的步骤包括:基于根据关于是否存在要避开的物体的信息识别出不避开物体,将行进路径设置为攀爬物体。
所述方法还可包括在攀爬物体时停止所述机器人真空吸尘器的抽吸操作。
所述机器人真空吸尘器可被配置为还存储每个物体与第一区域相应的第一权重值信息和每个物体与第二区域相应的第二权重值信息,其中,机器人真空吸尘器还包括:基于从由相机获得的图像中识别出多个物体,将第一权重值信息应用于多个物体中的每个物体以获得第一区域预测信息,将第二权重值信息应用于多个物体中的每个物体以获得第二区域预测信息,以及基于第一区域预测信息和第二区域预测信息将机器人真空吸尘器所位于的区域识别为第一区域或第二区域中的任一个。
所述方法还可包括:基于机器人真空吸尘器所位于的区域被识别为第一区域或第二区域中的任一个,将关于识别的区域的识别信息、识别的区域的平面图、多个物体中的与位于识别的区域中的每一个物体相应的平面形状发送到外部服务器。
所述方法还可包括:基于指示物体被接收的用户命令,识别从所述图像识别的物体中的与用户命令相应的物体,并且基于关于所述机器人真空吸尘器所位于的区域的平面图和关于位于所述区域中的至少一个物体的平面形状驱动所述机器人真空吸尘器,使得所述机器人真空吸尘器移动到识别的物体的位置。
所述方法还可包括:获得存储在所述存储器中的形状信息中的与识别的物体相应的形状信息,以及基于与所述物体相关的形状信息和尺寸信息来设置用于清洁所述物体的周围环境的行进路径。
根据以下结合附图公开了本公开的各种实施例的详细描述,本公开的其他方面、优点和显著特征对于本领域技术人员将变得显而易见。
有益效果
本公开的一个方面在于提供一种识别障碍物并设置机器人真空吸尘器的行进路径的机器人真空吸尘器及其控制方法。
附图说明
通过以下结合附图的描述,本公开的某些实施例的上述和其他方面、特征和优点将更加明显,其中:
图1是示出根据本公开的实施例的机器人真空吸尘器的视图;
图2是示出根据本公开的实施例的机器人真空吸尘器的配置的框图;
图3是示出根据本公开的实施例的机器人的行进路径的视图;
图4是示出根据本公开的实施例的与物体相应的形状信息的视图;
图5是示出根据本公开的实施例的每个物体的形状信息和关于是否存在要避开的物体的信息的视图;
图6是示出根据本公开的另一实施例的机器人真空吸尘器的行进路径的视图;
图7是示出根据本公开的另一实施例的机器人真空吸尘器的行进路径的视图;
图8是示出根据本公开的实施例的获得机器人真空吸尘器所位于的空间的平面图的方法的视图;
图9是示出根据本公开的实施例的获取关于机器人真空吸尘器所位于的空间的信息的方法的视图;
图10是示出根据本公开的实施例的机器人真空吸尘器移动到特定物体的位置的视图;
图11是根据本公开的实施例的机器人真空吸尘器的详细框图;
图12是示出根据本公开的实施例的与外部服务器通信的机器人真空吸尘器的视图;以及
图13是示出根据本公开的实施例的控制机器人真空吸尘器的方法的流程图。
在整个附图中,相同的附图标记将被理解为指代相同的部件、组件和结构。
具体实施方式
提供参照附图的以下描述以帮助全面理解由权利要求及其等同物限定的本公开的各种实施例。它包括各种具体细节以帮助理解,但是这些细节仅被认为是示例性的。因此,本领域普通技术人员将认识到,在不脱离本公开的范围和精神的情况下,可对本文描述的各种实施例进行各种改变和修改。此外,为了清楚和简明,可省略对众所周知的功能和结构的描述。
在以下描述和权利要求书中使用的术语和词语不限于书面含义,而是仅由发明人使用以使得能够清楚且一致地理解本公开。对于本领域技术人员显而易见的是,提供本公开的各种实施例的以下描述仅用于说明目的,而不是为了限制由所附权利要求及其等同物限定的本公开的目的。
应当理解,除非上下文另有明确规定,否则单数形式“一”、“一个”和“该”包括复数指示物。因此,例如,对“组件表面”的引用包括对一个或更多个这样的表面的引用。
在本公开的实施例中使用的术语“具有”、“可具有”、“包括”和“可包括”指示相应特征(例如,诸如数值、功能、操作或部件的元素)的存在,并且不排除附加特征的存在。
在说明书中,术语“A或/和B中的至少一个”应理解为表示“A”或“B”或“A和B”。
本文使用的表述“1”、“2”、“第一”或“第二”可修饰各种元件,而不管其顺序和/或重要性如何,并且仅用于将一个元件与另一个元件区分开。因此,不限制相应的元件。
当元件(例如,第一元件)与另一元件(例如,第二元件)“可操作地或通信地耦接/“可操作地或通信地耦接到”或“连接到”另一元件(例如,第二元件)时,元件可与另一元件直接耦接或者可通过另一元件(例如,第三元件)耦接。
除非上下文另有明确说明,否则单数形式旨在包括复数形式。本说明书的术语“包括”、“包含”、“被配置为”等用于指示存在特征、数字、操作、元件、部件或其组合,并且它们不应排除组合或添加一个或更多个特征、数字、操作、元件、部件或其组合的可能性。
在本公开中,“模块”或“单元”执行至少一个功能或操作,并且可通过硬件或软件或硬件和软件的组合来实现。另外,多个“模块”或多个“单元”可集成到至少一个模块中,并且可以是除了应当在特定硬件中实现的“模块”或“单元”之外的至少一个处理器。
此外,术语“用户”可指使用电子装置的人或使用电子装置的装置(例如,人工智能(AI)电子装置)。
在下文中,将参照附图更详细地描述实施例。
图1是示出根据本公开的实施例的机器人真空吸尘器的视图。
参照图1,机器人真空吸尘器100是指由电力驱动并自动抽吸异物的设备。在图1中,假设机器人真空吸尘器100以与地面紧密接触的扁平形状实现,以便吸取地面上的异物,但这仅是实施例,并且机器人真空吸尘器100可以以各种形状和尺寸实现。
参照图1,根据本公开的实施例的机器人真空吸尘器100可包括相机110,以检测位于机器人真空吸尘器100附近的物体。例如,机器人真空吸尘器100可通过相机110获得机器人真空吸尘器100的前方图像,并且基于所获得的图像识别位于机器人真空吸尘器100的驱动方向上的物体。物体可指在驱动期间可能干扰机器人真空吸尘器100的驱动或者导致机器人真空吸尘器100的停止、损坏或故障的各种物体或情况。例如,当机器人真空吸尘器100在家中被驱动时,物体可以是各种物体,诸如家具、电器、地毯、衣服、墙壁、楼梯、门槛等。
根据本公开的实施例的机器人真空吸尘器100可基于关于识别的物体的信息来设置机器人真空吸尘器100的行进路径或移动路径。关于识别的物体的信息可包括物体的形状(或形式)信息和与物体相关的尺寸信息。
根据实施例的机器人真空吸尘器100可基于关于识别的物体的信息来设置在机器人真空吸尘器100的驱动时避开相应物体的行进路径、用于攀爬相应物体(例如,攀爬过物体)的行进路径等。
在下文中,将描述机器人真空吸尘器100设置行进路径的本公开的各种实施例。
图2是示出根据本公开的实施例的机器人真空吸尘器的配置的框图。
参照图2,根据本公开的实施例的机器人真空吸尘器100包括相机110、存储器120和处理器130。
相机110是用于获取机器人真空吸尘器100的周围环境的一个或更多个图像的组件。相机110可被实现为红/绿/蓝(RGB)相机、3维(3D)相机等。
此外,除了相机110之外,根据本公开的实施例的机器人真空吸尘器100还可包括检测传感器(未示出),并且机器人真空吸尘器100可基于检测传感器的感测数据来识别物体。例如,检测传感器可实现为超声波传感器、红外传感器等。根据实施例,当检测传感器被实施为超声波传感器时,机器人真空吸尘器100可控制超声波传感器发射超声波脉冲。随后,当从物体反射的反射波被发送到超声脉冲时,机器人真空吸尘器100可通过测量物体和机器人真空吸尘器100之间的经过时间来测量物体和机器人真空吸尘器100之间的距离。另外,超声波传感器可以以各种方式实施,包括超声波接近传感器。红外传感器是检测物体所拥有的红外光信息的装置。机器人真空吸尘器100可基于通过红外传感器获得的红外光信息来识别物体。
此外,本公开不限于此,并且检测传感器可用各种类型的传感器来实现。机器人真空吸尘器100可基于检测传感器的感测数据来分析存在或不存在物体、物体的位置、到物体的距离等,并且可基于分析的结果来设置机器人真空吸尘器100的行进路径。例如,当识别出前方存在物体时,机器人真空吸尘器100可向右或向左旋转机器人真空吸尘器100自身,或者向后移动。
存储器120可存储各种数据,诸如驱动机器人真空吸尘器100的O/S软件模块和应用。
特别地,人工智能模型可存储在存储器120中。具体地,根据本公开的实施例的存储器120可存储被训练为识别输入图像中的物体的人工智能模型。人工智能模型可以是使用包括各种物体的多个样本图像训练的模型。识别物体可被理解为获取关于物体的信息,诸如物体的名称和类型。在这种情况下,关于物体的信息可以是由识别相应物体的人工智能模型输出的关于识别的物体的信息。
根据实施例的人工智能模型是基于人工智能算法基于多个图像训练的确定模型,并且可以是基于神经网络的模型。训练后的确定模型可被设计为在计算机上模拟人脑结构,并且可包括具有模拟人类神经网络的神经元的权重的多个网络节点。所述多个网络节点可分别形成连接关系,以便模拟通过突触发送和接收信号的神经元的突触活动。另外,训练后的判断模型可包括例如机器学习模型、神经网络模型或从神经网络模型开发的深度学习模型。深度学习模型中的多个网络节点可在位于不同深度(或层)处时根据卷积连接关系交换数据。
作为示例,人工智能模型可以是基于图像学习的卷积神经网络(CNN)模型。CNN是具有被设计用于语音处理、图像处理等的特殊连接结构的多层神经网络。此外,人工智能模型不限于CNN。例如,人工智能模型可利用递归神经网络(RNN)、长短期记忆网络(LSTM)、门控递归单元(GRU)或生成对抗网络(GAN)中的至少一个深度神经网络(DNN)模型来实现。
存储在存储器120中的人工智能模型可通过各种学习算法(诸如机器人真空吸尘器100或单独的服务器/系统)来学习。学习算法是使用多个学习数据训练预定目标装置(例如,机器人)以使预定目标装置能够自行做出决定或预测的方法。学习算法的示例是监督学习、无监督学习、半监督学习或强化学习,并且除了被指定之外,本公开中的学习算法不限于此。
另外,根据本公开的实施例,可将与多个物体中的每一个相应的形状信息存储在存储器120中。
形状信息可包括相应物体的代表性图像、关于物体与典型物体还是非典型物体相应的信息、以及从物体的多个角度观看的图像。
从多个角度观看的图像可包括从物体的前方观看的图像(例如,前视图)、从侧面观看的图像(例如,侧视图)、从物体的上方观看的图像(例如,俯视图)等。然而,这是实施例并且不限于此。物体的代表性图像可指从多个角度观看的多个图像中的任何一个,并且可指通过网络抓取关于物体的图像而获得的多个图像中的任何一个。
关于物体与典型物体还是非典型物体相应的信息可表示物体与具有典型形状的物体还是具有物体的形状不变的固定形状(或恒定形状)的物体相应,或者物体与物体的形状不固定的物体相应。例如,杯子、碗等可与具有固定形状的典型物体相应,并且液体、线缆等可与没有固定形状的非典型物体相应。将在图5中另外描述与多个物体中的每一个相应的形状信息的详细描述。
处理器130控制机器人真空吸尘器100的整体操作。
根据实施例,处理器130可被实现为处理数字图像信号的数字信号处理器(DSP)、微处理器、人工智能(AI)处理器或定时控制器(T-CON)。然而,不限于此,并且处理器可包括中央处理单元(CPU)、微控制器单元(MCU)、微处理单元(MPU)、控制器和应用处理器(AP)、通信处理器(CP)或ARM处理器中的一个或更多个,或者可以以相应的术语定义。另外,处理器130可在具有内置处理算法的片上系统(SoC)、大规模集成(LSI)或现场可编程门阵列(FPGA)中实现。
根据本公开实施例的处理器130可将通过相机110获得的图像输入到人工智能模型中,以识别包括在图像中的物体。处理器130可获得与存储在存储器120中的多个物体中的每一个相应的形状信息中的与识别的物体相应的形状信息。处理器130可基于获得的与物体相关的形状信息和尺寸信息来设置机器人真空吸尘器100的行进路径。将参照图3对此进行详细描述。
图3是示出根据本公开的实施例的机器人的行进路径的视图。
参照图3,根据本公开的实施例的机器人真空吸尘器100可在家中操作。设置在机器人真空吸尘器100中的相机110可通过在机器人真空吸尘器100行进时拍摄前方(或预定方向)来获得图像。处理器130可将获得的图像输入到人工智能模型中以识别包括在图像中的物体,例如,位于机器人真空吸尘器100前方的物体。作为示例,处理器130可使用人工智能模型识别包括在图像中的花盆10-1。处理器130可从多个形状信息中获得与花盆10-1相应的形状信息。
与物体相应的形状信息可包括相应物体的代表性图像、关于物体与典型物体还是非典型物体相应的信息。例如,与花盆10-1相应的形状信息可包括花盆10-1的代表性图像,并且花盆10-1可包括形状与典型物体相应的信息。
处理器130可基于包括在由相机110获得的图像中的物体图像来识别物体的尺寸信息。例如,处理器130可识别物体的宽度和高度信息。参照图3,处理器130可基于包括在由相机110获得的图像中的花盆10-1的图像来识别花盆10-1的宽度和高度信息。
处理器130可基于与识别的物体相应的形状信息和与物体相关的尺寸信息来预测物体的实际形状。例如,如果识别的物体是形状物体,则处理器130可识别与物体相应的平面形状。处理器130可基于物体的平面形状和物体的尺寸信息来预测物体的实际形状和尺寸,并且可基于预测的形状和尺寸来设置机器人真空吸尘器100的行进路径。物体的平面形状可指从物体的多个角度观察的多个图像中的从上方观察的图像(例如,俯视图)。将参照图4对此进行详细描述。
图4是示出根据本公开的实施例的与物体相应的形状信息的视图。
参照图4,处理器130可基于通过相机110获得的图像来识别物体。例如,处理器130可识别安置在家中的卧室中的床10-2。
处理器130可获得与识别的物体相应的形状信息。参照图4,处理器130可从存储在存储器120中的多个形状信息中获得与床10-2相应的形状信息。具体地,处理器130可基于形状信息识别物体,例如,与床10-2相应的平面形状。与床10-2相应的平面形状可指从多个角度观察的多个图像中的从床10-2的上方观察的图像(例如,俯视图)。
根据实施例的处理器130可获得与物体相应的尺寸信息。例如,处理器130可基于存储在存储器120中的每个形状信息的尺寸信息来获得与识别的物体相应的尺寸信息。例如,存储器120可存储与床10-2相应的每个形状信息的多个尺寸信息。处理器130可基于由相机110获得的图像来识别床10-2的宽度、高度或长度中的至少一个,并且基于包括在床10-2的形状信息中的多个尺寸信息中的识别的宽度、高度或长度中的至少一个来获得床10-2的尺寸信息。
此外,这是实施例,并且处理器130可基于由相机110获得的图像来获得床10-2的尺寸信息,诸如床10-2的宽度、高度和长度。
处理器130可基于与物体相应的形状信息来识别平面形状,并且基于物体的识别的平面形状和尺寸信息来预测实际物体的平面形状。参照图4,处理器130可基于与床10-2相应的形状信息来识别床10-2的平面形状(例如,正方形),并且基于床10-2的识别的平面形状和尺寸信息来预测(或获得)床10-2的平面形状(或俯视图)以便接近实际床10-2的平面形状(例如,实际床10-2的宽度、高度和长度)。
处理器130可基于物体的平面形状来设置用于避开相应物体的行进路径。例如,处理器130可基于床10-2的预测的平面形状来设置用于通过避开床10-2来清洁和驱动空间的行进路径。
根据实施例,机器人真空吸尘器100可在不具有用于检测物体的单独传感器的情况下基于通过相机110获得的图像来预测物体的平面形状接近实际平面形状,并且基于预测的平面形状设置最佳行进路径。
此外,除了基于关于识别的物体的信息避开相应物体的行进路径之外,根据本公开的实施例的机器人真空吸尘器100还可设置用于攀爬(例如,攀爬过相应物体)相应物体的行进路径。将参照图5对此进行详细描述。
图5是示出根据本公开的实施例的每个物体的形状信息和关于是否存在要避开的物体的信息的视图。
参照图5,根据本公开的实施例的存储器120可存储每个物体的形状信息和关于是否存在要避开的物体的信息。
例如,存储器120可存储关于物体10的类型、每个物体10的代表性图像、每个物体10是否引起污染以及每个物体10是否可能攀爬的信息。图5仅是物体的形状信息的示例,并且物体的形状信息可以以各种形式实现。另外,可从外部服务器接收与多个物体中的每一个物体相应的形状信息并将其存储在存储器120中。
参照图5,处理器130可基于由相机110获得的图像来识别物体10,并且获得与识别的物体10相应的形状信息。例如,如果识别的物体10是地毯,则处理器130可获得与地毯相应的形状信息。与地毯相应的形状信息可包括关于地毯的代表性图像的信息、关于地毯与典型物体还是非典型物体相应、地毯是否可能被污染以及机器人是否可攀爬地毯的信息。
包括在形状信息中的关于是否可攀爬的信息可包括:当机器人真空吸尘器正在行进时,关于相应物体是否与要避开的物体相应或者相应物体是否与要攀爬的物体(例如,可攀爬过的物体)相应的信息。
参照图5,由于与地毯相应的形状信息指示地毯与可攀爬的物体相应,因此如果识别的物体是地毯,则处理器130可设置行进路径以攀爬地毯,而不是避开它。
作为另一示例,如果识别的物体是杯子,则与杯子相应的形状信息指示杯子不与要攀爬的物体相应,因此处理器130可将机器人真空吸尘器100的行进路径设置为避开杯子。
此外,如果识别的物体与可被物体攀爬的物体相应(或者与将不避开的物体相应),则根据本公开的实施例的处理器130可在攀爬相应物体时改变机器人真空吸尘器100的清洁模式。
例如,机器人真空吸尘器100的一般清洁模式可执行抽吸操作以抽吸地面上的异物和污染物。如果在机器人真空吸尘器100攀爬识别的物体时由于抽吸操作而将物体抽吸到机器人真空吸尘器100中,则可能导致机器人真空吸尘器100的行进停止、损坏或故障。因此,处理器130可在机器人真空吸尘器100攀爬物体时基于识别的物体来改变机器人真空吸尘器100的清洁模式。例如,处理器130可在攀爬识别的物体时停止机器人真空吸尘器100的抽吸操作。作为另一示例,处理器130可在攀爬物体时降低机器人真空吸尘器100的抽吸功率的程度。
图6是示出根据本公开的另一实施例的机器人真空吸尘器的行进路径的视图。
参照图6,根据本公开的实施例的机器人真空吸尘器100还可包括障碍物检测传感器。根据实施例,如果未能获得与物体相应的平面形状,则处理器130可基于障碍物检测传感器的感测数据来设置用于避开物体的行进路径。
例如,处理器130可将由相机110获得的图像输入到人工智能模型中以识别包括在图像中的物体。处理器130可获得每个物体的多个形状信息中的与识别的物体相应的形状信息。获得的形状信息可包括关于识别的物体与典型物体相应还是与非典型物体相应的信息。
根据实施例,如果识别的物体与非典型物体相应,则处理器130可基于障碍物检测传感器的感测数据来设置用于避开物体的行进路径。
换句话说,由于非典型物体是指物体的形状不固定的物体,因此如果识别的物体是非典型物体,则处理器130可能无法获得识别的物体的平面形状(即,俯视图)。在这种情况下,处理器130可基于障碍物检测传感器的感测数据来设置用于避开识别的物体的行进路径。
参照图6,线缆10-3是非典型物体的示例。当识别出线缆10-3时,除了由相机110获得的图像之外,处理器130还可考虑由障碍物检测传感器获得的感测数据来设置用于避开线缆10-3的行进路径。然而,这不限于此。例如,如果识别的物体被识别为与非典型物体相应,则处理器130可基于图像获得相应物体的宽度、高度或长度中的至少一个以预测最大尺寸。处理器130可基于物体的预测的尺寸来设置行进路径。
图7是示出根据本公开的另一实施例的机器人真空吸尘器的行进路径的视图。
参照图7,根据本公开实施例的处理器130可基于与识别的物体相应的形状信息来识别相应物体是否与可能引起污染的物体相应。
返回参照图5,存储器120可存储关于物体10的类型、每个物体10的代表性图像、每个物体10是否引起污染以及每个物体10是否可攀爬的信息。
每个物体10是否引起污染不与相应物体是否是要避开的目标相应,而是可指当机器人真空吸尘器100攀爬相应物体时是否存在污染区域可能延伸的可能性。
例如,参照图7,由于泼洒液体10-4不是要避开的物体,因此处理器130可控制机器人真空吸尘器100攀爬并行进泼洒液体10-4。在这种情况下,存在由于泼洒液体10-4引起的污染的范围可能由于位于机器人真空吸尘器100的底部处的驱动器(例如,轮子等)、抽吸单元等而在空间中延伸的问题。作为另一个示例,宠物的排泄物不是要避开的物体,而可能是关注引起污染的物体。
当基于物体的形状信息将物体识别为引起污染的物体时,处理器130可设置用于避开物体的行进路径。
图8是示出根据本公开的实施例的获得机器人真空吸尘器所位于的空间的平面图的方法的视图。
参照图8,机器人真空吸尘器100可在行进地图上的区域时拍摄各种图像,并且将拍摄的图像输入到多个人工智能模型以识别位于该区域内的物体。
另外,机器人真空吸尘器100可将空间划分为多个区域。例如,机器人真空吸尘器100可基于由相机110获得的图像来识别地面上存在分界线或门槛的点、可移动宽度变窄的点、存在墙壁的点、墙壁开始的点、墙壁结束的点、存在门的点等。处理器130可通过将识别的点用作区域之间的边界来将空间(例如,家庭)划分为多个区域(例如,起居室、卧室、卫生间、厨房等)。在下文中,为了便于描述,假设区域是指下位概念,而空间是指上位概念,即,区域的集合。
此外,根据本公开的实施例的处理器130可使用关于位于区域内的物体的信息,以便获得与多个区域中的每一个区域相应的区域信息。区域信息可指用于识别多个区域中的每个区域的信息。区域信息可由指示多个区域中的每一个的标识名称、标识号等组成。另外,区域信息可包括关于多个区域中的每个区域的使用的信息。例如,可通过区域信息将多个区域定义为起居室、卫生间、卧室等。另外,关于物体的信息可包括物体的名称、类型等。
将参照图9描述详细描述。
图9是示出根据本公开的实施例的获取关于机器人真空吸尘器所位于的空间的信息的方法的视图。
参照图9,根据本公开的实施例的处理器130可基于在区域内识别的物体来获得与相应区域相应的区域信息。区域信息可包括关于区域的目的、区域的名称等的信息。
例如,当在第一区域中仅识别出书架时,处理器130可将第一区域识别为书房。作为另一示例,当在第二区域中识别出床和书柜时,处理器130可将第二区域识别为卧室。然而,这些仅是示例。此外,根据另一示例,当在第三区域中仅识别出电视(TV)时,第三区域可以是书房或起居室,因此仅使用如图9所示的表获得区域信息在某种程度上不太可靠或不清楚。
因此,根据本公开实施例的处理器130可通过使用每个区域的权重信息来获得与相应区域相应的预测信息。
根据实施例的存储器120可存储每个物体与第一区域相应的第一权重信息和每个物体与第二区域相应的第二权重信息。权重信息可被定义为下面的表1。
表1
根据本公开实施例的处理器130可通过对区域中识别的物体使用表1和下面的等式1来获得多个区域中的每个区域的区域预测信息。
等式1
Find_Area(j)=MAX(Area(j)),0≤j<n
作为示例,当在由相机获得的图像中识别出多个物体时,即,当在特定区域内识别出多个物体时,处理器130可将第一权重信息应用于多个物体中的每一个物体,并获得第一空间预测信息。处理器130可将第二权重信息应用于多个物体中的每一个物体,并且获得第二空间预测信息。
例如,可假设在特定区域中识别出TV和沙发。在这种情况下,处理器130可基于表1和等式1获得与如下表2所示的多个区域中的每个区域相应的区域预测信息。
表2
由于TV和沙发相对于其他区域通常位于起居室区域中,因此与起居室相应的第一权重信息可为TV和沙发赋予高权重,并且为洗衣机赋予小权重。
处理器130可基于第一区域预测信息和第二区域预测信息将机器人真空吸尘器100所位于的区域识别为第一区域或第二区域。
参考表2,当在特定区域中识别出TV和沙发时,处理器130可获得2作为起居室区域中的区域预测信息,并且获得0.2作为卫生间区域中的区域预测信息。处理器130可将特定区域识别为起居室区域。
图10是示出根据本公开的实施例的机器人真空吸尘器移动到特定物体的位置的视图。
参照图10,根据本公开的实施例的处理器130可将区域信息分配给包括在空间中的多个区域中的每一个区域。例如,识别出TV和沙发的第一区域可被识别为起居室,并且识别出盆的第二区域可被识别为卫生间。作为另一示例,其中识别出梳妆台和床的第三区域可被识别为卧室。
图10所示的区域的平面图和多个物体的平面图可被称为空间的地图信息。根据实施例的机器人真空吸尘器100可将空间的地图信息发送到服务器或者将其发送到外部装置(例如,用户终端装置)以将空间的地图信息提供给用户。
此外,根据本公开的实施例的机器人真空吸尘器100可接收用户命令。作为示例,用户命令可以是指示特定物体的命令。用户命令可以是语音命令、文本命令或从远程控制装置或外部装置接收的控制命令。作为另一示例,用户终端装置可显示空间的地图信息,并且机器人真空吸尘器100可通过用户终端装置接收指示特定物体的用户命令。
例如,当接收到指示特定物体的用户命令(例如,“清洁TV的周围环境”)时,处理器130可基于空间的地图信息来识别与用户命令相应的物体的位置。例如,处理器130可通过对用户命令执行语音识别来识别包括在“清洁TV的周围环境”中的TV 10-5。处理器130可基于区域的平面图和位于该区域中的至少一个物体的平面形状来获得TV 10-5在空间中的位置信息。处理器130可基于获得的TV 10-5的位置信息将机器人真空吸尘器100移动到TV10-5。
具体地,处理器130可根据用户命令控制机器人真空吸尘器100改变TV 10-5的周围环境。
此外,根据本公开的实施例的处理器130可将机器人真空吸尘器100移动到与用户命令相应的物体的位置,并且基于物体的形状信息执行清洁操作。例如,处理器130可基于与用户命令相应的物体的形状信息来设置用于避开相应物体的最佳行进路径,并且基于设置的行进路径(即,通过避开物体)移动机器人真空吸尘器100以清洁相应物体的周围环境而不与相应物体碰撞。
例如,处理器130可根据用户命令从多个物体中的每一个物体的形状信息获得与TV 10-5相应的形状信息,并且基于与TV 10-5相应的形状信息获得用于避开TV 10-5的行进路径。处理器130可控制机器人真空吸尘器100避开TV 10-5并有效地清洁TV 10-5的周围环境。
图11是根据本公开的实施例的机器人真空吸尘器的详细框图。
参照图11,根据本公开的实施例的机器人真空吸尘器100可包括相机110、存储器120、处理器130、显示器140、通信接口150和用户界面160。
相机110可被实现为RGB相机、3D相机等。3D相机可被实现为包括飞行时间(TOF)传感器和红外光的TOF相机。3D相机可包括红外(IR)立体传感器。相机传感器可以是使用电荷耦合器件(CCD)、互补金属氧化物半导体(CMOS)等的相机传感器,但不限于此。当相机110包括CCD时,CCD可实现为红/绿/蓝(RGB)CCD、红外(IR)CCD等。
存储器120可存储被学习以识别输入图像中的物体的人工智能模型。
此外,存储器120可包括ROM、RAM(例如动态RAM(DRAM)、同步DRAM(SDRAM)、双倍数据速率SDRAM(DDR SDRAM))等,并且可与处理器130一起实现。
通过处理器130和存储器120来操作根据本公开的与人工智能相关的功能。处理器130可由一个或更多个处理器组成。在这种情况下,一个或更多个处理器可以是通用处理器(诸如CPU、AP、数字信号处理器(DSP)等)、或者仅图形处理器(诸如GPU、视觉处理单元(VPU))、或者仅人工智能处理器(诸如NPU)。一个或更多个处理器控制以根据存储在存储器120中的预定义操作规则或人工智能模型来处理输入数据。可选地,当一个或更多个处理器是仅人工智能处理器时,仅人工智能处理器可设计有专门用于处理特定人工智能模型的硬件结构。
预定义运动规则或人工智能模型的特征在于通过学习生成。通过学习生成意味着通过学习算法使用多个学习数据来学习基本人工智能模型,使得生成被设置为执行期望特性(或目的)的预定义运动规则或人工智能模型。这种学习可在执行根据本公开的人工智能的装置本身中执行,或者可通过单独的服务器和/或系统执行。学习算法的示例包括监督学习、无监督学习、半监督学习或强化学习,但不限于上述示例。
人工智能模型可由多个神经网络层组成。所述多个神经网络层中的每一个神经网络层具有多个权重值,并且通过前一层的运算结果与多个权重值之间的运算来执行神经网络运算。可通过人工智能模型的学习结果来优化多个神经网络层的多个权重值。例如,可更新多个权重值以减少或最小化在学习过程期间从人工智能模型获得的损失值或成本值。人工神经网络可包括深度神经网络(DNN),例如,卷积神经网络(CNN)、深度神经网络(DNN)、递归神经网络(RNN)、受限玻尔兹曼机(RBM)、深度信念网络(DBN)、双向递归深度神经网络(BRDNN)或深度Q网络等,但不限于此。
显示器140可被实现为包括自发光元件的显示器或包括不发光元件和背光的显示器。例如,显示器可被实现为各种类型的显示器,诸如液晶显示器(LCD)、有机发光二极管(OLED)显示器、发光二极管(LED)、微型LED、迷你LED、等离子体显示面板(PDP)、量子点(QD)显示器、量子点发光二极管(QLED)等。显示器140可包括可以以诸如a-Si TFT、低温多晶硅(LTPS)TFT、有机TFT(OTFT)等形式实现的驱动电路、背光单元等。此外,显示器140可被实现为与触摸传感器组合的触摸屏、柔性显示器、可滚动显示器、3D显示器、多个显示模块物理连接的显示器等。处理器130可控制显示器140输出根据上述各种实施例获得的机器人真空吸尘器100的状态信息。状态信息可包括与机器人真空吸尘器100的驱动有关的各种信息,诸如机器人真空吸尘器100的清洁模式、与电池有关的信息、关于是否返回到对接站200的信息等。
通信接口150是机器人真空吸尘器100与至少一个外部装置通信以交换信号/数据的组件。为此,通信接口150可包括电路。
通信接口150可包括无线通信模块、有线通信模块等。
无线通信模块可包括Wi-Fi通信模块、蓝牙模块、红外数据协会(IrDA)模块、第三代(3G)移动通信模块、第四代(4G)移动通信模块、4G长期演进(LTE)通信模块中的至少一个。
有线通信模块可被实现为有线端口,诸如Thunderbolt端口、USB端口等。
用户接口160可包括一个或更多个按钮、键盘、鼠标等。另外,用户接口160可包括与显示器(未示出)一起实现的触摸面板或单独的触摸板(未示出)。
用户接口160可包括麦克风以通过语音接收用户的命令或信息,或者可与相机110一起实现以识别运动形式的用户的命令或信息。
图12是示出根据本公开的实施例的与外部服务器通信的机器人真空吸尘器的视图。
参照图12,机器人真空吸尘器100可与可以是智能电话的外部装置300-1和300-2以及服务器装置500通信。在这种情况下,机器人真空吸尘器100可通过配置有路由器等的中继装置400与外部装置300-1、300-2和500通信。
例如,当机器人真空吸尘器100所位于的区域被识别为第一区域或第二区域时,处理器130可控制通信接口150向外部服务器或外部装置300-1和300-2提供关于识别的区域的识别信息(例如,区域信息)、识别的区域的平面图以及多个物体中的与位于识别的区域中的每一个物体相应的平面形状。
另外,机器人真空吸尘器100可根据从外部装置300-1(外部装置300-1可以是智能电话)或外部装置300-2接收的控制信号移动到包括在机器人真空吸尘器100所位于的空间中的多个区域中的任何一个区域,或者移动到所述空间中的多个物体中的任何一个物体。
图13是示出根据本公开的实施例的控制机器人真空吸尘器的方法的流程图。
参照图13,在操作S1310,控制机器人真空吸尘器的方法首先将由相机获得的图像输入到人工智能模型,并且识别包括在图像中的物体,其中,该机器人真空吸尘器包括被训练为识别输入图像中的物体人工智能模型和与多个物体中的每一个物体相应的形状信息。
在操作S1320,从多个形状信息中获得与识别的物体相应的形状信息。
在操作S1330,基于与物体相关的形状信息和尺寸信息来设置机器人真空吸尘器的行进路径。
机器人真空吸尘器还可包括每个形状信息的尺寸信息。根据实施例,获得形状信息的操作S1320可包括基于图像获得与形状信息相应的尺寸信息,或者基于存储在存储器中的尺寸信息获得与形状信息相应的尺寸信息。
设置行进路径的操作S1330包括基于物体的形状信息识别与物体相应的平面形状,并且基于物体的平面形状设置用于避开物体的行进路径。
另外,设置行进路径的操作S1330可包括:如果未能获得与物体相应的平面形状,则基于障碍物检测传感器的感测数据来设置用于避开物体的行进路径。
另外,机器人真空吸尘器还可包括关于多个物体中是否存在要避开的物体的信息,并且根据实施例的设置行进路径的操作S1330可包括:如果基于关于是否存在要避开的物体的信息识别出物体不是要避开的目标,则将行进路径设置为攀爬物体。
根据实施例的控制方法还可包括在攀爬物体时停止机器人真空吸尘器的抽吸操作。
另外,机器人真空吸尘器还可存储每个物体与第一区域相应的第一权重信息和每个物体与第二区域相应的第二权重信息,并且根据实施例的控制方法还可包括:通过将第一权重值信息应用于多个物体中的每个物体来获得第一区域预测信息,通过将第二权重信息应用于多个物体中的每个物体来获得第二区域预测信息,以及基于第一区域预测信息和第二区域预测信息将机器人真空吸尘器所位于的区域识别为第一区域或第二区域。
当机器人真空吸尘器所位于的区域被识别为第一区域或第二区域时,根据实施例的控制方法可包括将关于识别的区域的识别信息、识别的区域的平面图以及多个物体中的与位于识别的区域中的每一个物体相应的平面形状发送到外部服务器。
另外,当接收到指示物体的用户命令时,根据实施例的控制方法可包括:识别图像中识别的物体中的与用户命令相应的物体,并且基于机器人真空吸尘器所位于的区域的平面图和至少一个物体的平面形状驱动机器人真空吸尘器,使得机器人真空吸尘器移动到识别的物体的位置。
根据实施例的控制方法还可包括:获得多个形状信息中的与识别的物体相应的形状信息,以及基于与物体相关的形状信息和尺寸信息来设置用于清洁物体的周围环境的行进路径。
然而,本公开的各种实施例不仅可应用于机器人真空吸尘器,而且可应用于所有可移动电子装置。
上述各种实施例可实现在可由计算机或与计算机类似的设备通过使用软件、硬件或其组合来读取的记录介质中。在一些情况下,本文描述的实施例可由处理器本身实现。在软件配置中,说明书中描述的各种实施例(诸如过程和功能)可实现为单独的软件模块。软件模块可分别执行说明书中描述的一个或更多个功能和操作。
此外,用于执行根据上述本公开的各种实施例的机器人真空吸尘器的处理操作的计算机指令可存储在非暂时性计算机可读介质中。当存储在非暂时性计算机可读介质中的计算机指令由特定装置的处理器执行时,允许特定装置在根据上述各种实施例的机器人真空吸尘器100中执行处理操作。
非暂时性计算机可读记录介质是指存储数据并且可由装置读取的介质。例如,非暂时性计算机可读介质可以是CD、DVD、硬盘、蓝光盘、USB、存储卡、ROM等。
虽然已经参照本公开的各种实施例描述了本公开,但是本领域技术人员将理解,在不脱离由所附权利要求及其等同物限定的本公开的精神和范围的情况下,可在其中进行形式和细节上的各种改变。
Claims (15)
1.一种机器人真空吸尘器,包括:
相机;
存储器,被配置为存储被训练为从输入图像识别图像的人工智能模型和与多个物体中的每一个物体相应的形状信息;以及
处理器,被配置为通过连接到所述相机和所述存储器来控制所述电子装置,其中,所述处理器还被配置为:
将由所述相机获得的图像输入到人工智能模型以识别包括在所述图像中的物体,
获得存储在所述存储器中的形状信息中的与识别的物体相应的形状信息,以及
基于与所述物体相关的形状信息和尺寸信息来设置所述机器人真空吸尘器的行进路径。
2.根据权利要求1所述的机器人真空吸尘器,
其中,所述存储器还被配置为存储形状信息中的每个形状信息的尺寸信息,以及
其中,所述处理器还被配置为基于所述图像获得与形状信息相应的尺寸信息,或者基于存储在所述存储器中的尺寸信息获得与形状信息相应的尺寸信息。
3.根据权利要求1所述的机器人真空吸尘器,其中,所述处理器还被配置为:
基于所述物体的形状信息识别与所述物体相应的平面形状,以及
基于所述物体的平面形状设置用于避开所述物体的行进路径。
4.根据权利要求1所述的机器人真空吸尘器,还包括:
障碍物检测传感器,其中,所述处理器还被配置为:基于未能获得与所述物体相应的平面图,基于所述障碍物检测传感器的感测数据来设置用于避开所述物体的行进路径。
5.根据权利要求1所述的机器人真空吸尘器,
其中,所述存储器还被配置为存储针对所述多个物体中的每一个物体的关于是否存在要避开的物体的信息,并且
其中,所述处理器还被配置为基于根据关于是否存在要避开的物体的信息将所述物体识别为不避开的物体,将行进路径设置为攀爬所述物体。
6.根据权利要求5所述的机器人真空吸尘器,其中,所述处理器还被配置为在攀爬所述物体时停止所述机器人真空吸尘器的抽吸操作。
7.根据权利要求1所述的机器人真空吸尘器,
其中,所述存储器还被配置为还存储每个物体与第一区域相应的第一权重值信息和每个物体与第二区域相应的第二权重值信息,并且
其中,所述处理器还被配置为:
基于从由所述相机获得的所述图像中识别出多个物体,将第一权重值信息应用于所述多个物体中的每一个物体以获得第一区域预测信息,
将第二权重值信息应用于所述多个物体中的每一个物体以获得第二区域预测信息,以及
基于第一区域预测信息和第二区域预测信息将所述机器人真空吸尘器所位于的区域识别为第一区域或第二区域中的任一个。
8.根据权利要求7所述的机器人真空吸尘器,还包括:
通信电路,
其中,所述处理器还被配置为:基于所述机器人真空吸尘器所位于的区域被识别为第一区域或第二区域中的任一个,控制所述通信电路将关于识别的区域的识别信息、识别的区域的平面图、所述多个物体中的与位于识别的区域中的每一个物体相应的平面形状发送到外部服务器。
9.根据权利要求1所述的机器人真空吸尘器,其中,所述处理器还被配置为:
基于接收指示物体的用户命令,在从所述图像识别的物体中识别与所述用户命令相应的物体,以及
基于关于所述机器人真空吸尘器所位于的区域的平面图和关于位于所述区域中的至少一个物体的平面形状驱动所述机器人真空吸尘器,使得所述机器人真空吸尘器移动到识别的物体的位置。
10.根据权利要求9所述的机器人真空吸尘器,其中,所述处理器还被配置为:
获得存储在所述存储器中的形状信息中的与识别的物体相应的形状信息,以及
基于与所述物体相关的形状信息和尺寸信息来设置用于清洁所述物体的周围环境的行进路径。
11.一种控制机器人真空吸尘器的方法,所述机器人真空吸尘器包括被训练为从输入图像识别物体的人工智能模型,所述方法包括:
将由相机获得的图像输入到所述人工智能模型以识别包括在所述图像中的物体;
获得多个形状信息中的与识别的物体相应的形状信息;以及
基于获得的与所述物体相关的形状信息和尺寸信息来设置所述机器人真空吸尘器的行进路径。
12.根据权利要求11所述的方法,
其中,所述方法还包括存储所述多个形状信息中的每个形状的尺寸信息,以及
其中,获得形状信息的步骤包括:基于所述图像获得与形状信息相应的尺寸信息,或者基于存储在存储器中的尺寸信息获得与形状信息相应的尺寸信息。
13.根据权利要求11所述的方法,其中,设置行进路径的步骤包括:
基于获得的所述物体的形状信息来识别与所述物体相应的平面形状,以及
基于所述物体的平面形状来设置用于避开所述物体的行进路径。
14.根据权利要求11所述的方法,其中,设置行进路径的步骤包括:基于未能获得与所述物体相应的平面图,基于障碍物检测传感器的感测数据来设置用于避开所述物体的行进路径。
15.根据权利要求11所述的方法,
其中,所述方法还包括存储针对所述多个物体中的每一个物体的关于是否存在要避开的物体的信息,以及
其中,设置行进路径的步骤包括:基于根据关于是否存在要避开的物体的信息将所述物体识别为不避开的物体,将行进路径设置为攀爬所述物体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190177124A KR20210084129A (ko) | 2019-12-27 | 2019-12-27 | 로봇 청소기 및 그 제어 방법 |
KR10-2019-0177124 | 2019-12-27 | ||
PCT/KR2020/017956 WO2021132954A1 (en) | 2019-12-27 | 2020-12-09 | Electronic apparatus and method of controlling thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114727738A true CN114727738A (zh) | 2022-07-08 |
Family
ID=76546206
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202080079670.0A Pending CN114727738A (zh) | 2019-12-27 | 2020-12-09 | 电子设备及其控制方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11874668B2 (zh) |
EP (1) | EP4021266A4 (zh) |
KR (1) | KR20210084129A (zh) |
CN (1) | CN114727738A (zh) |
WO (1) | WO2021132954A1 (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102668070B1 (ko) * | 2019-03-15 | 2024-05-29 | 삼성전자주식회사 | 로봇 청소기 및 이의 제어 방법 |
KR20230012368A (ko) * | 2021-07-15 | 2023-01-26 | 삼성전자주식회사 | 청소 로봇을 제어하는 전자 장치 및 그 동작 방법 |
KR102564280B1 (ko) * | 2021-12-10 | 2023-08-07 | 알리콘 주식회사 | 청소로봇 원격제어시스템 |
CN114831540A (zh) * | 2022-04-19 | 2022-08-02 | 珠海格力电器股份有限公司 | 一种机器人及使用其的方法 |
US11935220B1 (en) * | 2023-08-14 | 2024-03-19 | Shiv S Naimpally | Using artificial intelligence (AI) to detect debris |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4157731B2 (ja) * | 2002-07-01 | 2008-10-01 | 日立アプライアンス株式会社 | ロボット掃除機及びロボット掃除機制御プログラム |
JP4555035B2 (ja) * | 2004-03-30 | 2010-09-29 | 日本電気株式会社 | 掃除機制御装置、掃除機、ロボット、および掃除機制御方法 |
DE102010037100A1 (de) * | 2010-08-23 | 2012-02-23 | Vorwerk & Co. Interholding Gmbh | Selbsttätig verfahrbares Gerät |
KR101984214B1 (ko) * | 2012-02-09 | 2019-05-30 | 삼성전자주식회사 | 로봇 청소기의 청소 작업을 제어하기 위한 장치 및 방법 |
JP5771885B2 (ja) * | 2013-06-03 | 2015-09-02 | みこらった株式会社 | 電気掃除装置 |
KR101772084B1 (ko) | 2015-07-29 | 2017-08-28 | 엘지전자 주식회사 | 이동 로봇 및 그 제어방법 |
US20170090456A1 (en) * | 2015-09-25 | 2017-03-30 | Multimedia Image Solution Limited | Autonomous cleaning robot |
JP7007078B2 (ja) * | 2015-10-08 | 2022-01-24 | 東芝ライフスタイル株式会社 | 電気掃除機 |
DE102015119501A1 (de) * | 2015-11-11 | 2017-05-11 | RobArt GmbH | Unterteilung von Karten für die Roboternavigation |
KR20180075176A (ko) | 2016-12-26 | 2018-07-04 | 엘지전자 주식회사 | 이동 로봇 및 그 제어방법 |
KR20180087798A (ko) | 2017-01-25 | 2018-08-02 | 엘지전자 주식회사 | 이동 로봇 및 그 제어방법 |
KR102017148B1 (ko) * | 2017-03-03 | 2019-09-02 | 엘지전자 주식회사 | 장애물을 학습하는 인공지능 이동 로봇 및 그 제어방법 |
US20180348783A1 (en) * | 2017-05-31 | 2018-12-06 | Neato Robotics, Inc. | Asynchronous image classification |
KR20180134230A (ko) | 2017-06-08 | 2018-12-18 | 삼성전자주식회사 | 청소 로봇 및 그 제어 방법 |
US10878294B2 (en) * | 2018-01-05 | 2020-12-29 | Irobot Corporation | Mobile cleaning robot artificial intelligence for situational awareness |
KR102492947B1 (ko) * | 2018-04-09 | 2023-01-27 | 엘지전자 주식회사 | 로봇 청소기 |
CN110936370A (zh) | 2018-09-25 | 2020-03-31 | 格力电器(武汉)有限公司 | 清扫机器人控制方法及装置 |
KR20190106891A (ko) * | 2019-08-28 | 2019-09-18 | 엘지전자 주식회사 | 인공 지능 모니터링 장치 및 그의 동작 방법 |
US11649147B2 (en) * | 2019-09-20 | 2023-05-16 | Clearpath Robotics Inc. | Autonomous material transport vehicles, and systems and methods of operating thereof |
CN111700546B (zh) * | 2020-06-24 | 2022-09-13 | 深圳银星智能集团股份有限公司 | 一种移动机器人的清扫方法及移动机器人 |
-
2019
- 2019-12-27 KR KR1020190177124A patent/KR20210084129A/ko unknown
-
2020
- 2020-12-09 WO PCT/KR2020/017956 patent/WO2021132954A1/en unknown
- 2020-12-09 CN CN202080079670.0A patent/CN114727738A/zh active Pending
- 2020-12-09 EP EP20908344.3A patent/EP4021266A4/en active Pending
- 2020-12-10 US US17/117,692 patent/US11874668B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
KR20210084129A (ko) | 2021-07-07 |
EP4021266A1 (en) | 2022-07-06 |
EP4021266A4 (en) | 2022-11-02 |
WO2021132954A1 (en) | 2021-07-01 |
US20210200234A1 (en) | 2021-07-01 |
US11874668B2 (en) | 2024-01-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11874668B2 (en) | Electronic apparatus and method of controlling thereof | |
KR102662949B1 (ko) | 인공지능 이동 로봇 및 그 제어방법 | |
KR102639675B1 (ko) | 이동 로봇 시스템, 이동 로봇 및 이동 로봇 시스템의 제어 방법 | |
JP5852706B2 (ja) | 可動式ロボットシステム | |
WO2021026831A1 (zh) | 移动机器人及其控制方法和控制系统 | |
US10807230B2 (en) | Bistatic object detection apparatus and methods | |
US20180353042A1 (en) | Cleaning robot and controlling method thereof | |
JP6526613B2 (ja) | 可動式ロボットシステム | |
US20220257077A1 (en) | Cleaning robot and method of performing task thereof | |
US20200097012A1 (en) | Cleaning robot and method for performing task thereof | |
KR102577785B1 (ko) | 청소 로봇 및 그의 태스크 수행 방법 | |
JP2019121364A (ja) | 状況認識のためのモバイル清掃ロボット人工知能 | |
KR102235003B1 (ko) | 충돌 검출, 추정 및 회피 | |
US11602845B2 (en) | Method of detecting human and/or animal motion and performing mobile disinfection | |
US11654554B2 (en) | Artificial intelligence cleaning robot and method thereof | |
US20230363610A1 (en) | Occupancy map segmentation for autonomous guided platform with deep learning | |
JP7173846B2 (ja) | 掃除機の制御システム、自律走行型掃除機、掃除システム、および掃除機の制御方法 | |
US20230363609A1 (en) | 3d geometric and semantic awareness with deep learning for autonomous guidance | |
EP4202866A1 (en) | Autonomous robot with deep learning environment recognition and sensor calibration | |
KR20210122921A (ko) | 로봇 청소기 및 그 제어 방법 | |
KR102550260B1 (ko) | 로봇 청소기 | |
TWI837507B (zh) | 移動式機器人系統 | |
KR102390039B1 (ko) | 로봇 청소기 및 그 제어 방법 | |
US20240036585A1 (en) | Robot device operating in mode corresponding to position of robot device and control method thereof | |
US20240160212A1 (en) | Object enrollment in a robotic cart coordination system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |