CN115209032B - 基于清洁机器人的图像采集方法、装置、电子设备及介质 - Google Patents
基于清洁机器人的图像采集方法、装置、电子设备及介质 Download PDFInfo
- Publication number
- CN115209032B CN115209032B CN202110384196.9A CN202110384196A CN115209032B CN 115209032 B CN115209032 B CN 115209032B CN 202110384196 A CN202110384196 A CN 202110384196A CN 115209032 B CN115209032 B CN 115209032B
- Authority
- CN
- China
- Prior art keywords
- working mode
- image
- detection model
- shooting
- shooting object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004140 cleaning Methods 0.000 title claims abstract description 79
- 238000000034 method Methods 0.000 title claims abstract description 51
- 238000001514 detection method Methods 0.000 claims abstract description 102
- 230000011218 segmentation Effects 0.000 claims description 10
- 238000012549 training Methods 0.000 claims description 6
- 230000000007 visual effect Effects 0.000 claims description 5
- 230000006835 compression Effects 0.000 claims description 4
- 238000007906 compression Methods 0.000 claims description 4
- 230000008859 change Effects 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 11
- 230000001133 acceleration Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 10
- 238000013527 convolutional neural network Methods 0.000 description 10
- 230000002093 peripheral effect Effects 0.000 description 10
- 238000003384 imaging method Methods 0.000 description 8
- 230000033001 locomotion Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 241000282472 Canis lupus familiaris Species 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 241001465754 Metazoa Species 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 210000000056 organ Anatomy 0.000 description 3
- 241000282326 Felis catus Species 0.000 description 2
- 239000000919 ceramic Substances 0.000 description 2
- 238000013145 classification model Methods 0.000 description 2
- 230000008676 import Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001680 brushing effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L11/00—Machines for cleaning floors, carpets, furniture, walls, or wall coverings
- A47L11/40—Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
- A47L11/4011—Regulation of the cleaning machine by electric means; Control systems and remote control systems therefor
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L9/00—Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
- A47L9/28—Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L2201/00—Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
- A47L2201/06—Control of the cleaning action for autonomous devices; Automatic detection of the surface condition before, during or after cleaning
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种基于清洁机器人的图像采集方法、装置、电子设备及介质。其中,本申请中,在获取图像采集指令,所述图像采集指令中包括拍摄对象;基于拍摄对象,确定目标工作模式,目标工作模式对应于规划工作模式以及探索工作模式的其中一种;在目标工作模式下启动摄像装置,并利用预设的图像检测模型采集拍摄对象的图像。通过应用本申请的技术方案,可以将预先训练好的图像检测模型部署到清洁机器人中,并根据本次的拍摄对象,选择对应的工作模式并启动摄像装置进行图像的采集,进而利用图像检测模型识别得到特定的拍摄对象。从而避免由于相关技术中没有利用清洁机器人实现日常场景中的图像采集的问题。
Description
技术领域
本申请中涉及图像处理技术,尤其是一种基于清洁机器人的图像采集方法、装置、电子设备及介质。
背景技术
由于通信时代和社会的兴起,智能设备已经随着越来越多用户的使用而不断发展。
其中,随着通信时代的飞速发展,人们使用清洁机器人代替人工清洁已经成为了一种常态。另外,对于家庭中很多的场景或者需要记录的图像,很可能因为用户不在场或没有图像采集设备的原因,导致无法及时的进行图像或视频采集。
因此,如何利用清洁机器人实现日常场景中的图像采集,已经成为了本领域人员需要解决的问题。
发明内容
本申请实施例提供一种基于清洁机器人的图像采集方法、装置、电子设备及介质,本申请实施例用于解决相关技术中存在的没有利用清洁机器人实现日常场景中的图像采集的问题。
其中,根据本申请实施例的一个方面,提供的一种基于清洁机器人的图像采集方法,其特征在于,应用于清洁机器人,包括:
获取图像采集指令,所述图像采集指令中包括拍摄对象;
基于所述拍摄对象,确定目标工作模式,所述目标工作模式对应于规划工作模式以及探索工作模式的其中一种;
在所述目标工作模式下启动摄像装置,并利用预设的图像检测模型采集所述拍摄对象的图像。
可选地,在基于本申请上述方法的另一个实施例中,所述基于所述拍摄对象,确定目标工作模式,包括:
确定所述拍摄对象为移动物体,将所述探索工作模式作为所述目标工作模式;或,
确定所述拍摄对象为固定物体,将所述规划工作模式作为所述目标工作模式。
可选地,在基于本申请上述方法的另一个实施例中,所述确定所述拍摄对象为移动物体,将所述探索工作模式作为所述目标工作模式,包括:
确定所述拍摄对象为移动物体,基于所述拍摄对象的类型,确定所述清洁机器人的移动速率;
根据所述移动速率,将所述探索工作模式作为所述目标工作模式。
可选地,在基于本申请上述方法的另一个实施例中,在所述基于所述拍摄对象,确定目标工作模式之后,还包括:
根据所述图像采集指令对应的采集需求,确定本次拍摄所述拍摄对象的拍摄区域;
启动所述摄像装置后,根据所述拍摄对象的拍摄区域,调整所述摄像装置的拍摄高度,和/或,拍摄视角;
在确定调整完毕所述摄像装置的拍摄高度,和/或,拍摄视角,在所述目标工作模式下采集所述拍摄对象的图像。
可选地,在基于本申请上述方法的另一个实施例中,在所述获取图像采集指令之前,还包括:
获取第一数量的样本图像,其中,所述样本图像中包括至少一个拍摄对象;
利用所述样本图像中,所述拍摄对象的图像特征参数对预设的图像语义分割模型进行训练,得到满足预设条件的第一图像检测模型;
将所述第一图像检测模型作为所述预设的图像检测模型,并将所述第一图像检测模型导入到服务器中。
可选地,在基于本申请上述方法的另一个实施例中,在所述将所述第一图像检测模型作为所述预设的图像检测模型,并将所述第一图像检测模型导入到服务器之后,还包括:
确定所述目标工作模式下启动摄像装置,将所述摄像装置采集的待识别图像发送到所述服务器中;
接收由所述服务器发送的所述拍摄对象的图像,所述服务器发送的图像由所述服务器利用所述第一图像检测模型识别得到的。
可选地,在基于本申请上述方法的另一个实施例中,在所述得到满足预设条件的第一图像检测模型之后,还包括:
对所述第一图像检测模型进行模型压缩,得到第二图像检测模型;
将所述第二图像检测模型作为所述预设的图像检测模型,并将所述第二图像检测模型导入到所述清洁机器人中;
确定所述目标工作模式下启动摄像装置,由所述清洁机器人利用所述第二图像检测模型识别所述摄像装置采集的待识别图像,得到所述拍摄对象的图像。
根据本申请实施例的另一个方面,提供的一种基于清洁机器人的图像采集装置,应用于清洁机器人,包括:
获取模块,被设置为获取图像采集指令,所述图像采集指令中包括拍摄对象;
确定模块,被设置为基于所述拍摄对象,确定目标工作模式,所述目标工作模式对应于规划工作模式以及探索工作模式的其中一种;
采集模块,被设置为在所述目标工作模式下启动摄像装置,并利用预设的图像检测模型采集所述拍摄对象的图像。
根据本申请实施例的又一个方面,提供的一种电子设备,包括:
存储器,用于存储可执行指令;以及
显示器,用于与所述存储器显示以执行所述可执行指令从而完成上述任一所述基于清洁机器人的图像采集方法的操作。
根据本申请实施例的还一个方面,提供的一种计算机可读存储介质,用于存储计算机可读取的指令,所述指令被执行时执行上述任一所述基于清洁机器人的图像采集方法的操作。
本申请中,在获取图像采集指令,所述图像采集指令中包括拍摄对象;基于拍摄对象,确定目标工作模式,目标工作模式对应于规划工作模式以及探索工作模式的其中一种;在目标工作模式下启动摄像装置,并利用预设的图像检测模型采集拍摄对象的图像。通过应用本申请的技术方案,可以将预先训练好的图像检测模型部署到清洁机器人中,并根据本次的拍摄对象,选择对应的工作模式并启动摄像装置进行图像的采集,进而利用图像检测模型识别得到特定的拍摄对象。从而避免由于相关技术中没有利用清洁机器人实现日常场景中的图像采集的问题。
下面通过附图和实施例,对本申请的技术方案做进一步的详细描述。
附图说明
构成说明书的一部分的附图描述了本申请的实施例,并且连同描述一起用于解释本申请的原理。
参照附图,根据下面的详细描述,可以更加清楚地理解本申请,其中:
图1为本申请提出的基于清洁机器人的图像采集系统架构示意图;
图2为本申请提出的一种基于清洁机器人的图像采集方法的示意图;
图3a-图3b为本申请提出的清洁机器人采集图像的显示图;
图4为本申请基于清洁机器人的图像采集装置的结构示意图;
图5为本申请显示电子设备结构示意图。
具体实施方式
现在将参照附图来详细描述本申请的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本申请的范围。
同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,不作为对本申请及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
另外,本申请各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本申请要求的保护范围之内。
需要说明的是,本申请实施例中所有方向性指示(诸如上、下、左、右、前、后……)仅用于解释在某一特定姿态(如附图所示)下各部件之间的相对位置关系、运动情况等,如果该特定姿态发生改变时,则该方向性指示也相应地随之改变。
下面结合图1-图3来描述根据本申请示例性实施方式的用于进行基于清洁机器人的图像采集方法。需要注意的是,下述应用场景仅是为了便于理解本申请的精神和原理而示出,本申请的实施方式在此方面不受任何限制。相反,本申请的实施方式可以应用于适用的任何场景。
图1示出了可以应用本申请实施例的基于清洁机器人的图像采集方法或基于清洁机器人的图像采集的示例性系统架构100的示意图。
如图1所示,系统架构100可以包括清洁机器人101、102、103中的一种或多种,网络104和服务器105。网络104用以在清洁机器人101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
应该理解,图1中的清洁机器人、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的清洁机器人、网络和服务器。比如服务器105可以是多个服务器组成的服务器集群等。
用户可以使用清洁机器人101、102、103通过网络104与服务器105交互,以接收或发送消息,采集图像等。清洁机器人101、102、103可以包括具有显示屏,摄像采集装置的各种电子设备。
本申请中的清洁机器人101、102、103可以为提供各种服务的清洁机器人。例如用户通过清洁机器人103(也可以是清洁机器人101或102)实现:获取图像采集指令,图像采集指令中包括拍摄对象;基于拍摄对象,确定目标工作模式,目标工作模式对应于规划工作模式以及探索工作模式的其中一种;在目标工作模式下启动摄像装置,并利用预设的图像检测模型采集拍摄对象的图像。
在此需要说明的是,本申请实施例所提供的基于清洁机器人的图像采集方法可以由清洁机器人101、102、103中的一个或多个,和/或,服务器105执行,相应地,本申请实施例所提供的基于清洁机器人的图像采集装置一般设置于对应清洁机器人中,和/或,服务器105中,但本申请不限于此。
进一步的,本申请还提出一种基于清洁机器人的图像采集方法、装置、目标终端及介质。
图2示意性地示出了根据本申请实施方式的一种基于清洁机器人的图像采集方法的流程示意图。如图2所示,该方法应用于清洁机器人,包括:
S101,获取图像采集指令,图像采集指令中包括拍摄对象。
其中,清洁机器人是智能家用电器的一种,能凭借一定的人工智能,自动在区域内完成地板清理工作。一般采用刷扫和真空方式,将地面杂物先吸纳进入自身的垃圾收纳盒,从而完成地面清理的功能。
需要说明的是,本申请中的图像采集指令可以是由用户生成的,也可以为根据预设规则生成的。例如每隔一段时间即可指示机器人进行图像采集,又或当确定在预设时间点后即可指示机器人进行图像采集等等。
另外,需要说明的是,本申请不对拍摄对象进行具体限定,例如可以为室内的任意物体,包括桌椅,墙壁,家用电器,日用品等等。又或,也可以为猫,狗等动物。还可以为移动的车辆,人体等等。
还有,本申请也不对拍摄对象的数量进行限定,例如可以为一个,也可以为多个。
S102,基于拍摄对象,确定目标工作模式,目标工作模式对应于规划工作模式以及探索工作模式的其中一种。
进一步的,本申请在获取图像采集指令之后,需要首先确定对应的工作模式,其中工作模式可以为两种,即包括规划工作模式以及探索工作模式。
例如对于拍摄对象为移动物体来说,则可以将可以将探索工作模式作为目标工作模式,可以理解的,探索工作模式由于需要抓拍移动的物体,因此其即为采取不断变化的轨迹路线进行移动的工作模式。例如可以利用探索工作模式抓拍猫,狗等动物,也可以利用探索工作模式抓拍移动的车辆,移动的用户等。
另外一种方式中,对于拍摄对象为固定物体来说,则可以将规划工作模式作为目标工作模式,可以理解的,探索工作模式由于需要抓拍固定的物体,因此即可以选取固定轨迹路线进行移动的工作模式。例如可以利用规划工作模式抓拍室内的放置在固定位置的桌椅,墙壁,家用电器,日用品等物品。
其中,对于拍摄对象为多种,且同时包括移动物体以及固定物体来说,则可以选取将探索工作模式作为目标工作模式。
S103,在目标工作模式下启动摄像装置,并利用预设的图像检测模型采集拍摄对象的图像。
进一步的,本申请在获取到机器人在目标工作模式下启动摄像装置所采集到的多张待识别图像后,可以利用预设的图像检测模型对该多张待识别图像进行特征识别,进而得到拍摄对象的图像。例如当拍摄对象为宠物狗来说,本申请实施例即可在目标工作模式下启动摄像装置所采集到的多张待识别图像后,利用预设的图像检测模型对该多张待识别图像进行特征识别,进而得到宠物狗的图像并传输给用户。
其中,本申请不对图像检测模型做具体限定。例如可以为卷积神经网络(Convolutional Neural Networks,CNN)。卷积神经网络是一类包含卷积计算且具有深度结构的前馈神经网络(Feedforward Neural Networks),是深度学习的代表算法之一。卷积神经网络具有表征学习(representation learning)能力,能够按其阶层结构对输入信息进行平移不变分类。得益于CNN(卷积神经网络)对图像的强大特征表征能力,其在图像分类、目标检测、语义分割等领域都取得了令人瞩目的效果。
进一步的,本申请可以使用图像检测模型来检测摄像装置所采集到的多张待识别图像中的特征信息,进而对特征信息进行特征识别,确定待识别图像是否包含拍摄对象。其中,需要将该待识别图像输入至预设的卷积神经网络模型中,并将卷积神经网络模型最后一层全连接层(FC,fully connected layer)的输出作为对该待识别图像对应的特征数据的识别结果。
本申请中,在获取图像采集指令,所述图像采集指令中包括拍摄对象;基于拍摄对象,确定目标工作模式,目标工作模式对应于规划工作模式以及探索工作模式的其中一种;在目标工作模式下启动摄像装置,并利用预设的图像检测模型采集拍摄对象的图像。通过应用本申请的技术方案,可以将预先训练好的图像检测模型部署到清洁机器人中,并根据本次的拍摄对象,选择对应的工作模式并启动摄像装置进行图像的采集,进而利用图像检测模型识别得到特定的拍摄对象。从而避免由于相关技术中没有利用清洁机器人实现日常场景中的图像采集的问题。
可选的,在本申请一种可能的实施方式中,在S102(基于拍摄对象,确定目标工作模式)中,可以包括以下两种方式:
第一种方式:
若检测到拍摄对象为移动物体,将探索工作模式作为目标工作模式,探索工作模式为采取变化轨迹路线进行移动的工作模式。
进一步可选的,本申请中若检测到拍摄对象为移动物体,将探索工作模式作为目标工作模式,包括:
若检测到拍摄对象为移动物体,基于拍摄对象的类型,确定清洁机器人的移动速率;
根据移动速率,将探索工作模式作为目标工作模式。
其中,针对于不同的移动物体,通常具备不同的移动速率,例如当拍摄对象为动物时,则通常认为拍摄对象的移动速率较高。而当拍摄对象为移动的人时,则通常认为拍摄对象的移动速率较低。
以图3a举例,当出现由于机器人的移动速率与采集对象的移动速率不匹配的情况下,即会出现机器人所拍摄的图像不够完整或清晰图像的问题。为了避免上述问题,本申请即可以在确定检测到拍摄对象为移动物体之后,根据拍摄对象的类型,为机器人确定目标工作模式下的移动速率。以使清洁机器人在对应的移动速率下进行拍摄。从而达到如图3b所示的清晰图像。
第二种方式:
若检测到拍摄对象为固定物体,将规划工作模式作为目标工作模式,规划工作模式为采取固定轨迹路线进行移动的工作模式。
由于清洁机器人大多工作在室内,因此在采集固定物体的图像时,可以采取利用固定轨迹路线进行移动的工作模式。例如首先从卧室开始工作,直至客厅,厨卫房间等等。
可选的,在本申请一种可能的实施方式中,在S102(基于拍摄对象,确定目标工作模式)之后,可以包括以下步骤:
根据图像采集指令对应的采集需求,确定本次拍摄拍摄对象的拍摄区域;
启动摄像装置后,根据拍摄对象的拍摄区域,调整摄像装置的拍摄高度,和/或,拍摄视角;
在确定调整完毕摄像装置的拍摄高度,和/或,拍摄视角,在目标工作模式下采集拍摄对象的图像。
进一步的,由于不同的物体可能会位于不同的高度或不同的角度(例如挂在墙上的钟表以及地上的拖鞋等)。且对于拍摄同一物体来说,也会出现不同的拍摄角度(例如宠物的面部以及宠物的背部等)。因此本申请在确定针对采集对象的采集需求后,可以针对性的调整位于机器人上的摄像装置,从而将其定位在合适的拍摄高度,和/或,拍摄视角上。以使后续让机器人在该合适的拍摄状态下进行图像的采集。
例如对于拍摄对象为墙上的钟表来说,则可以将摄像装置的拍摄高度调高,并在确定调整完毕摄像装置的拍摄高度后,在对应的工作模式下采集拍摄对象的图像。又或,对于拍摄对象为宠物的面部来说,则可以将摄像装置的拍摄视角调整为面向机器人外侧,并在确定调整完毕摄像装置的拍摄视角后,在对应的工作模式下采集拍摄对象的图像。
可选的,在本申请一种可能的实施方式中,在S101(获取图像采集指令)之前,可以包括以下步骤:
获取第一数量的样本图像,其中,样本图像中包括至少一个拍摄对象;
利用样本图像中,拍摄对象的图像特征参数对预设的图像语义分割模型进行训练,得到满足预设条件的第一图像检测模型;
将第一图像检测模型作为预设的图像检测模型,并将第一图像检测模型导入到服务器中。
进一步的,本申请在利用预设的图像检测模型采集拍摄对象的图像之前,首先需要训练得到该图像检测模型。具体而言,需要首先获取一定数量的,包括至少一个拍摄对象的样本图像。并利用该多个样本图像对基础的空白图像语义分割模型进行训练,进而得到满足预设条件的第一图像检测模型。
需要说明的是,本申请不对第一数量进行具体限定,例如可以为一个,也可以为多个。例如,当第一数量为3个时,样本图像为包括宠物狗的拍摄对象时。本申请可以通过预设的图像语义分割模型,来识别样本图像所包括的至少一个拍摄对象的样本特征(例如可以为脸部器官特征,肢体器官特征,色彩特征等等)。更进一步而言,图像语义分割模型还可以对样本图像中的各个样本特征进行分类,并且将属于同一类别的样本特征分为同一类型的器官,这样,样本图像进行语义分割之后所得到的多个样本特征可以为多个不同类型所组成的样本特征。
需要说明的是,神经网络图像分类模型对样本图像进行语义分割处理时,对样本图像中的像素点分类越准确,则识别样本图像中的标记对象的准确率越高。其中需要说明的是,预设条件可以是自定义设定的。
例如,可以设定预设条件为:对像素点的分类准确率达到70%以上,那么,多个样本图像(未修饰样本图像以及已修饰样本图像)对图像检测模型进行反复训练,在神经网络图像分类模型对像素点的分类准确率达到70%以上时,则此时该第一图像检测模型可以应用在本申请实施例中,对摄像装置拍摄的多张待识别图像进行图像特征识别。
进一步可选的,在将第一图像检测模型作为预设的图像检测模型,并将第一图像检测模型导入到服务器之后,还包括:
若在目标工作模式下启动摄像装置,将摄像装置采集的待识别图像发送到服务器中;
接收由服务器发送的拍摄对象的图像,服务器发送的图像由服务器利用第一图像检测模型识别得到的。
进一步的,由于训练得到的第一图像检测模型数据量较大,因此一种方式中可以将其部署在服务器中,以使后续在机器人利用摄像装置拍摄得到的多张待识别图像后,可以将图像发送到服务器中,并由服务器利用第一图像检测模型识别得到特定拍摄对象的图像。
另外一种方式中,本申请在得到第一图像检测模型之后,也可以直接将其部署在清洁机器人上。
进一步可选的,在得到满足预设条件的第一图像检测模型之后,还包括:
对第一图像检测模型进行模型压缩,得到第二图像检测模型;
将第二图像检测模型作为预设的图像检测模型,并将第二图像检测模型导入到清洁机器人中;
若在目标工作模式下启动摄像装置,由清洁机器人利用第二图像检测模型识别摄像装置采集的待识别图像,得到拍摄对象的图像。
进一步的,本申请在获取到第一图像检测模型之后,为了避免出现该第一图像检测模型的数据架构过大所导致的需要占用机器人较大内存的弊端。本申请还可以将其进行模型压缩,以得到对应的数据架构较小的第二图像检测模型。
可选的,本申请对第一图像检测模型进行模型压缩的方式可以为直接对其进行压缩的方法,例如可以包括模型核的稀疏化,和模型的裁剪两个方面。其中核的稀疏化需要一些稀疏计算库的支持,其加速的效果可能受到带宽、稀疏度等很多因素的制约。另外,模型的裁剪方法则需要直接在原有的模型上剔除掉不重要的滤波参数。由于神经网络的自适应能力很强,加上数据架构较大的模型往往冗余比较多,将一些参数剔除之后,通过重训练手段可以将由剔除参数而降低的性能恢复回来,因此只需要挑选一种合适的裁剪手段以及重训练方式,就能够有效的在已有模型的基础上对其进行很大程度的压缩,是目前使用最普遍的方法。
更进一步的,本申请在得到数据架构较小的第二图像检测模型之后,可以将其部署在清洁机器人上。从而后续可以由清洁机器人利用该压缩后的图像检测模型识别摄像装置采集的多张待识别图像,进而从中得到拍摄对象对应的图像。
一种方式中,本申请实施例在由机器人拍摄图像完成后,可以由机器人判断得到的图像质量,如果清晰度较高则传输到云端服务器上,并由云端根据类别进行分类保存成相册。从而发送给用户设备上,以使用户通过App端显示对应的图像或者相册。
本申请中,在获取图像采集指令,所述图像采集指令中包括拍摄对象;基于拍摄对象,确定目标工作模式,目标工作模式对应于规划工作模式以及探索工作模式的其中一种;在目标工作模式下启动摄像装置,并利用预设的图像检测模型采集拍摄对象的图像。通过应用本申请的技术方案,可以将预先训练好的图像检测模型部署到清洁机器人中,并根据本次的拍摄对象,选择对应的工作模式并启动摄像装置进行图像的采集,进而利用图像检测模型识别得到特定的拍摄对象。从而避免由于相关技术中没有利用清洁机器人实现日常场景中的图像采集的问题。
在本申请的另外一种实施方式中,如图4所示,本申请还提供一种基于清洁机器人的图像采集装置。其中,该装置包括获取模块201,确定模块202,采集模块203,其中,
获取模块201,被设置为获取图像采集指令,所述图像采集指令中包括拍摄对象;
确定模块202,被设置为基于所述拍摄对象,确定目标工作模式,所述目标工作模式对应于规划工作模式以及探索工作模式的其中一种;
采集模块203,被设置为在所述目标工作模式下启动摄像装置,并利用预设的图像检测模型采集所述拍摄对象的图像。
本申请中,在获取图像采集指令,所述图像采集指令中包括拍摄对象;基于拍摄对象,确定目标工作模式,目标工作模式对应于规划工作模式以及探索工作模式的其中一种;在目标工作模式下启动摄像装置,并利用预设的图像检测模型采集拍摄对象的图像。通过应用本申请的技术方案,可以将预先训练好的图像检测模型部署到清洁机器人中,并根据本次的拍摄对象,选择对应的工作模式并启动摄像装置进行图像的采集,进而利用图像检测模型识别得到特定的拍摄对象。从而避免由于相关技术中没有利用清洁机器人实现日常场景中的图像采集的问题。
在本申请的另一种实施方式中,获取模块201,还包括:
获取模块201,被配置为确定所述拍摄对象为移动物体,将所述探索工作模式作为所述目标工作模式,所述探索工作模式为采取变化轨迹路线进行移动的工作模式;
或,
获取模块201,被配置为确定所述拍摄对象为固定物体,将所述规划工作模式作为所述目标工作模式,所述规划工作模式为采取固定轨迹路线进行移动的工作模式。
在本申请的另一种实施方式中,获取模块201,还包括:
获取模块201,被配置为确定所述拍摄对象为移动物体,基于所述拍摄对象的类型,确定所述清洁机器人的移动速率;
获取模块201,被配置为根据所述移动速率,将所述探索工作模式作为所述目标工作模式。
在本申请的另一种实施方式中,获取模块201,还包括:
获取模块201,被配置为根据所述图像采集指令对应的采集需求,确定本次拍摄所述拍摄对象的拍摄区域;
获取模块201,被配置为启动所述摄像装置后,根据所述拍摄对象的拍摄区域,调整所述摄像装置的拍摄高度,和/或,拍摄视角;
获取模块201,被配置为在确定调整完毕所述摄像装置的拍摄高度,和/或,拍摄视角,在所述目标工作模式下采集所述拍摄对象的图像。
在本申请的另一种实施方式中,获取模块201,还包括:
获取模块201,被配置为获取第一数量的样本图像,其中,所述样本图像中包括至少一个拍摄对象;
获取模块201,被配置为利用所述样本图像中,所述拍摄对象的图像特征参数对预设的图像语义分割模型进行训练,得到满足预设条件的第一图像检测模型;
获取模块201,被配置为将所述第一图像检测模型作为所述预设的图像检测模型,并将所述第一图像检测模型导入到服务器中。
在本申请的另一种实施方式中,获取模块201,还包括:
获取模块201,被配置为确定所述目标工作模式下启动摄像装置,将所述摄像装置采集的待识别图像发送到所述服务器中;
获取模块201,被配置为接收由所述服务器发送的所述拍摄对象的图像,所述服务器发送的图像由所述服务器利用所述第一图像检测模型识别得到的。
在本申请的另一种实施方式中,获取模块201,还包括:
获取模块201,被配置为对所述第一图像检测模型进行模型压缩,得到第二图像检测模型;
获取模块201,被配置为将所述第二图像检测模型作为所述预设的图像检测模型,并将所述第二图像检测模型导入到所述清洁机器人中;
获取模块201,被配置为确定所述目标工作模式下启动摄像装置,由所述清洁机器人利用所述第二图像检测模型识别所述摄像装置采集的待识别图像,得到所述拍摄对象的图像。
图5是根据一示例性实施例示出的一种电子设备的逻辑结构框图。例如,电子设备300可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图5,电子设备300可以包括以下一个或多个组件:处理器301和存储器302。
处理器301可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器301可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器301也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器301可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器301还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器302可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器302还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器302中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器301所执行以实现本申请中方法实施例提供的互动特效标定方法。
在一些实施例中,电子设备300还可选包括有:外围设备接口303和至少一个外围设备。处理器301、存储器302和外围设备接口303之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口303相连。具体地,外围设备包括:射频电路304、触摸显示屏305、摄像头306、音频电路307、定位组件308和电源309中的至少一种。
外围设备接口303可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器301和存储器302。在一些实施例中,处理器301、存储器302和外围设备接口303被集成在同一芯片或电路板上;在一些其他实施例中,处理器301、存储器302和外围设备接口303中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路304用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路304通过电磁信号与通信网络以及其他通信设备进行通信。射频电路304将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路304包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路304可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:城域网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路304还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏305用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏305是触摸显示屏时,显示屏305还具有采集在显示屏305的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器301进行处理。此时,显示屏305还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏305可以为一个,设置电子设备300的前面板;在另一些实施例中,显示屏305可以为至少两个,分别设置在电子设备300的不同表面或呈折叠设计;在再一些实施例中,显示屏305可以是柔性显示屏,设置在电子设备300的弯曲表面上或折叠面上。甚至,显示屏305还可以设置成非矩形的不规则图形,也即异形屏。显示屏305可以采用LCD(Liquid Crystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件306用于采集图像或视频。可选地,摄像头组件306包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件306还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路307可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器301进行处理,或者输入至射频电路304以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在电子设备300的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器301或射频电路304的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路307还可以包括耳机插孔。
定位组件308用于定位电子设备300的当前地理位置,以实现导航或LBS(LocationBased Service,基于位置的服务)。定位组件308可以是基于美国的GPS(GlobalPositioning System,全球定位系统)、中国的北斗系统、俄罗斯的格雷纳斯系统或欧盟的伽利略系统的定位组件。
电源309用于为电子设备300中的各个组件进行供电。电源309可以是交流电、直流电、一次性电池或可充电电池。当电源309包括可充电电池时,该可充电电池可以支持有线充电或无线充电。该可充电电池还可以用于支持快充技术。
在一些实施例中,电子设备300还包括有一个或多个传感器410。该一个或多个传感器410包括但不限于:加速度传感器411、陀螺仪传感器412、压力传感器413、指纹传感器414、光学传感器415以及接近传感器416。
加速度传感器411可以检测以电子设备300建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器411可以用于检测重力加速度在三个坐标轴上的分量。处理器301可以根据加速度传感器411采集的重力加速度信号,控制触摸显示屏305以横向视图或纵向视图进行用户界面的显示。加速度传感器411还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器412可以检测电子设备300的机体方向及转动角度,陀螺仪传感器412可以与加速度传感器411协同采集用户对电子设备300的3D动作。处理器301根据陀螺仪传感器412采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器413可以设置在电子设备300的侧边框和/或触摸显示屏305的下层。当压力传感器413设置在电子设备300的侧边框时,可以检测用户对电子设备300的握持信号,由处理器301根据压力传感器413采集的握持信号进行左右手识别或快捷操作。当压力传感器413设置在触摸显示屏305的下层时,由处理器301根据用户对触摸显示屏305的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器414用于采集用户的指纹,由处理器301根据指纹传感器414采集到的指纹识别用户的身份,或者,由指纹传感器414根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器301授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器414可以被设置电子设备300的正面、背面或侧面。当电子设备300上设置有物理按键或厂商Logo时,指纹传感器414可以与物理按键或厂商Logo集成在一起。
光学传感器415用于采集环境光强度。在一个实施例中,处理器301可以根据光学传感器415采集的环境光强度,控制触摸显示屏305的显示亮度。具体地,当环境光强度较高时,调高触摸显示屏305的显示亮度;当环境光强度较低时,调低触摸显示屏305的显示亮度。在另一个实施例中,处理器301还可以根据光学传感器415采集的环境光强度,动态调整摄像头组件306的拍摄参数。
接近传感器416,也称距离传感器,通常设置在电子设备300的前面板。接近传感器416用于采集用户与电子设备300的正面之间的距离。在一个实施例中,当接近传感器416检测到用户与电子设备300的正面之间的距离逐渐变小时,由处理器301控制触摸显示屏305从亮屏状态切换为息屏状态;当接近传感器416检测到用户与电子设备300的正面之间的距离逐渐变大时,由处理器301控制触摸显示屏305从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图5中示出的结构并不构成对电子设备300的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器304,上述指令可由电子设备300的处理器420执行以完成上述基于清洁机器人的图像采集方法,该方法包括:获取图像采集指令,所述图像采集指令中包括拍摄对象;基于所述拍摄对象,确定目标工作模式,所述目标工作模式对应于规划工作模式以及探索工作模式的其中一种;在所述目标工作模式下启动摄像装置,并利用预设的图像检测模型采集所述拍摄对象的图像。可选地,上述指令还可以由电子设备300的处理器420执行以完成上述示例性实施例中所涉及的其他步骤。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
在示例性实施例中,还提供了一种应用程序/计算机程序产品,包括一条或多条指令,该一条或多条指令可以由电子设备300的处理器420执行,以完成上述基于清洁机器人的图像采集方法,该方法包括:获取图像采集指令,所述图像采集指令中包括拍摄对象;基于所述拍摄对象,确定目标工作模式,所述目标工作模式对应于规划工作模式以及探索工作模式的其中一种;在所述目标工作模式下启动摄像装置,并利用预设的图像检测模型采集所述拍摄对象的图像。可选地,上述指令还可以由电子设备300的处理器420执行以完成上述示例性实施例中所涉及的其他步骤。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本申请的真正范围和精神由下面的权利要求指出。
应当理解的是,本申请并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本申请的范围仅由所附的权利要求来限制。
Claims (8)
1.一种基于清洁机器人的图像采集方法,其特征在于,应用于清洁机器人,包括:
获取图像采集指令,所述图像采集指令中包括拍摄对象;
基于所述拍摄对象,确定目标工作模式,所述目标工作模式对应于规划工作模式以及探索工作模式的其中一种;
在所述目标工作模式下启动摄像装置,并利用预设的图像检测模型采集所述拍摄对象的图像;
其中,所述基于所述拍摄对象,确定目标工作模式,包括:
确定所述拍摄对象为移动物体,将所述探索工作模式作为所述目标工作模式,所述探索工作模式为采取变化轨迹路线进行移动的工作模式;
确定所述拍摄对象为固定物体,将所述规划工作模式作为所述目标工作模式,所述规划工作模式为采取固定轨迹路线进行移动的工作模式;
其中,所述确定所述拍摄对象为移动物体,将所述探索工作模式作为所述目标工作模式,包括:
确定所述拍摄对象为移动物体,基于所述拍摄对象的类型,确定所述清洁机器人的移动速率;
根据所述移动速率,将所述探索工作模式作为所述目标工作模式。
2.如权利要求1所述的方法,其特征在于,在所述基于所述拍摄对象,确定目标工作模式之后,还包括:
根据所述图像采集指令对应的采集需求,确定本次拍摄所述拍摄对象的拍摄区域;
启动所述摄像装置后,根据所述拍摄对象的拍摄区域,调整所述摄像装置的拍摄高度,和/或,拍摄视角;
在确定调整完毕所述摄像装置的拍摄高度,和/或,拍摄视角,在所述目标工作模式下采集所述拍摄对象的图像。
3.如权利要求1所述的方法,其特征在于,在所述获取图像采集指令之前,还包括:
获取第一数量的样本图像,其中,所述样本图像中包括至少一个拍摄对象;
利用所述样本图像中,所述拍摄对象的图像特征参数对预设的图像语义分割模型进行训练,得到满足预设条件的第一图像检测模型;
将所述第一图像检测模型作为所述预设的图像检测模型,并将所述第一图像检测模型导入到服务器中。
4.如权利要求3所述的方法,其特征在于,在所述将所述第一图像检测模型作为所述预设的图像检测模型,并将所述第一图像检测模型导入到服务器之后,还包括:
确定所述目标工作模式下启动摄像装置,将所述摄像装置采集的待识别图像发送到所述服务器中;
接收由所述服务器发送的所述拍摄对象的图像,所述服务器发送的图像由所述服务器利用所述第一图像检测模型识别得到的。
5.如权利要求3所述的方法,其特征在于,在所述得到满足预设条件的第一图像检测模型之后,还包括:
对所述第一图像检测模型进行模型压缩,得到第二图像检测模型;
将所述第二图像检测模型作为所述预设的图像检测模型,并将所述第二图像检测模型导入到所述清洁机器人中;
确定所述目标工作模式下启动摄像装置,由所述清洁机器人利用所述第二图像检测模型识别所述摄像装置采集的待识别图像,得到所述拍摄对象的图像。
6.一种基于清洁机器人的图像采集装置,其特征在于,应用于清洁机器人,包括:
获取模块,被设置为获取图像采集指令,所述图像采集指令中包括拍摄对象;
确定模块,被设置为基于所述拍摄对象,确定目标工作模式,所述目标工作模式对应于规划工作模式以及探索工作模式的其中一种;
采集模块,被设置为在所述目标工作模式下启动摄像装置,并利用预设的图像检测模型采集所述拍摄对象的图像;
其中,所述基于所述拍摄对象,确定目标工作模式,包括:
确定所述拍摄对象为移动物体,将所述探索工作模式作为所述目标工作模式,所述探索工作模式为采取变化轨迹路线进行移动的工作模式;
确定所述拍摄对象为固定物体,将所述规划工作模式作为所述目标工作模式,所述规划工作模式为采取固定轨迹路线进行移动的工作模式;
其中,所述确定所述拍摄对象为移动物体,将所述探索工作模式作为所述目标工作模式,包括:
确定所述拍摄对象为移动物体,基于所述拍摄对象的类型,确定所述清洁机器人的移动速率;
根据所述移动速率,将所述探索工作模式作为所述目标工作模式。
7.一种电子设备,其特征在于,包括:
存储器,用于存储可执行指令;以及,
处理器,用于与所述存储器显示以执行所述可执行指令从而完成权利要求1-5中任一所述基于清洁机器人的图像采集方法的操作。
8.一种计算机可读存储介质,用于存储计算机可读取的指令,其特征在于,所述指令被执行时执行权利要求1-5中任一所述基于清洁机器人的图像采集方法的操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110384196.9A CN115209032B (zh) | 2021-04-09 | 2021-04-09 | 基于清洁机器人的图像采集方法、装置、电子设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110384196.9A CN115209032B (zh) | 2021-04-09 | 2021-04-09 | 基于清洁机器人的图像采集方法、装置、电子设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115209032A CN115209032A (zh) | 2022-10-18 |
CN115209032B true CN115209032B (zh) | 2024-04-16 |
Family
ID=83570821
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110384196.9A Active CN115209032B (zh) | 2021-04-09 | 2021-04-09 | 基于清洁机器人的图像采集方法、装置、电子设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115209032B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105721770A (zh) * | 2016-01-20 | 2016-06-29 | 广东欧珀移动通信有限公司 | 一种拍照的控制方法及装置 |
CN109241820A (zh) * | 2018-07-10 | 2019-01-18 | 北京二郎神科技有限公司 | 基于空间探索的无人机自主拍摄方法 |
WO2019101021A1 (zh) * | 2017-11-23 | 2019-05-31 | 腾讯科技(深圳)有限公司 | 图像识别方法、装置及电子设备 |
US10496063B1 (en) * | 2016-03-03 | 2019-12-03 | AI Incorporated | Method for devising a schedule based on user input |
CN111035327A (zh) * | 2019-12-31 | 2020-04-21 | 深圳飞科机器人有限公司 | 清洁机器人、地毯检测方法及计算机可读存储介质 |
CN111643010A (zh) * | 2020-05-26 | 2020-09-11 | 深圳市杉川机器人有限公司 | 清洁机器人控制方法、装置、清洁机器人和存储介质 |
CN111797754A (zh) * | 2020-06-30 | 2020-10-20 | 上海掌门科技有限公司 | 图像检测的方法、装置、电子设备及介质 |
WO2020248458A1 (zh) * | 2019-06-14 | 2020-12-17 | 江苏美的清洁电器股份有限公司 | 一种信息处理方法、装置及存储介质 |
CN112137503A (zh) * | 2019-06-27 | 2020-12-29 | 尚科宁家(中国)科技有限公司 | 一种扫地机器人的清扫方法、装置及扫地机器人 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3494446B1 (de) * | 2016-08-05 | 2023-09-13 | Robart GmbH | Verfahren und vorrichtung zur steuerung eines autonomen mobilen roboters |
KR20200084449A (ko) * | 2018-12-26 | 2020-07-13 | 삼성전자주식회사 | 청소 로봇 및 그의 태스크 수행 방법 |
KR20210039232A (ko) * | 2019-10-01 | 2021-04-09 | 엘지전자 주식회사 | 로봇 청소기 및 청소 경로를 결정하기 위한 방법 |
-
2021
- 2021-04-09 CN CN202110384196.9A patent/CN115209032B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105721770A (zh) * | 2016-01-20 | 2016-06-29 | 广东欧珀移动通信有限公司 | 一种拍照的控制方法及装置 |
US10496063B1 (en) * | 2016-03-03 | 2019-12-03 | AI Incorporated | Method for devising a schedule based on user input |
WO2019101021A1 (zh) * | 2017-11-23 | 2019-05-31 | 腾讯科技(深圳)有限公司 | 图像识别方法、装置及电子设备 |
CN109241820A (zh) * | 2018-07-10 | 2019-01-18 | 北京二郎神科技有限公司 | 基于空间探索的无人机自主拍摄方法 |
WO2020248458A1 (zh) * | 2019-06-14 | 2020-12-17 | 江苏美的清洁电器股份有限公司 | 一种信息处理方法、装置及存储介质 |
CN112137503A (zh) * | 2019-06-27 | 2020-12-29 | 尚科宁家(中国)科技有限公司 | 一种扫地机器人的清扫方法、装置及扫地机器人 |
CN111035327A (zh) * | 2019-12-31 | 2020-04-21 | 深圳飞科机器人有限公司 | 清洁机器人、地毯检测方法及计算机可读存储介质 |
CN111643010A (zh) * | 2020-05-26 | 2020-09-11 | 深圳市杉川机器人有限公司 | 清洁机器人控制方法、装置、清洁机器人和存储介质 |
CN111797754A (zh) * | 2020-06-30 | 2020-10-20 | 上海掌门科技有限公司 | 图像检测的方法、装置、电子设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN115209032A (zh) | 2022-10-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110495819B (zh) | 机器人的控制方法、机器人、终端、服务器及控制系统 | |
US20210249052A1 (en) | Video synthesis method terminal and computer storage medium | |
CN108363982B (zh) | 确定对象数量的方法及装置 | |
CN111127509B (zh) | 目标跟踪方法、装置和计算机可读存储介质 | |
CN110933468A (zh) | 播放方法、装置、电子设备及介质 | |
CN111680697B (zh) | 实现领域自适应的方法、装置、电子设备及介质 | |
CN109886208B (zh) | 物体检测的方法、装置、计算机设备及存储介质 | |
CN112084811B (zh) | 身份信息的确定方法、装置及存储介质 | |
CN110827195B (zh) | 虚拟物品添加方法、装置、电子设备及存储介质 | |
CN108353129A (zh) | 拍摄设备及其控制方法 | |
CN110675473B (zh) | 生成gif动态图的方法、装置、电子设备及介质 | |
CN114391777A (zh) | 清洁机器人的障碍躲避方法、装置、电子设备及介质 | |
CN111027490A (zh) | 人脸属性识别方法及装置、存储介质 | |
CN110765525A (zh) | 生成场景图片的方法、装置、电子设备及介质 | |
CN111327819A (zh) | 选择图像的方法、装置、电子设备及介质 | |
CN110853124B (zh) | 生成gif动态图的方法、装置、电子设备及介质 | |
CN112860046B (zh) | 选择运行模式的方法、装置、电子设备及介质 | |
CN109345636B (zh) | 获取虚拟人脸图的方法和装置 | |
CN113647864B (zh) | 确定清洁机器人的运行方法、装置、电子设备及介质 | |
CN115209032B (zh) | 基于清洁机器人的图像采集方法、装置、电子设备及介质 | |
CN111982293B (zh) | 体温测量方法、装置、电子设备及存储介质 | |
CN111325083B (zh) | 记录考勤信息的方法和装置 | |
CN112990424B (zh) | 神经网络模型训练的方法和装置 | |
CN114498827A (zh) | 清洁机器人的运行方法、装置、电子设备及介质 | |
CN111179628B (zh) | 自动驾驶车辆的定位方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |