CN104423797A - 机器人清洁器系统及其控制方法 - Google Patents
机器人清洁器系统及其控制方法 Download PDFInfo
- Publication number
- CN104423797A CN104423797A CN201410389490.9A CN201410389490A CN104423797A CN 104423797 A CN104423797 A CN 104423797A CN 201410389490 A CN201410389490 A CN 201410389490A CN 104423797 A CN104423797 A CN 104423797A
- Authority
- CN
- China
- Prior art keywords
- robot cleaner
- remote control
- image
- control equipment
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 70
- 230000003190 augmentative effect Effects 0.000 claims abstract description 62
- 238000013507 mapping Methods 0.000 claims description 20
- 230000001360 synchronised effect Effects 0.000 claims description 7
- 230000009471 action Effects 0.000 claims description 5
- 230000000007 visual effect Effects 0.000 claims description 5
- 238000004140 cleaning Methods 0.000 abstract description 26
- 238000004891 communication Methods 0.000 description 32
- 230000006870 function Effects 0.000 description 21
- 238000013461 design Methods 0.000 description 17
- 230000008569 process Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 14
- 230000008859 change Effects 0.000 description 10
- 238000005086 pumping Methods 0.000 description 7
- 108090000565 Capsid Proteins Proteins 0.000 description 6
- 239000012535 impurity Substances 0.000 description 6
- 238000010295 mobile communication Methods 0.000 description 6
- 239000002245 particle Substances 0.000 description 6
- 230000003213 activating effect Effects 0.000 description 5
- 230000033001 locomotion Effects 0.000 description 5
- 230000005236 sound signal Effects 0.000 description 5
- 230000004913 activation Effects 0.000 description 4
- 210000005252 bulbus oculi Anatomy 0.000 description 3
- 230000006378 damage Effects 0.000 description 3
- 239000000428 dust Substances 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 230000011664 signaling Effects 0.000 description 3
- 241000256844 Apis mellifera Species 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 210000000744 eyelid Anatomy 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 229910001220 stainless steel Inorganic materials 0.000 description 2
- 239000010935 stainless steel Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000001629 suppression Effects 0.000 description 2
- 239000010936 titanium Substances 0.000 description 2
- NCGICGYLBXGBGN-UHFFFAOYSA-N 3-morpholin-4-yl-1-oxa-3-azonia-2-azanidacyclopent-3-en-5-imine;hydrochloride Chemical compound Cl.[N-]1OC(=N)C=[N+]1N1CCOCC1 NCGICGYLBXGBGN-UHFFFAOYSA-N 0.000 description 1
- RTAQQCXQSZGOHL-UHFFFAOYSA-N Titanium Chemical compound [Ti] RTAQQCXQSZGOHL-UHFFFAOYSA-N 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 210000001508 eye Anatomy 0.000 description 1
- 239000010408 film Substances 0.000 description 1
- 210000004276 hyalin Anatomy 0.000 description 1
- 238000001746 injection moulding Methods 0.000 description 1
- 235000020094 liqueur Nutrition 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000012528 membrane Substances 0.000 description 1
- 230000006386 memory function Effects 0.000 description 1
- 239000007769 metal material Substances 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 235000020354 squash Nutrition 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
- 229920003002 synthetic resin Polymers 0.000 description 1
- 239000000057 synthetic resin Substances 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 229910052719 titanium Inorganic materials 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L9/00—Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
- A47L9/28—Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
- A47L9/2857—User input or output elements for control, e.g. buttons, switches or displays
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L9/00—Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
- A47L9/28—Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
- A47L9/2805—Parameters or conditions being sensed
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L9/00—Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
- A47L9/28—Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
- A47L9/30—Arrangement of illuminating devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0003—Home robots, i.e. small robots for domestic use
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L2201/00—Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Robotics (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种机器人清洁器系统,包括:机器人清洁器,配置为在自动驱动的同时执行清洁;遥控设备,配置为执行对所述机器人清洁器的遥控,所述遥控设备包括摄像头和显示器,其中,所述遥控设备基于由所述摄像头产生的图像信息提取位置信息和姿势信息,并且显示与在所述显示器上显示的所述机器人清洁器的预览图像重叠的增强现实图像。
Description
技术领域
本发明涉及一种机器人清洁器及其控制方法。
背景技术
机器人清洁器是一种用于清洁房间的地面或地毯的家用电器。机器人清洁器包括设置在清洁器外壳中的吸气设备,并且该吸气设备由电机和风扇构成。在通过驱动吸气设备吸入包含杂质的外部空气之后,机器人清洁器分离杂质以收集灰尘并且排出已被除掉杂质的清洁空气。
真空清洁器可以包括直接由用户操作的手动真空清洁器和自己执行清洁而无需用户操作的机器人清洁器。
机器人清洁器在自己驱动于设定为待清洁的区域时从该区域中的地面吸入杂质(例如灰尘)。机器人还可以在使用障碍物传感器自动驱动于清洁区域的同时执行清洁,或者在经由无线链接到机器人清洁器的遥控设备手动驱动的同时执行清洁。
然而,这样的机器人清洁器中未设置用于精确地测量用户和机器人清洁器之间的相对位置的元件,并且具有无法基于用户和机器人清洁器之间的相对位置提供各种基于位置服务的缺点。
此外,当手动操作机器人清洁器时,用户必须经由设置在遥控设备中的方向键实时改变机器人清洁器的通道。可能发生机器人清洁器的操作迟延,并且用户可能不方便操作方向键。因此,常规机器人清洁器具有不能精确地操作机器人清洁器的缺点。
必须在用户直接注视机器人清洁器的同时执行这样的机器人清洁器的无线操作。当用户执行被划分成多个区域的清洁区时,用户和机器人清洁器必须位于相同的区域才能够无线操作机器人清洁器。换言之,除非位于不同区域的用户注视着机器人清洁器,否则不可能有效地执行机器人清洁器的无线操作。
当用户无线控制常规机器人清洁器时,不利的是机器人清洁器难以使用户感到愉悦。因此,用户通常仅使用自动清洁模式,并且现实中几乎没有执行遥控设备的必要性。
发明内容
本公开的示例性实施例提供一种机器人清洁器并且克服包括机器人清洁器的机器人清洁器系统的缺点。
本公开的示例性实施例还提供一种机器人清洁器系统及其控制方法,该机器人清洁器能够通过向用户提供愉悦(pleasure)和原始的清洁功能,可以从而提高产品可靠性和满意度。
本公开的示例性实施例还提供一种可以测量用户与其自身之间的相对位置的机器人清洁器系统及其控制方法。
本公开的示例性实施例还提供一种即使用户不直接注视机器人清洁器也可以无线控制机器人清洁器的机器人清洁器系统及其控制方法。
本公开的示例性实施例还提供一种可以将由遥控设备的显示器识别的清洁区域与实际清洁区域相映射的机器人清洁器系统及其控制方法。
本公开的示例性实施例还提供一种可以防止破坏其外部设计并且允许用户容易地判定无线操作的机器人清洁器系统及其控制方法。
本公开的示例性实施例还提供一种可以通过基于机器人清洁器和用户之间的位置信息提供基于位置服务而提高用户便利性的机器人清洁器系统及其控制方法。
本公开的示例性实施例还提供一种机器人清洁器系统及其控制方法,该机器人清洁器系统可以由用户经由显示在遥控设备的显示器上的机器人清洁器的触摸输入以及附近区域的图像来直观且精细地操作。
本公开的示例性实施例还提供一种机器人清洁器系统及其控制方法,其可以提高与其相关联的应用程序的功用并且提供更多内容。
本公开的示例性实施例还提供一种机器人清洁器系统及其控制方法,该机器人清洁器系统不仅可以向用户提供基本功能还可以提供额外的游戏元素。
为了实现这些目标以及其他优点,并且根据本发明的目的,如此处所实施和宽泛描述的,一种机器人清洁器系统包括:机器人清洁器,配置为在自动驱动的同时执行清洁;遥控设备,配置为执行对所述机器人清洁器的遥控,所述遥控设备包括摄像头和显示器,其中,所述遥控设备从由摄像头产生的图像信息提取位置信息和姿势信息,并且显示与在显示器上显示的机器人清洁器的预览图像重叠的增强现实图像。
所述遥控设备可以基于由摄像头产生的关于机器人清洁器和机器人清洁器附近的区域的图像信息,或者基于由摄像头产生的关于充电基座和充电基座附近的区域的图像信息,产生实际区域与虚拟区域之间的映射信息。
在所述机器人清洁器中可以设置识别装置以产生所述映射信息。
所述遥控设备可以通过比较识别装置的实际形状信息与从所述图像信息中识别出的相对形状信息,产生所述映射信息。
所述遥控设备可以包括:显示器,配置为现实图像信息;以及输入单元,配置为向所述遥控设备输入机器人清洁器的控制信号。
所述显示器可以包括触摸传感器,所述触摸传感器被用作配置为感测触摸输入的所述输入单元。
所述识别装置可以包括设置在设于所述机器人清洁器或充电基座中的外壳的外周表面中的识别标记。
所述识别装置可以包括LED灯,所述LED灯配置为从设置在所述机器人清洁器或充电基座中的外壳内部向所述外壳外部提供光。
所述外壳的外壁从外部起可以包括颜色层和反射层,并且所述LED灯设置在所述反射层的下方并且不包括视觉暴露于所述外壳的所述外壁的、处于停用状态的LED灯。
当在所述遥控设备中实施用于控制所述机器人清洁器的应用程序时,可以根据所述遥控设备的控制信号激活所述LED灯。
在所述遥控设备中实施控制所述机器人清洁器的应用程序之后,可以通过具体图标的输入来激活所述LED灯。
增强现实图像可以与预览图像部分或完全重叠。
可以提供增强现实图像以显示机器人清洁器的状态信息。
所述状态信息可以包括以下中的至少一个:所述机器人清洁器与所述遥控设备之间的同步状态,机器人清洁器的清洁等待状态,机器人清洁器的需要充电状态,机器人清洁器的清洁进度,以及用户对机器人清洁器的访问状态。
可以设置多个状态信息块,并且对于每个状态信息块显示不同的增强现实图像。
可以设置多个状态信息块,并且对于每个状态信息块显示增强现实图像的不同声音和动作。
所述增强现实图像可以被实现为多个特征,并且在所述显示器上显示用于从所述特征中选择一个特征的菜单。
附加的增强现实图像可以被表达为附加特征,所述附加特征不同于所显示的与机器人清洁器的预览图像重叠的增强现实图像。
在另一方案中,一种机器人清洁器系统的控制方法,所述机器人清洁器系统包括:机器人清洁器、用于所述机器人清洁器的充电基座以及具有摄像头和显示器的遥控设备,所述控制方法包括:使用所述摄像头产生关于所述机器人清洁器和所述机器人清洁器附近的区域的图像信息的步骤;基于所述图像信息将实际区域映射到显示在所述显示器上的虚拟区域的步骤;以及显示与在显示器上显示的机器人清洁器的预览图像重叠的增强现实图像的步骤。
所述遥控设备可以通过从所述图像信息提取设置在所述机器人清洁器中的识别装置,来推算出位置信息和姿势信息。
根据至少一个实施例,本公开的示例性实施例通过向用户提供娱乐和原始的清洁功能,还提供可以提高产品可靠性和满意度的机器人清洁器及其控制方法。
本公开的示例性实施例还提供一种可以精确地测量用户与机器人清洁器自身之间的相对位置的机器人清洁器系统及其控制方法。
本公开的示例性实施例还提供一种机器人清洁器系统及其控制方法,即使用户不直接注视机器人清洁器,机器人清洁器系统也可以无线控制机器人清洁器。
本公开的示例性实施例还提供一种可以将由遥控设备的显示器识别的清洁区域与实际区域相映射的机器人清洁器系统及其控制方法。
本公开的示例性实施例还提供一种可以防止破坏其外部设计并且允许用户容易地判定无线操作的机器人清洁器系统以及机器人清洁器的控制方法。
本公开的示例性实施例还提供一种机器人清洁器系统及其控制方法,该机器人清洁器系统可以通过基于机器人清洁器和用户之间的位置信息提供基于位置服务而提高用户的便利性。
本公开的示例性实施例还提供一种机器人清洁器系统及其控制方法,该机器人清洁器系统可以由用户经由显示在遥控设备的显示器上的机器人清洁器的触摸输入以及附近区域的图像来直观而精细地操作。
本公开的示例性实施例还提供一种机器人清洁器系统及其控制方法,其可以提高与其相关联的应用程序的功用并且提供更多内容。
本公开的示例性实施例还提供一种机器人清洁器系统及其控制方法,该机器人清洁器系统不仅可以向用户提供基本功能还可以提供额外的游戏元素。
本发明的其他优点、目标和特征将在随后的描述中部分阐述,由本领域技术人员通过考察下文或可能从本发明的实践中部分习得,从而变得显而易见。本发明的目标和其他优点可以通过书面描述和其权利要求书以及附图中特别指出的结构实现和取得。
附图说明
图1是示出根据本公开的一个实施例的机器人清洁器的立体图;
图2是示出根据本公开的一个实施例的机器人清洁器的内部结构的立体图;
图3是根据本公开的一个实施例的机器人清洁器的仰视立体图;
图4是根据本公开的一个实施例构成机器人清洁器系统的机器人清洁器的框图;
图5是根据本公开的一个实施例构成机器人清洁器系统的遥控设备的框图;
图6是从前方观看,根据本公开的一个实施例构成机器人清洁器系统的遥控设备的正视立体图;
图7是根据本公开的一个实施例构成机器人清洁器的遥控设备的后视立体图;
图8是示出根据本公开的一个实施例在机器人清洁器系统中产生机器人清洁器的图像信息的方法图;
图9A-图9D是示出根据本公开的一个实施例在机器人清洁器系统中产生机器人清洁器的位置信息的方法图;
图9A是示出设置在机器人清洁器中的识别标记的实际外观的图;
图9B是示出在图像信息的图像上识别的识别标记的相对外观的图;
图9C是示出使用遥控设备产生机器人清洁器的位置信息的图;
图9D是示出机器人清洁器的姿势(posture)的图;
图10A至图13是示出根据本公开的一个实施例由机器人清洁器系统提供的机器人清洁器的基于位置服务的图;
图10A是示出经由显示器上的触摸输入设定机器人清洁器的清洁区域的方法图;
图10B是示出机器人清洁器在设定的清洁区域中执行清洁的状态的图;
图11是经由显示器上的触摸输入设定机器人清洁器的通道的方法图;
图12是示出经由显示器上的触摸输入设定机器人清洁器的不清洁区域的方法图;
图13是示出将机器人清洁器呼叫到用户的位置的方法图;
图14是示出根据本公开的一个实施例的机器人清洁器系统的控制方法中提供的基本配置的流程图;
图15是示出根据本公开的一个实施例的机器人清洁器系统的控制方法中感测机器人清洁器的步骤的流程图;
图16是示出根据本公开的一个实施例的机器人清洁器系统的控制方法中提供基于位置服务的步骤的流程图;
图17是示出根据本公开的另一实施例的机器人清洁器系统的控制方法中感测机器人清洁器的步骤的流程图;
图18是示出根据本公开的一个实施例在机器人清洁器系统中设置的充电基座的示例的立体图;
图19是示出根据本公开的一个实施例在机器人清洁器中设置的作为识别装置的示例的发光图像的概念图;
图20是示出在激活图19所示的发光图像之前与之后之间比较的图;
图21是示出识别装置的示例的图;
图22是在遥控设备中实现应用程序(application)的初始图像;
图23是根据本公开的一个实施例的遥控设备的屏幕;以及
图24至图28是由图23示出的屏幕根据机器人清洁器的状态而变化的屏幕。
具体实施方式
下面参照附图更充分地描述所公开主题的示例性实施例。然而,所公开的主题可以以许多不同的形式实施并且不应理解为限于此处所阐述的示例性实施例。
此处参照作为所公开主题的理想实施例(和中间结构)的示意图的跨区域图例来描述所公开主题的示例性实施例。如此,可以预期例如由制造技术和/或容差造成的这些图例的形状的变化。因此,不应将所公开主题的示例性实施例解释为限于此处所图示的区域的特定形状,而是包括例如由制造造成的形状上的偏差。
根据本公开的一个实施例的机器人系统可以包括:机器人清洁器100,配置为在自动驱动的同时执行清洁;以及遥控设备200,配置为远程控制机器人清洁器100。
遥控设备200可以包括摄像头(camera)221′,以产生机器人清洁器100和机器人清洁器100附近的区域的图像信息。遥控设备200可以基于该图像信息产生关于机器人清洁器100的位置信息。具体而言,基于这样的图像信息可以将在遥控设备200上显示的区域与实际清洁区域相映射。参照附图,根据本公开的一个实施例的机器人清洁器系统描述如下。
参照图1、图2和图3,将描述构成机器人清洁器系统的机器人清洁器的结构。
图1是示出根据本公开的一个实施例的机器人清洁器的立体图。图2是示出根据本公开的一个实施例的机器人清洁器的内部结构的立体图。图3是根据本公开的一个实施例的机器人清洁器的仰视立体图。图4是根据本公开的一个实施例构成机器人清洁器系统的机器人清洁器的框图。
机器人清洁器100可以包括:限定机器人清洁器100的外观的清洁器外壳110、设置在清洁器外壳110中的抽吸设备120、配置为经由抽吸设备120的驱动抽吸地面上的灰尘的吸嘴130、以及配置为从吸入的空气中收集杂质的集尘器140。
机器人清洁器100的清洁器外壳110可以形成为高度比直径相对小的圆柱形,即,扁圆柱形。也可以为具有圆角的方形。在清洁器100中可以设置抽吸设备120、吸嘴130以及与吸嘴130连通的集尘器140。
在清洁器外壳110的外周面可以设置:传感器(未示出),配置为感测至房间里的墙壁或者障碍物的距离;减震器(未示出),配置为缓冲由碰撞产生的冲击;以及轮子150,配置为移动机器人清洁器100。
轮子150可以由分别安装在清洁器外壳110的两个下部的左驱动轮152和右驱动轮154构成。左驱动轮152和右驱动轮154配置为分别通过可由清洁器控制器160控制的左轮电机152a和右轮电机154a而旋转,使得机器人清洁器100能够在执行房间清洁的同时根据左轮电机152a和右轮电机154a的驱动自动改变方向。
可以在清洁器外壳110的底部设置至少一辅助轮156,并且该辅助轮156可以使机器人清洁器100与地面之间的摩擦最小化,并且同时引导机器人清洁器100的移动。
并且,在清洁器外壳110中可以设置识别装置,并且这种识别装置可被设置为将机器人清洁器所在的实际区域与虚拟区域进行映射。识别装置还可以为具有各种形状的各种类型,并且识别装置可以设置在清洁器外壳中或者清洁器外壳的外表面。换言之,识别装置可以经由机器人清洁器外部的摄像头被识别。
在图2中,示出识别标记112作为识别装置的一个示例。图2中示出的识别标记112可以设置在清洁器外壳110的上表面上,并且其可以具有各种图案(pattern)。此外,识别装置的位置可以各种方式改变,并且位置的数量可以改变。识别装置可以允许机器人清洁器100所在的实际区域能与外部设备中的虚拟区域映射。例如,机器人清洁器100所在的实际区域可以与在外部设备上显示的虚拟区域映射,下文将进行具体描述。
图4是设置在机器人清洁器100中的清洁器控制器160的框图。链接到机器人清洁器100的各种部件以控制机器人清洁器100的驱动的清洁器控制器160可以设置在清洁器外壳110中,例如在机器人外壳110内的前部。还可以在清洁器外壳110中,例如在机器人外壳110内的后部设置电池170,该电池170配置为向抽吸设备120提供电力。
配置为产生空气吸力的抽吸设备120可以设置在电池170的后方,并且集尘器140可以可分离地联接到设置在抽吸设备120的后部中的集尘器联接部的后部。
吸嘴130可以设置在集尘器140的下方,并且其可以随空气吸入杂质。抽吸设备120可以包括倾斜安装在电池170与集尘器140之间的风扇(未示出),该风扇连接到电连接至电池170的电机(未示出)和电机的轴以吹送空气。
吸嘴130可以经由形成在清洁器外壳110的底部中的孔(未示出)暴露在清洁器外壳110的底部,仅与房间的地面接触。
为了从远处控制机器人清洁器100,根据此实施例的机器人清洁器100可以包括能与外部设备无线通信的第一无线通信单元180。
第一无线通信单元180可以包括使得机器人清洁器100与外部设备或外部网络无线通信的一个或多个模块。例如,第一无线通信单元可以包括无线网络模块和小范围通信模块。
无线网络模块是用于无线网络链接的模块,并且其可以是机器人清洁器100的内部元件或外部元件。无线网络技术的示例可以包括WLAN(无线LAN)(Wi-Fi)、WiBro(无线宽带)、WiMax(World Interoperability forMicrowave Access,微波存取全球互通)以及HSDPA(高速下行分组接入)。
小范围通信模块是用于小范围通信的模块。小范围通信的示例可以包括蓝牙、RFID(射频识别)、RFID(红外线数据组织)以及UWB(超宽带紫蜂)。
接下来,参照图5、图6和图7,将描述构成机器人清洁器系统的遥控设备200的示例。
图5是根据本公开的一个实施例构成机器人清洁器系统的遥控设备的框图。
本公开的遥控设备200是可遥控访问机器人清洁器100以控制机器人清洁器100的驱动的设备。遥控设备的示例可以包括智能手机、PDA(个人数字助理)以及PMP(便携式多媒体播放器)。
为了方便本公开的说明,采用智能手机作为机器人清洁器100的遥控设备200。
遥控设备200可以包括无线通信单元210、AV(音频/视频)输入单元220、用户输入单元230、输出单元240、存储器250、接口单元260、终端控制器270以及电源单元280。图5示出的部件不是必须设置的,并且可以实现具有更多或更少部件的遥控设备200。
将依次描述各个部件。
无线通信单元210(第二无线通信单元)可以包括使得无线通信系统之间或者遥控设备200与遥控设备200所在网络之间能够无线通信的一个或多个模块。例如,第二无线通信单元210可以包括移动通信模块211、无线网络模块212以及小范围通信模块213。
移动通信模块211将无线信号发送到移动通信网络上的基站、外部终端和服务器中的一个或多个,且从移动通信网络上的基站、外部终端和服务器中的一个或多个接收无线信号。这样的无线信号可以根据语音呼叫信号、视频呼叫信号或文本/多媒体消息的发送/接收而包括各种类型的数据。
无线网络模块212是用于无线网络链接的模块,且其可以是遥控设备200的内部或外部元件。无线网络技术的示例可以包括WLAN(无线LAN)(Wi-Fi)、WiBro(无线宽带)、WiMax(微波存取全球互通)以及HSDPA(高速下行分组接入)。
小范围通信模块213是用于小范围通信的模块。小范围通信的示例可以包括蓝牙、RFID(射频识别)、RFID(红外线数据组织)以及UWB(超宽带紫蜂)。
参照图5,A/V输入单元220用于输入音频信号或视频信号,并且其可以包括摄像头221和麦克风222。摄像头221处理由处于视频呼叫模式或者摄像头模式的图像传感器获得的视频文件的图像帧或静止图像。经处理的图像帧可以显示在显示器241上。
由摄像头221处理的图像帧可以存储在存储器250中或经由第二无线通信单元210发送到外部设备。根据服务环境可以设置两个或更多个摄像头221。
在呼叫或记录模式和语音识别模式中,麦克风222将从外部接收到的外部音频信号转换成电子语音数据。在呼叫模式中,可以由移动通信模块211将处理过的语音数据转换成可发送的信号并输出到移动通信基站。在麦克风222中,可以实现各种类型的噪声抑制算法用于反射(reflect)在接收外部音频信号时产生的噪声。
用户输入单元230为用户产生数据以控制遥控设备200的运行。用户输入单元230可以由键盘、圆顶开关、触摸板(静压式/电容式)、滚轮和拨动开关构成。
输出单元240可以产生与视觉、听觉或触觉相关联的输出。输出单元240可以包括显示器241、音频输出模块242、报警单元243和触觉模块244。
显示器241显示,即输出,在遥控设备200中处理的信息。例如,当遥控设备200处于呼叫模式时,显示器241可以显示与呼叫相关联的UI(用户界面)或GUI(图形用户)界面。当遥控设备200处于视频呼叫模式或摄像头模式时,显示器241可以显示拍摄和/或接收到的图像或UI和GUI。
显示器241可以包括液晶显示器(LCD)、薄膜晶体管液晶显示器(TFTLCD)、有机发光二极管(OLED)、柔性显示器以及三维显示器中的至少一个。
根据遥控设备200的实现类型可以设置两个或更多个显示器241。例如,多个显示器241可以间隔地或一体地布置在一个表面上,或者它们可以分别布置在不同的表面上。
当显示器241和用于感测触摸输入的传感器(以下称为“触摸传感器”)形成层结构(以下称为“触摸屏”)时,显示器241可以用作输入设备以及输出设备。触摸传感器可以具有触摸膜、触摸片和触摸垫。
触摸传感器可以被配置为将施加到显示器241的特定点的压力或在特定点上产生的电容变化转换为电输入信号。触摸传感器可以检测输入触摸的位置和输入触摸的区域。而且,它还可以检测施加在触摸输入上的压力。
当由触摸传感器感测到触摸输入时,对应于触摸的一个或多个信号可以发送到触摸控制器。触摸控制器处理这一个或多个信号并将对应于一个或多个信号的数据发送到终端控制器270。此后,终端控制器270可以判定显示器241上的哪个点被触摸。
在呼叫信号接收、呼叫或记录模式、语音识别模式和广播接收模式中,音频输出单元242可以输出从第二无线通信单元210接收的或者存储在存储器250中的音频数据。音频输出单元242可以输出与由遥控设备200执行的功能关联的音频信号(例如,呼叫信号接收声音和消息接收声音)。这样的音频输出单元242可以包括接收器、扬声器和蜂鸣器。
报警单元243输出用于通知遥控设备200的事件发生的信号。在遥控设备200中发生的事件的示例可以包括呼叫信号接收、消息接收、键信号输入和触摸输入。报警单元243还可以输出除了视频或音频信号以外的另一种类型的信号。报警单元243可以输出振动信号用于通知事件发生。甚至可以经由显示器241或音频输出模块242输出音频或视频信号,并且显示器241和音频输出模块242均可以被分类为报警单元243。
触觉模块244产生由用户感应到的各种触感或触觉效果。由触觉模块244产生的触觉效果的典型示例可以是振动。由触觉模块244产生的振动的强度和形式(pattern)可以是可控制的。例如,不同的振动可以被合成并输出,或者它们可以顺序输出。
存储器250可以在其中存储用于运行终端控制器270的程序或者暂时存储输入/输出数据(例如,电话簿、消息、静止图像和动画)。存储器250可以存储触摸输入之后输出的各种形式的振动和声音。
存储器250可以包括以下存储介质中的至少一个,包括:闪存型、硬盘型、微型多媒体卡类型、卡型存储器(例如,SD或XD存储器)、RAM(随机存取存储器)、SRAM(静态随机存取存储器)、PROM(可编程只读存储器)、MRAM(磁性随机存取存储器)、磁盘和光盘。遥控设备200可以与在网络上执行存储器250的存储功能的网络存储器相关联而运行。
接口单元260可以用作至与遥控设备200连接的所有外部设备的通道。接口单元260可以由外部设备提供数据或电力,并且接口单元260可将数据或电力发送到每个元件或将遥控设备200的数据发送给外部设备。例如,接口单元260可以包括有线/无线头戴式耳机端口、外部充电器端口、有线/无线数据端口、存储卡端口、用于连接具有识别模块的设备的端口、音频I/O(输入/输出)端口、视频I/O端口以及耳机端口。
识别模块是在其中存储各种信息以识别遥控设备200的使用权限的芯片。识别模块可以包括SIM(用户识别模块)和USIM(通用用户识别模块)。具有识别模块的设备(以下称为“识别设备”)可以制造为智能卡。于是,识别设备可以经由端口连接到遥控设备200。
通常,终端控制器270控制遥控设备的整个运行。例如,终端控制器270执行与语音呼叫、数据通信和音频呼叫相关联的控制和处理。终端控制器270可以包括用于播放多媒体的多媒体模块271。多媒体模块271可以实现在终端控制器270中或者单独实现。
终端控制器270可以处理用于识别在触摸屏上执行的作为字符和图像的手写输入或绘图输入的模式识别。
电源单元280可以根据终端控制器270的控制设置有外部电源或内部电源,并且电源单元280供应运行部件所需要的电力。
本公开的实施例可以使用软件、硬件或者软件和硬件的结合在计算机或者类似于计算机的可读介质中实现。
在硬件实现中,可以通过使用ASIC(特定用途集成电路)、DSP(数字信号处理器)、DSPD(数字信号处理设备)、PLD(可编程逻辑器件)、FPGA(现场可编程门阵列)、处理器、控制器、微控制器、微处理器以及用于执行其他功能的电单元来实现此处描述的实施例。在一些情况下,可以通过终端控制器270实现这些实施例。
在软件实现中,诸如处理和功能之类的实施例可以与执行一个或多个功能或操作的辅助软件模块一起实现。可以通过由合适的程序语言编写的软件应用程序来实现软件编码。软件编码可以存储在存储器250中并且由终端控制器270执行。
图6是从前方观看时根据本公开的一个实施例构成机器人清洁器系统的遥控设备的正视立体图。
上述遥控设备200包括条形本体并且实施例不限于此。遥控设备可以是具有相对可移动地彼此联接的两个或更多个本体的滑盖型、折叠型、摆动型和旋转型。
本体包括用于限定遥控设备200的外观的外壳(例如壳、套和罩)。在此实施例中,外壳可以分为前壳体201和后壳体202。各种电子部件安装在形成于前壳体201和后壳体202之间的空间中。可以在前壳体201和后壳体202之间附加地布置一个或多个中间壳体。
外壳可以为注射成型的合成树脂或者它们可以由金属材料(如不锈钢(STS)和钛(Ti))制成。
在遥控设备200本体中,主要在前壳体201中可以布置显示器241、音频输出单元242、摄像头221、输入单元230/231和232、麦克风222以及接口260。
显示器241占据属于前壳体201的主表面的大部分。音频输出模块242和摄像头221可以邻近显示器241的一端布置。输入单元231和麦克风222可以邻近另一端布置。输入单元232和接口160可以布置在前壳体201和后壳体202的侧面。
用户输入单元230可以由用户操作以接收用于控制遥控设备200的运行的输入指令。用户输入单元230可以包括多个操纵单元231和232。操纵单元231和232可以称为操纵部。可以应用用户以触觉操纵的任何触觉方式。
可以以各种方式设定通过第一或第二操纵单元231和232输入的内容。例如,第一操纵单元231接收输入指令(例如开始指令、结束指令和滚动指令)。第二操纵单元232可以接收输入指令(例如,对从音频输出单元242输出的声音的控制以及显示器241转换成触摸识别模式)。
图7是根据本公开的一个实施例构成机器人清洁器的遥控设备的后视立体图。
参照图7,可以额外将摄像头221′安装在属于遥控设备200的本体的后表面中,即,在后壳体202中。摄像头221′可以具有与摄像头(221,见图6)的拍摄方向大致相反的拍摄方向并且其可以具有与摄像头221的像素不同的像素。
例如,摄像头221可以具有在将用户脸部的照片发送到视频呼叫的另一方时不会产生问题的低像素。摄像头221′可以具有高像素,因为其通常不在拍摄后立即发送常规的对象(conventional object)。摄像头221′可以可旋转或者可弹出地联接到遥控设备200的本体。
可以邻近摄像头221′额外布置闪光灯123和镜子124。当摄像头221′拍摄物体时,闪光灯123在物体上闪光。当用户试图拍摄自己(即自拍)时可以在镜子124中反射脸部。
可以在属于遥控设备200的本体的后表面中额外布置音频输出单元242′。音频输出单元242′可以与音频输出单元(242,见图6)一起实现立体声功能。音频输出单元242′可以在呼叫中用于实现对讲电话(speaker phone)。
可以将电源单元280安装到遥控设备200的本体以向遥控设备200提供电力。电源单元280可以安装在遥控设备200的本体中或直接且可分离地联接到属于遥控设备200的本体的外表面。
图8是示出根据本公开的一个实施例在机器人清洁器系统中产生机器人清洁器的图像信息的方法图。图9A-图9D是示出根据本公开的一个实施例在机器人清洁器系统中产生机器人清洁器的位置信息的方法图。将参照图8和图9A-图9D描述使用遥控设备产生关于机器人清洁器100的图像信息和位置信息的方法。
如上所述,根据本公开的一个实施例的机器人清洁器系统包括遥控设备200以便远距离控制机器人清洁器100的驱动。然而,为了使得遥控设备200控制机器人清洁器100的驱动,必须提供关于机器人清洁器100的精确位置的信息。具体而言,有必要将实际区域和虚拟区域相互映射。
为了解决上述必要性,通过基于经由本公开的一个实施例的机器人清洁器系统中的遥控设备200的摄像头221′产生的图像信息来感测机器人清洁器100,可以产生机器人清洁器100的位置信息。
首先,设置在构成遥控设备200的本体的后表面中的摄像头221′拍摄机器人清洁器100以及机器人清洁器100附近的区域,只为产生图像信息。所产生的机器人清洁器100的图像信息被发送到终端控制器270。
由此,如图8所示,基于该图像信息,遥控设备200可以将机器人清洁器100所在的实际区域与显示为图像信息的虚拟区域相映射。这意味着遥控设备200感测到机器人清洁器100。
如上所述,可以在机器人清洁器100的上表面中设置允许外部设备感测机器人清洁器100的识别标记112(见图1)。识别标记112的形状不限于特定形状。例如,识别标记112可以形成为如图9A所示的圆形。在此情况下,识别标记112的宽度(W)和高度(H)具有相同的值。
识别标记112的实际形状存储在遥控设备200的存储器250中。即,关于识别标记112的信息(例如,识别标记112的实际尺寸)存储在存储器250中。终端控制器270可以在图像信息的图像上提取识别标记112并且判定提取的识别标记112是否可用,从而能够基于判定的结果感测机器人清洁器100。
终端控制器270可以查看识别标记112的形状、图案或特定的颜色,以在图像信息的图像上提取识别标记112。
然而,在图像信息具有较差的图像质量时,终端控制器270难以感测识别标记112。在从图像信息的图像提取识别标记112之前,终端控制器270可以改进图像信息的图像质量。
终端控制器270可以执行图像亮度控制、噪声抑制和颜色修正以改进图像信息的图像质量。
此后,遥控设备200可以将关于识别标记112的实际形状的信息与由图像信息推算出的相对形状相比较,并且基于比较的结果产生机器人清洁器100的位置信息。即,可以执行在实际区域和虚拟区域之间的映射。
当用户使用遥控设备200的摄像头221′拍摄机器人清洁器100以及机器人清洁器100附近的区域时,用户可以在将遥控设备200提高到预定高度的状态下拍摄机器人清洁器100和该区域。即,用户在俯视机器人清洁器100的同时进行拍摄。
因此,如图9B所示,根据用户俯视机器人清洁器100的角度,在图像信息的图像上,设置在机器人清洁器100中的识别标记112的高度小于宽度。
从图像信息中提取的识别标记112的相对形状和尺寸可以根据机器人清洁器100的姿势以及在机器人清洁器100与遥控设备200之间的距离而改变。从图像信息中提取的识别标记112的实际形状和尺寸可以根据机器人清洁器100的姿势以及在机器人清洁器100与遥控设备200之间的距离而改变。
识别标记112的实际形状不同于对应于机器人清洁器100的位置和姿势从图像信息中提取的相对形状。因此,将识别标记112的实际形状与从图像信息中提取的相对形状比较,并且基于比较的结果可以推算出机器人清洁器100的位置和姿势。而且,可以推算出用户与机器人清洁器100之间的距离和拍摄角度。能够推算出在图像信息上显示的虚拟区域与实际区域之间的比例。
接下来,将描述基于识别标记112的实际形状与从图像信息推算出的相对形状之间的比较结果或者虚拟区域和实际区域之间的映射来识别机器人清洁器100的位置和姿势的特定方法。
下面的数学公式可以用于由识别标记112的相对形状来识别机器人清洁器100的位置和姿势。
【数学公式1】
c:摄像头水平视角
Δw:w1-w3[像素]
a:图像竖直拍摄分辨率[像素]
【数学公式2】
L=W/tan(v)
L:机器人清洁器与遥控设备之间的距离
W:机器人清洁器的实际宽度[mm]
V:对应于Δw的视角
【数学公式3】
U:遥控设备的仰角
Δh:h1-h2[像素]
Δw:w1-w2[像素]
【数学公式4】
θ:识别标记的方位
【数学公式4】
θ0:识别标记的补偿方位
r:Δh/Δw(H/W比)
图9C示出由机器人清洁器100上的摄像头221′产生的图像信息和机器人清洁器100附近的区域的图像的示例。图像的水平拍摄分辨率为“a”[像素]并且竖直拍摄分辨率为“b”[像素]。摄像头221的水平视角是“c°”并且其意味着图像信息的图像具有“a*b”分辨率和“c°”水平视角。
首先,使用数学公式1和数学公式2可以计算机器人清洁器100与遥控设备200之间的距离。
如数学公式1所述,使用水平视角“c°”、图像信息的图像上的识别标记112的竖直长度“Δh”[像素]以及图像信息的图像上的识别标记112的水平长度“Δw”[像素]可以计算识别标记112的水平视角“v°”。
计算出的识别标记112的水平视角“v°”代入数学公式2,并且如图9C所示,获得机器人清洁器100和遥控设备200之间的水平距离(L)。
此后,使用数学公式3,如图9C所示,可以获得遥控设备200俯视机器人清洁器100的仰角“u°”。
由此,可以使用数学公式4和5获得表示机器人清洁器100的姿势的识别标记112的方位。
图像信息的图像上的识别标记112可以具有圆形或者宽度(Δw)大于高度(Δh)的椭圆形形状。因此,图9D中所示的图像信息的图像上的识别标记112的方位角“θ”等于或小于实际识别标记112的方位“θ0”。换言之,当遥控设备200的仰角为90°时,θ=θ0,并且当仰角小于90°时,θ<θ0。
因此,r(H/W比)被应用到数学公式4中用于计算从图像信息的图像中推算出的相对方位角“θ”,使得数学公式5用于计算实际方位角“θ0”。结果,计算出识别标记112的实际方位角“θ0”,并且然后推算出机器人清洁器100的当前姿势。
在根据本公开的一个实施例的机器人清洁器100中,包括识别标记112的机器人清洁器100可以被包括摄像头221′的遥控设备200感测,并且还可以产生指示机器人清洁器100的位置和姿势的机器人清洁器100的位置信息。
同时,假设机器人清洁器100在平面上驱动。具体而言,在平面上示出实际清洁区域,并且可以示出具有与实际清洁区域不同比例的虚拟区域,使得可以基于上述数学公式将实际清洁区域和虚拟区域互相映射。
机器人清洁器100的位置信息可以显示在设置于遥控设备200中的显示器241上,并且可以基于位置信息向用户提供机器人清洁器100的基于位置服务。换言之,通过在虚拟区域和实际区域之间映射可以提供各种基于位置服务。稍后将详细描述机器人清洁器100的基于位置服务。
同时,在根据本公开的另一实施例的机器人清洁器系统中,不使用识别标记112,机器人清洁器100的外观信息可以存储在遥控设备200的存储器中,使得可以产生机器人清洁器100的位置信息。
具体而言,机器人清洁器100的实际形状与由图像信息推算出的相对形状相比较。基于比较的结果可以识别机器人清洁器100的位置和姿势。除了机器人清洁器100的形状信息可以用于推算出机器人清洁器100的位置和姿势之外,本公开的此实施例与上述实施例相同。省略此实施例的重复描述。
图10、图11、图12和图13是示出根据本公开的一个实施例由机器人清洁器系统提供的机器人清洁器100的基于位置服务的图。参照图10、图11、图12和图13,机器人清洁器100的基于位置服务将描述如下。
如上所述,遥控设备200可以产生关于机器人清洁器100和机器人清洁器100附近的区域的图像信息。然后,遥控设备200可以基于图像信息感测机器人清洁器100并且产生关于机器人清洁器100的位置信息。
此外,显示器241可以输出关于机器人清洁器100和机器人清洁器100附近的区域的图像信息。尤其,基于关于机器人清洁器100的位置信息,终端控制器270控制机器人清洁器100使其在显示器241的屏幕上是可选择的,使得用户可以在经由显示器241注视机器人清洁器100的当前状态的同时控制机器人清洁器100的驱动。
为了控制机器人清洁器100的驱动,遥控设备200可以进一步包括配置为输入机器人清洁器100的控制信号的输入单元。麦克风222、用户输入单元230以及具有用于感测触摸输入的触摸传感器的显示器241可以作为输入单元。
当机器人清洁器100的控制信号输入到遥控设备200时,遥控设备200的第二无线通信单元可以将控制信号发送到第一无线通信单元180,使得清洁器控制器160能够根据该控制信号驱动机器人清洁器100。
接下来,将参照附图描述能够经由遥控设备200的输入单元提供的机器人清洁器100的基于位置服务。
首先,将描述能够经由触摸输入到显示器241而提供的机器人清洁器100的基于位置服务。
例如,可以经由触摸输入来设定机器人清洁器100的清洁区域。当图10A中所示的虚拟区域(A)被指定在显示器241的屏幕上时,终端控制器170指定对应于虚拟区域(A)的房间的实际区域(A′)作为清洁区域。于是,机器人清洁器100在移动至如图10B所示的清洁区域之后可以执行清洁。换言之,显示在显示器241上的虚拟区域可以与实际区域映射,并且可以将实际运动坐标发送给机器人清洁器。
例如,如果在显示器241上指定的虚拟区域(A)是距离显示器241上的机器人清洁器的中央向右5厘米远的区域,则实际区域(A′)可以映射到距离实际机器人清洁器的中央向右1米远的区域。如上所述,可以基于比较实际识别装置的形状和尺寸与图形信息上的识别装置的相对形状和相对尺寸的映射信息,来执行这样的映射。因此,可以将虚拟区域映射到实际区域之后得到的映射信息发送到机器人清洁器100,并且清洁器可以基于该映射信息执行清洁。
具体而言,在本公开的一个实施例中,经由显示器241上输出的房间的图像(即,虚拟区域)通过触摸输入可以简单地设定清洁区域。于是,机器人清洁器可以只为需要清洁的区域执行清洁并且能够减少清洁时间。还可以降低功耗。
同时,可以通过触摸输入设定机器人清洁器100的通道。当如图11所示在显示器241的屏幕上指定通道(B)时,终端控制器270指定对应于通道(B)的房间通道(B′)作为机器人清洁器100的通道。于是,机器人清洁器100能够沿指定通道移动到目标点。
在本公开的一个实施例中,经由显示器241上输出的房间的图像通过触摸输入可以设定机器人清洁器100的通道。因此,机器人清洁器100可以沿用户设定的路线自动移动,并且可以去除通过经由方向键实时改变机器人清洁器的移动方向可能产生的延迟时间。
与此同时,机器人清洁器的通道能够由自由混合的曲线和直线构成,并且用户可以执行精细的操纵。
通过触摸输入可以设定机器人清洁器100的不清洁区域。当如图12所示在显示器241的屏幕上指定不清洁线(C)时,终端控制器270相对对应于不清洁线(C)的房间的分割线(C′)设定外部区域作为不清洁区域。于是,机器人清洁器100可以只为相对于分割线(C′)的内部区域执行清洁。
在本公开的一个实施例中,通过输出在显示器241上的房间的图像可以简单地划分房间,并且可以设定不清洁区域。于是,能够设定不清洁区域,而不使用辅助构件(例如,永磁条和虚拟壁)。
借助于输出在显示器241上的机器人清洁器100和机器人清洁器100附近的区域的图像,可以通过触摸输入执行对机器人清洁器100的控制,从而能够直观而精细地控制机器人清洁器100的驱动。
在如上所述应用对应服务的触摸输入之后,通过选择显示在显示器241的屏幕上的对应服务的图标(未示出),可以执行由触摸输入提供的各种基于位置服务。例如,在显示器241上设定图11中所示的驱动通道并且触摸图标,可以将驱动通道信息和驱动指令从遥控设备200发送到机器人清洁器100。在此情况下,通过来自麦克风222的语音输入或通过用户输入单元230可以选择该服务。
接下来,将描述可以由输入到麦克风222的语音提供的机器人清洁器100的基于位置服务的示例。
例如,可以通过语音输入将机器人清洁器100呼叫到用户的位置。当用户输入预定的提示到遥控设备200的麦克风222时,机器人清洁器100可以移动到遥控设备200的位置,即,基于位置信息的用户位置。
如上所述,经由根据实际区域与虚拟区域之间的映射的显示器可以遥控机器人清洁器。因此,一旦执行映射,用户即无需注视着实际区域或机器人清洁器。具体而言,一旦执行映射,则甚至在移动到其他区域之后用户也能够经由显示器遥控机器人清洁器。在此情况下,必须保持遥控设备200与机器人清洁器100之间的无线通信。
通常,设定为待由机器人清洁器清洁的清洁区域可以是固定的。在此情况下,可以持续保持由遥控设备200执行的对机器人清洁器的感测或者在实际区域与虚拟区域之间的映射。具体而言,可以依原样使用一个感测或映射。因此,不需要每次执行遥控时都拍摄机器人清洁器。当存储有以前拍摄的图像信息并且执行无线控制时,可以在显示器上显示图像信息。此后,通过显示在显示器上的虚拟区域可以重复执行无线控制。如果环境允许机器人清洁器100与遥控设备200之间的无线通信,则用户甚至可以在外部执行对机器人清洁器的无线控制。
例如,机器人清洁器经由房屋中的WiFi AP连接到无线通信网络。用户手持的遥控设备200可以通过服务器和WiFi AP无线链接到机器人清洁器。因此,用户可以在外部无线控制位于房屋内的机器人清洁器。
为了使这样的无线控制可执行,机器人清洁器100必须移动到初始位置。换言之,当进行拍摄时,机器人清洁器100可以移动到机器人清洁器100的初始位置。因此,可以将初始位置信息(例如,坐标信息和姿势信息)存储在机器人清洁器中。一旦开始无线控制,则机器人清洁器可以移动到初始位置。
使用遥控设备200,机器人清洁器的无线控制可以简单地执行清洁的原始功能并且附加地使用户感到满意。
至此,描述了根据本公开的一个实施例的机器人清洁器系统。参照附图,将描述根据本公开的另一实施例的机器人清洁器的控制方法。
图14是示出根据本公开的一个实施例的机器人清洁器系统的控制方法中设置的基本配置的流程图。图15是示出根据本公开的一个实施例的机器人清洁器系统的控制方法中感测机器人清洁器的步骤的流程图。图16是示出根据本公开的一个实施例的机器人清洁器系统的控制方法中提供基于位置服务的步骤的流程图。
此处,与根据本公开的实施例的机器人清洁器系统相比,将省略或者简单提及重复的描述,并且相同的部件赋予相同的附图标记。
根据此实施例,包括机器人清洁器100和具有摄像头221'和显示器241的遥控设备200的机器人清洁器系统的控制方法可以包括:经由摄像头221'产生关于机器人清洁器100和机器人清洁器附近的区域的图像信息的步骤;以及基于该图像信息感测机器人清洁器100的步骤。此外,该控制方法可以进一步包括:产生机器人清洁器100的位置信息的步骤。换言之,可以执行根据所产生的图像信息将实际区域和虚拟区域互相映射的步骤。
同时,在显示器241上输出图像信息和位置信息的步骤,并且该步骤可以通过产生图像信息来执行。此后,可以基于该位置信息执行提供基于位置服务的步骤。
将参照图14、图15和图16描述机器人清洁器系统的控制方法。
首先,可以执行通过遥控设备200的摄像头221'产生关于机器人清洁器100和机器人清洁器附近的区域的图像信息的步骤(S100)。
由此,可以执行基于该图像信息感测机器人清洁器100的步骤(S200)。此处,可以通过感测机器人清洁器100的识别标记112来执行感测机器人清洁器100的步骤。
因此,感测机器人清洁器100的步骤(S200)可以包括:改进图像信息的图像的步骤(S210)、感测机器人清洁器100的识别标记112的步骤(S220)、判定感测到的识别标记112是否有效的步骤(S230)以及识别机器人清洁器100的步骤(S240)。
改进图像信息的图像的步骤(S210)可以由遥控设备200的终端控制器270执行。更具体而言,可以执行图像亮度控制、噪音抑制以及颜色修正中的至少一个。
识别机器人清洁器100的步骤(S240)可以通过终端控制器270将具有有效识别标记112的物体识别为机器人清洁器100而执行。
在判定感测到的识别标记112是否有效的步骤(S230)中,如果感测到的识别标记112不是有效的识别标记,则可以再次执行经由摄像头221'产生关于机器人清洁器100和机器人清洁器100附近的区域的图像信息的步骤(S260).
此后,可以执行产生机器人清洁器100的位置信息的步骤(S300)。具体而言,可以通过比较识别标记112的实际形状和由图像信息识别的相对形状来执行产生机器人清洁器100的位置信息的步骤(S300)。此处,终端控制器270可以基于由图像信息识别的识别标记的因素(例如,水平视角、H/W比、仰角以及方位角)产生机器人清洁器100的位置信息。于是,可以使实际区域和虚拟区域互相映射。
由此,可以执行在显示器241上输出机器人清洁器100的图像信息和位置信息的步骤(S400)。换言之,可以执行在拍摄之后通过转换显示器241的屏幕而进行映射的步骤。在执行映射步骤之后,可以将所拍摄的图像信息和位置信息输出在显示器241上。在将所拍摄的图像信息可以一致地显示在显示器241上之后,可以执行映射步骤。因此,一旦完成映射,则可以通过显示器241执行无线控制。
此处,终端显示器270可以显示机器人清洁器100使其在显示器241的屏幕上可被选择。此后,可以执行基于位置信息提供基于位置服务的步骤(S500)。机器人清洁器100提供基于位置服务的步骤可以包括:产生机器人清洁器100的控制信号的步骤、将控制信号发送到机器人清洁器的步骤以及根据该控制信号驱动机器人清洁器100的步骤。
通过将触摸输入施加到显示器241可以执行产生机器人清洁器100的控制信号的步骤。尤其,可以借助于输出在显示器241上的机器人清洁器100的图像和机器人清洁器100附近的区域的图像来施加触摸输入。结果,在预设模式的触摸输入被施加以驱动机器人清洁器100从而提供基于位置服务时,可以产生对应的控制信号。
作为预设模式的示例,在显示器241的屏幕上画圈以指定预定区域或者画出具有曲线和直线的通道或分割线以分割显示器241的屏幕。
在由触摸输入输入控制信号时,基于位置服务可以包括通道设定功能、清洁区域指定功能以及不清洁区域指定功能中的至少一个。
同时,基于位置服务可以包括如下功能:一旦语音呼叫信号被输入到遥控设备200,则机器人清洁器100被呼叫到遥控设备200的位置。
麦克风222可以设置在遥控设备200中,并且遥控设备200可以将语音呼叫信号经由麦克风222发送到机器人清洁器100,只为将机器人清洁器100呼叫到遥控设备200的位置,即用户的位置。
图17是示出根据本公开的另一实施例的机器人清洁器系统的控制方法中感测机器人清洁器的步骤的流程图。
除了通过感测机器人清洁器100的形状来产生机器人清洁器100的位置信息以外,根据此实施例的机器人清洁器系统的控制方法与根据实施例的机器人清洁器系统相同。
首先,如图17所示,感测机器人清洁器100的步骤(S200)可以包括:改进图像信息的图像的步骤(S210'),感测机器人清洁器100的形状的步骤(S220'),判定所感测的机器人清洁器100的形状是否是有效形状的步骤(S230'),以及识别机器人清洁器的步骤(S240')。
机器人清洁器100的形状可以存储在遥控设备200的终端控制器270中,并且机器人清洁器100的形状可以传送自图像信息。
在判定所感测的机器人清洁器100的形状是否有效的步骤中,如果所感测的形状不是有效形状,则可以执行经由摄像头221'产生关于机器人清洁器100和机器人清洁器100的附近的区域的图像信息的步骤(S260')。
由此,可以执行产生机器人清洁器100的位置信息的步骤(S300)。产生机器人清洁器100的位置信息的步骤可以通过比较机器人清洁器100的实际形状和基于图像信息推算出的相对形状而执行。此处,终端控制器270可以基于机器人清洁器100的因素(例如,水平视角、H/W比、仰角以及方位角)产生机器人清洁器100的位置信息。
参照图18,将描述识别装置的另一实施例。
与图1中所示的不同,可以设置多个识别装置而不是一个识别装置。这是因为通过拍摄识别装置可能失真并且因为在映射处理中产生的小误差可能实质上变得更大。此外,由外部光源(例如日光和照明)拍摄识别装置可能失真。因此,可以设置三个或更多个识别装置以补偿这样的失真。
如图1所示,诸如识别标记112的识别装置可以设置在清洁器外壳110的外表面中。于是,识别标记112可能导致对机器人清洁器的外部设计的破坏。最近,排斥人工设计图案,并且机器人清洁器的设计趋向于展示自然的纹理。与最近的趋势背道而驰设置识别装置不是优选的。
因此,可以选择性地将诸如识别标记112的识别装置设置在外壳的外表面中。例如,制造可分离的片状识别标记112来执行无线控制。为此,当拍摄机器人清洁器时,可以将识别标记112贴附到外壳的外表面。这样的识别标记112可以自然地从外壳上分离。
例如,可以在识别标记112中设置多个磁体并且在外壳中设置对应数量的磁体。当用户分离识别标记112时,可以防止破坏机器人清洁器的原始外观设计。而且,如果必要可以将识别标记112贴附到清洁器外壳110。分离的识别标记112可以贴附到家用电器(例如冰箱)的门上,并且可以制造容易修理和维护的识别标记112。
在根据一个实施例的机器人清洁器系统中,可以包括充电基座300以对机器人清洁器充电。在机器人清洁器的技术领域中这样的充电基座300是熟知的。然而,可以在机器人清洁器100和/或充电基座中设置上述识别装置。可以提供与通过识别装置的基于位置服务类似或相同的基于位置服务。
图18示出充电基座300的示例。
可以在充电基座300中设置感测单元350,并且这样的感测单元可以将信号发送至机器人清洁器100的小范围通信模块182,并从机器人清洁器100的小范围通信模块182接收信号。使用感测单元350的通信可以使机器人清洁器100能够返回到充电基座300。
充电基座300可以包括充电基座外壳310。可以在外壳210中设置槽350以将机器人清洁器100安装到外壳310,并且可以在槽350中设置充电终端330。
通常,机器人清洁器100基于SLAM(Simultaneous Location and Mapping,同时定位与地图构建)识别其在房屋(清洁区域)内的位置和其姿势。而且,机器人清洁器100可以推算出充电基座300的位置以及相对于充电基座300的自身的相对位置或姿势。
与相对机器人清洁器100将实际区域映射到虚拟位置类似,相对充电基座300的实际区域与虚拟区域可以互相映射。具体而言,甚至可以在充电基座300中设置相同或类似的识别装置。设置如图18所示的识别标记312作为识别装置的一个示例。
用户可以使用遥控设备200产生相同的图像信息。换言之,通过使用设置在充电基座300中的识别装置312,充电基座300附近的实际区域可以映射到显示在遥控设备200的显示器上的虚拟区域。而且,这样的映射可以提供与上述相同的基于位置服务。
例如,用户可以在注视显示器的同时指定充电基座300附近的区域作为清洁区域。基于映射信息,作为实际清洁区域的虚拟清洁区域可以被发送到充电基座300或机器人清洁器100。机器人清洁器100识别相对充电基座300的当前位置并且推算出指定的实际区域。
例如,当在虚拟区域中指定距离充电基座300向右5厘米远的区域时,用户可以基于映射信息指定向右大致3米远的区域。此时,机器人清洁器大致位于距离充电基座3005米远,只是未示出在虚拟区域中。但是,机器人清洁器100仍推算出其相对于充电基座的位置,并且然后驱动到实际区域以执行清洁。
因此,可以在充电基座300中设置识别装置并且能够取得类似的效果。在此情况下,基本不拍摄机器人清洁器100并且充电基座300通常是固定的,从而可控制区域可被限制于充电基座300附近的区域。
如上所述,详细描述了能够通过经由设置在机器人清洁器100或充电基座300中的识别装置互相映射虚拟区域和实际区域来提供基于位置服务的机器人清洁器系统以及机器人清洁器系统的控制方法。具体而言,详细描述了作为识别装置的识别标记。
然而,识别标记112和312作为识别装置可能影响设置在机器人清洁器系统中的充电基座300的外观设计。最近,更偏向用于表现外观设计的材料的原始纹理或颜色的依限最佳设计。在依限最佳设计方面,如识别标记112和312这样的识别装置可能导致对外观设计的破坏。
因此,需要能够容易地感觉到机器人清洁器100或充电基座300的原始设计而不导致对原始设计的破坏的识别装置。
如图19所示,机器人清洁器100的外壳110可以包括外壁111。制造面板类型外壁111并且外壁111限定外壳110的外观。可以在外壁111中设置各种部件。
在此实施例中,可以设置发光图像412作为识别装置。可以选择性地激活发光图像412。换言之,可以通过选择性地激活光源400来产生或去除发光图像412。
具体而言,外壁111可以包括颜色层111b和反射层111c。颜色层111b形成在外部并且反射层111c可以形成在内部。颜色层111b实现外壳110的外部设计色彩感。
外部光源基本上不会由反射层111c传送到外壁111内部,并且用户看不到反射层111c的内部空间。而且,可以在颜色层111b的外部上设置透明层111a,并且可以实现光滑亮泽的外观设计。
为了选择性地产生或激活发光图像412,可以在反射层111c中设置发光装置400。例如,发光装置400可以包括LED发光装置和LED元件。通过激活LED发光装置或LED元件可以从内部向外壳111外部照射。通过传送到反射层111c,这样的光可以在外壁111中形成预定发光图像111a。
如图19所示,在停用发光装置400的情况下,在外壁111中不产生发光图像412,并且从外部看不到发光装置400。于是,在停用发光装置400的情况下不破坏产品的原始设计。
相反,在激活发光装置400的情况下,在外壁111中产生发光图像412,并且遥控设备200将虚拟区域经由发光图像412映射到实际区域。
当使用发光图像412作为识别装置时,可以保持设计并且即使在黑暗环境中也能够清楚地识别出识别装置。
图20是示出在激活图19所示的发光图像之前与之后之间比较的图。在激活发光图像之前,机器人清洁器的总体外观设计可以保持原样。然而,当激活发光图像412时,从外壳110的外部产生发光图像412,并且用户能够容易地从外部识别所产生的发光图像412。
这样的发光图像可以布置为分别具有LED元件的不同形状。具有多个LED元件的发光装置可以在预定区域中形成发光图像。例如,LED发光装置可以形成圆形或多边形的发光图像。
发光图像由光形成,并且甚至在黑暗环境中也能被识别。即使在黑暗的房间中,即使没有光也能够容易地使用机器人清洁器。
可以不一直激活发光图像412,并且优选的是,在必要时激活发光图像412。
当用户使用如图14所示的遥控设备200执行机器人清洁器100的遥控或使用基于位置服务时,可以激活发光图像412。换言之,可以在这样的控制的初始步骤(S10)激活发光图像412。在初始步骤之后可以执行随后的步骤。
例如,可以由安装在遥控设备200中的应用程序执行包括遥控的服务。一旦用户在遥控设备200上实现应用程序时,遥控设备200可以传送实现指令到机器人清洁器100。机器人清洁器100基于该实现指令将电力施加到发光装置400,以激活发光图像412。
换言之,可以在初始步骤(S10)由遥控设备200激活发光图像412。此后,在根据应用程序执行基于位置服务时可以一直保持发光图像412的激活。一旦结束应用程序,可以结束发光图像412的激活。
如上所述,可以仅当使用遥控设备200时才激活发光图像412。注视着机器人清洁器100的用户以及其他人能够直觉地推算出在使用遥控设备200。发光图像412可以实现独特的设计和新设计,并且其还可以提供令人愉悦的功能以及清洁器的原始功能。
同时,识别装置可以形成为各种类型并且识别装置的位置可以以各种方式可变化。此外,识别装置的形状和数量可以以各种方式变化。
识别装置可以用于将实际区域精确地映射到虚拟区域。优选通过识别装置减少映射误差。小区域中产生的误差被映射到大区域可能大很多。
为了精确和细微的映射,识别装置可以设置在多个区域中,例如三个或更多个区域。在这种情况下,可以设置具有不同形状的识别装置。
一般而言,圆形图像在各种角度中可能具有最小的失真。这是因为能够容易地推算出圆形的中心。多个识别装置可以包括圆形图像或标记。
由光源(例如外部照明和日光)可以将通过窗口的光或照明反射在外壳110的外表面上。然而,外壳的上表面可以是略微弧形的表面并且这样的反射可以部分地发生在外壳110的外表面上。反射可以使识别装置失真。
为了灵活地处理这个缺点,可以如上所述设置多个识别装置。与图1所示的不同,可以在属于外壳的上表面的左上部和左下部以及上表面的右上部和右下部设置识别装置。于是,一旦外部光源使识别装置失真,这可以防止误差变得更大。
图21示出各种类型的识别装置。图21示出的识别装置可以是标记或光图像。识别装置可以具有各种颜色,尤其是鲜艳的原色。例如,识别装置可以是如图21中的(a)、(b)和(c)所示的视觉标记或者图21中的(d)所示的RI标记。识别装置可以推算出反射在平面上的线性部分,并且有必要设置两个连接点,使得清楚地看到在识别装置中的线性部分。
图22是示出显示在遥控设备200上的屏幕的示例的图,该屏幕可以称为实现应用程序的初始屏幕。用户可以在应用程序初始化屏幕上选择各种内容。
例如,初始化屏幕上可以显示指示遥控的图标,并且上述基于位置服务可以由远程控制图标实现。
同时,可以在初始化屏幕上设置使用多种内容的图标以及遥控图标。例如,可以设置“虚拟眼”图标,并且虚拟眼图标启用实现增强现实(augmentedreality)图像的内容(将在下文描述),使得可以提高用户的使用满意度,并且可以获得直观的信息。
在下文中,将详细描述与基于位置的控制服务或遥控一起结合地或独立地实现的增强现实服务。
首先,可以同样地应用机器人清洁器和遥控设备的配置和特征。与本实施例相同或类似地,可以使用遥控设备产生机器人清洁器的图像信息,并且可以基于该图像信息提取机器人清洁器的位置信息和姿势信息。这些信息的提取可以借助于识别装置来执行。例如,可以从图像信息提取识别装置,并且可以将提取的识别装置的位置和尺寸与实际识别装置的位置和尺寸比较,以将实际区域映射为虚拟区域。此外,可以使用比较的结果推算出机器人清洁器的位置信息和姿势信息。
根据本实施例的服务还可以被称为基于位置的控制服务。在遥控的一个方案中,根据本实施例的服务可以与根据上述其他实施例的服务有些不同。
用户可以使用遥控设备200选择激活增强现实服务。在一个实施例中,当用户选择图22中示出的具体图标(例如虚拟眼图标)时,可以显示图23中示出的屏幕。换言之,图23中示出的屏幕可以示出由用户通过摄像头显示的清洁器的状态。因此,显示器可以显示清洁器图像和清洁器附近的周围环境的图像。如上所述,这样的图像可以是在显示区域中显示的图像,换言之,是虚拟区域而不是实际区域。这样的图像可以被称为预览图像。则图23中示出的预览图像是由摄像头实时拍摄的图像。当摄像头移动时,预览图像也会移动。
在这种情况下,遥控设备200可以使用上述识别装置来提取与机器人清洁器有关的位置信息和姿势信息。遥控设备200可以推算出与显示区域中机器人清洁器的预览图像有关的位置信息和姿势信息。
通过位置信息和姿势信息,遥控设备200可以以与机器人清洁器的预览图像重叠的方式显示增强现实图像。例如,图23中示出的机器人清洁器图像可以是与增强现实图像重叠的预览图像。而且,该图像可以是增强现实图像与机器人清洁器的预览图像部分地重叠的图像。
换言之,可以从预览图像推算出机器人清洁器的位置、姿势和尺寸。如果与预览图像完全重叠,则可以显示具有与预览图像相同的位置、姿势和尺寸的增强现实图像。因此,可以在具体的预览图像位置处显示具体的增强现实图像。
遥控设备200可以使用机器人清洁器100的图像信息和与机器人清洁器100附近的周围环境有关的图像信息来产生实际区域与在显示单元上显示的虚拟区域的映射信息。增强现实图像可以使用该映射信息来与在显示器上显示的机器人清洁器的预览图像进行重叠。使用上述识别装置,可以更精细地提取这样的映射信息,使得增强现实图像可以与预览图像更精细地重叠。
同时,识别装置可以是上述LED灯,并且一旦选择在图22中示出的虚拟眼图标(即增强现实服务实施命令),则可以激活LED灯。具体地,一旦在机器人清洁器与遥控设备同步的状态下将增强现实服务实施命令输入到遥控设备,LED灯即可以作为机器人清洁器的识别装置被激活。
如上所述,图23是根据本实施例的初始化屏幕的示例。在这样的初始化屏幕上可以显示多个用于输入的菜单。例如,可以在初始化屏幕上显示清洁启动菜单、特征变化菜单和跟随菜单中的至少一个。
如上所述,可以在初始化屏幕上产生位置信息、姿势信息或映射信息。此时,必须在产生这样的信息之前执行初始化遥控设备200和机器人清洁器100的步骤(S10)。在初始化步骤中,可以执行遥控设备与机器人清洁器之间的无线连接或同步。
一旦执行同步,图23中示出的屏幕即被切换成图24中示出的屏幕,并且该屏幕可以实现为视频文件或者可以如活的(live)特征般变化。换言之,增强现实图像可以实现为动态图像,而不是静态图像。在图24中示出的机器人清洁器的图像可以是增强现实图像或者这些图像中的一些可以是增强现实图像的图像。例如,图像可以是闪烁投影图像、眼睑图像、消息、对话框、眼球图像等重叠在预览图像上的增强现实图像。可替代地,具有这些图像的整个机器人清洁器图像可以是增强现实图像。
例如,在进入增强现实模式的情况下,视频文件由图23所示的屏幕上的旋转的机器人清洁器变化,仅为提请注意已进入增强现实模式。在这种变化之后,屏幕可以切换为图24中示出的屏幕。
通过图24中示出的屏幕可以容易地使用户注意到已实施增强现实模式,并且增强现实图像的动作或声音可以帮助更清楚地提请注意。因为特征以及直观图像可以被显示为增强现实,所以图24中的屏幕可以允许更加清楚地识别同步状态。
图25是显示同步之后的命令等待状态的示例的屏幕。换言之,采用眼球图像、眼睑图像和特征,可以更直观地显示当前的等待状态。这样的形状或特征可以是增强现实图像。
图26是显示需要再充电状态的示例的屏幕。例如,眼球形、特征、图形或电池形状或电池再充电程度显示图标可以直观地显示当前的需要再充电状态。而且,使用颜色可变的增强现实图像(例如,红色的可变增强现实图像),可以提供唤起用户注意的有效图像。
图27是显示按下显示器上显示的启动按钮之后的清洁状态的示例的屏幕。在执行清洁的同时,机器人清洁器实际在移动。在这种情况下,机器人实际移动通道和姿势被映射并且显示在显示器上。因此,预览视频图像也在移动,并且增强现实与预览视频图像同步因此也在移动。这样的增强现实图像的移动可以允许用户直观地推算出清洁被执行。
图28是选择跟随菜单之后的屏幕。清洁器可以借助于识别装置识别用户的位置。一旦选择跟随菜单,机器人清洁器即定位在用户附近。在这种状态下,增强现实图像可以将机器人清洁器表达为宠物问候宠物主人。换言之,眼睛形或耳朵形图像可以用于显示友好的图像。
如上所述,机器人清洁器状态信息可以包括多种信息,并且增强现实图像可以基于多个状态信息块而多种多样。而且,增强现实图像可以表达为动作。这样的动作可以基于状态信息而多种多样。并且可以基于状态信息产生不同的声音。
参考图24至图28,以多种状态示出增强现实图像的示例。增强现实图像可以实现为三维图像,而不是简单的二维图像,其可以实现为动态图像,而不是静态图像。这些多种多样的增强现实图像可以允许用户直观地推算出机器人清洁器的当前状态信息。此外,通过显示器上显示的视频图像,用户可以感觉如同在与活的宠物直接交流,使得用户可以获得亲切感和快乐。
例如,与图27中示出的不同,在光从不知何处向上传播之后,可以显示特征或其它图像。换言之,动态地实现增强现实图像,仅为提高用户的满意度。诸如视频图像等的动态增强现实图像可以在每个状态中显示,使得用户可以感觉满意。
同时,可以在显示器上提供特征变化菜单。特征可以显示为机器人清洁器的预览图像与具体特征完全重叠。可以是与机器人清洁器的增强现实图像不同的附加的增强现实图像。
例如,宠物或玩具特征可以作为增强现实图像显示在机器人清洁器上。当前的状态可以通过多种动作、特征或面孔有趣地表达。
此外,跟随机器人清洁器的特征可以显示为辅助增强现实图像,使得用户可以感觉像在显示器上观看动画电影。换言之,当显示清洁的同时机器人清洁器在显示器上移动时,可以显示辅助特征正跟随机器人清洁器。如上所述,这通过将实际区域映射为虚拟区域来实现。可以通过在虚拟区域中显示的机器人清洁器的预览视频图像推算出机器人清洁器的姿势、位置和尺寸。因此,可以显示与预览视频图像上机器人清洁器的姿势、位置和尺寸适合的特征的增强现实图像。
因此,不仅增加机器人清洁器的简单的增强现实图像,还增加包括宠物特征或动画片特征的游戏元素,使得可以向用户提供娱乐,并且机器人清洁器可以友好地靠近用户。可以向用户提供用户喂养真实宠物所能感觉到的满意度。
可以提供机器人清洁器的基本清洁功能,并且还向用户提供娱乐功能,使得用户的满意度得到提高。此外,可以容易地给予用户享受这种功能的感觉。
同时,本实施例可以同样地或类似地应用于参考图14描述的控制方法。
例如,用户可以通过遥控设备200实施增强现实服务的应用程序或者选择实施命令,以执行初始化状态S10。当用户将遥控设备200的摄像头朝向机器人清洁器定位时,遥控设备200可以产生机器人清洁器的图像信息(S100)。
可以执行基于产生的图像信息将实际区域映射为在显示器上显示的虚拟区域的步骤(S200和S300)。通过该步骤,可以在显示器上显示机器人清洁器的预览图像(S400)。显示与预览图像重叠的增强现实图像并且可以提供包括遥控的基于位置服务。
具体地,映射步骤可以包括基于图像信息感测机器人清洁器的步骤(S200)和产生机器人清洁器的位置信息的步骤(S300)。
本实施例还可以应用于参考图15至图18描述的上述控制方法。这是因为当使用机器人清洁器的预览图像和增强现实图像时,本实施例可以执行相同的遥控。
根据已经参照其数个说明性实施例描述的上述机器人清洁器系统和机器人清洁器系统的控制方法,应理解的是,本领域技术人员可以设想出落入本公开的精神和范围中的数个其他修改和实施例。更具体而言,在本公开、附图和所附权利要求书的范围内的主题组合布置的零部件和/或布置的各种变型和修改是可能的。除了零部件和/或布置的变型和修改之外,替代使用对本领域技术人员也是显而易见的。
Claims (20)
1.一种机器人清洁器系统,包括:
机器人清洁器,配置为在自动驱动的同时执行清洁;
遥控设备,配置为执行对所述机器人清洁器的遥控,
所述遥控设备包括摄像头和显示器,
其中,所述遥控设备基于由所述摄像头产生的图像信息提取位置信息和姿势信息,并且显示与在所述显示器上显示的所述机器人清洁器的预览图像重叠的增强现实图像。
2.根据权利要求1所述的机器人清洁器系统,其中所述遥控设备基于由所述摄像头产生的关于所述机器人清洁器和所述机器人清洁器附近区域的图像信息,或者基于由所述摄像头产生的关于充电基座和充电基座附近区域的图像信息,产生实际区域与虚拟区域之间的映射信息。
3.根据权利要求1或2所述的机器人清洁器系统,其中在所述机器人清洁器中设置识别装置以产生所述映射信息。
4.根据权利要求3所述的机器人清洁器系统,其中所述遥控设备通过比较所述识别装置的实际形状信息和从所述图像信息中识别出的相对形状信息,产生所述映射信息。
5.根据权利要求3所述的机器人清洁器系统,其中所述遥控设备包括:
显示器,配置为显示所述图像信息;以及
输入单元,配置为向所述遥控设备输入所述机器人清洁器的控制信号。
6.根据权利要求5所述的机器人清洁器系统,其中所述显示器包括触摸传感器,所述触摸传感器被用作配置为感测触摸输入的所述输入单元。
7.根据权利要求3所述的机器人清洁器系统,其中所述识别装置包括设置在设于所述机器人清洁器或充电基座中的外壳的外周表面中的识别标记。
8.根据权利要求3所述的机器人清洁器系统,其中所述识别装置包括LED灯,所述LED灯配置为从设置在所述机器人清洁器或充电基座中的外壳内部向所述外壳外部提供光。
9.根据权利要求8所述的机器人清洁器系统,其中所述外壳的外壁从外部起包括颜色层和反射层,并且
所述LED灯设置在所述反射层的下方,并且不包括视觉暴露于所述外壳的所述外壁的、处于停用状态的LED灯。
10.根据权利要求9所述的机器人清洁器系统,其中当在所述遥控设备中实施用于控制所述机器人清洁器的应用程序时,根据所述遥控设备的控制信号激活所述LED灯。
11.根据权利要求9所述的机器人清洁器系统,其中在所述遥控设备中实施控制所述机器人清洁器的应用程序之后,经由具体图标的输入来激活所述LED灯。
12.根据权利要求3所述的机器人清洁器系统,其中所述增强现实图像与预览图像部分地或完全地重叠。
13.根据权利要求12所述的机器人清洁器系统,其中提供所述增强现实图像以显示所述机器人清洁器的状态信息。
14.根据权利要求13所述的机器人清洁器系统,其中所述状态信息包括以下中的至少一个:所述机器人清洁器与所述遥控设备之间的同步状态,所述机器人清洁器的清洁等待状态,所述机器人清洁器的需要再充电状态,所述机器人清洁器的清洁进度,以及用户对机器人清洁器的访问状态。
15.根据权利要求13所述的机器人清洁器系统,其中设置多个状态信息块,并且对于所述状态信息块中的每个信息块显示不同的增强现实图像。
16.根据权利要求13所述的机器人清洁器系统,其中设置多个状态信息块,并且对于所述状态信息块中的每个信息块显示增强现实图像的不同声音和动作。
17.根据权利要求3所述的机器人清洁器系统,其中所述增强现实图像被实现为多个特征,并且在所述显示器上显示用于从所述特征中选择一个特征的菜单。
18.根据权利要求3所述的机器人清洁器系统,其中附加的增强现实图像被表达为附加特征,所述附加特征不同于所显示的与机器人清洁器的预览图像重叠的增强现实图像。
19.一种机器人清洁器系统的控制方法,所述机器人清洁器系统包括:机器人清洁器、用于所述机器人清洁器的充电基座以及具有摄像头和显示器的遥控设备,所述控制方法包括:
产生步骤,使用所述摄像头产生关于所述机器人清洁器和所述机器人清洁器附近的区域的图像信息;
映射步骤,基于所述图像信息将实际区域映射到显示在所述显示器上的虚拟区域;以及
显示步骤,显示与在显示器上显示的机器人清洁器的预览图像重叠的增强现实图像。
20.根据权利要求19所述的机器人清洁器系统的控制方法,其中所述遥控设备通过从所述图像信息提取设置在所述机器人清洁器中的识别装置,来推算出位置信息和姿势信息。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130106869A KR101966127B1 (ko) | 2013-09-05 | 2013-09-05 | 로봇 청소기 시스템 및 그 제어방법 |
KR10-2013-0106869 | 2013-09-05 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104423797A true CN104423797A (zh) | 2015-03-18 |
CN104423797B CN104423797B (zh) | 2018-03-30 |
Family
ID=52972963
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410389490.9A Active CN104423797B (zh) | 2013-09-05 | 2014-08-08 | 机器人清洁器系统及其控制方法 |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR101966127B1 (zh) |
CN (1) | CN104423797B (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105025272A (zh) * | 2015-07-28 | 2015-11-04 | 深圳乐行天下科技有限公司 | 一种机器人及其混合视频流生成方法 |
CN105083543A (zh) * | 2015-06-06 | 2015-11-25 | 昆山玖趣智能科技有限公司 | 一种ar增强现实3d视觉智能四翼飞行器 |
CN105807916A (zh) * | 2016-02-29 | 2016-07-27 | 深圳前海勇艺达机器人有限公司 | 一种使机器人具备玩ar游戏的方法 |
CN106264384A (zh) * | 2015-06-24 | 2017-01-04 | 沃维克股份有限公司 | 表面清洁的支持 |
WO2017088511A1 (zh) * | 2015-11-25 | 2017-06-01 | 江苏美的清洁电器股份有限公司 | 智能吸尘器 |
CN107292863A (zh) * | 2016-04-12 | 2017-10-24 | 上海慧流云计算科技有限公司 | 一种自充电方法及装置 |
WO2017185512A1 (zh) * | 2016-04-25 | 2017-11-02 | 中兴通讯股份有限公司 | 一种基于压力感应的控制方法和装置 |
CN107518830A (zh) * | 2016-06-15 | 2017-12-29 | 美国iRobot公司 | 控制自主移动机器人的系统和方法 |
CN108209745A (zh) * | 2017-12-18 | 2018-06-29 | 深圳市奇虎智能科技有限公司 | 清洁设备的控制方法、装置、计算机设备和存储介质 |
CN108415676A (zh) * | 2017-02-10 | 2018-08-17 | 富士施乐株式会社 | 信息处理设备和信息处理方法 |
WO2018179591A1 (ja) * | 2017-03-31 | 2018-10-04 | シャープ株式会社 | 情報提供装置、端末装置、表示システム、プログラム及び情報提供方法 |
CN108646917A (zh) * | 2018-05-09 | 2018-10-12 | 深圳市骇凯特科技有限公司 | 智能设备控制方法及装置、电子设备和介质 |
US11104268B2 (en) | 2016-08-16 | 2021-08-31 | Irobot Corporation | Light indicator system for an autonomous mobile robot |
US11640166B2 (en) | 2021-06-29 | 2023-05-02 | Nanning Fulian Fugui Precision Industrial Co., Ltd. | Method, mobile device and cleaning robot for specifying cleaning areas |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102015209899B4 (de) | 2015-05-29 | 2019-06-19 | Kuka Roboter Gmbh | Auswahl eines Gerätes oder eines Objektes mit Hilfe einer Kamera |
CN105306762A (zh) * | 2015-10-22 | 2016-02-03 | 深圳创想未来机器人有限公司 | 移动智能终端及其家电控制方法 |
KR102434410B1 (ko) | 2015-12-14 | 2022-08-22 | 삼성전자주식회사 | 전자장치 및 그의 동작 방법 |
KR20170077756A (ko) | 2015-12-28 | 2017-07-06 | 삼성전자주식회사 | 청소 로봇 및 청소 로봇의 제어 방법 |
KR102573021B1 (ko) * | 2016-08-30 | 2023-08-31 | 엘지전자 주식회사 | 공항용 로봇, 그의 서비스 제공 방법을 수행하는 프로그램이 기록된 기록 매체, 및 그와 연결되는 이동 단말기 |
CN106364585A (zh) * | 2016-11-28 | 2017-02-01 | 深圳哈乐派科技有限公司 | 一种机器人脚部及一种机器人 |
CN109213137A (zh) * | 2017-07-05 | 2019-01-15 | 广东宝乐机器人股份有限公司 | 扫地机器人、扫地机器人系统及其工作方法 |
CN108748260A (zh) * | 2018-04-20 | 2018-11-06 | 宋东峰 | 一种视听交互智能机器人 |
KR20220003250A (ko) * | 2020-07-01 | 2022-01-10 | 엘지전자 주식회사 | 로봇 청소기와 이를 구비하는 로봇 청소기 시스템 |
CN111906786B (zh) * | 2020-08-01 | 2022-03-04 | 珠海一微半导体股份有限公司 | 机器人控制方法、芯片和机器人 |
KR102400143B1 (ko) * | 2020-11-12 | 2022-05-18 | 충북대학교 산학협력단 | 스마트폰의 영상통화에 기반하는 원격로봇의 자세 제어방법 및 장치 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003254716A (ja) * | 2002-03-04 | 2003-09-10 | Sony Corp | 3次元位置・姿勢計測装置及び方法、記憶媒体、並びにコンピュータ・プログラム |
CN101154110A (zh) * | 2006-09-29 | 2008-04-02 | 三星电子株式会社 | 基于真实空间的图像来控制移动装置的方法、设备和介质 |
CN102141398A (zh) * | 2010-12-28 | 2011-08-03 | 北京航空航天大学 | 基于单目视觉的多机器人位置与姿态测量方法 |
US20110264305A1 (en) * | 2010-04-26 | 2011-10-27 | Suuk Choe | Robot cleaner and remote monitoring system using the same |
WO2013085085A1 (en) * | 2011-12-08 | 2013-06-13 | Lg Electronics Inc. | Automatic moving apparatus and manual operation method thereof |
CN103207728A (zh) * | 2012-01-12 | 2013-07-17 | 三星电子株式会社 | 提供增强现实的方法和支持该方法的终端 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101622087B1 (ko) * | 2009-09-29 | 2016-05-18 | 엘지전자 주식회사 | 휴대 단말기 및 그 동작 제어방법 |
KR101250045B1 (ko) * | 2011-09-20 | 2013-04-02 | 엘지전자 주식회사 | 로봇 청소기 |
-
2013
- 2013-09-05 KR KR1020130106869A patent/KR101966127B1/ko active IP Right Grant
-
2014
- 2014-08-08 CN CN201410389490.9A patent/CN104423797B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003254716A (ja) * | 2002-03-04 | 2003-09-10 | Sony Corp | 3次元位置・姿勢計測装置及び方法、記憶媒体、並びにコンピュータ・プログラム |
CN101154110A (zh) * | 2006-09-29 | 2008-04-02 | 三星电子株式会社 | 基于真实空间的图像来控制移动装置的方法、设备和介质 |
US20110264305A1 (en) * | 2010-04-26 | 2011-10-27 | Suuk Choe | Robot cleaner and remote monitoring system using the same |
CN102141398A (zh) * | 2010-12-28 | 2011-08-03 | 北京航空航天大学 | 基于单目视觉的多机器人位置与姿态测量方法 |
WO2013085085A1 (en) * | 2011-12-08 | 2013-06-13 | Lg Electronics Inc. | Automatic moving apparatus and manual operation method thereof |
CN103207728A (zh) * | 2012-01-12 | 2013-07-17 | 三星电子株式会社 | 提供增强现实的方法和支持该方法的终端 |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105083543A (zh) * | 2015-06-06 | 2015-11-25 | 昆山玖趣智能科技有限公司 | 一种ar增强现实3d视觉智能四翼飞行器 |
CN106264384A (zh) * | 2015-06-24 | 2017-01-04 | 沃维克股份有限公司 | 表面清洁的支持 |
CN106264384B (zh) * | 2015-06-24 | 2020-08-18 | 沃维克股份有限公司 | 表面清洁的支持 |
CN105025272A (zh) * | 2015-07-28 | 2015-11-04 | 深圳乐行天下科技有限公司 | 一种机器人及其混合视频流生成方法 |
WO2017088511A1 (zh) * | 2015-11-25 | 2017-06-01 | 江苏美的清洁电器股份有限公司 | 智能吸尘器 |
US10007267B2 (en) | 2015-11-25 | 2018-06-26 | Jiangsu Midea Cleaning Appliances Co., Ltd. | Smart cleaner |
CN105807916B (zh) * | 2016-02-29 | 2019-09-10 | 深圳前海勇艺达机器人有限公司 | 一种使机器人具备玩ar游戏的方法 |
CN105807916A (zh) * | 2016-02-29 | 2016-07-27 | 深圳前海勇艺达机器人有限公司 | 一种使机器人具备玩ar游戏的方法 |
CN107292863A (zh) * | 2016-04-12 | 2017-10-24 | 上海慧流云计算科技有限公司 | 一种自充电方法及装置 |
WO2017185512A1 (zh) * | 2016-04-25 | 2017-11-02 | 中兴通讯股份有限公司 | 一种基于压力感应的控制方法和装置 |
CN107518830A (zh) * | 2016-06-15 | 2017-12-29 | 美国iRobot公司 | 控制自主移动机器人的系统和方法 |
US11020860B2 (en) | 2016-06-15 | 2021-06-01 | Irobot Corporation | Systems and methods to control an autonomous mobile robot |
US11104268B2 (en) | 2016-08-16 | 2021-08-31 | Irobot Corporation | Light indicator system for an autonomous mobile robot |
US20220041098A1 (en) * | 2016-08-16 | 2022-02-10 | Irobot Corporation | Light indicator system for an autonomous mobile robot |
US11679713B2 (en) * | 2016-08-16 | 2023-06-20 | Irobot Corporation | Light indicator system for an autonomous mobile robot |
CN108415676A (zh) * | 2017-02-10 | 2018-08-17 | 富士施乐株式会社 | 信息处理设备和信息处理方法 |
CN108415676B (zh) * | 2017-02-10 | 2023-10-24 | 富士胶片商业创新有限公司 | 信息处理设备和信息处理方法 |
JPWO2018179591A1 (ja) * | 2017-03-31 | 2019-11-07 | シャープ株式会社 | 情報提供装置、端末装置、表示システム、プログラム及び情報提供方法 |
CN110476203A (zh) * | 2017-03-31 | 2019-11-19 | 夏普株式会社 | 信息提供装置、终端装置、显示系统、程序及信息提供方法 |
WO2018179591A1 (ja) * | 2017-03-31 | 2018-10-04 | シャープ株式会社 | 情報提供装置、端末装置、表示システム、プログラム及び情報提供方法 |
CN108209745A (zh) * | 2017-12-18 | 2018-06-29 | 深圳市奇虎智能科技有限公司 | 清洁设备的控制方法、装置、计算机设备和存储介质 |
CN108646917A (zh) * | 2018-05-09 | 2018-10-12 | 深圳市骇凯特科技有限公司 | 智能设备控制方法及装置、电子设备和介质 |
CN108646917B (zh) * | 2018-05-09 | 2021-11-09 | 深圳市骇凯特科技有限公司 | 智能设备控制方法及装置、电子设备和介质 |
US11640166B2 (en) | 2021-06-29 | 2023-05-02 | Nanning Fulian Fugui Precision Industrial Co., Ltd. | Method, mobile device and cleaning robot for specifying cleaning areas |
US20230229158A1 (en) * | 2021-06-29 | 2023-07-20 | Nanning Fulian Fugui Precision Industrial Co., Ltd. | Method, mobile device and cleaning robot for specifying cleaning areas |
Also Published As
Publication number | Publication date |
---|---|
KR101966127B1 (ko) | 2019-04-05 |
KR20150028152A (ko) | 2015-03-13 |
CN104423797B (zh) | 2018-03-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104423797A (zh) | 机器人清洁器系统及其控制方法 | |
CN106175615B (zh) | 机器人清洁器系统的控制方法及遥控设备 | |
CN103784079B (zh) | 机器人清洁器系统及其控制方法 | |
CN102595157B (zh) | 显示3d图像的装置及其控制方法 | |
CN102385476B (zh) | 移动终端及其控制方法 | |
CN104284088B (zh) | 移动终端及其控制方法 | |
CN103369130B (zh) | 显示设备及其控制方法 | |
CN104739320A (zh) | 机器人清洁器、机器人清洁器系统及其控制方法 | |
CN108921795A (zh) | 一种图像融合方法、装置及存储介质 | |
CN104375632A (zh) | 显示装置及其控制方法 | |
CN104720691A (zh) | 机器人吸尘器、机器人吸尘器系统及其控制方法 | |
CN103731602A (zh) | 多显示设备及其拍摄方法 | |
KR101531169B1 (ko) | 사용자 단말에서 3차원 객체를 그리는 방법 및 이를 수행하는 사용자 단말 | |
KR102118054B1 (ko) | 로봇 청소기의 원격제어장치 및 그 제어방법 | |
CN112783316A (zh) | 基于增强现实的控制方法及装置、电子设备和存储介质 | |
KR102118055B1 (ko) | 로봇 청소기의 원격제어장치 및 그 제어방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |