CN112020411B - 用于向用户提供服务的移动机器人装置和方法 - Google Patents
用于向用户提供服务的移动机器人装置和方法 Download PDFInfo
- Publication number
- CN112020411B CN112020411B CN201980028288.4A CN201980028288A CN112020411B CN 112020411 B CN112020411 B CN 112020411B CN 201980028288 A CN201980028288 A CN 201980028288A CN 112020411 B CN112020411 B CN 112020411B
- Authority
- CN
- China
- Prior art keywords
- mobile robot
- information
- robot apparatus
- data
- mobile
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000013473 artificial intelligence Methods 0.000 claims abstract description 30
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 24
- 238000010801 machine learning Methods 0.000 claims abstract description 9
- 238000013135 deep learning Methods 0.000 claims abstract description 8
- 238000012549 training Methods 0.000 claims description 156
- 230000008859 change Effects 0.000 claims description 42
- 238000013528 artificial neural network Methods 0.000 claims description 8
- 238000007635 classification algorithm Methods 0.000 claims description 4
- 230000002068 genetic effect Effects 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 26
- 238000011156 evaluation Methods 0.000 description 22
- 238000007781 pre-processing Methods 0.000 description 19
- 238000004891 communication Methods 0.000 description 18
- 230000006870 function Effects 0.000 description 14
- 238000005516 engineering process Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000007257 malfunction Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 238000012384 transportation and delivery Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241001166076 Diapheromera femorata Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000010408 film Substances 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000013439 planning Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
- 229910052724 xenon Inorganic materials 0.000 description 1
- FHNFHKCVQCLJFQ-UHFFFAOYSA-N xenon atom Chemical compound [Xe] FHNFHKCVQCLJFQ-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/008—Manipulators for service tasks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
- B25J9/1676—Avoiding collision or forbidden zones
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/06—Safety devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
- B25J5/007—Manipulators mounted on wheels or on carriages mounted on wheels
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/1651—Programme controls characterised by the control loop acceleration, rate control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
Abstract
公开了一种用于利用诸如深度学习的机器学习算法的人工智能(AI)系统及其应用。提供了一种包括臂装置的移动机器人装置向用户提供服务的方法,所述方法包括以下步骤:获取在所述移动机器人装置行进的同时感测所述移动机器人装置的周围环境的感测信息;基于感测的所述感测信息改变所述移动机器人装置的安全操作等级;并且基于改变后的安全操作等级控制所述移动机器人装置的操作,其中,安全操作等级是用于控制与所述移动机器人装置的移动和臂装置的移动相关的操作的等级,并且所述移动机器人装置将获取的所述感测信息应用于使用AI算法学习的学习模型。
Description
技术领域
本公开涉及一种用于向用户提供服务的移动机器人装置和方法,并且更具体地,涉及一种用于通过在移动机器人装置行进的同时感测周围环境来安全地向用户提供服务的移动机器人装置和方法。
背景技术
人工智能(AI)系统是一种实现人类水平智能的计算机系统,其中,与现有的基于规则的智能系统不同,AI系统自行进行训练,做出决策,并且变得越来越智能。随着AI系统的使用,提高了识别率,并且可以更准确地理解用户的喜好,因此,现有的基于规则的智能系统正逐渐被基于深度学习的AI系统取代。
AI技术是由机器学习(深度学习)和利用机器学习的元素技术构成。
机器学习是用于自主地对输入数据的特征进行分类/训练的算法技术,元素技术是用于通过使用机器学习算法(诸如,深度学习)来模拟人脑的诸如认知和判断的功能的技术,并且包括诸如语言理解、视觉理解、推理/预测、知识表达和运动控制的技术领域。
应用AI技术的各个领域如下。语言理解是用于识别和应用/处理人类语言/字符的技术,并且包括自然语言处理、机器翻译、会话系统、提问和回答以及语音识别/合成。视觉理解是作为人类视觉来识别和处理对象的技术,并且包括对象识别、对象跟踪、图像搜索、人类识别、场景理解、空间理解和图像改善。推理预测是用于通过确定信息来对信息进行逻辑推理和预测的技术,并且包括基于知识/概率的推理、优化预测、基于偏好的规划和推荐。知识表示是一种用于将人类经验信息自动处理为知识数据的技术,并且包括知识构建(数据产生/分类)、知识管理(数据利用)等。运动控制是用于控制车辆的自动驾驶和机器人的移动的技术,并且包括运动控制(导航、碰撞、行驶)、操作控制(行为控制)等。
随着多媒体技术和网络技术的发展,可利用移动机器人装置为用户提供各种服务。
然而,在现有技术中,尽管已经建立了安全机制,但存在不能排除由于移动机器人装置的故障而发生事故的可能性的问题。因此,需要一种通过考虑移动机器人装置的故障可能导致的较大损坏而控制移动机器人装置来使得用户被安全且有效地提供服务的技术。
发明内容
技术问题
提供了一种使用利用人工智能算法训练的训练模型向用户提供服务的移动机器人装置和方法。
解决方案
根据本公开的第一方面,一种用于向用户提供服务的包括臂装置的移动机器人装置可包括:存储器,被配置为存储至少一个指令;感测单元;以及处理器,被配置为通过执行所述至少一个指令进行以下操作:通过所述感测单元获得通过在所述移动机器人装置行进的同时感测所述移动机器人装置的周围环境而获得的感测信息,基于通过感测而获得的所述感测信息来改变所述移动机器人装置的安全操作等级,并且基于改变后的安全操作等级来控制所述移动机器人装置的操作,其中,安全操作等级是用于控制与所述移动机器人装置的移动和所述臂装置的运动相关的操作的等级,并且所述移动机器人装置通过将获得的所述感测信息应用于使用人工智能算法训练的训练模型来改变安全操作等级。
根据本公开的第二方面,一种由包括臂装置的移动机器人装置向用户提供服务的方法可包括:获得通过在所述移动机器人装置行进的同时感测所述移动机器人装置的周围环境而获得的感测信息;基于通过感测而获得的所述感测信息来改变所述移动机器人装置的安全操作等级;以及基于改变后的安全操作等级来控制所述移动机器人装置的操作,其中,安全操作等级是用于控制与所述移动机器人装置的移动和所述臂装置的运动相关的操作的等级,并且所述移动机器人装置通过将获得的所述感测信息应用于使用人工智能算法训练的训练模型来改变安全操作等级。
根据本公开的一方面,可提供一种计算机可读记录介质,在该计算机可读记录介质上记录有用于在计算机上执行所述第二方面的方法的程序。
有益效果
在行驶的同时感测周围环境的移动机器人装置可安全地向用户提供服务。
附图说明
图1是示出根据一些实施例的移动机器人装置1000向用户提供服务的示例的示图。
图2是根据一些实施例的由移动机器人装置1000向用户提供服务的方法的流程图。
图3是示出根据一些实施例的移动机器人装置1000捕捉周围图像的示例的示图。
图4是示出根据一些实施例的移动机器人装置1000使用单个训练模型改变安全操作等级的示例的示图。
图5是根据一些实施例的控制移动机器人装置1000的操作的方法的流程图。
图6是示出根据一些实施例的移动机器人装置1000使用多个训练模型改变安全操作等级的示例的示图。
图7是示出根据一些实施例的移动机器人装置1000基于关于人的类型的信息控制移动机器人装置1000的操作的示例的示图。
图8是示出根据一些实施例的移动机器人装置1000基于关于周围环境的信息控制移动机器人装置1000的操作的示例的示图。
图9是示出根据一些实施例的示出移动机器人装置的根据安全操作等级的操作的示例的表格的示图。
图10是示出根据一些实施例的移动机器人装置1000通过与服务器2000互相配合来向用户提供服务的示例的示图。
图11和图12是根据一些实施例的移动机器人装置1000的框图。
图13是根据一些实施例的处理器1300的框图。
图14是根据一些实施例的数据训练单元1310的框图。
图15是根据一些实施例的数据识别单元1320的框图。
图16是示出根据一些实施例的移动机器人装置1000和服务器2000通过彼此互相配合来训练和识别数据的示例的示图。
最佳实施方式
根据本公开的实施例的一种由包括臂装置的移动机器人装置向用户提供服务的方法可包括:获得通过在所述移动机器人装置行进的同时感测所述移动机器人装置的周围环境而获得的感测信息;基于通过感测而获得的所述感测信息来改变所述移动机器人装置的安全操作等级;以及基于改变后的安全操作等级来控制所述移动机器人装置的操作,其中,安全操作等级是用于控制与所述移动机器人装置的移动和所述臂装置的运动相关的操作的等级,并且所述移动机器人装置通过将获得的所述感测信息应用于使用人工智能算法训练的训练模型来改变安全操作等级。
根据本公开的实施例的一种用于向用户提供服务的包括臂装置的移动机器人装置可包括:存储器,被配置为存储至少一个指令;感测单元;以及处理器,被配置为通过执行所述至少一个指令进行以下操作:通过所述感测单元获得通过在所述移动机器人装置行进的同时感测所述移动机器人装置的周围环境而获得的感测信息,基于通过感测而获得的所述感测信息来改变所述移动机器人装置的安全操作等级,并且基于改变后的安全操作等级来控制所述移动机器人装置的操作,其中,安全操作等级是用于控制与所述移动机器人装置的移动和所述臂装置的运动相关的操作的等级,并且所述移动机器人装置通过将获得的所述感测信息应用于使用人工智能算法训练的训练模型来改变安全操作等级。
具体实施方式
在下文中,将参照附图详细描述本公开的实施例,使得本公开所属领域的技术人员可容易地实施。然而,本公开可以以许多不同的形式来实现,并且不限于这里所描述的实施例。另外,为了在附图中清楚地描述本公开,省略了与描述无关的部分,并且在整个说明书中相同的附图标记被分配给相似的部件。
在整个说明书中,当部件“连接”到另一部件时,这不仅包括“直接连接”,还包括在其间具有另一元件的“电连接”。另外,当部件被描述为“包括”某个组件时,除非另有说明,否则这意味着还可包括其他组件,而不是排除其他组件。
在下文中,将参照附图详细描述本公开。
图1是示出根据一些实施例的移动机器人装置1000向用户提供服务的示例的示图。
参照图1,移动机器人装置1000可使用臂装置向用户提供服务。例如,移动机器人装置1000可向用户递送咖啡。另外,通过感测周围环境,移动机器人装置1000可改变为适于移动机器人装置1000安全行进的安全操作等级。例如,在存在由于移动机器人装置1000的行进而导致在移动机器人装置1000周围发生事故的风险的情况下,移动机器人装置1000可提高安全操作等级。
安全操作等级是用于控制与移动机器人装置1000的移动和臂装置的运动相关的操作的等级,并且可被表示为数字,但不限于此。
移动机器人装置1000可通过使用利用人工智能算法训练的训练模型来改变安全操作等级。针对由移动机器人装置1000提供的多个服务中的每一个而训练的多个训练模型中的该训练模型可与当前执行的服务相应。移动机器人装置1000可通过控制移动机器人装置1000的移动和臂装置的运动,使得可通过危险情况的训练预先预测和避免危险情况,从而提供更安全、更高效的机器人行进环境。
另外,移动机器人装置1000可基于改变后的安全操作等级来控制移动机器人装置1000的操作。例如,移动机器人装置1000可通过基于安全操作等级改变行进路线或改变移动速度来行进。
移动机器人装置1000可以是递送机器人、清洁机器人、家用电器和其他移动或非移动计算装置。然而,本公开不限于此,并且移动机器人装置1000可包括能够移动并向用户提供服务的所有种类的装置。
另外,移动机器人装置1000可通过预定网络与中间服务器2000和其他装置(未示出)通信,以便改变安全操作等级。在这种情况下,网络包括局域网(LAN)、广域网(WAN)、增值网(VAN)、移动无线电通信网络、卫星通信网络以及它们的相互组合,并且网络是使每个网络实体能够彼此流畅通信的广泛意义上的数据通信网络。此外,网络可包括有线互联网、无线互联网和移动无线通信网络。无线通信例如是无线LAN(Wi-Fi)、蓝牙、蓝牙低能耗、ZigBee、Wi-Fi直连(WFD)、超宽带(UWB)、红外数据协会(IrDA)、近场通信(NFC)等,但不限于此。
图2是根据一些实施例的由移动机器人装置1000向用户提供服务的方法的流程图。
在操作S200,移动机器人装置1000可获得通过在移动机器人装置1000行进的同时感测移动机器人装置1000的周围环境而获得的感测信息。例如,移动机器人装置1000可在行进的同时实时感测周围环境。
在实施例中,移动机器人装置1000可获得在移动机器人装置1000周围捕捉的图像或移动机器人装置1000的周围环境的温度信息中的至少一个。稍后将在图3中描述移动机器人装置1000捕捉周围的图像的示例。
在操作S210,移动机器人装置1000可基于感测信息改变移动机器人装置1000的安全操作等级。移动机器人装置1000可通过将获得的感测信息应用于使用人工智能算法训练的训练模型来改变安全操作等级。例如,移动机器人装置1000是人工智能算法,并且可使用利用机器学习、神经网络、基因、深度学习或分类算法中的至少一个训练的训练模型来改变安全操作等级。例如,移动机器人装置1000可在增强移动机器人装置1000周围的安全性的趋势上改变安全操作等级。另外,当确定移动机器人装置1000周围不存在危险情况时,移动机器人装置1000可在不改变安全操作等级的情况下最佳地提供移动机器人装置1000的服务提供操作。
稍后将在图4和图13至图16中描述根据实施例的移动机器人装置1000基于感测信息改变安全操作等级的示例。
在操作S220,移动机器人装置1000可基于改变后的安全操作等级控制移动机器人装置1000的操作。在实施例中,移动机器人装置1000可基于安全操作等级控制移动机器人装置1000的移动速度和移动方向、包括在移动机器人装置1000中的臂装置的移动速度和移动角度、移动机器人装置1000的移动噪声、移动机器人装置1000的通知输出等。然而,实施例不限于此,并且也可控制移动机器人装置1000的头部的移动角度。
稍后将在图9中描述根据实施例的由移动机器人装置1000基于改变后的安全操作等级来控制移动机器人装置1000的操作的示例。
图3是示出根据一些实施例的移动机器人装置1000捕捉周围图像的示例的示图。
参照图3,在移动机器人装置1000行进的同时,移动机器人装置1000可实时获得周围的多个图像300。例如,移动机器人装置1000可捕捉移动机器人装置1000的前侧、后侧、左侧或右侧中的至少一侧。
在实施例中,移动机器人装置1000可通过获得多个图像300来实时确定周围环境是否为危险情况。例如,通过获得多个图像300,移动机器人装置1000可识别位于附近的对象的移动。
在实施例中,移动机器人装置1000可将在行进的同时捕捉的多个图像300存储在存储器中,并且在超出预设容量时从旧数据删除图像数据。
图4是示出根据一些实施例的移动机器人装置1000使用单个训练模型改变安全操作等级的示例的示图。
参照图4,移动机器人装置1000可将感测移动机器人装置1000的周围环境的感测信息400应用为训练模型410的输入数据。
作为基于感测信息400训练用于确定安全操作等级的标准的结果,可产生训练模型410。在这种情况下,训练模型410可以是使用人工智能算法预先构建的模型。例如,训练模型410可以是用于接收基本训练数据(例如,样本图像)并输出安全操作等级420的预先构建的模型。
移动机器人装置1000可获得作为将感测信息400输入到训练模型410的结果而输出的安全操作等级420。移动机器人装置1000可将移动机器人装置1000的安全操作等级改变为从训练模型410输出的安全操作等级420。例如,如果拄着手杖的人正在行走、温度高并且行进路线的坡度高的感测信息400被输入到训练模型410,则安全操作等级420可被输出为5。
图5是根据一些实施例的控制移动机器人装置1000的操作的方法的流程图。
在操作S500,移动机器人装置1000可获得通过在移动机器人装置1000行进的同时感测移动机器人装置1000的周围环境而获得的感测信息。
因为操作S500与图2的操作S200相应,所以将省略详细描述。
在操作S510,移动机器人装置1000可基于感测信息获得关于移动机器人装置1000周围的人的类型的信息和关于移动机器人装置1000的周围环境的信息。
移动机器人装置1000可通过将获得的感测信息应用于使用人工智能算法训练的训练模型来获得关于人的类型的信息和关于周围环境的信息。例如,移动机器人装置1000是人工智能算法,并且可使用利用机器学习、神经网络、基因、深度学习或分类算法中的至少一个而训练的训练模型来获得关于人的类型的信息和关于周围环境的信息。
在图4中,已经描述了通过将感测信息输入到单个训练模型来输出安全操作等级,但不限于此。例如,如稍后在图6中描述的,可使用多个训练模型根据感测信息改变安全操作等级。在这种情况下,通过在用于获得关于人的类型的信息和关于周围环境的信息的训练模型中输入感测信息,关于人的类型的信息和关于周围环境的信息可被输出。
稍后将在图6中描述根据实施例的移动机器人装置1000基于感测信息获得关于人的类型的信息和关于周围环境的信息的示例。
在操作S520,移动机器人装置1000可基于关于人的类型的信息和关于周围环境的信息改变移动机器人装置1000的安全操作等级。
移动机器人装置1000可通过将获得的关于人的类型的信息和获得的关于周围环境的信息应用于使用人工智能算法训练的训练模型来改变安全操作等级。例如,移动机器人装置1000是人工智能算法,并且可使用利用机器学习、神经网络、基因、深度学习或分类算法中的至少一个而训练的训练模型来改变安全操作等级。
在图4中,已经描述了通过将感测信息输入到单个训练模型来输出安全操作等级,但不限于此。例如,如稍后在图6中描述的,可使用多个训练模型根据感测信息改变安全操作等级。在这种情况下,可通过将关于人的类型的信息和/或关于周围环境的信息输入到用于确定安全操作等级的训练模型来输出安全操作等级。
在实施例中,当关于移动机器人装置1000周围的人的类型的信息指示婴儿时,可控制移动机器人装置1000降低移动机器人装置1000的移动速度并且不改变臂装置的角度。
在实施例中,当关于移动机器人装置1000周围的人的类型的信息指示残疾人时,可控制移动机器人装置1000降低移动机器人装置1000的移动速度并且增大移动机器人装置1000的移动噪声。
在实施例中,当关于移动机器人装置1000的周围环境的信息指示移动机器人装置1000周围的拥堵程度高时,可控制移动机器人装置1000降低移动机器人装置1000的移动速度并且改变移动机器人装置1000的移动方向。
在实施例中,当关于移动机器人装置1000的周围环境的信息指示移动机器人装置1000的行进路线的坡度高时,可控制移动机器人装置1000降低移动机器人装置1000的移动速度。另外,移动机器人装置1000可考虑行进路线的地板的材质以及行进路线的坡度来控制移动机器人装置1000的操作。
在实施例中,当关于移动机器人装置1000的周围环境的信息指示位于移动机器人装置1000周围的对象的风险高时,移动机器人装置1000可降低移动机器人装置1000的移动速度并且改变移动机器人装置1000的移动方向。
稍后将在图6中描述根据实施例的移动机器人装置1000基于关于人的类型的信息和关于周围环境的信息改变安全操作等级的示例。
在操作S530,移动机器人装置1000可基于改变后的安全操作等级控制移动机器人装置1000的操作。
因为操作S530与于图2的操作S220相应,所以将省略详细描述。
图6是示出根据一些实施例的移动机器人装置1000使用多个训练模型改变安全操作等级的示例的示图。
参照图6,与图4中使用的单个训练模型不同,移动机器人装置1000可使用多个训练模型610和630来改变安全操作等级。
在实施例中,移动机器人装置1000可将感测移动机器人装置1000的周围环境的感测信息600应用为用于获得关于人的类型的信息和关于周围环境的信息620的训练模型610的输入数据。
作为基于感测信息600训练用于获得关于人的类型的信息和关于周围环境的信息620的标准的结果,可产生用于获得关于人的类型的信息和关于周围环境的信息620的训练模型610。在这种情况下,训练模型610可以是使用人工智能算法预先构建的模型。例如,训练模型610可以是用于接收基本训练数据(例如,样本图像)并输出关于人的类型的信息和关于周围环境的信息620的预先构建的模型。
移动机器人装置1000可获得作为将感测信息600输入到训练模型610的结果而输出的关于人的类型的信息和关于周围环境的信息620。例如,移动机器人装置1000可从训练模型610输出仅关于人的类型的信息或仅关于周围环境的信息,以及可输出关于人的类型的信息和关于环境的信息两者。
在实施例中,移动机器人装置1000可将从训练模型610输出的关于人的类型的信息和关于周围环境的信息620应用为用于确定安全操作等级640的训练模型630的输入数据。例如,移动机器人装置1000可向训练模型630输入仅关于人的类型的信息或仅关于周围环境的信息,以及可输入关于人的类型的信息和关于环境的信息两者。
作为基于关于人的类型的信息和关于周围环境的信息620训练用于确定安全操作等级640的标准的结果,可产生用于确定安全操作等级640的训练模型630。在这种情况下,训练模型630可以是使用人工智能算法预先构建的模型。例如,训练模型630是预先构建的用于接收基本训练数据(例如,婴儿位于附近的信息和行进路线的坡度高的信息)并输出安全操作等级640的模型。
移动机器人装置1000可获得作为将关于人的类型的信息和关于周围环境的信息620输入到训练模型610的结果而输出的安全操作等级640。移动机器人装置1000可将移动机器人装置1000的安全操作等级改变为从训练模型630输出的安全操作等级640。
例如,当拄着手杖的人在周围行走并且温度高的感测信息被输入到训练模型610时,可输出视觉障碍者正在附近移动的关于人的类型的信息和附近拥堵程度高的关于周围环境的信息620。另外,例如,当视觉障碍者正在附近移动的关于人的类型的信息和附近拥堵程度高的关于周围环境的信息620被输入到训练模型630时,安全操作等级420可被输出为5。
图7是示出根据一些实施例的移动机器人装置1000基于关于人的类型的信息控制移动机器人装置1000的操作的示例的示图。
参照图7,移动机器人装置1000可基于通过感测信息获得的关于人的类型的信息控制移动机器人装置1000的操作。例如,在移动机器人装置1000行进的同时捕捉的移动机器人装置1000的前方的图像可包括婴儿。因此,当关于移动机器人装置1000周围的人的类型的信息指示婴儿时,可降低移动机器人装置1000的移动速度。另外,可停止移动机器人装置1000的移动。此外,可控制移动机器人装置1000使得臂装置的角度保持不变。此外,也可控制移动机器人装置1000使得臂装置的角度不会自动地改变,而是仅通过用户输入来改变。可选地,可控制臂装置的角度仅改变20度,但不限于此。例如,可根据安全操作等级将移动机器人装置1000控制为预设操作。可选地,例如,基于根据预设标准的训练,可根据人的类型的信息来控制移动机器人装置1000的操作,而不改变安全操作等级。
图8是示出根据一些实施例的移动机器人装置1000基于关于周围环境的信息控制移动机器人装置1000的操作的示例的示图。
参照图8,移动机器人装置1000可基于通过感测信息获得的关于周围环境的信息来控制移动机器人装置1000的操作。例如,在移动机器人装置1000行进的同时捕捉的周围环境的图像可包括玻璃墙。因此,当关于移动机器人装置1000周围的周围环境的信息指示墙壁材料是玻璃时,可降低移动机器人装置1000的移动速度。另外,可停止移动机器人装置1000的移动。另外,当移动机器人装置1000正在行进以接近墙壁时,可控制移动机器人装置1000使得移动方向改变。例如,可根据安全操作等级将移动机器人装置1000控制为预设操作。可选地,例如,基于根据预设标准的训练,可根据关于周围环境的信息来控制移动机器人装置1000的操作,而不改变安全操作等级。
图9是示出根据一些实施例的示出移动机器人装置的根据安全操作等级的操作的示例的表格的示图。
参照图9,表格900可包括安全操作等级字段、移动速度字段、移动方向字段、臂速度字段、臂角度字段、移动噪声字段和通知字段。
在安全操作等级字段中,可记录用于控制移动机器人装置1000的移动、臂装置的运动以及与安全性的增加相关的操作的等级。例如,可在安全操作等级字段中记录1、2、3、4和N(例如,N是自然数),但不限于此。
移动速度字段、移动方向字段、臂速度字段、臂角度字段、移动噪声字段和通知字段可包括与特定安全操作等级相应的移动机器人装置1000的详细操作。例如,当安全操作等级为1时,移动机器人装置1000的移动速度可以是48m/min,移动方向可以是前方,臂装置的移动速度可以是5cm/sec,臂装置的角度可以是90度,并且移动机器人装置1000的移动噪声可以是K dB(例如,K为整数),并且通知方法可以是显示,但不限于此。可基于根据预设标准的训练来设置和改变与安全操作等级相应的移动机器人装置1000的操作。
图10是示出根据一些实施例的移动机器人装置1000通过与服务器2000互相配合来向用户提供服务的示例的示图。
参照图10,移动机器人装置1000可通过网络连接到服务器2000,并且可使用根据由服务器2000预先设置的标准训练的数据向用户提供服务。
在这种情况下,服务器2000可执行由图1至图9中的移动机器人装置1000执行的以下功能中的至少一个:确定移动机器人装置1000的附近是否是危险情况的功能,获取关于移动机器人装置1000周围的人的类型的信息和关于移动机器人装置1000的周围环境的信息的功能,或者改变安全操作等级的功能。
在这种情况下,移动机器人装置1000和服务器2000可发送和接收彼此必需的数据,以便执行它们自己的功能。例如,移动机器人装置1000可向服务器2000提供由服务器2000执行的预定功能所需的数据,并且移动机器人装置1000可从服务器2000接收根据由服务器2000执行的功能产生的结果数据。另外,服务器2000可向移动机器人装置1000提供由移动机器人装置1000执行的预定功能所需的数据,并且服务器2000可从移动机器人装置1000接收根据由移动机器人装置1000执行的功能产生的结果数据。
另外,服务器2000可管理以下数据中的至少一个:确定移动机器人装置1000的周围是否处于危险情况所必需的数据、获得关于移动机器人装置1000周围的人的类型的信息和关于移动机器人装置1000的周围环境的信息所必需的数据、或者改变安全操作等级所必需的数据。
图11和图12是根据一些实施例的移动机器人装置1000的框图。
如图11中所示出的,根据一些实施例的移动机器人装置1000可包括感测单元110、处理器120、臂装置170和移动装置180。然而,并非在图11中所示出的所有组件都是移动机器人装置1000的必要组件。移动机器人装置1000可由比在图11中所示出的组件更多的组件实现,或者移动机器人装置1000可由比在图11中所示出的组件更少的组件实现。
例如,如在图12中所示出的,除了感测单元110、处理器120、臂装置170和移动装置180之外,根据一些实施例的移动机器人装置1000还可包括输出单元130、存储器140、输入单元150和通信接口160。
根据实施例,感测单元110可获得通过在移动机器人装置1000行进的同时感测移动机器人装置1000的周围环境而获得的感测信息。例如,感测单元110可获得在移动机器人装置1000周围捕捉的图像或周围环境的温度信息中的至少一个。另外,在移动机器人装置1000行驶的同时,感测单元110可获得移动机器人装置1000的位置信息。
感测单元110可包括被配置为感测移动机器人装置1000的周围环境的多个传感器。例如,感测单元110可包括用于捕捉移动机器人装置1000的周围环境的图像的图像传感器228(诸如,相机)。另外,感测单元110可包括用于获得移动机器人装置1000的周围环境的温度信息和/或湿度信息的温度/湿度传感器232。
此外,感测单元110可包括用于获得移动机器人装置1000的位置信息的传感器。例如,感测单元110可包括距离传感器(诸如,雷达传感器226、激光雷达传感器227和里程传感器230)。
另外,感测单元110可包括被配置校正多个传感器的位置和/或取向的一个或更多个致动器,使得可捕捉移动机器人装置1000的前方、后方和侧方中的每一个方向的图像。
感测单元110可包括被配置为感测关于移动机器人装置1000所位于的周围环境的信息的多个传感器,并且可包括被配置为修改传感器的位置和/或取向的一个或多个致动器。例如,感测单元110可包括全球定位系统(GPS)224、惯性测量单元(IMU)225、雷达传感器226、激光雷达传感器227、图像传感器228和里程传感器230。此外,感测单元110可包括温度/湿度传感器232、红外传感器233、气压传感器235、接近传感器236或RGB传感器(照度传感器)237中的至少一个,但不限于此。因为本领域技术人员可从名称直观地推导出每个传感器的功能,所以将省略详细描述。
另外,感测单元110可包括能够感测移动机器人装置1000的运动的运动感测单元238。运动感测单元238可包括磁传感器229、加速度传感器231和陀螺仪传感器234。
GPS 224可以是被配置为估计移动机器人装置1000的地理位置的传感器。即,GPS224可包括被配置为估计移动机器人装置1000相对于地球的位置的收发器。
IMU 225可以是被配置为基于惯性加速度感测移动机器人装置1000的位置和取向的变化的传感器的组合。例如,传感器的组合可包括加速度计和陀螺仪。
雷达传感器226可以是被配置为使用无线信号来检测移动机器人装置1000所位于的环境中的对象的传感器。此外,雷达传感器226可被配置为检测对象的速度和/或方向。
激光雷达传感器227可以是被配置为使用激光来检测移动机器人装置1000所位于的环境中的对象的传感器。更具体地,激光雷达传感器227可包括被配置为发射激光的激光光源和/或激光扫描器、以及被配置为检测激光的反射的检测器。激光雷达传感器227可被配置为在相干(例如,使用外差检测)或非相干检测模式下操作。
图像传感器228可以是被配置为记录移动机器人装置1000外部的环境的静态相机或视频相机。例如,图像传感器228可包括多个相机,并且多个相机可分别被放置在移动机器人装置1000上的多个位置处。
里程传感器230可估计移动机器人装置1000的位置并测量移动距离。例如,里程传感器230可使用移动机器人装置1000的车轮的转数来测量移动机器人装置1000的位置变化值。
输入单元150意指用于输入用于控制移动机器人装置1000的数据的装置。例如,输入单元150可包括键盘、圆顶开关、触摸板(接触电容型、压力电阻膜型、红外检测型、表面超声传导型、整体张力测量型、压电效应型等)、滚轮、滚轮开关等,但不限于此。此外,输入单元150可包括麦克风,并且麦克风可被配置为从用户接收音频(例如,语音命令)。
输出单元130可输出音频信号或视频信号,并且输出单元130可包括显示器281和音频输出单元282。
显示器281可显示并输出由移动机器人装置1000处理的信息。例如,显示器281可在移动机器人装置1000行进的同时向位于移动机器人装置1000周围的人显示通知危险情况的通知消息。另外,显示器281可显示用于执行与通知相关的动作的用户界面。
显示器281可包括液晶显示器、薄膜晶体管液晶显示器、有机发光二极管、柔性显示器、3D显示器或电泳显示器中的至少一个。根据输出单元130的实施形式,输出单元130可包括两个或更多个显示器281。
音频输出单元282输出从通信接口160接收到的或存储在存储器140中的音频数据。例如,音频输出单元282可在移动机器人装置1000行进的同时将通知危险情况的通知消息作为声音输出给位于移动机器人装置1000周围的人。此外,音频输出单元282可包括扬声器、蜂鸣器等。
输入单元150和输出单元130可包括网络接口,并且可被实现为触摸屏。
通信接口160可包括用于与其他装置进行无线通信的至少一个天线。例如,通信接口160可被用于经由Wi-Fi或蓝牙与蜂窝网络或其他无线协议和系统进行无线通信。由处理器120控制的通信接口160可发送和接收无线信号。例如,处理器120可执行包括在存储器140中的程序,以便通信接口160向蜂窝网络发送无线信号和从蜂窝网络接收无线信号。
处理器120通常控制移动机器人装置1000的整体操作。例如,处理器120可通过执行存储在存储器140中的程序来整体控制感测单元110、输出单元130、输入单元150、通信接口160、臂装置170和移动装置180。此外,处理器120可通过执行存储在存储器140中的程序来实现在图1至图10中描述的移动机器人装置1000的功能。
具体地,处理器120可通过感测单元110获得通过感测移动机器人装置1000的周围环境而获得的感测信息。例如,感测信息可包括在移动机器人装置1000周围捕捉的图像或周围环境的温度信息中的至少一个。
在实施例中,处理器120可通过将感测信息应用于使用人工智能算法训练的训练模型来改变移动机器人装置1000的安全操作等级。另外,处理器120可基于安全操作等级来控制移动机器人装置1000的操作。
在实施例中,当关于移动机器人装置1000周围的人的类型的信息指示婴儿时,处理器120可进行控制使得移动机器人装置1000的移动速度降低并且臂装置的角度保持不变。
在实施例中,当关于移动机器人装置1000周围的人的类型的信息指示残疾人时,处理器120可进行控制使得移动机器人装置1000的移动速度降低,并且使得移动机器人装置1000的移动噪声增大。
在实施例中,当关于移动机器人装置1000的周围环境的信息指示移动机器人装置1000周围的拥堵程度高时,处理器120可进行控制使得移动机器人装置1000的移动速度降低并且移动机器人装置1000的移动方向改变。
在实施例中,当关于移动机器人装置1000的周围环境的信息指示移动机器人装置1000的行进路线的坡度高时,处理器120可进行控制使得移动机器人装置1000的移动速度降低。另外,移动机器人装置1000可考虑行驶路线的地板的材质以及行驶路线的坡度来控制移动机器人装置1000的操作。
在实施例中,当关于移动机器人装置1000的周围环境的信息指示位于移动机器人装置1000附近的对象的风险高时,处理器120可降低移动机器人装置1000的移动速度并改变移动机器人装置1000的移动方向。
存储器140可存储用于处理和控制处理器120的程序,并且可存储输入到移动机器人装置1000或从移动机器人装置1000输出的数据。
存储器140可包括闪存型、硬盘型、微型多媒体卡型、卡型存储器(例如,SD存储器或XD存储器等)、随机存取存储器(RAM)、静态随机存取存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁存储器、磁盘或光盘中的至少一种类型的存储介质。例如,存储器140可存储在移动机器人装置100行进的同时捕捉的移动机器人装置1000的周围环境的图像。
存储在存储器140中的程序可根据其功能被分类为多个模块,例如,可包括通知模块。
通知模块可被配置为通过显示器281输出视频信号形式的通知信号,或者通过音频输出单元282输出音频信号形式的通知信号,或者通过振动电机输出振动信号形式的通知信号。
臂装置170是移动机器人装置1000的臂部,臂装置170的移动速度、角度和方向等可由处理器120控制。另外,头部装置(未示出)是移动机器人装置1000的头部,头部装置(未示出)的移动角度、方向等可由处理器120控制。
移动装置180可包括制动单元221、转向单元222和节气门223。
转向单元222可以是被配置为调整移动机器人装置1000的方向的机械结构的组合。
制动单元221可以是被配置为使移动机器人装置1000减速的机械结构的组合。例如,制动单元221可使用摩擦来降低移动机器人装置1000的车轮速度。
图13是根据一些实施例的处理器1300的框图。
参照图13,根据一些实施例的处理器120可包括数据训练单元1310和数据识别单元1320。
以上在图1至图12中描述的训练模型可在图13至图16中被称为数据识别模型。
数据训练单元1310可被配置为训练用于改变移动机器人装置1000的安全操作等级的标准。数据训练单元1310可被配置为训练用于确定将使用什么数据来确定用于改变预定安全操作等级的情况以及如何使用数据来确定情况的标准。数据训练单元1310可被配置为获得将被用于训练的数据,并且将获得的数据应用于稍后将描述的数据识别模型,从而训练用于改变安全操作等级的标准。
数据识别单元1320可被配置为基于数据确定是否改变安全操作等级。数据识别单元1320可被配置为通过使用训练的数据识别模型根据预定数据来识别是否改变安全操作等级。数据识别单元1320可通过训练根据预设标准获得预设数据,并且使用将获得的数据用作输入值的数据识别模型,从而基于预设数据确定是否改变安全操作等级。另外,由将获得的数据用作输入值的数据识别模型输出的结果值可被用于更新数据识别模型。
数据训练单元1310或数据识别单元1320中的至少一个可以以至少一个硬件芯片的形式被制造并且被安装在电子装置上。例如,数据训练单元1310或数据识别单元1320中的至少一个可以以用于人工智能(AI)的专用硬件芯片或现有通用处理器(例如,CPU或应用处理器)的形式被制造,或者可被制造为仅图形处理器(例如,GPU)的一部分并且被安装在上述各种电子装置上。
在这种情况下,数据训练单元1310和数据识别单元1320可被安装在一个电子装置上,或者可被分别安装在单独的电子装置上。例如,数据训练单元1310和数据识别单元1320中的一个可被包括在移动机器人装置1000中,并且另一个可被包括在服务器2000中。另外,数据训练单元1310可通过有线通信或无线通信将由数据训练单元1310构建的模型信息提供给数据识别单元1320,并且输入到数据识别单元1320的数据可作为附加训练数据被提供给数据训练单元1310。
另外,数据训练单元1310或数据识别单元1320中的至少一个可被实现为软件模块。当数据训练单元1310或数据识别单元1320中的至少一个被实现为软件模块(或包括指令的程序模块)时,软件模块可被存储在非暂时性计算机可读介质中。另外,在这种情况下,至少一个软件模块可由操作系统(OS)提供或者可由预定应用提供。可选地,至少一个软件模块中的一些可由操作系统(OS)提供,并且其它软件模块可由预定应用提供。
图14是根据一些实施例的数据训练单元1310的框图。
参照图14,根据一些实施例的数据训练单元1310可包括数据获取单元1310-1、预处理单元1310-2、训练数据选择单元1310-3和模型训练单元1310-4以及模型评估单元1310-5。
数据获取单元1310-1可被配置为获得确定是否改变安全操作等级所必需的数据。数据获取单元1310-1可被配置为获得训练以确定是否改变安全操作等级所必需的数据。
根据实施例,数据获取单元1310-1可被配置为获得通过当移动机器人装置1000正在行进时感测周围环境获得的感测信息。例如,数据获取单元1310-1可被配置为接收当移动机器人装置1000正在行进时实时在周围捕捉的图像。另外,数据获取单元1310-1可被配置为通过移动机器人装置1000的输入装置(例如,麦克风、相机或传感器)接收数据。另外,数据获取单元310-1被配置为通过与移动机器人装置1000通信的外部装置获得数据。
根据实施例,在周围捕捉的图像可多于一个,并且可以是包括多个图像的视频。例如,数据获取单元1310-1可被配置为通过包括数据训练单元1310的移动机器人装置1000的相机或能够与包括数据训练单元1310的移动机器人装置1000通信的外部相机(例如,CCTV等)接收视频。
相机可包括一个或更多个图像传感器(例如,前传感器或后传感器)、透镜、图像信号处理器(ISP)或闪光灯(例如,LED或氙灯等)。
预处理单元1310-2可被配置为对获得的数据进行预处理,使得获得的数据可被用于训练以改变安全操作等级。预处理单元1310-2可被配置为以预设格式对获得的数据进行处理,使得稍后将描述的模型训练单元1310-4可使用获得的数据进行训练以改变安全操作等级。例如,预处理单元1310-2可被配置为基于构成输入视频的至少一部分的多个图像(或帧)中的每一个中包括的共有区域,使多个图像的至少一部分重叠并产生单个合成图像。在这种情况下,可从一个视频产生多个合成图像。共有区域可以是在多个图像中的每一个中包括相同或类似共有对象(例如,物体、植物或动物、或者人)的区域。可选地,共有区域可以是在多个图像的每一个中颜色、阴影、RGB值或CMYK值相同或相似的区域。
训练数据选择单元1310-3可被配置为从预处理的数据选择训练所必需的数据。选择的数据可被提供给模型训练单元1310-4。训练数据选择单元1310-3可被配置为根据用于情况确定的预设标准从预处理的数据选择训练所必需的数据。此外,训练数据选择单元1310-3也可被配置为根据通过由稍后将描述的模型训练单元1310-4训练的预设标准选择数据。
例如,可选择关于可能对移动机器人装置1000的周围环境具有危险影响的对象、结构等的数据。
模型训练单元1310-4可被配置为基于训练数据来训练用于如何改变安全操作等级的标准。此外,模型训练单元1310-4还可被配置为训练关于使用什么训练数据来改变安全操作等级的标准。
根据实施例,模型训练单元1310-4可被配置为基于感测信息来训练用于改变到哪个安全操作等级的标准。
另外,模型训练单元1310-4可被配置为使用训练数据来训练用于改变安全操作等级的数据识别模型。在这种情况下,数据识别模型可以是预先构建的模型。例如,数据识别模型可以是通过接收基本训练数据(如样本图像等)预先构建的模型。
可考虑识别模型的应用领域、训练目的或装置的计算机性能来构建数据识别模型。数据识别模型例如可以是基于神经网络的模型。例如,诸如深度神经网络(DNN)、循环神经网络(RNN)或双向循环深度神经网络(BRDNN)的模型可被用作数据识别模型,但其不限于此。
根据各种实施例,当存在多个预先构建的数据识别模型时,模型训练单元1310-4可被配置为将输入训练数据与基本训练数据之间的关系高的数据识别模型确定为将被训练的数据识别模型。在这种情况下,可针对每一种类型的数据对基本训练数据进行预先分类,并且针对每一种类型的数据预先构建数据识别模型。例如,可基于诸如产生训练数据的区域、产生训练数据的时间、训练数据的大小、训练数据的种类、训练数据的生成者以及训练数据中的对象的类型等各种标准来对基本训练数据进行预先分类。
另外,模型训练单元1310-4可被配置为使用例如包括误差反向传播或梯度下降的训练算法来训练数据识别模型。
另外,模型训练单元1310-4可例如将训练数据用为输入值通过监督学习来训练数据识别模型。另外,模型训练单元1310-4例如可被配置为通过无监督学习来训练数据识别模型,其中,所述无监督学习通过在没有太多监督的情况下通过进行自训练改变安全操作等级所必需的数据的类型来发现用于改变安全操作等级的标准。另外,模型训练单元1310-4可被配置为例如通过使用关于根据训练的安全操作等级改变的结果是否正确的反馈的强化学习来训练数据识别模型。
另外,当数据识别模型被训练时,模型训练单元1310-4可被配置为存储训练的数据识别模型。在这种情况下,模型训练单元1310-4可被配置为将训练的数据识别模型存储在包括数据识别单元1320的移动机器人装置1000的存储器中。可选地,模型训练单元1310-4可被配置为将训练的数据识别模型存储在包括稍后将描述的数据识别单元1320的移动机器人装置1000的存储器中。可选地,模型训练单元1310-4可被配置为将训练的数据识别模型存储在通过有线网络或无线网络连接到移动机器人装置1000的服务器2000的存储器中。
在这种情况下,存储训练的数据识别模型的存储器可存储例如与移动机器人装置1000的至少一个其他部件相关的命令或数据。另外,存储器可存储软件和/或程序。程序可包括例如内核、中间件、应用编程接口(API)和/或应用程序(或“应用”)。
模型评估单元1310-5可被配置为将评估数据输入到数据识别模型中,并且当根据评估数据输出的识别结果不满足预定标准时,使得模型训练单元1310-4再次进行训练。在这种情况下,评估数据可以是用于评估数据识别模型的预设数据。
例如,模型评估单元1310-5可被配置为当识别结果中不准确的评估数据的比率的数值超过预设阈值时,评估出训练的数据识别模型对评估数据的识别结果不满足预定标准。例如,在预定标准被定义为2%的比率的情况下,当训练的数据识别模型针对总共1000个评估数据中的多于20个评估数据输出不正确的识别结果时,模型评估单元1310-5可被配置为评估出训练的数据识别模型不合适。
另一方面,当存在多个训练的数据识别模型时,模型评估单元1310-5可被配置为针对每一个训练的数据识别模型评估是否满足预定标准,并且将满足预定标准的模型确定为最终数据识别模型。在这种情况下,当存在满足预定标准的多个模型时,模型评估单元1310-5可被配置为将按照最高评估分数的顺序预先设置的任何一个或预定数量的模型确定为最终数据识别模型。
另外,数据训练单元1310中的数据获取单元1310-1、预处理单元1310-2、训练数据选择单元1310-3、模型训练单元1310-4或模型评估单元1310-5中的至少一个可以以至少一个硬件芯片的形式被制造并且被安装在移动机器人装置1000上。例如,数据获取单元1310-1、预处理单元1310-2、训练数据选择单元1310-3、模型训练单元1310-4或模型评估单元1310-5中的至少一个可以以用于人工智能(AI)的专用硬件芯片的形式被制造,或者可被制造为现有通用处理器(例如,CPU或应用处理器)或仅图形处理器(例如,GPU)的一部分,并且被安装在上述各种移动机器人装置1000上。
另外,数据获取单元1310-1、预处理单元1310-2、训练数据选择单元1310-3、模型训练单元1310-4和模型评估单元1310-5可被安装在一个电子装置中,或者可被分别安装在单独的电子装置上。例如,数据获取单元1310-1、预处理单元1310-2、训练数据选择单元1310-3、模型训练单元1310-4和模型评估单元1310-5中的一些可被包括在移动机器人装置1000中,并且其他部分可被包括在服务器2000中。
另外,数据获取单元1310-1、预处理单元1310-2、训练数据选择单元1310-3、模型训练单元1310-4或模型评估单元1310-5中的至少一个可被实现为软件模块。当数据获取单元1310-1、预处理单元1310-2、训练数据选择单元1310-3、模型训练单元1310-4或模型评估单元1310-5中的至少一个被实现为软件模块(可选地,包括指令的程序模块)时,软件模块可被存储在非暂时性计算机可读介质中。另外,在这种情况下,至少一个软件模块可由操作系统(OS)提供或者可由预定应用提供。可选地,至少一个软件模块中的一些可由操作系统(OS)提供,并且其他软件模块可由预定应用提供。
图15是根据一些实施例的数据识别单元1320的框图。
参考图15,根据一些实施例,根据一些实施例的数据识别单元1320可包括数据获取单元1320-1、预处理单元1320-2、识别数据选择单元1320-3、识别结果提供单元1320-4和模型细化单元1320-5。
数据获取单元1320-1可被配置为获得改变安全操作等级所必需的数据,并且预处理单元1320-2可被配置为对获得的数据进行预处理,使得获得的数据可被用于改变安全操作等级。预处理单元1320-2可被配置为以预设格式对获得的数据进行处理,使得稍后将描述的识别结果提供单元1320-4可使用获得的数据来改变安全操作等级。
识别数据选择单元1320-3可被配置为在预处理的数据中选择改变安全操作等级所需的数据。所选择的数据可以被提供给识别结果提供单元1320-4。识别数据选择单元1320-3可被配置为根据用于改变安全操作等级的预设标准来选择预处理数据中的一些或全部。另外,识别数据选择单元1320-3还可被配置为根据通过模型训练单元1310-4训练的预设标准选择数据,这将在后面描述。
识别结果提供单元1320-4可被配置为通过将选择的数据应用于数据识别模型来改变安全操作等级。识别结果提供单元1320-4可被配置为根据识别数据的目的提供识别结果。识别结果提供单元1320-4可被配置为通过将由识别数据选择单元1320-3选择的数据用作输入值来将选择的数据应用于数据识别模型。另外,识别结果可通过数据识别模型来确定。
模型细化单元1320-5可被配置为基于由识别结果提供单元1320-4提供的识别结果的评估来细化数据识别模型。例如,模型细化单元1320-5可将由识别结果提供单元1320-4提供的识别结果提供给模型训练单元1310-4,使得模型训练单元1310-4可由此细化数据识别模型。
此外,数据识别单元1320中的数据获取单元1320-1、预处理单元1320-2、识别数据选择单元1320-3、识别结果提供单元1320-4或模型细化单元1320-5中的至少一个可以以至少一个硬件芯片的形式被制造并且被安装在移动机器人装置1000上。例如,数据获取单元1320-1、预处理单元1320-2、识别数据选择单元1320-3、识别结果提供单元1320-4或模型细化单元1320-5中的至少一个可以以用于人工智能(AI)的专用硬件芯片的形式制造,或者可被制造为现有通用处理器(例如,CPU或应用处理器)或仅图形处理器(例如,GPU)的一部分,并且被安装在上述各种类型的移动机器人装置1000上。
另外,数据获取单元1320-1、预处理单元1320-2、识别数据选择单元1320-3、识别结果提供单元1320-4和模型细化单元1320-5可被安装在一个电子装置中,或者可被分别安装在单独的电子装置上。例如,数据获取单元1320-1、预处理单元1320-2、识别数据选择单元1320-3、识别结果提供单元1320-4和模型细化单元1320-5中的一些可被包括在移动机器人装置1000中,并且其他部分可被包括在服务器2000中。
另外,数据获取单元1320-1、预处理单元1320-2、识别数据选择单元1320-3、识别结果提供单元1320-4或模型细化单元1320-5中的至少一个可被实现为软件模块。当数据获取单元1320-1、预处理单元1320-2、识别数据选择单元1320-3、识别结果提供单元1320-4或模型细化单元1320-5中的至少一个被实现为软件模块(可选地,包括指令的程序模块)时,软件模块可被存储在非暂时性计算机可读介质中。另外,在这种情况下,至少一个软件模块可由操作系统(OS)提供或者可由预定应用提供。可选地,至少一个软件模块中的一些可由操作系统(OS)提供,并且其他软件模块可由预定应用提供。
图16是示出根据一些实施例的移动机器人装置1000和服务器2000通过彼此互相配合来训练和识别数据的示例的示图。
参照图16,服务器2000可被配置为训练用于改变安全操作等级的标准,并且移动机器人装置1000可被配置为基于服务器2000的训练的结果来改变安全操作等级。
在这种情况下,服务器2000的模型训练单元2340可执行在图13中所示出的数据训练单元1310的功能。服务器2000的模型训练单元2340可被配置为训练使用哪些数据来改变预定安全操作等级以及如何使用该数据来确定安全操作等级的标准。模型训练单元2340可被配置为通过获得将被用于训练的数据并且将获得的数据应用于稍后将描述的数据识别模型来训练用于改变安全操作等级的标准。
另外,移动机器人装置1000的识别结果提供单元1320-4可被配置为通过将由识别数据选择单元1320-3选择的数据应用于由服务器2000产生的数据识别模型来确定将改变的安全操作等级。例如,识别结果提供单元1320-4可被配置为将由识别数据选择单元1320-3选择的数据发送到服务器2000,并且请求服务器2000通过将由识别数据选择单元1320-3选择的数据应用于识别模型来确定将改变的安全操作等级。此外,识别结果提供单元1320-4可从服务器2000接收关于由服务器2000确定的安全操作等级的信息。
例如,移动机器人装置1000可被配置为将通过感测移动机器人装置1000的周围环境而获得的感测信息发送到服务器2000,并且请求服务器2000通过将感测到的信息应用于数据识别模型来确定移动机器人装置1000的安全操作等级。另外,电子装置100可被配置为从服务器2000接收由服务器2000确定的安全操作等级。
可选地,电子装置100的识别结果提供单元1320-4可被配置为从服务器2000接收由服务器2000产生的识别模型,并且使用接收到的识别模型来确定将改变的安全操作等级。在这种情况下,移动机器人装置1000的识别结果提供单元1320-4可被配置为通过将由识别数据选择单元1320-3选择的数据应用于从服务器2000接收的数据识别模型来确定情况。
例如,移动机器人装置1000可被配置为通过将通过感测移动机器人装置1000的周围环境而获得的感测信息应用于从服务器2000接收的数据识别模型来改变移动机器人装置1000的安全操作等级。
一些实施例还可体现为包括计算机可执行指令(诸如,由计算机执行的程序模块)的记录介质的形式。计算机可读介质可以是可由计算机访问的任何可用介质,并且可包括易失性和非易失性介质、可移动和不可移动介质。此外,计算机可读介质可包括计算机存储介质和通信介质两种。计算机存储介质包括以用于存储诸如计算机可读指令、数据结构、程序模块或其他数据的信息的任何方法或技术实现的易失性和非易失性、可移除和不可移除介质。通信介质通常包括计算机可读指令、数据结构、程序模块或调制数据信号(诸如,载波)或其他传输机制中的其他数据,并且包括任何信息递送介质。
此外,在本说明书中,“单元”可以是诸如处理器或电路的硬件组件,和/或由诸如处理器的硬件组件执行的软件组件。
本公开的以上描述仅用于说明,并且具有本公开所属领域的普通知识的人员可理解的是,在不改变本公开的技术思想或必要特征的情况下,可容易地将其修改为其他特定形式。因此,应当理解的是,上述实施例在所有方面都是示例性的,而不是限制性的。例如,描述为单个类型的每个组件可以以分布式方式被实现,并且类似地,描述为分布式的组件可以以组合形式被实现。
本公开的范围由描述的权利要求书来表示,而不是由具体实施方式来表示,并且应当理解,从权利要求书的含义和范围及其等同构思推导出的所有改变或修改都被包括在本公开的范围中。
Claims (13)
1.一种由包括臂装置的移动机器人装置向用户提供服务的方法,所述方法包括:
获得通过在所述移动机器人装置行进的同时感测所述移动机器人装置的周围环境而获得的感测信息;
基于所述感测信息,获得关于所述移动机器人装置周围的人的类型的信息和关于所述移动机器人装置的周围环境的信息;
基于关于所述人的类型的信息和关于所述周围环境的信息来改变所述移动机器人装置的安全操作等级;以及
基于改变后的安全操作等级将所述移动机器人装置的操作控制为预设操作,
其中,安全操作等级是用于控制与所述移动机器人装置的移动和所述臂装置的运动相关的预设操作的等级,其中,与安全操作等级相应的预设操作基于根据预设标准的训练来设置和改变,并且
所述移动机器人装置通过将获得的关于所述人的类型的信息和获得的关于所述周围环境的信息应用于使用人工智能算法训练的训练模型来改变安全操作等级。
2.根据权利要求1所述的方法,其中,改变安全操作等级的步骤包括:使用将机器学习、神经网络、基因、深度学习或分类算法中的至少一个用作所述人工智能算法而训练的所述训练模型来改变安全操作等级。
3.根据权利要求1所述的方法,其中,改变安全操作等级的步骤包括:
当关于所述移动机器人装置周围的人的类型的信息指示婴儿时,降低所述移动机器人装置的移动速度;以及
控制不改变所述臂装置的角度。
4.根据权利要求1所述的方法,其中,改变安全操作等级的步骤包括:当关于所述移动机器人装置周围的人的类型的信息指示残疾人时,降低所述移动机器人装置的移动速度并且增大所述移动机器人装置的移动噪声。
5.根据权利要求1所述的方法,其中,改变安全操作等级的步骤包括:当关于所述移动机器人装置的周围环境的信息指示所述移动机器人装置周围的拥堵水平高时,降低所述移动机器人装置的移动速度并且改变所述移动机器人装置的移动方向。
6.根据权利要求1所述的方法,其中,改变安全操作等级的步骤包括:当关于所述移动机器人装置的周围环境的信息指示所述移动机器人装置的行进路线的坡度高时,降低所述移动机器人装置的移动速度。
7.根据权利要求1所述的方法,其中,改变安全操作等级的步骤包括:当关于所述移动机器人装置的周围环境的信息指示关于位于所述移动机器人装置附近的对象的风险高时,降低所述移动机器人装置的移动速度并且改变所述移动机器人装置的移动方向。
8.根据权利要求1所述的方法,其中,获得所述感测信息的步骤包括:获得在所述移动机器人装置周围捕捉的图像或所述周围环境的温度信息中的至少一个。
9.根据权利要求1所述的方法,其中,改变安全操作等级的步骤包括:
将所述感测信息发送到服务器;以及
从所述服务器接收使用所述训练模型确定的安全操作等级。
10.一种用于向用户提供服务的包括臂装置的移动机器人装置,所述移动机器人装置包括:
存储器,被配置为存储至少一个指令;
感测单元;以及
处理器,被配置为通过执行所述至少一个指令进行以下操作:
通过所述感测单元获得通过在所述移动机器人装置行进的同时感测所述移动机器人装置的周围环境而获得的感测信息,
基于所述感测信息,获得关于所述移动机器人装置周围的人的类型的信息和关于所述移动机器人装置的周围环境的信息,
基于关于所述人的类型的信息和关于所述周围环境的信息来改变所述移动机器人装置的安全操作等级,并且
基于改变后的安全操作等级将所述移动机器人装置的操作控制为预设操作,
其中,安全操作等级是用于控制与所述移动机器人装置的移动和所述臂装置的运动相关的预设操作的等级,其中,与安全操作等级相应的预设操作基于根据预设标准的训练来设置和改变,并且
所述移动机器人装置通过将获得的关于所述人的类型的信息和获得的关于所述周围环境的信息应用于使用人工智能算法训练的训练模型来改变安全操作等级。
11.根据权利要求10所述的移动机器人装置,其中,所述处理器被配置为通过执行所述至少一个指令进行以下操作:当关于所述移动机器人装置周围的人的类型的信息指示婴儿时,进行控制以降低所述移动机器人装置的移动速度并且不改变所述臂装置的角度。
12.根据权利要求10所述的移动机器人装置,其中,所述处理器被配置为通过执行所述至少一个指令进行以下操作:通过所述感测单元获得在所述移动机器人装置周围捕捉的图像或所述周围环境的温度信息中的至少一个。
13.一种计算机可读记录介质,记录有用于在计算机上执行如权利要求1所述的方法的程序。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180047650A KR102519064B1 (ko) | 2018-04-25 | 2018-04-25 | 사용자에게 서비스를 제공하는 이동형 로봇 장치 및 방법 |
KR10-2018-0047650 | 2018-04-25 | ||
PCT/KR2019/003888 WO2019208950A1 (ko) | 2018-04-25 | 2019-04-02 | 사용자에게 서비스를 제공하는 이동형 로봇 장치 및 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112020411A CN112020411A (zh) | 2020-12-01 |
CN112020411B true CN112020411B (zh) | 2023-12-22 |
Family
ID=68295525
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980028288.4A Active CN112020411B (zh) | 2018-04-25 | 2019-04-02 | 用于向用户提供服务的移动机器人装置和方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11931906B2 (zh) |
EP (1) | EP3753688A4 (zh) |
KR (1) | KR102519064B1 (zh) |
CN (1) | CN112020411B (zh) |
WO (1) | WO2019208950A1 (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102565568B1 (ko) * | 2020-10-30 | 2023-08-14 | 한국전자기술연구원 | 로봇 주행 방법 및 이를 지원하는 시스템 |
KR102408327B1 (ko) | 2020-11-26 | 2022-06-10 | 한국기술교육대학교 산학협력단 | 자율주행 판매를 위한 제스처 인식을 지원하는 ai 기반 자율주행 로봇 시스템 |
CN113267179B (zh) * | 2021-05-17 | 2023-05-30 | 北京京东乾石科技有限公司 | 提示信息生成方法和装置、存储介质、电子设备 |
CN114633264A (zh) * | 2022-02-23 | 2022-06-17 | 南京信息职业技术学院 | 一种基于myRIO疫情测温智能机器人 |
KR20240008020A (ko) * | 2022-07-11 | 2024-01-18 | 한양대학교 에리카산학협력단 | 음성 인식을 이용한 신분 증명 기반의 펫 로봇 장치 및 그 동작 방법 |
KR102585308B1 (ko) * | 2022-10-27 | 2023-10-10 | 주식회사 클로봇 | 이동 로봇의 주행을 제어하기 위한 방법, 및 이동 로봇 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104870147A (zh) * | 2012-08-31 | 2015-08-26 | 睿信科机器人有限公司 | 机器人安全工作的系统和方法 |
CN106003047A (zh) * | 2016-06-28 | 2016-10-12 | 北京光年无限科技有限公司 | 一种面向智能机器人的危险预警方法和装置 |
CN107214705A (zh) * | 2017-07-22 | 2017-09-29 | 深圳市萨斯智能科技有限公司 | 一种机器人移动速度控制方法和机器人 |
CN107466263A (zh) * | 2017-07-10 | 2017-12-12 | 深圳市艾唯尔科技有限公司 | 一种传感融合技术的机器人关节防撞保护系统及其方法 |
WO2018038551A1 (ko) * | 2016-08-25 | 2018-03-01 | 엘지전자 주식회사 | 이동 로봇 및 그 제어방법 |
KR20180023301A (ko) * | 2016-08-25 | 2018-03-07 | 엘지전자 주식회사 | 이동 로봇 및 그 제어방법 |
CN107932560A (zh) * | 2017-11-14 | 2018-04-20 | 上海交通大学 | 一种人机安全防护系统和防护方法 |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002307340A (ja) | 2001-04-19 | 2002-10-23 | Sony Corp | 脚式移動ロボット及びその制御方法 |
JP4371153B2 (ja) * | 2007-06-15 | 2009-11-25 | トヨタ自動車株式会社 | 自律移動装置 |
JP5464514B2 (ja) | 2009-08-21 | 2014-04-09 | 公立大学法人首都大学東京 | ロボット制御装置、ロボット制御方法、ロボット制御プログラム、及びロボット |
JP2011224679A (ja) * | 2010-04-16 | 2011-11-10 | Toyota Motor Corp | 応対ロボット、応対制御方法、及び応対制御プログラム |
DE102010063214A1 (de) * | 2010-12-16 | 2012-06-21 | Robert Bosch Gmbh | Sicherungseinrichtung für eine Handhabungsvorrichtung, insbesondere einen Industrieroboter, sowie Verfahren zum Betreiben der Sicherungseinrichtung |
KR101273300B1 (ko) * | 2011-06-08 | 2013-06-11 | 한국과학기술연구원 | 인지 아키텍쳐를 이용한 로봇 제어 시스템 및 로봇 제어 방법 |
KR101190660B1 (ko) * | 2012-07-23 | 2012-10-15 | (주) 퓨처로봇 | 로봇 제어 시나리오 생성 방법 및 장치 |
JP6007873B2 (ja) * | 2013-08-30 | 2016-10-12 | トヨタ自動車株式会社 | ロボット及びその制御方法 |
EP2933066A1 (en) | 2014-04-17 | 2015-10-21 | Aldebaran Robotics | Activity monitoring of a robot |
JP6537251B2 (ja) * | 2014-11-14 | 2019-07-03 | シャープ株式会社 | 自律走行装置 |
JP6240689B2 (ja) | 2015-07-31 | 2017-11-29 | ファナック株式会社 | 人の行動パターンを学習する機械学習装置、ロボット制御装置、ロボットシステム、および機械学習方法 |
US9776323B2 (en) * | 2016-01-06 | 2017-10-03 | Disney Enterprises, Inc. | Trained human-intention classifier for safe and efficient robot navigation |
US10065316B2 (en) | 2016-02-05 | 2018-09-04 | Rethink Robotics, Inc. | Systems and methods for safe robot operation |
US9751212B1 (en) * | 2016-05-05 | 2017-09-05 | Toyota Jidosha Kabushiki Kaisha | Adapting object handover from robot to human using perceptual affordances |
CN107378941B (zh) * | 2016-05-16 | 2022-02-18 | 精工爱普生株式会社 | 机器人、控制装置以及机器人系统 |
KR102578138B1 (ko) * | 2016-10-07 | 2023-09-13 | 엘지전자 주식회사 | 공항 로봇 및 이를 포함하는 시스템 |
WO2018112640A1 (en) * | 2016-12-22 | 2018-06-28 | Macdonald, Dettwiler And Associates Inc. | Unobtrusive driving assistance method and system for a vehicle to avoid hazards |
KR20180074373A (ko) * | 2016-12-23 | 2018-07-03 | 삼성전자주식회사 | 운송 장치 및 운송 장치 제어 방법 |
KR102391914B1 (ko) * | 2017-06-30 | 2022-04-27 | 엘지전자 주식회사 | 이동 로봇의 동작 방법 |
US10814487B2 (en) * | 2018-01-22 | 2020-10-27 | Disney Enterprises, Inc. | Communicative self-guiding automation |
JP7283037B2 (ja) * | 2018-07-26 | 2023-05-30 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、およびプログラム |
KR102657884B1 (ko) * | 2018-12-18 | 2024-04-17 | 삼성전자주식회사 | 서비스 로봇의 동작 제어 방법 및 장치 |
EP3832548A1 (en) * | 2019-12-06 | 2021-06-09 | Universität Stuttgart | Method for testing and testing device |
JP2022100860A (ja) * | 2020-12-24 | 2022-07-06 | トヨタ自動車株式会社 | ロボット制御システム、ロボット制御方法、及びプログラム |
EP4313509A1 (en) * | 2021-03-26 | 2024-02-07 | Boston Dynamics, Inc. | Perception module for a mobile manipulator robot |
-
2018
- 2018-04-25 KR KR1020180047650A patent/KR102519064B1/ko active IP Right Grant
-
2019
- 2019-04-02 CN CN201980028288.4A patent/CN112020411B/zh active Active
- 2019-04-02 WO PCT/KR2019/003888 patent/WO2019208950A1/ko unknown
- 2019-04-02 US US17/040,211 patent/US11931906B2/en active Active
- 2019-04-02 EP EP19791944.2A patent/EP3753688A4/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104870147A (zh) * | 2012-08-31 | 2015-08-26 | 睿信科机器人有限公司 | 机器人安全工作的系统和方法 |
CN106003047A (zh) * | 2016-06-28 | 2016-10-12 | 北京光年无限科技有限公司 | 一种面向智能机器人的危险预警方法和装置 |
WO2018038551A1 (ko) * | 2016-08-25 | 2018-03-01 | 엘지전자 주식회사 | 이동 로봇 및 그 제어방법 |
KR20180023301A (ko) * | 2016-08-25 | 2018-03-07 | 엘지전자 주식회사 | 이동 로봇 및 그 제어방법 |
CN107466263A (zh) * | 2017-07-10 | 2017-12-12 | 深圳市艾唯尔科技有限公司 | 一种传感融合技术的机器人关节防撞保护系统及其方法 |
CN107214705A (zh) * | 2017-07-22 | 2017-09-29 | 深圳市萨斯智能科技有限公司 | 一种机器人移动速度控制方法和机器人 |
CN107932560A (zh) * | 2017-11-14 | 2018-04-20 | 上海交通大学 | 一种人机安全防护系统和防护方法 |
Also Published As
Publication number | Publication date |
---|---|
EP3753688A4 (en) | 2021-05-05 |
KR102519064B1 (ko) | 2023-04-06 |
US11931906B2 (en) | 2024-03-19 |
CN112020411A (zh) | 2020-12-01 |
WO2019208950A1 (ko) | 2019-10-31 |
US20210008723A1 (en) | 2021-01-14 |
KR20190130214A (ko) | 2019-11-22 |
EP3753688A1 (en) | 2020-12-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112020411B (zh) | 用于向用户提供服务的移动机器人装置和方法 | |
KR102060662B1 (ko) | 차량의 주행 이벤트를 검출하는 전자 장치 및 방법 | |
KR102623574B1 (ko) | 전자 장치 및 그 동작 방법 | |
KR102298541B1 (ko) | 이미지 데이터에서 사용자를 인식하는 인공 지능 장치 및 그 방법 | |
KR20190078543A (ko) | 이미지 획득 장치 및 그의 제어 방법 | |
KR102480416B1 (ko) | 차선 정보를 추정하는 방법 및 전자 장치 | |
US11295166B2 (en) | Artificial intelligence apparatus for generating training data for artificial intelligence model and method thereof | |
KR102474246B1 (ko) | 복수 개의 전자 디바이스를 이용하여 신경망 모델을 처리하는 방법 및 시스템 | |
KR102458664B1 (ko) | 차량의 주행을 보조하는 전자 장치 및 방법 | |
US11688195B2 (en) | Electronic device and method for assisting with driving of vehicle | |
KR20190100085A (ko) | 인공 지능을 이용하여, 위험 상황을 감지할 수 있는 로봇 및 그의 동작 방법 | |
US11471016B2 (en) | Method and apparatus for executing cleaning operation | |
CN112135553B (zh) | 用于执行清洁操作的方法和设备 | |
US20210107488A1 (en) | Electronic device and operating method thereof | |
US11964671B2 (en) | System and method for improving interaction of a plurality of autonomous vehicles with a driving environment including said vehicles | |
KR102452636B1 (ko) | 차량의 주행을 보조하는 장치 및 방법 | |
KR102464906B1 (ko) | 패션 상품을 추천하는 전자 장치, 서버 및 그 동작 방법 | |
KR20190129673A (ko) | 청소 동작을 수행하는 청소 장치 및 방법 | |
KR20190094130A (ko) | 사용자 인식 기반의 유모차 로봇 및 그 제어 방법 | |
US20210094167A1 (en) | Apparatus connected to robot, and robot system including the robot and the apparatus | |
KR20240050729A (ko) | 탑승자 행동 분석에 기반한 안전 관련 정보 전송 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |