CN111610850A - 一种基于无人机进行人机交互的方法 - Google Patents
一种基于无人机进行人机交互的方法 Download PDFInfo
- Publication number
- CN111610850A CN111610850A CN201910131557.1A CN201910131557A CN111610850A CN 111610850 A CN111610850 A CN 111610850A CN 201910131557 A CN201910131557 A CN 201910131557A CN 111610850 A CN111610850 A CN 111610850A
- Authority
- CN
- China
- Prior art keywords
- target object
- information
- human
- machine interaction
- preset
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 81
- 238000000034 method Methods 0.000 title claims abstract description 65
- 238000004590 computer program Methods 0.000 claims description 10
- 238000012800 visualization Methods 0.000 claims description 10
- 230000014509 gene expression Effects 0.000 claims description 6
- 230000004044 response Effects 0.000 claims description 5
- 230000006855 networking Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 15
- 238000003384 imaging method Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 230000007613 environmental effect Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000002787 reinforcement Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000005339 levitation Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000035790 physiological processes and functions Effects 0.000 description 1
- 239000009891 weiqi Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请实施例公开了一种基于无人机进行人机交互的方法,涉及无人机技术领域。该系统的一具体实施包括:跟随目标物飞行,和/或,基于预设路线和/或预设规则和/或预设模型进行与目标物相关的巡逻飞行;与目标物进行人机交互。使飞行中的无人机作为目标物或用户的智能助手,使用户在解放双手的同时实现高效率的信息获取和人机交互。
Description
技术领域
本申请实施例涉及无人机技术领域,具体涉及一种基于无人机进行人机交互的方法。
背景技术
随着科学技术的发展,无人机被广泛应用于娱乐、军事、农业和教育等领域,执行着各种各样的任务,例如节目表演、目标侦察、农业植保、动物追踪、消防救灾等等。
在一些场景下,我们还需要无人机为我们提供更便捷更智能的服务,通过在跟随目标物飞行的同时作为我们或目标物的智能助手,在解放双手的同时提供高效率的信息获取和人机交互。5G和人工智能技术的发展,特别是5G的信息能力、物体识别、图像识别、语音识别等深度学习以及强化学习等技术的应用,使得电子设备更加智能化成为可能,例如强化学习在无人驾驶汽车的应用、基于深度强化学习的谷歌alpha go在围棋上的实践。这也为无人机的智能化、高效率的信息获取或人机交互提供了有力支持。
发明内容
本申请实施例提出了一种基于无人机进行人机交互的方法。
第一方面,本申请实施例提供了一种基于无人机进行人机交互的方法,其特征在于,包括:跟随目标物飞行,和/或,基于预设路线和/或预设规则和/或预设模型进行与目标物相关的巡逻飞行;与目标物进行人机交互。
在一些实施例中,该方法还包括以下特征中的一种或任意组合:
与至少一个第三方装置联网;
与至少一个第三方装置通信,向第三方装置发送数据和/或从第三方装置接收数据。
在一些实施例中,与目标物进行人机交互包括以下特征中的一种或任意组合:
与目标物直接地进行人机交互;
与目标物通过至少一个第三方装置进行人机交互。
在一些实施例中,与目标物进行人机交互包括:
基于预设规则和/或预设模型向目标物推送或播放信息。
在一些实施例中,人机交互包括以下步骤:
采集第一数据,第一数据至少包括声音、图像、3D空间数据、传感器数据和来自第三方装置的数据中的一种;
对所采集到的第一数据进行识别,得到识别结果;
向至少一个第三方装置发送识别结果,和/或,当识别结果满足预设条件时,基于识别结果通过预设方式向目标物发送通知;
预设方式包括以下方式中的一种或任意组合:声音、灯光、裸眼3D显像、图像投影、图像投屏。
在一些实施例中,人机交互包括以下步骤:
获取目标物对应的第一信息;
获取与第一信息对应的第二信息;
获取与第二信息对应的第三信息;
通过图像投影、图像投屏、VR、AR或裸眼3D显像的方式显示第三信息,和/或,通过声音播放第三信息,和/或,基于第三信息进行灯光指示;
第一信息至少包含以下信息中的一项或任意组合:声音、手势、表情、姿势、图像、3D空间信息、与第三方通信获取的信息。
在一些实施例中,人机交互包括以下步骤:
获取目标物对应的第一信息;
获取第一信息对应的指令;
获取指令对应的指令参数;
根据指令和/或指令参数设置对应的设备或软件,和/或,根据指令与对应的设备通信并将指令和/或指令参数发送至设备,然后将获取到的设备的应答信息推送给目标物。
在一些实施例中,人机交互包括:
通过人机交互为目标物进行导航和/或提醒。
第二方面,本申请实施例提供了一种飞行器,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如控制方法中任意实施例的方法。
第三方面,本申请实施例提供了一种计算机可读介质,其上存储有计算机程序,其中,该程序被处理器执行时实现如控制方法中任意实施例的方法。
本申请实施例提供的一种基于无人机进行人机交互的方法,通过跟随目标物飞行,和/或,基于预设路线、预设规则和/或预设模型进行与目标物相关的巡逻飞行的同时,与目标物进行人机交互。从而实现了使飞行中的无人机作为目标物或用户的智能助手的这一方法,使用户在解放双手的同时实现高效率的信息获取和人机交互。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请的一个实施例可以应用于其中的示例性系统架构图;
图2是根据本申请的一种基于无人机进行人机交互的方法的一个实施例的流程图;
图3是根据本申请的一种基于无人机进行人机交互的方法的一个应用场景的示意图;
图4是根据本申请的一种基于无人机进行人机交互的方法的又一个实施例的流程图;
图5是根据本申请的一种基于无人机进行人机交互的方法的又一个实施例的流程图;
图6是适于用来实现本申请实施例的服务器的计算机系统的结构示意图;
图7是根据本申请的一种基于无人机进行人机交互的方法的又一个实施例的流程图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
需要说明的是,本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
需要说明的是,本文中术语“预设”, 表示预先设置的或预先训练的这两种含义。一般来说,预设模型指预先训练的模型,预设路线指预先设置的路线,预设规则指预先设置的规则。
图1示出了可以应用本申请的一种基于无人机进行人机交互的方法的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、网络102和服务器103。网络102用以在终端设备101和服务器103之间提供通信链路的介质。网络102可以包括各种无线通信链路的连接类型例如激光/微波/RF。终端设备101可以是各种飞行器或飞行设备例如无人机、可以进行控制的气艇或气球,也可以是可以进行控制的各种悬浮装置,例如磁悬浮装置等。
终端设备101上可以安装有雷达(例如红外激光雷达)、语音设备(例如麦克风、喇叭、扬声器等)、图像设备(例如显示屏、摄像头、投影仪、投屏设备、AR/VR设备、裸眼3D显像设备例如激光成像等)、文本输入类应用、空间物体识别类应用、图像物体识别类应用、语音识别类应用等。用户可以使用终端设备101通过网络102与服务器103交互,以接收或发送信息等。
终端设备101可以是硬件,也可以是软件。当终端设备101为硬件时,可以是各种具有飞行功能或悬浮功能的设备,包括但不限于无人机等等。当终端设备101为软件时,可以安装在上述设备中。其可以实现成多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
服务器103可以是提供各种服务的服务器,例如对终端设备101发送的三维空间数据进行分析识别,生成与目标物或目标物特征对应的标识、特征标识或存在状态等的空间物体识别服务器。空间物体识别服务器可以对获取到的三维空间数据进行分析处理,确定与目标物对应的标识或存在状态。再例如对终端设备101发送的信息查询请求进行信息查询和获取的信息搜索服务器。信息搜索服务器可以对信息查询请求进行分析处理,确定与信息查询请求对应的查询结果。
需要说明的是,本申请实施例所提供的一种基于无人机进行人机交互的方法一般由终端设备101执行,相应的装置一般设置于终端设备101中。
需要指出的是,终端设备101一般通过使用雷达扫描获取对应的三维空间数据,例如基于结构光3D成像技术的红外线激光雷达或基于TOF技术的雷达。
需要指出的是,终端设备101的本地也可以存储有与终端设备101或目标物对应的三维空间数据或用于交互的信息,终端设备101可以直接提取本地的相关三维空间数据或用于交互的信息,终端设备101也可以通过与第三方通信获取相关三维空间数据或用于交互的信息。
需要说明的是,本申请实施例所提供的一种基于无人机进行人机交互的方法也可以由服务器103执行,相应的装置的一部分一般设置于服务器103中,另一部分一般设置于终端设备101。
需要指出的是,服务器103或终端设备101的本地也可以存储有用于交互的信息或预设模型等,服务器103或终端设备10可以直接提取本地的用于交互的信息预设模型等,服务器103或终端设备10也可以通过与第三方通信获取相关用于交互的信息预设模型等。
需要说明的是,服务器103可以是硬件,也可以是软件。当服务器103为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
需要说明的是,本申请实施例所提供的一种基于无人机进行人机交互的方法所涉及的模型或规则既可以存储或运行在服务器103,也可以存储或运行在终端设备101上。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的一种基于无人机进行人机交互的方法的一个实施例的流程200。一种基于无人机进行人机交互的方法,包括以下步骤:
步骤201,跟随目标物飞行,和/或,基于预设路线、预设规则和/或预设模型进行与目标物相关的巡逻飞行。
在本实施例中,基于无人机进行人机交互的执行主体(例如图1的终端设备101)可以跟随目标物飞行,或,基于预设路线、预设规则和/或预设模型进行与目标物相关的巡逻飞行,也可以通过无线连接的方式从服务器接收获取到的相关飞行参数,并基于接收到的飞行参数控制无人机的飞行姿态、速度和/或加速度。
在本实施例中,目标物可以是人或其他动物,也可以是其他物体例如电子装置。
步骤202,与目标物进行人机交互。
在本实施例中,人机交互可以是基于无人机进行人机交互的执行主体与目标物之间的语音交互例如语音对话/问答,可以是执行主体对获取到的来自目标物的声音进行分析后基于预设规则采取的动作,也可以是在收到目标物的语音/手势等信息后,执行预设步骤和/或通过图像向目标物发送对应的信息。在这里,各种输入输出方式可以根据需要进行组合,例如目标物使用语音问与无人机使用语音答、目标物使用语音问与无人机使用图像答、目标物使用语音问与无人机使用语音和图像答、目标物使用手势问与无人机使用语音和/或图像答、目标物使用语音和/或手势命令与无人机执行程序回应,等等。在这里,人机交互的声音方式包括语音。
继续参考图3,图3是根据本实施例的一种基于无人机进行人机交互的方法的应用场景的一个示意图。在图3的应用场景中,无人机301从目标物304接收到了“如何制作清蒸鲈鱼”的请求,之后无人机301向服务器302输入了该请求。服务器302在接收到该请求后,可以通过信息源或预设模型和/或预设规则303进行信息检索,得到检索结果。然后,服务器302将所得到的检索结果发送至无人机301,无人机301通过图像投影和声音播放的方式将检索结果呈现出来,以方便目标物304接收。
本申请实施例提供的一种基于无人机进行人机交互的方法,通过在跟随目标物飞行的同时,和/或,在基于预设路线、预设规则和/或预设模型进行与目标物相关的巡逻飞行的同时,与目标物进行人机交互以满足目标物或用户的信息需求、完成目标物或用户的安排的任务、保障目标物或用户的安全、辅助目标物或用户生活,从而提高了目标物的信息获取效率和生活品质,减少了目标物用双手点击手持设备的时间。
进一步参考图4,其示出了图4是根据本申请的一种基于无人机进行人机交互的方法的又一个实施例的流程400。该的流程400,包括以下步骤:
步骤401,采集第一数据,第一数据至少包括声音、图像、3D空间数据、传感器数据和来自第三方装置的数据中的一种。
在本实施例中,基于无人机进行人机交互的方法的执行主体(例如图1所示的终端设备)可以通过麦克风采集环境声音、来自目标物的声音或语音,通过摄像头采集目标物或环境的图像,通过3D成像设备如激光雷达测量所处的3D空间数据,通过传感器测量环境参数或无人机的相关参数,也可以与第三方装置通信以获取目标物的参数,例如获取目标物佩戴的可穿戴设备的测量/传感器数据。在这里,声音包括语音。
在本实施例中,第一数据可以是关于气温、火灾等灾情、目标物的姿势/体态/手势/生理特征等的数据等。
步骤402,对所采集到的第一数据进行识别,得到识别结果。
在本实施例中,基于无人机进行人机交互的方法的执行主体(例如图1所示的终端设备) 对所采集到的第一数据进行识别,得到识别结果。例如对获取到的图片进行分析识别,得到关于目标物的身体姿势例如站立或跌倒;再例如对对获取到的图片进行分析识别,得到有可疑人员闯入室内的结论;例如对对获取到的目标物的生理状态进行分析,得到有生命危险的高概率数值,等等。
步骤403,向至少一个第三方装置发送识别结果,和/或,当识别结果满足预设条件时,基于识别结果通过预设方式向目标物发送通知。
预设方式包括以下方式中的一种或任意组合:声音、灯光、裸眼3D显像、图像投影、图像投屏。
在本实施例中,基于无人机进行人机交互的方法的执行主体(例如图1所示的终端设备)可以通过无线连接的方式将获取到的识别结果发送给第三方装置,或,当识别结果满足预设条件时,基于识别结果通过预设方式例如声音、灯光、裸眼3D显像、图像投影和/或图像投屏向目标物发送通知。
从图4中可以看出,与图2所示的实施例不同的是,本实施例突出了基于无人机进行人机交互步骤。从而使得人机交互过程更加准确。
进一步参考图5,其示出了图5是根据本申请的一种基于无人机进行人机交互的方法的又一个实施例的流程500。该的流程500,包括以下步骤:
步骤501,获取目标物对应的第一信息。
第一信息至少包含以下信息中的一项或任意组合:声音、手势、表情、姿势、图像、3D空间信息、与第三方通信获取的信息。
在本实施例中,基于无人机进行人机交互的方法的执行主体(例如图1所示的终端设备)可以通过麦克风采集环境声音、来自目标物的声音或语音,通过摄像头采集目标物或环境的图像,通过3D成像设备如激光雷达测量所处的3D空间数据,通过摄像头或3D成像设备如激光雷达采集手势/表情/姿势,也可以与第三方装置通信以获取目标物的参数,例如获取目标物佩戴的可穿戴设备的测量/传感器数据。
在本实施例中,第一数据可以是关于来自目标物的语音问题,也可以是来自目标物的手势指令/表情/姿势。
步骤502,获取与第一信息对应的第二信息。
在本实施例中,基于无人机进行人机交互的方法的执行主体(例如图1所示的终端设备)根据获取到的第一信息,获取与第一信息对应的第二信息。例如对来自目标物的语音问题进行语音识别,得到对应的第二信息例如文字等。
步骤503,获取与第二信息对应的第三信息。
在本实施例中,基于无人机进行人机交互的方法的执行主体(例如图1所示的终端设备)根据获取到的第二信息,获取与第二信息对应的第三信息。例如根据对来自目标物的语音进行语音识别得到的文字搜索信息源或数据库,获取问题相关的答案信息,该信息可以是文字/语音/图像等。
步骤504,通过图像投影、图像投屏、VR、AR或裸眼3D显像的方式显示第三信息,和/或,通过声音播放第三信息,和/或,基于第三信息进行灯光指示。
在本实施例中,基于无人机进行人机交互的方法的执行主体(例如图1所示的终端设备) 通过图像投影、图像投屏、VR、AR或裸眼3D显像的方式显示第三信息,和/或,通过声音播放第三信息,和/或,基于第三信息进行灯光指示。例如将获取到的答案通过图像投影的方式投影到墙上,或者通过裸眼3D显像例如激光成像呈现出来。
从图5中可以看出,与图2所示的实施例不同的是,本实施例突出了基于无人机进行人机交互步骤。从而使得人机交互过程更加准确。
下面参考图6,其示出了适于用来实现本申请实施例的电子设备(例如图1所示的服务器)的计算机系统600的结构示意图。图6示出的电子设备仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图6所示,计算机系统600包括中央处理单元(CPU)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储部分608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有系统600操作所需的各种程序和数据。CPU 601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
以下部件连接至I/O接口605:包括麦克风、触控器件、按钮等的输入部分606;包括诸如液晶显示器(LCD)等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如WIFI卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。在该计算机程序被中央处理单元(CPU)601执行时,执行本申请的方法中限定的上述功能。需要说明的是,本申请该的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本申请的操作的计算机程序代码,该程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如”C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:跟随目标物飞行,和/或,基于预设路线、预设规则和/或预设模型进行与目标物相关的巡逻飞行;与目标物进行人机交互。
进一步参考图7,其示出了图7是根据本申请的一种基于无人机进行人机交互的方法的又一个实施例的流程700。该的流程700,包括以下步骤:
步骤701,获取目标物对应的第一信息。
在本实施例中,基于无人机进行人机交互的方法的执行主体(例如图1所示的终端设备)可以通过麦克风采集环境声音、来自目标物的声音或语音,通过摄像头采集目标物或环境的图像,通过3D成像设备如激光雷达测量所处的3D空间数据,通过摄像头或3D成像设备如激光雷达采集手势/表情/姿势,也可以与第三方装置通信以获取目标物的参数,例如获取目标物佩戴的可穿戴设备的测量/传感器数据,作为第一信息。
在本实施例中,第一数据可以是关于来自目标物的用于控制家用电器的语音指令,也可以是来自目标物的召唤无人机的手势指令。
步骤702,获取第一信息对应的指令。
在本实施例中,基于无人机进行人机交互的方法的执行主体(例如图1所示的终端设备)从第一信息中获取对应的指令,例如调整卧室空调温度。
步骤703,获取指令对应的指令参数。
在本实施例中,基于无人机进行人机交互的方法的执行主体(例如图1所示的终端设备)从第一信息中获取对应的指令参数,例如将卧室空调调整到25摄氏度,或根据获取到的指令查询参数库得到指令参数,指令参数可以为空。
步骤704,根据指令和/或指令参数设置对应的设备或软件,和/或,根据指令与对应的设备通信并将指令和/或指令参数发送至设备,然后将获取到的设备的应答信息推送给目标物。
在本实施例中,基于无人机进行人机交互的方法的执行主体(例如图1所示的终端设备) 根据指令和/或指令参数设置对应的设备或软件,和/或,根据指令与对应的设备通信并将指令和/或指令参数发送至设备,然后将获取到的设备的应答信息推送给目标物。例如将调整空调温度到25摄氏度的指令发送给对应的空调。在一些实施例中,也可以是设置闹钟的参数。
从图7中可以看出,与图2所示的实施例不同的是,本实施例突出了基于无人机进行人机交互步骤,从而使得人机交互过程更加准确。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (10)
1.一种基于无人机进行人机交互的方法,其特征在于,包括:
跟随目标物飞行,和/或,基于预设路线和/或预设规则和/或预设模型进行与所述目标物相关的巡逻飞行;
与所述目标物进行人机交互。
2.根据权利要求1所述的方法,其特征在于,还包括以下特征中的一种或任意组合:
与至少一个第三方装置联网;
与至少一个第三方装置通信,向所述第三方装置发送数据和/或从所述第三方装置接收数据。
3.根据权利要求1所述的方法,其特征在于,所述与所述目标物进行人机交互包括以下特征中的一种或任意组合:
与所述目标物直接地进行人机交互;
与所述目标物通过至少一个第三方装置进行人机交互。
4.根据权利要求1或3所述的方法,其特征在于,所述与所述目标物进行人机交互包括:
基于预设规则和/或预设模型向所述目标物推送或播放信息。
5.根据权利要求1或3所述的方法,其特征在于,所述人机交互包括以下步骤:
采集第一数据,所述第一数据至少包括声音、图像、3D空间数据、传感器数据和来自第三方装置的数据中的一种;
对所采集到的所述第一数据进行识别,得到识别结果;
向至少一个第三方装置发送所述识别结果,和/或,当所述识别结果满足预设条件时,基于所述识别结果通过预设方式向所述目标物发送通知;
所述预设方式包括以下方式中的一种或任意组合:声音、灯光、裸眼3D显像、图像投影、图像投屏。
6.根据权利要求1或3所述的方法,其特征在于,所述人机交互包括以下步骤:
获取所述目标物对应的第一信息;
获取与所述第一信息对应的第二信息;
获取与所述第二信息对应的第三信息;
通过图像投影、图像投屏、VR、AR或裸眼3D显像的方式显示所述第三信息,和/或,通过声音播放所述第三信息,和/或,基于所述第三信息进行灯光指示;
所述第一信息至少包含以下信息中的一项或任意组合:声音、手势、表情、姿势、图像、3D空间信息、与第三方通信获取的信息。
7.根据权利要求1或3所述的方法,其特征在于,所述人机交互包括以下步骤:
获取所述目标物对应的第一信息;
获取所述第一信息对应的指令;
获取所述指令对应的指令参数;
根据所述指令和/或所述指令参数设置对应的设备或软件,和/或,根据所述指令与对应的设备通信并将所述指令和/或所述指令参数发送至所述设备,然后将获取到的所述设备的应答信息推送给所述目标物。
8.根据权利要求1或3所述的方法,其特征在于,所述人机交互包括:
通过人机交互为所述目标物进行导航和/或提醒。
9.一种飞行器,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-8中任一所述的方法。
10.一种计算机可读介质,其上存储有计算机程序,其中,该程序被处理器执行时实现如权利要求1-8中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910131557.1A CN111610850A (zh) | 2019-02-22 | 2019-02-22 | 一种基于无人机进行人机交互的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910131557.1A CN111610850A (zh) | 2019-02-22 | 2019-02-22 | 一种基于无人机进行人机交互的方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111610850A true CN111610850A (zh) | 2020-09-01 |
Family
ID=72193720
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910131557.1A Pending CN111610850A (zh) | 2019-02-22 | 2019-02-22 | 一种基于无人机进行人机交互的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111610850A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112214105A (zh) * | 2020-09-04 | 2021-01-12 | 中国航空无线电电子研究所 | 一种基于任务驱动的多通道3d实感无人机控制交互方法 |
CN114035689A (zh) * | 2021-11-26 | 2022-02-11 | 朱芳程 | 一种基于人工智能的可追随飞行人机交互系统和方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106227231A (zh) * | 2016-07-15 | 2016-12-14 | 深圳奥比中光科技有限公司 | 无人机的控制方法、体感交互装置以及无人机 |
US20180088677A1 (en) * | 2016-09-29 | 2018-03-29 | Alibaba Group Holding Limited | Performing operations based on gestures |
CN109032340A (zh) * | 2018-06-29 | 2018-12-18 | 百度在线网络技术(北京)有限公司 | 用于电子设备的操作方法和装置 |
-
2019
- 2019-02-22 CN CN201910131557.1A patent/CN111610850A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106227231A (zh) * | 2016-07-15 | 2016-12-14 | 深圳奥比中光科技有限公司 | 无人机的控制方法、体感交互装置以及无人机 |
US20180088677A1 (en) * | 2016-09-29 | 2018-03-29 | Alibaba Group Holding Limited | Performing operations based on gestures |
CN109032340A (zh) * | 2018-06-29 | 2018-12-18 | 百度在线网络技术(北京)有限公司 | 用于电子设备的操作方法和装置 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112214105A (zh) * | 2020-09-04 | 2021-01-12 | 中国航空无线电电子研究所 | 一种基于任务驱动的多通道3d实感无人机控制交互方法 |
CN114035689A (zh) * | 2021-11-26 | 2022-02-11 | 朱芳程 | 一种基于人工智能的可追随飞行人机交互系统和方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10831197B2 (en) | Personality sharing among drone swarm | |
US10140987B2 (en) | Aerial drone companion device and a method of operating an aerial drone companion device | |
US11126833B2 (en) | Artificial intelligence apparatus for recognizing user from image data and method for the same | |
US11605379B2 (en) | Artificial intelligence server | |
KR20210039049A (ko) | 음성 인식을 수행하는 인공 지능 장치 및 그 방법 | |
WO2020015682A1 (zh) | 无人机控制系统和方法 | |
US11568239B2 (en) | Artificial intelligence server and method for providing information to user | |
US11200075B2 (en) | Artificial intelligence apparatus and method for extracting user's concern | |
US10872438B2 (en) | Artificial intelligence device capable of being controlled according to user's gaze and method of operating the same | |
US10846326B2 (en) | System and method for controlling camera and program | |
US20190354178A1 (en) | Artificial intelligence device capable of being controlled according to user action and method of operating the same | |
US20190392382A1 (en) | Refrigerator for managing item using artificial intelligence and operating method thereof | |
US20210239338A1 (en) | Artificial intelligence device for freezing product and method therefor | |
CN111610850A (zh) | 一种基于无人机进行人机交互的方法 | |
CN111767831A (zh) | 用于处理图像的方法、装置、设备及存储介质 | |
US11449074B2 (en) | Robot for providing guidance service using artificial intelligence and method of operating the same | |
CN109189082B (zh) | 用于控制移动机器人的方法、装置和控制系统 | |
CN113391627A (zh) | 无人车驾驶模式切换方法、设备、车辆及云端服务器 | |
US20210137311A1 (en) | Artificial intelligence device and operating method thereof | |
CN115082690B (zh) | 目标识别方法、目标识别模型训练方法及装置 | |
CN111605707A (zh) | 一种作为智能助手的无人机装置 | |
CN111614393A (zh) | 一种基于无人机进行多媒体交互的方法 | |
CN111614392A (zh) | 一种基于无人机进行信息交互的方法 | |
CN111605705A (zh) | 一种作为智能助手的无人机装置 | |
CN111605706A (zh) | 一种作为智能助手的无人机装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20200901 |