CN108345844A - 控制无人机拍摄的方法及装置、虚拟现实设备及系统 - Google Patents

控制无人机拍摄的方法及装置、虚拟现实设备及系统 Download PDF

Info

Publication number
CN108345844A
CN108345844A CN201810079478.6A CN201810079478A CN108345844A CN 108345844 A CN108345844 A CN 108345844A CN 201810079478 A CN201810079478 A CN 201810079478A CN 108345844 A CN108345844 A CN 108345844A
Authority
CN
China
Prior art keywords
eyes
eye
state
user
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810079478.6A
Other languages
English (en)
Other versions
CN108345844B (zh
Inventor
袁杭良
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Goertek Robotics Co Ltd
Original Assignee
Goertek Robotics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Goertek Robotics Co Ltd filed Critical Goertek Robotics Co Ltd
Priority to CN201810079478.6A priority Critical patent/CN108345844B/zh
Publication of CN108345844A publication Critical patent/CN108345844A/zh
Application granted granted Critical
Publication of CN108345844B publication Critical patent/CN108345844B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种控制无人机拍摄的方法及装置、虚拟现实设备及系统,该方法包括:获取虚拟现实设备的内置摄像头拍摄得到的用户眼睛图像;根据预先训练得到的用户眼睛状态识别模型,确定用户眼睛图像对应的眼睛状态,其中,所述眼睛状态包括睁眼状态、闭眼状态和眯眼状态;从连续帧用户眼睛图像中,确定位于相邻两次睁眼状态之间的、闭眼状态和眯眼状态对应的用户眼睛图像的第一帧数;判断所述第一帧数是否超过预设的第一帧数阈值,得到第一判断结果;在所述第一判断结果为是的情况下,向无人机发送拍摄指令。根据本发明的一个实施例,解放了用户的双手,提高了人机交互体验。

Description

控制无人机拍摄的方法及装置、虚拟现实设备及系统
技术领域
本发明涉及无人机技术领域,更具体地,涉及一种控制无人机拍摄的方法、一种控制无人机拍摄的装置、一种虚拟现实设备和一种虚拟现实系统。
背景技术
目前,用户FPV(First Person View,第一人称视角)飞行眼镜通常用于配合无人机使用。无人机装有摄像头,可将摄像头实时采集的图像传递至飞行眼镜。当用户佩戴飞行眼镜时,可通过飞行眼镜的显示屏幕观看无人机实时传递的图像。当用户观看到的图像满足其需求时,通过操控遥控器的拍摄按键,向无人机发送拍摄指令。无人机在接收到来自遥控器的拍摄指令后,对当前对准的画面进行拍摄。
上述飞行眼镜仅用于观看无人机实时回传的图像,并且用户需要通过操作遥控器向无人机发送拍摄指令,不能使用户的双手得到解放。
因此,需要提供一种新的技术方案,针对上述现有技术中的技术问题进行改进。
发明内容
本发明的一个目的是提供一种控制无人机拍摄的新技术方案。
根据本发明的第一方面,提供了一种控制无人机拍摄的方法,包括:
获取虚拟现实设备的内置摄像头拍摄得到的用户眼睛图像;
根据预先训练得到的用户眼睛状态识别模型,确定用户眼睛图像对应的眼睛状态,其中,所述眼睛状态包括睁眼状态、闭眼状态和眯眼状态;
从连续帧用户眼睛图像中,确定位于相邻两次睁眼状态之间的、闭眼状态和眯眼状态对应的用户眼睛图像的第一帧数;
判断所述第一帧数是否超过预设的第一帧数阈值,得到第一判断结果;
在所述第一判断结果为是的情况下,向无人机发送拍摄指令。
可选地,在所述第一判断结果为是的情况下,所述方法还包括:
确定位于相邻两次睁眼状态之间的、闭眼状态对应的用户眼睛图像的第二帧数;
判断所述第二帧数是否超过预设的第二帧数阈值,得到第二判断结果;
在所述第二判断结果为是的情况下,向所述无人机发送拍摄指令。
可选地,在获取摄像头拍摄得到的用户眼睛图像之前,所述方法还包括:
将不同眼睛状态的图像输入至深度学习神经网络中,训练得到用户眼睛状态识别模型,其中,所述用户眼睛状态识别模型包括睁眼状态识别模型、闭眼状态识别模型和眯眼状态识别模型。
可选地,在获取摄像头拍摄得到的用户眼睛图像之前,所述方法还包括:
获取虚拟现实设备的内置压力传感器测量得到的压力值;
在所述压力值超过预设压力阈值的情况下,开启所述摄像头,以对用户眼睛进行拍摄。
可选地,从连续帧用户眼睛图像中,确定位于相邻两次睁眼状态之间的、闭眼状态和眯眼状态对应的用户眼睛图像的第一帧数,包括:
从连续帧用户眼睛图像中,选取出相邻两次睁眼状态分别对应的第一用户眼睛图像和第二用户眼睛图像,其中,所述第一用户眼睛图像的下一帧用户眼睛图像的眼睛状态为眯眼状态或闭眼状态,所述第二用户眼睛图像的上一帧用户眼睛图像的眼睛状态为眯眼状态或闭眼状态;
确定位于所述第一用户眼睛图像和所述第二眼睛图像之间的用户眼睛图像的第一帧数。
可选地,所述用户眼睛图像为包括有用户左眼和/或用户右眼的图像。
根据本发明的第二方面,提供了一种控制无人机拍摄的装置,包括:
获取模块,用于获取虚拟现实设备的内置摄像头拍摄得到的用户眼睛图像;
眼睛状态确定模块,用于根据预先训练得到的用户眼睛状态识别模型,确定用户眼睛图像对应的眼睛状态,其中,所述眼睛状态包括睁眼状态、闭眼状态和眯眼状态;
第一帧数确定模块,用于从连续帧用户眼睛图像中,确定位于相邻两次睁眼状态之间的、闭眼状态和眯眼状态对应的用户眼睛图像的第一帧数;
第一判断模块,用于判断所述第一帧数是否超过预设的第一帧数阈值,得到第一判断结果;
发送指令模块,用于在所述第一判断结果为是的情况下,向无人机发送拍摄指令。
根据本发明的第四方面,提供了一种控制无人机拍摄的装置,包括:存储器和处理器,其中,所述存储器存储可执行指令,所述可执行指令控制所述处理器进行操作以执行上述任一方面所述的控制无人机拍摄的方法。
根据本发明的第五方面,提供了一种虚拟现实设备,包括上述任一方面所述的控制无人机拍摄的装置。
根据本发明的第六方面,提供了一种虚拟现实系统,包括:无人机和上述任一方面所述的虚拟现实设备,其中,所述无人机和所述虚拟现实设备建立通信连接,所述无人机用于将无人机拍摄的图像发送至所述虚拟现实设备,所述无人机还用于执行所述虚拟现实设备发送的拍摄指令。
本发明提供的控制无人机拍摄的方法及装置、虚拟现实设备和系统,不再需要用户通过遥控器操控无人机执行拍摄操作,解放了用户的双手,同时提高了人机交互体验。
通过以下参照附图对本发明的示例性实施例的详细描述,本发明的其它特征及其优点将会变得清楚。
附图说明
被结合在说明书中并构成说明书的一部分的附图示出了本发明的实施例,并且连同其说明一起用于解释本发明的原理。
图1示出了根据本发明一个实施例的控制无人机拍摄的方法的处理流程图。
图2示出了根据本发明一个实施例的控制无人机拍摄的方法的另一种处理流程图。
图3示出了根据本发明一个实施例的控制无人机拍摄的装置的结构示意图。
图4示出了根据本发明一个实施例的控制无人机拍摄的装置的另一种结构示意图。
图5示出了根据本发明一个实施例的控制无人机拍摄的装置的硬件结构示意图。
图6示出了根据本发明一个实施例的虚拟现实设备的结构示意图。
图7示出了根据本发明一个实施例的虚拟现实设备的硬件结构示意图。
图8示出了根据本发明一个实施例的虚拟现实系统的结构示意图。
具体实施方式
现在将参照附图来详细描述本发明的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本发明的范围。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本发明及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
在这里示出和讨论的所有例子中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它例子可以具有不同的值。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
本发明的一个实施例提供了一种控制无人机拍摄的方法。本发明实施例涉及的无人机装有摄像头,可将摄像头实时采集的图像传递至虚拟现实设备。当用户佩戴虚拟现实设备时,可通过虚拟现实设备的显示屏幕观看无人机实时传递的图像。当用户确定其观看到的图像满足需求时,可通过本发明实施例提供的控制无人机拍摄的方法,控制无人机进行拍摄操作。本发明实施例涉及的虚拟现实设备可为FPV飞行眼镜和虚拟现实头盔中任一种。
图1示出了根据本发明一个实施例的控制无人机拍摄的方法的处理流程图。参见图1,该方法至少包括步骤S101至步骤S105。
步骤S101,获取虚拟现实设备的内置摄像头拍摄得到的用户眼睛图像。
在虚拟现实设备中设置有一个摄像头,该摄像头可用于拍摄用户左眼,或者,可用于拍摄用户右眼。或者,在虚拟现实设备中设置有两个摄像头,其中,一个摄像头用于拍摄用户左眼,另一个摄像头用于拍摄用户右眼。
当虚拟现实设备中设置有一个摄像头时,内置摄像头拍摄的用户眼睛图像为包括有用户左眼的图像或者包括有用户右眼的图像。当虚拟现实设备中设置有两个摄像头时,一个摄像头拍摄的用户眼睛图像为包括有用户左眼的图像,另一个摄像头拍摄的用户眼睛图像为包括有用户右眼的图像。
参见图2,在步骤S101获取摄像头拍摄得到的用户眼睛图像之前,该方法还包括:步骤S106,获取虚拟现实设备的内置压力传感器测量得到的压力值;步骤S107,在压力值超过预设压力阈值的情况下,开启摄像头,以对用户眼睛进行拍摄。在内置压力传感器测量得到的压力值超过预设压力阈值时,可确定用户已佩戴虚拟现实设备,然后,开启该虚拟现实设备的内置摄像头,以对用户眼睛进行拍摄。在压力值未超过预设压力阈值的情况下,可确定用户未佩戴虚拟现实设备,进而不会开启内置摄像头。这样,虚拟现实设备不需要对用户未佩戴虚拟现实设备时内置摄像头拍摄的用户眼睛图像进行处理,增加了虚拟现实设备的续航时间。
参见图2,在步骤S101获取摄像头拍摄得到的用户眼睛图像之前,该方法还包括:步骤S108,将不同眼睛状态的图像输入至深度学习神经网络中,训练得到用户眼睛状态识别模型,其中,用户眼睛状态识别模型包括睁眼状态识别模型、闭眼状态识别模型和眯眼状态识别模型。
不同眼睛状态的图像包括有样本数据和测试数据。首先,将样本数据和测试数据处理成具有相同高度和宽度的灰度图像,其中,灰度图像的高度可为[32,64]中任意值,灰度图像的宽度可为[64,96]中任意值。然后,将处理后的样本数据输入至深度学习神经网络中,得到初步眼睛状态识别模型。其中,该样本数据包括有N1个闭眼状态图像、N2个眯眼状态图像和N3个睁眼状态图像。例如,N1≥2000,N2≥2000,N3≥2000。然后,利用初步眼睛状态识别模型对处理后的测试数据进行反复训练,直至模型收敛,将收敛的模型作为用户眼睛状态识别模型。其中,测试数据包括有M1个闭眼状态图像、M2个眯眼状态图像和M3个睁眼状态图像。例如,M1≥100,M2≥100,M3≥100。
深度学习神经网络包括输入层、隐藏层和输出层。输入层用于接收样本数据或者测试数据。隐藏层用于对输入层接收到的数据进行加工处理。输出层用于输出对输入的样本数据或者测试数据的认知。通过激活函数和损失函数,对输入层接收到的数据进行加工处理,得到用户眼睛状态识别模型。
本发明的一个实施例中,利用TensorFlow深度学习神经网络对不同眼睛状态的图像进行训练,得到用户眼睛状态识别模型。需要说明地是,TensorFlow是一个采用数据流图(data flow graphs),用于数值计算的开源软件库。Tensor(张量)意味着N维数组,Flow(流)意味着基于数据流图的计算,TensorFlow为张量从图像的一端流动到另一端计算过程。节点(Nodes)在图中表示数学操作,图中的线(edges)则表示在节点间相互联系的多维数据数组,即张量(tensor)。
步骤S102,根据预先训练得到的用户眼睛状态识别模型,确定用户眼睛图像对应的眼睛状态,其中,眼睛状态包括睁眼状态、闭眼状态和眯眼状态。
本发明的一个实施例中,将用户眼睛图像分别输入至睁眼状态识别模型、闭眼状态识别模型和眯眼状态识别模型中,得到用户眼睛图像分别与上述三个识别模型的匹配程度。然后,根据该三个匹配程度值,确定用户眼睛图像对应的眼睛状态。
步骤S103,从连续帧用户眼睛图像中,确定位于相邻两次睁眼状态之间的、闭眼状态和眯眼状态对应的用户眼睛图像的第一帧数。
本发明的一个实施例中,首先,从连续帧用户眼睛图像中,选取出相邻两次睁眼状态分别对应的第一用户眼睛图像和第二用户眼睛图像,其中,第一用户眼睛图像的下一帧用户眼睛图像的眼睛状态为眯眼状态或闭眼状态,第二用户眼睛图像的上一帧用户眼睛图像的眼睛状态为眯眼状态或闭眼状态。即第一用户眼睛图像和第二用户眼睛图像之间的各图像的眼睛状态为闭眼状态和眯眼状态中任一种。然后,确定位于第一用户眼睛图像和第二眼睛图像之间的用户眼睛图像的第一帧数。
例如,第一帧至第四帧用户眼睛图像对应的眼睛状态均为睁眼状态,第五帧和第六帧用户眼睛图像对应的眼睛状态为眯眼状态,第七帧至第十七帧用户眼睛图像对应的眼睛状态为闭眼状态,第十八帧至第二十帧用户眼睛图像对应的眼睛状态为眯眼状态,第二十一帧至第二十五帧用户眼睛图像对应的眼睛状态为睁眼状态。此时,确定第四帧用户眼睛图像作为第一用户眼睛图像,以及选取第二十一帧用户眼睛图像作为第二用户眼睛图像。然后,确定位于第一帧用户眼睛图像和第二眼睛图像之间的用户眼睛图像的第一帧数。
步骤S104,判断第一帧数是否超过预设的第一帧数阈值。
用户眼睛进行一次眨眼操作时,眼睛状态依次为睁眼状态、眯眼状态、闭眼状态、眯眼状态和再次睁眼状态。根据眨眼的生理特点,正常人每一分钟要眨眼10-20次,每一次眨眼的时间约为0.2秒-0.4秒。当用户进行一次特意眨眼时,眨眼的时间比生理眨眼的时间长。即当用户进行生理眨眼时,位于相邻两次睁眼状态之间的、闭眼状态和眯眼状态对应的用户眼睛图像的第一帧数小于预设的第一帧数阈值;当用户进行特意眨眼时,位于相邻两次睁眼状态之间的、眼状态和眯眼状态对应的用户眼睛图像的第一帧数可超过预设的第一帧数阈值。
需要说明地是,虚拟现实设备的内置摄像头每秒拍摄的图像帧数可记录用户生理眨眼过程中或者用户特意眨眼过程中眼睛的各个状态。
步骤S105,在第一帧数超过预设的第一帧数阈值的情况下,向无人机发送拍摄指令。
在第一帧数超过预设的第一帧数阈值的情况下,可确定用户眨眼为特意眨眼,此时,虚拟现实设备向无人机发送拍摄指令。在第一帧数未超过预设的第一帧数阈值的情况下,可确定用户眨眼为生理眨眼,虚拟现实设备拒绝向无人机发送拍摄指令。
本发明的一个实施例中,拍摄指令可为拍照指令和摄像指令中任一种。
参见图2,在第一帧数超过预设的第一帧数阈值的情况下,本发明的一个实施例中,还需要进行以下操作步骤:步骤S109,确定位于相邻两次睁眼状态之间的、闭眼状态对应的用户眼睛图像的第二帧数;步骤S110,判断第二帧数是否超过预设的第二帧数阈值;步骤S111,在第二帧数超过预设的第二帧数阈值的情况下,向无人机发送拍摄指令。在第二帧数未超过预设的第二帧数阈值的情况下,可确定用户眨眼为生理眨眼,虚拟现实设备拒绝向无人机发送拍摄指令。这样,提高了判断用户眨眼是否为特意眨眼的准确性。
本发明的一个实施例中,当虚拟现实设备中设置有两个摄像头,内置摄像头拍摄的用户眼睛图像为包括有用户左眼图像和用户右眼图像时,分别确定用户左眼图像对应的眼睛状态和用户右眼对应的眼睛状态。然后,从连续帧用户左眼图像中,确定位于相邻两次睁眼状态之间的、闭眼状态和眯眼状态对应的用户左眼图像的第一帧数,以及从连续帧用户右眼图像中,确定位于相邻两次睁眼状态之间的、闭眼状态和眯眼状态对应的用户右眼图像的第一帧数。接着,判断位于相邻两次睁眼状态之间的、闭眼状态和眯眼状态对应的用户左眼图像的第一帧数是否超过第一帧数阈值,以及判断位于相邻两次睁眼状态之间的、闭眼状态和眯眼状态对应的用户右眼图像的第一帧数是否超过第一帧数阈值,得到第一判断结果。在位于相邻两次睁眼状态之间的、闭眼状态和眯眼状态对应的用户左眼图像的第一帧数超过第一帧数阈值,以及于相邻两次睁眼状态之间的、闭眼状态和眯眼状态对应的用户右眼图像的第一帧数超过第一帧数阈值时,向无人机发送拍摄指令。
基于同一发明构思,本发明提供了一种控制无人机拍摄的装置。
图3示出了根据本发明一个实施例的控制无人机拍摄的装置的结构示意图。参见图3,该装置至少包括:获取模块310,用于获取虚拟现实设备的内置摄像头拍摄得到的用户眼睛图像;眼睛状态确定模块320,用于根据预先训练得到的用户眼睛状态识别模型,确定用户眼睛图像对应的眼睛状态,其中,所述眼睛状态包括睁眼状态、闭眼状态和眯眼状态;第一帧数确定模块330,用于从连续帧用户眼睛图像中,确定位于相邻两次睁眼状态之间的、闭眼状态和眯眼状态对应的用户眼睛图像的第一帧数;第一判断模块340,用于判断所述第一帧数是否超过预设的第一帧数阈值,得到第一判断结果;发送指令模块350,用于在所述第一判断结果为是的情况下,向无人机发送拍摄指令。
参见图4,在第一判断模块340的判断结果为是的情况下,该装置还包括:第二帧数确定模块360,用于确定位于相邻两次睁眼状态之间的、闭眼状态对应的用户眼睛图像的第二帧数;第二判断模块370,用于判断第二帧数是否超过预设的第二帧数阈值,得到第二判断结果;在第二判断结果为是的情况下,发送指令模块350向无人机发送拍摄指令。
图5示出了根据本发明一个实施例的控制无人机拍摄的装置的硬件性结构示意图。参见图5,该装置至少包括存储器520和处理器510。存储器520存储可执行指令,可执行指令控制处理器510进行操作以执行上述任一实施例提供的控制无人机拍摄的方法。
基于同一发明构思,本发明提供了一种虚拟现实设备。图6示出了根据本发明一个实施例的虚拟现实设备的结构示意图。参见图6,该虚拟现实设备600至少包括上述任一实施例提供的控制无人机拍摄的装置610。
图7示出了根据本发明一个实施例的虚拟现实设备的硬件结构示意图。参见图7,虚拟现实设备700可以包括处理器710、存储器720、显示装置730、通信装置740、摄像装置750、压力传感器760,等等。
处理器710例如可以是中央处理器CPU、微处理器MCU等。
存储器720例如包括ROM(只读存储器)、RAM(随机存取存储器)、诸如硬盘的非易失性存储器等。
通信装置740例如能够进行有有线或无线通信。
图7所示的虚拟现实设备仅是解释性的,并且决不是为了要限制本发明、其应用或用途。
在这个实施例中,所述存储器720用于存储指令,所述指令用于控制所述处理器710进行操作以执行图1所示的控制无人机拍摄的方法。
本领域技术人员应当理解,尽管在图7中示出了多个装置,但是,本发明可以仅涉及其中的部分装置,例如,处理器710和存储器720等。技术人员可以根据本发明所公开方案设计指令。指令如何控制处理器进行操作,这是本领域公知,故在此不再详细描述。
基于同一发明构思,本发明提供了一种虚拟现实系统。图8示出了根据本发明一个实施例的虚拟现实系统的结构示意图。参见图8,该虚拟现实系统包括无人机810和上述任一实施例提供的虚拟现实设备820。其中,无人机810和虚拟现实设备820建立通信连接。
无人机810用于将无人机拍摄的图像发送至虚拟现实设备820。虚拟现实设备820可显示无人机拍摄的图像。用户可通过虚拟现实设备820的显示屏观看无人机拍摄的图像。当用户确定当前播放的图像满足其需求时,用户进行一次特意眨眼。虚拟现实设备820可采集用户特意眨眼过程中的用户眼睛图像。然后,虚拟现实设备820可执行上述步骤S102至步骤S104的操作,确定出用户进行了一次特意眨眼操作,进而向无人机810发送拍摄指令。无人机810在接收到该拍摄指令后,进行相应的操作。
本发明可以是系统、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本发明的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本发明操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本发明的各个方面。
这里参照根据本发明实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本发明的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本发明的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。对于本领域技术人员来说公知的是,通过硬件方式实现、通过软件方式实现以及通过软件和硬件结合的方式实现都是等价的。
以上已经描述了本发明的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。本发明的范围由所附权利要求来限定。

Claims (10)

1.一种控制无人机拍摄的方法,其特征在于,包括:
获取虚拟现实设备的内置摄像头拍摄得到的用户眼睛图像;
根据预先训练得到的用户眼睛状态识别模型,确定用户眼睛图像对应的眼睛状态,其中,所述眼睛状态包括睁眼状态、闭眼状态和眯眼状态;
从连续帧用户眼睛图像中,确定位于相邻两次睁眼状态之间的、闭眼状态和眯眼状态对应的用户眼睛图像的第一帧数;
判断所述第一帧数是否超过预设的第一帧数阈值,得到第一判断结果;
在所述第一判断结果为是的情况下,向无人机发送拍摄指令。
2.根据权利要求1所述的方法,其特征在于,在所述第一判断结果为是的情况下,所述方法还包括:
确定位于相邻两次睁眼状态之间的、闭眼状态对应的用户眼睛图像的第二帧数;
判断所述第二帧数是否超过预设的第二帧数阈值,得到第二判断结果;
在所述第二判断结果为是的情况下,向所述无人机发送拍摄指令。
3.根据权利要求1所述的方法,其特征在于,在获取摄像头拍摄得到的用户眼睛图像之前,所述方法还包括:
将不同眼睛状态的图像输入至深度学习神经网络中,训练得到用户眼睛状态识别模型,其中,所述用户眼睛状态识别模型包括睁眼状态识别模型、闭眼状态识别模型和眯眼状态识别模型。
4.根据权利要求1所述的方法,其特征在于,在获取摄像头拍摄得到的用户眼睛图像之前,所述方法还包括:
获取虚拟现实设备的内置压力传感器测量得到的压力值;
在所述压力值超过预设压力阈值的情况下,开启所述摄像头,以对用户眼睛进行拍摄。
5.根据权利要求1所述的方法,其特征在于,从连续帧用户眼睛图像中,确定位于相邻两次睁眼状态之间的、闭眼状态和眯眼状态对应的用户眼睛图像的第一帧数,包括:
从连续帧用户眼睛图像中,选取出相邻两次睁眼状态分别对应的第一用户眼睛图像和第二用户眼睛图像,其中,所述第一用户眼睛图像的下一帧用户眼睛图像的眼睛状态为眯眼状态或闭眼状态,所述第二用户眼睛图像的上一帧用户眼睛图像的眼睛状态为眯眼状态或闭眼状态;
确定位于所述第一用户眼睛图像和所述第二眼睛图像之间的用户眼睛图像的第一帧数。
6.根据权利要求1-5中任一所述的方法,其特征在于,所述用户眼睛图像为包括有用户左眼和/或用户右眼的图像。
7.一种控制无人机拍摄的装置,其特征在于,包括:
获取模块,用于获取虚拟现实设备的内置摄像头拍摄得到的用户眼睛图像;
眼睛状态确定模块,用于根据预先训练得到的用户眼睛状态识别模型,确定用户眼睛图像对应的眼睛状态,其中,所述眼睛状态包括睁眼状态、闭眼状态和眯眼状态;
第一帧数确定模块,用于从连续帧用户眼睛图像中,确定位于相邻两次睁眼状态之间的、闭眼状态和眯眼状态对应的用户眼睛图像的第一帧数;
第一判断模块,用于判断所述第一帧数是否超过预设的第一帧数阈值,得到第一判断结果;
发送指令模块,用于在所述第一判断结果为是的情况下,向无人机发送拍摄指令。
8.一种控制无人机拍摄的装置,其特征在于,包括:存储器和处理器,其中,所述存储器存储可执行指令,所述可执行指令控制所述处理器进行操作以执行根据权利要求1‐6中的任何一项所述的控制无人机拍摄的方法。
9.一种虚拟现实设备,其特征在于,包括如权利要求7或8所述的控制无人机拍摄的装置。
10.一种虚拟现实系统,其特征在于,包括:无人机和如权利要求9所述的虚拟现实设备,其中,所述无人机和所述虚拟现实设备建立通信连接,所述无人机用于将无人机拍摄的图像发送至所述虚拟现实设备,所述无人机还用于执行所述虚拟现实设备发送的拍摄指令。
CN201810079478.6A 2018-01-26 2018-01-26 控制无人机拍摄的方法及装置、虚拟现实设备及系统 Active CN108345844B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810079478.6A CN108345844B (zh) 2018-01-26 2018-01-26 控制无人机拍摄的方法及装置、虚拟现实设备及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810079478.6A CN108345844B (zh) 2018-01-26 2018-01-26 控制无人机拍摄的方法及装置、虚拟现实设备及系统

Publications (2)

Publication Number Publication Date
CN108345844A true CN108345844A (zh) 2018-07-31
CN108345844B CN108345844B (zh) 2020-11-20

Family

ID=62961254

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810079478.6A Active CN108345844B (zh) 2018-01-26 2018-01-26 控制无人机拍摄的方法及装置、虚拟现实设备及系统

Country Status (1)

Country Link
CN (1) CN108345844B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111079679A (zh) * 2019-12-23 2020-04-28 广东小天才科技有限公司 一种眼睛疲惫值判断方法、装置、设备及存储介质
CN112306226A (zh) * 2019-07-29 2021-02-02 宏达国际电子股份有限公司 眼动跟踪方法、头戴式显示器以及计算机可读存储介质

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102393796A (zh) * 2011-07-25 2012-03-28 金宇 基于眨眼特征提取的控制方法及基于该方法的拍摄眼镜
CN102981616A (zh) * 2012-11-06 2013-03-20 中兴通讯股份有限公司 增强现实中对象的识别方法及系统和计算机
CN104573704A (zh) * 2013-10-09 2015-04-29 爱信精机株式会社 眼部检测装置、方法
CN104932679A (zh) * 2014-03-21 2015-09-23 三星电子株式会社 可穿戴设备及其操作方法
US20160025971A1 (en) * 2014-07-25 2016-01-28 William M. Crow Eyelid movement as user input
CN105334864A (zh) * 2015-11-24 2016-02-17 杨珊珊 一种用于控制无人机的智能眼镜及控制方法
CN105676458A (zh) * 2016-04-12 2016-06-15 王鹏 可穿戴计算装置及其控制方法以及具有它的可穿戴设备
CN106598214A (zh) * 2016-11-02 2017-04-26 歌尔科技有限公司 用于虚拟现实设备的功能触发方法、装置及虚拟现实设备
US20170270636A1 (en) * 2016-03-16 2017-09-21 RaayonNova LLC Smart Contact Lens with Eye Driven Control System and Method
US20170330042A1 (en) * 2010-06-04 2017-11-16 Masoud Vaziri Method and apparatus for an eye tracking wearable computer

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170330042A1 (en) * 2010-06-04 2017-11-16 Masoud Vaziri Method and apparatus for an eye tracking wearable computer
CN102393796A (zh) * 2011-07-25 2012-03-28 金宇 基于眨眼特征提取的控制方法及基于该方法的拍摄眼镜
CN102981616A (zh) * 2012-11-06 2013-03-20 中兴通讯股份有限公司 增强现实中对象的识别方法及系统和计算机
CN104573704A (zh) * 2013-10-09 2015-04-29 爱信精机株式会社 眼部检测装置、方法
CN104932679A (zh) * 2014-03-21 2015-09-23 三星电子株式会社 可穿戴设备及其操作方法
US20160025971A1 (en) * 2014-07-25 2016-01-28 William M. Crow Eyelid movement as user input
CN105334864A (zh) * 2015-11-24 2016-02-17 杨珊珊 一种用于控制无人机的智能眼镜及控制方法
US20170270636A1 (en) * 2016-03-16 2017-09-21 RaayonNova LLC Smart Contact Lens with Eye Driven Control System and Method
CN105676458A (zh) * 2016-04-12 2016-06-15 王鹏 可穿戴计算装置及其控制方法以及具有它的可穿戴设备
CN106598214A (zh) * 2016-11-02 2017-04-26 歌尔科技有限公司 用于虚拟现实设备的功能触发方法、装置及虚拟现实设备

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112306226A (zh) * 2019-07-29 2021-02-02 宏达国际电子股份有限公司 眼动跟踪方法、头戴式显示器以及计算机可读存储介质
CN112306226B (zh) * 2019-07-29 2024-02-23 宏达国际电子股份有限公司 眼动跟踪方法、头戴式显示器以及计算机可读存储介质
CN111079679A (zh) * 2019-12-23 2020-04-28 广东小天才科技有限公司 一种眼睛疲惫值判断方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN108345844B (zh) 2020-11-20

Similar Documents

Publication Publication Date Title
Yu et al. Improving few-shot user-specific gaze adaptation via gaze redirection synthesis
CN108921022A (zh) 一种人体属性识别方法、装置、设备及介质
CN111914628B (zh) 人脸识别模型的训练方法和装置
JP7181316B2 (ja) Hmd環境での高速中心窩レンダリングのための予測及びgpuに対する最新の更新を伴う視線追跡
CN106686365A (zh) 用于头戴显示设备的镜头调节方法、装置及头戴显示设备
CN111768386A (zh) 产品缺陷检测方法、装置、电子设备和存储介质
CN110766776B (zh) 生成表情动画的方法及装置
CN106295567A (zh) 一种关键点的定位方法及终端
CN108764069A (zh) 活体检测方法及装置
CN109445103B (zh) 显示画面的更新方法及装置、储存介质、电子装置
CN108846365A (zh) 视频中打架行为的检测方法、装置、存储介质及处理器
CN107610044A (zh) 图像处理方法、计算机可读存储介质及虚拟现实头戴设备
CN110570383B (zh) 一种图像处理方法、装置、电子设备及存储介质
CN110349135A (zh) 目标检测方法和装置
KR20200018411A (ko) 전극편의 버를 검출하기 위한 방법 및 장치
CN108829627A (zh) 虚拟现实设备间的同步控制方法及系统
CN108491823A (zh) 用于生成人眼识别模型的方法和装置
CN108196258A (zh) 外接设备的位置的确定方法及装置、虚拟现实设备及系统
CN108345844A (zh) 控制无人机拍摄的方法及装置、虚拟现实设备及系统
CN108415653A (zh) 用于终端设备的锁屏方法和装置
US20230048386A1 (en) Method for detecting defect and method for training model
CN107798675A (zh) 显示图像中拖影的检测方法及装置
CN111311973A (zh) 一种配网不停电作业的仿真模拟考核系统
CN109696953A (zh) 虚拟现实文字显示的方法、装置和虚拟现实设备
CN108877771A (zh) 数据处理方法、存储介质和电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant