CN109478061A - 基于目标的图像曝光调整 - Google Patents
基于目标的图像曝光调整 Download PDFInfo
- Publication number
- CN109478061A CN109478061A CN201680087802.8A CN201680087802A CN109478061A CN 109478061 A CN109478061 A CN 109478061A CN 201680087802 A CN201680087802 A CN 201680087802A CN 109478061 A CN109478061 A CN 109478061A
- Authority
- CN
- China
- Prior art keywords
- target
- image
- imaging device
- loose impediment
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 claims abstract description 193
- 238000000034 method Methods 0.000 claims abstract description 35
- 230000033001 locomotion Effects 0.000 claims description 22
- 238000003860 storage Methods 0.000 claims description 14
- 238000005259 measurement Methods 0.000 description 42
- 238000004891 communication Methods 0.000 description 37
- 230000007246 mechanism Effects 0.000 description 32
- 238000012545 processing Methods 0.000 description 15
- 230000008859 change Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 8
- 230000004044 response Effects 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 230000001965 increasing effect Effects 0.000 description 5
- 230000004888 barrier function Effects 0.000 description 4
- 230000001413 cellular effect Effects 0.000 description 4
- 238000000691 measurement method Methods 0.000 description 4
- 238000010276 construction Methods 0.000 description 3
- 238000013500 data storage Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000035945 sensitivity Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000005352 clarification Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 230000014759 maintenance of location Effects 0.000 description 2
- 229910044991 metal oxide Inorganic materials 0.000 description 2
- 150000004706 metal oxides Chemical class 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000004091 panning Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013016 damping Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003331 infrared imaging Methods 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000001141 propulsive effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D47/00—Equipment not otherwise provided for
- B64D47/08—Arrangements of cameras
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0038—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0094—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/12—Target-seeking control
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft, e.g. air-traffic control [ATC]
- G08G5/0047—Navigation or guidance aids for a single aircraft
- G08G5/0069—Navigation or guidance aids for a single aircraft specially adapted for an unmanned aircraft
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/71—Circuitry for evaluating the brightness variation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/72—Combination of two or more compensation controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U10/00—Type of UAV
- B64U10/10—Rotorcrafts
- B64U10/13—Flying platforms
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U10/00—Type of UAV
- B64U10/10—Rotorcrafts
- B64U10/13—Flying platforms
- B64U10/14—Flying platforms with four distinct rotor axes, e.g. quadcopters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/20—Remote controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U30/00—Means for producing lift; Empennages; Arrangements thereof
- B64U30/20—Rotors; Rotor supports
Landscapes
- Engineering & Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Studio Devices (AREA)
Abstract
使用用于在使用安装在可移动物体上的成像设备连续跟踪一个或多个目标的同时调整图像曝光的系统、方法和/或设备。接收用于成像的目标的用户指示。成像设备确定目标的第一表示。成像设备捕获包括目标的第一表示的第一图像。使用与目标的第一表示相对应的数据来确定成像设备的曝光参数。成像设备确定目标的第二表示。成像设备捕获包括目标的第二表示的第二图像。使用第二图像中与目标的第二表示相对应的数据,调整成像设备的曝光参数。
Description
技术领域
所公开的实施例总体上涉及调整图像的曝光,并且更具体地但不排他地涉及调整所指示的目标的图像的曝光。
背景技术
曝光是对到达成像设备的图像传感器的光量的指示。通常,成像设备测量亮度级以确定将导致图像的最佳曝光的曝光参数。例如,如果所测量的亮度级较低,则可以使用降低的快门速度(例如,以允许光到达图像传感器的时间更长)、增加的光圈直径(例如,以允许更多的光通过光圈)、和/或增加的ISO感光度(ISO speed)设置(例如,以增加图像感测器对光的敏感度)来捕获图像。如果所测量的亮度级较高,则可以使用增加的快门速度、减小的光圈直径和/或降低的ISO感光度设置来捕获图像。各种测量模式测量在图像的特定区域(例如,图像帧的中心和/或图像帧的多个部分)处的光,以确定图像的最佳曝光参数。
发明内容
需要一种基于图像帧内的图像目标的表示的位置来调整图像曝光的系统和方法。当目标已知时,关于目标的表示的位置的信息可用作用于确定到一个或多个曝光参数的系统的输入。这样的系统和方法可选地补充或替换用于调整图像曝光的常规方法。
根据一些实施例,一种用于调整图像曝光的方法包括:在使用安装在可移动物体上的成像设备连续跟踪一个或多个目标时,接收用于成像的目标的用户指示;通过所述成像设备确定所述目标的第一表示;捕获包括目标的第一表示的第一图像;使用所述第一图像中与所述目标的第一表示相对应的数据,确定所述成像设备的曝光参数;通过所述成像设备确定所述目标的第二表示;通过所述成像设备捕获包括所述目标的第二表示的第二图像;以及使用所述第二图像中与所述目标的第二表示相对应的数据,调整所述成像设备的曝光参数。
根据一些实施例,一种无人机(UAV)包括:推进系统、成像设备以及与推进系统和成像设备耦合的一个或多个处理器。所述一个或多个处理器被配置为:在使用所述UAV的成像设备连续跟踪一个或多个目标时:接收用于成像的目标的用户指示;通过所述成像设备确定所述目标的第一表示;捕获包括所述目标的第一表示的第一图像;使用所述第一图像中与所述目标的第一表示相对应的数据,确定所述成像设备的曝光参数;通过所述成像设备确定所述目标的第二表示;通过所述成像设备捕获包括所述目标的第二表示的第二图像;以及使用所述第二图像中与所述目标的第二表示相对应的数据,调整所述成像设备的曝光参数。
根据一些实施例,一种用于调整图像曝光的系统包括:成像设备和与所述成像设备耦合的一个或多个处理器。所述一个或多个处理器被配置为:在使用安装在可移动物体上的成像没备连续跟踪一个或多个目标时:接收用于成像的目标的用户指示;通过所述成像设备确定所述目标的第一表示;捕获包括所述目标的第一表示的第一图像;使用所述第一图像中与所述目标的第一表示相对应的数据,确定所述成像设备的曝光参数;通过所述成像设备确定所述目标的第二表示;通过所述成像设备捕获包括所述目标的第二表示的第二图像;以及使用所述第二图像中与所述目标的第二表示相对应的数据,调整所述成像设备的曝光参数。
根据一些实施例,一种计算机可读存储介质存储一个或多个程序,所述一个或多个程序包括指令,所述指令在被执行时使设备在使用安装在可移动物体上的成像设备连续跟踪一个或多个目标时:接收用于成像的目标的用户指示;通过所述成像设备确定所述目标的第一表示;捕获包括所述目标的第一表示的第一图像;使用所述第一图像中与所述目标的第一表示相对应的数据,确定所述成像设备的曝光参数;通过所述成像设备确定所述目标的第二表示;通过所述成像设备捕获包括所述目标的第二表示的第二图像;以及使用所述第一图像中与所述目标的第二表示相对应的数据,调整所述成像设备的曝光参数。
附图说明
图1A至图1B示出了根据一些实施例的可移动物体环境。
图2A示出了根据一些实施例的图1A的可移动物体环境中的可移动物体。
图2B示出了根据一些实施例的图1B的可移动物体环境中的可移动物体。
图3示出了根据一些实施例的示例性可移动物体感测系统。
图4示出了根据一些实施例的可移动物体和目标从第一时间t1到第二时间t2的移动。
图5示出了根据一些实施例的可移动物体在时间t1处捕获图像的情景。
图6示出了根据一些实施例的可移动物体在时间t2处捕获图像的情景。
图7A示出了根据一些实施例的与可移动物体在时间t1处捕获的图像中的目标相对应的区域。
图7B示出了根据一些实施例的与可移动物体在时间t2处捕获的图像中的目标相对应的区域。
图8A至图8C示出了根据一些实施例的用于确定一个或多个曝光参数的光测量技术。
图9A至图9C示出了根据一些实施例的在与目标相对应的区域内所应用的光测量技术。
图10A示出了根据一些实施例的在可移动物体在时间t1处捕获的图像中的区域内所应用的点测量。
图10B示出了根据一些实施例的在可移动物体在时间t2处捕获的图像中的区域内所应用的点测量。
图11示出了根据一些实施例的测量区域的集合,其包括与图像内的目标的位置相对应的区域之外的测量区域。
图12示出了根据一些实施例的在两个不同时间t1和t2处测量的可移动物体和目标之间的距离D1和D2。
图13A至图13F示出了被应用到与可移动物体在时间t1捕获的图像中的目标相对应的区域、以及与可移动物体在时间t2处捕获的图像中的物体相对应的区域的点测量、中心测量和多区测量技术。
图14示出了由控制单元对由可移动物体捕获的图像的显示。
图15示出了根据一些实施例的目标的选择。
图16A至图16C是示出了根据一些实施例的用于调整图像曝光的方法的流程图。
具体实施方式
现将详细参考实施例,其示例在附图中示出。在下面的详细描述中,阐述了许多特定细节以便提供对各种所述实施例的透彻理解。然而,对于本领域普通技术人员来说显而易见的是,可以在没有这些特定细节的情况下来实践各种所述实施例。在其他实例中,没有详细描述公知的方法、过程、部件、电路和网络,以避免不必要地使实施例的方面模糊不清。
通常,当用户操作相机时,用户将图像的对象放置在图像帧内。通常,对象在图像帧内的位置符合传统的图像组成。通常可用于确定适用于捕获对象的图像的曝光参数的自动光测量的多种模式基于传统的图像组成。
当相机是正在捕获对象(比如,静止的或移动的目标)的图像的可移动物体(比如,无人机(UAV))的部件时,目标可以移动到图像帧中与传统的图像组成相背离的位置处。例如,目标有时位于图像帧的边缘和/或图像帧的一小部分中。目标距图像帧的中心越远,普通的自动测量模式确定合适的曝光参数变得越低效。需要这样一种测量技术:基于图像帧内的已知目标的位置来自动调整测量区域,使得测量发生在与目标位置相对应的区域内。
以下描述使用无人机(UAV)来作为可移动物体的示例。UAV包括例如固定翼飞机和旋转翼飞机,例如直升机、四旋翼机和具有其他数量个旋翼和/或其他旋翼配置的飞行器。对于本领域技术人员来说显而易见的是,如下所述,其他类型的可移动物体可以替代UAV。
图1A示出了根据一些实施例的可移动物体环境100。可移动物体环境100包括可移动物体102。在一些实施例中,可移动物体102包括载体104和/或负载106。
在一些实施例中,载体104用于将负载106与可移动物体102连接。在一些实施例中,载体104包括用于将负载106与可移动物体102和/或移动机构114的移动隔离的元件(例如,云台和/或阻尼元件)。在一些实施例中,载体104包括用于控制负载106相对于可移动物体102的移动的元件。
在一些实施例中,负载106与可移动物体102连接(例如,刚性连接)(例如,经由载体104连接),使得负载106相对于可移动物体102基本保持静止。例如,载体104与负载106连接,使得负载不能相对于可移动物体102移动。在一些实施例中,负载106直接安装到可移动物体102上,而不需要载体104。在一些实施例中,负载106部分或完全位于可移动物体102内。
在一些实施例中,控制单元108与可移动物体102通信,例如用以向可移动物体102提供控制指令,和/或用以显示从可移动物体102接收的信息。尽管控制单元108通常是便携式(例如,手持式)设备,但是控制单元108不一定是便携式的。在一些实施例中,控制单元108是专用控制设备(例如,用于可移动物体102)、膝上型计算机、台式计算机、平板计算机、游戏系统、可穿戴设备(例如眼镜、手套、和/或头盔)、麦克风、便携式通信设备(例如,移动电话)和/或其组合。
在一些实施例中,控制单元108的输入设备接收用户输入以控制可移动物体102、载体104、负载106和/或其部件的方面。这些方面包括例如姿态、位置、朝向、速度、加速度、导航和/或跟踪。例如,用户将控制单元108的输入设备的位置(例如,输入设备的部件的位置)手动地设置为与用于控制可移动物体102的输入(例如,预定输入)相对应的位置。在一些实施例中,用户对输入设备进行操纵以输入用于控制可移动物体102的导航的控制指令。在一些实施例中,控制单元108的输入设备用于输入可移动物体102的飞行模式,例如,根据预定导航路径自动驾驶或导航。
在一些实施例中,控制单元108的显示器显示由可移动物体感测系统210(图2A至图2B)、存储器204(图2A至图2B)和/或可移动物体102的另一系统生成的信息。例如,显示器显示与可移动物体102、载体104和/或负载106有关的信息,比如可移动物体102的位置、姿态、朝向,移动特性、和/或可移动物体102与另一个物体(例如,目标和/或障碍物)之间的距离。在一些实施例中,由控制单元108的显示器显示的信息包括由成像设备302(图3)捕获的图像、跟踪数据(例如,应用于目标的表示的图形跟踪指示符)、和/或被发送到可移动物体102的控制数据的指示。在一些实施例中,在从可移动物体102接收到信息时和/或在获取到图像数据时,基本实时地显示由控制单元108的显示器显示的信息。在一些实施例中,控制单元108的显示器是触摸屏显示器。
在一些实施例中,计算设备1100是例如服务器计算机、台式计算机、膝上型计算机、平板电脑或另一便携式电子没备(例如,移动电话)。在一些实施例中,计算设备110是与可移动物体102和/或控制单元108进行(例如,无线地)通信的基站。在一些实施例中,计算设备110提供数据存储、数据检索和/或数据处理操作,例如以降低可移动物体102和/或控制单元108的处理能力和/或数据存储需求。例如,计算设备110可通信地连接到数据库,和/或计算设备110包括数据库。在一些实施例中,代替控制单元108或者除了控制单元108之外,使用计算设备110来执行所描述的关于控制单元108的任何操作。
在一些实施例中,可移动物体102例如经由无线通信112与控制单元108和/或计算设备110通信。在一些实施例中,可移动物体102从控制单元108和/或计算设备110接收信息。例如,由可移动物体102接收的信息包括例如用于控制可移动物体102的参数的控制指令。在一些实施例中,可移动物体102向控制单元108和/或计算设备110发送信息。例如,由可移动物体102发送的信息包括例如由可移动物体102捕获的图像和/或视频。
在一些实施例中,计算设备110、控制单元108和/或可移动物体102之间的通信经由网络(例如,互联网116)和/或诸如蜂窝塔118之类的无线信号发射器(例如,远程无线信号发射器)来发送。在一些实施例中,卫星(未示出)是互联网116的部件,和/或除了蜂窝塔118之外或者代替蜂窝塔118而被使用。
在一些实施例中,在计算设备110、控制单元108和/或可移动物体102之间通讯的信息包括控制指令。控制指令包括例如用于控制可移动物体102的导航参数的导航指令,比如可移动物体102、载体104和/或负载106的位置、朝向、姿态和/或一个或多个移动特性(例如,线性和/或角度移动的速度和/或加速度)。在一些实施例中,控制指令包括用于引导一个或多个移动机构114的移动的指令。例如,控制指令用于控制UAV的飞行。
在一些实施例中,控制指令包括用于控制载体104的操作(例如,移动)的信息。例如,控制指令用于控制载体104的驱动机构,从而导致负载106相对于可移动物体102的角度和/或线性移动。在一些实施例中,控制指令以多达六个自由度来调整可移动物体102的移动。
在一些实施例中,控制指令用于调整负载106的一个或多个操作参数。例如,控制指令包括用于调整负载106的焦点参数和/或朝向以跟踪目标的指令。在一些实施例中,控制指令包括用于以下操作的指令:调整成像特性和/或图像设备功能,比如调整测量模式(例如,光测量区域的数量、布置、大小和/或位置);调整一个或多个曝光参数(例如,光圈设置、快门速度和/或曝光指数);捕获图像;启动/停止视频捕获;给成像设备302(图3)通电或断电;调整成像模式(例如,捕获静止图像或捕获视频);调整立体成像系统的左部件和右部件之间的距离;和/或调整载体104、负载106和/或成像设备302的位置、朝向和/或移动(例如,摇摄速率和/或摇摄距离)。
在一些实施例中,当可移动物体102接收到控制指令时,控制指令改变存储器204的参数和/或被存储器204存储。
图1B示出了根据一些实施例的可移动物体环境150。在可移动物体环境150中,移动物体102通过远离可移动物体102的移动机构114(例如,人、动物、载运工具、玩具娃娃和/或其他移动设备)来移动。例如,可移动物体102是手持式和/或可穿戴的设备。在一些实施例中,可移动物体(例如,经由载体104)与手持式和/或可穿戴的支撑结构152连接。
在一些实施例中,载体104与可移动物体102连接。在一些实施例中,载体104包括允许可移动物体102相对于移动机构114和/或相对于支撑结构152移动的一个或多个机构。在一些实施例中,可移动物体102经由包括云台的载体104与支撑结构152连接。
在一些实施例中,可移动物体102经由有线和/或无线连接与控制单元108通信连接。在一些实施例中,从控制单元108向可移动物体发送的信息包括例如用于改变可移动物体102的一个或多个操作参数的控制指令。例如,可移动物体102接收用于改变可移动物体102的成像设备302的光学参数的控制指令。在一些实施例中,从可移动物体102向控制单元108发送的信息包括例如由可移动物体102捕获的图像和/或视频数据。
图2A示出了根据一些实施例的可移动物体环境100中的示例性可移动物体102。可移动物体102通常包括一个或多个处理单元202、存储器204、通信系统206、可移动物体感测系统210以及用于互连这些部件的通信总线208。
在一些实施例中,可移动物体102是UAV,并且包括用于实现飞行和/或飞行控制的部件。在一些实施例中,可移动物体102包括具有一个或多个网络或其他通信接口的通信系统206、移动机构114和/或可移动物体驱动器212,通信系统206、移动机构114和驱动器212可选地经由通信总线208与可移动物体102的一个或多个其他部件互联。尽管可移动物体102被描述为飞行器,但是该描述并不旨在限制,并且可以使用任何合适类型的可移动物体。
在一些实施例中,可移动物体102包括移动机构114(例如,推进机构)。尽管在本文中为了便于引用而使用了复数术语“移动机构”,但“移动机构114”指代单个移动机构(例如,单个螺旋桨)或多个移动机构(例如,多个旋翼)。移动机构114包括一个或多个移动机构类型,例如旋翼、螺旋桨、桨叶、引擎、电机、轮子、轮轴、磁体、喷嘴等。移动机构114例如在顶部、底部、前部、后部和/或侧面与可移动物体102连接。在一些实施例中,单个可移动物体102的移动机构114包括相同类型的多个移动机构。在一些实施例中,单个可移动物体102的移动机构114包括不同移动机构类型的多个移动机构。移动机构114使用任何合适的装置(比如,支撑元件(例如,驱动轴)和/或其他驱动元件(例如,可移动物体驱动器212)与可移动物体102连接(或反之)。例如,可移动物体驱动器212(例如,经由控制总线208)从处理器202接收控制信号,处理器202启动可移动物体驱动器212以导致移动机构114的移动。例如,处理器202包括向可移动物体驱动器212提供控制信号的电子速度控制器。
在一些实施例中,移动机构114使可移动物体102能够垂直地从表面起飞或垂直地降落在表面上,而不需要可移动物体102的任何水平移动(例如,无需沿着跑道行进)。在一些实施例中,移动机构114可操作地允许可移动物体102以指定位置和/或朝向悬停在空中。在一些实施例中,一个或多个移动机构114是可独立于一个或多个其他移动机构114来控制的。例如,当可移动物体102是四旋翼机时,四旋翼机的每个旋翼都是可独立于四旋翼机的其他旋翼来控制的。在一些实施例中,多个移动机构114被配置为同时移动。
在一些实施例中,移动机构114包括向可移动物体102提供升力和/或推力的多个旋翼。驱动多个旋翼以向可移动物体102提供例如垂直起飞、垂直降落和/或悬停能力。在一些实施例中,一个或多个旋翼沿顺时针方向旋转,而一个或多个旋翼沿逆时针方向旋转。例如,顺时针旋翼的数量等于逆时针旋翼的数量。在一些实施例中,每个旋翼的旋转速率是独立可变的,例如用以控制由每个旋翼产生的升力和/或推力,从而调整可移动物体102(例如,相对于多达三个平移度和/或三个旋转度)的空间布置、速度和/或加速度。
在一些实施例中,存储器204存储一个或多个程序(例如,指令集)、模块和/或数据结构(本文统称为“元件”)。关于存储器204描述的一个或多个元件可选地由控制单元108、计算设备110和/或另一设备存储。在一些实施例中,成像设备302(图3)包括存储关于存储器204描述的一个或多个参数的存储器。
在一些实施例中,存储器204存储包括一个或多个系统设置(例如,如由制造商、管理员和/或用户配置)的控制系统配置。例如,可移动物体102的识别信息被存储为系统配置的系统设置。
在一些实施例中,存储器204存储由可移动物体感测系统210的成像设备302使用的一个或多个曝光参数。一个或多个曝光参数包括例如快门速度、光圈设置(例如,光圈直径)和/或曝光指数。曝光指数是例如数码相机的ISO感光度设置。例如,曝光指数指示这样的设置:所述设置指示被施加到成像设备302的图像传感器304的信号增益。
在一些实施例中,存储器204包括成像设备调整模块。成像设备调整模块存储例如用于调整一个或多个曝光参数的指令。在一些实施例中,使用成像设备302的输出(光测量输出)来调整一个或多个曝光参数。例如,当图像对象从第一图像内的第一位置移动到第二图像内的第二位置时,图像设备调整模块基于与第二图像内的图像对象有关的信息来调整一个或多个曝光参数(例如,目标的大小和/或位置)。在一些实施例中,响应于控制指令(例如,由可移动物体102从控制单元108和/或计算设备110接收)来调整一个或多个曝光参数。
在一些实施例中,存储器204存储关于一个或多个目标的信息,例如:目标的识别信息;目标的GPS位置;目标类型信息,比如目标的颜色、纹理、图案、大小、形状和/或维度;目标的图像;目标的初始位置(例如,位置坐标,比如图像内的像素坐标);和/或一个或多个图像(例如,由可移动物体感测系统210的成像设备302捕获的图像)内的目标的大小。目标类型信息例如由用户提供至用户输入设备,比如控制单元104的用户输入设备。在一些实施例中,用户选择预先存在的目标图案或类型(例如,黑色物体或具有大于或小于某一值的半径的圆形物体)。在一些实施例中,用于提供目标类型信息的用户输入包括:从一个或多个图像(例如,由可移动物体感测系统210的成像设备302捕获并由控制单元108显示的图像)内选择一个或多个目标的用户选择。在一些实施例中,提取或归纳所选择的目标的特征或特性,以产生目标类型信息,所述目标类型信息用于例如识别具有由所述目标类型信息指示的特征或特性的目标。在一些实施例中,特征提取由控制单元108、可移动物体102的处理器202和/或计算设备110执行。
在一些实施例中,可移动物体102使用目标信息来跟踪目标。例如,跟踪模块使用目标信息,以响应与由成像设备302捕获的图像内的目标的位置和/或大小有关的信息,调整可移动物体102的一个或多个移动参数。在一些实施例中,图像分析模块使用目标信息来识别目标。
上述模块或程序(即,指令集)不需要被实现为单独的软件程序、过程或模块,并且因此这些模块的各种子集可以在各种实施例中组合或以其他方式重新布置。在一些实施例中,存储器204可以存储上述模块和数据结构的子集。此外,存储器204可以存储上面没有描述的附加模块和数据结构。在一些实施例中,存储器204中所存储的程序、模块和数据结构或者存储器204的非暂时性计算机可读存储介质提供用于实现下面描述的方法中的相应操作的指令。在一些实施例中,这些模块中的一些或全部可以用包含部分或全部模块功能的专用硬件电路来实现。一个或多个上述元件可以由可移动物体102的一个或多个处理器202执行。在一些实施例中,一个或多个上述元件由远离可移动物体102的设备的一个或多个处理器(比如,控制单元108的处理器和/或计算设备110的处理器)执行。
通信系统206例如经由无线信号112实现与控制单元108和/或计算设备110的通信。通信系统206包括例如用于无线通信的发射器、接收器和/或收发器。在一些实施例中,通信是单向通信,使得数据仅由可移动物体102从控制单元108和/或计算设备110接收,或反之。在一些实施例中,通信是双向通信,使得数据在可移动物体102与控制单元108和/或计算设备110之间在两个方向上发送。在一些实施例中,可移动物体102、控制单元108和/或计算设备110连接到互联网116或其他电信网络,例如使得由可移动物体102、控制单元108和/或计算设备110生成的数据被发送到服务器,进行数据存储和/或数据检索(例如,由网站显示)。
在一些实施例中,可移动物体102的感测系统210包括一个或多个传感器。在一些实施例中,可移动物体感测系统210的一个或多个传感器安装到可移动物体102的外部、位于可移动物体102内、或以其他方式连接到可移动物体102。在一些实施例中,可移动物体感测系统210的一个或多个传感器是载体104、负载106和/或成像设备302的部件。在本文中将感测操作描述为由可移动物体感测系统210执行的情况下,将认识到,除了或代替可移动物体感测系统210的一个或多个传感器,这样的操作可选地由载体104、负载106和/或成像设备302执行。
可移动物体感测系统210生成静态感测数据(例如,响应于接收到的指令而捕获的单个图像)和/或动态感测数据(例如,以周期速率捕获的一系列图像,比如视频)。
在一些实施例中,可移动物体感测系统210包括图像传感器304。例如,可移动物体感测系统210包括作为成像设备302(图3)的部件的图像传感器304,例如相机。在一些实施例中,可移动物体感测系统210包括多个图像传感器,比如用于立体成像的一对图像传感器(例如,左立体图像传感器和右立体图像传感器)。
在一些实施例中,可移动物体感测系统210包括一个或多个音频变换器。例如,音频检测系统包括音频输出变换器(例如,扬声器)和/或音频输入变换器(例如,麦克风,比如抛物面麦克风)。在一些实施例中,麦克风和扬声器用作为声纳系统的部件。声纳系统例如用于提供可移动物体102的周围环境的三维地图。
在一些实施例中,可移动物体感测系统210包括一个或多个红外传感器。在一些实施例中,用于测量从可移动物体102到物体或表面的距离的距离测量系统包括一个或多个红外传感器,例如用于立体成像和/或距离确定的左红外传感器和右红外传感器。
在一些实施例中,可移动物体感测系统210包括例如如关于图3进一步描述的深度传感器308。
在一些实施例中,可移动物体感测系统210包括姿态传感器312。姿态传感器312包括:例如用于检测成像设备302和/或可移动物体102的姿态的加速度计、磁力计、一个或多个电位器、一个或多个霍尔传感器和/或陀螺仪。
在一些实施例中,可移动物体感测系统210包括一个或多个全球定位系统(GPS)传感器、运动传感器(例如,加速度计)、旋转传感器(例如,陀螺仪)、惯性传感器、近距离传感器(例如,红外传感器)和/或天气传感器(例如,压力传感器、温度传感器、湿度传感器和/或风传感器)。
在一些实施例中,由可移动物体感测系统210的一个或多个传感器生成的感测数据和/或使用来自可移动物体感测系统210的一个或多个传感器的感测数据而确定的信息由深度传感器308使用以用于深度检测,例如,图像传感器、音频传感器和/或红外传感器(和/或用于立体声数据收集的这种传感器对)用于确定从可移动物体102到另一物体(比如,目标、障碍物和/或地形)的距离。
在一些实施例中,(例如,经由通信系统206)向控制单元108和/或计算设备110发送由可移动物体感测系统210的一个或多个传感器生成的感测数据和/或使用来自可移动物体感测系统210的一个或多个传感器的感测数据而确定的信息。在一些实施例中,存储器204存储由可移动物体感测系统210的一个或多个传感器生成的数据和/或使用来自可移动物体感测系统210的一个或多个传感器的感测数据而确定的信息。
在一些实施例中,可移动物体102、控制单元108和/或计算设备110使用由感测系统210的传感器生成的感测数据来确定信息,比如,可移动物体102的位置、可移动物体102的朝向、可移动物体102的移动特性(例如,角速度、角加速度、平移速度、平移加速度和/或沿着一个或多个轴的运行方向)、和/或可移动物体102到可能障碍物、目标的接近度、天气状况、地理特征的位置和/或人造结构的位置。
图2B示出了根据一些实施例的可移动物体环境150中的示例性可移动物体102。可移动物体环境150中的可移动物体102通过远离可移动物体102的移动机构114移动(例如,如关于图1B所描述的)。可移动物体环境150的可移动物体102包括例如一个或多个处理单元202(例如,如上面关于图2A所描述的)、存储器204(例如,如上面关于图2A所描述的)、感测系统210(例如,如以上关于图2A所描述的)、和/或用于互连这些部件的通信总线208(例如,如上面关于图2A所描述的)。在一些实施例中,可移动物体102例如经由通信系统206与控制单元108通信连接。
图3示出了根据一些实施例的可移动物体102的示例性感测系统210。在一些实施例中,可移动物体感测系统210包括成像设备302(例如,用于捕获静止图像和/或视频的相机,比如数码相机、空中相机、摇摄-倾斜-变焦相机和/或摄像机)。在一些实施例中,成像设备302是负载106,和/或是负载106的部件。在一些实施例中,成像设备302是可移动物体102的部件(例如,完全地和/或部分地包含在可移动物体102的框和/或本体内和/或附接到所述框和/或本体)。成像设备302包括图像传感器304和光学没备306。在一些实施例中,光学设备306通过成像设备驱动器来相对于图像传感器304移动。
图像传感器304例如是检测光(比如,可见光、红外光和/或紫外光)的传感器。在一些实施例中,图像传感器304包括例如半导体电荷耦合器件(CCD)、使用互补金属氧化物半导体(CMOS)和/或N型金属氧化物半导体(NMOS,Live MOS)的有源像素传感器。
光学设备306影响到达图像传感器304的光的焦点。例如,光学设备306是包括多个镜头的镜头或设备(例如,复合镜头)。镜头例如是具有弯曲表面的材料,所述弯曲表面导致镜头特性,例如使光线(例如,以焦距)汇聚和/或发散。
在一些实施例中,成像设备302例如使用由图像传感器304捕获到的通过光学设备306的光的图像,使用通过镜头测量方法来测量光。在一些实施例中,使用与图像传感器304不同的测光计(例如,包括一个或多个硅光电二极管)来测量光。在一些实施例中,使用通过(例如,使用通过镜头测量方法和/或与图像传感器304不同的一个或多个测光计)测量光而确定的一个或多个亮度级(例如,照度值)来确定一个或多个曝光参数。
在一些实施例中,可移动物体感测系统210包括深度传感器308。深度传感器308包括例如一个或多个压力传感器(比如,声学变换器)、一个或多个红外传感器和/或一个或多个图像传感器。例如,深度传感器308包括用于立体成像的一对成像设备302(例如,左成像设备和右成像设备)、用于立体红外成像的一对红外传感器、和/或用于立体声声纳感测的一对压力传感器。深度传感器308用于例如确定从可移动物体102到另一物体(例如目标、障碍物和/或地形)的距离。
图4示出了根据一些实施例的可移动物体102和目标404从第一时间t1到第二时间t2的移动。在时间T=t1时,可移动物体102位于由可移动物体102的表示102a所示的第一位置,并且目标404位于在目标404的表示404a所示的第一位置。在时间T=t2(例如,在时间t1之后的时间)处,可移动物体102已经移动到如由可移动物体102的表示102b所示的第二位置,并且目标404已经移动到如由目标404的表示404b所示的第二位置。
图5示出了根据一些实施例的可移动物体102的成像设备302在时间t1处捕获图像的情景。如图7A所示的图像700是可移动物体102的成像设备302在时间t1处捕获到的。
图6示出了根据一些实施例的在时间t2处捕获图像的情景。如图7B所示的图像750是可移动物体102的成像设备302在时间t2处捕获到的。
图7A示出了图像700中与所捕获到的目标404的表示404a相对应的区域702a(例如,在时间t1处捕获的图像700的区域702)。图7B示出了图像750中与所捕获到的目标404的表示404b相对应的区域702b(例如,在时间t2处捕获的图像750的区域702)。在一些实施例中,区域702具有可变的大小(例如,如图7A至图7B所示,区域702b大于区域702a)。例如,图像(例如,700、750)内的区域702的位置和/或大小是基于图像内的目标404的表示的位置和/或大小而确定的。在一些实施例中,区域702具有固定大小(例如,区域702的中心位于与图像内的目标404的表示的质心相对应的位置处)。在一些实施例中,当可移动物体102跟踪目标404时,区域702基于目标404的移动来更新。
图8A、图8B和图8C分别示出了用于确定一个或多个曝光参数的点测量、中心测量和多区测量技术。例如,当使用通过镜头的光测量系统时,光通过光学设备306并入射在图像传感器304上。与在图像传感器304的至少一个区域(例如,至少一个测量区域)中的由图像传感器304检测到的光相对应的值用于确定用于捕获后续图像的至少一个曝光参数。
在图8A中,示出了点测量技术。点测量区域802指示图像700中与图像传感器304的测量区域相对应的部分。例如,使用(例如,平均)图像传感器304的点测量区域802内的(例如,像素的)亮度级来确定一个或多个曝光参数。在一些实施例中,与点测量区域802所指示的图像传感器304的区域内的亮度级的第二子集相比,点测量区域802所指示的图像传感器304的区域内的亮度级的第一子集被赋予的权重更高,并且使用加权后的值来确定平均的亮度级值。
在图8B中,示出了中心测量技术。中心测量区域804指示图像700中与图像传感器304的测量区域相对应的部分。例如,图像传感器304的中心测量区域804内的(例如,像素的)亮度级被使用(例如,被平均)以确定一个或多个曝光参数。在一些实施例中,与中心测量区域804所指示的图像传感器304的区域内的亮度级的第二子集相比,中心测量区域804所指示的图像传感器304的区域内的亮度级的第一子集被赋予的权重更高,并且使用加权后的值来确定平均的亮度级值。
在图8C中,示出了多区测量技术。多区测量区域806-1、806-2、806-3、806-4和806-5指示图像700中与图像传感器304的测量区域相对应的部分。例如,使用图像传感器304的测量区域内的(例如,像素的)亮度级来确定一个或多个曝光参数。在一些实施例中,相比于与一个或多个区的第一集合不同的第二集合,一个或多个区的第一集合被赋予的权重更高,并且使用加权后的值来确定平均的亮度级值。
在图8A至图8C中,点测量区域802、中心测量区域804以及多区测量区域806-1至806-5具有与图像700内的目标404的表示的位置相对应的变化的级别。例如,在图8A中,目标404的任何部分都不位于点测量区域802中;在图8B中,目标404的一小部分位于中心测量区域804中;以及在图8C中,目标404的一小部分位于多区测量区域806-1中。结果,使用来自测量区域(例如,802、804和/或806-1至806-5)的值确定的一个或多个曝光参数很有可能产生针对图像700中围绕目标404的部分(而不是图像700中与目标404相对应的区域)而被优化的曝光。如图9A至图9C所示,通过隔离图像700中与包括目标404的区域702相对应的区域并在区域702内执行光测量,与关于图8A至图8C所述的测量相比,光测量结果更有可能产生针对目标404而被优化的曝光参数。
图9A至图9C分别示出了应用于图像700中与目标404相对应的区域702的点测量、中心测量和多区测量技术。
在图9A中,示出了点测量技术。点测量区域902指示区域702a中与图像传感器304的测量区域相对应的部分。例如,使用(例如,平均)图像传感器304的点测量区域902内的(例如,像素的)亮度级来确定一个或多个曝光参数。在一些实施例中,与点加权区域902所指示的图像传感器304的区域内的亮度级的第二子集相比,点加权区域902所指示的图像传感器304的区域内的亮度级的第一子集被赋予的权重更高,并且使用加权后的值来确定平均的亮度级值。
在图9B中,示出了中心测量技术。中心测量区域904指示与图像传感器304的测量区域相对应的区域702a。例如,图像传感器304的测量区域内的(例如,像素的)亮度级被使用(例如,被平均)以确定一个或多个曝光参数。在一些实施例中,与中心测量区域904所指示的图像传感器304的区域内的亮度级的第二子集相比,中心测量区域904所指示的图像传感器304的区域内的亮度级的第一子集被赋予的权重更高,并且使用加权后的值来确定平均的亮度级值。
在图9C中,示出了多区测量技术。多区测量区域906-1、906-2、906-3、906-4和906-5指示区域702a中与图像传感器304的测量区域相对应的区域。例如,使用图像传感器304的测量区域内的(例如,像素的)亮度级来确定一个或多个曝光参数。在一些实施例中,相比于与一个或多个区的第一集合不同的第二集合,一个或多个区的第一集合被赋予的权重更高,并且使用加权后的值来确定平均的亮度级值。
图8A至图8C的测量区域802、804和806-1至806-5位于图像700内与图像传感器304内的固定位置相对应的固定位置处,在一些实施例中,图9A至图9C的测量区域902、904和/或906-1到906-5位于图像传感器304内的随着图像(例如,图像700、图像750)内的区域(例如,区域702a、区域702b)的位置的改变而改变的位置处。例如,如图10A至图10B所示,点测量区域902位于相对于图像700和750的边界的不同位置处。
在一些实施例中,当可移动物体102跟踪目标404时,基于图像内的目标404的位置来更新区域702和/或一个或多个测量区域。
在图10A中,点测量区域902位于与图像700的区域702a的中心相对应的第一位置处。在图10B中,点测量区域902位于在图像750中的区域702b的中心的第二位置处。
在一些实施例中,当区域702的大小改变时,点测量区域902的面积不会改变。例如,如图10A至图10B所示,区域702a中的点测量区域902具有与区域704b(其具有比区域702a大的面积)中的点测量区域902的面积相同的面积。
在一些实施例中,基于区域702的面积的大小(例如,与其成比例地)来调整一个或多个测量区域的大小。例如,在一些实施例中,一个或多个测量区域(例如,902、904和/或906-1至906-5)在区域702b中的面积比所述一个或多个测量区域在区域702a(其具有比区域702b小的面积)中的面积大。
通过将测量区域(比如,点测量区域902、中心测量区域904和/或多区测量区域906-1至906-5)结合到基于目标404在图像(例如,700、750)中的位置的区域702,所执行的光测量产生针对目标404优化(而不是针对整个图像(例如,700、750)优化)的一个或多个曝光参数。以这种方式,避免了图像内的目标404的曝光过度和/或曝光不足。
应该认识到,可以使用与关于图8A至图8C和图9A至图9C所述的说明性测量区域不同的测量区域。例如,可以使用不同数量、布置、大小和/或位置的测量区域。在一些实施例中,使用图像(例如,图像700和/或图像750)的全部像素和/或图像的区域(例如,区域702a和/或区域702b)的全部像素来执行光测量。
图11示出了测量区域的集合,其包括与在图像内的目标404的位置相对应的区域702之外的测量区域。在一些实施例中,图像700中在区域702外部的至少一部分用于确定对一个或多个曝光参数的调整。例如,在位于与区域702相对应的位置处的至少一个区域(例如,测量区域902)中执行光测量,并且附加地,在至少部分位于区域702之外的至少一个区域(例如,一个或多个测量区域1106-1、1106-2、1106-3、1106-4、1106-5、1106-6、1106-7、1106-8、1106-9、1106-10、1106-11、1106-12和1106-13)中执行光测量。在一些实施例中,确定光测量值包括:向区域702内的至少一个光测量区域指派比被指派给至少部分地位于区域702之外的至少一个测量区域的权重(例如,被指派给测量区域1106-1至1106-13的权重)大的权重,并且使用加权后的值来确定平均的亮度级值。在一些实施例中,使用光测量值来确定一个或多个曝光调整参数。
在一些实施例中,可移动物体102使用深度传感器308来测量可移动物体102与目标404之间的距离。在一些实施例中,可移动物体102使用所测量的距离来确定与图像(例如,图像700和/或图像750)内的目标404相对应的区域700的大小。
图12示出了根据一些实施例的在两个不同时间t1和t2处测量的可移动物体102和目标404之间的距离D1和D2。可移动物体102a指示可移动物体102在时间t1处的位置,并且目标404a指示目标404在时间t1处的位置。在时间t1处,深度传感器308测量可移动物体102a和目标404a之间的距离D1。可移动物体102b指示可移动物体102在时间t2处的位置,并且目标404b指示目标404在时间t2处的位置。在时间t2处,深度传感器308测量可移动物体102b和目标404b之间的距离D2。在一些实施例中,根据确定可移动物体102与目标物404之间的距离已经减小(例如,距离D2小于距离D1),增大在其中执行光测量的区域702的大小。在一些实施例中,根据确定可移动物体102与目标物404之间的距离已经增大(例如,距离D2大于距离D1),减小在其中执行光测量的区域702的大小。在一些实施例中,用于测量光的图像传感器304的像素的数量随着区域702的大小的增大而增加(例如,图像传感器304的像素的数量与区域702的大小成比例地增加)。在一些实施例中,测量区域的数量随着区域702的大小的增大而增加。在一些实施例中,至少一个测量区域的大小随着区域702的大小的增大而增加。
图13A至图13F示出了被应用于图像700中与目标404a相对应的区域702a和区域702b的点测量、中心测量和多区测量技术。
在图13A中,点测量区域902指示区域702a中与图像传感器304的测量区域相对应的部分。在图13B中,点测量区域1302指示区域702b中与图像传感器304的测量区域相对应的部分。在一些实施例中,点测量区域1302的面积大于点测量区域902的面积(例如,根据确定区域702b的面积大于区域702a的面积,和/或根据确定从可移动物体102b到目标404b的距离小于从可移动物体102a到目标404a的距离)。例如,点测量区域1302的面积相对于点测量区域902的面积与区域702b的面积相对于区域702a的面积成比例。
在图13C中,中心测量区域904指示区域702a中与图像传感器304的测量区域相对应的部分。在图13D中,中心测量区域1304指示区域702b中与图像传感器304的测量区域相对应的部分。在一些实施例中,中心测量区域1304的面积大于中心测量区域904的面积(例如,根据确定区域702b的面积大于区域702a的面积,和/或根据确定从可移动物体102b到目标404b的距离小于从可移动物体102b到目标404b的距离)。例如,中心测量区域1304的面积相对于中心测量区域904的面积与区域702b的面积相对于区域702a的面积成比例。
在图13E中,多区测量区域906-1、906-2、906-3、906-4和906-5指示区域702a中与图像传感器304的测量区域相对应的部分。在图13F中,多区测量区域1306-1、1306-2、1306-3、1306-4、1306-5、1306-6、1306-7、1306-8、1306-9、1306-10、1306-11、1306-12和1306-13指示区域702b中与图像传感器304的测量区域相对应的部分。在一些实施例中,图13F中的测量区域(例如,测量区域1306-1至1306-13)的数量大于图13E中的测量区域(例如,测量区域906-1至906-5)的数量(例如,根据确定区域702b的面积大于区域702a的面积,和/或根据确定从可移动物体102b到目标404b的距离小于从可移动物体102b到目标404b的距离)。例如,图13F中的测量区域的数量相对于图13E中的测量区域的数量与区域702b的面积相对于区域702a的面积成比例。
图14示出了由控制单元108对由可移动物体102的成像设备302捕获的图像的显示。在一些实施例中,可移动物体102例如经由通信系统206向控制单元108发送由成像设备302捕获的图像(例如,静止图像和/或视频)。例如,通过控制单元108的显示器1402显示从可移动物体102接收的图像750。在一些实施例中,通过控制单元108显示诸如区域702b(例如,区域702b的边界)之类的一个或多个区域702的表示(例如,叠加在图像750上)。以这种方式,向用户提供指示正在用于光测量和/或调整一个或多个曝光参数的图像750的区域的反馈。在一些实施例中,通过控制单元108来显示一个或多个测量区域(例如,叠加在图像750和/或区域702b上)。在一些实施例中,通过控制单元108仅显示图像750中与区域702b相对应的部分。
图15示出了根据一些实施例的目标404的选择。图15示出了控制单元108的显示器1402。在一些实施例中,用户(例如,使用触摸屏输入或另一输入设备)在控制单元108处提供输入以选择目标404。例如,控制单元108的显示器1402显示从可移动物体102接收的图像1500。在一些实施例中,用户例如通过触摸显示器1402中与目标404相对应的位置处的触摸屏和/或通过使用控制单元108的另一输入设备提供输入来选择目标404。在一些实施例中,通过选择指示符1502指示与所选择的目标相对应的选择区域。在一些实施例中,控制单元108向可移动物体102和/或计算设备110提供与所选择的目标404相对应的信息(例如,与所选择的区域相对应的图像和/或目标识别信息)。在一些实施例中,控制单元108、可移动物体102和/或计算设备110对与所选择的区域相对应的图像执行图像处理,例如以确定目标识别信息。在一些实施例中,可移动物体102使用目标识别信息和/或与所选择的区域相对应的图像来跟踪目标404。
在一些实施例中,当如关于图15所描述选择了目标404时,与所选择的目标404相对应的区域用于确定对一个或多个曝光参数的调整(例如,而不k考虑目标)。
图16A至图16C是示出了根据一些实施例的用于调整图像曝光的方法1600的流程图。在诸如可移动物体102、成像设备302、控制单元108和/或计算设备110之类的设备处执行方法1600。例如,用于执行方法1600的指令被存储在存储器204中,并且由处理器202执行。在一些实施例中,当安装在可移动物体102上的成像设备302连续跟踪一个或多个目标时,执行方法1600。
设备接收(1602)用于成像的目标的用户指示。例如,用于成像的目标的用户指示包括例如目标404的识别信息;目标404的GPS位置;目标404的目标类型信息、目标404的图像;目标404的初始位置;和/或一个或多个图像(例如,由可移动物体感测系统210的成像设备302捕获的图像)内的目标404的大小。在一些实施例中,用户向用户输入设备(比如,控制单元108的用户输入设备)提供用于成像的目标的指示。在一些实施例中,用户可以选择目标404的预先存在的目标图案或类型。在一些实施例中,用于提供目标类型信息的用户输入包括:从一个或多个图像中选择目标404的用户选择(例如,如关于图15所描述的)。在一些实施例中,提取和/或归纳所选择的目标的特征或特性,以产生用于例如识别具有由目标类型信息指示的特征或特性的目标的目标类型信息。在一些实施例中,通过可移动物体102、控制单元108和/或计算设备110来执行特征提取。
在一些实施例中,用于成像的目标的指示包括特定目标404的特定目标信息。特定目标信息包括:例如,目标404的图像、目标404的初始位置(例如,位置坐标,比如图像内的像素坐标)、和/或一个或多个图像(例如,由可移动物体102的成像设备302捕获的图像)内的目标404的大小。目标404的大小例如被存储为:大小指示符,比如长度、面积、一行中的像素的数量(例如,指示长度、宽度和/或直径)、图像中的目标的表示的长度相对于总图像长度的比率(例如,百分比)、图像中的目标的表示的面积相对于总图像面积的比率(例如,百分比)、和/或指示目标404的区域的像素的数量。在一些实施例中,存储与大小指示符相对应的目标404距可移动物体102的距离(例如,目标404的区域基于目标404距可移动物体102的距离而改变)。
在一些实施例中,例如如关于图15所描述的,基于用户输入来生成目标信息(包括例如目标类型信息和/或针对特定目标的信息)。在一些实施例中,使用所存储的目标404的先前图像(例如,由成像设备302捕获并由存储器204存储的图像)来确定目标信息。在一些实施例中,使用目标404的计算机生成的图像来生成目标信息。
在一些实施例中,可移动物体102使用目标信息来跟踪目标404。在一些实施例中,图像分析模块使用目标信息来识别(例如,在由可移动物体102捕获的一个或多个图像中的)目标404。在一些情况下,目标识别涉及图像识别和/或匹配算法。在一些实施例中,目标识别包括:比较两个或更多个图像以确定、提取和/或匹配图像中所包含的特征。
设备使用成像设备302来确定(1604)目标404的第一表示(例如,404a),例如如图7A所示。
设备使用成像设备302来捕获(1606)包括目标404的第一表示(例如,404a)的第一图像(例如,图像700)。
设备使用与目标404的第一表示(例如,404a)相对应的数据来确定(1608)成像设备302的曝光参数(例如,快门速度、光圈和/或曝光指数)。例如,设备对光进行测量,以确定与一个或多个测量区域相对应的一个或多个照度值(例如,如关于图8A至图8C、图9A至图9C、图10A至图10B、图11和/或图13A至图13F所述的)。在一些实施例中,与目标404的第一表示相对应的数据是从与目标404的表示(例如,404a)相对应的区域(例如,702a)中的一个或多个测量区域中确定的数据。设备使用一个或多个照度值(例如,照度值的平均值或权重平均值)来确定一个或多个曝光参数。
设备使用成像设备302来确定(1610)目标404的第二表示(例如,404b),例如如图7B所示。
设备使用成像设备302来捕获(1612)包括目标404的第二表示(例如,404b)的第二图像(例如,图像750)。
设备使用与目标404的第二表示(例如,404b)相对应的数据来调整(1614)成像设备的曝光参数。例如,设备对光进行测量,以确定与一个或多个测量区域相对应的一个或多个照度值(例如,如关于图8A至图8C、图9A至图9C、图10A至图10B、图11和/或图13A至图13F所述的)。在一些实施例中,与目标404的第二表示相对应的数据是从与目标404的表示(例如,404b)相对应的区域(例如,702b)中的一个或多个测量区域中确定的数据。在一些实施例中,用于确定目标404的第二表示404b的一个或多个照度值的一个或多个测量区域中的至少一个不同于用于确定目标的第一表示404a的一个或多个照度值的一个或多个测量区域中的至少一个。例如,用于确定第一表示404a的一个或多个照度值的测量区域的数量、大小、布置和/或位置不同于用于确定第二表示404b的一个或多个照度值的测量区域的数量、大小、布置和/或位置。在一些实施例中,使用相同的测量区域来确定第一表示404a和第二表示404b的一个或多个照度值。在一些实施例中,设备使用一个或多个照度值(例如,照度值的平均值或权重平均值)来调整一个或多个曝光参数。
在一些实施例中,设备确定(1616)目标的第一表示和目标的第二表示,而无需进一步的用户干预。例如,设备应用跟踪算法来跟踪目标和/或保持部分或全部目标位于图像帧内。
在一些实施例中,设备通过一个或多个传感器(例如,深度传感器308)获取(1618)至目标的距离的测量值(例如,距离D2,如关于图12所描述的),并且使用至目标404的距离的测量值来确定第二图像750内的目标404的第二表示(例如,404b)。
在一些实施例中,设备例如根据第一图像内的目标的第一表示和第二图像内的目标的第二表示来确定(1620)目标移动数据。例如,目标404从第一时间t1到第二时间t2的移动(例如,如图4所示)通过使用以下项来确定:目标404的表示的大小从如图像700的404a处所指示的第一大小到如404b(如图7A至图7B所指示的)处所指示的第二大小的改变;可移动物体102的移动信息(例如,如根据被提供给可移动物体102和/或可移动物体102的运动传感器(比如,加速度计)的控制指令而确定);和/或目标404的运动信息(例如,由目标404的运动传感器确定并从目标404发送到可移动物体102、控制单元108和/或计算设备110的信息)。
在一些实施例中,调整成像设备的曝光参数包括(1622):使用所确定的目标移动数据来调整成像设备的曝光参数。例如,确定一个或多个曝光参数的改变的比率包括基于如关于(1620)所描述的(当前)目标移动数据来确定目标的预期未来移动。
在一些实施例中,设备使用所确定的目标移动数据对成像设备的曝光参数应用(1624)第二调整。例如,使用基于如关于(1620)所描述的(当前)目标移动数据而确定的目标的预期未来移动,确定一个或多个曝光参数。
在一些实施例中,第二图像中与目标的第二表示相对应的数据包括(1626)针对目标的第二表示的不同点(例如,平均地或以其他方式分布在第二表示中)而确定的多个亮度级,并且调整曝光参数包括:基于多个亮度级确定平均值;以及根据所确定的平均值调整曝光参数。例如,针对图像传感器302的与多区测量区域(例如,如图8的806-1至806-5、图9的906-1至906-5图9,图11的1106-1至1106-13,和/或图13的1306-1至1306-13)相对应的区域确定多个亮度级。
在一些实施例中,使用与第二图像中位于与目标的第二表示相对应的区域之外的至少一部分相对应的数据来确定(1628)对曝光参数的调整。例如,在图11中,多区测量区域1106-1至1106-13至少部分地位于与目标404的表示404a相对应的区域702a之外,并且测量区域902位于区域702a内。
在一些实施例中,调整曝光参数包括:对第二图像750中与目标404的第二表示404b相对应的数据赋予(1630)比赋予与第二图像中位于与所述目标的第二表示相对应的区域之外的至少一部分相对应的数据高的权重。例如,如关于图11所述,对与测量区域902相对应的位置处确定的一个或多个亮度级值赋予比与测量区域1106-1至1106-13相对应的位置处确定的一个或多个亮度级值更高的权重。
在一些实施例中,接收用于成像的目标404的用户指示包括:接收(1632)指示与在由成像设备捕获的先前图像1500内的目标404相对应的区域(例如,702a、702b和/或1502)的输入数据。例如,用户指向由控制单元108的显示器1402显示的目标404,以指示与目标404相对应的区域(例如,如由边界702b和/或边界1502限定)。
在一些实施例中,设备向远程设备(例如,控制设备108)发送(1634)与目标相对应的区域的指示。例如,通过可移动物体102向控制设备108(例如,并由控制装置108显示)发送与图像750中的目标404b的表示相对应的区域702b。
可以使用或借助于硬件、软件、固件或它们的组合来执行本发明的许多特征。因此,可以使用处理系统来实现本发明的特征。示例性处理系统(例如,处理器202)包括但不限于:一个或多个通用微处理器(例如,单核或多核处理器)、专用集成电路、专用指令集处理器、现场可编程门阵列、图形处理单元、物理处理单元、数字信号处理单元、协处理器、网络处理单元、音频处理单元、加密处理单元等。
本发明的特征可以使用或借助于计算机程序产品来实现,所述计算机程序产品比如为具有存储在其上的指令的存储介质或计算机可读存储介质,所述指令可以对处理系统进行编程以执行本文中所提出的任何特征。存储介质(例如,存储器204)可以包括但不限于任何类型的盘,包括:软盘、光盘、DVD、CD-ROM、微型驱动器和磁光盘、ROM、RAM、EPROM、EEPROM、DRAM、VRAM、DDR RAM、闪存设备、磁卡或光卡、纳米系统(包括分子存储器IC)或者适于存储指令和/或数据的任何类型的介质或设备。
存储在任何一种机器可读介质上的本发明的特征可以被并入到如下软件和/或固件中,所述软件和/或固件用于控制处理系统的硬件,并且用于使得处理系统能够利用本发明的结果与其他机构交互。这样的软件或固件可以包括但不限于应用代码、设备驱动器、操作系统和执行环境/容器。
本文中所提及的通信系统(例如,通信系统206)可选地经由有线和/或无线通信连接进行通信。例如,通信系统可选地接收和发送RF信号,也称为电磁信号。通信系统的RF电路将电信号转换成电磁信号/将电磁信号转换成电信号,并且经由电磁信号与通信网络和其他通信设备通信。RF电路可选地包括用于执行这些功能的公知电路,包括但不限于天线系统、RF收发机、一个或多个放大器、调谐器、一个或多个振荡器、数字信号处理器、CODEC芯片组、订户身份模块(SIM)卡、存储器等。通信系统可选地通过无线通信与网络(比如,互联网(也称为万维网(WWW))、内联网和/或无线网络(比如,蜂窝电话网络、无线局域网(LAN)、和/或城域网(MAN)))和其他设备进行通信。无线通信连接可选地使用多种通信标准、协议和技术中的任一种,包括但不限于:全球移动通信系统(GSM)、增强数据GSM环境(EDGE)、高速下行链路分组接入(HSDPA)、高速上行链路分组接入(HSUPA)、仅数据的演进(EV-DO)(Evolution,Data-Only)、HSPA、HSPA+、双小区HSPA(DC-HSPDA)、长期演进(LTE)、近场通信(NFC)、宽带码分多址(W-CDMA)、码分多址(CDMA)、时分多址(TDMA)、蓝牙、无线保真(Wi-Fi)(例如,IEEE102.11a、IEEE102.11ac、IEEE102.11ax、IEEE 102.11b、IEEE 102.11g和/或IEEE 102.11n)、互联网协议语音(VoIP)、Wi-MAX、用于电子邮件的协议(例如,互联网消息访间协议(IMAP)和/或邮局协议(POP))、即时消息(例如,可扩展消息和存在协议(XMPP)、即时消息与存在利用扩展会话初级协议(SIMPLE)、即时消息和存在服务(IMPS))、和/或短消息服务(SMS)、或者任何其他合适的通信协议,包括在本文件的提交日期之前尚未开发的通信协议。
尽管上面已经描述了本发明的各种实施例,但是应当理解,它们仅仅是作为示例而不是限制来呈现的。对于相关领域的技术人员显而易见的是,在不脱离本发明的精神和范围的情况下,可以在形式和细节上进行各种改变。
以上已经在功能构建块的辅助下描述了本发明,这些功能构建块示出了指定功能及其关系的执行。为便于描述,本文通常任意定义这些功能构建块的边界。只要所指定的功能及其关系被适当地执行,就可以定义备选边界。因此任何这样的备选边界都在本发明的范围和精神之内。
在本文所述的各种实施例的描述中所使用的术语仅仅是为了描述具体实施例,而不是意在进行限制。除非上下文另有明确说明,否则如各种所述实施例的描述和所附权利要求中使用的,单数形式“一”、“一个”和“该”也旨在包括复数形式。还应理解,如本文所使用的术语“和/或”是指并且包括一个或多个相关联的所列项目的任何一个和所有可能的组合。还将理解,术语“包括”和/或“包含”当在本说明书中使用时,规定了存在所声明的特征、整数、步骤、操作、要素和/或组件,但是并没有排除存在或添加一个或多个其他特征、整数、步骤、操作、要素、组件和/或其组合。
如本文所使用的,术语“如果”可以被解释为表示“当”或“一旦”或“响应于确定”或“根据确定”或“响应于检测到”所述先决条件为真,这取决于上下文。同样,“如果确定[所述先决条件为真]”或“如果[所述先决条件为真]”或“当[所述先决条件为真]时”的表述可以解释为表示“一旦确定”或“响应于确定”或“根据确定”或“一旦检测到”或“响应于检测到”所述先决条件为真,这取决于上下文。
已经提供了本发明的上述描述,用于说明和描述的目的。不是旨在是穷尽性的或将公开的精确形式作为对本发明的限制。本发明的宽度和范围不应当受到上述示例性实施例中任意一个的限制。许多修改和变化对于本领域普通技术人员将是显而易见的。这些修改和变化包括所公开的特征的任何相关组合。对实施例的选择和描述是为了最好地解释本发明的原理及其实际应用,从而使得本领域的其他技术人员能够理解本发明的各种实施例以及适合于预期特定用途的各种修改。意图在于,本发明的范围由所附权利要求及其等同物限定。
Claims (34)
1.一种用于调整图像曝光的方法,所述方法包括:
在使用安装在可移动物体上的成像设备连续跟踪一个或多个目标时:
接收用于成像的目标的用户指示;
通过所述成像设备确定所述目标的第一表示;
通过所述成像设备捕获包括所述目标的第一表示的第一图像;
使用所述第一图像中与所述目标的第一表示相对应的数据,确定所述成像设备的曝光参数;
通过所述成像设备确定所述目标的第二表示;
通过所述成像设备捕获包括所述目标的第二表示的第二图像;以及
使用所述第二图像中与所述目标的第二表示相对应的数据,调整所述成像设备的曝光参数。
2.根据权利要求1所述的方法,其中,在没有进一步的用户干预的情况下,确定所述目标的第一表示和所述目标的第二表示。
3.根据权利要求1所述的方法,还包括:通过一个或多个传感器来获取至所述目标的距离的测量值,并且
其中,使用至所述目标的距离的所述测量值来确定所述第二图像内的所述目标的第二表示。
4.根据权利要求1所述的方法,还包括:根据所述第一图像内的所述目标的第一表示和所述第二图像内的所述目标的第二表示来确定目标移动数据。
5.根据权利要求4所述的方法,其中,调整所述成像设备的曝光参数包括:使用所确定的目标移动数据来调整所述成像设备的曝光参数。
6.根据权利要求5所述的方法,还包括:使用所确定的目标移动数据对所述成像设备的曝光参数应用第二调整。
7.根据权利要求1所述的方法,其中,
所述第二图像中与所述目标的第二表示相对应的数据包括针对所述目标的第二表示的不同点所确定的多个亮度级;以及
调整所述曝光参数包括:
基于所述多个亮度级来确定平均值;以及
根据所确定的平均值来调整所述曝光参数。
8.根据权利要求1所述的方法,其中,使用与所述第二图像中位于与所述目标的第二表示相对应的区域之外的至少一部分相对应的数据来确定对所述曝光参数的调整。
9.根据权利要求8所述的方法,其中,调整所述曝光参数包括:对与所述第二图像中的所述目标的第二表示相对应的数据赋予比与所述第二图像中位于与所述目标的第二表示相对应的区域之外的至少一部分相对应的数据更高的权重。
10.根据权利要求1所述的方法,其中,接收用于成像的目标的用户指示包括:接收指示与由所述成像设备捕获的先前图像内的目标相对应的区域的输入数据。
11.根据权利要求1所述的方法,还包括:向远程没备发送与所述目标相对应的区域的指示。
12.一种无人机UAV,包括:
推进系统;
成像设备;以及
与所述推进系统和所述成像设备耦合的一个或多个处理器;
所述一个或多个处理器被配置为:在使用所述UAV的成像设备连续跟踪一个或多个目标时:
接收用于成像的目标的用户指示;
通过所述成像设备确定所述目标的第一表示;
通过所述成像设备捕获包括所述目标的第一表示的第一图像;
使用所述第一图像中与所述目标的第一表示相对应的数据,确定所述成像设备的曝光参数;
通过所述成像设备确定所述目标的第二表示;
通过所述成像设备捕获包括所述目标的第二表示的第二图像;以及
使用所述第二图像中与所述目标的第二表示相对应的数据,调整所述成像设备的曝光参数。
13.根据权利要求12所述的UAV,其中,在没有进一步的用户干预的情况下,确定所述目标的第一表示和所述目标的第二表示。
14.根据权利要求12所述的UAV,其中,所述一个或多个处理器还被配置为:通过一个或多个传感器来获取至所述目标的距离的测量值,并且
其中,使用至所述目标的距离的所述测量值来确定所述第二图像内的所述目标的第二表示。
15.根据权利要求12所述的UAV,其中,所述一个或多个处理器还被配置为:根据所述第一图像内的所述目标的第一表示和所述第二图像内的所述目标的第二表示来确定目标移动数据。
16.根据权利要求15所述的UAV,其中,调整所述成像设备的曝光参数包括:使用所确定的目标移动数据来调整所述成像设备的曝光参数。
17.根据权利要求16所述的UAV,其中,所述一个或多个处理器还被配置为:使用所确定的目标移动数据对所述成像设备的曝光参数应用第二调整。
18.根据权利要求12所述的UAV,其中,
所述第二图像中与所述目标的第二表示相对应的数据包括针对所述目标的第二表示的不同点所确定的多个亮度级;以及
调整所述曝光参数包括:
基于所述多个亮度级来确定平均值;以及
根据所确定的平均值来调整所述曝光参数。
19.根据权利要求12所述的UAV,其中,使用与所述第二图像中位于与所述目标的第二表示相对应的区域之外的至少一部分相对应的数据来确定对所述曝光参数的调整。
20.根据权利要求19所述的UAV,其中,调整所述曝光参数包括:对与所述第二图像中的所述目标的第二表示相对应的数据赋予比与所述第二图像中位于与所述目标的第二表示相对应的区域之外的至少一部分相对应的数据更高的权重。
21.根据权利要求12所述的UAV,其中,接收用于成像的目标的用户指示包括:接收指示与由所述成像设备捕获的先前图像内的目标相对应的区域的输入数据。
22.根据权利要求12所述的UAV,其中,所述一个或多个处理器还被配置为:向远程设备发送与所述目标相对应的区域的指示。
23.一种用于调整图像曝光的系统,所述系统包括:
成像设备;以及
与所述成像设备耦合的一个或多个处理器;
所述一个或多个处理器被配置为:在使用安装在可移动物体上的成像设备连续跟踪一个或多个目标时:
接收用于成像的目标的用户指示;
通过所述成像设备确定所述目标的第一表示;
通过所述成像设备捕获包括所述目标的第一表示的第一图像;
使用所述第一图像中与所述目标的第一表示相对应的数据,确定所述成像设备的曝光参数;
通过所述成像设备确定所述目标的第二表示;
通过所述成像设备捕获包括所述目标的第二表示的第二图像;以及
使用所述第二图像中与所述目标的第二表示相对应的数据,调整所述成像设备的曝光参数。
24.根据权利要求23所述的系统,其中,在没有进一步的用户干预的情况下,确定所述目标的第一表示和所述目标的第二表示。
25.根据权利要求23所述的系统,其中,所述一个或多个处理器还被配置为:通过一个或多个传感器来获取至所述目标的距离的测量值,并且
其中,使用至所述目标的距离的所述测量值来确定所述第二图像内的所述目标的第二表示。
26.根据权利要求23所述的系统,其中,所述一个或多个处理器还被配置为:根据所述第一图像内的所述目标的第一表示和所述第二图像内的所述目标的第二表示来确定目标移动数据。
27.根据权利要求26所述的系统,其中,调整所述成像设备的曝光参数包括:使用所确定的目标移动数据来调整所述成像设备的曝光参数。
28.根据权利要求27所述的系统,其中,所述一个或多个处理器还被配置为:使用所确定的目标移动数据对所述成像设备的曝光参数应用第二调整。
29.根据权利要求23所述的系统,其中,
所述第二图像中与所述目标的第二表示相对应的数据包括针对所述目标的第二表示的不同点所确定的多个亮度级;以及
调整所述曝光参数包括:
基于所述多个亮度级来确定平均值;以及
根据所确定的平均值来调整所述曝光参数。
30.根据权利要求23所述的系统,其中,使用与所述第二图像中位于与所述目标的第二表示相对应的区域之外的至少一部分相对应的数据来确定对所述曝光参数的调整。
31.根据权利要求30所述的系统,其中,调整所述曝光参数包括:对与所述第二图像中的所述目标的第二表示相对应的数据赋予比与所述第二图像中位于与所述目标的第二表示相对应的区域之外的至少一部分相对应的数据更高的权重。
32.根据权利要求23所述的系统,其中,接收用于成像的目标的用户指示包括:接收指示与由所述成像设备捕获的先前图像内的目标相对应的区域的输入数据。
33.根据权利要求23所述的系统,其中,所述一个或多个处理器还被配置为:向远程设备发送与所述目标相对应的区域的指示。
34.一种存储一个或多个程序的计算机可读存储介质,所述一个或多个程序包括指令,所述指令在被执行时使设备在使用安装在可移动物体上的成像设备连续跟踪一个或多个目标时:
接收用于成像的目标的用户指示;
通过所述成像设备确定所述目标的第一表示;
通过所述成像设备捕获包括所述目标的第一表示的第一图像;
使用所述第一图像中与所述目标的第一表示相对应的数据,确定所述成像设备的曝光参数;
通过所述成像设备确定所述目标的第二表示;
通过所述成像设备捕获包括所述目标的第二表示的第二图像;以及
使用所述第一图像中与所述目标的第二表示相对应的数据,调整所述成像设备的曝光参数。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2016/092112 WO2018018514A1 (en) | 2016-07-28 | 2016-07-28 | Target-based image exposure adjustment |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109478061A true CN109478061A (zh) | 2019-03-15 |
Family
ID=61015687
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201680087802.8A Pending CN109478061A (zh) | 2016-07-28 | 2016-07-28 | 基于目标的图像曝光调整 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11320817B2 (zh) |
CN (1) | CN109478061A (zh) |
WO (1) | WO2018018514A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109922275A (zh) * | 2019-03-28 | 2019-06-21 | 苏州科达科技股份有限公司 | 曝光参数的自适应调整方法、装置及一种拍摄设备 |
CN110493539A (zh) * | 2019-08-19 | 2019-11-22 | Oppo广东移动通信有限公司 | 自动曝光处理方法、处理装置和电子设备 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10235587B2 (en) * | 2014-03-04 | 2019-03-19 | Samsung Electronics Co., Ltd. | Method and system for optimizing an image capturing boundary in a proposed image |
CN111345029B (zh) * | 2019-05-30 | 2022-07-08 | 深圳市大疆创新科技有限公司 | 一种目标追踪方法、装置、可移动平台及存储介质 |
JP7475830B2 (ja) * | 2019-09-17 | 2024-04-30 | キヤノン株式会社 | 撮像制御装置および撮像制御方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102685383A (zh) * | 2011-02-15 | 2012-09-19 | 佳能株式会社 | 摄像设备及其控制方法 |
CN102084642B (zh) * | 2009-05-11 | 2014-05-14 | 松下电器产业株式会社 | 电子照相机、图像处理装置及图像处理方法 |
CN105450940A (zh) * | 2015-11-24 | 2016-03-30 | 长春乙天科技有限公司 | 微光相机的调光控制装置及调光方法 |
CN105518555A (zh) * | 2014-07-30 | 2016-04-20 | 深圳市大疆创新科技有限公司 | 目标追踪系统及方法 |
CN105519094A (zh) * | 2014-12-15 | 2016-04-20 | 深圳市大疆创新科技有限公司 | 图像处理系统、遥控拍摄组件及曝光信息提示方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7362368B2 (en) * | 2003-06-26 | 2008-04-22 | Fotonation Vision Limited | Perfecting the optics within a digital image acquisition device using face detection |
US8750611B1 (en) * | 2012-02-29 | 2014-06-10 | Exelis Inc. | In-scene balancing of remotely sensed and aerial multiband imagery |
US9131150B1 (en) * | 2014-06-06 | 2015-09-08 | Amazon Technologies, Inc. | Automatic exposure control and illumination for head tracking |
US9817396B1 (en) * | 2014-06-09 | 2017-11-14 | X Development Llc | Supervisory control of an unmanned aerial vehicle |
US9686458B2 (en) * | 2015-04-16 | 2017-06-20 | Sony Corporation | Camera LED flash with variable lens gain |
-
2016
- 2016-07-28 CN CN201680087802.8A patent/CN109478061A/zh active Pending
- 2016-07-28 WO PCT/CN2016/092112 patent/WO2018018514A1/en active Application Filing
-
2019
- 2019-01-23 US US16/255,159 patent/US11320817B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102084642B (zh) * | 2009-05-11 | 2014-05-14 | 松下电器产业株式会社 | 电子照相机、图像处理装置及图像处理方法 |
CN102685383A (zh) * | 2011-02-15 | 2012-09-19 | 佳能株式会社 | 摄像设备及其控制方法 |
CN105518555A (zh) * | 2014-07-30 | 2016-04-20 | 深圳市大疆创新科技有限公司 | 目标追踪系统及方法 |
CN105519094A (zh) * | 2014-12-15 | 2016-04-20 | 深圳市大疆创新科技有限公司 | 图像处理系统、遥控拍摄组件及曝光信息提示方法 |
CN105450940A (zh) * | 2015-11-24 | 2016-03-30 | 长春乙天科技有限公司 | 微光相机的调光控制装置及调光方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109922275A (zh) * | 2019-03-28 | 2019-06-21 | 苏州科达科技股份有限公司 | 曝光参数的自适应调整方法、装置及一种拍摄设备 |
CN109922275B (zh) * | 2019-03-28 | 2021-04-06 | 苏州科达科技股份有限公司 | 曝光参数的自适应调整方法、装置及一种拍摄设备 |
CN110493539A (zh) * | 2019-08-19 | 2019-11-22 | Oppo广东移动通信有限公司 | 自动曝光处理方法、处理装置和电子设备 |
CN110493539B (zh) * | 2019-08-19 | 2021-03-23 | Oppo广东移动通信有限公司 | 自动曝光处理方法、处理装置和电子设备 |
Also Published As
Publication number | Publication date |
---|---|
WO2018018514A1 (en) | 2018-02-01 |
US11320817B2 (en) | 2022-05-03 |
US20190171201A1 (en) | 2019-06-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11263761B2 (en) | Systems and methods for visual target tracking | |
US11039086B2 (en) | Dual lens system having a light splitter | |
CN108602561B (zh) | 用于利用多摄像机网络捕捉静态场景和/或运动场景的系统和方法 | |
CN109478061A (zh) | 基于目标的图像曝光调整 | |
US11722647B2 (en) | Unmanned aerial vehicle imaging control method, unmanned aerial vehicle imaging method, control terminal, unmanned aerial vehicle control device, and unmanned aerial vehicle | |
CN108886572B (zh) | 调整图像焦点的方法和系统 | |
CN109983468A (zh) | 使用特征点检测和跟踪对象的方法和系统 | |
CN103874193B (zh) | 一种移动终端定位的方法及系统 | |
US20220270277A1 (en) | Computing a point cloud from stitched images | |
CN109792543B (zh) | 根据可移动物捕获的图像数据创建视频抽象的方法和系统 | |
CN111344644A (zh) | 用于基于运动的自动图像捕获的技术 | |
CN108780262B (zh) | 一种相对于成像装置内的图像传感器移动光学器件的方法和装置 | |
CN109716255A (zh) | 用于操作可移动物体以规避障碍物的方法和系统 | |
CN108780261B (zh) | 使用自适应步长的对比度检测自动聚焦 | |
JP2019531611A (ja) | 画像処理方法及び移動体を制御するシステム | |
CN110139038A (zh) | 一种自主环绕拍摄方法、装置以及无人机 | |
US20200154032A1 (en) | Systems and methods for automatic detection and correction of luminance variations in images | |
JP2019149652A (ja) | 情報送信装置、通信システム及び通信端末 | |
CN110799801A (zh) | 基于无人机的测距方法、装置及无人机 | |
WO2022109860A1 (zh) | 跟踪目标对象的方法和云台 | |
CN109323691A (zh) | 一种定位系统以及定位方法 | |
CN110192161B (zh) | 使用射线投射映射来操作可移动平台的方法和系统 | |
US20240073520A1 (en) | Dual camera tracking system | |
CN109073877A (zh) | 光程调节 | |
KR20230159722A (ko) | 3차원 영상 정보를 제공하기 위한 이동형 영상 촬영 장치, 이에 대한 방법 및 이를 포함하는 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190315 |
|
RJ01 | Rejection of invention patent application after publication |