CN102870137A - 用于基于2d运动估计相对3d速度和加速度投影函数的数据挖掘方法和系统 - Google Patents

用于基于2d运动估计相对3d速度和加速度投影函数的数据挖掘方法和系统 Download PDF

Info

Publication number
CN102870137A
CN102870137A CN2010800641918A CN201080064191A CN102870137A CN 102870137 A CN102870137 A CN 102870137A CN 2010800641918 A CN2010800641918 A CN 2010800641918A CN 201080064191 A CN201080064191 A CN 201080064191A CN 102870137 A CN102870137 A CN 102870137A
Authority
CN
China
Prior art keywords
unit
space
acceleration
camera
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2010800641918A
Other languages
English (en)
Inventor
刘礼斌
李国柱
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Publication of CN102870137A publication Critical patent/CN102870137A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Abstract

公开了一种用于确定用于将数据从空间的第一图像转换到空间的第二图像的转换矩阵的方法。该方法包括从监视该空间的视频照相机接收图像数据,其中,该视频照相机产生移动穿过该空间的物体的图像数据,并且从该图像数据确定该物体关于照相机的视场的空间-时间位置。该方法进一步包括基于该物体的空间-时间位置,确定相对于照相机的视场的该物体的运动的观察属性,观察属性包括该物体关于照相机的视场的速度和该物体关于照相机的视场的加速度中的至少一项。该方法还包括基于该物体的运动的观察属性来确定转换矩阵。

Description

用于基于2D运动估计相对3D速度和加速度投影函数的数据挖掘方法和系统
技术领域
本公开涉及一种用于确定用于将第一图像转换成第二图像的转换矩阵,以及用于将第一图像转换成第二图像的系统和方法。
背景技术
随着对于视频监测系统的需要的增长,对于更加自动化的系统的需要变得更加明显。这些系统被配置为探测移动物体并且分析其行为。为了优化这些系统,重要的是该系统能够相对于彼此和相对于正被照相机监视的空间而地理空间地定位物体。
已经提出的一种方案是使用经校准的照相机,其能够被提供用于物体探测和定位。然而,这些照相机要求大量的时间以人工方式校准照相机。此外,照相机的人工校准是非常复杂的过程并且要求使用物理几何图案,诸如棋盘、照明图案或者陆标基准。因为经常在停车场、大厅中或者在广阔空间中置放视频监测照相机,所以照相机的视场(FOV)经常是非常大的,并且校准物体例如棋盘太小以至不能在这种大的FOV中校准照相机。因此,存在对于具有更加易于校准并且改进物体定位的照相机的视频监测系统的需要。
该部分提供与本公开有关的背景信息,其并不是必要地是现有技术。
发明内容
公开了一种用于确定转换矩阵的方法,该转换矩阵被用于将数据从空间的第一图像转换到该空间的第二图像。该方法包括从监视该空间的视频照相机接收图像数据,其中该视频照相机产生穿过该空间移动的物体的图像数据,并且从图像数据确定该物体关于照相机的视场的空间-时间位置。该方法进一步包括基于物体的空间-时间位置,相对于照相机的视场来确定该物体的运动的观察属性,观察属性包括该物体关于照相机视场的速度和该物体关于照相机视场的加速度中的至少一项。该方法还包括基于该物体的运动的观察属性确定转换矩阵。
该部分提供本公开的总体简介,而非将其的全部范围或者其的所有特征进行全面披露。
根据在这里提供的说明,进一步的适用领域将变得清楚。在该简介中的说明和具体实例仅仅出于示意的意图,而非旨在限制本公开的范围。
附图说明
图1是示意示例性视频监测系统的框图;
图2是示意监测系统的示例性构件的框图;
图3A是示意视频照相机的示例性视场(FOV)的视图;
图3B是示意带有在FOV上覆盖的栅格的照相机的示例性FOV的视图;
图4是示意具有不同分辨率的栅格和相对于每一个栅格的物体运动的视图;
图5是示意数据挖掘模块的示例性构件的框图;
图6是示意被分类成方向卦限的数据单元(data cell)的视图;
图7是示意处理模块的示例性构件的框图;
图8是示意关于具有不同分辨率的栅格的运动数据的视图;
图9是示意具有沿着各种方向的矢量的示例性速度映射的视图;
图10是示意具有仅仅沿着优势(dominant)流方向的矢量的示例性速度映射的视图;
图11是示意数据单元的融合的视图;
图12是示意用于执行数据融合的示例性方法的流程图;
图13是示意被用于转换的示例性栅格的视图;
图14是示意用于确定转换矩阵的示例性方法的流程图;
图15是示意校准模块的示例性构件的框图;
图16是示意正被转换成第二图像的图像的视图;并且
图17是示意在正被转换成第二图像的第一图像中的物体的视图。
在这里描述的附图仅仅出于示意选定的实施例的目的,而非示意所有可能的实现的目的,并且也无意限制本公开的范围。
贯穿附图中的全部的几个视图地,相应的引用数字示意相应的部分。
具体实施方式
在这里描述了一种自动化视频监测系统。视频照相机监视空间,诸如门厅或者停车场。视频照相机产生对应于在照相机的视场(FOV)中观察的空间的图像数据。该系统被配置为探测观察到在照相机的FOV中移动的物体,在下文中被称作“运动物体”。图像数据得到处理并且运动物体关于FOV的位置得到分析。基于运动物体的位置,观察到的运动物体关于FOV的运动数据,诸如,速度和加速度能够得以计算和内插。设想到这是对于多个运动物体执行的。使用观察到的运动数据,转换矩阵能够得以确定,从而该空间的图像能够被转换成第二图像。例如,第二图像可以是该空间的鸟瞰视图,即从在该空间的地面上方并且基本平行于此的角度看到的视图。一旦图像被转换成鸟瞰视图,运动物体关于该空间的实际运动数据,例如,运动物体的速度和/或加速度,和该物体在该空间中的地理空间位置便能够容易地被以更高的精度确定。
该系统还能够被配置为是自动校准的。例如,计算机产生的物体,例如,3D体现能够被插入第一图像中,并且被配置为通过所观察的空间“移动”。该图像然后被转换。如果在经转换图像中的3D体现具有与在第二图像中的3D体现大致相同的尺寸,或者在第二图像中观察到的运动对应于第一图像的运动,则转换矩阵的元素被确定为是足够的。然而,如果3D体现大得多或者小得多,或者运动并不对应于在第一图像中观察到的运动,则元素是不正确的并且应该加以调节。转换矩阵或者其它参数被调节并且重复该过程。
一旦转换矩阵被适当地调节,照相机便被校准。这允许更加有效的空间监视。例如,一旦空间被转换,便能够更加准确地估计物体的地理空间位置。此外,实际速度和加速度,即,关于空间的速度和加速度能够得以确定。
现在参考图1,示出示例性视频监测系统10。该系统可以包括感测装置,例如,视频照相机12a-12n,和监测模块20。应该理解,感测装置可以是其它类型的监测照相机,诸如,红外照相机等。出于解释的目的,感测装置在这里将被称作视频照相机。此外,对于单一照相机12的引用可以延伸至照相机12a-12n。视频照相机12a-12n监视空间,并且产生与照相机的视场(FOV)和在FOV内观察的物体相关的图像数据,并且将图像数据传送到监测模块20。监测模块20能够被配置为处理图像数据以确定运动事件是否已经发生。运动事件是何时在照相机12a的FOV中观察到运动物体。一旦探测到运动物体,对应于运动物体的轨迹的运动的观察轨迹便能够由监测模块20产生。监测模块20分析运动物体的行为或者运动,以确定是否观察到异常行为。如果确定观察轨迹是异常的,则例如能够产生报警通知。监测模块20还能够管理视频保留策略,由此监测模块20决定哪些视频应该被存储和哪些视频应该被从视频数据存储器26清除。视频数据存储器26能够被包括在容纳监测模块20的装置,例如,记录器中,或者可以是经由网络而被连接到该装置的计算机可读介质。
图2示意监测模块20的示例性构件。视频照相机12产生对应于在视频照相机12的FOV中观察到的情景的图像数据。示例性视频照相机12a包括产生对应于图像数据的元数据的元数据产生模块28。设想到可以可替代地在监测模块20中包括元数据产生模块28。数据挖掘模块30接收元数据并且确定运动物体的观察轨迹。观察轨迹能够包括但是不限于在照相机的FOV中的各种空间-时间位置处运动物体的速度和加速度。应该理解的是,运动数据,例如,速度和加速度是关于照相机的FOV的。因此,可以以像素/秒,或者每单位时间关于照相机的FOV的距离的等价测度来表示速度。应该理解的是,能够在照相机的FOV中观察多于一个运动物体,并且因此可以由数据挖掘模块30产生多个观察轨迹。
所产生的轨迹最终可以被用于确定异常行为的存在性。然而,在本公开的一个方面,轨迹被传送到处理模块32。处理模块32接收轨迹,并且能够被配置为产生对应于在照相机的FOV中观察到的运动物体的速度映射、加速度映射和/或发生映射。处理模块32能够进一步被配置为对其他的运动数据进行内插,从而所产生的映射是基于更加丰富的数据集合的。处理模块32进一步被配置为确定转换矩阵,其用于将在FOV中观察的空间的图像转换成第二图像,诸如该空间的鸟瞰视图。转换模块32使用关于照相机而观察到的运动数据产生转换矩阵。能够在挖掘元数据数据存储器36中与各种元数据一起地存储转换矩阵。挖掘元数据数据存储器36存储各种类型的数据,包括元数据、运动数据、融合数据、转换矩阵、3d物体和由记录模块20使用的其它类型的数据。
校准模块34校准转换矩阵,由此优化从第一图像到第二图像的转换。校准模块34从处理模块32或者从存储器,例如,挖掘数据数据存储器36接收转换矩阵。校准矩阵接收第一图像并且将计算机产生的物体嵌入该图像中。此外,校准模块34能够被配置为跟踪计算机产生的物体的轨迹。校准模块34然后转换带有嵌入的计算机产生的物体的图像。如果计算机产生的物体曾“移动”穿过该空间,则校准模块34然后评价在经转换空间中的嵌入的计算机产生的物体及其轨迹。校准模块34比较经转换的计算机产生的物体与初始计算机产生的物体,并且确定转换矩阵是否准确地将第一图像转换成第二图像。这是通过比较物体自身和/或物体的运动而实现的。如果转换矩阵并不准确地转换图像,则转换矩阵的值被校准模块34调节。
设想到能够以在计算机可读介质,诸如,RAM、ROM、CD-ROM、硬盘驱动器等中嵌入的计算机可读指令来实现监测模块20及其构件。此外,指令能够由与视频监测系统相关联的处理器执行。此外,可以作为专用硬件来实现监测模块的某些构件或者子构件。
元数据产生模块28接收图像数据,并且产生对应于图像数据的元数据。元数据的实例能够包括但是不限于:运动物体标识符、围绕运动物体的边界框、在边界框上的特定点,例如,左上角或者中心点的(x,y)坐标、边界框的高度和宽度、以及帧数或者时间戳。图3A描绘在照相机的FOV中的边界框310的一个实例。如能够看到地,左上角被用作基准点或者边界框的位置。还在图中示出能够提取的元数据的实例,其包括(x,y)坐标、边界框310的高度和宽度。轨迹未必是元数据,并且其被示出以仅仅用于示出运动物体的路径。此外,FOV可以被划分成多个单元。图3B描绘被划分成5×5栅格,即,25个单元的示例性FOV。作为参考,还描绘了边界框和运动物体。当FOV被划分成栅格时,能够通过在运动物体或者边界框上的特定点位于其处的单元,来描述运动物体的位置。此外,用于特定的单元或者照相机的区域的时间-序列的元数据能够被格式化成数据立方体(data cube)。另外地,每一个单元的数据立方体可以包含有关观察到的运动和当运动物体通过这些单元时从运动物体获得的出现样本的统计数据。
如能够理解地,每次已经探测到运动事件时,时间戳或者帧数均能够被用于以时间方式对于运动物体排序。在每一个事件处,均可以为具体的帧或者时间戳产生元数据。此外,用于所有的帧或者时间戳的元数据能够被格式化成有序元组。例如,以下可以代表一系列运动事件,其中对应于运动物体的元数据的元组根据<t,x,y,h,w,obj_id>而被格式化:
<t1,5,5,4,2,1>,<t2,4,4,4,2,1>,…<t5,1,1,4,2,1>
如能够看到地,其边界框为四个单位高和两个单位宽的、具有id标签1的运动物体在五个样本中从点(5,5)移动到点(1,1)。如能够看到地,运动物体由一组空间-时间坐标限定。还应该理解的是,现在已知或者在以后发展起来的、从图像数据产生元数据的任何手段均可以由元数据产生模块28使用,以产生元数据。
进而,FOV能够具有被划分成多个单元的叠置的栅格。图3B描绘被划分成5×5栅格,即,25个单元的示例性FOV。作为参考,还描绘了边界框和运动物体。当FOV被划分成栅格时,能够利用在运动物体或者边界框上的特定点位于其处的单元来描述运动物体的位置。
另外地,在本公开的一个方面,元数据产生模块28能够被配置为记录运动物体关于多个栅格的空间-时间位置。如将在下面示出地,跟踪运动物体关于多个栅格的位置允许转换模块32执行更加准确的运动数据内插。
图4示意被用于跟踪物体的运动的多个栅格的一个实例。如能够从图看到地,存在所描绘的相同情景的三个FOV,每一个FOV均带有相应的栅格。FOV 402具有4×4栅格,FOV 404具有3×3栅格,并且FOV 406具有8×8栅格。FOV 408是在彼此顶上叠置的所有的三个栅格的视图。如能够在每一个FOV中看到地,物体开始于位置410处并且结束于位置412处。元数据产生模块28通过识别在特定时间处物体位于每一个栅格中的哪一个单元处,从而跟踪物体的运动。如能够在图4的实例中理解地,对于每一个运动事件,元数据产生模块28能够输出对应于物体关于每一个栅格的位置的三个单元标识符。
元数据产生模块28还能够被配置为从元数据移除界外值(outlier)。例如如果对于特定时间样本所接收的元数据与其余的元数据不一致,则元数据产生模块28确定样本是界外值,并且将其从元数据移除。
元数据产生模块28向元数据挖掘仓库36并且向数据挖掘模块30输出所产生的元数据。元数据产生模块28还将元数据传送到转换模块38,转换模块38转换空间的图像,并且将经转换图像传送到监测模块40。
图5示意数据挖掘模块30的示例性构件。数据挖掘模块30从元数据产生模块28或者从挖掘元数据数据存储器36接收元数据。示例性数据挖掘模块30包括矢量产生模块50、界外值探测模块52、速度计算模块54、和加速度计算模块56。
矢量产生模块50接收元数据,并且确定所要产生的矢量的数量。例如,如果两个物体在单一情景中移动,则可以产生两个矢量。矢量产生模块50能够具有存储达预定数量的轨迹矢量的矢量缓冲器。此外,因为在矢量中的条目的数量将等于在其中具有探测到的运动物体的帧或者带有时间戳的帧的数量,所以矢量产生模块50能够为对应于运动物体的每一个矢量分派适当数量的存储器。在矢量产生被实时地执行的情形中,当接收新的元数据时,矢量产生模块50能够为在轨迹中的新的点分派另外的存储器。矢量产生模块50还将位置数据和时间数据插入轨迹矢量中。从元数据确定了位置数据。能够以实际的(x,y)坐标或者通过识别在其中观察到运动物体的单元而列出位置数据。
界外值探测模块66接收轨迹矢量并且读出在各种时间采样处的运动物体的值。界外值是与数据集合的其余部分不一致的数据样本。例如,如果运动物体在样本t1和t3中在FOV的左上角处被探测到,但是在样本t2中位于右下角中,则界外值探测模块52能够确定对于时间t2的时间样本是界外值。设想到可以在界外值探测模块中实施探测界外值的任何手段。此外,如将在下面讨论地,如果探测到界外值,则可以基于其它数据样本内插运动物体的位置。设想到界外值探测模块52能够实施界外值确定的任何手段。
速度计算模块54计算运动物体在各种时间样本处的速度。应该理解的是,在每个时间段的速度将具有两个分量,即速度矢量的方向和幅值。幅值涉及运动物体的速率。能够根据
V ( t curr ) = ( ( x ( t cuur ) - x ( t cuur - 1 ) ) 2 + ( ( y ( t cuur ) - y ( t cuur - 1 ) ) 2 ( t cuur - t cuur - 1 ) - - - ( 1 )
为在tcurr的轨迹计算速度矢量的幅值,或者运动物体的速率。可替代地,可以以速度矢量的单独的分量来表示速度矢量的幅值,即:
Vx ( t curr ) = ( ( x ( t cuur ) - x ( t cuur - 1 ) ) ( t cuur - t cuur - 1 ) Vy ( t curr ) = ( ( y ( t cuur ) - y ( t cuur - 1 ) ) ( t cuur - t cuur - 1 ) - - - ( 2 )
进一步理解的是,如果使用数据单元表示,即,运动物体的位置由在其中发现运动物体的数据单元限定,则对应于数据单元或者单元标识符的预定(x,y)值能够替代实际位置。此外,如果实现了多个栅格,则能够关于多个栅格表示运动物体的位置和速度,即,对于每一个栅格单独地表示。应该理解的是,计算速度将是相对于照相机的FOV的,例如,像素每秒。因此,尽管两个物体可以以相同或者类似的速率行进的事实,但是更加远离的物体看起来仍将慢于更加靠近照相机的物体。进一步设想到可以实现计算相对速度的其它手段。
能够通过将每一个数据单元划分成预定的子单元,例如,8个卦限而相对于它在数据单元中的方向来表示速度矢量的方向。图6示意被分成8个卦限1-8的数据单元70的一个实例。根据在tcurr和tcurr+1样本之间的轨迹的方向,可以通过确定轨迹能够落入哪一个卦限中来近似该方向。例如,沿着靠近NNE的任何方向,例如,沿着基本向上的方向并且稍微向右地行进的轨迹能够被给予单个轨迹方向,如由标记62示出地。因此,用于数据单元的任何速度矢量可以由数据单元卦限标识符和幅值来表示。
加速度计算模块56以与速度计算模块54基本相同的方式操作。替代位置值,可以使用在各种时间样本处的速度矢量的幅值。因此,可以通过:
&Lambda; ( t curr ) = ( ( Vx ( t cuur ) - Vx ( t cuur - 1 ) ) 2 + ( ( Vy ( t cuur ) - Vy ( t cuur - 1 ) ) 2 ( t cuur - t cuur - 1 ) - - - ( 3 )
计算加速度。
可替代地,可以以加速度矢量的单独分量表示加速度矢量的幅值,即:
Ax ( t curr ) = ( ( Vx ( t cuur ) - Vx ( t cuur - 1 ) ) ( t cuur - t cuur - 1 ) Ay ( t curr ) = ( ( Vy ( t cuur ) - Vy ( t cuur - 1 ) ) ( t cuur - t cuur - 1 ) - - - ( 4 )
关于方向,加速度矢量的方向可以沿着与速度矢量相同的方向。然而,应该理解的是,如果运动物体减速或者转动,则加速度矢量的方向将不同于速度矢量的方向。
数据挖掘模块30能够进一步被配置为为每一个单元产生数据立方体。数据立方体是多维阵列,其中在阵列中的每一个元素对应于不同的时间。在数据立方体中的条目可以包括在相应的时间在特定单元中观察到的运动数据。因此,在单元的数据立方体中,可以记录随着时间观察到的各种运动物体的速度和加速度。此外,数据立方体可以包含运动物体的预期属性,诸如,最小边界框的尺寸。
一旦产生了运动物体的轨迹矢量,该矢量便可以被存储在元数据挖掘仓库36中。
处理模块32被配置为确定用于将观察空间的图像转换成第二图像的转换矩阵。图7示意处理模块32的示例性构件。
第一数据内插模块70被配置为从数据挖掘模块30或者从挖掘元数据数据存储器36中接收轨迹矢量,并且对于具有非完整的、与之相关联的运动数据的单元进行内插数据。一旦得以确定,便在用于轨迹的观察运动数据中包括内插运动数据。
数据融合模块72被配置为接收观察运动数据,其包括内插运动数据,并且组合多个观察轨迹的运动数据。数据融合模块72的输出可以包括但是不限于至少一个速度映射、至少一个加速度映射,和至少一个发生映射,其中,各种映射是关于由此限定运动数据的栅格限定的。
转换模块74接收融合数据并且基于此确定转换矩阵。在某些实施例中,转换模块74依赖于某些假设,诸如,运动物体关于空间具有恒定速度的假设,以确定转换矩阵。转换矩阵能够由监测系统使用,以将空间视图“旋转”成第二视图,例如鸟瞰视图。转换模块74可以进一步被配置为将空间的图像实际上转换成第二图像。在描述将第一图像转换或者旋转时,应该理解的是,能够执行转换,以在经转换空间中跟踪运动物体。因此,当物体的运动得以跟踪时,它可以在经转换空间而非观察空间中得到跟踪。
第一数据内插模块70能够被配置为对于具有非完整数据的单元进行内插数据。图8示意非完整数据集合和内插的实例。在图8中描绘的FOV对应于在图4中描绘的FOV。在方框中的箭头代表图4所示运动物体的速度矢量。
如能够理解的是,每一个运动事件能够对应于从一个帧到第二帧的改变。因此,当运动数据被采样时,观察轨迹很可能由在各种时间点获取的样本构成。相应地,运动物体通过其的某些单元可能不具有与它们相关联的数据,因为在运动物体通过特定单元时未获取任何样本。例如,在FOV 402中的数据包括在方框(0,0)、(2,2,)和(3,3)中的速度矢量。然而,为了从盒子(0,0)到达(2,2),轨迹应该已经通过列1。第一数据内插模块70被配置为确定为哪一个单元内插数据,以及矢量的幅值。设想到,能够通过将来自第一进行单元和第一个随后的单元的数据平均化,以确定用于具有非完整数据的单元的数据,从而执行由第一数据内插模块70执行的内插。在可替代实施例中,能够执行其它统计技术,诸如,对于轨迹的运动数据执行线性回归以确定具有非完整数据的单元的数据。
第一数据内插模块70能够被配置为使用一个栅格或者多个栅格来内插数据。设想到可以同样地使用用于数据内插的其它技术。
一旦第一数据内插模块70已经内插数据,数据融合模块72便能够融合来自多个运动物体的数据。数据融合模块72能够从来自元数据挖掘数据存储器36或者来自另一来源,诸如第一数据内插模块70,或者与之相关联的存储器缓冲器的多个轨迹中检索运动数据。在某些实施例中,数据融合模块72产生示意在每一个单元中观察到的速度的速度映射。类似地,能够产生加速度映射。最后,能够产生示意在特定单元中观察到的运动物体的数量的发生映射。此外,数据融合模块72可以为每一个栅格产生速度映射、加速度映射、和/或发生映射。应该理解的是,每一个映射能够被配置成具有关于每一个单元的条目的数据结构,并且每一个条目具有列表、阵列或者示意关于每一个单元的运动数据的其它手段。例如,用于4×4栅格的速度映射能够由具有16个条目的数据结构组成,每一个条目对应于特定的单元。每一个条目可以由速度矢量的列表构成。此外,使用简单的三角等式,速度矢量可以被分解成矢量的x和y分量。
图9描绘示例性速度映射。如能够看到地,该映射由16个单元构成。在每一个单元中,描绘了在单元中观察到的轨迹的分量矢量。如能够从该实例看到地,如与FOV的顶部相比,靠近FOV的底部处,沿着向上方向指向的速度矢量具有更高的幅值。这示意FOV的底部对应于很可能比在空间中对应于FOV的顶部的空间的区域更加靠近照相机的在空间中的区域。应该理解的是,数据融合模块72可以产生类似速度映射的加速度映射,其中箭头将表示在单元中观察到的加速度矢量。发生映射能够由单元和示意在特定周期期间在单元中观察到的运动物体的数目的计数表示。融合数据,例如所产生的映射,能够被存储在挖掘元数据数据存储器36中。
此外,数据融合模块74能够进一步被配置为为每一个单元计算优势流方向。对于每一个单元,数据融合模块能够检查与之相关联的速度矢量,并且确定与该单元相关联的一般流。这能够通过对于特定的单元,对于沿着每一个方向的速度矢量的数目计数而实现。如较早描述地,如以前在图6中示出地,能够通过将单元划分成一组卦限而近似矢量的方向。
一旦确定了优势流方向,数据融合模块72便从速度映射移除并不沿着单元的优势流方向的所有的矢量。图10对应于图9,并且示出在已经移除非优势流方向矢量之后的速度映射102。在某些实施例中,在以下描述的计算中使用仅仅具有优势流方向矢量的简化速度映射,以减小系统的计算复杂度。此外,在某些实施例中,数据融合模块72进一步被配置为确定优势流方向运动矢量,例如速度和加速度的幅值。这能够以各种方式实现,包括计算沿着优势流方向的平均速度或者加速度。优势流方向矢量能够进一步被分解成它们的分别的x和y分矢量。例如,能够根据以下等式计算用于特定单元的优势流方向速度矢量的分量:
vx=vm*sin(α);(5)
vy=vm*cos(α);(6)
其中vm是优势流方向速度矢量的幅值并且α是方向矢量的角度。
此外,理解到在某些实施例中,如果使用了大数目的单元,例如具有256个单元的16×16栅格,则数据融合模块72可以将单元合并成更大的单元,例如具有16个单元的4×4栅格。应该理解的是,较小的单元能够简单地被插入较大的单元中,并且作为在较大的单元内的单个单元来对待。图11示意合并数据单元的一个实例。在图中,栅格110是16×16栅格。还在栅格110中描绘了具有16个单元的左上角子栅格112。数据融合模块72将数据从顶部子栅格插入栅格114的左上单元116中。如能够在图中看到,子栅格112被合并到栅格114的左上单元116中,使得如它处于单一单元116中那样来对待来自子栅格112的任何数据。数据融合模块74对于在第一栅格中的单元的其余部分执行这个操作,由此将来自第一栅格112的数据融合到第二栅格114。应该理解的是,以上提供的栅格尺寸是作为实例的,而非旨在进行限制。此外,栅格并不需要是正方形的、而可以是长方形的,例如16×12栅格合并到4×3栅格中。
图12示意能够由数据融合模块72执行的示例性方法。如在步骤1202处所示,数据融合模块72将产生具有所期数量的单元的运动数据映射,例如,速度映射。为了解释性的意图,假设运动数据映射是速度映射。如所述及地,速度数据映射能够是具有用于运动数据映射的每一个单元的条目的一种数据结构,诸如阵列。
如在步骤1204描绘地,数据融合模块72然后从挖掘元数据数据存储器36对于特定的时间周期检索轨迹数据。应该理解的是,该系统能够被配置为分析仅仅在给定时期期间发生的轨迹。因此,数据融合模块72可以产生多个速度映射,每一个映射对应于不同的时间周期,不同的时间周期在下文中被称作“时段”。每一个映射能够由它的时段,即,对应于该映射的时间周期识别。
一旦轨迹数据得以检索,数据融合模块72便能够将速度矢量插入速度映射的单元中,这对应于步骤1206。此外,如果数据融合模块72被配置为合并数据单元,则这同样可以在步骤1206执行。如由图11的实例示出地,这能够通过将用于限定轨迹数据的单元映射到该映射的更大的单元而得以实现。
在数据已经被插入速度映射的单元中之后,如在步骤1208处所示,数据融合模块72能够确定每一个单元的优势流方向。数据融合模块72将分析在单元中的每一个速度矢量,并且为单元中的每一个方向保存计数。具有与此相应的最多速度矢量的方向被确定为该单元的优势流方向。
如在步骤1210中所示,一旦优势流方向得以确定,便能够为每一个单元计算优势流方向速度矢量。如所述及地,能够以很多方式实现这个步骤。例如,能够计算沿着优势流方向而导向的速度矢量的平均幅值。可替代地,能够使用中位幅值,或者最大或者最小幅值能够被用作优势流方向速度矢量的幅值。此外,优势流方向速度矢量可以被分解成它的分量矢量,从而它由沿着x方向的矢量和沿着y方向的矢量表示,如在步骤1212描绘地。应该理解的是,两个矢量的和在方向和幅值这两者方面均等于优势流方向速度矢量。
前面的方法是数据融合的一个实例。设想到所叙述的步骤并不要求按照给定的顺序执行,而是可以按照其它顺序执行。另外地,某些步骤可以被同时地执行。此外,并非要求执行所有的步骤并且可以执行另外的步骤。虽然前面是关于产生速度映射来进行描述的,但是应该理解的是,该方法同样能够被用于确定加速度映射。
数据融合模块72能够进一步被配置为产生发生映射。如在步骤1208处所示,当方向正被计数时,可以为在每一个单元中观察到的矢量的总数量保存单独的计数。因此,每一个单元可以具有进一步与之相关联的总发生数量,其能够被用作发生映射。
一旦用于特定单元的数据被合并,用于特定单元的数据便能够由以下<cn,rn,vxcn,rn,vycn,rn,sn>表示,其中,cn是单元的列数,rn是单元的行数,vxcn,rn是单元的优势流方向速度矢量的x分量,vycn,rn是单元的优势流方向速度矢量的y分量,并且sn是时段数目。如以上讨论地,时段数目对应于为此检索轨迹矢量的时间周期。此外,可以包括的另外的数据是优势流方向加速度矢量的加速度矢量的x和y分量,以及在单元中的发生数目。例如,用于特定单元的融合数据能够进一步由<cn,rn,vxcn,rn,vycn,rn,axcn,rn,aycn,rn,on,sn>表示。
数据融合模块72能够进一步被配置为为每一个单元确定四组系数,由此每一个单元具有对应于单元的角部的四个系数。数据融合模块72使用用于单元的优势流方向速度矢量,以产生用于特定单元的系数。图13示意4×4栅格130,其中,用于每一个单元的一组系数在它的相应的角部中示出。虽然该图示出的是,在其中每一个单元的角部以90度角度排列起来的栅格120,但是将会清楚,每一个单元的形状可以是显著地倾斜的。能够根据以下计算每一个单元的顶点或者坐标:
x1=vx0,0
x2=vx1,0
X3=vx3,0
X4=vx4,0
Y1=vy0,0
Y2=vy1,0
Y3=vy2,0
Y4=vy3,0
X5=vx0,1
X6=vx1,1
X7=vx2,1
X8=vx3,1
Y5=vy0,1
Y6=vy1,1
Y7=vy2,1
Y8=vy3,1
X9=vx0,2
X10=vx1,2
X11=vx3,2
X12=vx4,2
Y9=vy0,2
Y10=vy1,2
Y11=vy2,2
Y12=vy3,2
X13=vx0,3
X14=vx1,3
X15=vx3,3
X16=vx4,3
Y10=vy0,3
Y11=vy1,3
Y12=vy2,3
Y13=vy3,3
应该理解的是,vxa,b是在第a列和第b行中的优势流方向速度矢量的x分量的绝对值,并且vya,b是在第a列和第b行中的优势流方向速度矢量的y分量的绝对值。应该理解的是,第一列是列0并且顶行是行0。进一步应该理解的是,前述是一个实例并且所描述的框架能够被用于确定具有各种尺寸的栅格。
一旦数据融合模块72已经产生了对应于每一个单元的优势流方向的坐标,转换模块74便将确定用于每一个单元的转换矩阵。用于单元的转换矩阵被用于将观察空间的图像,即,对应于在照相机的FOV中观察的空间的图像,转换成对应于不同的空间透视的第二图像。
数据融合模块72可以进一步被配置为确定运动物体的实际运动数据。即,数据融合模块72能够从观察到的运动数据中确定物体关于空间的实际速度或者加速度。此外,数据融合模块32可以被配置为基于观察运动数据和/或实际运动数据来确定照相机的角度,例如,照相机的摇摄和/或倾斜。
在本实施例中,转换模块74接收融合数据,其包括单元的优势流方向,和对应于单元的优势流方向速度的坐标。转换模块74然后计算用于单元的理论坐标。用于单元的理论坐标基于普通运动物体的假设速度和单元的优势流方向。例如,如果照相机正在监视人行道,则假设速度将对应于普通行人的速度,例如1.8m/s。如果照相机正在监视停车场,则假设速度能够对应于在停车场状况中的车辆的平均速度,例如15mph或者7.7m/s。
应该理解的是,平均速度能够是硬编码的,或者其可以贯穿监测系统的使用而被以适应性方式调节。此外,可以实施物体探测技术,以确保被用于校准的轨迹全部对应于相同的物体类型。
转换模块74将使用单元的优势流方向和假设速度va,来确定假设速度的x分量和y分量的绝对值。假设关于x轴线获取优势流方向的角度α,则能够使用以下等式求解x和y分量:
vx’=va*sin(α);(7)
vy’=va*cos(α);(8)
其中va是假设速度并且α是关于x轴线(或者任何水平轴线)单元的优势流方向的角度。一旦分矢量得以计算,理论坐标便能够被插入矩阵B'中,使得:
B &prime; = ( 0,0 ) ( vx &prime; , 0 ) ( 0 , vy &prime; ) ( vx &prime; , vy &prime; ) - - - ( 9 )
而且,单元的计算坐标,即,基于单元的优势流方向速度矢量的单元的坐标可以被插入矩阵B中,使得:
B = ( 0 , 0 ) ( vx , 0 ) ( 0 , vy ) ( vx , vy ) - - - ( 10 )
使用两个矩阵B和B',能够求解用于单元的转换矩阵A。应该理解的是,能够如下定义转换矩阵A:
A = C 00 C 01 C 02 C 10 C 11 C 12 C 02 C 12 C 22 - - - ( 11 )
能够使用以下等式求解A的值:
x i &prime; = ( C 00 x i + C 01 y i + C 02 C 20 x i + C 21 y i + C 22 ) - - - ( 12 )
y i &prime; = ( C 10 x i + C 11 y i + C 12 C 20 x i + C 21 y i + C 22 ) - - - ( 13 )
其中xi’和yi’是在B'的第i元素处的坐标值,并且xi和yi是B的第i元素,并且其中i=[1,2,3,4],从而1是左上元素,2是右上元素,3是右下元素,并且4是右下元素。可以利用方程组来求解转换矩阵A的元素。
转换模块74使用用于每一个特定单元的融合数据来为每一个单元执行前面的操作,以确定该单元的转换矩阵。因此,在其中使用4×4栅格的实例中,则将产生16个单独的转换矩阵。此外,转换模块74能够存储对应于在挖掘元数据数据存储器36中的每一个单元的转换矩阵。
在可替代实施例中,转换模块74确定用于转换整个图像的单个转换矩阵。在可替代实施例中,转换模块74接收优势流方向速度矢量和/或加速度矢量,以及发生映射。
图14示意可以由转换模块74执行以确定单个转换矩阵的示例性方法。转换模块74在步骤1402接收融合数据和照相机参数。照相机参数是照相机专有的参数,并且可以从照相机制造商或者从照相机的说明书获得。照相机参数包括照相机镜头的焦距和照相机的中心点。照相机的中心点是在图像中镜头的光轴在此处将与图像交叉的位置。应该理解的是,这个值具有x值px和y值py。镜头的焦距还能够被分解成它的x和y分量,从而fx是焦距的x分量并且fy是焦距的y分量。
如在步骤1404处所示,然后转换模块74将从发生映射确定具有最高发生数量的n个单元。发生映射接收有融合运动数据。如将变得清楚地,n应该大于或者等于6。如还将理解地,n越大,转换矩阵将越准确,但是这是以计算资源为代价的。如在步骤1406处所示,对于n个单元中的每一个单元,转换模块74将检索用于特定单元的优势流方向加速度矢量的x和y分矢量。
使用照相机参数和用于n个单元的分量矢量,转换模块74将如下地定义转换方程:
&lambda; a x a y 1 = f x 0 p x f y p y 1 1 0 0 0 1 0 0 0 1 0 0 0 R 11 R 12 R 13 t 1 R 21 R 22 R 23 t 2 R 31 R 32 R 33 t 2 0 0 0 1 X Y Z 1 - - - ( 14 )
其中,λ起初地被设为1,并且其中X、Y和Z被设为0。X、Y和Z对应于运动物体关于空间的实际加速度。假设当校准照相机时,具有恒定速度的运动物体能够被用于校准照相机。因此,关于空间的实际加速度将具有加速度0。如能够理解地,观察的加速度是关于照相机的FOV的,并且可以具有除了0之外的值。此外,当存在k个速度样本时,将存在k-1个加速度样本。
使用n个单元的优势流方向加速度的加速度分矢量作为输入,使用统计回归,能够估计
R 11 R 12 R 13 t 1 R 21 R 22 R 23 t 2 R 31 R 32 R 33 t 2 0 0 0 1 - - - ( 15 )
的值。应该理解的是,能够使用线性回归,以及与其它统计回归和估计技术,诸如,最小二乘回归。回归的结果是如下的转换矩阵,其能够被用于将观察空间的图像转换成第二图像,或者能够被用于将在一个空间中观察的物体转换到第二空间。
转换模块72能够进一步被配置为确定转换矩阵是否没有接收用于FOV的特定区域的足够的数据。例如,如果在等式14上执行的回归没有产生收敛的结果,则转换模块72确定需要另外的数据。类似地,如果用于不同的单元的根据等式14的结果是不一致的,则转换模块72可以确定对于所述的单元需要另外的数据。在此情形中,转换矩阵将启用第二数据内插模块74。
第二数据内插模块74接收产生非保形转换矩阵的速度映射,并且被配置为增加用于单元的数据的数量。这是通过增加栅格的分辨率和/或通过添加来自其它时段的数据而实现的。例如,参考图9,第二数据内插模块74能够采取4×4栅格,并且将数据组合成2×2栅格,或者8×8栅格能够被组合成4×4栅格。第二数据内插模块74还能够检索对应于其它时间时段的速度映射,并且组合来自两个或者更多速度映射的数据。虽然速度映射可以对应于相继的时间时段,但是组合速度映射并不需要对应于相继的时间时段。例如,具有类似的优势流方向图案的速度映射能够被组合。第二数据内插模块74的结果能够被传送到数据融合模块70。
虽然通过关于运动物体的运动属性而作出假设,从而产生在上述任一实施例中的转换矩阵,但是运动物体的实际速度和/或加速度也能够被用于确定转换矩阵。这个数据能够或者在训练阶段中确定或者可以由数据融合模块72确定。
一旦处理模块32已经确定了转换矩阵,转换矩阵便能够被校准模块34校准。如在图15中所示校准模块34包括仿真模块152,以及评价和调整模块154。
仿真模块152被配置为产生被称作体现(avatar)156的3d物体。体现156能够被预先产生以及从计算机可读介质检索,或者可以被实时地产生。体现156能够具有已知的尺寸和边界框尺寸。体现156在图像中的预定位置处被插入空间的图像中。使用由处理模块32确定的转换矩阵来转换图像或者仅仅转换体现156。根据一个实施例,用于特定单元的转换矩阵为:
A = C 00 C 01 C 02 C 10 C 11 C 12 C 02 C 12 C 22
在这些实施例中,对于每一次校准迭代,体现156均应该被置于单个单元中。能够通过计算以下等式来转换在体现156位于其中的单元中的每一个像素:
X=(x*C00+y*C01+C02)/(x*C20+y*C21+C32)
Y=(x*C10+y*C11+C12)/(x*C20+y*C21+C32)
其中,x和y是在所要转换的第一图像上的坐标,并且其中X和Y是经转换的像素的坐标。应该理解的是,这可以对于单元中的某些或者所有的像素执行。还为了校准的意图,应该使用它的相应的转换矩阵来校准每一个单元。
在该实施例中,转换矩阵被定义为:
A = R 11 R 12 R 13 t 1 R 21 R 22 R 23 t 2 R 31 R 32 R 33 t 2 0 0 0 1
在这些实施例中,能够使用以下等式执行转换
&lambda; x y 1 = f x 0 p x f y p y 1 1 0 0 0 1 0 0 0 1 0 0 0 R 11 R 12 R 13 t 1 R 21 R 22 R 23 t 2 R 31 R 32 R 33 t 2 0 0 0 1 X Y Z 1
其中x和y是所要转换的像素的坐标,并且X和Y是经转换像素的坐标。应该理解的是,通过求解X和Y,像素得以转换。
一旦体现156得以转换,经转换体现156的位置便被传送到评价和调整模块154。评价和调整模块154接收相对于初始空间而起初地放置的体现156的位置,以及关于转换空间的转换体现156的位置。在转换之后,体现156的边界框应该保持相同的尺寸。因此,评价和调整模块154将比较初始体现156和转换体现156的边界框。如果转换体现156小于初始体现156,则评价和调整模块154用大于1的数量乘以转换矩阵。如果转换体现156大于初始体现156,则评价和调整模块154用小于1的数量乘以转换矩阵。如果两个体现156具有基本相同的尺寸,例如,在彼此的5%内,则转换矩阵被视为得以校准。应该理解的是,仿真模块152将接收缩放的(scaled)转换矩阵并且再次执行转换。仿真模块152以及评价和调整模块154可以根据上述过程以迭代的方式校准矩阵或者多个矩阵。一旦转换矩阵得以校准,它便可以被存储在经挖掘的元数据数据存储器36中,或者可以被传送到图像和物体转换模块38。
回过来参考图1,图像和物体转换模块38被用于转换在照相机的FOV中观察并且由监测模块40监视的空间。图像和物体转换模块38接收图像并且使用转换矩阵或者多个矩阵转换该图像。转换图像被传送到监测模块40,从而监测模块40能够观察运动物体在转换空间中的运动。应该理解的是,通过从转换空间观察,能够容易地确定运动物体关于空间的速度和加速度,以及运动物体的地理空间位置。
当校准照相机时,使得一个或者多个运动物体,例如,人或者车辆以恒定速度移动通过在照相机的FOV中观察的空间可以是有用的。虽然这不是必要的,但是从恒定速度运动物体给出的运动数据可以给出更加准确的转换矩阵。
图16和17示意图像和物体转换模块38的结果。在图16中,观察到对应于来自具有未知照相机角度的照相机的FOV的图像1602。图像1602被送至图像和物体转换模块38,该图像和物体转换模块38使用经确定的转换矩阵将该图像转换成第二图像1604。在该实例中,第二图像具有从第一图像获取的鸟瞰视图角度。在图像中的黑暗区域1606和1608对应于在观察空间中的、并不处于照相机的FOV中,而是邻接靠近照相机的区域的部分。图17对应于图16。在图17中,体现1710已经被插入图像1602中。图像和物体转换模块1602接收图像并且将物体转换成第二图像1608。应该理解的是,在图17中的物体还能够是观察到的图像。
应该理解的是,通过当监视空间时执行转换,监测模块40进行的观察将被高度地改进。例如,能够替代关于照相机的视场的速度或者加速度,而确定运动物体的实际速度和加速度。此外,能够替代物体关于照相机的视场的位置,而确定静止或者移动的物体的地理空间位置。
已经为了示意和说明的意图而提供了实施例的前面的说明。它并非旨在是穷尽性的或者用于限制本发明。具体实施例的各个元件或者特征基本上不限于该具体实施例,而是在可适用的情况下是可互换的,并且能够在选定的实施例中使用,即便其未予具体地示出或者描述。所述元件或者特征还可以被以很多方式改变。这种变化不被视为偏离本发明,并且所有的这种修改意在被包括于本发明的范围内。

Claims (25)

1.一种用于将数据从空间的第一图像转换到所述空间的第二图像的方法,所述方法包括:
从监视所述空间的视频照相机接收图像数据,其中所述视频照相机产生移动穿过所述空间的物体的图像数据;
从所述图像数据确定所述物体关于所述照相机的视场的空间-时间位置;
基于所述物体的所述空间-时间位置确定所述物体相对于所述照相机的视场的运动的观察属性,所述观察属性包括所述物体关于所述照相机的视场的速度和所述物体关于所述照相机的视场的加速度中的至少一项;以及
基于所述物体的运动的所述观察属性来确定转换矩阵。
2.根据权利要求1所述的方法,进一步包括将所述空间的第一图像转换成所述空间的第二图像。
3.根据权利要求2所述的方法,进一步包括校准所述转换矩阵,其通过以下步骤进行:
将计算机产生的物体插入所述第一图像中;
将所述计算机产生的物体转换成在所述第二图像中的、经转换的物体;
比较所述计算机产生的物体和所述经转换的物体;并且
基于所述比较来调节在所述转换矩阵中的元素。
4.根据权利要求1所述的方法,其中所述确定所述转换矩阵进一步基于关于所述空间的运动的实际属性,其中,所述运动的实际属性包括所述物体和另一个物体中的至少一个关于所述空间的恒定速度。
5.根据权利要求1所述的方法,其中所述照相机的视场被划分成多个单元。
6.根据权利要求5所述的方法,其中所述物体的空间-时间位置是关于所述多个单元而限定的。
7.根据权利要求6所述的方法,进一步包括产生速度映射和单元速度,所述速度映射指示所述多个单元中的每一个单元的优势流方向,并且所述单元速度指示在沿着所述优势流方向移动的单元中多个被观察物体的速度,其中,所述单元速度是关于所述照相机的视场限定的,并且其中所述多个被观察物体包括所述物体。
8.根据权利要求7所述的方法,其中所述转换矩阵的所述确定是基于所述速度映射的。
9.根据权利要求8所述的方法,其中所述转换矩阵的所述确定进一步基于关于所述空间的运动的实际属性的,其中,所述运动的实际属性包括所述物体和另一个物体中的至少一个关于所述空间的恒定速度。
10.根据权利要求6所述的方法,进一步包括产生加速度映射和单元加速度,所述加速度映射指示所述多个单元中的每一个单元的优势流方向,并且所述单元加速度指示在沿着所述优势流方向移动的单元中的多个被观察物体的加速度,其中,所述单元加速度是关于所述照相机的视场而限定的,并且其中所述多个被观察物体包括所述物体。
11.根据权利要求10所述的方法,其中所述转换矩阵的所述确定是基于所述加速度映射的。
12.根据权利要求8所述的方法,其中所述转换矩阵的所述确定进一步基于关于所述空间的运动的实际属性,其中所述运动的实际属性包括具有零值的加速度,其中,所述加速度是关于所述空间的,并且对应于所述物体和另一个物体中的至少一个。
13.根据权利要求3所述的方法,其中所述校准被以迭代的方式执行。
14.一种用于将数据从空间的第一图像转换到所述空间的第二图像的系统,所述系统包括:
元数据处理模块,所述元数据处理模块被配置为从监视所述空间的视频照相机接收图像数据,其中,所述视频照相机产生移动穿过所述空间的物体的图像数据,并且从所述图像数据确定所述物体关于所述照相机的视场的空间-时间位置;
处理模块,所述处理模块被配置为基于所述物体的所述空间-时间位置来确定所述物体相对于所述照相机的视场的运动的观察属性,所述观察属性包括所述物体关于所述照相机的视场的速度和所述物体关于所述照相机的视场的加速度中的至少一项;以及
转换模块,所述转换模块被配置为基于所述物体的运动的所述观察属性来确定转换矩阵。
15.根据权利要求14所述的系统,其中,所述转换模块进一步被配置为将所述空间的第一图像转换成所述空间的第二图像。
16.根据权利要求15所述的系统,进一步包括校准模块,所述校准模块被配置为
将计算机产生的物体插入所述第一图像中;
将所述计算机产生的物体转换成在所述第二图像中的经转换的物体;
比较所述计算机产生的物体和所述经转换的物体;和
基于所述比较来调节在所述转换矩阵中的元素。
17.根据权利要求14所述的系统,其中所述转换矩阵进一步基于关于所述空间的运动的实际属性,其中所述运动的实际属性包括所述物体和另一个物体中的至少一个关于所述空间的恒定速度。
18.根据权利要求14所述的系统,其中所述照相机的视场被划分成多个单元。
19.根据权利要求18所述的系统,其中所述物体的空间-时间位置是关于所述多个单元而限定的。
20.根据权利要求19所述的系统,进一步包括数据融合模块,所述数据融合模块被配置为产生速度映射和单元速度,所述速度映射指示所述多个单元中的每一个单元的优势流方向,并且所述单元速度指示在沿着所述优势流方向移动的单元中多个被观察物体的速度,其中,所述单元速度是关于所述照相机的视场限定的,并且其中所述多个被观察物体包括所述物体。
21.根据权利要求20所述的系统,其中所述转换矩阵是基于所述速度映射的。
22.根据权利要求21所述的系统,其中所述转换矩阵进一步基于关于所述空间的运动的实际属性,其中,所述运动的实际属性包括所述物体和另一个物体中的至少一个关于所述空间的恒定速度。
23.根据权利要求19所述的系统,进一步包括数据融合模块,所述数据融合模块产生加速度映射和单元加速度,所述加速度映射指示所述多个单元中的每一个单元的优势流方向,并且所述单元加速度指示在沿着所述优势流方向移动的单元中多个被观察物体的加速度,其中,所述单元加速度是关于所述照相机的视场而限定的,并且其中所述多个被观察物体包括所述物体。
24.根据权利要求23所述的系统,其中所述转换矩阵是基于所述加速度映射的。
25.根据权利要求24所述的系统,其中所述转换矩阵进一步基于关于所述空间的运动的实际属性,其中所述运动的实际属性包括具有零值的加速度,其中,所述加速度是关于所述空间的,并且对应于所述物体和另一个物体中的至少一个。
CN2010800641918A 2010-02-19 2010-12-16 用于基于2d运动估计相对3d速度和加速度投影函数的数据挖掘方法和系统 Pending CN102870137A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/709,046 US20110205355A1 (en) 2010-02-19 2010-02-19 Data Mining Method and System For Estimating Relative 3D Velocity and Acceleration Projection Functions Based on 2D Motions
US12/709,046 2010-02-19
PCT/US2010/060757 WO2011102872A1 (en) 2010-02-19 2010-12-16 Data mining method and system for estimating relative 3d velocity and acceleration projection functions based on 2d motions

Publications (1)

Publication Number Publication Date
CN102870137A true CN102870137A (zh) 2013-01-09

Family

ID=43663548

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2010800641918A Pending CN102870137A (zh) 2010-02-19 2010-12-16 用于基于2d运动估计相对3d速度和加速度投影函数的数据挖掘方法和系统

Country Status (4)

Country Link
US (1) US20110205355A1 (zh)
JP (1) JP2013520723A (zh)
CN (1) CN102870137A (zh)
WO (1) WO2011102872A1 (zh)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101149329B1 (ko) * 2010-06-30 2012-05-23 아주대학교산학협력단 감시카메라를 이용한 능동적 객체 추적 장치 및 방법
US10412420B2 (en) * 2014-03-07 2019-09-10 Eagle Eye Networks, Inc. Content-driven surveillance image storage optimization apparatus and method of operation
US10110856B2 (en) 2014-12-05 2018-10-23 Avigilon Fortress Corporation Systems and methods for video analysis rules based on map data
EP3238447B1 (en) * 2014-12-22 2021-10-27 Cyberoptics Corporation Updating calibration of a three-dimensional measurement system
JP5915960B1 (ja) * 2015-04-17 2016-05-11 パナソニックIpマネジメント株式会社 動線分析システム及び動線分析方法
DE102015207415A1 (de) * 2015-04-23 2016-10-27 Adidas Ag Verfahren und Gerät zum Verknüpfen von Bildern in einem Video einer Aktivität einer Person mit einem Ereignis
WO2017106734A1 (en) 2015-12-16 2017-06-22 Martineau Pierre R Method and apparatus for remanent imaging control
GB2545900B (en) * 2015-12-21 2020-08-12 Canon Kk Method, device, and computer program for re-identification of objects in images obtained from a plurality of cameras
JP6558579B2 (ja) 2015-12-24 2019-08-14 パナソニックIpマネジメント株式会社 動線分析システム及び動線分析方法
US10497130B2 (en) 2016-05-10 2019-12-03 Panasonic Intellectual Property Management Co., Ltd. Moving information analyzing system and moving information analyzing method
DE102016224095A1 (de) * 2016-12-05 2018-06-07 Robert Bosch Gmbh Verfahren zum Kalibrieren einer Kamera und Kalibriersystem
US10440403B2 (en) * 2017-01-27 2019-10-08 Gvbb Holdings S.A.R.L. System and method for controlling media content capture for live video broadcast production
US11733781B2 (en) * 2019-04-02 2023-08-22 Project Dasein Llc Leveraging machine learning and fractal analysis for classifying motion
CA3135393C (en) * 2019-04-09 2023-08-29 Avigilon Coporation Anomaly detection method, system and computer readable medium
JP7363084B2 (ja) * 2019-04-24 2023-10-18 三菱電機株式会社 制御システム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE518620C2 (sv) * 2000-11-16 2002-10-29 Ericsson Telefon Ab L M Scenkonstruktion och kamerakalibrering med robust användning av "cheiralitet"
US7110569B2 (en) * 2001-09-27 2006-09-19 Koninklijke Philips Electronics N.V. Video based detection of fall-down and other events
US20040100563A1 (en) * 2002-11-27 2004-05-27 Sezai Sablak Video tracking system and method
US7639840B2 (en) * 2004-07-28 2009-12-29 Sarnoff Corporation Method and apparatus for improved video surveillance through classification of detected objects
JP4744823B2 (ja) * 2004-08-05 2011-08-10 株式会社東芝 周辺監視装置および俯瞰画像表示方法
US7558762B2 (en) * 2004-08-14 2009-07-07 Hrl Laboratories, Llc Multi-view cognitive swarm for object recognition and 3D tracking
US20080198159A1 (en) * 2007-02-16 2008-08-21 Matsushita Electric Industrial Co., Ltd. Method and apparatus for efficient and flexible surveillance visualization with context sensitive privacy preserving and power lens data mining
US8358342B2 (en) * 2007-02-23 2013-01-22 Johnson Controls Technology Company Video processing systems and methods
US8547440B2 (en) * 2010-01-29 2013-10-01 Nokia Corporation Image correction for image capturing with an optical image stabilizer

Also Published As

Publication number Publication date
JP2013520723A (ja) 2013-06-06
US20110205355A1 (en) 2011-08-25
WO2011102872A1 (en) 2011-08-25

Similar Documents

Publication Publication Date Title
CN102870137A (zh) 用于基于2d运动估计相对3d速度和加速度投影函数的数据挖掘方法和系统
CN103307975B (zh) 模型生成设备和方法以及信息处理设备和方法
CN102609942B (zh) 使用深度图进行移动相机定位
US10832478B2 (en) Method and system for virtual sensor data generation with depth ground truth annotation
CN109084732A (zh) 定位与导航方法、装置及处理设备
CN110533722A (zh) 一种基于视觉词典的机器人快速重定位方法及系统
CN112833883B (zh) 一种基于多相机的室内移动机器人定位方法
CN110400332A (zh) 一种目标检测跟踪方法、装置及计算机设备
CN109190508A (zh) 一种基于空间坐标系的多摄像头数据融合方法
CN104809456B (zh) 一种基于二值描述符的三维目标识别方法
CN105143915A (zh) 环境的3d模型的生成
CN101960490A (zh) 图像处理方法和图像处理设备
CN104937607A (zh) 用于重建目标的运动的装置、方法以及计算机程序
CN107341442A (zh) 运动控制方法、装置、计算机设备和服务机器人
CN105865462B (zh) 带有深度增强视觉传感器的基于事件的三维slam方法
CN109087394A (zh) 一种基于低成本rgb-d传感器的实时室内三维重建方法
GB2569654A (en) Apparatusses, systems and methods for object tracking
CN114332385A (zh) 一种基于三维虚拟地理场景的单目相机目标检测与空间定位方法
US20180365891A1 (en) Method in constructing a model of a scenery and device therefor
Dybedal et al. Optimal placement of 3d sensors considering range and field of view
Du et al. An open data platform for traffic parameters measurement via multirotor unmanned aerial vehicles video
CN116091724A (zh) 一种建筑数字孪生建模方法
CN109903367B (zh) 构建地图的方法、装置和计算机可读存储介质
Afghantoloee et al. Coevrage Estimation of Geosensor in 3d Vector Environments
CN115235454B (zh) 行人运动约束的视觉惯性融合定位与建图方法和装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20130109