CN104408743A - 图像分割方法和装置 - Google Patents
图像分割方法和装置 Download PDFInfo
- Publication number
- CN104408743A CN104408743A CN201410618207.5A CN201410618207A CN104408743A CN 104408743 A CN104408743 A CN 104408743A CN 201410618207 A CN201410618207 A CN 201410618207A CN 104408743 A CN104408743 A CN 104408743A
- Authority
- CN
- China
- Prior art keywords
- target object
- video image
- displacement
- module
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
Abstract
本发明提出一种图像分割方法和装置,该图像分割方法包括:接收描述目标物体的动态移动过程的视频图像,获取视频图像的全图光流和背景光流,将所述视频图像中每个像素的位移与对应的背景像素的位移进行对比,获得目标物体的前景区域;确定所述目标物体的个数;对上述目标物体进行视觉跟踪和运动轨迹分析,以对所述目标物体进行跟踪;根据所述特征点的帧间位移、帧间切割窗口相似度和跟踪框尺度变换,对所述目标物体进行静止判断和图像分割。本发明可以实现在对想要进行图像识别和认识的物体进行识别的过程中,只需要拿取或摇晃目标物体即可快速获得对目标物体的图像分割,为下一步针对目标物体的图像识别做准确的识别输入。
Description
技术领域
本发明涉及互联网技术领域,尤其涉及一种图像分割方法和装置。
背景技术
在下一个互联网风潮的人工智能领域,如何让智能穿戴设备或者机器人用人类自然的交互方式进行识别和认知,成为当下研究的核心问题,这里创造自然的人机交互方式尤为重要。基于人工智能的设备和机器人在人类生活的各方各面发生着革命性的创新,人为干预的机器视觉和认知也应该通过新技术的手段变得更加便捷高效,因此需要更自然的方式去进行机器认知和图像识别。
现在,对于图像识别和机器视觉认知的输入方式一般都采用先拍照再确定目标物体的方式,这种方式往往受限于取景内容的复杂度因而需要过多步骤,学习成本高,并且这种方式通常需要人工干预拍好的照片,例如:对拍好的照片进行圈划和涂抹。另外,识别内容无法准确让机器获得从而导致识别精度较低,难以识别不规则形状物体,操作极为不便,用户体验较差。
发明内容
本发明的目的旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明的第一个目的在于提出一种图像分割方法。通过该方法,在对想要进行图像识别和认识的物体进行识别的过程中,只需要拿取或摇晃目标物体即可快速获得对目标物体的图像分割,为下一步针对目标物体的图像识别做准确的识别输入。
本发明的第二个目的在于提出一种图像分割装置。
为了实现上述实施例,本发明第一方面实施例的图像分割方法,包括:接收描述目标物体的动态移动过程的视频图像,获取所述视频图像的全图光流,估计所述视频图像中每个像素的位移,以及获取所述视频图像的背景光流,估计所述视频图像中背景像素的位移;将所述视频图像中每个像素的位移与对应的背景像素的位移进行对比,获得所述目标物体的前景区域;对所述目标物体的前景区域中的视频图像进行特征点提取,并通过计算提取的特征点的概率密度确定所述目标物体的个数;对所述目标物体进行视觉跟踪和运动轨迹分析,以对所述目标物体进行跟踪;根据所述特征点的帧间位移、帧间切割窗口相似度和跟踪框尺度变换,对所述目标物体进行静止判断和图像分割。
本发明实施例的图像分割方法,接收描述目标物体的动态移动过程的视频图像之后,通过获取全图光流、背景光流进而确定目标物体的前景区域即目标物体,在目标物体的动态移动过程中,对目标物体进行跟踪,对目标物体进行静止判断并分割出上述目标物体所在的图像区域,从而可以实现在对想要进行图像识别和认识的物体进行识别的过程中,只需要拿取或摇晃目标物体即可快速获得对目标物体的图像分割,为下一步针对目标物体的图像识别做准确的识别输入。
为了实现上述实施例,本发明第二方面实施例的图像分割装置,包括:接收模块,用于接收描述目标物体的动态移动过程的视频图像;获取模块,用于获取所述接收模块接收的视频图像的全图光流,估计所述视频图像中每个像素的位移,以及获取所述接收模块接收的视频图像的背景光流,估计所述视频图像中背景像素的位移;对比模块,用于将所述视频图像中每个像素的位移与对应的背景像素的位移进行对比,获得所述目标物体的前景区域;提取模块,用于对所述对比模块获得的目标物体的前景区域中的视频图像进行特征点提取;确定模块,用于通过计算所述提取模块提取的特征点的概率密度确定所述目标物体的个数;跟踪模块,用于对所述目标物体进行视觉跟踪和运动轨迹分析,以对所述目标物体进行跟踪;分割模块,用于根据所述特征点的帧间位移、帧间切割窗口相似度和跟踪框尺度变换,对所述目标物体进行静止判断和图像分割。
本发明实施例的图像分割装置,接收模块接收描述目标物体的动态移动过程的视频图像之后,通过获取全图光流、背景光流进而确定目标物体的前景区域即目标物体,在目标物体的动态移动过程中,对目标物体进行跟踪,对目标物体进行静止判断并分割出上述目标物体所在的图像区域,从而可以实现在对想要进行图像识别和认识的物体进行识别的过程中,只需要拿取或摇晃目标物体即可快速获得对目标物体的图像分割,为下一步针对目标物体的图像识别做准确的识别输入。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为本发明图像分割方法一个实施例的流程图;
图2为本发明图像分割方法另一个实施例的示意图;
图3为本发明图像分割装置一个实施例的结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。相反,本发明的实施例包括落入所附加权利要求书的精神和内涵范围内的所有变化、修改和等同物。
图1为本发明图像分割方法一个实施例的流程图,如图1所示,该图像分割方法可以包括:
步骤101,接收描述目标物体的动态移动过程的视频图像,获取视频图像的全图光流,估计上述视频图像中每个像素的位移,以及获取上述视频图像的背景光流,估计上述视频图像中背景像素的位移。
其中,接收描述目标物体的动态移动过程的视频图像可以为:接收通过摄像头输入的描述目标物体的动态移动过程的视频图像。
进一步地,接收描述目标物体的动态移动过程的视频图像之前,还可以接收用户通过语音、触摸屏或者动态传感器输入的图像识别请求,以触发接收上述视频图像的操作。
也就是说,本实施例中,带有摄像头的智能设备接收到用户通过语音、触摸屏或者动态传感器输入的图像识别请求之后,开启上述智能设备上的摄像头,通过上述摄像头摄取用户拿取或移动目标物体的过程,即通过摄像头接收描述用户拿取或移动目标物体的视频图像,进而执行后续流程。
其中,上述带有摄像头的智能设备可以为带有摄像头的智能移动终端,或者带有摄像头的头戴式穿戴设备,例如:谷歌眼镜(Google Glass)、百度智能眼镜(BaiduEye)等,或者带有摄像头的智能手表,或者带有摄像头视觉输入的机器人,本实施例对此不作限定。
步骤102,将上述视频图像中每个像素的位移与对应的背景像素的位移进行对比,获得上述目标物体的前景区域。
具体地,每个像素的位移描述的是“前景区域(目标物体)+背景区域(环境)”,背景像素的位移描述的是“背景区域(环境)”,对比二者之后,即可获得目标物体的前景区域。采用的算法逻辑可以简单表述为“(前景区域+背景区域)-背景区域=前景区域”。
步骤103,对上述目标物体的前景区域中的视频图像进行特征点提取,并通过计算提取的特征点的概率密度确定上述目标物体的个数。
步骤104,对上述目标物体进行视觉跟踪和运动轨迹分析,以对上述目标物体进行跟踪。
步骤105,根据上述特征点的帧间位移、帧间切割窗口相似度和跟踪框尺度变换,对上述目标物体进行静止判断和图像分割。
本实施例中,获得对目标物体的图像分割之后,就可以在此基础上进行目标物体的图像识别,然后通过上述带有摄像头的智能设备的音频输出通道将识别结果告知用户,或者通过上述带有摄像头的智能设备的图像输出通道将识别结果告知给用户,从而完成对于目标物体的识别过程。
上述实施例中,接收描述目标物体的动态移动过程的视频图像之后,通过获取全图光流、背景光流进而确定目标物体的前景区域即目标物体,在目标物体的动态移动过程中,对目标物体进行跟踪,对目标物体进行静止判断并分割出上述目标物体所在的图像区域,从而可以实现在对想要进行图像识别和认识的物体进行识别的过程中,只需要拿取或摇晃目标物体即可快速获得对目标物体的图像分割,为下一步针对目标物体的图像识别做准确的识别输入。
图2为本发明图像分割方法另一个实施例的示意图,从图2可以看出,在第一人称视角的手拿取物品,或用手自然摇晃物体时,本发明图1所示实施例提供的方法,通过摄像头捕捉手部的动态移动过程,通过获取全图光流、背景光流进而确定目标物体的前景区域,对目标物体进行跟踪,对目标物体进行静止判断和图像分割,从而分割出目标物体,即框选出用于识别的图像。
图3为本发明图像分割装置一个实施例的结构示意图,本实施例中的图像分割装置可以实现本发明图1所示实施例的流程,如图3所示,该图像分割装置可以包括:接收模块31、获取模块32、对比模块33、提取模块34、确定模块35、跟踪模块36和分割模块37;进一步地,上述图像分割装置还可以包括摄像头38;
其中,接收模块31,用于接收描述目标物体的动态移动过程的视频图像。本实施例中,接收模块31,具体用于接收通过摄像头38输入的描述目标物体的动态移动过程的视频图像。进一步地,接收模块31,还用于在接收描述目标物体的动态移动过程的视频图像之前,接收用户通过语音、触摸屏或者动态传感器输入的图像识别请求,以触发接收上述视频图像的操作。
也就是说,本实施例中,接收模块31接收到用户通过语音、触摸屏或者动态传感器输入的图像识别请求之后,开启摄像头38,通过上述摄像头38摄取用户拿取或移动目标物体的过程,即通过摄像头38接收描述用户拿取或移动目标物体的视频图像,进而执行后续流程。
获取模块32,用于获取接收模块31接收的视频图像的全图光流,估计上述视频图像中每个像素的位移,以及获取接收模块31接收的视频图像的背景光流,估计上述视频图像中背景像素的位移。
对比模块33,用于将上述视频图像中每个像素的位移与对应的背景像素的位移进行对比,获得上述目标物体的前景区域。具体地,每个像素的位移描述的是“前景区域(目标物体)+背景区域(环境)”,背景像素的位移描述的是“背景区域(环境)”,对比模块33对比二者之后,即可获得目标物体的前景区域。对比模块33采用的算法逻辑可以简单表述为“(前景区域+背景区域)-背景区域=前景区域”。
提取模块34,用于对对比模块33获得的目标物体的前景区域中的视频图像进行特征点提取;
确定模块35,用于通过计算提取模块34提取的特征点的概率密度确定目标物体的个数;
跟踪模块36,用于对上述目标物体进行视觉跟踪和运动轨迹分析,以对上述目标物体进行跟踪;
分割模块37,用于根据上述特征点的帧间位移、帧间切割窗口相似度和跟踪框尺度变换,对目标物体进行静止判断和图像分割。
本实施例中,获得对目标物体的图像分割之后,就可以在此基础上进行目标物体的图像识别,然后通过上述图像分割装置的音频输出通道将识别结果告知用户,或者通过上述图像分割装置的图像输出通道将识别结果告知给用户,从而完成对于目标物体的识别过程。
本实施例中的图像分割装置可以为带有摄像头的智能设备,或者带有摄像头的智能设备的一部分,上述带有摄像头的智能设备可以为带有摄像头的智能移动终端,或者带有摄像头的头戴式穿戴设备,例如:谷歌眼镜(Google Glass)、百度智能眼镜(BaiduEye)等,或者带有摄像头的智能手表,或者带有摄像头视觉输入的机器人,本实施例对此不作限定。
上述图像分割装置中,接收模块31接收描述目标物体的动态移动过程的视频图像之后,通过获取全图光流、背景光流进而确定目标物体的前景区域即目标物体,在目标物体的动态移动过程中,对目标物体进行跟踪,对目标物体进行静止判断并分割出上述目标物体所在的图像区域,从而可以实现在对想要进行图像识别和认识的物体进行识别的过程中,只需要拿取或摇晃目标物体即可快速获得对目标物体的图像分割,为下一步针对目标物体的图像识别做准确的识别输入。
图像识别是人工智能方向最重要的突破,而且具有相当广泛且有价值的使用场景,是今后搜索领域的重中之重,本发明采用全新的人机交互方式,自然的用户界面接口,比现有的先拍照再对目标物体进行圈划涂抹的图像识别方式更自然更便捷。对于智能穿戴设备上的图像识别功能,自然的交互方式显得尤为重要,本发明可以实现用户“所拿起即可搜索获得结果”,本发明所实现的交互方式和用户体验是一种相当大的区别于其他同类或相似类别产品的重要特性。
本发明提供的方法是各种可以进行第一视角做视觉图像信息捕捉和处理的一切智能产品非常有可能会涉及并采用的方法,本发明提供的方法是从底层算法到表象人机交互方式都有可能会复制并立即采用到产品中的一个特性和技术支持,是作为穿戴式智能视觉产品进行手势识别的一个基本技术支持。
本发明提供的方法对于其他一切基于图像和视觉认知能力的人工智能产品,机器人的视觉认知同用户人类的交互方式都具有革命性的体验,例如:将一个物体拿到机器人面前举起摇动进而让其认知和识别判断此物体。
需要说明的是,在本发明的描述中,除非另有说明,“多个”的含义是两个或两个以上。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(Programmable Gate Array;以下简称:PGA),现场可编程门阵列(Field ProgrammableGate Array;以下简称:FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,本发明各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (6)
1.一种图像分割方法,其特征在于,包括:
接收描述目标物体的动态移动过程的视频图像,获取所述视频图像的全图光流,估计所述视频图像中每个像素的位移,以及获取所述视频图像的背景光流,估计所述视频图像中背景像素的位移;
将所述视频图像中每个像素的位移与对应的背景像素的位移进行对比,获得所述目标物体的前景区域;
对所述目标物体的前景区域中的视频图像进行特征点提取,并通过计算提取的特征点的概率密度确定所述目标物体的个数;
对所述目标物体进行视觉跟踪和运动轨迹分析,以对所述目标物体进行跟踪;
根据所述特征点的帧间位移、帧间切割窗口相似度和跟踪框尺度变换,对所述目标物体进行静止判断和图像分割。
2.根据权利要求1所述的方法,其特征在于,所述接收描述目标物体的动态移动过程的视频图像包括:
接收通过摄像头输入的描述目标物体的动态移动过程的视频图像。
3.根据权利要求1-2任意一项所述的方法,其特征在于,所述接收描述目标物体的动态移动过程的视频图像之前,还包括:
接收用户通过语音、触摸屏或者动态传感器输入的图像识别请求,以触发接收所述视频图像的操作。
4.一种图像分割装置,其特征在于,包括:
接收模块,用于接收描述目标物体的动态移动过程的视频图像;
获取模块,用于获取所述接收模块接收的视频图像的全图光流,估计所述视频图像中每个像素的位移,以及获取所述接收模块接收的视频图像的背景光流,估计所述视频图像中背景像素的位移;
对比模块,用于将所述视频图像中每个像素的位移与对应的背景像素的位移进行对比,获得所述目标物体的前景区域;
提取模块,用于对所述对比模块获得的目标物体的前景区域中的视频图像进行特征点提取;
确定模块,用于通过计算所述提取模块提取的特征点的概率密度确定所述目标物体的个数;
跟踪模块,用于对所述目标物体进行视觉跟踪和运动轨迹分析,以对所述目标物体进行跟踪;
分割模块,用于根据所述特征点的帧间位移、帧间切割窗口相似度和跟踪框尺度变换,对所述目标物体进行静止判断和图像分割。
5.根据权利要求4所述的装置,其特征在于,还包括:摄像头;
所述接收模块,具体用于接收通过所述摄像头输入的描述目标物体的动态移动过程的视频图像。
6.根据权利要求4-5任意一项所述的装置,其特征在于,
所述接收模块,还用于在接收描述目标物体的动态移动过程的视频图像之前,接收用户通过语音、触摸屏或者动态传感器输入的图像识别请求,以触发接收所述视频图像的操作。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410618207.5A CN104408743A (zh) | 2014-11-05 | 2014-11-05 | 图像分割方法和装置 |
JP2014252236A JP6339489B2 (ja) | 2014-11-05 | 2014-12-12 | 画像分割方法および画像分割装置 |
EP14197978.1A EP3023937A1 (en) | 2014-11-05 | 2014-12-15 | Image segmentation method and image segmentation device |
KR1020140180972A KR101706365B1 (ko) | 2014-11-05 | 2014-12-16 | 이미지 세그멘테이션 방법 및 이미지 세그멘테이션 장치 |
US14/571,918 US9418280B2 (en) | 2014-11-05 | 2014-12-16 | Image segmentation method and image segmentation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410618207.5A CN104408743A (zh) | 2014-11-05 | 2014-11-05 | 图像分割方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN104408743A true CN104408743A (zh) | 2015-03-11 |
Family
ID=52231839
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410618207.5A Pending CN104408743A (zh) | 2014-11-05 | 2014-11-05 | 图像分割方法和装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US9418280B2 (zh) |
EP (1) | EP3023937A1 (zh) |
JP (1) | JP6339489B2 (zh) |
KR (1) | KR101706365B1 (zh) |
CN (1) | CN104408743A (zh) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104915014A (zh) * | 2015-07-07 | 2015-09-16 | 安徽瑞宏信息科技有限公司 | 一种基于移动终端的非接触式交互方法 |
CN105511478A (zh) * | 2016-02-23 | 2016-04-20 | 百度在线网络技术(北京)有限公司 | 应用于扫地机器人的控制方法、扫地机器人及终端 |
CN106570557A (zh) * | 2015-10-13 | 2017-04-19 | 富士通株式会社 | 运动物体的计数装置及方法 |
CN108062761A (zh) * | 2017-12-25 | 2018-05-22 | 北京奇虎科技有限公司 | 基于自适应跟踪框的图像分割方法、装置及计算设备 |
CN108111911A (zh) * | 2017-12-25 | 2018-06-01 | 北京奇虎科技有限公司 | 基于自适应跟踪框分割的视频数据实时处理方法及装置 |
CN108320301A (zh) * | 2018-01-26 | 2018-07-24 | 西安电子科技大学 | 一种基于跟踪学习检测的目标跟踪优化方法 |
CN108829248A (zh) * | 2018-06-01 | 2018-11-16 | 中国科学院软件研究所 | 一种基于用户表现模型矫正的移动目标选择方法及系统 |
CN108961316A (zh) * | 2017-05-23 | 2018-12-07 | 华为技术有限公司 | 图像处理方法、装置及服务器 |
CN109583391A (zh) * | 2018-12-04 | 2019-04-05 | 北京字节跳动网络技术有限公司 | 关键点检测方法、装置、设备及可读介质 |
CN110944895A (zh) * | 2017-07-17 | 2020-03-31 | 罗伯特·博世有限公司 | 用于根据由车辆的摄像机所拍摄的图像序列来求取光流的方法和设备 |
CN111382603A (zh) * | 2018-12-28 | 2020-07-07 | 顺丰科技有限公司 | 一种轨迹计算装置、方法 |
CN111494947A (zh) * | 2020-04-20 | 2020-08-07 | 上海米哈游天命科技有限公司 | 摄像机移动轨迹确定方法、装置、电子设备及存储介质 |
CN112868050A (zh) * | 2018-10-15 | 2021-05-28 | 华为技术有限公司 | 一种图像处理方法、装置与设备 |
CN114973175A (zh) * | 2022-05-24 | 2022-08-30 | 深圳市航盛电子股份有限公司 | 运动物体检测方法、装置、终端设备以及存储介质 |
US12079974B2 (en) | 2018-10-15 | 2024-09-03 | Huawei Technologies Co., Ltd. | Image processing method and apparatus, and device |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3451289B1 (en) * | 2016-04-28 | 2023-04-19 | Panasonic Intellectual Property Management Co., Ltd. | Motion video segmenting method, motion video segmenting device, and motion video processing system |
US10380741B2 (en) * | 2016-12-07 | 2019-08-13 | Samsung Electronics Co., Ltd | System and method for a deep learning machine for object detection |
CN108230252B (zh) * | 2017-01-24 | 2022-02-01 | 深圳市商汤科技有限公司 | 图像处理方法、装置以及电子设备 |
CN107009412B (zh) * | 2017-04-12 | 2019-05-28 | 广东工业大学 | 一种证件照自动裁剪方法、装置以及系统 |
KR102059667B1 (ko) | 2017-12-18 | 2019-12-26 | 서강대학교 산학협력단 | 동영상에서의 장소 추출 방법 및 장소 추출 시스템 |
CN109165550B (zh) * | 2018-07-13 | 2021-06-29 | 首都师范大学 | 一种基于无监督深度学习的多模态手术轨迹快速分割方法 |
US10311578B1 (en) * | 2019-01-23 | 2019-06-04 | StradVision, Inc. | Learning method and learning device for segmenting an image having one or more lanes by using embedding loss to support collaboration with HD maps required to satisfy level 4 of autonomous vehicles and softmax loss, and testing method and testing device using the same |
CN110321858B (zh) * | 2019-07-08 | 2022-06-14 | 北京字节跳动网络技术有限公司 | 视频相似度确定方法、装置、电子设备及存储介质 |
US10977717B2 (en) * | 2019-07-22 | 2021-04-13 | Pickey Solutions Ltd. | Hand actions monitoring device |
CN111126807B (zh) * | 2019-12-12 | 2023-10-10 | 浙江大华技术股份有限公司 | 行程切分方法和装置、存储介质及电子装置 |
CN111178224B (zh) * | 2019-12-25 | 2024-04-05 | 浙江大华技术股份有限公司 | 物体规则判断方法、装置、计算机设备和存储介质 |
CN111179159B (zh) * | 2019-12-31 | 2024-02-20 | 北京金山云网络技术有限公司 | 消除视频中目标影像的方法、装置、电子设备及存储介质 |
CN111583283B (zh) * | 2020-05-20 | 2023-06-20 | 抖音视界有限公司 | 图像分割方法、装置、电子设备及介质 |
CN114079725B (zh) * | 2020-08-13 | 2023-02-07 | 华为技术有限公司 | 视频防抖方法、终端设备和计算机可读存储介质 |
CN112218136B (zh) * | 2020-10-10 | 2021-08-10 | 腾讯科技(深圳)有限公司 | 视频处理方法、装置、计算机设备及存储介质 |
CN114494087A (zh) * | 2020-11-12 | 2022-05-13 | 安霸国际有限合伙企业 | 无监督的多尺度视差/光流融合 |
CN112750146B (zh) * | 2020-12-31 | 2023-09-12 | 浙江大华技术股份有限公司 | 目标对象跟踪方法和装置、存储介质及电子设备 |
CN113709559B (zh) * | 2021-03-05 | 2023-06-30 | 腾讯科技(深圳)有限公司 | 视频划分方法、装置、计算机设备及存储介质 |
WO2023231021A1 (zh) * | 2022-06-02 | 2023-12-07 | 深圳市正浩创新科技股份有限公司 | 目标物归集方法、设备和存储介质 |
CN115905733B (zh) * | 2022-10-28 | 2024-03-08 | 广州地铁集团有限公司 | 一种基于机器视觉的口罩佩戴异常检测及轨迹追踪方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1848949A (zh) * | 2004-12-21 | 2006-10-18 | 三星电子株式会社 | 在视频监视系统中提取对象的设备和方法 |
CN1963867A (zh) * | 2002-05-09 | 2007-05-16 | 松下电器产业株式会社 | 监视装置 |
CN101312524A (zh) * | 2007-05-23 | 2008-11-26 | 财团法人工业技术研究院 | 利用光迹分析的移动物体侦测装置与方法 |
CN102110297A (zh) * | 2011-03-02 | 2011-06-29 | 无锡慧眼电子科技有限公司 | 一种基于累积光流和双背景滤波的探测方法 |
CN103149939A (zh) * | 2013-02-26 | 2013-06-12 | 北京航空航天大学 | 一种基于视觉的无人机动态目标跟踪与定位方法 |
CN103745485A (zh) * | 2013-12-31 | 2014-04-23 | 深圳泰山在线科技有限公司 | 判断物体静止或运动的方法及系统 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5909251A (en) * | 1997-04-10 | 1999-06-01 | Cognitech, Inc. | Image frame fusion by velocity estimation using region merging |
JPH11213156A (ja) * | 1998-01-29 | 1999-08-06 | Canon Inc | 画像処理装置および方法、記録媒体 |
JP3823767B2 (ja) * | 2001-07-18 | 2006-09-20 | 日本電信電話株式会社 | 動画像の前景背景領域分離方法、及びその方法を用いた条件付画素補填による動画像符号化方法 |
JP4163914B2 (ja) * | 2002-09-04 | 2008-10-08 | 日本放送協会 | 切り出し映像生成装置、切り出し映像生成方法及び切り出し映像生成プログラム |
JP2009042796A (ja) * | 2005-11-25 | 2009-02-26 | Panasonic Corp | ジェスチャー入力装置および方法 |
EP1916538A3 (en) * | 2006-10-27 | 2011-02-16 | Panasonic Electric Works Co., Ltd. | Target moving object tracking device |
JP2008171141A (ja) * | 2007-01-10 | 2008-07-24 | Omron Corp | 画像処理装置および方法、並びに、プログラム |
JP2010016580A (ja) * | 2008-07-03 | 2010-01-21 | Sony Corp | 画像処理装置および画像処理方法 |
KR101173559B1 (ko) * | 2009-02-10 | 2012-08-13 | 한국전자통신연구원 | 비디오 동영상의 움직이는 다중 객체 자동 분할 장치 및 방법 |
TWI413024B (zh) * | 2009-11-19 | 2013-10-21 | Ind Tech Res Inst | 物件偵測方法及系統 |
JP5499856B2 (ja) * | 2010-04-08 | 2014-05-21 | 株式会社ニコン | 画像評価装置 |
JP5612915B2 (ja) * | 2010-06-18 | 2014-10-22 | 東芝アルパイン・オートモティブテクノロジー株式会社 | 移動体検出装置及び移動体検出方法 |
JP2012098771A (ja) * | 2010-10-29 | 2012-05-24 | Sony Corp | 画像処理装置および方法、並びに、プログラム |
US8682063B2 (en) * | 2010-11-24 | 2014-03-25 | Adobe Systems Incorporated | Methods and apparatus for dynamic color flow modeling |
JP5482672B2 (ja) * | 2011-01-12 | 2014-05-07 | 株式会社デンソーアイティーラボラトリ | 移動物体検出装置 |
KR101792501B1 (ko) * | 2011-03-16 | 2017-11-21 | 한국전자통신연구원 | 특징기반의 스테레오 매칭 방법 및 장치 |
JP2013196047A (ja) * | 2012-03-15 | 2013-09-30 | Omron Corp | ジェスチャ入力装置、制御プログラム、コンピュータ読み取り可能な記録媒体、電子機器、ジェスチャ入力システム、および、ジェスチャ入力装置の制御方法 |
JP5988161B2 (ja) * | 2012-12-25 | 2016-09-07 | アルパイン株式会社 | ジェスチャ認識装置 |
US20140253785A1 (en) * | 2013-03-07 | 2014-09-11 | Mediatek Inc. | Auto Focus Based on Analysis of State or State Change of Image Content |
-
2014
- 2014-11-05 CN CN201410618207.5A patent/CN104408743A/zh active Pending
- 2014-12-12 JP JP2014252236A patent/JP6339489B2/ja active Active
- 2014-12-15 EP EP14197978.1A patent/EP3023937A1/en not_active Withdrawn
- 2014-12-16 KR KR1020140180972A patent/KR101706365B1/ko active IP Right Grant
- 2014-12-16 US US14/571,918 patent/US9418280B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1963867A (zh) * | 2002-05-09 | 2007-05-16 | 松下电器产业株式会社 | 监视装置 |
CN1848949A (zh) * | 2004-12-21 | 2006-10-18 | 三星电子株式会社 | 在视频监视系统中提取对象的设备和方法 |
CN101312524A (zh) * | 2007-05-23 | 2008-11-26 | 财团法人工业技术研究院 | 利用光迹分析的移动物体侦测装置与方法 |
CN102110297A (zh) * | 2011-03-02 | 2011-06-29 | 无锡慧眼电子科技有限公司 | 一种基于累积光流和双背景滤波的探测方法 |
CN103149939A (zh) * | 2013-02-26 | 2013-06-12 | 北京航空航天大学 | 一种基于视觉的无人机动态目标跟踪与定位方法 |
CN103745485A (zh) * | 2013-12-31 | 2014-04-23 | 深圳泰山在线科技有限公司 | 判断物体静止或运动的方法及系统 |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104915014A (zh) * | 2015-07-07 | 2015-09-16 | 安徽瑞宏信息科技有限公司 | 一种基于移动终端的非接触式交互方法 |
CN106570557A (zh) * | 2015-10-13 | 2017-04-19 | 富士通株式会社 | 运动物体的计数装置及方法 |
CN105511478A (zh) * | 2016-02-23 | 2016-04-20 | 百度在线网络技术(北京)有限公司 | 应用于扫地机器人的控制方法、扫地机器人及终端 |
CN105511478B (zh) * | 2016-02-23 | 2019-11-26 | 百度在线网络技术(北京)有限公司 | 应用于扫地机器人的控制方法、扫地机器人及终端 |
CN108961316B (zh) * | 2017-05-23 | 2022-05-31 | 华为技术有限公司 | 图像处理方法、装置及服务器 |
CN108961316A (zh) * | 2017-05-23 | 2018-12-07 | 华为技术有限公司 | 图像处理方法、装置及服务器 |
CN110944895A (zh) * | 2017-07-17 | 2020-03-31 | 罗伯特·博世有限公司 | 用于根据由车辆的摄像机所拍摄的图像序列来求取光流的方法和设备 |
CN108062761A (zh) * | 2017-12-25 | 2018-05-22 | 北京奇虎科技有限公司 | 基于自适应跟踪框的图像分割方法、装置及计算设备 |
CN108111911A (zh) * | 2017-12-25 | 2018-06-01 | 北京奇虎科技有限公司 | 基于自适应跟踪框分割的视频数据实时处理方法及装置 |
CN108111911B (zh) * | 2017-12-25 | 2020-07-28 | 北京奇虎科技有限公司 | 基于自适应跟踪框分割的视频数据实时处理方法及装置 |
CN108320301A (zh) * | 2018-01-26 | 2018-07-24 | 西安电子科技大学 | 一种基于跟踪学习检测的目标跟踪优化方法 |
CN108320301B (zh) * | 2018-01-26 | 2022-03-18 | 西安电子科技大学 | 一种基于跟踪学习检测的目标跟踪优化方法 |
CN108829248B (zh) * | 2018-06-01 | 2020-11-20 | 中国科学院软件研究所 | 一种基于用户表现模型矫正的移动目标选择方法及系统 |
CN108829248A (zh) * | 2018-06-01 | 2018-11-16 | 中国科学院软件研究所 | 一种基于用户表现模型矫正的移动目标选择方法及系统 |
CN112868050A (zh) * | 2018-10-15 | 2021-05-28 | 华为技术有限公司 | 一种图像处理方法、装置与设备 |
US12079974B2 (en) | 2018-10-15 | 2024-09-03 | Huawei Technologies Co., Ltd. | Image processing method and apparatus, and device |
CN109583391A (zh) * | 2018-12-04 | 2019-04-05 | 北京字节跳动网络技术有限公司 | 关键点检测方法、装置、设备及可读介质 |
CN111382603A (zh) * | 2018-12-28 | 2020-07-07 | 顺丰科技有限公司 | 一种轨迹计算装置、方法 |
CN111382603B (zh) * | 2018-12-28 | 2023-09-26 | 顺丰科技有限公司 | 一种轨迹计算装置、方法 |
CN111494947A (zh) * | 2020-04-20 | 2020-08-07 | 上海米哈游天命科技有限公司 | 摄像机移动轨迹确定方法、装置、电子设备及存储介质 |
CN111494947B (zh) * | 2020-04-20 | 2023-05-23 | 上海米哈游天命科技有限公司 | 摄像机移动轨迹确定方法、装置、电子设备及存储介质 |
CN114973175A (zh) * | 2022-05-24 | 2022-08-30 | 深圳市航盛电子股份有限公司 | 运动物体检测方法、装置、终端设备以及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
KR101706365B1 (ko) | 2017-02-13 |
US20160125235A1 (en) | 2016-05-05 |
KR20160053729A (ko) | 2016-05-13 |
JP6339489B2 (ja) | 2018-06-06 |
JP2016091528A (ja) | 2016-05-23 |
US9418280B2 (en) | 2016-08-16 |
EP3023937A1 (en) | 2016-05-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104408743A (zh) | 图像分割方法和装置 | |
EP3295424B1 (en) | Systems and methods for reducing a plurality of bounding regions | |
Jana et al. | YOLO based Detection and Classification of Objects in video records | |
Kanimozhi et al. | Multiple Real-time object identification using Single shot Multi-Box detection | |
Luber et al. | People tracking in rgb-d data with on-line boosted target models | |
JP2022534337A (ja) | ビデオターゲット追跡方法と装置、コンピュータ装置、プログラム | |
CN111488791A (zh) | 将指尖运动模式实时地设备上分类为手势 | |
CN104318218A (zh) | 图像识别方法和装置 | |
EP3028254B1 (en) | Apparatus and method for resource-adaptive object detection and tracking | |
JP6092527B2 (ja) | ユーザ凝視データに基づいた時空間データのセグメント化 | |
CN106648078B (zh) | 应用于智能机器人的多模态交互方法及系统 | |
JP7093427B2 (ja) | オブジェクト追跡方法および装置、電子設備並びに記憶媒体 | |
EP3690736A1 (en) | Method of processing information from an event-based sensor | |
CN103093198A (zh) | 一种人群密度监测方法及装置 | |
US20150199592A1 (en) | Contour-based classification of objects | |
Yang et al. | Binary descriptor based nonparametric background modeling for foreground extraction by using detection theory | |
CN103105924A (zh) | 人机交互方法和装置 | |
CN111161325A (zh) | 基于卡尔曼滤波与lstm的三维多目标跟踪方法 | |
JP6103765B2 (ja) | 行動認識装置、方法及びプログラム並びに認識器構築装置 | |
CN112965602A (zh) | 一种基于手势的人机交互方法及设备 | |
Yang et al. | Towards generic 3d tracking in RGBD videos: Benchmark and baseline | |
Fa et al. | Global and local C3D ensemble system for first person interactive action recognition | |
KR20010035100A (ko) | 하이퍼링크 비디오를 위한 임의 객체의 효과적인 추적장치 및 방법 | |
Alzugaray | Event-driven Feature Detection and Tracking for Visual SLAM | |
Kadethankar et al. | Dynamic hand gesture recognition using Kinect |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20150311 |