CN110610119A - 影像分析方法、电子系统以及非暂态电脑可读取记录媒体 - Google Patents

影像分析方法、电子系统以及非暂态电脑可读取记录媒体 Download PDF

Info

Publication number
CN110610119A
CN110610119A CN201810707100.6A CN201810707100A CN110610119A CN 110610119 A CN110610119 A CN 110610119A CN 201810707100 A CN201810707100 A CN 201810707100A CN 110610119 A CN110610119 A CN 110610119A
Authority
CN
China
Prior art keywords
scene
image
action
preset
target object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810707100.6A
Other languages
English (en)
Other versions
CN110610119B (zh
Inventor
卓卿安
黄国庭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wistron Corp
Original Assignee
Wistron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wistron Corp filed Critical Wistron Corp
Publication of CN110610119A publication Critical patent/CN110610119A/zh
Application granted granted Critical
Publication of CN110610119B publication Critical patent/CN110610119B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种适用于电子系统的影像分析方法。电子系统包括对应于预设场景设置的影像获取装置。所述影像分析方法包括:取得影像获取装置所获取的多张影像;对所述多张影像进行动作检测,以判断其中是否包括动作;以及响应于该动作检测判断所述多张影像中包括动作时,判断目标物是否进入预设场景或离开预设场景。

Description

影像分析方法、电子系统以及非暂态电脑可读取记录媒体
技术领域
本发明是有关于一种影像分析方法、电子系统以及非暂态电脑可读取记录媒体。
背景技术
近年来,人口老化的速度正快速地成长。在繁忙的都市当中,子女并无法随时近距离的照顾长辈。因此居家照护便越发重要,居家照护机构或看护派遣中心也跟着林立而生。
即使在老年照护或病患照护的机构当中,看护者也无法一对一的照顾所有的长辈或病患。因此,这些机构常在室内环境设置多台摄影机等监视系统,来监看老年人或病患。然而,目前的监视系统并没有影像辨识的功能,看护者仍须时时监看着对应多台摄影机的多个影像画面才能够得知老年人或病患当前的动态以及位置等等。据此,一种符合成本考量的自动化辅助系统可说是当前时代的需求。
发明内容
有鉴于此,本发明发明提出一种影像分析方法、电子系统以及非暂态电脑可读取媒体,能够自动地判断目标物是否进入或离开预设场景,可靠且成本低廉。
本发明的实施例提出一种影像分析方法,适用于包括影像获取装置的电子系统,其中影像获取装置系对应于预设场景设置。所述影像分析方法包括:取得影像获取装置所获取的多张影像;对所述多张影像进行动作检测,以判断其中是否包括动作;以及响应于动作检测判断所述多张影像中包括动作时,判断目标物是否进入预设场景或离开预设场景。
从另一观点来看,本发明的实施例提出一种电子系统,包括影像获取装置以及处理器。影像获取装置对应于预设场景设置。处理器耦接于影像获取装置,并且用以:取得影像获取装置所获取的多张影像;对所述多张影像进行动作检测,以判断其中是否包括动作;以及响应于动作检测判断所述多张影像中包括动作时,判断目标物是否进入预设场景或离开预设场景。
从又另一观点来看,本发明的实施例提出一种非暂态电脑可读取记录媒体,储存有程序,当程序被载入至电脑并执行后可完成影像分析方法。所述影像分析方法包括:从对应预设场景设置的影像获取装置取得多张影像;对所述多张影像进行动作检测,以判断其中是否包括动作;以及响应于动作检测判断所述多张影像中包括动作时,判断目标物是否进入预设场景或离开预设场景。
基于上述,本发明实施例所提出的影像分析方法、电子系统以及非暂态电脑可读取记录媒体,先对影像获取装置所获取到的影像进行计算量需求较小的动作检测,并且在确定影像中出现动作后才进一步针对影像进行计算量较大的分析来判断影像的特定区域中是否包括目标物,以及判断目标物是否进入预设场景或离开预设场景。据此,能够大幅减少运算负担,提供了可靠且成本低廉的影像分析方式与工具。
为让本发明的上述特征和优点能更明显易懂,下文特举实施例,并配合所附图式作详细说明如下。
附图说明
图1为本发明一实施例的电子系统的方块图。
图2A为本发明一实施例中判断目标物是否进入预设场景的影像分析方法的流程图。
图2B为本发明另一实施例中判断目标物是否进入预设场景的影像分析方法的流程图。
图3为本发明一实施例中判断目标物是否离开预设场景的影像分析方法的流程图。
图4为本发明一实施例中取得影像的示意图。
图5A为本发明一实施例中取得动作影像的示意图。
图5B为本发明一实施例中决定第一区域的示意图。
图6A为本发明一实施例中定义多个特征点的示意图。
图6B为本发明另一实施例中定义多个特征点的示意图。
图7为本发明一实施例中在场景区域寻找目标物的示意图。
图8为本发明一实施例中根据光流信息决定动作的动作方向的示意图。
附图标号
100:电子系统
110:影像获取装置
120:处理器
130:提示装置
a:预设高度
h:影像高度
IMG:影像
IMG_1:第一影像
IMG_2:第二影像
IMG_m:动作影像
MA1、MA2、MA3、MA4:动作区域
p1s、p1e、p2s、p2e、p3s、p3e:特征点
RG1:第一区域
RG2:第二区域(场景区域)
S101、S102、S103、S104、S105、S106、S107、S108、S109、S110、S111、S112:判断目标物是否进入预设场景的影像分析方法的步骤
S201、S202、S203、S204、S205、S206、S207、S208、S209、S210、S211、S212:判断目标物是否离开预设场景的影像分析方法的步骤
TP1:第一区域的最上缘
TP2:目标区域的最上缘
具体实施方式
本发明的实施例将介绍一种影像分析方法,从对应预设场景所设置的影像获取装置所获取的多张影像中,判断目标物是否进入或离开预设场景。特别是,目标物无论是进入或离开预设场景都会包括进入或离开的过程,因此本发明实施例先对多张影像进行动作检测,在检测到动作后才进一步进行影像分析来判断目标物是否进入或离开预设场景。由于进行动作检测所需的计算量远小于进行影像分析以判断目标物是否进入或离开预设场景所需的计算量,因此本发明实施例所提出的方法能够大幅减少系统的运算负担。
图1为本发明一实施例的电子系统的方块图。请参照图1,电子系统100包括影像获取装置110、处理器120以及提示装置130,用以执行本发明实施例所介绍的影像分析方法以判断目标物是否进入或离开预设场景,其中处理器120耦接于影像获取装置110以及提示装置130。在一些实施例中,影像获取装置110例如是对应床铺上的枕头区域来设置,并且电子系统100可用以观察对象(例如,床铺用户)的脸部、头部或肩部是否进入或离开枕头区域,藉此判断此观察对象是躺下或起身。以下的说明中将以上述实施例作为示范例来对本发明的影像分析方法进行详述,然而,本发明并不限于所述实施例。
影像获取装置110是对应预设场景设置,并且用以连续或不连续地获取多张影像。具体来说,影像获取装置110经设置为其视野范围内包括预设场景。在一些实施例中,影像获取装置110例如是红外线摄影机,并且经设置以使其能够拍摄到整个预设场景。在其他实施例中,影像获取装置110视使用上的需求亦可实作为黑白摄影机或彩色摄影机等装置,本发明并不在此限制。
处理器120用以从影像获取装置110取得其所获取的多张影像,并且从中判断目标物是否进入或离开预设场景。在一些实施例中,处理器120更在判断目标物是否进入或离开预设场景后,通过提示装置130来发出提示信息,以提示目标物进入或离开了预设场景。在一些实施例中,处理器130可例如是双核心、四核心或八核心等各类型的中央处理器(central processing unit,CPU)、系统芯片(system-on-chip,SOC)、应用处理器(application processor)、媒体处理器(media processor)、微处理器(microprocessor)、数位信号处理器(digital signal processor)或其他类似者,本发明不在此限制实作时所使用的处理器类型。
提示装置130用以根据处理器120的指令来发出提示信息(例如,提示使用者已进入预设场景或提示使用者已离开预设场景等)。在一些实施例中,提示装置130例如是扬声器、显示器以及通讯模组的其中之一或其组合。扬声器能够以声音或声响来发出提示信息提示使用者;显示器能够以图形或字样来发出提示信息提示使用者;而通讯模组能够以电子邮件或手机简讯等方式来发出提示信息提示使用者。本领域相关技术人员当可依其需求来根据本发明实施例进行设计或修改,以实作出能够发出提示信息提示使用者的提示装置130,本发明并不在此限制提示装置130的具体实作方式。
为了流程的顺畅性,在以下数个实施例的流程中处理器120会分配一个二元参数作为指示器,其值为0或1并且预设为0。指示器随着影像分析方法的流程的进行可能会被处理器120设定为0或1用以指示目前的观察对象可能躺下或可能起身。更具体来说,指示器为0表示观察对象并未躺下或并未起身,而指示器为1则表示观察对象可能躺下或可能起身。
图2A为本发明一实施例中判断目标物是否进入预设场景的影像分析方法的流程图。图2A实施例所介绍的影像分析方法适用于图1实施例的电子系统100,故以下搭配电子系统100中的各项元件来进行说明。如前述段落所言,本实施例中将以判断观察对象是否躺下的系统来作为电子系统100的示范例,但本发明并不限于此。
请参照图2A,在步骤S101中,处理器120会取得影像获取装置110所获取的影像,接着在步骤S102中,判断指示器为0或1。若指示器为0,则进入步骤S103,反之则进入步骤S107。
详细来说,影像获取装置110是以特定的帧率(例如但不限于30fps)来取得影像,此影像中例如可能包括预设场景以外的景象,但本发明并不限于此。为了减少运算量以及增加准确度,在一些实施例中,处理器120会在影像中选择包括预设场景的兴趣区域(Region of Interest,ROI),并且仅取得影像内的兴趣区域的部分。在以下的说明当中所提及处理器120从影像获取装置110所取得的影像所指的皆是位于兴趣区域中的部分影像。然而,本发明并不限于此。
图4为本发明一实施例中取得影像的示意图。
请参照图4,在本实施例中,影像获取装置110所获取的影像IMG可能包括几乎整个床铺以及床铺以外的景象,其中包括作为预设场景的枕头区域。因此,处理器120例如会选择床铺区域作为兴趣区域来取得第一影像IMG_1,而其中包括有上部2/3的床铺作为预设场景的枕头区域。
在步骤S103中,处理器120会对所取得的影像进行动作检测,以判断其中是否包括动作。若没有动作,则回到步骤S101继续取得影像;反之,表示可能有目标物进入预设场景,进入步骤S106将指示器设定为1,再回到步骤S101继续取得影像以进行进一步判断。
详细来说,处理器120所进行的动作检测例如是计算不同时间点所取得的两张影像之间的影像差异,以根据此影像差异产生动作影像。据此,若不同时间点所取得的两张影像之间存在一定程度的差异,则表示此两张影像之间包括动作。反之,则继续取得影像进行判断。
在本实施例中,不同时间点的固定间隔例如为8个帧时间。也就是说处理器120在取得第1个帧的第一影像IMG_1后,会取得第9个帧的第一影像IMG_1,以从第1个帧与第9个帧的第一影像IMG_1来判断其中是否包括动作。若判断第1个帧与第9个帧的第一影像IMG_1中包括动作,会进入步骤S106;反之,若判断第1个帧与第9个帧的第一影像IMG_1中不包括动作,则继续取得第17个帧的第一影像IMG_1,以判断第9个帧与第17个帧的第一影像IMG_1来判断其中是否包括动作,以此类推。
在一些实施例中,为了缩短判断的间隔以增加精准度,处理器120更取得并记录第1个帧与第9个帧之间的第5个帧的第一影像IMG_1,以及第9个帧与第17个帧之间的第13个帧的第一影像IMG_1,以从第5个帧与第13个帧的第一影像IMG_1来判断其中是否包括动作。如此一来,在判断第1个帧与第9个帧的第一影像IMG_1中不包括动作,且尚未取得到第17个帧的第一影像IMG_1时,处理器120可以从第5个帧与第13个帧的第一影像IMG_1来判断其中是否包括动作。换句话说,同样是以8个帧时间作为固定间隔来判断动作,但提高了判断的频率。
在本实施例中,在第一影像IMG_1中包括动作表示观察对象的脸部或头部有可能进入枕头区域,也就是观察对象有可能躺下。因此,在判断第一影像IMG_1中包括动作后,处理器120会在步骤S106中先将指示器设定成1后,再回到步骤S101继续取得下一张影像来进行影像分析,以判断观察对象的脸部或头部是否确实进入了枕头区域。
值得一提的是,前述的第一影像IMG_1皆是用以进行动作检测,处理器120并不会对第一影像IMG_1进行影像分析的操作。然而,以下说明中处理器120在步骤S106指示器设定成1后,再回到步骤S101所取得用以进行影像分析的影像将称之为第二影像IMG_2或后续影像。简单来说,在指示器为0时所取得的影像称之为第一影像IMG_1,而在指示器为1时所取得的影像称之为第二影像IMG_2。换句话说,用以进行动作检测而不用以进行影像分析(例如步骤S107及步骤S107的后续步骤)的影像称为第一影像IMG1,而用以进行影像分析(例如步骤S107及步骤S107的后续步骤)的影像称为第二影像IMG2。必须说明的是,第一影像IMG_1与第二影像IMG_2皆是处理器120从影像获取装置110所取得,除了获取时间之外,两者在本质上并无区别。
在第一影像IMG_1已经被判断为包括动作后,指示器为1,因此回到步骤S101取得第二影像IMG_2后流程会接着从步骤S102进入步骤S107。在步骤S107中,处理器120会根据影像中对应于预设场景的场景区域(在本说明中亦称第二区域)中是否包括目标物,判断目标物是否进入预设场景。若判断为是,表示目标物进入预设场景,则进入步骤S108;反之,表示虽然第一影像IMG_1中包括动作,但目标物并未因此动作进入预设场景,故进入步骤S111将指示器归零后回到步骤S101。
详细来说,兴趣区域中包括预设场景,也可以包括有预设场景以外的景象。为了减少计算量,处理器120例如仅针对第二影像IMG_2中对应于预设场景的场景区域(即,第二区域)来进行影像分析,以在其中根据目标物的特定特征来寻找目标物,以判断目标物是否在预设场景中。
图7为本发明一实施例中在场景区域寻找目标物的示意图。
请参照图7,本实施例的兴趣区域例如是上部2/3的床铺,而第二区域RG2则是对应于枕头区域的影像的上半部区域。在本实施例中,处理器120例如会在第二影像IMG_2的第二区域RG2中寻找观察对象的脸部的特定特征(例如但不限于,鼻子)。若处理器120在第二影像IMG_2的第二区域RG2中找到观察对象的脸部的特定特征,则表示观察对象的脸部已经进入枕头区域,换言之观察对象已经躺下。反之,则表示观察对象的脸部并未进入枕头区域,也就是观察对象并未躺下。
在步骤S108中,处理器120会输出目标物进入预设场景的信号,接着进入步骤S112来归零指示器。详细来说,处理器120可例如是通过提示装置130来输出目标物进入预设场景的信号,但本发明并不限于此。在本实施例中,处理器120例如会输出对应于“观察对象已躺下”的信号。在一些实施例中,在步骤S112后处理器120会接续进入下述图3的流程,但本发明并不限于此。
根据上述实施例,处理器120对第一影像IMG_1进行计算量需求较小的动作检测,仅在确认第一影像IMG_1中包括动作后才对第二影像IMG_2进行计算量需求较大的影像分析,准确、高效率且成本低廉。
图2B为本发明另一实施例中判断目标物是否进入预设场景的影像分析方法的流程图。类似地,图2B实施例所介绍的影像分析方法适用于图1实施例的电子系统100,故以下搭配电子系统100中的各项元件来进行说明。如前述段落所言,本实施例中将以判断观察对象是否躺下的系统来作为电子系统100的示范例,但本发明并不限于此。
图2B实施例包括图2A实施例的各个步骤,相同步骤的详细说明可参照图2A实施例的说明,在此并不重复赘述。然而,除了包括图2A实施例中的所有步骤,图2B实施例更包括了步骤S104、S105、S109、S110,能够增加判断的准确度并提升效率,详细的流程说明如下。
请参照图2B,在步骤S101中,处理器120会取得影像获取装置110所获取的影像,接着在步骤S102中,判断指示器为0或1。若指示器为0,则进入步骤S103,反之则进入步骤S107。在步骤S103中,处理器120会对所取得的影像进行动作检测,以判断其中是否包括动作。若其中没有动作,则回到步骤S101继续取得影像;反之,则进入步骤S104以对所检测到的动作做进一步判断。
在步骤S104中,处理器120会判断动作是否进入预设场景。若判断动作进入预设场景,表示可能有目标物进入预设场景,则进入步骤S105后再进入步骤S106将指示器设定为1;反之,则直接回到步骤S101继续取得影像。
详细来说,处理器120所取得的第一影像IMG_1可能会拍摄到除了预设场景之外的场景,而在这些预设场景之外的场景中的动作若没有进入预设场景,都不足以表示目标物进入预设场景。因此,即使第一影像IMG_1中包括动作,若处理器120判断动作没有进入预设场景,则仍然回到步骤S101继续取得影像。在本实施例中,若第一影像IMG_1所包括的动作都局限于第一影像IMG_1的下半部,表示观察对象的脸部或头部并未进入对应于预设场景的第二区域RG2,便会回到步骤S101。
另一方面,若处理器120判断动作进入了预设场景,则在步骤S105中,根据第一影像IMG_1在第一区域RG1中定义多个特征点。具体来说,第一区域RG1是根据第一影像IMG_1中的动作所得到,用以表示目标物在影像中可能的所处区域。因此,在第一区域RG1中定义多个特征点便能够追踪这些特征点来判断目标物的动态(例如,移动方向等)。
图5A为本发明一实施例中取得动作影像的示意图;图5B为本发明一实施例中决定第一区域的示意图。
请参照图5A,在本实施例中,在决定第一影像IMG_1包括动作之后,处理器120会取得第一影像IMG_1的动作影像IMG_m。举例而言,处理器120会计算两张第一影像IMG_1的对应像素的差值,并且以此差值来建立出动作影像IMG_m。因此,动作影像IMG_m中像素值不为0的区域(例如,动作影像IMG_m中以白色绘示的区域)皆为动作区域。
必须说明的是,为了表示上的简洁,图5A中仅绘示单一张第一影像IMG_1。处理器120实际上是取得两张不同获取时间的第一影像IMG_1来计算出动作影像IMG_m。
在本实施例中,处理器120在找出动作区域后还会根据动作区域的面积大小来过滤动作区域,以滤除不必要的杂讯。举例来说,处理器120可例如是计算所有的动作区域的平均面积,并且将面积大于平均面积的动作区域MA1、MA2、MA3、MA4保留下来。
在一些实施例中,处理器120可例如是在此时执行步骤S104,根据保留下来的动作区域MA1、MA2、MA3、MA4判断动作是否进入预设场景。举例来说,处理器120判断动作区域MA1、MA2、MA3、MA4中是否有与场景区域(第二区域)RG2重叠的部分。如图5A所示,由于动作区域MA4与第二区域RG2重叠,故而处理器120可在步骤S104中判断动作有进入预设场景。
随后,处理器120会根据预设场景来从保留下来的动作区域MA1、MA2、MA3、MA4中选择出目标区域。在本实施例中,处理器120会选择最上方的动作区域MA4作为目标区域,并且根据此目标区域MA4来决定第一区域RG1。
请参照图5B,处理器120例如会预设第一区域RG1的总高度为影像(例如,第一影像IMG_1、第二影像IMG_2或动作影像IMG_m)高度h的三分之一,并且使第一区域RG1的最上缘TP1比目标区域MA4的最上缘TP2高出预设高度a(例如,15个像素),以决定第一区域RG1。据此,能够确保随后在定义特征点时,在目标区域MA4中发生动作的物体(例如,可能为目标物的顶端)的特征点更良好的被定义。以本实施例为例而言,在目标区域MA4中发生动作的物体可能包括观察对象的头顶,因此在观察对象的头顶也能够良好的定义出多个特征点。
值得一提的是,虽然上述实施例介绍了用来定义特征点的第一区域RG1的决定方式,但本发明并不以上述实施例为限制。本领域相关技术人员当可依其经验或需求来自行决定用来定义特征点的第一区域RG1。
在决定了第一区域RG1后,处理器120便能在步骤S105中定义多个特征点。
图6A为本发明一实施例中定义多个特征点的示意图。
请参照图6A,在本实施例中,处理器120例如使用OpenCV的Lucas-Kanade opticalflow演算法,在第一影像IMG_1的第一区域RG1中找出特征点(例如,边界点或角点等,图6A中以白点表示)。然而,本发明并不限于此,本领域相关技术人员当可由相关文献获致足够寻找特征点的演算法(例如,Canny边缘检测算法、Harris角检测算法等等)。
定义完特征点后,进入步骤S106,处理器120会将指示器设定为1,并回到步骤S101继续取得下一张影像(第二影像IMG_2)。
类似于图2A实施例,流程会继续进行至步骤S107,处理器120会根据影像中对应于预设场景的场景区域RG2中是否包括目标物,判断目标物是否进入预设场景。若判断为是,表示目标物进入预设场景,则进入步骤S108来进行输出。
另一方面,若处理器120在步骤S107中判断目标物并未进入预设场景,表示第一影像IMG_1中的动作并非是使目标物进入预设场景,或者表示第一影像IMG_1中的动作虽是使目标物进入预设场景但尚未完成,故目标物并未进入预设场景。因此,进入步骤S109,处理器120会继续根据所取得的多张影像以及多个特征点,决定动作的动作方向,以判断第一影像IMG_1中的动作是否是使目标物进入预设场景的动作。
详细来说,处理器120会根据第一影像IMG_1中所定义的多个特征点以及在第二影像IMG_2中对应的该些特征点,来从此些特征点的位置变化(例如,光流信息)决定动作的动作方向。
图8为本发明一实施例中根据光流信息决定动作的动作方向的示意图。
请参照图8,位置p1s、p2s、p3s例如是任一张第一影像IMG_1或导致指示器切换为1的第一影像IMG_1中的多个特征点的位置,而位置p1e、p2e、p3e例如是对应的第二影像IMG_2中的多个特征点的位置,而其中的箭头用以表示各个特征点的位移向量,或称之为光流信息。举例来说,一个特征点从位置p1s移动到位置p1e的位置,另一个特征点从位置p2s移动到位置p2e,而又另一个特征点从位置p3s移动到位置p3e。因此,只要根据步骤S105中所定义的特征点取得光流信息,便能够进行统计以判断动作的动作方向。
在步骤S110中,处理器120会判断动作方向是否符合预设进入方向。详细来说,若动作方向符合预设进入方向,表示动作仍可能是使目标物进入预设场景的动作,只是目标物尚未进入预设场景,因此不归零指示器而直接回到步骤S101继续取得下一张影像(第二影像)以使流程能够进入步骤S107以继续判断目标物是否进入预设场景。反之,若动作方向不符合预设进入方向,表示动作并非是使目标物进入预设场景的动作,因此进入步骤S111将指示器归零后回到步骤S101。
在本实施例中,由于场景区域或第二区域RG2位于影像的上半部,因此预设进入方向为“上”。处理器120会从光流信息判断所有特征点中,判断位移向量朝上的特征点,以及判断此些特征点的终点是否位于场景区域RG2中。以图8为例,处理器120会判断从位置p1s移动到位置p1e的特征点以及从位置p3s移动到位置p3e的特征点是位移向量朝下的特征点,而从位置p2s移动到位置p2e的特征点是位移向量朝上的特征点,且只有一个特征点的终点位于场景区域RG2中(即,位置p1e)。
在本实施例中,若处理器120判断所有“位移向量朝上且终点位于第二区域RG2中”的特征点数量超过所有特征点数量的特定比例(例如但不限于,七成),则判断动作方向是符合预设进入方向“上”,不归零指示器进入步骤S101。反之,则进入步骤S111归零指示器后再回到步骤S101。
值得一提的是,本说明中所谓方向朝上不必要指向正上方,本领域相关技术人员当可依其需求来定义“朝上”的范围。同理,方向朝下亦不必要指向正下方,本领域相关技术人员亦可依其需求来定义“朝下”的范围。
相较于图2A实施例,图2B实施例的流程能够更加准确的分析影像,并且提升效率。在判断目标物进入预设场景后,可进一步判断在预设场景中的目标物是否离开预设场景。
图3为本发明一实施例中判断目标物是否离开预设场景的影像分析方法的流程图。图3实施例所介绍的影像分析方法适用于图1实施例的电子系统100,故以下搭配电子系统100中的各项元件来进行说明。如前述段落所言,本实施例中将以判断观察对象是否起身的系统来作为电子系统100的示范例。也就是说,目标物仍为观察对象的脸部,而预设场景仍为枕头区域,但本发明并不限于此。
类似于图2A与图2B实施例,图3实施例中的处理器120在判断目标物是否离开预设场景时,也是先对第一影像IMG_1进行计算量需求较小的动作检测,仅在确认第一影像IMG_1中包括动作后才对第二影像IMG_2进行计算量需求较大的影像分析,以分析目标物是否离开了预设场景。因此,图3实施例的各步骤S201至S212的细节分别是类似于图2B实施例的各步骤S101至S112的细节,相同的部分在以下说明中将不再赘述。
特别是,在图2A与图2B实施例中只要在第二区域RG2中没有找到目标物就可视为目标物并未进入预设场景,然而在图3实施例中,即使第二区域RG2中没有找到目标物,也可能表示目标物的特定特征改变了方向或者被覆盖但尚在预设场景中。为解决上述的问题,图3实施例与图2B实施例的判断流程稍有不同,以更准确判断目标物是否离开预设场景。
请参照图3,在步骤S201中,处理器120会取得影像获取装置110所获取的影像,接着在步骤S202中,判断指示器为0或1。若指示器为0,则进入步骤S203以对所取得的影像进行动作检测,以判断其中是否包括动作。若判断影像中不包括动作,则回到步骤S201继续取得影像(第一影像IMG_1);反之若判断影像中包括动作,则继续进行步骤S204以判断动作是否进入预设场景。
详细来说,类似于图2B实施例,处理器120会取得动作影像并且判断其中的动作区域是否重叠于第二区域RG2。若动作区域没有重叠于第二区域RG2,表示动作与目标物是否离开预设场景无关,因此回到步骤S201继续取得影像。反之,若动作区域重叠于第二区域RG2,则进入步骤S205以及206,以将指示器设定为1后回到步骤S201继续取得下一张影像(第二影像IMG_2)。
在本实施例中,观察对象若欲起身则势必会在枕头区域内有动作产生。因此,若动作区域不重叠于第二区域RG2,表示动作可能是发生在枕头区域以外而与观察对象的起身无关(例如,手、脚或影像中其他动作)。
在步骤S205中,处理器120会在第一区域中定义多个特征点。关于在第一区域中定义多个特征点的细节已经于步骤S105的说明中详述,故在此不再赘述。
图6B为本发明一实施例中定义多个特征点的示意图。
请参照图6B,类似于步骤S105,在本实施例中也是取动作影像IMG_m中最上方的动作区域作为目标区域,并且将目标区域的最上缘TP2向上提高预设高度a来作为第一区域RG1的最上缘TP1,以决定高度为h/3的第一区域RG1,以在其中定义出多个特征点。据此,能够确保观察对象的头顶也能够良好的定义出多个特征点。
在步骤S206中将指示器设定为1并回到步骤S201取得第二影像IMG_2后,步骤S202并不会直接进入步骤S207来判断场景区域或第二区域RG2是否包括目标物,而是先进入步骤S209与步骤S210,以在步骤S209中决定动作的动作方向以及在步骤S210中判断动作方向是否符合预设离开方向。
详细来说,已经位于预设区域中的目标物即使发生动作,也有很大机率不会离开预设区域。举例来说,观察对象在床铺上翻身时,并不表示观察对象的脸部会离开枕头区域或观察对象会起身。举另一例来说,观察对象向上拉棉被而遮盖住脸部时,也不表示观察对象的脸部会离开枕头区域或观察对象会起身。据此,先进入步骤S209与步骤S210能够滤除许多并非使目标物离开预设区域的动作,以提升判断准确度与效率。
步骤209的细节类似于步骤109,故在此不再赘述。在步骤S210中,处理器120会判断动作方向是否符合预设离开方向。若动作方向符合预设离开方向,因此进入步骤S207,来在第二影像IMG_2的第二区域RG2中寻找目标物,以判断目标物是否离开预设场景。反之,若动作方向不符合预设离开方向,则回到步骤S201以继续取得下一张影像。
在本实施例中,预设离开方向为“下”。处理器120会从光流信息判断所有特征点中,判断位移向量朝下的特征点,以及判断此些特征点的终点是否位于场景区域RG2之外。以图8为例,处理器120会判断从位置p1s移动到位置p1e的特征点以及从位置p3s移动到位置p3e的特征点是位移向量朝下的特征点,但只有一个特征点的终点位于场景区域RG2之外(即,位置p3e),而从位置p2s移动到位置p2e的特征点是位移向量朝上的特征点。
在本实施例中,若处理器120判断所有“位移向量朝下且终点位于第二区域RG2之外”的特征点数量超过所有特征点数量的特定比例(例如但不限于,七成),则判断动作方向是符合预设离开方向“下”,则进入步骤S207。反之,则回到步骤S201以继续取得下一张影像。
值得一提的是,本说明中所谓方向朝下不必要指向正下方,本领域相关技术人员当可依其需求来定义“朝下”的范围。同理,方向朝上亦不必要指向正上方,本领域相关技术人员也可依其需求来定义“朝上”的范围。
在步骤S207中,处理器120会根据影像中对应于预设场景的第二区域RG2中是否包括目标物,判断目标物是否离开预设场景。若判断为是,则进入步骤S208;反之,表示目标物并未因此动作离开预设场景,故进入步骤S211将指示器归零后回到步骤S201。在步骤S208中,处理器120会输出目标物离开预设场景的信号,接着进入步骤S212来归零指示器。
请再次参照图7,本实施例的兴趣区域例如是上部2/3的床铺,而第二区域RG2则是对应于枕头区域的影像的上半部区域。在本实施例中,处理器120例如会在第二影像IMG_2的第二区域RG2中寻找观察对象的脸部的特定特征(例如但不限于,鼻子)。若处理器120在第二影像IMG_2的第二区域RG2中找不到观察对象的脸部的特定特征,则表示观察对象的脸部已经离开了枕头区域,换言之观察对象已经确定起身,因此会输出对应于观察对象已经起身的信号。反之,则表示观察对象的脸部尚在枕头区域内,也就是观察对象并未起身。
通过与图2B实施例稍有不同的流程,图3实施例同样能够有效率且准确地判断目标物是否离开了预设场景。
在本发明的一实施例中,更提出了一种非暂态的电脑可读取记录媒体,其中储存有电脑程序。此电脑程序被用以执行上述的影像分析方法的各个步骤。此电脑程序由多个程序片段所组成,这些程序片段在被载入至电脑或处理器并执行后,便可进行上述影像分析方法的步骤,以判断目标物是否进入预设场景或离开预设场景。
综上所述,本发明实施例所提出的影像分析方法、电子系统以及非暂态电脑可读取记录媒体,先对影像获取装置所获取到的影像进行计算量需求较小的动作检测,并且在确定影像中出现动作后才进一步针对影像进行计算量较大的影像分析来判断影像的特定区域中是否包括目标物,以及判断目标物是否进入预设场景或离开预设场景。据此,能够大幅减少运算负担,提供了可靠且成本低廉的影像分析方式与工具。
虽然本发明已以实施例揭露如上,然其并非用以限定本发明,任何本领域相关技术人员在不脱离本发明的精神和范围内,当可作些许的更动与润饰,故本发明的保护范围当视上述的权利要求书所界定者为准。

Claims (21)

1.一种影像分析方法,适用于包括一影像获取装置的一电子系统,其特征在于,所述影像获取装置对应一预设场景设置,所述影像分析方法包括:
取得该影像获取装置所获取的多张影像;
对该些影像进行一动作检测,以判断该些影像是否包括一动作;以及
响应于该动作检测判断该些影像包括该动作时,判断一目标物是否进入该预设场景或离开该预设场景。
2.根据权利要求1所述的影像分析方法,其特征在于,判断该目标物是否进入该预设场景或离开该预设场景的步骤包括:
取得该影像获取装置所获取的一后续影像,以对该后续影像进行一影像分析来判断该目标物是否进入该预设场景或离开该预设场景,
其中若该后续影像被进行该影像分析以判断该目标物是否进入该预设场景或离开该预设场景,则该后续影像的获取时间不早于被判断包括该动作的该些影像的获取时间。
3.根据权利要求2所述的影像分析方法,其特征在于,判断该目标物是否进入该预设场景或离开该预设场景的步骤包括:
在该后续影像的一场景区域寻找该目标物,以根据该场景区域中是否包括该目标物判断该目标物是否进入该预设场景,其中该场景区域对应于该预设场景。
4.根据权利要求1所述的影像分析方法,其特征在于,在判断该些影像包括该动作之后,还包括:
判断该动作是否进入该预设场景。
5.根据权利要求1所述的影像分析方法,其特征在于,在判断该些影像包括该动作之后,还包括:
根据该动作决定一第一区域;以及
在该第一区域中定义多个特征点。
6.根据权利要求5所述的影像分析方法,其特征在于,根据该动作决定该第一区域的步骤包括:
取得该些影像的一动作影像,其中该动作影像包括多个动作区域;
根据该些动作区域的面积来过滤该些动作区域,以保留该些动作区域的至少其中之一;以及
根据所保留的该至少一动作区域,决定该第一区域。
7.根据权利要求6所述的影像分析方法,其特征在于,根据所保留的该至少一动作区域,决定该第一区域的步骤包括:
根据该预设场景,从该至少一动作区域中选择一目标区域;
根据该目标区域决定该第一区域,其中该第一区域的最上缘高于该目标区域的最上缘。
8.根据权利要求5所述的影像分析方法,其特征在于,判断该目标物是否进入该预设场景或离开该预设场景的步骤还包括:
根据该些影像的该些特征点,取得一光流信息;以及
根据该光流信息决定该动作的一动作方向。
9.根据权利要求8所述的影像分析方法,其特征在于,判断该目标物是否进入该预设场景或离开该预设场景的步骤更包括:
判断该动作方向是否符合一预设进入方向;
若该动作方向不符合该预设进入方向,则判断该目标物并未进入该预设场景;以及
若该动作方向符合该预设进入方向,则取得该影像获取装置所获取的一后续影像,并且对该后续影像进行一影像分析,以判断该目标物是否进入该预设场景。
10.根据权利要求8所述的影像分析方法,其特征在于,判断该目标物是否进入该预设场景或离开该预设场景的步骤更包括:
判断该动作方向是否符合一预设离开方向;
若该动作方向不符合该预设离开方向,则判断该目标物并未离开该预设场景;以及
若该动作方向符合该预设离开方向,则取得该影像获取装置所获取的一后续影像,并且在该后续影像的一场景区域寻找该目标物,以根据该场景区域中是否包括该目标物判断该目标物是否离开该预设场景,其中该场景区域对应于该预设场景。
11.一种电子系统,其特征在于,所述电子系统包括:
一影像获取装置,对应一预设场景设置;以及
一处理器,耦接于该影像获取装置,用以:
取得该影像获取装置所获取的多张影像;
对该些影像进行一动作检测,以判断该些影像是否包括一动作;以及
响应于该动作检测判断该些影像包括该动作时,判断一目标物是否进入该预设场景或离开该预设场景。
12.根据权利要求11所述的电子系统,其特征在于,所述处理器判断该目标物是否进入该预设场景或离开该预设场景时,包括:
取得该影像获取装置所获取的一后续影像,以对该后续影像进行一影像分析来判断该目标物是否进入该预设场景或离开该预设场景,
其中若该处理器对该后续影像进行该影像分析以判断该目标物是否进入该预设场景或离开该预设场景,则该后续影像的获取时间不早于被判断包括该动作的该些影像的获取时间。
13.根据权利要求12所述的电子系统,其特征在于,所述处理器判断该目标物是否进入该预设场景或离开该预设场景时,包括:
在该后续影像的一场景区域寻找该目标物,以根据该场景区域中是否包括该目标物判断该目标物是否进入该预设场景,其中该场景区域对应于该预设场景。
14.根据权利要求11所述的电子系统,其特征在于,所述处理器在判断该些影像包括该动作之后,还包括:
判断该动作是否进入该预设场景。
15.根据权利要求11所述的电子系统,其特征在于,所述处理器在判断该些影像包括该动作之后,还包括:
根据该动作决定一第一区域;以及
在该第一区域中定义多个特征点。
16.根据权利要求15所述的电子系统,其特征在于,所述处理器根据该动作决定该第一区域时,包括:
取得该些影像的一动作影像,其中该动作影像包括多个动作区域;
根据该些动作区域的面积来过滤该些动作区域,以保留该些动作区域的至少其中之一;以及
根据所保留的该至少一动作区域,决定该第一区域。
17.根据权利要求16所述的电子系统,其特征在于,所述处理器根据所保留的该至少一动作区域,决定该第一区域时,包括:
根据该预设场景,从该至少一动作区域中选择一目标区域;
根据该目标区域决定该第一区域,其中该第一区域的最上缘高于该目标区域的最上缘。
18.根据权利要求15所述的电子系统,其特征在于,所述处理器判断该目标物是否进入该预设场景或离开该预设场景时,还包括:
根据该些影像的该些特征点,取得一光流信息;以及
根据该光流信息决定该动作的一动作方向。
19.根据权利要求18所述的电子系统,其特征在于,所述处理器判断该目标物是否进入该预设场景或离开该预设场景时,还包括:
判断该动作方向是否符合一预设进入方向;
若该动作方向不符合该预设进入方向,则判断该目标物并未进入该预设场景;以及
若该动作方向符合该预设进入方向,则取得该影像获取装置所获取的一后续影像,并且对该后续影像进行一影像分析,以判断该目标物是否进入该预设场景。
20.根据权利要求18所述的电子系统,其特征在于,所述处理器判断该目标物是否进入该预设场景或离开该预设场景时,还包括:
判断该动作方向是否符合一预设离开方向;
若该动作方向不符合该预设离开方向,则判断该目标物并未离开该预设场景;以及
若该动作方向符合该预设离开方向,则取得该影像获取装置所获取的一后续影像,并且在该后续影像的一场景区域寻找该目标物,以根据该场景区域中是否包括该目标物判断该目标物是否离开该预设场景,其中该场景区域对应于该预设场景。
21.一种非暂态电脑可读取记录媒体,储存有一程序,当该程序被载入至一电脑并执行后可完成一影像分析方法,所述影像分析方法包括:
从一影像获取装置取得多张影像,其中该影像获取装置对应一预设场景设置;
对该些影像进行一动作检测,以判断该些影像是否包括一动作;以及
响应于该动作检测判断该些影像包括该动作时,判断一目标物是否进入该预设场景或离开该预设场景。
CN201810707100.6A 2018-06-15 2018-07-02 影像分析方法、电子系统以及非暂态电脑可读取记录媒体 Active CN110610119B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW107120844A TWI671707B (zh) 2018-06-15 2018-06-15 影像分析方法、電子系統以及非暫態電腦可讀取記錄媒體
TW107120844 2018-06-15

Publications (2)

Publication Number Publication Date
CN110610119A true CN110610119A (zh) 2019-12-24
CN110610119B CN110610119B (zh) 2022-07-29

Family

ID=68618955

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810707100.6A Active CN110610119B (zh) 2018-06-15 2018-07-02 影像分析方法、电子系统以及非暂态电脑可读取记录媒体

Country Status (3)

Country Link
US (1) US10922822B2 (zh)
CN (1) CN110610119B (zh)
TW (1) TWI671707B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113645435A (zh) * 2020-04-27 2021-11-12 财团法人工业技术研究院 影像监控装置与方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI671707B (zh) * 2018-06-15 2019-09-11 緯創資通股份有限公司 影像分析方法、電子系統以及非暫態電腦可讀取記錄媒體
TWI762958B (zh) * 2020-06-22 2022-05-01 威聯通科技股份有限公司 收集臉部辨識資料的方法及系統

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103118589A (zh) * 2010-09-29 2013-05-22 欧姆龙健康医疗事业株式会社 安全看护系统及安全看护系统的控制方法
CN104376742A (zh) * 2014-12-02 2015-02-25 深圳市捷顺科技实业股份有限公司 一种车位状态检测方法与系统
US20160035351A1 (en) * 2014-07-31 2016-02-04 Seiko Epson Corporation Display device, method of controlling display device, and program
CN105894530A (zh) * 2014-12-11 2016-08-24 深圳市阿图姆科技有限公司 一种针对视频中运动目标检测与跟踪的解决方案
CN106571014A (zh) * 2016-10-24 2017-04-19 上海伟赛智能科技有限公司 一种在视频中识别异常动作的方法和系统
CN107545132A (zh) * 2016-06-29 2018-01-05 富士通株式会社 状况识别方法和状况识别装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE60025406T2 (de) * 1999-03-02 2006-09-21 Hitachi Denshi K.K. Laufbilderinformationsanzeigeverfahren und -gerät
US6965645B2 (en) * 2001-09-25 2005-11-15 Microsoft Corporation Content-based characterization of video frame sequences
US7864982B2 (en) * 2005-08-22 2011-01-04 Samsung Electronics Co., Ltd. Displacement and tilt detection method for a portable autonomous device having an integrated image sensor and a device therefor
TWI335181B (en) * 2006-12-13 2010-12-21 Univ Chung Yuan Christian Human behavior event detection system, method and device
JP5682204B2 (ja) 2010-09-29 2015-03-11 オムロンヘルスケア株式会社 安全看護システム、および、安全看護システムの制御方法
TWI438702B (zh) * 2011-05-04 2014-05-21 Univ Nat Chiao Tung 影像環境邊界之動態設定方法及人員活動內容之即時判定方法
US9810785B2 (en) * 2012-05-29 2017-11-07 Brightway Vision Ltd. Gated imaging using an adaptive depth of field
BR112015019674A2 (pt) * 2013-02-14 2017-07-18 Seiko Epson Corp display instalado na cabeça e método de controle para display instalado na cabeça
CN104850219A (zh) * 2014-02-19 2015-08-19 北京三星通信技术研究有限公司 估计附着物体的人体姿势的设备和方法
JP6344125B2 (ja) * 2014-07-31 2018-06-20 セイコーエプソン株式会社 表示装置、表示装置の制御方法、および、プログラム
US10140768B2 (en) * 2014-10-17 2018-11-27 Seiko Epson Corporation Head mounted display, method of controlling head mounted display, and computer program
JP6572004B2 (ja) * 2015-06-18 2019-09-04 オリンパス株式会社 露出制御装置および露出制御方法
US9953432B2 (en) * 2016-08-17 2018-04-24 David M. Smith Systems and methods of detecting motion
TWI666933B (zh) * 2018-04-02 2019-07-21 緯創資通股份有限公司 物件監控方法及其運算裝置
TWI671707B (zh) * 2018-06-15 2019-09-11 緯創資通股份有限公司 影像分析方法、電子系統以及非暫態電腦可讀取記錄媒體

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103118589A (zh) * 2010-09-29 2013-05-22 欧姆龙健康医疗事业株式会社 安全看护系统及安全看护系统的控制方法
US20160035351A1 (en) * 2014-07-31 2016-02-04 Seiko Epson Corporation Display device, method of controlling display device, and program
CN104376742A (zh) * 2014-12-02 2015-02-25 深圳市捷顺科技实业股份有限公司 一种车位状态检测方法与系统
CN105894530A (zh) * 2014-12-11 2016-08-24 深圳市阿图姆科技有限公司 一种针对视频中运动目标检测与跟踪的解决方案
CN107545132A (zh) * 2016-06-29 2018-01-05 富士通株式会社 状况识别方法和状况识别装置
CN106571014A (zh) * 2016-10-24 2017-04-19 上海伟赛智能科技有限公司 一种在视频中识别异常动作的方法和系统

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113645435A (zh) * 2020-04-27 2021-11-12 财团法人工业技术研究院 影像监控装置与方法

Also Published As

Publication number Publication date
US20190385314A1 (en) 2019-12-19
TW202001783A (zh) 2020-01-01
US10922822B2 (en) 2021-02-16
CN110610119B (zh) 2022-07-29
TWI671707B (zh) 2019-09-11

Similar Documents

Publication Publication Date Title
EP3024227B1 (en) Image processing apparatus and image processing method
KR101687530B1 (ko) 촬상 시스템에 있어서의 제어방법, 제어장치 및 컴퓨터 판독 가능한 기억매체
JP5398341B2 (ja) 物体認識装置及び物体認識方法
CN107707871B (zh) 图像处理设备、摄像设备、图像处理方法和存储介质
CN110610119B (zh) 影像分析方法、电子系统以及非暂态电脑可读取记录媒体
CN109949347B (zh) 人体跟踪方法、装置、系统、电子设备和存储介质
JP5484184B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2014236896A (ja) 情報処理装置、情報処理方法、及び、プログラム
JP5693094B2 (ja) 画像処理装置、画像処理方法及びコンピュータプログラム
US10013632B2 (en) Object tracking apparatus, control method therefor and storage medium
JP2007178543A (ja) 撮像装置
US9904865B2 (en) Setting apparatus which sets a detection region for a detection process
JP2014053722A (ja) 撮像システム及び撮像方法
JP2019032588A (ja) 画像解析装置
KR102372164B1 (ko) 촬영 장치, 그의 오브젝트 감지 방법 및 비일시적 컴퓨터 판독가능 기록매체
JP6266946B2 (ja) 監視カメラ及び画像監視装置
JP2010140315A (ja) 物体検出装置
JP2008026999A (ja) 障害物検出システム、及び障害物検出方法
JP6939065B2 (ja) 画像認識用コンピュータプログラム、画像認識装置及び画像認識方法
JP6296769B2 (ja) 物体検出装置
JP6311809B2 (ja) 画像処理システム、画像処理装置、画像処理方法、および画像処理プログラム
JP2007336431A (ja) 映像監視装置及び方法
JP6555940B2 (ja) 被写体追跡装置、撮像装置、及び被写体追跡装置の制御方法
KR101551427B1 (ko) 홍채 인식 기능을 지원하는 이동 단말기
CN110415486B (zh) 姿态判断方法、电子系统以及非暂态电脑可读取记录媒体

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant