CN116348913A - 信息处理装置、生成方法、以及生成程序 - Google Patents

信息处理装置、生成方法、以及生成程序 Download PDF

Info

Publication number
CN116348913A
CN116348913A CN202080105869.6A CN202080105869A CN116348913A CN 116348913 A CN116348913 A CN 116348913A CN 202080105869 A CN202080105869 A CN 202080105869A CN 116348913 A CN116348913 A CN 116348913A
Authority
CN
China
Prior art keywords
clusters
person
positions
stationary
rest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202080105869.6A
Other languages
English (en)
Inventor
田中正清
中山收文
村濑有一
塩田千里
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of CN116348913A publication Critical patent/CN116348913A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • G06T2207/20044Skeletonization; Medial axis transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

一实施方式的信息处理装置包含:确定部,从拍摄人物作业而得到的动态图像确定人物静止的多个静止位置、和人物在多个静止位置移动的移动顺序;分割部,对多个静止位置进行聚类,在得到的集群包含在移动顺序上处于移动源与移动目的地的关系的静止位置的对的情况下,进一步对集群所包含的静止位置进行聚类,将多个静止位置分割为多个集群;以及生成部,基于通过分割部得到的多个集群在动态图像生成关心区域。

Description

信息处理装置、生成方法、以及生成程序
技术领域
本发明涉及信息处理装置、生成方法、以及生成程序。
背景技术
在工厂等现场,以业务改善为目的,通过测量作业时间进行可视化,并评价作业时间的偏差,或者进行不同的人物的作业的比较来提取问题点。
另外,作为作业的检测方法之一,有对通过照相机等拍摄装置拍摄现场而得到的动态图像生成与作业对应的关心区域(ROI:Region Of Interest),并基于人物进入关心区域来检测人物的作业的方法。
另外,已知有执行与人物的动作相关的聚类的技术(例如,专利文献1以及专利文献2)。
专利文献1:日本特开2017-090965号公报
专利文献2:国际公开第2011/013299号
例如,能够在观察拍摄人物作业而得到的动态图像的同时通过手工作业生成关心区域。然而,通过手工作业的关心区域的生成花费时间以及劳力,所以期望提供能够以较高的精度自动生成关心区域的技术。
发明内容
在一个侧面,本发明的目的在于提供能够以较高的精度自动生成关心区域的技术。
本发明的一个方式的信息处理装置包含:确定部,从拍摄人物作业而得到的动态图像确定人物静止的多个静止位置、和人物在多个静止位置移动的移动顺序;分割部,对多个静止位置进行聚类,在得到的集群包含在移动顺序上处于移动源与移动目的地的关系的静止位置的对的情况下,进一步对集群所包含的静止位置进行聚类,将多个静止位置分割为多个集群;以及生成部,基于通过分割部得到的多个集群在动态图像生成关心区域。
能够以较高的精度自动生成关心区域。
附图说明
图1是例示实施方式所涉及的动态图像映出的人物在作业中所在的作业区域的图。
图2是例示实施方式所涉及的从动态图像检测出的人物的多个静止位置的图。
图3是例示静止位置的聚类的图。
图4是表示例示的动态图像中的与拍摄距离对应的长度的不同的图。
图5是例示实施方式所涉及的拍摄系统的图。
图6是例示实施方式所涉及的信息处理装置的功能模块构成的图。
图7是例示实施方式所涉及的聚类的图。
图8是例示在动态图像配置的静止位置的聚类结果的图。
图9是例示实施方式所涉及的静止位置信息的图。
图10是例示实施方式所涉及的关心区域的生成处理的动作流程的图。
图11是例示实施方式所涉及的关心区域的生成和聚类的流程的图。
图12是例示聚类结果的图。
图13是例示用于实现实施方式所涉及的信息处理装置的计算机的硬件构成的图。
具体实施方式
以下,参照附图对本发明的几个实施方式进行详细说明。此外,对多个附图中对应的要素附加相同的附图标记。
如上述那样,作为作业的检测方法之一,有对通过拍摄装置拍摄现场而得到的动态图像按每个作业区域生成关心区域,并基于人物进入关心区域来检测人物的作业的方法。这样的检测方法例如适合于单元生产方式以及加工车间方式等人物一边在多个作业场所移动一边制成产品的现场中的利用。
另外,例如能够在观察拍摄人物作业而得到的动态图像的同时通过手工作业生成关心区域。然而,通过手工作业的关心区域的生成花费时间以及劳力,所以期望提供能够以较高的精度自动生成关心区域的技术。
图1是例示实施方式所涉及的动态图像映出的人物在作业中所在的作业区域的图。在图1的动态图像的拍摄范围示出作业A、作业B、以及作业C三个作为进行作业的场所。另外,在图1示出在进行作业A的过程中人物所在的作业区域A、在进行作业B的过程中人物所在的作业区域B、以及在进行作业C的过程中人物所在的作业区域C。而且,例如期望在这些作业区域A、作业区域B、以及作业区域C中自动生成关心区域。
这里,例如假定在作业中人物静止,考虑从拍摄作业而得到的动态图像检测人物静止的静止位置,并基于静止位置生成关心区域。
作为一个例子,从拍摄多个作业而得到的动态图像检测人物的多个静止位置。此外,在静止位置的检测所使用的动态图像中,既可以拍摄由同一人物进行的多次的作业,也可以拍摄由多个人物进行的作业。
图2是例示从实施方式所涉及的动态图像检测出的人物的多个静止位置的图。此外,例如,可以在动态图像中进行人物的检测,并确定检测到的人物在动态图像中静止的位置作为静止位置。
在图2的例子中,示出1a、2a、3a、以及4a四个静止位置作为进行作业A的过程中的人物的静止位置。另外,示出1b、2b、3b、以及4b四个静止位置作为进行作业B的过程中的人物的静止位置。示出1c、2c、3c、以及4c四个静止位置作为进行作业C的过程中的人物的静止位置。而且,例如对从动态图像检测出的多个静止位置执行聚类。
图3是例示静止位置的聚类的图。在图3(a)示出从动态图像检测出的人物的多个静止位置。此外,在图3(a)中,纵轴是动态图像的纵向,横轴是动态图像的横向。而且,例如考虑对多个静止位置进行聚类以使位置接近的静止位置彼此为相同的集群,将得到的静止位置的集群示出的区域视为人物在作业中所在的作业区域来生成关心区域。此外,例如可以使用K-means法等已知的聚类技术执行聚类。
然而,在进行静止位置的聚类时,有得到的集群不与实际作业的作业区域对应的情况。
例如,有在拍摄装置拍摄到的动态图像的拍摄范围内,与不同的作业对应的作业区域间的距离接近,所以将与这些不同的作业对应的静止位置聚类为一个集群的情况。
另外,例如在动态图像中,根据距拍摄所使用的拍摄装置的距离而产生对象物的长度的不同。
图4是表示例示的动态图像中的与拍摄距离对应的长度的不同的图。在图4中在动态图像的拍摄范围示出箭头。箭头所示的长度a、长度b、长度c、以及长度d在实际空间中均为相同的长度。然而,距拍摄装置的距离越远,即使在实际空间中为相同的长度,在图像上的长度也越短,所以在图4中,根据拍摄距离而以不同的长度示出箭头。这样,例如距拍摄装置的距离越远,即使在实际空间中为相同的长度,在图像上的长度也越短。
因此,例如有在对从动态图像检测出的人物的多个静止位置进行聚类时在距拍摄装置较远的位置,从进行不同的作业的人物检测出的静止位置间的距离差过短,而检测为一个集群的情况。或者,例如有从在接近拍摄装置的作业区域进行作业的人物检测出的多个静止位置的偏差较大,而检测为多个集群的情况。
在图3(b)中,在动态图像的拍摄范围重叠示出聚类的执行结果。而且,在图3(b)的聚类的执行结果中,位于图1中的作业A的作业区域A的静止位置偏差较大,而分割为两个集群。另一方面,位于图1中的作业B的作业区域B、以及作业C的作业区域C的静止位置在图3(b)中被汇总为一个集群。
如以上所述那样,根据作业场所的在图像内的位置以及作业内容等,而针对一个作业的静止位置的偏差可能不同。其结果,有一个作业的静止位置被分为多个集群,或者将多个作业的静止位置汇总为一个集群的情况。其结果,有在进行静止位置的聚类时,得到的集群不与实际作业的作业区域对应,而难以基于静止位置的集群自动生成与作业对应的关心区域的情况。
在以下所述的实施方式中,以对从动态图像检测出的人物的多个静止位置进行聚类得到的集群不包含在人物在多个静止位置移动的移动顺序中处于移动源与移动目的地的关系的静止位置的对的方式执行聚类。由此,能够将静止位置分割为能够以较高的精度与作业区域建立对应关系的集群。而且,能够基于得到的集群自动生成以较高的精度与作业区域建立对应关系的关心区域。以下,对实施方式进行更详细的说明。
图5是例示实施方式所涉及的拍摄系统500的图。拍摄系统500包含信息处理装置501和拍摄装置502。信息处理装置501例如可以是服务器计算机、个人计算机(PC)、移动PC、平板终端等具备运算功能的计算机。另外,拍摄装置502例如是照相机。拍摄装置502例如设置为拍摄进行作业的过程中的人物。
信息处理装置501例如基于拍摄装置502拍摄到的动态图像生成关心区域。在一个例子中,信息处理装置501可以与拍摄装置502连接,并从拍摄装置502获取动态图像。在其它的例子中信息处理装置501也可以经由其它的装置获取拍摄装置502拍摄到的动态图像。
图6是例示实施方式所涉及的信息处理装置501的功能模块构成的图。信息处理装置501例如包含控制部601、存储部602以及通信部603。控制部601例如包含确定部611、分割部612、以及生成部613等,另外也可以包含其它的功能部。信息处理装置501的存储部602例如存储通过拍摄装置502对人物的作业进行拍摄的动态图像、以及后述的静止位置信息900等信息。通信部603例如根据控制部601的指示与拍摄装置502等其它的装置进行通信。后述这些各部的详细以及储存于存储部602的信息的详细。
如上述那样,例如假定在作业中人物的位置静止,而考虑从拍摄作业而得到的动态图像检测人物静止的静止位置,并基于静止位置生成关心区域。此外,考虑根据人物而静止位置稍有不同,并且即使是同一人物在每次作业,静止位置也稍有不同。因此,例如在动态图像中,可以拍摄同一人物的多次作业,另外,也可以拍摄多个人物的作业。
而且,控制部601从拍摄到的动态图像检测人物。例如能够利用已知的人物检测方法检测人物。在一个例子中,可以使用HOG(Histogram of Oriented Gradients:方向梯度直方图)等使用了局部特征量的方法或者OpenPose等执行人物检测。接着,控制部601例如检测检测出的人物满足规定的条件静止的位置作为静止位置。后述静止位置的检测的更详细的例子。
然后,例如考虑对从动态图像检测出的多个静止位置进行聚类,将得到的静止位置的各集群作为作业区域,使用于关心区域的生成。
图7是例示实施方式所涉及的聚类的图。此外,在图7示出多个静止位置(例如,Na~Nc)。附加给静止位置的标签N可以是分配给从动态图像检测出的人物的标识符,在图7中,示出从动态图像检测出N=1~N=4共四个人物的例子。另外,在图7中附加给静止位置的标签N的角标a、b、以及c表示与静止位置对应的作业。例如,Na是从作业A的作业中的人物检测到的静止位置。另外,Nb是从作业B的作业中的人物检测到的静止位置。Nc是从作业C的作业中的人物检测到的静止位置。
而且,在实施方式中控制部601在从动态图像检测静止位置时,也获取动态图像中人物在静止位置移动的移动顺序的信息。例如,在图7中,人物按照作业A→作业B→作业C的顺序执行作业。而且,在图7(a)中,以箭头示出静止位置的移动顺序的信息,示出在进行了作业A之后,从作业A的静止位置Na移动到作业B的静止位置Nb的箭头。另外,示出在进行了作业B之后,从作业B的静止位置Nb移动到作业C的静止位置Nc的箭头。
在该情况下,控制部601可以以最小的分割数亦即二分割对检测到的多个静止位置进行聚类。在图7(b)示出通过二分割执行聚类的结果,静止位置被分为集群701和集群702两个集群。
这里,例如考虑在人物结束某一作业并移至其它的作业的情况下,人物从某一作业的静止位置移动到其它的作业的静止位置。因此,控制部601判定集群内是否包含成为移动源与移动目的地的关系的静止位置的对。而且,在同一集群内包含成为移动源与移动目的地的关系的静止位置的对的情况下,能够视为在该集群混有与多个作业对应的静止位置。因此,控制部601在集群内包含成为移动源与移动目的地的关系的静止位置的对的情况下,进一步以二分割对该集群进行聚类。另一方面,在集群内不包含成为移动源与移动目的地的关系的静止位置的对的情况下,控制部601可以结束该集群的聚类。
例如,在图7(b)中,在集群701内未包含静止位置Na的移动目的地。因此,控制部601可以对集群701结束分割。
另一方面,在图7(b)中,例如在集群702内包含作为静止位置Nb的移动目的地的静止位置Nc。因此,控制部601可以判定为在集群702包含成为移动源与移动目的地的关系的静止位置的对,可以进一步对集群702执行二分割的聚类。
图7(c)是表示对集群702执行了二分割的聚类的结果的图。在图7(c)中,集群702所包含的静止位置被聚类为集群703以及集群704。另外,在集群703以及集群704中均不包含成为移动源与移动目的地的关系的静止位置的对,所以控制部601可以对集群703以及集群704结束聚类。
如以上那样,通过使用移动顺序的信息执行聚类,能够将静止位置分割为与作业区域的对应良好的集群。而且,能够基于通过分割得到的静止位置的集群高精度地生成与作业区域对应的关心区域。
例如,在同一集群内包含成为移动源与移动目的地的关系的静止位置的对的情况下,视为在该集群混有与多个作业对应的静止位置而进一步对集群进行分割。由此,能够高精度地将某一作业的静止位置与位于近距离的其它的作业的静止位置分开。例如,在单元生产方式以及加工车间方式等人物一边在多个作业场所移动一边制成产品的现场,有为了提高作业效率而以在一系列的作业的执行中人物的移动距离变小的方式设置活动线的情况。在这样的情况下,根据实施方式所涉及的聚类,也能够高精度地分开与接近地相邻配置的两个作业区域对应的静止位置,能够基于分离后的静止位置的集群高精度地自动生成关心区域。
另外,在图7的例子中,控制部601通过二分割阶段性地执行聚类。由此,在聚类时能够抑制将与一个作业对应的静止位置过分割为多个集群。
此外,在图7的例子中静止位置的标签N通过角标的a、b、以及c与作业建立对应关系进行记载,但实际在从动态图像检测静止位置时,标签可以不与作业对应,只要能够确定各人物的静止位置的移动顺序即可。
图8是例示在动态图像配置的静止位置的聚类结果的图。如图8所示,静止位置的各集群位于与图1所述的作业区域对应的位置。因此,控制部601能够基于静止位置的集群,生成各作业的作业区域的关心区域。
例如,如以上所述那样,通过使用表示静止位置的移动顺序的信息,阶段性地执行聚类,能够对聚类的差异抑制过分割、分割不足,执行与作业的对应良好的聚类。
以下,对实施方式所涉及的关心区域的生成处理进行说明。
图9是例示实施方式所涉及的静止位置信息900的图。在静止位置信息900中,对从动态图像检测出的每个静止位置,登记有包含与该静止位置相关的信息的记录。在图9中在静止位置信息900登记有将静止时间段、人物ID(identifier:标识符)、静止标签、静止位置、前标签、以及后标签的信息建立对应关系的记录。
静止时间段例如是表示从动态图像检测出的人物满足规定的条件静止的时间段的信息。在图9的静止位置信息900中,登记静止时间段作为检测到人物的静止的帧的期间。
人物ID是为了识别从动态图像检测到的人物而分配的标识符。在静止位置信息900的人物ID例如登记有用于识别在记录的静止时间段检测到静止的人物的人物ID。
静止标签例如是对在记录的静止时间段检测到的静止位置赋予的标签。在一个例子中,在对通过人物ID识别的特定的人物从动态图像检测到多个静止时间段的情况下,也可以根据在动态图像中对人物检测出静止时间段的顺序对静止标签赋予一系列的标签。例如,在图9的静止位置信息900中,对静止位置赋予Nx作为静止标签。Nx的N可以是人物ID。另外,Nx的x可以是表示静止时间段的检测顺序的值,对每个人物按照字母顺序从a开始赋予标签。例如,在图9的静止位置信息900中,通过人物ID:1识别的人物在动态图像中按照1a→1b→1c的顺序在静止位置移动。
在静止位置信息900的静止位置例如可以登记有表示在记录的静止时间段中检测到的人物的位置的信息。例如可以通过表示动态图像的帧图像上的位置的坐标表示静止位置。在一个例子中,可以通过从帧图像上的规定像素到静止位置为止的纵向和横向的像素数表示坐标。
在静止位置信息900的前标签中,对于通过记录的人物ID识别的人物,可以登记在该记录的静止位置前一个检测出的静止位置的静止标签。另外,在静止位置信息900的后标签中,对于通过记录的人物ID识别的人物,可以登记在该记录的静止位置后一个检测出的静止位置的静止标签。此外,在图9的静止位置信息900中,静止标签、前标签以及后标签是表示人物的移动的顺序的移动信息。另外,在图9的静止位置信息900中,在动态图像中没有前一个检测出的静止位置或者后一个检测出的静止位置的情况下,登记表示没有对应的静止位置的“-”。
接着,对实施方式所涉及的关心区域的生成处理的动作流程进行说明。
图10是例示实施方式所涉及的关心区域的生成处理的动作流程的图。例如,控制部601可以若接受基于动态图像的关心区域的生成处理的执行指示则开始图10的动作流程。
在步骤1001(以下,将步骤记载为“S”,例如,表述为S1001)中控制部601根据动态图像进行人物检测。例如,控制部601从动态图像切出各帧的帧图像。然后,控制部601对切出的帧图像进行人物检测,提取人物、以及该人物的关节位置等骨骼的信息。例如可以使用HOG等使用局部特征量的方法以及OpenPose等已知的技术执行人物检测以及骨骼提取。然后,控制部601对从动态图像检测出的人物分配人物ID。
在S1002中控制部601对检测到的每个人物,检测该人物在动态图像中满足规定的条件静止的静止时间段。控制部601例如可以对检测到的每个人物,追踪动态图像中的人物的移动,判定人物进行移动或者还是静止。此外,能够使用已知的各种方法执行人物的静止判定。
例如,控制部601可以从动态图像确定静止时间段,作为基于检测到的人物的骨骼的信息的人物的规定部位满足规定的条件未进行移动的区间。在一个例子中,控制部601可以在当前帧图像映出的人物的脚踝坐标与在前帧图像映出的人物的脚踝坐标的距离为规定的阈值以下的情况下,判定为在当前帧与前帧的区间静止。而且,控制部601可以提取连续规定的帧数以上静止的时间段作为静止时间段,并对提取的静止时间段赋予静止标签。例如,控制部601可以对静止时间段赋予Nx作为静止标签。Nx的N可以是人物ID,x可以是表示静止时间段的检测顺序的值,可以按照字母顺序从a开始赋予标签。然后,控制部601在静止位置信息900登记将对人物检测出的静止时间段与人物ID、以及静止标签建立了对应关系的记录。
在S1003中控制部601对从动态图像检测出的各静止时间段确定人物的静止位置。在一个例子中,控制部601可以确定代表静止时间段内的各帧中的人物的规定的部位的位置的代表位置作为静止位置。例如,控制部601可以对静止时间段的各帧的脚踝坐标的位置进行平均并使用为静止位置。此外,实施方式所涉及的代表位置并不限定于此,也可以代替平均而使用中值等其它的统计值作为代表位置。而且,控制部601可以在S1002中登记的静止位置信息900的记录中与静止时间段建立对应关系地登记确定出的静止位置的坐标。
在S1004中控制部601确定移动信息。例如,控制部601可以确定表示对人物确定的某一静止时间段的紧前面以及紧后面的静止时间段的静止标签的信息作为移动信息,并分别登记于静止位置信息900的前标签以及后标签。
在S1005中控制部601通过二分割对静止位置进行聚类。例如,控制部601可以使用K-means法等已知的聚类方法,将登记于静止位置信息900的静止位置聚类为两个集群。
在S1006中控制部601判定在通过聚类得到的集群内,是否有在从动态图像检测出的人物在静止位置移动的移动顺序上处于移动源和移动目的地的关系的静止位置的对。而且,在有处于移动源与移动目的地的关系的静止位置的对的情况下(S1006为是),流程进入S1007。例如,控制部601可以对集群所包含的静止位置参照静止位置信息900的记录,在登记于记录的前标签或者后标签的静止位置包含于相同的集群的情况下,在S1006中判定为是。
在S1007中控制部601进一步通过二分割对包含处于移动源与移动目的地的关系的静止位置的对的集群进行聚类,并且流程返回到S1006,反复处理。
另一方面,在通过聚类得到的集群没有包含处于移动源与移动目的地的关系的静止位置的对的集群的情况下(S1006为否),流程进入S1008。例如,控制部601可以对集群所包含的静止位置参照静止位置信息900的记录,在登记于记录的前标签或者后标签的静止位置不包含于相同的集群的情况下,在S1006中判定为否。
在S1008中控制部601基于通过聚类得到的集群,生成关心区域,且本动作流程结束。例如,控制部601可以以包含集群所包含的静止位置的至少一部分的方式生成关心区域。
例如,控制部601可以生成由集群所包含的静止位置的坐标的各轴向的最大值和最小值构成的长方形区域作为关心区域。或者,控制部601例如也可以连接集群所包含的配置在最外侧的静止位置生成内包区域,并作为关心区域使用。此外,基于静止位置的集群的关心区域的生成并不限定于这些方法,也可以使用其它的方法生成。
如以上所述那样,根据实施方式,能够基于检测对象的静止位置在动态图像中以较高的精度生成关心区域。
图11是例示实施方式所涉及的关心区域的生成和聚类的流程的图。在图11(a)示出若输入动态图像作为输入数据,则自动地生成关心区域的例子。例如,若输入动态图像,则信息处理装置501的控制部601从动态图像检测人物(图11(a)的1101),并确定检测出的人物的静止位置(图11(a)的1102)。然后,信息处理装置501的控制部601基于人物的移动的信息对确定出的静止位置进行聚类(图11(a)的1103)。
在图11(b)例示基于移动的信息的聚类的流程。信息处理装置501的控制部601通过二分割对检测出的静止位置进行分割。然后,在通过分割得到的集群内不包含处于移动源与移动目的地的关系的静止位置的对的情况下,结束分割(图11(b)的1105)。另一方面,在通过分割得到的集群内包含处于移动源与移动目的地的关系的静止位置的对的情况下,进一步通过二分割执行分割(图11(b)的1106)。而且,若在通过分割得到的集群内不包含处于移动源与移动目的地的关系的静止位置的对,则结束分割(图11(b)的1107)。
接着,信息处理装置501的控制部601基于得到的静止位置的集群生成关心区域并输出(图11(a)的1104)。因此,能够降低静止位置的偏差、距拍摄装置的距离的影响执行聚类,能够根据以较高的精度与作业建立对应关系的集群生成关心区域。
图12是例示聚类结果的图。在图12(a)示出图3(b)所述的聚类结果。在图12(a)的例子中,与作业A的作业区域A对应的静止位置被分为两个集群。另外,与作业B和作业C两个作业对应的静止位置聚类为一个集群。
另一方面,在图12(b)示出图8所述的聚类结果。在图12(b)的例子中,分别对作业A的作业区域A、作业B的作业区域B、以及作业C的作业区域C形成集群。因此,能够以较高的精度生成用于从集群所包含的静止位置检测为了各个作业的执行而静止的人物的关心区域。
在以上,例示了实施方式,但实施方式并不限定于此。例如上述的动作流程为例示,实施方式并不限定于此。在可能的情况下,动作流程也可以变更处理的顺序来执行,也可以另外包含处理,也可以省略一部分的处理,或者,也可以置换一部分的处理。
例如,在上述的图10的S1005以及S1007的处理中,记述了通过二分割执行聚类的例子。通过像这样通过最小的二分割阶段性地执行集群的分割,能够抑制将与一个作业对应的静止位置过度分割为多个集群。然而,实施方式并不限定于此。在其它的实施方式中也可以包含分割为比二分割多的数目的集群的方法。作为一个例子,在生成的集群的尺寸与检测对象的人物的尺寸相比极大的情况下,推测为分割不足。因此,控制部601例如也可以在生成的集群的尺寸相对于检测对象的人物的尺寸大至规定的比率以上的情况下,增加分割数进行聚类。
另外,在上述的实施方式中,例示脚踝作为静止的判定所使用的人物的规定的部位,但实施方式并不限定于此,也能够使用其它部位。作为其它的例子,也可以使用人物的后脚跟的坐标、或者后背等身体的重心的坐标进行静止的判定。
另外,虽然在上述的实施方式中,记述了在连续的帧中规定的部位的移动为规定的阈值以下的情况下,判定为静止的例子,但实施方式并不限定于此。在其它的实施方式中,也可以根据对在帧图像映出的人物的从膝关节到脚踝的距离乘以规定的系数等在帧图像映出的人物的尺寸,来适当地设定是否静止的判定所使用的阈值。如上述那样,在帧图像映出的人物的尺寸根据距拍摄装置的距离而变动,所以通过基于从人物检测出的关节间的距离等相对地设定阈值,能够提高静止的判定精度。
并且,实施方式中的静止的判定的算法并不限定于上述的例子。在其它的例子中,控制部601也可以将人物连续十帧移动等人物连续规定帧以上移动的时间段判定为移动,并将未移动的时间段确定为静止时间段。或者,控制部601也可以若在规定期间未在规定的比例以上从人物检测到移动则检测为静止时间段。并且,在静止的检测中,例如只要能够在从一个作业的开始到结束为止的期间对从动态图像检测出的人物检测一个静止位置,则也可以使用其它的算法。
而且,例如通过以能够从执行一个作业中的人物检测一个静止位置的方式调整静止的检测算法,从而静止位置与作业的对应关系建立变好,所以能够提高基于上述的聚类的对作业的关心区域的生成精度。
另外,虽然在上述,记述了将实施方式应用于人物的作业的检测所使用的关心区域的设定的例子,但实施方式并不限定于此。例如进行关心区域的生成的对象也可以是人物以外的动物以及设备等其它的对象物。例如,也可以为了在动态图像中反复移动和静止的其它的部位以及其它的物体静止的区域设定关心区域而应用实施方式。
在上述的实施方式中S1003以及S1004的处理中控制部601例如作为确定部611进行动作。另外,在S1005~S1007的处理中控制部601例如作为分割部612进行动作。在S1008的处理中控制部601例如作为生成部613进行动作。
图13是例示用于实现实施方式所涉及的信息处理装置501的计算机1300的硬件构成的图。用于实现图13的信息处理装置501的硬件构成例如具备处理器1301、存储器1302、存储装置1303、读取装置1304、通信接口1306、以及输入输出接口1307。此外,处理器1301、存储器1302、存储装置1303、读取装置1304、通信接口1306、输入输出接口1307例如经由总线1308相互连接。
处理器1301例如既可以是单处理器,也可以是多处理器或多核。处理器1301通过利用存储器1302例如执行记述了上述的动作流程的顺序的程序,来提供上述的控制部601的一部分或者全部的功能。例如,信息处理装置501的处理器1301通过读出储存于存储装置1303的程序并执行,作为确定部611、分割部612、以及生成部613进行动作。
存储器1302例如是半导体存储器,可以包含RAM区域以及ROM区域。存储装置1303例如是硬盘、闪存等半导体存储器、或者外部存储装置。此外,RAM是Random AccessMemory:随机存储器的简称。另外,ROM是Read Only Memory:只读存储器的简称。
读取装置1304根据处理器1301的指示访问可拆装存储介质1305。可拆装存储介质1305例如由半导体设备、通过磁的作用输入输出信息的介质、通过光学的作用输入输出信息的介质等实现。此外,半导体设备例如是USB(Universal Serial Bus:通用串行总线)存储器。另外,通过磁的作用输入输出信息的介质例如是磁盘。通过光学的作用输入输出信息的介质例如是CD-ROM、DVD、Blu-ray Disc等(Blu-ray是注册商标)。CD是Compact Disc:光盘的简称。DVD是Digital Versatile Disk:数字多用盘的简称。
存储部602例如包含存储器1302、存储装置1303、以及可拆装存储介质1305。例如,在信息处理装置501的存储装置1303储存有拍摄作业而得到的动态图像、以及静止位置信息900。
通信接口1306根据处理器1301的指示与其它的装置进行通信。在一个例子中,通信接口1306可以通过有线或者无线通信与拍摄装置502等其它的装置发送接收数据。通信接口1306是上述的通信部603的一个例子。
输入输出接口1307例如可以是与输入装置以及输出装置之间的接口。输入装置例如是受理来自用户的指示的键盘、鼠标、触摸面板等设备。输出装置例如是显示器等显示装置、以及扬声器等声音装置。
实施方式所涉及的各程序例如以下述的方式提供给信息处理装置501。
(1)预先安装于存储装置1303。
(2)通过可拆装存储介质1305提供。
(3)从程序服务器等服务器提供。
此外,用于实现参照图13所述的信息处理装置501的计算机1300的硬件构成为例示,实施方式并不限定于此。例如,也可以删除上述的构成的一部分,另外,也可以追加新的构成。另外,在其它的实施方式中,上述的控制部601的一部分或者全部的功能例如也可以作为基于FPGA、SoC、ASIC、以及PLD等的硬件安装。此外,FPGA是Field Programmable GateArray:现场可编程门阵列的简称。SoC是System-on-a-chip:芯片上系统的简称。ASIC是Application Specific Integrated Circuit:专用集成电路的简称。PLD是ProgrammableLogic Device:可编程逻辑器件的简称。
以上,对几个实施方式进行了说明。然而,实施方式并不限定于上述的实施方式,应该理解包含上述的实施方式的各种变形方式以及代替方式。例如,应该理解各种实施方式能够在不脱离其主旨以及范围的范围内对构成要素进行变形来具体化。另外,应该理解能够通过适当地组合上述的实施方式所公开的多个构成要素来实施各种实施方式。并且,本领域技术人员应该理解能够从实施方式所示的所有构成要素删除几个构成要素,或者对实施方式所示的构成要素追加几个构成要素来实施各种实施方式。
附图标记说明
500…拍摄系统,501…信息处理装置,502…拍摄装置,601…控制部,602…存储部,603…通信部,611…确定部,612…分割部,613…生成部,1300…计算机,1301…处理器,1302…存储器,1303…存储装置,1304…读取装置,1305…可拆装存储介质,1306…通信接口,1307…输入输出接口,1308…总线。

Claims (6)

1.一种信息处理装置,包含:
确定部,从拍摄人物作业而得到的动态图像确定上述人物静止的第一多个静止位置、和上述人物在上述多个静止位置移动的移动顺序;
分割部,通过对上述第一多个静止位置进行聚类,将上述第一多个静止位置分割为第一多个集群,在第一多个集群所包含的集群包含在上述移动顺序上处于移动源与移动目的地的关系的静止位置的对的情况下,通过对上述集群所包含的第二多个静止位置进行聚类,将上述第二多个静止位置分割为第二多个集群;以及
生成部,基于上述第二多个集群在上述动态图像生成关心区域。
2.根据权利要求1所述的信息处理装置,其中,
上述分割部通过二分割对上述第二多个静止位置进行分割。
3.根据权利要求1或者2所述的信息处理装置,其中,
上述确定部确定在上述动态图像中基于上述人物的骨骼的上述人物的规定部位满足规定的条件未进行移动的静止时间段,并确定代表上述静止时间段的帧图像中的上述规定部位的位置的代表位置作为上述静止位置。
4.根据权利要求1~3中任意一项所述的信息处理装置,其中,
上述分割部在上述第一多个集群所包含的集群不包含在上述移动顺序上处于移动源与移动目的地的关系的静止位置的对的情况下,不执行上述集群所包含的上述第二多个静止位置的进一步的聚类。
5.一种生成方法,是由计算机执行的生成方法,包含:
从拍摄人物作业而得到的动态图像确定上述人物静止的多个静止位置、和上述人物在上述多个静止位置移动的移动顺序;
通过对上述第一多个静止位置进行聚类,将上述第一多个静止位置分割为第一多个集群,在第一多个集群所包含的集群包含在上述移动顺序上处于移动源与移动目的地的关系的静止位置的对的情况下,通过对上述集群所包含的第二多个静止位置进行聚类,将上述第二多个静止位置分割为第二多个集群;以及
基于上述第二多个集群在上述动态图像生成关心区域。
6.一种生成程序,使计算机执行如下处理:
从拍摄人物作业而得到的动态图像确定上述人物静止的多个静止位置、和上述人物在上述多个静止位置移动的移动顺序;
通过对上述第一多个静止位置进行聚类,将上述第一多个静止位置分割为第一多个集群,在第一多个集群所包含的集群包含在上述移动顺序上处于移动源与移动目的地的关系的静止位置的对的情况下,通过对上述集群所包含的第二多个静止位置进行聚类,将上述第二多个静止位置分割为第二多个集群;以及
基于上述第二多个集群在上述动态图像生成关心区域。
CN202080105869.6A 2020-11-12 2020-11-12 信息处理装置、生成方法、以及生成程序 Pending CN116348913A (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/042193 WO2022102038A1 (ja) 2020-11-12 2020-11-12 情報処理装置、生成方法、および生成プログラム

Publications (1)

Publication Number Publication Date
CN116348913A true CN116348913A (zh) 2023-06-27

Family

ID=81600948

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080105869.6A Pending CN116348913A (zh) 2020-11-12 2020-11-12 信息处理装置、生成方法、以及生成程序

Country Status (5)

Country Link
US (1) US20230237690A1 (zh)
EP (1) EP4246438A4 (zh)
JP (1) JPWO2022102038A1 (zh)
CN (1) CN116348913A (zh)
WO (1) WO2022102038A1 (zh)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5091095B2 (ja) * 2008-11-25 2012-12-05 綜合警備保障株式会社 動作検出装置および動作検出方法
CN102227750B (zh) 2009-07-31 2014-06-25 松下电器产业株式会社 移动体检测装置及移动体检测方法
JP5097187B2 (ja) * 2009-10-14 2012-12-12 技研トラステム株式会社 店員顧客分離集計装置
JP5473801B2 (ja) * 2010-06-30 2014-04-16 株式会社日立製作所 監視装置
WO2013145632A1 (ja) * 2012-03-30 2013-10-03 日本電気株式会社 動線データ解析装置、システム、プログラム及び方法
JP2017090965A (ja) 2015-11-02 2017-05-25 株式会社東芝 群衆分類装置、その方法、及び、そのプログラム

Also Published As

Publication number Publication date
US20230237690A1 (en) 2023-07-27
JPWO2022102038A1 (zh) 2022-05-19
EP4246438A1 (en) 2023-09-20
WO2022102038A1 (ja) 2022-05-19
EP4246438A4 (en) 2023-11-01

Similar Documents

Publication Publication Date Title
US10810735B2 (en) Method and apparatus for analyzing medical image
US10255492B2 (en) Image processing method providing information for identifying a function of an object, the function being identified based on a pose of a person with respect to the object
EP2330557B1 (en) Moving body detection method and moving body detection device
EP2889835A1 (en) Object discrimination device, object discrimination method, and program
JP7452016B2 (ja) 学習データ生成プログラム、及び学習データ生成方法
CN108885636A (zh) 车型识别装置、车型识别系统以及车型识别方法
CN108229232B (zh) 批量扫描二维码的方法和批量扫描二维码的装置
JP2018151830A (ja) 画像処理装置、画像処理方法及びプログラム
CN113379739B (zh) 超声图像的识别方法、装置、设备及存储介质
JP6859472B1 (ja) 物体追跡装置、物体追跡方法及びプログラム
KR20220098030A (ko) 타깃 운동 궤적 구축 방법, 기기 및 컴퓨터 저장 매체
US10891740B2 (en) Moving object tracking apparatus, moving object tracking method, and computer program product
US10614336B2 (en) Method, system, and computer-readable recording medium for image-based object tracking
JP2019220014A (ja) 画像解析装置、画像解析方法及びプログラム
JP7409134B2 (ja) 画像処理方法、画像処理プログラム、および画像処理装置
US20180189562A1 (en) Character recognition apparatus, character recognition method, and computer program product
CN116348913A (zh) 信息处理装置、生成方法、以及生成程序
JP2016053763A (ja) 画像処理装置、画像処理方法及びプログラム
JP2020135580A (ja) 検索装置、検索方法、およびプログラム
US11373313B2 (en) Image processing apparatus and image processing method
JP2019139497A (ja) 画像処理システム及び画像処理方法
CN112101139B (zh) 人形检测方法、装置、设备及存储介质
JP7202995B2 (ja) 時空間事象予測装置、時空間事象予測方法及び時空間事象予測システム
US11042274B2 (en) Extracting demonstrations from in-situ video content
Ansarian et al. Realistic Augmentation For Effective 2d Human Pose Estimation Under Occlusion

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination