JP2021535667A - 事象を管理するための注目期間及び少なくとも1つの注目領域を決定する方法、装置及びプログラム - Google Patents

事象を管理するための注目期間及び少なくとも1つの注目領域を決定する方法、装置及びプログラム Download PDF

Info

Publication number
JP2021535667A
JP2021535667A JP2021510490A JP2021510490A JP2021535667A JP 2021535667 A JP2021535667 A JP 2021535667A JP 2021510490 A JP2021510490 A JP 2021510490A JP 2021510490 A JP2021510490 A JP 2021510490A JP 2021535667 A JP2021535667 A JP 2021535667A
Authority
JP
Japan
Prior art keywords
appearance
feature information
path
person
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021510490A
Other languages
English (en)
Other versions
JP7047970B2 (ja
Inventor
フイ ラム オング
智史 山崎
ホン イェン オング
ウェイ ジアン ペー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JP2021535667A publication Critical patent/JP2021535667A/ja
Application granted granted Critical
Publication of JP7047970B2 publication Critical patent/JP7047970B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/29Graphical models, e.g. Bayesian networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/84Arrangements for image or video recognition or understanding using pattern recognition or machine learning using probabilistic graphical models from image or video features, e.g. Markov models or Bayesian networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Abstract

本方法は、一連の画像内の対象人物の2以上の出現のそれぞれについて1組の座標を決定するステップであって、対象人物の2以上の出現の1組の座標は第1の経路を規定する、ステップと、一連の画像内の関係人物の2以上の出現のそれぞれについて1組の座標を決定するステップであって、当該関係人物は対象人物に関係し、関係人物の2以上の出現の1組の座標は第2の経路を規定する、ステップと、第1の経路と第2の経路の間の1以上の最小距離を決定して、少なくとも1つの注目領域を決定するステップと、対象人物の最初の出現のタイムスタンプと最後の出現のタイムスタンプを決定するステップと、関係人物の最初の出現のタイムスタンプと最後の出現のタイムスタンプを決定するステップとを含む。【選択図】図6

Description

本発明は、事象を管理するための注目期間及び少なくとも1つの潜在的な注目領域を決定する方法に関する。特に、本発明は、監視システムを利用して、不審人物の同時出現を含む不審な行動の注目期間及び少なくとも1つの潜在的な注目領域を決定することに関する。
近年、公共の場における犯罪組織グループの活動が増加している。ショッピングモール、駅、学校等の公共の場は、一般に開放されており、セキュリティレベルが低いため、ソフトターゲットと考えられている。攻撃又は犯罪行為を企てている犯人は、計画段階の初期において、潜在的なソフトターゲットを複数回に亘って詳細に監視し、これらのソフトターゲットの適合性と、攻撃又は犯罪の成功率を評価する傾向がある。また、犯人は、不審物/違法な物を「デッドドロップ」する等の他の付随的な行動を行い、彼らのネットワークの他の仲間と情報を交換するために、公共の場を選ぶこともよくある。犯人の同時出現の検出を目的とした既存の解決手段が存在する。しかしながら、多くの場合、犯人は、彼らの足跡や互いの関係を隠すため、同時に出現することは滅多にない。公共の場における群衆の賑わいにより、これらの内密な行動が容易に検出されないことが多く、このような公共の場に犯人が現れても、彼らの行動が不審であると分からず、不自然に見えないため、そのような内密な行動を検出するのは困難である。
犯人とその仲間のネットワークを発見し、内密な行動を検出することは、組織犯罪と戦い、攻撃の発生を防ぐために重要である。公共の場で犯罪が発生する傾向が強くなっているため、政府及び警察は、犯罪の防止及び事後の調査に役立てるために、公共の場所を監視する映像監視システムを配備している。人工知能(AI)を利用した防犯は、未だ研究段階及び実験段階にあるが、警察は、スマート映像監視システムを活用して、攻撃後の捜査又は犯罪捜査を加速化することを検討している。
監視システムが提供したタイムスタンプと撮影(場所)画像に基づいて、不審者と、その明らかな仲間を検出する解決手段があり、これは、捜査において、警察が注目すべき人物、場所及び期間について重要な手掛かりを提供する。しかしながら、これらのデータは、意義のある方法で処理や分類、表示がされない。録画された映像における潜在的な疑わしい仲間、地域及び期間の絞り込みや拡大に有用な既存の解決手段は存在しない。本発明の目的は、上述した1以上の既存の課題を実質的に解決することであり、監視システムを利用して、疑わしい仲間の同時出現等の不審な行動について、注目期間及び少なくとも1つの潜在的な注目領域を決定する。
本開示の第1の態様によれば、事象を管理するための注目期間及び少なくとも1つの注目領域を決定する方法が提供され、この方法は、
一連の画像内の対象人物の2以上の出現のそれぞれについて1組の座標を決定するステップであって、当該1組の座標は対象人物の2以上の出現の第1の経路を規定する、ステップと、
一連の画像内の関係人物の2以上の出現のそれぞれについて1組の座標を決定するステップであって、当該関係人物は対象人物に関係し、当該関係人物の2以上の出現の1組の座標は第2の経路を規定する、ステップと、
第1の経路と第2の経路の間の1以上の最小距離を決定して、少なくとも1つの注目領域を決定するステップと、
対象人物の最初の出現のタイムスタンプと最後の出現のタイムスタンプを決定するステップと、
第1の経路と第2の経路の間の1以上の最小距離のうちの少なくとも1つが既定の距離以下であると判断された場合に、関係人物の最初の出現のタイムスタンプ及び最後の出現のタイムスタンプを決定して、注目期間を決定するステップとを含む。
一実施形態では、この方法は、
撮影装置から、事象に関連する複数の画像入力を受信するステップと、
事象に関連する複数の画像入力のそれぞれから1以上の特徴情報を識別するステップと、
識別された1以上の特徴情報のそれぞれが、対象人物の特徴情報に対応する可能性があるか否か判断するステップとを含み、特徴情報は、顔情報及び体の動き情報を含む。
一実施形態では、この方法は、識別された1以上の特徴情報の1つが、対象人物の特徴情報に対応する可能性があるとの判断に応じて、受信した画像入力の少なくとも1つを検索するステップを含み、検索された受信した画像入力の少なくとも1つは、対象人物の特徴情報に対応する可能性のある特徴情報に関連する。
一実施形態では、この方法は、識別された1以上の特徴情報の1つが、対象人物の特徴情報に対応する可能性があるとの判断に応じて、受信した画像入力の少なくとも1つを、検索期間内に検索するステップを含み、検索された受信した画像入力のうちの少なくとも1つは、対象人物の特徴情報に対応しない可能性のある特徴情報に関連し、検索期間は、対象人物の最初の出現前の既定期間から開始し、最後の出現後の既定期間で終了する。
一実施形態では、この方法は、
第1の経路における対象人物の別の出現又は第2の経路における関係人物の別の出現に対応する別の座標の組を決定するステップと、
第1の経路及び第2の経路の一方から他方の経路の位置への1組以上の座標を決定して、1以上の最小距離を決定するステップとを含む。
一実施形態では、この方法は、第1の経路と第2の経路の間の決定された1以上の最小距離が既定の距離以下であるか否か判断して、1以上の最小点を決定するステップを含む。
一実施形態では、この方法は、1以上の最小点を結んで、注目領域を決定するステップを含む。
一実施形態では、この方法は、
第1の経路と第2の経路の間の決定された1以上の最小距離のうちの少なくとも1つが、既定の距離以下であるか否か判断するステップと、
第1の経路と第2の経路の間の決定された1以上の最小距離のうちの少なくとも1つが既定の距離以下であるとの判断に応じて、対象人物の最初の出現の決定されたタイムスタンプ、対象人物の最後の出現の決定されたタイムスタンプ、関係人物の最初の出現の決定されたタイムスタンプ、及び関係人物の最後の出現の決定されたタイムスタンプの中から、最初のタイムスタンプ及び最後のタイムスタンプを決定するステップとを含み、最初のタイムスタンプから最後のタイムスタンプまでの期間が、注目期間に相当する。
本開示の第2の態様によれば、事象を管理するための注目期間及び少なくとも1つの注目領域を決定する装置が提供され、当該装置は、プロセッサと通信するメモリを備えており、当該メモリは、その内部にコンピュータプログラムを格納し、当該コンピュータプログラムは、プロセッサによって実行された場合に、当該装置に対して少なくとも、
一連の画像内の対象人物の2以上の出現のそれぞれについて1組の座標を決定するステップであって、対象人物の2以上の出現の1組の座標は第1の経路を規定する、ステップと、
一連の画像内の関係人物の2以上の出現のそれぞれについて1組の座標を決定するステップであって、当該関係人物は対象人物に関係し、関係人物の2以上の出現の1組の座標は第2の経路を規定する、ステップと、
第1の経路と第2の経路の間の1以上の最小距離を決定して、少なくとも1つの注目領域を決定するステップと、
対象人物の最初の出現のタイムスタンプと最後の出現のタイムスタンプを決定するステップとを実行させる。
また、第1の経路と第2の経路の間の1以上の最小距離のうちの少なくとも1つが、既定の距離以下であると判断された場合に、関係人物の最初の出現のタイムスタンプ及び最後の出現のタイムスタンプを決定して、注目期間を決定するステップを実行させる。
一実施形態では、本装置は、
撮影装置から、事象に関連する複数の画像入力を受信し、事象に関連する複数の画像入力のそれぞれから1以上の特徴情報を識別し、
識別された1以上の特徴情報のそれぞれが、対象人物の特徴情報に対応する可能性があるか否か判断し、特徴情報は、顔情報及び体の動き情報を含む。
一実施形態では、本装置は、識別された1以上の特徴情報の1つが、対象人物の特徴情報に対応する可能性があるとの判断に応じて、受信した画像入力の少なくとも1つを検索し、検索された受信した画像入力の少なくとも1つが、対象人物の特徴情報に対応する可能性のある特徴情報に関連する。
一実施形態では、本装置は、識別された1以上の特徴情報の1つが対象人物の特徴情報に対応する可能性があるとの判断に応じて、1以上の別の画像入力を検索し、検索された1以上の別の画像入力は、対象人物の特徴情報に対応する可能性のある情報特徴に関連し、
複数組の座標及び複数のタイムスタンプを検索し、それぞれが、検索された1以上の別の画像入力内の対象人物の出現に関連し、複数組の座標及び複数のタイムスタンプは、対象人物の最初の出現の複数組の座標及び複数のタイムスタンプと、対象人物の最後の出現の複数組の座標及び複数のタイムスタンプとを含む。
一実施形態では、本装置は、
識別された1以上の特徴情報の1つが対象人物の特徴情報に対応する可能性があるとの判断に応じて、受信した画像入力の少なくとも1つを、検索期間内に検索し、検索された受信した画像入力のうちの少なくとも1つは、対象人物の特徴情報に対応しない可能性のある特徴情報に関連し、検索期間は、対象人物の最初の出現前の既定期間から開始し、最後の出現後の既定期間で終了する。
一実施形態では、本装置は、識別された1以上の特徴情報の1つが対象人物の特徴情報に対応する可能性があるとの判断に応じて、1以上の別の画像入力を検索し、検索された1以上の別の画像入力は、対象人物の特徴情報に対応しない可能性のある特徴情報に関連し、
複数組の座標及び複数のタイムスタンプを検索し、それぞれが、検索された1以上の別の画像入力内の関係人物の出現に関連し、複数組の座標及び複数のタイムスタンプは、関係人物の最初の出現の複数組の座標及び複数のタイムスタンプと、関係人物の最後の出現の複数組の座標及び複数のタイムスタンプとを含む。
一実施形態では、本装置は、
第1の経路における対象人物の別の出現又は第2の経路における関係人物の別の出現に対応する別の座標の組を決定し、
第1の経路及び第2の経路の一方から他方の経路の位置への1組以上の座標を決定して、1以上の最小距離を決定する。
一実施形態では、本装置は、第1の経路と第2の経路の間の決定された1以上の最小距離が、既定の距離以下であるか否か判断して、1以上の最小点を決定する。
一実施形態では、本装置は、1以上の最小点を結んで注目領域を決定する。
一実施形態では、本装置は、
第1の経路と第2の経路の間の決定された1以上の最小距離のうちの少なくとも1つが、既定の距離以下であるか否か判断し、
第1の経路と第2の経路の間の決定された1以上の最小距離のうちの少なくとも1つが、既定の距離以下であるとの判断に応じて、対象人物の最初の出現の決定されたタイムスタンプ、対象人物の最後の出現の決定されたタイムスタンプ、関係人物の最初の出現の決定されたタイムスタンプ、及び関係人物の最後の出現の決定されたタイムスタンプの中から、最初のタイムスタンプ及び最後のタイムスタンプを決定し、
最初のタイムスタンプから最後のタイムスタンプまでの期間が、注目期間に相当する。
本開示のさらに別の態様によれば、事象を管理するための注目期間及び少なくとも1つの注目領域を決定するシステムが提供され、このシステムは、本開示の第2の態様の装置と、少なくとも1つの撮影装置とを含む。
本発明の実施形態は、単に例示を目的とする以下の説明及び以下の図面により、当業者によく理解され、明らかになるであろう。
図1は、一実施形態に係る事象を管理するための注目期間及び少なくとも1つの注目領域を決定するシステムを示すブロック図である。 図2Aは、一実施形態に係る事象を管理するための注目期間及び少なくとも1つの注目領域を決定する方法を示すフロー図である。 図2Bは、一実施形態に係る事象を管理するための注目期間及び少なくとも1つの注目領域を決定する方法を示すフロー図である。 図3は、一実施形態に係る対象人物の出現に関する関係人物の同時出現の一例を示す。 図4Aは、一実施形態に係る対象人物の第1の経路及び関係人物の第2の経路の一例を示す。 図4Bは、一実施形態に係る対象人物の第1の経路及び関係人物の第2の経路の一例を示す。 図5Aは、一実施形態に係る対象人物の第1の経路及び関係人物の第2の経路の一例を示す。 図5Bは、一実施形態に係る対象人物の第1の経路及び関係人物の第2の経路の一例を示す。 図6は、一実施形態において注目領域を決定する方法の一例を示す。 図7Aは、2つの線の間の最短距離を決定する方法の一例を示す。 図7Bは、2つの線の間の最短距離を決定する方法の一例を示す。 図8は、図1に示す装置104を実装するのに適したコンピュータシステム800の概略図である。
様々な実施形態は、事象を管理するために(攻撃又は犯罪行為の事後の調査の管理等)、不審人物の同時出現を含む不審な行動についての注目期間及び少なくとも1つの潜在的な注目領域を決定する装置及び方法を提供する。同時出現とは、対象人物(攻撃や犯罪行為等の事象に関係する犯人、又は当該事象に関係することが疑われる人物)と、1人以上の関係人物(対象人物の仲間のネットワーク等)が、監視カメラの同じ視界に同時に現れること意味し、又は、対象人物の出現から開始又は終了する特定の期間における1人以上の関係人物の出現を意味する。
以下の開示は、上述した課題の少なくとも1つを解決する手段を提供する。解決手段の一つは、装置を用いて、特徴情報を分析し、一連の画像から得られた識別された特徴情報の出現の複数組の座標及び複数のタイムスタンプを検索することにより、事象を管理するための注目期間及び少なくとも1つの潜在的な注目領域を決定し、一連の画像には、事象に関連する2以上の画像(監視カメラ映像の映像フレーム等)が含まれる。対象人物及び関係人物のそれぞれの最初の出現及び最後の出現の決定されたタイムスタンプの中から、最初のタイムスタンプ及び最後のタイムスタンプを決定することにより、注目期間を決定できる。さらに、或る期間の一連の画像内の対象人物の位置又は1以上の関係人物の位置に対応する複数組の座標を決定することにより、対象人物及び関係人物の移動経路は、複数の画像入力のそれぞれの座標の組を結ぶことによって形成できる。そして、潜在的な注目領域は、対象人物の経路とその関係人物の経路との間の1以上の最小距離を決定する経路分析を用いて決定できる。
対象人物及びその関係人物の存在の決定に基づいて、そのような同時出現の注目期間及び少なくとも1つの潜在的な注目領域を決定することにより、攻撃後の調査又は犯罪調査で注目すべき特定の期間及び場所又は領域を特定する意義のある方法で、監視カメラから収集されたデータ又は情報を統合及び提示することができる一方、これは、従来の監視方法では見過ごされていた可能性がある。
従来、監視カメラを用いて映像を録画し、検出された対象(人間を含む)及び動きの事象発生スコアの算出に基づき、不審な行動を検出する等により、不審な行動を監視する装置及び方法が存在する。関連する事象は、スコアが高い場合にフラグが立てられ、スコア(確率)は、(例えば、動的ベイジアンネットワークを用いた)機械学習によってモデル化することができる。しかしながら、そのような方法は、バッグ、ナイフ及び/又は他の不審物を検出するといった様々な特定の物体を検出する技術を必要とする。
軌跡の類似性の評価等の同様の概念は、位置データ(全地球測位システム、GPS等)を用いて、2つの軌跡の間の類似性スコアを算出し、注目人物の動きを監視して動きの傾向を把握するが、潜在的な不審な対象を識別しない。言うまでもなく、攻撃後の調査又は犯罪調査のために、疑わしい同時出現の潜在的な注目領域を識別しない。
さらに、従来、動き検出を利用して注目領域を監視する多くの装置及び方法も存在し、過去の映像フレームに基づくピクセルの変化を監視することにより、既定の領域における動きが検出される。この方法は、多くの映像監視アプリケーションで使用され、注目領域における変化が検出されたときに、画像を自動的に撮影する。しかしながら、この方法では、監視すべき特定の注目領域を特定する必要があり、上述した犯罪後の調査の課題を解決することができない。
同時出現の検出方法が存在しており、この方法では、同一の映像フレーム内で取得された複数の人物の同時出現は、隣に現れた人物の同時出現を含み、異なる方向及び/又は異なる座標に現れた人物の同時出現が検出され、注目すべき対象人物と関係人物との関係を発見する。そのような同時出現グループを検出する方法の別の方法は、同一のフレーム内の人物の速度及び/又は距離に基づいて類似性スコアを算出して社会集団を発見し、人物の速度及び距離は、人物の追跡技術によって推定される。しかしながら、これらの方法では、同一のフレーム内の疑わしい同時出現の潜在的な注目領域のみを識別する。現時点では、同時出現を直接的及び間接的に識別可能な方法は存在しない。換言すると、現時点では、同一のフレーム内で発生した同時出現と、同一のフレーム内で発生していない同時出現を識別可能な方法は存在しない。
本開示の一実施形態は、監視システムで受信された入力から得られた画像に経路分析を施して、対象人物及び関係人物の同時出現の注目期間及び少なくとも1つの潜在的な注目領域を決定することにより、これらの課題の少なくとも1つを解決し、
画像入力と、それに対応する対象人物の識別された特徴情報の可能性のある出現の座標及びタイムスタンプを検索し、画像入力は、監視カメラ映像の映像フレームを含み、
既定の検索期間内に出現する1人以上の関係人物を決定し、検索期間は、対象人物の最初の出現前の既定期間から開始し、最後の出現後の既定期間で終了し、
画像入力と、それに対応する関係人物のそれぞれの出現の座標及びタイムスタンプを検索し、
画像入力の座標を結ぶことにより、出現について対象人物及び関係人物のそれぞれの経路を形成し、
最小距離(近接)閾値を満たす、対象人物と関係人物の間の最小距離を発見し、
対象人物及び関係人物の出現の検索されたタイムスタンプの最初及び最後のタイムスタンプを決定して、同時出現の注目期間を決定し、
各最小距離を形成する部分に最も近い各経路の1以上の最小点を決定し、
1以上の最小点を結んで、同時出現の潜在的な注目領域を決定する。
本発明の実施形態について、図面を参照して、例示として説明する。図中の同様の参照番号及び文字は、同様の構成要素又は均等なものを表す。
以下の説明の一部は、コンピュータメモリ内のデータに対する処理に関するアルゴリズム及び機能的表現又は記号的表現について明示的又は非明示的に表現されている。これらのアルゴリズムの記述及び機能的表現又は記号的表現は、情報処理技術の当業者が、その仕事内容を他の当業者に最も効果的に伝えるために使用する手段である。ここでは、アルゴリズムは一般に、所望の結果を導出する矛盾のない一連のステップであると考えられる。これらのステップは、保存、転送、結合、比較、及びその他の処理が行われ得る電気信号、磁気信号、又は光信号等、物理量の物理的な処理を必要とするステップである。
特に明記しない限り、また以下から明らかなように、本明細書全体を通して、「スキャン」、「算出」、「決定」、「置換」、「生成」、「初期化」、「出力」、「受信」、「検索」、「識別」、「予測」等の用語を用いた説明は、コンピュータシステム又は同様の電子装置の動作及び処理を表し、これらのシステム及び装置は、コンピュータシステム内の物理量として表されるデータを処理及び変換して、コンピュータシステム又は他の情報記憶装置、通信装置、又は表示装置内の物理量として表される他の同様にデータに変換することは理解されるであろう。
また、本明細書は、本方法の処理を実行する装置を開示する。そのような装置は、必要な目的のために特別に作ることができ、又はコンピュータに格納されたコンピュータプログラムによって選択的に起動又は再構成されるコンピュータ又は他の装置を含む。本明細書に示すアルゴリズム及び表示は、特定のコンピュータ又は他の装置に本質的に関連しない。本明細書の教示に従うプログラムと共に、様々な機械を使用することができる。代替的に、必要な方法のステップを実行する専用の装置を作ることが適切なこともある。コンピュータの構造は、以下の説明によって明らかになるであろう。
さらに、本明細書に記載の方法の個々のステップはコンピュータコードによって実装可能であるということが当業者に明らかであるという点において、本明細書は、コンピュータプログラムも非明示的に開示する。コンピュータプログラムは、特定のプログラミング言語及びその実装に限定されるものではない。様々なプログラミング言語及びそのプログラムを用いて、本明細書に含まれる本開示の教示を実現できることは理解されるであろう。さらに、コンピュータプログラムは、特定の制御フローに限定されるものではない。コンピュータプログラムには、他の多くの変形例があり、本発明の精神又は範囲から逸脱することなく、異なる制御フローを使用することができる。
さらに、コンピュータプログラムの1以上のステップは、逐次的ではなく、並行して実行できる。そのようなコンピュータプログラムは、任意のコンピュータ可読媒体に格納できる。コンピュータ可読媒体は、磁気ディスク、光ディスク若しくはメモリチップ等の記憶装置、又はコンピュータとの通信に適した他の記憶装置を含む。また、コンピュータ可読媒体は、インターネットシステム等の有線媒体、又はGSM携帯電話システム等の無線媒体を含む。コンピュータプログラムは、そのようなコンピュータにロードされて実行されると、好適な方法のステップを実行する装置を効果的に実現する。
「背景技術」の節に含まれる説明及び従来の方法に関する上記説明は、利用によって公知となっている装置の説明に関するものであることに留意されたい。従って、本発明者又は特許出願人が、そのような装置がいずれかの態様で本技術分野の一般的な知識の一部を形成することを表明していると解釈すべきではない。
図1は、一実施形態に係る事象を管理するための注目期間及び少なくとも1つの注目領域を決定するシステムを示すブロック図である。一例では、事象に関連する画像入力の管理は、少なくとも1つの撮影装置102及び装置104によって実行される。このシステムは、攻撃後の調査又は犯罪調査のために、捜査官によって利用され得る。
システム100は、装置104と通信する撮影装置102を備える。一実施形態では、装置104は通常、少なくとも1つのプロセッサ108と、コンピュータプログラムコードを有する少なくとも1つのメモリ106とを備える物理的な装置として説明される。少なくとも1つのメモリ106及びコンピュータプログラムコードは、少なくとも1つのプロセッサ108を用いて、物理的な装置に対し、図2A及び図2Bに記載の処理を実行させるように構成される。プロセッサ108は、撮影装置102の録画の映像フレームから得られた複数の画像入力を受信するように構成され、又は、録画の映像フレームから得られた複数の画像入力をデータベース110から検索するように構成される。
撮影装置102は、関連する事象から特徴情報、時刻情報、及び映像フレーム座標のいずれが得られたかを示す様々な情報を提供するケーブルテレビ(CCTV)等の装置とすることができる。一実施形態では、撮影装置102から得られた特徴情報は、既知の対象人物の顔情報を含み、対象人物は、捜査員によって特定される攻撃又は犯罪行為等の事象に密接に関連し、装置104のメモリ106又は装置104がアクセス可能なデータベース110に格納される。その他の特徴情報には、しゃがんだり、かがんだり等の体の動きが含まれる。データベース110は、装置104の一部でもよいと理解すべきである。
装置104は、撮影装置102及びデータベース110と通信するように構成できる。一例では、装置104は、画像入力を、撮影装置102から受信し、又はデータベース110から検索し、装置104のプロセッサ108による処理の後、出力を生成し、この出力は、事象を管理するために(攻撃又は犯罪行為の事後的な調査を管理する等)、他の不審者及び/又は不審な行動等の同時出現に関する注目期間及び少なくとも1つの潜在的な注目領域を規定するために用いられる。
一実施形態では、撮影装置102から複数の画像入力を受信した後、又はデータベース110から複数の画像入力を検索した後、メモリ106及び当該メモリに格納されたコンピュータプログラムコードは、プロセッサ108と共に、装置104に対し、特徴検出技術を利用して、複数の画像入力のそれぞれから1以上の特徴情報を識別する。そして、装置104は、識別された1以上の特徴情報のそれぞれが、データベース110に格納された対象人物の特徴情報に対応する可能性があるか否か判断するように構成される。次いで、装置104はさらに、少なくとも1つの識別された特徴情報が、対象人物の特徴情報に対応する可能性があると判断された場合、対象人物の特徴情報に対応する可能性のある特徴情報に関連する、1以上の画像入力と、これに対応する位置座標及びタイムスタンプを検索するように構成される。装置104はさらに、既定の検索期間内に現れる1以上の関係人物を決定するように構成され、この検索期間は、対象人物の最初の出現前の既定期間から開始し、最後の出現後の既定期間で終了し、また、各関係人物の出現について、画像入力と、対応する座標及びタイムスタンプを検索するように構成される。装置104はさらに、画像入力の座標の各座標を結ぶことにより、出現に関する対象人物及び各関係人物の経路を形成し、既定の最小距離(近接)閾値を満たす対象人物の経路と関係人物の各経路との間の最小距離を見つけ、いずれが、各最小距離を形成する部分に最も近い各経路の1以上の最小点であるか決定するように構成される。そして、装置104は、1以上の最小点を結んで、同時出現の潜在的な注目領域を決定するように構成される。さらに、既定の最小距離(近接)閾値を満たす、対象人物の経路と関係人物の経路のそれぞれとの間の少なくとも1つの最小距離があるとの判断に応じて、決定された対象人物及び各関係人物の最初の出現及び最後の出現のタイムスタンプの中から、最初のタイムスタンプ及び最後のタイムスタンプを決定して、各同時出現の注目期間を決定し、この注目期間は、最初のタイムスタンプから最後のタイムスタンプまでの期間である。
図2A及び図2Bは、一実施形態に係る事象を管理するための注目期間及び少なくとも1つの注目領域を決定する方法を示すフロー図である。1以上の特徴情報が、複数の画像入力のそれぞれから識別され、これらの画像入力は、撮影装置102から受信され、対象人物が画像入力に現れるか否か判断するために処理され、そして、対象人物が画像入力に現れたと判断された場合、(撮影装置の同じ視界内であるが、時間の異なる別個の映像フレームに)対象人物と同時に現れる1以上の関係人物を識別するために処理される。対象人物と同時に出現する関係人物の検出等の従来の技術を利用することは、手動で行うと時間と手間がかかり、又は、同一の映像フレーム内に出現する関係人物のみを識別するため、発見が不可能である。
図2Aを参照すると、ステップ202では、事象に関連する複数の画像入力が、撮影装置102から受信される。一実施形態では、ワールドカップの試合のような事象を入力することができ、事象に関連する画像入力(監視カメラ映像の映像フレーム等)が、撮影装置102から受信される。追加で、又は代替的に、事象が発生した後、又は事象の発生中に、複数の画像入力が、データベース110から検索される。
ステップ204では、複数の画像入力のそれぞれから1以上の特徴情報が識別される。一実施形態では、顔情報等の1以上の特徴情報は、対象人物の横顔に基づいて識別される。
ステップ206では、識別された1以上の特徴情報のそれぞれが、対象人物の特徴情報に対応する可能性があるか否か判断される。一実施形態では、対象人物の特徴情報は、データベース110から検索することができる。対象人物の特徴情報の少なくとも一部が必要とされる。例えば、対象人物の顔の窪みや横顔等の顕著な顔の特徴である。識別された1以上の顔情報の少なくとも一部が、対象人物の顔情報の少なくとも一部と一致する場合、識別された顔情報は、対象人物の顔情報に対応する可能性があると判断することができる。換言すると、識別された顔情報が、対象人物の顔情報と同一である必要はない。
ステップ208では、識別された1以上の特徴情報のうちの1つが、対象人物の特徴情報に対応する可能性があるとの判断に応じて、対象人物の特徴情報に対応する可能性のある特徴情報に関連する受信した画像入力の少なくとも1つが検索される。一実施形態では、ステップ208は、識別された1以上の特徴情報の少なくとも1つが、対象人物の特徴情報に対応する可能性があると判断された場合に実行される。一方、識別された1以上の特徴情報のそれぞれが、対象人物の特徴情報に対応する可能性がないと判断された場合、処理がステップ202に戻る。例えば、ステップ206において、事象の監視カメラ映像の映像フレーム等の複数の画像入力から識別された特徴情報の少なくとも1つにおいて、対象人物の出現が得られた可能性があると判断された場合、ステップ208では、対象人物の出現を含む可能性がある、そのような受信した画像入力の少なくとも1つが検索され、対象人物の出現に関連する情報、例えば、監視カメラの視界内の対象人物の位置の複数組の座標及び出現時刻等が、後続のステップで検索される。受信した画像入力及び対象人物の特徴情報のうちの少なくとも一方が、データベース110から検索される。
ステップ210では、対象人物の特徴情報に対応する可能性のある特徴情報に関連する1以上の別の画像入力が検索される。一実施形態では、対象人物が複数の画像入力に現れる可能性がある場合、1以上の別の画像入力が、データベース110から検索される。例えば、対象人物が、最初の出現として09:06:10(hh:mm:ss)に監視カメラの視界に入り、最後の出現として09:06:12に視界を離れた場合、映像フレームレートが1秒当たりに1フレームであると仮定すると、対象人物の出現を捉えた09:06:10〜09:06:12までの3つの映像フレームが存在する。従って、ステップ210の処理が実行され、対象人物の特徴情報に対応する可能性のある特徴情報に関連する、これらの3つの映像フレームが検索される。ステップ210では、対象人物の出現を含む可能性のある受信した画像入力の全てが検索され、対象人物の出現に関連する情報、例えば、監視カメラの視界内の対象人物の位置の複数組の座標及び出現時刻等が、後続のステップで検索される。
ステップ212では、複数組の座標と、複数のタイムスタンプが検索され、それぞれが、検索された1以上の別の画像入力のそれぞれにおける対象人物の出現に関連しており、複数組の座標と、複数のタイムスタンプは、対象人物の最初の出現及び最後の出現の複数組の座標及び複数のタイムスタンプを含む。ステップ202で受信した各画像入力において、複数組の座標のそれぞれと、複数のタイムスタンプのそれぞれが検索される。座標の各組は、少なくとも2次元又は3次元における或る時点の対象の位置を表す。一実施形態では、複数組の座標は、画像入力内の対象人物のグリッド位置情報から取得することができる。取得された対象人物の複数組の座標を結ぶことにより、第1の経路を規定することができる。
ステップ214では、対象人物の特徴情報に対応しない可能性のある特徴情報に関連する受信した画像入力のうちの少なくとも1つが、検索期間内に検索され、この検索期間は、対象人物の最初の出現前の既定期間から開始し、最後の出現後の既定期間で終了する。一実施形態では、受信した画像入力及び対象人物の特徴情報のうちの少なくとも1つが、データベース110から検索される。ステップ214では、対象人物の最初の出現前の既定期間と、対象人物の最後の出現後の既定期間において、対象人物以外の人物を検索することにより、対象人物に潜在的に関連する可能性のある人物を識別するため有利である。これらの対象人物は、足跡を隠し、又は仲間との関係を秘密にしようとするため、対象人物と同じ画像入力に出現しない場合がある。識別された1以上の特徴情報の全ての部分が、対象人物の特徴情報の少なくとも一部と一致しない場合、ステップ204で識別された受信した画像入力の少なくとも1つの特徴情報が、対象人物の特徴情報に対応しない可能性があると判断される。検索期間を決定するために用いられる既定期間は、ユーザが設定することができ、また、データベース110から取得することができる。例えば、既定期間は、ステップ202で入力された事象の種類に対応する。
ステップ216では、対象人物の特徴情報に対応しない可能性のある特徴情報に関連する1以上の別の画像入力が検索される。換言すると、ステップ204において複数の画像入力のそれぞれから識別された1以上の特徴情報に基づいて、関係人物が検索期間内に、監視カメラ映像の映像フレーム等の複数の画像入力に現れたと判断された場合、データベース110から1以上の別の画像入力を検索することができる。
ステップ214で決定された検索期間、例えば、対象人物の最初の出現の5分前(09:06:10)から対象人物の最後の出現の5分後(09:06:12)等において、例えば、関連人物が、最初の出現として09:08:20(hh:mm:ss)に監視カメラの視界に入り、最後の出現として09:08:22に視界を離れた場合、1秒当たり1フレームの映像フレームレートを想定すると、09:01:10から09:11:12の検索期間内に、関連人物の出現を捉えた09:08:20から09:08:22の3つの映像フレームが存在する。関係人物の出現は、対象人物の出現と重ならないことを理解すべきである。換言すれば、関連人物の出現に対応する映像フレームは、対象人物の出現に対応する映像フレームとは異なる。従って、ステップ216を実行して、関係人物の特徴情報に対応する特徴情報に関連する、これらの3つの映像フレームを検索することができる。ステップ216では、対象人物以外の出現を含む受信した画像入力の全てを検索し、これらの関係人物の出現に関連する情報、例えば、監視カメラの視界における関係人物の位置の複数組の座標及び出現時刻等が、後続のステップで検索される。
ステップ218では、複数組の座標及び複数のタイムスタンプが検索され、それぞれが、検索された1以上の別の画像入力のそれぞれにおける関係人物の出現に関連し、複数組の座標及び複数のタイムスタンプには、関係人物の最初の出現の複数組の座標及び複数のタイムスタンプと、関係人物の最後の出現の複数組の座標及び複数のタイムスタンプが含まれる。複数組の座標のそれぞれと、複数のタイムスタンプのそれぞれは、ステップ202で受信した各画像入力において取得される。座標の各組は、或る時点における少なくとも2次元又は3次元の対象の位置を表すことができる。一実施形態では、複数組の座標は、画像入力内の関係人物のグリッド位置情報から取得される。取得された関係人物の複数組の座標を結ぶことにより、第2の経路を規定することができる。
ステップ220では、第1の経路における対象人物又は第2の経路における関係人物の別の出現に対応する別の座標の組が決定される。一実施形態では、第1の経路における対象人物又は第2の経路上の関係人物の別の出現に対応する別の座標の組は、ステップ222における第1の経路又は第2の経路の一方から他方の経路への位置の1組以上の座標の決定を考慮して決定することができ、メモリ106に格納されたコンピュータプログラム内の1組の既定のルールに従って、第1の経路と第2の経路の間の最小距離を形成することができる。例えば、対象人物が、最初の出現として09:06:10(hh:mm:ss)に監視カメラの視界に入り、最後の出現として09:06:12に視界を離れた場合において、1秒当たり1フレームの映像フレームレートであると仮定すると、対象人物の出現を捉えた09:06:10から09:06:12までの3つの映像フレームが存在する。従って、3組の座標、すなわち、3つの各映像フレームから座標を取得できる。対象人物の最初及び最後の出現の座標以外の取得された1組の座標を用いて、第1の経路は、さらに短い経路、例えば、最初の出現の1組の座標から第2の映像フレームに対応する1組の座標までの短い経路等と、第2の映像フレームに対応する1組の座標から対象人物の最後の出現の1組の座標までの別の短い経路とに分割することができる。第2の経路における同様の短い経路は、同じような方法で決定できる。次いで、第1の経路における対象人物の別の出現に対応する別の座標の組は、第1の短い経路と第2の短い経路との間の最短距離を形成する、第1の経路の短い経路から第2の経路の最も近い短い経路における最も近い点であると判断される。
ステップ222では、第1の経路及び第2の経路の一方から他方の経路の位置への1組以上の座標が決定されたことに応じて、第1の経路と第2の経路の間の1以上の最小距離が決定される。上述したように、一実施形態では、第1の経路と第2の経路の間の1以上の最小距離は、メモリ106に格納されたコンピュータプログラム内の1組の既定のルールに基づいて、プロセッサ108が決定することができる。第1の経路及び第2の経路の一方の1組以上の座標の決定に応じて、第1の経路と第2の経路の間の1以上の最小距離を決定することについては、図7A及び図7Bの説明においてさらに詳細に説明する。第1の経路の短い経路と第2の経路の短い経路との間の最小距離の決定は、第1の経路及び第2の経路から分割された全ての短い経路について繰り返し行われる。
ステップ224では、第1の経路と第2の経路の間の決定された1以上の最小距離が、既定の距離以下であるか否か判断され、1以上の最小点が決定される。一実施形態では、既定の距離は、ユーザが設定することができ、また、データベース110から取得することができる。1以上の最小点は、既定の(近接)距離内の双方の経路の間の最小距離に最も近い第1の短い経路及び第2の短い経路の一方における点(1組の座標)として決定することができる。
ステップ226では、1以上の最小点が結ばれ、注目領域が決定される。ステップ224で識別された最小点のサブセットは、ステップ226で結ぶことができることを理解すべきである。
ステップ230では、第1の経路と第2の経路の間の決定された1以上の最小距離のうちの少なくとも1つが、既定の距離以下であるか否か判断される。
ステップ232では、第1の経路と第2の経路の間の決定された1以上の最小距離のうちの少なくとも1つが、既定の距離以下であると判断された場合、対象人物の最初の出現の決定されたタイムスタンプ、対象人物の最後の出現の決定されたタイムスタンプ、関係人物の最初の出現の決定されたタイムスタンプ、及び関係人物の最後の出現の決定されたタイムスタンプの中から、最初のタイムスタンプ及び最後のタイムスタンプが決定され、最初のタイムスタンプから最後のタイムスタンプまでの期間が、注目期間に相当する。
例えば、第1の経路と第2の経路の間の少なくとも1つの最小距離が既定の距離以下であると決定されると、対象人物が、最初の出現として09:06:10(hh:mm:ss)に監視カメラの視界に入り、その後、最後の出現として09:06:12に視界を離れた場合において、関連人物が、最初の出現として09:08:20(hh:mm:ss)に監視カメラの視界に入り、最後の出現として09:08:22に視界を離れたとき、最初のタイムスタンプは09:06:10であると判断され、最後のタイムスタンプは09:08:22であると判断される。従って、注目期間は、09:06:10から09:08:22までの期間として決定することができる。
図2A及び図2Bは、同時出現について注目期間及び少なくとも1つの潜在的な注目領域を決定する方法に関するステップ202〜ステップ230を示すが、様々な実施形態では、ステップ212、218、222及び230の実行は、同時出現に関する注目期間及び少なくとも1つの潜在的な注目領域を決定するのに十分であると理解すべきである。また、ステップ202〜ステップ230は、逐次的でなく、並行して実行することができると理解すべきである。
図3は、一実施形態に係る対象人物の出現に関する関係人物の同時出現の一例を示す。304は、特定の時間フレームにおける対象人物302の或る出現を示しており、4つの連続する映像フレームのうち3つの映像フレームが、対象人物の画像情報を有する。一例では、対象人物の或る出現は、指定された時間フレームにおいて同一の対象人物が現れ、消え、再び現れる、連続する多数の映像フレームを含むと解釈でき、或る出現304において、306は対象人物の最初の出現に対応し、308は対象人物の最後の出現に対応する。
次いで、図3に示すように、ステップ214において、対象人物に関係する関係人物を識別するために用いられる同時出現の検索期間326は、対象人物302の最初の出現306(09:06:10の時点)の前の既定期間322(例えば5分)に開始し、対象人物302の最後の出現308(例えば、09:06:13の時点)後の既定期間324(例えば5分)で終了する期間として規定される。図3では、対象人物の最初の出現306の前に検出された関係人物316が存在し、対応する最初の出現318(例えば、09:04:15の時点)及び最後の出現320(例えば、09:04:17の時点)がある。さらに、対象人物の最後の出現308の後に検出された別の関係人物310が存在し、対応する最初の出現312(例えば、09:08:20の時点)及び最後の出現314(例えば、09:08:22の時点)がある。同時出現の検索期間326(例えば、09:01:10〜09:11:13)内に現れるいずれの関係人物も、ステップ214及びステップ216において関係人物として検出されることを理解すべきである。
図4A及び図4Bはそれぞれ、一実施形態に係る対象人物の第1の経路及び関係人物の第2の経路の一例を示す。図4Aは、対象人物の経路と関係人物の経路が交差しない例を示す。フレーム400では、対象人物402の或る出現の時間フレームにおいて同じ視界をカバーする複数の映像フレームが重ねられ、ステップ212のような第1の経路404を規定する対象人物の複数組の座標(図の足跡)を示す。さらに、フレーム400には、関係人物406の出現の時間フレームにおいて同じ視界をカバーする複数の映像フレームも重ねられ、ステップ218のような第2の経路408を規定する関係人物の複数組の座標(図の足跡)を示す。
ステップ220のように、第1の経路と第2の経路の間の1以上の最小距離を決定するために、第1の経路404における対象人物の別の出現に対応する別の座標の組が決定され、又は、第2の経路408における関係人物の別の出現に対応する別の座標の組が決定される。次いで、ステップ222における
第1の経路及び第2の経路の一方から他方の経路の位置への1組以上の座標の決定に応じて、第1の経路と第2の経路の間の1以上の最小距離、例えば、412、414、416及び418(図の双方向の矢印で示す)等が決定される。さらに、ステップ224において、第1の経路と第2の経路の間の決定された1以上の最小距離が既定の距離(412、414、416等)以下であると判断された場合、双方の経路の間に形成された最小距離に最も近い第1の経路及び第2の経路の一方における複数の点(複数組の座標)は、1以上の最小点(図中の丸で囲まれた足跡)として識別される。410は、識別された1以上の最小点の関係を示しており、ステップ226のように、対象人物及び関係人物の同時出現の可能性が最も高い注目領域が決定される。
さらに、ステップ230において、第1の経路と第2の経路の間の決定された1以上の最小距離のうちの少なくとも1つが、既定の距離(412、414、及び416等)以下であると判断された場合、対象人物の最初の出現の決定されたタイムスタンプ、対象人物の最後の出現の決定されたタイムスタンプ、関係人物の最初の出現の決定されたタイムスタンプ、及び関係人物の最後の出現の決定されたタイムスタンプの中から、最初のタイムスタンプ及び最後のタイムスタンプが決定され、最初のタイムスタンプから最後のタイムスタンプまでの期間が、注目期間に相当する。
図4Bは、対象人物の経路と関係人物の経路が交差する例を示す。フレーム420では、対象人物422の或る出現の時間フレームにおいて同じ視界をカバーする複数の映像フレームが重ねられ、ステップ212のように、第1の経路424を規定する対象人物の複数組の座標(図の足跡)を示す。さらに、フレーム420では、関係人物426の或る出現の時間フレームにおいて同じ視界をカバーする複数の映像フレームも重ねられ、ステップ218のように、第2の経路428を規定する関係人物の複数組の座標(図の足跡)を示す。
ステップ220のように、第1の経路と第2の経路の間の1以上の最小点を決定するために、第1の経路424における対象人物の別の出現に対応する別の座標の組が決定され、又は、第2の経路428における関係人物の別の出現に対応する別の座標の組が決定される。次いで、ステップ222における第1の経路及び第2の経路の一方から他方の経路の位置への1組以上の座標の決定に応じて、第1の経路と第2の経路の間の432、434、436及び438等の1以上の最小距離(図中の双方向矢印と交点432)が決定される。さらに、ステップ224において、第1の経路と第2の経路の間の決定された1以上の最小距離が、既定の距離(432、434、436等)以下であると判断された場合、双方の経路の間に形成された最小距離に最も近い第1の経路又は第2の経路の一方における複数の点(複数組の座標)が、1以上の最小点(図中の丸で囲まれた足跡及び丸で囲まれた「X」)として識別される。430は、識別された1以上の最小点の関係を示しており、ステップ226のように、対象人物及び関係人物の同時出現の可能性が最も高い注目領域が決定される。
さらに、ステップ230において、第1の経路と第2の経路の間の決定された1以上の最小距離のうちの少なくとも1つが、既定の距離(432、434、及び436等)以下であると判断された場合、対象人物の最初の出現の決定されたタイムスタンプ、対象人物の最後の出現の決定されたタイムスタンプ、関係人物の最初の出現の決定されたタイムスタンプ、及び関係人物の最後の出現の決定されたタイムスタンプの中から、最初のタイムスタンプ及び最後のタイムスタンプが決定され、最初のタイムスタンプから最後のタイムスタンプまでの期間が、注目期間に相当する。
図5A及び図5Bはそれぞれ、一実施形態に係る対象人物の第1の経路及び関係人物の第2の経路の一例を示す。フレーム500では、対象人物の或る出現の時間フレームにおいて同じ視界をカバーする3つの映像フレームがあり、ここでは、502は対象人物の最初の出現を示し、504は対象人物の別の出現を示し、506は対象人物の最後の出現を示しており、各出現502,504,506における対象人物の座標を結ぶことにより、第1の経路508が形成される。さらに、フレーム520には、関係人物の或る出現の時間フレームにおいて同じ視界をカバーする3つの映像フレームがあり、522は関係人物の最初の出現を示し、524は関係人物の別の出現を示し、526は関係人物の最後の出現を示しており、各出現522,524,526における関係人物の座標を結ぶことにより、第2の経路528が形成される。この例では、第1の経路508と第2の経路528が交差する。
図6は、一実施形態に係る注目領域の決定方法の一例を示す。602は、対象人物の出現の4つの映像フレームのそれぞれについて、各時刻(T,T,T,T)と、1組の座標(X‐Y座標[X,Y]、[X、Y]、[X,Y]及び[X,Y])の情報を示す。604は、関係人物の出現の4つの映像フレームのそれぞれについて、各時刻(T',T',T',T')と、1組の座標(X‐Y座標[X',Y']、[X',Y']、[X',Y']及び[X',Y'])の情報を示す。
606は、X‐Y図面上の対象人物及び関係人物の複数組の座標を示し、608は対象人物の経路を示し、これは、2つの近傍の点(複数組の座標)の間の接続線によって描かれた第1の経路であり、610は関係人物の経路を示し、これは、2つの近傍の点(複数組の座標)の間の接続線によって描画かれた第2の経路である。612は、第1の経路と第2の経路の間の2つの最小距離614及び616の例を示しており、双方の経路の間の最小距離は、2つの接続線の間の最短距離を見つけることによって決定される。1以上の最小距離を決定して、少なくとも1つの注目領域を決定するための1つの方法は、全ての接続線の組について最短距離を算出し、1以上の最小距離のような既定の最小距離閾値以下の算出された最短距離を選択することであると理解すべきである。一例では、614は、[X,Y]、[X,Y]の接続線と[X,Y']、[X',Y']の接続線との間の最短距離であり、616は、[X,Y]、[X,Y]の接続線と[X'、Y']、[X',Y']の接続線との間の最短距離である。明確にするために、2つの接続線の間の最短距離を決定する方法について、図7A及び図7Bにさらに示す。
次いで、図6に示す例では、最小距離614及び616が既定の距離以下であると判定される。その結果、最小点が、第1の経路における点[X,Y]、[X,Y]及び第2の経路における[X',Y']、[X',Y']であると分かり、[X,Y]及び[X',Y']が、第1の経路と第2の経路のそれぞれにおいて、双方の経路の間に形成された最小距離614に最も近い点であり、[X,Y]とは[X',Y']が、第1の経路と第2の経路のそれぞれにおいて、双方の経路の間に形成された最小距離616に最も近い点である。
第1の経路における[X,Y]、[X,Y]及び第2の経路における[X',Y']、[X',Y']が、最小点として識別された場合、最小点[X,Y]、[X,Y]、[X',Y']及び[X',Y']を結ぶことにより、620で示す注目領域622が決定される。
最小距離614及び616が、既定の距離以下であると決定されるため、対象人物の最初の出現の決定されたタイムスタンプT、対象人物の最後の出現の決定されたタイムスタンプT、関係人物の最初の出現の決定されたタイムスタンプT'、及び関係人物の最後の出現の決定されたタイムスタンプT'の中から、最初のタイムスタンプ及び最後のタイムスタンプが決定され、この最初のタイムスタンプから最後のタイムスタンプまでの期間が、注目期間に相当する。
図7A及び図7Bはそれぞれ、2つの線の間の最短距離を決定する方法の例を示す。図7Aは、2本の線が交差する場合の最短距離を決定する方法の例を示す。700では、線702と704の双方が交差するため、これら線の最短距離は0である。図7Bは、2本の線が交差しない場合の最短距離を決定する方法の様々な例を示す。760及び762は、760の太線774及び762の780がそれぞれ、760の細い線776及び762の782の左側の点である他の線の最も近い点と結ばれた場合に、最短距離が形成されることを示す。別の例では、764及び766は、764の太線786と766の太線792がそれぞれ、764の細い線788及び766の細い線794上の点である他の線の最も近い点に結ばれた場合に、最短距離が形成されることを示す。最後の例では、768及び770は、768の太線798と770の太線804がそれぞれ、768の細い線800及び770の細い線806の右側の点である他の線の最も近い点に結ばれた場合に、最短距離が形成されることを示す。
図8は、例示的なコンピュータ/コンピュータ装置800を示しており、以下、コンピュータシステム800とも称し、このような1以上のコンピュータ装置800を用いて、図1に示す装置104を実現することができる。装置800は、単に例示であり、限定するものではない。
図8に示すように、例示的なコンピュータ装置800は、ソフトウェアルーチンを実行するプロセッサ804を備える。明確にするために、単一のプロセッサが示されているが、コンピュータ装置800は、マルチプロセッサシステムを備えることもできる。プロセッサ804は、コンピュータ装置800の他の構成部品と通信する通信インフラストラクチャ806に接続される。通信インフラストラクチャ806には、例えば、通信バス、クロスバー、又はネットワークが含まれる。
コンピュータ装置800はさらに、RAM等の主記憶装置808と、補助記憶装置810を備える。補助記憶装置810は、ハードディスクドライブ、ソリッドステートドライブ若しくはハイブリッドドライブ等のストレージドライブ812、及び/又は、磁気テープドライブ、光ディスクドライブ、ソリッドステートストレージドライブ(USBフラッシュドライブ、フラッシュメモリ装置、ソリッドステートドライブ又はメモリカード等)等のリムーバブルストレージドライブ814を備える。リムーバブルストレージドライブ814は、周知の方法で、リムーバブル記憶媒体844から読み取り、及び/又はリムーバブル記憶媒体844に書き込む。リムーバブル記憶媒体844は、磁気テープ、光ディスク、不揮発性メモリ記憶媒体等を含み、これらは、リムーバブルストレージドライブ814によって読み取られ、書き込まれる。関連技術の当業者にとって明らかであるように、リムーバブル記憶媒体844には、コンピュータが実行可能なプログラムコード命令及び/又はデータが記憶されたコンピュータ可読の記憶媒体が含まれる。
他の実施形態では、補助記憶装置810は、コンピュータプログラム又は他の命令のコンピュータ装置800へのロードを可能にする他の同様の手段を追加し、又は代わりに備えることができる。そのような手段には、例えば、リムーバブルストレージユニット822及びインタフェース840が含まれる。リムーバブルストレージユニット822及びインタフェース840の例には、プログラムカートリッジ及びカートリッジインタフェース(ビデオゲームコンソール装置が備えるもの等)、リムーバブルメモリチップ(EPROM又はPROM等)及び関連するソケット、リムーバブルソリッドステートストレージドライブ(USBフラッシュドライブ、フラッシュメモリ装置、ソリッドステートドライブ又はメモリカード等)、並びに、リムーバブルストレージユニット822からコンピュータシステム800へのソフトウェア及びデータの転送を可能にする他のリムーバブルストレージユニット822及びインタフェース840が含まれる。
また、コンピュータ装置800は、少なくとも1つの通信インタフェース824を備える。通信インタフェース824により、コンピュータ装置800と外部デバイスとの間で、通信経路826を介したソフトウェア及びデータの転送が可能になる。本発明の様々な実施形態では、通信インタフェース824により、コンピュータ装置800と、パブリックデータ通信ネットワークやプライベートデータ通信ネットワーク等のデータ通信ネットワークとの間のデータの転送が可能になる。通信インタフェース824を用いて、異なるコンピュータ装置800との間でデータを交換することができ、そのようなコンピュータ装置800は、相互接続のコンピュータネットワークの一部を形成する。通信インタフェース824の例には、モデム、ネットワークインタフェース(イーサネットカード等)、通信ポート(シリアルポート、パラレルポート、プリンタポート、GPIB、IEEE1394、RJ25、USB等)、関連する回路を備えたアンテナ等が含まれる。通信インタフェース824は、有線又は無線でもよい。通信インタフェース824を介して転送されるソフトウェア及びデータは、通信インタフェース824が受信可能な電子信号、電磁気信号、光信号又は他の信号等の信号の形式である。これらの信号は、通信経路826を介して通信インタフェースに提供される。
図8に示すように、コンピュータ装置800はさらに、関連するディスプレイ830に画像をレンダリングする処理を実行するディスプレイインタフェース802と、関連する1以上のスピーカ834を介してオーディオコンテンツを再生する処理を実行するオーディオインタフェース832とを備える。
本明細書で使用するように、「コンピュータプログラム製品」という用語は、部分的に、リムーバブル記憶媒体844、リムーバブルストレージユニット822、ストレージドライブ812に設置されたハードディスク、又は、通信経路826(無線リンク又はケーブル)を介してソフトウェアを通信インタフェース824に搬送する搬送波を意味する。コンピュータ可読の記憶媒体は、保存された命令及び/又はデータの実行及び/又は処理のためにコンピュータ装置800に提供する非一時的な不揮発性の有形記憶媒体を意味する。このような記憶媒体の例には、磁気テープ、CD−ROM、DVD、Blu−ray(登録商標)ディスク、ハードディスクドライブ、ROM若しくは集積回路、ソリッドステートストレージドライブ(USBフラッシュドライブ、フラッシュメモリデバイス、ソリッドステートドライブ又はメモリカード等)、ハイブリッドドライブ、光磁気ディスク、又は、SDカード等のコンピュータ可読カード等が含まれ、このような装置が、コンピュータ装置800の内部装置又は外部装置であるかを問わない。ソフトウェア、アプリケーションプログラム、命令及び/又はデータのコンピュータ装置800への提供にも関与する一時的又は無形のコンピュータ可読伝送媒体には、無線通信チャネル又は赤外線通信チャネルと、別のコンピュータ又はネットワーク装置へのネットワーク接続、電子メール送信やWebサイト等に記録された情報を含むインターネット又はイントラネットが含まれる。
コンピュータプログラム(コンピュータプログラムコードとも呼ばれる)は、主記憶装置808及び/又は補助記憶装置810に格納される。コンピュータプログラムは、通信インタフェース824を介して受信することもできる。そのようなコンピュータプログラムは、実行されると、コンピュータ装置800が、本明細書で説明した実施形態の1以上の機能を実行することができる。様々な実施形態では、コンピュータプログラムは、実行されると、プロセッサ804が、上述した実施形態の機能を実行することができる。従って、そのようなコンピュータプログラムは、コンピュータシステム800の制御部に相当する。
ソフトウェアは、リムーバブルストレージドライブ814、ストレージドライブ812、又はインタフェース840を用いて、コンピュータプログラム製品に格納され、コンピュータ装置800にロードすることができる。代替的に、コンピュータプログラム製品は、通信経路826を介して、コンピュータシステム800にダウンロードすることができる。ソフトウェアは、プロセッサ804によって実行されると、コンピュータ装置800に対し、本明細書に記載した実施形態の機能を実行させる。
図8の実施形態は、単に例示であることを理解すべきである。従って、いくつかの実施形態では、コンピュータ装置800の1以上の機能を省略してもよい。また、いくつかの実施形態では、コンピュータ装置800の1以上の機能を組み合わせることができる。さらに、いくつかの実施形態では、コンピュータ装置800の1以上の機能は、1以上の構成部品に分けることができる。
例えば、図2A及び図2Bの方法は、ソフトウェアとして実装され、コンピュータ装置800の補助記憶装置810又はリムーバブルストレージユニット818,822に非一時的に保存することができる。
当業者であれば、広範に説明した本発明の精神又は範囲から逸脱することなく、特定の実施形態に示すように、本発明に対して多数の変形及び/又は修正が可能であることが明らかであろう。例えば、上述した説明は、主に視覚的なインタフェースに警告を表示するが、他の実施形態では、音声警告等の別の種類の警告を用いて、本方法を実行できることが明らかであろう。いくつかの変更、例えば、アクセスポイントの追加、ログインルーチンの変更等を考慮し、組み込むことができる。従って、本実施形態は、全ての点で例示的であり、限定するものでないと理解すべきである。
(付記1)
事象を管理するための注目期間及び少なくとも1つの注目領域を決定する方法であって、
一連の画像内の対象人物の2以上の出現のそれぞれについて1組の座標を決定するステップであって、前記対象人物の2以上の出現の1組の座標は第1の経路を規定する、ステップと、
前記一連の画像内の関係人物の2以上の出現のそれぞれについて1組の座標を決定するステップであって、前記関係人物は前記対象人物に関係し、前記関係人物の2以上の出現の1組の座標は第2の経路を規定する、ステップと、
前記第1の経路と前記第2の経路との間の1以上の最小距離を決定して、少なくとも1つの注目領域を決定するステップと、
前記対象人物の最初の出現のタイムスタンプと最後の出現のタイムスタンプを決定するステップと、
前記第1の経路と前記第2の経路との間の1以上の最小距離のうちの少なくとも1つが決定された場合に、前記関係人物の最初の出現のタイムスタンプと最後の出現のタイムスタンプを決定するステップと
を含む、方法。
(付記2)
前記一連の画像内の前記対象人物の2以上の出現のそれぞれについて1組の座標を決定するステップは、
撮影装置から、前記事象に関連する複数の画像入力を受信するステップと、
前記事象に関連する複数の画像入力のそれぞれから1以上の特徴情報を識別するステップと、
識別された1以上の特徴情報のそれぞれが、対象人物の特徴情報に対応する可能性があるか否か判断するステップとを含み、
前記特徴情報は、顔情報及び体の動き情報を含む、付記1に記載の方法。
(付記3)
前記識別された1以上の特徴情報の1つが、前記対象人物の特徴情報に対応する可能性があるとの判断に応じて、受信した画像入力の少なくとも1つを検索するステップをさらに含み、
検索された受信した画像入力の少なくとも1つは、前記対象人物の特徴情報に対応する可能性のある特徴情報に関連する、付記2に記載の方法。
(付記4)
前記受信した画像入力の少なくとも1つを検索するステップはさらに、
前記識別された1以上の特徴情報の1つが前記対象人物の特徴情報に対応する可能性があるとの判断に応じて、1以上の別の画像入力を検索するステップであって、検索された1以上の別の画像入力は、前記対象人物の特徴情報に対応する可能性のある特徴情報に関連する、ステップと、
複数組の座標と、複数のタイムスタンプを検索するステップであって、それぞれが、前記検索された1以上の別の画像入力のそれぞれの前記対象人物の出現に関連し、前記複数組の座標及び前記複数のタイムスタンプは、前記対象人物の最初の出現の複数組の座標及び複数のタイムスタンプと、前記対象人物の最後の出現の複数組の座標及び複数のタイムスタンプとを含む、ステップと
を含む、付記3に記載の方法。
(付記5)
前記画像入力内の前記関係人物の前記最初の出現の1組の座標と、前記最後の出現の1組の座標を決定するステップは、
前記識別された1以上の特徴情報の1つが前記対象人物の特徴情報に対応する可能性があるとの判断に応じて、前記受信した画像入力の少なくとも1つを、検索期間内に検索するステップを含み、
検索された前記受信した画像入力の少なくとも1つは、前記対象人物の特徴情報に対応しない可能性のある特徴情報に関連し、
前記検索期間は、前記対象人物の最初の出現前の既定期間から開始し、最後の出現の後の既定期間で終了する期間である、付記4に記載の方法。
(付記6)
前記受信した画像入力の少なくとも1つを検索するステップはさらに、
前記識別された1以上の特徴情報の1つが対象人物の特徴情報に対応する可能性があるとの判断に応じて、1以上の別の画像入力を検索するステップであって、検索された1以上の別の画像入力は、前記対象人物の特徴情報に対応しない可能性のある特徴情報に関連する、ステップと、
複数組の座標及び複数のタイムスタンプを検索するステップであって、それぞれが、前記検索された1以上の別の画像入力内の前記関係人物の出現に関連し、前記複数組の座標及び前記複数のタイムスタンプは、前記関係人物の最初の出現及び最後の出現の複数組の座標及び複数のタイムスタンプを含む、ステップと
を含む、付記5に記載の方法。
(付記7)
前記第1の経路と前記第2の経路との間の1以上の最小距離を決定するステップは、
前記第1の経路における前記対象人物又は前記第2の経路における前記関係人物の別の出現に対応する別の座標の組を決定するステップと、
前記第1の経路及び前記第2の経路の一方から他方の経路の位置への1組以上の座標を決定して、前記1以上の最小距離を決定するステップとを含む、付記6に記載の方法。
(付記8)
前記第1の経路と前記第2の経路との間の1以上の最小距離を決定するステップはさらに、
前記第1の経路と前記第2の経路との間の決定された1以上の最小距離が、既定の距離以下であるか否か判断して、1以上の最小点を決定するステップを含む、付記7に記載の方法。
(付記9)
前記注目領域を決定するステップは、前記1以上の最小点を結んで、前記注目領域を決定するステップを含む、付記8に記載の方法。
(付記10)
前記注目期間を決定するステップは、
前記第1の経路と前記第2の経路との間の決定された1以上の最小距離のうちの少なくとも1つが、前記既定の距離以下であるか否か判断するステップと、
前記第1の経路と前記第2の経路との間の決定された1以上の最小距離のうちの少なくとも1つが、前記既定の距離以下であるとの判断に応じて、前記対象人物の最初の出現の決定されたタイムスタンプ、前記対象人物の最後の出現の決定されたタイムスタンプ、前記関係人物の最初の出現の決定されたタイムスタンプ、及び前記関係人物の最後の決定されたタイムスタンプの中から、最初のタイムスタンプ及び最後のタイムスタンプを決定するステップとを含み、
前記最初のタイムスタンプから前記最後のタイムスタンプまでの期間は、前記注目期間に相当する、付記8に記載の方法。
(付記11)
事象を管理するための注目期間及び少なくとも1つの注目領域を決定する装置であって、
プロセッサと通信するメモリを備え、前記メモリは、その内部にコンピュータプログラムを格納し、前記コンピュータプログラムは、前記プロセッサによって実行されることにより、前記装置に対して少なくとも、
一連の画像内の対象人物の2以上の出現のそれぞれについて1組の座標を決定するステップであって、前記対象人物の2以上の出現の1組の座標は第1の経路を規定する、ステップと、
前記一連の画像内の関係人物の2以上の出現のそれぞれについて1組の座標を決定するステップであって、前記関係人物は前記対象人物に関係し、前記関係人物の2以上の出現の1組の座標は第2の経路を規定する、ステップと、
前記第1の経路と前記第2の経路との間の1以上の最小距離を決定して、少なくとも1つの注目領域を決定するステップと、
前記対象人物の最初の出現のタイムスタンプと最後の出現のタイムスタンプを決定するステップと、
前記第1の経路と前記第2の経路との間の1以上の最小距離のうちの少なくとも1つが決定された場合に、前記関係人物の最初の出現のタイムスタンプと最後の出現のタイムスタンプを決定するステップとを実行させる、
装置。
(付記12)
前記メモリ及び前記コンピュータプログラムは、前記プロセッサによって実行されることにより、前記装置に対してさらに、
撮影装置から、前記事象に関連する複数の画像入力を受信するステップと、
前記事象に関連する複数の画像入力のそれぞれから1以上の特徴情報を識別するステップと、
識別された1以上の特徴情報のそれぞれが、対象人物の特徴情報に対応する可能性があるか否か判断するステップとを実行させ、
前記特徴情報は、顔情報及び体の動き情報を含む、付記11に記載の装置。
(付記13)
前記メモリ及び前記コンピュータプログラムは、前記プロセッサによって実行されることにより、前記装置に対してさらに、
前記識別された1以上の特徴情報の1つが、前記対象人物の特徴情報に対応する可能性があるとの判断に応じて、受信した画像入力の少なくとも1つを検索するステップを実行させ、
検索された受信した画像入力の少なくとも1つは、前記対象人物の特徴情報に対応する可能性のある特徴情報に関連する、付記12に記載の装置。
(付記14)
前記メモリ及び前記コンピュータプログラムは、前記プロセッサによって実行されることにより、前記装置に対してさらに、
前記識別された1以上の特徴情報の1つが前記対象人物の特徴情報に対応する可能性があるとの判断に応じて、1以上の別の画像入力を検索するステップであって、検索された1以上の別の画像入力は、前記対象人物の特徴情報に対応する可能性のある特徴情報に関連する、ステップと、
複数組の座標と、複数のタイムスタンプを検索するステップであって、それぞれが、前記検索された1以上の別の画像入力のそれぞれの前記対象人物の出現に関連し、前記複数組の座標及び前記複数のタイムスタンプは、前記対象人物の最初の出現の複数組の座標及び複数のタイムスタンプと、前記対象人物の最後の出現の複数組の座標及び複数のタイムスタンプとを含む、ステップとを実行させる、付記13に記載の装置。
(付記15)
前記メモリ及び前記コンピュータプログラムは、前記プロセッサによって実行されることにより、前記装置に対してさらに、
前記識別された1以上の特徴情報の1つが前記対象人物の特徴情報に対応する可能性があるとの判断に応じて、前記受信した画像入力の少なくとも1つを、検索期間内に検索するステップを実行させ、
検索された前記受信した画像入力の少なくとも1つは、前記対象人物の特徴情報に対応しない可能性のある特徴情報に関連し、
前記検索期間は、前記対象人物の最初の出現前の既定期間から開始し、最後の出現の後の既定期間で終了する期間である、付記14に記載の装置。
(付記16)
前記メモリ及び前記コンピュータプログラムは、前記プロセッサによって実行されることにより、前記装置に対してさらに、
前記識別された1以上の特徴情報の1つが対象人物の特徴情報に対応する可能性があるとの判断に応じて、1以上の別の画像入力を検索するステップであって、検索された1以上の別の画像入力は、前記対象人物の特徴情報に対応しない可能性のある特徴情報に関連する、ステップと、
複数組の座標及び複数のタイムスタンプを検索するステップであって、それぞれが、前記検索された1以上の別の画像入力内の前記関係人物の出現に関連し、前記複数組の座標及び前記複数のタイムスタンプは、前記関係人物の最初の出現及び最後の出現の複数組の座標及び複数のタイムスタンプを含む、ステップとを実行させる、付記15に記載の装置。
(付記17)
前記メモリ及び前記コンピュータプログラムは、前記プロセッサによって実行されることにより、前記装置に対してさらに、
前記第1の経路における前記対象人物又は前記第2の経路における前記関係人物の別の出現に対応する別の座標の組を決定するステップと、
前記第1の経路及び前記第2の経路の一方から他方の経路の位置への1組以上の座標を決定するステップとを実行させる、付記16に記載の装置。
(付記18)
前記メモリ及び前記コンピュータプログラムは、前記プロセッサによって実行されることにより、前記装置に対してさらに、
前記第1の経路と前記第2の経路との間の決定された1以上の最小距離が、既定の距離以下であるか否か判断して、1以上の最小点を決定するステップを実行させる、付記17に記載の装置。
(付記19)
前記メモリ及び前記コンピュータプログラムは、前記プロセッサによって実行されることにより、前記装置に対してさらに、
前記1以上の最小点を結んで、前記注目領域を決定するステップを実行させる、付記18に記載の装置。
(付記20)
前記メモリ及び前記コンピュータプログラムは、前記プロセッサによって実行されることにより、前記装置に対してさらに、
前記第1の経路と前記第2の経路との間の決定された1以上の最小距離のうちの少なくとも1つが、前記既定の距離以下であるか否か判断するステップと、
前記第1の経路と前記第2の経路との間の決定された1以上の最小距離のうちの少なくとも1つが、前記既定の距離以下であるとの判断に応じて、前記対象人物の最初の出現の決定されたタイムスタンプ、前記対象人物の最後の出現の決定されたタイムスタンプ、前記関係人物の最初の出現の決定されたタイムスタンプ、及び前記関係人物の最後の決定されたタイムスタンプの中から、最初のタイムスタンプ及び最後のタイムスタンプを決定するステップとを実行させ、
前記最初のタイムスタンプから前記最後のタイムスタンプまでの期間は、前記注目期間に相当する、付記18に記載の装置。
(付記21)
事象を管理するための注目期間及び少なくとも1つの注目領域を決定するシステムであって、
付記11〜20のいずれか1項に記載の装置と、少なくとも1つの撮影装置とを含む、システム。
本出願は、2018年9月6日に出願されたシンガポール特許出願第10201807675Tに基づく優先権の利益を主張し、当該特許出願の開示は、参照により、その全体が本明細書に組み込まれる。
102 撮影装置
104 装置
106 メモリ
108 プロセッサ
110 データベース
820 ディスプレイインタフェース
804 プロセッサ
806 通信インフラストラクチャ
808 主記憶装置
810 補助記憶装置
812 ストレージドライブ
814 リムーバブルストレージドライブ
818 リムーバブル記憶媒体
820 インタフェース
822 リムーバブルストレージユニット
824 通信インタフェース
830 ディスプレイ
832 オーディオインタフェース
834 スピーカ

Claims (21)

  1. 事象を管理するための注目期間及び少なくとも1つの注目領域を決定する方法であって、
    一連の画像内の対象人物の2以上の出現のそれぞれについて1組の座標を決定するステップであって、前記対象人物の2以上の出現の1組の座標は第1の経路を規定する、ステップと、
    前記一連の画像内の関係人物の2以上の出現のそれぞれについて1組の座標を決定するステップであって、前記関係人物は前記対象人物に関係し、前記関係人物の2以上の出現の1組の座標は第2の経路を規定する、ステップと、
    前記第1の経路と前記第2の経路との間の1以上の最小距離を決定して、少なくとも1つの注目領域を決定するステップと、
    前記対象人物の最初の出現のタイムスタンプと最後の出現のタイムスタンプを決定するステップと、
    前記第1の経路と前記第2の経路との間の1以上の最小距離のうちの少なくとも1つが決定された場合に、前記関係人物の最初の出現のタイムスタンプと最後の出現のタイムスタンプを決定するステップと
    を含む、方法。
  2. 前記一連の画像内の前記対象人物の2以上の出現のそれぞれについて1組の座標を決定するステップは、
    撮影装置から、前記事象に関連する複数の画像入力を受信するステップと、
    前記事象に関連する複数の画像入力のそれぞれから1以上の特徴情報を識別するステップと、
    識別された1以上の特徴情報のそれぞれが、対象人物の特徴情報に対応する可能性があるか否か判断するステップとを含み、
    前記特徴情報は、顔情報及び体の動き情報を含む、請求項1に記載の方法。
  3. 前記識別された1以上の特徴情報の1つが、前記対象人物の特徴情報に対応する可能性があるとの判断に応じて、受信した画像入力の少なくとも1つを検索するステップをさらに含み、
    検索された受信した画像入力の少なくとも1つは、前記対象人物の特徴情報に対応する可能性のある特徴情報に関連する、請求項2に記載の方法。
  4. 前記受信した画像入力の少なくとも1つを検索するステップはさらに、
    前記識別された1以上の特徴情報の1つが前記対象人物の特徴情報に対応する可能性があるとの判断に応じて、1以上の別の画像入力を検索するステップであって、検索された1以上の別の画像入力は、前記対象人物の特徴情報に対応する可能性のある特徴情報に関連する、ステップと、
    複数組の座標と、複数のタイムスタンプを検索するステップであって、それぞれが、前記検索された1以上の別の画像入力のそれぞれの前記対象人物の出現に関連し、前記複数組の座標及び前記複数のタイムスタンプは、前記対象人物の最初の出現の複数組の座標及び複数のタイムスタンプと、前記対象人物の最後の出現の複数組の座標及び複数のタイムスタンプとを含む、ステップと
    を含む、請求項3に記載の方法。
  5. 前記画像入力内の前記関係人物の前記最初の出現の1組の座標と、前記最後の出現の1組の座標を決定するステップは、
    前記識別された1以上の特徴情報の1つが前記対象人物の特徴情報に対応する可能性があるとの判断に応じて、前記受信した画像入力の少なくとも1つを、検索期間内に検索するステップを含み、
    検索された前記受信した画像入力の少なくとも1つは、前記対象人物の特徴情報に対応しない可能性のある特徴情報に関連し、
    前記検索期間は、前記対象人物の最初の出現前の既定期間から開始し、最後の出現の後の既定期間で終了する期間である、請求項4に記載の方法。
  6. 前記受信した画像入力の少なくとも1つを検索するステップはさらに、
    前記識別された1以上の特徴情報の1つが対象人物の特徴情報に対応する可能性があるとの判断に応じて、1以上の別の画像入力を検索するステップであって、検索された1以上の別の画像入力は、前記対象人物の特徴情報に対応しない可能性のある特徴情報に関連する、ステップと、
    複数組の座標及び複数のタイムスタンプを検索するステップであって、それぞれが、前記検索された1以上の別の画像入力内の前記関係人物の出現に関連し、前記複数組の座標及び前記複数のタイムスタンプは、前記関係人物の最初の出現及び最後の出現の複数組の座標及び複数のタイムスタンプを含む、ステップと
    を含む、請求項5に記載の方法。
  7. 前記第1の経路と前記第2の経路との間の1以上の最小距離を決定するステップは、
    前記第1の経路における前記対象人物又は前記第2の経路における前記関係人物の別の出現に対応する別の座標の組を決定するステップと、
    前記第1の経路及び前記第2の経路の一方から他方の経路の位置への1組以上の座標を決定して、前記1以上の最小距離を決定するステップとを含む、請求項6に記載の方法。
  8. 前記第1の経路と前記第2の経路との間の1以上の最小距離を決定するステップはさらに、
    前記第1の経路と前記第2の経路との間の決定された1以上の最小距離が、既定の距離以下であるか否か判断して、1以上の最小点を決定するステップを含む、請求項7に記載の方法。
  9. 前記注目領域を決定するステップは、前記1以上の最小点を結んで、前記注目領域を決定するステップを含む、請求項8に記載の方法。
  10. 前記注目期間を決定するステップは、
    前記第1の経路と前記第2の経路との間の決定された1以上の最小距離のうちの少なくとも1つが、前記既定の距離以下であるか否か判断するステップと、
    前記第1の経路と前記第2の経路との間の決定された1以上の最小距離のうちの少なくとも1つが、前記既定の距離以下であるとの判断に応じて、前記対象人物の最初の出現の決定されたタイムスタンプ、前記対象人物の最後の出現の決定されたタイムスタンプ、前記関係人物の最初の出現の決定されたタイムスタンプ、及び前記関係人物の最後の決定されたタイムスタンプの中から、最初のタイムスタンプ及び最後のタイムスタンプを決定するステップとを含み、
    前記最初のタイムスタンプから前記最後のタイムスタンプまでの期間は、前記注目期間に相当する、請求項8に記載の方法。
  11. 事象を管理するための注目期間及び少なくとも1つの注目領域を決定する装置であって、
    プロセッサと通信するメモリを備え、前記メモリは、その内部にコンピュータプログラムを格納し、前記コンピュータプログラムは、前記プロセッサによって実行されることにより、前記装置に対して少なくとも、
    一連の画像内の対象人物の2以上の出現のそれぞれについて1組の座標を決定するステップであって、前記対象人物の2以上の出現の1組の座標は第1の経路を規定する、ステップと、
    前記一連の画像内の関係人物の2以上の出現のそれぞれについて1組の座標を決定するステップであって、前記関係人物は前記対象人物に関係し、前記関係人物の2以上の出現の1組の座標は第2の経路を規定する、ステップと、
    前記第1の経路と前記第2の経路との間の1以上の最小距離を決定して、少なくとも1つの注目領域を決定するステップと、
    前記対象人物の最初の出現のタイムスタンプと最後の出現のタイムスタンプを決定するステップと、
    前記第1の経路と前記第2の経路との間の1以上の最小距離のうちの少なくとも1つが決定された場合に、前記関係人物の最初の出現のタイムスタンプと最後の出現のタイムスタンプを決定するステップとを実行させる、
    装置。
  12. 前記メモリ及び前記コンピュータプログラムは、前記プロセッサによって実行されることにより、前記装置に対してさらに、
    撮影装置から、前記事象に関連する複数の画像入力を受信するステップと、
    前記事象に関連する複数の画像入力のそれぞれから1以上の特徴情報を識別するステップと、
    識別された1以上の特徴情報のそれぞれが、対象人物の特徴情報に対応する可能性があるか否か判断するステップとを実行させ、
    前記特徴情報は、顔情報及び体の動き情報を含む、請求項11に記載の装置。
  13. 前記メモリ及び前記コンピュータプログラムは、前記プロセッサによって実行されることにより、前記装置に対してさらに、
    前記識別された1以上の特徴情報の1つが、前記対象人物の特徴情報に対応する可能性があるとの判断に応じて、受信した画像入力の少なくとも1つを検索するステップを実行させ、
    検索された受信した画像入力の少なくとも1つは、前記対象人物の特徴情報に対応する可能性のある特徴情報に関連する、請求項12に記載の装置。
  14. 前記メモリ及び前記コンピュータプログラムは、前記プロセッサによって実行されることにより、前記装置に対してさらに、
    前記識別された1以上の特徴情報の1つが前記対象人物の特徴情報に対応する可能性があるとの判断に応じて、1以上の別の画像入力を検索するステップであって、検索された1以上の別の画像入力は、前記対象人物の特徴情報に対応する可能性のある特徴情報に関連する、ステップと、
    複数組の座標と、複数のタイムスタンプを検索するステップであって、それぞれが、前記検索された1以上の別の画像入力のそれぞれの前記対象人物の出現に関連し、前記複数組の座標及び前記複数のタイムスタンプは、前記対象人物の最初の出現の複数組の座標及び複数のタイムスタンプと、前記対象人物の最後の出現の複数組の座標及び複数のタイムスタンプとを含む、ステップとを実行させる、請求項13に記載の装置。
  15. 前記メモリ及び前記コンピュータプログラムは、前記プロセッサによって実行されることにより、前記装置に対してさらに、
    前記識別された1以上の特徴情報の1つが前記対象人物の特徴情報に対応する可能性があるとの判断に応じて、前記受信した画像入力の少なくとも1つを、検索期間内に検索するステップを実行させ、
    検索された前記受信した画像入力の少なくとも1つは、前記対象人物の特徴情報に対応しない可能性のある特徴情報に関連し、
    前記検索期間は、前記対象人物の最初の出現前の既定期間から開始し、最後の出現の後の既定期間で終了する期間である、請求項14に記載の装置。
  16. 前記メモリ及び前記コンピュータプログラムは、前記プロセッサによって実行されることにより、前記装置に対してさらに、
    前記識別された1以上の特徴情報の1つが対象人物の特徴情報に対応する可能性があるとの判断に応じて、1以上の別の画像入力を検索するステップであって、検索された1以上の別の画像入力は、前記対象人物の特徴情報に対応しない可能性のある特徴情報に関連する、ステップと、
    複数組の座標及び複数のタイムスタンプを検索するステップであって、それぞれが、前記検索された1以上の別の画像入力内の前記関係人物の出現に関連し、前記複数組の座標及び前記複数のタイムスタンプは、前記関係人物の最初の出現及び最後の出現の複数組の座標及び複数のタイムスタンプを含む、ステップとを実行させる、請求項15に記載の装置。
  17. 前記メモリ及び前記コンピュータプログラムは、前記プロセッサによって実行されることにより、前記装置に対してさらに、
    前記第1の経路における前記対象人物又は前記第2の経路における前記関係人物の別の出現に対応する別の座標の組を決定するステップと、
    前記第1の経路及び前記第2の経路の一方から他方の経路の位置への1組以上の座標を決定するステップとを実行させる、請求項16に記載の装置。
  18. 前記メモリ及び前記コンピュータプログラムは、前記プロセッサによって実行されることにより、前記装置に対してさらに、
    前記第1の経路と前記第2の経路との間の決定された1以上の最小距離が、既定の距離以下であるか否か判断して、1以上の最小点を決定するステップを実行させる、請求項17に記載の装置。
  19. 前記メモリ及び前記コンピュータプログラムは、前記プロセッサによって実行されることにより、前記装置に対してさらに、
    前記1以上の最小点を結んで、前記注目領域を決定するステップを実行させる、請求項18に記載の装置。
  20. 前記メモリ及び前記コンピュータプログラムは、前記プロセッサによって実行されることにより、前記装置に対してさらに、
    前記第1の経路と前記第2の経路との間の決定された1以上の最小距離のうちの少なくとも1つが、前記既定の距離以下であるか否か判断するステップと、
    前記第1の経路と前記第2の経路との間の決定された1以上の最小距離のうちの少なくとも1つが、前記既定の距離以下であるとの判断に応じて、前記対象人物の最初の出現の決定されたタイムスタンプ、前記対象人物の最後の出現の決定されたタイムスタンプ、前記関係人物の最初の出現の決定されたタイムスタンプ、及び前記関係人物の最後の決定されたタイムスタンプの中から、最初のタイムスタンプ及び最後のタイムスタンプを決定するステップとを実行させ、
    前記最初のタイムスタンプから前記最後のタイムスタンプまでの期間は、前記注目期間に相当する、請求項18に記載の装置。
  21. 事象を管理するための注目期間及び少なくとも1つの注目領域を決定するシステムであって、
    請求項11〜20のいずれか1項に記載の装置と、少なくとも1つの撮影装置とを含む、システム。
JP2021510490A 2018-09-06 2019-08-20 事象を管理するための注目期間及び少なくとも1つの注目領域を決定する方法、装置及びプログラム Active JP7047970B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
SG10201807675TA SG10201807675TA (en) 2018-09-06 2018-09-06 Duration and Potential Region of Interest for Suspicious Activities
SG10201807675T 2018-09-06
PCT/JP2019/032378 WO2020050002A1 (en) 2018-09-06 2019-08-20 Duration and potential region of interest for suspicious activities

Publications (2)

Publication Number Publication Date
JP2021535667A true JP2021535667A (ja) 2021-12-16
JP7047970B2 JP7047970B2 (ja) 2022-04-05

Family

ID=69722551

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021510490A Active JP7047970B2 (ja) 2018-09-06 2019-08-20 事象を管理するための注目期間及び少なくとも1つの注目領域を決定する方法、装置及びプログラム

Country Status (4)

Country Link
US (5) US11882387B2 (ja)
JP (1) JP7047970B2 (ja)
SG (1) SG10201807675TA (ja)
WO (1) WO2020050002A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SG10201807675TA (en) * 2018-09-06 2020-04-29 Nec Asia Pacific Pte Ltd Duration and Potential Region of Interest for Suspicious Activities
JP7260360B2 (ja) 2019-03-28 2023-04-18 株式会社アドヴィックス 走行制御装置
JP2021002091A (ja) * 2019-06-19 2021-01-07 富士ゼロックス株式会社 情報処理システムおよびプログラム
US11770618B2 (en) 2019-12-09 2023-09-26 Corephotonics Ltd. Systems and methods for obtaining a smart panoramic image
US20210357654A1 (en) * 2020-05-15 2021-11-18 Sensormatic Electronics, LLC Systems and methods of identifying persons-of-interest

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011070332A (ja) * 2009-09-25 2011-04-07 Secom Co Ltd 異常検知装置
WO2015098442A1 (ja) * 2013-12-26 2015-07-02 株式会社日立国際電気 映像検索システム及び映像検索方法
US20160343147A1 (en) * 2014-01-31 2016-11-24 Hitachi, Ltd. Image search system, image search apparatus, and image search method
US20180032817A1 (en) * 2016-07-27 2018-02-01 Conduent Business Services, Llc System and method for detecting potential mugging event via trajectory-based analysis
GB2558841A (en) * 2015-12-25 2018-07-18 Panasonic Ip Man Co Ltd Unattended object monitoring apparatus, unattended object monitoring system provided with same, and unattended object monitoring method

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080130949A1 (en) * 2006-11-30 2008-06-05 Ivanov Yuri A Surveillance System and Method for Tracking and Identifying Objects in Environments
MX2012009579A (es) * 2010-02-19 2012-10-01 Toshiba Kk Sistema de rastreo de objetos en movimiento y metodo de rastreo de objetos en movimiento.
GB2482127B (en) * 2010-07-19 2015-01-14 Ipsotek Ltd Apparatus, system and method
US9111147B2 (en) * 2011-11-14 2015-08-18 Massachusetts Institute Of Technology Assisted video surveillance of persons-of-interest
US8989775B2 (en) * 2012-02-29 2015-03-24 RetailNext, Inc. Method and system for WiFi-based identification of person tracks
US10163031B2 (en) * 2012-02-29 2018-12-25 RetailNext, Inc. Method and system for full path analysis
US9426428B2 (en) * 2014-04-10 2016-08-23 Smartvue Corporation Systems and methods for automated cloud-based analytics and 3-dimensional (3D) display for surveillance systems in retail stores
JP6389801B2 (ja) * 2015-05-27 2018-09-12 富士フイルム株式会社 画像処理装置、画像処理方法、プログラムおよび記録媒体
US10867376B2 (en) * 2015-08-28 2020-12-15 Nec Corporation Analysis apparatus, analysis method, and storage medium
JP6390860B2 (ja) * 2016-01-25 2018-09-19 パナソニックIpマネジメント株式会社 置去り物体監視装置およびこれを備えた置去り物体監視システムならびに置去り物体監視方法
US20170212651A1 (en) * 2016-01-27 2017-07-27 Amadeus S.A.S. Short cut links in a graphical user interface
EP3246849A1 (en) * 2016-05-18 2017-11-22 L-1 Identity Solutions AG Method for analyzing video data
US9981602B2 (en) * 2016-08-19 2018-05-29 2236008 Ontario Inc. System and method for pedestrian alert
JP6659524B2 (ja) * 2016-11-18 2020-03-04 株式会社東芝 移動体追跡装置、表示装置および移動体追跡方法
CN109426787A (zh) * 2017-08-31 2019-03-05 杭州海康威视数字技术股份有限公司 一种人体目标轨迹确定方法及装置
US10366586B1 (en) * 2018-05-16 2019-07-30 360fly, Inc. Video analysis-based threat detection methods and systems
SG10201807675TA (en) * 2018-09-06 2020-04-29 Nec Asia Pacific Pte Ltd Duration and Potential Region of Interest for Suspicious Activities
RU2710308C1 (ru) * 2019-09-20 2019-12-25 Общество с ограниченной ответственностью "Ай Ти Ви групп" Система и способ для обработки видеоданных из архива
US11528584B2 (en) * 2020-04-09 2022-12-13 Polaris Wireless, Inc. Contact tracing based on comparing geo-temporal patterns of wireless terminals, including mobility profiles
US11308316B1 (en) * 2021-09-02 2022-04-19 Invision Ai, Inc. Road side vehicle occupancy detection system
JP2023073535A (ja) * 2021-11-16 2023-05-26 富士通株式会社 表示プログラム及び表示方法
US20230286530A1 (en) * 2022-03-08 2023-09-14 Nvidia Corporation Object data curation of map information using neural networks for autonomous systems and applications

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011070332A (ja) * 2009-09-25 2011-04-07 Secom Co Ltd 異常検知装置
WO2015098442A1 (ja) * 2013-12-26 2015-07-02 株式会社日立国際電気 映像検索システム及び映像検索方法
US20160343147A1 (en) * 2014-01-31 2016-11-24 Hitachi, Ltd. Image search system, image search apparatus, and image search method
GB2558841A (en) * 2015-12-25 2018-07-18 Panasonic Ip Man Co Ltd Unattended object monitoring apparatus, unattended object monitoring system provided with same, and unattended object monitoring method
US20180032817A1 (en) * 2016-07-27 2018-02-01 Conduent Business Services, Llc System and method for detecting potential mugging event via trajectory-based analysis

Also Published As

Publication number Publication date
WO2020050002A1 (en) 2020-03-12
US20230388455A1 (en) 2023-11-30
US20210334572A1 (en) 2021-10-28
JP7047970B2 (ja) 2022-04-05
US20230396738A1 (en) 2023-12-07
US20230388456A1 (en) 2023-11-30
US20230403375A1 (en) 2023-12-14
US11882387B2 (en) 2024-01-23
SG10201807675TA (en) 2020-04-29

Similar Documents

Publication Publication Date Title
JP7047970B2 (ja) 事象を管理するための注目期間及び少なくとも1つの注目領域を決定する方法、装置及びプログラム
EP3862902B1 (en) System and method for privacy-aware analysis of video streams
CN108229335A (zh) 关联人脸识别方法和装置、电子设备、存储介质、程序
JP6780803B2 (ja) 少なくとも1人の対象人物の潜在的な提携者を特定するための方法、身元特定装置及びプログラム
JP6649231B2 (ja) 検索装置、検索方法およびプログラム
US20210089784A1 (en) System and Method for Processing Video Data from Archive
JP7380812B2 (ja) 識別方法、識別装置、識別システム及び識別プログラム
JP4120378B2 (ja) 監視システムおよびプログラム
CN107666573A (zh) 摄像头场景下对象视频的录制方法及装置、计算设备
CN112926542A (zh) 一种性别检测方法、装置、电子设备及存储介质
US20230037546A1 (en) Method, apparatus and non-transitory computer readable medium
US20220292832A1 (en) A method and apparatus for creating a network of subjects
CN111291599A (zh) 一种图像处理方法和装置
US20230084096A1 (en) A method and an apparatus for estimating an appearance of a first target
Gupta et al. Unusual Activity Detection Using Machine Learning
JP2022552389A (ja) 対象者が未承認である可能性が高いことを示すアラートを生成するためのイベントを管理する方法、装置、システム及びプログラム
CN113496152A (zh) 基于ar眼镜的人脸识别方法、装置、电子设备及存储介质
CN115552483A (zh) 一种数据收集方法、装置、设备及存储介质
WO2023041971A1 (en) Data security processing method and apparatus, device and storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210225

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220307

R151 Written notification of patent or utility model registration

Ref document number: 7047970

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151