JP7491462B2 - 因果相互作用検出装置、制御方法、及びプログラム - Google Patents
因果相互作用検出装置、制御方法、及びプログラム Download PDFInfo
- Publication number
- JP7491462B2 JP7491462B2 JP2023507356A JP2023507356A JP7491462B2 JP 7491462 B2 JP7491462 B2 JP 7491462B2 JP 2023507356 A JP2023507356 A JP 2023507356A JP 2023507356 A JP2023507356 A JP 2023507356A JP 7491462 B2 JP7491462 B2 JP 7491462B2
- Authority
- JP
- Japan
- Prior art keywords
- person
- posture
- persons
- change
- correlated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003993 interaction Effects 0.000 title claims description 137
- 230000001364 causal effect Effects 0.000 title claims description 121
- 238000001514 detection method Methods 0.000 title claims description 99
- 238000000034 method Methods 0.000 title claims description 25
- 230000036544 posture Effects 0.000 claims description 262
- 230000008859 change Effects 0.000 claims description 117
- 230000002596 correlated effect Effects 0.000 claims description 38
- 238000000605 extraction Methods 0.000 description 15
- 230000009471 action Effects 0.000 description 11
- 210000003128 head Anatomy 0.000 description 7
- 230000015654 memory Effects 0.000 description 6
- 239000000284 extract Substances 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 3
- 101100521334 Mus musculus Prom1 gene Proteins 0.000 description 2
- 210000003423 ankle Anatomy 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000000875 corresponding effect Effects 0.000 description 2
- 230000001351 cycling effect Effects 0.000 description 2
- 210000002683 foot Anatomy 0.000 description 2
- 210000004247 hand Anatomy 0.000 description 2
- 210000003127 knee Anatomy 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000004080 punching Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/26—Government or public services
- G06Q50/265—Personal security, identity or safety
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2433—Single-class perspective, e.g. one-against-all classification; Novelty detection; Outlier detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/18—Legal services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
- G06V40/25—Recognition of walking or running movements, e.g. gait recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Business, Economics & Management (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Tourism & Hospitality (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Strategic Management (AREA)
- Primary Health Care (AREA)
- Data Mining & Analysis (AREA)
- General Business, Economics & Management (AREA)
- Human Computer Interaction (AREA)
- Marketing (AREA)
- Human Resources & Organizations (AREA)
- Economics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Development Economics (AREA)
- Educational Administration (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Security & Cryptography (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Technology Law (AREA)
- Image Analysis (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
<概要>
図1は、実施形態1に係る因果相互作用検出装置の概要を示す。ここで、図1は、因果相互作用検出装置が行いうる動作の例を示すのみであり、因果相互作用検出装置の動作を限定しない。
実施形態1の因果相互作用検出装置によれば、姿勢の時間変化を表す変化モデル40が、ビデオデータ30から検出された各人物20について生成される。生成された変化モデル40に基づいて、因果相互作用検出装置は、姿勢変化に互いに時間相関がある複数の人物20を検出し、それらの人物20が因果相互作用を持つと考えられる。
図2は、実施形態1の因果相互作用検出装置2000の機能構成の例を示すブロック図である。因果相互作用検出装置2000は、姿勢抽出部2020、モデル生成部2040、及び相関検出部2060を含む。姿勢抽出部2020は、ビデオデータ30から、各人物20についての姿勢情報を抽出する。人物20の姿勢情報は、人物20の姿勢を時系列で示す。モデル生成部2040は、各人物20について、変化モデル40を生成する。相関検出部2060は、変化モデル40に基づいて、姿勢変化の時間に互いに相関がある複数の人物20の集合を、1つ以上検出する。
因果相互作用検出装置2000は、1つ以上のコンピュータで実現されうる。1つ以上のコンピュータのそれぞれは、因果相互作用検出装置2000を実装するための専用のコンピュータであってもよいし、パーソナルコンピュータ(PC: personal computer)、サーバマシン、又は携帯型デバイスなどの汎用のコンピュータであってもよい。因果相互作用検出装置2000は、アプリケーションをコンピュータにインストールすることで実現されうる。アプリケーションは、コンピュータを因果相互作用検出装置2000として機能させるプログラムで実装される。言い換えれば、そのプログラムは、因果相互作用検出装置2000の機能構成部が実装されたものである。
図4は、実施形態1の因果相互作用検出装置2000によって実行される処理の流れの例を表すフローチャートである。姿勢抽出部2020はビデオデータ30を取得する(S102)。姿勢抽出部2020は、ビデオデータ30から、各人物20について姿勢情報を抽出する(S104)。モデル生成部2040は、抽出された人物20の姿勢情報に基づいて、各人物20について変化モデル40を生成する(S106)。相関検出部2060は、姿勢変化の時間に互いに相関がある人物20の1つ以上の集合を生成する(S108)。
姿勢抽出部2020はビデオデータ30を取得する(S102)。ビデオデータ30を取得する方法は様々である。例えば姿勢抽出部2020は、ビデオデータ30を生成するカメラからビデオデータ30を取得する。その他にも例えば、姿勢抽出部2020は、カメラがビデオデータ30を格納する記憶装置から、ビデオデータ30を取得する。
姿勢抽出部2020は、ビデオデータ30から、各人物20について姿勢情報を抽出する(S104)。人物20の姿勢情報は、その人物20の姿勢の時系列(言い換えれば、人物20の姿勢の時間軸上の列)を表す。例えば姿勢情報は、ビデオデータ30の各時間フレームについて、人物20の姿勢を表す。この場合、姿勢抽出部2020は、ビデオデータ30の各時間フレームについて人物20の姿勢を算出し、算出された人物20の姿勢の列を示す姿勢情報を生成する。なお、姿勢情報は、各フレームについて人物20の姿勢を示すことが要求されるわけではない。例えば姿勢情報は、人物20の姿勢を数フレームごとに示してもよい。
モデル生成部2040は、人物20について抽出された姿勢情報に基づいて、ビデオデータ30内の各人物20について変化モデル40を生成する(S106).具体的には、ビデオデータ30から検出された各人物20について、モデル生成部2040は、その人物20の姿勢の変化を時間の関数としてモデル化する。
基準姿勢 Pref は、シーンにおいて(ビデオデータ30の一部又は全部において)通常だと考えられる人物20の姿勢を表す。シナリオに基づいて基準姿勢を定める方法は様々である。例えば、人物20の基準姿勢は、その人がビデオデータ30に現れた複数のイニシャルフレームのうちの一つにおけるその人の姿勢で定義できる(例えば、その人が現れた1番目から5番目のフレームのうちの一つにおける姿勢)。この方法により、複数の人物20のそれぞれについて基準姿勢が独立して定義される。ここで、最初の数フレームには、人物20の骨格キーポイントの全ては含まれていない可能性がある。例えば、人物20がフレームの端にいる場合、その人のキーポイントのうちのいくつかのみが見えうる。そこで、固定の複数のイニシャルフレームの中から選択(例えば、5番目や10番目)をすることが好適である。
人物20の姿勢の非類似度は、例えば、その姿勢と基準姿勢との距離として算出されうる。コサイン距離や重み付き距離などのように、2つの姿勢の距離を表す方法は様々である。重み付き距離を利用する場合、人物20の各キーポイントに対して、個別の重みが与えられる。
相関検出部2060は、姿勢変化の時間が互いに相関する複数の人物20の集合を1つ以上検出する(S108)。これは、各々の姿勢に大きな変化がある人々の時刻の間の関係を、相関検出部2060が見つけることを意味する。複数の人々の姿勢が大きく変化する時刻の間に相関がある場合、それらの人々は高い確率で相互作用している。ここで、「大きな姿勢変化」は、非類似度が所定の閾値以上である姿勢変化として定義されうる。
相関検出部2060は、姿勢変化の時間相関以外の要素を利用して、人物20間の因果相互作用の検出の精度を向上しうる。そのような要素の一つは、人物20間の距離でありうる。人物20の大きな姿勢変化の間に時間相関があったとしても、それらの人物が互いに離れている場合には、因果相互作用は無いであろう。そのため、相関検出部2060は、人物20間の距離を考慮しうる。
因果相互作用検出装置2000は、人物20の検出集合に基づいて出力情報を生成し、出力情報を出力しうる。出力されるべき情報には様々な種類がありうる。例えば出力情報は、因果相互作用を持つと判定された人物20の1つ以上の集合を示す。出力情報において、人物20は、ビデオデータ30内の対応するフレームにおける、その人物の外接矩形で表されうる。その他にも例えば、人物20は、対応するフレームの部分画像(例えば、フレーム内のその人物の外接矩形の画像領域)で表されうる。その他にも例えば、出力情報は、出力情報によって表されるべき人物20の人物外接矩形を示すように編集されたビデオデータ30の各フレームを含むことにより、各人物20を表してもよい。
以下、因果相互作用検出装置2000の動作例が記載される。ここで、以下に記載される因果相互作用検出装置2000の動作は、因果相互作用検出装置2000の種々の可能な動作の一例であり、因果相互作用検出装置2000の動作は以下の例に限定されない。
<付記>
(付記1)
少なくとも一つのプロセッサと、
命令が格納される記憶要素を有し、
前記少なくとも一つのプロセッサは、前記命令を実行することによって、
ビデオデータから検出される各人物について姿勢情報を抽出し、前記姿勢情報は前記人物の姿勢を時系列で示し、
前記姿勢情報に基づいて、各前記人物について、姿勢の時間変化を表す変化モデルを生成し、
複数の前記人物の1つ以上の集合それぞれについて、その集合内の前記人物の姿勢変化の時間が互いに相関するか否かを判定し、
姿勢変化の時間が互いに相関すると判定された前記人物を、互いに因果相互作用を持つ前記人物として検出するように構成される、因果相互作用検出装置。
(付記2)
前記少なくとも一つのプロセッサは、
第1タイムウインドウが第2タイムウインドウと重複するか否かを判定し、前記第1タイムウインドウは第1人物の姿勢変化の度合いが閾値以上である期間であり、前記第2タイムウインドウは第2人物の姿勢変化の度合いが前記閾値以上である期間であり、
前記第1タイムウインドウが前記第2タイムウインドウと重複する場合に、前記第1人物の姿勢変化の時間が前記第2人物の姿勢変化の時間と相関を持つと判定するように、さらに構成される、付記1に記載の因果相互作用検出装置。
(付記3)
前記少なくとも一つのプロセッサは、
第1タイムウインドウと第2タイムウインドウとの間のインターバルが第1閾値以下であるか否かを判定し、前記第1タイムウインドウは第1人物の姿勢変化の度合いが第2閾値以上である期間であり、前記第2タイムウインドウは第2人物の姿勢変化の度合いが前記第2閾値以上である期間であり、
前記インターバルが前記第1閾値以下である場合に、前記第1人物の姿勢変化の時間が前記第2人物の姿勢変化の時間と相関を持つと判定するように、さらに構成される、付記1に記載の因果相互作用検出装置。
(付記4)
前記少なくとも一つのプロセッサは、
第1人物と第2人物との間の距離が閾値以下であるか否かを判定し、
前記距離が前記閾値より大きいと判定される場合に、前記第1人物は前記第2人物と因果相互作用を持たないと判定するように、さらに構成される、付記1に記載の因果相互作用検出装置。
(付記5)
前記少なくとも一つのプロセッサは、
第1人物が第2人物へ向いているか否かを判定し、
前記第1人物が前記第2人物へ向いていない場合に、前記第1人物は前記第2人物と因果相互作用を持たないと判定するように、さらに構成される、付記1に記載の因果相互作用検出装置。
(付記6)
前記姿勢情報は、前記ビデオデータの或るフレームにおける前記人物の前記姿勢を、そのフレームから検出されるその人物の複数のキーポイントの座標で表す、付記1から5いずれか一項に記載の因果相互作用検出装置。
(付記7)
前記人物の前記変化モデルは、前記ビデオデータの或るフレームにおけるその人物の姿勢変化を、そのフレームにおけるその人物の前記姿勢と基準姿勢との非類似度によって表す、付記1から6いずれか一項に記載の因果相互作用検出装置。
(付記8)
前記ビデオデータの或るフレームにおける前記人物についての前記非類似度は、そのフレームにおけるその人物の前記姿勢と前記基準姿勢との距離で算出される、付記7に記載の因果相互作用検出装置。
(付記9)
ビデオデータから検出される各人物について姿勢情報を抽出し、前記姿勢情報は前記人物の姿勢を時系列で示し、
前記姿勢情報に基づいて、各前記人物について、姿勢の時間変化を表す変化モデルを生成し、
複数の前記人物の1つ以上の集合それぞれについて、その集合内の前記人物の姿勢変化の時間が互いに相関するか否かを判定し、
姿勢変化の時間が互いに相関すると判定された前記人物を、互いに因果相互作用を持つ前記人物として検出する、ことを含む、コンピュータによって実行される制御方法。
(付記10)
第1タイムウインドウが第2タイムウインドウと重複するか否かを判定し、前記第1タイムウインドウは第1人物の姿勢変化の度合いが閾値以上である期間であり、前記第2タイムウインドウは第2人物の姿勢変化の度合いが前記閾値以上である期間であり、
前記第1タイムウインドウが前記第2タイムウインドウと重複する場合に、前記第1人物の姿勢変化の時間が前記第2人物の姿勢変化の時間と相関を持つと判定する、ことがさらに含まれる、付記9に記載の制御方法。
(付記11)
第1タイムウインドウと第2タイムウインドウとの間のインターバルが第1閾値以下であるか否かを判定し、前記第1タイムウインドウは第1人物の姿勢変化の度合いが第2閾値以上である期間であり、前記第2タイムウインドウは第2人物の姿勢変化の度合いが前記第2閾値以上である期間であり、
前記インターバルが前記第1閾値以下である場合に、前記第1人物の姿勢変化の時間が前記第2人物の姿勢変化の時間と相関を持つと判定する、ことがさらに含まれる、付記9に記載の制御方法。
(付記12)
第1人物と第2人物との間の距離が閾値以下であるか否かを判定し、
前記距離が前記閾値より大きいと判定される場合に、前記第1人物は前記第2人物と因果相互作用を持たないと判定する、ことがさらに含まれる、付記9に記載の制御方法。
(付記13)
第1人物が第2人物へ向いているか否かを判定し、
前記第1人物が前記第2人物へ向いていない場合に、前記第1人物は前記第2人物と因果相互作用を持たないと判定する、ことがさらに含まれる、付記9に記載の制御方法。
(付記14)
前記姿勢情報は、前記ビデオデータの或るフレームにおける前記人物の前記姿勢を、そのフレームから検出されるその人物の複数のキーポイントの座標で表す、付記9から13いずれか一項に記載の制御方法。
(付記15)
前記人物の前記変化モデルは、前記ビデオデータの或るフレームにおけるその人物の姿勢変化を、そのフレームにおけるその人物の前記姿勢と基準姿勢との非類似度によって表す、付記9から14いずれか一項に記載の制御方法。
(付記16)
前記ビデオデータの或るフレームにおける前記人物についての前記非類似度は、そのフレームにおけるその人物の前記姿勢と前記基準姿勢との距離で算出される、付記15に記載の制御方法。
(付記17)
ビデオデータから検出される各人物について姿勢情報を抽出し、前記姿勢情報は前記人物の姿勢を時系列で示し、
前記姿勢情報に基づいて、各前記人物について、姿勢の時間変化を表す変化モデルを生成し、
複数の前記人物の1つ以上の集合それぞれについて、その集合内の前記人物の姿勢変化の時間が互いに相関するか否かを判定し、
姿勢変化の時間が互いに相関すると判定された前記人物を、互いに因果相互作用を持つ前記人物として検出する、ことをコンピュータに実行させるプログラムが格納されている非一時的なコンピュータ可読媒体。
(付記18)
前記プログラムは、
第1タイムウインドウが第2タイムウインドウと重複するか否かを判定し、前記第1タイムウインドウは第1人物の姿勢変化の度合いが閾値以上である期間であり、前記第2タイムウインドウは第2人物の姿勢変化の度合いが前記閾値以上である期間であり、
前記第1タイムウインドウが前記第2タイムウインドウと重複する場合に、前記第1人物の姿勢変化の時間が前記第2人物の姿勢変化の時間と相関を持つと判定する、ことを前記コンピュータにさらに実行させる、付記17に記載の非一時的なコンピュータ可読媒体。
(付記19)
前記プログラムは、
第1タイムウインドウと第2タイムウインドウとの間のインターバルが第1閾値以下であるか否かを判定し、前記第1タイムウインドウは第1人物の姿勢変化の度合いが第2閾値以上である期間であり、前記第2タイムウインドウは第2人物の姿勢変化の度合いが前記第2閾値以上である期間であり、
前記インターバルが前記第1閾値以下である場合に、前記第1人物の姿勢変化の時間が前記第2人物の姿勢変化の時間と相関を持つと判定する、ことを前記コンピュータにさらに実行させる、付記17に記載の非一時的なコンピュータ可読媒体。
(付記20)
前記プログラムは、
第1人物と第2人物との間の距離が閾値以下であるか否かを判定し、
前記距離が前記閾値より大きいと判定される場合に、前記第1人物は前記第2人物と因果相互作用を持たないと判定する、ことを前記コンピュータにさらに実行させる、付記17に記載の非一時的なコンピュータ可読媒体。
(付記21)
前記プログラムは、
第1人物が第2人物へ向いているか否かを判定し、
前記第1人物が前記第2人物へ向いていない場合に、前記第1人物は前記第2人物と因果相互作用を持たないと判定する、ことを前記コンピュータにさらに実行させる、付記17に記載の非一時的なコンピュータ可読媒体。
(付記22)
前記姿勢情報は、前記ビデオデータの或るフレームにおける前記人物の前記姿勢を、そのフレームから検出されるその人物の複数のキーポイントの座標で表す、付記17から21いずれか一項に記載の非一時的なコンピュータ可読媒体。
(付記23)
前記人物の前記変化モデルは、前記ビデオデータの或るフレームにおけるその人物の姿勢変化を、そのフレームにおけるその人物の前記姿勢と基準姿勢との非類似度によって表す、付記17から22いずれか一項に記載の非一時的なコンピュータ可読媒体。
(付記24)
前記ビデオデータの或るフレームにおける前記人物についての前記非類似度は、そのフレームにおけるその人物の前記姿勢と前記基準姿勢との距離で算出される、付記23に記載の非一時的なコンピュータ可読媒体。
30 ビデオデータ
40 変化モデル
1000 コンピュータ
1020 バス
1040 プロセッサ
1060 メモリ
1080 ストレージデバイス
1100 入出力インタフェース
1120 ネットワークインタフェース
2000 因果相互作用検出装置
2020 姿勢抽出部
2040 モデル生成部
2060 相関検出部
Claims (10)
- ビデオデータから検出される各人物について姿勢を時系列で示す姿勢情報を抽出する処理と、
複数の前記人物の1つ以上の集合それぞれについて、前記姿勢情報に基づき、その集合内の前記人物の姿勢変化の時間が互いに相関するか否かを判定する処理と、
姿勢変化の時間が互いに相関すると判定された前記人物を、互いに因果相互作用を持つ前記人物として検出する処理と、を行い、
前記判定の処理は、
第1タイムウインドウと第2タイムウインドウとの間のインターバルが第1閾値以下であるか否かを判定することを含み、
前記第1タイムウインドウは第1人物の姿勢変化の度合いが第2閾値以上である期間であり、
前記第2タイムウインドウは第2人物の姿勢変化の度合いが前記第2閾値以上である期間であり、
前記インターバルが前記第1閾値以下である場合に、前記第1人物の姿勢変化の時間が前記第2人物の姿勢変化の時間と相関を持つと判定することを含む、因果相互作用検出装置。 - ビデオデータから検出される各人物について姿勢を時系列で示す姿勢情報を抽出する処理と、
複数の前記人物の1つ以上の集合それぞれについて、前記姿勢情報に基づき、その集合内の前記人物の姿勢変化の時間が互いに相関するか否かを判定する処理と、
姿勢変化の時間が互いに相関すると判定された前記人物を、互いに因果相互作用を持つ前記人物として検出する処理と、を行い、
前記判定の処理は、
第1人物が第2人物へ向いているか否かを判定することと、
前記第1人物が前記第2人物へ向いていない場合に、前記第1人物は前記第2人物と因果相互作用を持たないと判定することとを含む、因果相互作用検出装置。 - 前記判定の処理は、
第3人物と第4人物との間の距離が所定の閾値以下であるか否かを判定することと、
前記距離が前記所定の閾値より大きいと判定される場合に、前記第3人物は前記第4人物と因果相互作用を持たないと判定することとを含む、請求項1又は2に記載の因果相互作用検出装置。 - 前記姿勢情報は、前記ビデオデータの或るフレームにおける前記人物の前記姿勢を、そのフレームから検出されるその人物の複数のキーポイントの座標で表す、請求項1から3いずれか一項に記載の因果相互作用検出装置。
- 前記姿勢情報に基づいて、各前記人物について、姿勢の時間変化を表す変化モデルを生成する処理を行い、
前記人物の前記変化モデルは、前記ビデオデータの或るフレームにおけるその人物の姿勢変化を、そのフレームにおけるその人物の前記姿勢と基準姿勢との非類似度によって表す、請求項1から4いずれか一項に記載の因果相互作用検出装置。 - 前記ビデオデータの或るフレームにおける前記人物についての前記非類似度は、そのフレームにおけるその人物の前記姿勢と前記基準姿勢との距離で算出される、請求項5に記載の因果相互作用検出装置。
- ビデオデータから検出される各人物について姿勢を時系列で示す姿勢情報を抽出するステップと、
複数の前記人物の1つ以上の集合それぞれについて、前記姿勢情報に基づき、その集合内の前記人物の姿勢変化の時間が互いに相関するか否かを判定するステップと、
姿勢変化の時間が互いに相関すると判定された前記人物を、互いに因果相互作用を持つ前記人物として検出するステップと、含み、
前記判定のステップは、
第1タイムウインドウと第2タイムウインドウとの間のインターバルが第1閾値以下であるか否かを判定することを含み、
前記第1タイムウインドウは第1人物の姿勢変化の度合いが第2閾値以上である期間であり、
前記第2タイムウインドウは第2人物の姿勢変化の度合いが前記第2閾値以上である期間であり、
前記インターバルが前記第1閾値以下である場合に、前記第1人物の姿勢変化の時間が前記第2人物の姿勢変化の時間と相関を持つと判定することを含む、コンピュータによって実行される制御方法。 - ビデオデータから検出される各人物について姿勢を時系列で示す姿勢情報を抽出するステップと、
複数の前記人物の1つ以上の集合それぞれについて、前記姿勢情報に基づき、その集合内の前記人物の姿勢変化の時間が互いに相関するか否かを判定するステップと、
姿勢変化の時間が互いに相関すると判定された前記人物を、互いに因果相互作用を持つ前記人物として検出するステップと、含み、
前記判定のステップは、
第1人物が第2人物へ向いているか否かを判定することと、
前記第1人物が前記第2人物へ向いていない場合に、前記第1人物は前記第2人物と因果相互作用を持たないと判定することとを含む、コンピュータによって実行される制御方法。 - ビデオデータから検出される各人物について姿勢を時系列で示す姿勢情報を抽出する処理と、
複数の前記人物の1つ以上の集合それぞれについて、前記姿勢情報に基づき、その集合内の前記人物の姿勢変化の時間が互いに相関するか否かを判定する処理と、
姿勢変化の時間が互いに相関すると判定された前記人物を、互いに因果相互作用を持つ前記人物として検出する処理と、をコンピュータに実行させ、
前記判定の処理は、
第1タイムウインドウと第2タイムウインドウとの間のインターバルが第1閾値以下であるか否かを判定することを含み、
前記第1タイムウインドウは第1人物の姿勢変化の度合いが第2閾値以上である期間であり、
前記第2タイムウインドウは第2人物の姿勢変化の度合いが前記第2閾値以上である期間であり、
前記インターバルが前記第1閾値以下である場合に、前記第1人物の姿勢変化の時間が前記第2人物の姿勢変化の時間と相関を持つと判定することを含む、プログラム。 - ビデオデータから検出される各人物について姿勢を時系列で示す姿勢情報を抽出する処理と、
複数の前記人物の1つ以上の集合それぞれについて、前記姿勢情報に基づき、その集合内の前記人物の姿勢変化の時間が互いに相関するか否かを判定する処理と、
姿勢変化の時間が互いに相関すると判定された前記人物を、互いに因果相互作用を持つ前記人物として検出する処理と、をコンピュータに実行させ、
前記判定の処理は、
第1人物が第2人物へ向いているか否かを判定することと、
前記第1人物が前記第2人物へ向いていない場合に、前記第1人物は前記第2人物と因果相互作用を持たないと判定することとを含む、プログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/031233 WO2022038702A1 (en) | 2020-08-19 | 2020-08-19 | Causal interaction detection apparatus, control method, and computer-readable storage medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023536875A JP2023536875A (ja) | 2023-08-30 |
JP7491462B2 true JP7491462B2 (ja) | 2024-05-28 |
Family
ID=80323532
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023507356A Active JP7491462B2 (ja) | 2020-08-19 | 2020-08-19 | 因果相互作用検出装置、制御方法、及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230316562A1 (ja) |
JP (1) | JP7491462B2 (ja) |
WO (1) | WO2022038702A1 (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007272533A (ja) | 2006-03-31 | 2007-10-18 | Advanced Telecommunication Research Institute International | インタラクション情報出力装置、インタラクション情報出力方法、及びプログラム |
JP2009519510A (ja) | 2005-11-28 | 2009-05-14 | ハネウェル・インターナショナル・インコーポレーテッド | 異常な群集の行動の検出 |
WO2011080923A1 (ja) | 2009-12-28 | 2011-07-07 | パナソニック株式会社 | 関節状領域検出装置およびその方法 |
JP2019133530A (ja) | 2018-02-01 | 2019-08-08 | 富士ゼロックス株式会社 | 情報処理装置 |
JP6887586B1 (ja) | 2020-07-03 | 2021-06-16 | 三菱電機株式会社 | 行動特定装置、行動特定方法及び行動特定プログラム |
-
2020
- 2020-08-19 JP JP2023507356A patent/JP7491462B2/ja active Active
- 2020-08-19 US US18/019,879 patent/US20230316562A1/en active Pending
- 2020-08-19 WO PCT/JP2020/031233 patent/WO2022038702A1/en active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009519510A (ja) | 2005-11-28 | 2009-05-14 | ハネウェル・インターナショナル・インコーポレーテッド | 異常な群集の行動の検出 |
JP2007272533A (ja) | 2006-03-31 | 2007-10-18 | Advanced Telecommunication Research Institute International | インタラクション情報出力装置、インタラクション情報出力方法、及びプログラム |
WO2011080923A1 (ja) | 2009-12-28 | 2011-07-07 | パナソニック株式会社 | 関節状領域検出装置およびその方法 |
JP2019133530A (ja) | 2018-02-01 | 2019-08-08 | 富士ゼロックス株式会社 | 情報処理装置 |
JP6887586B1 (ja) | 2020-07-03 | 2021-06-16 | 三菱電機株式会社 | 行動特定装置、行動特定方法及び行動特定プログラム |
Also Published As
Publication number | Publication date |
---|---|
WO2022038702A1 (en) | 2022-02-24 |
US20230316562A1 (en) | 2023-10-05 |
JP2023536875A (ja) | 2023-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Le et al. | Human posture recognition using human skeleton provided by Kinect | |
JP6013241B2 (ja) | 人物認識装置、及び方法 | |
US9098740B2 (en) | Apparatus, method, and medium detecting object pose | |
WO2021052469A1 (en) | Lighttrack: system and method for online top-down human pose tracking | |
JP2018538631A (ja) | シーン内のオブジェクトのアクションを検出する方法及びシステム | |
JPWO2018025831A1 (ja) | 人流推定装置、人流推定方法およびプログラム | |
US11527000B2 (en) | System and method for re-identifying target object based on location information of CCTV and movement information of object | |
JP6570786B2 (ja) | 動作学習装置、技能判別装置および技能判別システム | |
US11157749B2 (en) | Crowd state recognition device, learning method, and learning program | |
JP2007265367A (ja) | 視線検出方法および装置ならびにプログラム | |
JP2014093023A (ja) | 物体検出装置、物体検出方法及びプログラム | |
KR102138809B1 (ko) | 미세한 표정변화 검출을 위한 2차원 랜드마크 기반 특징점 합성 및 표정 세기 검출 방법 | |
Yao et al. | A fall detection method based on a joint motion map using double convolutional neural networks | |
JP7180590B2 (ja) | オブジェクト特徴量抽出装置、オブジェクト特徴量抽出方法及びオブジェクト特徴量抽出プログラム | |
JP2022009474A5 (ja) | ||
Lv et al. | 3D human action recognition using spatio-temporal motion templates | |
JP7327645B2 (ja) | 画像処理装置、画像処理システム、画像処理方法、および画像処理プログラム | |
JP7491462B2 (ja) | 因果相互作用検出装置、制御方法、及びプログラム | |
Yanakova et al. | Facial recognition technology on ELcore semantic processors for smart cameras | |
Kokila et al. | Face recognition based person specific identification for video surveillance applications | |
Arunnehru et al. | Difference intensity distance group pattern for recognizing actions in video using support vector machines | |
US20230298336A1 (en) | Video-based surgical skill assessment using tool tracking | |
JP2018195872A (ja) | 情報処理装置、情報処理システム、情報処理方法及びプログラム | |
Ke et al. | Empowering Intelligent Home Safety: Indoor Family Fall Detection with YOLOv5 | |
Suma et al. | Activity recognition in egocentric videos using bag of key action units |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230201 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231128 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240125 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240416 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240429 |