JP2024065990A - 照合支援プログラム、照合支援方法、および情報処理装置 - Google Patents
照合支援プログラム、照合支援方法、および情報処理装置 Download PDFInfo
- Publication number
- JP2024065990A JP2024065990A JP2022175148A JP2022175148A JP2024065990A JP 2024065990 A JP2024065990 A JP 2024065990A JP 2022175148 A JP2022175148 A JP 2022175148A JP 2022175148 A JP2022175148 A JP 2022175148A JP 2024065990 A JP2024065990 A JP 2024065990A
- Authority
- JP
- Japan
- Prior art keywords
- frame
- person
- frames
- movement
- processing device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 328
- 238000000034 method Methods 0.000 title claims description 138
- 238000010801 machine learning Methods 0.000 claims description 92
- 230000005021 gait Effects 0.000 claims description 90
- 230000004044 response Effects 0.000 claims description 23
- 210000000988 bone and bone Anatomy 0.000 claims description 4
- 210000000707 wrist Anatomy 0.000 description 44
- 238000001514 detection method Methods 0.000 description 36
- 238000010586 diagram Methods 0.000 description 29
- 230000006870 function Effects 0.000 description 20
- 238000003384 imaging method Methods 0.000 description 12
- 238000013473 artificial intelligence Methods 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 8
- 210000003128 head Anatomy 0.000 description 8
- 210000003127 knee Anatomy 0.000 description 8
- 210000002683 foot Anatomy 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 230000002542 deteriorative effect Effects 0.000 description 3
- 230000007717 exclusion Effects 0.000 description 3
- 210000003462 vein Anatomy 0.000 description 3
- 210000003423 ankle Anatomy 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 210000004247 hand Anatomy 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000002547 anomalous effect Effects 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
- G06V40/25—Recognition of walking or running movements, e.g. gait recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
Abstract
【課題】人物の照合処理の精度向上を図ること。【解決手段】情報処理装置100は、対象の人物111が映った複数のフレームを含む対象の映像110上の物体112の位置を検出する。情報処理装置100は、取得した対象の映像110上の対象の人物111が有するいずれかの部位の位置を検出する。情報処理装置100は、対象の映像110の複数のフレームのうち、検出した物体112の動き方と検出したいずれかの部位の動き方とに相関関係が現れるフレームを含まない1以上のフレームを特定する。情報処理装置100は、特定した1以上のフレームに基づいて、対象の人物111の照合処理を実施する。【選択図】図1
Description
本発明は、照合支援プログラム、照合支援方法、および情報処理装置に関する。
従来、第1人物に関する特徴と、第2人物に関する特徴とを照合することにより、第1人物が、第2人物と一致するのかを判定する照合処理を実施することがある。例えば、人物同士の指紋、静脈、光彩、または、声紋などの特徴を照合する技術が考えられる。例えば、人物同士の歩容の特徴を照合する技術が考えられる。
先行技術としては、例えば、撮影画像に写る歩行者の実空間における歩行特性を示す解析データを、個人識別用データと比較することにより、撮影画像に写る歩行者を特定するものがある。また、例えば、被写体の画像に形状モデルを当てはめて、パーツ単位での代表点位置の時系列画像データを抽出する技術がある。また、例えば、映像内の人物の身元を、当該人物の歩行に従って認識する技術がある。また、例えば、電子デバイスの部分的に周期的な動きを検出する技術がある。
しかしながら、従来技術では、人物の照合処理を精度よく実施することが難しい場合がある。例えば、ある人物が荷物を持つ場合の歩容の特徴は、同一の人物が荷物を持たない場合の歩容の特徴と一致しないことがあり、人物の照合処理を精度よく実施することができなくなる場合がある。
1つの側面では、本発明は、人物の照合処理の精度向上を図ることを目的とする。
1つの実施態様によれば、人物を含む映像を取得し、取得した前記映像を分析することで、前記映像の中に含まれる物体を検出し、検出した前記物体と前記人物が有する複数の部位のうちいずれかの部位との位置関係に基づいて、前記物体の動きと前記いずれかの部位の動きとが相関関係を有するか否かを判定し、前記物体の動きと前記いずれかの部位の動きとが相関関係を有すると判定されたときに、前記映像を構成する複数のフレームのうち、前記相関関係が現れる第一のフレームを特定し、前記複数のフレームの中から前記第一のフレームが除外された第二のフレームを用いて、前記人物の照合を実施する照合支援プログラム、照合支援方法、および情報処理装置が提案される。
一態様によれば、人物の照合処理の精度向上を図ることが可能になる。
以下に、図面を参照して、本発明にかかる照合支援プログラム、照合支援方法、および情報処理装置の実施の形態を詳細に説明する。
(実施の形態にかかる照合支援方法の一実施例)
図1は、実施の形態にかかる照合支援方法の一実施例を示す説明図である。情報処理装置100は、人物の照合処理の精度向上を図るためのコンピュータである。情報処理装置100は、例えば、サーバ、または、PC(Personal Computer)などである。
図1は、実施の形態にかかる照合支援方法の一実施例を示す説明図である。情報処理装置100は、人物の照合処理の精度向上を図るためのコンピュータである。情報処理装置100は、例えば、サーバ、または、PC(Personal Computer)などである。
照合処理は、人物同士を照合することにより、当該人物同士が同一人物であるか否かを判定する処理である。照合処理は、例えば、人物同士の特徴を照合することにより、当該人物同士が同一人物であるか否かを判定する。照合処理は、具体的には、異なるタイミングの映像に映った人物同士を照合し、当該人物同士が同一人物であるか否かを判定する。
ここで、例えば、人物同士の指紋、静脈、または、光彩などの特徴を照合することにより、人物の照合処理を実現しようとする手法が考えられる。この手法では、人物の照合処理を精度よく実施することが難しい場合がある。例えば、人物の指、血管、または、目などの精細な画像を接写することが難しい場合には、人物の照合処理を精度よく実施することができない。
また、例えば、人物同士の声紋などの特徴を照合することにより、人物の照合処理を実現しようとする手法が考えられる。この手法でも、人物の照合処理を精度よく実施することが難しい場合がある。例えば、人物の音声データを計測することが難しい場合には、人物の照合処理を精度よく実施することができない。例えば、人物の音声データに、雑音が含まれる場合には、人物の照合処理を精度よく実施することができないことがある。
また、例えば、人物同士の体格および服装などの見た目の特徴を照合することにより、人物の照合処理を実現しようとする手法が考えられる。この手法でも、人物の照合処理を精度よく実施することが難しい場合がある。例えば、人物の服装が変化したことに応じて、人物の見た目の特徴が変化する傾向がある。例えば、ある人物が特定の服装である場合の見た目の特徴は、同一の人物が別の服装である場合の見た目の特徴とは一致しないことがあり、人物の照合処理を精度よく実施することができないことがある。
また、例えば、人物同士の歩容の特徴を照合することにより、人物の照合処理を実現しようとする手法が考えられる。この手法でも、人物の照合処理を精度よく実施することが難しい場合がある。例えば、ある人物が荷物を持つ場合の歩容の特徴は、同一の人物が荷物を持たない場合の歩容の特徴と一致しないことがあり、人物の照合処理を精度よく実施することができないことがある。
また、例えば、映像上の人物の映り方に応じて、人物同士の見た目の特徴を照合するか、または、人物同士の歩容の特徴を照合するかを使い分ける手法が考えられる。この手法でも、人物の照合処理を精度よく実施することが難しい場合がある。例えば、ある人物が荷物を持つ場合の歩容の特徴は、同一の人物が荷物を持たない場合の歩容の特徴と一致しないことがあり、人物の照合処理を精度よく実施することができないという問題は解消されていない。
このように、従来では、人物の照合処理を精度よく実施することが難しい場合がある。そこで、本実施の形態では、人物の照合処理の精度向上を図ることができる照合支援方法について説明する。
図1において、情報処理装置100は、対象の人物111が映った複数のフレームを含む対象の映像110を取得する。情報処理装置100は、例えば、撮像素子を用いて、対象の人物111が映った複数のフレームを含む対象の映像110を撮影することにより、対象の人物111が映った複数のフレームを含む対象の映像110を取得する。情報処理装置100は、例えば、他のコンピュータから、対象の人物111が映った複数のフレームを含む対象の映像110を受信することにより、対象の人物111が映った複数のフレームを含む対象の映像110を取得してもよい。
(1-1)情報処理装置100は、取得した対象の映像110上の物体112の位置を検出する。物体112は、例えば、対象の人物111とは異なる物体112である。物体112は、具体的には、対象の人物111が保持し得る物体112である。物体112は、具体的には、対象の人物111が手に持ち得る物体112である。物体112は、より具体的には、鞄、リュックサック、傘、上着、雑誌、書類束、工具、受話器、または、スマートフォンなどである。位置は、例えば、ピクセル座標などである。情報処理装置100は、例えば、取得した対象の映像110を分析することにより、取得した対象の映像110の各フレームにおける物体112の位置を検出する。
(1-2)情報処理装置100は、取得した対象の映像110上の対象の人物111が有する複数の部位の少なくともいずれかの部位の位置を検出する。部位は、例えば、首、頭、右肩、左肩、右肘、左肘、右手、左手、右膝、左膝、右足、または、左足などである。部位は、具体的には、関節である。位置は、例えば、ピクセル座標などである。情報処理装置100は、例えば、取得した対象の映像110を分析することにより、取得した対象の映像110の各フレームにおける対象の人物111が有する複数の部位の少なくともいずれかの部位の位置を検出する。情報処理装置100は、具体的には、取得した対象の映像110を分析することにより、取得した対象の映像110の各フレームにおける対象の人物111が有する右手または左手の部位の位置を検出する。
(1-3)情報処理装置100は、検出した物体112の位置と、対象の映像110上の対象の人物が有する複数の部位の少なくともいずれかの部位の位置との位置関係に基づいて、対象の映像110の複数のフレームのうち、1以上のフレームを特定する。情報処理装置100は、例えば、物体112の位置と、いずれかの部位の位置との位置関係に基づいて、複数のフレームのうち、当該物体112の動き方と当該いずれかの部位の動き方とに相関関係が現れるフレームを含まない1以上のフレームを特定する。
情報処理装置100は、例えば、対象の映像110の各フレームにおいて、いずれかの部位が、物体112と動き方に相関関係を有する部位であるか否かを判定する。情報処理装置100は、例えば、複数のフレームのうち、いずれかの部位が、物体112と動き方に相関関係を有する部位であると判定したフレームを含まない1以上のフレームを特定する。
情報処理装置100は、具体的には、対象の映像110の各フレームにおいて、検出した物体112の位置と、検出した右手の部位の位置との距離が一定以内であるか否かを判定する。情報処理装置100は、具体的には、距離が一定以内であれば、右手の部位が、物体112を保持すると判定し、当該物体112と動き方に相関関係を有する部位であると判定する。情報処理装置100は、具体的には、距離が一定以内でなければ、右手の部位が、物体112を保持しないと判定し、当該物体112と動き方に相関関係を有する部位ではないと判定する。情報処理装置100は、具体的には、複数のフレームのうち、右手の部位が、物体112と動き方に相関関係を有する部位であると判定したフレームを、除外対象に設定する。
情報処理装置100は、具体的には、複数のフレームのうち、除外対象に設定したフレームを含まない1以上のフレームを特定する。情報処理装置100は、より具体的には、複数のフレームのうち、除外対象に設定したフレームを含まない、連続した所定数以上のフレームを特定してもよい。
これにより、情報処理装置100は、物体がいずれかの部位の動き方を拘束した確率が比較的高く、対象の人物111の歩容が、通常の状態の歩容とは異なる歩容になるフレームを特定し、当該フレームを含まない1以上のフレームを特定することができる。通常の状態は、例えば、対象の人物111が自然体の状態である。通常の状態は、例えば、対象の人物111が無手の状態である。情報処理装置100は、例えば、物体がいずれかの部位の動き方を拘束し、当該いずれかの部位が、対象の人物111の歩容に対して変則的な影響を与え得る状態になったことを判断することができる。情報処理装置100は、例えば、いずれかの部位が、対象の人物111の歩容に対して変則的な影響を与え得る状態になったフレームを含まない1以上のフレームを特定することができる。
このため、情報処理装置100は、複数のフレームのうち、対象の人物111の照合処理の際にノイズとなり易いフレームを特定することができ、ノイズとなり易いフレームを除いた1以上のフレームを特定することができる。照合処理は、例えば、対象の人物111が、対象の人物111の候補となる特定の人物であるか否かを判定する処理である。照合処理は、具体的には、対象の人物111の歩容の特徴に基づいて実施される。照合処理は、より具体的には、対象の人物111の歩容の特徴と、対象の人物111の候補となる特定の人物の歩容の特徴とを比較することにより実現される。
情報処理装置100は、例えば、複数のフレームのうち、照合処理にあたって、対象の人物111の歩容の特徴と、対象の人物111の候補となる特定の人物の歩容の特徴とを比較する際にノイズとなり易いフレームを特定することができる。情報処理装置100は、複数のフレームのうち、ノイズとなり易いフレームを除き、対象の人物111の歩容の特徴と、対象の人物111の候補となる特定の人物の歩容の特徴とを比較する際に利用することが好ましい1以上のフレームを特定することができる。
(1-4)情報処理装置100は、特定した1以上のフレームに基づいて、対象の人物111の照合処理を実施する。情報処理装置100は、例えば、特定した1以上のフレームにおける対象の人物111が有する複数の部位の位置に基づいて、対象の人物111の歩容の特徴を示す特徴ベクトルを生成する。情報処理装置100は、例えば、生成した特徴ベクトルと、対象の人物111の候補となる特定の人物の歩容の特徴を示す特徴ベクトルとが類似するか否かに基づいて、対象の人物111が、特定の人物であるか否かを判定する。
情報処理装置100は、例えば、生成した特徴ベクトルと、対象の人物111の候補となる特定の人物の歩容の特徴を示す特徴ベクトルとが類似する場合、対象の人物111が、特定の人物であると判定する。情報処理装置100は、例えば、生成した特徴ベクトルと、対象の人物111の候補となる特定の人物の歩容の特徴を示す特徴ベクトルとが類似しない場合、対象の人物111が、特定の人物ではないと判定する。
これにより、情報処理装置100は、対象の人物111の照合処理を精度よく実施することができる。情報処理装置100は、複数のフレームのうち、ノイズとなり易いフレームを含まない1以上のフレームを選択し、対象の人物111の歩容の特徴と、特定の人物の歩容の特徴とを比較することができる。このため、情報処理装置100は、対象の人物111の照合処理を精度よく実施することができる。
また、情報処理装置100は、例えば、人物の指、血管、または、目などの精細な画像を接写することが難しい場合にも、人物の照合処理を精度よく実施することができる。また、情報処理装置100は、例えば、人物の音声データを計測することが難しい場合にも、人物の照合処理を精度よく実施することができる。また、例えば、情報処理装置100は、例えば、人物の服装が変化する場合にも、人物の照合処理を精度よく実施することができる。
ここでは、情報処理装置100が、単独で動作する場合について説明したが、これに限らない。例えば、情報処理装置100が、他のコンピュータと協働する場合があってもよい。例えば、複数のコンピュータが協働して、情報処理装置100としての機能を実現する場合があってもよい。具体的には、クラウド上に、情報処理装置100としての機能が実現される場合があってもよい。
ここでは、情報処理装置100が、対象の映像110を分析することにより、対象の映像110の各フレームにおける物体112の位置を検出する場合について説明したが、これに限らない。例えば、情報処理装置100が、対象の映像110を分析する他のコンピュータから、対象の映像110の各フレームにおける物体112の位置を受信することにより、対象の映像110の各フレームにおける物体112の位置を検出する場合があってもよい。
ここでは、情報処理装置100が、対象の映像110を分析することにより、対象の映像110の各フレームにおける対象の人物111が有する複数の部位の少なくともいずれかの部位の位置を検出する場合について説明したが、これに限らない。例えば、情報処理装置100が、対象の映像110を分析する他のコンピュータから、対象の映像110の各フレームにおける対象の人物111が有する部位の位置を受信することにより、当該部位の位置を検出する場合があってもよい。
ここでは、情報処理装置100が、対象の映像110を分析することにより、対象の映像110の各フレームにおける対象の人物111が有する右手または左手の部位の位置を検出する場合について説明したが、これに限らない。例えば、情報処理装置100が、対象の映像110を分析することにより、対象の映像110の各フレームにおける対象の人物111が有する右手および左手以外の部位の位置を検出する場合があってもよい。具体的には、情報処理装置100が、対象の映像110の各フレームにおける対象の人物111が有する右足または左足の部位の位置を検出する場合などがあってもよい。
(照合処理システム200の一例)
次に、図2を用いて、図1に示した情報処理装置100を適用した、照合処理システム200の一例について説明する。
次に、図2を用いて、図1に示した情報処理装置100を適用した、照合処理システム200の一例について説明する。
図2は、照合処理システム200の一例を示す説明図である。図2において、照合処理システム200は、情報処理装置100と、1以上の映像撮影装置201と、1以上のクライアント装置202とを含む。
照合処理システム200において、情報処理装置100と映像撮影装置201とは、有線または無線のネットワーク210を介して接続される。ネットワーク210は、例えば、LAN(Local Area Network)、WAN(Wide Area Network)、インターネットなどである。また、照合処理システム200において、情報処理装置100とクライアント装置202とは、有線または無線のネットワーク210を介して接続される。
情報処理装置100は、照合処理を実施するためのコンピュータである。情報処理装置100は、例えば、第1機械学習モデルを記憶する。第1機械学習モデルは、例えば、映像の入力に応じて、当該映像に映った人物が有する部位の位置を出力する機能を有する。部位は、例えば、首、頭、右肩、左肩、右肘、左肘、右手、左手、右膝、左膝、右足、または、左足などである。位置は、例えば、部位の関節の位置である。位置は、例えば、映像上のピクセル座標などである。
第1機械学習モデルは、具体的には、映像の各フレームの入力に応じて、当該フレームにおける人物が有する部位の位置を出力する機能を有する。第1機械学習モデルは、例えば、AI(Artificial Intelligence)モデルなどである。第1機械学習モデルは、例えば、ニューラルネットワーク、数式、または、木構造などによって実現されることが考えられる。
情報処理装置100は、例えば、第2機械学習モデルを記憶する。第2機械学習モデルは、例えば、映像上の人物が有する部位の位置の入力に応じて、当該人物の歩容に関する特徴を表す特徴情報を出力する機能を有する。特徴情報は、例えば、特徴ベクトルなどである。位置は、例えば、映像上のピクセル座標である。
第2機械学習モデルは、具体的には、連続する2以上のフレームにおける人物が有する部位の位置の入力に応じて、当該人物の歩容に関する特徴を表す特徴情報を出力する機能を有する。第2機械学習モデルは、例えば、AIモデルなどである。第2機械学習モデルは、例えば、ニューラルネットワーク、数式、または、木構造などによって実現されることが考えられる。
情報処理装置100は、例えば、第3機械学習モデルを記憶する。第3機械学習モデルは、例えば、映像の入力に応じて、当該映像に映った物体の位置を出力する機能を有する。物体は、例えば、人物とは異なる物体である。物体は、具体的には、人物が保持し得る物体である。物体は、具体的には、人物が手に持ち得る物体である。物体は、より具体的には、鞄、リュックサック、傘、上着、雑誌、書類束、工具、受話器、または、スマートフォンなどである。位置は、例えば、ピクセル座標などである。
第3機械学習モデルは、具体的には、映像の各フレームの入力に応じて、当該フレームにおける物体の位置を出力する機能を有する。第3機械学習モデルは、例えば、AIモデルなどである。第3機械学習モデルは、例えば、パターンマッチングによって実現されることが考えられる。第3機械学習モデルは、例えば、ニューラルネットワーク、数式、または、木構造などによって実現されることが考えられる。
情報処理装置100は、例えば、特定の人物に対応付けて、特定の人物の歩容に関する特徴を表す特徴情報を記憶する。特定の人物は、例えば、複数人存在していてもよい。特徴情報は、例えば、特徴ベクトルである。特徴情報は、例えば、第2機械学習モデルによって、特定の人物が映った映像に基づいて生成される。
特定の人物が映った映像は、例えば、対象の人物の照合処理に用いられる標本となる。特定の人物が映った映像は、例えば、特定の人物の歩容が映った映像である。特定の人物が映った映像は、具体的には、通常の状態の特定の人物の歩容が映った映像である。通常の状態は、例えば、対象の人物が自然体の状態である。通常の状態は、例えば、対象の人物が無手の状態である。特定の人物が映った映像は、例えば、映像撮影装置201によって生成される。
情報処理装置100は、具体的には、図4に後述する特徴情報管理テーブル400を記憶する。情報処理装置100は、例えば、特定の人物に対応付けて、特定の人物が映った映像を記憶していてもよい。情報処理装置100は、具体的には、特定の人物が映った映像を、映像撮影装置201から受信し、特定の人物に対応付けて記憶していてもよい。情報処理装置100は、第2機械学習モデルによって、特定の人物が映った映像に基づいて、特定の人物の歩容に関する特徴を表す特徴情報を生成してもよい。
情報処理装置100は、対象の人物が映った複数のフレームを含む対象の映像を取得する。情報処理装置100は、例えば、対象の映像を、映像撮影装置201から受信することにより取得する。情報処理装置100は、複数の人物が映った映像を取得し、取得した映像に映った複数の人物のうち対象の人物の指定を受け付けてもよい。情報処理装置100は、例えば、取得した映像を、クライアント装置202に送信し、取得した映像に映った複数の人物のうち対象の人物を指定する情報を、クライアント装置202から受信することにより、対象の人物の指定を受け付けてもよい。情報処理装置100は、例えば、利用者の操作入力に基づき、取得した映像に映った複数の人物のうち対象の人物の指定を受け付けてもよい。
情報処理装置100は、対象の映像上の物体の位置を検出する。情報処理装置100は、例えば、対象の映像の各フレームにおける物体の位置を検出する。情報処理装置100は、具体的には、第3機械学習モデルによって、対象の映像に基づいて、対象の映像の各フレームにおける物体の位置を検出する。対象の映像上で位置を検出する物体の種類は、例えば、予め設定されていてもよい。情報処理装置100は、対象の映像上で位置を検出する物体の種類の指定を受け付けてもよい。情報処理装置100は、例えば、対象の映像上で位置を検出する物体の種類を指定する情報を、クライアント装置202から受信することにより、物体の種類の指定を受け付けてもよい。情報処理装置100は、例えば、利用者の操作入力に基づき、対象の映像上で位置を検出する物体の種類の指定を受け付けてもよい。情報処理装置100は、例えば、対象の映像上の指定の物体の位置を検出する。
情報処理装置100は、対象の映像上の対象の人物が有する複数の部位の少なくともいずれかの部位の位置を検出する。情報処理装置100は、例えば、対象の映像上の対象の人物が有する複数の部位のそれぞれの部位の位置を検出する。情報処理装置100は、具体的には、対象の映像の各フレームにおける対象の人物が有する複数の部位のそれぞれの部位の位置を検出する。情報処理装置100は、具体的には、第1機械学習モデルによって、対象の映像に基づいて、対象の映像の各フレームにおける対象の人物が有する複数の部位のそれぞれの部位の位置を検出する。
情報処理装置100は、対象の映像上の物体の位置と、対象の映像上の対象の人物が有する複数の部位の少なくともいずれかの部位の位置との位置関係に基づいて、対象の映像の複数のフレームのうち、1以上のフレームを特定する。情報処理装置100は、例えば、対象の映像の複数のフレームのうち、物体の動き方と、対象の人物が有する複数の部位の少なくともいずれかの部位の動き方とに相関関係が現れるフレームを含まない1以上のフレームを特定する。情報処理装置100は、第2機械学習モデルによって、特定した1以上のフレームに基づいて、対象の人物の歩容に関する特徴を表す特徴情報を生成する。
情報処理装置100は、生成した対象の人物の歩容に関する特徴を表す特徴情報と、特定の人物の歩容に関する特徴を表す特徴情報とを比較することにより、対象の人物の照合処理を実施する。特定の人物は、例えば、予め設定されていてもよい。情報処理装置100は、例えば、特定の人物の指定を受け付けてもよい。情報処理装置100は、例えば、特定の人物を指定する情報を、クライアント装置202から受信することにより、特定の人物の指定を受け付けてもよい。情報処理装置100は、例えば、利用者の操作入力に基づき、特定の人物の指定を受け付けてもよい。
情報処理装置100は、例えば、対象の人物の歩容に関する特徴を表す特徴情報と、特定の人物の歩容に関する特徴を表す特徴情報とを比較することにより、対象の人物と、特定の人物とが一致するか否かを判定する照合処理を実施する。情報処理装置100は、対象の人物の照合処理の処理結果を出力する。情報処理装置100は、例えば、対象の人物と、特定の人物とが一致するか否かを判定した判定結果を出力する。出力形式は、例えば、ディスプレイへの表示、プリンタへの印刷出力、他のコンピュータへの送信、または、記憶領域への記憶などである。
情報処理装置100は、具体的には、対象の人物と、特定の人物とが一致するか否かを判定した判定結果を、クライアント装置202に送信する。情報処理装置100は、例えば、照合処理システム200を管理する利用者によって管理される。情報処理装置100は、例えば、サーバ、または、PC(Personal Computer)などである。
映像撮影装置201は、特定の領域を撮影し、人物が映った映像を生成するためのコンピュータである。映像撮影装置201は、複数の撮像素子を有するカメラを含み、カメラによって人物が存在し得る特定の領域を撮影する。映像撮影装置201は、例えば、特定の人物が映った映像を生成し、情報処理装置100に送信する。映像撮影装置201は、具体的には、特定の人物となり得る複数の人物が映った映像を生成し、情報処理装置100に送信してもよい。
映像撮影装置201は、例えば、対象の人物が映った映像を生成し、情報処理装置100に送信する。映像撮影装置201は、具体的には、対象の人物となり得る複数の人物が映った映像を生成し、情報処理装置100に送信してもよい。映像撮影装置201は、例えば、スマートフォンなどである。映像撮影装置201は、例えば、定点カメラなどであってもよい。映像撮影装置201は、例えば、ドローンなどであってもよい。
クライアント装置202は、対象の人物の照合処理の処理結果を利用しようとする作業者によって用いられるコンピュータである。クライアント装置202は、人物が映った映像を、情報処理装置100から受信し、作業者が参照可能に出力してもよい。クライアント装置202は、作業者の操作入力に基づき、映像に映った人物のうち対象の人物の指定を受け付け、対象の人物を指定する情報を、情報処理装置100に送信してもよい。
クライアント装置202は、作業者の操作入力に基づき、対象の映像上で位置を検出する物体の種類の指定を受け付け、物体の種類を指定する情報を、情報処理装置100に送信してもよい。クライアント装置202は、作業者の操作入力に基づき、特定の人物の指定を受け付け、特定の人物を指定する情報を、情報処理装置100に送信してもよい。
クライアント装置202は、対象の人物の照合処理の処理結果を、情報処理装置100から受信する。クライアント装置202は、対象の人物の照合処理の処理結果を、作業者が参照可能に出力する。出力形式は、例えば、ディスプレイへの表示、プリンタへの印刷出力、他のコンピュータへの送信、または、記憶領域への記憶などである。クライアント装置202は、例えば、PC、タブレット端末、または、スマートフォンなどである。
ここでは、情報処理装置100が、映像撮影装置201とは異なる装置である場合について説明したが、これに限らない。例えば、情報処理装置100が、映像撮影装置201としての機能を有し、映像撮影装置201としても動作する場合があってもよい。ここでは、情報処理装置100が、クライアント装置202とは異なる装置である場合について説明したが、これに限らない。例えば、情報処理装置100が、クライアント装置202としての機能を有し、クライアント装置202としても動作する場合があってもよい。
(照合処理システム200の適用例)
次に、照合処理システム200の適用例について説明する。照合処理システム200は、例えば、監視カメラが撮影した映像に映った対象の人物が、行方不明者、または、犯罪容疑者などの特定の人物と一致するか否かを判定する照合処理を実施しようとする場合に対して適用されることが考えられる。この場合、映像撮影装置201は、例えば、監視カメラである。作業者は、例えば、警察官などである。
次に、照合処理システム200の適用例について説明する。照合処理システム200は、例えば、監視カメラが撮影した映像に映った対象の人物が、行方不明者、または、犯罪容疑者などの特定の人物と一致するか否かを判定する照合処理を実施しようとする場合に対して適用されることが考えられる。この場合、映像撮影装置201は、例えば、監視カメラである。作業者は、例えば、警察官などである。
照合処理システム200は、例えば、部屋の入口付近に設けられた定点カメラが撮影した映像に映った対象の人物が、当該部屋の入室が許可された特定の人物と一致するか否かを判定する照合処理を実施しようとする場合に対して適用されることが考えられる。この場合、照合処理システム200は、クライアント装置202を含まなくてもよい。情報処理装置100は、クライアント装置202に代わり、部屋の施錠管理装置などに、照合処理の処理結果を送信し、対象の人物が適切に当該部屋に入室可能になるよう制御することが考えられる。
(情報処理装置100のハードウェア構成例)
次に、図3を用いて、情報処理装置100のハードウェア構成例について説明する。
次に、図3を用いて、情報処理装置100のハードウェア構成例について説明する。
図3は、情報処理装置100のハードウェア構成例を示すブロック図である。図3において、情報処理装置100は、CPU(Central Processing Unit)301と、メモリ302と、ネットワークI/F(Interface)303とを有する。また、情報処理装置100は、記録媒体I/F304と、記録媒体305と、ディスプレイ306と、入力装置307とを有する。また、各構成部は、バス300によってそれぞれ接続される。
ここで、CPU301は、情報処理装置100の全体の制御を司る。メモリ302は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)およびフラッシュROMなどを有する。具体的には、例えば、フラッシュROMやROMが各種プログラムを記憶し、RAMがCPU301のワークエリアとして使用される。メモリ302に記憶されるプログラムは、CPU301にロードされることにより、コーディングされている処理をCPU301に実行させる。
メモリ302は、映像の各フレームの入力に応じて当該フレームにおける人物が有する部位の位置を出力する機械学習モデルを記憶していてもよい。メモリ302は、1以上のフレームにおける人物が有する部位の位置の入力に応じて当該人物の歩容に関する特徴を表す特徴情報を出力する機械学習モデルを記憶していてもよい。メモリ302は、映像の各フレームの入力に応じて当該フレームにおける物体の位置を出力する機械学習モデルを記憶していてもよい。メモリ302は、例えば、図4に後述する特徴情報管理テーブル400を記憶する。
ネットワークI/F303は、通信回線を通じてネットワーク210に接続され、ネットワーク210を介して他のコンピュータに接続される。そして、ネットワークI/F303は、ネットワーク210と内部のインターフェースを司り、他のコンピュータからのデータの入出力を制御する。ネットワークI/F303は、例えば、モデムやLANアダプタなどである。
記録媒体I/F304は、CPU301の制御に従って記録媒体305に対するデータのリード/ライトを制御する。記録媒体I/F304は、例えば、ディスクドライブ、SSD(Solid State Drive)、USB(Universal Serial Bus)ポートなどである。記録媒体305は、記録媒体I/F304の制御で書き込まれたデータを記憶する不揮発メモリである。記録媒体305は、例えば、ディスク、半導体メモリ、USBメモリなどである。記録媒体305は、情報処理装置100から着脱可能であってもよい。
ディスプレイ306は、カーソル、アイコン、ツールボックス、文書、画像、または、機能情報などのデータを表示する。ディスプレイ306は、例えば、CRT(Cathode Ray Tube)、液晶ディスプレイ、または、有機EL(Electroluminescence)ディスプレイなどである。入力装置307は、文字、数字、または、各種指示などの入力のためのキーを有し、データの入力を行う。入力装置307は、例えば、キーボード、または、マウスなどである。入力装置307は、例えば、タッチパネル式の入力パッド、または、テンキーなどであってもよい。
情報処理装置100は、上述した構成部の他、例えば、カメラなどを有してもよい。また、情報処理装置100は、上述した構成部の他、例えば、プリンタ、スキャナ、マイク、または、スピーカーなどを有してもよい。また、情報処理装置100は、例えば、記録媒体I/F304および記録媒体305を複数有していてもよい。また、情報処理装置100は、例えば、ディスプレイ306、または、入力装置307などを有していなくてもよい。また、情報処理装置100は、例えば、記録媒体I/F304および記録媒体305を有していなくてもよい。
(特徴情報管理テーブル400の記憶内容)
次に、図4を用いて、特徴情報管理テーブル400の記憶内容の一例について説明する。特徴情報管理テーブル400は、例えば、図3に示した情報処理装置100のメモリ302や記録媒体305などの記憶領域により実現される。
次に、図4を用いて、特徴情報管理テーブル400の記憶内容の一例について説明する。特徴情報管理テーブル400は、例えば、図3に示した情報処理装置100のメモリ302や記録媒体305などの記憶領域により実現される。
図4は、特徴情報管理テーブル400の記憶内容の一例を示す説明図である。図4に示すように、特徴情報管理テーブル400は、人物と、映像と、特徴情報とのフィールドを有する。特徴情報管理テーブル400は、人物ごとに各フィールドに情報を設定することにより、特徴情報管理情報がレコード400-aとして記憶される。aは、任意の整数である。
人物のフィールドには、人物を識別する識別情報が設定される。映像のフィールドには、上記人物が映った映像のサンプルを識別する識別情報が設定される。特徴情報のフィールドには、上記人物の歩容の特徴を表す特徴情報が設定される。特徴情報は、例えば、特徴ベクトルである。
(映像撮影装置201のハードウェア構成例)
次に、図5を用いて、映像撮影装置201のハードウェア構成例について説明する。
次に、図5を用いて、映像撮影装置201のハードウェア構成例について説明する。
図5は、映像撮影装置201のハードウェア構成例を示すブロック図である。図5において、映像撮影装置201は、CPU501と、メモリ502と、ネットワークI/F503と、記録媒体I/F504と、記録媒体505と、カメラ506とを有する。また、各構成部は、バス500によってそれぞれ接続される。
ここで、CPU501は、映像撮影装置201の全体の制御を司る。メモリ502は、例えば、ROM、RAMおよびフラッシュROMなどを有する。具体的には、例えば、フラッシュROMやROMが各種プログラムを記憶し、RAMがCPU501のワークエリアとして使用される。メモリ502に記憶されるプログラムは、CPU501にロードされることにより、コーディングされている処理をCPU501に実行させる。
ネットワークI/F503は、通信回線を通じてネットワーク210に接続され、ネットワーク210を介して他のコンピュータに接続される。そして、ネットワークI/F503は、ネットワーク210と内部のインターフェースを司り、他のコンピュータからのデータの入出力を制御する。ネットワークI/F503は、例えば、モデムやLANアダプタなどである。
記録媒体I/F504は、CPU501の制御に従って記録媒体505に対するデータのリード/ライトを制御する。記録媒体I/F504は、例えば、ディスクドライブ、SSD、USBポートなどである。記録媒体505は、記録媒体I/F504の制御で書き込まれたデータを記憶する不揮発メモリである。記録媒体505は、例えば、ディスク、半導体メモリ、USBメモリなどである。記録媒体505は、映像撮影装置201から着脱可能であってもよい。
カメラ506は、複数の撮像素子を有し、複数の撮像素子によって特定の領域を撮影した映像を生成する。カメラ506は、例えば、特定の領域に人物が存在すれば、当該人物が映った映像を生成することになる。カメラ506は、例えば、デジタルカメラである。カメラ506は、例えば、定点カメラである。カメラ506は、例えば、移動可能であってもよい。カメラ506は、例えば、監視カメラである。
映像撮影装置201は、上述した構成部の他、例えば、キーボード、マウス、ディスプレイ、プリンタ、スキャナ、マイク、スピーカーなどを有してもよい。また、映像撮影装置201は、記録媒体I/F504や記録媒体505を複数有していてもよい。また、映像撮影装置201は、記録媒体I/F504や記録媒体505を有していなくてもよい。
(クライアント装置202のハードウェア構成例)
クライアント装置202のハードウェア構成例は、具体的には、図3に示した情報処理装置100のハードウェア構成例と同様であるため、説明を省略する。
クライアント装置202のハードウェア構成例は、具体的には、図3に示した情報処理装置100のハードウェア構成例と同様であるため、説明を省略する。
(情報処理装置100の機能的構成例)
次に、図6を用いて、情報処理装置100の機能的構成例について説明する。
次に、図6を用いて、情報処理装置100の機能的構成例について説明する。
図6は、情報処理装置100の機能的構成例を示すブロック図である。情報処理装置100は、記憶部600と、取得部601と、第1検出部602と、第2検出部603と、特定部604と、照合部605と、出力部606とを含む。
記憶部600は、例えば、図3に示したメモリ302や記録媒体305などの記憶領域によって実現される。以下では、記憶部600が、情報処理装置100に含まれる場合について説明するが、これに限らない。例えば、記憶部600が、情報処理装置100とは異なる装置に含まれ、記憶部600の記憶内容が情報処理装置100から参照可能である場合があってもよい。
取得部601~出力部606は、制御部の一例として機能する。取得部601~出力部606は、具体的には、例えば、図3に示したメモリ302や記録媒体305などの記憶領域に記憶されたプログラムをCPU301に実行させることにより、または、ネットワークI/F303により、その機能を実現する。各機能部の処理結果は、例えば、図3に示したメモリ302や記録媒体305などの記憶領域に記憶される。
記憶部600は、各機能部の処理において参照され、または更新される各種情報を記憶する。記憶部600は、機械学習モデルを記憶する。機械学習モデルは、例えば、AIモデルなどである。機械学習モデルは、例えば、パターンマッチングによって実現されることが考えられる。機械学習モデルは、例えば、ニューラルネットワーク、数式、または、木構造などによって実現されることが考えられる。
記憶部600は、例えば、第1機械学習モデルを記憶する。第1機械学習モデルは、映像の入力に応じて、当該映像に映った人物が有する部位の位置を出力する機能を有する。部位は、例えば、首、頭、右肩、左肩、右肘、左肘、右手、左手、右膝、左膝、右足、または、左足などである。位置は、例えば、部位の骨格の位置である。位置は、具体的には、部位の骨格上の関節の位置である。位置は、例えば、部位のシルエットの位置であってもよい。第1機械学習モデルは、例えば、映像のフレームの入力に応じて、当該フレームにおける人物が有する部位の位置を出力する機能を有する。位置は、例えば、フレーム上のピクセル座標などによって表現される。ピクセル座標は、フレームの縦方向のピクセル単位の位置と、フレームの横方向のピクセル単位の位置とを示す。第1機械学習モデルは、例えば、AIモデルなどである。第1機械学習モデルは、例えば、ニューラルネットワーク、数式、または、木構造などによって実現されることが考えられる。記憶部600は、具体的には、第1機械学習モデルを規定するパラメータを記憶することにより、第1機械学習モデルを記憶する。第1機械学習モデルは、例えば、予め利用者によって設定される。第1機械学習モデルは、例えば、取得部601によって取得されてもよい。
記憶部600は、例えば、第2機械学習モデルを記憶する。第2機械学習モデルは、人物が有する部位の位置の入力に応じて、当該人物の歩容に関する特徴情報を出力する機能を有する。特徴情報は、例えば、特徴ベクトルである。第2機械学習モデルは、例えば、1以上のフレームにおける人物が有する部位の位置の入力に応じて、当該人物の歩容に関する特徴情報を出力する機能を有する。第2機械学習モデルは、例えば、AIモデルなどである。第2機械学習モデルは、例えば、ニューラルネットワーク、数式、または、木構造などによって実現されることが考えられる。位置は、例えば、映像上のピクセル座標などによって表現される。記憶部600は、具体的には、第2機械学習モデルを規定するパラメータを記憶することにより、第2機械学習モデルを記憶する。第2機械学習モデルは、例えば、予め利用者によって設定される。第2機械学習モデルは、例えば、取得部601によって取得されてもよい。
記憶部600は、例えば、第3機械学習モデルを記憶する。第3機械学習モデルは、例えば、映像の入力に応じて、当該映像に映った物体の位置を出力する機能を有する。物体は、例えば、人物とは異なる物体である。物体は、具体的には、人物が保持し得る物体である。物体は、具体的には、人物が手に持ち得る物体である。物体は、より具体的には、鞄、リュックサック、傘、上着、雑誌、書類束、工具、受話器、または、スマートフォンなどである。第3機械学習モデルは、例えば、映像のフレームの入力に応じて、当該フレームにおける物体の位置を出力する機能を有する。位置は、例えば、フレーム上のピクセル座標などによって表現される。ピクセル座標は、フレームの縦方向のピクセル単位の位置と、フレームの横方向のピクセル単位の位置とを示す。第3機械学習モデルは、例えば、AIモデルなどである。第3機械学習モデルは、例えば、パターンマッチングによって実現されることが考えられる。第3機械学習モデルは、例えば、ニューラルネットワーク、数式、または、木構造などによって実現されることが考えられる。記憶部600は、具体的には、第3機械学習モデルを規定するパラメータを記憶することにより、第3機械学習モデルを記憶する。第3機械学習モデルは、例えば、予め利用者によって設定される。第3機械学習モデルは、例えば、取得部601によって取得されてもよい。
記憶部600は、照合処理を実施可能にする参考情報を記憶する。記憶部600は、例えば、特定の人物に対応付けて、特定の人物の歩容に関する特徴を表す特徴情報を記憶する。特定の人物は、例えば、複数人存在していてもよい。特徴情報は、例えば、特徴ベクトルである。特徴情報は、例えば、第2機械学習モデルによって、特定の人物が映った参考の映像に基づいて生成される。参考の映像は、例えば、対象の人物の照合処理に用いられる標本の映像である。参考の映像は、例えば、特定の人物の歩容が映った映像である。参考の映像は、具体的には、通常の状態の特定の人物の歩容が映った映像である。通常の状態は、例えば、対象の人物が自然体の状態である。通常の状態は、例えば、対象の人物が無手の状態である。特徴情報は、例えば、取得部601によって取得される。特徴情報は、例えば、特定部604によって生成されてもよい。記憶部600は、具体的には、図4に示した特徴情報管理テーブル400を記憶する。
取得部601は、各機能部の処理に用いられる各種情報を取得する。取得部601は、取得した各種情報を、記憶部600に記憶し、または、各機能部に出力する。また、取得部601は、記憶部600に記憶しておいた各種情報を、各機能部に出力してもよい。取得部601は、例えば、利用者の操作入力に基づき、各種情報を取得する。取得部601は、例えば、情報処理装置100とは異なる装置から、各種情報を受信してもよい。
取得部601は、例えば、機械学習モデルを取得する。取得部601は、具体的には、第1機械学習モデルを取得する。取得部601は、より具体的には、利用者の操作入力に基づき、第1機械学習モデルを規定するパラメータの入力を受け付けることにより、第1機械学習モデルを取得する。取得部601は、より具体的には、他のコンピュータから、第1機械学習モデルを規定するパラメータを受信することにより、第1機械学習モデルを取得してもよい。
取得部601は、具体的には、第2機械学習モデルを取得する。取得部601は、より具体的には、利用者の操作入力に基づき、第2機械学習モデルを規定するパラメータの入力を受け付けることにより、第2機械学習モデルを取得する。取得部601は、より具体的には、他のコンピュータから、第2機械学習モデルを規定するパラメータを受信することにより、第2機械学習モデルを取得してもよい。
取得部601は、具体的には、第3機械学習モデルを取得する。取得部601は、より具体的には、利用者の操作入力に基づき、第3機械学習モデルを規定するパラメータの入力を受け付けることにより、第3機械学習モデルを取得する。取得部601は、より具体的には、他のコンピュータから、第3機械学習モデルを規定するパラメータを受信することにより、第3機械学習モデルを取得してもよい。
取得部601は、例えば、人物が映った複数のフレームを含む映像を取得する。取得部601は、具体的には、対象の人物が映った複数のフレームを含む対象の映像を取得する。取得部601は、より具体的には、他のコンピュータから、対象の人物が映った複数のフレームを含む対象の映像を受信することにより、対象の人物が映った複数のフレームを含む対象の映像を取得する。取得部601は、より具体的には、利用者の操作入力に基づき、対象の人物が映った複数のフレームを含む対象の映像の入力を受け付けることにより、対象の人物が映った複数のフレームを含む対象の映像を取得してもよい。
取得部601は、具体的には、対象の人物となり得る複数の人物が映った複数のフレームを含む対象の映像を取得してもよい。取得部601は、より具体的には、他のコンピュータから、複数の人物が映った複数のフレームを含む対象の映像を受信することにより、複数の人物が映った複数のフレームを含む対象の映像を取得する。取得部601は、より具体的には、利用者の操作入力に基づき、複数の人物が映った複数のフレームを含む対象の映像の入力を受け付けることにより、複数の人物が映った複数のフレームを含む対象の映像を取得してもよい。
取得部601は、具体的には、複数の人物が映った複数のフレームを含む対象の映像を取得した後、当該対象の映像に映った複数の人物のうち対象の人物の指定を受け付けてもよい。取得部601は、より具体的には、他のコンピュータから、対象の映像に映った複数の人物のうち対象の人物を指定する情報を受信することにより、対象の人物の指定を受け付けてもよい。取得部601は、より具体的には、利用者の操作入力に基づき、対象の人物の指定を受け付けてもよい。
取得部601は、具体的には、特定の人物が映った複数のフレームを含む参考の映像を取得してもよい。取得部601は、具体的には、特定の人物の歩容に関する特徴を表す特徴情報を自装置で生成する場合、特徴情報を生成する際に用いられる特定の人物が映った複数のフレームを含む参考の映像を取得する。取得部601は、より具体的には、他のコンピュータから、特定の人物が映った複数のフレームを含む参考の映像を受信することにより、特定の人物が映った複数のフレームを含む参考の映像を取得してもよい。取得部601は、より具体的には、利用者の操作入力に基づき、特定の人物が映った複数のフレームを含む参考の映像の入力を受け付けることにより、特定の人物が映った複数のフレームを含む参考の映像を取得してもよい。
取得部601は、具体的には、特定の人物となり得る複数の人物が映った複数のフレームを含む参考の映像を取得してもよい。取得部601は、より具体的には、他のコンピュータから、複数の人物が映った複数のフレームを含む参考の映像を受信することにより、複数の人物が映った複数のフレームを含む参考の映像を取得してもよい。取得部601は、より具体的には、利用者の操作入力に基づき、複数の人物が映った複数のフレームを含む参考の映像の入力を受け付けることにより、複数の人物が映った複数のフレームを含む参考の映像を取得してもよい。
取得部601は、具体的には、複数の人物が映った複数のフレームを含む参考の映像を取得した後、当該参考の映像に映った複数の人物のうち特定の人物の指定を受け付けてもよい。取得部601は、より具体的には、他のコンピュータから、参考の映像に映った複数の人物のうち特定の人物を指定する情報を受信することにより、特定の人物の指定を受け付けてもよい。取得部601は、より具体的には、利用者の操作入力に基づき、特定の人物の指定を受け付けてもよい。
取得部601は、例えば、照合処理の際に、部位との位置関係を参照する物体の種類を取得してもよい。取得部601は、具体的には、利用者の操作入力に基づき、物体の種類の指定を受け付けることにより、物体の種類を取得してもよい。取得部601は、具体的には、他のコンピュータから、物体の種類を指定する情報を受信することにより、物体の種類を取得してもよい。
取得部601は、いずれかの機能部の処理を開始する開始トリガーを受け付けてもよい。開始トリガーは、例えば、利用者による所定の操作入力があったことである。開始トリガーは、例えば、他のコンピュータから、所定の情報を受信したことであってもよい。開始トリガーは、例えば、いずれかの機能部が所定の情報を出力したことであってもよい。取得部601は、例えば、対象の映像を取得したことを、第1検出部602と、第2検出部603と、特定部604と、照合部605との処理を開始する開始トリガーとして受け付けてもよい。
第1検出部602は、映像上の人物が有する部位の位置を検出する。第1検出部602は、例えば、取得部601で取得した対象の映像に基づいて、対象の映像上の対象の人物が有する複数の部位のそれぞれの部位の位置を検出する。第1検出部602は、例えば、取得部601で取得した対象の映像に基づいて、対象の映像の各フレームにおける対象の人物が有する複数の部位のそれぞれの部位の位置を検出する。第1検出部602は、具体的には、対象の映像の各フレームについて、第1機械学習モデルに、当該フレームを入力することにより、当該フレームにおける対象の人物が有する複数の部位のそれぞれの部位の位置を検出する。これにより、第1検出部602は、複数のフレームのうち、照合処理の際にノイズとなり得るフレームを特定する手掛かりとなる情報を得ることができる。また、第1検出部602は、対象の人物の歩容に関する特徴を解析可能にすることができ、照合処理を実施する際に参照する情報を生成可能にすることができる。
第1検出部602は、例えば、取得部601で取得した参考の映像に基づいて、参考の映像上の特定の人物が有する複数の部位のそれぞれの部位の位置を検出してもよい。第1検出部602は、例えば、取得部601で取得した参考の映像に基づいて、参考の映像の各フレームにおける特定の人物が有する複数の部位のそれぞれの部位の位置を検出してもよい。第1検出部602は、具体的には、参考の映像の各フレームについて、第1機械学習モデルに、当該フレームを入力することにより、当該フレームにおける特定の人物が有する複数の部位のそれぞれの部位の位置を検出する。これにより、第1検出部602は、特定の人物の歩容に関する特徴を解析可能にすることができ、照合処理を実施する際に参照する情報を生成可能にすることができる。
第2検出部603は、映像上の物体の位置を検出する。第2検出部603は、例えば、取得部601で取得した対象の映像に基づいて、対象の映像上の物体の位置を検出する。物体は、例えば、対象の人物とは異なる物体である。物体は、例えば、指定を受け付けた種類の物体である。物体は、例えば、予め設定された種類の物体である。第2検出部603は、例えば、取得部601で取得した対象の映像に基づいて、対象の映像の各フレームにおける物体の位置を検出する。第2検出部603は、具体的には、対象の映像の各フレームについて、第3機械学習モデルに、当該フレームを入力することにより、当該フレームにおける物体の位置を検出する。これにより、第2検出部603は、対象の人物の歩容に影響を与え得る物体を検出することができ、複数のフレームのうち、照合処理の際にノイズとなり得るフレームを特定する手掛かりとなる情報を得ることができる。
特定部604は、検出した物体の位置と、対象の映像上の対象の人物が有する複数の部位の少なくともいずれかの部位の位置との位置関係に基づいて、1以上のフレームを特定する。いずれかの部位は、例えば、手の部位である。いずれかの部位は、例えば、右手または左手の部位である。特定部604は、物体の位置と、いずれかの部位の位置との位置関係に基づいて、複数のフレームのうち、物体の動き方といずれかの部位の動き方とに相関関係が現れるフレームを含まない1以上のフレームを特定する。
特定部604は、例えば、各フレームにおける、検出した物体の位置と、いずれかの部位の位置との類似度に基づいて、物体の動き方といずれかの部位の動き方とに相関関係が現れるフレームを含まない1以上のフレームを特定する。類似度は、例えば、位置間の距離の逆数などである。特定部604は、具体的には、あるフレームにおける、検出した物体の位置と、いずれかの部位の位置との類似度が閾値以上であれば、当該フレームが、物体の動き方といずれかの部位の動き方とに相関関係が現れるフレームであると判定する。特定部604は、具体的には、あるフレームにおける、検出した物体の位置と、いずれかの部位の位置との類似度が閾値未満であれば、当該フレームが、物体の動き方といずれかの部位の動き方とに相関関係が現れるフレームではないと判定する。
特定部604は、より具体的には、あるフレームにおける、検出した物体の位置と、右手の部位の位置との類似度が閾値以上であれば、当該右手の部位が、当該物体と動き方に相関関係を有する部位であると判定する。このため、特定部604は、より具体的には、あるフレームにおける、検出した物体の位置と、右手の部位の位置との類似度が閾値以上であれば、当該フレームが、物体の動き方といずれかの部位の動き方とに相関関係が現れるフレームであると判定する。
特定部604は、より具体的には、あるフレームにおける、検出した物体の位置と、右手の部位の位置との類似度が閾値未満であれば、当該右手の部位が、当該物体と動き方に相関関係を有する部位ではないと判定する。このため、特定部604は、より具体的には、あるフレームにおける、検出した物体の位置と、右手の部位の位置との類似度が閾値未満であれば、当該フレームが、物体の動き方といずれかの部位の動き方とに相関関係が現れるフレームではないと判定する。
特定部604は、具体的には、複数のフレームのうち、物体の動き方といずれかの部位の動き方とに相関関係が現れるフレームを含まない1以上のフレームを特定する。特定部604は、具体的には、複数のフレームのうち、物体の動き方といずれかの部位の動き方とに相関関係が現れるフレームを含まない、連続する所定数のフレームを特定してもよい。所定数は、予め利用者によって設定される。所定数は、例えば、歩容の特徴を表す特徴情報を算出可能にする、または、歩容の特徴を表す特徴情報の生成精度を担保可能にするためのフレームの数である。これにより、特定部604は、複数のフレームのうち、照合処理の際にノイズとなり得るフレームを特定することができる。特定部604は、所定数のフレームを特定することにより、歩容の特徴を表す特徴情報の生成精度を担保し易くすることができる。
特定部604は、例えば、検出した物体の位置と、対象の映像上の手の部位の位置との位置関係に基づいて、複数のフレームのうち、物体の動き方と手の部位の動き方とに相関関係が現れるフレームを含まない1以上のフレームを特定する。換言すれば、特定部604は、例えば、検出した物体の位置と、対象の映像上の手の部位の位置との位置関係に基づいて、複数のフレームのうち、対象の人物が、当該物体を所持すると判断したフレームを含まない1以上のフレームを特定する。
特定部604は、具体的には、各フレームにおける、検出した物体の位置と、手の部位の位置との類似度に基づいて、対象の人物が、当該物体を所持するか否かを判断する。類似度は、例えば、位置間の距離の逆数などである。特定部604は、具体的には、あるフレームにおいて、対象の人物が、物体を所持すると判断した場合、当該フレームが、物体の動き方といずれかの部位の動き方とに相関関係が現れるフレームであると判定する。特定部604は、具体的には、あるフレームにおいて、対象の人物が、物体を所持しないと判断した場合、当該フレームが、物体の動き方といずれかの部位の動き方とに相関関係が現れるフレームではないと判定する。
特定部604は、より具体的には、あるフレームにおいて、検出した物体の位置と、手の部位の位置との類似度が閾値以上であれば、対象の人物が、当該物体を所持すると判断する。特定部604は、より具体的には、あるフレームにおいて、対象の人物が、当該物体を所持すると判断すれば、当該フレームが、物体の動き方といずれかの部位の動き方とに相関関係が現れるフレームであると判定する。
特定部604は、より具体的には、あるフレームにおいて、検出した物体の位置と、手の部位の位置との類似度が閾値未満であれば、対象の人物が、当該物体を所持しないと判断する。特定部604は、より具体的には、あるフレームにおいて、対象の人物が、当該物体を所持しないと判断すれば、当該フレームが、物体の動き方といずれかの部位の動き方とに相関関係が現れるフレームではないと判定する。
特定部604は、具体的には、複数のフレームのうち、物体の動き方といずれかの部位の動き方とに相関関係が現れるフレームを含まない1以上のフレームを特定する。特定部604は、具体的には、複数のフレームのうち、物体の動き方といずれかの部位の動き方とに相関関係が現れるフレームを含まない、連続する所定数のフレームを特定してもよい。これにより、特定部604は、あるフレームにおいて、物体に起因し、手の部位の位置が、対象の人物の通常の歩容における手の部位の位置とは異なることを検出することができ、当該フレームが、照合処理の際にノイズとなり得ることを検出することができる。このため、特定部604は、複数のフレームのうち、照合処理の際にノイズとなり得るフレームを特定することができる。
特定部604は、例えば、検出した物体の位置の時系列と、複数の部位の少なくともいずれかの部位の位置の時系列との位置関係に基づいて、複数のフレームのうち、1以上のフレームを特定する。特定部604は、例えば、物体の位置の時系列と、いずれかの部位の位置の時系列との位置関係に基づいて、複数のフレームのうち、物体の動き方といずれかの部位の動き方とに相関関係が現れるフレームを含まない1以上のフレームを特定する。
特定部604は、具体的には、検出した物体の位置の時系列の統計的な特徴と、いずれかの部位の位置の時系列の統計的な特徴との類似度を算出する。特定部604は、具体的には、算出した類似度に基づいて、複数のフレームのうち、物体の動き方といずれかの部位の動き方とに相関関係が現れるフレームを含まない1以上のフレームを特定する。類似度は、例えば、時系列を示す軌跡間の距離の逆数などである。類似度は、例えば、時系列に関する分散間の差分の逆数などである。
特定部604は、より具体的には、連続する2以上のフレームの組み合わせごとに、当該組み合わせにおける、検出した物体の位置の時系列の統計的な特徴と、いずれかの部位の位置の時系列の統計的な特徴との類似度を算出する。特定部604は、より具体的には、ある組み合わせについて、算出した類似度が閾値以上であれば、当該組み合わせの2以上のフレームが、物体の動き方といずれかの部位の動き方とに相関関係が現れるフレームであると判定する。特定部604は、より具体的には、ある組み合わせについて、算出した類似度が閾値未満であれば、当該組み合わせの2以上のフレームが、物体の動き方といずれかの部位の動き方とに相関関係が現れるフレームではないと判定する。
特定部604は、具体的には、複数のフレームのうち、物体の動き方といずれかの部位の動き方とに相関関係が現れるフレームを含まない1以上のフレームを特定する。特定部604は、具体的には、複数のフレームのうち、物体の動き方といずれかの部位の動き方とに相関関係が現れるフレームを含まない、連続する所定数のフレームを特定してもよい。これにより、特定部604は、いずれかの部位の位置の時系列と、物体の位置の時系列とを考慮し、当該いずれかの部位の位置が、対象の人物の通常の歩容における手の部位の位置とは異なることを精度よく検出し易くすることができる。このため、特定部604は、複数のフレームのうち、照合処理の際にノイズとなり得るフレームを精度よく特定し易くすることができる。
特定部604は、例えば、対象の映像上の基準の位置に対する、複数の部位の少なくともいずれかの部位の位置の相対的な座標の分散を算出してもよい。基準の位置は、例えば、対象の映像上の対象の人物が有する特定の部位の位置である。特定の部位は、例えば、腰または頭の部位などである。基準の位置は、例えば、対象の映像上の特定の物体の位置などであってもよい。分散は、例えば、x軸方向の分散と、Y軸方向の分散とである。x軸は、映像上の一方の軸である。y軸は、x軸と交差する映像上の他方の軸である。分散は、例えば、標準偏差であってもよい。特定部604は、例えば、連続する2以上のフレームの組み合わせごとに、当該組み合わせにおける、基準の位置に対する、複数の部位の少なくともいずれかの部位の位置の相対的な座標の分散を算出してもよい。
特定部604は、例えば、検出した物体の位置と、いずれかの部位の位置との位置関係、および、算出した分散に基づいて、物体の動き方といずれかの部位の動き方とに相関関係が現れるフレームを含まない1以上のフレームを特定してもよい。特定部604は、具体的には、検出した物体の位置と、いずれかの部位の位置との類似度、および、算出した分散に基づいて、複数のフレームのうち、物体の動き方といずれかの部位の動き方とに相関関係が現れるフレームを含まない1以上のフレームを特定する。類似度は、例えば、位置間の距離の逆数などである。
特定部604は、より具体的には、連続する2以上のフレームの組み合わせごとに、当該組み合わせにおける、検出した物体の位置の時系列の統計的な特徴と、いずれかの部位の位置の時系列の統計的な特徴との類似度を算出する。特定部604は、より具体的には、ある組み合わせについて、算出した類似度が第1閾値以上であるか否かを判定する。特定部604は、より具体的には、ある組み合わせについて、算出した類似度が閾値未満であれば、当該組み合わせの2以上のフレームが、物体の動き方といずれかの部位の動き方とに相関関係が現れるフレームではないと判定する。
特定部604は、より具体的には、ある組み合わせについて、算出した類似度が第1閾値以上であれば、さらに、当該組み合わせについて、算出した分散が第2閾値以上であるか否かを判定する。特定部604は、より具体的には、ある組み合わせについて、類似度が第1閾値以上、かつ、分散が第2閾値未満であれば、当該組み合わせの2以上のフレームが、物体の動き方といずれかの部位の動き方とに相関関係が現れるフレームであると判定する。
特定部604は、より具体的には、各フレームにおける、検出した物体の位置と、対象の映像上の手の部位の位置との類似度を算出してもよい。特定部604は、より具体的には、各フレームにおける、検出した物体の位置と、対象の映像上の手の部位の位置との類似度が、第1閾値以上であるか否かを判定する。特定部604は、より具体的には、対象の映像全体について、算出した分散が、第2の閾値以上であるか否かを判定する。
特定部604は、より具体的には、あるフレームにおいて、類似度が第1閾値以上であり、かつ、分散が第2閾値未満である場合、当該フレームが、物体の動き方といずれかの部位の動き方とに相関関係が現れるフレームであると判定する。特定部604は、より具体的には、あるフレームにおいて、類似度が第1閾値未満、または、分散が第2閾値以上である場合、当該フレームが、物体の動き方といずれかの部位の動き方とに相関関係が現れるフレームではないと判定する。
特定部604は、具体的には、複数のフレームのうち、物体の動き方といずれかの部位の動き方とに相関関係が現れるフレームを含まない1以上のフレームを特定する。特定部604は、具体的には、複数のフレームのうち、物体の動き方といずれかの部位の動き方とに相関関係が現れるフレームを含まない、連続する所定数のフレームを特定してもよい。これにより、特定部604は、いずれかの部位の位置の分散を考慮し、当該いずれかの部位の位置が、対象の人物の通常の歩容における手の部位の位置とは異なることを精度よく検出し易くすることができる。このため、特定部604は、複数のフレームのうち、照合処理の際にノイズとなり得るフレームを精度よく特定し易くすることができる。
照合部605は、対象の人物の照合処理を実施する。照合処理は、例えば、対象の人物が、特定の人物と一致するか否かを判定することである。照合部605は、例えば、特定した1以上のフレームに基づいて、対象の人物の照合処理を実施する。照合部605は、具体的には、特定した1以上のフレームにおける、複数の部位の位置の時間変化に関する特徴に基づいて、対象の人物の照合処理を実施する。
照合部605は、より具体的には、第2機械学習モデルに、特定した1以上のフレーム上の対象の人物が有する複数の部位の位置を入力することにより、対象の人物の歩容に関する第1特徴情報を生成する。照合部605は、より具体的には、生成した第1特徴情報に基づいて、対象の人物の照合処理を実施する。
照合部605は、より具体的には、記憶部600を参照して、特定の人物の歩容に関する第2特徴情報を読み出す。照合部605は、より具体的には、生成した第1特徴情報と、読み出した第2特徴情報との類似度に基づいて、対象の人物の照合処理を実施する。類似度は、特徴情報間の差分の大きさを示す指標値である。照合部605は、さらに具体的には、生成した第1特徴情報と、読み出した第2特徴情報との類似度が、閾値以上であれば、対象の人物が、特定の人物と一致すると判定する。照合部605は、さらに具体的には、生成した第1特徴情報と、読み出した第2特徴情報との類似度が、閾値未満であれば、対象の人物が、特定の人物と一致しないと判定する。これにより、照合部605は、照合処理を精度よく実施することができる。
照合部605は、特定した1以上のフレームにおける、対象の人物が有する複数の部位のシルエットに関する特徴に基づいて、対象の人物の照合処理を実施してもよい。部位のシルエットは、例えば、セグメンテーションと呼ばれる認識手法によって認識することができる。照合部605は、例えば、1以上のフレームにおける対象の人物が有する複数の部位のシルエットに関する第1周波数領域特徴と、特定の人物が有する複数の部位のシルエットに関する第2周波数領域特徴とを生成する。照合部605は、例えば、第1周波数領域特徴と、第2周波数領域特徴とを比較した結果に基づいて、対象の人物の照合処理を実施する。これにより、照合部605は、照合処理を精度よく実施することができる。
照合部605は、参考の映像上の特定の人物が有する複数の部位の位置に基づいて、特定の人物の歩容に関する特徴情報を生成する。照合部605は、例えば、第2機械学習モデルに、参考の映像の各フレームにおける特定の人物が有する複数の部位の位置を入力することにより、特定の人物の歩容に関する特徴情報を生成する。これにより、照合部605は、特定の人物の歩容に関する特徴を解析することができ、照合処理を実施する際に参照する情報を生成することができる。照合部605は、予め、照合処理を実施する際に参照する情報を生成し、記憶部600に記憶しておくことができる。
出力部606は、少なくともいずれかの機能部の処理結果を出力する。出力形式は、例えば、ディスプレイへの表示、プリンタへの印刷出力、ネットワークI/F303による外部装置への送信、または、メモリ302や記録媒体305の記憶領域への記憶などである。これにより、出力部606は、少なくともいずれかの機能部の処理結果を利用者に通知可能にし、情報処理装置100の利便性の向上を図ることができる。
出力部606は、照合処理の処理結果を出力する。出力部606は、例えば、照合処理の処理結果を、クライアント装置202に送信する。出力部606は、例えば、照合処理の処理結果を、利用者が参照可能に出力する。出力部606は、具体的には、照合処理の処理結果を、利用者が参照可能にディスプレイ306に表示する。これにより、出力部606は、照合処理の処理結果を利用可能にすることができる。
ここでは、情報処理装置100が、取得部601と、第1検出部602と、第2検出部603と、特定部604と、照合部605と、出力部606とを含む場合について説明したが、これに限らない。例えば、情報処理装置100が、いずれかの機能部を含まず、当該機能部を含む他のコンピュータと通信可能である場合があってもよい。
具体的には、情報処理装置100が、第1検出部602を含まない場合が考えられる。この場合、取得部601が、第1検出部602を含む他のコンピュータから、映像の各フレームにおける人物が有する部位の位置を示す情報を受信することにより、当該映像の各フレームにおける当該人物が有する当該部位の位置を検出することが考えられる。
具体的には、情報処理装置100が、第2検出部603を含まない場合が考えられる。この場合、取得部601が、第2検出部603を含む他のコンピュータから、映像の各フレームにおける物体の位置を示す情報を受信することにより、当該映像の各フレームにおける当該物体の位置を検出することが考えられる。
(情報処理装置100の動作の流れ)
次に、図7を用いて、情報処理装置100の動作の流れについて説明する。
次に、図7を用いて、情報処理装置100の動作の流れについて説明する。
図7は、情報処理装置100の動作の流れを示す説明図である。図7において、(7-1)情報処理装置100は、対象の人物が映った映像700を取得する。映像700は、例えば、対象の人物が映った複数のフレームを含む。映像700は、例えば、複数の人物が映った全体の映像の各フレームから、対象の人物701が映った一定の大きさの領域を、新たなフレームとして切り出すことにより形成されていてもよい。映像700は、具体的には、切り出された新たな複数のフレームを時系列順に含む。
(7-2)情報処理装置100は、映像700に基づいて、映像700の各フレームにおける、対象の人物701が有する複数の部位のそれぞれの部位の位置を検出する。部位は、例えば、鼻、左目、右目、左耳、右耳、左肩、右肩、左肘、右肘、左手首、右手首、左腰、右腰、左膝、右膝、左足首、および、右足首などである。部位の位置は、例えば、ピクセル座標によって表現される。情報処理装置100は、例えば、検出した位置に基づいて、映像700の各フレームにおける、対象の人物701が有する複数の部位のそれぞれの部位の位置を示す骨格情報710を生成する。
(7-3)情報処理装置100は、基準の位置に対する右手首の部位の位置の相対的な座標の分散を算出する。基準の位置は、例えば、対象の人物701が有する腰の部位の位置である。腰の部位の位置は、例えば、右腰の部位の位置である。腰の部位の位置は、例えば、左腰の部位の位置であってもよい。腰の部位の位置は、例えば、右腰および左腰の部位の位置の中心の位置であってもよい。情報処理装置100は、例えば、映像700全体における、基準の位置に対する右手首の部位の位置の相対的な座標の分散を算出する。
(7-4)情報処理装置100は、映像700に基づいて、映像700の各フレームにおける、対象の人物701の所持品となり得る特定の物体702の位置を検出する。特定の物体702は、スマートフォンなどである。図7の例では、情報処理装置100は、映像700に基づいて、映像700の各フレームにおける、スマートフォンの位置を検出する。
(7-5)情報処理装置100は、算出した分散が第1閾値以上であるか否かを判定する。情報処理装置100は、算出した分散が第1閾値以上であれば、映像700上の対象の人物701の右手首の部位の位置に対する、特定の物体702に起因する影響が比較的小さいと判断する。このため、情報処理装置100は、算出した分散が第1閾値以上であれば、映像700の各フレームは、照合処理の際にノイズとなり得るフレームではないと判定する。
情報処理装置100は、算出した分散が第1閾値未満であれば、映像700の各フレームにおける、対象の人物701の右手首の部位の位置と、特定の物体702の位置との類似度を算出する。類似度は、例えば、映像700の各フレームにおける、対象の人物701の右手首の部位の位置と、特定の物体702の位置との差分に基づいて算出される。類似度は、例えば、差分の逆数である。
情報処理装置100は、映像700の各フレームについて、算出した類似度が第2閾値以上であるか否かを判定する。情報処理装置100は、あるフレームについて、算出した類似度が第2閾値未満であれば、映像700上の対象の人物701の右手首の部位の位置に対する、特定の物体702に起因する影響が比較的小さいと判断する。このため、情報処理装置100は、あるフレームについて、算出した類似度が第2閾値未満であれば、当該フレームが、照合処理の際にノイズとなり得るフレームではないと判定する。
情報処理装置100は、あるフレームについて、算出した類似度が第2閾値以上であれば、対象の人物701が、特定の物体702を所持する確率が比較的高いと判断する。このため、情報処理装置100は、あるフレームについて、算出した類似度が第2閾値以上であれば、映像700上の対象の人物701の右手首の部位の位置に対する、特定の物体702に起因する影響が比較的大きいと判断する。従って、情報処理装置100は、あるフレームについて、算出した類似度が第2閾値以上であれば、当該フレームが、照合処理の際にノイズとなり得るフレームであると判断し、除外対象に設定する。
(7-6)情報処理装置100は、映像700のうち、除外対象のフレームを除いた1以上のフレームを、照合処理の処理対象に設定する。情報処理装置100は、例えば、映像700のうち、除外対象のフレームを除いた連続する所定数のフレームを、照合処理の処理対象に設定してもよい。所定数は、例えば、予め利用者によって設定される。
(7-7)情報処理装置100は、処理対象に設定した1以上のフレームに基づいて、対象の人物701の歩容に関する第1特徴情報を生成する。情報処理装置100は、生成した対象の人物701の歩容に関する第1特徴情報と、特定の人物の歩容に関する第2特徴情報とを比較することにより、対象の人物701が、特定の人物に合致するか否かを判定する照合処理を実施する。これにより、情報処理装置100は、照合処理を精度よく実施することができる。
ここでは、情報処理装置100が、映像700全体における、基準の位置に対する右手首の部位の位置の相対的な座標の分散を算出する場合について説明したが、これに限らない。例えば、情報処理装置100が、映像700の各フレームについて、当該フレームを含む連続した2以上のフレームにおける、基準の位置に対する右手首の部位の位置の相対的な座標の分散を算出する場合があってもよい。
具体的には、情報処理装置100が、映像700の各フレームについて、当該フレーム以降の連続する2以上のフレームにおける、基準の位置に対する右手首の部位の位置の相対的な座標の分散を算出することが考えられる。また、具体的には、情報処理装置100が、映像700の各フレームについて、当該フレーム以前の連続する2以上のフレームにおける、基準の位置に対する右手首の部位の位置の相対的な座標の分散を算出することが考えられる。また、具体的には、情報処理装置100が、映像700の各フレームについて、当該フレーム前後の連続する2以上のフレームにおける、基準の位置に対する右手首の部位の位置の相対的な座標の分散を算出することが考えられる。
この場合、情報処理装置100は、映像700の各フレームについて、当該フレームを含む連続した2以上のフレームにおける、対象の人物701の右手首の部位の位置と、特定の物体702の位置との類似度を算出してもよい。情報処理装置100は、映像700の各フレームについて、算出した分散が第1閾値以上であるか否か、および、算出した類似度が第2閾値以上であるか否かを判定する。これにより、情報処理装置100は、映像700の各フレームが、照合処理の際にノイズとなり得るフレームであるか否かを判定することができる。情報処理装置100は、例えば、映像700の各フレームについて個別に分散を算出するため、映像700の各フレームが、照合処理の際にノイズとなり得るフレームであるか否かを精度よく判定し易くすることができる。
(情報処理装置100の動作の一例)
次に、図8~図15を用いて、情報処理装置100の動作の一例について説明する。まず、図8~図10を用いて、情報処理装置100が、人物が有する複数の部位のそれぞれの部位の位置を示す骨格情報を取得し、骨格情報に基づいて、照合処理に用いられる機械学習モデルを学習する一例について説明する。機械学習モデルは、例えば、DNN(Deep Neural Network)である。DNNは、例えば、GaitGraphを適用することができる。
次に、図8~図15を用いて、情報処理装置100の動作の一例について説明する。まず、図8~図10を用いて、情報処理装置100が、人物が有する複数の部位のそれぞれの部位の位置を示す骨格情報を取得し、骨格情報に基づいて、照合処理に用いられる機械学習モデルを学習する一例について説明する。機械学習モデルは、例えば、DNN(Deep Neural Network)である。DNNは、例えば、GaitGraphを適用することができる。
図8および図9は、骨格情報を取得する一例を示す説明図である。図8において、情報処理装置100は、人物が映った参考の映像の各フレームにおける、人物が有する17点の部位のそれぞれの部位の位置を示す骨格情報を取得する。17点の部位と、部位間の接続関係は、グラフ800に示される。
骨格情報は、例えば、映像の各フレームに対応付けて、当該フレームにおける人物が有する17点の部位のそれぞれの部位の位置を示す座標情報管理テーブル810を含む。図8に示すように、座標情報管理テーブル810は、番号と、xと、yとのフィールドを有する。座標情報管理テーブル810は、部位ごとに各フィールドに情報を設定することにより、座標情報がレコードとして記憶される。
番号のフィールドには、人物の部位を識別する番号が設定される。xのフィールドには、フレーム上の上記人物の部位の位置を示す座標のx軸成分が設定される。x軸成分の単位は、例えば、ピクセルである。yのフィールドには、フレーム上の上記人物の部位の位置を示す座標のy軸成分が設定される。y軸成分の単位は、例えば、ピクセルである。次に、図9の説明に移行する。
図9に示すように、情報処理装置100は、部位間の接続関係を示す表900を記憶する。表900は、例えば、異なるフレームに対して共通である。表900は、例えば、異なる人物に対して共通であってもよい。表900において、行番号および列番号は、部位の番号に対応する。行番号と列番号との組み合わせが、部位の組み合わせを示す。部位の組み合わせが接続されていれば、当該部位の組み合わせに対応する行番号と列番号との組み合わせに対応する要素に、フラグ情報=1が設定される。部位の組み合わせが接続されていなければ、当該部位の組み合わせに対応する行番号と列番号との組み合わせに対応する要素に、フラグ情報=0が設定される。次に、図10の説明に移行する。
図10は、機械学習モデルを学習する一例を示す説明図である。図10において、情報処理装置100は、取得した骨格情報1000を用いて、全身骨格用DNNを学習する。全身骨格用DNNは、1以上のフレームにおける、人物が有する全身の17点の部位の位置に応じて、当該人物の歩容に関する特徴ベクトルを出力する機能を有する。これにより、情報処理装置100は、人物の歩容に関する特徴ベクトルを算出可能にすることができる。
次に、図11を用いて、情報処理装置100が、取得した映像に映った人物を検出する一例について説明する。人物は、照合処理の対象となり得る。
図11は、人物を検出する一例を示す説明図である。図11において、情報処理装置100は、映像を取得する。情報処理装置100は、取得した映像の各フレームに映った人物を検出する。人物の検出は、例えば、Yoloと呼ばれる検出技術、および、DeepSORTと呼ばれる追跡技術などを適用することができる。情報処理装置100は、例えば、服装などに基づいて同一の人物と認識した、取得した映像の各フレームに映った人物に、同一の人物IDを割り振る。
情報処理装置100は、検出したいずれかの人物1101を、対象の人物に設定する。情報処理装置100は、例えば、人物ID01の人物1101を、対象の人物に設定する。情報処理装置100は、取得した映像の各フレームから、設定した対象の人物が映った一定の大きさの領域を切り出して新たなフレームとして採用し、採用した新たなフレームを時系列に並べたフレーム群1100を生成する。これにより、情報処理装置100は、映像に映ったいずれかの人物に着目して照合処理を実施可能にすることができる。
次に、図12を用いて、情報処理装置100が、フレーム群1100の各フレームに映った所持品を検出する一例について説明する。
図12は、所持品を検出する一例を示す説明図である。図12において、情報処理装置100は、フレーム群1100の各フレームに映った所持品となり得る物体を検出し、当該物体の位置を検出する。物体の検出は、例えば、Yoloと呼ばれる検出技術、および、DeepSORTと呼ばれる追跡技術などを適用することができる。情報処理装置100は、検出した物体を、所持品の候補に設定する。図12の例では、情報処理装置100は、スマートフォン1201、および、バッグ1202を検出したとする。
これにより、情報処理装置100は、対象の人物の歩容に影響を与え得る所持品の候補を検出することができる。情報処理装置100は、対象の人物の部位の位置の動き方と、所持品の候補の位置の動き方とに相関関係があるか否かを判定可能にすることができる。このため、情報処理装置100は、照合処理の際にノイズとなり得るフレームを特定可能にすることができる。
次に、図13を用いて、情報処理装置100が、除外対象とするフレームを特定する一例について説明する。
図13は、除外対象とするフレームを特定する一例を示す説明図である。図13において、情報処理装置100は、フレーム群1100の各フレームにおける、対象の人物が有する複数の部位のそれぞれの部位の位置を検出し、骨格情報1300を生成する。情報処理装置100は、例えば、フレーム群1100の各フレームに映った対象の人物のサイズに応じて正規化した、複数の部位のそれぞれの部位の位置を検出し、骨格情報1300を生成してもよい。
情報処理装置100は、具体的には、フレームの入力に応じて、フレーム上の人物が有する複数の部位のそれぞれの部位の位置を出力する機械学習モデルを記憶する。情報処理装置100は、具体的には、フレーム群1100の各フレームを、機械学習モデルに入力することにより、フレーム群1100の各フレームにおける、対象の人物が有する複数の部位のそれぞれの部位の位置を検出する。
情報処理装置100は、骨格情報1300に基づいて、フレーム群1100の各フレームにおける、左腰および右腰の部位の中心の位置を特定し、腰の部位の位置に設定する。情報処理装置100は、骨格情報1300に基づいて、フレーム群1100の各フレームについて、当該フレームを含む連続した2以上のフレームにおける、腰の部位の位置に対する左手首の部位の位置の相対的な座標に関するx標準偏差とy標準偏差とを算出する。x標準偏差は、腰の部位の位置に対する左手首の部位の位置の相対的な座標の分布1310におけるx軸成分の標準偏差である。y標準偏差は、腰の部位の位置に対する左手首の部位の位置の相対的な座標の分布1310におけるy軸成分の標準偏差である。
情報処理装置100は、骨格情報1300に基づいて、フレーム群1100の各フレームについて、当該フレームを含む連続した2以上のフレームにおける、腰の部位の位置に対する右手首の部位の位置の相対的な座標に関するx標準偏差とy標準偏差とを算出する。x標準偏差は、腰の部位の位置に対する右手首の部位の位置の相対的な座標の分布1310におけるx軸成分の標準偏差である。y標準偏差は、腰の部位の位置に対する右手首の部位の位置の相対的な座標の分布1310におけるy軸成分の標準偏差である。
ここで、情報処理装置100は、フレーム群1100の各フレームについて、左手首の部位に関するx標準偏差およびy標準偏差が閾値以上であるか否かを判定する。閾値は、例えば、0.1である。図13の例では、情報処理装置100は、あるフレーム1301について、左手首の部位に関するx標準偏差が閾値以上であると判定したとする。情報処理装置100は、あるフレーム1301について、左手首の部位に関するx標準偏差が閾値以上であれば、当該フレーム1301を含む2以上のフレーム1302において、物体が左手首の部位の動き方を拘束していないと判定する。換言すれば、情報処理装置100は、あるフレーム1301について、左手首の部位に関するx標準偏差が閾値以上であれば、当該フレーム1301を含む2以上のフレーム1302において、物体と左手首の部位との動き方に相関関係がないと判定する。
また、情報処理装置100は、フレーム群1100の各フレームについて、右手首の部位に関するx標準偏差およびy標準偏差が閾値以上であるか否かを判定する。閾値は、例えば、0.1である。図13の例では、情報処理装置100は、あるフレーム1301について、右手首の部位に関するx標準偏差およびy標準偏差が閾値未満であると判定したとする。情報処理装置100は、あるフレーム1301について、右手首の部位に関するx標準偏差およびy標準偏差が閾値未満であれば、検出した物体が右手首の部位の動き方を拘束するか否かをさらに判定することにする。
情報処理装置100は、例えば、あるフレーム1301について、右手首の部位に関するx標準偏差およびy標準偏差が閾値未満であれば、さらに、検出した物体の位置が、右手首の部位の位置に比較的近いか否かを判定する。情報処理装置100は、具体的には、フレーム1301を含む2以上のフレーム1302において、検出したバッグの位置と、右手首の部位の位置との距離の平均値を類似度として算出し、類似度が閾値以上であるか否かを判定する。閾値は、例えば、予め設定される。閾値は、例えば、10ピクセル分の距離などである。
情報処理装置100は、具体的には、類似度が閾値以上であれば、2以上のフレーム1302において、検出した物体の位置が、右手首の部位の位置に比較的近いと判定する。情報処理装置100は、具体的には、類似度が閾値未満であれば、2以上のフレーム1302において、検出した物体の位置が、右手首の部位の位置から比較的遠いと判定する。情報処理装置100は、例えば、検出した物体の位置が、右手首の部位の位置に比較的近いと判定した場合、検出した物体が、右手首の部位の動き方を拘束すると判定する。
図13の例では、情報処理装置100は、2以上のフレーム1302において、バッグに関する距離の平均値が閾値以上であるため、バッグが、右手首の部位の動き方を拘束しないと判定する。一方で、情報処理装置100は、2以上のフレーム1302において、スマートフォンに関する距離の平均値が閾値未満であるため、スマートフォンが、右手首の部位の動き方を拘束すると判定する。このため、情報処理装置100は、あるフレーム1301、または、2以上のフレーム1302において、スマートフォンと右手首の部位との動き方に相関関係があると判定する。情報処理装置100は、スマートフォンと右手首の部位との動き方に相関関係があると判定した、あるフレーム1301、または、2以上のフレーム1302を、照合処理の際の除外対象に設定する。
これにより、情報処理装置100は、あるフレーム1301、または、2以上のフレーム1302が、対象の人物の歩容の特徴を表すフレームとして採用することが難しいフレームであると判定することができる。このため、情報処理装置100は、照合処理に用いるフレームを適切に特定可能にすることができる。
次に、図14を用いて、情報処理装置100が、処理対象とする1以上のフレームを特定する一例について説明する。
図14は、処理対象とする1以上のフレームを特定する一例を示す説明図である。図14において、情報処理装置100は、フレーム群1100のうち、除外対象に設定したフレームを除いた1以上のフレームを、照合処理の際の処理対象として特定する。図14の例では、除外対象に設定したフレームを、点状ハッチを付して示す。
情報処理装置100は、例えば、フレーム群1100のうち、所定数のフレームを、照合処理の際の処理対象として特定する。所定数は、例えば、30である。所定数は、例えば、歩容の特徴を表す特徴情報の生成精度を担保可能にするためのフレームの数である。図14の例では、情報処理装置100は、フレーム群1100のうち、除外対象に設定したフレームを除いた連続する30個のフレームを、照合処理の際の処理対象として特定する。
情報処理装置100は、具体的には、フレーム群1100のうち、先頭側に存在する30個以上のフレームが存在する区間から、最新30個のフレームを、照合処理の際の処理対象として特定する。情報処理装置100は、具体的には、フレーム群1100のうち、先頭側に存在する30個以上のフレームが存在する区間から、最後30個のフレームを、照合処理の際の処理対象として特定してもよい。情報処理装置100は、具体的には、利用者の操作入力に基づき、フレーム群1100のうち、先頭側に存在する30個以上のフレームが存在する区間から、30個のフレームの選択を受け付け、選択された30個のフレームを、照合処理の際の処理対象として特定してもよい。情報処理装置100は、具体的には、フレーム群1100のうち、末尾側に存在する30個以上のフレームが不足する区間のフレームは、照合処理の際の処理対象として特定しないことが好ましい。
次に、図15を用いて、情報処理装置100が、照合処理を実施する一例について説明する。
図15は、照合処理を実施する一例を示す説明図である。図15において、情報処理装置100は、骨格情報1300から、処理対象に設定した1以上のフレームにおける複数の部位の位置を示す情報を抽出し、抽出した複数の部位の位置を示す情報を含む骨格情報1510を生成する。情報処理装置100は、骨格情報1510を、学習した全身骨格用DNN1500に入力することにより、対象の人物の歩容に関する特徴ベクトル1511を生成する。
情報処理装置100は、対象の人物の候補となる特定の人物が有する複数の部位の位置を示す骨格情報1520を取得する。骨格情報1520は、特定の人物が映った映像に基づいて生成されていてもよい。情報処理装置100は、骨格情報1520を、学習した全身骨格用DNN1500に入力することにより、特定の人物の歩容に関する特徴ベクトル1521を生成する。
情報処理装置100は、特徴ベクトル1511と特徴ベクトル1521とのベクトル間距離を算出する。距離は、対象の人物の歩容と、特定の人物の歩容との類似度を表す。情報処理装置100は、算出したベクトル間距離が閾値以上であるか否かを判定する。情報処理装置100は、ベクトル間距離が閾値以上であれば、対象の人物の歩容と、特定の人物の歩容とが類似せず、対象の人物が、特定の人物に合致しないと判定する。情報処理装置100は、ベクトル間距離が閾値未満であれば、対象の人物の歩容と、特定の人物の歩容とが類似せず、対象の人物が、特定の人物に合致しないと判定する。
これにより、情報処理装置100は、照合処理を精度よく実施することができる。情報処理装置100は、例えば、対象の人物が、特定の人物に合致するか否かを精度よく判定することができる。情報処理装置100は、具体的には、フレーム群1100のうち、対象の人物の歩容の特徴を精度よく表す1以上のフレームを適切に選択することができ、照合処理の精度向上を図ることができる。
情報処理装置100は、例えば、物体と部位との位置関係に基づいて、1以上のフレームを特定するため、物体と関係なく特異な位置に部位が存在する状況の1以上のフレームを特定可能にすることができる。このため、情報処理装置100は、対象の人物が、いずれかの部位を、物体と関係なく特異な位置に保持しつつ歩行する傾向がある場合にも適用することができる。従って、情報処理装置100は、照合処理の精度向上を図ることができる。
情報処理装置100は、例えば、対象の人物が、複数の特定の人物のいずれの特定の人物に合致するかを精度よく判定することができる。情報処理装置100は、具体的には、複数の映像のそれぞれの映像に映った人物と、行方不明者、または、犯罪容疑者などの対象の人物とが合致するか否かを判定することができる。このため、情報処理装置100は、具体的には、利用者が、複数の映像から、行方不明者、または、犯罪容疑者などの対象の人物が映った映像を見つけ出し易くすることができる。従って、情報処理装置100は、警察官などの利用者が、行方不明者、または、犯罪容疑者などを捜索し易くすることができ、業務を支援することができる。
情報処理装置100は、例えば、対象の人物が、建物または部屋などの場所に立ち入ることを許可された複数の特定の人物のいずれの特定の人物に合致するかを精度よく判定することができる。このため、情報処理装置100は、具体的には、建物または部屋などの場所に立ち入ろうとする対象の人物を適切に認証し、対象の人物による建物または部屋などの場所への立ち入りを適切に制御することができる。
以上の説明では、情報処理装置100が、物体が右手首または左手首の部位の動き方を拘束するか否か、物体と右手首または左手首の部位との動き方に相関関係があるか否かを判定し、除外対象とするフレームを特定する場合について説明したが、これに限らない。
例えば、情報処理装置100が、物体と頭の部位の動き方に相関関係があるか否かを判定し、除外対象とするフレームを特定する場合があってもよい。この場合、情報処理装置100は、例えば、帽子またはフードなどの物体が、頭の部位の位置の検出精度を悪化させているか否かを判定することができる。情報処理装置100は、帽子またはフードなどの物体が、頭の部位の位置の検出精度を悪化させ得ることを考慮して、除外対象とするフレームを適切に特定することができる。情報処理装置100は、例えば、帽子またはフードなどの物体が、頭の部位の位置の検出精度を悪化させる状況であるフレームを、除外対象として特定することができる。このため、情報処理装置100は、照合処理の精度向上を図ることができる。
また、例えば、情報処理装置100が、物体と腰の部位の動き方に相関関係があるか否かを判定する場合があってもよい。この場合、情報処理装置100は、例えば、バッグなどの物体が、腰の部位の位置の検出精度を悪化させているか否かを判定することができる。情報処理装置100は、バッグなどの物体が、腰の部位の位置の検出精度を悪化させ得ることを考慮して、除外対象とするフレームを適切に特定することができる。情報処理装置100は、例えば、バッグなどの物体が、腰の部位の位置の検出精度を悪化させる状況であるフレームを、除外対象として特定することができる。このため、情報処理装置100は、照合処理の精度向上を図ることができる。
(全体処理手順)
次に、図16を用いて、情報処理装置100が実行する、全体処理手順の一例について説明する。全体処理は、例えば、図3に示したCPU301と、メモリ302や記録媒体305などの記憶領域と、ネットワークI/F303とによって実現される。
次に、図16を用いて、情報処理装置100が実行する、全体処理手順の一例について説明する。全体処理は、例えば、図3に示したCPU301と、メモリ302や記録媒体305などの記憶領域と、ネットワークI/F303とによって実現される。
図16は、全体処理手順の一例を示すフローチャートである。図16において、情報処理装置100は、対象の映像を取得する(ステップS1601)。
次に、情報処理装置100は、取得した対象の映像の各フレームに映った対象の人物を検出する(ステップS1602)。そして、情報処理装置100は、取得した対象の映像の各フレームに映った対象の人物の骨格の姿勢を特定する(ステップS1603)。また、情報処理装置100は、取得した対象の映像の各フレームに映った対象の物体を検出する(ステップS1604)。
次に、情報処理装置100は、検出した対象の人物の骨格の姿勢に基づいて、対象の映像の各フレームにおける対象の人物が有する各部位の位置を検出する(ステップS1605)。また、情報処理装置100は、検出した対象の物体に基づいて、対象の映像の各フレームにおける対象の物体の位置を検出する(ステップS1606)。そして、情報処理装置100は、対象の人物の基準の部位の位置に対する右手および左手の部位の位置の相対的な位置を算出する(ステップS1607)。
次に、情報処理装置100は、算出した相対的な位置に基づいて、映像の各フレームのうち、右手または左手の部位の動き方に、対象の物体の動き方と相関関係が現れるフレームが存在するか否かを判定する(ステップS1608)。ここで、右手または左手の部位の動き方に、対象の物体の動き方と相関関係が現れるフレームが存在する場合(ステップS1608:Yes)、情報処理装置100は、ステップS1609の処理に移行する。一方で、右手または左手の部位の動き方に、対象の物体の動き方と相関関係が現れるフレームが存在しない場合(ステップS1608:No)、情報処理装置100は、ステップS1610の処理に移行する。
ステップS1609では、情報処理装置100は、映像の各フレームのうち、右手または左手の部位の動き方に、対象の物体の動き方と相関関係が現れるフレームを、除外対象に設定する(ステップS1609)。そして、情報処理装置100は、ステップS1610の処理に移行する。
ステップS1610では、情報処理装置100は、除外対象のフレームを除いた、1以上のフレームに基づいて、対象の人物の照合処理を実施する(ステップS1610)。そして、情報処理装置100は、全体処理を終了する。これにより、情報処理装置100は、照合処理を精度よく実施することができる。
以上説明したように、情報処理装置100によれば、人物を含む映像を取得することができる。情報処理装置100によれば、取得した映像を分析することで、映像の中に含まれる物体を検出することができる。情報処理装置100によれば、検出した物体と人物が有する複数の部位のうちいずれかの部位との位置関係に基づいて、物体の動きといずれかの部位の動きとが相関関係を有するか否かを判定することができる。情報処理装置100によれば、物体の動きといずれかの部位の動きとが相関関係を有すると判定されたときに、映像を構成する複数のフレームのうち、相関関係が現れる第一のフレームを特定することができる。情報処理装置100によれば、複数のフレームの中から第一のフレームが除外された第二のフレームを用いて、人物の照合を実施することができる。これにより、情報処理装置100は、対象の人物の照合処理を精度よく実施することができる。
情報処理装置100によれば、取得した映像上の人物とは異なる物体の位置を検出することができる。情報処理装置100によれば、検出した物体の位置と、取得した映像上の複数の部位のそれぞれの部位の位置との位置関係を特定することができる。情報処理装置100によれば、第二のフレームに、複数のフレームのうち、物体の動きといずれかの部位の動きとに相関関係が現れる第一のフレームを含まない1以上のフレームを採用することができる。これにより、情報処理装置100は、対象の人物の照合処理を精度よく実施することができる。
情報処理装置100によれば、映像の入力に応じて当該映像に映った人物が有する部位の位置を出力する第一の機械学習モデルに、取得した映像を入力することにより、取得した映像上の複数の部位のそれぞれの部位の位置を検出することができる。情報処理装置100によれば、検出した物体の位置と、検出した複数の部位の少なくともいずれかの部位の位置との位置関係を特定することができる。情報処理装置100によれば、第二のフレームに、複数のフレームのうち、物体の動きといずれかの部位の動きとに相関関係が現れる第一のフレームを含まない1以上のフレームを採用することができる。これにより、情報処理装置100は、自装置で、対象の映像上の複数の部位のそれぞれの部位の位置を検出することができ、単独で動作し易くすることができる。
情報処理装置100によれば、映像を分析することで、人物の骨格情報を生成することができる。情報処理装置100によれば、生成した人物の骨格情報を用いて、人物の骨格または関節の位置を特定することができる。情報処理装置100によれば、人物が有する部位の位置に、当該部位の骨格または関節の位置を採用することができる。これにより、情報処理装置100は、対象の人物が有する部位の位置を検出する際に、骨格の位置を検出する手法を適用することができる。情報処理装置100は、照合処理に、骨格の位置を利用する手法を適用することができる。
情報処理装置100によれば、人物が有する部位の位置に、当該部位のシルエットの位置を採用することができる。これにより、情報処理装置100は、対象の人物が有する部位の位置を検出する際に、シルエットの位置を検出する手法を適用することができる。情報処理装置100は、照合処理に、シルエットの位置を利用する手法を適用することができる。
情報処理装置100によれば、検出した物体と、取得した映像上の手の部位との位置関係に基づいて、物体の動きと手の部位の動きとが相関関係を有するか否かを判定することができる。情報処理装置100によれば、物体の動きと手の部位の動きとが相関関係を有すると判定されたときに、複数のフレームのうち、相関関係が現れる第一のフレームを特定し、複数のフレームのうち、特定した第一のフレームを含まない1以上のフレームを特定し、第二のフレームとして設定することができる。これにより、情報処理装置100は、対象の人物が物体を所持するか否かを考慮して、照合処理の精度向上を図ることができる。
情報処理装置100によれば、検出した物体の位置の時系列と、複数の部位の少なくともいずれかの部位の位置の時系列との位置関係に基づいて、物体の動きといずれかの部位の動きとが相関関係を有するか否かを判定することができる。情報処理装置100によれば、物体の動きといずれかの部位の動きとが相関関係を有すると判定されたときに、複数のフレームのうち、相関関係が現れる第一のフレームを特定し、複数のフレームのうち、特定した第一のフレームを含まない1以上のフレームを特定し、第二のフレームとして設定することができる。これにより、情報処理装置100は、物体の位置の時系列と、部位の位置の時系列とを考慮して、1以上のフレームを精度よく特定し易くすることができる。
情報処理装置100によれば、第二のフレームにおける、複数の部位の位置の時間変化に関する特徴に基づいて、人物の照合を実施することができる。これにより、情報処理装置100は、部位の位置の時間変化を考慮して、対象の人物の照合処理を精度よく実施し易くすることができる。
情報処理装置100によれば、取得した映像上の基準の位置に対する、複数の部位の少なくともいずれかの部位の位置の相対的な座標の分散を算出することができる。情報処理装置100によれば、検出した物体の位置と、いずれかの部位の位置との位置関係、および、算出した分散に基づいて、物体の動きといずれかの部位の動きとが相関関係を有するか否かを判定することができる。情報処理装置100によれば、物体の動きといずれかの部位の動きとが相関関係を有すると判定されたときに、複数のフレームのうち、相関関係が現れる第一のフレームを特定し、複数のフレームのうち、特定した第一のフレームを含まない1以上のフレームを特定し、第二のフレームとして設定することができる。これにより、情報処理装置100は、いずれかの部位の位置のばらつきを考慮して、当該いずれかの部位と、物体との動き方に相関関係があるか否かを精度よく判定し易くすることができる。
情報処理装置100によれば、基準の位置に、取得した映像上の人物が有する腰の部位の位置を採用することができる。これにより、情報処理装置100は、腰の部位の位置を基準として用いることができ、いずれかの部位と、物体との動き方に相関関係があるか否かを精度よく判定し易くすることができる。
情報処理装置100によれば、人物が有する部位の位置の入力に応じて当該人物の歩容に関する特徴ベクトルを出力する第二の機械学習モデルに、第二のフレーム上の複数の部位の位置を入力することにより、人物の歩容に関する特徴ベクトルを生成することができる。情報処理装置100によれば、生成した特徴ベクトルに基づいて、人物の照合を実施することができる。これにより、情報処理装置100は、対象の人物の歩容の特徴を精度よく表す指標を得ることができ、照合処理を実施可能にすることができる。
情報処理装置100によれば、第二の機械学習モデルに、特定の人物が有する複数の部位の位置を入力することにより生成された、特定の人物の歩容に関する特徴ベクトルを取得することができる。情報処理装置100によれば、生成した人物の歩容に関する特徴ベクトルと、取得した特定の人物の歩容に関する特徴ベクトルとが類似すると判定した場合、人物が、特定の人物に合致すると判定することができる。これにより、情報処理装置100は、対象の人物と、特定の人物とを照合することができる。
情報処理装置100によれば、第二のフレームにおける、複数の部位のシルエットに関する特徴に基づいて、人物の照合を実施することができる。これにより、情報処理装置100は、照合処理に、シルエットの位置を利用する手法を適用することができる。
情報処理装置100によれば、物体の動きといずれかの部位の動きとが相関関係を有すると判定されたときに、映像を構成する複数のフレームのうち、相関関係が現れる第一のフレームを特定し、複数のフレームのうち、特定した第一のフレームを含まない、連続する所定数のフレームを特定し、第二のフレームとして設定することができる。これにより、情報処理装置100は、照合処理に利用するフレームを所定数確保することができ、照合処理の実施精度を担保し易くすることができる。
なお、本実施の形態で説明した照合支援方法は、予め用意されたプログラムをPCやワークステーションなどのコンピュータで実行することにより実現することができる。本実施の形態で説明した照合支援プログラムは、コンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。記録媒体は、ハードディスク、フレキシブルディスク、CD(Compact Disc)-ROM、MO(Magneto Optical disc)、DVD(Digital Versatile Disc)などである。また、本実施の形態で説明した照合支援プログラムは、インターネットなどのネットワークを介して配布してもよい。
上述した実施の形態に関し、さらに以下の付記を開示する。
(付記1)人物を含む映像を取得し、
取得した前記映像を分析することで、前記映像の中に含まれる物体を検出し、
検出した前記物体と前記人物が有する複数の部位のうちいずれかの部位との位置関係に基づいて、前記物体の動きと前記いずれかの部位の動きとが相関関係を有するか否かを判定し、
前記物体の動きと前記いずれかの部位の動きとが相関関係を有すると判定されたときに、前記映像を構成する複数のフレームのうち、前記相関関係が現れる第一のフレームを特定し、
前記複数のフレームの中から前記第一のフレームが除外された第二のフレームを用いて、前記人物の照合を実施する、
処理をコンピュータに実行させることを特徴とする照合支援プログラム。
取得した前記映像を分析することで、前記映像の中に含まれる物体を検出し、
検出した前記物体と前記人物が有する複数の部位のうちいずれかの部位との位置関係に基づいて、前記物体の動きと前記いずれかの部位の動きとが相関関係を有するか否かを判定し、
前記物体の動きと前記いずれかの部位の動きとが相関関係を有すると判定されたときに、前記映像を構成する複数のフレームのうち、前記相関関係が現れる第一のフレームを特定し、
前記複数のフレームの中から前記第一のフレームが除外された第二のフレームを用いて、前記人物の照合を実施する、
処理をコンピュータに実行させることを特徴とする照合支援プログラム。
(付記2)取得した前記映像上の前記人物とは異なる物体の位置を検出し、
検出した前記物体の位置と、取得した前記映像上の前記複数の部位のそれぞれの部位の位置との位置関係を特定する、
処理を前記コンピュータに実行させ、
前記第二のフレームは、前記複数のフレームのうち、前記物体の動きと前記いずれかの部位の動きとに相関関係が現れる前記第一のフレームを含まない1以上のフレームである、ことを特徴とする付記1に記載の照合支援プログラム。
検出した前記物体の位置と、取得した前記映像上の前記複数の部位のそれぞれの部位の位置との位置関係を特定する、
処理を前記コンピュータに実行させ、
前記第二のフレームは、前記複数のフレームのうち、前記物体の動きと前記いずれかの部位の動きとに相関関係が現れる前記第一のフレームを含まない1以上のフレームである、ことを特徴とする付記1に記載の照合支援プログラム。
(付記3)映像の入力に応じて当該映像に映った人物が有する部位の位置を出力する第一の機械学習モデルに、取得した前記映像を入力することにより、取得した前記映像上の前記複数の部位のそれぞれの部位の位置を検出する、
処理を前記コンピュータに実行させ、
前記位置関係を特定する処理は、
検出した前記物体の位置と、検出した前記複数の部位の少なくともいずれかの部位の位置との位置関係を特定し、
前記第二のフレームは、前記複数のフレームのうち、前記物体の動きと前記いずれかの部位の動きとに相関関係が現れる前記第一のフレームを含まない1以上のフレームである、ことを特徴とする付記1に記載の照合支援プログラム。
処理を前記コンピュータに実行させ、
前記位置関係を特定する処理は、
検出した前記物体の位置と、検出した前記複数の部位の少なくともいずれかの部位の位置との位置関係を特定し、
前記第二のフレームは、前記複数のフレームのうち、前記物体の動きと前記いずれかの部位の動きとに相関関係が現れる前記第一のフレームを含まない1以上のフレームである、ことを特徴とする付記1に記載の照合支援プログラム。
(付記4)前記映像を分析することで、前記人物の骨格情報を生成し、
生成した前記人物の骨格情報を用いて、前記人物の骨格または関節の位置を特定する、
処理を前記コンピュータに実行させ、
前記人物が有する部位の位置は、当該部位の骨格または関節の位置である、ことを特徴とする付記3に記載の照合支援プログラム。
生成した前記人物の骨格情報を用いて、前記人物の骨格または関節の位置を特定する、
処理を前記コンピュータに実行させ、
前記人物が有する部位の位置は、当該部位の骨格または関節の位置である、ことを特徴とする付記3に記載の照合支援プログラム。
(付記5)前記人物が有する部位の位置は、当該部位のシルエットの位置である、ことを特徴とする付記3に記載の照合支援プログラム。
(付記6)前記複数の部位は、前記人物が有する手の部位を含み、
前記判定する処理は、
検出した前記物体と、取得した前記映像上の前記手の部位との位置関係に基づいて、前記物体の動きと前記手の部位の動きとが相関関係を有するか否かを判定し、
前記第一のフレームを特定する処理は、
前記物体の動きと前記手の部位の動きとが相関関係を有すると判定されたときに、前記複数のフレームのうち、前記相関関係が現れる前記第一のフレームを特定し、前記複数のフレームのうち、特定した前記第一のフレームを含まない1以上のフレームを特定し、前記第二のフレームとして設定する、ことを特徴とする付記1~3のいずれか一つに記載の照合支援プログラム。
前記判定する処理は、
検出した前記物体と、取得した前記映像上の前記手の部位との位置関係に基づいて、前記物体の動きと前記手の部位の動きとが相関関係を有するか否かを判定し、
前記第一のフレームを特定する処理は、
前記物体の動きと前記手の部位の動きとが相関関係を有すると判定されたときに、前記複数のフレームのうち、前記相関関係が現れる前記第一のフレームを特定し、前記複数のフレームのうち、特定した前記第一のフレームを含まない1以上のフレームを特定し、前記第二のフレームとして設定する、ことを特徴とする付記1~3のいずれか一つに記載の照合支援プログラム。
(付記7)前記判定する処理は、
検出した前記物体の位置の時系列と、前記複数の部位の少なくともいずれかの部位の位置の時系列との位置関係に基づいて、前記物体の動きと前記いずれかの部位の動きとが相関関係を有するか否かを判定し、
前記第一のフレームを特定する処理は、
前記物体の動きと前記いずれかの部位の動きとが相関関係を有すると判定されたときに、前記複数のフレームのうち、前記相関関係が現れる前記第一のフレームを特定し、前記複数のフレームのうち、特定した前記第一のフレームを含まない1以上のフレームを特定し、前記第二のフレームとして設定する、ことを特徴とする付記1~3のいずれか一つに記載の照合支援プログラム。
検出した前記物体の位置の時系列と、前記複数の部位の少なくともいずれかの部位の位置の時系列との位置関係に基づいて、前記物体の動きと前記いずれかの部位の動きとが相関関係を有するか否かを判定し、
前記第一のフレームを特定する処理は、
前記物体の動きと前記いずれかの部位の動きとが相関関係を有すると判定されたときに、前記複数のフレームのうち、前記相関関係が現れる前記第一のフレームを特定し、前記複数のフレームのうち、特定した前記第一のフレームを含まない1以上のフレームを特定し、前記第二のフレームとして設定する、ことを特徴とする付記1~3のいずれか一つに記載の照合支援プログラム。
(付記8)前記実施する処理は、
前記第二のフレームにおける、前記複数の部位の位置の時間変化に関する特徴に基づいて、前記人物の照合を実施する、ことを特徴とする付記1~3のいずれか一つに記載の照合支援プログラム。
前記第二のフレームにおける、前記複数の部位の位置の時間変化に関する特徴に基づいて、前記人物の照合を実施する、ことを特徴とする付記1~3のいずれか一つに記載の照合支援プログラム。
(付記9)取得した前記映像上の基準の位置に対する、前記複数の部位の少なくともいずれかの部位の位置の相対的な座標の分散を算出する、
処理を前記コンピュータに実行させ、
前記判定する処理は、
検出した前記物体の位置と、前記いずれかの部位の位置との位置関係、および、算出した前記分散に基づいて、前記物体の動きと前記いずれかの部位の動きとが相関関係を有するか否かを判定し、
前記第一のフレームを特定する処理は、
前記物体の動きと前記いずれかの部位の動きとが相関関係を有すると判定されたときに、前記複数のフレームのうち、前記相関関係が現れる前記第一のフレームを特定し、前記複数のフレームのうち、特定した前記第一のフレームを含まない1以上のフレームを特定し、前記第二のフレームとして設定する、ことを特徴とする付記1~3のいずれか一つに記載の照合支援プログラム。
処理を前記コンピュータに実行させ、
前記判定する処理は、
検出した前記物体の位置と、前記いずれかの部位の位置との位置関係、および、算出した前記分散に基づいて、前記物体の動きと前記いずれかの部位の動きとが相関関係を有するか否かを判定し、
前記第一のフレームを特定する処理は、
前記物体の動きと前記いずれかの部位の動きとが相関関係を有すると判定されたときに、前記複数のフレームのうち、前記相関関係が現れる前記第一のフレームを特定し、前記複数のフレームのうち、特定した前記第一のフレームを含まない1以上のフレームを特定し、前記第二のフレームとして設定する、ことを特徴とする付記1~3のいずれか一つに記載の照合支援プログラム。
(付記10)前記基準の位置は、取得した前記映像上の前記人物が有する腰の部位の位置である、ことを特徴とする付記9に記載の照合支援プログラム。
(付記11)人物が有する部位の位置の入力に応じて当該人物の歩容に関する特徴ベクトルを出力する第二の機械学習モデルに、前記第二のフレーム上の前記複数の部位の位置を入力することにより、前記人物の歩容に関する特徴ベクトルを生成する、
処理を前記コンピュータに実行させ、
前記実施する処理は、
生成した前記特徴ベクトルに基づいて、前記人物の照合を実施する、ことを特徴とする付記1~3のいずれか一つに記載の照合支援プログラム。
処理を前記コンピュータに実行させ、
前記実施する処理は、
生成した前記特徴ベクトルに基づいて、前記人物の照合を実施する、ことを特徴とする付記1~3のいずれか一つに記載の照合支援プログラム。
(付記12)前記第二の機械学習モデルに、特定の人物が有する複数の部位の位置を入力することにより生成された、前記特定の人物の歩容に関する特徴ベクトルを取得する、
処理を前記コンピュータに実行させ、
前記実施する処理は、
生成した前記人物の歩容に関する特徴ベクトルと、取得した前記特定の人物の歩容に関する特徴ベクトルとが類似すると判定した場合、前記人物が、前記特定の人物に合致すると判定する、ことを特徴とする付記11に記載の照合支援プログラム。
処理を前記コンピュータに実行させ、
前記実施する処理は、
生成した前記人物の歩容に関する特徴ベクトルと、取得した前記特定の人物の歩容に関する特徴ベクトルとが類似すると判定した場合、前記人物が、前記特定の人物に合致すると判定する、ことを特徴とする付記11に記載の照合支援プログラム。
(付記13)前記実施する処理は、
前記第二のフレームにおける、前記複数の部位のシルエットに関する特徴に基づいて、前記人物の照合を実施する、ことを特徴とする付記1~3のいずれか一つに記載の照合支援プログラム。
前記第二のフレームにおける、前記複数の部位のシルエットに関する特徴に基づいて、前記人物の照合を実施する、ことを特徴とする付記1~3のいずれか一つに記載の照合支援プログラム。
(付記14)前記第一のフレームを特定する処理は、
前記物体の動きと前記いずれかの部位の動きとが相関関係を有すると判定されたときに、前記映像を構成する複数のフレームのうち、前記相関関係が現れる第一のフレームを特定し、前記複数のフレームのうち、特定した前記第一のフレームを含まない、連続する所定数のフレームを特定し、前記第二のフレームとして設定する、ことを特徴とする付記1~3のいずれか一つに記載の照合支援プログラム。
前記物体の動きと前記いずれかの部位の動きとが相関関係を有すると判定されたときに、前記映像を構成する複数のフレームのうち、前記相関関係が現れる第一のフレームを特定し、前記複数のフレームのうち、特定した前記第一のフレームを含まない、連続する所定数のフレームを特定し、前記第二のフレームとして設定する、ことを特徴とする付記1~3のいずれか一つに記載の照合支援プログラム。
(付記15)人物を含む映像を取得し、
取得した前記映像を分析することで、前記映像の中に含まれる物体を検出し、
検出した前記物体と前記人物が有する複数の部位のうちいずれかの部位との位置関係に基づいて、前記物体の動きと前記いずれかの部位の動きとが相関関係を有するか否かを判定し、
前記物体の動きと前記いずれかの部位の動きとが相関関係を有すると判定されたときに、前記映像を構成する複数のフレームのうち、前記相関関係が現れる第一のフレームを特定し、
前記複数のフレームの中から前記第一のフレームが除外された第二のフレームを用いて、前記人物の照合を実施する、
処理をコンピュータが実行することを特徴とする照合支援方法。
取得した前記映像を分析することで、前記映像の中に含まれる物体を検出し、
検出した前記物体と前記人物が有する複数の部位のうちいずれかの部位との位置関係に基づいて、前記物体の動きと前記いずれかの部位の動きとが相関関係を有するか否かを判定し、
前記物体の動きと前記いずれかの部位の動きとが相関関係を有すると判定されたときに、前記映像を構成する複数のフレームのうち、前記相関関係が現れる第一のフレームを特定し、
前記複数のフレームの中から前記第一のフレームが除外された第二のフレームを用いて、前記人物の照合を実施する、
処理をコンピュータが実行することを特徴とする照合支援方法。
(付記16)人物を含む映像を取得し、
取得した前記映像を分析することで、前記映像の中に含まれる物体を検出し、
検出した前記物体と前記人物が有する複数の部位のうちいずれかの部位との位置関係に基づいて、前記物体の動きと前記いずれかの部位の動きとが相関関係を有するか否かを判定し、
前記物体の動きと前記いずれかの部位の動きとが相関関係を有すると判定されたときに、前記映像を構成する複数のフレームのうち、前記相関関係が現れる第一のフレームを特定し、
前記複数のフレームの中から前記第一のフレームが除外された第二のフレームを用いて、前記人物の照合を実施する、
制御部を有することを特徴とする情報処理装置。
取得した前記映像を分析することで、前記映像の中に含まれる物体を検出し、
検出した前記物体と前記人物が有する複数の部位のうちいずれかの部位との位置関係に基づいて、前記物体の動きと前記いずれかの部位の動きとが相関関係を有するか否かを判定し、
前記物体の動きと前記いずれかの部位の動きとが相関関係を有すると判定されたときに、前記映像を構成する複数のフレームのうち、前記相関関係が現れる第一のフレームを特定し、
前記複数のフレームの中から前記第一のフレームが除外された第二のフレームを用いて、前記人物の照合を実施する、
制御部を有することを特徴とする情報処理装置。
100 情報処理装置
110,700 映像
111,701,1101 人物
112,702 物体
200 照合処理システム
201 映像撮影装置
202 クライアント装置
210 ネットワーク
300,500 バス
301,501 CPU
302,502 メモリ
303,503 ネットワークI/F
304,504 記録媒体I/F
305,505 記録媒体
306 ディスプレイ
307 入力装置
400 特徴情報管理テーブル
506 カメラ
600 記憶部
601 取得部
602 第1検出部
603 第2検出部
604 特定部
605 照合部
606 出力部
710,1000,1300,1510,1520 骨格情報
800 グラフ
810 座標情報管理テーブル
900 表
1100 フレーム群
1201 スマートフォン
1202 バッグ
1301,1302 フレーム
1310 分布
1500 全身骨格用DNN
1511,1521 特徴ベクトル
303,503 ネットワークI/F
304,504 記録媒体I/F
1500 全身骨格用DNN
110,700 映像
111,701,1101 人物
112,702 物体
200 照合処理システム
201 映像撮影装置
202 クライアント装置
210 ネットワーク
300,500 バス
301,501 CPU
302,502 メモリ
303,503 ネットワークI/F
304,504 記録媒体I/F
305,505 記録媒体
306 ディスプレイ
307 入力装置
400 特徴情報管理テーブル
506 カメラ
600 記憶部
601 取得部
602 第1検出部
603 第2検出部
604 特定部
605 照合部
606 出力部
710,1000,1300,1510,1520 骨格情報
800 グラフ
810 座標情報管理テーブル
900 表
1100 フレーム群
1201 スマートフォン
1202 バッグ
1301,1302 フレーム
1310 分布
1500 全身骨格用DNN
1511,1521 特徴ベクトル
303,503 ネットワークI/F
304,504 記録媒体I/F
1500 全身骨格用DNN
Claims (13)
- 人物を含む映像を取得し、
取得した前記映像を分析することで、前記映像の中に含まれる物体を検出し、
検出した前記物体と前記人物が有する複数の部位のうちいずれかの部位との位置関係に基づいて、前記物体の動きと前記いずれかの部位の動きとが相関関係を有するか否かを判定し、
前記物体の動きと前記いずれかの部位の動きとが相関関係を有すると判定されたときに、前記映像を構成する複数のフレームのうち、前記相関関係が現れる第一のフレームを特定し、
前記複数のフレームの中から前記第一のフレームが除外された第二のフレームを用いて、前記人物の照合を実施する、
処理をコンピュータに実行させることを特徴とする照合支援プログラム。 - 取得した前記映像上の前記人物とは異なる物体の位置を検出し、
検出した前記物体の位置と、取得した前記映像上の前記複数の部位のそれぞれの部位の位置との位置関係を特定する、
処理を前記コンピュータに実行させ、
前記第二のフレームは、前記複数のフレームのうち、前記物体の動きと前記いずれかの部位の動きとに相関関係が現れる前記第一のフレームを含まない1以上のフレームである、ことを特徴とする請求項1に記載の照合支援プログラム。 - 映像の入力に応じて当該映像に映った人物が有する部位の位置を出力する第一の機械学習モデルに、取得した前記映像を入力することにより、取得した前記映像上の前記複数の部位のそれぞれの部位の位置を検出する、
処理を前記コンピュータに実行させ、
前記位置関係を特定する処理は、
検出した前記物体の位置と、検出した前記複数の部位の少なくともいずれかの部位の位置との位置関係を特定し、
前記第二のフレームは、前記複数のフレームのうち、前記物体の動きと前記いずれかの部位の動きとに相関関係が現れる前記第一のフレームを含まない1以上のフレームである、ことを特徴とする請求項1に記載の照合支援プログラム。 - 前記映像を分析することで、前記人物の骨格情報を生成し、
生成した前記人物の骨格情報を用いて、前記人物の骨格または関節の位置を特定する、
処理を前記コンピュータに実行させ、
前記人物が有する部位の位置は、当該部位の骨格または関節の位置である、ことを特徴とする請求項3に記載の照合支援プログラム。 - 前記複数の部位は、前記人物が有する手の部位を含み、
前記判定する処理は、
検出した前記物体と、取得した前記映像上の前記手の部位との位置関係に基づいて、前記物体の動きと前記手の部位の動きとが相関関係を有するか否かを判定し、
前記第一のフレームを特定する処理は、
前記物体の動きと前記手の部位の動きとが相関関係を有すると判定されたときに、前記複数のフレームのうち、前記相関関係が現れる前記第一のフレームを特定し、前記複数のフレームのうち、特定した前記第一のフレームを含まない1以上のフレームを特定し、前記第二のフレームとして設定する、ことを特徴とする請求項1~3のいずれか一つに記載の照合支援プログラム。 - 前記判定する処理は、
検出した前記物体の位置の時系列と、前記複数の部位の少なくともいずれかの部位の位置の時系列との位置関係に基づいて、前記物体の動きと前記いずれかの部位の動きとが相関関係を有するか否かを判定し、
前記第一のフレームを特定する処理は、
前記物体の動きと前記いずれかの部位の動きとが相関関係を有すると判定されたときに、前記複数のフレームのうち、前記相関関係が現れる前記第一のフレームを特定し、前記複数のフレームのうち、特定した前記第一のフレームを含まない1以上のフレームを特定し、前記第二のフレームとして設定する、ことを特徴とする請求項1~3のいずれか一つに記載の照合支援プログラム。 - 前記実施する処理は、
前記第二のフレームにおける、前記複数の部位の位置の時間変化に関する特徴に基づいて、前記人物の照合を実施する、ことを特徴とする請求項1~3のいずれか一つに記載の照合支援プログラム。 - 取得した前記映像上の基準の位置に対する、前記複数の部位の少なくともいずれかの部位の位置の相対的な座標の分散を算出する、
処理を前記コンピュータに実行させ、
前記判定する処理は、
検出した前記物体の位置と、前記いずれかの部位の位置との位置関係、および、算出した前記分散に基づいて、前記物体の動きと前記いずれかの部位の動きとが相関関係を有するか否かを判定し、
前記第一のフレームを特定する処理は、
前記物体の動きと前記いずれかの部位の動きとが相関関係を有すると判定されたときに、前記複数のフレームのうち、前記相関関係が現れる前記第一のフレームを特定し、前記複数のフレームのうち、特定した前記第一のフレームを含まない1以上のフレームを特定し、前記第二のフレームとして設定する、ことを特徴とする請求項1~3のいずれか一つに記載の照合支援プログラム。 - 人物が有する部位の位置の入力に応じて当該人物の歩容に関する特徴ベクトルを出力する第二の機械学習モデルに、前記第二のフレーム上の前記複数の部位の位置を入力することにより、前記人物の歩容に関する特徴ベクトルを生成する、
処理を前記コンピュータに実行させ、
前記実施する処理は、
生成した前記特徴ベクトルに基づいて、前記人物の照合を実施する、ことを特徴とする請求項1~3のいずれか一つに記載の照合支援プログラム。 - 前記実施する処理は、
前記第二のフレームにおける、前記複数の部位のシルエットに関する特徴に基づいて、前記人物の照合を実施する、ことを特徴とする請求項1~3のいずれか一つに記載の照合支援プログラム。 - 前記第一のフレームを特定する処理は、
前記物体の動きと前記いずれかの部位の動きとが相関関係を有すると判定されたときに、前記映像を構成する複数のフレームのうち、前記相関関係が現れる第一のフレームを特定し、前記複数のフレームのうち、特定した前記第一のフレームを含まない、連続する所定数のフレームを特定し、前記第二のフレームとして設定する、ことを特徴とする請求項1~3のいずれか一つに記載の照合支援プログラム。 - 人物を含む映像を取得し、
取得した前記映像を分析することで、前記映像の中に含まれる物体を検出し、
検出した前記物体と前記人物が有する複数の部位のうちいずれかの部位との位置関係に基づいて、前記物体の動きと前記いずれかの部位の動きとが相関関係を有するか否かを判定し、
前記物体の動きと前記いずれかの部位の動きとが相関関係を有すると判定されたときに、前記映像を構成する複数のフレームのうち、前記相関関係が現れる第一のフレームを特定し、
前記複数のフレームの中から前記第一のフレームが除外された第二のフレームを用いて、前記人物の照合を実施する、
処理をコンピュータが実行することを特徴とする照合支援方法。 - 人物を含む映像を取得し、
取得した前記映像を分析することで、前記映像の中に含まれる物体を検出し、
検出した前記物体と前記人物が有する複数の部位のうちいずれかの部位との位置関係に基づいて、前記物体の動きと前記いずれかの部位の動きとが相関関係を有するか否かを判定し、
前記物体の動きと前記いずれかの部位の動きとが相関関係を有すると判定されたときに、前記映像を構成する複数のフレームのうち、前記相関関係が現れる第一のフレームを特定し、
前記複数のフレームの中から前記第一のフレームが除外された第二のフレームを用いて、前記人物の照合を実施する、
制御部を有することを特徴とする情報処理装置。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022175148A JP2024065990A (ja) | 2022-10-31 | 2022-10-31 | 照合支援プログラム、照合支援方法、および情報処理装置 |
US18/350,721 US20240144714A1 (en) | 2022-10-31 | 2023-07-11 | Recording medium, comparison support method, and information processing device |
EP23185814.3A EP4361962A1 (en) | 2022-10-31 | 2023-07-17 | Comparison support program, comparison support method, and information processing apparatus |
AU2023206218A AU2023206218A1 (en) | 2022-10-31 | 2023-07-21 | Comparison support program, comparison support method, and information processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022175148A JP2024065990A (ja) | 2022-10-31 | 2022-10-31 | 照合支援プログラム、照合支援方法、および情報処理装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024065990A true JP2024065990A (ja) | 2024-05-15 |
Family
ID=87377764
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022175148A Pending JP2024065990A (ja) | 2022-10-31 | 2022-10-31 | 照合支援プログラム、照合支援方法、および情報処理装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20240144714A1 (ja) |
EP (1) | EP4361962A1 (ja) |
JP (1) | JP2024065990A (ja) |
AU (1) | AU2023206218A1 (ja) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4481663B2 (ja) | 2004-01-15 | 2010-06-16 | キヤノン株式会社 | 動作認識装置、動作認識方法、機器制御装置及びコンピュータプログラム |
JP2017205135A (ja) | 2014-08-25 | 2017-11-24 | ノーリツプレシジョン株式会社 | 個人識別装置、個人識別方法、及び、個人識別プログラム |
WO2016065534A1 (zh) | 2014-10-28 | 2016-05-06 | 中国科学院自动化研究所 | 一种基于深度学习的歩态识别方法 |
US10977351B2 (en) | 2018-07-19 | 2021-04-13 | Motorola Mobility Llc | Electronic device and corresponding methods for selecting initiation of a user authentication process |
WO2022034680A1 (ja) * | 2020-08-14 | 2022-02-17 | 日本電気株式会社 | 物体認識装置、物体認識方法、及び、記録媒体 |
-
2022
- 2022-10-31 JP JP2022175148A patent/JP2024065990A/ja active Pending
-
2023
- 2023-07-11 US US18/350,721 patent/US20240144714A1/en active Pending
- 2023-07-17 EP EP23185814.3A patent/EP4361962A1/en active Pending
- 2023-07-21 AU AU2023206218A patent/AU2023206218A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
EP4361962A1 (en) | 2024-05-01 |
AU2023206218A1 (en) | 2024-05-16 |
US20240144714A1 (en) | 2024-05-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4650669B2 (ja) | 動体認識装置 | |
JP4984728B2 (ja) | 被写体照合装置および被写体照合方法 | |
Dikovski et al. | Evaluation of different feature sets for gait recognition using skeletal data from Kinect | |
Surekha et al. | Attendance recording system using partial face recognition algorithm | |
JP2006293644A (ja) | 情報処理装置、情報処理方法 | |
KR102106898B1 (ko) | 얼굴 데이터베이스를 이용한 인물 추적 방법 및 시스템 | |
JP2007317062A (ja) | 人物認識装置及びその方法 | |
JP7196932B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP5718632B2 (ja) | 部位認識装置、部位認識方法、及び部位認識プログラム | |
JPWO2020136795A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP2020052822A (ja) | 情報処理装置、認証システムおよびそれらの制御方法、プログラム | |
Badave et al. | Evaluation of person recognition accuracy based on openpose parameters | |
Saraswat et al. | Anti-spoofing-enabled contactless attendance monitoring system in the COVID-19 pandemic | |
Пуріш et al. | Gait recognition methods in the task of biometric human identification | |
CN114663796A (zh) | 一种目标人物持续跟踪方法、装置及系统 | |
JP2024045460A (ja) | 情報処理システム、情報処理装置、情報処理方法、およびプログラム | |
JP2024065990A (ja) | 照合支援プログラム、照合支援方法、および情報処理装置 | |
WO2020115910A1 (ja) | 情報処理システム、情報処理装置、情報処理方法、およびプログラム | |
KR101286750B1 (ko) | 제스처를 이용한 패스워드 판단시스템 | |
JP2024065888A (ja) | 照合支援プログラム、照合支援方法、および情報処理装置 | |
JP2006133937A (ja) | 動作識別装置 | |
Shrivastava et al. | Human activity recognition by analysis of skeleton joint position in internet of things (IOT) environment | |
JP2023025914A (ja) | 顔認証装置、顔認証方法、及びコンピュータプログラム | |
JP2010244090A (ja) | 人物情報抽出装置、人物情報抽出方法、及び人物情報抽出プログラム | |
JP6022625B2 (ja) | 部位認識装置、部位認識方法、及び部位認識プログラム |