JP7264283B2 - 画像処理装置、人検索システム、画像処理方法、及び画像処理プログラム - Google Patents
画像処理装置、人検索システム、画像処理方法、及び画像処理プログラム Download PDFInfo
- Publication number
- JP7264283B2 JP7264283B2 JP2021571803A JP2021571803A JP7264283B2 JP 7264283 B2 JP7264283 B2 JP 7264283B2 JP 2021571803 A JP2021571803 A JP 2021571803A JP 2021571803 A JP2021571803 A JP 2021571803A JP 7264283 B2 JP7264283 B2 JP 7264283B2
- Authority
- JP
- Japan
- Prior art keywords
- subject
- time
- image processing
- information
- matching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/587—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/178—Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Library & Information Science (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
前記対象者の外見情報及び特性情報を含む人情報を取得するように構成された人情報取得部と、
様々な時間における監視画像データを取得するように構成された画像取得部と、
前記対象者の前記人情報に基づいて前記対象者が第1の時間に存在する確率が高い検索開始点を決定するように構成された検索開始点決定部と、
前記人情報に基づいて、前記対象者が前記第1の時間より前の第2の時間に様々な場所に存在する存在確率を推定し、前記対象者の前記存在確率が設計された閾値より高いエリアを決定するように構成された後方追跡部と、
前記対象者の前記取得された外見情報と前記後方追跡部により決定された前記エリア内の前記監視画像との間のマッチング度を算出し、前記マッチング度が設定された閾値より高い場所を決定するように構成された認識部と、
前記人情報及び前記認識部により決定された前記場所に基づいて、前記第2の時間より時間的に前方に、マッチング度が前記設定された閾値より高い前記対象者の候補を追跡するように構成された前方追跡部と、
前記前方追跡の結果に基づいて、前記対象者が前記第1の時間又は前記第2の時間より前記第1の時間に近い時間に存在する前記存在確率を推定するように構成された存在確率推定部と、
を備える。
前記対象者の外見情報及び特性情報を含む人情報を取得し、
様々な時間における監視画像データを取得し、
前記対象者の前記人情報に基づいて、前記対象者が第1の時間において存在する確率が高い検索開始点を決定し、
前記人情報に基づいて、前記第1の時間より前の第2の時間において前記対象者が様々な場所に存在する存在確率を推定し、前記対象者の前記存在確率が設定された閾値より高いエリアを決定し、
前記取得された前記対象者の外見情報と前記決定されたエリア内の前記監視画像との間のマッチング度を算出し、前記マッチング度が設定された閾値より高い場所を決定し、
前記人情報及び前記認識部によって決定された前記場所に基づいて、前記第2の時間より時間的に前方に、マッチング度が前記設定された閾値より高い前記対象者の候補を追跡し、
前記前方追跡の結果に基づいて前記対象者が前記第1の時間に又は前記第2の時間より前記第1の時間に近い時間に存在する存在確率を推定することを含む。
前記対象者の外見情報及び特性情報を含む人情報を取得し、
様々な時間における監視画像データを取得し、
前記対象者の前記人情報に基づいて第1の時間において前記対象者が存在する確率が高い検索開始点を決定し、
前記人情報に基づいて、前記対象者が前記第1の時間より前の第2の時間において様々な場所に存在する存在確率を推定し、前記対象者の前記存在確率が設定された閾値より高いエリアを決定し、
前記対象者の前記取得された外見情報と、前記決定されたエリア内の前記監視画像との間のマッチング度を算出し、前記マッチングスコアが設定された閾値より高い場所を決定し、
前記人情報及び前記認識部によって決定された前記場所に基づいて、前記第2の時間より時間的に前方にマッチング度が前記設定された閾値よりも高い前記対象者の候補を追跡し、
前記前方追跡の結果に基づいて、前記対象者が前記第1の時間に又は前記第2の時間より前記第1の時間に近い時間に存在する存在確率を推定することを含む。
[第1の実施形態]
図1を参照して、本開示にかかる画像処理装置の構造の代表例を説明する。
[第2の実施形態]
まず、添付図面を参照して本発明の第2の実施形態を以下に説明する。図2を参照すると、第2の実施形態にかかる画像処理装置100は、対象者の特性及び外見を格納するように構成された第1のストレージ部101と、様々な時間における監視生データを格納するように構成された第2のストレージ部102と、検索開始点決定部103と、後方追跡部104と、認識部105と、前方追跡部106と、存在確率マップ推定部107と、を備える、なお、第1のストレージ部101及び第2のストレージ部102は、画像処理装置100の内部に設けられてもよいし、画像処理装置100の外部に設けられてもよい。第1のストレージ部101及び第2のストレージ部102が画像処理装置100の外部に設けられている場合、画像処理装置100は、以上説明したような、人情報取得部11及び画像取得部12を含み、ネットワークを介して、第1のストレージ部101及び第2のストレージ部102にそれぞれ接続されている。
次に、図2及び図3のフローチャートを参照して、本実施形態の一般的な動作を説明する。
まず、乗客は、チェックインカウンターで自らの顔及び外見(例えば、ヘアスタイル、衣服)及び他の特性(例えば、年齢、性別、国籍)を登録する(図3のステップS201)。その後、乗客が搭乗時間にまだ搭乗していない場合には(ステップS202でNO)、画像処理装置(人割当システムとも称される場合がある)100は、まず、現在時刻tnにおいて対象者を検索する開始点を決定することで、対象者(乗客)の割り当てを開始する(ステップS203)。
(数式1)
f(p,t)は時間=tにおいて、場所pにいる確率である。
tnは現在時刻であり、
tn-1は現在時刻tnより前のある時間であり、
pnは検索開始点(想定された現在の場所)であり、
pn-1は空港内の任意の場所であり、
vは対象者と同年齢の人々の平均歩行速度であり、
D(pn,pn-1)は場所pn-1と場所pnとの距離であり、
M(pn-1→pn)は、他の人々の統計に基づいた、場所pn-1からpnに移動する確率である。
次に、本実施形態の効果を説明する。
本実施形態が後方及び前方追跡のいずれも使用されるように構成されているので、対象者が一方向にのみ移動する想定がなされなくても、対象者の場所を推定することができる。
[第3の実施形態]
次に、添付図面を参照して本開示の第3の実施形態を説明する。
図2と同様の図4を参照すると、本開示の第3の実施形態にかかる画像処理装置はまた、対象者の特性及び外見のストレージ部301、様々な時間の監視生データのストレージ部302、検索開始点決定部303、後方追跡部304、認識部305、前方追跡部306、存在確率マップ推定部307及び第3のストレージ部308を備える。
次に、図5のフローチャートを参照して、本実施形態の第3の実施形態の一般的な動作を説明する。ステップS401,S402,S403,S404,S405,S406及びS407はそれぞれ図3のステップS201,S202,S203,S204,S205,S206及びS207と同様であるので、これらのステップの説明は省略する。
次に、本実施形態の効果を説明する。
ここでは、実施形態の第1の例と同じである効果の説明は省略する。
次に、本開示を行うためのモードの動作を、具体例により説明する。
図6に示すように、乗客の外見、年齢、性別、国籍などが第1のストレージ部501によりチェックイン中に登録される。搭乗時間が経過した後でも乗客が搭乗しておらず、手動検索によって特定できない場合、システムは対象者が特定のエリアにいる確率を推定し、ゆえに、スタッフが少ない人力かつ短時間で乗客を特定するのに有用である。
(付記1)
閉じられた空間に設けられた複数のカメラによりキャプチャされた監視画像データに基づいて対象者を検索する画像処理装置であって、
前記対象者の外見情報及び特性情報を含む人情報を取得するように構成された人情報取得部と、
様々な時間における監視画像データを取得するように構成された画像取得部と、
前記対象者の前記人情報に基づいて前記対象者が第1の時間に存在する確率が高い検索開始点を決定するように構成された検索開始点決定部と、
前記人情報に基づいて、前記対象者が前記第1の時間より前の第2の時間に様々な場所に存在する存在確率を推定し、前記対象者の前記存在確率が設計された閾値より高いエリアを決定するように構成された後方追跡部と、
前記対象者の前記取得された外見情報と前記後方追跡部により決定された前記エリア内の前記監視画像との間のマッチング度を算出し、前記マッチング度が設定された閾値より高い場所を決定するように構成された認識部と、
前記人情報及び前記認識部により決定された前記場所に基づいて、前記第2の時間より時間的に前方に、マッチング度が前記設定された閾値より高い前記対象者の候補を追跡するように構成された前方追跡部と、
前記前方追跡の結果に基づいて、前記対象者が前記第1の時間又は前記第2の時間より前記第1の時間に近い時間に存在する前記存在確率を推定するように構成された存在確率推定部と、
を備える、画像処理装置。
(付記2)
前記後方追跡部は、前記対象者が他の場所から前記検索開始点に移動する確率に基づいて、前記対象者が前記第1の時間より前の前記第2の時間において様々な場所に存在する確率を推定するように構成されている、
付記1に記載の画像処理装置。
(付記3)
前記対象者が訪問した場所についての訪問場所情報を取得するように構成された訪問場所取得部を更に備え、
前記前方追跡部は、前記訪問場所情報を用いて場所が前記対象者により訪問される確率を推定するように構成されている、
付記1又は2に記載の画像処理装置。
(付記4)
前記後方追跡部は、前記前方追跡部によって推定された前記場所を前記訪問場所情報として取得し、前記訪問場所情報に基づいて後方追跡を実行するように構成されている、
付記3に記載の画像処理装置。
(付記5)
前記存在確率推定部は前記対象者が様々な場所に存在する存在確率を示すマップを出力するように構成されている、
付記1~付記4のいずれか一項に記載の画像処理装置。
(付記6)
前記外見情報は、衣服、ヘアスタイル、身長、及び顔画像を含む、付記1~付記5のいずれか一項に記載の画像処理装置。
(付記7)
前記特性情報は、年齢、性別及び国籍を含む、付記1~付記6のいずれか一項に記載の画像処理装置。
(付記8)
付記1~付記7のいずれか一項に記載の前記画像処理装置と、
閉じられた空間に設けられた複数の監視カメラと、を備える、人検索システム。
(付記9)
前記対象者の外見情報及び特性情報を含む人情報を格納するように構成された第1のストレージ部と、
様々な時間の前記監視生データを格納するように構成された第2のストレージ部と、を更に備える、付記8に記載の人検索システム。
(付記10)
閉じられた空間に設けられた複数のカメラによってキャプチャされた監視画像データに基づいて対象者を検索する画像処理方法であって、
前記対象者の外見情報及び特性情報を含む人情報を取得し、
様々な時間における監視画像データを取得し、
前記対象者の前記人情報に基づいて、前記対象者が第1の時間において存在する確率が高い検索開始点を決定し、
前記人情報に基づいて、前記第1の時間より前の第2の時間において前記対象者が様々な場所に存在する存在確率を推定し、前記対象者の前記存在確率が設定された閾値より高いエリアを決定し、
前記取得された前記対象者の外見情報と前記決定されたエリア内の前記監視画像との間のマッチング度を算出し、前記マッチング度が設定された閾値より高い場所を決定し、
前記人情報及び前記認識部によって決定された前記場所に基づいて、前記第2の時間より時間的に前方に、マッチング度が前記設定された閾値より高い前記対象者の候補を追跡し、
前記前方追跡の結果に基づいて前記対象者が前記第1の時間に又は前記第2の時間より前記第1の時間に近い時間に存在する存在確率を推定することを含む、画像処理方法。
(付記11)
閉じられた空間に設けられた複数のカメラによってキャプチャされた監視画像データに基づいて、対象者を検索する画像処理方法をコンピュータに実行させる画像処理プログラムを格納する非一時的コンピュータ可読媒体であって、前記画像処理方法は、
前記対象者の外見情報及び特性情報を含む人情報を取得し、
様々な時間における監視画像データを取得し、
前記対象者の前記人情報に基づいて第1の時間において前記対象者が存在する確率が高い検索開始点を決定し、
前記人情報に基づいて、前記対象者が前記第1の時間より前の第2の時間において様々な場所に存在する存在確率を推定し、前記対象者の前記存在確率が設定された閾値より高いエリアを決定し、
前記対象者の前記取得された外見情報と、前記決定されたエリア内の前記監視画像との間のマッチング度を算出し、前記マッチングスコアが設定された閾値より高い場所を決定し、
前記人情報及び前記認識部によって決定された前記場所に基づいて、前記第2の時間より時間的に前方にマッチング度が前記設定された閾値よりも高い前記対象者の候補を追跡し、
前記前方追跡の結果に基づいて、前記対象者が前記第1の時間に又は前記第2の時間より前記第1の時間に近い時間に存在する存在確率を推定することを含む、非一時的コンピュータ可読媒体。
12 画像取得部
17 存在確率推定部
100 画像処理装置
101 第1のストレージ部
102 第2のストレージ部
103 検索開始点決定部
104 後方追跡部
105 認識部
106 前方追跡部
107 存在確率マップ推定部
300 人割当システム
301 第1のストレージ部
302 第2のストレージ部
303 検索開始点決定部
304 後方追跡部
305 認識部
306 前方追跡部
307 存在確率マップ推定部
308 第3のストレージ部
500 人割当システム
501 第1のストレージ部
502 第2のストレージ部
503 検索開始点決定部
504 後方追跡部
505 認識部
506 前方追跡部
507 存在確率マップ推定部
Claims (10)
- 閉じられた空間に設けられた複数のカメラによりキャプチャされた監視画像データに基づいて対象者を検索する画像処理装置であって、
前記対象者の外見情報及び特性情報を含む人情報を取得するように構成された人情報取得部と、
様々な時間における監視画像データを取得するように構成された画像取得部と、
前記対象者の前記人情報に基づいて前記対象者が第1の時間に存在する確率が高い検索開始点を決定するように構成された検索開始点決定部と、
前記人情報に基づいて、前記対象者が前記第1の時間より前の第2の時間に様々な場所に存在する存在確率を推定し、前記対象者の前記存在確率が設計された閾値より高いエリアを決定するように構成された後方追跡部と、
前記対象者の前記取得された外見情報と前記後方追跡部により決定された前記エリア内の前記監視画像データとの間のマッチング度を算出し、前記マッチング度が設定された閾値より高い場所を決定するように構成された認識部と、
前記人情報及び前記認識部により決定された前記場所に基づいて、前記第2の時間より時間的に前方に、マッチング度が前記設定された閾値より高い前記対象者の候補を追跡するように構成された前方追跡部と、
前記前方追跡部の結果に基づいて、前記対象者が前記第1の時間又は前記第2の時間より前記第1の時間に近い時間に存在する前記存在確率を推定するように構成された存在確率推定部と、
を備える、画像処理装置。 - 前記後方追跡部は、前記対象者が他の場所から前記検索開始点に移動する確率に基づいて、前記対象者が前記第1の時間より前の前記第2の時間において様々な場所に存在する確率を推定するように構成されている、
請求項1に記載の画像処理装置。 - 前記対象者が訪問した場所についての訪問場所情報を取得するように構成された訪問場所取得部を更に備え、
前記前方追跡部は、前記訪問場所情報を用いて場所が前記対象者により訪問される確率を推定するように構成されている、
請求項1又は2に記載の画像処理装置。 - 前記後方追跡部は、前記前方追跡部によって推定された前記場所を前記訪問場所情報として取得し、前記訪問場所情報に基づいて後方追跡を実行するように構成されている、
請求項3に記載の画像処理装置。 - 前記存在確率推定部は前記対象者が様々な場所に存在する存在確率を示すマップを出力するように構成されている、
請求項1~請求項4のいずれか一項に記載の画像処理装置。 - 前記外見情報は、衣服、ヘアスタイル、身長、及び顔画像を含む、請求項1~請求項5のいずれか一項に記載の画像処理装置。
- 前記特性情報は、年齢、性別及び国籍を含む、請求項1~請求項6のいずれか一項に記載の画像処理装置。
- 請求項1~請求項7のいずれか一項に記載の前記画像処理装置と、
閉じられた空間に設けられた複数の監視カメラと、を備える、人検索システム。 - 閉じられた空間に設けられた複数のカメラによってキャプチャされた監視画像データに基づいて対象者を検索する画像処理方法であって、
前記対象者の外見情報及び特性情報を含む人情報を取得し、
様々な時間における監視画像データを取得し、
前記対象者の前記人情報に基づいて、前記対象者が第1の時間において存在する確率が高い検索開始点を決定し、
前記人情報に基づいて、前記第1の時間より前の第2の時間において前記対象者が様々な場所に存在する存在確率を推定し、前記対象者の前記存在確率が設定された閾値より高いエリアを決定し、
前記取得された前記対象者の外見情報と前記決定されたエリア内の前記監視画像データとの間のマッチング度を算出し、前記マッチング度が設定された閾値より高い場所を決定し、
前記人情報及び前記マッチング度が設定された閾値によって決定された前記場所に基づいて、前記第2の時間より時間的に前方に、マッチング度が前記設定された閾値より高い前記対象者の候補を追跡し、
前記追跡の結果に基づいて、前記対象者が前記第1の時間に又は前記第2の時間より前記第1の時間に近い時間に存在する存在確率を推定することを含む、画像処理方法。 - 閉じられた空間に設けられた複数のカメラによってキャプチャされた監視画像データに基づいて、対象者を検索する画像処理方法をコンピュータに実行させる画像処理プログラムであって、前記画像処理方法は、
前記対象者の外見情報及び特性情報を含む人情報を取得し、
様々な時間における監視画像データを取得し、
前記対象者の前記人情報に基づいて第1の時間において前記対象者が存在する確率が高い検索開始点を決定し、
前記人情報に基づいて、前記対象者が前記第1の時間より前の第2の時間において様々な場所に存在する存在確率を推定し、前記対象者の前記存在確率が設定された閾値より高いエリアを決定し、
前記対象者の前記取得された外見情報と、前記決定されたエリア内の前記監視画像データとの間のマッチング度を算出し、前記マッチング度が設定された閾値より高い場所を決定し、
前記人情報及び前記マッチング度が設定された閾値によって決定された前記場所に基づいて、前記第2の時間より時間的に前方にマッチング度が前記設定された閾値よりも高い前記対象者の候補を追跡し、
前記追跡の結果に基づいて、前記対象者が前記第1の時間に又は前記第2の時間より前記第1の時間に近い時間に存在する存在確率を推定することを含む、画像処理プログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/025708 WO2020261508A1 (en) | 2019-06-27 | 2019-06-27 | Image processing device, person search system, image processing method, and non-transitory computer readable medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022535540A JP2022535540A (ja) | 2022-08-09 |
JP7264283B2 true JP7264283B2 (ja) | 2023-04-25 |
Family
ID=74060107
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021571803A Active JP7264283B2 (ja) | 2019-06-27 | 2019-06-27 | 画像処理装置、人検索システム、画像処理方法、及び画像処理プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220343653A1 (ja) |
JP (1) | JP7264283B2 (ja) |
WO (1) | WO2020261508A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020205981A1 (en) * | 2019-04-05 | 2020-10-08 | Realnetworks, Inc. | Adaptive learning and matching of face modalities |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013101431A (ja) | 2011-11-07 | 2013-05-23 | Hitachi Kokusai Electric Inc | 類似画像検索システム |
WO2014050518A1 (ja) | 2012-09-28 | 2014-04-03 | 日本電気株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
WO2014148395A1 (ja) | 2013-03-21 | 2014-09-25 | 株式会社日立国際電気 | 映像監視システム、映像監視方法、および映像監視装置 |
JP2017194798A (ja) | 2016-04-19 | 2017-10-26 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
-
2019
- 2019-06-27 WO PCT/JP2019/025708 patent/WO2020261508A1/en active Application Filing
- 2019-06-27 JP JP2021571803A patent/JP7264283B2/ja active Active
- 2019-06-27 US US17/620,793 patent/US20220343653A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013101431A (ja) | 2011-11-07 | 2013-05-23 | Hitachi Kokusai Electric Inc | 類似画像検索システム |
WO2014050518A1 (ja) | 2012-09-28 | 2014-04-03 | 日本電気株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
WO2014148395A1 (ja) | 2013-03-21 | 2014-09-25 | 株式会社日立国際電気 | 映像監視システム、映像監視方法、および映像監視装置 |
JP2017194798A (ja) | 2016-04-19 | 2017-10-26 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2022535540A (ja) | 2022-08-09 |
US20220343653A1 (en) | 2022-10-27 |
WO2020261508A1 (en) | 2020-12-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11210527B2 (en) | Target object identifying device, target object identifying method and target object identifying program | |
US8116534B2 (en) | Face recognition apparatus and face recognition method | |
JP6854881B2 (ja) | 顔画像照合システムおよび顔画像検索システム | |
US9892325B2 (en) | Image management system | |
JP5061382B2 (ja) | 時系列データの識別装置および動画像への人物メタ情報付与装置 | |
CN112016353A (zh) | 一种基于视频的人脸图像进行身份识别方法及装置 | |
Widhalm et al. | Top in the lab, flop in the field? Evaluation of a sensor-based travel activity classifier with the SHL dataset | |
JPWO2011145239A1 (ja) | 位置推定装置、位置推定方法及びプログラム | |
KR20190118965A (ko) | 시선 추적 시스템 및 방법 | |
JP2019020777A (ja) | 情報処理装置、及び、情報処理装置の制御方法、コンピュータプログラム、記憶媒体 | |
JP7264283B2 (ja) | 画像処理装置、人検索システム、画像処理方法、及び画像処理プログラム | |
JP2018067755A (ja) | 検出データ管理装置 | |
US11501568B2 (en) | Information processing apparatus, person search system, place estimation method, and non-transitory computer readable medium storing program | |
CN113570644B (zh) | 一种机场旅客定位方法、装置、电子设备及介质 | |
JP2021190051A (ja) | 行動体特定システム | |
Menon et al. | Biometrics driven smart environments: Abstract framework and evaluation | |
Hassen | A Pragmatic Evaluation of Face Smile Detection | |
CN114359646A (zh) | 一种视频分析方法、装置、系统、电子设备和介质 | |
RU2578806C1 (ru) | Способ сравнения лица человека с помощью цифрового двумерного изображения лица либо с помощью изображения лица от одной или нескольких стереокамер с двумерным изображением лица из базы данных | |
CN115620379B (zh) | 一种基于计算机视觉的商场寻人方法 | |
JP2018195872A (ja) | 情報処理装置、情報処理システム、情報処理方法及びプログラム | |
US11494942B2 (en) | Information processing device, information processing method, program, recording medium, and camera system | |
JP7328401B2 (ja) | 入出場マッチングシステムの概念 | |
WO2022079841A1 (ja) | グループ特定装置、グループ特定方法、及びコンピュータ読み取り可能な記録媒体 | |
JP7218778B2 (ja) | 情報処理システム、方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211202 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211202 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221004 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221128 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230314 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230327 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7264283 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |