JP7418315B2 - 対象の再特定の方法 - Google Patents
対象の再特定の方法 Download PDFInfo
- Publication number
- JP7418315B2 JP7418315B2 JP2020180097A JP2020180097A JP7418315B2 JP 7418315 B2 JP7418315 B2 JP 7418315B2 JP 2020180097 A JP2020180097 A JP 2020180097A JP 2020180097 A JP2020180097 A JP 2020180097A JP 7418315 B2 JP7418315 B2 JP 7418315B2
- Authority
- JP
- Japan
- Prior art keywords
- vector
- images
- anatomical features
- input
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000013598 vector Substances 0.000 claims description 202
- 238000013528 artificial neural network Methods 0.000 claims description 86
- 238000000034 method Methods 0.000 claims description 78
- 238000012545 processing Methods 0.000 claims description 27
- 238000010191 image analysis Methods 0.000 claims description 6
- 238000001514 detection method Methods 0.000 claims description 5
- 238000011156 evaluation Methods 0.000 claims description 4
- 210000003484 anatomy Anatomy 0.000 claims 1
- 230000000875 corresponding effect Effects 0.000 description 8
- 210000001508 eye Anatomy 0.000 description 7
- 210000001331 nose Anatomy 0.000 description 7
- 210000004247 hand Anatomy 0.000 description 5
- 238000012544 monitoring process Methods 0.000 description 5
- 230000008685 targeting Effects 0.000 description 5
- 210000000245 forearm Anatomy 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000001914 filtration Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 210000000214 mouth Anatomy 0.000 description 2
- 238000000275 quality assurance Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 210000001513 elbow Anatomy 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 210000002832 shoulder Anatomy 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24143—Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Description
対象の再特定のための複数のニューラルネットワークを提供することであって、複数のニューラルネットワークのそれぞれは、異なるセットの解剖学的特徴を持つ画像データを学習しており、各セットが基準ベクトルにより表される、対象の再特定のための複数のニューラルネットワークを提供することと、
対象の複数の画像と、それら複数の画像のすべてに描かれている解剖学的特徴を表している入力ベクトルと、を受け取ることと、
入力ベクトルと、最も類似する基準ベクトルを予め定められた条件にしたがって特定するための基準ベクトルと、を比較することと、
複数の対象の画像データを、それら複数の対象が同じ固有性を有するか否かを判定するための最も類似する基準ベクトルにより表されるニューラルネットワークに入力することと、
を含む。同じ固有性とは、複数の画像に撮像された複数の対象が、実際に複数回にわたって撮像されている同じ対象であることを意味する。
入力ベクトルを、予め設定された品質条件に対して評価することと、
予め設定された品質条件が満たされている場合、入力ベクトルを比較することと、画像データを入力することと、を行うことと、
予め設定された品質条件が満たされていない場合、複数の画像における少なくとも1つの画像を廃棄することと、複数の画像に基づいて、新たな入力ベクトルを入力ベクトルとして特定することと、この方法を、入力ベクトルを評価することから繰り返すことと、
をさらに含む。
1つ又はそれ以上のカメラにより、複数の画像を撮像することと、
複数の画像のすべてに描かれている解剖学的特徴を特定することと、
特定された解剖学的特徴を表している入力ベクトルを特定することと、
をさらに含んでよい。
1つ又はそれ以上のカメラにより画像を撮像することと、
所定のフレーム距離、タイムギャップ(所要時間の差)、画像鮮鋭度(image sharpness)、描かれた対象のポーズ、解像度、領域のアスペクト比、及び平面の回転に基づいて複数の画像を形成するために、異なる画像を選択することと、
を含んでよい。
人を対象とする際の複数の画像と、それら複数の画像のすべてに描かれている解剖学的特徴を表している入力ベクトルと、を受け取るよう構成されているレシーバと、
入力ベクトルと、最も類似する基準ベクトルを予め定められた条件にしたがって特定するための基準ベクトルと、を比較するよう適合されている比較コンポーネントと、
複数の対象の画像データを、複数の人を対象とする際に、それら複数の人が同じ固有性を有するか否かを判定するための最も類似する基準ベクトルにより表されるニューラルネットワークに入力するよう構成されている判定コンポーネントと、
複数の対象を、同じ固有性を持つものとみなすか否かについて、ビデオ処理ユニットを制御するよう構成されている制御コンポーネントと、
を含む。
所定のフレーム距離、例えば、90フレーム毎。
タイムギャップ、例えば、5秒毎。
画像鮮鋭度、これは、各画像に対する鮮鋭度を特定することと、鮮鋭度が最良の画像を選択することと、により特定され得る。鮮鋭度は、画像全体に対して、又は、画像の、例えば、対象が配置される、若しくは、配置される可能性が高い選択されたエリアに対して、特定されてよい。
検出された対象のポーズ、これは、検出された対象のキーポイント、エッジ、又は輪郭を見ることにより特定され得る。特定のポーズを有する、又は、同様のポーズを有する対象を持つ画像が選択されてよい。
解像度、これは、画像全体に対して、又は、選択された領域に対して特定され得る。解像度が最良の画像が選択される。
対象領域のアスペクト比、ここでは、領域は、境界ボックスに対応してよい。アスペクト比は、対象のサイズについての情報を提供する。アプリケーションが違う場合には、別のアスペクト比が好適であってよい。
[a b c d e f]
a:眼
b:鼻
c:口
d:肩
e:肘
f:手
Claims (12)
- 対象とするタイプの対象の画像における対象の再特定の方法であって、
対象の再特定のための複数のニューラルネットワーク(27)を提供すること(S110)であって、前記複数のニューラルネットワーク(27)における異なるニューラルネットワークは、前記対象とするタイプに対する異なるセットの解剖学的特徴を学習している、対象の再特定のための複数のニューラルネットワーク(27)を提供することと、
各セットの解剖学的特徴について基準ベクトルを提供することであって、当該基準ベクトルは、キーポイントベクトルによって一セットの解剖学的特徴を表し、ここで当該ベクトルにおける各位置はキーポイントを表し、各ベクトルの位置のバイナリ値は、表された前記キーポイントが前記一セットの解剖学的特徴に含まれる解剖学的特徴に対応するかどうかを示す、基準ベクトルを提供することと、
前記対象とするタイプの対象(38)の複数の画像(4)を受け取ること(S102)と、
前記複数の画像(4)における前記対象とするタイプの対象(38)を、対象検出アルゴリズムによって検出すること(S104)と、
検出された前記対象(38)の解剖学的特徴を、画像分析アルゴリズムによって特定すること(S106)と、
前記複数の画像(4)のすべてにおいて特定された共通の一セットの解剖学的特徴を特定することと、
前記共通の一セットの解剖学的特徴を表している入力ベクトルを特定すること(S108)であって、前記入力ベクトルは、前記解剖学的特徴を表しているキーポイントベクトルの形態であり、ここで当該ベクトルにおける各位置はキーポイントを表し、各ベクトルの位置のバイナリ値は、表された前記キーポイントが前記共通の一セットの解剖学的特徴に含まれる解剖学的特徴に対応するかどうかを示す、入力ベクトルを特定することと、
最も類似する基準ベクトルを予め定められた条件にしたがって特定するために、前記入力ベクトルと前記基準ベクトルとを比較すること(S112)と、
前記複数の対象(38)が同じ固有性を有するか否かを判定するために、前記複数の画像(4)の画像データのすべて又は一部を含む、前記複数の対象(38)の画像データを、前記最も類似する基準ベクトルにより表される前記ニューラルネットワーク(#1)に入力すること(S116)と、
を含む、方法。 - 前記対象とするタイプは人である、請求項1に記載の方法。
- 前記予め定められた条件は、前記入力ベクトルに等しい基準ベクトルを、前記最も類似する基準ベクトルとして特定することを規定する、請求項1または2に記載の方法。
- 前記予め定められた条件は、前記基準ベクトルから、前記入力ベクトルとの重なりが最も大きい基準ベクトルを、前記最も類似する基準ベクトルとして特定することを規定する、請求項1から3のいずれか一項に記載の方法。
- 前記予め定められた条件は、前記基準ベクトルから、優先リストにより規定されるように、前記入力ベクトルと重なっている解剖学的特徴の数が最も多い基準ベクトルを特定することを規定する、請求項1から4のいずれか一項に記載の方法。
- 前記入力ベクトルを、予め設定された品質条件に対して評価することと、
前記予め設定された品質条件が満たされている場合、前記入力ベクトルを比較するステップと、前記画像データを入力するステップと、を行うことと、
前記予め設定された品質条件が満たされていない場合、前記複数の画像における少なくとも1つの画像を廃棄することと、前記複数の画像に基づいて、新たな入力ベクトルを前記入力ベクトルとして特定することと、前記方法を、前記入力ベクトルを評価するステップから繰り返すことと、
をさらに含む、請求項1から5のいずれか一項に記載の方法。 - 前記入力ベクトルの評価は、前記入力ベクトルと、そこから、少なくとも1つの解剖学的特徴が前記入力ベクトルにおいて表されるべきである、解剖学的特徴の予め規定されたリストとを比較することを含む、請求項6に記載の方法。
- 前記複数の画像は、複数の時点において1つのカメラにより、同じシーンを異なる角度からカバーする複数のカメラにより、又は、異なるシーンを描く複数のカメラにより撮像される、請求項1から7のいずれか一項に記載の方法。
- 前記複数の画像の画像データを入力することは、前記複数の画像のすべてに描かれている前記解剖学的特徴のみを表している画像データを入力することを含む、請求項1から8のいずれか一項に記載の方法。
- 前記複数の画像を受け取るステップは、
1つ又はそれ以上のカメラにより画像(22)を撮像することと、
所定のフレーム距離、タイムギャップ、画像鮮鋭度、描かれた対象のポーズ、解像度、領域のアスペクト比、及び平面の回転に基づいて前記複数の画像を形成するために、前記異なる画像を選択することと、
を含む、請求項1から9のいずれか一項に記載の方法。 - 処理能力を有するデバイス上で実行されると、請求項1から10のいずれか一項に記載の方法を行うよう構成されているコンピュータ可読プログラムコードが記録されている、非一時的コンピュータ可読記録媒体。
- 対象の再特定を促進するビデオ処理ユニットを制御するためのコントローラであって、前記コントローラは、対象とするタイプの対象の画像における対象の再特定のための複数のニューラルネットワークへのアクセスを有し、前記複数のニューラルネットワークにおける異なるニューラルネットワークは、前記対象とするタイプに対する異なるセットの解剖学的特徴を学習しており、各セットの解剖学的特徴は、基準ベクトルにより表されており、当該基準ベクトルは、キーポイントベクトルによって一セットの解剖学的特徴を表し、ここで当該ベクトルにおける各位置はキーポイントを表し、各ベクトルの位置のバイナリ値は、表された前記キーポイントが前記一セットの解剖学的特徴に含まれる解剖学的特徴に対応するかどうかを示し、前記コントローラは、
前記対象とするタイプの対象の複数の画像を受け取るよう構成されているレシーバと、
特定コンポーネントであって、
前記複数の画像における前記対象とするタイプの対象を、対象検出アルゴリズムによって検出し、
検出された前記対象の解剖学的特徴を、画像分析アルゴリズムによって特定し、
前記複数の画像のすべてにおいて特定された共通の一セットの解剖学的特徴を特定し、
前記共通の一セットの解剖学的特徴を表している入力ベクトルを特定する
よう構成されており、前記入力ベクトルは、前記解剖学的特徴を表しているキーポイントベクトルの形態であり、ここで当該ベクトルにおける各位置はキーポイントを表し、各ベクトルの位置のバイナリ値は、表された前記キーポイントが前記共通の一セットの解剖学的特徴に含まれる解剖学的特徴に対応するかどうかを示す、特定コンポーネントと、
最も類似する基準ベクトルを予め定められた条件にしたがって特定するために、前記入力ベクトルと前記基準ベクトルとを比較するよう適合されている比較コンポーネントと、
前記複数の対象が同じ固有性を有するか否かを判定するために、前記複数の画像の画像データのすべて又は一部を含む、前記複数の対象の画像データを、前記最も類似する基準ベクトルにより表される前記ニューラルネットワークに入力するよう構成されている入力コンポーネントと、
前記複数の対象を、同じ固有性を持つものとみなすか否かについて、前記ビデオ処理ユニットを制御するよう構成されている制御コンポーネントと、
を備える、コントローラ。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP19207906 | 2019-11-08 | ||
EP19207906.9A EP3819812B1 (en) | 2019-11-08 | 2019-11-08 | A method of object re-identification |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021089717A JP2021089717A (ja) | 2021-06-10 |
JP2021089717A5 JP2021089717A5 (ja) | 2023-08-18 |
JP7418315B2 true JP7418315B2 (ja) | 2024-01-19 |
Family
ID=68501378
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020180097A Active JP7418315B2 (ja) | 2019-11-08 | 2020-10-28 | 対象の再特定の方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20210142149A1 (ja) |
EP (1) | EP3819812B1 (ja) |
JP (1) | JP7418315B2 (ja) |
CN (1) | CN112784669A (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230011817A (ko) * | 2021-07-14 | 2023-01-25 | 한국전자통신연구원 | 환경 매칭 기반 물체 인식 장치 및 방법 |
EP4198915A1 (fr) * | 2021-12-16 | 2023-06-21 | Bull SAS | Procédé de ré-identification d'objet, dispositif et système de ré-identification d'objets mettant en uvre un tel procédé |
US20230215519A1 (en) * | 2022-01-05 | 2023-07-06 | Merative Us L.P. | Indexing of clinical background information for anatomical relevancy |
JP7360115B1 (ja) | 2022-04-13 | 2023-10-12 | 株式会社Ridge-i | 情報処理装置、情報処理方法及び情報処理プログラム |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019109709A (ja) | 2017-12-18 | 2019-07-04 | 株式会社東芝 | 画像処理装置、画像処理方法およびプログラム |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6128398A (en) * | 1995-01-31 | 2000-10-03 | Miros Inc. | System, method and application for the recognition, verification and similarity ranking of facial or other object patterns |
US9613258B2 (en) * | 2011-02-18 | 2017-04-04 | Iomniscient Pty Ltd | Image quality assessment |
CN109918975B (zh) * | 2017-12-13 | 2022-10-21 | 腾讯科技(深圳)有限公司 | 一种增强现实的处理方法、对象识别的方法及终端 |
US11429842B2 (en) * | 2019-02-24 | 2022-08-30 | Microsoft Technology Licensing, Llc | Neural network for skeletons from input images |
-
2019
- 2019-11-08 EP EP19207906.9A patent/EP3819812B1/en active Active
-
2020
- 2020-09-30 US US17/038,528 patent/US20210142149A1/en active Pending
- 2020-10-23 CN CN202011144403.5A patent/CN112784669A/zh active Pending
- 2020-10-28 JP JP2020180097A patent/JP7418315B2/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019109709A (ja) | 2017-12-18 | 2019-07-04 | 株式会社東芝 | 画像処理装置、画像処理方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2021089717A (ja) | 2021-06-10 |
CN112784669A (zh) | 2021-05-11 |
EP3819812B1 (en) | 2023-08-16 |
EP3819812A1 (en) | 2021-05-12 |
US20210142149A1 (en) | 2021-05-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7418315B2 (ja) | 対象の再特定の方法 | |
CN107423690B (zh) | 一种人脸识别方法及装置 | |
CN106557726B (zh) | 一种带静默式活体检测的人脸身份认证系统及其方法 | |
JP6655878B2 (ja) | 画像認識方法及び装置、プログラム | |
Portmann et al. | People detection and tracking from aerial thermal views | |
EP2192549B1 (en) | Target tracking device and target tracking method | |
Vishwakarma et al. | Automatic detection of human fall in video | |
WO2018006834A1 (en) | Systems, processes and devices for occlusion detection for video-based object tracking | |
KR20210090139A (ko) | 정보처리장치, 정보처리방법 및 기억매체 | |
CN109784130B (zh) | 行人重识别方法及其装置和设备 | |
US10146992B2 (en) | Image processing apparatus, image processing method, and storage medium that recognize an image based on a designated object type | |
JP5722381B2 (ja) | ビデオ解析 | |
JP6654789B2 (ja) | 変化点で複数候補を考慮して物体を追跡する装置、プログラム及び方法 | |
JP6822482B2 (ja) | 視線推定装置、視線推定方法及びプログラム記録媒体 | |
JP6043933B2 (ja) | 眠気レベルの推定装置、眠気レベルの推定方法および眠気レベルの推定処理プログラム | |
US11804026B2 (en) | Device and a method for processing data sequences using a convolutional neural network | |
JP2021503139A (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
JP6349448B1 (ja) | 情報処理装置、情報処理プログラム、及び、情報処理方法 | |
JP2002342762A (ja) | 物体追跡方法 | |
US9286707B1 (en) | Removing transient objects to synthesize an unobstructed image | |
Makris et al. | Robust 3d human pose estimation guided by filtered subsets of body keypoints | |
JP2019040592A (ja) | 情報処理装置、情報処理プログラム、及び、情報処理方法 | |
Tanikawa et al. | Wheelchair-user detection combined with parts-based tracking | |
KR102194511B1 (ko) | 대표 영상프레임 결정시스템 및 이를 이용한 방법 | |
Duanmu et al. | A multi-view pedestrian tracking framework based on graph matching |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230809 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230809 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20230809 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231201 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231212 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240109 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7418315 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |