JP2020123340A - 連続学習を利用して検出可能なクラスの種類をリアルタイムにアップデートすることができる物体検出システムを提供する方法及びこれを利用した装置 - Google Patents
連続学習を利用して検出可能なクラスの種類をリアルタイムにアップデートすることができる物体検出システムを提供する方法及びこれを利用した装置 Download PDFInfo
- Publication number
- JP2020123340A JP2020123340A JP2020007176A JP2020007176A JP2020123340A JP 2020123340 A JP2020123340 A JP 2020123340A JP 2020007176 A JP2020007176 A JP 2020007176A JP 2020007176 A JP2020007176 A JP 2020007176A JP 2020123340 A JP2020123340 A JP 2020123340A
- Authority
- JP
- Japan
- Prior art keywords
- specific
- vector
- update
- term
- short
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 88
- 238000000034 method Methods 0.000 title claims description 75
- 239000013598 vector Substances 0.000 claims abstract description 231
- 230000007774 longterm Effects 0.000 claims description 64
- 230000008569 process Effects 0.000 claims description 48
- 210000002569 neuron Anatomy 0.000 claims description 18
- 230000000717 retained effect Effects 0.000 claims description 4
- 238000013527 convolutional neural network Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 6
- 239000000470 constituent Substances 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 238000012644 addition polymerization Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 239000004615 ingredient Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/55—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1335—Combining adjacent partial images (e.g. slices) to create a composite input or reference pattern; Tracking a sweeping finger movement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5854—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using shape and object relationship
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/96—Management of image or video recognition tasks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1347—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1365—Matching; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Library & Information Science (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
Description
Claims (18)
- 学習されていないクラス(Untrained Class)を有する物体を検出するために物体検出システム(Object Detecting System)をリアルタイムにアップデートする方法において、
(a)少なくとも一つの入力イメージ(Input Image)が取得されると、前記物体検出システムが、これに含まれている認識器(Recognizer)をもって、前記入力イメージの特定の物体を含む特定ROIに対応する特定の特徴マップ(Feature Map)を生成させた後、前記特定の特徴マップを利用して前記特定の物体に対応する特定のクエリベクトル(Query Vector)を生成させる段階;
(b)前記物体検出システムが、類似度判断ユニット(Similarity Determining Unit)をもって、(i)前記特定のクエリベクトルを、前記物体検出システムに入力されるイメージの物体を検出するのに使用される少なくとも一つの特徴フィンガープリントデータベース(Feature Fingerprint DB)に含まれている少なくとも一つのデータベクトルと比較させて、前記特定のクエリベクトルとそれぞれの前記データベクトルとの間におけるそれぞれの少なくとも一つの第1類似度スコア(Similarity Score)を算出させ、(ii)第1類似度スコア(Similarity Score)のうち最大の特定の第1類似度スコアが予め設定された第1閾値未満である場合、前記特定ROIに対応する特定の部分イメージ(Partial Image)を、前記特徴フィンガープリントデータベースのアップデートに使用される未知のイメージデータベース(Unknown−Image DB)に追加させる段階;及び
(c)前記特定の部分イメージに対応する特定のクラス情報が取得されると、前記物体検出システムが、短期アップデートユニット(Short−Term Update Unit)をもって、前記特定のクラス情報と、前記認識器により生成された前記特定の物体に対応する特定の成分ベクトル(Element Vector)を利用して、前記特定の物体に対応する特定の短期アップデートベクトル(Short−Term Update Vector)を生成させた後、これを利用して前記特定のフィンガープリントデータベースをアップデートさせる段階;
を含むことを特徴とする方法。 - 前記(c)段階で、
前記物体検出システムが、前記短期アップデートユニットをもって、(i)前記データベクトルのうちで前記特定の短期アップデートベクトルと同一のクラス情報を有する特定のデータベクトルと前記特定の短期アップデートベクトルとの間におけるそれぞれの少なくとも一つの第2類似度スコアを算出させ、(ii)前記第2類似度スコアのうち最大値を選択させ、(iii)(iii−1)最大の第2類似度スコアが予め設定された第2閾値以上である場合、前記最大の第2類似度スコアに対応するターゲットデータベクトル(Target Data Vector)を前記特定の短期アップデートベクトルを利用してアップデートさせ、(iii−2)前記最大の第2類似度スコアが前記第2閾値未満である場合、前記特定の短期アップデートベクトルを前記特徴フィンガープリントデータベースに追加させて前記特徴フィンガープリントデータベースをアップデートさせることを特徴とする請求項1に記載の方法。 - 前記(c)段階で、
前記最大の第2類似度スコアが前記第2閾値以上である場合、前記物体検出システムは、(1)前記短期アップデートユニットをもって、前記ターゲットデータベクトルに含まれている第1対象成分ないし第N対象成分を含むそれぞれの対象成分を、前記特定の短期アップデートベクトルに含まれている第1アップデート成分ないし第Nアップデート成分を含むそれぞれのアップデート成分と比較させ、(2)前記短期アップデートユニットをもって、(i)Kは1以上N以下の整数(integer)であって、第K対象成分がデータ未存在を表す第1記号(Notation)に対応し、第Kアップデート成分は所定値を表す第2記号に対応する場合、前記第K対象成分を前記第Kアップデート成分に代替させ、(ii)前記第K対象成分が前記第2記号に対応し、前記第Kアップデート成分が前記第1記号に対応する場合、前記第K対象成分をそのまま保持させ、(iii)前記第K対象成分と前記第Kアップデート成分とがいずれも前記第2記号に対応する場合、前記第K対象成分と前記第Kアップデート成分との加重和(Weighted Sum)で前記第K対象成分をアップデートさせ、(iv)前記第K対象成分と前記第Kアップデート成分とがいずれも前記第1記号に対応する場合、前記第K対象成分をそのまま保持させることを特徴とする請求項2に記載の方法。 - 前記(c)段階で、
前記データベクトルのうちで前記特定の短期アップデートベクトルと同一のクラス情報を有する前記特定のデータベクトルが存在しない場合、前記物体検出システムは、前記短期アップデートユニットをもって、前記特定の短期アップデートベクトルを前記特徴フィンガープリントデータベースに追加させることを特徴とする請求項1に記載の方法。 - (d)前記物体検出システムが、長期アップデートユニット(Long−Term Update Unit)をもって、前記短期アップデートユニットにより使用された後、少なくとも一つの既知のイメージデータベース(Known−Image DB)に格納された、前記特定の部分イメージを含む少なくとも一つの部分イメージと、それに対応するクラス情報(前記クラス情報は前記物体検出システムに含まれている少なくとも一つの物体のクラスを表す)とに対応する少なくとも一つの長期アップデートベクトル(Long−Term Update Vector)を生成させ、前記長期アップデートベクトルを利用して前記特徴フィンガープリントデータベースをさらにアップデートさせ、
それぞれの前記長期アップデートベクトルが、それぞれの前記部分イメージと、それぞれの前記クラス情報を表す少なくとも一つの値を含むクラス部分(Class Part)とを利用して前記認識器により生成された少なくとも一つの値を含む参照部分(Reference Part)を含む段階;
をさらに含むことを特徴とする請求項1に記載の方法。 - 前記(d)段階で、
前記物体検出システムが、前記長期アップデートユニットをもって、(i)それぞれの前記長期アップデートベクトル間の少なくとも一つの第3類似度スコアを算出させ、(ii)少なくとも一つの統合長期アップデートベクトル(Integrated Long−Term Update Vector)を生成するために互いに同一のクラス情報を有する前記長期アップデートベクトルの一部を併合し、前記統合長期アップデートベクトルと、併合されていない残余長期アップデートベクトル(Remaining Long−Term Update Vector)とを前記特徴フィンガープリントデータベースに追加することによって、前記特徴フィンガープリントデータベースをアップデートさせることを特徴とする請求項5に記載の方法。 - 前記(b)段階で、
前記物体検出システムが、前記類似度判断ユニットをもって、
- 前記(a)段階で、
前記物体検出システムが、(i)前記認識器に対応するRPNをもって、前記入力イメージに含まれている前記特定ROIを検出させた後、(ii)前記認識器に対応する少なくとも一つのキーポイント検出器(Keypoint Detector)をもって、前記特定ROIに対応する前記特定の部分イメージ上の少なくとも一つのキー領域(Key Region)を検出させ、(iii)前記認識器に対応する特徴抽出器(Feature Extractor)をもって、前記特定の部分イメージを利用して前記特定の特徴マップを生成させた後、(iv)前記認識器をもって、前記特定の特徴マップ内の前記キー領域に対応する値を利用して前記特定のクエリベクトルを生成させることを特徴とする請求項1に記載の方法。 - 前記特徴抽出器は、少なくとも一つのコンボリューションニューロン(Convolutional Neuron)を有する少なくとも一つのコンボリューションレイヤを含み、それぞれの前記コンボリューションニューロンをもって、それ自体に入力された値に対して、前記コンボリューションニューロンのパラメータを利用してコンボリューション演算を適用し、その結果をその次のコンボリューションニューロンに伝達させることによって、前記特定の部分イメージから前記特定の特徴マップを抽出することを特徴とし、
前記パラメータは、前記(a)段階以前に学習プロセスを経て決定されることを特徴とする請求項1に記載の方法。 - 学習されていないクラス(Untrained Class)を有する物体を検出するために物体検出システム(Object Detecting System)をリアルタイムにアップデートする物体検出システムにおいて、
インストラクションを格納する少なくとも一つのメモリと、
(I)少なくとも一つの入力イメージ(Input Image)が取得されると、前記物体検出システムに含まれている認識器(Recognizer)をもって、前記入力イメージの特定の物体を含む特定ROIに対応する特定の特徴マップ(Feature Map)を生成させた後、前記特定の特徴マップを利用して前記特定の物体に対応する特定のクエリベクトル(Query Vector)を生成させるプロセス;(II)類似度判断ユニット(Similarity Determining Unit)をもって、(i)前記特定のクエリベクトルを、前記物体検出システムに入力されるイメージの物体を検出するのに使用される少なくとも一つの特徴フィンガープリントデータベース(Feature Fingerprint DB)に含まれている少なくとも一つのデータベクトルと比較させて、前記特定のクエリベクトルとそれぞれの前記データベクトルとの間におけるそれぞれの少なくとも一つの第1類似度スコア(Similarity Score)を算出させ、(ii)第1類似度スコア(Similarity Score)のうち最大の特定の第1類似度スコアが予め設定された第1閾値未満である場合、前記特定ROIに対応する特定の部分イメージ(Partial Image)を、前記特徴フィンガープリントデータベースのアップデートに使用される未知のイメージデータベース(Unknown−Image DB)に追加させるプロセス;及び(III)前記特定の部分イメージに対応する特定のクラス情報が取得されると、短期アップデートユニット(Short−Term Update Unit)をもって、前記特定のクラス情報と、前記認識器により生成された前記特定の物体に対応する特定の成分ベクトル(Element Vector)とを利用して、前記特定の物体に対応する特定の短期アップデートベクトル(Short−Term Update Vector)を生成させた後、これを利用して前記特徴フィンガープリントデータベースをアップデートさせるプロセスを遂行するための前記インストラクションを実行するように構成された少なくとも一つのプロセッサと、
を含むことを特徴とする物体検出システム。 - 前記(III)プロセスで、
前記プロセッサが、前記短期アップデートユニットをもって、(i)前記データベクトルのうちで前記特定の短期アップデートベクトルと同一のクラス情報を有する特定のデータベクトルと、前記特定の短期アップデートベクトルとの間におけるそれぞれの少なくとも一つの第2類似度スコアを算出させ、(ii)前記第2類似度スコアのうち最大値を選択させ、(iii)(iii−1)最大の第2類似度スコアが予め設定された第2閾値以上である場合、前記最大の第2類似度スコアに対応するターゲットデータベクトル(Target Data Vector)を前記特定の短期アップデートベクトルを利用してアップデートさせ、(iii−2)前記最大の第2類似度スコアが前記第2閾値未満である場合、前記特定の短期アップデートベクトルを前記特徴フィンガープリントデータベースに追加させて前記特徴フィンガープリントデータベースをアップデートさせることを特徴とする請求項10に記載の物体検出システム。 - 前記(III)プロセスで、
前記最大の第2類似度スコアが前記第2閾値以上である場合、前記プロセスが、(I)前記短期アップデートユニットをもって、前記ターゲットデータベクトルに含まれている第1対象成分ないし第N対象成分を含むそれぞれの対象成分を、前記特定の短期アップデートベクトルに含まれている第1アップデート成分ないし第Nアップデート成分を含むそれぞれのアップデート成分と比較させ、(II)前記短期アップデートユニットをもって、(i)Kは1以上N以下の整数であって、第K対象成分がデータ未存在を表す第1記号(Notation)に対応し、第Kアップデート成分は所定値を表す第2記号に対応する場合、前記第K対象成分を前記第Kアップデート成分に代替させ、(ii)前記第K対象成分が前記第2記号に対応し、前記第Kアップデート成分が前記第1記号に対応する場合、前記第K対象成分をそのまま保持させ、(iii)前記第K対象成分と前記第Kアップデート成分とがいずれも前記第2記号に対応する場合、前記第K対象成分と前記第Kアップデート成分との加重和(Weighted Sum)で前記第K対象成分をアップデートさせ、(iv)前記第K対象成分と前記第Kアップデート成分とがいずれも前記第1記号に対応する場合、前記第K対象成分をそのまま保持させることを特徴とする請求項10に記載の物体検出システム。 - 前記(III)プロセスで、
前記データベクトルのうちで前記特定の短期アップデートベクトルと同一のクラス情報を有する前記特定のデータベクトルが存在しない場合、前記プロセッサが、前記短期アップデートユニットをもって、前記特定の短期アップデートベクトルを前記特徴フィンガープリントデータベースに追加させることを特徴とする請求項10に記載の物体検出システム。 - 前記プロセッサが、
(IV)長期アップデートユニット(Long−Term Update Unit)をもって、前記短期アップデートユニットにより使用された後、少なくとも一つの既知のイメージデータベース(Known−Image DB)に格納された、前記特定の部分イメージを含む少なくとも一つの部分イメージと、それに対応するクラス情報(前記クラス情報は前記物体検出システムに含まれている少なくとも一つの物体のクラスを表す)とに対応する少なくとも一つの長期アップデートベクトル(Long−Term Update Vector)を生成させ、前記長期アップデートベクトルを利用して前記特徴フィンガープリントデータベースをさらにアップデートさせ、
それぞれの前記長期アップデートベクトルが、それぞれの前記部分イメージと、それぞれの前記クラス情報を表す少なくとも一つの値を含むクラス部分(Class Part)とを利用して前記認識器により生成された少なくとも一つの値を含む参照部分(Reference Part)を含むプロセス;
をさらに遂行することを特徴とする請求項10に記載の物体検出システム。 - 前記(IV)プロセスで、
前記プロセッサが、前記長期アップデートユニットをもって、(i)それぞれの前記長期アップデートベクトル間の少なくとも一つの第3類似度スコアを算出させ、(ii)少なくとも一つの統合長期アップデートベクトル(Integrated Long−Term Update Vector)を生成するために互いに同一のクラス情報を有する前記長期アップデートベクトルの一部を併合し、前記統合長期アップデートベクトルと、併合されていない残余長期アップデートベクトル(Remaining Long−Term Update Vector)とを前記特徴フィンガープリントデータベースに追加することによって、前記特徴フィンガープリントデータベースをアップデートさせることを特徴とする請求項14に記載の物体検出システム。 - 前記(II)プロセスで、
前記プロセッサが、前記類似度判断ユニットをもって、
- 前記(I)プロセスで、
前記プロセッサが、(i)前記認識器に対応するRPNをもって、前記入力イメージに含まれている前記特定ROIを検出させた後、(ii)前記認識器に対応する少なくとも一つのキーポイント検出器(Keypoint Detector)をもって、前記特定ROIに対応する前記特定の部分イメージ上の少なくとも一つのキー領域(Key Region)を検出させ、(iii)前記認識器に対応する特徴抽出器(Feature Extractor)をもって、前記特定の部分イメージを利用して前記特定の特徴マップを生成させた後、(iv)前記認識器をもって、前記特定の特徴マップ内の前記キー領域に対応する値を利用して前記特定のクエリベクトルを生成させることを特徴とする請求項10に記載の物体検出システム。 - 前記特徴抽出器は、少なくとも一つのコンボリューションニューロン(Convolutional Neuron)を有する少なくとも一つのコンボリューションレイヤを含み、それぞれの前記コンボリューションニューロンをもって、それ自体に入力された値に対して、前記コンボリューションニューロンのパラメータを利用してコンボリューション演算を適用し、その結果をその次のコンボリューションニューロンに伝達させることによって前記特定の部分イメージから前記特定の特徴マップを抽出することを特徴とし、
前記パラメータは、前記(I)プロセス以前に学習プロセスを経て決定されることを特徴とする請求項10に記載の物体検出システム。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962798761P | 2019-01-30 | 2019-01-30 | |
US62/798,761 | 2019-01-30 | ||
US16/723,652 US10621473B1 (en) | 2019-01-30 | 2019-12-20 | Method for providing object detecting system capable of updating types of detectable classes in real-time by using continual learning and devices using the same |
US16/723,652 | 2019-12-20 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020123340A true JP2020123340A (ja) | 2020-08-13 |
JP6962605B2 JP6962605B2 (ja) | 2021-11-05 |
Family
ID=70223677
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020007176A Active JP6962605B2 (ja) | 2019-01-30 | 2020-01-20 | 連続学習を利用して検出可能なクラスの種類をリアルタイムにアップデートすることができる物体検出システムを提供する方法及びこれを利用した装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10621473B1 (ja) |
EP (1) | EP3690710A1 (ja) |
JP (1) | JP6962605B2 (ja) |
KR (1) | KR102349927B1 (ja) |
CN (1) | CN111507164B (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7552287B2 (ja) | 2020-11-25 | 2024-09-18 | セイコーエプソン株式会社 | 物体検出方法、物体検出装置、及び、コンピュータープログラム |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102672010B1 (ko) * | 2020-12-29 | 2024-06-04 | 고려대학교 산학협력단 | 인공지능을 이용한 안면부 골절 판독 장치 및 방법 |
KR102637170B1 (ko) * | 2021-03-16 | 2024-02-14 | 현대모비스 주식회사 | 설명가능 ai 기반 불량검출 장치 및 방법 |
CN113609323B (zh) * | 2021-07-20 | 2024-04-23 | 上海德衡数据科技有限公司 | 基于神经网络的图像降维方法及系统 |
CN113297411B (zh) * | 2021-07-26 | 2021-11-09 | 深圳市信润富联数字科技有限公司 | 轮形图谱相似性的度量方法、装置、设备及存储介质 |
KR20230029258A (ko) | 2021-08-24 | 2023-03-03 | 한국과학기술연구원 | 다중 카메라에서 대상 객체를 추적하기 위한 질의 정보를 업데이트하는 방법 및 이를 수행하는 다중 카메라 시스템 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120134576A1 (en) * | 2010-11-26 | 2012-05-31 | Sharma Avinash | Automatic recognition of images |
US8532400B1 (en) * | 2009-12-07 | 2013-09-10 | Google Inc. | Scene classification for place recognition |
JP2018528525A (ja) * | 2015-08-04 | 2018-09-27 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | 未知クラスの検出および未知クラスのための分類器の初期化 |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4426436B2 (ja) * | 2004-12-27 | 2010-03-03 | 株式会社日立製作所 | 車両検知装置 |
US7840060B2 (en) * | 2006-06-12 | 2010-11-23 | D&S Consultants, Inc. | System and method for machine learning using a similarity inverse matrix |
JP4594945B2 (ja) * | 2007-02-13 | 2010-12-08 | 株式会社東芝 | 人物検索装置および人物検索方法 |
TW200842733A (en) * | 2007-04-17 | 2008-11-01 | Univ Nat Chiao Tung | Object image detection method |
US8533162B2 (en) * | 2009-08-18 | 2013-09-10 | Osaka Prefecture University Public Corporation | Method for detecting object |
JP5385759B2 (ja) * | 2009-10-30 | 2014-01-08 | キヤノン株式会社 | 画像処理装置及び画像処理方法 |
JP5554987B2 (ja) * | 2009-12-28 | 2014-07-23 | キヤノン株式会社 | オブジェクト識別装置及びその制御方法 |
KR101180471B1 (ko) * | 2011-09-27 | 2012-09-07 | (주)올라웍스 | 한정된 메모리 환경 하에서 얼굴 인식 성능 향상을 위한 참조 얼굴 데이터베이스 관리 방법, 장치 및 컴퓨터 판독 가능한 기록 매체 |
JP6161271B2 (ja) * | 2011-12-22 | 2017-07-12 | キヤノン株式会社 | 情報処理装置、その制御方法、及びプログラム |
JP2015121874A (ja) * | 2013-12-20 | 2015-07-02 | 富士通株式会社 | 生体認証装置、照合用データ検証方法及び照合用データ検証用コンピュータプログラム |
JP6427973B2 (ja) * | 2014-06-12 | 2018-11-28 | オムロン株式会社 | 画像認識装置及び画像認識装置への特徴量データ登録方法 |
US9767385B2 (en) * | 2014-08-12 | 2017-09-19 | Siemens Healthcare Gmbh | Multi-layer aggregation for object detection |
WO2016054778A1 (en) * | 2014-10-09 | 2016-04-14 | Microsoft Technology Licensing, Llc | Generic object detection in images |
US9996768B2 (en) * | 2014-11-19 | 2018-06-12 | Adobe Systems Incorporated | Neural network patch aggregation and statistics |
US20170177712A1 (en) * | 2015-12-21 | 2017-06-22 | Ebay Inc. | Single step cross-linguistic search using semantic meaning vectors |
US10289478B2 (en) * | 2016-04-26 | 2019-05-14 | Nec Corporation | System fault diagnosis via efficient temporal and dynamic historical fingerprint retrieval |
US10303977B2 (en) * | 2016-06-28 | 2019-05-28 | Conduent Business Services, Llc | System and method for expanding and training convolutional neural networks for large size input images |
CN106326927B (zh) * | 2016-08-24 | 2019-06-04 | 大连海事大学 | 一种鞋印新类别检测方法 |
US10223612B2 (en) * | 2016-09-01 | 2019-03-05 | Microsoft Technology Licensing, Llc | Frame aggregation network for scalable video face recognition |
WO2018079031A1 (ja) * | 2016-10-31 | 2018-05-03 | 日本電気株式会社 | 画像処理装置、画像処理方法、顔認証システム、プログラム及び記録媒体 |
CN106960214B (zh) * | 2017-02-17 | 2020-11-20 | 北京一维弦科技有限责任公司 | 基于图像的物体识别方法 |
US10394881B2 (en) * | 2017-03-31 | 2019-08-27 | Google Llc | Automatic suggestions to share images |
CN108875491B (zh) * | 2017-10-11 | 2021-03-23 | 北京旷视科技有限公司 | 人脸解锁认证的数据更新方法、认证设备和系统以及非易失性存储介质 |
US11295140B2 (en) * | 2018-03-14 | 2022-04-05 | Comcast Cable Communications, Llc | Methods and systems for determining object activity within a region of interest |
CN110633604B (zh) * | 2018-06-25 | 2023-04-25 | 富士通株式会社 | 信息处理方法和信息处理装置 |
US10452959B1 (en) * | 2018-07-20 | 2019-10-22 | Synapse Tehnology Corporation | Multi-perspective detection of objects |
US11080542B2 (en) * | 2018-07-27 | 2021-08-03 | International Business Machines Corporation | Sparse region-of-interest pooling for object detection |
-
2019
- 2019-12-20 US US16/723,652 patent/US10621473B1/en active Active
-
2020
- 2020-01-06 KR KR1020200001713A patent/KR102349927B1/ko active IP Right Grant
- 2020-01-14 EP EP20151661.4A patent/EP3690710A1/en active Pending
- 2020-01-20 JP JP2020007176A patent/JP6962605B2/ja active Active
- 2020-01-21 CN CN202010072012.0A patent/CN111507164B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8532400B1 (en) * | 2009-12-07 | 2013-09-10 | Google Inc. | Scene classification for place recognition |
US20120134576A1 (en) * | 2010-11-26 | 2012-05-31 | Sharma Avinash | Automatic recognition of images |
JP2018528525A (ja) * | 2015-08-04 | 2018-09-27 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | 未知クラスの検出および未知クラスのための分類器の初期化 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7552287B2 (ja) | 2020-11-25 | 2024-09-18 | セイコーエプソン株式会社 | 物体検出方法、物体検出装置、及び、コンピュータープログラム |
Also Published As
Publication number | Publication date |
---|---|
EP3690710A1 (en) | 2020-08-05 |
US10621473B1 (en) | 2020-04-14 |
KR102349927B1 (ko) | 2022-01-12 |
CN111507164B (zh) | 2023-11-07 |
JP6962605B2 (ja) | 2021-11-05 |
CN111507164A (zh) | 2020-08-07 |
KR20200094640A (ko) | 2020-08-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020123340A (ja) | 連続学習を利用して検出可能なクラスの種類をリアルタイムにアップデートすることができる物体検出システムを提供する方法及びこれを利用した装置 | |
Nguyen et al. | Help, anna! visual navigation with natural multimodal assistance via retrospective curiosity-encouraging imitation learning | |
Sadeghian et al. | Sophie: An attentive gan for predicting paths compliant to social and physical constraints | |
EP3686779B1 (en) | Method and device for attention-based lane detection without post-processing by using lane mask and testing method and testing device using the same | |
CN111489403B (zh) | 利用gan来生成虚拟特征图的方法及装置 | |
US10628688B1 (en) | Learning method and learning device, and testing method and testing device for detecting parking spaces by using point regression results and relationship between points to thereby provide an auto-parking system | |
CN112926410B (zh) | 目标跟踪方法、装置、存储介质及智能视频系统 | |
CN111507150B (zh) | 利用基于深度神经网络的多重图像块组合识别人脸的方法 | |
JP2020126614A (ja) | 高精度イメージを分析するディープラーニングネットワークの学習に利用するためのトレーニングイメージをオートラベリングするための方法、及びこれを利用したオートラベリング装置{method for auto−labeling training images for use in deep learning network to analyze images with high precision, and auto−labeling device using the same} | |
Malbog | MASK R-CNN for pedestrian crosswalk detection and instance segmentation | |
EP3686791B1 (en) | Learning method and learning device for object detector based on cnn to be used for multi-camera or surround view monitoring using image concatenation and target object merging network, and testing method and testing device using the same | |
EP3690725A1 (en) | Method and device for seamless parameter switch by using location-specific algorithm selection to achieve optimized autonomous driving in each of regions | |
JP2020038660A (ja) | CNN(Convolutional Neural Network)を利用して車線を検出するための学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{LEARNING METHOD, LEARNING DEVICE FOR DETECTING LANE USING CNN AND TEST METHOD, TEST DEVICE USING THE SAME} | |
CN112231034A (zh) | 结合rpa和ai的软件界面元素的识别方法与装置 | |
EP3623991B1 (en) | Learning method, learning device for detecting lanes on the basis of cnn and testing method, testing device using the same | |
CN111507151A (zh) | 使得能够评价自动行驶客体检测过程的支援方法及装置 | |
CN115527083A (zh) | 图像标注方法、装置和电子设备 | |
CN113670310B (zh) | 视觉语音导航方法、装置、设备及存储介质 | |
CN115187614A (zh) | 一种基于stdc语义分割网络的实时同时定位与建图方法 | |
Zhou et al. | Tracking of drone flight by neural network Siamese-RPN | |
Gaspar et al. | Limit characterization for visual place recognition in underwater scenes | |
Li et al. | A fast detection method for polynomial fitting lane with self-attention module added | |
Sadler et al. | Yes, this Way! Learning to Ground Referring Expressions into Actions with Intra-episodic Feedback from Supportive Teachers | |
Khachaturov et al. | Applying spatio-temporal analysis to angle-distance views for detection of relevant events | |
Arfa et al. | A dissimilarity measure estimation for analyzing trajectory data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200120 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210615 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210913 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211005 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211007 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6962605 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |