JP2020524348A - 顔画像検索方法およびシステム、撮影装置、ならびにコンピュータ記憶媒体 - Google Patents
顔画像検索方法およびシステム、撮影装置、ならびにコンピュータ記憶媒体 Download PDFInfo
- Publication number
- JP2020524348A JP2020524348A JP2019571526A JP2019571526A JP2020524348A JP 2020524348 A JP2020524348 A JP 2020524348A JP 2019571526 A JP2019571526 A JP 2019571526A JP 2019571526 A JP2019571526 A JP 2019571526A JP 2020524348 A JP2020524348 A JP 2020524348A
- Authority
- JP
- Japan
- Prior art keywords
- image
- information
- face
- searched
- face image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 105
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 133
- 238000004364 calculation method Methods 0.000 claims abstract description 129
- 238000012216 screening Methods 0.000 claims description 61
- 238000012545 processing Methods 0.000 claims description 53
- 238000003384 imaging method Methods 0.000 claims description 27
- 230000000694 effects Effects 0.000 claims description 23
- 230000001815 facial effect Effects 0.000 claims description 11
- 230000004044 response Effects 0.000 claims description 6
- 238000011156 evaluation Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 abstract description 10
- 238000013528 artificial neural network Methods 0.000 abstract description 4
- 238000004891 communication Methods 0.000 description 16
- 230000008569 process Effects 0.000 description 15
- 238000001514 detection method Methods 0.000 description 8
- 238000004590 computer program Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 239000011521 glass Substances 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 229910021421 monocrystalline silicon Inorganic materials 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 101150052583 CALM1 gene Proteins 0.000 description 2
- 101150095793 PICALM gene Proteins 0.000 description 2
- 230000004075 alteration Effects 0.000 description 2
- 101150014174 calm gene Proteins 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000366 juvenile effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000013441 quality evaluation Methods 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/53—Querying
- G06F16/532—Query formulation, e.g. graphical querying
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/53—Querying
- G06F16/538—Presentation of query results
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7837—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
- G06F16/784—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content the detected or recognised objects being people
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0463—Neocognitrons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/169—Holistic features and representations, i.e. based on the facial image taken as a whole
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Library & Information Science (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
本願は2017年08月31日に出願された、出願番号201710774389.9、発明の名称「顔画像検索方法およびシステム、撮影装置、ならびにコンピュータ記憶媒体」の中国特許出願に基づいて提出され、該中国特許出願の優先権を主張し、その開示の全てが参照によって本願に組み込まれる。
畳み込みニューラルネットワークによって検索対象の画像に対応する検索対象の顔情報を得ることと、
前記検索対象の顔情報に基づいてデータベースから、マッチする予め設定された顔画像情報をサーチすることと、
前記検索対象の顔情報とマッチする予め設定された顔画像情報を出力することと、を含み、
ここで、前記畳み込みニューラルネットワークは少なくとも一つの畳み込み層を含み、プロセッサによって対応する畳み込み計算構成情報を構成し、前記畳み込み計算構成情報は、前記畳み込みニューラルネットワークにおける各畳み込み層に対応するデータビット幅値を含み、前記検索対象の画像には少なくとも一つの顔領域が含まれ、前記データベースには少なくとも一つの予め設定された顔画像情報が記憶されている。
畳み込みニューラルネットワークによって検索対象の画像に対応する検索対象の顔情報を得るように構成される畳み込み計算部と、
前記畳み込みニューラルネットワークの対応する畳み込み計算構成情報を構成するように構成されるプロセッサと、
前記検索対象の顔情報に基づいてデータベースから、マッチする予め設定された顔画像情報をサーチし、前記検索対象の顔情報とマッチする予め設定された顔画像情報を出力するように構成される検索部と、を含み、
ここで、前記畳み込みニューラルネットワークは少なくとも一つの畳み込み層を含み、畳み込み計算構成情報が構成されており、前記畳み込み計算構成情報は、前記畳み込みニューラルネットワークにおける各畳み込み層に対応するデータビット幅値を含み、前記検索対象の画像には少なくとも一つの顔領域が含まれ、前記データベースには少なくとも一つの予め設定された顔画像情報が記憶されている撮影装置が提供される。
畳み込み計算構成情報に従ってフロントエンドメモリから、ビット幅がデータビット幅値に等しい検索対象の画像を読み取ることと、
畳み込みニューラルネットワークによって検索対象の画像に対して畳み込み計算を行い、検索対象の顔情報を得ることと、を含む。
畳み込みニューラルネットワークにおける各畳み込み層のうちの一つである現在の畳み込み層によって、検索対象の画像に対して畳み込み計算を行い、特徴マップを得ることと、
次の畳み込み層が存在することに応答し、次の畳み込み層を現在の畳み込み層とし、特徴マップを検索対象の画像とし、次の畳み込み層が存在しなくなるまで、畳み込みニューラルネットワークにおける現在の畳み込み層のために構成される畳み込み計算構成情報に基づいて、フロントエンドメモリから検索対象の画像を読み取り、現在の畳み込み層によって検索対象の画像に対して畳み込み計算を行い、特徴マップを得ることを反復することと、
特徴マップを出力して検索対象の顔情報を得ることと、を含む。
畳み込みニューラルネットワークの畳み込み計算構成情報を構成するステップはさらに、
入力データの記憶アドレスおよびオフセットアドレスに基づいて次の畳み込み層に対応する入力データの記憶アドレスを構成することを含み、ここで、入力データは現在の畳み込み層が受け取った検索対象の画像データであり、
特徴マップをフロントエンドメモリに書き込むステップは、特徴マップをフロントエンドメモリにおける次の畳み込み層に対応する入力データの記憶アドレスに書き込むことを含む。
少なくとも一つの第一画像に対して、畳み込みニューラルネットワーク処理によって、対応する少なくとも一つの予め設定された顔画像情報を得ることを含む。
入力された画像の品質が設定閾値を超えた少なくとも一つの第一画像および少なくとも一つの第一画像に対応する少なくとも一つの関連情報を受け取ることと、
少なくとも一つの関連情報に基づいて少なくとも一つの第一画像の対応する少なくとも一種類の属性情報を作成し、少なくとも一種類の属性情報に基づいて少なくとも一つの第一画像に対応する少なくとも一つの予め設定された顔画像情報をデータベースに記憶することと、を含む。
少なくとも一つの予め設定された顔画像情報のうちの同じ属性情報を有する全ての予め設定された顔画像情報を一つのデータレコードに記憶し、データベースにおいて属性情報に基づいてデータレコードのインデックスを作成することを含む。
各画像を収集する収集時間値を取得し、データレコードを収集時間値に基づいて、データベースに順に記憶することを含む。
第一画像に対応する属性情報に基づいてデータベースから対応するデータレコードが存在するかどうかをサーチすることと、
データベースに属性情報に対応するデータレコードが存在する場合、予め設定された顔画像情報を対応するデータレコードに記憶することと、
データベースに属性情報に対応するデータレコードが存在しない場合、属性情報の新たなデータレコードを新規作成し、予め設定された顔画像情報を該新たなデータレコードに記憶することと、を含む。
収集したビデオストリームを少なくとも一枚の分解画像に分解し、少なくとも一枚の分解画像を最適化し、最適化された画像表示効果の中間画像を得ることと、
全ての中間画像を畳み込みニューラルネットワークによって顔認識を行い、顔認識の結果に基づいてスクリーニングして顔画像を有する少なくとも一つの画像を得ることと、を含む。
少なくとも一つの画像に対応する予め設定された顔認識情報に基づいて少なくとも一つの画像における顔画像の品質に対してスクリーニングを行い、顔画像品質が予め設定された閾値に達した画像を第一画像として記憶することを含む。
検索対象の顔情報に基づいて検索対象の画像に対応する属性情報を得て、属性情報に基づいてデータベースから、合致するデータレコードがあるかどうかをサーチすることと、
属性情報に合致するデータレコードが存在する場合、合致するデータレコードから前記マッチする予め設定された顔画像情報を得ることと、
属性情報に合致するデータレコードが存在しない場合、マッチング結果がないという情報をフィードバックすることと、を含む。
少なくとも一つの画像に対して、自動露光、自動ホワイトバランスおよび3Dノイズ除去処理を行い、表示効果が最適化された少なくとも一つの第一画像を得ることを含む。
畳み込みニューラルネットワークの対応する畳み込み計算構成情報を構成するように構成されるプロセッサ34と、
畳み込みニューラルネットワークによって検索対象の画像に対応する検索対象の顔情報を得るように構成される畳み込み計算部35と、
検索対象の顔情報に基づいてデータベースから、マッチする予め設定された顔画像情報をサーチし、検索対象の顔情報とマッチする予め設定された顔画像情報を出力するように構成される検索部36と、を含み、
ここで、畳み込みニューラルネットワークは少なくとも一つの畳み込み層を含み、畳み込み計算構成情報は畳み込みニューラルネットワークにおける各畳み込み層に対応するデータビット幅値を含み、検索対象の画像には少なくとも一つの顔領域が含まれ、データベースには少なくとも一つの予め設定された顔画像情報が記憶されている。
畳み込み計算構成情報に従ってフロントエンドメモリから、ビット幅が前記データビット幅値に等しい検索対象の画像を読み取るように構成される設定可能な読み取りコントローラー、および
畳み込みニューラルネットワークによって検索対象の画像に対して畳み込み計算を行い、検索対象の顔情報を得るように構成される画像処理部を含む。
畳み込みニューラルネットワークにおける各畳み込み層のうちの一つである現在の畳み込み層によって、検索対象の画像に対して畳み込み計算を行い、特徴マップを得るように構成される層計算部と、
次の畳み込み層が存在することに応答し、次の畳み込み層を現在の畳み込み層とし、特徴マップを検索対象の画像とし、次の畳み込み層が存在しなくなるまで、畳み込みニューラルネットワークにおける現在の畳み込み層のために構成される畳み込み計算構成情報に基づいて、フロントエンドメモリから検索対象の画像を読み取り、現在の畳み込み層によって検索対象の画像に対して畳み込み計算を行い、特徴マップを得ることを反復するように構成される反復部と、を含む。
特徴マップをフロントエンドメモリに書き込むように構成される設定可能な書き戻しコントローラーを含む。
前記プロセッサは、現在の畳み込み層に対応する入力データの記憶アドレスおよびオフセットアドレスに基づいて次の畳み込み層に対応する入力データの記憶アドレスを構成するように構成され、
前記設定可能な書き戻しコントローラーは、特徴マップをフロントエンドメモリにおける次の畳み込み層に対応する入力データの記憶アドレスに書き込むように構成される。
入力された画像の品質が設定閾値を超えた第一画像および第一画像に対応する関連情報を受け取るように構成される情報受け取り部と、
少なくとも一つの関連情報に基づいて少なくとも一つの第一画像の対応する少なくとも一種類の属性情報を作成し、少なくとも一種類の属性情報に基づいて少なくとも一つの第一画像に対応する少なくとも一つの予め設定された顔画像情報をデータベースに記憶するように構成される分類部と、を含む。
本実施例の撮影装置はさらに、
各画像を収集する収集時間値を取得し、データレコードを収集時間値に基づいて、データベースに順に記憶するように構成される時間順序付け部を含む。
第一画像に対応する属性情報に基づいてデータベースから対応するデータレコードが存在するかどうかをサーチするように構成されるサーチ部と、
データベースに属性情報に対応するデータレコードが存在する場合、予め設定された顔画像情報を対応するデータレコードに記憶し、データベースに属性情報に対応するデータレコードが存在しない場合、属性情報の新たなデータレコードを新規作成し、予め設定された顔画像情報を新たなデータレコードに記憶するように構成される属性記憶部と、を含む。
収集したビデオストリームを少なくとも一枚の分解画像に分解し、少なくとも一枚の分解画像を最適化し、最適化された画像表示効果の中間画像を得るように構成される分解部と、
全ての中間画像を畳み込みニューラルネットワークによって顔認識を行い、顔認識の結果に基づいてスクリーニングして顔画像を有する少なくとも一つの画像を得るように構成される認識スクリーニング部と、を含む。
畳み込みニューラルネットワークによって顔認識を行って予め設定された顔認識情報を得て、予め設定された顔認識情報に基づいて少なくとも一つの画像における顔画像の品質を評価するように構成される評価サブ部を含む。
検索対象の顔情報に基づいて検索対象の画像に対応する属性情報を得て、属性情報に基づいてデータベースから、合致するデータレコードがあるかどうかをサーチするように構成される属性サーチサブ部と、
属性情報に合致するデータレコードが存在する場合、合致するデータレコードにおいてマッチする予め設定された顔画像情報を得て、属性情報に合致するデータレコードが存在しない場合、マッチング結果がないという情報をフィードバックするように構成されるデータマッチングサブ部と、を含む。
本実施例の撮影装置はさらに、
マッチする予め設定された顔画像情報がブラックリストサブデータベースに属する場合、警告情報をフィードバックし、マッチする予め設定された顔画像情報がホワイトリストサブデータベースに属する場合、正常情報をフィードバックするように構成されるフィードバック部を含む。
ビデオストリームを収集し、収集したビデオストリームにおいてビデオストリームに現れた各顔画像に基づいてスクリーニングして少なくとも一つの画像を得るように構成される画像収集モジュール(本開示の収集スクリーニング部41に相当)と、
全ての画像に対して品質スクリーニングを行い、少なくとも一つの顔画像品質が設定閾値に達した第一画像を得るように構成されるISP処理モジュール(本開示の品質スクリーニング部42に相当)と、
第一画像に対応する予め設定された顔画像情報を記憶するように構成される記憶モジュール(本開示のデータベースに相当)と、
畳み込みニューラルネットワークによって検索対象の画像に対応する検索対象の顔情報を得ることを実現するハードウェア監視モジュール(本開示の畳み込み計算部35に相当)、および、畳み込みニューラルネットワークの対応する畳み込み計算構成情報を構成するための中央処理モジュール(本開示のプロセッサ34に相当)を含むFPGA SoCモジュールと、
得られたマッチする予め設定された顔画像情報を送信し、同時に該予め設定された顔画像情報がホワイトリストまたはブラックリストに属するかに応じて対応する情報を予め設定されたクライアントに送信することができる通信モジュール(本開示のフィードバック部に相当)と、を含み、
本実施例ではFPGA SoCモジュールによってハードウェア監視モジュールおよび中央処理モジュールを一つの単結晶シリコンウェハに統合し、両者間の通信を帯域幅による制限から解放し、かつ一つのモジュールで構成および畳み込み演算を実現し、リアルタイムの顔認識を実現している。
例えば、本願は以下の項目を提供する。
(項目1)
畳み込みニューラルネットワークによって検索対象の画像に対応する検索対象の顔情報を得ることであって、前記畳み込みニューラルネットワークは少なくとも一つの畳み込み層を含み、プロセッサによって対応する畳み込み計算構成情報を構成し、前記畳み込み計算構成情報は、前記畳み込みニューラルネットワークにおける各畳み込み層に対応するデータビット幅値を含み、前記検索対象の画像には少なくとも一つの顔領域が含まれる、ことと、
前記検索対象の顔情報に基づいてデータベースから、マッチする予め設定された顔画像情報をサーチすることであって、前記データベースには少なくとも一つの予め設定された顔画像情報が記憶されている、ことと、
前記検索対象の顔情報とマッチする予め設定された顔画像情報を出力することと、を含む、
撮影装置に適用する顔画像検索方法。
(項目2)
畳み込みニューラルネットワークによって検索対象の画像に対応する検索対象の顔情報を得る前記ステップは、
前記畳み込み計算構成情報に従ってフロントエンドメモリから、前記検索対象の画像を読み取ることであって、前記検索対象の画像のビット幅が前記データビット幅値に等しい、ことと、
前記畳み込みニューラルネットワークによって前記検索対象の画像に対して畳み込み計算を行い、検索対象の顔情報を得ることと、を含む、項目1に記載の方法。
(項目3)
前記畳み込み計算構成情報はさらに、前記畳み込みニューラルネットワークにおける各畳み込み層に対応する畳み込みカーネルの大きさ、または前記検索対象の画像の記憶アドレスを含み、ここで、前記検索対象の画像の記憶アドレスは、当該記憶アドレスによって前記フロントエンドメモリから前記検索対象の画像を読み取るために用いられる、項目1または2に記載の方法。
(項目4)
前記畳み込みニューラルネットワークによって前記検索対象の画像に対して畳み込み計算を行い、検索対象の顔情報を得る前記ステップは、
前記畳み込みニューラルネットワークにおける各畳み込み層のうちの一つである現在の畳み込み層によって、前記検索対象の画像に対して畳み込み計算を行い、特徴マップを得ることと、
次の畳み込み層が存在することに応答し、前記次の畳み込み層を現在の畳み込み層とし、前記特徴マップを検索対象の画像とし、次の畳み込み層が存在しなくなるまで、前記畳み込みニューラルネットワークにおける現在の畳み込み層のために構成される前記畳み込み計算構成情報に基づいて、前記フロントエンドメモリから検索対象の画像を読み取り、現在の畳み込み層によって前記検索対象の画像に対して畳み込み計算を行い、特徴マップを得ることを反復することと、
前記特徴マップを出力して前記検索対象の顔情報を得ることと、を含む、項目3に記載の方法。
(項目5)
前記特徴マップを得るステップの後に、さらに、
前記特徴マップを前記フロントエンドメモリに書き込むことを含む、項目4に記載の方法。
(項目6)
前記畳み込み計算構成情報はさらにオフセットアドレスを含み、現在の畳み込み層によって前記検索対象の画像に対して畳み込み計算を行い、特徴マップを得る前記ステップの後に、さらに、
入力データの記憶アドレスおよび前記オフセットアドレスに基づいて前記次の畳み込み層に対応する入力データの記憶アドレスを構成することを含み、ここで、前記入力データは前記現在の畳み込み層が受け取った検索対象の画像データであり、
それに応じて、前記特徴マップを前記フロントエンドメモリに書き込む前記ステップは、
前記特徴マップを、前記フロントエンドメモリにおける前記次の畳み込み層に対応する入力データの記憶アドレスに書き込むことを含む、項目5に記載の方法。
(項目7)
前記検索対象の顔情報に基づいてデータベースから、マッチする予め設定された顔画像情報をサーチする前記ステップの前に、さらに、
ビデオストリームを収集し、前記ビデオストリームに現れた各顔画像に基づいて、収集した前記ビデオストリームから少なくとも一つの画像をスクリーニングして得ることであって、前記画像に顔画像が含まれ、各前記顔画像がそれぞれ少なくとも一つの画像に対応する、ことと、
前記少なくとも一つの画像に対して品質スクリーニングを行い、少なくとも一つの第一画像を得ることであって、前記少なくとも一つの第一画像は顔画像品質が設定閾値に達した画像であり、前記少なくとも一つの第一画像の各々が一つの顔画像を含む、ことと、
前記少なくとも一つの第一画像に対応する前記少なくとも一つの予め設定された顔画像情報を前記データベースに記憶することと、を含む、
項目1に記載の方法。
(項目8)
前記少なくとも一つの第一画像はさらに、前記少なくとも一つの第一画像内の顔画像が現れた位置を識別するための背景画像を含む、項目7に記載の方法。
(項目9)
前記少なくとも一つの第一画像に対応する前記少なくとも一つの予め設定された顔画像情報を前記データベースに記憶する前記ステップの前に、さらに、
前記少なくとも一つの第一画像に対して、前記畳み込みニューラルネットワーク処理によって、対応する前記少なくとも一つの予め設定された顔画像情報を得ることと、
前記少なくとも一つの予め設定された顔画像情報に基づいて、対応する少なくとも一種類の属性情報を得て、前記少なくとも一種類の属性情報に基づいて前記少なくとも一つの予め設定された顔画像情報を分類記憶することと、を含み、
ここで、各前記予め設定された顔画像情報は少なくとも一種類の属性情報を含む、項目7または8に記載の方法。
(項目10)
前記少なくとも一つの予め設定された顔画像情報に基づいて、対応する少なくとも一種類の属性情報を得て、前記少なくとも一種類の属性情報に基づいて前記少なくとも一つの予め設定された顔画像情報を分類記憶する前記ステップは、
入力された画像の品質が設定閾値を超えた少なくとも一つの第一画像、および前記少なくとも一つの第一画像に対応する少なくとも一つの関連情報を受け取ることと、
前記少なくとも一つの関連情報に基づいて、前記少なくとも一つの第一画像が対応する前記少なくとも一種類の属性情報を作成し、前記少なくとも一種類の属性情報に基づいて、前記少なくとも一つの第一画像に対応する前記少なくとも一つの予め設定された顔画像情報を前記データベースに記憶することと、を含む、項目9に記載の方法。
(項目11)
前記少なくとも一種類の属性情報に基づいて、前記少なくとも一つの第一画像に対応する前記少なくとも一つの予め設定された顔画像情報を前記データベースに記憶するステップは、
前記少なくとも一つの予め設定された顔画像情報のうちの同じ属性情報を有する全ての予め設定された顔画像情報を一つのデータレコードに記憶し、前記データベースにおいて属性情報に基づいて前記データレコードのインデックスを作成することを含み、
さらに、
各画像を収集する収集時間値を取得し、前記データレコードを前記収集時間値に基づいて、前記データベースに順に記憶することを含む、項目10に記載の方法。
(項目12)
前記第一画像に対応する予め設定された顔画像情報をデータベースに記憶するステップは、
前記第一画像に対応する属性情報に基づいて、前記データベースから対応するデータレコードが存在するかどうかをサーチすることと、
前記データベースに前記属性情報に対応するデータレコードが存在する場合、前記予め設定された顔画像情報を前記対応するデータレコードに記憶することと、前記データベースに前記属性情報に対応するデータレコードが存在しない場合、前記属性情報の新たなデータレコードを新規作成し、前記予め設定された顔画像情報を前記新たなデータレコードに記憶することと、を含む、項目11に記載の方法。
(項目13)
前記ビデオストリームに現れた各顔画像に基づいて、収集した前記ビデオストリームから少なくとも一つの画像をスクリーニングして得る前記ステップは、
収集したビデオストリームを少なくとも一枚の分解画像に分解し、前記少なくとも一枚の分解画像を最適化し、最適化された画像表示効果の中間画像を得ることと、
全ての前記中間画像に対して前記畳み込みニューラルネットワークによって顔認識を行い、前記顔認識の結果に基づいて、顔画像を有する前記少なくとも一つの画像をスクリーニングして得ることと、を含む、項目7に記載の方法。
(項目14)
全ての前記中間画像に対して前記畳み込みニューラルネットワークによって顔を認識する前記ステップは、
前記畳み込みニューラルネットワークによって顔認識を行って予め設定された顔認識情報を得て、予め設定された顔認識情報に基づいて前記少なくとも一つの画像における顔画像の品質を評価することを含む、項目13に記載の方法。
(項目15)
前記少なくとも一つの画像に対して品質スクリーニングを行い、少なくとも一つの第一画像を得る前記ステップは、
前記少なくとも一つの画像に対応する予め設定された顔認識情報に基づいて前記少なくとも一つの画像における顔画像の品質に対してスクリーニングを行い、前記顔画像品質が予め設定された閾値に達した画像を、前記少なくとも一つの第一画像として記憶することを含む、項目14に記載の方法。
(項目16)
前記検索対象の顔情報に基づいてデータベースから、マッチする予め設定された顔画像情報をサーチする前記ステップは、
前記検索対象の顔情報に基づいて前記検索対象の画像に対応する属性情報を得て、前記属性情報に基づいて前記データベースから、合致するデータレコードがあるかどうかをサーチすることと、
前記属性情報に合致するデータレコードが存在する場合、前記合致するデータレコードから前記マッチする予め設定された顔画像情報を得ることと、
前記属性情報に合致するデータレコードが存在しない場合、マッチング結果がないという情報をフィードバックすることと、を含む、項目11に記載の方法。
(項目17)
前記少なくとも一つの画像に対して品質スクリーニングを行い、少なくとも一つの第一画像を得る前記ステップは、
前記少なくとも一つの画像に対して、自動露光、自動ホワイトバランスおよび3Dノイズ除去処理を行い、表示効果が最適化された前記少なくとも一つの第一画像を得ることを含む、項目7に記載の方法。
(項目18)
畳み込みニューラルネットワークの対応する畳み込み計算構成情報を構成するように構成されるプロセッサと、
前記畳み込みニューラルネットワークによって検索対象の画像に対応する検索対象の顔情報を得るように構成される畳み込み計算部であって、前記畳み込みニューラルネットワークは少なくとも一つの畳み込み層を含み、前記畳み込み計算構成情報は、前記畳み込みニューラルネットワークにおける各畳み込み層に対応するデータビット幅値を含み、前記検索対象の画像には少なくとも一つの顔領域が含まれる、畳み込み計算部と、
前記検索対象の顔情報に基づいてデータベースから、マッチする予め設定された顔画像情報をサーチし、前記検索対象の顔情報とマッチする予め設定された顔画像情報を出力するように構成される検索部であって、前記データベースには少なくとも一つの予め設定された顔画像情報が記憶されている、検索部と、を含む、
撮影装置。
(項目19)
畳み込み計算部は、
前記畳み込み計算構成情報に従ってフロントエンドメモリから、前記検索対象の画像を読み取るように構成される設定可能な読み取りコントローラーであって、前記検索対象の画像のビット幅が前記データビット幅値に等しい設定可能な読み取りコントローラー、および
前記畳み込みニューラルネットワークによって前記検索対象の画像に対して畳み込み計算を行い、検索対象の顔情報を得るように構成される画像処理部を含む、項目18に記載の装置。
(項目20)
前記畳み込み計算構成情報はさらに前記畳み込みニューラルネットワークにおける各畳み込み層に対応する畳み込みカーネルの大きさ、または前記検索対象の画像の記憶アドレスを含み、ここで、前記検索対象の画像の記憶アドレスは、当該記憶アドレスによって前記フロントエンドメモリから前記検索対象の画像を読み取るために用いられる、項目18または19に記載の装置。
(項目21)
画像処理部は、
前記畳み込みニューラルネットワークにおける各畳み込み層のうちの一つである現在の畳み込み層によって、前記検索対象の画像に対して畳み込み計算を行い、特徴マップを得るように構成される層計算部、および
次の畳み込み層が存在することに応答し、前記次の畳み込み層を現在の畳み込み層とし、前記特徴マップを検索対象の画像とし、次の畳み込み層が存在しなくなるまで、前記畳み込みニューラルネットワークにおける現在の畳み込み層のために構成される前記畳み込み計算構成情報に基づいて、前記フロントエンドメモリから検索対象の画像を読み取り、現在の畳み込み層によって前記検索対象の画像に対して畳み込み計算を行い、特徴マップを得ることを反復するように構成される反復部を含む、項目20に記載の装置。
(項目22)
前記装置はさらに、
前記特徴マップを前記フロントエンドメモリに書き込むように構成される設定可能な書き戻しコントローラーを含む、項目21に記載の装置。
(項目23)
前記畳み込み計算構成情報はさらにオフセットアドレスを含み、
前記プロセッサは、前記現在の畳み込み層に対応する入力データの記憶アドレスおよび前記オフセットアドレスに基づいて前記次の畳み込み層に対応する入力データの記憶アドレスを構成するように構成され、
前記設定可能な書き戻しコントローラーは、前記特徴マップを、前記フロントエンドメモリにおける前記次の畳み込み層に対応する入力データの記憶アドレスに書き込むように構成される、項目22に記載の装置。
(項目24)
さらに、
ビデオストリームを収集し、前記ビデオストリームに現れた各顔画像に基づいて、収集した前記ビデオストリームから少なくとも一つの画像をスクリーニングして得るように構成される収集スクリーニング部であって、前記画像に顔画像が含まれ、各前記顔画像がそれぞれ少なくとも一つの画像に対応する、収集スクリーニング部と、
前記少なくとも一つの画像に対して品質スクリーニングを行い、少なくとも一つの第一画像を得るように構成される品質スクリーニング部であって、前記少なくとも一つの第一画像は顔画像品質が設定閾値に達した前記画像であり、前記少なくとも一つの第一画像の各々は一つの顔画像を含む、品質スクリーニング部と、
前記少なくとも一つの第一画像に対応する前記少なくとも一つの予め設定された顔画像情報を前記データベースに記憶するように構成される記憶部と、を含む、
項目23に記載の装置。
(項目25)
前記少なくとも一つの第一画像はさらに、前記少なくとも一つの第一画像内の顔画像が現れた位置を識別するための背景画像を含む、項目24に記載の装置。
(項目26)
前記畳み込み計算部は、前記少なくとも一つの第一画像に対して、前記畳み込みニューラルネットワーク処理によって、対応する前記少なくとも一つの予め設定された顔画像情報を得て、前記少なくとも一つの予め設定された顔画像情報に基づいて、対応する少なくとも一種類の属性情報を得て、前記少なくとも一種類の属性情報に基づいて前記少なくとも一つの予め設定された顔画像情報を分類記憶するように構成され、ここで、各前記予め設定された顔画像情報は少なくとも一種類の属性情報を含む、項目24または25に記載の装置。
(項目27)
さらに、
入力された画像の品質が設定閾値を超えた少なくとも一つの第一画像、および前記少なくとも一つの第一画像に対応する少なくとも一つの関連情報を受け取るように構成される情報受け取り部、および
前記少なくとも一つの関連情報に基づいて、前記少なくとも一つの第一画像が対応する前記少なくとも一種類の属性情報を作成し、前記少なくとも一種類の属性情報に基づいて前記少なくとも一つの第一画像に対応する前記少なくとも一つの予め設定された顔画像情報を前記データベースに記憶するように構成される分類部を含む、項目26に記載の装置。
(項目28)
さらに、
各画像を収集する収集時間値を取得し、前記データレコードを前記収集時間値に基づいて、前記データベースに順に記憶するように構成される時間順序付け部を含み、
前記分類部は、前記少なくとも一つの予め設定された顔画像情報のうちの同じ属性情報を有する全ての予め設定された顔画像情報を一つのデータレコードに記憶し、前記データベースにおいて属性情報に基づいて前記データレコードのインデックスを作成するように構成される、項目27に記載の装置。
(項目29)
前記記憶部は、
前記第一画像に対応する属性情報に基づいて、前記データベースから対応するデータレコードが存在するかどうかをサーチするように構成されるサーチ部、および
前記データベースに前記属性情報に対応するデータレコードが存在する場合、前記予め設定された顔画像情報を前記対応するデータレコードに記憶し、前記データベースに前記属性情報に対応するデータレコードが存在しない場合、前記属性情報の新たなデータレコードを新規作成し、前記予め設定された顔画像情報を前記新たなデータレコードに記憶するように構成される属性記憶部を含む、項目28に記載の装置。
(項目30)
前記収集スクリーニング部は、
収集したビデオストリームを少なくとも一枚の分解画像に分解し、前記少なくとも一枚の分解画像を最適化し、最適化された画像表示効果の中間画像を得るように構成される分解部、および
全ての前記中間画像に対して前記畳み込みニューラルネットワークによって顔認識を行い、前記顔認識の結果に基づいて、顔画像を有する前記少なくとも一つの画像をスクリーニングして得るように構成される認識スクリーニング部を含む、項目24に記載の装置。
(項目31)
前記収集スクリーニング部はさらに、
前記畳み込みニューラルネットワークによって顔認識を行って予め設定された顔認識情報を得て、予め設定された顔認識情報に基づいて前記少なくとも一つの画像における顔画像の品質を評価するように構成される評価サブ部を含む、項目30に記載の装置。
(項目32)
前記品質スクリーニング部は、前記少なくとも一つの画像に対応する予め設定された顔認識情報に基づいて前記少なくとも一つの画像における顔画像の品質に対してスクリーニングを行い、前記顔画像品質が予め設定された閾値に達した画像を、前記少なくとも一つの第一画像として記憶するように構成される、項目31に記載の装置。
(項目33)
前記検索部は、
前記検索対象の顔情報に基づいて前記検索対象の画像に対応する属性情報を得て、前記属性情報に基づいて前記データベースから、合致するデータレコードがあるかどうかをサーチするように構成される属性サーチサブ部、および
前記属性情報に合致するデータレコードが存在する場合、前記合致するデータレコードから前記マッチする予め設定された顔画像情報を得て、前記属性情報に合致するデータレコードが存在しない場合、マッチング結果がないという情報をフィードバックするように構成されるデータマッチングサブ部を含む、項目28に記載の装置。
(項目34)
前記品質スクリーニング部は、前記少なくとも一つの画像に対して、自動露光、自動ホワイトバランスおよび3Dノイズ除去処理を行い、表示効果が最適化された前記少なくとも一つの第一画像を得るように構成される、項目24に記載の装置。
(項目35)
前記データベースは、少なくとも一つの予め設定された顔画像情報を含むブラックリストサブデータベース、および、少なくとも一つの予め設定された顔画像情報を含むホワイトリストサブデータベースを含み、
さらに、
前記マッチする予め設定された顔画像情報が前記ブラックリストサブデータベースに属する場合、警告情報をフィードバックし、前記マッチする予め設定された顔画像情報が前記ホワイトリストサブデータベースに属する場合、正常情報をフィードバックするように構成されるフィードバック部を含む、項目18、24、27、28、29または33のいずれか一項に記載の装置。
(項目36)
項目18から35のいずれか一項に記載の撮影装置が設置された、顔画像検索システム。
(項目37)
コンピュータ読み取り可能な命令を記憶するためのコンピュータ記憶媒体であって、前記命令は実行される時に項目1から17のいずれか一項に記載の顔画像検索方法の動作を実行する、コンピュータ記憶媒体。
Claims (37)
- 畳み込みニューラルネットワークによって検索対象の画像に対応する検索対象の顔情報を得ることであって、前記畳み込みニューラルネットワークは少なくとも一つの畳み込み層を含み、プロセッサによって対応する畳み込み計算構成情報を構成し、前記畳み込み計算構成情報は、前記畳み込みニューラルネットワークにおける各畳み込み層に対応するデータビット幅値を含み、前記検索対象の画像には少なくとも一つの顔領域が含まれる、ことと、
前記検索対象の顔情報に基づいてデータベースから、マッチする予め設定された顔画像情報をサーチすることであって、前記データベースには少なくとも一つの予め設定された顔画像情報が記憶されている、ことと、
前記検索対象の顔情報とマッチする予め設定された顔画像情報を出力することと、を含む、
撮影装置に適用する顔画像検索方法。 - 畳み込みニューラルネットワークによって検索対象の画像に対応する検索対象の顔情報を得る前記ステップは、
前記畳み込み計算構成情報に従ってフロントエンドメモリから、前記検索対象の画像を読み取ることであって、前記検索対象の画像のビット幅が前記データビット幅値に等しい、ことと、
前記畳み込みニューラルネットワークによって前記検索対象の画像に対して畳み込み計算を行い、検索対象の顔情報を得ることと、を含む、請求項1に記載の方法。 - 前記畳み込み計算構成情報はさらに、前記畳み込みニューラルネットワークにおける各畳み込み層に対応する畳み込みカーネルの大きさ、または前記検索対象の画像の記憶アドレスを含み、ここで、前記検索対象の画像の記憶アドレスは、当該記憶アドレスによって前記フロントエンドメモリから前記検索対象の画像を読み取るために用いられる、請求項1または2に記載の方法。
- 前記畳み込みニューラルネットワークによって前記検索対象の画像に対して畳み込み計算を行い、検索対象の顔情報を得る前記ステップは、
前記畳み込みニューラルネットワークにおける各畳み込み層のうちの一つである現在の畳み込み層によって、前記検索対象の画像に対して畳み込み計算を行い、特徴マップを得ることと、
次の畳み込み層が存在することに応答し、前記次の畳み込み層を現在の畳み込み層とし、前記特徴マップを検索対象の画像とし、次の畳み込み層が存在しなくなるまで、前記畳み込みニューラルネットワークにおける現在の畳み込み層のために構成される前記畳み込み計算構成情報に基づいて、前記フロントエンドメモリから検索対象の画像を読み取り、現在の畳み込み層によって前記検索対象の画像に対して畳み込み計算を行い、特徴マップを得ることを反復することと、
前記特徴マップを出力して前記検索対象の顔情報を得ることと、を含む、請求項3に記載の方法。 - 前記特徴マップを得るステップの後に、さらに、
前記特徴マップを前記フロントエンドメモリに書き込むことを含む、請求項4に記載の方法。 - 前記畳み込み計算構成情報はさらにオフセットアドレスを含み、現在の畳み込み層によって前記検索対象の画像に対して畳み込み計算を行い、特徴マップを得る前記ステップの後に、さらに、
入力データの記憶アドレスおよび前記オフセットアドレスに基づいて前記次の畳み込み層に対応する入力データの記憶アドレスを構成することを含み、ここで、前記入力データは前記現在の畳み込み層が受け取った検索対象の画像データであり、
それに応じて、前記特徴マップを前記フロントエンドメモリに書き込む前記ステップは、
前記特徴マップを、前記フロントエンドメモリにおける前記次の畳み込み層に対応する入力データの記憶アドレスに書き込むことを含む、請求項5に記載の方法。 - 前記検索対象の顔情報に基づいてデータベースから、マッチする予め設定された顔画像情報をサーチする前記ステップの前に、さらに、
ビデオストリームを収集し、前記ビデオストリームに現れた各顔画像に基づいて、収集した前記ビデオストリームから少なくとも一つの画像をスクリーニングして得ることであって、前記画像に顔画像が含まれ、各前記顔画像がそれぞれ少なくとも一つの画像に対応する、ことと、
前記少なくとも一つの画像に対して品質スクリーニングを行い、少なくとも一つの第一画像を得ることであって、前記少なくとも一つの第一画像は顔画像品質が設定閾値に達した画像であり、前記少なくとも一つの第一画像の各々が一つの顔画像を含む、ことと、
前記少なくとも一つの第一画像に対応する前記少なくとも一つの予め設定された顔画像情報を前記データベースに記憶することと、を含む、
請求項1に記載の方法。 - 前記少なくとも一つの第一画像はさらに、前記少なくとも一つの第一画像内の顔画像が現れた位置を識別するための背景画像を含む、請求項7に記載の方法。
- 前記少なくとも一つの第一画像に対応する前記少なくとも一つの予め設定された顔画像情報を前記データベースに記憶する前記ステップの前に、さらに、
前記少なくとも一つの第一画像に対して、前記畳み込みニューラルネットワーク処理によって、対応する前記少なくとも一つの予め設定された顔画像情報を得ることと、
前記少なくとも一つの予め設定された顔画像情報に基づいて、対応する少なくとも一種類の属性情報を得て、前記少なくとも一種類の属性情報に基づいて前記少なくとも一つの予め設定された顔画像情報を分類記憶することと、を含み、
ここで、各前記予め設定された顔画像情報は少なくとも一種類の属性情報を含む、請求項7または8に記載の方法。 - 前記少なくとも一つの予め設定された顔画像情報に基づいて、対応する少なくとも一種類の属性情報を得て、前記少なくとも一種類の属性情報に基づいて前記少なくとも一つの予め設定された顔画像情報を分類記憶する前記ステップは、
入力された画像の品質が設定閾値を超えた少なくとも一つの第一画像、および前記少なくとも一つの第一画像に対応する少なくとも一つの関連情報を受け取ることと、
前記少なくとも一つの関連情報に基づいて、前記少なくとも一つの第一画像が対応する前記少なくとも一種類の属性情報を作成し、前記少なくとも一種類の属性情報に基づいて、前記少なくとも一つの第一画像に対応する前記少なくとも一つの予め設定された顔画像情報を前記データベースに記憶することと、を含む、請求項9に記載の方法。 - 前記少なくとも一種類の属性情報に基づいて、前記少なくとも一つの第一画像に対応する前記少なくとも一つの予め設定された顔画像情報を前記データベースに記憶するステップは、
前記少なくとも一つの予め設定された顔画像情報のうちの同じ属性情報を有する全ての予め設定された顔画像情報を一つのデータレコードに記憶し、前記データベースにおいて属性情報に基づいて前記データレコードのインデックスを作成することを含み、
さらに、
各画像を収集する収集時間値を取得し、前記データレコードを前記収集時間値に基づいて、前記データベースに順に記憶することを含む、請求項10に記載の方法。 - 前記第一画像に対応する予め設定された顔画像情報をデータベースに記憶するステップは、
前記第一画像に対応する属性情報に基づいて、前記データベースから対応するデータレコードが存在するかどうかをサーチすることと、
前記データベースに前記属性情報に対応するデータレコードが存在する場合、前記予め設定された顔画像情報を前記対応するデータレコードに記憶することと、前記データベースに前記属性情報に対応するデータレコードが存在しない場合、前記属性情報の新たなデータレコードを新規作成し、前記予め設定された顔画像情報を前記新たなデータレコードに記憶することと、を含む、請求項11に記載の方法。 - 前記ビデオストリームに現れた各顔画像に基づいて、収集した前記ビデオストリームから少なくとも一つの画像をスクリーニングして得る前記ステップは、
収集したビデオストリームを少なくとも一枚の分解画像に分解し、前記少なくとも一枚の分解画像を最適化し、最適化された画像表示効果の中間画像を得ることと、
全ての前記中間画像に対して前記畳み込みニューラルネットワークによって顔認識を行い、前記顔認識の結果に基づいて、顔画像を有する前記少なくとも一つの画像をスクリーニングして得ることと、を含む、請求項7に記載の方法。 - 全ての前記中間画像に対して前記畳み込みニューラルネットワークによって顔を認識する前記ステップは、
前記畳み込みニューラルネットワークによって顔認識を行って予め設定された顔認識情報を得て、予め設定された顔認識情報に基づいて前記少なくとも一つの画像における顔画像の品質を評価することを含む、請求項13に記載の方法。 - 前記少なくとも一つの画像に対して品質スクリーニングを行い、少なくとも一つの第一画像を得る前記ステップは、
前記少なくとも一つの画像に対応する予め設定された顔認識情報に基づいて前記少なくとも一つの画像における顔画像の品質に対してスクリーニングを行い、前記顔画像品質が予め設定された閾値に達した画像を、前記少なくとも一つの第一画像として記憶することを含む、請求項14に記載の方法。 - 前記検索対象の顔情報に基づいてデータベースから、マッチする予め設定された顔画像情報をサーチする前記ステップは、
前記検索対象の顔情報に基づいて前記検索対象の画像に対応する属性情報を得て、前記属性情報に基づいて前記データベースから、合致するデータレコードがあるかどうかをサーチすることと、
前記属性情報に合致するデータレコードが存在する場合、前記合致するデータレコードから前記マッチする予め設定された顔画像情報を得ることと、
前記属性情報に合致するデータレコードが存在しない場合、マッチング結果がないという情報をフィードバックすることと、を含む、請求項11に記載の方法。 - 前記少なくとも一つの画像に対して品質スクリーニングを行い、少なくとも一つの第一画像を得る前記ステップは、
前記少なくとも一つの画像に対して、自動露光、自動ホワイトバランスおよび3Dノイズ除去処理を行い、表示効果が最適化された前記少なくとも一つの第一画像を得ることを含む、請求項7に記載の方法。 - 畳み込みニューラルネットワークの対応する畳み込み計算構成情報を構成するように構成されるプロセッサと、
前記畳み込みニューラルネットワークによって検索対象の画像に対応する検索対象の顔情報を得るように構成される畳み込み計算部であって、前記畳み込みニューラルネットワークは少なくとも一つの畳み込み層を含み、前記畳み込み計算構成情報は、前記畳み込みニューラルネットワークにおける各畳み込み層に対応するデータビット幅値を含み、前記検索対象の画像には少なくとも一つの顔領域が含まれる、畳み込み計算部と、
前記検索対象の顔情報に基づいてデータベースから、マッチする予め設定された顔画像情報をサーチし、前記検索対象の顔情報とマッチする予め設定された顔画像情報を出力するように構成される検索部であって、前記データベースには少なくとも一つの予め設定された顔画像情報が記憶されている、検索部と、を含む、
撮影装置。 - 畳み込み計算部は、
前記畳み込み計算構成情報に従ってフロントエンドメモリから、前記検索対象の画像を読み取るように構成される設定可能な読み取りコントローラーであって、前記検索対象の画像のビット幅が前記データビット幅値に等しい設定可能な読み取りコントローラー、および
前記畳み込みニューラルネットワークによって前記検索対象の画像に対して畳み込み計算を行い、検索対象の顔情報を得るように構成される画像処理部を含む、請求項18に記載の装置。 - 前記畳み込み計算構成情報はさらに前記畳み込みニューラルネットワークにおける各畳み込み層に対応する畳み込みカーネルの大きさ、または前記検索対象の画像の記憶アドレスを含み、ここで、前記検索対象の画像の記憶アドレスは、当該記憶アドレスによって前記フロントエンドメモリから前記検索対象の画像を読み取るために用いられる、請求項18または19に記載の装置。
- 画像処理部は、
前記畳み込みニューラルネットワークにおける各畳み込み層のうちの一つである現在の畳み込み層によって、前記検索対象の画像に対して畳み込み計算を行い、特徴マップを得るように構成される層計算部、および
次の畳み込み層が存在することに応答し、前記次の畳み込み層を現在の畳み込み層とし、前記特徴マップを検索対象の画像とし、次の畳み込み層が存在しなくなるまで、前記畳み込みニューラルネットワークにおける現在の畳み込み層のために構成される前記畳み込み計算構成情報に基づいて、前記フロントエンドメモリから検索対象の画像を読み取り、現在の畳み込み層によって前記検索対象の画像に対して畳み込み計算を行い、特徴マップを得ることを反復するように構成される反復部を含む、請求項20に記載の装置。 - 前記装置はさらに、
前記特徴マップを前記フロントエンドメモリに書き込むように構成される設定可能な書き戻しコントローラーを含む、請求項21に記載の装置。 - 前記畳み込み計算構成情報はさらにオフセットアドレスを含み、
前記プロセッサは、前記現在の畳み込み層に対応する入力データの記憶アドレスおよび前記オフセットアドレスに基づいて前記次の畳み込み層に対応する入力データの記憶アドレスを構成するように構成され、
前記設定可能な書き戻しコントローラーは、前記特徴マップを、前記フロントエンドメモリにおける前記次の畳み込み層に対応する入力データの記憶アドレスに書き込むように構成される、請求項22に記載の装置。 - さらに、
ビデオストリームを収集し、前記ビデオストリームに現れた各顔画像に基づいて、収集した前記ビデオストリームから少なくとも一つの画像をスクリーニングして得るように構成される収集スクリーニング部であって、前記画像に顔画像が含まれ、各前記顔画像がそれぞれ少なくとも一つの画像に対応する、収集スクリーニング部と、
前記少なくとも一つの画像に対して品質スクリーニングを行い、少なくとも一つの第一画像を得るように構成される品質スクリーニング部であって、前記少なくとも一つの第一画像は顔画像品質が設定閾値に達した前記画像であり、前記少なくとも一つの第一画像の各々は一つの顔画像を含む、品質スクリーニング部と、
前記少なくとも一つの第一画像に対応する前記少なくとも一つの予め設定された顔画像情報を前記データベースに記憶するように構成される記憶部と、を含む、
請求項23に記載の装置。 - 前記少なくとも一つの第一画像はさらに、前記少なくとも一つの第一画像内の顔画像が現れた位置を識別するための背景画像を含む、請求項24に記載の装置。
- 前記畳み込み計算部は、前記少なくとも一つの第一画像に対して、前記畳み込みニューラルネットワーク処理によって、対応する前記少なくとも一つの予め設定された顔画像情報を得て、前記少なくとも一つの予め設定された顔画像情報に基づいて、対応する少なくとも一種類の属性情報を得て、前記少なくとも一種類の属性情報に基づいて前記少なくとも一つの予め設定された顔画像情報を分類記憶するように構成され、ここで、各前記予め設定された顔画像情報は少なくとも一種類の属性情報を含む、請求項24または25に記載の装置。
- さらに、
入力された画像の品質が設定閾値を超えた少なくとも一つの第一画像、および前記少なくとも一つの第一画像に対応する少なくとも一つの関連情報を受け取るように構成される情報受け取り部、および
前記少なくとも一つの関連情報に基づいて、前記少なくとも一つの第一画像が対応する前記少なくとも一種類の属性情報を作成し、前記少なくとも一種類の属性情報に基づいて前記少なくとも一つの第一画像に対応する前記少なくとも一つの予め設定された顔画像情報を前記データベースに記憶するように構成される分類部を含む、請求項26に記載の装置。 - さらに、
各画像を収集する収集時間値を取得し、前記データレコードを前記収集時間値に基づいて、前記データベースに順に記憶するように構成される時間順序付け部を含み、
前記分類部は、前記少なくとも一つの予め設定された顔画像情報のうちの同じ属性情報を有する全ての予め設定された顔画像情報を一つのデータレコードに記憶し、前記データベースにおいて属性情報に基づいて前記データレコードのインデックスを作成するように構成される、請求項27に記載の装置。 - 前記記憶部は、
前記第一画像に対応する属性情報に基づいて、前記データベースから対応するデータレコードが存在するかどうかをサーチするように構成されるサーチ部、および
前記データベースに前記属性情報に対応するデータレコードが存在する場合、前記予め設定された顔画像情報を前記対応するデータレコードに記憶し、前記データベースに前記属性情報に対応するデータレコードが存在しない場合、前記属性情報の新たなデータレコードを新規作成し、前記予め設定された顔画像情報を前記新たなデータレコードに記憶するように構成される属性記憶部を含む、請求項28に記載の装置。 - 前記収集スクリーニング部は、
収集したビデオストリームを少なくとも一枚の分解画像に分解し、前記少なくとも一枚の分解画像を最適化し、最適化された画像表示効果の中間画像を得るように構成される分解部、および
全ての前記中間画像に対して前記畳み込みニューラルネットワークによって顔認識を行い、前記顔認識の結果に基づいて、顔画像を有する前記少なくとも一つの画像をスクリーニングして得るように構成される認識スクリーニング部を含む、請求項24に記載の装置。 - 前記収集スクリーニング部はさらに、
前記畳み込みニューラルネットワークによって顔認識を行って予め設定された顔認識情報を得て、予め設定された顔認識情報に基づいて前記少なくとも一つの画像における顔画像の品質を評価するように構成される評価サブ部を含む、請求項30に記載の装置。 - 前記品質スクリーニング部は、前記少なくとも一つの画像に対応する予め設定された顔認識情報に基づいて前記少なくとも一つの画像における顔画像の品質に対してスクリーニングを行い、前記顔画像品質が予め設定された閾値に達した画像を、前記少なくとも一つの第一画像として記憶するように構成される、請求項31に記載の装置。
- 前記検索部は、
前記検索対象の顔情報に基づいて前記検索対象の画像に対応する属性情報を得て、前記属性情報に基づいて前記データベースから、合致するデータレコードがあるかどうかをサーチするように構成される属性サーチサブ部、および
前記属性情報に合致するデータレコードが存在する場合、前記合致するデータレコードから前記マッチする予め設定された顔画像情報を得て、前記属性情報に合致するデータレコードが存在しない場合、マッチング結果がないという情報をフィードバックするように構成されるデータマッチングサブ部を含む、請求項28に記載の装置。 - 前記品質スクリーニング部は、前記少なくとも一つの画像に対して、自動露光、自動ホワイトバランスおよび3Dノイズ除去処理を行い、表示効果が最適化された前記少なくとも一つの第一画像を得るように構成される、請求項24に記載の装置。
- 前記データベースは、少なくとも一つの予め設定された顔画像情報を含むブラックリストサブデータベース、および、少なくとも一つの予め設定された顔画像情報を含むホワイトリストサブデータベースを含み、
さらに、
前記マッチする予め設定された顔画像情報が前記ブラックリストサブデータベースに属する場合、警告情報をフィードバックし、前記マッチする予め設定された顔画像情報が前記ホワイトリストサブデータベースに属する場合、正常情報をフィードバックするように構成されるフィードバック部を含む、請求項18、24、27、28、29または33のいずれか一項に記載の装置。 - 請求項18から35のいずれか一項に記載の撮影装置が設置された、顔画像検索システム。
- コンピュータ読み取り可能な命令を記憶するためのコンピュータ記憶媒体であって、前記命令は実行される時に請求項1から17のいずれか一項に記載の顔画像検索方法の動作を実行する、コンピュータ記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710774389.9A CN108228696B (zh) | 2017-08-31 | 2017-08-31 | 人脸图像检索方法和系统、拍摄装置、计算机存储介质 |
CN201710774389.9 | 2017-08-31 | ||
PCT/CN2018/102267 WO2019042230A1 (zh) | 2017-08-31 | 2018-08-24 | 人脸图像检索方法和系统、拍摄装置、计算机存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020524348A true JP2020524348A (ja) | 2020-08-13 |
JP7038744B2 JP7038744B2 (ja) | 2022-03-18 |
Family
ID=62655298
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019571526A Active JP7038744B2 (ja) | 2017-08-31 | 2018-08-24 | 顔画像検索方法およびシステム、撮影装置、ならびにコンピュータ記憶媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11182594B2 (ja) |
JP (1) | JP7038744B2 (ja) |
CN (1) | CN108228696B (ja) |
SG (1) | SG11202000075QA (ja) |
WO (1) | WO2019042230A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022050251A (ja) * | 2020-09-17 | 2022-03-30 | ヤフー株式会社 | 学習装置、学習方法、及び学習プログラム |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108228696B (zh) | 2017-08-31 | 2021-03-23 | 深圳市商汤科技有限公司 | 人脸图像检索方法和系统、拍摄装置、计算机存储介质 |
WO2019111840A1 (ja) * | 2017-12-06 | 2019-06-13 | 日本電気株式会社 | 画像認識モデル生成装置、画像認識モデル生成方法、画像認識モデル生成プログラム記憶媒体、画像生成装置、画像生成方法および画像生成プログラム記憶媒体 |
CN109002789B (zh) * | 2018-07-10 | 2021-06-18 | 银河水滴科技(北京)有限公司 | 一种应用于摄像头的人脸识别方法 |
CN110874817B (zh) * | 2018-08-29 | 2022-02-01 | 上海商汤智能科技有限公司 | 图像拼接方法和装置、车载图像处理装置、设备、介质 |
CN110874632B (zh) * | 2018-08-31 | 2024-05-03 | 嘉楠明芯(北京)科技有限公司 | 图像识别处理方法和装置 |
CN109614910B (zh) * | 2018-12-04 | 2020-11-20 | 青岛小鸟看看科技有限公司 | 一种人脸识别方法和装置 |
KR20200081044A (ko) * | 2018-12-27 | 2020-07-07 | 삼성전자주식회사 | 뉴럴 네트워크의 컨볼루션 연산을 처리하는 방법 및 장치 |
CN110363106A (zh) * | 2019-06-25 | 2019-10-22 | 中国船舶重工集团公司第七一九研究所 | 一种人脸检测与匹配系统 |
CN110442742A (zh) * | 2019-07-31 | 2019-11-12 | 深圳市商汤科技有限公司 | 检索图像的方法及装置、处理器、电子设备及存储介质 |
CN110941730B (zh) * | 2019-11-29 | 2020-12-08 | 南京甄视智能科技有限公司 | 基于人脸特征数据偏移的检索方法与装置 |
CN111881813B (zh) * | 2020-07-24 | 2021-02-19 | 深圳市卡联科技股份有限公司 | 人脸识别终端的数据存储方法及系统 |
CN112241684A (zh) * | 2020-09-16 | 2021-01-19 | 四川天翼网络服务有限公司 | 一种人脸检索分布式计算方法及系统 |
CN112632300A (zh) * | 2020-09-29 | 2021-04-09 | 深圳市商汤科技有限公司 | 图像检索方法及装置、电子设备及存储介质 |
CN112989082B (zh) * | 2021-05-20 | 2021-07-23 | 南京甄视智能科技有限公司 | Cpu和gpu混合的自适应人脸搜索方法及系统 |
CN115456860B (zh) * | 2022-11-09 | 2023-03-24 | 深圳市唯特视科技有限公司 | 基于fpga的图像增强方法、装置、头盔、设备及介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016018486A (ja) * | 2014-07-10 | 2016-02-01 | 国立研究開発法人産業技術総合研究所 | 画像検索装置と画像検索プログラムと画像検索方法 |
WO2016095117A1 (en) * | 2014-12-17 | 2016-06-23 | Nokia Technologies Oy | Object detection with neural network |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6219640B1 (en) * | 1999-08-06 | 2001-04-17 | International Business Machines Corporation | Methods and apparatus for audio-visual speaker recognition and utterance verification |
US7310788B2 (en) * | 2005-02-24 | 2007-12-18 | International Business Machines Corporation | Sample probability of fault function determination using critical defect size map |
US7302653B2 (en) * | 2005-02-24 | 2007-11-27 | International Business Machines Corporation | Probability of fault function determination using critical defect size map |
CN104765768B (zh) * | 2015-03-09 | 2018-11-02 | 深圳云天励飞技术有限公司 | 海量人脸库的快速准确检索方法 |
US9552510B2 (en) * | 2015-03-18 | 2017-01-24 | Adobe Systems Incorporated | Facial expression capture for character animation |
CN105760933A (zh) * | 2016-02-18 | 2016-07-13 | 清华大学 | 卷积神经网络的逐层变精度定点化方法及装置 |
CN205792930U (zh) | 2016-06-03 | 2016-12-07 | 广东万峯信息科技有限公司 | 一种人脸抓拍机及应用该种人脸抓拍机的监控系统 |
TWI601424B (zh) * | 2016-06-13 | 2017-10-01 | 晨星半導體股份有限公司 | 時間解交錯電路與方法 |
CN106204948B (zh) * | 2016-07-11 | 2020-12-11 | 商汤集团有限公司 | 储物柜管理方法及储物柜管理装置 |
KR20180060149A (ko) * | 2016-11-28 | 2018-06-07 | 삼성전자주식회사 | 컨볼루션 처리 장치 및 방법 |
CN106529517B (zh) * | 2016-12-30 | 2019-11-01 | 北京旷视科技有限公司 | 图像处理方法和图像处理设备 |
CN106650691A (zh) * | 2016-12-30 | 2017-05-10 | 北京旷视科技有限公司 | 图像处理方法和图像处理设备 |
US20180189641A1 (en) * | 2017-01-04 | 2018-07-05 | Stmicroelectronics S.R.L. | Hardware accelerator engine |
KR102642853B1 (ko) * | 2017-01-05 | 2024-03-05 | 한국전자통신연구원 | 컨볼루션 회로, 그것을 포함하는 어플리케이션 프로세서 및 그것의 동작 방법 |
CN106682650A (zh) * | 2017-01-26 | 2017-05-17 | 北京中科神探科技有限公司 | 基于嵌入式深度学习技术的移动终端人脸识别方法和系统 |
CN106897695A (zh) * | 2017-02-24 | 2017-06-27 | 上海斐讯数据通信技术有限公司 | 一种图像识别处理装置、系统及方法 |
EP3614259A4 (en) * | 2017-04-19 | 2021-02-24 | Shanghai Cambricon Information Technology Co., Ltd | TREATMENT APPARATUS AND TREATMENT METHOD |
US10474458B2 (en) * | 2017-04-28 | 2019-11-12 | Intel Corporation | Instructions and logic to perform floating-point and integer operations for machine learning |
US9916531B1 (en) * | 2017-06-22 | 2018-03-13 | Intel Corporation | Accumulator constrained quantization of convolutional neural networks |
CN111095294A (zh) * | 2017-07-05 | 2020-05-01 | 深视有限公司 | 深度视觉处理器 |
CN108228696B (zh) * | 2017-08-31 | 2021-03-23 | 深圳市商汤科技有限公司 | 人脸图像检索方法和系统、拍摄装置、计算机存储介质 |
US11899774B2 (en) * | 2018-03-01 | 2024-02-13 | Infotoo International Limited | Method and apparatus for determining authenticity of an information bearing device |
US20190303757A1 (en) * | 2018-03-29 | 2019-10-03 | Mediatek Inc. | Weight skipping deep learning accelerator |
US20200193270A1 (en) * | 2018-12-12 | 2020-06-18 | Kneron (Taiwan) Co., Ltd. | Low precision and coarse-to-fine dynamic fixed-point quantization design in convolution neural network |
US20200293865A1 (en) * | 2019-03-14 | 2020-09-17 | Gyrfalcon Technology Inc. | Using identity layer in a cellular neural network architecture |
US20200302288A1 (en) * | 2019-03-20 | 2020-09-24 | Gyrfalcon Technology Inc. | Using output equalization in training an artificial intelligence model in a semiconductor solution |
CN109961102B (zh) * | 2019-03-30 | 2021-06-22 | 北京市商汤科技开发有限公司 | 图像处理方法、装置、电子设备及存储介质 |
-
2017
- 2017-08-31 CN CN201710774389.9A patent/CN108228696B/zh active Active
-
2018
- 2018-08-24 SG SG11202000075QA patent/SG11202000075QA/en unknown
- 2018-08-24 WO PCT/CN2018/102267 patent/WO2019042230A1/zh active Application Filing
- 2018-08-24 JP JP2019571526A patent/JP7038744B2/ja active Active
-
2019
- 2019-12-31 US US16/732,225 patent/US11182594B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016018486A (ja) * | 2014-07-10 | 2016-02-01 | 国立研究開発法人産業技術総合研究所 | 画像検索装置と画像検索プログラムと画像検索方法 |
WO2016095117A1 (en) * | 2014-12-17 | 2016-06-23 | Nokia Technologies Oy | Object detection with neural network |
JP2017538999A (ja) * | 2014-12-17 | 2017-12-28 | ノキア テクノロジーズ オーユー | ニューラルネットワークによるオブジェクト検出 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022050251A (ja) * | 2020-09-17 | 2022-03-30 | ヤフー株式会社 | 学習装置、学習方法、及び学習プログラム |
JP7348150B2 (ja) | 2020-09-17 | 2023-09-20 | ヤフー株式会社 | 学習装置、学習方法、及び学習プログラム |
Also Published As
Publication number | Publication date |
---|---|
CN108228696A (zh) | 2018-06-29 |
WO2019042230A1 (zh) | 2019-03-07 |
US11182594B2 (en) | 2021-11-23 |
SG11202000075QA (en) | 2020-02-27 |
CN108228696B (zh) | 2021-03-23 |
JP7038744B2 (ja) | 2022-03-18 |
US20200151434A1 (en) | 2020-05-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7038744B2 (ja) | 顔画像検索方法およびシステム、撮影装置、ならびにコンピュータ記憶媒体 | |
US10936915B2 (en) | Machine learning artificial intelligence system for identifying vehicles | |
US9560323B2 (en) | Method and system for metadata extraction from master-slave cameras tracking system | |
US10776665B2 (en) | Systems and methods for object detection | |
KR20200098875A (ko) | 3d 얼굴인식 시스템 및 방법 | |
US10388009B2 (en) | Machine-learning measurements of quantitative feature attributes | |
WO2022121485A1 (zh) | 图像的多标签分类方法、装置、计算机设备及存储介质 | |
WO2013086492A1 (en) | Faceprint generation for image recognition | |
US20180308231A1 (en) | Data-Analysis Pipeline with Visual Performance Feedback | |
JP7419080B2 (ja) | コンピュータシステムおよびプログラム | |
CN103052962A (zh) | 粗糙小波粒化空间和多光谱遥感图像的分类 | |
CN108229289B (zh) | 目标检索方法、装置和电子设备 | |
KR20220044828A (ko) | 얼굴 속성 인식 방법, 장치, 전자 기기 및 저장 매체 | |
US20220012502A1 (en) | Activity detection device, activity detection system, and activity detection method | |
CN111291646A (zh) | 一种人流量统计方法、装置、设备及存储介质 | |
US20220301274A1 (en) | Neural network and classifier selection systems and methods | |
Sismananda et al. | Performance comparison of yolo-lite and yolov3 using raspberry pi and motioneyeos | |
Venkatesvara Rao et al. | Real-time video object detection and classification using hybrid texture feature extraction | |
JP6909657B2 (ja) | 映像認識システム | |
CN108596068B (zh) | 一种动作识别的方法和装置 | |
CN113836972A (zh) | 基于ocr的安全审计方法、装置、设备及存储介质 | |
US11982992B2 (en) | Task and cycle time detection method and system | |
EP2766850B1 (en) | Faceprint generation for image recognition | |
CN117115875A (zh) | 一种人脸检测及特征预测跟踪显示的方法 | |
CN117079287A (zh) | 一种任务挖掘场景下的文字识别方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191219 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191219 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210204 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210428 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210927 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220117 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20220117 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20220125 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20220126 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220302 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220308 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7038744 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |