JP7391883B2 - 顔認識のための圧縮-拡張深さ方向畳み込みニューラルネットワーク - Google Patents
顔認識のための圧縮-拡張深さ方向畳み込みニューラルネットワーク Download PDFInfo
- Publication number
- JP7391883B2 JP7391883B2 JP2020568233A JP2020568233A JP7391883B2 JP 7391883 B2 JP7391883 B2 JP 7391883B2 JP 2020568233 A JP2020568233 A JP 2020568233A JP 2020568233 A JP2020568233 A JP 2020568233A JP 7391883 B2 JP7391883 B2 JP 7391883B2
- Authority
- JP
- Japan
- Prior art keywords
- feature maps
- convolution
- channels
- combined
- generate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013527 convolutional neural network Methods 0.000 title claims description 143
- 230000006835 compression Effects 0.000 title claims description 42
- 238000007906 compression Methods 0.000 title claims description 42
- 230000003190 augmentative effect Effects 0.000 title claims description 6
- 238000000034 method Methods 0.000 claims description 88
- 230000004044 response Effects 0.000 claims description 5
- 238000012545 processing Methods 0.000 description 46
- 230000008569 process Effects 0.000 description 30
- 238000001514 detection method Methods 0.000 description 23
- 238000010606 normalization Methods 0.000 description 21
- 238000011176 pooling Methods 0.000 description 18
- 230000010339 dilation Effects 0.000 description 16
- 238000003860 storage Methods 0.000 description 15
- 238000012549 training Methods 0.000 description 15
- 230000001815 facial effect Effects 0.000 description 14
- 230000006870 function Effects 0.000 description 14
- 239000013598 vector Substances 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000003384 imaging method Methods 0.000 description 7
- 238000012795 verification Methods 0.000 description 7
- 238000009826 distribution Methods 0.000 description 6
- 230000001413 cellular effect Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 239000000463 material Substances 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000004590 computer program Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000009977 dual effect Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 239000003990 capacitor Substances 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000001757 thermogravimetry curve Methods 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/32—Normalisation of the pattern dimensions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Neurology (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Image Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
Description
Claims (25)
- 畳み込みニューラルネットワーク(CNN)を実装するシステムであって、
入力画像データを格納するメモリと、
前記メモリに結合されるプロセッサと、
を含み、前記プロセッサは、
複数の入力特徴マップに深さ方向分割可能畳み込みを適用して、複数の個別2D特徴マップを生成し、前記複数の入力特徴マップは、前記入力画像データに関連付けられ、
前記複数の個別2D特徴マップに圧縮ポイント方向畳み込みを適用して、第1の複数の結合特徴マップを生成し、前記第1の複数の結合特徴マップは、第1の数のチャネルを含み、
前記第1の複数の結合特徴マップに拡張ポイント方向畳み込みを適用して、第2の複数の結合特徴マップを生成し、前記第2の複数の結合特徴マップは、前記第1の数のチャネルより多い第2の数のチャネルを有し、
前記第2の複数の結合特徴マップに少なくとも部分的に基づき、前記入力画像データに対応するオブジェクト認識データを出力する、
システム。 - 前記複数の入力特徴マップは、前記第2の数に一致するチャネル数を有する、請求項1に記載のシステム。
- 前記プロセッサは、
前記複数の入力特徴マップ及び前記第2の複数の結合特徴マップの和により残余接続を実行して、複数の出力特徴マップを生成し、
前記複数の出力特徴マップ、又は前記複数の出力特徴マップに対応する第2の複数の出力特徴マップを、前記CNNの第2深さ方向分割可能畳み込みに提供する、
請求項2に記載のシステム。 - 前記プロセッサは、
前記第2深さ方向分割可能畳み込み、第2圧縮ポイント方向畳み込み、及び第2拡張ポイント方向畳み込みを、前記複数の出力特徴マップまたは前記第2の複数の出力特徴マップに適用して、第3の複数の出力特徴マップを生成し、前記第3の複数の出力特徴マップは、前記第2の数のチャネルより多い第3の数のチャネルを有する、請求項3に記載のシステム。 - 前記第2圧縮ポイント方向畳み込みは、第3の数のチャネルを有する第3の複数の結合特徴マップを生成し、前記第2拡張ポイント方向畳み込みは、第4の数のチャネルを有する第4の複数の結合特徴マップを生成し、前記第2の数のチャネルの前記第1の数のチャネルに対する比は、前記第4の数のチャネルの前記第3の数のチャネルに対する比と同じである、請求項4に記載のシステム。
- 前記プロセッサは、
第2深さ方向分割可能畳み込み、第2圧縮ポイント方向畳み込み、及び第2拡張ポイント方向畳み込みを、前記第2の複数の結合特徴マップに適用して、第3の複数の出力特徴マップを生成し、前記第3の複数の出力特徴マップは、前記第2の数のチャネルと等しい第3の数のチャネルを有する、請求項1に記載のシステム。 - 前記第2の数はnであり、前記プロセッサが、前記深さ方向分割可能畳み込みを適用することは、前記プロセッサが、n個のk×k×1カーネルを前記複数の入力特徴マップの各々に適用することを含み、
前記第1の数はn/gであり、前記プロセッサが、前記圧縮ポイント方向畳み込みを適用することは、前記プロセッサが、n/g個の1×1×nカーネルを前記複数の個別2D特徴マップに適用することを含み、
前記プロセッサが、前記拡張ポイント方向畳み込みを適用することは、前記プロセッサが、n個の1x1x(n/g)カーネルを前記複数の個別2D特徴マップに適用することを含む、請求項1に記載のシステム。 - n個のチャネルのn/g個のチャネルに対する比は、2より大きい圧縮係数gを含む、請求項7に記載のシステム。
- 前記入力画像データは、RGB画像データ、RGB-D画像データ、又は赤外線画像データ、のうちの1つを含む、請求項1に記載のシステム。
- 前記オブジェクト認識データは、前記入力画像データがユーザの顔に対応するか否かの指示子、又は複数の候補の顔のうちの1つに対応するラベル、のうちの1つを含む、請求項1に記載のシステム。
- 畳み込みニューラルネットワーク(CNN)を実装するコンピュータにより実施される方法であって、
複数の入力特徴マップに深さ方向分割可能畳み込みを適用して、複数の個別2D特徴マップを生成するステップであって、前記複数の入力特徴マップは、入力画像データに関連付けられる、ステップと、
前記複数の個別2D特徴マップに圧縮ポイント方向畳み込みを適用して、第1の複数の結合特徴マップを生成するステップであって、前記第1の複数の結合特徴マップは、第1の数のチャネルを含む、ステップと、
前記第1の複数の結合特徴マップに拡張ポイント方向畳み込みを適用して、第2の複数の結合特徴マップを生成するステップであって、前記第2の複数の結合特徴マップは、前記第1の数のチャネルより多い第2の数のチャネルを有する、ステップと、
前記第2の複数の結合特徴マップに少なくとも部分的に基づき、前記入力画像データに対応するオブジェクト認識データを出力するステップと、
を含む方法。 - 前記複数の入力特徴マップは、前記第2の数に一致するチャネル数を有する、請求項11に記載の方法。
- 前記複数の入力特徴マップ及び前記第2の複数の結合特徴マップの和により残余接続を実行して、複数の出力特徴マップを生成するステップと、
前記複数の出力特徴マップ、又は前記複数の出力特徴マップに対応する第2の複数の出力特徴マップを、前記CNNの第2深さ方向分割可能畳み込みに提供するステップと、
を更に含む請求項12に記載の方法。 - 前記第2深さ方向分割可能畳み込み、第2圧縮ポイント方向畳み込み、及び第2拡張ポイント方向畳み込みを、前記複数の出力特徴マップまたは前記第2の複数の出力特徴マップに適用して、第3の複数の出力特徴マップを生成するステップであって、前記第3の複数の出力特徴マップは、前記第2の数のチャネルより多い第3の数のチャネルを有する、ステップ、を更に含む請求項13に記載の方法。
- 前記第2圧縮ポイント方向畳み込みは、第3の数のチャネルを有する第3の複数の結合特徴マップを生成し、前記第2拡張ポイント方向畳み込みは、第4の数のチャネルを有する第4の複数の結合特徴マップを生成し、前記第2の数のチャネルの前記第1の数のチャネルに対する比は、前記第4の数のチャネルの前記第3の数のチャネルに対する比と同じである、請求項14に記載の方法。
- 複数の命令を含む少なくとも1つの機械可読媒体であって、前記複数の命令は、コンピューティング装置で実行されることに応答して、前記コンピューティング装置に、
複数の入力特徴マップに深さ方向分割可能畳み込みを適用して、複数の個別2D特徴マップを生成させ、前記複数の入力特徴マップは、入力画像データに関連付けられ、
前記複数の個別2D特徴マップに圧縮ポイント方向畳み込みを適用して、第1の複数の結合特徴マップを生成させ、前記第1の複数の結合特徴マップは、第1の数のチャネルを含み、
前記第1の複数の結合特徴マップに拡張ポイント方向畳み込みを適用して、第2の複数の結合特徴マップを生成させ、前記第2の複数の結合特徴マップは、前記第1の数のチャネルより多い第2の数のチャネルを有し、
前記第2の複数の結合特徴マップに少なくとも部分的に基づき、前記入力画像データに対応するオブジェクト認識データを出力させる、
ことにより畳み込みニューラルネットワーク(CNN)を実装させる、機械可読媒体。 - 前記複数の入力特徴マップは、前記第2の数に一致するチャネル数を有する、請求項16に記載の機械可読媒体。
- 前記コンピューティング装置で実行されることに応答して、前記コンピューティング装置に、
前記複数の入力特徴マップ及び前記第2の複数の結合特徴マップの和により残余接続を実行して、複数の出力特徴マップを生成させ、
前記複数の出力特徴マップ、又は前記複数の出力特徴マップに対応する第2の複数の出力特徴マップを、前記CNNの第2深さ方向分割可能畳み込みに提供させる、
ことにより畳み込みニューラルネットワーク(CNN)を実装させる命令を更に含む請求項17に記載の機械可読媒体。 - 前記コンピューティング装置で実行されることに応答して、前記コンピューティング装置に、
前記第2深さ方向分割可能畳み込み、第2圧縮ポイント方向畳み込み、及び第2拡張ポイント方向畳み込みを、前記複数の出力特徴マップ又は前記第2の複数の出力特徴マップに適用して、第3の複数の出力特徴マップを生成させ、前記第3の複数の出力特徴マップは、前記第2の数のチャネルより多い第3の数のチャネルを有する
ことにより畳み込みニューラルネットワーク(CNN)を実装させる命令を更に含む請求項18に記載の機械可読媒体。 - 前記第2圧縮ポイント方向畳み込みは、第3の数のチャネルを有する第3の複数の結合特徴マップを生成し、前記第2拡張ポイント方向畳み込みは、第4の数のチャネルを有する第4の複数の結合特徴マップを生成し、前記第2の数のチャネルの前記第1の数のチャネルに対する比は、前記第4の数のチャネルの前記第3の数のチャネルに対する比と同じである、請求項19に記載の機械可読媒体。
- システムであって、
複数の入力特徴マップに深さ方向分割可能畳み込みを適用して、複数の個別2D特徴マップを生成する手段であって、前記複数の入力特徴マップは、入力画像データに関連付けられる、手段と、
前記複数の個別2D特徴マップに圧縮ポイント方向畳み込みを適用して、第1の複数の結合特徴マップを生成する手段であって、前記第1の複数の結合特徴マップは、第1の数のチャネルを含む、手段と、
前記第1の複数の結合特徴マップに拡張ポイント方向畳み込みを適用して、第2の複数の結合特徴マップを生成する手段であって、前記第2の複数の結合特徴マップは、前記第1の数のチャネルより多い第2の数のチャネルを有する、手段と、
前記第2の複数の結合特徴マップに少なくとも部分的に基づき、前記入力画像データに対応するオブジェクト認識データを出力する手段と、
を含むシステム。 - 前記複数の入力特徴マップは、前記第2の数に一致するチャネル数を有する、請求項21に記載のシステム。
- 前記複数の入力特徴マップ及び前記第2の複数の結合特徴マップの和により残余接続を実行して、複数の出力特徴マップを生成する手段と、
前記複数の出力特徴マップ、又は前記複数の出力特徴マップに対応する第2の複数の出力特徴マップを、CNNの第2深さ方向分割可能畳み込みに提供する手段と、
を更に含む請求項22に記載のシステム。 - 前記第2深さ方向分割可能畳み込み、第2圧縮ポイント方向畳み込み、及び第2拡張ポイント方向畳み込みを、前記複数の出力特徴マップ又は前記第2の複数の出力特徴マップに適用して、第3の複数の出力特徴マップを生成する手段であって、前記第3の複数の出力特徴マップは、前記第2の数のチャネルより多い第3の数のチャネルを有する、手段、を更に含む請求項23に記載のシステム。
- 前記第2圧縮ポイント方向畳み込みは、第3の数のチャネルを有する第3の複数の結合特徴マップを生成し、前記第2拡張ポイント方向畳み込みは、第4の数のチャネルを有する第4の複数の結合特徴マップを生成し、前記第2の数のチャネルの前記第1の数のチャネルに対する比は、前記第4の数のチャネルの前記第3の数のチャネルに対する比と同じである、請求項24に記載のシステム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2018/105380 WO2020051816A1 (en) | 2018-09-13 | 2018-09-13 | Condense-expansion-depth-wise convolutional neural network for face recognition |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022508988A JP2022508988A (ja) | 2022-01-20 |
JP7391883B2 true JP7391883B2 (ja) | 2023-12-05 |
Family
ID=69776582
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020568233A Active JP7391883B2 (ja) | 2018-09-13 | 2018-09-13 | 顔認識のための圧縮-拡張深さ方向畳み込みニューラルネットワーク |
Country Status (4)
Country | Link |
---|---|
US (1) | US11823033B2 (ja) |
EP (1) | EP3850580B1 (ja) |
JP (1) | JP7391883B2 (ja) |
WO (1) | WO2020051816A1 (ja) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020051776A1 (en) * | 2018-09-11 | 2020-03-19 | Intel Corporation | Method and system of deep supervision object detection for reducing resource usage |
US11823033B2 (en) * | 2018-09-13 | 2023-11-21 | Intel Corporation | Condense-expansion-depth-wise convolutional neural network for face recognition |
KR20200072307A (ko) * | 2018-12-12 | 2020-06-22 | 삼성전자주식회사 | 뉴럴 네트워크에서의 부하 균형을 위한 장치 및 방법 |
EP3970112A4 (en) * | 2019-05-30 | 2022-08-17 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | SINGLEMODAL OR MULTIMODAL STYLE TRANSFER SYSTEM AND METHOD AND RANDOM STYLING SYSTEM USING THE SAME |
US11870804B2 (en) * | 2019-08-01 | 2024-01-09 | Akamai Technologies, Inc. | Automated learning and detection of web bot transactions using deep learning |
CN110651277B (zh) * | 2019-08-08 | 2023-08-01 | 京东方科技集团股份有限公司 | 计算机实现的方法、计算机实现的诊断方法、图像分类设备、以及计算机程序产品 |
US11551688B1 (en) * | 2019-08-15 | 2023-01-10 | Snap Inc. | Wearable speech input-based vision to audio interpreter |
KR20210039875A (ko) * | 2019-10-02 | 2021-04-12 | 주식회사 모아이스 | 골프 스윙에 관한 정보를 추정하기 위한 방법, 디바이스 및 비일시성의 컴퓨터 판독 가능한 기록 매체 |
KR20210045148A (ko) * | 2019-10-16 | 2021-04-26 | 주식회사 모아이스 | 골프 스윙에 관한 정보를 추정하기 위한 방법, 디바이스 및 비일시성의 컴퓨터 판독 가능한 기록 매체 |
CN111222465B (zh) * | 2019-11-07 | 2023-06-13 | 深圳云天励飞技术股份有限公司 | 基于卷积神经网络的图像分析方法及相关设备 |
CN111241985B (zh) * | 2020-01-08 | 2022-09-09 | 腾讯科技(深圳)有限公司 | 一种视频内容识别方法、装置、存储介质、以及电子设备 |
CN111667488B (zh) * | 2020-04-20 | 2023-07-28 | 浙江工业大学 | 一种基于多角度U-Net的医学图像分割方法 |
US20220076377A1 (en) * | 2020-09-04 | 2022-03-10 | Faceful Prints LLC | System and Method of Stitching Partial Facial Images for Custom Printed Facemasks |
CN112022153B (zh) * | 2020-09-27 | 2021-07-06 | 西安电子科技大学 | 基于卷积神经网络的脑电信号检测方法 |
CN112329765B (zh) * | 2020-10-09 | 2024-05-24 | 中保车服科技服务股份有限公司 | 文本检测的方法及装置、存储介质及计算机设备 |
CN112288028A (zh) * | 2020-11-06 | 2021-01-29 | 神思电子技术股份有限公司 | 一种基于流卷积的图像识别方法 |
CN112508137B (zh) * | 2021-02-09 | 2021-07-06 | 南方电网数字电网研究院有限公司 | 变压器异常检测方法、装置、计算机设备和存储介质 |
US20220270400A1 (en) * | 2021-02-25 | 2022-08-25 | Corsight .Ai | Soft function based Similarity-Embedding Binarization |
US20220270401A1 (en) * | 2021-02-25 | 2022-08-25 | Corsight .Ai | Similarity-Embedding Binarization |
US11544213B2 (en) * | 2021-03-04 | 2023-01-03 | Samsung Electronics Co., Ltd. | Neural processor |
US20230137381A1 (en) * | 2021-10-29 | 2023-05-04 | Centre For Intelligent Multidimensional Data Analysis Limited | System and method for detecting a facial apparatus |
CN116453173B (zh) * | 2022-12-16 | 2023-09-08 | 南京奥看信息科技有限公司 | 一种基于图片区域分割技术的图片处理方法 |
JP2024099998A (ja) * | 2023-01-13 | 2024-07-26 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法およびプログラム |
CN118587758B (zh) * | 2024-08-06 | 2024-10-29 | 杭州登虹科技有限公司 | 跨域人员识别匹配方法、装置和电子设备 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018067962A1 (en) | 2016-10-06 | 2018-04-12 | Google Llc | Image processing neural networks with separable convolutional layers |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9436895B1 (en) * | 2015-04-03 | 2016-09-06 | Mitsubishi Electric Research Laboratories, Inc. | Method for determining similarity of objects represented in images |
JP2018005520A (ja) * | 2016-06-30 | 2018-01-11 | クラリオン株式会社 | 物体検出装置及び物体検出方法 |
US11157814B2 (en) * | 2016-11-15 | 2021-10-26 | Google Llc | Efficient convolutional neural networks and techniques to reduce associated computational costs |
JP6961011B2 (ja) * | 2016-12-09 | 2021-11-05 | ベイジン ホライズン インフォメーション テクノロジー カンパニー リミテッド | データ管理のためのシステム及び方法 |
US10083374B2 (en) * | 2016-12-12 | 2018-09-25 | Texas Instruments Incorporated | Methods and systems for analyzing images in convolutional neural networks |
CN107316015B (zh) * | 2017-06-19 | 2020-06-30 | 南京邮电大学 | 一种基于深度时空特征的高精度面部表情识别方法 |
CN108171112B (zh) * | 2017-12-01 | 2021-06-01 | 西安电子科技大学 | 基于卷积神经网络的车辆识别与跟踪方法 |
US11823033B2 (en) * | 2018-09-13 | 2023-11-21 | Intel Corporation | Condense-expansion-depth-wise convolutional neural network for face recognition |
-
2018
- 2018-09-13 US US17/058,078 patent/US11823033B2/en active Active
- 2018-09-13 EP EP18933598.7A patent/EP3850580B1/en active Active
- 2018-09-13 WO PCT/CN2018/105380 patent/WO2020051816A1/en unknown
- 2018-09-13 JP JP2020568233A patent/JP7391883B2/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018067962A1 (en) | 2016-10-06 | 2018-04-12 | Google Llc | Image processing neural networks with separable convolutional layers |
Non-Patent Citations (2)
Title |
---|
OUPPAPHAN, Pichayoot,Corn Disease Identification from Leaf Images Using Convolutional Neural Networks,2017 21st International Computer Science and Engineering Conference (ICSEC),IEEE,2017年11月15日,p.233-238,DOI: 10.1109/ICSEC.2017.8443919 |
ZHAO, Ruizhe、他3名,Towards Efficient Convolutional Neural Network for Domain- Specific Applications on FPGA,Computer Vision and Pattern Recognition,ARXIV.ORG,2018年09月04日,p.1-8,インターネット:<URL: https://doi.org/10.48550/arXiv.1809.03318> |
Also Published As
Publication number | Publication date |
---|---|
EP3850580A1 (en) | 2021-07-21 |
US20210200993A1 (en) | 2021-07-01 |
WO2020051816A1 (en) | 2020-03-19 |
EP3850580A4 (en) | 2022-04-27 |
US11823033B2 (en) | 2023-11-21 |
EP3850580B1 (en) | 2024-09-04 |
JP2022508988A (ja) | 2022-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7391883B2 (ja) | 顔認識のための圧縮-拡張深さ方向畳み込みニューラルネットワーク | |
US20230306603A1 (en) | Deep learning for dense semantic segmentation in video with automated interactivity and improved temporal coherence | |
US11880770B2 (en) | 3D object recognition using 3D convolutional neural network with depth based multi-scale filters | |
US10885384B2 (en) | Local tone mapping to reduce bit depth of input images to high-level computer vision tasks | |
US10685262B2 (en) | Object recognition based on boosting binary convolutional neural network features | |
US10896348B2 (en) | End to end framework for geometry-aware multi-scale keypoint detection and matching in fisheye images | |
US11928753B2 (en) | High fidelity interactive segmentation for video data with deep convolutional tessellations and context aware skip connections | |
WO2018035805A1 (en) | Coupled multi-task fully convolutional networks using multi-scale contextual information and hierarchical hyper-features for semantic image segmentation | |
KR101752072B1 (ko) | 오브젝트 검출을 가속하기 위한 하드웨어 컨볼루션 사전-필터 | |
US10430694B2 (en) | Fast and accurate skin detection using online discriminative modeling | |
US9600864B2 (en) | Skin tone tuned image enhancement | |
US20200267310A1 (en) | Single image ultra-wide fisheye camera calibration via deep learning | |
US20240005628A1 (en) | Bidirectional compact deep fusion networks for multimodality visual analysis applications | |
CN113168502A (zh) | 用于可变计算资源的动态自适应卷积神经网络 | |
US20230290134A1 (en) | Method and system of multiple facial attributes recognition using highly efficient neural networks | |
JP7459425B2 (ja) | 適応的ランタイム高効率画像分類のための入力画像サイズスイッチ可能ネットワーク | |
US9158498B2 (en) | Optimizing fixed point divide | |
US10296605B2 (en) | Dictionary generation for example based image processing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210908 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220926 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221004 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230425 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230724 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231024 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231122 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7391883 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |