JP2022512211A - 画像処理方法、装置、車載演算プラットフォーム、電子機器及びシステム - Google Patents
画像処理方法、装置、車載演算プラットフォーム、電子機器及びシステム Download PDFInfo
- Publication number
- JP2022512211A JP2022512211A JP2021533274A JP2021533274A JP2022512211A JP 2022512211 A JP2022512211 A JP 2022512211A JP 2021533274 A JP2021533274 A JP 2021533274A JP 2021533274 A JP2021533274 A JP 2021533274A JP 2022512211 A JP2022512211 A JP 2022512211A
- Authority
- JP
- Japan
- Prior art keywords
- point
- fixed
- parameter
- neural network
- convolutional neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 30
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 138
- 238000012545 processing Methods 0.000 claims abstract description 110
- 238000000034 method Methods 0.000 claims abstract description 98
- 238000007667 floating Methods 0.000 claims abstract description 27
- 230000006870 function Effects 0.000 claims description 70
- 238000013528 artificial neural network Methods 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 10
- 238000001514 detection method Methods 0.000 claims description 10
- 238000012886 linear function Methods 0.000 claims description 7
- 230000004044 response Effects 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 12
- 238000012549 training Methods 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000003064 k means clustering Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Complex Calculations (AREA)
Abstract
Description
同時に、説明の便宜上、図面に示された各部分の寸法は、実際の比例関係に従って描いたものではないことを理解されたい。
好ましい例では、該ステップS102は、プロセッサがメモリに記憶されている、対応する命令を呼び出すことにより実行されてもよく、プロセッサにより実行される取得モジュール802により実行されてもよい。
好ましい例では、該ステップS103は、プロセッサがメモリに記憶されている、対応する命令を呼び出すことにより実行されてもよく、プロセッサにより実行される第2の処理モジュール803により実行されてもよい。
好ましくは、本願の実施例の方法を実行する前、上記畳み込みニューラルネットワークにおける畳み込みパラメータと層出力パラメータは、それぞれ浮動小数点数であり、これらの浮動小数点数について、本実施例では、これらの浮動小数点数に対応する小数点以下の桁数に基づいて、上記固定小数点パラメータを決定することができる。
S601では、上記層出力パラメータから上記所定数の層出力パラメータを初期クラスタリング中心として選択する。
S703では、上記クラスタリング中心の第2の固定小数点結果を上記クラスタリング結果の第2の固定小数点結果とする。
Claims (43)
- 演算ユニットの固定小数点ビット幅のハードウェアリソース量に基づいて、畳み込みニューラルネットワークにおける浮動小数点で表された、前記畳み込みニューラルネットワークの畳み込みパラメータ及び層出力パラメータを含む、ネットワークパラメータに対して固定小数点処理を行うステップと、
処理対象の画像を取得するステップと、
前記演算ユニットが固定小数点処理後の畳み込みニューラルネットワークのネットワークパラメータに基づいて前記画像を処理するように制御して、前記画像の処理結果を得るステップと、を含む、ことを特徴とする画像処理方法。 - 演算ユニットの固定小数点ビット幅のハードウェアリソース量に基づいて、畳み込みニューラルネットワークにおける浮動小数点で表されたネットワークパラメータに対して固定小数点処理を行う前記ステップは、
前記畳み込みニューラルネットワークにおける浮動小数点で表された層出力パラメータをクラスタリングして、所定数のクラスタリング結果を得るステップと、
前記クラスタリング結果、前記畳み込みニューラルネットワークにおける浮動小数点で表された畳み込みパラメータ及び前記固定小数点ビット幅のハードウェアリソース量に基づいて、第2の固定小数点を行って、第2の固定小数点後の前記畳み込みニューラルネットワークを得るステップと、を含む、ことを特徴とする請求項1に記載の方法。 - 演算ユニットの固定小数点ビット幅のハードウェアリソース量に基づいて、畳み込みニューラルネットワークにおける浮動小数点で表されたネットワークパラメータに対して固定小数点処理を行う前記ステップは、
畳み込みニューラルネットワークにおける浮動小数点で表されたネットワークパラメータに基づいて、前記ネットワークパラメータに対応する固定小数点数の小数点以下の桁数を識別する固定小数点パラメータを決定するステップと、
前記固定小数点パラメータ、所定の固定小数点関数及び前記固定小数点ビット幅のハードウェアリソース量に基づいて、前記ネットワークパラメータに対して第1の固定小数点を行って、第1の固定小数点後の畳み込みニューラルネットワークを得るステップと、を含み、前記固定小数点関数は、0より大きい所定の勾配を有する一次関数である、ことを特徴とする請求項1に記載の方法。 - 前記第1の固定小数点後の畳み込みニューラルネットワークにおける前記層出力パラメータをクラスタリングして、所定数のクラスタリング結果を得るステップと、
前記クラスタリング結果、前記第1の固定小数点後の畳み込みニューラルネットワークにおける前記畳み込みパラメータ及び前記固定小数点ビット幅のハードウェアリソース量に基づいて、第2の固定小数点を行って、第2の固定小数点後の前記畳み込みニューラルネットワークを得るステップと、をさらに含む、ことを特徴とする請求項3に記載の方法。 - 畳み込みニューラルネットワークにおける浮動小数点で表されたネットワークパラメータに基づいて固定小数点パラメータを決定する前記ステップは、
前記畳み込みパラメータの小数点以下の桁数及び前記層出力パラメータの小数点以下の桁数に基づいて、前記固定小数点パラメータを決定するステップを含む、ことを特徴とする請求項3又は4に記載の方法。 - 前記畳み込みパラメータの桁数及び前記層出力パラメータの桁数に基づいて、前記固定小数点パラメータを決定する前記ステップは、
前記畳み込みパラメータの小数点以下の桁数と前記層出力パラメータの小数点以下の桁数のうちの最大の小数点以下の桁数を、前記固定小数点パラメータに対応する小数点以下の桁数とするステップを含む、ことを特徴とする請求項5に記載の方法。 - 前記固定小数点パラメータ、所定の固定小数点関数及び前記固定小数点ビット幅のハードウェアリソース量に基づいて、前記ネットワークパラメータに対して第1の固定小数点を行って、第1の固定小数点後の畳み込みニューラルネットワークを得る前記ステップは、
前記固定小数点ビット幅のハードウェアリソース量のビット桁数及び前記固定小数点パラメータに基づいて、前記ネットワークパラメータの固定小数点レベルを決定するステップと、
前記固定小数点レベル及び前記固定小数点関数に基づいて、前記ネットワークパラメータに対して第1の固定小数点を行って、第1の固定小数点後の畳み込みニューラルネットワークを得るステップと、を含む、ことを特徴とする請求項3~6のいずれか一項に記載の方法。 - 前記固定小数点レベル及び前記固定小数点関数に基づいて、前記ネットワークパラメータに対して第1の固定小数点を行う前記ステップは、
前記ネットワークパラメータの値と、前記ネットワークパラメータの値に最も近い前記固定小数点レベルである目標レベルとの差分値を決定するステップと、
前記差分値及び前記目標レベルを前記固定小数点関数に入力して、前記ネットワークパラメータに対して前記第1の固定小数点を行った結果を得るステップと、を含む、ことを特徴とする請求項7に記載の方法。 - クラスタリングして、所定数のクラスタリング結果を得る前記ステップは、
前記層出力パラメータから前記所定数の層出力パラメータを初期クラスタリング中心として選択するステップと、
前記初期クラスタリング中心に基づいてクラスタリング繰り返し処理を行って、前記所定数のクラスタリング結果を得るステップと、を含む、ことを特徴とする請求項2又は4に記載の方法。 - 第2の固定小数点を行う前記ステップは、
前記クラスタリング結果のクラスタリング中心を決定するステップと、
前記クラスタリング中心及び前記畳み込みニューラルネットワークにおける浮動小数点で表された畳み込みパラメータ、又は、前記クラスタリング中心及び第1の固定小数点後の畳み込みニューラルネットワークにおける前記畳み込みパラメータに基づいて、前記固定小数点ビット幅のハードウェアリソース量に基づいて第2の固定小数点を行って、第2の固定小数点結果を得るステップと、を含み、前記第2の固定小数点は、前記クラスタリング中心を前記クラスタリング中心に最も近い固定小数点レベルに固定小数点する、ことを特徴とする請求項2又は4に記載の方法。 - 前記固定小数点関数と目標階段関数の差異が所定の差異より大きいことに応答して、前記固定小数点関数の勾配を修正するステップと、
勾配が修正された固定小数点関数に基づいて新たな第1の固定小数点を行うステップと、をさらに含む、ことを特徴とする請求項3~8のいずれか一項に記載の方法。 - 前記演算ユニットが固定小数点処理後の畳み込みニューラルネットワークのネットワークパラメータに基づいて前記画像を処理するように制御する前記ステップは、
前記演算ユニットが固定小数点処理後の畳み込みニューラルネットワークのネットワークパラメータに基づいて、前記画像に対して固定小数点乗算演算、固定小数点加算演算、シフト演算のうちの少なくとも1つの処理を行うように制御するステップを含む、ことを特徴とする請求項1~11のいずれか一項に記載の方法。 - 前記画像の処理結果は、
特徴抽出結果、分割結果、分類結果、オブジェクト検出/追跡結果のうちの少なくとも1つを含む、ことを特徴とする請求項1~12のいずれか一項に記載の方法。 - 演算ユニットの固定小数点ビット幅のハードウェアリソース量に基づいて、畳み込みニューラルネットワークにおける浮動小数点で表された、前記畳み込みニューラルネットワークの畳み込みパラメータ及び層出力パラメータを含む、ネットワークパラメータに対して固定小数点処理を行う第1の処理モジュールと、
処理対象の画像を取得する取得モジュールと、
前記演算ユニットが固定小数点処理後の畳み込みニューラルネットワークのネットワークパラメータに基づいて前記画像を処理するように制御して、前記画像の処理結果を得る第2の処理モジュールと、を含む、ことを特徴とする画像処理装置。 - 前記第1の処理モジュールは、
前記畳み込みニューラルネットワークにおける浮動小数点で表された層出力パラメータをクラスタリングして、所定数のクラスタリング結果を得るクラスタリングユニットと、
前記クラスタリング結果、前記畳み込みニューラルネットワークにおける浮動小数点で表された畳み込みパラメータ及び前記固定小数点ビット幅のハードウェアリソース量に基づいて、第2の固定小数点を行って、第2の固定小数点後の前記畳み込みニューラルネットワークを得る第2の固定小数点ユニットと、を含む、ことを特徴とする請求項14に記載の装置。 - 前記第1の処理モジュールは、
畳み込みニューラルネットワークにおける浮動小数点で表されたネットワークパラメータに基づいて、前記ネットワークパラメータに対応する固定小数点数の小数点以下の桁数を識別する固定小数点パラメータを決定する決定ユニットと、
前記固定小数点パラメータ、所定の固定小数点関数及び前記固定小数点ビット幅のハードウェアリソース量に基づいて、前記ネットワークパラメータに対して第1の固定小数点を行って、第1の固定小数点後の畳み込みニューラルネットワークを得る第1の固定小数点ユニットと、をさらに含み、前記固定小数点関数は、0より大きい所定の勾配を有する一次関数である、ことを特徴とする請求項14に記載の装置。 - 前記第1の処理モジュールは、
前記第1の固定小数点後の畳み込みニューラルネットワークにおける前記層出力パラメータをクラスタリングして、所定数のクラスタリング結果を得て、
前記クラスタリング結果、前記第1の固定小数点後の畳み込みニューラルネットワークにおける前記畳み込みパラメータ及び前記固定小数点ビット幅のハードウェアリソース量に基づいて、第2の固定小数点を行って、第2の固定小数点後の前記畳み込みニューラルネットワークを得る、ことを特徴とする請求項16に記載の装置。 - 前記決定ユニットは、
前記畳み込みパラメータの小数点以下の桁数及び前記層出力パラメータの小数点以下の桁数に基づいて、前記固定小数点パラメータを決定する、ことを特徴とする請求項16又は17に記載の装置。 - 前記決定ユニットは、
前記畳み込みパラメータの小数点以下の桁数と前記層出力パラメータの小数点以下の桁数のうちの最大の小数点以下の桁数を、前記固定小数点パラメータに対応する小数点以下の桁数とする、ことを特徴とする請求項18に記載の装置。 - 前記第1の固定小数点ユニットは、
前記固定小数点ビット幅のハードウェアリソース量のビット桁数及び前記固定小数点パラメータに基づいて、前記ネットワークパラメータの固定小数点レベルを決定し、
前記固定小数点レベル及び前記固定小数点関数に基づいて、前記ネットワークパラメータに対して第1の固定小数点を行って、第1の固定小数点後の畳み込みニューラルネットワークを得る、ことを特徴とする請求項16~19のいずれか一項に記載の装置。 - 前記第1の固定小数点ユニットは、
前記ネットワークパラメータの値と、前記ネットワークパラメータの値に最も近い前記固定小数点レベルである目標レベルとの差分値を決定し、
そして、
前記差分値及び前記目標レベルを前記固定小数点関数に入力して、前記ネットワークパラメータに対して前記第1の固定小数点を行った結果を得る、ことを特徴とする請求項20に記載の装置。 - 前記第1の処理モジュールは、
前記層出力パラメータから前記所定数の層出力パラメータを初期クラスタリング中心として選択し、
前記初期クラスタリング中心に基づいてクラスタリング繰り返し処理を行って、前記所定数のクラスタリング結果を得る、ことを特徴とする請求項15又は17に記載の装置。 - 前記第1の処理モジュールは、
前記クラスタリング結果のクラスタリング中心を決定し、
前記クラスタリング中心及び前記畳み込みニューラルネットワークにおける浮動小数点で表された畳み込みパラメータ、又は、前記クラスタリング中心及び第1の固定小数点後の畳み込みニューラルネットワークにおける前記畳み込みパラメータに基づいて、前記固定小数点ビット幅のハードウェアリソース量に基づいて第2の固定小数点を行って、第2の固定小数点結果を得て、前記第2の固定小数点は、前記クラスタリング中心を前記クラスタリング中心に最も近い固定小数点レベルに固定小数点する、ことを特徴とする請求項15又は17に記載の装置。 - 前記固定小数点関数と目標階段関数の差異が所定の差異より大きい場合、前記固定小数点関数の勾配を修正し、そして、勾配が修正された固定小数点関数に基づいて新たな第1の固定小数点を行う更新モジュールをさらに含む、ことを特徴とする請求項16~21のいずれか一項に記載の装置。
- 第2の処理モジュールは、
前記演算ユニットが固定小数点処理後の畳み込みニューラルネットワークのネットワークパラメータに基づいて、前記画像に対して固定小数点乗算演算、固定小数点加算演算、シフト演算のうちの少なくとも1つの処理を行うように制御する、ことを特徴とする請求項14~24のいずれか一項に記載の装置。 - 前記画像の処理結果は、
特徴抽出結果、分割結果、分類結果、オブジェクト検出/追跡結果のうちの少なくとも1つを含む、ことを特徴とする請求項14~25のいずれか一項に記載の装置。 - プロセッサ、外部メモリ、内部メモリ及びFPGA演算ユニットを含み、
前記外部メモリには、畳み込みニューラルネットワークの固定小数点処理後の、前記畳み込みニューラルネットワークの畳み込みパラメータ及び層出力パラメータを含むネットワークパラメータが記憶されており、
前記プロセッサは、前記畳み込みニューラルネットワークの固定小数点処理後のネットワークパラメータを前記内部メモリに読み込み、前記内部メモリのデータ及び処理対象の画像を前記FPGA演算ユニットに入力し、
前記FPGA演算ユニットは、固定小数点処理後の畳み込みニューラルネットワークのネットワークパラメータに基づいて、前記処理対象の画像に対して演算処理を行って、前記画像の処理結果を得る、ことを特徴とするフィールドプログラマブルゲートアレイFPGAに基づく車載演算プラットフォーム。 - 前記プロセッサは、
前記畳み込みニューラルネットワークにおける層出力パラメータをクラスタリングして、所定数のクラスタリング結果を得て、
前記クラスタリング結果、前記畳み込みニューラルネットワークにおける浮動小数点で表された畳み込みパラメータ及び前記固定小数点ビット幅のハードウェアリソース量に基づいて、第2の固定小数点を行って、第2の固定小数点後の前記畳み込みニューラルネットワークを得る、ことを特徴とする請求項27に記載のプラットフォーム。 - 前記プロセッサは、
畳み込みニューラルネットワークにおける浮動小数点で表されたネットワークパラメータに基づいて、前記ネットワークパラメータに対応する固定小数点数の小数点以下の桁数を識別する固定小数点パラメータを決定し、
前記固定小数点パラメータ、所定の固定小数点関数及び前記固定小数点ビット幅のハードウェアリソース量に基づいて、前記ネットワークパラメータに対して第1の固定小数点を行って、第1の固定小数点後の畳み込みニューラルネットワークを得て、前記固定小数点関数は、0より大きい所定の勾配を有する一次関数である、ことを特徴とする請求項27に記載のプラットフォーム。 - 前記プロセッサは、
前記第1の固定小数点後の畳み込みニューラルネットワークにおける前記層出力パラメータをクラスタリングして、所定数のクラスタリング結果を得て、
前記クラスタリング結果、前記第1の固定小数点後の畳み込みニューラルネットワークにおける前記畳み込みパラメータ及び前記固定小数点ビット幅のハードウェアリソース量に基づいて、第2の固定小数点を行って、第2の固定小数点後の前記畳み込みニューラルネットワークを得る、ことを特徴とする請求項29に記載のプラットフォーム。 - 前記プロセッサは、
前記畳み込みパラメータの小数点以下の桁数及び前記層出力パラメータの小数点以下の桁数に基づいて、前記固定小数点パラメータを決定する、ことを特徴とする請求項29又は30に記載のプラットフォーム。 - 前記プロセッサは、
前記畳み込みパラメータの小数点以下の桁数と前記層出力パラメータの小数点以下の桁数のうちの最大の小数点以下の桁数を、前記固定小数点パラメータに対応する小数点以下の桁数とする、ことを特徴とする請求項31に記載のプラットフォーム。 - 前記プロセッサは、
前記固定小数点ビット幅のハードウェアリソース量のビット桁数及び前記固定小数点パラメータに基づいて、前記ネットワークパラメータの固定小数点レベルを決定し、
前記固定小数点レベル及び前記固定小数点関数に基づいて、前記ネットワークパラメータに対して第1の固定小数点を行って、第1の固定小数点後の畳み込みニューラルネットワークを得る、ことを特徴とする請求項29~32のいずれか一項に記載のプラットフォーム。 - 前記プロセッサは、
前記ネットワークパラメータの値と、前記ネットワークパラメータの値に最も近い前記固定小数点レベルである目標レベルとの差分値を決定し、
前記差分値及び前記目標レベルを前記固定小数点関数に入力して、前記ネットワークパラメータに対して前記第1の固定小数点を行った結果を得る、ことを特徴とする請求項33に記載のプラットフォーム。 - 前記プロセッサは、
前記層出力パラメータから前記所定数の層出力パラメータを初期クラスタリング中心として選択し、
前記初期クラスタリング中心に基づいてクラスタリング繰り返し処理を行って、前記所定数のクラスタリング結果を得る、ことを特徴とする請求項28又は30に記載のプラットフォーム。 - 前記プロセッサは、
前記クラスタリング結果のクラスタリング中心を決定し、
前記クラスタリング中心及び前記畳み込みニューラルネットワークにおける浮動小数点で表された畳み込みパラメータ、又は、前記クラスタリング中心及び第1の固定小数点後の畳み込みニューラルネットワークにおける前記畳み込みパラメータに基づいて、前記固定小数点ビット幅のハードウェアリソース量に基づいて第2の固定小数点を行って、第2の固定小数点結果を得て、前記第2の固定小数点は、前記クラスタリング中心を前記クラスタリング中心に最も近い固定小数点レベルに固定小数点する、ことを特徴とする請求項28又は30に記載のプラットフォーム。 - 前記プロセッサは、
前記固定小数点関数と目標階段関数の差異が所定の差異より大きいことに応答して、前記固定小数点関数の勾配を修正し、
勾配が修正された固定小数点関数に基づいて新たな第1の固定小数点を行う、ことを特徴とする請求項29~34のいずれか一項に記載のプラットフォーム。 - 前記プロセッサは、
前記演算ユニットが固定小数点処理後の畳み込みニューラルネットワークのネットワークパラメータに基づいて、前記画像に対して固定小数点乗算演算、固定小数点加算演算、シフト演算のうちの少なくとも1つの処理を行うように制御する、ことを特徴とする請求項27~37のいずれか一項に記載のプラットフォーム。 - 前記画像の処理結果は、
特徴抽出結果、分割結果、分類結果、オブジェクト検出/追跡結果のうちの少なくとも1つを含む、ことを特徴とする請求項27~38のいずれか一項に記載のプラットフォーム。 - プロセッサと、
請求項1~13のいずれか一項に記載の画像処理方法に対応する動作を前記プロセッサに実行させる少なくとも1つの実行可能な命令を記憶するメモリと、を含む、ことを特徴とする電子機器。 - プロセッサと、請求項14~26のいずれか一項に記載の画像処理装置とを含み、プロセッサが前記画像処理装置を実行する場合、請求項14~26のいずれか一項に記載の画像処理装置におけるモジュールが実行される、ことを特徴とする電子機器。
- 請求項40又は41に記載の電子機器を含む、ことを特徴とするスマート運転システム。
- 請求項1~13のいずれか一項に記載の画像処理方法を実行するコンピュータプログラムが記憶されている、ことを特徴とするコンピュータ可読記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811647408.2 | 2018-12-29 | ||
CN201811647408.2A CN111383157B (zh) | 2018-12-29 | 2018-12-29 | 图像处理方法、装置、车载运算平台、电子设备及系统 |
PCT/CN2019/128763 WO2020135601A1 (zh) | 2018-12-29 | 2019-12-26 | 图像处理方法、装置、车载运算平台、电子设备及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022512211A true JP2022512211A (ja) | 2022-02-02 |
Family
ID=71125717
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021533274A Pending JP2022512211A (ja) | 2018-12-29 | 2019-12-26 | 画像処理方法、装置、車載演算プラットフォーム、電子機器及びシステム |
Country Status (4)
Country | Link |
---|---|
JP (1) | JP2022512211A (ja) |
KR (1) | KR20210090249A (ja) |
CN (1) | CN111383157B (ja) |
WO (1) | WO2020135601A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112308226B (zh) * | 2020-08-03 | 2024-05-24 | 北京沃东天骏信息技术有限公司 | 神经网络模型的量化、用于输出信息的方法和装置 |
CN113780320A (zh) * | 2020-10-27 | 2021-12-10 | 北京沃东天骏信息技术有限公司 | 物品识别方法、模型训练方法以及装置 |
WO2023272432A1 (zh) * | 2021-06-28 | 2023-01-05 | 华为技术有限公司 | 图像处理方法和图像处理装置 |
CN114611685B (zh) * | 2022-03-08 | 2024-09-20 | 安谋科技(中国)有限公司 | 神经网络模型中的特征处理方法、介质、设备和程序产品 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160328647A1 (en) * | 2015-05-08 | 2016-11-10 | Qualcomm Incorporated | Bit width selection for fixed point neural networks |
CN106611216A (zh) * | 2016-12-29 | 2017-05-03 | 北京旷视科技有限公司 | 基于神经网络的计算方法及装置 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107239825B (zh) * | 2016-08-22 | 2021-04-09 | 赛灵思电子科技(北京)有限公司 | 考虑负载均衡的深度神经网络压缩方法 |
CN108734264A (zh) * | 2017-04-21 | 2018-11-02 | 展讯通信(上海)有限公司 | 深度神经网络模型压缩方法及装置、存储介质、终端 |
US10838910B2 (en) * | 2017-04-27 | 2020-11-17 | Falcon Computing | Systems and methods for systolic array design from a high-level program |
CN107480770B (zh) * | 2017-07-27 | 2020-07-28 | 中国科学院自动化研究所 | 可调节量化位宽的神经网络量化与压缩的方法及装置 |
CN107885214A (zh) * | 2017-11-22 | 2018-04-06 | 济南浪潮高新科技投资发展有限公司 | 一种基于fpga的加速自动驾驶视觉感知的方法及装置 |
CN108053028B (zh) * | 2017-12-21 | 2021-09-14 | 深圳励飞科技有限公司 | 数据定点化处理方法、装置、电子设备及计算机存储介质 |
CN108830288A (zh) * | 2018-04-25 | 2018-11-16 | 北京市商汤科技开发有限公司 | 图像处理方法、神经网络的训练方法、装置、设备及介质 |
CN109002881A (zh) * | 2018-06-28 | 2018-12-14 | 郑州云海信息技术有限公司 | 基于fpga的深度神经网络的定点化计算方法及装置 |
-
2018
- 2018-12-29 CN CN201811647408.2A patent/CN111383157B/zh active Active
-
2019
- 2019-12-26 KR KR1020217018149A patent/KR20210090249A/ko not_active Application Discontinuation
- 2019-12-26 JP JP2021533274A patent/JP2022512211A/ja active Pending
- 2019-12-26 WO PCT/CN2019/128763 patent/WO2020135601A1/zh active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160328647A1 (en) * | 2015-05-08 | 2016-11-10 | Qualcomm Incorporated | Bit width selection for fixed point neural networks |
CN106611216A (zh) * | 2016-12-29 | 2017-05-03 | 北京旷视科技有限公司 | 基于神经网络的计算方法及装置 |
Non-Patent Citations (1)
Title |
---|
小野 雅晃: "手書き数字認識用FPGAニューラル・ネットワーク・システムの製作", トランジスタ技術, vol. 第55巻 第11号, JPN6022022716, 1 November 2018 (2018-11-01), JP, pages 74 - 99, ISSN: 0004957139 * |
Also Published As
Publication number | Publication date |
---|---|
KR20210090249A (ko) | 2021-07-19 |
CN111383157B (zh) | 2023-04-14 |
CN111383157A (zh) | 2020-07-07 |
WO2020135601A1 (zh) | 2020-07-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20240104378A1 (en) | Dynamic quantization of neural networks | |
US10929746B2 (en) | Low-power hardware acceleration method and system for convolution neural network computation | |
JP2022512211A (ja) | 画像処理方法、装置、車載演算プラットフォーム、電子機器及びシステム | |
CN108701250B (zh) | 数据定点化方法和装置 | |
US11790212B2 (en) | Quantization-aware neural architecture search | |
US11775611B2 (en) | Piecewise quantization for neural networks | |
KR102655950B1 (ko) | 뉴럴 네트워크의 고속 처리 방법 및 그 방법을 이용한 장치 | |
WO2018057749A1 (en) | Cascaded computing for convolutional neural networks | |
KR102585470B1 (ko) | 정보 처리장치, 정보 처리방법, 비일시적인 컴퓨터 판독가능한 기억매체 | |
CN112200296A (zh) | 网络模型量化方法、装置、存储介质及电子设备 | |
CN112925637A (zh) | 用于一边缘运算网络的负载平衡装置及方法 | |
CN111967608A (zh) | 数据处理方法、装置、设备及存储介质 | |
CN112085175B (zh) | 基于神经网络计算的数据处理方法和装置 | |
CN116762080A (zh) | 神经网络生成装置、神经网络运算装置、边缘设备、神经网络控制方法以及软件生成程序 | |
EP3924891A1 (en) | Quality monitoring and hidden quantization in artificial neural network computations | |
CN112966592A (zh) | 手部关键点检测方法、装置、设备和介质 | |
US11710042B2 (en) | Shaping a neural network architecture utilizing learnable sampling layers | |
CN110309877A (zh) | 一种特征图数据的量化方法、装置、电子设备及存储介质 | |
CN115019150B (zh) | 目标检测定点模型建立方法、装置及可读存储介质 | |
CN114972955A (zh) | 一种数据处理方法、装置及存储介质 | |
CN113361677B (zh) | 神经网络模型的量化方法和装置 | |
CN114065913A (zh) | 模型量化方法、装置及终端设备 | |
WO2020135602A1 (zh) | 图像处理方法、装置、智能驾驶系统和车载运算平台 | |
CN114692865A (zh) | 一种神经网络量化训练方法、装置及相关产品 | |
US20240256901A1 (en) | Information processing apparatus, information processing method and non-transitory computer-readable storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210610 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210610 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220531 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220603 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230105 |