WO2018016608A1 - ニューラルネットワーク装置、車両制御システム、分解処理装置、及びプログラム - Google Patents

ニューラルネットワーク装置、車両制御システム、分解処理装置、及びプログラム Download PDF

Info

Publication number
WO2018016608A1
WO2018016608A1 PCT/JP2017/026363 JP2017026363W WO2018016608A1 WO 2018016608 A1 WO2018016608 A1 WO 2018016608A1 JP 2017026363 W JP2017026363 W JP 2017026363W WO 2018016608 A1 WO2018016608 A1 WO 2018016608A1
Authority
WO
WIPO (PCT)
Prior art keywords
input
matrix
vector
neural network
weight
Prior art date
Application number
PCT/JP2017/026363
Other languages
English (en)
French (fr)
Inventor
満 安倍
Original Assignee
株式会社デンソーアイティーラボラトリ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソーアイティーラボラトリ filed Critical 株式会社デンソーアイティーラボラトリ
Priority to US16/318,779 priority Critical patent/US11657267B2/en
Priority to CN201780056821.9A priority patent/CN109716362B/zh
Priority to JP2018528880A priority patent/JP6921079B2/ja
Publication of WO2018016608A1 publication Critical patent/WO2018016608A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means

Definitions

  • the present technology relates to a neural network device and program for inputting input information to an input layer of a neural network model and obtaining output information from an output layer, a vehicle control system including the neural network device, and a decomposition for configuring the neural network.
  • the present invention relates to a processing apparatus.
  • FIG. 16 is a diagram illustrating an example of a neural network that divides a four-dimensional input vector into three classes (identifies which of the three classes belongs). As shown in FIG. 16, when a four-dimensional input vector (also referred to as an input map) to be identified is input as an input layer a 0 , the input information passes through intermediate layers a 1 to a 3 and is three-dimensional. It is output as an output layer a 4.
  • a four-dimensional input vector also referred to as an input map
  • a weight matrix (also called a filter) W 1 and a bias vector b 1 are defined between the input layer a 0 and the intermediate layer a 1 , and the intermediate layer a 1 is obtained by the following equation (1).
  • f (•) is an activation function, and for example, the following function (ReLU) is used.
  • the intermediate layers a 2 and a 3 are obtained by the following expressions (2) and (3), and the output layer a 4 is obtained by the following expression (4).
  • the input vector from the previous layer is x (D I dimension), the weight matrix W (D I row D O column), and the bias b (D O dimension) as follows: ),
  • the output vector (before applying the activation function) y (D O dimension) to the next layer is expressed by the following equation (5).
  • FC layer For example, in a fully connected layer (hereinafter also referred to as “FC layer”), when the weight matrix W is a single precision real number (32 bits), a memory of 32 D I D O bits is consumed. Become. Each layer requires D I D O times of product-sum operations of single-precision real numbers, and this calculation particularly requires processing time.
  • the FC layer is usually arranged at the end of the neural network, but the convolutional layer (hereinafter also referred to as “CONV layer”) also appropriately cuts out and rearranges the input map by the sliding window, The CONV layer can be regarded as the FC layer.
  • the present technology has been made in view of the above-described problems, and aims to reduce memory consumption and calculation amount in a neural network device.
  • the neural network device includes a storage unit (24) for storing a neural network model, and an arithmetic unit (22) for inputting input information to an input layer of the neural network model and outputting an output layer,
  • the weight matrix (W) of at least one layer of the neural network model is a product (M w C w ) of a weight basis matrix (M w ) that is an integer matrix and a weight coefficient matrix (C w ) that is a real matrix. It is configured.
  • the neural network device is a neural network device that performs recognition using a neural network model, and has a configuration in which a logical operation is performed as an operation of at least one layer of the neural network model.
  • a neural network device is a neural network device that performs recognition using a neural network model, and stores a binary or ternary matrix used for calculation of at least one layer of the neural network model. have.
  • a vehicle control system includes the neural network device (20), an in-vehicle sensor (30) that acquires the input information, and a vehicle control device (40) that controls the vehicle based on the output. It has a configuration.
  • the decomposition processing apparatus includes an acquisition unit (11) that acquires a neural network model, a weight matrix of at least one layer of the neural network model, a weight basis matrix (M w ) that is an integer matrix, and a real matrix in a weighting coefficient matrix (C w) product of (M w C w) to decompose the weight decomposition section (12), the weight basis matrix (M w) and the weighting coefficient matrix (C w) and outputs an output Part (14).
  • acquisition unit (11) that acquires a neural network model, a weight matrix of at least one layer of the neural network model, a weight basis matrix (M w ) that is an integer matrix, and a real matrix in a weighting coefficient matrix (C w) product of (M w C w) to decompose the weight decomposition section (12), the weight basis matrix (M w) and the weighting coefficient matrix (C w) and outputs an output Part (14).
  • the program according to one aspect is a program that causes a computer to function as a neural network device that inputs input information to an input layer of a neural network model and obtains output information from an output layer, and is stored in the storage unit (24) of the computer.
  • an input vector (x ) To the sum of the product of the integer input basis matrix (M x ) and the real input coefficient vector (c x ) and the input bias (b x ), the input coefficient vector ( c x ) and the input bias vector (c x ) out of the input bias (b x ) and the input coefficient vector obtained by the learning.
  • a value (x j ) of each element of the input vector obtained based on Tol (c x ) and the input bias (b x ), and an input basis matrix value (m x (j) ) corresponding thereto A look-up table (LUT) that defines a relationship, and the program causes the computer to use the output vector of the previous layer as an input vector (x) in at least one fully connected layer of the neural network model.
  • the weight basis matrix (M w ) read from the storage unit (24), the real weight coefficient matrix (C w ), the input coefficient vector (c x ), and the look read from the storage unit (24) the input basis matrix corresponding to the input vector obtained by referring to the up-table (LUT) (x) with (M x) and the input vector (x It said to function as a calculation unit for obtaining the product of the weight matrix (W) and.
  • the program according to one aspect is a program that causes a computer to function as a neural network device that inputs input information to an input layer of a neural network model and obtains output information from an output layer, and is stored in the storage unit (24) of the computer.
  • an input vector (x ) To the sum of the product of the integer input basis matrix (M x ) and the real input coefficient vector (c x ) and the input bias (b x ), the input coefficient vector ( c x ) and the input bias vector (c x ) out of the input bias (b x ) and the input coefficient vector obtained by the learning.
  • the program causes the computer to read the weight basis matrix (24) read from the storage unit (24) with the output vector of the previous layer as an input vector (x) in at least one fully connected layer of the neural network model.
  • the neural network device includes a storage unit (24) for storing a neural network model, and an arithmetic unit (22) for inputting input information to an input layer of the neural network model and outputting an output layer,
  • the operation unit (22) has an input basis matrix (M x ) that is an integer matrix, with the output vector of the previous layer as an input vector (x) in at least one layer of the neural network model.
  • FIG. 1 is a diagram illustrating calculation of a product of an integer-decomposed input vector and a weight matrix according to the embodiment.
  • FIG. 2 is a diagram illustrating a configuration of the decomposition processing apparatus according to the embodiment.
  • FIG. 3 is a diagram illustrating a process of decomposing the weight matrix according to the embodiment into a base matrix and a coefficient matrix.
  • FIG. 4 is a flowchart of an algorithm executed in the division method according to the embodiment.
  • FIG. 5 is a diagram illustrating a modification of the process of decomposing the weight matrix according to the embodiment into a base matrix and a coefficient matrix.
  • FIG. 1 is a diagram illustrating calculation of a product of an integer-decomposed input vector and a weight matrix according to the embodiment.
  • FIG. 2 is a diagram illustrating a configuration of the decomposition processing apparatus according to the embodiment.
  • FIG. 3 is a diagram illustrating a process of decomposing the weight matrix according to the embodiment into a base matrix and a coefficient matrix.
  • FIG. 6 is a diagram illustrating a modified example of the process of decomposing an input vector according to the embodiment into a product of a base matrix and a coefficient vector and a bias.
  • FIG. 7 is a diagram illustrating the update by the full search of the base matrix of the input vector according to the embodiment.
  • FIG. 8 is a diagram illustrating optimization of the basis matrix of the input vector according to the embodiment.
  • FIG. 9 is a diagram illustrating optimization of the basis matrix of the input vector according to the embodiment.
  • FIG. 10 is a diagram illustrating optimization of the basis matrix of the input vector according to the embodiment.
  • FIG. 11 is a diagram illustrating a configuration of the neural network device according to the embodiment.
  • FIG. 12 is a diagram illustrating processing of the calculation unit in the FC layer of the neural network model according to the embodiment.
  • FIG. 13 is a diagram illustrating a relationship between an input map and an output map of the CONV layer according to the embodiment.
  • FIG. 14 is a diagram illustrating a relationship between an input map and an output map of the CONV layer according to the embodiment.
  • FIG. 15 is a diagram illustrating decomposition of the weight matrix of the CONV layer according to the embodiment.
  • FIG. 16 is a diagram illustrating an example of a neural network that identifies four-dimensional input vectors into three classes.
  • FIG. 17 is a diagram for explaining optimization of the basis matrix of the input vector in the modification of the embodiment.
  • FIG. 18 is a diagram for explaining optimization of a base matrix of an input vector in a modification of the embodiment.
  • FIG. 19 is a diagram showing a prototype and a number line on which the midpoints are plotted in a modification of the embodiment.
  • FIG. 20 is a diagram illustrating a prototype and a number line on which the midpoints are plotted in a modification of the embodiment.
  • FIG. 21 is a diagram for explaining the assignment of ⁇ in the modification of the embodiment.
  • FIG. 22 is a diagram illustrating a configuration of a neural network device according to a modification of the embodiment.
  • FIG. 23 is a diagram for explaining a binary tree search in a modification of the embodiment.
  • FIG. 24 is a diagram for explaining a binary tree search in a modification of the embodiment.
  • FIG. 25 is a diagram for explaining a binary tree search in a modification of the embodiment.
  • FIG. 26 is a diagram for explaining a binary tree search in a modification of the embodiment.
  • FIG. 27 is a diagram illustrating a binary tree according to a modification of the embodiment.
  • FIG. 28 is a diagram showing a configuration
  • the neural network device includes a storage unit (24) for storing a neural network model, and an arithmetic unit (22) for inputting input information to an input layer of the neural network model and outputting an output layer,
  • the weight matrix (W) of at least one layer of the neural network model is a product (M w C w ) of a weight basis matrix (M w ) that is an integer matrix and a weight coefficient matrix (C w ) that is a real matrix. It is configured.
  • the weight matrix (W) of all connection layers in the neural network is composed of a product (M w C w ) of an integer weight basis matrix (M w ) and a real weight coefficient matrix (C w ).
  • the memory consumption can be reduced in the calculation of the layer.
  • the product operation of the input basis matrix (M x ) and the weight basis matrix (M w ) is performed by the product operation of the integer matrices. Therefore, it is possible to reduce the amount of memory consumption and the amount of calculation.
  • the weight basis matrix (M w ) may be a binary matrix
  • the input basis matrix (M x ) may be a binary matrix
  • the calculation unit (22) A product operation (M w M x ) of the weight basis matrix (M w ) and the input basis matrix (M x ) may be performed by a logical operation and a bit count.
  • the product operation of the input basis matrix (M x ) and the weight basis matrix (M w ) in the operation for obtaining the product of the input vector (x) and the weight matrix (W) is performed by the product operation of binary matrices. And can be executed with a logical operation and a bit count, so that the operation for obtaining the product of the input vector (x) and the weight matrix (W) can be speeded up.
  • the weight basis matrix (M w ) may be a ternary matrix
  • the input basis matrix (M x ) may be a binary matrix
  • the calculation unit (22) A product operation (M w M x ) of the weight basis matrix (M w ) and the input basis matrix (M x ) may be performed by a logical operation and a bit count.
  • the product operation of the input basis matrix (M x ) and the weight basis matrix (M w ) in the operation for obtaining the product of the input vector (x) and the weight matrix (W) is performed as a binary matrix and a ternary matrix. And can be executed with a logical operation and a bit count, so that the operation for obtaining the product of the input vector (x) and the weight matrix (W) can be speeded up.
  • the calculation unit (22) decomposes the input vector (x) by optimizing the input basis matrix (M x ) with respect to the input vector (x). Good.
  • the calculation unit (22), for each element (x j ) of the input vector (x), includes all combinations of rows of the input basis matrix corresponding to the elements of the input vector ( ⁇ ) and the learned input coefficient vector (c x ) and the learned input bias (b x ) sum ( ⁇ c x + b x ) to select the nearest candidate
  • the basis matrix (M x ) may be optimized.
  • the input basis matrix (M x ) can be optimized by a one-dimensional nearest neighbor search.
  • the storage unit (24) includes a value of each element (x j ) of the input vector and a value (m x (j) ) of an input basis matrix in the nearest candidate corresponding thereto.
  • a lookup table (LUT) that defines the relationship may be stored, and the calculation unit (22) refers to the lookup table (LUT), so that the input basis for the input vector (x) is stored.
  • the matrix (M x ) may be optimized.
  • each element for (x i) of the input vector, the line of the input basis matrix corresponding to each element (x i) of the input vector (beta) A midpoint (mp i ) when all combinations and candidates (p) of approximate values of the elements of the input vector obtained thereby are arranged in order of magnitude may be stored, and the calculation unit (22) for each element of the input vector (x i), the middle point (mp i) rows of the input base matrix corresponding to each element (x i) of the input vector by binary tree search method using (m
  • the input basis matrix (M x ) may be optimized by determining x (j) ).
  • the neural network model may be a convolutional neural network model, and the convolutional neural network model combines the plurality of filters of the convolutional layer into the weight matrix (W), and
  • the convolution layer may be regarded as a fully connected layer, and the weight matrix (W) may be configured by a product of an integer weight basis matrix (M w ) and a real weight coefficient matrix (C w ), (22) may be a convolutional layer that is regarded as a fully connected layer, and may obtain a product of the decomposed input vector (x) and the decomposed weight matrix (W).
  • This configuration makes it possible to reduce the amount of memory consumed and the amount of computation in the computation of the convolutional layer of the convolutional neural network model.
  • the neural network device is a neural network device that performs recognition using a neural network model, and has a configuration in which a logical operation is performed as an operation of at least one layer of the neural network model.
  • This configuration makes it possible to perform neural network model operations at high speed by logical operations.
  • a neural network device is a neural network device that performs recognition using a neural network model, and stores a binary or ternary matrix used for calculation of at least one layer of the neural network model. have.
  • the neural network model can be calculated at high speed using a binary or ternary matrix.
  • a vehicle control system includes the neural network device (20), an in-vehicle sensor (30) that acquires the input information, and a vehicle control device (40) that controls the vehicle based on the output. It has a configuration.
  • This configuration makes it possible to control the vehicle based on recognition by a neural network model.
  • the decomposition processing apparatus includes an acquisition unit (11) that acquires a neural network model, a weight matrix of at least one layer of the neural network model, a weight basis matrix (M w ) that is an integer matrix, and a real matrix in a weighting coefficient matrix (C w) product of (M w C w) to decompose the weight decomposition section (12), the weight basis matrix (M w) and the weighting coefficient matrix (C w) and outputs an output Part (14).
  • acquisition unit (11) that acquires a neural network model, a weight matrix of at least one layer of the neural network model, a weight basis matrix (M w ) that is an integer matrix, and a real matrix in a weighting coefficient matrix (C w) product of (M w C w) to decompose the weight decomposition section (12), the weight basis matrix (M w) and the weighting coefficient matrix (C w) and outputs an output Part (14).
  • the input vector (x) is obtained by multiplying an input basis matrix (M x ) that is an integer matrix and an input coefficient vector (c x ) that is a real vector by an input bias (b x ).
  • An input pre-decomposition unit (13) for learning the input coefficient vector (c x ) and the input bias (b x ) for decomposition into a sum (x M x c x + b x 1);
  • the output unit (14) may output the input coefficient vector (c x ) obtained by the learning.
  • the coefficient vector (c x ) and the input bias (b x ) for decomposing the input vector (x) can be acquired in advance by learning.
  • the input pre-decomposition unit (13) generates a lookup table (LUT) for optimizing the input basis matrix (M x ) for the input vector (x).
  • the output unit (14) may output the lookup table (LUT).
  • a lookup table (LUT) for decomposing the input vector (x) at high speed can be acquired in advance.
  • the program according to one aspect is a program that causes a computer to function as a neural network device that inputs input information to an input layer of a neural network model and obtains output information from an output layer, and is stored in the storage unit (24) of the computer.
  • an input vector (x ) To the sum of the product of the integer input basis matrix (M x ) and the real input coefficient vector (c x ) and the input bias (b x ), the input coefficient vector ( c x ) and the input bias vector (c x ) out of the input bias (b x ) and the input coefficient vector obtained by the learning.
  • a value (x j ) of each element of the input vector obtained based on Tol (c x ) and the input bias (b x ), and an input basis matrix value (m x (j) ) corresponding thereto A look-up table (LUT) that defines a relationship, and the program causes the computer to use the output vector of the previous layer as an input vector (x) in at least one fully connected layer of the neural network model.
  • the weight basis matrix (M w ) read from the storage unit (24), the real weight coefficient matrix (C w ), the input coefficient vector (c x ), and the look read from the storage unit (24) the input basis matrix corresponding to the input vector obtained by referring to the up-table (LUT) (x) with (M x) and the input vector (x It said to function as a calculation unit for obtaining the product of the weight matrix (W) and.
  • the weight matrix (W) of all connection layers in the neural network is composed of a product (M w C w ) of an integer weight basis matrix (M w ) and a real weight coefficient matrix (C w ), and the input
  • the product operation of the input basis matrix (M x ) and the weight basis matrix (M w ) can be a product operation of integer matrices.
  • the program according to one aspect is a program that causes a computer to function as a neural network device that inputs input information to an input layer of a neural network model and obtains output information from an output layer, and is stored in the storage unit (24) of the computer.
  • an input vector (x ) To the sum of the product of the integer input basis matrix (M x ) and the real input coefficient vector (c x ) and the input bias (b x ), the input coefficient vector ( c x ) and the input bias vector (c x ) out of the input bias (b x ) and the input coefficient vector obtained by the learning.
  • the program causes the computer to read the weight basis matrix (24) read from the storage unit (24) with the output vector of the previous layer as an input vector (x) in at least one fully connected layer of the neural network model.
  • the neural network device includes a storage unit (24) for storing a neural network model, and an arithmetic unit (22) for inputting input information to an input layer of the neural network model and outputting an output layer,
  • the operation unit (22) has an input basis matrix (M x ) that is an integer matrix, with the output vector of the previous layer as an input vector (x) in at least one layer of the neural network model.
  • the weight matrix (W) is composed of binary or ternary elements
  • this configuration allows the input basis matrix (M) to be calculated in the calculation of the product of the input vector (x) and the weight matrix (W). Since the product operation of x ) and the weight matrix (W) can be a product operation of an integer matrix and a binary or ternary matrix, the amount of calculation can be reduced.
  • the FC layer of the neural network includes a step of calculating a product W T x of a weight matrix (filter) W and an input vector (input map) x.
  • the weight matrix W is decomposed into an integer basis matrix and a real coefficient matrix (integer decomposition)
  • the input vector x is decomposed into an integer base matrix and a real coefficient vector (integer decomposition), thereby reducing the memory consumption.
  • the processing time can be shortened.
  • FIG. 1 is a diagram for explaining calculation of an integer-resolved product W T x according to the present embodiment.
  • the bias b is omitted.
  • the basis number k w is determined according to the size of the weight matrix W, but is about 1/8 to 1/4 (about several tens to several hundreds) of the weight matrix W, and the basis number k x Can be about 2 to 4, for example.
  • this is expressed by an equation including the bias b, it is expressed as the following equation (6).
  • the base matrix M w T obtained by decomposing the weight matrix W is a binary or ternary matrix
  • the base matrix M x obtained by decomposing the input vector x is a binary matrix.
  • the base matrix M x may be a ternary matrix as will be described later.
  • M w T M x in the first term on the right-hand side of equation (6) is a product of a binary or ternary matrix and a binary or ternary matrix, which is a logical operation (AND, XOR) and a bit. It can be calculated by counting.
  • the sum of the second term and the third term on the right side can be calculated in advance as will be described later. Therefore, most operations can be reduced to logical operations by the decomposition of FIG. 1 and Equation (6).
  • FIG. 2 is a diagram showing a configuration of a decomposition processing apparatus for configuring the deep neural network of the present embodiment.
  • the decomposition processing apparatus 10 includes a data acquisition unit 11, a weight decomposition unit 12, an input pre-decomposition unit 13, and a decomposition result output unit 14.
  • the data acquisition unit 11 acquires configuration information (including the weight (filter) W and bias b of each layer) of the neural network model according to the present embodiment and an input vector for learning.
  • the weight decomposition unit 12 decomposes the weight matrix W into a product of a real coefficient matrix Cw and a binary or ternary basis matrix Mw .
  • Prefilled decomposition unit 13 the product of the coefficient vector c x for decomposing the sum of the product and the bias b x of the basis matrix M x and real coefficient vector c x of the binary or ternary input vector x And a bias b x are obtained by learning, and a lookup table LUT for obtaining a base matrix M x from the input vector x is generated.
  • the decomposition result output unit 14 uses the product of the coefficient matrix C w obtained by the weight decomposition unit 12 and the binary or ternary basis matrix M w and the lookup table LUT obtained by the input pre-decomposition unit 13. Then, the neural network model is reconstructed and output to the neural network device 20 described later. Hereinafter, each function will be described in detail.
  • the weight decomposition unit 12 decomposes the weight matrix W into a product of a real coefficient matrix Cw and an integer basis matrix Mw .
  • Figure 3 is a diagram illustrating the process of decomposing a weight matrix W on the basis matrix of the base number k w M w and the coefficient matrix C w.
  • the weight decomposition unit 12 decomposes the basis matrix M w and real coefficient matrix C w of the weight matrix W binary or ternary.
  • the weight decomposition section 12 of the present embodiment as a method of decomposing a binary or ternary basis matrix M w and real coefficient matrix C w, illustrating the first to fourth methods.
  • First decomposition method As a first decomposition method, a data-independent decomposition method will be described.
  • the weight decomposition unit 12 performs the degradation by solving the cost function g 1 of the formula representing the degradation error.
  • the base matrix M w is a binary matrix, and M ⁇ ⁇ 1, 1 ⁇ D 0 ⁇ kw .
  • the weight decomposing unit 12 solves the cost function g 1 according to the following procedure.
  • (1) Initialize randomly basis matrix M w and the coefficient matrix C w.
  • (2) By fixing the elements of the base matrix M w and optimizing the elements of the coefficient matrix C w by the least square method, the elements of the coefficient matrix C w are updated so that the cost function g 1 is minimized. .
  • (4) Repeat (2) and (3) until convergence. For example, when the cost function g 1 satisfies a predetermined convergence condition (for example, the amount of decrease is a certain value or less), it is determined that the cost function g 1 has converged.
  • a predetermined convergence condition for example, the amount of decrease is a certain value or less
  • steps (1) to (4) are held as candidates.
  • Steps (1) to (5) are repeated, and the candidate base matrix M w and candidate coefficient matrix C w that have the smallest cost function g 1 are adopted as the final results. Note that steps (1) to (5) need not be repeated, but by repeating a plurality of times, the problem of dependence on the initial value can be avoided.
  • the element of the row vector of the jth row of the base matrix Mw depends only on the element of the jth row of the weight matrix W. Therefore, the value of each row vector of the basis matrix M w, since the other row can be independently optimized, the base matrix M w can be carried out exhaustive searches for each row (full search). There are only 2 kw row vectors in the j-th row of the base matrix M w in the case of binary decomposition as in this embodiment ( note that there are only 3 kw ways in the case of ternary decomposition). Therefore, all of these are checked comprehensively, and a row vector that minimizes the cost function g 1 is adopted. This is applied to all the row vectors of the base matrix M to update the elements of the base matrix M.
  • the weight decomposition unit 12 performs the degradation by solving the cost function g 2 of the formula is an exploded error.
  • the base matrix M is a binary matrix
  • 1 is the L1 norm of the element of the coefficient matrix C w
  • is its coefficient.
  • Weight decomposition section 12 solves the cost function g 2 of the following procedure.
  • (1) Initialize randomly basis matrix M w and the coefficient matrix C w.
  • (2) The elements of the base matrix Mw are fixed, and the elements of the coefficient matrix Cw are optimized by the proximity gradient method.
  • (4) Repeat (2) and (3) until convergence. For example, when the cost function g 2 satisfies a predetermined convergence condition (e.g., decrease amount is less than a predetermined value), it is judged to have converged. (5)
  • the solutions obtained in steps (1) to (4) are held as candidates.
  • Steps (1) to (5) are repeated, and the candidate base matrix M w and candidate coefficient matrix C w that have the smallest cost function g 2 are adopted as the final results. Note that steps (1) to (5) need not be repeated, but by repeating a plurality of times, the problem of dependence on the initial value can be avoided.
  • a second decomposition scheme can be sparsely coefficient matrix C w.
  • C w By sparsely coefficient matrix C w, in the calculation of the product C w T M w T M x of formula (6), it is possible to omit the parts relating to the zero elements of the coefficient matrix C w, the inner product even faster Calculations can be made.
  • the decomposition error is expressed as the cost function g 1. To minimize this decomposition error.
  • the weight matrix W is approximated to the product of the base matrix Mw and the coefficient matrix Cw is the product W T x of the input vector x and the weight matrix W.
  • the weight decomposition unit 12 performs the degradation by solving the cost function g 3 of the formula. According to the cost function g 3, the weighting matrix W, since that would be resolved according to the distribution of the actual data, is improved approximation accuracy of the degradation.
  • This approximate decomposition can be performed by sequentially obtaining the basis vectors m w (j) constituting the basis matrix M w .
  • the procedure of the third decomposition method is as follows. (1) The base matrix M w and the coefficient matrix C w are obtained by the first or second decomposition method and set as initial values thereof. (2) The elements of the base matrix M w are fixed, and the elements of the coefficient matrix C w are optimized by the least square method. (3) to fix the elements of the coefficient matrix C w, by optimizing the elements of the basis matrix M w, to update the elements of the basis matrix M w. The update process of the base matrix Mw will be described later.
  • step (1) the base matrix Mw and the coefficient matrix Cw are optimized again by the first or second decomposition method, so that the initial values are changed.
  • step (5) may not be repeated, the problem of initial value dependency can be reduced by repeating a plurality of times.
  • step (3) the update process of the base matrix Mw in step (3) will be described.
  • the value of the row vector of the base matrix Mw is no longer independent of other rows and is dependent. Since the elements of the base matrix M w are binary or ternary, that is, discrete values, the optimization of the base matrix M w becomes a combinatorial optimization problem. Therefore, for example, an algorithm such as a greedy algorithm, tabu search, or simulated annealing can be used to optimize the base matrix Mw . Since a good initial value is obtained in step (1), these algorithms can satisfactorily minimize the decomposition error.
  • the base matrix Mw is optimized by the following procedure.
  • (3-1) T elements are selected at random from the elements of the base matrix Mw .
  • (3-2) tried combination of street 2 T (3 T as if 3 value decomposition described later), it is taken from the one cost function g 3 minimized.
  • (3-3) Repeat steps (3-1) and (3-2) until convergence.
  • the fourth decomposition method is a combination of the second decomposition method and the third decomposition method. Specifically, disassembly by solving the cost function g 4 of the formula. According to the cost function g 4, the weighting matrix W, since that would be resolved according to the distribution of actual data, as well as improved accuracy of approximation during decomposition can be sparsely coefficient matrix C w . That is, both of the advantages of the second decomposition method and the third decomposition method can be obtained.
  • the specific decomposition procedure is the same as that in the third decomposition method.
  • the real matrix may be sequentially decomposed by the following algorithm.
  • FIG. 4 is a flowchart of an algorithm executed in the division method according to the present embodiment.
  • a procedure for decomposing the weight matrix W into a base matrix M w having k w bases and a coefficient matrix C w by the above first to fourth decomposition methods is expressed as the following equation: I decided to.
  • the weight decomposition unit 12 acquires a weight matrix W to be decomposed (step S41).
  • the residual matrix R is a difference between the sum of inner products of the base matrix M w (j) and the coefficient matrix C w (j) that have been decomposed so far by the sequential decomposition and the weight matrix W.
  • the weight decomposition unit 12 decomposes the residual matrix R into the base matrix M w and the coefficient matrix C w by the method of the first or second embodiment (step S43).
  • the basis number is k wj .
  • M w (j) C w (j) is obtained
  • the weight decomposition unit 12 sets the difference between the original residual matrix R and M w (j) C w (j) as a new residual matrix R. (Step S44), the index j is incremented (Step S45), and it is determined whether the index j is greater than N, that is, whether the N-stage sequential decomposition has been completed (Step S46).
  • weight decomposition unit 12 returns to step S43 and increments in step S45 with respect to the new residual matrix R obtained in step S44. Decompose again with the new j. The above process is repeated, and when the index j becomes larger than N (YES in step S46), the process ends.
  • Figure 5 is a diagram for explaining a modification of the process of decomposing a weight matrix W on the basis matrix of the basis number k w M w and the coefficient matrix C w.
  • the vectors of the jth column of the weight matrix W are individually decomposed and collected. By decomposing for each vector in this way, the calculation cost for the decomposition can be suppressed.
  • Individual vectors may be decomposed by the first to fourth decomposition methods described above.
  • the column vector of the j-th column of the weight matrix W is expressed as w (j)
  • the column vector of the j-th column of the coefficient matrix C w is expressed as c w (j) .
  • FIG. 6 is a diagram for explaining a modification of the process of decomposing an input vector x in the product and the bias b x of the basis matrix M x and the coefficient vector c x of the base number k x.
  • the input vector x is decomposed as shown in FIG. 6 and the following equation (12).
  • the reason for considering the bias term b x 1 is that the input vector (map) is non-negative and the bias increases due to the influence of ReLU. This bias term is not necessary, but the necessity depends on the output of the previous layer.
  • the input pre-decomposition unit 13 determines c x and b x in advance by learning. Thereby, when the input vector x is obtained in each layer, the input vector can be decomposed by optimizing only M x accordingly, and the processing can be speeded up. In the present embodiment, the optimization of M x according to the input vector x is also accelerated by using a lookup table described later.
  • the input pre-decomposition unit 13 also performs processing for determining the lookup table in advance by learning. Hereinafter, it demonstrates in order.
  • the cost function J x can be solved by the following procedure.
  • (1) The base matrix M x is initialized at random.
  • (2) basis matrix to fix the M x, an element and a bias b x of the coefficient vector c x By optimizing the least squares method, as the cost function J x is minimized, the coefficient vector c x element And the coefficient b x is updated.
  • (3) The elements of the coefficient vector c x and the bias b x are fixed, and the elements of the base matrix M x are updated by a full search so that the cost function J x is minimized.
  • (4) Repeat (2) and (3) until convergence. For example, when the cost function J x satisfies a predetermined convergence condition (for example, the amount of decrease is equal to or less than a certain value), it is determined that the cost function J x has converged.
  • a predetermined convergence condition for example, the amount of decrease is equal to or less than a certain value
  • each row can be independently updated by the full search according to the following equation (14) and the procedure shown in FIG.
  • the input vector x When the input vector x is obtained in each layer, the input vector can be decomposed into a base matrix M x and a coefficient vector c x by solving the cost function J x described above.
  • this decomposition is performed in each layer at the time of execution, it will take a lot of processing time, and it cannot be practically used for detecting a pedestrian with an in-vehicle camera, for example. Therefore, the present inventor has paid attention to the following points.
  • c x and b x determine the range of x.
  • M x can be considered to indicate which value corresponds to the value range defined by c x and b x .
  • the value range of x is similar to all the elements, only c x and b x are determined in advance by the decomposition processing device 10 during learning, and M x during execution by the neural network device 20 described later. Can only be optimized. By doing in this way, decomposition
  • FIG. 10 is a diagram showing a state in which a plurality of bins are set by dividing the number line of FIG. 9 at equal intervals.
  • the input pre-decomposition unit 13 creates a lookup table LUT that defines ⁇ that is an optimum value for each of a plurality of bins set by dividing the number line in FIG. 9 at equal intervals.
  • m x (j) can be obtained very quickly by obtaining a bin to which the input vector x belongs and referring to the lookup table LUT.
  • the decomposition result output unit 14 uses M w and C w obtained by decomposing the weight matrix W by the weight decomposition unit 12 and the coefficient vector c x and the bias b x obtained by the input pre-decomposition unit 13. The sum of the second and third terms on the right side of Equation (6) is calculated. As described above, since c x , b x , M w , and C w are all obtained by the weight decomposing unit 12 or the input pre-decomposing unit 13, the second term on the right side of the equation (6) and It is possible to calculate the sum of the third term.
  • the decomposition result output unit 14 calculates c x , M w , and C w for calculating the first term on the right side of Equation (6), and the second and third terms on the right side of Equation (6).
  • a lookup table LUT (j) (j 1,..., D I ) for obtaining the sum with the term and each row vector m x (j) of M x is output to the neural network device 20.
  • M w is referred to as “weight basis matrix”
  • C w is referred to as “weight coefficient matrix”
  • M x is referred to as “input basis matrix”
  • c x is referred to as “input coefficient vector”
  • b x is referred to as “input bias”.
  • FIG. 11 is a diagram illustrating a configuration of the neural network device 20.
  • the neural network device 20 includes an input information acquisition unit 21, a calculation unit 22, an output information output unit 23, and a storage unit 24.
  • the storage unit 24 stores a neural network model, and for each FC layer, an input coefficient vector c x for calculating the first term on the right side of the expression (6) generated and output by the decomposition processing device 10.
  • Weight basis matrix M w weight coefficient matrix C w , sum of second term and third term on right side of equation (6) (b x C w T M w T 1 + b), and each row vector of input basis matrix M x
  • the input information to be processed is input to the input information acquisition unit 21.
  • the calculation unit 22 reads the neural network model from the storage unit 24, inputs the input information acquired by the input information acquisition unit 21 to the input layer, executes calculation processing, and obtains an output layer.
  • FIG. 12 is a diagram illustrating the processing of the calculation unit 22 in the FC layer of the neural network model.
  • the calculation unit 22 uses the output vector of the previous layer as an input vector x, and uses the input vector x as a product of a binary input base matrix M x and a real input coefficient vector c x and an input bias. It is decomposed into b x, obtaining the product of the input vector x and the weight matrix W.
  • the calculation unit 22 uses the input vector x as an input vector x and performs the calculation of Expression (6), whereby the input vector x and the weight matrix W Find the product.
  • the arithmetic unit 22 first obtains a binary input base matrix M x corresponding to the input vector x with reference to the lookup table LUT read from the storage unit 24. Next, the arithmetic unit 22 uses the obtained binary input base matrix M x , the weight coefficient matrix C w , the weight base matrix M w , and the input coefficient vector c x read from the storage unit 24 to obtain an equation ( 6) Calculate the first term (C w T M w T M x c x ) on the right side of 6).
  • the calculation unit 22 calculates the value of the first term on the right side of the equation (6) obtained by the above calculation (C w T Mw T M x c x ) and the right side of the equation (6) read from the storage unit 24. calculating a second term and the sum of the third term of (b x C w T M w T 1 + b) the sum of the (C w T M w T M x c x + b x C w T M w T 1 + b).
  • the computing unit 22 further calculates the output of the layer (the input of the next layer) by inputting the calculation result to an activation function (for example, ReLU).
  • an activation function for example, ReLU
  • the computing unit 22 finally obtains an output layer by performing computation according to the neural network model while performing the above computation in the FC layer.
  • the value of the output layer is output to the output information output unit 23.
  • the output information output unit 23 outputs the required output information based on the value of the output layer obtained by the calculation unit 22. For example, when the neural network model performs classification, the output information output unit 23 outputs, as output information, information on the class with the highest likelihood in the output layer as output information.
  • the FC layer in the neural network it is effective to save memory and increase the speed by using the look-up table LUT for decomposing the decomposed weight matrix W and the input vector.
  • the CONV layer of the intermediate layer can also have a four-dimensional data structure by arranging various filters (three-dimensional), and the above-described speed-up method can be applied.
  • 13 and 14 are diagrams showing the relationship between the input map and the output map of the CONV layer. 13 and 14, the left side is the input map IM, the right side is the output map OM, and the rectangular parallelepiped applied to the input map is the three-dimensional filters F1 and F2.
  • the filter F1 and the filter F2 are different filters, and thus C out number of different filters are prepared.
  • the calculation amount for one output map is (f h f w C in ) ⁇ (HW), and when all the filters are added up, (f h f w C in ) ⁇ (HW) ⁇ C out is obtained . When this form is not applied, the amount of calculation becomes very large.
  • the weight matrix W is generated by arranging the filters as column vectors in the row direction.
  • the CONV layer can also be regarded as the FC layer, and the above-described memory saving and high-speed computation can be performed.
  • Table 1 is a table comparing the amount of calculation necessary for each FC layer in the neural network device 20 of the present embodiment with that of the conventional technique.
  • B is the bit width of a variable (register) that performs a logical operation.
  • D I and D O are on the order of hundreds to thousands, whereas k x is about 2 to 4 and k w is about D O / 8 to D O / 4 as described above. Therefore, in this embodiment, the amount of calculation is reduced as compared with the prior art.
  • Table 2 is a table comparing memory consumption in each FC layer with the prior art in the neural network device 20 of the present embodiment.
  • single-precision real numbers 32 bits are used as real numbers.
  • the memory consumption is reduced as compared with the prior art.
  • the memory consumption in the FC layer can be reduced and the amount of computation can be reduced, so that the number of layers of the neural network is large (deep neural network),
  • This embodiment is particularly effective when the above-described memory-saving and high-speed computation can be applied to a plurality of layers.
  • the above-described decomposition processing device 10 and the neural network device 20 are each realized by a computer having a storage device, a memory, an arithmetic processing device, and the like executing a program.
  • the decomposition processing device 10 and the neural network device 20 have been described as separate devices, but these devices may be configured by the same computer.
  • a lookup table LUT defining ⁇ for optimizing m x (j) for each of a plurality of bins is created and stored in the neural network device 20.
  • a prescribed matrix M x is obtained by a method of obtaining an optimum ⁇ for each element x j by obtaining a bin to which the element x j belongs and referring to a lookup table LUT. It was.
  • the optimal input basis search method is not limited to the above. Below, the modification of the optimal input base search method is demonstrated.
  • the input predecomposition unit 13 calculates ( ⁇ c x + b x ) for all candidates ⁇ of m x (j) .
  • k x 4
  • c x (3.8, 8.6, 1.2, 0.4) T
  • b x 15.2
  • a value obtained by calculating ( ⁇ c x + b x ) is referred to as a prototype p.
  • the input pre-decomposition unit 13 sorts (rearranges) the prototypes p according to the size of the values.
  • FIG. 18 shows the result of sorting by the value of prototype p for the example of FIG. Thus rearranged was shaped 1,2 subscript from the direction the value of the prototype is small in the order of time, subjected ..., and 16, p 1, p 2, denoted ..., and p 16.
  • ⁇ to be assigned to the value x j of each element of the input vector can be defined with the midpoint mp i as a boundary.
  • a binary search method can be used.
  • FIG. 22 is a diagram illustrating a configuration of the neural network device 20 according to the present modification.
  • a binary tree (FIG. 27) described later is configured for each element x j of the input vector x instead of the lookup table LUT.
  • FIG. 27 is a diagram illustrating the binary tree search method described above.
  • the arithmetic unit 22 can finally obtain a solution by comparing only the number of bits (k ⁇ times).
  • the input basis matrix M x is a ternary matrix
  • the weight matrix is a real number matrix.
  • the weight matrix is decomposed. Is unnecessary. In this case, only the input vector may be decomposed into a sum of a product of a binary or ternary basis matrix and a real coefficient vector and a bias.
  • a neural network whose weight matrix is originally binary or ternary is, for example, M. Courbariaux, Y. Bengio, and JP David. BinaryConnect: Training deep neural networks with binary weights during propagations. In NIPS, 3105-3113, 2015. and F. Li Liand B B Liu. Ternary weight network, Technical Report ArXiv: 1605.04711, 2016.
  • FIG. 28 is a block diagram showing a configuration of a vehicle control system including the neural network device 20.
  • the vehicle control system 100 includes a neural network device 20, an in-vehicle sensor 30, and a vehicle control device 40.
  • the in-vehicle sensor 30 acquires input information input to the input device of the neural network device by performing sensing.
  • the in-vehicle sensor 30 may be, for example, a monocular camera, a stereo camera, a microphone, or a millimeter wave radar. These detected values may be input as they are to the neural network device 20 as input information, or input information may be generated by performing information processing on these detected values and input to the neural network device 20.
  • the neural network device 20 may detect a specific type of object (for example, a person, a vehicle, etc.) and surround it with a rectangular frame, or determine which class belongs to each pixel (semantic segmentation). Or other recognition processing may be performed.
  • a specific type of object for example, a person, a vehicle, etc.
  • surround it with a rectangular frame, or determine which class belongs to each pixel (semantic segmentation). Or other recognition processing may be performed.
  • the vehicle control device 40 controls the vehicle based on the output (recognition result) of the neural network device.
  • the vehicle control may be automatic driving of the vehicle, driving assistance of the vehicle (for example, forced braking at the time of collision danger, lane keeping, etc.), or provision of information to the driver of the vehicle (for example, Presentation of recognition results, notification of risk judgment results based on recognition results, and the like).

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Neurology (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)
  • Complex Calculations (AREA)
  • Feedback Control In General (AREA)

Abstract

ニューラルネットワーク装置(20)は、ニューラルネットワークモデルを記憶する記憶部(24)と、入力情報を前記ニューラルネットワークの入力層に入力して出力層を出力する演算部(22)とを備える。ニューラルネットワークモデルのFC層の重み行列(W)は、整数の重み基底行列(M)と実数の重み係数行列(C)との積で構成されている。演算部(22)は、FC層において、前層の出力ベクトルを入力ベクトル(x)として、この入力ベクトルxを二値の入力基底行列(M)と実数の入力係数ベクトル(c)との積と入力バイアス(b)に分解して、入力ベクトル(x)と重み行列Wとの積を求める。

Description

ニューラルネットワーク装置、車両制御システム、分解処理装置、及びプログラム 関連する出願
 本出願では、2016年7月21日に日本国に出願された特許出願番号2016-143705の利益を主張し、当該出願の内容は引用することによりここに組み込まれているものとする。
 本技術は、入力情報をニューラルネットワークモデルの入力層に入力して出力層から出力情報を得るニューラルネットワーク装置及びプログラム、ニューラルネットワーク装置を備えた車両制御システム、及びこのニューラルネットワークを構成するための分解処理装置に関する。
 ニューラルネットワークを利用して入力情報を処理することで、入力情報をクラス分けしたり、入力情報から所定の情報を検出したりすることができる。図16は、4次元の入力ベクトルを3クラスに分ける(3つのクラスのいずれに属するかを識別する)ニューラルネットワークの例を示す図である。図16に示すように、識別すべき4次元の入力ベクトル(入力マップともいう。)が入力層aとして入力されると、この入力情報は、中間層a~aを経て、3次元の出力層aとして出力される。
 入力層aと中間層aとの間には、重み行列(フィルタともいう。)Wとバイアスベクトルbが定義されており、中間層aは、下式(1)によって求められる。
Figure JPOXMLDOC01-appb-M000001
 ここで、f(・)は、活性化関数であり、例えば以下の関数(ReLU)が用いられる。
Figure JPOXMLDOC01-appb-M000002
 以下同様にして、中間層a、aが、下式(2)、(3)によって求められ、出力層aは、下式(4)によって求められる。
Figure JPOXMLDOC01-appb-M000003
 このように、ニューラルネットワークの各層では、下記のように、前層からの入力ベクトルをx(D次元)とし、重み行列W(D行D列)とし、及びバイアスb(D次元)とすると、次層への出力ベクトル(活性化関数を適用する前)y(D次元)が下式(5)で表現される。
Figure JPOXMLDOC01-appb-M000004
 上記のようなニューラルネットワークでは、層数を多くする(深層にする)と、情報処理の精度が向上することが知られている。しかしながら、層数を多くすると、処理コストも大きくなる。具体的には、式(5)の演算において必要なメモリ容量が大きくなり、処理時間も長くなる。
 例えば、全結合層(Fully Connected Layer、以下「FC層」ともいう。)においては、重み行列Wが単精度実数(32ビット)の場合には、32Dビットのメモリを消費することになる。また、各層ではD回の単精度実数の積和演算が必要であり、特にこの計算に処理時間を要することになる。なお、FC層は、通常はニューラルネットワークの最後に配置されるが、畳み込み層(Convolutional Layer、以下「CONV層」ともいう。)においても入力マップをスライディングウィンドウにより適切に切り出し、並べ替えることで、CONV層をFC層とみなすことができる。
 本技術は、上記の問題点に鑑みてなされたものであり、ニューラルネットワーク装置においてメモリ消費量及び演算量を小さくすることを目的とする。
 一態様のニューラルネットワーク装置は、ニューラルネットワークモデルを記憶する記憶部(24)と、入力情報を前記ニューラルネットワークモデルの入力層に入力して出力層を出力する演算部(22)とを備え、前記ニューラルネットワークモデルの少なくとも1つの層の重み行列(W)が整数の行列である重み基底行列(M)と実数の行列である重み係数行列(C)との積(M)で構成されている。
 一態様のニューラルネットワーク装置は、ニューラルネットワークモデルを用いて認識を行うニューラルネットワーク装置であって、前記ニューラルネットワークモデルの少なくとも1つの層の演算として論理演算を行う構成を有している。
 一態様のニューラルネットワーク装置は、ニューラルネットワークモデルを用いて認識を行うニューラルネットワーク装置であって、前記ニューラルネットワークモデルの少なくとも1つの層の演算に用いる二値又は三値の行列を記憶している構成を有している。
 一態様の車両制御システムは、上記のニューラルネットワーク装置(20)と、前記入力情報を取得する車載センサ(30)と、前記出力に基づいて車両を制御する車両制御装置(40)とを備えた構成を有している。
 一態様の分解処理装置は、ニューラルネットワークモデルを取得する取得部(11)と、前記ニューラルネットワークモデルの少なくとも1つの層の重み行列を整数の行列である重み基底行列(M)と実数の行列である重み係数行列(C)との積(M)に分解する重み分解部(12)と、前記重み基底行列(M)と前記重み係数行列(C)を出力する出力部(14)とを備えた構成を有している。
 一態様のプログラムは、コンピュータを、入力情報をニューラルネットワークモデルの入力層に入力して出力層から出力情報を得るニューラルネットワーク装置として機能させるプログラムであって、前記コンピュータの記憶部(24)には、前記ニューラルネットワークモデルの少なくとも1つの全結合層の重み行列(W)を分解して得られた整数の重み基底行列(M)及び実数の重み係数行列(C)と、入力ベクトル(x)を整数の入力基底行列(M)と実数の入力係数ベクトル(c)との積と入力バイアス(b)との和に分解するための、学習によって得られた前記入力係数ベクトル(c)及び前記入力バイアス(b)のうちの前記入力係数ベクトル(c)と、前記学習によって得られた前記入力係数ベクトル(c)及び前記入力バイアス(b)に基づいて得られた、前記入力ベクトルの各要素の値(x)と、それに対する入力基底行列の値(m (j))との関係を規定したルックアップテーブル(LUT)とが記憶され、前記プログラムは、前記コンピュータを、前記ニューラルネットワークモデルの少なくとも1つの全結合層において、前層の出力ベクトルを入力ベクトル(x)として、前記記憶部(24)から読み出した前記重み基底行列(M)、前記実数の重み係数行列(C)、及び前記入力係数ベクトル(c)と、前記記憶部(24)から読み出した前記ルックアップテーブル(LUT)を参照して得られた前記入力ベクトル(x)に対応する前記入力基底行列(M)とを用いて、前記入力ベクトル(x)と前記重み行列(W)との積を求める演算部として機能させる。
 一態様のプログラムは、コンピュータを、入力情報をニューラルネットワークモデルの入力層に入力して出力層から出力情報を得るニューラルネットワーク装置として機能させるプログラムであって、前記コンピュータの記憶部(24)には、前記ニューラルネットワークモデルの少なくとも1つの全結合層の重み行列(W)を分解して得られた整数の重み基底行列(M)及び実数の重み係数行列(C)と、入力ベクトル(x)を整数の入力基底行列(M)と実数の入力係数ベクトル(c)との積と入力バイアス(b)との和に分解するための、学習によって得られた前記入力係数ベクトル(c)及び前記入力バイアス(b)のうちの前記入力係数ベクトル(c)と、前記学習によって得られた前記入力係数ベクトル(c)及び前記入力バイアス(b)に基づいて得られた、前記入力ベクトルの各要素(x)についての、前記入力ベクトルの各要素(x)に対応する前記入力基底行列の行のすべての組み合わせ(β)と、それによって得られる前記入力ベクトルの各要素(x)の近似値の候補(p)を大きさ順に並べたときの中点(mp)とが記憶され、前記プログラムは、前記コンピュータを、前記ニューラルネットワークモデルの少なくとも1つの全結合層において、前層の出力ベクトルを入力ベクトル(x)として、前記記憶部(24)から読み出した前記重み基底行列(M)、前記実数の重み係数行列(C)、及び前記入力係数ベクトル(c)と、前記入力基底行列の行のすべての組み合わせ(β)と前記中点(mp)とを用いて、前記入力ベクトルと前記重み行列との積を求める演算部(22)として機能させる。
 一態様のニューラルネットワーク装置は、ニューラルネットワークモデルを記憶する記憶部(24)と、入力情報を前記ニューラルネットワークモデルの入力層に入力して出力層を出力する演算部(22)とを備え、前記演算部(22)は、前記ニューラルネットワークモデルの少なくとも1つの層において、前層の出力ベクトルを入力ベクトル(x)として、前記入力ベクトル(x)を整数の行列である入力基底行列(M)と実数のベクトルである入力係数ベクトル(c)との積(M)と入力バイアス(b)との和に分解して(x=M+b1)、分解された前記入力ベクトル(M+b1)と重み行列(W)との積を求める構成を有している(Wx=W(M+b1))。
 以下に説明するように、本技術には他の態様が存在する。したがって、この技術の開示は、本技術の一部の提供を意図しており、ここで記述され請求されている発明の範囲を制限することは意図していない。
図1は、実施の形態の整数分解された入力ベクトルと重み行列との積の計算を説明する図である。 図2は、実施の形態の分解処理装置の構成を示す図である。 図3は、実施の形態の重み行列を基底行列と係数行列に分解する処理を説明する図である。 図4は、実施の形態の分割手法において実施されるアルゴリズムのフロー図である。 図5は、実施の形態の重み行列を基底行列と係数行列に分解する処理の変形例を説明する図である。 図6は、実施の形態の入力ベクトルを基底行列と係数ベクトルとの積とバイアスとに分解する処理の変形例を説明する図である。 図7は、実施の形態の入力ベクトルの基底行列の全探索による更新を説明する図である。 図8は、実施の形態の入力ベクトルの基底行列の最適化を説明する図である。 図9は、実施の形態の入力ベクトルの基底行列の最適化を説明する図である。 図10は、実施の形態の入力ベクトルの基底行列の最適化を説明する図である。 図11は、実施の形態のニューラルネットワーク装置の構成を示す図である。 図12は、実施の形態のニューラルネットワークモデルのFC層における演算部の処理を説明する図である。 図13は、実施の形態のCONV層の入力マップと出力マップとの関係を示す図である。 図14は、実施の形態のCONV層の入力マップと出力マップとの関係を示す図である。 図15は、実施の形態のCONV層の重み行列の分解を示す図である。 図16は、4次元の入力ベクトルを3クラスに識別するニューラルネットワークの例を示す図である。 図17は、実施の形態の変形例における入力ベクトルの基底行列の最適化を説明する図である。 図18は、実施の形態の変形例における入力ベクトルの基底行列の最適化を説明する図である。 図19は、実施の形態の変形例におけるプロトタイプ及び中点をプロットした数直線を示す図である。 図20は、実施の形態の変形例におけるプロトタイプ及び中点をプロットした数直線を示す図である。 図21は、実施の形態の変形例におけるβのアサインを説明する図である。 図22は、実施の形態の変形例におけるニューラルネットワーク装置の構成を示す図である。 図23は、実施の形態の変形例における二分木探索を説明する図である。 図24は、実施の形態の変形例における二分木探索を説明する図である。 図25は、実施の形態の変形例における二分木探索を説明する図である。 図26は、実施の形態の変形例における二分木探索を説明する図である。 図27は、実施の形態の変形例における二分木を説明する図である。 図28は、実施の形態における車両制御システムの構成を示す図である。
 以下、図面を参照して実施の形態を説明する。なお、以下に説明する実施の形態は、本技術を実施する場合の一例を示すものであって、本技術を以下に説明する具体的構成に限定するものではない。本技術の実施にあたっては、実施の形態に応じた具体的構成が適宜採用されてよい。
 一態様のニューラルネットワーク装置は、ニューラルネットワークモデルを記憶する記憶部(24)と、入力情報を前記ニューラルネットワークモデルの入力層に入力して出力層を出力する演算部(22)とを備え、前記ニューラルネットワークモデルの少なくとも1つの層の重み行列(W)が整数の行列である重み基底行列(M)と実数の行列である重み係数行列(C)との積(M)で構成されている。
 この構成により、ニューラルネットワークにおける全結合層の重み行列(W)が整数の重み基底行列(M)と実数の重み係数行列(C)との積(M)で構成されるので、当該層の演算において、メモリの消費量を小さくくできる。
 上記のニューラルネットワーク装置において、前記演算部(22)は、前記少なくとも1つの層において、前層の出力ベクトルを入力ベクトル(x)として、前記入力ベクトル(x)を整数の行列である入力基底行列(M)と実数のベクトルである入力係数ベクトル(c)との積(M)と入力バイアス(b)との和に分解して(x=M+b1)、前記入力ベクトル(x)と前記重み行列(W)との積を求めてよい(Wx=(M(M+b1))。
 この構成により、入力ベクトル(x)と前記重み行列(W)との積を求める演算において、入力基底行列(M)と重み基底行列(M)との積演算を整数行列どうしの積演算とできるので、メモリの消費量を小さくし、演算量を小さくできる。
 上記のニューラルネットワーク装置において、前記重み基底行列(M)は二値行列であってよく、前記入力基底行列(M)は二値行列であってよく、前記演算部(22)は、前記重み基底行列(M)と前記入力基底行列(M)との積演算(M)を論理演算とビットカウントで行ってよい。
 この構成により、入力ベクトル(x)と前記重み行列(W)との積を求める演算における入力基底行列(M)と重み基底行列(M)との積演算を二値行列どうしの積演算とすることができ、論理演算とビットカウントで実行できるので、入力ベクトル(x)と前記重み行列(W)との積を求める演算を高速化できる。
 上記のニューラルネットワーク装置において、前記重み基底行列(M)は三値行列であってよく、前記入力基底行列(M)は二値行列であってよく、前記演算部(22)は、前記重み基底行列(M)と前記入力基底行列(M)との積演算(M)を論理演算とビットカウントで行ってよい。
 この構成により、入力ベクトル(x)と前記重み行列(W)との積を求める演算における入力基底行列(M)と重み基底行列(M)との積演算を二値行列と三値行列との積演算とすることができ、論理演算とビットカウントで実行できるので、入力ベクトル(x)と前記重み行列(W)との積を求める演算を高速化できる。
 上記のニューラルネットワーク装置において、前記演算部(22)は、前記入力ベクトル(x)に対して、前記入力基底行列(M)を最適化することで、前記入力ベクトル(x)を分解してよい。
 この構成により、全結合層に対する入力ベクトル(x)が得られるたびに入力係数ベクトル(c)と入力バイアス(b)を求める必要はなく、全結合層の演算量を小さくできる。
 上記のニューラルネットワーク装置において、前記演算部(22)は、前記入力ベクトル(x)の各要素(x)について、前記入力ベクトルの各要素に対応する前記入力基底行列の行のすべての組み合わせ(β)と前記学習された前記入力係数ベクトル(c)との積と学習された前記入力バイアス(b)との和(βc+b)の中から最も近い候補を選ぶことで前記入力基底行列(M)を最適化してよい。
 この構成により、一次元の最近傍探索によって入力基底行列(M)を最適化できる。
 上記のニューラルネットワーク装置において、前記記憶部(24)は、前記入力ベクトルの各要素(x)の値と、それに対する前記最も近い候補における入力基底行列の値(m (j))との関係を規定したルックアップテーブル(LUT)を記憶していてよく、前記演算部(22)は、前記ルックアップテーブル(LUT)を参照することで、前記入力ベクトル(x)に対して前記入力基底行列(M)を最適化してよい。
 この構成により、入力ベクトル(x)に対する入力基底行列(M)の最適化を高速化できる。
 上記のニューラルネットワーク装置において、前記記憶部(24)は、前記入力ベクトルの各要素(x)について、前記入力ベクトルの各要素(x)に対応する前記入力基底行列の行(β)のすべての組み合わせと、それによって得られる前記入力ベクトルの各要素の近似値の候補(p)を大きさ順に並べたときの中点(mp)を記憶していてよく、前記演算部(22)は、前記入力ベクトルの各要素(x)について、前記中点(mp)を用いた二分木探索法によって前記入力ベクトルの各要素(x)に対応する前記入力基底行列の行(m (j))を決定することで前記入力基底行列(M)を最適化してよい。
 この構成により、入力ベクトル(x)に対する入力基底行列(M)の最適化を高速化できるとともに、演算部(22)の演算に必要なメモリの容量を小さくできる。
 上記のニューラルネットワーク装置において、前記ニューラルネットワークモデルは、畳込みニューラルネットワークモデルであってよく、畳込みニューラルネットワークモデルは、畳込み層の複数のフィルタをまとめることで前記重み行列(W)とし、前記畳込み層を全結合層とみなして、当該重み行列(W)を整数の重み基底行列(M)と実数の重み係数行列(C)との積で構成していてよく、前記演算部(22)は、全結合層とみなされた前記畳込み層で、分解された前記入力ベクトル(x)と分解された前記重み行列(W)との積を求めてよい。
 この構成により、畳込みニューラルネットワークモデルの畳込み層の演算において、メモリ消費量を小さくし、演算量を小さくできる。
 一態様のニューラルネットワーク装置は、ニューラルネットワークモデルを用いて認識を行うニューラルネットワーク装置であって、前記ニューラルネットワークモデルの少なくとも1つの層の演算として論理演算を行う構成を有している。
 この構成により、論理演算によって高速にニューラルネットワークモデルの演算を行うことができる。
 一態様のニューラルネットワーク装置は、ニューラルネットワークモデルを用いて認識を行うニューラルネットワーク装置であって、前記ニューラルネットワークモデルの少なくとも1つの層の演算に用いる二値又は三値の行列を記憶している構成を有している。
 この構成により、二値又は三値の行列によって高速にニューラルネットワークモデルの演算を行うことができる。
 一態様の車両制御システムは、上記のニューラルネットワーク装置(20)と、前記入力情報を取得する車載センサ(30)と、前記出力に基づいて車両を制御する車両制御装置(40)とを備えた構成を有している。
 この構成により、ニューラルネットワークモデルによる認識に基づいて車両を制御できる。
 一態様の分解処理装置は、ニューラルネットワークモデルを取得する取得部(11)と、前記ニューラルネットワークモデルの少なくとも1つの層の重み行列を整数の行列である重み基底行列(M)と実数の行列である重み係数行列(C)との積(M)に分解する重み分解部(12)と、前記重み基底行列(M)と前記重み係数行列(C)を出力する出力部(14)とを備えた構成を有している。
 この構成により、上記のニューラルネットワーク装置を構成するための重み基底行列(M)と重み係数行列(C)を得ることができる。
 上記の分解処理装置は、入力ベクトル(x)を整数の行列である入力基底行列(M)と実数のベクトルである入力係数ベクトル(c)との積と入力バイアス(b)との和に分解する(x=M+b1)ための前記入力係数ベクトル(c)と前記入力バイアス(b)を学習する入力事前分解部(13)をさらに備えていてよく、前記出力部(14)は、前記学習により得られた前記入力係数ベクトル(c)を出力してよい。
 この構成により、入力ベクトル(x)を分解するための係数ベクトル(c)と入力バイアス(b)を学習により事前に取得しておくことができる。
 上記の分解処理装置において、前記入力事前分解部(13)は、前記入力ベクトル(x)に対して前記入力基底行列(M)を最適化するためのルックアップテーブル(LUT)を生成してよく、前記出力部(14)は、前記ルックアップテーブル(LUT)を出力してよい。
 この構成により、入力ベクトル(x)を高速に分解するためのルックアップテーブル(LUT)を事前に取得しておくことができる。
 一態様のプログラムは、コンピュータを、入力情報をニューラルネットワークモデルの入力層に入力して出力層から出力情報を得るニューラルネットワーク装置として機能させるプログラムであって、前記コンピュータの記憶部(24)には、前記ニューラルネットワークモデルの少なくとも1つの全結合層の重み行列(W)を分解して得られた整数の重み基底行列(M)及び実数の重み係数行列(C)と、入力ベクトル(x)を整数の入力基底行列(M)と実数の入力係数ベクトル(c)との積と入力バイアス(b)との和に分解するための、学習によって得られた前記入力係数ベクトル(c)及び前記入力バイアス(b)のうちの前記入力係数ベクトル(c)と、前記学習によって得られた前記入力係数ベクトル(c)及び前記入力バイアス(b)に基づいて得られた、前記入力ベクトルの各要素の値(x)と、それに対する入力基底行列の値(m (j))との関係を規定したルックアップテーブル(LUT)とが記憶され、前記プログラムは、前記コンピュータを、前記ニューラルネットワークモデルの少なくとも1つの全結合層において、前層の出力ベクトルを入力ベクトル(x)として、前記記憶部(24)から読み出した前記重み基底行列(M)、前記実数の重み係数行列(C)、及び前記入力係数ベクトル(c)と、前記記憶部(24)から読み出した前記ルックアップテーブル(LUT)を参照して得られた前記入力ベクトル(x)に対応する前記入力基底行列(M)とを用いて、前記入力ベクトル(x)と前記重み行列(W)との積を求める演算部として機能させる。
 この構成により、ニューラルネットワークにおける全結合層の重み行列(W)が整数の重み基底行列(M)と実数の重み係数行列(C)との積(M)で構成され、入力ベクトル(x)と前記重み行列(W)との積を求める演算において、入力基底行列(M)と重み基底行列(M)との積演算を整数行列どうしの積演算とできるので、メモリの消費量を小さくし、演算量を小さくでき、ルックアップテーブルを参照して入力ベクトル(x)に対する入力基底行列(M)の最適化するので、入力ベクトル(x)と前記重み行列(W)との積を求める演算を高速化できる。
 一態様のプログラムは、コンピュータを、入力情報をニューラルネットワークモデルの入力層に入力して出力層から出力情報を得るニューラルネットワーク装置として機能させるプログラムであって、前記コンピュータの記憶部(24)には、前記ニューラルネットワークモデルの少なくとも1つの全結合層の重み行列(W)を分解して得られた整数の重み基底行列(M)及び実数の重み係数行列(C)と、入力ベクトル(x)を整数の入力基底行列(M)と実数の入力係数ベクトル(c)との積と入力バイアス(b)との和に分解するための、学習によって得られた前記入力係数ベクトル(c)及び前記入力バイアス(b)のうちの前記入力係数ベクトル(c)と、前記学習によって得られた前記入力係数ベクトル(c)及び前記入力バイアス(b)に基づいて得られた、前記入力ベクトルの各要素(x)についての、前記入力ベクトルの各要素(x)に対応する前記入力基底行列の行のすべての組み合わせ(β)と、それによって得られる前記入力ベクトルの各要素(x)の近似値の候補(p)を大きさ順に並べたときの中点(mp)とが記憶され、前記プログラムは、前記コンピュータを、前記ニューラルネットワークモデルの少なくとも1つの全結合層において、前層の出力ベクトルを入力ベクトル(x)として、前記記憶部(24)から読み出した前記重み基底行列(M)、前記実数の重み係数行列(C)、及び前記入力係数ベクトル(c)と、前記入力基底行列の行のすべての組み合わせ(β)と前記中点(mp)とを用いて、前記入力ベクトルと前記重み行列との積を求める演算部(22)として機能させる。
 この構成により、入力ベクトル(x)に対する入力基底行列(M)の最適化を高速化できるとともに、演算部(22)の演算に必要なメモリの容量を小さくできる。
 一態様のニューラルネットワーク装置は、ニューラルネットワークモデルを記憶する記憶部(24)と、入力情報を前記ニューラルネットワークモデルの入力層に入力して出力層を出力する演算部(22)とを備え、前記演算部(22)は、前記ニューラルネットワークモデルの少なくとも1つの層において、前層の出力ベクトルを入力ベクトル(x)として、前記入力ベクトル(x)を整数の行列である入力基底行列(M)と実数のベクトルである入力係数ベクトル(c)との積(M)と入力バイアス(b)との和に分解して(x=M+b1)、分解された前記入力ベクトル(M+b1)と前記重み行列(W)との積を求める構成を有している(Wx=W(M+b1))。
 重み行列(W)が二値又は三値の要素で構成されている場合には、この構成により、入力ベクトル(x)と重み行列(W)との積を求める演算において、入力基底行列(M)と重み行列(W)との積演算を整数行列と二値又は三値の行列との積演算とできるので、演算量を小さくできる。
 以下、図面を参照して実施の形態を説明する。本実施の形態では、省メモリ・高速化されたニューラルネットワークモデルを構成するための分解処理装置10と、ニューラルネットワークモデルを利用して入力情報から出力情報を得るニューラルネットワーク装置20を説明するが、まず、本実施の形態における基本的な考え方について説明する。上記のように、ニューラルネットワークのFC層では、重み行列(フィルタ)Wと入力ベクトル(入力マップ)xとの積Wxを計算する工程が含まれる。この重み行列Wを整数の基底行列と実数の係数行列とに分解(整数分解)し、入力ベクトルxを整数の基底行列と実数の係数ベクトルに分解(整数分解)することで、メモリ消費量を削減できるとともに、演算量を少なくして処理時間を短縮できる。
 図1は、本実施の形態の整数分解された積Wxの計算を説明する図である。なお、図1ではバイアスbは省略している。また、基底数kは、重み行列Wの大きさに応じて決定されるが、およそ重み行列Wの1/8~1/4程度(数十~数百程度)であり、基底数kは、例えば2~4程度とすることができる。これをバイアスbを含めて式で表現すると、下式(6)のように表現される。
Figure JPOXMLDOC01-appb-M000005
 重み行列Wを分解して得られた基底行列M は二値又は三値の行列であり、入力ベクトルxを分解して得られた基底行列Mは二値の行列である。なお、基底行列Mは、後述の例のように三値の行列であってもよい。式(6)の右辺第1項のM は、二値又は三値の行列と二値又は三値の行列との積であり、これは、論理演算(AND、XOR)とビットカウントで計算可能である。また、右辺第2項と第3項との和は、後述するように事前に計算可能である。よって、図1及び式(6)の分解によって、大半の演算を論理演算に帰着可能である。
 図2は、本実施の形態の深層ニューラルネットワークを構成するための分解処理装置の構成を示す図である。図2に示すように、分解処理装置10は、データ取得部11と、重み分解部12と、入力事前分解部13と、分解結果出力部14とを備えている。データ取得部11は、本実施の形態のニューラルネットワークモデルの構成情報(各層の重み(フィルタ)W、バイアスbを含む)、及び学習用の入力ベクトルを取得する。
 重み分解部12は、重み行列Wを実数の係数行列Cと二値又は三値の基底行列Mとの積に分解する。入力事前分解部13は、入力ベクトルxを二値又は三値の基底行列Mと実数の係数ベクトルcとの積とバイアスbとの和に分解するための係数ベクトルcとの積とバイアスbを学習によって求め、入力ベクトルxから基底行列Mを求めるためのルックアップテーブルLUTを生成する。分解結果出力部14は、重み分解部12で得られた係数行列Cと二値又は三値の基底行列Mとの積及び入力事前分解部13で得られたルックアップテーブルLUTを用いて、ニューラルネットワークモデルを再構成して、後述するニューラルネットワーク装置20に出力する。以下、各機能について詳細に説明する。
(重み行列の分解)
 重み分解部12は、重み行列Wを実数の係数行列Cと整数の基底行列Mとの積に分解する。図3は、重み行列Wを基底数kの基底行列Mと係数行列Cに分解する処理を説明する図である。本実施の形態では、重み分解部12は、重み行列Wを二値又は三値の基底行列Mと実数の係数行列Cに分解する。以下、本実施の形態の重み分解部12において、二値又は三値の基底行列Mと実数の係数行列Cに分解する手法として、第1ないし第4の手法を説明する。
(第1の分解手法)
 第1の分解手法として、データ非依存型の分解手法を説明する。第1の分解手法では、重み分解部12は、分解誤差を表す下式のコスト関数gを解くことで分解を行う。
Figure JPOXMLDOC01-appb-M000006
 ここで、基底行列Mは二値行列であり、M∈{-1,1}D0×kwである。
 具体的には、重み分解部12は、以下の手順で上記のコスト関数gを解く。
(1)基底行列M及び係数行列Cをランダムに初期化する。
(2)基底行列Mの要素を固定して、係数行列Cの要素を最小二乗法により最適化することで、コスト関数gが最小になるように係数行列Cの要素を更新する。
(3)係数行列Cの要素を固定して、コスト関数gが最小になるように全探索で基底行列Mの要素を更新する。
(4)収束するまで(2)及び(3)を繰り返す。例えば、コスト関数gが所定の収束条件(例えば、減少量が一定値以下となる)を満たしたときに、収束したと判定する。
(5)ステップ(1)~ステップ(4)により得た解を候補として保持する。
(6)ステップ(1)~ステップ(5)を繰り返し、最もコスト関数gを小さくできた候補基底行列M及び候補係数行列Cを最終結果として採用する。なお、このステップ(1)~ステップ(5)の繰り返しはなくてもよいが、複数回繰り返すことで、初期値依存の問題を回避できる。
 次に、ステップ(3)における基底行列Mの更新処理を説明する。基底行列Mのj行目の行ベクトルの要素は、重み行列Wのj行目の要素のみに依存する。よって、基底行列Mの各行ベクトルの値は、他の行とは独立して最適化することができるので、基底行列Mは、行ごとに網羅探索(全探索)を行うことができる。基底行列Mのj行目の行ベクトルは、本実施の形態のように二値分解の場合は2kw通りしか存在しない(なお、三値分解の場合にも3kw通りしか存在しない)。よって、これらをすべて網羅的にチェックし、コスト関数gを最小化する行ベクトルを採用する。これを基底行列Mのすべての行ベクトルに対して適用して、基底行列Mの要素を更新する。
(第2の分解手法)
 第2の分解手法として、係数行列Cを疎にするデータ非依存型の分解手法を説明する。第2の分解手法では、重み分解部12は、分解誤差である下式のコスト関数gを解くことで分解を行う。
Figure JPOXMLDOC01-appb-M000007
 ここで、基底行列Mは二値行列であり、M∈{-1,1}D0×kである。また、|Cは、係数行列Cの要素のL1ノルムであり、λはその係数である。
 重み分解部12は、以下の手順で上記のコスト関数gを解く。
(1)基底行列M及び係数行列Cをランダムに初期化する。
(2)基底行列Mの要素を固定して、係数行列Cの要素を近接勾配法で最適化する。
(3)係数行列Cの要素を固定して、コスト関数gが最小になるように全探索で基底行列Mの要素を更新する。
(4)収束するまで(2)及び(3)を繰り返す。例えば、コスト関数gが所定の収束条件(例えば、減少量が一定値以下となる)を満たしたときに、収束したと判定する。
(5)ステップ(1)~ステップ(4)により得た解を候補として保持する。
(6)ステップ(1)~ステップ(5)を繰り返し、最もコスト関数gを小さくできた候補基底行列M及び候補係数行列Cを最終結果として採用する。なお、このステップ(1)~ステップ(5)の繰り返しはなくてもよいが、複数回繰り返すことで、初期値依存の問題を回避できる。
 第2の分解手法によれば、係数行列Cを疎にすることができる。係数行列Cを疎にすることで、式(6)の積C の計算において、係数行列Cのゼロ要素にかかわる部分を省略することができ、さらに高速に内積計算を行うことができる。
(第3の分解手法)
 次に、第3の分解手法を説明する。第1の分解手法では、コスト関数gとして、分解誤差
Figure JPOXMLDOC01-appb-M000008
を定義し、この分解誤差を最小化することを考えた。しかしながら、重み行列Wを基底行列Mと係数行列Cとの積に近似した後に実際に近似をしたいのは、入力ベクトルxと重み行列Wの積Wxである。
 そこで、第3の分解手法では、サンプル入力ベクトルxをあらかじめS個集め、これをまとめたものをX∈RD0×Sとする。そして、分解誤差を
Figure JPOXMLDOC01-appb-M000009
と定義して、これを最小化する。即ち、第3の分解手法では、重み分解部12は、下式のコスト関数gを解くことで分解を行う。
Figure JPOXMLDOC01-appb-M000010
 このコスト関数gによれば、重み行列Wは、実際のデータの分布に従って分解されることになるため、分解の際の近似精度が向上する。
 この近似分解は、基底行列Mを構成する基底ベクトルm (j)を逐次的に求めることで行うことができる。第3の分解手法の手順は以下のとおりである。
(1)第1又は第2の分解手法によって、基底行列M及び係数行列Cを求めて、これをそれらの初期値とする。
(2)基底行列Mの要素を固定して、係数行列Cの要素を最小二乗法で最適化する。
(3)係数行列Cの要素を固定して、基底行列Mの要素を最適化することで、基底行列Mの要素を更新する。この基底行列Mの更新処理については後述する。
(4)収束するまで(2)及び(3)を繰り返し、コスト関数gを最小化した基底行列M及び係数行列Cを候補として保持する。
(5)ステップ(1)~(6)を繰り返し、コスト関数gを最小化した基底行列M及び係数行列Cを最終結果として採用する。なお、ステップ(1)では再度第1又は第2の分解手法による基底行列M及び係数行列Cの最適化が行われるので、初期値が変更される。また、ステップ(5)の繰り返しはなくてもよいが、複数回繰り返すことで、初期値依存の問題を軽減できる。
 次に、ステップ(3)における基底行列Mの更新処理を説明する。データ依存分解の場合、基底行列Mの行ベクトルの値は、もはや他の行と独立せず、依存してしまう。基底行列Mの要素は、二値又は三値、即ち離散値であるため、基底行列Mの最適化は、組合最適化問題となる。よって、基底行列Mの最適化には、例えば、グリーディアルゴリズム(Greedy algorithm)、タブ-サーチ(Tabu search)、シミュレイテッドアニーリング(Simulated annealing)等のアルゴリズムを用いることができる。ステップ(1)でよい初期値が得られているので、これらのアルゴリズムでも良好に分解誤差を最小化できる。
 例えばグリーディアルゴリズムを用いる場合は、以下の手順で基底行列Mを最適化する。
(3-1)基底行列Mの要素のうち、ランダムにT個を選択する。
(3-2)2通りの組み合わせ(後述の三値分解の場合は3通り)を試し、最もコスト関数gを最小化したものを採用する。
(3-3)ステップ(3-1)及びステップ(3-2)を収束するまで繰り返す。
(第4の分解手法)
 第4の分解手法は、第2の分解手法と第3の分解手法とを組み合わせたものである。具体的には、下式のコスト関数gを解くことで分解を行う。
Figure JPOXMLDOC01-appb-M000011
 このコスト関数gによれば、重み行列Wは、実際のデータの分布に従って分解されることになるため、分解の際の近似精度が向上するとともに、係数行列Cを疎にすることができる。即ち、第2の分解手法のメリットと第3の分解手法のメリットをいずれも得ることができる。具体的な分解の手順は、第3の分解手法と同様である。
 第2の実施の形態の分解では、重み行列Wをまとめて一括して分解していたので、基底数kが大きくなると分解が困難になる。そこで、本実施の形態では、以下のアルゴリズムで実数行列を逐次的に分解してもよい。
 図4は、本実施の形態の分割手法において実施されるアルゴリズムのフロー図である。なお、以下の説明において、上記の第1~第4の分解手法で重み行列Wをk個の基底を持つ基底行列Mと係数行列Cとに分解する手順を下式のように表記することとする。
Figure JPOXMLDOC01-appb-M000012
 まず、重み分解部12は、分解すべき重み行列Wを取得する(ステップS41)。次に、重み分解部12は、インデクスj(j=1~N)を1とし、残差行列Rに重み行列Wを代入する(ステップS42)。残差行列Rは、逐次的な分解によってそれまでに分解された基底行列M (j)と係数行列C (j)との内積の和と重み行列Wとの差である。
 次に、重み分解部12は、残差行列Rを第1又は第2の実施の形態の手法によって、基底行列Mと係数行列Cに分解する(ステップS43)。このとき、基底数はkwjとする。なお、基底数k (j)=k (1)、k (2)、・・・、k (N)は、あらかじめ重み分解部12に記憶されている。M (j) (j)が得られると、重み分解部12は、もとの残差行列RとM (j) (j)との差分を新たな残差行列Rとし(ステップS44)、インデクスjをインクリメントし(ステップS45)、インデクスjがNより大きいか、即ち、N段階の逐次的な分解が終了したかを判断する(ステップS46)。
 インデクスjがN以下である場合には(ステップS46にてNO)、重み分解部12は、ステップS43に戻って、ステップS44で得られた新たな残差行列Rに対して、ステップS45でインクリメントされた新たなjで再度分解を行う。以上の処理を繰り返して、インデクスjがNより大きくなったら(ステップS46でYES)、処理を終了する。なお、上記のように、N段の基底数k (j)=k (1)、k (2)、・・・、k (N)は、あらかじめ用意されており、それらは同じ数であっても互いに異なる数であってもよい。また、基底数kは例えば8程度であればよい。
 本実施の形態によれば、分解の基底数kを増やせば増やすほど、もとの精度に近づけることができる。
 図5は、重み行列Wを基底数kの基底行列Mと係数行列Cに分解する処理の変形例を説明する図である。この変形例では、図5に示すように、重み行列Wのj列目のベクトルを個別に分解して、それらをまとめる。このようにベクトルごとに分解することで、分解にかかる計算コストを抑えることができる。個々のベクトルは、上記の第1~第4の分解手法によって分解すればよい。
 ここで、重み行列Wのj列目の列ベクトルをw(j)と表記し、係数行列Cのj列目の列ベクトルをc (j)と表記する。本実施の形態では、複数の実数ベクトルw(j)を並べてなる重み行列Wを、複数の基底行列M (i)と、複数の係数ベクトルc (j)を図5に示すように斜めに並べてなる行列との積の和に分解したものとみなせる。なお、図5において行列のハッチング部分には0が入る。
(入力ベクトルの分解)
 次に、入力ベクトルxの分解について説明する。図6は、入力ベクトルxを基底数kの基底行列Mと係数ベクトルcとの積とバイアスbとに分解する処理の変形例を説明する図である。入力ベクトルxは、図6及び下式(12)に示すように分解される。
Figure JPOXMLDOC01-appb-M000013
 なお、バイアス項b1を考慮しているのは、ReLUの影響によって、入力ベクトル(マップ)は、非負で、かつバイアスが大きくなるからである。このバイアス項はなくてもよいが、要否は前層の出力に依存することになる。
 入力ベクトルxは、入力情報又は各層において得られるベクトルであるので、本来は、事前に分解をしておくことはできず、後述するニューラルネットワーク装置20における実行時に分解をしなければならないものである。しかしながら、以下に説明するように、c及びbは学習によって事前に決定しておくことができるので、入力事前分解部13は、c及びbを学習によって事前に決定する。これにより、各層において入力ベクトルxが得られたときに、それに応じてMのみを最適化することで入力ベクトルを分解することができ、処理を高速化できる。本実施の形態では、この入力ベクトルxに応じたMの最適化も、後述するルックアップテーブルを用いることで高速化する。入力事前分解部13は、このルックアップテーブルを学習によって事前に決定する処理も行う。以下、順に説明する。
 まず、入力ベクトルxが得られたときにこれを分解する手法を説明する。この分解では、分解誤差を表す下式のコスト関数Jを解くことで分解を行う。
Figure JPOXMLDOC01-appb-M000014
 具体的には、以下の手順で上記のコスト関数Jを解くことができる。
(1)基底行列Mをランダムに初期化する。
(2)基底行列Mを固定して、係数ベクトルcの要素及びバイアスbを最小二乗法により最適化することで、コスト関数Jが最小になるように、係数ベクトルcの要素及び係数bを更新する。
(3)係数ベクトルcの要素及びバイアスbを固定して、コスト関数Jが最小になるように全探索で基底行列Mの要素を更新する。
(4)収束するまで(2)及び(3)を繰り返す。例えば、コスト関数Jが所定の収束条件(例えば、減少量が一定値以下となる)を満たしたときに、収束したと判定する。
 以下では、基底行列Mが三値行列である場合を例に説明する。ステップ(3)の全探索において、Mのj行目をm (j)と記載すると、各行は独立に下式(14)及び図7の要領で全探索により更新できる。
Figure JPOXMLDOC01-appb-M000015
 各層において、入力ベクトルxが得られたら上記のコスト関数Jを解くことでこの入力ベクトルを基底行列Mと係数ベクトルcに分解できる。しかしながら、実行時にこの分解を各層において行っていたのでは、多大な処理時間を有することになり、例えば車載カメラでの歩行者検知等には実用できない。そこで、本発明者は、以下の点に注目した。
 まず、式(14)において、c及びbはxの値域を決めているとみることができる。また、Mは、c及びbで定められる値域の中で、どの値に相当するかを指示しているとみることができる。ここで、xの値域はどの要素も似たようなものであるため、学習時には分解処理装置10で予めc及びbのみを決めておき、後述するニューラルネットワーク装置20での実行時にはMだけを最適化することができる。このようにすることで、実行時の分解を高速化できる。もちろん、c、b、Mの3つをいずれも実行時に最適化する方がよいが、実際には上記のようにMだけを最適化しても、十分に実用的である。
 Mだけを最適化すればよいのであれば、結局のところは、実行時には式(14)のみを計算すればよいことになる。ここで、式(14)は、3kx通り(Mが二値行列の場合は2kx通り)の(βc+b)の中から最も近い候補を選ぶ一次元の最近傍探索とみることができる。例えば、k=2,c=(1.3,0.4)、b=2.4の場合は、3kx通りの(βc+b)は、図8に示すようになる。図9は、図8の各(βc+b)を数直線上に並べた図である。いま、図9に示すように、入力ベクトルxのある列xが2.1であるとすると、図9から明らかなように最も近い候補は、m (j)=(0,-1)であり、これが最適値となる。
 図10は、図9の数直線を等間隔に分割して複数のビンを設定した状態を示す図である。入力事前分解部13は、図9の数直線を等間隔に分割して設定された複数のビンごとに最適値となるβを規定したルックアップテーブルLUTを作成する。ニューラルネットワーク装置20では、入力ベクトルxが得られたときに、それが属するビンを求めてルックアップテーブルLUTを参照することで、非常に高速にm (j)を求めることができる。
 分解結果出力部14は、重み分解部12で重み行列Wを分解して得られたM及びC、及び入力事前分解部13で得られた係数ベクトルc及びバイアスbを用いて、式(6)の右辺の第2項及び第3項の和を計算する。上述のように、c、b、M、及びCは、いずれも重み分解部12又は入力事前分解部13にて得られているので、式(6)の右辺の第2項及び第3項の和を計算することが可能である。
 分解結果出力部14は、各FC層について、式(6)の右辺の第1項を計算するためのc、M、及びC、式(6)の右辺の第2項と第3項との和、及びMの各行ベクトルm (j)を求めるためのルックアップテーブルLUT(j)(j=1,・・・,D)をニューラルネットワーク装置20に出力する。
 なお、以下では、Mを「重み基底行列」といい、Cを「重み係数行列」といい、Mを「入力基底行列」といい、cを「入力係数ベクトル」といい、bを「入力バイアス」という。
 図11は、ニューラルネットワーク装置20の構成を示す図である。ニューラルネットワーク装置20は、入力情報取得部21と、演算部22と、出力情報出力部23と、記憶部24とを備えている。記憶部24は、ニューラルネットワークモデルが記憶されており、各FC層について、分解処理装置10で生成され出力された式(6)の右辺の第1項を計算するための入力係数ベクトルc、重み基底行列M、及び重み係数行列C、式(6)の右辺の第2項と第3項の和(b 1+b)、並びに入力基底行列Mの各行ベクトルm (j)を求めるためのルックアップテーブルLUT(j)(j=1,・・・,D)を分解処理装置10から取得して記憶している。
 入力情報取得部21には、処理対象となる入力情報が入力される。演算部22は、記憶部24からニューラルネットワークモデルを読み出して、入力情報取得部21にて取得された入力情報を入力層に入力して演算処理を実行し、出力層を得る。
 図12は、ニューラルネットワークモデルのFC層における演算部22の処理を説明する図である。演算部22は、少なくとも1つのFC層において、前層の出力ベクトルを入力ベクトルxとして、この入力ベクトルxを二値の入力基底行列Mと実数の入力係数ベクトルcとの積と入力バイアスbに分解して、入力ベクトルxと重み行列Wとの積を求める。具体的には、FC層において、演算部22は、前層の出力が得られると、これを入力ベクトルxとして、式(6)の演算を行うことで、入力ベクトルxと重み行列Wとの積を求める。
 図12に示すように、演算部22は、まず、記憶部24から読み出したルックアップテーブルLUTを参照して入力ベクトルxに対応する二値の入力基底行列Mを求める。次に、演算部22は、得られた二値の入力基底行列Mと、記憶部24から読み出した重み係数行列C、重み基底行列M、及び入力係数ベクトルcを用いて式(6)の右辺の第1項(C )を計算する。
 演算部22は、上記の計算(C )によって得られた式(6)の右辺の第1項の値と、記憶部24から読み出した式(6)の右辺の第2項と第3項の和(b 1+b)との和(C +b 1+b)を計算する。演算部22は、さらに、その計算結果を活性化関数(例えば、ReLU)に入力することで、当該層の出力(次の層の入力)を算出する。
 演算部22は、上記のような演算をFC層で実行しつつニューラルネットワークモデルに従って演算を行うことで、最後に出力層を得る。出力層の値は出力情報出力部23に出力される。出力情報出力部23は、演算部22で得られた出力層の値に基づいて、求められている出力情報を出力する。例えば、ニューラルネットワークモデルがクラス分けを行うものである場合には、出力情報出力部23は、出力情報として出力層における最も尤度の大きいクラスの情報を出力情報として出力する。
 これまで述べたように、ニューラルネットワークにおけるFC層において、上記の分解された重み行列W及び入力ベクトルの分解のためのルックアップテーブルLUTによる省メモリ化及び高速化が有効である。ただし、中間層のCONV層についても、各種のフィルタ(3次元)を並べることで4次元のデータ構造とすることができ、上記の高速化の手法を適用できる。
 図13及び図14は、CONV層の入力マップと出力マップとの関係を示す図である。図13及び図14において、左側が入力マップIMであり、右側が出力マップOMであり、入力マップに適用されている直方体が3次元のフィルタF1、F2である。フィルタF1とフィルタF2とは、異なるフィルタであって、このように互いに異なるフィルタがCout個用意されている。出力マップ1枚分の演算量は、(fin)×(HW)となり、すべてのフィルタについて合算すると、(fin)×(HW)×Coutとなり、本実施の形態を適用しない場合には演算量が非常に多くなる。
 このような場合でも、図15に示すように、各フィルタを列ベクトルとしてそれらを行方向に並べて重み行列Wを生成する。これにより、CONV層もFC層とみなすことができ、上記の省メモリ・高速な演算が可能となる。
 表1は、本実施の形態のニューラルネットワーク装置20において各FC層で必要な演算量を従来技術と比較した表である。
Figure JPOXMLDOC01-appb-T000016
 表1においてBは、論理演算を実施する変数(レジスタ)のビット幅である。D,Dが数百~数千のオーダであるのに対して、上述のように、kは2~4程度であり、kはD/8~D/4程度であるので、本実施の形態では従来技術と比較して演算量は減少している。
 表2は、本実施の形態のニューラルネットワーク装置20において各FC層におけるメモリの消費量を従来技術と比較した表である。
Figure JPOXMLDOC01-appb-T000017
 表2では、実数として単精度実数(32ビット)を用いている。表2から明らかなように、本実施の形態では、従来技術と比較してメモリの消費量が減少している。
 本実施の形態の分割処理装置10及びニューラルネットワーク装置20によれば、FC層におけるメモリの消費量を小さくでき、かつ演算量を小さくできるので、ニューラルネットワークの層数が多く(深層ニューラルネットワーク)、上記の省メモリ・高速な演算を複数の層で適用できる場合に、本実施の形態が特に有効である。
 なお、上記の分解処理装置10及びニューラルネットワーク装置20は、それぞれ、記憶装置、メモリ、演算処理装置等を備えたコンピュータがプログラムを実行することで実現される。上記の実施の形態では、分解処理装置10とニューラルネットワーク装置20とを別々の装置として説明したが、これらの装置が同一のコンピュータによって構成されていてもよい。
 また、上述のように、予めc及びbのみを決めておき、ニューラルネットワーク装置20での実行時にはMだけを最適化することで、実行時の入力ベクトルの分解を高速化できる。上記の実施の形態では、最適入力基底探索手法として、複数のビンごとにm (j)を最適化するβを規定したルックアップテーブルLUTを作成してニューラルネットワーク装置20に記憶しておき、ニューラルネットワーク装置20で入力ベクトルxが得られたときに、各要素xについて、それが属するビンを求めてルックアップテーブルLUTを参照して最適なβを求めるという手法で規定行列Mを求めた。
 最適入力基底探索手法は、上記に限られない。以下では、最適入力基底探索手法の変形例を説明する。以下の説明では、基底行列Mが二値行列である場合を例に説明する。まず、入力事前分解部13は、m (j)のすべての候補βについて(βc+b)を計算する。例えば、k=4、c=(3.8,8.6,1.2,0.4)、b=15.2の場合は、2kx通り(本例では、k=4なので、2kx=2=16通り)のβについて得られる(βc+b)は図17に示すようになる。以下、各βについて、(βc+b)の計算によって得られた値をプロトタイプpという。
 次に、入力事前分解部13は、プロトタイプpをその値の大きさでソート(並び替え)する。図18は、図17の例について、プロトタイプpの値でソートした結果を示している。このように並び替えたときのプロトタイプの値が小さい方から順に添え字1,2,・・・,16を付して、p,p,・・・,p16と表記する。また、各プロトタイプp(i=1~16)に対応するβをβ(i=1~16)と表記する。
 入力事前分解部13は、次に、ソートされたプロトタイプpについて、隣り合うプロトタイプ間の中点mp(i=1~15)を求める。図19は、図18の各(βc+b)を数直線上に並べるとともに、それらの中点mp(i=1~15)を示した図である。なお、mp=(p+pi+1)/2である。
 入力ベクトルの各要素の値xに対してアサインすべきβは、図20に示すように、中点mpを境界にして定義できる。例えば、図21に示すように、x=5.8に対しては、β(-1,-1,1,1)を割り当てることができる。この割り当てをニューラルネットワーク装置20の演算部22で行う場合には、二分探索法を用いることができる。
 図22は、本変形例のニューラルネットワーク装置20の構成を示す図である。本変形例では、上記の実施の形態のニューラルネットワーク装置20と比較すると、ルックアップテーブルLUTの代わりに、入力ベクトルxの各要素xについて、後述する二分木(図27)を構成するための情報β(i=1,・・・,2kx)及びmp(i=1,・・・,2kx-1)を記憶している。
 演算部22は、まず、図23に示すように、隣接するプロトタイプの中点mpのうち、中央の中点(本例の場合にはmp)とxとを比較する。本例(x=5.8)の場合には、x<mpであるため、解はβ,・・・,βのいずれかであることが分かる。演算部22は、次に、図24に示すように、残った候補β,・・・,βを2つに分ける中点mp(本例の場合にはmp)とxとを比較する。本例(x=5.8)の場合には、x<mpであるため、解はβ,・・・,βのいずれかであることが分かる。
 演算部22は、次に、図25に示すように、残った候補β,・・・,βを2つに分ける中点mp(本例の場合にはmp)とxとを比較する。本例(x=5.8)の場合には、x>mpであるため、解はβ又はβであることが分かる。演算部22は、最後に、図26に示すように、残った候補β,βを2つに分ける中点mp(本例の場合にはmp)とxとを比較する。本例(x=5.8)の場合には、x>mpであるため、解はβ4であることが分かる。
 以上のようにして、演算部22は、4回の比較演算によって解を求めることができる。図27は、上記の二分木探索法を示す図である。一般的には、演算部22は、ビット数分(k回)だけの比較をすれば最終的に解を得ることができる。演算部22は、すべてのβ(i=1,・・・,2kx)と中点mp(i=1,・・・,2kx-1)をメモリ上に保持しておけばよい。入力基底行列Mが三値行列であるときは、すべてのβ(i=1,・・・,3kx)と中点mp(i=1,・・・,3kx-1)をメモリ上に保持しておけばよい。
 このように、本変形例によれば、k回の比較演算をするだけで、高速に最適なβを求めることができるとともに、メモリの消費量も小さくできる。
 なお、上記の実施の形態及びその変形例では、重み行列が実数行列である場合を説明したが、重み行列がもともと二値又は三値の要素で構成されている場合には、重み行列の分解は不要である。この場合には、入力ベクトルのみを二値又は三値の基底行列と実数の係数ベクトルとの積とバイアスとの和に分解すればよい。このように、重み行列がもともと二値又は三値であるニューラルネットワークは、例えば、M. Courbariaux, Y. Bengio, and J.P. David. BinaryConnect: Training deep neural networks with binary weights during propagations. In NIPS, pp. 3105-3113, 2015.やF. Li and B. Liu. Ternary weight networks. Technical Report arXiv:1605.04711, 2016.に紹介されている。
 入力ベクトルを基底行列と実数ベクトルに分解することで、演算量を少なくして演算を高速化できる。
 上記の実施の形態及びその変形例のニューラルネットワーク装置20は、画像認識、音声認識、自然言語処理等のあらゆる分野で応用が可能であり、例えば、車載センサの検出値を入力情報として、車両の周辺の物体を認識する装置として応用可能である。図28は、ニューラルネットワーク装置20を含む車両制御システムの構成を示すブロック図である。車両制御システム100は、ニューラルネットワーク装置20と、車載センサ30と、車両制御装置40とを備えている。
 車載センサ30は、センシングを行うことでニューラルネットワーク装置の入力装置に入力される入力情報を取得する。車載センサ30は、例えば、単眼カメラ、ステレオカメラ、マイク、ミリ波レーダであってよい。これらの検出値はそのまま入力情報としてニューラルネットワーク装置20に入力してもよいし、これらの検出値に対して情報処理を行って入力情報を生成してニューラルネットワーク装置20に入力してもよい。
 ニューラルネットワーク装置20は、特定種類の物体(例えば、人物、車両等)を検出して矩形枠で囲うものであってよいし、画素ごとにどのクラスに属しているかを判断するもの(セマンティックセグメンテーション)であってもよいし、他の認識処理を行うものであってもよい。
 また、車両制御装置40は、ニューラルネットワーク装置の出力(認識結果)に基づいて、車両の制御を行う。車両制御は、車両の自動運転であってもよいし、車両の運転アシスト(例えば、衝突危険時の強制制動、レーンキーピング等)であってもよいし、車両のドライバへの情報提供(例えば、認識結果の提示、認識結果に基づく危険判断の結果の報知等)であってもよい。

 

Claims (19)

  1.  ニューラルネットワークモデルを記憶する記憶部と、
     入力情報を前記ニューラルネットワークモデルの入力層に入力して出力層を出力する演算部と、
     を備え、
     前記ニューラルネットワークモデルの少なくとも1つの層の重み行列が整数の行列である重み基底行列と実数の行列である重み係数行列との積で構成されているニューラルネットワーク装置。
  2.  前記演算部は、前記少なくとも1つの層において、前層の出力ベクトルを入力ベクトルとして、前記入力ベクトルを整数の行列である入力基底行列と実数のベクトルである入力係数ベクトルとの積と入力バイアスとの和に分解して、前記入力ベクトルと前記重み行列との積を求める請求項1に記載のニューラルネットワーク装置。
  3.  前記重み基底行列は二値行列であり、前記入力基底行列は二値行列であり、
     前記演算部は、前記重み基底行列と前記入力基底行列との積演算を論理演算とビットカウントで行う請求項2に記載のニューラルネットワーク装置。
  4.  前記重み基底行列は三値行列であり、前記入力基底行列は二値行列であり、
     前記演算部は、前記重み基底行列と前記入力基底行列との積演算を論理演算とビットカウントで行う請求項2に記載のニューラルネットワーク装置。
  5.  前記演算部は、前記入力ベクトルに対して、前記入力基底行列を最適化することで、前記入力ベクトルを分解する請求項3又は4に記載のニューラルネットワーク装置。
  6.  前記演算部は、前記入力ベクトルの各要素について、前記入力ベクトルの各要素に対応する前記入力基底行列の行のすべての組み合わせと学習された前記入力係数ベクトルとの積と学習された前記入力バイアスとの和の中から最も近い候補を選ぶことで前記入力基底行列を最適化する請求項5に記載のニューラルネットワーク装置。
  7.  前記記憶部は、前記入力ベクトルの各要素の値と、それに対する前記最も近い候補における入力基底行列の値との関係を規定したルックアップテーブルを記憶しており、
     前記演算部は、前記ルックアップテーブルを参照することで、前記入力ベクトルに対して前記入力基底行列を最適化する請求項6に記載のニューラルネットワーク装置。
  8.  前記記憶部は、前記入力ベクトルの各要素について、前記入力ベクトルの各要素に対応する前記入力基底行列の行のすべての組み合わせと、それによって得られる前記入力ベクトルの各要素の近似値の候補を大きさ順に並べたときの中点を記憶しており、
     前記演算部は、前記入力ベクトルの各要素について、前記中点を用いた二分木探索法によって前記入力ベクトルの各要素に対応する前記入力基底行列の行を決定することで前記入力基底行列を最適化する請求項6に記載のニューラルネットワーク装置。
  9.  車載カメラで得た画像を前記入力情報として歩行者検知を行う請求項1ないし8のいずれかに記載のニューラルネットワーク装置。
  10.  前記ニューラルネットワークモデルは、畳込みニューラルネットワークモデルであり、
     前記畳込みニューラルネットワークモデルは、畳込み層の複数のフィルタをまとめることで前記重み行列とし、前記畳込み層を全結合層とみなして、当該重み行列を整数の重み基底行列と実数の重み係数行列との積で構成しており、
     前記演算部は、全結合層とみなされた前記畳込み層で、分解された前記入力ベクトルと分解された前記重み行列との積を求める請求項2ないし8のいずれかに記載のニューラルネットワーク装置。
  11.  ニューラルネットワークモデルを用いて認識を行うニューラルネットワーク装置であって、
     前記ニューラルネットワークモデルの少なくとも1つの層の演算として論理演算を行う、ニューラルネットワーク装置。
  12.  ニューラルネットワークモデルを用いて認識を行うニューラルネットワーク装置であって、
     前記ニューラルネットワークモデルの少なくとも1つの層の演算に用いる二値又は三値の行列を記憶している、ニューラルネットワーク装置。
  13.  請求項1ないし12のいずれかに記載のニューラルネットワーク装置と、
     前記入力情報を取得する車載センサと、
     前記出力に基づいて車両を制御する車両制御装置と、
     を備えた、車両制御システム。
  14.  ニューラルネットワークモデルを取得する取得部と、
     前記ニューラルネットワークモデルの少なくとも1つの層の重み行列を整数の行列である重み基底行列と実数の行列である重み係数行列との積に分解する重み分解部と、
     前記重み基底行列と前記重み係数行列を出力する出力部と、
     を備えた分解処理装置。
  15.  入力ベクトルを整数の行列である入力基底行列と実数のベクトルである入力係数ベクトルとの積と入力バイアスとの和に分解するための前記入力係数ベクトルと前記入力バイアスを学習する入力事前分解部をさらに備え、
     前記出力部は、前記学習により得られた前記入力係数ベクトルを出力する請求項14に記載の分解処理装置。
  16.  前記入力事前分解部は、前記入力係数ベクトル及び前記入力バイアスに基づいて、前記入力ベクトルに対して前記入力基底行列を最適化するためのルックアップテーブルを生成し、
     前記出力部は、前記ルックアップテーブルを出力する請求項15に記載の分解処理装置。
  17.  コンピュータを、入力情報をニューラルネットワークモデルの入力層に入力して出力層から出力情報を得るニューラルネットワーク装置として機能させるプログラムであって、
     前記コンピュータの記憶部には、
      前記ニューラルネットワークモデルの少なくとも1つの全結合層の重み行列を分解して得られた整数の重み基底行列及び実数の重み係数行列と、
      入力ベクトルを整数の入力基底行列と実数の入力係数ベクトルとの積と入力バイアスとの和に分解するための、学習によって得られた前記入力係数ベクトル及び前記入力バイアスのうちの前記入力係数ベクトルと、
      前記学習によって得られた前記入力係数ベクトル及び前記入力バイアスに基づいて得られた、前記入力ベクトルの各要素の値と、それに対する入力基底行列の値との関係を規定したルックアップテーブルと、
     が記憶され、
     前記プログラムは、前記コンピュータを、前記ニューラルネットワークモデルの少なくとも1つの全結合層において、前層の出力ベクトルを入力ベクトルとして、前記記憶部から読み出した前記重み基底行列、前記実数の重み係数行列、及び前記入力係数ベクトルと、前記記憶部から読み出した前記ルックアップテーブルを参照して得られた前記入力ベクトルに対応する前記入力基底行列とを用いて、前記入力ベクトルと前記重み行列との積を求める演算部として機能させるプログラム。
  18.  コンピュータを、入力情報をニューラルネットワークモデルの入力層に入力して出力層から出力情報を得るニューラルネットワーク装置として機能させるプログラムであって、
     前記コンピュータの記憶部には、
      前記ニューラルネットワークモデルの少なくとも1つの全結合層の重み行列を分解して得られた整数の重み基底行列及び実数の重み係数行列と、
      入力ベクトルを整数の入力基底行列と実数の入力係数ベクトルとの積と入力バイアスとの和に分解するための、学習によって得られた前記入力係数ベクトル及び前記入力バイアスのうちの前記入力係数ベクトルと、
      前記学習によって得られた前記入力係数ベクトル及び前記入力バイアスに基づいて得られた、前記入力ベクトルの各要素についての、前記入力ベクトルの各要素に対応する前記入力基底行列の行のすべての組み合わせと、それによって得られる前記入力ベクトルの各要素の近似値の候補を大きさ順に並べたときの中点と、
     が記憶され、
     前記プログラムは、前記コンピュータを、前記ニューラルネットワークモデルの少なくとも1つの全結合層において、前層の出力ベクトルを入力ベクトルとして、前記記憶部から読み出した前記重み基底行列、前記実数の重み係数行列、及び前記入力係数ベクトルと、前記入力基底行列の行のすべての組み合わせと前記中点とを用いて、前記入力ベクトルと前記重み行列との積を求める演算部として機能させるプログラム。
  19.  ニューラルネットワークモデルを記憶する記憶部と、
     入力情報を前記ニューラルネットワークモデルの入力層に入力して出力層を出力する演算部と、
     を備え、
     前記演算部は、前記ニューラルネットワークモデルの少なくとも1つの層において、前層の出力ベクトルを入力ベクトルとして、前記入力ベクトルを整数の行列である入力基底行列と実数のベクトルである入力係数ベクトルとの積と入力バイアスとの和に分解して、分解された前記入力ベクトルと重み行列との積を求めるニューラルネットワーク装置。

     
PCT/JP2017/026363 2016-07-21 2017-07-20 ニューラルネットワーク装置、車両制御システム、分解処理装置、及びプログラム WO2018016608A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/318,779 US11657267B2 (en) 2016-07-21 2017-07-20 Neural network apparatus, vehicle control system, decomposition device, and program
CN201780056821.9A CN109716362B (zh) 2016-07-21 2017-07-20 神经网络装置、车辆控制系统、分解处理装置以及程序
JP2018528880A JP6921079B2 (ja) 2016-07-21 2017-07-20 ニューラルネットワーク装置、車両制御システム、分解処理装置、及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016143705 2016-07-21
JP2016-143705 2016-07-21

Publications (1)

Publication Number Publication Date
WO2018016608A1 true WO2018016608A1 (ja) 2018-01-25

Family

ID=60992638

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/026363 WO2018016608A1 (ja) 2016-07-21 2017-07-20 ニューラルネットワーク装置、車両制御システム、分解処理装置、及びプログラム

Country Status (4)

Country Link
US (1) US11657267B2 (ja)
JP (1) JP6921079B2 (ja)
CN (1) CN109716362B (ja)
WO (1) WO2018016608A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019160319A (ja) * 2018-03-09 2019-09-19 キヤノン株式会社 多階層ニューラルネットワークモデルを最適化して適用する方法及び装置、及び記憶媒体
WO2020116194A1 (ja) * 2018-12-07 2020-06-11 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法、プログラム、移動体制御装置、及び、移動体
CN111382847A (zh) * 2018-12-27 2020-07-07 上海寒武纪信息科技有限公司 数据处理装置及相关产品
WO2021009965A1 (ja) * 2019-07-12 2021-01-21 株式会社メガチップス ニューラルネットワーク用プロセッサ、ニューラルネットワーク用処理方法、および、プログラム
JP2021012553A (ja) * 2019-07-08 2021-02-04 株式会社東芝 推論装置、学習装置、推論方法及び学習方法
JP2021149353A (ja) * 2020-03-18 2021-09-27 株式会社デンソー 情報処理装置、データ分解方法、及びデータ分解プログラム
WO2022244216A1 (ja) * 2021-05-20 2022-11-24 日本電信電話株式会社 学習装置、推論装置、学習方法、推論方法、及びプログラム
US11755880B2 (en) 2018-03-09 2023-09-12 Canon Kabushiki Kaisha Method and apparatus for optimizing and applying multilayer neural network model, and storage medium

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200234137A1 (en) * 2017-08-18 2020-07-23 Intel Corporation Efficient neural networks with elaborate matrix structures in machine learning environments
CN110162403B (zh) * 2019-05-28 2021-07-13 首都师范大学 一种基于人工神经网络的硬件资源分配方法及系统
CN110349107B (zh) * 2019-07-10 2023-05-26 北京字节跳动网络技术有限公司 图像增强的方法、装置、电子设备、及存储介质
KR102512932B1 (ko) * 2020-01-31 2023-03-22 한국과학기술원 암 환자의 발현량 데이터로부터 암세포 내재적 특성을 추출하는 방법 및 이를 위한 장치
JP7143546B2 (ja) * 2020-02-17 2022-09-28 三菱電機株式会社 モデル生成装置、車載装置、および、モデル生成方法
KR20210111014A (ko) * 2020-03-02 2021-09-10 삼성전자주식회사 전자 장치 및 그 제어 방법
TWI723823B (zh) * 2020-03-30 2021-04-01 聚晶半導體股份有限公司 基於神經網路的物件偵測裝置和物件偵測方法
CN113554145B (zh) * 2020-04-26 2024-03-29 伊姆西Ip控股有限责任公司 确定神经网络的输出的方法、电子设备和计算机程序产品
CN111681263B (zh) * 2020-05-25 2022-05-03 厦门大学 基于三值量化的多尺度对抗性目标跟踪算法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05101025A (ja) * 1991-10-03 1993-04-23 Hamamatsu Photonics Kk ニユーラルネツトワーク装置及びその実行方法
JP2016042359A (ja) * 2014-08-18 2016-03-31 株式会社デンソーアイティーラボラトリ 認識装置、実数行列分解方法、認識方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69032259T2 (de) * 1989-09-20 1998-08-13 Fujitsu Ltd Paralleldatenverarbeitungsanlage
US8457409B2 (en) * 2008-05-22 2013-06-04 James Ting-Ho Lo Cortex-like learning machine for temporal and hierarchical pattern recognition
JP6055391B2 (ja) * 2012-11-05 2016-12-27 株式会社デンソーアイティーラボラトリ 関連性判定装置、関連性判定プログラム、及び関連性判定方法
US9728184B2 (en) * 2013-06-18 2017-08-08 Microsoft Technology Licensing, Llc Restructuring deep neural network acoustic models
CN105224984B (zh) * 2014-05-31 2018-03-13 华为技术有限公司 一种基于深度神经网络的数据类别识别方法及装置
WO2016039651A1 (en) * 2014-09-09 2016-03-17 Intel Corporation Improved fixed point integer implementations for neural networks
US10534994B1 (en) * 2015-11-11 2020-01-14 Cadence Design Systems, Inc. System and method for hyper-parameter analysis for multi-layer computational structures

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05101025A (ja) * 1991-10-03 1993-04-23 Hamamatsu Photonics Kk ニユーラルネツトワーク装置及びその実行方法
JP2016042359A (ja) * 2014-08-18 2016-03-31 株式会社デンソーアイティーラボラトリ 認識装置、実数行列分解方法、認識方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MOHAMMAD RASTEGARI ET AL., XNOR-NET: IMAGENET CLASSIFICATION USING BINARY CONVOLUTIONAL NEURAL NETWORKS, vol. 3, 9 May 2016 (2016-05-09), Retrieved from the Internet <URL:https://arxiv.org/pdf/1603.05279v3.pdf> [retrieved on 20171011] *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11755880B2 (en) 2018-03-09 2023-09-12 Canon Kabushiki Kaisha Method and apparatus for optimizing and applying multilayer neural network model, and storage medium
JP2019160319A (ja) * 2018-03-09 2019-09-19 キヤノン株式会社 多階層ニューラルネットワークモデルを最適化して適用する方法及び装置、及び記憶媒体
WO2020116194A1 (ja) * 2018-12-07 2020-06-11 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法、プログラム、移動体制御装置、及び、移動体
JP7497298B2 (ja) 2018-12-07 2024-06-10 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法、プログラム、移動体制御装置、及び、移動体
CN111382847A (zh) * 2018-12-27 2020-07-07 上海寒武纪信息科技有限公司 数据处理装置及相关产品
CN111382847B (zh) * 2018-12-27 2022-11-22 上海寒武纪信息科技有限公司 数据处理装置及相关产品
JP2021012553A (ja) * 2019-07-08 2021-02-04 株式会社東芝 推論装置、学習装置、推論方法及び学習方法
JP7114528B2 (ja) 2019-07-08 2022-08-08 株式会社東芝 推論装置、学習装置、推論方法及び学習方法
WO2021009965A1 (ja) * 2019-07-12 2021-01-21 株式会社メガチップス ニューラルネットワーク用プロセッサ、ニューラルネットワーク用処理方法、および、プログラム
JP2021015510A (ja) * 2019-07-12 2021-02-12 株式会社メガチップス ニューラルネットワーク用プロセッサ、ニューラルネットワーク用処理方法、および、プログラム
JP7265946B2 (ja) 2019-07-12 2023-04-27 株式会社メガチップス ニューラルネットワーク用プロセッサ、ニューラルネットワーク用処理方法、および、プログラム
JP2021149353A (ja) * 2020-03-18 2021-09-27 株式会社デンソー 情報処理装置、データ分解方法、及びデータ分解プログラム
JP7384081B2 (ja) 2020-03-18 2023-11-21 株式会社デンソー 情報処理装置、データ分解方法、及びデータ分解プログラム
WO2022244216A1 (ja) * 2021-05-20 2022-11-24 日本電信電話株式会社 学習装置、推論装置、学習方法、推論方法、及びプログラム

Also Published As

Publication number Publication date
US11657267B2 (en) 2023-05-23
JP6921079B2 (ja) 2021-08-18
CN109716362B (zh) 2024-01-09
CN109716362A (zh) 2019-05-03
JPWO2018016608A1 (ja) 2019-05-09
US20190286982A1 (en) 2019-09-19

Similar Documents

Publication Publication Date Title
WO2018016608A1 (ja) ニューラルネットワーク装置、車両制御システム、分解処理装置、及びプログラム
CN107688855B (zh) 针对于复杂神经网络的分层量化方法与装置
EP3295385B1 (en) Fixed point neural network based on floating point neural network quantization
US20190087713A1 (en) Compression of sparse deep convolutional network weights
KR20190050698A (ko) 신경망의 최적화 방법
WO2019209658A1 (en) Learning a truncation rank of singular value decomposed matrices representing weight tensors in neural networks
US11601134B2 (en) Optimized quantization for reduced resolution neural networks
KR20220058897A (ko) 컴퓨트-인-메모리 어레이의 컬럼 임계치들을 조정함으로써 xnor 등가 연산들을 수행
Dong et al. Stochastic quantization for learning accurate low-bit deep neural networks
CN114463540A (zh) 使用神经网络对图像进行分割
Chang et al. Differentiable architecture search with ensemble gumbel-softmax
KR20210039921A (ko) 신경망 모델을 최적화하도록 구성된 심층 신경망 시스템의 동작 방법
EP3882823A1 (en) Method and apparatus with softmax approximation
Wongthanavasu et al. A cellular automata-based learning method for classification
Guo et al. An interpretable neural network model through piecewise linear approximation
Ying et al. Self-optimizing feature generation via categorical hashing representation and hierarchical reinforcement crossing
Hämäläinen et al. Scalable robust clustering method for large and sparse data
Janković Babić A comparison of methods for image classification of cultural heritage using transfer learning for feature extraction
Dyro et al. Second-Order Sensitivity Analysis for Bilevel Optimization
Swaney et al. Efficient skin segmentation via neural networks: HP-ELM and BD-SOM
Pontes-Filho et al. EvoDynamic: a framework for the evolution of generally represented dynamical systems and its application to criticality
Sutter et al. Quantum Legendre-Fenchel transform
Son et al. Graph neural networks with efficient tensor operations in CUDA/GPU and Graphflow deep learning framework in C++ for quantum chemistry
TWI844228B (zh) 訓練神經網路執行機器學習任務
US20240119050A1 (en) Method and system for extending query processing with differentiable operators

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17831124

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018528880

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17831124

Country of ref document: EP

Kind code of ref document: A1