JP2019185548A - 情報処理装置、情報処理方法 - Google Patents

情報処理装置、情報処理方法 Download PDF

Info

Publication number
JP2019185548A
JP2019185548A JP2018077796A JP2018077796A JP2019185548A JP 2019185548 A JP2019185548 A JP 2019185548A JP 2018077796 A JP2018077796 A JP 2018077796A JP 2018077796 A JP2018077796 A JP 2018077796A JP 2019185548 A JP2019185548 A JP 2019185548A
Authority
JP
Japan
Prior art keywords
pixel array
dimensional
dimensional pixel
information processing
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018077796A
Other languages
English (en)
Other versions
JP7104546B2 (ja
JP2019185548A5 (ja
Inventor
敦夫 野本
Atsuo Nomoto
敦夫 野本
上野 晃司
Koji Ueno
晃司 上野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018077796A priority Critical patent/JP7104546B2/ja
Priority to US16/379,882 priority patent/US10909353B2/en
Publication of JP2019185548A publication Critical patent/JP2019185548A/ja
Publication of JP2019185548A5 publication Critical patent/JP2019185548A5/ja
Application granted granted Critical
Publication of JP7104546B2 publication Critical patent/JP7104546B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Abstract

【課題】 入力データに対する畳み込み演算処理を従来よりも高速に実行するための技術を提供すること。【解決手段】 入力データが規定する平面若しくは空間内に、少なくとも1組の隣り合う領域が部分的に重複するように設定される各領域内の要素配列をより低次元の要素配列である低次元要素配列に変換する。それぞれの低次元要素配列における重複部分を共有するように該それぞれの低次元要素配列の一部若しくは全部を連結した連結要素を生成し、該連結要素と重み係数との畳み込み演算に基づいて入力データの特徴量を求める。【選択図】 図2

Description

本発明は、畳み込み演算を用いる情報処理技術に関するものである。
近年、畳み込みニューラルネットワーク(Convolutional NeuralNetwork、CNN)を用いた画像認識技術が注目を集めている。大量の画像を用いてCNNを学習することで高い認識精度を示すことで知られ、様々な分野で利用・応用されている。
学習したCNNを実際に動作させ、なんらかの処理システムとして利用する場合、その実行速度が重要となる。例えば、監視カメラに映った人物を認証するのであれば、リアルタイムで処理することが求められるし、事前に撮り貯めた画像から特定の画像を検索するのであれば、ユーザの利便性を損なわない時間で結果を返すことが求められる。
一般的にCNNの演算は、画像の畳み込み演算が大部分を占めている場合が多く、CNNの演算を高速化するためには、畳み込み演算の高速化が必要不可欠である。近似計算で高速化する手法もあるが、認識精度に影響を及ぼすことがあるため、演算結果が変わらない方式で高速化することが好ましい。
特許文献1には、画像の畳み込み演算において、特定のフィルタの場合に、フィルタを縦方向と横方向とに分離して別々に演算することで、フィルタを適用する際の演算数を減らす方法が開示されている。この手法によれば、適用できるフィルタは限定されるものの、演算数そのものが減るため高速化が期待できる。
特許文献2には、フィルタを適用する画像の部分領域をフィルタと同じ並びに並び変えた変換行列を生成し、フィルタ行列との行列積に帰着させる方法が開示されている。画像の部分領域へのアクセスは不連続なアクセスとなり、演算のネックとなりやすい。この手法は、行列積に帰着させることで、積和を演算する際に、要素へのメモリアクセスが連続となり、高速に演算することができる。
米国特許第8160388号明細書 米国特許第7634137号明細書
しかしながら、これらの方法は、高速化の観点では不十分である。特許文献1に開示されている手法では、分離した縦・横方向の2回の畳み込みをシーケンシャルに実行しなければならないため、通常の2次元畳み込み演算に比べ、画像へのアクセス回数が増加してしまい、結果として、処理速度の低下を招く可能性がある。特許文献2に開示されている手法では、画像の画素値の重複を許して冗長に並び替えるため、トータルのメモリアクセス量が増大し、結果として、処理速度の低下を招く可能性がある。
特に、GPU(Graphic Processing Unit)は、CPU(Central Processing Unit)に比べて演算性能そのものが高い。そのため、GPUを用いて演算する場合はメモリアクセスが処理速度のネックとなる場合が多く、高速化の課題となる。本発明では、入力データに対する畳み込み演算処理を従来よりも高速に実行するための技術を提供する。
本発明の一様態は、入力データが規定する平面若しくは空間内に、少なくとも1組の隣り合う領域が部分的に重複するように設定される各領域内の要素配列をより低次元の要素配列である低次元要素配列に変換する変換手段と、前記変換手段が変換したそれぞれの低次元要素配列における重複部分を共有するように該それぞれの低次元要素配列の一部若しくは全部を連結した連結要素を生成する生成手段と、前記連結要素と重み係数との畳み込み演算に基づいて前記入力データの特徴量を求める計算手段とを備えることを特徴とする。
本発明の構成によれば、入力データに対する畳み込み演算処理を従来よりも高速に実行することができる。
システムの構成例を示すブロック図。 情報処理装置1の機能構成例を示すブロック図。 認証機能に対応するフローチャート。 特徴抽出部103の機能構成例を示すブロック図。 畳み込み処理部111の機能構成例を示すブロック図。 畳み込み演算処理のフローチャート。 変換部123による連結1次元画素配列の生成処理の模式図。 演算部125による畳み込み演算処理を模式的に示した図。 登録機能に対応するフローチャート。 変換部123の動作を説明する図。 変換部123の動作を説明する図。 演算部125による畳み込み演算処理を模式的に示した図。
以下、添付図面を参照し、本発明の実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施形態の1つである。
[第1の実施形態]
先ず、本実施形態に係るシステムの構成例について、図1のブロック図を用いて説明する。図1に示す如く、本実施形態に係るシステムは、情報処理装置1と、カメラ2と、を有し、情報処理装置1とカメラ2とはネットワークを介して互いにデータ通信が可能なように構成されている。ネットワークは無線のネットワークであっても良いし、有線のネットワークであっても良いし、無線のネットワークと有線のネットワークとを組み合わせたネットワークであっても良い。
先ずカメラ2について説明する。カメラ2は、動画像や静止画像を撮像可能なネットワークカメラ(撮像装置)であり、レンズとCCD、CMOSセンサ等の撮像素子とを有するカメラユニットと、上記のネットワークに接続して情報処理装置1とのデータ通信を行うため通信装置と、を有する。なお、カメラ2として通信機能を有する他の種類のカメラを用いてもよい。カメラ2が動画像を撮像した場合、該動画像における各フレームの画像が撮像画像として情報処理装置1に対して出力(送信)される。一方、カメラ2が静止画像を撮像した場合、該静止画像が撮像画像として情報処理装置1に対して出力(送信)される。なお、カメラ2は可視光を撮像する撮像装置であっても良いし、赤外光を撮像する赤外線カメラであっても良い。
次に、情報処理装置1について説明する。情報処理装置1は、PC(パーソナルコンピュータ)、タブレット端末装置、スマートフォンなどのコンピュータ装置である。CPU11は、ROM12やRAM13に格納されているコンピュータプログラムやデータを用いて処理を実行する。これによりCPU11は、情報処理装置1全体の動作制御を行うと共に、情報処理装置1が行うものとして後述する各処理を実行若しくは制御する。
ROM12は不揮発性メモリであり、情報処理装置1の起動プログラムや各種の設定データなどを保持する。RAM13は揮発性メモリであり、二次記憶装置14やROM12からロードされたコンピュータプログラムやデータ、通信装置15を介して外部(例えばカメラ2)から受信したデータ(例えばカメラ2による撮像画像)、を格納するためのエリアを有する。またRAM13は、CPU11が各種の処理を実行する際に用いるワークエリアを有する。このようにRAM13は各種のエリアを適宜提供する。
二次記憶装置14は、ハードディスクドライブ装置に代表される大容量情報記憶装置である。二次記憶装置14には、OS(オペレーティングシステム)や、情報処理装置1が行うものとして後述する各処理をCPU11に実行若しくは制御させるためのコンピュータプログラムやデータが保存されている。二次記憶装置14に保存されているデータには、以下の説明において既知の情報として説明するものが含まれている。二次記憶装置14に保存されているコンピュータプログラムやデータは、CPU11による制御に従って適宜RAM13にロードされ、CPU11による処理対象となる。
通信装置15は、情報処理装置1が外部の装置との間のデータ通信を行うためのものであり、例えば通信装置15は、カメラ2との間のデータ通信を行うことで、カメラ2による撮像画像を受信する。
外部出力装置16は、液晶画面などの表示装置であり、CPU11による処理結果を画像や文字などでもって表示することができる。本実施形態では、外部出力装置16には、カメラ2による撮像画像に対する認証結果を画像や文字などを使用して表示する。なお、外部出力装置16は、音声信号に基づく音声を出力するスピーカであっても良く、この場合、外部出力装置16は、上記の認証結果を音声として出力することができる。また外部出力装置16は、LEDランプであっても良く、この場合、外部出力装置16は、上記の認証結果をLEDランプの点灯や点灯パターンでもってユーザに通知することができる。このように、本実施形態の場合、外部出力装置16は、上記の認証結果をユーザに通知可能な機器であれば、如何なる機器であっても良い。
入力装置17は、キーボードやマウスなどのユーザインターフェースにより構成されており、ユーザが操作することで各種の指示をCPU11に対して入力することができる。なお、入力装置17と表示装置とを一体化させてタッチパネル画面を構成しても良い。
CPU11、ROM12、RAM13、二次記憶装置14、通信装置15、外部出力装置16、入力装置17、は何れもバス18に接続されている。なお、図1に示した情報処理装置1の構成は一例であり、例えば、フラッシュメモリなどの書き換え可能なメモリ装置を情報処理装置1に着脱させるためのインターフェースを有していても良い。
ここで、情報処理装置1は、カメラ2による撮像画像中の被写体が誰であるのかを事前に登録された登録辞書を用いて認証する認証機能と、カメラ2による撮像画像から登録辞書を作成して登録する登録機能と、を有する。認証機能を動作させるのか、登録機能を動作させるのか、については、例えば、ユーザが入力装置17を操作して認証機能、登録機能、の何れを実行するのかを指示し、CPU11が認証機能、登録機能のうち該指示に応じた一方を実行するようにしても良い。
情報処理装置1の機能構成例を図2のブロック図に示す。以下では、図2に示した各機能部を処理の主体として説明する場合があるが、実際には、該機能部に対応する機能をCPU11に実現させるためのコンピュータプログラムをCPU11が実行することで、該機能部に対応する機能が実行される。認証機能に対応するフローチャートを図3に示す。以下では、図3のフローチャートに沿って、図2に示した各機能部の動作について説明する。なお、図3のフローチャートに従った処理を開始する前に情報処理装置1は起動しており、後述する処理を開始できる状態になっているものとする。また、カメラ2も起動しており、監視カメラとして、動画像を撮像している状態にあるものとする。
ステップS1011では、画像取得部101は、通信装置15がカメラ2から受信してRAM13に格納された撮像画像を取得し、該撮像画像をグレイスケールのシングルチャンネル画像に変換する。なお、撮像画像をRAM13に格納する際にグレイスケールのシングルチャンネル画像に変換するようにしても良いし、カメラ2がグレイスケールのシングルチャンネル画像を撮像するようにしても良い。
ステップS1012では、顔検出部102は、画像取得部101が取得した撮像画像から被写体(本実施形態では人物の顔)の領域を検出し、該検出した領域内の画像を顔画像として抽出する。画像から人物の顔を検出する方法については、公知の技術を用いればよい。例えば、以下に示す文献に記載の技術を用いることができる。
P. Viola and M. Jones,“Robust real-time face detection”, pp.747, Eighth International Conference on Computer Vision (ICCV’01) - Volume 2, 2001.
撮像画像から検出した顔の画像上の座標に基づいて、該撮像画像から顔画像を切り出す。このとき、切り出した顔画像に対する顔の位置が一定になるように該顔画像に対して画像正規化を施す。例えば、顔の両目をつなぐ線分の長さが、切り出す顔画像の幅に対して一定となるように拡大・縮小する。この線分が切り出す顔画像に対して水平になるように回転させる等の処理を施す。そして、撮像画像から検出されたそれぞれの顔画像について、以下のステップS1014〜S1018の処理が行われる。
ステップS1014では、特徴抽出部103は、予め作成したCNNを用いて、顔画像から特徴量を抽出する。特徴抽出部103の機能構成例について、図4のブロック図を用いて説明する。
畳み込み処理部111は、顔画像に対して畳み込み演算処理を行う。畳み込み処理部111の機能構成例を図5のブロック図に示す。畳み込み処理部111が顔画像に対して行う畳み込み演算処理について、図6のフローチャートに従って説明する。
ステップS1021では、取得部121は、入力データとしての顔画像を取得する。本実施形態では、顔画像はグレイスケールのシングルチャンネル画像である。ステップS1022では、設定部122は、隣り合うそれぞれの設定領域(部分領域)が部分的に重複するように、顔画像(取得部121が取得した顔画像)上(2次元画像上)に2次元的に設定領域を設定する。本実施形態では設定領域のサイズを3画素×3画素とするが、設定領域のサイズはこのサイズに限らない。設定部122は、例えば、顔画像における各画素位置に設定領域を、該画素位置に該設定領域の左上隅が位置するように設定する。これにより、顔画像上に、隣り合うそれぞれの設定領域が部分的に重複するような複数の設定領域を設定することができる。本実施形態では、設定領域のサイズを3画素×3画素とし、顔画像における各画素位置に設定領域を設定しているため、隣り合う設定領域は重複部分を含むことになる。
ステップS1023では、変換部123は、設定部122が設定したそれぞれの設定領域内の2次元画素配列を1次元画素配列(変換ベクトル)に変換し、該それぞれの設定領域の1次元画素配列に基づいて1つの連結1次元画素配列を生成する。変換部123による連結1次元画素配列の生成処理について、図7の模式図を用いて説明する。なお、図7は、1次元画素配列、連結1次元画素配列がどのようなものかを説明するための図であり、これらを求めるための処理の順番を限定するものではない。つまり、図7に示す処理順でなくても、最終的に同様の変換結果が得られるのであれば、図7示した処理順と異なる処理順を採用しても良いし、別の処理の組み合わせで同様の変換を実現してもよい。
図7(a)に示す如く、変換部123は、顔画像201における左上隅の設定領域202内の2次元画素配列を1次元画素配列203に変換する。例えば、設定領域202内の2次元画素配列の左端の列の要素が上部から順にa1,a2,a3であり、左端から2番目の列の要素が上部から順にa4,a5,a6であり、右端の列の要素が上部から順にa7,a8,a9であるとする。このとき、このような2次元画素配列から生成される1次元画素配列203は、[a1,a2,a3,a4,a5,a6,a7,a8,a9]となる。
次に、変換部123は、図7(b)に示す如く、設定領域202を1画素だけ右側にずらした設定領域204内の2次元画素配列を1次元画素配列205に変換する。上記の通り、隣り合う設定領域202と設定領域204とには重複領域が存在するため、結果として設定領域204に対応する1次元画素配列205には、設定領域202に対応する1次元画素配列203と重複する部分が生じてしまう。そこで変換部123は、1次元画素配列205において1次元画素配列203と重複していない部分290(図7(b)において斜線で示した領域)を1次元画素配列205から取得する。そして変換部123は、該取得した部分290を1次元画素配列203の右側に連結した連結1次元画素配列299を生成する。すなわち、この連結1次元画素配列は、設定領域が重複する領域の要素を共有している。
このように、設定領域202をN(Nは2以上の整数)画素だけ右側にずらした設定領域Aに対応する1次元画素配列において、該設定領域Aと左側に隣り合う設定領域B(設定領域202を(N−1)画素だけ右側にずらした設定領域)に対応する1次元画素配列と重複していない部分を連結対象とし、該連結対象を連結1次元画素配列の右に連結させる。ここで、設定領域Aが顔画像の右端の設定領域であって、設定領域Aの連結対象を連結1次元画素配列に連結すると、図7(c)に示す如く、設定領域202を1画素だけ下側にずらした設定領域207内の2次元画素配列を1次元画素配列208に変換する。ここで、設定領域202と設定領域207とは互いに重複する領域を有しているが、ここでは、後の処理で連結1次元画素配列の要素へのアクセスが連続となるように、重複部分を冗長に持つ。つまり、図7(c)に示す如く、変換部123は、この時点における連結1次元画素配列299の右側に1次元画素配列208を連結する。そして以降は同様に、設定領域207をN画素だけ右側にずらした設定領域Aに対応する1次元画素配列において、設定領域Aと左側に隣り合う設定領域Bに対応する1次元画素配列と重複していない部分を連結対象とし、該連結対象を連結1次元画素配列の右に連結させる。以降同様にして、各設定領域に対応する1次元画素配列の一部若しくは全部を連結した連結1次元画素配列を生成する。このように、本実施形態では、2次元画像において第1方向に並ぶ着目領域列のうち一端の領域に後続する各後続領域の1次元画素配列から、該着目領域列において一端側に該後続領域と隣り合う領域の1次元画素配列と重複しない部分を取得する。そして、該一端の領域に対応する1次元画素配列と、該部分と、を連結した連結1次元画素配列を生成する。
図6に戻って、次に、ステップS1024では、取得部124は、二次記憶装置14に保存されている重み係数行列(重み係数群)をRAM13にロードする。本実施形態では、9行(設定領域内の画素数=3×3)3列(出力のチャンネル数)のサイズを有し且つ各要素が重み係数である重み係数行列を二次記憶装置14からRAM13にロードする。
ステップS1025では、演算部125は、連結1次元画素配列と重み係数行列とを用いて畳み込み演算処理を行う。ここで、連結1次元画素配列をI、重み係数行列をF、出力ベクトルをDとすると、演算部125は、以下の(式1)に従った演算処理を行うことになる。
D(i,n)=ΣF(j,n)I(i−j)
ここでΣは、F(j,n)I(i−j)を全てのjについて加算することを示す。また、iは出力ベクトルのインデックス、nは出力ベクトル及び重み係数のチャンネル、jは重み係数のインデックスである。演算部125による畳み込み演算処理を模式的に示した図が図8である。
図8に示す如く、重み係数行列301は、行成分がフィルタサイズ(すなわち3×3)、列成分が出力チャンネルnにそれぞれ対応している。重み係数行列301における各要素(重み係数)は事前にこの並びに並び替えておくとよい。そして1枚の顔画像について生成した連結1次元画素配列890において参照範囲をずらしながら各参照範囲に対する重み係数行列との行列積を求めて合計することで、連結1次元画素配列890と重み係数行列301との畳み込み演算処理を実現する。連結1次元画素配列890において参照範囲303は、顔画像201の左上隅の設定領域の1次元画素配列に対応しており、参照範囲304は、顔画像201の左上隅の設定領域を1画素だけ右側にずらした設定領域の1次元画素配列に対応している。このように参照範囲をずらしながら該参照範囲と重み係数行列との積和を計算するのが上記の(式1)である。これはすなわち、参照範囲をずらしながら、ベクトル行列積を繰り返していることになる。このように、事前に変換部123で上記の如く各設定領域の要素が連続となるように並べ替えておくことで(連結1次元画素配列を生成しておくことで)、畳み込み演算時にメモリへの連続したアクセスとなり、高速化が期待できる。なお、畳み込み演算処理の後、各要素に活性化関数等を適用してもよい。
図4に戻って、次に、プーリング処理部112は、畳み込み処理部111による畳み込み演算処理の結果に対してプーリング処理を行う。この処理はいわゆるプーリング(サブサンプリング)レイヤーの処理であり、既存の手法を用いればよい。例えば、以下の文献に記載の方法を用いることができる。
P. Sermanet, S. Chintala, and Y. LeCun. Convolutional neural networks applied to house numbers digit classification. In International Conference on Pattern Recognition (ICPR 2012), 2012.
畳み込み処理部113は、畳み込み処理部111と同様の構成(図5)を有しており、プーリング処理部112による結果に対して畳み込み処理部111と同様の処理を行う。畳み込み処理部113が行う畳み込み演算処理は、入力データのサイズや重み係数が異なるだけで畳み込み処理部111と同様であるから、畳み込み処理部113に係る説明は省略する。プーリング処理部114は、畳み込み処理部113による畳み込み演算処理の結果に対して、プーリング処理部112と同様のプーリング処理を行う。
全結合処理部115は、いわゆる全結合(Fullconnect)レイヤー処理を行う。具体的には全結合処理部115は、入力ベクトル(プーリング処理部114によるプーリング処理の結果)に対して重み係数行列を掛け合わせるベクトル行列積の演算を行い、該演算の結果(ベクトル)を顔画像の特徴量として出力する。
図3に戻って、次に、ステップS1015では、類似度算出部105は、二次記憶装置14に保存されている登録辞書をRAM13にロードする。ここで、登録辞書について説明する。登録辞書には、特徴抽出部103が顔画像から求めた特徴量と、該特徴量に対応する人物の識別情報(例えば、人物に対応する番号や名前)と、のセットが複数セット登録されている。後述する登録機能では、ユーザは、特徴抽出部103が顔画像から求めた特徴量に対応する人物の識別情報を、入力装置17を用いて入力するので、取得部108は、該入力された識別情報を取得する。そして辞書登録部104は、特徴抽出部103が顔画像から求めた特徴量と、該特徴量について取得部108が取得した識別情報と、をセットにして登録辞書に登録する。なお、登録辞書には、複数の人物のそれぞれに対応するセットが含まれていても良いし、一人の人物に対する複数セットが含まれていても良い。
ステップS1016では、類似度算出部105は、ステップS1015にてRAM13に取得した登録辞書に含まれているそれぞれの特徴量と、ステップS1014において特徴抽出部103が顔画像から求めた特徴量と、の類似度を求める。特徴量同士の類似度を求めるための方法には様々な方法があり、如何なる方法を採用しても良い。例えば、以下に示す(式2)を用いて特徴量同士のコサイン類似度Sを求めても良い。
S=cosθ=x・y/|x||y| (式2)
ここで、「x・y」は特徴ベクトル(特徴量)xと特徴ベクトル(特徴量)yとの内積演算を表し、|x|、|y|はそれぞれ、特徴ベクトルx、特徴ベクトルyの大きさを表し、Sは特徴ベクトルxと特徴ベクトルyとの間の類似度を表す。
ステップS1017では、決定部106は、類似度算出部105が求めた類似度から、ステップS1014で特徴抽出部103が求めた特徴量に対応する人物が、登録辞書に特徴量が登録されている人物のうちどの人物か(どの人物ではないのか)を判断する。例えば決定部106は、類似度算出部105が登録辞書に登録されているそれぞれの特徴量に対して求めた類似度のうち最大の類似度を特定する。そして決定部106は、該特定した最大の類似度が閾値以上であれば、該最大の類似度を求めた特徴量とセットになって登録辞書に登録されている識別情報を該登録辞書から取得する。例えば、決定部106は、ステップS1014で求めた特徴量と、登録辞書に登録されている特徴量Aと、の類似度が上記の最大の類似度に該当する場合、ステップS1014で求めた特徴量は特徴量Aに対応する人物の特徴量であると判断する。然るにこの場合、決定部106は、ステップS1014で求めた特徴量に対応する人物の識別情報として、特徴量Aとセットになっている識別情報を登録辞書から読み出す。
一方、決定部106は、該特定した最大の類似度が閾値未満であれば、ステップS1014で特徴抽出部103が求めた特徴量は、登録辞書に特徴量が登録されている人物の誰でもないと判断する。
なお、登録辞書における同一人物の複数の特徴量に対して類似度を求めた場合には、そのうち最大の類似度を該人物に対応する類似度とする。このようにしてステップS1017では、顔画像に対する認証結果を求める。
ステップS1018では、表示部107は、決定部106による認証結果を外部出力装置16に表示させる。例えば、表示部107は、決定部106が登録辞書から識別情報を取得した場合には、該識別情報と関連づけて二次記憶装置14に保存されている人物情報を読み出して外部出力装置16に表示させても良い。識別情報と関連づけて二次記憶装置14に保存されている人物情報は、例えば、該識別情報に対応する人物の画像や該人物に係るテキスト情報(名前、年齢、性別など)がある。なお、人物情報と共に、上記の最大の類似度を表示するようにしても良い。また表示部107は、決定部106が「ステップS1014で特徴抽出部103が求めた特徴量は、登録辞書に特徴量が登録されている人物の誰でもない」と判断した場合には、その旨を示す画像や文字列を外部出力装置16に表示させる。
なお、認証結果を音声で通知する場合には、表示部107は、認証結果に応じた音声を外部出力装置16から出力させ、認証結果をLEDランプの点灯やそのパターンで通知する場合には、認証結果に応じてLEDランプの点灯やそのパターンを制御する。
撮像画像から検出された全ての顔画像についてステップS1014〜S1018の処理を行った場合には、処理はステップS1019に進む。ステップS1019では、CPU11は、ユーザが入力装置17を操作して処理の終了指示を入力したか否かを判断する。この判断の結果、ユーザが入力装置17を操作して処理の終了指示を入力した場合には、図3のフローチャートに従った処理は完了する。一方、ユーザが入力装置17を操作して処理の終了指示を入力していない場合には、処理はステップS1011に戻る。
なお、以上の説明では、ステップS1011で取得した全ての撮像画像について認証処理を行ったが、一部の撮像画像について認証処理を行うようにしても良い。例えば、数フレームおきの撮像画像に対して認証処理を行うようにしても良いし、撮像画像から抽出した特徴量をクラスタリングし、一つのクラスタから選んだ代表の特徴量を用いて認証処理を行うようにしても良い。
また、本実施形態では、特徴量の抽出に図4のDeepNet処理を用いたが、DeepNetはこの構成でなくてもよい。例えば、畳み込み演算処理をさらに増やしてもよいし、その他の処理を追加してもよい。
次に、情報処理装置1が有する登録機能について説明する。登録機能に対応するフローチャートを図9に示す。なお、図9のフローチャートに従った処理を開始する前に情報処理装置1は起動しており、後述する処理を開始できる状態になっているものとする。また、カメラ2も起動しており、監視カメラとして、動画像を撮像している状態にあるものとする。本実施形態では、登録機能の実行時でも認証機能の実行時に使用するカメラと同じカメラ(カメラ2)を使用するものとする。このようにすることで、認証する場所と同じ撮影条件(照明条件、顔向き等)で撮像した撮像画像に基づく特徴量を登録辞書に登録することができ、認証精度の向上が期待できる。なお、辞書登録用のカメラを別の場所に設置して、登録機能の実行時に使用するようにしてもよい。ただし、その場合は、監視・認証場所と異なる撮影条件になるため、十分な認証精度になるか注意する必要がある。
ステップS1031では、上記のステップS1011と同様に、画像取得部101は、通信装置15がカメラ2から受信してRAM13に格納された撮像画像を取得し、該撮像画像をグレイスケールのシングルチャンネル画像に変換する。なお、辞書登録用に登録用のモードを用意しておき、ユーザの入力に応じて画像を取得するようにするとよい。
次に、ステップS1032では、上記のステップS1012と同様に、顔検出部102は、画像取得部101が取得した撮像画像から被写体(本実施形態では人物の顔)の領域を検出し、該検出した領域内の画像を顔画像として抽出する。なお、撮像画像から顔が検出できなかった場合は、再度、撮像画像を取得するようにユーザに促す等の処理を行うとよい。
次に、ステップS1033では、上記のステップS1014と同様に、特徴抽出部103は、予め作成したCNNを用いて、顔画像から特徴量を抽出する。ここでユーザはこの顔画像に対応する人物の識別情報を入力装置17を操作して入力するので、ステップS1034では、取得部108は、該入力された識別情報を取得する。
そしてステップS1035では、辞書登録部104は、ステップS1033において抽出された特徴量と、ステップS1034において取得した識別情報と、をセットにして登録辞書に登録する。登録辞書は二次記憶装置14やRAM13に保存されている。
[第2の実施形態]
第1の実施形態では、撮像画像をグレイスケールのシングルチャンネル画像として取得し、このような撮像画像から抽出した顔画像(グレイスケールのシングルチャンネル画像)に対する畳み込み演算処理を説明した。しかし、実際にはカラー画像のようにマルチチャンネル画像の撮像画像が入力される場合も多い。本実施形態では、マルチチャンネル画像の撮像画像から検出された顔画像(マルチチャンネル画像)に対する畳み込み演算処理について説明する。以下では第1の実施形態との差分について説明し、以下で特に触れない限りは、第1の実施形態と同様であるものとする。本実施形態では、図6のフローチャートに従って以下のような処理が実行される。
ステップS1021では、取得部121は、入力データとしての顔画像を取得する。本実施形態では、撮像画像はマルチチャンネル画像であるから、該撮像画像から検出された顔画像もまたマルチチャンネル画像である。
ステップS1022で設定部122はステップS1021で取得した顔画像におけるそれぞれのチャンネル画像に対して第1の実施形態と同様にして、隣り合うそれぞれの設定領域が部分的に重複するように、設定領域を2次元的にチャンネル画像上に設定する。
ステップS1023では、変換部123は、設定部122が設定したそれぞれの設定領域内の2次元画素配列を1次元画素配列に変換し、該それぞれの設定領域の1次元画素配列に基づいて1つの連結1次元画素配列を生成する。本実施形態に係る変換部123の動作について、図10を例にとり説明する。図10では、2つのチャンネル画像を有する顔画像における設定領域から連結1次元画素配列を生成している。なお、前述の通り、この図10は処理の順番を限定するものではない。
図10(a)に示す如く、変換部123は、顔画像の第1チャンネル画像(ch=0のチャンネル画像)401における左上隅の設定領域403内の2次元画素配列を1次元画素配列405に変換する。A1〜A9はそれぞれ、設定領域403内の2次元画素配列を構成する各画素の画素値を表す。また変換部123は、顔画像の第2チャンネル画像(ch=1のチャンネル画像)402における左上隅の設定領域404内の2次元画素配列を1次元画素配列406に変換する。B1〜B9はそれぞれ、設定領域404内の2次元画素配列を構成する各画素の画素値を表す。そして変換部123は、1次元画素配列405と1次元画素配列406とを統合した連結1次元画素配列407を生成する。図10(a)に示す如く、連結1次元画素配列407は、1次元画素配列405を構成する要素と、1次元画素配列406を構成する要素と、を交互に並べたもので、結果としてA1,B1,A2,B2,…A9,B9の並びを有する。この並びは、チャンネルが連続となるような並びである。
次に、変換部123は、図10(b)に示す如く、第1チャンネル画像401における設定領域403を1画素だけ右側にずらした設定領域408内の2次元画素配列を1次元画素配列410に変換する。A4〜A12はそれぞれ、設定領域408内の2次元画素配列を構成する各画素の画素値を表す。また変換部123は、図10(b)に示す如く、第2チャンネル画像402における設定領域404を1画素だけ右側にずらした設定領域409内の2次元画素配列を1次元画素配列411に変換する。B4〜B12はそれぞれ、設定領域409内の2次元画素配列を構成する各画素の画素値を表す。そして変換部123は、1次元画素配列410において1次元画素配列405と重複していない要素(A10〜A12)と、1次元画素配列411において1次元画素配列406と重複していない要素(B10〜B12)と、を交互に並べた部分490を生成する。部分490は、A10,B10,A11,B11,A12,B12の並びを有する。そして変換部123は、該生成した部分490を連結1次元画素配列407の右側に連結する。すなわち、この連結1次元画素配列は、設定領域が重複する領域の要素を共有している。以降、右端の設定領域まで同様の処理を行い、右端の設定領域の処理が完了すると、第1の実施形態と同様に、設定領域403,404を1画素だけ下側にずらした設定領域内の2次元画素配列を1次元画素配列に変換する。そして、それぞれの1次元画素配列における要素を交互に並べて連結1次元画素配列に連結する。以降、上記と同様の処理を行う。
このように、チャンネルが連続となるように連結1次元画素配列を作ることで、それぞれの設定領域に対応する1次元画素配列の要素の並びが連続になる。より一般的に表現すると、設定領域の配置位置(本実施形態では、顔画像における水平方向及び垂直方向)の次元とは別の次元が連続となるように連結1次元画素配列を作っている。これにより、後の処理を第1の実施形態と同様の畳み込み演算で処理できるようになる。例えば、1次元画素配列405と1次元画素配列406とをそのまま連結してしまうと、重複部分を除いた、次の設定領域の要素が不連続となり、畳み込み演算で処理できなくなってしまう。
図6に戻って、以降のステップS1024及びステップS1025における処理は第1の実施形態と同様である。なお、本実施形態では、撮像画像(顔画像)が2つのチャンネル画像を有するものとして説明したが、撮像画像(顔画像)のチャンネル数は2に限らず、その場合であっても連結1次元画素配列の生成方法は上記と同様である。例えば、撮像画像(顔画像)のチャンネル数がCH(CHは3以上の整数)であるとする。つまり、撮像画像が、チャンネル番号ch=1のチャンネル画像、チャンネル番号ch=2のチャンネル画像、…、チャンネル番号ch=CHのチャンネル画像、を有するものとする。このとき連結対象は、各チャンネル画像の1次元画素配列の左端からN番目の要素をチャンネル画像順に並べた要素列、左端から(N+1)番目の要素をチャンネル画像順に並べた要素列、…、右端の要素をチャンネル画像順に並べた要素列、を連結したものである。チャンネル画像順とは、chが小さい順を指す。ここで、「N番目の要素」(同位置の要素)とは、左端の設定領域の場合はN=1であり、左端以外の設定領域の場合は、連結対象の先頭要素に対応するN(図10(b)の場合はN=10)である。
[第3の実施形態]
第1,2の実施形態では、2次元画像に対する畳み込み演算処理について説明してきたが、より大きな次元の入力に対する畳み込み演算処理においても、上記の実施形態を適用することができる。例えば、以下の文献は3次元の入力データに対する畳み込み処理が開示されており、この例に上記の実施形態を適用することができる。
D. Tran, L. Bourdev, R. Fergus, L. Torresani, and M. Paluri. Learning spatiotemporal features with 3D convolutional networks. In ICCV, 2015.
以下では第1の実施形態との差分について説明し、以下で特に触れない限りは、第1の実施形態と同様であるものとする。本実施形態では、1つの顔を撮像した複数フレームの撮像画像のそれぞれから検出された顔画像(グレイスケール画像)の時系列シーケンス(複数フレームの顔画像を積層した立体)の特徴量を求めるケースについて説明する。本実施形態では、図6のフローチャートに従って以下のような処理が実行される。
ステップS1021では、取得部121は、顔画像の時系列シーケンス(複数フレームの顔画像を積層した立体)を取得する。ステップS1022では、設定部122は、隣り合うそれぞれの設定領域(本実施形態の場合は立体領域)が部分的に重複するように、設定領域を3次元的に立体内に設定する。ステップS1023では、変換部123は、設定部122が設定したそれぞれの設定領域内の3次元画素配列を2次元画素配列に変換し、該それぞれの設定領域の2次元画素配列に基づいて1つの連結2次元画素配列を生成する。本実施形態に係る変換部123の動作について、図11を例にとり説明する。なお、この図11は処理の順番を限定するものではない。
図11(a)において立体501は、顔画像を積層した立体であり、x方向が顔画像における水平方向、y方向が顔画像における垂直方向、z方向が顔画像の積層方向(つまり時間(フレーム)方向)、に対応する。
図11(a)に示す如く、変換部123は、手前側の左上隅の位置が立体501の手前側の左上隅の位置1199にある設定領域502内の3次元画素配列を2次元画素配列503に変換する。図11(a)では、設定領域502のx方向のサイズをfx、y方向のサイズをfy、z方向のサイズをfzとしている。2次元画素配列503は、設定領域502内に含まれる部分画像群をフレーム順に上から下に並べて連結したものであり、水平方向のサイズはfx、垂直方向のサイズはfy×fzとなる。このように、y軸とz軸をまとめることで3次元データ(3次元画素配列)を2次元データ(2次元画素配列)に展開している。
次に、変換部123は、図11(b)に示す如く、設定領域502を1画素だけx軸方向(z方向と直交する方向)にずらした設定領域504内の3次元画素配列を2次元画素配列に変換する。上記の通り、隣り合う設定領域502と設定領域504とには重複領域が存在するため、結果として設定領域504に対応する2次元画素配列には、設定領域502に対応する2次元画素配列503と重複する部分が生じてしまう。そこで変換部123は、設定領域504に対応する2次元画素配列において2次元画素配列503と重複していない部分590(図11(b)において斜線で示した領域)を、設定領域504に対応する2次元画素配列から取得する。そして変換部123は、該取得した部分590を2次元画素配列503の右側に連結した連結2次元画素配列599を生成する。すなわち、この連結2次元画素配列は、設定領域が重複する領域の要素を共有している。そして変換部123は、設定領域504をx方向にずらした各設定領域について同様の処理を行うことで、連結2次元画素配列を更新する。
そして、設定領域502をx方向にずらした設定領域が立体501の右端に達し、該右端の設定領域における連結対象を連結2次元画素配列に連結したとする。すると、図11(c)に示す如く、設定領域502を1画素だけy方向にずらした設定領域505内の3次元画素配列を2次元画素配列580に変換する。そして、図11(c)に示す如く、変換部123は、この時点における連結1次元画素配列599の右側に2次元画素配列580を連結する。そして以降は、立体501において手前側の右下隅の設定領域の連結対象を連結2次元画素配列に連結するまで同様の処理を行う。
そして立体501において手前側の各設定領域について連結2次元画素配列への連結が完了すると、図11(d)に示す如く、設定領域502をz方向に1画素ずらした設定領域507の2次元画素配列585を求める。そして変換部123は、該求めた2次元画素配列585を連結2次元画素配列の下及び左端に連結する。以降、上記の如く、z方向の位置(z位置)は同じでx方向の位置(x位置)、y方向の位置(y位置)が異なるそれぞれの設定領域の連結対象を2次元画素配列585の右側に順次(点線で示す如く)連結することで連結2次元画素配列を生成する。
このように、本実施形態において生成される連結2次元画素配列は、「同じz位置における設定領域の2次元画素配列若しくは連結対象が連結された連結2次元画素配列」がz位置順に上から下(若しくは下から上)に並べたものである。
図6に戻って、次に、ステップS1024では、取得部124は、二次記憶装置14に保存されている3次元重み係数行列(重み係数群)をRAM13にロードする。そしてステップS0125では、演算部125は、連結2次元画素配列と3次元重み係数行列とを用いて畳み込み演算処理を行う。演算部125による畳み込み演算処理を模式的に示した図が図12である。
3次元重み係数行列601のx方向のサイズはfx、y方向のサイズはfy、z方向のサイズはfzである。この3次元重み係数行列601の各z位置に対応する2次元重み係数行列を垂直方向に連結したものが2次元重み係数行列602であり、水平方向のサイズはfx、垂直方向のサイズはfy×fzである。2次元重み係数行列602は、前述と同じように、x軸とy軸とをまとめることで3次元データを2次元データに展開している。この2次元重み係数行列602と、連結2次元画素配列1201と、の畳み込み演算処理を行うことで、3次元畳み込み演算を実現する。すなわち、3次元データの畳み込みを2次元データの畳み込みに帰着させて計算する。より一般的な言い方をすると、高次元データの畳み込みをより低次元データの畳み込みに帰着させて計算する。この2次元データの畳み込みは、第1の実施形態で説明した方法を用いればよい。
そしてこの畳み込み演算処理に対して上記のプーリング処理部及び上記の3次元畳み込み演算処理と同様の3次元畳み込み演算処理を行うことで、上記の立体の特徴量を得る。以降は第1の実施形態と同様である。
[第4の実施形態]
第1〜3の実施形態では、変換ベクトル(1次元画素配列、2次元画素配列)がどのような形状なのかを説明するために、いくつかの模式図と手順を用いて説明したが、必ずしもこの通りに処理しなくてもよい。最終的には、低次元のベクトルと重み係数の畳み込みに帰着されるため、変換したベクトルが上で述べたように、設定領域の重複部分の要素を共有する構造になっていればよい。
第1〜3の実施形態では、入力データの次元数が2次元、3次元のものであるケースについて説明したが、入力データの次元数がどのようなものであったとしても、何れも以下の構成に帰着される。つまり、入力データが規定する平面若しくは空間内に、隣り合うそれぞれの領域が部分的に重複するように設定される各領域内の要素配列をより低次元の要素配列である低次元要素配列に変換する。そして、該変換したそれぞれの低次元要素配列における重複部分を共有するように該それぞれの低次元要素配列の一部若しくは全部を連結した連結要素を生成し、連結要素と重み係数との畳み込み演算に基づいて入力データの特徴量を求める。なお、少なくとも1組の隣り合う領域が部分的に重複するように設定してもよい。
また、入力データが複数であった場合には、複数の入力データそれぞれについて上記の実施形態の処理を適用するか、複数の入力データそれぞれについて生成した変換ベクトルを連結して、1回の畳み込み演算で計算することができる。この場合、変換ベクトルに重み係数を畳み込む際に、複数の入力データにまたがる範囲の畳み込み部分は無駄な処理となるため、計算をスキップするか、並び替え等で有効な要素のみを抽出する必要がある。
また、上記の説明では、畳み込み演算処理を含むDeepNet処理で顔認証を行う例について説明したが、上記の特徴量を求める処理の目的は顔認証に限らない。例えば、顔認証以外の他の画像認識に第1〜3の実施形態で説明した特徴量算出処理を適用しても良いし、DeepNet処理ではない畳み込み演算、例えば、単純な画像のフィルタ処理等に用いてもよい。
[第5の実施形態]
上記の実施形態では、カメラ2と情報処理装置1とを別個の装置として説明した。しかし、カメラ2と情報処理装置1とを一体化させて1つの装置としても良い。つまり、カメラ2が情報処理装置1の機能として上述した各機能を実行するように構成しても構わない。
また、上記の実施形態では、認証結果など、特徴量を用いて行った処理の結果を表示、音声出力、LEDランプの点灯やそのパターンでもってユーザに通知していたが、通知方法はこれに限らない。例えば、特定の通知先に電子メールでもって通知しても構わない。
上記の実施形態では、情報処理装置1の機能をCPU11がコンピュータプログラムを実行することで実現した。しかし、ハードウェアを用いて同様の機能を実現させるようにしても構わない。例えば、図2に示した各機能部のうち一部若しくは全部をハードウェアで実装しても構わない。ハードウェアとしては専用回路(ASIC)やプロセッサ(リコンフィギュラブルプロセッサ、DSP)などを用いることができる。また、同様の機能をGPUを用いて実装しても構わない。また、上記のコンピュータプログラムをCD−ROMやDVD−ROM等の記憶媒体から読み出したり、ネットワークを介して外部から受信したりして取得し、該取得したコンピュータプログラムをCPU11が実行するようにしても構わない。
また、上記の実施形態では、情報処理装置1に対して撮像画像を送信するカメラの数を1としたが、これに限るものではなく、複数であっても構わない。また、上記の実施形態では、情報処理装置1は撮像画像をカメラ2から取得するものとしたが、撮像画像の取得方法は特定の取得方法に限らない。例えば、情報処理装置1は、予め撮像されてサーバ装置などに保存されている撮像画像群を該サーバ装置から取得するようにしても構わない。
また上記の実施形態では、顔画像全体から特徴量を抽出するようにしたが、顔画像の部分領域から特徴量を抽出するようにしても構わない。例えば、顔の特定の器官(目や鼻等)を基準に設定した部分領域から特徴量を抽出するようにしても構わない。顔画像における器官の位置を検出する方法については公知の技術(例えば、特開2009−211177号公報に記載の方法)を用いればよい。また、抽出した特徴量の次元圧縮や量子化を行っても構わない。
また、上記の実施形態では、撮像画像から検出された全ての顔画像について認証を行うようにしている。しかし、撮像画像上の顔画像のうち特定の顔画像についてのみ認証処理を行うようにしても構わない。つまり、上記のステップS1014〜S1018の処理を、特定の顔画像についてのみ行うようにしても構わない。特定の画像とは、例えば、規定サイズ以上のサイズを有する顔画像、撮像画像に占める割合が規定値以上となる顔画像、ユーザが撮像画像上で選択した顔画像等、特定の条件を満たした顔画像である。
また、上記の実施形態では、情報処理装置1は認証機能と登録機能の両方の機能を有するものとして説明したが、認証機能を実行する装置と、登録機能を実行する装置と、に分けても構わない。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
101:画像取得部 102:顔検出部 103:特徴抽出部 104:辞書登録部 105:類似度算出部 106:決定部 107:表示部 108:取得部

Claims (10)

  1. 入力データが規定する平面若しくは空間内に、少なくとも1組の隣り合う領域が部分的に重複するように設定される各領域内の要素配列をより低次元の要素配列である低次元要素配列に変換する変換手段と、
    前記変換手段が変換したそれぞれの低次元要素配列における重複部分を共有するように該それぞれの低次元要素配列の一部若しくは全部を連結した連結要素を生成する生成手段と、
    前記連結要素と重み係数との畳み込み演算に基づいて前記入力データの特徴量を求める計算手段と
    を備えることを特徴とする情報処理装置。
  2. 前記入力データは2次元画像であり、
    前記変換手段は、隣り合うそれぞれの領域が部分的に重複するように前記2次元画像上に2次元的に設定される各領域内の2次元画素配列を1次元画素配列に変換し、
    前記生成手段は、前記2次元画像において第1方向に並ぶ着目領域列のうち一端の領域に後続する各後続領域の1次元画素配列から、前記着目領域列において前記一端側に該後続領域と隣り合う領域の1次元画素配列と重複しない部分を取得し、前記一端の領域に対応する1次元画素配列と、前記部分と、を連結した連結1次元画素配列を生成し、
    前記計算手段は、前記連結1次元画素配列と重み係数との畳み込み演算に基づいて前記2次元画像の特徴量を求める
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記2次元画像はマルチチャンネル画像における各チャンネル画像であり、
    前記生成手段は、各チャンネル画像の前記一端の領域に対応する1次元画素配列の同位置の要素をチャンネル画像順に並べた要素列と、各チャンネル画像に対応する前記部分において同位置の要素をチャンネル画像順に並べた要素列と、を連結した連結1次元画素配列を生成することを特徴とする請求項2に記載の情報処理装置。
  4. 前記計算手段は、
    前記連結1次元画素配列と重み係数との畳み込み演算の結果に対してプーリング処理を行い、該プーリング処理の結果に対して前記畳み込み演算および前記プーリング処理を行うことで前記特徴量を求めることを特徴とする請求項2又は3に記載の情報処理装置。
  5. 前記入力データは、複数の2次元画像を積層した立体であり、
    前記変換手段は、隣り合うそれぞれの領域が部分的に重複するように前記立体内に設定される各領域内の3次元画素配列を2次元画素配列に変換し、
    前記生成手段は、前記立体において前記積層の方向と直交する第1方向に並ぶ着目領域列のうち一端の領域に後続する各後続領域の2次元画素配列から、前記着目領域列において前記一端側に該後続領域と隣り合う領域の2次元画素配列と重複しない部分を取得し、前記一端の領域に対応する2次元画素配列と、前記部分と、を連結した連結2次元画素配列を生成し、
    前記計算手段は、前記連結2次元画素配列と重み係数との畳み込み演算に基づいて前記立体の特徴量を求める
    ことを特徴とする請求項1に記載の情報処理装置。
  6. 前記情報処理装置は更に、前記特徴量と、ユーザにより入力された被写体に係る情報と、を登録辞書に登録する登録手段を備えることを特徴とする請求項1乃至5の何れか1項に記載の情報処理装置。
  7. 前記情報処理装置は更に、前記計算手段が求めた特徴量と、前記登録辞書に登録されている特徴量と、の類似度に基づいて、前記入力データに対する認証を行う認証手段を備えることを特徴とする請求項6に記載の情報処理装置。
  8. 前記情報処理装置は更に、前記認証手段による認証の結果を出力する出力手段を備えることを特徴とする請求項7に記載の情報処理装置。
  9. 情報処理装置が行う情報処理方法であって、
    前記情報処理装置の変換手段が、入力データが規定する平面若しくは空間内に、少なくとも1組の隣り合う領域が部分的に重複するように設定される各領域内の要素配列をより低次元の要素配列である低次元要素配列に変換する変換工程と、
    前記情報処理装置の生成手段が、前記変換工程で変換したそれぞれの低次元要素配列における重複部分を共有するように該それぞれの低次元要素配列の一部若しくは全部を連結した連結要素を生成する生成工程と、
    前記情報処理装置の計算手段が、前記連結要素と重み係数との畳み込み演算に基づいて前記入力データの特徴量を求める計算工程と
    を備えることを特徴とする情報処理方法。
  10. コンピュータを請求項1乃至8の何れか1項に記載の情報処理装置の各手段として機能させるためのコンピュータプログラム。
JP2018077796A 2018-04-13 2018-04-13 情報処理装置、情報処理方法 Active JP7104546B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018077796A JP7104546B2 (ja) 2018-04-13 2018-04-13 情報処理装置、情報処理方法
US16/379,882 US10909353B2 (en) 2018-04-13 2019-04-10 Information processing apparatus, information processing method, non-transitory computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018077796A JP7104546B2 (ja) 2018-04-13 2018-04-13 情報処理装置、情報処理方法

Publications (3)

Publication Number Publication Date
JP2019185548A true JP2019185548A (ja) 2019-10-24
JP2019185548A5 JP2019185548A5 (ja) 2021-05-27
JP7104546B2 JP7104546B2 (ja) 2022-07-21

Family

ID=68161769

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018077796A Active JP7104546B2 (ja) 2018-04-13 2018-04-13 情報処理装置、情報処理方法

Country Status (2)

Country Link
US (1) US10909353B2 (ja)
JP (1) JP7104546B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022190157A1 (ja) * 2021-03-08 2022-09-15 株式会社日立国際電気 撮像装置及び映像処理システム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10752253B1 (en) * 2019-08-28 2020-08-25 Ford Global Technologies, Llc Driver awareness detection system
CN113837923A (zh) * 2021-09-26 2021-12-24 安徽寒武纪信息科技有限公司 数据处理装置、数据处理方法及相关产品

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001312729A (ja) * 2000-04-28 2001-11-09 Minolta Co Ltd 画像処理装置,画像処理方法及び画像処理プログラムを記録した記録媒体
US20100014718A1 (en) * 2008-04-17 2010-01-21 Biometricore, Inc Computationally Efficient Feature Extraction and Matching Iris Recognition
JP2011086265A (ja) * 2009-10-19 2011-04-28 Canon Inc 画像処理装置及び方法、プログラム及び記憶媒体
US20160162402A1 (en) * 2014-12-04 2016-06-09 Nvidia Corporation Indirectly accessing sample data to perform multi-convolution operations in a parallel processing system

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5577135A (en) * 1994-03-01 1996-11-19 Apple Computer, Inc. Handwriting signal processing front-end for handwriting recognizers
US6408107B1 (en) * 1996-07-10 2002-06-18 Michael I. Miller Rapid convolution based large deformation image matching via landmark and volume imagery
US7634137B2 (en) 2005-10-14 2009-12-15 Microsoft Corporation Unfolded convolution for fast feature extraction
JP5364982B2 (ja) * 2007-06-26 2013-12-11 コニカミノルタ株式会社 情報処理システム
JP5202037B2 (ja) 2008-02-29 2013-06-05 キヤノン株式会社 特徴点位置決定方法及び装置
US8160388B2 (en) 2008-06-17 2012-04-17 International Business Machines Corporation Spatially selective transformation of a spatially varying optical characteristic of an image in an array of pixels
US10067669B1 (en) * 2017-07-13 2018-09-04 King Fahd University Of Petroleum And Minerals Online character recognition

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001312729A (ja) * 2000-04-28 2001-11-09 Minolta Co Ltd 画像処理装置,画像処理方法及び画像処理プログラムを記録した記録媒体
US20100014718A1 (en) * 2008-04-17 2010-01-21 Biometricore, Inc Computationally Efficient Feature Extraction and Matching Iris Recognition
JP2011086265A (ja) * 2009-10-19 2011-04-28 Canon Inc 画像処理装置及び方法、プログラム及び記憶媒体
US20160162402A1 (en) * 2014-12-04 2016-06-09 Nvidia Corporation Indirectly accessing sample data to perform multi-convolution operations in a parallel processing system

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ARJUN AGRAWAL ET AL.: ""Feature Based Iris Recognition System Functioning on Extraction of 2D Features"", 2012 6TH INTERNATIONAL CONFERENCE ON APPLICATON OF INFORMATION AND COMMUNICATION TECHNOLOGIES (AICT), JPN6022012136, 17 October 2012 (2012-10-17), US, pages 1 - 5, XP032293863, ISSN: 0004740227, DOI: 10.1109/ICAICT.2012.6398476 *
斎藤 康毅, "ゼロから作るDEEP LEARNING", vol. 第1版, JPN6022012137, 28 September 2016 (2016-09-28), JP, pages 221 - 227, ISSN: 0004740226 *
浅川 伸一, "PYTHONで体験する深層学習", vol. 第1版, JPN6022012138, 18 August 2016 (2016-08-18), JP, pages 99 - 119, ISSN: 0004740225 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022190157A1 (ja) * 2021-03-08 2022-09-15 株式会社日立国際電気 撮像装置及び映像処理システム
JP7448721B2 (ja) 2021-03-08 2024-03-12 株式会社日立国際電気 撮像装置及び映像処理システム

Also Published As

Publication number Publication date
US20190318157A1 (en) 2019-10-17
JP7104546B2 (ja) 2022-07-21
US10909353B2 (en) 2021-02-02

Similar Documents

Publication Publication Date Title
US11675943B2 (en) Tool to create a reconfigurable interconnect framework
WO2021073493A1 (zh) 图像处理方法及装置、神经网络的训练方法、合并神经网络模型的图像处理方法、合并神经网络模型的构建方法、神经网络处理器及存储介质
US11610362B2 (en) Data volume sculptor for deep learning acceleration
EP3346423B1 (en) Deep convolutional network heterogeneous architecture system and device
WO2018174623A1 (ko) 가상 3차원 심층 신경망을 이용하는 영상 분석 장치 및 방법
KR101991763B1 (ko) 조밀 탐색 방법 및 화상 처리 장치
US11157764B2 (en) Semantic image segmentation using gated dense pyramid blocks
EP3346425B1 (en) Hardware accelerator engine and method
JP2022058173A (ja) 画像分類方法及び機器
JP7104546B2 (ja) 情報処理装置、情報処理方法
JP2018151748A (ja) 画像処理装置、画像処理方法、テンプレート作成装置、物体認識処理装置及びプログラム
EP3346427B1 (en) Configurable accelerator framework, system and method
WO2021012494A1 (zh) 基于深度学习的人脸识别方法、装置及计算机可读存储介质
JP6656988B2 (ja) 画像処理装置、半導体装置、画像認識装置、移動体装置、及び画像処理方法
US20130243330A1 (en) Method and apparatus for constructing image blur pyramid, and an image feature extracting circuit
US11704894B2 (en) Semantic image segmentation using gated dense pyramid blocks
JP5258506B2 (ja) 情報処理装置
WO2018106524A1 (en) Feature detection in compressive imaging
Zhou et al. Inceptr: micro-expression recognition integrating inception-CBAM and vision transformer
Chai et al. Focal-plane processing architectures for real-time hyperspectral image processing
Ghazi et al. Embedded implementation of a deep learning smile detector
WO2022179606A1 (zh) 一种图像处理方法及相关装置
Robila et al. Considerations on parallelizing nonnegative matrix factorization for hyperspectral data unmixing
CN111797862A (zh) 任务处理方法、装置、存储介质和电子设备
WO2022183325A1 (zh) 视频块处理方法及装置、神经网络的训练方法和存储介质

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210401

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210401

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220401

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220610

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220708

R151 Written notification of patent or utility model registration

Ref document number: 7104546

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151