JP2018022315A - 画像認識装置、画像認識システム、及び画像認識方法 - Google Patents
画像認識装置、画像認識システム、及び画像認識方法 Download PDFInfo
- Publication number
- JP2018022315A JP2018022315A JP2016152688A JP2016152688A JP2018022315A JP 2018022315 A JP2018022315 A JP 2018022315A JP 2016152688 A JP2016152688 A JP 2016152688A JP 2016152688 A JP2016152688 A JP 2016152688A JP 2018022315 A JP2018022315 A JP 2018022315A
- Authority
- JP
- Japan
- Prior art keywords
- image recognition
- image
- window
- unit
- calculation unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5838—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/28—Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/772—Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/469—Contour-based spatial representations, e.g. vector-coding
- G06V10/473—Contour-based spatial representations, e.g. vector-coding using gradient analysis
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Library & Information Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
【課題】短い処理時間で検知性能の高い画像認識装置を提供すること。【解決手段】画像認識装置100は、複数のブロックに分割した画像から複数のブロックごとに勾配特徴量を計算する勾配特徴演算部120と、勾配特徴量の組み合わせパタンを複数記憶する組み合わせパタン記憶部160と、複数のブロックにおける共起特徴量を組み合わせパタンごとに算出する共起特徴演算部131とを備える。また、複数のブロックごとに算出された共起特徴量を組み合わせパタンごとに加算して加算値を算出する算術演算部132と、加算値から統計データを生成する統計データ生成部140とを備える。そして、画像に対して所定の大きさのウィンドウを定め、ウィンドウ内における統計データに基づき、ウィンドウ内に所定の画像が含まれるか否かを認識する画像認識演算部を備える。【選択図】図1
Description
本発明は画像認識装置に関し、例えば短い処理時間で検知性能の高い画像認識装置に関する。
近年、モバイルや車載向けに自律移動、自律運転を目的とした高度なパタン認識技術が必要とされている。一方、モバイル機器や車載機器に搭載する画像認識装置の演算能力は限られている。そこで、少ない計算量で高い認識性能を有するアルゴリズムの開発が求められている。
文献1によれば、特徴量変換装置にバイナリデータとして取得した画像の特徴量を入力し、共起特徴量の組み合わせを論理演算器によって演算させる。そしてこの演算結果を統合することにより、非線形変換特徴ベクトルを生成する。
しかし、文献1に記載の装置は取得した特徴ベクトルの要素について全ての組み合わせを演算するため処理時間が長いという問題があった。
その他の課題と新規な特徴は、本明細書の記述および添付図面から明らかになるであろう。
一実施の形態によれば、
画像認識装置は、複数のブロックに分割した画像から前記複数のブロックごとに勾配特徴量を計算する勾配特徴演算部と、前記勾配特徴量の組み合わせパタンを複数記憶する組み合わせパタン記憶部と、複数のブロックにおける共起特徴量を前記組み合わせパタンごとに算出する共起特徴演算部と、前記複数のブロックごとに算出された前記共起特徴量を前記組み合わせパタンごとに加算して加算値を算出する算術演算部と、前記加算値から統計データを生成する統計データ生成部と、前記画像に対して所定の大きさのウィンドウを定め、前記ウィンドウ内における前記統計データに基づき、前記ウィンドウ内に所定の画像が含まれるか否かを認識する画像認識演算部と、を備える。
画像認識装置は、複数のブロックに分割した画像から前記複数のブロックごとに勾配特徴量を計算する勾配特徴演算部と、前記勾配特徴量の組み合わせパタンを複数記憶する組み合わせパタン記憶部と、複数のブロックにおける共起特徴量を前記組み合わせパタンごとに算出する共起特徴演算部と、前記複数のブロックごとに算出された前記共起特徴量を前記組み合わせパタンごとに加算して加算値を算出する算術演算部と、前記加算値から統計データを生成する統計データ生成部と、前記画像に対して所定の大きさのウィンドウを定め、前記ウィンドウ内における前記統計データに基づき、前記ウィンドウ内に所定の画像が含まれるか否かを認識する画像認識演算部と、を備える。
なお、上記実施の形態の装置を方法やシステムに置き換えて表現したもの、該装置または該装置の一部の処理をコンピュータに実行せしめるプログラム、該装置を備えた撮像装置なども、本実施の態様としては有効である。
前記一実施の形態によれば、短い処理時間で検知性能の高い画像認識装置を提供できる。
説明の明確化のため、以下の記載及び図面は、適宜、省略、及び簡略化がなされている。また、様々な処理を行う機能ブロックとして図面に記載される各要素は、ハードウェア的には、CPU、メモリ、その他の回路で構成することができ、ソフトウェア的には、メモリにロードされたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。なお、各図面において、同一の要素には同一の符号が付されており、必要に応じて重複説明は省略されている。
また、上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non−transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
<実施の形態>
まず、これから説明する実施の形態で使用される技術についての概要を説明する。画像の特徴量を算出してパタン認識を行う技術は様々な手法が開発されている。例えば、HOG(histograms of oriented gradients)という手法が広く知られている。この手法は、画像内のエッジ勾配を取得し、ベクトルのヒストグラムを算出する。これをHOG特徴量という。HOG特徴量を解析することにより、画像認識装置は画像内の対象物を認識することが可能となる。またこれとは別の手法として、すでに取得した特徴量を組み合わせて新たな特徴量とする「共起特徴量」を用いる画像認識技術が知られている。共起特徴量を用いれば、異なる2点の特徴量を組み合わせることで物体の形状を大まかに認識することができる。
まず、これから説明する実施の形態で使用される技術についての概要を説明する。画像の特徴量を算出してパタン認識を行う技術は様々な手法が開発されている。例えば、HOG(histograms of oriented gradients)という手法が広く知られている。この手法は、画像内のエッジ勾配を取得し、ベクトルのヒストグラムを算出する。これをHOG特徴量という。HOG特徴量を解析することにより、画像認識装置は画像内の対象物を認識することが可能となる。またこれとは別の手法として、すでに取得した特徴量を組み合わせて新たな特徴量とする「共起特徴量」を用いる画像認識技術が知られている。共起特徴量を用いれば、異なる2点の特徴量を組み合わせることで物体の形状を大まかに認識することができる。
<実施の形態1>
図1は、実施の形態1に係る画像認識装置の機能ブロックの概要を説明するための図である。画像認識装置100は、勾配特徴演算部120、組み合わせ辞書160、ウィンドウ計算部180、画像認識演算部150を備える。ウィンドウ計算部180は共起特徴演算部131、算術演算部132、統計データ生成部140より構成されている。
図1は、実施の形態1に係る画像認識装置の機能ブロックの概要を説明するための図である。画像認識装置100は、勾配特徴演算部120、組み合わせ辞書160、ウィンドウ計算部180、画像認識演算部150を備える。ウィンドウ計算部180は共起特徴演算部131、算術演算部132、統計データ生成部140より構成されている。
画像認識装置100は画像を取り込むと、勾配特徴演算部120に情報を入力する。勾配特徴演算部120は、後述する画像データの勾配特徴量を演算し、演算結果をウィンドウ計算部180に出力する。
ウィンドウ計算部180は、所定の大きさに定められたウィンドウ内における画像の特徴量を算出し、算出結果を画像認識演算部150に出力する。以下にウィンドウ計算部180が備える各機能ブロックについて説明する。
共起特徴演算部131は、勾配特徴演算部120からの演算結果を受け、組み合わせ辞書160に格納されている組み合わせパタンに基づいて、共起特徴量の演算を行い、演算結果を算術演算部132に出力する。
算術演算部132は、共起特徴演算部131から演算結果を受け、共起特徴量を加算する。算術演算部132は、加算結果を統計データ生成部140に出力する。
統計データ生成部140は、算術演算部132から演算結果を受け、統計データを生成する。統計データは、例えばヒストグラムである。統計データ生成部140は、生成したデータを画像認識演算部150に出力する。
画像認識演算部150は、算術演算部132からデータを受け、ウィンドウ内に対象となる画像が含まれるか否かを演算する。ここで画像認識演算部150が行う演算は、例えば所定のしきい値に基づく差分や、参照テーブルに基づく比較等である。画像認識演算部150は、このような演算結果を画像認識装置100の外部へ出力する。
次に、図2を参照しながら共起特徴演算部131の詳細について説明する。共起特徴演算部131は、複数のビット選択部(ビット選択部1a、ビット選択部1b、・・・ビット選択部Pa、ビット選択部Pb)及び複数の論理演算部(論理演算部1、・・・、論理演算部P)を備える。複数のビット選択部は組み合わせ辞書160から組み合わせパタンを参照し、それぞれ勾配特徴量を読み取る。複数のビット選択部は、2つのビット選択部がペアになって構成されている。そして、複数のビット選択部はそれぞれ接続している複数の論理演算部へ値を出力する。複数の論理演算部は、それぞれ複数のビット選択部から受けた値を論理演算し、結果を出力する。例えば、ビット選択部1aと、ビット選択部1bとはペアである。そしてビット選択部1a及びビット選択部1bは、それぞれが論理演算部1へ値を出力する。
続いて、図3は、実施の形態1に係る画像認識装置100のハードウェア構成を例示したものである。画像認識装置100は、CPU(central processing unit)101、画像処理部102、画像バッファ103、主記憶部104を備え、これらは通信バスにより接続されている。CPU101及び画像処理部102は制御や計算を行うプロセッサである。画像バッファは取り込んだ画像を一時的に蓄積する一次記憶装置であり、例えばDRAM(Dynamic Random Access Memory)やSRAM(Static Random Access Memory)である。主記憶部104は、組み合わせ辞書160や画像認識演算部の処理に必要なデータ等を記憶している。主記憶部104は不揮発性の記憶装置であり、例えばEEPROM(Electrically Erasable Programmable Read-Only Memory)、フラッシュメモリ、FeRAM(Ferroelectric Random Access Memory)である。
CPU101は、画像取得部105、統計データ生成部133、画像認識演算部150、辞書取得部800を備える。画像取得部105は、画像認識装置100に画像を取り込むときの処理を行う。辞書取得部800は、主記憶部に格納された組み合わせ辞書の情報を画像処理部102に転送する。統計データ生成部140及び画像認識演算部150、勾配特徴演算部120、共起特徴演算部131、算術演算部132、組み合わせ辞書160は図1において説明した機能を有するためここでの説明は省略する。
CPU101及び画像処理部102に格納されている各ブロックは、それぞれの機能を鑑みて適宜配置されている。しかし、これらの配置は変更しても構わないし、プロセッサは1つでも2つ以上でも構わない。
次に、図4を参照しながら勾配特徴量について説明する。勾配特徴演算部120は、各ブロックについて、そのブロックの隣接するブロックに対する輝度勾配を計算する。そして、勾配特徴演算部120は、勾配ベクトルの方向を所定の方向に近似した勾配方向と、勾配ベクトルの大きさをバイナリ化した値である勾配特徴量とに分ける。
画像300は、カメラにより撮影された画像を取り込んだ画像データであり、予め複数のブロックに分割されている。例えば画像300内のウィンドウ303はx方向に8分割、y方向に16分割されており、全部で128個のブロック304により構成されている。ブロック304の中の画素数は複数でも1つでも構わない。
勾配特徴演算部120は、ブロック304について勾配特徴量を計算する場合、ブロック304に隣接する上下左右の4個のブロックとの輝度値の差分をそれぞれ演算する。そして勾配特徴演算部120は、予め割り当てられた勾配方向における輝度値の差分が、所定のしきい値よりも大きいか否かを判定し、バイナリ出力する。例えば、勾配特徴演算部120は、演算した輝度値の差分から、勾配方向の例305のそれぞれに近似した輝度勾配を算出する。ここで示す例では、ブロック304における方向0の輝度値の差分は所定のしきい値よりも大きいとする。その場合、勾配特徴演算部120は、ブロック304における勾配方向0の勾配特徴量として1を出力する。勾配特徴演算部120は、全ての勾配方向についての演算を行い、ブロック304の勾配特徴量として表306の値を出力する。ここに示す例では、1つのブロックに対して出力される勾配特徴量は8ビットである。
勾配特徴演算部120が、勾配特徴量をバイナリ出力することにより、この後に行う共起特徴量の演算は単純な論理演算によって行うことができる。そのため、画像認識装置100の処理速度を速くすることができる。
次に、図5を参照しながら、組み合わせ辞書160の構成について説明する。組み合わせ辞書160には対象となる画像が含まれるか否かを判断するための勾配方向のペアが複数格納されている。表310は、組み合わせ辞書160の構成を例示したものである。パタン番号C1は、Q個の組み合わせパタンにそれぞれ割り当てられた番号である。パタン番号C1は、0から順に1ずつ増加し、最後のパタン番号はQ−1である。選択部C2は、共起特徴演算部131のビット選択部1a〜ビット選択部Paに出力される勾配方向が格納されている。選択部C3は、選択部C2のペアとなるビット選択部1b〜ビット選択部Pbに出力される勾配方向が格納されている。ここに示す例では、パタン番号0の場合、ビット選択部1aに出力する勾配方向は0であり、ビット選択部1bに出力する勾配方向は3である。
次に、図6を参照しながら、ウィンドウ計算部180が行う演算について説明する。表320は、ウィンドウ303内の各ブロックにおける勾配特徴量である。表330は、共起特徴演算部が表320の勾配特徴量から共起特徴量を算出した算出結果である。表340は、算術演算部132が表330の算出結果を組み合わせパタンごとに加算した加算結果である。グラフ350は、統計データ生成部140が表340の加算結果から生成した統計データである。
共起特徴演算部131は、図5に例示した組み合わせ辞書160を参照して、各ビット選択部に入力する値を表320から選択する。また、共起特徴演算部131は、ブロックp=0からブロックp=P−1までの共起特徴量を演算する。すなわち、共起特徴演算部131は、まずブロックp=0について、組み合わせ辞書160を参照して共起特徴量を演算する。共起特徴演算部131は、組み合わせ辞書160のパタン番号0、選択部C2を参照する。パタン番号0における選択部C2の値は0である。よって、共起特徴演算部131は、ビット選択部1aに、ブロックp=0における勾配方向0に対応する勾配特徴量を入力する。すなわち、共起特徴演算部131は、表320の勾配特徴量321の値である1を入力する。続いて、共起特徴演算部131は、パタン番号0の選択部C2に対応する選択部C3を参照する。パタン番号0における選択部C3の値は2である。よって、共起特徴演算部131は、ビット選択部1bに、ブロックp=1〜ブロックp=P−1における勾配方向2に対応する勾配特徴量を順次入力する。すなわち、共起特徴演算部131は、表320の勾配特徴量322の値をビット選択部1bに順次入力する。ここに示す例では、ブロックp=2における勾配方向2の勾配特徴量は1である。よって、ビット選択部1aとビット選択部1bの論理積は1となる。共起特徴演算部131は、ブロックp=0における組み合わせパタン0の共起特徴量に1を出力する。ここに示す例では、表330における値331に1が表示されている。
同様に、共起特徴演算部131は、ブロックp=0における組み合わせパタン1の共起特徴量を演算する。組み合わせ辞書160のパタン番号1の選択部C2の値は0である。よって、共起特徴演算部131は、ビット選択部2aに対して、ブロックp=0における勾配方向0の勾配特徴量である1を入力する。続いて、共起特徴演算部131は、ビット選択部2bに勾配特徴量を入力する。パタン番号1の選択部C2に対応する選択部C3の値は3である。よって、共起特徴演算部131は、ビット選択部2bに、ブロックp=1〜ブロックp=P−1における勾配方向3に対応する勾配特徴量を順次入力する。すなわち、共起特徴演算部131は、表320の勾配特徴量323の値をビット選択部2bに順次入力する。ここに示す例では、ブロックp=0からブロックp=P−1の範囲において勾配方向3の勾配特徴量が1となるものはない。よって、ビット選択部2aとビット選択部2bの論理積は0となる。共起特徴演算部131は、ブロックp=0における組み合わせパタン0の共起特徴量に0を出力する。ここに示す例では、表330における値332に0が表示されている。
共起特徴演算部131は、同様にしてブロックp=0における全ての組み合わせパタンの共起特徴量を演算する。共起特徴演算部131は、ブロックp=0における全ての共起特徴量の演算を終えると、ブロック番号をインクリメントし、ブロックp=P−1まで演算を繰り返す。このようにして共起特徴演算部131は、ウィンドウ内の全てのブロックにおける全ての組み合わせパタンに対する共起特徴量を演算する。そして、共起特徴演算部131は、表330に示す値を算術演算部132に出力する。
算術演算部132は、共起特徴演算部131から受けたデータを、組み合わせパタンごとに加算する。そして共起特徴演算部131は、表340に示す加算結果を、統計データ生成部140に出力する。
統計データ生成部140は、算術演算部132から受けたデータを基に、統計データを生成する。具体的には、統計データ生成部140は、各桁を結合し、表350に示すようなヒストグラムとなるデータを生成する。そして統計データ生成部140は、生成した統計データをウィンドウ計算部180の出力として、画像認識演算部150に出力する。
ここに示す例では、ウィンドウ303は128のブロックに分割されており、勾配方向は0〜7の8通りである。そのため、画像認識装置100がウィンドウ303内の全てのブロックについて、全ての勾配方向の組み合わせである共起特徴量を全て演算する場合、非常に膨大な組み合わせの演算を行うこととなる。しかし、組み合わせ辞書160の値に基づいて選択的に演算を行う場合は、画像認識装置100は短い時間で処理を行うことができる。
次に図7を参照しながら画像認識装置100の処理の概要を説明する。まず、画像認識装置100は、複数のブロックに分割された画像300を取り込み、勾配特徴演算部120に入力する(ステップS10)。
勾配特徴演算部120は、図4を参照しながら説明した輝度勾配を算出する(ステップS11)。そして勾配特徴演算部120は、輝度勾配をバイナリ変換する(ステップS12)さらに勾配特徴演算部120は、バイナリデータをウィンドウ計算部180に出力する。
ウィンドウ計算部180は、入力されたバイナリデータに基づき特徴抽出演算を行う(ステップS13)。そしてウィンドウ計算部180は、生成した統計データを画像認識演算部150に出力する。画像認識演算部150は、ウィンドウ計算部180より出力された統計データを受け、ウィンドウ内に対象となる画像が含まれるか否かを認識する演算を行う(ステップS14)。そして画像認識演算部150は、演算結果を画像認識装置100の外部へ出力する(ステップS15)。画像認識演算部150は、例えば、対象となる画像が含まれている場合には1、含まれていない場合には0を出力することができる。
次に図8を参照しながらウィンドウ計算部180において行われる特徴抽出演算処理について説明する。図4に示すように、ウィンドウ計算部180は、起点となるブロック302の位置を順次移動させながら、所定の大きさであるウィンドウ303を移動させ、特徴抽出演算処理を繰り返す。図4の例では、起点となるブロック302はウィンドウ303の左上角のブロックである。ブロック302は、ブロックm=0の位置から、ウィンドウが右下角に至るブロックm=M−1の位置までx及びy方向に順次移動を繰り返すループ処理を行う(ステップS20)。
ウィンドウ303の位置を決定した後、共起特徴演算部131は、ウィンドウ303内のブロック304の位置を順次決定するループ処理を行う(ステップS21)。ここに示す例では、ブロックp=0からブロックp=P−1まで順次ブロック番号をインクリメントする。
ブロック304の位置を決定した後、共起特徴演算部131は、各ブロックにおける共起特徴量の演算を行う。共起特徴演算部131は、組み合わせ辞書160を参照して勾配方向を選択する。組み合わせ辞書160には0からQ−1までの組み合わせパタンが格納されている。尚、Qは2以上の整数である。共起特徴演算部131は、各ブロックにおいて組み合わせ辞書160に格納されている組み合わせパタンを順次読み出すループ処理を行う(ステップS22)。共起特徴演算部131は、q番目の組み合わせパタンに基づいて、選択部C2の勾配方向を読み出し(ステップS23)、また、選択部C2に対応する選択部C3の勾配方向を読み出す(ステップS24)。そして共起特徴演算部131は、論理演算部qにおいてこれらの論理積を演算し、組み合わせパタンごとに共起特徴量を出力する(ステップS25)。共起特徴演算部131は、q=Q−1になるまで処理を繰り返した後、ループ処理を終了する(ステップS26)。
算術演算部132は、共起特徴演算部131が出力する共起特徴量であるバイナリデータを受け、p番目のブロックにおける共起特徴量を組み合わせパタンごとに加算し、統計データ生成部140に出力する(ステップS27)。算術演算部132は、p=P−1になるまで処理を繰り返した後、ループ処理を終了する(ステップS28)。
統計データ生成部140は、算術演算部132が出力したデータを受け、統計データを生成し、画像認識演算部150に出力する(ステップS29)。ウィンドウ計算部180は、m=M−1になるまで処理を繰り返した後、ループ処理を終了する(ステップS30)。
以上に説明したように、組み合わせ辞書に基づいて共起特徴量を演算することにより、ウィンドウ内の勾配特徴量を選択的に演算することが可能となり、短い処理時間で検知性能の高い画像認識装置を提供できる。
<実施の形態2>
次に、実施の形態2について説明する。実施の形態2は、組み合わせ辞書161に格納された情報が実施の形態1に係る組み合わせ辞書160と異なるのみである。従って、それ以外の重複する事項については説明を省略する。
次に、実施の形態2について説明する。実施の形態2は、組み合わせ辞書161に格納された情報が実施の形態1に係る組み合わせ辞書160と異なるのみである。従って、それ以外の重複する事項については説明を省略する。
図9は、実施の形態2に係る組み合わせ辞書161について説明するための図である。組み合わせ辞書161は、組み合わせ辞書160の情報に加えて、ブロックの相対的な位置情報を含む点が実施の形態1との相違点である。ブロックの相対位置情報351はアドレス番号0から14までが図に示す通りの位置関係で配置されていることを表している。相対位置情報351は、選択された一のブロックの位置をアドレス番号0としたときの、他のブロックの相対的な位置を表している。例えば、ブロックp=0における共起特徴量を演算する場合、アドレス番号1はx方向に隣接するブロックを指す。表353は組み合わせパタン番号C1、選択部C2、選択部C3が格納され、さらに位置情報C4が格納されている。このように、図9の例では、組み合わせ辞書161に、相対位置情報351及び表352を含む。
次に、図10を参照しながら、実施の形態2に係るウィンドウ計算部180が行う演算について説明する。表360は、ウィンドウ303内の各ブロックにおける勾配特徴量である。表370は、共起特徴演算部が表360の勾配特徴量から共起特徴量を算出した算出結果である。
共起特徴演算部131は、図9に例示した組み合わせ辞書161を参照して、各ビット選択部に入力する値を表360から選択する。また、共起特徴演算部131は、ブロックp=0からブロックp=P−1までの共起特徴量を演算する。すなわち、共起特徴演算部131は、まずブロックp=0について、組み合わせ辞書161を参照して共起特徴量を演算する。共起特徴演算部131は、組み合わせ辞書161のパタン番号0、選択部C2を参照する。パタン番号0における選択部C2の値は0である。よって、共起特徴演算部131は、ビット選択部1aに、ブロックp=0における勾配方向0に対応する勾配特徴量を入力する。すなわち、共起特徴演算部131は、表360の勾配特徴量361の値である1を入力する。続いて、共起特徴演算部131は、パタン番号0の選択部C2に対応する、選択部C3を参照する。パタン番号0における選択部C3の値は2である。次に、共起特徴演算部131は、パタン番号0の選択部C4を参照する。パタン番号0における選択部C4の値は1である。よって、共起特徴演算部131は、勾配方向にC3の値である2を選択し、アドレス番号にC4の値である1を選択する。その結果、共起特徴演算部131は、ビット選択部1bにブロックp=1における勾配方向2の値を入力する。すなわち、共起特徴演算部131は、表360の勾配特徴量362の値である0を入力する。よって、ビット選択部1aは1となり、ビット選択部1bは0となるため、論理積は0となる。ここに示す例では、表370における値371に0が表示されている。
同様に、共起特徴演算部131は、ブロックp=0における組み合わせパタン番号1の共起特徴量を演算する。パタン番号1における選択部C2の値は0である。よって、共起特徴演算部131は、ビット選択部1aに、ブロックp=0における勾配方向0に対応する勾配特徴量を入力する。すなわち、共起特徴演算部131は、表360の勾配特徴量361の値である1を入力する。続いて、共起特徴演算部131は、パタン番号1の選択部C3を参照する。パタン番号1における選択部C3の値は7である。次に、共起特徴演算部131は、パタン番号1の選択部C4を参照する。パタン番号1における選択部C4の値は2である。よって、共起特徴演算部131は、勾配方向にC3の値である7を選択し、アドレス番号にC4の値である2を選択する。その結果、共起特徴演算部131は、ビット選択部1bにブロックp=2における勾配方向7の値を入力する。すなわち、共起特徴演算部131は、表360の勾配特徴量363の値である1を入力する。よって、ビット選択部1aは1となり、ビット選択部1bは1となるため、論理積は1となる。ここに示す例では、表370における値372に1が表示されている。これ以降の説明は実施の形態1と同様になるため、省略する。
このように、位置情報も加えた組み合わせ辞書に基づいて共起特徴量を演算することにより、ウィンドウ内の勾配特徴量を選択的に演算することが可能となり、短い処理時間で検知性能の高い画像認識装置を提供できる。
尚、組み合わせ辞書の具体的な格納方法、アドレス情報の範囲などはここに説明した内容に限ったものではなく、様々なパタンで実施することが可能である。
尚、組み合わせ辞書の具体的な格納方法、アドレス情報の範囲などはここに説明した内容に限ったものではなく、様々なパタンで実施することが可能である。
<実施の形態3>
次に、実施の形態3の具体的な説明をする前に、実施の形態3に係る技術的な背景について概略を説明する。
次に、実施の形態3の具体的な説明をする前に、実施の形態3に係る技術的な背景について概略を説明する。
実施の形態1、2に例示した画像認識装置の画像処理に加えて、更に画像処理を行うことにより、認識精度を高めることができる。例えば、取り込んだ画像に含まれる対象画像の大きさは一定ではない。そのため、画像と、ウィンドウとの相対的な大きさを変換させることにより、認識性能を高めることができる。また、対象画像が含まれる可能性が極めて低い部分の画像データを予め除去しておくことにより、処理速度を上げることができる。また、ウィンドウの位置変更を行うステップ幅を大きくとり、対象となる画像が含まれる可能性が高いウィンドウの付近に対して再度小さいステップ幅で特徴量抽出処理を行うことにより、処理速度を上げることができる。
また、演算により算出した統計データに対して、予め学習した重み付け値を積算又は加算することにより、認識精度を高めることができる。このような重み付けを行う技術の一例としては、SVM(support vector machine)を用いる手法が知られている。例えば、識別器の認識モデルをf(x)、特徴ベクトルをx=[x1,x2,・・・]、重みベクトルをw=[w1,w2,・・・]バイアスをbとして関係を表すと、f(x)=wTx+bとなる。このf(x)が正の場合が対象物、負の場合が非対象物であると判別することができる。この手法により、画像認識装置の認識性能を高めることができる。
次に、実施の形態3に係る画像認識装置200について説明する。図11は、実施の形態2に係る機能ブロック図である。ここでは実施の形態1と比較して異なる点についてのみ説明し、重複する部分の説明は省略する。
画像認識装置200は、実施の形態1に係る画像認識装置100に加えて、画像変換部110、重み付け値辞書170を備える。またウィンドウ計算部181はセル計算部130を備え、さらに統計データ統合部141を備える。セル計算部130は、共起特徴演算部131、算術演算部132、そして統計データ生成部140を含む。勾配特徴演算部120、共起特徴演算部131、算術演算部132、統計データ生成部140、組み合わせ辞書160は、実施の形態1の説明と同様なので、説明を省略する。
画像変換部110は、画像データを取り込み、所定の画像変換処理を行い、処理後の画像データを勾配特徴演算部120に出力する。
ウィンドウ計算部181は、ウィンドウ内を複数のセルに分割し、統計データをセルごとに生成する。そしてセルごとの統計データをさらにウィンドウ内で結合して画像認識演算部151に出力する。結合された統計データは、例えばウィンドウ内の共起特徴量をヒストグラムにしたものである。
画像認識演算部151は、統計データ統合部141から出力されたデータを受け、重み付け値辞書170のデータを参照して画像認識演算を行う。重み付けの演算は、例えばサポートベクターマシーンを用いることができる。画像認識演算部151は、演算結果に基づいて、画像内に対象となる画像が含まれているか否かを導出し、結果を画像認識装置200の外部に出力する。
次に、図12を参照しながらセル計算部130の詳細について説明する。セル計算部130は、勾配特徴演算部120から勾配特徴量についてのバイアスデータを受け、共起特徴演算部131に入力する。共起特徴演算部131、算術演算部132、統計データ生成部140の機能は実施の形態1において説明したものと同様である。ただし、ここで処理されるデータはウィンドウを分割したセル内のデータである。統計データ生成部140は、セル内の画像データに基づいて統計データを生成し、これを統計データ統合部141に出力する。
次に、図13を参照しながら、画像認識装置200のハードウェア構成について説明する。尚、実施の形態1に係る画像認識装置100と重複する部分についての説明は省略する。
画像認識装置200は、CPU201、画像処理部202、画像バッファ103、主記憶部204を備え、これらは通信バスにより接続されている。CPU201は、画像取得部105、統計データ生成部140、統計データ統合部141、画像認識演算部151、辞書取得部800を備える。画像処理部202は、画像変換部110、勾配特徴演算部120、共起特徴演算部131、算術演算部132を備える。主記憶部204は、組み合わせ辞書160、重み付け値辞書170を備える。
次に、主記憶部204に格納されている組み合わせ辞書160及び重み付け値辞書170について説明する。組み合わせ辞書160及び重み付け値辞書170は、認識対象となる対象画像のデータと、認識対象ではない非対象画像のデータとを取り込み、学習器が予め学習することにより生成される。
図14(a)は、重み付け値辞書と組み合わせ辞書を生成する方法を説明した図である。このような方法は、例えばコンピュータ又は専用のプログラムを実行するための学習器を備える装置により実行される。対象画像401は、認識対象が撮影された画像の画像データであって、複数の画像データである。非対象画像402は、認識対象とは異なるものが撮影された画像の画像データであって、複数の画像データである。対象画像401及び非対象画像402は、学習器403に入力される。
学習器403は、対象画像401及び非対象画像402の画像を受け、勾配特徴量をそれぞれ演算し、演算したデータに基づいて対象画像の特徴と、非対象画像の特徴を学習する(S100)。そして学習器403は、学習した結果を重み付け値辞書170の値として出力する。重み付け値辞書170がSVMを採用する場合は、学習器403は、重みベクトルwiとバイアスbを重み付け値辞書170に出力する。適切な学習が行われると、対象物の画像に係る特徴ベクトルwiの値は正の値となり、非対象物の画像に係る特徴ベクトルwiの値は負の値となり、どちらにも該当しない画像に係る特徴ベクトルwiの値はゼロに近くなる。特徴ベクトルwiの絶対値は、その確からしさに基づいて決定される。例えば、対象物の画像では普遍的に検出され、非対象物の画像ではめったに検出されない特徴ベクトルwiは、符号が正となり、値は相対的に大きくなる。
次に、学習器403は、演算したデータを優先度に従って並び替える(ステップS101)。図14(b)は実施の形態3に係る特徴ベクトルの並び替えを説明する図である。学習器403は、対象画像の勾配特徴量を高い優先度に並べ替え、そこから共起する勾配特徴量を導出する。学習器403は、例えば、重みベクトルwiの絶対値の大きさを優先度の高さとみなしてデータを並び替える。具体的には、学習器403は特徴ベクトルがx=[x0,x2,...,x7]で表わされる。この場合、重みベクトルwiの値は、例えば表410のような値に設定される。学習器403は、重みベクトルwiの絶対値を計算し、その絶対値の大きさでデータを並び替える。並び替えを行った結果、表411に示すように、特徴ベクトルx1の重みベクトルwiが最も大きな値となるため、優先度が最も高くなる。
次に、学習器403は、共起する勾配特徴量の組み合わせを選択する(ステップS102)。学習器403は、選択した組み合わせを組み合わせ辞書160に出力し、処理を終了する。
なお、学習器403は、組み合わせ辞書160及び重み付け値辞書170を逐次更新しても良い。例えば、図14(c)に例示するように、学習器403と、画像認識装置200とは、離れた場所に存在し、ネットワーク420を介して互いに接続している。学習器403が新たな画像を取り込み、組み合わせ辞書160又は重み付け値辞書170を更新した場合、これらの辞書データは、ネットワーク420経由で画像認識装置200に送られる。画像認識装置200は、新たな辞書データを受けると、組み合わせ辞書160又は重み付け値辞書170のデータを更新する。
次に、図15を参照しながら画像変換部110について説明する。画像変換部110は、取り込んだ画像の変換処理を行う。例えば、画像変換部110は、画像504を受け、画像サイズを縮小する変換処理を行う。ここに示す例では、画像変換部110は縮小した画像505および画像506を生成する。画像505は画像504よりも少ない画素数によって画像が構成されており、画像504はさらに少ない画素数によって画像が構成されている。
ところで、ウィンドウ計算部181に係るウィンドウ503は画像504〜画像506に対して一定のサイズで処理を行う。従って、図15に示すように、ウィンドウ503は、縮小された画像に対しては相対的に異なるサイズの画像を認識することができる。
次に、図16を参照しながらセル508について説明する。画像認識装置200は、取り込んだ画像505に対してウィンドウ503を移動させながら画像認識処理を行う。ウィンドウ503は複数のセル508により構成される。ここに示す例では、ウィンドウ503は8個のセルによって構成される。また、それぞれのセル508は、複数のブロック509により構成される。ここに示す例では、セル508は16個のブロック509により構成される。
このように、ウィンドウ503を複数のセルにより構成することにより、ウィンドウ503内の認識処理をセルごとに行うことができる。
次に図17及び図18を参照しながら画像認識装置200の処理の概要について説明する。図17は画像認識装置200が行う処理を例示したフローチャートである。実施の形態1において説明した内容と重複する処理については説明を省略する。まず、画像認識装置200は、複数のブロックに分割された画像300を取り込み、画像変換部110に入力する(ステップS10)。
次に、画像変換部110は、取り込んだ画像の変換処理を行う(ステップS40)。画像変換部110は、例えば図16に例示したように画像サイズを縮小する変換処理を行う。
次に、画像変換部110は、変換処理をした画像データを、勾配特徴演算部120に出力する。ステップS11、ステップS12の処理は実施の形態1において説明した内容と同様なのでここでは省略する。勾配特徴演算部120は演算結果であるバイナリデータをウィンドウ計算部181に出力する。
次に、ウィンドウ計算部181は、入力されたバイナリデータに基づき特徴抽出演算を行う(ステップS41)。ウィンドウ計算部181は、演算した結果生成された統計データを画像認識演算部151に出力する。画像認識演算部151は、ウィンドウ計算部181より出力された統計データを受け、識別演算を行う(ステップS42)。そして画像認識演算部151は、結果を画像認識装置200の外部へ出力する(ステップS43)。
次に、画像認識演算部151が行う処理の具体例について説明する。画像認識演算部151は、統計データ統合部141から出力されたデータを受け、画像認識演算を行う。その際、画像認識演算部151は、重み付け値辞書170のデータを参照する。重み付けの演算は、例えばSVMを用いることができる。例えば、統計データ統合部141から以下のような値がSVMの特徴ベクトルとして出力される。
x=[x1,x2,・・・,xm]
これに対して、重みベクトルwiは例えば以下のように定義される。
wi=[w1,w2,・・・,wm]
そして、以下の演算を行う。
演算の結果、f(x)が正の値であれば、ウィンドウ内に対象となる画像が含まれていることを示す。さらにその値が大きいほど対象となる画像が含まれているといえる。
x=[x1,x2,・・・,xm]
これに対して、重みベクトルwiは例えば以下のように定義される。
wi=[w1,w2,・・・,wm]
そして、以下の演算を行う。
演算の結果、f(x)が正の値であれば、ウィンドウ内に対象となる画像が含まれていることを示す。さらにその値が大きいほど対象となる画像が含まれているといえる。
次に図18を参照しながらウィンドウ計算部181において行われる特徴抽出演算処理について説明する。実施の形態1と同様に、ウィンドウ計算部181は、ウィンドウ503を移動させ、特徴抽出演算処理を繰り返す。このとき、ウィンドウ503起点となるブロックは、図16に示すように、ブロックm=0の位置からm=M−1の位置までx及びy方向に順次移動を繰り返すループ処理を行う(ステップS20)。
ウィンドウの位置を決定した後、セル計算部130は、ウィンドウ503内のセル508の位置を順次決定するループ処理を行う(ステップS51)。図16に示すように、セル508はセルn=0の位置からセルn=N−1の位置まで移動を繰り返す。
共起特徴演算部131は、セルの位置を決定した後、セル内のブロック509の位置を順次決定するループ処理を行う(ステップS21)。図16に示すように、ブロック509はブロックp=0の位置からブロックp=N−1の位置まで移動を繰り返す。
ブロックの位置を決定した後、共起特徴演算部131は、各ブロックにおける共起特徴量の演算を行う。ここで共起特徴演算部131、セル内において共起特徴量の有無の演算を行う。具体的には、実施の形態1において説明した内容と同様であるため、ステップS22〜ステップS26については、ここでの説明は省略する。
算術演算部132は、共起特徴演算部131が出力する共起特徴量であるバイナリデータを受け、p番目のブロックにおける共起特徴量を、組み合わせパタンごとに加算する(ステップS27)。算術演算部132は、p=P−1になるまで処理を繰り返した後、ループ処理を終了する(ステップS28)。
セル計算部130は、算術演算部132が出力したデータを統計データ生成部140へ入力し、セル内の統計データを生成する(ステップS52)。セル計算部130は、n=N−1になるまで処理を繰り返した後、ループ処理を終了する(ステップS53)。
ウィンドウ計算部181は、セル計算部130が出力した統計データを統計データ統合部141へ入力し、統計データを統合する(ステップS54)。ウィンドウ計算部181は、m=M−1になるまで処理を繰り返した後、ループ処理を終了する(ステップS30)。
このように、変換処理した画像について組み合わせ辞書に基づいて共起特徴量を演算することにより、短い処理時間で検知性能の高い画像認識装置を提供できる。
実施の形態3では、ウィンドウ内を複数のセルに分割するため、セルごとに異なる演算を行うことが可能となる。例えば、画像認識装置200は、ウィンドウ内におけるセルの位置に応じた組み合わせパタン辞書を備えることができる。また、画像認識装置200は、ウィンドウ内におけるセルの位置に応じた重み付け値辞書を備えることができる。
例えば、図16におけるウィンドウ503は画像内に人間が含まれるか否かを認識することを目的としているとする。その場合、ウィンドウ503に含まれる8個のセル508の内、上側に位置する4個のセル508は人間の上半身を認識することができればよい。その場合、共起特徴量としては、人間の上半身を認識するための組み合わせ辞書を適用すればよい。また、重み付けについても、人間の上半身を認識するための重み付けを行えばよい。
こうすることにより、辞書の記憶容量は増加するが、さらに短い処理時間で検知性能の高い画像認識装置を提供できる。
また、画像変換部110は、取り込んだ画像に対して対象となる画像が含まれる可能性が低い部分を削除する処理を行うこともできる。図15において、画像504の上部エリア500は、人間が含まれる可能性が低い。そのため、画像変換部110は、この部分をトリミング加工して出力することができる。
こうすることにより、短い処理時間の画像認識装置を提供できる。
また、算術演算部132は、セル内のブロック数の合計と、共起特徴量の組み合わせパタンの数の合計とを積算したビット数以上のデータを処理する演算器を備えることができる。図19を参照しながら、算術演算部132の例について説明する。図19は、ウィンドウが8個のセルに分割される。また、1個のセルは16個のブロックに分割される。この例では、共起特徴量の組み合わせパタンの数はd0からd7の8個である。この場合、ブロックごとに演算される共起特徴量は、x0y0ブロックに8ビット、x1y0ブロックに8ビットが少なくとも割り当てられる。ここに示す例では、セル内の全てのブロックについて共起特徴量を計算した場合、加算結果は最大で16になる。算術演算の16をバイナリデータで表す場合は、演算器510は5ビット以上あれば足りる。これを組み合わせパタンの数である8個分備えると、演算器510は40ビット以上となる。つまり、算術演算部132の演算器510は40ビット以上のビット配列を備える。そして算術演算部132は、これらのデータを加算する際、各ブロックにおける各組み合わせパタンの共起特徴量を順次演算することはしない。算術演算部132は、代わりにxiyjのブロックに示したように、40ビット以上(図19の例では48ビット)のビット配列を持つ演算器510を用意し、それぞれの組み合わせパタンに直接共起特徴量を加算する。
このような演算器510によって演算することにより、演算器510の桁数は増えるが、算術演算部の演算サイクルが削減され、高速な演算を行うことが可能となる。そのため、短い処理時間の画像認識装置を提供できる。
また、画像認識装置200は、ウィンドウの位置を移動するステップ数を多段階で処理することができる。図16において、ウィンドウ503は、起点ブロック502の位置を順次変更しながら共起特徴量の抽出を行う。このとき開始位置をブロックm=0として、x方向に例えば8ブロックずつ進め、ウィンドウが右端に到達するとy方向に1ブロック進める。すなわち、画像認識装置200は、第1のウィンドウ位置として、x方向に8ステップずつ進めたウィンドウについての画像認識処理を行う。画僧認識処理の結果、画像認識装置200は、対象となる画像が含まれる可能性が高いウィンドウを判定する。そして、画像認識装置200は、対象となる画像が含まれる可能性が高いと判定したウィンドウの近傍の複数のウィンドウについて、例えばx方向に1ブロックずつ位置を変更して画像認識処理を行う。
このような処理を行うことで、短い処理時間の画像認識装置を提供できる。
<実施の形態4>
次に、実施の形態4に係る画像認識システムについて説明する。尚、すでに説明した内容と重複する場合は説明を省略する。
次に、実施の形態4に係る画像認識システムについて説明する。尚、すでに説明した内容と重複する場合は説明を省略する。
図20は実施の形態4に係る画像認識システム600の機能ブロック図である。図21は実施の形態4に係る画像認識システム600のハードウェア構成である。図20、図21に示すように、画像認識システム600は実施の形態1に例示した画像認識装置100に加えカメラ900を備える。カメラ900は、撮像素子、レンズ、を備える。カメラ900は、画像を撮影すると、画像認識装置100に画像を転送する。カメラ900は通信バスによりCPU101、画像処理部102、画像バッファ103、主記憶部104と接続されている。CPU101はカメラを制御する制御部を備えていてもよい。
このようなシステムによって、短い処理時間で検知性能の高い画像認識システムを提供することができる。
以上、本発明者によってなされた発明を実施の形態に基づき具体的に説明したが、本発明は既に述べた実施の形態に限定されるものではなく、その要旨を逸脱しない範囲において種々の変更が可能であることはいうまでもない。
上記の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。
(付記1)
複数のブロックに分割した画像から前記複数のブロックごとに勾配特徴量を計算する勾配特徴演算部と、
前記勾配特徴量の組み合わせパタンを複数記憶する組み合わせパタン記憶部と、
複数のブロックにおける共起特徴量を前記組み合わせパタンごとに算出する共起特徴演算部と、
前記組み合わせパタンごとに前記共起特徴量を加算して加算値を算出する算術演算部と、
前記加算値から統計データを生成する統計データ生成部と、
前記画像に対して所定の大きさのウィンドウを定め、前記ウィンドウ内における前記統計データに基づき、前記ウィンドウ内に所定の画像が含まれるか否かを認識する画像認識演算部と、を備える、
画像認識装置。
(付記2)
前記勾配特徴量は輝度勾配の方向と輝度勾配の大きさとからなり、
前記輝度勾配の大きさは所定のしきい値に基づいて二値で表される、
付記1に記載の画像認識装置。
(付記3)
前記組み合わせパタンは、
第1のブロックにおける勾配特徴量と、第2のブロックにおける勾配特徴量との組み合わせである、
付記1に記載の画像認識装置。
(付記4)
前記組み合わせパタンは、
前記第1のブロックに対する前記第2のブロックの相対的な位置情報がさらに含まれる、
付記3に記載の画像認識装置。
(付記5)
前記ウィンドウはそれぞれが2以上のブロックを含む複数のセルに分割されており、
前記統計データ生成部はセルごとの統計データを生成し、
前記セルごとの統計データを前記ウィンドウ内で統合する統計データ統合部をさらに備える、
付記1に記載の画像認識装置。
(付記6)
前記画像認識装置は、重み付け値を記憶する重み付け値記憶部をさらに備え、
前記画像認識演算部は、前記統計データと前記重み付け値とに基づき、前記ウィンドウ内に所定の画像が含まれるか否かを認識する、
付記5に記載の画像認識装置。
(付記7)
前記重み付け値記憶部には、サポートベクターマシーンの重みベクトルとバイアスが格納され、
前記画像認識演算部はサポートベクターマシーンを含む、
付記6に記載の画像認識装置。
(付記8)
前記画像認識装置は、
取り込んだ前記画像を複数のサイズに縮小変換する画像変換部をさらに備える、
付記5に記載の画像認識装置。
(付記9)
前記組み合わせパタン記憶部または前記重み付け値記憶部は、前記ウィンドウ内における前記セルの位置に応じた組み合わせパタンまたは重み付け値を記憶する、
付記6に記載の画像認識装置。
(付記10)
前記画像認識装置は、
取り込んだ前記画像にトリミング処理を行う画像変換部をさらに備える、
付記1に記載の画像認識装置。
(付記11)
前記算術演算部は、前記セル内のブロック数の合計と、前記共起特徴量の組み合わせパタンの数とを積算したビット数以上のデータを処理する演算器を備える、
付記5に記載の画像認識装置。
(付記12)
カメラと、
複数のブロックに分割した画像から前記複数のブロックごとに勾配特徴量を計算する勾配特徴演算部と、
前記勾配特徴量の組み合わせパタンを複数記憶する組み合わせパタン記憶部と、
複数のブロックにおける共起特徴量を前記組み合わせパタンごとに算出する共起特徴演算部と、
前記複数のブロックごとに算出された前記共起特徴量を前記組み合わせパタンごとに加算して加算値を算出する算術演算部と、
前記加算値から統計データを生成する統計データ生成部と、
前記画像に対して所定の大きさのウィンドウを定め、前記ウィンドウ内における前記統計データに基づき、前記ウィンドウ内に所定の画像が含まれるか否かを認識する画像認識演算部と、を備える、
画像認識システム。
(付記13)
前記勾配特徴量は輝度勾配の方向と輝度勾配の大きさとからなり、
前記輝度勾配の大きさは所定のしきい値に基づいて二値で処理される、
付記12に記載の画像認識システム。
(付記14)
画像認識装置によって実行される画像認識方法であって、
複数のブロックに分割した画像から前記複数のブロックごとに勾配特徴量を計算し、
前記勾配特徴量の組み合わせパタンを複数記憶する記憶部から読み出し、
複数のブロックにおける共起特徴量を読み出した前記組み合わせパタンごとに算出し、
前記組み合わせパタンごとに前記共起特徴量を加算して加算値を算出し、
前記加算値から統計データを生成し、
前記画像に対して所定の大きさのウィンドウを定め、該ウィンドウ内における前記統計データに基づき、前記ウィンドウ内に所定の画像が含まれるか否かを認識する、
画像認識方法。
(付記15)
前記勾配特徴量は輝度勾配の方向と輝度勾配の大きさとからなり、
前記輝度勾配の大きさは所定のしきい値に基づいて二値で表される、
付記14に記載の画像認識方法。
(付記16)
前記組み合わせパタンは、
第1のブロックにおける勾配特徴量と、第2のブロックにおける勾配特徴量との組み合わせである、
付記14に記載の画像認識方法。
(付記17)
前記組み合わせパタンは、
前記第1のブロックに対する前記第2のブロックの相対的な位置情報がさらに含まれる、
付記16に記載の画像認識方法。
(付記18)
前記ウィンドウはそれぞれが2以上のブロックを含む複数のセルに分割されており、
前記統計データはセルごとの統計データとして生成されており、
前記セルごとの統計データを前記ウィンドウ内で統合する、
付記14に記載の画像認識方法。
(付記19)
前記画像認識装置は、重み付け値を記憶する重み付け値記憶部を備え、
前記画像認識方法は、
前記重み付け値を前記記憶部から読み出し、
前記統計データと前記重み付け値とに基づき、前記ウィンドウ内に所定の画像が含まれるか否かを認識する、
付記18に記載の画像認識方法。
(付記20)
前記重み付け値はサポートベクターマシーンの重みベクトルとバイアスであり、
前記統計データと前記重み付け値とに基づき、サポートベクターマシーンを用いて前記ウィンドウ内に所定の画像が含まれるか否かを認識する、
付記19に記載の画像認識方法。
(付記21)
前記組み合わせパタンまたは前記重み付け値は、前記ウィンドウ内における前記セルの位置に応じた組み合わせパタンまたは重み付け値である、
付記18に記載の画像認識方法。
(付記22)
前記画像認識方法は、
取り込んだ前記画像にトリミング処理を行う、
付記14に記載の画像認識方法。
(付記23)
前記画像認識方法は、
取り込んだ前記画像を複数のサイズに縮小変換する、
付記14に記載の画像認識方法。
(付記24)
(A)複数のウィンドウにおいて付記14に記載の画像認識処理を行い、
(B)(A)の結果に基づいてウィンドウの位置を決定し、
(C)決定されたウィンドウ位置の近傍の複数のウィンドウに対して付記14に記載の画像認識処理を行い、
(D)(C)の結果に基づいて所定の画像が含まれるか否かを認識する、
画像認識方法。
(付記25)
前記共起特徴量をブロックごとに計算し、
前記ブロックの前記共起特徴量を、前記共起特徴量の組み合わせごとに逐次加算し統計データを生成する、
付記18に記載の画像認識方法。
(付記1)
複数のブロックに分割した画像から前記複数のブロックごとに勾配特徴量を計算する勾配特徴演算部と、
前記勾配特徴量の組み合わせパタンを複数記憶する組み合わせパタン記憶部と、
複数のブロックにおける共起特徴量を前記組み合わせパタンごとに算出する共起特徴演算部と、
前記組み合わせパタンごとに前記共起特徴量を加算して加算値を算出する算術演算部と、
前記加算値から統計データを生成する統計データ生成部と、
前記画像に対して所定の大きさのウィンドウを定め、前記ウィンドウ内における前記統計データに基づき、前記ウィンドウ内に所定の画像が含まれるか否かを認識する画像認識演算部と、を備える、
画像認識装置。
(付記2)
前記勾配特徴量は輝度勾配の方向と輝度勾配の大きさとからなり、
前記輝度勾配の大きさは所定のしきい値に基づいて二値で表される、
付記1に記載の画像認識装置。
(付記3)
前記組み合わせパタンは、
第1のブロックにおける勾配特徴量と、第2のブロックにおける勾配特徴量との組み合わせである、
付記1に記載の画像認識装置。
(付記4)
前記組み合わせパタンは、
前記第1のブロックに対する前記第2のブロックの相対的な位置情報がさらに含まれる、
付記3に記載の画像認識装置。
(付記5)
前記ウィンドウはそれぞれが2以上のブロックを含む複数のセルに分割されており、
前記統計データ生成部はセルごとの統計データを生成し、
前記セルごとの統計データを前記ウィンドウ内で統合する統計データ統合部をさらに備える、
付記1に記載の画像認識装置。
(付記6)
前記画像認識装置は、重み付け値を記憶する重み付け値記憶部をさらに備え、
前記画像認識演算部は、前記統計データと前記重み付け値とに基づき、前記ウィンドウ内に所定の画像が含まれるか否かを認識する、
付記5に記載の画像認識装置。
(付記7)
前記重み付け値記憶部には、サポートベクターマシーンの重みベクトルとバイアスが格納され、
前記画像認識演算部はサポートベクターマシーンを含む、
付記6に記載の画像認識装置。
(付記8)
前記画像認識装置は、
取り込んだ前記画像を複数のサイズに縮小変換する画像変換部をさらに備える、
付記5に記載の画像認識装置。
(付記9)
前記組み合わせパタン記憶部または前記重み付け値記憶部は、前記ウィンドウ内における前記セルの位置に応じた組み合わせパタンまたは重み付け値を記憶する、
付記6に記載の画像認識装置。
(付記10)
前記画像認識装置は、
取り込んだ前記画像にトリミング処理を行う画像変換部をさらに備える、
付記1に記載の画像認識装置。
(付記11)
前記算術演算部は、前記セル内のブロック数の合計と、前記共起特徴量の組み合わせパタンの数とを積算したビット数以上のデータを処理する演算器を備える、
付記5に記載の画像認識装置。
(付記12)
カメラと、
複数のブロックに分割した画像から前記複数のブロックごとに勾配特徴量を計算する勾配特徴演算部と、
前記勾配特徴量の組み合わせパタンを複数記憶する組み合わせパタン記憶部と、
複数のブロックにおける共起特徴量を前記組み合わせパタンごとに算出する共起特徴演算部と、
前記複数のブロックごとに算出された前記共起特徴量を前記組み合わせパタンごとに加算して加算値を算出する算術演算部と、
前記加算値から統計データを生成する統計データ生成部と、
前記画像に対して所定の大きさのウィンドウを定め、前記ウィンドウ内における前記統計データに基づき、前記ウィンドウ内に所定の画像が含まれるか否かを認識する画像認識演算部と、を備える、
画像認識システム。
(付記13)
前記勾配特徴量は輝度勾配の方向と輝度勾配の大きさとからなり、
前記輝度勾配の大きさは所定のしきい値に基づいて二値で処理される、
付記12に記載の画像認識システム。
(付記14)
画像認識装置によって実行される画像認識方法であって、
複数のブロックに分割した画像から前記複数のブロックごとに勾配特徴量を計算し、
前記勾配特徴量の組み合わせパタンを複数記憶する記憶部から読み出し、
複数のブロックにおける共起特徴量を読み出した前記組み合わせパタンごとに算出し、
前記組み合わせパタンごとに前記共起特徴量を加算して加算値を算出し、
前記加算値から統計データを生成し、
前記画像に対して所定の大きさのウィンドウを定め、該ウィンドウ内における前記統計データに基づき、前記ウィンドウ内に所定の画像が含まれるか否かを認識する、
画像認識方法。
(付記15)
前記勾配特徴量は輝度勾配の方向と輝度勾配の大きさとからなり、
前記輝度勾配の大きさは所定のしきい値に基づいて二値で表される、
付記14に記載の画像認識方法。
(付記16)
前記組み合わせパタンは、
第1のブロックにおける勾配特徴量と、第2のブロックにおける勾配特徴量との組み合わせである、
付記14に記載の画像認識方法。
(付記17)
前記組み合わせパタンは、
前記第1のブロックに対する前記第2のブロックの相対的な位置情報がさらに含まれる、
付記16に記載の画像認識方法。
(付記18)
前記ウィンドウはそれぞれが2以上のブロックを含む複数のセルに分割されており、
前記統計データはセルごとの統計データとして生成されており、
前記セルごとの統計データを前記ウィンドウ内で統合する、
付記14に記載の画像認識方法。
(付記19)
前記画像認識装置は、重み付け値を記憶する重み付け値記憶部を備え、
前記画像認識方法は、
前記重み付け値を前記記憶部から読み出し、
前記統計データと前記重み付け値とに基づき、前記ウィンドウ内に所定の画像が含まれるか否かを認識する、
付記18に記載の画像認識方法。
(付記20)
前記重み付け値はサポートベクターマシーンの重みベクトルとバイアスであり、
前記統計データと前記重み付け値とに基づき、サポートベクターマシーンを用いて前記ウィンドウ内に所定の画像が含まれるか否かを認識する、
付記19に記載の画像認識方法。
(付記21)
前記組み合わせパタンまたは前記重み付け値は、前記ウィンドウ内における前記セルの位置に応じた組み合わせパタンまたは重み付け値である、
付記18に記載の画像認識方法。
(付記22)
前記画像認識方法は、
取り込んだ前記画像にトリミング処理を行う、
付記14に記載の画像認識方法。
(付記23)
前記画像認識方法は、
取り込んだ前記画像を複数のサイズに縮小変換する、
付記14に記載の画像認識方法。
(付記24)
(A)複数のウィンドウにおいて付記14に記載の画像認識処理を行い、
(B)(A)の結果に基づいてウィンドウの位置を決定し、
(C)決定されたウィンドウ位置の近傍の複数のウィンドウに対して付記14に記載の画像認識処理を行い、
(D)(C)の結果に基づいて所定の画像が含まれるか否かを認識する、
画像認識方法。
(付記25)
前記共起特徴量をブロックごとに計算し、
前記ブロックの前記共起特徴量を、前記共起特徴量の組み合わせごとに逐次加算し統計データを生成する、
付記18に記載の画像認識方法。
100、200 画像認識装置
101、201 CPU
102、202 画像処理部
103 画像バッファ
104、204 主記憶部
105 画像取得部
110 画像変換部
120 勾配特徴演算部
130 セル計算部
131 共起特徴演算部
132 算術演算部
140 統計データ生成部
141 統計データ統合部
150、151 画像認識演算部
160、161 組み合わせ辞書
170 重み付け値辞書
180、181 ウィンドウ計算部
510 演算器
600 画像認識システム
800 辞書取得部
900 カメラ
101、201 CPU
102、202 画像処理部
103 画像バッファ
104、204 主記憶部
105 画像取得部
110 画像変換部
120 勾配特徴演算部
130 セル計算部
131 共起特徴演算部
132 算術演算部
140 統計データ生成部
141 統計データ統合部
150、151 画像認識演算部
160、161 組み合わせ辞書
170 重み付け値辞書
180、181 ウィンドウ計算部
510 演算器
600 画像認識システム
800 辞書取得部
900 カメラ
Claims (20)
- 複数のブロックに分割した画像から前記複数のブロックごとに勾配特徴量を計算する勾配特徴演算部と、
前記勾配特徴量の組み合わせパタンを複数記憶する組み合わせパタン記憶部と、
複数のブロックにおける共起特徴量を前記組み合わせパタンごとに算出する共起特徴演算部と、
前記組み合わせパタンごとに前記共起特徴量を加算して加算値を算出する算術演算部と、
前記加算値から統計データを生成する統計データ生成部と、
前記画像に対して所定の大きさのウィンドウを定め、前記ウィンドウ内における前記統計データに基づき、前記ウィンドウ内に所定の画像が含まれるか否かを認識する画像認識演算部と、を備える、
画像認識装置。 - 前記勾配特徴量は輝度勾配の方向と輝度勾配の大きさとからなり、
前記輝度勾配の大きさは所定のしきい値に基づいて二値で表される、
請求項1に記載の画像認識装置。 - 前記組み合わせパタンは、
第1のブロックにおける勾配特徴量と、第2のブロックにおける勾配特徴量との組み合わせである、
請求項1に記載の画像認識装置。 - 前記組み合わせパタンは、
前記第1のブロックに対する前記第2のブロックの相対的な位置情報がさらに含まれる、
請求項3に記載の画像認識装置。 - 前記ウィンドウはそれぞれが2以上のブロックを含む複数のセルに分割されており、
前記統計データ生成部はセルごとの統計データを生成し、
前記セルごとの統計データを前記ウィンドウ内で統合する統計データ統合部をさらに備える、
請求項1に記載の画像認識装置。 - 前記画像認識装置は、重み付け値を記憶する重み付け値記憶部をさらに備え、
前記画像認識演算部は、前記統計データと前記重み付け値とに基づき、前記ウィンドウ内に所定の画像が含まれるか否かを認識する、
請求項5に記載の画像認識装置。 - 前記重み付け値記憶部には、サポートベクターマシーンの重みベクトルとバイアスが格納され、
前記画像認識演算部はサポートベクターマシーンを含む、
請求項6に記載の画像認識装置。 - 前記画像認識装置は、
取り込んだ前記画像を複数のサイズに縮小変換する画像変換部をさらに備える、
請求項5に記載の画像認識装置。 - 前記組み合わせパタン記憶部または前記重み付け値記憶部は、前記ウィンドウ内における前記セルの位置に応じた組み合わせパタンまたは重み付け値を記憶する、
請求項6に記載の画像認識装置。 - 前記画像認識装置は、
取り込んだ前記画像にトリミング処理を行う画像変換部をさらに備える、
請求項1に記載の画像認識装置。 - 前記算術演算部は、前記セル内のブロック数の合計と、前記共起特徴量の組み合わせパタンの数とを積算したビット数以上のデータを処理する演算器を備える、
請求項5に記載の画像認識装置。 - カメラと、
複数のブロックに分割した画像から前記複数のブロックごとに勾配特徴量を計算する勾配特徴演算部と、
前記勾配特徴量の組み合わせパタンを複数記憶する組み合わせパタン記憶部と、
複数のブロックにおける共起特徴量を前記組み合わせパタンごとに算出する共起特徴演算部と、
前記複数のブロックごとに算出された前記共起特徴量を前記組み合わせパタンごとに加算して加算値を算出する算術演算部と、
前記加算値から統計データを生成する統計データ生成部と、
前記画像に対して所定の大きさのウィンドウを定め、前記ウィンドウ内における前記統計データに基づき、前記ウィンドウ内に所定の画像が含まれるか否かを認識する画像認識演算部と、を備える、
画像認識システム。 - 前記勾配特徴量は輝度勾配の方向と輝度勾配の大きさとからなり、
前記輝度勾配の大きさは所定のしきい値に基づいて二値で処理される、
請求項12に記載の画像認識システム。 - 画像認識装置によって実行される画像認識方法であって、
複数のブロックに分割した画像から前記複数のブロックごとに勾配特徴量を計算し、
前記勾配特徴量の組み合わせパタンを複数記憶する記憶部から読み出し、
複数のブロックにおける共起特徴量を読み出した前記組み合わせパタンごとに算出し、
前記組み合わせパタンごとに前記共起特徴量を加算して加算値を算出し、
前記加算値から統計データを生成し、
前記画像に対して所定の大きさのウィンドウを定め、該ウィンドウ内における前記統計データに基づき、前記ウィンドウ内に所定の画像が含まれるか否かを認識する、
画像認識方法。 - 前記勾配特徴量は輝度勾配の方向と輝度勾配の大きさとからなり、
前記輝度勾配の大きさは所定のしきい値に基づいて二値で表される、
請求項14に記載の画像認識方法。 - 前記組み合わせパタンは、
第1のブロックにおける勾配特徴量と、第2のブロックにおける勾配特徴量との組み合わせである、
請求項14に記載の画像認識方法。 - 前記組み合わせパタンは、
前記第1のブロックに対する前記第2のブロックの相対的な位置情報がさらに含まれる、
請求項16に記載の画像認識方法。 - 前記ウィンドウはそれぞれが2以上のブロックを含む複数のセルに分割されており、
前記統計データはセルごとの統計データとして生成されており、
前記セルごとの統計データを前記ウィンドウ内で統合する、
請求項14に記載の画像認識方法。 - 前記画像認識装置は、重み付け値を記憶する重み付け値記憶部を備え、
前記画像認識方法は、
前記重み付け値を前記記憶部から読み出し、
前記統計データと前記重み付け値とに基づき、前記ウィンドウ内に所定の画像が含まれるか否かを認識する、
請求項18に記載の画像認識方法。 - (A)複数のウィンドウにおいて請求項14に記載の画像認識処理を行い、
(B)(A)の結果に基づいてウィンドウの位置を決定し、
(C)決定されたウィンドウ位置の近傍の複数のウィンドウに対して請求項14に記載の画像認識処理を行い、
(D)(C)の結果に基づいて所定の画像が含まれるか否かを認識する、
画像認識方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016152688A JP2018022315A (ja) | 2016-08-03 | 2016-08-03 | 画像認識装置、画像認識システム、及び画像認識方法 |
US15/600,741 US20180039858A1 (en) | 2016-08-03 | 2017-05-21 | Image recognition apparatus, image recognition system, and image recognition method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016152688A JP2018022315A (ja) | 2016-08-03 | 2016-08-03 | 画像認識装置、画像認識システム、及び画像認識方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018022315A true JP2018022315A (ja) | 2018-02-08 |
Family
ID=61069380
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016152688A Pending JP2018022315A (ja) | 2016-08-03 | 2016-08-03 | 画像認識装置、画像認識システム、及び画像認識方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20180039858A1 (ja) |
JP (1) | JP2018022315A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019212284A (ja) * | 2018-06-04 | 2019-12-12 | 株式会社デンソー | 特徴量抽出装置、特徴量抽出方法、および物体認識装置 |
-
2016
- 2016-08-03 JP JP2016152688A patent/JP2018022315A/ja active Pending
-
2017
- 2017-05-21 US US15/600,741 patent/US20180039858A1/en not_active Abandoned
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019212284A (ja) * | 2018-06-04 | 2019-12-12 | 株式会社デンソー | 特徴量抽出装置、特徴量抽出方法、および物体認識装置 |
JP7322418B2 (ja) | 2018-06-04 | 2023-08-08 | 株式会社デンソー | 特徴量抽出装置、特徴量抽出方法、および物体認識装置 |
Also Published As
Publication number | Publication date |
---|---|
US20180039858A1 (en) | 2018-02-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109740534B (zh) | 图像处理方法、装置及处理设备 | |
US8693785B2 (en) | Image matching devices and image matching methods thereof | |
WO2016054779A1 (en) | Spatial pyramid pooling networks for image processing | |
JP6393058B2 (ja) | 情報処理装置、情報処理方法 | |
US11157749B2 (en) | Crowd state recognition device, learning method, and learning program | |
CN110097050B (zh) | 行人检测方法、装置、计算机设备及存储介质 | |
JP2011138388A (ja) | データ補正装置及び方法 | |
JP2011086266A (ja) | 特徴点位置決め装置、画像認識装置、その処理方法及びプログラム | |
JP2010165046A (ja) | 情報処理装置及び情報処理方法 | |
KR20170103472A (ko) | 허프 변환을 이용한 하드웨어 기반 원 검출 장치 및 방법 | |
WO2014023338A1 (en) | A method of providing a feature descriptor for describing at least one feature of an object representation | |
JP2020135465A (ja) | 学習装置、学習方法、プログラムおよび認識装置 | |
CN115861675A (zh) | 对象分类方法和设备 | |
US20210366129A1 (en) | Image processing apparatus, image processing method, and storage medium | |
KR20190133548A (ko) | 인공 신경망 장치 및 그 동작 방법 | |
US10713479B2 (en) | Motion recognition method and motion recognition device for recognizing motion of user received via NUI device by comparing with preset comparison target information | |
JP2018022315A (ja) | 画像認識装置、画像認識システム、及び画像認識方法 | |
US20220180531A1 (en) | Method and apparatus with object tracking using dynamic field of view | |
US11715216B2 (en) | Method and apparatus with object tracking | |
US11288534B2 (en) | Apparatus and method for image processing for machine learning | |
JP2019095975A (ja) | 追跡装置及び追跡プログラム | |
US12073643B2 (en) | Machine learning apparatus, machine learning method, and computer-readable recording medium | |
WO2015129152A1 (ja) | 画像認識システムおよび半導体集積回路 | |
JP2022554126A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP6210856B2 (ja) | 対象物位置特定システム、および対象物位置特定方法 |