JP2008152611A - Image recognition device, electronic equipment, image recognition method, and image recognition program - Google Patents
Image recognition device, electronic equipment, image recognition method, and image recognition program Download PDFInfo
- Publication number
- JP2008152611A JP2008152611A JP2006340864A JP2006340864A JP2008152611A JP 2008152611 A JP2008152611 A JP 2008152611A JP 2006340864 A JP2006340864 A JP 2006340864A JP 2006340864 A JP2006340864 A JP 2006340864A JP 2008152611 A JP2008152611 A JP 2008152611A
- Authority
- JP
- Japan
- Prior art keywords
- feature amount
- image data
- image
- binarization
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
本発明は、画像に写っているオブジェクトを認識する画像認識技術に関する。 The present invention relates to an image recognition technique for recognizing an object shown in an image.
従来、顔が写った顔画像に対する顔認識技術には、肌色など顔特有の色情報や輪郭線な
ど顔の部品(目や鼻、口、眉など)に関する情報を特徴量として顔認識を行う技術や(例
えば、特許文献1及び2参照)、顔画像に対して周波数解析を行って特徴量を抽出し顔認
識を行う技術(例えば、特許文献3参照)などの種々の技術が提案されている。
さらに近年では、顔画像から抽出した顔の特徴量に基づく認識精度をより高めるために
、サポートベクトルマシン等のニューラルネットワークやブースティング手法等の高度な
学習方法を認識処理に付加することで顔の認識率を高めており、これにより、セキュリテ
ィシステム等の高い認識精度が要求されるアプリケーション分野での実用を可能にしてい
る。
Conventionally, face recognition technology for facial images with a face is a technology that performs face recognition using face-specific color information such as skin color and information about facial parts (such as eyes, nose, mouth, and eyebrows) such as contour lines as feature quantities. (For example, refer to
In recent years, in order to further improve the recognition accuracy based on facial features extracted from facial images, advanced learning methods such as neural networks such as support vector machines and boosting techniques are added to the recognition process. The recognition rate is increased, which enables practical use in application fields such as security systems that require high recognition accuracy.
一方、文字パターンを認識する文字パターン認識技術が古くから研究されており、19
70年代には既に郵便番号の読み取り技術への応用が成されている。その当時は、計算能
力に乏しいハードウェアを用いて文字パターンを認識する必要があったため、アルゴリズ
ムが簡単であり、かつ、高い認識率を実現可能な手法が検討されている。この手法として
、文字線の方向寄与度特徴量を用いた技術が提案されており、手書き文字でも高精度な認
識を可能にし、認識性能評価や各種手法のリファレンスにも使用されている(例えば、特
許文献4及び非特許文献1参照)。
In the 1970s, it was already applied to postal code reading technology. At that time, it was necessary to recognize character patterns using hardware that lacked computing power, so methods that are simple and that can achieve a high recognition rate are being studied. As this technique, a technique using a character line direction contribution feature amount has been proposed, which enables highly accurate recognition even with handwritten characters, and is used for recognition performance evaluation and various technique references (for example, (See
ところで、上記顔認識技術は、高精度な顔認識が可能であるものの、計算アルゴリズム
が複雑であり、処理能力が制限されるデジタルカメラやPDAなどの小型の電子機器が処
理することは困難であり、専用の装置が必要となる。一方、文字パターンの認識技術は、
処理能力の低いハードウェアを用いて処理可能な計算アルゴリズムが提供可能であるもの
の、この認識技術を用いて、複雑な線分を多く含む顔の認識を行うことは困難である。
本発明は、上述した事情に鑑みてなされたものであり、高速、かつ、精度良く画像に写
った複雑なオブジェクトを認識可能な画像認識装置、電子機器、画像認識方法及び画像認
識プログラムを提供することを目的とする。
By the way, although the above face recognition technology enables high-accuracy face recognition, the calculation algorithm is complicated and it is difficult for a small electronic device such as a digital camera or PDA whose processing capability is limited to process. A dedicated device is required. On the other hand, character pattern recognition technology
Although it is possible to provide a calculation algorithm that can be processed using hardware with low processing capability, it is difficult to recognize a face containing many complex line segments using this recognition technique.
The present invention has been made in view of the above-described circumstances, and provides an image recognition apparatus, an electronic device, an image recognition method, and an image recognition program capable of recognizing a complex object captured in an image with high speed and high accuracy. For the purpose.
〔形態1〕 上記目的を達成するために、形態1の画像認識装置は、オブジェクトが含
まれるオブジェクト画像データを入力する画像入力部と、前記画像入力部により入力され
た前記オブジェクト画像データを構成するそれぞれの画素を、所定の輝度閾値を用いて二
値化する二値化部と、前記二値化部により二値化されたオブジェクト画像データの所定領
域に含まれる輪郭線の方向寄与度特徴量である局所的方向寄与度特徴量を算出する特徴量
算出部と、前記特徴量算出部により算出された前記局所的方向寄与度特徴量に基づいて、
前記オブジェクト画像データに含まれるオブジェクトを認識する認識部とを備えたことを
特徴とする。
[Mode 1] In order to achieve the above object, an image recognition apparatus according to
And a recognition unit for recognizing an object included in the object image data.
このような構成によれば、オブジェクト画像データが二値化によって単純化されるため
、複雑な線分を多く含むオブジェクト画像の認識にも方向寄与度特徴量を用いたアルゴリ
ズムを用いることが可能となり、画像に写った複雑なオブジェクトを簡単な処理で高速に
、かつ、精度良く認識することが可能となる。
ここで、オブジェクトとは画像認識の対象物を意味し、顔、動物、車や花瓶といった物
体等、画像認識の対象となるものであればどのようなものでもよい。
また、方向寄与度特徴量とは、線分の方向情報を抽出してなる特徴であり、例えば、あ
る画素が水平方向、右斜め45度方向、垂直方向、左斜め45度方向の4方向について、
対象画素がどの程度連続しているかを示す特徴量である。これにより、線分の方向や接続
関係等の幾何学的形状を定量的に求めることができる。
また、画像入力部は、オブジェクト画像データを入力するようになっていればどのよう
な構成であってもよく、例えば、入力装置等からオブジェクト画像データを入力してもよ
いし、外部の装置等からオブジェクト画像データを獲得(取得)または受信してもよいし
、記憶装置や記憶媒体等からオブジェクト画像データを読み出してもよい。したがって、
入力には、少なくとも、獲得、受信および読出が含まれる。
According to such a configuration, since the object image data is simplified by binarization, it is possible to use an algorithm using the direction contribution feature amount for recognizing an object image including many complex line segments. Thus, it is possible to recognize a complex object in an image at high speed and with high accuracy by simple processing.
Here, the object means an object for image recognition, and any object may be used for image recognition, such as a face, an animal, an object such as a car or a vase.
Further, the direction contribution feature amount is a feature obtained by extracting the direction information of the line segment. For example, a certain pixel has four directions of a horizontal direction, a right oblique 45 degree direction, a vertical direction, and a left oblique 45 degree direction. ,
This is a feature amount indicating how long the target pixel is continuous. Thereby, the geometric shape such as the direction of the line segment and the connection relation can be quantitatively obtained.
The image input unit may have any configuration as long as it can input object image data. For example, the image input unit may input object image data from an input device, an external device, or the like. The object image data may be acquired (acquired) or received from the image data, or the object image data may be read from a storage device or a storage medium. Therefore,
Input includes at least acquisition, reception and reading.
〔形態2〕 さらに、形態2の画像認識装置は、形態1の画像認識装置において、二値
化した前記オブジェクト画像データを構成するそれぞれの画素について、有効画素を縦列
又は/及び横列ごとに積算してなる射影の分布に応じて前記輝度閾値を変えることを特徴
とする。
この構成によれば、オブジェクト画像の線分の複雑さが、オブジェクト画像データを構
成するそれぞれの画素について有効画素を縦列又は/及び横列ごとに積算してなる射影の
分布として求められる。そして、求めた射影の分布に応じて、ニ値化の輝度閾値を変える
ことにより、様々なオブジェクト画像データに対して、局所的方向寄与度特徴量を算出す
るのに好適な輝度閾値を用いてニ値化を行うことができる。
ここで、有効画素とは、ニ値化により、その画素が有効と判断された画素を意味する。
例えば、黒を有効、白を無効とした場合、黒画素を意味する。ここで、黒、白以外の異な
る2色を用いたニ値化においても有効画素の概念を適用できることはもちろんである。
[Mode 2] Furthermore, the image recognition apparatus according to
According to this configuration, the complexity of the line segment of the object image is obtained as a projection distribution obtained by accumulating effective pixels for each column or / and row for each pixel constituting the object image data. Then, by changing the binarization luminance threshold according to the obtained projection distribution, a luminance threshold suitable for calculating the local direction contribution feature amount is used for various object image data. Binarization can be performed.
Here, the effective pixel means a pixel in which the pixel is determined to be effective by binarization.
For example, when black is valid and white is invalid, it means a black pixel. Here, it goes without saying that the concept of effective pixels can also be applied to binarization using two different colors other than black and white.
〔形態3〕 さらに、形態3の画像認識装置は、形態2の画像認識装置において、前記
二値化部は、前記射影の分布の状態を定量化するエントロピを算出し、算出されたエント
ロピに応じて前記輝度閾値を変えることを特徴とする。この構成によれば、上記射影の分
布の複雑さをエントロピとして定量化し、二値化の際の輝度閾値をエントロピの値に応じ
て適切に設定することが可能となる。
[Mode 3] Further, in the image recognition device according to
〔形態4〕 さらに、形態4の画像認識装置は、形態1ないし形態3のいずれか1の画
像認識装置において、前記二値化部は、前記オブジェクト画像データに対する二値化に先
立って、或いは、二値化後に、線分を平滑化するフィルタ処理を施し、前記特徴量算出部
は、前記二値化部により二値化及びフィルタ処理が施されたオブジェクト画像データにつ
いて前記局所的方向寄与度特徴量を算出することを特徴とする。
この構成によれば、オブジェクト画像データの線分がフィルタ処理により平滑化される
ため、撮影環境が悪く二値化だけでは十分に単純化できず、局所的方向寄与度特徴量の算
出が困難なオブジェクト画像についても局所的方向寄与度特徴量を安定的に算出すること
が可能となる。
[Mode 4] Furthermore, the image recognition device according to
According to this configuration, since the line segment of the object image data is smoothed by the filtering process, the photographing environment is bad and the binarization alone cannot be sufficiently simplified, and it is difficult to calculate the local direction contribution feature quantity. It is also possible to stably calculate the local direction contribution feature amount for the object image.
〔形態5〕 さらに、形態5の画像認識装置は、形態1ないし形態4のいずれか1の画
像認識装置において、前記オブジェクトは顔であり、異なる複数の顔ごとの前記局所的方
向寄与度特徴量を含む顔認識用辞書データを記憶する記憶部を有し、前記認識部は、前記
オブジェクト画像データに含まれる顔について前記特徴量算出部によって算出された局所
的方向寄与度特徴量と、前記記憶部に記憶された顔認識用辞書データに含まれる局所的方
向寄与度特徴量とに基づいて、前記オブジェクト画像データに含まれる顔を認識すること
を特徴とする。 この構成によれば、複雑な線分を多く含む顔の画像に対し、簡単な処理
で高速かつ高精度に顔認識を行うことが可能となる。
ここで、顔とは、人物、動物、あるいはそれらを模したロボット等の顔に相当するオブ
ジェクトを意味する。
[Mode 5] Furthermore, the image recognition device according to mode 5 is the image recognition device according to any one of
Here, the face means an object corresponding to a face such as a person, an animal, or a robot imitating them.
〔形態6〕 さらに、形態6の電子機器は、形態1ないし5のいずれか1の画像認識装
置を備えたことを特徴とする。
この構成によれば、画像認識の機能を備える電子機器を提供することができる。
ここで、電子機器とは、カメラ、スキャナ、プロジェクタ、テレビ、プリンタ等、あら
ゆる電子機器を想定することができる。
[Mode 6] Further, an electronic device according to mode 6 includes the image recognition device according to any one of
According to this configuration, an electronic device having an image recognition function can be provided.
Here, the electronic device may be any electronic device such as a camera, a scanner, a projector, a television, or a printer.
〔形態7〕 さらに、形態7の画像認識方法は、オブジェクトが含まれるオブジェクト
画像データを入力する画像入力工程と、前記画像入力工程により入力された前記オブジェ
クト画像データを構成するそれぞれの画素を、所定の輝度閾値を用いて二値化する二値化
工程と、前記二値化工程により二値化されたオブジェクト画像データの所定領域に含まれ
る輪郭線の方向寄与度特徴量である局所的方向寄与度特徴量を算出する特徴量算出工程と
、前記特徴量算出工程により算出された前記局所的方向寄与度特徴量に基づいて、前記オ
ブジェクト画像データに含まれるオブジェクトを認識する認識工程とを有することを特徴
としている。
これにより、形態1の画像認識装置と同等の効果が得られる。
[Mode 7] Furthermore, in the image recognition method according to mode 7, an image input step for inputting object image data including an object and each pixel constituting the object image data input by the image input step A binarization step that binarizes using a luminance threshold of the image, and a local direction contribution that is a direction contribution degree feature amount of a contour line included in a predetermined region of the object image data binarized by the binarization step A feature amount calculation step for calculating a degree feature amount, and a recognition step for recognizing an object included in the object image data based on the local direction contribution feature amount calculated by the feature amount calculation step. It is characterized by.
Thereby, an effect equivalent to that of the image recognition apparatus according to
〔形態8〕 さらに、形態8の画像認識プログラムは、コンピュータを、オブジェクト
が含まれるオブジェクト画像データを入力する画像入力手段と、前記画像入力手段により
入力された前記オブジェクト画像データを構成するそれぞれの画素を、所定の輝度閾値を
用いて二値化する二値化手段と、前記二値化手段により二値化されたオブジェクト画像デ
ータの所定領域に含まれる輪郭線の方向寄与度特徴量である局所的方向寄与度特徴量を算
出する特徴量算出手段と、前記特徴量算出手段により算出された前記局所的方向寄与度特
徴量に基づいて、前記オブジェクト画像データに含まれるオブジェクトを認識する認識手
段として機能させることを特徴とする。
このような構成であれば、コンピュータによってプログラムが読み取られ、読み取られ
たプログラムに従ってコンピュータが処理を実行すると、形態1の画像認識装置と同等の
作用および効果が得られる。
[Embodiment 8] Furthermore, the image recognition program according to Embodiment 8 is a computer that includes an image input unit that inputs object image data including an object, and each pixel that constitutes the object image data input by the image input unit. And binarizing means for binarizing using a predetermined luminance threshold, and a local direction contribution feature amount of a contour line included in a predetermined area of the object image data binarized by the binarizing means A feature amount calculating means for calculating a target direction contribution feature quantity, and a recognition means for recognizing an object included in the object image data based on the local direction contribution feature quantity calculated by the feature quantity calculation means. It is made to function.
With such a configuration, when the program is read by the computer and the computer executes processing according to the read program, the same operations and effects as those of the image recognition apparatus according to
〔形態9〕 さらに、形態9の記録媒体は、コンピュータを、オブジェクトが含まれる
オブジェクト画像データを入力する画像入力手段と、前記画像入力手段により入力された
前記オブジェクト画像データを構成するそれぞれの画素を、所定の輝度閾値を用いて二値
化する二値化手段と、前記二値化手段により二値化されたオブジェクト画像データの所定
領域に含まれる輪郭線の方向寄与度特徴量である局所的方向寄与度特徴量を算出する特徴
量算出手段と、前記特徴量算出手段により算出された前記局所的方向寄与度特徴量に基づ
いて、前記オブジェクト画像データに含まれるオブジェクトを認識する認識手段として機
能させる画像認識プログラムを記録したコンピュータ読取可能な記録媒体であることを特
徴とする。
このような構成であれば、コンピュータによってプログラムが記憶媒体から読み取られ
、読み取られたプログラムに従ってコンピュータが処理を実行すると、形態1の画像認識
装置と同等の作用および効果が得られる。
ここで、記憶媒体とは、RAM、ROM等の半導体記憶媒体、FD、HD等の磁気記憶
型記憶媒体、CD、CDV、LD、DVD等の光学的読取方式記憶媒体、MO等の磁気記
憶型/光学的読取方式記憶媒体であって、電子的、磁気的、光学的等の読み取り方法のい
かんにかかわらず、コンピュータで読み取り可能な記憶媒体であれば、どのような記憶媒
体であってもよい。
[Mode 9] Furthermore, the recording medium of
With such a configuration, when the program is read from the storage medium by the computer and the computer executes processing in accordance with the read program, the same operation and effect as those of the image recognition apparatus according to
Here, the storage medium is a semiconductor storage medium such as RAM or ROM, a magnetic storage type storage medium such as FD or HD, an optical reading type storage medium such as CD, CDV, LD, or DVD, or a magnetic storage type such as MO. / Optical reading type storage medium, and any storage medium can be used as long as it can be read by a computer regardless of electronic, magnetic, optical, etc. .
以下、図面を参照して本発明の実施形態について説明する。
図1は、本実施形態に係る画像認識システム1の構成を示す図である。
画像認識システム1は、オブジェクトの一例たる人物9の顔を撮影し画像データを生成
するカメラ2と、カメラ2の画像データに対して画像認識を施して、撮影画像に写ってい
る人物9を認識する画像認識装置としてのコンピュータ3と、このコンピュータ3に接続
された表示装置4とを備えている。カメラ2は、静止画像を撮影するデジタルカメラであ
り、撮影された静止画像の画像データがコンピュータ3に入力される。なお、カメラ2と
して、動画像を撮影するビデオカメラを用いても良く、この場合には、撮影データの個々
のフレーム(画像データ)がコンピュータ3に入力される。表示装置4は、画像認識対象
の画像データや、画像認識結果等を表示する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram showing a configuration of an
The
図2は、コンピュータ3の機能的構成を示すブロック図である。
この図において、画像入力部10は、カメラ2との接続インタフェースであり、カメラ
2の画像データが画像入力部10から入力される。顔領域抽出部(オブジェクト領域抽出
部)11は、画像データに対し、顔が写った画像領域である顔領域40(図4参照)の判
定基準となる肌色に基づいて、画像領域から顔領域40を抽出する。記憶部12は、顔領
域40の判定基準となる肌色の色情報である肌色基準色データ16や顔認識用辞書データ
17等の各種データ、及び、コンピュータ3を画像認識装置として機能させる画像認識プ
ログラム18等の各種プログラムを記憶する。
コンピュータ3は、演算実行手段としてのCPUや、記憶手段としてのROM、CPU
のワークエリアとして機能するRAM、外部機器との接続インタフェース等を有し、上記
画像認識プログラム18がROMに格納されている。そして、CPUが画像認識プログラ
ム18を実行することで、上述した画像入力部10から各部の機能が実現される。
FIG. 2 is a block diagram showing a functional configuration of the
In this figure, an
The
The image recognition program 18 is stored in the ROM. When the CPU executes the image recognition program 18, the functions of the respective units are realized from the
二値化・正規化部13は、顔領域40の各画素を黒画素と白画素に二値化すると共に、
後述する局所的方向寄与度特徴量を算出する際に用いるメッシュ領域25(図3参照)の
中心と、顔領域40の中心とを合わせ、かつ、メッシュ領域25内に顔領域40が収まる
ように顔領域40を拡大或いは縮小する正規化を行う。方向寄与度特徴量算出部14は、
顔領域40の特徴量を示す後述の局所的方向寄与度特徴量を算出する。顔認識部15は、
顔領域40の局所的方向寄与度特徴量と、顔認識用辞書データ17とに基づいて、顔領域
40の顔を認識する。なお、これらの各部は、コンピュータ3が画像認識プログラム18
を実行することで実現されるものであるが、各部を専用のハードウェア回路により構成し
ても良いことは勿論である。
The binarization /
The center of the mesh area 25 (see FIG. 3) used when calculating the local direction contribution feature amount described later is aligned with the center of the
A local direction contribution feature amount, which will be described later, indicating the feature amount of the
The face in the
Of course, each unit may be configured by a dedicated hardware circuit.
上記の通り、本実施形態では局所的方向寄与度特徴量を顔認識に用いることとしている
。この局所的方向寄与度特徴量については、上述の非特許文献1に掲載されており、ここ
では文字パターンの認識を例にして簡単に説明する。
方向寄与度特徴量は、文字線の方向情報を抽出してなる特徴の1つであり、ある画素が
水平方向、右斜め45度方向、垂直方向、左斜め45度方向の4方向について、対象画素
(例えば黒画素)がどの程度連続しているかを示しており、これにより、文字線の方向や
接続関係等の幾何学的形状が示される。
方向寄与度dm(m=1、2、3、4)は、図3(A)に示すように、文字線内にある
点P1から8方向に触手を伸ばして決まる各方向の黒点連結長li(i=1、2、・・・
8)を用いて次式のように表される。
As described above, in this embodiment, the local direction contribution feature amount is used for face recognition. This local direction contribution feature amount is published in the above-mentioned
The direction contribution feature amount is one of features obtained by extracting the direction information of the character line, and a certain pixel is subject to four directions of the horizontal direction, the
As shown in FIG. 3A, the direction contribution degree dm (m = 1, 2, 3, 4) is determined by extending the tentacles in the eight directions from the point P1 in the character line, and the black dot connection length li in each direction. (i = 1, 2, ...
8) is used to express the following equation.
なお、上記式(1)において、d1は水平方向、d2は右斜め45度方向、d3は垂直
方向、d4は左斜め45度方向の方向寄与度成分である。方向寄与度d1を具体的に計算
すると、上記式(1)から次式が得られる。
In the above formula (1), d1 is a horizontal direction, d2 is a
図3(A)に示す例では、点P1においては垂直方向に黒画素が比較的長く連結してい
るため、垂直方向の方向寄与度d3の値が大きくなる。このように方向寄与度dmは、文
字線の方向と共に接続関係を定量的に評価できる。
方向寄与度には、大局的方向寄与度(GDCD:Global Direction Contributivity Densit
y)と局所的方向寄与度(LDCD:Local Direction Contributivity Density)の2つが知
られている。大局的方向寄与度特徴は、文字を大局的に、文字線の方向、接続関係の違い
を捉える特徴である。一方、局所的方向寄与度特徴は、所定の局所領域内の線密度に加え
、文字線の方向、接続関係の違いを反映するものである。
In the example shown in FIG. 3A, since the black pixels are connected in the vertical direction for a relatively long time at the point P1, the value of the direction contribution d3 in the vertical direction is large. Thus, the direction contribution degree dm can quantitatively evaluate the connection relationship together with the direction of the character line.
The direction contribution is a global direction contribution density (GDCD).
Two are known: y) and Local Direction Contributivity Density (LDCD). The global direction contribution characteristic is a characteristic that captures the difference between the character line direction and the connection relation in a global manner. On the other hand, the local direction contribution feature reflects the difference in the direction of the character line and the connection relationship in addition to the line density in the predetermined local region.
局所的方向寄与度特徴は、図3(B)に示すように、文字パターンがm×m個の粗いメ
ッシュ領域25に分割し、各メッシュ領域25内の全黒画素についての方向寄与度を求め
、それらをメッシュ領域25毎に4方向別に投影した平均として求められる。したがって
、各メッシュ領域25につき4個の特徴量が得られ、また、文字全体ではm×m×4個の
特徴量が得られる。
このように、局所的方向寄与度特徴は、文字パターンの大局的な特徴をm×m個のメッ
シュ領域25で分割して成る区分において、文字パターンの局所的な特徴を線分の連結具
合の寄与度から得ており、大局的な特徴、及び、局所的な特徴の双方の特徴が融合した特
徴と言える。そのため、文字パターンの外形的な特徴と文字線分のつながり、詳細な形状
などを反映している特徴と言える。
本実施形態では、この局所的方向寄与度特徴を方向寄与度の特徴として用いることとし
、前掲図2に示す方向寄与度特徴量算出部14は、上記顔領域40を局所領域として、こ
の顔領域40の局所的方向寄与度特徴量を算出する。
As shown in FIG. 3B, the local direction contribution feature is obtained by dividing the character pattern into m × m
As described above, the local direction contribution feature is obtained by dividing the local feature of the character pattern in the segmentation state obtained by dividing the global feature of the character pattern by the m × m
In the present embodiment, this local direction contribution feature is used as a direction contribution feature, and the direction contribution feature amount calculation unit 14 shown in FIG. 2 uses the
ただし、局所的方向寄与度特徴量を算出するには、局所領域内が二値画像であり、さら
に、線分が鮮明に抽出されている必要がある。一般に、顔を撮影した画像は、カラー画像
やグレースケール等の多値画像であり、さらに、顔のシワ等により不鮮明な線が多く含ま
れるため、上記局所的方向寄与度特徴量の算出に適した画像ではない。
そこで、二値化・正規化部13は、顔領域抽出部11により抽出された顔領域40の各
画素を、局所的方向寄与度特徴量が算出可能な程度に二値化することとしている。
However, in order to calculate the local direction contribution feature amount, it is necessary that the local region is a binary image and that a line segment is clearly extracted. In general, an image of a face is a multi-valued image such as a color image or gray scale, and further contains many unclear lines due to facial wrinkles, etc., so it is suitable for calculating the local direction contribution feature amount. It is not an image.
Therefore, the binarization /
詳述すると、画像データから抽出された顔領域40がグレースケール画像である場合、
各画素を所定の輝度閾値(例えば、最大輝度値の半分の値)で二値化すると、図4(A)
に示すように、各画素が黒画素又は白画素に二値化される。しかしながら、この状態では
、通常、顔のシワや頬等により不鮮明な線や細かな線が多く残る。
ここで、Q×R個の画素がマトリクス状に配列して顔領域40が構成されているものと
し、また、横列方向をX軸、縦列方向をY軸とした場合に、縦列ごとに黒画素の数を積算
して成る積算数のX軸方向の分布をX軸射影dx(q)(但し1≦q≦Q)、横列ごとに
黒画素の数を積算して成る積算数のY軸方向の分布をY軸射影dy(r)(但し1≦r≦
R)として求める。
More specifically, when the
When each pixel is binarized with a predetermined luminance threshold value (for example, half the maximum luminance value), FIG.
As shown, each pixel is binarized into a black pixel or a white pixel. However, in this state, many unclear lines and fine lines usually remain due to facial wrinkles and cheeks.
Here, it is assumed that the
R).
図4(A)に示すように、顔領域40に含まれる線分の数が多い場合、顔領域40の広
い範囲に黒画素が分布するため、X軸射影dx(q)及びY軸射影dy(r)の分布は、
ピークの落差が小さく全体的になだらかな曲線となる。
一方、顔領域40の局所的方向寄与度特徴量を算出するには、図4(B)に示すように
、顔領域40に含まれる線分が、左右の眉41、42、左右の目43、44、鼻45及び
口46といった顔部品の輪郭線のみといった程度まで顔領域40が単純化される必要があ
る。このように単純化された顔領域40においては、X軸射影dx(q)及びY軸射影d
y(r)の分布は、ピークの落差が大きく、全体的に複数のピークが鋭くたった曲線とな
る。
As shown in FIG. 4A, when the number of line segments included in the
The drop of the peak is small and the overall curve becomes smooth.
On the other hand, in order to calculate the local direction contribution feature quantity of the
The distribution of y (r) is a curve having a large peak drop and a sharp plurality of peaks as a whole.
したがって、X軸射影dx(q)及びY軸射影dy(r)の分布の状態(複雑さ)を定
量化することで、二値化によって、顔領域40に含まれる線分が局所的方向寄与度特徴量
が算出可能な程度にまで単純化されたか否かを判定することが可能となり、本実施形態で
は、この定量化にエントロピを用いる。X軸射影dx(q)の射影エントロピEx、及び
、Y軸射影dy(r)の射影エントロピEyは、それぞれ式(3)及び式(4)にて求め
られる。なお、以下の式(3)、式(4)において、Nx、Nyは、それぞれX軸射影d
x(q)及びY軸射影dy(r)の総数である。
Accordingly, by quantifying the distribution state (complexity) of the X-axis projection dx (q) and the Y-axis projection dy (r), the line segment included in the
The total number of x (q) and Y-axis projection dy (r).
前掲図4(A)に示す例では、X軸射影dx(q)及びY軸射影dy(r)の分布がな
らだかであるため、上記式(3)及び式(4)から求めた射影エントロピEx、Eyは小
さくなり、また、図4(B)に示す例では、X軸射影dx(q)及びY軸射影dy(r)
の分布にピークが多く形状が鋭いため、射影エントロピEx、Eyが大きくなる。
すなわち、顔領域40の画像に対する二値化の輝度閾値を大きくするほど、顔領域40
に含まれる黒画素の数が減り画像(線分)が単純化されるため、射影エントロピEx、E
yが増大する。したがって、射影エントロピEx、Eyが、局所的方向寄与度特徴量を算
出可能な程度まで画像が単純化された事を示す射影エントロピ閾値Ethをこえるまで、
二値化の輝度閾値を上げて顔領域40を二値化することで、局所的方向寄与度特徴量を算
出可能な顔領域40の画像が得られる。局所的方向寄与度特徴量を算出可能な顔領域40
の画像とは、図4(B)に示すように、顔領域40には、左右の眉41、42、左右の目
43、44、鼻45及び口46等の顔部品の輪郭線の線分のみがおおよそ含まれる程度の
画像である。顔領域40をそれ以上単純化すると、顔部品の輪郭線が変形又は消去される
ため、顔認識に必要な情報が欠落することになる。
なお、上記射影エントロピ閾値Ethは、メッシュ領域25の大きさや、画像の解像度
などに依存するため、予め実験的に求められている。また、射影エントロピ閾値Ethは
、X軸の射影エントロピEx、Y軸の射影エントロピEyごとに設定されている。
In the example shown in FIG. 4A, since the distribution of the X-axis projection dx (q) and the Y-axis projection dy (r) is gentle, the projection entropy obtained from the above equations (3) and (4). Ex and Ey become smaller, and in the example shown in FIG. 4B, the X-axis projection dx (q) and the Y-axis projection dy (r)
The projection entropy Ex and Ey are large because there are many peaks in the distribution and the shape is sharp.
That is, the larger the binarization luminance threshold for the image of the
Since the number of black pixels contained in the image is reduced and the image (line segment) is simplified, the projection entropies Ex and E
y increases. Therefore, until the projection entropy Ex, Ey exceeds the projection entropy threshold Eth indicating that the image has been simplified to the extent that the local direction contribution feature quantity can be calculated,
By increasing the binarization luminance threshold and binarizing the
As shown in FIG. 4B, the
Note that the projection entropy threshold Eth depends on the size of the
次いで、本実施形態の動作について説明する。
図5及び図6はコンピュータ3によって実行される画像認識プログラム18のフローチ
ャートである。図5に示すように、人物9が写った画像データがカメラ2から画像入力部
10に入力されると(ステップS1)、顔領域抽出部11が画像データの画像領域から顔
領域40を抽出する(ステップS2)。この顔領域40の抽出は、画像に写った各物体の
領域を分離する領域分離を用いて行われる。詳述すると、図7(A)に示すように、一般
に、画像認識対象の画像20には、人物9と共に背景が写っており、領域分離においては
、画像20に写っている物体や背景に写った物体の各々の領域が分離される。
Next, the operation of this embodiment will be described.
5 and 6 are flowcharts of the image recognition program 18 executed by the
例えば、人物9の背景に看板21、山22及び空23が写っている画像20においては
、領域分離により、図7(B)に示すように、人物9の領域を分離した分離領域30、看
板21の領域を分離した分離領域31、山22の領域を分離した分離領域32A〜32C
、空23の領域を分離した分離領域33に画像領域が分離される。
そして、顔領域抽出部11は、各分離領域30〜33の中から、顔領域の色情報と肌色
基準色データ16とを比較し、肌色を多く含む領域を特定し、図7(C)に示すように、
人物9を含む分離領域30を特定する。さらに、顔領域抽出部11は、肌色基準色データ
16、及び、この分離領域30に含まれている輪郭線に基づいて、図7(D)に示すよう
に、分離領域30の中から顔領域40を抽出する。
For example, in the
The image area is separated into the separation area 33 obtained by separating the
Then, the face
The
このようにして顔領域40が抽出されると、二値化・正規化部13は、顔領域40の画
像がカラー画像である場合にはグレースケール画像に変換し、グレースケールの顔領域4
0の各画素に対して、所定の輝度閾値(例えば、最大輝度の半分の値)で二値化する(ス
テップS3)。これにより、例えば、図8(A)に示すように、顔領域40に比較的多く
の線分を含む二値化画像が得られる。
そして、二値化・正規化部13は、二値化後の顔領域40に対し、上記式(3)及び(
4)を用いて射影エントロピEx、Eyを算出し(ステップS4)、これらの射影エント
ロピEx、Eyが、各々について設定された射影エントロピ閾値Eth以上であるかを判
定する(ステップS5)。
When the
Each pixel of 0 is binarized with a predetermined luminance threshold (for example, half the maximum luminance) (step S3). Thereby, for example, as shown in FIG. 8A, a binary image including a relatively large number of line segments in the
Then, the binarization /
4) is used to calculate the projection entropies Ex and Ey (step S4), and it is determined whether these projection entropies Ex and Ey are greater than or equal to the projection entropy threshold Eth set for each (step S5).
射影エントロピEx、Eyが射影エントロピ閾値Ethより小さい場合(ステップS5
:NO)、顔領域40が局所的方向寄与度特徴量を算出可能な程度には未だ単純化されて
いないため、二値化・正規化部13は、二値化処理により顔領域40の黒画素数(線分数
)を減らすべく、現在の輝度閾値に所定値を加算して輝度閾値を上げる(ステップS6)
。
When the projection entropy Ex, Ey is smaller than the projection entropy threshold Eth (step S5)
: NO), since the
.
ここで、暗い照明環境下で顔の撮影が行われる等して、顔領域40における陰影が強く
、シワやシミなどが多数写っている場合には、輝度閾値を十分大きくして二値化処理をし
ても、顔領域40の射影エントロピEx、Eyが射影エントロピ閾値Ethをこえ難くな
り、また、射影エントロピEx、Eyが射影エントロピ閾値Ethをこえる程の輝度閾値
で二値化処理を行うと、顔領域40から顔部品の線分が必要以上に除去され、認識を正し
く行えなくなる恐れがある。
Here, when a face is photographed in a dark illumination environment and the shadow in the
そこで、二値化・正規化部13は、上記ステップS6において輝度閾値を上げた後、こ
の輝度閾値が、認識不能な程度まで顔領域40が単純化されてしまう限界閾値をこえたか
否かを判断する(ステップS7)。輝度閾値が限界閾値より小さい場合(ステップS7:
NO)、この輝度閾値により二値化が行われても顔領域40が単純化され過ぎることは無
いため、二値化・正規化部13は、処理手順をステップS3に戻し、再度、二値化処理を
行う。これにより、例えば図8(B)に示すように、顔領域40の画像が図8(A)に比
べて単純化される。
Therefore, the binarization /
NO), since the
一方、輝度閾値が限界閾値以上である場合には(ステップS7:YES)、この輝度閾
値により二値化を行うことができない。
そこで、二値化・正規化部13は、顔領域40全体に対し、線分を平滑化するフィルタ
処理を施して画像を単純化し、局所的方向寄与度特徴量が算出可能な画像を得る(ステッ
プS8)。このフィルタ処理には、例えば、メッシュ領域25程度の直径の標準偏差をも
つガウスフィルタを用いることが可能である。
なお、本実施形態では、輝度閾値が限界閾値以上に達したときに、顔領域40の線分を
平滑化するフィルタ処理を行ったが、ステップS3において二値化処理を行う前に、フィ
ルタ処理を予め行うようにしても良い。この場合には、顔領域40に含まれている必要な
情報が欠落しないように、ガウスフィルタの標準偏差を小さくして、平滑化の効果を弱め
ておくことが望ましい。
On the other hand, if the luminance threshold is equal to or greater than the limit threshold (step S7: YES), binarization cannot be performed using this luminance threshold.
Therefore, the binarization /
In the present embodiment, when the luminance threshold reaches or exceeds the limit threshold, the filtering process for smoothing the line segment of the
さて、射影エントロピEx、Eyが射影エントロピ閾値Eth以上である場合(ステッ
プS5:YES)、又は、ステップS8におけるフィルタ処理実行後は、局所的方向寄与
度特徴量を算出可能な程度まで顔領域40の画像(線分)が単純化された事を示す。例え
ば、図8(C)に示すように、顔領域40には、眉や目、鼻、口等の顔部品のみがおおよ
そ残り、更に、これらの顔部品が比較的少ない線分数で示された状態となる。
このようにして局所的方向寄与度特徴量を算出可能な顔領域40が得られた後、二値化
・正規化部13は、顔部品に含まれない点、すなわち、連結点の数が所定数以下の孤立点
を除去して顔領域40からノイズを除去した後(ステップS9)、局所的方向寄与度特徴
量を求めるためのm×m個のメッシュ領域25に顔領域40を合わせる正規化を行う。
Now, when the projection entropy Ex, Ey is greater than or equal to the projection entropy threshold Eth (step S5: YES), or after executing the filter processing in step S8, the
After the
すなわち、図6に示すように、二値化・正規化部13は、顔領域40の重心OG及び大
きさ(縦横の画素数)を計測し(ステップS10)、図9(B)に示すように、m×m個
のメッシュ領域25の中心OMに顔領域40の重心OGを合わせ、かつ、顔領域40の長
径(図9(A)に示す例では縦方向)がm×m個のメッシュ領域25に収まるように顔領
域40の拡大或いは縮小を行い(ステップS11)、これにより、正規化が行われる。
顔領域40の拡大或いは縮小には、顔領域40の縦横比の比率を一定に保ったアフィン
変換が用いられる。また、顔領域40に含まれる顔が傾いている場合や、正面以外の方向
を向いている場合には、顔領域40の拡大或いは縮小に先だって、顔の傾きを無くし、か
つ、正面を向いた画像にする補正も行う。顔の向きの検出は、例えば、顔領域を抽出した
際に、目や鼻、口等の顔部品の位置やバランスに基づいて検出可能である。
That is, as shown in FIG. 6, the binarization /
For enlargement or reduction of the
なお、上記メッシュ領域25の大きさは、画像認識プログラム18を実行する機器の処
理能力や、目標とする認識精度に応じて適宜設定されており、通常は、通常は、100×
100画素程度以上の大きさに設定される。1つのメッシュ領域25に含ませる画素数を
多くすることで、計算量が多くなるものの精度を高めることができる。なお、メッシュ領
域25は正方形であることが好ましいが長方形であっても良い。
また、上記ステップS9における孤立点の除去は、ステップS11の正規化後に行って
も良い。
Note that the size of the
The size is set to about 100 pixels or more. Increasing the number of pixels included in one
Further, the removal of isolated points in step S9 may be performed after normalization in step S11.
このように、顔領域40が二値化、正規化されると、方向寄与度特徴量算出部14は、
メッシュ領域25毎に局所的方向寄与度特徴量を算出する。すなわち、前掲図6に示すよ
うに、方向寄与度特徴量算出部14は、メッシュ領域25を指定するメッシュ番号M(但
し1≦M≦m×m)を「1」に初期化し(ステップS12)、M番目のメッシュ領域25
について局所的方向寄与度特徴量を算出する(ステップS13)。次いで、方向寄与度特
徴量算出部14は、現在のメッシュ番号Mがm×mと等しいか否か、すなわち、最後のメ
ッシュ領域25に到達したか否かを判別し(ステップS14)、メッシュ番号Mがm×m
と等しくない場合には(ステップS14:NO)、メッシュ番号Mを「1」だけインクリ
メントし(ステップS15)、次のメッシュ領域25について局所的方向寄与度特徴量を
算出すべく、処理手順をステップS13に戻す。
一方、メッシュ番号Mがm×mと等しい場合には(ステップS14:YES)、全ての
メッシュ領域25について局所的方向寄与度特徴量が算出されたことを示すため、これら
の局所的方向寄与度特徴量と、顔認識用辞書データ17とに基づいて、顔認識部15が、
顔領域40に写った顔が誰の顔であるか、或いは、顔領域40が顔認識用辞書データ17
に登録されている顔のいずれかに該当するか否かといった顔認識を行う(ステップS16
)。
As described above, when the
A local direction contribution feature quantity is calculated for each
The local direction contribution feature quantity is calculated for (step S13). Next, the direction contribution feature quantity calculation unit 14 determines whether or not the current mesh number M is equal to m × m, that is, whether or not the
(Step S14: NO), the mesh number M is incremented by “1” (step S15), and the processing procedure is stepped to calculate the local direction contribution feature quantity for the
On the other hand, when the mesh number M is equal to m × m (step S14: YES), these local direction contributions are shown to indicate that the local direction contribution feature quantity has been calculated for all the
Who is the face reflected in the
Face recognition is performed (step S16).
).
以上説明したように、本実施形態によれば、二値化・正規化部13は、顔領域40の射
影エントロピEx、Eyに基づいて輝度閾値を変えて二値化し、顔領域40を局所的方向
寄与度特徴量を算出可能な程度まで単純化する構成としたため、複雑な線分を多く含む顔
領域40の顔認識にも方向寄与度特徴を用いたアルゴリズムを用いることが可能となり、
人物の顔を簡単な処理で高速に、かつ、精度良く認識することが可能となる。
これにより、例えば、デジタルカメラやPDA、携帯電話機等の、比較的処理能力が低
い小型機器においても高精度な顔認識が実現可能となる。
As described above, according to the present embodiment, the binarization /
A person's face can be recognized at high speed and with high accuracy by simple processing.
Thereby, for example, highly accurate face recognition can be realized even in a small device having a relatively low processing capability such as a digital camera, a PDA, or a mobile phone.
また、本実施形態によれば、二値化・正規化部13は、顔領域40に対する二値化に先
立って、或いは、二値化後に、線分を平滑化するフィルタ処理を施す構成としたため、撮
影環境が悪く二値化だけでは十分に単純化できない顔領域40についても、安定して局所
的方向寄与度特徴を算出することが可能となる。
In addition, according to the present embodiment, the binarization /
なお、上述した実施の形態は、あくまでも本発明の一態様を示すものであり、本発明の
範囲内で任意に変形および応用が可能である。
例えば、上述した実施形態では、顔領域40の縦及び横方向の各々の射影のエントロピ
である射影エントロピEx、Eyの各々を、それぞれの閾値エントロピEthと比較して
、顔領域40の単純化が完了したか否かを判断したが、射影エントロピEx、Eyのいず
れかのみを使って簡易的に判断する構成としても良い。
例えば、上述した実施形態において、画像認識装置たるコンピュータ3が顔をオブジェ
クトとして認識する場合を例示したが、これに限らず、任意のオブジェクト、特に、複雑
な線分を多く含むオブジェクトの認識にも本発明を適用可能である。
また、例えば、本発明に係る画像認識装置をカメラ、スキャナ、プロジェクタ、テレビ
、プリンタ等のあらゆる電子機器が備える形態で実施することも可能である。
The above-described embodiment is merely an aspect of the present invention, and can be arbitrarily modified and applied within the scope of the present invention.
For example, in the above-described embodiment, each of the projection entropies Ex and Ey, which are the entropies of projection in the vertical and horizontal directions of the
For example, in the above-described embodiment, the case where the
In addition, for example, the image recognition apparatus according to the present invention can be implemented in any electronic device such as a camera, a scanner, a projector, a television, and a printer.
1…画像認識システム、2…カメラ、3…コンピュータ(画像認識装置)、10…画像
入力部、11…顔領域抽出部、12…記憶部、13…二値化・正規化部、14…方向寄与
度特徴量算出部、15…顔認識部、17…顔認識用辞書データ、18…画像認識プログラ
ム、25…メッシュ領域、40…顔領域、dx…X軸射影、dy…Y軸射影、Eth…射
影エントロピ閾値、Ex、Ey…射影エントロピ。
DESCRIPTION OF
Claims (8)
前記画像入力部により入力された前記オブジェクト画像データを構成するそれぞれの画
素を、所定の輝度閾値を用いて二値化する二値化部と、
前記二値化部により二値化されたオブジェクト画像データの所定領域に含まれる輪郭線
の方向寄与度特徴量である局所的方向寄与度特徴量を算出する特徴量算出部と、
前記特徴量算出部により算出された前記局所的方向寄与度特徴量に基づいて、前記オブ
ジェクト画像データに含まれるオブジェクトを認識する認識部と
を備えたことを特徴とする画像認識装置。 An image input unit for inputting object image data including the object;
A binarization unit that binarizes each pixel constituting the object image data input by the image input unit using a predetermined luminance threshold;
A feature amount calculation unit that calculates a local direction contribution feature amount that is a direction contribution feature amount of a contour line included in a predetermined region of the object image data binarized by the binarization unit;
An image recognition apparatus comprising: a recognition unit that recognizes an object included in the object image data based on the local direction contribution feature amount calculated by the feature amount calculation unit.
前記二値化部は、
二値化した前記オブジェクト画像データを構成するそれぞれの画素について、有効画素
を縦列又は/及び横列ごとに積算してなる射影の分布に応じて前記輝度閾値を変える
ことを特徴とする画像認識装置。 The image recognition apparatus according to claim 1,
The binarization unit includes:
The image recognition apparatus characterized by changing the said brightness | luminance threshold value according to distribution of the projection formed by integrating | accumulating an effective pixel for every column or / and a row about each pixel which comprises the said binarized said object image data.
前記二値化部は、
前記射影の分布の状態を定量化するエントロピを算出し、算出されたエントロピに応じ
て前記輝度閾値を変える
ことを特徴とする画像認識装置。 The image recognition apparatus according to claim 2,
The binarization unit includes:
An image recognition apparatus, wherein entropy for quantifying the state of the projection distribution is calculated, and the luminance threshold value is changed in accordance with the calculated entropy.
前記二値化部は、前記オブジェクト画像データに対する二値化に先立って、或いは、二
値化後に、線分を平滑化するフィルタ処理を施し、
前記特徴量算出部は、前記二値化部により二値化及びフィルタ処理が施されたオブジェ
クト画像データについて前記局所的方向寄与度特徴量を算出する
ことを特徴とする画像認識装置。 In the image recognition device according to any one of claims 1 to 3,
The binarization unit performs a filter process for smoothing a line segment before or after binarization of the object image data,
The feature amount calculation unit calculates the local direction contribution feature amount for object image data that has been binarized and filtered by the binarization unit.
前記オブジェクトは顔であり、
異なる複数の顔ごとの前記局所的方向寄与度特徴量を含む顔認識用辞書データを記憶す
る記憶部を有し、
前記認識部は、前記オブジェクト画像データに含まれる顔について前記特徴量算出部に
よって算出された局所的方向寄与度特徴量と、前記記憶部に記憶された顔認識用辞書デー
タに含まれる局所的方向寄与度特徴量とに基づいて、前記オブジェクト画像データに含ま
れる顔を認識する
ことを特徴とする画像認識装置。 The image recognition device according to claim 1,
The object is a face;
A storage unit for storing face recognition dictionary data including the local direction contribution feature amount for each of a plurality of different faces;
The recognition unit includes a local direction contribution feature amount calculated by the feature amount calculation unit for a face included in the object image data, and a local direction included in face recognition dictionary data stored in the storage unit. An image recognition apparatus characterized by recognizing a face included in the object image data based on a contribution feature amount.
前記画像入力工程により入力された前記オブジェクト画像データを構成するそれぞれの
画素を、所定の輝度閾値を用いて二値化する二値化工程と、
前記二値化工程により二値化されたオブジェクト画像データの所定領域に含まれる輪郭
線の方向寄与度特徴量である局所的方向寄与度特徴量を算出する特徴量算出工程と、
前記特徴量算出工程により算出された前記局所的方向寄与度特徴量に基づいて、前記オ
ブジェクト画像データに含まれるオブジェクトを認識する認識工程と
を有する画像認識方法。 An image input process for inputting object image data including the object;
A binarization step of binarizing each pixel constituting the object image data input by the image input step using a predetermined luminance threshold;
A feature amount calculating step of calculating a local direction contribution feature amount that is a direction contribution feature amount of a contour line included in a predetermined region of the object image data binarized by the binarization step;
A recognition step of recognizing an object included in the object image data based on the local direction contribution feature amount calculated by the feature amount calculation step.
オブジェクトが含まれるオブジェクト画像データを入力する画像入力手段と、
前記画像入力手段により入力された前記オブジェクト画像データを構成するそれぞれの
画素を、所定の輝度閾値を用いて二値化する二値化手段と、
前記二値化手段により二値化されたオブジェクト画像データの所定領域に含まれる輪郭
線の方向寄与度特徴量である局所的方向寄与度特徴量を算出する特徴量算出手段と、
前記特徴量算出手段により算出された前記局所的方向寄与度特徴量に基づいて、前記オ
ブジェクト画像データに含まれるオブジェクトを認識する認識手段
として機能させることを特徴とする画像認識プログラム。 Computer
An image input means for inputting object image data including the object;
Binarization means for binarizing each pixel constituting the object image data input by the image input means using a predetermined luminance threshold;
Feature amount calculating means for calculating a local direction contribution feature amount that is a direction contribution feature amount of a contour line included in a predetermined region of the object image data binarized by the binarization means;
An image recognition program that functions as a recognition unit that recognizes an object included in the object image data based on the local direction contribution feature amount calculated by the feature amount calculation unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006340864A JP2008152611A (en) | 2006-12-19 | 2006-12-19 | Image recognition device, electronic equipment, image recognition method, and image recognition program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006340864A JP2008152611A (en) | 2006-12-19 | 2006-12-19 | Image recognition device, electronic equipment, image recognition method, and image recognition program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008152611A true JP2008152611A (en) | 2008-07-03 |
Family
ID=39654707
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006340864A Withdrawn JP2008152611A (en) | 2006-12-19 | 2006-12-19 | Image recognition device, electronic equipment, image recognition method, and image recognition program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008152611A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010211498A (en) * | 2009-03-10 | 2010-09-24 | Kyodo Printing Co Ltd | Image processing program and image processing system |
US20210271929A1 (en) * | 2018-07-09 | 2021-09-02 | Hitachi High-Tech Corporation | Machine learning device, image diagnosis support device, machine learning method and image diagnosis support method |
WO2024014278A1 (en) * | 2022-07-11 | 2024-01-18 | ソニーセミコンダクタソリューションズ株式会社 | Imaging device and data outputting method |
-
2006
- 2006-12-19 JP JP2006340864A patent/JP2008152611A/en not_active Withdrawn
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010211498A (en) * | 2009-03-10 | 2010-09-24 | Kyodo Printing Co Ltd | Image processing program and image processing system |
US20210271929A1 (en) * | 2018-07-09 | 2021-09-02 | Hitachi High-Tech Corporation | Machine learning device, image diagnosis support device, machine learning method and image diagnosis support method |
WO2024014278A1 (en) * | 2022-07-11 | 2024-01-18 | ソニーセミコンダクタソリューションズ株式会社 | Imaging device and data outputting method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4755202B2 (en) | Face feature detection method | |
JP5629803B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
EP2164027B1 (en) | Object detecting device, imaging apparatus, object detecting method, and program | |
JP4743823B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
US10311595B2 (en) | Image processing device and its control method, imaging apparatus, and storage medium | |
CN108229475B (en) | Vehicle tracking method, system, computer device and readable storage medium | |
CN113033465B (en) | Living body detection model training method, device, equipment and storage medium | |
JP5361524B2 (en) | Pattern recognition system and pattern recognition method | |
JP6410450B2 (en) | Object identification device, object identification method, and program | |
CN110008943B (en) | Image processing method and device, computing equipment and storage medium | |
JP5656768B2 (en) | Image feature extraction device and program thereof | |
CN114049499A (en) | Target object detection method, apparatus and storage medium for continuous contour | |
CN111199197B (en) | Image extraction method and processing equipment for face recognition | |
JP2019096146A (en) | Image identification device, image identification method, computer program, and storage medium | |
CN109074646B (en) | Image recognition device and image recognition program | |
JP2008152611A (en) | Image recognition device, electronic equipment, image recognition method, and image recognition program | |
US9392146B2 (en) | Apparatus and method for extracting object | |
JP2016053763A (en) | Image processor, image processing method and program | |
KR101741761B1 (en) | A classification method of feature points required for multi-frame based building recognition | |
JP2004199200A (en) | Pattern recognition device, imaging apparatus, information processing system, pattern recognition method, recording medium and program | |
CN110785769A (en) | Face gender identification method, and training method and device of face gender classifier | |
JP4812743B2 (en) | Face recognition device, face recognition method, face recognition program, and recording medium recording the program | |
US10380450B2 (en) | Information processing device, information processing method, and recording medium | |
JP2015232765A (en) | Image generation device, computer program, and image generation method | |
CN116704513B (en) | Text quality detection method, device, computer equipment and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20100302 |