JP2009076012A - Object identification device - Google Patents

Object identification device Download PDF

Info

Publication number
JP2009076012A
JP2009076012A JP2007246876A JP2007246876A JP2009076012A JP 2009076012 A JP2009076012 A JP 2009076012A JP 2007246876 A JP2007246876 A JP 2007246876A JP 2007246876 A JP2007246876 A JP 2007246876A JP 2009076012 A JP2009076012 A JP 2009076012A
Authority
JP
Japan
Prior art keywords
information
feature information
indicated
object identification
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007246876A
Other languages
Japanese (ja)
Other versions
JP4985264B2 (en
Inventor
Arinobu Kyo
有宣 姜
Kiyosumi Shirodono
清澄 城殿
Yoshiki Ninomiya
芳樹 二宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2007246876A priority Critical patent/JP4985264B2/en
Publication of JP2009076012A publication Critical patent/JP2009076012A/en
Application granted granted Critical
Publication of JP4985264B2 publication Critical patent/JP4985264B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide an object identification device improved in object identification accuracy. <P>SOLUTION: The object identification device has imaging means for generating image data obtained by imaging an object and indicated by the light receiving intensity of each of a plurality of wavelength bands of near infrared light and visible light; area information extracting means for extracting area information indicated by information on dimensionality corresponding to the number of wavelength bands while indicating information of every wavelength band of every area; conversion means converting each area information extracted by the area information extracting means into feature information indicated by information on dimensionality not more than the above dimensionality while indicating the feature of the object corresponding to the area; and object identifying means for identifying an object shown by the object corresponding to each area based on the feature information converted by the conversion means and sample feature information which associates the object to be identified with a range where feature information corresponding to the object exists. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、物体識別装置に係り、特に車両周辺に存在する物体を識別する物体識別装置に関する。   The present invention relates to an object identification device, and more particularly, to an object identification device that identifies an object existing around a vehicle.

従来より、撮像された画像データから物体を識別することで、例えば車両を運転するドライバの視覚を支援する様々な装置が提案されている。特許文献1に開示された対象物抽出装置は、遠赤外画像と可視画像からそれぞれの画像の特徴量を算出し、特徴量の多次元空間をクラスタリングによっていくつかのクラスタに分類することを特徴とし、特徴量空間における特徴量の分布にしたがって領域分割を行うものである。   2. Description of the Related Art Conventionally, various devices that support the vision of a driver driving a vehicle by identifying an object from captured image data have been proposed. The object extraction device disclosed in Patent Document 1 calculates feature amounts of each image from a far-infrared image and a visible image, and classifies a multidimensional space of feature amounts into several clusters by clustering. The region is divided according to the distribution of the feature amount in the feature amount space.

また、特許文献2に開示された多色赤外線撮像装置は、被写体からの赤外線放射エネルギーを複数の波長帯域範囲の光学フィルタを介して多色赤外線撮像装置のセンサに入射させ、予め記憶手段に格納させた複数の物質の放射率値を基に被写体の真温度T0及び背景温度Taを求めて、複数物質の材質或はその状態を判別するものである。
特開2000−306191号公報 特開2004−117309号公報
In the multicolor infrared imaging device disclosed in Patent Document 2, infrared radiant energy from a subject is incident on a sensor of the multicolor infrared imaging device via an optical filter in a plurality of wavelength band ranges, and stored in a storage unit in advance. The true temperature T0 and the background temperature Ta of the subject are obtained based on the emissivity values of the plurality of substances, and the materials or states of the plurality of substances are discriminated.
JP 2000-306191 A JP 2004-117309 A

しかしながら、上記の従来技術は遠赤外画像を利用するため,可視画像を撮像するカメラとは別の高価な赤外カメラが必要である。また、遠赤外画像と可視画像を1台のカメラで取得することは現在のところ技術的に不可能であり、2台のカメラが必要となるため装置が大きくなる。   However, since the above prior art uses far-infrared images, an expensive infrared camera different from the camera that captures a visible image is required. In addition, it is technically impossible to acquire a far-infrared image and a visible image with one camera at present, and two cameras are required, resulting in a large apparatus.

なお、遠赤外画像を用いた場合には、撮像対象の熱放射量が計測されるため人や車をその温度特性から検出することができる。しかしながら、気温が体温相当に上昇する夏季には人が検出しにくくなるとともに、熱放射のない路面や路側の人工物からは有効な特徴が取得できないといった課題がある。   In addition, when a far-infrared image is used, since the thermal radiation amount of an imaging target is measured, a person or a vehicle can be detected from its temperature characteristics. However, there are problems that it is difficult for humans to detect in summer when the temperature rises to the equivalent of body temperature, and that effective features cannot be obtained from road surfaces and roadside artifacts without heat radiation.

このように従来の技術では、上述した理由から物体の識別精度が高いとは言い難いものであった。   As described above, in the conventional technique, it is difficult to say that the object identification accuracy is high for the reason described above.

本発明は上記問題点に鑑み、物体の識別精度を向上させた物体識別装置を提供することを目的とする。   In view of the above problems, an object of the present invention is to provide an object identification device with improved object identification accuracy.

上記目的を達成するために請求項1の発明は、被写体を撮像することにより得られる画像データであるとともに、近赤外光及び可視光の複数の波長帯の光の各々の受光強度で示される画像データを生成する撮像手段と、前記撮像手段により生成された前記画像データが示す被写体画像を複数の領域に分割し、各々の領域毎の前記各波長帯毎の情報を示すとともに、前記波長帯の数に応じた次元数の情報で示される領域情報を抽出する領域情報抽出手段と、前記領域情報抽出手段により抽出された各々の領域情報を、前記領域に対応する被写体の特徴を示すとともに、前記次元数以下の次元数の情報で示される特徴情報に変換する変換手段と、識別対象となる物体と、当該物体に対応する前記特徴情報が存在する範囲とが関連づけられたサンプル特徴情報が予め記憶された記憶手段と、前記変換手段により変換された前記特徴情報と、前記記憶手段により記憶されたサンプル特徴情報とに基づいて、各前記領域毎に対応する被写体が示す物体を識別する物体識別手段と、を有する。   In order to achieve the above object, the invention of claim 1 is image data obtained by imaging a subject, and is indicated by received light intensities of light in a plurality of wavelength bands of near infrared light and visible light. An imaging unit that generates image data, a subject image indicated by the image data generated by the imaging unit is divided into a plurality of regions, information for each wavelength band for each region is shown, and the wavelength band Area information extracting means for extracting area information indicated by information of the number of dimensions according to the number of areas, and each area information extracted by the area information extracting means indicates the characteristics of the subject corresponding to the area, A sampler in which conversion means for converting to feature information indicated by information of a dimension number equal to or less than the number of dimensions, an object to be identified, and a range in which the feature information corresponding to the object exists are associated Based on the storage means in which feature information is stored in advance, the feature information converted by the conversion means, and the sample feature information stored by the storage means, an object indicated by the subject corresponding to each of the regions is displayed. Object identifying means for identifying.

ここで、請求項1の発明では、撮像手段は被写体を撮像することにより得られる画像データであるとともに、近赤外光及び可視光の複数の波長帯の光の各々の受光強度で示される画像データを生成し、領域情報抽出手段は前記撮像手段により生成された前記画像データが示す被写体画像を複数の領域に分割し、各々の領域毎の前記各波長帯毎の情報を示すとともに、前記波長帯の数に応じた次元数の情報で示される領域情報を抽出し、変換手段は前記領域情報抽出手段により抽出された各々の領域情報を、前記領域に対応する被写体の特徴を示すとともに、前記次元数以下の次元数の情報で示される特徴情報に変換し、記憶手段には識別対象となる物体と、当該物体に対応する前記特徴情報が存在する範囲とが関連づけられたサンプル特徴情報が予め記憶され、物体識別手段は前記変換手段により変換された前記特徴情報と、前記記憶手段により記憶されたサンプル特徴情報とに基づいて、各前記領域毎に対応する被写体が示す物体を識別する。このように、物体の材質やその状態に応じて反射特性が異なる近赤外光を用いることで、物体の識別精度を向上させた物体識別装置を提供することができる。   According to the first aspect of the present invention, the imaging means is image data obtained by imaging the subject, and an image indicated by the received light intensity of each of light in a plurality of wavelength bands of near infrared light and visible light. The region information extraction unit divides the subject image indicated by the image data generated by the imaging unit into a plurality of regions, shows information for each wavelength band for each region, and generates the data. The area information indicated by the information of the number of dimensions according to the number of bands is extracted, and the conversion means indicates each area information extracted by the area information extraction means, indicating the characteristics of the subject corresponding to the area, and Sample feature information in which the object to be identified is associated with the range in which the feature information corresponding to the object exists is converted to feature information represented by information of the number of dimensions less than or equal to the number of dimensions. Are stored in advance, and the object identifying means identifies the object indicated by the corresponding subject for each region based on the feature information converted by the converting means and the sample feature information stored by the storage means . In this way, by using near-infrared light having different reflection characteristics depending on the material of the object and its state, an object identification device with improved object identification accuracy can be provided.

また、請求項2の発明は、請求項1の発明において、前記画像データが示す被写体画像からエッジを抽出するエッジ抽出手段を更に有し、前記物体識別手段は、前記エッジ抽出手段により抽出されたエッジに囲まれる領域毎に物体を識別するものである。   The invention of claim 2 further comprises edge extraction means for extracting an edge from the subject image indicated by the image data in the invention of claim 1, wherein the object identification means is extracted by the edge extraction means. An object is identified for each region surrounded by edges.

請求項2の発明によれば、エッジに囲まれた領域は同一の物体の可能性が高いため、エッジに囲まれる領域毎に物体を識別することにより物体の識別精度を向上させた物体識別装置を提供することができる。   According to the second aspect of the present invention, since the region surrounded by the edge is likely to be the same object, the object identification device that improves the object identification accuracy by identifying the object for each region surrounded by the edge Can be provided.

また、請求項3の発明は、請求項1又は請求項2の発明において、前記サンプル特徴情報には、識別対象となる物体を前記撮像手段により予め撮影することで生成された画像データから得られた高次局所自己相関特徴情報が更に含まれており、前記物体識別手段は、前記高次局所自己相関特徴情報を更に用いて前記領域に対応する被写体が示す物体を識別するものである。   The invention according to claim 3 is the invention according to claim 1 or 2, wherein the sample feature information is obtained from image data generated by photographing an object to be identified in advance by the imaging means. Further, higher-order local autocorrelation feature information is further included, and the object identifying means further uses the higher-order local autocorrelation feature information to identify an object indicated by the subject corresponding to the region.

請求項3の発明によれば、高次局所自己相関特徴情報を用いることで、物体の識別精度を向上させた物体識別装置を提供することができる。   According to the third aspect of the present invention, it is possible to provide an object identification device with improved object identification accuracy by using higher-order local autocorrelation feature information.

また、請求項4の発明は、請求項1から請求項3のいずれか1項の発明において、前記物体識別手段は、前記サンプル特徴情報に含まれる複数の特徴情報での各次元の要素において分散値が所定の値より小さくなる要素を含む次元を用いずに、前記被写体が示す物体を識別するものである。   According to a fourth aspect of the present invention, in the invention according to any one of the first to third aspects, the object identifying means is distributed among elements of each dimension in a plurality of feature information included in the sample feature information. The object indicated by the subject is identified without using a dimension including an element whose value is smaller than a predetermined value.

請求項4の発明によれば、次元数を減らすことにより、識別に要する処理時間を短縮することができる。   According to the invention of claim 4, the processing time required for identification can be shortened by reducing the number of dimensions.

また、請求項5の発明は、請求項1から請求項3のいずれか1項の発明において、前記変換手段は、前記領域情報を変換した前記特徴情報を、当該特徴情報の2つ以上の次元に対応する要素を線形変換して得られる値を1つの次元の値とした圧縮特徴情報に更に変換し、前記物体識別手段は、前記圧縮特徴情報と、前記記憶手段により記憶されたサンプル特徴情報とに基づいて、各前記領域毎に対応する被写体が示す物体を識別するものである。   The invention according to claim 5 is the invention according to any one of claims 1 to 3, wherein the converting means converts the feature information obtained by converting the region information into two or more dimensions of the feature information. Is further converted into compressed feature information having a one-dimensional value obtained by linearly transforming an element corresponding to the object, and the object identifying means includes the compressed feature information and the sample feature information stored in the storage means. Based on the above, the object indicated by the subject corresponding to each of the areas is identified.

請求項5の発明によれば、次元数を減らすことにより、識別に要する処理時間を短縮することができる。   According to the invention of claim 5, the processing time required for identification can be shortened by reducing the number of dimensions.

また、請求項6の発明は、請求項1〜請求項5のいずれか1項の発明において、領域情報は、赤色光、緑色光、青色光、及び近赤外光の受光強度を示す情報である。   The invention of claim 6 is the invention of any one of claims 1 to 5, wherein the region information is information indicating the received light intensity of red light, green light, blue light, and near infrared light. is there.

請求項6の発明によれば、領域情報として赤色光、緑色光、青色光、及び近赤外光の受光強度を用いることが出来る。   According to the invention of claim 6, the received light intensity of red light, green light, blue light, and near infrared light can be used as the region information.

本発明によれば、物体の識別精度を向上させた物体識別装置を提供することができるという効果が得られる。   According to the present invention, it is possible to provide an object identification device with improved object identification accuracy.

以下、図面を参照して、本発明の実施の形態について詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本実施の形態に係る物体識別装置の構成を示す図である。物体識別装置10の撮像部42は、近赤外光を含む複数の波長帯の光を、各波長帯毎に受光可能なフィルタを含んで構成された光学ユニット22と、光学ユニット22の光軸後方に配設されたCCDイメージセンサ(以下、「CCD」という。)24と、入力されたアナログ信号に対して各種のアナログ信号処理を行うアナログ信号処理部26と、入力されたアナログ信号をデジタルデータに変換するアナログ/デジタル変換器(以下、「ADC」という。)28と、入力されたデジタルデータに対して各種のデジタル信号処理を行うデジタル信号処理部30と、を含んで構成されている。なお、この撮像部42は、CMOSカメラであっても良い。   FIG. 1 is a diagram illustrating a configuration of an object identification device according to the present embodiment. The imaging unit 42 of the object identification device 10 includes an optical unit 22 configured to include a filter capable of receiving light in a plurality of wavelength bands including near infrared light for each wavelength band, and an optical axis of the optical unit 22. A CCD image sensor (hereinafter referred to as “CCD”) 24 disposed at the rear, an analog signal processing unit 26 for performing various analog signal processing on the input analog signal, and the input analog signal as digital An analog / digital converter (hereinafter referred to as “ADC”) 28 that converts data into data and a digital signal processing unit 30 that performs various types of digital signal processing on the input digital data are included. . The imaging unit 42 may be a CMOS camera.

また、デジタル信号処理部30は、所定容量のラインバッファを内蔵し、入力された画像データをメモリ48の所定領域に直接記憶させる制御も行う。   The digital signal processing unit 30 also has a built-in line buffer having a predetermined capacity, and performs control for directly storing the input image data in a predetermined area of the memory 48.

CCD24の出力端はアナログ信号処理部26の入力端に、アナログ信号処理部26の出力端はADC28の入力端に、ADC28の出力端はデジタル信号処理部30の入力端に、各々接続されている。従って、CCD24から出力された被写体像を示すアナログ信号はアナログ信号処理部26によって所定のアナログ信号処理が施され、ADC28によってデジタルデータである画像データに変換された後にデジタル信号処理部30に入力される。   The output terminal of the CCD 24 is connected to the input terminal of the analog signal processing unit 26, the output terminal of the analog signal processing unit 26 is connected to the input terminal of the ADC 28, and the output terminal of the ADC 28 is connected to the input terminal of the digital signal processing unit 30. . Accordingly, the analog signal indicating the subject image output from the CCD 24 is subjected to predetermined analog signal processing by the analog signal processing unit 26, converted into image data as digital data by the ADC 28, and then input to the digital signal processing unit 30. The

一方、物体識別装置10は、物体識別装置10全体の動作を司るCPU(中央処理装置)40と、撮影により得られたデジタル画像データ等を記憶するメモリ48と、メモリ48に対するアクセスの制御を行うメモリインタフェース46と、LCD(Liquid Crystal Display:液晶ディスプレイ)38と、LCD38に対するアクセスの制御を行うLCDインタフェース36と、を含んで構成されている。   On the other hand, the object identification device 10 controls a central processing unit (CPU) 40 that controls the overall operation of the object identification device 10, a memory 48 that stores digital image data obtained by photographing, and access to the memory 48. A memory interface 46, an LCD (Liquid Crystal Display) 38, and an LCD interface 36 that controls access to the LCD 38 are included.

なお、本実施の形態の物体識別装置10では、メモリ48としてVRAM(Video RAM)並びにROMが用いられている。ROMには、例えばフラッシュメモリが用いられ、OS、プログラム、及び後述するサンプル特徴情報が記憶されている。   In the object identification device 10 of the present embodiment, a VRAM (Video RAM) and a ROM are used as the memory 48. In the ROM, for example, a flash memory is used, and an OS, a program, and sample feature information described later are stored.

デジタル信号処理部30、CPU40、LCDインタフェース36、及びメモリインタフェース46はシステムバスBUSを介して相互に接続されている。従って、CPU40は、デジタル信号処理部30の作動の制御、メモリ48へのメモリインタフェース46を介したアクセス、LCDインタフェース36を介したLCD38の制御を各々行うことができる。メモリ48へアクセスすることにより、画像データからRGBI毎の画像データを生成する。   The digital signal processing unit 30, the CPU 40, the LCD interface 36, and the memory interface 46 are connected to each other via a system bus BUS. Therefore, the CPU 40 can control the operation of the digital signal processing unit 30, access the memory 48 via the memory interface 46, and control the LCD 38 via the LCD interface 36. By accessing the memory 48, image data for each RGBI is generated from the image data.

次に、図2を用いて、フィルタについて説明する。本実施の形態で用いるフィルタは、図2に示されるように、R(赤色光)を透過する赤色透過フィルタ50、G(緑色光)を透過する緑色透過フィルタ52、B(青色光)を透過する青色透過フィルタ54、及びI(近赤外光)を透過する近赤外光透過フィルタ60が交互に配置されたフィルタである。   Next, the filter will be described with reference to FIG. As shown in FIG. 2, the filter used in the present embodiment transmits a red transmission filter 50 that transmits R (red light), a green transmission filter 52 that transmits G (green light), and B (blue light). The blue transmission filter 54 and the near-infrared light transmission filter 60 that transmits I (near-infrared light) are alternately arranged.

そして、太線の矩形に示されるように上記4つのフィルタで構成されるフィルタ58が、1画素に対応している。   As shown by the bold rectangle, the filter 58 composed of the four filters corresponds to one pixel.

撮像部42と後述する画像生成部は、被写体を撮像することにより得られる画像データであるとともに、近赤外光及び可視光の複数の波長帯の光の各々の受光強度で示される画像データを生成するようになっている。   The imaging unit 42 and an image generation unit (to be described later) are image data obtained by imaging a subject, and image data indicated by received light intensities of light in a plurality of wavelength bands of near infrared light and visible light. It is designed to generate.

このように、本実施の形態では近赤外光を透過するフィルタを用いているが、近赤外光は、照射された物体の分子構造とその運動に依存して特定の波長帯の光が吸収されるという性質を持つ。言い換えると、物体の材質やその状態に応じて近赤外光の反射特性が異なる。この性質を利用すると、物体からの近赤外スペクトルを分析することによって光が照射された物体の材質や状態を知ることができる。   As described above, in this embodiment, a filter that transmits near-infrared light is used. However, near-infrared light depends on the molecular structure of the irradiated object and its motion, and light in a specific wavelength band is emitted. It has the property of being absorbed. In other words, near-infrared light reflection characteristics vary depending on the material of the object and its state. By utilizing this property, it is possible to know the material and state of the object irradiated with light by analyzing the near-infrared spectrum from the object.

上述したフィルタにより可視光を受光するCCD24は近赤外領域の一部でも撮像に必要な感度を要しているため、上記フィルタを用いたカメラ1台で可視光と近赤外光の両方を取得することも可能であり、小型化も容易である。更に、近赤外線は物体からの熱放射ではなく、可視光と同じく物体表面での反射光であるが、その反射率は物体の材質に応じて可視光とは異なった特性を示すため、物体を識別するために非常に有効なものである。   The CCD 24 that receives visible light by the above-described filter needs sensitivity necessary for imaging even in a part of the near-infrared region. Therefore, a single camera using the filter can emit both visible light and near-infrared light. It can also be acquired and can be easily downsized. Furthermore, near-infrared light is not thermal radiation from an object, but is reflected light on the surface of the object like visible light, but its reflectivity shows different characteristics from visible light depending on the material of the object. It is very effective for identification.

このように、本実施の形態では、可視光だけでなく近赤外線の反射特性まで利用できるため、物体の識別性能を向上することができる。特に植物(葉)や人の肌(水分を含有している物質)は近赤外線の反射特性に特徴があるため、可視光のみを利用した場合に比べて識別性能を大きく向上することができる。   As described above, in this embodiment, not only visible light but also near infrared reflection characteristics can be used, so that the object identification performance can be improved. In particular, plants (leaves) and human skin (substances containing water) are characterized by near-infrared reflection characteristics, so that the discrimination performance can be greatly improved compared to the case of using only visible light.

更に、上述した4つのフィルタが交互に配置されたフィルタを用いることで、時間ずれを生じることなく、同一の視野角を持つRGBI画像を取得することができる。また、同一の視野角を持つために、画像間の画素対応も容易となる。   Furthermore, by using a filter in which the above-described four filters are alternately arranged, RGBI images having the same viewing angle can be acquired without causing a time shift. In addition, since they have the same viewing angle, pixel correspondence between images is facilitated.

なお、上述したフィルタの他に、3CCD構成のようにプリズムを使った構成であっても良い。或いは、異なる波長帯を受光可能な複数種類のフォトダイオードを深さ方向に積層した撮像素子を用いるようにしても良い。   In addition to the above-described filter, a configuration using a prism such as a 3CCD configuration may be used. Alternatively, an imaging element in which a plurality of types of photodiodes capable of receiving different wavelength bands are stacked in the depth direction may be used.

次に、図3を用いて、物体識別装置10のプログラム構成について説明する。物体識別装置10には、画像生成部62と、領域情報抽出部64と、変換部66と、物体識別部68とが搭載される。   Next, the program configuration of the object identification device 10 will be described with reference to FIG. The object identification device 10 includes an image generation unit 62, a region information extraction unit 64, a conversion unit 66, and an object identification unit 68.

画像生成部62及び上記撮像部42は、近赤外光を含む複数の波長帯の光を、上述した各波長毎に受光可能なフィルタを介して被写体を撮像し、該被写体を示す画像データを生成する。   The image generation unit 62 and the imaging unit 42 image a subject through the above-described filters that can receive light in a plurality of wavelength bands including near-infrared light for each wavelength, and obtain image data indicating the subject. Generate.

領域情報抽出部64は、画像生成部62により生成された画像データが示す被写体画像を複数の領域に分割し、各々の領域毎の各波長帯毎の情報を示すとともに、波長帯の数に応じた次元数の情報で示される領域情報を抽出する。   The area information extraction unit 64 divides the subject image indicated by the image data generated by the image generation unit 62 into a plurality of areas, shows information for each wavelength band for each area, and according to the number of wavelength bands. The area information indicated by the information on the number of dimensions is extracted.

上記複数の領域とは、例えば画素1つで1つの領域や、複数の画素で1つの領域を示している。また、画素1つで1つの領域とする場合の領域情報は、本実施の形態の場合、波長帯がRGBIの4つであるので4次元の情報であり、その要素はRGBIの各々の受光強度である。また、複数の画素で1つの領域とする場合も4次元の情報であり、その領域の特徴情報は、各画素におけるRGBIの受光強度の平均値とするようにしても良い。   The above-mentioned plurality of regions indicates, for example, one region with one pixel or one region with a plurality of pixels. In addition, in the case of the present embodiment, the region information when one pixel is one region is four-dimensional information because there are four wavelength bands of RGBI, and the element is the received light intensity of each RGBI. It is. In addition, a case where a plurality of pixels form one region is also four-dimensional information, and the feature information of the region may be an average value of RGBI received light intensity in each pixel.

変換部66は、領域情報抽出部64により抽出された各々の領域情報を、領域に対応する被写体の特徴を示すとともに、次元数(本実施の形態では4次元)以下の次元数の情報で示される特徴情報に変換する。この変換の詳細については後述する。   The conversion unit 66 indicates each region information extracted by the region information extraction unit 64 with the feature of the subject corresponding to the region and information on the number of dimensions below the number of dimensions (four dimensions in the present embodiment). To feature information. Details of this conversion will be described later.

物体識別部68は、変換部66より変換された特徴情報と、上記メモリ48により記憶された後述するサンプル特徴情報とに基づいて、各領域毎に対応する被写体が示す物体を識別する。   The object identification unit 68 identifies the object indicated by the corresponding subject for each area based on the feature information converted by the conversion unit 66 and sample feature information described later stored in the memory 48.

以上が物体識別装置10のプログラム構成となっている。次に、変換の詳細及びサンプル特徴情報について説明する。   The above is the program configuration of the object identification device 10. Next, details of the conversion and sample feature information will be described.

まず、変換の詳細について説明する。図4は、変換部66で用いられる変換式を示す図である。同図(A)は、領域情報を示す(I,R,G,B)から特徴空間における特徴情報(P1,P2,P3,P4)への変換式を示すものである。上記特徴空間は、識別対象となる物体を撮影した画像データから、図5に示されるように予め抽出したサンプル点の受光強度(I,R,G,B)から主成分分析によって生成された主成分で構成される空間である。なお、図5で示される空間は分かりやすくするために2次元で描いたものとなっている。   First, details of the conversion will be described. FIG. 4 is a diagram illustrating a conversion formula used in the conversion unit 66. FIG. 6A shows a conversion formula from (I, R, G, B) indicating region information to feature information (P1, P2, P3, P4) in the feature space. The feature space is a main space generated by principal component analysis from the received light intensity (I, R, G, B) of sample points extracted in advance as shown in FIG. 5 from image data obtained by photographing an object to be identified. A space composed of components. Note that the space shown in FIG. 5 is drawn in two dimensions for easy understanding.

この特徴空間において、識別対象となる物体から得られた特徴情報は、図6に示されるように、同一の物体がまとまって分布するようになる。このように分布された特徴情報を整理して得られた統計情報が上述したサンプル特徴情報である。   In this feature space, the feature information obtained from the object to be identified is distributed as a whole as shown in FIG. The statistical information obtained by organizing the feature information distributed in this way is the sample feature information described above.

そして、このサンプル特徴情報は、メモリ48に図7に示されるようにデータベース形式で記憶されている。同図に示されるようにサンプル特徴情報は、識別対象となる物体と、当該物体に対応する特徴情報が存在する範囲とが関連づけられたものである。   This sample feature information is stored in the memory 48 in a database format as shown in FIG. As shown in the figure, the sample feature information is obtained by associating an object to be identified with a range in which feature information corresponding to the object exists.

具体的に例えば道路の場合は、a1≦P1≦b1,c1≦P2≦d1,e1≦P3≦f1,g1≦P4≦h1が特徴情報の存在する範囲となる。この範囲に上記領域情報を変換した特徴情報が含まれる場合に、その領域に対応する被写体が示す物体を道路と識別するようになっている。上記道路のサンプル特徴情報は不等式で示されるものであったが、サンプル点を変換した点の集合であっても良い。   Specifically, for example, in the case of a road, a1 ≦ P1 ≦ b1, c1 ≦ P2 ≦ d1, e1 ≦ P3 ≦ f1, and g1 ≦ P4 ≦ h1 are ranges in which feature information exists. When the feature information obtained by converting the region information is included in this range, the object indicated by the subject corresponding to the region is identified as a road. The sample feature information of the road is shown by an inequality, but it may be a set of points obtained by converting sample points.

図4の説明に戻り、同図(A)に示される4×4の正方行列は、上記主成分分析により得られた固有ベクトルを4つ並べた行列である。なお、この正方行列は4つの固有ベクトルのノルムの和が1となるように正規化したものである。   Returning to FIG. 4, the 4 × 4 square matrix shown in FIG. 4A is a matrix in which four eigenvectors obtained by the principal component analysis are arranged. This square matrix is normalized so that the sum of norms of four eigenvectors is 1.

変換部66は、図4(A)に示される式により領域情報から特徴情報に変換するが、同図(B)に示されるように、領域情報(I,R,G,B)を変換した特徴情報(P1,P2,P3,P4)を、当該特徴情報(P1,P2,P3,P4)の2つ以上の次元に対応する要素を線形変換して得られる値を1つの次元の値とした圧縮特徴情報に更に変換するようにしても良い。   The conversion unit 66 converts the region information into the feature information using the formula shown in FIG. 4A, but converts the region information (I, R, G, B) as shown in FIG. The value obtained by linearly transforming the feature information (P1, P2, P3, P4) into elements corresponding to two or more dimensions of the feature information (P1, P2, P3, P4) It may be further converted into the compressed feature information.

同図(B)の場合には、P2とP3を0.5×P2+0.5×P3と線形変換して得られた値を1つの次元の値とした(R1,R2,R3)が圧縮特徴情報として示されている。   In the case of (B) in the figure, the value obtained by linearly converting P2 and P3 to 0.5 × P2 + 0.5 × P3 is one dimension value (R1, R2, R3) as the compression feature information. It is shown.

更に上記物体識別部68は、サンプル点を変換して得られたサンプル特徴情報に含まれる特徴情報での各次元の要素において分散値が所定の値より小さくなる要素を含む次元を用いずに、被写体が示す物体を識別するようにしても良い。上記所定の値は、実験などを行うことで適宜定めるようにしても良いし、その値を任意に設定可能とするようにしても良い。このようにして次元数を減らすことにより、識別に要する処理時間を短縮することができる。   Further, the object identifying unit 68 does not use a dimension including an element whose variance value is smaller than a predetermined value in each dimension element in the feature information included in the sample feature information obtained by converting the sample point. You may make it identify the object which a to-be-photographed object shows. The predetermined value may be appropriately determined by performing an experiment or the like, or the value may be arbitrarily set. By reducing the number of dimensions in this way, the processing time required for identification can be shortened.

以下、図8を参照しながら、物体識別処理についてフローチャートを用いて説明する。なお、以下のフローチャートでは画素ごとに識別する手順を説明したものとなっているが、上述したように画面を任意の領域に分割して複数の画素からなる領域ごとに識別を実行してもよい。この場合、上述したように、領域に含まれる画素値を平均処理して、領域の受光強度(R,G,B,I)を算出すれば同様の手順で識別結果を得ることができる。   Hereinafter, the object identification process will be described with reference to FIG. 8 using a flowchart. In the following flowchart, the procedure for identifying each pixel is described. However, as described above, the screen may be divided into arbitrary regions and identification may be performed for each region composed of a plurality of pixels. . In this case, as described above, if the pixel values included in the region are averaged and the received light intensity (R, G, B, I) of the region is calculated, the identification result can be obtained in the same procedure.

図8には、RGB画像、I画像、エッジ画像、識別画像(その1)、及び識別画像(その2)が示されている。   FIG. 8 shows an RGB image, an I image, an edge image, an identification image (part 1), and an identification image (part 2).

このうち、RGB画像は、図2で説明したフィルタのうち、赤色透過フィルタ50、緑色透過フィルタ52、及び青色透過フィルタ54を透過した光により得られた画像である。I画像は、近赤外光透過フィルタ60を透過した光により得られた画像である。   Among these, the RGB image is an image obtained by the light transmitted through the red transmission filter 50, the green transmission filter 52, and the blue transmission filter 54 among the filters described in FIG. 2. The I image is an image obtained by the light transmitted through the near infrared light transmission filter 60.

エッジ画像はRGB画像、又はI画像から従来から用いられているエッジ抽出処理により得られた画像である。識別画像(その1)は、各画素毎の識別結果を示している。識別画像(その2)は、識別画像(その1)に対してノイズなどにより不適切に判断された識別結果をエッジに囲まれる領域毎に修正して物体を識別した識別結果を示している。   The edge image is an RGB image or an image obtained by edge extraction processing conventionally used from an I image. The identification image (No. 1) shows the identification result for each pixel. The identification image (No. 2) shows the identification result obtained by correcting the identification result inappropriately determined by noise or the like for the identification image (No. 1) for each region surrounded by the edges and identifying the object.

なお、本実施の形態では識別結果として、「道路」、「植物」、「建物」、「空」、「その他」としているが、これらに限られるものではなく、上記物体の一部や更に多くの物体を識別結果とするようにしても良い。   In this embodiment, the identification result is “road”, “plant”, “building”, “sky”, “other”, but is not limited to this, and a part of the object or more The object may be used as the identification result.

これらを踏まえ、まず、図9のフローチャートについて説明する。同図に示されるフローチャートは、物体識別処理を示すフローチャートである。   Based on these, first, the flowchart of FIG. 9 will be described. The flowchart shown in the figure is a flowchart showing the object identification process.

まず、ステップ101で、画像生成部62は、図8で示したRGB画像及びI画像を示す各画像データを生成する。次のステップ102で、領域情報抽出部64は、領域情報抽出処理を行う。ステップ103で、変換部66は、変換処理を行う。次のステップ104で、物体識別部68は、物体識別処理を行い、処理を終了する。   First, in step 101, the image generation unit 62 generates image data indicating the RGB image and the I image shown in FIG. In the next step 102, the region information extraction unit 64 performs region information extraction processing. In step 103, the conversion unit 66 performs a conversion process. In the next step 104, the object identification unit 68 performs an object identification process and ends the process.

次に、上記領域情報抽出処理について、図10のフローチャートを用いて説明する。まず、ステップ201で、ループカウンタkを0で初期化する。次のステップ202で、画素D(k)におけるR受光強度r、G受光強度g、B受光強度b、I受光強度i、すなわち領域情報を算出する。次のステップ203で、算出した領域情報(r、g、b、i)を配列F(k)に代入し、ステップ204でkを1つ増分する。   Next, the region information extraction processing will be described using the flowchart of FIG. First, in step 201, the loop counter k is initialized with zero. In the next step 202, R received light intensity r, G received light intensity g, B received light intensity b, I received light intensity i, that is, region information in the pixel D (k) is calculated. In the next step 203, the calculated region information (r, g, b, i) is substituted into the array F (k), and in step 204, k is incremented by one.

次のステップ205でk<M(Mは全画素数)か否か判断し、肯定判断した場合には、まだ配列F(k)に代入していない画素の領域情報が存在するため、再びステップ202の処理を行い、否定判断した場合には、全ての画素の領域情報をF(k)に代入したので処理を終了する。   In the next step 205, it is determined whether k <M (M is the total number of pixels). If the determination is affirmative, there is pixel region information that has not yet been assigned to the array F (k). If the process of 202 is performed and a negative determination is made, the area information of all pixels is substituted for F (k), and the process ends.

この処理により、F(k)に領域情報が代入されることにより、領域情報を抽出する処理が行われたこととなる。   By this process, the area information is substituted into F (k), and thus the process of extracting the area information is performed.

次に、図11のフローチャートを用いて、変換部66による変換処理について説明する。まず、ステップ301で、ループカウンタkを0で初期化する。次のステップ302で、P(k)にAF(k)を代入する。ここでAは図4(A)に示した4×4の正方行列であり、F(k)は上記配列を4行1列の行列とみなしたものであり、P(k)は特徴情報を示している。   Next, the conversion process by the conversion unit 66 will be described using the flowchart of FIG. First, at step 301, the loop counter k is initialized with zero. In the next step 302, AF (k) is substituted for P (k). Here, A is a 4 × 4 square matrix shown in FIG. 4 (A), F (k) is the above-mentioned array regarded as a 4 × 1 matrix, and P (k) is characteristic information. Show.

次のステップ303でkを1つ増分し、次のステップ304でk<M(Mは全画素数)か否か判断し、肯定判断した場合には、まだ特徴情報P(k)に代入していない画素の特徴情報が存在するため、再びステップ302の処理を行い、否定判断した場合には、全ての画素の特徴情報をP(k)に代入したので処理を終了する。   In the next step 303, k is incremented by one. In the next step 304, it is determined whether or not k <M (M is the total number of pixels). If the determination is affirmative, it is still substituted into the feature information P (k). Since there is feature information of pixels that are not present, the process of step 302 is performed again. When a negative determination is made, the feature information of all the pixels is substituted into P (k), and the process ends.

次に、図12のフローチャートを用いて、物体識別部68による物体識別処理について説明する。なお、このフローチャートでは、上記サンプル特徴情報に、識別対象となる物体を撮影することで生成された画像データから得られた高次局所自己相関特徴情報が更に含まれているものとする。この高次局所自己相関特徴情報は、RGBIの各波長帯の画像から計算される表面情報(テクスチャ情報)を示す特徴量であり、この情報により、分割した各領域が何であるかを更に精度良く識別することが可能となる。   Next, the object identification processing by the object identification unit 68 will be described using the flowchart of FIG. In this flowchart, it is assumed that the sample feature information further includes higher-order local autocorrelation feature information obtained from image data generated by photographing an object to be identified. This high-order local autocorrelation feature information is a feature amount indicating surface information (texture information) calculated from images in each RGBI wavelength band, and this information can be used to more accurately determine what each divided region is. It becomes possible to identify.

まず、ステップ401で、ループカウンタkを0で初期化する。次のステップ402で、P(k)とサンプル特徴情報を比較する。ここでの比較は、P(k)を範囲に含むサンプル特徴情報を見つけることを示す。   First, in step 401, the loop counter k is initialized with zero. In the next step 402, P (k) is compared with the sample feature information. The comparison here indicates finding sample feature information that includes P (k) in the range.

そして、次のステップ403で、P(k)が2つ以上のサンプル特徴情報の範囲内か否か判断する。上述したサンプル特徴情報の範囲は重なる場合もあるので、このフローチャートでは、ステップ404で高次局所自己相関特徴情報を用いて更に比較し、ステップ405に処理が進む。一方、ステップ403で否定判断した場合にもステップ405に処理が進む。   In the next step 403, it is determined whether P (k) is within the range of two or more pieces of sample feature information. Since the ranges of the sample feature information described above may overlap, in this flowchart, the comparison is further performed using the higher-order local autocorrelation feature information in step 404, and the process proceeds to step 405. On the other hand, if a negative determination is made in step 403, the process proceeds to step 405.

なお、ステップ404のように高次局所自己相関特徴情報を用いない場合は、P(k)を含むサンプル特徴情報のうちのいずれか一つのサンプル特徴情報をP(k)が含まれるサンプル特徴情報として固定的に選択するか、或いは重なった2つ以上の範囲の各々の中心のうち、P(k)が最も近い中心を持つ範囲のサンプル特徴情報をP(k)が含まれるサンプル特徴情報とするようにしても良い。   Note that, when the higher-order local autocorrelation feature information is not used as in step 404, any one of the sample feature information including P (k) is sample feature information including P (k). The sample feature information of a range having the closest center of P (k) among the centers of two or more ranges that are fixedly selected as sample feature information including P (k) You may make it do.

次のステップ405で、ステップ403又はステップ404での比較結果をk番目の画素が示す物体とする。   In the next step 405, the comparison result in step 403 or 404 is set as the object indicated by the kth pixel.

次のステップ406でkを1つ増分し、次のステップ407でk<M(Mは全画素数)か否か判断し、肯定判断した場合には、まだ識別していない画素が存在するため、再びステップ402の処理を行い、否定判断した場合には、全ての画素に対して識別したので、ステップ408でエッジ抽出処理を行う。   In the next step 406, k is incremented by one. In the next step 407, it is determined whether or not k <M (M is the total number of pixels). If the determination is affirmative, there is a pixel that has not yet been identified. When the process of step 402 is performed again and a negative determination is made, since all the pixels have been identified, an edge extraction process is performed at step 408.

この時点での識別結果を示すのが、上記図8の識別画像(その1)である。ノイズ等により、実際の物体とは異なる物体と識別されたものが存在するため、識別結果が周辺の画素に対する識別結果とは異なるものが散見される。   The identification image at that time is the identification image (No. 1) shown in FIG. Since there are objects that are identified as objects different from the actual object due to noise or the like, there are some cases where the identification results are different from the identification results for the surrounding pixels.

次のステップ409で、各エッジに囲まれた領域で最も多い識別結果をその領域の示す物体とする。これにより得られた識別結果を示すのが、図8の識別画像(その2)である。この識別画像(その2)により更に精度良く物体を識別した画像が得られる。   In the next step 409, the most frequent identification result in the area surrounded by each edge is set as an object indicated by the area. An identification image (part 2) shown in FIG. 8 shows the identification result thus obtained. An image in which an object is identified with higher accuracy can be obtained from this identification image (part 2).

このように、本実施の形態では、可視から近赤外領域を対象とした複数波長帯の画像に基づいて、人や車両のみでなく、画像に写っている道路、空、建物、植物などの背景までも識別することができる。   As described above, in the present embodiment, not only people and vehicles but also roads, sky, buildings, plants, and the like shown in the image based on images of a plurality of wavelength bands for the visible to near-infrared region. Even the background can be identified.

また、本実施の形態により得られた識別結果(図8の識別画像(その2))はLCD38を通してユーザに提供されてもよいが、歩行者検出装置や車両検出装置など別の検出装置の入力情報として利用することも有効である。   In addition, the identification result (identification image (part 2) in FIG. 8) obtained by the present embodiment may be provided to the user through the LCD 38, but input from another detection device such as a pedestrian detection device or a vehicle detection device. It is also effective to use it as information.

例えば、歩行者検出装置において、上記識別結果が入手された場合、歩行者の探索範囲は「その他」と識別されている領域のみに限定することができる。なぜなら、他の領域は「道路」「植物」「建物」「空」のいずれかに識別されており、それらの中に歩行者が存在することはないからである。このように利用すると、探索範囲が限定されるため、歩行者検出装置における計算コストの削減や誤検出率の低減などの面で非常に効果的となる。   For example, in the pedestrian detection device, when the identification result is obtained, the search range of the pedestrian can be limited to only the region identified as “others”. This is because the other areas are identified as any one of “road”, “plant”, “building”, and “sky”, and there is no pedestrian among them. When used in this manner, the search range is limited, which is very effective in terms of reducing the calculation cost and the false detection rate in the pedestrian detection device.

なお、以上説明した実施の形態では、RGBを用いていたが、HSVなど他の色空間を用いるようにしても良い。   In the embodiment described above, RGB is used, but other color spaces such as HSV may be used.

本実施の形態に係る物体識別装置の構成を示す図である。It is a figure which shows the structure of the object identification apparatus which concerns on this Embodiment. フィルタを示す図である。It is a figure which shows a filter. 物体識別装置のプログラム構成を示す図である。It is a figure which shows the program structure of an object identification apparatus. 変換部で用いられる変換式を示す図である。It is a figure which shows the conversion formula used in a conversion part. 主成分分析によって生成された主成分で構成される空間例を示す図である。It is a figure which shows the example of a space comprised by the main component produced | generated by the principal component analysis. 特徴情報の分布例を示す図である。It is a figure which shows the example of distribution of feature information. サンプル特徴情報を示す図である。It is a figure which shows sample characteristic information. 物体識別処理に関する画像を示す図である。It is a figure which shows the image regarding an object identification process. 物体識別処理を示すフローチャートである。It is a flowchart which shows an object identification process. 領域情報抽出処理を示すフローチャートである。It is a flowchart which shows area | region information extraction processing. 変換処理を示すフローチャートである。It is a flowchart which shows a conversion process. 物体識別処理を示すフローチャートである。It is a flowchart which shows an object identification process.

符号の説明Explanation of symbols

10 物体識別装置
22 光学ユニット
24 CCD
26 アナログ信号処理部
30 デジタル信号処理部
36 LCDインタフェース
38 LCD
40 CPU
42 撮像部
46 メモリインタフェース
48 メモリ
50 赤色透過フィルタ
52 緑色透過フィルタ
54 青色透過フィルタ
58 フィルタ
60 近赤外光透過フィルタ
62 画像生成部
64 領域情報抽出部
66 変換部
68 物体識別部
10 Object Identification Device 22 Optical Unit 24 CCD
26 Analog signal processing unit 30 Digital signal processing unit 36 LCD interface 38 LCD
40 CPU
42 Imaging unit 46 Memory interface 48 Memory 50 Red transmission filter 52 Green transmission filter 54 Blue transmission filter 58 Filter 60 Near infrared light transmission filter 62 Image generation unit 64 Area information extraction unit 66 Conversion unit 68 Object identification unit

Claims (6)

被写体を撮像することにより得られる画像データであるとともに、近赤外光及び可視光の複数の波長帯の光の各々の受光強度で示される画像データを生成する撮像手段と、
前記撮像手段により生成された前記画像データが示す被写体画像を複数の領域に分割し、各々の領域毎の前記各波長帯毎の情報を示すとともに、前記波長帯の数に応じた次元数の情報で示される領域情報を抽出する領域情報抽出手段と、
前記領域情報抽出手段により抽出された各々の領域情報を、前記領域に対応する被写体の特徴を示すとともに、前記次元数以下の次元数の情報で示される特徴情報に変換する変換手段と、
識別対象となる物体と、当該物体に対応する前記特徴情報が存在する範囲とが関連づけられたサンプル特徴情報が予め記憶された記憶手段と、
前記変換手段により変換された前記特徴情報と、前記記憶手段により記憶されたサンプル特徴情報とに基づいて、各前記領域毎に対応する被写体が示す物体を識別する物体識別手段と、
を有する物体識別装置。
Imaging means for generating image data that is image data obtained by imaging a subject and that is indicated by the received light intensity of each of light in a plurality of wavelength bands of near-infrared light and visible light; and
The subject image indicated by the image data generated by the imaging unit is divided into a plurality of regions, information for each wavelength band for each region is shown, and information on the number of dimensions according to the number of wavelength bands Area information extraction means for extracting area information indicated by:
Conversion means for converting each area information extracted by the area information extraction means into feature information indicated by information of the number of dimensions equal to or less than the number of dimensions, indicating the characteristics of the subject corresponding to the area;
Storage means in which sample feature information in which an object to be identified is associated with a range in which the feature information corresponding to the object exists is stored in advance;
Object identifying means for identifying an object indicated by a corresponding object for each of the regions based on the feature information converted by the converting means and the sample feature information stored by the storage means;
An object identification device.
前記画像データが示す被写体画像からエッジを抽出するエッジ抽出手段を更に有し、
前記物体識別手段は、前記エッジ抽出手段により抽出されたエッジに囲まれる領域毎に物体を識別する請求項1に記載の物体識別装置。
An edge extracting means for extracting an edge from the subject image indicated by the image data;
The object identification device according to claim 1, wherein the object identification unit identifies an object for each region surrounded by the edge extracted by the edge extraction unit.
前記サンプル特徴情報には、識別対象となる物体を前記撮像手段により予め撮影することで生成された画像データから得られた高次局所自己相関特徴情報が更に含まれており、
前記物体識別手段は、前記高次局所自己相関特徴情報を更に用いて前記領域に対応する被写体が示す物体を識別する請求項1又は請求項2に記載の物体識別装置。
The sample feature information further includes higher-order local autocorrelation feature information obtained from image data generated by previously capturing an object to be identified by the imaging unit.
The object identification device according to claim 1, wherein the object identification unit further identifies the object indicated by the subject corresponding to the region using the higher-order local autocorrelation feature information.
前記物体識別手段は、前記サンプル特徴情報に含まれる複数の特徴情報での各次元の要素において分散値が所定の値より小さくなる要素を含む次元を用いずに、前記被写体が示す物体を識別する請求項1から請求項3のいずれか1項に記載の物体識別装置。   The object identifying means identifies an object indicated by the subject without using a dimension including an element whose variance value is smaller than a predetermined value among the elements of each dimension in the plurality of feature information included in the sample feature information. The object identification device according to any one of claims 1 to 3. 前記変換手段は、前記領域情報を変換した前記特徴情報を、当該特徴情報の2つ以上の次元に対応する要素を線形変換して得られる値を1つの次元の値とした圧縮特徴情報に更に変換し、
前記物体識別手段は、前記圧縮特徴情報と、前記記憶手段により記憶されたサンプル特徴情報とに基づいて、各前記領域毎に対応する被写体が示す物体を識別する請求項1から請求項3のいずれか1項に記載の物体識別装置。
The converting means further converts the feature information obtained by converting the region information into compressed feature information in which a value obtained by linearly converting elements corresponding to two or more dimensions of the feature information is a one-dimensional value. Converted,
4. The object identification unit according to claim 1, wherein the object identification unit identifies an object indicated by a corresponding subject for each of the regions based on the compression feature information and the sample feature information stored by the storage unit. 5. The object identification device according to claim 1.
前記領域情報は、赤色光、緑色光、青色光、及び近赤外光の受光強度を示す情報である請求項1〜請求項5のいずれか1項に記載の物体識別装置。   The object identification device according to claim 1, wherein the region information is information indicating received light intensity of red light, green light, blue light, and near infrared light.
JP2007246876A 2007-09-25 2007-09-25 Object identification device Expired - Fee Related JP4985264B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007246876A JP4985264B2 (en) 2007-09-25 2007-09-25 Object identification device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007246876A JP4985264B2 (en) 2007-09-25 2007-09-25 Object identification device

Publications (2)

Publication Number Publication Date
JP2009076012A true JP2009076012A (en) 2009-04-09
JP4985264B2 JP4985264B2 (en) 2012-07-25

Family

ID=40610887

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007246876A Expired - Fee Related JP4985264B2 (en) 2007-09-25 2007-09-25 Object identification device

Country Status (1)

Country Link
JP (1) JP4985264B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018116004A (en) * 2017-01-20 2018-07-26 パイオニア株式会社 Data compression apparatus, control method, program and storage medium
JP2018173991A (en) * 2018-07-09 2018-11-08 日本電気株式会社 Detection device
JP2018181204A (en) * 2017-04-20 2018-11-15 国立大学法人秋田大学 Object estimation device
US10509955B2 (en) 2015-03-13 2019-12-17 Nec Corporation Living body detection device, living body detection method, and recording medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07220095A (en) * 1994-02-01 1995-08-18 Canon Inc Extracting device for image of object
JPH10260078A (en) * 1997-03-18 1998-09-29 Tech Res & Dev Inst Of Japan Def Agency Target extracting method
JP2002203240A (en) * 2000-10-31 2002-07-19 Matsushita Electric Ind Co Ltd Apparatus, method and program for recognizing object and recording medium
JP2004192603A (en) * 2002-07-16 2004-07-08 Nec Corp Method of extracting pattern feature, and device therefor
JP2006260310A (en) * 2005-03-17 2006-09-28 Kyushu Institute Of Technology Article discrimination method, article discrimination device, and program
JP2007199750A (en) * 2006-01-23 2007-08-09 Nec Corp Method for calculating parameter of pixel group, method for detecting target, system for calculating parameter of pixel group, and system for detecting target

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07220095A (en) * 1994-02-01 1995-08-18 Canon Inc Extracting device for image of object
JPH10260078A (en) * 1997-03-18 1998-09-29 Tech Res & Dev Inst Of Japan Def Agency Target extracting method
JP2002203240A (en) * 2000-10-31 2002-07-19 Matsushita Electric Ind Co Ltd Apparatus, method and program for recognizing object and recording medium
JP2004192603A (en) * 2002-07-16 2004-07-08 Nec Corp Method of extracting pattern feature, and device therefor
JP2006260310A (en) * 2005-03-17 2006-09-28 Kyushu Institute Of Technology Article discrimination method, article discrimination device, and program
JP2007199750A (en) * 2006-01-23 2007-08-09 Nec Corp Method for calculating parameter of pixel group, method for detecting target, system for calculating parameter of pixel group, and system for detecting target

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10509955B2 (en) 2015-03-13 2019-12-17 Nec Corporation Living body detection device, living body detection method, and recording medium
US10528803B2 (en) 2015-03-13 2020-01-07 Nec Corporation Living body detection device, living body detection method, and recording medium
US10546189B2 (en) 2015-03-13 2020-01-28 Nec Corporation Living body detection device, living body detection method, and recording medium
US10546190B2 (en) 2015-03-13 2020-01-28 Nec Corporation Living body detection device, living body detection method, and recording medium
US11132536B2 (en) 2015-03-13 2021-09-28 Nec Corporation Living body detection device, living body detection method, and recording medium
JP2018116004A (en) * 2017-01-20 2018-07-26 パイオニア株式会社 Data compression apparatus, control method, program and storage medium
JP2018181204A (en) * 2017-04-20 2018-11-15 国立大学法人秋田大学 Object estimation device
JP7007629B2 (en) 2017-04-20 2022-01-24 国立大学法人秋田大学 Object estimation device
JP2018173991A (en) * 2018-07-09 2018-11-08 日本電気株式会社 Detection device

Also Published As

Publication number Publication date
JP4985264B2 (en) 2012-07-25

Similar Documents

Publication Publication Date Title
US10534116B2 (en) Single-sensor hyperspectral imaging device
Oh et al. Do it yourself hyperspectral imaging with everyday digital cameras
US10057510B2 (en) Systems and methods for enhanced infrared imaging
US7208733B2 (en) Non-visible radiation imaging and inspection
Gao et al. Gradient-based interpolation method for division-of-focal-plane polarimeters
US7613360B2 (en) Multi-spectral fusion for video surveillance
US8810658B2 (en) Estimating a visible vector representation for pixels in an infrared image
JP5135882B2 (en) Object identification device and program
US9354045B1 (en) Image based angle sensor
CN112672054B (en) Focusing method and device and electronic equipment
JP4985264B2 (en) Object identification device
BE1012272A5 (en) Device and method for measuring image colored.
US8854501B2 (en) Image processing apparatus and image processing method for processing spectral image data
JP4821399B2 (en) Object identification device
KR101625471B1 (en) Method and apparatus for enhancing resolution of popular low cost thermal image camera
JP2007004721A (en) Object detecting device and object detecting method
Moyer et al. Probability of identification of small hand-held objects for electro-optic forward-looking infrared systems
CN116806304A (en) Data processing device, data processing method, data processing program, optical element, photographing optical system, and photographing apparatus
Chenault et al. Pyxis handheld polarimetric imager
CN112672021A (en) Language identification method and device and electronic equipment
Kanaev Compact full-motion video hyperspectral cameras: development, image processing, and applications
Dittrich et al. Measurement, comparison, and evaluation of spectral sensitivity curves from different multispectral resolving snapshot-mosaic cameras (Conference Presentation)
Wu et al. Recovering sensor spectral sensitivity from raw data
US11079277B2 (en) Spectral imaging device and method
Chenault et al. Pyxis: enhanced thermal imaging with a division of focal plane polarimeter

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100818

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111213

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120403

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120416

R151 Written notification of patent or utility model registration

Ref document number: 4985264

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150511

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees