WO2011126112A1 - スペクトル測定装置 - Google Patents

スペクトル測定装置 Download PDF

Info

Publication number
WO2011126112A1
WO2011126112A1 PCT/JP2011/058904 JP2011058904W WO2011126112A1 WO 2011126112 A1 WO2011126112 A1 WO 2011126112A1 JP 2011058904 W JP2011058904 W JP 2011058904W WO 2011126112 A1 WO2011126112 A1 WO 2011126112A1
Authority
WO
WIPO (PCT)
Prior art keywords
spectrum
data
spectrum data
correlation
spectral
Prior art date
Application number
PCT/JP2011/058904
Other languages
English (en)
French (fr)
Inventor
川真田 進也
船山 竜士
石 勉
祐巳子 吉川
Original Assignee
トヨタ自動車 株式会社
日本電気 株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by トヨタ自動車 株式会社, 日本電気 株式会社 filed Critical トヨタ自動車 株式会社
Priority to US13/639,363 priority Critical patent/US9234800B2/en
Priority to CN201180013689.6A priority patent/CN102792150B/zh
Priority to EP11766012.6A priority patent/EP2557412A4/en
Publication of WO2011126112A1 publication Critical patent/WO2011126112A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/457Correlation spectrometry, e.g. of the intensity
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/42Photometry, e.g. photographic exposure meter using electric radiation detectors
    • G01J1/4204Photometry, e.g. photographic exposure meter using electric radiation detectors with determination of ambient light
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/0264Electrical interface; User interface
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/027Control of working procedures of a spectrometer; Failure detection; Bandwidth calculation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/2823Imaging spectrometer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/194Terrestrial scenes using hyperspectral data, i.e. more or other wavelengths than RGB

Definitions

  • the present invention relates to a spectrum measuring apparatus for recognizing a measurement object existing in a surrounding environment, particularly a measurement object existing in a traffic environment, based on spectrum data obtained by measuring with a spectrum sensor.
  • a measurement object existing in the surrounding environment of the spectrum sensor is recognized from multispectral data including a visible light region and an invisible light region measured by the spectrum sensor, and depending on the recognized measurement object or its state Practical application of technologies that provide various types of support is under consideration. For example, in the case of a vehicle such as an automobile, the driver recognizes pedestrians and other vehicles existing in the traffic environment around the vehicle based on spectrum data measured by a spectrum sensor mounted on the vehicle. The practical application of driving support devices that support driving and decision making is under consideration.
  • the spectrum sensor measures the spectrum of the reflected light reflected from the measurement object
  • the spectrum measured by the spectrum sensor is directly affected by the spectrum of the ambient light irradiated on the measurement object. It will be reflected.
  • This ambient light is sunlight, illumination light, or the like irradiated on the measurement target.
  • the spectrum of the ambient light changes due to the influence of the weather, the brightness of the surroundings of the measurement target, the objects around the measurement target, and the like. For this reason, in the recognition of the measurement object based on the spectrum of the reflected light, it is difficult to improve the recognition accuracy of the measurement object unless the influence of the environmental light irradiated on the measurement object is taken into consideration.
  • the spectrum measuring apparatus described in Patent Document 1 includes a spectrum sensor that measures a reflected light spectrum of a measurement object for each pixel, a spectrum sensor that detects a measurement environment light spectrum in the measurement environment of the measurement object, and these measurements. Calculation means for calculating the spectral reflectance distribution of the measurement object from the reflected light spectrum of the object and the measurement environment light spectrum is provided. Further, the spectrum measuring apparatus includes a spectrum sensor for detecting a reproduction environment light spectrum in a reproduction environment, a spectrum conversion means for converting a measurement object into a spectrum when measured under the reproduction environment light spectrum, and the conversion.
  • a reproducing means for reproducing the spectrum As a result, the influence of the measurement environment light spectrum included in the reflected light spectrum of the measurement object can be removed, and the influence of the reproduction environment light spectrum can be taken into account, and the measurement object measured in the measurement environment Will be reproduced faithfully in the playback environment.
  • a dedicated spectrum sensor for measuring the measurement environment light spectrum is required, and only the measurement environment light spectrum is measured by the spectrum sensor. It is desirable to do so.
  • the ambient light does not always consist only of light based on a specific light source.
  • the measurement object is moving, it is difficult to specify the position of the light source even if there is only one light source.
  • there is a high possibility that the influence of ambient light included in the spectrum to be measured cannot be removed or reduced. That is, even if it is intended to recognize various measurement objects existing around the vehicle using the spectrum data measured by the spectrum sensor, it is particularly required for driving support of the vehicle due to a decrease in recognition accuracy due to the influence of ambient light. Recognition of the measurement object is also difficult.
  • An object of the present invention is to provide a spectrum measuring apparatus that can remove or reduce the influence of ambient light contained in a reflected light spectrum of a measurement object while having a simple configuration, and can further improve the recognition accuracy of the measurement object. There is.
  • a spectrum measuring apparatus for recognizing a measurement object based on spectrum data of observation light detected by a spectrum sensor capable of measuring wavelength information and light intensity information.
  • the spectrum measurement device includes a spectrum data processing device, and the spectrum data processing device subtracts one of the spectrum data from the spectrum data at two different positions detected by the spectrum sensor or the other. Is divided by the other spectral data to calculate one correlation spectral data correlated with the spectral data at the two different positions. Then, the spectrum data processing apparatus simultaneously identifies the measurement objects corresponding to the two different positions based on the correlation spectrum data.
  • FIG. 1 is a block diagram showing the configuration of a spectrum measuring apparatus according to a first embodiment of the present invention.
  • the block diagram for demonstrating the function of the spectrum measuring apparatus of FIG. The block diagram for demonstrating the function of the spectrum measuring apparatus of FIG.
  • the schematic diagram which shows an example of a measuring object typically.
  • (A) And (b) is a figure which shows typically an example of the spectrum image detected by the spectrum measuring apparatus of FIG.
  • (A) And (b) is a figure which shows typically an example of the spectrum image detected by the spectrum measuring apparatus of FIG.
  • A)-(e) is a graph which shows an example of the spectrum data of the measuring object detected by the spectrum measuring apparatus of FIG.
  • FIG. 11 are graphs showing an example of changes in the shape of spectrum data accompanying preprocessing in the spectrum measuring apparatus of FIG. (A) to (e) are graphs for explaining an aspect of removing the influence of observation light from spectrum data in the spectrum measuring apparatus of FIG.
  • the flowchart which shows the procedure of the recognition process of the measuring object implemented by the spectrum measuring apparatus of FIG.
  • the block diagram which shows the structure of the spectrum measuring apparatus which concerns on 2nd Embodiment of this invention.
  • the block diagram for demonstrating the function of the spectrum measuring apparatus of FIG. (A)-(c) is a figure explaining the spectrum data to which the context was added.
  • 12 is a flowchart showing a procedure of measurement object recognition processing performed by the spectrum measurement apparatus of FIG. 11.
  • (A)-(c) is a figure explaining the spectrum data to which the context was added.
  • the block diagram which shows the structure of the spectrum measuring apparatus which concerns on 3rd Embodiment of this invention.
  • the flowchart which shows the procedure of the recognition process of the measuring object implemented by the spectrum measuring apparatus of FIG.
  • the block diagram which shows the structure of the spectrum measuring apparatus which concerns on 4th Embodiment of this invention.
  • the flowchart which shows the procedure of the recognition process of the measuring object implemented by the spectrum measuring apparatus of FIG.
  • the block diagram which shows the structure of the spectrum measuring apparatus which concerns on other embodiment of this invention.
  • the block diagram which shows the structure of the spectrum measuring apparatus which concerns on other embodiment of this invention.
  • the spectrum measuring apparatus 11 of the present embodiment is provided in a vehicle 10 as a moving body.
  • the spectrum measuring apparatus 11 recognizes a measurement target by acquiring optical information including visible light and invisible light outside the vehicle 10.
  • the vehicle 10 transmits the recognition information output from the spectrum measurement device 11 to the passenger of the vehicle 10 and the recognition information output from the spectrum measurement device 11 of the vehicle 10.
  • a vehicle control device 13 for reflecting the control is provided.
  • the human machine interface 12 communicates the vehicle state and the like to the passenger, particularly the operator, through light, color, sound, and the like, and pushes the intention of the passenger so that the intention of the passenger is input to the spectrum measuring device 11 through operation of a button or the like.
  • This is a known interface device composed of operation devices such as buttons and a touch panel.
  • the vehicle control device 13 is one of a plurality of control devices mounted on the vehicle 10, and is necessary information with another control device such as an engine control device that is also mounted on the vehicle 10. Are interconnected either directly or via an in-vehicle network so that they can be transmitted to each other.
  • recognition information information such as a recognized measurement object
  • the vehicle control device 13 transmits the information to another control device and is recognized.
  • the vehicle 10 is made to perform the driving assistance requested
  • the spectrum measuring device 11 includes a spectrum sensor 14 that detects the spectrum data S0 of the observation light, a spectrum data processing device 15 that receives the spectrum data S0 of the observation light detected by the spectrum sensor 14 and processes the data S0. Is provided.
  • the spectrum sensor 14 detects the spectrum data S0 of the observation light as a so-called spectrum image, and each pixel constituting the spectrum image includes individual spectrum data.
  • the spectrum sensor 14 has a function of splitting observation light, which is light including visible light and invisible light, into a predetermined wavelength band. Then, the spectrum sensor 14 outputs spectrum data including wavelength information and light intensity information regarding the dispersed observation light to the spectrum data processing device 15.
  • the wavelength information is information indicating each wavelength included in the spectral wavelength band
  • the light intensity information is information indicating the light intensity of the observation light at each wavelength. That is, the spectral data includes a spectral shape that is the light intensity at each wavelength of the observation light and a spectral shape that indicates the distribution of the same spectral intensity in the wavelength band.
  • FIG. 4 is a diagram schematically showing a road environment detected by the spectrum sensor 14.
  • 5A and 5B show an example of spectrum data in a region including the roadway 50 and the tire 53B of the automobile 53.
  • FIGS. 6A and 6B show an example of spectral data of a region including the head 54A and the torso 54B of the pedestrian 54.
  • FIGS. 7A to 7E are graphs showing an example of spectrum data (spectrum shape) of points (pixels) corresponding to the measurement target detected by the spectrum sensor 14.
  • the spectrum sensor 14 detects spectrum data S0 of observation light corresponding to the road environment as shown in FIG.
  • this road environment there are an asphalt-paved roadway 50, an asphalt-paved sidewalk 51 extending along one side of the roadway 50, an automobile 53 on the roadway 50, and a pedestrian 54 on the sidewalk 51.
  • a guard rail 55 is installed on the side of the roadway 50 opposite to the sidewalk 51, and a plurality of trees 52 grow behind the guard rail 55. Further, a background 56 including the sky extends above the road environment.
  • the spectrum sensor 14 detects the spectrum data S0 of the observation light based on such a road environment, for example, a spectrum as shown in FIGS. 5 (a), (b), FIGS. 6 (a), (b). Acquire data (spectral image).
  • a spectrum as shown in FIGS. 5 (a), (b), FIGS. 6 (a), (b).
  • Acquire data spectral image
  • Each square defined by a broken line in FIGS. 5A and 5B and FIGS. 6A and 6B schematically represents one pixel of the spectrum sensor 14.
  • symbols “a”, “b”, and “c” for distinguishing spectrum data (spectrum shape) are attached for convenience. That is, for example, the pixel corresponding to the tire 53B detects the spectrum data of the rubber tire indicated by the symbol “a” in FIGS. 5A and 5B, and the pixel corresponding to the roadway 50 is, for example, FIG.
  • Asphalt spectrum data indicated by reference numeral “b” in a) and (b) is detected.
  • the pixel corresponding to the bumper 53C detects the spectral data of the paint, for example, indicated by the symbol “c” in FIGS. 5 (a) and 5 (b).
  • the pixel corresponding to the head 54A detects the spectrum data of the facial skin, which is indicated by the symbol “a” in FIGS. 6A and 6B, and the pixel corresponding to the body portion 54B is, for example, FIG.
  • the spectral data of the clothing indicated by the reference “b” in (a) and (b) is detected.
  • the pixel corresponding to the background 56 detects, for example, empty spectrum data indicated by the reference numeral “c” in FIGS. 6A and 6B.
  • the spectrum data to be measured detected by the spectrum sensor 14 in this way has a spectrum shape as shown in FIGS. 7 (a) to (e), for example. That is, for example, the spectral data (spectral shape) shown in FIG. 7A is measured from the comparison position 200 of the tree 52 shown in FIG. 4, and the comparison position 201 of the guardrail 55 shown in FIG. The spectral data (spectral shape) shown in b) is measured. Further, for example, spectrum data (spectral shape) shown in FIG. 7C is measured from the boundary region 204 between the tire 53B and the roadway 50 shown in FIG. 4, and from the comparison position 203 of the roadway 50 shown in FIG. For example, the spectrum data (spectrum shape) shown in FIG. 7 (d) is measured. Furthermore, for example, spectral data (spectral shape) shown in FIG. 7E is measured from the comparison position 205 of the head 54A of the pedestrian 54 shown in FIG.
  • the spectrum data processing device 15 is mainly configured by a microcomputer having an arithmetic device, a storage device, and the like.
  • a spectrum sensor 14 is connected to the spectrum data processing device 15, and spectrum data S 0 of observation light detected by the spectrum sensor 14 is input.
  • the spectrum data processing device 15 identifies the measurement object observed based on the input spectrum data S0 of the observation light, and transmits the recognition result to the human machine interface 12 and the vehicle control device 13.
  • the spectrum data processing device 15 includes an arithmetic device 16 and a dictionary data storage unit 17.
  • the dictionary data storage unit 17 includes all or a part of a storage area provided in a known storage device, and a plurality of spectrum data to be measured to be identified is stored in advance as dictionary data in the storage area.
  • the dictionary data storage unit 17 stores, as dictionary data, first matching data 17A (see FIG. 3) obtained by performing a predetermined process on each of a plurality of spectrum data to be measured. .
  • This predetermined process is a process suitable for the process in which the spectrum data processing device 15 recognizes the measurement target, and details thereof will be described later.
  • Dictionary data in the dictionary data storage unit 17 is data based on spectrum data (spectrum shape) of a measurement target to be identified, and is prepared in advance according to the number of measurement targets to be identified.
  • measurement targets to be identified include moving objects such as pedestrians (people), bicycles, motorcycles, and automobiles, and non-moving signals, signs, road surface paints, guardrails, stores, signboards, and the like. The body is mentioned. Further, as measurement targets to be identified, for example, pedestrians (people) are classified into children, elderly people, men, women, and the like, which have more detailed attributes, and automobiles have more detailed attributes, such as trucks, buses, and sedan. , SUV, light vehicle, etc.
  • the dictionary data storage unit 17 includes one or a plurality of storage areas so that a plurality of dictionary data prepared in advance can be stored in an appropriate manner.
  • the spectrum sensor 14 and the dictionary data storage unit 17 are connected to the arithmetic device 16 so that information can be transmitted.
  • the arithmetic unit 16 performs measurement by comparing and comparing the dictionary data acquired from the dictionary data storage unit 17 and the correlation spectrum data calculated by performing predetermined processing on the spectrum data S0 of the observation light. Identify.
  • the arithmetic unit 16 selects a pre-processing unit 20 that performs data processing on the spectrum data to reduce the influence of ambient light intensity and sensor sensitivity on the spectrum data, and selects two regions (pixels). Each includes a comparison area selection unit 23 to be acquired, and a first recognition unit 30 for identifying a measurement object based on the two acquired spectrum data.
  • the pre-processing unit 20 receives the spectrum data S0 of the observation light from the spectrum sensor 14. As shown in FIG. 2, the preprocessing unit 20 includes a normalization processing unit 21 that normalizes the spectrum data S0 under a predetermined condition, and normalized spectrum data (normalized spectrum data S1). And a secondary differential processing unit 22 for performing secondary differentiation.
  • FIGS. 8A to 8C are graphs showing changes in the shape of the spectrum data accompanying the processing in the preprocessing unit 20.
  • the spectrum data Sx0 illustrated in FIG. 8A is spectrum data corresponding to one pixel x specified in the spectrum data S0 of the observation light.
  • the spectrum data S0 of the observation light is normalized by the normalization processing unit 21. That is, the normalization processing unit 21 equalizes the difference in the intensity of the observation light of each pixel and the difference in the sensor sensitivity of each pixel, and influences the difference on the spectrum data S0 of the observation light. Normalized spectrum data S1 with reduced is generated. For example, the spectrum shape of the spectrum data Sx0 of the pixel x shown in FIG. 8A is normalized by the normalization processing unit 21, whereby the spectrum of the normalized spectrum data Sx1 as shown in FIG. Converted to shape.
  • the normalized spectrum data S1 is secondarily differentiated by the second-order differentiation processing unit 22, so that the wavelength information of the inflection point characterizing the spectrum data from the normalized spectrum data S1 and the inflection point of the inflection point.
  • Characterized spectral data S2 including the magnitude is generated.
  • the spectral shape of the normalized spectral data Sx1 of the pixel x shown in FIG. 8B is obtained by the second order differentiation by the second order differential processing unit 22, and the characteristic spectrum data Sx2 shown in FIG. Converted to spectral shape.
  • the preprocessing unit 20 obtains characterized spectral data S2 by performing normalization processing and second-order differentiation processing on the spectral data S0 of the observation light input from the spectral sensor 14. , And outputs it to the comparison area selection unit 23.
  • the comparison area selection unit 23 sets a region (pixel region) where points (pixels) having the same spectral shape from the characterized spectral data S2 input from the preprocessing unit 20 are collected as one spectral area. At the same time, two different spectrum areas (positions) are selected for recognition processing from the extracted plurality of spectrum areas. Data corresponding to the two different selected spectrum areas (positions) are acquired as comparison position spectrum data Sa2 and Sb2, and the comparison position spectrum data Sa2 and Sb2 are output to the first recognition unit 30. .
  • the comparison area selection unit 23 performs a clustering process based on the Euclidean distance that classifies spectrum data in which the difference in light intensity for each wavelength is a predetermined value or less as spectrum data in the same spectrum area. In this way, one or a plurality of spectral areas are extracted from the spectral data based on the observation light.
  • 5A and 5B for example, when the comparison area selecting unit 23 receives the characterized spectrum data S2 from the preprocessing unit 20, each of the comparison area selecting units 23 has a spectrum shape “a”. A region where a plurality of points (pixels) are gathered is set as the first spectrum area.
  • the comparison area selection unit 23 sets a region where a plurality of points (pixels) each having the spectrum shape “b” are gathered as the second spectrum area. Similarly, the comparison area selecting unit 23 sets a region where a plurality of points (pixels) each having the spectrum shape “c” are gathered as the third spectrum area. Then, the comparison area selection unit 23 uses two comparison areas that are used for the recognition process as two adjacent spectrum areas from among the set first to third spectrum areas based on a predetermined condition. Select as For example, the comparison area selection unit 23 selects the second spectral area having a relatively wide area and the first spectral area adjacent thereto as the two comparison positions 202 and 203 used for the recognition process. Then, spectrum data respectively corresponding to the two selected comparison positions 202 and 203 are output as comparison position spectrum data Sa2 and Sb2.
  • FIGS. 9A to 9E are diagrams for explaining a method of removing the influence of the environmental light from the two comparison position spectrum spectrum data Sa2 and Sb2 including the environmental light.
  • FIGS. 9A to 9E show graphs in which only inflection points characterizing the comparison position spectrum data Sa2 and Sb2 and the sizes of these inflection points are extracted for convenience of explanation.
  • the first recognition unit 30 receives the two comparison position spectrum data Sa2 and Sb2 from the comparison area selection unit 23. As shown in FIG. 3, the first recognition unit 30 includes a recognition data generation unit 31 and a collation unit 33.
  • the recognition data generation unit 31 includes a difference data calculation unit 32 having a function of generating one correlation spectrum data Sab in which the influence of ambient light is removed from the two comparison position spectrum data Sa2 and Sb2.
  • ) is obtained by converting the difference data into absolute values.
  • the comparison position spectrum data Sa2 includes spectrum data Sr2 based on ambient light and spectrum data Sar2 based on a measurement target.
  • the comparison position spectrum data Sb2 includes spectrum data Sr2 based on the ambient light and spectrum data Sbr2 based on the measurement target. From this, by subtracting the comparison position spectrum data Sb2 from the comparison position spectrum data Sa2, the spectrum data Sr2 based on the environmental light contained in both data is removed, and the spectrum data based on the respective measurement objects Difference data including Sar2 and Sbr2 is generated. Thereby, one correlation spectrum data Sab in which the influence of the environmental light is removed from the two comparison position spectrum data Sa2 and Sb2 input from the comparison area selecting unit 23 is generated.
  • the correlation spectrum data Sab is calculated as an absolute value of the difference data in consideration of matching the correlation spectrum data Sab with the dictionary data in the matching unit 33.
  • the collation unit 33 compares the correlation spectrum data Sab with the reference data Sabr selected based on a predetermined condition predetermined from the first collation data 17A in the dictionary data storage unit 17 (matching). Based on this, a plurality of measurement objects Ma and Mb are simultaneously identified.
  • the collation unit 33 compares the correlation spectrum data Sab with the reference data Sabr selected from the first collation data 17A in the dictionary data storage unit 17.
  • the first collation data 17A stored in advance in the dictionary data storage unit 17 will be described. Since the reference data Sabr is compared with the correlation spectrum data Sab, it needs to have the same properties as the correlation spectrum data Sab. That is, the reference data Sabr is generated by performing the same process as the process for calculating the correlation spectrum data Sab from the spectrum data S0 on the spectrum data to be measured to be identified.
  • correlation spectrum data calculated after pre-processing is one of the first matching data 17A. Is stored in the dictionary data storage unit 17.
  • the correlation spectrum data calculated after pre-processing the spectrum data of the head portion and the trunk portion detected in advance is stored in the dictionary data storage portion 17 as one of the first matching data 17A. Is retained.
  • the first matching data 17A held in the dictionary data storage unit 17 in this way is selected as the reference data Sabr.
  • the reference data Sabr selected from the first matching data 17A is added with information on the measurement target corresponding to the spectrum data constituting the data.
  • the collation unit 33 determines whether the acquired reference data Sabr and the correlation spectrum data Sab are matched by a known matching method.
  • the two measurement objects corresponding to the two comparison position spectrum data Sa2 and Sb2 included in the correlation spectrum data Sab are referred to, respectively.
  • different reference data Sabr is selected for re-collation with the correlation spectrum data Sab. This re-collation is repeated until a predetermined end condition is satisfied.
  • the first recognition unit 30 informs the human machine interface 12 and the vehicle control device 13 of the identified two measurement objects Ma and Mb as recognition results.
  • the arithmetic unit 16 acquires the spectrum data S0 of the observation light from the spectrum sensor 14 (step S10), and pre-processes and characterizes the acquired spectrum data S0 of the observation light. Spectrum data S2 is calculated (step S11). Next, the arithmetic unit 16 selects two different spectrum areas from the characterized spectrum data S2, and acquires the comparison position spectrum data Sa2 and Sb2 from the two spectrum areas, respectively (step S12). Here, for example, it is assumed that the spectrum area corresponding to the roadway 50 and the spectrum area corresponding to the tire 53B are selected.
  • the arithmetic device 16 calculates the difference between the comparison position spectrum data Sa2 and Sb2, thereby removing the influence of the ambient light contained in each comparison position spectrum data Sa2 and Sb2, and converting the difference data into an absolute value.
  • correlation spectrum data Sab is generated (step S13). Therefore, the correlation spectrum data Sab is a combination data of data based on the roadway 50 and data based on the tire 53B.
  • the arithmetic unit 16 compares the correlation spectrum data Sab with the reference data Sabr selected according to a predetermined condition, and two measurement objects Ma corresponding to the correlation spectrum data Sab based on the identity of both data. , Mb are simultaneously identified (step S14). That is, when combination data of data based on road asphalt (measurement target Ma) and data based on tire (measurement target Mb) is selected as reference data Sabr, the reference data Sabr and correlation spectrum data are selected. Through comparison with Sab, the measurement objects are identified as asphalt (measurement object Ma) and tire (measurement object Mb). Then, the calculation device 16 outputs the recognition results of the two measurement objects Ma and Mb to the outside as the recognition results of the spectrum measurement device 11.
  • This embodiment has the following advantages.
  • spectrum data at two different positions detected by the spectrum sensor 14 includes the same ambient light spectrum and different measurement target spectra, respectively. For this reason, as described above, by calculating the difference between the two spectral data, the spectral component of the ambient light is removed, and the correlation spectral data Sab associated with the spectral data at the two different positions is used. Can be obtained. Then, using the correlation spectrum data Sab, that is, using the reference data Sabr corresponding to the combination of the spectrum data of the two measurement objects from which the spectrum component of the ambient light has been removed, the two measurement objects are simultaneously identified. Become so. That is, it is possible to recognize a measurement object with high accuracy from which the influence of ambient light has been removed.
  • Correlation spectrum data Sab is first collation data 17A (preliminarily registered in dictionary data storage unit 17 as data consisting of a combination of at least two measurement target spectrum data corresponding to correlation spectrum data Sab.
  • the two measurement objects are simultaneously recognized by collating with the data group. Thereby, the calculation required for recognition can be shortened.
  • the two measurement objects are the roadway 50 and the tire 53B. That is, in general, a road surface that always exists in a surrounding environment such as a vehicle moving on the ground is used as one of the measurement objects, so that combinations of the two measurement objects are naturally limited.
  • the road surface material is limited to asphalt, concrete, soil, gravel, bricks, and the like. Accordingly, the time required for identifying the object can be shortened, for example, the number of collations can be reduced, and the accuracy of the identification itself can be improved.
  • FIG. 11 shows a schematic configuration of the spectrum measuring apparatus 11 according to the present embodiment.
  • the spectrum measuring apparatus 11 of the present embodiment is obtained by adding a second identification unit and second verification data to the spectrum measuring apparatus 11 of the first embodiment. This is substantially the same as the first embodiment. Therefore, in the present embodiment, differences from the first embodiment will be mainly described, and members similar to those in the first embodiment are denoted by the same reference numerals and description thereof is omitted.
  • first collation data 17A and second collation data 17B are stored in advance as dictionary data.
  • the second verification data 17B includes two pieces of data set based on the spectrum data of two measurement targets detected in advance and the context that is information indicating the characteristics of the relationship between the two measurement targets. Is held.
  • the information indicating the characteristics of the relationship between the two measurement objects is information on the spatial positional relationship and the spatial size ratio of the two measurement objects.
  • FIGS. 13A to 13C are diagrams for explaining a method of generating the second collation data 17B.
  • the arithmetic unit 16 can determine the space at the comparison position 205 of the head 54A.
  • the position Zar, the size Dar, and the spectrum data Sar0 are acquired, and the spatial position Zbr, the size Dbr, and the spectrum data Sbr0 at the comparison position 206 of the trunk portion 54B are acquired.
  • the feature of the head 54A is represented by the integration of the spatial position Zar and the size Dar
  • the feature of the body portion 54B is represented by the integration of the spatial position Zbr and the size Dbr.
  • the head 54A is information indicating characteristics of the relationship between the head 54A and the body 54B by preliminarily defining the head 54A as a reference area (base) for other parts of the body.
  • the data represented by (Sbr2 / Sar2) does not include the positional relationship between the head part 54A and the body part 54B as information, but by adding the context Pabr to (Sbr2 / Sar2), Reference data Cabr, which is data including relationships and the like, can be obtained.
  • the arithmetic device 16 of the present embodiment includes a second recognition unit 35 in addition to the preprocessing unit 20, the comparison area selection unit 23, and the first recognition unit 30.
  • the second recognition unit 35 includes a reference area setting unit 38 that sets one of the two comparison position spectrum data Sa2 and Sb2 as a reference area (reference position). Further, the second recognition unit 35 is based on the spatial positional relationship and the spatial size ratio of each measurement object corresponding to the two comparison position spectral data Sa2 and Sb2 in the characterized spectral data S2.
  • a context calculation unit 39 that obtains a context Pab that is information indicating characteristics of the relationship between the two measurement objects is provided. Further, the second recognizing unit 35 divides the other comparison position spectrum data by one comparison position spectrum data corresponding to the set reference area (reference position), and adds the context Pab to the division result. And a division processing unit 40 for generating new correlation spectrum data Cab.
  • the second recognizing unit 35 collates the new correlation spectrum data Cab with the reference data Cabr selected from the second collating data 17B of the dictionary data storage unit 17, thereby comparing the two comparison positions.
  • a collation unit 41 that simultaneously identifies measurement objects corresponding to the spectrum data Sa2 and Sb2 is provided.
  • the reference area setting unit 38 is connected to the comparison area selection unit 23 and receives the spectral data S2 characterized by the comparison area selection unit 23 and the two comparison position spectrum data Sa2 and Sb2.
  • the reference area setting unit 38 sets a spectrum area based on a measurement object corresponding to one of the two comparison position spectrum data Sa2 and Sb2 as a reference area based on a predetermined condition. For example, if the predetermined condition is “lower side”, the comparison position 203 is set as a reference area in the relationship between the comparison position 202 and the comparison position 203 shown in FIGS. In the relationship between the comparison position 205 and the comparison position 206 shown in (a) and (b), the comparison position 206 is set as a reference area.
  • the comparison position 203 is set as the reference area in the relationship between the comparison position 202 and the comparison position 203 shown in FIGS.
  • the comparison position 205 is set as a reference area in the relationship between the comparison position 205 and the comparison position 206 shown in FIGS.
  • an area corresponding to the comparison position spectrum data Sa2 is set as a reference area.
  • the context calculation unit 39 is connected to the reference area setting unit 38, and includes spectral data S2 characterized by the reference area setting unit 38, two comparison position spectrum data Sa2 and Sb2, and information on the reference area. Entered. As shown in FIG. 15A, the context calculation unit 39 compares the comparison position spectrum data Sa2 based on the spectrum data Sa0 of the first measurement object, the position Za of the spectrum area corresponding to the first measurement object, and the size thereof. Find Da. Further, the context calculation unit 39 obtains the comparison position spectrum data Sb2 based on the spectrum data Sb0 of the second measurement target, the position Zb of the spectrum area corresponding to the second measurement target, and the size Db thereof.
  • the division processing unit 40 is connected to the context calculation unit 39 and receives the two comparison position spectrum data Sa2 and Sb2 and the context Pab from the context calculation unit 39. Then, as shown in FIG. 15 (c), the one comparison position spectrum data Sa 2 corresponding to the reference area is divided by the other comparison position spectrum data Sb 2, and the context Pab is added to the division result to obtain the correlation.
  • the collation unit 41 is connected to the dictionary data storage unit 17 and the division processing unit 40, respectively, and the second collation data 17B in the dictionary data storage unit 17 is acquired as reference data Cabr as needed, and division is performed.
  • Correlation spectrum data Cab is received from the processing unit 40.
  • the collation unit 41 collates the correlation spectrum data Cab with the reference data Cabr and determines whether or not they match. When they match, the collating unit 41 corresponds to the two measurement objects whose correlation spectrum data Cab constitutes the reference data Cabr, and these measurement objects are defined in the reference data Cabr. It is determined that there is a relationship between the spatial positional relationship and a predetermined spatial size ratio.
  • the occupied area of the tire is larger when the automobile is viewed from the side than when the automobile is viewed from the front and back.
  • the context regarding the road surface and the tire makes it possible to distinguish whether the detected by the spectrum sensor is in front of or behind the automobile or on the side of the automobile.
  • the measurement object Ma and the measurement object Mb are the face skin and the body part, the face skin is above and smaller than the body part, so the spatial positional relationship and the spatial size between the face skin and the body part are large. Based on the ratio, the facial skin and the torso are identified. Thereby, the recognition accuracy of the measurement object can be improved.
  • the arithmetic unit 16 acquires the spectrum data S0 of the observation light from the spectrum sensor 14 (step S20), and is characterized by preprocessing the spectrum data S0 of the acquired observation light. Spectrum data S2 is calculated (step S21).
  • the computing device 16 selects two different spectral areas from the characterized spectral data S2, and obtains comparison position spectral data Sa2 and Sb2 from the two spectral areas, respectively (step S22).
  • the arithmetic unit 16 selects a spectrum area to be a reference area out of the two spectrum areas based on a predetermined condition (step S23), and also characterizes the spectrum data S2 and the comparison position spectrum data Sa2 and Sb2.
  • the context Pab is calculated (step S24). Then, the comparison position spectrum data Sa2 corresponding to the reference area is divided by the comparison position spectrum data Sb2, and the context Pab is added to the divided data to calculate the correlation spectrum data Cab (step S25). Then, the arithmetic device 16 compares and collates the correlation spectrum data Cab with the reference data Cabr selected according to a predetermined condition, and performs two measurements that constitute the correlation spectrum data Cab based on the comparison collation. The targets Ma and Mb are simultaneously identified (step S26). Thereby, the arithmetic unit 16 outputs the recognition results of the two measurement objects Ma and Mb to the outside as the recognition results of the spectrum measurement device 11.
  • This embodiment has the following advantages in addition to the advantages (1) to (5) of the first embodiment.
  • the context Pab indicating the characteristics of the relationship between the two measurement objects is obtained, and the correlation spectrum data Cab associated with the context Pab is obtained.
  • the correlation spectrum data Cab associated with the context Pab is data that more prominently shows the features related to the combination of the measurement objects. Therefore, if the two measurement objects are identified based on the correlation spectrum data Cab, the identification accuracy for the two measurement objects can be further improved.
  • the reference spectrum data is, for example, the road 50 for the relationship between the road 50 and the car 53, and the head 54A for the pedestrian 54. And predetermined. Thereby, for example, when the measurement target is identified using the second verification data 17B, the data amount of the second verification data 17B can be reduced, and further improvement in identification accuracy is expected. become.
  • the measurement object can be easily identified. That is, since the material of the roadway 50 is limited to, for example, asphalt, concrete, soil, gravel, brick, etc., identification is easy. Further, if one measurement target is the roadway 50, the other measurement target is naturally limited to the tires and pedestrians of the vehicle 10 or various objects installed on the road surface. It becomes. This is also one of the factors contributing to the improvement of the identification accuracy.
  • FIG. 16 shows a schematic configuration of the spectrum measuring apparatus 11 according to the present embodiment.
  • the spectrum measuring apparatus 11 of the present embodiment is obtained by adding a boundary area selecting unit 25 and a third recognizing unit 36 to the spectrum measuring apparatus 11 of the first embodiment. This is substantially the same as the first embodiment. Therefore, in the present embodiment, differences from the first embodiment will be mainly described, and members similar to those in the first embodiment are denoted by the same reference numerals and description thereof is omitted.
  • the arithmetic device 16 of this embodiment includes a boundary area selection unit 25 and a third recognition unit 36 in addition to the preprocessing unit 20, the comparison area selection unit 23, and the first recognition unit 30. It has.
  • the boundary area selection unit 25 extracts a portion where the spectrum waveform changes from the spectrum data (spectrum image) as a boundary portion between a plurality of measurement objects, and the extracted boundary portion is set to a predetermined condition. Based on the above, two locations are selected. That is, the boundary area selection unit 25 selects two boundary portions from the characterized spectrum data S2 input from the preprocessing unit 20. For example, as one boundary portion, a description will be given with reference to FIG. 5B. A boundary region 204 corresponding to the boundary between the spectrum shape “a” and the spectrum shape “b” is selected. As another boundary portion, for example, referring to FIG. 6B, a boundary region 207 corresponding to the boundary between the spectrum shape “a” and the spectrum shape “b” is selected. Then, the boundary area selection unit 25 acquires comparison boundary position spectrum data Sp2 and Sq2 that are spectrum data corresponding to the two boundary regions selected in this way from the characterized spectrum data S2.
  • the third recognition unit 36 is connected to the boundary area selection unit 25 and removes ambient light included in the comparison boundary position spectrum data Sp2 and Sq2 input from the boundary area selection unit 25. For example, the third recognizing unit 36 calculates, from the logical product of the two comparison boundary position spectrum data Sp2 and Sq2, data that is common to them, that is, characterized spectrum data as data corresponding to ambient light. Then, the third recognizing unit 36 obtains each correlation spectrum data Spp, Sqq from the difference between the characterized spectrum data corresponding to the ambient light and each comparison boundary position spectrum data Sp2, Sq2. Thereby, one correlation spectrum data Spp in which the influence of the environmental light is removed from the comparison boundary position spectrum data Sp2 is calculated.
  • the correlation spectrum data Spp is based on the two measurement objects constituting the boundary portion, for example, the spectrum data of the tire 53B existing in the boundary region 204 of FIG. 5B and the spectrum data of the roadway 50. Similarly, one correlation spectrum data Sqq in which the influence of the environmental light is removed from the comparison boundary position spectrum data Sq2 is calculated.
  • the correlation spectrum data Sqq is based on two measurement objects constituting the boundary portion, for example, spectrum data of the head 54A and spectrum data of the body portion 54B existing in the boundary region 207 of FIG. 6B.
  • the calculated correlation spectrum data Spp and Sqq correspond to the correlation spectrum data Sab of the first embodiment, respectively, and therefore, by collation using the collation unit 33 of the first recognition unit 30, For example, the measurement objects Ma and Mb and the measurement objects Mc and Md are simultaneously identified.
  • the arithmetic unit 16 acquires the spectrum data S0 of the observation light from the spectrum sensor 14 (step S30), and pre-processes and characterizes the acquired spectrum data S0 of the observation light. Spectrum data S2 is calculated (step S31). Next, the arithmetic unit 16 selects boundary areas at two different positions from the characterized spectrum data S2, and obtains comparison boundary position spectrum data Sp2 and Sq2 from the boundary areas (step S32). The arithmetic unit 16 generates correlation spectrum data Spp and Sqq from which the influence of the environmental light included in the comparison boundary position spectrum data Sp2 and Sq2 is removed (step S33).
  • the arithmetic device 16 selects the correlation spectrum data Spp and Sqq from the first matching data 17A according to predetermined conditions, respectively, and includes reference data including two measurement target spectrum data. Compare with Sabr. Thereby, two measurement objects Ma and Mb constituting the correlation spectrum data Spp are simultaneously identified based on the comparison and collation, and separately from these, two measurement objects Mc and Md constituting the correlation spectrum data Spp are identified. Are simultaneously identified (step S34). Then, the arithmetic device 16 outputs the recognition results of the two measurement objects Ma and Mb and the recognition results of the two measurement objects Mc and Md to the outside as the recognition results of the spectrum measurement device 11, respectively.
  • This embodiment has the following advantages in addition to the advantages (1) to (5) of the first embodiment.
  • Each of the comparison boundary position spectrum data Sp2 and Sq2 at two different positions is spectrum data of at least two different measurement target boundary portions.
  • FIG. 18 shows a schematic configuration of the spectrum measuring apparatus 11 according to the present embodiment.
  • the spectrum measuring apparatus 11 according to the present embodiment is obtained by adding a boundary area selecting unit 25, a fourth recognizing unit 37, and a determining unit 34 to the spectrum apparatus 11 according to the first embodiment, and other configurations. Is substantially the same as in the first embodiment. Therefore, in this embodiment, differences from the first embodiment will be mainly described. For convenience of explanation, the same members as those in the first embodiment are denoted by the same reference numerals, and description thereof is omitted. To do.
  • first collation data 17A and third collation data 17C are stored in advance as dictionary data.
  • the first verification data 17A is the same as that of the first embodiment.
  • the property of the third matching data 17C is the same as that of the first matching data 17A. That is, the first verification data 17A is data based on a combination of two measurement target data, whereas the third verification data 17C is data based on a combination of four measurement target data. The only difference is the nature of the data.
  • the arithmetic device 16 includes a boundary area selection unit 25 and a fourth recognition unit 37 in addition to the preprocessing unit 20, the comparison area selection unit 23, and the first recognition unit 30. It has.
  • the boundary area selection unit 25 of the present embodiment is the same as the boundary area selection unit 25 described in the third embodiment, the description thereof is omitted.
  • the fourth recognizing unit 37 removes ambient light contained in each of the comparison boundary position spectrum data Sp2 and Sq2.
  • the fourth recognition unit 37 is connected to the boundary area selection unit 25.
  • the fourth recognition unit 37 includes a recognition data generation unit 42 and a collation unit 43.
  • the recognition data generation unit 42 is different from the recognition data generation unit 31 of the first embodiment in that the number of measurement objects corresponding to input spectrum data is two instead of one. However, since other functions have the same functions, detailed description thereof is omitted. That is, the recognition data generation unit 31 of the first embodiment has two measurement objects from which the influence of ambient light has been removed through the difference between the comparison position spectrum data Sa2 and Sa2 based on one measurement object and its absolute value. Correlation spectrum data Sab based on the above is generated.
  • the recognition data generation unit 42 of the present embodiment uses four measurement objects from which the influence of ambient light is excluded through the difference between the comparison boundary position spectrum data Sp2 and Sq2 based on the two measurement objects and the absolute value thereof. Based on this, the correlation spectrum data Sabcd is generated.
  • the collation unit 43 of the present embodiment is different from the collation unit 33 of the first embodiment in that the number of measurement objects corresponding to the input correlation spectrum data Sabcd is not two but four. However, since other functions have the same functions, detailed description thereof is omitted. That is, the collation unit 33 according to the first embodiment compares and collates the correlation spectrum data Sab based on the two measurement objects with the reference data Sabr selected from the first collation data based on the two measurement objects. Thus, two measurement objects are identified simultaneously. On the other hand, the collation unit 43 of the present embodiment compares and collates the correlation spectrum data Sabcd based on the four measurement objects with the reference data Sabcdr selected from the third collation data 17C based on the same four measurement objects. Thus, four measurement objects are identified simultaneously.
  • the determination unit 34 adjusts the identification result by the first recognition unit 30 and the identification result by the fourth recognition unit 37. That is, when a difference or contradiction occurs between the identification result obtained by the first recognition unit 30 and the identification result obtained by the fourth recognition unit 37, the determination unit 34 determines each identification result based on a predetermined condition. And the identification result determined to have a higher priority is output as the recognition result of the spectrum measuring apparatus 11.
  • the arithmetic unit 16 acquires the spectrum data S0 of the observation light from the spectrum sensor 14 (step S40), and preprocesses and characterizes the acquired spectrum data S0 of the observation light. Spectrum data S2 is calculated (step S41). Next, the arithmetic unit 16 selects boundary areas at two different positions from the characterized spectrum data S2, and obtains comparison boundary position spectrum data Sp2 and Sq2 from these boundary areas (step S42). The arithmetic unit 16 obtains difference data between the comparison boundary position spectrum data Sp2 and Sq2, and converts the difference data into absolute values, thereby generating correlation spectrum data Sabcd from which the influence of ambient light included therein is removed (step). S43).
  • the arithmetic unit 16 compares and collates the correlation spectrum data Sabcd with reference data Sabcdr including four measurement target spectrum data selected from the third matching data 17C according to a predetermined condition. As a result, the four measurement objects Ma, Mb, Mc, and Md constituting the correlation spectrum data Sabcd are simultaneously identified based on the comparison and collation (S44). Then, the arithmetic device 16 outputs the recognition results of the four measurement objects Ma, Mb, Mc, and Md to the outside as the recognition results of the spectrum measurement device 11.
  • This embodiment has the following advantages in addition to the advantages (1) to (5) of the first embodiment.
  • the comparison boundary position spectrum data Sp2 and Sq2 of two different positions are spectrum data of at least two different measurement target boundary parts, respectively. Then, from these comparison boundary position spectrum data Sp2 and Sq2, correlation spectrum data Sabcd based on the four measurement objects is generated, and the correlation spectrum data Sabcd is also converted into the third matching data 17C based on the four measurement objects. It was made to collate with the reference data Sabcdr selected from. As a result, the number of measurement objects included in the measured spectrum data increases, and a large number of measurement objects can be recognized at one time. As a result, the time required for recognizing the measurement object can be shortened.
  • each said embodiment can also be implemented in the following aspects, for example.
  • all of the plurality of arithmetic processes related to the recognition process including the pre-process executed by the pre-processing unit 20 and the comparison area selection process executed by the comparison area selecting unit 23 are executed by the arithmetic device 16.
  • the case where it is done was illustrated.
  • the present invention is not limited thereto, and the plurality of arithmetic processes may be performed by a plurality of different arithmetic devices, and the obtained arithmetic results may be shared among the arithmetic devices.
  • two spectrum areas adjacent to each other for example, a spectrum area corresponding to the roadway 50 and a spectrum area corresponding to the tire 53B) among the plurality of spectrum areas are used as the two comparison areas used for the recognition process. It was made to select.
  • the present invention is not limited to this, and two spectrum areas that are not adjacent to each other may be selected from the plurality of spectrum areas as the two comparison areas used for the recognition process.
  • the preprocessing unit 20 performs the normalization process and the secondary differentiation process is illustrated.
  • the present invention is not limited to this, and the preprocessing unit 20 may perform only one of normalization processing and secondary differentiation processing.
  • it is desirable that the reference data used for collation is data that has been subjected to the same processing.
  • the normalization process is executed under a preset condition.
  • the present invention is not limited to this, and the execution condition of the normalization process is arbitrarily variable through another control device or a human machine interface. It may be set. This is not limited to the normalization process, and the same applies to other processes.
  • the case where the first recognition unit 30 calculates the difference between the two comparison position spectrum data Sa2 and Sb2 as the correlation spectrum data Sab is exemplified.
  • the present invention is not limited to this. If the ambient light contained in the two comparison position spectrum data can be removed or reduced, the two comparison position spectrums can be divided by dividing one of the two comparison position spectrum data by the other. The ratio of the data may be obtained and the ratio may be used as the correlation spectrum data Sab.
  • the present invention is not limited to this, and the difference between the two comparison position spectrum data may be obtained as correlation spectrum data as long as the ambient light contained in the two comparison position spectrum data can be removed or reduced.
  • the dictionary data storage unit 17 stores the first matching data 17A based on a combination of a plurality of spectrum data to be measured.
  • the present invention is not limited to this, and the dictionary data storage unit 17 may store collation data based on each spectrum data to be measured.
  • reference data used for comparison with the correlation spectrum data can be generated by selecting and combining a plurality of pieces of verification data as necessary.
  • the correlation spectrum data Sab is calculated by converting the difference between the two comparison position spectrum data Sa2 and Sb2 into an absolute value.
  • the present invention is not limited to this, and correlation spectrum data may be obtained without converting the difference between two comparison position spectrum data into an absolute value as long as the influence of ambient light can be removed or reduced.
  • the arithmetic device 16 includes a plurality of recognizing units.
  • the present invention is not limited thereto, and the arithmetic device includes only one recognizing unit. May be. This also makes it possible to recognize the measurement object with the influence of the observation light removed or reduced.
  • the arithmetic device 16 may include a first recognition unit 30, a second recognition unit 35, and a third recognition unit 36.
  • the arithmetic device 16 may include a first recognition unit 30, a second recognition unit 35, and a fourth recognition unit 37.
  • the arithmetic device 16 may include a first recognition unit 30, a second recognition unit 35, a third recognition unit 36, and a fourth recognition unit 37.
  • the context Pab is calculated based on the relationship between the spatial positional relationship and the spatial size.
  • the context Pab is not limited to this, and the context Pab is a spatial positional relationship or a spatial size. It may be calculated based on either one of the relationships.
  • the feature of the measurement target is represented by the integration of the spatial position and the spatial size.
  • the present invention is not limited to this, and the feature of the measurement target is added by the spatial position and the spatial size. It may be expressed by subtraction or division.
  • the context Pab is calculated by dividing the feature (spatial position and spatial size) of one measurement target by the feature of the other measurement target.
  • the present invention is not limited to this. Instead, the context Pab may be calculated by integrating the features of the two measurement objects.
  • the case where the two boundary regions 204 and 207 shown in FIG. 5B and FIG. 6B are selected as the boundary portion has been exemplified. May be selected.
  • advanced recognition is possible by selecting two highly relevant boundary portions. For example, if a boundary portion between a wheel of a traveling bicycle and a road surface and a boundary portion between the frame of the bicycle and the driver are selected, it is possible to recognize a bicycle that a person is driving.
  • the boundary portion is detected as a portion where the shape of the spectrum data changes greatly.
  • the present invention is not limited thereto, and the boundary portion may be obtained as a boundary between different spectral areas adjacent to each other.
  • the spectrum measuring device 11 is mounted on the vehicle 10 in each of the above embodiments.
  • the present invention is not limited to this, and the spectrum measuring device may be installed in a form that does not move to the ground or a building.
  • a spectrum measurement device 11A is provided in a detection device 60 installed so that a road environment can be detected, and vehicles, pedestrians, Alternatively, the bicycle 57 and its driver 58 may be detected.
  • SYMBOLS 10 ... Vehicle, 11 ... Spectrum measuring device, 11A ... Spectrum measuring device, 12 ... Human machine interface, 13 ... Vehicle control device, 14 ... Spectrum sensor, 15 ... Spectrum data processing device, 16 ... Arithmetic device, 17 ... Dictionary data storage , 20 ... Pre-processing unit, 21 ... Normalization processing unit, 22 ... Secondary differential processing unit, 23 ... Comparison area selection unit, 25 ... Boundary area selection unit, 30 ... First recognition unit, 31 ... Data for recognition Generating unit, 32 ... difference data calculating unit, 33 ... collating unit, 34 ... determining unit, 35 ... second recognizing unit, 36 ... third recognizing unit, 37 ... fourth recognizing unit, 38 ...
  • reference area setting unit 39 ... Context calculation unit, 40 ... Division processing unit, 41 ... Verification unit, 42 ... Recognition data generation unit, 43 ... Verification unit, 50 ... Roadway, 51 ... Sidewalk, 52 ... Tree, 53 ... Car, 53B ... Ear, 53C ... bumper 54 ... pedestrians, 54A ... head, 54B ... body portion, 55 ... guardrail, 56 ... background, 57 ... bicycle, 58 ... driver 60 ... detecting device.

Landscapes

  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Sustainable Development (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Spectrometry And Color Measurement (AREA)

Abstract

 スペクトル測定装置(11)は、波長情報と光強度情報とを測定可能なスペクトルセンサ(14)にて検出される観測光のスペクトルデータに基づいて測定対象を認識する。同スペクトル測定装置はスペクトルデータ処理装置(16)を備え、同処理装置は、前記スペクトルセンサにて検出される異なる2つの位置でのスペクトルデータのうち一方のスペクトルデータから他方のスペクトルデータを減算もしくは一方のスペクトルデータを他方のスペクトルデータで除算することによって、前記異なる2つの位置でのスペクトルデータに相関する1つの相関スペクトルデータを算出する。そして、処理装置は、該相関スペクトルデータに基づいて、前記異なる2つの位置に対応する測定対象を同時に同定する。

Description

スペクトル測定装置
 本発明は、周辺環境に存在する測定対象、特に交通環境に存在する測定対象を、スペクトルセンサにより測定して得られたスペクトルデータに基づいて認識するスペクトル測定装置に関する。
 近年、スペクトルセンサによって測定された、可視光領域及び不可視光領域を含むマルチスペクトルデータから当該スペクトルセンサの周辺環境に存在する測定対象を認識し、その認識された測定対象、もしくはその状態に応じて各種の支援を提供する技術の実用化が検討されている。例えば、自動車等の車両にあっては、車両に搭載されたスペクトルセンサにより測定されたスペクトルデータに基づいて当該車両の周囲の交通環境に存在する歩行者や他の車両などを認識してドライバーの運転や意思決定を支援する運転支援装置の実用化が検討されている。
 ところで、スペクトルセンサは測定対象から反射された反射光のスペクトルを測定するものであるために、同スペクトルセンサによって測定されるスペクトルには、測定対象に照射されている環境光のスペクトルの影響が直接反映されることとなる。この環境光は、測定対象に照射される太陽光や照明光などである。この環境光のスペクトルは、天候や測定対象の周囲の明るさ、測定対象の周囲にある物体等による影響などを受けて変化する。このことから、反射光のスペクトルに基づく測定対象の認識にあっては、測定対象に照射されている環境光の影響を考慮しなければ、測定対象の認識精度を向上させることは困難である。
 そこで従来より、反射光スペクトルに含まれる環境光の影響を軽減させる技術が提案されており、その一例が特許文献1に記載されている。同特許文献1に記載のスペクトル測定装置には、測定対象の反射光スペクトルを画素毎に測定するスペクトルセンサと、当該測定対象の測定環境での測定環境光スペクトルを検出するスペクトルセンサと、これら測定対象の反射光スペクトルと測定環境光スペクトルとから測定対象の分光反射率分布を算出する算出手段とが設けられている。また、同スペクトル測定装置には、再生環境での再生環境光スペクトルを検出するスペクトルセンサと、測定対象を再生環境光スペクトル下にて測定したときのスペクトルに変換するスペクトル変換手段と、この変換されたスペクトルを再生する再生手段とが設けられている。これにより、測定対象の反射光スペクトルに含まれる測定環境光スペクトルの影響を除去することができるとともに、再生環境光スペクトルの影響をも考慮することができ、測定環境下にて測定された測定対象の色が再生環境下において忠実に再現されるようになる。
特開2006-14315号公報
 ところで、上記特許文献1に記載のスペクトル測定装置にあっては、測定環境光スペクトルを測定するための専用のスペクトルセンサが必要とされるとともに、当該スペクトルセンサには測定環境光スペクトルだけが測定されるようにすることが望ましい。しかしながら、一般に、特に屋外などでは、環境光が特定の光源に基づく光のみからなるとは限らない。測定対象が移動しているような場合には、光源が一つであっても該光源の位置を特定することは難しい。このように、環境光が不規則に変化するおそれのある一般的な環境では、測定対象のスペクトルに含まれる環境光の影響を除去もしくは低減することができないおそれも高い。すなわち、上記スペクトルセンサにより測定されたスペクトルデータを用いて車両の周囲に存在する各種測定対象を認識しようとしても、環境光の影響による認識精度の低下から、特に車両の運転支援等において要求される測定対象の認識も困難なものとなっている。
 本発明の目的は、簡易な構成でありながら測定対象の反射光スペクトルに含まれる環境光の影響の除去もしくは低減を可能として、測定対象の認識精度をより高めることのできるスペクトル測定装置を提供することにある。
 上記目的を達成するために、本発明に従い、波長情報と光強度情報とを測定可能なスペクトルセンサにて検出される観測光のスペクトルデータに基づいて測定対象を認識するスペクトル測定装置が提供される。同スペクトル測定装置はスペクトルデータ処理装置を備え、同スペクトルデータ処理装置は、前記スペクトルセンサにて検出される異なる2つの位置でのスペクトルデータのうち一方のスペクトルデータから他方のスペクトルデータを減算もしくは一方のスペクトルデータを他方のスペクトルデータで除算することによって、前記異なる2つの位置でのスペクトルデータに相関する1つの相関スペクトルデータを算出する。そして、スペクトルデータ処理装置は、該相関スペクトルデータに基づいて、前記異なる2つの位置に対応する測定対象を同時に同定する。
本発明の第1実施形態に係るスペクトル測定装置の構成を示すブロック図。 図1のスペクトル測定装置の機能を説明するためのブロック図。 図1のスペクトル測定装置の機能を説明するためのブロック図。 測定対象の一例を模式的に示す模式図。 (a)及び(b)は、図1のスペクトル測定装置により検出されるスペクトル画像の一例を模式的に示す図。 (a)及び(b)は、図1のスペクトル測定装置により検出されるスペクトル画像の一例を模式的に示す図。 (a)~(e)は、図1のスペクトル測定装置により検出される測定対象のスペクトルデータの一例を示すグラフ。 (a)~(c)は、図1のスペクトル測定装置において前処理に伴うスペクトルデータの形状の変化の一例を示すグラフ。 (a)~(e)は、図1のスペクトル測定装置においてスペクトルデータから観測光の影響を除去する態様について説明するグラフ。 図1のスペクトル測定装置により実施される測定対象の認識処理の手順を示すフローチャート。 本発明の第2実施形態に係るスペクトル測定装置の構成を示すブロック図。 図10のスペクトル測定装置の機能を説明するためのブロック図。 (a)~(c)は、コンテキストが付加されたスペクトルデータを説明する図。 図11のスペクトル測定装置により実施される測定対象の認識処理の手順を示すフローチャート。 (a)~(c)は、コンテキストが付加されたスペクトルデータを説明する図。 本発明の第3実施形態に係るスペクトル測定装置の構成を示すブロック図。 図16のスペクトル測定装置により実施される測定対象の認識処理の手順を示すフローチャート。 本発明の第4実施形態に係るスペクトル測定装置の構成を示すブロック図。 図18のスペクトル測定装置の機能を説明するためのブロック図。 図18のスペクトル測定装置により実施される測定対象の認識処理の手順を示すフローチャート。 本発明のその他の実施形態に係るスペクトル測定装置の構成を示すブロック図。 本発明のその他の実施形態に係るスペクトル測定装置の構成を示すブロック図。 本発明のその他の実施形態に係るスペクトル測定装置の構成ブロック図。 本発明に係るスペクトル測定装置を備える設置物の一例を模式的に示す図。
 以下、本発明の第1の実施形態を図面に従って説明する。
 図1に示すように、本実施形態のスペクトル測定装置11は、移動体としての車両10に備えられている。スペクトル測定装置11は、車両10の外部の可視光及び不可視光を含む光情報を取得して測定対象を認識する。また、車両10には、スペクトル測定装置11から出力された認識情報などを同車両10の搭乗者に伝達するヒューマンマシンインタフェース12と、同スペクトル測定装置11から出力された認識情報などを車両10の制御に反映させる車両制御装置13とが設けられている。
 ヒューマンマシンインタフェース12は、光や色、音などを通じて、搭乗者、特に操縦者に車両状態等を伝えるとともに、搭乗者の意思がボタン等の操作を通じてスペクトル測定装置11に入力されるように、押しボタンやタッチパネルなどの操作装置よりなる公知のインタフェース装置である。
 車両制御装置13は、車両10に搭載された複数の制御装置のうちの一つであって、同じく車両10に搭載されている、例えばエンジン制御装置といった他の制御装置との間で必要な情報を相互に伝達できるように直接的にもしくは車載ネットワークなどにより相互接続されている。なお本実施形態では、車両制御装置13は、スペクトル測定装置11から認識情報(認識された測定対象などの情報)が入力されると、その情報を他の制御装置に伝達するとともに、認識された測定対象に応じて要求される運転支援を車両10に実行させる。
 スペクトル測定装置11には、観測光のスペクトルデータS0を検出するスペクトルセンサ14と、該スペクトルセンサ14により検出された観測光のスペクトルデータS0を受けて同データS0を処理するスペクトルデータ処理装置15とが設けられている。
 スペクトルセンサ14は、観測光のスペクトルデータS0を、いわゆるスペクトル画像として検出するものであって、スペクトル画像を構成する各画素には個別のスペクトルデータが含まれている。
 スペクトルセンサ14は、可視光及び不可視光を含む光である観測光を、所定の波長帯域に分光する機能を有している。そして、スペクトルセンサ14は、分光された観測光に関する波長情報と光強度情報とを含むスペクトルデータを、スペクトルデータ処理装置15に出力する。波長情報は、分光された波長帯域に含まれる各波長を示す情報であり、光強度情報は、各波長における観測光の光強度を示す情報である。すなわち、スペクトルデータは、観測光の各波長における光強度であるスペクトル強度と、波長帯域における同スペクトル強度の分布を示すスペクトル形状を含む。
 ここで、スペクトルセンサ14により検出される道路環境の観測光のスペクトルデータについて説明する。図4は、スペクトルセンサ14により検出される道路環境を模式的に示す図である。図5(a),(b)は、車道50と自動車53のタイヤ53Bとを含む領域のスペクトルデータの一例を示している。図6(a),(b)は、歩行者54の頭部54Aと胴体部54Bとを含む領域のスペクトルデータの一例を示している。図7(a)~(e)は、スペクトルセンサ14により検出された測定対象に対応する点(画素)のスペクトルデータ(スペクトル形状)の一例を示すグラフである。
 スペクトルセンサ14は、図4に示すような道路環境に対応する観測光のスペクトルデータS0を検出する。この道路環境には、アスファルト舗装された車道50と、車道50の一側に沿って延びるアスファルト舗装された歩道51と、車道50上の自動車53と、歩道51上の歩行者54とが存在している。また、前記歩道51とは反対側の車道50の側部には、ガードレール55が設置されているとともに、ガードレール55の後方には複数の樹木52が生えている。さらに道路環境の上方には空を含む背景56が広がっている。
 スペクトルセンサ14は、このような道路環境に基づく観測光のスペクトルデータS0を検出することによって、例えば図5(a),(b)、図6(a),(b)に示されるようなスペクトルデータ(スペクトル画像)を取得する。なお、図5(a),(b)及び図6(a),(b)において破線で画定される各マスはスペクトルセンサ14の一つの画素を模式的に示すものである。各マスにはスペクトルデータ(スペクトル形状)を区別するための符号“a”,“b”,“c”が便宜的に付されている。すなわち、タイヤ53Bに対応する画素は、例えば図5(a),(b)において符号“a”で示される、ゴムタイヤのスペクトルデータを検出するとともに、車道50に対応する画素は、例えば図5(a),(b)において符号“b”で示される、アスファルトのスペクトルデータを検出する。また、バンパ53Cに対応する画素は、例えば図5(a),(b)において符号“c”で示される、塗料のスペクトルデータを検出する。頭部54Aに対応する画素は、例えば図6(a),(b)において符号“a”で示される、顔肌のスペクトルデータを検出するとともに、胴体部54Bに対応する画素は、例えば図6(a),(b)において符号“b”で示される、被服のスペクトルデータを検出する。また、背景56に対応する画素は、例えば図6(a),(b)において符号“c”で示される、空のスペクトルデータを検出する。
 このようにしてスペクトルセンサ14により検出される測定対象のスペクトルデータは、例えば図7(a)~(e)に示されるようなスペクトル形状を有する。すなわち、図4に示す樹木52の比較位置200からは例えば図7(a)に示すスペクトルデータ(スペクトル形状)が測定されるとともに、図4に示すガードレール55の比較位置201からは例えば図7(b)に示すスペクトルデータ(スペクトル形状)が測定される。また、図4に示すタイヤ53Bと車道50との境界領域204からは例えば図7(c)に示すスペクトルデータ(スペクトル形状)が測定されるとともに、図4に示す車道50の比較位置203からは例えば図7(d)に示すスペクトルデータ(スペクトル形状)が測定される。さらに、図4に示す歩行者54の頭部54Aの比較位置205からは例えば図7(e)に示すスペクトルデータ(スペクトル形状)が測定される。
 スペクトルデータ処理装置15は、例えば演算装置や記憶装置などを有するマイクロコンピュータを中心に構成されている。スペクトルデータ処理装置15には、スペクトルセンサ14が接続されているとともに、該スペクトルセンサ14において検出された観測光のスペクトルデータS0が入力される。スペクトルデータ処理装置15は、入力された観測光のスペクトルデータS0に基づいて観測された測定対象を識別するとともに、その認識結果をヒューマンマシンインタフェース12や車両制御装置13に伝達する。
 スペクトルデータ処理装置15は、演算装置16と辞書データ記憶部17とを備えている。辞書データ記憶部17は、公知の記憶装置に設けられている記憶領域の全部もしくは一部からなり、その記憶領域には識別すべき複数の測定対象のスペクトルデータが辞書データとして予め記憶されている。なお本実施形態では、辞書データ記憶部17には、複数の測定対象のスペクトルデータのそれぞれに所定の処理を施した第1の照合用データ17A(図3参照)が辞書データとして記憶されている。この所定の処理は、スペクトルデータ処理装置15が測定対象を認識する処理に適した処理であり、その詳細は後述する。
 辞書データ記憶部17の辞書データは、識別すべき測定対象のスペクトルデータ(スペクトル形状)に基づいたデータであって、識別すべき測定対象に応じた数だけ予め準備される。識別すべき測定対象としては、例えば、歩行者(人)、自転車、自動二輪車、及び自動車などの移動体が挙げられるとともに、信号、標識、路面のペイント、ガードレール、店舗、及び看板などの非移動体が挙げられる。また、識別すべき測定対象として、例えば、歩行者(人)がさらに詳細な属性である子供、老人、男性、女性などに分類されるとともに、自動車がさらに詳細な属性であるトラック、バス、セダン、SUV、軽自動車などに分類されてもよい。辞書データ記憶部17は、予め準備される複数の辞書データを適切な態様で格納可能なように、一または複数の記憶領域を備えている。
 演算装置16には、スペクトルセンサ14と辞書データ記憶部17とが情報伝達可能に接続されている。演算装置16は、辞書データ記憶部17から取得する辞書データと、観測光のスペクトルデータS0に所定の処理が施されることにより算出された相関スペクトルデータとの比較照合(マッチング)を通じて、測定対象を識別する。
 演算装置16は、スペクトルデータに対する環境光の強度やセンサ感度の影響を軽減させるデータ処理を同スペクトルデータに施す前処理部20と、2つの領域(画素)を選定してそれら領域のスペクトルデータをそれぞれ取得する比較エリア選定部23と、前記取得された2つのスペクトルデータに基づいて測定対象を識別する第1の認識部30とを備えている。
 前処理部20は、スペクトルセンサ14から観測光のスペクトルデータS0を受け取る。図2に示すように、前処理部20には、予め定められた所定の条件でスペクトルデータS0を正規化する正規化処理部21と、正規化されたスペクトルデータ(正規化スペクトルデータS1)を2次微分する2次微分処理部22とを備えている。
 まず、前処理部20の機能について図面に従って説明する。図8(a)~(c)は、前処理部20における処理に伴うスペクトルデータの形状の変化を示すグラフである。なお、図8(a)に示すスペクトルデータSx0は、観測光のスペクトルデータS0の中に特定された一つの画素xに対応するスペクトルデータであるものとする。
 前処理部20では、観測光のスペクトルデータS0が正規化処理部21により正規化される。すなわち、正規化処理部21は、各画素の観測光の強度の違いや各画素のセンサ感度の違いが平準化等されるとともに、それらの違い等が観測光のスペクトルデータS0に与えている影響が低減された正規化スペクトルデータS1を生成する。例えば、図8(a)に示す、画素xのスペクトルデータSx0のスペクトル形状は、正規化処理部21によって正規化されることにより、図8(b)に示すような正規化スペクトルデータSx1のスペクトル形状に変換される。
 また前処理部20では、正規化スペクトルデータS1が2次微分処理部22により2次微分されることで、正規化スペクトルデータS1からスペクトルデータを特徴付ける変曲点の波長情報とその変曲点の大きさとを含む、特徴化されたスペクトルデータS2が生成される。例えば、図8(b)に示す、画素xの正規化スペクトルデータSx1のスペクトル形状は、2次微分処理部22による2次微分により、図8(c)に示す特徴化されたスペクトルデータSx2のスペクトル形状に変換される。
 上述した正規化処理と2次微分処理とにより、測定対象のスペクトルデータに対する、環境光の強度などによる影響が低減される。その結果、当該スペクトルデータを他のスペクトルデータ、例えば観測光の強度が相違している他のスペクトルデータと対比したり、両スペクトルデータを用いた演算を行ったりすることが可能となる。
 このようにして前処理部20は、スペクトルセンサ14から入力された観測光のスペクトルデータS0に対して正規化処理と2次微分処理とを施すことによって、特徴化されたスペクトルデータS2を得るとともに、それを比較エリア選定部23に出力する。
 比較エリア選定部23は、前処理部20から入力される特徴化されたスペクトルデータS2の中から同様のスペクトル形状を有する点(画素)が集まっている領域(画素領域)を一つのスペクトルエリアとして抽出するとともに、抽出された複数のスペクトルエリアから、認識処理のために異なる2つのスペクトルエリア(位置)を選定する。そして、前記選定された異なる2つのスペクトルエリア(位置)にそれぞれ対応するデータを、比較位置スペクトルデータSa2,Sb2として取得し、それら比較位置スペクトルデータSa2,Sb2を第1の認識部30に出力する。
 比較エリア選定部23は、各波長毎の光強度の差が所定の値以下となるスペクトルデータを同一のスペクトルエリア内のスペクトルデータとして分類する、ユークリッド距離に基づくクラスタリング処理を行う。このようにして、観測光に基づくスペクトルデータの中から1つまたは複数のスペクトルエリアを抽出する。ここで図5(a),(b)を用いて説明すると、例えば、比較エリア選定部23は、前処理部20から特徴化されたスペクトルデータS2を受け取ると、それぞれスペクトル形状「a」を有する複数の点(画素)が集まっている領域を第1スペクトルエリアとして設定する。同様に、比較エリア選定部23は、それぞれスペクトル形状「b」を有する複数の点(画素)が集まっている領域を第2スペクトルエリアとして設定する。同様に、比較エリア選定部23は、それぞれスペクトル形状「c」を有する複数の点(画素)が集まっている領域を第3スペクトルエリアとして設定する。それから、比較エリア選定部23は、予め定められた所定の条件に基づいて、設定された第1~第3スペクトルエリアの中から互いに隣接する2つのスペクトルエリアを、認識処理に用いる2つの比較エリアとして選定する。例えば、比較エリア選定部23は、比較的広い領域を有する第2スペクトルエリアと、それに隣接する第1スペクトルエリアとを認識処理に用いる2つの比較位置202,203として選定する。そして、選定された2つの比較位置202,203にそれぞれ対応するスペクトルデータを、比較位置スペクトルデータSa2,Sb2として出力する。
 次に、第1の認識部30について、図3及び図9(a)~(e)を参照して説明する。図9(a)~(e)は、環境光を含む2つの比較位置スペクトルスペクトルデータSa2,Sb2から環境光の影響を除去する方法について説明する図である。図9(a)~(e)は、説明の便宜上、比較位置スペクトルデータSa2,Sb2を特徴付ける変曲点とそれら変曲点の大きさのみを抽出したグラフを示している。
 第1の認識部30は、比較エリア選定部23から2つの比較位置スペクトルデータSa2,Sb2を受け取る。第1の認識部30は、図3に示すように、認識用データ生成部31と照合部33とを備えている。
 認識用データ生成部31は、2つの比較位置スペクトルデータSa2,Sb2から環境光の影響が除去された1つの相関スペクトルデータSabを生成する機能を有する差分データ算出部32を備えている。差分データ算出部32は、2つのデータの差分を算出するとともに、その算出された値を絶対値化する。例えば、差分データ算出部32は、比較位置スペクトルデータSa2(図9(a)参照)から比較位置スペクトルデータSb2(図9(c)参照)を差し引くことによって差分データ(Sa2-Sb2)を得るとともに、その差分データを絶対値化することによって相関スペクトルデータSab(=|Sa2-Sb2|)を得る。ところで、図9(b)に示すように、比較位置スペクトルデータSa2は、環境光に基づくスペクトルデータSr2と測定対象に基づくスペクトルデータSar2とを含む。同様に、図9(d)に示すように、比較位置スペクトルデータSb2は、環境光に基づくスペクトルデータSr2と測定対象に基づくスペクトルデータSbr2とを含む。このことから、比較位置スペクトルデータSa2から比較位置スペクトルデータSb2が差し引かれることにより、両方のデータに含まれている環境光に基づくスペクトルデータSr2が除去されるとともに、それぞれの測定対象に基づくスペクトルデータSar2,Sbr2を含む差分データが生成される。これにより、比較エリア選定部23から入力された2つの比較位置スペクトルデータSa2,Sb2から環境光の影響が除去された1つの相関スペクトルデータSabが生成される。なお、本実施形態では、相関スペクトルデータSabを照合部33において辞書データと照合することを考慮して、相関スペクトルデータSabは差分データを絶対値化したものとして算出される。
 照合部33は、前記相関スペクトルデータSabを、辞書データ記憶部17の第1の照合用データ17Aから予め定められた所定の条件に基づいて選択された参照用データSabrと比較照合(マッチング)することに基づいて、複数の測定対象Ma,Mbを同時に同定する。
 ところで上述のように、照合部33は、相関スペクトルデータSabを、辞書データ記憶部17の第1の照合用データ17Aから選択された参照用データSabrと比較する。ここで、照合部33の説明に先立ち、辞書データ記憶部17に予め記憶されている第1の照合用データ17Aについて説明する。参照用データSabrは、相関スペクトルデータSabと比較されることから、相関スペクトルデータSabと同様の性質を有している必要がある。すなわち、参照用データSabrは、識別すべき測定対象のスペクトルデータに対し、上記スペクトルデータS0から相関スペクトルデータSabを算出する上記処理と同様の処理を施すことによって生成されたものである。例えば、予め検出された路面とタイヤとのそれぞれのスペクトルデータに前処理(正規化処理と2次微分処理)を施してから算出された相関スペクトルデータが、第1の照合用データ17Aの一つとして辞書データ記憶部17に保持されている。同様に、予め検出された頭部と胴体部とのそれぞれのスペクトルデータに前処理を施してから算出された相関スペクトルデータが、第1の照合用データ17Aの一つとして辞書データ記憶部17に保持されている。そして、このようにして辞書データ記憶部17に保持された第1の照合用データ17Aが、参照用データSabrとして選択される。なお、本実施形態では、第1の照合用データ17Aから選択される参照用データSabrには、そのデータを構成しているスペクトルデータに対応する測定対象の情報が付加されている。
 照合部33は、取得された参照用データSabrと、相関スペクトルデータSabとがマッチングしているか否かの判定を公知のマッチング方法により行なう。そして、参照用データSabrと相関スペクトルデータSabとがマッチングしていると判定されると、相関スペクトルデータSabに含まれる2つの比較位置スペクトルデータSa2,Sb2にそれぞれ対応する2つの測定対象が、参照用データSabrに含まれる2つの比較位置スペクトルデータにそれぞれ対応する2つの測定対象であると同定される。一方、参照用データSabrと相関スペクトルデータSabとがマッチングしていないと判定されると、異なる参照用データSabrが相関スペクトルデータSabとの再照合のために選択される。この再照合は、所定の終了条件が成立するまで繰り返される。
 第1の認識部30は、同定された2つの測定対象Ma,Mbを、認識結果としてヒューマンマシンインタフェース12や車両制御装置13に知らせる。
 次に、本実施形態における認識処理の手順について図10のフローチャートに従って説明する。
 認識処理が開始されると、演算装置16はスペクトルセンサ14から観測光のスペクトルデータS0を取得する(ステップS10)とともに、その取得された観測光のスペクトルデータS0を前処理して特徴化されたスペクトルデータS2を算出する(ステップS11)。次に、演算装置16は、特徴化されたスペクトルデータS2から異なる2つのスペクトルエリアを選定し、同2つのスペクトルエリアからそれぞれ比較位置スペクトルデータSa2,Sb2を取得する(ステップS12)。ここでは、例えば、車道50に対応するスペクトルエリアとタイヤ53Bに対応するスペクトルエリアとが選定されたものとする。
 続いて、演算装置16は、比較位置スペクトルデータSa2,Sb2の差を算出することにより、各比較位置スペクトルデータSa2,Sb2に含まれる環境光の影響を除去するとともに、その差分データを絶対値化することによって相関スペクトルデータSabを生成する(ステップS13)。よって、相関スペクトルデータSabは、車道50に基づくデータとタイヤ53Bに基づくデータとの組み合わせデータである。
 演算装置16は、この相関スペクトルデータSabを予め定められた条件により選択された参照用データSabrと比較照合するとともに、両データの同一性に基づいて相関スペクトルデータSabに対応する2つの測定対象Ma,Mbを同時に同定する(ステップS14)。すなわち、参照用データSabrとして、車道のアスファルト(測定対象Ma)に基づくデータとタイヤ(測定対象Mb)に基づくデータとの組み合わせデータが選択された場合には、該参照用データSabrと相関スペクトルデータSabとの照合を通じて、測定対象がアスファルト(測定対象Ma)及びタイヤ(測定対象Mb)であると同定される。そして、演算装置16は、2つの測定対象Ma,Mbの認識結果をスペクトル測定装置11の認識結果として外部に出力する。
 本実施形態は、以下の利点を有する。
 (1)一般に、スペクトルセンサ14により検出される異なる2つの位置でのスペクトルデータにはそれぞれ同一の環境光のスペクトルと、それぞれ異なる測定対象のスペクトルとが含まれている。このため、上記のように、それら2つのスペクトルデータの差を算出することにより、上記環境光のスペクトル成分が除去されてかつ、上記異なる2つの位置のスペクトルデータに関連付けられた上記相関スペクトルデータSabが得られるようになる。そして、この相関スペクトルデータSabを用いて、すなわち上記環境光のスペクトル成分が除去された2つの測定対象のスペクトルデータの組合せに相当する参照用データSabrを用いて、2つの測定対象が同時に同定されるようになる。すなわち、環境光の影響が除去された精度の高い測定対象の認識が可能となる。
 (2)観測光のスペクトルデータS0に正規化処理及び2次微分処理を施すことで環境光の強度やスペクトルセンサ14のセンサ感度のむらなどの影響が除去できるようになる。
 (3)クラスタリング処理を通じて、観測光のスペクトルデータ中に、異なる測定対象にそれぞれ対応する複数のスペクトルエリアが規定される。そして、互いに隣接する2つのスペクトルエリア、例えば車道50に対応するスペクトルエリアとタイヤ53Bに対応するスペクトルエリア、または、頭部54Aに対応するスペクトルエリアと胴体部54Bに対応するスペクトルエリア、からそれぞれ2つの位置のスペクトルデータSa2,Sb2が検出される。これにより、2つの位置のスペクトルデータSa2,Sb2は、それぞれ異なる測定対象のものとして検出されるようになる。
 (4)相関スペクトルデータSabを、同相関スペクトルデータSabに対応する少なくとも2つの測定対象のスペクトルデータの組合せからなるデータとして予め辞書データ記憶部17に登録されている第1の照合用データ17A(データ群)と照合することにより、2つの測定対象の認識を同時に行なう。これにより、認識に要する演算を短縮することができるようになる。
 (5)自動車53の走行環境においては、2つの測定対象を車道50とタイヤ53Bとすることが好ましい。すなわち、一般に地上を移動する車両などの周辺環境には必ず存在する路面を測定対象の一つとして用いることにより、2つの測定対象の組み合わせも自ずと限られたものとなる。また路面の材料は、例えばアスファルト、コンクリート、土、砂利、レンガなどに限定されている。よって、照合回数を減少させることができるなど、対象物の同定に要する時間の短縮化が図られるとともに、同定そのものの精度の向上が図られるようにもなる。
 次に、本発明の第2実施形態を図面に従って説明する。図11は、本実施形態に係るスペクトル測定装置11の概略構成を示す。なお、本実施形態のスペクトル測定装置11は、上記第1実施形態のスペクトル測定装置11に第2の識別部と第2の照合用データとを追加したものであり、それ以外の構成については上記第1実施形態と略同様である。そこで、本実施形態では、主に上記第1の実施形態との相違点について説明するようにし、第1の実施形態と同様の部材には同一の符号を付してその説明を割愛する。
 辞書データ記憶部17には、図12に示すように、第1の照合用データ17Aと第2の照合用データ17Bとが辞書データとして予め記憶されている。第2の照合用データ17Bには、予め検出した2つの測定対象のスペクトルデータと、それら2つの測定対象間の関係についての特徴を示す情報であるコンテキストに基づいて設定されている複数のデータとが保持されている。なお、本実施形態では、2つの測定対象間の関係についての特徴を示す情報は、2つの測定対象の空間的位置関係及び空間的大きさの比に関する情報である。
 第2の照合用データ17Bについて図13(a)~(c)に従って説明する。図13(a)~(c)は、第2の照合用データ17Bの生成方法を説明するための図である。例えば、図13(a)に示すように、歩行者54の頭部54Aと胴体部54Bとが2つの測定対象として予め設定されたとき、演算装置16は頭部54Aの比較位置205での空間位置Zarと、大きさDarと、スペクトルデータSar0とを取得するとともに、胴体部54Bの比較位置206での空間位置Zbrと、大きさDbrと、スペクトルデータSbr0とを取得する。頭部54Aの特徴は空間位置Zarと大きさDarとの積算により表わされるとともに、胴体部54Bの特徴は空間位置Zbrと大きさDbrとの積算により表わされるものとする。また、歩行者54については、頭部54Aを体の他の部分に対する基準エリア(基底)として予め規定しておくことにより、頭部54Aと胴体部54Bとの関係についての特徴を示す情報であるコンテキストPabrは、胴体部54Bの特徴(=Zbr×Dbr)を頭部54Aの特徴(=Zar×Dar)で除算することにより表わされるようになる。すなわち、図13(b)に示すように、コンテキストPabr(=(Zbr×Dbr)/(Zar×Dar))が求められるようになる。そして、頭部54Aと胴体部54Bとの前処理されたそれぞれの比較位置スペクトルデータSar2,Sbr2を用いて、頭部54Aを基底として除算(Sbr2/Sar2)することにより、これらに含まれる観測光の影響が減少されたデータが算出される。そして、この算出されたデータ(Sbr2/Sar2)にコンテキストPabrを掛け合わせて求めた参照用データCabr(=(Sbr2/Sar2)×Pabr)が第2の照合用データ17Bのデータとなる。すなわち、(Sbr2/Sar2)で表わされるデータは、頭部54Aと胴体部54Bとの位置関係などを情報として含んでいないが、(Sbr2/Sar2)にコンテキストPabrを付加することにより、それらの位置関係などが含まれたデータである参照用データCabrが得られるようになる。
 本実施形態の演算装置16は、前処理部20、比較エリア選定部23、第1の認識部30に加えて、第2の認識部35を備えている。
 第2の認識部35は、2つの比較位置スペクトルデータSa2,Sb2のいずれか一方を基準エリア(基準位置)として設定する基準エリア設定部38を備えている。また、第2の認識部35は、特徴化されたスペクトルデータS2における2つの比較位置スペクトルデータSa2,Sb2に対応するそれぞれの測定対象の空間的位置関係及び空間的大きさの比に基づいて、それら2つの測定対象の関係についての特徴を示す情報であるコンテキストPabを求めるコンテキスト算出部39を備えている。さらに、第2の認識部35は、設定された基準エリア(基準位置)に対応する一方の比較位置スペクトルデータで他方の比較位置スペクトルデータを除算するとともに、その除算結果に前記コンテキストPabを積算して新たな相関スペクトルデータCabを生成する除算処理部40を備えている。さらにまた、第2の認識部35は、新たな相関スペクトルデータCabを、辞書データ記憶部17の第2の照合用データ17Bから選択された参照用データCabrと照合することにより、2つの比較位置スペクトルデータSa2,Sb2に対応する測定対象をそれぞれ同時に同定する照合部41を備えている。
 基準エリア設定部38は、比較エリア選定部23に接続されるとともに、該比較エリア選定部23から特徴化されたスペクトルデータS2と2つの比較位置スペクトルデータSa2,Sb2とを受け取る。基準エリア設定部38は、予め定められた所定の条件に基づいて、2つの比較位置スペクトルデータSa2,Sb2のいずれか一方に対応する測定対象に基づくスペクトルエリアを基準エリアとして設定する。例えば、前記所定の条件が「下側」であれば、図5(a),(b)に示す、比較位置202と比較位置203との関係では比較位置203が基準エリアとして設定され、図6(a),(b)に示す、比較位置205と比較位置206との関係では比較位置206が基準エリアとして設定される。また例えば、前記所定の条件が「路面」であれば、図5(a),(b)に示す、比較位置202と比較位置203との関係では比較位置203が基準エリアとして設定される。さらに、例えば、前記所定の条件が「顔肌」であれば、図6(a),(b)に示す、比較位置205と比較位置206との関係では比較位置205が基準エリアとして設定される。なお、本実施形態では、比較位置スペクトルデータSa2に対応するエリアが基準エリアに設定されるものとする。
 コンテキスト算出部39は、基準エリア設定部38に接続されるとともに、該基準エリア設定部38から特徴化されたスペクトルデータS2と、2つの比較位置スペクトルデータSa2,Sb2と、基準エリアに関する情報とが入力される。図15(a)に示すように、コンテキスト算出部39は、第1の測定対象のスペクトルデータSa0に基づく比較位置スペクトルデータSa2と、第1の測定対象に対応するスペクトルエリアの位置Za及びその大きさDaとを求める。また、コンテキスト算出部39は、第2の測定対象のスペクトルデータSb0に基づく比較位置スペクトルデータSb2と、第2の測定対象に対応するスペクトルエリアの位置Zb及びその大きさDbとを求める。そして、図15(b)に示すように、基準エリアとされた第1の測定対象に対応するスペクトルエリアの位置Zaの値と大きさDaの値とを積算した値(=Za×Da)で、第2の測定対象に対応するスペクトルエリアの位置Zbの値と大きさDbの値とを積算した値(=Zb×Db)を除算することによってコンテキストPab(=(Zb×Db)/(Za×Da))を算出する。これにより、コンテキストPabは、2つの測定対象の空間的位置関係や空間的大きさの関係を特徴付けた情報として求められる。
 除算処理部40は、コンテキスト算出部39に接続されるとともに、該コンテキスト算出部39から、2つの比較位置スペクトルデータSa2,Sb2とコンテキストPabとを受け取る。そして、図15(c)に示すように、基準エリアに対応する一方の比較位置スペクトルデータSa2で他方の比較位置スペクトルデータSb2を除算するとともに、その除算結果にコンテキストPabを積算することによって、相関スペクトルデータCab(=Sb2/Sa2×Pab)を生成する。このことにより、2つの比較位置スペクトルデータSa2,Sb2の両方に含まれている観測光のスペクトルデータが「1」の大きさとして抽出されることとなるので、相関スペクトルデータCabにおけるその影響を低減させることができるようになる。
 照合部41は、辞書データ記憶部17と除算処理部40とにそれぞれ接続されるとともに、辞書データ記憶部17中の第2の照合用データ17Bを参照用データCabrとして随時取得されるとともに、除算処理部40から相関スペクトルデータCabを受け取る。照合部41は、相関スペクトルデータCabを参照用データCabrと照合してそれらがマッチングするか否かを判定する。そして、それらがマッチングしたとき、照合部41は、相関スペクトルデータCabが参照用データCabrを構成している2つの測定対象に対応するものであって、それら測定対象が参照用データCabrに規定された空間的位置関係及び所定の空間的大きさの比の関係を有すると判定する。例えば、測定対象Maと測定対象Mbとが路面とタイヤとである場合、自動車をその前後から見たときに比べて自動車を側面から見たときの方が、タイヤの占有面積が大きくなるため、路面とタイヤとに関するコンテキストにより、スペクトルセンサによって検出されたものが自動車の前後なのか、あるいは、自動車の側面なのかを区別できるようになる。また例えば、測定対象Maと測定対象Mbとが顔肌と胴体部とである場合、顔肌は胴体部よりも上側でかつ小さいので、顔肌と胴体部との空間的位置関係及び空間的大きさの比に基づき、顔肌と胴体部とが同定される。これにより、測定対象の認識精度を向上させることができるようにもなる。
 次に、本実施形態における認識処理の手順について図14のフローチャートに従って説明する。
 認識処理が開始されると、演算装置16はスペクトルセンサ14から観測光のスペクトルデータS0を取得する(ステップS20)とともに、その取得された観測光のスペクトルデータS0を前処理して特徴化されたスペクトルデータS2を算出する(ステップS21)。次に、演算装置16は、特徴化されたスペクトルデータS2から異なる2つのスペクトルエリアを選定し、同2つのスペクトルエリアからそれぞれ比較位置スペクトルデータSa2,Sb2を取得する(ステップS22)。続いて、演算装置16は、所定の条件に基づいて2つのスペクトルエリアのうち基準エリアとなるスペクトルエリアを選択する(ステップS23)とともに、特徴化されたスペクトルデータS2と比較位置スペクトルデータSa2,Sb2とに基づいてコンテキストPabを算出する(ステップS24)。そして、基準エリアに対応する比較位置スペクトルデータSa2で比較位置スペクトルデータSb2を除算するとともにその除算したデータに、コンテキストPabを積算することにより、相関スペクトルデータCabを算出する(ステップS25)。そして、演算装置16は、相関スペクトルデータCabと予め定められた所定の条件により選択される参照用データCabrとを比較照合するとともに、その比較照合に基づいて相関スペクトルデータCabを構成する2つの測定対象Ma,Mbを同時に同定する(ステップS26)。これにより、演算装置16は、この2つの測定対象Ma,Mbの認識結果をスペクトル測定装置11の認識結果として外部に出力する。
 本実施形態は、第1の実施形態の利点(1)~(5)に加えて、以下の利点を有する。
 (6)2つの測定対象間の関係についての特徴を示すコンテキストPabを求めるとともに、同コンテキストPabに関連付けされた相関スペクトルデータCabを求めるようにしている。コンテキストPabに関連付けされた相関スペクトルデータCabは測定対象同士の組合せにかかる特徴をより顕著に現したデータとなる。したがって、この相関スペクトルデータCabに基づいて前記2つの測定対象の同定を行うようにすれば、上記2つの測定対象に関する同定精度もさらに向上されるようになる。
 (7)相関スペクトルデータCabの算出に際し、基準とするスペクトルデータ、言い換えれば基準エリアを、例えば、車道50と自動車53との関係にあっては車道50、歩行者54にあっては頭部54Aと予め定めた。これにより、例えば第2の照合用データ17Bを用いて前記測定対象の同定を行う場合、第2の照合用データ17Bのデータ量の削減が可能になるとともに、同定精度のさらなる向上が見込まれるようになる。
 (8)地上を移動する車両10などの周辺環境には必ず存在する車道50を基準の測定対象に用いることにより、測定対象の同定が容易となる。即ち、車道50の材料は例えばアスファルト、コンクリート、土、砂利、レンガなどに限定されるので、同定が容易である。また一方の測定対象を車道50にすれば、他方の測定対象は自ずと車両10のタイヤや歩行者、あるいは路面に設置された各種物体に限られるようになり、ひいては上記コンテキストPabによる特徴付けも容易となる。そしてこのことも、上記同定精度の向上に寄与する要因の1つとなる。
 次に、本発明の第3実施形態を図面に従って説明する。図16は、本実施形態に係るスペクトル測定装置11の概略構成を示す。なお、本実施形態のスペクトル測定装置11は、上記第1実施形態のスペクトル測定装置11に境界エリア選定部25と第3の認識部36とを追加したものであり、それ以外の構成については上記第1実施形態と略同様である。そこで、本実施形態では、主に上記第1の実施形態との相違点について説明するようにし、第1の実施形態と同様の部材には同一の符号を付してその説明を割愛する。
 図16に示すように、本実施形態の演算装置16は、前処理部20、比較エリア選定部23、第1の認識部30に加えて、境界エリア選定部25と第3の認識部36とを備えている。
 境界エリア選定部25は、スペクトルデータ(スペクトル画像)の中からスペクトル波形が変化する部分を複数の測定対象間の境界部分として抽出するとともに、その抽出された境界部分を予め定められた所定の条件に基づいて2箇所選定するものである。すなわち、境界エリア選定部25は、前処理部20から入力される、特徴化されたスペクトルデータS2の中から2箇所の境界部分を選定する。例えば一つの境界部分として、図5(b)を用いて説明すると、スペクトル形状「a」とスペクトル形状「b」との境に対応する境界領域204が選定される。また、もう一つの境界部分として、例えば、図6(b)を用いて説明すると、スペクトル形状「a」とスペクトル形状「b」との境に対応する境界領域207が選定される。そして、境界エリア選定部25は、このように選定された2箇所の境界領域に対応するスペクトルデータである比較境界位置スペクトルデータSp2,Sq2をそれぞれ特徴化されたスペクトルデータS2から取得する。
 第3の認識部36は、境界エリア選定部25に接続されているとともに、該境界エリア選定部25から入力される比較境界位置スペクトルデータSp2,Sq2に含まれている環境光を除去する。第3の認識部36は、例えば、2つの比較境界位置スペクトルデータSp2,Sq2の論理積から、それらに共通するデータ、すなわち環境光に対応するデータとしての特徴化されたスペクトルデータを算出する。そして第3の認識部36は、この環境光に対応する特徴化されたスペクトルデータと各比較境界位置スペクトルデータSp2,Sq2との差分から各相関スペクトルデータSpp,Sqqを求める。これにより、比較境界位置スペクトルデータSp2から環境光の影響が除去された1つの相関スペクトルデータSppが算出される。この相関スペクトルデータSppは、境界部分を構成する2つの測定対象、例えば図5(b)の境界領域204に存在するタイヤ53Bのスペクトルデータと車道50のスペクトルデータとに基づくものである。同様に、比較境界位置スペクトルデータSq2から環境光の影響が除去された1つの相関スペクトルデータSqqが算出される。この相関スペクトルデータSqqは、境界部分を構成する2つの測定対象、例えば図6(b)の境界領域207に存在する頭部54Aのスペクトルデータと胴体部54Bのスペクトルデータとに基づくものである。
 なお、これら算出された相関スペクトルデータSpp,Sqqはそれぞれ、第1の実施形態の相関スペクトルデータSabに対応するものであるので、第1の認識部30の照合部33を用いた照合により、それらを構成する2つの測定対象がそれぞれ、例えば測定対象Ma,Mbや測定対象Mc,Mdがそれぞれ同時に同定されるようになる。
 次に、本実施形態における認識処理の手順について図17のフローチャートに従って説明する。
 認識処理が開始されると、演算装置16はスペクトルセンサ14から観測光のスペクトルデータS0を取得する(ステップS30)とともに、その取得された観測光のスペクトルデータS0を前処理して特徴化されたスペクトルデータS2を算出する(ステップS31)。次に、演算装置16は、特徴化されたスペクトルデータS2から異なる2つの位置にある境界エリアを選定し、同それら境界エリアからそれぞれ比較境界位置スペクトルデータSp2,Sq2を取得する(ステップS32)。演算装置16は、これら比較境界位置スペクトルデータSp2,Sq2に含まれる環境光の影響を除去した相関スペクトルデータSpp,Sqqをそれぞれ生成する(ステップS33)。
 そして、演算装置16は、各相関スペクトルデータSpp,Sqqを、それぞれ予め定められた所定の条件により第1の照合用データ17Aから選択される、2つの測定対象のスペクトルデータを含んだ参照用データSabrと比較照合する。これにより、その比較照合に基づいて相関スペクトルデータSppを構成する2つの測定対象Ma,Mbが同時に同定されるとともに、これとは各別に、相関スペクトルデータSppを構成する2つの測定対象Mc,Mdも同時に同定される(ステップS34)。そして、演算装置16は、この2つの測定対象Ma,Mbの認識結果と、2つの測定対象Mc,Mdの認識結果とをそれぞれスペクトル測定装置11の認識結果として外部に出力する。
 本実施形態は、第1の実施形態の利点(1)~(5)に加えて、以下の利点を有する。
 (9)異なる2つの位置での比較境界位置スペクトルデータSp2,Sq2の各々は、少なくとも2つの異なる測定対象の境界部分のスペクトルデータである。このことから、測定されるスペクトルデータに含まれる測定対象の数が増えることから、同時により多くの測定対象を認識することが可能となる。またこれにより、測定対象の認識に要する時間の短縮化も併せて図られるようにもなる。
 (10)スペクトルデータの一部に車道50のスペクトルデータが含まれることから、前述したように、測定対象の同定が容易になって、同定に要する時間の短時化が図られるようになる。
 次に、本発明の第4実施形態を図面に従って説明する。図18は、本実施形態に係るスペクトル測定装置11の概略構成を示す。なお、本実施形態のスペクトル測定装置11は、上記第1実施形態のスペクトル装置11に境界エリア選定部25と第4の認識部37と判定部34とを追加したものであり、それ以外の構成については上記第1実施形態と略同様である。そこで本実施形態では、主に上記第1の実施形態との相違点について説明するようにし、説明の便宜上、第1の実施形態と同様の部材には同一の符号を付してその説明を割愛する。
 本実施形態の辞書データ記憶部17には、図19に示すように、第1の照合用データ17Aと第3の照合用データ17Cとが辞書データとして予め記憶されている。第1の照合用データ17Aは、上記第1の実施形態のそれと同様である。一方、第3の照合用データ17Cも、その性質は第1の照合用データ17Aと同様である。すなわち、第1の照合用データ17Aは、2つの測定対象のデータの組み合わせに基づくデータであるのに対して、第3の照合用データ17Cは、4つの測定対象のデータの組み合わせに基づくデータである点が相違するのみで、データの性質そのものは変わらない。
 本実施形態の演算装置16は、図18に示すように、前処理部20、比較エリア選定部23、第1の認識部30に加えて、境界エリア選定部25と第4の認識部37とを備えている。なお、本実施形態の境界エリア選定部25は、上記第3の実施形態にて説明した境界エリア選定部25と同一なのでその説明については割愛する。
 第4の認識部37は、比較境界位置スペクトルデータSp2,Sq2にそれぞれ含まれている環境光を除去するものである。第4の認識部37は、境界エリア選定部25に接続されている。第4の認識部37は、認識用データ生成部42と照合部43とを備えている。認識用データ生成部42は、第1の実施形態の認識用データ生成部31と比較して、入力されるスペクトルデータに対応する測定対象の数が1つではなく、2つである点で相違し、その他は同様の機能を有するので、その詳細な説明を割愛する。すなわち、第1の実施形態の認識用データ生成部31は、1つの測定対象に基づく比較位置スペクトルデータSa2,Sa2の差分及びその絶対値化を通じて、環境光の影響が除去された2つの測定対象に基づく相関スペクトルデータSabを生成する。一方、本実施形態の認識用データ生成部42は、2つの測定対象に基づく比較境界位置スペクトルデータSp2,Sq2の差分及びその絶対値化を通じて、環境光の影響が除外された4つの測定対象に基づく相関スペクトルデータSabcdを生成する。
 本実施形態の照合部43は、第1の実施形態の照合部33と比較して、入力される相関スペクトルデータSabcdに対応する測定対象の数が2つではなく、4つである点が相違し、その他は同様の機能を有するので、その詳細な説明を割愛する。すなわち、第1の実施形態の照合部33は、2つの測定対象に基づく相関スペクトルデータSabを、同じく2つの測定対象に基づく第1の照合用データから選択された参照用データSabrと比較照合することにより、2つの測定対象を同時に同定する。一方、本実施形態の照合部43は、4つの測定対象に基づく相関スペクトルデータSabcdを、同じく4つの測定対象に基づく第3の照合用データ17Cから選択された参照用データSabcdrと比較照合することにより、4つの測定対象を同時に同定する。
 判定部34は、第1の認識部30による識別結果と、第4の認識部37による識別結果とを調整する。すなわち、第1の認識部30による識別結果と、第4の認識部37による識別結果との間に相違や矛盾が生じたとき、判定部34は、予め定められた条件に基づいて各識別結果の優先度を判定するとともに、優先度が高いと判定された方の識別結果をスペクトル測定装置11の認識結果として出力する。
 次に、本実施形態における認識処理の手順について図20のフローチャートに従って説明する。
 認識処理が開始されると、演算装置16はスペクトルセンサ14から観測光のスペクトルデータS0を取得する(ステップS40)とともに、その取得された観測光のスペクトルデータS0を前処理して特徴化されたスペクトルデータS2を算出する(ステップS41)。次に、演算装置16は、特徴化されたスペクトルデータS2から異なる2つの位置にある境界エリアを選定し、それら境界エリアからそれぞれ比較境界位置スペクトルデータSp2,Sq2を取得する(ステップS42)。演算装置16は、これら比較境界位置スペクトルデータSp2,Sq2の差分データを求めるとともに、その差分データを絶対値化して、それらに含まれる環境光の影響を除去した相関スペクトルデータSabcdを生成する(ステップS43)。そして、演算装置16は、相関スペクトルデータSabcdを、予め定められた条件により第3の照合用データ17Cから選択される4つの測定対象のスペクトルデータを含んだ参照用データSabcdrと比較照合する。これにより、その比較照合に基づいて相関スペクトルデータSabcdを構成する4つの測定対象Ma,Mb,Mc,Mdが同時に同定される(S44)。そして、演算装置16は、この4つの測定対象Ma,Mb,Mc,Mdの認識結果をスペクトル測定装置11の認識結果として外部に出力する。
 本実施形態は、第1の実施形態の利点(1)~(5)に加えて、以下の利点を有する。
 (11)異なる2つの位置の比較境界位置スペクトルデータSp2,Sq2はそれぞれ、少なくとも2つの異なる測定対象の境界部分のスペクトルデータである。そして、これらの比較境界位置スペクトルデータSp2,Sq2から、4つの測定対象に基づく相関スペクトルデータSabcdを生成するとともに、同相関スペクトルデータSabcdを、同じく4つの測定対象に基づく第3の照合用データ17Cから選択された参照用データSabcdrと照合するようにした。その結果、測定されるスペクトルデータに含まれる測定対象の数が増えるとともに、一時により多数の測定対象を認識することが可能となる。またこれにより、測定対象の認識に要する時間の短縮化も併せて図られるようにもなる。
 なお、上記各実施形態は、例えば以下のような態様にて実施することもできる。
 上記各実施形態では、前処理部20が実行する前処理や比較エリア選定部23が実行する比較エリア選定処理をはじめとする、認識処理にかかる複数の演算処理のすべてが演算装置16にて実行される場合について例示した。しかしこれに限らず、これら複数の演算処理を複数の異なる演算装置により行って、得られた演算結果をそれら演算装置間で相互に共有するようにしてもよい。
 上記各実施形態では、複数のスペクトルエリアの中から互いに隣接する2つのスペクトルエリア(例えば、車道50に対応するスペクトルエリアとタイヤ53Bに対応するスペクトルエリア)を、認識処理に用いる2つの比較エリアとして選定するようにした。しかしこれに限らず、複数のスペクトルエリアの中から互いに隣接していない2つのスペクトルエリアを、認識処理に用いる2つの比較エリアとして選定するようにしてもよい。
 上記各実施形態では、前処理部20が正規化処理と2次微分処理とを行なう場合について例示した。しかしこれに限らず、前処理部20は正規化処理または2次微分処理のいずれか一方のみを行なってもよい。なおこの場合、照合に用いられる参照用データも同様の処理が行なわれているデータであることが望ましい。
 上記各実施形態では、正規化処理は予め設定されている条件で実行されるとしたが、これに限らず、正規化処理の実行条件は、他の制御装置或いはヒューマンマシンインタフェースを通じて、任意に可変設定されてもよい。なおこれは、正規化処理に限らず、その他の処理についても同様である。
 上記各実施形態では、第1の認識部30が2つの比較位置スペクトルデータSa2,Sb2の差を相関スペクトルデータSabとして算出する場合について例示した。しかしこれに限らず、2つの比較位置スペクトルデータに含まれる環境光を除去もしくは減少させることができるのであれば、2つの比較位置スペクトルデータのうち一方を他方で除算することによって2つの比較位置スペクトルデータの比を求め、その比を相関スペクトルデータSabとしてもよい。
 上記第2の実施形態では、第2の認識部35が2つの比較位置スペクトルデータSa2,Sb2を用いた除算を通じて相関スペクトルデータSabを算出する場合について例示した。しかしこれに限らず、2つの比較位置スペクトルデータに含まれる環境光を除去もしくは減少させることができるのであれば、2つの比較位置スペクトルデータの差を相関スペクトルデータとして求めてもよい。
 上記各実施形態では、辞書データ記憶部17は、複数の測定対象のスペクトルデータの組み合わせに基づく第1の照合用データ17Aを記憶している。しかしこれに限らず、辞書データ記憶部17は、各一つの測定対象のスペクトルデータに基づく照合用データを記憶していてもよい。この場合、必要に応じて複数の照合用データを選択して組み合わせることで、相関スペクトルデータとの比較に用いられる参照用データを生成することができる。
 上記各実施形態では、2つの比較位置スペクトルデータSa2,Sb2の差が絶対値化されて相関スペクトルデータSabが算出される場合について例示した。しかしこれに限らず、環境光の影響を除去もしくは軽減できるのであれば、2つの比較位置スペクトルデータの差を絶対値化せずに相関スペクトルデータを求めても良い。
 上記第2、第3及び第4の実施形態では、演算装置16が複数の認識部を備えている場合について例示したが、これに限らず、演算装置が何れか一つの認識部のみを備えていてもよい。これによっても、観測光の影響を除去もしくは軽減した測定対象の認識ができる。
 上記第2,第3及び第4の各実施形態における複数の認識部の組み合わせはあくまでも例示であり、複数の認識部の組み合わせは上記した以外の組み合わせも可能である。例えば、図21に示すように、演算装置16は、第1の認識部30、第2の認識部35及び第3の認識部36を備えていてもよい。また例えば、図22に示すように、演算装置16は、第1の認識部30、第2の認識部35及び第4の認識部37を備えていてもよい。さらに例えば、図23に示すように、演算装置16は、第1の認識部30、第2の認識部35、第3の認識部36及び第4の認識部37を備えていてもよい。
 上記第2の実施形態では、コンテキストPabが空間的位置関係及び空間的大きさの関係に基づき算出される場合について例示したが、これに限らず、コンテキストPabは、空間的位置関係または空間的大きさの関係のいずれか一方に基づき算出されてもよい。
 上記第2の実施形態では、測定対象の特徴を空間的位置と空間的大きさとの積算により表すようにしたが、これに限らず、測定対象の特徴を空間的位置と空間的大きさとの加算、減算や除算により表すようにしてもよい。
 上記第2の実施形態では、1つの測定対象の特徴(空間的位置及び空間的大きさ)をもう1つの測定対象の特徴で除算することによりコンテキストPabを算出するようにしたが、これに限らず、2つの測定対象の特徴の積算によりコンテキストPabを算出するようにしてもよい。
 上記第3及び第4の実施形態では、境界部分として図5(b)及び図6(b)に示される2つの境界領域204,207が選定される場合について例示したが、これ以外の境界部分が選択されてもよい。特に関連性の高い2つの境界部分を選択するようにすれば高度な認識が可能となる。例えば、走行中の自転車の車輪と路面との境界部分、及び、同自転車のフレームと運転者との境界部分を選択すれば、人が運転している自転車を認識することも可能となる。
 上記第3及び第4の実施形態では、境界部分をスペクトルデータの形状が大きく変化する部分として検出するようにした。しかしこれに限らず、境界部分を互いに隣接する異なるスペクトルエリアの境界として求めてもよい。
 上記各実施形態では、スペクトル測定装置11を車両10に搭載する場合について例示したが、これに限らず、スペクトル測定装置は、地上や建物などに移動しないかたちで設置されてもよい。例えば、図24に示されるように、道路環境を検出できるように設置された検出装置60にスペクトル測定装置11Aを設け、当該検出装置60の周辺環境に存在する測定対象として、車両や歩行者、或いは自転車57とその運転者58などを検出するようにしてもよい。
 10…車両、11…スペクトル測定装置、11A…スペクトル測定装置、12…ヒューマンマシンインタフェース、13…車両制御装置、14…スペクトルセンサ、15…スペクトルデータ処理装置、16…演算装置、17…辞書データ記憶部、20…前処理部、21…正規化処理部、22…2次微分処理部、23…比較エリア選定部、25…境界エリア選定部、30…第1の認識部、31…認識用データ生成部、32…差分データ算出部、33…照合部、34…判定部、35…第2の認識部、36…第3の認識部、37…第4の認識部、38…基準エリア設定部、39…コンテキスト算出部、40…除算処理部、41…照合部、42…認識用データ生成部、43…照合部、50…車道、51…歩道、52…樹木、53…自動車、53B…タイヤ、53C…バンパ、54…歩行者、54A…頭部、54B…胴体部、55…ガードレール、56…背景、57…自転車、58…運転者、60…検出装置。

Claims (10)

  1.  波長情報と光強度情報とを測定可能なスペクトルセンサにて検出される観測光のスペクトルデータに基づいて測定対象を認識するスペクトル測定装置であって、
     前記スペクトルセンサにて検出される異なる2つの位置でのスペクトルデータのうち一方のスペクトルデータから他方のスペクトルデータを減算もしくは一方のスペクトルデータを他方のスペクトルデータで除算することによって、前記異なる2つの位置でのスペクトルデータに相関する1つの相関スペクトルデータを算出するとともに、該相関スペクトルデータに基づいて前記異なる2つの位置に対応する測定対象を同時に同定するスペクトルデータ処理装置を備える、スペクトル測定装置。
  2.  前記スペクトルデータ処理装置は、正規化処理及び2次微分処理の少なくとも一方を施した前記異なる2つの位置でのスペクトルデータの比もしくは差を、前記相関スペクトルデータとして算出する、請求項1に記載のスペクトル測定装置。
  3.  前記スペクトルデータ処理装置は、波長毎の光強度の差が所定値以下となる複数のスペクトルデータを同一のスペクトルエリア内のスペクトルデータとして分類するクラスタリング処理を行い、
     前記異なる2つの位置でのスペクトルデータは、前記クラスタリング処理を通じて規定された複数の異なるスペクトルエリアのうち、互いに隣接もしくは隣接しない2つのスペクトルエリアにおけるスペクトルデータである、請求項1または2に記載のスペクトル測定装置。
  4.  前記スペクトルデータ処理装置は、相関スペクトルデータに対応する少なくとも2つの測定対象のスペクトルデータの組合せからなるデータを照合用データとして複数予め登録しており、
     前記スペクトルデータ処理装置は、前記相関スペクトルデータを前記予め登録されている照合用データと照合することに基づいて、前記異なる2つの位置に対応する測定対象を同定する、請求項1~3のいずれか一項に記載のスペクトル測定装置。
  5.  前記異なる2つの位置でのスペクトルデータのうちの一つは路面のスペクトルデータである、請求項1~4のいずれか一項に記載のスペクトル測定装置。
  6.  請求項1~4のいずれか一項に記載のスペクトル測定装置はさらに、前記異なる2つの位置に対応する測定対象間の関係についての特徴を示す情報であるコンテキストを算出するコンテキスト算出部を備え、
     前記コンテキスト算出部は、前記異なる2つの位置でのスペクトルデータから求められる2つの測定対象の空間的位置関係及び空間的大きさの関係の少なくとも一方に基づいて、前記コンテキストを算出し、
     前記相関スペクトルデータは第1の相関スペクトルデータであり、前記スペクトルデータ処理装置は、前記コンテキストに前記第1の相関スペクトルデータを関連付けすることによって第2の相関スペクトルデータを生成するとともに、該第2の相関スペクトルデータを用いて前記異なる2つの位置に対応する測定対象を同定する、スペクトル測定装置。
  7.  前記スペクトルデータ処理装置は、前記異なる2つの位置でのスペクトルデータのうちの一方を基準として定めるとともに、その基準とする一方のスペクトルデータで他方のスペクトルデータを除算したデータ、もしくは基準とする一方のスペクトルデータから他方のスペクトルデータを差し引いたデータを前記第2の相関スペクトルデータとして算出する、請求項6に記載のスペクトル測定装置。
  8.  前記基準とする一方のスペクトルデータが路面のスペクトルデータである、請求項7に記載のスペクトル測定装置。
  9.  前記異なる2つの位置でのスペクトルデータは、少なくとも2つの異なる測定対象の境界部分でのスペクトルデータである、請求項1~4,6,7のいずれか一項に記載のスペクトル測定装置。
  10.  前記異なる2つの位置でのスペクトルデータのいずれか一方は路面のスペクトルデータである、請求項9に記載のスペクトル測定装置。
PCT/JP2011/058904 2010-04-09 2011-04-08 スペクトル測定装置 WO2011126112A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US13/639,363 US9234800B2 (en) 2010-04-09 2011-04-08 Spectrometer
CN201180013689.6A CN102792150B (zh) 2010-04-09 2011-04-08 光谱测定装置
EP11766012.6A EP2557412A4 (en) 2010-04-09 2011-04-08 SPECTROMETER

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-090879 2010-04-09
JP2010090879A JP5060580B2 (ja) 2010-04-09 2010-04-09 スペクトル測定装置

Publications (1)

Publication Number Publication Date
WO2011126112A1 true WO2011126112A1 (ja) 2011-10-13

Family

ID=44763046

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/058904 WO2011126112A1 (ja) 2010-04-09 2011-04-08 スペクトル測定装置

Country Status (5)

Country Link
US (1) US9234800B2 (ja)
EP (1) EP2557412A4 (ja)
JP (1) JP5060580B2 (ja)
CN (1) CN102792150B (ja)
WO (1) WO2011126112A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013088658A (ja) * 2011-10-19 2013-05-13 Olympus Corp 顕微鏡装置
US20150285681A1 (en) * 2012-10-31 2015-10-08 Phoenix Contact Gmbh & Co Kg Apparatus for illuminating the surface of a material

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4977923B2 (ja) 2010-03-03 2012-07-18 日本電気株式会社 アクティブ型車両視界補助装置及び車両視界補助方法
CN104040309B (zh) 2011-11-03 2019-06-07 威利食品有限公司 用于最终使用者食品分析的低成本光谱测定系统
KR101410215B1 (ko) * 2012-08-16 2014-06-19 현대모비스 주식회사 차량용 객체 검출 장치 및 이의 방법
CN105593651B (zh) 2013-08-02 2019-06-07 威利食品有限公司 光谱测定系统和方法、光谱设备和系统
JP2017505901A (ja) 2014-01-03 2017-02-23 ベリフード, リミテッドVerifood, Ltd. 分光システム、方法、および用途
JP5668157B1 (ja) * 2014-02-05 2015-02-12 佐鳥 新 対象物探索装置、対象物探索プログラムおよび人命救助用探索システム
EP3209983A4 (en) 2014-10-23 2018-06-27 Verifood Ltd. Accessories for handheld spectrometer
WO2016125165A2 (en) 2015-02-05 2016-08-11 Verifood, Ltd. Spectrometry system with visible aiming beam
WO2016125164A2 (en) 2015-02-05 2016-08-11 Verifood, Ltd. Spectrometry system applications
WO2016162865A1 (en) 2015-04-07 2016-10-13 Verifood, Ltd. Detector for spectrometry system
US10066990B2 (en) 2015-07-09 2018-09-04 Verifood, Ltd. Spatially variable filter systems and methods
US10203246B2 (en) 2015-11-20 2019-02-12 Verifood, Ltd. Systems and methods for calibration of a handheld spectrometer
US10254215B2 (en) 2016-04-07 2019-04-09 Verifood, Ltd. Spectrometry system applications
EP3488204A4 (en) 2016-07-20 2020-07-22 Verifood Ltd. ACCESSORIES FOR HANDLABLE SPECTROMETERS
US10791933B2 (en) 2016-07-27 2020-10-06 Verifood, Ltd. Spectrometry systems, methods, and applications
JP6732705B2 (ja) * 2017-08-01 2020-07-29 エスペック株式会社 環境試験装置及び環境試験方法
US11536608B2 (en) * 2021-01-04 2022-12-27 Argo AI, LLC Systems and methods for characterizing spectral reflectance of real world objects

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005121601A (ja) * 2003-10-20 2005-05-12 Nissan Motor Co Ltd 物体検出装置及び物体検出方法
JP2006014315A (ja) 2005-06-20 2006-01-12 Olympus Corp カラー画像記録再生システム及び表色ベクトルデータ生成方法
JP2008275477A (ja) * 2007-04-27 2008-11-13 Tokyo Institute Of Technology 領域抽出装置及び領域抽出方法
JP2009115498A (ja) * 2007-11-02 2009-05-28 Nec Corp ハイパースペクトル画像解析システム、その方法及びそのプログラム
JP2009201064A (ja) * 2008-02-25 2009-09-03 Pioneer Electronic Corp 関連領域特定装置及び方法、並びに画像認識装置及び方法

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS604135Y2 (ja) 1980-07-25 1985-02-05 日産自動車株式会社 障害物検知装置
JPS6041270B2 (ja) 1980-07-29 1985-09-14 日本鋼管株式会社 配管系の不等沈下対策工法
US4947044A (en) 1989-03-20 1990-08-07 The Boeing Company Method and apparatus for covertly viewing a target using infrared radiation
DE69124726T2 (de) 1990-10-25 1997-07-03 Mitsubishi Electric Corp Vorrichtung zur Abstandsdetektion für ein Kraftfahrzeug
US5347475A (en) * 1991-09-20 1994-09-13 Amoco Corporation Method for transferring spectral information among spectrometers
JPH07280724A (ja) 1994-04-15 1995-10-27 Natl Space Dev Agency Japan<Nasda> 吸光度測定方法
JP2820083B2 (ja) * 1995-11-08 1998-11-05 日本電気株式会社 質量分析装置及びラジカル計測方法
JP3713321B2 (ja) 1995-12-19 2005-11-09 オリンパス株式会社 カラー画像記録再生システム及び画像カラー画像記録再生方法
US6373573B1 (en) 2000-03-13 2002-04-16 Lj Laboratories L.L.C. Apparatus for measuring optical characteristics of a substrate and pigments applied thereto
US6870616B2 (en) 1998-06-30 2005-03-22 Jjl Technologies Llc Spectrometer apparatus for determining an optical characteristic of an object or material having one or more sensors for determining a physical position or non-color property
EP0898148A3 (de) 1997-08-20 2000-04-26 DaimlerChrysler AG Verfahren zur Bestimmung des Zustands einer Fahrbahnoberfläche
JP4326621B2 (ja) 1999-03-01 2009-09-09 株式会社エヌ・ティ・ティ・データ データ管理方法及び装置、記録媒体
US6362888B1 (en) 1999-12-23 2002-03-26 Lj Laboratories, L.L.C. Spectrometer assembly
US6596996B1 (en) 2001-07-24 2003-07-22 The Board Of Regents For Oklahoma State University Optical spectral reflectance sensor and controller
JP3700778B2 (ja) 2002-03-14 2005-09-28 三菱電機株式会社 赤外線撮像装置
JP4016826B2 (ja) 2002-12-10 2007-12-05 株式会社デンソー 物標識別方法及び装置、プログラム
JP4352904B2 (ja) 2004-01-15 2009-10-28 富士ゼロックス株式会社 プリントサーバ、及びプリントサーバの節電制御プログラム
DE102004023323B4 (de) * 2004-05-07 2006-10-19 Daimlerchrysler Ag Sensorvorrichtung und Verfahren in einem Fahrzeug zur Erkennung des Zustands der Straßenoberfläche
US7058530B1 (en) * 2004-08-13 2006-06-06 Research Electronics International, Llc Comparative spectrum trace method and apparatus for detecting transmitters
JP4466319B2 (ja) 2004-10-25 2010-05-26 パナソニック電工株式会社 空間情報の検出装置
JP4442539B2 (ja) 2005-09-27 2010-03-31 パナソニック電工株式会社 空間情報の検出装置
JP4502787B2 (ja) 2004-11-19 2010-07-14 Nec東芝スペースシステム株式会社 光学スペクトルセンサ
GB0426993D0 (en) * 2004-12-09 2005-01-12 Council Cent Lab Res Councils Apparatus for depth-selective raman spectroscopy
JP4442472B2 (ja) 2005-03-07 2010-03-31 株式会社豊田中央研究所 対象物の部位判別装置
US7295771B2 (en) 2005-04-25 2007-11-13 Delphi Technologies, Inc. Method and apparatus for minimizing ambient illumination effects in a vision system
CN1699973B (zh) * 2005-04-28 2012-05-09 天津先阳科技发展有限公司 利用浮动基准实现浓度测量的方法
JP4262734B2 (ja) * 2005-09-14 2009-05-13 株式会社リガク 蛍光x線分析装置および方法
US7495218B2 (en) * 2006-04-20 2009-02-24 U Chicago Argonne Llc Passive millimeter wave spectrometer for remote detection of chemical plumes
JP4884096B2 (ja) 2006-06-20 2012-02-22 アルパイン株式会社 物体識別システム
JP4819606B2 (ja) 2006-07-21 2011-11-24 株式会社豊田中央研究所 対象物の部位判別装置及び性別判定装置
JP4316629B2 (ja) 2007-03-29 2009-08-19 株式会社東芝 画像処理システム、画像取得方法及びプログラム
JP4915314B2 (ja) 2007-08-23 2012-04-11 オムロン株式会社 撮像装置および撮像制御方法
US9117133B2 (en) 2008-06-18 2015-08-25 Spectral Image, Inc. Systems and methods for hyperspectral imaging
DE112009004829T5 (de) 2009-05-29 2012-07-19 Toyota Jidosha K.K. Vorrichtung zum messen eines spektrums eines bewegbaren körpers
DE112009004861B4 (de) * 2009-05-29 2017-03-02 Toyota Jidosha Kabushiki Kaisha Spektrumsmessvorrichtung für einen beweglichen körper
DE112009004830T5 (de) 2009-05-29 2012-06-14 Toyota Jidosha Kabushiki Kaisha Spektrummessvorrichtung für Bewegungsobjekt
CN101692045B (zh) * 2009-10-28 2011-04-27 广西工学院 基于多波长激发的拉曼光谱的荧光消除方法
JP5519381B2 (ja) * 2010-04-09 2014-06-11 トヨタ自動車株式会社 スペクトル測定装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005121601A (ja) * 2003-10-20 2005-05-12 Nissan Motor Co Ltd 物体検出装置及び物体検出方法
JP2006014315A (ja) 2005-06-20 2006-01-12 Olympus Corp カラー画像記録再生システム及び表色ベクトルデータ生成方法
JP2008275477A (ja) * 2007-04-27 2008-11-13 Tokyo Institute Of Technology 領域抽出装置及び領域抽出方法
JP2009115498A (ja) * 2007-11-02 2009-05-28 Nec Corp ハイパースペクトル画像解析システム、その方法及びそのプログラム
JP2009201064A (ja) * 2008-02-25 2009-09-03 Pioneer Electronic Corp 関連領域特定装置及び方法、並びに画像認識装置及び方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2557412A4

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013088658A (ja) * 2011-10-19 2013-05-13 Olympus Corp 顕微鏡装置
US20150285681A1 (en) * 2012-10-31 2015-10-08 Phoenix Contact Gmbh & Co Kg Apparatus for illuminating the surface of a material
US10473523B2 (en) * 2012-10-31 2019-11-12 Phoenix Contact Gmbh & Co Kg Apparatus for illuminating the surface of a material

Also Published As

Publication number Publication date
US9234800B2 (en) 2016-01-12
EP2557412A1 (en) 2013-02-13
CN102792150A (zh) 2012-11-21
US20130027702A1 (en) 2013-01-31
EP2557412A4 (en) 2015-05-13
JP5060580B2 (ja) 2012-10-31
CN102792150B (zh) 2014-12-10
JP2011220867A (ja) 2011-11-04

Similar Documents

Publication Publication Date Title
WO2011126112A1 (ja) スペクトル測定装置
US9384401B2 (en) Method for fog detection
CN102314600B (zh) 用于畅通路径检测的去除由基于车辆的相机捕获的图像中的阴影
Alvarez et al. Road detection based on illuminant invariance
US9013286B2 (en) Driver assistance system for displaying surroundings of a vehicle
CN102314602B (zh) 使用最优定向线性轴线去除由基于车辆的相机捕获的图像中的阴影
US9305220B2 (en) Spectrum measurement device
US20170236011A1 (en) Method and arrangement for assessing the roadway surface being driven on by a vehicle
JP2013225289A (ja) 複眼カメラ装置、及びそれを備えた車両
CN105365667B (zh) 车辆警报音输出控制装置及其方法
WO2008020544A1 (en) Vehicle detection device, vehicle detection method, and vehicle detection program
CN105706147A (zh) 用于认证标记的手持装置和方法
US8723124B2 (en) Spectrum measuring apparatus for mover
JPWO2012014627A1 (ja) 車両周辺監視装置
JP2011076214A (ja) 障害物検出装置
CN113903012A (zh) 碰撞预警方法及装置、车载设备及存储介质
JP2010276552A (ja) スペクトル測定装置
Meinecke et al. Approach for protection of vulnerable road users using sensor fusion techniques
JP5577627B2 (ja) 移動体用スペクトル測定装置
Marchal et al. SAVE-U: An innovative sensor platform for Vulnerable Road User protection
KR20150076532A (ko) 차량 거리 측정 시스템 및 그를 위한 방법
Kawasaki et al. A method for detecting damage of traffic marks by half celestial camera attached to cars
Yi et al. Clothing color of surrogate bicyclist for pre-collision system evaluation
Brown et al. Hyperspectral technology for autonomous vehicles
CN106874945B (zh) 一种用于视障人士的人行道交通灯检测系统和方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180013689.6

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11766012

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2011766012

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 13639363

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE