WO2016035760A1 - 受光センサ、センサモジュール及び紙葉類処理装置 - Google Patents

受光センサ、センサモジュール及び紙葉類処理装置 Download PDF

Info

Publication number
WO2016035760A1
WO2016035760A1 PCT/JP2015/074740 JP2015074740W WO2016035760A1 WO 2016035760 A1 WO2016035760 A1 WO 2016035760A1 JP 2015074740 W JP2015074740 W JP 2015074740W WO 2016035760 A1 WO2016035760 A1 WO 2016035760A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
wavelength band
infrared
wavelength
visible
Prior art date
Application number
PCT/JP2015/074740
Other languages
English (en)
French (fr)
Inventor
晶 坊垣
孝洋 柳内
高明 森本
悟 大島
Original Assignee
グローリー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by グローリー株式会社 filed Critical グローリー株式会社
Priority to US15/508,527 priority Critical patent/US10677646B2/en
Priority to EP15837733.3A priority patent/EP3197142B1/en
Publication of WO2016035760A1 publication Critical patent/WO2016035760A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/02Details
    • G01J1/04Optical or mechanical part supplementary adjustable parts
    • G01J1/0407Optical elements not provided otherwise, e.g. manifolds, windows, holograms, gratings
    • G01J1/0437Optical elements not provided otherwise, e.g. manifolds, windows, holograms, gratings using masks, aperture plates, spatial light modulators, spatial filters, e.g. reflective filters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/02Details
    • G01J1/04Optical or mechanical part supplementary adjustable parts
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/02Details
    • G01J1/04Optical or mechanical part supplementary adjustable parts
    • G01J1/0407Optical elements not provided otherwise, e.g. manifolds, windows, holograms, gratings
    • G01J1/047Optical elements not provided otherwise, e.g. manifolds, windows, holograms, gratings using extension/expansion of solids or fluids, change of resonant frequency or extinction effect
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07DHANDLING OF COINS OR VALUABLE PAPERS, e.g. TESTING, SORTING BY DENOMINATIONS, COUNTING, DISPENSING, CHANGING OR DEPOSITING
    • G07D7/00Testing specially adapted to determine the identity or genuineness of valuable papers or for segregating those which are unacceptable, e.g. banknotes that are alien to a currency
    • G07D7/06Testing specially adapted to determine the identity or genuineness of valuable papers or for segregating those which are unacceptable, e.g. banknotes that are alien to a currency using wave or particle radiation
    • G07D7/12Visible light, infrared or ultraviolet radiation
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07DHANDLING OF COINS OR VALUABLE PAPERS, e.g. TESTING, SORTING BY DENOMINATIONS, COUNTING, DISPENSING, CHANGING OR DEPOSITING
    • G07D7/00Testing specially adapted to determine the identity or genuineness of valuable papers or for segregating those which are unacceptable, e.g. banknotes that are alien to a currency
    • G07D7/06Testing specially adapted to determine the identity or genuineness of valuable papers or for segregating those which are unacceptable, e.g. banknotes that are alien to a currency using wave or particle radiation
    • G07D7/12Visible light, infrared or ultraviolet radiation
    • G07D7/1205Testing spectral properties
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07DHANDLING OF COINS OR VALUABLE PAPERS, e.g. TESTING, SORTING BY DENOMINATIONS, COUNTING, DISPENSING, CHANGING OR DEPOSITING
    • G07D7/00Testing specially adapted to determine the identity or genuineness of valuable papers or for segregating those which are unacceptable, e.g. banknotes that are alien to a currency
    • G07D7/06Testing specially adapted to determine the identity or genuineness of valuable papers or for segregating those which are unacceptable, e.g. banknotes that are alien to a currency using wave or particle radiation
    • G07D7/12Visible light, infrared or ultraviolet radiation
    • G07D7/121Apparatus characterised by sensor details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/024Details of scanning heads ; Means for illuminating the original
    • H04N1/028Details of scanning heads ; Means for illuminating the original for picture information pick-up
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/024Details of scanning heads ; Means for illuminating the original
    • H04N1/028Details of scanning heads ; Means for illuminating the original for picture information pick-up
    • H04N1/02815Means for illuminating the original, not specific to a particular type of pick-up head
    • H04N1/02895Additional elements in the illumination means or cooperating with the illumination means, e.g. filters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/203Simultaneous scanning of two or more separate pictures, e.g. two sides of the same sheet
    • H04N1/2032Simultaneous scanning of two or more separate pictures, e.g. two sides of the same sheet of two pictures corresponding to two sides of a single medium
    • H04N1/2034Simultaneous scanning of two or more separate pictures, e.g. two sides of the same sheet of two pictures corresponding to two sides of a single medium at identical corresponding positions, i.e. without time delay between the two image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/48Picture signal generators
    • H04N1/486Picture signal generators with separate detectors, each detector being used for one specific colour component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/48Picture signal generators
    • H04N1/486Picture signal generators with separate detectors, each detector being used for one specific colour component
    • H04N1/488Picture signal generators with separate detectors, each detector being used for one specific colour component using beam-splitters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/024Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof deleted
    • H04N2201/02493Additional optical elements not otherwise provided for, e.g. filters, polarising plates, masks or apertures

Definitions

  • the present invention relates to a light receiving sensor, a sensor module, and a paper sheet processing apparatus that efficiently prevent a decrease in resolution and accuracy of each image when forming images related to a plurality of visible light and infrared light having different wavelength bands. .
  • Patent Document 1 a technique for irradiating a bill with light of different wavelength bands and forming an image for each different wavelength band based on the amount of reflected light reflected from the bill by the irradiated light is known.
  • Patent Document 1 a plurality of light emitting elements that emit visible light in different wavelength bands are used as light sources, visible light is irradiated on a bill while sequentially turning on each light emitting element, and the irradiated visible light is reflected by the bill.
  • a technique for detecting the amount of reflected light to be detected by a light receiving element and forming an image using the detected amount of reflected light as a pixel value is disclosed.
  • Patent Document 2 discloses that three light-emitting elements for red light, green light, and blue light are simultaneously turned on and covered with red, green, and blue color filters, respectively. There has been disclosed a technique capable of preventing a decrease in the chance of detecting the amount of reflected light by using a light receiving element, and thus obtaining the same resolution as when the light emitting element with only red light is repeatedly turned on.
  • each color filter transmits infrared light, so that the amount of infrared light is superimposed on the amount of reflected light reflected from the banknote.
  • an image of red light becomes an image with the light amounts of red light and infrared light (red light + infrared light) as pixel values, and there is a problem that the accuracy of the image is lacking.
  • an infrared light emitting element that emits infrared light is provided, and an infrared image is generated using the amount of reflected light that is reflected from the banknote. Therefore, the infrared light emitted from the infrared light emitting element passes through each visible light (red light, green light, and blue light) color filter, resulting in each visible light. The accuracy of the image will be reduced.
  • the present invention is to solve the above-described problems of the prior art, and when forming images related to a plurality of visible light and infrared light having different wavelength bands, the resolution and accuracy of each image are reduced. It is an object of the present invention to provide a light receiving sensor, a sensor module, and a paper sheet processing apparatus that can be efficiently prevented.
  • the present invention includes a first filter region that transmits visible light in the first wavelength band and blocks visible light and infrared light in other wavelength bands; Visible light and infrared in other wavelength bands while the first wavelength band and a part of the wavelength band overlap or transmit visible light in a second wavelength band different from the first wavelength band.
  • a third filter region that blocks visible light and infrared light in other wavelength bands while transmitting visible light in a third wavelength band having a different band; and blocks the visible light while transmitting infrared light.
  • a filter having at least a fourth filter region; and the first filter.
  • a first light receiving element that detects visible light that has passed through the filter area, a second light receiving element that detects visible light that has passed through the second filter area, and visible light that has passed through the third filter area.
  • a light receiving unit including at least a third light receiving element to detect and an infrared light receiving element to detect infrared light transmitted through the fourth filter region is provided.
  • the present invention is the above invention, wherein the fourth filter region transmits infrared light in the fourth wavelength band while blocking infrared light and visible light in other wavelength bands,
  • the wavelength band overlaps with a part of the wavelength band or blocks infrared light and visible light in other wavelength bands while transmitting infrared light of the fifth wavelength band different from the fourth wavelength band.
  • the fifth filter region, the fourth wavelength band and the fifth wavelength band overlap with a part of the wavelength band, or the fourth wavelength band and the fifth wavelength band are different from each other.
  • a sixth filter region that blocks infrared light and visible light in other wavelength bands while transmitting infrared light in the sixth wavelength band; and A fourth light receiving element for detecting infrared light transmitted through the filter region, and the fifth filter; And having a sixth light receiving element for detecting the fifth light-receiving element for detecting the infrared light transmitted through the band, the sixth infrared light transmitted through the filter region of.
  • the present invention also provides a plurality of filter regions that transmit visible light in a plurality of different wavelength bands and block visible light and infrared light in other wavelength bands, and infrared light in one or a plurality of wavelength bands.
  • a filter having one or a plurality of filter regions that block the visible light while transmitting, and detects visible light in a plurality of different wavelength bands and infrared light in one or a plurality of different wavelength bands that respectively pass through each filter region.
  • a light receiving portion having a plurality of light receiving elements.
  • the present invention provides a light emitting unit that irradiates an object with light including at least visible light and infrared light, and transmits visible light in a first wavelength band among light arriving from the object.
  • the first filter region that blocks visible light and infrared light in other wavelength bands, the first wavelength band and a part of the wavelength band overlap, or the first wavelength band is different from the first wavelength band.
  • a second filter region that transmits visible light in two wavelength bands and blocks visible light and infrared light in other wavelength bands, the first wavelength band, the second wavelength band, and a part thereof Wavelengths overlap or block visible light and infrared light in other wavelength bands while transmitting visible light in a third wavelength band that is different from the first wavelength band and the second wavelength band.
  • a filter having at least a fourth filter region; a first light receiving element that detects visible light transmitted through the first filter region; and a second that detects visible light transmitted through the second filter region.
  • a light receiving element having at least a light receiving element, a third light receiving element that detects visible light that has passed through the third filter region, and an infrared light receiving element that detects infrared light that has passed through the fourth filter region. , First light receiving data detected by the first light receiving element, second light receiving data detected by the second light receiving element, and third light receiving data detected by the third light receiving element And an output unit for outputting infrared light receiving data detected by the infrared light receiving element.
  • the present invention is the above invention, wherein the fourth filter region transmits infrared light in the fourth wavelength band while blocking infrared light and visible light in other wavelength bands,
  • the wavelength band overlaps with a part of the wavelength band or blocks infrared light and visible light in other wavelength bands while transmitting infrared light of the fifth wavelength band different from the fourth wavelength band.
  • the fifth filter region, the fourth wavelength band and the fifth wavelength band overlap with a part of the wavelength band, or the fourth wavelength band and the fifth wavelength band are different from each other.
  • a sixth filter region that blocks infrared light and visible light in other wavelength bands while transmitting infrared light in the sixth wavelength band; and A fourth light receiving element for detecting infrared light transmitted through the filter region, and the fifth filter; A fifth light receiving element for detecting infrared light transmitted through the region, and a sixth light receiving element for detecting infrared light transmitted through the sixth filter region, wherein the output section includes the first light receiving element.
  • First light receiving data detected by the light receiving element, second light receiving data detected by the second light receiving element, third light receiving data detected by the third light receiving element, and the fourth light receiving 4th light reception data detected by the element, 5th light reception data detected by the 5th light reception element, and 6th light reception data detected by the 6th light reception element are output. .
  • the present invention is the above invention, wherein the output unit uses the small amplitude differential signal system to convert the first received light data, the second received light data, the third received light data, and the fourth received light data. It is characterized by parallel output as signals.
  • the present invention is the above invention, wherein the output unit includes the first light reception data, the second light reception data, the third light reception data, the fourth light reception data, the fifth light reception data, and The sixth light reception data is output in parallel as a signal of a small amplitude differential signal system.
  • the present invention is the above-described invention, wherein the light emitting section includes a visible light emitting element that emits white light including the first wavelength band, the second wavelength band, and the third wavelength band, and the fourth light emitting element.
  • a visible light emitting element that emits white light including the first wavelength band, the second wavelength band, and the third wavelength band
  • the fourth light emitting element includes a visible light emitting element that emits white light including the first wavelength band, the second wavelength band, and the third wavelength band, and the fourth light emitting element.
  • a first infrared light emitting element that emits infrared light in a wavelength band of the second a second infrared light emitting element that emits infrared light in a fifth wavelength band different from the fourth wavelength band
  • a third infrared light emitting element that emits infrared light in a sixth wavelength band different from the fourth wavelength band and the fifth wavelength band
  • the first infrared light emitting element emits first light.
  • Light is emitted at a timing, and the second infrared light emitting element is caused to emit light at a second light emission timing that is different from the first light emission timing, and a third different from the first light emission timing and the second light emission timing.
  • Control to cause the third infrared light emitting element to emit light at the light emission timing Characterized in that a part.
  • the output unit responds to the first light emission timing with the first light reception data, the second light reception data, the third light reception data, and the fourth light reception data.
  • Light reception data is output in parallel as a signal of a small amplitude differential signal system, and in response to the second light emission timing, the first light reception data, the second light reception data, the third light reception data, and the fourth Are received in parallel as signals of a small amplitude differential signal system, and the first received light data, the second received light data, the third received light data, and the second received light in response to the third light emission timing.
  • 4 received light data is output in parallel as a signal of a small amplitude differential signal system.
  • the present invention is the above invention, wherein the light emitting section includes an ultraviolet light emitting element that emits light including ultraviolet light, and at least one of visible light and infrared light among light emitted from the ultraviolet light emitting element.
  • An ultraviolet light transmission filter that blocks one light
  • the control unit includes the ultraviolet light at a fourth light emission timing that is different from any of the first light emission timing, the second light emission timing, and the third light emission timing.
  • the light emitting element is controlled to emit light.
  • the present invention is the above invention, wherein the light emitting unit includes the white light that has entered from one or a plurality of input ends, infrared light in the fourth wavelength band, and infrared light in the fifth wavelength band.
  • a light guide for guiding light and infrared light in the sixth wavelength band to a predetermined output end is further provided.
  • the present invention is the above invention, wherein the light emitting unit includes a visible light emitting element that emits white light including the first wavelength band, the second wavelength band, and the third wavelength band; An infrared light-emitting element that emits light, and a control unit that controls light emission timing so that the visible light-emitting element and the infrared light-emitting element emit light with overlapping light emission timings.
  • the light emitting unit includes a visible light emitting element that emits white light including the first wavelength band, the second wavelength band, and the third wavelength band;
  • An infrared light-emitting element that emits light
  • a control unit that controls light emission timing so that the visible light-emitting element and the infrared light-emitting element emit light with overlapping light emission timings.
  • the visible light emitting element emits visible light in the first wavelength band and visible light in the second wavelength band, and the visible light emitting element emits visible light in the second wavelength band.
  • the visible light emitting element, the third visible light emitting element, and the infrared light emitting element are controlled to emit light with overlapping light emission timings.
  • the present invention is the above invention, wherein the infrared light emitting element is different from the first infrared light emitting element that emits infrared light in the fourth wavelength band, and is different from the fourth wavelength band.
  • a second infrared light emitting element that emits infrared light in a wavelength band of 5, and a third light that emits infrared light in a sixth wavelength band different from the fourth wavelength band and the fifth wavelength band.
  • an infrared light emitting element is different from the first infrared light emitting element that emits infrared light in the fourth wavelength band, and is different from the fourth wavelength band.
  • a second infrared light emitting element that emits infrared light in a wavelength band of 5
  • a third light that emits infrared light in a sixth wavelength band different from the fourth wavelength band and the fifth wavelength band.
  • an infrared light emitting element is the above invention, wherein the infrared light emitting element is different from the first infrare
  • the present invention is the above invention, wherein the light emitting section includes an ultraviolet light emitting element that emits light including ultraviolet light, and at least one of visible light and infrared light among light emitted from the ultraviolet light emitting element.
  • An ultraviolet light transmission filter that blocks one light, and the control unit controls the visible light emitting element and the infrared light emitting element to emit light with overlapping light emission timing at a first light emission timing, and The ultraviolet light emitting element is controlled to emit light at a second light emission timing different from the first light emission timing.
  • the present invention is the above invention, wherein the light emitting unit includes the white light that has entered from one or a plurality of input ends, infrared light in the fourth wavelength band, and infrared light in the fifth wavelength band.
  • a light guide for guiding light and infrared light in the sixth wavelength band to a predetermined output end is further provided.
  • the present invention also provides a sensor module that detects visible light and infrared light reflected by a conveyed paper sheet or visible light and infrared light transmitted through the paper sheet, and visible light detected by the sensor module. And an image formation processing unit that forms and processes an image related to the paper based on infrared light, wherein the sensor module emits light including at least visible light and infrared light.
  • an output unit that outputs data to the image formation processing unit.
  • the present invention is the above invention, wherein the image formation processing unit inputs each received light data detected by the plurality of light receiving elements in parallel, and a plurality of different wavelength bands based on the input received light data. A visible light image and an infrared light image are formed for each.
  • the light emitting unit controls the visible light and the infrared light so as to overlap the first light emission timing, and the second light emission is different from the first light emission timing.
  • Excitation light having a wavelength band different from that of the visible light and infrared light is emitted at a timing
  • the light receiving unit is a plurality of light receiving elements, and responds to the excitation light emitted from the light emitting unit from the paper sheets. It is characterized by detecting emitted light.
  • the light receiving unit may be configured such that the plurality of light receiving elements are arranged in a line in the main scanning direction or the sub scanning direction of the paper, or the main scanning direction and the sub scanning. It is arranged in a plurality of rows in the direction.
  • the first filter region that transmits visible light in the first wavelength band and blocks visible light and infrared light in other wavelength bands, the first wavelength band, and a part of the wavelengths A second filter region that transmits visible light in a second wavelength band that overlaps or is different from the first wavelength band and blocks visible light and infrared light in other wavelength bands;
  • the wavelength band of the second wavelength band and a part of the wavelength band overlap with each other, or visible light of a third wavelength band having a wavelength band different from the first wavelength band and the second wavelength band is transmitted through the other wavelength band.
  • a filter having at least a third filter region that blocks visible light and infrared light in the wavelength band, and a fourth filter region that blocks visible light while transmitting infrared light, and transmits through the first filter region
  • First light receiving element for detecting visible light and second filter region A second light receiving element for detecting the transmitted visible light, a third light receiving element for detecting the visible light transmitted through the third filter area, and an infrared for detecting the infrared light transmitted through the fourth filter area Since it is configured to include a light-receiving unit having at least a light-receiving element, it is possible to efficiently prevent a decrease in resolution and accuracy of each image when forming images related to a plurality of visible light and infrared light having different wavelength bands. can do.
  • FIG. 1 is an explanatory diagram for explaining the concept of a banknote image forming method using a banknote processing apparatus according to the present invention.
  • FIG. 2 is a block diagram illustrating an internal configuration of the banknote handling apparatus according to the first embodiment.
  • FIG. 3 is a cross-sectional view of the banknote processing apparatus shown in FIG. 2 cut along a plane perpendicular to the banknote transport surface and parallel to the banknote transport direction.
  • FIG. 4 is a diagram illustrating the correspondence between the arrangement of the light receiving elements of the light receiving unit of the line sensor according to the first embodiment and the optical filter.
  • FIG. 5 is a diagram illustrating a detailed configuration of the light emitting unit and the condenser lens illustrated in FIG. 3.
  • FIG. 3 is a block diagram illustrating an internal configuration of the banknote handling apparatus according to the first embodiment.
  • FIG. 3 is a cross-sectional view of the banknote processing apparatus shown in FIG. 2 cut along a plane perpendicular to the banknote transport surface and parallel to the bank
  • FIG. 6 is a diagram showing the arrangement of LED elements in the LED header shown in FIG.
  • FIG. 7 is a timing chart showing the light emission timing of the light emitting unit and the light reception timing of the light receiving unit according to Example 1 of the line sensor shown in FIG.
  • FIG. 8 is a control block diagram showing a flow of processing for forming image data based on data acquired by the line sensor shown in FIG.
  • FIG. 9 is a diagram illustrating a configuration of transmission data according to the first embodiment from the line sensor to the control unit using the LVDS (Low Voltage Differential Differential) interface illustrated in FIG.
  • FIG. 10 is a block diagram illustrating an internal configuration of the banknote handling apparatus according to the second embodiment.
  • FIG. 10 is a block diagram illustrating an internal configuration of the banknote handling apparatus according to the second embodiment.
  • FIG. 11 is a diagram illustrating the arrangement of the light receiving elements of the light receiving unit of the line sensor according to the second embodiment and the correspondence between the optical filters.
  • FIG. 12 is a timing chart showing the light emission timing of the light emitting unit and the light reception timing of the light receiving unit according to Example 2 of the line sensor.
  • FIG. 13 is a control block diagram illustrating a flow of processing for forming image data based on data acquired by the line sensor according to the second embodiment.
  • FIG. 14 is a diagram illustrating a configuration of transmission data according to the second embodiment from the line sensor to the control unit using the LVDS interface illustrated in FIG. 13.
  • FIG. 15 is a modification of the line sensor shown in FIG.
  • FIG. 1 is a diagram showing portions that are characteristic of the configuration of the light emitting unit 137 and the light receiving unit 134 related to the image formation of banknotes.
  • the light emitting unit 137 includes a blue light source having a wavelength band of 400 nm to 500 nm, a green light source having a wavelength band of 500 nm to 600 nm, a red light source having a wavelength band of 600 nm to 700 nm, and an infrared light source having a wavelength band of 700 nm to 1000 nm. These light sources are turned on at the same lighting timing. The light sources of the four wavelength bands of the light emitting unit 137 are turned on at the same lighting timing to irradiate the bill, and the reflected light is condensed on the light receiving unit 134 by the condensing lens 133 and collected by the light receiving unit 134. Measure the received light intensity of the reflected light.
  • the light receiving unit 134 includes four light receiving elements 134a to 134d, and each of the four light receiving elements 134a to 134d includes band pass filters having different transmission wavelength bands.
  • the light receiving element 134a is a bandpass filter that passes only light in the wavelength band of 400 nm to 500 nm
  • the light receiving element 134b is a bandpass filter that passes only light in the wavelength band of 500 nm to 600 nm
  • the light receiving element 134c is light in the wavelength band of 600 nm to 700 nm.
  • the light-receiving element 134d includes a band-pass filter that passes only light in the wavelength band of 700 nm to 1000 nm.
  • the reflected light from the banknotes with respect to the irradiated light of the four types of wavelength bands is simultaneously received by the light receiving unit 134. Since the filtering is performed by the bandpass filter corresponding to each wavelength band, the light receiving intensity for each wavelength band can be obtained by the light receiving elements 134a to 134d. Conventionally, since the light receiving unit 134 is not provided with the bandpass filter as shown in FIG. 1, the received light intensity of the reflected light for each wavelength band of the irradiated light is one of the light in the four wavelength bands.
  • each wavelength is compared with the conventional method in which data is acquired by time division. Since the number of received light intensity samples for each band is quadrupled, it indicates that the resolution in the sub-scanning direction is quadrupled. Moreover, if the resolution of the same level as before is sufficient, it is possible to quadruple the bill conveyance speed. In addition, in the case of the configuration shown in FIG. 1, the resolution in the sub-scanning direction is doubled or the conveyance speed is doubled as compared with the case where the light receiving element covered with the red, green, and blue color filters is used. It becomes possible to do.
  • the number of light receiving elements in the light receiving unit is six, and the infrared range of 700 nm to 1000 nm is divided into three, and a light receiving element corresponding to a bandpass filter that passes only light in the divided wavelength range is provided. Then, high-resolution image data for each of the three wavelength bands can be formed for image data during infrared light irradiation.
  • a light receiving element including a bandpass filter that irradiates light of a plurality of different wavelength bands including a wavelength band on a banknote with overlapping timing and transmits only light in a wavelength range corresponding to the wavelength band of each light source is used. Since it was made possible to simultaneously acquire the light receiving intensity of light in a wavelength range corresponding to the wavelength band of each light source from the banknote, images related to a plurality of visible light and infrared light having different wavelength bands can be obtained. In the case of forming, it is possible to efficiently prevent a decrease in resolution and accuracy of each image.
  • light in four wavelength bands may be turned on one by one in order, and the received light intensity for each wavelength band may be acquired. In that case, it is possible to acquire a feature image of a bill that has a feature in light emission in a wavelength band different from the irradiated light.
  • FIG. 2 is a block diagram illustrating an internal configuration of the banknote handling apparatus 100 according to the first embodiment.
  • the banknote handling apparatus 100 includes a line sensor 120 that acquires information related to an image of a banknote being conveyed, a storage unit 160, and a control unit 170.
  • the line sensor 120 has an upper unit 130 and a lower unit 140 as shown in FIG.
  • the upper unit 130 and the lower unit 140 are located on opposite sides of the conveyance path 150 where the banknote is conveyed, and acquire information related to images on both sides of the banknote. Further, the line sensor 120 can acquire reflection data based on reflected light that irradiates and reflects light on each surface of the banknote and transmission data based on transmitted light that irradiates and transmits light to the banknote. .
  • the storage unit 160 is a storage device composed of DDR-SDRAM or the like.
  • the storage unit 160 includes a B-side visible reflection raw image data 161, a B-side reflection image data 162, a B-side UV fluorescence image data 163, an A-side visible reflection raw image data 164, an A-side reflection image data 165, and an A-side UV fluorescence image.
  • the B-side visible reflection raw image data 161 is reflected image data based on the reflected light for each wavelength band of the irradiated light obtained by irradiating the B-side of the banknote with visible light by the upper unit 130 and acquired by the sensor of the upper unit 130. including.
  • the B-side visible reflection raw image data 161 is image data that has not been subjected to addition averaging for the purpose of noise removal and moire prevention.
  • the B surface reflection image data 162 is reflected based on the reflected light of each wavelength band of the irradiated light obtained by irradiating the B surface of the bill with visible light and infrared light by the upper unit 130 and acquired by the sensor included in the upper unit 130. Contains image data.
  • the B-side reflection image data 162 is an image obtained by performing addition averaging processing.
  • the B-surface UV fluorescent image data 163 includes fluorescent image data for each wavelength band based on the fluorescence emitted by the banknote obtained by irradiating the B-side of the banknote with ultraviolet light by the upper unit 130 and acquired by the sensor provided in the upper unit 130.
  • the B-side UV fluorescent image data 163 is image data obtained by performing addition averaging processing.
  • the A-side visible reflection raw image data 164 is reflected image data based on the reflected light for each wavelength band of the irradiated light obtained by irradiating the A-side of the banknote with visible light by the lower unit 140 and acquired by the sensor provided in the lower unit 140. including.
  • the A-side visible reflection raw image data 164 is image data not subjected to addition averaging.
  • the A-side reflection image data 165 is reflected based on the reflected light for each wavelength band of the irradiated light obtained by irradiating the A-side of the banknote with visible light and infrared light by the lower unit 140 and acquired by the sensor included in the lower unit 140. Contains image data.
  • the A-side reflection image data 165 is image data obtained by performing addition averaging processing.
  • the A-surface UV fluorescent image data 166 includes fluorescent image data for each wavelength band based on the fluorescence emitted by the banknote obtained by irradiating the A-side of the banknote with ultraviolet light by the lower unit 140 and acquired by the sensor included in the lower unit 140.
  • the A-surface UV fluorescent image data 166 is image data obtained by performing addition averaging processing.
  • the transmission image data 167 is based on the transmitted light transmitted through the bill for each wavelength band of the irradiated light obtained by irradiating the bill with light by turning on the light source provided in the upper unit 130 and acquired by the sensor provided in the lower unit 140. Contains transmission image data.
  • the transmission image data 167 is image data obtained by performing addition averaging processing.
  • the control unit 170 is a control unit that controls the entire bill processing apparatus 100, and includes an image data generation unit 171, a line memory 172, a light source control unit 173, and an AFE control unit 174.
  • the image data generation unit 171 once fetches the data acquired from the line sensor 120 into the line memory 172.
  • the line memory 172 includes a plurality of types of line data acquired simultaneously by the line sensor 120.
  • the type of line data is the data acquired from the A side of the banknote or the data acquired from the B side, whether it is the data that acquired reflected light or the data that acquired transmitted light, and the data of the irradiated light It is distinguished by the difference in wavelength.
  • the image data generation unit 171 generates image data corresponding to each type by distributing the data in the line memory 172 for each type of line data.
  • the image data generation unit 171 performs processing such as correction and addition averaging on each type of image data, and converts the generated image data into B-surface visible reflection raw image data 161 and B-surface reflection image data 162. , B side UV fluorescent image data 163, A side visible reflection raw image data 164, A side reflection image data 165, A side UV fluorescent image data 166, and transmission image data 167.
  • the light source control unit 173 controls lighting and extinguishing for each of the plurality of light sources included in the line sensor 120.
  • the AFE control unit 174 performs offset adjustment, input signal sampling setting, data capture timing control, data output setting, and the like for the AFE 145a (not shown) of the line sensor 120.
  • the banknote processing apparatus 100 is based on various image data formed based on data acquired by a banknote receiving unit that receives banknotes, a transport unit that transports received banknotes, and the line sensor 120. It comprises a discrimination unit for identifying the denomination, authenticity and correctness of banknotes, a storage unit for storing the banknotes after discrimination in the discrimination unit, and the like.
  • FIG. 3 is a cross-sectional view of the line sensor 120 of the banknote handling apparatus 100 cut along a plane perpendicular to the banknote transport surface and parallel to the banknote transport direction.
  • the line sensor 120 includes an upper unit 130 on the B surface side and a lower unit 140 on the A surface side of the banknote shown on the drawing so as to sandwich the transport path 150 for transporting the banknote.
  • the upper unit 130 includes a light emitting unit 131, light emitting units 132a and 132b (hereinafter collectively referred to as a light emitting unit 132), a condenser lens 133, a light receiving unit 134, a light receiving unit substrate 135, and a transparent member 136. Including.
  • the lower unit 140 includes light emitting units 142a and 142b (hereinafter collectively referred to as the light emitting unit 142), a condenser lens 143, a light receiving unit 144, a light receiving unit substrate 145, and a transparent member 146.
  • the light emitting unit 142 includes light emitting units 142a and 142b (hereinafter collectively referred to as the light emitting unit 142), a condenser lens 143, a light receiving unit 144, a light receiving unit substrate 145, and a transparent member 146.
  • the light sources of the light emitting units 131, 132, 142 are constituted by a light guide or an LED array.
  • the light emitting unit 132 includes a light source having a peak wavelength of 950 nm infrared light 1 (IR1), a light source having a peak wavelength of 850 nm infrared light 2 (IR2), and a far-red light (FR) having a peak wavelength of 750 nm.
  • the light emitted from the light emitting unit 132 is applied to the bill through the transparent member 136 made of transparent glass or resin, and the light reflected from the bill is collected by the condenser lens 133 and received by the light receiving unit 134.
  • the data acquired by the light receiving unit 134 is transmitted to the control unit 170 by the light receiving unit substrate 135.
  • the light receiving unit 134 is a line-shaped light receiving sensor extending in a direction perpendicular to the paper surface of FIG. 3, and about 1600 pixel unit units are arranged in a line.
  • the pixel unit includes four light receiving elements 134a to 134d, and each of the light receiving elements 134a to 134d includes a band pass filter that transmits only light of a predetermined wavelength band.
  • An ultraviolet light cut filter that blocks ultraviolet light may be provided between the conveyance path 150 and the light receiving unit 134.
  • an ultraviolet light cut filter may be vapor-deposited on the condenser lens 133, and an ultraviolet light component of 400 nm or less may be cut before the light from the banknote reaches the light receiving unit 134.
  • the ultraviolet light component reflected from the banknote can be cut, and the amount of visible light obtained upon irradiation with ultraviolet light can be limited to the amount of light emitted by fluorescence.
  • the amount of fluorescent light emission of visible light to be acquired is small, the fluorescence emission and phosphorescence emission can be detected with high accuracy.
  • the light emitting unit 131 has a light source that uses infrared light (IR) with a peak wavelength of 950 nm and a light source that uses green light (G) with a peak wavelength of 550 nm.
  • IR infrared light
  • G green light
  • the light emitted from the light emitting unit 131 is applied to the bill through the transparent member 136 made of transparent glass or resin, and the light transmitted through the bill enters the condenser lens 143 through the transparent member 146 made of transparent glass or resin.
  • the data collected by the condensing lens 143, received by the light receiving unit 144, and acquired by the light receiving unit 144 is transmitted to the control unit 170 by the light receiving unit substrate 145.
  • the light receiving unit 144 is the same as the light receiving unit 134 and is a line-shaped light receiving sensor extending in a direction perpendicular to the paper surface of FIG. 3, and pixel unit units are arranged in a plurality of lines.
  • the pixel unit includes four light receiving elements 144a to 144d, and each of the light receiving elements 144a to 144d includes a band pass filter that transmits only light of a predetermined wavelength band.
  • the light emitting unit 142 has seven light sources having the same peak wavelength as the light emitting unit 132.
  • the light emitted from the light emitting unit 142 is applied to the bill through the transparent member 146, and the light reflected from the bill is collected by the condenser lens 143, received by the light receiving unit 144, and acquired by the light receiving unit 144.
  • the received data is transmitted to the control unit 170 by the light receiving unit substrate 145.
  • the light receiving unit 134 of the upper unit 130 and the light receiving unit 144 of the lower unit 140 are displaced by 3 to 25 mm with respect to the banknote transport direction. This is a distance considering that even if the light emitting unit 132 of the upper unit 130 and the light emitting unit 142 of the lower unit 140 are turned on at the same lighting timing, the opposing light receiving surfaces are not affected. Further, there is a conveyance path 150 between the upper unit 130 and the lower unit 140, and the gap between the upper unit 130 and the lower unit 140 is 1 to 3 mm. This is a distance considering that the bill does not cause a jam or the like during conveyance, and that the focal point and the illumination depth can be appropriately configured with optical characteristics.
  • the light receiving unit 134 and the light receiving unit 144 have a main scanning direction length of about 200 mm perpendicular to the banknote transport direction in FIG. 3, and the number of pixel unit units is about 1600.
  • the resolution in the direction is about 200 dpi.
  • the conveyance speed of a banknote is 2000 mm / sec.
  • FIG. 4 is a diagram illustrating the correspondence between the arrangement of the light receiving elements 134a to 134d of the light receiving unit 134 of the line sensor 120 according to the first embodiment and the optical filter.
  • the light receiving unit 134 is described as an example, but the light receiving unit 144 has the same configuration.
  • the pixel unit of the light receiving unit 134 of the first embodiment includes four light receiving elements 134a to 134d.
  • the pixel unit includes a light receiving element 134a having a band pass filter that transmits blue light (B) having a wavelength of 400 to 500 nm, and a light receiving element having a band pass filter that transmits green light (G) having a wavelength of 500 to 600 nm.
  • 134b a light receiving element 134c having a bandpass filter that transmits red light (R) having a wavelength of 600 to 700 nm
  • a light receiving element 134d having a bandpass filter that transmits infrared light (IR) having a wavelength of 700 to 1000 nm.
  • the filter of the light receiving element 134d may transmit a wavelength range exceeding 1000 nm.
  • the light receiving unit 134 receives blue light (B) having a wavelength of 400 to 500 nm, green light (G) having a wavelength of 500 to 600 nm, and red light (R) having a wavelength of 600 to 700 nm. And the intensity of infrared light (IR) having a wavelength of 700 to 1000 nm can be acquired simultaneously.
  • the light receiving elements are arranged in two rows in the banknote transport direction and in two rows in the direction perpendicular to the transport direction. Is not limited to this.
  • a light receiving element may be arrange
  • a light receiving element may be arrange
  • the light emitting units 131, 132, 142 and the condenser lenses 133, 143 shown in FIG. 3 will be described with reference to FIG. 5, the light emitting units 131 and 132a and the condensing lens 133 shown in FIG. 3 will be described as an example.
  • the light emitting units 132b, 142a, and 142b have the same configuration as the light emitting unit 132a, and the condensing lens 143 has a condensing lens.
  • the configuration is the same as that of the lens 133.
  • FIG. 5A shows a detailed configuration of the light emitting unit 131 shown in FIG. 3, and the light guide 12 extending in the main scanning direction and the LED header 11 as a light source on both end faces in the main scanning direction. I have.
  • the light guide 12 emits light uniformly at the wavelength of the irradiated light.
  • FIG. 5B shows a detailed configuration of the light emitting unit 132a shown in FIG. 3, and the light guide 22 and the LED header 21 as a light source are provided on both end faces in the main scanning direction.
  • the light guide 22 emits light uniformly at the wavelength of the emitted light. It is the same as 131.
  • the wavelength of light emitted from the LED header 21 is different from the wavelength of light emitted from the LED header 11. Details will be described later.
  • FIG. 5C shows a detailed configuration of the condenser lens 133 shown in FIG.
  • the condenser lens 133 is a rod lens array including a plurality of rod lenses 31 arranged in an array in the main scanning direction.
  • the light emitting units 131 and 132a are provided with LED headers 11 and 21 at both ends of the light guides 12 and 22, respectively.
  • the purpose of this was to secure the light emission intensity of the light guides 12 and 22 by providing light sources at both ends, and to minimize the difference in light emission intensity depending on the location of the light guides 12 and 22. .
  • FIG. 5D shows a light emitting unit 131 in which the LED header 11 is provided only at one end with respect to the light emitting unit 131 shown in FIG. FIG.5 (e) has shown the light emission part 132a in which the LED header 21 was provided only in the edge part of the one side with respect to the light emission part 132a shown in FIG.5 (b).
  • FIG. 6A is an example of the arrangement of the LED elements in the LED headers 11 and 21.
  • the LED header 11 shown in FIG. 6A nine LED elements are arranged in 3 rows ⁇ 3 columns.
  • the breakdown of the nine LED elements is four LED elements 11a emitting green light (G) having a peak wavelength of 550 nm and five LED elements 11b emitting infrared light (IR1) having a peak wavelength of 950 nm.
  • the LED element 11a that emits green light (G) and the LED element 11b that emits infrared light (IR1) are arranged so as not to be adjacent to each other.
  • the LED header 21 shown in FIG. 6A has nine LED elements arranged in 3 rows ⁇ 3 columns.
  • the breakdown of the nine LED elements is that one LED element 21a emits purple light (V) with a peak wavelength of 420 nm and one LED element 21b emits green light (G) with a peak wavelength of 550 nm.
  • the LED element 21g that emits light is composed of three pieces.
  • the LED element 21g that emits ultraviolet light (UV) is intended to acquire fluorescence emission when irradiated with ultraviolet light, and more than other light sources to acquire fluorescence with a smaller amount of light than reflected light. It is arranged. Further, the LED element 21g that emits ultraviolet light (UV) is arranged in the second row of 3 rows ⁇ 3 columns as shown in FIG.
  • the LED element 21g that emits ultraviolet light (UV) includes a visible light cut filter that cuts a visible light component, although not shown.
  • the visible light component can be cut from the light irradiated by the LED element 21g, and the amount of visible light acquired upon irradiation with ultraviolet light (UV) can be limited to the amount of light emitted by fluorescence. .
  • FIG. 6B is another example of the arrangement of the LED elements shown in FIG.
  • the LED header 11 shown in FIG. 6B has 13 LED elements, one in the first row, three in the second row, five in the third row, three in the fourth row, and the fifth row. Are arranged in one rhombus.
  • the breakdown of the 13 LED elements is 6 LED elements 11a emitting green light (G) having a peak wavelength of 550 nm and 7 LED elements 11b emitting infrared light (IR1) having a peak wavelength of 950 nm. It consists of LED elements 11a emitting green light (G) are arranged in the second and fourth rows, and LED elements 11b emitting infrared light (IR1) are arranged in the first, third and fifth rows. Be placed.
  • the LED header 21 shown in FIG. 6B has 13 LED elements, one in the first row, three in the second row, five in the third row, three in the fourth row, and the fifth row. Are arranged in one rhombus.
  • the breakdown of the 13 LED elements is that one LED element 21a emits purple light (V) with a peak wavelength of 420 nm and one LED element 21b emits green light (G) with a peak wavelength of 550 nm.
  • the LED elements 21g that emit light are composed of five pieces.
  • the LED element 21g that emits ultraviolet light (UV) is provided with a visible light cut filter that cuts visible light components, although not shown.
  • one LED element 21e that emits infrared light 2 (IR2) is arranged in each of the second and fifth rows.
  • one LED element 21f that emits infrared light 1 (IR1) is disposed in each of the first and fourth rows.
  • FIG. 7 is a timing chart showing the light emission timings of the light emitting units 131, 142, 132 and the light reception timings of the light receiving units 144, 134 according to the first embodiment of the line sensor 120.
  • the line sensor 120 acquires data corresponding to the entire surface of the banknote by repeating the cycle with 6 phases of phases 1 to 6 as one cycle.
  • phase 1 by turning on a light source that makes infrared light (TIR) having a peak wavelength of 950 nm and a green light (TG) that has a peak wavelength 550 nm, infrared light (TIR) and The bill is irradiated with green light (TG), and the light transmitted through the bill is received by the light receiving unit 144.
  • the received light intensity (TIR data) of infrared light having a wavelength of 700 to 1000 nm and green having a wavelength of 500 to 600 nm are received.
  • the light reception intensity (TG data) of light is acquired.
  • a light source that makes infrared light 1 (RIR1) having a peak wavelength of 950 nm, a light source that makes red light (RR) that has a peak wavelength of 650 nm, and a green light that has a peak wavelength that is 550 nm By turning on a light source for light (RG) and a light source for violet light (RV) having a peak wavelength of 420 nm, infrared light 1 (RIR1), red light (RR), green light (RG) and purple light Irradiate light (RV) to the banknote, receive light reflected from the banknote by the light receiving unit 144 and the light receiving unit 134, receive infrared light with a wavelength of 700 to 1000 nm (RIR1 data), and 600 to 700 nm.
  • RR data Receiving intensity (RR data) of red light having a wavelength of 500, receiving light intensity (RG data) of green light having a wavelength of 500 to 600 nm, and receiving intensity of purple light having a wavelength of 400 to 500 nm (RR data) To get the V data) and.
  • phase 3 by turning on a light source that makes infrared light 2 (RIR2) having a peak wavelength of the light emitting unit 142 and the light emitting unit 132 850 nm, the infrared light 2 (RIR2) is irradiated on the bill, and the light receiving unit 144 The light reflected from the banknote is received by the light receiving unit 134, and the received light intensity (RIR2 data) of infrared light having a wavelength of 700 to 1000 nm is acquired.
  • RIR2 infrared light 2
  • the light source 142 and the light source 132 have a peak wavelength of 750 nm far red light (RFR), a light source that has a peak wavelength of 650 nm red light (RR), and a peak wavelength of 550 nm green light.
  • RG and a light source having a peak wavelength of 420 nm of violet light (RV) are turned on, so that far red light (RFR), red light (RR), green light (RG) and violet light ( RV) is applied to the banknote, the light reflected from the banknote is received by the light receiving unit 144 and the light receiving unit 134, the received light intensity (RFR data) of infrared light having a wavelength of 700 to 1000 nm, and the wavelength of 600 to 700 nm Red light receiving intensity (RR data), green light receiving intensity of 500 to 600 nm wavelength (RG data), and purple light receiving intensity of 400 to 500 nm wavelength (RV data). To get the data) and.
  • the banknote is irradiated with ultraviolet light (RUV), and the light receiving unit 144 and the light receiving unit 134 are irradiated.
  • receiving the fluorescence from banknotes receiving infrared light with a wavelength of 700 to 1000 nm (RIR-UV data), receiving red light with a wavelength of 600 to 700 nm (RR-UV data), 500 to The light receiving intensity (RG-UV data) of green light having a wavelength of 600 nm and the light receiving intensity (RB-UV data) of blue light having a wavelength of 400 to 500 nm are acquired.
  • the light source 142 and the light source 132 have a peak wavelength of 650 nm red light (RR), a peak light source of 550 nm green light (RG), a peak wavelength of 420 nm purple light ( RV) is turned on to illuminate the bill with red light (RR), green light (RG), and violet light (RV), and the light reflected from the bill by the light receiving unit 144 and the light receiving unit 134
  • received light intensity of purple light having a wavelength of 400 to 500 nm (RR data).
  • RV data Received light intensity of red light having a wavelength of 600 to 700 nm
  • received light intensity of purple light having a wavelength of 400 to 500 nm (RR data).
  • the data for the reflected light when irradiated with visible light is once per mechanical clock
  • the data for the reflected light when irradiated with infrared light is every 3 mechanical clocks.
  • the data for the transmitted light during irradiation with green light (TG) and infrared light (TIR) is once every 3 mechanical clocks
  • the data for the fluorescence during irradiation with ultraviolet light (RUV) is 1 every 3 mechanical clocks.
  • Image data formed based on reflected light during irradiation with visible light is an image having a resolution three times that of image data formed based on other light. It becomes data.
  • the resolution in the scanning direction is about 200 dpi, and the other image data is about 200/3 dpi.
  • FIG. 8 is a control block diagram illustrating a flow of processing for forming image data based on data acquired by the line sensor 120.
  • FIG. 8 illustrates processing for forming image data using data acquired by the light receiving unit 144.
  • the processing for the data acquired by the light receiving unit 134 is substantially the same, but since the transmitted light data is not acquired by the light receiving unit 134, there is no processing associated with the reception of the transmitted light indicated by “*” in FIG.
  • the light receiving unit 144 has about 1600 pixel unit units. As shown in FIG. 4, the pixel unit unit receives light in four different wavelength bands (R, G, B, IR). To 144d. The light receiving unit 144 has about 1600 eight output channels, and information acquired by each pixel unit is transmitted to the AFE (Analog Front End) 145a in a predetermined order using the eight output channels. Is done.
  • AFE Analog Front End
  • the AFE 145a receives analog information acquired by about 1600 pixel unit units through eight input channels connected from the output channel of the light receiving unit 144, and adjusts the offset according to the characteristics of the input channel.
  • a / D conversion is performed after adjusting the gain.
  • the data acquired by the light receiving unit 144 digitized by A / D conversion is subjected to pixel output conversion 145b such as rearrangement for transmission to the control unit 170 of the main body, and passed through the LVDS serializer.
  • the LVDS output 145c is performed and transmitted to the control unit 170 of the main body using the LVDS interface.
  • Some AFEs have a built-in LVDS output, and the pixel rearrangement process may be performed by the control unit 170.
  • the control unit 170 temporarily stores the data acquired by the digitized light receiving unit 144 received by the LVDS interface at the LVDS input 171a in the line memory 172. Since data is transmitted from the lower unit 140 of the line sensor 120 every time data is acquired by the light receiving unit 144, data for each of the light receiving elements 144 a to 144 d of about 1600 pixel unit units is sent to the line memory 172. They are stored in the order in which they are received.
  • the image data generation unit 171 of the control unit 170 performs wavelength decomposition 171b, which is decomposition of the data stored in the line memory 172 into data according to acquisition conditions corresponding to individual data.
  • the decomposition into the data according to the acquisition conditions includes the received light intensity data (RR) of the light reflected by irradiating red light and the received light intensity data (RG) of the light reflected by irradiating green light.
  • light reflected by irradiating infrared light 2 Received light intensity data (RIR2)
  • the image data generation unit 171 performs the dark output cut 171c, the gain adjustment 171d, and the bright output correction 171e which is the correction of the bright output level in accordance with the characteristics of each data obtained according to the decomposed acquisition conditions. Further, the image data generation unit 171 stores raw image data in the storage unit 160 that is not particularly processed in the reflected visible light image data based on the reflected light at the time of irradiation with visible light (RR, RG, RV) depending on the application. Stored as A-side visible reflection raw image data 164.
  • the image data generation unit 171 includes reflected light image data at the time of irradiation with visible light and infrared light (RR, RG, RV, RIR1, RIR2, RFR), fluorescence image data at the time of irradiation with ultraviolet light (RUV), and transmission.
  • RR, RG, RV, RIR1, RIR2, RFR visible light and infrared light
  • RIR1, RIR2, RFR fluorescence image data at the time of irradiation with ultraviolet light
  • TIR, TG time of light
  • A is stored in the storage unit 160.
  • the surface reflection image data 165, the A surface UV fluorescence image data 166, and the transmission image data 167 are stored.
  • FIG. 9 is a diagram illustrating a configuration of transmission data according to the first embodiment from the line sensor 120 to the control unit 170 using the LVDS interface capable of transmitting 21 bits with one clock.
  • FIG. 9A is a diagram showing a relationship between a clock and data to be transmitted when one LVDS interface is transmitted using a 132 MHz clock.
  • the pixel unit of the light receiving unit 134 and the light receiving unit 144 used in the first embodiment includes four light receiving elements 134a to 134d and 144a to 144d, respectively, as shown in FIG.
  • 10 bits are required to transmit information acquired by one light receiving element, so 21 bits can be transmitted in one clock.
  • two clocks are required as shown in FIG.
  • the first clock has 10 bits corresponding to the received light intensity of red light (R) having a wavelength of 600 to 700 nm and the received light intensity of green light (G) having a wavelength of 500 to 600 nm.
  • the corresponding 10 bits are transmitted
  • the second clock is 10 bits corresponding to the received light intensity of blue light (B) having a wavelength of 400 to 500 nm and the received light intensity of infrared light (IR) having a wavelength of 700 to 1000 nm. 10 bits corresponding to are transmitted.
  • FIG. 9B is a diagram showing the relationship between the clock and the data to be transmitted when two LVDS interfaces are transmitted using a 66 MHz clock.
  • two LVDS interfaces capable of transmitting 21 bits in one clock are used, it is possible to transmit in one clock as shown in FIG. 9B.
  • the light source includes a visible light source that outputs a predetermined amount of light in the wavelength band divided into three of visible light, and three light sources for each of the wavelength bands divided into three in the infrared light.
  • the image data for each of the three wavelength bands divided into three at the time of irradiation with visible light is covered with a bandpass filter corresponding to the three wavelength bands divided into three of visible light by turning on the visible light source.
  • the image data for each of the three wavelength bands divided into three at the time of the infrared light irradiation is the red light source for each of the three wavelength bands divided into three of the infrared light.
  • Lights that are turned on one by one and covered with a bandpass filter that responds to infrared light Since it is configured to be generated based on data acquired by the child, when forming images related to multiple visible light and infrared light having different wavelength bands, it is possible to efficiently prevent a decrease in resolution and accuracy of each image. Can do.
  • Example 1 the reflected image data at the time of irradiation with visible light is formed with high resolution, and other reflected image data at the time of irradiation with infrared light, reflected image data at the time of irradiation with far red light, and at the time of irradiation with ultraviolet light.
  • An example has been described in which the fluorescence image data, the transmission image data at the time of visible light irradiation, and the like have a resolution of one third that of the reflected image data at the time of visible light irradiation.
  • higher resolution is required for image data other than the reflected image data during irradiation with visible light. Therefore, in the second embodiment, an example will be described in which high-resolution image data can be formed for image data other than reflected image data at the time of irradiation with visible light while ensuring high-speed processing performance.
  • FIG. 10 is a block diagram illustrating an internal configuration of the banknote handling apparatus 200 according to the second embodiment.
  • the same components as those in the banknote handling apparatus 100 of the first embodiment are given the same reference numerals, the descriptions of the same components as those of the banknote handling apparatus 100 of the first embodiment are omitted, and are different from the banknote handling apparatus 100.
  • the components will be mainly described.
  • the upper unit 230 and the lower unit 240 are different from the upper unit 130 and the lower unit 140 of the first embodiment, respectively.
  • each of the four light receiving elements is provided with a band-pass filter that transmits light of different wavelength bands in one pixel unit.
  • each pixel unit has one pixel unit.
  • Six light receiving elements and band pass filters that pass light of different wavelength bands are provided.
  • the infrared wavelength band is associated with one light receiving element, but in the second embodiment, the infrared wavelength band is divided into three wavelength bands.
  • One light receiving element provided with a band pass filter corresponding to the wavelength band was provided.
  • the B-side reflection image data 262, the B-side UV fluorescence image data 263, the A-side reflection image data 265, the A-side UV fluorescence image data 266, and the transmission image data 267 in the storage unit 260 are the B-side reflection image data of the first embodiment. 162, the B-side UV fluorescent image data 163, the A-side reflected image data 165, the A-side UV fluorescent image data 166, and the transmitted image data 167 are different.
  • the type of image data included in the B-side reflection image data 262 is the same as the type of image data included in the B-side reflection image data 162 of Example 1, but the B-side infrared light 1 (IR1 of Example 2). ) Reflected image data during irradiation, reflected image data during B surface infrared light 2 (IR2) irradiation, and reflected image data during B surface far red light (FR) irradiation, the resolution in the sub-scanning direction compared to that in Example 1. Has tripled.
  • the type of image data included in the B-side UV fluorescent image data 263 has three infrared bandpass filters as compared to the type of image data included in the B-side UV fluorescent image data 163 of Example 1. Accordingly, the infrared (IR) emission image data at the time of B surface ultraviolet light (UV) irradiation included in the B surface UV fluorescent image data 163 of Example 1 is the same as that at the time of B surface ultraviolet light (UV) irradiation. Instead of three image data for the three infrared wavelength bands.
  • the image data and the blue (B) emission image data when irradiated with B-surface ultraviolet light (UV) have a resolution in the sub-scanning direction of 1.5 times that of the first embodiment.
  • the type of image data included in the A-surface reflection image data 265 is the same as the type of image data included in the A-surface reflection image data 165 of the first embodiment, but the A-surface infrared light 1 (IR1) of the second embodiment.
  • IR1 A-surface infrared light 1
  • the type of image data included in the A-side UV fluorescent image data 266 has three infrared bandpass filters as compared to the type of image data included in the A-side UV fluorescent image data 166 of Example 1.
  • the infrared (IR) emission image data at the time of A-surface ultraviolet light (UV) irradiation included in the A-surface UV fluorescence image data 166 of Example 1 is the same as that at the time of A-surface ultraviolet light (UV) irradiation. Instead of three image data for the three infrared wavelength bands.
  • red (R) emission image data when A-surface ultraviolet light (UV) is irradiated and green (G) light emission when A-surface ultraviolet light (UV) is irradiated, which were also included in the A-surface UV fluorescence image data 166 in Example 1.
  • the image data and the blue (B) emission image data when irradiated with A-surface ultraviolet light (UV) have a resolution in the sub-scanning direction of 1.5 times that of the first embodiment.
  • the transmission image data at the time of infrared light (IR) irradiation and the transmission image data at the time of green light (G) irradiation of the second embodiment are those of the first embodiment.
  • the resolution in the sub-scanning direction is 1.5 times.
  • the control unit 270 is different from the image data generation unit 171 of the first embodiment in the image data generation unit 271.
  • the image data generation unit 271 has the same logical contents to be processed, but the configuration of the light receiving units 234 and 244 has changed, so that the line sensor depends on the frequency of data acquisition and the type of data acquired. There is a difference in the data transmitted from 120, and there is a difference in the processing for forming the image data along with the difference.
  • the line memory 272 is the same as the first embodiment in the role of an area for buffering data, but there is a difference in the type of data to be buffered and the required capacity.
  • the light source control unit 273 has the same configuration of the light source of the line sensor 120, but the configuration of the light receiving element of the pixel unit is changed. There is a change from the one light source control unit 173. Specifically, as described later, in the first embodiment, the number of light receiving elements included in the pixel unit is four and the infrared wavelength band is associated with one light receiving element. Since six light receiving elements are included in each of the light receiving elements each having a bandpass filter corresponding to the three infrared wavelength bands, light in the three infrared wavelength bands is irradiated simultaneously. It is possible to obtain the received light intensity for each of the three infrared wavelength bands.
  • the AFE control unit 274 also controls offset adjustment, input signal sampling setting, data capture timing in accordance with the configuration of the pixel unit of the line sensor 120 and the light emission timing of the light source control unit 273. Processing contents such as data output setting are also different from those of the AFE control unit 174 of the first embodiment.
  • FIG. 11 is a diagram illustrating the correspondence between the arrangement of the light receiving elements 234a to 234f of the light receiving unit 234 of the line sensor 120 according to the second embodiment and the optical filter.
  • the light receiving unit 234 provided in the upper unit 230 will be described as an example, but the light receiving unit 244 provided in the lower unit 240 has the same configuration.
  • the pixel unit of the light receiving unit 234 of the second embodiment has six light receiving elements 234a to 234f.
  • the pixel unit includes a light receiving element 234a having a bandpass filter that transmits blue light (B) having a wavelength of 400 to 500 nm and a bandpass filter that transmits green light (G) having a wavelength of 500 to 600 nm.
  • the light receiving unit 234 receives the blue light (B) having a wavelength of 400 to 500 nm, the green light (G) having a wavelength of 500 to 600 nm, and the red light (R) having a wavelength of 600 to 700 nm.
  • the received light intensity of (IR1) can be acquired simultaneously.
  • the light receiving elements are arranged in two rows in the banknote conveyance direction and in three rows in the direction perpendicular to the conveyance direction. Is not limited to this.
  • the light receiving elements may be arranged in a line in a direction perpendicular to the banknote transport direction.
  • a light receiving element may be arrange
  • FIG. 12 is a timing chart showing the light emission timings of the light emitting units 131, 142, 132 and the light reception timings of the light receiving units 244, 234 according to the second embodiment of the line sensor 120.
  • the line sensor 120 obtains data corresponding to the entire surface of the banknote by repeating the cycle with four phases 1 to 4 as one cycle.
  • phase 1 by turning on a light source that makes infrared light (TIR) having a peak wavelength of 950 nm and a green light (TG) that has a peak wavelength 550 nm, infrared light (TIR) and The bill is irradiated with green light (TG), the light transmitted through the bill is received by the light receiving unit 244, the received light intensity (TIR data) of infrared light 1 having a wavelength of 900 to 1000 nm, and the wavelength of 500 to 600 nm. The green light reception intensity (TG data) is acquired.
  • TIR infrared light
  • TG green light
  • Phase 2 and phase 4 are the same, and a light source that makes infrared light 1 (RIR1) having a peak wavelength of 950 nm and a light source that makes infrared light 2 (RIR2) having a peak wavelength of 850 nm, A light source having a peak wavelength of 750 nm far-red light (RFR), a light source having a peak wavelength of 650 nm red light (RR), a light source having a peak wavelength of 550 nm green light (RG), and a peak wavelength
  • RFR red light
  • RG green light
  • a peak wavelength of violet light (RV) By turning on a light source of violet light (RV) of 420 nm, infrared light 1 (RIR1), infrared light 2 (RIR2), far red light (RFR), red light (RR), green light (RG ) And violet light (RV) are applied to the bill, the light reflected from the bill is received by the light receiving unit 244 and the light receiving unit 23
  • the received light intensity of infrared light 2 having a wavelength of 800 to 900 nm (RIR2 data), the received light intensity of far red light having a wavelength of 700 to 800 nm (RFR data), and the red light having a wavelength of 600 to 700 nm.
  • the received light intensity (RR data), the received light intensity of green light with a wavelength of 500 to 600 nm (RG data), and the received light intensity of purple light with a wavelength of 400 to 500 nm (RV data) are acquired.
  • the banknote is irradiated with ultraviolet light (RUV)
  • the light receiving unit 244 and the light receiving unit 234 are irradiated.
  • the light reception intensity (RG-UV data) of light and the light reception intensity (RB-UV data) of blue light having a wavelength of 400 to 500 nm are acquired.
  • the data for the reflected light upon irradiation with infrared light (IR1, IR2), far-red light (FR), and visible light (R, G, V) is once per mechanical clock
  • data for fluorescence during ultraviolet light (UV) irradiation is acquired once every two mechanical clocks.
  • Image data formed based on reflected light when irradiated with light (IR1, IR2), far-red light (FR), and visible light (R, G, V) is 2 of image data formed based on other light. The image data has double the resolution.
  • infrared light IR1, IR2
  • far red light FR
  • visible light visible light
  • the resolution in the sub-scanning direction of the reflected image data when irradiated with light (R, G, V) is about 200 dpi, and the other image data is 100 dpi.
  • the image data formed based on the reflected light of infrared light (IR1, IR2) and far-red light (FR) has three times the resolution, green light (G) and infrared light (IR )
  • the image data formed based on the transmitted light at the time of irradiation and the image data formed based on the fluorescence at the time of ultraviolet light (UV) irradiation have a resolution of 1.5 times.
  • FIG. 13 is a control block diagram illustrating a flow of processing for forming image data based on data acquired by the line sensor 120 according to the second embodiment. Based on FIG. 13, a description will be given centering on portions that differ from the control block diagram of the first embodiment shown in FIG. 8.
  • FIG. 13 illustrates processing for forming image data using data acquired by the light receiving unit 244.
  • the processing for the data acquired by the light receiving unit 234 is almost the same, but since the data of the transmitted light is not acquired by the light receiving unit 234, there is no processing associated with the reception of the transmitted light indicated by “*” in FIG.
  • the light receiving unit 244 has about 1600 pixel unit units. As shown in FIG. 11, the pixel unit unit receives light in six different wavelength bands (R, G, B, FR, IR1, IR2). The light receiving elements 244a to 244f are provided. In addition, the light receiving unit 244 has 12 output channels, and information acquired by about 1600 pixel unit units is sent to the AFE (Analog Front End) 245a in a predetermined order using the 12 output channels. Sent.
  • AFE Analog Front End
  • the processing from the transmission to the AFE 245a to the entry into the line memory 272 of the control unit 270 is that the number of data increases due to the increase in the number of light receiving elements included in the pixel unit and the data depending on the type of data.
  • the processing of the AFE 245a, the pixel output conversion 245b, the LVDS output 245c, and the LVDS input 271a is logically equivalent except that the acquisition frequency is increased. Note that some AFEs 245 a have a built-in LVDS output, and the pixel rearrangement process may be performed by the control unit 270.
  • the image data generation unit 271 of the control unit 270 performs wavelength decomposition 271b, which is decomposition of the data stored in the line memory 272 into data according to acquisition conditions corresponding to individual data.
  • the decomposition into the data according to the acquisition conditions includes the received light intensity data (RR) of the light reflected by irradiating red light and the received light intensity data (RG) of the light reflected by irradiating green light.
  • the received light intensity data (RIR-UV) of infrared light emitted by irradiating ultraviolet light and emitting fluorescence is data for each of the three wavelength bands of infrared light in the light receiving unit 244.
  • (RIR2-UV) and received light intensity data (RFR-UV) of far-red light emitted by irradiating ultraviolet light and emitting fluorescence is data for each of the three wavelength bands of infrared light in the light receiving unit 244.
  • the dark output cut 271c, the gain adjustment 271d, and the bright output correction 271e on the decomposed data according to the acquisition conditions except that the number of data increases and the resolution increases depending on the data type.
  • the A-surface visible reflection raw image data as the raw image data based on the reflected light upon irradiation with visible light (RR, RG, RV) based on the data corrected by the dark output cut 271c, the gain adjustment 271d, and the bright output correction 271e.
  • H.264 or the data of the addition average image blocked for each wavelength band is generated and stored in the storage unit 260 as the A-surface reflection image data 265, the A-surface UV fluorescence image data 266, and the transmission image data 267.
  • the processing is also logically equivalent to that of the first embodiment except that the number of types of data is increased and the resolution is increased depending on the type of data.
  • FIG. 14 is a diagram illustrating a configuration of transmission data according to the second embodiment from the line sensor 120 to the control unit 270 using an LVDS interface capable of transmitting 35 bits in one clock.
  • FIG. 14 (a) is a diagram showing a relationship between a clock and data to be transmitted when one LVDS interface is transmitted using a 132 MHz clock.
  • the pixel unit of the light receiving unit 234 and the light receiving unit 244 used in the second embodiment includes six light receiving elements 234a to 234f and 244a to 244f, respectively, as shown in FIG.
  • 10 bits are required to transmit the information acquired by one light receiving element, so 35 bits can be transmitted in one clock.
  • two clocks are required as shown in FIG.
  • the first clock has 10 bits corresponding to the received light intensity of red light (R) having a wavelength of 600 to 700 nm and the received light intensity of green light (G) having a wavelength of 500 to 600 nm.
  • the corresponding 10 bits and 10 bits corresponding to the received light intensity of blue light (B) having a wavelength of 400 to 500 nm are transmitted, and the received light intensity of far red light (FIR) having a wavelength of 700 to 800 nm is transmitted with the second clock.
  • FIG. 14B is a diagram showing a relationship between a clock and data to be transmitted when two LVDS interfaces are transmitted using a 66 MHz clock.
  • two LVDS interfaces capable of transmitting 35 bits in one clock are used, it is possible to transmit in one clock as shown in FIG.
  • the first LVDS interface receives 10 bits corresponding to the received light intensity of red light (R) having a wavelength of 600 to 700 nm and the received light intensity of green light (G) having a wavelength of 500 to 600 nm. And 10 bits corresponding to the received light intensity of blue light (B) having a wavelength of 400 to 500 nm, and transmitting far-red light (FIR) having a wavelength of 700 to 800 nm through the second LVDS interface.
  • R red light
  • G green light
  • FIR far-red light
  • a visible light source that outputs a predetermined amount of light in the three divided wavelength bands of visible light, and a predetermined amount of light in the three divided wavelength bands of infrared light.
  • the infrared light irradiation is divided into three Since it is configured to form image data for each of the three wavelength bands, it is possible to efficiently reduce the resolution and accuracy of each image when forming images related to a plurality of visible light and infrared light having different wavelength bands. Can be prevented.
  • six light receiving elements are provided in the pixel unit so that infrared light can be dispersed, so that the resolution of the image data for each infrared wavelength band can be further increased. .
  • Example 1 and Example 2 although the banknote processing apparatuses 100 and 200 which perform the process which concerns on a banknote have been demonstrated, this invention is not limited to the apparatus which makes object a banknote.
  • a similar sensor module may be applied to an apparatus that forms an image of a valuable medium such as a check or a gift certificate.
  • the mechanical clock of the line sensor 120 is about 16 kHz
  • the bill conveyance speed is 2000 mm / second
  • the LVDS interface clock is 66 MHz or 132 MHz. It is not limited to.
  • the conveyance speed may be further increased, and the mechanical clock of the line sensor 120 or the clock of the LVDS interface may be increased in proportion to the conveyance speed.
  • a plurality of LVDS interfaces may be used in parallel.
  • the light emission part corresponding to visible light and infrared light emits the light which has a peak wavelength in the range of each wavelength band for every some divided
  • a plurality of light sources are used, the present invention is not limited to this. It is only necessary to irradiate light having a predetermined intensity for each of a plurality of divided wavelength bands, and it is not necessary to be a separate light source for each divided wavelength band. For example, for each of a plurality of divided wavelength bands A single white light source capable of emitting light having a predetermined intensity may be used.
  • the reflected light image data, the transmitted light image data, and the fluorescent light emission image are obtained based on the data acquired during the light irradiation from the light emitting unit as shown in FIGS.
  • the present invention is not limited to this.
  • the line sensor 120 may be controlled to acquire phosphorescence, and phosphorescent image data may be formed based on the acquired information on the phosphorescence intensity.
  • FIG. 15 is a cross-sectional view of the line sensor 120 different from FIG. 3, and the size of the upper and lower units in the transport direction can be made the same, and the arrangement can be overlapped to reduce the size.
  • each configuration illustrated in the above-described embodiment is functionally schematic and does not necessarily need to be physically configured as illustrated. That is, the form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed / integrated in an arbitrary unit according to various loads or usage conditions. Can be configured.
  • the light receiving sensor, the sensor module, and the paper sheet processing apparatus have the resolution and accuracy of each image when forming images related to a plurality of visible light and infrared light having different wavelength bands. It is suitable for efficiently preventing the decrease.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Toxicology (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Inspection Of Paper Currency And Valuable Securities (AREA)
  • Photometry And Measurement Of Optical Pulse Characteristics (AREA)
  • Image Input (AREA)
  • Facsimile Heads (AREA)
  • Facsimile Scanning Arrangements (AREA)

Abstract

 少なくとも可視光領域及び赤外光領域の波長帯を含む複数の異なる波長帯の光を発光する光源を点灯タイミングを重ねて点灯することによって、少なくとも可視光領域及び赤外光領域の波長帯を含む複数の異なる波長帯の光を紙幣にタイミングを重ねて照射して、それぞれの光源の波長帯に応じた範囲の波長の光のみを透過するバンドパスフィルタを備えた受光素子を用いることによって、紙幣からのそれぞれの光源の波長帯に応じた範囲の波長の光の受光強度を同時に取得して、取得した波長帯ごとの受光強度に基づいて画像データを形成するようにした。

Description

受光センサ、センサモジュール及び紙葉類処理装置
 この発明は、波長帯の異なる複数の可視光及び赤外光に関する画像を形成する場合に、各画像の解像度及び正確性の低下を効率良く防止する受光センサ、センサモジュール及び紙葉類処理装置に関する。
 従来、異なる波長帯の光を紙幣に照射し、照射した光が紙幣から反射する反射光の光量に基づいて、異なる波長帯ごとの画像を形成する技術が知られている。例えば、特許文献1には、異なる波長帯の可視光を発光する複数の発光素子を光源とし、各発光素子の点灯を順次切り替えながら紙幣に可視光を照射し、照射した可視光が紙幣で反射する反射光の光量を受光素子で検知し、検知した反射光の光量を画素値として画像を形成する技術が開示されている。
 この特許文献1のように、各発光素子の点灯を順次切り替えながら紙幣に可視光を照射したのでは、一つの発光素子の点灯を繰り返す場合よりも反射光の光量を検知する機会が減少してしまう。例えば、赤色光、緑色光、青色光の発光素子の点灯を順次切り替える場合には、赤色光の画像、緑色光の画像、青色光の画像を形成することができるものの、この赤色光の画像の検知回数は、赤色光のみの発光素子の点灯を繰り返す場合の1/3となってしまう。その結果、紙幣の搬送方向である副走査方向の解像度が1/3に低下する。
 かかる解像度の低下を防止するために、例えば、特許文献2には、赤色光、緑色光及び青色光の発光素子を同時に点灯するとともに、赤色、緑色及び青色のカラーフィルタでそれぞれ覆われた3つの受光素子を用いることによって、反射光の光量を検知する機会の減少を防ぎ、もって赤色光のみの発光素子の点灯を繰り返す場合と同等の解像度を得ることのできる技術が開示されている。
特開2003-46726号公報 特開2012-68731号公報
 しかしながら、上記特許文献2によれば、各カラーフィルタが赤外光を透過してしまうため、紙幣から反射する反射光の光量に赤外光の光量が重畳されてしまう。その結果、例えば赤色光の画像は、赤色光及び赤外光(赤色光+赤外光)の光量を画素値とした画像となってしまい、画像の正確性に欠けるという問題がある。
 特に、紙幣の真偽や汚損度などを判別する場合には、赤外光を発光する赤外光発光素子を設け、この赤外光が紙幣から反射する反射光の光量を用いて赤外画像を形成することが望ましいため、赤外光発光素子から発光される赤外光が、各可視光(赤色光、緑色光及び青色光)のカラーフィルタを透過してしまい、結果的に各可視光の画像の精度が低下することとなる。
 なお、各可視光の画像の正確性を担保しようとすれば、赤色、緑色及び青色の発光素子の発光タイミングと、赤外光発光素子から赤外光を発光する発光タイミングとを異ならせる必要が生ずるため、結果的に各可視光の画像及び赤外光の画像の解像度が低下してしまう結果となる。
 これらのことから、波長帯の異なる複数の可視光及び赤外光に関する紙幣の画像を形成する場合に、いかにして各画像の解像度及び正確性の低下を効率良く防止するかが重要な課題となっている。かかる課題は、紙幣を対象とする場合だけでなく、小切手や手形等の紙葉類を対象とする場合にも同様に生ずる課題である。
 本発明は、上述した従来技術の課題を解決するためのものであって、波長帯の異なる複数の可視光及び赤外光に関する画像を形成する場合に、各画像の解像度及び正確性の低下を効率良く防止することができる受光センサ、センサモジュール及び紙葉類処理装置を提供することを目的とする。
 上述した課題を解決し、目的を達成するため、本発明は、第1の波長帯域の可視光を透過しつつ他の波長帯域の可視光及び赤外光を遮断する第1のフィルタ領域と、前記第1の波長帯域とその一部の波長帯域が重なるか又は前記第1の波長帯域と波長帯域が異なる第2の波長帯域の可視光を透過しつつ他の波長帯域の可視光及び赤外光を遮断する第2のフィルタ領域と、前記第1の波長帯域及び前記第2の波長帯域とその一部の波長帯域が重なるか又は前記第1の波長帯域及び前記第2の波長帯域と波長帯域が異なる第3の波長帯域の可視光を透過しつつ他の波長帯域の可視光及び赤外光を遮断する第3のフィルタ領域と、前記赤外光を透過しつつ前記可視光を遮断する第4のフィルタ領域とを少なくとも有するフィルタと、前記第1のフィルタ領域を透過した可視光を検知する第1の受光素子と、前記第2のフィルタ領域を透過した可視光を検知する第2の受光素子と、前記第3のフィルタ領域を透過した可視光を検知する第3の受光素子と、前記第4のフィルタ領域を透過した赤外光を検知する赤外光受光素子とを少なくとも有する受光部とを備えたことを特徴とする。
 また、本発明は、上記発明において、前記第4のフィルタ領域は、第4の波長帯域の赤外光を透過しつつ他の波長帯域の赤外光及び可視光を遮断し、前記第4の波長帯域とその一部の波長帯域が重なるか又は前記第4の波長帯域と波長帯域が異なる第5の波長帯域の赤外光を透過しつつ他の波長帯域の赤外光及び可視光を遮断する第5のフィルタ領域と、前記第4の波長帯域及び前記第5の波長帯域とその一部の波長帯域が重なるか又は前記第4の波長帯域及び前記第5の波長帯域と波長帯域が異なる第6の波長帯域の赤外光を透過しつつ他の波長帯域の赤外光及び可視光を遮断する第6のフィルタ領域とをさらに有し、前記赤外光受光素子は、前記第4のフィルタ領域を透過した赤外光を検知する第4の受光素子と、前記第5のフィルタ領域を透過した赤外光を検知する第5の受光素子と、前記第6のフィルタ領域を透過した赤外光を検知する第6の受光素子とを有することを特徴とする。
 また、本発明は、複数の異なる波長帯域の可視光をそれぞれ透過しつつ他の波長帯域の可視光及び赤外光を遮断する複数のフィルタ領域と、一又は複数の波長帯域の赤外光を透過しつつ前記可視光を遮断する一又は複数のフィルタ領域とを有するフィルタと、各フィルタ領域をそれぞれ透過する複数の異なる波長帯域の可視光並びに一又は複数の異なる波長帯域の赤外光を検知する複数の受光素子を有する受光部とを有することを特徴とする。
 また、本発明は、少なくとも可視光及び赤外光を含む光を対象物に対して照射する発光部と、前記対象物から到来する光のうち、第1の波長帯域の可視光を透過しつつ他の波長帯域の可視光及び赤外光を遮断する第1のフィルタ領域と、前記第1の波長帯域とその一部の波長帯域が重なるか又は前記第1の波長帯域と波長帯域が異なる第2の波長帯域の可視光を透過しつつ他の波長帯域の可視光及び赤外光を遮断する第2のフィルタ領域と、前記第1の波長帯域及び前記第2の波長帯域とその一部の波長帯域が重なるか又は前記第1の波長帯域及び前記第2の波長帯域と波長帯域が異なる第3の波長帯域の可視光を透過しつつ他の波長帯域の可視光及び赤外光を遮断する第3のフィルタ領域と、前記赤外光を透過しつつ前記可視光を遮断する第4のフィルタ領域とを少なくとも有するフィルタと、前記第1のフィルタ領域を透過した可視光を検知する第1の受光素子と、前記第2のフィルタ領域を透過した可視光を検知する第2の受光素子と、前記第3のフィルタ領域を透過した可視光を検知する第3の受光素子と、前記第4のフィルタ領域を透過した赤外光を検知する赤外光受光素子とを少なくとも有する受光部と、前記第1の受光素子で検知された第1の受光データ、前記第2の受光素子で検知された第2の受光データ、前記第3の受光素子で検知された第3の受光データ及び前記赤外光受光素子で検知された赤外光受光データを出力する出力部とを備えたことを特徴とする。
 また、本発明は、上記発明において、前記第4のフィルタ領域は、第4の波長帯域の赤外光を透過しつつ他の波長帯域の赤外光及び可視光を遮断し、前記第4の波長帯域とその一部の波長帯域が重なるか又は前記第4の波長帯域と波長帯域が異なる第5の波長帯域の赤外光を透過しつつ他の波長帯域の赤外光及び可視光を遮断する第5のフィルタ領域と、前記第4の波長帯域及び前記第5の波長帯域とその一部の波長帯域が重なるか又は前記第4の波長帯域及び前記第5の波長帯域と波長帯域が異なる第6の波長帯域の赤外光を透過しつつ他の波長帯域の赤外光及び可視光を遮断する第6のフィルタ領域とをさらに有し、前記赤外光受光素子は、前記第4のフィルタ領域を透過した赤外光を検知する第4の受光素子と、前記第5のフィルタ領域を透過した赤外光を検知する第5の受光素子と、前記第6のフィルタ領域を透過した赤外光を検知する第6の受光素子とを有し、前記出力部は、前記第1の受光素子で検知された第1の受光データ、前記第2の受光素子で検知された第2の受光データ、前記第3の受光素子で検知された第3の受光データ、前記第4の受光素子で検知された第4の受光データ、前記第5の受光素子で検知された第5の受光データ及び前記第6の受光素子で検知された第6の受光データを出力することを特徴とする。
 また、本発明は、上記発明において、前記出力部は、前記第1の受光データ、前記第2の受光データ、前記第3の受光データ及び前記第4の受光データを小振幅差動信号方式の信号として並列出力することを特徴とする。
 また、本発明は、上記発明において、前記出力部は、前記第1の受光データ、前記第2の受光データ、前記第3の受光データ、前記第4の受光データ、前記第5の受光データ及び前記第6の受光データを小振幅差動信号方式の信号として並列出力することを特徴とする。
 また、本発明は、上記発明において、前記発光部は、前記第1の波長帯域、前記第2の波長帯域及び前記第3の波長帯域を含む白色光を発光する可視光発光素子と前記第4の波長帯域の赤外光を発光する第1の赤外光発光素子と、前記第4の波長帯域と異なる第5の波長帯域の赤外光を発光する第2の赤外光発光素子と、前記第4の波長帯域及び前記第5の波長帯域と異なる第6の波長帯域の赤外光を発光する第3の赤外光発光素子と前記第1の赤外光発光素子を第1の発光タイミングで発光させ、該第1の発光タイミングと異なる第2の発光タイミングで前記第2の赤外光発光素子を発光させ、該第1の発光タイミング及び該第2の発光タイミングと異なる第3の発光タイミングで前記第3の赤外光発光素子を発光させるよう制御する制御部とを備えたことを特徴とする。
 また、本発明は、上記発明において、前記出力部は、前記第1の発光タイミングに応答して前記第1の受光データ、前記第2の受光データ、前記第3の受光データ及び前記第4の受光データを小振幅差動信号方式の信号として並列出力し、前記第2の発光タイミングに応答して前記第1の受光データ、前記第2の受光データ、前記第3の受光データ及び前記第4の受光データを小振幅差動信号方式の信号として並列出力し、前記第3の発光タイミングに応答して前記第1の受光データ、前記第2の受光データ、前記第3の受光データ及び前記第4の受光データを小振幅差動信号方式の信号として並列出力することを特徴とする。
 また、本発明は、上記発明において、前記発光部は、紫外光を含む光を発光する紫外光発光素子と、前記紫外光発光素子から発光された光のうち可視光及び赤外光の少なくとも一つの光を遮断する紫外光透過フィルタとを備え、前記制御部は、前記第1の発光タイミング、前記第2の発光タイミング及び前記第3の発光タイミングのいずれとも異なる第4の発光タイミングで前記紫外光発光素子を発光させるよう制御することを特徴とする。
 また、本発明は、上記発明において、前記発光部は、一又は複数の入力端部から入光した前記白色光、前記第4の波長帯域の赤外光、前記第5の波長帯域の赤外光及び前記第6の波長帯域の赤外光を所定の出力端部に導光する導光体をさらに備えたことを特徴とする。
 また、本発明は、上記発明において、前記発光部は、前記第1の波長帯域、前記第2の波長帯域及び前記第3の波長帯域を含む白色光を発光する可視光発光素子と、赤外光を発光する赤外光発光素子と、前記可視光発光素子及び前記赤外光発光素子を、発光タイミングを重ねて発光させるよう発光タイミングを制御する制御部とを有することを特徴とする。
 また、本発明は、上記発明において、前記可視光発光素子は、前記第1の波長帯域の可視光を発光する第1の可視光発光素子と、前記第2の波長帯域の可視光を発光する第2の可視光発光素子と、前記第3の波長帯域の可視光を発光する第3の可視光発光素子とを含み、前記制御部は、前記第1の可視光発光素子、前記第2の可視光発光素子及び前記第3の可視光発光素子及び前記赤外光発光素子を、発光タイミングを重ねて発光させるよう制御することを特徴とする。
 また、本発明は、上記発明において、前記赤外光発光素子は、前記第4の波長帯域の赤外光を発光する第1の赤外光発光素子と、前記第4の波長帯域と異なる第5の波長帯域の赤外光を発光する第2の赤外光発光素子と、前記第4の波長帯域及び前記第5の波長帯域と異なる第6の波長帯域の赤外光を発光する第3の赤外光発光素子とを含んだことを特徴とする。
 また、本発明は、上記発明において、前記発光部は、紫外光を含む光を発光する紫外光発光素子と、前記紫外光発光素子から発光された光のうち可視光及び赤外光の少なくとも一つの光を遮断する紫外光透過フィルタとを備え、前記制御部は、前記可視光発光素子及び前記赤外光発光素子を第1の発光タイミングで発光タイミングを重ねて発光させるよう制御するとともに、該第1の発光タイミングと異なる第2の発光タイミングで前記紫外光発光素子を発光させるよう制御することを特徴とする。
 また、本発明は、上記発明において、前記発光部は、一又は複数の入力端部から入光した前記白色光、前記第4の波長帯域の赤外光、前記第5の波長帯域の赤外光及び前記第6の波長帯域の赤外光を所定の出力端部に導光する導光体をさらに備えたことを特徴とする。
 また、本発明は、搬送される紙葉類で反射した可視光及び赤外光若しくは該紙葉類を透過した可視光及び赤外光を検出するセンサモジュールと、該センサモジュールで検出した可視光及び赤外光に基づいて前記紙葉類に係る画像を形成処理する画像形成処理部とを有する紙葉類処理装置であって、前記センサモジュールは、少なくとも可視光及び赤外光を含む光を発光する発光部と、前記発光部から発光された光が搬送される紙葉類で反射する反射光、該紙葉類を透過する透過光を含む光のうち、複数の異なる波長帯域の可視光をそれぞれ透過しつつ他の波長帯域の可視光及び赤外光を遮断する複数のフィルタ領域と、一又は複数の波長帯域の赤外光を透過しつつ前記可視光を遮断する一又は複数のフィルタ領域とを有するフィルタと、各フィルタ領域をそれぞれ透過する複数の異なる波長帯域の可視光並びに一又は複数の異なる波長帯域の赤外光を検知する複数の受光素子を有する受光部と、前記複数の受光素子で検知された各受光データを前記画像形成処理部に対して出力する出力部とを備えたことを特徴とする。
 また、本発明は、上記発明において、前記画像形成処理部は、前記複数の受光素子で検知された各受光データを並列に入力し、入力された各受光データに基づいて、複数の異なる波長帯域ごとの可視光の画像及び赤外光の画像を形成することを特徴とする。
 また、本発明は、上記発明において、前記発光部は、前記可視光及び赤外光を第1の発光タイミングに重ねて発光するよう制御するとともに、該第1の発光タイミングと異なる第2の発光タイミングで前記可視光及び赤外光と波長帯域が異なる励起光を発光し、前記受光部は、前記複数の受光素子で、前記発光部から発光された励起光に応答して前記紙葉類から放出される光を検知することを特徴とする。
 また、本発明は、上記発明において、前記受光部は、前記複数の受光素子が、前記紙葉類の主走査方向又は副走査方向の一列に配置されるか、若しくは、主走査方向及び副走査方向の複数列に配置されることを特徴とする。
 本発明によれば、第1の波長帯域の可視光を透過しつつ他の波長帯域の可視光及び赤外光を遮断する第1のフィルタ領域と、第1の波長帯域とその一部の波長帯域が重なるか又は第1の波長帯域と波長帯域が異なる第2の波長帯域の可視光を透過しつつ他の波長帯域の可視光及び赤外光を遮断する第2のフィルタ領域と、第1の波長帯域及び第2の波長帯域とその一部の波長帯域が重なるか又は第1の波長帯域及び第2の波長帯域と波長帯域が異なる第3の波長帯域の可視光を透過しつつ他の波長帯域の可視光及び赤外光を遮断する第3のフィルタ領域と、赤外光を透過しつつ可視光を遮断する第4のフィルタ領域とを少なくとも有するフィルタと、第1のフィルタ領域を透過した可視光を検知する第1の受光素子と、第2のフィルタ領域を透過した可視光を検知する第2の受光素子と、第3のフィルタ領域を透過した可視光を検知する第3の受光素子と、第4のフィルタ領域を透過した赤外光を検知する赤外光受光素子とを少なくとも有する受光部とを備えるよう構成したので、波長帯の異なる複数の可視光及び赤外光に関する画像を形成する場合に、各画像の解像度及び正確性の低下を効率良く防止することができる。
図1は、本発明に係る紙幣処理装置による紙幣の画像形成方法の概念を説明するための説明図である。 図2は、実施例1に係る紙幣処理装置の内部構成を示すブロック図である。 図3は、図2に示した紙幣処理装置のラインセンサを紙幣の搬送面に垂直で、紙幣の搬送方向と平行な面で切った断面図である。 図4は、実施例1に係るラインセンサの受光部の受光素子の配置と光学フィルタの対応を示した図である。 図5は、図3に示した発光部及び集光レンズの詳細な構成を示す図である。 図6は、図5に示したLEDヘッダにおけるLED素子の配置を示す図である。 図7は、図3に示したラインセンサの実施例1に係る発光部の発光タイミング及び受光部の受光タイミングを示したタイミングチャートである。 図8は、図3に示したラインセンサで取得したデータに基づいて画像データを形成する処理の流れを示す制御ブロック図である。 図9は、図8に示したLVDS(Low Voltage Differential Signaling)インタフェースを用いたラインセンサから制御部への実施例1に係る送信データの構成を示す図である。 図10は、実施例2に係る紙幣処理装置の内部構成を示すブロック図である。 図11は、実施例2に係るラインセンサの受光部の受光素子の配置と光学フィルタの対応を示した図である。 図12は、ラインセンサの実施例2に係る発光部の発光タイミング及び受光部の受光タイミングを示したタイミングチャートである。 図13は、実施例2に係るラインセンサで取得したデータに基づいて画像データを形成する処理の流れを示す制御ブロック図である。 図14は、図13に示したLVDSインタフェースを用いたラインセンサから制御部への実施例2に係る送信データの構成を示す図である。 図15は、図3に示したラインセンサの変形例である。
 以下に、添付図面を参照して、本発明に係る受光センサ、センサモジュール及び紙葉類処理装置の好適な実施例を詳細に説明する。
 まず、本発明に係る紙幣処理装置100による紙幣の画像形成方法の概念を、図1を用いて説明する。図1は、紙幣の画像形成に係る発光部137及び受光部134の構成の特徴となる部分を示す図である。
 発光部137は、波長帯が400nm~500nmの青色光源と、波長帯が500nm~600nmの緑色光源と、波長帯が600nm~700nmの赤色光源と、波長帯が700nm~1000nmの赤外光源とを有しており、これらの光源を点灯タイミングを重ねて点灯する。発光部137の4つの波長帯の光源を点灯タイミングを重ねて点灯して紙幣に照射して、その反射光を集光レンズ133で受光部134に集光させて、受光部134によって集光された反射光の受光強度を測定する。
 図1の右側に示すように、受光部134は、4つの受光素子134a~134dを備えており、4つの受光素子134a~134dはそれぞれ透過する波長帯の異なるバンドパスフィルタを備えている。受光素子134aは400nm~500nmの波長帯の光のみを通すバンドパスフィルタ、受光素子134bは500nm~600nmの波長帯の光のみを通すバンドパスフィルタ、受光素子134cは600nm~700nmの波長帯の光のみを通すバンドパスフィルタ、受光素子134dは700nm~1000nmの波長帯の光のみを通すバンドパスフィルタを備えている。
 これによって、発光部137から4つの波長帯の光を発光タイミングを重ねて紙幣に照射して、照射した4種類の波長帯の光に対する紙幣からの反射光を受光部134で同時に受光したとしても、それぞれの波長帯に対応したバンドパスフィルタによってフィルタリングされるので、それぞれの波長帯ごとの受光強度を受光素子134a~134dによって取得することが可能である。従来であれば、受光部134に図1に示したようなバンドパスフィルタを備えていなかったので、照射する光の波長帯ごとの反射光の受光強度は、4つの波長帯の光を1つずつ順番に点灯して、いずれかの波長帯の光だけが照射されていて、いずれかの波長帯の反射光だけが受光できる状態で受光強度を取得しなければならなかった。また、赤色、緑色及び青色のカラーフィルタで覆った受光素子を使用したとしても、赤色、緑色及び青色のカラーフィルタはいずれも赤外光を透過してしまうことから、3つの波長帯の可視光を発光タイミングを重ねて照射して可視光の3つの波長帯ごとの反射光の受光強度は取得することはできるが、赤外光の照射時の反射光の受光強度と同時に取得することはできなかった。
 つまり、受光部134で受光強度を取得する間隔及び紙幣の搬送速度を同等とした場合には、図1に示す例では、時分割でデータを取得している従来の方法と比較すると、各波長帯ごとの受光強度のサンプリング数が4倍となることから、副走査方向の解像度が4倍となることを示している。また、従来と同程度の解像度で良いのであれば、紙幣の搬送速度を4倍にすることが可能となる。また、赤色、緑色及び青色のカラーフィルタで覆った受光素子を使用した場合と比較しても、図1に示す構成の場合には、副走査方向の解像度が2倍若しくは搬送速度を2倍にすることが可能となる。
 また、受光部の受光素子を6つとして、赤外の700nm~1000nmの範囲を3つに分割して、分割された波長範囲の光だけを通すバンドパスフィルタに対応する受光素子を設けるようにしたならば、赤外光照射時の画像データについても3つの波長帯ごとの解像度の高い画像データを形成することができる。
 このように、少なくとも可視光領域及び赤外光領域の波長帯を含む複数の異なる波長帯の光を発光する光源を点灯タイミングを重ねて点灯することによって、少なくとも可視光領域及び赤外光領域の波長帯を含む複数の異なる波長帯の光を紙幣にタイミングを重ねて照射して、それぞれの光源の波長帯に応じた範囲の波長の光のみを透過するバンドパスフィルタを備えた受光素子を用いることによって、紙幣からのそれぞれの光源の波長帯に応じた範囲の波長の光の受光強度を同時に取得することができるようにしたので、波長帯の異なる複数の可視光及び赤外光に関する画像を形成する場合に、各画像の解像度及び正確性の低下を効率良く防止することができる。
 また、従来のように4つの波長帯の光を1つずつ順番に点灯して、波長帯ごとの受光強度を取得するようにしてもよい。その場合においては、照射した光と異なる波長帯での発光に特徴を有するような紙幣の特徴画像を取得することができる。
 次に、実施例1に係る紙幣処理装置100の内部構成を説明する。図2は、実施例1に係る紙幣処理装置100の内部構成を示すブロック図である。図2に示すように、紙幣処理装置100は、搬送中の紙幣の画像に係る情報を取得するラインセンサ120、記憶部160及び制御部170を有する。
 ラインセンサ120は、図2で示したように、上部ユニット130と下部ユニット140とを有している。上部ユニット130と下部ユニット140は紙幣の搬送される搬送路150を挟んで反対側に位置しており、紙幣の両面の画像に係る情報を取得する。また、ラインセンサ120は、紙幣のそれぞれの面に光を照射して反射する反射光に基づく反射データと、紙幣に光を照射して透過する透過光に基づく透過データの取得を行うことができる。
 記憶部160は、DDR-SDRAM等からなる記憶デバイスである。記憶部160は、B面可視反射生画像データ161、B面反射画像データ162、B面UV蛍光画像データ163、A面可視反射生画像データ164、A面反射画像データ165、A面UV蛍光画像データ166及び透過画像データ167を有する。
 B面可視反射生画像データ161は、上部ユニット130によって紙幣のB面に可視光を照射して、上部ユニット130の備えるセンサによって取得した照射した光の波長帯ごとの反射光に基づく反射画像データを含む。B面可視反射生画像データ161は、ノイズ除去やモアレ防止を目的とした加算平均の処理を加えていない画像データである。
 B面反射画像データ162は、上部ユニット130によって紙幣のB面に可視光及び赤外光を照射して、上部ユニット130の備えるセンサによって取得した照射した光の波長帯ごとの反射光に基づく反射画像データを含む。B面反射画像データ162は、加算平均の処理を加えた画像である。
 B面UV蛍光画像データ163は、上部ユニット130によって紙幣のB面に紫外光を照射して、上部ユニット130の備えるセンサによって取得した紙幣が発する蛍光に基づく波長帯ごとの蛍光画像データを含む。B面UV蛍光画像データ163は、加算平均の処理を加えた画像データである。
 A面可視反射生画像データ164は、下部ユニット140によって紙幣のA面に可視光を照射して、下部ユニット140の備えるセンサによって取得した照射した光の波長帯ごとの反射光に基づく反射画像データを含む。A面可視反射生画像データ164は、加算平均の処理を加えていない画像データである。
 A面反射画像データ165は、下部ユニット140によって紙幣のA面に可視光及び赤外光を照射して、下部ユニット140の備えるセンサによって取得した照射した光の波長帯ごとの反射光に基づく反射画像データを含む。A面反射画像データ165は、加算平均の処理を加えた画像データである。
 A面UV蛍光画像データ166は、下部ユニット140によって紙幣のA面に紫外光を照射して、下部ユニット140の備えるセンサによって取得した紙幣が発する蛍光に基づく波長帯ごとの蛍光画像データを含む。A面UV蛍光画像データ166は、加算平均の処理を加えた画像データである。
 透過画像データ167は、上部ユニット130の備える光源を点灯することによって紙幣に光を照射して、下部ユニット140の備えるセンサによって取得した照射した光の波長帯ごとの紙幣を透過した透過光に基づく透過画像データを含む。透過画像データ167は、加算平均の処理を加えた画像データである。
 制御部170は、紙幣処理装置100の全体を制御する制御部であり、画像データ生成ユニット171、ラインメモリ172、光源制御部173及びAFE制御部174を有する。
 画像データ生成ユニット171は、ラインセンサ120から取得したデータをラインメモリ172に一旦取り込む。ラインメモリ172にはラインセンサ120で同時に取得された、複数の種類のラインデータが含まれている。ラインデータの種類とは、紙幣のA面側から取得したデータなのかB面側から取得したデータなのか、反射光を取得したデータなのか透過光を取得したデータなのか、及び照射した光の波長の違いなどによって区別される。画像データ生成ユニット171は、ラインメモリ172のデータをラインデータの種類ごとに振り分けることによって、それぞれの種類に応じた画像データを生成する。また、画像データ生成ユニット171は、それぞれの種類の画像データに対して補正や、加算平均などの処理を行って、生成した画像データをB面可視反射生画像データ161、B面反射画像データ162、B面UV蛍光画像データ163、A面可視反射生画像データ164、A面反射画像データ165、A面UV蛍光画像データ166及び透過画像データ167に登録する。
 光源制御部173は、ラインセンサ120の有する複数の光源ごとの点灯及び消灯の制御を行う。AFE制御部174は、ラインセンサ120の有する図示しないAFE145aに対して、オフセット調整、入力信号のサンプリング設定、データを取り込むタイミングの制御及びデータ出力設定などを行う。
 また、図2には図示しないが、紙幣処理装置100は、紙幣を受け付ける紙幣受付部、受け付けた紙幣を搬送する搬送部、ラインセンサ120で取得したデータに基づいて形成した各種画像データに基づいて紙幣の金種、真偽及び正損等の識別を行う鑑別部、鑑別部で鑑別後の紙幣を収納する収納部などを備える。
 次に、図2に示した紙幣処理装置100のラインセンサ120の構成を説明する。図3は、紙幣処理装置100のラインセンサ120を紙幣の搬送面に垂直で、紙幣の搬送方向と平行な面で切った断面図である。
 ラインセンサ120は、紙幣を搬送する搬送路150を挟むようにして図面上に示す紙幣のB面側の上部ユニット130とA面側の下部ユニット140とを含む。上部ユニット130は、発光部131と、発光部132a、132b(以下、まとめて発光部132と言う)と、集光レンズ133と、受光部134と、受光部基板135と、透明部材136とを含む。また、下部ユニット140は、発光部142a、142b(以下、まとめて発光部142と言う)と、集光レンズ143と、受光部144と、受光部基板145と、透明部材146とを含む。
 発光部131、132、142の光源は、導光体若しくはLEDアレイで構成されている。発光部132は、ピーク波長を950nmの赤外光1(IR1)とする光源と、ピーク波長を850nmの赤外光2(IR2)とする光源と、ピーク波長を750nmの遠赤色光(FR)とする光源と、ピーク波長を650nmの赤色光(R)とする光源と、ピーク波長を550nmの緑色光(G)とする光源と、ピーク波長を420nmの紫色光(V)とする光源と、ピーク波長を370nmの紫外光(UV)とする光源とを有している。発光部132から照射された光は、透明なガラス又は樹脂からなる透明部材136を通して紙幣に照射され、紙幣から反射された光は、集光レンズ133によって集光されて、受光部134で受光され、受光部134によって取得されたデータは、受光部基板135によって制御部170に送信される。受光部134は、図3の紙面に垂直な方向に延びるライン状の受光センサであって、約1600個の画素単位ユニットがライン状に並んでいる。また、該画素単位ユニットは4つの受光素子134a~134dを含んでおり、それぞれの受光素子134a~134dは所定の波長帯の光のみを透過させるバンドパスフィルタを備えている。
 搬送路150と受光部134との間に紫外光を遮断する紫外光カットフィルタを備えることもできる。例えば、集光レンズ133に紫外光カットフィルタを蒸着させておいて、紙幣からの光が受光部134へ至る前に400nm以下の紫外光成分がカットされるようになっていてもよい。これによって、紙幣から反射された紫外光成分をカットすることができ、紫外光照射時に取得する可視光の光量を蛍光発光による光量に限定することが可能となるのである。特に、取得する可視光の蛍光発光の光量が少ない場合には、その蛍光発光および燐光発光を高精度に検知することができるようになる。
 発光部131は、ピーク波長を950nmの赤外光(IR)とする光源と、ピーク波長を550nmの緑色光(G)とする光源とを有している。発光部131から照射された光は、透明なガラス又は樹脂からなる透明部材136を通して紙幣に照射され、紙幣を透過した光は、透明なガラス又は樹脂からなる透明部材146を通して集光レンズ143に入り、集光レンズ143よって集光されて、受光部144で受光され、受光部144によって取得されたデータは、受光部基板145によって制御部170に送信される。受光部144は、受光部134と同じで、図3の紙面に垂直な方向に延びるライン状の受光センサであって、画素単位ユニットが複数ライン状に並んでいる。また、該画素単位ユニットは4つの受光素子144a~144dを含んでおり、それぞれの受光素子144a~144dは所定の波長帯の光のみを透過させるバンドパスフィルタを備えている。
 発光部142は、発光部132と同じピーク波長を有する7つの光源を有している。発光部142から照射された光は、透明部材146を通して紙幣に照射され、紙幣から反射された光は、集光レンズ143によって集光されて、受光部144で受光され、受光部144によって取得されたデータは、受光部基板145によって制御部170に送信される。
 また、上部ユニット130の受光部134と下部ユニット140の受光部144は、紙幣の搬送方向に対して、3~25mmのずれがある。これは、上部ユニット130の発光部132と、下部ユニット140の発光部142とが点灯タイミングを重ねて点灯しても、対向する受光面に影響を与えないことを考慮した距離である。また、上部ユニット130と下部ユニット140の間には搬送路150があり、上部ユニット130と下部ユニット140の隙間は1~3mmである。これは、紙幣が搬送中にジャム等の障害を起こさないこと、及び光学特性で焦点と照明深度が適切に構成できることを考慮した距離である。また、受光部134と受光部144は、図3の紙幣の搬送方向に対して垂直方向である主走査方向の長さは約200mmであり、画素単位ユニットが約1600個であることから主走査方向の解像度は約200dpiである。また、紙幣の搬送速度は2000mm/秒である。
 次に、実施例1に係るラインセンサ120の受光部134の受光素子134a~134dの配置と光学フィルタの対応を説明する。図4は、実施例1に係るラインセンサ120の受光部134の受光素子134a~134dの配置と光学フィルタの対応を示した図である。図4の説明では、受光部134を例に説明するが、受光部144も同じ構成である。
 図4(a)に示すように、実施例1の受光部134の画素単位ユニットは4つの受光素子134a~134dを有している。画素単位ユニットは、400~500nmの波長の青色光(B)を透過するバンドパスフィルタを有する受光素子134aと、500~600nmの波長の緑色光(G)を透過するバンドパスフィルタを有する受光素子134bと、600~700nmの波長の赤色光(R)を透過するバンドパスフィルタを有する受光素子134cと、700~1000nmの波長の赤外光(IR)を透過するバンドパスフィルタを有する受光素子134dとを有している。なお、受光素子134dのフィルタは、1000nmを超える波長範囲を透過するものであってもよい。
 これによって受光部134は、400~500nmの波長の青色光(B)の受光強度と、500~600nmの波長の緑色光(G)の受光強度と、600~700nmの波長の赤色光(R)の受光強度と、700~1000nmの波長の赤外光(IR)の受光強度とを同時に取得することができる。
 実施例1では、図4(a)に示すように、受光素子は、紙幣の搬送方向に2列、搬送方向と垂直な方向に2列となるよう配置される例を説明したが、本発明はこれに限定されるものではない。図4(b)に示すように、受光素子は、紙幣の搬送方向に対して垂直な方向に1列に配置されてもよい。また、図4(c)に示すように、受光素子は、紙幣の搬送方向に1列に配置されてもよい。
 次に、図3に示した発光部131、132、142及び集光レンズ133、143の詳細な構成を、図5を用いて説明する。図5では、図3に示した発光部131、132a及び集光レンズ133を例に説明するが、発光部132b、142a、142bは発光部132aと同じ構成であり、集光レンズ143は集光レンズ133と同じ構成である。
 図5(a)は、図3に示した発光部131の詳細な構成を示しており、主走査方向に伸びる導光体12とその主走査方向の両方の端面に光源であるLEDヘッダ11を備えている。導光体12の両方の端面から、図面上に示す矢印の方向にLEDヘッダ11によって光を照射することによって、照射した光の波長で導光体12が均等に発光する。
 図5(b)は、図3に示した発光部132aの詳細な構成を示しており、導光体22とその主走査方向の両方の端面に光源であるLEDヘッダ21を備えている。導光体22の両方の端面から、図面上に示す矢印の方向にLEDヘッダ21によって光を照射することによって、照射した光の波長で導光体22が均等に発光することに関しては、発光部131と同様である。ただし、LEDヘッダ21から照射される光の波長は、LEDヘッダ11から照射される光の波長とは異なっている。詳しくは後述する。
 図5(c)は、図3に示した集光レンズ133の詳細な構成を示している。集光レンズ133は、主走査方向にアレイ状に並べられた複数のロッドレンズ31で構成されたロッドレンズアレイである。
 図5(a)、図5(b)では、発光部131、132aは、導光体12、22の両端部にLEDヘッダ11、21を備えるものとした。これは、両端部に光源を設けることによって導光体12、22の発光強度を確保し、導光体12、22の場所による発光強度の差異を最小化することを目的としたものであった。しかしながら、LEDヘッダ11、21に用いるLED素子の発光強度及び導光体12、22の性能によっては、導光体12、22の両端にLEDヘッダ11、21を持たせることが必須ではない。
 図5(d)は、図5(a)に示した発光部131に対して、LEDヘッダ11が片側の端部にのみ設けられた発光部131を示している。図5(e)は、図5(b)に示した発光部132aに対して、LEDヘッダ21が片側の端部にのみ設けられた発光部132aを示している。
 次に、図5に示したLEDヘッダ11、21におけるLED素子の配置を、図6を用いて説明する。
 図6(a)は、LEDヘッダ11、21におけるLED素子の配置の一例である。図6(a)に示すLEDヘッダ11は、9個のLED素子が3行×3列に配置されている。9個のLED素子の内訳は、ピーク波長を550nmの緑色光(G)を発光するLED素子11aが4個と、ピーク波長を950nmの赤外光(IR1)を発光するLED素子11bが5個で構成されていて、緑色光(G)を発光するLED素子11aと、赤外光(IR1)を発光するLED素子11bとが、隣接しないよう配置されている。
 図6(a)に示すLEDヘッダ21は、9個のLED素子が3行×3列に配置されている。9個のLED素子の内訳は、ピーク波長を420nmの紫色光(V)を発光するLED素子21aが1個と、ピーク波長を550nmの緑色光(G)を発光するLED素子21bが1個と、ピーク波長を650nmの赤色光(R)を発光するLED素子21cが1個と、ピーク波長を750nmの遠赤色光(FR)を発光するLED素子21dが1個と、ピーク波長を850nmの赤外光2(IR2)を発光するLED素子21eが1個と、ピーク波長を950nmの赤外光1(IR1)を発光するLED素子21fが1個と、ピーク波長を370nmの紫外光(UV)を発光するLED素子21gが3個とで構成されている。
 紫外光(UV)を発光するLED素子21gは、紫外光照射時の蛍光発光を取得することを目的としており、反射光に比較して光量の少ない蛍光を取得するために他の光源よりも多く配置している。また、紫外光(UV)を発光するLED素子21gは、図6(a)に示すように、3行×3列の2行目に配置されている。
 また、紫外光(UV)を発光するLED素子21gは、図示していないが、可視光成分をカットする可視光カットフィルターを備えている。これによって、LED素子21gによって照射される光から可視光成分をカットすることができ、紫外光(UV)照射時に取得する可視光の光量を蛍光発光による光量に限定することが可能となるのである。
 図6(b)は、図6(a)に示したLED素子の配列の別の一例である。図6(b)に示すLEDヘッダ11は、13個のLED素子が、1行目に1個、2行目に3個、3行目に5個、4行目に3個、5行目に1個の菱形に配置されている。13個のLED素子の内訳は、ピーク波長を550nmの緑色光(G)を発光するLED素子11aが6個と、ピーク波長を950nmの赤外光(IR1)を発光するLED素子11bが7個で構成されている。緑色光(G)を発光するLED素子11aは、2行目と4行目に配置され、赤外光(IR1)を発光するLED素子11bは、1行目と3行目と5行目に配置される。
 図6(b)に示すLEDヘッダ21は、13個のLED素子が、1行目に1個、2行目に3個、3行目に5個、4行目に3個、5行目に1個の菱形に配置されている。13個のLED素子の内訳は、ピーク波長を420nmの紫色光(V)を発光するLED素子21aが1個と、ピーク波長を550nmの緑色光(G)を発光するLED素子21bが1個と、ピーク波長を650nmの赤色光(R)を発光するLED素子21cが1個と、ピーク波長を750nmの遠赤色光(FR)を発光するLED素子21dが1個と、ピーク波長を850nmの赤外光2(IR2)を発光するLED素子21eが2個と、ピーク波長を950nmの赤外光1(IR1)を発光するLED素子21fが2個と、ピーク波長を370nmの紫外光(UV)を発光するLED素子21gが5個とで構成されている。
 紫外光(UV)を発光するLED素子21gは、3行目に5個配置されている。また、紫外光(UV)を発光するLED素子21gは、図示していないが、可視光成分をカットする可視光カットフィルターを備えている。
 また、赤外光2(IR2)を発光するLED素子21eは、2行目と5行目に1個ずつ配置されている。また、赤外光1(IR1)を発光するLED素子21fは、1行目と4行目に1個ずつ配置されている。
 次に、図3に示したラインセンサ120の実施例1に係る発光部131、142、132の発光タイミング及び受光部144、134の受光タイミングを説明する。図7は、ラインセンサ120の実施例1に係る発光部131、142、132の発光タイミング及び受光部144、134の受光タイミングを示したタイミングチャートである。
 図7に示したように、ラインセンサ120はフェーズ1~6の6フェーズを1サイクルとして、該サイクルを繰り返すことによって紙幣の全面に対応するデータを取得する。
 フェーズ1では、発光部131のピーク波長を950nmの赤外光(TIR)とする光源と、ピーク波長を550nmの緑色光(TG)とする光源とを点灯することによって赤外光(TIR)及び緑色光(TG)を紙幣に照射して、受光部144で紙幣を透過した光を受け付けて、700~1000nmの波長の赤外光の受光強度(TIRデータ)と、500~600nmの波長の緑色光の受光強度(TGデータ)とを取得する。
 フェーズ2では、発光部142及び発光部132のピーク波長を950nmの赤外光1(RIR1)とする光源と、ピーク波長を650nmの赤色光(RR)とする光源と、ピーク波長を550nmの緑色光(RG)とする光源と、ピーク波長を420nmの紫色光(RV)とする光源とを点灯することによって、赤外光1(RIR1)、赤色光(RR)、緑色光(RG)及び紫色光(RV)を紙幣に照射して、受光部144及び受光部134で紙幣から反射された光を受け付けて、700~1000nmの波長の赤外光の受光強度(RIR1データ)と、600~700nmの波長の赤色光の受光強度(RRデータ)と、500~600nmの波長の緑色光の受光強度(RGデータ)と、400~500nmの波長の紫色光の受光強度(RVデータ)とを取得する。
 フェーズ3では、発光部142及び発光部132のピーク波長を850nmの赤外光2(RIR2)とする光源を点灯することによって、赤外光2(RIR2)を紙幣に照射して、受光部144及び受光部134で紙幣から反射された光を受け付けて、700~1000nmの波長の赤外光の受光強度(RIR2データ)を取得する。
 フェーズ4では、発光部142及び発光部132のピーク波長を750nmの遠赤色光(RFR)とする光源と、ピーク波長を650nmの赤色光(RR)とする光源と、ピーク波長を550nmの緑色光(RG)とする光源と、ピーク波長を420nmの紫色光(RV)とする光源とを点灯することによって、遠赤色光(RFR)、赤色光(RR)、緑色光(RG)及び紫色光(RV)を紙幣に照射して、受光部144及び受光部134で紙幣から反射された光を受け付けて、700~1000nmの波長の赤外光の受光強度(RFRデータ)と、600~700nmの波長の赤色光の受光強度(RRデータ)と、500~600nmの波長の緑色光の受光強度(RGデータ)と、400~500nmの波長の紫色光の受光強度(RVデータ)とを取得する。
 フェーズ5では、発光部142及び発光部132のピーク波長を370nmの紫外光(RUV)とする光源を点灯することによって、紫外光(RUV)を紙幣に照射して、受光部144及び受光部134で紙幣からの蛍光を受け付けて、700~1000nmの波長の赤外光の受光強度(RIR―UVデータ)と、600~700nmの波長の赤色光の受光強度(RR―UVデータ)と、500~600nmの波長の緑色光の受光強度(RG―UVデータ)と、400~500nmの波長の青色光の受光強度(RB―UVデータ)とを取得する。
 フェーズ6では、発光部142及び発光部132のピーク波長を650nmの赤色光(RR)とする光源と、ピーク波長を550nmの緑色光(RG)とする光源と、ピーク波長を420nmの紫色光(RV)とする光源とを点灯することによって、赤色光(RR)、緑色光(RG)及び紫色光(RV)を紙幣に照射して、受光部144及び受光部134で紙幣から反射された光を受け付けて、600~700nmの波長の赤色光の受光強度(RRデータ)と、500~600nmの波長の緑色光の受光強度(RGデータ)と、400~500nmの波長の紫色光の受光強度(RVデータ)とを取得する。
 これらにより、可視光(RR、RG、RV)照射時の反射光に対するデータは1メカクロック毎に1回、赤外光(RIR1、RIR2、RFR)照射時の反射光に対するデータは3メカクロック毎に1回、緑色光(TG)及び赤外光(TIR)照射時の透過光に対するデータは3メカクロック毎に1回、紫外光(RUV)照射時の蛍光に対するデータは3メカクロック毎に1回取得していることから、可視光(RR、RG、RV)照射時の反射光に基づいて形成される画像データは、他の光に基づいて形成される画像データの3倍の解像度の画像データとなる。
 また、図7に示したラインセンサ120のメカクロックの約16kHzと、紙幣の搬送速度の2000mm/秒とに基づいて算出すると、可視光(R、G、V)照射時の反射画像データの副走査方向の解像度は約200dpiであり、他の画像データは約200/3dpiである。
 次に、図3に示したラインセンサ120で取得したデータに基づいて画像データを形成する処理の流れを説明する。図8は、ラインセンサ120で取得したデータに基づいて画像データを形成する処理の流れを示す制御ブロック図である。
 ラインセンサ120の受光部134で取得したデータと、受光部144で取得したデータは、取得したデータを基にして画像データを形成するまでは互いに独立、並列で処理される。図8は受光部144で取得したデータを使用して画像データを形成する処理を説明したものである。受光部134で取得したデータに対する処理もほぼ同様であるが、受光部134では透過光のデータは取得しないため、図8に「※」で示す透過光の受光にともなう処理はない。
 受光部144は約1600個の画素単位ユニットを有しており、図4で示した通り該画素単位ユニットは4つの異なる波長帯(R、G、B、IR)の光を受光する受光素子144a~144dを備えている。また、受光部144は8つの出力チャネルを約1600個有しており、それぞれの画素単位ユニットで取得した情報はこの8つの出力チャネルを使って所定の順番でAFE(Analog Front End)145aに送信される。
 図8の例では、AFE145aは、受光部144の出力チャネルから接続される8つの入力チャネルを通して約1600個の画素単位ユニットで取得したアナログ情報を受け付けて、入力チャネルの特性に応じたオフセットの調整とゲインの調整を実施後にA/D変換を行う。また、A/D変換によってデジタル化された受光部144で取得したデータを、本体の制御部170への送信をするために並べ替えなどの画素出力変換145bを行って、LVDSシリアライザに通すことによってLVDS出力145cを行い、本体の制御部170へLVDSインタフェースを用いて送信する。なお、AFEはLVDS出力内蔵のものもあり、画素並べ替え処理は制御部170で実施してもよい。
 制御部170は、LVDS入力171aでLVDSインタフェースで受け付けたデジタル化された受光部144で取得したデータを、一旦ラインメモリ172に格納する。ラインセンサ120の下部ユニット140からは、受光部144によってデータ取得の都度、送信されてくるので、約1600個ある画素単位ユニットのそれぞれの受光素子144a~144dごとのデータが、ラインメモリ172に送られてきた順番に格納される。制御部170の画像データ生成ユニット171は、ラインメモリ172に格納されたデータを、個々のデータに対応する取得条件別のデータへの分解である波長分解171bを行う。取得条件別のデータに分解するとは、具体的には、赤色光を照射して反射した光の受光強度データ(RR)と、緑色光を照射して反射した光の受光強度データ(RG)と、紫色光を照射して反射した光の受光強度データ(RV)と、赤外光1を照射して反射した光の受光強度データ(RIR1)と、赤外光2を照射して反射した光の受光強度データ(RIR2)と、遠赤色光を照射して反射した光の受光強度データ(RFR)と、紫外光を照射して蛍光発光した赤外光の受光強度データ(RIR-UV)と、紫外光を照射して蛍光発光した赤色光の受光強度データ(RR-UV)と、紫外光を照射して蛍光発光した緑色光の受光強度データ(RG-UV)と、紫外光を照射して蛍光発光した青色光の受光強度データ(RB-UV)と、赤外光を照射して透過した光の受光強度データ(TIR)と、緑色光を照射して透過した光の受光強度データ(TG)とに分解することである。
 また、画像データ生成ユニット171は、分解された取得条件別のデータごとの特性に準じて、暗出力カット171c、ゲイン調整171d及び明出力レベルの補正である明出力補正171eを行う。さらに、画像データ生成ユニット171は、用途に応じて、可視光(RR、RG、RV)照射時の反射光に基づく反射可視光画像データに特に加工を加えていない生画像データを記憶部160にA面可視反射生画像データ164として記憶する。また、画像データ生成ユニット171は、可視光及び赤外光(RR、RG、RV、RIR1、RIR2、RFR)照射時の反射光画像データ、紫外光(RUV)照射時の蛍光画像データ、及び透過光(TIR、TG)照射時の透過光画像データに対して、ノイズの除去及びモアレの防止のために波長帯ごとにブロック化された加算平均画像のデータを生成して、記憶部160にA面反射画像データ165、A面UV蛍光画像データ166及び透過画像データ167として記憶する。
 次に、図8に示したLVDSインタフェースを用いたラインセンサ120から制御部170への実施例1に係る送信データの構成を説明する。図9は、1クロックで21ビット送信可能なLVDSインタフェースを用いたラインセンサ120から制御部170への実施例1に係る送信データの構成を示す図である。
 図9(a)は、1つのLVDSインタフェースを132MHzのクロックで使用して送信する場合の、クロックと送信するデータの関係を示した図である。実施例1で使用する受光部134及び受光部144の画素単位ユニットは、図4に示した通りそれぞれ4つの受光素子134a~134d、144a~144dを備えている。1つの画素単位ユニットの4つの受光素子で取得した情報を送信するためには、1つの受光素子で取得した情報を送信するには10ビット必要であることから、1クロックで21ビット送信可能なLVDSインタフェースを利用した場合には、図9(a)に示すように2クロックが必要である。
 図9(a)の例では、1つめのクロックで600~700nmの波長の赤色光(R)の受光強度に対応する10ビットと、500~600nmの波長の緑色光(G)の受光強度に対応する10ビットとを送信し、2つめのクロックで400~500nmの波長の青色光(B)の受光強度に対応する10ビットと、700~1000nmの波長の赤外光(IR)の受光強度に対応する10ビットとを送信することを示している。
 図9(b)は、2つのLVDSインタフェースを66MHzのクロックで使用して送信する場合の、クロックと送信するデータの関係を示した図である。1クロックで21ビット送信可能なLVDSインタフェースを2つ利用した場合には、図9(b)に示すように1クロックで送信することが可能である。
 図9(b)の例では、1つめのLVDSインタフェースで600~700nmの波長の赤色光(R)の受光強度に対応する10ビットと、500~600nmの波長の緑色光(G)の受光強度に対応する10ビットとを送信し、2つめのLVDSインタフェースで400~500nmの波長の青色光(B)の受光強度に対応する10ビットと、700~1000nmの波長の赤外光(IR)の受光強度に対応する10ビットとを送信することを示している。
 上述してきたように、本実施例1では、光源は、可視光の3分割された波長帯に所定の光量を出力する可視光光源と、赤外光の3分割された波長帯ごとの3つの赤外光光源とを備え、可視光の3分割された3つの波長帯及び赤外光の3つの波長帯をまとめた1つの波長帯に応じたバンドパスフィルタで覆われた4つの受光素子を備え、可視光照射時の3分割された3つの波長帯ごとの画像データは、可視光光源を点灯して可視光の3分割された3つの波長帯に応じたバンドパスフィルタで覆われた3つの受光素子で取得したデータに基づいて生成し、赤外光照射時の3分割された3つの波長帯ごとの画像データは、赤外光の3分割された波長帯ごとの赤色光光源を1つずつ順番に点灯して赤外光に応じたバンドパスフィルタで覆われた受光素子で取得したデータに基づいて生成するよう構成したので、波長帯の異なる複数の可視光及び赤外光に関する画像を形成する場合に、各画像の解像度及び正確性の低下を効率良く防止することができる。
 実施例1では、可視光の照射時の反射画像データを高解像度で形成して、それ以外の赤外光照射時の反射画像データ、遠赤色光照射時の反射画像データ、紫外光照射時の蛍光画像データ及び可視光照射時の透過画像データなどは可視光の照射時の反射画像データに対して3分の1の解像度となるという例を説明してきた。しかしながら、画像データの用途によっては、可視光の照射時の反射画像データ以外の画像データについてもより高い解像度を必要とするケースもある。そこで、実施例2では、高速な処理性能を確保しつつ可視光の照射時の反射画像データ以外の画像データについても解像度の高い画像データを形成することのできる例について説明する。
 まず、実施例2に係る紙幣処理装置200の内部構成を説明する。図10は、実施例2に係る紙幣処理装置200の内部構成を示すブロック図である。図10では、実施例1の紙幣処理装置100と同じ構成要素については同じ符号を付与し、実施例1の紙幣処理装置100と同じ構成要素についての説明は省略して、紙幣処理装置100と異なる構成要素について主に説明する。
 ラインセンサ120は、上部ユニット230及び下部ユニット240が、それぞれ実施例1の上部ユニット130及び下部ユニット140と差異がある。具体的には、実施例1では、1つの画素単位ユニットに4つの受光素子が、それぞれに異なる波長帯の光を通すバンドパスフィルタを備えていたが、実施例2では1つの画素単位ユニットに6つの受光素子と、それぞれに異なる波長帯の光を通すバンドパスフィルタを備えている。詳細な内容は後述するが、実施例1では赤外の波長帯を1つの受光素子に対応させていたが、実施例2では赤外の波長帯を3つの波長帯に分けて、その3つの波長帯に応じたバンドパスフィルタを備えた受光素子を一つずつ設けた。
 記憶部260の、B面反射画像データ262、B面UV蛍光画像データ263、A面反射画像データ265、A面UV蛍光画像データ266及び透過画像データ267は、実施例1のB面反射画像データ162、B面UV蛍光画像データ163、A面反射画像データ165、A面UV蛍光画像データ166及び透過画像データ167とは差異がある。
 B面反射画像データ262に含まれる画像データの種類は、実施例1のB面反射画像データ162に含まれる画像データの種類と同じであるが、実施例2のB面赤外光1(IR1)照射時反射画像データ、B面赤外光2(IR2)照射時反射画像データ及びB面遠赤色光(FR)照射時反射画像データは、実施例1のものと比較すると副走査方向の解像度が3倍となっている。
 B面UV蛍光画像データ263に含まれる画像データの種類は、実施例1のB面UV蛍光画像データ163に含まれる画像データの種類と比較すると、赤外のバンドパスフィルタが3つになったことにともなって、実施例1のB面UV蛍光画像データ163に含まれていたB面紫外光(UV)照射時赤外(IR)発光画像データが、B面紫外光(UV)照射時の赤外の3つの波長帯に対する3つの画像データに代わっている。また、実施例1でB面UV蛍光画像データ163にも含まれていたB面紫外光(UV)照射時赤色(R)発光画像データ、B面紫外光(UV)照射時緑色(G)発光画像データ及びB面紫外光(UV)照射時青色(B)発光画像データは、実施例1のものと比較すると副走査方向の解像度が1.5倍となっている。
 A面反射画像データ265に含まれる画像データの種類は、実施例1のA面反射画像データ165に含まれる画像データの種類と同じであるが、実施例2のA面赤外光1(IR1)照射時反射画像データ、A面赤外光2(IR2)照射時反射画像データ及びA面遠赤色光(FR)照射時反射画像データは、実施例1のものと比較すると副走査方向の解像度が3倍となっている。
 A面UV蛍光画像データ266に含まれる画像データの種類は、実施例1のA面UV蛍光画像データ166に含まれる画像データの種類と比較すると、赤外のバンドパスフィルタが3つになったことにともなって、実施例1のA面UV蛍光画像データ166に含まれていたA面紫外光(UV)照射時赤外(IR)発光画像データが、A面紫外光(UV)照射時の赤外の3つの波長帯に対する3つの画像データに代わっている。また、実施例1でA面UV蛍光画像データ166にも含まれていたA面紫外光(UV)照射時赤色(R)発光画像データ、A面紫外光(UV)照射時緑色(G)発光画像データ及びA面紫外光(UV)照射時青色(B)発光画像データは、実施例1のものと比較すると副走査方向の解像度が1.5倍となっている。
 透過画像データ267に含まれる画像データの種類は同じであるが、実施例2の赤外光(IR)照射時透過画像データ及び緑色光(G)照射時透過画像データは、実施例1のものと比較すると副走査方向の解像度が1.5倍となっている。
 制御部270は画像データ生成ユニット271が、実施例1の画像データ生成ユニット171とは異なっている。画像データ生成ユニット271は、処理している論理的な内容は同様であるが、受光部234、244の構成が変わっていることからデータ取得の頻度及び取得されるデータの種類の差異によってラインセンサ120から送信されてくるデータに差異があり、その差異にともなって画像データを形成する処理にも差異がある。また、ラインメモリ272は、データをバッファリングする領域という役割においては実施例1と同等であるが、バッファリングされるデータの種類及び必要な容量に差異がある。
 また、光源制御部273は、ラインセンサ120の光源の構成は同様であるものの、画素単位ユニットの受光素子の構成が変わっていることから光源ごとの点灯及び消灯タイミングの制御の内容は、実施例1の光源制御部173から変更がある。具体的には後述するが、実施例1では画素単位ユニットに含まれる受光素子数が4つで、赤外の波長帯を1つの受光素子に対応させていたが、実施例2では画素単位ユニットに含まれる受光素子を6つとして、赤外3つの波長帯に応じたバンドパスフィルタを備えた受光素子を1つずつ設けたことから、赤外の3つの波長帯の光を同時に照射して、赤外の3つの波長帯ごとの受光強度を取得することが可能となった。
 また、AFE制御部274についても、ラインセンサ120の画素単位ユニットの構成及び光源制御部273の光源の発光タイミングの変更に伴って、オフセット調整、入力信号のサンプリング設定、データを取り込むタイミングの制御及びデータ出力設定などの処理内容も、実施例1のAFE制御部174とは差異がある。
 次に、実施例2に係るラインセンサ120の受光部234の受光素子234a~234fの配置と光学フィルタの対応を説明する。図11は、実施例2に係るラインセンサ120の受光部234の受光素子234a~234fの配置と光学フィルタの対応を示した図である。図11の説明では、上部ユニット230が備える受光部234を例に説明するが、下部ユニット240が備える受光部244も同じ構成である。
 図11(a)に示すように、実施例2の受光部234の画素単位ユニットは6つの受光素子234a~234fを有している。画素単位ユニットには、400~500nmの波長の青色光(B)を透過するバンドパスフィルタを有する受光素子234aと、500~600nmの波長の緑色光(G)を透過するバンドパスフィルタを有する受光素子234bと、600~700nmの波長の赤色光(R)を透過するバンドパスフィルタを有する受光素子234cと、700~800nmの波長の遠赤色光(FR)を透過するバンドパスフィルタを有する受光素子234dと、800~900nmの波長の赤外光1(IR2)を透過するバンドパスフィルタを有する受光素子234eと、900~1000nmの波長の赤外光2(IR1)を透過するバンドパスフィルタを有する受光素子234fとを有している。
 これによって受光部234は、400~500nmの波長の青色光(B)の受光強度と、500~600nmの波長の緑色光(G)の受光強度と、600~700nmの波長の赤色光(R)の受光強度と、700~800nmの波長の遠赤色光(FR)の受光強度と、800~900nmの波長の赤外光1(IR2)の受光強度と、900~1000nmの波長の赤外光2(IR1)の受光強度とを同時に取得することができる。
 実施例2では、図11(a)に示すように、受光素子は、紙幣の搬送方向に2列、搬送方向と垂直な方向に3列となるよう配置される例を説明したが、本発明はこれに限定されるものではない。図11(b)に示すように、受光素子は、紙幣の搬送方向に対して垂直な方向に1列に配置されてもよい。また、図11(c)に示すように、受光素子は、紙幣の搬送方向に1列に配置されてもよい。また、図11(d)に示すように、紙幣の搬送方向に3列、搬送方向と垂直な方向に2列となるよう配置されてもよい。
 次に、ラインセンサ120の実施例2に係る発光部131、142、132の発光タイミング及び受光部244、234の受光タイミングを説明する。図12は、ラインセンサ120の実施例2に係る発光部131、142、132の発光タイミング及び受光部244、234の受光タイミングを示したタイミングチャートである。
 図12に示したように、ラインセンサ120はフェーズ1~4の4フェーズを1サイクルとして、該サイクルを繰り返すことによって紙幣の全面に対応するデータを取得する。
 フェーズ1では、発光部131のピーク波長を950nmの赤外光(TIR)とする光源と、ピーク波長を550nmの緑色光(TG)とする光源とを点灯することによって赤外光(TIR)及び緑色光(TG)を紙幣に照射して、受光部244で紙幣を透過した光を受け付けて、900~1000nmの波長の赤外光1の受光強度(TIRデータ)と、500~600nmの波長の緑色光の受光強度(TGデータ)とを取得する。
 フェーズ2とフェーズ4は同じで、発光部142及び発光部132のピーク波長を950nmの赤外光1(RIR1)とする光源と、ピーク波長を850nmの赤外光2(RIR2)とする光源と、ピーク波長を750nmの遠赤色光(RFR)とする光源と、ピーク波長を650nmの赤色光(RR)とする光源と、ピーク波長を550nmの緑色光(RG)とする光源と、ピーク波長を420nmの紫色光(RV)とする光源とを点灯することによって、赤外光1(RIR1)、赤外光2(RIR2)、遠赤色光(RFR)、赤色光(RR)、緑色光(RG)及び紫色光(RV)を紙幣に照射して、受光部244及び受光部234で紙幣から反射された光を受け付けて、900~1000nmの波長の赤外光1の受光強度(RIR1データ)と、800~900nmの波長の赤外光2の受光強度(RIR2データ)と、700~800nmの波長の遠赤色光の受光強度(RFRデータ)と、600~700nmの波長の赤色光の受光強度(RRデータ)と、500~600nmの波長の緑色光の受光強度(RGデータ)と、400~500nmの波長の紫色光の受光強度(RVデータ)とを取得する。
 フェーズ3では、発光部142及び発光部132のピーク波長を370nmの紫外光(RUV)とする光源を点灯することによって、紫外光(RUV)を紙幣に照射して、受光部244及び受光部234で紙幣から蛍光発光された光を受け付けて、900~1000nmの波長の赤外光1の受光強度(RIR1-UVデータ)と、800~900nmの波長の赤外光2の受光強度(RIR2-UVデータ)と、700~800nmの波長の遠赤色光の受光強度(RFR-UVデータ)と、600~700nmの波長の赤色光の受光強度(RR-UVデータ)と、500~600nmの波長の緑色光の受光強度(RG-UVデータ)と、400~500nmの波長の青色光の受光強度(RB-UVデータ)とを取得する。
 これらにより、赤外光(IR1、IR2)、遠赤色光(FR)及び可視光(R、G、V)照射時の反射光に対するデータは1メカクロック毎に1回、緑色光(G)及び赤外光(IR)照射時の透過光に対するデータは2メカクロック毎に1回、紫外光(UV)照射時の蛍光に対するデータは2メカクロック毎に1回取得していることから、赤外光(IR1、IR2)、遠赤色光(FR)及び可視光(R、G、V)照射時の反射光に基づいて形成される画像データは他の光に基づいて形成される画像データの2倍の解像度の画像データとなる。
 また、図12に示したラインセンサ120のメカクロックの約16kHzと、紙幣の搬送速度の2000mm/秒とに基づいて算出すると、赤外光(IR1、IR2)、遠赤色光(FR)及び可視光(R、G、V)照射時の反射画像データの副走査方向の解像度は約200dpiであり、他の画像データは100dpiである。実施例1と比較すると、赤外光(IR1、IR2)、遠赤色光(FR)の反射光に基づいて形成される画像データは3倍の解像度、緑色光(G)及び赤外光(IR)照射時の透過光に基づいて形成される画像データ及び紫外光(UV)照射時の蛍光に基づいて形成される画像データは1.5倍の解像度となる。
 次に、実施例2に係るラインセンサ120で取得したデータに基づいて画像データを形成する処理の流れを説明する。図13は、実施例2に係るラインセンサ120で取得したデータに基づいて画像データを形成する処理の流れを示す制御ブロック図である。図13に基づいて、図8に示した実施例1の制御ブロック図と差異のある部分を中心に説明する。
 ラインセンサ120の受光部234で取得したデータと、受光部244で取得したデータは、取得したデータを基にして画像データを形成するまでは互いに独立、並列で処理される。図13は受光部244で取得したデータを使用して画像データを形成する処理を説明したものである。受光部234で取得したデータに対する処理もほぼ同様であるが、受光部234では透過光のデータは取得しないため、図13に「※」で示す透過光の受光にともなう処理はない。
 受光部244は約1600個の画素単位ユニットを有しており、図11で示した通り該画素単位ユニットは6つの異なる波長帯(R、G、B、FR、IR1、IR2)の光を受光する受光素子244a~244fを備えている。また、受光部244は12個の出力チャネルを有しており、約1600個の画素単位ユニットで取得した情報はこの12個の出力チャネルを使って所定の順番でAFE(Analog Front End)245aに送信される。
 AFE245aに送信されてから制御部270のラインメモリ272に入れるまでの処理は、画素単位ユニットに含まれる受光素子の数が増えたことによりデータの種類は増えていること及びデータの種類によってはデータ取得頻度が上がっていることを除いては、AFE245a、画素出力変換245b、LVDS出力245c及びLVDS入力271aの処理は論理的には同等である。なお、AFE245aはLVDS出力内蔵のものもあり、画素並べ替え処理は制御部270で実施してもよい。
 制御部270の画像データ生成ユニット271は、ラインメモリ272に格納されたデータに対して、個々のデータに対応する取得条件別のデータへの分解である波長分解271bを行う。取得条件別のデータに分解するとは、具体的には、赤色光を照射して反射した光の受光強度データ(RR)と、緑色光を照射して反射した光の受光強度データ(RG)と、紫色光を照射して反射した光の受光強度データ(RV)と、赤外光1を照射して反射した光の受光強度データ(RIR1)と、赤外光2を照射して反射した光の受光強度データ(RIR2)と、遠赤色光を照射して反射した光の受光強度データ(RFR)と、紫外光を照射して蛍光発光した赤外光1の受光強度データ(RIR1-UV)と、紫外光を照射して蛍光発光した赤外光2の受光強度データ(RIR2-UV)と、紫外光を照射して蛍光発光した遠赤色光の受光強度データ(RFR-UV)と、紫外光を照射して蛍光発光した赤色光の受光強度データ(RR-UV)と、紫外光を照射して蛍光発光した緑色光の受光強度データ(RG-UV)と、紫外光を照射して蛍光発光した青色光の受光強度データ(RB-UV)と、赤外光を照射して透過した光の受光強度データ(TIR)と、緑色光を照射して透過した光の受光強度データ(TG)とに分解することである。実施例1と比較すると、実施例2では、紫外光を照射して蛍光発光した赤外光の受光強度データ(RIR-UV)が、受光部244で赤外光の3つの波長帯ごとにデータが取得可能となったことによって、紫外光を照射して蛍光発光した赤外光1の受光強度データ(RIR1-UV)と、紫外光を照射して蛍光発光した赤外光2の受光強度データ(RIR2-UV)と、紫外光を照射して蛍光発光した遠赤色光の受光強度データ(RFR-UV)とに代わっている。
 また、分解された取得条件別のデータに対する暗出力カット271c、ゲイン調整271d、明出力補正271eを行うことは、データの種類が増えたこと及びデータの種類によっては解像度が上がっていることを除いて、実施例1と論理的に同等である。また、暗出力カット271c、ゲイン調整271d及び明出力補正271eによって補正されたデータに基づいて可視光(RR、RG、RV)照射時の反射光に基づく生画像データとしてA面可視反射生画像データ264を生成したり、波長帯ごとにブロック化された加算平均画像のデータを生成して、記憶部260にA面反射画像データ265、A面UV蛍光画像データ266及び透過画像データ267として記憶する処理についても、データの種類が増えたこと及びデータの種類によっては解像度が上がっていることを除いて、実施例1と論理的に同等である。
 次に、図13に示したLVDSインタフェースを用いたラインセンサ120から制御部270への実施例2に係る送信データの構成を説明する。図14は、1クロックで35ビット送信可能なLVDSインタフェースを用いたラインセンサ120から制御部270への実施例2に係る送信データの構成を示す図である。
 図14(a)は、1つのLVDSインタフェースを132MHzのクロックで使用して送信する場合のクロックと送信するデータの関係を示した図である。実施例2で使用する受光部234及び受光部244の画素単位ユニットは、図11に示した通りそれぞれ6つの受光素子234a~234f、244a~244fを備えている。1つの画素単位ユニットの6つの受光素子で取得した情報を送信するためには、1つの受光素子で取得した情報を送信するには10ビット必要であることから、1クロックで35ビット送信可能なLVDSインタフェースを利用した場合には、図14(a)に示すように2クロックが必要である。
 図14(a)の例では、1つめのクロックで600~700nmの波長の赤色光(R)の受光強度に対応する10ビットと、500~600nmの波長の緑色光(G)の受光強度に対応する10ビットと、400~500nmの波長の青色光(B)の受光強度に対応する10ビットとを送信し、2つめのクロックで700~800nmの波長の遠赤色光(FIR)の受光強度に対応する10ビットと、900~1000nmの波長の赤外光1(IR1)の受光強度に対応する10ビットと、800~900nmの波長の赤外光2(IR2)の受光強度に対応する10ビットとを送信することを示している。
 図14(b)は、2つのLVDSインタフェースを66MHzのクロックで使用して送信する場合のクロックと送信するデータの関係を示した図である。1クロックで35ビット送信可能なLVDSインタフェースを2つ利用した場合には、図14(b)に示すように1クロックで送信することが可能である。
 図14(b)の例では、1つめのLVDSインタフェースで600~700nmの波長の赤色光(R)の受光強度に対応する10ビットと、500~600nmの波長の緑色光(G)の受光強度に対応する10ビットと、400~500nmの波長の青色光(B)の受光強度に対応する10ビットとを送信し、2つめのLVDSインタフェースで700~800nmの波長の遠赤色光(FIR)の受光強度に対応する10ビットと、900~1000nmの波長の赤外光1(IR1)の受光強度に対応する10ビットと、800~900nmの波長の赤外光2(IR2)の受光強度に対応する10ビットとをすることを示している。
 上述してきたように、本実施例2では、光源として、可視光の3分割された波長帯に所定の光量を出力する可視光光源と、赤外光の3分割された波長帯に所定の光量を出力する赤外光光源とを備え、可視光の3分割された3つの波長帯及び赤外光の3分割された3つの波長帯に応じたバンドパスフィルタで覆われた6つの受光素子を備え、可視光光源及び赤外光光源を、点灯タイミングを重ねて点灯して、可視光の3分割された3つの波長帯に応じたバンドパスフィルタで覆われた3つの受光素子で取得したデータに基づいて可視光照射時の3分割された3つの波長帯ごとの画像データを形成し、赤外光の3分割された3つの波長帯に応じたバンドパスフィルタで覆われた3つの受光素子で取得したデータに基づいて赤外光照射時の3分割された3つの波長帯ごとの画像データを形成するよう構成したので、波長帯の異なる複数の可視光及び赤外光に関する画像を形成する場合に、各画像の解像度及び正確性の低下を効率良く防止することができる。また、実施例1と比較すると、画素単位ユニットに6つの受光素子を設けて、赤外光を分光できるようにしたので、赤外の波長帯ごとの画像データの解像度をより高くすることができる。
 なお、上述の実施例1及び実施例2では、紙幣に係る処理を行う紙幣処理装置100、200について説明してきたが、本発明は対象を紙幣とする装置に限定されるものではない。例えば小切手及び商品券などの有価価値媒体の画像を形成する装置に対して、同様のセンサモジュールを適用してもよい。
 また、上述の実施例1及び実施例2では、ラインセンサ120のメカクロックを約16kHz、紙幣の搬送速度を2000mm/秒、LVDSインタフェースのクロックを66MHz又は132MHzとして説明してきたが、本発明はこれに限定されるものではない。同程度の解像度の画像を得るためには、搬送速度をさらに高速化して、ラインセンサ120のメカクロックやLVDSインタフェースのクロックを搬送速度に比例して上げてもよい。またLVDSインタフェースのクロック数を上げる代わりに複数個のLVDSインタフェースを並列で使用するようにしてもよい。
 また、上述の実施例1及び実施例2では、可視光及び赤外光に対応する発光部は、分割された複数の波長帯ごとにそれぞれの波長帯の範囲内にピーク波長を有する光を発する複数の光源で構成されるということを説明してきたが、本発明はこれに限定されるものではない。分割された複数の波長帯ごとに所定の強度を有する光を照射できればよいのであって、分割された波長帯ごとに別の光源である必要はなく、例えば、分割された複数の波長帯ごとに所定の強度を有する光を照射できる単一の白色光源であってもよい。
 また、上述の実施例1及び実施例2では、図7及び図12で示したように発光部から光照射中に取得したデータに基づいて、反射光画像データ、透過光画像データ及び蛍光発光画像データを形成することを説明したが、本発明はこれに限定されるものではない。例えば、紙幣に所定帯の波長の励起光の照射によって、励起光の照射停止後の残光(燐光)を検知するために、発光部の消灯される時間帯を設けて、消灯中に紙幣の燐光を取得するようにラインセンサ120を制御するようにして、取得した燐光強度の情報に基づいて燐光の画像データを形成するようにしてもよい。
 また、例えば、他の例として図15は、図3とは別のラインセンサ120の断面図で、上下ユニットの搬送方向のサイズを同じにし、配置を重ね合わせて小型化することもできる。
 また、上述の実施例で図示した各構成は機能概略的なものであり、必ずしも物理的に図示の構成をされていることを要しない。すなわち、各装置の分散・統合の形態は図示のものに限られず、その全部又は一部を各種の負荷や使用状況などに応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。
 以上のように、本発明に係る受光センサ、センサモジュール及び紙葉類処理装置は、波長帯の異なる複数の可視光及び赤外光に関する画像を形成する場合に、各画像の解像度及び正確性の低下を効率良く防止することに適している。
  11、21 LEDヘッダ
  11a、11b、21a、21b、21c、21d、21e、21f、21g LE  D素子
  12、22 導光体
  31 ロッドレンズ
  100、200 紙幣処理装置
  120 ラインセンサ
  130、230 上部ユニット
  131、132、132a、132b、137、142、142a、142b 発光部
  133、143 集光レンズ
  134、144、234、244 受光部
  134a、134b、134c、134d、144a、144b、144c、144d、234a、234b、234c、234d、234e、234f、244a、244b、244c、244d、244e、244f 受光素子
  135、145 受光部基板
  136、146 透明部材
  140、240 下部ユニット
  145a、245a AFE
  145b、245b 画素出力変換
  145c、245c LVDS出力
  150 搬送路
  160、260 記憶部
  161 B面可視反射生画像データ
  162、262 B面反射画像データ
  163、263 B面UV蛍光画像データ
  164、264 A面可視反射生画像データ
  165、265 A面反射画像データ
  166、266 A面UV蛍光画像データ
  167、267 透過画像データ
  170、270 制御部
  171、271 画像データ生成ユニット
  171a、271a LVDS入力
  171b、271b 波長分解
  171c、271c 暗出力カット
  171d、271d ゲイン調整
  171e、271e 明出力補正
  172、272 ラインメモリ
  173、273 光源制御部
  174、274 AFE制御部

Claims (20)

  1.  第1の波長帯域の可視光を透過しつつ他の波長帯域の可視光及び赤外光を遮断する第1のフィルタ領域と、前記第1の波長帯域とその一部の波長帯域が重なるか又は前記第1の波長帯域と波長帯域が異なる第2の波長帯域の可視光を透過しつつ他の波長帯域の可視光及び赤外光を遮断する第2のフィルタ領域と、前記第1の波長帯域及び前記第2の波長帯域とその一部の波長帯域が重なるか又は前記第1の波長帯域及び前記第2の波長帯域と波長帯域が異なる第3の波長帯域の可視光を透過しつつ他の波長帯域の可視光及び赤外光を遮断する第3のフィルタ領域と、前記赤外光を透過しつつ前記可視光を遮断する第4のフィルタ領域とを少なくとも有するフィルタと、
     前記第1のフィルタ領域を透過した可視光を検知する第1の受光素子と、前記第2のフィルタ領域を透過した可視光を検知する第2の受光素子と、前記第3のフィルタ領域を透過した可視光を検知する第3の受光素子と、前記第4のフィルタ領域を透過した赤外光を検知する赤外光受光素子とを少なくとも有する受光部と
     を備えたことを特徴とする受光センサ。
  2.  前記第4のフィルタ領域は、
     第4の波長帯域の赤外光を透過しつつ他の波長帯域の赤外光及び可視光を遮断し、
     前記第4の波長帯域とその一部の波長帯域が重なるか又は前記第4の波長帯域と波長帯域が異なる第5の波長帯域の赤外光を透過しつつ他の波長帯域の赤外光及び可視光を遮断する第5のフィルタ領域と、
     前記第4の波長帯域及び前記第5の波長帯域とその一部の波長帯域が重なるか又は前記第4の波長帯域及び前記第5の波長帯域と波長帯域が異なる第6の波長帯域の赤外光を透過しつつ他の波長帯域の赤外光及び可視光を遮断する第6のフィルタ領域と
     をさらに有し、
     前記赤外光受光素子は、
     前記第4のフィルタ領域を透過した赤外光を検知する第4の受光素子と、
     前記第5のフィルタ領域を透過した赤外光を検知する第5の受光素子と、
     前記第6のフィルタ領域を透過した赤外光を検知する第6の受光素子と
     を有することを特徴とする請求項1に記載の受光センサ。
  3.  複数の異なる波長帯域の可視光をそれぞれ透過しつつ他の波長帯域の可視光及び赤外光を遮断する複数のフィルタ領域と、一又は複数の波長帯域の赤外光を透過しつつ前記可視光を遮断する一又は複数のフィルタ領域とを有するフィルタと、
     各フィルタ領域をそれぞれ透過する複数の異なる波長帯域の可視光並びに一又は複数の異なる波長帯域の赤外光を検知する複数の受光素子を有する受光部と
     を有することを特徴とする受光センサ。
  4.  少なくとも可視光及び赤外光を含む光を対象物に対して照射する発光部と、
     前記対象物から到来する光のうち、第1の波長帯域の可視光を透過しつつ他の波長帯域の可視光及び赤外光を遮断する第1のフィルタ領域と、前記第1の波長帯域とその一部の波長帯域が重なるか又は前記第1の波長帯域と波長帯域が異なる第2の波長帯域の可視光を透過しつつ他の波長帯域の可視光及び赤外光を遮断する第2のフィルタ領域と、前記第1の波長帯域及び前記第2の波長帯域とその一部の波長帯域が重なるか又は前記第1の波長帯域及び前記第2の波長帯域と波長帯域が異なる第3の波長帯域の可視光を透過しつつ他の波長帯域の可視光及び赤外光を遮断する第3のフィルタ領域と、前記赤外光を透過しつつ前記可視光を遮断する第4のフィルタ領域とを少なくとも有するフィルタと、
     前記第1のフィルタ領域を透過した可視光を検知する第1の受光素子と、前記第2のフィルタ領域を透過した可視光を検知する第2の受光素子と、前記第3のフィルタ領域を透過した可視光を検知する第3の受光素子と、前記第4のフィルタ領域を透過した赤外光を検知する赤外光受光素子とを少なくとも有する受光部と、
     前記第1の受光素子で検知された第1の受光データ、前記第2の受光素子で検知された第2の受光データ、前記第3の受光素子で検知された第3の受光データ及び前記赤外光受光素子で検知された赤外光受光データを出力する出力部と
     を備えたことを特徴とするセンサモジュール。
  5.  前記第4のフィルタ領域は、
     第4の波長帯域の赤外光を透過しつつ他の波長帯域の赤外光及び可視光を遮断し、
     前記第4の波長帯域とその一部の波長帯域が重なるか又は前記第4の波長帯域と波長帯域が異なる第5の波長帯域の赤外光を透過しつつ他の波長帯域の赤外光及び可視光を遮断する第5のフィルタ領域と、
     前記第4の波長帯域及び前記第5の波長帯域とその一部の波長帯域が重なるか又は前記第4の波長帯域及び前記第5の波長帯域と波長帯域が異なる第6の波長帯域の赤外光を透過しつつ他の波長帯域の赤外光及び可視光を遮断する第6のフィルタ領域と
     をさらに有し、
     前記赤外光受光素子は、
     前記第4のフィルタ領域を透過した赤外光を検知する第4の受光素子と、
     前記第5のフィルタ領域を透過した赤外光を検知する第5の受光素子と、
     前記第6のフィルタ領域を透過した赤外光を検知する第6の受光素子と
     を有し、
     前記出力部は、
     前記第1の受光素子で検知された第1の受光データ、前記第2の受光素子で検知された第2の受光データ、前記第3の受光素子で検知された第3の受光データ、前記第4の受光素子で検知された第4の受光データ、前記第5の受光素子で検知された第5の受光データ及び前記第6の受光素子で検知された第6の受光データを出力する
     ことを特徴とする請求項4に記載のセンサモジュール。
  6.  前記出力部は、
     前記第1の受光データ、前記第2の受光データ、前記第3の受光データ及び前記第4の受光データを小振幅差動信号方式の信号として並列出力する
     ことを特徴とする請求項5に記載のセンサモジュール。
  7.  前記出力部は、
     前記第1の受光データ、前記第2の受光データ、前記第3の受光データ、前記第4の受光データ、前記第5の受光データ及び前記第6の受光データを小振幅差動信号方式の信号として並列出力する
     ことを特徴とする請求項5に記載のセンサモジュール。
  8.  前記発光部は、
     前記第1の波長帯域、前記第2の波長帯域及び前記第3の波長帯域を含む白色光を発光する可視光発光素子と
     前記第4の波長帯域の赤外光を発光する第1の赤外光発光素子と、
     前記第4の波長帯域と異なる第5の波長帯域の赤外光を発光する第2の赤外光発光素子と、
     前記第4の波長帯域及び前記第5の波長帯域と異なる第6の波長帯域の赤外光を発光する第3の赤外光発光素子と
     前記第1の赤外光発光素子を第1の発光タイミングで発光させ、該第1の発光タイミングと異なる第2の発光タイミングで前記第2の赤外光発光素子を発光させ、該第1の発光タイミング及び該第2の発光タイミングと異なる第3の発光タイミングで前記第3の赤外光発光素子を発光させるよう制御する制御部と
     を備えたことを特徴とする請求項5に記載のセンサモジュール。
  9.  前記出力部は、
     前記第1の発光タイミングに応答して前記第1の受光データ、前記第2の受光データ、前記第3の受光データ及び前記第4の受光データを小振幅差動信号方式の信号として並列出力し、前記第2の発光タイミングに応答して前記第1の受光データ、前記第2の受光データ、前記第3の受光データ及び前記第4の受光データを小振幅差動信号方式の信号として並列出力し、前記第3の発光タイミングに応答して前記第1の受光データ、前記第2の受光データ、前記第3の受光データ及び前記第4の受光データを小振幅差動信号方式の信号として並列出力する
     ことを特徴とする請求項8に記載のセンサモジュール。
  10.  前記発光部は、
     紫外光を含む光を発光する紫外光発光素子と、
     前記紫外光発光素子から発光された光のうち可視光及び赤外光の少なくとも一つの光を遮断する紫外光透過フィルタと
     を備え、
     前記制御部は、
     前記第1の発光タイミング、前記第2の発光タイミング及び前記第3の発光タイミングのいずれとも異なる第4の発光タイミングで前記紫外光発光素子を発光させるよう制御する
     ことを特徴とする請求項8に記載のセンサモジュール。
  11.  前記発光部は、
     一又は複数の入力端部から入光した前記白色光、前記第4の波長帯域の赤外光、前記第5の波長帯域の赤外光及び前記第6の波長帯域の赤外光を所定の出力端部に導光する導光体
     をさらに備えたことを特徴とする請求項8に記載のセンサモジュール。
  12.  前記発光部は、
     前記第1の波長帯域、前記第2の波長帯域及び前記第3の波長帯域を含む白色光を発光する可視光発光素子と、
     赤外光を発光する赤外光発光素子と、
     前記可視光発光素子及び前記赤外光発光素子を、発光タイミングを重ねて発光させるよう発光タイミングを制御する制御部と
     を有することを特徴とする請求項5~7のいずれか一つに記載のセンサモジュール。
  13.  前記可視光発光素子は、
     前記第1の波長帯域の可視光を発光する第1の可視光発光素子と、
     前記第2の波長帯域の可視光を発光する第2の可視光発光素子と、
     前記第3の波長帯域の可視光を発光する第3の可視光発光素子と
     を含み、
     前記制御部は、
     前記第1の可視光発光素子、前記第2の可視光発光素子及び前記第3の可視光発光素子及び前記赤外光発光素子を、発光タイミングを重ねて発光させるよう制御する
     ことを特徴とする請求項12に記載のセンサモジュール。
  14.  前記赤外光発光素子は、
     前記第4の波長帯域の赤外光を発光する第1の赤外光発光素子と、
     前記第4の波長帯域と異なる第5の波長帯域の赤外光を発光する第2の赤外光発光素子と、
     前記第4の波長帯域及び前記第5の波長帯域と異なる第6の波長帯域の赤外光を発光する第3の赤外光発光素子と
     を含んだことを特徴とする請求項12に記載のセンサモジュール。
  15.  前記発光部は、
     紫外光を含む光を発光する紫外光発光素子と、
     前記紫外光発光素子から発光された光のうち可視光及び赤外光の少なくとも一つの光を遮断する紫外光透過フィルタと
     を備え、
     前記制御部は、
     前記可視光発光素子及び前記赤外光発光素子を第1の発光タイミングに重ねて発光させるよう制御するとともに、該第1の発光タイミングと異なる第2の発光タイミングで前記紫外光発光素子を発光させるよう制御する
     ことを特徴とする請求項12に記載のセンサモジュール。
  16.  前記発光部は、
     一又は複数の入力端部から入光した前記白色光、前記第4の波長帯域の赤外光、前記第5の波長帯域の赤外光及び前記第6の波長帯域の赤外光を所定の出力端部に導光する導光体
     をさらに備えたことを特徴とする請求項12に記載のセンサモジュール。
  17.  搬送される紙葉類で反射した可視光及び赤外光若しくは該紙葉類を透過した可視光及び赤外光を検出するセンサモジュールと、該センサモジュールで検出した可視光及び赤外光に基づいて前記紙葉類に係る画像を形成処理する画像形成処理部とを有する紙葉類処理装置であって、
     前記センサモジュールは、
     少なくとも可視光及び赤外光を含む光を発光する発光部と、
     前記発光部から発光された光が搬送される紙葉類で反射する反射光、該紙葉類を透過する透過光を含む光のうち、複数の異なる波長帯域の可視光をそれぞれ透過しつつ他の波長帯域の可視光及び赤外光を遮断する複数のフィルタ領域と、一又は複数の波長帯域の赤外光を透過しつつ前記可視光を遮断する一又は複数のフィルタ領域とを有するフィルタと、
     各フィルタ領域をそれぞれ透過する複数の異なる波長帯域の可視光並びに一又は複数の異なる波長帯域の赤外光を検知する複数の受光素子を有する受光部と、
     前記複数の受光素子で検知された各受光データを前記画像形成処理部に対して出力する出力部と
     を備えたことを特徴とする紙葉類処理装置。
  18.  前記画像形成処理部は、
     前記複数の受光素子で検知された各受光データを並列に入力し、入力された各受光データに基づいて、複数の異なる波長帯域ごとの可視光の画像及び赤外光の画像を形成する
     ことを特徴とする請求項17に記載の紙葉類処理装置。
  19.  前記発光部は、
     前記可視光及び赤外光を第1の発光タイミングに重ねて発光するよう制御するとともに、該第1の発光タイミングと異なる第2の発光タイミングで前記可視光及び赤外光と波長帯域が異なる励起光を発光し、
     前記受光部は、
     前記複数の受光素子で、前記発光部から発光された励起光に応答して前記紙葉類から放出される光を検知する
     ことを特徴とする請求項17に記載の紙葉類処理装置。
  20.  前記受光部は、
     前記複数の受光素子が、前記紙葉類の主走査方向又は副走査方向の一列に配置されるか、若しくは、主走査方向及び副走査方向の複数列に配置される
     ことを特徴とする請求項17~19のいずれか一つに記載の紙葉類処理装置。
PCT/JP2015/074740 2014-09-03 2015-08-31 受光センサ、センサモジュール及び紙葉類処理装置 WO2016035760A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US15/508,527 US10677646B2 (en) 2014-09-03 2015-08-31 Light receiving sensor, sensor module, and paper sheet handling apparatus
EP15837733.3A EP3197142B1 (en) 2014-09-03 2015-08-31 Light-receiving sensor, sensor module, and paper sheet processing device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-178791 2014-09-03
JP2014178791A JP6633268B2 (ja) 2014-09-03 2014-09-03 センサモジュール及び紙葉類処理装置

Publications (1)

Publication Number Publication Date
WO2016035760A1 true WO2016035760A1 (ja) 2016-03-10

Family

ID=55439821

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/074740 WO2016035760A1 (ja) 2014-09-03 2015-08-31 受光センサ、センサモジュール及び紙葉類処理装置

Country Status (4)

Country Link
US (1) US10677646B2 (ja)
EP (1) EP3197142B1 (ja)
JP (1) JP6633268B2 (ja)
WO (1) WO2016035760A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017167697A (ja) * 2016-03-15 2017-09-21 グローリー株式会社 紙葉類識別装置および紙葉類識別方法
WO2021193465A1 (ja) * 2020-03-23 2021-09-30 グローリー株式会社 光学センサ及び紙葉類識別装置

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017038015A1 (ja) * 2015-08-28 2017-03-09 パナソニックIpマネジメント株式会社 撮像装置および撮像方法
CN109155091B (zh) 2017-03-23 2021-08-10 株式会社维纳科斯 紫外线荧光色检测装置以及紫外线荧光色检测方法
JP2018169881A (ja) * 2017-03-30 2018-11-01 グローリー株式会社 記番号読取装置、紙葉類識別装置、紙葉類処理装置、及び記番号読取方法
WO2019082251A1 (ja) * 2017-10-23 2019-05-02 グローリー株式会社 光センサ、光センサモジュール及び紙葉類処理装置
JP6741173B2 (ja) * 2017-12-08 2020-08-19 日本製鉄株式会社 形状検査装置及び形状検査方法
JP7111494B2 (ja) * 2018-04-05 2022-08-02 グローリー株式会社 光検出センサ、光検出装置、シート類処理装置および光検出方法
US10687034B1 (en) * 2018-04-23 2020-06-16 Facebook Technologies, Llc Image sensor with switchable optical filter
GB2577735B (en) * 2018-10-05 2021-09-22 Innovative Tech Ltd Banknote imaging
WO2020208806A1 (ja) * 2019-04-12 2020-10-15 グローリー株式会社 画像取得装置、紙葉類処理装置及び画像取得方法
JP7418542B2 (ja) * 2020-02-18 2024-01-19 グローリー株式会社 光学センサ、紙葉類識別装置及び紙葉類処理装置
CN117146972B (zh) * 2023-10-25 2023-12-29 中诚华隆计算机技术有限公司 一种基于soc芯片的红外测试方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06204444A (ja) * 1993-01-01 1994-07-22 Canon Inc イメージセンサ
JP2003046726A (ja) * 2001-07-30 2003-02-14 Kanegafuchi Chem Ind Co Ltd 紙葉類の印刷パターン読取装置
JP2003110801A (ja) * 2001-09-28 2003-04-11 Fuji Photo Film Co Ltd 画像読取装置
JP2005072976A (ja) * 2003-08-25 2005-03-17 Konica Minolta Business Technologies Inc 画像読取装置
JP2006148690A (ja) * 2004-11-22 2006-06-08 Toyota Central Res & Dev Lab Inc 撮像装置
WO2010119650A1 (ja) * 2009-04-13 2010-10-21 Necエンジニアリング株式会社 画像読取装置

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NO893323D0 (no) * 1989-08-18 1989-08-18 Inter Marketing Oy Optisk ekthets-testing av pengesedler og liknende.
US6803955B1 (en) * 1999-03-03 2004-10-12 Olympus Corporation Imaging device and imaging apparatus
JP2001111782A (ja) * 1999-10-12 2001-04-20 Fuji Photo Film Co Ltd 画像読取装置
US8328420B2 (en) * 2003-04-22 2012-12-11 Marcio Marc Abreu Apparatus and method for measuring biologic parameters
WO2004061784A1 (en) * 2002-12-27 2004-07-22 Japan Cash Machine Co., Ltd. Optical sensing device for detecting optical features of valuable papers
EP1587030A4 (en) * 2003-01-23 2011-05-18 Aruze Corp IDENTIFICATION SENSOR
JP4334911B2 (ja) * 2003-05-28 2009-09-30 ローレル精機株式会社 紙幣画像検出装置
EP1730706A1 (en) * 2004-03-08 2006-12-13 Council Of Scientific And Industrial Research Improved fake currency detector using integrated transmission and reflective spectral response
KR101333278B1 (ko) * 2004-03-09 2013-12-02 카운슬 오브 사이언티픽 앤드 인더스트리얼 리서치 시각적인 반사 스펙트럼 반응을 이용한 향상된 위조 화폐 검출기
US20050227853A1 (en) * 2004-04-02 2005-10-13 Ranjit Kumar Catalyst compositions comprising metal phosphate bound zeolite and methods of using same to catalytically crack hydrocarbons
US7460160B2 (en) * 2004-09-24 2008-12-02 Microsoft Corporation Multispectral digital camera employing both visible light and non-visible light sensing on a single image sensor
US20060279745A1 (en) * 2005-06-13 2006-12-14 Wenstrand John S Color imaging system for locating retroreflectors
US7489456B2 (en) * 2007-05-02 2009-02-10 International Currency Technologies Corporation Lens module
KR100863497B1 (ko) * 2007-06-19 2008-10-14 마루엘에스아이 주식회사 이미지 감지 장치, 이미지 신호 처리 방법, 광 감지 소자, 제어 방법 및 화소 어레이
US7909244B2 (en) * 2007-12-20 2011-03-22 Ncr Corporation Methods of operating an image-based self-service check depositing terminal to provide enhanced check images and an apparatus therefor
KR101475464B1 (ko) 2008-05-09 2014-12-22 삼성전자 주식회사 적층형 이미지 센서
AU2009277649A1 (en) * 2008-07-28 2010-02-04 Universal Entertainment Corporation Game system
KR100978229B1 (ko) * 2008-07-31 2010-08-30 한국조폐공사 특수 파장에 따라 색이 변하는 보안색사가 내재된보안용지와 이를 이용한 제조방법
US8629916B2 (en) * 2008-08-19 2014-01-14 Rohm Co., Ltd. Camera with imaging unit and imaging unit for camera
WO2011156507A1 (en) * 2010-06-08 2011-12-15 Edward Hartley Sargent Stable, sensitive photodetectors and image sensors including circuits, processes, and materials for enhanced imaging performance
JP5544257B2 (ja) 2010-09-21 2014-07-09 株式会社ヴィーネックス 光学ラインセンサ装置
EP2725617A4 (en) * 2011-06-24 2015-02-25 Boly Media Comm Shenzhen Co HYBRID MULTISPECTIVE LIGHT-SENSITIVE PIXEL GROUP, LIGHT-SENSITIVE DEVICE AND LIGHT-SENSITIVE SYSTEM
CA2840267C (en) * 2011-06-24 2017-11-14 Boly Media Communications (Shenzhen) Co., Ltd Multi-depth-of-field light-sensing device, system, depth of field extension method, and optical imaging system
JP5518953B2 (ja) * 2011-08-09 2014-06-11 キヤノン・コンポーネンツ株式会社 イメージセンサユニットおよび画像読取装置
JP2013070225A (ja) * 2011-09-22 2013-04-18 Seiko Epson Corp 媒体処理装置、媒体処理装置の制御方法
US9143704B2 (en) * 2012-01-20 2015-09-22 Htc Corporation Image capturing device and method thereof
JP5529318B2 (ja) * 2012-04-04 2014-06-25 キヤノン・コンポーネンツ株式会社 照明装置、イメージセンサユニット、画像読取装置、および、紙葉類鑑別装置
JP6011778B2 (ja) * 2012-05-22 2016-10-19 株式会社富士通ゼネラル 暗視撮像装置および赤外線照射装置および暗視撮像システム
US20140168372A1 (en) * 2012-12-17 2014-06-19 Eminent Electronic Technology Corp. Ltd. Sensing apparatus and sensing method for generating three-dimensional image information
WO2014152757A2 (en) * 2013-03-15 2014-09-25 Stryker Corporation Endoscopic light source and imaging system
KR102112298B1 (ko) * 2013-09-30 2020-05-18 삼성전자주식회사 컬러 영상 및 깊이 영상을 생성하는 방법 및 장치
CN106664394B (zh) * 2014-06-24 2018-10-02 麦克赛尔株式会社 摄像处理装置以及摄像处理方法
JP6470404B2 (ja) * 2015-05-22 2019-02-13 オリンパス株式会社 撮像装置
KR101792690B1 (ko) * 2015-12-30 2017-11-03 기산전자(주) 지폐 처리 장치
JP2018028598A (ja) * 2016-08-17 2018-02-22 国立大学法人 熊本大学 セキュリティデバイスおよび認証装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06204444A (ja) * 1993-01-01 1994-07-22 Canon Inc イメージセンサ
JP2003046726A (ja) * 2001-07-30 2003-02-14 Kanegafuchi Chem Ind Co Ltd 紙葉類の印刷パターン読取装置
JP2003110801A (ja) * 2001-09-28 2003-04-11 Fuji Photo Film Co Ltd 画像読取装置
JP2005072976A (ja) * 2003-08-25 2005-03-17 Konica Minolta Business Technologies Inc 画像読取装置
JP2006148690A (ja) * 2004-11-22 2006-06-08 Toyota Central Res & Dev Lab Inc 撮像装置
WO2010119650A1 (ja) * 2009-04-13 2010-10-21 Necエンジニアリング株式会社 画像読取装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3197142A4 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017167697A (ja) * 2016-03-15 2017-09-21 グローリー株式会社 紙葉類識別装置および紙葉類識別方法
EP3425599A4 (en) * 2016-03-15 2019-03-13 Glory Ltd. DEVICE AND METHOD FOR PAPER SHEET DETECTION
WO2021193465A1 (ja) * 2020-03-23 2021-09-30 グローリー株式会社 光学センサ及び紙葉類識別装置

Also Published As

Publication number Publication date
JP2016053783A (ja) 2016-04-14
JP6633268B2 (ja) 2020-01-22
US20170276543A1 (en) 2017-09-28
US10677646B2 (en) 2020-06-09
EP3197142A1 (en) 2017-07-26
EP3197142A4 (en) 2018-04-18
EP3197142B1 (en) 2021-12-08

Similar Documents

Publication Publication Date Title
WO2016035760A1 (ja) 受光センサ、センサモジュール及び紙葉類処理装置
US9841379B2 (en) Fluorescence and phosphorescence detecting apparatus
KR101037430B1 (ko) 검사장치
JP4320656B2 (ja) 画像読取装置
JP6474633B2 (ja) 蛍光燐光検知装置、蛍光燐光検知方法及び紙葉類処理装置
CN101329784A (zh) 检测有价证券光学特征的光检测装置
CN102282592B (zh) 用于检测物体反射和/或发射的光的设备和方法
JP2018169881A (ja) 記番号読取装置、紙葉類識別装置、紙葉類処理装置、及び記番号読取方法
RU2318240C2 (ru) Устройство для проверки банкнот
JP6845302B2 (ja) センサモジュール
EP3680867B1 (en) Image acquisition device, sheet handling device, banknote handling device, and image acquisition method
WO2019035376A1 (ja) 蛍光燐光検知装置及び蛍光燐光検知方法
US20230015962A1 (en) Optical sensor and sheet recognition unit
JP4552331B2 (ja) 媒体判別装置
WO2020208806A1 (ja) 画像取得装置、紙葉類処理装置及び画像取得方法
WO2015029893A1 (ja) 紙幣判別装置
JP7111494B2 (ja) 光検出センサ、光検出装置、シート類処理装置および光検出方法
WO2019082251A1 (ja) 光センサ、光センサモジュール及び紙葉類処理装置
JP7418542B2 (ja) 光学センサ、紙葉類識別装置及び紙葉類処理装置
AU2022411689A1 (en) Sensor and method for examining valuable documents, sensor system and valuable document processing device
JP2010273302A (ja) 画像読取装置
WO2022210372A1 (ja) 重送検知装置及び重送検知方法
JP4505053B2 (ja) 検査装置
JP2005122392A (ja) 紙葉類蛍光検出装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15837733

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2015837733

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2015837733

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 15508527

Country of ref document: US