WO2012115045A1 - 光学的情報読取装置 - Google Patents

光学的情報読取装置 Download PDF

Info

Publication number
WO2012115045A1
WO2012115045A1 PCT/JP2012/053991 JP2012053991W WO2012115045A1 WO 2012115045 A1 WO2012115045 A1 WO 2012115045A1 JP 2012053991 W JP2012053991 W JP 2012053991W WO 2012115045 A1 WO2012115045 A1 WO 2012115045A1
Authority
WO
WIPO (PCT)
Prior art keywords
distance
pattern
distance measuring
light
distance measurement
Prior art date
Application number
PCT/JP2012/053991
Other languages
English (en)
French (fr)
Inventor
賢 福場
Original Assignee
株式会社オプトエレクトロニクス
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社オプトエレクトロニクス filed Critical 株式会社オプトエレクトロニクス
Publication of WO2012115045A1 publication Critical patent/WO2012115045A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/30Systems for automatic generation of focusing signals using parallactic triangle with a base line
    • G02B7/32Systems for automatic generation of focusing signals using parallactic triangle with a base line using active means, e.g. light emitter
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/18Focusing aids
    • G03B13/20Rangefinders coupled with focusing arrangements, e.g. adjustment of rangefinder automatically focusing camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10792Special measures in relation to the object to be scanned
    • G06K7/10801Multidistance reading
    • G06K7/10811Focalisation

Definitions

  • the present invention relates to an optical information reader having a variable focus function and mainly intended to read code symbols such as barcodes and two-dimensional codes, images of landscapes and articles.
  • Bar codes that are one-dimensional code information for the purpose of merchandise management, inventory management, etc., and two-dimensional codes are known as codes with higher information density.
  • code information is photographed with a solid-state image sensor such as a CMOS image sensor or a CCD image sensor, the image is subjected to various processing, and then binarized and decoded. How to do is known.
  • CMOS image sensor used in such a device that reads code information is not functionally different from what is mounted on a digital camera or the like, so it functions as a photographer that normally shoots objects and landscapes. Is required. For example, in the case of inventory management or the like, it is used when an image of a position where the article is stored together with the target article is stored in a database together with code information.
  • the mobile phone is equipped with a small camera using the above-described CMOS image sensor.
  • Most of the camera functions of mobile phones include a barcode / two-dimensional code scanner and an OCR (optical character reader), as well as images of landscapes and people, like ordinary digital cameras. is there. That is, a digital camera having a code symbol imaging / decoding function is widely demanded.
  • the distance to an object to be read such as a code symbol is measured, and the optical system is controlled so that the focal position matches the measured distance.
  • a distance measuring technique using a laser has been proposed (for example, see Patent Document 1).
  • a beam is irradiated to form a spot having a high light intensity on the reading object, and the detection spot position on the reading object is measured. The distance of the reading object is determined from the detected spot position.
  • the user's reading operation can be guided by forming the spot with visible light and matching the spot formation position with the reading position.
  • the spot only indicates one point on the object to be read, it cannot indicate whether the entire code symbol is within the readable range, and if the entire code symbol is not within the readable range, retry. Will be repeated.
  • an optical information reader having an autofocus function is provided with a light source and an optical system for displaying a readable range, the autofocus function can be realized and the readable range can be shown.
  • an independent light source and an optical system are required to indicate the distance measurement and the readable range, which makes it difficult to reduce the size and cost of the apparatus.
  • the present invention has been made to solve such a problem, and an object of the present invention is to provide an optical information reading apparatus capable of speeding up a distance measurement process and reliably performing distance measurement.
  • the present invention provides an imaging optical means having a variable focus optical system, an imaging means for imaging a reading object, a distance measuring means for measuring a distance from the reading object, and a measurement.
  • the distance measuring means comprises a control means for calculating the distance to the reading object using the distance means, controlling the imaging optical means based on the calculated distance information, and imaging the reading object by the imaging means,
  • the distance measuring light for forming a distance measuring pattern in which the light irradiation area and the non-irradiation area are combined is formed on the reading object, and the control means images the distance measuring pattern formed on the reading object by the imaging means.
  • An optical information reading device that obtains an image of a distance measurement pattern, detects a portion where the signal falls according to the intensity of light incident on the imaging means, and performs distance measurement based on the coordinates of the non-irradiated area of the distance measurement pattern It is.
  • a distance measurement light is irradiated, a distance measurement pattern in which a light irradiation area and a non-irradiation area are combined is formed on a reading object, and the distance measurement pattern formed on the reading object is imaged and measured.
  • a distance pattern image is acquired, a portion where the signal falls in the image signal is detected, and the distance to the reading object is obtained based on the coordinates of the non-irradiation area of the distance measurement pattern.
  • the present invention it is possible to increase the processing speed and reliably measure the distance regardless of the change in the amount of peripheral light, the size of the reading object, or the like. If the distance measuring light is visible light, the readable range can be displayed with a single light source and optical system used for distance measurement using the irradiation area of the distance measuring pattern.
  • It is optical path explanatory drawing which shows an example of the optical path of the ranging light by a pattern formation lens.
  • FIG. 1 is a functional block diagram illustrating an example of an optical information reading apparatus according to the present embodiment
  • FIGS. 2 and 3 are perspective views illustrating an implementation example of the optical information reading apparatus according to the present embodiment
  • FIG. 4 is a block diagram showing an example of a distance measuring light emitting unit constituting the optical information reading apparatus of the present embodiment
  • FIG. 5 shows distance measuring constituting the optical information reading apparatus of the present embodiment. It is a block diagram which shows the other example of a light-projection part.
  • the optical information reading apparatus 1A includes a camera unit 10 that images a code symbol 100 that is a reading object, and a decoding that performs control such as imaging, focus adjustment, decoding, and data transfer performed by the camera unit 10.
  • the unit 11 is provided.
  • the optical information reading apparatus 1A is called a code scanner and has a configuration capable of imaging the code symbol 100 written on the label attached to the article or the code symbol 100 written directly on the article.
  • An optical information reading apparatus 1A shown in FIG. 2 is a code scanner called a manual trigger.
  • components such as a camera unit 10 and a decoding unit 11 are mounted on a housing 201 having a grip unit 200 and used. In this configuration, the person can hold the grip portion 200 and point the camera portion 10 toward the code symbol 100 written on the article 300 so that the code symbol 100 can be imaged.
  • An optical information reading apparatus 1A shown in FIG. 3 is a code scanner called an auto trigger.
  • the configuration of the camera unit 10 and the decoding unit 11 is provided on a housing 203 having a mounting unit 202.
  • the code symbol 100 is imaged by directing the code symbol 100 (not shown in FIG. 3) on which the element is mounted and the article 301 to the camera unit 10.
  • the camera unit 10 detects distance of the code symbol 100 that is the object to be read and distance measurement light that forms a distance measuring pattern 101a as shown in FIG. 4 on the object to be read in order to measure the distance to the object to be read.
  • a distance measuring light emitting unit 2 that irradiates Sa or a distance measuring light Sb that forms a distance measuring pattern 101b as shown in FIG.
  • the camera unit 10 includes a solid-state imaging device 3 that captures an image of the distance measurement pattern 101a or the distance measurement pattern 101b formed on the object to be read and an image of the object to be read including the code symbol 100.
  • the camera unit 10 has an illumination light emitting unit 4 that emits illumination light, and an autofocus (variable focus) function that forms an image of natural light or illumination light reflected by the code symbol 100 on the solid-state imaging device 3.
  • An imaging optical unit 5 is provided that forms an image corresponding to the pattern of the code symbol 100 based on a difference in reflectance between, for example, a white portion and a black portion of the pattern constituting the symbol 100.
  • the camera unit 10 also includes a driver 6 that drives the distance measuring light emitting unit 2, the illumination light emitting unit 4, and the imaging optical unit 5.
  • FIG. 6 is an explanatory diagram of parameters necessary for calculating the distance to the reading object. Next, an outline of distance measurement in the optical information reading apparatus 1A of the present embodiment will be described.
  • the distance X to the reading object at any position WD1 to WD3 can be calculated based on the next parameter in FIG. 6 and the following equation (1).
  • X distance from the origin plane O passing through the principal point of the imaging optical unit 5 to the reading object
  • a distance between the optical axes of the ranging light emitting unit 2 and the imaging optical unit 5 at the origin plane
  • O imaging optical unit 5
  • Half-angle of view N Distance from the center of the solid-state image sensor 3 to the short point stretched by the half-field angle
  • n Position at which the ranging light is reflected in the imaging area of the solid-state image sensor 3
  • Ranging light emitting unit 2 Between the optical axis of the imaging optical unit 5 and the origin plane O
  • the distance to the reading object is the pixel of the solid-state imaging element 3 that images the distance measuring light.
  • a signal that can detect the coordinates of the pixels of the solid-state imaging device 3 that has imaged the distance measurement light by image processing exists at the distance measurement position P to which the distance measurement light is irradiated. It is a condition.
  • 101a is formed on the reading object.
  • a distance measuring pattern 101b in which the light irradiation area 102b and the non-irradiation area 103b are combined is formed on the reading object by the distance measuring light Sb emitted from the distance measuring light emitting section 2. .
  • the distance measuring pattern 101a shown in FIG. 4 is formed by a pattern in which the irradiation region 102a has a horizontal direction that is one direction and has a predetermined width at least in the horizontal direction. Further, the distance measurement pattern 101a is a non-irradiation region in a pattern in which the solid-state imaging device 3 can detect the falling and rising of a signal at least at one position between the irradiation regions 102a, in this example, the central portion of the irradiation region 102a. 103a is provided so that at least one signal drop portion exists in the distance measurement pattern 101a.
  • the falling edge signal is detected from the signal output from the solid-state imaging device 3 by imaging the distance measuring pattern 101a. Rising signals that are close to each other with a predetermined width are obtained, and distance measurement processing is enabled by the falling signals and the image signals of the rising signals.
  • the distance measurement pattern 101a shown in FIG. 5 is formed with a pattern in which the irradiation region 102b spreads in one horizontal direction and has a predetermined width in at least the horizontal direction.
  • the distance measurement pattern 101b is a non-irradiation area in a pattern in which the signal image can be detected by the solid-state imaging device 3 at least at one position between the irradiation areas 102b, in this example, at the center of the irradiation area 102b.
  • 103b is provided so that at least one signal drop portion exists in the distance measurement pattern 101b.
  • the distance measuring pattern 101b when the distance measuring pattern 101b is viewed from one direction in the horizontal direction, from the signal output from the solid-state imaging device 3 by imaging the distance measuring pattern 101b, the falling signal and the falling signal are detected. Rising signals that are close to each other with a predetermined width are obtained, and distance measurement processing is enabled by the falling signals and the image signals of the rising signals.
  • FIG. 7 is a graph showing the relationship between the distance to the reading object and the signal intensity according to the distance measurement pattern incident on the solid-state image sensor.
  • the distance measurement pattern 101a or the distance measurement imaged by the solid-state image sensor 3 for each distance A signal intensity distribution obtained by scanning the pattern 101b in the horizontal direction of the pixels of the solid-state imaging device 3 is shown.
  • the position where the ranging light reflected by the reading object enters in the imaging area of the solid-state imaging device 3 changes according to the distance to the reading object. Therefore, when the distance measuring pattern 101a shown in FIG. 4 or the distance measuring pattern 101b shown in FIG. 5 formed on the reading object is imaged by the solid-state image sensor 3, the distance measuring pattern 101a in the imaging area of the solid-state image sensor 3. Alternatively, the position where the distance measuring pattern 101b is incident changes according to the distance to the reading object.
  • the optical information reading apparatus 1A when the distance measurement pattern 101a having the non-irradiation region 103a or the distance measurement pattern 101b having the non-irradiation region 103b is imaged by the solid-state image sensor 3, the image of the solid-state image sensor 3 is captured.
  • the position of the non-irradiation region 103a of the distance measurement pattern 101a or the non-irradiation region 103b of the distance measurement pattern 101b in the area changes according to the distance to the reading object.
  • the portion where the signal output from the solid-state imaging device 3 falls at a level corresponding to the intensity of light incident on the imaging area of the solid-state imaging device 3 depends on the distance to the reading object. Change.
  • the optical information reading apparatus 1A a portion where the signal output from the solid-state imaging device 3 falls is detected, and the portion where the signal falls is used as a distance measurement signal portion SgD, and the non-irradiation region 103a of the distance measurement pattern 101a, Alternatively, by detecting the coordinates of the pixel of the solid-state imaging device 3 that images the non-irradiated region 103b of the distance measuring pattern 101b, the distance to the reading object is calculated from the above-described parameters and the equation (1).
  • the distance measurement pattern 101a or the distance measurement pattern 101b formed on the reading object exists as a portion where the signal indicating the non-irradiation region 103a or the non-irradiation region 103b falls, and the non-irradiation region 103a or the non-irradiation region
  • a signal capable of detecting the coordinates of the pixels of the solid-state imaging device 3 that has imaged the region 103b by image processing is present at the distance measurement position P to which the distance measurement light Sa or the distance measurement light Sb is irradiated. Distance can be done.
  • the reading range can be visually recognized using the irradiation area 102a of the distance measuring pattern 101a or the irradiation area 102b of the distance measuring pattern 101b. .
  • 8A and 8B are configuration diagrams showing an example of the shape of the distance measurement pattern. 8A and 8B, the distance measurement pattern formed by the optical system shown in FIG. 4 will be described as an example, but the distance measurement pattern formed by the optical system shown in FIG. 5 is the same.
  • the non-irradiation region 103a which is the distance measurement position P in the distance measurement pattern 101a, be provided at the center of the distance measurement pattern 101a. This is because, as shown in FIG. 8A, when the object to be read is a code symbol 100a smaller than the distance measuring pattern 101a, the code symbol 100a is generally likely to be aligned with the center of the distance measuring pattern 101a. This is to improve the accuracy of distance measurement by forming a non-irradiation region 103a that is a distance measurement position P on the code symbol 100a.
  • the reading depth can be easily determined by indicating the readable range by the distance measurement pattern 101a, and the operability can be improved. Therefore, it is desirable to form the distance measurement pattern 101a having a width in the horizontal direction at least, rather than irradiating only the distance measurement pattern 101a to the central portion.
  • the distance measuring light emitting unit 2 is an example of distance measuring means, and forms a distance measuring light Sa that forms a distance measuring pattern 101a or a distance measuring pattern 101b from a light source 20 that emits light and light emitted from the light source 20.
  • a pattern forming lens 21 that converts the distance measuring light Sb to be measured is provided.
  • the light source 20 includes a light emitting diode (LED) that emits light having a wavelength in the visible region.
  • the example shown in FIG. 5 is configured by a semiconductor laser (LD) that emits light having a wavelength in the visible region.
  • LD semiconductor laser
  • the light source 20 is preferably an LED light source or a laser light source having a high intensity with a pulse as described above.
  • FIG. 9 is a perspective view showing an example of a pattern forming lens
  • FIG. 10 is an optical path explanatory view showing an example of an optical path of distance measuring light by the pattern forming lens
  • FIG. 11 is an irradiation region and a non-irradiation region by the pattern forming lens. It is an optical path explanatory drawing which shows a formation principle, and next, an example of the optical system which forms the ranging pattern 101a or the ranging pattern 101b is demonstrated with reference to each figure.
  • An optical system having a predetermined angle ⁇ is configured.
  • the distance measuring pattern 101a or the distance measuring pattern 101b is made of visible light
  • the irradiation area 102a of the distance measuring pattern 101a or the irradiation area 102b of the distance measuring pattern 101b is the imaging optical unit.
  • the optical system is configured so as to be a readable range that is determined by the angle of view of 5 and the size of the imaging area of the solid-state imaging device 3 and changes according to the distance to the reading object.
  • the ranging light emitting unit 2 uses the horizontal spread of the light emitted from the light source 20 to form the irradiation region 102a of the ranging pattern 101a or the irradiation region 102b of the ranging pattern 101b.
  • the horizontal emission angle of the light emitted from the light source 20 and the readable range are matched.
  • the non-irradiated area 103b of the distance measuring pattern 101b or the non-irradiated area 103b of the distance measuring pattern 101b is formed in a part of the light emitted from the light source 20 in the horizontal direction.
  • the pattern forming lens 21 transmits the light emitted from the light source 20 and spreading in the horizontal direction while maintaining the radiation angle matched to the readable range, and the light spreading in the vertical direction is refracted into, for example, parallel light.
  • the incident surface 21a is a flat surface
  • the output surface 21b is a flat surface along the horizontal direction
  • the pattern forming lens 21 changes the optical path of a part of the light emitted from the light source 20 by utilizing refraction or reflection of light, and the non-irradiation region 103a of the distance measurement pattern 101a or the distance measurement pattern 101b is not changed.
  • a prism-shaped slit 21c is formed in a part of the emission surface 21b along the vertical direction.
  • the slit 21c is formed by providing a groove having a V-shaped cross section at the central portion along the horizontal direction of the emission surface 21b of the pattern forming lens 21.
  • the refractive index of the pattern forming lens 21 is n 1
  • the refractive index in air is n 2 .
  • the light emitted from the light source 20 and incident on the pattern-forming lens 21 and incident on the output surface 21b other than the portion where the slit 21c is formed is perpendicular to the boundary surface between the output surface 21b and air. Can be considered.
  • the light that is emitted from the light source 20 and spreads in the horizontal direction and is incident on the emission surface 21b other than the portion where the slit 21c is formed is, as shown in the optical path L1 in FIG. 11, the boundary between the emission surface 21b and air.
  • the light does not substantially refract in the horizontal direction on the surface, and passes through the pattern forming lens 21 while maintaining the radiation angle at the light source 20.
  • the light incident on the slit 21c is refracted at a refraction angle ⁇ corresponding to the refractive index of the pattern forming lens 21 and air, where ⁇ is the incident angle to the boundary surface between the exit surface 21b and air. Further, the light is reflected at the boundary surface between the emission surface 21b and the air.
  • the light that is emitted from the light source 20 and spreads in the horizontal direction and is incident on the slit 21c is refracted or reflected at the boundary surface between the emission surface 21b and air, as indicated by the optical paths L2 and L3 in FIG. , The optical path is converted.
  • the pattern forming lens 21 can generate an angle at which light does not radiate with the slit 21c formed at the center. Therefore, in the ranging light emitting unit 2, the light that is emitted from the light source 20 and spreads in the horizontal direction is emitted through the pattern forming lens 21 so as to avoid the central portion in the horizontal direction, as shown in FIG.
  • Ranging light Sa forming a distance measuring pattern 101a in which a non-irradiated area 103a is formed at the center of the irradiated area 102a is emitted.
  • distance measuring light Sb that forms a distance measuring pattern 101b in which a non-irradiation area 103b is formed at the center of the irradiation area 102b is emitted.
  • the pattern forming lens 21 has an angle at which light is not transmitted using total reflection of light, such as by forming a reflective film at the center in the horizontal direction of the emission surface 21b, or by forming a reflective film at the slit 21c. Can also be generated.
  • the solid-state imaging device 3 is an example of an imaging unit, and in this example, is configured by a CMOS (complementary metal oxide semiconductor) image sensor.
  • the solid-state imaging device 3 detects light incident through the imaging optical unit 5 by the imaging device, and outputs a detection signal from each imaging device to the decoding unit 11 as digital image data. Take an image.
  • CMOS complementary metal oxide semiconductor
  • the solid-state imaging device 3 is a global shutter that can release the shutter at the same time for all pixels. Further, in order to increase the processing speed related to the distance measurement pattern, the solid-state imaging device 3 that can process the image of the distance measurement pattern by sub-sampling (ROI function: Region of Interest) is desirable.
  • ROI function Region of Interest
  • FIG. 12 is a functional block diagram illustrating an example of a solid-state image sensor.
  • a CMOS image sensor that is an example of the solid-state image sensor 3 will be described in detail with reference to FIG.
  • the imaging area 30 provided in the solid-state imaging device 3 has each pixel of the pixel unit 31 transfer a photodiode, an FD (floating floating diffusion) region, and a transfer for transferring charges from the photodiode to the FD region.
  • the pixel includes a transistor and a reset transistor for resetting the FD region to a predetermined potential, and a plurality of pixels are formed in a matrix.
  • a vertical shift register 32 for controlling a vertical signal is arranged on a side of a pixel matrix in which pixels are formed in a matrix, and a horizontal shift register 33 for controlling a horizontal signal is provided below the pixel matrix. Is arranged.
  • the vertical shift register 32 and the horizontal shift register 33 are analog circuits that generate voltages necessary for pixel driving. Signals from the vertical shift register 32 and the horizontal shift register 33 are output to the outside via the analog processor 34, the A / D converter 35, and the digital processor 36 in order.
  • the analog processor 34 includes functions such as voltage amplification and gain adjustment, and performs predetermined analog signal processing.
  • the A / D converter 35 converts the analog image signal of the analog processor 34 into a digital image signal.
  • the digital processor 36 includes functions such as noise cancellation and data compression, performs digital processing on the digital image signal from the A / D converter 125, and outputs the processed digital image signal to the outside.
  • the control register 37 inputs / outputs external signals, causes the timing controller 38 to synchronize the clock timings of the analog processor 34 and the digital processor 36, and outputs image data from the pixels of the pixel unit 31 in a predetermined order. .
  • a global shutter that controls the start and stop of charge accumulation according to the amount of received light in each pixel at all pixels.
  • a plurality of comparators for individually comparing a value corresponding to the accumulated charge in each pixel with a common reference value, a terminal for outputting a logical sum signal of these output signals, and the like are provided.
  • the global shutter is controlled to stop accumulating the charge in each pixel.
  • the illumination light emitting unit 4 is an example of an illumination unit, and illuminates the reading object with illumination light Sc under the control of the decoding unit 11. Irradiation of the illumination light Sc is performed by irradiation of pulsed light synchronized with the imaging frame of the solid-state imaging device 3, and by adjusting the irradiation time, solid-state imaging is performed by reflected light from the reading object within an imaging period of one frame. The amount of charge accumulated in each photodiode of the element 3 can be adjusted. That is, if the illumination time is lengthened, the image obtained by imaging by the solid-state imaging device 3 becomes a bright image, and if it is shortened, the image becomes a dark image.
  • the imaging optical unit 5 is an example of imaging optical means, and includes an imaging lens 50 and a variable focus lens 51.
  • the imaging lens 50 is a fixed focus lens that includes one or a plurality of glass or plastic optical lenses.
  • the variable focus lens 51 may include, for example, a mechanism that mechanically moves one or a plurality of optical lenses along the optical axis, and may realize an autofocus function.
  • the variable focus lens 51 is configured by a liquid crystal lens or a liquid lens capable of adjusting a focal length by an applied voltage, as an autofocus function without using a mechanism for mechanically moving the lens. May be.
  • FIG. 13 is a block diagram showing the concept of a liquid crystal lens.
  • the liquid crystal lens 51 a has a configuration in which a liquid crystal layer 53 having a homogeneous (non-twisted) molecular arrangement is sealed between glass plates 54, and transparent electrodes 55 a and 55 b made of metal oxide are formed on each glass plate 54.
  • the liquid crystal lens 51a applies a voltage to the transparent electrodes 55a and 55b and adjusts the applied voltage, whereby the alignment state of the liquid crystal molecules 53a changes.
  • the liquid crystal lens 51a changes the refractive index by changing the alignment state of the liquid crystal molecules 53a, and the focal length changes by changing the refractive index. As a result, the liquid crystal lens 51a can adjust the voltage to be applied to move the focal position and perform focusing.
  • FIG. 14 is a block diagram showing the concept of a liquid lens.
  • a highly conductive aqueous solution 56 and an insulating oil 57 are sealed in a container 58 having two transparent windows that transmit light.
  • the liquid lens 51b includes an electrode 59a that is in contact with the aqueous solution 56, and an electrode 59b that is in contact with both the aqueous solution 56 and the oil 57 via an insulating portion.
  • the liquid lens 51 b can change the shape of the boundary surface 56 a between the aqueous solution 56 and the oil 57 when electricity is applied from the electrodes 59 a and 59 b and a voltage is applied to the aqueous solution 56. Such a phenomenon is called an electrowetting phenomenon.
  • an electrowetting phenomenon By changing the curvature of the boundary surface 56 a between the aqueous solution 56 and the oil 57, the focal position can be moved and focusing can be performed.
  • the optical information reading apparatus 1A is, as shown in FIG. 1, as temperature detecting means for detecting the temperature in the vicinity of the variable focus lens 51 and the variable focus lens 51 constituted by the liquid crystal lens 51a or the liquid lens 51b.
  • a temperature sensor 7 is provided in the camera unit 10.
  • the optical information reader 1A uses the temperature sensor 7 to determine the focal position of the liquid crystal lens 51a or the liquid lens 51b derived from the distance information to the code symbol 100 obtained by emitting the distance measuring light from the distance measuring light emitting unit 2. Corrects the detected temperature information to achieve accurate autofocus.
  • the decoding unit 11 is an example of a control unit.
  • the decoding unit 11 is used as a work area when the CPU 12, the ROM 13 that stores programs and tables executed by the CPU 12, and the CPU 12 executes various processes.
  • RAM 14 is provided.
  • ASIC Application Specific Circuit
  • the ROM 13 can be a flash ROM (FROM)
  • the RAM 14 can be an SDRAM (Synchronous Dynamic Random Access Memory).
  • the CPU 12 controls the overall operation of the optical information reading apparatus 1A by executing a program stored in the ROM 13 using the RAM 14 as a work area, and also reads an object to be read based on digital image data imaged by the solid-state imaging device 3. Detection, detection of the distance to the object to be read, focus control based on the obtained distance, decoding of the code symbol 100, output of the decoding result to the outside or accumulation, etc. are performed.
  • FIG. 15 and FIG. 16 are flowcharts showing the code symbol reading operation in the optical information reading apparatus of the present embodiment.
  • the optical information reading apparatus 1A of the present embodiment will be described. The operation will be described.
  • FIG. 15 shows a reading operation by a code scanner called a manual trigger shown in FIG. 2
  • FIG. 16 shows a reading operation by a code scanner called an auto trigger shown in FIG.
  • the reading operation by the manual trigger code scanner will be described.
  • the CPU 12 controls the distance measuring light emitting unit 2 to control the distance measuring light Sa or the distance measuring light Sb in step SA2.
  • Irradiation is started, and the solid-state imaging device 3 is controlled to start imaging the distance measuring pattern 101a shown in FIG. 4 or the distance measuring pattern 101b shown in FIG.
  • step SA3 in FIG. 15 the CPU 12 calculates the exposure from the image acquired by imaging the distance measurement pattern 101a or the distance measurement pattern 101b with the solid-state imaging device 3. Further, as described above, the non-irradiation region 103a or the non-irradiation region 103b, which is a distance measurement position, is detected at the falling edge of the signal and the rising edge of the signal. Then, the distance to the reading object is calculated from the coordinates of the non-irradiation region 103a or the non-irradiation region 103b.
  • step SA4 of FIG. 15 the CPU 12 controls the irradiation time of the illumination light Sc by the illumination light emitting unit 4 to adjust the exposure, and also controls the imaging optical unit 5 to focus on the code symbol 100 that is a reading object.
  • Match In the configuration in which the variable focus lens 51 constituting the imaging optical unit 5 is the liquid crystal lens 51a or the liquid lens 51b, a distance-voltage table (not shown) based on the distance to the reading object and the temperature detected by the temperature sensor 7. Set the applied voltage with reference to and focus.
  • step SA5 of FIG. 15 the CPU 12 controls the solid-state imaging device 3 to start imaging of the code symbol 100 that is a reading target to be decoded, and includes the code symbol 100 from the solid-state imaging device 3 in step SA6.
  • the image of the reading object is transferred to the decoding unit 11.
  • the CPU 12 determines whether the image transferred from the solid-state imaging device 3 is a decodable image. If it is determined that the image transferred from the solid-state image pickup device 3 is not a decodable image, the process returns to step SA2, and distance measurement light irradiation, distance measurement, and imaging of the reading object are performed.
  • step SA8 the CPU 12 starts the decoding process in step SA8 in FIG. 15, and determines that the decoding process is possible in step SA9. Then, the code symbol 100 is decoded and the reading process is terminated. If it is determined in step SA9 that the decoding process is not possible, the process returns to step SA2 to perform irradiation of distance measuring light, distance measurement, and imaging of the reading object.
  • step SB2 the CPU 12 controls the distance measuring light emitting unit 2 to start irradiation of the distance measuring light Sa or the distance measuring light Sb.
  • the solid-state imaging device 3 is controlled to start imaging the distance measuring pattern 101a shown in FIG. 4 or the distance measuring pattern 101b shown in FIG.
  • step SB3 of FIG. 16 the CPU 12 determines from the output of the solid-state imaging device 3 whether there is an image signal from the reading object, and when determining that there is no image signal from the reading object, the CPU 12 returns to step SB2. Distance light irradiation and imaging are performed.
  • step SB4 in FIG. 16 the CPU 12 calculates the exposure from the image obtained by imaging the distance measurement pattern 101a or the distance measurement pattern 101b with the solid-state image sensor 3. . Further, the non-irradiation region 103a or the non-irradiation region 103b is detected, and the distance to the reading object is calculated from the coordinates of the non-irradiation region 103a or the non-irradiation region 103b.
  • step SB5 of FIG. 16 the CPU 12 controls the irradiation time of the illumination light Sc by the illumination light emitting unit 4 to adjust the exposure, and controls the imaging optical unit 5 to focus on the code symbol 100 that is a reading object. Match.
  • step SB6 of FIG. 16 the CPU 12 controls the solid-state imaging device 3 to start imaging of the code symbol 100 that is a reading object to be decoded, and includes the code symbol 100 from the solid-state imaging device 3 in step SB7.
  • the image of the reading object is transferred to the decoding unit 11.
  • step SB8 in FIG. 16 the CPU 12 determines whether the image transferred from the solid-state imaging device 3 is a decodable image. If it is determined that the image transferred from the solid-state imaging device 3 is not a decodable image, the process returns to step SB5, and exposure adjustment, focus adjustment, and imaging of the reading object are performed.
  • step SB9 the image transferred from the solid-state imaging device 3 is a decodable image
  • the CPU 12 starts decoding processing in step SB9 in FIG. 16, and determines that decoding processing is possible in step SB10. Then, the code symbol 100 is decoded and the reading process is terminated. If it is determined in step SB10 that the decoding process is not possible, the process returns to step SB5, and exposure adjustment, focus adjustment, and imaging of the reading object are performed.
  • FIG. 17 is a flowchart showing an example of a distance measuring operation in the optical information reading apparatus of this embodiment
  • FIG. 18 is an explanatory diagram showing the relationship between the distance measuring pattern and the area to be captured
  • FIG. 19 is an image of the distance measuring pattern.
  • FIG. 15 is an explanatory diagram illustrating an example of an image signal obtained in this manner.
  • step SC1 of FIG. 17 the CPU 12 controls the distance measuring light emitting unit 2 to start irradiation of the distance measuring light Sa or the distance measuring light Sb.
  • step SC2 the CPU 12 controls the solid-state imaging device 3 to read Imaging of the distance measurement pattern 101a or the distance measurement pattern 101b formed on the object is started.
  • the irradiation of the distance measurement light Sa or the distance measurement light Sb is ended in step SC3, and in step SC4, the image of the distance measurement pattern 101a or the distance measurement pattern 101b is displayed. take in.
  • the CPU 12 scans the predetermined sampling area E1 of the distance measurement image as shown in FIG. 18 in step SC5 of FIG.
  • the ranging pattern 101a or ranging pattern 101b is a signal having a width in the horizontal direction, and as shown in FIG. 18, the sampling area E1 is set in accordance with the shape of the ranging pattern 101a or ranging pattern 101b. Then, for example, until the non-irradiation region 103a or the non-irradiation region 103b can be detected from the vicinity of the center of the image acquired by the solid-state image pickup device 3, that is, the signal drop portion that is the distance measurement signal unit SgD shown in FIG. Scan sequentially until possible.
  • step SC6 of FIG. 17 the CPU 12 determines whether or not the captured image has a signal of the distance measurement pattern 101a or the distance measurement pattern 101b. If it is determined that there is no signal of the distance measurement pattern 101a or the distance measurement pattern 101b, the process is terminated.
  • step SC8 in FIG. 17 the CPU 12 refers to the distance measurement table set in advance based on the above-described parameters and the expression (1), and the code which is the reading object.
  • the distance to the symbol 100 is obtained, and in step SC9, the imaging optical unit 5 is controlled to adjust the focus.
  • the distance measuring pattern 101a is irradiated with the distance measuring light Sa (Sb) and the non-irradiation area 103a (103b) is provided between the light irradiation areas 102a (102b).
  • (101b) is formed on the object to be read, and from the image signal obtained by imaging the distance measurement pattern 101a (101b), a signal drop portion is detected to obtain a signal necessary for distance measurement, and the distance to the object to be read is determined. Therefore, regardless of the change in the amount of peripheral light, the size of the object to be read, and the like, the processing speed can be increased and the distance can be reliably measured.
  • the range-finding light Sa (Sb) is visible light, and the irradiation area 102a (102b) is a readable range corresponding to the angle of view of the imaging optical unit 5, the size of the pixel portion of the imaging area of the solid-state imaging device 3, and the like. Therefore, the readable range can be displayed with a single light source and optical system used for distance measurement.
  • the distance measuring pattern 101a (101b) can be formed using an optical lens such as a cylindrical lens, the cost can be reduced as compared with an optical system using a diffraction grating or a hologram.
  • FIGS. 21A and 21B are explanatory diagrams illustrating problems of a conventional distance measuring method as a comparative example. Next, the details of the effect of distance measurement using the portion where the signal falls will be described.
  • the exposure may be saturated by the first imaging.
  • step SA3 in FIG. 15 or step SB4 in FIG. 16 the exposure is calculated from the image acquired by imaging the distance measurement pattern 101a or the distance measurement pattern 101b with the solid-state imaging device 3, and the exposure is saturated.
  • the signal is not capable of ranging, exposure is corrected to obtain a signal capable of ranging.
  • FIG. 21A in the conventional distance measuring method for detecting a spot-like strong signal Sp4 set for distance measurement, when the exposure is saturated, a peak of the signal intensity is detected as shown in FIG. 21B. It is not possible to obtain a signal necessary for ranging. When detecting a signal intensity peak, the allowable exposure value is narrow and exposure correction is required, which hinders speeding up of the distance measurement process.
  • the optical information reading apparatus 1A of the present invention that performs distance measurement using the portion where the signal falls, even if the exposure is saturated, as shown in FIG.
  • the ranging signal portion SgD can be detected from the falling edge of the signal and the rising edge of the signal, and the coordinates of the drop portion of the signal can be uniquely obtained.
  • the distance measuring method according to the present embodiment for detecting the drop of the signal has a wider allowable exposure value of the signal that can be measured, compared to the conventional method for detecting the peak of the signal intensity level, and The number of exposure corrections can be reduced to speed up the distance measurement process.
  • FIGS. 23A and 23B and FIGS. 24A and 24B are conventional ranging methods as comparative examples.
  • FIGS. 23A and 23B and FIGS. 24A and 24B are conventional ranging methods as comparative examples.
  • a spot formed on an object to be read with light emitted from a laser light source is imaged with a solid-state image sensor, and distance measurement is performed using the coordinates of the spot Are known.
  • a spot portion Sp with high intensity can be used as a distance measuring point even with a light source having a radiation angle.
  • the reading object 105 on which the code symbol 100 is formed is smaller than the radiation angle of the light source, the reading object 105 is not irradiated with the portion irradiated with the distance measuring light Sd. There is a portion where the distance measuring light Sd is not reflected.
  • the intensity set for distance measurement In addition to the strong signal Sp1, the signal Sp3 having the same shape as the strong signal Sp2 set for distance measurement may be generated due to the close rise and fall of the signal.
  • the reading object 105 on which the code symbol 100 is formed is smaller than the distance measuring pattern 101a or the distance measuring pattern 101b. Even if a portion where the distance measurement pattern 101a or the distance measurement pattern 101b does not reflect is generated, as shown in FIG. 22B, a signal drop portion which is the distance measurement signal portion SgD does not exist at a plurality of locations.
  • the optical information reading apparatus 1A by detecting the falling edge of the signal and the rising edge of the signal, it is possible to uniquely determine the coordinates of the drop portion of the signal, the size of the reading object, etc. Regardless of the conditions, distance measurement can be performed reliably.
  • the present invention can be used for a barcode reader, a two-dimensional code reader, and the like, and can realize autofocus with high ranging accuracy.
  • SYMBOLS 1A Optical information reader, 2 ... Ranging light emission part, 3 ... Solid-state image sensor, 4 ... Illumination light emission part, 5 ... Imaging optical part, 10 ... Camera 11, decoding unit 100, code symbol 101 a, 101 b distance measurement pattern 102 a 102 b irradiation region 103 a 103 b non-irradiation region

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Optics & Photonics (AREA)
  • General Health & Medical Sciences (AREA)
  • Toxicology (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Measurement Of Optical Distance (AREA)
  • Studio Devices (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Structure And Mechanism Of Cameras (AREA)

Abstract

 測距処理の高速化を図り、確実に測距を行うことができる光学的情報読取装置を提供する。光学的情報読取装置(1A)は、光の照射領域(102a)と非照射領域(103a)が組み合わせられた測距パターン(101a)を読取対象物に形成する測距光(Sa)を出射する測距光出射部(2)を備え、読取対象物に形成された測距パターン(101a)を固体撮像素子(3)で撮像して測距パターン(101a)の画像を取得し、画像信号で信号が落ち込む部分を検出して、測距パターン(101a)の非照射領域(103a)の座標に基づき測距を行う。

Description

光学的情報読取装置
 本発明は、可変焦点機能を有し、主にバーコード、2次元コード等のコード記号、風景や物品の画像を読み取ることを目的とした光学的情報読取装置に関する。
 商品管理、在庫管理等を目的として1次元のコード情報であるバーコード、また、より情報密度の高いコードとして2次元コードが知られている。バーコードや2次元コード等のコード記号を読み取る装置として、CMOSイメージセンサやCCDイメージセンサ等の固体撮像素子でコード情報を撮影し、その画像に様々な処理を施した上で2値化し、デコードする方法が知られている。
 このようなコード情報を読み取る装置に使用されるCMOSイメージセンサは、デジタルカメラ等に搭載されているものと機能的に何ら変わらないことから、普通に物体や風景などを撮影する写真機としての機能を併せ持つことが求められる。例えば、在庫管理等の場合、対象物品と共にその物品が格納されている位置を撮像し、コード情報と共にデータベースに記憶する場合に使用されるものである。
 また、携帯電話機には、上述したCMOSイメージセンサを使用した小型カメラが搭載さている。携帯電話機のカメラ機能には、通常のデジタルカメラのように、風景や人物を撮像する他に、バーコード/2次元コードスキャナ及びOCR(光学式文字読取装置)を内蔵しているものが大半である。即ち、コード記号撮像デコード機能を備えたデジタルカメラが広く求められている。
 さらに、上述した商品管理、在庫管理等の現場では、物品に貼付されたコード記号を次々に走査していく必要がある。その際に、オートフォーカス機能があるものが望ましく、オートフォーカスと撮像処理は高速である必要がある。
 オートフォーカス機能を備えた光学的情報読取装置では、コード記号等の読取対象物までの距離を測定し、測定した距離に焦点位置が合うように光学系を制御する。読取対象物までの距離を測定する技術として、レーザを利用した測距技術が提案されている(例えば、特許文献1参照)。
 レーザを用いた三角法による測距技術では、読取対象物に光の強度の強いスポットを形成するためにビームを照射し、読取対象物上の検出スポット位置を計測する。読取対象物の距離は、検出スポット位置から決定される。
 一方、光学的情報読取装置では、コード記号が読取可能範囲に入っているかどうかを使用者が認識できれば、試行を繰り返す必要が無くなり、読取動作の高速化が図れる。そこで、読取可能範囲を表示する光源及び光学系を備えた技術が提案されている(例えば、特許文献2参照)。
特許4473337号公報 特開2010-140064号公報
 レーザを用いた三角法による従来の測距技術では、スポット状の強度の強い信号のピークを検出し、スポットの位置を求めている。しかし、周辺光量等の影響で、露出が飽和すると、信号の強度のピークを検出することができず、測距に必要な信号を得ることができない場合がある。この場合、露出を補正して再撮像を行うことで、適正露出の画像を得ることができるが、露出の補正及び再撮像の処理が必要で、測距処理の高速化の妨げになる。
 また、スポットを可視光で形成し、スポットの形成位置と読取位置を合わせることで、使用者の読取動作を誘導できる。しかし、スポットは読取対象物上の一点を示すのみで、コード記号の全体が読取可能範囲に入っているかを示すことはできず、コード記号の全体が読取可能範囲に入っていなければ、再試行を繰り返すことになる。
 このようなオートフォーカス機能を備えた光学的情報読取装置に、読取可能範囲を表示する光源及び光学系を備える構成とすれば、オートフォーカス機能を実現し、かつ、読取可能範囲を示すことができる。しかし、測距と読取可能範囲を示すために独立した光源と光学系が必要で、装置の小型化及び低コストが困難になる。
 更に、測距用のレーザによる照射範囲を、読取可能範囲を示す大きさに広げることで、読取可能範囲を示すことは可能になるが、読み取ったコード記号のデコードで必要とされる測距の精度を得ることができず、確実な測距を行うことができない。
 本発明は、このような課題を解決するためになされたもので、測距処理の高速化を図り、確実に測距を行うことができる光学的情報読取装置を提供することを目的とする。
 上述した課題を解決するため、本発明は、可変焦点光学系を有した撮像光学手段と、読取対象物を撮像する撮像手段と、読取対象物との距離を測距する測距手段と、測距手段を用いて読取対象物までの距離を算出し、算出された距離情報に基づき撮像光学手段を制御して、撮像手段で読取対象物の撮像を行う制御手段とを備え、測距手段は、光の照射領域と非照射領域が組み合わせられた測距パターンを読取対象物に形成する測距光を出射し、制御手段は、読取対象物に形成された測距パターンを撮像手段で撮像して測距パターンの画像を取得し、撮像手段に入射する光の強度に応じて信号が落ち込む部分を検出して、測距パターンの非照射領域の座標に基づき測距を行う光学的情報読取装置である。
 本発明では、測距光を照射して、光の照射領域と非照射領域が組み合わせられた測距パターンを読取対象物に形成し、読取対象物に形成された測距パターンを撮像して測距パターンの画像を取得し、画像信号で信号が落ち込む部分を検出して、測距パターンの非照射領域の座標に基づき読取対象物までの距離を求める。
 本発明によれば、周辺光量の変化や、読取対象物の大きさ等によらず、処理の高速化を図り、確実に測距を行うことができる。また、測距光を可視光とすれば、測距パターンの照射領域を利用して、測距に用いる単一の光源及び光学系で、読取可能範囲の表示を行うことができる。
本実施の形態の光学的情報読取装置の一例を示す機能ブロック図である。 本実施の形態の光学的情報読取装置の実装例を示す斜視図である。 本実施の形態の光学的情報読取装置の実装例を示す斜視図である。 本実施の形態の光学的情報読取装置を構成する測距光出射部の一例を示す構成図である。 本実施の形態の光学的情報読取装置を構成する測距光出射部の他の例を示す構成図である。 読取対象物までの距離の算出に必要なパラメータの説明図である。 読取対象物までの距離と固体撮像素子に入射する測距パターンによる信号強度の関係を示すグラフである。 測距パターンの形状の一例を示す構成図である。 測距パターンの形状の一例を示す構成図である。 パターン形成レンズの一例を示す斜視図である。 パターン形成レンズによる測距光の光路の一例を示す光路説明図である。 パターン形成レンズによる照射領域と非照射領域の形成原理を示す光路説明図である。 固体撮像素子の一例を示す機能ブロック図である。 液晶レンズの概念を示す構成図である。 液体レンズの概念を示す構成図である。 本実施の形態の光学的情報読取装置におけるコード記号の読取動作を示すフローチャートである。 本実施の形態の光学的情報読取装置におけるコード記号の読取動作を示すフローチャートである。 本実施の形態の光学的情報読取装置における測距動作の一例を示すフローチャートである。 測距パターンと取り込むエリアの関係を示す説明図である。 測距パターンを撮像して得られる画像信号の一例を示す説明図である。 本実施の形態の光学的情報読取装置の効果の一例を示す説明図である。 本実施の形態の光学的情報読取装置の効果の一例を示す説明図である。 比較例として従来の測距方法の課題を示す説明図である。 比較例として従来の測距方法の課題を示す説明図である。 本実施の形態の光学的情報読取装置の効果の他の例を示す説明図である。 本実施の形態の光学的情報読取装置の効果の他の例を示す説明図である。 比較例として従来の測距方法の課題を示す説明図である。 比較例として従来の測距方法の課題を示す説明図である。 比較例として従来の測距方法の課題を示す説明図である。 比較例として従来の測距方法の課題を示す説明図である。
 以下、図面を参照して、本発明の光学的情報読取装置の実施の形態について説明する。
 <本実施の形態の光学的情報読取装置の構成例>
 図1は、本実施の形態の光学的情報読取装置の一例を示す機能ブロック図、図2及び図3は、本実施の形態の光学的情報読取装置の実装例を示す斜視図である。また、図4は、本実施の形態の光学的情報読取装置を構成する測距光出射部の一例を示す構成図、図5は、本実施の形態の光学的情報読取装置を構成する測距光出射部の他の例を示す構成図である。
 本実施の形態の光学的情報読取装置1Aは、読取対象物であるコード記号100を撮像するカメラ部10と、カメラ部10で行われる撮像、フォーカス調整、デコード、データ転送等の制御を行うデコード部11を備える。
 光学的情報読取装置1Aはコードスキャナと称され、物品に貼り付けられたラベルに表記されたコード記号100、または、物品に直接表記されたコード記号100等の撮像が可能な構成である。
 図2に示す光学的情報読取装置1Aは、マニュアルトリガと称されるコードスキャナで、例えば、把持部200を有した筺体201に、カメラ部10とデコード部11等の構成要素が実装され、使用者が把持部200を手に持ち、カメラ部10を物品300に表記されたコード記号100に向けることで、コード記号100の撮像が可能な構成である。
 図3に示す光学的情報読取装置1Aは、オートトリガと称されるコードスキャナで、例えば、載置部202を有して載置される筺体203に、カメラ部10とデコード部11等の構成要素が実装され、物品301に表記された図3では図示しないコード記号100をカメラ部10に向けることで、コード記号100の撮像が可能な構成である。
 次に、カメラ部10の全体構成について説明する。カメラ部10は、読取対象物であるコード記号100の検知と、読取対象物までの距離の測距のために、読取対象物に図4に示すような測距パターン101aを形成する測距光Sa、または、読取対象物に図5に示すような測距パターン101bを形成する測距光Sbの照射を行う測距光出射部2を備える。
 また、カメラ部10は、読取対象物に形成された測距パターン101aまたは測距パターン101bの撮像、及びコード記号100を含む読取対象物の撮像を行う固体撮像素子3を備える。
 更に、カメラ部10は、照明光を出射する照明光出射部4と、コード記号100で反射した自然光または照明光を固体撮像素子3に結像させるオートフォーカス(可変焦点)機能を有し、コード記号100を構成するパターンの例えば白部分と黒部分の反射率の違いにより、コード記号100のパターンに応じた像を形成させる撮像光学部5を備える。また、カメラ部10は、測距光出射部2、照明光出射部4及び撮像光学部5を駆動するドライバ6を備える。
 図6は、読取対象物までの距離の算出に必要なパラメータの説明図で、次に、本実施の形態の光学的情報読取装置1Aにおける測距の概要について説明する。
 任意の位置WD1~WD3にある読取対象物までの距離Xについては、図6中の次のパラメータと以下の(1)式とに基づいて算出することができる。
X:撮像光学部5の主点を通る原点平面Oから読取対象物までの距離
a:測距光出射部2と撮像光学部5の光軸の原点平面Oでの距離
θ:撮像光学部5の半画角
N:半画角により張られる固体撮像素子3の中心から短点までの距離
n:固体撮像素子3の撮像エリアにおいて測距光が映り込んだ位置
φ:測距光出射部2と撮像光学部5の光軸の原点平面Oでのなす角
Figure JPOXMLDOC01-appb-M000001
 読取対象物に測距光を照射し、読取対象物を照射した測距光を固体撮像素子3で撮像すると、読取対象物までの距離が、測距光を撮像した固体撮像素子3の画素の座標で示され、測距光を撮像した固体撮像素子3の画素の座標を検出することで、上述したパラメータと(1)式から、読取対象物までの距離を算出できる。
 そして、精度の高い測距を行うためには、測距光を撮像した固体撮像素子3の画素の座標を画像処理で検出できる信号が、測距光が照射される測距位置Pに存在することが条件になる。
 そこで、光学的情報読取装置1Aでは、図4に示すように、測距光出射部2で出射される測距光Saで、光の照射領域102aと非照射領域103aが組み合わせられた測距パターン101aを読取対象物に形成する。または、図5に示すように、測距光出射部2で出射される測距光Sbで、光の照射領域102bと非照射領域103bが組み合わせられた測距パターン101bを読取対象物に形成する。
 図4に示す測距パターン101aは、照射領域102aが一の方向である水平方向に広がりを持ち、少なくとも水平方向に所定の幅を持つパターンで形成される。また、測距パターン101aは、照射領域102aの間の少なくとも1箇所、本例では、照射領域102aの中心部分に、固体撮像素子3で信号の立ち下がりと立ち上がりが検出可能なパターンで非照射領域103aを設けて、測距パターン101aに少なくとも1つの信号の落ち込み部分を存在させる。
 これにより、測距パターン101aを水平方向の一方向から見た場合に、測距パターン101aを撮像して固体撮像素子3から出力される信号から、立ち下がり信号と、この立ち下がり信号に対して所定の幅で近接した立ち上がり信号が得られ、立ち下り信号と立ち上がり信号の画像信号により測距処理を可能とする。
 図5に示す測距パターン101aも同様に、照射領域102bが一の方向である水平方向に広がりを持ち、少なくとも水平方向に所定の幅を持つパターンで形成される。また、測距パターン101bは、照射領域102bの間の少なくとも1箇所、本例では、照射領域102bの中心部分に、固体撮像素子3で信号の立ち下がりと立ち上がりが検出可能なパターンで非照射領域103bを設けて、測距パターン101bに少なくとも1つの信号の落ち込み部分を存在させる。
 これにより、測距パターン101bを水平方向の一方向から見た場合に、測距パターン101bを撮像して固体撮像素子3から出力される信号から、立ち下がり信号と、この立ち下がり信号に対して所定の幅で近接した立ち上がり信号が得られ、立ち下り信号と立ち上がり信号の画像信号により測距処理を可能とする。
 図7は、読取対象物までの距離と固体撮像素子に入射する測距パターンによる信号強度の関係を示すグラフで、図7では、距離別に固体撮像素子3で撮像した測距パターン101aまたは測距パターン101bを、固体撮像素子3の画素の水平方向にスキャンした信号強度分布を示す。
 光学的情報読取装置1Aでは、固体撮像素子3の撮像エリアにおいて、読取対象物で反射した測距光が入射する位置が、読取対象物までの距離に応じて変化する。このため、読取対象物に形成された図4に示す測距パターン101a、または、図5に示す測距パターン101bを固体撮像素子3で撮像すると、固体撮像素子3の撮像エリアにおいて測距パターン101a、または、測距パターン101bが入射する位置が、読取対象物までの距離に応じて変化する。
 そして、光学的情報読取装置1Aでは、非照射領域103aを有した測距パターン101a、または、非照射領域103bを有した測距パターン101bを固体撮像素子3で撮像すると、固体撮像素子3の撮像エリアにおける測距パターン101aの非照射領域103a、または、測距パターン101bの非照射領域103bの位置が、読取対象物までの距離に応じて変化する。
 これにより、図7に示すように、固体撮像素子3の撮像エリアに入射する光の強度に応じたレベルで固体撮像素子3から出力される信号が落ち込む部分が、読取対象物までの距離に応じて変化する。
 そこで、光学的情報読取装置1Aでは、固体撮像素子3から出力される信号が落ち込む部分を検出して、この信号の落ち込む部分を測距信号部SgDとし、測距パターン101aの非照射領域103a、または、測距パターン101bの非照射領域103bを撮像した固体撮像素子3の画素の座標を検出することで、上述したパラメータと(1)式から、読取対象物までの距離を算出する。
 これにより、読取対象物に形成される測距パターン101aまたは測距パターン101bは、非照射領域103aまたは非照射領域103bを示す信号が、信号が落ち込む部分として存在し、非照射領域103aまたは非照射領域103bを撮像した固体撮像素子3の画素の座標を画像処理で検出できる信号が、測距光Saまたは測距光Sbが照射される測距位置Pに存在することになり、精度の高い測距を行うことができる。
 また、測距光Saまたは測距光Sbを可視光とすることで、測距パターン101aの照射領域102a、または、測距パターン101bの照射領域102bを利用して、読取範囲を視認可能とする。
 図8A及び図8Bは、測距パターンの形状の一例を示す構成図である。なお、図8A及び図8Bでは、図4に示す光学系で形成される測距パターンを例に説明するが、図5に示す光学系で形成される測距パターンも同様である。
 測距パターン101aにおける測距位置Pである非照射領域103aは、測距パターン101aの中心部に設けられることが望ましい。これは、図8Aに示すように、読取対象物が測距パターン101aより小さいコード記号100aの場合、通常、測距パターン101aの中心にコード記号100aの位置が合わせられる可能性が高いためで、コード記号100a上に、測距位置Pである非照射領域103aが形成されるようにして、測距の精度を向上させるためある。
 また、図8Bに示すように、幅の広いコード記号100bを読み取る場合、測距パターン101aで読取可能範囲を示すことにより、読取深度が容易に判断でき、操作性を向上させることができる。そのため、測距パターン101aを中心部分のみに照射するより、少なくも水平方向に幅のある測距パターン101aを形成することが望ましい。
 次に、上述した測距パターンを形成する測距光出射部の詳細について、各図を参照にして説明する。測距光出射部2は測距手段の一例で、光を出射する光源20と、光源20から出射した光を、測距パターン101aを形成する測距光Sa、または、測距パターン101bを形成する測距光Sbに変換するパターン形成レンズ21を備える。
 光源20は、図4に示す例では、可視領域の波長の光を出射する発光ダイオード(LED)で構成される。また、図5に示す例では、可視領域の波長の光を出射する半導体レーザ(LD)で構成される。
 測距光出射部2で出射される測距光Saまたは測距光Sbで形成される測距パターン101aまたは測距パターン101bでは、画像信号の大部分である照射領域102aまたは照射領域102bを固体撮像素子3で検出できるようにするため、光源20として、上述したように、パルスで強度の強いLED光源もしくはレーザ光源が好ましい。
 図9は、パターン形成レンズの一例を示す斜視図、図10は、パターン形成レンズによる測距光の光路の一例を示す光路説明図、図11は、パターン形成レンズによる照射領域と非照射領域の形成原理を示す光路説明図であり、次に、測距パターン101aまたは測距パターン101bを形成する光学系の一例について、各図を参照して説明する。
 測距光出射部2では、図4に示す測距パターン101aの非照射領域103a、または、図5に示す測距パターン101bの非照射領域103bが、固体撮像素子3で検出可能な幅となる所定の角度αとなるような光学系が構成される。
 また、測距光出射部2では、測距パターン101aまたは測距パターン101bを可視光で構成し、測距パターン101aの照射領域102a、または、測距パターン101bの照射領域102bが、撮像光学部5の画角と固体撮像素子3の撮像エリアの大きさで決められ、読取対象物との距離に応じて変化する読取可能範囲となるように、光学系が構成される。
 測距光出射部2では、光源20から出射された光は、一の方向である水平方向と、他の方向である垂直方向に、それぞれ所定の放射角で広がる。そこで、測距光出射部2では、光源20から出射された光の水平方向の広がりを利用して、測距パターン101aの照射領域102aまたは測距パターン101bの照射領域102bを形成する。本例では、光源20から出射された光の水平方向の放射角と読取可能範囲が合わせられる
 また、測距光出射部2では、光源20から出射された光の水平方向の一部に、測距パターン101aの非照射領域103aまたは測距パターン101bの非照射領域103bを形成する。
 このため、パターン形成レンズ21は、光源20から出射されて水平方向に広がる光は、読取可能範囲に合わせた放射角を保って透過させ、垂直方向に広がる光は、屈折させて例えば平行光化する形状、例えば、入射面21aが平面で構成され、出射面21bが水平方向に沿って平面で、垂直方向に沿って凸状に湾曲した曲面で構成されるシリンドリカルレンズである。
 また、パターン形成レンズ21は、光の屈折または反射を利用して、光源20から出射される一部の光の光路を変更し、測距パターン101aの非照射領域103aまたは測距パターン101bの非照射領域103bを形成するため、出射面21bの一部に、垂直方向に沿ってプリズム状のスリット21cが形成される。スリット21cは、パターン形成レンズ21の出射面21bの水平方向に沿った中心部分に、断面形状がV状の溝を設けて形成される。
 図11において、パターン形成レンズ21の屈折率をn、空気中の屈折率をnとする。光源20から出射し、パターン形成レンズ21に入射した光で、スリット21cの形成部位以外の出射面21bに入射した光は、出射面21bと空気との境界面に対して垂直に入射する光と見なすことができる。
 これにより、光源20から出射されて水平方向に広がる光で、スリット21cの形成部位以外の出射面21bに入射した光は、図11の光路L1に示すように、出射面21bと空気との境界面で水平方向には実質的に屈折せず、光源20における放射角を保ってパターン形成レンズ21を透過する。
 一方、スリット21cに入射した光は、出射面21bと空気との境界面への入射角をβとすると、パターン形成レンズ21と空気の屈折率に応じた屈折角γで屈折する。また、出射面21bと空気との境界面で反射する。
 これにより、光源20から出射されて水平方向に広がる光で、スリット21cに入射した光は、図11の光路L2、L3に示すように、出射面21bと空気との境界面で屈折または反射し、光路が変換される。
 従って、パターン形成レンズ21は、図10に示すように、スリット21cの形成部位を中心として、光が放射しない角度を生成することができる。よって、測距光出射部2では光源20から出射されて水平方向に広がる光が、パターン形成レンズ21を透過することで、水平方向における中心部分を避けて放射され、図4に示すように、照射領域102aの中心部分に非照射領域103aが形成された測距パターン101aを形成する測距光Saが出射される。または、図5に示すように、照射領域102bの中心部分に非照射領域103bが形成された測距パターン101bを形成する測距光Sbが出射される。
 なお、パターン形成レンズ21は、出射面21bの水平方向の中心部分に反射膜を形成する、あるいは、スリット21cに反射膜を形成する等により、光の全反射を利用して光を透過させない角度を生成することも可能である。
 次に、カメラ部10の他の構成要素について説明する。固体撮像素子3は撮像手段の一例で、本例では、CMOS(相補性金属酸化膜半導体)イメージセンサで構成される。固体撮像素子3は、撮像光学部5を通して入射する光を撮像素子により検出し、その各撮像素子による検出信号をデジタル画像データとしてデコード部11へ出力することにより、測距パターン及び読取対象物の画像を撮像する。
 上述したように、図4に示す測距パターン101a、または、図5に示す測距パターン101bを形成する測距光出射部2の光源20として、パルスで強度の強いLED光源またはレーザ光源を用いる構成では、固体撮像素子3は、全画素同時にシャッタを切れるグローバルシャッタが望ましい。また、測距パターンに関する処理速度を高速化するために、測距パターンの画像をサブサンプリング(ROI機能:Region of Interest)して処理することができる固体撮像素子3が望ましい。
 図12は、固体撮像素子の一例を示す機能ブロック図であり、次に、図12を参照しながら固体撮像素子3の一例であるCMOSイメージセンサについて詳細に説明する。固体撮像素子3に設けられた撮像エリア30は、画素部31の各画素が、フォトダイオードと、FD(flouting diffusion:フロー浮遊拡散)領域と、フォトダイオードからFD領域に電荷を転送するための転送トランジスタと、FD領域を所定の電位にリセットするためのリセットトランジスタとを有し、複数の画素がマトリックス状に形成される。
 撮像エリア30は、画素がマトリックス状に形成された画素マトリックスの側部に、垂直信号の制御をする垂直シフトレジスタ32が配置され、画素マトリックスの下部に、水平信号の制御をする水平シフトレジスタ33が配置されている。
 垂直シフトレジスタ32と水平シフトレジスタ33は、画素駆動に必要な電圧を発生させるアナログ回路である。垂直シフトレジスタ32と水平シフトレジスタ33からの信号は、アナログプロセッサ34、A/Dコンバータ35、デジタルプロセッサ36を順次経由して外部へ出力される。
 またアナログプロセッサ34は、電圧増幅、ゲイン調整等の機能を含み、所定のアナログ信号処理を行う。A/Dコンバータ35は、アナログプロセッサ34のアナログ画像信号をデジタル画像信号に変換する。デジタルプロセッサ36は、ノイズキャンセル、データ圧縮等の機能を含み、A/Dコンバータ125からのデジタル画像信号に対してデジタル処理を施し、処理後のデジタル画像信号を外部へ出力する。
 コントロールレジスタ37は、外部の信号を入出力させ、タイミングコントローラ38によってアナログプロセッサ34及びデジタルプロセッサ36のクロックタイミングを合わせて、画素部31の各画素からの信号を所定の順番で画像データを出力させる。
 更に、固体撮像素子3においては、各画素における受光量に応じた電荷の蓄積開始及び蓄積停止を全画素において略同時に制御するグローバルシャッタが採用される。そのために、各画素における蓄積電荷に相当する値を共通の基準値と個別に比較する複数の比較器、それらの出力信号の論理和信号を出力するための端子等を備えている。画素部31の複数の比較器の出力の少なくとも1つが、基準値より蓄積電荷が大きくなったことを示したときに、グローバルシャッタを制御して各画素における電荷の蓄積停止を実行する。
 図1に戻り、照明光出射部4は照明手段の一例で、デコード部11からの制御により読取対象物に照明光Scを照射して照明する。照明光Scの照射は、固体撮像素子3の撮像フレームに同期したパルス光の照射によって行われ、照射時間を調整することによって、1フレームの撮像期間内に読取対象物からの反射光により固体撮像素子3の各フォトダイオードに蓄積される電荷量を調整することができる。すなわち、照明時間を長くすれば、固体撮像素子3が撮像により得る画像は明るい画像となるし、短くすれば、暗い画像となる。
 撮像光学部5は撮像光学手段の一例で、撮像レンズ50と可変焦点レンズ51を備える。撮像レンズ50は、本例では、単数または複数のガラス製若しくはプラスチック製の光学レンズで構成される固定焦点レンズである。
 可変焦点レンズ51は、例えば、単数または複数の光学レンズを、光軸に沿って機械的に移動させる機構を備えて、オートフォーカス機能を実現しても良い。これに対し、可変焦点レンズ51は、レンズを機械的に移動させる機構を用いることなくオートフォーカス機能を実現するものとして、印加電圧によって焦点距離を調整可能な液晶レンズ、または、液体レンズで構成しても良い。
 図13は、液晶レンズの概念を示す構成図である。液晶レンズ51aは、ホモジニアス(ねじれのない)分子配列の液晶層53を、ガラス板54の間に封止した構成で、各ガラス板54には、金属酸化物の透明電極55a、55bが形成される。液晶レンズ51aは、透明電極55a、55bに電圧を印加し、印加する電圧を調整することで、液晶分子53aの配向状態が変化する。液晶レンズ51aは、液晶分子53aの配向状態を変化させることで、屈折率が変化し、屈折率が変化することで、焦点距離が変化する。これにより、液晶レンズ51aは、印加する電圧を調整することで焦点位置を動かし、合焦を行うことができる。
 図14は、液体レンズの概念を示す構成図である。液体レンズ51bは、導電性の高い水溶液56と絶縁体の油57が、光を透過する透明な窓部を対向する2面に有した容器58に封じ込められる。液体レンズ51bには、水溶液56と接する電極59aと、絶縁部を介して水溶液56と油57の両方と接する電極59bが備えられる。
 液体レンズ51bは、電極59a及び電極59bから電気を流し、水溶液56に電圧を印加すると、水溶液56と油57との境界面56aの形状を変化させることができる。このような現象をエレクトロウエッティング現象と称す。水溶液56と油57との境界面56aの曲率を変えることで焦点位置を動かし、合焦を行うことができる。
 ここで、可変焦点レンズ51として液晶レンズ51aまたは液体レンズ51bを用いた構成では、温度変動による焦点位置のずれを補正するため、温度補償が必要となる。このため、光学的情報読取装置1Aは、液晶レンズ51aまたは液体レンズ51bで構成される可変焦点レンズ51及び可変焦点レンズ51の近傍の温度を検知する温度検知手段として、図1に示すように、温度センサ7をカメラ部10に備える。
 光学的情報読取装置1Aは、測距光出射部2で測距光を出射して求めたコード記号100までの距離情報から導き出される液晶レンズ51aまたは液体レンズ51bの焦点位置を、温度センサ7で検知される温度情報で補正して、正確なオートフォーカスを実現する。
 次に、デコード部11について説明すると、デコード部11は制御手段の一例で、CPU12と、CPU12が実行するプログラムとテーブルを記憶したROM13と、CPU12が各種の処理を実行する際の作業領域として使用するRAM14を備えている。
 CPU12としては、例えば、エーシック(Application Specific Integrated Circuit:ASIC)を用いることができる。また、ROM13としては、フラッシュロム(FROM)を用いることができ、RAM14としては、SDRAM(Synchronous Dynamic Random Access Memory)を用いることができる。
 CPU12は、RAM14を作業領域としてROM13に記憶されたプログラムを実行することにより、光学的情報読取装置1A全体の動作を制御すると共に、固体撮像素子3が撮像したデジタル画像データに基づく、読取対象物の検知、読取対象物までの距離の測距、求めた距離に基づく合焦点制御、コード記号100のデコード、デコード結果の外部への出力あるいは蓄積等に必要な処理を行う。
 <本実施の形態の光学的情報読取装置の動作例>
 図15及び図16は、本実施の形態の光学的情報読取装置におけるコード記号の読取動作を示すフローチャートで、次に、各図を参照して、本実施の形態の光学的情報読取装置1Aの動作について説明する。
 ここで、図15は、図2に示すマニュアルトリガと称されるコードスキャナによる読取動作を示し、図16は、図3に示すオートトリガと称されるコードスキャナによる読取動作を示す。
 まず、マニュアルトリガのコードスキャナによる読取動作について説明する。図15のステップSA1で、図示しない操作ボタンの操作等により、マニュアルトリガがONとなると、ステップSA2で、CPU12は、測距光出射部2を制御して測距光Saまたは測距光Sbの照射を開始すると共に、固体撮像素子3を制御して読取対象物に形成される図4に示す測距パターン101aまたは図5に示す測距パターン101bの撮像を開始する。
 図15のステップSA3で、CPU12は、固体撮像素子3で測距パターン101aまたは測距パターン101bを撮像して取得した画像から、露出を計算する。また、上述したように、信号の立ち下がりと信号の立ち上がりで測距位置である非照射領域103aまたは非照射領域103bを検出する。そして、非照射領域103aまたは非照射領域103bの座標から、読取対象物との距離を計算する。
 図15のステップSA4で、CPU12は、照明光出射部4による照明光Scの照射時間を制御して露出を合わせると共に、撮像光学部5を制御して読取対象物であるコード記号100にフォーカスを合わせる。なお、撮像光学部5を構成する可変焦点レンズ51が液晶レンズ51aまたは液体レンズ51bである構成では、読取対象物までの距離と、温度センサ7で検出した温度に基づき、図示しない距離-電圧テーブルを参照して印加電圧を設定し、フォーカスを行う。
 図15のステップSA5で、CPU12は、固体撮像素子3を制御して、デコードを行う読取対象物であるコード記号100の撮像を開始し、ステップSA6で、固体撮像素子3からコード記号100を含む読取対象物の画像をデコード部11に転送する。
 図15のステップSA7で、CPU12は、固体撮像素子3から転送された画像が、デコード可能な画像であるか判断する。固体撮像素子3から転送された画像が、デコード可能な画像ではないと判断すると、ステップSA2に戻り、測距光の照射、測距、及び読取対象物の撮像を行う。
 固体撮像素子3から転送された画像が、デコード可能な画像であると判断すると、図15のステップSA8で、CPU12は、デコード処理を開始し、ステップSA9で、デコード処理が可能であると判断すると、コード記号100のデコード処理を行って、読取処理を終了する。また、ステップSA9で、デコード処理が可能ではないと判断すると、ステップSA2に戻り、測距光の照射、測距、及び読取対象物の撮像を行う。
 次に、オートトリガのコードスキャナによる読取動作について説明する。図16のステップSB1で、物品がかざされる等によりオートトリガがONとなると、ステップSB2で、CPU12は、測距光出射部2を制御して測距光Saまたは測距光Sbの照射を開始すると共に、固体撮像素子3を制御して読取対象物に形成される図4に示す測距パターン101aまたは図5に示す測距パターン101bの撮像を開始する。
 図16のステップSB3で、CPU12は、固体撮像素子3の出力から、読取対象物からの画像信号があるか判断し、読取対象物からの画像信号が無いと判断すると、ステップSB2に戻り、測距光の照射及び撮像を行う。
 読取対象物からの画像信号が有ると判断すると、図16のステップSB4で、CPU12は、固体撮像素子3で測距パターン101aまたは測距パターン101bを撮像して取得した画像から、露出を計算する。また、非照射領域103aまたは非照射領域103bを検出して、非照射領域103aまたは非照射領域103bの座標から、読取対象物との距離を計算する。
 図16のステップSB5で、CPU12は、照明光出射部4による照明光Scの照射時間を制御して露出を合わせると共に、撮像光学部5を制御して読取対象物であるコード記号100にフォーカスを合わせる。
 図16のステップSB6で、CPU12は、固体撮像素子3を制御して、デコードを行う読取対象物であるコード記号100の撮像を開始し、ステップSB7で、固体撮像素子3からコード記号100を含む読取対象物の画像をデコード部11に転送する。
 図16のステップSB8で、CPU12は、固体撮像素子3から転送された画像が、デコード可能な画像であるか判断する。固体撮像素子3から転送された画像が、デコード可能な画像ではないと判断すると、ステップSB5に戻り、露出調整、フォーカス調整、及び読取対象物の撮像を行う。
 固体撮像素子3から転送された画像が、デコード可能な画像であると判断すると、図16のステップSB9で、CPU12は、デコード処理を開始し、ステップSB10で、デコード処理が可能であると判断すると、コード記号100のデコード処理を行って、読取処理を終了する。また、ステップSB10で、デコード処理が可能ではないと判断すると、ステップSB5に戻り、露出調整、フォーカス調整、及び読取対象物の撮像を行う。
 図17は、本実施の形態の光学的情報読取装置における測距動作の一例を示すフローチャート、図18は、測距パターンと取り込むエリアの関係を示す説明図、図19は、測距パターンを撮像して得られる画像信号の一例を示す説明図で、次に、各図を参照して、図15に示すフローチャートのステップSA2、SA3、図16に示すフローチャートのステップSB2、SB4で説明した測距光の照射、測距パターンの撮像、及び距離計算の詳細について説明する。
 図17のステップSC1で、CPU12は、測距光出射部2を制御して測距光Saまたは測距光Sbの照射を開始し、ステップSC2で、固体撮像素子3を制御して、読取対象物に形成される測距パターン101aまたは測距パターン101bの撮像を開始する。測距パターン101aまたは測距パターン101bの撮像が終了すると、ステップSC3で、測距光Saまたは測距光Sbの照射を終了し、ステップSC4で、測距パターン101aまたは測距パターン101bの画像を取り込む。
 測距パターン101aまたは測距パターン101bの画像を取り込むと、CPU12は、図17のステップSC5で、図18に示すように予め定められた測距用画像のサンプリングエリアE1をスキャンする。
 測距パターン101aまたは測距パターン101bは、水平方向に幅をもつ信号であり、図18に示すように、測距パターン101aまたは測距パターン101bの形状に合わせてサンプリングエリアE1を設定する。そして、例えば、固体撮像素子3で取得した画像の中心付近から、非照射領域103aまたは非照射領域103bを検出できるまで、すなわち、図19に示す測距信号部SgDである信号の落ち込み部分を検出できるまで、順次スキャンを行う。
 これにより、図18に示すように、測距パターンの画像を取り込む測距用画像のサンプリングエリアE1を設定すれば、全画素分の画像をスキャンする必要はなく、測距に要する時間を短縮できる。
 測距用画像のサンプリングエリアE1をスキャンすると、図17のステップSC6で、CPU12は、取り込んだ画像に測距パターン101aまたは測距パターン101bの信号があるか判断する。測距パターン101aまたは測距パターン101bの信号が無いと判断すると、処理を終了する。
 取り込んだ画像に測距パターン101aまたは測距パターン101bの信号があると判断すると、図17のステップSC7で、CPU12は、図19に示す測距信号部SgDである信号の落ち込み部分の画素の座標を計算する。
 信号の落ち込み部分の画素の座標を計算すると、図17のステップSC8で、CPU12は、上述したパラメータと(1)式に基づき予め設定された測距テーブルを参照して、読取対象物であるコード記号100までの距離を求め、ステップSC9で、撮像光学部5を制御してフォーカスを合わせる。
 <本実施の形態の光学的情報読取装置の効果例>
 本実施の形態の光学的情報読取装置1Aでは、測距光Sa(Sb)を照射して、光の照射領域102a(102b)の間に非照射領域103a(103b)が設けられる測距パターン101a(101b)を読取対象物に形成し、測距パターン101a(101b)を撮像した画像信号から、信号の落ち込む部分を検出して測距に必要な信号を取得し、読取対象物までの距離を求めるので、周辺光量の変化や、読取対象物の大きさ等によらず、処理速度の高速化を図り、確実に測距を行うことができる。
 また、測距光Sa(Sb)を可視光とし、照射領域102a(102b)を、撮像光学部5の画角、固体撮像素子3の撮像エリアの画素部の大きさ等に応じた読取可能範囲に合わせることで、測距に用いる単一の光源及び光学系で、読取可能範囲の表示を行うことができる。
 これにより、読取可能範囲を表示するための別の光源、及び光源から出射した光を読取可能範囲に合わせる光学系を備える必要がなく、装置の小型化、及び低コスト化を図ることができる。また、読取可能範囲を表示することで、コード記号100が読取可能範囲に入っていないことに起因する読取動作の試行を繰り返す必要が無くなり、読取動作の高速化が図れる。
 更に、シリンドリカルレンズ等の光学レンズを用いて測距パターン101a(101b)を形成できることから、回折格子やホログラムを使用するような光学系と比較して、コストを抑えることができる。
 図20A及び図20Bは、本実施の形態の光学的情報読取装置の効果の一例を示す説明図、図21A及び図21Bは、比較例として従来の測距方法の課題を示す説明図であり、次に、信号の落ち込む部分を利用して測距を行う効果の詳細について説明する。
 上述した図15のフローチャートのステップSA2、または、図16のフローチャートのステップSB2で、測距パターン101aまたは測距パターン101bの画像を取得する動作では、読取対象物が近くに存在する場合や、周辺光量が大きい場合等に、1回目の撮像で露出が飽和する場合がある。
 そこで、図15のステップSA3、または、図16のステップSB4で、固体撮像素子3で測距パターン101aまたは測距パターン101bを撮像して取得した画像から、露出を計算し、露出が飽和して測距か可能な信号ではないような場合に、露出を補正して、測距が可能な信号を得るようにしている。
 図21Aに示すように、測距用に設定したスポット状の強度の強い信号Sp4を検出する従来の測距方法では、露出が飽和すると、図21Bに示すように、信号の強度のピークを検出することができず、測距に必要な信号を得ることができない。信号の強度のピークを検出する場合、許容露出値が狭く、露出の補正が必要で、測距処理の高速化の妨げになる。
 これに対して、図20Aに示すように、信号の落ち込む部分を利用して測距を行う本願発明の光学的情報読取装置1Aでは、露出が飽和しても、図20Bに示すように、信号の立ち下がりと信号の立ち上がりから測距信号部SgDを検出することができ、信号の落ち込み部分の座標を一意に求めることができる。
 これにより、信号の落ち込みを検出する本実施の形態の測距方法は、従来の信号強度レベルのピークを検出する方法と比較して、測距可能な信号の許容露出値が広くなり、画像の露出補正の回数を少なくし、測距処理の高速化を図ることができる。
 図22A及び図22Bは、本実施の形態の光学的情報読取装置の効果の他の例を示す説明図、図23A及び図23Bと、図24A及び図24Bは、比較例として従来の測距方法の課題を示す説明図であり、次に、放射角を持つ光源で、読取可能範囲を示す照射領域の間に非照射領域を形成し、信号の落ち込む部分を利用して測距を行う効果について説明する。
 可変焦点機能を持つバーコードスキャナによる従来の測距方法としては、レーザ光源から出射される光で読取対象物に形成したスポットを固体撮像素子で撮像し、スポットの座標で測距を行う技術が知られている。一方、図23Aに示すように、放射角を持った光源でも、強度の強いスポット部Spを測距点にすることが可能である。
 すなわち、放射角を持った光源から出射される測距光Sdで、強度の強いスポット部Spを中心に持つパターンを形成し、このパターンを固体撮像素子で撮像すると、図24Aに示すように、中心部分にスポットに対応した信号Sp1を確認できる。これにより、この信号の座標を求めることで、測距を行うことができる。
 しかし、図23Bに示すように、コード記号100が形成された読取対象物105が、光源の放射角に比較して小さい場合、読取対象物105に測距光Sdで照射される部分と照射されない部分が存在し、測距光Sdが反射しない部分が発生する。
 このため、図24Bに示すように、放射角を持つ測距光Sdで形成されるパターンを固体撮像素子で撮像した画像中に、信号の欠ける部分が存在すると、測距用に設定した強度の強い信号Sp1以外に、信号の立ち上がりと立ち下がりが近接することで、測距用に設定した強度の強い信号Sp2と同形状の信号Sp3が発生することがある。
 従って、測距用に設定した強度の強い信号と同形状の信号が他にあると、信号の強度のピークを検出して座標を一意に求めることができず、測距を行うことができない。
 これに対して、本願発明の光学的情報読取装置1Aでは、図22Aに示すように、コード記号100が形成された読取対象物105が、測距パターン101aまたは測距パターン101bに比較して小さく、測距パターン101aまたは測距パターン101bが反射しない部分が発生しても、図22Bに示すように、測距信号部SgDである信号の落ち込み部分は、複数個所に存在することはない。
 従って、本実施の形態の光学的情報読取装置1Aでは、信号の立ち下がりと信号の立ち上がりを検出することで、信号の落ち込み部分の座標を一意に求めることができ、読取対象物の大きさ等の条件によらず、測距を確実に行うことができる。
 本発明は、バーコードリーダや二次元コードリーダ等に利用することができ、測距精度の高いオートフォーカスを実現できる。
 1A・・・光学的情報読取装置、2・・・測距光出射部、3・・・固体撮像素子、4・・・照明光出射部、5・・・撮像光学部、10・・・カメラ部、11・・・デコード部、100・・・コード記号、101a,101b・・・測距パターン、102a,102b・・・照射領域、103a,103b・・・非照射領域

Claims (5)

  1.  可変焦点光学系を有した撮像光学手段と、
     読取対象物を撮像する撮像手段と、
     読取対象物との距離を測距する測距手段と、
     前記測距手段を用いて読取対象物までの距離を算出し、算出された距離情報に基づき前記撮像光学手段を制御して、前記撮像手段で読取対象物の撮像を行う制御手段とを備え、
     前記測距手段は、光の照射領域と非照射領域が組み合わせられた測距パターンを読取対象物に形成する測距光を出射し、
     前記制御手段は、読取対象物に形成された前記測距パターンを前記撮像手段で撮像して前記測距パターンの画像を取得し、前記撮像手段に入射する光の強度に応じて信号が落ち込む部分を検出して、前記測距パターンの前記非照射領域の座標に基づき測距を行う
     ことを特徴とする光学的情報読取装置。
  2.  前記測距パターンは、前記照射領域の中央部分に、1つの前記非照射領域が形成される
     ことを特徴とする請求項1記載の光学的情報読取装置。
  3.  前記測距パターンは、可視領域の測距光を読取対象物に照射して形成される
     ことを特徴とする請求項1または2記載の光学的情報読取装置。
  4.  前記測距パターンは、一の方向に広がる前記照射領域で、読取可能範囲を示す
     ことを特徴とする請求項3記載の光学的情報読取装置。
  5.  前記測距手段は、少なくとも一の方向に所定の放射角で光を出射する光源と、
     前記光源から出射された光の一部を屈折または反射、あるいは屈折と反射で光路を変更して、前記測距領域の間に前記非照射領域が設けられる前記測距パターンを形成するパターン形成レンズを備えた
     ことを特徴とする請求項1から請求項4のいずれか1項に記載の光学的情報読取装置。
PCT/JP2012/053991 2011-02-21 2012-02-20 光学的情報読取装置 WO2012115045A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011035161A JP2012173124A (ja) 2011-02-21 2011-02-21 光学的情報読取装置
JP2011-035161 2011-02-21

Publications (1)

Publication Number Publication Date
WO2012115045A1 true WO2012115045A1 (ja) 2012-08-30

Family

ID=46720822

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/053991 WO2012115045A1 (ja) 2011-02-21 2012-02-20 光学的情報読取装置

Country Status (2)

Country Link
JP (1) JP2012173124A (ja)
WO (1) WO2012115045A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6346294B2 (ja) * 2014-09-18 2018-06-20 富士通フロンテック株式会社 測距光生成装置
JP6831698B2 (ja) * 2016-12-28 2021-02-17 株式会社ミツトヨ 焦点距離可変レンズ装置
JP6602323B2 (ja) * 2017-01-13 2019-11-06 株式会社オプトエレクトロニクス 寸法測定装置、情報読取装置及び寸法測定方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08339498A (ja) * 1995-06-09 1996-12-24 Yazaki Corp 車両周辺監視装置
JP2002056348A (ja) * 2000-08-07 2002-02-20 Tohken Co Ltd オートフォーカス機能を有する手持ち式読取装置及びオートフォーカス方法、並び距離計測方法
JP2003050111A (ja) * 2001-08-07 2003-02-21 Minolta Co Ltd 三次元形状入力装置及び投影装置
JP2005202930A (ja) * 2003-12-18 2005-07-28 Denso Wave Inc 光学情報読取装置
JP2011034360A (ja) * 2009-07-31 2011-02-17 Optoelectronics Co Ltd 光学的情報読取装置及び光学的情報読取方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08339498A (ja) * 1995-06-09 1996-12-24 Yazaki Corp 車両周辺監視装置
JP2002056348A (ja) * 2000-08-07 2002-02-20 Tohken Co Ltd オートフォーカス機能を有する手持ち式読取装置及びオートフォーカス方法、並び距離計測方法
JP2003050111A (ja) * 2001-08-07 2003-02-21 Minolta Co Ltd 三次元形状入力装置及び投影装置
JP2005202930A (ja) * 2003-12-18 2005-07-28 Denso Wave Inc 光学情報読取装置
JP2011034360A (ja) * 2009-07-31 2011-02-17 Optoelectronics Co Ltd 光学的情報読取装置及び光学的情報読取方法

Also Published As

Publication number Publication date
JP2012173124A (ja) 2012-09-10

Similar Documents

Publication Publication Date Title
JP4473337B1 (ja) 光学的情報読取装置及び光学的情報読取方法
US9557166B2 (en) Dimensioning system with multipath interference mitigation
US7726573B2 (en) Compact autofocus bar code reader with moving mirror
US9411999B2 (en) Barcode reader having multiple sets of imaging optics
US20230100386A1 (en) Dual-imaging vision system camera, aimer and method for using the same
JP4380663B2 (ja) 三次元形状測定方法、装置、及びフォーカス調整方法
US20110317156A1 (en) Inspection device for defect inspection
US9234648B2 (en) Illumination apparatus and method for the generation of an illumination field
JP7350027B2 (ja) 移動する物体の画像データの取得
JP2011530722A (ja) 温度補償された合焦時間を有する液体レンズ
JP2011504247A (ja) オートフォーカス付き光学的コード走査装置
JP7192022B2 (ja) カメラ及び画像データ取得方法
CA2524828C (en) Dual laser targeting system
WO2012115045A1 (ja) 光学的情報読取装置
JP2012508927A (ja) 高速光学コード読取
JP2012508927A5 (ja)
JP5637844B2 (ja) 液晶レンズ光学体及び光学的情報読取装置
US20090095815A1 (en) Imaging Bar Code Reader with Single Prism Focus Adjustment
EP3353489A1 (en) Method and apparatus for measuring the height of a surface
JP4915300B2 (ja) 光学情報読取装置
JPH03246693A (ja) 指紋情報入力装置
JP2009042128A (ja) 高さ測定装置
JP4123563B2 (ja) 撮像装置の調整方法
JP2005190327A5 (ja)
JP4420120B2 (ja) 撮像装置の調整方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12750263

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12750263

Country of ref document: EP

Kind code of ref document: A1