WO2013128737A1 - 入力装置および入力システム - Google Patents

入力装置および入力システム Download PDF

Info

Publication number
WO2013128737A1
WO2013128737A1 PCT/JP2012/081076 JP2012081076W WO2013128737A1 WO 2013128737 A1 WO2013128737 A1 WO 2013128737A1 JP 2012081076 W JP2012081076 W JP 2012081076W WO 2013128737 A1 WO2013128737 A1 WO 2013128737A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
guide plate
light guide
image
input device
Prior art date
Application number
PCT/JP2012/081076
Other languages
English (en)
French (fr)
Inventor
藤原 恒夫
岡田 訓明
謙一郎 三上
直樹 芝
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Publication of WO2013128737A1 publication Critical patent/WO2013128737A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected

Definitions

  • the present invention relates to an input device that detects coordinates of an input position, and an input system including the input device.
  • a bar-shaped operation member such as a touch pen or a stylus pen
  • a coordinate input device position detection device
  • the pen is brought close to or in contact with the coordinate input area of the coordinate input device, and the coordinate input device obtains the coordinates of the position where the pen approaches or touches (hereinafter referred to as touch).
  • the obtained coordinates are, for example, for displaying an object such as a point image or a straight line image on a display screen such as a liquid crystal display separate from the coordinate input device, or a liquid crystal panel laminated integrally with the coordinate input device. Used for.
  • the position detection device described in Patent Document 1 is totally reflected in the thickness direction of the light guide plate 101 and the light guide plate 101, and has a predetermined width so as to proceed in a predetermined direction in the surface direction.
  • Projection means 102 for projecting light beams in a plurality of rows from the side surface of light guide plate 101, and controlling the projection pattern of projection means 102 so that each light beam from projection means 102 scans sequentially along the side surface of light guide plate 1.
  • Projection control means 103 and indicator 104 are provided.
  • the indicator 104 has a detection unit that introduces light traveling inside the light guide plate 101 by making contact with the light guide plate 101, detects the introduced light, and outputs a detection signal.
  • Coordinate calculation means for calculating the coordinate position at which the indicator 104 contacts the light guide plate 101 based on the scanning position by the control means 103 is provided.
  • the touch panel described in Patent Document 2 includes a light guide plate 1101, a light source 1102 that makes light incident on the light guide plate 1101, and a light receiving element that is disposed on a part of the side surface of the light guide plate 1101. 1104 and 1105, and an imaging unit 1107 that images light from the light source 1102 scattered by the detection target 1201 on the light receiving elements 1104 and 1105 between the side surface of the light guide plate 1101 and the light receiving element.
  • light absorbing means 1108 is arranged on a part of the side surface of the light guide plate 1101 on which the light receiving elements 1104 and 1105 are arranged.
  • the light receiving elements 1104 and 1105 are irradiated with a light source 1102 as shown in FIG. Arranged outside the range.
  • a measurement example of the signal intensity detected by the light receiving elements 1104 and 1105 is shown in FIG.
  • the horizontal axis is the pixel number on the light receiving element
  • the vertical axis is the optical signal intensity detected by the light receiving element.
  • Each light receiving element has a plurality of pixels arranged in the line direction, and the pixel number represents the position of the pixel in the line direction of the light receiving element.
  • the signal intensity can originally take a discrete value with respect to the pixel axis, but here, the data is schematically illustrated by a continuous curve.
  • the left side of the horizontal axis in FIG. 19B is the pixel on the left side of the light receiving element 1104 when the light receiving element is viewed from the side opposite to the light guide plate of the light receiving element with the first surface of the light guide plate facing up, the light receiving element 1105.
  • the left side of the horizontal axis in FIG. 19B corresponds to the right touch position when the light guide plate is viewed from each light receiving element with the first surface of the light guide plate facing up.
  • the distance 1111 between the light receiving elements 1104 and 1105 is a value unique to the touch panel.
  • the angle ⁇ can be measured from the position (pixel number) of the optical signal 1112 of the light receiving element 1104, and the angle ⁇ can be measured from the position (pixel number) of the optical signal 1113 of the light receiving element 1105.
  • the coordinates of the detected object 1201 are calculated from the principle of triangulation.
  • JP 2008-158616 A (published July 10, 2008) JP 2009-258967 A (published on November 5, 2009)
  • the inventors of the present application relate to a coordinate input device in which a light receiving element is mounted on the touch panel side as in Patent Document 2, and a light extraction unit that extracts propagating light from a plurality of locations apart from each other in the light guide plate, A light receiving means for forming an image by receiving the light at each of the above-mentioned positions extracted from the light extraction portion, and receiving the light at each light incident position each time the light incident position on the upper surface of the light guide plate changes.
  • angle detection by triangulation described in Patent Document 2 is difficult.
  • the present invention has been made in view of the above-mentioned problems, and its purpose is to form a sector by each image when the light receiving means receives light at each light incident position every time the light incident position on the upper surface of the light guide plate changes.
  • the present invention provides a (coordinate) input device capable of accurately and easily detecting an angle using the principle of triangulation, and an input system including the same. .
  • the first input device is: A light guide plate that propagates light incident from the upper surface inside; A plurality of light extraction portions that are located at a plurality of locations apart from each other in the light guide plate and extract propagation light from each location to the outside of the light guide plate; Light receiving means for forming a rod-like image by receiving the light from each of the portions extracted from each of the light extraction portions, and detecting the position coordinates of the light incident position of the light on the upper surface of the light guide plate An input device, Each time the light incident position on the upper surface of the light guide plate changes, the light at each light incident position is extracted from a certain light extraction portion and received by the light receiving means, and the rod-shaped images obtained are connected.
  • the input device is On the upper surface of the light guide plate, the intersection of each straight line extending in the longitudinal direction of at least two rod-shaped images obtained by light entering the light receiving means from at least two different light incident positions is used as the light guide plate.
  • Intersecting point calculating means for calculating for each of the light extraction parts in two locations separated from each other,
  • Virtual axis determination means for determining a virtual axis passing through the intersection calculated by the intersection calculation means;
  • the angle formed by the nth straight line extending in the longitudinal direction of the nth rod-shaped image formed on the light receiving means and the virtual axis is set at the two positions. It is characterized by further comprising detection means that calculates for each light extraction unit and detects the position coordinates of the nth light incident position based on the two calculated angles.
  • the fan-shaped trajectory is drawn by each image.
  • the intersections of the straight lines extending in the longitudinal direction of at least two rod-shaped images obtained by light entering the light receiving means from at least two different light incident positions on the upper surface are separated from each other on the light guide plate. It calculates for every said light extraction part in a location. Then, a virtual axis is obtained, and further, an angle formed between the virtual axis and a straight line extending in the longitudinal direction of the linear image is obtained.
  • the position coordinates can be accurately detected using the principle of surveying.
  • the 2nd input device which concerns on this invention
  • a light guide plate that propagates light incident from the upper surface inside
  • a plurality of light extraction portions that are located at a plurality of locations apart from each other in the light guide plate and extract propagation light from each location to the outside of the light guide plate
  • An input device for detecting a position coordinate of the light incident position of the light on the upper surface of the light guide plate, and a light receiving means for forming an image by receiving the light of the respective portions extracted from the respective light extraction portions Because
  • the light incident position on the upper surface of the light guide plate changes, the light at each light incident position is extracted from a certain light extraction unit and received by the light receiving means to connect the images, and a fan-shaped locus is formed.
  • the input device is At the top surface of the light guide plate, at least three images obtained by light incident on the light receiving means from at least three light incident positions different from each other, the center point of the virtual circle where one circle is located on the circumference is used as the light guide plate.
  • Center point calculating means for calculating for each of the light extraction parts located at two locations apart from each other, Virtual axis determination means for determining a virtual axis passing through the center point calculated by the center point calculation means; When light enters from the nth light incident position, the angle formed by the nth straight line connecting the nth image formed on the light receiving means and the central point and the virtual axis is set at the two positions. It is characterized by further comprising detection means that calculates for each light extraction unit and detects the position coordinates of the nth light incident position based on the two calculated angles.
  • the fan-shaped trajectory is drawn by each image.
  • At the center of the virtual circle where at least three images obtained by light incident on the light receiving means from at least three different light incident positions on the upper surface are located on one circumference are separated from each other on the light guide plate. It calculates for every said light extraction part in a location. Based on the angle obtained for each light extraction unit by obtaining an imaginary axis, and further obtaining an angle between the imaginary axis and a straight line extending in the linear longitudinal direction, triangulation The position coordinates can be accurately detected using the principle of.
  • first and second input devices have the above configuration, It is preferable that image correction means for converting the image of the area where the fan-shaped locus is drawn into a rectangular area is further provided.
  • the angle detection is facilitated by converting the image of the region in which the fan-shaped locus is drawn into a rectangular region.
  • the image correcting means preferably includes memory means for holding a value corresponding to the post-image correction position at a memory address corresponding to the position address of the image data in the area where the fan-shaped locus is drawn.
  • the memory means having the value corresponding to the post-image correction position is used for the memory address corresponding to the position address of the image data in the area where the fan-shaped trajectory is drawn. Since the image correction is performed simultaneously with the buffering, the processing can be completed easily and at high speed.
  • the input system which concerns on this invention An input device having the above configuration; An operation member that comes into contact with the upper surface of the light guide plate and emits light from the contacted position.
  • one form of the input system which concerns on this invention is An image display panel having a plurality of pixels; It is preferable to drive the pixels of the image display panel based on the position coordinates detected by the detection means.
  • the pixel corresponding to the position coordinate on the image display panel can be driven and viewed.
  • the light receiving means receives the light at each light incident position, and a fan-shaped locus is drawn by each image, and An (coordinate) input device capable of accurately and easily detecting an angle using the principle of triangulation, and an input system including the same can be realized.
  • FIG. 1 is a partial top view of a pen input device provided in an input system according to an embodiment of the present invention.
  • FIG. 3 is a cross-sectional view taken along line AA ′ shown in FIG.
  • It is a figure which shows the structure of the pen of the input system of one Embodiment of this invention.
  • It is a figure of the acquired image acquired in the image sensor with which the pen input device of the input system of one embodiment of the present invention was equipped.
  • It is a block diagram which shows the structure of the detection apparatus provided in the input system of one Embodiment of this invention. It is a figure which shows the principle of the position detection performed in the input system of one Embodiment of this invention.
  • Embodiment 1 An embodiment of an input system according to the present invention will be described with reference to FIGS.
  • a pen input device which is an embodiment of the input device according to the present invention will be described in describing one embodiment of the input system.
  • FIG. 1 is a perspective view showing the configuration of the input system of this embodiment.
  • the input system 50 of the present embodiment includes a pen input device 40 (coordinate input device) and a pen 3 (operation member), and is a touch surface that is the surface of the pen input device 40.
  • the pen 3 touches (contacts) the (upper surface)
  • the touch position coordinates on the touch surface can be obtained.
  • the pen input device 40 includes a liquid crystal display panel 2 (image display panel), a rectangular light guide plate 1 arranged on the display surface side of the liquid crystal display panel 2, Imaging units 10 and 20 (light receiving means) respectively disposed near both ends of one side, and a detection device 60 (intersection calculating means) for detecting the position coordinates of the touch position based on images taken by the imaging units 10 and 20 , Virtual axis determination means, detection means).
  • the liquid crystal display panel 2 has a liquid crystal layer sandwiched between a pair of substrates, and each substrate is provided with at least various electrodes for changing the orientation of liquid crystal molecules in the liquid crystal layer by applying a voltage. Then, by changing the orientation of the liquid crystal molecules by applying a voltage, the amount of light transmitted through the liquid crystal layer of each pixel is adjusted to perform a desired display.
  • a conventionally known liquid crystal display panel can be used as the configuration of the liquid crystal display panel 2.
  • the light guide plate 1 is a rectangular flat plate made of a translucent material, and is disposed on the display surface side of the liquid crystal display panel 2 as shown in FIG. As shown in FIG. 1, the light guide plate 1 is configured such that one side where the imaging units 10 and 20 are disposed is larger than the liquid crystal display panel 2, and at least a part of each of the imaging units 10 and 20 is provided on the back surface (lower surface). It is arranged on the side. Thereby, the enlargement of the size of the direction which spreads along the touch surface of the pen input device 40 is suppressed, and it contributes to realization of a compact size.
  • the surface of the light guide plate 1 opposite to the liquid crystal display panel 2 is configured as a touch surface that is touched by the pen 3.
  • FIG. 2 is an enlarged plan view showing the through hole 1h and its periphery.
  • FIG. 3 is a cross-sectional view taken along line BB ′ shown in FIG.
  • the two through holes 1h shown in FIG. 1 have the same structure, and the imaging units 10 and 20 have the same structure. Therefore, in FIGS. 2 and 3, the two through holes 1h are provided in the light guide plate 1 for convenience of explanation.
  • One of the two through holes 1h and one imaging unit 10 disposed below the through hole 1h will be described, and the description of the other through hole 1h and the imaging unit 20 will be omitted.
  • the imaging unit 10 is disposed immediately below the through hole 1h and its periphery at a position facing the back surface of the light guide plate 1. As shown in FIG. 3, the light that enters the light guide plate 1 from the pen 3 and is combined is propagated through the light guide plate 1 while being totally reflected (propagated in the direction indicated by the arrow in the figure). When reaching the wall surface of the through hole 1h (the end surface adjacent to the end of the upper surface of the light guide plate), the optical path of the light is changed by the wall surface, and is directed toward the back surface of the light guide plate 1 and further emitted from the back surface. Incident on the unit 10.
  • the wall surface of the through hole 1h provided in the light guide plate 1 is inclined with respect to the back surface of the light guide plate 1 at 45 degrees or less, for example, 30 degrees or 45 degrees ( ⁇ in FIG. 3). As a result, it is possible to break the total reflection condition of the light propagating through the light guide plate 1 and reaching the wall surface.
  • the wall surface of the through-hole 1h can propagate light inside the light guide plate 1 and reach the wall surface by changing 90 degrees toward the back surface of the light guide plate 1 and emitting it further downward from the back surface. .
  • the funnel-shaped wall may be mirror-coated (light extraction part). By performing mirror reflection and light reflection processing, the optical path can be more effectively converted, and the loss of light quantity can be suppressed.
  • the thickness of the light guide plate 1 is mainly 1 to 3 mm.
  • the material of the light guide plate 1 for example, acrylic is used, and polycarbonate or glass may be used.
  • the thickness of the light guide plate 1 is mainly 1 to 3 mm, but it may be thicker than this.
  • the size of the light guide plate 1 (the size of the touch surface) can be about 1 m square, but is not limited thereto.
  • the through hole 1h has a structure similar to a cone.
  • the present invention is not limited to this, and may be configured in a polygonal shape.
  • the imaging unit 10 includes a lens 11, a visible light cut filter 12, and an imaging element 13 in this order from the light incident side. Therefore, the light incident on the imaging unit 10 is first condensed by the lens 11, and then the visible light is blocked by the visible light cut filter 12 and received by the imaging device 13. In the image sensor 13, the received light is photoelectrically converted to form an image. This point will be described later.
  • the imaging unit 10 and the light guide plate 1 are fixed via a fixing member 7 as shown in FIGS. 1 and 2.
  • the fixing member 7 has a cylindrical structure, but the structure is not limited to this, and the size is not particularly limited, but it is preferable that the fixing member 7 is compact and has sufficient strength.
  • the fixing member 7 may be fixed to the imaging unit 10 and the light guide plate 1 using an adhesive or the like.
  • the imaging units 10 and 20 shown in FIG. 1 are arranged on the inner side of the end portion of the light guide plate 1, a part of the entire upper surface of the light guide plate 1 is coordinate-detected. It is a possible area. Therefore, the fixing member 7 only needs to be at a position outside the coordinate detectable region.
  • the pen 3 corresponding to the pen input device 40 is an operation member called a touch pen or a stylus pen. The details of the pen 3 of the present embodiment will be described with reference to FIG.
  • FIG. 4 is a cross-sectional view showing the configuration of the pen 3.
  • the pen 3 has a light emitting unit 30 that has a light emitting element 31 that emits infrared light and a light guide member 32 that guides the infrared light to the tip of the pen 3, and a power supply device 33. And the control device 34 are stored.
  • the light emitting unit 30 is arranged at the tip of the pen 3, and a light diffusion member 36 that diffuses light is attached to the light emitting side. There is a point.
  • the light diffusing member 36 is made of a resin containing a light diffusing material. Glass beads can be used as the light diffusion material.
  • a fluororesin specifically, polytetrafluoroethylene
  • silicon rubber can be used, and it is preferable that the resin is configured to have elasticity.
  • the light exit surface of the light diffusing member 36 has a curved surface as shown in FIG. That is, the light diffusing member 36 is generally hemispherical. Note that the curved surface does not need to be configured with a uniform curvature, and the curvature may be different between the region that is the tip of the pen 3 and the region that surrounds it. The curved surface may have a fine uneven shape on the surface.
  • the light emitting surface of the light diffusing member 36 is subjected to wear resistance processing. This is unnecessary when the light diffusing member 36 is made of polytetrafluoroethylene, but when the light diffusing member 36 is made of another material that is not excellent in wear resistance, the light emission It is effective to apply a wear resistant process to the surface.
  • wear resistance processing there is no restriction
  • the light diffusing member 36 is configured to be detachable from the pen 3. Even if the light diffusing member 36 is damaged for some reason (including deterioration with time), the use of the pen 3 can be continued only by replacing the light diffusing member 36. Compared to the configuration in which the pen 3 is replaced, the use can be continued at a low cost.
  • the member on the side to which the light diffusing member 36 is attached in this embodiment, the light guide member 32
  • the light guide member 32 has a groove structure, an occlusal structure, or a portion in contact with the light diffusing member 36, or A fitting structure is provided (not shown), and the light diffusion member 36 is provided with a structure that matches the structure (not shown).
  • the light diffusion member 36 is attached to the light guide member 32.
  • the present invention is not limited to this, and the light diffusion member 36 may be attached to the housing 35. It may be other embodiments.
  • the light emitting element 31 may be an LED (light emitting diode) or an LD (laser diode) that emits infrared light. Note that the number of LEDs or LDs is not limited to one provided for one pen 3, and a plurality of LEDs or LDs may be mounted.
  • the power supply device 33 may be configured to include a battery, for example, or may be configured to be rechargeable.
  • the control device 34 controls the light emission of the light emitting element 31.
  • a mechanism that emits light only when the light emitting element 31 comes into contact with the light guide plate 1 is included.
  • This mechanism is configured by using a pressure-sensitive switch or the like, and can control the light emission time, thereby reducing power consumption and extending battery life.
  • the pen 3 is provided with a light source that emits infrared light, and the infrared light is diffused and emitted from the pen tip.
  • a part of the infrared light emitted from the pen tip is coupled to the light guide plate 1 and propagates through the light guide plate 1.
  • the imaging units 10 and 20 respectively obtain infrared light propagating through the light guide plate 1 (hereinafter referred to as propagation light 4a and 4b) as shown in FIG. From each image, the two-dimensional position coordinates of the contact are obtained.
  • the light receiving surface of the image sensor 13 is disposed so as to be parallel to the surface of the light guide plate 1.
  • Infrared light emitted from the pen 3 is diffused radially around the pen tip and propagates in the light guide plate 1, and some of the light beams 4 a and 4 b (FIG. 1) Guided to the wall surface, the reflected light from the end face is received by the imaging units 10 and 20. Specifically, the reflected light from the end face is collected by the lens 11, subsequently passes through the visible light cut filter 12, and is finally received by the image sensor 13.
  • the visible light cut filter 12 transmits infrared light emitted from the pen 3 and plays a role of blocking light in other wavelength bands.
  • the visible light cut filter 12 blocks sunlight and stray light such as liquid crystal display panel backlight light, and can increase the SN ratio.
  • FIG. 5A is a cross-sectional view in which the light guide plate 1 is cut at the position of the central axis of one through hole 1h.
  • the light emitted from the pen 3 and entering the light guide plate 1 propagates through the light guide plate 1, changes its optical path at the wall surface of the through hole 1h, and is emitted from the light guide plate 1.
  • the light enters the lens 11, passes through the visible light cut filter 12, and is received by the image sensor 13.
  • the image sensor 13 has an image sensor, and when the pen tip of the pen 3 in the state of irradiating infrared rays is not in contact with the light guide plate 1, the image sensor does not image anything.
  • the pen tip of the pen 3 comes into contact with the light guide plate 1 and infrared light from the pen 3 is coupled to the light guide plate 1 as shown in FIG.
  • a linear image 15 is formed.
  • the position of the linear image 15 shown in FIG. 5 changes depending on the position of the pen tip contact point of the pen 3, and when the position of the pen tip contact point is changed, the linear image is indicated by a broken line. It changes like a linear image 17.
  • the locus of the linear image is a fan shape 16 indicated by a one-dot chain line. That is, the linear image 15 shows the propagation direction of light propagating through the light guide plate 1.
  • FIG. 6 is a block diagram illustrating a configuration of the detection device 60.
  • FIG. 7A is a partial plan view of one through hole 1h of the light guide plate 1 and its vicinity
  • FIG. 7B is an image formed on the image sensor of the image sensor 13 and the image. The method for detecting the position coordinates of the touch position is schematically shown.
  • the detection device 60 includes intersection calculation means 61, virtual axis determination means 62, angle determination means 63, and coordinate detection means 64.
  • the intersection calculation means 61 as the first half of the preparation stage for detecting the position coordinates, at least two rod-like images obtained by light incident on the light receiving means from at least two light incident positions are stretched in the longitudinal direction. Calculate the intersection of each straight line.
  • the intersection calculation unit 61 includes a straight line extraction unit 61a (image correction unit) and an intersection determination unit 61b.
  • the straight line extraction unit 61 a propagates through the light guide plate 1 by coupling light from the first light incident position (touch position) to the light guide plate 1 on the touch surface of the light guide plate 1. Then, a part of the luminous flux is taken out through the through-hole 1h, and as shown in FIG. 7B, the first rod-like shape obtained by being incident on the image sensor 13 (image sensor) of the image pickup unit 10 is obtained.
  • Light is coupled to the light guide plate 1 from the first straight line extending in the longitudinal direction of the image and a second light incident position (touch position) different from the first light incident position, and propagates inside the light guide plate 1.
  • a part of the light flux is taken out through the through-hole 1h and, as shown in FIG. 7B, is incident on the image pickup device 13 (image sensor) of the image pickup unit 10 to obtain a second rod-like shape.
  • a second straight line extending in the longitudinal direction of the image is obtained.
  • the virtual axis determination means 62 determines a virtual axis passing through the intersection calculated by the intersection calculation unit as the latter half of the preparation stage for detecting the position coordinates.
  • the virtual axis simply use the bottom (horizontal axis) of the captured image as the virtual axis, and the angle difference between each axis is the difference between the mounting design angle difference of the image sensor and the angle error generated by the mounting error
  • the angle error can be measured using the imaging result of the reference point whose exact angle is known.
  • a line segment connecting these intersection points can be set as a virtual axis.
  • the virtual axis coincides with a line segment (side A) connecting the central axes of the two through holes 1h (two imaging units) shown in FIG.
  • the angle determination unit 63 couples light from the nth light incident position to the light guide plate 1 and propagates through the inside of the light guide plate 1, and a part of the light flux is extracted through one through hole 1 h.
  • the nth straight line extending in the longitudinal direction of the nth rod-like image obtained by entering the image pickup device 13 (image sensor) of the image pickup unit 10 is obtained and An angle ⁇ n1 formed by a straight line of n and the virtual axis is obtained.
  • the angle determination unit 63 includes a memory 631, an image correction unit 632, a one-dimensional processing unit 633, a binarization processing unit 634, and an extraction unit 635. Yes.
  • the memory 631 stores captured images including images of the fan-shaped region 16 indicated by the alternate long and short dash line in FIG.
  • the image correction unit 632 acquires the captured image stored in the memory 631 and corrects the image. Specifically, the image correction unit 632 corrects the image of the fan-shaped region 16 indicated by the one-dot chain line in FIG. 5B formed by the locus of the linear image into an image of a rectangular region.
  • FIG. 9 is a diagram schematically showing an image.
  • FIG. 9A shows an area of the fan shape 16 included in the image formed by the image sensor, and FIG. 9B shows this fan.
  • the image of the area of the shape 16 is corrected to the image of the rectangular area 16 ′ by the image correction unit 632.
  • the image corrected to the rectangular area 16 ′ is stored again in the memory 631.
  • the image corrected to the rectangular area 16 ′ is formed on each of the image sensors 13 and 23.
  • the one-dimensionalization processing unit 633 acquires the image corrected to the rectangular area 16 ′ from the memory 631, performs the one-dimensionalization process, and creates one-dimensional data.
  • the created one-dimensional data is sent to the binarization processing unit 634.
  • One-dimensional data is formed in each of the image sensors 13 and 23.
  • binarization processing unit 634 addition (average) is performed in the averaging direction shown in (b) of FIG. 9, and binarization is performed with a predetermined threshold value to generate binarized data.
  • the binarized data is formed in each of the image sensors 13 and 23.
  • the extraction unit 635 extracts the center position from the binarized data created by the binarization processing unit 634. Then, using the extracted center position, the angle ⁇ n1 in the image sensor 13 is obtained, and the angle ⁇ n2 in the image sensor 23 is obtained.
  • ⁇ x ( ⁇ E ⁇ S) ⁇ (Rx / RW) + ⁇ S (However, in the formula, Start angle of sector angle before being converted to rectangular area: ⁇ S (imaginary axis is 0) End angle of sector angle before conversion to rectangular area: ⁇ E (imaginary axis is 0) Width of rectangular area: RW Center position: Rx And) ⁇ x is obtained based on the above.
  • the length of the virtual axis is equal to a straight line (hereinafter referred to as side A) connecting the central axes of the two through holes 1h in FIG.
  • the angle ⁇ n1 corresponds to the angle ⁇ formed between the light beam 4b and the side A shown in FIG. 1
  • the angle ⁇ n2 corresponds to the angle ⁇ formed between the light beam 4a and the side A shown in FIG.
  • the coordinate detection means 64 uses the principle of triangulation from the angle ⁇ (angle ⁇ n1), the angle ⁇ (angle ⁇ n2), the position coordinates of both ends of the side A, and the length of the side A in FIG.
  • the position coordinates of the nth light incident position are obtained.
  • the side A is the distance between the intersections on the virtual axis
  • the unit of the intersection on the captured image is a pixel. Therefore, the coordinate position in the triangulation is specified by the distance between the imaging elements in the actual unit such as a meter (or light This is based on the distance of the take-out part).
  • the detection apparatus 60 should just be comprised by the input system 50, and may be provided in the exterior of the pen input apparatus 40. FIG.
  • the pixel at the position corresponding to the position coordinates of the liquid crystal display panel 2 is driven, and the user visually recognizes the touch position of the pen 3.
  • a control unit (not shown) that controls the driving of the liquid crystal display panel 2 acquires information on the position coordinates obtained by the position coordinate detection unit and drives the liquid crystal display panel 2 based on the information. Good.
  • the input system 50 can obtain the position coordinates of the pen 3 by capturing the propagated light at at least two locations apart from each other in the light guide plate 1.
  • the imaging unit since the imaging unit is provided at a position that does not protrude upward from the touch surface of the light guide plate 1, the touch surface of the light guide plate 1 is the pen input device 40.
  • the imaging unit does not protrude above the touch surface. Therefore, even when the pen input device 40 of the input system 50 of this embodiment is applied to a table type terminal, the table surface can be made completely flat without the surroundings rising like a bank.
  • the imaging units 10 and 20 is opposed to the back surface of the light guide plate 1 for propagating light that has propagated through the light guide plate 1 and reached the end face. Arranged in position. Thereby, the area of the upper surface of the light guide plate is expanded as compared with the configuration in which the imaging unit (sensor array) is arranged along the direction of expanding the area of the upper surface of the light guide plate (flat plate member) as in the conventional configuration. An increase in the size of the device in the direction can be suppressed, contributing to a reduction in the size of the input device.
  • the imaging units 10 and 20 that receive the light emitted from the tip of the pen 3 are connected to the light guide plate 1, and light that does not propagate through the light guide plate 1 is not coupled to the image sensor. It has a structure. Therefore, even if illumination light is applied from the normal direction of the touch surface of the light guide plate 1, the light is not coupled to the light guide plate 1, so stray light is not guided to the imaging element. For this reason, the pen input device 40 is not easily affected by external light, and can be disposed outdoors or near a window.
  • the imaging units 10 and 20 are each fixed to the light guide plate 1, even if the light guide plate 1 expands and contracts in response to a change in environmental temperature, the imaging units 10 and 10 Each of 20 and the light guide plate 1 are not displaced, and the relative position can be kept constant.
  • the light emitted from the tip of the pen 3 is configured to diffuse by the light diffusion member 36 provided at the tip of the pen 3. Thereby, a sufficient amount of light can be coupled to the light guide plate 1 without depending on the inclination angle of the pen 3. Therefore, accurate position detection can be realized.
  • the present invention is not limited to this, and the corner portion of the light guide plate 1 is A notch having a surface inclined with respect to the back surface of the light guide plate 1 as well as the wall surface of the through hole 1h may be provided.
  • this embodiment demonstrated the aspect in which the virtual axis corresponded with the line segment (side A) which connects each central axis of two through-holes 1h (two imaging units) shown in FIG.
  • the invention is not limited to this, and there may be a case where there is an angle difference between the virtual axis and the line segment (side A) connecting the central axes of the two through holes 1h (two imaging units). .
  • whether or not the angle of the angle difference is known in advance is determined in advance, and the angle and the angle ⁇ n1 and ⁇ n2 determined are used to determine the angle used for triangulation, and the calculation is performed.
  • the position of the nth light incident position using the principle of triangulation as described above using the angle and the line segment (side A) connecting the central axes of the two through-holes 1h (two imaging units) Coordinates can be obtained.
  • the case where there is an angle difference may occur when an angle error (installation error) occurs between the design installation angle of the image sensor and the installation angle of the actually installed image sensor.
  • the pen input device 40 includes the detection device 60 described above, so that each time the light receiving position receives light at each light incident position when the light incident position on the upper surface of the light guide plate is changed, a fan shape is formed by each image. In the configuration in which the locus is drawn, the angle for triangulation can be accurately detected from the image obtained from the light receiving means.
  • the angle determination unit 63 shown in FIG. 8 includes a pixel counter 6300 and a lookup table (LUT) process.
  • a unit 6301 memory means
  • a memory 631 memory means
  • a one-dimensionalization processing unit 633 memory means
  • a binarization processing unit 634 extraction unit 635.
  • the pixel counter 6300 When the pixel counter 6300 receives a captured image including the image of the fan-shaped region 16 indicated by the alternate long and short dash line in FIG. 5B and formed by the image sensor 13, the position of the image data of the fan-shaped region 16 The address is sent to a lookup table (LUT) processing unit 6301.
  • LUT lookup table
  • the rectangular area 16 ′ is stored in the memory address corresponding to the position address of the image data in the fan-shaped area 16 indicated by the one-dot chain line in FIG. 5B formed by the locus of the linear image.
  • the image of the fan-shaped region 16 is corrected to the image of the rectangular region 16 ′ using a look-up table in which position information of the image data is associated.
  • the look-up table corresponds to a certain pixel in the fan-shaped area 16 when the image of the fan-shaped area 16 is corrected to an image of the rectangular area 16 '. Thus, the position is within the rectangular area 16 '.
  • FIG. 11 is a diagram showing image correction in the present modification, in which position addresses are provided for the entire captured image data including the image of the fan-shaped region 16 indicated by the alternate long and short dash line, and the image data of the fan-shaped 16 region is shown. Is associated with the position information of the image data in the rectangular area 16 ′, while the position address of the image data outside the fan-shaped area 16 is associated with different position information. Thereby, as shown in FIG. 11, the image data of the rectangular area 16 ′ can be created.
  • the image corrected to the rectangular area 16 ′ is stored again in the memory 631.
  • the subsequent processing is the same as in the first embodiment.
  • image correction can be performed simultaneously with buffering to the memory 631 by using the lookup table, so that the processing can be completed easily and at high speed.
  • Modification 2 In the present modification, instead of the memory 631 and the one-dimensionalization processing unit 633 configured in the angle determination unit 63 illustrated in FIG. 8 of the first embodiment, a pixel counter 6300 and a lookup are performed as illustrated in FIG. A one-dimensional processing unit 633 ′ having a table (LUT) processing unit 6301 (memory means), an adder 6302, and a one-dimensional data memory 6303 is provided.
  • LUT table
  • a lookup table having a value corresponding to the position of the one-dimensional data memory at the position address of the captured image, and an adder for adding the value of the one-dimensional data memory and the value of the pixel of the captured image
  • LUT lookup table
  • FIG. 14 is a cross-sectional view illustrating a partial configuration of the pen input device of the input system according to the present embodiment.
  • the difference between the present embodiment and the first embodiment described above is the structure of the light guide plate provided in the pen input device and the configuration of the imaging unit.
  • FIG. 14 only one imaging unit is illustrated, but the other imaging unit has the same configuration as the imaging unit shown in FIG.
  • the configuration of the light guide plate provided in the pen input device of the present embodiment will be described.
  • the through hole 1h is provided as an optical path conversion unit.
  • the concave portion 1h ′ is provided at the same position as the through hole 1h of the first embodiment on the touch surface of the light guide plate 1 ′ of the present embodiment.
  • the concave portion 1h ' has a shape in which the bottom surface is configured in parallel with the touch surface, and the opening diameter gradually decreases from the opening end toward the bottom surface. That is, the side surface of the recess 1h ′ is inclined with respect to the thickness direction of the light guide plate 1 ′, and this inclined surface is the same as the wall surface of the through hole 1h in the first embodiment with respect to the back surface of the light guide plate 1 ′. It is inclined at 45 degrees or less, for example, 30 degrees or 45 degrees ( ⁇ in FIG. 14). In the present embodiment, the inclined surface can break the total reflection condition of the light that propagates through the light guide plate 1 and reaches the wall surface. The light for which the total reflection condition is broken is reflected by the inclined surface to change the optical path, is further emitted downward from the back surface, and is incident on the imaging unit 10 ′.
  • the imaging unit 10 ′ provided in the present embodiment has an aperture 14 between the lens 11 and the imaging element 13, instead of the visible light cut filter 12 (FIG. 3) of the imaging unit 10 of the first embodiment. It is arranged. In the aperture 14, only the optical path of the light reflected by the side surface of the recess 1 h ′ is opened in order to prevent light other than the light (propagation light) reflected by the side surface of the recess 1 h ′ from entering the image sensor 13. The other regions are elements that are shielded from light.
  • FIG. 15A is a partial plan view of one concave portion 1h ′ of the light guide plate 1 and its vicinity
  • FIG. 15B is an image formed on the image sensor of the image sensor 13 and the image.
  • the method for detecting the position coordinates of the touch position is schematically shown.
  • the light emitted from the pen 3 and entering the light guide plate 1 propagates through the light guide plate 1, changes the optical path at the side surface of the concave portion 1 h ′, and exits from the light guide plate 1 to the lens 11. , Passes through the opening of the aperture 14, and is received by the image sensor 13.
  • the image sensor 13 has an image sensor, and when the pen tip of the pen 3 in the state of irradiating infrared rays contacts the light guide plate 1 and infrared light is coupled to the light guide plate 1, As shown in FIG. 15B, a non-linear image 15 ′ is formed.
  • a non-linear image 15 ′ is formed.
  • the longitudinal direction of the image is unclear as shown in FIG. 15B, instead of the intersection calculation means 61 provided in the detection device 60 (FIGS. 1 and 6) of the first embodiment, The center point calculation means 610 shown in FIG. 16 is provided, and the intersection is calculated by a different method.
  • the center point calculation means 610 is coupled to the light guide plate 1 ′ from the first light incident position (touch position) on the touch surface of the light guide plate 1 ′.
  • a part of the light beam propagating through the inside is taken out by the recess 1h ′, and is obtained by being incident on the image pickup device 13 (image sensor) of the image pickup unit 10 ′ as shown in FIG. 15B.
  • the center point of the virtual circle to be calculated is calculated.
  • three images (three light incident positions) are used.
  • the present invention is not limited to this, and may be three or more.
  • the virtual axis passing through the center point of the virtual circle calculated by the center point calculating unit 610 is determined by the same virtual axis determining unit 62 as in the first embodiment.
  • the angle determination means 63 is finally used as the position coordinate detection stage.
  • the angle determining means 63 is a diagram in which light is coupled to the light guide plate 1 ′ from the nth light incident position and propagates through the light guide plate 1 ′, and a part of the light flux is extracted by the recess 1 h ′.
  • a straight line connecting the nth image obtained by being incident on the image sensor 13 (image sensor) of the image pickup unit 10 ′ and the center point of the virtual circle is obtained, and the obtained nth image is obtained.
  • An angle ⁇ n formed by the straight line and the virtual axis is obtained.
  • the trajectory of the image formed on the image sensor 13 based on a plurality of light incident positions is a fan-shaped trajectory that is narrower than the first embodiment. Therefore, the method for obtaining the angle ⁇ n is the same as the method of the first embodiment.
  • the present invention can be provided for any type of input system that uses a light emitting pen to determine the coordinate position of the pen.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Position Input By Displaying (AREA)

Abstract

受光画像から三角測量のための角度を正確に検出することが可能な(座標)入力装置および入力システムを提供する。 本発明の一形態の入力システム50は、ペン入力装置40と光を発するペン3とを具備しており、ペン入力装置40は、表面にペン3を接触させることができ、且つ、ペン3の光を結合させて内部を伝搬させることができる透明導光板1と、透明導光板1内を伝搬する光束の一部の光束を互いに異なる箇所で捕らえる撮像ユニット10、20と、検出装置60を有している。ペン3の接触座標位置は、各撮像ユニットが撮像した像に基づいて検出装置60が求める。

Description

入力装置および入力システム
 本発明は、入力位置の座標検出をおこなう入力装置、および、当該入力装置を具備する入力システムに関する。
 タッチペン、スタイラスペン等の棒状の操作部材(以下、ペンと記載する)と、当該ペンによる座標入力を受け付けるタブレット、タッチパネル等の座標入力装置(位置検出装置)とを組み合わせた入力システムが知られている。ペンを、座標入力装置の座標入力領域に接近または接触させ、座標入力装置は、ペンが接近または接触(以下、タッチと記載する)した位置の座標を求める。求められた座標は、例えば座標入力装置とは別体の液晶ディスプレイ、または座標入力装置に一体的に積層されている液晶パネル等の表示画面に点画像、直線画像等のオブジェクトを表示するため等に用いられる。
 特許文献1に記載の位置検出装置は、図17に示すように、導光板101と、導光板101の厚み方向で全反射し、面方向では所定の方向に向かって進行するように所定幅の光束を導光板101の側面から複数個列状に投射する投射手段102と、投射手段102からの各光束が導光板1の側面に沿って順次走査するように投射手段102の投射パターンを制御する投射制御手段103と、指示体104を有する。指示体104は、導光板101に接触させることにより、導光板101の内部を進行する光を導入し、導入した光を検知して検知信号を出力する検知部を有し、さらに検知信号と投射制御手段103による走査位置に基づいて指示体104が導光板101と接触する座標位置を演算する座標演算手段とを有している。
 また、タッチパネルに受光素子を設けた構成も知られている。例えば、特許文献2に記載のタッチパネルは、図18(a)に示すように、導光板1101、導光板1101に光を入射する光源1102、導光板1101の側面の一部に配置された受光素子1104、1105、および、導光板1101の側面と受光素子との間に被検出体1201により散乱した光源1102からの光を受光素子1104、1105に結像する結像手段1107を具備している。そして、受光素子1104、1105が配置された導光板1101の側面の一部には光吸収手段1108を配置し、受光素子1104、1105は、図18(b)に示すように、光源1102の照射範囲外に配置されている。受光素子1104、1105で検知される信号強度の測定例を図19(b)に示す。横軸は受光素子上の画素番号であり、縦軸は受光素子で検知された光信号強度である。各受光素子はライン方向に複数の画素が配列されており、画素番号とは受光素子のライン方向の画素の位置を表す。ここで、信号強度は本来画素軸に対して離散的な値をとりうるが、ここでは模式的に連続的な曲線でデータを例示する。なお、図19(b)の横軸の画素番号と図18(a)の受光素子1104、1105との対応は次の通りである。すなわち、図19(b)の横軸の左側は、導光板の第1面を上にして受光素子の導光板とは反対側から受光素子を見て受光素子1104の左側の画素、受光素子1105の左側の画素に対応する。さらに、図19(b)の横軸の左側は、導光板の第1面を上にして各受光素子から導光板を見て右側のタッチ位置に対応する。図19(a)に示すように被検出体1210、受光素子1104、受光素子1105を結ぶ三角形のうち、受光素子1104、1105間の距離1111はタッチパネル固有の値である。受光素子1104の光信号1112の位置(画素番号)から角度αが、受光素子1105の光信号1113の位置(画素番号)から角度βが計測できる。三角測量の原理から被検出体1201の座標を計算する。
特開2008-158616号公報(2008年7月10日公開) 特開2009-258967号公報(2009年11月5日公開)
 本願発明者らは、特許文献2と同じくタッチパネル側に受光素子を実装した座標入力装置に関して、導光板における互いに離れた複数の箇所から、伝搬光を導光板の外部に取り出す光取り出し部と、当該光取り出し部から取り出された各上記箇所の光を受けて像を結像する受光手段と、を少なくとも備え、導光板の上面への光入射位置が変わるごとに各光入射位置の光を受光手段が受けると各上記像によって扇形の軌跡が描かれる構成を見出したが、扇形の軌跡を形成する画像を用いた場合、特許文献2に記載されている三角測量による角度検出は困難である。
 本発明は、上記の課題に鑑みて為されたものであり、その目的は、導光板の上面への光入射位置が変わるごとに各光入射位置の光を受光手段が受けると各像によって扇形の軌跡が描かれる構成であって、且つ、三角測量の原理を用いて角度を正確且つ容易に検出することが可能な(座標)入力装置、およびそれを具備する入力システムを提供することにある。
 そこで、上記の課題を解決するために、本発明に係る第1の入力装置は、
 上面から入射した光を内部において伝搬させる導光板と、
 上記導光板における互いに離れた複数の箇所に在って、各箇所から伝搬光を導光板の外部に取り出す複数の光取り出し部と、
 各上記光取り出し部から取り出された各上記箇所の光を受けて棒状の像を結像する受光手段と、を備えた、導光板の上記上面における上記光の光入射位置の位置座標を検出する入力装置であって、
 導光板の上記上面への光入射位置が変わるごとに各光入射位置の光が或る光取り出し部から取り出されて上記受光手段に受光されて得られる各上記棒状の像を結ぶと、扇形の軌跡が描かれる構成となっており、
 上記入力装置は、
 上記導光板の上記上面において互いに異なる少なくとも二箇所の光入射位置から光が受光手段にそれぞれ入射して得られる少なくとも2つの棒状の像のそれぞれの長手方向に延伸した各直線の交点を、導光板における互いに離れた二箇所にある上記光取り出し部ごとに算出する交点算出手段と、
 上記交点算出手段によって算出された上記交点を通る仮想軸を決定する仮想軸決定手段と、
 第nの光入射位置から光が入射したときに、上記受光手段に結像する第nの棒状の像の長手方向に延伸した第nの直線と上記仮想軸とが成す角度を上記二箇所にある光取り出し部ごとに算出し、算出された2つの当該角度を基に、第nの光入射位置の位置座標を検出する検出手段と、をさらに備えていることを特徴としている。
 上記の構成によれば、導光板の上面への光入射位置が変わるごとに各光入射位置の光を受光手段が受けると各上記像によって扇形の軌跡が描かれる構成において、上記導光板の上記上面において互いに異なる少なくとも二箇所の光入射位置から光が受光手段にそれぞれ入射して得られる少なくとも2つの棒状の像のそれぞれの長手方向に延伸した各直線の交点を、導光板における互いに離れた二箇所にある上記光取り出し部ごとに算出する。そして、仮想軸を求めて、更に、この仮想軸と線状の像の長手方向に延設される直線とのなす角度を求めることによって、上記光取り出し部ごとに求められる角度に基づいて、三角測量の原理を用いて位置座標を正確に検出することができる。
 また、本発明に係る第2の入力装置は、上記の課題を解決するために、
 上面から入射した光を内部において伝搬させる導光板と、
 上記導光板における互いに離れた複数の箇所に在って、各箇所から伝搬光を導光板の外部に取り出す複数の光取り出し部と、
 各上記光取り出し部から取り出された各上記箇所の光を受けて像を結像する受光手段と、を備えた、導光板の上記上面における上記光の光入射位置の位置座標を検出する入力装置であって、
 導光板の上記上面への光入射位置が変わるごとに各光入射位置の光が或る光取り出し部から取り出されて上記受光手段に受光されて得られる各上記像を結ぶと、扇形の軌跡が描かれる構成となっており、
 上記入力装置は、
 上記導光板の上記上面において互いに異なる少なくとも三箇所の光入射位置から光が受光手段にそれぞれ入射して得られる少なくとも三つの像が一つの円周上に位置する仮想円の中心点を、導光板における互いに離れた二箇所にある上記光取り出し部ごとに算出する中心点算出手段と、
 上記中心点算出手段によって算出された上記中心点を通る仮想軸を決定する仮想軸決定手段と、
 第nの光入射位置から光が入射したときに、上記受光手段に結像する第nの像と上記中心点とを結ぶ第nの直線と、上記仮想軸とが成す角度を上記二箇所にある光取り出し部ごとに算出し、算出された2つの当該角度を基に、第nの光入射位置の位置座標を検出する検出手段と、をさらに備えていることを特徴としている。
 上記の構成によれば、導光板の上面への光入射位置が変わるごとに各光入射位置の光を受光手段が受けると各上記像によって扇形の軌跡が描かれる構成において、上記導光板の上記上面において互いに異なる少なくとも三箇所の光入射位置から光が受光手段にそれぞれ入射して得られる少なくとも三つの像が一つの円周上に位置する仮想円の中心点を、導光板における互いに離れた二箇所にある上記光取り出し部ごとに算出する。そして、仮想軸を求めて、更に、この仮想軸と、線状の長手方向に延設される直線とのなす角度を求めることによって、上記光取り出し部ごとに求められる角度に基づいて、三角測量の原理を用いて位置座標を正確に検出することができる。
 また、本発明に係る第1および第2の入力装置は、上記の構成に加えて、
 上記扇形の軌跡が描かれる領域の画像を、矩形領域に変換する画像補正手段をさらに備えていることが好ましい。
 上記の構成によれば、上記扇形の軌跡が描かれる領域の画像を、矩形領域に変換することにより、角度検出が容易となる。
 また、本発明に係る第1および第2の入力装置は、上記の構成に加えて、
 上記画像補正手段は、上記扇形の軌跡が描かれる領域の画像データの位置アドレスに対応したメモリアドレスに、画像補正後位置に対応した値を保持したメモリ手段を有していることが好ましい。
 上記の構成によれば、扇形の軌跡が描かれる領域の画像データの位置アドレスに対応したメモリアドレスに画像補正後位置に対応した値をもつ上記メモリ手段を使用することにより、画像データ用メモリへのバッファリングと同時に画像補正を行うので、簡易且つ高速に処理を完了することができる。
 また本発明に係る入力システムは、上記の課題を解決するために、
 上記構成を具備した入力装置と、
 上記導光板の上記上面に接触して、当該接触した位置から光を出射する操作部材と、を具備していることを特徴としている。
 上記の構成によれば、信頼性の高い位置座標検出を行う入力システムを提供することができる。
 また本発明に係る入力システムの一形態は、上記の構成に加えて、
 複数の画素を有する画像表示パネルをさらに具備し、
 上記検出手段によって検出された上記位置座標に基づいて、上記画像表示パネルの上記画素を駆動することが好ましい。
 上記の構成によれば、画像表示パネルにおける上記位置座標に対応した画素を駆動して視認することができるように構成することができる。
 以上のように、本発明により、導光板の上面への光入射位置が変わるごとに各光入射位置の光を受光手段が受けると各像によって扇形の軌跡が描かれる構成であって、且つ、三角測量の原理を用いて角度を正確且つ容易に検出することが可能な(座標)入力装置、およびそれを具備する入力システムを実現することができる。
本発明の一実施形態の入力システムの構成を示す斜視図である。 本発明の一実施形態の入力システムに具備されたペン入力装置の部分上面図である。 図2に示す切断線A-A´の矢視断面図である。 本発明の一実施形態の入力システムのペンの構成を示す図である。 本発明の一実施形態の入力システムのペン入力装置に具備された撮像素子において取得される取得画像の図である。 本発明の一実施形態の入力システムに設けられた検出装置の構成を示すブロック図である。 本発明の一実施形態の入力システムにおいて行われる位置検出の原理を示す図である。 図6の一部の構成である角度決定手段の構成を示すブロック図である。 本発明の一実施形態の入力システムにおいて行われる位置検出の原理の別例を示す図である。 図6の一部の構成である角度決定手段の変形例の構成を示すブロック図である。 本発明の一実施形態の入力システムにおいて行われる位置検出の原理の別例を示す図である。 図6の一部の構成である角度決定手段の変形例の構成を示すブロック図である。 本発明の一実施形態の入力システムにおいて行われる位置検出の原理の別例を示す図である。 本発明の他の実施形態の入力システムの一部の構成を示す斜視図である。 本発明の他の実施形態の入力システムにおいて行われる位置検出の原理を示す図である。 本発明の他の実施形態の入力システムに設けられた検出装置の構成を示すブロック図である。 従来構成の図である。 従来構成の図である。 従来構成の図である。
 〔実施形態1〕
 本発明に係る入力システムの一実施形態について、図1~図12を参照して説明する。以下では、入力システムの一実施形態を説明するなかで本発明に係る入力装置の一実施形態であるペン入力装置を説明する。
 図1は、本実施形態の入力システムの構成を示す斜視図である。
 (入力システムの構成)
 本実施形態の入力システム50は、図1に示すように、ペン入力装置40(座標入力装置)と、ペン3(操作部材)とを具備しており、ペン入力装置40の表面であるタッチ面(上面)にペン3がタッチ(接触)すると、タッチ面でのタッチ位置座標を求めることができる。
 ●ペン入力装置40
 ペン入力装置40は、図1に示すように、液晶表示パネル2(画像表示パネル)と、液晶表示パネル2の表示面側に重ねて配置された四角形の導光板1と、導光板1の或る一辺の両端近傍にそれぞれ配設された撮像ユニット10、20(受光手段)と、撮像ユニット10、20によって撮像された画像に基づいてタッチ位置の位置座標を検出する検出装置60(交点算出手段、仮想軸決定手段、検出手段)を有している。
 液晶表示パネル2は、一対の基板間に液晶層を挟持しており、各基板には、電圧印加によって当該液晶層の液晶分子の配向を変えるための各種電極が少なくとも設けられている。そして、電圧印加によって液晶分子の配向を変化させることによって、各画素の液晶層を透過する光の透過量を調整して所望の表示をおこなう。液晶表示パネル2の構成は、従来周知の液晶表示パネルを用いることができる。
 導光板1は、透光性材料からなる矩形の一枚の平板であり、図1に示すように液晶表示パネル2の表示面側に重ねて配設されている。導光板1は、図1に示すように、撮像ユニット10、20を配設する一辺側が液晶表示パネル2よりも大きく構成されており、撮像ユニット10、20のそれぞれの少なくとも一部分を背面(下面)側に配設している。これにより、ペン入力装置40のタッチ面に沿って拡がる方向のサイズの大型化を抑制し、コンパクトサイズの実現に寄与している。
 導光板1の液晶表示パネル2とは反対側の表面が、ペン3によってタッチされるタッチ面として構成されている。
 導光板1における撮像ユニット10、20を配設する一辺の両端近傍には、それぞれ、タッチ面から背面に貫通した貫通孔1h(光取り出し部)が設けられている。
 以下、貫通孔1hおよび撮像ユニット10、20について、図2および図3を用いて説明する。図2は、貫通孔1hおよびその周辺を示した拡大平面図である。図3は、図2に示す切断線B-B´の矢視断面図である。なお、図1に示す2つの貫通孔1hはそれぞれ同じ構造であり、また撮像ユニット10、20もそれぞれ同じ構成であるので、図2および図3では、説明の便宜上、導光板1に設けられた2つの貫通孔1hのうちの一方と、その貫通孔1hの下方に配設された一つの撮像ユニット10について説明し、もう一つの貫通孔1hと撮像ユニット20とについては説明を省略する。
 撮像ユニット10は、導光板1の背面に対向する位置の、貫通孔1hおよびその周囲の直下に配されている。図3に示すように、ペン3から導光板1に入射して結合した光は、全反射しながら導光板1の内部を伝搬する(図中の矢印で示す方向に伝搬)。そして、貫通孔1hの上記壁面(導光板の上面の端部に隣接した端面)まで達すると、当該壁面によって光の光路が変化し、導光板1の背面に向かい、さらに背面から出射して撮像ユニット10に入射する。
 導光板1に設けられた上記貫通孔1hの壁面は、導光板1の背面に対して、45度以下、例えば30度や45度で傾斜している(図3中のγ)。これにより、導光板1の内部を伝搬して当該壁面に至った光の全反射条件を破綻させることができる。例えば、貫通孔1hの壁面は、導光板1の内部を伝搬して当該壁面に至った光を、90度変化させて導光板1の背面に向かわせ、背面から更に下方に出射させることができる。
 なお、漏斗形状の壁面には、ミラーコーティングが施してあってもよい(光取り出し部)。ミラーティングを施して光反射加工することによって、より効果的に光路を変換することができ、光量のロスも抑えることが可能である。
 導光板1の厚さは1~3mmが主に用いられる。導光板1の材料としては、例えばアクリルが用いられ、ポリカーボネートやガラスでも構わない。また導光板1の厚さは1~3mmが主に用いられるが、これより厚くてもかまわない。また、導光板1のサイズ(タッチ面のサイズ)は、約1m角とすることができるが、これに制限されるものではない。
 なお、貫通孔1hは、円錐体にも似た構造である。しかし本発明はこれに限定されるものではなく、多角面状に構成されていてもよい。
 撮像ユニット10は、図3に示すように、光入射側から、レンズ11と、可視光カットフィルタ12と、撮像素子13とをこの順で有している。そのため、撮像ユニット10に入射した上記光は、まずレンズ11によって集光され、続いて可視光カットフィルタ12によって可視光が遮断されて、撮像素子13に受光される。撮像素子13では、受光した光が光電変換されて画像が形成される。この点については、後述する。
 なお、撮像ユニット10と導光板1とは、図1および図2に示すように、固定用部材7を介して、固定されている。固定用部材7は円柱構造であるが、構造はこれに限定されるものでなく、また、そのサイズも特に限定はないが、コンパクトで、且つ、十分な強度を有していることが好ましい。固定用部材7は、撮像ユニット10および導光板1に対して接着剤などを用いて固定すればよい。本実施形態では、図1に示した撮像ユニット10、20が、導光板1の端部よりも内側に配されているため、導光板1の上面の全面のうちの一部の領域が座標検出可能領域となっている。そのため、固定用部材7は、当該座標検出可能領域から外れた位置にあればよい。
 ●ペン3
 一方、ペン入力装置40に対応するペン3は、いわゆるタッチペン、スタイラスペンと呼ばれる操作部材である。本実施形態のペン3の詳細について、図4を用いて説明する。
 図4は、ペン3の構成を示す断面図である。ペン3は、外形となる筐体35の内部に、赤外光を出射する発光素子31および当該赤外光をペン3の先端へと導く導光部材32を有する発光部30と、電源装置33と、制御装置34とが、格納されている。そして、本実施形態のペン3の特徴的構成として、ペン3の先端に発光部30が配置された構成となっているとともに、その光出射側に、光を拡散させる光拡散部材36を取り付けている点がある。
 この光拡散部材36は、光拡散材料を含有する樹脂から構成されている。上記光拡散材料としては、ガラスビーズを用いることができる。また上記樹脂としては、フッ素樹脂(具体例としてはポリテトラフルオロエチレン)、シリコンラバーを用いることができ、弾性を有して構成されていることが好ましい。弾性材を用いることによって、ペン入力装置40の導光板1にペン3の先端、すなわち光拡散部材36を接触させて用いる場合に、導光板1表面を傷付けることなく、且つ、接触によって僅かに接触部分が変形して導光板1表面との接触面積を大きくすることができるので、導光板1表面にカップリングする光量を多くすることができる。
 光拡散部材36の光出射面は、図4に示すように、曲面を有している。すなわち、光拡散部材36は概ね半球体である。なお、この曲面は、均一な曲率によって構成されている必要はなく、ペン3の最も先端部となる領域とそれを囲む領域とで曲率を異ならせても良い。なお、この曲面には、表面に微細な凹凸形状が設けられていても良い。
 また、光拡散部材36の光出射面には、耐磨耗加工が施されていることが好ましい。光拡散部材36がポリテトラフルオロエチレンによって構成されている場合には不要であるが、光拡散部材36自体が耐磨耗に優れていない他の材料から構成されている場合には、その光出射面に耐磨耗加工を施すことは有効である。耐磨耗加工とは、特に制限はないが、例えばポリテトラフルオロエチレンを光拡散部材36の光出射面にコーティングする加工が挙げられる。
 さらに、この光拡散部材36は、ペン3に対して着脱可能に構成されている。光拡散部材36が何らかの理由で損傷した場合(経時劣化を含む)であっても、光拡散部材36を交換するだけでペン3の使用を継続することができる。ペン3ごと交換する構成に比べて、低コストで使用を継続することができる。着脱可能であるために、光拡散部材36が取り付けられる側の部材(本実施形態では、導光部材32)には、光拡散部材36と接触する部分に、溝構造、咬合する構造、または、嵌め合う構造が設けられており(不図示)、光拡散部材36には、その構造に合う構造が設けられている(不図示)。なお、本実施形態では、導光部材32に光拡散部材36を取り付ける態様であるが、本発明はこれに限定されるものではなく、筐体35に光拡散部材36を取り付ける態様であってもよく、他の態様であってもよい。
 上記発光素子31は、赤外光を発するLED(light emitting diode)あるいはLD(laser diode)を用いることができる。なお、LEDもしくはLDは、一つのペン3に対して一つだけ設けられている構成に限らず、複数個を搭載してもよい。
 上記電源装置33から電源を受けて発光した発光素子31からの赤外光は、上記導光部材32を経てこの光拡散部材36に入射し、当該光拡散部材36の上記光拡散材料および上記微細凹凸によって乱反射する。そして、光拡散部材36の光出射面から拡散光となって出射される。
 電源装置33は、例えば電池を内蔵する構成とすることができるほか、充電式に構成されていてもよい。
 上記制御装置34は、発光素子31の発光を制御する。例えば、発光素子31が導光板1に接触したときにのみに発光する仕組み等が盛り込まれる。この仕組みは感圧スイッチ等を用いることにより構成され、発光時間を制御できるため、消費電力を低減し、電池寿命を延ばすことができる。
 以上のように、ペン3には、赤外光を出射する光源が設けられており、ペン先から赤外光が拡散放射される構成となっている。ペン3のペン先が導光板1に接触すると、ペン先から放射された赤外光の一部が、導光板1に結合して、導光板1内を伝搬する。ペン3は、ペン先から赤外光を拡散放射するため、導光板1に結合した光は、導光板1内を拡散放射する。そして、撮像ユニット10、20は、図1に示すように導光板1の内部を伝搬する赤外光(以下、伝搬光4a、4bと記載する)を、それぞれ捕らえて、撮像素子13から得られる各画像から、当該接触の二次元の位置座標を求める。撮像素子13の受光面は、導光板1の表面と平行であるように配設されている。以下に、ペン入力の検出原理について詳述する。
 (ペン入力の検出原理)
 ペン3のペン先がペン入力装置のタッチ面(透明導光板表面)に接触したとき、ライトペンから放射される赤外光の一部が屈折率Nの導光板1内に入射する。この入射光のうち、図3に示す導光板1内の伝搬角θが、式;
sin(90°-θ)>1/N
に示す条件を満たす光束は、図3に示すように、導光板1内に閉じ込められ、導光板1の表面、および裏面での反射を繰り返し、導光板1内を進行する。
 ペン3から発せられた赤外光はペン先を中心にして放射状に拡散され、導光板1内を伝搬し、その光束のうちの一部の光束4a、4b(図1)は貫通孔1hの壁面に導かれ、当該端面の反射光が撮像ユニット10、20で受光される。具体的には、当該端面の反射光は、レンズ11にて集光され、続いて、可視光カットフィルタ12を通って、最後に撮像素子13に受光される。可視光カットフィルタ12はペン3から放射される赤外光を透過し、それ以外の波長帯の光を遮断する役割を果たす。可視光カットフィルタ12により、太陽光や、液晶表示パネルバックライト光等の迷光が遮断され、SN比を高くすることができる。
 ここで図5(a)は、導光板1が、片方の貫通孔1hの中心軸の位置で切断した断面図となっている。図5(a)に示すように、ペン3から発せられて導光板1内部に入射した光は、導光板1内を伝搬し、貫通孔1hの壁面で光路を変え、導光板1から出射してレンズ11に入射し、可視光カットフィルタ12を経て、撮像素子13に受光される。撮像素子13は、イメージセンサを有しており、赤外線を照射している状態にあるペン3のペン先が導光板1に接触していないときには、イメージセンサは何も結像しない。一方、図5(a)に示すようにペン3のペン先が導光板1に接触してペン3からの赤外光が導光板1に結合すると、イメージセンサでは、図5(b)に示すように線状の像15が形成される。
 この図5に示す線状の像15の位置は、ペン3のペン先の接触点の位置に依存して変化し、ペン先の接触点の位置を変えると、線状像は破線で示した線状像17のように変化する。その線状像の軌跡は一点鎖線で示した扇形状16になる。すなわち、線状の像15は、導光板1の内部を伝搬する光の伝搬方向を示すものである。
 以下、図6および図7を用いて、検出原理の詳細を説明する。本実施形態では、上述のように、撮像ユニット10、20によって撮像された画像に基づいてタッチ位置の位置座標を検出する検出装置60を用いる。図6は、検出装置60の構成を示すブロック図である。図7(a)は、導光板1の一方の貫通孔1hおよびその近傍の部分平面図であり、図7(b)は、撮像素子13のイメージセンサに結像される像と当該像に基づいてタッチ位置の位置座標を検出する方法を模式的に示している。
 検出装置60は、図6に示すように、交点算出手段61と、仮想軸決定手段62と、角度決定手段63と、座標検出手段64とを備えている。
 交点算出手段61では、位置座標を検出する準備段階の前半として、少なくとも二箇所の光入射位置から光が受光手段にそれぞれ入射して得られる少なくとも2つの棒状の像のそれぞれの長手方向に延伸した各直線の交点を算出する。そのために、交点算出手段61は、直線抽出部61a(画像補正手段)と交点決定部61bとを有している。
 直線抽出部61aは、図7(a)に示すように、導光板1のタッチ面において第1の光入射位置(タッチ位置)から光が導光板1に結合して導光板1の内部を伝搬してそのうちの一部の光束が貫通孔1hにて取り出されて、図7(b)に示すように、撮像ユニット10の撮像素子13(イメージセンサ)に入射して得られる第1の棒状の像の長手方向に延伸する第1の直線と、当該第1の光入射位置とは異なる第2の光入射位置(タッチ位置)から光が導光板1に結合して導光板1の内部を伝搬してそのうちの一部の光束が貫通孔1hにて取り出されて、図7(b)に示すように、撮像ユニット10の撮像素子13(イメージセンサ)に入射して得られる第2の棒状の像の長手方向に延伸した第2の直線とを求める。
 続いて、上記仮想軸決定手段62が、位置座標を検出する準備段階の後半として、交点算出部によって算出された交点を通る仮想軸を決定する。仮想軸の決定方法の一例としては、単純に撮像画像の底辺(横軸)を仮想軸として、各軸間の角度差は、撮像素子の取り付け設計角度差と取り付け誤差によって発生した角度誤差を加算した値として、角度誤差は正確な角度がわかっているリファレンス点の撮像結果を用いて測定することが可能である。その他の例としては、撮像ユニット10、20ごとに上述の過程で交点が算出されるので、これら交点同士を結ぶ線分を仮想軸に設定することも可能である。
 なお、本実施形態では、仮想軸は、図1に示す2つの貫通孔1h(2つの撮像ユニット)の各中心軸を結ぶ線分(辺A)と一致している。
 続いて、角度決定手段63は、第nの光入射位置から光が導光板1に結合して導光板1の内部を伝搬してそのうちの一部の光束が一方の貫通孔1hにて取り出されて図6(b)に示すように撮像ユニット10の撮像素子13(イメージセンサ)に入射して得られる第nの棒状の像の長手方向に延伸する第nの直線を求めて、求めた第nの直線と上記仮想軸とが成す角度θn1を求める。且つ、第nの光入射位置から光が導光板1に結合して導光板1の内部を伝搬してそのうちの一部の光束が他方の貫通孔1hにて取り出されて撮像ユニット20(図1)の撮像素子23(イメージセンサ)に入射して得られる第nの棒状の像の長手方向に延伸する第nの直線を求めて、求めた第nの直線と上記仮想軸とが成す角度θn2を求める。そのために、角度決定手段63は、図8に示すように、メモリ631と、画像補正部632と、一次元化処理部633と、二値化処理部634と、抽出部635とを有している。
 メモリ631では、撮像素子13、23のそれぞれで結像された、図5(b)において一点鎖線で示した扇形状16の領域の画像を含む撮像画像を記憶する。
 画像補正部632では、メモリ631に格納された撮像画像を取得し、画像補正する。具体的には、画像補正部632では、線状像の軌跡によって形成される図5(b)において一点鎖線で示した扇形状16の領域の画像を、矩形領域の画像に補正する。図9は、画像を模式的に示す図であり、図9の(a)ではイメージセンサで結像された画像に含まれる扇形状16の領域を示し、図9の(b)において、この扇形状16の領域の画像が、上記画像補正部632によって、矩形領域16´の画像に補正された状態を示している。矩形領域16´に補正された画像は、再び、メモリ631に格納される。矩形領域16´に補正された画像は、撮像素子13、23それぞれに形成される。
 一次元化処理部633は、矩形領域16´に補正された画像を、メモリ631から取得し、一次元化処理し、一次元データを作成する。作成された一次元データは、二値化処理部634に送られる。一次元データは、撮像素子13、23それぞれに形成される。
 二値化処理部634では、図9の(b)に示す平均化方向に加算(平均)して、所定の閾値で二値化し、二値化データを作成する。二値化データは、撮像素子13、23それぞれに形成される。
 抽出部635では、二値化処理部634によって作成された二値化データから中央位置を抽出する。そして、抽出した中央位置を利用して、撮像素子13における上記角度θn1を求め、且つ、撮像素子23における上記角度θn2を求める。具体的には、求める角度(θn1またはθn2)をθxとしたとき、下記の式;
θx=(θE-θS)×(Rx/RW)+θS
(ただし、式中、
矩形領域に変換される前の扇形の角度の始角:θS(仮想軸を0とする)
矩形領域に変換される前の扇形の角度の終角:θE(仮想軸を0とする)
矩形領域の幅:RW
中央位置:Rx
とする)
に基づいてθxを求める。
 上述のように、本実施形態では、仮想軸の長さは、図1の2つの貫通孔1hの中心軸間を結ぶ直線(以下、辺Aと記載)と等しい。また、上記角度θn1は、図1に示す光束4bと辺Aとのなす角度βに相当し、上記角度θn2は、図1に示す光束4aと辺Aとのなす角度αに相当する。
 以上から、上記座標検出手段64において、図1の角度α(角度θn1)と、角度β(角度θn2)と、辺Aの両端の位置座標と、辺Aの長さとから三角測量の原理を用いて第nの光入射位置の位置座標を求める。なお、辺Aを仮想軸における交点間の距離とする場合、撮像画像上の交点等の単位は画素なので、三角測量における座標位置の特定はメートル等の実単位の撮像素子間の距離(あるいは光取り出し部の距離)等を基にすることになる。
 なお、検出装置60は、入力システム50に構成されていればよく、ペン入力装置40の外部に設けてもよい。
 また、以上の方法で求められたペン3の位置座標に基づいて、液晶表示パネル2の当該位置座標に対応する位置にある画素を駆動して、ユーザが、ペン3のタッチ位置を視認することができるようにすることが可能である。そのためには、液晶表示パネル2の駆動を制御する制御部(不図示)が、位置座標検出部で求めた位置座標の情報を取得して、当該情報に基づいて液晶表示パネル2を駆動すればよい。
 以上のように本実施形態の入力システム50は、導光板1における互いに離れた少なくとも二箇所において、伝搬した光を捕らえることによって、ペン3の位置座標を求めることができる。
 また本実施形態のペン入力装置40の構成によれば、導光板1のタッチ面よりも上方に突出しない位置に撮像ユニットが設けられているので、導光板1のタッチ面がペン入力装置40の最上面となり、タッチ面よりも上方に撮像ユニットが出っ張らない。よって、本実施形態の入力システム50のペン入力装置40をテーブル型端末に適用した場合であっても、周囲が土手のように盛り上がることなく、テーブル面を完全にフラットにすることができる。
 また本実施形態のペン入力装置40の構成によれば、導光板1の内部を伝搬して上記端面に至った伝搬光を、撮像ユニット10、20の少なくとも一部分が導光板1の背面と対向する位置に配設されている。これにより、従来構成のように、導光板(平板部材)の上面の面積を拡げる方向に沿って撮像ユニット(センサーアレイ)配設されている構成と比較して、導光板の上面の面積を拡げる方向に装置が大型化することを抑えて、入力装置の小型化に寄与することができる。
 また、本実施形態のペン入力装置40は、ペン3先からの放射光を受光する撮像ユニット10、20が導光板1に接続されていて、導光板1を伝搬しない光は撮像素子に結合しない構造になっている。よって、導光板1のタッチ面の法線方向から照明光が当てられても、その光は導光板1に結合しないため、迷光が撮像素子に導かれることはない。このため、ペン入力装置40は外光の影響を受けにくく、屋外や窓際に配置することが可能である。
 また、本実施形態では、撮像ユニット10、20がそれぞれ導光板1に固定されていることから、導光板1が環境温度の変化に応じて膨張、収縮した場合であっても、撮像ユニット10、20のそれぞれと導光板1とが位置ずれを起こすことがなく、相対位置を一定に保つことができる。
 また、本実施形態では、ペン3先から出射される光が、ペン3先に設けた光拡散部材36によって拡散する構成となっている。これにより、ペン3の傾斜角度によることなく、十分な光量を導光板1にカップリングさせることができる。したがって、正確な位置検出を実現することができる。
 なお、本実施形態では、撮像素子13および撮像素子23の計2つの撮像素子を用いた構成について説明したが、本発明はこれに限定されるものではなく、導光板1の端部における各箇所からミラーおよびシャッターを用いて一つの撮像素子に集めてもよい。
 なおまた、本実施形態では、導光板1の内部を伝搬する光を貫通孔1hにて取り出す態様を説明したが、本発明はこれに限定されるものではなく、導光板1の角部に、貫通孔1hの壁面と同じく導光板1の背面に対して傾斜している面を有した切り欠きを設けてもよい。
 なお、本実施形態では、仮想軸が、図1に示す2つの貫通孔1h(2つの撮像ユニット)の各中心軸を結ぶ線分(辺A)と一致している態様について説明したが、本発明はこれに限定されるものではなく、仮想軸と、2つの貫通孔1h(2つの撮像ユニット)の各中心軸を結ぶ線分(辺A)とに角度差がある場合であってもよい。この場合には、当該角度差の角度が予め分かっているか当該角度を予め求めておき、その角度と、求めた上記角度θn1およびθn2とを用いて、三角測量に用いる角度を求めて、当該求めた角度と、2つの貫通孔1h(2つの撮像ユニット)の各中心軸を結ぶ線分(辺A)とを用いて上述のように三角測量の原理を用いて第nの光入射位置の位置座標を求めることができる。このように、角度差がある場合とは、撮像素子の設計上の設置角度と、実際に取り付けた撮像素子の設置角度との間の角度誤差(取り付け誤差)が生じた場合に生じ得る。
 (本実施形態の作用効果)
 本実施形態のペン入力装置40は、上述した検出装置60を有することにより、導光板の上面への光入射位置が変わるごとに各光入射位置の光を受光手段が受けると各上記像によって扇形の軌跡が描かれる構成において、受光手段から得られる画像から、三角測量のための角度を正確に検出することができる。
 (変形例1)
 上述の実施形態1では図8に示す角度決定手段63を備えているが、本変形例では図10に示すように、角度決定手段63´が、ピクセルカウンタ6300と、ルックアップテーブル(LUT)処理部6301(メモリ手段)と、メモリ631と、一次元化処理部633と、二値化処理部634と、抽出部635とを有している。
 撮像素子13で結像された、図5(b)において一点鎖線で示した扇形状16の領域の画像を含む撮像画像を、ピクセルカウンタ6300が受け取ると、扇形状16の領域の画像データの位置アドレスを、ルックアップテーブル(LUT)処理部6301に送る。
 ルックアップテーブル処理部6301では、線状像の軌跡によって形成される図5(b)において一点鎖線で示した扇形状16の領域の画像データの位置アドレスに対応したメモリアドレスに、矩形領域16´の画像データの位置情報を対応付けたルックアップテーブルを用いて、扇形状16の領域の画像を、矩形領域16´の画像に補正する。当該ルックアップテーブルは、扇形状16の領域内の或る画素が、扇形状16の領域の画像が矩形領域16´の画像に補正されたときに、扇形状16の領域内での位置に対応した、当該矩形領域16´の領域内での位置になるように構成されている。図11は、本変形例における画像補正について示す図であり、一点鎖線で示した扇形状16の領域の画像を含む撮像画像データ全体に位置アドレスを設け、そのうちの扇形状16の領域の画像データの位置アドレスには、矩形領域16´の画像データの位置情報を対応付ける一方、扇形状16の領域外の画像データの位置アドレスには、異なる位置情報を対応付ける。これにより、図11に示すように、矩形領域16´の画像データを作成することができる。
 矩形領域16´に補正された画像は、再び、メモリ631に格納される。以降の処理は、実施形態1と同じである。
 本変形例によれば、ルックアップテーブルを使用することにより、メモリ631へのバッファリングと同時に画像補正が行うことができるので、簡易且つ高速に処理を完了することができる。
 (変形例2)
 本変形例では、上述の実施形態1の図8に示す角度決定手段63に構成されたメモリ631および一次元化処理部633に代えて、図12に示すように、ピクセルカウンタ6300と、ルックアップテーブル(LUT)処理部6301(メモリ手段)と、加算器6302と、一次元データ用メモリ6303とを有した一次元化処理部633´を有している。
 これにより、撮像画像の位置アドレスに一次元データメモリの位置に対応した値をもつルックアップテーブル(LUT)と、一次元データメモリの値と撮像画像のピクセルの値とを加算する加算器とによって、図13に示すように、画像補正と一次元化とを同時に行うため、データ用メモリの容量が小さくなり、構成を簡素化することができる。
 〔実施形態2〕
 図14~図16を用いて本発明の入力システムの他の実施形態について説明する。図14は、本実施形態の入力システムのペン入力装置の一部の構成を示す断面図である。本実施形態と、上述の実施形態1との相違点は、ペン入力装置に具備される導光板の構造と、撮像ユニットの構成にある。なお、図14では、片方の撮像ユニットのみを図示しているが、もう片方の撮像ユニットも、図14に示す撮像ユニットと同一の構成である。
 まず、本実施形態のペン入力装置に具備される導光板の構成について説明する。上述の実施形態1の導光板1では、光路変換部として貫通孔1hが設けられている。これに対して、本実施形態の導光板1´のタッチ面における、実施形態1の貫通孔1hと同じ位置に、凹部1h´が設けられている。
 上記凹部1h´は、底面がタッチ面と平行に構成され、開口端から当該底面に向かって開口径が徐々に小さくなった形状を有している。すなわち、凹部1h´の側面は導光板1´の厚さ方向に対して傾斜しており、この傾斜面は、実施形態1の貫通孔1hの壁面と同じく、導光板1´の背面に対して45度以下、例えば30度や45度で傾斜している(図14中のγ)。本実施形態では、この傾斜面によって、導光板1の内部を伝搬して当該壁面に至った光の全反射条件を破綻させることができる。全反射条件が破綻した光は、傾斜面によって反射して光路を変え、背面から更に下方に出射して、撮像ユニット10´に入射する。
 本実施形態に具備される撮像ユニット10´は、上述の実施形態1の撮像ユニット10の可視光カットフィルタ12(図3)に代えて、アパーチャ14が、レンズ11と撮像素子13との間に配設されている。アパーチャ14は、凹部1h´の側面によって反射した光(伝搬光)以外の光が撮像素子13に入射することを防ぐために、凹部1h´の側面によって反射した光の光路のみが開口している一方、他の領域は遮光されている素子である。
 そして、以上のように、伝搬光の光路変更部(凹部1h´の側面)が比較的小さい場合や、アパーチャ14を備えている場合には、撮像素子13(イメージセンサ)上に結像する像が、実施形態1の撮像素子13上に結像する像のように細長い線状の像15(図5)にはならず、長手方向が明瞭でない像となる。そのため、本実施形態のペン入力装置の構成の場合には実施形態1で説明したペン入力の検出原理とは異なる検出原理に基づいて、ペン入力の位置座標を求める。以下、本実施形態のペン入力の検出原理を、図15を用いて説明する。
 図15(a)は、導光板1の一方の凹部1h´およびその近傍の部分平面図であり、図15(b)は、撮像素子13のイメージセンサに結像される像と当該像に基づいてタッチ位置の位置座標を検出する方法を模式的に示している。図14に示すように、ペン3から発せられて導光板1内部に入射した光は、導光板1内を伝搬し、凹部1h´の側面で光路を変え、導光板1から出射してレンズ11に入射し、アパーチャ14の開口部分を通過して、撮像素子13に受光される。撮像素子13は、イメージセンサを有しており、赤外線を照射している状態にあるペン3のペン先が導光板1に接触して赤外光が導光板1に結合すると、イメージセンサでは、図15(b)に示すように非線状の像15´が形成される。図15(b)に示すように像の長手方向が不明瞭である場合には、上述の実施形態1の検出装置60(図1、図6)に具備された交点算出手段61に代えて、図16に示す中心点算出手段610を備えて、異なる方法によって交点を算出する。
 中心点算出手段610は、図15(a)に示すように、導光板1´のタッチ面において第1の光入射位置(タッチ位置)から光が導光板1´に結合して導光板1の内部を伝搬してそのうちの一部の光束が凹部1h´にて取り出されて、図15(b)に示すように、撮像ユニット10´の撮像素子13(イメージセンサ)に入射して得られる第1の像と、同様に、図15(a)に示す第2の光入射位置(タッチ位置)からの光によって撮像素子13(イメージセンサ)に形成される第2の像と、図15(a)に示す第3の光入射位置(タッチ位置)からの光によって撮像素子13(イメージセンサ)に形成される第3の像と、を用いて、これら三つの像が一つの円周上に位置する仮想円の中心点を算出する。ここでは、三つの像(三つの光入射位置)を用いたが、本発明はこれに限定されるものではなく、三つ以上であればよい。
 次に、中心点算出手段610によって算出された仮想円の中心点を通る仮想軸を、実施形態1と同じ仮想軸決定手段62によって決定する。以上の準備段階によって仮想線が設定された状態において、いよいよ位置座標検出段階として、角度決定手段63を用いる。
 この角度決定手段63は、第nの光入射位置から光が導光板1´に結合して導光板1´の内部を伝搬してそのうちの一部の光束が凹部1h´にて取り出されて図15(b)に示すように撮像ユニット10´の撮像素子13(イメージセンサ)に入射して得られる第nの像と、上記仮想円の中心点を結ぶ直線を求めて、求めた第nの直線と、上記仮想軸とが成す角度θnを求める。ここで、本実施形態においても、複数の光入射位置に基づいて撮像素子13上に結像される像の軌跡は、実施形態1よりも幅は狭いが扇形の軌跡となる。そのため、角度θnを求める方法は、実施形態1の方法と同じである。
 以上、本発明に係る実施形態について説明したが、本発明は上記の実施形態に限定されるものではない。本請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
 本発明は、発光ペンを用いてペンの座標位置を求めるあらゆる種類の入力システムに提供することができる。
1 導光板
1h 貫通孔(光取り出し部)
1h´ 凹部(光取り出し部)
2 液晶表示パネル
3 ペン(操作部材)
4a、4b 光束
7 固定用部材
10 撮像ユニット(受光手段)
11 レンズ
12 可視光カットフィルタ
13 撮像素子
14 アパーチャ
16 扇形状
16´ 矩形領域
17 線状像
20 撮像ユニット(受光手段)
23 撮像素子
30 発光部
31 発光素子
32 導光部材
33 電源装置
34 制御装置
35 筐体
36 光拡散部材
40 ペン入力装置(入力装置)
50 入力システム
60 検出装置(検出手段)
61 交点算出手段
61a 直線抽出部
61b 交点決定部
62 仮想軸決定手段
63 角度決定手段
64 座標検出手段
610 中心点算出手段
6300 ピクセルカウンタ
6301 ルックアップテーブル(LUT)処理部
6302 加算器
6303 一次元データ用メモリ
631 メモリ
632 画像補正部
633 一次元化処理部
634 二値化処理部
635 抽出部

Claims (6)

  1.  上面から入射した光を内部において伝搬させる導光板と、
     上記導光板における互いに離れた複数の箇所に在って、各箇所から伝搬光を導光板の外部に取り出す複数の光取り出し部と、
     各上記光取り出し部から取り出された各上記箇所の光を受けて棒状の像を結像する受光手段と、を備えた、導光板の上記上面における上記光の光入射位置の位置座標を検出する入力装置であって、
     導光板の上記上面への光入射位置が変わるごとに各光入射位置の光が或る光取り出し部から取り出されて上記受光手段に受光されて得られる各上記棒状の像を結ぶと、扇形の軌跡が描かれる構成となっており、
     上記入力装置は、
     上記導光板の上記上面において互いに異なる少なくとも二箇所の光入射位置から光が受光手段にそれぞれ入射して得られる少なくとも2つの棒状の像のそれぞれの長手方向に延伸した各直線の交点を、導光板における互いに離れた二箇所にある上記光取り出し部ごとに算出する交点算出手段と、
     上記交点算出手段によって算出された上記交点を通る仮想軸を決定する仮想軸決定手段と、
     第nの光入射位置から光が入射したときに、上記受光手段に結像する第nの棒状の像の長手方向に延伸した第nの直線と上記仮想軸とが成す角度を上記二箇所にある光取り出し部ごとに算出し、算出された2つの当該角度を基に、第nの光入射位置の位置座標を検出する検出手段と、をさらに備えていることを特徴とする入力装置。
  2.  上面から入射した光を内部において伝搬させる導光板と、
     上記導光板における互いに離れた複数の箇所に在って、各箇所から伝搬光を導光板の外部に取り出す複数の光取り出し部と、
     各上記光取り出し部から取り出された各上記箇所の光を受けて像を結像する受光手段と、を備えた、導光板の上記上面における上記光の光入射位置の位置座標を検出する入力装置であって、
     導光板の上記上面への光入射位置が変わるごとに各光入射位置の光が或る光取り出し部から取り出されて上記受光手段に受光されて得られる各上記像を結ぶと、扇形の軌跡が描かれる構成となっており、
     上記入力装置は、
     上記導光板の上記上面において互いに異なる少なくとも三箇所の光入射位置から光が受光手段にそれぞれ入射して得られる少なくとも三つの像が一つの円周上に位置する仮想円の中心点を、導光板における互いに離れた二箇所にある上記光取り出し部ごとに算出する中心点算出手段と、
     上記中心点算出手段によって算出された上記中心点を通る仮想軸を決定する仮想軸決定手段と、
     第nの光入射位置から光が入射したときに、上記受光手段に結像する第nの像と上記中心点とを結ぶ第nの直線と、上記仮想軸とが成す角度を上記二箇所にある光取り出し部ごとに算出し、算出された2つの当該角度を基に、第nの光入射位置の位置座標を検出する検出手段と、をさらに備えていることを特徴とする入力装置。
  3.  上記扇形の軌跡が描かれる領域の画像を、矩形領域に変換する画像補正手段をさらに備えていることを特徴とする請求項1または2に記載の入力装置。
  4.  上記画像補正手段は、上記扇形の軌跡が描かれる領域の画像データの位置アドレスに対応したメモリアドレスに、画像補正後位置に対応した値を保持したメモリ手段を有していることを特徴とする請求項3に記載の入力装置。
  5.  請求項1から4までの何れか1項に記載の入力装置と、
     上記導光板の上記上面に接触して、当該接触した位置から光を出射する操作部材と、を具備していることを特徴とする入力システム。
  6.  複数の画素を有する画像表示パネルをさらに具備し、
     上記検出手段によって検出された上記位置座標に基づいて、上記画像表示パネルの上記画素を駆動する請求項5に記載の入力システム。
PCT/JP2012/081076 2012-02-29 2012-11-30 入力装置および入力システム WO2013128737A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-044610 2012-02-29
JP2012044610A JP5813533B2 (ja) 2012-02-29 2012-02-29 入力装置および入力システム

Publications (1)

Publication Number Publication Date
WO2013128737A1 true WO2013128737A1 (ja) 2013-09-06

Family

ID=49081958

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/081076 WO2013128737A1 (ja) 2012-02-29 2012-11-30 入力装置および入力システム

Country Status (2)

Country Link
JP (1) JP5813533B2 (ja)
WO (1) WO2013128737A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3024252A1 (fr) * 2014-07-24 2016-01-29 Morpho Acquisition numerique d'un trace manuscrit

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6421520A (en) * 1987-07-17 1989-01-24 Fujitsu Ltd Coordinate input device
JPH096521A (ja) * 1995-06-15 1997-01-10 Nec Corp ペン入力装置
JP2009223535A (ja) * 2008-03-14 2009-10-01 Sega Corp 位置入力装置、接触物、位置入力方法及び位置入力プログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001331264A (ja) * 2000-05-19 2001-11-30 Newcom:Kk 光学式位置検出装置及び光学式位置検出方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6421520A (en) * 1987-07-17 1989-01-24 Fujitsu Ltd Coordinate input device
JPH096521A (ja) * 1995-06-15 1997-01-10 Nec Corp ペン入力装置
JP2009223535A (ja) * 2008-03-14 2009-10-01 Sega Corp 位置入力装置、接触物、位置入力方法及び位置入力プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3024252A1 (fr) * 2014-07-24 2016-01-29 Morpho Acquisition numerique d'un trace manuscrit

Also Published As

Publication number Publication date
JP2013182344A (ja) 2013-09-12
JP5813533B2 (ja) 2015-11-17

Similar Documents

Publication Publication Date Title
JP5025552B2 (ja) タッチパネル
KR20180037749A (ko) 디스플레이 장치
WO2013111447A1 (ja) 座標入力装置、及び座標入力システム
JP2009295318A (ja) 照明装置及び電気光学装置
WO2016113917A1 (ja) 非接触入力装置及び方法
JP2014021790A (ja) 座標入力装置、座標検出方法、及び座標入力システム
WO2013094376A1 (ja) 入力システム
KR20120120697A (ko) 멀티터치 및 근접한 오브젝트 센싱 장치, 그리고, 디스플레이 장치
JP5813533B2 (ja) 入力装置および入力システム
JP5886080B2 (ja) 入力装置、および、当該入力装置を具備する入力システム
JP5944255B2 (ja) 発光部を有する操作部材、およびそれを備えた座標入力システム
JP6663736B2 (ja) 非接触表示入力装置及び方法
CN102063228B (zh) 光学侦测系统及应用该光学侦测系统的触摸屏
WO2013132925A1 (ja) 入力装置およびそれを具備する入力システム
JP2013156861A (ja) 座標入力装置、座標入力装置の座標補正方法、及び座標入力システム
JP2013190980A (ja) 座標入力装置、座標入力システム、及び座標入力方法
JP2013250817A (ja) 座標入力装置及び座標入力システム
JP5856357B1 (ja) 非接触入力装置及び方法
JP2013182535A (ja) 入力装置およびそれを具備する入力システム
JP5823283B2 (ja) 発光部を有する操作部材、および当該操作部材を具備する入力システム
JP2016151988A (ja) 入力システム
WO2013114715A1 (ja) 入力装置、および、当該入力装置を具備する入力システム
JP2013232095A (ja) 座標入力装置及び座標入力システム
JP2013210943A (ja) 座標入力装置、座標入力システム、及び座標入力方法
JP2006065595A (ja) 入力装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12869637

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12869637

Country of ref document: EP

Kind code of ref document: A1