WO2016114102A1 - 光デバイス及び操作入力装置 - Google Patents

光デバイス及び操作入力装置 Download PDF

Info

Publication number
WO2016114102A1
WO2016114102A1 PCT/JP2015/086572 JP2015086572W WO2016114102A1 WO 2016114102 A1 WO2016114102 A1 WO 2016114102A1 JP 2015086572 W JP2015086572 W JP 2015086572W WO 2016114102 A1 WO2016114102 A1 WO 2016114102A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
guide plate
convergence
space
optical device
Prior art date
Application number
PCT/JP2015/086572
Other languages
English (en)
French (fr)
Inventor
篠原 正幸
智和 北村
勇司 広瀬
靖宏 田上
奥田 満
和幸 岡田
Original Assignee
オムロン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2015180912A external-priority patent/JP6558166B2/ja
Application filed by オムロン株式会社 filed Critical オムロン株式会社
Priority to CN201580070068.XA priority Critical patent/CN107111150B/zh
Priority to DE112015005938.5T priority patent/DE112015005938B4/de
Priority to US15/538,842 priority patent/US10338749B2/en
Publication of WO2016114102A1 publication Critical patent/WO2016114102A1/ja

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21VFUNCTIONAL FEATURES OR DETAILS OF LIGHTING DEVICES OR SYSTEMS THEREOF; STRUCTURAL COMBINATIONS OF LIGHTING DEVICES WITH OTHER ARTICLES, NOT OTHERWISE PROVIDED FOR
    • F21V23/00Arrangement of electric circuit elements in or on lighting devices
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B6/00Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
    • G02B6/10Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings of the optical waveguide type
    • G02B6/12Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings of the optical waveguide type of the integrated circuit kind
    • G02B6/122Basic optical elements, e.g. light-guiding paths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means

Definitions

  • the present invention relates to an optical device and an operation input device.
  • a stereoscopic display device including a light guide plate, a light source, and a parallax barrier type or lens array type mask or lens array disposed on the surface side of the light guide plate is known (for example, Patent Documents). 1).
  • a display unit having a planar image display surface for displaying a two-dimensional image including a three-dimensional image, and a three-dimensional image in the two-dimensional image that is arranged in parallel with the image display surface and is separated from each other.
  • Patent Document 2 An image formed by a microlens array having a larger effective area and a lens frame region surrounding the effective region of the microlens array, and displaying a real image of a two-dimensional image in a space located on the opposite side of the display unit of the microlens array
  • the detection light for detecting an object may be substantially blocked by the mask.
  • detection light may be greatly diffused by the lens array.
  • the optical device includes a light guide plate that guides light in a plane parallel to the light emission surface, and is provided on the opposite side of the emission surface with respect to the light guide plate. And a sensor for detecting an object located on the exit surface side by light passing through the back surface and the exit surface.
  • the light guide plate is incident with light guided by the light guide plate, and is a single convergence point in space.
  • the convergence points or convergence lines are different from each other among the plurality of light convergence portions, and an image is formed in the space on the exit surface side by the collection of the plurality of convergence points or convergence lines.
  • the plurality of light converging portions may be formed along a predetermined line in a plane parallel to the emission surface.
  • the plurality of light converging units may form an image indicating a position where a user operation is received in at least one of a detection range where the sensor can detect an object and a vicinity of the detection range in the space on the exit surface side.
  • the sensor may include a light receiving unit that receives light from a position in space on the exit surface side through the exit surface and the back surface.
  • the sensor may further include a light projecting unit that projects light through the exit surface and the back surface in the space on the exit surface side.
  • the light receiving unit reflects the reflected light projected from the light projecting unit and reflected by the object. It may receive light.
  • the plurality of light converging units may form an image indicating a position for accepting a user operation in at least one of a predetermined range on the exit surface side and a vicinity of the predetermined range.
  • a plurality of cylindrical lenses that are provided at positions corresponding to a plurality of light converging portions on the light exit surface side of the light guide plate, and are respectively guided by the light guide plate and emitted from the light exit surface to restrict the spread of light from the corresponding light converging portions. May further be provided.
  • the sensor may detect an object by light along a plane orthogonal to the emission surface and parallel to the extending direction of the plurality of cylindrical lenses.
  • the plurality of cylindrical lenses may extend along a direction orthogonal to the direction in which the light guide plate guides light.
  • the plurality of cylindrical lenses may extend along the direction in which the light guide plate guides light.
  • an operation input device includes the above-described optical device and a determination unit that determines that an object is in a position to receive a user operation when an object located on the exit surface side is detected by a sensor. .
  • the operation input device 20 in one Embodiment is shown schematically with the three-dimensional image projected on space.
  • the cross section of the yz plane of the operation input device 20 is shown schematically.
  • the cross section of the xz plane of the operation input device 20 is shown schematically.
  • An operation input device 320 as a modification of the operation input device 20 is schematically shown.
  • An operation input device 420 as a modification of the operation input device 20 is schematically shown.
  • An operation input device 620 as a modification of the operation input device 20 is schematically shown.
  • An operation input device 720 as a modification of the operation input device 20 is schematically shown.
  • the light converging part 130 and the light converging part 132 as a modification of the light converging part 30 are shown schematically.
  • FIG. 1 schematically shows an operation input device 20 according to an embodiment together with a stereoscopic image projected onto a space.
  • the operation input device 20 includes the display device 10, a sensor 60, and a control unit 80.
  • the operation input device 20 functions as a virtual switch.
  • the figure used for description of embodiment shall be schematic or typical for the purpose of explaining in an easy-to-understand manner. The figure used for description of the embodiment may not be drawn on an actual scale.
  • the display device 10 emits light that forms the image 6 of the virtual switch.
  • the image 6 is a stereoscopic image that is recognized in space by the user.
  • the image 6 includes a partial image 7 representing an operation surface recognized in space.
  • the sensor 60 detects the presence of an object located in the vicinity of the partial image 7. As an example, the object is a user's finger 90. When the sensor 60 detects that an object is present in the vicinity of the partial image 7, the display device 10 outputs a signal indicating that the virtual switch has been pressed to the outside.
  • the display device 10 has an emission surface 71 that emits light.
  • the display device 10 forms an image 6 as a three-dimensional image with light emitted from the emission surface 71.
  • the three-dimensional image refers to an image that is recognized as being at a position different from the emission surface 71 of the display device 10.
  • the three-dimensional image includes, for example, a two-dimensional image recognized at a position away from the emission surface 71 of the display device 10. That is, the stereoscopic image is a concept including not only an image recognized as a three-dimensional shape but also an image having a two-dimensional shape recognized at a position different from the emission surface 71 of the display device 10.
  • the display device 10 includes a light guide plate 70 and a light source 21.
  • the light source 21 is, for example, an LED light source.
  • the light guide plate 70 is formed of a resin material that is transparent and has a relatively high refractive index.
  • the material forming the light guide plate 70 may be, for example, polycarbonate resin (PC), polymethyl methacrylate resin (PMMA), glass, or the like.
  • the light guide plate 70 has a back surface 72 opposite to the exit surface 71.
  • the light guide plate 70 includes an end surface 73, an end surface 74, an end surface 75, and an end surface 76 that are the four end surfaces of the light guide plate 70.
  • the end surface 73 is a light incident end surface of the light guide plate 70.
  • the end surface 73 is provided with the light source 21, and light from the light source 21 enters the light guide plate 70 from the end surface 73.
  • the end surface 74 is a surface opposite to the end surface 73.
  • the end surface 76 is a surface opposite to the end surface 75.
  • the light guide plate 70 guides light from the light source 21 in a plane shape in a plane parallel to the emission surface 71.
  • a right-handed orthogonal coordinate system of the x axis, the y axis, and the z axis may be used.
  • the z-axis direction is determined in a direction perpendicular to the emission surface 71.
  • the direction from the back surface 72 to the emission surface 71 is defined as the z-axis plus direction.
  • the y-axis direction is determined in a direction perpendicular to the end face 73.
  • the direction from the end surface 73 to the end surface 74 is defined as the y-axis plus direction.
  • the x-axis is a direction perpendicular to the end face 75 and the end face 76, and the direction from the end face 75 to the end face 76 is defined as the x-axis plus direction.
  • a plane parallel to the xy plane may be called an xy plane
  • a plane parallel to the yz plane may be called a yz plane
  • a plane parallel to the xz plane may be called an xz plane.
  • FIG. 2 schematically shows a cross section of the yz plane of the operation input device 20.
  • FIG. 3 schematically shows a cross section of the operation input device 20 in the xz plane.
  • a plurality of light converging portions 30 including a light converging portion 30a, a light converging portion 30b, and a light converging portion 30c are formed on the back surface 72 of the light guide plate 70.
  • the light converging part 30 is formed substantially continuously in the x-axis direction. Light guided by the light guide plate 70 is incident on each position of the light converging unit 30 in the x-axis direction.
  • the light converging unit 30 substantially converges the light incident on each position of the light converging unit 30 to fixed points respectively corresponding to the light converging unit 30.
  • FIG. 1 particularly shows a light converging unit 30a, a light converging unit 30b, and a light converging unit 30c as a part of the light converging unit 30, and in each of the light converging unit 30a, the light converging unit 30b, and the light converging unit 30c.
  • a state in which a plurality of light beams emitted from the light converging unit 30a, the light converging unit 30b, and the light converging unit 30c converge is shown.
  • the light converging unit 30 a corresponds to the fixed point PA on the image 6. Light rays from each position of the light converging unit 30a converge to a fixed point PA. Therefore, the wavefront of the light from the light converging unit 30a becomes a wavefront of light emitted from the fixed point PA.
  • the light converging unit 30 b corresponds to the fixed point PB on the image 6. Light rays from each position from the light converging unit 30b converge to the fixed point PB. As described above, the light beam from each position of the arbitrary light converging unit 30 substantially converges to a fixed point corresponding to the light converging unit 30.
  • a wavefront of light that emits light from a corresponding fixed point can be provided by an arbitrary light converging unit 30.
  • the fixed points corresponding to each light converging unit 30 are different from each other, and an image 6 recognized in space is formed by a collection of a plurality of fixed points respectively corresponding to the light converging units 30.
  • the display device 10 projects a stereoscopic image on the space.
  • each of the light converging portions 30 includes a large number of reflecting surfaces formed substantially continuously in the x-axis direction.
  • the surface density of the reflecting surface on the back surface 72 is preferably 30% or less.
  • the reflected light from the reflecting surfaces of the arbitrary light converging units 30 converges to a fixed point corresponding to the light converging unit 30.
  • the light beams of the plurality of reflected lights from the plurality of reflecting surfaces included in the light converging unit 30a converge on the fixed point PA.
  • the light beams of the plurality of reflected lights from the plurality of reflecting surfaces of the light converging unit 30b converge at the fixed point PB.
  • the light beams of the plurality of reflected lights from the plurality of reflecting surfaces of the light converging unit 30c converge on the fixed point PC.
  • the light beam guided by the light guide plate 70 and passing through each position in the light guide plate 70 has a divergence angle smaller than a predetermined value around the direction connecting each position in the light guide plate 70 and the light source 21.
  • the light converging unit 30 When the light converging unit 30 is provided at a position away from the light source 21, the light guided by the light guide plate 70 and incident on the light converging unit 30 becomes light having a small spread around the y-axis direction. Therefore, for example, on a plane that includes the fixed point PA and is parallel to the xz plane, the light from the light converging unit 30a substantially converges to one fixed point.
  • the spread of the light beam that passes through the point inside and outside the light guide plate refers to the spread of light when the light beam is regarded as light that diverges from that point. Further, the spread of the light beam passing through the points inside and outside the light guide plate may be simply referred to as the spread of light.
  • the light incident on the light converging unit 30 has a spread in the z direction
  • the light from the light converging unit 30 converges on a line along the y axis including a fixed point in space.
  • the light converging part 30a is formed along the line 190a.
  • the light converging part 30b is formed along the line 190b.
  • the light converging part 30c is formed along the line 190c.
  • the line 190a, the line 190b, and the line 190c are straight lines substantially parallel to the x-axis.
  • the arbitrary light converging part 30 is formed substantially continuously along a straight line substantially parallel to the x-axis.
  • the light converging part 30 is formed along a predetermined line in a plane parallel to the emission surface 71. Then, each of the light converging units 30 causes the light guided by the light guide plate 70 to enter, and emit the emitted light in a direction substantially converging to one convergence point in space from the emission surface 71.
  • the emitted light is light in a direction diverging from the fixed point. Therefore, when the fixed point is on the rear surface 72 side of the light guide plate 70, the reflection surface of the light converging unit 30 causes the emission surface 71 to emit the emitted light in a direction substantially diverging from one convergence point in space.
  • each of the light converging portions 30 may be formed by a part of a Fresnel lens.
  • Sensor 60 is a limited reflection type optical sensor.
  • the detection range in which the sensor 60 can detect an object is substantially limited to a range 180 on the space on the emission surface 71 side.
  • the sensor 60 includes a light projecting unit 61 and a light receiving unit 64.
  • the range 180 is an area where the light projecting light beam of the light projecting unit 61 and the light received light beam of the light receiving unit 64 intersect.
  • the light projecting unit 61 projects light into the space on the emission surface 71 side.
  • the light projected by the light projecting unit 61 is detection light for detecting an object.
  • the detection light from the light projecting unit 61 is projected to the space on the exit surface 71 side through the exit surface 71 and the back surface 72.
  • the light receiving unit 64 receives light from a position on the space on the emission surface 71 side through the emission surface 71 and the back surface 72. When an object exists within a predetermined range 180 in the optical path of light projected from the light projecting unit 61 to the space on the emission surface 71 side, the light receiving unit 64 is projected from the light projecting unit 61 and is an object. The reflected light is received.
  • the light projecting unit 61 includes a light emitting unit 62 and a light projecting side lens 63.
  • the light receiving unit 64 includes a photo sensor 65 and a light receiving side lens 66.
  • the light emitting unit 62 emits light as detection light.
  • the light projecting side lens 63 reduces the spread of light from the incident light emitting unit 62 toward the range 180.
  • the light emitted from the light projecting side lens 63 passes through the light guide plate 70 and is emitted as detection light toward the space on the emission surface 71 side.
  • the light projected by the light projecting unit 61 may be invisible light such as infrared light.
  • the light emitting unit 62 may be an infrared LED.
  • the detection light When there is an object in the range 180, the detection light is reflected by the object, and the reflected light is directed to the light receiving unit 64.
  • the reflected light passes through the light guide plate 70 and enters the light receiving side lens 66.
  • the reflected light that has entered the light-receiving side lens 66 is condensed toward the photosensor 65 and enters the photosensor 65.
  • the detection light is not reflected by the object, or the reflected light does not enter the light receiving unit 64.
  • the control unit 80 acquires a signal indicating the amount of light received by the photosensor 65.
  • the control unit 80 determines that the virtual switch has been pressed and outputs a signal indicating that the virtual switch has been pressed to an external device. In this way, when the object located on the exit surface side is detected by the sensor 60, the control unit 80 determines that the object is in a position for receiving a user operation.
  • the partial image 7 of the image 6 represents the operation surface of the virtual switch.
  • the partial image 7 is an example of an image indicating a position where a user operation is received.
  • the partial image 7 is formed within the range 180. For this reason, when the object is positioned in the vicinity of the partial image 7, the presence of the object is detected.
  • the partial image 7 is not necessarily formed in the range 180, and may be formed at a position in the vicinity of the range 180.
  • the light converging unit 30 forms the partial image 7 in at least one of the range 180 where the sensor 60 can detect the object and the vicinity of the range 180 where the sensor 60 can detect the object in the space on the emission surface 71 side. To do. As a result, it can be determined that the virtual switch has been pressed.
  • the light guide plate 70 is transparent, a sensor 60 for optical detection can be provided on the back surface 72 side.
  • the surface density of the reflective surface which the light converging part 30 has may be 30% or less. Therefore, even if the sensor 60 is provided on the back surface 72, the object can be detected by the detection light transmitted through the light guide plate 70.
  • FIG. 4 schematically shows an operation input device 320 as a modification of the operation input device 20.
  • the operation input device 320 includes a half mirror 300 in addition to the components included in the operation input device 20.
  • the half mirror 300 is provided between the sensor 60 and the light guide plate 70. Specifically, the half mirror 300 is provided between the light projecting unit 61 and the light receiving unit 64 and the back surface 72 of the light guide plate 70. The light projected from the light projecting unit 61 passes through the half mirror 300 and is projected to the space on the exit surface 71 side. The reflected light reflected by the object in the range 180 or in the vicinity of the range 180 passes through the half mirror 300 and enters the light receiving unit 64. According to the operation input device 320, since the half mirror 300 is provided, the sensor 60 is hardly visible to the user.
  • FIG. 5 schematically shows an operation input device 420 as a modification of the operation input device 20.
  • the operation input device 420 includes a light shielding plate 400 in addition to the components included in the operation input device 20.
  • the light shielding plate 400 has an opening 401 and an opening 402.
  • the opening 401 is provided corresponding to the optical axis of the light projected from the light projecting unit 61.
  • the opening 402 is provided corresponding to the optical axis of the light received by the light receiving unit 64.
  • the light projected from the light projecting unit 61 passes through the opening 401 and is projected to the space on the emission surface 71 side.
  • the reflected light reflected by the object passes through the opening 402 and enters the light receiving unit 64.
  • the sensor 60 is less likely to be visually recognized by the user.
  • FIG. 6 schematically shows an operation input device 620 as a modification of the operation input device 20.
  • FIG. 6A is a perspective view schematically showing the operation input device 620.
  • FIG. 6B is a cross-sectional view of the operation input device 620 in the xz plane.
  • the operation input device 620 includes a cylindrical lens 600 in addition to the components included in the operation input device 620.
  • the cylindrical lens 600 is provided on the exit surface 71 side of the light guide plate 70 at a position corresponding to the light converging unit 30.
  • Each of the plurality of cylindrical lenses 600 extends along the x-axis direction.
  • each of the plurality of cylindrical lenses 600 extends along a direction orthogonal to the direction in which the light guide plate 70 guides light.
  • the plurality of cylindrical lenses 600 are provided side by side along the y-axis direction.
  • Reflected light from each reflecting surface of one light converging unit 30 is emitted from the emitting surface 71 in a state where the spread in the x-axis direction is small by the reflecting surface, and enters one cylindrical lens 600 corresponding to the light converging unit 30.
  • the reflected light from each reflecting surface of each light converging unit 30 is emitted from the emitting surface 71 in a state where the spread in the x-axis direction is small by the reflecting surface, and is respectively applied to the cylindrical lens 600 corresponding to each light converging unit 30.
  • the cylindrical lens 600 emits the reflected light incident from the corresponding light converging unit 30 with a reduced spread in the y-axis direction.
  • the reflected light is emitted by the cylindrical lens 600 in a state where the spread is further reduced.
  • the cylindrical lens 600 reduces the spread of the emitted light in the y-axis direction. Thereby, no matter what direction the user sees, the user recognizes that light is emitted from a point in the space substantially. Therefore, by providing the cylindrical lens 600, it is possible to further suppress effects such as blurring and distortion of a stereoscopic image.
  • the cylindrical lens 600 is an example of an emission restriction unit that restricts the spread of light that is guided to the light guide plate 70 and emitted from the emission surface 71.
  • the sensor 60 detects an object by light along the xz plane. That is, the sensor 60 detects an object by light along a plane orthogonal to the emission surface 71 and parallel to the extending direction of the plurality of cylindrical lenses 600.
  • the light projecting optical axis of the light projecting unit 61 and the light receiving optical axis of the light receiving unit 64 are substantially present in a plane orthogonal to the emission surface 71 and parallel to the extending direction of the plurality of cylindrical lenses 600.
  • the light projecting unit 61 and the light receiving unit 64 are provided corresponding to one cylindrical lens 600.
  • the light projecting unit 61 and the light receiving unit 64 are configured such that the light projecting unit 61, the light receiving unit 64, the top of one corresponding cylindrical lens 600 and the object detection range 180 are in a plane parallel to the extending direction of the cylindrical lens 600. It is provided so as to be substantially located. Therefore, the cylindrical lens 600 does not greatly affect the detection performance of the sensor 60.
  • the plurality of cylindrical lenses 600 substantially covers the entire emission surface 71.
  • the cylindrical lens 600 is provided in a partial region of the emission surface 71, and a part of the emission surface 71 may not be covered with the cylindrical lens 600.
  • FIG. 7 schematically shows an operation input device 720 as a modification of the operation input device 20.
  • FIG. 7A is a perspective view schematically showing the operation input device 720.
  • FIG. 7B is a cross-sectional view in the xz plane of the operation input device 720.
  • the operation input device 720 includes a cylindrical lens 700 in addition to the components included in the operation input device 20.
  • the cylindrical lens 700 is provided on the emission surface 71 at a position corresponding to one reflection surface of the light converging unit 30.
  • the cylindrical lens 700 is provided at a position corresponding to a plurality of reflecting surfaces of the light converging unit 30.
  • Each of the plurality of cylindrical lenses 700 extends along the y-axis direction.
  • each of the plurality of cylindrical lenses 600 extends along the direction in which the light guide plate 70 guides light.
  • the plurality of cylindrical lenses 700 are provided side by side along the x-axis direction.
  • the light reflected by each reflecting surface of the light converging unit 30 is emitted by the corresponding cylindrical lens 700 with the light spread made smaller.
  • the cylindrical lens 700 reduces the spread of the emitted light in the x-axis direction. Therefore, by providing the cylindrical lens 700, it is possible to further suppress influences such as blurring of a stereoscopic image.
  • the cylindrical lens 700 is an example of an emission limiting unit that limits the spread of the emitted light in the x-axis direction.
  • the spread of the emitted light in the x-axis direction may be limited by a parallax barrier.
  • the sensor 60 detects an object by light along the yz plane. That is, the sensor 60 detects an object by light along a plane orthogonal to the emission surface 71 and parallel to the extending direction of the plurality of cylindrical lenses 700.
  • the light projecting optical axis of the light projecting unit 61 and the light receiving optical axis of the light receiving unit 64 are substantially in a plane perpendicular to the emission surface 71 and parallel to the extending direction of the plurality of cylindrical lenses 700.
  • the light projecting unit 61 and the light receiving unit 64 are provided corresponding to one cylindrical lens 700.
  • the light projecting unit 61 and the light receiving unit 64 are configured such that the light projecting unit 61, the light receiving unit 64, the top of one corresponding cylindrical lens 600 and the object detection range 180 are in a plane parallel to the extending direction of the cylindrical lens 700. It is provided so as to be substantially located. Therefore, the cylindrical lens 700 does not greatly affect the detection performance of the sensor 60.
  • the plurality of cylindrical lenses 700 substantially cover the entire emission surface 71.
  • the cylindrical lens 700 is provided in a partial region of the emission surface 71, and a part of the emission surface 71 may not be covered with the cylindrical lens 700.
  • FIG. 8 schematically shows a light converging unit 130 and a light converging unit 132 as modifications of the light converging unit 30.
  • FIG. 8A schematically shows one light converging portion 130 formed by a part of the Fresnel lens.
  • a gap may be provided between the plurality of refractive surfaces (prism surfaces) of the light converging unit 130 that functions as a Fresnel lens.
  • the light converging unit 132 shown in FIG. 8 (b) is configured such that the light converging unit 130 is divided into a plurality of portions 140a, 140b, 140c, 140d, 140e, 140e, 140f, 140g and 140h along the x-axis direction. Corresponds to the one divided into The light from each part 140 of the light converging unit 132 converges to the same fixed point. Thus, by dividing the light converging portion into a plurality of portions, a so-called black matrix effect may occur, and the contrast of the image may increase.
  • a diffraction grating may be used as the light converging unit 30.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Position Input By Displaying (AREA)

Abstract

 光デバイスは、光の出射面に平行な面内で光を導く導光板と、導光板に対して出射面とは反対側に設けられ、出射面とは反対側の背面及び出射面を通過する光によって、出射面側に位置する物体を検出するためのセンサとを備え、導光板は、導光板によって導かれている光が入射し、空間上の1つの収束点又は収束線に実質的に収束する又は空間上の1つの収束点又は収束線から実質的に発散する方向の出射光を出射面から出射させる光学面をそれぞれ有する複数の光収束部を有し、収束点又は収束線は複数の光収束部の間で互いに異なり、複数の収束点又は収束線の集まりによって、出射面側の空間上に像が形成される。

Description

光デバイス及び操作入力装置
 本発明は、光デバイス及び操作入力装置に関する。
 導光板と、光源と、導光板の表面側に配置した、パララックスバリア方式又はレンズアレイ方式におけるマスク又はレンズアレイとを備えた、立体視可能な表示装置が知られている(例えば、特許文献1参照。)。また、立体像を含む2次元画像を表示する平面状の画像表示面を有する表示部と、画像表示面に平行に離間して配置され、複数のレンズからなりかつ2次元画像の中の立体像よりも広い有効面積を有するマイクロレンズアレイ及びマイクロレンズアレイの有効領域を囲むレンズ枠領域からなり、マイクロレンズアレイの表示部とは反対側に位置する空間に2次元画像の実像を表示する結像面を生成する画像伝達パネルと、からなる立体的2次元画像表示装置が知られている(例えば、特許文献2参照。)。
 特許文献1 特開2012-008464号公報
 特許文献2 特開2001-255493号公報
 マスク又はレンズアレイを用いると、物体を検出する光学センサを導光板の出射面の反対側の背面に設けることが困難な場合がある。例えばマスクを用いる場合、物体を検出するための検出光がマスクによって実質的に遮られてしまう場合がある。また、例えばレンズアレイを用いる場合、レンズアレイによって検出光が大きく拡散してしまう場合がある。
 第1の形態においては、光デバイスは、光の出射面に平行な面内で光を導く導光板と、導光板に対して出射面とは反対側に設けられ、出射面とは反対側の背面及び出射面を通過する光によって、出射面側に位置する物体を検出するためのセンサとを備え、導光板は、導光板によって導かれている光が入射し、空間上の1つの収束点又は収束線に実質的に収束する又は空間上の1つの収束点又は収束線から実質的に発散する方向の出射光を出射面から出射させる光学面をそれぞれ有する複数の光収束部を有し、収束点又は収束線は複数の光収束部の間で互いに異なり、複数の収束点又は収束線の集まりによって、出射面側の空間上に像が形成される。
 複数の光収束部は、出射面に平行な面内でそれぞれ予め定められた線に沿って形成されていてよい。
 複数の光収束部は、出射面側の空間上においてセンサが物体を検出可能な検出範囲内及び検出範囲の近傍の少なくとも一方に、ユーザ操作を受け付ける位置を示す像を形成してよい。
 センサは、出射面側の空間上の位置からの光を、出射面及び背面を通じて受光する受光部を有してよい。
 センサは、出射面側の空間に、出射面及び背面を通じて光を投射する投光部を更に備えてよい。投光部から出射面側の空間に投射された光の光路内の予め定められた範囲内に物体が存在する場合に、受光部は、投光部から投射されて物体で反射した反射光を受光してよい。
 複数の光収束部は、出射面側の空間上の予め定められた範囲内及び予め定められた範囲の近傍の少なくとも一方に、ユーザ操作を受け付ける位置を示す像を形成してよい。
 導光板の出射面側に複数の光収束部に対応する位置に設けられ、導光板に導かれて出射面から出射した、対応する光収束部からの光の広がりをそれぞれ制限する複数のシリンドリカルレンズを更に備えてよい。
 センサは、出射面に直交し、かつ、複数のシリンドリカルレンズの延伸方向に平行な面に沿う光によって、物体を検出してよい。
 複数のシリンドリカルレンズは、導光板が光を導く方向に直交する方向に沿って延伸してよい。
 複数のシリンドリカルレンズは、導光板が光を導く方向に沿って延伸してよい。
 第2の形態において、操作入力装置は、上記の光デバイスと、センサによって出射面側に位置する物体が検出された場合に、物体がユーザ操作を受け付ける位置にあると判断する判断部とを備える。
 なお、上記の発明の概要は、本発明の特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
一実施形態における操作入力装置20を、空間上に投影される立体像と共に概略的に示す。 操作入力装置20のyz平面の断面を概略的に示す。 操作入力装置20のxz平面の断面を概略的に示す。 操作入力装置20の変形例としての操作入力装置320を概略的に示す。 操作入力装置20の変形例としての操作入力装置420を概略的に示す。 操作入力装置20の変形例としての操作入力装置620を概略的に示す。 操作入力装置20の変形例としての操作入力装置720を概略的に示す。 光収束部30の変形例としての光収束部130及び光収束部132を概略的に示す。
 以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
 図1は、一実施形態における操作入力装置20を、空間上に投影される立体像と共に概略的に示す。操作入力装置20は、表示装置10と、センサ60と、制御部80とを有する。操作入力装置20は、バーチャルスイッチとして機能する。なお、分かり易く説明することを目的として、実施形態の説明に用いる図は概略的又は模式的なものとする。実施形態の説明に用いる図は、実際のスケールで描かれていない場合がある。
 表示装置10は、バーチャルスイッチの像6を形成する光を出射する。像6は、ユーザによって空間上に認識される立体像である。像6は、空間上に認識される操作面を表す部分像7を含む。センサ60は、部分像7の近傍に位置する物体の存在を検出する。一例として、物体とはユーザの指90である。センサ60によって部分像7の近傍に物体が存在することが検出されると、表示装置10は、バーチャルスイッチが押されたことを示す信号を外部に出力する。
 表示装置10は、光を出射する出射面71を有する。表示装置10は、出射面71から出射する光によって、立体像としての像6を形成する。なお、立体像とは、表示装置10の出射面71とは異なる位置にあるように認識される像をいう。立体像とは、例えば、表示装置10の出射面71から離れた位置に認識される2次元像も含む。つまり、立体像とは、立体的な形状として認識される像だけでなく、表示装置10の出射面71上とは異なる位置に認識される2次元的な形状の像も含む概念である。
 表示装置10は、導光板70と、光源21とを備える。光源21は例えばLED光源である。導光板70は、透明で屈折率が比較的に高い樹脂材料で成形される。導光板70を形成する材料は、例えばポリカーボネート樹脂(PC)、ポリメチルメタクリレート樹脂(PMMA)、ガラス等であってよい。
 導光板70は、出射面71とは反対側の背面72とを有する。また、導光板70は、導光板70の四方の端面である端面73、端面74、端面75及び端面76を有する。端面73は、導光板70の入光端面である。端面73には光源21が設けられ、光源21からの光は、端面73から導光板70に入射する。端面74は、端面73とは反対側の面である。端面76は、端面75とは反対側の面である。導光板70は、光源21からの光を出射面71に平行な面内で面状に広げて導く。
 実施形態の説明において、x軸、y軸及びz軸の右手系の直交座標系を用いる場合がある。z軸方向を、出射面71に垂直な方向で定める。背面72から出射面71への向きをz軸プラス方向と定める。また、y軸方向を、端面73に垂直な方向で定める。端面73から端面74への向きをy軸プラス方向と定める。x軸は、端面75及び端面76に垂直な方向であり、端面75から端面76への向きをx軸プラス方向と定める。なお、記載が冗長にならないよう、xy平面に平行な面のことをxy面、yz平面に平行な面のことをyz面、xz平面に平行な面のことをxz面と呼ぶ場合がある。
 図2は、操作入力装置20のyz平面の断面を概略的に示す。図3は、操作入力装置20のxz平面の断面を概略的に示す。
 導光板70の背面72には、光収束部30a、光収束部30b及び光収束部30cを含む複数の光収束部30が形成されている。光収束部30はx軸方向に実質的に連続して形成されている。光収束部30のx軸方向の各位置には、導光板70によって導かれている光が入射する。光収束部30は、光収束部30の各位置に入射した光を、光収束部30にそれぞれ対応する定点に実質的に収束させる。図1には、光収束部30の一部として、光収束部30a、光収束部30b及び光収束部30cが特に示され、光収束部30a、光収束部30b及び光収束部30cのそれぞれにおいて、光収束部30a、光収束部30b及び光収束部30cのそれぞれから出射された複数の光線が収束する様子が示されている。
 具体的には、光収束部30aは、像6上の定点PAに対応する。光収束部30aの各位置からの光線は、定点PAに収束する。したがって、光収束部30aからの光の波面は、定点PAから発するような光の波面となる。光収束部30bは、像6上の定点PBに対応する。光収束部30bからの各位置からの光線は、定点PBに収束する。このように、任意の光収束部30の各位置からの光線は、光収束部30に対応する定点に実質的に収束する。これにより、任意の光収束部30によって、対応する定点から光が発するような光の波面を提供できる。各光収束部30が対応する定点は互いに異なり、光収束部30にそれぞれ対応する複数の定点の集まりによって、空間上に認識される像6が形成される。このようにして、表示装置10は空間上に立体像を投影する。
 本実施形態において、光収束部30のそれぞれは、x軸方向に実質的に連続して形成された多数の反射面を含む。背面72における反射面の面密度は30%以下であることが好ましい。任意の光収束部30がそれぞれの有する反射面の反射光は、光収束部30に対応する定点に収束する。例えば、光収束部30aが有する複数の反射面のそれぞれによる複数の反射光の光線は、定点PAに収束する。また、光収束部30bが有する複数の反射面のそれぞれによる複数の反射光の光線は、定点PBに収束する。また、光収束部30cが有する複数の反射面のそれぞれによる複数の反射光の光線は、定点PCに収束する。
 xy面内において、導光板70によって導かれて導光板70内の各位置を通過する光束は、導光板70内の各位置と光源21とを結ぶ方向を中心として、所定値より小さい広がり角を持つ。光収束部30が光源21から離れた位置に設けられている場合、導光板70によって導かれて光収束部30に入射する光は、概ねy軸方向を中心とする広がりの小さな光になる。したがって、例えば、定点PAを含みxz平面に平行な面では、光収束部30aからの光は実質的に1つの定点に収束する。なお、本明細書において、導光板内外の点を通過する光束の広がりとは、当該光束がその点から発散する光とみなした場合の光の広がりのことをいう。また、導光板内外の点を通過する光束の広がりのことを、単に光の広がりと呼ぶ場合がある。
 なお、光収束部30に入射する光にz方向に広がりがある場合、光収束部30からの光は、空間上の定点を含む、y軸に沿う線上に収束する。しかし、実施形態を分かり易く説明することを目的として、xz面内における光の収束に注目し、光収束部30からの光が定点に収束するとして説明する場合がある。
 図1に示されるように、光収束部30aは、線190aに沿って形成されている。光収束部30bは、線190bに沿って形成されている。光収束部30cは、線190cに沿って形成されている。ここで、線190a、線190b及び線190cは、x軸に略平行な直線である。任意の光収束部30は、x軸に略平行な直線に沿って実質的に連続的に形成される。
 このように、光収束部30は、出射面71に平行な面内でそれぞれ予め定められた線に沿って形成されている。そして、光収束部30のそれぞれは、導光板70によって導かれている光が入射し、空間上の1つの収束点に実質的に収束する方向の出射光を出射面71から出射させる。なお、定点が導光板70の背面72側の場合は、出射光は、定点から発散する方向の光となる。したがって、定点が導光板70の背面72側の場合、光収束部30が有する反射面は、空間上の1つの収束点から実質的に発散する方向の出射光を出射面71から出射させる。なお、後述するように、光収束部30は、それぞれフレネルレンズの一部により形成されてよい。
 センサ60は、限定反射型の光センサである。センサ60が物体を検出可能な検出範囲は、出射面71側の空間上の範囲180内に実質的に限定されている。具体的には、センサ60は、投光部61と、受光部64とを有する。範囲180は、投光部61の投光光芒と受光部64の受光光芒とが交差する領域である。
 より具体的には、投光部61は、出射面71側の空間に光を投射する。投光部61が投射する光は、物体を検出するための検出光である。投光部61からの検出光は、出射面71及び背面72を通じて出射面71側の空間に投射される。
 受光部64は、出射面71側の空間上の位置からの光を、出射面71及び背面72を通じて受光する。投光部61から出射面71側の空間に投射された光の光路内の予め定められた範囲180内に物体が存在する場合に、受光部64は、投光部61から投射されて物体で反射した反射光を受光する。
 具体的には、投光部61は、発光部62及び投光側レンズ63を有する。受光部64は、フォトセンサ65及び受光側レンズ66を有する。発光部62は、検出光となる光を発光する。投光側レンズ63は、入射した発光部62からの光の広がりを、範囲180に向けて小さくする。投光側レンズ63から出た光は、導光板70を通過して、出射面71側の空間に向けて検出光として出射する。なお、投光部61が投射する光は、赤外光等の不可視光であってよい。例えば、発光部62は赤外LEDであってよい。投光部61が不可視光を投射することによって、ユーザに検出光が認識されることを抑制でき、バーチャルスイッチの像6のみをユーザに認識させることができる。
 範囲180内に物体が存在する場合、検出光は物体で反射して、反射光が受光部64に向かう。反射光は、導光板70を通過して、受光側レンズ66に入射する。受光側レンズ66に入射した反射光は、フォトセンサ65に向けて集光されて、フォトセンサ65に入射する。範囲180内に物体が存在しない場合、検出光は物体で反射しない、又は、反射光は受光部64に入射しない。制御部80は、フォトセンサ65が受光した受光量を示す信号を取得する。制御部80は、受光量が予め定められた閾値を超える場合に、バーチャルスイッチが押されたと判断して、バーチャルスイッチが押されたことを示す信号を外部の装置に出力する。このように、制御部80は、センサ60によって出射面側に位置する物体が検出された場合に、物体がユーザ操作を受け付ける位置にあると判断する。
 ここで、像6のうちの部分像7は、バーチャルスイッチの操作面を表す。部分像7は、ユーザ操作を受け付ける位置を示す像の一例である。部分像7は、範囲180内に形成される。このため、物体が部分像7の近傍に位置した場合に、物体の存在が検出される。なお、部分像7は、範囲180内に必ずしも形成される必要はなく、範囲180の近傍の位置に形成されればよい。このように、光収束部30は、出射面71側の空間上においてセンサ60が物体を検出できる範囲180内及びセンサ60が物体を検出できる範囲180の近傍の少なくとも一方に、部分像7を形成する。これにより、バーチャルスイッチが押されたと判断することができる。
 表示装置10によれば、導光板70が透明なので、背面72側に光学的に検出するセンサ60を設けることができる。なお、光収束部30が有する反射面の面密度は30%以下であってよい。そのため、背面72にセンサ60を設けても、導光板70を透過する検出光によって物体を検出できる。
 図4は、操作入力装置20の変形例としての操作入力装置320を概略的に示す。操作入力装置320は、操作入力装置20が備える構成要素に加えて、ハーフミラー300を備える。
 ハーフミラー300は、センサ60と導光板70との間に設けられる。具体的には、ハーフミラー300は、投光部61及び受光部64と、導光板70の背面72との間に設けられる。投光部61から投射された光は、ハーフミラー300を透過して出射面71側の空間に投射される。範囲180内又は範囲180の近傍の物体で反射した反射光は、ハーフミラー300を透過して受光部64に入射する。操作入力装置320によれば、ハーフミラー300が設けられているので、センサ60がユーザから視認されにくくなる。
 図5は、操作入力装置20の変形例としての操作入力装置420を概略的に示す。操作入力装置420は、操作入力装置20が備える構成要素に加えて、遮光板400を備える。
 遮光板400は、開口401及び開口402を有する。開口401は、投光部61から投射される光の光軸に対応して設けられる。開口402は、受光部64が受光する光の光軸に対応して設けられる。投光部61から投射された光は、開口401を通過して出射面71側の空間に投射される。物体で反射した反射光は、開口402を通過して受光部64に入射する。操作入力装置320によれば、遮光板400が設けられているので、センサ60がユーザから視認されにくくなる。
 図6は、操作入力装置20の変形例としての操作入力装置620を概略的に示す。図6(a)は、操作入力装置620を概略的に示す斜視図である。図6(b)は、操作入力装置620のxz面内の断面図である。
 操作入力装置620は、操作入力装置620が備える構成要素に加えて、シリンドリカルレンズ600を備える。シリンドリカルレンズ600は、導光板70の出射面71側に、光収束部30に対応する位置に設けられる。複数のシリンドリカルレンズ600のそれぞれは、x軸方向に沿って延伸する。このように、複数のシリンドリカルレンズ600のそれぞれは、導光板70が光を導く方向に直交する方向に沿って延伸する。複数のシリンドリカルレンズ600は、y軸方向に沿って並べて設けられる。
 1つの光収束部30の各反射面による反射光は、当該反射面によってx軸方向の広がりが小さい状態で出射面71から出射されて、当該光収束部30に対応する1つのシリンドリカルレンズ600に入射する。すなわち、各光収束部30の各反射面による反射光は、反射面によってx軸方向の広がりが小さい状態で出射面71から出射されて、各光収束部30にそれぞれ対応するシリンドリカルレンズ600にそれぞれ入射する。シリンドリカルレンズ600は、対応する光収束部30からの入射した反射光をy軸方向の広がりを小さくして出射する。このように、反射光は、シリンドリカルレンズ600によって、広がりがより小さくなった状態で出射される。特に、シリンドリカルレンズ600は、出射光のy軸方向の広がりを小さくする。これにより、ユーザがどの方向から見ても、ユーザには実質的に空間上の一点から光が発しているように認識される。そのため、シリンドリカルレンズ600を設けることで、立体像のぼけ、ゆがみ等の影響をより抑制できる。
 このように、シリンドリカルレンズ600を設けることによって、出射光の広がりをより小さくすることができる。なお、シリンドリカルレンズ600は、導光板70に導かれて出射面71から出射した光の広がりを制限する出射制限部の一例である。
 図6(b)に示されるように、センサ60は、xz平面に沿う光によって、物体を検出する。すなわち、センサ60は、出射面71に直交し、かつ、複数のシリンドリカルレンズ600の延伸方向に平行な面に沿う光によって、物体を検出する。例えば、投光部61の投光光軸及び受光部64の受光光軸は、出射面71に直交し、かつ、複数のシリンドリカルレンズ600の延伸方向に平行な面内に、実質的に存在する。投光部61及び受光部64は、1つのシリンドリカルレンズ600に対応して設けられる。例えば、投光部61及び受光部64は、投光部61、受光部64、対応する1つのシリンドリカルレンズ600の頂部及び物体の検出範囲180が、シリンドリカルレンズ600の延伸方向に平行な面内に実質的に位置するように設けられる。そのため、シリンドリカルレンズ600がセンサ60の検出性能に大きな影響を与えることがない。
 なお、操作入力装置620において、複数のシリンドリカルレンズ600は、実質的に出射面71の全体を覆っている。他の実施形態として、シリンドリカルレンズ600は出射面71の一部の領域に設けられ、出射面71の一部の面がシリンドリカルレンズ600で覆われていなくてよい。
 図7は、操作入力装置20の変形例としての操作入力装置720を概略的に示す。図7(a)は、操作入力装置720を概略的に示す斜視図である。図7(b)は、操作入力装置720のxz面内の断面図である。
 操作入力装置720は、操作入力装置20が備える構成要素に加えて、シリンドリカルレンズ700を備える。シリンドリカルレンズ700は、光収束部30の1つの反射面に対応する位置に出射面71に設けられる。シリンドリカルレンズ700は、光収束部30が有する複数の反射面に対応する位置にそれぞれ設けられる。複数のシリンドリカルレンズ700のそれぞれは、y軸方向に沿って延伸する。このように、複数のシリンドリカルレンズ600のそれぞれは、導光板70が光を導く方向に沿って延伸する。複数のシリンドリカルレンズ700は、x軸方向に沿って並べて設けられる。
 光収束部30が有する各反射面による反射光は、対応するシリンドリカルレンズ700によって光の広がりがより小さくされて出射される。特に、シリンドリカルレンズ700は、出射光のx軸方向の広がりを小さくする。そのため、シリンドリカルレンズ700を設けることで、立体像のぼけ等の影響をより抑制できる。
 このように、シリンドリカルレンズ700を設けることによって、出射光の広がりをより小さくすることができる。なお、シリンドリカルレンズ700は、出射光のx軸方向の広がりを制限する出射制限部の一例である。表示ユニットが透光性を有しなくてよい場合は、パララックスバリアによって、出射光のx軸方向の広がりを制限してもよい。
 図7(b)に示されるように、センサ60は、yz平面に沿う光によって、物体を検出する。すなわち、センサ60は、出射面71に直交し、かつ、複数のシリンドリカルレンズ700の延伸方向に平行な面に沿う光によって、物体を検出する。具体的には、投光部61の投光光軸及び受光部64の受光光軸は、出射面71に直交し、かつ、複数のシリンドリカルレンズ700の延伸方向に平行な面内に、実質的に存在する。投光部61及び受光部64は、1つのシリンドリカルレンズ700に対応して設けられる。例えば、投光部61及び受光部64は、投光部61、受光部64、対応する1つのシリンドリカルレンズ600の頂部及び物体の検出範囲180が、シリンドリカルレンズ700の延伸方向に平行な面内に実質的に位置するように設けられる。そのため、シリンドリカルレンズ700がセンサ60の検出性能に大きな影響を与えることがない。
 なお、操作入力装置720において、複数のシリンドリカルレンズ700は、実質的に出射面71の全体を覆っている。他の実施形態として、シリンドリカルレンズ700は出射面71の一部の領域に設けられ、出射面71の一部の面がシリンドリカルレンズ700で覆われていなくてよい。
 図8は、光収束部30の変形例としての光収束部130及び光収束部132を概略的に示す。図8(a)は、フレネルレンズの一部により形成された1つの光収束部130を概略的に示す。なお、フレネルレンズとして機能する光収束部130の複数の屈折面(プリズム面)の間には、隙間が設けられてよい。
 図8(b)に示す光収束部132は、光収束部130を、x軸方向に沿って複数の部分140a、部分140b、部分140c、部分140d、部分140e、部分140f、部分140g及び部分140hに分割したものに対応する。光収束部132の各部分140のそれぞれからの光は、同一の定点に収束する。このように、光収束部を複数の部分に分割することで、いわゆるブラックマトリックス効果が生じて、像のコントラストが高まる場合がある。なお、反射面やフレネルレンズの他に、光収束部30として回折格子を用いてもよい。
 以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、請求の範囲の記載から明らかである。
 請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
6 像
7 部分像
10 表示装置
20 操作入力装置
21 光源
30 光収束部
60 センサ
61 投光部
62 発光部
63 投光側レンズ
64 受光部
65 フォトセンサ
66 受光側レンズ
70 導光板
71 出射面
72 背面
73、74、75、76 端面
80 制御部
90 指
130 光収束部
132 光収束部
140 部分
180 範囲
190 線
300 ハーフミラー
320 操作入力装置
400 遮光板
401、402 開口
420 操作入力装置
600 シリンドリカルレンズ
620 操作入力装置
700 シリンドリカルレンズ
720 操作入力装置

Claims (11)

  1.  光の出射面に平行な面内で光を導く導光板と、
     前記導光板に対して前記出射面とは反対側に設けられ、前記出射面とは反対側の背面及び前記出射面を通過する光によって、前記出射面側に位置する物体を検出するためのセンサと
    を備え、
     前記導光板は、
     前記導光板によって導かれている光が入射し、空間上の1つの収束点又は収束線に実質的に収束する又は空間上の1つの収束点又は収束線から実質的に発散する方向の出射光を前記出射面から出射させる光学面をそれぞれ有する複数の光収束部
    を有し、
     前記収束点又は収束線は前記複数の光収束部の間で互いに異なり、複数の前記収束点又は収束線の集まりによって、前記出射面側の空間上に像が形成される
    光デバイス。
  2.  前記複数の光収束部は、前記出射面に平行な面内でそれぞれ予め定められた線に沿って形成されている
    請求項1に記載の光デバイス。
  3.  前記複数の光収束部は、前記出射面側の空間上において前記センサが物体を検出可能な検出範囲内及び前記検出範囲の近傍の少なくとも一方に、ユーザ操作を受け付ける位置を示す前記像を形成する
    請求項1又は2に記載の光デバイス。
  4.  前記センサは、
     前記出射面側の空間上の位置からの光を、前記出射面及び前記背面を通じて受光する受光部
    を有する請求項1から3のいずれか1項に記載の光デバイス。
  5.  前記センサは、
     前記出射面側の空間に、前記出射面及び前記背面を通じて光を投射する投光部
    を更に備え、
     前記投光部から前記出射面側の空間に投射された光の光路内の予め定められた範囲内に前記物体が存在する場合に、前記受光部は、前記投光部から投射されて前記物体で反射した反射光を受光する
    請求項4に記載の光デバイス。
  6.  前記複数の光収束部は、前記出射面側の空間上の前記予め定められた範囲内及び前記予め定められた範囲の近傍の少なくとも一方に、ユーザ操作を受け付ける位置を示す前記像を形成する
    請求項5に記載の光デバイス。
  7.  前記導光板の前記出射面側に前記複数の光収束部に対応する位置に設けられ、前記導光板に導かれて前記出射面から出射した、対応する光収束部からの光の広がりをそれぞれ制限する複数のシリンドリカルレンズ
    を更に備える請求項1から6のいずれか1項に記載の光デバイス。
  8.  前記センサは、前記出射面に直交し、かつ、前記複数のシリンドリカルレンズの延伸方向に平行な面に沿う光によって、前記物体を検出する
    請求項7に記載の光デバイス。
  9.  前記複数のシリンドリカルレンズは、前記導光板が光を導く方向に直交する方向に沿って延伸する
    請求項7又は8に記載の光デバイス。
  10.  前記複数のシリンドリカルレンズは、前記導光板が光を導く方向に沿って延伸する
    請求項7又は8に記載の光デバイス。
  11.  請求項3又は6に記載の光デバイスと、
     前記センサによって前記出射面側に位置する物体が検出された場合に、前記物体が前記ユーザ操作を受け付ける位置にあると判断する判断部と
    を備える操作入力装置。
PCT/JP2015/086572 2015-01-13 2015-12-28 光デバイス及び操作入力装置 WO2016114102A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201580070068.XA CN107111150B (zh) 2015-01-13 2015-12-28 光学设备及操作输入装置
DE112015005938.5T DE112015005938B4 (de) 2015-01-13 2015-12-28 Optische Vorrichtung und Betätigungseingabevorrichtung
US15/538,842 US10338749B2 (en) 2015-01-13 2015-12-28 Optical device and operation input apparatus

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2015004535 2015-01-13
JP2015-004535 2015-01-13
JP2015-180912 2015-09-14
JP2015180912A JP6558166B2 (ja) 2015-01-13 2015-09-14 光デバイス及び操作入力装置

Publications (1)

Publication Number Publication Date
WO2016114102A1 true WO2016114102A1 (ja) 2016-07-21

Family

ID=56405656

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/086572 WO2016114102A1 (ja) 2015-01-13 2015-12-28 光デバイス及び操作入力装置

Country Status (1)

Country Link
WO (1) WO2016114102A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000510603A (ja) * 1996-02-28 2000-08-15 ミン リ 光波を処理するための光学構造
JP2008275922A (ja) * 2007-04-27 2008-11-13 Fujikura Ltd 表示装置
JP2009540440A (ja) * 2006-06-06 2009-11-19 スリーエム イノベイティブ プロパティズ カンパニー 仮想イメージを有するキーパッド
JP5509391B1 (ja) * 2013-06-07 2014-06-04 株式会社アスカネット 再生画像の指示位置を非接触で検知する方法及び装置
US20140268327A1 (en) * 2013-03-15 2014-09-18 Opsec Security Group, Inc. Optically variable device exhibiting non-diffractive three-dimensional optical effect

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000510603A (ja) * 1996-02-28 2000-08-15 ミン リ 光波を処理するための光学構造
JP2009540440A (ja) * 2006-06-06 2009-11-19 スリーエム イノベイティブ プロパティズ カンパニー 仮想イメージを有するキーパッド
JP2008275922A (ja) * 2007-04-27 2008-11-13 Fujikura Ltd 表示装置
US20140268327A1 (en) * 2013-03-15 2014-09-18 Opsec Security Group, Inc. Optically variable device exhibiting non-diffractive three-dimensional optical effect
JP5509391B1 (ja) * 2013-06-07 2014-06-04 株式会社アスカネット 再生画像の指示位置を非接触で検知する方法及び装置

Similar Documents

Publication Publication Date Title
JP6558166B2 (ja) 光デバイス及び操作入力装置
CN107077003B (zh) 光学器件
CN109313348B (zh) 光学器件及光学系统
US20120223916A1 (en) Apparatus and method for receiving a touch input
JP6638274B2 (ja) 光デバイス及び光システム
WO2016185766A1 (ja) 光デバイス
TWI565974B (zh) Optical devices, light systems and ticket machines
JP6531583B2 (ja) 光デバイス、光システム及び改札機
US10429942B2 (en) Gesture input device
TW201724063A (zh) 光元件以及光系統
WO2016114102A1 (ja) 光デバイス及び操作入力装置
CN109313347B (zh) 显示装置
WO2016114101A1 (ja) 光デバイス、光システム及び改札機
TWI547850B (zh) 可提高信噪比以降低能源消耗的光學偵測裝置
WO2016114103A1 (ja) 光デバイス、光システム及び改札機
EP2454649B1 (en) An encoding device and a method of encoding
WO2024079832A1 (ja) インタフェース装置
JP2015025831A (ja) プロジェクタ

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15878053

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15538842

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 112015005938

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15878053

Country of ref document: EP

Kind code of ref document: A1