WO2012032851A1 - 表示システム、および検出方法 - Google Patents

表示システム、および検出方法 Download PDF

Info

Publication number
WO2012032851A1
WO2012032851A1 PCT/JP2011/065965 JP2011065965W WO2012032851A1 WO 2012032851 A1 WO2012032851 A1 WO 2012032851A1 JP 2011065965 W JP2011065965 W JP 2011065965W WO 2012032851 A1 WO2012032851 A1 WO 2012032851A1
Authority
WO
WIPO (PCT)
Prior art keywords
light receiving
light
display
receiving elements
objects
Prior art date
Application number
PCT/JP2011/065965
Other languages
English (en)
French (fr)
Inventor
倫大 河合
山本 圭一
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Priority to EP11823330.3A priority Critical patent/EP2615526A4/en
Priority to JP2012532893A priority patent/JPWO2012032851A1/ja
Priority to US13/820,584 priority patent/US20130155030A1/en
Publication of WO2012032851A1 publication Critical patent/WO2012032851A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0428Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by sensing at the edges of the touch surface the interruption of optical paths, e.g. an illumination plane, parallel to the touch surface which may be virtual

Definitions

  • the present invention relates to a display system and a detection method.
  • the present invention particularly relates to a display system that displays a two-dimensional image in the air and a detection method that detects selection of an object included in the two-dimensional image.
  • Patent Document 1 discloses a stereoscopic two-dimensional image display device as the display system.
  • the stereoscopic two-dimensional image display device includes a display unit, a microlens array, a position detection sensor, and a control unit.
  • the display unit includes an image display surface for displaying a two-dimensional image.
  • the microlens array displays a two-dimensional image on a stereoscopic image display surface in a pseudo-stereoscopic manner by forming light emitted from the image display surface on a stereoscopic image display surface separated from the image display surface.
  • the position detection sensor is arranged in association with the stereoscopic image display surface, and outputs a signal corresponding to the position subjected to physical action from the outside.
  • the control unit changes the image in the stereoscopic image display surface according to the output signal from the position detection sensor.
  • Patent Document 2 JP-A-9-55152 discloses a display device having a touchless panel switch as the display system.
  • the touchless panel switch when the finger enters a predetermined area where the finger is to be detected, the light projection from the light projecting element is reflected on the finger and incident on the light receiving element.
  • At least one reflection type optical sensor composed of an element and the light receiving element is installed in the space around the gradient index lens element for each predetermined region.
  • Patent Document 3 discloses a display device including an imaging element as the display system.
  • the display device forms an object to be projected, which is a two-dimensional or three-dimensional object, on the opposite side of the imaging element as a two-dimensional image or a real image of a three-dimensional image. More detailed description is as follows.
  • the imaging element is an optical element that causes a light beam to bend when light passes through an element surface constituting one plane.
  • the imaging element is configured by arranging a plurality of unit optical elements that reflect light by one or more mirror surfaces arranged at an angle perpendicular to or close to the element surface.
  • the imaging element is a real image in a space where there is no physical entity on the other side of the element surface by reflecting the light emitted from the projection object arranged on one side of the element surface to the mirror surface when passing through the element surface. As an image.
  • a non-contact switch using a hologram is known.
  • JP-A-10-302589 Patent Document 4
  • a half mirror is installed behind the hologram lens
  • an original image original picture
  • a backlight is provided behind the original image.
  • a non-contact switch is disclosed.
  • a light emitting element is installed on one side of the front side of the hologram lens
  • a first light receiving element is installed on the other side.
  • the non-contact switch further includes a second light receiving element for receiving the reflected light that is transmitted through the hologram lens and reflected by the half mirror among the object reflected light.
  • Patent Document 1 it is necessary to arrange a position detection sensor so as to surround the periphery of the two-dimensional image displayed in the air. Therefore, in Patent Document 1, a frame is required around the two-dimensional image displayed in the air. Therefore, it is difficult for the user to feel the difference between the image displayed by the stereoscopic two-dimensional image display device of Patent Document 1 and the image displayed by a general display that displays an image on the display panel.
  • Patent Document 2 it is detected by one sensor that an object such as a finger is located at a predetermined position in a two-dimensional image in the air. For this reason, in order to detect about the display area which displays a two-dimensional image, many sensors are needed. Furthermore, it is very difficult to determine the installation position of each sensor.
  • Patent Document 3 it cannot be detected at which position in the real image of the formed two-dimensional image or three-dimensional image.
  • Patent Document 4 a plurality of selectable objects cannot be arranged side by side in the direction of image formation from the hologram lens.
  • the present invention has been made in view of the above-described problems, and its object is to detect selection of an object in a two-dimensional image with a simple configuration without surrounding the two-dimensional image displayed in the air with a frame. It is to provide a possible display system and a detection method in the display system.
  • a display system includes a display, an optical element that displays a two-dimensional image in an aerial display area based on an image displayed on the display, a light emitting element, and a plurality of light receiving elements.
  • a sensor electrically connected to the sensor and displaying a plurality of objects in a predetermined orientation in a display area, and a memory electrically connected to the processor.
  • the light emitting element emits light in the predetermined direction with respect to a plurality of objects.
  • the plurality of light receiving elements are arranged so as to be able to receive light reflected by an object among the emitted light.
  • the memory stores in advance first data in which different numerical ranges are associated with each of a plurality of objects.
  • the processor calculates the number of light receiving elements that have received the reflected light. Based on the calculated number of light receiving elements and the first data, the processor identifies one object associated with the numerical range including the calculated number of light receiving elements from the plurality of objects. The processor executes processing corresponding to the identified object.
  • the plurality of light receiving elements are arranged adjacent to the light emitting elements. Based on the fact that the reflected light is received by the sensor, the processor determines whether or not there is one light receiving region in the sensor formed by the reflected light. When the processor determines that there is one light receiving area, the processor specifies the object. If the processor determines that there is not one light receiving area, the processor does not specify the object.
  • the plurality of light receiving elements are arranged so as to surround the light emitting elements.
  • the plurality of light receiving elements are arranged in a matrix.
  • the light receiving area is circular or elliptical.
  • the memory further stores second data in which different numerical values are associated with each of the plurality of objects. The numerical value is set so as to increase in proportion to the distance between the object and the sensor.
  • the processor calculates the number of light receiving elements located on the major axis of the ellipse among the light receiving elements that have received the reflected light, and a numerical value associated with the identified object. Compare.
  • the processor executes processing corresponding to the identified object when the number of light receiving elements is less than a predetermined multiple of the numerical value.
  • the processor does not execute processing corresponding to the specified object when the number of light receiving elements is equal to or greater than a predetermined multiple of the numerical value.
  • the processor determines that the number of light receiving elements positioned on the long axis is equal to or greater than a predetermined multiple of the numerical value, the processor changes the display mode of the identified object from the first display mode to the second display mode. .
  • the processor determines whether the light receiving area is included in a predetermined area.
  • the processor executes processing corresponding to the specified object. If the processor determines that the light receiving area is not included in the predetermined area, the processor does not execute processing corresponding to the specified object.
  • a predetermined area is set for each object.
  • the predetermined area is set so as to increase in proportion to the distance between the object and the sensor.
  • the processor when the processor determines that the light receiving area is not included in the predetermined area, the processor changes the display mode of the identified object from the first display mode to the second display mode.
  • the senor is a distance measuring sensor.
  • the memory further stores third data indicating a correspondence relationship between the output voltage and the distance in the sensor, and fourth data indicating each display position of the plurality of objects.
  • the processor detects the position of the object based on the voltage value output from the distance measuring sensor and the third data.
  • the processor determines whether the identification of the identified object is correct based on the detected position of the object and the fourth data.
  • the processor executes a process corresponding to the specified object.
  • the detection method is a detection method in a display system that detects selection of an object included in a two-dimensional image displayed in an aerial display area.
  • a display system includes a display, an optical element that displays a two-dimensional image based on an image displayed on the display, a sensor including a light emitting element and a plurality of light receiving elements, and a display electrically connected to the sensor.
  • a processor for arranging and displaying a plurality of objects in a predetermined direction, and a memory electrically connected to the processor.
  • the memory stores in advance data in which different numerical ranges are associated with each of a plurality of objects.
  • the light emitting element emits light in the predetermined direction with respect to a plurality of objects, and at least one of the plurality of light receiving elements detects light reflected by the object among the emitted light.
  • a step of receiving light a step in which the processor calculates the number of light receiving elements that have received the reflected light when the reflected light is received by the sensor; and a numerical value that includes the calculated number of light receiving elements.
  • the present invention it is possible to detect selection of an object in a two-dimensional image with a simple configuration without surrounding the two-dimensional image displayed in the air with a frame.
  • FIG. 2 is a cross-sectional view taken along line II-II in FIG. It is the block diagram which showed a part of hardware constitutions of the display system. It is a figure for demonstrating the structure of a sensor array. It is the figure which showed the state which has arrange
  • FIG. 6 is a top view of another sensor array that can be used in a display system. It is the figure which showed an example of the detection element which has only one light emitting element. It is the figure which showed the structure of the numerical value range data previously stored in memory.
  • direction represents two different directions.
  • “Two different directions” represents, for example, two directions opposite to each other.
  • the direction of the X axis represents the positive direction of the X axis and the negative direction of the X axis.
  • FIG. 1 is a diagram showing the appearance and use state of the display system 1.
  • the display system 1 includes a housing 10, an opening 20, a sensor array 30, and an optical element 40.
  • the optical element 40 transmits the light emitted from the display (see FIG. 2) in the housing 10 and displays a two-dimensional image (aerial image) in the rectangular display area 810 in the air.
  • the optical element 40 is disposed in parallel to the XY plane.
  • the imaging element of Patent Document 3 described as the background art can be used.
  • the display area 810 is an area surrounded by four sides 810a, 810b, 810c, and 810d. Note that the side 810a and the side 810b are parallel, and the side 810c and the side 810d are parallel.
  • the direction of the normal line of the display area 810 is the z direction in the xyz coordinate system.
  • the display area 810 is parallel to the xy plane.
  • the xyz coordinate system is a coordinate system obtained by rotating the XYZ coordinate system by a predetermined angle about the X axis as a rotation axis.
  • the opening 20 has a rectangular shape.
  • the opening 20 is formed along the side 810 b of the display area 810 below the display area 810 (negative direction in the y direction).
  • the sensor array 30 has a plurality of ranging sensors 31_k (see FIG. 4) arranged in a row in the x direction.
  • the sensor array 30 is disposed along the opening 20 in the housing 10. Specifically, the sensor array 30 is installed such that the sensing surface of each distance measuring sensor faces the display area 810.
  • a plurality of objects are displayed side by side in a predetermined direction.
  • objects C, B, and A are displayed in this order in the positive direction of the y direction.
  • the objects F, E, and D are displayed in this order in the positive direction of the y direction.
  • the objects I, H, and G are displayed in this order in the positive direction of the y direction. That is, the x-coordinate values of the objects C, B, and A are the same, the x-coordinate values of the objects F, E, and D are the same, and the x-coordinate values of the objects I, H, and G are the same. Further, the y-coordinate values of the objects A, E, and G are the same, the y-coordinate values of the objects B, E, and H are the same, and the y-coordinate values of the objects C, F, and I are the same.
  • the user touches the aerial image displayed in the display area 810 with the user's finger 910, for example.
  • the user touches the object with the finger 910 to select the objects A to I included in the aerial image.
  • the “object” is an item listed as an operation target of the user.
  • the “object” is, for example, an icon configured to be selectable. Examples of the icon include an image showing a file, an image showing a shortcut, and an image for executing an application.
  • FIG. 2 is a cross-sectional view taken along line II-II in FIG.
  • the display system 1 includes a sensor array 30 and a display 50 in a housing 10.
  • the display system 1 includes an optical element 40 in an opening provided on the surface of the housing 10.
  • the display 50 displays an image in the direction of the optical element 40.
  • the image displayed on the display 50 is displayed in the display area 810 as an aerial image by the optical element 40. More detailed description is as follows.
  • the display 50 is installed at an angle of 90 ° - ⁇ a with respect to the optical element 40.
  • the incident angle of the light emitted from the display 50 with respect to the optical element 40 is also 90 ° ⁇ a.
  • the optical element 40 emits the light emitted from the display 50 at an emission angle of 90 ° ⁇ b.
  • the image displayed on the display 50 is displayed in the display area 810 as an aerial image.
  • the sensor array 30 is arranged at a position intersecting with a plane including the display area 810. That is, the sensor array 30 is arranged at a position parallel to the sides 810a and 810b of the display area 810 (see FIG. 1).
  • Each of the distance measuring sensors constituting the sensor array 30 is in the y direction perpendicular to the direction in which the distance measuring sensors are arranged (x direction) and the normal direction of the display area 810 (z direction), and approaches the display area 810. Light is emitted in the direction (see arrows 701, 702, and 703 in FIG. 1).
  • ⁇ c 90 ° ⁇ b between an angle ⁇ c formed by the optical path of the light emitted from the sensor array 30 and the optical element 40 (that is, an angle formed by the display region 810 and the optical element 40) and ⁇ b. A relationship is established.
  • the sensor array 30 may be arranged such that light emitted from each of the distance measuring sensors passes through the display area 810 (that is, the light overlaps with the display area 810), or the light enters the display area 810. So that the light travels along an area within a predetermined distance (for example, 1 cm) from the display area 810 to the normal direction of the display area 810 without overlapping with the display area 810. ) May be arranged.
  • a predetermined distance for example, 1 cm
  • FIG. 3 is a block diagram showing a part of the hardware configuration of the display system 1.
  • the display system 1 includes a sensor array 30, a display 50, a CPU (Central Processing Unit) 60, a memory 70, a display driving device 80, and an A / D (Analog / Digital) converter 90.
  • a sensor array 30 a display 50
  • a CPU Central Processing Unit
  • memory 70 a memory 70
  • a display driving device 80 a display driving device 80
  • a / D Analog / Digital
  • Sensor array 30 outputs an analog voltage value as a sensing result to A / D converter 90.
  • the A / D converter 90 converts an analog voltage value into a digital voltage value.
  • the A / D converter 90 sends the converted digital voltage value to the CPU 60.
  • the memory 70 includes, for example, a ROM, a RAM, and a flash memory.
  • the memory 70 stores a program executed by the display system 1, data indicating the display positions of the plurality of objects A to I, and various data such as numerical value range data 71.
  • the numerical range data will be described later (see FIG. 23).
  • CPU 60 executes a program stored in memory 70 in advance.
  • the CPU 60 refers to the voltage value acquired from the A / D converter 90, the numerical value range data 71, and the like, and executes processing to be described later.
  • the display driving device 80 receives a command from the CPU 60 and drives the display 50.
  • FIG. 4 is a diagram for explaining the configuration of the sensor array 30.
  • FIG. 4A is a top view of the sensor array 30.
  • FIG. 4B is a cross-sectional view taken along line IVb-IVb in FIG.
  • the sensor array 30 includes a plurality of distance measuring sensors 31_1 to 31_n.
  • n is a natural number of 2 or more.
  • Each of the plurality of distance measuring sensors has the same configuration.
  • Each distance measuring sensor 31_k (k is an arbitrary number between 1 and n) includes one light emitting element and a plurality of light receiving elements.
  • the distance measuring sensor 31_1 includes one light emitting element E1 and 25 light receiving elements R (1,1) to R (13,1), R (1,2) to R (6,2), R. (8, 2) to R (13, 2).
  • the number of light receiving elements is not limited to 25. Further, the number of light receiving elements in the z direction is not limited to 13.
  • the light emitting element Ek emits light.
  • the light receiving element R (i, j) is disposed so as to be able to receive light reflected by an object (for example, the finger 910) out of the light emitted from the light emitting element Ek.
  • k is a natural number between 1 and n.
  • i is a natural number of 1 or more and 13 or less.
  • j is a natural number of 1 or more and m or less.
  • the plurality of light receiving elements R (i, j) included in the sensor are arranged adjacent to the light emitting element Ek included in the sensor.
  • a plurality of light receiving elements included in both sensors are arranged so as to surround a light emitting element included in one distance measuring sensor.
  • the light emitting element E2 is surrounded by the light receiving element of the distance measuring sensor 31_2 and the light receiving element of the distance measuring sensor 31_3.
  • the sensor array 30 is configured such that light emitted from the light emitting element Ek does not enter the light receiving element R (i, j).
  • At least one of the plurality of distance measuring sensors emits light in the positive direction (predetermined direction) in the y direction with respect to the objects A to C. Further, at least one of the distance measuring sensors of the sensor array 30 emits light in the positive y direction with respect to the objects D to F. Further, at least one of the distance measuring sensors of the sensor array 30 emits light in the positive y direction with respect to the objects G to I.
  • the light emitting element E2 emits light in the positive direction of the y direction with respect to the objects A to C.
  • the light emitting element E4 emits light in the positive direction of the y direction with respect to the objects D to F.
  • the case where the objects A to I are touched (that is, selected) by the reflecting member 950 (see FIG. 5) of the rectangular parallelepiped instead of the object finger 910 is taken as an example. I will give you a description. Note that since the aerial image is not a physical object, even if the two-dimensional image is touched, there is no physical contact with the two-dimensional image.
  • FIG. 5 shows that the bottom surface 950a (reflective surface) of the reflecting member 950 is parallel to the light receiving surface of the sensor array 30 above the light emitting element E2 and the light receiving elements around the light emitting element E2 (positive direction in the y direction). It is the figure which showed the state which has arrange
  • FIG. 5A is a cross-sectional view taken along line IVb-IVb in FIG. 4A when the reflecting member 950 is arranged in this state.
  • FIG. 5B is a top view of the sensor array 30 when the reflecting member 950 is arranged in this state.
  • the light emitted from light emitting element E2 is reflected by bottom surface 950a of reflecting member 950.
  • the reflected light forms a circular light receiving region 601 on the light receiving surface of the sensor array 30. Therefore, the light reflected by the reflecting member 950 is received by the seven light receiving elements R (6,3), R (7,3), R (8,3), R (6,4), R (8,4). , R (6,5), R (7,5), R (8,5).
  • FIG. 6 is a diagram for explaining the relationship between the distance between the bottom surface 950a of the reflecting member 950 and the light receiving surface and the light receiving region.
  • the area of the light receiving region 606 formed when the distance is d3 (d3> d2) is larger than that of the light receiving region 605 formed when the distance between the object and the light receiving surface is d2.
  • the display system 1 determines which object among the plurality of objects is the object selected by the user. Hereinafter, the determination will be specifically described.
  • FIG. 23 is a diagram showing the configuration of the numerical range data 71 stored in the memory 70 in advance.
  • each of objects A to I is associated with a numerical value (area) range.
  • the numerical range data 71 associates different numerical ranges with each of a plurality of objects.
  • the numerical range data 71 associates numerical ranges that do not overlap each other with each of the plurality of objects. That is, in the numerical range data 71, when the user selects an object in the display area 810 with the reflective member 950 or the finger 910, the correspondence between the objects A to I and the numerical range is specified so that the CPU 60 identifies the selected object. The attachment is made beforehand.
  • Th1> Th2> Th3> Th4> Th5> Th6 is an example, and is not limited to the format shown in FIG.
  • the CPU 60 calculates the number of light receiving elements that have received the reflected light.
  • the number of light receiving elements that have received reflected light refers to the number of light receiving elements that have received light having an intensity greater than or equal to a predetermined value.
  • the CPU 60 has seven light receiving elements R (6,3), R (7,3), R (8,3), R (6,4), R (8,4). ), R (6,5), R (7,5), R (8,5) received light (reflected light) having an intensity equal to or higher than a predetermined value. Let the number be seven.
  • the CPU 60 determines that at least one of the objects A to C is selected by the user based on the position of the light receiving element that receives the reflected light (specifically, the position of the light receiving element in the sensor array 30 in the x direction). In addition, based on the calculated number of light receiving elements and the numerical range data 71, the CPU 60 selects one object from a plurality of objects A to C that is associated with the numerical range including the calculated number of light receiving elements. Identify. For example, the CPU 60 specifies the object B when the relationship of Th3 ⁇ 7> Th4 or Th3> 7 ⁇ Th4 is satisfied. In this case, the reflecting member 950 intersects with the object B in the display area 810.
  • the CPU 60 executes processing corresponding to the identified object. For example, the CPU 60 activates an application program or opens a file.
  • the CPU 60 when the reflected light is received by at least the light receiving elements R (i, j) of the distance measuring sensor 31_4 and the distance measuring sensor 31_5, the CPU 60 similarly calculates the number of light receiving elements that have received the reflected light. In addition, based on the calculated number of light receiving elements and the numerical range data 71, the CPU 60 selects one object associated with the numerical range including the calculated number of light receiving elements from the plurality of objects D to F. Identify. Further, the CPU 60 executes processing corresponding to the identified object.
  • the display system 1 has the following configuration.
  • the CPU 60 of the display system 1 displays a plurality of objects C, B, A side by side in a predetermined direction (positive direction in the y direction) in the display area 810.
  • the light emitting element E2 emits light to the plurality of objects A to C in the predetermined direction.
  • the CPU 60 calculates the number of light receiving elements that have received the reflected light.
  • the CPU 60 selects one object from a plurality of objects A to C that is associated with the numerical range including the calculated number of light receiving elements. Identify. Further, the CPU 60 executes processing corresponding to the identified object.
  • the display system 1 it is possible to detect selection of an object in the two-dimensional image with a simple configuration without surrounding the two-dimensional image displayed in the air with a frame.
  • the object B is selected by the user in the state of FIG. 5 and the CPU 60 specifies the object B from a plurality of objects.
  • FIG. 7 is a view showing a light receiving region in a state where the reflecting member 950 is in a position where only a part of the light emitted from the light emitting element E2 can be reflected.
  • FIG. 7A is a cross-sectional view taken along line IVb-IVb in FIG. 4A when the reflecting member 950 is arranged in this state.
  • FIG. 7B is a top view of the sensor array 30 when the reflecting member 950 is arranged in this state.
  • the CPU 60 determines whether or not there is one light receiving region formed by the reflected light. to decide.
  • the CPU 60 determines that there is one light receiving area
  • the CPU 60 identifies an object and executes processing corresponding to the identified object.
  • the CPU 60 determines that there is not one light receiving area, it does not specify the object. That is, processing corresponding to the object is not performed.
  • the CPU 60 executes object identification and processing for the identified object.
  • the light receiving areas 611 and 612 are formed on the light receiving surface as described above, the object is not specified.
  • the display system 1 does not specify an object when the reflecting member 950 is in a position where the infrared light emitted from the light emitting element Ek is interrupted halfway. For this reason, unless the user pushes the reflecting member 950 or the finger 910 in a negative direction in the z direction to some extent, the processing corresponding to the object is not executed. Therefore, the display system 1 can increase the detection accuracy of the reflecting member 950.
  • the display system 1 may be configured so that the specified object is not executed after the object is specified.
  • FIG. 8 is a diagram illustrating a first example in which it is determined that the user operation has been confirmed.
  • FIGS. 8A and 8B are views showing a state where the position of the reflecting member 950 is in the same position as FIGS. 7A and 7B, respectively.
  • FIG. 8C is a cross-sectional view of the sensor array 30 in a state in which the reflecting member 950 is moved a certain distance in the direction of the arrow 751 (negative direction in the z direction) from the state of FIG. More specifically, FIG. 8C is a cross-sectional view taken along line IVb-IVb in FIG. 4A in a state in which the reflecting member 950 is advanced by a certain distance.
  • FIG. 8D is a top view of the sensor array 30 in this state.
  • FIGS. 8C and 8D show the same states as FIGS. 5A and 5B, respectively.
  • CPU 60 determines that the number of light-receiving areas formed on the light-receiving surface has been reduced from two to one, it identifies the user operation and identifies the object. In this way, since the CPU 60 determines that the user operation has been confirmed by determining the change in the state of the light receiving area, it is possible to prevent a malfunction based on the fine movement of the object (the reflecting member 950 or the finger 910).
  • FIG. 9 is a diagram illustrating a second example in which it is determined that the user operation has been confirmed.
  • FIG. 9 is also a diagram illustrating an operation example when the user performs an object drag-and-drop operation.
  • FIGS. 9A and 9B are views showing a state where the object E (see FIG. 1) is selected by the user.
  • FIG. 9A is a cross-sectional view taken along line IXa-IXa in FIG. 4A in a state where the object E is selected.
  • FIG. 9B is a top view of the sensor array 30 in this state.
  • FIG. 9C is a cross-sectional view of the sensor array 30 in a state where the reflecting member 950 is moved in the negative direction in the x direction from the state of FIG. 9A in order to select the object B. More specifically, FIG. 9C is a cross-sectional view taken along the line IVb-IVb in FIG. 4A in this state.
  • FIG. 9D is a top view of the sensor array 30 in this state.
  • FIGS. 9C and 9D are views showing the same state as FIGS. 5A and 5B, respectively.
  • CPU 60 determines that the light receiving area formed on the light receiving surface has transitioned from one light receiving area 616 to one light receiving area 601, it drags object E against object B. It is determined that the command to drop is input. More specifically, CPU 60 determines that object E has been dragged and dropped onto object B when the state of light receiving area 601 lasts for a predetermined period of time.
  • the CPU 60 determines that the user operation is confirmed by determining the state change of the light receiving area, it is possible to prevent malfunction based on the fine movement of the object (the reflecting member 950 or the finger 910).
  • FIG. 10 is a diagram illustrating an example in which it is determined that the user operation is not confirmed.
  • FIGS. 10A and 10B are views showing a state in which the position of the reflecting member 950 is in the same position as FIGS. 8A and 8B, respectively.
  • FIG. 10C is a cross-sectional view of the sensor array 30 in a state in which the reflecting member 950 is moved by a certain distance in the direction of the arrow 752 (positive direction in the z direction) from the state of FIG. More specifically, FIG. 10C is a cross-sectional view taken along the line IVb-IVb in FIG. 4A in a state where the reflecting member 950 is advanced by a certain distance.
  • FIG. 10D is a top view of the sensor array 30 in this state.
  • CPU 60 determines that the number of light receiving areas formed on the light receiving surface is not two, it determines that the user operation has not been confirmed. That is, the CPU 60 determines that the object B has not been selected by the user.
  • the bottom surface 950a of the reflecting member 950 is in a state tilted with respect to the xz plane while maintaining the bottom surface 950a parallel to the x-axis. More specifically, the reflected light of the light emitted from the light emitting element Ek is received by at least one of the thirteen light receiving elements R (1, 2k) to R (13, 2k), or the sensor array. It is assumed that no light is received by any of the light receiving elements R (i, j) included in 30.
  • FIG. 11 is a view for explaining a light receiving region formed when the reflecting member 950 is inclined by an angle ⁇ a.
  • a light receiving region formed when the reflecting member 950 is inclined by an angle ⁇ a when the distance between reflecting member 950 and the light receiving surface is d4, an elliptical light receiving region having a major axis length L3 is formed on the light receiving surface.
  • an elliptical light receiving region whose major axis length is L4 L4> L3 is formed on the light receiving surface.
  • L4 2 ⁇ L3.
  • the area of the light receiving region also increases. That is, the number of light receiving elements R (i, j) that receive the reflected light also increases.
  • the CPU 60 can specify one object from a plurality of objects based on the number of light receiving elements that receive the reflected light.
  • the display system 1 determines that the method of selecting an object by the user is not appropriate. Therefore, the CPU 60 executes the following processing.
  • the memory 70 further stores in advance data in which different numerical values are associated with each of a plurality of objects.
  • the numerical value is set so as to increase in proportion to the distance between the object and the light receiving surface.
  • the numerical value N1 is associated with the objects A, D, and G
  • the numerical value N2 is associated with the objects B, E, and H
  • the numerical value N3 is associated with the objects C, F, and I.
  • Numerical values N1, N2, and N3 are numbers based on the diameter of a circle formed on the light receiving surface when the reflecting member 950 is in a state parallel to the light receiving surface, as shown in FIG.
  • the numerical value N1 is a number corresponding to the diameter of the light receiving region 601 in FIG. More specifically, since the reflected light reaches the light receiving elements R (6, 4), R (8, 4) and the light emitting element E2, the value “3” for the three elements is set to a numerical value N1.
  • the numerical values N2 and N3 are set similarly.
  • the CPU 60 compares the number of light receiving elements located on the long axis (axis in the z direction) of the light receiving region (ellipse) among the light receiving elements that have received the reflected light with the above numerical value associated with the specified object. To do. When the number of light receiving elements is less than a predetermined multiple of the above numerical value, the CPU 60 executes a process corresponding to the specified object. On the other hand, when the number of light receiving elements is greater than or equal to a predetermined multiple of the above numerical value, the CPU 60 does not execute processing corresponding to the specified object. Note that data indicating a predetermined multiple is also stored in the memory 70 in advance.
  • the CPU 60 executes processing corresponding to the specified object.
  • the CPU 60 does not execute processing corresponding to the specified object.
  • the display system 1 Since the display system 1 has such a configuration, when the reflecting member 950 or the finger 910 has a large inclination, it can be determined that the method of selecting an object by the user is not appropriate. For this reason, the display system 1 is excellent in operability for the user.
  • FIG. 12 is a diagram for explaining a light receiving region formed when the reflecting member 950 is inclined by an angle ⁇ b.
  • the angle ⁇ b is an angle at which the number of light receiving elements that receive the reflected light is equal to or greater than a predetermined multiple of the above numerical value.
  • the object A is in a state selected by the user. To do. In this state, the CPU 60 specifies the object A from the plurality of objects.
  • the area 691 is a light receiving area where it is determined that the selection of the object B is valid. That is, as long as the light receiving region is formed in the region 691, the number of light receiving elements that receive the reflected light is less than a predetermined multiple of the numerical value N2.
  • the CPU 60 changes the display mode of the object B from the normal display mode to the display mode different from the normal mode, assuming that the object B is not correctly selected. For example, the CPU 60 causes the object B to blink and display it in the display area 810.
  • the area 692 is a light receiving area where the selection of the object A is determined to be valid. That is, as long as the light receiving region is formed in the region 692, the number of light receiving elements for reflected light is less than a predetermined multiple of the numerical value N1.
  • the CPU 60 changes the display mode of the object A from the normal display mode to the display mode different from the normal mode, assuming that the object A is not correctly selected.
  • the display system 1 can prompt the user to finely adjust the positions of the reflecting member 950 and the finger 910 by changing the display mode of the object in this way.
  • predetermined multiple is set to 1.6 times.
  • FIG. 13 is a diagram illustrating an example in which the CPU 60 determines that the selection of the object B is valid. More specifically, FIG. 13 is a diagram for explaining a light receiving region formed when the reflecting member 950 is inclined by an angle ⁇ 1.
  • FIG. 13A is a cross-sectional view taken along line IVb-IVb in FIG. 4 when the reflecting member 950 is inclined at an angle ⁇ 1.
  • FIG. 13B is a top view of the sensor array 30 when the reflecting member 950 is inclined by the angle ⁇ 1.
  • At least three light receiving elements R (4,4), R (5,4), R (6,4) receive the reflected light from the reflecting member 950.
  • FIG. 14 is a diagram illustrating an example in which the CPU 60 determines that the selection of the object B is invalid. More specifically, FIG. 14 is a diagram for explaining a light receiving region formed when the reflecting member 950 is inclined by an angle ⁇ 2 ( ⁇ 2> ⁇ 1). 14A is a cross-sectional view taken along the line IVb-IVb in FIG. 4 when the reflecting member 950 is inclined by an angle ⁇ 2. FIG. 14B is a top view of the sensor array 30 when the reflecting member 950 is inclined by an angle ⁇ 2.
  • FIG. 15 is a diagram illustrating an example in which the CPU 60 determines that the selection of the object B is invalid. More specifically, FIG. 15 is a diagram for explaining a light receiving region formed when the reflecting member 950 is inclined at an angle ⁇ 3 (90 °> ⁇ 3> ⁇ 2).
  • FIG. 15A is a cross-sectional view taken along line IVb-IVb in FIG. 4 when the reflecting member 950 is inclined by an angle ⁇ 3.
  • FIG. 15B is a top view of the sensor array 30 when the reflecting member 950 is inclined by an angle ⁇ 3.
  • the light receiving surface is not irradiated with reflected light. Therefore, in this case, as described above, the CPU 60 does not specify an object.
  • FIG. 16 is a diagram illustrating an example in which the CPU 60 determines that the selection of the object B is valid. More specifically, FIG. 16 is a diagram for explaining a light receiving region formed when the reflecting member 950 is inclined by an angle ⁇ 1 in the direction opposite to that in FIG.
  • FIG. 16A is a cross-sectional view taken along line IVb-IVb in FIG. 4 when the reflecting member 950 is inclined at an angle ⁇ 1.
  • FIG. 16B is a top view of the sensor array 30 when the reflecting member 950 is inclined by the angle ⁇ 1.
  • At least three light receiving elements R (8,4), R (9,4), R (10,4) receive the reflected light from the reflecting member 950.
  • FIG. 17 is a diagram illustrating an example in which the CPU 60 determines that the selection of the object B is invalid. More specifically, FIG. 17 is a diagram for explaining a light receiving region formed when the reflecting member 950 is inclined by an angle ⁇ 2 in the direction opposite to that in FIG.
  • FIG. 17A is a cross-sectional view taken along line IVb-IVb in FIG. 4 when the reflecting member 950 is inclined by an angle ⁇ 2.
  • FIG. 17B is a top view of the sensor array 30 when the reflecting member 950 is inclined by an angle ⁇ 2.
  • At least five light receiving elements R (9,4), R (10,4), R (11,4), R (12,4), R (13 , 4) receive the light reflected by the reflecting member 950.
  • FIG. 18 is a diagram illustrating an example in which the CPU 60 determines that the selection of the object B is invalid. More specifically, FIG. 18 is a diagram for explaining a light receiving region formed when the reflecting member 950 is inclined by an angle ⁇ 3 in the direction opposite to that in FIG. 18A is a cross-sectional view taken along the line IVb-IVb in FIG. 4 when the reflecting member 950 is inclined by an angle ⁇ 3. FIG. 18B is a top view of the sensor array 30 when the reflecting member 950 is inclined by an angle ⁇ 3.
  • the light receiving surface is not irradiated with the reflected light. Therefore, in this case, as described above, the CPU 60 does not specify an object.
  • FIG. 19 is a flowchart showing the flow of processing in the display system 1.
  • step S2 each light emitting element E1 to En of sensor array 30 emits infrared rays.
  • step S ⁇ b> 4 some of the light receiving elements R included in the sensor array 30 receive the reflected light.
  • step S6 the CPU 60 determines whether there is one light receiving area based on the output from the sensor array 30.
  • CPU 60 determines that the number of light receiving areas is one (YES in step S6)
  • CPU 60 calculates the number of light receiving elements that have received the reflected light in step S8.
  • CPU 60 determines that the number of light receiving areas is not one (NO in step S6), the process proceeds to step S4.
  • step S 10 the CPU 60 identifies one object from the plurality of objects A to I based on the position of the light receiving element that has received the reflected light, the calculated number of light receiving elements, and the numerical range data 71.
  • step S12 the CPU 60 determines that the number of light receiving elements positioned on the long axis of the light receiving region among the light receiving elements that have received the reflected light is a predetermined multiple (1.6 times) of the numerical value associated with the identified object. It is judged whether it is less than.
  • CPU 60 determines that the number is less than the predetermined multiple (YES in step S12)
  • CPU 60 executes a process corresponding to the identified object in step S14.
  • step S16 the display mode of the identified object is changed from the normal display mode to a display mode different from the normal display mode.
  • the sensor array 30 includes a plurality of distance measuring sensors 31_1 to 31_n (see FIG. 4).
  • the configuration of the display system 1 that performs detection with higher accuracy by using analog distance measuring sensors as the distance measuring sensors 31_1 to 31_n will be described.
  • FIG. 20 is a diagram showing the characteristics of the distance measuring sensors 31_1 to 31_n. Referring to FIG. 20, when the distance D is greater than d11, the distance measuring sensors 31_1 to 31_n have a characteristic that the output voltage decreases as the distance from the object (reflecting member 950, finger 910) increases.
  • the distance range that can be detected by the distance measuring sensor 31 is a distance from the distance d11 to the distance d12 where the output voltage does not become a certain value or less.
  • the sensor array 30 includes distance measuring sensors 31_1 to 31_n that are included in a distance range in which the display area 810 can be detected.
  • the memory 70 stores data indicating the characteristics shown in FIG. 20 in advance.
  • the CPU 60 detects the position of the object from the voltage value output by each distance measuring sensor and the data indicating the characteristics shown in FIG. Based on the detected position of the object and data indicating the display position of the object stored in the memory 70, the CPU 60 determines whether or not the specified object is correctly specified. When the CPU 60 determines that the specification is correct, the CPU 60 executes a process corresponding to the specified object.
  • the display system 1 can perform detection with higher accuracy by using the voltage values output from the distance measuring sensors 31_1 to 31_n together.
  • the sensor array 30 having the configuration shown in FIG. 4 is used as the detection element.
  • the detection elements that can be used in the display system 1 are not limited to the sensor array 30.
  • FIG. 21 is a top view of another sensor array 30A that can be used in the display system 1.
  • sensor array 30A includes a plurality of distance measuring sensors 32_1 to 32_n ′. Note that n ′ is a natural number of 2 or more.
  • Each of the plurality of distance measuring sensors has the same configuration.
  • Each distance measuring sensor includes one light emitting element and a plurality of light receiving elements.
  • the distance measuring sensor 32_1 includes one light emitting element E1 and 38 light receiving elements R (1,1) to R (13,1), R (1,2) to R (6,2), R. (8, 2) to R (13, 2) and R (1, 3) to R (13, 3).
  • the light emitting element Ek emits light.
  • the light receiving element R (i, j) is disposed so as to be able to receive light reflected by an object (for example, the finger 910) out of the light emitted from the light emitting element Ek.
  • i is a natural number of 1 or more and 13 or less.
  • j is a natural number from 1 to m ′.
  • the plurality of light receiving elements R (i, j) included in the sensor are arranged adjacent to each other so as to surround the light emitting element Ek included in the sensor.
  • the sensor array 30A is configured such that light emitted from the light emitting element Ek does not enter the light receiving element R (i, j). Even if the display system 1 uses the sensor array 30 ⁇ / b> A instead of the sensor array 30, the display system 1 can perform the same processing as the sensor array 30.
  • the intervals between the light emitting elements Ek may be set as appropriate based on the intervals in the x direction of a plurality of displayed objects. Or the display system 1 should just be comprised so that an object may be displayed according to the space
  • a detection element having only one light emitting element can be used instead of the sensor array 30.
  • FIG. 22 is a diagram showing an example of a detection element (sensor) having only one light emitting element. More specifically, FIG. 22 is a top view of the distance measuring sensor 33 which is a detection element. Referring to FIG. 22, the light receiving surface of the sensor has a rectangular shape.
  • the distance measuring sensor 33 includes a light emitting element E1 and 168 light receiving elements (i, j) arranged so as to surround the light emitting element E1.
  • the object can be specified even when the bottom surface 950a of the reflecting member 950 is maintained parallel to the z axis and the bottom surface 950a is inclined with respect to the xz plane. it can.
  • ⁇ Modification of control structure> (1) The order of processing in steps S6 and S8 shown in FIG. 19 may be reversed. That is, the display system 1 may be configured to determine whether or not there is one irradiation area after calculating the number of light receiving elements that have received the reflected light.
  • step S12 The processing in step S12 shown in FIG. 19 may be replaced with the following processing. That is, in step S12, the CPU 60 is configured to determine whether or not the light receiving area is included in a predetermined area. In this case, the display system 1 is configured such that if it is determined that the light receiving area is included in the predetermined area, the process proceeds to step S14, and if it is determined that the light receiving area is not included in the predetermined area, the process proceeds to step S16. That's fine.
  • the predetermined area may be set for each object.
  • the predetermined area may be set so as to increase in proportion to the distance between the object and the sensor array.
  • the predetermined region may be a circular region centered on the light emitting element Ek, for example.
  • the light emitting elements are predetermined with respect to the plurality of objects A to C or the normal direction of the display area 810 from the plurality of objects A to C. Any configuration may be used as long as the light is emitted in the predetermined direction so that the light travels along the plurality of objects A to C within an area within a certain distance.
  • 1 display system 10 housing, 20 openings, 30, 30A sensor array, E1, E2, E4, Ek, En light emitting element, 31, 32, 33 ranging sensor, 40 optical element, 50 display, 60 CPU, 70 Memory, 601, 605, 606, 611, 612, 616, 681, 682 light receiving area, 810 display area, 910 fingers, 950 reflecting member, 950a bottom surface, 950b end face.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)

Abstract

 表示システム(1)は、表示領域(810)にオブジェクト(D~F)を予め定められた向きに並べて表示する。センサアレイ(30)の1つの発光素子は、オブジェクト(D~F)に対して当該予め定められた向きに光を出射する。表示システム(1)は、オブジェクト(D~F)の各々に対して、互いに異なる数値範囲を対応付けたデータを予め格納している。表示システム(1)は、指(910)による反射光がセンサアレイ(30)の受光素子によって受光されると、反射光を受光した受光素子の数を算出し、算出された受光素子の数と格納されたデータとに基づいて、算出された受光素子の数を含む数値範囲に対応付けされたオブジェクトをオブジェクト(D~F)から1つ特定し、特定されたオブジェクトに対応した処理を実行する。

Description

表示システム、および検出方法
 本発明は、表示システム、および検出方法に関する。本発明は、特に、空中に2次元画像を表示する表示システム、および当該2次元画像におけるに含まれるオブジェクトの選択を検出する検出方法に関する。
 従来、空中に2次元画像を表示する表示システムが知られている。
 特開2005-141102号公報(特許文献1)には、上記表示システムとして、立体的二次元画像表示装置が開示されている。立体的二次元画像表示装置は、表示部と、マイクロレンズアレイと、位置検出センサと、制御部とを備える。
 表示部は、二次元画像を表示する画像表示面を備える。マイクロレンズアレイは、画像表示面から出射した光を画像表示面から離間した立体画像表示面に結像することにより、立体画像表示面に二次元画像を擬似立体的に表示する。位置検出センサは、立体画像表示面に対応づけて配置され、外部からの物理的な働きかけを受けた位置に対応した信号を出力する。制御部は、位置検出センサからの出力信号に応じて、立体画像表示面内の画像を変化させる。
 特開平9-55152号公報(特許文献2)には、上記表示システムとして、タッチレスパネルスイッチを備えた表示装置が開示されている。当該タッチレスパネルスイッチにおいては、指を検出しようとしている所定の領域へ指が侵入してきたときに、投光素子からの光線が当該指に反射し、受光素子へ入射するように、当該投光素子と当該受光素子とからなる反射型光センサを、屈折率分布型レンズ素子の周囲の空間に、当該所定の領域毎に少なくとも1個以上設置している。
 また、従来、空中に2次元画像および3次元画像を表示する表示システムが知られている。
 国際公開第2007/116639号公報(特許文献3)には、当該表示システムとして、結像素子を備えたディスプレイ装置が開示されている。当該ディスプレイ装置は、2次元または3次元の物体である被投影物を、結像素子に対して反対側に、2次元像または3次元像の実像として結像させる。より詳しく説明すると以下のとおりである。
 結像素子は、1つの平面を構成する素子面を光が透過する際に光線の屈曲を生じさせる光学素子である。結像素子は、素子面に垂直もしくはそれに近い角度で配置された1つ以上の鏡面による光の反射を行なう単位光学素子を複数配置することにより構成される。結像素子は、素子面の一方側に配置した被投影物から発せられる光を、素子面を透過する際に鏡面に反射させることによって、素子面の他方側の物理的実体のない空間に実像として結像させる。
 また、従来、ホログラムを利用した非接触スイッチが知られている。
 特開平10-302589号公報(特許文献4)には、ホログラムレンズの後方にハーフミラーが設置され、さらにその後方に原像(元絵)が設置され、当該原像の背後にバックライトが設けられた非接触スイッチが開示されている。当該非接触スイッチは、ホログラムレンズの前面側の一方のサイドに発光素子が設置され、他方のサイドに第1の受光素子が設置されている。当該非接触スイッチは、物体反射光のうち、ホログラムレンズを透過し、且つハーフミラーで反射された反射光を受光するための第2の受光素子をさらに備える。
特開2005-141102号公報 特開平9-55152号公報 国際公開第2007/116639号公報 特開平10-302589号公報
 しかしながら、特許文献1では、空中に表示した2次元画像の周囲を囲むように位置検出センサを配置する必要がある。それゆえ、特許文献1では、空中に表示した2次元画像の周囲に枠が必要となる。したがって、ユーザは、特許文献1の立体的二次元画像表示装置が表示する画像と、表示パネルに画像を表示させる一般のディスプレイが表示する画像との違いを感じにくい。
 特許文献2では、1つのセンサによって、空中の2次元画像内の予め定められた位置に指等の物体が位置したことを検知している。このため、2次元画像を表示する表示領域について検知を行なうには、数多くのセンサが必要になる。さらに、各センサの設置位置の位置決めは、非常に難しい。
 特許文献3では、結像した2次元像または3次元画像の実像内のどの位置に物体が存在しているかを検知することはできない。
 特許文献4では、ホログラムレンズから結像の向きに、複数の選択可能なオブジェクトを並べて配置することはできない。
 本発明は上記の問題点に鑑みなされたものであって、その目的は、空中に表示させた2次元画像の周囲を枠で囲むことなく、簡易な構成で2次元画像におけるオブジェクトの選択を検出可能な表示システム、および当該表示システムにおける検出方法を提供することにある。
 本発明のある局面に従うと、表示システムは、ディスプレイと、ディスプレイに表示された画像に基づいて、空中の表示領域に2次元画像を表示する光学素子と、発光素子と複数の受光素子とを含んだセンサと、センサに電気的に接続され、表示領域に複数のオブジェクトを予め定められた向きに並べて表示させるプロセッサと、プロセッサに電気的に接続されたメモリとを備える。発光素子は、複数のオブジェクトに対して、上記予め定められた向きに光を出射する。複数の受光素子は、出射された光のうち物体により反射された光を受光可能に配置されている。メモリは、複数のオブジェクトの各々に対して、互いに異なる数値範囲を対応付けた第1のデータを予め格納している。プロセッサは、反射された光がセンサによって受光されると、反射された光を受光した受光素子の数を算出する。プロセッサは、算出された受光素子の数と第1のデータとに基づいて、算出された受光素子の数を含む数値範囲に対応付けされたオブジェクトを、複数のオブジェクトから1つ特定する。プロセッサは、特定されたオブジェクトに対応した処理を実行する。
 好ましくは、複数の受光素子は、発光素子に隣接して配置される。プロセッサは、反射された光がセンサによって受光されたことに基づき、当該反射された光により形成されるセンサにおける受光領域が、1つであるか否かを判断する。プロセッサは、受光領域が1つであると判断すると、オブジェクトの特定を行なう。プロセッサは、受光領域が1つでないと判断すると、オブジェクトの特定を行なわない。
 好ましくは、複数の受光素子は、発光素子を囲むように配置されている。
 好ましくは、複数の受光素子は、マトリクス状に配置されている。受光領域は、円形または楕円形である。メモリは、複数のオブジェクトの各々に対して、互いに異なる数値を対応付けた第2データをさらに格納している。上記数値は、オブジェクトとセンサとの間の距離に比例して広くなるように設定されている。プロセッサは、受光領域が楕円形である場合、反射した光を受光した受光素子のうち、当該楕円の長軸上に位置する受光素子の数と、特定されたオブジェクトに対応付けられた数値とを比較する。プロセッサは、受光素子の数が数値の所定倍未満のときには、特定されたオブジェクトに対応した処理を実行する。プロセッサは、受光素子の数が上記数値の所定倍以上のときには、特定されたオブジェクトに対応した処理を実行しない。
 好ましくは、プロセッサは、長軸上に位置する受光素子の数が上記数値の所定倍以上であると判断すると、特定したオブジェクトの表示態様を第1の表示態様から第2の表示態様に変更させる。
 好ましくは、プロセッサは、受光領域が1つであると判断すると、受光領域が予め定められた領域に含まれるか否かを判断する。プロセッサは、受光領域が予め定められた領域に含まれると判断すると、特定されたオブジェクトに対応した処理を実行する。プロセッサは、受光領域が予め定められた領域に含まれないと判断すると、特定されたオブジェクトに対応した処理を実行しない。
 好ましくは、予め定められた領域は、オブジェクト毎に設定されている。予め定められた領域は、オブジェクトとセンサとの間の距離に比例して広くなるように設定されている。
 好ましくは、プロセッサは、受光領域が予め定められた領域に含まれないと判断すると特定したオブジェクトの表示態様を第1の表示態様から第2の表示態様に変更させる。
 好ましくは、センサは、測距センサである。メモリは、センサにおける出力電圧と距離との対応関係を示した第3のデータと、複数のオブジェクトの各々の表示位置を示した第4のデータとをさらに格納している。プロセッサは、測距センサが出力した電圧値と第3のデータとに基づいて、物体の位置を検出する。プロセッサは、検出された物体の位置および第4のデータに基づいて、特定されたオブジェクトについての当該特定が正しいか否かを判断する。プロセッサは、特定が正しいと判断すると、特定されたオブジェクトに対応した処理を実行する。
 本発明の他の局面に従うと、検出方法は、空中の表示領域に表示した2次元画像に含まれるオブジェクトの選択を検出する表示システムにおける検出方法である。表示システムは、ディスプレイと、ディスプレイに表示された画像に基づいて、2次元画像を表示する光学素子と、発光素子と複数の受光素子とを含んだセンサと、センサに電気的に接続され、ディスプレイに複数のオブジェクトを予め定められた向きに並べて表示させるプロセッサと、プロセッサに電気的に接続されたメモリとを備える。メモリは、複数のオブジェクトの各々に対して、互いに異なる数値範囲を対応付けたデータを予め格納している。検出方法は、発光素子が、複数のオブジェクトに対して上記予め定められた向きに光を出射するステップと、複数の受光素子の少なくとも1つが、出射された光のうち物体により反射された光を受光するステップと、プロセッサが、反射された光がセンサによって受光されると、反射された光を受光した受光素子の数を算出するステップと、プロセッサが、算出された受光素子の数を含む数値範囲に対応付けされたオブジェクトを、複数のオブジェクトから1つ特定するステップと、プロセッサが、特定されたオブジェクトに対応した処理を実行するステップとを備える。
 本発明によれば、空中に表示させた2次元画像の周囲を枠で囲むことなく、簡易な構成で2次元画像におけるオブジェクトの選択を検出可能となる。
表示システムの外観および使用状態を示した図である。 図1におけるII-II線矢視断面図である。 表示システムのハードウェア構成の一部を示したブロック図である。 センサアレイの構成を説明するための図である。 発光素子と発光素子の周囲の受光素子との上方に、反射部材の底面がセンサアレイの受光面と平行になるように反射部材を配置した状態を示した図である。 反射部材の底面と受光面との間の距離と、受光領域との関係を説明するための図である。 反射部材が発光素子により出射された一部の光しか反射できない位置にある状態における受光領域を示した図である。 ユーザ操作が確定したと判定される第1の例を示した図である。 ユーザ操作が確定したと判定される第2の例を示した図である。 ユーザ操作が確定していないと判定される例を示した図である。 反射部材が角度φa傾いた場合に形成される受光領域を説明するための図である。 反射部材が角度φb傾いた場合に形成される受光領域を説明するための図である。 CPUによってオブジェクトBの選択が有効であると判断される例を示した図である。 CPUによってオブジェクトBの選択が無効であると判断される例を示した図である。 CPUによってオブジェクトBの選択が無効であると判断される例を示した図である。 CPUによってオブジェクトBの選択が有効であると判断される例を示した図である。 CPUによってオブジェクトBの選択が無効であると判断される例を示した図である。 CPUによってオブジェクトBの選択が無効であると判断される例を示した図である。 表示システムにおける処理の流れを示したフローチャートである。 測距センサの特性を示した図である。 表示システムに用いることが可能な他のセンサアレイの上面図である。 発光素子を1つだけ有する検出素子の一例を示した図である。 メモリに予め格納されている数値範囲データの構成を示した図である。
 以下、図面を参照しつつ、本発明の各実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。
 なお、以下では、「方向」とは、互いに異なる2つの向きを表す。「互いに異なる2つの向き」とは、たとえば、互いに反対を向いた2つの向きを表す。一例を挙げれば、X軸の方向とは、X軸の正の向きと、X軸の負の向きとを表す。
 図1は、表示システム1の外観および使用状態を示した図である。図1を参照して、表示システム1は、筐体10と、開口部20と、センサアレイ30と、光学素子40とを備える。
 光学素子40は、筐体10内のディスプレイ(図2参照)が発した光を透過して、空中の矩形の表示領域810に2次元画像(空中画像)を表示する。光学素子40は、XY平面に平行に平行に配置されている。光学素子40としては、たとえば、背景技術として説明した特許文献3の結像素子を用いることができる。
 表示領域810は、4つの辺810a,810b,810c,810dに囲まれた領域である。なお、辺810aと辺810bとは平行であり、辺810cと辺810dとは平行である。表示領域810の法線の方向は、xyz座標系においてz方向である。また、表示領域810は、xy平面に平行である。
 なお、xyz座標系のx方向と、XYZ座標系のX方向とは平行である。xyz座標系は、XYZ座標系をX軸を回転軸として所定の角度回転させた座標系である。
 開口部20は、矩形状である。開口部20は、表示領域810の下方(y方向の負の向き)に、表示領域810の辺810bに沿って形成されている。
 センサアレイ30は、複数の測距センサ31_k(図4参照)をx方向に列状に配置している。センサアレイ30は、筐体10内において開口部20に沿って配置されている。具体的には、センサアレイ30は、各測距センサのセンシング面が表示領域810を向くように設置されている。
 表示領域810には、複数のオブジェクトが予め定められた向きに並べて表示される。たとえば、表示領域810には、オブジェクトC,B,Aが、この順にy方向の正の向きに並べて表示される。また、表示領域810には、オブジェクトF,E,Dが、この順にy方向の正の向きに並べて表示される。また、表示領域810には、オブジェクトI,H,Gが、この順にy方向の正の向きに並べて表示される。つまり、オブジェクトC,B,Aのx座標の値は同一であり、オブジェクトF,E,Dのx座標の値は同一であり、オブジェクトI,H,Gのx座標の値は同一である。また、オブジェクトA,E,Gのy座標の値は同一であり、オブジェクトB,E,Hのy座標の値は同一であり、オブジェクトC,F,Iのy座標の値は同一である。
 表示システム1においては、ユーザは、表示領域810に表示された空中画像を、たとえばユーザの指910で触る。具体的には、ユーザは、空中画像に含まれているオブジェクトA~Iを選択するために、指910で当該オブジェクトを触る。なお、「オブジェクト」とは、ユーザの操作対象として列挙されたアイテムである。「オブジェクト」とは、たとえば、選択可能に構成されたアイコンである。アイコンとしては、たとえば、ファイルを示した画像、ショートカットを示した画像、アプリケーションを実行するための画像である。
 図2は、図1におけるII-II線矢視断面図である。図2を参照して、表示システム1は、筐体10内に、センサアレイ30と、ディスプレイ50とを備える。表示システム1は、筐体10の表面に設けられた開口部に、光学素子40を備える。
 ディスプレイ50は、光学素子40の方向に画像を表示する。ディスプレイ50が表示した画像が、光学素子40により空中画像として表示領域810に表示される。より詳しく説明すれば、以下の通りである。
 ディスプレイ50は、光学素子40に対して、角度90°-δa傾いた状態で設置されている。なお、ディスプレイ50が出射する光についての光学素子40に対する入射角も、90°-δaとなる。光学素子40は、ディスプレイ50が出射した光を、出射角90°-δbで出射する。これにより、表示領域810に、ディスプレイ50が表示した画像が空中画像として表示される。
 センサアレイ30は、表示領域810を含む平面と交わる位置に配置されている。つまり、センサアレイ30は、表示領域810の辺810a,810bと平行となる位置に配されている(図1参照)。センサアレイ30を構成する測距センサの各々は、測距センサの配列方向(x方向)および表示領域810の法線の方向(z方向)と垂直なy方向であって、表示領域810に近づく向きに光を出射する(図1の矢印701,702,703参照)。
 なお、センサアレイ30が出射する光の光路と光学素子40とがなす角δc(つまり、表示領域810と光学素子40とがなす角)とδbとの間には、δc=90°-δbの関係が成立する。
 センサアレイ30は、測距センサの各々が出射する光が表示領域810を通過する(つまり、光が表示領域810と重なる)ように配置されていてもよいし、あるいは当該光が表示領域810に沿って進むように(つまり、表示領域810と重ならずに、表示領域810から表示領域810の法線方向に対して予め定められた距離(たとえば、1cm)以内の領域を光が進むように)配置されていてもよい。以下では、測距センサの各々が出射する光が表示領域810を通過するように配置される場合を例に挙げて説明する。
 図3は、表示システム1のハードウェア構成の一部を示したブロック図である。図3を参照して、表示システム1は、センサアレイ30と、ディスプレイ50と、CPU(Central Processing Unit)60と、メモリ70と、ディスプレイ駆動装置80と、A/D(Analog/Digital)コンバータ90とを備える。
 センサアレイ30は、センシング結果であるアナログの電圧値をA/Dコンバータ90に出力する。A/Dコンバータ90は、アナログの電圧値をデジタルの電圧値に変換する。A/Dコンバータ90は、変換後のデジタルの電圧値を、CPU60に送る。
 メモリ70は、たとえば、ROM、RAM、およびフラッシュメモリで構成される。メモリ70は、表示システム1が実行するプログラム、複数のオブジェクトA~Iの各々の表示位置を示したデータ、および数値範囲データ71等の各種データを格納している。数値範囲データについては後述する(図23参照)。
 CPU60は、メモリ70に予め格納されているプログラムを実行する。また、CPU60は、A/Dコンバータ90から取得した電圧値および数値範囲データ71等を参照して、後述する処理を実行する。
 ディスプレイ駆動装置80は、CPU60からの指令を受け、ディスプレイ50を駆動する。
 図4は、センサアレイ30の構成を説明するための図である。図4(a)は、センサアレイ30の上面図である。図4(b)は、図4(a)におけるIVb-IVb線矢視断面図である。
 図4(a)を参照して、センサアレイ30は、複数の測距センサ31_1~31_nにより構成される。なお、nは、2以上の自然数である。複数の測距センサの各々は、同じ構成を有する。各測距センサ31_k(kは、1以上n以下の任意の数)は、1つの発光素子と複数の受光素子とを備える。たとえば、測距センサ31_1は、1個の発光素子E1と、25個の受光素子R(1,1)~R(13,1),R(1,2)~R(6,2),R(8,2)~R(13,2)とを備える。なお、受光素子の数は、25個に限定されるものではない。また、z方向の受光素子の数は、13個に限定されるものではない。
 発光素子Ekは、光を出射する。受光素子R(i,j)は、発光素子Ekにより出射された光のうち、物体(たとえば指910)により反射された光を受光可能に配置されている。なお、kは、1以上n以下の自然数である。iは、1以上13以下の自然数である。jは、1以上m以下の自然数である。mとnとの間には、m=2×nの関係が成立している。また、i=7の場合には、jは偶数の値をとらない。
 1つの測距センサ31_kに着目した場合、当該センサに含まれる複数の受光素子R(i,j)は、当該センサに含まれる発光素子Ekに隣接して配置されている。また、2つの測距センサに着目した場合、両センサに含まれる複数の受光素子が一方の測距センサに含まれる発光素子を囲むように配置されている。たとえば、発光素子E2は、測距センサ31_2の受光素子と測距センサ31_3の受光素子とに囲まれている。
 図4(a),(b)を参照して、センサアレイ30は、発光素子Ekが出射した光が、受光素子R(i,j)に入射しないように構成されている。
 複数の測距センサの少なくとも1つは、オブジェクトA~Cに対して、y方向の正の向き(予め定められた向き)に光を出射する。また、センサアレイ30の測距センサの少なくとも1つは、オブジェクトD~Fに対して、y方向の正の向きに光を出射する。また、センサアレイ30の測距センサの少なくとも1つは、オブジェクトG~Iに対して、y方向の正の向きに光を出射する。
 以下では、説明の便宜上、発光素子E2が、オブジェクトA~Cに対して、y方向の正の向きに光を出射するものする。また、発光素子E4が、オブジェクトD~Fに対して、y方向の正の向きに光を出射するものする。また、以下では、説明の便宜上、オブジェクトA~Iを、物体である指910の代わりに、物体である直方体の反射部材950(図5参照)にて触る(つまり、選択する)場合を例に挙げて説明する。なお、空中画像は物理的な物体ではないため、2次元画像に触っても当該2次元画像との物理的な接触はない。
 <物体と受光面とが平行となる場合>
 図5は、発光素子E2と発光素子E2の周囲の受光素子との上方(y方向の正の向き)に、反射部材950の底面950a(反射面)がセンサアレイ30の受光面と平行になるように反射部材950を配置した状態を示した図である。図5(a)は、反射部材950を当該状態で配置した場合における図4(a)のIVb-IVb線矢視断面図である。図5(b)は、反射部材950を当該状態で配置した場合におけるセンサアレイ30の上面図である。
 図5(a)を参照して、発光素子E2から出射した光は、反射部材950の底面950aで反射される。図5(b)を参照して、反射光は、センサアレイ30の受光面において、円形の受光領域601を形成する。それゆえ、反射部材950による反射光は、7個の受光素子R(6,3),R(7,3),R(8,3),R(6,4),R(8,4),R(6,5),R(7,5),R(8,5)により受光される。
 なお、受光領域601の半径はr0である。また、反射部材950の底面950aと受光面との距離をd1とすると、tanθ=r0/d1の関係が成立する。
 図6は、反射部材950の底面950aと受光面との間の距離と、受光領域との関係を説明するための図である。図6を参照して、反射部材950と受光面との間の距離が長くなれば、受光領域の面積も大きくなる。物体と受光面との距離がd2のときに形成される受光領域605よりも、距離がd3(d3>d2)のときに形成される受光領域606の方が面積は広くなる。なお、d2とL1とθとの間には、tanθ=L1/2d2の関係が成立する。また、d3とL2とθとの間には、tanθ=L2/2d2の関係が成立する。ただし、L1は、受光領域605の直径であり、L2は、受光領域606の直径である。たとえば、d3=2×d2の場合、L2=2×L1となる。
 このように、受光面と反射部材950との距離が長くなるにしたがって、受光面に形成される受光領域の大きさ(面積)は大きくなる。つまり、受光面と反射部材950との距離が長くなるにしたがって、反射光を受光する受光素子の数が多くなる。表示システム1は、この原理を用いて、ユーザにより選択されたオブジェクトが、複数のオブジェクトのうちどのオブジェクトであるかを判定する。以下、当該判定について具体的に説明する。
 図23は、メモリ70に予め格納されている数値範囲データ71の構成を示した図である。図23を参照して、数値範囲データ71では、各オブジェクトA~Iと、数値(面積)範囲とが対応付けられている。より詳しくは、数値範囲データ71は、複数のオブジェクトの各々に対して、互いに異なる数値範囲を対応付けている。好ましくは、数値範囲データ71は、複数のオブジェクトの各々に対して、互いに重複しない数値範囲を対応付けている。つまり、数値範囲データ71では、ユーザが反射部材950や指910により表示領域810においてオブジェクトを選択した場合、CPU60が選択されたオブジェクトを特定するように、各オブジェクトA~Iと数値範囲との対応付けが予めなされている。ただし、Th1>Th2>Th3>Th4>Th5>Th6である。なお、図23に示した数値範囲データ71の形式は一例であって、図23に示した形式に限定されるものではない。
 CPU60は、反射光が少なくとも測距センサ31_2および測距センサ31_3の受光素子R(i,j)によって受光されると、反射光を受光した受光素子の数を算出する。「反射光を受光した受光素子の数」とは、予め定められた値以上の強度の光を受光した受光素子の数をいう。たとえば、図5の場合には、CPU60は、7個の受光素子R(6,3),R(7,3),R(8,3),R(6,4),R(8,4),R(6,5),R(7,5),R(8,5)が予め定められた値以上の強度の光(反射光)を受光したとして、反射光を受光した受光素子の数を7個とする。
 CPU60は、反射光を受光した受光素子の位置(詳しくは、センサアレイ30における受光素子のx方向の位置)に基づいて、少なくともオブジェクトA~Cのいずれか1つがユーザにより選択されたと判断する。また、CPU60は、算出された受光素子の数と数値範囲データ71とに基づいて、算出された受光素子の数を含む数値範囲に対応付けされたオブジェクトを、複数のオブジェクトA~Cから1つ特定する。CPU60は、たとえば、Th3≧7>Th4、またはTh3>7≧Th4の関係を満たす場合、オブジェクトBを特定する。なお、この場合、反射部材950は、表示領域810においてオブジェクトBと交わっている。
 さらに、CPU60は、特定されたオブジェクトに対応した処理を実行する。CPU60は、たとえば、アプリケーションプログラムを起動したり、ファイルを開いたりする。
 一方、CPU60は、反射光が少なくとも測距センサ31_4および測距センサ31_5の受光素子R(i,j)によって受光されると、同様に、反射光を受光した受光素子の数を算出する。また、CPU60は、算出された受光素子の数と数値範囲データ71とに基づいて、算出された受光素子の数を含む数値範囲に対応付けされたオブジェクトを、複数のオブジェクトD~Fから1つ特定する。さらに、CPU60は、特定されたオブジェクトに対応した処理を実行する。
 以上のように、表示システム1は、たとえばオブジェクトA~Cに着目した場合、次のような構成であるといえる。表示システム1のCPU60は、表示領域810に複数のオブジェクトC,B,Aを予め定められた向き(y方向の正の向き)に並べて表示させる。発光素子E2は、複数のオブジェクトA~Cに対して、当該予め定められた向きに光を出射する。CPU60は、反射光を受光した受光素子の数を算出する。また、CPU60は、算出された受光素子の数と数値範囲データ71とに基づいて、算出された受光素子の数を含む数値範囲に対応付けされたオブジェクトを、複数のオブジェクトA~Cから1つ特定する。さらに、CPU60は、特定されたオブジェクトに対応した処理を実行する。
 したがって、表示システム1では、空中に表示させた2次元画像の周囲を枠で囲むことなく、簡易な構成で2次元画像におけるオブジェクトの選択を検出可能となる。
 以下では、図5の状態では、オブジェクトBがユーザにより選択されている状態であるとし、CPU60が複数のオブジェクトからオブジェクトBを特定するものとして説明する。
 次に、表示システム1における反射部材950の検出の精度を高める手法について説明する。
 図7は、反射部材950が発光素子E2により出射された一部の光しか反射できない位置にある状態における受光領域を示した図である。図7(a)は、反射部材950を当該状態で配置した場合における図4(a)のIVb-IVb線矢視断面図である。図7(b)は、反射部材950を当該状態で配置した場合におけるセンサアレイ30の上面図である。
 図7(a),(b)を参照して、反射部材950が、発光素子E2により出射された一部の光しか反射できない位置にある場合、当該出射された光は物体の端面950bによっても反射される。このため、受光面では、2つの受光領域611,612が形成される。
 CPU60は、反射光が少なくとも測距センサ31_2および測距センサ31_3の受光素子R(i,j)によって受光されると、当該反射光により形成される受光領域が、1つであるか否かを判断する。CPU60は、受光領域が1つであると判断すると、オブジェクトの特定を行ない、当該特定されたオブジェクトに対応した処理を実行する。その一方、CPU60は、受光領域が1つでないと判断すると、オブジェクトの特定を行なわない。つまり、オブジェクトに対応した処理は行われない。
 たとえば、図5(b)のように1つの受光領域601が受光面に形成されている場合には、CPU60は、オブジェクトの特定および特定されたオブジェクトに対する処理を実行するが、図7(b)のように受光領域611,612が受光面に形成されている場合には、オブジェクトの特定を行なわない。
 以上のように、表示システム1は、反射部材950が発光素子Ekから出射された赤外線を中途半端に遮る位置にある場合には、オブジェクトの特定を行なわない。このため、ユーザが、反射部材950あるいは指910をz方向の負の向きに或る程度押し込まない限り、オブジェクトに対応した処理が実行されることはない。それゆえ、表示システム1は、反射部材950の検出精度を高めることができる。
 なお、受光領域が2つ以上であると判断した場合、オブジェクトの特定を取り敢えず行なった後に、特定されたオブジェクトの実行を行なわないように、表示システム1を構成してもよい。
 次に、図8から図10に基づいて、ユーザ操作が確定したか否かを判定する手法について説明する。
 図8は、ユーザ操作が確定したと判定される第1の例を示した図である。図8(a),(b)は、反射部材950の位置が、それぞれ図7(a),(b)と同じ位置にある状態を示した図である。図8(c)は、図8(a)の状態から反射部材950を矢印751の方向(z方向の負の向き)に一定距離移動させた状態のセンサアレイ30の断面図である。より詳しくは、図8(c)は、反射部材950を当該一定距離進めた状態における図4(a)のIVb-IVb線矢視断面図である。図8(d)は、当該状態におけるセンサアレイ30の上面図である。なお、図8(c),(d)は、それぞれ図5(a),(b)と同じ状態を示した図である。
 図8を参照して、CPU60は、受光面に形成される受光領域が、2つから1つになったと判断すると、ユーザ操作が確定したとして、オブジェクトの特定を行なう。このように、CPU60は、受光領域の状態変化を判断することによりユーザ操作が確定したことを判断するため、物体(反射部材950や指910)の微動などに基づく誤動作を防止できる。
 図9は、ユーザ操作が確定したと判定される第2の例を示した図である。また、図9は、ユーザがオブジェクトのドラッグ&ドロップ操作を行なう場合の操作例を示した図でもある。
 図9(a),(b)は、オブジェクトE(図1参照)がユーザにより選択された状態を示した図である。図9(a)は、オブジェクトEが選択された状態における図4(a)のIXa-IXa線矢視断面図である。図9(b)は、当該状態におけるセンサアレイ30の上面図である。図9(c)は、オブジェクトBを選択するために、図9(a)の状態から反射部材950をx方向の負の向きに移動させた状態のセンサアレイ30の断面図である。より詳しくは、図9(c)は、当該状態における図4(a)のIVb-IVb線矢視断面図である。図9(d)は、当該状態におけるセンサアレイ30の上面図である。なお、図9(c),(d)は、それぞれ図5(a),(b)と同じ状態を示した図である。
 図9を参照して、CPU60は、受光面に形成される受光領域が、1つの受光領域616から1つの受光領域601に遷移したと判断した場合、オブジェクトEをドラッグして、オブジェクトBに対してドロップする指令が入力されたと判断する。より詳しくは、CPU60は、受光領域601の状態が予め定められた時間持続した場合に、オブジェクトEのオブジェクトBへのドラッグ&ドロップが行なわれたと判断する。
 このように、CPU60は、受光領域の状態変化を判断することによりユーザ操作が確定したことを判断するため、物体(反射部材950や指910)の微動などに基づく誤動作を防止できる。
 図10は、ユーザ操作が確定していないと判定される例を示した図である。図10(a),(b)は、反射部材950の位置が、それぞれ図8(a),(b)と同じ位置にある状態を示した図である。図10(c)は、図10(a)の状態から反射部材950を矢印752の方向(z方向の正の向き)に一定距離移動させた状態のセンサアレイ30の断面図である。より詳しくは、図10(c)は、反射部材950を当該一定距離進めた状態における図4(a)のIVb-IVb線矢視断面図である。図10(d)は、当該状態におけるセンサアレイ30の上面図である。
 図10を参照して、CPU60は、受光面に形成される受光領域が、2つから無しになったと判断すると、ユーザ操作が確定していないと判断する。つまり、CPU60は、ユーザによりオブジェクトBの選択がなされていないと判断する。
 <物体と受光面とが平行とならない場合>
 上記においては、反射部材950の底面950aが、xz平面に平行となる場合を例に挙げて説明した。しかしながら、表示システム1の使用時には、反射部材950や指910が、xz平面に平行とならない場合もある。以下では、このような場合における表示システム1の処理について説明する。
 以下では、反射部材950の底面950aがx軸と平行な状態を維持しつつ、底面950aがxz平面に対して傾いた状態であるとして説明する。より詳しくは、発光素子Ekが出射した光の物体による反射光が、13個の受光素子R(1,2k)~R(13,2k)の少なくとも1つ以上により受光されるか、あるいはセンサアレイ30に含まれる全ての受光素子R(i,j)のいずれにも受光されないものとして説明する。
 図11は、反射部材950が角度φa傾いた場合に形成される受光領域を説明するための図である。図11を参照して、反射部材950と受光面との距離がd4の場合、長軸の長さがL3となる楕円の受光領域が受光面に形成される。反射部材950と受光面との距離がd5(d5>d4)の場合の場合、長軸の長さがL4(L4>L3)となる楕円の受光領域が受光面に形成される。たとえば、d5=2×d4の場合、L4=2×L3となる。
 このように、反射部材950と受光面との距離が大きくなるほど、受光領域の面積も大きくなる。つまり、反射光を受光する受光素子R(i,j)の数も多くなる。
 したがって、反射部材950が傾いた場合であっても、CPU60は、反射光を受光した受光素子の数に基づいて、複数のオブジェクトの中から1つのオブジェクトを特定することができる。
 ところで、角度φaの値が大きくなるにつれ、L3,L4の値も大きくなる。このような場合には、表示システム1は、ユーザによるオブジェクトの選択の仕方が適切でないと判断することが好ましい。そこで、CPU60は、以下の処理を実行する。
 なお、メモリ70は、複数のオブジェクトの各々に対して、互いに異なる数値を対応付けたデータをさらに予め格納しているものとする。また、当該数値は、オブジェクトと受光面との間の距離に比例して広くなるように設定されている。以下では、たとえば、オブジェクトA,D,Gには数値N1が、オブジェクトB,E,Hには数値N2が、オブジェクトC,F,Iには数値N3が対応付けられているとする。
 数値N1,N2,N3は、図5に示したように、反射部材950が受光面と平行な状態となったときに、受光面に形成される円の直径に基づいた数である。たとえば、数値N1は、図5(b)における受光領域601の直径に相当する数である。より具体的には、受光素子R(6,4),R(8,4)と発光素子E2とに反射光が到達するため、3つの素子分の値“3”を数値N1とする。数値N2,N3についても同様にして設定される。
 CPU60は、反射光を受光した受光素子のうち受光領域(楕円)の長軸上(z方向の軸)に位置する受光素子の数と、特定されたオブジェクトに対応付けられた上記数値とを比較する。CPU60は、受光素子の数が上記数値の所定倍未満のときには、当該特定されたオブジェクトに対応した処理を実行する。その一方、CPU60は、受光素子の数が上記数値の所定倍以上のときには、特定されたオブジェクトに対応した処理を実行しない。なお、所定倍を示したデータについても予めメモリ70に格納されている。
 具体例を挙げて説明すると、以下のとおりである。ユーザがオブジェクトBを選択し、かつCPU60が複数のオブジェクトからオブジェクトBを特定した場合、反射光を受光した受光素子のうち受光領域の長軸上に位置する受光素子の数と、特定されたオブジェクトBに対応付けられた数値N2とを比較する。
 CPU60は、受光素子の数が数値N2の所定倍(たとえば、1.6倍)未満のときには、当該特定されたオブジェクトに対応した処理を実行する。その一方、CPU60は、受光素子の数が数値の所定倍以上のときには、特定されたオブジェクトに対応した処理を実行しない。
 このような構成を表示システム1が有することにより、反射部材950や指910の傾きが大きい場合には、ユーザによるオブジェクトの選択の仕方が適切でないと判断できる。このため、表示システム1は、ユーザにとって操作性に優れる。
 図12は、反射部材950が角度φb傾いた場合に形成される受光領域を説明するための図である。角度φbは、反射光を受光した受光素子の数が上記数値の所定倍以上となる角度である。
 なお、以下では、反射部材950の底面950aと受光面とが平行であって、底面950aと受光面との距離がd6である場合には、オブジェクトAがユーザにより選択されている状態であるとする。なお、当該状態では、CPU60が複数のオブジェクトからオブジェクトAを特定する。
 図12を参照して、反射部材950と受光面との距離がd1である場合、領域691内がオブジェクトBの選択を有効と判断する受光領域である。つまり、領域691内に受光領域が形成される限り、反射光を受光した受光素子の数が数値N2の所定倍未満となる。受光面に受光領域681が形成される場合には、CPU60は、オブジェクトBが正しく選択されていないとして、オブジェクトBの表示態様を、通常の表示態様から通常とは異なる表示態様に変更する。たとえば、CPU60は、オブジェクトBを点滅させて表示領域810に表示させる。
 反射部材950と受光面との距離がd6である場合、領域692内がオブジェクトAの選択を有効と判断する受光領域である。つまり、領域692内に受光領域が形成される限り、反射光を受光素子の数が数値N1の所定倍未満となる。受光面に受光領域682が形成される場合には、CPU60は、オブジェクトAが正しく選択されていないとして、オブジェクトAの表示態様を、通常の表示態様から通常とは異なる表示態様に変更する。
 表示システム1は、このようにオブジェクトの表示態様を変更することにより、ユーザに反射部材950や指910の位置を微調整するように促すことができる。
 次に、オブジェクトが正しく選択されている(有効)と判断する場合と正しく選択されていない(無効)と判断する場合とについて、具体例を挙げて説明する。なお、以下では、「所定倍」を1.6倍として説明する。
 図13は、CPU60によってオブジェクトBの選択が有効であると判断される例を示した図である。より詳しくは、図13は、反射部材950が角度φ1傾いた場合に形成される受光領域を説明するための図である。図13(a)は、反射部材950が角度φ1傾いた場合における図4のIVb-IVb線矢視断面図である。図13(b)は、反射部材950が角度φ1傾いた場合におけるセンサアレイ30の上面図である。
 図13(a),(b)を参照して、少なくとも3つの受光素子R(4,4),R(5,4),R(6,4)が、反射部材950による反射光を受光する。この場合には、CPU60は、反射光を受光した受光素子の数“3”が数値N2(N2=3)の1.6倍未満であると判断し、当該特定されたオブジェクトに対応した処理を実行する。
 図14は、CPU60によってオブジェクトBの選択が無効であると判断される例を示した図である。より詳しくは、図14は、反射部材950が角度φ2(φ2>φ1)傾いた場合に形成される受光領域を説明するための図である。図14(a)は、反射部材950が角度φ2傾いた場合における図4のIVb-IVb線矢視断面図である。図14(b)は、反射部材950が角度φ2傾いた場合におけるセンサアレイ30の上面図である。
 図14(a),(b)を参照して、少なくとも5つの受光素子R(1,4),R(2,4),R(3,4),R(4,4),R(5,4)が、反射部材950による反射光を受光する。この場合には、CPU60は、反射光を受光した受光素子の数“5”が数値N2(N2=3)の1.6倍以上であると判断し、当該特定されたオブジェクトに対応した処理を実行しない。
 図15は、CPU60によってオブジェクトBの選択が無効であると判断される例を示した図である。より詳しくは、図15は、反射部材950が角度φ3(90°>φ3>φ2)傾いた場合に形成される受光領域を説明するための図である。図15(a)は、反射部材950が角度φ3傾いた場合における図4のIVb-IVb線矢視断面図である。図15(b)は、反射部材950が角度φ3傾いた場合におけるセンサアレイ30の上面図である。
 図15(a),(b)を参照して、受光面には反射光は照射されない。したがって、この場合には、上述したように、CPU60は、オブジェクトの特定を行なわない。
 図16は、CPU60によってオブジェクトBの選択が有効であると判断される例を示した図である。より詳しくは、図16は、反射部材950が図13とは反対方向に角度φ1傾いた場合に形成される受光領域を説明するための図である。図16(a)は、反射部材950が角度φ1傾いた場合における図4のIVb-IVb線矢視断面図である。図16(b)は、反射部材950が角度φ1傾いた場合におけるセンサアレイ30の上面図である。
 図16(a),(b)を参照して、少なくとも3つの受光素子R(8,4),R(9,4),R(10,4)が、反射部材950による反射光を受光する。この場合には、CPU60は、反射光を受光した受光素子の数“3”が数値N2(N2=3)の1.6倍未満であると判断し、当該特定されたオブジェクトに対応した処理を実行する。
 図17は、CPU60によってオブジェクトBの選択が無効であると判断される例を示した図である。より詳しくは、図17は、反射部材950が図14とは反対方向に角度φ2傾いた場合に形成される受光領域を説明するための図である。図17(a)は、反射部材950が角度φ2傾いた場合における図4のIVb-IVb線矢視断面図である。図17(b)は、反射部材950が角度φ2傾いた場合におけるセンサアレイ30の上面図である。
 図17(a),(b)を参照して、少なくとも5つの受光素子R(9,4),R(10,4),R(11,4),R(12,4),R(13,4)が、反射部材950による反射光を受光する。この場合には、CPU60は、反射光を受光した受光素子の数“5”が数値N2(N2=3)の1.6倍以上であると判断し、当該特定されたオブジェクトに対応した処理を実行しない。
 図18は、CPU60によってオブジェクトBの選択が無効であると判断される例を示した図である。より詳しくは、図18は、反射部材950が図15とは反対方向に角度φ3傾いた場合に形成される受光領域を説明するための図である。図18(a)は、反射部材950が角度φ3傾いた場合における図4のIVb-IVb線矢視断面図である。図18(b)は、反射部材950が角度φ3傾いた場合におけるセンサアレイ30の上面図である。
 図18(a),(b)を参照して、受光面には反射光は照射されない。したがって、この場合には、上述したように、CPU60は、オブジェクトの特定を行なわない。
 <制御構造>
 図19は、表示システム1における処理の流れを示したフローチャートである。図19を参照して、ステップS2において、センサアレイ30の各発光素子E1~Enが赤外線を出射する。ステップS4において、センサアレイ30に含まれる複数の受光素子Rのうち、一部の受光素子が反射光を受光する。
 ステップS6において、CPU60は、センサアレイ30からの出力に基づき、受光領域が1つであるか否かを判断する。CPU60は、受光領域が1つであると判断した場合(ステップS6においてYES)、ステップS8において、反射光を受光した受光素子の数を算出する。CPU60は、受光領域が1つでないと判断した場合(ステップS6においてNO)、処理をステップS4に進める。
 ステップS10において、CPU60は、反射光を受光した受光素子の位置と、算出された受光素子の数と、数値範囲データ71とに基づき、複数のオブジェクトA~Iから1つのオブジェクトを特定する。
 ステップS12において、CPU60は、反射光を受光した受光素子のうち受光領域の長軸上に位置する受光素子の数が、特定されたオブジェクトに対応付けられた数値の所定倍(1.6倍)未満であるか否かを判断する。CPU60は、所定倍未満であると判断した場合(ステップS12においてYES)、ステップS14において、特定されたオブジェクトに対応した処理を実行する。CPU60は、所定倍以上であると判断した場合(ステップS12においてNO)、ステップS16において、特定されたオブジェクトの表示態様を通常の表示態様から、通常の表示態様と異なる表示態様に変更する。
 <出力電圧の利用>
 ところで、センサアレイ30は、複数の測距センサ31_1~31_nを含んでいる(図4参照)。以下では、測距センサ31_1~31_nとしてアナログの測距センサを用いることにより、より精度の高い検出を行なう表示システム1の構成について説明する。
 図20は、測距センサ31_1~31_nの特性を示した図である。図20を参照して、測距センサ31_1~31_nは、距離Dがd11より大きい場合には、物体(反射部材950,指910)との距離が長くなるほど出力電圧が低下する特性を有する。
 なお、測距センサ31が検出可能な距離範囲は、距離d11から出力電圧が一定値以下にならない距離d12までの距離となる。センサアレイ30は、表示領域810が検出可能な距離範囲に含まれるような測距センサ31_1~31_nにより構成されている。また、メモリ70には、図20の特性を示したデータが予め格納されている。
 CPU60は、測距センサの各々が出力した電圧値と、図20の特性を示したデータとて、物体の位置を検出する。CPU60は、検出された物体の位置と、メモリ70に格納されたオブジェクトの表示位置を示したデータとに基づいて、特定されたオブジェクトについての当該特定が正しいか否かを判断する。CPU60は、特定が正しいと判断すると、当該特定されたオブジェクトに対応した処理を実行する。
 以上のように、表示システム1は、測距センサ31_1~31_nが出力する電圧値を併用することにより、さらに精度の高い検出を行なうことができる。
 <センサアレイ30の変形例>
 ところで、上記においては、図4に示した構成のセンサアレイ30を検出素子として用いた。しかしながら、表示システム1に用いることが可能な検出素子は、センサアレイ30に限定されるものではない。
 図21は、表示システム1に用いることが可能な他のセンサアレイ30Aの上面図である。図21を参照して、センサアレイ30Aは、複数の測距センサ32_1~32_n′により構成される。なお、n′は、2以上の自然数である。複数の測距センサの各々は、同じ構成を有する。各測距センサは、1つの発光素子と複数の受光素子とを備える。たとえば、測距センサ32_1は、1個の発光素子E1と、38個の受光素子R(1,1)~R(13,1),R(1,2)~R(6,2),R(8,2)~R(13,2),R(1,3)~R(13,3)とを備える。
 発光素子Ekは、光を出射する。受光素子R(i,j)は、発光素子Ekにより出射された光のうち、物体(たとえば指910)により反射された光を受光可能に配置されている。iは、1以上13以下の自然数である。jは、1以上m′以下の自然数である。m′とn′との間には、m′=2×n′の関係が成立している。
 1つの測距センサ31_kに着目した場合、当該センサに含まれる複数の受光素子R(i,j)は、当該センサに含まれる発光素子Ekを囲むように互いに隣接して配置されている。また、センサアレイ30Aは、発光素子Ekが出射した光が、受光素子R(i,j)に入射しないように構成されている。表示システム1は、センサアレイ30の代わりにセンサアレイ30Aを用いても、センサアレイ30と同じような処理を行なうことができる。
 発光素子Ek同士の間隔は、表示される複数のオブジェクトのx方向の間隔に基づいて適宜設定すればよい。あるいは、表示システム1は、発光素子Ekの間隔に合せてオブジェクトを表示するように構成すればよい。
 また、表示システム1が、表示領域810において、y方向に一列だけオブジェクトを表示する場合には、発光素子を1つだけ有する検出素子をセンサアレイ30の代わりに用いることができる。
 図22は、発光素子を1つだけ有する検出素子(センサ)の一例を示した図である。より詳しくは、図22は、検出素子である測距センサ33の上面図である。図22を参照して、センサの受光面は、矩形状である。測距センサ33は、発光素子E1と、発光素子E1を囲むように配置された168個の受光素子(i,j)とを備える。測距センサ33を用いる場合には、反射部材950の底面950aがz軸と平行な状態を維持しつつ、底面950aがxz平面に対して傾いた状態であっても、オブジェクトを特定することができる。
 また、測距センサ33を組み合わせたセンサアレイを検出素子として用いることも可能である。
 <制御構造の変形例>
 (1)図19に示したステップS6とステップS8との処理の順序を逆にしてもよい。つまり、反射光を受光した受光素子の数を算出した後、照射領域が1つであるか否かを判断するように、表示システム1を構成してもよい。
 (2)図19に示したステップS12の処理を以下の処理に置き換えてもよい。すなわち、ステップS12において、CPU60が、受光領域が予め定められた領域に含まれるか否かを判断するように構成する。この場合、受光領域が予め定められた領域に含まれると判断するとステップS14に進み、受光領域が予め定められた領域に含まれないと判断するとステップS16に進むように、表示システム1を構成すればよい。
 上記予め定められた領域は、オブジェクト毎に設定すればよい。また、当該予め定められた領域は、オブジェクトとセンサアレイとの間の距離に比例して広くなるように設定すればよい。予め定められた領域は、たとえば、発光素子Ekを中心とする円形の領域とすればよい。
 <付記>
 表示システム1は、たとえばオブジェクトA~Cに着目した場合、発光素子は、複数のオブジェクトA~Cに対して、あるいは複数のオブジェクトA~Cから表示領域810の法線方向に対して予め定められた距離以内の領域を複数のオブジェクトA~Cに沿って光が進むように、上記予め定められた向きに光を出射する構成であればよい。
 今回開示された実施の形態は例示であって、上記内容のみに制限されるものではない。本発明の範囲は請求の範囲によって示され、請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
 1 表示システム、10 筐体、20 開口部、30,30A センサアレイ、E1,E2,E4,Ek,En 発光素子、31,32,33 測距センサ、40 光学素子、50 ディスプレイ、60 CPU、70 メモリ、601,605,606,611,612,616,681,682 受光領域、810 表示領域、910 指、950 反射部材、950a 底面、950b 端面。

Claims (10)

  1.  ディスプレイ(50)と、
     前記ディスプレイに表示された画像に基づいて、空中の表示領域(810)に2次元画像を表示する光学素子(40)と、
     発光素子と、複数の受光素子とを含んだセンサ(30)と、
     前記センサに電気的に接続され、前記表示領域に複数のオブジェクトを予め定められた向きに並べて表示させるプロセッサ(60)と、
     前記プロセッサに電気的に接続されたメモリ(70)とを備え、
     前記発光素子は、前記複数のオブジェクトに対して、前記予め定められた向きに光を出射し、
     前記複数の受光素子は、前記出射された光のうち物体により反射された光を受光可能に配置され、
     前記メモリは、前記複数のオブジェクトの各々に対して、互いに異なる数値範囲を対応付けた第1のデータを予め格納しており、
     前記プロセッサは、
     前記反射された光が前記センサによって受光されると、前記反射された光を受光した受光素子の数を算出し、
     前記算出された受光素子の数と前記第1のデータとに基づいて、前記算出された受光素子の数を含む前記数値範囲に対応付けされた前記オブジェクトを、前記複数のオブジェクトから1つ特定し、
     前記特定されたオブジェクトに対応した処理を実行する、表示システム(1)。
  2.  前記複数の受光素子は、前記発光素子に隣接して配置され、
     前記プロセッサは、
     前記反射された光が前記センサによって受光されたことに基づき、当該反射された光により形成される前記センサにおける受光領域が、1つであるか否かを判断し、
     前記受光領域が1つであると判断すると、前記オブジェクトの特定を行ない、
     前記受光領域が1つでないと判断すると、前記オブジェクトの特定を行なわない、請求項1に記載の表示システム。
  3.  前記複数の受光素子は、前記発光素子を囲むように配置されている、請求項2に記載の表示システム。
  4.  前記複数の受光素子は、マトリクス状に配置されており、
     前記受光領域は、円形または楕円形であり、
     前記メモリは、前記複数のオブジェクトの各々に対して、互いに異なる数値を対応付けた第2データをさらに格納しており、
     前記数値は、前記オブジェクトと前記センサとの間の距離に比例して広くなるように設定されており、
     前記プロセッサは、
     前記受光領域が楕円形である場合、前記反射した光を受光した受光素子のうち、当該楕円の長軸上に位置する受光素子の数と、前記特定されたオブジェクトに対応付けられた前記数値とを比較し、
     前記受光素子の数が前記数値の所定倍未満のときには、前記特定されたオブジェクトに対応した処理を実行し、
     前記受光素子の数が前記数値の所定倍以上のときには、前記特定されたオブジェクトに対応した処理を実行しない、請求項2または3に記載の表示システム。
  5.  前記プロセッサは、前記長軸上に位置する受光素子の数が前記数値の所定倍以上であると判断すると、前記特定したオブジェクトの表示態様を第1の表示態様から第2の表示態様に変更させる、請求項4に記載の表示システム。
  6.  前記プロセッサは、
     前記受光領域が1つであると判断すると、前記受光領域が予め定められた領域に含まれるか否かを判断し、
     前記受光領域が前記予め定められた領域に含まれると判断すると、前記特定されたオブジェクトに対応した処理を実行し、
     前記受光領域が前記予め定められた領域に含まれないと判断すると、前記特定されたオブジェクトに対応した処理を実行しない、請求項2または3に記載の表示システム。
  7.  前記予め定められた領域は、前記オブジェクト毎に設定されており、
     前記予め定められた領域は、前記オブジェクトと前記センサとの間の距離に比例して広くなるように設定されている、請求項6に記載の表示システム。
  8.  前記プロセッサは、前記受光領域が前記予め定められた領域に含まれないと判断すると前記特定したオブジェクトの表示態様を第1の表示態様から第2の表示態様に変更させる、請求項7に記載の表示システム。
  9.  前記センサは、測距センサであり、
     前記メモリは、前記センサにおける出力電圧と距離との対応関係を示した第3のデータと、前記複数のオブジェクトの各々の表示位置を示した第4のデータとをさらに格納しており、
     前記プロセッサは、
     前記測距センサが出力した電圧値と前記第3のデータとに基づいて、前記物体の位置を検出し、
     前記検出された前記物体の位置および前記第4のデータに基づいて、前記特定されたオブジェクトについての当該特定が正しいか否かを判断し、
     前記特定が正しいと判断すると、前記特定されたオブジェクトに対応した処理を実行する、請求項1から8のいずれか1項に記載の表示システム。
  10.  空中の表示領域(810)に表示した2次元画像に含まれるオブジェクトの選択を検出する表示システム(1)における検出方法であって、
     前記表示システムは、ディスプレイ(50)と、前記ディスプレイに表示された画像に基づいて、前記2次元画像を表示する光学素子(40)と、発光素子と、複数の受光素子とを含んだセンサ(30)と、前記センサに電気的に接続され、前記ディスプレイに複数のオブジェクトを予め定められた向きに並べて表示させるプロセッサ(60)と、前記プロセッサに電気的に接続されたメモリ(70)とを備え、前記メモリは、前記複数のオブジェクトの各々に対して、互いに異なる数値範囲を対応付けたデータを予め格納しており、
     前記検出方法は、
     前記発光素子が、前記複数のオブジェクトに対して前記予め定められた向きに光を出射するステップ(S2)と、
     前記複数の受光素子の少なくとも1つが、前記出射された光のうち物体により反射された光を受光するステップ(S4)と、
     前記プロセッサが、前記反射された光が前記センサによって受光されると、前記反射された光を受光した受光素子の数を算出するステップ(S8)と、
     前記プロセッサが、前記算出された受光素子の数を含む前記数値範囲に対応付けされた前記オブジェクトを、前記複数のオブジェクトから1つ特定するステップ(S10)と、
     前記プロセッサが、前記特定されたオブジェクトに対応した処理を実行するステップ(S14)とを備える、検出方法。
PCT/JP2011/065965 2010-09-06 2011-07-13 表示システム、および検出方法 WO2012032851A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP11823330.3A EP2615526A4 (en) 2010-09-06 2011-07-13 DISPLAY SYSTEM AND DETECTION METHOD
JP2012532893A JPWO2012032851A1 (ja) 2010-09-06 2011-07-13 表示システム、および検出方法
US13/820,584 US20130155030A1 (en) 2010-09-06 2011-07-13 Display system and detection method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-199063 2010-09-06
JP2010199063 2010-09-06

Publications (1)

Publication Number Publication Date
WO2012032851A1 true WO2012032851A1 (ja) 2012-03-15

Family

ID=45810455

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/065965 WO2012032851A1 (ja) 2010-09-06 2011-07-13 表示システム、および検出方法

Country Status (4)

Country Link
US (1) US20130155030A1 (ja)
EP (1) EP2615526A4 (ja)
JP (1) JPWO2012032851A1 (ja)
WO (1) WO2012032851A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015125765A (ja) * 2013-12-27 2015-07-06 船井電機株式会社 画像表示装置
JP2016006559A (ja) * 2014-06-20 2016-01-14 船井電機株式会社 入力装置
JP2016009396A (ja) * 2014-06-25 2016-01-18 船井電機株式会社 入力装置
JP2016021227A (ja) * 2014-06-20 2016-02-04 船井電機株式会社 検出装置及び入力装置
JP2020024545A (ja) * 2018-08-07 2020-02-13 コイト電工株式会社 非接触入力装置
JP2021026313A (ja) * 2019-07-31 2021-02-22 コイト電工株式会社 非接触入力装置
WO2022045294A1 (ja) * 2020-08-28 2022-03-03 大日本印刷株式会社 空中結像装置、空中入力装置、空中結像装置付き表示装置、移動体及びホログラム結像レンズ
WO2022080117A1 (ja) * 2020-10-12 2022-04-21 マクセル株式会社 空間浮遊映像表示装置および光源装置

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015060296A (ja) * 2013-09-17 2015-03-30 船井電機株式会社 空間座標特定装置
US9841844B2 (en) * 2014-06-20 2017-12-12 Funai Electric Co., Ltd. Image display device
US10365769B2 (en) * 2015-02-16 2019-07-30 Asukanet Company, Ltd. Apparatus and method for contactless input

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0955152A (ja) 1995-08-11 1997-02-25 Tietech Co Ltd タッチレスパネルスイッチにおける物体検出手段
JPH10302589A (ja) 1997-04-28 1998-11-13 Inax Corp 非接触スイッチ
JP2005141102A (ja) 2003-11-07 2005-06-02 Pioneer Electronic Corp 立体的二次元画像表示装置及び方法
JP2005301668A (ja) * 2004-04-12 2005-10-27 Seiko Epson Corp 情報処理装置および情報処理プログラム
WO2007116639A1 (ja) 2006-03-23 2007-10-18 National Institute Of Information And Communications Technology 結像素子、ディスプレイ装置
JP2008500624A (ja) * 2004-05-24 2008-01-10 3ディー フォー オール シャミタステクニカイ フェリャズト ケーエフティー 仮想3次元空間内で動作するシステム及び方法と視覚化システムを介してオペレーションを選択するシステム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7006080B2 (en) * 2002-02-19 2006-02-28 Palm, Inc. Display system
US7298367B2 (en) * 2003-11-25 2007-11-20 3M Innovative Properties Company Light emitting stylus and user input device using same
KR20140129173A (ko) * 2005-09-08 2014-11-06 파워2비, 인크. 디스플레이들 및 정보입력장치들

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0955152A (ja) 1995-08-11 1997-02-25 Tietech Co Ltd タッチレスパネルスイッチにおける物体検出手段
JPH10302589A (ja) 1997-04-28 1998-11-13 Inax Corp 非接触スイッチ
JP2005141102A (ja) 2003-11-07 2005-06-02 Pioneer Electronic Corp 立体的二次元画像表示装置及び方法
JP2005301668A (ja) * 2004-04-12 2005-10-27 Seiko Epson Corp 情報処理装置および情報処理プログラム
JP2008500624A (ja) * 2004-05-24 2008-01-10 3ディー フォー オール シャミタステクニカイ フェリャズト ケーエフティー 仮想3次元空間内で動作するシステム及び方法と視覚化システムを介してオペレーションを選択するシステム
WO2007116639A1 (ja) 2006-03-23 2007-10-18 National Institute Of Information And Communications Technology 結像素子、ディスプレイ装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2615526A4

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015125765A (ja) * 2013-12-27 2015-07-06 船井電機株式会社 画像表示装置
JP2016006559A (ja) * 2014-06-20 2016-01-14 船井電機株式会社 入力装置
JP2016021227A (ja) * 2014-06-20 2016-02-04 船井電機株式会社 検出装置及び入力装置
JP2016009396A (ja) * 2014-06-25 2016-01-18 船井電機株式会社 入力装置
JP2020024545A (ja) * 2018-08-07 2020-02-13 コイト電工株式会社 非接触入力装置
JP2021026313A (ja) * 2019-07-31 2021-02-22 コイト電工株式会社 非接触入力装置
JP7097335B2 (ja) 2019-07-31 2022-07-07 コイト電工株式会社 非接触入力装置
WO2022045294A1 (ja) * 2020-08-28 2022-03-03 大日本印刷株式会社 空中結像装置、空中入力装置、空中結像装置付き表示装置、移動体及びホログラム結像レンズ
JP2022039582A (ja) * 2020-08-28 2022-03-10 大日本印刷株式会社 空中結像装置、空中入力装置、空中結像装置付き表示装置、移動体及びホログラム結像レンズ
JP7216925B2 (ja) 2020-08-28 2023-02-02 大日本印刷株式会社 空中結像装置、空中入力装置、空中結像装置付き表示装置、移動体及びホログラム結像レンズ
WO2022080117A1 (ja) * 2020-10-12 2022-04-21 マクセル株式会社 空間浮遊映像表示装置および光源装置

Also Published As

Publication number Publication date
US20130155030A1 (en) 2013-06-20
JPWO2012032851A1 (ja) 2014-01-20
EP2615526A4 (en) 2015-03-04
EP2615526A1 (en) 2013-07-17

Similar Documents

Publication Publication Date Title
WO2012032851A1 (ja) 表示システム、および検出方法
EP2144448B1 (en) Floating Image Interaction Device
KR20190085150A (ko) 평행 패턴들을 투사하는 거리 센서
KR20170072319A (ko) 거리 센서
JP5308359B2 (ja) 光学式タッチ制御システム及びその方法
US20120133624A1 (en) Display panel
JP6721875B2 (ja) 非接触入力装置
JP2010257089A (ja) 光学式位置検出装置
KR20100019458A (ko) 다수의 터치를 검출하기 위한 터치스크린
JP5646110B2 (ja) 立体像形成システム及びその方法
JP2018031925A (ja) 空中表示装置
JP2015060296A (ja) 空間座標特定装置
TW201214245A (en) Touch system using optical components to image multiple fields of view on an image sensor
CN102073418A (zh) 坐标定位方法和设备
WO2012032842A1 (ja) 表示システム、および検出方法
CN102985786A (zh) 投光器和用于距离测定的视觉系统
TW201128489A (en) Object-detecting system and method by use of non-coincident fields of light
TW201324259A (zh) 使用者介面顯示裝置
JP2018088027A (ja) センサシステム
US20160092032A1 (en) Optical touch screen system and computing method thereof
US20240019715A1 (en) Air floating video display apparatus
Yasui et al. Occlusion-robust sensing method by using the light-field of a 3D display system toward interaction with a 3D image
US20120235955A1 (en) Optical navigation module
US20150115130A1 (en) Optical touch system, method of touch detection, and computer program product
US11829572B2 (en) Three dimensional input for a cylindrical display device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11823330

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2012532893

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 13820584

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2011823330

Country of ref document: EP