WO2012124730A1 - 検出装置、入力装置、プロジェクタ、及び電子機器 - Google Patents

検出装置、入力装置、プロジェクタ、及び電子機器 Download PDF

Info

Publication number
WO2012124730A1
WO2012124730A1 PCT/JP2012/056548 JP2012056548W WO2012124730A1 WO 2012124730 A1 WO2012124730 A1 WO 2012124730A1 JP 2012056548 W JP2012056548 W JP 2012056548W WO 2012124730 A1 WO2012124730 A1 WO 2012124730A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
infrared light
unit
tip
detection
Prior art date
Application number
PCT/JP2012/056548
Other languages
English (en)
French (fr)
Inventor
英範 栗林
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Priority to US13/984,578 priority Critical patent/US20130314380A1/en
Priority to CN2012800044850A priority patent/CN103299259A/zh
Priority to EP12758170.0A priority patent/EP2687959A4/en
Publication of WO2012124730A1 publication Critical patent/WO2012124730A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • G06F3/0426Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface

Definitions

  • the present invention relates to a detection device, an input device, a projector, and an electronic apparatus.
  • This application claims priority based on Japanese Patent Application No. 2011-056819 filed on March 15, 2011 and Japanese Patent Application No. 2012-046970 filed on March 2, 2012, and its contents Is hereby incorporated by reference.
  • a detection device for detecting an instruction operation by a user and an input device using the detection device are known (see, for example, Patent Document 1).
  • a user directly indicates a projection image, detects an instruction by detecting a movement of a user's finger or a stylus held by the user, and the like. It is possible to input characters. At this time, for example, detection is performed using reflection of infrared light. In addition, the pressing operation by the user's finger is detected by, for example, analyzing a difference in infrared images before and after the finger is pressed.
  • Patent Document 1 since the movement of the user's finger or the stylus held by the user is simply detected, for example, when an instruction is given from the side of the apparatus, the instruction may be erroneously detected. .
  • An object of an aspect of the present invention is to provide a detection device, an input device, a projector, and an electronic device that can reduce erroneous detection of an instruction by a user.
  • One embodiment of the present invention is based on an imaging unit that images a wavelength region of infrared light, a first infrared light that detects a tip portion of an instruction unit on a detection target surface, and the first infrared light.
  • An irradiation unit that irradiates a second infrared light that irradiates a region away from the detection target surface, and the imaging unit that irradiates the first infrared light and the second infrared light.
  • the direction of the pointing unit is detected based on the image picked up by the image, and the image area of the tip portion extracted based on the image picked up by irradiating the first infrared light is detected.
  • a detection unit that detects the position of the tip on the detection target surface based on the direction of the instruction unit.
  • one embodiment of the present invention is an input device comprising the above-described detection device.
  • an embodiment of the present invention is a projector including the input device and a projection unit that projects an image on the detection target surface.
  • one embodiment of the present invention is an electronic apparatus comprising the input device.
  • FIG. 3 is a first diagram illustrating an example of the shape of a user's hand and an example of a difference image used for explaining the operation of the detection apparatus of FIG. 2.
  • FIG. 3 is a first diagram illustrating an example of the shape of a user's hand and an example of a difference image used for explaining the operation of the detection apparatus of FIG. 2. It is a 2nd figure which shows an example of the shape of a user's hand used for demonstrating operation
  • FIG. 6 is a third diagram illustrating an example of a user's hand shape and an example of a difference image used for explaining the operation of the detection apparatus of FIG. 2.
  • FIG. 6 is a third diagram illustrating an example of a user's hand shape and an example of a difference image used for explaining the operation of the detection apparatus of FIG. 2. It is a timing chart for demonstrating the operation
  • FIG. 16 is a first diagram illustrating an example of the operation of the detection device in FIG. 15. It is a 2nd figure which shows an example of operation
  • FIG. 16 is a first diagram illustrating another example of the operation of the detection device of FIG. 15. It is a 2nd figure which shows another example of operation
  • FIG. 16 is a schematic diagram illustrating an example in which the detection device of FIG. 15 is applied to a tablet terminal. It is a block diagram which shows an example of a structure of the tablet terminal of FIG. It is a figure which shows an example of the infrared light irradiation part and imaging part in the tablet terminal of FIG. It is a figure which shows an example of the infrared light irradiation part and imaging part in the tablet terminal of FIG.
  • FIG. 1 is a perspective view for explaining a detection apparatus as one embodiment of the present invention.
  • FIG. 2 is a block diagram for explaining a detection apparatus as one embodiment of the present invention. In each figure, the same reference numerals are used for the same (or corresponding) components.
  • a projector 30 shown in FIG. 1 includes a detection device 10 (see FIG. 2) characterized by the present invention inside, a projection unit 31 (irradiation port) at a position facing the outside, and a detection target surface 2. Projection image 3 is projected onto the screen. Further, the projector 30 includes a first infrared light irradiation unit 12, a second infrared light irradiation unit 13, and an imaging unit 15 at a position facing the outside.
  • the detection target surface 2 is assumed to be a table top in this embodiment.
  • the detection target surface 2 may be a wall surface, a ceiling surface, a floor surface, a projection screen, a plane body such as a blackboard or a white board, a curved surface body such as a spherical shape, or a moving body such as a belt conveyor.
  • the detection target surface 2 is not limited to the surface on which the projection image 3 is projected, and may be a flat panel such as a liquid crystal display.
  • the projector 30 includes an input device 20, a projection unit 31, a projection image generation unit 32, and an image signal input unit 33.
  • the input device 20 includes a detection device 10 and a system control unit 21.
  • the projection unit 31 includes a light source, a liquid crystal panel, a lens, a control circuit for the light source, the lens, and the liquid crystal panel.
  • the projection unit 31 enlarges the image input from the projection image generation unit 32 and projects it on the detection target surface 2 to generate the projection image 3.
  • the projection image generation unit 32 outputs the image to the projection unit 31 based on the image input from the image signal input unit 33 and the control information (or image information) input from the system control unit 21 in the input device 20. Generate an image.
  • the image input from the image signal input unit 33 is a still image or a moving image.
  • the control information (or image information) input from the system control unit 21 is information for instructing to change the projection image 3 based on the content of the instruction operation by the user.
  • the content of the instruction operation by the user is detected by the detection device 10.
  • the system control unit 21 generates control information to be output to the projection image generation unit 32 based on the content of the instruction operation by the user detected by the detection device 10. Further, the system control unit 21 controls the operations of the object extraction unit 17 and the indication point extraction unit 18 in the detection apparatus 10. Further, the system control unit 21 receives the extraction result from the object extraction unit 17 and the indication point extraction unit 18.
  • the system control unit 21 includes a CPU (central processing unit), a main storage device, an auxiliary storage device, other peripheral devices, and the like, and can be configured as a device that realizes various functions by executing predetermined programs. Further, the system control unit 21 may be configured to include a part of the configuration in the detection device 10 (that is, the system control unit 21 and the detection device 10 are integrated).
  • the detection apparatus 10 includes an infrared light irradiation unit 11, an infrared light control unit 14, an imaging unit 15, a frame image acquisition unit 16, an object extraction unit 17, and an indication point extraction unit 18.
  • the object extraction unit 17 and the indication point extraction unit 18 correspond to the detection unit 19.
  • the infrared light irradiation unit 11 includes a first infrared light irradiation unit 12 and a second infrared light irradiation unit 13.
  • the infrared light control unit 14 controls the turning on and off times of the infrared rays of the first infrared light irradiating unit 12 and the second infrared light irradiating unit 13, and controls the first infrared light and the second infrared light. While controlling the blinking of the infrared light, the intensity of the first infrared light and the second infrared light is controlled.
  • the infrared light control unit 14 controls blinking control of the first infrared light and the second infrared light in synchronization with the synchronization signal supplied from the frame image acquisition unit 16.
  • the imaging unit 15 is composed of an imaging device such as a CCD (charge coupled device), a lens, an infrared transmission filter, and the like.
  • the imaging unit 15 captures the wavelength region of the infrared light that has been transmitted through the infrared transmission filter and captures the reflected light of the first infrared light and the second infrared light with the imaging device.
  • the imaging unit 15 outputs a vertical synchronization signal (vsync) for moving image shooting and an image signal for each frame to the frame image acquisition unit 16.
  • vsync vertical synchronization signal
  • the frame image acquisition unit 16 sequentially acquires the image signal and the vertical synchronization signal of each frame imaged by the imaging unit 15 from the imaging unit 15.
  • the frame image acquisition unit 16 generates a predetermined synchronization signal based on the acquired vertical synchronization signal and outputs it to the infrared light control unit 14.
  • the detection unit 19 detects the orientation of the hand (instruction unit) based on the image captured by the imaging unit 15 by irradiating the first infrared light and the second infrared light. Then, the indication point extraction unit 18 extracts the image region of the tip portion extracted based on the image captured by irradiating the first infrared light, and the hand (instruction unit) detected by the object extraction unit 17. The position of the finger (tip portion) on the detection target surface 2 is detected based on the direction of the.
  • the object extraction unit 17 irradiates the first infrared light and the second infrared light, and based on the image captured by the imaging unit 15, the image area of the hand (instruction unit) and the tip of the tip Extract the image area.
  • the instruction point extraction unit 18 detects the orientation of the hand (instruction unit) based on the image area of the hand (instruction unit) extracted by the object extraction unit 17 and the image area of the tip.
  • the indication point extraction unit 18 detects the position of the finger (tip portion) on the detection target surface 2 based on the image area of the tip portion and the orientation of the hand (instruction portion).
  • the first infrared light for detecting the tip of the stylus is irradiated.
  • the 2nd infrared light irradiation part 13 irradiates the 2nd infrared light irradiated to the area
  • the emitting part of the first infrared light irradiating part 12 and the emitting part of the second infrared light irradiating part 13 are arranged vertically on the outer front surface of the projector 30 as shown in FIG.
  • the imaging unit 15, the projection unit 31, the emission unit of the first infrared light irradiation unit 12, and the emission unit of the second infrared light irradiation unit 13 are provided on the external front surface of the projector 30. It is installed in a straight line up and down.
  • the “instruction unit” is the user's “hand” and the “tip” of the instruction unit is the user's “finger” is described as an example.
  • the first infrared light is parallel light substantially parallel to the detection target surface 2 shown as the irradiation region 121 in the side view of FIG. 3 and the plan view of FIG.
  • the first infrared light irradiation unit 12 includes, for example, an infrared LED (light emitting diode), a galvano scanner, an aspherical reflecting mirror, and the like.
  • the first infrared light irradiation unit 12 has an irradiation region 121 in a direction perpendicular to the detection target surface 2 at a height as close as possible to (the surface of) the detection target surface 2 and as narrow as possible. It has an irradiation width and is configured to have a light beam that is as parallel as possible.
  • the irradiation area 121 in the planar direction has a fan shape and is adjusted so as to cover many portions of the projection image 3.
  • the first infrared light is used to detect that the tip of the finger is in contact with the detection target surface 2.
  • the first infrared light irradiation unit 12 is provided with a plurality of parallel light infrared LEDs having relatively narrow directivities on a plane in different directions on the plane, as shown in FIG. It can also be configured by having a wide directivity.
  • the second infrared light is used to detect the entire hand (or most part of the hand) of the user. Therefore, the vertical irradiation area of the second infrared light can be, for example, a larger vertical width of the irradiation area 121 as shown in FIG. That is, the second infrared light has an irradiation width that is wide enough to irradiate the entire user's hand with respect to the detection target surface 2 and has a luminous flux that is as parallel as possible. can do.
  • the optical system may be enlarged or complicated. Therefore, in order to simplify the configuration, for example, as shown as the irradiation region 131 in the side view of FIG. 5, it is possible to use diffused light that diffuses upward in the vertical direction with respect to the detection target surface 2.
  • the second infrared light irradiation region 131 is set so as to have a light flux that does not diffuse as much as possible below the detection target surface 2 in the vertical direction. This is because the reflection of infrared light from the detection target surface 2 can be suppressed small by weakening the light traveling downward. If it does so, reflection from those other than a hand (namely, instruction
  • the 2nd infrared light irradiation part 13 can be comprised by infrared LED single-piece
  • the irradiation area in the plane direction of the second infrared light has a sector shape, similar to the irradiation area 121 in the plane direction of the first infrared light shown in FIG. It is adjusted to cover the part.
  • the second infrared light irradiation unit 13 and the second infrared light have the installation position and irradiation width as shown in FIG. 1 or FIG. 5 as well as those shown in FIG. it can.
  • the projector 30a shown in FIG. 6 (corresponding to the projector 30) includes a first infrared light irradiation unit 12a having the same configuration as the first infrared light irradiation unit 12 shown in FIG.
  • the infrared light irradiation unit 13a is installed side by side in the vertical direction as an example.
  • the first infrared light irradiation unit 12a is used to irradiate the first infrared light and irradiates the second infrared light together with the plurality of second infrared light irradiation units 13a. Also used for. That is, in the projector 30a shown in FIG. 6, the irradiation region 131a having a wide irradiation width in the vertical direction is generated using the first infrared light irradiation unit 12a and the plurality of second infrared light irradiation units 13a. .
  • FIG. 7 illustrates the relationship between the vertical synchronization signal (vsync) output from the imaging unit 15, the time when the first infrared light is turned on and off, and the time change of the second infrared light that is turned on and off (and the infrared light).
  • vsync vertical synchronization signal
  • FIG. 7 shows the operation from the nth frame to the (n + 3) th frame of the captured moving image by the imaging unit 15 (where n is a natural number). As shown in FIG. 7, the irradiation timings of the first and second infrared lights are switched in accordance with the frame switching timing of the imaging unit 15.
  • the nth frame is irradiated with the first infrared light
  • the n + 1th frame is irradiated with the second infrared light
  • the n + 2th frame is irradiated with the first infrared light
  • the infrared light control unit 14 controls so that the irradiation of infrared light is switched in time series.
  • the intensity of the first infrared light is controlled by the infrared light control unit 14 to be larger than the intensity of the second infrared light. .
  • FIG. 8 shows an image 50 as an example of an image (first image) of the n frame (at the time of first infrared light irradiation) in FIG. 7 and an image (first image of the n + 1 frame (at the time of second infrared light irradiation). 2) is an example of the image 53.
  • the images 50 and 53 in FIG. 8 are taken images when the hand 4 that is gripped as shown in FIGS. 9A and 9B is placed on the detection target surface 2.
  • 9A is a plan view
  • FIG. 9B is a side view. In this example, as shown in FIG. 9B, the hand 4 is in contact with the detection target surface 2 at the tip 41 of the index finger, and the other fingers are not in contact.
  • the tip 41 of the index finger in FIGS. 9A and 9B is a low-intensity area except that it is a high-intensity region (that is, a region with a large pixel value; a first infrared light reflection region) 52. It is a luminance area (that is, an area having a small pixel value) 51.
  • the entire hand 4 of FIGS. 9A and 9B is a medium luminance region (that is, a region with a medium pixel value; a second infrared light reflection region) 55. , A low luminance region 54.
  • the frame image acquisition unit 16 in FIG. 2 acquires an image from the imaging unit 15 in units of frames. Then, the acquired image is output to the object extraction unit 17.
  • the frame image acquisition unit 16 outputs the image 50 and the image 53 illustrated in FIGS. 9A and 9B to the object extraction unit 17 will be described.
  • the object extraction unit 17 When the object extraction unit 17 receives the image data for two frames from the frame image acquisition unit 16, the object extraction unit 17 calculates a difference in pixel value for each corresponding pixel between the n frame image 50 and the n + 1 frame image 53. Thus, the pointing unit included in the image and the imaging region of the tip thereof are extracted. That is, the object extraction unit 17 increases the pixel value of the n-frame image 50 and the (n + 1) -frame image 53 from a large pixel value for each pixel located at the same position in the image sensor of the imaging unit 15. A process of subtracting a thing (that is, a difference process) is performed.
  • an example of an image obtained as a result of the process of calculating the difference is shown as an image 56 in FIG.
  • the image 56 includes a low luminance region 57, a medium luminance region 59, and a high luminance region 58.
  • the medium luminance region 59 corresponds to the medium luminance region 55 of the image 53 (that is, the entire hand 4)
  • the high luminance region 58 corresponds to the high luminance region 52 of the image 50 (that is, the tip 41 of the index finger).
  • the infrared light control unit 14 switches the infrared light irradiation timing in accordance with the vertical synchronization signal (vsync) of the image sensor as shown in FIG. Change state.
  • the first infrared light is ON (lit)
  • the second infrared light is OFF (extinguishes)
  • the first infrared light is OFF
  • the second infrared light is It becomes ON.
  • the object extraction unit 17 can cut out only the hand 4 by taking the difference between the frame images at the time of the first infrared light irradiation and the second infrared light irradiation.
  • the pixel value of the hand region 59 and the pixel value of the finger tip region 58 included in the difference image 56 are different values. Therefore, the hand region 59 and the finger tip region 58 can be extracted by multi-leveling the difference image 50 for each predetermined pixel value range. That is, the object extraction unit 17 can extract the hand region 59 and the finger tip region 58 by the difference image calculation processing and the multi-value processing.
  • the pointing point extraction unit 18 extracts a finger tip region (that is, a pointing point) estimated to have performed the pointing operation from the hand region 59 and the finger tip region 58 extracted by the object extraction unit 17. .
  • a finger tip region that is, a pointing point
  • the tip area 58 of the finger that is, the first infrared light reflection area
  • the same area is extracted as the area where the pointing operation is performed.
  • the object extraction unit 17 calculates a difference image 60 as shown in FIG. 10B.
  • the difference image 60 includes a low luminance area 61, high luminance areas 62 to 64, and a medium luminance area 65.
  • the instruction point extraction unit 18 Upon receiving the difference image 60 from the object extraction unit 17, the instruction point extraction unit 18 includes a plurality of high luminance regions (that is, the first infrared light reflection region), and performs predetermined image processing. The process of detecting the orientation of the hand (instruction unit) 4a is performed.
  • the following can be used as the predetermined image processing. That is, as one method, there is pattern matching based on a comparison between a pattern of a medium luminance region (image region of the instruction unit) and a predetermined reference pattern. As another method, by detecting a position that overlaps the medium luminance region (the image region of the instruction unit) among the boundary lines of the detection range specified in advance within the imaging range of the imaging unit 15, the arm side (root side) of the hand There is something to get directions. As another method, there is a method of calculating the hand insertion direction based on the motion vector of the medium luminance region (image region of the instruction unit) extracted in the past. The direction of the instruction unit can be detected by one or a combination of these.
  • the pointing point extraction unit 18 detects the orientation of the hand indicated by the arrow in FIG. 10B.
  • the indication point extraction unit 18 determines the position of the tip (referred to as the indication point) of the hand (instruction unit) based on the direction of the hand and the position of the high luminance region (that is, the first infrared light reflection region). To extract. For example, when the hand enters from the front of the apparatus, the lowermost area among the areas reflected by the first infrared light is set as the indication point. For example, when the hand enters from the left side of the apparatus, the rightmost region is set as the indication point.
  • the indication point extraction unit 18 recognizes that the hand 4a has entered from the front of the apparatus, so that the lowest region among the regions reflected by the first infrared light, that is, The high brightness area 63 is determined as the indication point. Then, the indication point extraction unit 18 outputs the position information of the high brightness area 63 to the system control unit 21.
  • FIG. 11A and FIG. 11B another example of the extraction process of the indication point extraction unit 18 when there are a plurality of first infrared light reflection regions will be described.
  • the hand 4b is placed on the detection target surface 2 in the direction of the hand indicated by the arrow (that is, the direction from the upper right with respect to the apparatus in FIG. 9A).
  • the index finger 42 and the thumb 43 are in contact with the detection target surface 2.
  • the object extraction unit 17 calculates a difference image 70 as shown in FIG. 11B.
  • the difference image 70 includes a low luminance area 71, high luminance areas 72 to 74, and a medium luminance area 75.
  • the instruction point extraction unit 18 Upon receiving the image 70 from the object extraction unit 17, the instruction point extraction unit 18 includes a plurality of high-luminance regions (that is, the first infrared light reflection region), and thus performs the image processing as described above. The process of detecting the direction of the hand (instruction unit) 4b is performed.
  • the indication point extraction unit 18 recognizes that the hand 4b has entered the device slightly obliquely, so that the orientation of the hand in the region reflected by the first infrared light is The most advanced region (that is, the high luminance region 72) is determined as the indication point. Then, the indication point extraction unit 18 outputs the position information of the high brightness area 72 to the system control unit 21.
  • the object extraction unit 17 calculates a difference image 80 as shown in FIG. 12B.
  • the difference image 80 includes a low luminance area 81, a high luminance area 82, and a medium luminance area 83.
  • the indication point extraction unit 18 determines the high luminance region 82 as the indication point because there is one high luminance region (that is, the first infrared light reflection region). . Then, the indication point extraction unit 18 outputs the position information of the high brightness area 82 to the system control unit 21.
  • the tip of the index finger 45 and the tip of the middle finger 46 are located at the most advanced position in the direction of the hand.
  • the index finger 45 is in contact with the detection target surface 2
  • the middle finger 46 is not in contact with the detection target surface 2.
  • image capturing using the first infrared light it is difficult to determine where the indication point is, but in the present embodiment, the first infrared light is difficult to determine. Since the touched finger is shown as a high luminance region, it can be easily determined.
  • the instruction point extraction unit 18 in FIG. 2 may perform a process of calculating a movement vector based on position information of the instruction point extracted in the past.
  • the position information of all the high-intensity areas in the past fixed period is stored in the designated point extraction unit 18 (or in another storage device) together with the movement vector. By doing so, the movement of the hand (instruction unit) can be detected.
  • a pattern recognition method or the like may be used to detect the movement of the indication point.
  • the detection apparatus 10 in this embodiment can detect the position of a some front-end
  • the indication point extraction unit 18 is close to the direction of the hand indicated by the arrow from the direction of the hand indicated by the arrow and the high luminance regions 72 to 74 (regions 72 to 74 at the finger tips).
  • the high luminance region 72 and the high luminance region 74, which are the tip portions, are detected as the positions of the tip portions.
  • the indication point extraction unit 18 detects the positions of a plurality of tip portions based on the orientation of the hand and the high luminance region. In this case, all high brightness areas close to the direction of the hand are detected as the positions of the tips.
  • the high-intensity region 82 is set as the position of the tip portion.
  • the indication point extraction unit 18 detects a high-luminance region corresponding to the middle finger 46 and the index finger 45 that are tip portions close to the direction of the hand as the position of the tip portion.
  • the indication point extraction unit 18 extracts the shape of the hand (instruction unit) from the medium luminance region 75 (or 83) using a pattern recognition method or the like. And based on the shape of a hand (instruction
  • the indication point extraction unit 18 may determine whether or not to detect a plurality of tip portions based on the content of the projection image 3 projected from the projection unit 31 onto the detection target surface 2 and the orientation of the hand. . For example, when the keyboard is projected as the projected image 3 and the orientation of the hand is the direction in which the keyboard is pressed, the indication point extraction unit 18 may detect the positions of a plurality of tip portions. The indication point extraction unit 18 may determine whether or not to detect a plurality of tip portions by detecting the movement of the hand (instruction unit) described above.
  • the purpose of this is to make the pixel value (luminance) of the reflected light from the first infrared light different from the pixel value (luminance) of the reflected light from the second infrared light in the imaging unit 15. It was. Therefore, it is also possible to adopt the following method instead of changing the strength.
  • the pixel value by the first infrared light is relatively large and the pixel value by the second infrared light is relatively small in accordance with the frequency characteristics of the image sensor that constitutes the imaging unit 15,
  • the wavelength of the first infrared light and the wavelength of the second infrared light can be made different.
  • the characteristics of the infrared transmission filter constituting the imaging unit 15 may be changed. Good.
  • the imaging unit 15 images the wavelength region of infrared light
  • the infrared light irradiation unit 11 is an instruction unit on the detection target surface 2.
  • the first infrared light for detecting the tip portion and the second infrared light irradiated to the region farther from the detection target surface 2 than the first infrared light are irradiated.
  • the detection part 19 detects the direction of an instruction
  • the detection unit 19 detects the detection target surface 2 based on the image area of the tip extracted based on the image captured by irradiating the first infrared light and the detected direction of the instruction unit. Detect the position of the top tip.
  • the orientation of the pointing unit is detected using the first infrared light and the second infrared light having different irradiation areas, and the image captured by irradiating the first infrared light is displayed.
  • the position of the tip on the detection target surface is detected based on the image area of the tip that is extracted based on the detected direction of the pointing unit. That is, since the detection apparatus 10 in the present embodiment detects the orientation of the hand, it is possible to reduce erroneous detection of an instruction due to a plurality of tip portions or a difference in the orientation of the hand.
  • the detection apparatus 10 in this embodiment uses infrared light, it can detect a hand without being affected by the color of the human skin, and thus can reduce erroneous detection of an instruction. Moreover, it is provided so that the 1st infrared light may detect the front-end
  • the first infrared light and the second infrared light are parallel light parallel to the detection target surface 2.
  • infrared light parallel to the detection target surface 2 it is possible to accurately detect the tip portion and movement of the pointing unit. Therefore, the detection apparatus 10 according to the present embodiment can reduce erroneous detection of instructions by the user and improve detection accuracy.
  • the first infrared light is parallel light parallel to the detection target surface 2
  • the second infrared light is diffused light that diffuses in a direction perpendicular to the detection target surface 2.
  • the detection apparatus 10 since diffused light is used for the second infrared light, a wide range of detection can be performed. Therefore, the detection apparatus 10 according to the present embodiment can reduce erroneous detection of instructions by the user and improve detection accuracy.
  • the 2nd infrared light irradiation part 13 can be made into a simple structure.
  • the infrared light irradiation unit 11 switches between the first infrared light and the second infrared light according to the imaging timing of the imaging unit 15 and irradiates.
  • the detection part 19 is 2nd imaged by the imaging part 15 by irradiating the 1st image (image 50) imaged by irradiating 1st infrared light, and 2nd infrared light.
  • the direction of the instruction unit is detected based on the image (image 53). Thereby, the first image (image 50) and the second image (image 53) can be easily acquired.
  • the infrared light irradiation unit 11 irradiates the first infrared light and the second infrared light with different light intensities.
  • the detection unit 19 (the object extraction unit 17) is based on a difference image between the first image (image 50) and the second image (image 53) captured by irradiating different light intensities.
  • Image region (hand region 59) and tip image region (finger tip region 58) are extracted, the direction of the pointing unit is detected based on the extracted image region of the pointing unit, and the detected pointing unit Based on the orientation and the image area at the tip, the position of the tip is detected.
  • the detection unit 19 (the object extraction unit 17) can easily generate the difference image between the first image (image 50) and the second image (image 53), thereby easily obtaining the image area ( The hand region 59) and the image region of the tip (the finger tip region 58) can be extracted.
  • the first image (image 50) and the second image (image 53) include infrared light emitted by sunlight or an indoor lighting environment, but the detection unit 19 (object extraction unit). In 17), this reflection image can be excluded by generating this difference image. Therefore, the detection apparatus 10 according to the present embodiment can reduce erroneous detection of instructions by the user and improve detection accuracy.
  • the detection unit 19 multi-values the difference image, and based on the multi-valued difference image, the image region (hand region 59) of the pointing unit and the tip portion An image area (finger tip area 58) is extracted. Accordingly, in order to perform extraction based on the multi-valued difference image, the detection unit 19 (object extraction unit 17) causes the image area (hand area 59) of the instruction section and the image area (tip area 58 of the tip of the finger). ) Can be easily extracted.
  • the detection unit 19 performs pattern matching by comparing the pattern of the image area (hand region 59) of the instruction unit with a predetermined reference pattern, Of the boundary line of the detection range designated in advance within the imaging range, any one of the position overlapping the image region (hand region 59) of the pointing unit and the motion vector of the image region (hand region 59) of the pointing unit The direction of the pointing unit is detected by one or a combination.
  • the detection part 19 (indication point extraction part 18) can detect the direction of an instruction
  • the detection unit 19 determines the positions of the plurality of tip portions based on the orientation of the indication portion and the image region of the tip portion (for example, the finger tip regions 72 and 74). Is detected.
  • the detection apparatus 10 in this embodiment is applicable to the use which detects a some position.
  • the present invention can be applied to a keyboard that uses a plurality of fingers and motion detection that detects hand movement.
  • the indication point is detected with 2 frames as one unit, and the indication point is detected with 3 frames as one unit. It is what I did.
  • the intensity of the first infrared light and the intensity of the second infrared light can be made the same.
  • some internal processes of each part differ.
  • a frame that is not irradiated with both the first infrared light and the second infrared light is added.
  • there is no infrared light irradiation in the nth frame there is no infrared light irradiation in the nth frame, the first infrared light irradiation in the (n + 1) th frame, the second infrared light irradiation in the (n + 2) th frame, and so on.
  • a difference image is extracted from the acquired images at the time of irradiation with the first infrared light and the second infrared light, and the orientation of the hand and the pointing point are calculated.
  • FIG. 14 the contents of the object extraction process and the pointing point extraction process will be specifically described.
  • FIG. 14 shows an acquired image 90 (third image) of the nth frame (when no infrared light is irradiated), an acquired image 91 (first image) of the (n + 1) th frame (when irradiated with the first infrared light), It is a figure which shows an example of the acquired image 93 (2nd image) of the n + 2 frame (at the time of 2nd infrared light irradiation).
  • the state of the instruction unit (hand) is as shown in FIGS. 9A and 9B.
  • the image 91 includes a high brightness area 92 corresponding to the tip 41 of the index finger in FIGS. 9A and 9B
  • the image 93 includes a high brightness area 94 corresponding to the hand 4 in FIGS. 9A and 9B.
  • FIG. 14 shows the calculation results of the difference image 95 between the image 91 in the (n + 1) th frame and the image 90 in the nth frame, and the difference image 97 between the image 93 in the (n + 2) th frame and the image 90 in the nth frame.
  • the background images 99 of the images 95 and 97 exclude the influence of infrared light emitted by sunlight or indoor lighting environment.
  • the orientation of the hand is the same as in the above embodiment. Can be detected.
  • the imaging unit 15 further includes the third image (image 90) that is an image during a period in which neither the first infrared light nor the second infrared light is irradiated. ).
  • the detection unit 19 (the object extraction unit 17) converts the difference image between the first image (image 91) and the third image, and the difference image between the second image (image 93) and the third image. Based on this, the image area of the instruction part and the image area of the tip part are extracted.
  • the detection unit 19 (instruction point extraction unit 18) detects the direction of the instruction unit based on the extracted image area of the instruction unit, and based on the detected direction of the instruction unit and the image region of the tip part The position of is detected.
  • the detection device 10 detects the orientation of the hand as in the first embodiment. Detection can be reduced. Further, the detection unit 19 (the object extraction unit 17) obtains a difference image between the first image (image 91) and the third image, and a difference image between the second image (image 93) and the third image. By generating, it is possible to easily extract the image area of the instruction section and the image area of the tip section.
  • the first image (image 91) and the second image (image 93) include infrared light emitted by sunlight or an indoor lighting environment, but the detection unit 19 (object extraction unit). In 17), this reflection image can be excluded by generating this difference image. Therefore, the detection apparatus 10 according to the present embodiment can reduce erroneous detection of instructions by the user and improve detection accuracy.
  • the detection apparatus 10 in the present embodiment does not need to change the light intensities of the first infrared light and the second infrared light. Therefore, the configuration of the infrared light irradiation unit 11 can be simplified.
  • the input device 20 is provided with the detection apparatus 10 mentioned above. Thereby, similarly to the detection device 10, the input device 20 can reduce erroneous detection of an instruction by the user and improve detection accuracy.
  • the projector 30 includes the input device 20 and the projection unit 31 that projects an image on the detection target surface 2. Thereby, when detecting the position and movement of the tip, the projector 30 can reduce erroneous detection of an instruction by the user and improve detection accuracy, as in the detection device 10.
  • FIG. 15 is a block diagram for explaining a detection device 10a as another embodiment.
  • the detection device 10 a in this embodiment is different from the above embodiments in that it includes a spatial position extraction unit 191.
  • the detection apparatus 10a according to the present embodiment includes the spatial position extraction unit 191 so that three-dimensional coordinates when the user's hand is located in space can be acquired.
  • the object extraction unit 17, the indication point extraction unit 18, and the spatial position extraction unit 191 correspond to the detection unit 19a.
  • the projector 30b (corresponding to the projector 30) includes an input device 20a (corresponding to the input device 20), and the input device 20a includes a detecting device 10a (corresponding to the detecting device 10).
  • the space position extraction unit 191 is a space in which the hand (instruction unit) moves within the imaging range of the imaging unit 15 based on the second image captured by the imaging unit 15 by irradiating the second infrared light. The position (three-dimensional coordinates) of the upper finger (tip) is detected.
  • the second infrared light irradiation unit 13a includes a plurality of second infrared light irradiation units (130a, 130b, 130c).
  • the plurality of second infrared light irradiation units (130a, 130b, 130c) irradiate second infrared light having different heights.
  • the plurality of second infrared light irradiators (130a, 130b, 130c) irradiate second infrared light having different irradiation ranges in the vertical direction with respect to the detection target surface 2.
  • the frame image acquisition unit 16 sends the second red light irradiation units (130a, 130b, 130c) to the second red light in order at different timings via the infrared light control unit 14. Irradiate with external light.
  • the imaging part 15 images a 2nd image with respect to each of several 2nd infrared light irradiation part (130a, 130b, 130c). That is, the imaging unit 15 captures a plurality of second images corresponding to each of the plurality of second infrared lights.
  • the frame image acquisition unit 16 irradiates the lowermost stage (second infrared light irradiation unit 130a) in the first frame, and the upper stage (second infrared light irradiation unit 130b) in the second frame. In synchronization with the frame, the timing of irradiating the second infrared light is shifted.
  • the imaging unit 15 captures the second image at such irradiation timing, and outputs the captured second image to the frame image acquisition unit 16.
  • the object extraction unit 17 extracts an image region of the hand (instruction unit) (in this case, an image region at the tip of the finger) based on the second image acquired by the frame image acquisition unit 16.
  • the spatial position extraction unit 191 determines the irradiation timing at which the tip of the finger is detected based on the image region of the tip of the finger extracted by the object extraction unit 17.
  • the spatial position extraction unit 191 determines the height direction (vertical direction) finger based on the height of the second infrared light irradiation unit (130a, 130b, 130c) corresponding to the irradiation timing at which the tip of the finger is detected. The position of is detected.
  • the spatial position extraction unit 191 detects the position in the vertical direction (height direction) of the tip (tip of the finger) based on the plurality of second images described above.
  • the spatial position extraction unit 191 detects the position in the horizontal direction and the depth direction based on the second image captured by the imaging unit 15.
  • the spatial position extraction unit 191 changes the scale (size) of the tip (tip of the finger) according to the detected height position, for example, in the detection area (imaging range) in the horizontal direction and the depth direction. Absolute position is extracted. That is, the spatial position extraction unit 191 detects the position of the tip in the horizontal direction with respect to the detection target surface 2 based on the position and size of the extracted image area of the instruction unit on the second image.
  • FIG. 16 shows a case where the tip of the finger is in the irradiation range of the second infrared light 131b irradiated by the second infrared light irradiation unit 130a.
  • the imaging unit 15 captures the image 101 as the second image corresponding to the second infrared light 131b.
  • a broken line 102 indicates a region where the hand 4 is present, and a region 103 indicates a tip portion of the finger irradiated with the second infrared light 131b (tip region image region 103).
  • the spatial position extraction unit 191 Based on this image 101, the spatial position extraction unit 191 detects the height position corresponding to the irradiation position of the second infrared light 131b as the position of the tip portion in the vertical direction. Further, using the fact that the width of the tip of the finger is almost constant in the human hand, the spatial position extraction unit 191 is based on the position and width (size) of the image region 103 on the image 101. The position of the tip in the lateral direction and the depth direction (horizontal direction) is detected (extracted). Thus, the spatial position extraction unit 191 detects a three-dimensional position in the space where the instruction unit (hand) moves.
  • FIG. 17 shows a case where the tip of the finger is in the irradiation range of the second infrared light 131c irradiated by the second infrared light irradiation unit 130c.
  • the imaging unit 15 captures the image 101a as the second image corresponding to the second infrared light 131c.
  • a broken line 102a indicates a region where the hand 4 is present
  • a region 103a indicates a tip portion (image region 103a at the tip portion) of the finger irradiated with the second infrared light 131c. ing.
  • the spatial position extraction unit 191 detects the three-dimensional position in the space where the instruction unit (hand) moves, as in the case shown in FIG. In FIG. 17, the hand 4 is at a higher position than in the case shown in FIG. Therefore, the image area 103a is positioned above the image 101a as compared with the image area 103, and the width (size) of the image area 103a is larger than the width (size) of the image area 103.
  • the detection unit 19a of the detection device 10a determines the position of the tip in the space where the instruction unit (hand) moves within the imaging range of the imaging unit 15 based on the second image. To detect.
  • the detection apparatus 10a can detect the position (three-dimensional position) of the front-end
  • the projector 30 b moves from the display screen 104 to the display screen 105 and displays the menu 106 when a finger enters the detection range (the imaging range of the imaging unit 15).
  • the projector 30b displays an enlarged menu 108 as shown in the display image 107, and this menu is displayed when the tip of the finger contacts the detection target surface 2. Is determined to have been selected. Then, the projector 30b executes a predetermined process corresponding to the selected menu.
  • the projector 30 b changes the display from the key display 109 to the key display 109 a so that the tip of the finger touches the detection target surface 2. In this case, it is determined that the key display 109a has been pressed. Then, when the tip of the finger moves away from the detection target surface 2, the projector 30b changes the display from the key display 109a to the key display 109b.
  • the detection device 10a can detect the operation of pushing down and pushing up the finger from the positional relationship of the finger. Therefore, the detection apparatus 10a can create an environment closer to an actual keyboard operation.
  • the detection device 10a can reduce the erroneous detection of the instruction by the user and can improve the convenience because the user interface display as described above can be performed.
  • the displayed video content or the like may be on a server device connected to the network, and the projector 30b may control input while communicating with the server device via the network. Good.
  • the infrared light irradiation unit 11 sequentially irradiates a plurality of second infrared lights having different irradiation ranges in the vertical direction with respect to the detection target surface 2, and the imaging unit 15 includes a plurality of second red lights. A plurality of second images corresponding to each of the external lights are captured. Then, the detection unit 19a detects the vertical position of the tip based on the plurality of second images. Thereby, the detection apparatus 10a in this embodiment can detect the position of the front-end
  • the detection unit 19a extracts the image area of the instruction unit based on the second image, and based on the position and size of the extracted image area of the instruction unit on the second image, The position of the tip in the direction is detected.
  • the detection apparatus 10a in this embodiment can detect the position of the front-end
  • the spatial position extraction unit 191 extracts the image area of the instruction unit based on the second image, and based on the position and size of the tip portion on the second image in the extracted image area of the instruction unit. The vertical position of the tip is detected.
  • the 20 and 21 are diagrams illustrating an example of the operation of the detection apparatus 10a in the present embodiment when the infrared light irradiation unit 11 has the configuration illustrated in FIG. As shown in FIG.20 and FIG.21, the 2nd infrared light irradiation part 13 radiates
  • the image region of the hand instruction unit
  • FIG. 20 shows a case where the tip of the finger is in the lower region of the irradiation range of the second infrared light 131d irradiated by the second infrared light irradiation unit 13.
  • the imaging unit 15 captures the image 101c as the second image corresponding to the second infrared light 131d.
  • a region 102c indicates an image region of the hand irradiated with the second infrared light 131d (an image region of the instruction unit).
  • the detection unit 19a detects the height position corresponding to the irradiation position of the second infrared light 131d as the position of the tip portion in the vertical direction.
  • the object extraction unit 17 extracts a hand image region (region 102c) based on the image 101c.
  • the spatial position extraction unit 191 uses the fact that the tip of the tip of the image area (region 102c) of the pointing unit extracted by the object extraction unit 17 is extracted. The vertical position of the tip is detected based on the position and size on the second image.
  • the spatial position extraction unit 191 uses the position of the image region (region 102 c) of the pointing unit on the image 101. The position of the tip in the lateral direction and the depth direction (horizontal direction) is detected (extracted) based on the width (size). Thus, the spatial position extraction unit 191 detects a three-dimensional position in the space where the instruction unit (hand) moves.
  • FIG. 21 illustrates a case where the tip of the finger is in the upper region of the irradiation range of the second infrared light 131d irradiated by the second infrared light irradiation unit 13.
  • the imaging unit 15 captures the image 101d as the second image corresponding to the second infrared light 131d.
  • an area 102d indicates an image area of the hand (image area of the instruction unit) irradiated with the second infrared light 131d.
  • the spatial position extraction unit 191 detects the three-dimensional position in the space where the instruction unit (hand) moves, as in the case shown in FIG.
  • the hand 4 is at a higher position than in the case shown in FIG. Therefore, the image area 102d is positioned above the image 101d compared to the image area 102c, and the width (size) of the tip (finger tip) in the image area 102d is the tip ( It is larger than the width (size) of the tip of the finger.
  • the detection unit 19a of the detection device 10a determines the position of the tip in the space where the instruction unit (hand) moves within the imaging range of the imaging unit 15 based on the second image. To detect. Thereby, the detection apparatus 10a can detect the position (three-dimensional position) of the front-end
  • the detection unit 19a extracts the image area of the instruction unit based on the second image, and the position and size of the tip portion on the second image in the extracted image area of the instruction unit. Based on this, the vertical position of the tip is detected.
  • the detection apparatus 10a in this embodiment can detect the position of the front-end
  • FIG. FIG. 22 is a schematic diagram illustrating an example in which the detection device 10 a is applied to the tablet terminal 40.
  • the tablet terminal 40 (electronic device) is provided with the detection apparatus 10a in 4th Embodiment as an example.
  • the detection apparatus 10a may be attached to the tablet terminal 40 and may be integrated, or may be detachably attached to the tablet terminal 40.
  • FIG. 23 is a block diagram illustrating an example of the configuration of the tablet terminal 40. In FIG. 23, the same components as those in FIG.
  • the tablet terminal 40 includes a display unit 401, and the display unit 401 displays an image output from the system control unit 21.
  • the detection device 10a is based on the second image captured by the imaging unit 15 in accordance with the second infrared light 131d emitted by the second infrared light irradiation unit 13.
  • the position (three-dimensional position) of the tip of the finger of the user U1 can be detected. Therefore, the tablet terminal 40 has the same effect as the detection device 10a.
  • the tablet terminal 40 can reduce the erroneous detection of an instruction by the user and can improve the convenience because the user interface display as described above can be performed.
  • the present invention is not limited to the above embodiments, and can be modified without departing from the spirit of the present invention.
  • the configuration in which one imaging unit 15 is provided has been described.
  • a process for eliminating the occlusion by providing a plurality of imaging units 15 may be added.
  • the first infrared light and the second infrared light may be generated using one infrared light source by using a filter or a galvano scanner.
  • the form in which the detection device 10 and the input device 20 are applied to the projector 30 has been described, but the form to be applied to other devices may be employed.
  • the present invention may be applied to an electronic blackboard with a display function or an electronic conference device.
  • the detection device 10 and the input device 20 may be used in combination with each other or may be used as a single device.
  • the tablet terminal 40 is not limited to said 5th Embodiment, The following modifications are possible.
  • the tablet terminal 40 may be configured such that the detection device 10 a is mounted in a state that is almost flat with the display surface of the display unit 401.
  • the imaging unit 15 is arranged to look up obliquely upward from the display surface.
  • the imaging unit 15 may be movable and adjustable by the user U1 itself, or may be configured to change the imaging angle in accordance with the tilt of the display unit 401.
  • the plurality of second infrared light irradiation units (13b, 13c) arranged beside the imaging unit 15 are arranged so as to have different inclinations on the left and right, and the irradiation timing is also the frame frequency of the imaging unit 15.
  • a different form may be used in synchronization with.
  • the second infrared light 132b irradiated by the second infrared light irradiation unit 13b is more than the second infrared light 132c irradiated by the second infrared light irradiation unit 13c. Irradiated with an upward tilt. That is, the irradiation range of the second infrared light 132b and the second infrared light 132c is divided into areas. In this case, the tablet terminal 40 can limit the position of the tip by dividing the area of the second infrared light 132b and the second infrared light 132c, so that the three-dimensional position can be extracted with higher accuracy. .
  • the first infrared light irradiating unit 12 is not shown, but the first infrared light irradiating unit 12 is the first infrared light as in the above embodiments. Irradiate.
  • the tablet terminal 40 (detection device 10a) includes two or more second infrared light irradiation units (13d to 13g), and has an irradiation range (irradiation area).
  • a mode in which a plurality of different second infrared lights (133a to 133d) are irradiated may be employed.
  • the plurality of second infrared light irradiation units may change the irradiation area by changing only the irradiation direction of the infrared light as described above, or the second infrared light irradiation unit
  • the irradiation area may be divided more finely by changing the arrangement position of (13d to 13g).
  • illustration of the 1st infrared light irradiation part 12 is abbreviate
  • the tablet terminal 40 when the tablet terminal 40 is provided with a touch panel, the form which detects the input by an instruction
  • the tablet terminal 40 can be detected even when the rotational movable range of the imaging unit 15 is small.
  • the tablet terminal 40 may be configured such that only the detection area separated to some extent is detected by the imaging unit 15 and contact is detected by the touch panel.
  • the imaging unit 15 includes two imaging units (15a, 15b) having different angles of view (G1a, G1b), and the detection device 10a (tablet terminal 40) includes two imaging units ( The form (distance L1) of the front-end
  • the detection apparatus 10a calculates the distance of the distal end portion in the depth direction using parallax, as shown in FIG. 27, the mirror (151a, 151b, 152a, 152b) and the concave lens (153a, 153b) ), Different angles of view (G2a, G2b) may be realized by one imaging unit 15.
  • the imaging unit 15 has an AF (autofocus) function
  • the detection apparatus 10a may detect the distance of the distal end portion in the depth direction using the AF function of the imaging unit 15.
  • the imaging unit 15 when the imaging unit 15 as shown in FIG. 22 is arranged so as to look up from below, the imaging unit 15 may include a wide-angle lens. Two or more imaging units 15 may be arranged. For example, the imaging unit 15 may be arranged at the four corners (four locations) of the display surface of the display unit 401.
  • the detection device 10a may use an imaging unit 15 built in the tablet terminal 40.
  • the detection apparatus 10a may include the mirror 154, and the imaging unit 15 may capture the range (view angle G3) of the display surface of the display unit 401 reflected by the mirror 154.
  • the form in which the detection device 10a is applied to the tablet terminal 40 as an example of the electronic apparatus has been described.
  • the form may be applied to another electronic apparatus such as a mobile phone.
  • the form which applies the detection apparatus 10a to the tablet terminal 40 was demonstrated, also in the form which applies the detection apparatus 10 in said 1st and 2nd embodiment to the tablet terminal 40 Good.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 検出装置(10)は、赤外光の波長領域を撮像する撮像部(15)と、検出対象面上における手の先端部を検出する第1の赤外光と、第1の赤外光より検出対象面から離れた領域に照射される第2の赤外光とを照射する赤外光照射部(11)と、第1の赤外光と第2の赤外光とを照射することにより撮像部(15)によって撮像された画像に基づいて、手の向きを検出し、第1の赤外光を照射することにより撮像された画像に基づいて抽出された先端部の画像領域と、検出した手の向きとに基づいて、検出対象面上の先端部の位置を検出する検出部(19)と、を備える。

Description

検出装置、入力装置、プロジェクタ、及び電子機器
 本発明は、検出装置、入力装置、プロジェクタ、及び電子機器に関する。
 本願は、2011年3月15日に出願された日本国特願2011-056819号および2012年3月2日に出願された日本国特願2012-046970号に基づき優先権を主張し、その内容をここに援用する。
 ユーザによる指示動作を検出するための検出装置並びにその検出装置を用いた入力装置が、知られている(例えば、特許文献1を参照)。
 特許文献1に記載されている入力装置では、ユーザが投影像を直接指示し、ユーザの指又はユーザが持つスタイラス(stylus)の動きになどを検出することにより指示を検出し、検出した指示によって文字などを入力することが可能となっている。その際、例えば、赤外光の反射を利用して検出されるようになっている。また、ユーザの指による押下動作は、例えば、指の押下前後における赤外像の違いを解析することで検出されるようになっている。
特表2003-535405号公報
 しかしながら、特許文献1では、単に、ユーザの指又はユーザが持つスタイラスの動きを検出しているため、例えば、装置の側面から指示されたような場合に、指示が誤検出されてしまうことがある。
 本発明の態様は、ユーザによる指示の誤検出を低減できる検出装置、入力装置、プロジェクタ、及び電子機器を提供することを目的とする。
 本発明の一実施形態は、赤外光の波長領域を撮像する撮像部と、検出対象面上における指示部の先端部を検出する第1の赤外光と、前記第1の赤外光より前記検出対象面から離れた領域に照射される第2の赤外光とを照射する照射部と、前記第1の赤外光と前記第2の赤外光とを照射することにより前記撮像部によって撮像された画像に基づいて、前記指示部の向きを検出し、前記第1の赤外光を照射することにより撮像された画像に基づいて抽出された前記先端部の画像領域と、検出した前記指示部の向きとに基づいて、前記検出対象面上の前記先端部の位置を検出する検出部とを備えることを特徴とする検出装置である。
 また、本発明の一実施形態は、上記検出装置を備えることを特徴とする入力装置である。
 また、本発明の一実施形態は、上記入力装置と、前記検出対象面に画像を投影する投影部とを備えることを特徴とするプロジェクタである。
 また、本発明の一実施形態は、上記入力装置を備えることを特徴とする電子機器である。
 本発明の態様によれば、ユーザによる指示の誤検出を低減できる。
本発明の一実施形態を説明するための斜視図である。 図1のプロジェクタの内部構成を示すブロック図である。 図1の第1の赤外光照射部における垂直方向の光束を示す側面図である。 図1の第1の赤外光照射部における水平方向の光束を示す平面図である。 図1の第2の赤外光照射部における垂直方向の光束を示す側面図である。 図1の第2の赤外光照射部の変形例における垂直方向の光束を示す側面図である。 図2の検出装置の動作を説明するためのタイミングチャートである。 図2の検出装置の動作を説明するために用いる画像の一例を示す図である。 図2の検出装置の動作を説明するために用いるユーザの手の形の一例を示す図である。 図2の検出装置の動作を説明するために用いるユーザの手の形の一例を示す図である。 図2の検出装置の動作を説明するために用いるユーザの手の形の一例と差分画像の一例を示す第1の図である。 図2の検出装置の動作を説明するために用いるユーザの手の形の一例と差分画像の一例を示す第1の図である。 図2の検出装置の動作を説明するために用いるユーザの手の形の一例と差分画像の一例を示す第2の図である。 図2の検出装置の動作を説明するために用いるユーザの手の形の一例と差分画像の一例を示す第2の図である。 図2の検出装置の動作を説明するために用いるユーザの手の形の一例と差分画像の一例を示す第3の図である。 図2の検出装置の動作を説明するために用いるユーザの手の形の一例と差分画像の一例を示す第3の図である。 本発明の他の実施形態における動作を説明するためのタイミングチャートである。 本発明の他の実施形態における動作を説明するために用いる画像の一例を示す図である。 本発明の他の実施形態のプロジェクタの内部構成の一例を示すブロック図である。 図15の検出装置の動作の一例を示す第1の図である。 図15の検出装置の動作の一例を示す第2の図である。 図15のプロジェクタの動作の一例を示す図である。 図15のプロジェクタの動作の別の一例を示す図である。 図15の検出装置の動作の別の一例を示す第1の図である。 図15の検出装置の動作の別の一例を示す第2の図である。 図15の検出装置をタブレット端末に適用した一例を模式図である。 図22のタブレット端末の構成の一例を示すブロック図である。 図23のタブレット端末における赤外光照射部と撮像部の一例を示す図である。 図23のタブレット端末における赤外光照射部と撮像部の一例を示す図である。 図23のタブレット端末における撮像部の別の一例を示す第1の図である。 図23のタブレット端末における撮像部の別の一例を示す第2の図である。 図23のタブレット端末における撮像部の別の一例を示す第3の図である。
 以下、図面を参照して本発明の実施形態について説明する。
 [第1の実施形態]
 図1は、本発明の一実施形態としての検出装置を説明するための斜視図である。図2は、本発明の一実施形態としての検出装置を説明するためのブロック図である。なお、各図において、同一の(あるいは対応する)構成には同一の符号を用いている。
 図1に示すプロジェクタ30は、本発明が特徴とする検出装置10(図2参照)を内部に備えるとともに、外部に面する位置に投影部31(の照射口)を備えて、検出対象面2に投影像3を投影する。さらに、プロジェクタ30は、外部に面する位置に、第1の赤外光照射部12、第2の赤外光照射部13及び撮像部15を備えている。
 検出対象面2は、この実施形態では机の天板であるとする。ただし、検出対象面2は、壁面、天井面、床面、映写用スクリーン、黒板、白板などの平面体、球状などの曲面体、ベルトコンベアなどの移動体であってもよい。また、検出対象面2は、投影像3が投影される面に限らず、液晶ディスプレイなどのフラットパネルであってもよい。
 図2に示すように、プロジェクタ30は、入力装置20、投影部31、投影像生成部32及び画像信号入力部33を備えている。
 また、入力装置20は、検出装置10及びシステム制御部21を備えている。
 投影部31は、光源、液晶パネル、レンズ、それらの光源やレンズ、液晶パネルの制御回路などを備えて構成されている。投影部31は、投影像生成部32から入力された画像を拡大して検出対象面2に投射し、投影像3を生成する。
 投影像生成部32は、画像信号入力部33から入力された画像と、入力装置20内のシステム制御部21から入力された制御情報(あるいは画像情報)とに基づいて、投影部31に出力する画像を生成する。画像信号入力部33から入力された画像は、静止画像や動画像である。システム制御部21から入力された制御情報(あるいは画像情報)とは、ユーザによる指示動作の内容に基づいて投影像3を変化させることを指示するための情報である。ここで、ユーザによる指示動作の内容は、検出装置10によって検出される。
 システム制御部21は、検出装置10によって検出されたユーザによる指示動作の内容に基づいて投影像生成部32に出力する制御情報を生成する。また、システム制御部21は、検出装置10内の物体抽出部17や指示点抽出部18の動作を制御する。また、システム制御部21は、物体抽出部17や指示点抽出部18から抽出結果を受け取る。なお、システム制御部21は、CPU(中央処理装置)、主記憶装置、補助記憶装置、他の周辺装置などを備え、所定のプログラムを実行することで種々の機能を実現する装置として構成できる。また、システム制御部21は、検出装置10内の一部の構成を含む(すなわちシステム制御部21と検出装置10とを統合する)ように構成されていてもよい。
 検出装置10は、赤外光照射部11、赤外光制御部14、撮像部15、フレーム画像取得部16、物体抽出部17及び指示点抽出部18を備えて構成されている。なお、検出装置10の構成のうち、物体抽出部17及び指示点抽出部18が、検出部19に対応する。
 赤外光照射部11は、第1の赤外光照射部12と第2の赤外光照射部13とを備えている。赤外光制御部14は、第1の赤外光照射部12と第2の赤外光照射部13との赤外線の点灯及び消灯時刻を制御して、第1の赤外光と第2の赤外光とを点滅制御するとともに、第1の赤外光と第2の赤外光との強度を制御する。赤外光制御部14は、第1の赤外光と第2の赤外光との点滅制御を、フレーム画像取得部16から供給される同期信号に同期させて制御する。
 撮像部15は、CCD(電荷結合素子)などからなる撮像素子、レンズ、赤外線透過フィルタなどから構成されている。撮像部15は、赤外線透過フィルタを透過して入射した赤外光の波長領域を撮像素子で撮像することで、すなわち、第1の赤外光及び第2の赤外光の反射光を撮像することで、ユーザの手や指の検出対象面2上での動きを動画で(あるいは連続静止画で)撮影する。撮像部15は、動画撮影の垂直同期信号(vsync)とフレーム毎の画像信号とをフレーム画像取得部16に出力する。フレーム画像取得部16は、撮像部15で撮像された各フレームの画像信号と垂直同期信号とを撮像部15から順次取得する。フレーム画像取得部16は、取得した垂直同期信号に基づいて所定の同期信号を生成し、赤外光制御部14に出力する。
 検出部19は、第1の赤外光と第2の赤外光とを照射することにより撮像部15によって撮像された画像に基づいて、手(指示部)などの向きを検出する。そして、指示点抽出部18は、第1の赤外光を照射することによって撮像された画像に基づいて抽出された先端部の画像領域と、物体抽出部17で検出された手(指示部)の向きとに基づいて、検出対象面2上の指(先端部)の位置を検出する。
 物体抽出部17は、第1の赤外光と第2の赤外光とを照射することにより撮像部15によって撮像された画像に基づいて、手(指示部)の画像領域と、先端部の画像領域とを抽出する。
 指示点抽出部18は、物体抽出部17が抽出した手(指示部)の画像領域と、先端部の画像領域とに基づいて、手(指示部)などの向きを検出する。そして、指示点抽出部18は、先端部の画像領域と手(指示部)の向きとに基づいて、検出対象面2上の指(先端部)の位置を検出する。
 なお、第1の赤外光照射部12は、検出対象面2上においてユーザの手の指、ユーザが持つスタイラスの先端などの指示部(指示部=手やスタイラス)の先端部(すなわち指やスタイラスの先端)を検出するための第1の赤外光を照射する。第2の赤外光照射部13は、第1の赤外光より検出対象面2から離れた領域に照射される第2の赤外光を照射する。第1の赤外光照射部12の出射部と、第2の赤外光照射部13の出射部とは、図1に示すようにプロジェクタ30の外部前面に上下に並んで配置されている。
 また、図1に示す例では、プロジェクタ30の外部前面に、撮像部15、投影部31、第1の赤外光照射部12の出射部及び第2の赤外光照射部13の出射部が直線状に上下に整列して設置されている。なお、以下では、「指示部」がユーザの「手」、指示部の「先端」がユーザの「指」、である場合を例にして説明する。
 第1の赤外光は、図3の側面図及び図4の平面図に照射領域121として示す検出対象面2とほぼ平行な平行光である。第1の赤外光照射部12は、例えば赤外線LED(発光ダイオード)と、ガルバノスキャナや非球面反射鏡などから構成されている。第1の赤外光照射部12は、図3に示すように、検出対象面2に対して垂直方向の照射領域121が、検出対象面2(の表面)にできるだけ近い高さで、できるだけ狭い照射幅を有し、できるだけ平行な光となるような光束を有するように構成されている。
 また、図4に示すように、平面方向の照射領域121は、扇形の形状を有し、投影像3の多くの部分を覆うように調整されている。この第1の赤外光は、指の先端が検出対象面2に接触していることを検出するために用いられる。なお、第1の赤外光照射部12は、例えば、平面上で比較的狭い指向性を有する平行光赤外線LEDを同一平面上で異なる方向に複数設置して図4に示すように平面上に広い指向性を有するようにすることで、構成することもできる。
 第2の赤外光は、ユーザの手全体(あるいは手の大部分)を検出するために用いられる。したがって、第2の赤外光の垂直方向の照射領域は、例えば、図3に示すような照射領域121の垂直方向の幅を大きくしたものとすることができる。すなわち第2の赤外光は、検出対象面2に対して、ユーザの手全体を照射するのに十分な広さの照射幅を有し、できるだけ平行な光となるような光束を有するものとすることができる。
 ただし、幅の広い平行光を得るには、光学系を大きくしてしまったり、複雑化してしまったりすることがある。そこで、構成を簡易にするには、例えば、図5の側面図に照射領域131として示すように、検出対象面2に対して垂直方向上方に向けて拡散する拡散光とすることが考えられる。この場合、第2の赤外光の照射領域131は、検出対象面2に対して垂直方向下方にはなるべく拡散しないような光束を有するように設定されていることが望ましい。なぜならば、下方に向かう光を弱くすることで、検出対象面2からの赤外光の反射を小さく抑えることができるからである。そうすると、手(すなわち指示部)以外からの反射を抑え、後述する物体抽出時の物体検出の感度を良好にできる。
 なお、第2の赤外光照射部13は、例えば赤外線LED単体で構成したり、あるいは赤外線LEDとガルバノスキャナや非球面反射鏡などを用いて構成したりできる。また、第2の赤外光の平面方向の照射領域は、図4に示した第1の赤外光の平面方向の照射領域121と同様に、扇形の形状を有し、投影像3の多くの部分を覆うように調整されている。
 なお、第2の赤外光照射部13及び第2の赤外光は、図1又は図5に示すような設置位置や照射幅を有するもののほか、図6に示すようなものとすることができる。
 図6に示す構成は、図5に示した第2の赤外光照射部13に代えて、図3に示した第1の赤外光照射部12と同様な構成の第2の赤外光照射部13aを複数設けた構成である。
 図6に示すプロジェクタ30a(プロジェクタ30に対応)には、図3に示した第1の赤外光照射部12と同様な構成の第1の赤外光照射部12aと、複数の第2の赤外光照射部13aとが、垂直方向に一例に並べて設置されている。この場合、第1の赤外光照射部12aは、第1の赤外光を照射するために用いられるとともに、複数の第2の赤外光照射部13aとともに第2の赤外光を照射するためにも使用される。すなわち、図6に示すプロジェクタ30aでは、第1の赤外光照射部12aと複数の第2の赤外光照射部13aとを用いて、垂直方向に照射幅が広い照射領域131aが発生される。
 次に、図7~図9Bを参照して、検出装置10の動作について説明する。
 まず、図7を参照して、赤外光制御部14による第1の赤外光及び第2の赤外光の照射タイミングの制御について説明する。図7は、撮像部15から出力された垂直同期信号(vsync)、第1の赤外光の点灯及び消灯、及び第2の赤外光の点灯及び消灯の時間変化の関係(及び赤外光の強度の関係)を示すタイミングチャートである。
 図7は、撮像部15による撮像動画のn番目のフレームからn+3番目のフレームまでの動作を示している(ただし、nは自然数)。図7に示すように、第1及び第2の赤外光の照射タイミングは、撮像部15のフレーム切り替えタイミングに合わせて切り替えられるようになっている。
 例えば、nフレーム目は第1の赤外光の照射、n+1フレーム目は第2の赤外光の照射、n+2フレーム目は第1の赤外光の照射、…、のように、フレームタイミングに応じて赤外光の照射が時系列で切り替わるように、赤外光制御部14によって制御される。また、本実施形態では、図7に示すように、第1の赤外光の強度が、赤外光制御部14によって、第2の赤外光の強度よりも大きくなるように制御されている。
 図8に、図7のnフレーム(第1の赤外光照射時)の画像(第1の画像)の一例の画像50と、n+1フレーム(第2の赤外光照射時)の画像(第2の画像)の一例の画像53とを示した。なお、図8の画像50及び53は、図9A及び図9Bに示すような握り方をした手4が検出対象面2上に置かれた場合の撮影画像を示している。
 図9Aは平面図、図9Bは側面図である。この例では、図9Bに示すように、手4は人差し指の先端41で検出対象面2に接触し、他の指は接触していない。図8の画像50では、図9A及び図9Bの人差し指の先端41の部分が高輝度領域(すなわち画素値の大きい領域;第1の赤外光の反射領域)52となっているほかは、低輝度領域(すなわち画素値の小さい領域)51となっている。一方、図8の画像53では、図9A及び図9Bの手4の全体が中輝度領域(すなわち画素値が中程度の領域;第2の赤外光の反射領域)55となっているほかは、低輝度領域54となっている。
 図2のフレーム画像取得部16は、撮像部15からフレーム単位で画像を取得する。そして、取得した画像を物体抽出部17に出力する。この例では、フレーム画像取得部16が図9A及び図9Bに示す画像50及び画像53を物体抽出部17に出力した場合の例を説明する。
 物体抽出部17は、フレーム画像取得部16から2フレーム分の画像データを受け取ると、nフレームの画像50と、n+1フレームの画像53とについて、対応する画素毎に画素値の差分を算出することで、画像中に含まれる指示部とその先端部の撮像領域を抽出する。すなわち、物体抽出部17は、nフレームの画像50と、n+1フレームの画像53とについて、撮像部15の撮像素子において同一位置に位置する画素毎に、画素値が大きいものから、画素値の小さいものを差し引く処理(すなわち差分処理)を行う。
 この差分を算出する処理の結果得られた画像の一例を、図8に画像56として示す。図8に示す例では、画像56に、低輝度領域57、中輝度領域59、高輝度領域58が含まれている。中輝度領域59は、画像53の中輝度領域55(すなわち手4の全体)に対応し、高輝度領域58は画像50の高輝度領域52(すなわち人差し指の先端41)に対応している。
 このように、赤外光制御部14は、図7に示したように、撮像素子の垂直同期信号(vsync)に合わせて赤外光の照射タイミングを切り替えることで、フレーム間の赤外光照射状態を変化させる。ここでは、第1の赤外光がON(点灯)の場合は、第2の赤外光がOFF(消灯)となり、第1の赤外光がOFFの場合は、第2の赤外光がONとなる。
 撮像部15で撮像されたフレーム取得画像には、太陽光や屋内の照明環境によって放射された赤外光によって、手4以外の周辺の物体も写り込む。また、第1の赤外光に比べて第2の赤外光の強度を低くさせることで第1の赤外光照射時と手4の表示状態とが区別されている。そのため、物体抽出部17は、第1の赤外光照射時と第2の赤外光照射時のフレーム画像の差分を取ることで手4だけを切り出すことが可能となる。
 図8の例では、この差分画像56に含まれる手の領域59の画素値と指の先端の領域58の画素値とは異なる値となる。したがって、差分画像50を所定の画素値の範囲毎に多値化することで手の領域59と指先端の領域58とをそれぞれ抽出できる。すなわち、物体抽出部17は、差分画像の算出処理と、多値化処理によって、手の領域59と指先端の領域58とを抽出できる。
 次に、指示点抽出部18は、物体抽出部17によって抽出された手の領域59と指の先端領域58から、指示動作を行ったと推定される指の先端領域(すなわち指示点)を抽出する。図8に示す例では、指の先端領域58(すなわち第1の赤外光の反射領域)は1カ所なので、同領域が指示動作を行った領域として抽出される。
 ここで、図10A及び図10Bを参照して、第1の赤外光の反射領域が複数ある場合の指示点抽出部18の抽出処理について説明する。
 図10A及び図10Bに示す例では、図10Aに示すように、矢印で示す手の向き(すなわち装置(=プロジェクタ30)正面から入ってきた向き)で手4aが検出対象面2上に置かれ、かつ全ての指が検出対象面2に接触していたものとしている。この場合、物体抽出部17は、図10Bに示すような差分画像60を算出する。この差分画像60には、低輝度領域61、高輝度領域62~64及び中輝度領域65が含まれている。
 指示点抽出部18は、物体抽出部17からこの差分画像60を受け取ると、高輝度領域(すなわち第1の赤外光の反射領域)が複数含まれているため、所定の画像処理を行って、手(指示部)4aの向きを検出する処理を行う。
 所定の画像処理としては、次のようなものを用いることができる。すなわち、1つの手法として、中輝度領域(指示部の画像領域)のパターンと予め定められた基準パターンとの比較によるパターンマッチングがある。他の手法として、撮像部15の撮像範囲以内に予め指定された検出範囲の境界線のうち、中輝度領域(指示部の画像領域)と重なる位置を検出することで手の腕側(根元側)の方向を得るものがある。さらに他の手法として、過去に抽出した中輝度領域(指示部の画像領域)の動きベクトルに基づいて、手の差し出し方向を算出するものがある。そして、これらの1つ又は組み合わせによって、指示部の向きを検出できる。
 この場合、指示点抽出部18によって、図10Bに矢印で示す手の向きが検出されたとする。指示点抽出部18は、手の向きと、高輝度領域(すなわち第1の赤外光の反射領域)の位置とに基づいて、手(指示部)の先端部(指示点と呼ぶ)の位置を抽出する。例えば、手が装置正面から入ってきた場合は第1の赤外光で反射された領域のうち最も下にある領域を指示点とする。また、例えば、手が装置左側面から入った場合は最も右にある領域を指示点とする。
 図10A及び図10Bに示す例では、指示点抽出部18は、手4aが装置正面から入ってきたと認識するので、第1の赤外光で反射された領域のうち最も下にある領域、すなわち高輝度領域63を指示点と決定する。そして、指示点抽出部18は、高輝度領域63の位置情報をシステム制御部21に出力する。
 次に、図11A及び図11Bを参照して、第1の赤外光の反射領域が複数ある場合の指示点抽出部18の抽出処理の他の例について説明する。図11A及び図11Bに示す例では、図11Aに示すように、矢印で示す手の向き(すなわち、図9Aにおいて装置に対して右上からの方向)で手4bが検出対象面2上に置かれ、かつ人差し指42と親指43とが検出対象面2に接触していたものとしている。この場合の物体抽出部17は、図11Bに示すような差分画像70を算出する。
 この差分画像70には、低輝度領域71、高輝度領域72~74及び中輝度領域75が含まれている。指示点抽出部18は、物体抽出部17から画像70を受け取ると、高輝度領域(すなわち第1の赤外光の反射領域)が複数含まれているため、上述したような画像処理を行って、手(指示部)4bの向きを検出する処理を行う。
 この場合、指示点抽出部18によって、図11Bに矢印で示す手の向きが検出されたとする。すなわち、図11A及び図11Bに示す例では、指示点抽出部18は、手4bが装置やや斜めから入ってきたと認識するので、第1の赤外光で反射された領域のうち手の向きの最先端の領域(すなわち高輝度領域72)を指示点と決定する。そして、指示点抽出部18は、高輝度領域72の位置情報をシステム制御部21に出力する。
 また、図12A及び図12Bに示す例では、図12Aに示すように、矢印で示す手の向きで手4cが検出対象面2上に置かれ、かつ人差し指45が検出対象面2に接触していたものとしている。この場合の物体抽出部17は、図12Bに示すような差分画像80を算出する。この差分画像80には、低輝度領域81、高輝度領域82及び中輝度領域83が含まれている。指示点抽出部18は、物体抽出部17から画像80を受け取ると、高輝度領域(すなわち第1の赤外光の反射領域)が1カ所であるため、高輝度領域82を指示点と決定する。そして、指示点抽出部18は、高輝度領域82の位置情報をシステム制御部21に出力する。
 この例では、図12Aに示すように、手の向きの最先端の位置には、人差し指45の先端と、中指46の先端とが位置している。ただし、人差し指45は検出対象面2に接触、中指46は検出対象面2に非接触である。この場合に、仮に、第1の赤外光を用いた画像撮影を行っていなかった場合にはどこを指示点とするかの判定が困難となるが、本実施形態では第1の赤外光を用いることで接触した指が高輝度領域として示されるので容易に判定を行うことができる。
 なお、図2の指示点抽出部18では、指示点の位置を抽出するだけでなく、過去に抽出した指示点の位置情報に基づく移動ベクトルを算出する処理を行うようにしてもよい。この場合に、例えば図11Aに実線の矢印で示すように、人差し指42と親指43とが閉じたり開いたりするように動いたことが検出された場合には、その旨を示す情報をシステム制御部21に出力するようにする。ただし、この場合には、指示点抽出部18内に(あるいは他の記憶装置内に)過去の一定期間のすべての高輝度領域の位置情報を移動ベクトルとともに記憶しておくようにする。このようにすることで、手(指示部)の動きを検出できる。なお、指示点の動き検出には、パターン認識の手法などを用いてもよい。
 また、本実施形態における検出装置10は、複数の先端部の位置を検出可能である。
 例えば、図11Bに示すように、指示点抽出部18は、矢印で示す手の向きと、高輝度領域72~74(指先端の領域72~74)とから、矢印で示す手の向きに近い先端部である、高輝度領域72及び高輝度領域74を先端部の位置として検出する。
 また、図12A及び図12Bにおいて、例えば、指示点抽出部18は、手の向きと高輝度領域とに基づいて、複数の先端部の位置を検出する。この場合、手の向きに近い全ての高輝度領域を、先端部の位置として検出する。この例では、図12Bに示すように、高輝度領域82を先端部の位置としているが、図12Aの中指46と人差し指45とが検出対象面2に接触する場合には、物体抽出部17によって、高輝度領域が2箇所抽出される。そして、指示点抽出部18は、手の向きに近い先端部である中指46と人差し指45とに対応する高輝度領域を先端部の位置として検出する。
 なお、図11A及び図11B、及び、図12A及び図12Bにおいて、指示点抽出部18は、中輝度領域75(又は83)をパターン認識の手法などを用いて手(指示部)の形状を抽出し、手(指示部)の形状に基づいて、複数の先端部を検出するか否かを判定してもよい。例えば、指示点抽出部18は、中輝度領域83をパターン認識の手法などを用いて、図12A及び図12Bに示す手の形状が、キーボードを押下する際の形状である判定し、複数の先端部の位置を検出する。これにより、本実施形態における検出装置10は、キーボードにおける複数の指の検出に対応できる。
 また、指示点抽出部18は、投影部31から検出対象面2に投影される投影像3の内容と手の向きに基づいて、複数の先端部を検出するか否かを判定してもよい。例えば、投影像3としてキーボードが投影され、手の向きがキーボードを押下する向きである場合に、指示点抽出部18は、複数の先端部の位置を検出してもよい。また、指示点抽出部18は、上述した手(指示部)の動きを検出することによって、複数の先端部を検出するか否かを判定してもよい。
 また、図7を参照して説明した例では、第1の赤外光の強度と第2の赤外光の強度とを互いに異ならせる場合について説明した。これについては、撮像部15で、第1の赤外光による反射光の画素値(輝度)と、第2の赤外光による反射光の画素値(輝度)とを異ならせることが目的であった。したがって、強度を異ならせることに代えて、次のような手法を採用することも可能である。すなわち、例えば、撮像部15を構成する撮像素子の周波数特性に合わせて第1の赤外光による画素値が比較的大きくなり、第2の赤外光による画素値が比較的小さくなるように、第1の赤外光の波長と第2の赤外光の波長とを異ならせることができる。また、同様の効果を得るため、第1の赤外光の波長と第2の赤外光の波長を異ならせることに加えて、撮像部15を構成する赤外線透過フィルタの特性を変更してもよい。
 以上のように、本実施形態における検出装置10は、撮像部15が、赤外光の波長領域を撮像し、赤外光照射部11(照射部)が、検出対象面2上における指示部の先端部を検出する第1の赤外光と、第1の赤外光より検出対象面2から離れた領域に照射される第2の赤外光とを照射する。そして、検出部19は、第1の赤外光と第2の赤外光とを照射することにより撮像部15によって撮像された画像に基づいて、指示部の向きを検出する。さらに、検出部19は、第1の赤外光を照射することにより撮像された画像に基づいて抽出された先端部の画像領域と、検出した指示部の向きとに基づいて、検出対象面2上の先端部の位置を検出する。
 これにより、照射領域が互いに異なる第1の赤外光及び第2の赤外光を用いて指示部の向きが検出されるとともに、第1の赤外光を照射することにより撮像された画像に基づいて抽出された先端部の画像領域と、検出された指示部の向きとに基づいて、検出対象面上の先端部の位置が検出される。すなわち、本実施形態における検出装置10は、手の向きを検出するようにしているので、複数の先端部がある場合や手の向きの違いによる指示の誤検出を低減できる。なお、本実施形態における検出装置10は、赤外光を用いるので、人の肌の色の影響を受けずに、手を検出可能であるので、指示の誤検出を低減できる。
 また、照射領域が異なる第1の赤外光及び第2の赤外光のうち、第1の赤外光が検出対象面2上における指示部の先端部を検出するように設けられている。そのため、本実施形態における検出装置10は、先端部の位置や動きの検出精度を向上させることができる。
 また、本実施形態において、第1の赤外光及び第2の赤外光は、検出対象面2と平行な平行光である。この場合、検出対象面2と平行な赤外光を使用するため、指示部の先端部や動きを精度よく検出できる。よって、本実施形態における検出装置10は、ユーザによる指示の誤検出を低減し、検出精度を向上させることができる。
 また、本実施形態において、第1の赤外光が検出対象面2と平行な平行光であり、第2の赤外光が検出対象面2と垂直な方向に拡散する拡散光である。この場合、第2の赤外光に拡散光を使用するため、広い範囲の検出を行うことができる。そのため、本実施形態における検出装置10は、ユーザによる指示の誤検出を低減し、検出精度を向上させることができる。また、第2の赤外光に平行光にする必要がないため、第2の赤外光照射部13を簡易な構成にできる。
 また、本実施形態において、赤外光照射部11は、撮像部15の撮像タイミングに応じて、第1の赤外光と第2の赤外光とを切り替えて照射する。そして、検出部19は、第1の赤外光を照射することにより撮像された第1の画像(画像50)及び第2の赤外光を照射することにより撮像部15によって撮像された第2の画像(画像53)に基づいて、指示部の向きを検出する。
 これにより、第1の画像(画像50)と第2の画像(画像53)とを容易に取得できる。
 また、本実施形態において、赤外光照射部11は、第1の赤外光と第2の赤外光とを互いに異なる光の強度で照射する。検出部19(物体抽出部17)は、互いに異なる光の強度を照射して撮像された第1の画像(画像50)と第2の画像(画像53)との差分画像に基づいて、指示部の画像領域(手の領域59)と先端部の画像領域(指先端の領域58)とを抽出し、抽出した指示部の画像領域に基づいて指示部の向きを検出し、検出した指示部の向きと先端部の画像領域とに基づいて、先端部の位置を検出する。
 これにより、検出部19(物体抽出部17)は、第1の画像(画像50)と第2の画像(画像53)との差分画像を生成することにより、容易に、指示部の画像領域(手の領域59)及び先端部の画像領域(指先端の領域58)を抽出できる。また、第1の画像(画像50)及び第2の画像(画像53)には、太陽光や屋内の照明環境によって放射された赤外光が写り込んでいるが、検出部19(物体抽出部17)は、この差分画像を生成することにより、この写り込みを除外できる。したがって、本実施形態における検出装置10は、ユーザによる指示の誤検出を低減し、検出精度を向上させることができる。
 また、本実施形態において、検出部19(物体抽出部17)は、差分画像を多値化し、多値化した差分画像に基づいて、指示部の画像領域(手の領域59)と先端部の画像領域(指先端の領域58)とを抽出する。
 これにより、多値化した差分画像に基づいて抽出するため、検出部19(物体抽出部17)は、指示部の画像領域(手の領域59)と先端部の画像領域(指先端の領域58)とを容易に抽出できる。
 また、本実施形態において、検出部19(指示点抽出部18)は、指示部の画像領域(手の領域59)のパターンと予め定められた基準パターンとの比較によるパターンマッチング、撮像部15の撮像範囲以内に予め指定された検出範囲の境界線のうち、指示部の画像領域(手の領域59)と重なる位置、及び指示部の画像領域(手の領域59)の動きベクトルのうちのいずれか1つ又は組み合わせによって、指示部の向きを検出する。
 これにより、検出部19(指示点抽出部18)は、容易、且つ検出精度よく指示部の向きを検出できる。そのため、本実施形態における検出装置10は、ユーザによる指示の誤検出を低減し、検出精度を向上させることができる。
 また、本実施形態において、検出部19(指示点抽出部18)は、指示部の向きと先端部の画像領域(例えば指先端の領域72及び74)とに基づいて、複数の先端部の位置を検出する。
 これにより、本実施形態における検出装置10は、複数の位置を検出する用途に適用できる。例えば、複数の指を用いるキーボードや手の動きを検出するモーション検出に適用できる。
 [第2の実施形態]
 次に、図13及び図14を参照して、本発明の他の実施形態について説明する。
 本実施形態は、図13のタイミングチャートに示すように、上記の第1の実施形態で2フレームを1単位として指示点を検出していたものを、3フレームを1単位として指示点を検出するようにしたものである。ただし、本実施形態では、第1の赤外光の強度と第2の赤外光の強度とを同一とすることができる。なお、本実施形態については、図2のブロック図では、各部の内部処理が一部異なることになる。
 本実施形態では、図13に示すように、第1の赤外光及び第2の赤外光共に照射しないフレームが付加される。例えば、nフレーム目は赤外光照射無し、n+1フレーム目は第1の赤外光の照射、n+2フレーム目は第2の赤外光の照射、…、のようになる。未照射時のフレーム画像を基準にして、第1の赤外光及び第2の赤外光照射時それぞれの取得画像から差分画像を抽出して手の向きと指示点を計算する。図14を参照して、物体抽出処理と指示点抽出処理の内容について具体的に説明する。
 図14は、nフレーム目(赤外光照射なし時)の取得画像90(第3の画像)、n+1フレーム目(第1の赤外光照射時)の取得画像91(第1の画像)、n+2フレーム目(第2の赤外光照射時)の取得画像93(第2の画像)の一例を示す図である。なお、指示部(手)の状態は、図9A及び図9Bに示す通りである。この場合、画像91には、図9A及び図9Bの人差し指の先端41に対応する高輝度領域92が含まれ、画像93には、図9A及び図9Bの手4に対応する高輝度領域94が含まれている。
 図2に示す物体抽出部17は、フレーム画像取得部16から、nフレーム目の画像90、n+1フレーム目の画像91、及びn+2フレーム目の画像93を受け取ると、n+1フレーム目の画像91とnフレーム目の画像90との差分画像と、n+2フレーム目の画像93とnフレーム目の画像90との差分画像とを算出する。図14に、n+1フレーム目の画像91とnフレーム目の画像90との差分画像95と、n+2フレーム目の画像93とnフレーム目の画像90との差分画像97との算出結果を示した。この場合、画像95及び97の背景画像99からは、太陽光や屋内の照明環境によって放射された赤外光による影響が除かれている。また、画像95に含まれる高輝度領域96(先端部の画像領域)と画像97に含まれる高輝度領域98(指示部の画像領域)とに基づき、上記の実施形態と同様にして手の向きを検出可能である。
 以上のように、本実施形態における検出装置10は、撮像部15が、さらに、第1の赤外光及び第2の赤外光がともに照射されない期間の画像である第3の画像(画像90)を撮像する。また、検出部19(物体抽出部17)は、第1の画像(画像91)と第3の画像との差分画像、及び第2の画像(画像93)と第3の画像との差分画像に基づいて、指示部の画像領域と先端部の画像領域とを抽出する。検出部19(指示点抽出部18)は、抽出した指示部の画像領域に基づいて、指示部の向きを検出し、検出した指示部の向きと先端部の画像領域とに基づいて、先端部の位置を検出する。
 これにより、本実施形態における検出装置10は、第1の実施形態と同様に、手の向きを検出するようにしているので、複数の先端部がある場合や手の向きの違いによる指示の誤検出を低減できる。
 また、検出部19(物体抽出部17)は、第1の画像(画像91)と第3の画像との差分画像、及び第2の画像(画像93)と第3の画像との差分画像を生成することにより、容易に、指示部の画像領域及び先端部の画像領域を抽出できる。また、第1の画像(画像91)及び第2の画像(画像93)には、太陽光や屋内の照明環境によって放射された赤外光が写り込んでいるが、検出部19(物体抽出部17)は、この差分画像を生成することにより、この写り込みを除外できる。したがって、本実施形態における検出装置10は、ユーザによる指示の誤検出を低減し、検出精度を向上させることができる。
 また、本実施形態における検出装置10は、第1の赤外光と第2の赤外光との光の強度を変更する必要がない。そのため、赤外光照射部11の構成を簡易な構成にできる。
 なお、上記の実施形態によれば、入力装置20は、上述した検出装置10を備えている。これにより、入力装置20は、検出装置10と同様に、ユーザによる指示の誤検出を低減し、検出精度を向上させることができる。
 また、上記の実施形態によれば、プロジェクタ30は、入力装置20と、検出対象面2に画像を投影する投影部31とを備えている。これにより、プロジェクタ30は、先端部の位置や動きの検出する場合に、検出装置10と同様に、ユーザによる指示の誤検出を低減し、検出精度を向上させることができる。
 [第3の実施形態]
 次に、図15~図19を参照して、本発明の他の実施形態について説明する。
 図15は、別の実施形態としての検出装置10aを説明するためのブロック図である。なお、図15において、図2と同一の(あるいは対応する)構成には同一の符号を用いている。
 図15に示すように、本実施形態における検出装置10aは、空間位置抽出部191を備えている点が、上記の各実施形態と異なる。本実施形態における検出装置10aは、この空間位置抽出部191を備えることにより、ユーザの手が空間上に位置する場合の3次元座標を取得可能になっている。なお、本実施形態では、検出装置10aの構成のうち、物体抽出部17、指示点抽出部18及び空間位置抽出部191が、検出部19aに対応する。また、プロジェクタ30b(プロジェクタ30に対応)は、入力装置20a(入力装置20に対応)を備え、入力装置20aは、検出装置10a(検出装置10に対応)を備えている。
 空間位置抽出部191は、第2の赤外光を照射することにより撮像部15によって撮像された第2の画像に基づいて、撮像部15の撮像範囲内で手(指示部)が移動する空間上の指(先端部)の位置(3次元座標)を検出する。
 図16及び図17は、赤外光照射部11が図6に示すような構成である場合の本実施形態における検出装置10aの動作の一例を示す図である。
 図16及び図17に示すように、第2の赤外光照射部13aは、複数の第2の赤外光照射部(130a,130b,130c)を備えている。複数の第2の赤外光照射部(130a,130b,130c)は、それぞれ異なる高さの異なる第2の赤外光を照射する。すなわち、この複数の第2の赤外光照射部(130a,130b,130c)は、検出対象面2に対する垂直方向の照射範囲が互いに異なる第2の赤外光を照射する。
 また、本実施形態では、フレーム画像取得部16は、赤外光制御部14を介して複数の第2の赤外光照射部(130a,130b,130c)を異なるタイミングにより順番に第2の赤外光を照射させる。そして、撮像部15は、複数の第2の赤外光照射部(130a,130b,130c)それぞれに対して第2の画像を撮像する。つまり、撮像部15は、複数の第2の赤外光それぞれに対応した複数の第2の画像を撮像する。
 フレーム画像取得部16は、例えば、1フレーム目は最下段(第2の赤外光照射部130a)を照射させ、2フレーム目は一つ上の段(第2の赤外光照射部130b)・・・とフレームと同期させて、第2の赤外光を照射されるタイミングをずらしていく。撮像部15は、このような照射タイミングにより第2の画像を撮像し、撮像した第2の画像をフレーム画像取得部16に出力する。
 また、物体抽出部17は、フレーム画像取得部16によって取得された上述の第2の画像に基づいて、手(指示部)の画像領域(この場合、指の先端の画像領域)を抽出する。空間位置抽出部191は、例えば、物体抽出部17が抽出した指の先端の画像領域に基づいて、指の先端を検出した照射タイミングを判定する。空間位置抽出部191は、指の先端が検出された照射タイミングに対応する第2の赤外光照射部(130a,130b,130c)の高さに基づいて、高さ方向(垂直方向)の指の位置を検出する。このように、空間位置抽出部191は、上述した複数の第2の画像に基づいて、先端部(指の先端)の垂直方向(高さ方向)の位置を検出する。
 また、空間位置抽出部191は、撮像部15が撮像した第2の画像に基づいて、横方向及び奥行き方向の位置を検出する。空間位置抽出部191は、例えば、検出した高さ位置に応じて、先端部(指の先端)の縮尺(大きさ)を変化させることにより、横方向と奥行き方向の検出エリア(撮像範囲)における絶対位置が抽出する。すなわち、空間位置抽出部191は、抽出した指示部の画像領域の第2の画像上の位置及び大きさに基づいて、検出対象面2に対する水平方向の先端部の位置を検出する。
 例えば、図16は、第2の赤外光照射部130aが照射する第2の赤外光131bの照射範囲に指の先端がある場合を示している。この場合、撮像部15は、第2の赤外光131bに対応する第2の画像として画像101を撮像する。画像101において、破線102は、手4が存在する領域を示しており、領域103は、第2の赤外光131bが照射されている指の先端の部分(先端部の画像領域103)を示している。空間位置抽出部191は、この画像101に基づいて、第2の赤外光131bの照射位置に対応する高さ位置を垂直方向の先端部の位置として検出する。
 また、人の手において、指の先端部の幅は、ほぼ一定であることを利用して、空間位置抽出部191は、画像101上の画像領域103の位置と幅(大きさ)に基づいて、横方向及び奥行き方向(水平方向)の先端部の位置を検出(抽出)する。このように、空間位置抽出部191は、指示部(手)が移動する空間上の3次元位置を検出する。
 また、例えば、図17は、第2の赤外光照射部130cが照射する第2の赤外光131cの照射範囲に指の先端がある場合を示している。この場合、撮像部15は、第2の赤外光131cに対応する第2の画像として画像101aを撮像する。画像101aにおいて、破線102aは、手4が存在する領域を示しており、領域103aは、第2の赤外光131cが照射されている指の先端の部分(先端部の画像領域103a)を示している。空間位置抽出部191は、図16に示される場合と同様に、指示部(手)が移動する空間上の3次元位置を検出する。
 なお、図17では、図16に示される場合よりも、手4が高い位置にある。そのため、画像領域103aは、画像領域103に比べて、画像101aの上方の位置になるとともに、画像領域103aの幅(大きさ)は、画像領域103の幅(大きさ)よりも大きい。
 以上のように、本実施形態における検出装置10aの検出部19aは、第2の画像に基づいて、撮像部15の撮像範囲内で指示部(手)が移動する空間上の先端部の位置を検出する。これにより、検出装置10aは、空間上の先端部(指の先端)の位置(3次元位置)を検出できるので、例えば、指の位置に応じた、ユーザーインターフェース表示を行うことが可能になる。
 例えば、プロジェクタ30bは、図18に示すように、検出範囲(撮像部15の撮像範囲)に指が入った場合に、表示画面104から表示画面105に移り、メニュー106を表示する。さらに、指が検出対象面2に近づいた場合に、プロジェクタ30bは、表示画像107に示すように、拡大したメニュー108を表示し、指の先端が検出対象面2に接触した場合に、このメニューを選択したと判定する。そして、プロジェクタ30bは、選択されたメニューに対応する所定の処理を実行する。
 また、例えば、プロジェクタ30bは、図19に示すように、指が検出対象面2に近づいた場合に、キー表示109からキー表示109aに表示を変化させ、指の先端が検出対象面2に接触した場合に、このキー表示109aを押下したと判定する。そして、プロジェクタ30bは、指の先端が検出対象面2から離れた場合に、キー表示109aからキー表示109bに表示を変化させる。このように、検出装置10aは、指の押し下げ及び押し上げの操作を指の位置関係から検出できる。そのため、検出装置10aは、より実際のキーボード操作に近い環境を作り出すことができる。
 したがって、本実施形態における検出装置10aは、ユーザによる指示の誤検出を低減するとともに、上述のようなユーザーインターフェース表示が可能になるので利便性を向上させることができる。
 なお、ここで、表示される映像コンテンツ等は、ネットワークに接続されたサーバー装置上にあってもよく、プロジェクタ30bは、ネットワークを介してサーバー装置と通信しつつ、入力を制御可能であってもよい。
 また、例えば、赤外光照射部11は、検出対象面2に対する垂直方向の照射範囲が互いに異なる複数の第2の赤外光を順番に照射し、撮像部15は、複数の第2の赤外光それぞれに対応した複数の第2の画像を撮像する。そして、検出部19aは、複数の第2の画像に基づいて、先端部の垂直方向の位置を検出する。
 これにより、本実施形態における検出装置10aは、正確に先端部の垂直方向の位置を検出できる。
 さらに、検出部19aは、第2の画像に基づいて指示部の画像領域を抽出し、抽出した指示部の画像領域の第2の画像上の位置及び大きさに基づいて、検出対象面に対する水平方向の先端部の位置を検出する。
 これにより、本実施形態における検出装置10aは、簡易な手段により、水平方向の先端部の位置を検出できる。
 [第4の実施形態]
 次に、図20及び図21を参照して、本発明の他の実施形態について説明する。
 本実施形態では、検出装置10aがユーザの手が空間上に位置する場合の3次元座標を検出する第3の実施形態の変形例について説明する。
 なお、本実施形態におけるプロジェクタ30bの内部構成は、図15に示される第3の実施形態と同様である。
 また、本実施形態では、上述の3次元座標の検出を図5に示す赤外光照射部11に適用した場合について説明する。
 この場合、空間位置抽出部191は、第2の画像に基づいて指示部の画像領域を抽出し、抽出した指示部の画像領域における先端部の第2の画像上の位置及び大きさに基づいて先端部の垂直方向の位置を検出する。
 図20及び図21は、赤外光照射部11が図5に示すような構成である場合の本実施形態における検出装置10aの動作の一例を示す図である。
 図20及び図21に示すように、第2の赤外光照射部13は、放射状に第2の赤外光を照射する。そのため、物体抽出部17は、第2の画像に基づいて、手(指示部)の画像領域(この場合、手の全体の画像領域)を抽出する。
 例えば、図20は、第2の赤外光照射部13が照射する第2の赤外光131dの照射範囲の下方領域に指の先端がある場合を示している。この場合、撮像部15は、第2の赤外光131dに対応する第2の画像として画像101cを撮像する。画像101cにおいて、領域102cは、第2の赤外光131dが照射されている手の画像領域(指示部の画像領域)を示している。検出部19aは、この画像101cに基づいて、第2の赤外光131dの照射位置に対応する高さ位置を垂直方向の先端部の位置として検出する。
 具体的に、物体抽出部17は、画像101cに基づいて、手の画像領域(領域102c)を抽出する。人の手において、指の先端部の幅は、ほぼ一定であることを利用して、空間位置抽出部191は、物体抽出部17が抽出した指示部の画像領域(領域102c)における先端部の第2の画像上の位置及び大きさに基づいて先端部の垂直方向の位置を検出する。
 また、同様に、人の手において、指の先端部の幅は、ほぼ一定であることを利用して、空間位置抽出部191は、画像101上の指示部の画像領域(領域102c)の位置と幅(大きさ)に基づいて、横方向及び奥行き方向(水平方向)の先端部の位置を検出(抽出)する。このように、空間位置抽出部191は、指示部(手)が移動する空間上の3次元位置を検出する。
 また、例えば、図21は、第2の赤外光照射部13が照射する第2の赤外光131dの照射範囲の上方領域に指の先端がある場合を示している。この場合、撮像部15は、第2の赤外光131dに対応する第2の画像として画像101dを撮像する。画像101dにおいて、領域102dは、第2の赤外光131dが照射されている手の画像領域(指示部の画像領域)を示している。空間位置抽出部191は、図16に示される場合と同様に、指示部(手)が移動する空間上の3次元位置を検出する。
 なお、図21では、図20に示される場合よりも、手4が高い位置にある。そのため、画像領域102dは、画像領域102cに比べて、画像101dの上方の位置になるとともに、画像領域102dにおける先端部(指の先端)の幅(大きさ)は、画像領域102cにおける先端部(指の先端)の幅(大きさ)よりも大きい。
 以上のように、本実施形態における検出装置10aの検出部19aは、第2の画像に基づいて、撮像部15の撮像範囲内で指示部(手)が移動する空間上の先端部の位置を検出する。これにより、検出装置10aは、第3の実施形態と同様に、空間上の先端部(指の先端)の位置(3次元位置)を検出できる。そのため、例えば、指の位置に応じた、ユーザーインターフェース表示を行うことが可能になる。
 また、本実施形態によれば、検出部19aは、第2の画像に基づいて指示部の画像領域を抽出し、抽出した指示部の画像領域における先端部の第2の画像上の位置及び大きさに基づいて先端部の垂直方向の位置を検出する。
 これにより、本実施形態における検出装置10aは、簡易な手段により先端部の垂直方向の位置を検出できる。
 [第5の実施形態]
 次に、図22及び図23を参照して、本発明の他の実施形態について説明する。
 本実施形態では、上述した検出装置10aをタブレット端末40に適用した場合の一例について説明する。
 図22は、検出装置10aをタブレット端末40に適用した一例を模式図である。
 図22において、タブレット端末40(電子機器)は、一例として、第4の実施形態における検出装置10aを備えている。なお、検出装置10aは、タブレット端末40に取り付けられて一体とされていてもよいし、タブレット端末40に着脱可能に取り付けられてもよい。
 また、図23は、タブレット端末40の構成の一例を示すブロック図である。
 図23において、図15と同一の構成については同一の符号を付す。
 タブレット端末40は、表示部401を備えており、表示部401は、システム制御部21から出力された画像を表示する。
 図22に示すように、検出装置10aは、第2の赤外光照射部13が照射する第2の赤外光131dに応じて撮像部15が撮像した第2の画像に基づいて、空間上のユーザU1の指の先端の位置(3次元位置)を検出できる。そのため、タブレット端末40は、検出装置10aと同様の効果を奏する。例えば、タブレット端末40は、ユーザによる指示の誤検出を低減するとともに、上述のようなユーザーインターフェース表示が可能になるので利便性を向上させることができる。
 なお、本発明は、上記の各実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で変更可能である。
 例えば、上記の各実施形態では、撮像部15を1つ備える形態を説明したが、撮像部15を複数設けてオクルージョンをなくすための処理を加えてもよい。また、第1の赤外光と第2の赤外光を、フィルタやガルバノスキャナとを用いることで、1つの赤外光光源を用いて生成する形態でもよい。
 また、上記の各実施形態において、検出装置10及び入力装置20をプロジェクタ30に適用する形態を説明したが、他の装置に適用する形態でもよい。例えば、表示機能付きの電子黒板や電子会議装置などに適用する形態でもよい。また、検出装置10及び入力装置20は、複数を組み合わせて使用する形態でもよいし、単独の装置として使用する形態でもよい。
 また、タブレット端末40は、上記の第5の実施形態に限定されるものではなく、下記のような変形例が可能である。
 例えば、図24に示すように、タブレット端末40は、検出装置10aを表示部401の表示面とフラットに近い状態に実装する形態でもよい。この場合、撮像部15は、表示面から斜め上に見上げるように配置されている。この撮像部15は、可動式でユーザU1自身によって調整可能な形態であってもよいし、表示部401の傾きに応じて撮像する角度を変更できる形態でもよい。また、撮像部15の横に配置されている複数の第2の赤外光照射部(13b,13c)は、左右で傾きが異なるように配置されており、照射タイミングも撮像部15のフレーム周波数に同期して異なる形態でもよい。
 図24に示す例では、第2の赤外光照射部13bが照射する第2の赤外光132bの方が、第2の赤外光照射部13cが照射する第2の赤外光132cより上向きに傾いて照射される。つまり、第2の赤外光132bと第2の赤外光132cとは、照射範囲がエリア分けてされている。この場合、タブレット端末40は、第2の赤外光132bと第2の赤外光132cとをエリア分割することにより、先端部の位置を限定できるので、より高精度に3次元位置を抽出できる。
 なお、図24において、第1の赤外光照射部12の図示を省略しているが、第1の赤外光照射部12は、上記の各実施形態と同様に、第1の赤外光を照射する。
 また、例えば、図25に示すように、タブレット端末40(検出装置10a)は、2つ以上の複数の第2の赤外光照射部(13d~13g)を備え、照射範囲(照射エリア)の異なる複数の第2の赤外光(133a~133d)を照射する形態でもよい。この場合、複数の第2の赤外光照射部(13d~13g)は、上述したように赤外光の照射方向のみ変えて照射エリアを分けてもよいし、第2の赤外光照射部(13d~13g)の配置位置を変えて照射エリアをより細かく分けるようにしてもよい。
 なお、図25において、第1の赤外光照射部12の図示を省略しているが、第1の赤外光照射部12は、上記の各実施形態と同様に、第1の赤外光を照射する。
 また、タブレット端末40がタッチパネルを備える場合には、検出装置10aとタッチパネルを組み合わせて指示部(手)による入力を検出する形態でもよい。この場合、タブレット端末40は、指示部(手)の検出対象面2への接触をタッチパネルにより検出して、第1の赤外光を用いない形態でもよい。こうすることでタブレット端末40は、撮像部15の回転可動域が少なくても検出できるようになる。例えば、一般に、タブレット端末が備えるカメラでは、手が画面近くにあるときは検出できない。そこでタブレット端末40は、ある程度離れた検出エリアのみ撮像部15により検出し、接触をタッチパネルで検出する形態でもよい。
 また、上記の空間位置抽出部は、第2の画像上の手(指の先端)の位置と大きさ(指の幅)とに基づいて奥行き方向の先端部の位置を抽出する形態を説明したが、これに限定されるものではない。例えば、図26に示すように、撮像部15が画角(G1a,G1b)の異なる2つの撮像部(15a,15b)を備えて、検出装置10a(タブレット端末40)は、2つの撮像部(15a,15b)の視差に基づいて、奥行き方向の先端部の位置(距離L1)を算出する形態でもよい。
 また、検出装置10aは、視差を利用して奥行き方向の先端部の距離を算出する場合には、図27に示すように、ミラー(151a,151b,152a,152b)、及び凹レンズ(153a,153b)を用いて、1つの撮像部15によって異なる画角(G2a,G2b)を実現してもよい。
 また、撮像部15がAF(オートフォーカス)機能を有している場合には、検出装置10aは、撮像部15のAF機能を用いて、奥行き方向の先端部の距離を検出してもよい。
 また、図22に示すような撮像部15が下から見上げるように配置されている場合には、撮像部15が広角レンズを備える形態でもよい。なお、撮像部15は、2個以上配置されてもよい。例えば、撮像部15が表示部401の表示面の四隅(4箇所)に配置される形態でもよい。
 また、図28に示すように、検出装置10aは、タブレット端末40が内蔵する撮像部15を用いる形態でもよい。この場合、検出装置10aは、ミラー154を備えて、撮像部15がミラー154によって反射した表示部401の表示面の範囲(画角G3)を撮像する形態でもよい。
 また、上記の第5の実施形態において、電子機器の一例としてタブレット端末40に検出装置10aを適用する形態を説明したが、携帯電話などの他の電子機器に適用する形態でもよい。
 また、上記の第5の実施形態において、検出装置10aをタブレット端末40に適用する形態を説明したが、上記の第1及び第2の実施形態における検出装置10をタブレット端末40に適用する形態でもよい。
 10,10a…検出装置、11…赤外光照射部、15…撮像部、17…物体抽出部、18…指示点抽出部、19,19a…検出部、20,20a…入力装置、30,30a,30b…プロジェクタ、31…投影部、40…タブレット端末、191…空間位置抽出部

Claims (17)

  1.  赤外光の波長領域を撮像する撮像部と、
     検出対象面上における指示部の先端部を検出する第1の赤外光と、前記第1の赤外光より前記検出対象面から離れた領域に照射される第2の赤外光とを照射する照射部と、
     前記第1の赤外光と前記第2の赤外光とを照射することにより前記撮像部によって撮像された画像に基づいて、前記指示部の向きを検出し、前記第1の赤外光を照射することにより撮像された画像に基づいて抽出された前記先端部の画像領域と、検出した前記指示部の向きとに基づいて、前記検出対象面上の前記先端部の位置を検出する検出部と
     を備えることを特徴とする検出装置。
  2.  前記第1の赤外光及び前記第2の赤外光は、前記検出対象面と平行な平行光であることを特徴とする請求項1に記載の検出装置。
  3.  前記第1の赤外光が前記検出対象面と平行な平行光であり、前記第2の赤外光が前記検出対象面と垂直な方向に拡散する拡散光であることを特徴とする請求項1に記載の検出装置。
  4.  前記照射部は、
     前記撮像部の撮像タイミングに応じて、前記第1の赤外光と前記第2の赤外光とを切り替えて照射し、
     前記検出部は、
     前記第1の赤外光を照射することにより撮像された第1の画像及び前記第2の赤外光を照射することにより前記撮像部によって撮像された第2の画像に基づいて、前記指示部の向きを検出する
     ことを特徴とする請求項1から請求項3のいずれか一項に記載の検出装置。
  5.  前記照射部は、
     前記第1の赤外光と前記第2の赤外光とを互いに異なる光の強度で照射する
     ことを特徴とする請求項4に記載の検出装置。
  6.  前記検出部は、
     前記互いに異なる光の強度を照射して撮像された前記第1の画像と前記第2の画像との差分画像に基づいて、前記指示部の画像領域と前記先端部の画像領域とを抽出し、抽出した前記指示部の画像領域に基づいて前記指示部の向きを検出し、検出した前記指示部の向きと前記先端部の画像領域とに基づいて、前記先端部の位置を検出する
     ことを特徴とする請求項5に記載の検出装置。
  7.  前記検出部は、
     前記差分画像を多値化し、多値化した前記差分画像に基づいて、前記指示部の画像領域と前記先端部の画像領域とを抽出する
     ことを特徴とする請求項6に記載の検出装置。
  8.  前記撮像部は、
     さらに、前記第1の赤外光及び前記第2の赤外光がともに照射されない期間の画像である第3の画像を撮像し、
     前記検出部は、
     前記第1の画像と前記第3の画像との差分画像、及び前記第2の画像と前記第3の画像との差分画像に基づいて、前記指示部の画像領域と前記先端部の画像領域とを抽出し、抽出した前記指示部の画像領域に基づいて、前記指示部の向きを検出し、検出した前記指示部の向きと前記先端部の画像領域とに基づいて、前記先端部の位置を検出する
     ことを特徴とする請求項4に記載の検出装置。
  9.  前記検出部は、
     前記指示部の画像領域のパターンと予め定められた基準パターンとの比較によるパターンマッチング、前記撮像部の撮像範囲以内に予め指定された検出範囲の境界線のうち、前記指示部の画像領域と重なる位置、及び前記指示部の画像領域の動きベクトルのうちのいずれか1つ又は組み合わせによって、前記指示部の向きを検出する
     ことを特徴とする請求項6から請求項8のいずれか一項に記載の検出装置。
  10.  前記検出部は、
     前記指示部の向きと前記先端部の画像領域とに基づいて、複数の前記先端部の位置を検出する
     ことを特徴とする請求項6から請求項9のいずれか一項に記載の検出装置。
  11.  前記検出部は、
     前記第2の画像に基づいて、前記撮像部の撮像範囲内で前記指示部が移動する空間上の前記先端部の位置を検出する
     ことを特徴とする請求項4から請求項10のいずれか一項に記載の検出装置。
  12.  前記照射部は、
     前記検出対象面に対する垂直方向の照射範囲が互いに異なる複数の前記第2の赤外光を順番に照射し、
     前記撮像部は、前記複数の第2の赤外光それぞれに対応した複数の前記第2の画像を撮像し、
     前記検出部は、
     前記複数の第2の画像に基づいて、前記先端部の前記垂直方向の位置を検出する
     ことを特徴とする請求項11に記載の検出装置。
  13.  前記検出部は、
     前記第2の画像に基づいて前記指示部の画像領域を抽出し、抽出した前記指示部の画像領域における前記先端部の前記第2の画像上の位置及び大きさに基づいて前記先端部の検出対象面に対する垂直方向の位置を検出する
     ことを特徴とする請求項11に記載の検出装置。
  14.  前記検出部は、
     前記第2の画像に基づいて前記指示部の画像領域を抽出し、抽出した前記指示部の画像領域の前記第2の画像上の位置及び大きさに基づいて、前記検出対象面に対する水平方向の前記先端部の位置を検出する
     ことを特徴とする請求項11から請求項13のいずれか一項に記載の検出装置。
  15.  請求項1から請求項14のいずれか一項に記載の検出装置を備えることを特徴とする入力装置。
  16.  請求項15に記載の入力装置と、
     前記検出対象面に画像を投影する投影部と
     を備えることを特徴とするプロジェクタ。
  17.  請求項1から請求項14のいずれか一項に記載の検出装置を備えることを特徴とする電子機器。
PCT/JP2012/056548 2011-03-15 2012-03-14 検出装置、入力装置、プロジェクタ、及び電子機器 WO2012124730A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US13/984,578 US20130314380A1 (en) 2011-03-15 2012-03-14 Detection device, input device, projector, and electronic apparatus
CN2012800044850A CN103299259A (zh) 2011-03-15 2012-03-14 检测装置、输入装置、投影机以及电子设备
EP12758170.0A EP2687959A4 (en) 2011-03-15 2012-03-14 DETECTION DEVICE, INPUT DEVICE, PROJECTOR, AND ELECTRONIC DEVICE

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2011-056819 2011-03-15
JP2011056819 2011-03-15
JP2012046970A JP2012208926A (ja) 2011-03-15 2012-03-02 検出装置、入力装置、プロジェクタ、及び電子機器
JP2012-046970 2012-03-02

Publications (1)

Publication Number Publication Date
WO2012124730A1 true WO2012124730A1 (ja) 2012-09-20

Family

ID=46830795

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/056548 WO2012124730A1 (ja) 2011-03-15 2012-03-14 検出装置、入力装置、プロジェクタ、及び電子機器

Country Status (5)

Country Link
US (1) US20130314380A1 (ja)
EP (1) EP2687959A4 (ja)
JP (1) JP2012208926A (ja)
CN (1) CN103299259A (ja)
WO (1) WO2012124730A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015060296A (ja) * 2013-09-17 2015-03-30 船井電機株式会社 空間座標特定装置
JP2015079169A (ja) * 2013-10-18 2015-04-23 増田 麻言 投影装置
WO2015111402A1 (ja) * 2014-01-21 2015-07-30 セイコーエプソン株式会社 位置検出装置、位置検出システム、及び、位置検出方法
JP2015529372A (ja) * 2012-09-21 2015-10-05 アマゾン・テクノロジーズ、インコーポレイテッド ディスプレイ一体型カメラアレイ
JP2016062144A (ja) * 2014-09-16 2016-04-25 グリッドマーク株式会社 情報処理装置
US20170285769A1 (en) * 2014-01-21 2017-10-05 Seiko Epson Corporation Position detection apparatus and position detection method
US10671221B2 (en) 2016-09-13 2020-06-02 Sony Corporation Display apparatus with detection function
US11429229B2 (en) 2018-12-20 2022-08-30 Sony Group Corporation Image processing apparatus and display apparatus with detection function

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014064419A (ja) 2012-09-21 2014-04-10 Hitachi Automotive Systems Ltd 電子制御装置
JP6107398B2 (ja) * 2013-05-13 2017-04-05 富士通株式会社 検出装置及び検出プログラム
JP6175913B2 (ja) * 2013-06-04 2017-08-09 船井電機株式会社 入力装置、入力システム及び入力方法
JP6326895B2 (ja) * 2014-01-21 2018-05-23 セイコーエプソン株式会社 位置検出装置、位置検出システム、及び、位置検出装置の制御方法
DE102014207923A1 (de) * 2014-04-28 2015-10-29 Robert Bosch Gmbh Modul und Verfahren zum Betrieb eines Moduls
CN103995621B (zh) * 2014-04-28 2017-02-15 京东方科技集团股份有限公司 一种穿戴式触控装置和穿戴式触控方法
DE102014207963A1 (de) * 2014-04-28 2015-10-29 Robert Bosch Gmbh Interaktives Menü
DE102014207902A1 (de) * 2014-04-28 2015-10-29 Robert Bosch Gmbh Modul und Verfahren zum Betrieb eines Moduls
DE102014207920A1 (de) * 2014-04-28 2015-10-29 Robert Bosch Gmbh Elektrisches Gerät und Verfahren zum Betrieb eines elektrischen Geräts
JP6696425B2 (ja) * 2014-07-29 2020-05-20 ソニー株式会社 投射型表示装置
JP6609098B2 (ja) * 2014-10-30 2019-11-20 キヤノン株式会社 表示制御装置、表示制御方法、及びコンピュータプログラム
JP2016091457A (ja) * 2014-11-10 2016-05-23 富士通株式会社 入力装置、指先位置検出方法及び指先位置検出用コンピュータプログラム
JP2016186674A (ja) * 2015-03-27 2016-10-27 セイコーエプソン株式会社 インタラクティブプロジェクター及びインタラクティブプロジェクションシステム
JP6540305B2 (ja) * 2015-06-18 2019-07-10 カシオ計算機株式会社 タッチ入力装置、投影装置、タッチ入力方法及びプログラム
CN106325610B (zh) * 2015-06-30 2019-06-11 中强光电股份有限公司 触控显示系统、触控装置与触控显示方法
TWI595425B (zh) * 2015-12-30 2017-08-11 松翰科技股份有限公司 感測裝置及光學感測模組
TWI653563B (zh) * 2016-05-24 2019-03-11 仁寶電腦工業股份有限公司 投影觸控的圖像選取方法
DE102016215746A1 (de) * 2016-08-23 2018-03-01 Robert Bosch Gmbh Projektor mit berührungsfreier Steuerung
US10955921B2 (en) * 2016-08-23 2021-03-23 Motorola Mobility Llc Electronic device with optical user input modes and localized haptic response, and corresponding systems and methods
TWI626423B (zh) * 2016-09-12 2018-06-11 財團法人工業技術研究院 手觸偵測裝置、手觸偵測方法及應用其之智慧投影系統
JP6729297B2 (ja) * 2016-10-27 2020-07-22 セイコーエプソン株式会社 プロジェクター、プロジェクションシステム及び検出光照射装置
CN107193416B (zh) * 2017-05-19 2019-11-05 广州视源电子科技股份有限公司 一种触控物体的状态识别方法及装置
CN108227919B (zh) * 2017-12-22 2021-07-09 潍坊歌尔电子有限公司 用户手指位置信息的确定方法及装置、投影仪、投影系统
WO2019171827A1 (ja) * 2018-03-08 2019-09-12 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US10429996B1 (en) 2018-03-08 2019-10-01 Capital One Services, Llc System and methods for providing an interactive user interface using a film, visual projector, and infrared projector
US10845921B2 (en) 2018-05-21 2020-11-24 Motorola Mobility Llc Methods and systems for augmenting images in an electronic device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003535405A (ja) 2000-05-29 2003-11-25 ブイケービー インコーポレイティド 文字・数字及び他のデータを入力する仮想データ入力装置及び方法
JP2004500657A (ja) * 2000-02-11 2004-01-08 カネスタ インコーポレイテッド 仮想入力装置を用いたデータ入力方法および装置
JP2004523031A (ja) * 2001-01-08 2004-07-29 ヴィーケービー インコーポレイテッド データ入力装置
JP2011022945A (ja) * 2009-07-17 2011-02-03 Dainippon Printing Co Ltd 指先操作型情報提供システム、プログラム、記録媒体

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5498867A (en) * 1993-11-22 1996-03-12 Sachio Uehara Wavelength-division multiplex digital optical position sensor
US7453419B2 (en) * 2004-11-24 2008-11-18 Microsoft Corporation Edge lighting system for interactive display surface
WO2007013608A1 (ja) * 2005-07-28 2007-02-01 Matsushita Electric Industrial Co., Ltd. レーザ光源およびディスプレイ装置
US8570304B2 (en) * 2008-09-26 2013-10-29 Hewlett-Packard Development Company, L.P. Determining touch locations using disturbed light
US20100079413A1 (en) * 2008-09-29 2010-04-01 Denso Corporation Control device
GB2466497B (en) * 2008-12-24 2011-09-14 Light Blue Optics Ltd Touch sensitive holographic displays

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004500657A (ja) * 2000-02-11 2004-01-08 カネスタ インコーポレイテッド 仮想入力装置を用いたデータ入力方法および装置
JP2003535405A (ja) 2000-05-29 2003-11-25 ブイケービー インコーポレイティド 文字・数字及び他のデータを入力する仮想データ入力装置及び方法
JP2004523031A (ja) * 2001-01-08 2004-07-29 ヴィーケービー インコーポレイテッド データ入力装置
JP2011022945A (ja) * 2009-07-17 2011-02-03 Dainippon Printing Co Ltd 指先操作型情報提供システム、プログラム、記録媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2687959A4

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015529372A (ja) * 2012-09-21 2015-10-05 アマゾン・テクノロジーズ、インコーポレイテッド ディスプレイ一体型カメラアレイ
JP2015060296A (ja) * 2013-09-17 2015-03-30 船井電機株式会社 空間座標特定装置
JP2015079169A (ja) * 2013-10-18 2015-04-23 増田 麻言 投影装置
WO2015111402A1 (ja) * 2014-01-21 2015-07-30 セイコーエプソン株式会社 位置検出装置、位置検出システム、及び、位置検出方法
CN105874414A (zh) * 2014-01-21 2016-08-17 精工爱普生株式会社 位置检测装置、位置检测系统以及位置检测方法
US20170285769A1 (en) * 2014-01-21 2017-10-05 Seiko Epson Corporation Position detection apparatus and position detection method
CN105874414B (zh) * 2014-01-21 2019-01-01 精工爱普生株式会社 位置检测装置、位置检测系统以及位置检测方法
JP2016062144A (ja) * 2014-09-16 2016-04-25 グリッドマーク株式会社 情報処理装置
WO2016043342A3 (ja) * 2014-09-16 2016-05-19 株式会社I・Pソリューションズ 情報処理装置
US10671221B2 (en) 2016-09-13 2020-06-02 Sony Corporation Display apparatus with detection function
US11429229B2 (en) 2018-12-20 2022-08-30 Sony Group Corporation Image processing apparatus and display apparatus with detection function

Also Published As

Publication number Publication date
JP2012208926A (ja) 2012-10-25
CN103299259A (zh) 2013-09-11
EP2687959A4 (en) 2014-10-08
US20130314380A1 (en) 2013-11-28
EP2687959A1 (en) 2014-01-22

Similar Documents

Publication Publication Date Title
WO2012124730A1 (ja) 検出装置、入力装置、プロジェクタ、及び電子機器
US10514806B2 (en) Operation detection device, operation detection method and projector
JP6037901B2 (ja) 操作検出装置、操作検出方法及び表示制御データ生成方法
US7593593B2 (en) Method and system for reducing effects of undesired signals in an infrared imaging system
JP6724987B2 (ja) 制御装置および検出方法
RU2455676C2 (ru) Способ управления устройством с помощью жестов и 3d-сенсор для его осуществления
JP6075122B2 (ja) システム、画像投影装置、情報処理装置、情報処理方法およびプログラム
JP6111706B2 (ja) 位置検出装置、調整方法、および調整プログラム
US20140139668A1 (en) Projection capture system and method
CN105593786B (zh) 对象位置确定
JP2008250774A (ja) 情報機器操作装置
KR20140060297A (ko) 입력체의 움직임 검출 방법 및 그것을 이용한 입력 디바이스
KR101989998B1 (ko) 가상의 터치 스크린이 구현되는 컴퓨터 입력 시스템
JP6314688B2 (ja) 入力装置
KR101002072B1 (ko) 펄스 구동 방식의 투영 영상 터치 장치
JP2020160808A (ja) 位置検出方法、位置検出装置、及び、インタラクティブプロジェクター
JP6307576B2 (ja) 映像表示装置及びプロジェクタ
JP2007200353A (ja) 情報処理装置及び情報処理方法
JP4687820B2 (ja) 情報入力装置及び情報入力方法
KR102495234B1 (ko) 전자 장치, 그 제어 방법 및 컴퓨터 판독가능 기록 매체
JP6199472B2 (ja) プロジェクタ及びヘッドマウント型表示装置
JP2009245462A (ja) 情報機器操作装置
JP5118663B2 (ja) 情報端末装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12758170

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13984578

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE