WO2013111374A1 - インターフェース装置、インターフェース装置の駆動方法、インターフェースシステムおよびインターフェースシステムの駆動方法 - Google Patents

インターフェース装置、インターフェース装置の駆動方法、インターフェースシステムおよびインターフェースシステムの駆動方法 Download PDF

Info

Publication number
WO2013111374A1
WO2013111374A1 PCT/JP2012/073789 JP2012073789W WO2013111374A1 WO 2013111374 A1 WO2013111374 A1 WO 2013111374A1 JP 2012073789 W JP2012073789 W JP 2012073789W WO 2013111374 A1 WO2013111374 A1 WO 2013111374A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
light
unit
light source
scanning
Prior art date
Application number
PCT/JP2012/073789
Other languages
English (en)
French (fr)
Inventor
藤男 奥村
高梨 伸彰
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2013555100A priority Critical patent/JP6102750B2/ja
Publication of WO2013111374A1 publication Critical patent/WO2013111374A1/ja

Links

Images

Classifications

    • EFIXED CONSTRUCTIONS
    • E03WATER SUPPLY; SEWERAGE
    • E03CDOMESTIC PLUMBING INSTALLATIONS FOR FRESH WATER OR WASTE WATER; SINKS
    • E03C1/00Domestic plumbing installations for fresh water or waste water; Sinks
    • E03C1/02Plumbing installations for fresh water
    • E03C1/05Arrangements of devices on wash-basins, baths, sinks, or the like for remote control of taps
    • E03C1/055Electrical control devices, e.g. with push buttons, control panels or the like
    • E03C1/057Electrical control devices, e.g. with push buttons, control panels or the like touchless, i.e. using sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • G06F3/0426Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface

Definitions

  • the present invention relates to an interface device, an interface device driving method, an interface system, and an interface system driving method.
  • the interfaces between machines and people centered on computers and digital devices have been buttons, keyboards, mice, and the like.
  • the interface has evolved from the aforementioned to a touch interface that directly touches the screen, and a spatial operation type interface using gestures has also been developed.
  • Examples of the spatial operation type interface include those of Non-Patent Documents 1 to 3.
  • Non-Patent Document 1 discloses “SixthSense” developed at Massachusetts Institute of Technology. “SixthSense” recognizes the position of the color sack that the camera puts on the finger by using an interface that combines a small projector and camera, and can perform various interactive operations.
  • Non-Patent Document 2 discloses "Omnitouch” developed by Microsoft Corporation. “Omnitouch” is an interface that puts a device on a person's shoulder, and is a combination of a small projector and a device called “Xtion” (see Patent Document 1) that performs three-dimensional measurement of an object. Can recognize hand gestures directly without using.
  • Non-Patent Document 3 discloses “LuminAR” developed at Massachusetts Institute of Technology. “LuminAR” is a light stand type interface. A small projector and a camera are provided in the light portion of the light stand, and a mechanically moving arm is provided.
  • “SixthSense” and “Omnitouch” require a person to control the position of the projected image for operation. In addition, “SixthSense” and “Omnitouch” must move their shoulders, hands, etc. so that an image is projected there, and a person must be wearing a device that performs the interface. “LuminAR” does not require a person to wear anything, but must hold his hand under the light of the light stand. These are traditional interfaces that humans match with machines, and are called ubiquitous types. In the future world, it is said that the interface between machines and people will change to an ambient type interface where machines are adapted to people. For example, machines from large ones such as digital signage to small ones such as mobile terminals and mobile phones will recognize humans and their movements and autonomously interact with the situation. .
  • An object of the present invention is to realize an ambient type interface, and it is not necessary for a person to wear a device for performing an interface, and an interface device and an interface device that can be incorporated into a small-sized device such as a portable terminal and a cellular phone.
  • Driving method, interface system, and interface system driving method are not necessary for a person to wear a device for performing an interface, and an interface device and an interface device that can be incorporated into a small-sized device such as a portable terminal and a cellular phone.
  • the interface device of the present invention comprises: A light source, flexible light guide means, a head including scanning means and imaging means, a rotation means, and a control means,
  • the position of the object is recognized by the imaging means
  • the rotating means can rotate the head according to the position of the object
  • Light is emitted from the light source,
  • the light is guided from the light source to the scanning means by the flexible light guiding means
  • the scanning unit scans the light with the light to form an image
  • the image is recognized by the imaging means
  • the light source, the scanning unit, the imaging unit, and the rotating unit are controlled by the control unit, and predetermined for the state according to the state of the image recognized by the imaging unit.
  • a signal for performing a predetermined operation is issued.
  • the driving method of the interface device of the present invention includes: Using an interface device including a light source, a flexible light guide, a head including a scanning unit and an imaging unit, a rotation unit, and a control unit, A position recognition step of recognizing the position of the object by the imaging means; An adjusting step of adjusting the orientation of the head according to the position of the object by the rotating means; A light generation step for emitting light from the light source; A light guiding step for guiding the light from the light source to the scanning means by the flexible light guiding means; An image forming step of forming an image by scanning the light on the object by the scanning unit; An image recognition step of recognizing the image by the imaging means; The control unit controls the light source, the scanning unit, the imaging unit, and the rotating unit, and is predetermined for the state according to the state of the image recognized in the image recognition step. And an operation step for generating a signal for performing a predetermined operation.
  • the interface system of the present invention is Including the interface device of the present invention and a projector,
  • the control means issues a signal for instructing the projector to project an image at a desired position.
  • the driving method of the interface system of the present invention includes: An interface system including a light source, a flexible light guide, a head including a scanning unit and an imaging unit, a rotation unit, and a control unit, and an interface system including a projector, A position recognition step of recognizing the position of the object by the imaging means; An adjusting step of adjusting the orientation of the head according to the position of the object by the rotating means; A light generation step for emitting light from the light source; A light guiding step for guiding the light from the light source to the scanning means by the flexible light guiding means; An image forming step of forming an image by scanning the light on the object by the scanning unit; An image recognition step of recognizing the image by the imaging means; The control unit controls the light source, the scanning unit, the imaging unit, and the rotating unit, and is predetermined for the state according to the state of the image recognized in the image recognition step. And an operation step for issuing a signal for performing a predetermined operation, In the operation step, the control means issues a signal instructing the project
  • the interface device and interface device can be incorporated into a small-sized device such as a mobile terminal and a mobile phone.
  • Driving method, interface system, and driving method of the interface system can be provided.
  • FIG. 1 is a block diagram showing a configuration of an example of an interface apparatus of the present invention.
  • FIG. 2 is a diagram illustrating an example of a method for driving the interface device of the present invention.
  • FIG. 3 is a diagram showing another example of the interface device and the driving method thereof according to the present invention.
  • FIG. 4 is a diagram showing the configuration of still another example of the interface apparatus of the present invention.
  • FIG. 5 is a schematic diagram showing the configuration of an example of the light source, flexible light guide means, and scanning means of the interface device of the present invention.
  • FIG. 6 is a diagram showing the configuration of still another example of the interface apparatus of the present invention.
  • FIG. 7 is a diagram showing a configuration of still another example of the interface apparatus of the present invention.
  • FIG. 8 is a diagram showing an application example of the interface apparatus of the present invention.
  • FIG. 9 is a diagram showing an example of the interface system of the present invention.
  • FIG. 10 is a diagram showing another example of the interface system of the present invention.
  • FIG. 11A is a diagram showing an example of an image forming process in the driving method of the interface device of the present invention
  • FIG. 11B is a diagram showing the basic principle and problems of Xtion.
  • FIG. 12 is a diagram illustrating an example of a driving method of an interface device according to related art.
  • FIG. 1 The block diagram of FIG. 1 shows an example of the configuration of the interface device of the present invention.
  • the interface apparatus mainly includes a light source 105, a flexible light guide means 106, a head 103 including a scanning means 101 and an imaging means 102, a rotating means 104, and a control means 109. Include as an element.
  • Examples of the light source 105 include a visible light source and an infrared light source.
  • the visible light source preferably outputs red, green and blue visible light.
  • the visible light source preferably has an output obtained by combining red, green, and blue visible light, but may be an aggregate of a red light source, a green light source, and a blue light source.
  • the light source 105 is preferably a laser.
  • the flexible light guiding unit 106 guides the light emitted from the light source 105 to the scanning unit 101.
  • Examples of the flexible light guide means 106 include an optical fiber and a flexible waveguide.
  • the scanning means 101 scans the object with the light.
  • the scanning unit 101 may be anything as long as it can scan the light.
  • a conventionally known device including a condensing lens, a mirror, a scanning element, and the like can be used.
  • the scanning unit 101 can function as a projector that projects a visible light image.
  • the scanning unit 101 scans the object with infrared light to form an image to perform three-dimensional measurement.
  • reference numeral 110 denotes a projection image by the scanning unit 101.
  • the imaging unit 102 recognizes the position of the object and the image formed by the scanning of the light by the scanning unit 101.
  • Examples of the imaging unit 102 include a digital camera, a CCD (Charge Coupled Device) camera, and a CMOS (Complementary Metal Oxide Semiconductor) camera.
  • the head 103 can mount the scanning unit 101 and the imaging unit 102, the material, shape, etc. thereof are not particularly limited. A specific example of the head 103 will be described later.
  • Rotating means 104 may be anything as long as it can rotate the head 103. A specific example of the rotating means 104 will be described later.
  • the control unit 109 controls the light source 105, the scanning unit 101, the imaging unit 102, and the rotation unit 104, and is predetermined for the state according to the state of the image recognized by the imaging unit 102. A signal for performing a predetermined operation is issued.
  • An example of the control means 109 is a central processing means (CPU).
  • the control unit 109 is preferably capable of wirelessly controlling the light source 105, the scanning unit 101, the imaging unit 102, and the rotation unit 104. In the case of wired control, a flexible wire is used.
  • FIG. 2 shows an example of a method for driving the interface device of the present invention.
  • the light source 105 includes the visible light source and the infrared light source
  • the flexible light guide means 106 is an optical fiber
  • the head 103 has a rectangular parallelepiped shape that encloses the scanning means 101 and the imaging means 102.
  • the rotating means 104 is a motor that rotates the head 103 left and right, and the object is the hand 206.
  • the control means 109 is omitted.
  • the imaging unit 102 recognizes an object (hand) 206.
  • object hand
  • FIG. 2B the head 103 is rotated by the rotating means 104 and the orientation of the head 103 is adjusted.
  • the head 103 can be rotated periodically to recognize the movement of the person or hand as the object.
  • the infrared light emitted from the light source 105 is guided to the scanning means 101 by the optical fiber 106, and the hand 206 scans the infrared light by the scanning means 101. Form an image.
  • a striped pattern image 208 is formed.
  • the image unit 102 recognizes the pattern image 208 and performs three-dimensional measurement (three-dimensional measurement step).
  • a three-dimensional measurement method for example, triangulation using a positional shift between the imaging unit and the scanning element of the scanning unit, or a time-of-flight method that captures a phase change of the pattern image 208 reflected back by the hand 206.
  • the direction of the head 103 including the scanning unit 101 and the imaging unit 102 can be changed arbitrarily and at high speed. This is because the volume of the head 103 can be greatly reduced by separating the light source 105 and the control unit 109 from the scanning unit 101. This is made possible by the optical fiber 106 that guides light from the light source 105 to the scanning means 101.
  • the imaging means 102 such as a digital camera has been greatly reduced in size as can be seen from being mounted on a mobile phone or the like, and the head 103 including the scanning means 101 and the imaging means 102 is extremely small. It is possible to manufacture lightly.
  • the head 103 can sufficiently be 1 cm 3 or less.
  • each of the scanning unit 101 and the imaging unit 102 can be accommodated within a diameter of about several mm.
  • the scanning system currently mounted on a small laser projector called a so-called pico projector is about 5 mm 3 . Since such a small head 103 is small, it is easy to give quick response. In particular, when a hand or the like as an object is close to the apparatus, this high-speed response is a significant effect.
  • the rotating means 104 for rotating the head 103 can be small.
  • the total volume of the head 103 and the rotating means 104 can also be realized with about 1 to 2 cm 3 .
  • the optical fiber 106 has a diameter of about 0.1 mm and flexibly follows bending, so that the movement of the head 103 is not hindered.
  • reference numeral 207 denotes the projection range of the scanning unit 101.
  • the control unit 109 issues a signal for performing a predetermined operation that is predetermined for the state.
  • the visible light image 209 of the selection screen is projected by the scanning unit 101.
  • an interactive operation is possible. For example, display of a visible light image is prompted by a gesture by the hand 206, and a visible light image that prompts some operation is projected in the immediate vicinity of the hand 206, and the operation is performed by touching the hand 206.
  • a visible light image is used, but it is also possible to control only another object with a gesture.
  • FIG. 11A shows an example of an image forming process in the driving method of the interface device of the present invention.
  • the pattern density of the pattern image 208 is changed according to the position of the hand 206 recognized in the position recognition process. Except for this point, this example is the same as the driving method of the interface apparatus of the first embodiment.
  • Fig. 11 (b) shows the basic principles and issues of Xtion.
  • Xtion includes an infrared light pattern generator 1101 and a camera 1102.
  • the basic principle of Xtion is three-dimensional object authentication by so-called triangulation.
  • the infrared light pattern 1108 projected from the infrared light pattern generation device 1101 hits an object (in this example, a hand) 1106, and image distortion generated according to the shape of the hand 1106 is read by the camera 1102.
  • a region where the projection range of the infrared light pattern generation device 1101 and the angle of view of the camera 1102 overlap is a recognition space.
  • the projected infrared light pattern becomes wider as the projection distance becomes longer, so that it is dense in the area close to the device and sparse in the remote area. Therefore, if the hand 1106 is too close to the apparatus, it cannot be determined, and if the hand 1106 is too far from the apparatus, the resolution is lowered. In the current product, the effective distance is about 80 cm to 3 m. In addition, as shown in FIG. 11B, the recognition space is limited, and anything outside this space cannot be recognized. The closer to the device, the easier it will be to leave this space. As described above, the current technology has a narrow recognition space.
  • the recognition space is narrow due to the occurrence of roughness according to the projection distance.
  • the pattern is further changed depending on the projection distance. This is prevented by changing the density.
  • the pattern density with respect to the hand 206 can be made substantially constant while allowing it to be incorporated into a small device such as a portable terminal or a cellular phone as in the driving method of the interface device of the first embodiment. Regardless of this, it is possible to keep the recognition accuracy constant.
  • the pattern image 208 itself may be changed instead of the pattern density.
  • FIG. 3 shows another example of the interface device of the present invention and its driving method.
  • the rotation means 104 is a motor that rotates the head 103 around the axis of the projection direction of the scanning means 101.
  • the image recognition is performed.
  • the interface device of the first embodiment and its driving method are the same as those of the first embodiment, except that the visible light image 209 is rotated by rotating the head 103 by the rotating means 104 according to the image recognized in the process.
  • the visible light image 209 when there is a mismatch between the orientation of the hand 206 recognized in the image recognition step and the orientation of the visible light image 209, as shown in FIG.
  • the visible light image 209 can be rotated to have a normal orientation. Since the visible light image 209 can be electrically reversed, for example, the rotation means 104 up to 180 degrees is sufficient.
  • “SixthSense” and “Omnitouch” are equipped with a device on the human body, so the direction of the visible light image with respect to the human is constant. However, in the ambient type interface, the positions of the person and the device are not constant.
  • “SixthSense” and “Omnitouch” when trying to match the direction of a person, a problem as shown in FIG. 12 appears.
  • 1201 is a small projector
  • 1202 is a projected image range
  • 1203 is a visible light image using a part thereof.
  • the control of the visible light image 1203 must be performed using a part of the projection image range 1202.
  • the position of the newspaper changes every moment, so the visible light image 1203 must be changed according to the shape, and a part of the wider projected image range 1202 This is achieved using.
  • the brightness of the visible light image 1203 is inversely proportional to the area of the projection image range 1202. Therefore, in such a usage pattern, the visible light image 1203 becomes unnecessarily dark.
  • FIG. 4 shows the configuration of still another example of the interface apparatus of the present invention.
  • the head 103 is a plate having a substantially U-shaped cross section on which the scanning means 101 and the imaging means 102 are placed, and the rotating means rotates the head 103 left and right.
  • the interface device of the first embodiment is the same. Yes, it can be driven in the same manner as the driving method of the interface device of the first embodiment except that the rotation direction of the head 103 can be increased.
  • the schematic diagram of FIG. 5 shows the configuration of an example of the light source, flexible light guide means, and scanning means of the interface device of the present invention.
  • the light source combines the outputs of three types of lasers, a red laser, a green laser, and a blue laser, and a visible light laser 105a that outputs one beam, and an infrared light laser 105b.
  • the outputs of the visible light laser 105a and the infrared light laser 105b are guided to the scanning means 101 by different flexible light guiding means 106a and 106b, respectively.
  • the flexible light guides 106 a and 106 b are bundled by a fixing unit 506 and extend into the scanning unit 101.
  • the scanning unit 101 includes a fixed unit 507, a lens 508, and a scanning element 512 as main components.
  • the scanning element 512 includes a mirror 511.
  • the lens 508 focuses the visible light laser beam 509 and the infrared light laser beam 510 output from the flexible light guides 106 a and 106 b on the mirror 511 of the scanning element 512.
  • This example is the same as Example 1 except for the part shown in FIG.
  • the laser is single mode.
  • the visible light wavelength range can be propagated by one flexible light guide, but it is difficult to propagate up to the infrared light wavelength range by one flexible light guide.
  • the light is greatly attenuated. Depending on the wavelength of infrared light, it is completely blocked. Therefore, in this example, the output of the visible light laser 105a and the output of the infrared light laser 105b are guided to the scanning unit 101 by different flexible light guiding units 106a and 106b, respectively.
  • these beams may be synthesized by a synthesis optical system, but in this example, two beams are simply projected side by side.
  • Visible red, green and blue lasers are preferably perfectly aligned as one beam to form a visible light image, but the infrared light pattern is a separate image, so it is flexible. There is no problem even if it is shifted by about 1 light guide means (for example, about 0.1 mm). By doing so, the problem of attenuation and blocking of infrared light can be solved. In addition, the movement of the head is not hindered as long as two flexible light guides are bundled.
  • FIG. 6 shows the configuration of still another example of the interface apparatus of the present invention.
  • the head 103 has a shape in which the scanning unit 101 and the imaging unit 102 are wrapped in a spherical casing, and the periphery thereof is supported by a ring-shaped support body 604, and the rotating unit supports the head 103. It is the same as that of Example 4 except the point which is the ultrasonic motors 104a, 104b, and 104c arrange
  • a bearing may be installed inside the support body 604.
  • the rotating means flat and further reduce the total volume of the head and the rotating means.
  • the total volume of the head and the rotating means can be reduced to 1 ⁇ 4 or less.
  • FIG. 7 shows a configuration of still another example of the interface apparatus of the present invention.
  • This example is the same as Example 6 except that the rotating means is three pins 104d arranged outside the casing and three actuators 104e that apply vibration to the three pins 104d.
  • reference numeral 707 denotes the hit position of the three pins 104d.
  • An example of the actuator 104e is a piezoelectric element.
  • This example is a modification of the sixth embodiment, in which the head 103 is rotated by striking with the vibration of the piezoelectric element instead of the ultrasonic motor.
  • the support 604 and the rotating means can be formed separately, and adjustment is easy.
  • FIG. 8 shows an application example of the interface apparatus of the present invention.
  • reference numeral 100 denotes an interface device of the present invention.
  • the control means in the operation step, the control means generates a signal for performing an operation of discharging water from the tap 801 to the sink 803.
  • This example shows interactive control of the faucet 801 in a wash basin, kitchen, bathroom, etc.
  • the faucet that produces water when you bring your hand down is used in the bathroom sink.
  • control of raising or lowering the temperature by a gesture of raising the palm of the hand 806 or lowering the back of the hand 806,
  • the flow rate can be controlled by a gesture of turning the index finger of the hand 806 to the right.
  • a visible light image that informs the user of the situation and a visible light image that shows how to use the projector are projected.
  • toilets such as department stores, shops, restaurants, etc.
  • the faucet 801 operates accordingly.
  • the visible light image 810 informing the state may be projected onto the hand 806 by the scanning unit as shown in FIGS. 8B and 8C.
  • FIG. 9 shows an example of the interface system of the present invention.
  • the interface device 100 of the present invention installed on the ceiling 901 and the projector 903 linked thereto enable control of the air conditioner 904 without remote operation means (remote control).
  • FIG. 9A when the hand 906 is held for a few seconds with the palm facing upward, the interface device 100 of the present invention determines that a person wants to perform a remote control operation.
  • FIG. 9B the scanning unit of the interface device 100 of the present invention projects a visible light image (in this example, a circle) 910 onto the palm of the hand, and the remote control function is activated.
  • a visible light image in this example, a circle
  • the interface apparatus 100 of the present invention recognizes that the hand 906 is a remote control.
  • the interface device 100 of the present invention determines that a person wants to operate the air conditioner 904, and is shown in FIG. 9 (d).
  • a signal is sent to the projector 903 so as to project the projection image 907 such as air conditioning information and operation buttons on the air conditioner 904.
  • a remote operation can be performed by performing some gesture. In FIG. 9E, an operation for lowering the room temperature is performed.
  • the air conditioner 904 is taken as an example, but the present invention can be applied to various devices such as a television, an audio device, a radio, a lighting fixture, a fan, a stove, a curtain, and a shutter. Projection of an image from the projector 903 may be performed on a television or the like, or a surrounding wall, floor, ceiling, or the like.
  • FIG. 10 shows another example of the interface system of the present invention.
  • 100a and 100b are the interface devices of the present invention installed on the ceiling 1001, and 1003 is a projector.
  • This example shows a presentation support system in a conference room.
  • the person 1005 performs an operation of switching the slide on the projection image 1009 projected from the projector 1003 with a gesture.
  • This is executed when the interface device 100a of the present invention recognizes the gesture of the person 1005 and operates the projector 1003.
  • a person 1006 projects an operation projection image 1008 on a table 1007 using the interface device 100b of the present invention.
  • the interface device 100b of the present invention recognizes the direction of the person and what he wants to do and projects the projected image 1008 in an appropriate direction by the scanning unit.
  • the interface system according to the present invention enables all operations to be performed in a state of having nothing.
  • the position of the object is recognized by the imaging means
  • the rotating means can rotate the head according to the position of the object
  • Light is emitted from the light source,
  • the light is guided from the light source to the scanning means by the flexible light guiding means,
  • the scanning unit scans the light with the light to form an image
  • the image is recognized by the imaging means
  • the light source, the scanning unit, the imaging unit, and the rotating unit are controlled by the control unit, and predetermined for the state according to the state of the image recognized by the imaging unit.
  • An interface device in which a signal for performing a predetermined operation is issued.
  • the light source includes a visible light source and an infrared light source, The interface device according to appendix 1, wherein three-dimensional measurement is performed using the infrared light source.
  • the visible light source is a visible light laser that combines the outputs of three types of lasers, a red laser, a green laser, and a blue laser, to output one beam,
  • the interface apparatus according to appendix 2 wherein the infrared light source is an infrared laser.
  • Appendix 4 The interface apparatus according to appendix 3, wherein an output of the visible light laser and an output of the infrared light laser are respectively guided to the scanning unit by different flexible light guiding units.
  • the interface device includes a rotation unit configured to rotate the head about an axis in a projection direction of the scanning unit.
  • the head has a shape in which the scanning unit and the imaging unit are wrapped in a spherical housing, The head is supported by a ring-shaped support around the periphery,
  • the interface device according to any one of appendices 1 to 5, wherein the rotating unit includes an ultrasonic motor disposed between the head and the support.
  • the head has a shape in which the scanning unit and the imaging unit are wrapped in a spherical housing, The head is supported by a ring-shaped support around the periphery,
  • the interface device according to any one of appendices 1 to 5, wherein the rotating means includes a pin disposed outside the housing and an actuator that applies vibration to the pin.
  • the object is a specific part of a human body;
  • the control unit recognizes the specific part as a remote control unit, 9.
  • the interface device according to any one of appendices 2 to 8, wherein a visible light image notifying that the scanning unit recognizes the remote operation unit is projected onto the specific part.
  • a position recognition step of recognizing the position of the object by the imaging means An adjusting step of adjusting the orientation of the head according to the position of the object by the rotating means;
  • the control unit controls the light source, the scanning unit, the imaging unit, and the rotating unit, and is predetermined for the state according to the state of the image recognized in the image recognition step.
  • an operation step of of issuing a signal for performing a predetermined operation.
  • the light source includes a visible light source and an infrared light source
  • the interface device driving method according to appendix 10 wherein the light generation step includes a three-dimensional measurement step of performing three-dimensional measurement using the infrared light source.
  • the visible light source is a visible light laser that combines the outputs of three types of lasers, a red laser, a green laser, and a blue laser, to output one beam,
  • the rotating means includes rotating means for rotating the head around an axis in the projection direction of the scanning means, In the operation step, a visible light image is projected from the scanning unit, and the visible light image is rotated by rotating the head by the rotating unit according to the image recognized in the image recognition step. 14. A method for driving an interface device according to any one of appendices 11 to 13.
  • the object is a specific part of a human body;
  • the control unit recognizes the specific part as a remote control unit, and the scanning unit projects a visible light image informing the remote control unit that the specific part is recognized as the remote control unit.
  • the driving method of the interface device according to any one of 11 to 14.
  • Appendix 16 Any one of appendices 10 to 15, wherein in the image forming step, a pattern image is formed, and at least one of the pattern density and the pattern is changed according to the position of the object recognized in the position recognition step.
  • Appendix 17 Including the interface device according to any one of appendices 1 to 9 and a projector; An interface system in which a signal instructing the projector to project an image at a desired position is issued by the control means.
  • An interface system including a light source, a flexible light guide, a head including a scanning unit and an imaging unit, a rotation unit, and a control unit, and an interface system including a projector, A position recognition step of recognizing the position of the object by the imaging means; An adjusting step of adjusting the orientation of the head according to the position of the object by the rotating means; A light generation step for emitting light from the light source; A light guiding step for guiding the light from the light source to the scanning means by the flexible light guiding means; An image forming step of forming an image by scanning the light on the object by the scanning unit; An image recognition step of recognizing the image by the imaging means; The control unit controls the light source, the scanning unit, the imaging unit, and the rotating unit, and is predetermined for the state according to the state of the image recognized in the image recognition step. And an operation step for issuing a signal for performing a predetermined operation, A method of driving an interface system, wherein in the operation step, the control means issues a signal for instruct

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Hydrology & Water Resources (AREA)
  • Public Health (AREA)
  • Water Supply & Treatment (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 アンビエント型インターフェースを実現するための、インターフェースを行う装置を人が装着する必要がなく、小型のものに組み込むことが可能なインターフェース装置を提供する。 本発明のインターフェース装置は、光源(105)と、可撓性導光手段(106)と、走査手段(101)および撮像手段(102)を含むヘッド(103)と、回転手段(104)と、制御手段(109)とを含み、撮像手段(102)により、対象物の位置が認識され、回転手段(104)により、対象物の位置に応じて、ヘッド(103)を回転可能であり、光源(105)から、前記光が発せられ、可撓性導光手段(106)により、光が、光源(105)から走査手段(101)に導かれ、走査手段(101)により、対象物に光が走査されることで画像が形成され、撮像手段(102)により、画像が認識され、制御手段(109)により、撮像手段(102)により認識された画像の状態に応じて、予め定められた所定の動作を行う信号が発せられる。

Description

インターフェース装置、インターフェース装置の駆動方法、インターフェースシステムおよびインターフェースシステムの駆動方法
 本発明は、インターフェース装置、インターフェース装置の駆動方法、インターフェースシステムおよびインターフェースシステムの駆動方法に関する。
 従来、コンピュータ、デジタル機器を中心とする機械と人とのインターフェースは、ボタン、キーボード、マウス等であった。近年では、インターフェースは、前述のものから、画面に直接触れるタッチインターフェースへと発展しており、さらに、ジェスチャーによる空間操作型インターフェースも開発されている。空間操作型インターフェースは、例えば、非特許文献1から3のものがあげられる。
 非特許文献1には、マサチューセッツ工科大学で開発されている「SixthSense」が開示されている。「SixthSense」では、小型プロジェクタとカメラとを組み合わせたインターフェースにより、カメラが指にはめた色サックの位置を認識し、様々なインタラクティブな操作を行える。
 非特許文献2には、マイクロソフト社で開発されている「Omnitouch」が開示されている。「Omnitouch」は、人の肩に装置を乗せたインターフェースであり、小型プロジェクタと、対象物との3次元計測を行う「Xtion」(特許文献1参照)と呼ばれる装置が組み合わされており、色サックを用いず、直接手のジェスチャーを認識できる。
 非特許文献3には、マサチューセッツ工科大学で開発されている「LuminAR」が開示されている。「LuminAR」は、ライトスタンド型のインターフェースであり、ライトスタンドのライトの部分に小型プロジェクタとカメラとが設けられており、機械的に動くアームを備える。
米国特許出願公開第2010/0118123号明細書
Pranav Mistry, SixthSense, MIT Media Lab, [平成23年12月16日検索]、インターネット(URL:http://www.pranavmistry.com/projects/sixthsense) Hrvoje Benko and Scott Saponas, Omnitouch, Microsoft, [平成23年12月16日検索]、インターネット(URL:http://research.microsoft.com/en-us/news/features/touch-101711.aspx) Natan Linder and Pattie Maes, LuminAR, MIT Media Lab, [平成23年12月16日検索]、インターネット(URL:http://fluid.media.mit.edu/people/natan/current/luminar.html)
 「SixthSense」および「Omnitouch」は、操作するために投射する画像の位置を人が制御する必要がある。また、「SixthSense」および「Omnitouch」は、肩、手等を動かして、画像がそこに投射されるようにしなければならず、インターフェースを行う装置を人が装着していなくてはならない。「LuminAR」は、人は何も装着する必要はないが、ライトスタンドのライトの下に手を持っていかなくてはならない。これらは、人が機械に合わせる旧来型のインターフェースであり、ユビキタス型と呼ばれている。これからの世界において、機械と人とのインターフェースは、アンビエント型と呼ばれる、機械が人に合わせるインターフェースに変わっていくとされている。例えば、デジタルサイネージのような大型のものから、携帯端末、携帯電話等の小型のものまで、機械が人とその動きを認識して、状況にあったインタラクションを自律的に行うようになるのである。
 アンビエント型のインターフェースを実現するには、「SixthSense」および「Omnitouch」のように、インターフェースを行う装置を人が装着することはできない。また、LuminARのような大きなアームを必要とするものは、例えば、携帯端末、携帯電話等の小型のものに組み込むことは困難である。
 本発明の目的は、アンビエント型のインターフェースを実現するために、インターフェースを行う装置を人が装着する必要がなく、携帯端末、携帯電話等の小型のものに組み込むことが可能なインターフェース装置、インターフェース装置の駆動方法、インターフェースシステムおよびインターフェースシステムの駆動方法を提供することにある。
 前記目的を達成するために、本発明のインターフェース装置は、
光源と、可撓性導光手段と、走査手段および撮像手段を含むヘッドと、回転手段と、制御手段とを含み、
前記撮像手段により、対象物の位置が認識され、
前記回転手段により、前記対象物の位置に応じて、前記ヘッドを回転可能であり、
前記光源から、光が発せられ、
前記可撓性導光手段により、前記光が、前記光源から前記走査手段に導かれ、
前記走査手段により、前記対象物に前記光が走査されることで画像が形成され、
前記撮像手段により、前記画像が認識され、
前記制御手段により、前記光源と、前記走査手段と、前記撮像手段と、前記回転手段とが制御され、かつ、前記撮像手段により認識された画像の状態に応じて、予め前記状態に対し定められた所定の動作を行う信号が発せられる。
 本発明のインターフェース装置の駆動方法は、
光源と、可撓性導光手段と、走査手段および撮像手段を含むヘッドと、回転手段と、制御手段とを含むインターフェース装置を用い、
前記撮像手段により、対象物の位置を認識する位置認識工程と、
前記回転手段により、前記対象物の位置に応じて、前記ヘッドの向きを調整する調整工程と、
前記光源から、光を発する光発生工程と、
前記可撓性導光手段により、前記光を、前記光源から前記走査手段に導く導光工程と、
前記走査手段により、前記対象物に前記光を走査することで画像を形成する画像形成工程と、
前記撮像手段により、前記画像を認識する画像認識工程と、
前記制御手段により、前記光源と、前記走査手段と、前記撮像手段と、前記回転手段とを制御し、かつ、前記画像認識工程において認識した画像の状態に応じて、予め前記状態に対し定められた所定の動作を行う信号を発する動作工程とを含む。
 本発明のインターフェースシステムは、
前記本発明のインターフェース装置と、プロジェクタとを含み、
前記制御手段により、前記プロジェクタに所望の位置に画像を投射するように指示する信号が発せられる。
 本発明のインターフェースシステムの駆動方法は、
光源と、可撓性導光手段と、走査手段および撮像手段を含むヘッドと、回転手段と、制御手段とを含むインターフェース装置、およびプロジェクタを含むインターフェースシステムを用い、
前記撮像手段により、対象物の位置を認識する位置認識工程と、
前記回転手段により、前記対象物の位置に応じて、前記ヘッドの向きを調整する調整工程と、
前記光源から、光を発する光発生工程と、
前記可撓性導光手段により、前記光を、前記光源から前記走査手段に導く導光工程と、
前記走査手段により、前記対象物に前記光を走査することで画像を形成する画像形成工程と、
前記撮像手段により、前記画像を認識する画像認識工程と、
前記制御手段により、前記光源と、前記走査手段と、前記撮像手段と、前記回転手段とを制御し、かつ、前記画像認識工程において認識した画像の状態に応じて、予め前記状態に対し定められた所定の動作を行う信号を発する動作工程とを含み、
前記動作工程において、前記制御手段により、前記プロジェクタに所望の位置に画像を投射するように指示する信号を発する。
 本発明によれば、アンビエント型のインターフェースを実現するための、インターフェースを行う装置を人が装着する必要がなく、携帯端末、携帯電話等の小型のものに組み込むことが可能なインターフェース装置、インターフェース装置の駆動方法、インターフェースシステムおよびインターフェースシステムの駆動方法を提供できる。
図1は、本発明のインターフェース装置の一例の構成を示すブロック図である。 図2は、本発明のインターフェース装置の駆動方法の一例を示す図である。 図3は、本発明のインターフェース装置およびその駆動方法のその他の例を示す図である。 図4は、本発明のインターフェース装置のさらにその他の例の構成を示す図である。 図5は、本発明のインターフェース装置の光源、可撓性導光手段および走査手段の一例の構成を示す概略図である。 図6は、本発明のインターフェース装置のさらにその他の例の構成を示す図である。 図7は、本発明のインターフェース装置のさらにその他の例の構成を示す図である。 図8は、本発明のインターフェース装置の適用例を示す図である。 図9は、本発明のインターフェースシステムの一例を示す図である。 図10は、本発明のインターフェースシステムのその他の例を示す図である。 図11(a)は、本発明のインターフェース装置の駆動方法における画像形成工程の一例を示す図であり、図11(b)は、Xtionの基本的な原理および課題を示す図である。 図12は、関連技術のインターフェース装置の駆動方法の一例を示す図である。
 以下、本発明のインターフェース装置、インターフェース装置の駆動方法、インターフェースシステムおよびインターフェースシステムの駆動方法について、例を挙げて詳細に説明する。ただし、本発明は、以下の実施例に限定されない。なお、以下の図において、同一部分には、同一符号を付している。また、図面においては、説明の便宜上、各部の構造は適宜簡略化して示す場合があり、各部の寸法比等は、実際とは異なる場合がある。
[実施例1]
 図1のブロック図に、本発明のインターフェース装置の一例の構成を示す。図1に示すとおり、このインターフェース装置は、光源105と、可撓性導光手段106と、走査手段101および撮像手段102を含むヘッド103と、回転手段104と、制御手段109とを主要な構成要素として含む。
 光源105は、例えば、可視光光源、赤外光光源等があげられる。前記可視光光源は、赤、緑および青の可視光を出力するものであることが好ましい。この可視光光源は、赤、緑および青の可視光を合成した出力を有するものであることが好ましいが、赤色光源、緑色光源および青色光源の集合体であってもよい。光源105は、レーザであることが好ましい。
 可撓性導光手段106は、光源105から発せられた光を、走査手段101に導く。可撓性導光手段106は、例えば、光ファイバ、可撓性導波路等があげられる。
 走査手段101は、対象物に前記光を走査する。走査手段101は、前記光を走査し得るものであればいかなるものであってもよく、例えば、集光レンズ、ミラーおよび走査素子等を含む従来公知のものを用いることができる。光源105が、可視光を出力する可視光光源を含む場合には、走査手段101は、可視光画像を投射するプロジェクタとして機能し得る。本発明では、後述のように、走査手段101により、前記対象物に赤外光を走査して画像を形成し、3次元計測を行うことが好ましい。図1において、110は、走査手段101による投射画像を示している。
 撮像手段102は、前記対象物の位置および走査手段101による前記光の走査により形成された画像を認識する。撮像手段102は、例えば、デジタルカメラ、CCD(Charge Coupled Device)カメラ、CMOS(Complementary Metal Oxide Semiconductor)カメラ等があげられる。
 ヘッド103は、走査手段101および撮像手段102を搭載し得るものであれば、その材質、形状等は特に制限されない。ヘッド103の具体例については、後述する。
 回転手段104は、ヘッド103を回転し得るものであれば、いかなるものであってもよい。回転手段104の具体例については、後述する。
 制御手段109は、光源105と、走査手段101と、撮像手段102と、回転手段104とを制御し、かつ、撮像手段102により認識された画像の状態に応じて、予め前記状態に対し定められた所定の動作を行う信号を発する。制御手段109は、例えば、中央処理手段(CPU)等があげられる。制御手段109は、光源105、走査手段101、撮像手段102および回転手段104を、無線で制御し得るものであることが好ましい。有線制御の場合には、電線等に可撓性のものを用いる。
 図2に、本発明のインターフェース装置の駆動方法の一例を示す。本例では、光源105が、前記可視光光源および前記赤外光光源を含み、可撓性導光手段106が、光ファイバであり、ヘッド103が、走査手段101および撮像手段102を包む直方体状の筐体であり、回転手段104が、ヘッド103を左右に回転させるモータであり、前記対象物が、手206である。図2において、制御手段109は、省略している。
(位置認識工程および調整工程)
 まず、図2(a)に示すように、撮像手段102が、対象物(手)206を認識する。近年、画像認識の技術が進んできており、顔認証等は一般のデジタルカメラでも当たり前のものになってきている。手の認識も、同様にして実施可能である。ついで、図2(b)に示すように、手206の位置に応じて、必要であれば、回転手段104によりヘッド103を回転させ、ヘッド103の向きを調整する。ここで、一度、手206を認識すれば、撮像手段102の画角205から外れるように手206が動いても追跡することが可能である。使用の形態によっては、ヘッド103を周期的に回転させて、対象物である人や手の動きを認識することも可能である。
(光発生工程、導光工程、画像形成工程および画像認識工程)
 つぎに、図2(b)に示すように、光源105が発した赤外光が光ファイバ106により走査手段101に導かれ、走査手段101により、手206に前記赤外光を走査することで画像を形成する。本例では、ストライプ状のパターン画像208を形成している。ついで、撮像手段102により、パターン画像208を認識し、3次元計測を行う(3次元計測工程)。3次元計測の方法としては、例えば、撮像手段と走査手段の走査素子との位置のずれを利用した三角測量、手206で反射して戻ってくるパターン画像208の位相変化をとらえるタイムオブフライト法等があげられる。本発明によれば、走査手段101および撮像手段102を含むヘッド103の向きを、任意かつ高速に変えることができる。これは、光源105および制御手段109と、走査手段101とを分離することにより、ヘッド103の体積を大幅に縮小可能なことによる。これを可能にしているのが、光源105から走査手段101に光を導く光ファイバ106である。また、デジタルカメラ等の撮像手段102は、近年、携帯電話等に搭載されていることから分かるように大幅な小型化が進んでおり、走査手段101および撮像手段102を含むヘッド103を、極めて小さく、軽く製造することが可能である。例えば、ヘッド103は、1cm以下にすることが充分に可能である。例えば、走査手段101および撮像手段102は、それぞれ、およそ数mmの径の中に収めることができる。実際、現在、いわゆるピコプロジェクタと呼ばれる小型のレーザプロジェクタに搭載されている走査系は、5mm程度である。このような小さなヘッド103には、小さいが故に早い応答性を持たせることが容易である。特に、装置に対して対象物である手等が近くにある場合、この高速応答性は大きな効果となる。また、ヘッド103が小さいため、これを回転させる回転手段104も小さくて済む。ヘッド103および回転手段104の合計体積も、1~2cm程度で実現可能である。また、通常、光ファイバ106は、径が0.1mm程度であり、曲げにもフレキシブルに追随するため、ヘッド103の動きを阻害することがない。図2(b)において、207は、走査手段101の投射範囲を示している。
(動作工程)
 つぎに、制御手段109により、撮像手段102により認識された画像の状態に応じて、予め前記状態に対し定められた所定の動作を行う信号を発する。図2(c)に示した例では、走査手段101により、選択画面の可視光画像209を投射している。これによって、インタラクティブな操作が可能である。例えば、手206によるジェスチャーによって可視光画像の表示を促し、それに応じて、手206の極近傍に何らかのオペレーションを促す可視光画像を投射し、それに手206が触れることによって動作を行う等である。本例では、可視光画像を用いているが、ジェスチャーで他のものをコントロールするのみであってもよい。
(実施例2)
 図11(a)に、本発明のインターフェース装置の駆動方法における画像形成工程の一例を示す。本例では、前記画像形成工程において、前記位置認識工程で認識した手206の位置に応じて、パターン画像208のパターンの密度を変更している。この点を除き、本例は、実施例1のインターフェース装置の駆動方法と同様である。
 アンビエント型のインターフェースを実現するためには、機械が人を認識するために、広い認識空間を持たなくてはならない。認識空間が狭いということは、人の動きを制限することになるからである。この点において、現状の技術は多くの課題を抱えている。例えば、現在最も有力なジェスチャー入力装置であるXtionは、つぎのような課題を抱えている。
 図11(b)に、Xtionの基本的な原理および課題を示す。図11(b)に示すとおり、Xtionは、赤外光パターン発生装置1101およびカメラ1102を備える。Xtionの基本原理は、いわゆる三角測量による3次元的な対象物認証である。赤外光パターン発生装置1101から投射される赤外光パターン1108が対象物(本例では、手)1106に当たり、手1106の形状に応じて発生する画像歪みを、カメラ1102で読み取る。赤外光パターン発生装置1101の投射範囲とカメラ1102の画角との重複する領域が認識空間となる。
 投射した赤外光パターンは、投射距離が長くなるほど広がるため、装置に近い領域では密に、離れた領域では疎になる。したがって、手1106が装置に近すぎると判別できなくなり、手1106が装置から離れすぎると解像度が落ちる。現行の製品では、有効距離は、80cm~3m程度となっている。また、図11(b)に示すように、認識空間が限られており、この空間から外れたものは認識できない。装置に近づくほど、この空間から外れやすいということになる。このように、現状の技術は、認識空間の狭いものとなっている。
 これを解決するために、LuminARが備える機械的に動くアームで装置を制御すればよさそうである。しかし、小型プロジェクタとカメラとを人等の対象物の動きに合わせて動かすには、大きなアームが必要となり、例えば、携帯端末、携帯電話等の小型のものに組み込むことは困難である。
 図11(b)に示した例では、投射距離によって粗密が発生するため認識空間が狭かったが、本例では、実施例1のインターフェース装置の駆動方法に加えて、さらに、投射距離によって前記パターンの密度を変更することにより、これを防止している。これにより、実施例1のインターフェース装置の駆動方法のように携帯端末、携帯電話等の小型のものに組み込むことを可能にしつつ、手206に対するパターンの密度をほぼ一定にすることができ、投射距離にかかわらず認識精度を一定に保つことが可能である。本例において、前記パターンの密度に代えて、パターン画像208そのものを変更してもよい。
(実施例3)
 図3に、本発明のインターフェース装置およびその駆動方法のその他の例を示す。図3に示すとおり、本例のインターフェース装置およびその駆動方法は、回転手段104が、走査手段101の投射方向の軸を中心にヘッド103を回転させるモータであり、前記動作工程において、前記画像認識工程で認識した画像に応じて、回転手段104によりヘッド103を回転することで、可視光画像209を回転すること以外、実施例1のインターフェース装置およびその駆動方法と同様である。
 本例では、図3(a)に示すように、前記画像認識工程で認識した手206の向きと、可視光画像209の向きとに不整合があったとき、図3(b)に示すように、回転手段104によりヘッド103を回転することで、可視光画像209を回転し、正常な向きとすることが可能である。可視光画像209は、電気的に反転できるので、例えば、最大180度までの回転手段104があれば済む。
 「SixthSense」および「Omnitouch」は、人の体に装置を装着しているため、人に対する可視光画像の向きは一定である。しかし、アンビエント型のインターフェースでは、人と装置の位置は、一定ではない。「SixthSense」および「Omnitouch」では、人の向きに合わせようとすると、図12に示すような不具合が出てくる。図12において、1201は小型プロジェクタ、1202は投射画像範囲、1203はその一部を使った可視光画像である。図12に示すように、「SixthSense」および「Omnitouch」では、可視光画像1203の制御は、投射画像範囲1202の一部を使って行わざるを得ない。例えば、手で持っている新聞紙上への投射においては、新聞紙の位置が時々刻々と変わるため、その形に合わせて可視光画像1203を変えなければならず、より広い投射画像範囲1202の一部を用いてこれを実現している。可視光画像1203の明るさは、投射画像範囲1202の面積に反比例する。したがって、このような使用形態では、可視光画像1203は不必要に暗くなってしまう。
 図12に示したように、「SixthSense」および「Omnitouch」では、輝度低下を起こさずに可視光画像の向きを変えることは難しい。これに対し、本例によれば、輝度低下を起こすことなく、可視光画像の向きを変えることが可能である。
(実施例4)
 図4に、本発明のインターフェース装置のさらにその他の例の構成を示す。図4に示すとおり、このインターフェース装置は、ヘッド103が、走査手段101および撮像手段102が乗せられた断面ほぼU字状の板(gimbal)であり、回転手段が、ヘッド103を左右に回転させるモータ104aと、ヘッド103を上下に回転させるモータ104bと、走査手段101の投射方向の軸を中心にヘッド103を回転させるモータ104cの3つを含むこと以外、実施例1のインターフェース装置と同様であり、ヘッド103の回転方向を増やせること以外、実施例1のインターフェース装置の駆動方法と同様にして駆動できる。
(実施例5)
 図5の概略図に、本発明のインターフェース装置の光源、可撓性導光手段および走査手段の一例の構成を示す。図5に示すとおり、本例では、前記光源が、赤色レーザ、緑色レーザおよび青色レーザの3種のレーザの出力を組合せ、1つのビームを出力する可視光レーザ105aと、赤外光レーザ105bとを含む。可視光レーザ105aおよび赤外光レーザ105bの出力は、それぞれ、異なる可撓性導光手段106aおよび106bにより、走査手段101に導かれている。可撓性導光手段106aおよび106bは、固定部506で束ねられ、走査手段101内へと延びている。走査手段101は、固定部507と、レンズ508と、走査素子512とを主要な構成要素として含む。走査素子512は、ミラー511を含む。レンズ508は、可撓性導光手段106aおよび106bから出力される可視光レーザビーム509および赤外光レーザビーム510を走査素子512のミラー511に集光する。本例は、図5に示した部分を除き、実施例1と同様である。
 一般に、レーザは、シングルモードである。シングルモードでは、可視光波長域は1本の可撓性導光手段で伝搬できるが、赤外光波長域までを1本の可撓性導光手段で伝搬するのは困難であり、赤外光が大きく減衰する。赤外光の波長によっては、完全に遮断される。そこで、本例では、可視光レーザ105aの出力と赤外光レーザ105bの出力とを、それぞれ、異なる可撓性導光手段106aおよび106bにより、走査手段101に導いている。最終的に、これらのビームを合成光学系で合成してもよいが、本例では、単に2本のビームを並べて投射させている。可視光の赤、緑および青のレーザは、可視光画像を形成するために、完全に1本のビームとして揃っていることが好ましいが、赤外光パターンは別の像になるので、可撓性導光手段1本分(例えば、約0.1mm)程度ずれていても問題はない。このようにすることで、赤外光の減衰、遮断の問題を解決できる。また、可撓性導光手段を2本束ねた程度では、ヘッドの動きを阻害することもない。
(実施例6)
 図6に、本発明のインターフェース装置のさらにその他の例の構成を示す。本例は、ヘッド103が、走査手段101および撮像手段102を球形の筐体で包んだ形状であり、かつ、その周囲をリング状の支持体604で支持され、回転手段が、ヘッド103と支持体604との間に配置された超音波モータ104a、104b、104cである点を除き、実施例4と同様である。本例のインターフェース装置は、支持体604の内側に、ベアリングが設置されていてもよい。
 本例によれば、回転手段を平面とし、ヘッドおよび回転手段の合計の体積をさらに小さくすることが可能である。具体的には、実施例4と同じ走査手段および撮像手段を用いて、ヘッドおよび回転手段の合計体積を、1/4以下にすることが可能である。
(実施例7)
 図7に、本発明のインターフェース装置のさらにその他の例の構成を示す。本例は、回転手段が、前記筐体の外側に配置された3本のピン104d、および3本のピン104dに振動を与える3つのアクチュエータ104eである点を除き、実施例6と同様である。図7(b)において、707は、3本のピン104dの打点位置を示している。アクチュエータ104eは、例えば、圧電素子等があげられる。
 本例は、実施例6の変形例であり、超音波モータの代わりに圧電素子の振動による打撃でヘッド103を回転する。本例によれば、支持体604と回転手段とを別々に形成することができ、調整が容易である。
(実施例8)
 図8に、本発明のインターフェース装置の適用例を示す。図8において、100が、本発明のインターフェース装置である。図8(a)に示すように、本例では、前記動作工程において、前記制御手段により、蛇口801からシンク803に水を出すという動作を行う信号を発している。
 本例は、洗面台、キッチン、風呂場等での蛇口801のインタラクティブな制御を示している。手を下に持ってくると水が出る蛇口は、トイレの洗面台等で使われている。その場合は、水が出る、出ない、の2つの状態しかない。本例によれば、例えば、図8(b)および(c)に示すように、手806の平を上に上げる、または、手806の甲を下に下げるというジェスチャーによる温度の上げ下げの制御、および、図8(d)に示すように、手806の人差し指を右に回すというジェスチャーによる流量の制御等も行うことができる。より具体的な適用例について説明すると、まず、人がシンク803に近づくと、本発明のインターフェース装置100が、人が使いたいと考えていると認識し、シンク803内、もしくはその周辺にアクティブになったことを知らせる可視光画像や使い方を示した可視光画像を投射する。デパート、商店、レストラン等のトイレでは、ここで宣伝を流すことも可能である。その後は、人がやりたいことのジェスチャーを行うことで、それに従って蛇口801が動作する。このとき、前記走査手段により、状態を知らせる可視光画像810を、図8(b)および(c)に示すように手806に投射してもよい。
(実施例9)
 図9に、本発明のインターフェースシステムの一例を示す。本例においては、天井901に設置した本発明のインターフェース装置100とそれに連動したプロジェクタ903が、遠隔操作手段(リモコン)なしでの空調機904の制御を可能にする。図9(a)に示すように、手906を、手の平を上に向けた状態で数秒保持すると、本発明のインターフェース装置100が、人がリモコン操作をしたいと考えていると判断する。つぎに、図9(b)に示すように、本発明のインターフェース装置100の前記走査手段が、可視光画像(本例では、○印)910をその手の平に投射して、リモコン機能がアクティブになったことを人に知らせる。これにより、別のジェスチャーで状態を解除するまで、本発明のインターフェース装置100は、手906がリモコンになっていると認識する。この状態で、図9(c)に示すように、空調機904を指さすと、本発明のインターフェース装置100は、人が空調機904を操作したいと考えたと判断し、図9(d)に示すように、空調の情報、操作ボタン等の投射画像907を空調機904に投射するよう、プロジェクタ903に信号を発する。その投射画像907にもとづき、何らかのジェスチャーを行えば遠隔操作ができることになる。図9(e)では、室温を下げる操作を行っている。
 日常生活で手の平を上に向けて数秒保持することは少ない。本例では、このジェスチャーを起点とすることで、手906のなにげない動きで空調機904を操作してしまう可能性を下げている。また、本発明のインターフェース装置100の前記走査手段から可視光画像(本例では、○印)910を投射することで、人は安心して次の操作を行うことができる。
 本例のようなインターフェースシステムにおいては、操作可能な電子機器等を予め登録しておくことになる。本例では、空調機904を例に取ったが、テレビ、オーディオ機器、ラジオ、照明器具、扇風機、ストーブ、カーテン、シャッタ等、様々なものに応用可能である。プロジェクタ903からの画像の投射は、テレビ等自体、もしくは周辺の壁、床、天井等に対して行えばよい。
(実施例10)
 図10に、本発明のインターフェースシステムのその他の例を示す。図10において、100aおよび100bが、天井1001に設置した本発明のインターフェース装置であり、1003が、プロジェクタである。
 本例は、会議室でのプレゼンテーション支援システムを示している。図10に示すように、人1005は、プロジェクタ1003から投射された投射画像1009上のスライドを切り替える操作をジェスチャーで行っている。これは、本発明のインターフェース装置100aが人1005のジェスチャーを認識してプロジェクタ1003を操作することにより実行されている。人1006は、本発明のインターフェース装置100bを使ってテーブル1007上に操作用の投射画像1008を投射させている。このとき、本発明のインターフェース装置100bは、前記走査手段により、人の向き、やりたいことを認識して適切な向きに投射画像1008を投射している。このように、本発明のインターフェースシステムにより、何も持たない状態で全ての操作が行うことが可能となる。
 上記の実施例の一部または全部は、以下の付記のようにも記載しうるが、以下には限定されない。
(付記1)
光源と、可撓性導光手段と、走査手段および撮像手段を含むヘッドと、回転手段と、制御手段とを含み、
前記撮像手段により、対象物の位置が認識され、
前記回転手段により、前記対象物の位置に応じて、前記ヘッドを回転可能であり、
前記光源から、光が発せられ、
前記可撓性導光手段により、前記光が、前記光源から前記走査手段に導かれ、
前記走査手段により、前記対象物に前記光が走査されることで画像が形成され、
前記撮像手段により、前記画像が認識され、
前記制御手段により、前記光源と、前記走査手段と、前記撮像手段と、前記回転手段とが制御され、かつ、前記撮像手段により認識された画像の状態に応じて、予め前記状態に対し定められた所定の動作を行う信号が発せられる、インターフェース装置。
(付記2)
前記光源は、可視光光源と、赤外光光源とを含み、
前記赤外光光源を用いて、3次元計測が行われる、付記1記載のインターフェース装置。
(付記3)
前記可視光光源は、赤色レーザ、緑色レーザおよび青色レーザの3種のレーザの出力を組合せ、1つのビームを出力する可視光レーザであり、
前記赤外光光源は、赤外光レーザである、付記2記載のインターフェース装置。
(付記4)
前記可視光レーザの出力および前記赤外光レーザの出力は、それぞれ、異なる可撓性導光手段により、前記走査手段に導かれる、付記3記載のインターフェース装置。
(付記5)
前記回転手段は、前記走査手段の投射方向の軸を中心に前記ヘッドを回転させる回転手段を含む、付記1から4のいずれかに記載のインターフェース装置。
(付記6)
前記ヘッドは、前記走査手段および前記撮像手段を球形の筐体で包んだ形状であり、
前記ヘッドは、その周囲をリング状の支持体で支持され、
前記回転手段は、前記ヘッドと前記支持体との間に配置された超音波モータを含む、付記1から5のいずれかに記載のインターフェース装置。
(付記7)
前記ヘッドは、前記走査手段および前記撮像手段を球形の筐体で包んだ形状であり、
前記ヘッドは、その周囲をリング状の支持体で支持され、
前記回転手段は、前記筐体の外側に配置されたピン、および前記ピンに振動を与えるアクチュエータを含む、付記1から5のいずれかに記載のインターフェース装置。
(付記8)
前記可撓性導光手段は、光ファイバである、付記1から7のいずれかに記載のインターフェース装置。
(付記9)
前記対象物が、人体の特定部位であり、
前記制御手段により、前記特定部位が遠隔操作手段と認識され、
前記走査手段により、前記遠隔操作手段と認識されたことを知らせる可視光画像が前記特定部位に投射される、付記2から8のいずれかに記載のインターフェース装置。
(付記10)
光源と、可撓性導光手段と、走査手段および撮像手段を含むヘッドと、回転手段と、制御手段とを含むインターフェース装置を用い、
前記撮像手段により、対象物の位置を認識する位置認識工程と、
前記回転手段により、前記対象物の位置に応じて、前記ヘッドの向きを調整する調整工程と、
前記光源から、光を発する光発生工程と、
前記可撓性導光手段により、前記光を、前記光源から前記走査手段に導く導光工程と、
前記走査手段により、前記対象物に前記光を走査することで画像を形成する画像形成工程と、
前記撮像手段により、前記画像を認識する画像認識工程と、
前記制御手段により、前記光源と、前記走査手段と、前記撮像手段と、前記回転手段とを制御し、かつ、前記画像認識工程において認識した画像の状態に応じて、予め前記状態に対し定められた所定の動作を行う信号を発する動作工程とを含む、インターフェース装置の駆動方法。
(付記11)
前記光源は、可視光光源と、赤外光光源とを含み、
前記光発生工程は、前記赤外光光源を用いて、3次元計測を行う3次元計測工程を含む、付記10記載のインターフェース装置の駆動方法。
(付記12)
前記可視光光源は、赤色レーザ、緑色レーザおよび青色レーザの3種のレーザの出力を組合せ、1つのビームを出力する可視光レーザであり、
前記赤外光光源は、赤外光レーザである、付記11記載のインターフェース装置の駆動方法。
(付記13)
前記導光工程において、前記可視光レーザの出力および前記赤外光レーザの出力を、それぞれ、異なる可撓性導光手段により、前記走査手段に導く、付記12記載のインターフェース装置の駆動方法。
(付記14)
前記回転手段は、前記走査手段の投射方向の軸を中心に前記ヘッドを回転させる回転手段を含み、
前記動作工程において、前記走査手段から可視光画像を投射し、かつ、前記画像認識工程において認識した画像に応じて、前記回転手段により前記ヘッドを回転することで、前記可視光画像を回転する、付記11から13のいずれかに記載のインターフェース装置の駆動方法。
(付記15)
前記対象物が、人体の特定部位であり、
前記動作工程において、前記制御手段により、前記特定部位を遠隔操作手段と認識し、かつ、前記走査手段により、前記遠隔操作手段と認識したことを知らせる可視光画像を前記特定部位に投射する、付記11から14のいずれかに記載のインターフェース装置の駆動方法。
(付記16)
前記画像形成工程において、パターン画像を形成し、かつ、前記位置認識工程において認識した前記対象物の位置に応じて、前記パターンの密度および前記パターンの少なくとも一方を変更する、付記10から15のいずれかに記載のインターフェース装置の駆動方法。
(付記17)
付記1から9のいずれかに記載のインターフェース装置と、プロジェクタとを含み、
前記制御手段により、前記プロジェクタに所望の位置に画像を投射するように指示する信号が発せられる、インターフェースシステム。
(付記18)
光源と、可撓性導光手段と、走査手段および撮像手段を含むヘッドと、回転手段と、制御手段とを含むインターフェース装置、およびプロジェクタを含むインターフェースシステムを用い、
前記撮像手段により、対象物の位置を認識する位置認識工程と、
前記回転手段により、前記対象物の位置に応じて、前記ヘッドの向きを調整する調整工程と、
前記光源から、光を発する光発生工程と、
前記可撓性導光手段により、前記光を、前記光源から前記走査手段に導く導光工程と、
前記走査手段により、前記対象物に前記光を走査することで画像を形成する画像形成工程と、
前記撮像手段により、前記画像を認識する画像認識工程と、
前記制御手段により、前記光源と、前記走査手段と、前記撮像手段と、前記回転手段とを制御し、かつ、前記画像認識工程において認識した画像の状態に応じて、予め前記状態に対し定められた所定の動作を行う信号を発する動作工程とを含み、
前記動作工程において、前記制御手段により、前記プロジェクタに所望の位置に画像を投射するように指示する信号を発する、インターフェースシステムの駆動方法。
 以上、実施形態および実施例を参照して本願発明を説明したが、本願発明は、上記実施形態および実施例に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解しうる様々な変更をすることができる。
 この出願は、2012年1月24日に出願された日本出願特願2012-12158を基礎とする優先権を主張し、その開示の全てをここに取り込む。
100、100a、100b インターフェース装置
101  走査手段
102  撮像手段
103  ヘッド
104  回転手段
104a、104b、104c モータ(超音波モータ)
104d ピン
104e アクチュエータ
105  光源
105a 可視光レーザ
105b 赤外光レーザ
106、106a、106b 可撓性導光手段
109  制御手段
110、907、1008、1009 投射画像
205  画角
206、806、906、1106 手(対象物)
207  投射範囲
208  パターン画像
209、810、910、1203  可視光画像
506、507 固定部
508  レンズ
509  可視光レーザビーム
510  赤外光レーザビーム
511  ミラー
512  走査素子
604  支持体
707  ピンの打点位置
801  蛇口
803  シンク
901、1001 天井
903、1003 プロジェクタ
904  空調機
1005、1006 人
1007 テーブル
1101 赤外光パターン発生装置
1102 カメラ
1108 赤外光パターン
1201 小型プロジェクタ
1202 投射画像範囲

Claims (10)

  1. 光源と、可撓性導光手段と、走査手段および撮像手段を含むヘッドと、回転手段と、制御手段とを含み、
    前記撮像手段により、対象物の位置が認識され、
    前記回転手段により、前記対象物の位置に応じて、前記ヘッドを回転可能であり、
    前記光源から、光が発せられ、
    前記可撓性導光手段により、前記光が、前記光源から前記走査手段に導かれ、
    前記走査手段により、前記対象物に前記光が走査されることで画像が形成され、
    前記撮像手段により、前記画像が認識され、
    前記制御手段により、前記光源と、前記走査手段と、前記撮像手段と、前記回転手段とが制御され、かつ、前記撮像手段により認識された画像の状態に応じて、予め前記状態に対し定められた所定の動作を行う信号が発せられる、インターフェース装置。
  2. 前記光源は、可視光光源と、赤外光光源とを含み、
    前記赤外光光源を用いて、3次元計測が行われる、請求項1記載のインターフェース装置。
  3. 前記可視光光源は、赤色レーザ、緑色レーザおよび青色レーザの3種のレーザの出力を組合せ、1つのビームを出力する可視光レーザであり、
    前記赤外光光源は、赤外光レーザである、請求項2記載のインターフェース装置。
  4. 前記可視光レーザの出力および前記赤外光レーザの出力は、それぞれ、異なる可撓性導光手段により、前記走査手段に導かれる、請求項3記載のインターフェース装置。
  5. 前記回転手段は、前記走査手段の投射方向の軸を中心に前記ヘッドを回転させる回転手段を含む、請求項1から4のいずれか一項に記載のインターフェース装置。
  6. 前記対象物が、人体の特定部位であり、
    前記制御手段により、前記特定部位が遠隔操作手段と認識され、
    前記走査手段により、前記遠隔操作手段と認識されたことを知らせる可視光画像が前記特定部位に投射される、請求項2から5のいずれか一項に記載のインターフェース装置。
  7. 光源と、可撓性導光手段と、走査手段および撮像手段を含むヘッドと、回転手段と、制御手段とを含むインターフェース装置を用い、
    前記撮像手段により、対象物の位置を認識する位置認識工程と、
    前記回転手段により、前記対象物の位置に応じて、前記ヘッドの向きを調整する調整工程と、
    前記光源から、光を発する光発生工程と、
    前記可撓性導光手段により、前記光を、前記光源から前記走査手段に導く導光工程と、
    前記走査手段により、前記対象物に前記光を走査することで画像を形成する画像形成工程と、
    前記撮像手段により、前記画像を認識する画像認識工程と、
    前記制御手段により、前記光源と、前記走査手段と、前記撮像手段と、前記回転手段とを制御し、かつ、前記画像認識工程において認識した画像の状態に応じて、予め前記状態に対し定められた所定の動作を行う信号を発する動作工程とを含む、インターフェース装置の駆動方法。
  8. 前記光源は、可視光光源を含み、
    前記回転手段は、前記走査手段の投射方向の軸を中心に前記ヘッドを回転させる回転手段を含み、
    前記動作工程において、前記走査手段から可視光画像を投射し、かつ、前記画像認識工程において認識した画像に応じて、前記回転手段により前記ヘッドを回転することで、前記可視光画像を回転する、請求項7記載のインターフェース装置の駆動方法。
  9. 請求項1から6のいずれか一項に記載のインターフェース装置と、プロジェクタとを含み、
    前記制御手段により、前記プロジェクタに所望の位置に画像を投射するように指示する信号が発せられる、インターフェースシステム。
  10. 光源と、可撓性導光手段と、走査手段および撮像手段を含むヘッドと、回転手段と、制御手段とを含むインターフェース装置、およびプロジェクタを含むインターフェースシステムを用い、
    前記撮像手段により、対象物の位置を認識する位置認識工程と、
    前記回転手段により、前記対象物の位置に応じて、前記ヘッドの向きを調整する調整工程と、
    前記光源から、光を発する光発生工程と、
    前記可撓性導光手段により、前記光を、前記光源から前記走査手段に導く導光工程と、
    前記走査手段により、前記対象物に前記光を走査することで画像を形成する画像形成工程と、
    前記撮像手段により、前記画像を認識する画像認識工程と、
    前記制御手段により、前記光源と、前記走査手段と、前記撮像手段と、前記回転手段とを制御し、かつ、前記画像認識工程において認識した画像の状態に応じて、予め前記状態に対し定められた所定の動作を行う信号を発する動作工程とを含み、
    前記動作工程において、前記制御手段により、前記プロジェクタに所望の位置に画像を投射するように指示する信号を発する、インターフェースシステムの駆動方法。
PCT/JP2012/073789 2012-01-24 2012-09-18 インターフェース装置、インターフェース装置の駆動方法、インターフェースシステムおよびインターフェースシステムの駆動方法 WO2013111374A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013555100A JP6102750B2 (ja) 2012-01-24 2012-09-18 インターフェース装置、インターフェース装置の駆動方法、インターフェースシステムおよびインターフェースシステムの駆動方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012012158 2012-01-24
JP2012-012158 2012-05-24

Publications (1)

Publication Number Publication Date
WO2013111374A1 true WO2013111374A1 (ja) 2013-08-01

Family

ID=48873123

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/073789 WO2013111374A1 (ja) 2012-01-24 2012-09-18 インターフェース装置、インターフェース装置の駆動方法、インターフェースシステムおよびインターフェースシステムの駆動方法

Country Status (2)

Country Link
JP (1) JP6102750B2 (ja)
WO (1) WO2013111374A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016152109A1 (ja) * 2015-03-25 2016-09-29 日本電気株式会社 制御装置、制御方法およびプログラム記録媒体
CN106155302A (zh) * 2015-05-12 2016-11-23 现代自动车株式会社 手势输入装置和包括该手势输入装置的车辆
WO2016208171A1 (ja) * 2015-06-23 2016-12-29 日本電気株式会社 投射装置、投射システムおよびインターフェース装置
JPWO2015049866A1 (ja) * 2013-10-02 2017-03-09 日本電気株式会社 インターフェース装置、モジュール、制御部品、制御方法およびコンピュータプログラム
EP3674490A1 (en) * 2018-12-31 2020-07-01 Kohler Co. Systems and methods for automatically controlling a faucet
JP7474127B2 (ja) 2020-06-17 2024-04-24 株式会社ニチベイ 遮蔽材制御装置及び遮蔽材制御方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008134793A (ja) * 2006-11-28 2008-06-12 Fujifilm Corp 電子的手書入力装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008134793A (ja) * 2006-11-28 2008-06-12 Fujifilm Corp 電子的手書入力装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HIROKI GOTO ET AL.: "Joho Toei Teiji Interface no Kaihatsu", ITE TECHNICAL REPORT, vol. 34, no. 34, 30 August 2010 (2010-08-30), pages 85 - 88 *
RYUGO KIJIMA ET AL.: "The inteaction with screen using the projection head mounted display with an infrared camera", CORRESPONDENCES ON HUMAN INTERFACE, vol. 2, no. 2, 13 June 2000 (2000-06-13), pages 69 - 74 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2015049866A1 (ja) * 2013-10-02 2017-03-09 日本電気株式会社 インターフェース装置、モジュール、制御部品、制御方法およびコンピュータプログラム
WO2016152109A1 (ja) * 2015-03-25 2016-09-29 日本電気株式会社 制御装置、制御方法およびプログラム記録媒体
JPWO2016152109A1 (ja) * 2015-03-25 2018-02-08 日本電気株式会社 制御装置、制御方法及びプログラム
CN106155302A (zh) * 2015-05-12 2016-11-23 现代自动车株式会社 手势输入装置和包括该手势输入装置的车辆
WO2016208171A1 (ja) * 2015-06-23 2016-12-29 日本電気株式会社 投射装置、投射システムおよびインターフェース装置
JPWO2016208171A1 (ja) * 2015-06-23 2018-05-31 日本電気株式会社 投射装置、投射システムおよびインターフェース装置
US10620511B2 (en) 2015-06-23 2020-04-14 Nec Corporation Projection device, projection system, and interface apparatus
EP3674490A1 (en) * 2018-12-31 2020-07-01 Kohler Co. Systems and methods for automatically controlling a faucet
CN111382671A (zh) * 2018-12-31 2020-07-07 科勒公司 用于自动控制水龙头的系统和方法
JP7474127B2 (ja) 2020-06-17 2024-04-24 株式会社ニチベイ 遮蔽材制御装置及び遮蔽材制御方法

Also Published As

Publication number Publication date
JP6102750B2 (ja) 2017-03-29
JPWO2013111374A1 (ja) 2015-05-11

Similar Documents

Publication Publication Date Title
JP6102750B2 (ja) インターフェース装置、インターフェース装置の駆動方法、インターフェースシステムおよびインターフェースシステムの駆動方法
US10528154B2 (en) System for projecting content to a display surface having user-controlled size, shape and location/direction and apparatus and methods useful in conjunction therewith
US9880619B2 (en) Virtual reality system with a finger-wearable control
US8373678B2 (en) Electronics device having projector module
JP2010244484A (ja) 画像表示装置、画像表示方法および画像表示プログラム
JP6617755B2 (ja) 表示装置及び電子機器
JP6134804B2 (ja) 映像投射装置
EP2294828A1 (en) Portable projector and method of operating a portable projector
JP2010243576A (ja) 画像表示装置および画像表示システム
JPH1124839A (ja) 情報入力装置
CN105765494B (zh) 投影型影像显示装置和投影型影像显示方法
JP5589644B2 (ja) 周辺画像表示装置及びその表示方法
WO2013099407A1 (ja) 表示装置及び投影装置
JP6102751B2 (ja) インターフェース装置およびインターフェース装置の駆動方法
WO2017141956A1 (ja) 空間表示装置
JP2015079169A (ja) 投影装置
JP2012029180A (ja) 周辺画像表示装置及びその表示方法
JP2017146564A (ja) 空間表示装置
JP4687820B2 (ja) 情報入力装置及び情報入力方法
CN106293134B (zh) 带有无线鼠标功能的移动终端
JP5554683B2 (ja) 携帯電子機器
WO2007042538A1 (en) Assemblies and methods for displaying an image
JP2007025801A (ja) 情報処理装置および情報処理方法、表示制御装置および表示制御方法、並びにプログラム
TW201428553A (zh) 影像互動系統及其操控裝置
JP2013137472A (ja) 投影装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12866976

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013555100

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12866976

Country of ref document: EP

Kind code of ref document: A1